PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV betrügt


Seiten : 1 2 3 4 [5] 6

tEd
2005-07-29, 14:14:01
Naja ich weiss auch nicht. Sonst gibts im 3DC immer Artikel wenn irgend welche optimierungen negativ auffallen , vielleicht ist er ja in Arbeit.

Für mich ist halt langsam das Problem dass ich kein Vertrauen mehr in die Tester von Grafikkarten habe und solche Sachen welche für mich ein wichtige Kaufentscheidung sein können darüber nicht berichtet wird. Das beste wäre wenn man eine Grafikkarte für 2-3 Tage gratis selber testen könnte dann wäre das Problem für mich gelöst und ich könnte mir selber ein Bild machen.

MadManniMan
2005-07-29, 14:38:25
Für mich ist halt langsam das Problem dass ich kein Vertrauen mehr in die Tester von Grafikkarten habe und solche Sachen welche für mich ein wichtige Kaufentscheidung sein können darüber nicht berichtet wird. Das beste wäre wenn man eine Grafikkarte für 2-3 Tage gratis selber testen könnte dann wäre das Problem für mich gelöst und ich könnte mir selber ein Bild machen.

Richtig, mein Vertrauen schrumpft auch - würde ich nicht hier im Forum lesen, wüßte ich keinesfalls um die Schwäche des G70 ... wann kommt was vom 3DC direkt?

Gast
2005-07-29, 14:49:28
Richtig, mein Vertrauen schrumpft auch - würde ich nicht hier im Forum lesen, wüßte ich keinesfalls um die Schwäche des G70 ... wann kommt was vom 3DC direkt?

Ich glaube das die Redakteure auf den R520 warten und dann auf diese Problematik eingehen! Wahrscheinlich wird dann ein Treiber-Update das zu agressive Filtern bei nv korrigieren und damit ist auch das Flimmern wieder weg! Natürlich ist dann die Performance auch eine andere, aber wir werden sehen!

Seraf
2005-07-29, 14:50:56
Richtig, mein Vertrauen schrumpft auch - würde ich nicht hier im Forum lesen, wüßte ich keinesfalls um die Schwäche des G70 ... wann kommt was vom 3DC direkt?

Was soll denn berichtet werden?
Wir wissen ja noch nicht mal ob Vorsatz oder nicht. Wir wissen auch nicht ob es demnächst einen Treiber geben wird der das Problem fixt usw, usw.
Ich will auch nicht sehen das sich 3DCenter durch einen Schnellschuß in die Nesseln setzt. z.B. war der Doom3 Ultrashadow Artikel nicht so das gelbe vom Ei weil noch nicht alle Fakten auf dem Tisch lagen.

Wir könnten höchstens schreiben das der G70 Probleme mit dem AF hat und das im Moment von ihm deshalb abzuraten ist, bis näheres bekannt ist. Einige animierte Beispiele wären natürlich auch nicht schlecht damit niemand denkt das hier nur Erbsenzähler unterwegs sind.

aths
2005-07-29, 17:59:09
Richtig, mein Vertrauen schrumpft auch - würde ich nicht hier im Forum lesen, wüßte ich keinesfalls um die Schwäche des G70 ... wann kommt was vom 3DC direkt?When it's done. DA geht vor. Und ich möchte die Filtersache in einen größeren Kontext setzen.

Gast
2005-07-29, 18:00:47
When it's done. DA geht vor. Und ich möchte die Filtersache in einen größeren Kontext setzen.
:up:

aths
2005-07-29, 18:02:08
Das Problem ist imo, dass nirgends das Referenz AF definiert wird. Dementsprechend kann jeder filtern wies im gerade gefällt. Wenn 16xAF das Maximum der erreichbaren AF Quailtät stellt, müsste man eben dieses gegen dass perfekte SSAA "AF" testen. AA müsste man dann wieder gesondert vergleichen.Das ist nicht so einfach. Schon wie trilinear auszusehen hat ist nicht so einfach zu sagen.

Wäre es möglich, eine solche Referenz z.B. via Softwarerenderer oder so zu erzeugen, und dann diese Referenz mit dem Hardware-Bild zu vergleichen?Ja. Aber NV40 rechnet z. B. beim isotropen LOD nicht mehr traditionell, sondern besser – aber noch lange nicht optimal. Da müsste man erst mal das neue isotrope LOD nachprogrammiert bekommen.

aths
2005-07-29, 18:05:29
Könnte anders sein, wenn 3DC diese News lautstärker verkündet hat, Computerbase auch darüber berichtet hätte und sich das bis P3d durchgeschlagen hätte. :mad:Meine anderen Artikel zu Filter-"Optimierungen" sind, egal wer an den Pranger gestellt wurde, nie auf die Resonanz gestoßen, die ich eigentlich erhofft hatte. Wären die User feinfühliger, würden wir heute auch nicht das an schlechten AF-Texturen sehen, was uns vorgesetzt wird. Hinzu kommen die ewigen Nörgler die versuchen, mit solchen Artikeln meine angebliche Tendenziösität zu beweisen.

aths
2005-07-29, 18:11:57
Jens Neuschäfer von nVidia ist gerade bei GIGA und die tollen "Journalisten" labern nur begeistert was von immer besserer und realistischerer Grafik auf der "schnellsten Graka der Welt" blah blah... :|

Wie wär's, wenn sie die Gelegenheit beim Schopfe packten und den nVidia-Fritzen fragen, inwieweit die Unterfilterung denn die Grafikqualität und Realitätsnähe verbessert? :|

Nö, stattdessen labern sie was vom tollen AA und AF (ohne natürlich zu fragen, warum es winkelabhängig ist, wo doch die Karte soooooo schnell ist) und kriechen dem Herrn Neuschäfer in den Hintern. :rolleyes:Jens Neuschäfer weiß, dass was beim AF nicht stimmt, denn ich habs ihm gesagt :)

Aber was soll er sonst tun? Von sich aus darauf – eine Enscheidung, die er nicht getroffen hat – auf die AF-"Optimierung" aufmerksam machen?

Kommen kritische Nachfragen, könnte er sich darauf berufen, dass der WHQL-Test erfüllt wurde. (Was natürlich über Texturen nichts sagt.) Jens wird dafür bezahlt, das Produkt zu verkaufen. Im PR-Bereich wird vermarktet, die Entscheidungen, wie man den User die nächste Qualitätsverschlechterung aufs Auge drückt, fallen woanders.

Gast
2005-07-29, 18:12:06
Meine anderen Artikel zu Filter-"Optimierungen" sind, egal wer an den Pranger gestellt wurde, nie auf die Resonanz gestoßen, die ich eigentlich erhofft hatte. Wären die User feinfühliger, würden wir heute auch nicht das an schlechten AF-Texturen sehen, was uns vorgesetzt wird.
tja, so schaut's leider aus.
aber damals hieß es ja von allüberall 'egal, sieht man nicht und macht die fps höher'. das warnende 'wehret den anfängen' wollte man nicht wahrhaben und erschlug die argumentation mit 'ihr seid doch para'.

nun haben wir als erstes auch reduziert-trilinear von nv bekommen, danach oder zugleich hat ati das auch gebracht, danach gabs das wa-af von nv, die welt freute sich über blistering framerates even in highest settings und nun gibt's eben flimmering at it's best und solange das 3dfx'sche motto 'framerate is king' (oder 'life' - hab's vergessen) nicht beerdigt wird, sprich, solange balken die benchmarks dominieren, ist die chance auf ein verbessertes af von ati auch eher gering.

Demirug
2005-07-29, 18:13:19
Die Idee mit dem Referenzbild funktioniert bei GPUs einfach nicht. Vorallem weil da ja zunehmend die Shaderberechnungen reinspielen. Wenn GPUs mal so genau genormt sind wie CPUs können wir nochmal darüber reden.

Mr. Lolman
2005-07-29, 18:16:36
3dfx'sche motto 'framerate is king' (oder 'life' - hab's vergessen) nicht beerdigt wird, sprich, solange balken die benchmarks dominieren, ist die chance auf ein verbessertes af von ati auch eher gering.

Das galt aber nur bei der Voodoo3. Bei der V5 war die BQ wieder wichtig ;)

Wobei die V3 durchs Postfiltering bei 16bit auch immer die bessere BQ hatte. Nur mit 32bit war damals halt noch nix...

Gast
2005-07-29, 18:17:49
Das beste wäre wenn man eine Grafikkarte für 2-3 Tage gratis selber testen könnte dann wäre das Problem für mich gelöst und ich könnte mir selber ein Bild machen.

ist doch kein problem, im versandhandel hast du ja ein 14-tägiges rückgaberecht, da kannst du die ware schon mal ein paar tage testen, und bei nichtgefallen zurücksenden.

aths
2005-07-29, 18:18:46
tja, so schaut's leider aus.
aber damals hieß es ja von allüberall 'egal, sieht man nicht und macht die fps höher'. das warnende 'wehret den anfängen' wollte man nicht wahrhaben und erschlug die argumentation mit 'ihr seid doch para'.

nun haben wir als erstes auch reduziert-trilinear von nv bekommen, danach oder zugleich hat ati das auch gebracht, danach gabs das wa-af von nv, die welt freute sich über blistering framerates even in highest^ settings und nun gibt's eben flimmering at it's best und solange das 3dfx'sche motto 'framerate is king' (oder 'life' - hab's vergessen) nicht beerdigt wird, sprich, solange balken die benchmarks dominieren, ist die chance auf ein verbessertes af von ati auch eher gering.Das Problem reicht tiefer. Wenn ich versuche, dem User klar zu machen, dass Auflösung nicht alles ist, ernte ich meist nur Kopfschütteln. Höhere Auflösung = besser, das sitzt dermaßen tief ...

Was Antialiasing ist, haben trotz meiner Bemühungen auch noch nicht alle verstanden, da sind nach wie vor diese ganzen Vorurteile (Bild wird unschärfer, AA sei nur ein Trick, eigentlich helfe nur höhere Auflösung etc.) so tief in den Köpfen, das kriegt man nicht raus.

Der User mag wissen, dass bei "Optimierungen" die Filterqualität gesenkt wird, aber er stellt ja 16x AF ein und denkt, letztlich ja doch 16x AF zu bekommen.

Egal, was der Theoretiker vom 3dc schreibt. Die Masse erreiche ich nie. "Mundus vult decipi, ergo decipiatur" – daran halten sich viele Entwickler, nicht nur im Grafikbereich. Aber ich sehe nicht ein, unter schlechter Texturqualität mitleiden zu müssen. Das ist die hauptsächliche Motivation.

Mr. Lolman
2005-07-29, 18:32:25
Da muss ich wiedermal einwerfen, dass AF Optimierungen grundsätzlich nicht zu verteufeln sind. Bis zur Wahrnehmungsschwelle kann man fleissig optimieren, wobei man sich da (aufgrund der Subjektivität) schon mal ins eigene Fleisch schneiden kann. (und das macht man momentan)

Aber, man kann auch AF Optimierungen betreiben, ohne dass die BQ objektiv schlechter wird. Bei Texturen mit geringem Grundflimmerfaktor kann man sich da schon mal ein paar Samples einsparen. Deswegen stört auch niemanden NV HQ bei Ut2004 obwohl da eindeutig brilinear gefiltert wird...

Gast
2005-07-29, 18:47:28
Da muss ich wiedermal einwerfen, dass AF Optimierungen grundsätzlich nicht zu verteufeln sind. Bis zur Wahrnehmungsschwelle kann man fleissig optimieren, wobei man sich da (aufgrund der Subjektivität) schon mal ins eigene Fleisch schneiden kann. (und das macht man momentan)


das einzige was ich noch eventuell einsehen würde wäre die reduzierte trilineare filterung, da man diese je nach texturinhalt kaum wahrnimmt. aber wenn dann bitte winkelunabhängig sonst schiebt man die bandingartefakte wieder mal je nach winkel vor sich hin was extrem unschön aussieht.

ansonsten können sich von mir aus so viel optimierungen einbauen wie sie wollen, von mir aus bis wir nur mehr ein schwarzes bild bekommen, aber ich will das ganze abschalten können (vor allem diese doofe winkelabhängigkeit)

tEd
2005-07-29, 19:02:28
Da muss ich wiedermal einwerfen, dass AF Optimierungen grundsätzlich nicht zu verteufeln sind. Bis zur Wahrnehmungsschwelle kann man fleissig optimieren, wobei man sich da (aufgrund der Subjektivität) schon mal ins eigene Fleisch schneiden kann. (und das macht man momentan)

Aber, man kann auch AF Optimierungen betreiben, ohne dass die BQ objektiv schlechter wird. Bei Texturen mit geringem Grundflimmerfaktor kann man sich da schon mal ein paar Samples einsparen. Deswegen stört auch niemanden NV HQ bei Ut2004 obwohl da eindeutig brilinear gefiltert wird...

Optimierungen sind nicht böses solange man sie komplett abschalten kann. Ich denke da liegt momentan der Hacken bei Nvidia. Als ich meine x800pro gekauft habe war ich doch nicht so zufireden als plötzlich AF optimierungen vorgenommen wurden welche teilweise zu flimmernden Texturen geführt haben. Es war dann zum Glück nicht so schwierig diese mit einem reg key auszuschalten und jetzt mit AI kann man diese ja offiziell abschalten und so sollte es meiner Meinung auch sein.

Das Problem ist halt dass man niemanden dazu zwingen kann und Nvidia hatte mit dieser Taktik eigentlich leider gute Erfahrungen gemacht. Klar kann es sein das man hier mal einen negativen Artikel zu diesem Thema einstreichen muss aber solange die grossen Webseiten das quasi so akzeptieren dann wird das nicht besser.

Auf der einen Seite bin ich als eher erfahrener User nicht glücklich über solche Umstände auf der anderen Seite kann ich die Hersteller verstehen dass der Druck gross ist und bei der gunst um den Kunden zählt was die Masse anbelangt immernoch jedes mehr fps in den Tests.

MarcWessels
2005-07-29, 19:14:43
Jens Neuschäfer weiß, dass was beim AF nicht stimmt, denn ich habs ihm gesagt :)

Aber was soll er sonst tun? Von sich aus darauf – eine Enscheidung, die er nicht getroffen hat – auf die AF-"Optimierung" aufmerksam machen?

Kommen kritische Nachfragen, könnte er sich darauf berufen, dass der WHQL-Test erfüllt wurde. (Was natürlich über Texturen nichts sagt.) Jens wird dafür bezahlt, das Produkt zu verkaufen. Im PR-Bereich wird vermarktet, die Entscheidungen, wie man den User die nächste Qualitätsverschlechterung aufs Auge drückt, fallen woanders.Wäre ich gestern im Publikum gewesen, hätte ich an der Stelle, als er von immer besserer Bild-Qualität von Generation zu Generation sprach, lauthals "BUH!" und "Stimmt nicht!" gerufen! :biggrin:

aths
2005-07-29, 19:31:56
Da muss ich wiedermal einwerfen, dass AF Optimierungen grundsätzlich nicht zu verteufeln sind. Bis zur Wahrnehmungsschwelle kann man fleissig optimieren, wobei man sich da (aufgrund der Subjektivität) schon mal ins eigene Fleisch schneiden kann. (und das macht man momentan)

Aber, man kann auch AF Optimierungen betreiben, ohne dass die BQ objektiv schlechter wird. Bei Texturen mit geringem Grundflimmerfaktor kann man sich da schon mal ein paar Samples einsparen. Sollte man trotzdem nicht.

Es gibt "gutartige" Optimierungen. Also echte Optimierungen. Das meiste was wir heute sehen ist allerdings nur eine Qualitätsverschlechterung und keine tatsächliche Optimierung.

Wann welche Optimierungen echte Optimierungen sind, ist nicht einfach zu beschreiben. Vor allem nicht ohne viel Vorwissen. Damit meine ich, einerseits fehlt es mir noch an Wissen, andererseits könnte ich mit bisherigem Wissensstand auch keinen Artikel sinnvoll schreiben, da die hierfür erforderlichen Grundlagenartikel noch nicht geschrieben sind.

zeckensack
2005-07-29, 19:50:19
Sollte man trotzdem nicht.

Es gibt "gutartige" Optimierungen. Also echte Optimierungen. Das meiste was wir heute sehen ist allerdings nur eine Qualitätsverschlechterung und keine tatsächliche Optimierung.Optimierung ist in dem Kontext sowieso der falsche Begriff. Sich dem Optimum nähern ist was anderes. Dafür muss man natürlich erstmal das Optimum definieren ... die "Optimierungen" über die wir hier reden tun das aber keinesfalls. Sie verschieben die Balance zwischen zwei Optima:
1)perfektes Bild (Flächenintegrale ...)
2)perfekte Performance (alles schwarz)
Die Tendenz geht in Richtung 2, aber nicht mit der Absicht jemals den Endpunkt zu erreichen ... hoffe ich :|
Was heißt noch gleich "trade-off" auf deutsch, möglichst knackig?

Eine Optimierung im eigentlichen Sinn ist zB AF nach reiner Lehre. Dies ist schließlich der Versuch der bestmöglichen Texturwiedergabe pro Bildauflösung, in zweiter Näherung (die erste wäre IMO trilinear isotrop). Mal so als Beispiel.

aths
2005-07-29, 20:24:40
Optimierung ist in dem Kontext sowieso der falsche Begriff. Sich dem Optimum nähern ist was anderes. Dafür muss man natürlich erstmal das Optimum definieren ... die "Optimierungen" über die wir hir reden tun das aber keinesfalls. Sie verschieben die Balance zwischen zwei Optima:
1)perfektes Bild (Flächenintegrale ...)
2)perfekte Performance (alles schwarz)
Die Tendenz geht in Richtung 2, aber nicht mit der Absicht jemals den Endpunkt zu erreichen ... hoffe ich :|
Was heißt noch gleich "trade-off" auf deutsch, möglichst knackig?

Eine Optimierung im eigentlichen Sinn ist zB AF nach reiner Lehre. Dies ist schließlich der Versuch der bestmöglichen Texturwiedergabe pro Bildauflösung, in zweiter Näherung (die erste wäre IMO trilinear isotrop). Mal so als Beispiel.Das Optimum an Qualität ist imo schon das Flächeintegral. Ein perfekter Texturfilter liefert in 640x480 genau die gleichen Texel wie 2560x1920 (also 640x480 mit 4x4 Supersampling und dann Downfilterung.) (+- 1 Bit Abweichung sei mal erlaubt.)

MIP-Mapping ist für die Performance-Optimierung notwendig, um die Zahl an Texeln pro Sample überschaubar zu halten. Imo sollte man lieber mal überlegen, Bi-Samples aus 9 Texeln (3x3) zu erstellen, um zur jeweils höheren MIP greifen zu können. Wenn ich keinen Denkfehler habe, mindert das den Fehler durch das 2-er Alignment bei der vorgefilterten MIP.

Der Trade-Off ist bei mir ein Kompromiss. Jede heute praktisch realisierbare Texturfilterung ist nur eine Näherung, das ist klar.

Angenommen wir berechnen ein Bild in 801x601 und skalieren das hoch auf 1600x1200 – tolle "Optimierung". Ein bisschen in diese Richtung gehen viele heutige Texturfilter-, äh, Trade-Offs.

"Optimierung" bei Texturfilterung heißt für mich, nur das zu berechnen was man sieht und somit weniger zu berechnen zu müssen als nach dem Lehrbuch. Qualität bleibt erhalten, Framerate steigt – das Ergebnis ist "optimaler" als vorher (wobei rein von der Qualität her auf absehbare Zeit natürlich alles suboptimal sein wird.) Erlaubt sind meinetwegen auch minimale Qualitätseinbußen, wenn die Geschwindigkeit dafür erheblich gesteigert werden kann.

Doch um die verlorene Qualität durch Auflösung wieder reinzukriegen – bei weiterhin besserer Gesamtqualität und/oder Framerate als vorher – das bringt kaum eine der derzeitigen so genannten Optimierungen.

Mr. Lolman
2005-07-29, 20:59:12
Bei Computerspielen schloss man bei dem Begriff "Performance", aufgrund von beschränkter Testmöglichkeiten (und Methoden!) bisher immer die "Qualität" von der erreichten Ausgabe aus. Man konzentrierte sich auf die fps (das die BQ unter mittlerweile halbwegs vernünftigen Vorraussetzungen gesondert betrachtet wird, tut der Balkenlänge keinen Abbruch)

Nun schreibt Demirug ein BQ Testprogramm, bei dem es eigentlich die logische Konsequenz ist, das Ergebnis mit den erreichten fps zu multiplizieren. Ein großer Vorteil dieser Methode ist natürlich, dass man den tatsächlichen Nutzen der "Optimierungen" von der, durch schlechtere BQ, erkauften Leistung trennen könnte. z.B.:

HQ=1
Q=0.9
Q+Opt1=0.8
default=0.75

Erreicht man bei Treiberdefault 100fps zählt das soviel wie "75-HQ-fps". Ist HQ dann tatsächlich langsamer bringen die "Optimerungen mehr fps als sie BQ zerstören". Demis Testprogramm müsste man natürlich über die gesamte Benchsequenz laufen lassen. Das ist dann einfach nachvollziehbar und würde vermutlich von allen Reviewern über kurz oder lang verwendet werden. Natürlich würde man keine fps mehr messen, sondern was viel Besseres: PPS Performance per Second!
Imo würde die neue "Währung" von den Usern viel lieber angenommen werden als von den IHVs.

Denn die Hersteller können dann das AF kaputtmachen wie sie wollen - die Balken werden nicht mehr länger - und das ist das Beste an der ganzen Sache! :biggrin:

/edit: ok vll keine pps aber man wird da schon was finden ;)

Gast
2005-07-29, 21:42:25
das ist ja alles schön und gut.
ich gebe dem Thema natürlich Recht.
Nur sehen wir es mal so:
Letztendlich landet jede Ware irgendwie beim Endkunden.
Das Gros der Endkunden in diesem Segment, weiss noch nicht mal was ein Texel eigentlich ist, hat es vermutlich schonmal irgendwo gelesen, mehr aber auch nicht.
Dementsprechend zählen für eben Solche eher Argumente, die sie mit ihrem grösstenteils doch beschränktem Knowhow noch nachvollziehen können.
Da gibt es dann die Einen, die z.B. in ner PC-Zeitschrift nach den Tests entscheiden, nach dem Motto "Die werdens schon wissen" .
Und dann die Anderen, die sich entweder beruflich oder auch durch verstärktes Interesse so gut auskennen, das sie die wahren Hintergründe verstehen.

Nun stelle man sich mal vor, man produziert eine Ware, die grösstenteils Kunden kaufen, welche sich bereits mit groben, teils "verschönerten" Eckdaten begnügen.
Liegt da nicht der Gedanke nahe, genau an diesen Punkten scherpunktmässig "Verbesserungen" anzustreben als solche Eigenschaften der Ware zu optimieren, von denen das Gros der potentiellen Käufer weder weiss, noch Kenntnis nimmt ?

Ich sehe hinter dieser "Vorgehensweise" eine rein Wirtschftliche Entscheidungshaltung.
Wie man sieht, geht der Plan ja auch auf, die Karten gehen weg wie warme Semmeln.

Mr. Lolman
2005-07-29, 21:46:26
hast ja recht. gut ist die Methodik trotzdem nicht...

Gast
2005-07-29, 21:49:32
die idee ist gut, nur wie willst du das vernünftig realisieren.

Demirug
2005-07-29, 22:01:18
Mr. Lolman, mit den Gewichtungsfaktoren bist du aber wieder genauso angeschirmt wenn da was verändert wird und es wieder nicht bemerkt wird. Desweiteren müssen sie die "Optimierungen" nicht zwingend bei allen Spielen gleichstark auf die Performance auswirken.

Desweiteren lassen sich die Ergebnisse einer Bildsequenzanalyse nicht mit den FPS verrechnen. Perfromance und Qualität haben keine lineare Beziehung.

Entsprechend kann man diese Informationen nur als Zusatzinformation wie die FPS zustande gekommen sind anbieten.

Mr. Lolman
2005-07-29, 22:13:26
Mr. Lolman, mit den Gewichtungsfaktoren bist du aber wieder genauso angeschirmt wenn da was verändert wird und es wieder nicht bemerkt wird. Desweiteren müssen sie die "Optimierungen" nicht zwingend bei allen Spielen gleichstark auf die Performance auswirken.

Is ja letztendlich alles eine Zeitfrage. ;) Wie lang braucht denn dein Tool pro frame so ca.?


Desweiteren lassen sich die Ergebnisse einer Bildsequenzanalyse nicht mit den FPS verrechnen. Perfromance und Qualität haben keine lineare Beziehung.

Man könnte die Ergebnisse ja normalisieren!?

Eliot
2005-07-30, 00:30:44
ist doch kein problem, im versandhandel hast du ja ein 14-tägiges rückgaberecht, da kannst du die ware schon mal ein paar tage testen, und bei nichtgefallen zurücksenden.

So funktioniert das nicht. Das öffnen der Ware ist NICHT erlaubt. Wer also die Karte testet, muß dafür auch bezahlen, nämlich durch eine angemessene Wertminderung (wie es das Gesetz auch sagt). Der nächste, der die Ware bekommt, sagt zu Recht, daß diese Ware nicht neuwertig ist, weil sie bereits geöffnet und genutzt wurde. Das funktioniert nur, wenn explizite Angaben zur Ware nicht eingehalten würden. Z.B. 256MB bestellt und nur 128MB bekommen, obwohl auf der Packung 256MB drauf steht.


lg,

Eliot.

Eliot
2005-07-30, 00:34:11
Wäre ich gestern im Publikum gewesen, hätte ich an der Stelle, als er von immer besserer Bild-Qualität von Generation zu Generation sprach, lauthals "BUH!" und "Stimmt nicht!" gerufen! :biggrin:

Du hättest ja bei Giga posten können oder auch direkt an die Moderatoren ein email verfassen können... ;)


lg,

Eliot.

MadManniMan
2005-07-30, 01:25:53
When it's done. DA geht vor. Und ich möchte die Filtersache in einen größeren Kontext setzen.

DA?

Freut mich zu hören, daß dran gearbeitet wird, ABER wo bleibt eine kurze Erwähnung auf 3DC, daß mit den momentanen Treibern die AF-Quali aufm G70 scheiße is?

aths
2005-07-30, 03:38:26
DA?Diplomarbeit.

Freut mich zu hören, daß dran gearbeitet wird, ABER wo bleibt eine kurze Erwähnung auf 3DC, daß mit den momentanen Treibern die AF-Quali aufm G70 scheiße is?Sowas gabs schon. Allerdings wollte ich Leo noch bitten, das erneut zu nennen. Das wird wohl aber erst nächste Woche was.

MarcWessels
2005-07-30, 23:38:12
OT:Braucht wer noch eine nagelneue GeForce-Karte ohne Unterfilterung? :) (Siehe Sig)

Zum Thema:Ich bin mal gespannt, ob Thilo und Co. noch etwas von der ganzen Problematik in der PCGH erwähnen werden - ich hoffe es stark!

Gast
2005-07-31, 10:36:57
Muss mal dazu sagen, das man es mit der Unterfilterungsdiskussion auch Übertreiben kann, Guild Wars z.B. flimmert überhaupt nicht auf meiner 7800GTX.

Es liegt sehr viel daran wie die Texturen ausschauen und angeordnet sind, GW bietet quasi die selbe Weitsicht wie WoW, flimmert hingegen aber ganz und gar nicht.

Ice =A=
2005-07-31, 14:08:08
@zeckensack und aths: Was soll denn das Gerede mit "Flächenintegral"?

zeckensack
2005-07-31, 14:48:44
@zeckensack und aths: Was soll denn das Gerede mit "Flächenintegral"?Ein Pixel ist auf dem Bildschirm ein Rechteck, mit Kanten die parallel zu den Bildschirmkanten sind. Die Texel einer Textur sind ebenfalls als kleine Rechtecke zu betrachten.
Will man nun herausfinden welche Texel zu einem Pixel gehören, sollte man, wenn man es ganz genau machen möchte, dieses Rechteck perspektivisch korrekt in den Texturraum projizieren, wo daraus ein Trapez wird, das zudem frei um die Z-Achse rotiert sein kann.

Die "korrekte" Farbe des Textursamples ist dann die Summe aller Texel in dem Trapez, wobei Texel die nur "beinahe" im Trapez liegen nur anteilig gewichtet werden, geteilt durch den Flächeninhalt.

"Integral" ist also nicht ganz richtig, aber eine ganz gute Kurzversion.

Xmas
2005-07-31, 20:45:58
Integral ist schon richtig, wenn man die Textur als kontinuierliche Funktion betrachtet.

Diskutator
2005-08-01, 08:49:27
das ist ja alles schön und gut.
ich gebe dem Thema natürlich Recht.
Nur sehen wir es mal so:
Letztendlich landet jede Ware irgendwie beim Endkunden.
Das Gros der Endkunden in diesem Segment, weiss noch nicht mal was ein Texel eigentlich ist, hat es vermutlich schonmal irgendwo gelesen, mehr aber auch nicht.
Dementsprechend zählen für eben Solche eher Argumente, die sie mit ihrem grösstenteils doch beschränktem Knowhow noch nachvollziehen können.
Da gibt es dann die Einen, die z.B. in ner PC-Zeitschrift nach den Tests entscheiden, nach dem Motto "Die werdens schon wissen" .
Und dann die Anderen, die sich entweder beruflich oder auch durch verstärktes Interesse so gut auskennen, das sie die wahren Hintergründe verstehen.

Nun stelle man sich mal vor, man produziert eine Ware, die grösstenteils Kunden kaufen, welche sich bereits mit groben, teils "verschönerten" Eckdaten begnügen.
Liegt da nicht der Gedanke nahe, genau an diesen Punkten scherpunktmässig "Verbesserungen" anzustreben als solche Eigenschaften der Ware zu optimieren, von denen das Gros der potentiellen Käufer weder weiss, noch Kenntnis nimmt ?

Ich sehe hinter dieser "Vorgehensweise" eine rein Wirtschftliche Entscheidungshaltung.
Wie man sieht, geht der Plan ja auch auf, die Karten gehen weg wie warme Semmeln.

Das stimmt nicht, im Bezug auf die Semmeln!

Guckst du hier: http://www.alternate.de/html/main/product/TopSeller.html?treeName=HARDWARE&category=Hardware&Level1=&tid=6144&

Topseller beim größtem E-Tailer in Deutschland, keine G70 unter den Tops!

seahawk
2005-08-01, 09:01:00
Das stimmt nicht, im Bezug auf die Semmeln!

Guckst du hier: http://www.alternate.de/html/main/product/TopSeller.html?treeName=HARDWARE&category=Hardware&Level1=&tid=6144&

Topseller beim größtem E-Tailer in Deutschland, keine G70 unter den Tops!

Kein Produkt für deutlich über 300 Euro unter den Tops.

Winter[Raven]
2005-08-01, 09:25:46
Das stimmt nicht, im Bezug auf die Semmeln!

Guckst du hier: http://www.alternate.de/html/main/product/TopSeller.html?treeName=HARDWARE&category=Hardware&Level1=&tid=6144&

Topseller beim größtem E-Tailer in Deutschland, keine G70 unter den Tops!

Glaubst du die ganze Welt kauft nur bei Alternate ein oder was?

Bei den überteuerten Preisen?

Gaestle
2005-08-01, 10:33:35
Das stimmt nicht, im Bezug auf die Semmeln!

Guckst du hier: http://www.alternate.de/html/main/product/TopSeller.html?treeName=HARDWARE&category=Hardware&Level1=&tid=6144&

Topseller beim größtem E-Tailer in Deutschland, keine G70 unter den Tops!


Interessanterweise GAR NIX von NV unter den Top 30.... :|

Grüße

Gaestle
2005-08-01, 10:36:17
Die Idee mit dem Referenzbild funktioniert bei GPUs einfach nicht. Vorallem weil da ja zunehmend die Shaderberechnungen reinspielen. Wenn GPUs mal so genau genormt sind wie CPUs können wir nochmal darüber reden.


Also ab WGF2.0 ?

Grüße

Winter[Raven]
2005-08-01, 10:38:52
Interessanterweise GAR NIX von NV unter den Top 30.... :|

Grüße

Ist ja auch kein Wunder ;) bei den Wuchtpreisen, da kostet eine GTX >= 39€ mehr als bei anderen Shops. Ich beziehe mich jetzt aber nicht nur auf Grafikkarten.

Demirug
2005-08-01, 10:47:51
Also ab WGF2.0 ?

Grüße

Selbst da habe ich Zweifel was AA uund AF angeht.

Gaestle
2005-08-01, 10:48:24
']Ist ja auch kein Wunder ;) bei den Wuchtpreisen, da kostet eine GTX >= 39€ mehr als bei anderen Shops. Ich beziehe mich jetzt aber nicht nur auf Grafikkarten.


Es geht doch nicht nur um die GTX. Die 6800nU steht z.B. für 160,-€ (sogar auch als Silent), was ich doch recht gut finde. Die haben auch 'ne Menge GF6600GT, 6600 oder 6200 im Programm, aber laut der Liste gehen auch die nicht so gut weg, wie die ATis.
Andererseits steht aber je ein SLi-Board auf Platz 7 bzw. 11. :|

Grüße

seahawk
2005-08-01, 10:53:48
Interessanterweise GAR NIX von NV unter den Top 30.... :|

Grüße

Das hängt aber wohl von der Aktualisierung ab. Als ich das Erstemal auf diesen Link antwortete war ne 6800GT auf Platz 2 oder 3.

Hauwech
2005-08-01, 10:58:51
Das hängt aber wohl von der Aktualisierung ab. Als ich das Erstemal auf diesen Link antwortete war ne 6800GT auf Platz 2 oder 3.

Ich will solchen Top10 Listen und Shops zwar nichts unterstellen, aber imho kann man über solche Listen auch ein wenig das Kaufverhalten steuern und Produkte die nicht so gut gehen, ein wenig pushen bzw Lagerbestände abbauen wenn in nächster Zeit neue Produkte anstehen.

Gaestle
2005-08-01, 11:07:55
Das hängt aber wohl von der Aktualisierung ab. Als ich das Erstemal auf diesen Link antwortete war ne 6800GT auf Platz 2 oder 3.


Oha.

Gab's in irgendeiner großen PC-Gazette in den letzten Tagen einen Test bzgl. X800/X850 wo die gut wegegkommen sind?

Ich meine so wie das Sprichwort beim MotoGP (Motorrad-Rennen):
"Win on sunday, sell on monday"

Ich will solchen Top10 Listen und Shops zwar nichts unterstellen, aber imho kann man über solche Listen auch ein wenig das Kaufverhalten steuern und Produkte die nicht so gut gehen, ein wenig pushen bzw Lagerbestände abbauen wenn in nächster Zeit neue Produkte anstehen.

Auch wieder wahr.

Grüße

reunion
2005-08-01, 11:34:35
']Ist ja auch kein Wunder ;) bei den Wuchtpreisen, da kostet eine GTX >= 39€ mehr als bei anderen Shops. Ich beziehe mich jetzt aber nicht nur auf Grafikkarten.


Das gilt allerdings nicht nur für nV-Karten, wodurch das Verhältnis gleich bleibt und dein Beispiel obsolet wird.

mapel110
2005-08-01, 12:20:47
http://www.geizhals.at/eu/?o=8
Top-10 Artikel in Grafikkarten

find ich representativer als Alternate. :)
eine GTX auf Platz 4

reunion
2005-08-01, 12:26:50
http://www.geizhals.at/eu/?o=8
Top-10 Artikel in Grafikkarten

find ich representativer als Alternate. :)
eine GTX auf Platz 4


Diese Liste spiegelt die Verkaufszahlen in keinster Weise wieder, sonst müsste der Athlon X2 4800+ (http://www.geizhals.at/?cat=top100) die mit Abstand meistverkaufte CPU sein. Die Liste von Alternate zeigt hingegen die Verkaufszahlen.

reunion
2005-08-01, 13:16:44
Kein Produkt für deutlich über 300 Euro unter den Tops.


Logisch, dass sich billigere Produkte besser verkaufen.

Gast
2005-08-01, 18:09:56
Diese Liste spiegelt die Verkaufszahlen in keinster Weise wieder, sonst müsste der Athlon X2 4800+ (http://www.geizhals.at/?cat=top100) die mit Abstand meistverkaufte CPU sein. Die Liste von Alternate zeigt hingegen die Verkaufszahlen.
RICHTIG!
Die Zahlen von Alternate basieren ja auch den tatsächlichen Verkäufen und diese Liste wird ständig aus dem Warenwirtschaftssystem aktualisiert, dort wird nicht rumgetrickst!

ocfevercore
2005-08-01, 23:15:35
da stimm ich dir zu!

mapel110
2005-08-02, 01:13:57
Wie sieht das eigentlich mit dem Flimmern bei 2xAF aus? Das ist doch halbwegs Winkelunabhängig?! Tritt das Flimmern da also nicht auf?
Oder ist die Flimmergeschichte unabhängig vom AF-Grad?

MadManniMan
2005-08-02, 01:48:20
Wie sieht das eigentlich mit dem Flimmern bei 2xAF aus? Das ist doch halbwegs Winkelunabhängig?! Tritt das Flimmern da also nicht auf?
Oder ist die Flimmergeschichte unabhängig vom AF-Grad?

Das eine hat mit dem anderen nix zu tun.

turboschlumpf
2005-08-02, 03:28:01
Selbst da habe ich Zweifel was AA uund AF angeht.Wie siehst du die Chancen? Ist es überhaupt realistisch, dass sich dahingehend etwas tut?

Ailuros
2005-08-02, 04:50:29
Wie siehst du die Chancen? Ist es überhaupt realistisch, dass sich dahingehend etwas tut?

Die einzige realistische Chance ist dass es die IHVs fruehzeitig genug aendern. Oder die Affaere fliest einfach so weiter wie momentan, bis die HW stark genug wird und sie zu fortschrittlicheren Filterungs-methoden greifen werden.

paul.muad.dib
2005-08-02, 10:46:50
OT:Braucht wer noch eine nagelneue GeForce-Karte ohne Unterfilterung? :) (Siehe Sig)

Zum Thema:Ich bin mal gespannt, ob Thilo und Co. noch etwas von der ganzen Problematik in der PCGH erwähnen werden - ich hoffe es stark!

Sie sind recht ausführlich darauf eingegangen. Mein Problem ist nur: Ich sehe auf den beiden Beispielbildern, wo 6800U und 7800 GTX verglichen werden, keinen Unterschied.

Demirug
2005-08-02, 11:11:03
Sie sind recht ausführlich darauf eingegangen. Mein Problem ist nur: Ich sehe auf den beiden Beispielbildern, wo 6800U und 7800 GTX verglichen werden, keinen Unterschied.

Das ist das alte Problem. Auf Screenshots ist das einfach nicht darstellbar und die der Farbsystem Wandlung für den Druck tut iheren Rest.

Gaestle
2005-08-02, 11:48:11
Das ist das alte Problem. Auf Screenshots ist das einfach nicht darstellbar und die der Farbsystem Wandlung für den Druck tut iheren Rest.


Allerdings sind die Bilder manchmal auch recht klein, wenn ich mich z.B. an die Ultima-Bilder aus der letzten Ausgabe erinnere.

Grüße

mapel110
2005-08-02, 20:14:15
Ich hab mir jetzt mal alle 3 Optimierungen unter Opengl bei Mohaa angesehen. Also die Sample Optimization sieht man sehr deutlich, aber die anderen beiden find ich zu vernachlässigen. Die stören mich nicht weiter bzw die fallen mir nur auf, wenn ich 5 cm vor dem Bildschirm bin.
Getestet bei 1280x1024 mit 8xS und 16AF. FW 77.77

Diskutator
2005-08-02, 20:19:37
Ich hab mir jetzt mal alle 3 Optimierungen unter Opengl bei Mohaa angesehen. Also die Sample Optimization sieht man sehr deutlich, aber die anderen beiden find ich zu vernachlässigen. Die stören mich nicht weiter bzw die fallen mir nur auf, wenn ich 5 cm vor dem Bildschirm bin.
Getestet bei 1280x1024 mit 8xS und 16AF. FW 77.77
Dann hast du einen schlechten Monitor, ich habe gestern auf einem Samsung 19" TFT eine 7800GTX in Action gesehen und das Flimmern war bei allen HQ-Settings DEUTLICH zu erkennen!

Gast
2005-08-02, 20:25:01
Dann hast du einen schlechten Monitor, ich habe gestern auf einem Samsung 19" TFT eine 7800GTX in Action gesehen und das Flimmern war bei allen HQ-Settings DEUTLICH zu erkennen!
Mapel hat doch eine 6800GT oder seine Sig ist veraltet.

@Mapel
Die Optimierungen würde ich mir eher bei D3D-Games ansehen, bei OGL kann es anders aussehen...

Gast
2005-08-02, 20:31:26
Ich hab mir jetzt mal alle 3 Optimierungen unter Opengl bei Mohaa angesehen. Also die Sample Optimization sieht man sehr deutlich, aber die anderen beiden find ich zu vernachlässigen. Die stören mich nicht weiter bzw die fallen mir nur auf, wenn ich 5 cm vor dem Bildschirm bin.
Getestet bei 1280x1024 mit 8xS und 16AF. FW 77.77


also wenn du die mip-filter-optimierung gerade in OGL nicht merkst frage ich mich wirklich wo du hinguckst. dann gibt es in OGL nämlich nur mehr reines bilinear, das muss man einfach sehen (massenhaft mip-banding)

in D3D wird wenigstens Stage0 noch ordentlich gefiltert, aber in OGL ist diese optimierung einfach grauenhaft.

ansonsten stimm ich dir aber zu, das leichte flimmern in Q gegenüber HQ ist bei realen spieltexturen meist nur sichtbar wenn man extra darauf achtet, und auch Tri-opt ist kaum der rede wert.

mapel110
2005-08-02, 20:56:51
Okay, ich gebs auf. Entweder ist Mafia ein absoluter Spezialfall oder ich sehe da wirklich nichts von den Optimierungen. Schönes Alpha-Test-Textur-Flackern, aber sonst in Ordnung. Alle 3 Optimierungen eingeschaltet sieht für mich genauso aus wie alle 3 Optimierungen ausgeschaltet und High Quality. ;(

Andere nicht völlig zercheatete D3D-Games hab ich derzeit leider nicht auf Platte (Sonst nurnoch Farcry und UT2003).

Huhn
2005-08-03, 01:10:04
mhh ich finde nicht das die 7800gtx so stark flimmert. kann mir da jemand nen beispielspiel/stelle zum testen geben? das flimmern in wow ist bei high quality fast nicht mehr zu sehen (jdfls isses so schwach das es mir nicht aufällt. allerdings spiele ich das auch unter 1280x1024 mit 8xs und 16xaf alle optimierungen an!)
bei der 6600gt sli ist mir das flimmern sehr stark am gras beim drüber fliegen aufgefallen. das sah einfach nur noch grauenhaft aus :(. allerdings habe ich auch nur unter quality gespielt und nicht high quality. Die AA/AF qualität der ATI hat mir bei meiner x800xt pe sehr gut gefallen, allerdings finde ich dass sich die 78gtx kaum dahinter zu verstecken braucht. und mal erlich: wer zockt denn ohne aa und af wenn er eine 78gtx in seinem rechner hat? ich glaub das macht niemand; jdfls niemand der ahnung hat. so und ich mach gerne 1 video zum vergleichen. wie kann ich das erstellen? mit fraps müsste das doch gehen oder? problem nur das das dann immer so gross ist :/

MadManniMan
2005-08-03, 01:17:44
Huhn,
das Problem (naja, Problem ... eher dein Glück ;) ) ist, daß du mit einem AA-Modus mit Supersamplinganteil spielst - wenn ich jetzt nicht ganz blöde bin, relativiert das das Flimmern natürlich.

Guck dir die Spiele mal mit anderen AA-Modi (2* oder 4*) und AF an, vielleicht fällt es dann auf.

aths
2005-08-03, 09:36:10
so und ich mach gerne 1 video zum vergleichen. wie kann ich das erstellen? mit fraps müsste das doch gehen oder? problem nur das das dann immer so gross ist :/Solche Videos liegen mir bereits vor. Und ja, sie sind groß.

Franzmann-Jan
2005-08-04, 16:13:52
In der aktuellen PCGH simmulieren die Redakteure eine normale 7800er, sprich 16PP 425Mhz und 550Mhz, also genau die Leistungsdaten einer ordinären 6800 Ultra. Trotz der selben Angaben ist die 7800er um ca. 10% schneller als die 6800 Ultra. Die PCGH erklärt sich dieses durch Architekturverbesserungen. Doch seien wir mal ehrlich, könnte dies nicht der Effekt der all zu oft angesprochen Filteroptimierung sein? Für mich eine klare Sache. An so kleinen Detaills merkt man doch schon des Öfteren die Nvidia-Freundlichkeit dieser Zeitschrift...

Lasse mich gern von den Gurus belehren :rolleyes:

PCGH_Thilo
2005-08-04, 17:47:39
In der aktuellen PCGH simmulieren die Redakteure eine normale 7800er, sprich 16PP 425Mhz und 550Mhz, also genau die Leistungsdaten einer ordinären 6800 Ultra. Trotz der selben Angaben ist die 7800er um ca. 10% schneller als die 6800 Ultra. Die PCGH erklärt sich dieses durch Architekturverbesserungen. Doch seien wir mal ehrlich, könnte dies nicht der Effekt der all zu oft angesprochen Filteroptimierung sein? Für mich eine klare Sache. An so kleinen Detaills merkt man doch schon des Öfteren die Nvidia-Freundlichkeit dieser Zeitschrift...

Lasse mich gern von den Gurus belehren :rolleyes:

Grüß Gott,

ich zitiere mich mal selbst.

"Außerdem regeln wir mithilfe des Riva Tuners eine 7800-GTX-Platine auf die Pipelines und den Takt einer 6800 Ultra herunter. Danach lassen sich durchgehend rund zehn Prozent realer Leistungsunterschied messen, die zum einen auf die oben erwähnte Filteroptimierung zurückgehen, zum anderen auf die Verbesserungen in der Architektur (so kann die erste Shader-Einheit nun auch Additionen durchführen)."

Damit erledigt sich für mich jede weitere Diskussion von wegen Nvidia-Freundlichkeit. Manchmal hilft es, den Text ordentlich zu lesen.

Gast
2005-08-04, 19:47:42
Doch seien wir mal ehrlich, könnte dies nicht der Effekt der all zu oft angesprochen Filteroptimierung sein?



unwahrscheinlich, die meisten benches werden mit default durchgeführt, verschlechtert wurde aber imo nur HQ.

TiggleD
2005-08-04, 20:06:59
In der aktuellen PCGH simmulieren die Redakteure eine normale 7800er, sprich 16PP 425Mhz und 550Mhz, also genau die Leistungsdaten einer ordinären 6800 Ultra. Trotz der selben Angaben ist die 7800er um ca. 10% schneller als die 6800 Ultra. Die PCGH erklärt sich dieses durch Architekturverbesserungen. Doch seien wir mal ehrlich, könnte dies nicht der Effekt der all zu oft angesprochen Filteroptimierung sein? Für mich eine klare Sache. An so kleinen Detaills merkt man doch schon des Öfteren die Nvidia-Freundlichkeit dieser Zeitschrift...:"Theoretisch" könntest Du sogar Recht haben.

Angenommen die leichte Stromersparniss und die höhere Taktbarkeit sind das Ergebnis einer Architekturverbesserung. Und der Geschwindigkeitsgewinn einzig durch 'optimierte Filter' errungen worden.

Würde man das so annehmen, stellte sich eine Frage: Was haben die nVidia-Entwickler in den 14 Monaten gemacht?
-> Nehmen wir mal an, daß sie trotzdem gearbeitet haben: Wo ist das Produkt ihrer Arbeit? Was haben sie tatsächlich geleistet? Die GTX wäre demzufolge nur eine aufpolierte 6800. Ergo müßte nVidia also noch eine fette Neuentwicklung in der Hinterhand haben...!

:confused: :confused: :confused:

Gummikuh
2005-08-04, 21:08:28
Die GTX wäre demzufolge nur eine aufpolierte 6800. :

Ist sie doch eigentlich auch...oder etwa nicht?

Die X850 ist ja auch nen "Aufguß" von altbewährtem.Tja und die X800 war ja schließlich auch ein Kompromiß, weil die eigentliche Neuentwicklung (R400)sich als "Luftpumpe" entpuppt hat.

Gast
2005-08-05, 10:55:11
"Theoretisch" könntest Du sogar Recht haben.

Angenommen die leichte Stromersparniss und die höhere Taktbarkeit sind das Ergebnis einer Architekturverbesserung. Und der Geschwindigkeitsgewinn einzig durch 'optimierte Filter' errungen worden.

Würde man das so annehmen, stellte sich eine Frage: Was haben die nVidia-Entwickler in den 14 Monaten gemacht?
-> Nehmen wir mal an, daß sie trotzdem gearbeitet haben: Wo ist das Produkt ihrer Arbeit? Was haben sie tatsächlich geleistet? Die GTX wäre demzufolge nur eine aufpolierte 6800. Ergo müßte nVidia also noch eine fette Neuentwicklung in der Hinterhand haben...!

:confused: :confused: :confused:

Da kann man genauso gut fragen, was hat ATI in den letzten 35 Monaten gemacht?

Spass beiseite, hier kommt Ernst.
SM3 ist drin, mehr gibt es nicht. OGL2.0 ist drin, mehr gibt es nicht.
Architektonisch gibt es jetzt 24 Pipelines und Technik aus Mobile Chips.
Ein aufgebohrter VP, TAA und SLI sind quasi die Gimmicks.

Was sollen sie jetzt deiner Meinung nach noch tun, ausser, natürlich, mehr Geschwindigkeit, die ohne richtig schnelle CPUs und höchsten Auflösungen mit AA/AF aber auch nichts bringt.

Wie gut/schlecht die Filterqualität ist, spielt in diesem Fall erstmal keine Rolle. Entweder sie kann per Treiber verbessert werden und so einer wird freigegeben oder wir müssen bis zum nächsten Chip warten und hoffen das es besser wird.

Wären die Filterqualität und das AF richtig gut geworden, gäbe es an der Karte eigentlich kaum was auszusetzen.

wuzetti
2005-08-05, 11:03:20
Was sollen sie jetzt deiner Meinung nach noch tun, ausser, natürlich, mehr Geschwindigkeit, die ohne richtig schnelle CPUs und höchsten Auflösungen mit AA/AF aber auch nichts bringt.


HDR + AA ist immer noch nicht möglich. ist allerdings noch offen, ob ATI das beim R520 bringen wird.

Gast
2005-08-05, 11:07:41
HDR + AA ist immer noch nicht möglich. ist allerdings noch offen, ob ATI das beim R520 bringen wird.

So wie ich das verstanden habe, brauchst du dafür wesentlich mehr als 512MB Ram und ich glaube ehrlich gesagt nicht, das ATI es anbieten wird weil dadurch die Performance so derbe einbrechen würde.

wuzetti
2005-08-05, 11:12:02
So wie ich das verstanden habe, brauchst du dafür wesentlich mehr als 512MB Ram und ich glaube ehrlich gesagt nicht, das ATI es anbieten wird weil dadurch die Performance so derbe einbrechen würde.

das mit den "mehr als 512MB" sagt wer bzw. steht wo?

Gast
2005-08-05, 11:19:44
das mit den "mehr als 512MB" sagt wer bzw. steht wo?

David Kirk hat das in einem Interview von sich gegeben. Wann und wo, weiss ich nicht mehr, aber ich bin mir 100% sicher. Von daher habe ich auch keine Bedenken falls es in Frage gestelt wird und die Gurus dazu was sagen.

Ob und wie man bei HDR mit Kompression was drehen kann, bin ich überfragt.

Demirug
2005-08-05, 11:20:12
das mit den "mehr als 512MB" sagt wer bzw. steht wo?

Das war die Antwort von David Kirk auf die Frage warum sie es nicht eingebaut hätten.

Ist IMHO allerdings leicht übertrieben. Da die FP16 Formate maximal den doppelten Speicherplatz wir die FX8 Formate brauchen würden bei einem Spiel das mit FX8 Formaten und AA maximal 256MB braucht selbst beim vollständige Wechsel auf FP16 Formate 512 MB ausreichen.

Gast
2005-08-05, 11:22:07
Wenn ich mich nicht irre, wurden als Größe wann HDR + AA möglich ist, ungefähr 2GB RAM von David Kirk genannt.

Neomi
2005-08-05, 11:26:11
So wie ich das verstanden habe, brauchst du dafür wesentlich mehr als 512MB Ram und ich glaube ehrlich gesagt nicht, das ATI es anbieten wird weil dadurch die Performance so derbe einbrechen würde.

Die Zahl ist Quatsch. Ein FP16-Backbuffer zuzüglich Z-Buffer braucht inklusive 4x FSAA bei 1600x1200 gerade mal 88 MB.

Hauwech
2005-08-05, 11:28:42
Das war die Antwort von David Kirk auf die Frage warum sie es nicht eingebaut hätten.

Ist IMHO allerdings leicht übertrieben. Da die FP16 Formate maximal den doppelten Speicherplatz wir die FX8 Formate brauchen würden bei einem Spiel das mit FX8 Formaten und AA maximal 256MB braucht selbst beim vollständige Wechsel auf FP16 Formate 512 MB ausreichen.

Und warum bauen sie es dann nicht ein, wenn 512MB ausreichen? Ok, das ist noch lange nicht Standard, aber evtl als 'Bonus' für Käufer solcher Karten und als 'Scharfmacher' ggü dem Wettbewerb vielleicht nicht verkehrt.

Ob es allerdings den eventuellen Transistoraufwand dafür lohnt, wage ich zu bezweifeln.

wuzetti
2005-08-05, 11:57:20
Und warum bauen sie es dann nicht ein, wenn 512MB ausreichen?
Ob es allerdings den eventuellen Transistoraufwand dafür lohnt, wage ich zu bezweifeln.

du hast entweder die antwort selbst schon gegeben oder weil sie sich dieses feature für den 90nm refresh oder überhaupt für die nächste generation vorbehalten wollen.

aths
2005-08-05, 12:03:33
Grüß Gott,

ich zitiere mich mal selbst.

"Außerdem regeln wir mithilfe des Riva Tuners eine 7800-GTX-Platine auf die Pipelines und den Takt einer 6800 Ultra herunter. Danach lassen sich durchgehend rund zehn Prozent realer Leistungsunterschied messen, die zum einen auf die oben erwähnte Filteroptimierung zurückgehen, zum anderen auf die Verbesserungen in der Architektur (so kann die erste Shader-Einheit nun auch Additionen durchführen)."

Damit erledigt sich für mich jede weitere Diskussion von wegen Nvidia-Freundlichkeit. Manchmal hilft es, den Text ordentlich zu lesen.Hallo Thilo, statt "Filteroptimierung" hätte ich "Filter-Qualitätsverschlechterung" geschrieben – oder ist der Texturfilter beim G70 "optimaler" als beim NV40?

Die verbesserte Shader-Unit hilft natürlich nur, wenn Pixelshader-Programme eingesetzt werden die so lang sind, dass die Texelfüllrate nicht mehr limitiert. Nvidia spricht ja auch (leider nur nebulös) von weiteren kleinen Verbesserungen. Das heißt, selbst bei extrem kurzen Pixelshadern und ohne die vergurkte AF-Implementierung müsste der G70 ein bisschen schneller sein.

Ich hoffe eigentlich, dass NV eine 4-Quad-Lösung mit 256-Bit-Interface herausbringt. Im Vergleich zur 6800 U natürlich mit mehr Takt, z. B. 500 MHz. Dafür dürfen sie beim RAM-Takt auch etwas sparen, sagen wir ebenfalls nur 500 MHz. Das wäre doch eine feine Karte, sofern das AF repariert würde :)

aths
2005-08-05, 12:04:05
unwahrscheinlich, die meisten benches werden mit default durchgeführt, verschlechtert wurde aber imo nur HQ.Auch das G70-Q sieht schlechter aus als das alte Q.

Neomi
2005-08-05, 12:12:47
Und warum bauen sie es dann nicht ein, wenn 512MB ausreichen?

Und warum hatte die GeForce 2 keine Shader im Angebot? Sah man doch an der GeForce 3, daß der Speicherausbau es erlaubt hätte...

Mal im Ernst: 512 MB sind zwar mehr als genug (nicht für immer, aber für das gefragte Feature), aber es gibt eben deutlich mehr als nur verbauten Speicher. Nur, weil der nicht der Grund für ein fehlendes Feature ist, heißt das noch lange nicht, daß es keine anderen Gründe gibt.

Demirug
2005-08-05, 12:13:36
Die verbesserte Shader-Unit hilft natürlich nur, wenn Pixelshader-Programme eingesetzt werden die so lang sind, dass die Texelfüllrate nicht mehr limitiert. Nvidia spricht ja auch (leider nur nebulös) von weiteren kleinen Verbesserungen. Das heißt, selbst bei extrem kurzen Pixelshadern und ohne die vergurkte AF-Implementierung müsste der G70 ein bisschen schneller sein.

Das mit dem vollständigen Nutzen der Rechen und Textureleistung funktioniert mit der NV40/G70 Pipeline nur in Ausnahmefällen. Aus diesem Grund wird die nächste große Umbau Aktion wohl eine Multithreading Lösung sein.

aths
2005-08-05, 12:19:49
Das mit dem vollständigen Nutzen der Rechen und Textureleistung funktioniert mit der NV40/G70 Pipeline nur in Ausnahmefällen. Aus diesem Grund wird die nächste große Umbau Aktion wohl eine Multithreading Lösung sein.Ja. Sowas in der Art habe ich mir auch schon lange gewünscht.

Hast du eigentlich eine Ahnung, wie der Shader im Moment optimiert wird? Wird zwischen Textursampling- und Verrechnung eine möglichst große Lücke eingeschoben, um AF abzufedern, oder wird das Sampling möglichst sofort verrechnet, um das Register freizukriegen? Gerade in diesem Zusammenhang sehe ich die 4 Fullprecision-Tempregister als ziemlich knapp an, sofern man in Fullprecision rechnet. Rechnet man teilweise mit FP32, teilweise mit FP16, so dass sagen wir 6 Temps vorgehalten werden können, sieht es doch schon deutlich freundlicher aus.

Natürlich wäre es besser, 6 oder 8 Fullprecision-Temps zu haben. Oder übersehe ich was?

Demirug
2005-08-05, 12:29:18
Ja. Sowas in der Art habe ich mir auch schon lange gewünscht.

Hast du eigentlich eine Ahnung, wie der Shader im Moment optimiert wird? Wird zwischen Textursampling- und Verrechnung eine möglichst große Lücke eingeschoben, um AF abzufedern, oder wird das Sampling möglichst sofort verrechnet, um das Register freizukriegen? Gerade in diesem Zusammenhang sehe ich die 4 Fullprecision-Tempregister als ziemlich knapp an, sofern man in Fullprecision rechnet. Rechnet man teilweise mit FP32, teilweise mit FP16, so dass sagen wir 6 Temps vorgehalten werden können, sieht es doch schon deutlich freundlicher aus.

Natürlich wäre es besser, 6 oder 8 Fullprecision-Temps zu haben. Oder übersehe ich was?

Die Tempregister sind ja nur der "externe" Speicher innerhalb der Pipeline selbst gibt es ja auch noch ein paar Möglichkeiten Zwischenergebnisse innerhalb des gleichen Arbeitstakts zu halten.

Die TMU ist in Order nicht wie beim VS out Order. Ergebnisse müssen daher sofort verrechnet werden. Zudem arbeitet das System ja im Batch bzw Vektor Betrieb bei dem auch die Anwesiungen über die TMU aus dem Speicher geladen werden. Das geht nur mit einer in Order TMU.

aths
2005-08-05, 13:17:32
Die Tempregister sind ja nur der "externe" Speicher innerhalb der Pipeline selbst gibt es ja auch noch ein paar Möglichkeiten Zwischenergebnisse innerhalb des gleichen Arbeitstakts zu halten.

Die TMU ist in Order nicht wie beim VS out Order. Ergebnisse müssen daher sofort verrechnet werden. Zudem arbeitet das System ja im Batch bzw Vektor Betrieb bei dem auch die Anwesiungen über die TMU aus dem Speicher geladen werden. Das geht nur mit einer in Order TMU.Mit der Lücke meine ich natürlich, dass unabhängige Berechnungen vorgeschoben werden könnten. Das muss natürlich gleich der Shader-Optimizer machen, der übertragene Shader wird dann so abgearbeitet wie er vorliegt, das ist klar.

Wenn die Textur sofort verrechnet werden muss, senkt ja sogar trilineare Filterung die effektive arithmetische Leistung.

PCGH_Thilo
2005-08-05, 14:15:32
Hallo Thilo, statt "Filteroptimierung" hätte ich "Filter-Qualitätsverschlechterung" geschrieben – oder ist der Texturfilter beim G70 "optimaler" als beim NV40?

Die verbesserte Shader-Unit hilft natürlich nur, wenn Pixelshader-Programme eingesetzt werden die so lang sind, dass die Texelfüllrate nicht mehr limitiert. Nvidia spricht ja auch (leider nur nebulös) von weiteren kleinen Verbesserungen. Das heißt, selbst bei extrem kurzen Pixelshadern und ohne die vergurkte AF-Implementierung müsste der G70 ein bisschen schneller sein.

Ich hoffe eigentlich, dass NV eine 4-Quad-Lösung mit 256-Bit-Interface herausbringt. Im Vergleich zur 6800 U natürlich mit mehr Takt, z. B. 500 MHz. Dafür dürfen sie beim RAM-Takt auch etwas sparen, sagen wir ebenfalls nur 500 MHz. Das wäre doch eine feine Karte, sofern das AF repariert würde :)

Das Wort "Optimierung" sorgt leider von Haus aus für Missverständnisse... Allein, mir fehlt da so recht das handliche Synonym. Eine Änderung am Filter muss ja nicht zwingend in einer Qualitätsverschlechterung enden...

Ich wollte bei der Analyse so allgemein wie möglich bleiben, weil man sich da schnell in etwas verrennen kann. Aber diese 10 Prozent plus sind nicht gerade viel. Aber Du hast recht: Eine 4-Quad-Version mit 256 Bit und besseren Taktraten wäre eine feine Karte, eine Wende in der Filterfrage vorausgesetzt. Wir müssen halt nur Druck machen. Dave Kirk hat ja in dem Termin in München, wo Du ja auch dabei warst, behauptet, dem Anwender wären nur Fps wichtig. Das Gleiche war, als damals 4xS aus der Forceware geflogen ist. Ich hatte nachgefragt und die Antwort lautete: Das nutze doch sowieso niemand.

Vielleicht sollten alle Webseiten Umfragen bezüglich Filterqualität starten, wir sammeln das dann und übergeben die Ergebnisse (die hoffentlich das zeigen, was vernünftig ist) gesammelt an Nvidia?

aths
2005-08-05, 14:39:29
Das Wort "Optimierung" sorgt leider von Haus aus für Missverständnisse... Allein, mir fehlt da so recht das handliche Synonym. Eine Änderung am Filter muss ja nicht zwingend in einer Qualitätsverschlechterung enden...

Ich wollte bei der Analyse so allgemein wie möglich bleiben, weil man sich da schnell in etwas verrennen kann. Aber diese 10 Prozent plus sind nicht gerade viel. Aber Du hast recht: Eine 4-Quad-Version mit 256 Bit und besseren Taktraten wäre eine feine Karte, eine Wende in der Filterfrage vorausgesetzt. Wir müssen halt nur Druck machen. Dave Kirk hat ja in dem Termin in München, wo Du ja auch dabei warst, behauptet, dem Anwender wären nur Fps wichtig. Das Gleiche war, als damals 4xS aus der Forceware geflogen ist. Ich hatte nachgefragt und die Antwort lautete: Das nutze doch sowieso niemand.

Vielleicht sollten alle Webseiten Umfragen bezüglich Filterqualität starten, wir sammeln das dann und übergeben die Ergebnisse (die hoffentlich das zeigen, was vernünftig ist) gesammelt an Nvidia?Das mit dem 4xS ist imo eine Schutzbehauptung. Der Modus wird von einigen Usern bis heute in gewissen Situationen gerne genutzt. Aber das neue sparse grid 4x-Muster liefert bessere Kantenglättung und ich glaube, NV wollte sich einfach drücken, dem User den Unterschied zwischen 4x OG, 4xS und 4x sparse grid zu erklären. Wenn es darum geht, was der User braucht oder nicht, kannst du Kirk ja man fragen was er von 3Dc hält. Ich erzähle dir da nichts neues wenn ich sage, dass das Grundprinzip ist: 'Was wir nicht haben, braucht der User auch nicht.' Siehe NVs Ausreden beim 128-Bit-Interface der FX 5800.

In München hattest du ja auch einen Mann da, und ich glaube mit Daniel hast du dir den richtigen Redakteur ausgesucht. (Vor allem wenn es geht, dem Kirk nicht nach dem Mund zu reden und übermäßig viel Verständis für Nvidias "Optimierungen" aufzubringen. Außerdem war er der bestvorbereitete von uns. Ich will jetzt nicht über die anderen lästern.)

Dass die "Optimerung" eine andere Grafik erzeugt, gab NV auch beim brilinearen Filter zu, aber sie weigerten sich einzusehen, dass die Grafik dadurch schlechter wurde. Nach einigen ermüdenden Diskussionen, u. a. mit Kirk, (aber auch mit ATI die in Dingen Filter-"Optimierungen" ebenfalls fantasievoll sind) habe ich es aufgegeben in dieser Frage dem IHV mein Ohr zu leihen.

Der normale User hat lieber die "Leistung" statt die Qualität. Doch was ist das für eine Leistung, wenn man schneller ist, weil man einfach zu Lasten der Qualität weniger berechnet?

Majestic
2005-08-07, 15:27:24
Ist jetzt eigendlich schon raus ob die "Flimmerproblematik" beim G70 ein Hardware oder Softwarebug ist? Demirug erwähnte in einem Post das er an einen Treiberbug glaubt... Also? :confused:

aths
2005-08-07, 19:01:55
Ist jetzt eigendlich schon raus ob die "Flimmerproblematik" beim G70 ein Hardware oder Softwarebug ist? Demirug erwähnte in einem Post das an einen Treiberbug glaubt... Also? :confused:Wenn was raus wäre, würde es in den News stehen. Dank Tridam (ein 3D-HW-Redakteur) konnte ich die Sache zumindest optisch schon mal beurteilen. 6800 Q ist schon mies, 7800 Q sieht voll zum Heulen aus, 7800 HQ ist zwar besser als 6800 Q, aber schlechter als 6800 HQ. Die gute alte GeForce FX bringt natürlich das beste AF und sticht auch die Radeon aus, welche (wie die FX) aber wenigstens auch nicht flimmert.

Blaire
2005-08-07, 21:40:12
Es liegt 100% am Treiber!

mapel110
2005-08-07, 21:48:07
Es liegt 100% am Treiber!
Filtert die Karte ich manchen Games korrekt, oder woran machst du das fest?

betasilie
2005-08-07, 21:51:44
Es liegt 100% am Treiber!
Ja? Dann bitte mal Beweise dafür?

Piffan
2005-08-07, 22:57:10
Ja? Dann bitte mal Beweise dafür?

Er hat ne 7800 SLI und da muss er es ja wohl wissen. :ulol:

Wenn da man nicht der Wunsch der Vater des Gedanken ist. Was nicht sein darf, kann nicht sein......

predprey
2005-08-08, 01:00:06
Er hat ne 7800 SLI und da muss er es ja wohl wissen. :ulol:

Wenn da man nicht der Wunsch der Vater des Gedanken ist. Was nicht sein darf, kann nicht sein......


Das bringt doch auch nix, lass es ihn doch erstmal erleutern.

betasilie
2005-08-08, 01:08:58
Das bringt doch auch nix, lass es ihn doch erstmal erleutern.
Hat er schon per PM. ;)

turboschlumpf
2005-08-08, 05:10:56
Das Wort "Optimierung" sorgt leider von Haus aus für Missverständnisse... Allein, mir fehlt da so recht das handliche Synonym. Eine Änderung am Filter muss ja nicht zwingend in einer Qualitätsverschlechterung enden...Wie wäre es mit "Filter-Tricks"?

Diese Bezeichnung ist zwar auch nicht ganz neutral, allerdings aufgrund der Tatsache, dass nVidia nicht davor zurückschreckt auch die Qualität zu verschlechtern (siehe z. B. die Winkelabhängigkeit) imo durchaus gerechtfertigt.

Hat er schon per PM. ;)Und was war der Inhalt dieser PM?

PCGH_Thilo
2005-08-08, 09:48:57
Wie wäre es mit "Filter-Tricks"?

Diese Bezeichnung ist zwar auch nicht ganz neutral, allerdings aufgrund der Tatsache, dass nVidia nicht davor zurückschreckt auch die Qualität zu verschlechtern (siehe z. B. die Winkelabhängigkeit) imo durchaus gerechtfertigt.

Und was war der Inhalt dieser PM?

Filter-Tricks hört sich nicht schlecht an. Wobei ein Trick eher positiv besetzt ist, oder?

Quasar
2005-08-08, 13:16:30
Mein persönlicher Favorit wäre "Sparfilter".

turboschlumpf
2005-08-08, 15:31:57
Filter-Tricks hört sich nicht schlecht an. Wobei ein Trick eher positiv besetzt ist, oder?Hm, als ich obiges Posting geschrieben habe war ich eher der Meinung, die Bezeichnung hätte einen negativen Touch. Wenn ich jetzt noch mal so drüber nachdenke...

Aber zumindest mit "Tricksereien" assoziiert man doch eher etwas Negatives, oder?

Diskutator
2005-08-08, 22:13:46
Warum spricht nicht endlich jemand das aus was es wirklich ist!
Lower Quality Mipmaps! :eek: Das ist alles!

Bringt mehr Performance in den Balken und schadet leider nur den Augen! Verstehen muss ich das nicht, das dies nicht endlich in einer News angeprangert wird!

Langsam sollte eine Entscheidung doch fällig sein, auf welcher Seite man stehen will, ob auf a.) der Diskussionsseite oder b) auf der Fakten-Schaffenden Seite!

Sehr bedenklich, aber ich wiederhole mich hier wahrscheinlich!

Demirug
2005-08-08, 22:35:08
Die Mipmaps sind völlig in Ordnung. Sind genau die welche vom Spiel übergeben werden.

Das mit der reduzierten Qualität der Texturen hatten wir mal bei ATI. War aber angeblich nur ein Bug.

Gast
2005-08-08, 23:31:43
Warum spricht nicht endlich jemand das aus was es wirklich ist!
Lower Quality Mipmaps! :eek: Das ist alles!



wenn du mips mit zu schlechter qualität nehmen würdest, würde es aber nicht flimmern sondern unscharf werden.

Gast
2005-08-09, 06:52:29
Filter-Tricks hört sich nicht schlecht an. Wobei ein Trick eher positiv besetzt ist, oder?

Hi

Bildzeitungsschlagzeile.

Die modernen Tricksereien der Grafikkartenhersteller.

ggg

Gruss Labberlippe

Gast
2005-08-09, 09:53:00
Wie wäre es mit "Filter-Tricks"?

Diese Bezeichnung ist zwar auch nicht ganz neutral, allerdings aufgrund der Tatsache, dass nVidia nicht davor zurückschreckt auch die Qualität zu verschlechtern (siehe z. B. die Winkelabhängigkeit) imo durchaus gerechtfertigt.

Und was war der Inhalt dieser PM?

naja bloss gut, dass du zu R300 Zeiten genauso konsequent in der Beurteilung deer Filterqualität warst gelle :)

Ich find den Trend genauso beschissen. Die Karten haben so viel Power und die IHVs drehen die Qualität immer mehr nach unten.
Das kanns irgendwo nicht sein. Ich werde aber auch nicht vergessen, wem ich diesen Trend zu verdanken habe und es ist meiner Meinung nach ziemlich lächerlich, wenn ich sehe wer so an forderster Front hier dabei ist um über die schlechte G70 Filterqualität zu reden.
Da sind mindestens 70% Leute dabei, die zu R300 einige sogar zu R200 Zeiten nie was gesehen haben wollen. Vor allem waren viele noch fleisig dabei ATI zu verteidigen, als sie erwischt wurden, dass sie Filtertestprogramme erkennen (Einfärbung) und plötzlich auf Trillinear umschalten und bei normalen Anwendungen und Spielen miese Filter - und Texturqualität boten.

Konsequenz ist in meinen Augen etwas anderes. Da wird sich alles so zurecht geredet wie es einem passt. Ich liebe das GF3 und GF4 AF. Das FX AF fand ich schon beschissen auch wenn es noch weit über dem lag was ATI zu bieten hatte.
Leider braucht man mittlerweile neue Karten, sonst würde ich noch auf der guten alten GF4TI spielen und die Finger von den neuen Produkten lassen bis sich das verbessert.

Coda
2005-08-09, 10:18:53
Das FX AF fand ich schon beschissen auch wenn es noch weit über dem lag was ATI zu bieten hatte.War das nicht genau das gleiche wie von der GeForce 4 wenn man brilinear abschällt? :confused:

tokugawa
2005-08-09, 15:14:19
allerdings aufgrund der Tatsache, dass nVidia nicht davor zurückschreckt auch die Qualität zu verschlechtern (siehe z. B. die Winkelabhängigkeit)

Moment mal.... wenn's um die Winkelabhängigkeit geht, gibt's da ja noch einen Übeltäter, nicht wahr? :)

Oder glaubst du fälschlicherweise dass ausschließlich NVIDIA die Winkelabhängigkeit hat, und diese als erste einführte?



Zum FX AF: Das ist mustergültig wenn man brilinear abschaltet und steht einer GF4 Ti in nichts nach. Deswegen ist derzeit eine FX 5900XT in meinem Zweit-Rechner als Ersatz der GF4 Ti die vorher drin war - gleich gute Qualität, aber um einiges schneller.

aths
2005-08-09, 15:35:56
War das nicht genau das gleiche wie von der GeForce 4 wenn man brilinear abschällt? :confused:Es ist dann nicht genau das gleiche, aber fast. Die FX-AF-Qualität ist im HQ-Modus sehr gut – beim heutigen Treiber, der wieder volle trilineare Filterung erlaubt.

Gast
2005-08-09, 15:45:56
War das nicht genau das gleiche wie von der GeForce 4 wenn man brilinear abschällt? :confused:

Ja im großen und ganzen schon, auch wenn ich persönlich das der GF4TI noch einen winzig kleinen Tick besser fand.
Aber es ging mir um das Brillinear, denn nun musste man erstmal was abschalten um das volle AF zu bekommen.
Das hat mir schon arg misfallen.
Was heute geboten wird ist nur noch schlecht und das bei so viel Power.

Aber wie gesagt diesen Trend hat ATI und nicht Nvidia gesetzt und die große Mehrheit auch die der Tester hat mitgemacht. Das heisst nicht, dass man es jetzt gutheißen sollte. Aber das sollen dann die tun, die es schon damals bei ATI kritisiert haben. Aths z.b gehört dazu.
Die ganzen Schreihälse aus der ATI Fraktion haben meiner Meinung nach zu diesem Thema nichts beizutragen. Die mache ich für die Entwicklung nämlich indirekt mitverantwortlich.
Wer es damals nicht sehen wollte oder konnte obwohl es unterirdisch war, der sollte dann auch dazu stehen und nicht den Wendehals spielen, wo es einem gerade mal in den Kram passt.
Mir hat es damals enorm gestunken wie so viele Leute einschliesslich 90% der Tester dieses miese AF nicht sehen und nicht anprangern wollten. Dagegen wurde herzlich über die nicht ganz so gute GF4TI und FX AF Performance hergezogen.
Und jetzt wo es eigentlich auch die meissten Tester nicht gesehen haben, kommen nun alle hier in diesem Thread aus ihren Schlupflöchern und wollen nun der Gemeinschaft etwas von qualitativ hochwertigem AF erzählen und sagen dann auch noch, dass die meissten Reviewer Tomaten auf den Augen haben.
Zu R300 Zeiten war es dann vielen wohl sehr recht, dass die meissten Reviewer da ebenfalls Tomaten auf den Augen hatten.
Das ist eine ziemlich peinliche Vorstellung die einige da hier abliefern.

Dass die meissten Reviewer nix sehen, hab ich schon damals gesagt und zwar weil keiner genauer hinschaut. Es werden die Specs vom Papier abgelesen und danach wird dann beurteilt. Da gab es zu Beginn so einige, die einem weis machen wollten, dass der R200 wegen 16x tolles AF anbot. Nur genauer hingeschaut hat keiner. 16x ist ja mehr als 8x also muss es ja stimmen.
Zum Teil liegt es sicherlich auch daran, dass die Reviewer oft nicht genug Zeit haben, vor allem bei Launch Reviews/Previews.

Ich finde die Entwicklung wie gesagt nur noch schlimm und wenn es von der Spielbarkeit ginge, hätte ich keins der neuen Produkte im Rechner aber ich fände es der Ehrlichkeit halber mal gut, wenn die betroffenen sich aus solchen Diskussionen mal raushalten. Wenn mans genau nimmt gibts in diesem Thread so einige, bei denen eigentlich im Rahmen einer AF/Filterdiskussion ein rotes Unglaubwürdig drunter stehen müsste.

Mr. Lolman
2005-08-09, 16:23:08
Irgendwie fühl ich mich da angesprochen, lieber Gast.


1. R200 AF war größtenteils unbrauchbar. (OK Mafia mit 1280x1024 und 16xAF war schon fein)
2. R300 AF war ein enormer Fortschritt
3. Ich hatte keine einzige Gf bis auf den NV40 jetzt.
4. ATi ist (vom 3Dcenter) beim R300 genug fürs AF gescholten worden
5. Seit der Brilinearität scherte sich kaum jemand noch um vglbare BQ. NVs Treiberdefault wurde meist ungesehen als, mit ATi vergleichbar eingestuft.
6. Beim R420 kam ne (im Ggs zu NV nur auf Differenzscreenshots sichtbare) Brilinearität hinzu
7. 3DCenter behauptet anhand von AF Blumen, dass Q+Opts mit R420 AF vergleichbar ist und auch >95% aller anderen Reviewern benchen mit driverdefault, im Sinne von: ATi filtert Brilinear? Q+Opt1 tut das auch. Atis AF nutzt vgl mit GF4 AF weniger Samples? Q+Opt3 tut das auch. ATis CP AF hat ne TS Optimierung? Q+Opt2 macht das auch.

Das jetzt jede NV Optimierung für sich ne weitaus schlechtere BQ bringt, als die einzelnen ATI Optimierungen merkt niemand :crazy:
Und wär ich nicht so ein Schreihals gewesen, würde man wohl NV40 default immernoch mit R420 default für vergleichbar halten.

Nur:

1. ATi filtert beim AppAF so wie sie sollen (die Brilinearität lass ich erst als Argument gelten, wenns zumindest ein(en) Screenshot/Video gibt, anhand dessen eine sichtbare BQ Verschlechterung feststellbar ist.)
2. NV bügelt da einfach drüber. Beim 77.76 (und bei jedem anderen Treiber der Q+alle Opts per default nutzt) führt das zu miesem Mipmapbanding, ATi AF jedoch sieht aus wie NV HQ AF...
3. Deswegen zur Erinnerung nochmal die Q3a gifs:

NV40 4xAA/16xAF treiberdefault: http://img345.imageshack.us/img345/8628/default77761jd.gif
R3x0 4xAA/16xAF treiberdefault: http://img306.imageshack.us/img306/8826/ati0hz.gif
NV40 4xAA/16xAF HQ: http://img306.imageshack.us/img306/6320/nv3yc.gif
NV40 4xAA/16xAF Q ohne optimierungen: http://img334.imageshack.us/img334/6652/nvq3sc.gif


/edit: Natürlich hast du recht, damit dass die Reviewer nicht genau genug auf die BQ schaun. Diesen Umstand prangere ist schon seit dem Riva128 an...

tokugawa
2005-08-09, 16:39:53
Irgendwie fühl ich mich da angesprochen, lieber Gast.
...



Du hast natürlich recht. Trotzdem darf man nicht die NV Winkelabhängigkeit anprangern ohne zu erwähnen wer das eigentlich zuerst eingeführt hat.

Die anderen, teilweise schlimmeren Bildqualitätseinbußen haben ja mit der Winkelabhängigkeit nichts zu tun, und sollten dementsprechend bezeichnet werden. Wenn wer aber "Winkelabhängigkeit" sagt, muß er auch ATI R300 sagen.



Und ja, 3DCenter hat ATI für die Winkelabhängigkeit genug angeprangert. Nur leider andere Websites nicht, die wohl auch beim G70 Flimmern jetzt nichts anprangern werden.

Und genau das ist jene Negativ-Spirale, die sich endlos fortsetzt. Da hat weder ATI noch NVIDIA eine saubere Weste.

Ich kann nur hoffen dass ATI mit dem R520 so eine überdrüber Bildqualität liefert (und diese auch PR-technisch vermarkten kann), dass NVIDIA unter Zugzwang kommt.

Dann könnte die Negativspirale zu einer Positivspirale werden.

Und falls der R520 diesbezüglich sich auch nicht verbessert und das Negativspiral-Spiel mitspielt, ist eben wieder NVIDIA gefordert.


Ich kann's ganz einfach nicht fassen dass keiner der Marketingabteilungen BEIDER Hersteller dieses Potential nicht nutzt. Blutige Anfänger im Marketing sind sie ja nicht - wieso können die nicht mal perfekte Bildqualität bei guter Performance liefern (ich glaube der G70 wär auch noch schnell bei perfekter Bildqualität), und davon dann marketingtechnisch auch profitieren?

Jeden Sch* hypen die, aber wenn's um Bildqualität geht, sind die lieben PR-Marketing-Leute von ATI und NVIDIA plötzlich stumm?

Gast
2005-08-09, 16:51:05
2. R300 AF war ein enormer Fortschritt

Enormer Fortschritt ist relativ. Wenn man von so unterirdischem Niveau wie beim R200 kommt, ist es leicht Fortschritte zu machen. Soll ich ATI dafür jetzt loben? Unterm Strich war das AF nach wie vor grauenhaft und nicht annähernd in der Qualitätsstufe der GF4TI oder GF FX (bei letzterer natürlich HQ Modus ohne Brillinear). Nur hats viele die jetzt in diesem Thread sich zu Wort melden nicht interessiert. Und als später rauskam, dass ATI die Testtools anhand der Einfärbung per Treiber erkennt und mit einmal in einen völlig anderes Modus geht hats auch keinen interessiert.


4. ATi ist (vom 3Dcenter) beim R300 genug fürs AF gescholten worden

Dem 3DCenter gestehe ich das auch zu. Viele andere Seiten haben zu der Thematik überhaupt nichts gesagt. Wem ich es nicht zu gestehe im Gegensatz zum 3DCenter sind die Leute aus der ATI Fraktion die davon nie was gewusst noch was gesehen haben wollen. Ob du dazu gehörst weiss ich nicht. Ich könnt jetzt anfangen zu suchen aber das ist dann eher kindisch und hat hier nix zu suchen. Von einigen weiss ich es aber ganz sicher und auch die waren fleissig hier im Thread dabei.


5. Seit der Brilinearität scherte sich kaum jemand noch um vglbare BQ. NVs Treiberdefault wurde meist ungesehen als, mit ATi vergleichbar eingestuft.

Das wurde auch schon anders herum praktiziert.
Ich erinner nur mal so an die Vergleiche zwischen R300 und GF FX. Oder auch diese immer wieder auftauchenden AA Vergleiche, wo dann bei NV halt einfach ein xS Modi eingeschalten wird, nur weil es von der Sampelzahl her keinen genauen Vergleich gibt. Das Supersampling viel mehr Performance frisst, dafür aber auch ein deutlich besseres Gesamtbild abliefert, wird dann einfach mal unter den Tisch gekehrt.

Mr. Lolman
2005-08-09, 16:54:15
Enormer Fortschritt ist relativ. Wenn man von so unterirdischem Niveau wie beim R200 kommt, ist es leicht Fortschritte zu machen. Soll ich ATI dafür jetzt loben? Unterm Strich war das AF nach wie vor grauenhaft und nicht annähernd in der Qualitätsstufe der GF4TI oder GF FX (bei letzterer natürlich HQ Modus ohne Brillinear). Nur hats viele die jetzt in diesem Thread sich zu Wort melden nicht interessiert. Und als später rauskam, dass ATI die Testtools anhand der Einfärbung per Treiber erkennt und mit einmal in einen völlig anderes Modus geht hats auch keinen interessiert.

Naja grauenhaft ist das R300 AF nicht. Imo ists gerade so ausreichend...


Dem 3DCenter gestehe ich das auch zu. Viele andere Seiten haben zu der Thematik überhaupt nichts gesagt. Wem ich es nicht zu gestehe im Gegensatz zum 3DCenter sind die Leute aus der ATI Fraktion die davon nie was gewusst noch was gesehen haben wollen. Ob du dazu gehörst weiss ich nicht. Ich könnt jetzt anfangen zu suchen aber das ist dann eher kindisch und hat hier nix zu suchen. Von einigen weiss ich es aber ganz sicher und auch die waren fleissig hier im Thread dabei.

Naja, ich hab mich halt nicht mokiert übers R300 AF. Ich war nur schlechteres gewohnt ;)


Das wurde auch schon anders herum praktiziert.
Ich erinner nur mal so an die Vergleiche zwischen R300 und GF FX. Oder auch diese immer wieder auftauchenden AA Vergleiche, wo dann bei NV halt einfach ein xS Modi eingeschalten wird, nur weil es von der Sampelzahl her keinen genauen Vergleich gibt. Das Supersampling viel mehr Performance frisst, dafür aber auch ein deutlich besseres Gesamtbild abliefert, wird dann einfach mal unter den Tisch gekehrt.

Stimmt. Auch ne Unsitte. Genauso wie dass man 4xOG mit 4xRG verglichen hat.

Mr. Lolman
2005-08-09, 16:58:49
Du hast natürlich recht. Trotzdem darf man nicht die NV Winkelabhängigkeit anprangern ohne zu erwähnen wer das eigentlich zuerst eingeführt hat.

Die anderen, teilweise schlimmeren Bildqualitätseinbußen haben ja mit der Winkelabhängigkeit nichts zu tun, und sollten dementsprechend bezeichnet werden. Wenn wer aber "Winkelabhängigkeit" sagt, muß er auch ATI R300 sagen.



Und ja, 3DCenter hat ATI für die Winkelabhängigkeit genug angeprangert. Nur leider andere Websites nicht, die wohl auch beim G70 Flimmern jetzt nichts anprangern werden.

Und genau das ist jene Negativ-Spirale, die sich endlos fortsetzt. Da hat weder ATI noch NVIDIA eine saubere Weste.

Ich kann nur hoffen dass ATI mit dem R520 so eine überdrüber Bildqualität liefert (und diese auch PR-technisch vermarkten kann), dass NVIDIA unter Zugzwang kommt.

Dann könnte die Negativspirale zu einer Positivspirale werden.

Und falls der R520 diesbezüglich sich auch nicht verbessert und das Negativspiral-Spiel mitspielt, ist eben wieder NVIDIA gefordert.


Ich kann's ganz einfach nicht fassen dass keiner der Marketingabteilungen BEIDER Hersteller dieses Potential nicht nutzt. Blutige Anfänger im Marketing sind sie ja nicht - wieso können die nicht mal perfekte Bildqualität bei guter Performance liefern (ich glaube der G70 wär auch noch schnell bei perfekter Bildqualität), und davon dann marketingtechnisch auch profitieren?

Jeden Sch* hypen die, aber wenn's um Bildqualität geht, sind die lieben PR-Marketing-Leute von ATI und NVIDIA plötzlich stumm?

Was ist das für ne Diskussion wo jeder dem Anderen recht gibt? ;)

Aber trotzdem: Natürlich hast du recht. Jedoch kann ich der Winkelabhängigkeit noch mehr abgewinnen als jeder anderen Optimierung. Ok Brilinearität ist meist auch noch ok. Aber das wass NV mit den Samples anstellt ist ja nurmehr schlimm. Allein Q+Opt 3 ist so schlimm, dass Q3a selbst mit 8xS noch flimmert.

Die Winkelabhängigkeit hat mich konkret bisher nur 2x gestört (damals noch auf nem R300)

1. MotoGP2, einige Catalysts der 3er Reihe, haben MotoGP2 noch nicht gekannt, und deswegen kam (zumindest bei den Grastexturen) die TS Optimierung übel zu tragen -> Mipmapbanding ahoi. Legt man sich dann noch in ne Kurve bekam man das Mipband wunderschön vor die Frexxe geschoben. Wirklich übel das Ganze. Hab ich auch damals angeprangert.

2. Serious Sam. Der drehende Raum.


Das Problem der winkelabhängigkeit ist imo ein Doppeltes. AFAIK ist einerseits der AF Algorithmus simpler (man spart Transistoren), und andererseits gewinnt man Performance. Die müssen das AF schon komplett umkrempeln dass wir die WA wieder los sind.

Aber dass müssen sie eh, wenn sie AF nach meinen Vorstellungen bringen wollen. Und damit meine ich nix mit voller Sampleanzahl/Trilinearität(sry @ Anti Scheiss AF Fraktion) sondern mit nem adaptiven Algorithmus der nur soviel filtert wie auch gefiltert werden muss. Damit sollte für die IHVs dann auch endlich das Thema AF-Pfuscherei erledigt sein, wo die lieben Treiberingeneure beim Lehrbuch AF erst wieder ne neue Basis bekommen irgendwelche Tricks einzubauen, die die Karten bei Benchmakrs schneller machen, als sie dann tatsächlich sind.

Winter[Raven]
2005-08-09, 17:00:03
Ich kann's ganz einfach nicht fassen dass keiner der Marketingabteilungen BEIDER Hersteller dieses Potential nicht nutzt. Blutige Anfänger im Marketing sind sie ja nicht - wieso können die nicht mal perfekte Bildqualität bei guter Performance liefern (ich glaube der G70 wär auch noch schnell bei perfekter Bildqualität), und davon dann marketingtechnisch auch profitieren?

Weil Nvidia von ATI gelernt hat wie man Benches gewinnt, und das ist nunmal Unterfilterung. Sollte ATI mit dem R520 eine >= AF Qualität vorstellen, dann leg ich meine Hand ins Feuer, das wir danach ein "schöneres" AF zusehen bekommen.

Mr. Lolman
2005-08-09, 17:05:44
']Weil Nvidia von ATI gelernt hat wie man Benches gewinnt, und das ist nunmal Unterfilterung. Sollte ATI mit dem R520 eine >= AF Qualität vorstellen, dann leg ich meine Hand ins Feuer, das wir danach ein "schöneres" AF zusehen bekommen.

Nö, das hat sich NV schön selbst beigebracht. Ich erinnere an den ersten Benchmarkcheat überhaupt:

Forcierte Texturkompression bei Q3a, trotz kaputter HW Implementation (hat u.A den Voodoo5s bei den Q3a Benchmarks das Genick gebrochen)

tokugawa
2005-08-09, 17:26:35
Was ist das für ne Diskussion wo jeder dem Anderen recht gibt? ;)

Aber trotzdem: Natürlich hast du recht. Jedoch kann ich der Winkelabhängigkeit noch mehr abgewinnen als jeder anderen Optimierung. Ok Brilinearität ist meist auch noch ok. Aber das wass NV mit den Samples anstellt ist ja nurmehr schlimm. Allein Q+Opt 3 ist so schlimm, dass Q3a selbst mit 8xS noch flimmert.

Die Winkelabhängigkeit hat mich konkret bisher nur 2x gestört (damals noch auf nem R300)
...


Naja, das ist wohl eh subjektiv. Aber um die konkreten "Optimierungen" ging's mir im Prinzip gar nicht.

Sondern eher dass sich sowohl ATI als auch NVIDIA mit ihren Spielereien die von kaum einer größeren Webseite oder Magazin angeprangert werden quasi gegenseitig die Berechtigung geben, diese Negativspirale weiterzuspinnen.

Es ist mir egal wer der zwei endlich damit aufhört - nur soll's endlich einer der zwei machen, und das von mir aus in Marketingkapital umschlagen. Denn dann wäre der jeweilig andere Hersteller im Zugzwang.

S3 hatte ja anscheinend weder die Performance noch die Marktmacht (und noch andere Probleme), um eine gute Filterqualität marketingtechnisch zu verbraten.

tokugawa
2005-08-09, 17:29:12
Nö, das hat sich NV schön selbst beigebracht. Ich erinnere an den ersten Benchmarkcheat überhaupt:

Forcierte Texturkompression bei Q3a, trotz kaputter HW Implementation (hat u.A den Voodoo5s bei den Q3a Benchmarks das Genick gebrochen)

Hatte ATI nicht auch eine Q3A Optimierung, die den Namen der .exe Datei abfragte und dann die jeweilige Optimierung einschaltete? Obwohl, das war wohl erst später.

Gast
2005-08-09, 18:22:22
']Sollte ATI mit dem R520 eine >= AF Qualität vorstellen, dann leg ich meine Hand ins Feuer, das wir danach ein "schöneres" AF zusehen bekommen.
Sollte der R520 schneller sein als der G70, kanns auch umgekehrt sein. ;)
Dann haben wir LEGO-AF. ;(

Gast
2005-08-09, 19:56:22
Nö, das hat sich NV schön selbst beigebracht. Ich erinnere an den ersten Benchmarkcheat überhaupt:

Forcierte Texturkompression bei Q3a, trotz kaputter HW Implementation (hat u.A den Voodoo5s bei den Q3a Benchmarks das Genick gebrochen)

imo waren ATI die ersten mit dem "quack-bug" ;)

Gast
2005-08-09, 20:01:46
imo waren ATI die ersten mit dem "quack-bug" ;)
Nein, wobei es bei diesem Thema völlig unwichtig ist.
Ziel ist es, dass Beide, also Nvidia UND ATI die BQ so perfekt machen, wie nur möglich. Und da ist einiges drin.
Von mir aus kann Treiberdefault Augenkrebs erregend sein, wenn ich durchs Abschalten der Optimierungen eine (fast) perfekte BQ bekomme, ist mir das egal.

turboschlumpf
2005-08-10, 01:44:32
Moment mal.... wenn's um die Winkelabhängigkeit geht, gibt's da ja noch einen Übeltäter, nicht wahr? :)

Oder glaubst du fälschlicherweise dass ausschließlich NVIDIA die Winkelabhängigkeit hat, und diese als erste einführte?Vollkommen irrelevant!

Es ging ausschließlich darum, eine geeignete Bezeichnung für diese bis jetzt noch sogenannten "Optimierungen" bei der AF-Qualität zu finden. nVidia habe ich nur deshalb erwähnt, weil ich zu dem Zeitpunkt gerade an den G70-Artikel in der aktuellen PCGH dachte.

naja bloss gut, dass du zu R300 Zeiten genauso konsequent in der Beurteilung deer Filterqualität warst gelle :)Zu R300-Zeiten habe ich in diesem Forum kein einziges Posting zum Thema Grafikkarten verfasst! Im Übrigen bin ich pro-nVidia und nicht pro-ATi (!= contra-ATi) und spiele im Moment noch mit meiner GF4 Ti 4600. Noch Fragen?

Gast
2005-08-10, 07:25:11
Irgendwie fühl ich mich da angesprochen, lieber Gast.


1. R200 AF war größtenteils unbrauchbar. (OK Mafia mit 1280x1024 und 16xAF war schon fein)

Wieso?
Die Geforce3 ist damals mit AF herb eingebrochen, da war das AF von der R200 ganz ok.
Klar musste man abstriche machen, gerade die Bugwellen haben genervt, dennoch gab es genug Games wo die Bildqualität definitv ok war und mit AF dennoch gewirkt hat, ohne das man 50% Leistungseinbussen in Kauf nehmen musste.


2. R300 AF war ein enormer Fortschritt

Naja Fortschritt?
Trilineares AF und dennoch Winkelabhängig aber ok von der Performance und kaum ein Bildunterschied zum normalen, kann ich gelten lassen.
Nur ein enormer Fortschritt fuer ATI.


3. Ich hatte keine einzige Gf bis auf den NV40 jetzt.

Woher beziehst du dann das obige Statment?

4. ATi ist (vom 3Dcenter) beim R300 genug fürs AF gescholten worden

Teilweise zu Recht, wobei ich der Meinung bin das die Performance hier ATI Recht gibt und ich sagen muss das die Bildqualität nicht wirklich schlechter ist.
Ausser man sucht Fehler verzweifelt.


5. Seit der Brilinearität scherte sich kaum jemand noch um vglbare BQ. NVs Treiberdefault wurde meist ungesehen als, mit ATi vergleichbar eingestuft.

Mit diesem Käse hat nVIDIA angefangen und wurde dann ATi zu geschoben durch deren Winkelabhängiges AF.
Was ich persönlich noch gemeiner finde den dafür kann ATi nichts.

6. Beim R420 kam ne (im Ggs zu NV nur auf Differenzscreenshots sichtbare) Brilinearität hinzu
Wenn ich mich nicht irre, hat ATi das damals wegen der 9600er eingeführt da die Karte einfach an der Bandbreite/Füllrate "gekrankt" hat.
Wobei dieses per Registry zum ausschalten war, ich persönlich habe aber zum reinen Tri AF kaum einen Unterschied gesehen.


7. 3DCenter behauptet anhand von AF Blumen, dass Q+Opts mit R420 AF vergleichbar ist und auch >95% aller anderen Reviewern benchen mit driverdefault, im Sinne von: ATi filtert Brilinear? Q+Opt1 tut das auch. Atis AF nutzt vgl mit GF4 AF weniger Samples? Q+Opt3 tut das auch. ATis CP AF hat ne TS Optimierung? Q+Opt2 macht das auch.
Wobei man sagen muss das die lieben Hersteller im Treiber optimierungen fuer die AF Blume hatten.
Hier wäre es sinnvoller gewesen das man mehr die Bildqualität von den Games nimmt und da waren fast beide gleich auf was die Artikel hier beweisen.


Das jetzt jede NV Optimierung für sich ne weitaus schlechtere BQ bringt, als die einzelnen ATI Optimierungen merkt niemand :crazy:
Und wär ich nicht so ein Schreihals gewesen, würde man wohl NV40 default immernoch mit R420 default für vergleichbar halten.
Leider die FX Serie von nVIDIA hat mir eigentlich gefallen.
Mit dem G71 dachte ich das nVIDIA mal was vernünftiges bringt.
Leider sehe ich noch immer die gleichen mängel bei nVIDIA.
Arroganz lieblose Implementierungen und nur versuchen linke Partien zu bringen.

Schade aber man soll ja die Hoffnung nicht aufgeben, die Helden der 18 jährigen werden es irgendwann ja mal schaffen, zumindest laut Marketing.


Gruss Labberlippe

Gast
2005-08-10, 07:26:23
Hatte ATI nicht auch eine Q3A Optimierung, die den Namen der .exe Datei abfragte und dann die jeweilige Optimierung einschaltete? Obwohl, das war wohl erst später.
Hi

Ja nur war dannach ein Treiber wo die optimierung weg war und die Performance die gleiche geblieben ist, bei nVIDIA hiessen solche Aktionen Bugs.

Gruss Labberlippe

MikBach
2005-08-10, 12:59:32
Naja Fortschritt?
Trilineares AF und dennoch Winkelabhängig aber ok von der Performance und kaum ein Bildunterschied zum normalen, kann ich gelten lassen.
Nur ein enormer Fortschritt fuer ATI.

Teilweise zu Recht, wobei ich der Meinung bin das die Performance hier ATI Recht gibt und ich sagen muss das die Bildqualität nicht wirklich schlechter ist.
Ausser man sucht Fehler verzweifelt.
Du musst nicht verzweifelt suchen, schmeis mal Gothic2 oder Morrowind an.
Da muß man mit 4xAF spielen, weil einem sonst die Augen ausgestochen werden.
Mittlerweile ist es auch egal ob Nvidia oder ATI.
Sieht bei meiner 6800GT genauso aus wie mit der 9800PRO im Zweitrechner.

Ja nur war dannach ein Treiber wo die optimierung weg war und die Performance die gleiche geblieben ist, bei nVIDIA hiessen solche Aktionen Bugs.
Da hast du wohl recht.
Am Besten finde ich den HQ-Bug. Es hat fast ein Jahr gedauert dass die Optimierungen auch wirklich aus sind.
Im CP hat man alles aus, man sieht aber anhand der BQ, dass da doch was aktiv ist.
Echt lollig.
So einen "Bug" zu beseitigen ist relativ einfach, sind 2 Zeilen Code. (IF...THEN)

aths
2005-08-10, 17:10:56
Wieso?
Die Geforce3 ist damals mit AF herb eingebrochen, da war das AF von der R200 ganz ok.
Klar musste man abstriche machen, gerade die Bugwellen haben genervt, dennoch gab es genug Games wo die Bildqualität definitv ok war und mit AF dennoch gewirkt hat, ohne das man 50% Leistungseinbussen in Kauf nehmen musste.Ich habe lieber 50% fps-Verlust und dafür schöne, voll trilinear gefilterte, in allen Winkeln scharfe Texturen.

LairD
2005-08-10, 18:23:38
Ich habe lieber 50% fps-Verlust und dafür schöne, voll trilinear gefilterte, in allen Winkeln scharfe Texturen.

Ich denke fast alle User wären bereit soviel FPS zu opfern,denn wenn es jemandem zu ruckelig wird oder man benchen will,kann man ja immernoch Optimierungen anschalten bzw. die Qualität reduzieren.

Wenn dann die Reviewer das gute AF noch positiv erwähnen und auch den Leistungsbedarf erklären,werden auch normale PC-User einsehen,das man für eine sehr gute BQ mehr Leistung opfern muss,als für eine suboptimale.

P.S.
Ich traue dem "Computerbild-Leser" wohl einiges mehr zu,gerade was das Interesse und Bedürfniss für gute BQ angeht,als die meisten Geeks die sich für sowas wie optimales AF interessieren. ;)

Gast
2005-08-10, 19:28:51
Wie schauts es denn bei den Kosolen-GPUs aus?
Bei den Koslen gibts keine Benchmarks. Ist dort evtl. die Filterqualität besser?

mapel110
2005-08-10, 19:37:20
Wie schauts es denn bei den Kosolen-GPUs aus?
Bei den Koslen gibts keine Benchmarks. Ist dort evtl. die Filterqualität besser?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=235655
dazu gibts den Thread.

Raff
2005-08-10, 20:01:23
Mit diesem Käse hat nVIDIA angefangen und wurde dann ATi zu geschoben durch deren Winkelabhängiges AF.
Was ich persönlich noch gemeiner finde den dafür kann ATi nichts.


Naja, das mag auf der Software-Seite hinkommen, denn damit hat nVIDIA gekontert. Alle lobten das schnelle ATi-AF und machten das langsame der FX nieder. Da dachte sich nVIDIA logischerweise, dass man da nachhelfen kann -- der "brilineare" war Filter geboren. Eigentlich nur fair, oder? Dass beides in die falsche Richtung geht, sollte allerdings klar sein ...

Jetzt setzt man nach und nach einen drauf, was keineswegs begrüßenswert ist. nVIDIA treibt es zu weit. Jetzt stellt sich eben noch die Frage, wie ATi antwortet: Genauso beschis... ähm, bescheidene Qualität oder auf GF4-Niveau + Marketing?

MfG,
Raff

aths
2005-08-10, 20:15:47
Das mit den Optimierungen ist schwierig. Gerade, wenn AF per Contol Panel aktiviert sind, kann man sich eine Reihe an Optimierungen denken, die (hängt aber vom Spiel ab) wenig Qualität opfern aber die Geschwindigkeit spürbar steigern. Doch es darf keinen Zwang dazu geben. Standardmäßig sollte imo volle Qualität geboten werden – also genau das, was aktiviert wurde. Dann kann es meinetwegen noch Schalter geben, um die Qualität zu reduzieren.

MikBach
2005-08-10, 20:51:44
Ich habe lieber 50% fps-Verlust und dafür schöne, voll trilinear gefilterte, in allen Winkeln scharfe Texturen.
Das sehe ich auch so....
Besonders bei der 7800GTX stellt sich die Frage, ob man diese verkrüppelte BQ tollerieren kann, da diese genug Speed liefert...

Raff
2005-08-10, 21:08:46
Das mit den Optimierungen ist schwierig. Gerade, wenn AF per Contol Panel aktiviert sind, kann man sich eine Reihe an Optimierungen denken, die (hängt aber vom Spiel ab) wenig Qualität opfern aber die Geschwindigkeit spürbar steigern. Doch es darf keinen Zwang dazu geben. Standardmäßig sollte imo volle Qualität geboten werden – also genau das, was aktiviert wurde. Dann kann es meinetwegen noch Schalter geben, um die Qualität zu reduzieren.

Genau so. Nun, das wird mit Q und HQ ja schon angeboten. Aber eben mit der unschönen Einschränkung, dass nichts die volle Qualität bietet. Eine solche Option sollte das HQ bei nV ablösen. Und bei ATi sollte sollte "High Quality" das selbe bringen.

MfG,
Raff

MikBach
2005-08-10, 21:12:18
Genau so. Nun, das wird mit Q und HQ ja schon angeboten. Aber eben mit der unschönen Einschränkung, dass nichts die volle Qualität bietet. Eine solche Option sollte das HQ bei nV ablösen.
Treiberdefault sollte besser werden.
Ist echt ein Witz, was Nvidia da bietet...



Und bei ATi sollte sollte "High Quality" das selbe bringen.

MfG,
Raff
:confused:

Gast
2005-08-10, 21:12:32
Wieso?
Die Geforce3 ist damals mit AF herb eingebrochen, da war das AF von der R200 ganz ok.
Klar musste man abstriche machen, gerade die Bugwellen haben genervt, dennoch gab es genug Games wo die Bildqualität definitv ok war und mit AF dennoch gewirkt hat, ohne das man 50% Leistungseinbussen in Kauf nehmen musste.




lol ok?

wenn du mit OK meinst, dass nur bilinear gefiltert wird was "dank" winkelabhängigkeit und damit andauernd hin- und herwandernden bugwellen auch immer sehr gut sichtbar war, und ein flimmern dass der NV40 nichtmal auf High Performance mit allen optimierungen hinbekommt (ok dürfte schon fast vergleichbar sein) als OK für dich bezeichnest gerne. mir ist da aber schon ein ordentliches winkelunabhängiges 2xAF wie man es seit der GF1 bekommt wesentlich lieber.

Raff
2005-08-10, 22:36:56
Treiberdefault sollte besser werden.
Ist echt ein Witz, was Nvidia da bietet...

Ja, der natürlich nach Möglichkeit auch, mindestens ATi-Niveau. Wobei mir persönlich das herzlich schnuppe ist, was der Treiber "vorschlägt". Wenn es einen optionalen "Lehrbuch-Modus" gibt, dann nehme ich den. Und den gilt es erst zu schaffen.


:confused:

ATis "High Quality" im Treiber (alle Regler rechts) sollte in Zukunft ebenfalls winkelunabhängig, trilinear etc. sein, genau wie nVs erwünschter Modus.

MfG,
Raff

Gast
2005-08-11, 06:06:12
lol ok?

wenn du mit OK meinst, dass nur bilinear gefiltert wird was "dank" winkelabhängigkeit und damit andauernd hin- und herwandernden bugwellen auch immer sehr gut sichtbar war, und ein flimmern dass der NV40 nichtmal auf High Performance mit allen optimierungen hinbekommt (ok dürfte schon fast vergleichbar sein) als OK für dich bezeichnest gerne. mir ist da aber schon ein ordentliches winkelunabhängiges 2xAF wie man es seit der GF1 bekommt wesentlich lieber.

Hi

Es hat auch game gegeben wo die Bugwelle nicht wirklich störend war.
Was hat mir 2xAF gebracht wenn hinten die Texturen dennoch matischig waren?

Da war mir zu damaligen Zeiten die Implementierung von ATI lieber und bitte sag mir jetzt nicht das dieses korrektes 2x AF besser war, denn ein paar "Meter" weiter war nur noch brei vorhanden.

Gruss Labberlippe

MikBach
2005-08-11, 10:34:08
Ja, der natürlich nach Möglichkeit auch, mindestens ATi-Niveau. Wobei mir persönlich das herzlich schnuppe ist, was der Treiber "vorschlägt". Wenn es einen optionalen "Lehrbuch-Modus" gibt, dann nehme ich den. Und den gilt es erst zu schaffen.
So ganz schnuppe ist es nicht...
Die Reviewer testen meist mit Treiberdefault.
Wegen der Objektivität wäre es wünschenswert, dass Treiberdefault eine vergleichbare BQ liefert, sonst vergleicht man Äpfel mit Birnen..


ATis "High Quality" im Treiber (alle Regler rechts) sollte in Zukunft ebenfalls winkelunabhängig, trilinear etc. sein, genau wie nVs erwünschter Modus.

MfG,
Raff
Wenn es um die Winkelabhängigkeit geht, ist da mit dem Treiber nichts zu machen, da ein Hardwarelimit...
Bei Nvidia und ATI.

mapel110
2005-08-11, 10:36:11
Wenn es um die Winkelabhängigkeit geht, ist da mit dem Treiber nichts zu machen, da ein Hardwarelimit...
Bei Nvidia und ATI.
Bei nvidia ist man sich da nicht so sicher. Bin aber jetzt zu faul, den Thread dazu rauszusuchen.

MikBach
2005-08-11, 11:12:54
Bei nvidia ist man sich da nicht so sicher. Bin aber jetzt zu faul, den Thread dazu rauszusuchen.

Ich bin mir da ziemlich sicher.
Damit kann man einige Transis sparen, Nvidia wäre dumm dort nicht zu sparen, da ATI es mit dem R300 vorgemacht hat.

Falls du irgendwelche Beweise hast, immer raus damit.

mapel110
2005-08-11, 11:18:24
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=204221&highlight=winkelabh%E4ngigkeit+programmierbar
da isser.

MikBach
2005-08-11, 11:21:55
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=204221&highlight=winkelabh%E4ngigkeit+programmierbar
da isser.
Du missverstehst da etwas.
Das AF des NV4x ist voll programmierbar, die Winkelabhängigkeit kann man damit nicht wegzaubern.
Hast du irgendwelche Screens oder Videos?

Quasar
2005-08-11, 12:07:10
Zwischen "voll programmierbar" und "nicht wegzaubern" besteht IMO ein Widerspruch.

btw:
http://home.arcor.de/quasat/nVidia/FW75.90%2016xAF%20High%20Performance%20Trilinear%20Optimization%20off.PNG
http://home.arcor.de/quasat/nVidia/FW75.90%2016xAF%20High%20Performance%20Trilinear%20Optimization%20on.PNG

MikBach
2005-08-11, 12:12:18
Zwischen "voll programmierbar" und "nicht wegzaubern" besteht IMO ein Widerspruch.

Nicht wirklich...
Man kann proggen, was da ist...
Was die Hardware nicht hergibt...

Quasar
2005-08-11, 12:17:21
Dann wäre es nicht "voll programmierbar".

Raff
2005-08-11, 12:31:52
Wenn es um die Winkelabhängigkeit geht, ist da mit dem Treiber nichts zu machen, da ein Hardwarelimit...
Bei Nvidia und ATI.

Ich rede doch von zukünftiger Hardware. :naughty:
Dass man die Restriktionen der HW beim AF mit einem Treiber nicht weg bekommt, ist ja klar.

MfG,
Raff

Leonidas
2005-08-12, 22:32:57
3DC zum Thema:
http://www.3dcenter.org/artikel/g70_flimmern/


PS: Wenn die Frage existieren sollte, wie dieser "Spaß" wieder zurückgedreht werden kann, dann gibt es nur eine Antwort: Druck auf die Hersteller. Nur wenn die Medien umfassend und in klaren Worten darüber berichten, bewegt sich etwas.

PS2: Wenn man es nicht besser wüsste ;), könnte man vorstehende Zeilen als Aufruf verstehen, die wichtigen Online-Medien anzuschreiben und auf diese Problematik hinzuweisen, auf das diese von selbst aktiv werden. ;) ;) Wir als 3DC werden leider, wenn wir andere Medien für diese Problematik erwärmen versuchen, in erster Linie als Konkurrenz wahrgenommen, als Leser kann man da wohl sogar mehr ausrichten.

Winter[Raven]
2005-08-12, 22:40:11
Leonidas, nur weil 3dc jetzt Kritik ausübt und alle anderen mal wieder schweigen, stehen die Chancen im Endeffekt == 0;!

Blaire
2005-08-12, 22:44:17
Gibts davon auch eine englischsprachige Version? Dann könnte man dies auch in anderen Foren posten und dadurch mehr Druck auf Nvidia ausüben?

Gast
2005-08-12, 22:47:09
Da war mir zu damaligen Zeiten die Implementierung von ATI lieber und bitte sag mir jetzt nicht das dieses korrektes 2x AF besser war, denn ein paar "Meter" weiter war nur noch brei vorhanden.



der meinung bin ich schon. zwischen keinem AF und 2xAF ist ein riesen unterschied. ich würde mal sagen in einem normalen blickwinkel aus der first person ist damit mehr alss 50% des bildes ausreichend scharf, und zwar genau die 50% des bildes auf die man 90% des spieles achtet.

der qualitätsvorteil wird bei höheren stufen dann immer kleiner. 4xAF bringt noch deutliche vorteile, 8x sieht auf scrennshots gut aus, nimmt man aber praktisch kaum mehr wahr, und 16x bringt selbst auf den winkeln wo es angewendet wird kaum mehr verbesserungen.

ich spiele selbst auf dem NV40 öfter nur mit 2xAF weil mich die winkelabhängigkeit in den höheren modi zu sehr stört, lieber gleichmäßige nicht ganz so tolle schärfe als ständige wechsel. bei 4xAF geht es ja noch, aber alles was drüber ist, ist wirklich inakzeptabel.

und für AF auf trilineare filterung zu verzichten ist sowieso inakzeptabel. AF brauche ich eh nur auf stark geneigten texturen wie böden und wänden, und diese benötigen auch immer trilineare filterung um keine bugwelle zu erhalten. texturen bei denen man auf tri-filterung verzichten kann brauchen auch niemals AF.

tEd
2005-08-12, 22:58:53
Ist der default quality modus bei einer geforce eigentlich mit oder ohne optimierungen?

Ich hatte kürzlich die möglichkeit die qualität des qualitäts modus mit optimierungen auf eine gf6800u anzuschauen und ich war sogar überrascht wie schlecht das aussah respektive wie extrem schlimm das geflimmert hat. Ohne optimierungn war es dann schon viel besser aber immernoch mit deutlichem flimmern.

Es geht mir darum weil in vielen reviews wird nicht explizit erwähnt was die einstlleung waren dann muss ich dann annehmen das mit default einstellungen gebencht worden sind.

Mr. Lolman
2005-08-12, 23:00:04
der meinung bin ich schon. zwischen keinem AF und 2xAF ist ein riesen unterschied. ich würde mal sagen in einem normalen blickwinkel aus der first person ist damit mehr alss 50% des bildes ausreichend scharf, und zwar genau die 50% des bildes auf die man 90% des spieles achtet.

Imo achtet man eher auf die Mitte des Schirms und dort befindet sich beim 2xAF eher der zu 90% unscharfe Fluchtpunkt...


der qualitätsvorteil wird bei höheren stufen dann immer kleiner. 4xAF bringt noch deutliche vorteile, 8x sieht auf scrennshots gut aus, nimmt man aber praktisch kaum mehr wahr, und 16x bringt selbst auf den winkeln wo es angewendet wird kaum mehr verbesserungen.

Kommt auf den Content an. 4xAF ist mir tw schon zu unscharf. 8xAF ist hingegen fast immer ausreichend...


ich spiele selbst auf dem NV40 öfter nur mit 2xAF weil mich die winkelabhängigkeit in den höheren modi zu sehr stört, lieber gleichmäßige nicht ganz so tolle schärfe als ständige wechsel. bei 4xAF geht es ja noch, aber alles was drüber ist, ist wirklich inakzeptabel.

Naja Geschmackssache. Wobei du mit deinem Geschmack wohl eher einsam dastehen dürftes. Klar wär AF ohne WA besser, aber deswegen spiel ich doch nicht mit 2xAF.


und für AF auf trilineare filterung zu verzichten ist sowieso inakzeptabel. AF brauche ich eh nur auf stark geneigten texturen wie böden und wänden, und diese benötigen auch immer trilineare filterung um keine bugwelle zu erhalten. texturen bei denen man auf tri-filterung verzichten kann brauchen auch niemals AF.

Aber geh. ATis bilinearer Filter funktioniert so toll, dass das Mipband tw. garnicht sichtbar ist. Trotz deutlich besserer Schärfe vgl. mit noAF. Also kann logischerweise auch ein brilinearer Filter ausreichen.

Natürlich tut er das im seltensten Fall über den gesamten Content. Aber um wiedermal UT2004 heranzuziehen: Da wird immer brilinear gefiltert und trotzdem beschwert sich niemand über ne Bugwelle.

Mr. Lolman
2005-08-12, 23:05:25
Ist der default quality modus bei einer geforce eigentlich mit oder ohne optimierungen?

Beim 77.76 ists mit allen Optimierungen (sobald man mal AA/AF eingestellt hat)


Ich hatte kürzlich die möglichkeit die qualität des qualitäts modus mit optimierungen auf eine gf6800u anzuschauen und ich war sogar überrascht wie schlecht das aussah respektive wie extrem schlimm das geflimmert hat. Ohne optimierungn war es dann schon viel besser aber immernoch mit deutlichem flimmern.

Hier hast du sie nochmal:

NV40 4xAA/16xAF treiberdefault: http://img345.imageshack.us/img345/8628/default77761jd.gif
R3x0 4xAA/16xAF treiberdefault: http://img306.imageshack.us/img306/8826/ati0hz.gif

NV40 4xAA/16xAF HQ: http://img306.imageshack.us/img306/6320/nv3yc.gif
NV40 4xAA/16xAF Q ohne optimierungen: http://img334.imageshack.us/img334/6652/nvq3sc.gif




Es geht mir darum weil in vielen reviews wird nicht explizit erwähnt was die einstlleung waren dann muss ich dann annehmen das mit default einstellungen gebencht worden sind.

Imo ist das auch die gängige Praxis

Gast
2005-08-12, 23:08:09
Naja Geschmackssache. Wobei du mit deinem Geschmack wohl eher einsam dastehen dürftes. Klar wär AF ohne WA besser, aber deswegen spiel ich doch nicht mit 2xAF.



wenn möglich versuche ich natürlich noch einen FSAA-modus mit SSAA-anteil dazuzuschalten, was dann immerhin ordentliches 4xAF ergibt.


Aber geh. ATis bilinearer Filter funktioniert so toll, dass das Mipband tw. garnicht sichtbar ist. Trotz deutlich besserer Schärfe vgl. mit noAF. Also kann logischerweise auch ein brilinearer Filter ausreichen.

Natürlich tut er das im seltensten Fall über den gesamten Content. Aber um wiedermal UT2004 heranzuziehen: Da wird immer brilinear gefiltert und trotzdem beschwert sich niemand über ne Bugwelle.

brilinear als option ist für mich OK, ist in vielen fällen (je nach texturinhalt) kaum von echtem trilinear zu unterscheiden. gerade die in UT2004 verwendeten texturen eignen sich hervorragend für eine derartige optimierung; aber bilinear, no way (auch nicht das radeon-bilinear welches "dank" ungenauem LOD eine art mip-map-dithering erzeugt)

Gast
2005-08-12, 23:10:00
Beim 77.76 ists mit allen Optimierungen (sobald man mal AA/AF eingestellt hat)





nur bei AF über den treiber, und auch nur wenn man das CP benutzt. app-gesteuertes AF, sowie über aTuner etc. hat standardmäßig weiterhin die üblichen verdächtigen (tri-opt, sample-opt) aktiviert.

aths
2005-08-12, 23:10:01
Gibts davon auch eine englischsprachige Version? Dann könnte man dies auch in anderen Foren posten und dadurch mehr Druck auf Nvidia ausüben?Ich will erst 1, 2 Tage warten, ehe ich den Artikel ggf. übersetze. Vielleicht ergibt sich in der Diskussion bis dahin noch irgendwas neues.

tEd
2005-08-12, 23:15:42
Beim 77.76 ists mit allen Optimierungen (sobald man mal AA/AF eingestellt hat)

Wenn in vielen reviews wirklich dann mit default gebencht wird (quality vs AI low) dann is dass ja schon fast ein kleiner skandal denke ich. Und wenn dann die g70 noch ein bisschen schlechter ist als NV40 im qualitäts modus(was ich mir fast nicht vorstellen kann) dann ist das einfach nur scheisse

Raff
2005-08-12, 23:19:04
So ist es. Praktisch alle Reviews lassen nVIDIA in einem besseren Licht dastehen als es eigentlich der Fall ist. Mit HQ hätte man annähernd ATi-Qualität ... aber die Performance würde teils dramatisch in den Keller gehen. Das gefiele nV sicher nicht ...

MfG,
Raff

aths
2005-08-12, 23:43:07
Kommt auf den Content an. 4xAF ist mir tw schon zu unscharf. 8xAF ist hingegen fast immer ausreichend...4x, 8x und 16x AF auf Radeon und GF ab NV40 würde ich nicht mehr 4x, 8x und 16x AF nennen. Denn z. B. das 8x AF liefert eben zum Teil nur 2x, obwohl eine Texturverzerrung >= 8:1 vorliegt. Das ist nicht nur eine bedauerliche Optimierung oder eine leichte Schwäche, sondern imo einfach Scheiß. Bei einer 8:1-Verzerrung will ich 8x AF, sonst hätte ich kein 8x AF eingestellt. GF3-FX bringt da nun bei 45°-Winkeln in der ersten MIP nur 4x AF. Ein Kompromiss, der in der Praxis aber kaum zu bemerken ist.

Naja Geschmackssache. Wobei du mit deinem Geschmack wohl eher einsam dastehen dürftes. Klar wär AF ohne WA besser, aber deswegen spiel ich doch nicht mit 2xAF.Ich spiele derzeit mit einer FX 5900 XT :) und weiß, wie 8x AF aussehen muss.


Aber geh. ATis bilinearer Filter funktioniert so toll, dass das Mipband tw. garnicht sichtbar ist. Trotz deutlich besserer Schärfe vgl. mit noAF. Also kann logischerweise auch ein brilinearer Filter ausreichen.ATIs bilinearer Filter arbeitet so schlecht, dass man in einigen Fällen nicht mal das MIP-Band sieht, was ein bilinearer Filter erzeugen muss. Folge: Texturen sind entweder zu unscharf oder grisseln bereits – wie man auch im Video aus dem Artikel sehen kann.

Leonidas
2005-08-12, 23:44:21
Gibts davon auch eine englischsprachige Version? Dann könnte man dies auch in anderen Foren posten und dadurch mehr Druck auf Nvidia ausüben?


aths will es wohl in ein paar Tagen übersetzen.

Gast
2005-08-13, 00:33:12
Mit HQ hätte man annähernd ATi-Qualität ... aber die Performance würde teils dramatisch in den Keller gehen. Das gefiele nV sicher nicht ...



wenn HQ, dann aber auch bitte bei ATI AI-off, denn HQ gegen bri-filterung kann es nun wirklich nicht sein.

Mr. Lolman
2005-08-13, 00:34:42
ATIs bilinearer Filter arbeitet so schlecht, dass man in einigen Fällen nicht mal das MIP-Band sieht, was ein bilinearer Filter erzeugen muss. Folge: Texturen sind entweder zu unscharf oder grisseln bereits – wie man auch im Video aus dem Artikel sehen kann.

Ja so siehts der Theoretiker. Der Praktiker freut sich über die subjektiv bessere BQ ;)

BTW: Gibts da auch Video mit ATi biAF? Das wär der Vollständigkeit halber echt notwendig.

BTOW: Erklär mir mal bitte was genau ATis bilinearer Filter anders macht, so dass es trotz Biband bald mehr trilinear filtert als bilinear. Ich kann mirs momentan nur mit einer massivem Überfilterung erklären, dass das Mipband tw. so schwer erkennbar ist, bei insgesamt recht homogener Schärfe...

Mr. Lolman
2005-08-13, 00:37:22
wenn HQ, dann aber auch bitte bei ATI AI-off, denn HQ gegen bri-filterung kann es nun wirklich nicht sein.

Naja dazu gibts ja jetzt Videos, die den UNterschied zw, AI-On/Off sichtbar machen. Bri ist halt nicht gleich Bri.


Jetzt wirds echt mal Zeit, dass ich nem Freund seine R200 abschwatz. Der Vergleich zu NV default AF interessiert mich brennend :D

Gast
2005-08-14, 13:45:56
was sieht eigentlich besser aus?
ein tri gefiltertes bild ohne af oder bri- /bi-af?

Salvee
2005-08-14, 14:18:47
So ist es. Praktisch alle Reviews lassen nVIDIA in einem besseren Licht dastehen als es eigentlich der Fall ist. Mit HQ hätte man annähernd ATi-Qualität ... aber die Performance würde teils dramatisch in den Keller gehen. Das gefiele nV sicher nicht ...

MfG,
Raff

Mal abwarten, ob sich die Spirale weiterdreht, und ATi bei ihren neuen Chips ebenfalls einen extrem 'optimierten' Benchmark-Defaultmodus implementiert.
Wundern würde es mich nicht, ehrlich gesagt :(

Piffan
2005-08-14, 17:16:05
was sieht eigentlich besser aus?
ein tri gefiltertes bild ohne af oder bri- /bi-af?

Tri sieht schon mal nicht schlecht aus, allerdings wirken die Texturen je nach Blickwinkel recht unscharf. War zu Zeiten der Voodoo Graphic/Voodoo 2 cool...

Durch AF werden die Flächen, die sich in Längsrichtung erstrecken, bedeutend schärfer, egal ob Tri oder Bi. Bei BiAF oder BriAF kommen Bänder ins Spiel. Allerdings müssen die nicht immer stören, wenn der AF- Grad diese Bänder in die Ferne verlagert. Hängt aber von der Art der Texturen und den Sehgewohnheiten ab.

Was besser aussieht, saubere Texturen, die in der Schrägsicht unscharf werden, oder scharfe Texturen mit wahrnehmbaren Bändern, ist schwer zu sagen. Kommt auf den Content an.

Das Beste wäre, wenn man den Kunden die Einstellungen überlässt. .

aths
2005-08-14, 17:25:23
Ja so siehts der Theoretiker. Der Praktiker freut sich über die subjektiv bessere BQ ;)

BTW: Gibts da auch Video mit ATi biAF? Das wär der Vollständigkeit halber echt notwendig.So ein Video gibts nicht. Trilineare Filterung, und zwar echte (und keine "brilineare") sollte auch Standard sein. Leider verhindert die "Optimierung" vom Forceware bzw. ATIs A. I., dass in UT volle trilineare zum Einsatz kommt.

Der Praktiker in dir übersieht die Nachteile von ATIs "MIP-Map-Dithering" welches durch Ungenauigkeit zustande kommt: Einzelne Quads sind zu unscharf, andere zu flimmrig. Look closer.

Was "subjektiv besser" ist, ist immer angreifbar. Deshalb sollte man nach Möglichkeit objektive Kriterien heranziehen.

BTOW: Erklär mir mal bitte was genau ATis bilinearer Filter anders macht, so dass es trotz Biband bald mehr trilinear filtert als bilinear. Ich kann mirs momentan nur mit einer massivem Überfilterung erklären, dass das Mipband tw. so schwer erkennbar ist, bei insgesamt recht homogener Schärfe...Den Artikel "ATIs Filtertricks" kennst du?

aths
2005-08-14, 17:26:26
Tri sieht schon mal nicht schlecht aus, allerdings wirken die Texturen je nach Blickwinkel recht unscharf.Nein, unscharf werden sie je nach Verzerrungsgrad.

Durch AF werden die Flächen, die sich in Längsrichtung erstrecken, bedeutend schärfer, egal ob Tri oder Bi.Durch AF werden verzerrte Texturen deutlich schärfer.

Die optimale LOD-Formel für isotrope Filterung ist: log_2 (Maximum (Seitenkante 1, Seitenkante 2)). Je größer das LOD, desto höher (also desto niedriger aufgelöst) die MIP-Stufe. Das heißt, die längere Seitenkante (des Pixels im Texture Space) bestimmt bei isotroper Filterung die MIP. (Um die konkrete MIP zu ermitteln, muss die Größe der Basis-Textur bekannt sein, aber so genau willst du es wahrscheinlich gar nicht wissen.)

AF sorgt nun (in der Theorie) dafür, dass das LOD für die kleinere Seitenkante genommen wird. Angenommen, Seitenkante 2 ist 4 mal so lang wie Seitenkante 1. Dann nutzt man 4x AF und setzt die einzelnen isotrope Samples so, dass die Gesamtfläche des Pixels im Texture Space abgedeckt wird.

Da spielt der Blickwinkel gar keine Rolle. Den kennt die Grafikkarte zu diesem Zeitpunkt auch nicht. Sie kennt für das Quad, also für 2x2 Pixel, jeweils die Texturkoordinaten.

Gast
2005-08-16, 23:09:18
Ich finde die Videos und den Artikel wunderbar, nur sieht man das alles nicht wenn man z.b. Battlefield2 spielt, solche vergleiche
http://dvd-reviews.ru/files/degust/6800_7800_anim.gif
bringen nur etwas um die Leute über die schlechte Qualität aufzuklären, aber ich bezweifle das es jemals besser wird, es wird immer heisen "sieht man nicht beim spielen" und da haben sie leider recht

elianda
2005-08-18, 10:48:57
Ich wuerde es begruessen, wenn bei Qualitaetstests immer ein Software Referenz gerendertes Bild mit 'highest quality' zum Vergleich angeboten wird. Also mit den korrekten mathematischen Algorithmen. Das kann man dann 16xAF 8xAA gegenueberstellen und sowohl bei ATI als auch bei NV sehen, wie weit die Hardware an die 'highest quality' herankommt.
Ich vermisse sowas immer ein wenig, da meist ATI vs NVidia bzw alte vs neue Generation verglichen wird, ohne dass man sieht wie es im besten Fall, also mathematisch korrekt aussehen wuerde.

Ciao...
...Micha

Gast
2005-08-18, 22:29:13
Viele Wege führen nach Rom, und genauso ist das bei "High Quality".
Gut man kann sagen das AF ohne Winkelabhängigkeit appliziert werden muss, aber was kommt danach?
Der "Refrast" soll ja eine Art Referenz darbieten, nur ist nV da leider schon drüber...

MikBach
2005-08-18, 22:32:04
Viele Wege führen nach Rom, und genauso ist das bei "High Quality".
Gut man kann sagen das AF ohne Winkelabhängigkeit appliziert werden muss, aber was kommt danach?
Der "Refrast" soll ja eine Art Referenz darbieten, nur ist nV da leider schon drüber...
Theoretisch, ja.
Mit 8 Samples ist man besser als der RefRast mit 5 Samples.
Nur ist das unwichtig, wenn das AF flimmert. :D

Coda
2005-08-19, 00:20:21
Ich wuerde es begruessen, wenn bei Qualitaetstests immer ein Software Referenz gerendertes Bild mit 'highest quality' zum Vergleich angeboten wird. Also mit den korrekten mathematischen Algorithmen.Das Problem ist, dass es für AF keine solche feste Formel gibt im Gegensatz zur isotropischen Filterung.

Coda
2005-08-19, 00:21:34
Ich finde die Videos und den Artikel wunderbar, nur sieht man das alles nicht wenn man z.b. Battlefield2 spielt, solche vergleiche
http://dvd-reviews.ru/files/degust/6800_7800_anim.gif
bringen nur etwas um die Leute über die schlechte Qualität aufzuklären, aber ich bezweifle das es jemals besser wird, es wird immer heisen "sieht man nicht beim spielen" und da haben sie leider rechtAn einem Standbild kann man das eigentlich nicht vergleichen.

Expandable
2005-08-19, 16:09:29
Laut nvnews (http://www.nvnews.net/#1124376839)

The shimmering issue is being addressed by NVIDIA and they hope to have a fix soon. Brian Burke from NVIDIA e-mailed us regarding it (see quote below). Meanwhile, you can check out some possible approaches to reduce or eliminate shimmering in some of your games in our forums. Here is another thread on this topic as well.

We have isolated the problem and we are working on the fix. We will also be working on a fix for the application profile problems that some users were experiencing. We hope to have a fix soon. --Brian Burke, NVIDIA Corp.

Gast
2005-08-19, 19:22:36
An einem Standbild kann man das eigentlich nicht vergleichen.

Wieso nicht, ist doch der selbe Blickwinkel, man sieht wo welche Grafikkarte anders filtert, oder?

MikBach
2005-08-19, 19:23:33
Wieso nicht, ist doch der selbe Blickwinkel, man sieht wo welche Grafikkarte anders filtert, oder?
Nö, anhand von Standbildern kann man es höchstens erahnen.

edit: Grammatik :redface:

Gast
2005-08-20, 02:27:10
habe eine 7800gtx und muss ehrlich sagen die karte
flackert brutal vorallem bei hlf2 und der fear demo.
hatte mal ne x800pro dort ging noch alles super

aths
2005-08-20, 05:18:19
Theoretisch, ja.
Mit 8 Samples ist man besser als der RefRast mit 5 Samples.
Nur ist das unwichtig, wenn das AF flimmert. :DWas für Samples?

aths
2005-08-20, 06:03:59
So ist es. Praktisch alle Reviews lassen nVIDIA in einem besseren Licht dastehen als es eigentlich der Fall ist. Mit HQ hätte man annähernd ATi-Qualität ... aber die Performance würde teils dramatisch in den Keller gehen. Das gefiele nV sicher nicht ...Und das ist mir natürlich Latte.

Mr. Lolman hat Recht – mit vernünftiger Qualität stünde die GF6 schlechter da. Zwar sehe ich nicht, dass die GF7 dann vielleicht sogar unterhalb der XT PE einzuordnen wäre (die Relevanz einiger weniger solcher Benchmarks zweifle ich stark an) aber ein Reviewer muss bei GF6 und 7 sicherstellen, dass NV nicht mehr Leistung zugesprochen wird als sie tatsächlich liefern.

Synthetische Benchmarks (ohne AF) können die im Prinzip überlegene Leistung z. B. der 6600 GT auch belegen – aber der Vorsprung in Spielen wäre geringer, aufgrund diverser Umstände läge die 6600 GT hier und da sogar zurück.

Meine Klagen über die AF-Vergleiche von GeForce4/FX vs. Radeon sind hoffentlich noch in den Ohren. Dass NVs Leistung damals ungerecht bewertet wurde darf nicht dazu führen, heute ein Auge zuzudrücken. Stattdessen sollten die Reviewer ihr fahrlässiges Verhalten von damals zugeben und Sorge tragen, dass sich das nicht wiederholt.

3DCenter hat im Flimmer-Artikel die eigenen Benchmarks für unzulässig erklärt. Welche andere Seite hat ihre Bewertung öffentlich in Zweifel gezogen?

aths
2005-08-20, 06:13:11
Ich wuerde es begruessen, wenn bei Qualitaetstests immer ein Software Referenz gerendertes Bild mit 'highest quality' zum Vergleich angeboten wird. Also mit den korrekten mathematischen Algorithmen. Das kann man dann 16xAF 8xAA gegenueberstellen und sowohl bei ATI als auch bei NV sehen, wie weit die Hardware an die 'highest quality' herankommt.
Ich vermisse sowas immer ein wenig, da meist ATI vs NVidia bzw alte vs neue Generation verglichen wird, ohne dass man sieht wie es im besten Fall, also mathematisch korrekt aussehen wuerde.Solche Vergleiche sind nicht zu machen.

Was ist "mathematisch korrekt"? Trilineare Filterung ist zum Beispiel eine ziemliche Vereinfachung des korrekten Sampling. Bilineare Filterung interpretiert die Textur auf eine bestimmte Art und Weise, unabhängig wie die Texel tatsächlich zustande gekommen sind. Trilinear baut auf bilinear auf, und AF auf bi- bzw. trilinear. Noch so korrektes trilinear ist höchst unkorrekt, das ganze MIP-Mapping eine ziemlich dreiste Vereinfachung – anders bekommt man den Filter-Aufwand jedoch heute noch nicht in den Griff.

Wenn die Texturkoordinaten aus irgendwelchen Gründen bei der Perspektiv-Korrektur nicht ganz korrekt ermittelt werden, kann das innerhalb der texturierten Fläche zu einem Offset führen. Folge: Das Differenzbild zum mathematisch korrektem Ergebnis kann erhebliche Abweichungen zeigen, während man im Spiel praktisch keine Nachteile sieht.

aths
2005-08-20, 06:17:02
Viele Wege führen nach Rom, und genauso ist das bei "High Quality".
Gut man kann sagen das AF ohne Winkelabhängigkeit appliziert werden muss, aber was kommt danach?
Der "Refrast" soll ja eine Art Referenz darbieten, nur ist nV da leider schon drüber...Der Refrast nutzt fürs iostrope LOD bereits eine gängige Vereinfachung (im die Berechnung von Quadratwurzeln zu vermeiden.) Besser wäre eine andere, aufwändigere LOD-Formel (welche der NV40 und G70 übrigens in Näherung verwenden.)

Sollte bestes AF nun auf der traditionellen isotropen LOD-Formel oder nach der im Kreismuster resultierenden Formel erzeugt werden?

Sehr gutes 16x AF ist unerhört aufwändig. Gewisse Kompromisse halte ich für durchaus akzeptabel. Aber wer legt fest, was noch akzeptabel ist und was nicht?

Gast
2005-08-20, 12:43:25
Hallo

Hatte die Absicht mir die "Maschine from Hell" zu holen, dass mit dem Flimmern
hat mich aber zum Abwarten gebracht.

Meine Frage: Kann man (in Prozent ausgedrückt) eine Prognose abgeben, ob dass nun ein Treiber-Prob ist bzw. ein Hardware-Fehler ?

PS: Kann mir leider die Videos nicht angucken, da mein System wohl zu schwach ist: A700, Geforce1, 256 MB Ram.

mike49
2005-08-20, 12:48:50
Hatte die Absicht mir die "Maschine from Hell" zu holen, dass mit dem Flimmern
hat mich aber zum Abwarten gebracht.

So weit ist es jetzt also schon gekommen mit dieser AF-Hysterie... :wink:

Hol dir die Kiste, stell im Treiber alles auf HQ und freu dich an der geilen Grafik!

cR@b
2005-08-20, 12:48:52
Hallo

Hatte die Absicht mir die "Maschine from Hell" zu holen, dass mit dem Flimmern
hat mich aber zum Abwarten gebracht.

Meine Frage: Kann man (in Prozent ausgedrückt) eine Prognose abgeben, ob dass nun ein Treiber-Prob ist bzw. ein Hardware-Fehler ?

PS: Kann mir leider die Videos nicht angucken, da mein System wohl zu schwach ist: A700, Geforce1, 256 MB Ram.

Laut Jens Neuschäfer (nVidia) wird das Flimmern in kommenden Treibern beseitigt. Wie wahr man die ganze Sache nehmen kann ist definitiv fraglich. Ich persönlich warte erste Aussagen von Besitzern der 78er ab ! ;)

Edit:

1. http://www.nvnews.net/#1124376839

2. http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/august/herstelleruebergreifendes_sli/

3. http://www.hartware.de/news_38301.html

Gast
2005-08-20, 13:31:40
Hallo

Ich kann mir leider kein eigenes Bild vom Flimmern machen, aber in vielen Foren schreiben sie zb. F.E.A.R. ist mit Flimmern nicht spielbar (Bei BF2 soll´s auch stören). Und die Kiste ist rein zum Daddeln gedacht, also für 3D-Shooter (COD2, F.E.A.R und STALKER etc.). Ja und beim Daddeln habe ich halt keine Lust auf Kopfschmerzen. Und wenn man nun liest von Treiber-Prob., Hardware-Fehler,
Rückrufaktion usw. ist eine Ausgabe von 1299 € schon recht happig, zumal die Kiste min. 2-3 Jahre halten soll, und ich nicht Dauerpatient bei einem Migränearzt werden wollte und schon gar nicht für 2-3 Jahre.

MikBach
2005-08-20, 13:33:27
Hol dir die Kiste, stell im Treiber alles auf HQ und freu dich an der geilen Grafik!
Auch bei HQ flimmert die 7800 vor sich hin...

Gast
2005-08-20, 14:59:18
Laut Jens Neuschäfer (nVidia) wird das Flimmern in kommenden Treibern beseitigt. Wie wahr man die ganze Sache nehmen kann ist definitiv fraglich. Ich persönlich warte erste Aussagen von Besitzern der 78er ab ! ;)

Edit:

1. http://www.nvnews.net/#1124376839

2. http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/august/herstelleruebergreifendes_sli/

3. http://www.hartware.de/news_38301.html


Hab den 78.11 beta drauf flimmert immer noch

mapel110
2005-08-20, 15:01:22
Hab den 78.11 beta drauf flimmert immer noch
Der Treiber ist ja auch älter als der 77.77. :|

Gast
2005-08-20, 15:20:14
Der Treiber ist ja auch älter als der 77.77. :|

Hatte den 77.77 vorher drauf.
kann schon sein dass er älter ist flimmert aber
bei beiden.

Gast
2005-08-20, 16:36:13
Der Treiber ist ja auch älter als der 77.77. :|

Filename:
Version:
Date added:
Publisher:
FileSize (MB): ForceWare 78.11 Win2000/XP 32-bit
78.11 beta
2005-08-18 12:12:54
NVIDIA
15


Der beta 78.11 ist ne woche neuer als der 77.77er

Gast
2005-08-21, 00:59:05
Hammer etwa schon September?
Dauert noch ein bisschen bis der "Fix" kommt (wer glaubt denn schon Marketing Leuten wie Neuschäfer noch etwas...), sie werden hoffentlich die AF Einstellungen für den NV40 auf den G70 übertragen. Nachdem es nun sehr fein und explizit nachgewiesen wurde, das unterschiedlich gefiltert wird, wäre NV in einer "misslichen Lage" wenn der Fix nicht 100%ig gleiche Qualität bei NV40 und G70 produzieren würde.

Gast
2005-08-21, 01:02:03
Hallo
...Rückrufaktion usw. ist eine Ausgabe...

Welche Rückrufaktion?
Und woher willst du wissen das "Flimmern" Migräne verrursacht ;) Wieder ein Gast Post wie es NICHT sein sollte!

Gast
2005-08-21, 01:03:33
Nö, anhand von Standbildern kann man es höchstens erahnen.

edit: Grammatik :redface:

Verstehe ich nicht, auf dem von mir geposteten GIF (ist nicht von mir) sieht man doch den Unterschied eindeutig, was gibt es da zu erahnen? Soll ich es extra mackieren?

mapel110
2005-08-21, 01:05:10
Filename:
Version:
Date added:
Publisher:
FileSize (MB): ForceWare 78.11 Win2000/XP 32-bit
78.11 beta
2005-08-18 12:12:54
NVIDIA
15


Der beta 78.11 ist ne woche neuer als der 77.77er
Treiberdateien beim 77.77 sind vom 20.7.05
Treiberdateien beim 78.10 sind vom 1.7.05
Treiberdateien beim 78.11 sind vom 6.7.05

aths
2005-08-26, 10:43:16
Noch mal:
Theoretisch, ja.
Mit 8 Samples ist man besser als der RefRast mit 5 Samples.
Nur ist das unwichtig, wenn das AF flimmert. :DWas für Samples?

DrumDub
2005-08-26, 11:05:53
Meine Frage: Kann man (in Prozent ausgedrückt) eine Prognose abgeben, ob dass nun ein Treiber-Prob ist bzw. ein Hardware-Fehler ? es ist definitiv ein treiberproblem, welches sich durch hacken älterer treiber für den g70 beheben lässt: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3391046#post3391046

SKYNET
2005-08-26, 11:11:04
Treiberdateien beim 77.77 sind vom 20.7.05
Treiberdateien beim 78.10 sind vom 1.7.05
Treiberdateien beim 78.11 sind vom 6.7.05


sagte NV nicht was vom 80er treiber und flimmerfrei? :|

Grestorn
2005-08-26, 11:25:02
sagte NV nicht was vom 80er treiber und flimmerfrei? :|
Ja, aber nicht dass jeder Treiber aus der 80er-Linie das Problem behebt, sondern ein Treiber, der 80er-Linie (vermutlich spätestens der erste, der offiziell rausgegeben wird).

Gerhard
2005-08-26, 13:03:34
Das es mit den älteren Treibern (nach der INF Modifikation) richtig funktioniert hat mich ins Grübeln gebracht.

Deshalb hier meine Vermutung:

<reiner Spekulationsmodus an>
Die 7800GTX hat gegenüber der 6800Ultra nur eine sehr geringe Steigerung der Speicherbandbreite erfahren, gleichzeitig wurde aber die Rohleistung stark angehoben.
Dadurch gab es einen Engpass. Die Geschwindigkeit in den Spielen stieg zwar an, aber gegenüber der 6800Ultra zu wenig um den hohen Mehrpreis zu rechtfertigen und um gegen die vermutete Geschwindigkeit des R520 bestehen zu können. Das Speicherinterface ist zwar überarbeitet und in Kombination mit den Caches stark über die Software/den Treiber zu optimieren, doch hierfür benötigt man Zeit und der Erfolg ist stark vom verwendeten Benchmark/Spiel abhängig.

Doch man hat ja eine einfache Möglichkeit - Als Teil der Intellisample Technologie (schönes Marketingwort) arbeitet man schon länger mit Textureanalyse und auf Statistik basierenden Algorithmen welche es ermöglichen die Anzahl der benötigten Texelwerte zu reduzieren (bzw. einen größeren Teil aus der niedriger aufgelösten Mipmap Ebene+speziellem Differenz-Texelcache zu entnehmen was eine wesentlich höhere Trefferquote im Texturecache zur Folge hat).
Nachteil - es geht je nach Textureinhalt manchmal auch daneben.

Trotzdem - das Marketing drängt :mad: - also schnell mal die Aggressivität des Algorithmus hochgeschraubt, und schon ordentlich Speicherbandbreite gespart. Endlich super Benchmarkwerte :tongue:

Nun arbeitet man fieberhaft an der Optimierung des Algorithmus+des Speicherinterface (auf Treiberebene), um in Kürze einen Treiber nachzuschieben welcher unter HQ bei wieder besserer Grafikqualität ähnlich schnell ist und unter der Quality Einstellung unter Beibehaltung der bisherigen "Grafikqualität" eine Geschwindigkeitssteigerung bringt.
<\reiner Spekulationsmodus aus>

Grestorn
2005-08-26, 13:23:41
Deshalb hier meine Vermutung:Gut möglich. Wenn Du Recht behalten solltest, und der G70 tatsächlich mit korrekter Texturfilterung kaum schneller ist als der NV40 (wobei ich die Vorteile bei den Shader-lastigen Spiele durchaus auch für wichtig halte), und die R520 bei gleicher Filterqualität (also ohne Flimmern) tatsächlich eine vergleichbare oder bessere Performance bietet, dann wäre das ein ziemlicher Schlag ins Kontor von nVidia. Und das zurecht.

Ich hoffe aber immer noch, dass der Verlust durch korrektes Filtern zwar deutlich, aber akzeptabel sein wird.

Gast
2005-08-26, 13:37:31
um die hitrate im texturcache zu steigern müsste man, wie du erwähnt hast aus einer zu niedrig aufgelösten mip samplen. das ganze würde dann aber in unschärfe und nicht in flimmern ändern.

außerdem würden gängige filtertests (gefärbte mips) dieses verhalten zeigen (wie es ja auch beim schalter "Optimierung des AF-musters" geschieht), was aber real nicht der fall ist.

möglich wäre natürlich noch dass gefärbte mips oder applikationionen alá ATI erkannt werden und dann wieder korrekt gefiltert wird, da nvidia das aber auch bei den anderen optimierungen nicht macht glaube ich ehrlich gesagt nicht daran.


mal meine spekulation: (kann natürlich totaler blödsinn sein):

ich denke nvidia hat beim G70 versucht das AF hardwaremäßig auf legale art zu optimieren. dabei wurde wohl leider ein fehler eingebaut der dazu führt dass die textursamples falsch verrechnet werden und eben jenem flimmern.

ich denke allerdings (was eigentlich durch die treibermodifikationen praktisch bewiesen ist) dass der chip trotzdem noch per treiber dieses problem umgehen kann und NV40-AF liefern kann. (evtl. auch durch überfiltern, was natürlich leistung kostet)

diese theorie wird imo durch Demirugs aussagen unterstützt dass der G70 unter HQ die korrekte anzahl an textursamples nimmt. deshalb denke ich eher an einen fehler (den man aber wohl von anfang an in kauf genommen hat) der hardware als an böswillige absichten.

Gast
2005-08-26, 23:11:13
Wie schauts mit der Bildqualität im neuen 78.01 Treiber aus. Hat sich da was getan im AF??

Gast
2005-08-27, 02:19:41
Der ist nicht "neu"... im September hies es kommt ein Treiber fix, also abwarten.

Gast
2005-08-28, 02:48:43
Mir wird echt übel wenn ich das alles hier lese!

Die 7800GTX ist SCHROTT!!

Auch mit voller BQ wäre sie noch Schrott, da die Framerate zu arg absacken würde. Die Karte ist ein unrundes Ding - zB.Speicherinterface!

Als ich von meiner GF3 auf 68U umgestigen bin, war die Texturqualität als
Ganzes schon schlechter.Möchte garnicht wissen wie der 78er wirklich filtert!

Der ganze Grafikkartenmarkt ist nur noch lächerlich!!

Hat sich noch keiner gefragt wieso es die Radeon 9800XT(256MB) schon lange lange
nicht mehr gibt?Aber die 9800Pro(128) immer noch!
Tja,die XT verzockt mal eben ne X700(pro)-meine Vermutung!

Ähnlich mit der 68U-gibts nimmer.Der tolle 7800(ohne alles,dafür mit Flimmerei!!!) kommt ja.Das 110nm "billigverfahren" und der 1slot-Kühler waren von Anfang an verdächtig.

Ohne Filteroptimierungen wäre es ein FX5800 Debakel geworden-Ruckelei!!

Warte lieber auf die ECHTE Karte von NV oder R520.Das kanns doch nicht gewesen sein.

Gruss an aths!

Stimme mit dir vollkommen überein mit +AF für -FPS im Grunde überein,
WENN die Framerate NIE unter 60 FPS fällt(1% Tolleranz erlaube ich,mehr nicht)-OK!
Da sind dann auch die lamen Spiele-Programmierer gefragt.

Versteh mich nicht falsch,ich bin für VOLLE winkelunabh AFilterung,doch zusätzlich MUSS diese 60FPS Anforderung erfüllt werden!

An alle Mags,
Die Spielbarkeitsgrenze bei einem Rennspiel(und gerade bei einem Rennspiel!)wie NFSU2 bei 35FPS als flüssig anzusehen ist für mich inakzeptabel,sorry!
So weit schrauben wir unsere Bedürfnisse herunter damit die ganze GPU Technik ja nicht uncool erscheint.

Zocke seit fast 20 Jahren,hab alles mitgemacht-mir erzählen die von ATI UND NVIDIA nix mehr!

Rate denen mal SCUD RACE oder DAYTONA2 von SEGA (Model3 Arcade Board-nur 2 Mio polys/sec,dafür ALLES ON und INGAME bei konst 60FPS mit Vsync versteht sich)zu spielen,damit die mal einen Eindruck bekommen was Quali ist!!
Ich rede hier über das Jahr 1996!!!
Da gabs grade mal so ein(sorry)voodo zeugs mit perspektive korrektur und filtering an sich als highlight.Zone Fogging oder Subpixel AA waren Fremdwörter(das Zone Fogging in Scud R ist der Hammer,und pseudo HDR wie Pupilleneffekt gabs da auch schon!)Nur diese Jungs haben nicht geschwetzt und gebencht,sondern dich mit Tatsachen erschlagen!!
Und trotzdem vermisse ich bis heute solch eine Qualität.Collin3,4,5
RUCKELN auf meiner 68U+A64@2,5GHZ!LÄCHERLICH!!!!!!!

Trackmania Sunrise geht nur mit SM2 RICHTIG flüssig auf einer SM3 Karte-noch Fragen?

Wollte Niemanden an den Karren fahren,doch die PC-Zockgemeinde lässt
sich echt verarschen.OHNE EUCH bei 3DC wär das Geflimmer nie wirklich publik geworden!Einfach keine 78er kaufen und auf R520 warten,und NV strafen für
ihre Arroganz!

Hui jetzt gehts mir besser,danke..

aths
2005-08-28, 07:53:20
Mir wird echt übel wenn ich das alles hier lese!

Die 7800GTX ist SCHROTT!!

Auch mit voller BQ wäre sie noch Schrott, da die Framerate zu arg absacken würde. Die Karte ist ein unrundes Ding - zB.Speicherinterface!Das gilt nur für die traditionelle Betrachtungsweise. Für die Zwecke, für die sie gebaut ist, reicht das Speicherinterface aus.

Ohne "Optimierungen" am Filter wäre es nicht unbedingt "ein Debakel" geworden. Lassen wir den Unterschied zu flimmerfreiem, winkelunabhängigem AF bei Texturfüllratenlimitierung mit 30-40% ansetzen. Das ist dennoch erheblich günstiger als Texturqualität über Supersampling reinzuholen. Der G70 böte dann mit TAA-SS und AF, jedoch ohne generellem Supersampling, eine Bildqualität nach der man sich die Finger lecken würde – und das bei konkurenzlos hoher Framerate. Würde die Leistung für eine Zielgeschwindigkeit wie 60 fps nicht reichen, und will man nicht die Auflösung senken, könnte man statt 16x AF ja z. B. 6x AF nutzen. (Die Karte beherrscht 6x AF, ohne das explizit im Treiber anzubieten.)

Um besonders flimmeranfälligen Content in den Griff zu kriegen, könnte der Treiber eine Option bieten, die beim AF bewusst ein Stück überfiltert – damit würde die Textur beruhigt ohne dass zu Supersampling gegriffen werden müsste.

Um die Unterschiede in der Leistung zu erklären, hätte NV im Reviewer's Guide natürlich auf den Qualitätsunterschied im AF hinweisen sollen. Am besten auch noch eine Open Source Test-App zum Download anbieten.

Mr. Lolman
2005-08-28, 10:05:32
[...]Um besonders flimmeranfälligen Content in den Griff zu kriegen, könnte der Treiber eine Option bieten, die beim AF bewusst ein Stück überfiltert – damit würde die Textur beruhigt ohne dass zu Supersampling gegriffen werden müsste.[...]

Sowas hört man von dir? Ich stimm dir zwar vollstens zu, aber ATis Performance AF, kannst du ja auch nicht ab. Und da wird bei den Mipübergängen auch überfiltert...

aths
2005-08-28, 10:18:18
Sowas hört man von dir? Ich stimm dir zwar vollstens zu, aber ATis Performance AF, kannst du ja auch nicht ab. Und da wird bei den Mipübergängen auch überfiltert...Und unterfiltert.

Mr. Lolman
2005-08-28, 10:27:04
Und unterfiltert.

Das geschieht beim triAF ja genauso...

aths
2005-08-28, 10:44:49
Das geschieht beim triAF ja genauso...Bei ATI, ja, aber nicht bei korrekter trilinearen Filterung.

Mr. Lolman
2005-08-28, 10:51:23
Bei ATI, ja, aber nicht bei korrekter trilinearen Filterung.

Stimmt. Nur bringt bspw. NVs Sampleoptimierung lt. den AF Blumen auch ne "scheinbar" korrekte trilineare Filterung, und dabei ist damit die Unterfilterung viel schlimmer als bei ATis biAF.

D.h.:
x) NV Q + Opt3 => schöne AF Blume aber flimmrige Ingamegrafik
x) ATi biAF => hässliche AF Blume aber relativ flimmerfreie Ingamegrafik

aths
2005-08-28, 10:52:16
Stimmt. Nur bringt bspw. NVs Sampleoptimierung lt. den AF Blumen auch ne "scheinbar" korrekte trilineare Filterung, und dabei ist damit die Unterfilterung viel schlimmer als bei ATis biAF. Die Blume zeigt lediglich, wann welche MIP genommen wird und nicht, ob korrekt gefiltert wird. Damit kann die Blume keine korrekte trilineare Filterung zeigen.

Piffan
2005-08-28, 10:53:52
Das gilt nur für die traditionelle Betrachtungsweise. Für die Zwecke, für die sie gebaut ist, reicht das Speicherinterface aus.

Ohne "Optimierungen" am Filter wäre es nicht unbedingt "ein Debakel" geworden. Lassen wir den Unterschied zu flimmerfreiem, winkelunabhängigem AF bei Texturfüllratenlimitierung mit 30-40% ansetzen. Das ist dennoch erheblich günstiger als Texturqualität über Supersampling reinzuholen. Der G70 böte dann mit TAA-SS und AF, jedoch ohne generellem Supersampling, eine Bildqualität nach der man sich die Finger lecken würde – und das bei konkurenzlos hoher Framerate. Würde die Leistung für eine Zielgeschwindigkeit wie 60 fps nicht reichen, und will man nicht die Auflösung senken, könnte man statt 16x AF ja z. B. 6x AF nutzen. (Die Karte beherrscht 6x AF, ohne das explizit im Treiber anzubieten.)

Um besonders flimmeranfälligen Content in den Griff zu kriegen, könnte der Treiber eine Option bieten, die beim AF bewusst ein Stück überfiltert – damit würde die Textur beruhigt ohne dass zu Supersampling gegriffen werden müsste.

Um die Unterschiede in der Leistung zu erklären, hätte NV im Reviewer's Guide natürlich auf den Qualitätsunterschied im AF hinweisen sollen. Am besten auch noch eine Open Source Test-App zum Download anbieten.


Mal im Ernst: Glaubst du noch an den Weihnachtsmann? Meinst Du ernsthaft, dass die wenigen Freaks, die wissen worüber Du redest, irgendeine Marktmacht ausüben? Meinst Du, dass bei den Mags Tester sitzen, die ausreichend informiert sind und auch die Stirn haben, die Benches in Relation zur Bildqualität zu beurteilen?
WER ist denn der typische Käufer von Zocker- Karten? Guck dir mal die Cover der Spielemags an, dann bekommst du eine Ahnung vom Niveau der Kunden der Graka- Industrie....

NV wird sich mit dem Hintern auf unsere Kritik setzen. Wenn ein Treiber die geforderte Qualität bringt, wird er definitiv für Einbrüche bei den 0815- Benches sorgen. Und damit erscheint er am Sankt Nimmerleinstag.


Das Problem ist, dass die Benchmark- Szene festgefahren ist bzw. von der unverfrorenen Verschlechterung der AF- Qualität überfahren wurde. Bisher hoffte man, dass ein gewisser Gleichstand herrscht, seit dem NV die Winkelabhängigkeit eingeführt hat. :uclap:

Nun haben wir seit Einführung der G70 erfahren, dass der Leistungsdruck auf die Konkurrenten so hoch ist, dass die BQ auf ungeahnt niedriges Niveau heruntergefahren wird, nur um als Sieger dazustehen. "Schuld" daran sind auch die Bencher, die diesen Zirkus weiter mitmachen.
Demirurg hat vor einem oder zwei Jahren mal ne Revolution gefordert: Weg von der bisherigen Praxis. Was nützt der einsame Rufer? Oder was nützt es, wenn User wie Lolman schon lange harsche Kritik an der NV40 übten, aber hier keine Resonanz finden.

aths
2005-08-28, 10:57:42
Mal im Ernst: Glaubst du noch an den Weihnachtsmann?Nein, aber an den Osterhasten.

Meinst Du ernsthaft, dass die wenigen Freaks, die wissen worüber Du redest, irgendeine Marktmacht ausüben? Meinst Du, dass bei den Mags Tester sitzen, die ausreichend informiert sind und auch die Stirn haben, die Benches in Relation zur Bildqualität zu beurteilen?
WER ist denn der typische Käufer von Zocker- Karten? Guck dir mal die Cover der Spielemags an, dann bekommst du eine Ahnung vom Niveau der Kunden der Graka- Industrie....Ja ok, dann lassen wir das so und prangern sowas weder in Artikeln, noch in Foren an. Loben wir NV für die erneute angebliche Steigerung der Leistung durch die euphemistisch bezeichneten Optimierungen. Dass andere, langsamere AF-Implementierungen die Leistung besser in Qualität umsetzen als das was ATI und NV derzeit anbieten – schweigen wir lieber, da wir ja auch an den Osterhasen glauben.

Nun haben wir seit Einführung der G70 erfahren, dass der Leistungsdruck auf die Konkurrenten so hoch ist, dass die BQ auf ungeahnt niedriges Niveau heruntergefahren wird, nur um als Sieger dazustehen. "Schuld" daran sind auch die Bencher, die diesen Zirkus weiter mitmachen.
Demirurg hat vor einem oder zwei Jahren mal ne Revolution gefordert: Weg von der bisherigen Praxis. Was nützt der einsame Rufer? Oder was nützt es, wenn User wie Lolman schon lange harsche Kritik an der NV40 übten, aber hier keine Resonanz finden.So ungehört ist die Kritik an den NV40-Defaulteinstellungen nicht mehr.

Mr. Lolman
2005-08-28, 11:02:30
Die Blume zeigt lediglich, wann welche MIP genommen wird und nicht, ob korrekt gefiltert wird. Damit kann die Blume keine korrekte trilineare Filterung zeigen.

Demnach sind ja die AF Blumen praktisch völlig für die Katz, denn was bringt ne höheraufgelöste Mip, wenn dann z.B. die Samples falsch verrechnet werden..

aths
2005-08-28, 11:08:48
Demnach sind ja die AF Blumen praktisch völlig für die Katz,Nö. Aber es reicht nicht, alleine den Tunnel zu betrachten. Was bringt die beste Sample-Zahl, wenn eine zu niedrig aufgelöste MIP genommen wird?

Piffan
2005-08-28, 11:14:40
Nein, aber an den Osterhasten.

Ja ok, dann lassen wir das so und prangern sowas weder in Artikeln, noch in Foren an. Loben wir NV für die erneute angebliche Steigerung der Leistung durch die euphemistisch bezeichneten Optimierungen. Dass andere, langsamere AF-Implementierungen die Leistung besser in Qualität umsetzen als das was ATI und NV derzeit anbieten – schweigen wir lieber, da wir ja auch an den Osterhasen glauben.

So ungehört ist die Kritik an den NV40-Defaulteinstellungen nicht mehr.

Du hast ja recht. :redface:

Aber irgendwie kommt mir die Sache so vor wie der berühmte Kampf gegen die Windmühlen. Ist doch ärgerlich, dass auch Leo der Verlockung nicht widerstehen konnte und aus Zeitgründen den Zirkus mit der 7800GT genaus so mitgemacht hat, wie NV sich das so vorgestellt hat....

Und wenn auf HQ die Artefakte dem Durchschnittszocker nicht auffallen bzw. ihn stören, dann verkauft sich die G70 wunderbar. Aus Sicht von NV heißt es dann: Operation überaus gut gelungen....

Wenn Ati ebenfalls die BQ nach unten fährt, dann ist wohl meine jetzige Graka die letzte Spielerkarte....bin sowieso enttäuscht über die Entwicklung der Spiele, FEAR ist für mich wie eine kalte Dusche. Auf der einen Seite Protzerei mit Shader-Effekten, auf der anderen Seite Stümpergrafik bei bestimmten Objekten und als Sahnehaube ne bescheidene Performance. Danke, dann steige ich lieber aus. Ich hoffe auf Remedy, die könnten mit Alan Wake ein Spiel rausbringen, wo man sieht, wofür man sein Geld ausgibt.....

aths
2005-08-28, 11:22:49
Du hast ja recht. :redface:

Aber irgendwie kommt mir die Sache so vor wie der berühmte Kampf gegen die Windmühlen.Nee. Aber man darf sich kein Denkverbot auferlegen. Immer höre ich gleich "Ja, aber, die werden das so und so und nicht anders machen, weil dies und das nun mal so ist."

Ich denke nicht in Richtung kurzfristiger Profitmaximierung, sondern überlege, was für uns Anwender am besten wäre. Ich bin enttäuscht, bei Meetings mit IHVs Redakteure zu sehen, die den Herstellern nach dem Mund reden und zumindest in Gegenwart eines PR-Menschens keine Kritik laut werden lassen und furchtbar viel Verständnis für jeden noch so üblen Trick aufbringen. Gerade wenn PR-Leute in der Nähe sind, ist das doch eine Gelegenheit, Klartext zu reden.

Wir brauchen auch im Forum nicht immer nur Leute, die alles aus Sicht der Marketingabteilung des Herstellers sehen.

MadManniMan
2005-08-28, 13:56:04
Ich bin enttäuscht, bei Meetings mit IHVs Redakteure zu sehen, die den Herstellern nach dem Mund reden und zumindest in Gegenwart eines PR-Menschens keine Kritik laut werden lassen und furchtbar viel Verständnis für jeden noch so üblen Trick aufbringen.

Wann immer ich daran denke, frage ich mich, ob ich in meiner aktuellen Hausarbeit folgenden Satz derartig stehen lassen kann, ohne jenes Volk näher zu betrachten ... (Du erinnerst Dich, ich = Beschäftigung mit Journalismus-Bla):

"Hierbei ist wichtig zu erwähnen, daß der Großteil der Redakteure sich dieses Fachgebietes auch deshalb angenommen hat, da sie selbst potentielle Kunden für die Grafikkartenhersteller darstellen und begeisterte Spieler, zumindest aber von den Möglichkeiten immer besserer Grafikkarten fasziniert sind."

:|

aths
2005-08-28, 15:39:00
Die meisten Grafikkarten-Redakteure die ich gesehen habe, machen das nicht aus Enthusiasmus. Sie verfügen über ein bisschen Viertelwissen (ich habe Halbwissen), und glauben, Schlauheit unter Beweis zu stellen, wenn sie erzählen wie es laufe, also dass die allermeisten User nicht mal wissen würden, was AA und AF überhaupt sei.

Wenige nur bereiten sich vor, so mit schriftlich notierten Fragen, aber bekommen dann zum größten Teil nutzlose oder unvollständige Antworten. In dieser Branche zu arbeiten ist nicht leicht.

MadManniMan
2005-08-28, 16:32:03
Meine Aussage ist zum Einen natürlich empirisch absolut unbegründet, es ist eine reine Vermutung und in dieser Form für eine wissenschaftliche Arbeit weder statthaft, noch akzeptabel.
Da jedoch diese "Tatsache" nur eine nebensächliche Rolle in meiner Arbeit spielte, schrieb ich diesen Satz in der festen Überzeugung, daß das Gros immerhin noch ein Interesse für die Branche besäße.

Deine Worte desillusionieren mich :| Wieso schreiben sie für dieses Spezialgebiet?

Mr. Lolman
2005-08-28, 17:16:05
Deine Worte desillusionieren mich :| Wieso schreiben sie für dieses Spezialgebiet?

Wohl hauptsächlich um ihre Schlauheit unter Beweiss zu stellen und vll. um irgendwann mal von einer der großen Firmen "entdeckt" zu werden. Wenn ich mir den Schmarrn so durchlese der auf den meisten Seiten verzapft wird, so scheint dem maximal eine Art Enthusiasmus des konstanten Durchwanderns eines schmalen Grats zw der maximal zumutbaren Verarschbarkeit des Lesers und der notwendigen Arschkriecherei bei den IHVs zugrunde zu liegen.

Vor allem sind die agitationstechnischen Möglichkeiten ein Wahnsinn. Kaum jemand ist besser manipulierbar als der durchschnittskritische, dem DAU-Schlummer entschlafenem Pseudo Geek, der seine Informationen nicht mehr aus der Computerblöd bezieht, sondern sich eigenständig im Internet informiert. :)

Gast
2005-08-28, 21:59:05
Der ist nicht "neu"... im September hies es kommt ein Treiber fix, also abwarten.

Klar ist der Treiber neu!
Hat ihn schon jemand getestet ? Glaube aber kaum, dass er den AF Bug behebt.
http://www.driverheaven.net/showthread.php?p=667488

aths
2005-08-29, 09:49:02
Meine Aussage ist zum Einen natürlich empirisch absolut unbegründet, es ist eine reine Vermutung und in dieser Form für eine wissenschaftliche Arbeit weder statthaft, noch akzeptabel.
Da jedoch diese "Tatsache" nur eine nebensächliche Rolle in meiner Arbeit spielte, schrieb ich diesen Satz in der festen Überzeugung, daß das Gros immerhin noch ein Interesse für die Branche besäße.

Deine Worte desillusionieren mich :| Wieso schreiben sie für dieses Spezialgebiet?Wichtig ist die Ernsthaftigkeit, nicht primär das Wissen um 3D-Technik. Manfred Bertuch von der c't zum Beispiel glänzt nicht durch fundiertes Detailwissen, aber er macht sich seine Gedanken und prüft gewisse Dinge einfach mal nach, anstatt jedem dahergelaufenem White Paper zu vertrauen. Daniel Waadt von der PCGH ist sich nicht zu schade, andere Leute zu fragen wenns es um Details geht. Sowas ist leider die Ausnahme. Die meisten wissen, wie man eine Grafikkarte einbaut, wie man die Größe des Boards vergleicht und wie man Benchmarks macht die Durchschnitts-fps ausgeben. Außerdem können sie sich im Artikel beim Boardhersteller bedanken – anstelle einfach mal eine GF soundso zu benchen, wird für jedes einzelne Modell einzeln ein Artikel gemacht.

Was die "Optimierungen" angeht, bin ich selbst allerdings nicht vorbildhaft, so freute ich mich bei der Radeon 9600 über die unerwartet hohe trilineare Leistung. Quasar ermittelte dann (mit Demirugs Hilfe) dass die 9600 gar nicht trilinear filtert.

Mir wird by the way zuviel an großen Karten gebencht. Wer sich eine Autozeitschrift kauft, wird natürlich auch gerne lesen, was der neue 7-er kann, und wie sich der aktuelle Porsche fährt. Dabei kann er dann träumen, auch so einen Wagen zu haben. Tatsächliche Praxisrelevanz sollten eher Berichte über (gebrauchte) Opel, Golfs etc. haben.


Zu den HW-Redakteuren noch mal: Ein Tino Kreis (oder wie hieß der), der vor einiger Zeit mit VSync On benchte, hat vorher immerhin überlegt. Nur weil ihm der Zusammenhang nicht klar war, warum VSync-On-Benches für die Katz sind, ist das kein Grund, ihn auszulachen – wie dann leider geschehen. Man sollte sich auf sein bisschen Halbwissen nicht zu viel einbilden. Das meiste davon hat man eh nur, weil sich andere mal im Forum entsprechend geäußert haben – wer hat sich seine Kenntnisse richtig erarbeitet, so mit Buch? Wie würde beispielsweise mein Erfahrungslevel in Dingen 3D-Technik und Mathematik sein ohne Xmas, zeckensack, Demirug, Tridam und andere? Dazu kann man sich ja mal meine alten Artikel zu Gemüte führen und sich anschließend lachend vom Stuhl wälzen, was ich da verzapft habe.

Man sollte als Redakteur Theoriewissen aber auch nicht als unnötigen Ballast sehen, was mir leider auch öfters begegnet. Diese ganzen Erklärungen in den White Paper sind oft mit Absicht konfus gehalten. Das sieht dann aus als käme eine irre ausgefuchste Technik zum Einsatz, die man ohne Ingenieursstudium ohnehin nicht verstehen könne. Was ich persönlich für viel wichtiger halte als das Verständnis, worin der Unterschied in der Arbeitsweise der Pixelshaderpipes vom R420 im Vergleich zum NV40 ist, sind Fragen wie: "Wie transformiere ich einen Punkt aus dem Object Space in den World Space?" ohne Grundlagen dieser Art wird man zum Beispiel den Sinn eines Vertexshaders nicht verstehen, welcher Vorarbeit für den Pixelshader macht.

aths
2005-08-29, 10:01:23
Klar ist der Treiber neu!
Hat ihn schon jemand getestet ? Glaube aber kaum, dass er den AF Bug behebt.
http://www.driverheaven.net/showthread.php?p=667488Das würde von NV wahrscheinlich angekündigt.

Mr. Lolman
2005-08-29, 10:07:02
Mir wird by the way zuviel an großen Karten gebencht. Wer sich eine Autozeitschrift kauft, wird natürlich auch gerne lesen, was der neue 7-er kann, und wie sich der aktuelle Porsche fährt. Dabei kann er dann träumen, auch so einen Wagen zu haben. Tatsächliche Praxisrelevanz sollten eher Berichte über (gebrauchte) Opel, Golfs etc. haben.

Wenn man freakig genug ist gibt man 500€ für ne neue Grafikkarte aus und ernährt sich nur von Reis und Nudeln.. Eine Highend-Grafikkarte ist imo kein Statussymbol mit der man sich nen gesellschaftlichen Rang erkauft. Eine Grafikkarte sollte deswegen preislich IMMER in einem vernünftigen Verhältnis zum Nutzen plaziert sein. Ob das Verhältnis vernünftig ist, entscheidet der Kunde (nicht zuletzt anhand von Benchmarks) selbst.

Und genau deswegen sollte man alle GraKas (gerade die Großen) benchen, denn würden die großen Karten garnicht mehr gebencht, käme das einer Mystifzierung der HW gleich. Leute mit kleinen Geldbeuteln die die Freakigkeitsschwelle noch nicht überschritten haben würde es plötzlich nochmehr reizen ihre Kohle für Elektronikschrott aus dem Fenster zu werfen.

Im Übrigen bin ich auch von deinem Autobeispiel absolut nicht angetan. Auch wenns (oder gerade weils) unwahrscheinlich ist einmal einen Lamborghini besitzen zu dürfen, so les ich mir trotzdem gerne Testberichte eines solchen Farzeugs durch. Auf Berichte von Mittelklasseautos geb ich hingegen kaum was. Interessiert mich so ein Teil, so informier ich mich über die Kosten und gehs dann probefahren. Da brauch ich keinen Tester, der mir vll. noch seine private Meinung aufzwingt, und womöglich Abwertungen wegen zu geringer Cupholderanzahl in seinem Bericht miteinfliessen lässt.

aths
2005-08-29, 13:33:49
Wenn man freakig genug ist gibt man 500€ für ne neue Grafikkarte aus und ernährt sich nur von Reis und Nudeln.. Eine Highend-Grafikkarte ist imo kein Statussymbol mit der man sich nen gesellschaftlichen Rang erkauft. Eine Grafikkarte sollte deswegen preislich IMMER in einem vernünftigen Verhältnis zum Nutzen plaziert sein. Ob das Verhältnis vernünftig ist, entscheidet der Kunde (nicht zuletzt anhand von Benchmarks) selbst.

Und genau deswegen sollte man alle GraKas (gerade die Großen) benchen, denn würden die großen Karten garnicht mehr gebencht, käme das einer Mystifzierung der HW gleich. Leute mit kleinen Geldbeuteln die die Freakigkeitsschwelle noch nicht überschritten haben würde es plötzlich nochmehr reizen ihre Kohle für Elektronikschrott aus dem Fenster zu werfen. Die großen sollten auch gebencht werden. Aber da sie ohnehin kaum verkauft werden, sollten sie nicht so überrepräsentiert sein, wie sie es sind. Das wird dann immer gleich zum Kampf der Titanen hochstilisiert.

Im Übrigen bin ich auch von deinem Autobeispiel absolut nicht angetan. Auch wenns (oder gerade weils) unwahrscheinlich ist einmal einen Lamborghini besitzen zu dürfen, so les ich mir trotzdem gerne Testberichte eines solchen Farzeugs durch. Auf Berichte von Mittelklasseautos geb ich hingegen kaum was. Interessiert mich so ein Teil, so informier ich mich über die Kosten und gehs dann probefahren. Da brauch ich keinen Tester, der mir vll. noch seine private Meinung aufzwingt, und womöglich Abwertungen wegen zu geringer Cupholderanzahl in seinem Bericht miteinfliessen lässt.Selbst ich, der keinen Fleppen hat, lese ganz gern mal was neues über aktuelle Lambos.

In der Mittelklasse gibts allerdings ein extrem großes Angebot – wärst du nicht ohnehin auf einige, wenige Marken fixiert*, würdest du ohne Testberichte wahrscheinlich nur suboptimale Fahrzeuge in Betracht für eine Probefahrt ziehen.

* Das unterstelle ich hier mal dreist.

Gast
2005-08-29, 17:36:18
Klar ist der Treiber neu!
Hat ihn schon jemand getestet ? Glaube aber kaum, dass er den AF Bug behebt.
http://www.driverheaven.net/showthread.php?p=667488


Er behebt ihn nicht hab den treiber nix neues.

cR@b
2005-08-30, 17:20:45
Jetzt bekommen sies dicke :D >>> http://www.theinquirer.net/?article=25807

wuzetti
2005-08-30, 17:58:50
Jetzt bekommen sies dicke :D >>> http://www.theinquirer.net/?article=25807
steil! ATHS wird begeistert sein dass Fuad 3DC als "very talented in-depth site" bezeichnet! ;D

Gast
2005-08-30, 20:06:44
Jetzt bekommen sies dicke :D >>> http://www.theinquirer.net/?article=25807
Mittlerweile zieht es aber schon recht beachtliche Kreise.
Man müsste nur noch testen, ob der neue Treiber wirklich Abhilfe schafft.
Und wie gross der Performancedrop ist...

deekey777
2005-08-30, 20:15:40
steil! ATHS wird begeistert sein dass Fuad 3DC als "very talented in-depth site" bezeichnet! ;D

Ich glaub, Fuad hat verdrängt, daß er eine Email von aths bekommen hatte. Und für "chaps" hat er eins ins Gesicht verdient.

Shimmering issue fixed for 7800GTX (http://forums.anandtech.com/messageview.aspx?catid=31&threadid=1676468&frmKeyword=&STARTPAGE=1&FTVAR_FORUMVIEWTMP=Linear) @Anandtech Forum:


My buddy at nV gave me a beta copy of a new driver revision he said was being made available to some reviewers.

The driver reportedly fixes the shimmering issue between mipmap boundaries with only a few percent fps reduction.

I have an appointment to check out a new winter storage place for my boat soon, but will post my experiences with this tonight. As usual, I have to think if a guy like me can see this, it will be posted soon.

Thought some of you might be interested.

Some skeptics have speculated the fix for the is bug would result in massive loss of framerate, or that the bug itself was intentional for initial review benchmarking purposes. My play earlier tonite, and the following benches, convinced me this is a driver bug that has been addressed. The gentleman at nVidia asked me to note that these are pre-production drivers that they are still testing, but my experiences so far show them solid.

HL2 16X12 4X8X Quality 77.72 4X8X High Q 77.74 4X8X High Q 78.03 (shimmer fixed)
at_c17_12...................61....................58...........................5 8
at_canals_08...............93....................76...........................76
at_prison_05................97....................96...........................9 6

I thought some HL2 would be good because people noticed this a lot in CSS. (which I don't have) Anyway, it's pretty clear at HL2 there is no mythical 30% performance reduction.

Keine English kenntnisse
2005-08-30, 21:00:28
very talented in-depth site

Was bedeutet das ?

MadManniMan
2005-08-31, 00:45:27
aths, Du meinst also, der ordinäre Grafikkartenredakteur ist gar nicht ein Journalist, der einfach Interesse an diesem Thema und darin dann seinen Job fand?

BTW: Fuad verhaspelt sich ziemlich arg, wenns um die Zusammenhänge zwischen NV40, G70 und NV30 geht :|

Gast
2005-08-31, 00:49:21
Sehr Talentiert und "in depth" meint sehr Technisch-Fachspezifisch, Genau bzw. "in die Tiefe der Materie" gehend.
Eben das was Aths mit seinen Technik-Artikeln hervorbringt :)

Ein Kompliment wenn es von Leuten ausgesprochen wird, die als Korifäen gelten, aber dazu zählt Fuad/The INq leider nicht ;)
Trotzdem ein Grund zur Freude das man nicht durch den Kakao als "the bad Germans" gezogen wurde!

Gast
2005-08-31, 04:35:42
Wen interessiert eingentlich so eine Pupsseite wie inq??Hää!?

Der lob an aths ist meiner Meinung nach geheuchelt.

Tja,inq hat wohl ein bisschen Nachhilfe gebraucht um
Begriffe wie AF,tril.filt,... und deren Bedeutung wirklich zu verstehen.

...um sich dann mit schmücken zu können.

Es war leider schon zu Amiga Zeiten so: Die mags aus usa und GB haben
immer den grössten sch... in den himmel gelobt-während deutsche mags
immer kritischer(vor allem in Sachen Technik)waren!

Die EDGE mal ausgenommen!!

Die technisch besten Spiele kommen oft aus Deutschland-nur mit dem design
haperts oft.Da sind wiederum die Japaner Meister.Und die amis?(EPIC!!!!)haben
nichts besseres zu tun als die FAR CRY Engine schlecht zu machen.Unsere
Unreal3eng wird ja sooo toll-in 3Jahren vielleicht.Far Cry gibts schon seit einem Jahr!
EPIC kanns wohl nicht verkraften das da auf EINMAL ohne grosses BLABLA
ein klasse Titel da war.

Amun-Re
2005-09-02, 12:20:52
Die kommenden Tage kommt es zum Release des Forceware 78.03 der die Texturflimmer-Problematik angeblich beheben soll.

Sollte das den Tatsachen entsprechen darf sich ein Forum wie 3DCenter definitiv auf die Fahne schreiben an der Eliminierung dieser unsäglichen "Optimierungsarbeit" seitens NVIDIA tatkräftig mitgewirkt zu haben.

Aufklärung ist immer der erste Schritt zu einer Veränderung und ohne das diese Dinge publik geworden wären hätte NVIDIA es auch sicher nicht für nötig erachtet die Filterqualität wieder auf ein reguläres Niveau @ HighQuality zu setzen.

Gast
2005-09-03, 22:38:20
Habe den treiber, Hlf2 sieht darauf irgendwie besser aus aber es flimmert immer noch

Gast
2005-09-03, 22:47:00
Habe den treiber, Hlf2 sieht darauf irgendwie besser aus aber es flimmert immer noch

HL2 muss aufgrund des massiven AT und der verwendeten texturen zumindest teilweise stark flimmern.

Gast
2005-09-03, 23:23:14
HL2 muss aufgrund des massiven AT und der verwendeten texturen zumindest teilweise stark flimmern.


Ok treiber wirkt..

Gast
2005-09-03, 23:35:50
Es ist besser geworden, ob das jetzt mit NV40 Qualität vergleichbar ist, is mir persönlich schnurz. Es flimmert nich mehr, also wird gezockt *g

Wer mehr wissen will soll seine vergleiche fahren oder warten bis wieder so feine Filmchen wie hier im 3dcenter kommen die genaue Unterschiede aufzeigen.

Gast
2005-09-04, 18:00:46
Da bin ich aber auf die NEUEN Benchmarks gespannt wenn der neue Treiber kommt, ob die 7800GTX dann noch immer 25% besser ist als ne 6800Ultra, hahahahaha

Gast
2005-09-04, 18:07:24
Da bin ich aber auf die NEUEN Benchmarks gespannt wenn der neue Treiber kommt, ob die 7800GTX dann noch immer 25% besser ist als ne 6800Ultra, hahahahaha

mit sicherheit,hahahahaha

Gast
2005-09-04, 20:18:58
mit sicherheit,hahahahaha


Die Gtx ist schneller als 6800ultra sli

MikBach
2005-09-04, 20:22:35
Die Gtx ist schneller als 6800ultra sli
Leute, wir möchten hier kein Gebashe sehen, also tobt euch auf einem anderen Spielplatz aus...BITTE
Oder haben wir auch handfeste Argumente?

BodyLove
2005-09-04, 20:24:49
Die Gtx ist schneller als 6800ultra sli

Was man so pauschal auch nicht sagen kann...