Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: HighEnd-Chip G70: Nur noch mit flimmernder Grafik?
derominöseGast
2005-08-28, 23:41:29
ich hab mal aktive schadensbegrenzung für mich betrieben und stelle jetzt im rivatuner einfach mipmap lod bias auf +0.3 damit ist das flimmern fast gänzlich verschwunden... natürlich fehlt danach etwas schärfe aber auf ATI niveau ist die schärfe schon noch.
hey das hilft tatsächlich gewaltig!!! 0.3+ ist aber eher zuviel 0.1+ ist bei mir für fable the lost capters ein RIESEN unterschied! :smile:
kann das einer erklären? kenne mich da nicht aus...
Mr. Lolman
2005-08-29, 00:06:59
hey das hilft tatsächlich gewaltig!!! 0.3+ ist aber eher zuviel 0.1+ ist bei mir für fable the lost capters ein RIESEN unterschied! :smile:
kann das einer erklären? kenne mich da nicht aus...
Ganz einfach: Mit 'korrektem' AF wird bei negativem LOD unterfiltert, bei Positivem überfiltert. Wenn nun bei LOD 0.0 schon unterfiltert wird -> positives LOD einstellen.
Nachteil: Grafik wird (leicht) unschärfer ;)
MadManniMan
2005-08-29, 00:29:58
Um mal wieder was Konstruktives zu bringen: Sorry ;( (http://www.thirdframestudios.com/adgame/stripgen/view.php?id=28765)
Kann jemand mal ATi in den Arsch treten ?? Mag kein geflimmere mehr haben :( Jedesmal wenn ich bei meinem Kumpel San Andreas zocke oder HL² oder was auch immer .. dann muss ich vor Neid erblassen. Dabei handelt es sich doch nur um eine x800xtpe mit dem alten SM 2.0 .... wie wertlos doch SM 3.0 und sonstige Technik sein kann wenn die Texturen flimmern :D
Grestorn
2005-08-29, 07:34:18
Bräuchte ich mehr Leistung, würde ich ganz klar die 850 XT anstelle eine 7800 GTX nehmen, weil die nicht so flimmert und kaum langsamer als die G70 auf HQ ist.Die X850 flimmert um ein Vielfaches mehr als eine 7800GTX.
Warum? Weil es keine Möglichkeit gibt, AT-Flimmern zu beseitigen, weder mit SS noch mit Transp. SS.
Und AT-Flimmern ist soooo viel schlimmer, als das AF-Flimmern der GTX, da gibt es gar kein vertuen.
An denjenigen, der in Gothic kein AT-Flimmern sieht (sorry, vergessen wer es war): Schau mal in die Äste von Bäumen. Am aller aller schlimmsten ist das in der Wüste von Gothic 2: NdR. Da flimmern die ganzen Sträucher am Boden derart stark, dass es kaum auszuhalten ist.
Grestorn
2005-08-29, 07:36:15
letztes beispiel: US Version von Fable Lost chapters... das flimmert wie die hölle! TSSAA ist gar nicht einsetzbar da es dann probleme mit den schatten etc. gibt :( TSSAA hilft nicht gegen Texturflimmern (nur wenn es Transparente, also Alpha-Test Texturen sind).
Da brauchst Du SS. Und ich denke schon, dass SS in Fable funktioniert (habe es aber noch nicht ausprobiert). Also Auflösung runter und 8xS oder 16xS einstellen!
derominöseGast
2005-08-29, 09:22:48
TSSAA hilft nicht gegen Texturflimmern (nur wenn es Transparente, also Alpha-Test Texturen sind).
Da brauchst Du SS. Und ich denke schon, dass SS in Fable funktioniert (habe es aber noch nicht ausprobiert). Also Auflösung runter und 8xS oder 16xS einstellen!
zusammen mit dem 78.11 treiber geht transparentes SS nicht bzw. es geht aber es gibt dann bildfehler (Schwarze flächen in den Alpatexturen die immer kurz aufblinken etc.)
wie gesagt im rivatuner lod mipmap bias auf +0.1 und gut ist... sieht nachwievor sehr scharf aus (0.3+ ist zuviel imo) und so gut wie kein flimmern mehr, gute schärfe... sieht dann ATI like aus.
das besondere bei fable sind eben die schatten der bäume die überall im wald etc. sind... sind alphatexuren und die flimmern natürlich weiter. aber wenn man lod bias nicht anpasst flimmert fable überall derb.
ich spiele nun mit 1600x1200@85hz mit 4fach trans. multisampling AA, 16AF auf HQ.... wunderschönes spiel! :smile:
8s oder gar 16s werde ich nie nutzen. mir ist die auflösung das wichtigste überhaupt an der grafik und auf einem 21" sieht alles unter 1600 ob mit oder ohne supersamling scheisse aus imo.
Mr. Lolman
2005-08-29, 09:23:44
TSSAA hilft nicht gegen Texturflimmern (nur wenn es Transparente, also Alpha-Test Texturen sind).
Da brauchst Du SS. Und ich denke schon, dass SS in Fable funktioniert (habe es aber noch nicht ausprobiert). Also Auflösung runter und 8xS oder 16xS einstellen!
Was kommandierst du hier so rum? Auflösung runter X-D
Vll. hat der Jong kein Bock die Auflösung runter zu setzen, wenn er sich gerade um 500€ ne Grafikkatre geleistet hat.
Mr. Lolman
2005-08-29, 09:24:47
Die X850 flimmert um ein Vielfaches mehr als eine 7800GTX.
Warum? Weil es keine Möglichkeit gibt, AT-Flimmern zu beseitigen, weder mit SS noch mit Transp. SS.
Und AT-Flimmern ist soooo viel schlimmer, als das AF-Flimmern der GTX, da gibt es gar kein vertuen.
An denjenigen, der in Gothic kein AT-Flimmern sieht (sorry, vergessen wer es war): Schau mal in die Äste von Bäumen. Am aller aller schlimmsten ist das in der Wüste von Gothic 2: NdR. Da flimmern die ganzen Sträucher am Boden derart stark, dass es kaum auszuhalten ist.
Stimmt nicht: http://www.humus.ca/index.php?page=Cool
Da brauchst Du SS. Und ich denke schon, dass SS in Fable funktioniert (habe es aber noch nicht ausprobiert). Also Auflösung runter und 8xS oder 16xS einstellen!Gut, dass es wenigstens eine möglichkeit gibt ... Aber währe es dir nicht auch lieber, wenn es auch ohne OGSS gehen würde? Aber das hast du ja eh gesagt. Ich will damit nur verdeutlichen, dass es auch dir extrem störend wirken muss. Schließlich will nicht jeder die Auflösung runterstellen :D. Also wieso noch streiten? Einfach gegen die Firmen werkeln, damit was passiert :biggrin:
derominöseGast
2005-08-29, 09:33:29
Stimmt nicht: http://www.humus.ca/index.php?page=Cool
alpha to coverage? lässt sich auf einer X850 einsetzten mit wenig performanceverlust? wär ja geil...
Mr. Lolman
2005-08-29, 09:41:40
alpha to coverage? lässt sich auf einer X850 einsetzten mit wenig performanceverlust? wär ja geil...
Naja ganz so geil isses nicht. Denn zumindest bei MohAA (wo ichs auf ner 9500@p ausprobiert gibts bei den Bäumen Dithering. Aber es soll angeblich nicht in jedem Spiel auftreten und außerdem kann man dem ja, bis zu einem gewissen Grad, mit ner höheren Auflösung entgegensteuern...
Grestorn
2005-08-29, 09:53:44
Was kommandierst du hier so rum? Auflösung runter X-D
Vll. hat der Jong kein Bock die Auflösung runter zu setzen, wenn er sich gerade um 500€ ne Grafikkatre geleistet hat.
Mein Gott, so war das nicht gemeint. Das war ein Tipp, kein Befehl.
Kann es sein, dass Du inzwischen übermäßig empfindlich auf mich reagierst?! :)
Grestorn
2005-08-29, 09:55:35
Stimmt nicht: http://www.humus.ca/index.php?page=Cool
Was soll das? Ich weiß durchaus um Humus Demos, und ich weiß auch, dass man mit Demirugs Tool SS auf einer ATI erreichen kann.
Und?
Grestorn
2005-08-29, 10:00:47
Gut, dass es wenigstens eine möglichkeit gibt ... Aber währe es dir nicht auch lieber, wenn es auch ohne OGSS gehen würde? Aber das hast du ja eh gesagt. Ich will damit nur verdeutlichen, dass es auch dir extrem störend wirken muss. Schließlich will nicht jeder die Auflösung runterstellen :D. Also wieso noch streiten? Einfach gegen die Firmen werkeln, damit was passiert :biggrin:
Ich wollte nur sagen, dass ich flimmerfreie Grafik einer höhen Auflösung vorziehe.
Wenn es nur ein AF-Flimmern gibt, würde ich erst versuchen, den LOD BIAS anzupassen. Das ist kostenlos...
TSSAA oder SS macht nur Sinn, wenn die Texturen grundsätzlich flimmern auf Grund ihrer Struktur, oder wenn man Shader-Aliasing hat.
Was will ich gegen die Firmen werkeln? Ich übe Einfluss über meinen Geldbeutel aus. Wenn sich nVidia aus der gegenwärtigen Misere nicht gut herauswindet und ATI dauerhafte Vorteile hat, dann bekommt nVidia kein Geld mehr von mir. So einfach ist das.
Für eine breitere Wirkung sind Journalisten zuständig, nicht der einzelne Kunde. Und deswegen sind die aths dieser Welt wichtig. Aber ich sehe nicht ein, dass ich nur weil es opportun ist, auf etwas verzichten soll, was ich sehr schätze. Und ich schätze meine 7800GTX weiterhin sehr, wenn ich sie auch ohne dieses Flimmern noch mehr schätzen würde.
Ich wollte nur sagen, dass ich flimmerfreie Grafik einer höhen Auflösung vorziehe.Das glaub ich gerne, so geht es mir auch, aber währe es nicht schöner, wenn es auch mit höherer Auflösung ginge? Wenn du in Zukunft keine Flimmer-Karten mehr kauftst, ist zwar der erste Schritt getan, aber wir müssten noch eine weitere Genertion warten, bis die Hersteller reagieren ;)
Was will ich gegen die Firmen werkeln?Das mit dem Flimmern auch jeden DAU erzählen, den du kennst, damit er sich keine Flimmer-Karte kauft, und nicht das Flimmern verharmlosen (Was ich jetzt nicht unterstelle) :D
Dann natürlich versuchen zu erreichen, dass User nicht mehr nur auf "Balkenlänge" achten :)
Quasar
2005-08-29, 10:08:57
Kann sein, dass ich u.U. ne schon existente Kritik zu dem Machwerk übersehen habe, nichtsdestotrotz will ich mich auch mal in 25 Punkten darüber auslassen:
Der Computerbase Artikel ist Mist. Sry. Es scheint so, als hätte sich Computerbase einfach den Schreieren der Community gebeugt, und mal schnell nen Artikel darüber verfasst. Meine Kritikpunkte:
1. Warum braucht man unbedingt 2x ganz groß das GF7 Logo? Vertrag mit NV?
2. Der Artikel erschien vor einigen Wochen, nicht vor einigen Tagen:
3. Blaire gebührt zwar das ganze Lob durchaus (mehrmals im Artikel muss man auf nen User verweisen, der sich einfach die Arbeit gemacht hat die Grafikqualität genauer zu untersuchen). Seine Arbeit wär wohl nicht ohne die 3DC-Community möglich gewesen, und imo ists fast ein Armutszeugnis, die (zweifellos gute und notwendige) Arbeit von Blaire so hochzubauschen, weil der Gute eigentlich nix gemacht hat, was jedem sogenannten HW Redakteur nicht auch hätte einfallen können.
4. Imo hätte man ruhig schreiben können, dass der R200 technologisch fortschrittlicher war als der NV25:
5. Auch bei der FX wurde zumindest bei UT so gefiltert wies NV passt. Also nix mit generell abschaltbaren Optimierungen. Demnach ist:"die man aber immerhin in den neueren Treibern größtenteils wieder deaktivieren konnte" richtiger:
6. ATi wird anscheinend nur als Beispiel rangezogen wenn man einen Buhman braucht:
Denn: MSAA ist streng genommen auch ein AA Cheat, der zu Gunsten der Performance weniger glättet. Da war NV Vorreiter...
7. Eine weitere falsche Aussage bezüglich der generellen Deaktivierbarkeit der NV Optimierungen:
BTW:Absetzen konnte man sich sicher nicht. Schaut euch die Videos nochmal genau an. Absetzen kann sich ATi default von NV default. Außerdem ist der Clampschalter nur eine Option negativen LOD Bias unter d3d zu unterbinden. Wenn Devs der Meinung sind, sie brauchen einen negativen LOD Bias, dann soll man ihnen diesen auch gönnen. UT Texturen sind so unscharf, dass ein leicht negatives LOD nix ausmachen sollte. Was aber wohl was ausmacht, ist dass man den GPu LOad verändert, wenn man mit Clamp bencht. Demnach hoff ich, dass zumindest Clamp bei den CB benches immer deaktiviert war.
8.
NV HQ AF ist, wenn überhaupt, gerade minimalst besser als R420 AF. Treiberdefault ist jedoch meistens Q + alle Opts , was CB bisher auch immer, unter völliger Ignoranz von NVs (ohnhin schon fragwürdigen) Reviewerguides auch zum Benchen verwendet hat. Sobald ich die Möglichkeit hab ne Radeon 8500 in meinem Rechner einzubauen, beweise ich euch, dass zumindest in jedem OpenGL Spiel ATis achsomieses R200 biAF eine bessere BQ bietet als NV40 Q+Opts.
9.
Der Satz ist syntaktisch völlig unlogisch. Erst nach mehreren Beschwerden haben die Kollegen herausgefunden, dass das AF massiv flimmert? Ja wo haben denn die ganzen Reviewer bisher hingeguckt? Klar, dass es nicht einfach ist Verfehlungen der Vergangenheit zuzugeben, ohne dass man sich dabei ins eigene Knie schiesst, aber solche Sätze verarschen den Leser.
10.
Falsch: Das ist nur die Standardeinstellung, sofern man AA/AF über die App wählt, oder mittels externem Tool. Sobald man mal das CP bemüht, sind ALLE Optimierungen aktiv.
11.
Jeder, der nicht, auf gut österreichisch, auf der Nudelsuppe dahergeschwommen ist, sollte diesen Zustand nachvollziehen können. Und am Verständnis sollts auch nicht mangeln. Die IHVs wollen unser Geld und das bekommen sie am ehesten durch lange Balken. Was ist da nicht verständlich? Tolerabel oder gar akzeptabel ist er jedoch sicher nicht.
12.
Diesen Umstand würd ich eher der GF4 zuschreiben, aber ok...
13. Der größte Schwachfug überhaupt:
Denn: Man bietet schon seit der FX einen schlechteres AF an. Man wird mit dem G70 erstmal zu einem schlechteren AF gezwungen. Außerdem, ich wiederhole mich, bieten die NV Karten in euren Testreihen seit >1 Jahr ein schlechteres AF als ATI Karten.
Wieso verarscht ihr euere Leser so, denn zufällig enstehen solche Formulierungen wohl kaum.
14. Das ist nicht erst eine Folge des G70, sondern die Folge einer generell NV freundlichen Benchtaktik von CB (und von fast allen anderen). Denn bei Defaultquality ist der Unterschied zw. R420 AF und NV40 AF auch unter d3d größer, als der von NV40 default vgl. mit G70 AF default (bei OpenGL sowieso)
15. Ist zwar korrekt, aber für den Laien unverständlich. Eine kleine Erklärung wär besser gewesen, als ein weiteres mal die Faktenkeule zu schwingen.
16. Ist zwar auch korrekt, aber auch da wär ne kleine Ausführung angebracht gewesen. Warum ists eher ein Leichtes Grieseln? Warum finden viele gerade FEAR so untragbar? Hängt vll. mit der nutzbaren Auflösung und den fps zusammen ;)
17. Dann macht doch selbst Videos. Ihr hättet auch Links zu den mittlerweile fast unzähligen AF Clips im Forum anbieten können. Oder gleich zum generellen "default AF Problem" was ich mit Q3a Videos (und gifs) schon anschaulich illustriert hab.
18.
Ein (gewollter) HW Bug. :biggrin:
Echt süß wie ihr NV mit Samthandschuhen anfasst. Vll. Naja, war wahrscheinlich nur ein gewollter Redaktionsbug, damit der NV Osterhase auch das nächste Mal noch Testmaterial ins Körbchen legt.
19.
Heiss ich Ralf? Euch sind wohl die ausführlichen PN Diskussionen zw. mir und Blaire entgangen. BTW: Dieser nette Kollege heisst Blaire. Ich glaub gerne dass Demi da mit geholfen hat, aber warum versucht man diese Investigationsarbeit immer auf 2-3 Leute zu reduzieren. Imo ists einem großen Teil der 3DCenter Community zu verdanken, dass die Filterproblematik überhaupt zum öffentlichen Thema wurde...
20.
Dieser Satz zeigt entweder dass der Redakteur keine Ahnung hat, oder dass er sine Leser bewusst für blöd verkaufen will. Es gibt praktisch kaum Spiele die mehr und weniger zum Flimmern neigen. Das sind immer einzelne Texturen. Demnach gilt der Satz allerhöchstens für Spiele wo man generell völlig unkritische, also relativ unscharfe, Texturen verwendet. Solche Spiele sind wohl eher die Ausnahmen. Man denke an den CB Artikel wo man ne Szene mit ner relativ unscharfen HL² Strassentextur heranzog um zu zeigen , dass die NV Optimierungen garnicht so schlimm sind :crazy:
21. Warum habt ihr nicht ein Video von der selben Stelle mit 77.77 genommen. So ein Video exisitiert definitiv. Warum wird dieses grauenhafte Ding euren Lesern vorenthalten? Das Ganze erinnert mich schon stark an Bild Journalismus.
22. Macht euch doch gleich ein paar Autoaufkleber mit dem Satz. 3x wiederholt ihr das jetzt, und der Leser weiss noch immer nicht worans liegt. :hammer:
23. Absolut unnötig an dieser Stelle auf den Doom Texturen herumzuhacken. Seid doch froh, dass es wenigstens ein paar Spiele mit relativ unscharfen Texturen gibt. Sonst käme man ja aus dem Grauen garnichtmehr hinaus ;) BTW: Schreibt lieber Direct3D, denn DirectX nutzt D³ afaik schon.
24.
Der Schlusssatz ergibt nur einen Sinn, wenn man auch weiss, das der gute Jens in dem Statement auch verlautbart hat, dass NV das Problem eruieren konnte,... Diese Aussage habt ihr aber weggelassen. Somit wirkt das ganze diesmal wirklich wie ein Schuss ins eigene Knie, denn primär hätte euch der Mist auffallen müssen. NV hat anscheinend ausreichende Arbeit geleistet. Denn sie mussten den Filterpfusch nichtmals besonders gut verstecken :)
25. Und zum Schluss noch pseudoaufklärerisches Gesülze: Der Kunde hat mal primär wegen euren Benchmarks zu leiden. Und die waren schon beim NV40 hässlich falsch.
Sry für den Vergleich, aber das kommt so rüber wie wenn Bush sagen würde: "Zudem möchten wir jedes Land und dessen Einwohner bitten, in der Zukunft ein größeres Augenmerk darauf zu legen obs wirklich Massenvernichtungswaffen gibt. Ansonsten wird es, den Entwicklungen nach zu folgen, in ein paar Jahren nur solch fadenscheinige Vorwände für Angriffskriege geben... X-D
kthxsry ;(
Lolman
Meckern kannst du gut - wie wäre es mit "besser machen"? Ich meine, mich betrifft es zwar nicht persönlich, aber deine Unterstellungen, und solche sind es teilweise, würden mich im anderen Falle schon an deinen Motiven zweifeln lassen. =)
Zumal deine Punkte teilweise schlicht und ergreifend falsch sind. Da musst du wohl nochmal nachlesen.
Grestorn
2005-08-29, 10:12:48
Das glaub ich gerne, so geht es mir auch, aber währe es nicht schöner, wenn es auch mit höherer Auflösung ginge? Wenn du in Zukunft keine Flimmer-Karten mehr kauftst, ist zwar der erste Schritt getan, aber wir müssten noch eine weitere Genertion warten, bis die Hersteller reagieren ;)
Wie oft muss ich sagen, dass ich die Karte gekauft habe, bevor das Problem bekannt war?
Wie oft muss ich sagen, dass die Karte Vorteile hat, die diesen Nachteil mehr als aufwiegen?
Wieso müssen wir G70 Besitzer uns eigentlich verteidigen, dass wir eine HW gekauft haben, und damit größtenteils zufrieden und momentan keine bessere Alternative sehen? Mit welchem Recht kritisierst Du und andere mein Kaufverhalten?
Das kann ich auch:
Ich verabscheue realistische Kriegssimulationen aufs tiefste. Ich finde sie menschenverachtend. Sie verharmlosen tatsächliche Geschehnisse und entehren Menschen, die diese Hölle tatsächlich erlebten, dabei insbesondere auch die, die sie nicht überlebten.
Jeder, der solche Spiele kauft, unterstützt die entsprechenden Hersteller. Nach Eurer Logik müsste ich nun alle Käufer dieser Spiele veruteilen. Mache ich aber nicht. Fragt Euch mal warum.
Mr. Lolman
2005-08-29, 10:13:08
Kann es sein, dass Du inzwischen übermäßig empfindlich auf mich reagierst?! :)
Kann sein. Ich versuchs wieder abzustellen :)
Was soll das? Ich weiß durchaus um Humus Demos, und ich weiß auch, dass man mit Demirugs Tool SS auf einer ATI erreichen kann.
Und?
Mit diesem Wissen hätt ich an deiner Stelle die Aussagen zum unvermeidbaren Alphatestflimmern etwas anders formuliert.
Grestorn
2005-08-29, 10:14:49
Mit diesem Wissen hätt ich an deiner Stelle die Aussagen zum unvermeidbaren Alphatestflimmern etwas anders formuliert.Ok, beim nächsten Mal werde ich schreiben, "für den normalanwender unvermeidbaren AT-Flimmern", ok? ;)
Der "nicht normale" GTX Anwender kann schließlich auch (viel einfacher sogar) was gegen deren AF-Flimmern machen...
Mr. Lolman
2005-08-29, 10:15:20
Zumal deine Punkte teilweise schlicht und ergreifend falsch sind. Da musst du wohl nochmal nachlesen.
Kannst du das etwas konkretisieren? Meinetwegen auch per PN.
Wie oft muss ich sagen, dass ich die Karte gekauft habe, bevor das Problem bekannt war?Das hab ich auch nie geleugnet, lies einfach meinen Beitrag fertig.(Nach Edit) Wie oft muss ich sagen, dass die Karte Vorteile hat, die diesen Nachteil mehr als aufwiegen?Das mag für dich stimmen, das bezweifle ich nicht. Aber andererseits ist es nicht fair von Nvidia, solche groben Bugs entweder nicht zu berücksichtigen usw(Wie Aths schon genannt). Außerdem sollte man den DAU auf BQ als wichtigen Kaufgrund hinweisen, denn für anderer ist dies durchaus viel wichtiger als Leistung ;)
Grestorn
2005-08-29, 10:18:56
Das mit dem Flimmern auch jeden DAU erzählen, den du kennst, damit er sich keine Flimmer-Karte kauft, und nicht das Flimmern verharmlosen (Was ich jetzt nicht unterstelle) :D
Dann natürlich versuchen zu erreichen, dass User nicht mehr nur auf "Balkenlänge" achten :)
Deinen Edit habe ich zu spät gesehen...
Also, ja, ich kläre jeden, den ich kenne und der sich ne G70 kaufen will, über deren Nachteile auf. So groß ist diese Gruppe (außerhalb des Forums) aber nicht... Bisher trifft sie auf genau eine Person zu (die sich eine 7800GT gekauft hat und die explizit kein Problem mit dem Flimmern hat und der die Vorteile in Linux viel wichtiger waren).
Dass die potentiellen User nicht mehr nur auf Balkenlänge achten ist Aufgabe der Presse, nicht der Käufer.
Dass die potentiellen User nicht mehr nur auf Balkenlänge achten ist Aufgabe der Presse, nicht der Käufer.Naja, das denke ich nicht. Eine Objektivere Behandlung der Features (Wozu ich BQ zähle), würde uns
sehr viel weiterhelfen, dann hätten wir bald keine Optimierungen mehr. Natürlich können wir und auch verstärkt an PCGH etc. wenden und versuchen, eine Änderung im Testsystem zu erreichen, was aber sicherlich nicht gerade eine leichte Aufgabe ist, denn so manche Tester haben schon fast DAU-Level... ;D
Knötchen
2005-08-29, 11:03:19
Habe mir mal einige der auf 3DC verlinkten GTX Reviews angeschaut und was ich wirklich erstaunlich finde ist, dass wirklich niemand ein Sterbenswörtchen über das Texturflimmern verliert. Da wird über die Core Temp und unterschiedliche Kühllösungen philosophiert, natürlich werden dicke fps-Balken präsentiert (meist nur mit der Angabe der Treiberversion, nicht aber ob das grottige Q oder das halbgrottige HQ zum Einsatz kam, sicher also Defaultwerte) und der Chip und dessen wahnsinnig hohe "Performance" werden in den Himmel gelobt.
Ich verstehe das nicht. So langsam sollten doch auch die hinterm Mond mitbekommen haben wie kaputtoptimiert das AF ist. *kopfschüttel* :frown:
Einfach mal der Redaktion schreiben :)
THG: Impressum & Kontakt (http://www.tomshardware.de/site/impressum.html)
Gamestar: Kontakt (http://www.gamestar.de/service/kontakt/) und Impressum (http://www.gamestar.de/service/impressum/)
Chip: Kontakt und Impressum (http://www.chip.de/c1_impressum/c1_impressum_13396280.html)
Heise: Kontakt (http://www.heise.de/kontakt/)
Hardwareluxx: Kontakt und Impressum (http://www.hardwareluxx.de/cgi-bin/ubb/ultimatebb.cgi?ubb=get_topic&f=16&t=000001)
Computerbild: Kontakt (http://www.computerbild.de/2004/index.htm) und Impressum (http://www.computerbild.de/2004/index.htm)
PCG: Kontakt (http://www.pcgames.de/?menu=0804) und Impressum (http://www.pcgames.de/?menu=0805)
Die könnt ihr gerne auch mit Mails bombardieren :)
Hab ich was wichtiges vergessen?
Quasar
2005-08-29, 12:31:42
Kannst du das etwas konkretisieren? Meinetwegen auch per PN.
Punkt 8 und 25 zum Beispiel. Zu etlichen anderen würde mir auch noch einiges einfallen, wenn ich als Autor des Artikel Ziel deiner, ich nenne es mal "Anwandlungen" gewesen wäre.
Wie schon gesagt, wenn du so viele gute Ideen hast - bewirb dich doch mal bei ein paar Webseiten oder Magazinen und stelle deine Qualitäten der Allgemeinheit zur Verfügung.
Ich wollte nur sagen, dass ich flimmerfreie Grafik einer höhen Auflösung vorziehe.
Wenn es nur ein AF-Flimmern gibt, würde ich erst versuchen, den LOD BIAS anzupassen. Das ist kostenlos...Es kostet Texturschärfe. Vernünftige Texturen flimmern nicht, wenn vernünftiges AF zum Einsatz kommt. Hat man keine vernünftigen Texturen gilt es, den Spiel-Entwickler anzuprangern. Hat man kein vernünftiges AF gilt es, den Grafikchip-Entwickler anzuprangern.
Vernünftige 3D-Grafik kommt ganz ohne Supersampling aus.Für eine breitere Wirkung sind Journalisten zuständig, nicht der einzelne Kunde. Und deswegen sind die aths dieser Welt wichtig. Aber ich sehe nicht ein, dass ich nur weil es opportun ist, auf etwas verzichten soll, was ich sehr schätze. Und ich schätze meine 7800GTX weiterhin sehr, wenn ich sie auch ohne dieses Flimmern noch mehr schätzen würde.Wenn du als G70-Käufer den G70 sehr schätzt, und fast alle G70-Käufer so denken, welchen Grund hätte NV dann, was am G70 zu verbessern? Damit du ihn noch mehr schätzt? NV reicht es doch, wenn du den G70 gerade mal so stark schätzt, dass du ihn kaufst.
Wie oft muss ich sagen, dass ich die Karte gekauft habe, bevor das Problem bekannt war?
Wie oft muss ich sagen, dass die Karte Vorteile hat, die diesen Nachteil mehr als aufwiegen?
Wieso müssen wir G70 Besitzer uns eigentlich verteidigen, dass wir eine HW gekauft haben, und damit größtenteils zufrieden und momentan keine bessere Alternative sehen? Mit welchem Recht kritisierst Du und andere mein Kaufverhalten?Nimmt man deine Aussagen ernst, hat NV gar nichts zu tun, da der G70 auch so ein klasse Chip ist, der beste sogar den es zu kaufen gibt. Na dann, immer ran an den Speck und lass es doch flimmern – wir haben ja OGSSAA, um das (wenn auch irre ineffizient) einigermaßen in den Griff zu kriegen. Würdest du sagen: "Naja, den G70 tausche ich jetzt nicht mehr um, sondern ich behalte ihn, aber hätte ich das vorher gewusst hätte ich die Karte nicht gekauft" wäre es was anderes. Leider lobst du die (tatsächlich vorhandenen) positiven Seiten des G70 derart, dass der AF-Skandal im Vergleich unwesentlich erscheint. Bei unwesentlichen Dingen wäre es aber lächerlich, auf einer Änderung zu bestehen.
Das Verteidigen und loben deiner Anschaffung steht im Vordergrund. Wäre dir das Problem mit dem AF wirklich wichtig, bzw. würdest du es als wirklich schlimm betrachten, würdest du deinen G70 bewusst behalten – für Vergleichsshots und Videos, um die schlechte AF-Qualität zu zeigen. Offenbar ist das AF-Problem für dich nur gering (siehe auch die Winkelabhängigkeit seit dem NV40.) Das kann ich akzeptieren (muss ich ja, da mir nichts anderes übrig bleibt) – aber sag das doch auch so!
Ich hab im Laptop ne ATI und kann damit auch leben. Bei Highend erwarte ich bezüglich AF allerdings deutlich besseres als das was die ATI hier im Laptop bringt.
Dass die potentiellen User nicht mehr nur auf Balkenlänge achten ist Aufgabe der Presse, nicht der Käufer.Klar, die anderen müssen was tun. Du musst nur spielen und die Vorzüge deiner neuen Grafikkarte anpreisen.
Die Aufgabe der Presse ist es, als verlängerter Arm vom Marketing zu agieren. Nur wenige Redakteure können es sich leisten, eigene kommerzielle Interessen zurückzustellen und versuchen, ihre eigene Meinung über das Wohlverhalten des Herstellers zu stellen.
Grestorn
2005-08-29, 13:51:06
NV reicht es doch, wenn du den G70 gerade mal so stark schätzt, dass du ihn kaufst.Die Frage ist, ob es nV immer noch reicht, wenn ein Konkurrent da ist, der ein vergleichbares oder besseres Produkt ohne diesen Mangel hat, und die G70 deswegen nicht mehr gekauft wird.
Wenn Du der einzige Auto-Hersteller mit ABS bist, dann kann es Dir fast egal sein, ob Dein Auto etwas weniger Platz als andere bietet. Haben alle Autos ABS sieht die Sache aber anders aus.
derominöseGast
2005-08-29, 14:02:31
hier mal so ein typischer eindruck aus dem gspb (o8/15user en masse inkl. DAU's): http://forum.gamestar.de/gspinboard/showthread.php?p=3197450#post3197450
das wird nix... das kümmert irgendwie den otto normal user überhaupt nicht...
@aths: ja mit dem G70 kann man mehr als gut leben, ich machs (noch) und die anderen G70 user auch. die karte ist sehr gut auch mit dem AF Problem (das ich mittlerweile auch ohne neue treiber im griff habe bis auf HL2)!
Es geht doch darum das es eine Tendenz ist, die wir stoppen wollen! Ich will nicht die GTX stoppen! Es gibt keine vergleichbare Karte, keine Alternative! Die GTX hat ihre berechtigung in tausenden von rechner ihren platz einzunehmen... af hin oder her. es ist ein treiberproblem von Nvidia und nicht ein hardwareproblem der GTX.
Solange ATI nichts vergleichbares mit besserer IQ hat das man KAUFEN kann können wir maulen soviel wir wollen... es ist die beste karte auch wenn sie nicht perfekt ist.
Ich hoffe ATI erkennt die Zeichen... setzt beim R520 nicht auf den Speed (den er ja anscheinend eh nicht haben wird) sondern geht voll mit der Qualtät in den Kampf. Ne bessere Vorlage zum ausnutzen hätte Nvidia nicht bieten können....
Mr. Lolman
2005-08-29, 14:04:17
Wie schon gesagt, wenn du so viele gute Ideen hast - bewirb dich doch mal bei ein paar Webseiten oder Magazinen und stelle deine Qualitäten der Allgemeinheit zur Verfügung.
Reizen würde mich eh nur 3DCenter (denn da kann ich mich noch am ehesten mit der Zielgruppe identifizieren) - und fürs 3DCenter ist ein Artikel mit der 3dfx Voodoo5 6000 in Planung.
Zu Punkt 8: Bist du dir da ganz sicher, dass sich die 2. Optimierung nicht auch noch dazugeschlichen hat? Denn neuere Treiber (77.76) aktivieren die automatisch, sobald man übers CP AA/AF einstellt und alles andere auf default lässt...
Punkt 25: Was stimmt daran nicht?
sloth9
2005-08-29, 14:07:47
Die Frage ist, ob es nV immer noch reicht, wenn ein Konkurrent da ist, der ein vergleichbares oder besseres Produkt ohne diesen Mangel hat, und die G70 deswegen nicht mehr gekauft wird.
Wenn Du der einzige Auto-Hersteller mit ABS bist, dann kann es Dir fast egal sein, ob Dein Auto etwas weniger Platz als andere bietet. Haben alle Autos ABS sieht die Sache aber anders aus.
Nur leider sieht ATI ja, wie erfolgreich der G70 ist und das kaum ein Reviewer sich für das Flimmer interessiert, ergo wird ATI auch bei der Qualltät nachbessern, das lehrt uns die Vergangenheit...
Grestorn
2005-08-29, 14:07:51
Nimmt man deine Aussagen ernst, hat NV gar nichts zu tun, da der G70 auch so ein klasse Chip ist, der beste sogar den es zu kaufen gibt. Wenn die Konkurrenz pennt und kein adäquates Produkt auf den Markt bringen kann, dann hast Du damit recht.
So ist es aber dankenswerter Weise nicht.
Würdest du sagen: "Naja, den G70 tausche ich jetzt nicht mehr um, sondern ich behalte ihn, aber hätte ich das vorher gewusst hätte ich die Karte nicht gekauft" wäre es was anderes. Nun, ich hatte die Wahl bei der 6800GT zu bleiben, eine X850Pro zu kaufen oder eine 7800GTX zu kaufen (lassen wir das Geld mal außen vor).
Selbst wenn mir der Mangel bekannt ist... wirst Du sicher verstehen, dass die X850Pro kein Thema ist. Einfach zu viele Nachteile. Also bleibt nur die 6800GT zu behalten und auf eine gelungene Antwort von ATI zu hoffen. Das bedeutet aber auch auf TSAA und die zusätzliche Power zu verzichten.
Oder eben ein Flimmern in Kauf nehmen (das in den Spielen, die ich spiele schlicht kein Thema ist) und schlimmstensfalls mit leichter Unschärfe (LOD BIAS) oder heftigem Leistungsverlust (SSAA) zu beheben.
Also, auch heute würde meine Entscheidung eindeutig ausfallen.
Leider lobst du die (tatsächlich vorhandenen) positiven Seiten des G70 derart, dass der AF-Skandal im Vergleich unwesentlich erscheint. Bei unwesentlichen Dingen wäre es aber lächerlich, auf einer Änderung zu bestehen.Wenn die positiven Seiten bei der Entscheidungsfindung egalisiert werden, da sie von der Konkurrenz ebenfalls angeboten oder durch andere Vorteile übertroffen werden, dann wird die AF-Schwäche relevant. Ein Skandal ist die AF-Schwäche, weil sie dem Anwender untergejubelt wurde. nV hat deswegen auch Prestige-Verlust hinnehmen müssen (einen heftigen wenn Absicht dahintersteckt und angenommen werden muss, einen geringeren wenn es sich offensichtlich um eine Schlamperei handelt). Aber die AF-Schwäche macht die 7800GTX halt nicht zu einem unbrauchbaren Produkt, so wie Du es immer gerne hinstellst.
Das Verteidigen und loben deiner Anschaffung steht im Vordergrund.Nein! Denn dann hätte ich damals auch die x800Pro ewig verteidigen und loben müssen. Das bessere ist aber der Feind des guten. Es geht mir niemals um eine Verteidigung meiner Investition. Da steh ich drüber. Wenn es was besseres gibt, fliegt das alte raus (wenn ich's mir leisten kann).
Wäre dir das Problem mit dem AF wirklich wichtig, bzw. würdest du es als wirklich schlimm betrachten, würdest du deinen G70 bewusst behalten – für Vergleichsshots und Videos, um die schlechte AF-Qualität zu zeigen. Offenbar ist das AF-Problem für dich nur gering (siehe auch die Winkelabhängigkeit seit dem NV40.) Das kann ich akzeptieren (muss ich ja, da mir nichts anderes übrig bleibt) – aber sag das doch auch so!Richtig, das AF-Problem zählt für mich vergleichsweise gering. Ich habe nie etwas anderes behauptet. Nicht weil ich das Flimmern - wenn es denn auftritt - akzeptieren kann oder will sondern weil ich etwas dagegen tun kann, ohne allzuschwere Nachteile (der LOD BIAS ist vergleichsweise geringer Nachteil und wenn die Leistung für SS reicht, krieg ich viel mehr als nur die Beseitigung des AF-Flimmerns).
Mich stört das "Skandal"-Element viel stärker als die Tatsache als solche. Aber bei dem Thema, wieviel Prestige nV deswegen (in meinen Augen) verliert, ist das letzte Wort noch nicht gesprochen. Sie haben eine gute Chance, einiges davon zu retten oder sehr viel zu verspielen.
Grestorn
2005-08-29, 14:15:02
Nur leider sieht ATI ja, wie erfolgreich der G70 ist und das kaum ein Reviewer sich für das Flimmer interessiert, ergo wird ATI auch bei der Qualltät nachbessern, das lehrt uns die Vergangenheit...Ist das dann die Schuld der Kunden (die dann keine Wahl haben) oder die der Reviewer?!
Und wenn der Nachteil von den meisten Kunden nicht wahrgenommen wird und deswegen auch nicht als Nachteil erkannt wird, ist er denn dann auch nicht rein akademischer Natur?
^^^ dafür werde ich garantiert gelyncht! :)
Der Käufer interessiert sich letztlich für die Qualität am Schirm. Auch FPS gehört letztlich zur BQ. Wenn er die nicht in akzeptablem Maße bekommt, wird er unzufrieden sein.
Ein objektives Messen der BQ ist nun mal schwer, und wenn der AF-Skandal für etwas gut ist, dann hoffentlich für ein Umdenken der Reviewer im Netz und in der Presse.
Den Käufer könnt ihr nicht bekehren, ein anderes Produkt zu kaufen, weil es "der wahren Lehre" näher kommt. Den Käufer interessiert nur, was am Ende auf dem Schirm ankommt. Das ist alles, was zählt.
Black-Scorpion
2005-08-29, 14:19:53
Auf die Erklärung was fps mit BQ zu tun hat bin ich mal gespannt. ;)
Auf die Erklärung was fps mit BQ zu tun hat bin ich mal gespannt. ;)
relativ einfach... was nützt die beste BQ wenn sie bei 5fps läuft? wir sind nun im zeitalter von HDTV und immer grösseren TFT's 1920x1200 etc. ist nicht mehr so selten. ich glaube jeder würde ein flimmern den unter 30fps vorziehen... da es mit flimmern spielbar mit ruckeln aber nicht ist. Somit hat fps durchaus mit der BQ zu tun. (vsync, tearing noch nicht mal dazu gerechnet)
Der Käufer interessiert sich letztlich für die Qualität am Schirm. Auch FPS gehört letztlich zur BQ. Wenn er die nicht in akzeptablem Maße bekommt, wird er unzufrieden sein.
Ein objektives Messen der BQ ist nun mal schwer, und wenn der AF-Skandal für etwas gut ist, dann hoffentlich für ein Umdenken der Reviewer im Netz und in der Presse.
Den Käufer könnt ihr nicht bekehren, ein anderes Produkt zu kaufen, weil es "der wahren Lehre" näher kommt. Den Käufer interessiert nur, was am Ende auf dem Schirm ankommt. Das ist alles, was zählt.
Wenn das so weiter geht, dann sieht irgendwann auch ein Blinder, dass da etwas faul ist. Es ist nur eine Frage der Zeit, bis der letzte Tropfen das Fass zum Überlaufen bringt. Und wenn wir 3D-Freaks die Kunden dazu prügeln müssen!
MfG,
Raff
Wenn das so weiter geht, dann sieht irgendwann auch ein Blinder, dass da etwas faul ist. Es ist nur eine Frage der Zeit, bis der letzte Tropfen das Fass zum Überlaufen bringt. Und wenn wir 3D-Freaks die Kunden dazu prügeln müssen!
MfG,
Raff
ach es gibt leute die sehen bei der ps2 auch kein flimmern... die presse muss es richten d.h. die freaks sollten die presse und nicht die user angehen.
Black-Scorpion
2005-08-29, 14:44:50
relativ einfach... was nützt die beste BQ wenn sie bei 5fps läuft?
So einfach ist es eben nicht.
Was bringen die FPS wenn das Bild schlecht ist?
FPS kann ich auch durch die Auflösung beeinflußen.
Wenn die höchste Qualtätseinstellung aber eine schlechte BQ abliefert bringen die höchsten FPS nichts.
Die BQ ist und bleibt schlecht.
Wenn man dann auch noch die Einstellungen runtersetzt wird die Qualität noch schlechter.
Quasar
2005-08-29, 14:45:30
Reizen würde mich eh nur 3DCenter (denn da kann ich mich noch am ehesten mit der Zielgruppe identifizieren) - und fürs 3DCenter ist ein Artikel mit der 3dfx Voodoo5 6000 in Planung.
Zu Punkt 8: Bist du dir da ganz sicher, dass sich die 2. Optimierung nicht auch noch dazugeschlichen hat? Denn neuere Treiber (77.76) aktivieren die automatisch, sobald man übers CP AA/AF einstellt und alles andere auf default lässt...
Punkt 25: Was stimmt daran nicht?
Verzeihung, ich meinte die Punkte 8 und 14 (hoffentlich bin ich nicht schon wieder durcheinander gekommen).
Am Punkt 8 stimmt deine Generalisierung schonmal definitiv nicht (daran kann ich mich richtig gut erinnern). Dies ist ebenfalls Teil der Kritik an Punkt 14 - ewas ist eine "generell NV freundliche Benchtaktik"?
Zudem verwundert mich folgender Punkt: "Heiss ich Ralf? Euch sind wohl die ausführlichen PN Diskussionen zw. mir und Blaire entgangen."
--- wo gerade du u.a. von größtem Schwachfug gesprochen hast. "PN" beinhaltet "privat".... meistens sind die nicht öffentlich einsehbar. Zumindest hoffe ich das von meinen PNs. ;)
ach es gibt leute die sehen bei der ps2 auch kein flimmern... die presse muss es richten d.h. die freaks sollten die presse und nicht die user angehen.
Die Freaks sollten in der Presse sitzen! :naughty:
MfG,
Raff
So einfach ist es eben nicht.
Was bringen die FPS wenn das Bild schlecht ist?
FPS kann ich auch durch die Auflösung beeinflußen.
Wenn die höchste Qualtätseinstellung aber eine schlechte BQ abliefert bringen die höchsten FPS nichts.
Die BQ ist und bleibt schlecht.
Wenn man dann auch noch die Einstellungen runtersetzt wird die Qualität noch schlechter.
ich verstehe das. nur jetzt 5fps mit der BQ der GTX gleichzusetzen (so könnte man das verstehen) ist totaler schwachsinn. die GTX ist wenn man sie voll ausnützt eine hammerkarte die bei HL2 im Aufzug abkackt...
wenn nvidia den Treiber bald liefert der auch diese pfeiloptimierung abschaltet und dabei nicht viel performance verloren geht... tja dann haben wir eine geniale karte vor uns die ATI stressen wird. Nvidia ist eh gewarnt... ich kann mir nicht vorstellen das man es nochmal riskiert einen solchen Rummel zu haben mit der nächsten generation.
Quasar
2005-08-29, 14:52:04
Der Käufer interessiert sich letztlich für die Qualität am Schirm. Auch FPS gehört letztlich zur BQ. Wenn er die nicht in akzeptablem Maße bekommt, wird er unzufrieden sein.
Ich habe gerade gestern uralte GDC-Folien gelesen. U.A. ging es da um Age of Myhtology. Die Entwickler behaupteten dort "bla, performance was not part of compatiblity testing,[...] since end users will put up with an incredibly low performance.". =)
So einfach ist es eben nicht.
Was bringen die FPS wenn das Bild schlecht ist?
FPS kann ich auch durch die Auflösung beeinflußen.
Wenn die höchste Qualtätseinstellung aber eine schlechte BQ abliefert bringen die höchsten FPS nichts.
Die BQ ist und bleibt schlecht.
Wenn man dann auch noch die Einstellungen runtersetzt wird die Qualität noch schlechter.
Du vergißt dabei allerdings, dass das Flimmern bei hohen Auflösungen weitaus weniger wahrnehmbar ist (wobei ich das nicht kleinreden will, das ist und bleibt grottenmässig): Ich spiele auf meinem TFT auf jeden Fall lieber mit 1600*1200 und kann dabei durchaus bei einigen Spielen sogar den Q-Modus mit 4xAA/16xAF und TSSAA benutzten ohne dass es für mich sichtbar flimmert (F.E.A.R. ist so ein Fall). Bei anderen Spielen/Texturen geht das allerdings gewaltig in die Hose und flimmer selbst unter HQ (Source-basierte Spiele, UT2004).
Ich würde dennoch um nichts in der Welt mit einer X850 tauschen wollen bzw. mir die Karte dennoch wieder kaufen, auch wenn mich die Flimmerei stört und ich das behoben haben möchte: Es gibt momentan eben keine Alternative zur GTX7800, was die Leistung betrifft, die ich benötige und die einem TSSAA bietet, was ich nicht mehr missen möchte.
Und nun steinigt mich! ;)
eXodia
2005-08-29, 15:01:35
Die Freaks sollten in der Presse sitzen! :naughty:
MfG,
Raff
Das stimmt. So sollte es eigentlich sein.
GrUß
Grestorn
2005-08-29, 15:04:36
Die Freaks sollten in der Presse sitzen! :naughty:
Na, das kann man auch gründlich falsch verstehen... :eek:
Weinpresse, Buchpresse oder doch eher die Fachpresse?! :wink:
derominöseGast
2005-08-29, 15:09:25
Du vergißt dabei allerdings, dass das Flimmern bei hohen Auflösungen weitaus weniger wahrnehmbar ist (wobei ich das nicht kleinreden will, das ist und bleibt grottenmässig): Ich spiele auf meinem TFT auf jeden Fall lieber mit 1600*1200 und kann dabei durchaus bei einigen Spielen sogar den Q-Modus mit 4xAA/16xAF und TSSAA benutzten ohne dass es für mich sichtbar flimmert (F.E.A.R. ist so ein Fall). Bei anderen Spielen/Texturen geht das allerdings gewaltig in die Hose und flimmer selbst unter HQ (Source-basierte Spiele, UT2004).
Ich würde dennoch um nichts in der Welt mit einer X850 tauschen wollen bzw. mir die Karte dennoch wieder kaufen, auch wenn mich die Flimmerei stört und ich das behoben haben möchte: Es gibt momentan eben keine Alternative zur GTX7800, was die Leistung betrifft, die ich benötige und die einem TSSAA bietet, was ich nicht mehr missen möchte.
Und nun steinigt mich! ;)
mipmap lod bias mal auf +0.1 gestellt? kannst du mit der schärfe leben? ich kanns... habe aber bisher nur CSS Videostresstest und Fable unter die Lupe genommen.
Nö, habe ich noch nicht, aber danke für den Hinweis.
Müsste ich mal versuchen (komme derzeit wg. Arbeit und Wetter nicht so oft zum Zocken). Das geht nur via Rivatuner, richtig?
eXodia
2005-08-29, 15:17:03
Nö, habe ich noch nicht, aber danke für den Hinweis.
Müsste ich mal versuchen (komme derzeit wg. Arbeit und Wetter nicht so oft zum Zocken). Das geht nur via Rivatuner, richtig?
Richtig, also ich machs über RV
GrUß
Grestorn
2005-08-29, 15:18:46
Geht auch über Obi... äh, nHancer :)
derominöseGast
2005-08-29, 15:18:59
Nö, habe ich noch nicht, aber danke für den Hinweis.
Müsste ich mal versuchen (komme derzeit wg. Arbeit und Wetter nicht so oft zum Zocken). Das geht nur via Rivatuner, richtig?
weiss ich nicht, glaube ich nicht. aber mit rivatuner gehts und der war bei mir schon installiert ;-) bei +0.3 ist kein flimmern mehr zu sehen aber ich habe dann wirklich einen unterschied in der schärfe gesehen. bei +0.1 ist das flimmern noch da aber viel weniger und die schärfe ist subjektiv für mich gleich. (manchmal habe ich das gefühl das ich schon so weit bin das ein bild nur scharf sein kann wenn es flimmert.... :wink: )
Fable gefällt mir nun und ich bin tatsächlich am zocken... ;)
derominöseGast
2005-08-29, 15:22:28
Geht auch über Obi... äh, nHancer :)
habe grad nicht die möglichkeit es zu testen... kann man mit nhancer das profil mit mipmap einstellungen speichern? das wär ja genial... dann könnte man z.B bei Fable, GTR oder HL2 +0.1 wählen und bei anderen spielen die es nicht nötig haben 0.0 lassen.
Grestorn
2005-08-29, 15:24:48
habe grad nicht die möglichkeit es zu testen... kann man mit nhancer das profil mit mipmap einstellungen speichern? das wär ja genial... dann könnte man z.B bei Fable, GTR oder HL2 +0.1 wählen und bei anderen spielen die es nicht nötig haben 0.0 lassen.
Kann man schon, aber der doofe Treiber wertet das nur bei OpenGL Spiele aus Profilen aus...
Der vermaledeite Direct3D Treiber nimmt nur die AA, AF, SLI, Farbprofil, VSync und Performance-Einstellung aus den Profilen. Alles andere geht lediglich global.
Manchmal würde ich zugern selbst mal Hand an den D3D Treiber anlegen. Das Management von den paar Registry-Einträgen ist doch nicht soooo schwer. Seufz.
MadManniMan
2005-08-29, 15:27:37
Und AT-Flimmern ist soooo viel schlimmer, als das AF-Flimmern der GTX, da gibt es gar kein vertuen.
Sagt jemand, daß Alpha-Test fetzt? Ach nich? :|
Hör mal, es kann nicht sein, daß seit Anbeginn der Voodoos Textur-Flimmern immer stärker unterdrückt wurde, quasi nur noch bei manchen Texturen am Mip Übergang vorhanden war und mit der Vormachtstellung von trilinearem Filter endgültig der Vergangenheit angehörte, nur um jetzt bei einer >1.000 Mark Karte wieder aufzutauchen - und entschuldige diese Schwäche bitte nicht mit einer anderen Stärke!
Grestorn
2005-08-29, 15:33:59
Sagt jemand, daß Alpha-Test fetzt? Ach nich? :|
Hör mal, es kann nicht sein, daß seit Anbeginn der Voodoos Textur-Flimmern immer stärker unterdrückt wurde, quasi nur noch bei manchen Texturen am Mip Übergang vorhanden war und mit der Vormachtstellung von trilinearem Filter endgültig der Vergangenheit angehörte, nur um jetzt bei einer >1.000 Mark Karte wieder aufzutauchen - und entschuldige diese Schwäche bitte nicht mit einer anderen Stärke!
Sorry, schau Dir das ach so schlimme AF-Flimmern erst Live an, bevor Du ein solches Urteil fällst.
Du wohnst nicht zufällig im Raum München?
Ich glaube, dass die DAUs nur deswegen absolut kein Flimmern sehen, auch unter 7800 GTX Default, da sie einfach nichts anderes kennen :D Würde man einen DAU ein par Monate "HD Gaming" mit 1920x1080+ mit vollem, hohem AA + AF (Was es leider nicht mehr gibt :() spielen lassen, dann aber wieder wegnehmen, glaub ich durchaus, dass sie es sehen ;). Der Gewöhnungseffekt ist einfach zu schlimm :eek:
Du wohnst nicht zufällig im Raum München?
Was willst du damit sagen? :confused:
eXodia
2005-08-29, 15:36:41
Ich glaube, dass die DAUs nur deswegen absolut kein Flimmern sehen, auch unter 7800 GTX Default, da sie einfach nichts anderes kennen :D Würde man einen DAU ein par Monate "HD Gaming" mit 1920x1080+ mit vollem, hohem AA + AF (Was es leider nicht mehr gibt :() spielen lassen, dann aber wieder wegnehmen, glaub ich durchaus, dass sie es sehen ;). Der Gewöhnungseffekt ist einfach zu schlimm :eek:
Was willst du damit sagen? :confused:
Ich will ja nix sagen, aber grestorn ist bestimmt alles, aber kein DAU... *kopfschüttel*
GrUß
derominöseGast
2005-08-29, 15:39:36
Ich will ja nix sagen, aber grestorn ist bestimmt alles, aber kein DAU... *kopfschüttel*
GrUß
hey jungs kommt runter! niemand sagte grestorn sei ein DAU!!! auch Matt nicht! :eek: :confused:
der bezog sich auf das GSPB und andere foren wo niemand ein Flimmern sieht! es wird sich ähnlich verhalten wie mit einem TFT... technisch bedingte Bewegungsunschärfe (nicht schlieren!)... stört nach ein paar wochen niemanden mehr, hält mich aber vom Kauf ab.
Na, das kann man auch gründlich falsch verstehen... :eek:
Weinpresse, Buchpresse oder doch eher die Fachpresse?! :wink:
Schrottpresse ... ;D
Nein, nein, nein -- natürlich die Fachpresse! Oder glaubst Du ernsthaft, ich hätte etwas anderes gemeint? ;)
MfG,
Raff
derominöseGast
2005-08-29, 15:55:00
wir müssen was neues einführen: den BAU
blindester anzunehmender user
;D
MadManniMan
2005-08-29, 16:01:15
Sorry, schau Dir das ach so schlimme AF-Flimmern erst Live an, bevor Du ein solches Urteil fällst.
...da mir meine 6600 @HQ schon zu sehr flimmert bringt mir das genau wieviel?
Du wohnst nicht zufällig im Raum München?
Nein - aber selbst wenn ich nur 50km von Dir wohnte, würde ich meine Semesterferien gewiß nicht damit rumbringen - ich mach das hier aus reinem Spaß an der Freude.
Lolman
2005-08-29, 16:07:10
Verzeihung, ich meinte die Punkte 8 und 14 (hoffentlich bin ich nicht schon wieder durcheinander gekommen).
Am Punkt 8 stimmt deine Generalisierung schonmal definitiv nicht (daran kann ich mich richtig gut erinnern). Dies ist ebenfalls Teil der Kritik an Punkt 14 - ewas ist eine "generell NV freundliche Benchtaktik"?
An der Stelle wiederhol ich meine Frage vom vorigen Post: "Bist du dir da ganz sicher, dass sich die 2. Optimierung nicht auch noch dazugeschlichen hat? Denn neuere Treiber (77.76) aktivieren die automatisch, sobald man übers CP AA/AF einstellt und alles andere auf default lässt" Eine NV freundliche Benchtaktik ists imo default vs. default zu benchen (nochdazu wo einem NVs Reviewerguides sogar nur Q ohne Opts als Bencheinstellung nahelegen)
Zudem verwundert mich folgender Punkt: "Heiss ich Ralf? Euch sind wohl die ausführlichen PN Diskussionen zw. mir und Blaire entgangen."
--- wo gerade du u.a. von größtem Schwachfug gesprochen hast. "PN" beinhaltet "privat".... meistens sind die nicht öffentlich einsehbar. Zumindest hoffe ich das von meinen PNs. ;)
Ok tw., ist auch der Grant mit mir durchgegangen, deswegen hab auch vll. auch ein 'bisschen' pauschalisiert. Aber aufmerksamen 3DC-Lesern dürfte die PN Konversation zw. mir und Blaire eh nicht entgangen sein, weil ich teile davon ins Forum gestellt hab. Aber egal daran will ich mich jetzt auch garnicht aufhängen. Da stört mich noch eher, dass man nur HQ gebencht hat. Bei einem Vergleich zw. HQ und Q hätte man wenigstens eruieren können, welchem Anteil an der Performancesteigerung zw. den einzelnen wirklich einer verschlechterten BQ bei HQ zugrunde liegt...
Außerdem ist bspw. Punkt 21 viel relevanter als die Frage ob meine Formulierung der "NV freundlichen Benchtaltik" nicht zu reisserisch war. Und falls dein "machs besser" ernstgemeint ist: Ich schreib euch gerne den Artikel um und stell in ins Forum.
wir müssen was neues einführen: den BAU ;D
Da stimmt ich dir absolut zu, die Idee währe genial, da könnte man gleich einen Wiki Tread eröffnen ;D
Ach ja, ich habe nie versucht, grestorn als DAU dazustellen, ich meinte damit die ganzen BAU's von GSPB, wie DÖG bereits erwähnte...
Die Frage ist, ob es nV immer noch reicht, wenn ein Konkurrent da ist, der ein vergleichbares oder besseres Produkt ohne diesen Mangel hat, und die G70 deswegen nicht mehr gekauft wird.Für mich stellt sich die Frage, ob der G70 vernünftiges AF hat. Antwort auf die Frage: Der G70 bietet aktuell kein vernünftiges AF. Da ist mir jede Shadertechnik etc. wurst. Ich will gutes AF, egal ob andere das auch anbieten oder nicht. Obwohl ATIs AF im Moment nicht sonderlich gut ist, ist es besser als das G70-AF. Zwar hat die Radeon kein TAA etc., aber der G70 hat Flimmer-AF und das darf nicht sein.
Verstehe ich dich richtig, müsste sich ja nur ATI und jeder weitere große Entwickler gutem AF verweigern und es bestünde kein Grund, vom Kauf einer neue Karte abzusehen, egal ob das AF gut ist oder nicht. Ich will gutes AF unabhängig von der Marktsitation. Die Technik ist längst weit genug fortgeschritten.
Es geht doch darum das es eine Tendenz ist, die wir stoppen wollen! Ich will nicht die GTX stoppen! Es gibt keine vergleichbare Karte, keine Alternative! Die GTX hat ihre berechtigung in tausenden von rechner ihren platz einzunehmen... af hin oder her.So weit gehe ich eben nicht, "AF hin oder her". Das AF muss gut sein. AF ist die Methode zur Texturfilterverbesserung. Gutes AF setzt die Leistung sehr gut in Texturqualität um.
Solange ATI nichts vergleichbares mit besserer IQ hat das man KAUFEN kann können wir maulen soviel wir wollen... es ist die beste karte auch wenn sie nicht perfekt ist.Warum sollte ATI auf den fps-Gewinn durch schlechtes AF verzichten?
Ich hoffe ATI erkennt die Zeichen... setzt beim R520 nicht auf den Speed (den er ja anscheinend eh nicht haben wird) sondern geht voll mit der Qualtät in den Kampf. Ne bessere Vorlage zum ausnutzen hätte Nvidia nicht bieten können....ATI und Texturqualität – ein Kapitel für sich. Nvidia ist auf den Zug aufgesprungen und hat ATI jetzt sogar überboten, also die ATI-Texturqualität unterboten. Jetzt soll es ausgerechnet ATI richten? Wo der G70 trotz der hässlichen, minderwertigen anisotropen Filterung weggeht wie warme Semmel?
Reizen würde mich eh nur 3DCenter (denn da kann ich mich noch am ehesten mit der Zielgruppe identifizieren) - und fürs 3DCenter ist ein Artikel mit der 3dfx Voodoo5 6000 in Planung.Sehr gut.
Quasar
2005-08-29, 16:26:00
An der Stelle wiederhol ich meine Frage vom vorigen Post: "Bist du dir da ganz sicher, dass sich die 2. Optimierung nicht auch noch dazugeschlichen hat? Denn neuere Treiber (77.76) aktivieren die automatisch, sobald man übers CP AA/AF einstellt und alles andere auf default lässt" Eine NV freundliche Benchtaktik ists imo default vs. default zu benchen (nochdazu wo einem NVs Reviewerguides sogar nur Q ohne Opts als Bencheinstellung nahelegen)
Ok tw., ist auch der Grant mit mir durchgegangen, deswegen hab auch vll. auch ein 'bisschen' pauschalisiert. Aber aufmerksamen 3DC-Lesern dürfte die PN Konversation zw. mir und Blaire eh nicht entgangen sein, weil ich teile davon ins Forum gestellt hab. Aber egal daran will ich mich jetzt auch garnicht aufhängen. Da stört mich noch eher, dass man nur HQ gebencht hat. Bei einem Vergleich zw. HQ und Q hätte man wenigstens eruieren können, welchem Anteil an der Performancesteigerung zw. den einzelnen wirklich einer verschlechterten BQ bei HQ zugrunde liegt...
Außerdem ist bspw. Punkt 21 viel relevanter als die Frage ob meine Formulierung der "NV freundlichen Benchtaltik" nicht zu reisserisch war. Und falls dein "machs besser" ernstgemeint ist: Ich schreib euch gerne den Artikel um und stell in ins Forum.
Ich habe es offenbar leider nicht geschafft, klar zu machen, worum es mir ging. Anstatt, daß du differenziert auf den Artikel eingehst und Fehler oder Unzulänglichkeiten aufzeigst, holst du mit der Rundumkeule aus und triffst dabei eher Formulierungsspezialitäten oder verursachst Kollateralschäden indem du Dinge generalisierst, die so nicht zutreffend sind.
Natürlich schaltet sich beim manuellen aktivieren des AF im Treiber die "mittlere" Optimierung ungefragt hinzu, das ist mir bekannt. Das war aber nicht die Generalisierung. "Wie ihr bei CB es immer macht" - oder so ähnlich steht da.
Auch die Kritik an Punkt 14 bezog sich nicht auf die Formulierung, sondern, wie ich schrieb, ist auch hier die Generalisierung Teil der Kritik. Und zwar die Generalisierung, generell eine NV-freundliche Benchtaktik (Taktik klingt irgendwie so nach Krieg...) anzuwenden.
Ich würde mal im Gegenteil sagen, AA und AF nicht separat zu testen ist absolut nv-unfreundlich. =)
Wenn das so weiter geht, dann sieht irgendwann auch ein Blinder, dass da etwas faul ist. Es ist nur eine Frage der Zeit, bis der letzte Tropfen das Fass zum Überlaufen bringt.Das Flimmern ist der Tropfen. Wenn nicht jetzt Einhalt gebieten, wann dann?
Texturfilterung darf kein Flimmern erzeugen. Das G70-AF tut das aber. Auch NV40-AF im Standardmodus. Beides halte ich für vollkommen inakzeptabel.
Also, auch heute würde meine Entscheidung eindeutig ausfallen. Du erzählst lang und breit warum du den G70 wieder kaufen würdest aber verlierst kaum Worte über das AF-Problem. Das hilft der Sache nicht, der Leser liest von dir überwiegend, wie begeistert du bist. Wahrscheinlich bist du das tatsächlich, weil du auf vernünftiges AF eben nicht so viel Wert legst.
Richtig, das AF-Problem zählt für mich vergleichsweise gering. Ich habe nie etwas anderes behauptet. Nicht weil ich das Flimmern - wenn es denn auftritt - akzeptieren kann oder will sondern weil ich etwas dagegen tun kann, ohne allzuschwere Nachteile (der LOD BIAS ist vergleichsweise geringer Nachteil und wenn die Leistung für SS reicht, krieg ich viel mehr als nur die Beseitigung des AF-Flimmerns). Supersampling ist fürchterlich ineffektiv. Richtig wäre es, Methoden zu fordern die ohne Supersampling auskommen. Du bezahlst einerseits die brutale Rohpower und musst sie dann andererseits für Supersampling verpulvern. Mit vernünftigem AF wäre bei weniger Rohleistung gleiche oder bessere Texturqualität möglich. Eine solche Karte würde dann auch weniger kosten. Gutes AF wäre zum Wohle des Kunden.
Mit der 7800 und erst recht mit SLI hat man genug Leistung für OGSSAA. Mit vernünftigem AF bräuchte man dank TAA-SS kein OGSSAA. Bei deutlich geringerer Rohleistung käme man auf die gleiche fps-Zahl. Bei gleicher Rohleistung käme man auf deutlich höhere fps-Zahlen (sofern keine allzu große CPU-Limitierung besteht.) 4x OGSSAA drückt die Füllrate auf 25%. Vernünftiges AF drückt die Füllrate geschätzt auf 70%. Aber sagen wir, 60%. Dann hat man immer noch mehr als doppelt so viel Leistung als mit 4x SSAA. Vernünftiges AF böte dabei aber, betrachtet auf alle Winkel, die insgesamt noch besseren Texturen.
Mich stört das "Skandal"-Element viel stärker als die Tatsache als solche. Aber bei dem Thema, wieviel Prestige nV deswegen (in meinen Augen) verliert, ist das letzte Wort noch nicht gesprochen. Sie haben eine gute Chance, einiges davon zu retten oder sehr viel zu verspielen.So, wie du NVs G70 als alternativlos lobst, sehe ich nicht dass für dich NVs Prestige auf dem Spiel steht.
So, wie du NVs G70 als alternativlos lobst, sehe ich nicht dass für dich NVs Prestige auf dem Spiel steht.
Ist sie ja auch momentan für einige (mich eingeschlossen). Sobald allerdings der R520 draußen ist, könnte es damit ganz anders aussehen, wenn NV das nicht durch Treiber in den Griff bekommt oder bekommen will.
Wenn der R520 bei besserer Bildqualität halbwegs vergleichbare Leistung bringt, hat NV grob ausgedrückt und buchstäblich die Arschkarte gezogen ;)
Ist sie ja auch momentan für einige (mich eingeschlossen). Sobald allerdings der R520 draußen ist, könnte es damit ganz anders aussehen, wenn NV das nicht durch Treiber in den Griff bekommt oder bekommen will.
Wenn der R520 bei besserer Bildqualität halbwegs vergleichbare Leistung bringt, hat NV grob ausgedrückt und buchstäblich die Arschkarte gezogen ;)Wenn NV nicht beides gleichzeitig bringen kann, warum sollte es dann ATI können? Warum soll ich auf ATIs Produkte gucken wenn ich die Bildqualität von NV-Karten bewerte? Die G70-AF-Qualität ist unzureichend, ganz unabhängig davon was es sonst noch auf dem Markt gibt.
Frank1974
2005-08-29, 17:23:53
Hallo
Ich höre hier nur immer wieder von dem Flimmern was die 7800GTX hat,das ist aber nicht ihr einzigstes Problem,was ist mit dieser Potthässlichen Pfeiloptimierung :confused: ,die ist nicht nur an der einen Stelle im Fahrstuhl in HL2,die zieht sich durch das ganze Spiel ,und nicht nur durch das Spiel...
Die Pfeiloptimierung ist das schlimmste was ich je gesehen habe :mad:
Und kommt mir nicht mit der Ausrede das liegt an den Spielen,ich weiß das die Pfeiloptimierung nur mit der 7800GTX auftritt.
Es lohnt auch nicht gegen die 7800 Besitzer anzureden,im CB Forum ist es sogar noch viel schlimmer :( .
Wo ich meine 7800 das erste mal getestet hatte und das Flimmern sah ,war ich geschockt,aber wo ich dann auch noch die ersten Pfeiloptimierungen sah wusste ich sofort,die Karte werde ich nicht behalten,egal wie schnell sie auch ist,und mir ist auch egal ob es keine Alternative gibt im Moment dann warte ich lieber aber sowas lasse ich mir von keinem Hersteller bieten :mad:
Ich werde jetzt solange warten ,bis Nvidia das ganze mit einem Treiber behoben hat, oder Ati endlich mit ihrer Karte kommt :rolleyes:.
BQ steht bei mir an erster Stelle.
Ich will ja hier niemanden was unterstellen,aber ich glaube einige hier haben eine sehr schlechte Wahrnehmung,oder einen Monitor der das ganze etwas Herunterspielt :wink: .
MFG
Frank
Ice =A=
2005-08-29, 17:33:48
Zitat von aths:
Mit der 7800 und erst recht mit SLI hat man genug Leistung für OGSSAA. Mit vernünftigem AF bräuchte man dank TAA-SS kein OGSSAA. Bei deutlich geringerer Rohleistung käme man auf die gleiche fps-Zahl
Gut auf den Punkt gebracht!
Frank1974
2005-08-29, 17:46:01
Gut auf den Punkt gebracht!
aths hat mit fast allen seinen Aussagen Recht,er schreibt auch niemanden vor ,seine noch so tolle GTX ;D zurückzugeben,er versucht den Leuten nur klarzumachen das Nvidia die Kunden verarscht,und das schafft Nvidia sehr gut wenn sie mit jeder neuen Karte die BQ immer nur ein wenig verschlechtern,fällt es den meisten am Ende gar nicht mehr auf...
Und am meisten stimme ich mit ihm überein das wenn Nvidia damit durchkommt,wird ATI das genauso machen,weil es halt in Tests nur um die FPS geht,egal wie die erreicht werden :wink:
Wenn NV nicht beides gleichzeitig bringen kann, warum sollte es dann ATI können? Warum soll ich auf ATIs Produkte gucken wenn ich die Bildqualität von NV-Karten bewerte? Die G70-AF-Qualität ist unzureichend, ganz unabhängig davon was es sonst noch auf dem Markt gibt.
Bestreitet doch auch niemand, noch hat dies jemand behauptet (dass Du auf ATIs Produkte achten solltest).
Nur: Welcher Druck auf NV, glaubst Du, ist größer? Der Druck alleine durch Artikel wie diesen hier (ein Boykott ist eben eher unwahrscheinlich ohne Alternative) oder der Druck durch Einbrüche beim Umsatz, weil Kunden auf Produkte des Mittbewerbers ausweichen (auch wieder aufgrund von Artikeln wie diesem hier)?
Ich will ja hier niemanden was unterstellen,aber ich glaube einige hier haben eine sehr schlechte Wahrnehmung,oder einen Monitor der das ganze etwas Herunterspielt :wink: .
MFG
Frank
Oder spielen niemals unter einer Auflösung von 1600x1200 (wg. TFT)?
Wenn ich die Auflösung runterschraube wird trotz Interpolation des TFT das Flimmern um einiges stärker wahrnehmbar. In welcher Auflösung spielst Du?
Frank1974
2005-08-29, 18:20:07
Oder spielen niemals unter einer Auflösung von 1600x1200 (wg. TFT)?
Wenn ich die Auflösung runterschraube wird trotz Interpolation des TFT das Flimmern um einiges stärker wahrnehmbar. In welcher Auflösung spielst Du?
Ich kann bis zu einer Auflösung von 1600x1200@75Hz Spielen :rolleyes:
Ich will ja hier auch keinem hier meine Meinung aufdrängen.
Mir ging es bei der 7800 nur um diese sauschlechten Pfeiloptimierungen,und du wirst sehen das du schon Anfang nächsten Jahres bei neueren Spielen auch mit der 7800GTX keine 1600x1200 mehr fahren kannst und dann offenbaren sich die schwächen der Karte mehr als deutlich,wenn Nvidia das Problem nicht bald mit einem neuen Treiber löst. :wink:
Das glaube ich nicht, Tim bzw. nicht mit SLI ;)
Ich sehe die Optimierung ja auch schon, ich bin keinesfalls blind!
Gerade bei Source-Engine-Spielen sieht das auch unter HQ unter aller Sau bei bestimmten Bodentexturen aus.
Black-Scorpion
2005-08-29, 18:28:50
ich verstehe das. nur jetzt 5fps mit der BQ der GTX gleichzusetzen (so könnte man das verstehen) ist totaler schwachsinn. die GTX ist wenn man sie voll ausnützt eine hammerkarte die bei HL2 im Aufzug abkackt...
wenn nvidia den Treiber bald liefert der auch diese pfeiloptimierung abschaltet und dabei nicht viel performance verloren geht... tja dann haben wir eine geniale karte vor uns die ATI stressen wird. Nvidia ist eh gewarnt... ich kann mir nicht vorstellen das man es nochmal riskiert einen solchen Rummel zu haben mit der nächsten generation.
Ich habe nie etwas von 5 FPS gesagt.
Und wie es aussieht und hier geschrieben wurde ist es nicht nur bei HL² so.
Mit dem Treiber hast du Recht, nur würde ich mich nicht wirklich darauf verlassen.
Ich kann mir nicht vorstellen das bei nVidia alles Blinde arbeiten denen das AF Flimmern nicht aufgefallen ist.
Wenn es eine Treibersache ist, warum kommt der Treiber erst nach dem sich User über das Flimmern beschweren?
Meiner Meinung nach war das volle Absicht und ein Test ob die User es übersehen und nicht ernst nehmen.
Wie die Tests zeigen sind ja auch bis auf die franz. Seite und hier damit durchgekommen.
Jetzt wo sich das Flimmern rumspricht soll auf einmal ein Treiber kommen der es beseitigt.
Und dann muß man auch abwarten wie sich der Treiber auf die Performance auswirkt.
@mbee. Früher oder später wirst du auch mit SLI zurückschrauben müssen ... Und hat Nvidia bis dahin nicht eine Lösung parat, wirst du es sicherlich merken...
Frank1974
2005-08-29, 18:34:22
Das glaube ich nicht, Tim bzw. nicht mit SLI ;)
Ich sehe die Optimierung ja auch schon, ich bin keinesfalls blind!
Gerade bei Source-Engine-Spielen sieht das auch unter HQ unter aller Sau bei bestimmten Bodentexturen aus.
Bitte :rolleyes: , es gibt schon wenige die ein 7800GTX haben,2 Stück sind wahrscheinlich weniger als 1%.
Und was ist mit denen die einen Computer planen der länger als 1 Jahr halten soll(nicht die wenigen Freaks die alle neuen Karten sofort haben müssen)?
Gruss
Frank
Hrm, angeblich soll ein gefixter Treiber verfügbar sein. Ob schon öffentlich, weiß ich nicht. Ich weiß auch nicht, ob der Fix tatsächlich funzt. Jedenfalls soll da wirklich was in Mache sein.
Blaire
2005-08-29, 19:00:59
:eek: Wo?? Wie kommst du darauf?
Bitte :rolleyes: , es gibt schon wenige die ein 7800GTX haben,2 Stück sind wahrscheinlich weniger als 1%.
Und was ist mit denen die einen Computer planen der länger als 1 Jahr halten soll(nicht die wenigen Freaks die alle neuen Karten sofort haben müssen)?
Gruss
Frank
Ich glaube Du mißverstehst mich: Ich meine damit nicht "alles nicht so schlimm, da MAN eh mit 1600x1200 spielt" (das werden eh die wenigsten), sondern nur, dass es MIR unter dieser Auflösung weniger auffällt (allerdings natürlich trotzdem vorhanden ist). Und ich persönlich werde eben SLI fahren (nicht aus diesem Grund), so dass es auch nächstes Jahr bei 1600x1200 bleibt (genau aus diesem Grund bzw. will ich in der nativen Auflösung meines TFT spielen).
Grestorn
2005-08-29, 19:07:10
Nein - aber selbst wenn ich nur 50km von Dir wohnte, würde ich meine Semesterferien gewiß nicht damit rumbringen - ich mach das hier aus reinem Spaß an der Freude.
Warum so aggressiv? Ich denke, so ein wenig Erfahrungsaustausch und quatschen hätte schon noch Platz gehabt.
Ihr seht das alle viel zu verbissen, finde ich...
Grestorn
2005-08-29, 19:18:21
Verstehe ich dich richtig, müsste sich ja nur ATI und jeder weitere große Entwickler gutem AF verweigern und es bestünde kein Grund, vom Kauf einer neue Karte abzusehen, egal ob das AF gut ist oder nicht.Wenn man realistisch ist: Ja. Spätestens dann, wenn die vorhandene Hardware (die das besser kann) nicht mehr mit den aktuellen Spielen funktioniert.
Ich habe 1997(?) auch ne Voodoo1 gekauft, sogar direkt in den USA bevor man sie hier kaufen konnte. Und musste jede Menge Abstriche machen (war aber trotzdem total begeistert). Wenn es nichts besseres gibt, nimmt man das, was man haben kann. Nur absolute Sturköpfe verweigern sich ad infinitum nur aus Prinzip. Der einzige der davon einen nennenswerten Nachteil hat sind schließlich die Sturköpfe selbst.
Das ist ein Fact of Life. Lasst uns also hoffen, dass die Medien (Internet und Presse) den Unterschied in der BQ so sehr herausstellt, dass es sich für die Hersteller lohnt, mit der BQ zu werben und so einen Vorteil aus besserer BQ rausschlagen zu können.
@mbee. Früher oder später wirst du auch mit SLI zurückschrauben müssen ... Und hat Nvidia bis dahin nicht eine Lösung parat, wirst du es sicherlich merken...
Bis dahin habe ich die nächste Generation im Rechner (z.B. R580), aber darum geht's doch gar nicht! Ich merke es ja jetzt auch schon, das soll auch keinesfalls ein "Beschönigungsargument" sein bzw. will ich ja auch, dass diese Überoptimierung aus dem Treiber fliegt. Ich versuche nur klar zu machen, dass es für mich persönlich eben einige Faktoren gibt, die Karte mangels Alternative zu behalten. Ich hoffe, damit ist jetzt alles klar...
Grestorn
2005-08-29, 19:30:51
Supersampling ist fürchterlich ineffektiv. Richtig wäre es, Methoden zu fordern die ohne Supersampling auskommen. Du bezahlst einerseits die brutale Rohpower und musst sie dann andererseits für Supersampling verpulvern. Mit vernünftigem AF wäre bei weniger Rohleistung gleiche oder bessere Texturqualität möglich. Eine solche Karte würde dann auch weniger kosten. Gutes AF wäre zum Wohle des Kunden.
Wir reden endlos aneinander vorbei. Nie habe ich den Sinn von gutem AF in Frage gestellt. Nie habe ich bestritten, dass die Situation unzufriedenstellend ist.
Ich habe nur gesagt, dass ich mit SS neben anderen, sehr umgreifenden Qualitätsverbesserungen auch das AF-Flimmern beheben kann. Dann ist die Power, die SS kostet, natürlich nicht sinnlos nur für AF verpulvert.
Wenn sich SS nicht rentiert, kann ich immer noch LOD BIAS auf .125 stellen. Ich behaupte, Du kannst ohne direkten Vergleich nicht erkennen, dass der LOD BIAS verstellt worden ist.
Für mich persönlich kann ich also die Nachteile durch den schlechten Aniso-Filter kompensieren. Mehr habe ich niemals geschrieben.
So, wie du NVs G70 als alternativlos lobst, sehe ich nicht dass für dich NVs Prestige auf dem Spiel steht.
Kann ich was dafür, dass die G70 derzeit alternativlos ist? Ist doch nicht mein Fehler. ATI soll mal in die Puschen kommen und auch überzeugen.
Für mich persönlich kann ich also die Nachteile durch den schlechten Aniso-Filter kompensieren. Mehr habe ich niemals geschrieben.
Und was ist mit der Pfeiloptimierung?
Ich versuche nur klar zu machen, dass es für mich persönlich eben einige Faktoren gibt, die Karte mangels Alternative zu behalten. Ich hoffe, damit ist jetzt alles klar...Ich habe nie gesagt, dass irgendwer seine Karte verkaufen muss. Ich habe nur gesagt, dass die Karte Neukunden als "Ultimativ", also als das ohne einbußen Beste, zu verkaufen, überzogen ist.
Ich will nicht das die Diskusion noch mehr im Kreis dreht ;D
derominöseGast
2005-08-29, 20:53:12
Und wie es aussieht und hier geschrieben wurde ist es nicht nur bei HL² so.
Mit dem Treiber hast du Recht, nur würde ich mich nicht wirklich darauf verlassen.
Ich kann mir nicht vorstellen das bei nVidia alles Blinde arbeiten denen das AF Flimmern nicht aufgefallen ist.
aber nur bei HL2 sieht man es derart extrem. so oder so diese pfeiloptimierung ist ja teil des neuen beschissenen AF! Genau diese Optiermierung will ich auf keinen fall mehr sehen bei dem "gefixten" Treiber. Wer meine Posts noch kennt weiss das ich bis zur Erkenntnis dieser Pfeiloptimierung keine Probleme hatte... das hat aber den Boden aus dem Fass geschlagen...
Ich denke nicht das nur einer hier wirklich annimmt das ganze sei keine Absicht gewesen. Das ist kein fehler das ist ein Betrugsversuch (so würden hier die AF Jungs sagen) bzw. ein neuer Versuch mehr fps zu erzwingen.
und natürlich kann man sich darauf verlassen... hey, wir sind nicht mehr in der Zeit wo ein Grakahersteller machen und lassen kann wie es ihm grad gefällt. Das ist ja das schöne an der fetten ATI konkurrenz. Das muss gefixt werden und das wird 100pro gefixt... bzw. rückgängig gemacht.
ATI wird eigene Probleme haben: http://www.vr-zone.com/?i=2612&s=1
ein Hersteller der selber sagt "er denkt" man könne die GTX schlagen... sowas habe ich noch nie gehört. normalerweise heisst es "wir sind 50% schneller... " in der einen applikation... das sieht nicht gut aus mit dem R520.
grestorn, es hat keinen Sinn. Mir ist es Wurst, was ATI hat oder nicht hat, wenn ich feststelle dass das G70-AF ungenügend ist. Angesichts des AF sind die G70-Vorteile für mich Asche, auch wenn man das Flimmern irgendwie reduziert oder (sehr aufwändig) sogar wegbekommt. Aus meiner Sicht verteidigst du, wahrscheinlich ohne es zu wollen, die Marketing-Position des Herstellers, wenn auch vordergründig auf deine Käufersicht gemünzt. Du nimmst zur Not sogar ein LOD-Bias von ca. 0,1 in Kauf – und das bei der Ausgabe einiger hundert Euro. Du verlangst angeblich Qualität aber weil ATI keine GF3-AF-Qualität bringt, erwartest du von deiner neuen GeForce7 auch keine GF3-AF-Qualität. Da komme ich einfach nicht mit, offenbar sind unsere Weltbilder so verschieden, da wir da auf keinen gemeinsamen Nenner kommen.
derominöseGast
2005-08-29, 22:09:19
du bist schon extrem verbissen aths... das braucht es aber auch.
was ich nicht verstehe: niemand klagt über den clamp schalter obwohl man da mindestens soviel schärfe verliert wie mit lod +0.1. Mir kommt das alles ein wenig unverhältnismässig vor hier.
und ich denke die meisten von uns möchten eher wissen warum du der annahme bist das ein gefixter treiber existiert. wo ist die quelle?
was ich nicht verstehe: niemand klagt über den clamp schalter obwohl man da mindestens soviel schärfe verliert wie mit lod +0.1. Mir kommt das alles ein wenig unverhältnismässig vor hier.
mit dem clamp-schalter verlierst du im normalfall null an schärfe, es sei denn die app setzt einen negativen LOD-bias (was zwangsweise auch bei korrekter filterung zum flimmern führt), wobei mir außer UT2k3/2k4 keine anwendung einfällt die das standardmäßig tut. ein neg. LOD-bias ist sowieso kontraproduktiv, da man performance und bildqualität verliert (auf screenshots wirkt natürlich alles viel schärfer)
du bist schon extrem verbissen aths... das braucht es aber auch.Extrem ... wieso extrem? Als Nicht-G70-Besitzer bin ich in der glücklichen Lage, mir nichts schönreden zu müssen. Der Besitzer eines G70 sieht seine Begründung, warum der G70 trotzdem bisher das Nonplusultra sei, natürlich nicht als Schönreden, in seinen Augen sagt er doch nur wie es wirklich sei.
Als ich gegen ATIs AF beim R300 argumentierte, interessierte es mich herzlich wenig, dass beinahe alle Radeon-9700-User sehr zufrieden mit ihrer schnellen Karte waren.
was ich nicht verstehe: niemand klagt über den clamp schalter obwohl man da mindestens soviel schärfe verliert wie mit lod +0.1. Mir kommt das alles ein wenig unverhältnismässig vor hier.Mittels LOD-Clamp verliert man über keine "sinnvolle" Schärfe. Ausnahme sind unsinnige Methoden á la UT, erst mal unscharfe Texturen, und dann LOD-Biasing zu nutzen.
derominöseGast
2005-08-29, 23:00:02
Extrem ... wieso extrem? Als Nicht-G70-Besitzer bin ich in der glücklichen Lage, mir nichts schönreden zu müssen. Der Besitzer eines G70 sieht seine Begründung, warum der G70 trotzdem bisher das Nonplusultra sei, natürlich nicht als Schönreden, in seinen Augen sagt er doch nur wie es wirklich sei.
Als ich gegen ATIs AF beim R300 argumentierte, interessierte es mich herzlich wenig, dass beinahe alle Radeon-9700-User sehr zufrieden mit ihrer schnellen Karte waren.
Mittels LOD-Clamp verliert man über keine "sinnvolle" Schärfe. Ausnahme sind unsinnige Methoden á la UT, erst mal unscharfe Texturen, und dann LOD-Biasing zu nutzen.
1. sollten wir dir langsam aufgezeigt haben das wir nichts schönreden... ich weiss nicht wieoft wir gesagt haben das es ein scheiss af ist. irgendwie kommt das aber bei dir nicht an.
2. nochmal: du bewertest eine karte rein (absolut nach nichts anderem) als AF. Ich und viele andere überhaupt nicht, würde mir auch nicht in den sinn kommen was der sinn dahinter wäre.
Ich bin nicht in der unglücklichen Lage eine GTX zu besitzen auch wenn du mir das einreden willst... ich bin in der unglücklichen lage einen scheiss treiber von nvidia für meine karte zu haben.
3. wenn der gefixte treiber kommt und das AF besser ist. ist dann die GTX für dich plötzlich die Ueberkarte? dein gewünschtes AF wird es nie wieder geben... oder glaubst du daran?
rück doch bitte endlich die quelle des treibers raus ansonsten muss ich langsam zweifeln...
Ich habe mir die 7800GTX wegen des TSAA geholt und es hat sich gelohnt, das will ich nicht mehr missen, solange es keine andere Grafikkarte auf dem Markt gibt die Alpha Texturen glättet bleibt die Karte drinne.
Das flimmern ist unschön man kanns aber abschwächen und ich hoffe auf einen besseren Treiber.
Ich habe vor 3 Jahren mit einer R9700pro stuttering ohne ende in meinem damaligen Lieblingsspiel gehabt, musste alle Effekte auf 0 drehen damit es flüssig lief, 6 Monate später kam endlich ein Treiber der das Problem beseitigte.
Ist für mich die selbe Situation, abwarten einfach was anderes kann ich eh nicht tun, und verkaufen kommt nicht in Frage, was ein Wertverlust und es gibt ja keine Alternative, damals wie heute...
Mag sein das das AF scheiße ist, aber das hat mich damals bei der R9700 auch nicht gekratzt, von einer GF4 rüber zu wechseln war halt nicht ganz so schön, aber dafür gabs mit der R9700 neue Effekte die auch flüssig dargestellt wurden ;)
Und heute heist es eben TSAA Hui, AF pfui und abwarten.
Was soll ich denn tun als GF7800GTX besitzer, die ganze Zeit mich in irgendwelchen Foren auskotzen das mir eh nichts bringt?
Rede ich mir die Karte schön? Mag sein aber das ist mein gutes Recht denn ich habe keine Alternative, end of Line!
Frank1974
2005-08-29, 23:27:55
2. nochmal: du bewertest eine karte rein (absolut nach nichts anderem) als AF. Ich und viele andere überhaupt nicht, würde mir auch nicht in den sinn kommen was der sinn dahinter wäre.
Das AF ist neben dem AA,das wichtigste Kaufargument einer Highend Karte,ohne AF kann sich eine 7800GTX in Spielen kaum von den Vorgängerversionen absetzen weil da die CPU limitiert deshalb ist AF wichtig (aber nur wenn es richtig funzt),das ist kein Grund? :rolleyes:
Und jetzt kommt nicht wieder mit Supersampling und dem andern Zeugs,ich weiß das es eine gute Sache ist aber ohne AF ist es für die Katz :P
Gruss
Frank
Ice =A=
2005-08-29, 23:32:17
Ich nehme mir mal heraus, darauf anstatt von aths zu antworten:
Zu 1. Es gibt hier einige, die eben nichts beitragen, außer zu sagen, daß das AF doch völlig in Ordnung sei. Und wenn jemand selbst sagt, er redet nichts schön, ist das keine objektive Meinung... :)
Zu 2. Es handelt sich um eine GRAFIKkarte, die bewerte ich anhand der Grafikqualität, die sie liefern kann (wozu das AF nunmal gehört). Sollte das falsch sein?!?!
Genauer: Ich bewerte eine Grafikkarte danach, wie gut die Grafik ist, die sie auf den Bildschirm bringen kann bei Einhaltung einer spielbaren Framerate. Und so sollte man Grafikakrten auch bewerten, das wirst Du wohl zugestehn!
Offensichtlich schneidet die 7800 da bei einigen Spielen nicht herausragend gut ab.
Zum nächsten Absatz: Wenn Du das Gefühl hast, wir wollen Dir hier Deine Grafikkarte schlechtmachen, da hätte ich einen Tip: Lies den Thread nicht!
DU WILLST JA NICHTS, also warum diskutierst Du überhaupt mit? Wir wollen etwas, wir haben ein Anliegen, darüber reden wir hier!
Zu 3. Für mich gilt genau das: Wenn ein Treiber zumindest die 6800er Grtafikqualität wieder herstellt, IST die 7800 die Überkarte für mich (zumindest im Moment), und ich werde sie mir kaufen! :)
1. sollten wir dir langsam aufgezeigt haben das wir nichts schönreden... ich weiss nicht wieoft wir gesagt haben das es ein scheiss af ist. irgendwie kommt das aber bei dir nicht an.
2. nochmal: du bewertest eine karte rein (absolut nach nichts anderem) als AF. Ich und viele andere überhaupt nicht, würde mir auch nicht in den sinn kommen was der sinn dahinter wäre.
Ich bin nicht in der unglücklichen Lage eine GTX zu besitzen auch wenn du mir das einreden willst... ich bin in der unglücklichen lage einen scheiss treiber von nvidia für meine karte zu haben.Wie ich schon schrieb: "Der Besitzer eines G70 sieht seine Begründung, warum der G70 trotzdem bisher das Nonplusultra sei, natürlich nicht als Schönreden, in seinen Augen sagt er doch nur wie es wirklich sei."
Den G70 bewerte ich nicht rein nach AF – aber AF ist für mich ein so wichtiges Feature, dass eine Karte ohne anständiges AF nichts taugt, egal wie gut der Rest ist. AF ist sowas von wichtig. Wichtiger als man annimmt, da einfach kein gutes AF mehr geboten wird. Kaum jemand ist in der Lage, wie man sieht, AF angemessen zu bewerten.
3. wenn der gefixte treiber kommt und das AF besser ist. ist dann die GTX für dich plötzlich die Ueberkarte? dein gewünschtes AF wird es nie wieder geben... oder glaubst du daran?Ohne das Flimmern ist der G70 weiterhin eine Karte mit einer sehr mäßigen AF-Implementierung: Man stellt 16x ein und bekommt in einigen Winkeln nur 2x. Angesichts der extremen Füllratenleistung ist das lächerlich. Auch bei weniger Füllrate wäre ein besseres AF der effizientere Weg zu mehr Qualität bei gleicher Leistung oder mehr Leistung bei vergleichbarer Qualität.
Wenn man annähernd fotorealistische Szenen rendern will, ist ein besseres AF als das was heute modern ist, absolut erforderlich. Dieser winkelabhängige Unsinn läuft dem fotorealistischen Rendering zuwider.
rück doch bitte endlich die quelle des treibers raus ansonsten muss ich langsam zweifeln...Ich habe keine Quelle.
derominöseGast
2005-08-29, 23:43:58
Das AF ist neben dem AA,das wichtigste Kaufargument einer Highend Karte,ohne AF kann sich eine 7800GTX in Spielen kaum von den Vorgängerversionen absetzen weil da die CPU limitiert deshalb ist AF wichtig (aber nur wenn es richtig funzt),das ist kein Grund? :rolleyes:
Und jetzt kommt nicht wieder mit Supersampling und dem andern Zeugs,ich weiß das es eine gute Sache ist aber ohne AF ist es für die Katz :P
Gruss
Frank
ohne AF?... naja jetzt wirds bunt... wer behauptet es sei für die Katz, hätte wie schon oft gesagt vor einem jahr auch rumbrüllen müssen (wie ich es getan habe)
@ice: ok verurteile mich... hast nichts gelesen von meine posts, ist gut. ich schreibe jetzt nicht nochmal was ich zur ganzen geschichte denke. ist lesbar in den letzten 1300 posts... wenn du dir eine GTX kaufst sobald sie NV40Quali hat muss ich tüchtig den kopf schütteln... der unterschied ist so gering und jeder weiss das NV40 AF auch für den arsch ist.
@aths: ja so sehen ich das auch. mir ist auch ein 6800AF nicht gut genug aber wir würden träumen wenn wir wirklich denken es werde wieder GF3 Quali kommen... :frown: die paar freaks wie du werden das nie erzwingen können. Ich möchte schlicht nur die Möglichkeit es zu aktivieren auch wenn der rest sich tot optimiert. dieser verdammte non optimizations full quality button fehlt einfach...
quelle der info meine ich nicht des treibers...
eXodia
2005-08-29, 23:51:33
Den G70 bewerte ich nicht rein nach AF – aber AF ist für mich ein so wichtiges Feature, dass eine Karte ohne anständiges AF nichts taugt, egal wie gut der Rest ist.
Wenn du den G70 nicht nur nach dem AF bewertest (auch wenn es ein wichtiges Feature für dich ist) warum taugt der G70 dann nichts?
Dazu meine wiederholte persöhnliche Meinung (man beachte ich bin kein G70 Besitzer):
Der G70 flimmert unter HQ nur wenn ich mich beim spielen darauf konzentriere, ansonsten bietet er aber durchweg geniale Features und ein satte Performance.
So und werft mir jetzt ja nicht vor das ich das alles nur schönreden will und BlaBlaBla, ich hab den Flimmer-Artikel nicht für umsonst mit übersetzt... :wink:
GrUß
quelle der info meine ich nicht des treibers...Meine Quellen muss ich nicht mal vor Gericht nennen.
Ohne das Flimmern ist der G70 weiterhin eine Karte mit einer sehr mäßigen AF-Implementierung: Man stellt 16x ein und bekommt in einigen Winkeln nur 2x. Angesichts der extremen Füllratenleistung ist das lächerlich. Auch bei weniger Füllrate wäre ein besseres AF der effizientere Weg zu mehr Qualität bei gleicher Leistung oder mehr Leistung bei vergleichbarer Qualität.
Wie bereits geschrieben: Wo war hier Dein Anspruch beim NV40 aka der GF6800 als jede Menge Leute darauf hinwiesen (und ja, dieses AF ist auch beschissen bzw. der Q-Modus genau so ein Zumutung) und von Dir nur Lobeshymnen auf den NV40 zu hören waren? Ich hätte mir damals auch ein wenig mehr vom jetzigen AF-Anspruch gewünscht ;)
Dein Artikel in allen Ehren, aber die Art mit der Du hier z.B. auf grestorns Postings antwortest ist IMO schon ein wenig (wenn auch wahrscheinlich nicht gewollt) arrogant bzw. kommt so rüber.
Frank1974
2005-08-30, 00:06:47
dein gewünschtes AF wird es nie wieder geben... oder glaubst du daran?
OMG das glaub ich nicht, ohne gutes AF wird es dann nie die perfekte Grafik geben,es sei denn es wird eine andere Methode erfunden,wenn du jetzt noch mal selber liesst was du da geschrieben hast,dann wirst du erkennen müssen,das es bei den Grafikkarten also anstatt Fortschritt,jetzt schon Rückschritt heisst :biggrin:
Die Grafikkartenindustrie wird so oder so an ihre Grenzen stoßen,ist alles nur eine Frage der Zeit...
Bei Autos wird auch nichts mehr an PS draufgelegt,da konzentriert man sich auch auf optische Weiterentwicklung,Sicherheit, geringer Benzinverbrauch usw...
Die Grafikkartenindustrie sollte mal endlich mit dem FPS Wahn aufhören,und die Karten so weiter entwickeln,das die BQ bei gleichen FPS steigt und nicht nur an der Speedschraube drehen.
Ich brauche keine Karte um damit anzugeben das ich xxxxxTausend Punkte in dem und dem Benchmark habe,ich bin auch nicht gerade mehr der Jüngste und werde wohl auch nicht mehr soviele Jahre Zocken,ich Begrüße aber jede Weiterentwicklung der Bildqualität und nicht die FPS Angeberei :wink:
Gruss
Frank
Wie bereits geschrieben: Wo war hier Dein Anspruch beim NV40 aka der GF6800 als jede Menge Leute darauf hinwiesen (und ja, dieses AF ist auch beschissen bzw. der Q-Modus genau so ein Zumutung) und von Dir nur Lobeshymnen auf den NV40 zu hören waren? Ich hätte mir damals auch ein wenig mehr vom jetzigen AF-Anspruch gewünscht ;)Hast du meinen NV40-Artikel gelesen?
Der Q-Modus hat mich lange Zeit überhaupt nicht interessiert. Das ist bedauerlich, klar, aber ich kann mich nicht um alles gleichzeitig kümmern, in HQ – für mich war es selbstverständlich, auf HQ zu schalten sofern nicht SSAA aktiv ist – gabs keine Probleme in meinen Spielen. Ich springe nicht gleich auf alles an, bei ATIs Skandal mit dem brilinearen Filter gabs z. B. auch keinen großen Anklage-Artikel auf 3dc.
In Dingen NV40-AF bencht Leo in Q, während ich mir Q überhaupt nicht ansehe – das hätte anders sein sollen, verzahnter. Leo und ich arbeiten aber relativ unabhängig, und ich bin hauptberuflich Student, nicht 3DCenter-Redakteur.
Dein Artikel in allen Ehren, aber die Art mit der Du hier z.B. auf grestorns Postings antwortest ist IMO schon ein wenig (wenn auch wahrscheinlich nicht gewollt) arrogant bzw. kommt so rüber.Vielleicht kommt es so rüber, vielleicht bin ich tatsächlich arrogant. Auf jeden Fall bin ich leicht genervt.
Frank1974
2005-08-30, 00:21:02
Vielleicht kommt es so rüber, vielleicht bin ich tatsächlich arrogant. Auf jeden Fall bin ich leicht genervt.
Ich verstehe das voll und ganz,wenn man hier gegen Wände reden muss :smile:,ich verstehe das du die Nutzer nur vor dem anhaltenden Abwärtstrend der BQ warnen willst...
Gruss
Frank
Knötchen
2005-08-30, 01:34:00
[...] Ich habe 1997(?) auch ne Voodoo1 gekauft, sogar direkt in den USA bevor man sie hier kaufen konnte. Und musste jede Menge Abstriche machen (war aber trotzdem total begeistert). Finanziell? BQ-technisch? Kann mich kaum noch an die Voodoo 1 und deren Konkurrenzprodukte erinnern.
Wenn es nichts besseres gibt, nimmt man das, was man haben kann. Nur absolute Sturköpfe verweigern sich ad infinitum nur aus Prinzip. Der einzige der davon einen nennenswerten Nachteil hat sind schließlich die Sturköpfe selbst. Bei Lebensnotwendigem sicher richtig, nur besteht bei lebensnotwendigen Produkten idR. ein polypoler Markt. Ansonsten: Warum sollte ich ein mangelhaftes high-end Luxusgut kaufen, dass ich nicht haben will? Der Konsum als Selbstzweck?
Das ist ein Fact of Life. Lasst uns also hoffen, dass die Medien (Internet und Presse) den Unterschied in der BQ so sehr herausstellt, dass es sich für die Hersteller lohnt, mit der BQ zu werben und so einen Vorteil aus besserer BQ rausschlagen zu können.
Mag naiv sein, aber ich bin mal einen Schritt weitergeganen und habe in den Boards in denen ich registriert bin Threads zu dem Thema angeleiert. Ich hoffe ich kann in meinem Rahmen dazu beitragen, dass einigen Menschen bewusster wird, wie sie sich durch NV veralbern lassen. Mir gefällt das nicht.
Grestorn
2005-08-30, 07:01:58
Zu 1. Es gibt hier einige, die eben nichts beitragen, außer zu sagen, daß das AF doch völlig in Ordnung sei. Und wenn jemand selbst sagt, er redet nichts schön, ist das keine objektive Meinung... :)Wen gibt es, der das G70-AF als völlig in Ordnung bezeichnet?
Zu 2. Es handelt sich um eine GRAFIKkarte, die bewerte ich anhand der Grafikqualität, die sie liefern kann (wozu das AF nunmal gehört). Sollte das falsch sein?!?!Richtig, und eben die, also die Grafikqualität, ist in ihrer Summer unerreicht. Mit keiner anderen Karte auf dem Markt kann ich - im Durchschnitt aller Spiele - eine bessere Grafik erzeugen.
Offensichtlich schneidet die 7800 da bei einigen Spielen nicht herausragend gut ab.Doch, das tut sie. Denn der LOD BIAS ist zwar eine Krücke, aber eine, die selbst mit direktem Standbildvergleich gerade noch sichtbar ist. Und da sie auch nur in wenigen Spielen notwendig ist, bleibt in der Summe der Vorteil der G70 absolut überwiegend.
Herausragend wird sie auch in diesen Spielen durch ihre Geschwindigkeit, durch TSSAA und ggf. durch SS.
Ich verstehe nicht, was daran so schwer zu verstehen ist.
Grestorn
2005-08-30, 07:06:08
Vielleicht kommt es so rüber, vielleicht bin ich tatsächlich arrogant. Auf jeden Fall bin ich leicht genervt.
Da bist Du nicht alleine. Ein wenig mehr Kompromissbereitschaft und die Nerven werden geschont.
Grestorn
2005-08-30, 07:15:54
Finanziell? BQ-technisch? Kann mich kaum noch an die Voodoo 1 und deren Konkurrenzprodukte erinnern.
Na, die Voodoo 1 bot heftigstes Flimmern (bei Kanten, da keinerlei AA möglich war, und noch viel schlimmer, wenn keine MipMaps verwendet wurden, was damals oft vorkam), Matschtexturen (mit für heute lächerlicher Auflösung, verstärkt wenn denn doch mal MipMaps verwendet wurden) und brach bei Szenen ein, über die man heute lachen würde.
Dennoch war sie für ihre Zeit genial. Sie war damals konkurrenzlos. Alternativen gab es lange Zeit keine.
Ähnlich ist es heute bei der G70, auch wenn sie keinen derart extremen Vorsprung wie damals die Voodoo 1 hat. Aber trotz aller Mängel ist sie die derzeit beste Karte... daran lässt sich zumindest bis zum Erscheinen des R520 nichts deuteln.
Bei Lebensnotwendigem sicher richtig, nur besteht bei lebensnotwendigen Produkten idR. ein polypoler Markt. Ansonsten: Warum sollte ich ein mangelhaftes high-end Luxusgut kaufen, dass ich nicht haben will? Der Konsum als Selbstzweck?Jedes Produkt, dass Du in Deinem Leben gekauft hast, hatte Mängel. Ich behaupte sogar, dass jedes ATI Produkt massive Mängel hat. Manchmal wichtigere manchmal weniger wichtige als die Mängel der jeweiligen Produkte der Konkurrenz.
Wenn es nach dem ginge, dürfte man nie etwas kaufen.
Mag naiv sein, aber ich bin mal einen Schritt weitergeganen und habe in den Boards in denen ich registriert bin Threads zu dem Thema angeleiert. Ich hoffe ich kann in meinem Rahmen dazu beitragen, dass einigen Menschen bewusster wird, wie sie sich durch NV veralbern lassen. Mir gefällt das nicht.Veralbert fühle ich mich erst, wenn sicher steht, dass dieses Flimmern von nV bewusst in Kauf genommen worden ist. Da ist aber weiterhin nicht das letzte Wort gesprochen.
Vorverurteilungen passieren leider viel zu oft. Mit einer der größten Mängel des Menschen :)
Mr. Lolman
2005-08-30, 09:25:01
Na, die Voodoo 1 bot heftigstes Flimmern (bei Kanten, da keinerlei AA möglich war, und noch viel schlimmer, wenn keine MipMaps verwendet wurden, was damals oft vorkam), Matschtexturen (mit für heute lächerlicher Auflösung, verstärkt wenn denn doch mal MipMaps verwendet wurden) und brach bei Szenen ein, über die man heute lachen würde.
Am Bitte?
Ich reg mich auch nicht auf, dass ein Ferrari immernoch nen Ottomotor hat und nicht nen Gravatiationsbeschleuniger.
Eine Voodoo1 bietet bei gleichen Einstellungen deutlich weniger Flimmern als jede GraKa die Momentan am Markt ist. Da hättest du dich eher über die Riva128 und deren hässlichenes 16bit aufregen können. AA war außerdem möglich, allerdings nur son Quincunxartiges Ding. Mipmaps hat sogar schon Quak1 verwendet. und die Auflösung war super, denn spiele wie Tombraider konnte man sogar mit 800x600 spielen (ok die meisten anderen nur in 640x480). Vgl. zu dem damals üblichen 8bit Software Rendering (@320x200) war das ein enormer Fortschritt.
Und brach bei Szenen ein, über die man heute lachen würde. Ja gehts noch? Das Ding ist bald 10 Jahre alt und war damals lange Zeit unerreicht. Die Voodoo Graphics war kein Kaufgrund aufgrund mangelnder Alternativen sondern aufgrund ihrer (für damalige Zeit) brachiale Performance*. Ich möcht garnicht wissen wie sehr man in 10 Jahren über NVs monströse SLI Lösungen lachen wird.
Ähnlich ist es heute bei der G70, auch wenn sie keinen derart extremen Vorsprung wie damals die Voodoo 1 hat. Aber trotz aller Mängel ist sie die derzeit beste Karte... daran lässt sich zumindest bis zum Erscheinen des R520 nichts deuteln.
Aber sicher nicht. Eine ca gleichflotte x800xt ist ~100€ günstiger als eine 7800GT.
Jedes Produkt, dass Du in Deinem Leben gekauft hast, hatte Mängel. Ich behaupte sogar, dass jedes ATI Produkt massive Mängel hat. Manchmal wichtigere manchmal weniger wichtige als die Mängel der jeweiligen Produkte der Konkurrenz. Wenn es nach dem ginge, dürfte man nie etwas kaufen.
Meine ATi Produkte hatten keine massiven Mängel. Ja nichteinaml das 16xbiAF des R200 war ein massiver Mangel, da ich darübe informiert war, als ich das Teil kaufte -> Demnach kein Mangel einer Eigenschaft die ich vom Produkt erwartet hätte.
Die fand ich eher noch bei NV. Unscharfe Overlays. Desktops die sich aufblasen. Kaputter Videoprozessor, framedrops die ich nun beim DivxCapturen hab und mit der 9700p nicht gehabt hab. Oder die fehlende Möglichkeit mein 13m langes Chinchkabel am TV Out zu hängen. Aber auch fehlende Leistung:
Die Performance meiner 6800GT ist mangelhaft. Ich erwartete aufgrund von diversen Benchmarks in denen sie mit Ati Karten vergleichen wird, eine gewisse Leistung. Die Leistung erreicht sie aber nicht, da man erst auf HQ stellen muss, damit das Flimmern sich ca. auf Ati Level befindet. -> Das kostet aber Performance -> Im Vgl zu den Benchmarks eine mangelhafte Leistung.
Das Einzige was ich bei ATI als mangelhaft bezeichnen würde, ist die schwache Performance zum Realese von Doom³.
Veralbert fühle ich mich erst, wenn sicher steht, dass dieses Flimmern von nV bewusst in Kauf genommen worden ist. Da ist aber weiterhin nicht das letzte Wort gesprochen.
Wie darf man das deuten? Denkst du, es besteht tatsächlich die Möglichkeit, dass sich das Flimmern aufgrund eines Bugs eingeschlichen hat, und keiner hats bemerkt. Sry, das zu denken, wär außerordentlich naiv.
Vorverurteilungen passieren leider viel zu oft. Mit einer der größten Mängel des Menschen :)
Das ist eine Firma. Mir ists scheissegal obs sich da vll. ein armer Technikerfuzzi kränken muss, weil ich im Unrecht tu, bezügl des Flimmerns der G70 Reihe. Die wollen nicht nur unser Geld, sondern damit auch maximalen Gewinn erzielen. Wenn man es schafft sein Produkt so zu vermarkten, dass der Kunde dem Produkt Eigenschaften andichtet die es garnicht besitzt (wie z.B. eine gewisse Performance) kann man den erzielten Gewinn vergrößeren. Man zieht also mehr Leuten das Geld aus der Tasche. Leuten, die sich das Produkt ansonsten vielleicht nicht gekauft hätten. Sowas fällt eindeutig unter Betrug.
Ich versteh immernoch nicht was man da schönreden will.
derominöseGast
2005-08-30, 09:35:20
Meine Quellen muss ich nicht mal vor Gericht nennen.
schade... you are disqualified! der war ganz arm... ich dachte bisher es geht dir um das wohl der user... dir gehts nun ums ego, das brauchen wir nicht.
ja nun ist die nicht mehr kaufbare X800XT schon so schnell wie eine 7800GT und auch noch 100euro billiger, natürlich lolman... ausser in farcry gewinnt die X800 (selbst die X850XT) keinen blumentopf gegen eine 7800...
es wird/ist lächerlich hier. ich melde mich erst wieder wenn der Wundertreiber verfügbar ist.
Mr. Lolman
2005-08-30, 09:40:44
ja nun ist die nicht mehr kaufbare X800XT schon so schnell wie eine 7800GT und auch noch 100euro billiger, natürlich lolman...
X800XT: http://www.alternate.de/html/shop/productDetails.html?artno=JAXA90&
Füllrate: 16x500MHz = 8 Mio Pixel/s.
Speicherbandbreite: 32x500x2= 32GByte/s.
7800GT:
Füllrate: 20x400MHz = 8 Mio Pixel/s.
Speicherbandbreite: 32x500x2= 32GByte/s.
derominöseGast
2005-08-30, 09:50:00
X800XT: http://www.alternate.de/html/shop/productDetails.html?artno=JAXA90&
Füllrate: 16x500MHz = 8 Mio Pixel/s.
Speicherbandbreite: 32x500x2= 32GByte/s.
7800GT:
Füllrate: 20x400MHz = 8 Mio Pixel/s.
Speicherbandbreite: 32x500x2= 32GByte/s.
lagerabverkäufe kann es noch geben... tut ja nichts zur sache.
und der rest... interessiert keinen normalen menschen... sie ist langsamer, viel langsamer, egal wieviel mio pixel und GB bandbreite...
Mr. Lolman
2005-08-30, 09:51:46
und der rest... interessiert keinen normalen menschen... sie ist langsamer, viel langsamer, egal wieviel mio pixel und GB bandbreite...
Und genau das denk ich nicht. Warten wir mal ein paar HQ Benchmarks ab...
Grestorn
2005-08-30, 10:05:51
Eine Voodoo1 bietet bei gleichen Einstellungen deutlich weniger Flimmern als jede GraKa die Momentan am Markt ist.
Falsch. Gleiche Einstellungen: Kein AA, kein AF, Bilineares Filtern (bzw. trilineares "Dithern"). Nichts anderes ist auf einer Voodoo möglich.
Diese Einstellungen flimmern auf einer nVidia kein bisschen mehr als auf einer Voodoo1.
AA war außerdem möglich, allerdings nur son Quincunxartiges Ding.Nein. Die Voodoo1 konnte keinerlei FullScreen AA. Lediglich eine Art Edge-AA war möglich (wurde in Tomb Raider 1 genutzt).
Mipmaps hat sogar schon Quak1 verwendet. und die Auflösung war super, denn spiele wie Tombraider konnte man sogar mit 800x600 spielen (ok die meisten anderen nur in 640x480). Vgl. zu dem damals üblichen 8bit Software Rendering (@320x200) war das ein enormer Fortschritt. Sicher. Und?
Und brach bei Szenen ein, über die man heute lachen würde. Ja gehts noch? Das Ding ist bald 10 Jahre alt und damals lange Zeit unerreicht. Die Voodo Graphicswar kein Kaufgrund aufgrnud mangelnder Alternativer sondern aufrund ihrer (für damalige Zeit) bachiale Performance. Ich möcht garnicht wissen wie sehr man in 10 Jahren über NVs monströse SLI Lösungen lachen wird. Sie war damals unerreicht. Habe ich auch geschrieben, wenn Du Dir mal die Mühe gemacht hättest, zu lesen, was ich schrieb.
Dennoch hatte sie brutale Mängel. Z.B. der Post-Filter, der das gesamte Bild blurrte (und sich erst mit der Voodoo3 etwas verbesserte). Sicher, dieser Filter war damals wegen der 16bit und dem Dithering notwendig. Aber dennoch eine Krücke.
Ich habe die V1 lediglich als Beispiel genommen, dass ein Produkt trotz vieler Mängel immer noch das beste seiner Art zu seiner Zeit sein kann. Und damit den Bogen zur G70 geschlossen. Ok?
Aber sicher nicht. Eine ca gleichflotte x800xt ist ~100€ günstiger als eine 7800GT. Warum holst Du Dir dann keine x800xt?
Mir bietet eine x800XT zu wenig. Viel zu wenig. Dabei ist SM 3 nur einer von vielen Aspekten.
Meine ATi Produkte hatten keine massiven Mängel. Ja nichteinaml das 16xbiAF des R200 war ein massiver Mangel, da ich darübe informiert war, als ich das Teil kaufte -> Demnach kein Mangel einer Eigenschaft die ich vom Produkt erwartet hätte.Oh wei, natürlich haben alle ATI Karten, genau wie alle nV Karten, massive Mängel.
Nur angefangen beim schlechten AF (das mit Ausnahme der G70 bei ATI immer schlechter als bei nV war), fehlendem SS, Treiberbugs in OGL usw. usf.
Aus zukünftiger Sicht kommt sicher noch jede Menge hinzu. Das nennt man Fortschritt.
Auf den Aspekt ob Dir ein Mangel beim Kauf bekannt war oder nicht, habe ich nicht abgezielt. Wenn man auf nV sauer ist, weil das AF nicht korrekt funktioniert und das nicht behoben werden kann (wenn das so sein sollte), oder weil bei der NV40 der Videodecoder nicht korrekt funktioniert, so ist das sicherlich mehr als berechtigt. Aber ich habe auch ATI nie in einer Bröschüre schreiben sehen "Wir bieten sehr effizientes aber auch winkelabhängiges AF!". Auch das hast Du erst durch die Community erfahren. Sag also nicht, dass ATI in dieser Hinsicht auch nur einen Deut besser wäre.
Die fand ich eher noch bei NV. Unscharfe Overlays.Sicher hat nV einige Mängel, hier und da auch welche, die ATI nicht hat.
Das mit den Overlays kann ich aber nicht nachvollziehen.
Im Gegenteil, als Karte für einen Meidenrechner (mit TV Anschluss) eignet sich ne NV besser als ne ATI dank der sinnvolleren Einstellungsmöglichkeiten.
Ich habe es beispielsweise nicht geschafft, mit einer ATI ein Overlay, dass im Fenster auf dem Maindisplay läuft, gleichzeitig in Full-Screen auf den zweiten Monitor (TV-Anschluss) zu bringen, ohne gleichzeitig den Desktop auf beide Monitore auszuweiten (nur dann macht das der ATI-Treiber automatisch, ohne Rückmeldung oder Grund).
Bei nV kann ich genau einstellen, ob und auf welchem Display ein Overlay im FullScreen erscheint.
Das nur als Beispiel über das ich letzte Woche gestolpert bin.
Die Performance meiner 6800GT ist mangelhaft. Ich erwartete aufgrund von diversen Benchmarks in denen sie mit Ati Karten vergleichen wird, eine gewisse Leistung. Die Leistung erreicht sie aber nicht, da man erst auf HQ stellen muss, damit das Flimmern sich ca. auf Ati Level befindet. -> Das kostet aber Performance -> Im Vgl zu den Benchmarks eine mangelhafte Leistung.Also definiert sich für Dich die Leistung nur alleine auf Basis der Balkenlänge?!
Wie darf man das deuten? Denkst du, es besteht tatsächlich die Möglichkeit, dass sich das Flimmern aufgrund eines Bugs eingeschlichen hat, und keiner hats bemerkt. Sry, das zu denken, wär außerordentlich naiv.Es ist nicht sehr wahrscheinlich, dass es ein Bug ist. Aber für möglich halte ich es durchaus.
Zumal es Demirugs Aussage war, dass der G70 keine Samples beim AF spart. Zieht man das in Betracht, halte ich es durchaus für möglich, dass das ganze die Folge eines Versuchs ist, die Samples effizient zu ermitteln und dabei ein Fehler unterlaufen ist.
Wenn dem der Fall sein sollte, dann wirft das ein schlechtes Licht auf die Qualitätskontrolle bei nV, keine Frage. Aber ausschließen... dazu bin ich zu lange in der SW-Entwicklung als dass ich irgendeine Art von unbeabsichtigtem Fehler ausschließen könnte. Zumal man das ganze ja nun wirklich nicht auf den ersten Blick sieht.
Das ist eine Firma. Mir ists scheissegal obs sich da vll. ein armer Technikerfuzzi kränken muss, weil ich im Unrecht tu, bezügl des Flimmerns der G70 Reihe. Die wollen nicht nur unser Geld, sondern damit auch maximalen Gewinn erzielen.
"Die"? Du gehörst auch zu den Leuten, die von "The Man" reden, oder?
Das an beiden Seiten letztlich nur Menschen sitzen, in diesem Falle tatsächlich Techniker, also Freaks wie Du und ich, muss man ja nicht sehen.
Natürlich spielt Marketing eine große Rolle. Natürlich ist den Aktionären und den Marketingfuzzies nur unser Geld wichtig und nicht, ob wir tolle Bilder und fehlerfreies AF kriegen.
Aber Du wirst auf den anderen Seite auch jeden Euro sparen, wenn Du kannst. Dann verteufle nicht etwas auf der einen Seite, wenn Du genau weißt, dass Du nicht anders handeln würdest. Menschen sind nun mal keine Samariter.
Ich versteh immernoch nicht was man da schönreden will.Was genau rede ich eigentlich schön? Ihr macht eine Katastrophe aus einem Mangel. Wir relativieren den Mangel.
Ihr seid in Eurer Argumentation und in Eurem Stanpunkt viel viel extremer als wir (mbee, ominöserGast, Blair, Ulukay usw.). Keiner von uns hat jemals nV gelobt für den Mangel oder ihn gar als Vorteil (mehr Speed!) hingestellt.
Ihr seid die Extremisten in dieser Diskussion, nicht wir.
Grestorn
2005-08-30, 10:10:20
Und genau das denk ich nicht. Warten wir mal ein paar HQ Benchmarks ab...
Wenn ihr das AF als unsicheren Faktor beim Benchen ausschalten wollt, dann bencht doch ohne AF, dafür aber mit 4xMS und irsinnig hohen Auflösungen (2048x1536 oder noch höher).
Bandbreite und Füllrate ist schließlich nicht das allein glücklich machende.
Haben nicht alle frohlockt, wie der R300 trotz rechnerisch kaum überlegener Bandbreite auf einmal ein superschnelles AF hingelegt hat?
Quasar
2005-08-30, 10:15:03
Na, die Voodoo 1 bot heftigstes Flimmern (bei Kanten, da keinerlei AA möglich war, und noch viel schlimmer, wenn keine MipMaps verwendet wurden, was damals oft vorkam), Matschtexturen (mit für heute lächerlicher Auflösung, verstärkt wenn denn doch mal MipMaps verwendet wurden) und brach bei Szenen ein, über die man heute lachen würde.
Dennoch war sie für ihre Zeit genial. Sie war damals konkurrenzlos. Alternativen gab es lange Zeit keine.
Ähnlich ist es heute bei der G70, auch wenn sie keinen derart extremen Vorsprung wie damals die Voodoo 1 hat. [...]
Kleiner Unterschied: Die Voodoo1 hat in allen ihren Features ihre "Vorgängerkarte" übertroffen. Dem G70 gelingt das bislang in Sachen AF nicht. Man muss also neben Vorteilen auch Abstriche in Kauf nehmen.
Mit fällt da ein (fiktiver) Ferrari F51 mit Slicks ein. Auf trockener, griffiger Strecke ein noch besseres Fahrvergnügen, als im Vorgängermodell F50. Sobald es aber nass und rutschig wird (AF mit anspruchsvollen Texturen), muss man im Vergleich zum Vorgänger richtig langsam fahren (Supersampling), damit man nicht von der Straße fliegt (Flimmern, Grieseln, Shimmering).
Hoffentlich wirkt der neue Reifensatz (Treiber) so wie erhofft.
Grestorn
2005-08-30, 10:24:28
Kleiner Unterschied: Die Voodoo1 hat in allen ihren Features ihre "Vorgängerkarte" übertroffen. Dem G70 gelingt das bislang in Sachen AF nicht. Man muss also neben Vorteilen auch Abstriche in Kauf nehmen.Abstriche muss man machen, stimmt. Hat auch niemand bestritten.
Mr. Lolman
2005-08-30, 11:47:48
Falsch. Gleiche Einstellungen: Kein AA, kein AF, Bilineares Filtern (bzw. trilineares "Dithern"). Nichts anderes ist auf einer Voodoo möglich.
Diese Einstellungen flimmern auf einer nVidia kein bisschen mehr als auf einer Voodoo1.Bei 16bit schon ;)
Dennoch hatte sie brutale Mängel. Z.B. der Post-Filter, der das gesamte Bild blurrte (und sich erst mit der Voodoo3 etwas verbesserte). Sicher, dieser Filter war damals wegen der 16bit und dem Dithering notwendig. Aber dennoch eine Krücke. Der Postfilter stellt im vgl. zum flimmrigen 16bit die eindeutig bessere Alternative dar: Klick (http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2938323&postcount=70) (5.5MB pngs)
Warum holst Du Dir dann keine x800xt?Gute Frage. Vll. mach ich das sagar. Eigentlich wollt ich bis Ende des Jahres warten, bevor ne neue GraKa in den Rechner kommt.
Oh wei, natürlich haben alle ATI Karten, genau wie alle nV Karten, massive Mängel.
Nur angefangen beim schlechten AF (das mit Ausnahme der G70 bei ATI immer schlechter als bei nV war), fehlendem SS, Treiberbugs in OGL usw. usf.
Aus zukünftiger Sicht kommt sicher noch jede Menge hinzu. Das nennt man Fortschritt. Das AF war nie besonders toll, und ist qualitativ schon sehr grenzwertig. Aber es ist brauchbar. Dass man damals NV25 4xAA/8xAF gegen R300 4xAA/16xAF gebencht hat war nicht schön, jedoch hatte Ati aufgrund vom 4xAA die BQ Vorteile auf seiner Seite. Konsequenterweise hätte ma natürlich nur 2xAA ohne AF miteinander vergleichen dürfen. OGSSAA ist furchbar ineffzient. Das geht mir nicht besonders ab. Und Treiberbugs haben beide IHVs...
Auf den Aspekt ob Dir ein Mangel beim Kauf bekannt war oder nicht, habe ich nicht abgezielt. Wenn man auf nV sauer ist, weil das AF nicht korrekt funktioniert und das nicht behoben werden kann (wenn das so sein sollte), oder weil bei der NV40 der Videodecoder nicht korrekt funktioniert, so ist das sicherlich mehr als berechtigt. Das erwarte ich auch garnicht. Ich hätte mir nur gewünscht, dass man vor den G70 Reviews auf vglbare Darstellungsqualität geachtet hätte.
Aber ich habe auch ATI nie in einer Bröschüre schreiben sehen "Wir bieten sehr effizientes aber auch winkelabhängiges AF!". Auch das hast Du erst durch die Community erfahren. Sag also nicht, dass ATI in dieser Hinsicht auch nur einen Deut besser wäre.Das hab ich auch durch Testberichte erfahren. AF Schwächen die sich mit AF Blumen sichtbar machen lassen, finden relativ problemlos den Weg in die Reviews.
Ich habe es beispielsweise nicht geschafft, mit einer ATI ein Overlay, dass im Fenster auf dem Maindisplay läuft, gleichzeitig in Full-Screen auf den zweiten Monitor (TV-Anschluss) zu bringen, ohne gleichzeitig den Desktop auf beide Monitore auszuweiten (nur dann macht das der ATI-Treiber automatisch, ohne Rückmeldung oder Grund). Versteh ich nicht. Was für ein Bild soll dann der 2. monitor zeigen, wenn z.B. kein Overlay aktiv ist?
Also definiert sich für Dich die Leistung nur alleine auf Basis der Balkenlänge?!
Nö, aber die Balkenlänge ist ein guter Indikator für die Spielbarkeit.
Zumal es Demirugs Aussage war, dass der G70 keine Samples beim AF spart. Zieht man das in Betracht, halte ich es durchaus für möglich, dass das ganze die Folge eines Versuchs ist, die Samples effizient zu ermitteln und dabei ein Fehler unterlaufen ist.Hoffen wirs, dass sich das Ganze so auflöst.
Wenn dem der Fall sein sollte, dann wirft das ein schlechtes Licht auf die Qualitätskontrolle bei nV, keine Frage. Aber ausschließen... dazu bin ich zu lange in der SW-Entwicklung als dass ich irgendeine Art von unbeabsichtigtem Fehler ausschließen könnte. Zumal man das ganze ja nun wirklich nicht auf den ersten Blick sieht. Kommt draufan in welcher Auflösung/Spielszene.
"Die"? Du gehörst auch zu den Leuten, die von "The Man" reden, oder?
Wie meinen?
Das an beiden Seiten letztlich nur Menschen sitzen, in diesem Falle tatsächlich Techniker, also Freaks wie Du und ich, muss man ja nicht sehen. Deswegen hab ich auch nie den Technikern den schwarzen Peter zugeschoben. Aber NV tritt als Firma auf. Und mit der Taktik der Firma bin ich nicht einverstanden. Selbst wenns ne Möglichkeit gibt die Samples korrekt zu verrechnen, ohne das man Performance zur jetzige Situation einbüsst, dann soll man dieses SuperAF erst dann anbieten wenns wirklich funktioniert. Denn solangs nicht funktioniert ists kein verwertbare Vorteil für Kundern.
Und wenn dann die Reviewer in ihrer Blindheit dem G70 tw sogar noch ein besseres AF (als NV40 und R420) andichten, so müsste es die Aufgabe eines jeden informierten Menschen sein, die Tester auf diesen Missstand hinzuweisen.
Natürlich spielt Marketing eine große Rolle. Natürlich ist den Aktionären und den Marketingfuzzies nur unser Geld wichtig und nicht, ob wir tolle Bilder und fehlerfreies AF kriegen.
Aber Du wirst auf den anderen Seite auch jeden Euro sparen, wenn Du kannst. Dann verteufle nicht etwas auf der einen Seite, wenn Du genau weißt, dass Du nicht anders handeln würdest. Menschen sind nun mal keine Samariter.Ich vertrete nunmal aber hauptsächlich die Interessen meiner Seite. Und da will ich maximalen Gegenwert fürs Geld. Sollte sich das AF Problem in Luft auflösen - ich würde es mir wünschen, dann wär die ganze Aufregung natürlich nicht notwendig. Aber andererseits wärs ja nicht das erste Mal, dass sich ein IHV durch vermindete Darstellungsqualität fps erkauft.
Was genau rede ich eigentlich schön? Ihr macht eine Katastrophe aus einem Mangel. Wir relativieren den Mangel. Ihr? Wir? Sind wir nicht auf der selben Seite?
Ihr seid in Eurer Argumentation und in Eurem Stanpunkt viel viel extremer als wir (mbee, ominöserGast, Blair, Ulukay usw.). Keiner von uns hat jemals nV gelobt für den Mangel oder ihn gar als Vorteil (mehr Speed!) hingestellt.
Ihr seid die Extremisten in dieser Diskussion, nicht wir.'Ihr' redet das Problem klein. Oder genauergesagt gibts 2 Probleme:
1. das (momentan) minderwertige AF.
2. verfälschte Benchmarks
Ich echauffiere mich nur über Punkt 2. Ob das G70 AF nun völlig ok, minderwertig oder gar indiskutabel schlecht ist, soll jeder für sich selbst entscheiden, und ist von der Anwenderseite her auch nur sehr subjektiv beurteilbar.
Punkt 2 ist aber ein Faktum, dass nicht kleingeredet werden darf!
Knötchen
2005-08-30, 11:55:59
Vorverurteilungen passieren leider viel zu oft. Mit einer der größten Mängel des Menschen :)
Mag sein. Aber gehen wir einmal davon aus, dass Nvidia ein grosser Konzern ist, dessen einziges Unternehmensziel es ist Geld zu machen, mit möglichst geringem Aufwand, bzw. bei gegebenen Aufwand möglichst viel Profit zu erwirtschaften. Dass es einem Unternehmen wie Nvidia völlig egal ist, ob der Kunde mit dem erworbenen Produkt glücklich, zufrieden, oder eher unzufrieden ist _solange_ er nur weitere bzw. Nachfolgeprodukt kauft, ist ebenfalls Konsens. NVidia hat den Vorteil dass sie sich mit ATI den Markt aufteilen, wir also im besten Fall ein Oligopol haben. Will der Kunde eine 3D-PC-Spielegrafikkarte, muss er derzeit einen der beiden Hersteller wählen, eine Alternative gibt es nicht. Das bringt die beiden Unternehmen in die sehr konfortable Postition, dass sie im Prinzip mit dem Kunden fast machen können, was sie wollen. Entweder der Kunde lässt sich das gefallen, oder er gib sein Hobby auf. Der Kunde kann nicht aus zB. 150 anderen Konkurrenten auswählen. Soweit noch keine Vorverurteilung, sondern Wirtschaftbasiswissen.
Und ob wir nun über 95%igen O-Saft reden, der eigentlich 100% Fruchtsaftanteil haben sollte, über 60/10 Taktung bei der Abrechnung von Telefongesprächen, die in Wirklichkeit 58/10 Taktungen sind, oder ob wir über Placebosettings im Treibermenü von NVidia reden, die zufällig weniger Qualität als eingestellt, dafür aber den längeren Balken liefern, ist völlig unerheblich. Und auch die AF Optimierungen, die diesen defekten AF der G70 hervorbringen gehören da mit hinein.
Niemand muss Nvidia beweisen, dass die "Treiberbugs" echte Bugs sind. Ebenfalls besteht Konsens, dass kaputtoptimiertes AF die fps-Balken verlängert. Empirisch gesehen _kann_ das kein Zufall sein, nicht bei einem Konzern wie Nvidia. Und selbst wenn jetzt ein Treiber auftauchen würde, der das Flimmern komplett unterbindet bei 0% fps-Verlangsamung, ja ggf. sogar verbunden mit einem Geschwindigkeitszuwachs, durch Tricks im LOD-BIAS in Verbindung mit sonst einem Voodoo, behaupte ich einfach, dass NVidia zum planmässigen Launch noch keine geschickte Möglichkeit gefunden hatte, das AF-Problem zu verstecken, ggf. mit dem neuen Treiber schon.
Das ist die Realität. Der Kunde ist nicht König, der durch Produktqualität langfristig gebunden wird. Was ist langfristig heute? Der Kunde ist der Feind. Er wird durch windiges und aggressives Marketing erobert. Er soll Produkte erwerben die mehr Schein als Sein zu bieten haben - schnell konsumiert und hopp, auf zum nächsten Produkt.
Deine edle Haltung zum Vorverurteilen in diesem Punkt in allen Ehren, aber sie ist naiv und geht an der Realität vorbei.
Genau das habe ich mit meinen - zugegebenermassen recht zynischem - Posting (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=241557&page=61&pp=20) einige Seiten früher versucht, deutlich zu machen
schade... you are disqualified! der war ganz arm... ich dachte bisher es geht dir um das wohl der user... dir gehts nun ums ego, das brauchen wir nicht.Du erwartest nicht im Ernst, dass ich Quellen nenne, wenn ich Dinge zugesteckt bekomme.
es wird/ist lächerlich hier. ich melde mich erst wieder wenn der Wundertreiber verfügbar ist.Ein Treiber der einen Bug fixen soll doch kein Wundertreiber, sondern wäre ein selbstverständliches Bugfix. Die winkelabhängige Senkung des AF-Maximalgrades würde ja in jedem Fall bleiben – 16x eingestellt, teilweise nur 2x bekommen – ist das einem Highend-Flaggschiff angemessen?
Da bist Du nicht alleine. Ein wenig mehr Kompromissbereitschaft und die Nerven werden geschont.Bei einem AF das flimmert kann man von mir keine Kompromissbereitschaft erwarten. Das muss weg.
Nach wie vor sehe ich das winkelabhängige Muster als nur bedingt taugliche Minimallösung, wer rundum schöne Texturen haben möchte, braucht ein besseres AF als ein G70/flimmerfrei bzw. NV40 HQ oder eine beliebige Radeon bieten kann.
Aber sicher nicht. Eine ca gleichflotte x800xt ist ~100€ günstiger als eine 7800GT. Was ist bei dir denn "Ca. gleich flott"?
Mr. Lolman
2005-08-30, 13:06:55
Was ist bei dir denn "Ca. gleich flott"?
Im Durchschnitt ähnliche Performance...
Falsch. Gleiche Einstellungen: Kein AA, kein AF, Bilineares Filtern (bzw. trilineares "Dithern"). Nichts anderes ist auf einer Voodoo möglich.
Diese Einstellungen flimmern auf einer nVidia kein bisschen mehr als auf einer Voodoo1. Hat die Nvidia einen Postfilter?
Dennoch hatte sie brutale Mängel. Z.B. der Post-Filter, der das gesamte Bild blurrte (und sich erst mit der Voodoo3 etwas verbesserte). Was denn nun, war das Bild "blurry" oder flimmerte es genau so wie auf einer NV? Der Postfilter wurde schon mit der Banshee verbessert, nicht erst mit der Voodoo3.
Sicher, dieser Filter war damals wegen der 16bit und dem Dithering notwendig. Aber dennoch eine Krücke. Notwendig war er nicht, ob das Bild nun besser wurde, ist nicht so einfach zu sagen. In bestimmten Situationen konnte der Postfilter hilfreich sein, zumindest die 2x2-Version, da die 4x1-Version ja Streifen ins Bild gehauen hat.
Ich habe die V1 lediglich als Beispiel genommen, dass ein Produkt trotz vieler Mängel immer noch das beste seiner Art zu seiner Zeit sein kann. Und damit den Bogen zur G70 geschlossen. Ok?Du verteidigst fortlaufend den G70-Kauf als den Kauf des besten erhältlichen Produktes. Fast so, als müsstest du es dir immer wieder aufs neue klar machen, dass unsere Haltung, dass das G70-AF inakzeptabel ist, nicht zählt, und deine Kaufentscheidung richtig gewesen sei.
Mir bietet eine x800XT zu wenig. Viel zu wenig. Dabei ist SM 3 nur einer von vielen Aspekten.Allerdings, R420 und R480 sind beide technisch vollkommen überholt. Nur SM2, keine HDR-Alphablender, keine HDR-Texturfilterung.
Oh wei, natürlich haben alle ATI Karten, genau wie alle nV Karten, massive Mängel. Das ist zu pauschal gesagt. Eine vernünftige 3D-Szene sollte z. B. Alphatesting nicht so einsetzen, dass man deshalb Flimmern sieht. Wird es doch getan ist dies die Schuld des Spiele-Entwicklers. Bei vernünftiger Programmierung zeigt die ATI mit der Aktivierung von BQ-Maßnahmen (AA/AF) kein neues Flimern. Der G70 tut das beim AF. Das ein Mangel von einem ganz anderen Kaliber. Bei einem Highend-Produkt erst recht eine Unverschämtheit. Anstelle dass du dich darüber laut beschwerst, beweist du ein ums andere mal, wie alternativlos der G70 für dich sei.
Aus zukünftiger Sicht kommt sicher noch jede Menge hinzu. Das nennt man Fortschritt. In Dingen AF bietet NV seit einiger Zeit nur noch Rückschritt.
Aber Du wirst auf den anderen Seite auch jeden Euro sparen, wenn Du kannst. Dann verteufle nicht etwas auf der einen Seite, wenn Du genau weißt, dass Du nicht anders handeln würdest. Menschen sind nun mal keine Samariter.Wer redet jetzt von "the man"?
Was genau rede ich eigentlich schön? Ihr macht eine Katastrophe aus einem Mangel. Wir relativieren den Mangel.
Ihr seid in Eurer Argumentation und in Eurem Stanpunkt viel viel extremer als wir (mbee, ominöserGast, Blair, Ulukay usw.). Keiner von uns hat jemals nV gelobt für den Mangel oder ihn gar als Vorteil (mehr Speed!) hingestellt.
Ihr seid die Extremisten in dieser Diskussion, nicht wir.Du redest den G70 schön. Was NV beim NV40 an AF anbietet ist einem SM3-Chip unwürdig, beim G70 flimmert es nun auch noch in HQ – für dich nur ein Mangel, der angesichts der angeblichen Alternativlosigkeit aber nicht groß ins Gewicht falle. NV kann froh sein, dass es unter den G70-Käufern so viele so anspruchslose Kunden gibt.
Im Durchschnitt ähnliche Performance...Was ist bei dir "ähnlich"?
Mr. Lolman
2005-08-30, 13:18:00
Was ist bei dir "ähnlich"?
Ein Unterschied von nicht mehr als 10%
Mr. Lolman
2005-08-30, 13:24:31
Notwendig war er nicht, ob das Bild nun besser wurde, ist nicht so einfach zu sagen. In bestimmten Situationen konnte der Postfilter hilfreich sein, zumindest die 2x2-Version, da die 4x1-Version ja Streifen ins Bild gehauen hat.
Streifen wos sonst Gebrösel gäbe. Auf jeden Fall wurde das Bild deutlich ruhiger, da sich 16bit Dithering ja (klarerweise) nix um die temporale Komponente schert. Deswegen kommt 16bit Dithering an Standbildern nicht so schlimm rüber wie bei bewegten Szenen.
derominöseGast
2005-08-30, 13:48:22
Du erwartest nicht im Ernst, dass ich Quellen nenne, wenn ich Dinge zugesteckt bekomme.
Ein Treiber der einen Bug fixen soll doch kein Wundertreiber, sondern wäre ein selbstverständliches Bugfix. Die winkelabhängige Senkung des AF-Maximalgrades würde ja in jedem Fall bleiben – 16x eingestellt, teilweise nur 2x bekommen – ist das einem Highend-Flaggschiff angemessen?
dann las deine zugesteckten dinge dort wo sie sind... was soll das bitte bringen? kommt der CIA wenn du uns sagst was abgeht, werden copyrightstrafen fällig? es geht um einen simplen treiber und nicht um die weltbedrohende Nvidia-AF-Katastrophe...
Wer uns helfen möchte und nicht in selbstgefallen schwelgt, gibt uns G70 User diesen Treiber... wer sollte ihn testen wenn nicht wir GTX Besitzer, AFths?
eXodia
2005-08-30, 13:49:44
Den G70 bewerte ich nicht rein nach AF – aber AF ist für mich ein so wichtiges Feature, dass eine Karte ohne anständiges AF nichts taugt, egal wie gut der Rest ist.
Wenn du den G70 nicht nur nach dem AF bewertest (auch wenn es ein wichtiges Feature für dich ist) warum taugt der G70 dann nichts?
Dazu meine wiederholte persöhnliche Meinung (man beachte ich bin kein G70 Besitzer):
Der G70 flimmert unter HQ nur wenn ich mich beim spielen darauf konzentriere, ansonsten bietet er aber durchweg geniale Features und ein satte Performance.
So und werft mir jetzt ja nicht vor das ich das alles nur schönreden will und BlaBlaBla, ich hab den Flimmer-Artikel nicht für umsonst mit übersetzt... :wink:
GrUß
P.S. 2. Versuch...
derominöseGast
2005-08-30, 13:53:21
bringt nix... die jungs reden mittlerweile lieber über verstaubte Voodoo's... :biggrin:
ich suche mir mittlerweile einen wolf auf verschiedenen ftp's nach diesem neuen treiber... würde uns definitiv mehr bringen als das geschwafel... :P
Lightning
2005-08-30, 15:02:07
Wenn du den G70 nicht nur nach dem AF bewertest (auch wenn es ein wichtiges Feature für dich ist) warum taugt der G70 dann nichts?
Ich bin zwar nicht aths, aber ich erlaube mir mal meine Antwort darauf zu geben: AF ist zwar nicht das einzige wichtige Feature, aber dennoch so essentiell, dass eine verkorkste Implementation dessen ausreicht, die Bildqualität unter einen gewissen Standard zu senken.
Wenn also ein für die allgemeine BQ wichtiges Feature nicht oder nicht ausreichend vorhanden ist, sind sämtliche anderen tollen Features im gleichen Zug nutzlos - denn dadurch wird die BQ und damit auch der Grafikchip auch nicht mehr brauchbar.
Wenn man natürlich in diesem speziellen Fall mit dem G70 nicht der Meinung ist, dass das AF wirklich sichtbar minderwertig ist, wird man diesen Chip auch nicht als unbrauchbar bezeichnen. Das ist wohl ausschließlich eine Sache des persönlichen Empfindens.
Was sich aber ungeachtet dessen nicht abstreiten lässt: Eine stetige Senkung der BQ seitens der Hersteller kann nicht im Sinne des Erfinders sein. Was alle wollen ist eine möglichst "realistische" Grafik, dazu gehören aber eben nicht nur tolle Effekte sondern ebenso ein ruhiges, artefaktfreies Bild. Schraubt man die Filterqualität nach unten, so ist das dem eigentlich Ziel abträglich und daher kontrapruduktiv. Und selbst wenn man die Eingriffe als einzelne vielleicht noch nicht als störend empfindet, summiert sich das ganze mit der Zeit. Darüber sollte man sich stets im Klaren sein.
Blaire
2005-08-30, 15:03:52
Angeblich soll der 78.03 ohne Speedverlust dieses Flimmerproblem beheben. Ich glaubs erst wenn ich es selber sehe. Die zwei Wochen sind auch um, als der Herr Neuschäfer meinte in 2 Wochen käme ein neuer Treiber. Also Zeit wirds...
eXodia
2005-08-30, 15:06:33
Angeblich soll der 78.03 ohne Speedverlust dieses Flimmerproblem beheben. Ich glaubs erst wenn ich es selber sehe. Die zwei Wochen sind auch um, als der Herr Neuschäfer meinte in 2 Wochen käme ein neuer Treiber. Also Zeit wirds...
Naja, erst am Donnerstag sind sie um. NV hat also noch 2 Tage Zeit... ;)
GrUß
Quasar
2005-08-30, 15:25:42
Angeblich soll der 78.03 ohne Speedverlust dieses Flimmerproblem beheben. Ich glaubs erst wenn ich es selber sehe. Die zwei Wochen sind auch um, als der Herr Neuschäfer meinte in 2 Wochen käme ein neuer Treiber. Also Zeit wirds...
Wenn der Herr Neuschäfer das sagt, wird's wohl stimmen, oder?
So ganz ohne Speedverlust würde ja die Vermutung nahelegen, daß es sich wirklich um einen Bug handelt und demirugs Untersuchung bestätigen, daß die korrekte Anzahl an Texeln gesamplet wird, aber falsch gewichtet.
Btw, wenn es diesen Treiber gibt, dann wird ihn sicherlich nicht nur aths "zugesteckt" bekommen haben. Ich glaube jedenfalls nicht, daß man aths in diesem Punkte nicht glauben sollte, nur weil er vertrauliche Infos nicht an die Öffentlichkeit gibt.
Glaubt es oder nicht, aber auch ohne NDA kann man Leuten versprechen, Sachen vorerst nicht weiterzugeben.
Frank1974
2005-08-30, 15:40:24
dann las deine zugesteckten dinge dort wo sie sind... was soll das bitte bringen? kommt der CIA wenn du uns sagst was abgeht, werden copyrightstrafen fällig? es geht um einen simplen treiber und nicht um die weltbedrohende Nvidia-AF-Katastrophe...
Wer uns helfen möchte und nicht in selbstgefallen schwelgt, gibt uns G70 User diesen Treiber... wer sollte ihn testen wenn nicht wir GTX Besitzer, AFths?
Seid froh das Nvidia überhaupt einen Treiber bringt,ich bin sicher das währe ohne aths Artikel nicht möglich gewessen,er hat doch die meisten darauf aufmerksam gemacht,sein Artikel ist sogar bei Geizhals verlinkt,was auch ein herber Tiefschlag für Nvidia sein muss,es informieren sich schließlich viele bei Geizhals.
Also wenn der Treiber wirklich kommt,hat aths für mich jedenfalls einen großen Anteil daran.
:down: an die ist nicht so schlimm Nutzter ihr habt gar nichts dazu beigetragen :mad:
:up: an Aths und alle die sich gegen das Flimmern eingesetzt haben.
Gruss
Frank
eXodia
2005-08-30, 15:48:55
:down: an die ist nicht so schlimm Nutzter ihr habt gar nichts dazu beigetragen :mad:
Ich finde das Problem nicht so schlimm und es bedarf imo auch keiner solchen "vernichtung, kauf den G70 nicht, etc." Worte, trotzdem hab ich den Artikel mit übersetzt, da mir das Thema nicht egal ist/war.
Also, nicht alle Leute über einen Kamm scheren... :wink:
GrUß
MadManniMan
2005-08-30, 15:53:58
Warum so aggressiv? Ich denke, so ein wenig Erfahrungsaustausch und quatschen hätte schon noch Platz gehabt.
Ihr seht das alle viel zu verbissen, finde ich...
Nö, eben grade nich! Sorry, wenn das so rübergekommen ist - ich selbst fahr jetzt erstmal Baden, weil das Wetter so geil ist ;)
Ich wollte damit nur zum Ausdruck bringen, daß mich die Sache zwar interessiert, einfach weil mich Grafikkarten seit 9 Jahren interessieren - aber es gibt immernoch 1000 Dinge, die mir wichtiger sind ... nichts für Ungut! =)
Frank1974
2005-08-30, 15:57:52
Ich finde das Problem nicht so schlimm und es bedarf imo auch keiner solchen "vernichtung, kauf den G70 nicht, etc." Worte, trotzdem hab ich den Artikel mit übersetzt, da mir das Thema nicht egal ist/war.
Also, nicht alle Leute über einen Kamm scheren... :wink:
GrUß
Deine Meinung,ich finde bei dem Porsche unter den Grafikkarten(bzw High End) darf es GAR KEIN PROBLEM geben,nicht mal eins was man nur mit einer Lupe erkennt,dafür ist dieser Highend Bereich ja so teuer.
Du hattest ja auch keine 7800GTX oder ?...,ich ja für fast 2 Wochen ich habe sie Gründlich genug in der Zeit getestet und für mich ist die Karte nicht das Geld Wert,jedenfalls nicht mit dem aktuellen Treiber.
Das Flimmern war schon Schlimm,aber die Pfeiloptimierungen waren der Gipfel.
Ich habe niemals zu einem gesagt kauf die nicht,ich habe immer wieder nur gesagt das ich mich über den Tisch gezogen fühle.
MFG
Frank
eXodia
2005-08-30, 16:06:40
Deine Meinung,ich finde bei dem Porsche unter den Grafikkarten(bzw High End) darf es GAR KEIN PROBLEM geben,nicht mal eins was man nur mit einer Lupe erkennt,dafür ist dieser Highend Bereich ja so teuer.
Du hattest ja auch keine 7800GTX oder ?...,ich ja für fast 2 Wochen ich habe sie Gründlich genug in der Zeit getestet und für mich ist die Karte nicht das Geld Wert,jedenfalls nicht mit dem aktuellen Treiber.
Das Flimmern war schon Schlimm,aber die Pfeiloptimierungen waren der Gipfel.
MFG
Frank
Ich hatte keine 7800, habe mich aber von dem AF auf der GC überzeugt und bin halt zu dem schluss gekommen, das ich das flimmern nur sehe wenn ich es sehen will bzw. mich darauf konzentriere, deswegen meine Meinung dazu.
GrUß
Frank1974
2005-08-30, 16:13:44
Ich hatte keine 7800, habe mich aber von dem AF auf der GC überzeugt und bin halt zu dem schluss gekommen, das ich das flimmern nur sehe wenn ich es sehen will bzw. mich darauf konzentriere, deswegen meine Meinung dazu.
GrUß
Ich will mich doch nicht mit dir darüber streiten,es gibt wichtigeres im Leben.
Aber wie du gerade selber sagtest ,du hast das Flimmern gesehen wenn du dich darauf Konzentriet hast,bei mir ist das aber das Problem wenn ich einmal einen Fehler entdeckt habe,sehe ich ihn immer :wink:
Und jetzt Friede :smile:
MFG
Frank
eXodia
2005-08-30, 16:16:41
Ich will mich doch nicht mit dir darüber streiten,es gibt wichtigeres im Leben.
Aber wie du gerade selber sagtest ,du hast das Flimmern gesehen wenn du dich darauf Konzentriet hast,bei mir ist das aber das Problem wenn ich einmal einen Fehler entdeckt habe,sehe ich ihn immer :wink:
Und jetzt Friede :smile:
MFG
Frank
OK, Friede :comfort2:
GrUß
Blaire
2005-08-30, 16:23:04
http://www.nvnews.net/vbulletin/showthread.php?p=683727#post683727
Ansehen!
(edit: Zu diesem Unterthema ist im Thread von anderen schon alles gesagt.)
Streifen wos sonst Gebrösel gäbe. Auf jeden Fall wurde das Bild deutlich ruhiger, da sich 16bit Dithering ja (klarerweise) nix um die temporale Komponente schert. Deswegen kommt 16bit Dithering an Standbildern nicht so schlimm rüber wie bei bewegten Szenen.In Bewegung sind Ditherartefakte durch 16-Bit-Rendering nicht schlimmer als auf dem Standbild.
Ein Unterschied von nicht mehr als 10%Der Vorsprung ist aber in GPU-limitierten Szenen deutlich größer. Alles andere wäre bei einem Vergleich der Rohleistung auch sehr verwunderlich.
(del676)
2005-08-30, 16:26:20
:down: an die ist nicht so schlimm Nutzter ihr habt gar nichts dazu beigetragen :mad:
höchstwahrscheinlich mehr als aths, oder glaubst du 5 grafikkartenhersteller ignorieren jeweils ~20 beschwerdemails :rolleyes:
das "flimmer"problem war durchaus schon lange vor afths artikel bekannt
(oder glaubst du innerhalb von 3 tagen ist der absatz an 7800gtx aufgrund des artikels + geizhalslink so stark eingebrochen dass nvidia unbedingt sofort alle progger zum bugfixen geschickt hat X-D )
wenn es, wie j.n. sagte ein reiner bug ist (und nur die samples falsch gewichtet wurden), dann hätte man sich sogar beschwerdemails sparen können, denn es war dann ein echter bug
wie dem auch sei, wenn der neue treiber rauskommt und der bug gefixt wird würde ich mir mit genau GLEICHER verbissenheit einen artikel über die winkelabhängigkeit von AF wünschen. (denn da handelt es sich wohl offensichtlich nicht um nen bug, hier würde die "geldsprache" eindeutig notwendig sein)
Frank1974@Gast
2005-08-30, 16:39:36
höchstwahrscheinlich mehr als aths, oder glaubst du 5 grafikkartenhersteller ignorieren jeweils ~20 beschwerdemails :rolleyes:
das "flimmer"problem war durchaus schon lange vor afths artikel bekannt
Ja dann brauchst du dich ja auch nicht angesprochen fühlen,dann hast du ja mitgeholfen.
MFG
Frank@Gast
DrumDub
2005-08-30, 16:39:45
http://www.nvnews.net/vbulletin/showthread.php?p=683727#post683727
Ansehen! war ja klar, da ja bereits es mit den gehackten 71ern die qualität von hq beim g70 der des nv40 entsprach...
schön ist allerdings, dass die perfomance wohl nicht drunter leidet, wobei die gewählte einstellung 1024x768 4xmsaa/16xaf nicht gerade fordernd für den g70 ist...
Wenn du den G70 nicht nur nach dem AF bewertest (auch wenn es ein wichtiges Feature für dich ist) warum taugt der G70 dann nichts?Der G70 bietet keine Möglichkeit, ob mit oder ohne Flimmern, die Texelleistung für vernünftig anisotrop gefilterte Texturen zu nutzen. Ich zahle doch nicht einige 100 €, um dann so ein Spar-AF zu bekommen.
derominöseGast
2005-08-30, 17:07:17
http://www.nvnews.net/vbulletin/showthread.php?p=683727#post683727
Ansehen!
schön, sehr schön. aber zufrieden sind wir auch hoffentlich dann noch nicht oder? NV40 AF ist schlecht und wird es bleiben.
aber wenigstens macht der tester den mund auf im gegensatz zu anderen :|
@frank: nenn mir den user der behauptet hat das AF von NV sei gut... ich hab keinen einzigen gefunden.
Das ist ja mal geil !! hrhr nVidia go to hell .... >>> http://www.theinquirer.net/?article=25807
Godmode
2005-08-30, 17:16:34
Das ist ja mal geil !! hrhr nVidia go to hell .... >>> http://www.theinquirer.net/?article=25807
Habs auch gerade gesehn, mich wundert das er 3DC überhaupt kennt. ;D
Frank1974
2005-08-30, 18:03:12
@frank: nenn mir den user der behauptet hat das AF von NV sei gut... ich hab keinen einzigen gefunden.
Da hast du mich falsch verstanden,ich habe die gemeint ,die sagten das man es sehr gut unterdrücken kann ,mit einer hohen Auflösung,SSAA.
Aber das ist doch nicht der Sinn von AF,das andere Modis das ausgleichen sollen,die Rechenpower könnte man viel besser anders einsetzten,als das man damit das AF vertuscht :wink:
Und jetzt fühlt euch nicht alle von mir angegriffen,wenn es so rüber kam sorry :smile: ,das war nie meine Absicht,ich wollte nur meine Meinung hier vertreten.
MFG
Frank
Der G70 bietet keine Möglichkeit, ob mit oder ohne Flimmern, die Texelleistung für vernünftig anisotrop gefilterte Texturen zu nutzen. Ich zahle doch nicht einige 100 €, um dann so ein Spar-AF zu bekommen.
Hm hast du dir nicht einen NV40 ableger gekauft, der ebenfalls unter dieses Kriterium fällt?
An deiner stelle würde ich eher formulieren man sollte sich keine Grafikkarte von NV und ATI kaufen da sie ja allesamt das "Spar-AF" beinhalten.
Wer a sagt sollte auch b sagen...
derominöseGast
2005-08-30, 18:27:17
Da hast du mich falsch verstanden,ich habe die gemeint ,die sagten das man es sehr gut unterdrücken kann ,mit einer hohen Auflösung,SSAA.
Aber das ist doch nicht der Sinn von AF,das andere Modis das ausgleichen sollen,die Rechenpower könnte man viel besser anders einsetzten,als das man damit das AF vertuscht :wink:
Und jetzt fühlt euch nicht alle von mir angegriffen,wenn es so rüber kam sorry :smile: ,das war nie meine Absicht,ich wollte nur meine Meinung hier vertreten.
MFG
Frank
np
afths muss halt wieder auf eine GF3 umsatteln :biggrin:
na, der artikel hat und wird noch viel bewegen. jetzt ist es durch inquirer noch viel mehr publik und ich denke auch ATI wird sich gut überlegen was für ein AF man bieten möchte in Zukunft. Somit Ziel erreicht aber Qualität vom AF noch lange nicht...
Knötchen
2005-08-30, 18:27:26
hahahaha ... stellt euch vor, nach weiteren 2 Jahren sich immer weiter verschlechternder BQ, kommt plötzlich einer der beiden Hersteller mit korrektem AF raus und das uralte, korrekte AF wird zu einem brandneuem Feature gehypt. Das ist Marketing, Freunde! ;)
eXodia
2005-08-30, 18:55:26
np
afths muss halt wieder auf eine GF3 umsatteln :biggrin:
na, der artikel hat und wird noch viel bewegen. jetzt ist es durch inquirer noch viel mehr publik und ich denke auch ATI wird sich gut überlegen was für ein AF man bieten möchte in Zukunft. Somit Ziel erreicht aber Qualität vom AF noch lange nicht...
Jetzt ist es sowieso zu spät für den R520 was das AF angeht, da die AF-Implementierung schon lange fertig ist. Man kann also jetzt bei ATI auch nichts mehr ändern...
GrUß
Lightning
2005-08-30, 19:12:29
Jetzt ist es sowieso zu spät für den R520 was das AF angeht, da die AF-Implementierung schon lange fertig ist. Man kann also jetzt bei ATI auch nichts mehr ändern...
GrUß
Das stimmt schon, aber vielleicht lässt sich wenigstens softwareseitig von Anfang an das "Maximum" an BQ herausholen.
Nunja, spekulieren bringt da jetzt nicht viel, die Zukunft wird es zeigen. Man kann nur hoffen, dass nicht wieder ein solcher Artikel wie der hier besprochene nötig sein wird.
An deiner stelle würde ich eher formulieren man sollte sich keine Grafikkarte von NV und ATI kaufen da sie ja allesamt das "Spar-AF" beinhalten.
:confused:
Der X800 und der NV40/45 flimmern nicht, zumindest nicht wenn man HQ bei der 6800 einstellt. Es gibt zwar unglückliche Stellen, wo auch die 6800 auf HQ minimal grieselt, das fällt beim Spielen aber nicht auf.
Da muss man schon suchen. ;)
Die 7800GTX flimmert aber auch auf HQ.
Quasar
2005-08-30, 19:41:27
Die 7800GTX flimmert aber auch auf HQ.
Jetzt anscheinend nicht mehr.
Das AF ist aber leider nach wie vor winkelabhängig.
Piffan
2005-08-30, 19:45:43
:confused:
Der X800 und der NV40/45 flimmern nicht, zumindest nicht wenn man HQ bei der 6800 einstellt. Es gibt zwar unglückliche Stellen, wo auch die 6800 auf HQ minimal grieselt, das fällt beim Spielen aber nicht auf.
Da muss man schon suchen. ;)
Die 7800GTX flimmert aber auch auf HQ.
Gepart wird durch:
Winkelabhängigkeit. Man stellt 16fach ein, hat aber öfter mal nur 2fach in einem Bild.
Keine Trilinearität, sondern Brilinearität. Man hat öfter abrupte MipMap- Übergänge. Kann ganz schön stören, wenn man durch lange Gänge geht oder wie bei HL2 die Schienen betrachtet.....
Wenn das Grieseln tatsächlich gefixt wird ohne starken Performance- Verlust, dann würde mich die G70 brennend interessieren.....Mal abwarten, ob Oblivion bis Weihnachten rauskommt, dann werde ich mir mal wieder ne NV- Graka gönnen. TSAA: Lecker! =)
Was die übrigen Ferkeleien beim AF betrifft: Stört mich nicht wirklich, solange keine Artefakte nerven.....
Jetzt ist es sowieso zu spät für den R520 was das AF angeht, da die AF-Implementierung schon lange fertig ist. Man kann also jetzt bei ATI auch nichts mehr ändern...
GrUß
zumindest bei NV und wahrscheinlich auch bei ATI dürften die texturfilter ziemlich stark programmierbar sein, also hat der treiber einiges an mitspracherecht was man endgültig am bildschirm sieht, und zumindest diesen kann man sogar nach dem verkauf der hardware ändern.
Godmode
2005-08-30, 21:02:58
Jetzt anscheinend nicht mehr.
He, hab ich was verpasst? :confused:
Was die übrigen Ferkeleien beim AF betrifft: Stört mich nicht wirklich, solange keine Artefakte nerven.....Dir reicht 2x AF?
Quasar
2005-08-30, 21:24:22
He, hab ich was verpasst? :confused:
Ja, anscheinend.
http://www.nvnews.net/vbulletin/showthread.php?p=683727#post683727
Ansehen!
=)
Piffan
2005-08-30, 21:36:55
Dir reicht 2x AF?
Natürlich wäre mehr besser, keine Frage. Aber lieber mit schwachem AF leben - wobei der Unterschied zwischen gar keinem AF und 2x AF recht groß ist, aber angesichts der zunehmenden Level- Maßen natürlich auch zu wenig ist - als mit Artefakten zu leben.....
höchstwahrscheinlich mehr als aths, oder glaubst du 5 grafikkartenhersteller ignorieren jeweils ~20 beschwerdemails :rolleyes:
Addiere zumindest noch mal ca. 10 von einem "Schönredner" wie mir dazu bzw. werden dieses Mittel wohl noch einige mehr genutzt haben ;) (Noch mal vielen Dank für die Direkt-Links! :up: )
Franky-Boy
2005-08-31, 00:10:26
Hier mal ein interessanter Kommentar aus dem Forum "NV News" zu diesem Problem:
"Changing the driver and expecting it to work correctly w/o recognizing the card is moronic:
They may have removed the code responsible for the shimmering artifact (I didn't read the article), but claiming the 30% performance drop due to disabling optimization for AF is presposterous.
First of all, it's too much of a drop. No modern card should suffer 30% performance hit from simply enabling AF, let alone from an optimization.
Secondly, did they really expect the driver to work at full speed w/o recognizing the card? I know that these are Germans, but they must be the dumbest germans I've ever heard of. The Inquirer making a statement like "the Germans proved that NVIDIA is cheating" is very careless.
Both, the Germans and the Inquirer, have completely lost all credibility with me. I think I'll just stop reading the Inquirer. Journalism without common sense is unacceptable. Or journalists without common sense should be fired."
http://www.nvnews.net/vbulletin/showthread.php?t=55812&page=2
Der Kommentator neigt zu gefährlichen Verallgemeinerungen... ;)
Ciao Frank
mapel110
2005-08-31, 00:16:55
Hier mal ein interessanter Kommentar aus dem Forum "NV News" zu diesem Problem:
http://www.nvnews.net/vbulletin/showthread.php?t=55812&page=2
Der Kommentator neigt zu gefährlichen Verallgemeinerungen... ;)
Ciao Frank
Recht hat er aber mit seiner Aussage. Endgültig klären kann mans erst mit einem Treiber, der tut was er laut Dokumentation soll.
Franky-Boy
2005-08-31, 00:22:01
Recht hat er aber mit seiner Aussage. Endgültig klären kann mans erst mit einem Treiber, der tut was er laut Dokumentation soll.
Mir ging es eigentlich um folgende Passagen:
"I know that these are Germans, but they must be the dumbest germans I've ever heard of." und "Both, the Germans and the Inquirer, have completely lost all credibility with me."
Ciao Frank
Recht hat er aber mit seiner Aussage. Endgültig klären kann mans erst mit einem Treiber, der tut was er laut Dokumentation soll.
Mag sein das er recht hat, aber er hat die Intention der Artikel nicht verstanden, ein quasi Beweis das es kein Hardware Bug ist, oder besser das man das geflimmere per Treiber umgehen kann und das NV nun genötigt werden muss das geflimmere einzustellen da man einen quasi Beweis hat, das sie es können.
Aber das sieht man in diesem, ich betitel es einfach mal "Fanboy Bla", einfach nicht ein. Was will man auch sonst von der Mehrzahl der Mitglieder dort im Forum erwarten.
OBrian
2005-08-31, 01:12:35
http://www.nvnews.net/vbulletin/showthread.php?p=683727#post683727Eigentlich schade, daß man sich jetzt über das Flimmer-Niveau der 6800 freuen muß, was für die bisherige 7800 sicher eine Verbesserung darstellt, aber trotzdem noch nicht wirklich gut ist.
Eigentlich schade, daß man sich jetzt über das Flimmer-Niveau der 6800 freuen muß, was für die bisherige 7800 sicher eine Verbesserung darstellt, aber trotzdem noch nicht wirklich gut ist.
Naja, was in HQ auf einem NV40 noch flimmert, das dürfte auch ohne AF flimmeranfällig sein und auf einer Radeon genauso aussehen. Es gibt nur sehr sehr wenige Fälle, wo das - sehr langsame - HQ noch störend auffällt ...
MfG,
Raff
MadManniMan
2005-08-31, 01:26:15
*schockiert ist*
Was guckt ihr euch denn an? Was anderes, als ich?
Gut, ich habe nicht erwartet, daß andere das Gegriesel des NV4X bei HQ noch so sehr stört, wie micht, aber das HQ des G70 ist immernoch nicht so gut, wie jenes! Zumindest kann das Video das nicht einfangen (wer kommt eigentlich auf die dämliche Idee, die Filmchen bei anderen Licht- und daher Kontrastverhältnissen aufzunehmen? *kopfschüttel*)
mapel110
2005-08-31, 02:17:40
Irgendwie sieht für mich G70-77.77HQ besser aus als G70-78.03HQ :|
/edit
okay, falsch geguckt. Ist doch anders rum.
MadManniMan
2005-08-31, 02:27:08
Irgendwie sieht für mich G70-77.77HQ besser aus als G70-78.03HQ :|
/edit
okay, falsch geguckt. Ist doch anders rum.
Besser schon, aber halt nicht so gut, wie das den NV40 (was mich immernoch bissel stört ;) ). Aber ohne, daß wir Videos haben, auf denen wirklich gleiche Szenen gezeigt werden, nützt das eh nix. Die anderen Kontrastverhältnisse machen alls zunichte!
Natürlich wäre mehr besser, keine Frage. Aber lieber mit schwachem AF leben - wobei der Unterschied zwischen gar keinem AF und 2x AF recht groß ist, aber angesichts der zunehmenden Level- Maßen natürlich auch zu wenig ist - als mit Artefakten zu leben.....Mir ist 2x AF zu wenig. 8x AF à la GeForce3-FX ist für mich eher das Mindestmaß – 8x AF kann je nach Situation auch noch recht unscharf sein, besser wäre 16x AF. Richtiges 16x, natürlich. Die winkelabhängige Senkung vom AF-Maximalgrad ist auch ein "Optimierungs"-Artefakt.
Besser schon, aber halt nicht so gut, wie das den NV40 (was mich immernoch bissel stört ;) ). Aber ohne, daß wir Videos haben, auf denen wirklich gleiche Szenen gezeigt werden, nützt das eh nix. Die anderen Kontrastverhältnisse machen alls zunichte!Obwohl G70-AF und NV40-AF nicht identisch sind, ist das Flimmern in HQ jetzt vergleichbar: Grenzwertig. Ob auch Q verbessert wurde, habe ich noch nicht untersucht.
Mr. Lolman
2005-08-31, 09:11:10
In Bewegung sind Ditherartefakte durch 16-Bit-Rendering nicht schlimmer als auf dem Standbild.
Das seh ich anders: http://rapidshare.de/files/4560648/quake3_2005-08-31_08-32-00-06.7z.html (12.5MB)
Der Vorsprung ist aber in GPU-limitierten Szenen deutlich größer. Alles andere wäre bei einem Vergleich der Rohleistung auch sehr verwunderlich.
Die Q-Benchmarks von 3DCenter und die Treiberdefaultbenchmarks von hardware.fr sprechen da aber z.T. ne andere Sprache.
Quasar
2005-08-31, 11:37:11
Hier mal ein interessanter Kommentar aus dem Forum "NV News" zu diesem Problem:
"Changing the driver and expecting it to work correctly w/o recognizing the card is moronic:
They may have removed the code responsible for the shimmering artifact (I didn't read the article), but claiming the 30% performance drop due to disabling optimization for AF is presposterous.
First of all, it's too much of a drop. No modern card should suffer 30% performance hit from simply enabling AF, let alone from an optimization.
Secondly, did they really expect the driver to work at full speed w/o recognizing the card? I know that these are Germans, but they must be the dumbest germans I've ever heard of. The Inquirer making a statement like "the Germans proved that NVIDIA is cheating" is very careless.
Both, the Germans and the Inquirer, have completely lost all credibility with me. I think I'll just stop reading the Inquirer. Journalism without common sense is unacceptable. Or journalists without common sense should be fired."
http://www.nvnews.net/vbulletin/showthread.php?t=55812&page=2
Der Kommentator neigt zu gefährlichen Verallgemeinerungen... ;)
Ciao Frank
[meine Hervorhebungen]
Die Frage ist, wer hier "moronic" ist - Jemand, der einen Artikel nicht liest, aber aufgrund des Balken-Anstierens sich anmaßt, über den Author zu urteilen, oder der Author eines solchen Artikels. :)
dildo4u
2005-08-31, 12:16:05
Ich weiss nicht obs hier schon erwähnt wurde aber der Artikel wird auch bei Geizhals verlinkt bei allen 7800GT und GTX Karten http://www.geizhals.at/deutschland/a161591.html :up:
Godmode
2005-08-31, 12:18:49
Also zu dem Performance Verlust bei der Aktivierung von AF, mir wären auch 50 % Drop egal, wenn ich dadurch Lehrbuch AF bekomme. Aber ich wette mal stark dass der Großteil der Leute wieder sagen würde "OMG seht her wieviel Performance die durch AF verlieren, was für ne Shice, hilfe ich hab jetzt nur mehr 100 statt 200 FPS, heul :frown:"
Godmode
2005-08-31, 12:21:19
Ich weiss nicht obs hier schon erwähnt wurde aber der Artikel wird auch bei Geizhals verlinkt bei allen 7800GT und GTX Karten http://www.geizhals.at/deutschland/a161591.html :up:
Echt super, so muss es sein! Die solten keine einzige G70 mehr verkaufen, solange sie das nicht gefixt haben!
Wer hat den Geizhals eigetnlich den Tip gegeben? Aths? Leo?
DrumDub
2005-08-31, 12:29:03
[meine Hervorhebungen]
Die Frage ist, wer hier "moronic" ist - Jemand, der einen Artikel nicht liest, aber aufgrund des Balken-Anstierens sich anmaßt, über den Author zu urteilen, oder der Author eines solchen Artikels. :) <athsmode on>autor, quasar, autor.<athsmode off> ;)
ansonsten meine vollste zustimmung...
Ich weiss nicht obs hier schon erwähnt wurde aber der Artikel wird auch bei Geizhals verlinkt bei allen 7800GT und GTX Karten http://www.geizhals.at/deutschland/a161591.html :up:
:eek: :eek:
das ist ja echt Klasse :smile: :smile:
:D :D
Rainer
Ice =A=
2005-08-31, 12:42:34
Laut dem Inquirer (http://www.theinquirer.net/?article=25820) hat nVidia gesagt, ein neuer Treiber mit Versionsnummer 78.03 sei bereits bei den Betatestern (also kurz vor der Veröffentlichung) und solle speziell das Flimmerproblem lösen. Es handle sich "nur" um einen Bug, der Performanceverlust sei minimal.
Wollen wir's mal hoffen!
Grestorn
2005-08-31, 13:14:24
Laut dem Inquirer (http://www.theinquirer.net/?article=25820) hat nVidia gesagt, ein neuer Treiber mit Versionsnummer 78.03 sei bereits bei den Betatestern (also kurz vor der Veröffentlichung) und solle speziell das Flimmerproblem lösen. Es handle sich "nur" um einen Bug, der Performanceverlust sei minimal.
Wollen wir's mal hoffen!
Lest ihr eigentlich den Thread, in dem ihr schreibt? Das sind soch inzwischen alles alte Neuigkeiten...
reunion
2005-08-31, 13:27:06
http://www.nvnews.net/vbulletin/showthread.php?p=683727#post683727
Ansehen!
Warum wurde die Auflösung so niedrig gewählt?
Wenn man einen Füllratenverlust messen will, sollte man die Auflösung möglichst maximieren.
Im übrigen erscheint mir der 3dmark nicht gerade prädestiniert für einen solchen Vergleich.
Also zu dem Performance Verlust bei der Aktivierung von AF, mir wären auch 50 % Drop egal, wenn ich dadurch Lehrbuch AF bekomme. Aber ich wette mal stark dass der Großteil der Leute wieder sagen würde "OMG seht her wieviel Performance die durch AF verlieren, was für ne Shice, hilfe ich hab jetzt nur mehr 100 statt 200 FPS, heul :frown:"
gutes AF muss in entsprechenden fällen (bei starken texturverzerrungen) sehr viel leistung kosten, wesentlich mehr als MSAA, welches ja (entsprechende bandbreite vorausgesetzt) fast for free ist.
16xAF bedeutet immerhin bei einer texturverzerrung von 16:1 (und größer) die 16-fache füllrate zu benötigen, was nicht gerade wenig ist. in realen szenen werden natürlich nur wenige teile eines bildes so stark verzerrte texturen aufweisen, einen framedrop von 50% (bei füllratenlimitierung) halte ich bei ordentlichem AF aber nicht für übertrieben.
Piffan
2005-08-31, 14:03:39
gutes AF muss in entsprechenden fällen (bei starken texturverzerrungen) sehr viel leistung kosten, wesentlich mehr als MSAA, welches ja (entsprechende bandbreite vorausgesetzt) fast for free ist.
16xAF bedeutet immerhin bei einer texturverzerrung von 16:1 (und größer) die 16-fache füllrate zu benötigen, was nicht gerade wenig ist. in realen szenen werden natürlich nur wenige teile eines bildes so stark verzerrte texturen aufweisen, einen framedrop von 50% (bei füllratenlimitierung) halte ich bei ordentlichem AF aber nicht für übertrieben.
Jau, und wer nicht so hohe Grade braucht, schaltet halt runter. Aber diese Bevormundung mit der Winkelabhängigkeit ist Beschiss. Irgendwo alles ein Teufelskreis mit der Bencherei und Balkenprollerei. Ich will mich ja nicht selbst loben, aber ich habe schon seit mindestens 2 Jahre gefordert, dass man beim Benchen auf den größten gemeinsamen Nenner gehen sollte, sprich nicht höhere AF- Grade als 2fach einstellen. Wobei dann wieder geklärt werden muss, ob wirklich Tri, Bri oder gar Bi gefiltert wird. Die Tester scheinen ja was auf den Augen zu haben, wenn die mit Default oder "Q" testen und nix merken. Oder wollten viele gar nix merken. :eek:
MadManniMan
2005-08-31, 14:54:42
Obwohl G70-AF und NV40-AF nicht identisch sind, ist das Flimmern in HQ jetzt vergleichbar: Grenzwertig. Ob auch Q verbessert wurde, habe ich noch nicht untersucht.
Auf welcher Grundlage kommst Du zu dieser Behauptung? Die Videos von nVNews, auf denen man dank unterschiedlicher Kontraste tatsächlich nicht vergleichen kann? :|
Sorry, aber selbst wenn ich falsche liegen sollte und die Videos ... "beweisen", daß das Flimmern so gut wie weg ist, ist doch nV in der Bringeschuld, nachdem aufgezeigt war, was da passierte. Ich will dementsprechend völlig unkomprimierte Videos mit absolut identischen Szenen.
Blaire
2005-08-31, 15:31:32
Ich bin auch der Meinung, daß man aus diesen Videos keinerlei Rückschlüsse ziehen kann. Ich verstehe diese Geheimnistuherei seitens Nvidia auch nicht , warum releasen die den Treiber nicht? Mehr als Beta wird der auch nächste Woche nicht sein!?
reunion
2005-08-31, 15:39:35
Auf jeden Fall sollte man die Treiber gründlichst untersuchen, nicht, dass sie nur das Flimmern beseitigt haben, und dafür eine andere "Optimierung" eingeführt haben, um die Performance identisch zu halten.
Das seh ich anders: http://rapidshare.de/files/4560648/quake3_2005-08-31_08-32-00-06.7z.html (12.5MB)Was soll dieses Video jetzt zeigen?
Die Q-Benchmarks von 3DCenter und die Treiberdefaultbenchmarks von hardware.fr sprechen da aber z.T. ne andere Sprache.Ja, "zum Teil". Sicherlich gibts auch Spiele, wo sich die GTX nur wenig absetzen kann. Es gibt aber auch Spiele, wo die GTX weit vorne liegt.
Mrs. Lolman
2005-08-31, 16:06:28
Was soll dieses Video jetzt zeigen?
Das 16bit Dithering in Bewegung schlimmer rüberkommt als bei nem Standbild.
Ja, "zum Teil". Sicherlich gibts auch Spiele, wo sich die GTX nur wenig absetzen kann. Es gibt aber auch Spiele, wo die GTX weit vorne liegt.
Ich sprech von der GT, nicht von der GTX.
/falscher Account :rolleyes:
Quasar
2005-08-31, 16:12:58
<athsmode on>autor, quasar, autor.<athsmode off> ;)
ansonsten meine vollste zustimmung...
Ich schreib's mir hinter den GPU-Kühler... =)
Das 16bit Dithering in Bewegung schlimmer rüberkommt als bei nem Standbild.Davon sehe ich in dem Video nichts.
Ich sprech von der GT, nicht von der GTX.Die GT ist ein Stück langsamer als die GTX, ja. Aber warum – einen funktionierenden Treiber, der AF nicht flimmern lässt, vorausgesetzt – eine SM2-X800 ohne TAA-SS kaufen, wenn man auch eine SM3-7800 GT mit TAA-SS haben kann?
Warum wurde die Auflösung so niedrig gewählt?
Wenn man einen Füllratenverlust messen will, sollte man die Auflösung möglichst maximieren.
Im übrigen erscheint mir der 3dmark nicht gerade prädestiniert für einen solchen Vergleich.
falsch. in hohen auflösungen ist das flimmern auch mit dem kaputten treiber 77.77 schlecht zu sehen. bei 1024 und drunter ist das flimmern am schlimmsten.
und zuerst muss man ne kiste haben die mit fraps 30fps bei über 1024 aufnehmen kann...
Mr. Lolman
2005-08-31, 17:34:22
Davon sehe ich in dem Video nichts.
Vll. siehst du's an nem vergrösserten gif-Ausschnitt besser:
http://img185.imageshack.us/img185/8346/16bit6ki.th.gif (http://img185.imageshack.us/my.php?image=16bit6ki.gif)
Die GT ist ein Stück langsamer als die GTX, ja. Aber warum – einen funktionierenden Treiber, der AF nicht flimmern lässt, vorausgesetzt – eine SM2-X800 ohne TAA-SS kaufen, wenn man auch eine SM3-7800 GT mit TAA-SS haben kann?
Weils die x800xt momentan um 270€ gibt, während die 7800GT 370€ kostet.
Mr. Lolman
2005-08-31, 17:36:13
falsch. in hohen auflösungen ist das flimmern auch mit dem kaputten treiber 77.77 schlecht zu sehen. bei 1024 und drunter ist das flimmern am schlimmsten.
Also ist das schlechte AF nur in niedrigen Auflösungen behoben worden?
:rolleyes:
Vll. siehst du's an nem vergrösserten gif-Ausschnitt besser:
http://img185.imageshack.us/img185/8346/16bit6ki.th.gif (http://img185.imageshack.us/my.php?image=16bit6ki.gif)
Weils die x800xt momentan um 270€ gibt, während die 7800GT 370€ kostet.
Ist aber von der Leistung her nicht vergleichbar, wenn ich mit einer X800XT leben kann dann vieleicht auch mit einer GF6800GT das solltest du dazusagen da sie im selben Preisspektrum sich bewegt, der Pöse Bube könnte dir unterbewusten Fanboyismus vorwerfen in deinem Denken *g (nicht ganz so ernst nehmen eher als "Hinweis")
Also ist das schlechte AF nur in niedrigen Auflösungen behoben worden?
:rolleyes:
? wenn man ein video macht das offensichtlich zeigen soll das das flimmern halbwegs gefixt wurde und man dies auf 1024 oder darunter am besten sieht... was macht man dann logischerweise? oh mann... lolman ist wohl einer dieser deutschen die der andere gemeint hat und kauft sich dazu noch eine X800XT mit der er UE3 vergessen kann...
Mr. Lolman
2005-08-31, 17:56:16
reunion meinte die 3dmark Werte und nicht die Videos. Außerdem bin ich kein Deutscher. :)
Ist aber von der Leistung her nicht vergleichbar, wenn ich mit einer X800XT leben kann dann vieleicht auch mit einer GF6800GT das solltest du dazusagen da sie im selben Preisspektrum sich bewegt
Das könnte man ewig so weiterführen. Wert mit ner 6800GT leben kann, kanns auch mit ner x800...
reunion meinte die 3dmark Werte und nicht die Videos. Außerdem bin ich kein Deutscher. :)
Glückwunsch! ;-)
Das könnte man ewig so weiterführen. Wert mit ner 6800GT leben kann, kanns auch mit ner x800...
ich könnte durchaus auch besser mit einer x800xtpe leben als mit einer 6800GT. Trotz SM3.0 würde mir die z.B. nicht das ergebniss in UE3 bringen das ich erwarte...
Vll. siehst du's an nem vergrösserten gif-Ausschnitt besser:
http://img185.imageshack.us/img185/8346/16bit6ki.th.gif (http://img185.imageshack.us/my.php?image=16bit6ki.gif)In Vergrößerung sieht man vieles, was normal nicht stört. In Vergrößerung kann auch 6x sparse AA ziemlich hässlich aussehen.
Aber 16-Bit-Dither-Artefakte stören mich im Standbild genauso wie in Bewegung.
Weils die x800xt momentan um 270€ gibt, während die 7800GT 370€ kostet.Warum sollte ich überhaupt so viel Geld ausgeben für überholte Technik?
Mr. Lolman
2005-08-31, 19:27:47
Aber 16-Bit-Dither-Artefakte stören mich im Standbild genauso wie in Bewegung.
Ich empfinds halt als "Gebrösel".
Warum sollte ich überhaupt so viel Geld ausgeben für überholte Technik?
Der Technikfetischist zahlt natürlich auch nen Aufpreis für die neuere Technik. Dass du bereit bist mehr als 35% Aufpreis zu bezahlen, verwundert mich an der Stelle nicht mal besonders. Das TSAA macht die Karten schon sehr reizvoll :)
Ich bin auch der Meinung, daß man aus diesen Videos keinerlei Rückschlüsse ziehen kann.
nicht wirklich, beim WOW-video sieht man aber zumindest eine extreme verbesserung.
Ice =A=
2005-08-31, 20:53:27
Mann, ich kann nich mehr warten! Warum gibt's denn grade diesmal keinen Treiber-leak?!? :)
mapel110
2005-08-31, 20:57:42
Mann, ich kann nich mehr warten! Warum gibt's denn grade diesmal keinen Treiber-leak?!? :)
Weil das nvidia sehr gut steuern kann, ob ein Treiber "geleakt" wird oder nicht. Über 3 Wochen nach dem G70-Launch ist erst wieder ein neuerer Treiber als der 77.72 aufgetaucht.
Blaire
2005-08-31, 21:36:06
nicht wirklich, beim WOW-video sieht man aber zumindest eine extreme verbesserung.
Hab mir die beiden Videos eben angesehn.
Verbesserung sieht man , aber es grieselt immer noch extrem.
LovesuckZ
2005-08-31, 22:58:49
Hab mir die beiden Videos eben angesehn.
Verbesserung sieht man , aber es grieselt immer noch extrem.
Was an der Anwendung liegt.
WoW flimmert nicht nur bei den Baeumen sondern auch bei den Texturen auf einer r420 sehr stark.
Blaire
2005-08-31, 23:00:57
Neues zum Thema:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/august/korrektur_g70/
Morgen kommt also der 78.03, man darf gespannt sein.
(del676)
2005-08-31, 23:34:23
mal was anderes - da mein dfi board nicht mit meinem netzteil will habe ich zurzeit einen not-gamepc mit einer Matrox P650 drin, da ich nicht auf Eve Online verzichten wollte
was mir sofort ins auge gestochen ist, ist das schärfere AF (wahrscheinlich aufgrund von winkelabhängigkeit bei der 7800 gtx) (oder placebo)
zwar isses langsam, sieht aber super aus: http://img362.imageshack.us/img362/8846/evenormal16xaa0xx.jpg
aber ich werde da sicher nen vergleichsscreen mit einer 7800 machen
MadManniMan
2005-08-31, 23:55:34
Huhu äffs!
Wie komm0rst drauf, daß die Videos NV40 Qualität zeigen würden? AW plz! ;(
Hallo zusammen,
ich verfolge diesen Thread schon länger, aber muss gestehen dass ich nicht alle 70 Seiten durchgelesen haben.
Deshalb meine Frage:
Was sind diese Pfeil Optimierungen die hin und wieder in den Raum geworfen werden ???? Bitte um Aufklärung !
mfg
Kladderadatsch
2005-09-01, 09:31:14
Hallo zusammen,
ich verfolge diesen Thread schon länger, aber muss gestehen dass ich nicht alle 70 Seiten durchgelesen haben.
Deshalb meine Frage:
Was sind diese Pfeil Optimierungen die hin und wieder in den Raum geworfen werden ???? Bitte um Aufklärung !
mfg
imo ist damit die optimierung des modifizierten 70.41 gemeint. (bild (http://pics.computerbase.de/artikel/481/2.jpg))
aber das ist ja eh alles unfug (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/august/korrektur_g70/)...
der vergleich mit dem 77.77 (bild (http://pics.computerbase.de/artikel/481/3.jpg)) lässt irgendwie auch darauf schließen, dass sie mit dem 70.41 in einer höheren auflösung gebencht haben:|
Mann, ich kann nich mehr warten! Warum gibt's denn grade diesmal keinen Treiber-leak?!? :)Offenbar weil sich NV dies mal nur zuverlässige Betatester ausgesucht hat?
Huhu äffs!
Wie komm0rst drauf, daß die Videos NV40 Qualität zeigen würden? AW plz! ;(Wieso "die" Videos?
Ice =A=
2005-09-01, 10:00:22
Eine kurze Erklärung der "Pfeil-Optimierungen" für unsern Gast:
Was insane schreibt is leider nich richtig.
Die sog. "Pfeil-Optimierung" zeigt sich in Spielen in Form einer pfeilförmigen Fläche auf z.B. Bodentexturen (in der Mitte des Bildschirms), die von den 7800er Karten mit aktuell verfügbaren Treibern deutlich anders gefiltert werden als die umgebenden Texturen und als das eigentlich sein sollte. Sie ist mit bloßem Auge auf manchen (wenigen) Texturen durchaus störend zu erkennen.
Ob es sich dabei um einen Bug oder eine absichtlich von nVidia eingebaute "Optimierung" zum Beschleunigen der Karte handelt, ist unbekannt.
Kladderadatsch
2005-09-01, 10:46:11
Eine kurze Erklärung der "Pfeil-Optimierungen" für unsern Gast:
Was insane schreibt is leider nich richtig.
Die sog. "Pfeil-Optimierung" zeigt sich in Spielen in Form einer pfeilförmigen Fläche auf z.B. Bodentexturen (in der Mitte des Bildschirms), die von den 7800er Karten mit aktuell verfügbaren Treibern deutlich anders gefiltert werden als die umgebenden Texturen und als das eigentlich sein sollte. Sie ist mit bloßem Auge auf manchen (wenigen) Texturen durchaus störend zu erkennen.
Ob es sich dabei um einen Bug oder eine absichtlich von nVidia eingebaute "Optimierung" zum Beschleunigen der Karte handelt, ist unbekannt.
die verlinkten bilder (von der cb) stimmen doch? jedenfalls ist dieser effekt hier nur mit dem modifizierten 70.41, und nicht dem 77.77 zu erkennen:confused:
derominöseGast
2005-09-01, 11:44:43
Jungs, der Ordner steht bereit: ftp://download.nvidia.com/Windows/78.03/
jetzt warten wir nur noch auf Inhalt :biggrin:
Ice =A=
2005-09-01, 11:46:37
@Insane:
Sorry, aber die modifizierten Treiber sind eigentlich dazu gedacht, diese Pfeiloptimierung zu beseitigen. Ich kann auf den Bildern auch keine Pfeile sehn. Man sieht im Extremfall mit den zur Zeit erhältlichen offiziellen Treibern manchmnal wirklich richtige Pfeile auf dem Boden und an Wänden, nicht nur angedeutet sondern mitunter sehr deutlich! Auf Deinen Bildern seh ich da eigentlich nix, aber ich bin auch nur ein Mensch! :)
Edit:
Jetzt weiß ich, was Du gemeint hast! Der Pfeil bei Dir is kaum sichtbar und zeigt parallel zur Blickrichtung. Das is aber wohl nur Zufall bzw. ein Moiree-Effekt, der von uns gemeinte Pfeil is deutlich deutlicher :) und zeigt parallel zur Blickrichtung vom Spieler weg.
@derominöseGast:
Juhu, der Treiber kommt, der Treiber kommt!
Zückt schon mal die Bleistifte, ihr Hardware-Reviewer und Technikinteressierten! :)
derominöseGast
2005-09-01, 11:49:26
@Insane:
Sorry, aber die modifizierten Treiber sind eigentlich dazu gedacht, diese Pfeiloptimierung zu beseitigen. Ich kann auf den Bildern auch keine Pfeile sehn. Man sieht im Extremfall mit den zur Zeit erhältlichen offiziellen Treibern manchmnal wirklich richtige Pfeile auf dem Boden und an Wänden, nicht nur angedeutet sondern mitunter sehr deutlich! Auf Deinen Bildern seh ich da eigentlich nix, aber ich bin auch nur ein Mensch! :)
@derominöseGast:
Juhu, der Treiber kommt, der Treiber kommt!
Zückt schon mal die Bleistifte, ihr Hardware-Reviewer und Technikinteressierten! :)
yep! :biggrin:
warum hat frank eigentlich das HL2 movie mit den pfeilen gelöscht auf rapidshare??? :confused:
Hmm. Ich bin ehrlich gesagt gespannt darauf, was genau geändert wurde.
Wurde einfach diese Optimierung durch eine andere ersetzt, die nicht so schnell auffällt? Ich glaube jedenfalls kaum, dass Nvidia komplett volles AF bieten wird. Das gleiche gilt natürlich auch für ATI. Es gibt einfach zu viele BAUs die auch bei Ultra-Performance keine Qualitätsverschlechterungen bemerken würden ;D
MadManniMan
2005-09-01, 13:03:05
Wieso "die" Videos?
Ich weiß, daß Du diese Art der Kommunikation magst, aber antworte doch einfach gaaanz simpel so, daß keine weiteren Fragen aufkommen:
Nimmst Du als Grundlage für Deine Aussagen nur die nVNews-Videos, oder hast du weitere Quellen? Wenn dem so sein sollte, OK, aber wenn Du die gleichen Quellen hast, wie wir, muß ich Dir jetzt eine arg unkritische Haltung vorwerfen.
Piffan
2005-09-01, 13:14:22
Ich weiß, daß Du diese Art der Kommunikation magst, aber antworte doch einfach gaaanz simpel so, daß keine weiteren Fragen aufkommen:
Nimmst Du als Grundlage für Deine Aussagen nur die nVNews-Videos, oder hast du weitere Quellen? Wenn dem so sein sollte, OK, aber wenn Du die gleichen Quellen hast, wie wir, muß ich Dir jetzt eine arg unkritische Haltung vorwerfen.
Aths ist offensichtlich wie einige andere Erlauchte in den Besitz des Treibers gekommen.........Aber pssst, davon wissen wir nicht wirklich. :rolleyes:
Also wenn es denn tatsächlich so ist, dass also das Flimmern/Shimmering beseitigt wurde ohne Kompensierung in Form von geschundener Pseudoleistung, dann ich haben will eine G70.....
Ich weiß, daß Du diese Art der Kommunikation magst, aber antworte doch einfach gaaanz simpel so, daß keine weiteren Fragen aufkommen:
Nimmst Du als Grundlage für Deine Aussagen nur die nVNews-Videos, oder hast du weitere Quellen? Wenn dem so sein sollte, OK, aber wenn Du die gleichen Quellen hast, wie wir, muß ich Dir jetzt eine arg unkritische Haltung vorwerfen.Mit dem Aufstellen von Vorwürfen lockst du mich nicht aus der Reserve.
Aths ist offensichtlich wie einige andere Erlauchte in den Besitz des Treibers gekommenWas sollte ich mit so einem Treiber tun?
derominöseGast
2005-09-01, 14:41:00
das Flimmern wird "nicht" beseitigt sein... es gibt schlicht 6800 HQ Qualität und die ist nicht über alle zweifel erhaben aus meiner Sicht.
Trotzdem gute Sache...
Nvidia behauptet steinhart es sei ein normaler BUG gewesen und nicht eine neue Optimierung im dem sinn! der fast nicht vorhandene Performanceverlust von 1-4% (der kann auch auf einen normalen Treiberwechsel begründet sein und kam bisher oft vor) deutet darauf das Nvidia tatsächlich die Wahrheit sagt.
derominöseGast
2005-09-01, 14:41:51
Was sollte ich mit so einem Treiber tun?
mir endlich senden :rolleyes: :biggrin:
Was sollte ich mit so einem Treiber tun?
Mit einer gestellten G70-Karte testen? Da Du ja keine kaufen würdest (was ich übrigens absolut verstehe).
MfG,
Raff
MadManniMan
2005-09-01, 15:26:01
Mit dem Aufstellen von Vorwürfen lockst du mich nicht aus der Reserve.
Ich bin kein Freund aggressiver Diskussionskultur (mehr :D ), also versuche nicht, mich zu provozieren :naughty:
Sag doch mal: wenn Du sicher bist, daß sich was geändert hat, dann nicht durch die nVNews Videos - oder? :|
derominöseGast
2005-09-01, 15:43:13
Ich bin kein Freund aggressiver Diskussionskultur (mehr :D ), also versuche nicht, mich zu provozieren :naughty:
Sag doch mal: wenn Du sicher bist, daß sich was geändert hat, dann nicht durch die nVNews Videos - oder? :|
ist dir langweilig wie mir? x-quellen bzw. betatester berichten das dieses problem weg ist und man nun 6800HQ habe...
ich möchte mehr aber das wird nix...
Ich bin kein Freund aggressiver Diskussionskultur (mehr :D ), also versuche nicht, mich zu provozieren :naughty:
Sag doch mal: wenn Du sicher bist, daß sich was geändert hat, dann nicht durch die nVNews Videos - oder? :|Wenn ich mir sicher bin, dann liegen dem sichere Quellen zugrunde. Beim G70-Flimmerproblem bin ich mir sicher, dass der G70 in HQ zu NV40 HQ vergleichbare Qualität bringen kann.
Dass Nvidia von einem Bug spricht, ist klar. Wäre es kein Bug, sondern Absicht, würden sie dann von Absicht sprechen? Wäre es ein Bug, steht die Frage wieso er nicht erkannt wurde. In jedem Fall ist ein reichlich blöder Bug, so viel Qualität für 2-3% Geschwindigkeit zu opfern. Man kann es drehen und wenden wie man will, Nvidia hat sich nicht mit Ruhm bekleckert.
Auch NV40-HQ-AF-Qualität ist mir für eine moderne SM3-Karte klar zu wenig. Wenn das G70-Flimmern in HQ weg ist, ist das ein Grund, sich erst richtig reinzuhängen:
- Unterfilterung darf es auch im Default-Modus nicht geben,
und, der Dauerbrenner:
- Die winkelabhängige AF-Maximalgradsenkung muss weg.
Wenn man 16x AF einschaltet, dann deshalb um bei Texturen bis zu einem Verzerrungsgrad von 16:1 noch anisotrope Filterung zu bekommen. Und nicht winkelabhängig nur bis 2:1 und ab dann die Unschärfe zu sehen. Nvidia hatte die Transistoren für alles mögliche. Bei isotroper Filterung wurden zusätzliche Schaltkreise eingebaut, um etwas Füllrate zu sparen und dabei gleichzeitig die Qualität zu erhöhen. Der ATI-Style beim AF ist unwürdig und widerspricht den Erfordernissen für hohe Bildqualität. Texturschärfe soll schließlich überall zu sehen sein und nicht nur hier und da. Reicht die Leistung für 16x AF nicht, ist das Bild insgesamt besser wenn es ingesamt unschärfer ist, als wenn nur einige Teile unscharf gemacht werden.
derominöseGast
2005-09-01, 17:26:14
Aths, ich glaube der zeitpunkt wäre ideal einen neuen artikel zu machen über die winkelabhängigkeit und die NV40/G70 Default Quality in bezug auf benchmarks.
die aufmerksamkeit ist momentan vorhanden und es könnte etwas bewirkt werden.
plant ihr etwas?
frage an alle: Was haltet ihr hiervon? http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3440539&postcount=8
Offensichtlich schwächelt auch das AA...
/EDIT: grestorn hat einiges Aufgeklärt, aber die Frage bezüglich der Unschärfe bei SS/MS AA bleibt noch.
@DÖG: Full Ack!
(del676)
2005-09-01, 20:16:21
Aths, ich glaube der zeitpunkt wäre ideal einen neuen artikel zu machen über die winkelabhängigkeit und die NV40/G70 Default Quality in bezug auf benchmarks.
die aufmerksamkeit ist momentan vorhanden und es könnte etwas bewirkt werden.
plant ihr etwas?
full ack!
Grestorn
2005-09-01, 20:28:12
frage an alle: Was haltet ihr hiervon? http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3440539&postcount=8
Offensichtlich schwächelt auch das AA...
6xAA (welches eigentlich 6x Sparsed Grid Multisampling ist) ist in keiner Weise mit 8xS von nV vergleichbar (welches 4x Rotated Grid MS plus 2x Ordered Grid Supersampling ist).
Polygon-Kanten werden prinzipiell durch ATI's 6xAA etwas besser geglättet. Dafür kann 6xAA Textur-Aliasing (also Aliasing innerhalb von Texturen) und Alpha-Test Texturen überhaupt nicht glätten, nVidia's 8xS wegen dem Supersampling-Anteil aber schon.
Für einen direkten optischen Vergleich einiger AA-Modi, siehe diesen Link: www.nhancer.com/help/AAPres.htm
Ich bin neu im Forum habe aber einige der Beiträge zum Thema "Filterung" gelesen und hier wird stock und steif behauptet das ATI stets besser filtert als NV (seit erscheinen des NV40 wohlgemerkt), ich denke das liegt wohl an der hohen Anzahl an ATI Usern hier, aber einige sollten sich doch mal diesen Artikel ansehen:
http://www.digit-life.com/articles2/gffx/nv40-rx800-4-p3.html
Er wurde glaube ich noch von niemanden rezitiert, von daher glaube ich ist er unbekannt.
Ice =A=
2005-09-01, 21:36:36
@Gast:
Wir wissen schon, daß das anisotropische Filtering bei nVidia prinzipiell (!) noch ein klein wenig besser is. Aber es gibt eben mehrere Effekte, an denen man gutes Filtering festmacht. Die Texturen bei nVidia mögen etwas schärfer oder auch weniger winkelabhängig gefiltert sein, trotzdem (oder zum kleinen Teil deswegen) flimmern sie mehr. Außerdem gibt's noch zusätzliche Probleme wie die Pfeil-"Optimierung".
derominöseGast
2005-09-01, 22:54:58
frage an alle: Was haltet ihr hiervon? http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3440539&postcount=8
Offensichtlich schwächelt auch das AA...
/EDIT: grestorn hat einiges Aufgeklärt, aber die Frage bezüglich der Unschärfe bei SS/MS AA bleibt noch.
@DÖG: Full Ack!
meine ganz unqualifizierte beobachtung:
bei ATI ist die gelbe schrift im schwarzen bereich schärfer! warum? :confused: mangelnde 2D Quali?
zweitens scheint mir das 8aa von Nvidia rein vertikal besser zu glätten als 6xATI (man beachte die vertikalen grünen streifen in der mitte)
MadManniMan
2005-09-02, 00:34:45
ist dir langweilig wie mir? x-quellen bzw. betatester berichten das dieses problem weg ist und man nun 6800HQ habe...
Neinnein!
Es ist nur grad so, daß ich außer um die nVNews-Videos um keine Bilder/Filme weiß, auf denen die ... "Verbesserung" (es wird ja nur besser, nicht gut :D ) zu erkennen ist. Und das ist sie nunmal auf diesen Videos nicht. Es müssen absolut identische Szenen mit gleichen Kontrastverhältnissen her - ich denke nicht, daß die Quellen lügen und vor allem zweifle ich unter diesen speziellen Umständen auch aths Aussagen keineswegs an (richtig, Du Grinseavatar, ich glaub Dir ja), aber ich möchte es gesehen haben.
*bock*
ich möchte mehr aber das wird nix...
Leider ... ich will mit meinem NV43M flimmerfreies AF - nicht "grenzwertiges" (es ist unruhig, das reicht mir schon :P )!
*bock*
Stell Dir vor, unsere Laune würde nur vom AF von nVs Karten abhängen - man was wären wir depressiv!
MadManniMan
2005-09-02, 00:37:54
frage an alle: Was haltet ihr hiervon? http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3440539&postcount=8
Offensichtlich schwächelt auch das AA...
/EDIT: grestorn hat einiges Aufgeklärt, aber die Frage bezüglich der Unschärfe bei SS/MS AA bleibt noch.
@DÖG: Full Ack!
Errm, das liegt an der Lösung der Schriftintegration in die AA-Tester Engine. Viele ältere Probleme haben das Problem der leicht vermatschten Schrift bei Supersampling - das ist aber ein generelles, keine rein von nV.
Hier wird dann einfach die eigentlich scharf dargestellte Schrift mit dem Hintergrund verrechnet, was eigentlich nich im Sinne des Schöpfers ist.
Erfahrungsgemäß tritt das aber bei aktuellen Sachen kaum mehr auf bzw. ist bei den betroffenen Titeln zwar mit einer anderen Darstellung der Schrift verbunden, nach kurzer Eingewöhnung jedoch nicht mit schlechterer.
Also: Matscheschrift = Natur von Supersampling, kein böser nV-Fehler oder gar beabsichtigter Bug ( :D )
Neinnein!
Es ist nur grad so, daß ich außer um die nVNews-Videos um keine Bilder/Filme weiß, auf denen die ... "Verbesserung" (es wird ja nur besser, nicht gut :D ) zu erkennen ist. Und das ist sie nunmal auf diesen Videos nicht. Es müssen absolut identische Szenen mit gleichen Kontrastverhältnissen herGenau.
- ich denke nicht, daß die Quellen lügen und vor allem zweifle ich unter diesen speziellen Umständen auch aths Aussagen keineswegs an (richtig, Du Grinseavatar, ich glaub Dir ja), aber ich möchte es gesehen haben.Jetzt schon, ohne dass es öffentlich einen Treiber gibt?
Was mich ein bisschen stört ist die Masche jetzt: Tagelang geht durch die Medien, dass NV bald flimmerfreie Treiber anböte. Reicht nicht eine kurze Notiz dazu? Als ob das jetzt der totale Grund wäre, den G70 zu kaufen und mit dem AF zufrieden zu sein.
Naja, immerhin Grund genug mir ne zweite GTX zuzulegen, da ATI mit dem R520 und Crossfire leider nicht aus den Puschen zu kommen scheint ;)
Das heißt allerdings nicht, dass ich den Q-Modus und auch HQ nicht noch weiter verbesserungswürdig finde.
Ääähmm ... Also hat schon wer den neuen Treiber getestet und kann selbst Videos machen? Die müssten ja eigentlich schon da sein. Aber weder auf der Beta-Treiber noch auf der Original-Treiber seite von Nvidia konnte ich etwas entdecken...
Naja, wünschen kann man sich vieles. Ich würde mir eine komplett neue Grafiktechnologie wünschen, am besten Radiosity in Echtzeit. ;D Aber ich glaube, den Treiber, den Nvidia schon für gestern versprochen hat, allgemein zu veröffentlichen, dürfte doch nicht so schwer sein...
derominöseGast
2005-09-02, 13:44:22
Ääähmm ... Also hat schon wer den neuen Treiber getestet und kann selbst Videos machen? Die müssten ja eigentlich schon da sein. Aber weder auf der Beta-Treiber noch auf der Original-Treiber seite von Nvidia konnte ich etwas entdecken...
Naja, wünschen kann man sich vieles. Ich würde mir eine komplett neue Grafiktechnologie wünschen, am besten Radiosity in Echtzeit. ;D Aber ich glaube, den Treiber, den Nvidia schon für gestern versprochen hat, allgemein zu veröffentlichen, dürfte doch nicht so schwer sein...
ich suche und suche... nix. aber man darf nicht vergessen das diese meldung das der treiber gestern hätte kommen sollen nur auf CB war...
offiziell von NV hab ich das nicht gehört.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.