Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: HighEnd-Chip G70: Nur noch mit flimmernder Grafik?


Seiten : [1] 2 3 4 5 6 7

Leonidas
2005-08-12, 22:28:26
Link:
http://www.3dcenter.org/artikel/g70_flimmern/

edit by aths: You can also post in english.




Artikel-Update:
Mit der Forceware-Treiberversion 78.03 und höher ist das Flimmern im HQ-Modus beseitigt worden, wobei die Framerate nur etwa 2-4% gegenüber dem alten Flimmer-HQ-Modus sinkt. Allerdings ist die Grafik in der Standardeinstellung weiterhin flimmerig. Man sollte deshalb (GeForce 6 und 7) immer im HQ-Modus benchen, da die Konkurrenz (zumindest mit "A. I." auf "low") kein solches Flimmern zeigt.





PS: Traffic des entsprechenden Servers

1.8. 2341 MB
2.8. 2394 MB
3.8. 2464 MB
4.8. 2493 MB
5.8. 2551 MB
6.8. 2315 MB
7.8. 2570 MB
8.8. 2792 MB
9.8. 2766 MB
10.8. 2781 MB
11.8. 4228 MB (7800GT-Launch)
12.8. 8621 MB
13.8. 39191 MB (G70-Flimmer-Artikel)
14.8. 51213 MB
15.8. 75775 MB
16.8. 54527 MB
17.8. 28871 MB
18.8. 19520 MB
19.8. 24789 MB (englische Version)
20.8. 61133 MB



PS2:
Ein in den Newskommentaren von ComputerBase gefundenes Gedicht seitens TSHM:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/august/herstelleruebergreifendes_sli/

Zuerst Bildqualität propagiert
Aber was ist passiert?
Nun Optimierung aktiviert
Und mit Balkenlänge jongliert
So zum Kauf qualifiziert?
Dann aber endlich kritisiert
Und Ausschließung riskiert (3DC)
Aber von NV akzeptiert
Und nun Optimierung deaktiviert
Als Bug Fehler minimiert...

Raff
2005-08-12, 22:49:31
Die Videos sind das, worauf ich schon lange warte -- dickes Plus dafür! :up:
Endlich mal in richtiger Bewegung sehen, wie der G70 flimmert. Ich kann mir nämlich kaum vorstellen, wie man 6800-Q noch weiter verschlechtern kann ... Und dazu praktischerweise die gleiche Szene mit einer FX. Frage dazu: Welche FX? Im Text wird die 5800 Ultra erwähnt -- ist es die? Falls ja, mit "bri", oder GF4-Style mit einem 40er-Treiber?

Bin noch am Laden ...

Hoffentlich sehen sich das eine Menge Leute an.

MfG,
Raff

deekey777
2005-08-12, 22:57:51
Ich glaub, es war aths, der meinte, daß die FXen mit neuen Treibern wieder mustergültige Filterqualität liefern.
Was vielleicht fehlt, ist eine AF-Blume der Radeons - nur der Vollständigkeit wegen. Sonst traurig.

Gast
2005-08-12, 23:02:11
endlich ein artikel der mal wirklich zeigt was sache ist, diese "optimierungen" müssen aufhören.

für eine schlechte wahl halte ich dagegen die unreal-engine für den vergleich zu nehmen, ich finde man sollte für einen derartigen vergleich erstmals ein programm verwenden bei dem es nach möglichkeit nicht noch zusätzliche applikationsspezifische optimierungen gibt (ganz ausschließen kann man das natürlich nie, aber gerade UT2k4 ist ja dafür bekannt)

Raff
2005-08-12, 23:03:46
Urks, das ruckelt ja wirklich abartig. Mit was für Maschinchen soll das ohne den MP Classic-Spaß flüssig laufen? Ein 2,4 GHz Toastbrot reicht jedenfalls nicht ... ;)

MfG,
Raff

betasilie
2005-08-12, 23:07:07
Respekt an aths. Guter prägnanter Artikel, der es auf den Punkt bringt ohne wenn und aber.

Für mich war das Flimmern meiner ersten 6800GT ein Grund auf meine jetzige X800Pro zu wechseln. Schön, dass das Problem jetzt mal ernst genommen wird, auch wenn dafür scheinbar erst der Holzhammer im Form einer übelst flimmernden 7800GTX notwendig war.

Gast
2005-08-12, 23:14:37
waren eigentlich bei den nvidias quality-videos zusätzliche optimierungen aktiv oder nicht?

aths
2005-08-12, 23:29:01
Die Videos sind das, worauf ich schon lange warte -- dickes Plus dafür! :up:
Endlich mal in richtiger Bewegung sehen, wie der G70 flimmert. Ich kann mir nämlich kaum vorstellen, wie man 6800-Q noch weiter verschlechtern kann ... Und dazu praktischerweise die gleiche Szene mit einer FX. Frage dazu: Welche FX? Im Text wird die 5800 Ultra erwähnt -- ist es die? Falls ja, mit "bri", oder GF4-Style mit einem 40er-Treiber?PCX 5750. Mit einem aktuellen Treiber im HQ-Modus. "Dank" der UT-Engine, die von aktuellen Treibern erkannt wird, müsste auch das brilinear gefiltert sein.

aths
2005-08-12, 23:30:16
waren eigentlich bei den nvidias quality-videos zusätzliche optimierungen aktiv oder nicht?Soweit ich von Damien weiß, reiner Treiber-Standard. Das ist Quality mit einigen "Optimierungen" (echte Optimierungen sind es ja nicht, die heißen nur so) man sieht jedenfalls deutlich die brilineare Filterung und das AF-Flimmern, im Q-Modus durch Unterfilterung verstärkt. Die letzte "Optimierung" (nur bi-AF auf nichtprimären Texturstages) ist in der Szene ohnehin nicht zu sehen (da es nur eine Textur gibt.)

Soweit ich weiß, ist die Unterfilterung ("AF Sample Optimization") ab Q (und darunter) immer aktiv, obwohl es einen (leider wirkungslosen) Extra-Schalter dafür gibt.

betasilie
2005-08-12, 23:37:57
Was ist das für ein Codec, den ich für die Videos brauche? Wieso nicht xVid oder DivX? ;(

Raff
2005-08-12, 23:39:37
PCX 5750. Mit einem aktuellen Treiber im HQ-Modus. "Dank" der UT-Engine, die von aktuellen Treibern erkannt wird, müsste auch das brilinear gefiltert sein.

Interessant wäre dann noch ein GF3/4-Video, da diese Karten bekanntlich nicht "brillieren" (herrlich paradoxes Wortspiel in diesem Zusammenhang, oder? X-D).

Wobei ... mit neuen Treibern vielleicht doch. Bei meinen GF4-Tests vor einem halben Jahr habe ich einen fast 50%igen fps-Zuwachs mit 8xAF in UT2004 ab den End-50er-Treibern bemerkt. Ob da geschummelt wird? Käme vom fps-Verlust etwa hin ... aber optisch nichts zu sehen -- wie auch im Video zur FX, falls bri da aktiv ist ...

MfG,
Raff

Mr. Lolman
2005-08-12, 23:40:16
Urks, das ruckelt ja wirklich abartig. Mit was für Maschinchen soll das ohne den MP Classic-Spaß flüssig laufen? Ein 2,4 GHz Toastbrot reicht jedenfalls nicht ... ;)

MfG,
Raff

Bei mir läufts mit 30fps...

Raff
2005-08-12, 23:42:42
Bei mir läufts mit 30fps...

:|

Ich habe den MP10 + DivX 6.0 ... und du?

MfG,
Raff

Mr. Lolman
2005-08-12, 23:43:46
Die letzte "Optimierung" (nur bi-AF auf nichtprimären Texturstages) ist in der Szene ohnehin nicht zu sehen (da es nur eine Textur gibt.)

AFAIK ist das nicht die letzte sondern die 2. Optimierung. Und außerdem igibts mit der biAF über alle TS...

Mr. Lolman
2005-08-12, 23:44:26
:|

Ich habe den MP10 + DivX 6.0 ... und du?

MfG,
Raff

DivX ist wurscht (is ja nicht DiVX codiert). Ich spiels mit dem BSPlayer ab...

aths
2005-08-12, 23:48:17
Interessant wäre dann noch ein GF3/4-Video, da diese Karten bekanntlich nicht "brillieren" (herrlich paradoxes Wortspiel in diesem Zusammenhang, oder? X-D).Damien konnte in der Zeit kein AGP-System zusammenstellen.

aths
2005-08-12, 23:49:10
Was ist das für ein Codec, den ich für die Videos brauche?Steht im Artikel.
Wieso nicht xVid oder DivX? ;(Bieten die verlustfreie Komprimierung?

aths
2005-08-12, 23:50:01
AFAIK ist das nicht die letzte sondern die 2. Optimierung. Ja, aber die letzte, die ich aufgezählt habe.
Und außerdem igibts mit der biAF über alle TS...Kann ich kaum glauben. edit: Es ist auch nicht so. Die primäre TS bekommt tri- bzw. brilineares AF.

Gast
2005-08-12, 23:54:01
AFAIK ist das nicht die letzte sondern die 2. Optimierung. Und außerdem igibts mit der biAF über alle TS...

unter D3D nicht, in OGL gibt es keine stages in dem sinn, weshalb alles bilinear gefiltert wird.

Gast
2005-08-12, 23:55:06
Urks, das ruckelt ja wirklich abartig. Mit was für Maschinchen soll das ohne den MP Classic-Spaß flüssig laufen? Ein 2,4 GHz Toastbrot reicht jedenfalls nicht ... ;)

MfG,
Raff

imo ist nicht die cpu das problem sondern eher die festplatte.

auf anhieb 71MB in 2s zu laden ist nicht so ohne ;)

aths
2005-08-12, 23:57:00
unter D3D nicht, in OGL gibt es keine stages in dem sinn, weshalb alles bilinear gefiltert wird.Auch in OpenGL habe ich mit dieser "Optimierung" noch trilineare Filterung.

Gast
2005-08-13, 00:00:01
Urks, das ruckelt ja wirklich abartig. Mit was für Maschinchen soll das ohne den MP Classic-Spaß flüssig laufen? Ein 2,4 GHz Toastbrot reicht jedenfalls nicht ... ;)

MfG,
Raff

es ist die festplatte, ich hab es mal auf die 2. kopiert, wo genug platz ist so dass nix fragmentiert und schon läuft das ganze einwandfrei

mapel110
2005-08-13, 00:02:26
:|

Ich habe den MP10 + DivX 6.0 ... und du?

MfG,
Raff
Nimm Media Player Classic! Wenn der die Files im Speicher hat, flutscht es. :)

So, und jetzt mache ich mich unbeliebt. :D
Ich würde mir dennoch den G70 kaufen. Das was ich auf den Videos im Vergleich zu ATI sehe, würde mich nicht großartig stören. Ich sehe nur ziemlich in der Mitte des Bildes ganz leichtes Grieseln bei 7800HQ. Nicht schön, aber mir würde das beim Gamen sicher nicht weiter auffallen.

p.s. Viel Spaß noch, ich lass mal die unter sich, die auf diese Pixel Wert legen. :)

[dzp]Viper
2005-08-13, 00:07:06
Nimm Media Player Classic! Wenn der die Files im Speicher hat, flutscht es. :)

So, und jetzt mache ich mich unbeliebt. :D
Ich würde mir dennoch den G70 kaufen. Das was ich auf den Videos im Vergleich zu ATI sehe, würde mich nicht großartig stören. Ich sehe nur ziemlich in der Mitte des Bildes ganz leichtes Grieseln bei 7800HQ. Nicht schön, aber mir würde das beim Gamen sicher nicht weiter auffallen.

oh doch es fällt auf.. und zwar sehr stark.. hier im forum gabs mal vergleichsvideos in BF2..

Und mich hats ja schon bei der 6600gt gestört nachdem meine 9800pro abgraucht war.. das flimmer merkt man ziemlich stark - aber es gibt Spielstellen da sieht man das kaum und dann wieder stellen wo das stärker zu sehen ist

betasilie
2005-08-13, 00:11:25
Steht im Artikel.
Bieten die verlustfreie Komprimierung?
Ok, danke. Aber die Videos brauche ich ohnehin nicht, weil ich X800 und 6800 @home habe und einen 7800GTX hatte ich 3 tage im Rechner. Ich kenn das Elend also.

mapel110
2005-08-13, 00:14:27
Viper']oh doch es fällt auf.. und zwar sehr stark.. hier im forum gabs mal vergleichsvideos in BF2..

Und mich hats ja schon bei der 6600gt gestört nachdem meine 9800pro abgraucht war.. das flimmer merkt man ziemlich stark - aber es gibt Spielstellen da sieht man das kaum und dann wieder stellen wo das stärker zu sehen ist
Schau dir lieber Videos an, die von Leuten mit Ahnung gemacht wurden. BF2 und UT2k3 interessieren mich auch nicht sonderlich, zocke beides nicht. Mir wäre ein Vergleich bei einem nicht zercheatetem Game lieber. Dass man bei ut2k3 einige Optimierungen nicht abstellen kann, ist seit langem bekannt.
Aber wie gesagt, noch viel Spaß hier.

Mr. Lolman
2005-08-13, 00:15:36
x) Ich hätt NVs Verwirrspiel noch sträker herauskristallisiert. Lt. Reviewguides soll man mit Q benchen. Treiberdefault (77.76) ist aber Q+Opt1,2. Stellt man AA/AF übers CP ein sind alle plötzlich Optimierungen aktiv. Davon haben die User nix, den denen fällt eher die schlechtere BQ als die bessere Performance auf. Diese "Bugs" sind nur für die Reviewer da.

x) Außerdem wärn bei so ner farbarmen Textur animierte gifs auch nicht verkehrt gewesen. (und falls doch hätte man immer noch Graustufen verwenden können)

x) Desweiteren ist der verwendete Codec supoptimal. Videos von fraps1.9 kann man mit 7zip auf ein ca. Drittel runterpacken. Genauso sind 30fps unkomprimiertes Material eher nachteilig. Man braucht nicht nur ein Highendsys sondern die Videos sind gerade mal ~2.5 sekunden lang. Meine jew. 100MB (auf 30MB gepackten) Q3a Videos sind 11 sek lang.

x) Zusätzlich frag ich mich, ob Leo nicht der Traffic zuviel werden könnte. Ok, nicht jeder zieht sich gleich 500MB Videos, aber selbst wenn das pro Tag nur 3 Leute machen kommt da pro Monat ordentlich was zusammen (45GB). Allein deswegen würd ich auch animierte Gifs reinstellen. Der Vollständigkeit halber wären highres Screenshots auch nicht verkehrt gewesen (+ colormips)

x) Und das Fazit könnte man ruhig fett drucken und ein paar Benchmarks zu untermauerung des Beschisses der hier eigentlich geschieht wären auch nicht so fehl am Platze gewesen.

x) Dass ihr fürn Vergleich UT2003 genommen hat, ist zwar auch nicht unbedingt zu NVs vorteil, aber wenigstens konsequent.

So jetz is gut mit der Kritik. Alles in allem hat mir der gespannt erwartete Artikel recht gut gefallen, auch wenn er etwas kurz ist und für einige User aufgrund der Videos praktisch wohl nicht nachvollziehbar sein wird.



BTW: Noch ein Vorteil von gifs ist, dass man die direkt nebeneinander stellen kann. Probier das mal mit den Videos ;)



Achja, wann darf man das erste Review, wo mit halbwegs vergleichbarer BQ gebencht wurde, erwarten?

Raff
2005-08-13, 00:17:21
Wer Lust hat, noch ein paar Videos zu machen: Serious Sam 2nd Encounter eignet sich beispielsweise im Ambiente der "Die Große Kathedrale"-Timedemo vorzüglich, um das Flimmern/Grieseln zu zeigen. IMHO einer der schlimmsten Fälle. Das Gras tut einfach nur übelst weh in den Augen ...

MfG,
Raff

Mr. Lolman
2005-08-13, 00:17:37
Schau dir lieber Videos an, die von Leuten mit Ahnung gemacht wurden. BF2 und UT2k3 interessieren mich auch nicht sonderlich, zocke beides nicht. Mir wäre ein Vergleich bei einem nicht zercheatetem Game lieber. Dass man bei ut2k3 einige Optimierungen nicht abstellen kann, ist seit langem bekannt.
Aber wie gesagt, noch viel Spaß hier.

Das ist ne unnötige Pauschalisierung. Wann hat man Ahnung. Wenn man ne HW Seite führt? Sry, das kann heutzutage jeder Depp.

BTW: Q3a ist nicht zercheatet. Und da gibts von mir 3 unkomprimierte Videos (und mittlerweile unzählige gifs).

Mr. Lolman
2005-08-13, 00:18:59
Ja, aber die letzte, die ich aufgezählt habe.
Kann ich kaum glauben. edit: Es ist auch nicht so. Die primäre TS bekommt tri- bzw. brilineares AF.


Bei deinen AF Testern vll.. Bei UT2004 und bei Q3a nicht.

/edit: Ok bei Ut2004 schon X-D, sry hab mich von der Detailtextur täuschen lassen. :redface:

betasilie
2005-08-13, 00:20:52
Das ist ne unnötige Pauschalisierung. Wann hat man Ahnung. Wenn man ne HW Seite führt? Sry, das kann heutzutage jeder Depp.

BTW: Q3a ist nicht zercheatet. Und da gibts von mir 3 unkomprimierte Videos (und mittlerweile unzählige gifs).
Ach, reg dich nicht auf. Manche Leute kaufen halt immer Nvidia und reden sich die Karten dann pauschal schön. Jeder wie er will.

Gast
2005-08-13, 00:28:33
kann man übrigens irgendwie an die verwendete textur rankommen?

Gast
2005-08-13, 00:30:15
Bei deinen AF Testern vll.. Bei UT2004 und bei Q3a nicht.

:

Q3a ist OGL -> keine texturstageoptimierung -> alles wird optimiert ;)

aths
2005-08-13, 00:35:59
Bei deinen AF Testern vll.. Bei UT2004 und bei Q3a nicht.

/edit: Ok bei Ut2004 schon X-D, sry hab mich von der Detailtextur täuschen lassen. :redface:Bei UT und teilweise Max Payne liegen auch wichtige Bildtexturen auf einer höheren Texturstage. Da kann es so aussehen als sei alles nur bilinear anisotrop gefiltert.

Das ist ne unnötige Pauschalisierung. Wann hat man Ahnung. Wenn man ne HW Seite führt? Sry, das kann heutzutage jeder Depp. Damien Triolet führt keine HW-Seite, aber schreibt gute Artikel. Nicht, dass er nie Fehler machen würde, aber er hat Ahnung. Sogar richtig Ahnung.

BTW: Q3a ist nicht zercheatet. Und da gibts von mir 3 unkomprimierte Videos (und mittlerweile unzählige gifs).Viele Timedemo-Benches sind seit langem, äh, speziell "optimiert".

Keel
2005-08-13, 00:38:00
Den Artikel selbst lese ich jetzt nicht mehr, aber das 7800er Q Vid hab ich mir schonmal reinzogen. Und was soll ich sagen? Das Flimmern meiner 6600GT find ich ja schon nervig, aber was die 7800er so abziehen ist ja der helle Wahnsinn! Das tut ja richtig in den Augen weh. :frown:

aths
2005-08-13, 00:47:29
x) Ich hätt NVs Verwirrspiel noch sträker herauskristallisiert. Lt. Reviewguides soll man mit Q benchen. Treiberdefault (77.76) ist aber Q+Opt1,2. Stellt man AA/AF übers CP ein sind alle plötzlich Optimierungen aktiv. Davon haben die User nix, den denen fällt eher die schlechtere BQ als die bessere Performance auf. Diese "Bugs" sind nur für die Reviewer da.Man kann es nicht alles recht machen. Bei den ganzen Feinheiten der Treiberbugs habe ich eh keinen Überblick. Sogut wie alle Bugs äußern sich darin, dass man weniger Qualität bekommt als man eingestellt hat, ja.

Ich möchte nicht kleinkariert wirken, aber darum bitten, nicht von besserer "Performance" oder "Leistung" zu sprechen, wenn die erhöhte Framerate aufgrund von Qualitätskompromissen zustande kam. Leistung ist Arbeit pro Zeit. Mit den "Optimierungen" wird weniger gearbeitet. Eine gute "Performance" (Darstellung, Leistung) beinhaltet von der Wortbedeutung her auch Qualität, nicht nur Quantität.

x) Außerdem wärn bei so ner farbarmen Textur animierte gifs auch nicht verkehrt gewesen. (und falls doch hätte man immer noch Graustufen verwenden können)

x) Desweiteren ist der verwendete Codec supoptimal. Videos von fraps1.9 kann man mit 7zip auf ein ca. Drittel runterpacken. Genauso sind 30fps unkomprimiertes Material eher nachteilig. Man braucht nicht nur ein Highendsys sondern die Videos sind gerade mal ~2.5 sekunden lang. Meine jew. 100MB (auf 30MB gepackten) Q3a Videos sind 11 sek lang.Auch fraps packt ca. auf 1/3. Wenn du bessere Videos machen kannst, immer her damit. GIFs halte ich nach wie vor für zu kompromissbehaftet.

x) Zusätzlich frag ich mich, ob Leo nicht der Traffic zuviel werden könnte. Ok, nicht jeder zieht sich gleich 500MB Videos, aber selbst wenn das pro Tag nur 3 Leute machen kommt da pro Monat ordentlich was zusammen (45GB). Allein deswegen würd ich auch animierte Gifs reinstellen. Der Vollständigkeit halber wären highres Screenshots auch nicht verkehrt gewesen (+ colormips)

x) Und das Fazit könnte man ruhig fett drucken und ein paar Benchmarks zu untermauerung des Beschisses der hier eigentlich geschieht wären auch nicht so fehl am Platze gewesen.

x) Dass ihr fürn Vergleich UT2003 genommen hat, ist zwar auch nicht unbedingt zu NVs vorteil, aber wenigstens konsequent.Leos Traffic wird dann zum Problem, wenn jeder erst mal auf Verdacht alle Videos saugt anstatt zu prüfen, ob die bei ihm überhaupt laufen. Screenshots zeigen das Flimmern nur schlecht, am Ende höre ich wieder, der Screenshot sei besser, da die Texturen schärfer seien.

Im Artikel und im Fazit habe ich mich mit zu kräftigen Formulierungen, die als Meinung ausgelegt werden könnten, zurückgehalten und mich auf Fakten gestützt. Beim Beschiss machen alle kräftig mit – 3DCenter lässt im Artikel auch Selbstkritik anklingen. Andersherum machten alle kräftig beim Beschiss mit, als AF-Benches Radeon vs. GeForce FX liefen. Meine Meinung zum Thema: Nvidia erschwindelt sich Benchmark-Punkte mit einer Dreistigkeit, die sprachlos macht und was sie bei der 7800 GTX abziehen ist schlicht eine Sauerei – hätte ich das so formuliert, würden Nvidia-Freunde mich gar nicht wahrnehmen, da ich nur hetzen wolle. Die Videos, die Beweise liefern, würde wegdiskutiert. Mit dem fast durchweg sachlichen Tonfall zwinge ich zu einer vernünftigen Diskussion. Keinem ist damit geholfen, wenn sich alle aufregen. Das Problembewusstsein muss geschaffen werden, da lasse ich lieber die Videos sprechen anstatt allzu kräftige Worte zu nutzen. Benchmark habe ich leider nicht, vielleicht liefert Leo noch ein paar Q/HQ-Vergleiche nach.

Die Videos hat Damien gemacht. Wenn Nvidia für gewisse Spiele extra-"optimiert", kann ich nichts dafür.

So jetz is gut mit der Kritik. Alles in allem hat mir der gespannt erwartete Artikel recht gut gefallen, auch wenn er etwas kurz ist und für einige User aufgrund der Videos praktisch wohl nicht nachvollziehbar sein wird. Übrigens ist das nicht der erwartete Artikel, da gibts erst ein bissel Arbeitstext, der wohl aber so nicht mehr genutzt wird. Dieser Artikel hier kam als Artikel, weil es für die News zu lang wurde, und Damien plötzlich Videos hatte. Ich hätte keine Probleme gehabt, den Artikel ohne einen einzigen Screenshot (oder ein Video) zu bringen.

BTW: Noch ein Vorteil von gifs ist, dass man die direkt nebeneinander stellen kann. Probier das mal mit den Videos ;)

Achja, wann darf man das erste Review, wo mit halbwegs vergleichbarer BQ gebencht wurde, erwarten?GIFs sind aber von der Qualität her subtoptimal, da nicht verlustfrei. Was Reviews angeht, musst du Leonidas fragen.

Mr. Lolman
2005-08-13, 01:15:14
Man kann es nicht alles recht machen. Bei den ganzen Feinheiten der Treiberbugs habe ich eh keinen Überblick. Sogut wie alle Bugs äußern sich darin, dass man weniger Qualität bekommt als man eingestellt hat, ja. Ja so sind sie halt die "Bugs". Was heute alles als "Bug" bezeichnet wird. Bald wandelt sich dessen Bedeutung von "Fehler" auf "Beschiss", wenn das so weitergeht.


Ich möchte nicht kleinkariert wirken, aber darum bitten, nicht von besserer "Performance" oder "Leistung" zu sprechen, wenn die erhöhte Framerate aufgrund von Qualitätskompromissen zustande kam. Leistung ist Arbeit pro Zeit. Mit den "Optimierungen" wird weniger gearbeitet. Eine gute "Performance" (Darstellung, Leistung) beinhaltet von der Wortbedeutung her auch Qualität, nicht nur Quantität.Ja stimmt, hab ich auch schon mal irgendwo kritisiert (ja nichts macht vor dem Lolman halt X-D). Ich bemühe mich abjetzt "fps" zu schreiben, wenn ich "fps" meine. ;)


Wenn du bessere Videos machen kannst, immer her damit. GIFs halte ich nach wie vor für zu kompromissbehaftet.Naja die Links zu meinen Q3a Videos kennst du schon. Nur hab ich kein G70 ;(


Leos Traffic wird dann zum Problem, wenn jeder erst mal auf Verdacht alle Videos saugt anstatt zu prüfen, ob die bei ihm überhaupt laufen. Screenshots zeigen das Flimmern nur schlecht, am Ende höre ich wieder, der Screenshot sei besser, da die Texturen schärfer seien.Mit erklärendem Text und verweise auf die "einschlägigen Stellen" + gifs wär das wohl kaum ein Problem. Denn bei den meisten Usern wird wohl das Overlay die Schärfe total zamhauen. Da sind gifs auf jedenfall besser. BTW: Eigentlich hat NV durchs (geringfügig) unschärfere Overlay den Vorteil, dass die Videos weniger flimmern. Welch Ironie X-D


Im Artikel und im Fazit habe ich mich mit zu kräftigen Formulierungen, die als Meinung ausgelegt werden könnten, zurückgehalten und mich auf Fakten gestützt. Beim Beschiss machen alle kräftig mit – 3DCenter lässt im Artikel auch Selbstkritik anklingen. Andersherum machten alle kräftig beim Beschiss mit, als AF-Benches Radeon vs. GeForce FX liefen.Naja gegen ein fettgedrucktes Fazit hätt ja trotzdem nix gesprochen (aber das sind eh nur Details, an denen ich mich jetzt nicht aufhängen will)

BTW: Hätt ich ne GF4 gehabt, und wär mir die R300 negativ aufgefallen, hätt ich mich genauso wenig zurückgehalten.


Die Videos hat Damien gemacht. Wenn Nvidia für gewisse Spiele extra-"optimiert", kann ich nichts dafür.Da kann wohl ausser NV keiner was dafür.


Übrigens ist das nicht der erwartete Artikel, da gibts erst ein bissel Arbeitstext, der wohl aber so nicht mehr genutzt wird. Dieser Artikel hier kam als Artikel, weil es für die News zu lang wurde, und Damien plötzlich Videos hatte. Ich hätte keine Probleme gehabt, den Artikel ohne einen einzigen Screenshot (oder ein Video) zu bringen.D.h. es kommt noch ein umfangreicherer? *froi*


GIFs sind aber von der Qualität her subtoptimal, da nicht verlustfrei. Was Reviews angeht, musst du Leonidas fragen.Dafür haben sie nicht mit unscharfen Overlays zu kämpfen. Und wie gesagt schlimmstenfalls nimmt man halt Graustufen. BTW: Bei meinen gifs hab ich natürlich peinlichst genau auf Unterschiede zu originalen Bodentextur geachtet - und keine feststellen können. Ich hatte trotzdem auch noch den Content auch in Graustufen umgewandelt und weider mit dem durchschnittlichen Farbton der besagten Textur nachgefärbt - mit dem Ergebnis, dass das Flimmern subjektiv gleich stark war, wie bei den geditherten gifs.

Lange Rede kurzer Sinn: Imo macht das Overlay bei den Videos mehr kaputt als das Dithering bei den gifs. Und solange man das Material zusätzlich gänzlich unverfälscht anbietet (obs dann durch die Abspielsoftware verfälscht wird, ist wieder was anderes) spricht imo nix gegen gifs -> solang man die Szene soweit beschränkt, dass trotz der geringen Farbtiefe keine sichtbaren Unterschiede entstehen.

/edit: Hab dein Editiertes nicht mehr ins Quote genommen, habs aber gelesen und stimm dem überein.

aths
2005-08-13, 01:21:20
Mit erklärendem Text und verweise auf die "einschlägigen Stellen" + gifs wär das wohl kaum ein Problem. Denn bei den meisten Usern wird wohl das Overlay die Schärfe total zamhauen. Da sind gifs auf jedenfall besser. BTW: Eigentlich hat NV durchs (geringfügig) unschärfere Overlay den Vorteil, dass die Videos weniger flimmern. Welch Ironie X-DBei einer 1:1-Darstellung sollte es keine Unschärfe geben. MPC kann man so einstellen, dass kein Overlay genutzt wird.

GIFs sind verlustbehaftet und bieten damit eine Angriffsmöglichkeit, um die gezeigten Dinge kleinzureden.

Naja gegen ein fettgedrucktes Fazit hätt ja trotzdem nix gesprochen (aber das sind eh nur Details, an denen ich mich jetzt nicht aufhängen will)Fettdruck setze ich bewusst nur sparsam ein.

BTW: Hätt ich ne GF4 gehabt, und wär mir die R300 negativ aufgefallen, hätt ich mich genauso wenig zurückgehalten. "Finden setzt suchen voraus." Wenn man sich einfach damit zufrieden gibt, was man hat, kann man sogar irgendwie mit einer 7800 glücklich werden.

D.h. es kommt noch ein umfangreicherer? *froi*Vielleicht, vielleicht auch nicht.

Dafür haben sie nicht mit unscharfen Overlays zu kämpfen. Und wie gesagt schlimmstenfalls nimmt man halt Graustufen. BTW: Bei meinen gifs hab ich natürlich peinlichst genau auf Unterschiede zu originalen Bodentextur geachtet - und keine feststellen können. Ich hatte trotzdem auch noch den Content auch in Graustufen umgewandelt und weider mit dem durchschnittlichen Farbton der besagten Textur nachgefärbt - mit dem Ergebnis, dass das Flimmern subjektiv gleich stark war, wie bei den geditherten gifs.

Lange Rede kurzer Sinn: Imo macht das Overlay bei den Videos mehr kaputt als das Dithering bei den gifs. Und solange man das Material zusätzlich gänzlich unverfälscht anbietet (obs dann durch die Abspielsoftware verfälscht wird, ist wieder was anderes) spricht imo nix gegen gifs -> solang man die Szene soweit beschränkt, dass trotz der geringen Farbtiefe keine sichtbaren Unterschiede entstehen.Man muss wie gesagt Videos nicht zwangsweise mit dem Overlay betrachten. Das könnte man im Artikel noch ergänzen.

betasilie
2005-08-13, 01:23:45
"Finden setzt suchen voraus." Wenn man sich einfach damit zufrieden gibt, was man hat, kann man sogar irgendwie mit einer 7800 glücklich werden.
So wie Du mit der 6800, die bei dir angeblich nicht geflimmert hat? :biggrin:

Mr. Lolman
2005-08-13, 01:36:40
Bei einer 1:1-Darstellung sollte es keine Unschärfe geben. MPC kann man so einstellen, dass kein Overlay genutzt wird.Damit schränkt sich der Kreis der Zielgruppe für die Videos noch weiter ein.


GIFs sind verlustbehaftet und bieten damit eine Angriffsmöglichkeit, um die gezeigten Dinge kleinzureden.Für solche Leute würd ich vorbeugend auch noch zusätzliche graustufen gifs verlinken und nochmals auf die Videos hinweisen, neben dem Hinweis der Giflimitation und die unternommenen Versuche diese möglichst nicht aufscheinen zu lassen...


Fettdruck setze ich bewusst nur sparsam ein.Is gut. War ja nur ein Vorschlag. ;)


"Finden setzt suchen voraus." Wenn man sich einfach damit zufrieden gibt, was man hat, kann man sogar irgendwie mit einer 7800 glücklich werden.Hab ich mich auch beim R300 nicht. Die Leistung hat mich zwar extrem verblüfft. Und ich hab auch biAF verwendet. Genauso wie ich auf der 6800GT tw. Q+tri Opt verwende (mit 8xS). Aber ich hab auch mich über ATis LOD (bei Tenebrae) echauffiert.
Mir gehts idF nur um die generelle Vergleichbarkeit (und damit verbundener evtl verfälschter Benchmarks). Und ich wär auch nicht so auf die Filterproblematik angesprungen wenn mir beim Q3a-spielen (!!) nicht aufgefallen wär, dass selbst Q ohne Optimierungen deutlich flimmriger ist als Ati default, was ja im krassen Gegensatz zur vorherrschenden (Reviewer-)Meinung stand.


Vielleicht, vielleicht auch nicht.Na hoffentlich doch...


Man muss wie gesagt Videos nicht zwangsweise mit dem Overlay betrachten. Das könnte man im Artikel noch ergänzen.Sollte man unbedingt. Ist imo ne größere Irritation als minimale Farbverfälschungen bei gifs, wo ein TFT Panel u.U. sogar noch mehr zamhaut als das Gif selbst ;)

Leonidas
2005-08-13, 01:43:08
x) Zusätzlich frag ich mich, ob Leo nicht der Traffic zuviel werden könnte. Ok, nicht jeder zieht sich gleich 500MB Videos, aber selbst wenn das pro Tag nur 3 Leute machen kommt da pro Monat ordentlich was zusammen (45GB).


Nein, das ist schon schulterbar. Wir haben mit dem Forumsserver wirklich gigantische Freikontigente.


PS: In 1 3/4 Stunden fast 5GB Traffic auf einem Server, der sonst 3GB am kompletten Tag macht.

Ailuros
2005-08-13, 02:12:12
Hut ab fuer noch einen ausgezeichneten (und ja er ist zu kurz und ja die englische Version so schnell wie moeglich nachladen *hust*) Artikel.


Wer Lust hat, noch ein paar Videos zu machen: Serious Sam 2nd Encounter eignet sich beispielsweise im Ambiente der "Die Große Kathedrale"-Timedemo vorzüglich, um das Flimmern/Grieseln zu zeigen. IMHO einer der schlimmsten Fälle. Das Gras tut einfach nur übelst weh in den Augen ...

MfG,
Raff

Ich muss mir zwar das timedemo nochmal ansehen, aber hat Cathedral tatsaechlich Gras? Ich kann mich nur an den Steinboden erinnern....kann es sein dass Du Valley of the Jaguar meintest?

Raff
2005-08-13, 02:15:00
Nope, ich meine schon die Kathedrale. :)
Da ist Gras neben dem Steinboden. Beides flimmert ohne Ende ...

MfG,
Raff

aths
2005-08-13, 02:20:36
So wie Du mit der 6800, die bei dir angeblich nicht geflimmert hat? :biggrin:In HQ flimmert die 6800 nicht. (Meine 6600 GT tuts nicht und darauf schließe ich auf die 6800.)

betasilie
2005-08-13, 02:23:10
In HQ flimmert die 6800 nicht. (Meine 6600 GT tuts nicht und darauf schließe ich auf die 6800.)
Mit den aktuellsten Treibern vielleicht nicht mehr, aber vorher schon, solange man kein SSAA an hat.

tEd
2005-08-13, 02:25:26
Es kommt auf das spiel drauf an. HQ ist nicht gleich alle optimierungen abgeschaltet für jedes spiel

aths
2005-08-13, 02:26:36
Damit schränkt sich der Kreis der Zielgruppe für die Videos noch weiter ein. Man sollte sowieso den MPC zum abspielen nutzen, dann kann man auch das Overlay abschalten.

Für solche Leute würd ich vorbeugend auch noch zusätzliche graustufen gifs verlinken und nochmals auf die Videos hinweisen, neben dem Hinweis der Giflimitation und die unternommenen Versuche diese möglichst nicht aufscheinen zu lassen...Die Helligkeitsinformation ist zwar wichtig, aber nicht alles.

Hab ich mich auch beim R300 nicht. Die Leistung hat mich zwar extrem verblüfft. Und ich hab auch biAF verwendet. Genauso wie ich auf der 6800GT tw. Q+tri Opt verwende (mit 8xS). Aber ich hab auch mich über ATis LOD (bei Tenebrae) echauffiert.
Mir gehts idF nur um die generelle Vergleichbarkeit (und damit verbundener evtl verfälschter Benchmarks). Und ich wär auch nicht so auf die Filterproblematik angesprungen wenn mir beim Q3a-spielen (!!) nicht aufgefallen wär, dass selbst Q ohne Optimierungen deutlich flimmriger ist als Ati default, was ja im krassen Gegensatz zur vorherrschenden (Reviewer-)Meinung stand.Wie Q aussieht, das ist in anderen Threads ja schon besprochen, hatte mich nie interessiert. Auch entsprechende Benches interessieren mich wenig, da ich für eine Kaufentscheidung Benchmarks fast nicht berücksichtige. Als Redakteur sollte man natürlich den Unterschied in der Qualität kennen und darauf hinweisen, dass man die GeForce-Karten entgegen Nvidias Empfehlungen nicht in Q benchen darf. Hätte ich nicht gleich HQ eingeschaltet und wäre mir das Flimmern bei der 6600 GT aufgefallen was da nicht sein dürfte, hätte ich ein Fass aufgemacht.

Ich vertraute auch darauf, dass der Schalter für "AF Sample Optimization" in Q funzt. Das war, wie sich dann zeigte, ein Fehler.

Sollte man unbedingt. Ist imo ne größere Irritation als minimale Farbverfälschungen bei gifs, wo ein TFT Panel u.U. sogar noch mehr zamhaut als das Gif selbst ;)Was zerhaut der TFT? Das Flimmern habe ich mit einem 25-ms-TFT noch sehr gut erkennen können.

aths
2005-08-13, 02:29:31
Mit den aktuellsten Treibern vielleicht nicht mehr, aber vorher schon, solange man kein SSAA an hat.Es kommt auf das spiel drauf an. HQ ist nicht gleich alle optimierungen abgeschaltet für jedes spielJa, siehe UT. Aber ich kann nicht alles spielen und nur das bewerten, was ich sehe. UT flimmerte bei mir bei einigen Texturen auch mit der Radeon und der GeForce4 Ti. WoW, wo es im Forum viele Beschwerden gab, ist auf der 6600 GT bei mir nicht flimmernd, jedenfalls nicht in HQ. Vermutlich wurde da der Treiber-Standard belassen, dann kann es schon flimmern. Ich habe lange kein WoW mehr gespielt und im Moment die FX 5900 drin.

Raff
2005-08-13, 02:31:10
Mit den aktuellsten Treibern vielleicht nicht mehr, aber vorher schon, solange man kein SSAA an hat.

Flimmern in HQ wird man, wie du sagtest, nur mit alten Treibern sehen. Alles unter 71.84 WHQL flimmert, 67.03 und 67.66 ausgenommen.

MfG,
Raff

aths
2005-08-13, 02:32:45
Flimmern in HQ wird man, wie du sagtest, nur mit alten Treibern sehen. Alles unter 71.84 WHQL flimmert, 67.03 und 67.66 ausgenommen.

MfG,
RaffIch selbst habe nur offizielle NV-Treiber genutzt. Bei meinen Spielen sah ich da in HQ kein Flimmern, wobei ich natürlich nicht alle Spiele habe. In welchen Spielen hat es bei dir geflimmert?

Dass NV auf die geniale Idee kam, das G70-AF aus Geschwindigkeitsgründen zur Not flimmrig werden zu lassen, lässt sich so im Kontext wahrscheinlich besser erklären – jedoch nicht entschuldigen.

Mr. Lolman
2005-08-13, 02:37:07
Man sollte sowieso den MPC zum abspielen nutzen, dann kann man auch das Overlay abschalten.Das kann man auch bei den meisten anderen Playern. Aber darauf hinweisen muss man trotzdem.


Die Helligkeitsinformation ist zwar wichtig, aber nicht alles.Stimmt schon. Durch die verlorene Farbinformation kann sich das Flimmern reduzieren. Beim 8bit Dithering verstärkt sich das Flimmern. Wenn nun beides gleichviel flimmert sind demnach die Unterschiede zum Original minimal.


Wie Q aussieht, das ist in anderen Threads ja schon besprochen, hatte mich nie interessiert. Auch entsprechende Benches interessieren mich wenig, da ich für eine Kaufentscheidung Benchmarks fast nicht berücksichtige. Als Redakteur sollte man natürlich den Unterschied in der Qualität kennen und darauf hinweisen, dass man die GeForce-Karten entgegen Nvidias Empfehlungen nicht in Q benchen darf.Bitte schliess nicht immer von dir auch andere. Imo gehörst du zu einer verschwindend geringen Minderheit, wenn du Benchmarks für deine Kaufentscheidungen fast nicht berücksichtigst. Ich spiel ja auch nur mit Q weil mir die Speed für HQ nicht reicht. In Reviews wird einem das jedoch durch verfälschte Benschmax suggeriert. Und dementsprechend ists gut, auf die Filterkniffe hinzuweisen.


Was zerhaut der TFT? Das Flimmern habe ich mit einem 25-ms-TFT noch sehr gut erkennen können.Nicht das Flimmern. Die feinen Farbnuancen, die bei einem gif ohnehin fehlen würden...

Raff
2005-08-13, 02:43:38
Ich selbst habe nur offizielle NV-Treiber genutzt. Bei meinen Spielen sah ich da in HQ kein Flimmern, wobei ich natürlich nicht alle Spiele habe. In welchen Spielen hat es bei dir geflimmert?

Bevor ich nicht sichere Spiele nenne - ich hab' vergessen, wo das noch sehr ausgeprägt war :frown:, wohl auch WoW - hier wieder SeSam 1,5: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3342252&postcount=126 €dit: Hoppla, das sind ja die Quality-Screens ... Moment.

€dit2: So, hier: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3278443&postcount=1. Der Unterschied ist in UT aber nicht so derbe wie in SeSam.

Der 70.41 hat keinen Clamp-Schalter, was übelstes Flimmern verursacht.

Das mit SeSam meinte ich auch @ Ailuros. :)

MfG,
Raff

aths
2005-08-13, 02:51:45
Das kann man auch bei den meisten anderen Playern. Aber darauf hinweisen muss man trotzdem.Bei einer 1:1-Wiedergabe sollte es auch mit dem Overlay keine Unschärfe geben. Sonst stimmt beim Overlay was nicht.

Stimmt schon. Durch die verlorene Farbinformation kann sich das Flimmern reduzieren. Beim 8bit Dithering verstärkt sich das Flimmern. Wenn nun beides gleichviel flimmert sind demnach die Unterschiede zum Original minimal.Willst du den Teufel mit dem Beelzebub austreiben? Verlustfreie Fullscreen-Videos sind in jedem Fall besser als Paletten-Formate.

Bitte schliess nicht immer von dir auch andere. Imo gehörst du zu einer verschwindend geringen Minderheit, wenn du Benchmarks für deine Kaufentscheidungen fast nicht berücksichtigst. Ich spiel ja auch nur mit Q weil mir die Speed für HQ nicht reicht. In Reviews wird einem das jedoch durch verfälschte Benschmax suggeriert. Und dementsprechend ists gut, auf die Filterkniffe hinzuweisen.Ich spiele nur dann mit Q, wenn ich mit Supersampling spielen will – nur dann habe ich mal den Fall, dass die Geschwindigkeit verbessert werden muss. Ich fühle mich nicht dafür verantwortlich, dafür zu sorgen, dass alle Reviews so gestaltet werden wie ich das für richtig halte. Dieses ganze gegeneinander benchen war mit ein Grund, warum NV auf die bekloppte Idee kam, die Winkelabhängigkeit zu imitieren. Was NV sich beim G70 geleistet hat, ist kein "Kniff", sondern – in meinen Augen – ein Skandal. Artikel, die das beschreiben, bringe ich ohne zu fragen, ob der Leser erneut damit genervt werden will, was die aktuelle Hardware alles nicht bietet. 3dc hätte wohl mehr Leser, wenn ich erst mal die verbesserte Pixelshader-Technik detailliert beschreiben würde. Nicht, dass das viele Leute verstehen, aber es wäre sicherlich interessanter als zu erfahren, dass man vernünftige AF-Qualität nur auf GeForce3-FX bekommt, und weder ATI noch NV im Moment eine zeitgemäße AF-Implementierung anbieten. Denn mit einer FX will keiner mehr spielen (zu schwach) und sich ins Bewusstsein zu rufen, dass man dafür auf echte Qualität verzichten muss, wird mehr Leute abnerven als freuen. Der Leser (in diesem Fall abgesehen von Leuten, die was gegen NV haben) wills nicht, der IHV wills nicht ... das interessiert mich alles nicht :) weil ich als Redakteur mein Ding mache.

NV hat sich bislang fair verhalten: Es gibt keine Bemerkungen, uns das nächste mal beim Ausleihen der Pressemuster zu übersehen oder so. Ich denke, dass die PR-Kontaktleute mit der Situation selbst nicht gerade glücklich sind. Bei allen vermarktungstechnischen Fragen finden die, dass der User immer die Option auf volle Qualität haben solle. Natürlich wird kein NV-Mitarbeiter sagen, dass die aktuelle AF-Qualität wenig brauchbar ist.
Nicht das Flimmern. Die feinen Farbnuancen, die bei einem gif ohnehin fehlen würden...Gibt es keine TFTs, die 8 Bit Farbkanal-Genauigkeit haben?

Ailuros
2005-08-13, 03:17:53
Bevor ich nicht sichere Spiele nenne - ich hab' vergessen, wo das noch sehr ausgeprägt war :frown:, wohl auch WoW - hier wieder SeSam 1,5: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3342252&postcount=126 €dit: Hoppla, das sind ja die Quality-Screens ... Moment.

€dit2: So, hier: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3278443&postcount=1. Der Unterschied ist in UT aber nicht so derbe wie in SeSam.

Der 70.41 hat keinen Clamp-Schalter, was übelstes Flimmern verursacht.

Das mit SeSam meinte ich auch @ Ailuros. :)

MfG,
Raff


SS:SE war schon immer ein uebles texture-aliasing Fest; ohne mit dem Texturen LOD bias slider herumzuspielen konnte ich das Spiel auf keiner Karte wirklich ertragen. Bei den settings die ich meistens benutzte fuer SS:SE wenn ich dann die MIPmaps einfaerbte war die Szene knallrot ;)

Das soll jetzt auf keinen Fall heissen, dass das Problem nicht auf G70 existiert, nur eben dass ueberhaupt stets ein Grusel-/Flimmerfest war ueberhaupt mit extremen settings. Im gegebenen Fall stechen eben jegliche Probleme noch staerker ins Auge.

Uebrigens als Du Gras sagtest dachte ich eher an etwas hoeheres Gras wie in der Eingangs-szene z.B.

Ailuros
2005-08-13, 03:32:07
Aechz der Server muss ja ziemlich ueberfoerdert sein momentan.

OT: obwohl es Bloedsinn ist schon zu frueh was voranzukuendigen, wenn ich endlich Zeit finde alle Komponenten zusammenzuschrauben und endlich damit spielen kann, wird hoffentlich auch von mir ein ziemlich langwieriges Gekritzel kommen.

Am liebsten waere es mir wenn ich mir meine Eindruecke ohne jegliche Leistungs-zahlen ausdruecken koennte, aber dann liest das Zeug wohl auch wieder kein Schwein LOL. Ich brauch aber nachdem ich mit dem System fertig bin, minimal 2 Wochen, wenn nicht mehr. Es wird zuerst gespielt und dann gebencht und ja ich habe den Luxus denn ich arbeite ja auch nicht unter Zeitdruck ;)

Exxtreme
2005-08-13, 08:25:18
Hehe, nach dem Artikel weiss ich welche Karte ich mir nicht kaufen werde. :D Ausser natürlich, ATi baut noch mehr Mist, was ich mir aber kaum vorstellen kann.

Madkiller
2005-08-13, 09:26:45
Super Artikel. :up:

Mit den Videos auch klar untermauert... Hoffentlich rüttelt das wach. :)

Im Artikel und im Fazit habe ich mich mit zu kräftigen Formulierungen, die als Meinung ausgelegt werden könnten, zurückgehalten und mich auf Fakten gestützt. Beim Beschiss machen alle kräftig mit – 3DCenter lässt im Artikel auch Selbstkritik anklingen. Andersherum machten alle kräftig beim Beschiss mit, als AF-Benches Radeon vs. GeForce FX liefen. Meine Meinung zum Thema: Nvidia erschwindelt sich Benchmark-Punkte mit einer Dreistigkeit, die sprachlos macht und was sie bei der 7800 GTX abziehen ist schlicht eine Sauerei – hätte ich das so formuliert, würden Nvidia-Freunde mich gar nicht wahrnehmen, da ich nur hetzen wolle. Die Videos, die Beweise liefern, würde wegdiskutiert. Mit dem fast durchweg sachlichen Tonfall zwinge ich zu einer vernünftigen Diskussion. Keinem ist damit geholfen, wenn sich alle aufregen. Das Problembewusstsein muss geschaffen werden, da lasse ich lieber die Videos sprechen anstatt allzu kräftige Worte zu nutzen. Benchmark habe ich leider nicht, vielleicht liefert Leo noch ein paar Q/HQ-Vergleiche nach.
:massa:

Kladderadatsch
2005-08-13, 09:48:37
danke für den artikel!=)
auch der erste kleine, aber offizielle trost für die fx-besitzer;)


ps.: mit winamp laufen die videos übrigens flüssiger.

drdope
2005-08-13, 09:51:56
Guter Artikel!

Interessant wäre mMn auch mal ein Vergleich der NV Treiber --> Windows vs Linux;
Ich habe zumindest den subjektiven Eindruck, daß es unter Linux (Q3,D3,UT2K4) nicht so start flimmert wie in den gezeigten Videos.
Evtl. weil NV sich dort nicht die Mühe macht zu "optimieren"?
--> Benchmarks unter Linux sind ja rel. selten.
Leider habe ich kein Windows laufen um dies direkt vergleichen zu können.

Mr. Lolman
2005-08-13, 10:42:34
Bei einer 1:1-Wiedergabe sollte es auch mit dem Overlay keine Unschärfe geben. Sonst stimmt beim Overlay was nicht.Tut es ja auch nicht. Es ist definitiv unschärfer als bei ATi. Außerdem denk ich, dass Overlays das Bild generell unscharf machen, oder hast du in nem Video irgendwo schon mal Kanten-Aliasing gesehen?


Willst du den Teufel mit dem Beelzebub austreiben? Verlustfreie Fullscreen-Videos sind in jedem Fall besser als Paletten-Formate.Ja vielleicht will ich das. Beelzebub leitet sich von Baal Zebul (Götterfürst), einem Fruchtbarkeitsgott ab. Die Bibel hat den Beelzubub zu dem gemacht, was wir heute unter ihm verstehen. Wenn meine Ideen fruchtbar sind freut mich das natürlich. Und gifs sprechen auf jeden Fall ne größerer Klientel an, als 0.5GB Videos..


Ich spiele nur dann mit Q, wenn ich mit Supersampling spielen will – nur dann habe ich mal den Fall, dass die Geschwindigkeit verbessert werden muss. Ich fühle mich nicht dafür verantwortlich, dafür zu sorgen, dass alle Reviews so gestaltet werden wie ich das für richtig halte. Dieses ganze gegeneinander benchen war mit ein Grund, warum NV auf die bekloppte Idee kam, die Winkelabhängigkeit zu imitieren. Was NV sich beim G70 geleistet hat, ist kein "Kniff", sondern – in meinen Augen – ein Skandal. Artikel, die das beschreiben, bringe ich ohne zu fragen, ob der Leser erneut damit genervt werden will, was die aktuelle Hardware alles nicht bietet. 3dc hätte wohl mehr Leser, wenn ich erst mal die verbesserte Pixelshader-Technik detailliert beschreiben würde. Nicht, dass das viele Leute verstehen, aber es wäre sicherlich interessanter als zu erfahren, dass man vernünftige AF-Qualität nur auf GeForce3-FX bekommt, und weder ATI noch NV im Moment eine zeitgemäße AF-Implementierung anbieten. Denn mit einer FX will keiner mehr spielen (zu schwach) und sich ins Bewusstsein zu rufen, dass man dafür auf echte Qualität verzichten muss, wird mehr Leute abnerven als freuen. Der Leser (in diesem Fall abgesehen von Leuten, die was gegen NV haben) wills nicht, der IHV wills nicht ... das interessiert mich alles nicht :) weil ich als Redakteur mein Ding mache.Ich würd dir gern helfen, dass du dich in deiner Intention nicht so einsam fühlst.


NV hat sich bislang fair verhalten: Es gibt keine Bemerkungen, uns das nächste mal beim Ausleihen der Pressemuster zu übersehen oder so. Ich denke, dass die PR-Kontaktleute mit der Situation selbst nicht gerade glücklich sind. Bei allen vermarktungstechnischen Fragen finden die, dass der User immer die Option auf volle Qualität haben solle. Natürlich wird kein NV-Mitarbeiter sagen, dass die aktuelle AF-Qualität wenig brauchbar ist.
Gibt es keine TFTs, die 8 Bit Farbkanal-Genauigkeit haben?Das wär ja noch schöner. Denn dann hättet ich auch wirklich keinen Grund mehr länger eure Frexxe zu halten, und müsstet keine NV kompatible Storys mehr abliefern . Aber wenn ichs mir recht überlege, liegt das wohl daran dass der Artikel auf der Hauptseite noch nicht verlinkt ist. Wegen der TFTs: Ja vll. gibts sie schon. Aber meine beiden lösen das entweder mit Dithering oder Banding...

Ailuros
2005-08-13, 13:21:24
In HQ flimmert die 6800 nicht. (Meine 6600 GT tuts nicht und darauf schließe ich auf die 6800.)

Uhhmmmm.....tut sie doch, zumindest die hier. Kann mich jemand nochmal schnell an die default LOD Werte (D3D) fuer UT2k4 erinnern?

Damit wir nicht aneinander vorbei reden: wenn man auf der G70 jegliche Form von SSAA zuschaltet, wird die problematische Flimmer-zone um genau den LOD Wert des SSAA weiter in die Ferne verschoben oder nicht?

***edit:

es flimmert bei mir selbst mit diesen Werten und der "Klammer" und high quality und mit oder ohne SSAA:

DetailTexMipBias=0.500000
DefaultTexMipBias=0.000000

Zwei Moeglichkeiten aus der Luft gegriffen:

a) Die Klammer macht gar nichts mehr aus in den letzten Treibern (vielleicht hat sogar jemand vergessen sie zu aktivieren).

b) Da ich das Zeug im letzten Jahr im Sommer bemerkte, es aber fast wegging mit der Klammer (die ~November mit dem 71.20 vorgestellt wurde), frage ich mich ob der Mist (was immer es auch ist) Temperatur-bedingt sein koennte. Untertakten bringt mir gar nichts bei den Zimmertemperaturen hier.

betasilie
2005-08-13, 14:14:48
Ja, siehe UT. Aber ich kann nicht alles spielen und nur das bewerten, was ich sehe.
Die Frage ist wieviele verschiedenen Spiele Du spielst. .. Die 6800er haben auf HQ bei fast jedem Spiel geflimmert. Die Frage ist nicht welche Spiele flimmern, sondern welche Spiele nicht flimmern mit den Treibern < 71.84 WHQL. Da könntest Du uns ja mal aufklären.

Entweder Du hast nur mit SSAA gespielt, womit das Flimmern nicht so stark auffällt, oder dein Auge bzgl. Texturfilterung ist doch nicht scharf, wie Du immer behauptest. Die 6800er haben bei den allermeisten Spielen geflimmert in HQ, das ist meine Beobachtung und der vieler anderer User.

Ailuros
2005-08-13, 14:23:36
Das mit den Temperaturen war Bloedsinn...

Die Klammer funktioniert nicht mehr in neuesten Treibern.

Ailuros
2005-08-13, 14:27:22
Die Frage ist wieviele verschiedenen Spiele Du spielst. .. Die 6800er haben auf HQ bei fast jedem Spiel geflimmert. Die Frage ist nicht welche Spiele flimmern, sondern welche Spiele nicht flimmern mit den Treibern < 71.84 WHQL. Da könntest Du uns ja mal aufklären.

Entweder Du hast nur mit SSAA gespielt, womit das Flimmern nicht so stark auffällt, oder dein Auge bzgl. Texturfilterung ist doch nicht scharf, wie Du immer behauptest. Die 6800er haben bei den allermeisten Spielen geflimmert in HQ, das ist meine Beobachtung und der vieler anderer User.


Nachdem ich die videos sah, ist es genau das Zeug was ich auf der 6800 schon seit einiger Zeit sehen konnte. Die Klammer half in den meisten Situationen; komischerweise macht sie in neuesten Treibern gar nichts mehr aus, was wohl eher heissen koennte, dass irgend jemand vergessen hat das Ding einzuschalten.

Falls es sich um den gleichen Mist handeln sollte, hilft SSAA erstmal gar nichts; benutzt man z.B. 2xSSAA wird eben die MIPmap die flimmert um genau -0.5 durch das Supersampling in die weitere Ferne verdraengt.

***edit: falls ein positiver LOD bei +0.5 oder hoeher helfen sollte ohne die Klammer, handelt es sich wahrscheinlich doch um das gleiche Phaenomen.

aths
2005-08-13, 19:10:57
Hehe, nach dem Artikel weiss ich welche Karte ich mir nicht kaufen werde. :D Ausser natürlich, ATi baut noch mehr Mist, was ich mir aber kaum vorstellen kann.Was ATI im R520 für ein AF haben wird, wurde vor langer Zeit festgelegt. Hoffentlich waren sie schlau genug, diesmal was vernünftiges zu bringen – und das auch im Treiber zu aktivieren. Gute AF-Qualität ist ein gutes Instrument im Marketing: Ohne speziellen Support der Engine auf einen Schlag bessere Texturen.

aths
2005-08-13, 19:22:15
Tut es ja auch nicht. Es ist definitiv unschärfer als bei ATi. Außerdem denk ich, dass Overlays das Bild generell unscharf machen, oder hast du in nem Video irgendwo schon mal Kanten-Aliasing gesehen?Das hat mit Unschärfe nichts zu tun. Kanten-Aliasing bleibt mit Quincunx auch sichtbar. Für Video-Aufnahmen wird pro Pixel die Farbe nicht aus einem Punkt ermittelt, wie beim 3D-Rendering, sondern aus einer Fläche. Da ist Antialiasing schon drin. Werden 3D-Szenen die ohne Antialiasing gecaptured wurden per Overlay abgespielt, sehe ich auch das Flimmern.

Es kann sein, dass der Kontrast beim Overlay anders ist. Auch ATIs Overlay sieht nicht genau so aus, wie z. B. die Wiedergabe mit VMR.

Ja vielleicht will ich das. Beelzebub leitet sich von Baal Zebul (Götterfürst), einem Fruchtbarkeitsgott ab. Die Bibel hat den Beelzubub zu dem gemacht, was wir heute unter ihm verstehen. Wenn meine Ideen fruchtbar sind freut mich das natürlich. Und gifs sprechen auf jeden Fall ne größerer Klientel an, als 0.5GB Videos..Der Beelzebub leitet sich iirc vom Fliegen-Gott ab, der eigentliche "Gott" ist Baal. GIFs sind, ich wiederhole mich da gerne, kompromissbehaftet und bieten jedem, der das Flimmern kleindiskutieren will, eine Angriffsfläche. Der Artikel hier sollte für sich genommen auch alleine sprechen. Die Videos zeigen nur, dass wir es nachweisen können. Nicht jeder muss die Videos dafür selbst sehen, ich liefere ja eine Beschreibung was bei den einzelnen Videos auffällt.

Ich würd dir gern helfen, dass du dich in deiner Intention nicht so einsam fühlst. Bei deinen Ansichten über ATIs bilinearen Filter zweifle ich, ob wir auf einen gemeinsamen Nenner kommen.

Der Artikel hier ist nicht entstanden, um was zum anprangern zu haben in der Hoffnung, bekannt zu werden. Aus dem Alter bin ich raus. Es ist die Aufforderung an die User, genauer hinzusehen, damit sie diese und andere Filterkompromisse wahrnehmen.

Das wär ja noch schöner. Denn dann hättet ich auch wirklich keinen Grund mehr länger eure Frexxe zu halten, und müsstet keine NV kompatible Storys mehr abliefern . Aber wenn ichs mir recht überlege, liegt das wohl daran dass der Artikel auf der Hauptseite noch nicht verlinkt ist. Wegen der TFTs: Ja vll. gibts sie schon. Aber meine beiden lösen das entweder mit Dithering oder Banding...Bei 8 Bit Auflösung ist weder Dithering noch Banding nötig. (Solange man nicht am Gamma spielt.)

Wo liefern wir NV-kompatible Storys ab?

Nvidia wurde vorab über den Artikel informiert, sie kennen ihn demnach ohne dass er auf der Hauptseite verlinkt ist. Die Verlinkung soll erst nach den neuen News erfolgen.

aths
2005-08-13, 19:31:24
Die Frage ist wieviele verschiedenen Spiele Du spielst. .. Die 6800er haben auf HQ bei fast jedem Spiel geflimmert. Die Frage ist nicht welche Spiele flimmern, sondern welche Spiele nicht flimmern mit den Treibern < 71.84 WHQL. Da könntest Du uns ja mal aufklären.Welche Spiele ich so spiele: Max Payne 1 und 2, WC3, WoW. Ich hoffe, aufgeklärt zu haben.

Die Behauptung allein, es würde flimmern, reicht nicht. Da muss ein Nachweis her. Man findet für jede denkbare Behauptung im Internet irgendjemanden der sowas in einen Forum beschrieben hat. Wenn Coda schreibt, erst mit neuen Treibern flimmert es in UT nicht mehr, nehme ich ihm das ab. Dennoch bräuchte man schon HQ-Screenshots unterschiedlicher Treiberversionen, um das mal zu zeigen. Was ohne Nachweis im Forum geschrieben wird kann ich nicht als Grundlage nehmen, um das in Artikeln wiederzugeben.

Die 6800 ist in HQ gerade an der Grenze zum Flimmern. Es kann sein, dass jemand der von einer FX oder Radeon gekommen ist, das bereits als Flimmern sieht. Es kann auch sein, dass gerade für die bekannten Spiele "optimiert" wurde, und das erst seit dem 72.77 weg ist, um den Abstand zum G70 zu vergrößern. Dazu bedarf es aber eines Nachweises.
Entweder Du hast nur mit SSAA gespielt, womit das Flimmern nicht so stark auffällt, oder dein Auge bzgl. Texturfilterung ist doch nicht scharf, wie Du immer behauptest. Die 6800er haben bei den allermeisten Spielen geflimmert in HQ, das ist meine Beobachtung und der vieler anderer User.MP habe ich nur z. T. mit 4xS gespielt, oft auch mit 4x MSAA. WoW habe ich manchmal mit 4x SSAA (und Q), manchmal mit 2x MSAA (dafür HQ) gespielt. Zunächst mit 16x AF, später nur noch mit 4x AF.

"Viele User" haben bei der Radeon 9700 beim AF keine Verschlechterung gegenüber der GF gesehen. Was "viele User" schreiben, zählt für mich nicht als Fakt.

Der_KHAN
2005-08-13, 19:56:20
mich würd mal interessieren ob sich einer von euch die mühe gemacht hat sich die 80.40 beta treiber anzusehn!?

ich hatte damit zumindest in WoW einen gewaltigen qualitäts- und leistungssprung beobachtet.
allerdings musste ich wieder auf den 77.76 bzw. den 77.77 wechseln da ich mittlerweile den wasserblock angeklemmt hab und der 80.40 immernoch den kältebug hat.

na jedenfalls is mir erst heute wieder aufgefallen das das AF mit den 77er treibern besonders in battlefield2 unter aller sau ist. selbst bei 16x sieht es kaum schärfer aus als trilinear! das einzige was passiert ist das das flimmern dazukommt.

na egal, ich werd morgen abend nochmal den 80.40er in bf2 probiern, vielleicht siehts da dann auch anständig aus.

Mr. Lolman
2005-08-13, 20:01:57
Das hat mit Unschärfe nichts zu tun. Kanten-Aliasing bleibt mit Quincunx auch sichtbar. Für Video-Aufnahmen wird pro Pixel die Farbe nicht aus einem Punkt ermittelt, wie beim 3D-Rendering, sondern aus einer Fläche. Da ist Antialiasing schon drin. Werden 3D-Szenen die ohne Antialiasing gecaptured wurden per Overlay abgespielt, sehe ich auch das Flimmern.

Es kann sein, dass der Kontrast beim Overlay anders ist. Auch ATIs Overlay sieht nicht genau so aus, wie z. B. die Wiedergabe mit VMR.Kann auch sein. Jedoch ists mit Overlay trotzdem gleich mal viel unschärfer als ohne. sowohl bei NV als auch bei ATi...


Der Beelzebub leitet sich iirc vom Fliegen-Gott ab, der eigentliche "Gott" ist Baal. GIFs sind, ich wiederhole mich da gerne, kompromissbehaftet und bieten jedem, der das Flimmern kleindiskutieren will, eine Angriffsfläche. Der Artikel hier sollte für sich genommen auch alleine sprechen. Die Videos zeigen nur, dass wir es nachweisen können. Nicht jeder muss die Videos dafür selbst sehen, ich liefere ja eine Beschreibung was bei den einzelnen Videos auffällt.
Ja das ist ja die Verballhornung von Baal Zebul -> Baal Zebub (Herr der Fliegen)
Der Name Baal lebt in Balthasar und Hannibal (phönizisch für Baal ist gnädig) fort. Auch das Wort Beelzebub, oder Baal-Sebub/Beelzebul, (Herr der Fliegen) geht auf Baal zurück und stellt im Neuen Testament eine Bezeichnung für den Teufel dar. Das Wort ist jedoch eine Verballhornung. Gewöhnlich wird angenommen oder behauptet, dass es keine Verwandtschaft oder gar Identität zu einigen anderen Göttern abendländischer Mythologien gibt - ein Standpunkt, der aufgrund unzähliger ursprachlicher, historischer und mythologischer Zusammenhänge kaum noch zu halten ist. So kann man Parallelen z.B. zum keltischen Bel (siehe das Jahresfest Beltane oder Walpurgis) oder dem nordischen Baldr, Baldur oder Balder ziehen, letztere Verwandtschaft wenn nicht gar Identität fiel schon dem Germanisten Gustav Neckel in den 1920er Jahren auf. Die Behauptung, dass die Ähnlichkeit zwischen den einzelnen Gottesnamen auf reiner Homophonie (Gleichklang) beruht, erklärt diesen Gleichklang nicht, sondern ist selbst nur eine Spekulation.
http://de.wikipedia.org/wiki/Baal_(Gott)


Bei deinen Ansichten über ATIs bilinearen Filter zweifle ich, ob wir auf einen gemeinsamen Nenner kommen.Wir könntens ja versuchen...


Der Artikel hier ist nicht entstanden, um was zum anprangern zu haben in der Hoffnung, bekannt zu werden. Aus dem Alter bin ich raus. Es ist die Aufforderung an die User, genauer hinzusehen, damit sie diese und andere Filterkompromisse wahrnehmen. Glaubst du etwa, dass das meine Absicht ist?



Bei 8 Bit Auflösung ist weder Dithering noch Banding nötig. (Solange man nicht am Gamma spielt.)Dann haben meine Monitore keine 8bit/Farbkanal


Wo liefern wir NV-kompatible Storys ab?Naja man informiert NV im vorhinein und freut sich, dass sie hinsichtlich Testkarten keine Konsquenzen aus dem Artikel ziehen = NV kompatibel

Ailuros
2005-08-13, 20:22:16
Wenn ich mal nochmal unterbrechen darf....koennte einer der geehrten Herren mal nachsehen ob entweder bei der 6800 oder 7800 die Klammer fuer den LOD bias operativ ist?

Ailuros
2005-08-13, 20:30:32
"Viele User" haben bei der Radeon 9700 beim AF keine Verschlechterung gegenüber der GF gesehen. Was "viele User" schreiben, zählt für mich nicht als Fakt.

aths,

Ich wuerde Dir mal ernsthaft raten nochmal eine 6800 mit den neuesten Treibern unter die Lupe zu nehmen. Heute Nachtmittag plauderte ich in Echtzeit mit 2 reviewern die garantiert wissen wo es langgeht und wir schickten ein e-mail direkt an NVIDIA von uns allen dreien, nachdem wir feststellten dass die Klammer nicht mehr geht sowohl auf 6800 als auch auf 7800.

Ich hab zwar keine Ahnung warum es auf den 6800-er bei Dir klappt, auf jeden Fall laeuft das Ding hier mit Sicherheit nicht und ist zumindest was 76.44, 77.74 und 77.77 betrifft bei mir ein "ghost-setting" im Treiber CP.

Da ich Gott sei Dank auch ein zweites OS auf dem zweitem HDD habe, funktioniert die Klammer zumindest bis 71.89 einwandfrei.

aths
2005-08-13, 20:59:13
Kann auch sein. Jedoch ists mit Overlay trotzdem gleich mal viel unschärfer als ohne. sowohl bei NV als auch bei ATi...Unschärfer oder schwachkontrastiger?

Wir könntens ja versuchen...In diesem Fall sehe ich allerdings wenig Spielraum für eine Annäherung an deine Position, dass ATIs bilinearer Filter besser sei. Ein bilinearer Filter ist nach meinem Dafürhalten umso besser, je besser er die Kriterien der bilinearen Filterung erfüllt.

Glaubst du etwa, dass das meine Absicht ist?
Nein, das habe ich bei der Gelegenheit nur noch mal angemerkt (keine Ironie.)


Dann haben meine Monitore keine 8bit/Farbkanal

Naja man informiert NV im vorhinein und freut sich, dass sie hinsichtlich Testkarten keine Konsquenzen aus dem Artikel ziehen = NV kompatibelNV wurde erst dann informiert, nachdem klar war, dass Leo die Karte bekommt. (Allerdings war auch dann der Artikel erst einigermaßen fertig.) Dass NV vorab informiert wurde, dürftest du als du "NV-kompatibel" schriebst, noch nicht gewusst haben. Ich frage mich weiterhin, was du damit meintest.

Ich würde mich freuen wenn die ständigen Verdächtigungen aufhören, dass Gefälligkeiten im Spiel seien. Wer unsere Unabhängigkeit bezweifelt, braucht uns nicht zu lesen. Dein "NV-kompatibel" liest sich für mich wie "NV genehm".

aths
2005-08-13, 21:00:24
Wenn ich mal nochmal unterbrechen darf....koennte einer der geehrten Herren mal nachsehen ob entweder bei der 6800 oder 7800 die Klammer fuer den LOD bias operativ ist?Wie testet man das? (Nachgucken ob es mit einem NV40 funzt, kann ich im Moment eh nicht, habe gerade die 5900 eingebaut.)

aths
2005-08-13, 21:01:17
aths,

Ich wuerde Dir mal ernsthaft raten nochmal eine 6800 mit den neuesten Treibern unter die Lupe zu nehmen. Heute Nachtmittag plauderte ich in Echtzeit mit 2 reviewern die garantiert wissen wo es langgeht und wir schickten ein e-mail direkt an NVIDIA von uns allen dreien, nachdem wir feststellten dass die Klammer nicht mehr geht sowohl auf 6800 als auch auf 7800.

Ich hab zwar keine Ahnung warum es auf den 6800-er bei Dir klappt, auf jeden Fall laeuft das Ding hier mit Sicherheit nicht und ist zumindest was 76.44, 77.74 und 77.77 betrifft bei mir ein "ghost-setting" im Treiber CP.

Da ich Gott sei Dank auch ein zweites OS auf dem zweitem HDD habe, funktioniert die Klammer zumindest bis 71.89 einwandfrei.Ich habe nur eine 6600 GT, die ist im Moment jedoch nicht eingebaut. Als Treiber nutze ich den 77.72.

Knötchen
2005-08-13, 21:03:22
Ohne die Diskussion der erfahrenen Member und 3DC-Crew unterbrechen zu wollen, sei kurz erwähnt: Insg. ein klasse Artikel, dem ich trotz gelegentlicher Anwendung von Fachausdrücken gut folgen konnte. :uup:

Ich hoffe, dass viele Reviewer einen Blick auf diesen Artikel werfen und ggf. ihre Reviews erweitern/korrigieren, bzw. neue Reviews unter HQ testen und gleichzeitig auf das trotzdem vorhandene Flimmern des G70 hinweisen. Die Videos sprechen Bände.

Raff
2005-08-13, 21:04:14
Ich hab zwar keine Ahnung warum es auf den 6800-er bei Dir klappt, auf jeden Fall laeuft das Ding hier mit Sicherheit nicht und ist zumindest was 76.44, 77.74 und 77.77 betrifft bei mir ein "ghost-setting" im Treiber CP.

Jo? Dem Thema BQ wollte ich mich zwar erst in ein paar Wochen genauer widmen ... aber ich könnte schwören, dass es bei mir mit dem 77.72 geht. Siehe meine Screenies oben.

MfG,
Raff

mapel110
2005-08-13, 21:14:05
Ich hab zwar keine Ahnung warum es auf den 6800-er bei Dir klappt, auf jeden Fall laeuft das Ding hier mit Sicherheit nicht und ist zumindest was 76.44, 77.74 und 77.77 betrifft bei mir ein "ghost-setting" im Treiber CP.

Da ich Gott sei Dank auch ein zweites OS auf dem zweitem HDD habe, funktioniert die Klammer zumindest bis 71.89 einwandfrei.
Ja, kann ich bestätigen. bei 71.89 flimmern die gitter bei Mohaa nicht, das Bild ist sehr ruhig.
Bei 77.77 hat der Schalter tatsächlich keine Wirkung gehabt.

Ailuros
2005-08-13, 21:35:30
Wie testet man das? (Nachgucken ob es mit einem NV40 funzt, kann ich im Moment eh nicht, habe gerade die 5900 eingebaut.)

Wenn's beim einen Treiber mit der Klammer nicht flimmert und beim anderen Treiber mit der Klammer flimmert, oder noch genauer im zweiten Fall sich "clamp" genauso wie "allow" verhaelt kann es gar nicht mehr offensichtlicher fuer mich sein.

Ailuros
2005-08-13, 21:43:02
Ich habe nur eine 6600 GT, die ist im Moment jedoch nicht eingebaut. Als Treiber nutze ich den 77.72.

Jo? Dem Thema BQ wollte ich mich zwar erst in ein paar Wochen genauer widmen ... aber ich könnte schwören, dass es bei mir mit dem 77.72 geht. Siehe meine Screenies oben.


Hmmm....ich hab 77.72 nicht in meinem vorigen Post erwaehnt und ich hab auch keinen Grund Euch beiden nicht zu glauben. Hier kommt aber die kritische Frage:

Mit welchen Treibern genau wurde der Artikel hergestellt oder noch genauer welchen Treibern fuer jeweils 6800 und 7800?

Sobald sich meine weiteren Verdaechte bestaetigen (nahmlich dass NV4x schon seit letztem Jahr womoeglich konstant unterfiltern) kann ich dann spaeter nochmal darueber meckern ;)

paul.muad.dib
2005-08-13, 22:17:21
Ach du Sch... Hätte nicht gedacht, dass es so schlimm ist. Also das ist schon eine Zumutung, für so eine BQ 500€ zu verlangen. Allerdings habe ich hier auch zum ersten Mal die AF-Optimierungen von ATI richtig begutachten können und das ist auch eine Schweinerei.

aths
2005-08-13, 22:34:03
Hmmm....ich hab 77.72 nicht in meinem vorigen Post erwaehnt und ich hab auch keinen Grund Euch beiden nicht zu glauben. Hier kommt aber die kritische Frage:

Mit welchen Treibern genau wurde der Artikel hergestellt oder noch genauer welchen Treibern fuer jeweils 6800 und 7800?77.76.

trollkopf
2005-08-13, 23:59:01
wollt ihr den tollen artikel nicht mal auf der frontseite richtig promoten?
übersieht man ja völlig...

Raff
2005-08-14, 00:40:21
Ich schätze mal, das kommt mit der (gerade laufenden) Übersetzung. :)

MfG,
Raff

Ailuros
2005-08-14, 00:46:56
77.76.

Ich bin jetzt um ehrlich zu sein zu faul den nochmal zu installieren, aber es waere wohl doch vielleicht angebracht sicherzustellen ob auf beiden GPUs die Klammer auch wirklich funktioniert.

Weiterhin braeuchte man dringend Applikationen/Werkzeuge die herausstellen koennen wo und wieviel genau untergefiltert wird, was offensichtlich wohl doch auch der Fall war/ist auf den NV40 und wenn ich den Videos traue ist es eben womoeglich um einen Grad schlimmer auf der G70.

Die GeForce 6800 (oder GeForce 6600) muss unbedingt auf "High Quality" gestellt werden, um das Texturflimmern so weit es geht zu vermeiden – bei der GeForce 7800 funktioniert dies jedoch nicht mehr, auch unter "High Quality" neigt der neue Chip zu Texturenflimmern.

High quality hilft ueberhaupt nichts auf der 6800 bei diesen Faellen, zumindest nach meiner bisherigen Erfahrung. Die Klammer dann (wenn sie funktioniert) dann schon, nur eben sieht es so langsam so aus als ob man wenn man eine Applikation auf 0.0 zwingt dass die Nebeneffekte der Unterfilterung nur noch sehr wenig ins Auge stechen.

Das Thema muss IMO dringend noch genauer untersucht werden und NVIDIA muss natuerlich dem Endverbraucher erlauben diesen Mist abstellen zu koennen.

aths
2005-08-14, 00:51:59
Ich schätze mal, das kommt mit der (gerade laufenden) Übersetzung. :)Übersetzung kommt entweder erst die nächsten Tage, oder in dieser Form gar nicht. Das ist nämlich deutlich mehr Aufwand als gedacht.

Kladderadatsch
2005-08-14, 00:58:23
dieser post (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3372958#post3372958) dürfte bei einigen aufsehen erregen:)
kann das heute nacht noch jemand testen? ich gehe jetzt ins bett;)

KinGGoliAth
2005-08-14, 00:58:48
so mal saugen und das ganze angucken.

bin mal gespannt ob und wie stark das (mir ;) ) auffällt.

*leech*
na wenigstens kann ich mal mein tdsl6000 jetzt voll auslasten.

macht sich dick bemerktbar, dass ich jetzt ~6x so schnell unterwegs bin. schon 45gb traffic in 2 wochen. das habe ich sonst im ganzen monat. der nächste rekord rückt in greifbare nähe. :naughty:



nomma zum thema:
ich finde es aber irgendwie paradox, dass sowas dem user zugemutet wird. erstens kosten die karten jede menge geld und zweitens sollte jede dieser jetzigen und zukünftigen monsterkarten allein schon von der rechenpower in der lage sein das ganze ohne "optimierungen" in einer supergeschwindigkeit rendern zu können. das will mir irgendwie nicht in den kopf. geht es dabei denn nur um den framecounter und die 3dmarks oder hat das auge auch noch ein wörtchen mit zu reden? :confused:

aths
2005-08-14, 00:59:44
High quality hilft ueberhaupt nichts auf der 6800 bei diesen Faellen, zumindest nach meiner bisherigen Erfahrung. Die Klammer dann (wenn sie funktioniert) dann schon, nur eben sieht es so langsam so aus als ob man wenn man eine Applikation auf 0.0 zwingt dass die Nebeneffekte der Unterfilterung nur noch sehr wenig ins Auge stechen.

Das Thema muss IMO dringend noch genauer untersucht werden und NVIDIA muss natuerlich dem Endverbraucher erlauben diesen Mist abstellen zu koennen.Kann mich einer endlich aufklären, wozu dieses LOD-Clamp genau sein soll? Das kann doch nur bei Spielen helfen, die per Default ein negatives LOD-Bias nutzen. Ich hoffe, dass es außer UT keine weiteren solcher blödsinnigen Spiele gibt.

Ailuros
2005-08-14, 01:09:48
Kann mich einer endlich aufklären, wozu dieses LOD-Clamp genau sein soll? Das kann doch nur bei Spielen helfen, die per Default ein negatives LOD-Bias nutzen. Ich hoffe, dass es außer UT keine weiteren solcher blödsinnigen Spiele gibt.

Es zwingt einfach eine Anwendung nur minimal 0.0 zu benutzen, selbst wenn diese einen niedrigeren (negativen) LOD beantragt.

Korrigier mich bitte wenn ich falsch liege, aber im Fall einer jeglichen Unterfilterung wird mit dem obrigen natuerlich der ganze aliasing-Effekt weniger bemerkbar.

Falls das stimmen sollte, handelt sich um ein Phaenomen dass schon seit dem letzten Jahr vor sich her schlummert und eben mit dem G70 einfach nur schlimmer wurde. Wenn man es schafft dass die Gebraucher es einmal uebersehen, wird man halt mutiger und schaufelt noch mehr in die Pampe.

Probier mal BF1942 aus (nur das demo reicht) oder Painkiller.

***edit:

http://www.beyond3d.com/forum/showthread.php?t=22576&page=2

Bob's Beitrag.

OBrian
2005-08-14, 04:47:40
Hab mir die Videos gerade angesehen: Ist ja abartig, bin fast zum Stuhl gefallen! Wer den Unterschied nicht sieht, der muß echt blind sein. Also wenn man den Artikel liest, dann kann man vielleicht denken, "was regt der sich auf, so schlimm kann es ja nicht sein", aber es ist so schlimm.

Also das Filtern bei Ati ist ja schon suboptimal, aber selbst mit AI sieht es weniger schlimm aus als bei der 6800 in HQ. Aber die 7800er Serie ist ja wohl ein Witz, absolute Frechheit. Eigentlich sollte man die Dinger zurückschicken und auf Nachbesserung zugesicherter Produkteigenschaften pochen.

Nicht daß jemand denkt, ich wäre pro-Ati: Der R520 kann genauso fiese oder noch fiesere Tricksereien eingebaut haben, bisher haben sich beide Firmen ja fleißig gegenseitig hochgeschaukelt. Daß der R480 nicht schlimmer ist als der R300, könnte ja nur daran liegen, daß die Hardware zu ähnlich ist und derlei systematischer Beschiß in der Hardware eingebaut sein muß, wer weiß.

Ich hatte mir übrigens nach dem Ableben meiner 9700pro auch erst eine 6800GT zugelegt, aber dann (wegen anderer Probleme (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=234135)) durch ne X800pro ersetzt. Da ist mir zwar aufgefallen, daß alles etwas "krisseliger" aussieht, aber man hat ja doch nicht den direkten Vergleich, wenn man die Karten erst umbauen muß. Von daher sind die Videos wirklich gut (wenn auch etwas unbequem mit 500MB und Fraps-Installation).

PS: Für Alien-Spiele, in denen die Wände leben sollen, ist es vielleicht doch gar nicht so schlecht ;P

mbee
2005-08-14, 08:52:32
Sehr schön, danke aths! :up:
Ich hatte mit dem Gedanken gespielt, mir ein oder zwei GTX zuzulegen, da sich der R520-Launch so lange hinzieht. Dank der Videos weiß ich jetzt aber, dass selbst für mich (der ich relativ anspruchslos bin) hier das Mindestmaß an Qualität unterschritten wird.
Das sollte unbedingt auch in den News verlinkt werden.
Ich hoffe nur mal, das der R520 eine bessere AF-Qualität liefert (die Optimierungen der X800-Reihe von ATI sind hier IMO noch tragbar, aber eine "Verschlimmbesserungen" wäre fatal), dann darf er von mir aus auch gerne ein wenig langsamer sein.

Piffan
2005-08-14, 10:42:27
Kann mir mal jemand helfen? Ich bekomme die Videos nicht zum Laufen. Mit dem Media- Player Classic gehts nicht und dem K-lite- Codec passiert auch nichts.

mbee
2005-08-14, 10:58:28
Aktuelles FRAPS ist installiert?
Sonst fehlt Dir der Codec...

Piffan
2005-08-14, 11:00:43
Aktuelles FRAPS ist installiert?
Sonst fehlt Dir der Codec...

Nay......Oje :rolleyes:

Kladderadatsch
2005-08-14, 11:15:11
piffan, versuchs mit winamp. ist zumindest bei mir deutlich flüssiger.

(ot: dein avatar stammt doch aus beyond good and evil, oder?)

mbee
2005-08-14, 11:16:37
Ohne Codec wird er mit winamp allerdings auch Pech haben ;)
Bei mir läufts übrigens auch komischerweise im MP10 flüssig.

Piffan
2005-08-14, 11:26:40
(ot: dein avatar stammt doch aus beyond good and evil, oder?)

Ja, das ist die Hauptdarstellerin Jade aus dem Spiel.

Wallman
2005-08-14, 11:58:11
Hmm also ich versuche mal die Karten nach steigender Bildqualität zu ordnen:

7800 Q < 6800 Q < 7800 HQ < X800 (AI on oder off) < 6800 HQ < Geforce FX

Ist das jetzt so einigermaßen korrekt ? :confused:
Oder ist doch die X800 besser als 6800 HQ ?

tombman
2005-08-14, 12:06:06
Also ich hab mir alle Videos mehrmals angesehen, und selbst auf der FX seh ich noch flimmern :rolleyes:

Die Unterschiede zwischen ATI und Nvidia kann man zwar sehen, aber sie sind wirklich SEHR KLEIN, und meiner Meinung nach nicht gerechtfertigt um der 7800 GTX eine Kaufempfehlung abzusprechen! Wenn man da SSAA und TRAA einschaltet (und sie hat die Leistung dazu ;)), würde das Bild wahrscheinlich ruhiger als auf der FX aussehen ;)

So wie der Artikel geschrieben ist, hab ich mirs viel schlimmer vorgestellt, kann aber jetzt beruhigt meine beiden SLI 7800 GTX Babies weiter ownen lassen :D

Knötchen
2005-08-14, 12:11:34
Kann mir mal jemand helfen? Ich bekomme die Videos nicht zum Laufen. Mit dem Media- Player Classic gehts nicht und dem K-lite- Codec passiert auch nichts.
hast du vorher fraps v2.63 installiert? AFAIK brauchst du den codec der in fraps enthalten ist.
Edit:
[...]
So wie der Artikel geschrieben ist, hab ich mirs viel schlimmer vorgestellt, kann aber jetzt beruhigt meine beiden SLI 7800 GTX Babies weiter ownen lassen :D
hmmm .. also mich haben die Videos umgehauen. ATI ist zwar auch klein BQ-Engel, aber eine G70-Kaufempfehlung kann man IMHO nur den Ackermännern dieser Welt geben, denn die EUR 500,- sind vernichtetes Kapital.

Aber hey, ich sehe mir gerne an, wenn sich jemand seine Fehlinvestition schönredet. ;)

mbee
2005-08-14, 12:16:30
Die Unterschiede zwischen ATI und Nvidia kann man zwar sehen, aber sie sind wirklich SEHR KLEIN, und meiner Meinung nach nicht gerechtfertigt um der 7800 GTX eine Kaufempfehlung abzusprechen! Wenn man da SSAA und TRAA einschaltet (und sie hat die Leistung dazu ;)), würde das Bild wahrscheinlich ruhiger als auf der FX aussehen ;)

Sind sie IMO eben gar nicht (das Geflimmer unter HQ bei der 7800 GTX ist IMO wirklich untragbar verglichen mit dem X800 AF) und bei F.E.A.R. unter 1600*1200 wirst selbst Du mit Deinen beiden GTX wohl kaum SSAA und TRAA einschalten, oder (das dürfte auch wohl ein wenig mehr Leistung kosten als die AF-Optimierungen "wegzulassen")?
Falls NVIDIA hier treibermässig nichts ändert, werde ich mir die 7800er auf jeden Fall nicht zulegen, selbst wenn der R520 nicht mit ihr mithalten kann und dafür ne bessere AF-Qualität bietet und ich bin in der Hinsicht wirklich wenig penibel.

Knötchen
2005-08-14, 12:22:55
Ich brenne wirklich sehr auf den engl.sprachingen Artikel, damit man internationale hardwaresites auf den Artikel aufmerksam machen kann.

Ich erkläre mich bereit zu helfen. Soll ich nicht mal einen Absatz übersetzen? :biggrin:

Und anschliessend bitte schön gross auf die Startseite: :)
http://img358.imageshack.us/img358/2019/frontpage4jn.jpg

Piffan
2005-08-14, 14:14:46
So richtig gut wollten die Videos bei mir nicht laufen, beim ersten Versuch lags an der unaufgeräumten Festplatte; die Systempartition ist fast voll und Firefox speichert auf dem Desktop :rolleyes:

Jetzt läuft es besser, aber erst mit verringerter Abspielgeschwindigkeit im Loop ist es glatt.

Also: Die Kritik an der G70 ist keine Spinnerei von Freaks. Nachdem ich mit dem Post "NV betrügt" ziemlich fix war, bin ich jetzt beruhigt.

Wenn das die höchste Qualität der G70 ist, dann au Backe. :eek:

Da siehts ja auf der R300 mit 16xBiAF besser aus, weil da nix flimmert und das Banding einigermaßen weit weg ist.

Zu der Winkelabhängigkeit: Ja, man sieht es, es kann einen stören, muss es aber nicht. Das Flimmern hingegen erinnert einen fast an alte Dos- Spiele.

Wenn ich in Morrowind die Wahl hätte zwischen Unschärfe- Inseln im Gelände (die erst das geübte Auge wahrnimmt) oder dem Flimmern von Texturen, wäre die Entscheidung klar......Außerdem wähle ich lieber unoptimiertes AF über alle Stages und beschränke mich dabei auf 4xAF als dass es irgendwo flimmert.....durch geringere Af- Grade ist die Winkelabhängigkeit weniger störend.

Bei den neuen Spielen ala Farcry, Doom 3 oder jetzt FEAR macht mir ne ganz andere Sache Sorgen: Die verflixten Glanzlichter in Verbindung mit Bumps....Da hilft kein AF, sondern nur Supersampling....Über kurz oder lang werden alle "modernen" Spiele flimmern, denn so viel Power dass man die komplette Szene in Supersampling darstellen kann, werden die Karten niemals erreichen...

Noch mal Danke für die Videos, jetzt kann man endlich mal sehen, wie die anderen Karten ticken. :)

Hier wäre ne gute Chance für die PcGH, genug Platz auf den DVD- Beilagen wäre ja. Nur ob die sich das leisten können.....

Pinoccio
2005-08-14, 14:23:30
Was die Videos betrifft so möchte ich etwas technisches Anmerken: wenn man sie beschneiden würde auf ein Viertel ihrer Größe, so würde man (abgesehen vom Gefühl ein komplettes Bild zu sehen) keinerlei qualitativen Nachteile haben und zum einen 75% der Netzwerkbelastung sparen und zum anderen mehr Leuten eine Chance geben, sie sich anzusehen.
Zum manderen habe ich zweifel, ob der Codec verlustfrei komprimiert, laut der Fraps-Seite (http://www.fraps.com/faq.php#videocap) tut er das nicht.

mfg Sebastian

Piffan
2005-08-14, 14:29:11
Womit kann ein Video beschnitten werden? Mit dem Cropping von Virtual- Dub?

Gast
2005-08-14, 14:38:53
komisch... bei mir flimmert die GTX keinen deut mehr als die 6800GT auf HQ...
Treiber 77.77. kann diesen artikel keineswegs bestätigen...

Gast
2005-08-14, 14:43:23
Geht mir genauso! Das flimmert nicht mehr bei mir mit der GTX als bei meiner 6800GT... ABER die IQ ist klar mieser als bei ATI ohne TSSAA. Auch ich werde den R520 vorziehen selbst wenn er langsamer ist aber bessere AF Quali hat.

Irgendwas stimmt ned... ich seh ja die Movies hier, aber so ist es bei mir nicht! Auch Treiber 77.77!

Pinoccio
2005-08-14, 14:44:31
Womit kann ein Video beschnitten werden? Mit dem Cropping von Virtual- Dub?Hm, in VirtualDub habe ich auf den ersten Blick keine solche Option gefunden, aber gehen wir ddas vermutlich schon mit einem Filter. Zur not sonst halt als einzelbilder exportieren und jedes mit IrfanView beschneiden oder sowas. Daran sollte es nicht scheitern.
Könnte man ja mal nen Extra-Thread im Video-Unterforum aufmachen, bei Bedarf.

mfg Sebastian

aths
2005-08-14, 14:55:09
Also ich hab mir alle Videos mehrmals angesehen, und selbst auf der FX seh ich noch flimmern :rolleyes:

Die Unterschiede zwischen ATI und Nvidia kann man zwar sehen, aber sie sind wirklich SEHR KLEIN, und meiner Meinung nach nicht gerechtfertigt um der 7800 GTX eine Kaufempfehlung abzusprechen! Wenn man da SSAA und TRAA einschaltet (und sie hat die Leistung dazu ;)), würde das Bild wahrscheinlich ruhiger als auf der FX aussehen ;)

So wie der Artikel geschrieben ist, hab ich mirs viel schlimmer vorgestellt, kann aber jetzt beruhigt meine beiden SLI 7800 GTX Babies weiter ownen lassen :DAuf der FX sehe ich kein Flimmern. Texturflimmern mittels SSAA bekämpfen zu wollen ist eine komische Idee, da SSAA viel teurer ist als gutes AF. Interessanterweise sind es überwiegend die 7800-Besitzer, die das Flimmern für erträglich halten. Kaum einer der bereits gekauft hat gibt zu, dass man von so einer Karte an Texturqualität mehr erwarten muss.

aths
2005-08-14, 14:55:49
Was die Videos betrifft so möchte ich etwas technisches Anmerken: wenn man sie beschneiden würde auf ein Viertel ihrer Größe, so würde man (abgesehen vom Gefühl ein komplettes Bild zu sehen) keinerlei qualitativen Nachteile haben und zum einen 75% der Netzwerkbelastung sparen und zum anderen mehr Leuten eine Chance geben, sie sich anzusehen.
Zum manderen habe ich zweifel, ob der Codec verlustfrei komprimiert, laut der Fraps-Seite (http://www.fraps.com/faq.php#videocap) tut er das nicht.Da steht – soweit ich das eben noch mal gelesen habe – nirgends, dass der Codec verlustbehaftet arbeiten würde.

Gast
2005-08-14, 14:58:47
Auf der FX sehe ich kein Flimmern. Texturflimmern mittels SSAA bekämpfen zu wollen ist eine komische Idee, da SSAA viel teurer ist als gutes AF. Interessanterweise sind es überwiegend die 7800-Besitzer, die das Flimmern für erträglich halten. Kaum einer der bereits gekauft hat gibt zu, dass man von so einer Karte an Texturqualität mehr erwarten muss.

lol... ich finde es viel komischer das 99% die hier einen coment abgeben noch nie eine GTX gesehen haben.

JA Man darf bessere AF Quali verlangen ABER nicht nur bei der GTX sondern ab GF6 bei Nvidia allgemein. Hier Movies zu platzieren die keinesfalls die realität wiederspiegeln finde ich traurig...

Gast
2005-08-14, 15:00:38
dazu kommt noch: jeder der zwei augen hat bemerkt das sobald man mit fraps captured das ganze plötzlich mehr flimmert... ich vermute da einen direkten zusammenhang obwohl das extrem strange ist...

mbee
2005-08-14, 15:05:05
Inwiefern spiegeln diese Videos denn nicht die Realität wieder? Die "Flimmer"-Diskussion um die GTX ist inzwischen ja im ganzen Netz und nicht nur hier zu finden.

dazu kommt noch: jeder der zwei augen hat bemerkt das sobald man mit fraps captured das ganze plötzlich mehr flimmert... ich vermute da einen direkten zusammenhang obwohl das extrem strange ist...

Aha, in dem Fall würde es aber auch beim X800 mehr flimmern oder hat FRAPS eine eingebaute "NVIDIA-Detection"?
Komisch, dass solche Kommentare wieder mal unter einem Gast-Account kommen. Bereut da etwa jemand insgeheim seinen Kauf? ;)

Gast
2005-08-14, 15:12:53
Inwiefern spiegeln diese Videos denn nicht die Realität wieder? Die "Flimmer"-Diskussion um die GTX ist inzwischen ja im ganzen Netz und nicht nur hier zu finden.



Aha, in dem Fall würde es aber auch beim X800 mehr flimmern oder hat FRAPS eine eingebaute "NVIDIA-Detection"?
Komisch, dass solche Kommentare wieder mal unter einem Gast-Account kommen. Bereut da etwa jemand insgeheim seinen Kauf? ;)


hast du echt das gefühl ich melde mich in jedem x beliebigen forum an wenns ne gast funktion hat... ganz arm...

hast du eine GTX? jo dann sei doch bitte still...

ich bin händler, habe alle karten hier und ich sage euch es ist BS was ihr hier verzapft. Nvidia flimmert mehr als ATI das ist fakt aber die GTX ist genau das selbe geflimmere wie die 6800GT oder Ultra. Ich habe noch nie eine GTX so flimmern sehen wie bei diesen Movies hier... komisch nicht? Im ganzen Netz? genau und im ganzen Netz (eine handvoll seiten) gibt es gegenteilige Meinungen zu diesem Thema.

Gast
2005-08-14, 15:19:06
das ganze nvidia geflimmere ist eher auf clamp zurückzuführen. da sollte mal einer weiter forschen http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_forceware_vergleich/8/

Mr. Lolman
2005-08-14, 15:19:53
dazu kommt noch: jeder der zwei augen hat bemerkt das sobald man mit fraps captured das ganze plötzlich mehr flimmert... ich vermute da einen direkten zusammenhang obwohl das extrem strange ist...

Nein, die Videos flimmern genausostark, wie die Grafik im Spiel, zumindest meine Videos auf meinen GraKas. Und die zeigen genau das gleiche Problem...

Gast
2005-08-14, 15:20:58
das ganze nvidia geflimmere ist eher auf clamp zurückzuführen. da sollte mal einer weiter forschen http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_forceware_vergleich/8/

sorry falscher link, da isser: http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_forceware_vergleich/10/

Mr. Lolman
2005-08-14, 15:21:25
das ganze nvidia geflimmere ist eher auf clamp zurückzuführen. da sollte mal einer weiter forschen http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_forceware_vergleich/8/

Das Lod wurde für die Tests auf 0.0 fixiert. Genau das macht Clamp (soferns funktioniert :rolleyes: ) auch.

Gast
2005-08-14, 15:23:06
Nein, die Videos flimmern genausostark, wie die Grafik im Spiel, zumindest meine Videos auf meinen GraKas. Und die zeigen genau das gleiche Problem...

hey ich zock hier BF2 mit 1600x1200 4TSAA und 16AF und es flimmert überhaupt nicht wie im Movie. niemals! was habt ihr alle gefressen oder muss man davon ausgehen das 3dcenter ne ATI seite ist oder wie ist das zu verstehen? warum nimmt man ansonsten "konsequenterweise" (rofl) die UT engine wenn man weiss das Nvidia damit probs hat?

macht doch mal ein paar gescheite Movies (vorallem kleiner) von HL2 und BF2...

Piffan
2005-08-14, 15:23:25
lol... ich finde es viel komischer das 99% die hier einen coment abgeben noch nie eine GTX gesehen haben.

JA Man darf bessere AF Quali verlangen ABER nicht nur bei der GTX sondern ab GF6 bei Nvidia allgemein. Hier Movies zu platzieren die keinesfalls die realität wiederspiegeln finde ich traurig...

Naja, aber über das AF der NV40 wurde auch von vielen Besitzern der Karten gemeckert.
Ist sicher ein Stück weit subjektiv wie man es empfindet, wenn sogar Mapel nach Einsicht der Videos meint, dass es ihn nicht störe... :|

Also mal unterstellt, dass die Videos echt sind, und davon gehe ich eher aus als einem Gast zu glauben, dann ist das HQ jämmerlich, wenn es das Nonplus Ultra der G70 ist. Punkt.

mbee
2005-08-14, 15:24:30
hast du eine GTX? jo dann sei doch bitte still...


Könnte Dir wohl so passen ;)
Dieses Video ist doch wohl vor allem für potentielle Käufer interessant und nicht für Besitzer einer GTX. Das Flimmern wird mittlerweile wirklich in jedem Forum diskutiert, in dem es um Hardware bzw. 3D-Technik/-Karten geht. Das jetzt generell als "Bullhshit" zu deklassieren, obwohl wirklich viele Leute davon berichten, ist IMO ein Verschließen der Augen vor der Realität.

Selbst wenn das Flimmern nicht so stark wie in den Videos ausfallen sollte, ist es gut, dass dies verstärkt in der Öffentlichkeit diskutiert bzw. einmal auf das Thema aufmerksam gemacht wird. Ich lasse mir auch gerne Videos für einen "Gegenbeweis" zeigen und revidiere dann ggf. meine Meinung, falls sich mehrheitlich festellen lassen sollte, das dem nicht so ist.

Dass Dir diese ganze Geschichte als Händler nicht schmecken mag (die GTX ist nun mal zur Zeit die schnellste High-End-Karte, die sich verkaufen läßt), ist mir ehrlich gesagt schnurz.

Mr. Lolman
2005-08-14, 15:27:34
hey ich zock hier BF2 mit 1600x1200 4TSAA und 16AF und es flimmert überhaupt nicht wie im Movie. niemals! was habt ihr alle gefressen oder muss man davon ausgehen das 3dcenter ne ATI seite ist oder wie ist das zu verstehen? warum nimmt man ansonsten "konsequenterweise" (rofl) die UT engine wenn man weiss das Nvidia damit probs hat?

macht doch mal ein paar gescheite Movies (vorallem kleiner) von HL2 und BF2...

Das liegt an deine hohen Spiel-Auflösung, (u.U. in Verbindung mit einem unscharfen Monitor) Da fällt das Flimmern in der Tat nicht so auf.
BTW: Kennst du meine Q3a Videos/Gifs? Die zeigen das gleiche Problem, und bei der Engine hat NV hoffentilch keine "Probleme" (Lol, Probleme hat NV mit der UT-Engine definitiv, wenn einem selbst bei HQ willkürlich ein trilinearer Filter vorenthalten wird)

(del676)
2005-08-14, 15:28:28
tja, wenn jetzt jeder auch noch ne supportmail an den hersteller seiner 7800gtx (oder einfach an irgendeinen hersteller wenn man schon keine 7800 hat) schickt und sich über die grausige filterqualität beschwert hilfts vielleicht was ...

Gast
2005-08-14, 15:28:29
Könnte Dir wohl am so passen ;)
Dieses Video ist doch wohl vor allem für potentielle Käufer interessant und nicht für Besitzer einer GTX. Das Flimmern wird mittlerweile wirklich in jedem Forum diskutiert, in dem es um Hardware bzw. 3D-Technik/-Karten geht. Das jetzt generell als "Bullhsit" zu deklassieren, obwohl wirklich viele Leute davon berichten, ist IMO ein Verschließen der Augen vor der Realität.

Selbst wenn das Flimmern nicht so stark wie in den Videos ausfallen sollte, ist es gut, dass dies verstärkt in der Öffentlichkeit diskutiert bzw. einmal auf das Thema aufmerksam gemacht wird. Ich lasse mir auch gerne Videos für einen "Gegenbeweis" zeigen und revidiere dann ggf. meine Meinung, falls sich mehrheitlich festellen lassen sollte, das dem nicht so ist.

Dass Dir diese ganze Geschichte als Händler nicht schmecken mag (die GTX ist nun mal zur Zeit die schnellste High-End-Karte, die sich verkaufen läßt), ist mir ehrlich gesagt schnurz.

ja und die verkauft sich auch extrem gut ;-)

gebe dir absolut recht, dass man unbedingt darüber reden muss! Wir alle wollen mehr Qualität als Quantität oder? nur mit solchen Diskussionen wie hier wird dies öffentlich UND ES MUSS eine Aenderung geben!

Wenn ATI das ganze auch noch mitbekommt und es dann als Marketing verwenden kann, hoffe ich ganz stark das der R520 überragende IQ hat aber eben: wir alle wissen das die länge der balken leider mehr zählt.

wenn einer hier ne mailad. oder gleich space zur verfügung stellt mache ich gerne ein Movie in HL2 mit 4TSAA und 16AF damit ihr seht WIE GEIL die IQ ist der GTX...

Mr. Lolman
2005-08-14, 15:29:08
wenn einer hier ne mailad. oder gleich space zur verfügung stellt mache ich gerne ein Movie in HL2 mit 4TSAA und 16AF damit ihr seht WIE GEIL die IQ ist der GTX...


www.rapidshare.de

aths
2005-08-14, 15:30:12
lol... ich finde es viel komischer das 99% die hier einen coment abgeben noch nie eine GTX gesehen haben.

JA Man darf bessere AF Quali verlangen ABER nicht nur bei der GTX sondern ab GF6 bei Nvidia allgemein. Hier Movies zu platzieren die keinesfalls die realität wiederspiegeln finde ich traurig...Dass die Movies die Realität widerspiegeln (nicht wiederspiegeln, wenn ich das anmerken darf) davon kann man ausgehen – sie wurden ja nicht aus den Rippen geschnitten sondern mit der jeweiligen Hardware aufgenommen. Damien hat das LOD-Bias auf 0 gesetzt um sicherzustellen, dass es nicht flimmert wenn der Filter korrekt arbeitet. Die FX flimmert nicht, die 6800 in HQ gerade so auch nicht, die X800 zeigt ganz leichtes Shimmering über einige Bereiche ohne bereits zu flimmern – 6800 Q und 7800 (egal ob Q oder HQ) flimmern.

Gast
2005-08-14, 15:33:00
Dass die Movies die Realität widerspiegeln (nicht wiederspiegeln, wenn ich das anmerken darf) davon kann man ausgehen – sie wurden ja nicht aus den Rippen geschnitten sondern mit der jeweiligen Hardware aufgenommen. Damien hat das LOD-Bias auf 0 gesetzt um sicherzustellen, dass es nicht flimmert wenn der Filter korrekt arbeitet. Die FX flimmert nicht, die 6800 in HQ gerade so auch nicht, die X800 zeigt ganz leichtes schimmering über einige Bereiche ohne bereits zu flimmern – 6800 Q und 7800 (egal ob Q oder HQ) flimmern.

ja Q ist bei Nvidia unbrauchbar... da fängts natürlich an! es ist unzumutbar dies als default qualität zu bringen.

also ich mach mich mal an einen movie... hab sowas aber noch nie gemacht. fraps 1024 fullscreen ohne sound kommt am besten oder? kiegt man die dann noch kleiner?

aths
2005-08-14, 15:36:28
ja Q ist bei Nvidia unbrauchbar... da fängts natürlich an! es ist unzumutbar dies als default qualität zu bringen.Das ist eine Aussage des Artikels, die mir vorher (vor eigenen Tests mit der 6600 GT in Q, angestoßen durch Aussagen im Forum) selbst nicht bewusst war. Die andere ist, dass die 7800 auch im HQ-Modus bei derzeitigen Treibern noch flimmert.

also ich mach mich mal an einen movie... hab sowas aber noch nie gemacht. fraps 1024 fullscreen ohne sound kommt am besten oder? kiegt man die dann noch kleiner?Nur wenn du beim Komprimieren Verluste inkauf nimmst. Der Fraps-Codec packte bei diesen Videos knapp 3:1. Viel mehr dürfte nicht drin sein, wenn es keine Verluste geben soll.

aths
2005-08-14, 15:38:59
dazu kommt noch: jeder der zwei augen hat bemerkt das sobald man mit fraps captured das ganze plötzlich mehr flimmert... ich vermute da einen direkten zusammenhang obwohl das extrem strange ist...Wenn Tridam das gleiche festgestellt hätte, hätte er mir das geschrieben, denke ich. Eine sehr hohe Bildwiederholrate im Spiel, verbunden mit einem trägen TFT (oder einem etwas unscharfen CRT) verwischt das Flimmern natürlich etwas. Insofern kann das Video mit recht geringer Framerate mehr Flimmern zeigen als ein Spiel mit 60 oder 75 fps. Fakt ist, dass es flimmert, aber es darf überhaupt nicht flimmern.

aths
2005-08-14, 15:40:16
hast du echt das gefühl ich melde mich in jedem x beliebigen forum an wenns ne gast funktion hat... ganz arm...

hast du eine GTX? jo dann sei doch bitte still...Gerade die, die eine GTX haben, reden – bis auf einige Ausnahmen – das Problem klein.

ich bin händler, habe alle karten hier und ich sage euch es ist BS was ihr hier verzapft. Nvidia flimmert mehr als ATI das ist fakt aber die GTX ist genau das selbe geflimmere wie die 6800GT oder Ultra. Ich habe noch nie eine GTX so flimmern sehen wie bei diesen Movies hier... komisch nicht? Im ganzen Netz? genau und im ganzen Netz (eine handvoll seiten) gibt es gegenteilige Meinungen zu diesem Thema.Die GTX flimmert zumindest mit dem 7800-Launch-Treiber mehr als die GT, das ist mehrfach nachgewiesen.

(del676)
2005-08-14, 15:45:05
hast du echt das gefühl ich melde mich in jedem x beliebigen forum an wenns ne gast funktion hat... ganz arm...

hast du eine GTX? jo dann sei doch bitte still...

ich bin händler, habe alle karten hier und ich sage euch es ist BS was ihr hier verzapft. Nvidia flimmert mehr als ATI das ist fakt aber die GTX ist genau das selbe geflimmere wie die 6800GT oder Ultra. Ich habe noch nie eine GTX so flimmern sehen wie bei diesen Movies hier... komisch nicht? Im ganzen Netz? genau und im ganzen Netz (eine handvoll seiten) gibt es gegenteilige Meinungen zu diesem Thema.

ich hab zwar Downloadbeschränkung, aber ich lad mir mal das 7800gtx hq video - und schau wie es im vergleich zu meiner echten 7800 gtx "flimmert"

meiner meinung nach flimmert diese nämlich in hq nicht, sondern grieselt nur leicht - aber ich vergleich das mal ;)

Gast
2005-08-14, 15:45:21
hauptproblem soeben bemerkt: ich spiele nie mit 1024. alles unter 1600 tu ich mir nicht an. Bei 1024 flimmert die GTX abnorm übel!

ich probier nun kurz einen 1024er fullscrenn und dann einen 1600er half zu capturen.

Gast
2005-08-14, 15:50:46
ich kann jedoch nur nochmal unterstreichen: ich hab jetzt ein 1024er movie mit fraps gemacht. es flimmerte stark im realen spiel ABER es flimmert im gemachten Movie fast doppelt so fest! kaum auszuhalten!

Mr. Lolman
2005-08-14, 15:55:24
Teste das mal bei nem Spiel wo man die maximale Framerate fixieren kann, und schau ob inGame mit 30fps immernoch weniger flimmert als das Frapsvideo.

Gast
2005-08-14, 16:06:20
Teste das mal bei nem Spiel wo man die maximale Framerate fixieren kann, und schau ob inGame mit 30fps immernoch weniger flimmert als das Frapsvideo.

also, ich hab jetzt auf 1600x1200 auch noch einen gemacht. Es ist wirklich MASSIV ein unterschied ob ingame oder nicht! btw. HL2. Ingame flimmert es wirklich minim aber im Movie... meine güte!

die Movies kann ich euch gar nicht zeigen die sehen so schlimm aus! Nachwievor fängt es auch mehr an ingame zu flimmern sobald ich F12 drücke (F9 ist laden in HL2 deshalb habe ich F12 belegt) bzw. das Flimmern verlagert sich an andere Stellen.

Ich bitte 3Dcenter das mal zu untersuchen!

Mr. Lolman
2005-08-14, 16:10:08
Gibts auch nen Unterschied im Standbild? Also wenn du F12 drückst, und dich dann nicht bewegst?

Gast
2005-08-14, 16:13:33
Gibts auch nen Unterschied im Standbild? Also wenn du F12 drückst, und dich dann nicht bewegst?

schaue ich mir gleich an... denke aber eher nicht.

bin nun am upload eines der üblen movies (1024x768 4TSAA 16AF gamma cor.) 30MB

btw. in der neuen PCGH ist ein bericht über das Thema...

Matt
2005-08-14, 16:15:48
Interresant währe es wirklich, einen Brief an ATI zu schreiben. Mir ist nämlich BQ am wichtigsten, da ich eher alte Spiele habe.
Ich selbst hab seit 2 Jahren eine 9800 Pro.
-Matt

Gast
2005-08-14, 16:25:56
also bei standbildern ist kein unterschied zu sehen.

was mir auffällt: das TSAA ist auf movies nicht zu sehen! es sieht aus als ob ich ohne AA spiele!

hier ein screenshot ingame: http://rapidshare.de/files/3972792/HL2TSAA1600.jpg.html

hier einer im selben menü aus fraps:
http://rapidshare.de/files/3972867/HL2TSAA1600fraps.jpg.html

seht auch die bäume, die gräser an... kein TSAA zu sehen und dazu stimmt auch die grösse nicht obwohl ich 1600er fullscreen mit fraps machte...

tEd
2005-08-14, 16:30:42
Interresant währe es wirklich, einen Brief an ATI zu schreiben. Mir ist nämlich BQ am wichtigsten, da ich eher alte Spiele habe.
Ich selbst hab seit 2 Jahren eine 9800 Pro.
-Matt

Du brauchst kein Brief zu schreiben aber man braucht Artikel wie dieser auf 3DC um den IHV's zu zeigen das IQ wichtigkeit hat. Wenn man solche Sachen aber totschweigt dann wird ati mit der Zeit nicht anders können als mit dem Strom mitzuschwimmen. Wobei ich würde mir da beim r520 noch keine Sorgen machen ;)

Das Problem ist das Nvidia druck ausübt und mit Massnahmen droht was leider sich manche Tester zu sehr ans Herz legen.

Gast
2005-08-14, 16:31:46
genau da liegt dann das problem, stellt euch diese jaggies nun vor in bewegung! es flimmert im movie wie die hölle!!

hier der movie: 1024 4TSAA 16AF gamma cor. (aber eben kein AA zu sehen und deshalb ganz krasses kantenflimmern!)

http://rapidshare.de/files/3973061/hl2_2005-08-15_16-01-52-18.avi.html

und sowas wollt ihr dann vergleichen? das geht nicht...

Gast
2005-08-14, 16:34:55
dann noch einen auszug aus der neuen pcgh:

"So sagt Nvidia-Chefentwickler David Kirk, man reagiere damit nur auf die Anforderungen der Kunden, die grossteils auf die erzielbaren Bildweiderholraten schauen würden. Zudem passe man sich hinsichtlich der gebotenen Qualtität dem Mitbewerber an."

"Was hätte man am G70 noch verbessern können?"
Kirk: "ich bin sehr glücklich mit dem Design. Natürlich wollen wir immer noch schneller werden"

na dann... zückt die Tastaturen und bombardiert den wicht...

Knötchen
2005-08-14, 16:49:22
also, ich hab jetzt auf 1600x1200 auch noch einen gemacht. Es ist wirklich MASSIV ein unterschied ob ingame oder nicht! btw. HL2. Ingame flimmert es wirklich minim aber im Movie... meine güte!

die Movies kann ich euch gar nicht zeigen die sehen so schlimm aus! Nachwievor fängt es auch mehr an ingame zu flimmern sobald ich F12 drücke (F9 ist laden in HL2 deshalb habe ich F12 belegt) bzw. das Flimmern verlagert sich an andere Stellen.

Ich bitte 3Dcenter das mal zu untersuchen!

puuuhh ... das ist doch nicht haltbar was hier mal wieder von Gästen kommt.

Zum Registrieren reicht ein stinknormaler freemail account. Jeder der einigermassen regelmässig das Web nutzt hat davon mind. 10 Stück. Und wenn du schon soviel zu reden hast, kannst du die < 2 min fürs Registrieren auch noch erübrigen.

Freien Webspace findest du auch zuhauf: rapidshare.de, gmx.net usw.

Und wieso soll fraps in bei der GTX mehr flimmern als ne X800? Hat das jetzt auch schon eine NV-Erkennung und codet zusätzliches Flimmern in die Videos, weil von ATI gesponsort? :rolleyes: Sry, das ist lächerlich, genauso wie die Anschuldigungen gegen das 3Dcenter.

Hier will sich jmd die Flimmerkarte schön reden, wiel er in sie fehlinvestiert hat, weil er vom Verkauf selbiger lebt, weil sponsored by Nvidia, NV-f4nb0y, who cares.

Meine Empfehlung: flamende Gäste einfach ignorieren.

aths
2005-08-14, 17:03:39
hey ich zock hier BF2 mit 1600x1200 4TSAA und 16AF und es flimmert überhaupt nicht wie im Movie. niemals! was habt ihr alle gefressen oder muss man davon ausgehen das 3dcenter ne ATI seite ist oder wie ist das zu verstehen?Es ist zu herrlich: Je nach dem, ob es dem Leser schmeckt oder nicht, werde ich als pro-NV oder pro-ATI hingestellt. Mir gehts rein um die Fakten: Die 7800 GTX flimmert bei aktuellen Treibern auch in HQ.

warum nimmt man ansonsten "konsequenterweise" (rofl) die UT engine wenn man weiss das Nvidia damit probs hat?Nvidia hat da keine Probs, sondern speziell "optimiert", man bekommt keine volle trilineare Filterung. Dabei ging das früher auch bei NV-Karten. Das "Problem" ist ein Cheat um in Benches besser dazustehen. UT verwendet von sich aus einen negativen LOD-Bias und dafür recht unscharfe Texturen. Damien hat keine unscharfe Textur, aber einen LOD-Bias von 0 gewählt. Wie sich zeigt (FX, 6800 HQ, ATI Radeon) flimmert es dann nicht, sofern der Filter nicht kaputt-"optimiert" ist.

Die 7800 GTX flimmert immer.

macht doch mal ein paar gescheite Movies (vorallem kleiner) von HL2 und BF2...Immer diese Ansprüche. Mach du doch mal Videos.

Black-Scorpion
2005-08-14, 17:05:58
Bilder bis 1024kb würde ich nicht dort sonder hier hochladen.
http://www.imageshack.us
Das ist für Bilder besser geeignet.

aths
2005-08-14, 17:06:15
dann noch einen auszug aus der neuen pcgh:

"So sagt Nvidia-Chefentwickler David Kirk, man reagiere damit nur auf die Anforderungen der Kunden, die grossteils auf die erzielbaren Bildweiderholraten schauen würden. Zudem passe man sich hinsichtlich der gebotenen Qualtität dem Mitbewerber an."

"Was hätte man am G70 noch verbessern können?"
Kirk: "ich bin sehr glücklich mit dem Design. Natürlich wollen wir immer noch schneller werden"

na dann... zückt die Tastaturen und bombardiert den wicht...Die (ohnehin nicht besonders gute) Qualität des Mitbewerbes wurde nun weit unterboten. Entweder weiß er das nicht (das sollte er als Chefentwickler aber) oder er sagt die Unwahrheit bewusst.

derominöseGast
2005-08-14, 17:08:37
hab ich schon gemacht! siehe oben... extra für euch pauschtis hab ich mich jetzt im 873ten forum registriert :wink:

sieh dir den ingame screenie an und dann den movie... hast du wirklich das gefühl das es real so wie im movie aussieht? schau dir diesen ingame screenie ganz genau an... gar ned so übel das AF gell?

aber nochmal: Nvidia ist voll auf dem Holzweg wenn sie so weitermachen... die GTX ist Ordnung, nur zeigt sie für die Zukunft eine abscheuliche Tendenz.

aths
2005-08-14, 17:13:43
hab ich schon gemacht! siehe oben... extra für euch pauschtis hab ich mich jetzt im 873ten forum registriert :wink: Das geht auch freundlicher zu formulieren.

aber nochmal: Nvidia ist voll auf dem Holzweg wenn sie so weitermachen... die GTX ist Ordnung, nur zeigt sie für die Zukunft eine abscheuliche Tendenz.Die GTX ist eben nicht in Ordnung. In HQ ist das AF nicht mehr so flimmerig wie beim 6800-er Standard, ja. Aber es flimmert. Es ist schlechter als 6800 HQ, welches bereits grenzwertig ist. Das ist inakzeptabel, erst recht in dieser Leistungsklasse. Die GTX ist von der Qualität her zumindest in HQ nicht ganz unspielbar bei aktiviertem AF, aber nicht "in Ordnung".

derominöseGast
2005-08-14, 17:18:59
Das geht auch freundlicher zu formulieren.



Die GTX ist eben nicht in Ordnung. In HQ ist das AF nicht mehr so flimmerig wie beim 6800-er Standard, ja. Aber es flimmert. Es ist schlechter als 6800 HQ, welches bereits grenzwertig ist. Das ist inakzeptabel, erst recht in dieser Leistungsklasse. Die GTX ist von der Qualität her zumindest in HQ nicht ganz unspielbar bei aktiviertem AF, aber nicht "in Ordnung".

freundlicher? wüsste nicht wie... wenn ich hier als gast angemacht wurde (warum habt ihr dann eine gast funktion).

genau das sehe ich eben anders... HQ ist für mich HQ ob 6800 oder 7800 und ich behaupte es sieht nicht so aus wie auf euren movies und den grund hab ich jetzt schon hundertmal genannt. das AF ist anders (das belegen die tests... nicht die movies) aber nicht sichtbar schlechter in einem spiel auf einem screen.

kann ja jeder GTX besitzer mal das HQ GTX movie runterladen... es sieht einfach real nicht so übel aus, kann ich auch nicht ändern. Mir geht es nur um den Vergleich 6800 vs. 7800. das Nvidia flimmert ist fakt.

aber klar: Nvidia muss was machen. die PCGH sieht auch einen unterschied (bei HQ sei er ganz gering) ABER 6800/7800 haben schlechteres AF als ATI und ich persönlich bin echt nicht daran interessiert ob mein HL2 nun mit 180 oder 200fps läuft... ich will auch Qualität sehen!

betasilie
2005-08-14, 17:23:02
freundlicher? wüsste nicht wie... wenn ich hier als gast angemacht wurde (warum habt ihr dann eine gast funktion).
Ack. Dieses durch die Moderation gedultete allgemeine Gastgebashe, als ob Gäste hier minderwertig oder Freiwild wären, stört mich auch. Wenn hier Gäste erwünscht sind, sollten sie nicht wie Menschen 2. Klasse behandelt werden dürfen.

genau das sehe ich eben anders... HQ ist für mich HQ ob 6800 oder 7800 und ich behaupte es sieht nicht so aus wie auf euren movies und den grund hab ich jetzt schon hundertmal genannt. das AF ist anders (das belegen die tests... nicht die movies) aber nicht schlechter in einem spiel auf einem screen.

kann ja jeder GTX besitzer mal das HQ GTX movie runterladen... es sieht einfach real nicht so übel aus, kann ich auch nicht ändern.
Für mich, obwohl ich jetzt keine 7800GTX mehr habe, sieht es exakt so aus, wie ohne Fraps. Es flimmert wie Sau und die Videos belegen das. BF2 ist meiner Meinung nach nahezu unspielbar mit der 7800er durch das starke Flimmern.

mapel110
2005-08-14, 17:25:46
genau da liegt dann das problem, stellt euch diese jaggies nun vor in bewegung! es flimmert im movie wie die hölle!!

hier der movie: 1024 4TSAA 16AF gamma cor. (aber eben kein AA zu sehen und deshalb ganz krasses kantenflimmern!)

http://rapidshare.de/files/3973061/hl2_2005-08-15_16-01-52-18.avi.html

und sowas wollt ihr dann vergleichen? das geht nicht...
Danke für das Video. Endlich mal was aus der Praxis.

derominöseGast
2005-08-14, 17:30:17
Danke für das Video. Endlich mal was aus der Praxis.

gern geschehen aber nimm es nicht so wie es da aussieht... es ist WEIT besser ingame.

zu BF2: komisch das ein Kunde von mir bis heute mosert das seine X850XT arg flimmere in BF2 und ich absolut geniale IQ habe mit 77.77 und der GTX... gerade BF2 empfinde ich mit der GTX und TSAA als absoluten Fortschritt.

Gast
2005-08-14, 17:54:14
nun kommt grad noch die lösung für das problem meines kunden mit der X850XT:

quelle PCGH "In BF2 ist übrigens kein echter Vergleich mit einer GTX und einer X850XT möglich. AntiAliasing funktioniert auf ATI Grafikkarten weder über das Spiel noch über den Treiber"

das ist ja super... ist nur die 850er davon betroffen oder auch 800er?

Knötchen
2005-08-14, 17:54:40
Ack. Dieses durch die Moderation gedultete allgemeine Gastgebashe, als ob Gäste hier minderwertig oder Freiwild wären, stört mich auch. Wenn hier Gäste erwünscht sind, sollten sie nicht wie Menschen 2. Klasse behandelt werden dürfen. [...]
Ok, aber es ist nunmal so dass Gäste _unerkannt_ bleiben, egal was sie sagen (vom IP-Loggingmal abgesehen, was defacto auch eh nichts bringt). Sobald du einen acc benutzt, kann man statements klar einer - wenn auch viertuellen - Person zuweisen, sie ggf. auf die ignore-Liste setzen, ...

Menschen zweiter Klasse trifft es nicht wirklich, da wir uns hier immerhin in einem virtuellen Raum befinden. Aber Beiträge zweiter Klasse sind es für mich irgendwie schon, aus og. Gründen. Dass muss gar nicht mal mit dem Inhalt der Postings zusammenhängen. Aber wie og., ist es ein minimaler Aufwand sich zu registrieren und damit die Vorteile eines registrieten members für alle nutzbar zu machen.

Leider habe ich keinen screeni von dem Gastposting gemacht, in dem er mich übelst beschimpfte bevor das Posting gelöscht wurde. Zugegeben, meine Formulierungen waren nicht allzu freundlich, rechtfertigten in meinen Augen aber keine derart aggressive Beschimpfung. Nuja, wie gesagt, idR. sind Gäste imho ignorierungswürdig.

Seraf
2005-08-14, 17:55:52
gern geschehen aber nimm es nicht so wie es da aussieht... es ist WEIT besser ingame.

zu BF2: komisch das ein Kunde von mir bis heute mosert das seine X850XT arg flimmere in BF2 und ich absolut geniale IQ habe mit 77.77 und der GTX... gerade BF2 empfinde ich mit der GTX und TSAA als absoluten Fortschritt.

Wir haben hier aber einige User die ihre 7800GTX wegen des störenden Flimmerns wieder verkauft haben.
Ich glaub Dunkeltier war einer davon und noch ein paar andere.
Die können dir bestimmt bestätigen das sie das flimmern/grieseln wahrgenommen haben.

In diesem Thread findet man bestimmt noch zwei drei mehr:
http://www.forum-3dcenter.de/vbulletin/showthread.php?t=235409

aths
2005-08-14, 18:01:10
freundlicher? wüsste nicht wie... wenn ich hier als gast angemacht wurde (warum habt ihr dann eine gast funktion).Kein Grund, zurückzukeilen. Wer Gäste anmacht, disqualifiziert sich selbst.

genau das sehe ich eben anders... HQ ist für mich HQ ob 6800 oder 7800 und ich behaupte es sieht nicht so aus wie auf euren movies und den grund hab ich jetzt schon hundertmal genannt. das AF ist anders (das belegen die tests... nicht die movies) aber nicht sichtbar schlechter in einem spiel auf einem screen.Die Videos zeigen eine Szene die direkt auf der Graka aufgenommen wurde, mit dem entsprechendem 8x AF der jeweiligen Graka. Das AF kann demzufolge nicht "anders" sein. Es kann sein, dass die Flimmer-Charakteristik aufgrund der Framerate anders ist. Bei hoher Ingame-Framerate wirkt sich das AF-Flimmern etwas weniger schlimm aus, aber 7800 HQ flimmert. Das darf nicht sein, ist aber so. Wie stark es in einem Spiel flimmert, ist stark vom Content abhängig. Es ist ja nicht so, dass die 7800-er reihenweise zurückgegeben werden wegen der untauglichen AF-Qualität.

kann ja jeder GTX besitzer mal das HQ GTX movie runterladen... es sieht einfach real nicht so übel aus, kann ich auch nicht ändern. Mir geht es nur um den Vergleich 6800 vs. 7800. das Nvidia flimmert ist fakt.

aber klar: Nvidia muss was machen. die PCGH sieht auch einen unterschied (bei HQ sei er ganz gering) ABER 6800/7800 haben schlechteres AF als ATI und ich persönlich bin echt nicht daran interessiert ob mein HL2 nun mit 180 oder 200fps läuft... ich will auch Qualität sehen!Gut :)

Die 6800 ist in HQ bereits grenzwertig. Der Filter neigt schon zum Flimmern, ohne dass es jedoch richtig ausbricht. 7800 flimmert definitiv. Wie stark, hängt vom Textur-Content, vom Monitor und von der Framerate ab. Für mich wichtig ist, dass es prinzipiell nicht flimmern darf. Auch Q darf nicht flimmern, tut es aber sowohl auf der 6800 als auch 7800. Das ist ebenfalls ein Skandal.

aths
2005-08-14, 18:02:23
Leider habe ich keinen screeni von dem Gastposting gemacht, in dem er mich übelst beschimpfte bevor das Posting gelöscht wurde. Zugegeben, meine Formulierungen waren nicht allzu freundlich, rechtfertigten in meinen Augen aber keine derart aggressive Beschimpfung. Nuja, wie gesagt, idR. sind Gäste imho ignorierungswürdig.Das Posting wurde von einem Mod getrasht, nicht gelöscht. Dein Posting war allerdings auch nicht gerade das Gelbe vom Ei.

tombman
2005-08-14, 18:19:28
Ich finds herrlich, daß die ganzen Nicht-7800GTX Besitzer jene Karten gleich als Fehlinvestition bezeichnen, nur weil die BQ ein BISCHEN schlechter als bei ATI ist- naja, bitte, wenn sie es brauchen :rolleyes:

Als nächstes kommen dann die GF3 Besitzer und sagen "HA-HA" zu allen mit aktuellen Karten, was für Fehlinvestitionen sie doch haben ;D

p.s.: klar, die Tendenz geht derzeit absolut in die falsche Richtung, aber ausflippen muß man deswegen auch nicht gleich bei so einer Kleinigkeit.

Knötchen
2005-08-14, 18:20:48
Kein Grund, zurückzukeilen. Wer Gäste anmacht, disqualifiziert sich selbst. [...]
Na danke. :frown: Ich finde mein Posting zwar eher grenzwertig, angesichts der wenig glaubwürdigen Äusserungen des Gasts und dem Vorwurf, der Artikel sei tendenziös, habe es mir aber trotzdem hinter die Löffen geschrieben.

Anmachen glaubte ich mir längst abgewöhnt zu haben. :)

Knötchen
2005-08-14, 18:25:59
[...] p.s.: klar, die Tendenz geht derzeit absolut in die falsche Richtung, aber ausflippen muß man deswegen auch nicht gleich bei so einer Kleinigkeit.

Ack, nur Schönreden hilft ähnlich wenig und Wegdiskutieren machts auch nicht besser (damit meine ich nicht dich, tombman).

Blaire
2005-08-14, 18:42:23
Es ist zu herrlich: Je nach dem, ob es dem Leser schmeckt oder nicht, werde ich als pro-NV oder pro-ATI hingestellt. Mir gehts rein um die Fakten: Die 7800 GTX flimmert bei aktuellen Treibern auch in HQ.


Ich wehre mich immer dagegen wenn gesagt wird Grieseln=Flimmern ich seh das schon anders und mache da Unterschiede. Klar stört das grieseln auch , aber als flimmern würde ich das nicht definieren.
Erst bei Quality (bzw. Standardsetting des Treibers) fängt es wirklich an mit flimmern.

MfG

tEd
2005-08-14, 18:45:26
die videos zeigen eindeutig flimmern auf HQ mit g70

Tarkin
2005-08-14, 18:52:46
nun kommt grad noch die lösung für das problem meines kunden mit der X850XT:

quelle PCGH "In BF2 ist übrigens kein echter Vergleich mit einer GTX und einer X850XT möglich. AntiAliasing funktioniert auf ATI Grafikkarten weder über das Spiel noch über den Treiber"

das ist ja super... ist nur die 850er davon betroffen oder auch 800er?

nur PCGH und DAUs sind davon betroffen :wink:

BF2 + AA funkioniert DEFINITIV auf X800 Karten (also schätze ich mal auch auf X850... ist ja nix anderes)

der Trick dabei ist, AA im Spiel selbst, nicht im Control Panel zu aktivieren (komischerweise muss man Windows neu starten, damit das funktioniert - also AA im Spiel einschalten, im CP ausschalten und Windows neu starten, dann gehts!)

(nicht beleidigt sein, aber wenn man sich 5 Minuten Zeit nimmt und im WWW sucht, findet man die Lösung)

hab den Screen ebend selbst gemacht ... 1152x864 mit 4xAA

http://img355.imageshack.us/my.php?image=bf21152x8644xaa0wg.jpg

Gast
2005-08-14, 19:09:09
Nimm Media Player Classic! Wenn der die Files im Speicher hat, flutscht es. :)

So, und jetzt mache ich mich unbeliebt. :D
Ich würde mir dennoch den G70 kaufen. Das was ich auf den Videos im Vergleich zu ATI sehe, würde mich nicht großartig stören
Ehmm. Ja das stört Dich vielleicht nicht. Aber stört Dich mit der Hardware auch nicht kein HDR in FarCry? Oder entweder Tearing da kein TripleBuffer erzwingbar? Oder entweder schwarz/grüne Videos in den Videoplayern, also mal wieder Theater mit Overlay? Oder "Balken"? oder oder oder. Du verstehst...

Ich würde mir erstmal garkeinen NV-Chip kaufen, denn ich wüßte momentan wirklich nicht welcher Treiber dadrauf soll :( Und Raff wird das garantiert nicht klären können, denn bei ihm laufen sie ja alle...

Und eine G70 kauf ich mir nicht alleine wegen FEAR in 2048x1540 in 260 FPS. Auch SM3 ist SM3. Das kann schon eine 6er sehr gut. Ich will nicht nur den Speed, sondern auch die Quali erleben!
Und was ich am meisten möchte, ist, die Quali selbst zu bestimmen. Und was mich am meisten stört ist nichtmal irgendein Flimmern von Texturen, sondern, daß man mich manipuliert und mit Placeboreglern auch noch kackfrech bescheißt.

Gast
2005-08-14, 19:11:27
Na danke. :frown: Ich finde mein Posting zwar eher grenzwertig, angesichts der wenig glaubwürdigen Äusserungen des Gasts und dem Vorwurf, der Artikel sei tendenziös, habe es mir aber trotzdem hinter die Löffen geschrieben.

Anmachen glaubte ich mir längst abgewöhnt zu haben. :)

du ich bin der gast und ich habe nichts gelöscht... du hast mich angemacht und mehr kann ich dazu nicht sagen. ich denke du hast meine anderen beiträge nicht mal angesehen sonst wärst du gar nicht so agressive gewesen.

hey ich kann es nicht ändern und euch FX und GF6 oder ATI besitzern nicht was schlechteres berichten um euch "aufzugeilen". Die GTX ist imo phänomenal abgesehen vom typischen GF6 flimmern. Wenn jemand dann noch behauptet BF2 sei unspielbar wegen flimmern... BF2 ist ein super Beispiel wie GUT eine GTX aussieht und was für Hammer FPS bietet. BF2 IST DIE AUSNAHME bei mir die überhaupt nicht störend flimmert bzw. mehr als ATI. GTR ist das negativbeispiel wie übel es sein kann.

wer dann noch mit fehlinvestitionen rumwirft oder verkäufen von Händlern... die X850xt pe ist bei mir teurer als die GTX also daran kann ja nicht liegen...

es ist schlicht schade wie die GTX fertig gemacht wird... hätte sie das typische Nvidia GF6 flimmern nicht würde ich sie momentan als perfekt hinstellen. Wenn hier schweizer in der nähe aus luzern hat können die gerne bei mir vorbeikommen und sich ihr eigenes bild machen.

ich bin der erste der wieder einen R520 testen wird und gegebenenfalls bei sich einbaut wenn er besser ist. ich habe nicht die geringste absicht irgendwas schönzureden, mache mir aber sorgen über das kaputtreden von vielen hier.

Gast
2005-08-14, 19:15:23
Ehmm. Ja das stört Dich vielleicht nicht. Aber stört Dich mit der Hardware auch nicht kein HDR in FarCry? Oder entweder Tearing da kein TripleBuffer erzwingbar? Oder entweder schwarz/grüne Videos in den Videoplayern, also mal wieder Theater mit Overlay? Oder "Balken"? oder oder oder. Du verstehst...

Ich würde mir erstmal garkeinen NV-Chip kaufen, denn ich wüßte momentan wirklich nicht welcher Treiber dadrauf soll :( Und Raff wird das garantiert nicht klären können, denn bei ihm laufen sie ja alle...

Und eine G70 kauf ich mir nicht alleine wegen FEAR in 2048x1540 in 260 FPS. Auch SM3 ist SM3. Das kann schon eine 6er sehr gut. Ich will nicht nur den Speed, sondern auch die Quali erleben!
Und was ich am meisten möchte, ist, die Quali selbst zu bestimmen. Und was mich am meisten stört ist nichtmal irgendein Flimmern von Texturen, sondern, daß man mich manipuliert und mit Placeboreglern auch noch kackfrech bescheißt.

kein HDR in Farcry? hä? treiberbug overlay seit 77.76 weg. balken?

so fängts an... total nicht haltbares geschwätz das schlicht falsch ist.

Fear läuft bei mir auch nur mit ca. 20-35 fps... 1280x960 alles max softshadows off 4tsaa 8af... Fear wird aber retail viel besser laufen laut gamespot.

aber du hast sowas von recht mit den optimierungen... das ist eine bodenlose frechheit. noch dazu mit einer GTX wo soviel rohe power zur verfügung steht... echt unhaltbar was Nvidia (aber auch ATI) da bieten.

Gast
2005-08-14, 19:16:25
nur PCGH und DAUs sind davon betroffen :wink:

BF2 + AA funkioniert DEFINITIV auf X800 Karten (also schätze ich mal auch auf X850... ist ja nix anderes)

der Trick dabei ist, AA im Spiel selbst, nicht im Control Panel zu aktivieren

(nicht beleidigt sein, aber wenn man sich 5 Minuten Zeit nimmt und im WWW sucht, findet man die Lösung)


das hoffe ich schwer und kann es mir auch nicht anders erklären ausser das pcgh da falsch liegt.

mein kunde wird ein dau sein lol...

aths
2005-08-14, 20:49:33
Ich finds herrlich, daß die ganzen Nicht-7800GTX Besitzer jene Karten gleich als Fehlinvestition bezeichnen, nur weil die BQ ein BISCHEN schlechter als bei ATI ist- naja, bitte, wenn sie es brauchen :rolleyes:In dieser Gesellschaft scheint es Brauch zu sein, zumindest öffentlich nicht einzugestehen, wenn ein neu gekauftes (und teures) Produkt die Erwartungen nicht erfüllt.

Als nächstes kommen dann die GF3 Besitzer und sagen "HA-HA" zu allen mit aktuellen Karten, was für Fehlinvestitionen sie doch haben ;D

p.s.: klar, die Tendenz geht derzeit absolut in die falsche Richtung, aber ausflippen muß man deswegen auch nicht gleich bei so einer Kleinigkeit.Solche Töne hörte ich bislang bei jeder einzelnen Qualitätsabsenkung. Wenn das so weiter geht, haben wir 2007 Point Sampling.

Eine Karte mit der massiven Power von 10 Gigatexeln wäre prädestiniert um nahezu perfektes AF anzubieten. Stattdessen wird die bereits fragwürdige NV40-Qualität noch unterboten. Die ohnehin höchst mittelmäßige anisotrope Filterung der Radeon sieht selbst "optimiert" noch besser aus als die 7800 im HQ-Modus anbietet. Da gibt es nicht kleinzureden oder zu beschwichtigen.

Von der Schwindelei, es in Q grundsätzlich flimmern zu lassen, mal ganz abgesehen.

aths
2005-08-14, 20:55:36
du ich bin der gast und ich habe nichts gelöscht... du hast mich angemacht und mehr kann ich dazu nicht sagen. ich denke du hast meine anderen beiträge nicht mal angesehen sonst wärst du gar nicht so agressive gewesen.

hey ich kann es nicht ändern und euch FX und GF6 oder ATI besitzern nicht was schlechteres berichten um euch "aufzugeilen". Die GTX ist imo phänomenal abgesehen vom typischen GF6 flimmern.Es darf nicht flimmern. Es darf nicht flimmern. Eine Karte mit mit AF flimmert, ist nicht phänomenal. "Abgesehn vom AF" – wozu sollte man die Texelleistung sonst nutzen, für reine trilineare Filterung? Da brauchts keine 7800 um an das CPU-Limit zu kommen. Die 7800 ist eine Karte um AF zu aktivieren. Weil die 7800 dann zum Flimmern neigt, ist sie für Liebhaber von Texturqualität nicht zu empfehlen. Selbst eine Radeon mit ihrer sehr ungenauen Texturfilterung und inklusive der Qualitätsabsenkung durch "A. I." bietet die besseren AF-Texturen.

Die GF6 lässt sich (zumindest mit aktuellen Treibern) auch flimmerfrei betreiben. Die GF7 flimmert mit aktuellen Treibern immer.

es ist schlicht schade wie die GTX fertig gemacht wird... hätte sie das typische Nvidia GF6 flimmern nicht würde ich sie momentan als perfekt hinstellen.Mit meiner 6600 GT habe ich in meinen Spielen kein Flimmern gesehen (da HQ-Modus) und kenne das "typische Nvidia GF6-Flimmern" nicht. Auch wenn es das gäbe, entschuldigt das weder Flimmern auf der GF6 noch auf der GF7.

Wenn hier schweizer in der nähe aus luzern hat können die gerne bei mir vorbeikommen und sich ihr eigenes bild machen.

ich bin der erste der wieder einen R520 testen wird und gegebenenfalls bei sich einbaut wenn er besser ist. ich habe nicht die geringste absicht irgendwas schönzureden, mache mir aber sorgen über das kaputtreden von vielen hier.Ich mache mir Sorge, dass diejenigen, die bereits eine GTX haben, ihr Problembewusstsein für das Flimmern bewusst klein halten. Es gibt nur einen Weg, Nvidia diese Spielchen abzugewöhnen: Sie müssen bei den Verkaufszahlen merken dass es nachteilig ist, dem Kunden immer schlechtere und schlechtere Texturen anzubieten.

tEd
2005-08-14, 20:59:32
Wenn hier schweizer in der nähe aus luzern hat können die gerne bei mir vorbeikommen und sich ihr eigenes bild machen.

ich bin der erste der wieder einen R520 testen wird und gegebenenfalls bei sich einbaut wenn er besser ist. .

Naja komme schon wenn ich darf ich wohne in Olten :biggrin:

aths
2005-08-14, 21:01:18
Ich wehre mich immer dagegen wenn gesagt wird Grieseln=Flimmern ich seh das schon anders und mache da Unterschiede. Klar stört das grieseln auch , aber als flimmern würde ich das nicht definieren.
Erst bei Quality (bzw. Standardsetting des Treibers) fängt es wirklich an mit flimmern.Das "grieseln" ist leichtes Flimmern. Wie man das nun bezeichnen mag – selbst die ATI-Karten flimmern nicht. Die grieseln für meine Begriffe, das könnte an der ungenauen LOD-Bestimmung liegen. Was ich bei der 7800 in HQ sehe, ist für mich flimmern. Hast du die Videos FX HQ und 7800 HQ verglichen? FX HQ zeigt, was "flimmerfrei" bedeutet. Wenn man sich vorher an die GF6-Texturen gewöhnt hat, hat man vielleicht schon vergessen, wie ruhig Texturen in Bewegung sein müssen.

(del676)
2005-08-14, 21:11:13
ich hab zwar Downloadbeschränkung, aber ich lad mir mal das 7800gtx hq video - und schau wie es im vergleich zu meiner echten 7800 gtx "flimmert"

meiner meinung nach flimmert diese nämlich in hq nicht, sondern grieselt nur leicht - aber ich vergleich das mal ;)

so hab das 7800 gtx in ut2003 video geladen, windepp gebootet (danke 3dc team für den super codec) und erstmal kräftig lachen müssen.
dann habe ich nochmal nachgesehen ob diese videos echt vom 3DCenter (welches ich bisher als recht kompetent erachtete) geladen habe oder ob das video vielleicht doch von Computerbild geladen wurde ...

tja ...
wenn Aths dieses "HQ 7800GTX Video" zum veranschaulichen der HQ Filteroptionen verwenden will hat er schlicht einen Fehler gemacht, und noch immer keine 7800 GTX selber in Aktion gesehen

das GEFLIMMER auf diesem Video hat nämlich gar nichts mit dem grieseln dass ich auf der 7800 selbst gesehen habe zu tun.

dabei ist mir egal ob der treiber beim video aufnehmen falsch eingestellt war, oder durch den codec solch ein flimmern dazugekommen ist, dieses video sieht nämlich aus wie meine 7800 gtx im QUALITY modus

das Video zeigt EXTREMES FLIMMERN, und kein leichtes Flimmern oder Grieseln wie es im HQ modus vorkommt - PUNKT
also jemand der so etwas mit einer echten karte vergleichen kann habe ich da schonmal ein besseres Fundament für meine Aussage als aths

aber da der herr aths ja sowieso recht behalten wird hätte ich mir den post sparen können denke ich.

aths
2005-08-14, 21:17:59
so hab das 7800 gtx in ut2003 video geladen, windepp gebootet (danke 3dc team für den super codec) und erstmal kräftig lachen müssen.Wenn du bessere Videos machen kannst, immer her damit. Die Videos wurden nicht vom 3dc-Team aufgenommen, die stammen – wie im Artikel mehrfach gesagt – von Tridam.

dann habe ich nochmal nachgesehen ob diese videos echt vom 3DCenter (welches ich bisher als recht kompetent erachtete) geladen habe oder ob das video vielleicht doch von Computerbild geladen wurde ...Wenn du eine Antwort auf dein Problem (nicht mitgequotet) haben möchtest, versuchs noch mal neu.

(del676)
2005-08-14, 21:20:31
Wenn du bessere Videos machen kannst, immer her damit. Die Videos wurden nicht vom 3dc-Team aufgenommen, die stammen – wie im Artikel mehrfach gesagt – von Tridam.

Wenn du eine Antwort auf dein Problem (nicht mitgequotet) haben möchtest, versuchs noch mal neu.

ok dann nochmal

warum wird hier ein video mit extremen flimmern gezeigt, obwohl es im HQ modus viel weniger flimmert?
hat niemand das video mit der echten grafik verglichen?

war das jetzt freundlich genug? bekomme ich bitte bitte eine antwort?

Relic
2005-08-14, 21:24:23
Wieso machst du nicht einfach ein Video, womit du deinen Standpunkt beweist?

derominöseGast
2005-08-14, 21:32:00
Wieso machst du nicht einfach ein Video, womit du deinen Standpunkt beweist?

bitte lies nochmal eine seite vorher was ich geschrieben habe (Evtl. als Gast :biggrin: ) es geht nicht ein movie mit ingame grafik zu machen. ich kenne mich da nicht aus und ich weiss nicht woran es liegt...

Ulukay ich bin mehr als sehr froh das ein gestandener User nun endlich auch mal zu meinem Ergebniss kommt. Mir glaubt ja keiner (was ich schon verstehen kann...)

ich weiss nicht warum ihr das hier nötig habt!? Ich verstehe ja das ihr euch Mühe gebt und sogar Movies macht, das ganze ein riesen Aufwand ist ABER jeder der zwei gesunde Augen hat sieht das die reale ingame Grafik nicht so aussieht! das Grieseln wie wir es jetzt nennen wollen haben auch ATI Karten bzw. ich habe noch keinen 3D Beschleuniger gesehen der die gleiche Ruhe wie ein Screenshot aufweist. Solange wir keine 2000er Auflösungen fahren wird das auch so bleiben. ATI grieselt aber weniger.

@Aths: wegen dem AF bzw. meinen Bemerkungen "abgesehen", die GTX hat ein TSAA das einfach nur noch genial ist und dies ist für mich neben der Performance das Hauptfeature der Karte (deshalb schreibe ich "abgesehen")

Bitte schnall mal eine GTX in dein System und überzeuge dich selbst... vergleiche ein movie von hier mit dem was du dann siehst auf deinem screen.

(del676)
2005-08-14, 21:33:43
ich habe bereits videos gemacht und habe selbst gesehen dass es im video stärker flimmert als in "echt"
das habe ich bereits vor wochen hier gepostet, aber anscheinend wird statt guter recherche lieber auf massig klicks wert gelegt :(

bei dem ausmaß den das hier als HQ angepriesene video von der echten grafik abweicht würde es mich nicht wundern wenn nvidia hier bald wegen böswilliger rufschädigung anklopft.

Piffan
2005-08-14, 21:37:00
ok dann nochmal

warum wird hier ein video mit extremen flimmern gezeigt, obwohl es im HQ modus viel weniger flimmert?
hat niemand das video mit der echten grafik verglichen?

war das jetzt freundlich genug? bekomme ich bitte bitte eine antwort?

Das Problem ist doch folgendes: Es habe nur sehr wenige selbst die Karte. Somit kann nur Tridam selbst die Spielgrafik mit seinem Video verglichen haben.

Wäre wirklich nett, wenn du auch ein Video erstellen könntest.

edit: Pardon, war zu langsam.

Mr. Lolman
2005-08-14, 21:40:20
@G70 Besitzer: Macht mal ein Video mit Q3a. Stellt aber vorher "com_maxfps 30" ein...

Mr. Lolman
2005-08-14, 21:40:43
@G70 Besitzer: Macht mal ein Video mit Q3a (am besten Q3dm15). Stellt aber vorher "com_maxfps 30" ein...

derominöseGast
2005-08-14, 21:43:43
@G70 Besitzer: Macht mal ein Video mit Q3a. Stellt aber vorher "com_maxfps 30" ein...

ich habe vieles aber das nicht... gibts noch was anderes das sich eignen würde? ich bezweifle jedoch das wir das sauber hinkriegen... siehe meinen HL2 Screenshot... die Filter sind da gar nicht mit drin auf dem Fraps Video!

und nochmal, ich habe hier in meinem zweitsystem eine 6800GT und ich sehe da keinen unterschied! ihr müsst es nicht glauben aber wär schad wenn ihr die GTX wegen diesen movies hier verpasst...

Piffan
2005-08-14, 21:45:45
Wenn das Flimmern tatsächlich was zu tun hat mit der Bildwiederholungsrate, dann könnte man damit ja das Missverhältniss zwischen Spiel und Video erklären.

Dann wirkt das Video quasi als "Grieselverstärker". Damit wäre durch die Videos bewiesen, dass die G70 tatsächlich schlechter geworden ist als die NV 40 oder R420. Nicht bewiesen wäre dann aber, dass es derart nervend ist, wie man nach dem Video glauben würde....

In der Tat könnte es Ärger geben seitens Nvidia, da hat Ulukay gar nicht mal Unrecht....

Vielleicht sollte ich meine Postings schnell löschen gehen? :redface:

derominöseGast
2005-08-14, 21:45:56
also bei standbildern ist kein unterschied zu sehen.

was mir auffällt: das TSAA ist auf movies nicht zu sehen! es sieht aus als ob ich ohne AA spiele!

hier ein screenshot ingame: http://rapidshare.de/files/3972792/HL2TSAA1600.jpg.html

hier einer im selben menü aus fraps:
http://rapidshare.de/files/3972867/HL2TSAA1600fraps.jpg.html

seht auch die bäume, die gräser an... kein TSAA zu sehen und dazu stimmt auch die grösse nicht obwohl ich 1600er fullscreen mit fraps machte...

das war mein post auf seite 7... seht euch den oberen Screen an... sauberer gehts fast nicht. mir ist klar das man kein flimmern auf dem standbild sieht aber vergleicht es mit dem fraps screenshot (aus einem movie von fraps) und sagt mir dann ob man so vergleiche anstellen kann bzw. sollte....

das ganze steht nun seit stunden online und ganze 6 leute haben sich die mühe gemacht meine screens anzusehen (3mal war wohl ich sogar dran...)... schade...

ich bin grad auf der suche nach Hypercam... evtl. gehts damit besser als mit Fraps..

aths
2005-08-14, 21:54:15
ok dann nochmal

warum wird hier ein video mit extremen flimmern gezeigt, obwohl es im HQ modus viel weniger flimmert?
hat niemand das video mit der echten grafik verglichen?

war das jetzt freundlich genug? bekomme ich bitte bitte eine antwort?Den letzten Satz habe ich mal überlesen.

Ich finde es gut, dass du das Flimmern bei der 7800 auch im HQ-Video siehst, mapel z. B. findet es ja noch erträglich. Wie stark es im Spiel flimmert, hängt von der Auflösung ab, vom Texturinhalt, von der Bildwiederholrate und vom Monitor (CRT: Bildschärfe, TFT: Reaktionszeit.) Die Videos laufen mit weniger fps als das in aktuellen Spielen üblich ist. Damit ist der zeitliche Unterschied pro Frame entsprechend größer, und die Sichtbarkeit des Flimmerns nimmt zu. Außerdem wurde eine Textur gewählt, die Flimmern gut zeigen kann. Das Video von der FX und die Radeon-Videos zeigen, dass es trotzdem nicht flimmern muss – dazu ist die Textur nicht "böse" genug. Die 6800 flimmert in HQ gerade so noch nicht, in Q aber deutlich. Die 7800 flimmert in Q noch etwas stärker, in HQ schwächer – aber es flimmert. Je nach Spiel und Framerate kann das Flimmern weniger stark ausfallen, aber die 7800-Texturfilter arbeiten – wie die Videos beweisen – nicht so, wie sie sollten.

aths
2005-08-14, 22:01:39
ich weiss nicht warum ihr das hier nötig habt!? Ich verstehe ja das ihr euch Mühe gebt und sogar Movies macht, das ganze ein riesen Aufwand ist ABER jeder der zwei gesunde Augen hat sieht das die reale ingame Grafik nicht so aussieht! das Grieseln wie wir es jetzt nennen wollen haben auch ATI Karten bzw. ich habe noch keinen 3D Beschleuniger gesehen der die gleiche Ruhe wie ein Screenshot aufweist. Solange wir keine 2000er Auflösungen fahren wird das auch so bleiben. ATI grieselt aber weniger.

@Aths: wegen dem AF bzw. meinen Bemerkungen "abgesehen", die GTX hat ein TSAA das einfach nur noch genial ist und dies ist für mich neben der Performance das Hauptfeature der Karte (deshalb schreibe ich "abgesehen")

Bitte schnall mal eine GTX in dein System und überzeuge dich selbst... vergleiche ein movie von hier mit dem was du dann siehst auf deinem screen.Ich habe kein PCIe-System und kann daher eine 7800 nicht selbst testen.

TAA SS ist nach meinen eigenen Worten das "Killerfeature". Keine Frage. NV hat vieles richtig gemacht. NV hat SLI zurückgebracht (und verbessert), NV war bei PCIe zuerst da, NV hat dennoch die AGP-Linie nicht vernachlässigt. NV hat endlich die Antialiasing-Lösung für Alphatest-Kanten (wovon der User derzeit mehr hat, als von SM3.) NV bietet Pixelpipelines an, die extreme Rechenkraft (2 volle MADD-Units plus eine Reihe an Extra-Units) mit hoher Rechengenauigkeit (FP32) kombinieren. NV bietet die Beschleunigung von echtem HDR-Rendering und unterstützt Denorms für FP16 (das kostet Transistoren, aber erhöht die mit FP16 darstellbare Dynamik.)

In diesen wichtigen Punkten prescht NV vor, anstatt sich daran zu orientieren was ATI anbietet. Entsprechend meine Artikel. In Dingen AF orientiert sich NV seit dem NV40 an ATI. Das ist in meinen Augen lächerlich. Jetzt flimmert das AF immer. Es ist schon eine Unverschämtheit, standardmäßig (im Q-Modus) das AF flimmern zu lassen – der Extra-Schalter "AF Sample Optimization", der eigentlich für Unterfilterung zuständig sein sollte hat bei mir leider nichts bewirkt. (Außerdem ist generelle Unterfilterung keine Optimierung.)

Spiele nutzen massiv Texturen. Die Qualität der Texturfilterung ist ein ganz wichtiges Kriterium, um Spiele gut aussehen zu lassen. Texturfilter wurden erfunden, um Aliasing zu verhindern. (MIP-Mapping ist notwendig, um die Rechenarbeit und den Sampling-Aufwand pro Texel überschaubar zu halten.) Das 7800-er AF bietet kein Texturantialiasing mehr. Das darf einfach nicht sein.

Wenn es in vielen Spielen noch nicht so stark flimmert dass man es nicht mehr spielen will, mag das die Mehrzahl der GTX-Besitzer trösten. Ich bleibe dabei: Texturfilter dürfen nicht zum Flimmern neigen. ("Böse" Texturen mit bestimmten Charakteristiken flimmern immer, aber die gewählte Textur ist nicht "böse", wie Vergleichsvideos zeigen.)

aths
2005-08-14, 22:03:02
Wenn das Flimmern tatsächlich was zu tun hat mit der Bildwiederholungsrate, dann könnte man damit ja das Missverhältniss zwischen Spiel und Video erklären.

Dann wirkt das Video quasi als "Grieselverstärker". Damit wäre durch die Videos bewiesen, dass die G70 tatsächlich schlechter geworden ist als die NV 40 oder R420. Nicht bewiesen wäre dann aber, dass es derart nervend ist, wie man nach dem Video glauben würde....

In der Tat könnte es Ärger geben seitens Nvidia, da hat Ulukay gar nicht mal Unrecht....

Vielleicht sollte ich meine Postings schnell löschen gehen? :redface:Nein. Ein Texturfilter muss jedes einzelne Bild korrekt erstellen. Tut er das, flimmert es nicht, wie die Vergleichsvideos zeigen.

Mit Flimmern kann man durchaus leben – ich spiele GT4 in der PAL-Version, da flimmert alles. Das Bild (50 Hz), das Menü (Interlaced-Modus), die Kanten (kein Antialiasing), die Texturen (kein MIP-Mapping.) Das Spiel ist trotz der Schwächen in der PAL-Konvertierung dermaßen gut, dass ich mir das antun kann. Aber es ist ja auch nur eine PS2. Sollte eine 7800 GTX in Richtung PS2-"Qualität" gehen?

Was ich von ATIs temporalen AA halte, habe ich glaube ich schon mal gesagt. Ein Texturfilter darf ebensowenig darauf vertrauen, dass die fps-Zahlen so hoch sind, dass die Reaktionszeit des Monitors das zusätzliche Flimmern verwischt. Das kann allerhöchstens eine Option sein, die der User extra zuschalten muss.

Ich gehe noch weiter: Wenn man bei angeforderter trilinearer Filterung nur brilinear filtert, ist das Betrug. Ein Treiber soll genau das machen, was die Applikation sagt. Brilinear kann eine Option sein, die der Kunde auf Wunsch aktiviert. Dazu könnte es ein einfaches CP geben mit einem Schalter. NV und ATI müssten da reinschreiben, dass sich die Geschwindigkeit durch Qualitätskompromisse steigern lässt. Was die heutigen modernen Grakas rendern hat immer weniger damit zu tun, was eigentlich gerendert werden sollte. Und das, wo es an Rohleistung wahrlich nicht mangelt. Folge: Ältere Spiele, die auch auf der letzten Graka-Generation schnell genug laufen, sehen auf heutigen Karten schlechter aus.

Warum wird hier ständig beschwichtigt?

Mr. Lolman
2005-08-14, 22:10:52
@derominöseGast:


Bilder solltest du eher auf www.imageshack.us hochladen. Rapidshare hat mir heut eine zeitlang nicht erlaubt deine Files runterzuladen, da der Server wohl am Limit war.


Dein Fraps Screenshot ist einfach nur seltsam. Sieht aus als wurde eine viel geringere Auflösung hochskaliert. Dieses Problem besteht bei den 3DC-Videos definitiv nicht. Die unterschiedliche Framerate kann der einzige Grund sein, dass das Flimmern unterschiedlich stark wirkt.

Für aktuelle Spiele mag die vll. 7800GTX garkeine schlechte Wahl sein. Aber Spiele wie Fear oder Riddick + Softshadow deuten an wie sehr das Teil plötzlich flimmert wenn man nicht mehr 60fps bei hohen Auflösungen und/oder SSAA hat.

Das Hauptproblem ist jedoch immernoch dass nicht mit vergleichbaren Treibereinstellungen gebencht wird. Bei gleicher BQ wär der Abstand zw G70 und R420 noch geringer, bzw. wär der G70 stw. wohl sogar etwas langsamer....

aths
2005-08-14, 22:12:03
Das Hauptproblem ist jedoch immernoch dass nicht mit vergleichbaren Treibereinstellungen gebencht wird. Bei gleicher BQ wär der Abstand zw G70 und R420 noch geringer, bzw. wär der G70 stw. wohl sogar etwas langsamer....Das glaube ich nun nicht. Der G70 hat deutlich mehr Rohleistung.

derominöseGast
2005-08-14, 22:24:15
Nein. Ein Texturfilter muss jedes einzelne Bild korrekt erstellen. Tut er das, flimmert es nicht, wie die Vergleichsvideos zeigen.

Mit Flimmern kann man durchaus leben – ich spiele GT4 in der PAL-Version, da flimmert alles. Das Bild (50 Hz), das Menü (Interlaced-Modus), die Kanten (kein Antialiasing), die Texturen (kein MIP-Mapping.) Das Spiel ist trotz der Schwächen in der PAL-Konvertierung dermaßen gut, dass ich mir das antun kann. Aber es ist ja auch nur eine PS2. Sollte eine 7800 GTX in Richtung PS2-"Qualität" gehen?

Ich gehe noch weiter: Wenn man bei angeforderter trilinearer Filterung nur brilinear filtert, ist das Betrug. Ein Treiber soll genau das machen, was die Applikation sagt. Brilinear kann eine Option sein, die der Kunde auf Wunsch aktiviert. Dazu könnte es ein einfaches CP geben mit einem Schalter. NV und ATI müssten da reinschreiben, dass sich die Geschwindigkeit durch Qualitätskompromisse steigern lässt. Was die heutigen modernen Grakas rendern hat immer weniger damit zu tun, was eigentlich gerendert werden sollte. Und das, wo es an Rohleistung wahrlich nicht mangelt. Folge: Ältere Spiele, die auch auf der letzten Graka-Generation schnell genug laufen, sehen auf heutigen Karten schlechter aus.

Warum wird hier ständig beschwichtigt?

hier wird nicht beschwichtigt! hier wird eher richtiggestellt! ich kann deiner aussage nun nicht entnehmen ob sich das nur auf die GTX bezieht. Ich sehe das wie du mit dem flimmern... völlig unnötig und eine frechheit. mir geht es rein darum das die GTX nicht so flimmert wie auf euren videos und in reallife einfach wie eine 6800ultra flimmert. ich persönlich würde die movies entfernen... dies sind klare flaschinformationen und das geht nie gut...

btw. mit der pal version von GT4 bist du gut bedient. ich habe beide PAL und NTSC und NTSC im progressiv oder hdtv mode sieht weit beschissener aus... man mag es nicht glauben aber es ist so... hatte mir extra ne US PS2 slim gekauft - totaler reinfall. die pal version sieht wegen der höheren auflösung besser aus und flimmert nicht mehr oder weniger als die NTSC prog. version... die ahben da was versaut bzw. hingebogen - 1080i ist sowas von pixelig... pal sieht besser aus auf meinem sharp 37GA4E...

hypercam würde die sache besser machen aber switched mir immer auf dem desktop... kenn sich einer damit aus?

Knötchen
2005-08-14, 22:30:39
Wenn Ulukay und derominöseGast betonen, dass die Videos wesentlich mehr flimmern als im Game, dann frage ich mich als durchschnittlich interessierter User, der gerade mal eine AF-Blume zu deuten weiss und Mip-Bänder erkennt wenn er sie seht, warum

das FX-Video oder das X800-Video erkennbar weniger bis gar nicht flimmert.

Wenn mir das bitte jmd schlüssig erklären könnte und nicht nur darauf bochen würde, dass das Video der GTX flimmert, aber die eigentliche GTX viel weniger, wäre mir sehr geholfen.


Edit:
Wenn das Flimmern tatsächlich was zu tun hat mit der Bildwiederholungsrate, dann könnte man damit ja das Missverhältniss zwischen Spiel und Video erklären.

Dann wirkt das Video quasi als "Grieselverstärker". Damit wäre durch die Videos bewiesen, dass die G70 tatsächlich schlechter geworden ist als die NV 40 oder R420. Nicht bewiesen wäre dann aber, dass es derart nervend ist, wie man nach dem Video glauben würde....

In der Tat könnte es Ärger geben seitens Nvidia, da hat Ulukay gar nicht mal Unrecht....

Vielleicht sollte ich meine Postings schnell löschen gehen? :redface:
aha ... logisch folgere ich daraus, dass die X800 praktisch gar kein Flimmern produziert und das auch nicht verstärkt wird in den Videos und die GTX ein minimales Flimmern produziert, was aber doch deutlich in den Videos zum vorschein tritt. :confused: hmmm ... sozusagen wird das Flimmern nicht linear verstärkt, sondern logarithmisch und zwar gleich zu Beginn der "Videoflimmerschwelle". ... hmmm ... findet das sonst noch jmd schlüssig?

@NV: yo, sollen sie die Leute die wenigstens versuchen Licht ins Dunkel zu bringen doch am besten gleich verklagen. ;)

Mr. Lolman
2005-08-14, 22:30:53
Das glaube ich nun nicht. Der G70 hat deutlich mehr Rohleistung.

Zieh mal 30% von den Ergebnissen ab:
http://www.hardware.fr/medias/photos_news/00/13/IMG0013247.gif

http://www.hardware.fr/medias/photos_news/00/13/IMG0013241.gif


Computerbase hat bei Farcry und Hl² schon beim NV40 mehr als 20% zw. HQ und Q(1,3) festgestellt (leider nur bis 1600x1200 gebencht). Wenn man jetzt noch hinzufrechnet dass die Benchmarks mit default und 4xAA/8xAF gemacht wurden (zusätzlich aktive 3. Optimierung) und dass bei der G70 Filterproblematik auch ein performancerelevanter Grund dahinterstecken könnte, gehen sich imo die 30% locker aus.

Unter Faktum, dass der Abstand bei gleicher BQ auf jeden Fall geringer ist, verfälschen aktuelle Benchmarks dadurch die Kaufentscheidung einiger G70 Kunden zu NVs Gunsten.

aths
2005-08-14, 22:31:04
hier wird nicht beschwichtigt! hier wird eher richtiggestellt! ich kann deiner aussage nun nicht entnehmen ob sich das nur auf die GTX bezieht. Ich sehe das wie du mit dem flimmern... völlig unnötig und eine frechheit. mir geht es rein darum das die GTX nicht so flimmert wie auf euren videos und in reallife einfach wie eine 6800ultra flimmert. ich persönlich würde die movies entfernen... dies sind klare flaschinformationen und das geht nie gut...Ich würde (und werde) die Videos nicht entfernen. Sie sind keine Falschinformationen, sondern auf der jeweiligen Hardware erstellt. Dass es aufgrund einiger Effekte bei höheren fps-Zahlen nicht so deutlich flimmert, merke ich mir als Ergänzung vor. Es kann aber nicht sein, dass sich das AF bei der 7800 nicht auf "flimmerfrei" stellen lässt. Es ist bereits ein Skandal, dass der Standard-Modus flimmert, auch auf der GF6. Das sollte man vielleicht doch noch mal genauer herausarbeiten. Was Nvidia hier treibt, ist inakzeptabel.

btw. mit der pal version von GT4 bist du gut bedient. ich habe beide PAL und NTSC und NTSC im progressiv oder hdtv mode sieht weit beschissener aus... man mag es nicht glauben aber es ist so... hatte mir extra ne US PS2 slim gekauft - totaler reinfall. die pal version sieht wegen der höheren auflösung besser aus und flimmert nicht mehr oder weniger als die NTSC prog. version... die ahben da was versaut bzw. hingebogen - 1080i ist sowas von pixelig... pal sieht besser aus auf meinem sharp 37GA4E... Die GT4-Diskussion ist OT, daher sollten wir das nicht zu weit ausdehnen :) Bei der PAL-Version hat man nur 256 Zeilen statt 288, also nur 16 mehr als bei der NTSC-Version. Statt 1,33:1 hat man so 1,5:1 bzw. im 16:9-Modus statt 1,78:1 immerhin 2:1.

Ich hab nichts gegen Breitbild – aber 50 Hz flimmern. Leider habe ich keinen 100-Hz-TV. Der Progressive-Mode sollte in jedem Fall besser als der Interlaced-Mode sein, damit müsste einiges Geflacker in den Menüs und im Spiel ansich (bei dünnen horizontalen Linien) reduziert werden.

aths
2005-08-14, 22:32:08
Wenn Ulukay und derominöseGast betonen, dass die Videos wesentlich mehr flimmern als im Game, dann frage ich mich als durchschnittlich interessierter User, der gerade mal eine AF-Blume zu deuten weiss und Mip-Bänder erkennt wenn er sie seht, warum

das FX-Video oder das X800-Video erkennbar weniger bis gar nicht flimmert.

Wenn mir das bitte jmd schlüssig erklären könnte Es werden ausreichend viele isotrope Samples pro AF-Sample erstellt und sie werden (mehr oder weniger) korrekt verrechnet.

aths
2005-08-14, 22:33:06
Zieh mal 30% von den Ergebnissen ab: Die geringen Unterschiede bei den unterschiedlichen Auflösungen deuten auf kräftige CPU-Limitierung hin. Flimmerfreies AF kostet dann keine 30%.

Mr. Lolman
2005-08-14, 22:35:08
Die geringen Unterschiede bei den unterschiedlichen Auflösungen deuten auf kräftige CPU-Limitierung hin. Flimmerfreies AF kostet dann keine 30%.

Schau dir die Unterschiede zw. einer einzelnen 7800GTX und SLi an.

/edit: Bei UT2004 kostets beim NV40 bis 50%.

derominöseGast
2005-08-14, 22:36:56
Aths, darauf hinweisen würde ich auf jeden fall (andere Auflösungen, hz etc.)

ja es ist ein skandal die sache mit dem AF aber nicht nur bei der GTX. ich kann beim besten willen keinen unterschied zwischen HQ GTX und HQ GT sehen. messbar kann es sogar sein aber der rein subjektive eindruck durch meine augen ist wirklich genau der gleiche und nicht so wie im video. hey für mich wäre es ein griff ins regal, 1h arbeit mit der Wakü und Installation und ich hätte die x850xtpe drin aber ich stehe zur GTX weil sie insgesamt der Hammer ist und wie gesagt eine gute IQ hat und nicht so wie hier behauptet wird :redface: (ich weiss, genau die falsche einstellung um insgesamt wieder qualität in den fordergrund zu stellen aber TSAA und gamma cor. sind ein guter Schritt... das AF ein Griff in die Kloschüssel)

ot: die menüs bei der NTSC version werden nicht in prog oder hdtv dargestellt sondern 480i... EXTREM FLIMMERN :D
mein Sharp hat progressiv von haus aus eingebaut evtl. liegt es daran das ich so oder so schon weniger flimmern als auf einer 50hz röhre habe.

derominöseGast
2005-08-14, 22:38:09
Schau dir die Unterschiede zw. einer einzelnen 7800GTX und SLi an.

/edit: Bei UT2004 kostets beim NV40 bis 50%.

UT ist vollgas CPU limitiert (gibt kein besseres beispiel) und Farcry läuft seit eh und je besser auf ATI... zeig andere beispiele :wink:

Mr. Lolman
2005-08-14, 22:40:31
UT ist vollgas CPU limitiert (gibt kein besseres beispiel) und Farcry läuft seit eh und je besser auf ATI... zeig andere beispiele :wink:

Da is nix CPU limitiert wenn SLi soviel Mehrperformance liefert und hohe Auflösungen so extrem einbrechen...
Ich könnt auch Colin2005 und NFSU2 heranziehen. Aber da schauts von Hausaus schon nochmal deutlich schlechter fürn G70 aus, und sinnlos mit extremen Beispielen bashen will ich auch nicht.

derominöseGast
2005-08-14, 22:46:10
moment mal... die xtpe soll in HL2 schneller sein als ein GTX SLI? HL2 ist CPU limitiert... :|

http://www.hardware.fr/medias/photos_news/00/14/IMG0014095.gif

edit: na die GTX single ist ja etwas schneller und bei cpu limitierung dann wieder eher erklärbar. SLI ist da langsamer, laut pcgh evtl. wegen treiberbug.

aths
2005-08-14, 22:46:38
Schau dir die Unterschiede zw. einer einzelnen 7800GTX und SLi an.

/edit: Bei UT2004 kostets beim NV40 bis 50%.Welches Setting genau?

Mr. Lolman
2005-08-14, 22:52:44
moment mal... die xtpe soll in HL2 schneller sein als ein GTX SLI? HL2 ist CPU limitiert... :|

http://www.hardware.fr/medias/photos_news/00/14/IMG0014095.gif
Ja ohne AA/AF :|

aths
2005-08-14, 22:55:09
Aths, darauf hinweisen würde ich auf jeden fall (andere Auflösungen, hz etc.)Der Sinn des Artikels ist nicht "Mit dem AF-Flimmern auf dem G70 kann man leben", sondern "auf dem G70 bekommt man das Flimmern nicht weg". Dass das wahrgenommene Flimmern auch vom Texturinhalt, vom Monitor, von der Auflösung und von der Bildwiederholrate abhängt ist eigentlich klar. Ich müsste es nur für die reinschreiben, die den Kopf nicht anschalten (sorry, das soll keinen beleidigen.) Die Videos zeigen, dass es flimmert. Ist es in den meisten Spielen nicht so schlimm, mildert das den Vorwurf den ich Nvidia mache, nicht ab.

Was die Videos zeigen, kann sich auf der 7800 durchaus so zeigen, immerhin wurden die Videos direkt auf einer 7800 gecaptured. Die Vergleichsvideos zeigen, dass es so nicht sein muss und es auch flimmerfrei geht.

ja es ist ein skandal die sache mit dem AF aber nicht nur bei der GTX. ich kann beim besten willen keinen unterschied zwischen HQ GTX und HQ GT sehen. messbar kann es sogar sein aber der rein subjektive eindruck durch meine augen ist wirklich genau der gleiche und nicht so wie im video. hey für mich wäre es ein griff ins regal, 1h arbeit mit der Wakü und Installation und ich hätte die x850xtpe drin aber ich stehe zur GTX weil sie insgesamt der Hammer ist und wie gesagt eine gute IQ hat und nicht so wie hier behauptet wird :redface: (ich weiss, genau die falsche einstellung um insgesamt wieder qualität in den fordergrund zu stellen aber TSAA und gamma cor. sind ein guter Schritt... das AF ein Griff in die Kloschüssel)Das AF versaut alles. Fast das gesamte Bild zeigt gefilterte Texturen. Stimmt da was nicht, ist das gesamte Bild im Hintern.

ot: die menüs bei der NTSC version werden nicht in prog oder hdtv dargestellt sondern 480i... EXTREM FLIMMERN :D
mein Sharp hat progressiv von haus aus eingebaut evtl. liegt es daran das ich so oder so schon weniger flimmern als auf einer 50hz röhre habe.Ich denke die Menüs werden in 480p angezeigt? Bei einem interlaced Signal (bei der PAL-Version) wie kann dein Sharp dann im progressive Mode arbeiten?

Gast
2005-08-14, 22:55:18
bei dem ausmaß den das hier als HQ angepriesene video von der echten grafik abweicht würde es mich nicht wundern wenn nvidia hier bald wegen böswilliger rufschädigung anklopft.
Ganz ruhig. Das Poblem ist ja da. Den ganzen Text kann man auch bis auf 3-4 Sätze auch dann unverändert lassen, wenn die Videos maßlos übertrieben sein sollten. Davon ab liegts dann, wenn, am Codec. Und nicht am irgendwelchen bösen Absichten. Ausgerechnet mit dem Knaller, WorldOfWarcraft, kann man sich das alles schön angucken. Nicht zuletzt bekam das wegen WOW so schnell einen so großen Bekannheitsgrad. "Die Schlucht" kennt mittlerweile sogut wie jeder.

Ich vermute sie lassen das auf jeden Fall solange, solange ATI den R5x0 nicht rausbringt. Sie wollen halt nicht in den FPS abloosen, wissen aber nicht wirklich genau was der Chip leitstet. Es sei denn das ist ein Hardwareprob. Dann lach ich NV mit ihrem Texelmonster aber wirklich voll aus :D

Die Videos mögen Schrott sein. Da gib ich dem hibbeligen MalGast-MalNichtGast Recht. Die Kerbe in die hier ATHS schlägt ist aber ohne Frage die richtige. Und besser man macht das jetzt, als wenn ATI und Nvidia noch den Eindruck gewinnen, so ein Bockmist wäre markttechnisch 100% ok.

Flimmern stört nur. Was wirklich aufregt ist die TATSACHE, daß sie einem im Panel schön beschriftete Knöpfe und Regler vor die Augen schieben, die Einstellungen dann aber mal so und mal so nach eigenem Gutdünken umsetzen.

Und ebenfalls ohne wenn und aber für mich: Daß HQ beim G70 an Q beim NV40 rankommt und HQ vom NV40 als Quatsch für den G70 quasi rausflog - obwohl sich die Beschriftungen für G70 nicht nicht geändert haben! - ist bei der monströsen Power einfach nur ein trauriges Armutszeugnis. Eigentlich müßte jetzt der Hardwarecheffentwickler :massa: zu dem Softwarecheffentwickler rübergehen und ihm eine klatschen :wink:

aths
2005-08-14, 22:56:35
Ja ohne AA/AF :|Könnte an den VS liegen.

Mr. Lolman
2005-08-14, 22:57:15
Welches Setting genau?

Primeval 1280, 8xS 16xAF, LOD 0.0, HQ vs. Q(1,3)´

aths
2005-08-14, 23:01:53
Ganz ruhig. Das Poblem ist ja da. Den ganzen Text kann man auch bis auf 3-4 Sätze auch dann unverändert lassen, wenn die Videos maßlos übertrieben sein sollten. Davon ab liegts dann, wenn, am Codec. Der Codec arbeitet verlustfrei.

Die Videos sind von Tridam gemacht. Tridam schreibt schon mal eigene Pixelshader-Programme, um gewisse Eigenheiten der GPU auszutesten. Von ihm stammt zum Beispiel die Erkenntnis, dass der NV43 mit kleineren Quadbatches arbeitet als der NV40, und dass dies beim G70 weiter verbessert wurde. Er reviewt aber auch Karten für Frankreichs größte Hardware-Site, ist also kein reiner Theoretiker. Ich habe ihn auch mal persönlich kennengelernt. Tridam hat mein Vertrauen, dass er bei den Videos keine Scheiße gebaut hat.

Der Unterschied zwischen 7800 Q (völlig unbrauchbar) und HQ (noch immer flimmerig) ist groß. Ich glaube nicht, dass er sich da vertan hat. Wenn etwas falsch sein sollte, geht das natürlich auf unsere Kappe (also auf 3DC) denn wir veröffentlichen die Videos. Aber ich sehe da keine Anhaltpunkte dass etwas schiefgelaufen sein könnte. 6800 Q und HQ entspricht meinen Erwartungen, ich hatte das ja ingame mit einer 6600 GT schon mal probiert (Den Q-Modus erst vor einigen Wochen auf Nachfrage hier im Forum, vorher interessierte mich das nicht die Bohne.) Die 7800 zeigt sich im Vergleich ebenfalls wie erwartet: 7800 Q ist schlechter als 6800 Q, 7800 HQ ist schlechter als 6800 HQ.

aths
2005-08-14, 23:02:43
Primeval 1280, 8xS 16xAF, LOD 0.0, HQ vs. Q(1,3)´Welche "Optimierungen" sind das genau? Ist Primeval ein Innen- oder Außenlevel?

Knötchen
2005-08-14, 23:15:02
Es werden ausreichend viele isotrope Samples pro AF-Sample erstellt und sie werden (mehr oder weniger) korrekt verrechnet.

Ok, das erklärt das kaum-(oder gar nicht)-Flimmern des X800 Videos, aber nicht unbedingt das stark flimmernde Video der GTX, anstatt sie wie in Wirklichkeit nur schwach flimmernd zu zeigen, wie behauptet wird.

Aber ich habe gerade gelesen, dass das ganze auch etwas mit der framerate zu tun hat und das GTX Video mit einer ungünstigeren Framerate/Capturerate-Relation aufgenommen wurde als die weniger/gar nicht flimmernden Videos, so zumindest der Verdacht. Richtig?

Vorschlag: Kann man die UT2K3 Engine nicht auf 30 fps begrenzen? Fraps kann man zumindest auf 30 fps einstellen. Damit wäre das Video absolut 1:1 und man könnte nix mehr daran rütteln.

Gast
2005-08-14, 23:16:03
Ich hab nichts gegen Breitbild – aber 50 Hz flimmern. Leider habe ich keinen 100-Hz-TV. Der Progressive-Mode sollte in jedem Fall besser als der Interlaced-Mode sein, damit müsste einiges Geflacker in den Menüs und im Spiel ansich (bei dünnen horizontalen Linien) reduziert werden.
Nur einmal noch kurz OT :) Ich spiele das grade in PAL auf einem Löwe Aconda (70cm). Und hier FLIMMERT nichts. So ein top Anzeigegerät kann keine Voraussetzung sein, aber mit echten 100Hz geht es. Das Flimmern wird dann zum Griseln. Aber nichts nerviges. Man darf halt nicht vergessen welcher Hardware man hier welche Grafik+Physik auferlegt. Ok ok. tschüß ;)

MadManniMan
2005-08-14, 23:19:12
Danke aths, auf diesen Artikel habe ich gewartet :up:

Und ich passe mal meine Signatur an, lege also einen Link zu diesem Artikel darunter.

aths
2005-08-14, 23:33:15
Ok, das erklärt das kaum-(oder gar nicht)-Flimmern des X800 Videos, aber nicht unbedingt das stark flimmernde Video der GTX, anstatt sie wie in Wirklichkeit nur schwach flimmernd zu zeigen, wie behauptet wird.

Aber ich habe gerade gelesen, dass das ganze auch etwas mit der framerate zu tun hat und das GTX Video mit einer ungünstigeren Framerate/Capturerate-Relation aufgenommen wurde als die weniger/gar nicht flimmernden Videos, so zumindest der Verdacht. Richtig?

Vorschlag: Kann man die UT2K3 Engine nicht auf 30 fps begrenzen? Fraps kann man zumindest auf 30 fps einstellen. Damit wäre das Video absolut 1:1 und man könnte nix mehr daran rütteln.Die Relation spielt da kaum eine Rolle. Wären die Einzelbilder korrekt, wie bei der FX (und größtenteils der X800 und 6800 im HQ-Modus) würde es nicht flimmern. Geringe Framerate (sofern sie nicht zu gering ist) kann das wahrgenommene Flimmern steigern. Und nicht alle Spiele benutzen solche vergleichsweise detaillierten Texturen.

(del676)
2005-08-14, 23:33:37
Ganz ruhig. Das Poblem ist ja da. Den ganzen Text kann man auch bis auf 3-4 Sätze auch dann unverändert lassen, wenn die Videos maßlos übertrieben sein sollten. Davon ab liegts dann, wenn, am Codec. Und nicht am irgendwelchen bösen Absichten. Ausgerechnet mit dem Knaller, WorldOfWarcraft, kann man sich das alles schön angucken. Nicht zuletzt bekam das wegen WOW so schnell einen so großen Bekannheitsgrad. "Die Schlucht" kennt mittlerweile sogut wie jeder.

Ich vermute sie lassen das auf jeden Fall solange, solange ATI den R5x0 nicht rausbringt. Sie wollen halt nicht in den FPS abloosen, wissen aber nicht wirklich genau was der Chip leitstet. Es sei denn das ist ein Hardwareprob. Dann lach ich NV mit ihrem Texelmonster aber wirklich voll aus :D

Die Videos mögen Schrott sein. Da gib ich dem hibbeligen MalGast-MalNichtGast Recht. Die Kerbe in die hier ATHS schlägt ist aber ohne Frage die richtige. Und besser man macht das jetzt, als wenn ATI und Nvidia noch den Eindruck gewinnen, so ein Bockmist wäre markttechnisch 100% ok.

Flimmern stört nur. Was wirklich aufregt ist die TATSACHE, daß sie einem im Panel schön beschriftete Knöpfe und Regler vor die Augen schieben, die Einstellungen dann aber mal so und mal so nach eigenem Gutdünken umsetzen.

Und ebenfalls ohne wenn und aber für mich: Daß HQ beim G70 an Q beim NV40 rankommt und HQ vom NV40 als Quatsch für den G70 quasi rausflog - obwohl sich die Beschriftungen für G70 nicht nicht geändert haben! - ist bei der monströsen Power einfach nur ein trauriges Armutszeugnis. Eigentlich müßte jetzt der Hardwarecheffentwickler :massa: zu dem Softwarecheffentwickler rübergehen und ihm eine klatschen :wink:

Das wird hier wohl niemand bestreiten.
Mir geht es nur um die Tatsache dass das HQ Video so aussieht wie Q bei mir und wesentlich stärker flimmert als HQ in Echt.
Dass das Flimmern (im HQ Video) von irgendwo herkommen muss und dank Videocapture verstärkt wird ist mir auch klar, aber man kann nicht so ein Video als "HQ auf 7800 GTX" darstellen wenn das nicht der fall ist.
Da könnte man genausogut 256bit gifs als Screenshots nehmen und sagen das sind Screenshots der 7800 GTX. (und anderen Glauben machen die 7800 GTX kann es nicht besser und das ist 1:1 dasselbe wie ingame Grafik)
Ich denke nvidia wird sich diese Verunglimpfung seitens 3DCenter (gewollt oder nicht) nicht gefallen lassen.
Um so schlimmer ist es dass jemand diesen Artikel schreibt der noch nie eine 7800 GTX bei der Arbeit gesehen hat, und somit die Videos mit der normalen Spielegrafik nicht vergleichen kann.

Mr. Lolman
2005-08-14, 23:34:49
Welche "Optimierungen" sind das genau? Ist Primeval ein Innen- oder Außenlevel?

Trilinear und Anisotropic Sample. Primeval ist ein Außenlevel.

aths
2005-08-14, 23:36:00
Nur einmal noch kurz OT :) Ich spiele das grade in PAL auf einem Löwe Aconda (70cm). Und hier FLIMMERT nichts. So ein top Anzeigegerät kann keine Voraussetzung sein, aber mit echten 100Hz geht es. Das Flimmern wird dann zum Griseln. Aber nichts nerviges. Man darf halt nicht vergessen welcher Hardware man hier welche Grafik+Physik auferlegt. Ok ok. tschüß ;)Kanten und verkleinerte Texturen flimmern in GT4 grundsätzlich, da kann das beste adaptive Deinterlacing nichts machen. Jenes kann höchstens das Flimmern gewisser dünner horizontalen Linien reduzieren. Bei 100 Hz hat man natürlich kein 50-Hz-Flimmern, ich weiß jetzt nicht welches Flimmern du genau meinst.

aths
2005-08-14, 23:37:48
Trilinear und Anisotropic Sample. Primeval ist ein Außenlevel.Außenlevel müssten recht CPU-lastig sein. Ich denke die Tri-"Opt" ist in UT immer aktiv, so dass effektiv nur die Unterfilterung umgeschaltet wurde. Das kann keine 50% kosten, dann stimmt irgendwas nicht.

aths
2005-08-14, 23:45:13
Das wird hier wohl niemand bestreiten.
Mir geht es nur um die Tatsache dass das HQ Video so aussieht wie Q bei mir und wesentlich stärker flimmert als HQ in Echt.
Dass das Flimmern (im HQ Video) von irgendwo herkommen muss und dank Videocapture verstärkt wird ist mir auch klar, aber man kann nicht so ein Video als "HQ auf 7800 GTX" darstellen wenn das nicht der fall ist.
Da könnte man genausogut 256bit gifs als Screenshots nehmen und sagen das sind Screenshots der 7800 GTX. (und anderen Glauben machen die 7800 GTX kann es nicht besser und das ist 1:1 dasselbe wie ingame Grafik)
Ich denke nvidia wird sich diese Verunglimpfung seitens 3DCenter (gewollt oder nicht) nicht gefallen lassen.
Um so schlimmer ist es dass jemand diesen Artikel schreibt der noch nie eine 7800 GTX bei der Arbeit gesehen hat, und somit die Videos mit der normalen Spielegrafik nicht vergleichen kann.Was Nvidia von meinen Artikeln hält, hat keinen Einfluss auf den Inhalt. Nvidia kann uns (3DCenter) ein Statement senden, welches wir dann mit veröffentlichen würden. NV wurde vorab vom Artikel informiert. Lägen wir wirklich falsch, hätte uns NV entsprechend geschrieben. Dass von dir angedeutet wird, die angebliche Verunglimpung könne gewollt sein, werte ich als Zeichen fehlender Ernsthaftigkeit.

Tridam kann Spielegrafik und Videos vergleichen. Ich vertraue ihm. Dass das Flimmern nicht in allen Spielen und allen Situationen (Framerate etc.) so auffällt wie auf dem Video, kann sein. (Bei entsprechenden Texturen muss es sogar so sein.) Das Video ist aber echt und nicht getürkt. Es zeigt, wie kaputt der Filter tatsächlich ist. Wenn das durch unscharfe oder schwachkontrastige Texturen oder durch hohe Frameraten etwas kompensiert wird, ändert das nichts am Fakt, dass der G70-Texturfilter nicht das tut, was ein Texturfilter tun muss. Dies wird angeprangert. Den Vorwurf, der G70 würde unterfiltern, ließ Dave Kirk unwidersprochen, er meinte, das würde dann ja auch schärfere Grafik erzeugen. Er hielt das für unproblematisch, da ja der DX WHQL-Test erfüllt werde.

Würde man NV-Mitarbeiter fragen, was sie von der 7800-Standard-Qualität halten, würden sie jene Qualität natürlich hochloben. NV-Mitarbeiter werden prinzipiell nicht einverstanden mit so einem Artikel sein. Who cares? Ihnen bleibt gar nichts anderes als es sich gefallen zu lassen, vorgehalten zu bekommen, dass sie es mit den "Optimierungen" übertrieben haben. Solange genügend User die Probleme kleinreden, haben solche Artikel natürlich keine Chance, auch nur ein ganz klein bisschen was zu bewirken.

Dass Besitzer einer 7800 GTX diese Ausgabe verteidigen wollen, sehe ich irgendwo ein. Deshalb lasse ich aber nichts auf Tridam kommen, oder mir gar gewollte Verunglimpung eines IHV unterstellen.

Würde der G70-A-Filter korrekt arbeiten, würde das Video nicht flimmern. Das ist fakt. Die Vergleichsvideos zeigen, dass es keine "böse" Textur ist, die immer flimmert.

Mr. Lolman
2005-08-14, 23:50:29
Außenlevel müssten recht CPU-lastig sein. Ich denke die Tri-"Opt" ist in UT immer aktiv, so dass effektiv nur die Unterfilterung umgeschaltet wurde. Das kann keine 50% kosten, dann stimmt irgendwas nicht.

Naja, das ist mehrfach (u.A. auch von Raff) erbencht worden. Außerdem sinds 'nur' 46.7%: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3220967&postcount=85
UTs Texturen sind halt relativ unscharf (deswegen auch das per default negative LOD). Kann mir schon vorstellen, dass das recht viel Optimierungspotential bietet.

aths
2005-08-14, 23:54:04
Naja, das ist mehrfach (u.A. auch von Raff) erbencht worden. Außerdem sinds 'nur' 46.7%: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3220967&postcount=85
UTs Textures sind halt relativ unscharf (deswegen auch das negative LOD). Kann mir schon vorstellen, dass das recht viel Optimierungspotential bietet.Was wollen wir hier benchen? Ein tendenziell CPU-lastiges Spiel wie UT, oder die Grafikpower G70 vs R420? Der G70 hat deutlich mehr Texel-Leistung und noch sehr viel mehr arithmetische Leistung. Die reine MAD-Leistung beim Vertexshader ist allerdings geringer.

Ich weiß nicht, wie stark NV bei UT-Benches cheatet. Ich weiß nur, dass der G70 – Ausnahme heftige VS-Limitierung – schneller sein muss. Ansonsten stimmt was nicht. ATI kann sich die Leistung ja auch nicht aus den Rippen schneiden.

(del676)
2005-08-14, 23:57:03
Was Nvidia von meinen Artikeln hält, hat keinen Einfluss auf den Inhalt. Nvidia kann uns (3DCenter) ein Statement senden, welches wir dann mit veröffentlichen würden. NV wurde vorab vom Artikel informiert. Lägen wir wirklich falsch, hätte uns NV entsprechend geschrieben. Dass von dir angedeutet wird, die angebliche Verunglimpung könne gewollt sein, werte ich als Zeichen fehlender Ernsthaftigkeit.

Tridam kann Spielegrafik und Videos vergleichen. Ich vertraue ihm. Dass das Flimmern nicht in allen Spielen und allen Situationen (Framerate etc.) so auffällt wie auf dem Video, kann sein. (Bei entsprechenden Texturen muss es sogar so sein.) Das Video ist aber echt und nicht getürkt. Es zeigt, wie kaputt der Filter tatsächlich ist. Wenn das durch unscharfe oder schwachkontrastige Texturen oder durch hohe Frameraten etwas kompensiert wird, ändert das nichts am Fakt, dass der G70-Texturfilter nicht das tut, was ein Texturfilter tun muss. Dies wird angeprangert. Den Vorwurf, der G70 würde unterfiltern, ließ Dave Kirk unwidersprochen, er meinte, das würde dann ja auch schärfere Grafik erzeugen. Er hielt das für unproblematisch, da ja der DX WHQL-Test erfüllt werde.

Dass Besitzer einer 7800 GTX diese Ausgabe verteidigen wollen, sehe ich irgendwo ein. Deshalb lasse ich aber nichts auf Tridam kommen, oder mir gar gewollte Verunglimpung eines IHV unterstellen.

Würde der G70-A-Filter korrekt arbeiten, würde das Video nicht flimmern. Das ist fakt. Die Vergleichsvideos zeigen, dass es keine "böse" Textur ist, die immer flimmert.

ok nochmal, in der hoffnung dass du meinen post vielleicht diesmal durchliest.

ich behaupte NICHT dass ihr gewollt das video verfälscht.
ich behaupte dass das flimmern durch ein video capture VERSTÄRKT wird.

ich behaupte dass du das video nicht mit der echten 3d grafik verglichen hast.

und nun wirfst du MIR fehlende ernsthaftigkeit vor? - dann muss ich dir extem unsorgfältige recherche vorwerfen.

ich behaupte NICHT dass das video nicht mit HQ Settings aufgezeichnet wurde, aber ich behaupte dass das Flimmern das man im Video sieht bei normaler nativer 3D Grafik längst nicht so stark ist. < und genau das wird einem Leser reingedrückt, und genau das würde ich mir an nvidias Stelle nicht gefallen lassen

Mr. Lolman
2005-08-14, 23:59:06
Was wollen wir hier benchen? Ein tendenziell CPU-lastiges Spiel wie UT, oder die Grafikpower G70 vs R420? Der G70 hat deutlich mehr Texel-Leistung und noch sehr viel mehr arithmetische Leistung. Die reine MAD-Leistung beim Vertexshader ist allerdings geringer.

Ich weiß nicht, wie stark NV bei UT-Benches cheatet. Ich weiß nur, dass der G70 – Ausnahme heftige VS-Limitierung – schneller sein muss. Ansonsten stimmt was nicht. ATI kann sich die Leistung ja auch nicht aus den Rippen schneiden.

ähm: Ich hab Farcry und Hl² Benchmarks verlinkt. Die 50% sind ja nur ein Beispiel für die fps die man sich "Optimierungen" erkaufen kann. Ich weiss nicht, wieso du das jetzt klein reden willst. Deiner Meinung nach dürfte eine 7800GTX nie langsamer sein als eine R420. Bei bspw. Colin05 und NFSU2 ist ne 7800GTX schon mal von hausaus der Fall. (trotz AF Pfusch)

/edit: Außerdem check ich nicht warum du jetzt auch mit der CPU-Last Keule kommst. Was hat die CPU-Last damit zu tun, dass Q(1,3) um fast 90% schneller sein kann, als HQ?

aths
2005-08-15, 00:00:46
ok nochmal, in der hoffnung dass du meinen post vielleicht diesmal durchliest.

ich behaupte NICHT dass ihr gewollt das video verfälscht.
ich behaupte dass das flimmern durch ein video capture VERSTÄRKT wird.Wie soll das (technisch) vonstattengehen?

ich behaupte dass du das video nicht mit der echten 3d grafik verglichen hast.Stimmt. Ich verlasse mich darauf, dass Damien Triolet verglichen hat. Damiens theoretisches Wissen und seine Praxiserfahrung übertrifft mein Wissen und meine Praxiserfahrung um Längen. Außerdem kenne ich ihn als sehr bedachten Redakteur, der überlegt was er tut.

und nun wirfst du MIR fehlende ernsthaftigkeit vor? - dann muss ich dir extem unsorgfältige recherche vorwerfen.

ich behaupte NICHT dass das video nicht mit HQ Settings aufgezeichnet wurde, aber ich behaupte dass das Flimmern das man im Video sieht bei normaler nativer 3D Grafik längst nicht so stark ist. < und genau das wird einem Leser reingedrückt, und genau das würde ich mir an nvidias Stelle nicht gefallen lassenWirf mir vor, was du willst. Das Video ist verlustfrei aufgezeichnet worden, es gibt direkt "normale native 3D-Grafik" wieder. Siehe auch die nicht flimmernden Videos von der FX, und die fast gar nicht flimmernden Videos der X800 bzw. 6800 im HQ-Modus.

(del676)
2005-08-15, 00:01:10
achja, sollte es dich beruhigen ... ich habe durchaus schriftverkehr mit diversen graka herstellern (mit nv selbst hat man als enduser ja keine canche) bezüglich des grieselns.

aths
2005-08-15, 00:03:29
ähm: Ich hab Farcry und Hl² Benchamrks verlinkt. Die 50% sind ja nur ein Beispiel für die fps die man sich "Optimierungen" erkaufen kann. Ich weiss nicht, wieso du das jetzt klein reden willst. Deiner Meniung nach dürfte eine 7800GTX nie langsamer sein als eine R420. Bei bspw. Colin05 und NFSU2 ist ne 7800GTX schon mal von hausaus der Fall. (trotz AF Pfusch)Die Ausnahme bestätigt die Regel. Wenn der G70 mal nicht schneller ist, sehe ich drei Möglichkeiten:

- Irgendwelche ganz blöden Flaschenhälse bremsen den G70 aus. Da wäre aber interessant, welche das sein sollten.
- NVs Treiber arbeiten hier stark suboptimal.
- ATI cheatet, bzw. nutzt fragwürdige applikationsspezifische "Optimierungen".

Woran könnte es sonst liegen? In allen relevanten Parametern mit Ausnahme der MAD-Power im Vertexshader ist der G70, oft sogar deutlich, überlegen.

/eidt: Außeredm check ich nicht warum du jetzt auch mit der CPUlast KLeuel kommst. Was hat die CPU Last damit zu tun, dass Q(1,3) um fast 90% schneller ist, als HQ?Wie gesagt, da stimmt was nicht. Es müsste, läge Füllratenlimitierung vor, entsprechend auch mit der Auflösung skalieren.

(del676)
2005-08-15, 00:06:49
Wie soll das (technisch) vonstattengehen?

du bist der theoretiker nicht ich, ich habe den effekt selber beobachtet, aber wahrscheinlich bin ich zu dumm um ein unkomprimiertes video mit ingame grafik zu vergleichen

Mr. Lolman
2005-08-15, 00:10:15
- Irgendwelche ganz blöden Flaschenhälse bremsen den G70 aus. Da wäre aber interessant, welche das denn sein sollten.
- NVs Treiber arbeiten hier stark suboptimal.
- ATI cheatet, bzw. nutzt fragwürdige applikationsspezifische "Optimierungen".

Woran sollte es sonst liegen?

Ja das reicht doch schonmal. Auf jeden Fall ists gut wahrscheinlich dass der G70 mit NV40 HQ AF nochmal ein gutes Stück langsamer wäre, als mit treiberdefault - was auch bei meinen verlinkten Benchmarks verwendet wurde...

BTW: Fragwürdige App.Optimierungen bei ATi? Nenn mir mal eine...


Wie gesagt, da stimmt was nicht. Es müsste, läge Füllratenlimitierung vor, entsprechend auch mit der Auflösung skalieren.

Und wo steht, dass es das nicht tut?

aths
2005-08-15, 00:14:03
Ja das reicht doch schonmal. Auf jeden Fall ists gut wahrscheinlich dass der G70 mit NV40 HQ AF nochmal ein gutes Stück langsamer wäre, als mit treiberdefault - was auch bei meinen verlinkten Benchmarks verwendet wurde...

BTW: Fragwürdige App.Optimierungen bei ATi? Nenn mir mal eine...Dass wir da aktuell (Quack und den 3DMark2001-Cheat mal vergessen) keine kennen heißt nicht, dass es keine gibt. Vielleicht versteckt es ATI nur besser.

Anhand der Parameter bewertet sollte der G70 (Ausnahme VS-Limitierung) nicht langsamer sein. Sagen Benches etwas anderes, ist zu hinterfragen, wieso. Setzen wir voraus, dass beide IHVs ungefähr gleiche Treiber-Effizenz haben, muss G70 auch bei nicht flimmrigem AF schneller sein. Er hat die stärkere Texelleistung (fast 20%.)

Und wo steht, dass es das nicht tut?Hast du da entsprechende Benches?

aths
2005-08-15, 00:15:22
du bist der theoretiker nicht ich, ich habe den effekt selber beobachtet, aber wahrscheinlich bin ich zu dumm um ein unkomprimiertes video mit ingame grafik zu vergleichenHast du das aufgenommene Level bei dir, dass du es direkt vergleichen kannst?

Blaire
2005-08-15, 00:16:00
Hast du das aufgenommene Level bei dir, dass du es direkt vergleichen kannst?

Guck mal PM

Mr. Lolman
2005-08-15, 00:16:43
Hast du da entsprechende Benches?

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_af-optimierungen_lupe/9/#abschnitt_unreal_tournament_2004

(del676)
2005-08-15, 00:18:06
Hast du das aufgenommene Level bei dir, dass du es direkt vergleichen kannst?

ich habe BF2 Gulf of Oman verglichen, einmal SELBSTAUFGENOMMENES unkomprimiertes Video, einmal Ingame grafik (jaja 2 Monitore sind was feines)
und das Video flimmerte deutlich mehr als die Ingame grafik, das sah man sogar ohne die ingame grafik daneben.

das habe ich schon vor wochen hier gepostet, aber anscheinend poste ich komplett umsonst.

Mr. Lolman
2005-08-15, 00:19:36
das habe ich schon vor wochen hier gepostet, aber anscheinend poste ich komplett umsonst.

Dann verlinks doch bitte nochmal.

Mr. Lolman
2005-08-15, 00:22:29
Setzen wir voraus, dass beide IHVs ungefähr gleiche Treiber-Effizenz haben, muss G70 auch bei nicht flimmrigem AF schneller sein. Er hat die stärkere Texelleistung (fast 20%.)


Iirc haben wir bei der 5800 Ultra auch ähnliche Diskussionen geführt. Da wolltest du auch lang nicht einsehen, dass es bei der PS Leistung zu solch eklatanten Unterschieden zum R300 kommen kann.

/Kann: ja sein, dass der G70 tatsächlich ein Treiber/HW Problem hat, der ihm in der Effizienz behindert.

aths
2005-08-15, 00:26:20
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_af-optimierungen_lupe/9/#abschnitt_unreal_tournament_2004Da sehe ich jetzt nichts zur Skalierung bei unterschiedlichen Auflösungen, sondern immer auf die jeweilige Auflösung bezogene Geschwindigkeitsverluste. Wenn man mit der Sample-"Opt" angeblich bis zu +90% Geschwindigkeit bekommt, dürfte ja nur etwa die halbe Texelzahl genutzt werden. Das ließe sich auch auf die Auflösung umrechnen, aber wegen der recht kräftigen CPU-Limitierung sehe ich bei UT-Benches kaum große Geschwindigkeitsunterschiede in unterschiedlichen Auflösungen.

aths
2005-08-15, 00:27:00
ich habe BF2 Gulf of Oman verglichen, einmal SELBSTAUFGENOMMENES unkomprimiertes Video, einmal Ingame grafik (jaja 2 Monitore sind was feines)
und das Video flimmerte deutlich mehr als die Ingame grafik, das sah man sogar ohne die ingame grafik daneben.

das habe ich schon vor wochen hier gepostet, aber anscheinend poste ich komplett umsonst.Hast du mal ein Spiel und ein Video bei gleicher fps-Zahl verglichen?

aths
2005-08-15, 00:27:51
Iirc haben wär bei der 5800 Ultra auch ähnliche Diskussionen geführt. Da wolltest du auch lang nicht einsehen, dass es bei der PS Leistung zu solch eklatanten Unterschieden zum R300 kommen kann.Das ließ sich mit Shader-Benches gut zeigen. Shader-Benches (jedenfalls die ich gesehen habe) zeigen ab dem NV40 eine deutliche Überlegenheit bei den GeForce-Karten.

/Kann: ja sein, dass der G70 tatsächlich ein Treiber/HW Problem hat, der ihm in der Effizienz behindert. NV ist ja dafür quasi bekannt...Mir nicht. Es dauert aber ein paar Monate, ehe das (beinahe) volle Potenzial erschlossen werden kann.

tEd
2005-08-15, 00:29:14
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_af-optimierungen_lupe/9/#abschnitt_unreal_tournament_2004

das ist ein interessanter link

Mr. Lolman
2005-08-15, 00:33:30
Da sehe ich jetzt nichts zur Skalierung bei unterschiedlichen Auflösungen, sondern immer auf die jeweilige Auflösung bezogene Geschwindigkeitsverluste. Wenn man mit der Sample-"Opt" angeblich bis zu +90% Geschwindigkeit bekommt, dürfte ja nur etwa die halbe Texelzahl genutzt werden. Das ließe sich auch auf die Auflösung umrechnen, aber wegen der recht kräftigen CPU-Limitierung sehe ich bei UT-Benches kaum große Geschwindigkeitsunterschiede in unterschiedlichen Auflösungen.

Brauchen weniger Samples nicht auch weniger Speicher? Außerdem ist der Unterschied bei 8xS höher als bei 4xAA. Raff iirc hat das letztens irgendwo gebencht. RAFF, WO BIST DU?

(del676)
2005-08-15, 00:42:44
Hast du mal ein Spiel und ein Video bei gleicher fps-Zahl verglichen?

nein, warum?
spiel ich etwa mit 20 fps?

Mr. Lolman
2005-08-15, 00:44:47
Das ließ sich mit Shader-Benches gut zeigen. Shader-Benches (jedenfalls die ich gesehen habe) zeigen ab dem NV40 eine deutliche Überlegenheit bei den GeForce-Karten.

Weswegen der NV40 bei shaderintensiven Spielen schneller sein müsste als der R420. Ist er aber kaum wo. Hinsichtlich dessen wunderts mich auch, dass der NV40 bei ATis Ruby gar so langsam ist...

Gast
2005-08-15, 00:48:58
achja, sollte es dich beruhigen ... ich habe durchaus schriftverkehr mit diversen graka herstellern (mit nv selbst hat man als enduser ja keine canche) bezüglich des grieselns.
Gibt es eigentlich eine DIN-Norm die uns bei "kontraststarken Änderungen der Pixel-Farbwerte" zwischen grieseln, blinken, flackern und flimmern klare Linie ziehen lässt? Kommt es auf die Fläche an oder wie? Wenn die Textur grieselt, müßen die Pixel flackern. Damit müßten die Texel "blinken". Nur was flimmert jetzt? Ich hab langsam das Gefühl, Deine Herzkammer Ulukay. Spaß! ;) Entspannt euch bissl bitte.

@aths
Du der Loliman hat Recht mit der 5800ultra. Das weiß ich noch wie heute, weil eine neue Graka anstand und ich hier paar Wochen lang unterwegs war. Ich meine aber die theoretische und praktische FPS-Leistung des G70 hat aber mit dem Artikel imho genauso viel zu tun wie GT4 auf PS2...

aths
2005-08-15, 00:50:51
Brauchen weniger Samples nicht auch weniger Speicher? Wo? (lokaler RAM, Cache ...) Weniger Samples zu haben heißt nicht, an Speicher zu sparen – ich gehe stark davon aus, dass nach wie vor alles in den Cache kommt. Die erforderliche Bandbreite sinkt trotzdem, so aber auch die Füllrate.

Außerdem ist der Unterschied bei 8xS höher als bei 4xAA. Raff iirc hat das letztens irgendwo gebencht. RAFF, WO BIST DU?Wird eine selbst aufgezeichnete Timedemo gebencht?

(del676)
2005-08-15, 00:52:24
Entspannt euch bissl bitte.

MIR ist es eh herzlich egal, da ich hier sowieso gegen ne Wand rede, und ich werde in keine Schwierigkeiten mit nvidia laufen und ich werde auch nicht einen seriösen Ruf verlieren ;)

aths
2005-08-15, 00:54:33
Weswegen der NV40 bei shaderintensiven Spielen schneller sein müsste als der R420. Ist er aber kaum wo. Hinsichtlich dessen wunderts mich auch, dass der NV40 bei ATis Ruby gar so langsam ist...Mich wundert das nicht, ehrlich gesagt. Es ist eine ATI-Demo, speziell für ATI-Karten ausgelegt. Die Kompilierung eines Spieles berücksichtigt alle möglichen Plattformen, ATI wird sich nicht darum gekümmert haben, der GeForce-Architektur irgendwo entgegenzukommen. Spiele-Entwicklern bleibt kaum was anderes übrig.

Der NV40 müsste bei shaderintensiven Spielen schneller sein, wenn er genauso hoch getaktet wäre wie der R420.

aths
2005-08-15, 00:56:12
nein, warum?
spiel ich etwa mit 20 fps?Da hast du deine Antwort. Bei hoher Framerate bewegt sich die Textur pro Frame langsam genug weiter, dass das Flimmern in der Monitor-Reaktionszeit eher verschwimmt. Der Texturfilter muss aber jedes Einzelbild korrekt berechnen. Dann – diverse Vergleichsvideos zeigen es – flimmert es auch nicht. Auch nicht bei 20 oder 30 fps.

Mr. Lolman
2005-08-15, 00:56:28
Wird eine selbst aufgezeichnete Timedemo gebencht?

Die is von Leonidas :|

(del676)
2005-08-15, 00:58:28
Da hast du deine Antwort. Bei hoher Framerate bewegt sich die Textur pro Frame langsam genug weiter, dass das Flimmern in der Monitor-Reaktionszeit eher verschwimmt. Der Texturfilter muss aber jedes Einzelbild korrekt berechnen. Dann – diverse Vergleichsvideos zeigen es – flimmert es auch nicht. Auch nicht bei 20 oder 30 fps.

das ist mir klar, da siehst du hoffentlich nun endlich ein dass ein 20fps video mit 90fps ingame grafik nichts zu tun hat.

aths
2005-08-15, 01:00:42
MIR ist es eh herzlich egal, da ich hier sowieso gegen ne Wand rede, und ich werde in keine Schwierigkeiten mit nvidia laufen und ich werde auch nicht einen seriösen Ruf verlieren ;)Die Empfehlung, meine Seriösität zu verlieren, bekomme ich immer wieder von Leuten, denen meine Artikel nicht passen. Ich scheue auch keine Schwierigkeiten mit IHVs. Es wäre ein Zeichen von Unseriösität würde ich den IHV um seine Meinung fragen, ob die das was in meinen Artikel steht auch so sehen.

Texturfilter dürfen keine Flimmer-Filter sein. G70-AF-Texturen flimmern immer. Das ist fakt. Da kann NV noch so oft in ihre Guidelines was von High Quality schreiben. Was flimmert ist nicht mal Quality. Es muss nicht flimmern, wie die FX und andere Karten zeigen. Was NV Quality nennt, flimmert ab GF6, und bei der GF7 flimmert sogar noch HQ. Das ist per se indiskutabel. Wie schlimm das Flimmern dann im einzelnen Spiel ist, ist ein weiteres Thema, abhängig von subjektiven Dingen und vom Monitor. Es darf aber von vornherein nicht flimmern.

Immerhin: Nach Wochen, Monaten des Vorwurfs, ich sei pro-NV, ist es fast schon erfrischend, zwischen den Zeilen das Gegenteil vorgeworfen zu bekommen.

aths
2005-08-15, 01:03:50
das ist mir klar, da siehst du hoffentlich nun endlich ein dass ein 20fps video mit 90fps ingame grafik nichts zu tun hat.Es ist doch bekannt, hoffe ich, dass ich subjektive Bewertungen nach Möglichkeit unterlasse und mich wenns geht nach objektiven Kriterien richte. Schon ein Standbild-Vergleich zeigt die Überschärfung beim G70. Das darf einfach nicht sein. Wenn 4x AA mittels 2x AA und pro Frame alternierender Maske ausgeführt wird, lässt du dir das dann auch als 4x AA verkaufen weil es bei 90 fps wie 4x aussieht?

(del676)
2005-08-15, 01:08:50
Es ist doch bekannt, hoffe ich, dass ich subjektive Bewertungen nach Möglichkeit unterlasse und mich wenns geht nach objektiven Kriterien richte. Schon ein Standbild-Vergleich zeigt die Überschärfung beim G70. Das darf einfach nicht sein. Wenn 4x AA mittels 2x AA und pro Frame alternierender Maske ausgeführt wird, lässt du dir das dann auch als 4x AA verkaufen weil es bei 90 fps wie 4x aussieht?

ja, warum denn nicht?

Mr. Lolman
2005-08-15, 01:10:52
Wo? (lokaler RAM, Cache ...) Weniger Samples zu haben heißt nicht, an Speicher zu sparen – ich gehe stark davon aus, dass nach wie vor alles in den Cache kommt. Die erforderliche Bandbreite sinkt trotzdem, so aber auch die Füllrate.

Imo spielt der RAM da sehr stark mit: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3369707#post3369707