Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: HighEnd-Chip G70: Nur noch mit flimmernder Grafik?


Seiten : 1 [2] 3 4 5 6 7

Mr. Lolman
2005-08-15, 01:11:21
ja, warum denn nicht?

Eben.

(del676)
2005-08-15, 01:12:07
Eben.

jap, das nennt sich Temporal AA
technische details sind mit als enduser scheissegal, solang das ergebnis passt.

(del676)
2005-08-15, 01:13:16
Die Empfehlung, meine Seriösität zu verlieren, bekomme ich immer wieder von Leuten, denen meine Artikel nicht passen. Ich scheue auch keine Schwierigkeiten mit IHVs. Es wäre ein Zeichen von Unseriösität würde ich den IHV um seine Meinung fragen, ob die das was in meinen Artikel steht auch so sehen.

Texturfilter dürfen keine Flimmer-Filter sein. G70-AF-Texturen flimmern immer. Das ist fakt. Da kann NV noch so oft in ihre Guidelines was von High Quality schreiben. Was flimmert ist nicht mal Quality. Es muss nicht flimmern, wie die FX und andere Karten zeigen. Was NV Quality nennt, flimmert ab GF6, und bei der GF7 flimmert sogar noch HQ. Das ist per se indiskutabel. Wie schlimm das Flimmern dann im einzelnen Spiel ist, ist ein weiteres Thema, abhängig von subjektiven Dingen und vom Monitor. Es darf aber von vornherein nicht flimmern.

Immerhin: Nach Wochen, Monaten des Vorwurfs, ich sei pro-NV, ist es fast schon erfrischend, zwischen den Zeilen das Gegenteil vorgeworfen zu bekommen.

videos deren flimmern deutlich stärker ist als es ingame der fall ist als "das ist die bildqualität der 7800 gtx" zu verteilen ist unseriös.

Mr. Lolman
2005-08-15, 01:14:43
jap, das nennt sich Temporal AA
technische details sind mit als enduser scheissegal, solang das ergebnis passt.

schon wieder ACK.

Mr. Lolman
2005-08-15, 01:19:49
videos deren flimmern deutlich stärker ist als es ingame der fall ist als "das ist die bildqualität der 7800 gtx" zu verteilen ist unseriös.

Es kommt drauf an was man verurteilt. Das alleroberste Gebot eines jeden HW-Redakteurs sollte sein, auf möglichst vergleichbare BQ zu achten bevor er Benchmarks erstellt. Und wenn das nicht möglich ist, muß man diesen Mißstand anprangern.

aths
2005-08-15, 01:22:45
ja, warum denn nicht?jap, das nennt sich Temporal AA
technische details sind mit als enduser scheissegal, solang das ergebnis passt.Bewegte Kanten haben bei dieser AA-Methode keine 4x-Glättung. Ein gutes Auge sieht auch das. "There is no lunch for free."

4x AA heißt 4 Samples pro Pixel in einer brauchbaren Anordnung. Sonst ist es kein 4x AA. So einfach kann es sein. Schaltet man einfach nur "Kantenglättung" zu, interessiert die konkrete Realisierung nicht. 4x AA beinhaltet jedoch gewisse Forderungen an die Realisierung.

Das Ergebnis beim 7800-er AF ist Flimmern. Wie stark man es wahrnimmt ist subjektiv. Wenn du damit leben kannst, gerne. Ich verlange volle Qualität. Texturfilter dürfen nicht flimmern. Wenn die GTX in neueren Spielen nur noch 35 fps bringt, und du dann das Flimmern entsprechend deutlich siehst, wirst du vielleicht verstehen warum ich immer verlange, dem User volle Qualität möglich zu machen.

(del676)
2005-08-15, 01:22:48
Es kommt drauf an was man verurteilt. Das alleroberste Gebot eines jeden HW-Redakteurs sollte sein, auf möglichst vergleichbare BQ zu achten bevor er Benchmarks erstellt. Und wenn das nicht möglich ist, muß man diesen Mißstand anprangern.
vollkommen

ich finde den artikel an sich auch sehr gut um die minderwertige AF qualität anzuprangern.
mir geht es einzig und allein um das flimmern im HQ video, welches definitiv ingame viel schwächer ist.
aths will es wohl nicht einsehen, und er hält es auch nicht für notwendig sich selbst davon zu überzeugen.
ich finde diese einstellung recht arrogant, aber was soll ich machen :(

Gast
2005-08-15, 01:23:30
Mich wundert das nicht, ehrlich gesagt. Es ist eine ATI-Demo, speziell für ATI-Karten ausgelegt. Die Kompilierung eines Spieles berücksichtigt alle möglichen Plattformen, ATI wird sich nicht darum gekümmert haben, der GeForce-Architektur irgendwo entgegenzukommen. Spiele-Entwicklern bleibt kaum was anderes übrig
Dir ist aber schon bekannt, daß NV-Demos "auf vergleichbarer ATI-Hardware" schonmal schneller liefen als auf NV-Hardware? Ich glaub da hat ATI noch nicht wirklich Techdemos gemacht. Nur so als "Einwurf", weil NV auch damals bestimmt nicht ATI-freundlich programmierte.

aths
2005-08-15, 01:24:04
Imo spielt der RAM da sehr stark mit: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3369707#post3369707Inwiefern sollte der RAM da mitspielen? An welcher Stelle? (Aus dem verlinkten Postings werde ich nicht schlau.)

(del676)
2005-08-15, 01:25:13
Das Ergebnis beim 7800-er AF ist Flimmern. Wie stark man es wahrnimmt ist subjektiv.
Stimmt.

Wenn du damit leben kannst, gerne.
naja umbringen werde ich mich nicht X-D

Ich verlange volle Qualität. Texturfilter dürfen nicht flimmern.
sehe ich genauso

Wenn die GTX in neueren Spielen nur noch 35 fps bringt, und du dann das Flimmern entsprechend deutlich siehst, wirst du vielleicht verstehen warum ich immer verlange, dem User volle Qualität möglich zu machen.
das verlange ich genauso :rolleyes:

aths
2005-08-15, 01:26:08
Eben.schon wieder ACK.Dir ists also Wurscht, ob du das bekommst, was du eingestellt hast? Durch gewechselte Masken realisiertes "4x" bietet nur bei stehenden Kanten und sehr hohen Bildwiederholraten bei aktiviertem VSync 4x-Qualität. Schaltest du nun "irgendwie realisierte Kantenglättung" oder "4x AA" ein?

aths
2005-08-15, 01:27:41
Es kommt drauf an was man verurteilt. Das alleroberste Gebot eines jeden HW-Redakteurs sollte sein, auf möglichst vergleichbare BQ zu achten bevor er Benchmarks erstellt. Und wenn das nicht möglich ist, muß man diesen Mißstand anprangern.Bei NV40 vs Radeon und G70 vs Radeon und NV40 vs G70 lässt sich keine gleiche BQ herstellen. Was "möglichst vergleichbar" ist, ist dann wieder sehr subjektiv. Leo hält 8xS und 6x offenbar für vergleichbar genug.

aths
2005-08-15, 01:33:04
videos deren flimmern deutlich stärker ist als es ingame der fall ist als "das ist die bildqualität der 7800 gtx" zu verteilen ist unseriös.Als es ingame bei hoher fps-Zahl der Fall ist. Die Vergleichsvideos bei gleicher fps-Zahl zeigen, dass es nicht flimmern muss. Es lassen sich ingame-Situationen konstruieren, die mehr flimmern als die Videos und welche, die weniger flimmern. Wichtig ist, dass der Filter kaputt ist. Das zeigt der Artikel. Dir passt es jetzt nicht dass das Video stärkeres Flimmern zeigt als du das Flimmern in deinen Spielen wahrnimmst. Nvidia wird das auch nicht passen. Damit kann ich leben. Es geht mir darum, ein Problembewusstsein zu schaffen und Flimmer-Grafik anzuprangern. Die Videos zeigen die Szene im Videos, ich behaupte im Artikel nirgends, dass die Videos die das durchschnittliche Empfinden in Spielen wiedergeben. Die Videos zeigen, dass die FX und die X800 und die 6800 im HQ-Modus was können, was die 7800 nicht mehr bietet: Flimmerfreies AF. Selbst bei diesen geringen Frameraten. Bei 60 fps wird es dann nur noch besser. Die 7800 bleibt flimmrig.

aths
2005-08-15, 01:35:38
Dir ist aber schon bekannt, daß NV-Demos "auf vergleichbarer ATI-Hardware" schonmal schneller liefen als auf NV-Hardware? Ich glaub da hat ATI noch nicht wirklich Techdemos gemacht. Nur so als "Einwurf", weil NV auch damals bestimmt nicht ATI-freundlich programmierte.Dawn als NV-Demo ist in OpenGL und läuft auf ATI-HW nicht, da die entsprechendne Extensions fehlen. Die ATI-Version von Hobby-Umprogrammmierern nutzen neu geschriebene Shader, da werden nicht direkt die Shader von NV ausgeführt.

Die neuen Shader entsprechend mathematisch in etwa dem Original. Der R300 kann in den meisten Situationen mehr FP-Operationen pro Sekunde ausführen, als ein NV35 (obwohl dieser eigentlich mehr Rechenkraft hat, die lässt sich aber fast nie ausnutzen) und erst recht mehr als der NV30 (der da auch hw-seitig ziemlich schwachbrüstig ist.)

(del676)
2005-08-15, 01:36:31
Als es ingame bei hoher fps-Zahl der Fall ist. Die Vergleichsvideos bei gleicher fps-Zahl zeigen, dass es nicht flimmern muss. Es lassen sich ingame-Situationen konstruieren, die mehr flimmern als die Videos und welche, die weniger flimmern. Wichtig ist, dass der Filter kaputt ist. Das zeigt der Artikel. Dir passt es jetzt nicht dass das Video stärkeres Flimmern zeigt als du das Flimmern in deinen Spielen wahrnimmst. Nvidia wird das auch nicht passen. Damit kann ich leben. Es geht mir darum, ein Problembewusstsein zu schaffen und Flimmer-Grafik anzuprangern. Die Videos zeigen die Szene im Videos, ich behaupte im Artikel nirgends, dass die Videos die das durchschnittliche Empfinden in Spielen wiedergeben. Die Videos zeigen, dass die FX und die X800 und die 6800 im HQ-Modus was können, was die 7800 nicht mehr bietet: Flimmerfreies AF. Selbst bei diesen geringen Frameraten. Bei 60 fps wird es dann nur noch besser. Die 7800 bleibt flimmrig.

dann solltest du es auch dazuschreiben dass man die videos nicht als 1:1 ingame grafik nehmen kann, sondern dass das flimmern durch die videoaufnahme verstärkt wurde.

aths
2005-08-15, 01:39:56
vollkommen

ich finde den artikel an sich auch sehr gut um die minderwertige AF qualität anzuprangern.
mir geht es einzig und allein um das flimmern im HQ video, welches definitiv ingame viel schwächer ist.
aths will es wohl nicht einsehen, und er hält es auch nicht für notwendig sich selbst davon zu überzeugen.
ich finde diese einstellung recht arrogant, aber was soll ich machen :(Zunächst mal freundlicher sein.

Die Tatsache, dass es ingame-Szenen geben kann in denen es viel schwächer zu sehen ist, wurde in diesem Thread bereits gesagt bevor du gepostet hast. Aufgrund meines Theoriewissen ist mir auch klar, warum. Das Anliegen des Artikels ist aber nicht, verschiedene Ingame-Szenen zu vergleichen. Wie es dann tatsächlich wirkt hängt von so vielen Umständen ab, vom Monitor, von der Tageszeit, vom Lichteinfall (und der Lichtfarbe), von den Texturen und so weiter. Ich weiß aus zuverlässiger Quelle, dass es NV-Leute gibt die selbst dann wenn das Flimmern offensichtlich ist, von toller Grafik sprechen.

Der Artikel zeigt dass die G70-Filter beim AF nicht das tun, was sie tun sollten.

aths
2005-08-15, 01:44:35
dann solltest du es auch dazuschreiben dass man die videos nicht als 1:1 ingame grafik nehmen kann, sondern dass das flimmern durch die videoaufnahme verstärkt wurde.Die Videoaufnahme verstärkt das Flimmern nicht, die hohe fps-Zahl in den meisten ingame-Situationen schwächt das Flimmern :) umso mehr, je träger der Monitor. Je besser (schneller und schärfer) der Monitor, desto besser ist das Flimmern auch bei hohen fps-Zahlen sichtbar. Irgendwann gelangt man aber auch an die Trägheitsgrenze des Auges.

Ich verlange dass jedes Einzelbild für sich genommen stimmig ist und akzeptiere das Flimmer-AF auch dann nicht, wenn es für die meisten User in den meisten Ingame-Situationen noch brauchbar aussieht. Es ist ein Unding, dass NV nicht gestattet, mit der 7800 flimmerfreie AF-Texturen zu haben und man dies nur durch hohe Auflösung, Supersampling, hohe Framerate, unscharfe bzw. träge Monitore gedämpft bekommt. Was ist mit Konsolen-Konvertierungen, die auf eine (vergleichsweise niedrige) fps-Zahl gelockt sind? Was ist, wenn man mit HDR-Rendering oder anderen Dingen die Framerate entsprechend drückt, dass weder Supersampling noch 50 fps drin sind?

Beim R300-AF (im Vergleich zum NV2x) gab es auch fast keine Leute, die echte Nachteile sehen konnten. Jetzt erst mit WoW beginnt ein Umdenken.

Beim Artikel "ATIs Filtertricks" interessierte es mich nicht, ob die Tricks in Spielen zu sehen sind oder nicht. Beim G70-AF sehen es Leute. Die einen (Dunkeltier, <br>) mehr, die anderen (grestorn, du, ...) weniger. Dass es flimmert, ist ein Unding. Die Videos zeigen einen Vergleich von 7800 zu anderen Karten, je nach Situation mag die 7800 vielleicht weniger schlecht abschneiden. Na und. Die Videos der FX zeigen, wie es aussiehen muss, die der X800 und 6800 in HQ wie es auch noch aussehen kann. 6800 Q und 7800 generell ist eine Frechheit seitens NV. Auch wenn das bei hohen fps-Zahlen in Spielen nicht ganz so deutlich ist.

(del676)
2005-08-15, 01:50:42
Die Videoaufnahme verstärkt das Flimmern nicht, die hohe fps-Zahl in den meisten ingame-Situationen schwächt das Flimmern :) umso mehr, je träger der Monitor. Je besser (schneller und schärfer) der Monitor, desto besser ist das Flimmern auch bei hohen fps-Zahlen sichtbar. Irgendwann gelangt man aber auch an die Trägheitsgrenze des Auges.

Ich verlange dass jedes Einzelbild für sich genommen stimmig ist und akzeptiere das Flimmer-AF auch dann nicht, wenn es für die meisten User in den meisten Ingame-Situationen noch brauchbar aussieht. Es ist ein Unding, dass NV nicht gestattet, mit der 7800 flimmerfreie AF-Texturen zu haben und man dies nur durch hohe Auflösung, Supersampling, hohe Framerate, unscharfe bzw. träge Monitore gedämpft bekommt. Was ist mit Konsolen-Konvertierungen, die auf eine (vergleichsweise niedrige) fps-Zahl gelockt sind? Was ist, wenn man mit HDR-Rendering oder anderen Dingen die Framerate entsprechend drückt, dass weder Supersampling noch 50 fps drin sind?

Beim R300-AF (im Vergleich zum NV2x) gab es auch fast keine Leute, die echte Nachteile sehen konnten. Jetzt erst mit WoW beginnt ein Umdenken.

Beim Artikel "ATIs Filtertricks" interessierte es mich nicht die Bohne, ob die Tricks in Spielen zu sehen sind oder nicht. Beim G70-AF sehen es Leute. Die einen (Dunkeltier, <br>) mehr, die anderen (grestorn, du, ...) weniger.

wenn du meine posts gelesen hättest wüsstest du dass mit als endkunde technische details am allerwertesten vorbei gehen. für mich zählt das ergebnis welches ich sehe, nicht irgendwelche lupen screenshotvergleiche oder video mit xzy einstellungen usw.

da du aber anscheinend ganz genau weisst warum das video viel stärker flimmert als es ingame der fall ist - SCHREIBE ES IN DEN ARTIKEL DAZU - punkt
ist das denn so schwer?

(del676)
2005-08-15, 01:51:45
Zunächst mal freundlicher sein.
was war daran unfreundlich?

ich finde deine Einstellung arrogant - wenn du das unfreundlich findest dann finde ich es unfreundlich dass du mich unfreundlich findest.

aths
2005-08-15, 01:52:15
wenn du meine posts gelesen hättest wüsstest du dass mit als endkunde technische details am allerwertesten vorbei gehen. für mich zählt das ergebnis welches ich sehe, nicht irgendwelche lupen screenshotvergleiche oder video mit xzy einstellungen usw.

da du aber anscheinend ganz genau weisst warum das video viel stärker flimmert als es ingame der fall ist - SCHREIBE ES IN DEN ARTIKEL DAZU - punkt
ist das denn so schwer?Ich lasse mich nicht anschreien.

(del676)
2005-08-15, 01:55:21
Ich lasse mich nicht anschreien.

immer wenn du nicht mehr antworen willst/kannst weichst du mit einer fadenscheinigen begründung aus

inwiefern kann man in einem forum schreien?
als theoretiker mit großem fachwissen solltest du dir im klaren sein dass wir hier miteinander schreiben, ich habe auch keine audiodatei angehängt - ich bin ratlos :eek:

aths
2005-08-15, 01:57:18
immer wenn du nicht mehr antworen willst/kannst weichst du mit einer fadenscheinigen begründung aus

inwiefern kann man in einem forum schreien?Großbuchstaben. (Eigentlich Grundlagen der Netiquette.)

(del676)
2005-08-15, 01:59:34
Großbuchstaben. (Eigentlich Grundlagen der Netiquette.)

dann frage ich nochmal in kleinbuchstaben

warum schreibst du nicht deine ausführung zu - warum flimmert es im video mehr - in den artikel rein?
ich finde es gehört zu einem seriösen artikel alle informationen offenzulegen, und nicht gewisse teile zu verschweigen.

Mr. Lolman
2005-08-15, 02:01:17
Bei NV40 vs Radeon und G70 vs Radeon und NV40 vs G70 lässt sich keine gleiche BQ herstellen. Was "möglichst vergleichbar" ist, ist dann wieder sehr subjektiv. Leo hält 8xS und 6x offenbar für vergleichbar genug.

Ja Leo sollte 1024/6xAA/8xS weglassen und stattdessen 2xAA und 2048 ins Programm nehmen.Und was die AF Vergleichbartkeit betrifft hast du ja mit dem aktuellen Artikel ne gute Annäherung hinbekommen. Nämlich Ati default vs. NV HQ. Balken Spiele/Auflösungen in denen eine GraKa eine deutlich sichtbar schlechteBQ bietet sollten grau unterlegt werden.

Dass dass nicht ne ausführlich aufgearbeitete BQ-Betrachtung obsolet macht ist natürlich klar.

(del676)
2005-08-15, 02:03:40
Ja Leo sollte 1024/6xAA/8xS weglassen und stattdessen 2xAA und 2048 ins Programm nehmen.Und was die AF Vergleichbartkeit betrifft hast du ja mit dem aktuellen Titel ne gute Annäherung hinbekommen. Nämlich Ati default vs. NV HQ. Balken Spiele/Auflösungen in denen eine GraKa eine deutlich sichtbar schlechteBQ bietet sollten grau unterlegt werden.

man könnte noch weiter gehen, und ein review verweigern, und die karte als "defekt" zurückschicken.

und das natürlich groß auf die HP schreiben.

Mr. Lolman
2005-08-15, 02:07:38
dann frage ich nochmal in kleinbuchstaben

warum schreibst du nicht deine ausführung zu - warum flimmert es im video mehr - in den artikel rein?
ich finde es gehört zu einem seriösen artikel alle informationen offenzulegen, und nicht gewisse teile zu verschweigen.


Stimmt. Ein Hinweis über die Gründe dafür, dass der G70-Käufer bisher möglicherweise von solchen Problemen verschont blieb, halte ich auch für notwendig.

aths
2005-08-15, 02:07:40
dann frage ich nochmal in kleinbuchstaben

warum schreibst du nicht deine ausführung zu - warum flimmert es im video mehr - in den artikel rein?
ich finde es gehört zu einem seriösen artikel alle informationen offenzulegen, und nicht gewisse teile zu verschweigen.In diesem Thread habe ich bereits geäußert, dass ich als Ergänzung vormerke, auf die verringerte Flimmerwahrnehmung bei höheren fps-Zahlen hinzuweisen. (Eine weitere Ergänzung ist die Empfehlung, die Videos ohne Overlay zu betrachten.) Alle Informationen die irgendwie zum Thema gehören passen in den Artikel natürlich nicht. Ich kann nicht einfach so was im Artikel ändern, das geht nur über Leo, und da warte ich noch auf weitere Dinge um nicht für jede Extra-Zeile eine extra Mail zu schreiben.

Das Thema des Artikels ist aber, wie auch schon im Thread geäußert, nicht die Frage, ob man heute in Spielen mit dem G70-Flimmern noch leben kann. Wenn ein Artikel seriös sein will gehört dazu, nicht auf die Wünsche jener zu hören, die ihre frisch gekaufte 7800 GTX verteidigen mit der Begründung in der Praxis sei es nicht so schlimm. Zumal gilt: Je besser der Monitor, desto eher sieht man das Flimmern, und auch eine 7800 GTX bekäme man mit HDR-Rendering und anderen Dingen langsam genug, dass man bei einer fps-Zahl ist wo das Flimmern besonders krass auffällt.

aths
2005-08-15, 02:07:48
was war daran unfreundlich?Der Tonfall, die Sache mit ComputerBild, die Anspielungen ich wolle NV vielleicht mit Vorsatz schaden etc.

ich finde deine Einstellung arrogant - wenn du das unfreundlich findest dann finde ich es unfreundlich dass du mich unfreundlich findest.Meine Einstellung versuche nach auf objektive Kriterien auszurichten. Ich versuche hinter die Kulissen zu gucken und betrachte nicht nur Screenshots oder Spiele ansich. Um zu wissen, wohin man gucken muss um was zu sehen, muss man wissen wie das entsprechende Merkmal realisiert wird.

Bei jeder Qualitätsverschlechterung höre ich, vorranging von Besitzern der entsprechenden Hardware, im Vergleich zur Vorgänger-Generation ginge es noch. Der Trend insgesamt sei fragwürdig aber aktuell würde es noch ausreichen. Da mache ich nicht mit.

Gast
2005-08-15, 02:09:24
das ist mir klar, da siehst du hoffentlich nun endlich ein dass ein 20fps video mit 90fps ingame grafik nichts zu tun hat.
Was Du ihm jetzt vorwirfst scheint Hand und Fuß zu haben. Es ist für mich aber trotz allem eine Auslegungssache.
1.
Klar stößt es auf, WENN die Vidoes "überzeichnen". Nur in welcher Situation? TFT ist jetzt fast schon Standard. Grad da sieht Tearing dann imho einfach nur Kacke aus. Vsync ist also auch bei den sonst halbblinden langsam ein Thema. Triplebuffer bei den Spieleherstellern leider noch nicht so oft. Bei wieviel FPS sind wir jetzt? Nur mal so als kleiner Einwurf eines Laien. Schmiert es ein 20ms noch sauber zu? Die TFTs werden aber immer schneller und nicht immer langsamer.
2.
Die Frage stellte schon jemand, ging aber fast unter. Warum sind die Ergebnise bei allen Karten fast 1:1 und beim G70 nicht? Wüßte ich jetzt endlich gerne.
3.
Was aths hier beschreibt ist die Arbeitsweise (Qualität) der AFilter. MEINE Auslegung: "So arbeiten diese AFilter. So wird das beim G70 u.a. durch niedrige FPS nicht mehr kaschiert." lerne ICH aus dem Artikel. Und nicht "So sehen die Spiele aus". Muß man sich bei 3DCenter jetzt vor allem Gedanken machen wie Leute ohne GARKEINE Ahnung und ohne den Artikel WIRKLICH zu lesen und verstehen die Videos alleine auslegen? Darüber soll sich zB. die "Chip" mit ihrer Clientel Gedanken machen. Sie haben die 7800GT grade vorgestellt und... getestet...
4.
Der Ruf. aths hat die Videos nicht gedreht und die 7800er nicht persönlich überprüft. Es gibt dafür, wenn dann (!), wohl ein blaues Auge, aber keinen Beinbruch.
Bei den angegebenen FPS sind die Videos leider auch für den G70 1:1. Da mag man FEAR mit 200FPS zocken. Alles also richtig und ok. Außer man macht sich nun Sorgen welche falschen Eindrücke die 08/15 Zocker wohl jetzt über den G70 bekommen...

aths
2005-08-15, 02:09:40
Ja Leo sollte 1024/6xAA/8xS weglassen und stattdessen 2xAA und 2048 ins Programm nehmen.Und was die AF Vergleichbartkeit betrifft hast du ja mit dem aktuellen Artikel ne gute Annäherung hinbekommen. Nämlich Ati default vs. NV HQ. Balken Spiele/Auflösungen in denen eine GraKa eine deutlich sichtbar schlechteBQ bietet sollten grau unterlegt werden. Nö, ich würde nicht ATI vs. NV benchen, egal in welchen Qualitäts-Settings. Du würdest das tun und hättest deine Gründe, ich würde das nicht tun und habe meine Gründe.

Dass dass nicht ne ausführlich aufgearbeitete BQ-Betrachtung obsolet macht ist natürlich klar.Und hier gilt: Finden setzt suchen voraus. Einfach mal gucken und sagen "Hm, geht doch" – das reicht mir nicht :) Guckt man tiefer, wird man von Freunden der kritisierten Hardware entsprechend angemacht. Doch dies darf mich nicht beeinflussen.

aths
2005-08-15, 02:10:40
man könnte noch weiter gehen, und ein review verweigern, und die karte als "defekt" zurückschicken.

und das natürlich groß auf die HP schreiben.So ungefähr hätte mein 7800 GTX-Review ausgesehen, wenn mir das Flimmern aufgefallen wäre. Das wäre natürlich das letzte mal, dass ich von NV ein Pressemuster bekommen hätte.

(del676)
2005-08-15, 02:13:00
Meine Einstellung versuche nach auf objektive Kriterien auszurichten. Ich versuche hinter die Kulissen zu gucken und betrachte nicht nur Screenshots oder Spiele ansich. Um zu wissen, wohin man gucken muss um was zu sehen, muss man wissen wie das entsprechende Merkmal realisiert wird.

Bei jeder Qualitätsverschlechterung höre ich, vorranging von Besitzern der entsprechenden Hardware, im Vergleich zur Vorgänger-Generation ginge es noch. Der Trend insgesamt sei fragwürdig aber aktuell würde es noch ausreichen. Da mache ich nicht mit.
ich spreche von einzig und allein von einem sträuben dir eine 7800gtx selbst anzusehen, und deine meinung dass man alles per video sehen kann, und von nichts anderem.

aths
2005-08-15, 02:14:31
Gibt es eigentlich eine DIN-Norm die uns bei "kontraststarken Änderungen der Pixel-Farbwerte" zwischen grieseln, blinken, flackern und flimmern klare Linie ziehen lässt? Kommt es auf die Fläche an oder wie? Wenn die Textur grieselt, müßen die Pixel flackern. Damit müßten die Texel "blinken". Nur was flimmert jetzt? Ich hab langsam das Gefühl, Deine Herzkammer Ulukay. Spaß! ;) Entspannt euch bissl bitte.Eine solche DIN kenne ich nicht.

Wenn jedes Bild für sich korrekt gefiltert ist und keine "böse" Textur vorliegt, flimmert es auch in Bewegung nicht. Egal ob 5, 10, 15 oder 50 fps :) und das bietet die 7800 nicht. In meinen Augen ein Skandal.


@aths
Du der Loliman hat Recht mit der 5800ultra. Das weiß ich noch wie heute, weil eine neue Graka anstand und ich hier paar Wochen lang unterwegs war. Ich meine aber die theoretische und praktische FPS-Leistung des G70 hat aber mit dem Artikel imho genauso viel zu tun wie GT4 auf PS2...Da verstehe ich jetzt nicht ganz, was du sagen willst.

(del676)
2005-08-15, 02:15:23
So ungefähr hätte mein 7800 GTX-Review ausgesehen, wenn mir das Flimmern aufgefallen wäre. Das wäre natürlich das letzte mal, dass ich von NV ein Pressemuster bekommen hätte.

es hätte aber massig leute erreicht.
während eines launches sieht man auf homepages die man das ganze jahr nie besucht, allein wegen des launch-berichtes.
und so ziemlich jeder deutschsprachige pc-gaming user hat zumindest einen bekannten/verwandten/icq contact der sich den launchbericht auf 3dc reingezogen hat.

aths
2005-08-15, 02:19:51
ich spreche von einzig und allein von einem sträuben dir eine 7800gtx selbst anzusehen, und deine meinung dass man alles per video sehen kann, und von nichts anderem.Ich sträube mich nicht. Wenn du mir ein PCIe-System mit einem G70 zur Verfügung stellen kannst, teste ich es mal.

Was ich per Video sehe, weiß ich. Dass es ingame weniger krass sein kann, weiß ich auch, ohne es tatsächlich ingame gesehen zu haben. Das gute an Theorien ist, dass sie Vorhersagen erlauben.

Um den Artikel zu schreiben muss ich einen G70 nicht selbst erlebt haben. Da sehe ich dann, dass es Spiele gibt, die sich in Einstellungen spielen lassen wo das Flimmern kaum auffällt. Das ist nicht Thema des Artikels.

aths
2005-08-15, 02:21:51
es hätte aber massig leute erreicht.
während eines launches sieht man auf homepages die man das ganze jahr nie besucht, allein wegen des launch-berichtes.
und so ziemlich jeder deutschsprachige pc-gaming user hat zumindest einen bekannten/verwandten/icq contact der sich den launchbericht auf 3dc reingezogen hat.Ja, aber Leo hat das Flimmern nicht gesehen. Ich hatte keine Karte. Vielleicht hätte ich das Flimmern (rein durch Spielen) auch nicht gesehen.

(del676)
2005-08-15, 02:22:39
Ich sträube mich nicht. Wenn du mir ein PCIe-System mit einem G70 zur Verfügung stellen kannst, teste ich es mal.

Was ich per Video sehe, weiß ich. Dass es ingame weniger krass sein kann, weiß ich auch, ohne es tatsächlich ingame gesehen zu haben. Das gute an Theorien ist, dass sie Vorhersagen erlauben.

Um den Artikel zu schreiben muss ich einen G70 nicht selbst erlebt haben. Da sehe ich dann, dass es Spiele gibt, die sich in Einstellungen spielen lassen wo das Flimmern kaum auffällt. Das ist nicht Thema des Artikels.

du hast doch gerade selbst gesagt dass dein erstes review anders verlaufen wäre hättest du die g70 selber gesehn :p

ich bin mir sicher es gibt einen 3dc forums user mit einer 7800 gtx in deiner nähe.
ich wohne leider nur ~1000km zu weit entfernt

aths
2005-08-15, 02:23:00
Stimmt.


naja umbringen werde ich mich nicht X-D


sehe ich genauso


das verlange ich genauso :rolleyes:Wozu dann die Aufregung?

aths
2005-08-15, 02:24:43
du hast doch gerade selbst gesagt dass dein erstes review anders verlaufen wäre hättest du die g70 selber gesehn :p

ich bin mir sicher es gibt einen 3dc forums user mit einer 7800 gtx in deiner nähe.
ich wohne leider nur ~1000km zu weit entfernt"In meiner Nähe" ist gut – ich habe weder Auto, noch den Lappen. Während ich an meiner DA sitze, eine Zugreise zu unternehmen, wäre zeitlich nicht drin. Um einen G70 unter die Lupe zu nehmen bräuchte ich ihn im eigenen PC, und das über mehrere Wochen.

(del676)
2005-08-15, 02:25:05
Wozu dann die Aufregung?

ka, seit 3 stunden will ich nix anderes als nen vermerk dass man von den videos nicht 1:1 auf ingame grafik schliessen kann - mehr nicht.

aths
2005-08-15, 02:25:37
ka, seit 3 stunden will ich nix anderes als nen vermerk dass man von den videos nicht 1:1 auf ingame grafik schliessen kann - mehr nicht.Der Artikel behauptet nicht, dass die Videos die typische Spielerfahrung widerspiegeln.

(del676)
2005-08-15, 02:33:14
wenn nichts gegenteiliges drin steht nehme ich als Leser es an.

und wenn du weiter eine lapalie totreden willst bitte, ich gehe jetzt schlafen.

MadManniMan
2005-08-15, 02:38:10
ka, seit 3 stunden will ich nix anderes als nen vermerk dass man von den videos nicht 1:1 auf ingame grafik schliessen kann - mehr nicht.

Wozu?

Damit unbedarfte Leser ohne zu reflektieren nicht aus Versehen denken, daß einem überall dieses Flimmern/Grieseln/Schaukeln/Schlendern (entschuldige die Polemik, aber sich darüber zu streiten, was nun genau das ist, ist doch müßig! Laut Duden wäre "flimmern" unruhig sein. WIE unruhig, ja das kann man ja dann immernoch genauer fassen.) stets und ständig über den Weg läuft?
Dieser Artikel ist notwendig zu zeigen, was vorliegt, bzw. anzuregen, sich mit der Materie zu befassen.

Dein Problem ist, daß du hineininterpretierst, daß man die Szene auf alles andere adaptieren, oder gar applizieren könnte - doch das steht nicht im Artikel. Man könnte unheimlich viel hineininterpretieren, was nicht drin steht ... du verstehst?

Es gibt einen Grundsatz in der Wissenschaft: wenn man eine gewisse Gegenbenheit hat, die sich durch verschiedene Ansätze erklären läßt, so ist prinzipiell erstmal davon auszugehen, daß sich der einfachste Ansatz auch bewahrheitet. Das soll nicht heißen, daß Überlegungen darüber hinaus gehend verkehrt wären, nur sollte man in diesem Sinne "im Zweifel für den Angeklagten" handeln - womit ich nicht nV meine ;)

Gast
2005-08-15, 02:40:11
dann solltest du es auch dazuschreiben dass man die videos nicht als 1:1 ingame grafik nehmen kann, sondern dass das flimmern durch die videoaufnahme verstärkt wurde.
Leute, ich geh jetzt auch haja machen und hör euch halt nur noch zu. Bevor aber der Artikel um die "4 Sätze" ergenzt wird könnt ihr euch vielleicht davor noch einigen, ob der Effekt jetzt durch die Aufnahme oder durch die niedrigen FPS verstärkt wurde? Das ist für mich nämlich nicht unbedingt das gleiche (!)

Gute Nacht.

MadManniMan
2005-08-15, 02:42:17
Vorweg:

aths, laß Dich beim besten Willen nicht unterkriegen! Dein Artikel war mehr als nur nötig, allein schon um den Grundlegenden Denkansatz zu liefern.
Wir hier als Community sind davon abhängig, daß wir gemeinsam unsere Interessen vertreten - und wenn niemand die Fahne richtig in die Hand nimmt ... tja, Du hast es getan, dafür danke ich Dir!

:up:

wenn nichts gegenteiliges drin steht nehme ich als Leser es an.

Hm.

a) Denk mal drüber nach, warum du allein diesen Diskurs mit aths führst.

b) Obgleich du es besser weißt, mahnst du an, daß der G70 zu schlecht wegkommt - oder willst du leugnen, daß dereinst die Szene daherkommen wird, wo du mit 30 FPS das Spiel erleben tust?


und wenn du weiter eine lapalie totreden willst bitte, ich gehe jetzt schlafen.

Denk morgen nochmal drüber nach, ob deine Einstellung nicht doch was damit zu tun hat, daß dein G70 so teuer war ;) *stichel*

MadManniMan
2005-08-15, 02:44:46
Leute, ich geh jetzt auch haja machen und hör euch halt nur noch zu. Bevor aber der Artikel um die "4 Sätze" ergenzt wird könnt ihr euch vielleicht davor noch einigen, ob der Effekt jetzt durch die Aufnahme oder durch die niedrigen FPS verstärkt wurde? Das ist für mich nämlich nicht unbedingt das gleiche (!)

Gute Nacht.

Wie gesagt, da das Video verlustfrei komprimiert wurde, gibt es die 1024*768 Pixel auch wie ingame bei gleicher Framrate wieder - es gibt also ein Grundflimmerpotential, welches beim G70 vergleichsweise größer als beim NV40 und R420 ist. Durch höhere FPS wird der flimmrige Eindruck abgemildert.

Ulukay verwechselt hier leider Ursache und Wirkung.

Mr. Lolman
2005-08-15, 02:45:01
Dir ists also Wurscht, ob du das bekommst, was du eingestellt hast? Durch gewechselte Masken realisiertes "4x" bietet nur bei stehenden Kanten und sehr hohen Bildwiederholraten bei aktiviertem VSync 4x-Qualität. Schaltest du nun "irgendwie realisierte Kantenglättung" oder "4x AA" ein?

Nein aber ich finde, das man BQ Verbessernden Maßnahmen die gebührende Aufmerksamkeit schenken sollte. Neue TFTs sollte schön langsam schnell genug für TSAA sein. Imo müssten sogar 13ms bei 75Hz reichen. Man sollts ruhig mal ausprobieren. Denn Temporal AA glättet nicht nur stehende Kanten sondern auch langsam bewegte bis 0.5 Pixel * Frames/s. Und passenderweise sinds genau solche langsam bewegten Kanten die das (Polygon)Aliasing überhaupt so störend machen.

Mr. Lolman
2005-08-15, 02:54:44
Nö, ich würde nicht ATI vs. NV benchen, egal in welchen Qualitäts-Settings. Du würdest das tun und hättest deine Gründe, ich würde das nicht tun und habe meine Gründe.


Das fällt mir auch schön langsam auf. Darüber könnten wir per PN mal ausführlicher diskutieren.

Leonidas
2005-08-15, 06:34:22
oder muss man davon ausgehen das 3dcenter ne ATI seite ist oder wie ist das zu verstehen?



Auf jeden Fall. 3DC war jahrelang eine NV Seite (dies haben unzählige die-hard Fanboys in zahlreichen Threads mehrfach "bewiesen"), nun aber sind wir plötzlich zu ATI gewechselt.

;)


Ist schon sehr irritierend, wenn man je nachdem gegen wen die Kritik geht, als Anhänger der anderen Seite bezeichnet wird.

Leonidas
2005-08-15, 06:49:55
mir geht es einzig und allein um das flimmern im HQ video, welches definitiv ingame viel schwächer ist.
aths will es wohl nicht einsehen, und er hält es auch nicht für notwendig sich selbst davon zu überzeugen.



Da bin ich mir als Nutzer von 6800 nicht so sicher. Ich sehe in RO und (viel stärker) in SAS (beides UT2004 Mods) jeweils öfters mal Bugwellen, die jedoch gerade mit den letzten Treibern zudem auch noch flimmern. Und wenn man dies in echten Spielen sieht, dann dürfte die Darstellung der Videos, die immerhin nur eine einzelne Textur mit wenigen Farben enthält, nicht wirklich übertrieben sein.

Leonidas
2005-08-15, 06:55:55
Ja, aber Leo hat das Flimmern nicht gesehen.


... weil ich nicht im Ansatz die Zeit hatte, mit der Karte zu spielen. Bezogen auf den 7800GT Test ist dabei wohl das absolute Extrem ereicht worden: Die Karte wurde in der Zeit zwischen Übergabe und Launch ganze 5min nicht zum Benchmarken benutzt. Das war die Zeit, wo die das UPS-Paket geöffnet habe, die Karte eingebaut und installiert habe.

mbee
2005-08-15, 08:42:24
Mich würde es vor allem mal interessieren, wie es hinsichtlich des Flimmerns bei der F.E.A.R.-Demo aussieht. Mit allem auf max. unter 1600x1200 und einem Nicht-SLI-System müßte aufgrund der (im Vergleich zu anderen Titeln relativ niedrigen) FPS-Zahl hier eigentlich das Flimmern schon viel deutlicher zu Tage treten, oder? Für andere zukünftige Titel wie Quake IV, etc. wäre das sicher auch interessant.
Von da her wäre IMO auch ein generelles "so sieht das Ingame nicht aus" eher falsch bzw. müßte dann immer das Spiel mitgenannt werden.

OBrian
2005-08-15, 09:08:53
Ich möchte anmerken, daß der empfundene Unterschied zwischen Video und echten Spielen auch daher kommt, daß ein Spiel hochdynamisch ist, also viel Bewegung drin ist, ständig wechselnde Geometrie, andere Texturen, verschiedene Beleuchtung, Rauch- & Feuereffekte usw.

Dagegen ist diese Tunnelszene sehr statisch und wie in einem Laborexperiment aufs Wesentliche konzentiert: Es gibt nur eine Textur, die Geometrie ändert sich überhaupt nicht, nur die Textur wird bewegt (bzw. der Blickpunkt relativ dazu). Folglich konzentriert sich die Wahrnehmung viel stärker darauf (man nimmt Bewegungen/Veränderungen immer besonders deutlich wahr).

D.h. auch wenn objektiv Tunnelszene und echte Spiele gleich stark flimmern (logisch, ist ja dieselbe Technik dahinter), wirkt es subjektiv anders.

Kladderadatsch
2005-08-15, 09:12:42
ja und?! diese videos sollen auch nur beweisen, dass es vorhanden ist.:|

ShadowXX
2005-08-15, 11:12:24
Mich würde es vor allem mal interessieren, wie es hinsichtlich des Flimmerns bei der F.E.A.R.-Demo aussieht. Mit allem auf max. unter 1600x1200 und einem Nicht-SLI-System müßte aufgrund der (im Vergleich zu anderen Titeln relativ niedrigen) FPS-Zahl hier eigentlich das Flimmern schon viel deutlicher zu Tage treten, oder? Für andere zukünftige Titel wie Quake IV, etc. wäre das sicher auch interessant.
Von da her wäre IMO auch ein generelles "so sieht das Ingame nicht aus" eher falsch bzw. müßte dann immer das Spiel mitgenannt werden.

Bei mir sieht FEAR auf einer 6800Ultra und einer 7800GTX (beide in HQ) völlig identisch aus (ist natürlich subjektiv, das ist klar).

(Ich hab beide und hab beides parallel nebeneinander auf 2 Monitoren laufen lassen....)

Und zum "bei 30FPS siehts auf im Real-Life so schei**e wie in den Fraps Videos aus", kann ich nur sagen, dass dies nicht stimmt.

Ich habs mal mit Splinter Cell CT probiert (ja, ich weiss das man da nirgends einen Frame-Limiter fürs Game hat, ich hatte einfach stellen rausgesucht wo die FPS ungefähr mit denen was Fraps ausspuckt hinkommen (also 30-40FPS)).
Da hat das auf dem Fraps Video wesentlich stärker geflimmert als Ingame.

Ist mir aber nicht genau genug und SplinterCell CT ist mir auch etwas zu Effektüberladen.

Kennt jemand ein halbwegs neues Game, wo man die Frames limitieren kann und nicht von Haus aus flimmert?

P.S.
hat eigentlich mal jemand bedacht, das Fraps beim Capturen frames dropt? Ich glaube das ist der Hauptgrund für die Flimmerverstärkung und nicht die niedrigen FPS.

DrumDub
2005-08-15, 11:14:35
ja und?! diese videos sollen auch nur beweisen, dass es vorhanden ist.:| obrian wollte wohl darauf hinaus, dass der flimmereffekt in spielen durch die dynamik des spiels eventuell nicht so auffällt, wie in den videos, die doch recht statisch sind. das ändert natürlich nichts daran, dass der g70 stärker in hq flimmert, als der nv40. die videos lieferen somit einen objektiven beweis für die stärkere flimmeranfälligkeit des g70, während es in spielen eben je nach spiel und situation nicht so stark auffällt. dieser eindruck ist jedoch subjektiv, da die wahrnehmungsgrenze für das flimmern wohl bei jedem menschen etwas anders ist.

mbee
2005-08-15, 11:29:54
Bei mir sieht FEAR auf einer 6800Ultra und einer 7800GTX (beide in HQ) völlig identisch aus (ist natürlich subjektiv, das ist klar).

Danke! Mist, so langsam "juckt" mir doch der Finger für den Bestellbutton eines Online-Shops, da ich an eine Verfügbarkeit des R520 (von dem man ja in der Hinsicht eh noch nichts weiß) noch im August langsam nicht mehr glauben mag. Diese Flimmer-Geschichte hat mich allerdings doch ziemlich verunsicher bzw. ist auch die große Frage, ob NV hier mit einem Treiber (aufgrund Druck) noch etwas ändern kann oder dies eher eine Hardware-Geschichte ist...

Mr. Lolman
2005-08-15, 12:04:29
Ich habs mal mit Splinter Cell CT probiert (ja, ich weiss das man da nirgends einen Frame-Limiter fürs Game hat, ich hatte einfach stellen rausgesucht wo die FPS ungefähr mit denen was Fraps ausspuckt hinkommen (also 30-40FPS)).
Da hat das auf dem Fraps Video wesentlich stärker geflimmert als Ingame.


Das ist technisch umöglich. Beim NV40 tritt ja das Problem auch nicht auf. Das einzige was sein kann, ist dass das fraps Video in ner vgkl. zu Spieleauflösung geringeren Auflösung erstellt wird, deswegen die Mipmapstufen stärker vorgezogen sein könnten, was in besser sichtbareren Flimmern reusliteren dürfte.

Jedoch unter absolut gleichen Vorraussetzungen KANN das Fraps Video nicht schlechter aussehen, als die Spielgrafik, und genau das ist auch der Fall. Probiers nochmal mit Q3dm15 und com_maxfps 30 aus. Wenn du willst kannst du auch ein animiertes gif nach meiner Anleitung (http://www.forum-3dcenter.de/vbulletin/showpost.php?p=3301741&postcount=958) anlegen. (wär eh ganz praktisch, wenns für meine Q3a-gifs einen Vergleich zum G70 gäbe)

Mr. Lolman
2005-08-15, 12:06:40
Danke! Mist, so langsam "juckt" mir doch der Finger für den Bestellbutton eines Online-Shops, da ich an eine Verfügbarkeit des R520 (von dem man ja in der Hinsicht eh noch nichts weiß) noch im August langsam nicht mehr glauben mag. Diese Flimmer-Geschichte hat mich allerdings doch ziemlich verunsicher bzw. ist auch die große Frage, ob NV hier mit einem Treiber (aufgrund Druck) noch etwas ändern kann oder dies eher eine Hardware-Geschichte ist...

Das Problem ist die verfälschte Leitung der Karten. Was hast du von nem G70 der stellenweise kaum flotter als ne XTPE ist. Ati könnte das AF ja genauso runterschrauben, und sich damit Speed erschummeln. Um dem vorzubeugen sollte man schleunigst mit HQ benchen und bei etwaig auftretenden BQ Unterschieden darauf ausgiebigst drauf hinweisen.

(del676)
2005-08-15, 12:09:26
Vorweg:

aths, laß Dich beim besten Willen nicht unterkriegen! Dein Artikel war mehr als nur nötig, allein schon um den Grundlegenden Denkansatz zu liefern.
Wir hier als Community sind davon abhängig, daß wir gemeinsam unsere Interessen vertreten - und wenn niemand die Fahne richtig in die Hand nimmt ... tja, Du hast es getan, dafür danke ich Dir!

ich behaupte auch nichts anderes, wenn du meine posts gelesen hättest wüsstest du dass ich diesen artikel sehr gut und notwendig finde :rolleyes:


a) Denk mal drüber nach, warum du allein diesen Diskurs mit aths führst.


weil ich einer der wenigen bin der eine g70 hat, und die ausdauer hat gegen eine wand zu reden


b) Obgleich du es besser weißt, mahnst du an, daß der G70 zu schlecht wegkommt - oder willst du leugnen, daß dereinst die Szene daherkommen wird, wo du mit 30 FPS das Spiel erleben tust?

jap kommt zu schlecht weg, das flimmern im HQ video habe ich bisher noch nie ingame gesehen
ja es wird einmal 30fps zeiten kommen, und?


Denk morgen nochmal drüber nach, ob deine Einstellung nicht doch was damit zu tun hat, daß dein G70 so teuer war ;) *stichel*
meine einstellung?
meine einstellung ist dieselbe wie deine oder athss meinung :rolleyes:

Mr. Lolman
2005-08-15, 12:18:08
Es geht nicht daraum, dass aths euch G70 Besitzern einreden will, dass euer Kauf Crap ist, sondern, dass die BQ mit der ATi und NV gebencht werden einfach nicht vergleichbar ist. D.H. NV Karten wirken (tw. deutlich) schneller als sie mit vergleichbarer BQ wirklich sind.

Das Verbunden mit dem Umstand, dass bei NV die AF Qualität seit Jahren immer schlechter wird, lasssen die Alarmglocken schrillen. So ein Artikel war in der Tat die Längste Zeit überfällig und soll, wie gesagt, euch nicht eure Karte madig machen, sondern den Usern/Reviewern zeigen, dass sie vorm kaufen/benchen mehr auf die BQ achten sollen und nicht jeden AF Pfusch der bei schlechterer BQ zu mehr fps führt freudig aufnehmen sollten, nur weil der Schwanzbalken damit wieder etwas länger geworden ist.

Der G70 hat mit TSSAA einen so großen Vorteil auf seiner Seite, dass imo der AF Pfusch garnicht nötig wäre.

pancho
2005-08-15, 12:25:43
ja es wird einmal 30fps zeiten kommen, und?


Und? Wenn man jetzt schreibt, dass der G70 ingame doch brauchbar ist und Nv damit durchkommt? Die nächste Generation noch schlechter macht? Ja und? Dann kaufst. Du Dir sicherlich den nächsten high-end Chip, nur, weil man das Flimmern bei 200 fps nicht mehr so stark wahrnimmt?
Ich finde, Nv kommt keinen Deut zu schlecht weg. Was die Videos zeigen sind Tatsachen. Nur weil die Leistung des G70 im Moment noch ausreicht, um das Flimmern durch hohe fps ein wenig zu kaschieren, sollte man es imo noch lange nicht schönreden.
Irgendwie paradox, oder? Das Flimmern entsteht auf der Suche nach hohen fps, diese wiederum werden notwendig, um das Flimmern erträglich zu halten. Warum nicht gleich statt 90 nur 80 fps nehmen, die dafür flimerfrei?

Knötchen
2005-08-15, 12:46:08
Ulukays Standpunkt ist verständlich, er sieht die ingame Grafik nicht so stark flimmern, weil mehr fps, weniger flimmeranfällige Ingameszenen, whatever.

Aber: Fakt ist numal, dass die Videos die Realität dessen was sie zeigen wiedergeben. Eine FX flimmert praktisch nicht, eine GTX flimmert unter HQ (unter Q umso stärker). Und unabhängig, ob man das immer und überall und bei jeder fps-Zahl in was für einem game auch immer sieht, ist völlig irrelevant.

Den Anspruch hierüber eine Aussage treffen zu wollen, erheben die Videos nicht. Sie zeigen, dass der AF beim der GTX völlig im Hintern ist und bei der FX noch relativ sauber funktionert. Und dem stimmt Ulukay zu. So what?

Eine Bemerkung wie: "In Spielen kann es je nach fps, Texturkontrast-, farbe, Sichtweite, Auslichtung, blablabla mehr oder weniger als auf den Videos flimmern" erübrigt sich in dem Artikel schlicht, weil die Videos - wie oben gesagt - zu keinem Zeitpunkt beanspruchen, die derzeitige, durchschnittliche Darstellungsrealität von Spielen wiederzugeben, unter welcher sonstiger Hardware auch immer.

(Ok, ich rede im Kreis, Ulukay schon lange, Zeit fürn Break ;D )

R300
2005-08-15, 12:51:23
Ähm welchen Codec brauche ich denn, damit die Videos abgespielt werden?
(Nein, ich werde nicht den zu langen Thread durchlesen)

EDIT: Außerdem bekomme ich immer die Meldung "Demo has been expired"
Was zum Teufel heißt das?

derominöseGast
2005-08-15, 12:55:04
ich hau mich weg... diese comments von leuten die noch keine G70 gesehen haben ;D

ich möchte einfach wissen was euch das bringt? inzwischen sind wir drei GTX Besitzer die das genau gleiche behaupten und wir reden hier mit leuten die noch nie eine GTX gesehen haben und ihr behauptet nachwievor wir wollen unsere GTX verteidigen... so ein schmarren...

Ich verteidige den Artikel von Aths sobald er die Anmerkungen macht auch. Denn ich will wie er volle Qualität. das Problem ist nur das ich hier auf meinem Screen (nix TFT - Sony F500R 21" CRT) mit 4TSAA und 16AF einfach geniale Qualität habe ABER ich sehe ein das NV weiter an der Performanceschraube auf Kosten der IQ dreht (auch wenn man es noch nicht offensichtlich sieht) UND DAS muss abgestellt werden. Schade ist das 3Dcenter sich nicht die Mühe macht diese ganze geschichte persönlich zu testen...

wenn es derart wie im movie flimmern würde, müsste man annehmen das der gute und gehetzte Tester von 3DC einfach blind ist... wie ich schon vor wochen schrieb, würde ich meine GTX null komma nix austauschen wenn das so aussehen würde. es ist ihm schlicht nicht aufgefallen weil es nicht so ausssieht beim testen...

naja, mir ist das total wurscht und ich habe nicht die ausdauer wie ulukay gegen eine wand zu reden. es gibt zu wenig GTX besitzer sonst würde das hier ganz anders aussehen. ich geniesse meine zeit lieber mit zocken als hier unnötige energie zu verschwenden mit leuten die zu 99% keine GTX kennen und schlicht neidisch sind... (aths natürlich ausgeschlossen ;) )

derominöseGast
2005-08-15, 12:57:33
[QUOTE=Knötchen]
Eine Bemerkung wie: "In Spielen kann es je nach fps, Texturkontrast-, farbe, Sichtweite, Auslichtung, blablabla mehr oder weniger als auf den Videos flimmern" erübrigt sich in dem Artikel schlicht, weil die Videos - wie oben gesagt - zu keinem Zeitpunkt beanspruchen, die derzeitige, durchschnittliche Darstellungsrealität von Spielen wiederzugeben, unter welcher sonstiger Hardware auch immer.
QUOTE]

wenn dem so wäre, frage ich mich was der artikel dann aussagen will? ist eine GTX dazu da um engine videos verstärkt zum flimmern zu bringen oder ist das Teil zum zocken? hmm ich sollte evtl. mal einen anderen verwendungszweck testen... der DDR3 wird so schön heiss, ich schreib mal nen bericht wie gut man spiegeleier braten kann...

"also jungs, NV hat ein AF Problem und wir schreiben mal tüchtig drüber ABER SO sieht es dann in den Spielen nicht aus ABER trotzdem kauft die Karte auf keinen Fall weil eben NV ein theoretisches Problem hat das man nur auf unseren Videos sieht..."

wow :D

Mr. Lolman
2005-08-15, 12:57:47
ich geniesse meine zeit lieber mit zocken als hier unnötige energie zu verschwenden mit leuten die zu 99% keine GTX kennen und schlicht neidisch sind... (aths natürlich ausgeschlossen ;) )

Imo befindet sich die Diskussion auf nem sehr sachlichen, hohen Niveau. Wenn du schon niemand direkt ansprichst, was bezweckst du dann mit solchen Seitenhieben?

derominöseGast
2005-08-15, 13:02:37
Imo befindet sich die Diskussion auf nem sehr sachlichen, hohen Niveau. Wenn du schon niemand direkt ansprichst, was bezweckst du dann mit solchen Seitenhieben?

hohes niveau? ignoranz ist hohes niveau? ich denke nicht...
soll ich nun gast 1 oder gast 33 persönlich anreden? ich weiss du fühlst dich angesprochen und das sagt mir schon einiges...

mit dir und aths kann man reden, der rest ist leer und keinesfalls daran interessiert mit ulukay oder mir das problem real anzusehen. gebashe nenn ich das. ich werde nun wie gsagt nicht mehr beitragen da es sich schlicht nicht lohnt mit leuten zu diskutieren die keine GTX haben bzw. noch nichtmal eine in aktion gesehen haben.

q@w
2005-08-15, 13:04:32
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_af-optimierungen_lupe/9/#abschnitt_unreal_tournament_2004
nvidia profitiert mind seit der geforce6 stärker von weniger texturlast als ati, da die ALUs nicht parallel zu den TMUs arbeiten, wie bei den kanadiern.

man sollte das wirklich mal brauchbar untersuchen - möglichst nicht mit der UT-Engine, sondern mit irgendwas, was noch nicht zu tode gecheatet wurde.

q@w
2005-08-15, 13:07:15
Weswegen der NV40 bei shaderintensiven Spielen schneller sein müsste als der R420. Ist er aber kaum wo. Hinsichtlich dessen wunderts mich auch, dass der NV40 bei ATis Ruby gar so langsam ist...
ich weiß, du redest von spielen - schau dir als Beispiel doch mal den Pixelshader-Test aus dem 3DMark05 an. Da kommt IIRC sogar eine 6800 GT an eine X800 XT heran.

Die meisten Spiele sind heute nunmal kaum durch den Pixel-Shader limiert.

ShadowXX
2005-08-15, 13:08:56
Das ist technisch umöglich. Beim NV40 tritt ja das Problem auch nicht auf. Das einzige was sein kann, ist dass das fraps Video in ner vgkl. zu Spieleauflösung geringeren Auflösung erstellt wird, deswegen die Mipmapstufen stärker vorgezogen sein könnten, was in besser sichtbareren Flimmern reusliteren dürfte.

Jedoch unter absolut gleichen Vorraussetzungen KANN das Fraps Video nicht schlechter aussehen, als die Spielgrafik, und genau das ist auch der Fall. Probiers nochmal mit Q3dm15 und com_maxfps 30 aus. Wenn du willst kannst du auch ein animiertes gif nach meiner Anleitung (http://www.forum-3dcenter.de/vbulletin/showpost.php?p=3301741&postcount=958) anlegen. (wär eh ganz praktisch, wenns für meine Q3a-gifs einen Vergleich zum G70 gäbe)

Hab weder Quake3 noch irgendein UT Teil (bin kein Online-Gamer).

Kennst du irgendein SP-Game, bei dem man die FPS limitieren kann?

Und gibts irgendetwas besseres als Fraps zum Capturen...denn unter 1024 (besser 1280) will ich eigentlich keine Vergleichsvideos machen.

derominöseGast
2005-08-15, 13:14:10
Hab weder Quake3 noch irgendein UT Teil (bin kein Online-Gamer).

Kennst du irgendein SP-Game, bei dem man die FPS limitieren kann?

Und gibts irgendetwas besseres als Fraps zum Capturen...denn unter 1024 (besser 1280) will ich eigentlich keine Vergleichsvideos machen.

ich hab mir eben hypercam noch angesehen aber ich raff es noch nicht. switched immer auf den desktop statt im spiel zu bleiben sobald man captured. jedenfalls nimmt hypercam auch das AA mit aufs Movie im gegensatz zu fraps...

am besten sieht man das problem in geringen auflösungen bei niedrigen fps. aber da flimmert jede karte mehr und ich sehe nicht ein warum eine GTX bei 800x600 und 20fps getestet werden sollte... völliger unsinn und nicht mit dem realen spielerlebnis zu vergleichen und somit wertlos.

Knötchen
2005-08-15, 13:15:41
ich hau mich weg... diese comments von leuten die noch keine G70 gesehen haben ;D
Ich bin mir sicher, dass es einige Menschen gäbe, die unheimlich glücklich wären, wenn sich jeder interessierte user erstmal eine GTX (evtl. samt neuem PCIe Board) kaufen würde, um die Aussagen des 3DC zu überprüfen.
ich möchte einfach wissen was euch das bringt? inzwischen sind wir drei GTX Besitzer die das genau gleiche behaupten und wir reden hier mit leuten die noch nie eine GTX gesehen haben und ihr behauptet nachwievor wir wollen unsere GTX verteidigen... so ein schmarren... siehe oben mein letztes Posting zur ingame Grafik vs. Videos
Ich verteidige den Artikel von Aths sobald er die Anmerkungen macht auch.was für Anmerkungen?
Denn ich will wie er volle Qualität. das Problem ist nur das ich hier auf meinem Screen (nix TFT - Sony F500R 21" CRT) mit 4TSAA und 16AF einfach geniale Qualität habe
siehe oben mein letztes Posting zur ingame Grafik vs. Videos
ABER ich sehe ein das NV weiter an der Performanceschraube auf Kosten der IQ dreht (auch wenn man es noch nicht offensichtlich sieht)
Man sieht es offensichtlich, schau dir die Videos an.
UND DAS muss abgestellt werden.
ACK
Schade ist das 3Dcenter sich nicht die Mühe macht diese ganze geschichte persönlich zu testen...
Unsinn, ob das nun einer getestet hat und Beweisvideos gemacht hat, der zwar ein hoch angesehener Hardwareredakteur und sich mit der 3D-Materie bestens auskennt, aber der nicht den 3DCenter-Crew "Stemple" vorzuweisen hat, oder eben doch, spielt imho keine Rolle, siehe Aussagen von aths zu diesem Aspekt.
wenn es derart wie im movie flimmern würde, müsste man annehmen das der gute und gehetzte Tester von 3DC einfach blind ist...Es flimmert so stark wie auf den Videos. Oder möchtest du mir plausibel erklären, warum die FX nicht, die X800 kaum und die GTX unter HQ in den Videos deutlich flimmert? Wie gesagt, wir reden hier nicht über irgendeine Ingameszene.
wie ich schon vor wochen schrieb, würde ich meine GTX null komma nix austauschen wenn das so aussehen würde. es ist ihm schlicht nicht aufgefallen weil es nicht so ausssieht beim testen... das wird nirgendwo bestritten.
naja, mir ist das total wurscht und ich habe nicht die ausdauer wie ulukay gegen eine wand zu reden.
Naja, so wurscht wird es dir nicht sein, sonst hättest du diese und viele andere Postings (auch unter dem "Gast-Deckmantel") nicht verfasst.
es gibt zu wenig GTX besitzer sonst würde das hier ganz anders aussehen.
Nein, wieso auch?
ich geniesse meine zeit lieber mit zocken als hier unnötige energie zu verschwenden mit leuten die zu 99% keine GTX kennen und schlicht neidisch sind... (aths natürlich ausgeschlossen ;) )
Es sei dir gegönnt. Ich frage mich woher du wissen willst, dass ich neidisch auf einen GTX-Besitzer wäre. Ich würde meine Gefühl in dieser Hinsicht eher als Mitleid betiteln, wenn sich ein nicht ganz wohlhabender Mensch aus Unwissenheit seine GTX vom Munde abspart und danach ggf. entäuscht ist. Bei Leuten mit dem nötigen Kleingeld fühle ich Gleichgültigkeit.

Viel Spass beim Spielen mit der GTX und beim Verkaufen selbiger, es sei dir gegönnt.

Knötchen
2005-08-15, 13:23:02
wenn dem so wäre, frage ich mich was der artikel dann aussagen will? ist eine GTX dazu da um engine videos verstärkt zum flimmern zu bringen oder ist das Teil zum zocken? [...]
Der Artikel sagt aus, dass der AF der GTX kaputt ist um längere Schwanzbalken zu erschwindeln. Ob du das auf deinem derzeitigen System in Games nicht, kaum, oder stark wahrnimmst, spielt absolut keine Rolle. Wenn du mit dem Kaschieren des Problems durch hohe Frameraten, unkritische Ingameszenen usw. leben kannst, hat niemand etwas dagegen. In dem Artikel geht es einzig und allein um den kaputten anisotropen Filter der GTX. Und dies wird sehr wohl in Zukunft ein ganz praktisches Thema werden. Im übrigen ist nicht jeder Gamer ein Hardwarehändler und benutzt bei Neuerscheinen die nächste Grafikkartengeneration, bevor das Flimmern der GTX bei 30fps und entsprechender Ingamegrafik unerträglich wird.

Knötchen
2005-08-15, 13:25:09
[...] gebashe nenn ich das. ich werde nun wie gsagt nicht mehr beitragen da es sich schlicht nicht lohnt mit leuten zu diskutieren die keine GTX haben bzw. noch nichtmal eine in aktion gesehen haben.
Ich kann daraus nur schliessen, dass dir weiterhin die Bedeutung des Artikels verschlossen bleibt.

Piffan
2005-08-15, 13:31:28
Wäre schön, wenn sich mehr Besitzer eines G70 mal melden würden. Dunkeltier hat seine ruckzuck wieder abgestoßen, habe ich gehört. HOT fummelt auch an seiner rum und sucht nach nem Wundertreiber ohne Griesel.......

Sagen wir mal wie es ist: irgendwas an dem Ding ist panne. Ob man damit leben kann oder nicht, hängt von einzelnen Faktoren stark ab: Vom Content, von der Empfindlichkeit des Spielers, von der Peformance etc......
Das Video mag ja wie ne Lupe wirken und es im realen Spiel halb so heiß sein wie es hier gekocht wird.
Damit jeder sich ein Bild vom realen Spiel machen kann, müsste er halt ne G70 in Aktion erleben bei seinem Lieblingsspiel, dass ihm von seiner bisherigen Karte vertraut ist. Ziemlich illusorisch. Besser wären doch mal Spielesequenzen aus einem Strauß verbreiteter Spiele. Mir ist dieser Tunnel auch ein bissken zu synthetisch und scheint die Sache zu überspitzen. Oder glaubt jemand, dass es im Spiel auch so ausschaut wie bei alten Dos- Klassikern? Wenn ja, dann müssten die Reviewer ja Tomaten auf den Augen gehabt haben.

Es ist in der Tat relativ dünnes Eis, dass man die Videos eines Dritten heranzieht und Aussagen über die Qualität von Hardware macht, ohne sie persönlich zu testen. In diesem Sinne Ack! an Ulukay.

Mir geht es sowieso oft auf die Nerven, dass viel theoretisiert wird und es in "echt" dann doch anders ist. So wird von aths immer wieder betont, dass das AF der FX genauer und damit per se besser ist. Nur sehen müsste man es können!

Warum werden keine Worte verloren über die Poly- Gaps, die auf Ati- Hardware wohl auch größer sind als auf NV- Hardware?
Af ist wichtig, AA und Präzision im Allegemeinen. Alles geht auf die Performance, eine Verengung auf das AF führt unter Umständen zu Tricksereien auf anderen Gebieten.....

Im Prinzip finde ich die Schelte für NV gut, aber etwas besser absichern täte not.

tombman
2005-08-15, 13:32:03
In dieser Gesellschaft scheint es Brauch zu sein, zumindest öffentlich nicht einzugestehen, wenn ein neu gekauftes (und teures) Produkt die Erwartungen nicht erfüllt.

MEINE Erwartungen WURDEN erfüllt, es gibt nicht "die" Erwartung. Es ist ein kleiner Schönheitsfehler, aber LANGE nicht auseichend irgendeine meiner Entscheidungen zu bereuen. Die 7800 GTX bleibt die beste Grafikkarte die man derzeit haben kann, basta.

AF-Fanatiker wie du mögen die 7800 GTX als Katastrophe bezeichen, für mich ist dieser negativ hype lächerlich.

MadManniMan
2005-08-15, 13:34:01
Sehe ich das richtig, daß hier teils nicht erkannt wird, daß das Video eine absolute Laborszene darstellt und nur das höchstmögliche Maß an "Bosheit für den Filter" liefern soll?

Entschuldigt, aber wenn das der Fall sein sollte, muß ich ernsthaft an eurer Erkenntnisfähigkeit zweifeln oder aber davon ausgehen, daß ihr was gegen den Artikel haben wollt :|

tombman
2005-08-15, 13:36:20
du ich bin der gast und ich habe nichts gelöscht... du hast mich angemacht und mehr kann ich dazu nicht sagen. ich denke du hast meine anderen beiträge nicht mal angesehen sonst wärst du gar nicht so agressive gewesen.

hey ich kann es nicht ändern und euch FX und GF6 oder ATI besitzern nicht was schlechteres berichten um euch "aufzugeilen". Die GTX ist imo phänomenal abgesehen vom typischen GF6 flimmern. Wenn jemand dann noch behauptet BF2 sei unspielbar wegen flimmern... BF2 ist ein super Beispiel wie GUT eine GTX aussieht und was für Hammer FPS bietet. BF2 IST DIE AUSNAHME bei mir die überhaupt nicht störend flimmert bzw. mehr als ATI. GTR ist das negativbeispiel wie übel es sein kann.

wer dann noch mit fehlinvestitionen rumwirft oder verkäufen von Händlern... die X850xt pe ist bei mir teurer als die GTX also daran kann ja nicht liegen...

es ist schlicht schade wie die GTX fertig gemacht wird... hätte sie das typische Nvidia GF6 flimmern nicht würde ich sie momentan als perfekt hinstellen. Wenn hier schweizer in der nähe aus luzern hat können die gerne bei mir vorbeikommen und sich ihr eigenes bild machen.

ich bin der erste der wieder einen R520 testen wird und gegebenenfalls bei sich einbaut wenn er besser ist. ich habe nicht die geringste absicht irgendwas schönzureden, mache mir aber sorgen über das kaputtreden von vielen hier.


Meine Rede, die 7800 GTX deswegen abzuurteilen is total überzogen.

reunion
2005-08-15, 13:37:42
Bei mir sieht FEAR auf einer 6800Ultra und einer 7800GTX (beide in HQ) völlig identisch aus (ist natürlich subjektiv, das ist klar).


Mit welchen Einstellungen?
Mit SSAA könnte man das Flimmern natürlich bis zur Unkenntlichkeit reduzieren.


Und zum "bei 30FPS siehts auf im Real-Life so schei**e wie in den Fraps Videos aus", kann ich nur sagen, dass dies nicht stimmt.

Ich habs mal mit Splinter Cell CT probiert (ja, ich weiss das man da nirgends einen Frame-Limiter fürs Game hat, ich hatte einfach stellen rausgesucht wo die FPS ungefähr mit denen was Fraps ausspuckt hinkommen (also 30-40FPS)).
Da hat das auf dem Fraps Video wesentlich stärker geflimmert als Ingame.

Ist mir aber nicht genau genug und SplinterCell CT ist mir auch etwas zu Effektüberladen.


Es kommt natürlich auch aufs Spiel-, sowie auf den User an, ob man das Flimmern mehr- oder weniger stark wahrnimmt.

Ich kann ja verstehen, dass du versuchst, deine Kaufentscheidung mit allen möglichen Mitteln zu rechtfertigen, aber IMHO hat nV diesesmal den Bogen eindeutig überspannt. Und jeder sollte dies einsehen, bzw. dagegen auftreten. Wohin uns dieses verharmlosen der Filterqualität inzwischen gebracht hat, kann ja jeder selbst sehen.


Kennt jemand ein halbwegs neues Game, wo man die Frames limitieren kann und nicht von Haus aus flimmert?


Warum darf es nicht von "Haus aus" flimmern?
Gerade bei solchen Spielen kann man sehr gut einen Unterschied zwischen den einzelnen Karten feststellen - also unterscheiden, welcher Chip wie stark zum Flimmern neigt. GTA:SA würde sich da z.B. hervorragend eignen.



P.S.
hat eigentlich mal jemand bedacht, das Fraps beim Capturen frames dropt? Ich glaube das ist der Hauptgrund für die Flimmerverstärkung und nicht die niedrigen FPS.

Auf den anderen Karten führt das offensichtlich auch nicht zu übermäßigen Flimmern, warum dann auf der 7800GTX?

Gast
2005-08-15, 13:40:47
etwas OT:
Battlefield 1942 flimmert auf meiner x850xt wie sau, auf ner 6800 mit HQ sieht das Ganze echt Top aus.
Voran liegt das ? Fehler im Catalyst-Treiber ??

reunion
2005-08-15, 13:41:31
Meine Rede, die 7800 GTX deswegen abzuurteilen is total überzogen.

Wenn jeder so denken würde, hätten wird in ein paar Jahren vermutlich wieder Point Sampling.

Piffan
2005-08-15, 13:51:23
Sehe ich das richtig, daß hier teils nicht erkannt wird, daß das Video eine absolute Laborszene darstellt und nur das höchstmögliche Maß an "Bosheit für den Filter" liefern soll?

Entschuldigt, aber wenn das der Fall sein sollte, muß ich ernsthaft an eurer Erkenntnisfähigkeit zweifeln oder aber davon ausgehen, daß ihr was gegen den Artikel haben wollt :|

Dass das AF nicht das Goldgelbe vom Ei ist, bestreitet ja niemand. Das "Labor"- experiment beweist es ja auch. Nur wäre ein Bezug zum realen Spiel ganz nett. Fehlt dieser, kann man den Mangel einfach nicht beurteilen. Da kommt es dann zu Schnellschüssen, so wie ich ja auch anfangs schrieb: Toll, ich habe die Karte zwar nicht, kann nun aber sehen, wie die tickt. Falsch! Ich hab immer noch keinen Dunst, wie es in der Praxis denn nun aussieht.

Dass das AF stinkt, ist klar. Und nur die Frage: Ist die G70 wirklich so ein Griff ins Klo, dass man sie verreißen sollte? Leider wird es aber so kommen, wenn keine relativierenden Fälle aus der Praxis vorliegen. Belegen Praxisfälle, dass es wirklich so scheiße ist, auch gut. Wenn nicht, wird das Produkt sinnlos gebasht...

Gast
2005-08-15, 13:51:49
Hatte selber ne 6800 Ultra wechselte auf ne X 800 XT PE und bin mit dieser besser zufrieden als der Ultra Karte. Wollte mir eigentlich die 7800 GTX auch kaufen, aber hörte das ATI die neuen Karten im Oktober kommen mit dem R580 so werde ich die zwei Monate wohl locker abwarten.

MadManniMan
2005-08-15, 14:02:29
...Belegen Praxisfälle, dass es wirklich so scheiße ist, auch gut. Wenn nicht, wird das Produkt sinnlos gebasht...

Hm, für mich ziehe ich folgende Quintessenz: meine 6600Go flimmert mir auch noch auf HQ merklich, daß ich manchmal lieber ne Mobile X700 drin hätt ... aber ich werds überleben, da mir vor allem die Möglichkeit bei meinem Laptop fehlt, mal eben kostengünstig umzurüsten ;)

Durch die Videos bestätigt sich meine Erfahrung, daß die ATis nicht derartig zum Flimmern neigen. Wenn ich mir die nV40 Videos anschaue, zeigt sich doch zumindest, daß das Flimmern noch stärker wurde - und für meinen Kleingeist geht es ja um die Relationen, bzw. die Schlüsse, die man sich als frei denkender Mensch mit ordentlichen Rekapitulationsfähigkeiten selber stricken kann.

Hätte ich noch ein Desktop-System und würde von meiner Mittelklasse hochwechseln wollen, könnte ich leider nur zu ner ATi greifen, obgleich ich nach TSAA und allgemein SS-Modi giere. Doof.

Knötchen
2005-08-15, 14:03:43
Wird es eigentlich eine englische Übersetzung des Artikels geben?
Weiss jmd etwas konkretes darüber?

eXodia
2005-08-15, 14:13:23
Wird es eigentlich eine englische Übersetzung des Artikels geben?
Weiss jmd etwas konkretes darüber?

Es wird eine geben. Ist halt nur eine Frage der Zeit.

GrUß

Marc-
2005-08-15, 14:15:06
MEINE Erwartungen WURDEN erfüllt, es gibt nicht "die" Erwartung. Es ist ein kleiner Schönheitsfehler, aber LANGE nicht auseichend irgendeine meiner Entscheidungen zu bereuen. Die 7800 GTX bleibt die beste Grafikkarte die man derzeit haben kann, basta.

AF-Fanatiker wie du mögen die 7800 GTX als Katastrophe bezeichen, für mich ist dieser negativ hype lächerlich.

Hmmm. du wirst zugeben, für jemanden der im bezug auf monitore in einem paralellthread (und auch in bezug auf die wichtigkeit von dingen wie softshadows für den spielgenuss), diese deine aussage doch in diesem falle etwas seltsam klingt, wenn man sich doch allgemein als den "anspruchsvollstmöglichen User" ausgibt. Besonders glaubwürdig erscheint deine argumentation dann zumindest im ganzen nicht. Es kommt der gedanke an die getroffenen hunde auf...

Ich für meinen teil spiele ein spiel lieber in einer auflösung niedriger bzw ohne features wie softshadows usw, aber dafür augenschonend und flimmerfrei. Den das ist zumindest für mich für den spielgenuss entscheidender.

tombman
2005-08-15, 14:18:45
nur ein kleiner Hinweis: fraps braucht eine sauschnelle Festplatte (am besten raid 0) um 1024x768 überhaupt in 30fps capturen zu können, und ich weiß nicht, ob triolet das beachtet hat...

MadManniMan
2005-08-15, 14:26:15
nur ein kleiner Hinweis: fraps braucht eine sauschnelle Festplatte (am besten raid 0) um 1024x768 überhaupt in 30fps capturen zu können, und ich weiß nicht, ob triolet das beachtet hat...

Gut, verzeichnen wir also, daß der nette Franzos Mist aufgenommen hat und deshalb alle Aufregung umsonst ist. Jetzt können wir ja nach Hause gehen und uns freuen, denn die Unterschiede zwischen FX, R3**/4**, NV40 und G70 sind auf HDD-Gemurkse zurückzuführen.

:|

ShadowXX
2005-08-15, 14:28:04
Mit welchen Einstellungen?
Mit SSAA könnte man das Flimmern natürlich bis zur Unkenntlichkeit reduzieren.

FEAR und SSAA schliessen sich Performancetechnisch aus....das ganze lief ohne AA, damit ich gleiche Einstellungen auf beiden Karten nehmen konnte.

Wenn man in irgendeinem anderen Game SSAA einschaltet, sieht man sowieso kein Flimmern irgendeiner Art mehr (egal ob 68U oder GTX).


Es kommt natürlich auch aufs Spiel-, sowie auf den User an, ob man das Flimmern mehr- oder weniger stark wahrnimmt.


Das habe ich auch nie bestritten.....


Ich kann ja verstehen, dass du versuchst, deine Kaufentscheidung mit allen möglichen Mitteln zu rechtfertigen, aber IMHO hat nV diesesmal den Bogen eindeutig überspannt. Und jeder sollte dies einsehen, bzw. dagegen auftreten. Wohin uns dieses verharmlosen der Filterqualität inzwischen gebracht hat, kann ja jeder selbst sehen.


Ich wollte (ebenso wie andere GTX-Besitzer) nie behaupten, das das AF der GTX super-toll ist, aber es ist nicht so schlimm, wie es teilweise dargestellt wird.....und es sieht in Games auch nie so extrem aus, wie in den Videos.

Ich hab für die GTX gerade mal 200Euro ausgeben müssen, da mir ein Kumpel, der Händler ist noch einen "gefallen" schuldete....wenn das AF wirklich soooo mies sein würde, wie manche sagen oder denken, wäre die Karte schon längst wieder rausgeflogen.

Aber nochmals zum mitschreiben: ja, das AF des G70 ist nicht so dolle und auch ich will besseres AF....aber es es nicht so extrem wie es teilweise dargestellt wird.

Zusätzlich kommt noch hinzu, das FEAR das erste Game ist, bei dem ich überhaupt kein SSAA zuschalten kann....bei jedem sonstigen Game funktioniert 16xS oder 8xS (und bei letzterm meisten zusammen mit TSAA).
Das soll jetzt aber keine entschuldigung für das AF des G70 sein.


Warum darf es nicht von "Haus aus" flimmern?
Gerade bei solchen Spielen kann man sehr gut einen Unterschied zwischen den einzelnen Karten feststellen - also unterscheiden, welcher Chip wie stark zum Flimmern neigt. GTA:SA würde sich da z.B. hervorragend eignen.


Weil man dann nicht mehr sehen kann, welches Flimmern von Haus aus kommt und welchen vom AF.
Und gerade GTA-SA ist blöd, da das AF von nV dort sowieso nicht ordentlich funktioniert (weder auf nv40 noch auf G70...wies bei nv3x/2x aussieht weiss ich nicht.)


Auf den anderen Karten führt das offensichtlich auch nicht zu übermäßigen Flimmern, warum dann auf der 7800GTX?

Wie schon öfter erwähnt....Videos mit UT03/04 sind IMHO wertlos, da da viel zu viel vom nV-Treiber reingepfuscht wird und keiner zu 100% weiss, was da dann wirklich an/aus/nicht vorhanden ist im Endeffekt.

OpenGL ist ebenso wertlos (zumindest Teilweise), da dort Clamp nicht funktioniert....das soll lt. Razor nur mit D3D funktionieren (und meine eigenen Test haben das bestätigt.)
Deshalb sind auch die Quake3-Sachen von Lolman IMHO wertlos, bzw. zumindest nur für OGL-Vergleiche zu betrachten.
(und ja, es ist blöd, das Clamp nur in D3D funktioniert und das kann man nV auch ankreiden.)

Und zum Schluss.....Jeder von den GTX-Besitzern hat zugegeben, das das AF nicht das Gelbe vom Ei ist, und das jetzt endlich schluss sein muss.
Das was der GTX bei AF bietet ist die absolute Schmerobergrenze an Verschlimmbesserungen und mehr will ich auch nicht mehr sehen (von keinem Gfx-Hersteller), sonst können mir alle GFX-Hersteller mal den Buckel runterrutschen...

Aber (das aber sollte erlaubt sein)....es ist nicht so extrem, wie teilweise behauptet/geschrieben/gedacht/gemeint wird.

Ich willl nicht behaupten, dass jemand der extrem empfindlich in diesem Bereich ist, es nicht vielleicht sofort bemerkt....aber der Großteil der User wird dieses flimmern/grieseln nur dann bemerken, wenn man expliziert daraufhingewiesen wird (in echten Game unter normalen Gamebedingungen!!!).

Ich habe selbst ein paar Kumpels von mir Testen lassen...davon 2 ATI-"Fans", einer der nach eigenen Aussagen AF-empfindlich ist und 2 eher nV zugeneigte.

Es hat gerade mal einer was aus normalen Gameszenen heraus nach einiger Zeit bemerkt.....und das was Lustigerweise einer aus der nV-Garde.
Gerade die ATI Jungs wussten selbst als ich Sie darauf hinwies immer noch nicht was ich denn nun meine und der "AF-Empfindliche" sah es dann nach meinen Hinweisen, bemerkte allerdings sinngemäß nur "und darum wird so ein Brimbamborium gemacht??".
(nur als Anmerkung: die waren natürlich nicht alle gleichzeitig dar)

Tortzdem empfehle ich jedem, bevor er sich eine GTX kauft, sich das ganze mal anzugucken....und dann zu entschieden ob es für ihn persönlich (und das ist es im Endeffekt doch...die persönliche Sicht/Meinung/Empfinden) stark oder weniger stark tangiert.

P.S.
ich muss überigens Ullukay zustimmen, das sich aths das ganze erst mal Live ansehen sollte, bevor er bestimmte generalisierte Aussagen trifft.

tombman
2005-08-15, 14:35:12
Hmmm. du wirst zugeben, für jemanden der im bezug auf monitore in einem paralellthread (und auch in bezug auf die wichtigkeit von dingen wie softshadows für den spielgenuss), diese deine aussage doch in diesem falle etwas seltsam klingt, wenn man sich doch allgemein als den "anspruchsvollstmöglichen User" ausgibt. Besonders glaubwürdig erscheint deine argumentation dann zumindest im ganzen nicht. Es kommt der gedanke an die getroffenen hunde auf...

Ich für meinen teil spiele ein spiel lieber in einer auflösung niedriger bzw ohne features wie softshadows usw, aber dafür augenschonend und flimmerfrei. Den das ist zumindest für mich für den spielgenuss entscheidender.

Du kannst DEINE Wertung genauso festlegen wie ATHS, der einer GF3 einer 7800GTX wahrscheinlich vorziehen würde (;D ), ich mache das eben anders.

Meine Gewichtung ERLAUBT den KLEINEN "Punktabzug" der 7800GTX in der AF-Qualität, bekommt die 7800GTX durch die Leistung und andere hochwichtige features soviele Gutpunkte, daß sie TROTZDEM weit oben auf Platz 1 rangiert.

ICH habe sogar einen 1300€ TFT, einen der besten die es gibt, zurückgeschickt und meinen FW900 behalten, weil MEINE Gewichtung bzgl Bewegungsunschärfe so hoch war, daß der TFT den ersten Platz nicht halten konnte :eek: 95% aller user hätten wahrscheinlich anders entschieden.

Im Gegensatz zu dir und anderen Leuten unterstelle ich aber niemandem böse Absichten mit Hintergedanken oder zweifle seine Glaubwürdigkeit an!!!
Wenn ICH sage, dieses und jenes feature oder dieser und jener Fehler für MICH nur einer geringe oder eben eine hohe Gewichtung im Entscheidungsprozess hat, dann hat man mir das zu glauben und nicht zu versuchen mich zu diskreditieren, nur weil die Meinung nicht zufällig der eigenen entspricht!!!
Weil solche Methoden sind unterste Schublade.

Details abzuschalten ist für mich das schlimmste was man in einem game machen kann, denn das verändert die künstlerische Wertung, und die ist bei einem Spiel imo heilig.

MEIN Fazit:

Die 7800GTX hat ein LEICHT schlechtere AF Qualität, sprich sie wurde zu hoch optimiert im Vergeich zur X800 oder 6800 Serie, aber noch lange nicht ausreichend um irgendwelche schwerwiegenden Konsequenzen zu ziehen oder die Karte gar zu disqualifizieren. Sogar ATHS, dem AF-Profi, ist dieses Problem selbst zuerst gar nicht aufgefallen beim normalen Spielen, also wie schlimm kann es sein, wenn es nicht mal einem AF-Fanatiker auffällt? Und wie schlimm wäre es dann überhaupt für die Masse?

tombman
2005-08-15, 14:35:59
Gut, verzeichnen wir also, daß der nette Franzos Mist aufgenommen hat und deshalb alle Aufregung umsonst ist. Jetzt können wir ja nach Hause gehen und uns freuen, denn die Unterschiede zwischen FX, R3**/4**, NV40 und G70 sind auf HDD-Gemurkse zurückzuführen.

:|

Tu ned polemisieren...

tombman
2005-08-15, 14:37:12
Ach ja nochwas: ICH sehe auch bei FX noch ein Grieseln, was sagt ihr jetzt?

derominöseGast
2005-08-15, 14:37:17
nur ein kleiner Hinweis: fraps braucht eine sauschnelle Festplatte (am besten raid 0) um 1024x768 überhaupt in 30fps capturen zu können, und ich weiß nicht, ob triolet das beachtet hat...


SATAII Raid 0 hier in Betrieb... ich bringe keinesfalls 30fps hin ;(

fraps könnt ihr eh vergessen, das ganze kommt derart unscharf raus das man das Flimmern eh nich sehen würde. Habe schon stundenweise nun rumprobiert mit diversen Spielen. no go...

tombman
2005-08-15, 14:40:01
SATAII Raid 0 hier in Betrieb... ich bringe keinesfalls 30fps hin ;(

fraps könnt ihr eh vergessen, das ganze kommt derart unscharf raus das man das Flimmern eh nich sehen würde. Habe schon stundenweise nun rumprobiert mit diversen Spielen. no go...

ALso ich schaffe es mit meinem scsi raid 0, aber das ist auch schon so ziemlich das Maximum ...

MadManniMan
2005-08-15, 14:41:30
Sogar ATHS, dem AF-Profi, ist dieses Problem selbst zuerst gar nicht aufgefallen beim normalen Spielen, also wie schlimm kann es sein, wenn es nicht mal einem AF-Fanatiker auffällt? Und wie schlimm wäre es dann überhaupt für die Masse?

Gut, daß Du die Zusammenhänge richtig erkennst und uns zeigst, wie aufmerksam Du liest :up:

Ich bin so frei, Rückschlüsse davon auf Dein Filter-Guck-Verhalten zu schließen und kann dementsprechend sagen: ja, die Welt wäre einfacher, würde Deine Wahrnemhung bei allen appliziert :up:

derominöseGast
2005-08-15, 14:42:44
Du kannst DEINE Wertung genauso festlegen wie ATHS, der einer GF3 einer 7800GTX wahrscheinlich vorziehen würde (;D ), ich mache das eben anders.

Meine Gewichtung ERLAUBT den KLEINEN "Punktabzug" der 7800GTX in der AF-Qualität, bekommt die 7800GTX durch die Leistung und andere hochwichtige features soviele Gutpunkte, daß sie TROTZDEM weit oben auf Platz 1 rangiert.

ICH habe sogar einen 1300€ TFT, einen der besten die es gibt, zurückgeschickt und meinen FW900 behalten, weil MEINE Gewichtung bzgl Bewegungsunschärfe so hoch war, daß der TFT den ersten Platz nicht halten konnte :eek: 95% aller user hätten wahrscheinlich anders entschieden.

Im Gegensatz zu dir und anderen Leuten unterstelle ich aber niemandem böse Absichten mit Hintergedanken oder zweifle seine Glaubwürdigkeit an!!!
Wenn ICH sage, dieses und jenes feature oder dieser und jener Fehler für MICH nur einer geringe oder eben eine hohe Gewichtung im Entscheidungsprozess hat, dann hat man mir das zu glauben und nicht zu versuchen mich zu diskreditieren, nur weil die Meinung nicht zufällig der eigenen entspricht!!!
Weil solche Methoden sind unterste Schublade.

Details abzuschalten ist für mich das schlimmste was man in einem game machen kann, denn das verändert die künstlerische Wertung, und die ist bei einem Spiel imo heilig.

MEIN Fazit:

Die 7800GTX hat ein LEICHT schlechtere AF Qualität, sprich sie wurde zu hoch optimiert im Vergeich zur X800 oder 6800 Serie, aber noch lange nicht ausreichend um irgendwelche schwerwiegenden Konsequenzen zu ziehen oder die Karte gar zu disqualifizieren. Sogar ATHS, dem AF-Profi, ist dieses Problem selbst zuerst gar nicht aufgefallen beim normalen Spielen, also wie schlimm kann es sein, wenn es nicht mal einem AF-Fanatiker auffällt? Und wie schlimm wäre es dann überhaupt für die Masse?


alter du bist richtig erfrischend in all der ignoranz um uns rum...
aber eben, wir werden dann als "getroffene Hunde" hingestellt.

ich bin auch nachwievor mit dem F500R von Sony unterwegs weil es keinen TFT ab 21" gibt der meinen Ansprüchen genügt aber klar die GTX flimmert derart wie im Video und das macht uns nichts aus weil wir ja ganz enorme 500Euro (du 200 und ich nix...) ausgegeben haben...

ich bin jetzt schon gespannt, was die trolle alles beim R520 finden werden...

Fruli-Tier
2005-08-15, 14:49:19
Ich muss sagen, dass die Videos, so klinisch die Testbedingungen auch waren, mich doch ein wenig an eigene "Erlebnisse" erinnert haben. In dem ein oder anderen Spiel ist mir dieses 6800-Flimmern auch schon übern Schirm gehuscht.

Bevor jedoch diese Diskussion aufgekommen ist, habe ich da eigentlich keine Zusammenhänge ziehen könne, dachte es geht um viel schlimmere Dinge. Jetzt weiss ich immerhin um was es genau geht.

Nur da wundere ich mich über die GTX Besitzer, was sie sich so aufregen, über diese Extreme Darstellung des Flimmerns, die so doch gar nicht sein soll. Ich persönlich hatte ja nach allen möglichen Threads und Reviews die schlimmsten Vorstellungen dieses Problems, war dann jedoch überrascht, dass es doch Verhältnismässig "harmlos" ist. So schlimm kommt es auf den Videos doch gar nicht rüber.

Klar, die FX bügelt alles weg, wenn es um Bildqualität geht, das is echt Hammer. Aber deswegen gleich solche Aufstände zu machen, die Videos Übertreiben in ihrer Darstellung. Das kann ich so echt nicht nachvollziehen.

Klar fällt es in Spielen wohl kaum noch auf, gerade da die GTX Karte genug Power hat, um die aberwitzigsten Kantenglättungsmodi flüssig darzustellen, welche den Flimmereffekt noch weiter reduzieren.
Aber stellt euch doch mal die kleineren Varianten des G70 vor, welchen diese Power verwehrt wird. Die müssen dann schlicht und ergreifend mit dem "normalen" Anisotropen Filter auskommen. Und da fällt es dann erst richtig auf und darauf, so interpretiere ich das in die Videos, sind die bewegten Bilder abgezielt.

Schlicht und ergreifend um zu zeigen, dass mit die Anisotropen Filter keine signifikante Bildqualitätssteigerung mehr möglich ist. Dafür ist er zu kaput, der Vergleich mit der (leider zu langsamen; ich hätte nämlich auch noch eine 5800 :wink: ) GF FX macht es deutlich. Und wenn die Karte eben zu langsam für die ganzen lustigen AA Modi ist und die AFilter eine minderwertige Qualität liefert, dann stellt sich doch die Frage, wozu in so eine Hardware noch investieren, die keine Zeitgemässe Darstellung/Filterung von Texturen mehr beherrscht.

Klar beim 7800GTX kann man es anderweitig noch kaschieren, die Leistung ist definitiv vorhanden und das würde auch einen Kaufanreiz darstellen, keine Frage. Die 500€ dafür hat aber nicht jeder und die Mid-Range Karten machen doch eigentlich das Geschäft.

Denkt doch mal über den Tellerrand hinaus.

Lob an aths für den Artikel und an den Video Ersteller. :up:

eXodia
2005-08-15, 14:50:01
Jungs, ganz ruhig!

Wir sind uns alle einig das das AF des G70 nicht das Gelbe vom Ei ist. Fakt ist imo auch das es stark vom betrachter abhängt wie stark er das flimmern wahrnimmt. Der Artikel war notwendig damit es in zukunft mit dem AF nicht noch weiter bergab geht.

Stimme aber sonst mit Ulukay überein: Man sollte nicht Dinge bewerten die man selbst noch nicht "live" erlebt hat. Ich persöhnlich werde mich von der AF-Qualität erst live auf der GC überzeugen und dann danach urteilen, vielleicht treffen wir uns dort und bilden einen 3DC-Squad der das AF des G70 untersucht ;D

GrUß

tombman
2005-08-15, 15:05:05
FETTE NEWS!!

Ich habe gerade in HL2 selbst ein Video erstellt in 1204x768 in 30fps (ja, meine hardware kann das flüssig aufnehmen ohne framedrop, highend scsi raid 0 machts möglich) und

es ist eindeutig, daß fraps Videos DEUTLICH schlechter sind als die eigentliche ingame Grafik was AF-Flimmern/Grieseln betrifft.

Und ich habe dabei sogar eine SEHR böse Textur genommen, HL2 hat da wirklich ein paar sehr schöne zu Auswahl (Kieselsteinboden bis ganz in die Ferne an zb Gleisen :cool:) und der Effekt war eindeutig. UND ja, der Vergleich fand bei sowohl ingame als auch bei fraps in 30fps statt :cool: (also video und ingame = 30fps)

Ulukay hatte damit Recht, daß fraps NICHT die AF-Qualität widerspiegelt die man mit einer 7800GTX in der Praxis zu erwarten hat !!!

Knötchen
2005-08-15, 15:12:40
Ach ja nochwas: ICH sehe auch bei FX noch ein Grieseln, was sagt ihr jetzt?

Dass du dich bei der GTX übergeben musst?


ja sry, aber das ist doch jetzt albern, zwischen FX und GTX liegen Welten, zumindest unter Laborbedingung und zum ~ 1000. Mal: genau darum geht es in dem Artikel und um keinen einzigen subjektiven Eindurck eines GTX-Besitzer in seinem Lieblingsgames.

Ist das nicht recht einfach verständlich?

Marc-
2005-08-15, 15:30:07
Im Gegensatz zu dir und anderen Leuten unterstelle ich aber niemandem böse Absichten mit Hintergedanken oder zweifle seine Glaubwürdigkeit an!!!
Wenn ICH sage, dieses und jenes feature oder dieser und jener Fehler für MICH nur einer geringe oder eben eine hohe Gewichtung im Entscheidungsprozess hat, dann hat man mir das zu glauben und nicht zu versuchen mich zu diskreditieren, nur weil die Meinung nicht zufällig der eigenen entspricht!!!
Weil solche Methoden sind unterste Schublade.
Ich sagte lediglich das ich das erstaunlich finde und das es sehr schwer nachvollziehbar ist, wenn man schaut wie du sonst argumentierst. wie auch genau im folgenden satz...:

Details abzuschalten ist für mich das schlimmste was man in einem game machen kann, denn das verändert die künstlerische Wertung, und die ist bei einem Spiel imo heilig.
Das ist vermutlich der punkt den ich zumindest anders sehe. Für mich zählt bei einem spiel in allererster Linie der spielerische und der unterhaltungswert. Ich kauf mir eigentlich nie ein spiel um irgendwelche tollen effekte zu sehen wenn mir da spielerische net zusagt. Weil daran seh ich mich relativ schnell satt. Ich schalt auch in aller regel nur die details und features ein, die ich im spiel wahrnehme und net welche die ich nur sehe wenn ich screens vergleiche bzw wenn ich 2 minuten auf eine stelle starre. Im gegenteil stell ich oft sogar einstellung aus die mich beim normalen spielen stören, zum beispiel bestimmte unrealistische oder überdimensionierte lichteffekte. An einen "künstlerischen wert" oder die "heiligkeit" bestimmter spieleinstellung hab ich ehrlich gesagt niemals auch nur im entferntesten gedacht.


MEIN Fazit:

Die 7800GTX hat ein LEICHT schlechtere AF Qualität, sprich sie wurde zu hoch optimiert im Vergeich zur X800 oder 6800 Serie, aber noch lange nicht ausreichend um irgendwelche schwerwiegenden Konsequenzen zu ziehen oder die Karte gar zu disqualifizieren. Sogar ATHS, dem AF-Profi, ist dieses Problem selbst zuerst gar nicht aufgefallen beim normalen Spielen, also wie schlimm kann es sein, wenn es nicht mal einem AF-Fanatiker auffällt? Und wie schlimm wäre es dann überhaupt für die Masse?

Du bist sicher das du wirklich alles gelesen hast was auch die anderen bzw auch aths geschrieben haben? Soviel ich verstanden hat, HAT de fakto nicht normal selbst gespielt (zumindest nicht relevant ausgiebig), weil er selbst garkein system mit PCIe sein eigen nennt.
Aths hat sich soweit mir bekannt ist auch eher in technischer weise ausgelassen als auf direkte (selbstgemachte) praxiserfahrungen verwiesen. Zumindest hab ich es so verstanden.

mbee
2005-08-15, 15:35:01
Stimme aber sonst mit Ulukay überein: Man sollte nicht Dinge bewerten die man selbst noch nicht "live" erlebt hat. Ich persöhnlich werde mich von der AF-Qualität erst live auf der GC überzeugen und dann danach urteilen, vielleicht treffen wir uns dort und bilden einen 3DC-Squad der das AF des G70 untersucht ;D
GrUß

Ich werde mich davon jetzt erst mal selbst überzeugen (eine ist bestellt) ;)
Falls das wirklich so übel ist bzw. der R520 hier mehr bieten wird, wird das Teil bei dessen Launch eben umgehend wieder verkauft.

Knötchen
2005-08-15, 15:36:26
FETTE NEWS!!

Ich habe gerade in HL2 selbst ein Video erstellt in 1204x768 in 30fps (ja, meine hardware kann das flüssig aufnehmen ohne framedrop, highend scsi raid 0 machts möglich) und

es ist eindeutig, daß fraps Videos DEUTLICH schlechter sind als die eigentliche ingame Grafik was AF-Flimmern/Grieseln betrifft.

Und ich habe dabei sogar eine SEHR böse Textur genommen, HL2 hat da wirklich ein paar sehr schöne zu Auswahl (Kieselsteinboden bis ganz in die Ferne an zb Gleisen :cool:) und der Effekt war eindeutig. UND ja, der Vergleich fand bei sowohl ingame als auch bei fraps in 30fps statt :cool: (also video und ingame = 30fps)

Ulukay hatte damit Recht, daß fraps NICHT die AF-Qualität widerspiegelt die man mit einer 7800GTX in der Praxis zu erwarten hat !!!

Und wieder ein Kandidat, der mir erklären möchte, warum fraps in die GTX Videos ein zusätzlichen Flimmereffekt addiert, die Videos von der X800 oder gerade der FX nicht flimmern.

Ausserdem sprichst du damit triolet jegliche Kompetenz ab. Das schreit geradezu nach Beweisen.

Marc-
2005-08-15, 15:37:17
FETTE NEWS!!

Ich habe gerade in HL2 selbst ein Video erstellt in 1204x768 in 30fps (ja, meine hardware kann das flüssig aufnehmen ohne framedrop, highend scsi raid 0 machts möglich) und

es ist eindeutig, daß fraps Videos DEUTLICH schlechter sind als die eigentliche ingame Grafik was AF-Flimmern/Grieseln betrifft.

Und ich habe dabei sogar eine SEHR böse Textur genommen, HL2 hat da wirklich ein paar sehr schöne zu Auswahl (Kieselsteinboden bis ganz in die Ferne an zb Gleisen :cool:) und der Effekt war eindeutig. UND ja, der Vergleich fand bei sowohl ingame als auch bei fraps in 30fps statt :cool: (also video und ingame = 30fps)

Ulukay hatte damit Recht, daß fraps NICHT die AF-Qualität widerspiegelt die man mit einer 7800GTX in der Praxis zu erwarten hat !!!

aeh. Ist nicht mit einer ati karte und demselben prog auch ein vergleichsvideo gemacht worden? wieso ist da das flimmern dann nicht? Ich denk unter den umständen ist der vergleich und die aussage legitim. Wobei eh jedem klar sein duerfte das die ausprägung des effekts sowieso je nach anwendung, auflösung und eigener wahrnehmung variiert. Das ist ja auch nicht wirklich in frage gestellt worden.
Zumal deine "fetten news" auch erst ma nur ne behauptung ohne jeden sachbeweis sind. Im prinzip genau das was du der "gegenseite" vorwirfst.

tEd
2005-08-15, 15:41:55
Im Endeffekt spielt es keine Rolle ob der einzelne das Flimmern nicht sieht oder nicht sehen will.

Fakt:
1:
G70 AF wurde verschlechtert , deutliche neigung zum Flimmern. Die Videos müssen nicht representativ für jedes einzelne spiel sein(kann es ja auch gar nicht) aber man sieht ganz klar die Unterschiede zwischen x800,nv40 und g70 in den einzelnen Qualitäts einstellungen.

2:
Die Tester haben ganz klar verschlafen nicht nur wurde in 99% der Tests nicht erwähnt das AF verschlechtert wurde es wurde sogar mit dem noch einmal schlechteren Quality modus gebencht welcher so schlecht ist das er ganz klar die Benchmarkergergebnisse gegenüber der Konkurrenz verfälscht.

Für mich bedeutet das in erster Linie eins das alle die G70 Tests die ich gelesen habe für die Katz sind und mir diese keine genauen Information geben wie gut oder schlecht denn nun die G70 wirklich ist.

Ob das Problem für den einzelnen nun akzeptabel ist oder nicht spiel keine Rolle es geht rein nur um die Informationspolitik. Ich will sowohl über die guten Punkte wie auch die schlechten Punkte einer Grafikkarte informiert werden. Ob ich dann die schlechten Punkte akzeptieren kann oder sie mich nicht stören das ist ja dann meine Entscheidung aber um diese überhaupt zu treffen brauche ich sie zuerst.

reunion
2005-08-15, 15:43:14
FEAR und SSAA schliessen sich Performancetechnisch aus....das ganze lief ohne AA, damit ich gleiche Einstellungen auf beiden Karten nehmen konnte.

Wenn man in irgendeinem anderen Game SSAA einschaltet, sieht man sowieso kein Flimmern irgendeiner Art mehr (egal ob 68U oder GTX).


Okay, das ist natürlich was anderes.
Ich ging davon aus, dass du mit SSAA spielst.


Ich wollte (ebenso wie andere GTX-Besitzer) nie behaupten, das das AF der GTX super-toll ist, aber es ist nicht so schlimm, wie es teilweise dargestellt wird.....und es sieht in Games auch nie so extrem aus, wie in den Videos.


Die Videos sind verlustfreie Aufnahmen eines G70.
Ich wüsste nicht, warum diese anders aussehen sollten, als wenn ich es selber in Echtzeit spielen würde. Natürlich dürfte es sich hierbei um Extremsituationen handeln, welche man so nur äußerst selten sieht.


Ich hab für die GTX gerade mal 200Euro ausgeben müssen, da mir ein Kumpel, der Händler ist noch einen "gefallen" schuldete....wenn das AF wirklich soooo mies sein würde, wie manche sagen oder denken, wäre die Karte schon längst wieder rausgeflogen.

Aber nochmals zum mitschreiben: ja, das AF des G70 ist nicht so dolle und auch ich will besseres AF....aber es es nicht so extrem wie es teilweise dargestellt wird.


Das glaube ich dir gerne. - Mir geht es ehrlich gesagt auch nicht unbedingt darum, zu beurteilen, wie gut oder schlecht der Filter des G70 nun wirklich ist, sondern darum, den Trend, dass bei jeder neuen Generation die Bildqualität reduziert wird, zu stoppen. Denn wenn ich mir ansehe, welche BQ meine inzwischen schon fast antike Geforce 3 damals bot, und welche BQ man heute angeboten bekommt, dann könnte ich gelinde gesagt kotzen.


Zusätzlich kommt noch hinzu, das FEAR das erste Game ist, bei dem ich überhaupt kein SSAA zuschalten kann....bei jedem sonstigen Game funktioniert 16xS oder 8xS (und bei letzterm meisten zusammen mit TSAA).
Das soll jetzt aber keine entschuldigung für das AF des G70 sein.


OT:
Du spielst mit SSAA plus TSAA?
Sinn?


Wie schon öfter erwähnt....Videos mit UT03/04 sind IMHO wertlos, da da viel zu viel vom nV-Treiber reingepfuscht wird und keiner zu 100% weiss, was da dann wirklich an/aus/nicht vorhanden ist im Endeffekt.

OpenGL ist ebenso wertlos (zumindest Teilweise), da dort Clamp nicht funktioniert....das soll lt. Razor nur mit D3D funktionieren (und meine eigenen Test haben das bestätigt.)
Deshalb sind auch die Quake3-Sachen von Lolman IMHO wertlos, bzw. zumindest nur für OGL-Vergleiche zu betrachten.
(und ja, es ist blöd, das Clamp nur in D3D funktioniert und das kann man nV auch ankreiden.)


Sehe ich nicht so. Immerhin bekommt der Spieler auch keine bessere Qualität geboten - man kann dadurch natürlich keine Rückschlüsse auf andere Anwendungen schließen, bei welchen die Schalter ev. so funktionieren, wie angegeben, aber explizit für diese Art von Spielen sind die gezeigten Videos nun mal Realität. Im übrigen ist nV selbst schuld, wenn dies doch jemand tut, nach all' den Ungereimtheiten, welche in letzter Zeit aufgetreten sind. Das beginnt bei nicht funktionierenden Schaltern, geht über sich selbst einschaltende-, sowie App.-spezifische "Optimierungen", und hört beim G70 auf - welcher dem ganzen die Krone aufsetzt.


Und zum Schluss.....Jeder von den GTX-Besitzern hat zugegeben, das das AF nicht das Gelbe vom Ei ist, und das jetzt endlich schluss sein muss.
Das was der GTX bei AF bietet ist die absolute Schmerobergrenze an Verschlimmbesserungen und mehr will ich auch nicht mehr sehen (von keinem Gfx-Hersteller), sonst können mir alle GFX-Hersteller mal den Buckel runterrutschen...


Und wenn die Qualität noch weiter, kaum sichtbar reduziert wird?
Dann wird die Schmerzgrenze bei den meisten eben um ein paar Millimeter nach unten gerückt. Und genau das ist das Problem.

tombman
2005-08-15, 15:43:55
Laborbedingung

Die "Laborbedingungen" sind keine, weil EIN Mann kein Labor ist, außerdem wurde bereits von ulukay und mir entlarvt, daß fraps keine korrekten Eindrücke von real life AF Qualität vermitteln kann- also von Nutzern die alle Vorraussetzungen haben alles selbst zu testen, ganz im Gegensatz zu anderen usern/reviewern hier ;)

reunion
2005-08-15, 15:47:47
FETTE NEWS!!

Ich habe gerade in HL2 selbst ein Video erstellt in 1204x768 in 30fps (ja, meine hardware kann das flüssig aufnehmen ohne framedrop, highend scsi raid 0 machts möglich) und

es ist eindeutig, daß fraps Videos DEUTLICH schlechter sind als die eigentliche ingame Grafik was AF-Flimmern/Grieseln betrifft.

Und ich habe dabei sogar eine SEHR böse Textur genommen, HL2 hat da wirklich ein paar sehr schöne zu Auswahl (Kieselsteinboden bis ganz in die Ferne an zb Gleisen :cool:) und der Effekt war eindeutig. UND ja, der Vergleich fand bei sowohl ingame als auch bei fraps in 30fps statt :cool: (also video und ingame = 30fps)

Ulukay hatte damit Recht, daß fraps NICHT die AF-Qualität widerspiegelt die man mit einer 7800GTX in der Praxis zu erwarten hat !!!

Selbst wenn Fraps nicht die "volle" Qualität zeigt, so sind die Grundvoraussetzungen doch für alle Karten gleich. Also warum kein schlechteres Bild auf dem NV40/R420?

//EDIT: Zu spät.

Marc-
2005-08-15, 15:48:11
Die "Laborbedingungen" sind keine, weil EIN Mann kein Labor ist, außerdem wurde bereits von ulukay und mir entlarvt, daß fraps keine korrekten Eindrücke von real life AF Qualität vermitteln kann- also von Nutzern die alle Vorraussetzungen haben alles selbst zu testen, ganz im Gegensatz zu anderen usern/reviewern hier ;)
Entlarvt? wo? ich sehe nur behauptungen.
zudem: wenn du so gute vorraussetzungen hast dann mach doch mal die vergleichsvideos auch mit den ati pendants und stell se zum download. dann kann man sich ja ein bild machen von dem was du behauptest.

tombman
2005-08-15, 15:57:33
Entlarvt? wo? ich sehe nur behauptungen.
zudem: wenn du so gute vorraussetzungen hast dann mach doch mal die vergleichsvideos auch mit den ati pendants und stell se zum download. dann kann man sich ja ein bild machen von dem was du behauptest.

[ ] du hast verstanden, daß fraps Videos keine Aussage bzgl real life AF Qualität haben, zumindest bei der 7800GTX. Ich kann daher auch nix uploaden.

Man müßte direkt den Bildschirm mit einer Videokamera abfilmen, aber ob da dann die Qualität paßt ist mehr als fraglich.

Der Tendenz, daß FX und ATI ein bischen schöner AF Filtern hab ich ja nicht widersprochen, sofern du das gemerkt hast (:rolleyes: ), sondern nur gesagt, daß man die fraps Videos der 7800GTX Reihe nicht so erstnehmen soll, da die reallife Qualität viel höher liegt. Ich kann diese Aussage aber derzeit nur für die 7800GTX machen, da ich derzeit keine anderen Karten da habe. Es kann durchaus sein, daß in realife auch die anderen Karten bessere AF Qualität als auf den fraps vids zu sehen ist bieten, aber das mögen dann andere überprüfen, die die hard- und software dazu haben. Ich habe nur für die 7800GTX gesprochen, und mit Ulukay sind es immerhin schon zwei erfahrene user hinter der Aussage.

Knötchen
2005-08-15, 15:59:14
Die "Laborbedingungen" sind keine, weil EIN Mann kein Labor ist, außerdem wurde bereits von ulukay und mir entlarvt, daß fraps keine korrekten Eindrücke von real life AF Qualität vermitteln kann- also von Nutzern die alle Vorraussetzungen haben alles selbst zu testen, ganz im Gegensatz zu anderen usern/reviewern hier ;)
Ok, den Ausdruck "Laborbedingung" kann man anfechten. Ersetze ihn mit "Laborvideo", denn dass dieses Video keine representative Gameszene darstellt, ist jedem klar - behaupte ich jetzt mal. :rolleyes:

Ich weiss nicht zum wievielten mal ich schreibe: "Aber darum geht es in den Videos/Artikel nicht!" Die Videos zeigen einzig und alleine den kaputten AF der G70 im Vergleich zu der X800, FX, 6800. Und genau dieser kaputte AF mag jedem GTX-Nutzer mehr oder weniger im Alltag bemerkbar sein. Er stellt aber eine inakzeptable Schwäche des G70 dar. Und diese Schwäche wird in Zukunft an Bedeutung gewinnen wenn die fps sinken.

tombman
2005-08-15, 16:07:42
Er stellt aber eine inakzeptable Schwäche des G70 dar. .

Was inakzeptabel ist bestimmst nicht du für alle!

In dem Ausmaß wie es derzeit ist, ist es zb für mich durchaus akzeptabel, wenn ich dafür all die anderen guten Sachen der 7800GTX bekomme.

Gast
2005-08-15, 16:09:01
Respekt an aths. Guter prägnanter Artikel, der es auf den Punkt bringt ohne wenn und aber.

Für mich war das Flimmern meiner ersten 6800GT ein Grund auf meine jetzige X800Pro zu wechseln. Schön, dass das Problem jetzt mal ernst genommen wird, auch wenn dafür scheinbar erst der Holzhammer im Form einer übelst flimmernden 7800GTX notwendig war.

Dito... Ich hatte auch eine 6800GT vor ca. 1 Jahr für 500€... Nach ca. 2 Stunden (auch unter HighQuality(!)) habe ich die Karte wieder ausgebaut...
Ich hatte dann damals gleich zu der X800 XT-PE gegriffen, welche dieses Flimmergeschichte nicht hatte...

Damals habe ich auch hier wie doof gepostet und immer nur eines auf den Deckel dafür bekommen (Hallo "Blaire!"). Anscheinend war meine Meinung, bzw. meine Wahrnehmung doch nicht so schlecht...

Zumindest frage ich mich, wie schlecht eine 7800'er filtern muss, wenn ich schon nach einigen Stunden eine 6800'er nicht mehr ertragen habe...

Marc-
2005-08-15, 16:12:39
[ ] du hast verstanden, daß fraps Videos keine Aussage bzgl real life AF Qualität haben, zumindest bei der 7800GTX. Ich kann daher auch nix uploaden.

Man müßte direkt den Bildschirm mit einer Videokamera abfilmen, aber ob da dann die Qualität paßt ist mehr als fraglich.

Der Tendenz, daß FX und ATI ein bischen schöner AF Filtern hab ich ja nicht widersprochen, sofern du das gemerkt hast (:rolleyes: ), sondern nur gesagt, daß man die fraps Videos der 7800GTX Reihe nicht so erstnehmen soll, da die reallife Qualität viel höher liegt. .

Ach tombman. bitte schwall doch net ständig den gleichen blub.
Da gibts nix zu verstehen, du behauptest einfach was während andere wenigstens vergleiche nachvollziehbar bringen.
Warum, wenn fraps so verzerren wuerde ist das flimmern dann bei der ati nicht da?
Zumal... ich kann deinen qualitätsverlust mit fraps in der auflösung nicht reproduzieren. Hab zwar nur in simplen Samsung spinpoint sata raid 0 momentan, aber framedrops oder verluste hab ich mit fraps net.

[ Ich kann diese Aussage aber derzeit nur für die 7800GTX machen, da ich derzeit keine anderen Karten da habe. Es kann durchaus sein, daß in realife auch die anderen Karten bessere AF Qualität als auf den fraps vids zu sehen ist bieten, aber das mögen dann andere überprüfen, die die hard- und software dazu haben. Ich habe nur für die 7800GTX gesprochen, und mit Ulukay sind es immerhin schon zwei erfahrene user hinter der Aussage.

Erfahren? naja vielleicht, kann ich net beurteilen. Unvoreingenommen? Ganz sicher wohl net.


Meld dich bitte wieder, wenn du deinen behauptungen wie andere hier videos unter gleichen vorraussetzungen von den genannten 3-4 karten liefern kannst. Ansonsten kann ich nur noch sagen das du den mund wohl etwas voll genommen hast wenn ich deinen letzten post zitieren darf:
" also von Nutzern die alle Vorraussetzungen haben alles selbst zu testen, ganz im Gegensatz zu anderen usern/reviewern hier "
das "ALLE" ist in diesem falle wohl sehr beschränkt.
Ich finds daneben wie du andere niedermachst die sich wirklich die mühe gemacht haben schwächen aufzudecken und zu belegen, und du sie versuchst zu diffamieren mit reinen behauptungen und ihnen letztendlich jede kompetenz absprichst. Obwohl die ihre kompetenz wohl scho weitaus öfter !fachlich! nachgewiesen haben als du.

ShadowXX
2005-08-15, 16:17:20
Die Videos sind verlustfreie Aufnahmen eines G70.
Ich wüsste nicht, warum diese anders aussehen sollten, als wenn ich es selber in Echtzeit spielen würde. Natürlich dürfte es sich hierbei um Extremsituationen handeln, welche man so nur äußerst selten sieht.


Wir reden hier im Kreis...du kannst uns entweder glauben, das es ingame nicht so extrem ist oder es nicht glauben. Mir persönlich ist das relativ egal.

Ich werde heute Abend auch mal mit HyperCam rumspielen und mal gucken, ob das die Qualität weniger verfälscht.

Aber natürlich habt Ihr recht, das die Grundbedingungen für alle Karte die selben waren, als die Aufnahmen gemacht wurden (Fraps eben).
Aber wir hatten uns ja schon daruf geeinigt, das das AF des G70 nicht das gelbe vom Ei ist.....


Das glaube ich dir gerne. - Mir geht es ehrlich gesagt auch nicht unbedingt darum, zu beurteilen, wie gut oder schlecht der Filter des G70 nun wirklich ist, sondern darum, den Trend, dass bei jeder neuen Generation die Bildqualität reduziert wird, zu stoppen. Denn wenn ich mir ansehe, welche BQ meine inzwischen schon fast antike Geforce 3 damals bot, und welche BQ man heute angeboten bekommt, dann könnte ich gelinde gesagt kotzen.


Zustimmung.....wobei ich allerdings anmerken muss, das ich nicht so der AF-Mensch bin (deshlab meine subjektive Meinung durchaus von anderen Meinungen, was das AF betrifft abweichen können).

Ich bin bei AF nicht sooo empfindlich.....Bei AA dagegegen sehe ich auch noch bei einem 1600x1200 Bild sofort ob AA an ist.


OT:
Du spielst mit SSAA plus TSAA?
Sinn?


Bei 16xS natürlich nicht, aber bei 8xS kann es durchaus noch allerhand bringen (da dann ja 4xRGSSAA auf die Alphakanten angewandt wird und nicht nur 1x2 OGSSAA).
Am deutlichsten sieht man das bei HL2-Zäunen...mit 8xS ist "ganz nett". Mit 8xS + TSAA sehen die Zäune genial aus (IMO sogar besser "nur" als 16xS).

Wenn ich Zeit habe mache ich mal Pics.


Sehe ich nicht so. Immerhin bekommt der Spieler auch keine bessere Qualität geboten - man kann dadurch natürlich keine Rückschlüsse auf andere Anwendungen schließen, bei welchen die Schalter ev. so funktionieren, wie angegeben, aber explizit für diese Art von Spielen sind die gezeigten Videos nun mal Realität. Im übrigen ist nV selbst schuld, wenn dies doch jemand tut, nach all' den Ungereimtheiten, welche in letzter Zeit aufgetreten sind. Das beginnt bei nicht funktionierenden Schaltern, geht über sich selbst einschaltende-, sowie App.-spezifische "Optimierungen", und hört beim G70 auf - welcher dem ganzen die Krone aufsetzt.


Ist ja auch nur meine persönliche Meinung, die nicht von jedem geteilt werden muss.


Und wenn die Qualität noch weiter, kaum sichtbar reduziert wird?
Dann wird die Schmerzgrenze bei den meisten eben um ein paar Millimeter nach unten gerückt. Und genau das ist das Problem.

Unter die AF Qualität der GTX würde ich nicht mehr Freiwillig gehen...wie ich schon erwähnte ist selbst bei mir dort schluss.

Anders gesagt: Nächstes mal werde ich die Karte (egal welcher Hersteller) nicht direkt beim Launch kaufen, sondern erstmal abwarten, was über die AF-Quali geschrieben wird.

Mal sehen was der r580 bringen wird, der r520 wird sich sehr wahrscheinlich für mich kaum lohnen (selbst wenn er minimal schneller sein sollte, hat er wohl kein TSAA bzw. SSAA-Modi, was für mich sehr wichtig ist.)

tombman
2005-08-15, 16:26:34
[blub flames entfernt]

...du kannst uns entweder glauben, das es ingame nicht so extrem ist oder es nicht glauben. Mir persönlich ist das relativ egal.

Mehr is auch ned zu sagen.

p.s: bin gerade draufgekommen, daß ich sogar 60fps capturen kann auf 1024x768 in fraps .. goil :D

Mr. Lolman
2005-08-15, 16:33:26
Wow ein Video mit 60fps würd ich gern mal sehen, willst du das nicht irgendwo hochladen? :)

Knötchen
2005-08-15, 16:34:21
Was inakzeptabel ist bestimmst nicht du für alle!

In dem Ausmaß wie es derzeit ist, ist es zb für mich durchaus akzeptabel, wenn ich dafür all die anderen guten Sachen der 7800GTX bekomme.
ACK, der G70 hat zZ. ein paar einzigartige Features, das bestreite ich nicht.

korrigiere mich:
Er stellt aber imo eine inakzeptable Schwäche des G70 dar.

Wenn ich über die immer weiter sinkende Bildqualität nachdenke, wundert es mich, dass du den kaputten anisotropen Filter des G70 als akzeptable Schwäche bewertest, zumal diese Schwäche völlig unnötig wäre bei der Rohpower, die der Chip anzubieten hat. Und das nur für die Länge der Schwanzmarkbalken.

Aber was viel schlimmer ist: der G70-Besitzer darf noch nicht einmal entscheiden, ob er die brachliegende Power des G70 teilweise für einen korrekten AF investiert, die dafür ggf. angebotenen Treiberoptionen entpuppen sich als reiner Placebo, aus Angst vor Reviewer die auf die Idee kommen könnten, den G70 mit ähnlich (guter) BQ zu testen wie zB. eine X850XT-PE.

Hätte ich eine GTX, wäre mir das mit deinen ingame-Erfahrungen während des Zockens womöglich genauso egal, weil nicht deutlich sichtbar. Worüber ich mich aber schwarzärgern würde ist, dass Nvidia mich als User immerwieder veralbert und dieses Veralbern immer dramatischere Auswüchse annimmt. Dafür habe ich absolut kein Verständnis.

derominöseGast
2005-08-15, 16:38:32
Und wieder ein Kandidat, der mir erklären möchte, warum fraps in die GTX Videos ein zusätzlichen Flimmereffekt addiert, die Videos von der X800 oder gerade der FX nicht flimmern.

Ausserdem sprichst du damit triolet jegliche Kompetenz ab. Das schreit geradezu nach Beweisen.

was soll das? hast du fraps geprogt und weisst wie es funktioniert bzw. wie codec mit hz und fps und af zusammenspielt? es soll doch bitte mal einer mit einer 6800GT oder ultra die szene von meinem video mit fraps aufnehmen...

sieh dir doch den HL2 Menü screen nochmal an den ich gemacht habe... fraps ist ein komisches tool oder wie erklärst du dir die extreme unschärfe und das fehlen von AA auf dem screen im gegensatz zum ingame screen den ich auch noch gepostet habe? brauchst du noch mehr beweise? dann komm in die schweiz nach luzern und ich zeige dir gerne wie es aussieht! wir können mit fraps nicht zeigen das die GTX viel weniger flimmert weil ja eben gerade fraps extrem flimmert! warum die X800, die FX oder die 6800ultra nicht flimmert ist die frage die keiner beantworten kann der nicht fraps geprogt hat.

WIR haben die hardware, IHR nicht und ihr unterstellt uns das wir was erfinden?

tombman
2005-08-15, 16:41:21
Hätte ich eine GTX, wäre mir das mit deinen ingame-Erfahrungen während des Zockens womöglich genauso egal, weil nicht deutlich sichtbar. Worüber ich mich aber schwarzärgern würde ist, dass Nvidia mich als User immerwieder veralbert und dieses Veralbern immer dramatischere Auswüchse annimmt. Dafür habe ich absolut kein Verständnis.


Jo, die Tendenz zu immer mehr Kundenverarsche geht mir auch am Zeiger- bin gespannt was ATI mit dem R520 macht ;D

Ich muß dazu sagen, daß seit die ganze AF Optimierungsscheiße angefangen hat, ist eigentlich kein AF mehr so schön wie früher mit gf3/gf4. GF3/GF4 waren eigentlich die letzten Karten (FX hatte ich nie, kann aber auch die letzte gewesen sein) wo AF noch so aussah wie es aussehen sollte, danach wurde es immer schlimmer.

Ich würde noch wichtig finden, den Artikel dringend in ENGLISCH zu verfassen, damit die ganze Welt davon mirkriegt! Außerdem gehört da ein Hinweis mit dazu, daß in-game allein schon durch die höhere FPS Werte (darauf kann man sich glaub ich einigen) nicht so sehr flimmert wie 30fps Videos- ich weiß aber ned ob ATHS sich das traut.

derominöseGast
2005-08-15, 16:42:35
Wow ein Video mit 60fps würd ich gern mal sehen, willst du das nicht irgendwo hochladen? :)

um noch mehr falsches futter den trollen hinzuwerfen? ich glaube das lässt er lieber... kannst dafür ja nochmal mein movie von HL2 ansehen...

Wir GTX Besitzer sagen nicht das AF sei wunderbar... das AF ist shice im Vergleich zu den alten GF's. Aber das AF der GTX ist auf der Höhe der 6800Ultra mit HQ und mit TSAA ist der IQ Eindruck sogar besser als bei einer 6800Ultra. Es geht uns rein darum das das HQ Video der GTX total nicht der Realität entspricht!

hier nochmal mein fraps video von HL2 mit 4TSAA und 8AF bei 1024x768... hat wirklich jemand das gefühl ich würde so spielen? dann könnte ich die teure hardware wegwerfen und auf HL2 für die Xbox warten...
http://rapidshare.de/files/3973061/...-52-18.avi.html

edit: ist rapidshare nur 24h möglich? mein file ist nicht mehr drauf...

tombman
2005-08-15, 16:44:39
Wow ein Video mit 60fps würd ich gern mal sehen, willst du das nicht irgendwo hochladen? :)

Du, da bin ich ein paar Sekunden drinn und hab sofort 200mb Video ;D
Würde erst mit anschließendem divx kodieren praktisch gehen, aber dann kann man ja wiederrum alle Qualitätsvergleiche vergessen durch die Kompression -> wäre also nur mehr geeignet um sich an 60fps aufzugeílen, was vielleicht auch ned so übel wäre ;D

Grestorn
2005-08-15, 16:58:56
Wäre schön, wenn sich mehr Besitzer eines G70 mal melden würden. Dunkeltier hat seine ruckzuck wieder abgestoßen, habe ich gehört. HOT fummelt auch an seiner rum und sucht nach nem Wundertreiber ohne Griesel.......
Ich hab mich aus der Diskussion bisher rausgehalten, da sie mir mit zu viel Emotion geführt wird und insbesondere von der ATI-Fraktion mit Genuss ausgeschlachtet wird.

Dazu kommt, dass ich ebenfalls der Meinung bin, dass der Schaden an der Qualität zu hoch ist. Zumindest unter HQ sollte man nichts mehr davon sehen können. In so fern unterstütze ich aths ausdrücklich.

Andererseits sehe ich das ganze bei weitem nicht so dramatisch wie einige hier. In der Praxis fällt das Grieseln/Flimmern unter HQ deutlich weniger stark auf, als viele andere Artefakte an deren Existenz man sich inzwischen gewöhnt hat.

In den meisten Spielen, die ich derzeit spiele, sieht man es in den meisten Situationen überhaupt nicht. Dazu zählen u.a. : SplinterCell:CT, FarCry, Gothic 2, KotoR2, FEAR Demo. Vergleichsweise deutlich fällt es z.B. in BF2 auf, aber nur bei bestimmten Bodentexturen.

Also: Gut dass aths und 3DC das anspricht. Das ganze MUSS abschaltbar sein.

Aber: Kein Grund den G70 in der Luft zu zerreissen und vom Kauf zurückzuschrecken, wenn man eine möglichst leistungsfähige Karte haben will.

Knötchen
2005-08-15, 17:12:31
[...]hier nochmal mein fraps video von HL2 mit 4TSAA und 8AF bei 1024x768... hat wirklich jemand das gefühl ich würde so spielen? dann könnte ich die teure hardware wegwerfen und auf HL2 für die Xbox warten...
http://rapidshare.de/files/3973061/...-52-18.avi.html

edit: ist rapidshare nur 24h möglich? mein file ist nicht mehr drauf...
Zitat aus der Rapidshare-FAQ:
[...] Welche UPLOAD-REGELN sind zu befolgen?
- Keine Dateien, die nicht zum Verteilen freigegeben sind. (Illegal, pornographisch, geschützte Werke etc.)
- Anzahl Downloads: Egal. Manche Dateien werden über 100.000 mal runtergeladen. [...] Kann ich meine Dateien auch wieder löschen?
- Aber sicher. Nach dem Raufladen bekommst du nämlich zwei Links. Einen Download-Link, den du jedem weitergeben kannst und einen Lösch-Link, den du bitte aufbewahrst. Ein Klick auf den Lösch-Link und die Datei ist sofort gelöscht. Wenn du nach dem Upload deine E-Mail Adresse angibst, schicken wir dir den Lösch-Link auch gerne automatisch zu. [...] Wie lange werden die Dateien gehostet?
-Wir hosten die Dateien ohne Zeitlimit. Allerdings müssen auch wir ab und zu mal aufrämen. Daher werden Dateien, die länger als 30 Tage lang nicht runtergeladen wurden, automatisch gelöscht.

MadManniMan
2005-08-15, 17:14:00
Hi grestorn, prinzipiell ein wirkliches Ack, geht es doch schließlich nicht punktgenau um ein tatsächlich empirisch darzulegendes, oder überhaupt darlegbares Urteil, sondern ums Prinzip :up:

Ich hab mich aus der Diskussion bisher rausgehalten, da sie mir mit zu viel Emotion geführt wird und insbesondere von der ATI-Fraktion mit Genuss ausgeschlachtet wird.

...hierbei würde mich jedoch brennend interessieren, wen du zu den einzelnen Fraktionen zählst! Ich spreche erstmal nur für mich, aber ich muß sagen, daß ja fast schon selbst von mir beeindruckt bin, wie kackegal mir inzwischen geworden ist, welche Firma hinter dem jeweiligen Chip steckt.

Knötchen
2005-08-15, 17:23:45
was soll das? hast du fraps geprogt und weisst wie es funktioniert bzw. wie codec mit hz und fps und af zusammenspielt? es soll doch bitte mal einer mit einer 6800GT oder ultra die szene von meinem video mit fraps aufnehmen...
Sry, ich habe wohl gestern deinen Link in der Diskussion übersehen. Leider scheint die *.avi nicht mehr verfügbar zu sein. Lade sie doch nochmal hoch.

Ich habe eine 6800GT, leider kann ich nicht mit HL2 dienen, Könnte aber mit G2, MW (stark CPU-limitiert, was auf meinem Rechner teilweise frames unter 20 ergibt), oder mit FC, PoP3 und PoP4 dienen. Der Rest sind OGL-Titel, die wohl eher ausscheiden.

Edit: ------------------------------
Mir fällt gerade ein, dass ich doch SC1 und 2 vor kurzem auf ebay erstanden habe. Wobei das wohl auch nur eingeschränkt Sinn macht, da diese Games nicht mit AA laufen und wenn ich dich richtig verstehe, kommt es dir ua. darauf an zu beweisen, dass fraps das AA nicht captured, sonder trotz aktiviertem AA ohne AA aufnimmt.

also bei standbildern ist kein unterschied zu sehen.

was mir auffällt: das TSAA ist auf movies nicht zu sehen! es sieht aus als ob ich ohne AA spiele!

hier ein screenshot ingame: http://rapidshare.de/files/3972792/HL2TSAA1600.jpg.html

hier einer im selben menü aus fraps:
http://rapidshare.de/files/3972867/HL2TSAA1600fraps.jpg.html

seht auch die bäume, die gräser an... kein TSAA zu sehen und dazu stimmt auch die grösse nicht obwohl ich 1600er fullscreen mit fraps machte...
------------------------------------

übersehen warum die X800, die FX oder die 6800ultra nicht flimmert ist die frage die keiner beantworten kann der nicht fraps geprogt hat.
Ja, ein Mysterium. Aber ich persönlich würde schon sagen, dass die 6800 auf den Videos zum Flimmern neigt, evtl. nicht ganz so stark wie die GTX, aber sicher stärker als die FX oder die X800.
WIR haben die hardware, IHR nicht und ihr unterstellt uns das wir was erfinden?
Ich unterstelle in dieser Diskussion niemandem etwas, zumindest nicht im geschriebenem Wort.

eXodia
2005-08-15, 17:24:55
Ich hab mich aus der Diskussion bisher rausgehalten, da sie mir mit zu viel Emotion geführt wird und insbesondere von der ATI-Fraktion mit Genuss ausgeschlachtet wird.

Dazu kommt, dass ich ebenfalls der Meinung bin, dass der Schaden an der Qualität zu hoch ist. Zumindest unter HQ sollte man nichts mehr davon sehen können. In so fern unterstütze ich aths ausdrücklich.

Andererseits sehe ich das ganze bei weitem nicht so dramatisch wie einige hier. In der Praxis fällt das Grieseln/Flimmern unter HQ deutlich weniger stark auf, als viele andere Artefakte an deren Existenz man sich inzwischen gewöhnt hat.

In den meisten Spielen, die ich derzeit spiele, sieht man es in den meisten Situationen überhaupt nicht. Dazu zählen u.a. : SplinterCell:CT, FarCry, Gothic 2, KotoR2, FEAR Demo. Vergleichsweise deutlich fällt es z.B. in BF2 auf, aber nur bei bestimmten Bodentexturen.

Also: Gut dass aths und 3DC das anspricht. Das ganze MUSS abschaltbar sein.

Aber: Kein Grund den G70 in der Luft zu zerreissen und vom Kauf zurückzuschrecken, wenn man eine möglichst leistungsfähige Karte haben will.

Ein 100%iges ACK :up:

GrUß

Blaire
2005-08-15, 17:26:02
Ich hab mich aus der Diskussion bisher rausgehalten, da sie mir mit zu viel Emotion geführt wird und insbesondere von der ATI-Fraktion mit Genuss ausgeschlachtet wird.

Dazu kommt, dass ich ebenfalls der Meinung bin, dass der Schaden an der Qualität zu hoch ist. Zumindest unter HQ sollte man nichts mehr davon sehen können. In so fern unterstütze ich aths ausdrücklich.

Andererseits sehe ich das ganze bei weitem nicht so dramatisch wie einige hier. In der Praxis fällt das Grieseln/Flimmern unter HQ deutlich weniger stark auf, als viele andere Artefakte an deren Existenz man sich inzwischen gewöhnt hat.

In den meisten Spielen, die ich derzeit spiele, sieht man es in den meisten Situationen überhaupt nicht. Dazu zählen u.a. : SplinterCell:CT, FarCry, Gothic 2, KotoR2, FEAR Demo. Vergleichsweise deutlich fällt es z.B. in BF2 auf, aber nur bei bestimmten Bodentexturen.

Also: Gut dass aths und 3DC das anspricht. Das ganze MUSS abschaltbar sein.

Aber: Kein Grund den G70 in der Luft zu zerreissen und vom Kauf zurückzuschrecken, wenn man eine möglichst leistungsfähige Karte haben will.

Super auf den Punkt gebracht. 100% Zustimmung

derominöseGast
2005-08-15, 17:26:08
[QUOTE=MadManniMan]Hi grestorn, prinzipiell ein wirkliches Ack, geht es doch schließlich nicht punktgenau um ein tatsächlich empirisch darzulegendes, oder überhaupt darlegbares Urteil, sondern ums Prinzip :up:

[QUOTE]

wenn dem so ist möchte ich den bericht zum 6800ultra flimmern sehen von 3DC. dieses problem besteht seit gut 15monaten und nicht erst seit der gtx... es geht eben ums prinzip und deshalb soll man die GTX nicht als die flimmerkiste hinstellen weil alles seit GF6 bei NV die Tendenz hat zu flimmern.

Grestorn
2005-08-15, 17:31:59
...hierbei würde mich jedoch brennend interessieren, wen du zu den einzelnen Fraktionen zählst! Ich spreche erstmal nur für mich, aber ich muß sagen, daß ja fast schon selbst von mir beeindruckt bin, wie kackegal mir inzwischen geworden ist, welche Firma hinter dem jeweiligen Chip steckt.Du bist eher durch ausgeglichene Beiträge aufgefallen. Zur ATI-Fraktion zähle ich z.B. Marc-, Lolman, Knötchen und reunion (wobei einige übrigens inzwischen nV Hardware im Rechner haben aber wohl ihren alten ATI Karten nachtrauern).

Es ist keinem gedient immer und immer wieder zu behaupten, die Qualität einer G70 wäre inakzeptabel, insbesondere wenn man sie selbst nie gesehen hat. Wer das tut gehört für mich in die o.g. Gruppe.

Mit dem Moiré-Monster kriegt man jede Karte zum Flimmern. Wie sehr eine Karte zum Flimmern neigt, ist durchaus ein wichtiges Qualitätsmerkmal. Die G70 ist bei diesem Merkmal der NV40 und der R420 unterlegen.

Das ist unnötig und einem High-End Chip nicht würdig. Also muss die Kundschaft auf nVidia Druck ausüben, damit das beim nächsten Treiber oder spätestens dem nächsten Chip behoben ist.

Inakzeptabel ist aber anders. Mir persönlich ist die höhe Geschwindigkeit bei höchster Qualität (minus Grieseln) und die optimale Ausnutzung aller Features moderner Spiele deutlich wichtiger als eben ein Grieseln, was ich bestenfalls in einigen ganz speziellen, seltenen Situationen überhaupt sehen kann.

MadManniMan
2005-08-15, 17:32:33
wenn dem so ist möchte ich den bericht zum 6800ultra flimmern sehen von 3DC. dieses problem besteht seit gut 15monaten und nicht erst seit der gtx... es geht eben ums prinzip und deshalb soll man die GTX nicht als die flimmerkiste hinstellen weil alles seit GF6 bei NV die Tendenz hat zu flimmern.

Da hast du natürlich Recht, denn hätte ich persönlich im Vorfeld um die Flimmeranfällgkeit der NV4X-Familie gewußt, hätte ich eventuell den Kauf eines anderen Notebooks, in diesem Fall dann mit einem mobilen X700 oder X800 in Betracht gezogen, da mich schon das minimale Grieseln meines NV43M aufregt.

Aber eigentlich hast du den Artikel ja vor dir, zeigt er doch auch die Schwäche des NV40 - nur leider viel zu spät.

Man kann allerdings die Zeitschraube nicht zurückdrehen, somit ist es müßig darüber zu diskutieren, was falsch gemacht wurde, außer man möchte mit der Erkenntnis aus dieser Rakapitulation erheben, wie man jetzt und zukünftig besser handeln kann.


Nebenbei: schaut man in den ersten Post dieses Threads - es ist unglaublich, welche Resonanz der Artikel erfährt! Dies SCHREIT nach einer Übersetzung!

MadManniMan
2005-08-15, 17:37:22
Inakzeptabel ist aber anders. Mir persönlich ist die höhe Geschwindigkeit bei höchster Qualität (minus Grieseln) und die optimale Ausnutzung aller Features moderner Spiele deutlich wichtiger als eben ein Grieseln, was ich bestenfalls in einigen ganz speziellen, seltenen Situationen überhaupt sehen kann.

Problematisch ist in diesem Zusammenhang die Frage, wie man als Journalist bestmöglich mit der Situation umgehen soll.
Einen "subjektiven Standard" gibt es nicht, dennoch wurden von diversen "Fachmagazinen" schon längt Notensysteme für mancherlei Eigenheiten entwickelt. Bis man irgend schlüssig auf einen gemeinsamen Nenner bezogen auf die Bewertung dieser unbestreitbaren Schwäche gekommen ist, bleibt die normale Aufklärung in Form von Denkanstößen die zentrale Aufgabe der zuerst darüber Berichtenden.

Die Resonanz auf diesen Artikel zeigt, wie bewegend das Thema doch ist. Nachfolgende Artikel, die sich GPU-vergleichend aufbauen, sollten versuchen, einen Bewertungsmaßstab anzulegen.

Gast
2005-08-15, 17:48:19
Ulukay hatte damit Recht, daß fraps NICHT die AF-Qualität widerspiegelt die man mit einer 7800GTX in der Praxis zu erwarten hat !!!
Sag mal... :wink: Darüber waren wir uns gestern schon gegen 19uhr im Klaren (?) Die Frage wäre noch, wie viel besser AF bei ATI momentan ist, denn bei den ATI Grakas oder auch bei 6800HQ schafft FRAPS diese Effekte irgendwie nicht so zu "potenzieren". Das klappt irgendwie nur bei der GTX. Der Artikel wirft die richtigen Fragen auf. Es kein AntiGTX Artikel. Auch wenn Du eine GTX hast und Dich total genatzt fühlst...

Gast
2005-08-15, 17:49:00
Hallo

Ich wollte mir auch eine 7800GTX zulegen,aber der Artikel hat mich ein wenig
verunsichert.
Die Karte hat ja im gegensatz zu den Ati Grafikboards sehr viele bessere
Features,aber wenn die so stark flimmert bringen die einem woll auch nicht
viel oder ?

Und was mich noch wundert,ich habe fast 20 Testberichte zur 7800GTX
gelesen,überall hieß es schnellste Karte und Beste Bildqualität,wieso ist da
keinem aufgefallen,das die Bildquali doch nicht so super ist,es hätten doch ein paar mehr Tester das bemerken sollen,und das bemängeln sollen!

Meine Frage nun, ist das mit einem besseren Treiber zu beheben,oder liegt
es allgemein an der Hardware und es besteht keine möglichkeit es zu
ändern,ich frage mich wieso noch keine Hardwareseite bei Nvidia nachgefragt hat,um das endlich zu klären.

MFG
Frank

Knötchen
2005-08-15, 17:53:53
[...] Zur ATI-Fraktion zähle ich z.B. [...] Knötchen [...]
Diese Vereinfachung sei dir verziehen.

MadManniMan
2005-08-15, 17:56:47
Meine Frage nun, ist das mit einem besseren Treiber zu beheben,oder liegt
es allgemein an der Hardware und es besteht keine möglichkeit es zu
ändern,ich frage mich wieso noch keine Hardwareseite bei Nvidia nachgefragt hat,um das endlich zu klären.

MFG
Frank

Hi Frank!

Ich versuche es kurz zu machen: ob es an der Hardware, oder aber an den Treibern liegt, ist derzeit noch unklar.
Ich weiß aus sicheren Quellen, daß heftiger Diskurs zwischen nVidia und einigen Insidern besteht, nun wird dieser z.B. durch diesen Artikel seitens 3DCenter auch endlich öffentlich gemacht.

Wenn du über eine Anschaffung nachdenkst, würde ich gerade jetzt im Moment noch stillhalten. Der Launch der neuen ATis steht kurz bevor - und vielleicht zeigt sich jetzt bald auch, woran die Grieselanfälligkeit des G70 liegt.

MFG, Manni

Grestorn
2005-08-15, 18:04:08
Diese Vereinfachung sei dir verziehen.
phew... :wink:

Mr. Lolman
2005-08-15, 18:04:22
Du bist eher durch ausgeglichene Beiträge aufgefallen. Zur ATI-Fraktion zähle ich z.B. Marc-, Lolman, Knötchen und reunion (wobei einige übrigens inzwischen nV Hardware im Rechner haben aber wohl ihren alten ATI Karten nachtrauern).

Wieso mich?
:frown:

Nur, weil ich feststellen musste das alles unter HQ auf meinem TFT mehr flimmert als ATi default?

Ich geb zu, dass ich früher in manchen Dingen ein bisschen fanatischer war. Als TFT User hat man halt das Problem dass man an ner fixen Ausflösung hängt (bei mir 1280). Wenn bei der Radeon irgendwo 4xAA/8x Performance AF flüssig war. Dann erwarte ich, dass bei der GF 8xS mit genauso gut aussehendem AA flüssig ist. Das ist aber nicht der Fall. Denn selbst Spiele die mit 6xAA flüssig spielbar sind (z.B. Flatout) laufen mit 8xS nicht zufriedenstellend. Das heisst ich kann mich mit 4xAA/Hq begüngen wo vorher 6xAA flüssig war.

Oder Ut2004: Mit 4xAA/16xHQ ists gerademal so flott wie auf der 9700p mit 4xAA/8x Performance AF. Andererseits sieht HDR bei Farcry richtig konfiguriert echt toll aus, aber sonst kann ich bisher keinen Vorteil der SM3 Fähigkeit meiner HW erkennen. Und niemand kann, dass sagen ich wusste was ich kauf, den Treiberdefault wurde mir immer als vergleichbar verkauft, und genau danach sind die meisten Benchmarks entstanden.

Oder inwiefern bin ich z.B. Pro-ATi, wenn ich schreib, dass die 7800GTX eine so gute Karte ist, dass sie auch ohne AF Pfusch sicher genügend Käufer finden würde (oder sogar mehr, wenn die Sache mit der "Filter-Problematik" noch größerer Wogen schlägt)

Gast
2005-08-15, 18:05:16
Hi Frank!

Ich versuche es kurz zu machen: ob es an der Hardware, oder aber an den Treibern liegt, ist derzeit noch unklar.
Ich weiß aus sicheren Quellen, daß heftiger Diskurs zwischen nVidia und einigen Insidern besteht, nun wird dieser z.B. durch diesen Artikel seitens 3DCenter auch endlich öffentlich gemacht.

Wenn du über eine Anschaffung nachdenkst, würde ich gerade jetzt im Moment noch stillhalten. Der Launch der neuen ATis steht kurz bevor - und vielleicht zeigt sich jetzt bald auch, woran die Grieselanfälligkeit des G70 liegt.

MFG, Manni


Ok

Vielen Dank für die schnelle Antwort

MFG
Frank

Knötchen
2005-08-15, 18:05:28
Hallo

Ich wollte mir auch eine 7800GTX zulegen,aber der Artikel hat mich ein wenig
verunsichert.
Die Karte hat ja im gegensatz zu den Ati Grafikboards sehr viele bessere
Features,aber wenn die so stark flimmert bringen die einem woll auch nicht
viel oder ?
Diese Entscheidung kann dir niemand abnehmen. Informiere dich am besten und entscheide selbst.

Und was mich noch wundert,ich habe fast 20 Testberichte zur 7800GTX
gelesen,überall hieß es schnellste Karte und Beste Bildqualität,wieso ist da
keinem aufgefallen,das die Bildquali doch nicht so super ist,es hätten doch ein paar mehr Tester das bemerken sollen,und das bemängeln sollen! Die Praxis sieht so aus, dass in 95% aller Fälle Reviewer die Karte gerade einmal lange genug in Händen halten um, die nötigsten Benchmarks durchlaufen zu lassen, bevor ihnen die Karte wieder buchstäblich aus den Händen gerissen wird. Hier (http://www.forum-hardtecs4u.com/yabbse/index.php?board=8;action=display;threadid=34530) ein Extrembeispiel: ATI lädt Hardwareredaktionen nach München in der die Tester zwei oder drei Stunden Zeit hatten, die neue Hardware an Ort und Stelle zu testen.
Meine Frage nun, ist das mit einem besseren Treiber zu beheben,oder liegt
es allgemein an der Hardware und es besteht keine möglichkeit es zu
ändern,ich frage mich wieso noch keine Hardwareseite bei Nvidia nachgefragt hat,um das endlich zu klären.

MFG
Frank
Das werden sicher einige Leute bei Nvidia beantworten können, aber das werden sie kaum wollen, vermute ich.

Grestorn
2005-08-15, 18:15:05
Wieso mich?
:frown:
Note to self: Niemals bestimmte Personen aus einer Menge herauspicken und abkanzeln.

Sorry. Kommt nicht wieder vor.

Ich frage mich nur, wie ein solcher Monsterthread zu diesem Thema entstehen kann... und es ist ja beleibe nicht der erste (ich sage nur: der "NV betrügt"-Thread...).

Und mit wenigen Ausnahmen (Dunkeltier) sind die 7800er Anwender immer auf der Seite der Verteidiger...

eXodia
2005-08-15, 18:16:00
Andererseits sieht HDR bei Farcry richtig konfiguriert echt toll aus, aber sonst kann ich bisher keinen Vorteil der SM3 Fähigkeit

Naja HDR hat ja mit PS3 nix zu tun da du HDR zumindest theoretisch auch auf ner X800 laufen lassen könntest.
IMO ist der größte Vorteil der ps3-HW der Geschwindigkeitsvorteil.

GrUß

Mr. Lolman
2005-08-15, 18:19:25
NV kann beim G70 Optimierungsmodi anbieten wie sie wollen solang die Optimierungen transparent sind (nicht dass sich die TS Optmierungen plötzlich einschaltet wenn man AA/AF einstellt, oder sich manche Optimierungen selbst mit HQ nicht abschalten lassen) und NV die Reviewguides abändert.

Denn NV lügt mit ihren Guides die Reviewer an. Und der Reviewer gibt die Lüge an den Kunden weiter. Denn da es keine Norm für zu bietenden BQ gibt, muss man sich die Norm schaffen. Warum ich von NV verlange, dass sie mit Ati vergleichbare BQ anbieten, ist einfach weil die ATi BQ besser ist als NV default, und weil NV ihr Controlpanel schon dahingehend aufgebaut hat, dass man mit div. Einstellungen ca. ATi BQ erreichen kann.

Anderseits könnt ich ja von ATi wünschen, dass sie in ihrem Controlpanel eine "Reviewmode-Checkbox" anbieten, der die ATi BQ auf NV Niveau absenkt. Auf jeden Fall war es Zeit dass man das Problem publik macht, denn bekannt ists sicher schon über 1 Jahr...


Und wer jetzt wieder damit kommt. dass zu NV30 Zeiten das AF auch schon nicht verlgleichbar war, so hat man ATi immer mit 16x gebencht wo NV nur 8xAF filtern musste. Iirc gabs auch einige Reviews wo bei NV nur 4xAF verwendet wurde. Imo durchaus fair und damals die einzige Möglichkeit für ca. vglbare BQ zu sorgen.

derominöseGast
2005-08-15, 18:21:51
[QUOTE=Knötchen] Die Praxis sieht so aus, dass in 95% aller Fälle Reviewer die Karte gerade einmal lange genug in Händen halten um, die nötigsten Benchmarks durchlaufen zu lassen, bevor ihnen die Karte wieder buchstäblich aus den Händen gerissen wird. Hier (http://www.forum-hardtecs4u.com/yabbse/index.php?board=8;action=display;threadid=34530) ein Extrembeispiel: ATI lädt Hardwareredaktionen nach München in der die Tester zwei oder drei Stunden Zeit hatten, die neue Hardware an Ort und Stelle zu testen.[QUOTE]

mag durchaus sein... wenn die GTX aber so flimmern würde (alltäglich und in den spielen) wie 3DC es darstellt würde das JEDEM auffallen. Mir nach 10sek...

ich kann mit bestimmtheit sagen das es keinem 6800 besitzer irgendwie negativ auffallen würde. ich bin von einer x800xtpe auf eine 6800gt umgestiegen... tja, da hab ich erstmal ein langes gesicht gemacht. ATI besitzer sollten durchaus erst ein auge voll GTX nehmen mit HQ und dann entscheiden. NV User mit GF6 können absolut bedenkenlos zugreiffen wenn sie upgraden wollen.

warum gehen die quotes bei mir plötzlich nicht mehr richtig??

Fruli-Tier
2005-08-15, 18:24:21
Ich möchte noch einmal kurz zu den Videos was sagen bzw. den direkten Vergleich einer sehr guten AF Implementation gegnüber einer "durchschnittlichen".

Zum einen habe ich aus Spass an der Freud und Neugier auch kurze Fraps Videos erzeugt und aus meiner Sicht muss ich eigentlich sagen, dass ich zwischen Ingame und Video Aufnahme keine so gravierenden Unterschiede gesehen habe, dass man sagen könnte, Fraps zerlegt die Grafik so übel, dass es keinen Bezug zur wirklichen Grafik im praktischen Alltag hat.
Ist aber nur eine Einschätzung von mir, belegen lässt sich das schwer, ausser es hat mal einer Lust, mein Kaff zu suchen ;-P

Der Hauptgrund dafür lag aber eher darin, dass ich noch eine FX 5800 im PC meiner Schwester habe und mir die einfach mal kurz geborgt, um einen Vergleich zu meiner 6800 herzustellen. Die Treibereinstellungen waren bei beiden Chips die gleichen, das bewegte Bild im grossen und ganzen auch.
Ja, die FX 5800 war ein wenig ruhiger, aber jetzt nicht so dominant, wie Beispielsweise in den Videos des Artikels zu sehen ist.

Aber wie schon oft gesagt, im Artikel ging es ums Prinzip und eine Möglichkeit, die Filterqualität deutlich auf den Tisch zu legen, nicht um bestimmte Hardware zu zerrupfen.


[viel sinnvollen Text gekürzt]

Auch von mir volle Zustimmung!

Fruli-Tier
2005-08-15, 18:25:43
mag durchaus sein... wenn die GTX aber so flimmern würde (alltäglich und in den spielen) wie 3DC es darstellt würde das JEDEM auffallen. Mir nach 10sek...

ich kann mit bestimmtheit sagen das es keinem 6800 besitzer irgendwie negativ auffallen würde. ich bin von einer x800xtpe auf eine 6800gt umgestiegen... tja, da hab ich erstmal ein langes gesicht gemacht. ATI besitzer sollten durchaus erst ein auge voll GTX nehmen mit HQ und dann entscheiden. NV User mit GF6 können absolut bedenkenlos zugreiffen wenn sie upgraden wollen.

warum gehen die quotes bei mir plötzlich nicht mehr richtig??

Weil du im abschliessenden QUOTE-Tag ein / brauchst ;-)

derominöseGast
2005-08-15, 18:28:13
kannst du mal die GT auf HQ mit 4AA und 16AF stellen und dich dann in den Movies nicht aufs AF sondern auf AA konzentrieren? Bei der GTX ist nämlich per Fraps alles voll jaggies und keine AA weit und breit zu sehen im Movie.

krassestes beispiel ist bei mir die MotoGP3 demo. super stabiles Bild ohne Flimmern und im Movie ist die hölle los...

derominöseGast
2005-08-15, 18:29:01
Weil du im abschliessenden QUOTE-Tag ein / brauchst ;-)

ups habs mir ned angesehen :redface: aber hab ja nur zitat gedrückt und geschrieben... strange

Quasar
2005-08-15, 18:33:00
Problematisch ist in diesem Zusammenhang die Frage, wie man als Journalist bestmöglich mit der Situation umgehen soll.
Persönlich halte ich es für gar kein so großes Problem. Bisher ging man ja auch immer davon aus, daß dieses und jenes Setting bei diesem und jenem IHV vergleichbar sei. Diese Einschätzung stand ebenfalls auf tönernen Füßen, insbesondere, da sie z.T. auf den Empfehlungen zumindest eines der IHVs beruhte.

Ich sehe insofern (wieder einmal: persönlich) kein Problem darin, per sofort HQ vs. AI off zu benchen und werde das für die Zukunft auch so vertreten.

Begründung:
Wenn Nvidia nicht möchte, daß man HQ verwendet, welches angeblich sämtliche Programmierbarkeit der Texturfilter deaktiviert (...), sollen sie ein Q liefern, welches seiner Bezeichnung würdig ist.
Wenn ATi nicht möchte, daß man mitsamt dem Sparfilter auch die angegebenen Bugfixes (welche?) deaktiviert, dann sollen sie eben eine zusätzliche Schalterstufe im AI-Schalter einbauen - "Fixes: on / Sparfilter: off".


Alternative: Bilinear und ohne AF benchen. :cool:

Mr. Lolman
2005-08-15, 18:40:32
Und mit wenigen Ausnahmen (Dunkeltier) sind die 7800er Anwender immer auf der Seite der Verteidiger...

Weil das Problem in der Praxis anscheinend aus diversen Gründen subjektiv nicht auftritt. Der Hauptgrund ist die toller Performance und deswegen momentan nutzbaren Auflösungen - sowie SSAA. Ich spiel selbst mit Q(OPt 1,) wenn ich SSAA aktiv hab. Der Grad an Unterfilterung ist gerade noch ok. NVs G70 HQ flimmert weniger als NV40 Q. Kein Grund zur Sorge. Die BQ reicht dem Durchschnitts User selbst ohne SSAA aus. Warhscheinlich sogar den meisten noch bei 1280 auf nem 19" Monitor.

Aber die BQ Entwicklung des AF ist nicht ok. Es zeichnet sich bei NV seit längerem eine Tendenz ab, die Grunde zur Besorgnis gibt. Die Kosten Nutzen Rechnung ist eine einfache:

5% der User merken vll. das schlechtere AF, Benchmarkbalken werden dafür aber 10-50% länger. Wer überlegt da noch 2x?

. Wenn ATis R520 AF nun genauso programmierbar wie das NV40/G70 wird, müsste ATi eigentlich ne Märtyrer Rolle übernehmen, sofern sie bessere BQ anbieten wollen. Aus dem Grund glaub ich auch nicht ganz an die bessere R520 BQ sondern schätze mal, dass man sich ziemlich nah am G70 orientieren wird. Und deswegen ists wichtig dass man das Problem lautstark publik macht, dass ATi nichtmal auf die Idee kommt die BQ an den G70 anzugleichen. Denn R300 AF fand ich schon grenzwertig. Beim R420 wurde nochmal ne subjektiv und objektiv kaum merkbare Trilineare Optimierung eingefügt und alles was dürber ginge wär imo ohnehin ne Zumutung.

Knötchen
2005-08-15, 18:40:42
[...]Und mit wenigen Ausnahmen (Dunkeltier) sind die 7800er Anwender immer auf der Seite der Verteidiger...
Was wird verteidigt? Dass das kaputte anisotrope Filter des G70 nicht zu begrüssen ist, darüber dürfte Konsens bestehen. Dass zZ. die Einbussen je nach Content und subjektiven Empfinden des Benutzers minimal sein können, bestreite ich ATI-Fraktionist ;) nicht.

Ich finde es nur nicht aufrichtig, wenn jemand (egal ob GTX-Besitzer, GTX-Verkäufer oder nichts von beidem) anfängt, Dinge schönzureden, oder wegdiskutieren will, denn es gibt imo ganz einfach nichts wegzudiskutieren. Die AF-Schwäche ist Fakt und ich wage zu prognostizieren, wenn das AF des G70 nach dem Abebben der Reviewbenchmarks nicht durch Nvidia gefixt wird (/werden kann), dass dies bei sinkenden fps sehr wohl auch die stören wird, die heute noch zwei Augen zudrücken. Allein dass Nvidia diese Spielchen mit dem Endverbraucher treibt und ihm zB. Placeboregler im Treiber anbietet, die nichts bewirken, empfinde ich als kundenverachtend.

Gast
2005-08-15, 18:42:55
Ich sehe insofern (wieder einmal: persönlich) kein Problem darin, per sofort HQ vs. AI off zu benchen und werde das für die Zukunft auch so vertreten.

Quasar, zwischen AI-off und AI-Low kann ICH zumindest keine Unterschiede in der BQ feststellen. Vielleicht kannst du mir mal Beispiele sagen, dann kann ich das mal nachprüfen. =)
Und imo ist die BQ beim AF bei AI-Low sogar minimal besser als NV@HQ.

Mr. Lolman
2005-08-15, 18:46:45
@Quasar:

Hypothetisches Beispiel:

IHV A bietet neben dem Standard AA eine "Hyper AA" Technik die bei halber Rechenlast gleiche BQ wie Standard AA Technik von IHV B erzeugt.

Würdest du nun auf Standard vs Standard festhalten, oder IHV A mit Hyper AA antreten lassen?

Knötchen
2005-08-15, 18:57:43
Och, ominöser Gast magst dir nicht mal zuerst die vielen Antworten durchlesen und deinerseits auf meine Fragen antworten, bevor du mit immer neuen Zitaten kommst?
mag durchaus sein... wenn die GTX aber so flimmern würde (alltäglich und in den spielen) wie 3DC es darstellt würde das JEDEM auffallen. Mir nach 10sek... Die GTX flimmert aber zZ. in Spielen nicht so stark, als dass es dir nach 10 sec auffallen würde, zumindest nach deiner eigenen Aussage.
ich kann mit bestimmtheit sagen das es keinem 6800 besitzer irgendwie negativ auffallen würde. Ich kann mit der 6800-Darstellung unter HQ (77.72) gerade noch so mit dem GF6 Flimmern leben, ja. Weshalb du deine Aussage allerdings mit Bestimmtheit auf alle 6800er Anwender übertragen kannst, müsstest du mir erklären.
ich bin von einer x800xtpe auf eine 6800gt umgestiegen... tja, da hab ich erstmal ein langes gesicht gemacht.
Das kann ich mir gut vorstellen. Was hat dich zu diesem, äh, unorthodoxen Schritt bewogen?
ATI besitzer sollten durchaus erst ein auge voll GTX nehmen mit HQ und dann entscheiden. NV User mit GF6 können absolut bedenkenlos zugreiffen wenn sie upgraden wollen.
Ich als GF6 Besitzer hätte grösste Bedenken, sollte ich mich zZ. für eine High-End Grafikkarte interessieren, zur GTX zu greifen.
warum gehen die quotes bei mir plötzlich nicht mehr richtig??
Weil du das Quote nicht mit {/QUOTE} schliesst (ersetze {,} durch [,])

mbee
2005-08-15, 19:00:48
ich bin von einer x800xtpe auf eine 6800gt umgestiegen... tja, da hab ich erstmal ein langes gesicht gemacht.

Warum denn das? Macht performancemäßig IMO recht wenig Sinn oder meintest Du auf 2 6800gt?

ATI besitzer sollten durchaus erst ein auge voll GTX nehmen mit HQ und dann entscheiden. NV User mit GF6 können absolut bedenkenlos zugreiffen wenn sie upgraden wollen.

Das werde ich nun (wird meine erste NVIDIA seit GF3-Zeiten, momentan auch ne X800 XT PE). Bin wirklich mal gespannt bzw. werde ich hier auch noch mal berichten und garantiert nichts beschönigen, falls das unter HQ wirklich so schlecht sein sollte.

OBrian
2005-08-15, 19:01:44
...
Ich sehe insofern (wieder einmal: persönlich) kein Problem darin, per sofort HQ vs. AI off zu benchen und werde das für die Zukunft auch so vertreten.
...Was dann natürlich dazu führt, daß beide Firmen die HQ- bzw. AI-off-Einstellung komplett aus dem Treiber entfernen und nur als Dummy-Knopf im CP belassen - dann wird doch wieder Q gegen AI gebencht, nur merkt es keiner; hinterher hört es sich so an: "High Quality brachte in unseren Tests keiner Geschwindigkeitseinbußen, da hat sich der Hersteller mal wieder selbst übertroffen! Man muß allerdings sagen, daß die Stufe darunter auch nicht viel schlechter aussieht, unsere Tester konnten keinen Unterschied sehen."

Das ganze ist eine groß angelegte Volksverdummung, in ein paar Jahren weiß überhaupt keiner mehr, daß es auch sauber geht mit gut gefilterten Texturen, die nicht wabern wie ein Wackelpudding in der Kurve (übrigens auch sichtbar in diesem Video (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3374496#post3374496), was eigentlich beweisen sollte, daß es fast unsichtbar ist, bei den Bodentexturen). Über das miese AF bei beiden Firmen regt sich ja schon keiner mehr richtig auf, glaubt also nicht, daß das so bald wieder verschwindet.

Worüber regt Ihr Euch momentan eigentlich seitenlang auf? Ist die Streitfrage, ob dieser dreise Beschiß vorhanden ist oder ob man den soundso stark sehen muß?
Ich bin der Meinung, wenn jemand einen anderen erschießt, bleibt das Mord, auch wenn er nur eine ganz klitzekleine Pistole benutzt hat.

Gast
2005-08-15, 19:24:10
Worüber regt Ihr Euch momentan eigentlich seitenlang auf? Ist die Streitfrage, ob dieser dreise Beschiß vorhanden ist oder ob man den soundso stark sehen muß?
Ich bin der Meinung, wenn jemand einen anderen erschießt, bleibt das Mord, auch wenn er nur eine ganz klitzekleine Pistole benutzt hat.
Da bin ich aber ganz klar anderer Meinung.
Wenn im unsichtbarem Bereich optimiert wird, ist es mir ehrlich gesagt schnuppe.
Das mit dem Flimmern/Grieseln der 7800 ist aber definitiv zu viel des Guten.
Je nach Spiel fällt es mehr oder weniger auf.
Dass es jemandem bei BF2 oder UT2004 beim Spielen nicht auffält, ist nicht verwunderlich bei der Action.
Was aber ist mit Rollenspielen wie Gothic oder Morrowind?
Da würde man es deutlich wahrnehmen und wahrscheinlich entnervt aufgeben, wenn man eine gute Wahrnehmungsfähigkeit besitzt.

Gast
2005-08-15, 19:32:39
Ich hab mich aus der Diskussion bisher rausgehalten, da sie mir mit zu viel Emotion geführt wird und insbesondere von der ATI-Fraktion mit Genuss ausgeschlachtet wird.

Dazu kommt, dass ich ebenfalls der Meinung bin, dass der Schaden an der Qualität zu hoch ist. Zumindest unter HQ sollte man nichts mehr davon sehen können. In so fern unterstütze ich aths ausdrücklich.

Andererseits sehe ich das ganze bei weitem nicht so dramatisch wie einige hier. In der Praxis fällt das Grieseln/Flimmern unter HQ deutlich weniger stark auf, als viele andere Artefakte an deren Existenz man sich inzwischen gewöhnt hat.

In den meisten Spielen, die ich derzeit spiele, sieht man es in den meisten Situationen überhaupt nicht. Dazu zählen u.a. : SplinterCell:CT, FarCry, Gothic 2, KotoR2, FEAR Demo. Vergleichsweise deutlich fällt es z.B. in BF2 auf, aber nur bei bestimmten Bodentexturen.

Also: Gut dass aths und 3DC das anspricht. Das ganze MUSS abschaltbar sein.

Aber: Kein Grund den G70 in der Luft zu zerreissen und vom Kauf zurückzuschrecken, wenn man eine möglichst leistungsfähige Karte haben will.


Full Ack von einem GTX&XTPE Besitzer

Wen es nicht stört, bekommt eine super Grafikkarte, und wens stört, der greift halt zu etwas anderem. Wer sonst meint er müsse sich hieran Profilieren stellt sich unweigerlich als Fanboy dar, ohne den Sinn des Artikels begriffen zu haben.

MikBach
2005-08-15, 19:59:28
Full Ack von einem GTX&XTPE Besitzer

Wen es nicht stört, bekommt eine super Grafikkarte, und wens stört, der greift halt zu etwas anderem. Wer sonst meint er müsse sich hieran Profilieren stellt sich unweigerlich als Fanboy dar, ohne den Sinn des Artikels begriffen zu haben.
Sehr seltsam,
wenn man also Flimmern beim G70 sieht, ist man direkt Fanboy?
Leider lassen sich Fakten mit der Keule "Fanboy" nicht erschlagen.

Und ja, ich habe die 7800 3 Tage lang getestet und weiss wovon ich rede.
Ich muss allerdings gestehen, dass ich extrem empfindlich bin.
Ich sehe manchmal auch bei ATI-Karten ein Grieseln, wo es die Meisten nicht sehen.
Allerdings ist imo das ATI-AF @AI-Low besser als NV(6800)@HQ
Habe zum Vergleich zwar nur eine 6800GT und eine 9800PRO. Wenn Quasar mir aber Beispiele für den Unterschied von AI-Off zwischen AI-Low nennen kann, werde ich mir gerne kurzfristig eine R4x0-Karte besorgen. :)

PS die letzten 2 Gastpostings (ausser dem, den ich quote ;)) waren von mir.

edit: lol, habe ganz vergessen aths zum sehr guten Artikel zu gratulieren.
Das, was im Artikel steht, deckt sich ziemlich genau mit meiner (subjektiven) Meinung. :up:
Das ich das noch erleben darph. ;D

Grestorn
2005-08-15, 20:02:15
Was aber ist mit Rollenspielen wie Gothic oder Morrowind?
Da würde man es deutlich wahrnehmen und wahrscheinlich entnervt aufgeben, wenn man eine gute Wahrnehmungsfähigkeit besitzt.Es ist kein Flimmern bei Gothic 2 zu sehen.

MikBach
2005-08-15, 20:06:19
Es ist kein Flimmern bei Gothic 2 zu sehen.
Darum ging es mir nicht...
Es ging mir darum, dass bei Spielen wie BF2 oder UT2004 man wegen der Acktion kaum Zeit hat darauf zu achten.
Bei Rollenspielen ist es anders.

Du bewertest aber das AF oder hast du SSAA an, was bei Gothic2 nicht verwunderlich wäre.. :D

Blaire
2005-08-15, 20:22:45
Non SLI User können sich behelfen in dem man die 71.xx Treiber benutzt (man muss aber z.b. die nv4disp.inf vom 77.77 benutzen , da sonst die 7800GTX im Installations-Setup nicht erkannt wird! ) und man bekommt ein flimmerfreies Bild wie man es von der 6800@HQ gewohnt war. :)
Leider funktioniert aber SLI dann nicht mehr , weil die 7800GTX als "UNKNOWN CHIP" erkannt wird.
Für die Leute die nur eine 7800GTX besitzen kann man dieses Grieselproblem damit locker umgehn , wenn man denn auch HighQuality im Treiber benutzt.

MfG

Grestorn
2005-08-15, 20:25:39
Darum ging es mir nicht...
Es ging mir darum, dass bei Spielen wie BF2 oder UT2004 man wegen der Acktion kaum Zeit hat darauf zu achten.
Bei Rollenspielen ist es anders.

Du bewertest aber das AF oder hast du SSAA an, was bei Gothic2 nicht verwunderlich wäre.. :D
Korrektur: Es ist in der Tat eine ganz leichte Unruhe in bestimmten Texturen zu sehen. Insbesondere in der Stadt (Pflastertextur). An anderen Stellen sieht man es nicht, weswegen mein vorheriger Test auch ein anderes Ergebnis ergab.

Nochmal zur Klarstellung, auch wenn ichs schon geschrieben habe: Dieses Problem muss beseitigt werden. Ich hoffe immer noch, dass dies durch eine Korrektur im Treiber möglich ist.

Aber übertreiben muss man es trotzdem nicht. Ich bereue die Ausgabe von ca. € 1100 jedenfalls nicht.

Piffan
2005-08-15, 20:31:45
Full Ack von einem GTX&XTPE Besitzer

Wen es nicht stört, bekommt eine super Grafikkarte, und wens stört, der greift halt zu etwas anderem. Wer sonst meint er müsse sich hieran Profilieren stellt sich unweigerlich als Fanboy dar, ohne den Sinn des Artikels begriffen zu haben.

Nun würde ich liebend gern aufgeklärt werden: Wo ist der Sinn des Artikels?

Meine Interpretation: Aufzeigen eines Undings, worüber bisher NIRGENDS im deutschprachigen Raum berichtet wird.
Die Leute rebellisch machen, damit diese Tendenz gestoppt wird. Nur um Daus(Balkenhirnis) zu fangen, wird die Bildqualität mehr und mehr verhunzt. Es werden die Tester verarscht mit tollen Phrasen. Es wird dem Anwender die Chance genommen, technisches Potential in BQ umzumünzen.....

Wenn der eine oder andere sagt, schöne Wurst mit den Texturen, aber ich WILL diese ansonsten geile Hardware haben, weil mir z.B. die Flimmerzäune in HL2 mehr auf den Geist gehen als leichtes Texturengrieseln oder warum auch immer, dann bitte. Aber man kann nur kompetente Entscheidungen treffen, wenn die Lügen oder Betrügereien der Anbieter publik gemacht werden.

Darum immer schön fröhlich weiter diskutieren. Tombman hängt ja nur an seiner goilen SLI, weil Ati mit Crossfire noch nicht in die Strümpfe gekommen ist. 100% :)

OBrian
2005-08-15, 20:37:40
Non SLI User können sich behelfen in dem man die 71.xx Treiber benutzt (man muss aber z.b. die nv4disp.inf vom 77.77 benutzen , da sonst die 7800GTX im Installations-Setup nicht erkannt wird! ) und man bekommt ein flimmerfreies Bild wie man es von der 6800@HQ gewohnt war. :)
Leider funktioniert aber SLI dann nicht mehr , weil die 7800GTX als "UNKNOWN CHIP" erkannt wird.
Für die Leute die nur eine 7800GTX besitzen kann man dieses Grieselproblem damit locker umgehn , wenn man denn auch HighQuality im Treiber benutzt.

MfG
Interessant, hoffe, das lesen noch ein paar mehr Leute. Leider bringt das auch nur kurzfristig Besserung, denn auf Dauer kann man ja wegen diverser Bugfixes nicht auf neue Treiber verzichten (oder willst Du auch in 1-2 Jahren noch mit einem gemoddeten 71.xx rummachen?). Wenn das Nichtfunktionieren der HQ-Einstellung ein echter Fehler von nV ist, dann wird der wohl in den nächsten Treiberversionen wieder behoben; aber es ist zu befürchten, daß es Absicht war, und dann bleibt es so.

Fruli-Tier
2005-08-15, 20:38:11
kannst du mal die GT auf HQ mit 4AA und 16AF stellen und dich dann in den Movies nicht aufs AF sondern auf AA konzentrieren? Bei der GTX ist nämlich per Fraps alles voll jaggies und keine AA weit und breit zu sehen im Movie.

krassestes beispiel ist bei mir die MotoGP3 demo. super stabiles Bild ohne Flimmern und im Movie ist die hölle los...

Ich hab zwar keine GT, aber machen kann ich es trotzdem mal. Dann wird das bei diesen Setting auch bestimmt kein Problem mit den 30fps InGame und 30fps Fraps ;D

Aber morgen erst, etz habsch keine Lust mehr

*edit*
fehlende Buchstaben ergänzt

MikBach
2005-08-15, 20:40:31
Nochmal zur Klarstellung, auch wenn ichs schon geschrieben habe: Dieses Problem muss beseitigt werden. Ich hoffe immer noch, dass dies durch eine Korrektur im Treiber möglich ist.
Das hoffe ich auch für die Leute, die sich einen G70 zugelegt haben.
Die Meisten werden es aber eh nicht sehen.
Schade nur für uns Freaks, wir gucken in die Röhre..:(

Aber übertreiben muss man es trotzdem nicht. Ich bereue die Ausgabe von ca. € 1100 jedenfalls nicht.
Wenn du keine Spiele spielst, bei denen es auffällt, hast du sicherlich viel Spass und den gönne ich dir.
Ich hätte nur bisschen Angst mir die 7800 zu holen, weil bei einigen Spielen der Spielspass doch zu sehr getrübt werden könnte...=)

Blaire
2005-08-15, 20:42:32
Die Frage ist : Will man mehr Leistung oder mehr Qualität?
Qualität kostet auch viel Leistung und ist der damit verbundene Bildqualitätsgewinn dem damit verbundenen Performanceverlust gerechtfertigt bzw. akzeptabel?

Da gehen die Meinungen sicher weit auseinander. Allerdings möchte ich das als Nutzer selber entscheiden können und auch dafür eine Option im Treiber!

Die 71.xx Treiber laufen soweit ich das bisher beurteilen kann mit jedem Game problemlos zusammen.

MfG

MikBach
2005-08-15, 20:48:13
Non SLI User können sich behelfen in dem man die 71.xx Treiber benutzt (man muss aber z.b. die nv4disp.inf vom 77.77 benutzen , da sonst die 7800GTX im Installations-Setup nicht erkannt wird! ) und man bekommt ein flimmerfreies Bild wie man es von der 6800@HQ gewohnt war. :)
Leider funktioniert aber SLI dann nicht mehr , weil die 7800GTX als "UNKNOWN CHIP" erkannt wird.

MfG
Das ist ja heftig. Du kannst doch einem Dau nicht zumuten diese Veränderungen vorzunehmen...
Dann fuktioniert SLI auch nicht mehr...:(
Kann NV auch einen Treiber rausbringen, der alle glücklich macht und nicht nur die neusten Karten. Echt traurig. :(

MikBach
2005-08-15, 20:50:59
Die Frage ist : Will man mehr Leistung oder mehr Qualität?
Qualität kostet auch viel Leistung und ist der damit verbundene Bildqualitätsgewinn dem damit verbundenen Performanceverlust gerechtfertigt bzw. akzeptabel?

Da gehen die Meinungen sicher weit auseinander.
Wo das?
Mittlerweile sind wir bei einem Performancelevel angekommen, das nicht wirklich das letzte FPS zählt. Dann doch eher die bessere BQ.

Seraf
2005-08-15, 20:51:17
Non SLI User können sich behelfen in dem man die 71.xx Treiber benutzt (man muss aber z.b. die nv4disp.inf vom 77.77 benutzen , da sonst die 7800GTX im Installations-Setup nicht erkannt wird! ) und man bekommt ein flimmerfreies Bild wie man es von der 6800@HQ gewohnt war. :)
Leider funktioniert aber SLI dann nicht mehr , weil die 7800GTX als "UNKNOWN CHIP" erkannt wird.
Für die Leute die nur eine 7800GTX besitzen kann man dieses Grieselproblem damit locker umgehn , wenn man denn auch HighQuality im Treiber benutzt.

MfG


Wuz?
Kann das mal jemand gegen testen?
Dann könnte man Vergleichsshots machen und NV aufs Auge drücken.
Mit genügend Druck würde NV bestimmt einen Treiber mit neuen Optionen bereitstellen.

Blaire
2005-08-15, 20:57:43
Wo das?
Mittlerweile sind wir bei einem Performancelevel angekommen, das nicht wirklich das letzte FPS zählt. Dann doch eher die bessere BQ.

Na ich weiss nicht.
Battlefield 2 mit 1600x1200 8xSSAA!!!/16xAF flüssig zocken und mit sauberen Bild trotz Optimierungen , oder lieber 1600x1200 4xAA!!!/16xAF und besserem AF zocken ohne Optimierungen was aber trotzdem schlechter aussieht und mehr zum flimmern neigt?

Blaire
2005-08-15, 21:02:25
Wuz?
Kann das mal jemand gegen testen?
Dann könnte man Vergleichsshots machen und NV aufs Auge drücken.
Mit genügend Druck würde NV bestimmt einen Treiber mit neuen Optionen bereitstellen.

Vieleicht eine "ULTRA HIGH QUALITY" Option??? Schön wärs. :D

MikBach
2005-08-15, 21:04:03
Na ich weiss nicht.
Battlefield 2 mit 1600x1200 8xSSAA!!!
Ich dachte wir vergleichen hier das AF. :rolleyes:
Hier geht es um das schlecht AF der 7800.
Liess dich mal bisschen ein...

Blaire
2005-08-15, 21:04:48
Ich dachte wir vergleichen hier das AF. :rolleyes:
Hier geht es um das schlecht AF der 7800.
Liess dich mal bisschen ein...

Ich spreche vom Gesamtbild in einem Game. Und darauf kommt es ja schließlich an oder nicht?

Seraf
2005-08-15, 21:04:48
Vieleicht eine "ULTRA HIGH QUALITY" Option??? Schön wärs. :D

Warum nicht? ;D :D
Wenn es stimmt was du sagst kann man auf NV Druck machen mit dem Argument das die Karten es auch besser können.

Dann wäre die 7800GTX auch rehabilitiert.

Black-Scorpion
2005-08-15, 21:05:18
Das ist aber nicht dein ernst, oder doch?
Man kauft sich für ~500,-Euro eine Highend Karte und soll um eine anständige Qualität zu bekommen seinen Treiber selber zusammen basteln.
Das ist ja wohl ein schlechter Witz.

MikBach
2005-08-15, 21:08:05
Ich spreche vom Gesamtbild in einem Game. Und darauf kommt es ja schließlich an oder nicht?
LOL.
Wir reden hier ausschlieslich über das AF.
Auch wenn du es übersehen hast... :)

Lies mal den Artikel, dann bist du schlauer...

Blaire
2005-08-15, 21:13:06
LOL.
Wir reden hier ausschlieslich über das AF.
Auch wenn du es übersehen hast... :)

Lies mal den Artikel, dann bist du schlauer...

Ich lese schon ne ganze Weile mit , glaub mir. ;)
Hier gehts um das "Flimmern" beim G70.

reunion
2005-08-15, 21:24:14
Wir reden hier im Kreis...du kannst uns entweder glauben, das es ingame nicht so extrem ist oder es nicht glauben. Mir persönlich ist das relativ egal.


Schön, nur ändert das nichts daran, dass das schlicht nicht nachvollziehbar ist...


Aber natürlich habt Ihr recht, das die Grundbedingungen für alle Karte die selben waren, als die Aufnahmen gemacht wurden (Fraps eben).


...aus genau diesem Grund.


Zustimmung.....wobei ich allerdings anmerken muss, das ich nicht so der AF-Mensch bin (deshlab meine subjektive Meinung durchaus von anderen Meinungen, was das AF betrifft abweichen können).


Geht mir genau so. Ich wüsste auch gar nicht, ob ich das flimmern auf der 7800GTX überhaupt wahrnehmen würde. Es geht mir hier hauptsächlich darum, dass endlich mit dieser BQ-Verschlechterung aufgehört werden muss.
Denn den Unterschied zur besagten Geforce 3 würde wohl selbst ein Blinder wahrnehmen.


Bei 16xS natürlich nicht, aber bei 8xS kann es durchaus noch allerhand bringen (da dann ja 4xRGSSAA auf die Alphakanten angewandt wird und nicht nur 1x2 OGSSAA).
Am deutlichsten sieht man das bei HL2-Zäunen...mit 8xS ist "ganz nett". Mit 8xS + TSAA sehen die Zäune genial aus (IMO sogar besser "nur" als 16xS).


Hast du ein SLI-System, oder warum kannst du es dir leisten, derart Füllrate zu verballern?


Wenn ich Zeit habe mache ich mal Pics.


Ich bitte darum.


Unter die AF Qualität der GTX würde ich nicht mehr Freiwillig gehen...wie ich schon erwähnte ist selbst bei mir dort schluss.


Nur bist du damit vermutlich nur einer unter wenigen.

eXodia
2005-08-15, 21:30:33
Nur bist du damit vermutlich nur einer unter wenigen

Du hast selbst gesagt das du glaubst das dir das flimmern des G70 wahrscheinlich nicht mal auffallen würde...
Du tust ja gerade so als ob die 7800er reihenweise wegen des schlechten AFs zurückgegeben werden.
Ich finde diese Optmierungen auch nicht feierlich, beurteile die AF-Qualität aber erst wenn ich sie live erlebt habe.

GrUß

reunion
2005-08-15, 21:33:32
Und mit wenigen Ausnahmen (Dunkeltier) sind die 7800er Anwender immer auf der Seite der Verteidiger...

Logisch, (fast) jeder versucht, seine teuer gekaufte Hardware in ein gutes Licht zu stellen.

MikBach
2005-08-15, 21:39:50
Ich lese schon ne ganze Weile mit , glaub mir. ;)
Hier gehts um das "Flimmern" beim G70.
OK, die PM geht aber erst morgen früh raus...
Gelesen habe ich sie. :)

reunion
2005-08-15, 21:42:36
Du hast selbst gesagt das du glaubst das dir das flimmern des G70 wahrscheinlich nicht mal auffallen würde...


Ich habe behauptet, dass ich nicht weiß, ob ich einen Unterschied zur NV40/R420 sehen würde. Doch bereits diese sind viel zu stark "optimiert". Spiele mal WoW mit AF, und du verstehst, was ich meine.


Du tust ja gerade so als ob die 7800er reihenweise wegen des schlechten AFs zurückgegeben werden.


Das würde niemals geschehen.


Ich finde diese Optmierungen auch nicht feierlich, beurteile die AF-Qualität aber erst wenn ich sie live erlebt habe.

GrUß

Merkst du denn nicht, was hier geschieht?
Diese Entwicklung muss aufgehalten werden, es ist mir gelinde gesagt scheißegal, wie stark man diese Optimierung sieht.

MikBach
2005-08-15, 21:44:43
Du hast selbst gesagt das du glaubst das dir das flimmern des G70 wahrscheinlich nicht mal auffallen würde...
Du tust ja gerade so als ob die 7800er reihenweise wegen des schlechten AFs zurückgegeben werden.
Ich finde diese Optmierungen auch nicht feierlich, beurteile die AF-Qualität aber erst wenn ich sie live erlebt habe.

GrUß
Darum geht es ja nicht...du willst dich doch nicht zu einem Dau degrdieren lassen...
Warum frisst das Forum nur das was es will...
Du hast selbst gesagt das du glaubst das dir das flimmern des G70 wahrscheinlich nicht mal auffallen würde...
Du tust ja gerade so als ob die 7800er reihenweise wegen des schlechten AFs zurückgegeben werden.
Ich finde diese Optmierungen auch nicht feierlich, beurteile die AF-Qualität aber erst wenn ich sie live erlebt habe.

GrUß
Darum geht es ja nicht...du willst dich doch nicht zu einem Dau degrdieren lassen http://www.forum-3dcenter.org/vbulletin/editpost.php?do=editpost&p=3379067#
Vergrößern (Y)...

eXodia
2005-08-15, 21:48:42
Merkst du denn nicht, was hier geschieht?

Äh ja das merke ich, guckst du auch da (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=240821)

Habe kein WoW und will auch keins haben :P

GrUß

eXodia
2005-08-15, 21:53:00
Darum geht es ja nicht...du willst dich doch nicht zu einem Dau degrdieren lassen...

Was willst du mir damit sagen? :|

GrUß

derominöseGast
2005-08-15, 22:41:18
Weil das Problem in der Praxis anscheinend aus diversen Gründen subjektiv nicht auftritt. Der Hauptgrund ist die toller Performance und deswegen momentan nutzbaren Auflösungen - sowie SSAA. Ich spiel selbst mit Q(OPt 1,) wenn ich SSAA aktiv hab. Der Grad an Unterfilterung ist gerade noch ok. NVs G70 HQ flimmert weniger als NV40 Q. Kein Grund zur Sorge. Die BQ reicht dem Durchschnitts User selbst ohne SSAA aus. Warhscheinlich sogar den meisten noch bei 1280 auf nem 19" Monitor.

Aber die BQ Entwicklung des AF ist nicht ok. Es zeichnet sich bei NV seit längerem eine Tendenz ab, die Grunde zur Besorgnis gibt. Die Kosten Nutzen Rechnung ist eine einfache:

5% der User merken vll. das schlechtere AF, Benchmarkbalken werden dafür aber 10-50% länger. Wer überlegt da noch 2x?

. Wenn ATis R520 AF nun genauso programmierbar wie das NV40/G70 wird, müsste ATi eigentlich ne Märtyrer Rolle übernehmen, sofern sie bessere BQ anbieten wollen. Aus dem Grund glaub ich auch nicht ganz an die bessere R520 BQ sondern schätze mal, dass man sich ziemlich nah am G70 orientieren wird. Und deswegen ists wichtig dass man das Problem lautstark publik macht, dass ATi nichtmal auf die Idee kommt die BQ an den G70 anzugleichen. Denn R300 AF fand ich schon grenzwertig. Beim R420 wurde nochmal ne subjektiv und objektiv kaum merkbare Trilineare Optimierung eingefügt und alles was dürber ginge wär imo ohnehin ne Zumutung.

hmm, ich bin plötzlich einer meinung mit dir!? :biggrin:

derominöseGast
2005-08-15, 22:46:18
Och, ominöser Gast magst dir nicht mal zuerst die vielen Antworten durchlesen und deinerseits auf meine Fragen antworten, bevor du mit immer neuen Zitaten kommst?

ja sorry :redface:

Die GTX flimmert aber zZ. in Spielen nicht so stark, als dass es dir nach 10 sec auffallen würde, zumindest nach deiner eigenen Aussage.
Ich kann mit der 6800-Darstellung unter HQ (77.72) gerade noch so mit dem GF6 Flimmern leben, ja. Weshalb du deine Aussage allerdings mit Bestimmtheit auf alle 6800er Anwender übertragen kannst, müsstest du mir erklären.

so ist es und ich kann das sagen weil ich auch eine 6800GT habe im Zweitsystem.

Das kann ich mir gut vorstellen. Was hat dich zu diesem, äh, unorthodoxen Schritt bewogen?

ein Räuchlein und weg war sie... die schöne, kühle, flimmerreie, und für GTR perfekte XTPE :frown:

die GT ist ein Gainward Golden Sample @ 430@1200. damals hab ich grad Doom3 gezockt... ;)

Ich als GF6 Besitzer hätte grösste Bedenken, sollte ich mich zZ. für eine High-End Grafikkarte interessieren, zur GTX zu greifen.

echt nicht nötig... klar wenn ich jetzt eine langfristige investition machen müsste würde ich abwarten auf den R520 und dann entscheiden. ich will aber die jeweils beste karte und die habe ich ganz bestimmt momentan in meiner Kiste eingebaut. :smile:

Gast
2005-08-15, 23:32:03
Statement eines Gamestar Redakteurs:
http://forum.gamestar.de/gspinboard/showpost.php?p=2976701&postcount=27

Das ist der Beweis.

tEd
2005-08-15, 23:54:17
Statement eines Gamestar Redakteurs:
http://forum.gamestar.de/gspinboard/showpost.php?p=2976701&postcount=27

Das ist der Beweis.

Das muss er sein. :rolleyes:

Knötchen
2005-08-15, 23:55:15
[...] ich will aber die jeweils beste karte und die habe ich ganz bestimmt momentan in meiner Kiste eingebaut. :smile:
Auf jeden Fall die mit dem längsten Schwanzsubstitutionsbalken, aber frei nach aths"Leistung" ist jedoch "Arbeit pro Zeit". Bei dem "optimiertem" AF wird weniger gearbeitet – die Leistung steigt damit also nicht.würde ich nicht von der besten Performance sprechen, zumindest nicht solange sie mit diesem kastrierten anisotropen Filter leben _muss_.

(del676)
2005-08-15, 23:59:28
uuuuu jaaaaa
Daniel Visarius - den kenne ich noch als ich im GSPB aktiv war ... eher glaube ich Nagus!

eXodia
2005-08-16, 00:04:36
Statement eines Gamestar Redakteurs:
http://forum.gamestar.de/gspinboard/showpost.php?p=2976701&postcount=27

Das ist der Beweis.

Aber der ultimative Beweis...*ironie, grins*
Gamestar und Hardware passt ungefähr so gut zusammen wie Himmel und Hölle ;D

GrUß

Gast
2005-08-16, 03:13:03
Mich würd mal interessieren wie es unter Linux mit Optimierunen aussieht? Doom3 sah da wie unter Win mit HighQ aus. Ausserdem würde mich interessieren was man unter Linux macht wenn man nur Quality oder Performance will also Optimierungen will :))

Grestorn
2005-08-16, 08:22:56
Logisch, (fast) jeder versucht, seine teuer gekaufte Hardware in ein gutes Licht zu stellen.
Die Möglichkeit, dass das Flimmern für die meisten Anwender weitaus weniger "schlimm" ist, als es hier von einigen gesehen wird, ist für Dich überhaupt nicht denkbar?

Ich habe noch 2 6800GTs, die dieses Phänomen in HQ nicht zeigen. Ich könnte also jederzeit meine beiden GTXe ausbauen und verkaufen und statt dessen wieder die 6800GTs einbauen. Warum tue ich das nicht? Könnte es sein, dass das Flimmern vielleicht tatsächlich kaum stört und durch die deutlich höhere Performance (= weniger ruckeln z.B. bei FarCry HDR oder FEAR) vollständig in den Schatten gestellt wird?

Seraf
2005-08-16, 08:52:47
@grestorn

Kannst du nichtmal das mit der Treibergeschichte nachtesten?
Dann wissen wir zumindest ob die Karte auch anderes AF kann.

Knötchen
2005-08-16, 12:22:48
[...] Ich habe noch 2 6800GTs, die dieses Phänomen in HQ nicht zeigen. Ich könnte also jederzeit meine beiden GTXe ausbauen und verkaufen und statt dessen wieder die 6800GTs einbauen. Warum tue ich das nicht? Könnte es sein, dass das Flimmern vielleicht tatsächlich kaum stört und durch die deutlich höhere Performance (= weniger ruckeln z.B. bei FarCry HDR oder FEAR) vollständig in den Schatten gestellt wird?
Aus meiner Sicht gibt es keinen Grund das nicht zu glauben. Genauso wie Ulukay oder tombman sagen: Es fällt in den games die sie spielen kaum bis praktisch nie auf, oder stört sie nicht.

Ich vermute, dass grestorn, Ulukay und tombman eh die nächste Kartengeneration kaufen, bevor sich die 7800 GTX kritischen frames nähert, in denen die Filterschwäche störend wird, oder was meint ihr Jungz? :biggrin:

Ich sag nur: Abwarten was der R520 bringt. Ok, hat kein SLI, aber evtl. kommt X-Fire in die Puschen.

Edit:
Ausserdem: Was wäre wenn NV sich dem öffentlichem Druck beugt und dem Anwender die Möglichkeit gibt, ein paar % Chiparbeit in ein korrektes AF zu investieren? Ich denke, da würden einige hier im Board recht dankbar sein.

@grestorn: Du benutzt die 6800GTs nicht weil die ein ziemlich mieses AF haben und die 7800GTX zumindest einen Chip mit mehr Rohpower besitzt und zudem durch neue Treiber nicht ausgebremst wird wie die 6800? ;)

Ailuros
2005-08-16, 12:40:32
Ich habe noch 2 6800GTs, die dieses Phänomen in HQ nicht zeigen. Ich könnte also jederzeit meine beiden GTXe ausbauen und verkaufen und statt dessen wieder die 6800GTs einbauen. Warum tue ich das nicht?

Es ist sehr wohl da auf NV40:

http://www.mitrax.de/?cont=artikel&aid=24&page=14

Juni 2004. Ich hatte es damals leider nur in UT2004 bemerkt weil es die einzige Applikation damals war die einen negativen LOD bias beantragte. Es gab seitenlange Threads bei diversen Foren danach die ueber weit schlimmere Faelle berichteten, wie z.B. BF1942.

November 2004 kam mit ForceWare 71.20 der "negative LOD bias" in das CP mit der beruehmten Klammer. Ganz ganz einfach (wie die meisten hier schon wissen) wenn eine Applikation einen negativen LOD bias beantragt (ergo niederiger als 0.0) wird dieser vom Treiber mit der aktivierten Klammer nicht erlaubt.

Man entgeht zwar so der Mehrzahl der Flimmerei, aber erstens kehrt man so die Unterfilterung unter den Teppich und zweitens sollte eine Applikation einen negativen LOD bias bekommen wenn beantragt ohne dass tanzende Maender auf dem Bildschirm erscheinen.

UT2k3/4 haben stellenweise Texturen die bis zu -4.0 beantragen; man schmiert halt alles auf 0.0, es flimmert nicht mehr so wie zuvor und Problem geloest? Nein!

Bi-/trilinear mit korrektem MIPmapping sind quasi eine Form von Textur-antialiasing; wird unterfiltert dann treten eben solche unangenehme Seiteneffekte auf; je niedriger der beantragte LOD bias desto schlimmer.

Je mehr unterfiltert wird (siehe G70) desto mehr flimmert es eben.


Könnte es sein, dass das Flimmern vielleicht tatsächlich kaum stört und durch die deutlich höhere Performance (= weniger ruckeln z.B. bei FarCry HDR oder FEAR) vollständig in den Schatten gestellt wird?

Das ist durchaus subjektiv.

reunion
2005-08-16, 13:33:21
Die Möglichkeit, dass das Flimmern für die meisten Anwender weitaus weniger "schlimm" ist, als es hier von einigen gesehen wird, ist für Dich überhaupt nicht denkbar?


Doch, es ist sogar ziemlich warscheindlich, dass es so ist - sonst würden diese Anwender wohl kaum ihre Karte(n) behalten. Doch darum geht es mir nicht. Das Flimmern ist da - definitiv. Und solange die Mehrzahl der Anwender dies als "nicht so schlimm" erachtet, wird sich daran wohl auch nichts ändern.


Ich habe noch 2 6800GTs, die dieses Phänomen in HQ nicht zeigen. Ich könnte also jederzeit meine beiden GTXe ausbauen und verkaufen und statt dessen wieder die 6800GTs einbauen. Warum tue ich das nicht?


Weil für dich - wie wohl für die meisten anderen User ebenfalls - die Performance wichtiger ist, als die leicht schlechtere Bildqualität im Vergleich zum NV40. Ein Kompromiss. Doch warum muss man überhaupt Kompromisse eingehen, wenn man sich eine neue Grafikkarte kauft?


Könnte es sein, dass das Flimmern vielleicht tatsächlich kaum stört und durch die deutlich höhere Performance (= weniger ruckeln z.B. bei FarCry HDR oder FEAR) vollständig in den Schatten gestellt wird?

Genau diese Denkweise hat zum dem geführt, was wir heute als Anisotropen-Texturfilter bezeichnen: Ein stark winkelabhängiger, totoptimierter, flimmernder "Bildqualitätsverbesserer". Und das alles fast ohne Performanceverlust - verblüffend! (Oder doch nicht?)

aths
2005-08-16, 15:05:29
Vorweg:

aths, laß Dich beim besten Willen nicht unterkriegen! Dein Artikel war mehr als nur nötig, allein schon um den Grundlegenden Denkansatz zu liefern.
Wir hier als Community sind davon abhängig, daß wir gemeinsam unsere Interessen vertreten - und wenn niemand die Fahne richtig in die Hand nimmt ... tja, Du hast es getan, dafür danke ich Dir!Danke für den öffentlichen Support.

Wie gesagt, da das Video verlustfrei komprimiert wurde, gibt es die 1024*768 Pixel auch wie ingame bei gleicher Framrate wieder - es gibt also ein Grundflimmerpotential, welches beim G70 vergleichsweise größer als beim NV40 und R420 ist. Durch höhere FPS wird der flimmrige Eindruck abgemildert.

Ulukay verwechselt hier leider Ursache und Wirkung.Ich hab mich mit Absicht diesem Thread eine Weile ferngehalten, da kann man das mal sacken lassen und darüber nachdenken. Mein Schluss ist: Jedes Frame für sich muss korrekt berechnet werden. Dann flimmert es weder bei langsamer noch bei schneller Bewegung. Nur weil das Flimmern bei schlechten Monitoren (unscharfen CRT oder zu langsam schaltenden TFTs) bei gleichzeitig hoher Framerate gemildert wird, ist das kein korrekter Weg. Die Berechnung nicht flimmernder Einzelbilder führt auch bei hoher fps-Zahl zum besseren Ergebnis.

Außerdem sollte man sich überlegen, wozu der G70 gedacht ist. Der hat SM3 und HDR-Beschleunigung – richtiges HDR-Lighting (unter anderem mit HDR-Lightmaps und mit adaptivem Tonmapping) wird aber richtig die fps-Zahl drücken.

Außerdem kann es auch bei hohen fps-Zahlen zum flimmern kommen. Dazu müssen lediglich bestimmte "Texturbewegunggeschwindigkeiten" mit den richtigen fps-Zahlen zusammenkommen. Bei korrekt gefilterten Einzelbildern geschieht das natürlich nicht.

aths
2005-08-16, 15:06:43
Nein aber ich finde, das man BQ Verbessernden Maßnahmen die gebührende Aufmerksamkeit schenken sollte. Neue TFTs sollte schön langsam schnell genug für TSAA sein. Imo müssten sogar 13ms bei 75Hz reichen. Man sollts ruhig mal ausprobieren. Denn Temporal AA glättet nicht nur stehende Kanten sondern auch langsam bewegte bis 0.5 Pixel * Frames/s. Und passenderweise sinds genau solche langsam bewegten Kanten die das (Polygon)Aliasing überhaupt so störend machen.Zum temporalem AA hatte ich mich schon genügend ausgelassen als es von ATI eingeführt wurde. Das will ich nicht noch mal alles wiederholen. Als Option für den Kunden – gerne. Als "Optimierung" für bestehende AA-Implementierung – no fucking way.

aths
2005-08-16, 15:11:29
... weil ich nicht im Ansatz die Zeit hatte, mit der Karte zu spielen. Bezogen auf den 7800GT Test ist dabei wohl das absolute Extrem ereicht worden: Die Karte wurde in der Zeit zwischen Übergabe und Launch ganze 5min nicht zum Benchmarken benutzt. Das war die Zeit, wo die das UPS-Paket geöffnet habe, die Karte eingebaut und installiert habe.Der Vorwurf, das Flimmern nicht gesehen (oder nicht darüber geschrieben) zu haben, ist außer Damien Triolet allen anderen G70-Launch-Redakteuren zu machen. Das Review von B3D zum Beispiel schweigt sich auch darüber aus, was das AF-Problem angeht. Dafür haben wir es später in den News gehabt und jetzt im Artikel.

Für das nächste mal sind wir schlauer und werden das, was in der Eile möglich ist, auch an Qualitätstests durchführen. Ich bin gespannt, wie viele andere Websites das ebenfalls tun werden.

aths
2005-08-16, 15:15:17
P.S.
hat eigentlich mal jemand bedacht, das Fraps beim Capturen frames dropt? Ich glaube das ist der Hauptgrund für die Flimmerverstärkung und nicht die niedrigen FPS.Ja das habe ich bedacht, aber das ist praktisch Wurscht. Zwar ist der zeitliche Abstand zwischen den Frames etwas anders als bei echten 30 fps (mal ein klein wenig größer, mal ein kleine wenig kleiner) aber das macht nichts. Das Flimmern wird damit nur hin und wieder mal minimal (durch die zeitlich manchmal etwas größeren Abstände) verstärkt, und (durch die zeitlich manchmal etwas kleineren Abstände) manchmal abgeschwächt.

aths
2005-08-16, 15:20:34
obrian wollte wohl darauf hinaus, dass der flimmereffekt in spielen durch die dynamik des spiels eventuell nicht so auffällt, wie in den videos, die doch recht statisch sind. das ändert natürlich nichts daran, dass der g70 stärker in hq flimmert, als der nv40. die videos lieferen somit einen objektiven beweis für die stärkere flimmeranfälligkeit des g70, während es in spielen eben je nach spiel und situation nicht so stark auffällt. dieser eindruck ist jedoch subjektiv, da die wahrnehmungsgrenze für das flimmern wohl bei jedem menschen etwas anders ist .So ist es – auf eine Diskussion, ob der G70 in "Real-World-Situationen" flimmert, lasse ich mich gar nicht erst ein. Man kann sich natürlich auf den Standpunkt stellen dass die Videos nur Theoriequatsch wiedergeben und es darauf ankomme, wie es in Spielen aussieht und auf nichts weiter. Hat man diesen Standpunkt, und vergleicht immer nur mit der jeweiligen Vorgänger-Generation, wird man sich immer weiter stückweise bescheißen lassen.

Hat bitte jemand mal, der die Videos flüssig abspielen kann, sich die FX-Variante angesehen und dann mit 7800 Standard verglichen? Und die die 7800 GTX ist 2,5x so texelstark wie die schnellste FX. Könnte mir bitte jemand erklären, wo das noch hinführen soll? Was bringt uns der G80?

aths
2005-08-16, 15:25:26
Das ist technisch umöglich. Beim NV40 tritt ja das Problem auch nicht auf. Das einzige was sein kann, ist dass das fraps Video in ner vgkl. zu Spieleauflösung geringeren Auflösung erstellt wird, deswegen die Mipmapstufen stärker vorgezogen sein könnten, was in besser sichtbareren Flimmern reusliteren dürfte. Das wäre nur der Fall, würde beim Verkleinern nicht gefiltert. Dann aber würden auch ehemals unflimmrige Bilder nach der Verkleinerung flimmern.

aths
2005-08-16, 15:33:11
Es geht nicht daraum, dass aths euch G70 Besitzern einreden will, dass euer Kauf Crap ist,Das nicht, aber ich rate derzeit allen Liebhabern von Texturqualität vom Kauf eines G70 ab.

aths
2005-08-16, 15:34:38
Ähm welchen Codec brauche ich denn, damit die Videos abgespielt werden?
(Nein, ich werde nicht den zu langen Thread durchlesen)Aber den Artikel? Da steht drin was man braucht, um die Videos abzuspielen.

aths
2005-08-16, 15:36:20
ich hau mich weg... diese comments von leuten die noch keine G70 gesehen haben ;D

ich möchte einfach wissen was euch das bringt? inzwischen sind wir drei GTX Besitzer die das genau gleiche behaupten und wir reden hier mit leuten die noch nie eine GTX gesehen haben und ihr behauptet nachwievor wir wollen unsere GTX verteidigen... so ein schmarren...

Ich verteidige den Artikel von Aths sobald er die Anmerkungen macht auch. Denn ich will wie er volle Qualität. das Problem ist nur das ich hier auf meinem Screen (nix TFT - Sony F500R 21" CRT) mit 4TSAA und 16AF einfach geniale Qualität habe ABER ich sehe ein das NV weiter an der Performanceschraube auf Kosten der IQ dreht (auch wenn man es noch nicht offensichtlich sieht) UND DAS muss abgestellt werden. Schade ist das 3Dcenter sich nicht die Mühe macht diese ganze geschichte persönlich zu testen...Leo hat in Q getestet, wie praktisch alle Reviewer – und keiner hat da was gesehen. Zeitdruck. Ich unterscheide zwischen dem, was Leute auf dem G70 sehen und dem, was der G70 objektiv bietet.

aths
2005-08-16, 15:37:50
"also jungs, NV hat ein AF Problem und wir schreiben mal tüchtig drüber ABER SO sieht es dann in den Spielen nicht aus ABER trotzdem kauft die Karte auf keinen Fall weil eben NV ein theoretisches Problem hat das man nur auf unseren Videos sieht..."So ein Statement wirst du von mir nie hören. Es ist kein "theoretisches" Problem. Wer schreibt das Problem sei nur theoretisch, redet sich den G70 schön. Warum es nicht nur theoretisch ist? – Das habe ich in den letzten Seiten dieses Threads mehrfach ausgeführt. Wer gerade die 7800 GTX gekauft hat, möchte damit natürlich zufrieden sein – kein Grund das im Artikel gezeigte Problem als "theoretisch" einzustufen, welches in der Praxis keine Auswirkungen hätte. Solange die Käufer dermaßen unkritisch mit ihren Produkten umgehen, wird der IHV keinen Grund sehen, sein Verhalten zu ändern.

aths
2005-08-16, 15:39:09
nvidia profitiert mind seit der geforce6 stärker von weniger texturlast als ati, da die ALUs nicht parallel zu den TMUs arbeiten, wie bei den kanadiern.Das hängt davon ab, wie man es sehen will. Natürlich können auch auf einer GF die TMUs und die ALUs im gleichen Takt beschäftigt sein.

aths
2005-08-16, 15:45:11
am besten sieht man das problem in geringen auflösungen bei niedrigen fps. aber da flimmert jede karte mehr und ich sehe nicht ein warum eine GTX bei 800x600 und 20fps getestet werden sollte... völliger unsinn und nicht mit dem realen spielerlebnis zu vergleichen und somit wertlos.Die Videos sind in 1024x768 und 30 fps. Die korrekten Filter flimmern eben nicht nicht mehr bei niedriger Auflösung oder fps.

Nur kaputte Filter flimmern dann mehr. Das heißt, der G70-Filter flimmert immer, aber der Monitor verwischt es bei hoher Auflösung hoher fps-Zahl besser.

tombman
2005-08-16, 15:46:14
ich weiß schon was das Problem war mit fraps und der Qualität: fraps erzeugt die richtigen Bilder aber DER PLAYER womit man die Videos ANSIEHT verfälscht das Bild je nachdem ob man hardware oder software decoding nimmt und welche bildverbessernden Maßnahmen man dort aktiviert hat.

Meine "fetten news" sind daher ned ganz korrekt --> es kommt also weniger auf fraps an als auf den PLAYER womit man sich die ansieht und dessen Einstellungen!

Trotzdem vermindert eine erhöhte framerate den Flimmereffekt; zumindest diese Erkenntnis sollte noch in den Artikel rein. Die fraps Videos sind ja 30fps, und mit einer 7800GTX (oder zwei) spielt man nur äußerst selten auf 30fps ;)

aths
2005-08-16, 15:47:42
Es sei dir gegönnt. Ich frage mich woher du wissen willst, dass ich neidisch auf einen GTX-Besitzer wäre.Ich bin froh, noch meine 5900 XT zu haben. Texturqualität und noch mal Texturqualität. Für aktuelle Spiele zu langsam, aber die spiele ich ja nicht. In allen älteren Games: Geniale Texturen. Da muss man sich nicht von irgendwelchen Dingen ablenken lassen, sondern kann in aller Ruhe die Texturen genießen.

Gast
2005-08-16, 15:50:56
@aths

Mein Fazit zu der Sache ist,nVidia hat mist gebaut!

Aber die vielen Tester haben die sache durch ihre Reviews(mehr als 30 oder so ),auch nicht besser gemacht.Ist es nicht ein Test der den Käufer überzeugen soll ob das Produkt auch das Liefert was versprochen wird,für mich haben die Tester also eine Mitschuld an der Sache,und Leute die sich eine 7800GTX kauften,haben sich von den vielen Tests blenden lassen,was nützt einem die schnellste Karte wenn die Qualität nicht stimmt die versprochen wird?!

Also wenn ihr jetzt Konsequent seinen wollt, dann solltet ihr und andere Review Seiten,solche sachen wie den Tunnel Test oder die schönen Beispielvideos in das Testsystem miteinbauen und nicht unter druck Testen,wenn ein Test nur halbherzig durchgeführt wird,kann man ihn auch bleiben lassen!

ps. Ich hoffe das auch die Tester aus solchen Fehlern lernen

Marc-
2005-08-16, 15:57:29
ich weiß schon was das Problem war mit fraps und der Qualität: fraps erzeugt die richtigen Bilder aber DER PLAYER womit man die Videos ANSIEHT verfälscht das Bild je nachdem ob man hardware oder software decoding nimmt und welche bildverbessernden Maßnahmen man dort aktiviert hat.

Meine "fetten news" sind daher ned ganz korrekt --> es kommt also weniger auf fraps an als auf den PLAYER womit man sich die ansieht und dessen Einstellungen!

Trotzdem vermindert eine erhöhte framerate den Flimmereffekt; zumindest diese Erkenntnis sollte noch in den Artikel rein. Die fraps Videos sind ja 30fps, und mit einer 7800GTX (oder zwei) spielt man nur äußerst selten auf 30fps ;)

Es sei denn man spielt zum beispiel die FEAR demo in künstlerisch wertvollen grafikeinstellungen:)

Ich finds aber lustig wie du in deinen "fetten news" und vorher allen möglichen posts vorher sämtlichen beteiligten die kompetenz abgestritten hast und unterstellt hast sie seien net nur zu dämlich mit fraps gescheite und fehlerlose vids aufzunehmen sondern auch noch ziemlich grosskotzig hingestellt hast das DU der einzige seist der überhaupt eine hardware besitzt mit der es möglich wäre. Sowas nennt man glaubbich den satten tritt in den eigenen arsch... aber mit anlauf:9
Andererseits find ichs gut, das du es hier zumindest richtigstellst. Dafür respekt.

aths
2005-08-16, 16:00:15
Wäre schön, wenn sich mehr Besitzer eines G70 mal melden würden. Dunkeltier hat seine ruckzuck wieder abgestoßen, habe ich gehört. HOT fummelt auch an seiner rum und sucht nach nem Wundertreiber ohne Griesel.......

Sagen wir mal wie es ist: irgendwas an dem Ding ist panne. Ob man damit leben kann oder nicht, hängt von einzelnen Faktoren stark ab: Vom Content, von der Empfindlichkeit des Spielers, von der Peformance etc......
Das Video mag ja wie ne Lupe wirken und es im realen Spiel halb so heiß sein wie es hier gekocht wird.
Damit jeder sich ein Bild vom realen Spiel machen kann, müsste er halt ne G70 in Aktion erleben bei seinem Lieblingsspiel, dass ihm von seiner bisherigen Karte vertraut ist. Ziemlich illusorisch. Besser wären doch mal Spielesequenzen aus einem Strauß verbreiteter Spiele. Mir ist dieser Tunnel auch ein bissken zu synthetisch und scheint die Sache zu überspitzen. Oder glaubt jemand, dass es im Spiel auch so ausschaut wie bei alten Dos- Klassikern? Wenn ja, dann müssten die Reviewer ja Tomaten auf den Augen gehabt haben.Haben sie auch – vergiss nicht, in der Regel wurde mit Q gebencht.

Welcher der GTX-Besitzer aus dem 3dcf spielt in Q?

Kaum ein Reviewer dürfte tatsächlich gespielt haben, er hat gebencht – ohne groß hinzugucken, da in der Zwischenzeit am Artikel weitergeschrieben wurde.

Es ist in der Tat relativ dünnes Eis, dass man die Videos eines Dritten heranzieht und Aussagen über die Qualität von Hardware macht, ohne sie persönlich zu testen. In diesem Sinne Ack! an Ulukay.Wenn Damien das testet, ist das sicherer als hätte ich getestet. Damien hat mir schon bevor er mir die unkomprimierten Videos schickte gesagt, dass das Flimmern in Spielen weniger auffällt. Darum geht es mir nicht. Es fällt weniger auf, ist aber da. Genau so stark wie die Videos zeigen. Der Monitor verwischt es bei hoher fps-Zahl besser, bei hoher Auflösung werden die Bänder zudem nach "hinten" geschoben. Der Artikel beschäftigt sich nicht damit, ob man mit dem Flimmern in Spielen leben kann. Er beschwert sich darüber, dass NV dem Spieler flimmerfreies AF jetzt ganz verwehrt und dass der Standard-Modus – völlig entgegen dem, was im Reviewer-Guide steht – einfach nur Crap ist. Außerdem wird völlige Verständnislosigkeit für die winkelabhängige Senkung des AF-Maximalgrades geäußert.

Mir geht es sowieso oft auf die Nerven, dass viel theoretisiert wird und es in "echt" dann doch anders ist. So wird von aths immer wieder betont, dass das AF der FX genauer und damit per se besser ist. Nur sehen müsste man es können! Die Videos zeigen es. Wenn du es in deinen Spielen nicht siehst, ok.

Was Polygaps etc. angeht – ich kann mich nicht um alles gleichzeitig kümmern.

Im Prinzip finde ich die Schelte für NV gut, aber etwas besser absichern täte not.NV hat sich bei mir noch nicht gemeldet. Es wäre ein leichtes für NV, uns zu widerlegen, wenn der Artikel falsch wäre.

aths
2005-08-16, 16:07:27
MEINE Erwartungen WURDEN erfüllt, es gibt nicht "die" Erwartung. Es ist ein kleiner Schönheitsfehler, aber LANGE nicht auseichend irgendeine meiner Entscheidungen zu bereuen.Ich sags doch, in dieser Gesellschaft ist es so, dass man öffentlich keine Kaufentscheidung eines teuren Produktes bereut. Der "kleine" Schönheitsfehler ist ein weiterer Schritt auf dem Weg zu immer schlechterer und noch schlechterer Texturfilterung.

Die 7800 GTX bleibt die beste Grafikkarte die man derzeit haben kann, basta.

AF-Fanatiker wie du mögen die 7800 GTX als Katastrophe bezeichen, für mich ist dieser negativ hype lächerlich.Die GTX liefert deutlich schlechtere Texturen als die GeForce3 anno 2001. Mir hat noch keiner gesagt, dass GF3-Texturen zu gut seien. Auf dem G70 bekommt man sie mit aktuellen Treibern nicht mal flimmerfrei. Das an die große Glocke zu hängen ist nicht lächerlich, sondern notwendig.

aths
2005-08-16, 16:12:58
Sehe ich das richtig, daß hier teils nicht erkannt wird, daß das Video eine absolute Laborszene darstellt und nur das höchstmögliche Maß an "Bosheit für den Filter" liefern soll?Es gäbe wohl Szenen in denen man die "Bosheit" noch stärker hätte herausarbeiten können. Dazu müsste man aber lange nach einer geeigneten Textur und Level-Geometrie suchen. Die FX zeigt, wie gut sich die dargestellte Szene bewältigen lässt, NV40 HQ und X800 generell zeigen die große Schwäche der Winkelabhängigkeit und kleinere Schwächen bezüglich Flimmertendenz. Der G70 versagt. Auf ganzer Linie. Das zeigt der Artikel.

Leider versuchen viele, insbesondere die G70-Besitzer, das Problem kleinzureden. Das war beim R300-AF so, das war teilweise beim brilinearen Zwangsfilter bei den FXen so. Ulukay meint er redet gegen eine Wand? Nun, ich rede gegen eine Wand. Eine Wand aus den vereinigten Besitzern der kritisierten Hardware.

aths
2005-08-16, 16:17:40
Dass das AF nicht das Goldgelbe vom Ei ist, bestreitet ja niemand.Das AF ist nicht nur nicht das goldgelbe vom Ei, es ist auch nicht das Gelbe vom Ei, es ist schlicht Crap.

Dass das AF stinkt, ist klar. Und nur die Frage: Ist die G70 wirklich so ein Griff ins Klo, dass man sie verreißen sollte?Wie weit darf der IHV denn für dich gehen, ehe man ihm unmissverständlich klar machen muss, dass er den Bogen überspannt hat?

Leider wird es aber so kommen, wenn keine relativierenden Fälle aus der Praxis vorliegen. Belegen Praxisfälle, dass es wirklich so scheiße ist, auch gut. Wenn nicht, wird das Produkt sinnlos gebasht...Ich erinnere mich an HL2, wo im Forum sehr viele Entschuldigungen für die Grafik-Patzer hervorgebracht wurden. Entschuldigen die vielen Pluspunkte beim G70 das AF?

Was passiert, wenn AF á la G70 Standard wird?

- Spiele müssen unscharfen Texturcontent verwenden.

- Spiele müssen in hohen Auflösungen sehr viele fps bringen.

- Man sollte keine zu guten Monitore nutzen.

Ist das effizient? Nein. Es ist effizienter, jedes einzelne Pixel so "gut" zu berechnen, wie möglich. Dann sieht es auch bei weniger fps und in geringen Auflösungen noch gut aus. Man muss beim G70 mehr Leistung aufwenden, um das Problem zu mildern, als der "optimierte" Filter an Geschwindigkeit wieder rausholt. Nur weil der G70 für heutige Spiele mehr als genug Leistung hat, lasse ich ihm das nicht durchgehen.

aths
2005-08-16, 16:19:50
nur ein kleiner Hinweis: fraps braucht eine sauschnelle Festplatte (am besten raid 0) um 1024x768 überhaupt in 30fps capturen zu können, und ich weiß nicht, ob triolet das beachtet hat...Siehst du denn Framedrops in den Videos?

aths
2005-08-16, 16:24:18
Wird es eigentlich eine englische Übersetzung des Artikels geben?
Weiss jmd etwas konkretes darüber?Ich habe leider keine Zeit, den Artikel zu übersetzen bzw. ausgehend von der Google-Übersetzung den Artikel in vernünftiges Englisch zu bringen.

Es wird in Englisch eine Anleitung geben, wie man die Videos abspielt und was man auf den Videos sieht.

(del676)
2005-08-16, 16:25:38
Es gäbe wohl Szenen in denen man die "Bosheit" noch stärker hätte herausarbeiten können. Dazu müsste man aber lange nach einer geeigneten Textur und Level-Geometrie suchen. Die FX zeigt, wie gut sich die dargestellte Szene bewältigen lässt, NV40 HQ und X800 generell zeigen die große Schwäche der Winkelabhängigkeit und kleinere Schwächen bezüglich Flimmertendenz. Der G70 versagt. Auf ganzer Linie. Das zeigt der Artikel.

Leider versuchen viele, insbesondere die G70-Besitzer, das Problem kleinzureden. Das war beim R300-AF so, das war teilweise beim brilinearen Zwangsfilter bei den FXen so. Ulukay meint er redet gegen eine Wand? Nun, ich rede gegen eine Wand. Eine Wand aus den vereinigten Besitzern der kritisierten Hardware.

[ ] du hast den sinn meiner posts verstanden.

anscheinend hast du sie nichmal richtig gelesen, schade.

aths
2005-08-16, 16:28:40
FEAR und SSAA schliessen sich Performancetechnisch aus....das ganze lief ohne AA, damit ich gleiche Einstellungen auf beiden Karten nehmen konnte.

Wenn man in irgendeinem anderen Game SSAA einschaltet, sieht man sowieso kein Flimmern irgendeiner Art mehr (egal ob 68U oder GTX).Shader-Flimmern kann man auch bei aktivem SSAA sehen, HL2 ist ein gutes Beispiel.

Du findest das GTX-AF sei gerade noch so brauchbar. Ich finde das nicht, denn es zeigt sich Aliasing. Beim Texturfilter akzeptiere ich kein Aliasing, denn der Texturfilter ist dazu da, aliasingfreie Texturen zu erzeugen. Die AF-"Optimierung" beim G70 bringt etwas höhere fps-Zahlen – völlig unnötig bei der extrem Rohleistung. Um das Flimmern zu mildern muss man viel mehr Leistung aufwenden, als man durch die "Optimierung" an Geschwindigkeit gewonnen hat. Ausgehend vom G70 wird es auch schwächere Karten geben. Wenn die Kunden mit dem G70-AF zufrieden sind, werden die kleineren Karten das gleiche AF bieten. Und Nvidia gewöhnt uns an das Flimmern, und zieht die Qualitätsverschlechterungsschraube in der Folgegeneration noch etwas fester an.

P.S.
ich muss überigens Ullukay zustimmen, das sich aths das ganze erst mal Live ansehen sollte, bevor er bestimmte generalisierte Aussagen trifft.Ja, jedes Argument ist recht, um zu verzögern, abzuschwächen oder weiß der Fuchs.

aths
2005-08-16, 16:29:21
[ ] du hast den sinn meiner posts verstanden.

anscheinend hast du sie nichmal richtig gelesen, schade.[ ] du hast den sinn meines artikels verstanden.

anscheinend hast du ihn nichmal richtig gelesen, schade

(del676)
2005-08-16, 16:30:21
[ ] du hast den sinn meines artikels verstanden.

anscheinend hast du ihn nichmal richtig gelesen, schade

habe ich, ich habe dem sogar zugestimmt
aber anscheinend bist du dir zu gut meine posts zu lesen :rolleyes:

aths
2005-08-16, 16:30:39
Du kannst DEINE Wertung genauso festlegen wie ATHS, der einer GF3 einer 7800GTX wahrscheinlich vorziehen würde (;D ), ich mache das eben anders.

Meine Gewichtung ERLAUBT den KLEINEN "Punktabzug" der 7800GTX in der AF-Qualität, bekommt die 7800GTX durch die Leistung und andere hochwichtige features soviele Gutpunkte, daß sie TROTZDEM weit oben auf Platz 1 rangiert.

ICH habe sogar einen 1300€ TFT, einen der besten die es gibt, zurückgeschickt und meinen FW900 behalten, weil MEINE Gewichtung bzgl Bewegungsunschärfe so hoch war, daß der TFT den ersten Platz nicht halten konnte :eek: 95% aller user hätten wahrscheinlich anders entschieden.Wow du bist aber toll mit deinem teuren Equipment. Deine Aussagen sind ab heute Maßstab für 3DC-Artikel.

aths
2005-08-16, 16:31:45
Die 7800GTX hat ein LEICHT schlechtere AF Qualität, sprich sie wurde zu hoch optimiert im Vergeich zur X800 oder 6800 Serie, aber noch lange nicht ausreichend um irgendwelche schwerwiegenden Konsequenzen zu ziehen oder die Karte gar zu disqualifizieren. Sogar ATHS, dem AF-Profi, ist dieses Problem selbst zuerst gar nicht aufgefallen beim normalen Spielen, also wie schlimm kann es sein, wenn es nicht mal einem AF-Fanatiker auffällt? Und wie schlimm wäre es dann überhaupt für die Masse?Mir ist bei der 7800 beim Spielen gar nichts aufgefallen, weil ich mit einer 7800 nie gespielt habe.

aths
2005-08-16, 16:33:07
Ach ja nochwas: ICH sehe auch bei FX noch ein Grieseln, was sagt ihr jetzt?Was ist "grisseln" für dich? Was ist "flimmern"? Wovon spricht der Artikel? Ist das FX-Video besser oder schlechter als das 7800-Video? Ist der Unterschied klein oder groß?

aths
2005-08-16, 16:34:59
Jungs, ganz ruhig!

Wir sind uns alle einig das das AF des G70 nicht das Gelbe vom Ei ist. Fakt ist imo auch das es stark vom betrachter abhängt wie stark er das flimmern wahrnimmt. Der Artikel war notwendig damit es in zukunft mit dem AF nicht noch weiter bergab geht.

Stimme aber sonst mit Ulukay überein: Man sollte nicht Dinge bewerten die man selbst noch nicht "live" erlebt hat. Ich persöhnlich werde mich von der AF-Qualität erst live auf der GC überzeugen und dann danach urteilen, vielleicht treffen wir uns dort und bilden einen 3DC-Squad der das AF des G70 untersucht ;D

GrUßDer Artikel war sinnlos, wenn die große Mehrheit der GTX-User das AF-Problem akzeptieren.

aths
2005-08-16, 16:36:41
Für mich bedeutet das in erster Linie eins das alle die G70 Tests die ich gelesen habe für die Katz sind und mir diese keine genauen Information geben wie gut oder schlecht denn nun die G70 wirklich ist.Genau. Das habe ich am Ende des Artikels ja auch noch mal explizit gesagt.

aths
2005-08-16, 16:37:34
Die "Laborbedingungen" sind keine, weil EIN Mann kein Labor ist, außerdem wurde bereits von ulukay und mir entlarvt, daß fraps keine korrekten Eindrücke von real life AF Qualität vermitteln kann- also von Nutzern die alle Vorraussetzungen haben alles selbst zu testen, ganz im Gegensatz zu anderen usern/reviewern hier ;)Damien hat mehr drauf, als 3 Tombmänner und 5 Ulukays zusammen.

(del676)
2005-08-16, 16:39:34
Damien hat mehr drauf, als 3 Tombmänner und 5 Ulukays zusammen.
gut lieber aths, wenn du mich mit einem tombman vergleichst behaupte ich ab jetzt dass du keinen deut besser bist als ein computer bild schreiber.

aths
2005-08-16, 16:41:05
Hätte ich eine GTX, wäre mir das mit deinen ingame-Erfahrungen während des Zockens womöglich genauso egal, weil nicht deutlich sichtbar. Worüber ich mich aber schwarzärgern würde ist, dass Nvidia mich als User immerwieder veralbert und dieses Veralbern immer dramatischere Auswüchse annimmt. Dafür habe ich absolut kein Verständnis.Genau. Reviewer werden im Guide schlicht angelogen (ob aus Inkompetenz oder mit Absicht, weiß ich nicht) und der User hat im Treiber Einstellmöglichkeiten, die mal was bewirken und mal nicht. Dabei wirken sich praktisch alle dieser Bugs so aus, dass man weniger Qualität bekommt als man eingestellt hat. Diese Ungleichverteilung ist ein starkes Indiz dafür, dass hinter den Bugs eine Absicht steht.

aths
2005-08-16, 16:42:33
gut lieber aths, wenn du mich mit einem tombman vergleichst behaupte ich ab jetzt dass du keinen deut besser bist als ein computer bild schreiber.Du kannst behaupten, was du willst. Vorerst solltest du lesen – ich habe dich und Tombman mit Damien verglichen, nicht dich mit tombman.

(del676)
2005-08-16, 16:43:02
jap MR. Computerbild

aths
2005-08-16, 16:45:30
um noch mehr falsches futter den trollen hinzuwerfen? ich glaube das lässt er lieber... kannst dafür ja nochmal mein movie von HL2 ansehen...

Wir GTX Besitzer sagen nicht das AF sei wunderbar... das AF ist shice im Vergleich zu den alten GF's. Aber das AF der GTX ist auf der Höhe der 6800Ultra mit HQ und mit TSAA ist der IQ Eindruck sogar besser als bei einer 6800Ultra. Es geht uns rein darum das das HQ Video der GTX total nicht der Realität entspricht!Die Videos zeigen die Realität dass der G70 objektiv deutlich schlechter filtert als die anderen Karten. Ob man Flimmern das mit anderem Content (weniger scharfen Texturen) und anderen Frameraten in der Sichtbarkeit senken kann, wird im Artikel nicht dikutiert.

Gast
2005-08-16, 16:46:01
@aths

Mein Fazit zu der Sache ist,nVidia hat mist gebaut!

Aber die vielen Tester haben die sache durch ihre Reviews(mehr als 30 oder so ),auch nicht besser gemacht.Ist es nicht ein Test der den Käufer überzeugen soll ob das Produkt auch das Liefert was versprochen wird,für mich haben die Tester also eine Mitschuld an der Sache,und Leute die sich eine 7800GTX kauften,haben sich von den vielen Tests blenden lassen,was nützt einem die schnellste Karte wenn die Qualität nicht stimmt die versprochen wird?!

Also wenn ihr jetzt Konsequent seinen wollt, dann solltet ihr und andere Review Seiten,solche sachen wie den Tunnel Test oder die schönen Beispielvideos in das Testsystem miteinbauen und nicht unter druck Testen,wenn ein Test nur halbherzig durchgeführt wird,kann man ihn auch bleiben lassen!

ps. Ich hoffe das auch die Tester aus solchen Fehlern lernen



Das war mein Post und ich wollte noch anfügen,das ein Highend Produkt in der Preisklasse von ca. 500€,schon schnell sein sollte aber auch bei BESTER Bildqualität!
Und noch angemerkt ich habe eine 7800GTX und ich finde bei dem Preis muss einfach die BQ stimmen,da nützten die vielen anderen Vorteile nichts,wenn ein Fehler das ganze kaputt macht!
Ich bin am überlegen ob ich sie nicht auch zurück gebe,ein paar Tage Rückgaberecht habe ich noch...
Aber ich hätte sie mir nicht gekauft wenn das sofort in den Testberichten gestanden hätte,der Artikel kam ein wenig zu Spät!

(del676)
2005-08-16, 16:46:04
habe ich, ich habe dem sogar zugestimmt
aber anscheinend bist du dir zu gut meine posts zu lesen :rolleyes:

wird das irgendwann beantwortet?
oder absichtlich totgeschwiegen?

aths
2005-08-16, 16:49:26
Ich hab mich aus der Diskussion bisher rausgehalten, da sie mir mit zu viel Emotion geführt wird und insbesondere von der ATI-Fraktion mit Genuss ausgeschlachtet wird. Um das nach Möglichkeit zu vermeiden, wird im Artikel auch ATI kritisiert. Klar ist, dass die Freude von Leuten, die GF-Karten schon immer scheiße fanden, nicht Maßstab für die Bewertung des G70 sein darf. Klar ist aber auch, dass die milde Sichtweise von G70-Usern nicht alleinige Bewertungsgrundlage ist. Die Videos zeigen die Fakten, wer korrekt filtern kann und wer nicht.

Also: Gut dass aths und 3DC das anspricht. Das ganze MUSS abschaltbar sein.

Aber: Kein Grund den G70 in der Luft zu zerreissen und vom Kauf zurückzuschrecken, wenn man eine möglichst leistungsfähige Karte haben will.Leistung ist Arbeit pro Zeit. Beim Filtern verrichtet der G70 zu wenig Arbeit. Die Leistung steigt durch das Flimmern nicht. Effektiv sinkt die nutzbare Texel-Leistung sogar, da es teurer ist, das Flimmern nachträglich zu reduzieren als von vornherein korrekt zu filtern.

Wenn sich der G70 gut verkauft, man NV also mit dem AF durchkommen lässt, wird der Trend der Filterverschlechterung nicht aufgehalten.

Seraf
2005-08-16, 16:51:14
Hach schonwieder zwei G70 Besitzer.
Würde jetzt mal einer von euch testen ob es stimmt was Blaire geschrieben hat???
http://www.forum-3dcenter.de/vbulletin/showpost.php?p=3378761&postcount=414

aths
2005-08-16, 16:54:15
Mit dem Moiré-Monster kriegt man jede Karte zum Flimmern. Wie sehr eine Karte zum Flimmern neigt, ist durchaus ein wichtiges Qualitätsmerkmal. Die G70 ist bei diesem Merkmal der NV40 und der R420 unterlegen. Die Vergleichsvideos zeigen, dass keine Monster-Textur vorliegt. Der G70 dürfte also nicht flimmern. Tut er aber.

Inakzeptabel ist aber anders. Mir persönlich ist die höhe Geschwindigkeit bei höchster Qualität (minus Grieseln) und die optimale Ausnutzung aller Features moderner Spiele deutlich wichtiger als eben ein Grieseln, was ich bestenfalls in einigen ganz speziellen, seltenen Situationen überhaupt sehen kann.Inakzeptabel ist, dass der Kunde letztlich doch alles zu schlucken bereit ist und sich mit anderen Dingen tröstet. Anstatt die Augen zu öffen, über den Tag hinauszudenken und bereit ist, für ein besseres Morgen einen Verzicht im Heute hinzunehmen.

aths
2005-08-16, 16:55:26
Nebenbei: schaut man in den ersten Post dieses Threads - es ist unglaublich, welche Resonanz der Artikel erfährt! Dies SCHREIT nach einer Übersetzung!Wenn sich hier Leute finden, nur gut. Ich mach dann das finale Review, werde aber selbst nicht den Artikel übersetzen.

Wer übersetzen will kann die automatische Google-Übersetzung als Ausgangspunkt nehmen.

aths
2005-08-16, 16:58:45
Hallo

Ich wollte mir auch eine 7800GTX zulegen,aber der Artikel hat mich ein wenig
verunsichert.
Die Karte hat ja im gegensatz zu den Ati Grafikboards sehr viele bessere
Features,aber wenn die so stark flimmert bringen die einem woll auch nicht
viel oder ?

Und was mich noch wundert,ich habe fast 20 Testberichte zur 7800GTX
gelesen,überall hieß es schnellste Karte und Beste Bildqualität,wieso ist da
keinem aufgefallen,das die Bildquali doch nicht so super ist,es hätten doch ein paar mehr Tester das bemerken sollen,und das bemängeln sollen!Zumal die meisten Tester im Standardmodus, der "Quality" heißt gebencht haben. Welcher der G70-User im 3DC-Forum spielt mit dem Treiber-Default?

Meine Frage nun, ist das mit einem besseren Treiber zu beheben,oder liegt
es allgemein an der Hardware und es besteht keine möglichkeit es zu
ändern,Das ist noch nicht mit Sicherheit geklärt. Wahrscheinlich könnte er mit dem richtigen Treiber flimmerfrei sein.

ich frage mich wieso noch keine Hardwareseite bei Nvidia nachgefragt hat,um das endlich zu klären.Nvidia kann man immer fragen, ob man eine Antwort erhält, die auch auf die Frage eingeht, ist etwas anderes. Beim persönlichen Gespräch mit Jens Neuschäfer und David Kirk hatte ich den Eindruck, dass das derzeitige AF gewollt ist, und keinen Bug darstellt.

aths
2005-08-16, 17:01:46
Und wer jetzt wieder damit kommt. dass zu NV30 Zeiten das AF auch schon nicht verlgleichbar war, so hat man ATi immer mit 16x gebencht wo NV nur 8xAF filtern musste. Iirc gabs auch einige Reviews wo bei NV nur 4xAF verwendet wurde. Imo durchaus fair und damals die einzige Möglichkeit für ca. vglbare BQ zu sorgen. Die Qualität ist auch dann nicht vergleichbar. Egal ob man 4x oder 8x GF vs. 16x Radeon bencht – das Bild ist immer anders. (Es geht nicht nur um "ingesamt besser oder schlechter".)

aths
2005-08-16, 17:05:10
Aber übertreiben muss man es trotzdem nicht. Ich bereue die Ausgabe von ca. € 1100 jedenfalls nicht.Und dann erwartest du, dass NV sich bewegt?

aths
2005-08-16, 17:13:30
habe ich, ich habe dem sogar zugestimmt
aber anscheinend bist du dir zu gut meine posts zu lesen :rolleyes:Von welchem Posting du jetzt konkret sprichst, weiß ich nicht. Aber in der Tat macht es mir selten Freude, deine Postings zu lesen. Der Stil ist mir in der Regel zu grob. Wir sind hier nicht in irgendeinem Thread, wo man sich auch kappeln kann, sondern im offiziellen Thread zu einem 3dc-Artikel. Da erwarte ich einen bestimmten Umgang miteinander.
jap MR. ComputerbildInnere IL ist damit aktiv. Spart mir Zeit, danke.

Marodeur
2005-08-16, 17:22:48
Wenn man nicht irgendwo "STOP, so nicht" ruft wirds nie anders. Warum auch, so langs genug gibt die ihr Geld für die "schnellste" Karte opfern wollen könnens so weitermachen.

Von daher find ich nicht das übertrieben wurde. Im Gegenteil, jetzt wars an der Zeit.

Ein "ist doch nicht so schlimm", "Merkt man doch kaum", "Geht schon noch" ist genau die Reaktion auf die NV hofft damit sie weitermachen können. Bei der nächsten "Optimierungsstufe" dürfen dann wieder alle sagen "Ach merkt man doch kaum", "Geht schon noch".... :rolleyes:


Wenn es Grafikkarten, die mehrere Jahre auf dem Buckel haben, schöner hinbekommen fühle ich mich schon etwas verarscht. Gut das ich nicht ganz so viel Geld übrig hatte als ich den PC aufgerüstet hab...

Ich hoffe die nächsten Generationen machen nicht nur bei den FPS-Zahlen und der Länge der "Featureliste" einen Schritt nach vorn...