Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: HighEnd-Chip G70: Nur noch mit flimmernder Grafik?
MikBach
2005-08-20, 12:29:49
Das schlimmste wäre wenn sie eine App-Erkennung für HL2 einbauen :ugly:
Es wäre nicht schlecht wenn wir noch ein paar Beispiele von anderen Spielen hätten.
Bei BF2 sieht man das auch.
Man kann auch GTR nehmen. :devil:
Das wäre dann aber bisschen unfair, weil bei GTR NV von Haus aus unterlegen ist, was die AF-Qualli angeht.
(del676)
2005-08-20, 13:52:55
Doch, die Jubelschreie kann ich verstehen. Wenn sie von den Besitzern der G70 kommen. :tongue:
Hoffen wir mal das Beste......
Da fällt mir gerade ein: Auch auf meiner X800XT habe ich bei HL2 Artefakte in Form von Moire an gebumpten Hauswänden. Gerade eben aufgefallen bei einer Wand, die von Wellblech überzogen ist. Ich denke mal, dass dies eher am Content liegt. Bei Max Payne 2 darf man den Schärferegler auch nicht auf Maximum stellen........
Bin gerade wieder mal in East Mesa angekommen und bin immer noch der Ansicht, dass das Spiel klasse aussieht und selbst die Alphatests nicht stören müssen.....Wenn ich hier die Optik mit der Performance vergleiche, dann ist HL2 für mich gut optimiert.
schau mal in CSS auf die Map Compound, da sind alles Wellblechhäuser mit Moire :)
tombman
2005-08-20, 21:32:42
Dann kannste jeden Test mit min. Details fahren und den prollo hängen lassen.
Laber ned von prollo, Lippe.
MikBach
2005-08-20, 23:06:48
Laber ned von prollo, Lippe.
Labberlippe hat Recht.
Bei BF2 sieht man das auch.
Man kann auch GTR nehmen. :devil:
Das wäre dann aber bisschen unfair, weil bei GTR NV von Haus aus unterlegen ist, was die AF-Qualli angeht.
GTL hat übrigens die flimmerprobleme von GTR in keinster weise! das extrem flimmern von GTR scheint eher noch ein zusätzliches problem mit NV und der GTR engine zu sein oder so...
ich bin wirklich gespannt was uns NV jetzt als fixtreiber präsentieren wird. der wird einfach das gleiche AF wie die 6800 auf HQ haben was ein stillstand und kein vortschritt wäre.
btw. die pcgames warf sogar das gerücht in die runde es werde ein refreshchip geben und nicht unbedingt einen neuen treiber da NV nichts zur eigentlichen Lösungsart sagte... da hört aber der spass dann wirklich auf, den wenn die typen nur a bisserl hier lesen würden bzw. selber testen wüssten sie ja das es ein treiberproblem ist. blaire hat es ganz klar bewiesen.
(del676)
2005-08-20, 23:11:11
btw. die pcgames warf sogar das gerücht in die runde es werde ein refreshchip geben und nicht unbedingt einen neuen treiber da NV nichts zur eigentlichen Lösungsart sagte... da hört aber der spass dann wirklich auf, den wenn die typen nur a bisserl hier lesen würden bzw. selber testen wüssten sie ja das es ein treiberproblem ist. blaire hat es ganz klar bewiesen.
ja genau ... dann können sie sich gleich nen strick nehmen!
Piffan
2005-08-21, 00:40:26
GTL hat übrigens die flimmerprobleme von GTR in keinster weise! das extrem flimmern von GTR scheint eher noch ein zusätzliches problem mit NV und der GTR engine zu sein oder so...
ich bin wirklich gespannt was uns NV jetzt als fixtreiber präsentieren wird. der wird einfach das gleiche AF wie die 6800 auf HQ haben was ein stillstand und kein vortschritt wäre.
btw. die pcgames warf sogar das gerücht in die runde es werde ein refreshchip geben und nicht unbedingt einen neuen treiber da NV nichts zur eigentlichen Lösungsart sagte... da hört aber der spass dann wirklich auf, den wenn die typen nur a bisserl hier lesen würden bzw. selber testen wüssten sie ja das es ein treiberproblem ist. blaire hat es ganz klar bewiesen.
Meinst Du im Ernst, die hätte das erst durch uns erfahren. Ist ja ne niedliche Vorstellung...:D
Wenn das Ding ne Macke hat, könnte man es per Treiber umschiffen. Kostet aber ne Menge Performance. Daher würde ich einen Refresh gar nicht mal so abwegig halten....Aber was sind schon Gerüchte. :|
Seraf
2005-08-21, 08:12:57
Jetzt stehts schon bei warp2search.
http://www.warp2search.net/modules.php?name=News&file=article&sid=25116
MikBach
2005-08-21, 09:25:34
Wenn das Ding ne Macke hat, könnte man es per Treiber umschiffen. Kostet aber ne Menge Performance.
Wenn das Teil echt eine Macke hat, dann wäre die Performance durch Emulation unterirdisch.
Wurschtler
2005-08-21, 10:40:12
Ich wollte mir schon fast eine 7800GTX kaufen und jetzt lese ich erst das.....
Kann man damit rechen bzw. wie wahrscheinlich ist es, dass dieses Flimmer-Problem per Treiber gefixt bzw. zumindest verringert wird?
Seraf
2005-08-21, 10:45:23
Ich wollte mir schon fast eine 7800GTX kaufen und jetzt lese ich erst das.....
Kann man damit rechen bzw. wie wahrscheinlich ist es, dass dieses Flimmer-Problem per Treiber gefixt bzw. zumindest verringert wird?
Wenn du Zeit hast dann warte noch zwei Wochen. Dann werden wir sehen ob NV einen Treiber mit Fix bringt.
Wenn du Zeit hast dann warte noch zwei Wochen. Dann werden wir sehen ob NV einen Treiber mit Fix bringt.
Hallo,
ich warte jetzt schon ein Jahr auf den Bugfix für den Video-Bug beim NV40, dort waren die galten die gleichen Versprechungen.
Warum wurde das nicht nochmal aufgewärmt?
MikBach
2005-08-21, 10:54:58
ich warte jetzt schon ein Jahr auf den Bugfix für den Video-Bug beim NV40, dort waren die galten die gleichen Versprechungen.
Warum wurde das nicht nochmal aufgewärmt?
Was soll man da noch aufwärmen, wenn es ein Hardwarebug ist? :confused:
Grestorn
2005-08-21, 11:27:42
Was soll man da noch aufwärmen, wenn es ein Hardwarebug ist? :confused:
Der zudem in allen nachfolgenden Chip-Releases behoben wurde?
MikBach
2005-08-21, 11:56:52
Der zudem in allen nachfolgenden Chip-Releases behoben wurde?
Korrekt.
Einige graben echt "Leichen" aus.
Ice =A=
2005-08-21, 15:18:31
nVidia hat inzwischen auch klargestellt, daß das bei den 6800Ultra-und-GT-Karten ein Hardwaredefekt war bzw. ist.
Aber es stimmt schon, da hieß es auch erst, das werde mit neuen Treibern irgendwann nachgeliefert! War glatt gelogen!
Hoffen wir mal, daß es diesmal anders is!
MikBach
2005-08-21, 15:31:31
War glatt gelogen!
Wäre nicht das erste Mal... :wink:
Hoffen wir mal, daß es diesmal anders is!
Also ich bin da eher skeptisch.
Weder was die 2 Wochen betrifft, noch dass die BQ mit der 6800@HQ vergleichbar sein wird.
Lasse mich aber gerne eines Besseren belehren.
Keine Ahnung. IIRC gabs irgendwo solche BenchmarksWenn du es nicht belegen kannst, wäre ich mit solchen Behauptungen vorsichtig. Selbst dann, wenn es vereinzelt solche Benches gegeben hätte, so fanden die offensichtlich keine weite Beachtung.
Eigentilch nicht.Deshalb sollte man auch Benches 4x à la FX vs. 16x à la R300 nicht gegenüberstellen.
Stimmt. Es wird einem idF aber auch niemand unfaire Benchtaktik vorwerfen, wenn unter Ausschöpfen aller möglichen Settings möglichst vergleichbare BQ herstellen will. Das war zwar damals schon nicht ganz fair, aber nochweniger fair wärs gewesen, wenn z.B. NV einen langsame(re)n 4xRG Modus besessen hätte und man zu Gunsten der Performance trotzdem OG vs. ATi RG gebencht hätte...Es kommt nicht nur auf den Willen an, möglichst gleiche Settings herzustellen, es ist doch letztlich nur interessat dass die BQ gleich genug ist, um einen fps-Vergleich möglich zu machen. Die FX realisiert AF deutlich anders als R300, auch wenn beides "AF" genannt wird, besteht noch keine Vergleichbarkeit.
Ich würde Optimierungen so sehen: Mit einem Minimum an Rechenzeit ein Optimum an FPS und Bildqualität zu erzielen. Solange die Verschlechterung der Bildqualität nicht störend auftritt und es der Verbesserung der Performance dient, ist es optimal....Das Optimum an BQ hieße ja, das Maximum, oder? Dieses Ziel widerspricht vehement der Forderung nach einem Minimum an Rechenzeit.
Dumm nur, dass jeder ne andere Empfindlichkeit besitzt, ab wann ihn etwas stört. Heißt im Klartext, dass das Optimum für jeden individuell einstellbar sein muss. Wenn also fleißig optimiert wird, dann bitte auch ne Eingriffsmöglichkeit von Seiten des Kunden vorsehen. Andernfalls kann es schnell so sein wie im Falle des G70, dass ein guter Chip für viele Interessenten zu Tode optimiert wurde.
Was wäre eigentlich, wenn der Chip wirklich ne Macke hat und er nur durch Optimierungen halbwegs gut performt? Ob dann die Hardwaretester, die zu allem Übel auch noch mit Q gebencht haben, genug Mumm hätten und ihre ganzen Lobgesänge umstimmen? Bisher heißt es ja überall, wie toll der G70 doch sei. Überall? Nein, es gibt da noch einige unbeugsame Gall- äh Freax.........(Lupe auskram)Das Problem ist, dass die Mehrheit der Hardwaretester schon lange nicht mehr in der Lage ist, brauchbare Benchmarkvergleiche zu erzeugen. Das ist nicht nur ihre Schuld, da sich AA- und AF-Realisierungen nunmal deutlich unterscheiden können, und der Leser dennoch Benches mit AA+AF sehen will.
Man sollte endlich mal vom Thron herabsteigen, mit einem Review klären zu können, welche Karte besser sei. Ein Review soll (und kann!) klären, welche Ansprüche das reviewte Produkt wie gut bewältigt.
Man sollte endlich mal vom Thron herabsteigen, mit einem Review klären zu können, welche Karte besser sei. Ein Review soll (und kann!) klären, welche Ansprüche das reviewte Produkt wie gut bewältigt.
Da stimme ich 100% zu!
Korrekt.
Einige graben echt "Leichen" aus.
Du mußt schon RICHTIG lesen, Da war ein ???? - Zeichen!
Der Fehler wurde noch nicht behoben und ist auch keine Leiche, da NVIDIA immer noch mit diesem Feature WERBUNG macht! Check ma www.nvidia.de aus! Ich für meinen Teil habe nv schon immer RICHTIG eingeschätzt! Viel Versprechen und nix EINHALTEN!
Wenn Sie tatsächlich einen Treiber-Fix rausbringen würden, müßten Sie die LOW-Qual. - MIP-MAPS ausschalten / reduzieren und auf Qual.- MIP-MAPS schalten, das würde bedeuten das der G70 nicht schneller wäre als eine 6800'er!
Damit hätten Sie den SUPER-GAU!
Weiterhin kommt in ein paar Wochen R520 raus und mal will ja besser dastehen als ATI im Benchmark-Vergleich!
Im übrigen sind mit dem aktuellen Treiber sogar die NV40 um bis zu 15% in der Benchmark-Leistung eingebrochen! Warum wohl????
NBUG läßt grüssen!
Seraf
2005-08-21, 16:39:23
Der Fehler wurde noch nicht behoben und ist auch keine Leiche, da NVIDIA immer noch mit diesem Feature WERBUNG macht! Check ma www.nvidia.de aus! Ich für meinen Teil habe nv schon immer RICHTIG eingeschätzt! Viel Versprechen und nix EINHALTEN!
Toll...
ATI bewirbt auch noch das eine R200 Multisampling könnte ;)
http://www.ati.com/products/pdf/smoothvision.pdf
Der Savage2000 hat angeblich eine T&L Einheit...
Es ist davon auszugehen das dasProblem deiner Karte nicht gefixt wird.
Piffan
2005-08-21, 17:06:58
Dann sollte man auch beachten, dass auf meiner GF4 das Early- z-culling deaktiviert wurde. Ebenfalls kann ich keine Optimierungen einzelner Texture- Stages mehr auf der Gf3 durchführen.
Sollen etablierte Karten künstlich altern oder was geht da ab?
Normalerweise könnte man noch relativ viele Spiele auf ner Gf3 problemlos zocken, z.B. die Kotor- Reihe, Max Payne, Nolf1 und 2, Mafia, Giants usw....Aber scheinbar soll einem der Spaß langsam ausgetrieben werden mit alten Karten rumzuhonken....
edit: So wie es scheint, werde ich so schnell nicht zu NV zurückwechseln. Der G70 hätte mich schon gelockt, aber so wird es auf alle Fälle der R520. Voraussetzung zum Wechsel ist aber eine Maßnahme gegen Alpha- Artefakte, bis dahin bleibt der R420 drin.
Toll...
ATI bewirbt auch noch das eine R200 Multisampling könnte ;)
http://www.ati.com/products/pdf/smoothvision.pdf
Der Savage2000 hat angeblich eine T&L Einheit...
Es ist davon auszugehen das dasProblem deiner Karte nicht gefixt wird.
Nicht wirklich sie definieren die begriffe Super-sampling und Multi-sampling halt anders als wie sie heute gebraucht werden.
tombman
2005-08-21, 17:11:33
Labberlippe hat Recht.
Womit denn genau? ;)
MikBach
2005-08-21, 17:28:15
Womit denn genau? ;)
Mit deiner zwanghaften Haltung "ich muss immer das Beste haben".
Hört sich leicht nach Proll an. (ist nicht böse gemeint :) )
eXodia
2005-08-21, 17:30:03
Mit deiner zwanghaften Haltung "ich muss immer das Beste haben".
Hört sich leicht nach Proll an. (ist nicht böse gemeint :) )
Wenn ichs Geld hätte, würd ich auch 2 7800 haben und nen FX57... ;D ;D
BTW: @ tobmann, was haste fürn proz.?
GrUß
betasilie
2005-08-21, 17:34:36
Mit deiner zwanghaften Haltung "ich muss immer das Beste haben".
Hört sich leicht nach Proll an. (ist nicht böse gemeint :) )
Das wäre die ein Sache. Die andere ist, dass er auch meint immer das beste zu haben, ohne Kompromiss. Wenn er eine 7800GTX hat, dann ist diese Karte natürlich makellos und über jeden ZWeifel erhaben. Bis er wieder was anderes hat. ;) Aber man weiß ja wie ernst man das zu nehmen hat. :rolleyes:
MikBach
2005-08-21, 17:38:09
Du mußt schon RICHTIG lesen, Da war ein ???? - Zeichen!
Der Fehler wurde noch nicht behoben und ist auch keine Leiche, da NVIDIA immer noch mit diesem Feature WERBUNG macht! Check ma www.nvidia.de aus! Ich für meinen Teil habe nv schon immer RICHTIG eingeschätzt! Viel Versprechen und nix EINHALTEN!
Ja Gast, hast schon Recht.
Mit Leichen ausgraben meinte ich, dass das Thema hier im Forum schon längst abgehackt wurde.
Wenn Sie tatsächlich einen Treiber-Fix rausbringen würden, müßten Sie die LOW-Qual. - MIP-MAPS ausschalten / reduzieren und auf Qual.- MIP-MAPS schalten, das würde bedeuten das der G70 nicht schneller wäre als eine 6800'er!
:confused:
Warum sollte eine 7800GTX langsamer als eine 6800 sein?
Das würde nur zutreffen, wenn der G70 wirklich eine Macke hat und man über Softwareemulation gehen muss.
Damit hätten Sie den SUPER-GAU!
Dann ja.
Im übrigen sind mit dem aktuellen Treiber sogar die NV40 um bis zu 15% in der Benchmark-Leistung eingebrochen! Warum wohl????
Sags mir. :)
MikBach
2005-08-21, 18:08:18
Dann sollte man auch beachten, dass auf meiner GF4 das Early- z-culling deaktiviert wurde. Ebenfalls kann ich keine Optimierungen einzelner Texture- Stages mehr auf der Gf3 durchführen.
Sollen etablierte Karten künstlich altern oder was geht da ab?
Sowas in der Art...
Normalerweise könnte man noch relativ viele Spiele auf ner Gf3 problemlos zocken, z.B. die Kotor- Reihe, Max Payne, Nolf1 und 2, Mafia, Giants usw....Aber scheinbar soll einem der Spaß langsam ausgetrieben werden mit alten Karten rumzuhonken....
Klar, NV möchte neue Karten verkaufen...
Dann sollte man auch beachten, dass auf meiner GF4 das Early- z-culling deaktiviert wurde. Ebenfalls kann ich keine Optimierungen einzelner Texture- Stages mehr auf der Gf3 durchführen.
Sollen etablierte Karten künstlich altern oder was geht da ab?
Das hat nichts mit künstlich altern zu tun, sondern von Zeit zu Zeit müssen aus der Codebasis der Treiber auch mal Sachen für alte Chips rausfliegen, weil es sonst immer schwieriger wird, den Treibercode zu warten. Bei Nvidia unterstützt der Forceware ja immer noch alle Chips ab TNT, jetzt stell dir mal vor, du müsstest füer alle Chips die seit dem TNT erschienen sind für jede Menge Spiele und Becnhes Patches, Optimierungen, Cheats oder sonstiges im Treiber bereithalten.
Mr. Lolman
2005-08-21, 18:37:11
ATi schafft das ja auch irgendwie...
MikBach
2005-08-21, 18:39:03
Das hat nichts mit künstlich altern zu tun, sondern von Zeit zu Zeit müssen aus der Codebasis der Treiber auch mal Sachen für alte Chips rausfliegen, weil es sonst immer schwieriger wird, den Treibercode zu warten.
Blub, blub.
Das ist Unsinn. (aus der Progger Sicht)
ATI schafft es doch auch noch für den R3x0 zu optimieren..
edit: Shit, Lolman war wieder schneller. ;D
Dann sollte man auch beachten, dass auf meiner GF4 das Early- z-culling deaktiviert wurde. Ebenfalls kann ich keine Optimierungen einzelner Texture- Stages mehr auf der Gf3 durchführen.
Sollen etablierte Karten künstlich altern oder was geht da ab?
Normalerweise könnte man noch relativ viele Spiele auf ner Gf3 problemlos zocken, z.B. die Kotor- Reihe, Max Payne, Nolf1 und 2, Mafia, Giants usw....Aber scheinbar soll einem der Spaß langsam ausgetrieben werden mit alten Karten rumzuhonken....
edit: So wie es scheint, werde ich so schnell nicht zu NV zurückwechseln. Der G70 hätte mich schon gelockt, aber so wird es auf alle Fälle der R520. Voraussetzung zum Wechsel ist aber eine Maßnahme gegen Alpha- Artefakte, bis dahin bleibt der R420 drin.
An dieser Stelle nochmal: Neue Treiber der 70er-Serie sind bei neuen Spielen schneller als ihre 40er-Kollegen. Ich teste gerade nochmals die Ti-4600 eines Kumpels auf meinem neuen Intel-Sys mit vollständig eliminierter CPU-Limitierung und sehe, dass die Neuen in 9 von 10 Fällen den End-40ern davonrennen. Meist nur minimal, aber dennoch. In UT04 wurde allerdings so massiv optimiert, da können's auch mal 70% (!) mit 8xAF sein -- ohne BQ-Verlust!
MfG,
Raff
Nicht wirklich sie definieren die begriffe Super-sampling und Multi-sampling halt anders als wie sie heute gebraucht werden.ATI versprach in dem PDF, was ich kenne, Sparse Grid SSAA. Geliefert wurde im Prinzip nur OGAA, später noch ein seltsamer anderer Modus, der manchmal aktiv war, manchmal nicht.
Ja Gast, hast schon Recht.
Mit Leichen ausgraben meinte ich, dass das Thema hier im Forum schon längst abgehackt wurde.Abgehakt.
An dieser Stelle nochmal: Neue Treiber der 70er-Serie sind bei neuen Spielen schneller als ihre 40er-Kollegen. Ich teste gerade nochmals die Ti-4600 eines Kumpels auf meinem neuen Intel-Sys mit vollständig eliminierter CPU-Limitierung und sehe, dass die Neuen in 9 von 10 Fällen den End-40ern davonrennen. Meist nur minimal, aber dennoch. In UT04 wurde allerdings so massiv optimiert, da können's auch mal 70% (!) mit 8xAF sein -- ohne BQ-Verlust!Im Spiel oder in Timedemos? Hast du das mit dem nicht vorhandenen BQ-Verlust sicher, z. B. mit Screenshots?
Timedemo = Spiel. ;) Nächste Woche geht das Teil online.
Ich habe PNGs von UT2004 @ 44.65/45.33 angefertigt und die mit dem 77.77 WHQL verglichen -- identisch.
Wundert mich nicht wirklich, da das gleiche Spiel auch auf einem NV40 sichtbar ist. Die Anfangs-70er boosten etwas und ab den 77ern gibt's nochmal einen Sprung -- genauso auf der GF4. Da wird irgend etwas anderes gebastelt ... fragt sich nur, was!
MfG,
Raff
MikBach
2005-08-21, 23:17:39
Abgehakt.
Danke. :redface:
robbitop
2005-08-21, 23:21:18
Da ich die Sommerferien an meinem 2. PC sitze, habe ich etwas an neuer Praxiserfahrung für die GF3 zusammensammeln können.
Der 4x.xx Treiber ist der Einzige, der Kill Switch korrekt zum Laufen bekommt (5x crash 6x Texturen/Geometrie fehlen Partiell 7x Überblendfehler im Menu, so dass man es nicht lesen kann). Mech Commander 2 crasht mit dem 70ern ebenfalls. Ground Controll 2 hingegen crasht mit dem 4x Treiber. Ein Freund von mir berichtet dieses Verhalten mit seiner GF4 bei allen möglichen anderen Spielen auch. So richtig erste Sahne ist das mit den (7xern wie auch den 4xern) noch lange nicht. Performant sind sie jedoch auf jeden Fall!!
Ground Control II geht mit 4er-Treibern nicht auf maximale Details, sonst geht das bei mir wunderbar. Und auch sonst sind die Neuen fehlerfreier ... Ist schon krass, wie die Erfahrungen abweichen.
MfG,
Raff
robbitop
2005-08-21, 23:24:19
Ground Control II geht mit 4er-Treibern nicht auf maximale Details, sonst geht das bei mir wunderbar. Und auch sonst sind die Neuen fehlerfreier ... Ist schon krass, wie die Erfahrungen abweichen.
MfG,
Raff
Ich habe natürlich Max Details eingestellt. So wie es zu sein hat. Ergo: Fehler
Mech Commander 2 hast du anscheinend noch nicht probiert.
Richtig. Zu alt. :D Ich habe das vor Jahren mal gespielt, fand es aber nicht so prall.
Bench' mal UT2004, robbi. ;)
Und nun vielleicht wieder etwas mehr ontopic ...
MfG,
Raff
robbitop
2005-08-21, 23:33:36
Richtig. Zu alt. :D Ich habe das vor Jahren mal gespielt, fand es aber nicht so prall.
Bench' mal UT2004, robbi. ;)
Und nun vielleicht wieder etwas mehr ontopic ...
MfG,
Raff
Zu alt? Sagt gerade der Zocker, der die guten alten Perlen bis zum Letzten bencht und spielt? ;)
Als Battletechfan ists für mich jedenfalls ein Muss.
UT2004 Benches kann ich ab nächster Woche machen.
Marodeur
2005-08-22, 15:01:19
Zu alt? Sagt gerade der Zocker, der die guten alten Perlen bis zum Letzten bencht und spielt? ;)
Als Battletechfan ists für mich jedenfalls ein Muss.
UT2004 Benches kann ich ab nächster Woche machen.
Mach mir keine Angst. Hab 7x-er drauf und wollt MC2 eigentlich schon mal wieder zocken wenns mir langweilig ist... :(
svenska
2005-08-22, 15:55:03
also wenn nvidia die sache mit dem schlechten texturenfilter nicht in die reihe bekommt, dann verkaufe ich die karte wieder bzw. werd mal den R520 beobachten. ich kann es kaum glauben, dass das flimmern vor dem launch des G70 echt niemand im labor aufgefallen ist. zumal der 77.77er treiber doch WHQL ist, das bedeutet doch, dass die auch einer gewissen qaulität entsprechen muss, oder was?
Das WHQL-Siegel scheint absolut keine Relevanz (mehr?) für den Nutzer zu haben. Es wird suggeriert, dass der Treiber einen "Test" durchlaufen hat und für "gut" befunden wurde. Aha. Doch wenn man sich ansieht, was mit dem 77.72 für ein Müll mit groben Schnitzern durchgekommen ist, fragt man sich doch ernsthaft, ob da nicht bestochen wird. ;) Ich glaube, zeckensack sagte das mal sehr treffend (frei nach ihm): "WHQL bedeutet nur, dass nVIDIA an M$ Geld bezahlt hat".
MfG,
Raff
svenska
2005-08-22, 16:12:13
Das WHQL-Siegel scheint absolut keine Relevanz (mehr?) für den Nutzer zu haben. Es wird suggeriert, dass der Treiber einen "Test" durchlaufen hat und für "gut" befunden wurde. Aha. Doch wenn man sich ansieht, was mit dem 77.72 für ein Müll mit groben Schnitzern durchgekommen ist, fragt man sich doch ernsthaft, ob da nicht bestochen wird. ;) Ich glaube, zeckensack sagte das mal sehr treffend (frei nach ihm): "WHQL bedeutet nur, dass nVIDIA an M$ Geld bezahlt hat".
MfG,
Raff
yo, das unterschreib ich mal so. :]
Marodeur
2005-08-22, 16:50:16
WHQL ist doch blos dazu da das M$ bestätigt das der Treiber für Windows taugt. Bildqualität interessiert die Tester hier rein gar nicht, hauptsach das ding verursacht keinen Bluescreen... ferdisch...
sloth9
2005-08-22, 17:50:01
WHQL ist doch blos dazu da das M$ bestätigt das der Treiber für Windows taugt. Bildqualität interessiert die Tester hier rein gar nicht, hauptsach das ding verursacht keinen Bluescreen... ferdisch...
getestet mit Windows Explorer, Wordpad und Minesweeper :D
getestet mit Windows Explorer, Wordpad und Minesweeper :D
Solitair nicht vergessen ;)
habe mir grad mal GTA SA mit der GTX angesehen. meiner meinung nach absolut unspielbar. das spiel sieht eh schon scheisse aus aber was der 77.77 und auch der 78.11 da zaubern ist unter aller würde... ganz, ganz schlimm. nicht mal tsaa hat einen effekt, selbst die zäune flimmern ganz übel.
sloth9
2005-08-23, 02:27:13
Solitair nicht vergessen ;)
Aber nur 4x FSAA und 8x AF, das muss reichen :tongue:
Grestorn
2005-08-23, 07:00:25
habe mir grad mal GTA SA mit der GTX angesehen. meiner meinung nach absolut unspielbar. das spiel sieht eh schon scheisse aus aber was der 77.77 und auch der 78.11 da zaubern ist unter aller würde... ganz, ganz schlimm. nicht mal tsaa hat einen effekt, selbst die zäune flimmern ganz übel.
Die Zäune werden aber gerade auf ner ATI kaum besser aussehen...
Nicht jedes Flimmern, liebe Leute, liegt an der AF-Schwäche von NV. Das meiste Flimmern kommt nach wie vor von Alpha-Test Texturen. Und dagegen hilft alleine Transparency Supersampling oder volles Supersampling.
derominöseGast
2005-08-23, 09:38:42
Die Zäune werden aber gerade auf ner ATI kaum besser aussehen...
Nicht jedes Flimmern, liebe Leute, liegt an der AF-Schwäche von NV. Das meiste Flimmern kommt nach wie vor von Alpha-Test Texturen. Und dagegen hilft alleine Transparency Supersampling oder volles Supersampling.
das meine ich ja eben gerade. tsaa hat bei mir mit dem 78.11 überhaupt keinen einfluss bei GTA SA auf die Zäune! die bodentexturen sind dazu eine frechheitl... echt nicht anzusehen!
weiter habe ich mir auch einen 70.41 zusammengebastelt wie blaire ausführte aber das geht bei mir nicht. kaum ein bild zu erkennen fast total schwarz... :|
Quasar
2005-08-23, 10:47:30
das meine ich ja eben gerade. tsaa hat bei mir mit dem 78.11 überhaupt keinen einfluss bei GTA SA auf die Zäune! die bodentexturen sind dazu eine frechheitl... echt nicht anzusehen!
weiter habe ich mir auch einen 70.41 zusammengebastelt wie blaire ausführte aber das geht bei mir nicht. kaum ein bild zu erkennen fast total schwarz... :|
Du musst als Option auch Supersampling bei TSAA ausgewählt haben. Das Multisampling-TSAA ist meist kaum zu bemerken.
Das mit dem fast schwarzen Bildschirm mit dem Fummel-Treiber ist bei mir auch der Fall. Allerdings nur am CRT. Sobald ein TFT dranhängt, ist das Bild so, wie es sein sollte. Und das Flimmern ist deutlich reduziert.
Grestorn
2005-08-23, 13:22:59
Erstens, flimmert bei mir GTA:SA nicht nennenswert auf Grund des AFs (was auch daran liegt, dass GTA:SA AF nur sehr merkwürdig einsetzt).
Zweitens, GTA:SA flimmert recht auffällig wegen Alpha-Test Texturen und teilweise fehlendem MipMapping.
Und drittens, kriegt man dieses Flimmern nur dann vollständig weg, in dem man Supersampling zuschaltet. In 8xS wird es deutlich besser, mit 16xS ist es verschwunden. Natürlich muss man dazu die Auflösung reduzieren, aber das Bild gewinnt dadurch ungemein.
Und viertens, kann eine ATI Karte an dieser Situation ebenfalls überhaupt nichts ändern.
habe mir grad mal GTA SA mit der GTX angesehen. meiner meinung nach absolut unspielbar. das spiel sieht eh schon scheisse aus aber was der 77.77 und auch der 78.11 da zaubern ist unter aller würde... ganz, ganz schlimm. nicht mal tsaa hat einen effekt, selbst die zäune flimmern ganz übel.
GTA SA ist sowieso ziemlich seltsam und würde ich nicht gerade als beispiel hernehmen ;). das zeug flimmert irgendwie immer ohne SSAA. am besten ist es allerdings AF im treiber auf anwendungsgesteuert und ingame high-detail (=max AF vom spiel angefordert), dann gibt es kaum mehr flimmern. AF über den treiber gesteuert flimmert aber übel.
btw: bin ich der einzige dem es auffällt dass die videos der radeon merklich unschärfer sind. im video fällt es nicht auf, aber wenn man sich einzelbilder rausholt und in einem bildbetrachter hin- und herschaltet wird es ziemlich deutlich.
Matrix316
2005-08-23, 14:51:14
btw: bin ich der einzige dem es auffällt dass die videos der radeon merklich unschärfer sind. im video fällt es nicht auf, aber wenn man sich einzelbilder rausholt und in einem bildbetrachter hin- und herschaltet wird es ziemlich deutlich.
Naja, ich denke es grieselt und flimmert, weils schärfer ist. Man kann jetzt sagen es Stört oder das Bild ist schärfer. ;) bei den Half Life Videos die hier irgendwo waren würe ich das ganze einfach als Moiré bezeichnen.
derominöseGast
2005-08-23, 15:02:04
Du musst als Option auch Supersampling bei TSAA ausgewählt haben. Das Multisampling-TSAA ist meist kaum zu bemerken.
Das mit dem fast schwarzen Bildschirm mit dem Fummel-Treiber ist bei mir auch der Fall. Allerdings nur am CRT. Sobald ein TFT dranhängt, ist das Bild so, wie es sein sollte. Und das Flimmern ist deutlich reduziert.
hmm ja hängt am CRT...
aber ich schreibe ja TSSAA also nix multisampling... sieht trotzdem aus als wär keins vorhanden. naja nachdem das "hitzeflimmern" gesehen habe musste ich mal laut lachen (zuerst dachte ich schon oh gott jetzt gibt die GTX auch noch den Geist auf!?) und habs wieder deinstalliert...
derominöseGast
2005-08-23, 15:06:33
Naja, ich denke es grieselt und flimmert, weils schärfer ist. Man kann jetzt sagen es Stört oder das Bild ist schärfer. ;) bei den Half Life Videos die hier irgendwo waren würe ich das ganze einfach als Moiré bezeichnen.
moire hat aber keine struktur wie es im hl2 video von frank zu sehen ist. da wird wirklich pfeilartig übel optimiert (siehe auch pcgh)
schärfer flimmert schon mehr aber wenn man auf clamp stellt verliert man einiges an schärfe aber nicht viel an flimmern. so oder so... so nicht NV.
Naja, ich denke es grieselt und flimmert, weils schärfer ist. Man kann jetzt sagen es Stört oder das Bild ist schärfer. ;) bei den Half Life Videos die hier irgendwo waren würe ich das ganze einfach als Moiré bezeichnen.
mir gefällt auch das etwas unschärfere bild der ati besser als das flimmernde von nvidia, allerdings glaube ich dass man mit einem leicht pos. LOD durchaus die flimmerfreiheit von ATI erreichen könnte ohne unschärfer zu werden.
die FX zeigt allerdings dass auch flimmerfreiheit bei hoher schärfe möglich ist, ebenso wie nv40-hq (zumindest in den richtigen winkeln)
Matrix316
2005-08-23, 15:16:18
Och, das sieht doch schon wie Moiré aus nur halt nicht großflächig, sondern nur teilweise. Moiré entsteht ja weil die Texturen sehr scharf und zu klein sind im Detail, gerade bei so einem Muster wie beim HL Video auf dem Boden im Aufzug. Das hängt ja zusammen mit dem Filtern oder eher weniger Filtern. Vorne der Boden flimmert ja nicht, weil der eine ganz andere Struktur hat.
Frank1974
2005-08-23, 15:29:49
Och, das sieht doch schon wie Moiré aus nur halt nicht großflächig, sondern nur teilweise. Moiré entsteht ja weil die Texturen sehr scharf und zu klein sind im Detail, gerade bei so einem Muster wie beim HL Video auf dem Boden im Aufzug. Das hängt ja zusammen mit dem Filtern oder eher weniger Filtern. Vorne der Boden flimmert ja nicht, weil der eine ganz andere Struktur hat.
Kleiner Tipp,erst den Artikel ganz lesen.
Beide Videos wurden mit NVidia Karten gemacht,mit den selben Einstellungen,Treibern usw.
Auf meiner kleinen 6600GT ist die Aufzugtextur schön glatt,bei meiner 7800GTX bewegt sie sich hin und her.Meine 6600GT sollte nur zeigen das es nicht sein muss :rolleyes:
Und zu Thema schärfere Textur bei der 7800,stimmt.Aber da habe ich lieber ein etwas unschärfers Bild mit glatter Textur als so einen Crap :down: ...
Matrix316
2005-08-23, 15:51:58
Wobei ich auch bei der 6600GT Moiré Muster sehe... :rolleyes: Ok, es wackelt aber nicht so sehr hin und her. ;)
Frank1974
2005-08-23, 16:08:24
Wobei ich auch bei der 6600GT Moiré Muster sehe... :rolleyes: Ok, es wackelt aber nicht so sehr hin und her. ;)
Wenn das jetzt umgekehrt sein würde,6600GT hätte dieses Grusel Bild,könnte ich es fast noch verstehen,es ist schließlich nur eine Mittelklassekarte ;)
Aber hier tritt eine 150€ Karte gegen eine 500€ Highend Karte an,und ein Highend Produkt darf sich solche sachen nicht erlauben,es ist ja nicht so das es nur in HL2 so ist oder der einzigste Fehler der Karte,da gibt es jetzt auch nichts weiter zu Diskutieren,weil Nvidia ja selber zugegeben hat das es da Probleme gibt und sie an einer Lösung arbeiten,komischerweise wollen aber einige 7800GTX Besitzer das immer noch verteidigen ,obwohl selbst der Hersteller schon eingelenkt hat :rolleyes:
Es ist noch weit schlimmer: Eine 20€-GeForce3 versägt jedes G70-SLi-System für fast 1000€ in Sachen Texturqualität ... ;)
MfG,
Raff
Frank1974
2005-08-23, 16:34:07
Es ist noch weit schlimmer: Eine 20€-GeForce3 versägt jedes G70-SLi-System für fast 1000€ in Sachen Texturqualität ... ;)
MfG,
Raff
OMG ;D
sry wegen Spam,aber das konnte ich mir nicht verkneifen :biggrin:
Es ist noch weit schlimmer: Eine 20€-GeForce3 versägt jedes G70-SLi-System für fast 1000€ in Sachen Texturqualität ... ;)
MfG,
Raff
nö, das ganze ist nämlich für AF nicht mehr im entferntesten geeignet, und ohne AF filtert der G70 sogar besser ;)
nö, das ganze ist nämlich für AF nicht mehr im entferntesten geeignet, und ohne AF filtert der G70 sogar besser ;)
Für GF3-äquivalentes 8xAF muß ein G70 auf 4x4 SSAA 2xHQ-AF (was selbstverständlich zuerst gefixt werden müßte) eingestellt werden. Der G70 dürfte dann
zwar immer noch schneller sein, aber in keiner Relation zum Preisunterschied.
OT zu Mechcommander2:
Es gehört zu jenen Perlen der Programmierkunst, denen man alles, was neuer als die Ur-GF3 ist, von Hand bekannt machen muß. Irgendwo in den .INIs (oder so) steht eine Liste mit Grakas, IDs und Flags. Einfach ID aus der Inf des Grakatreibers suchen, Zeile mit der neuestunterstützten GF/Radeon raussuchen, mit der ID des eigenen Schätzchens modifiziert einfügen und abspeichern, dann müßte es wieder funzen.
sloth9
2005-08-23, 22:33:11
Für GF3-äquivalentes 8xAF muß ein G70 auf 4x4 SSAA 2xHQ-AF (was selbstverständlich zuerst gefixt werden müßte) eingestellt werden. Der G70 dürfte dann
zwar immer noch schneller sein, aber in keiner Relation zum Preisunterschied.
OT zu Mechcommander2:
Es gehört zu jenen Perlen der Programmierkunst, denen man alles, was neuer als die Ur-GF3 ist, von Hand bekannt machen muß. Irgendwo in den .INIs (oder so) steht eine Liste mit Grakas, IDs und Flags. Einfach ID aus der Inf des Grakatreibers suchen, Zeile mit der neuestunterstützten GF/Radeon raussuchen, mit der ID des eigenen Schätzchens modifiziert einfügen und abspeichern, dann müßte es wieder funzen.
Zu MechCommander2: Technisch halt ein Müllspiel, genauso wie die NFS-Reihe
Oder gar GTA-SA: Mipmaps anyone?
Für GF3-äquivalentes 8xAF muß ein G70 auf 4x4 SSAA 2xHQ-AF (was selbstverständlich zuerst gefixt werden müßte) eingestellt werden. Der G70 dürfte dann
zwar immer noch schneller sein, aber in keiner Relation zum Preisunterschied
Das dürfte eng werden. ;) Mit 4x4 SSAA hat ein G70 die Füllrate einer Voodoo5 ... mit 2xAF wird das effektiv nochmal weniger.
Fakt ist: Man braucht SSAA, um auf GF3/4-Niveau in Sachen Qualität zu kommen. 2xAF reicht übrigens mit 16xSSAA nicht aus, um "perfekte" Qualität zu bekommen. 4x muss es schon sein -- dann hat man NV2x-Niveau. Ich kann gerne Shots posten, hab' gerade noch eine GF4 im Rechner.
MfG,
Raff
Tombmans SLI-Bestie war in 4x4 SSAA 16xAF im Murks01SE fast so schnell wie meine ti500, wenn ich sie im nackigen Defaultmodus an mein CPU-Limit geklatscht habe (4k vs 4k-6k je nach Treiber und Taktung). Warum 4x4 SSAA 2xAF nicht 8xGF3/4/FX-AF entsprechen sollte, erschließt sich mir aus derTheorie nicht so wirklich. 4xAF sollte eigentlich mit 2x2 SSAA die Texturen ergeben, die klassisches 8xAF ausgibt. Jedenfalls wenn 4xAF nicht schon "verwinkelt" wäre. Ist es aber leider.
4xSSAA bringt aber leider nicht 4xAF, sondern eher 2x. Ebenso bringt 16xSSAA 4xAF ... winkelunabhängig ... also braucht es nochmal 4x, um in etwa 8xGF4-AF zu haben. :)
Btw: Die kommst du mit einer Ti-500 auf 4k? Mit einer starken CPU geht da auch weit mehr als 10k ...
MfG,
Raff
Wie schon gesagt, nackig ans CPU-Limit (unübertaktet) des greisen Rechenknechts geklatscht. Gezockt wird nur in Extremfällen in was anderem als 8xS oder 2x2 SSAA, beides jeweils mit ein wenig AF oder auch mehr, da passt das CPU-GPU-Verhältnis wieder =)
Ich denke 2x2 SSAA entspricht 2xAF, multipliziert mit unverwinkeltem 4xAF ergäbe sich 8xAF klassischer Art. So schlimm "verwinkelt" ist 4xAF in nv4x/G70 ja noch nicht, alles darüber halte ich für inakzeptabel.
Gleichermaßen 4x4 SSAA 2xAF sollte 8xAF klassisch entsprechen bzw. sogar leicht besser sein (wegen dem kreisrunden AF, wo nv2x/3x eine dezente Blume zeigen). 4x4 SSAA 4xAF wäre demnach eher irgendwas zwischen echtem 8x- und 16xAF, ob der "Verwinkelung".
tombman
2005-08-24, 04:36:23
Mit deiner zwanghaften Haltung "ich muss immer das Beste haben".
Hört sich leicht nach Proll an. (ist nicht böse gemeint :) )
Ach so, wenn man also gerne das beste hat, ist man ein Proll, ja? Dann gibts
aber verdammt viele Prolls auf diesem Forum ;) (siehe SLI-poll thread :cool:)
War jetzt doof formuliert, CPU auf Default, Graka meist zwischen 200/230 (Sommer, keine Klimanlage) und 250/275 (Winter, ausgefallene Heizung, Graka quälen oder frieren).
tombman
2005-08-24, 04:52:34
Tombmans SLI-Bestie war in 4x4 SSAA 16xAF im Murks01SE fast so schnell wie meine ti500, wenn ich sie im nackigen Defaultmodus an mein CPU-Limit geklatscht habe (4k vs 4k-6k je nach Treiber und Taktung). .
Schwachsinn... habe mit ner mikrigen 1.8ghz A64 und 7800 SLI weiter über 11000 Punkte bei 3dm01se mit 4x4 SSAA + 16xAF.
Ich glaub du verwechselst mich ;)
Wenn ich den 3.1ghz X2 reinhau kannst schon mal mit deutlich über 15k rechnen ;)
Dann habe ich das mit einem anderen Murks verwechselt, was jedoch nur mehr für meine Argumentation spricht. War net böse gemeint. Zumindest knapp über 30fps Nature habe ich aber richtig im Gedächtnis, oder? Daran war mir die Tempoähnlichkeit aufgefallen, die hatte ich auf GF3 ohne alle Gizmos. Könntest du mal 4x4 SSAA 2xAF benchen, einzeln wie SLI? Also, sobald gefixte Treiber da sind, versteht sich.
War dein 6800U-SLI-Duo im 3DMark@Eye-Candy DeLuxe Thread. 11k für die 7800gtx-SLI klingt schon mal höchst schmackhaft, wenngleich auch noch nicht in echtem HQ. Bin auf den fairen Vergleich ehrlich gespannt.
tombman
2005-08-24, 06:16:06
War dein 6800U-SLI-Duo im 3DMark@Eye-Candy DeLuxe Thread. 11k für die 7800gtx-SLI klingt schon mal höchst schmackhaft, wenngleich auch noch nicht in echtem HQ. Bin auf den fairen Vergleich ehrlich gespannt.
Was soll bei 7800 SLI vs GF3 auch nur im entferntesten fair sein :confused:
Einzig und allein die erreichte winkelunabhängige Texturqualität und dementsprechend dann der Leistungsvergleich zwischen beiden. Als Nebeneffekt bekommt G70 natürlich saftige Kantenglättung, wir wollen aber mal einzig und allein die winkelunabhängige, nicht unterfilterte oder falsch gewichtete Leistung bei 8xFullTriAF, gleich wie es erreicht wird, untersuchen, SLI wie Single. So viel mehr winkelunabhängige Leistung dürfte da nicht bei rumkommen, wie der Preisunterschied suggeriert.
4xSSAA bringt aber leider nicht 4xAF, sondern eher 2x. Ebenso bringt 16xSSAA 4xAF ... winkelunabhängig ... also braucht es nochmal 4x, um in etwa 8xGF4-AF zu haben. :)
da verwechselst du ein wenig etwas. es ist richtig dass 2x2SSAA den effekt von 2xAF bzw. 4x4SSAA den effekt von 4xAF erzeugt, das "x" steht aber nicht umsonst dort. du kannst also das 2x "echte" AF dazumultiplizieren und nicht addieren.
2x2SSAA->2xAF mit 2xAF kombiniert ergibt also 2*2=4xAF
4x4SSAA->4xAF mit 2xAF kombiniert ergibt 4*2=8xAF (noch dazu absolut winkelunabhängig, also besser als 8xAF der NV2x-NV3x-serie)
das ist genauso wie beim FSAA: 4xMSAA+2xSSAA ergibt ja auch 8xAA (z.b. 8xS bei NV) und nicht 6x
du kannst das auch gerne mit der AF-blume nachprüfen. eine verdoppelung der anisotropie ermöglicht idealerweise eine verschiebung des LOD um -1 ohne zu flimmern.
2xAF ermöglicht also die mips um -1 nach hinten zu schieben, 4xAF um -2, 8x um -3 usw.
4x4SSAA ermöglicht schon eine verschiebung um -2, 2xAF wie erwähnt um -1, also insgesamt eine LOD-verschiebung von -3, was 8xAF entspricht.
Matrix316
2005-08-24, 14:49:00
Wenn das jetzt umgekehrt sein würde,6600GT hätte dieses Grusel Bild,könnte ich es fast noch verstehen,es ist schließlich nur eine Mittelklassekarte ;)
Aber hier tritt eine 150€ Karte gegen eine 500€ Highend Karte an,und ein Highend Produkt darf sich solche sachen nicht erlauben,es ist ja nicht so das es nur in HL2 so ist oder der einzigste Fehler der Karte,da gibt es jetzt auch nichts weiter zu Diskutieren,weil Nvidia ja selber zugegeben hat das es da Probleme gibt und sie an einer Lösung arbeiten,komischerweise wollen aber einige 7800GTX Besitzer das immer noch verteidigen ,obwohl selbst der Hersteller schon eingelenkt hat :rolleyes:
Schon klar.
Das mit dem Moiré bei der 6600GT nehm ich aber wieder zurück. Als ich nämlich das Video abspielte, hatte ich übergangsweise eine Matrox G450 drinnen und da konnte man auch bei der 6600GT im Video Muster sehen. Jetzt mit ner 6800er seh ich keine Muster mehr. Die bei der 7800er aber immer noch. ;)
Gast,
ist mir schon klar. Ich lege aber verdammt gerne die schöne Theorie beiseite und schaue mir das mit meinen - jede Anomalie sehenden - Augen an -- Praxis ist was Feines. Fakt ist, dass es ein paar Fälle gibt, wo 4x4 OGSS + 2xAF noch sichtbaren Matsch liefert ... frag' mich nicht, wieso. Mit dem 8xAF der GF4 sehe ich da Strukturen. :)
MfG,
Raff
MadManniMan
2005-08-24, 16:24:09
... mit meinen - jede Anomalie sehenden - Augen ...
Entschuldige, wenn ich da jetzt interveniere ... aber warst es nicht Du, der beim (3dfx-schen) LoD von -8.0 und 4*SGSSAA ein tadelloses Bild unterstellt hat? :|
Dass das kommt, war klar. ;) Und damit auch zeckensack und aths was davon haben, nochmals: Ich (und auch Mr. Lolman, nur so nebenbei) sagte niemals, dass es "tadellos" aussieht, sondern dass man in ausgesuchten Beispielen - keine Flimmerspiele wie WoW beispielsweise - mit einem LOD von -8 und 4xSSAA einen AF-Effekt hat, der mit dem versauten 4xQuality-AF eines NV40 konkurrieren kann. Eine Tatsache, die das "neue" AF noch schlechter dastehen lässt. Wer es nicht versteht, der soll sich doch bitte endlich eine Voodoo5 holen und es testen ...
MfG,
Raff
Gast,
ist mir schon klar. Ich lege aber verdammt gerne die schöne Theorie beiseite und schaue mir das mit meinen - jede Anomalie sehenden - Augen an -- Praxis ist was Feines. Fakt ist, dass es ein paar Fälle gibt, wo 4x4 OGSS + 2xAF noch sichtbaren Matsch liefert ... frag' mich nicht, wieso. Mit dem 8xAF der GF4 sehe ich da Strukturen. :)
sorry, aber das kann nicht sein, selbst wenn (was ich stark glaube) die GF4 ziemlich überfiltert (und damit zuviel macht), können nicht mehr details im endgültigen bild als in in der verwendeten mip sein.
zumindest dafür lässt sich der AF-tester noch gut gebrauchen und der zeigt dass der NV4x mit 4x4SSAA+2xAF einwandfreies 8xAF liefert, sogar in 45°-winkeln, wo die NV2x/3x-serie ja leichte nachteile hat.
natürlich ist der preis für solche spielchen in der praxis viel zu hoch, dennoch ist die qualität damit einwandfrei.
Dieses Bild entstand mit 4x4 SSAA + 2xAF auf einem NV40 mit HQ:
http://img382.imageshack.us/img382/7074/motogp228wa.th.jpg (http://img382.imageshack.us/my.php?image=motogp228wa.jpg)
Ich sehe da Matsch, und zwar reichlich (und ja, AF war definitiv an, denn mit 4x sah es nicht nur fast perfekt aus, sondern ruckelte auch noch mehr). Schade, dass sich die Szene nicht mit einer GF4 nachstellen lässt. Jedenfalls zeigt es, dass 2xAF in einigen Fällen nicht reicht.
MfG,
Raff
und jetzt zeig mir bitte dass die GF4 das besser(schöner) macht.
das ganze zeigt nur dass 8xAF (zumindest dir) in einigen fällen nicht reicht, nicht aber dass jenes der GF4 besser ist. (wobei es natürlich immer noch idiotisch ist beim NV40+ 4x4SSAA verwenden zu müssen um die annähernd gleiche texturqualität der NV2x/3x-serie zu erhalten)
Gast,
ist mir schon klar. Ich lege aber verdammt gerne die schöne Theorie beiseite und schaue mir das mit meinen - jede Anomalie sehenden - Augen an -- Praxis ist was Feines. Fakt ist, dass es ein paar Fälle gibt, wo 4x4 OGSS + 2xAF noch sichtbaren Matsch liefert ... frag' mich nicht, wieso. Mit dem 8xAF der GF4 sehe ich da Strukturen. :)Supersampling überfiltert eher als AF. Dennoch sollte die Qualität vergleichbar sein, wenn alles richtig eingestellt ist. Supersampling sollte dennoch nach wie vor nicht als AF-Ersatz angewendet werden. Richtiges AF ist nun mal besser, sofern anständige Texturen genutzt werden.
mapel110
2005-08-25, 03:14:14
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_nvidias_g70_texturen/
CB hat jetzt auch was online. =)
Wenn man sich den Performancegewinn der aktuellen Treiber anschaut, kann mans wohl eher ausschließen, dass nvidia einen Treiber bringt, der akzeptable Qualität liefert, schon gar nicht bei defaulteinstellungen.
MadManniMan
2005-08-25, 03:31:35
Hach schön, die Schreie werden wegen der extremen Werte ( ;) @Blaire ) äußerst laut sein ... warten wir also weiter gespannt auf die nächsten Treiber!
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_nvidias_g70_texturen/
CB hat jetzt auch was online. =)Ja, in vielen kurzen einzelnen Seiten dass man ständig neu klicken darf und die Werbung neu geladen wird. Der Aufbau erinnert mich an meinen Artikel: Erst einige Zeilen loben, dann behaupten das Problem als solches existiert und dann erst zur Beweisführung kommen.
Wenn man sich den Performancegewinn der aktuellen Treiber anschaut, kann mans wohl eher ausschließen, dass nvidia einen Treiber bringt, der akzeptable Qualität liefert, schon gar nicht bei defaulteinstellungen.Solange sich die Karte weiterhin gut verkauft, und die Besitzer sie in der Mehrheit loben, hat Nvidia keinen Anlass, was zu tun.
Grestorn
2005-08-25, 07:42:56
Solange sich die Karte weiterhin gut verkauft, und die Besitzer sie in der Mehrheit loben, hat Nvidia keinen Anlass, was zu tun.Die meisten Besitzer loben nVidia nicht, das Problem ist durchaus ernsthaft.
Es ist nur kein Grund in Panik auszubrechen und die Karte mit fliegenden Fahnen zu verkaufen. Auch wenn das sicher den Druck auf nVidia erhöhen würde.
Mir reicht es schon, wenn auf Grund der diversen Artikel, die jetzt (nicht zuletzt dank 3DC) im Internet erscheinen, der eine oder andere mit dem Kauf wartet (Alternativen gibt's momentan ja keine) und so der Druck für nVidia spürbar wird.
Wenn ATI den 520 rausbringt bevor nVidia das Problem gelöst hat, dann werden sie es wohl ganz sicher im Umsatz merken. Und auch das ist heilsam.
Dennoch muss ich wiederholen, dass dieses Problem im täglichen Alltag meistens schlicht keines ist. Ich spiele gerade Psychonauts (was für ein geniales Spiel!). SS kann ich da vergessen (zieht zu viel Leistung), aber ein störendes AF-Flimmern (bei 16x) kann ich auch in diesem Spiel nicht feststellen. Mein Glück ist wohl, dass ich weder BF2 noch WoW spiele :)
Ich habe auch bemerkt, dass das ganze extrem an der jeweiligen Anwendung bzw. dem Spiel hängt. Bei der F.E.A.R.-Demo z.B. ist für sogar der Quality-Modus völlig in Ordnung. Bei allen Source-Engine-Spielen jedoch ist das Flimmern sogar unter HQ recht auffällig.
Nicky
2005-08-25, 09:12:00
auf xbit verlinkt
http://www.xbitlabs.com/web/display/20050823230424.html
Frage mich allerdings ob die mit dem Beta Fix nicht irgendwas durcheinander bringen? ;) :O
(del676)
2005-08-25, 09:22:03
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_nvidias_g70_texturen/
CB hat jetzt auch was online. =)
ein sehr guter und objektiver artikel ohne irgendjemandem was falsches vorzusetzen :)
Weiterhin stellen wir drei Videos zur Verfügung, die die Filterproblematik in Bewegung zeigen sollen. Auch hier müssen wir anmerken, dass jene Videos mit der üblichen Problematik zu kämpfen haben und das Flimmern in Wirklichkeit nicht ganz so extrem auftritt, aber dennoch zu sehen ist.
Kladderadatsch
2005-08-25, 09:55:00
der 30%ige leistungseinbruch ist doch auf den unoptimierten treiber(im positiven sinne;)) zurückzuführen, oder? so ist die etwa genau so schnell wie eine 6800 ultra, oder gar langsamer:confused:
imo hatte blaire diese idee mit dem treiber schon vor einiger zeit hier gepostet. das hat aber aths oder demirug direkt wieder verworfen; mit der begründung, die mir nicht mehr einfällt:|
was nun?
Grestorn
2005-08-25, 10:22:57
der 30%ige leistungseinbruch ist doch auf die unoptimierten (im positiven sinne;)) zurückzuführen, oder? so ist die etwa genau so schnell wie eine 6800 ultra, oder gar langsamer:confused:
imo hatte blaire diese idee mit dem treiber schon vor einiger zeit hier gepostet. das hat aber aths oder demirug direkt wieder verworfen; mit der begründung, die mir nicht mehr einfällt:|
was nun?
Die 30% sind aus der Luft gegriffen. Derzeit ist völlig unbekannt, welchen Performance-Gewinn die Optimierung bringt.
Dass der 71.xx Treiber derartige Einbussen bei der 7800GTX zeigt liegt mit an Sicherheit grenzender Wahrscheinlichkeit daran, dass der Treiber den Chip nicht kennt und nicht vollständig oder gar teilweise besonders ungünstig ausnutzt (z.B. beim Shader kompilieren).
Quasar
2005-08-25, 13:20:51
Die 30% kommen schon zwischen Treiber-Default (77.77 mit allen Optimierungen, wenn man AF via Treiber aktiviert) und HQ-Modus (ebenfalls FW77.77) zustande. Aus der Luft gegriffen sind sie somit keinesfalls.
Die 30% sind aus der Luft gegriffen. Derzeit ist völlig unbekannt, welchen Performance-Gewinn die Optimierung bringt. Eine echte Optimierung könnte auch einen Performance-Gewinn bringen, eine einfache Qualitätsverschlechterung bringt kein Mehr an "Performance".
Dass der 71.xx Treiber derartige Einbussen bei der 7800GTX zeigt liegt mit an Sicherheit grenzender Wahrscheinlichkeit daran, dass der Treiber den Chip nicht kennt und nicht vollständig oder gar teilweise besonders ungünstig ausnutzt (z.B. beim Shader kompilieren).Der Shader wird vom Treiber nicht mehr kompiliert, nur noch optimiert. Man könnte einfach mal texturfüllratenlastige Szenen benchen um zu gucken, ob es wirklich am der Shader-Optimierung liegt.
Die meisten Besitzer loben nVidia nicht, das Problem ist durchaus ernsthaft. Die meisten Besitzer loben Nvidia.
^
Viele Besitzer, die sich hier im Forum äußern, stimmen zu dass die AF-Qualität im G70 verschlechtert wurde, doch die meisten der G70-User im 3dcf schreiben auch, dass für sie die Vorteile beim G70 überwiegen. Auch das sehe ich als Lob.
Es ist nur kein Grund in Panik auszubrechen und die Karte mit fliegenden Fahnen zu verkaufen. Auch wenn das sicher den Druck auf nVidia erhöhen würde.
Mir reicht es schon, wenn auf Grund der diversen Artikel, die jetzt (nicht zuletzt dank 3DC) im Internet erscheinen, der eine oder andere mit dem Kauf wartet (Alternativen gibt's momentan ja keine) und so der Druck für nVidia spürbar wird. Nvidia spürt nur dann echten Druck, wenn sie merken dass sie mit ihrem Vorgehen weniger Geld verdienen.
Wenn ATI den 520 rausbringt bevor nVidia das Problem gelöst hat, dann werden sie es wohl ganz sicher im Umsatz merken. Und auch das ist heilsam.Oder Nvidia fährt die Masche weiter und senkt die Qualität noch einmal – um die angebliche "Performance" zu steigern. Du lässt andere für dich arbeiten (Artikel schreiben etc.) und nutzt den G70 fleißig weiter, mit dem du ja insgesamt sehr zufrieden bist. Bei dir sehe ich alles mögliche – aber kein echtes Begehren nach hochwertigem AF.
Dennoch muss ich wiederholen, dass dieses Problem im täglichen Alltag meistens schlicht keines ist. Ich spiele gerade Psychonauts (was für ein geniales Spiel!). SS kann ich da vergessen (zieht zu viel Leistung), aber ein störendes AF-Flimmern (bei 16x) kann ich auch in diesem Spiel nicht feststellen. Mein Glück ist wohl, dass ich weder BF2 noch WoW spiele :)Wenn das Problem "im täglichen Alltag meistens schlicht keines ist" ("täglicher Alltag"? "meistens keines"?), warum sollte NV dann irgendwas tun? Für die 5% der Superfreaks, zu denen du nicht gehörst, auf eine handvoll fps verzichten? Beziehungsweise auf noch viel mehr fps verzichten und dafür ein AF anbieten, welches die Leistung allerdings besser in Qualität umsetzt als der von ATI inspirierte Schlaumeiermodus, der "16x" genannt wird? Wer legt heute wirklich noch wert auf Texturqualität? (Alljene, die die Grafik von Half-Life 2 loben, schon mal nicht.)
Grestorn
2005-08-25, 14:26:44
Du lässt andere für dich arbeiten (Artikel schreiben etc.) und nutzt den G70 fleißig weiter, mit dem du ja insgesamt sehr zufrieden bist. Bei dir sehe ich alles mögliche – aber kein echtes Begehren nach hochwertigem AF.
Wenn das Problem "im täglichen Alltag meistens schlicht keines ist" ("täglicher Alltag"? "meistens keines"?), warum sollte NV dann irgendwas tun? Für die 5% der Superfreaks, zu denen du nicht gehörst, auf eine handvoll fps verzichten?
Muss ich mich jetzt dafür schämen, dass ich das Problem nicht so heftig sehe? Den Gefallen werde ich Dir nicht tun, sorry.
Wenn ein Motorrad statt der propagierten 170PS nur 150PS hat und sich herausstellt, dass dies für alle Exemplare der selben Modellreihe gilt, dann stört mich das sicher. Aber wenn ich sonst mit dem Motorrad zufrieden bin, werde ich es dennoch nicht verkaufen. Obwohl ich ab und zu mal auf ner Rennstrecke im Kreis rase und mir vielleicht einbilden kann, die fehlenden 20 PS zu vermissen. Aber im 99% der Fälle werde ich kaum einen Unterschied wegen den etwa 15% Leistungsunterschied merken.
Dass der Hersteller zur Rechenschaft gezogen wird (in Form von schlechter Publicity) ist ok und ich unterstütze das, egal ob Motorrad oder GraKa.
Aber ich werde keine persönlichen Nachteile in Kauf nehmen, und das müsste ich, wenn ich auf die 7800GTX verzichten wollte. Wenn ich auf eine R520 umsteige würde, zumindest finanzielle Nachteile (wenn sie ansonsten völlig gleichwertig ist). Im Momentan sind es mangels Alternative aber schlicht einen ganzen Berg Nachteile, den alle anderen auf dem Markt befindlichen Modelle haben, von denen ich persönlich fast jeden als schlimmer einschätze, als das AF-Flimmern.
Dieses Flimmern wird von Dir und den Videos hochstilisiert. Du tust so, als könnte man kaum ein Spiel spielen, ohne davon malträtiert zu werden. Egal wie viele Leute sagen, dass dem nicht so ist.
Selbst in BF2 musste mich Blair genau auf die Stelle hinweisen, bei der man es gut erkennen kann. Man muss eine bestimmte Bodentextur ins Visir nehmen. Hallo?! Da ist ja jeder kaputte Pixel im TFT-Monitor um Größenordnungen schlimmer. Jahrelang haben Spieler mit wildem AT-Texturflackern (z.B. bei Gothic2) gelebt, und keiner hat sich wirklich darüber aufgeregt. Aber auf einmal fällt schier der Himmel auf unsere Köpfe, weil einige wenige Spiele ein leichtes Grieseln bei HQ zeigen! Ein Grieseln, dass überhaupt gar nichts gegen das AT-Flimmern ist!
Du siehst nur die Videos, die aufgenommen worden sind, um dem letzten Blinden das Flimmern nachzuweisen. Deswegen zeigen diese Videos natürlich Extremfälle. Aber Du scheinst zu extrapolieren, dass es genau so in jedem Spiel aussieht.
Und unterstellst jedem, der bereit ist sich mit dem Mangel zu arrangieren, er würde die Entwicklung zu schlechterer BQ unterstützen. Dabei ist das eine völlig falsche Unterstellung.
Gäbe es zwei größtenteils vergleichbare Produkte, eine mit Flimmern, das andere ohne. Dann wäre völlig klar, welches Produkt ich (und die meisten anderen) vorziehen würden, zumindest wenn ich nicht schon bereits das schlechtere Produkt in Unkenntnis des Mangels gekauft hätte. DADURCH entsteht der Marktdruck.
Es ist schlicht lächerlich, das Motorrad, das mit 170PS beworben ist, aber nur 150 hat, abzulehnen, wenn das nächst-beste Konkurenzmodell nur 130 PS auf die Rollen bringt (bei ansonsten vergleichbaren Eigenschaften)....
Ice =A=
2005-08-25, 14:58:06
Das Problem ist ein Grundsätzlicheres.
Erst kam das winkelabhängige Filtering, und die meisten sagten, das ist ok. Jetzt kommt das Flimmern, und die meisten sagen, das ist ok. Wenn das so weitergeht, GIBT ES in ein paar Jahren nur noch schlechte Grafik, aber das merkt kaum jemand, weil es so schleichend eingeführt wurde. Und Schuld daran sind diejenigen, die das immer ok fanden.
Um das mit Picards Worten zu sagen: A line must be drawn here!
Quasar
2005-08-25, 15:22:50
Jahrelang haben Spieler mit wildem AT-Texturflackern (z.B. bei Gothic2) gelebt, und keiner hat sich wirklich darüber aufgeregt.
Es gibt hierzwischen und zwischen "gutem" AF einen Unterschied. Für das eine existierte bislang keine adäquate Lösung, für das andere schon.
In dem einen Fall wurde die Qualität verbessert, in dem anderen wieder verschlechtert, nachdem es bereits besser gemacht worden ist.
Quasar
2005-08-25, 15:24:27
Das Problem ist ein Grundsätzlicheres.
[...]
Um das mit Picards Worten zu sagen: A line must be drawn here!
Wer zu Zeiten der R200 und R300 noch sagt, "wehret den Anfängen" wurde als Fanboy, Paranoiker oder ähnliches niedergeschrien, IIRC.
Knötchen
2005-08-25, 18:54:02
Bischen OT:
[...] Jahrelang haben Spieler mit wildem AT-Texturflackern (z.B. bei Gothic2) gelebt, und keiner hat sich wirklich darüber aufgeregt. [...]
Ja, also mich regen die komischen Darstellungsfehler schon auf. Habe G2 zwar auf meiner (noch recht neuen) 6800GT nur mal kurz angespielt, aber die zT. fehlenden Bodentexturen und die komischen blockhaften Schatten nerven ziemlich. Bin mir aber nicht sicher ob das mit AT-Texturen zusammenhängt. Dafür scheint Far Cry eher so ein Kandidat für Fehldarstellungen von AT-Texuren (flackernde Baumzweige und Pflanzen), die Far Cry Fehler treten aber offenbar auch auf ATI-Hardware auf.
Hatte G2 schon zweimal auf der 9200 (komischerweise ohne Grafikfehler) durchgespielt und weiss nicht, ob sich die Aufregung lohnt weil ich nicht weiss, ob ich es nochmal auf der 6800GT druchspielen will.
Übrigens erhoffe ich mir eine Menge vom R520, auf jeden Fall mehr bei "ansonsten Gleichwertigem". Der käme dann in meine neue Spielekiste. ;D Ich für meinen Teil habe wirklich die Nase voll von den NV-Macken, der stetig sinkenden BQ und den Treibertricksereien. Sollte ATI nicht nur das bessere AF anbieten,, sondern noch dazu besseres AF als bei der Vorgängergeneration ermöglichen, wäre das der Hammer!
Klasse übrigens, dass ihr die engl. Übersetzung geschafft habt! Danke dafür an Gotteshand, moeb1us, Nicky, tEd und huha. :up:
ich hab mir jetz den monsterthread nicht durchgelesen, aber mir ist grade aufgefallen das geizhals.at unseren artikel als referenz nimmt um leute davor zur warnen:
http://www.geizhals.at/deutschland/a161591.html <-- dort ganz oben
Du lässt andere für dich arbeiten (Artikel schreiben etc.) und nutzt den G70 fleißig weiter, mit dem du ja insgesamt sehr zufrieden bist. Bei dir sehe ich alles mögliche – aber kein echtes Begehren nach hochwertigem AF.
Tut mir leid, aths, aber ich kann grestorns Meinung durchaus nachvollziehen bzw. gehe in der Hinsicht vollkommen konform (auch damit, was er später auf Dein Posting geantwortet hat). Du hast weiterhin volles Lob für den Artikel und es ist gut so, dass diese Geschichte einer breiteren Öffentlichkeit Publik gemacht wird!
Allerdings erinnert mich dieses Posting von Dir ein wenig an die "vom Saulus zum Paulus"-Story: Als die GF6800 erschienen ist, war von Dir außer Lobeshymnen aufgrund diverser technischer Features (SM3.0-Support) und Ankreiden des Fehlens genau dieser Features bei ATI nichts zu hören.
Und das, obwohl auch damals schon durch einige User auf die im Vergleich zu ATI schlechtere Bildqualität unter dem Quality-Modus, den schätzungsweise wohl doch 80% der "Otto-Normaluser" benutzen (da default-Einstellung), aufmerksam gemacht wurde.
Es ist gut, dass diese Sache an die Öffentlichkeit kommt, aber Kaufboykott- bzw. Rückgabe-Entscheidungen sollte wohl jeder selbst treffen können...
ich hab mir jetz den monsterthread nicht durchgelesen, aber mir ist grade aufgefallen das geizhals.at unseren artikel als referenz nimmt um leute davor zur warnenNett. Aber andersrum: Welchen deutschen Artikel sollten sie denn sonst nehmen? :)
MikBach
2005-08-25, 21:44:22
Du meinst, ob es Geschwindigkeit kostet? Zur Gamma-Adjustierung müssen immerhin zusätzliche Rechnungen ausgeführt werden. Wenn der zusätzliche Arbeitsaufwand darin resultiert, dass sich die Fertigstellung des Bildes verzögert, ist nicht zwangsläufig davon zu sprechen dass sich die Leistung verringert habe.
Sehr krampfhaft formuliert, aber durchaus verständlich, was du damit ausdrücken willst.
Ich fragte Blaire, ob der G70 beim Gamma-AA im Vergleich zu NonGamma-AA an Performance verliert.
Wenn das der Fall wäre, ist es kein Hardware-only-Feature.
Das wollte ich nur wissen. ;)
MikBach
2005-08-25, 21:51:15
Ach so, wenn man also gerne das beste hat, ist man ein Proll, ja? Dann gibts
aber verdammt viele Prolls auf diesem Forum ;) (siehe SLI-poll thread :cool:)
Das Beste würde ich nicht unbedingt sagen, wenn ich mir das AF ansehe.
Eher das Schnellste. :D
Wenn jemand mit unzureichender Bildqualität zufrieden ist, nur weil er dann 200 fps hat, soll er es tun.
Bei mir geht die BQ vor die fps. ;)
MikBach
2005-08-25, 22:01:09
Die meisten Besitzer loben Nvidia.
^
Viele Besitzer, die sich hier im Forum äußern, stimmen zu dass die AF-Qualität im G70 verschlechtert wurde, doch die meisten der G70-User im 3dcf schreiben auch, dass für sie die Vorteile beim G70 überwiegen. Auch das sehe ich als Lob.
Nvidia spürt nur dann echten Druck, wenn sie merken dass sie mit ihrem Vorgehen weniger Geld verdienen.
Oder Nvidia fährt die Masche weiter und senkt die Qualität noch einmal – um die angebliche "Performance" zu steigern. Du lässt andere für dich arbeiten (Artikel schreiben etc.) und nutzt den G70 fleißig weiter, mit dem du ja insgesamt sehr zufrieden bist. Bei dir sehe ich alles mögliche – aber kein echtes Begehren nach hochwertigem AF.
Wenn das Problem "im täglichen Alltag meistens schlicht keines ist" ("täglicher Alltag"? "meistens keines"?), warum sollte NV dann irgendwas tun? Für die 5% der Superfreaks, zu denen du nicht gehörst, auf eine handvoll fps verzichten? Beziehungsweise auf noch viel mehr fps verzichten und dafür ein AF anbieten, welches die Leistung allerdings besser in Qualität umsetzt als der von ATI inspirierte Schlaumeiermodus, der "16x" genannt wird? Wer legt heute wirklich noch wert auf Texturqualität? (Alljene, die die Grafik von Half-Life 2 loben, schon mal nicht.)
Full Ack!
@grestorn
Weisst du, hier geht es eher ums Prinzip, dass hier einige User volle BQ haben wollen, die möglich ist (beim AF).
Mit deinen Vorträgen willst du doch nur die Miesere bei AF verneinen oder verharmlosen.
Wenn die User so weitermachen würden, hätten wir bald LEGO-AF. ;)
Grestorn
2005-08-25, 22:38:45
@grestorn
Weisst du, hier geht es eher ums Prinzip, dass hier einige User volle BQ haben wollen, die möglich ist (beim AF).
Mit deinen Vorträgen willst du doch nur die Miesere bei AF verneinen oder verharmlosen.
Wenn die User so weitermachen würden, hätten wir bald LEGO-AF. ;)
Woher weißt Du denn, was ich will, hm? Du unterstellst einfach Dinge, die nicht stimmen. Ich "verharmlose" Dinge, die ich tatsächlich einschätzen kann. Kannst Du denn den Nachteil wirklich einschätzen? Selbst wenn Du eine 7800GTX hättest, dann könntest Du dies nur für Dich selbst machen. Aber auch das kannst Du eben nicht.
Da es derzeit keine Karte gibt, die "volle BQ" bietet - und ja, dazu zählt für mich neben winkelunabhängigen, fehlerfreiem AF und MS-AA auch nutzbares Supersampling und andere AT-Flimmerreduktionstechniken und viel mehr.
Von allen derzeit auf dem Markt befindlichen Karten kommt dem die 7800GTX am nächsten. Auch näher als die 6800U, denn SS lässt sich bei einer größeren Zahl an Spielen in der Praxis tatsächlich nutzen.
Es mag tatsächlich 5% Spiele geben, die in bestimmten Situationen schlechter aussehen als bei ner ATI oder 6800. 60-70% der Spiele schauen gleich gut aus. Und 30% sehen - dank TSSAA und SSAA - deutlich besser aus.
Ratet mal, wie mein Fazit aussieht...
Piffan
2005-08-25, 23:40:47
Das Beste würde ich nicht unbedingt sagen, wenn ich mir das AF ansehe.
Eher das Schnellste. :D
Wenn jemand mit unzureichender Bildqualität zufrieden ist, nur weil er dann 200 fps hat, soll er es tun.
Bei mir geht die BQ vor die fps. ;)
Bei mir ist beides wichtig. Je nach Spiel ist die Peformance das Zünglein an der Waage, ob es Spaß macht oder nicht. Pauschale Aussagen treffe ich da gar nicht......
Es ist mal wieder Prinzipienreiterei an der Tagesordnung. Scheint hier bei gewissen Leuten eindeutig vor Vernunft zu gehen....
Dumm nur, wenn sie zu spät einsetzt......Der Aufschrei bei der NV 40 war ausgeblieben, ne Generation später ist er dafür um so heftiger. Nur sollte man darüber hinaus auch verständig genug sein und nicht die positiven Seiten verkennen.......Es ist ne Frechheit, manchen die Kompetenz in Sachen Bildqualität abzusprechen, weil sie sich mit Mängeln arrangieren können und insgesamt zufrieden sind....
Schlechter Stil. Hat mich schon bei der Basherei von HL2 angekotzt. Die zweifellos guten Dinge werden negiert oder relativiert.....Was genau bringt das nun?
eXodia
2005-08-25, 23:49:45
Es ist ne Frechheit, manchen die Kompetenz in Sachen Bildqualität abzusprechen, weil sie sich mit Mängeln arrangieren können und insgesamt zufrieden sind....
Amen, du sagst es.
GrUß
Piffan
2005-08-25, 23:57:36
Amen, du sagst es.
GrUß
Sagst Du auch Amen zu meiner grünen Sig? :tongue:
Man muss beide Seiten einer Medaille betrachten. Wer vom mangelhaften AF weiß, kann zumindest eine fundierte Entscheidung treffen. Speed, viele interessante AA- Modi, SM3 etc. versus suboptimales AF.....Für mich ein verdächtiger Braten....
eXodia
2005-08-26, 00:08:34
jupp, du sagst es, man kann wenn man vom mangelndem AF weiß eine fundierte Kaufentscheidung treffen, denn der G70 ist bestimmt kein schlechter Chip, er halt halt nur dieses eine große/kleine (liegt im Auge des betrachters) Problem.
GrUß
MadManniMan
2005-08-26, 04:10:22
grestorn,
man hat sich IMMER über AT-Geflacker aufgeregt, wo liest Du denn bitte?
Zudem: schön und gut, daß beim NV40 schlecht gehandelt wurde, das Geflimmer kaum erkann wurde. Aber was soll jetzt im Nachhinein noch geschehen? Mehr als besser wissen kann man es jetzt nicht mehr - es war blöde, daß nich gehandelt wurde, aber änderts was, wenn man sich jetz drüber aufregt? Und hat das jetz noch Einfluß auf die G70 Sache? Hätte es gehabt, is aber nicht. Hätte-wäre-wenn ... sowas hilft uns nicht weiter.
Und nochwas: ich erwarte von einer neuen Generation natürlich, daß ein gutes Stück der Spiele besser aussieht, aber 5%, die schlechter aussehen?
Als individuelle Kaufentscheidung nachvollziehbar, als prinzipielle Ansicht ein Gräuel.
MadManniMan
2005-08-26, 04:17:56
Nebenbei: ich las grad die letzten(von mir zuerst übersehenen) Posts seit gestern Nacht durch und verspüre auf einmal eine ungeheure Unruhe in mir ... ich kann nachvollziehen, daß durchaus Zufriedenheit unter G70-Besitzern gegeben ist, keine Frage. Aber daß im gleichen Atemzug mit dem obligatorischen "ich finde das Unterfiltern ja auch schlimm" ein dickes, selbstgerechtes "aber man braucht ja aus ne Mücke nich gleich nen Elefanten zu machen" läßt mich an der Gemeinschaftskompetenz einiger zweifeln.
Wenn wir als User nicht geschlossen zusammenhalten, sondern verblendet durch die eigene Selbstgerechtigkeit auch noch Kriege unter uns ausfechten, können wir ja gar nichts erreichen. Meine Güte das KOTZT mich an!
tombman
2005-08-26, 05:46:33
Bei mir geht die BQ vor die fps. ;)
Jo, und der flame vorm thought....
MadManniMan
2005-08-26, 06:03:38
Jo, und der flame vorm thought....
Bellende Treffer hunden ;)
Grestorn
2005-08-26, 07:06:05
Wenn wir als User nicht geschlossen zusammenhalten, sondern verblendet durch die eigene Selbstgerechtigkeit auch noch Kriege unter uns ausfechten, können wir ja gar nichts erreichen. Meine Güte das KOTZT mich an!
Was kotzt Dich an? Dass ich nicht sofort meine 7800GTX zum Teufel jage?
Bin ich selbstgerecht, weil ich weitestgehend mit meiner 7800GTX zufrieden bin und dies auch öffentlich vertrete?
Ein Standpunkt wie: "Meine Ansprüche an BQ sind ja so hoch und unantastbar, deswegen ist das Produkt Müll, und jeder der nicht meiner Meinung ist muss was an den Augen haben oder ist anspruchslos" ist dagegen geradezu die Personifizierung von Selbstgerechtigkeit!
Du scheinst es als Affront gegen die Community anzusehen, dass ich nicht in das allgemeine Geheule einstimme. Als ob ich irgendjemandem damit schaden würde...
Dabei sollte es Dir inzwischen aufgefallen sein, dass ich bei vielen Themen eine eher ausgeglichene, neutrale Sichtweise habe... die sehr oft den meist sehr extremen Meinungen in der Community entgegensteht, weil diese eben fast immer nur kompromisslos eine bestimmte Meinung akzeptiert und jeden anders denkenden niedermacht.
Nur lass ich mich nicht niedermachen!
P.S.: Auch bei mir geht BQ vor FPS (wenn diese je nach Spiel mindestens konstant 30 oder 60 fps erreicht). Deswegen schätze ich die 7800GTX so sehr. Man kann deren Power nämlich damit sehr gut in BQ umsetzen.
Muss ich mich jetzt dafür schämen, dass ich das Problem nicht so heftig sehe? Den Gefallen werde ich Dir nicht tun, sorry. Den Gefallen tust du dir nicht – für dich sind solche Qualitätsverschlechterung in letzter Konsequenz ok. Wenn es nach dir ginge, kann es noch weiter bergab gehen, solange du es nicht allzu häufig und allzu stark siehst. Die Linie hat NV bereits jetzt überschritten, aber du beschwichtigst und relativierst.
Du siehst nur die Videos, die aufgenommen worden sind, um dem letzten Blinden das Flimmern nachzuweisen. Deswegen zeigen diese Videos natürlich Extremfälle. Aber Du scheinst zu extrapolieren, dass es genau so in jedem Spiel aussieht. Nein, mir geht es um das Prinzip. Damien hätte mit Leichtigkeit Videos machen können, die das Flimmern noch stärker herausarbeiten. Ich möchte möglichst keine Winkelabhängigkeit in Bezug auf den tatsächlichen AF-Maximalgrad, egal wie viele Leute die Nachteile der aktuellen Implementierung sehen. Ich bestehe ebenso auf eine flimmerfreie Implementierung, egal ob du mit dem Flimmern leben kannst.
Und unterstellst jedem, der bereit ist sich mit dem Mangel zu arrangieren, er würde die Entwicklung zu schlechterer BQ unterstützen. Dabei ist das eine völlig falsche Unterstellung.Ich will keine Worte hören sondern Taten sehen. Ständig gibts in diesem Forum Lippenbekenntnisse, imo gefördert durch die Angst, möglicherweise nicht als Fan von hoher BQ gesehen zu werden. Gleichzeitig gibts Relativierungen und Beschwichtigungen – alles andere als förderlich.
Tut mir leid, aths, aber ich kann grestorns Meinung durchaus nachvollziehen bzw. gehe in der Hinsicht vollkommen konform (auch damit, was er später auf Dein Posting geantwortet hat). Du hast weiterhin volles Lob für den Artikel und es ist gut so, dass diese Geschichte einer breiteren Öffentlichkeit Publik gemacht wird!
Allerdings erinnert mich dieses Posting von Dir ein wenig an die "vom Saulus zum Paulus"-Story: Als die GF6800 erschienen ist, war von Dir außer Lobeshymnen aufgrund diverser technischer Features (SM3.0-Support) und Ankreiden des Fehlens genau dieser Features bei ATI nichts zu hören.
Und das, obwohl auch damals schon durch einige User auf die im Vergleich zu ATI schlechtere Bildqualität unter dem Quality-Modus, den schätzungsweise wohl doch 80% der "Otto-Normaluser" benutzen (da default-Einstellung), aufmerksam gemacht wurde.
Es ist gut, dass diese Sache an die Öffentlichkeit kommt, aber Kaufboykott- bzw. Rückgabe-Entscheidungen sollte wohl jeder selbst treffen können...Es geht mir nicht darum, für den Artikel gelobt werden zu wollen, sondern mit dem Artikel was zu bewirken.
Dass NV in Q generell unterfiltert blieb mir lange verborgen – als Student hat man den Kopf auch mit anderen Dingen voll. Jetzt erwarte ich von NV Flimmerfreiheit nicht nur im HQ-Modus, sondern auch in der Q-Einstellung.
Sehr krampfhaft formuliert, aber durchaus verständlich, was du damit ausdrücken willst.
Ich fragte Blaire, ob der G70 beim Gamma-AA im Vergleich zu NonGamma-AA an Performance verliert.
Wenn das der Fall wäre, ist es kein Hardware-only-Feature.
Das wollte ich nur wissen. ;)Gamma-Adjusted AA ist aufwändiger zu berechnen, bringt dafür in der Regel auch optische Vorteile. Wenn der G70 da langsamer wird, verliert er nicht zwangsläufig Performance.
Bei mir ist beides wichtig. Je nach Spiel ist die Peformance das Zünglein an der Waage, ob es Spaß macht oder nicht. Pauschale Aussagen treffe ich da gar nicht......
Es ist mal wieder Prinzipienreiterei an der Tagesordnung. Scheint hier bei gewissen Leuten eindeutig vor Vernunft zu gehen....
Dumm nur, wenn sie zu spät einsetzt......Der Aufschrei bei der NV 40 war ausgeblieben, ne Generation später ist er dafür um so heftiger. Nur sollte man darüber hinaus auch verständig genug sein und nicht die positiven Seiten verkennen.......Es ist ne Frechheit, manchen die Kompetenz in Sachen Bildqualität abzusprechen, weil sie sich mit Mängeln arrangieren können und insgesamt zufrieden sind....Gerade weil sich fast alle, ob bewusst oder unbewusst, damit arrangieren können, kam NV ja erst auf die glorrenreiche Idee, ATIs AF-Style zu imitieren und dann auch noch standardmäßig kräftig zu unterfiltern, den G70 releasten sie ohne das Flimmer-Prob in HQ gefixt zu haben. Dass sich fast alle arrangieren können zeigt, wie wenig Texturqualität heute wirklich zählt. Nicht nur Käufer einer 6200 TC arrangieren sich, auch Käufer einer 7800 GTX SLI. Diese sollten eigentlich den Anspruch haben, überall das beste zu haben oder zumindest nichts schlechteres als die Vorgängergeneration. Aber die Herren arrangieren sich lieber. Nvidia und ATI werden das gerne lesen, wie man sich doch arrangieren kann, um die "Performance" bei einem Modus, der dreisterweise 16x AF genannt wird, noch weiter steigern zu können.
Nebenbei: ich las grad die letzten(von mir zuerst übersehenen) Posts seit gestern Nacht durch und verspüre auf einmal eine ungeheure Unruhe in mir ... ich kann nachvollziehen, daß durchaus Zufriedenheit unter G70-Besitzern gegeben ist, keine Frage. Aber daß im gleichen Atemzug mit dem obligatorischen "ich finde das Unterfiltern ja auch schlimm" ein dickes, selbstgerechtes "aber man braucht ja aus ne Mücke nich gleich nen Elefanten zu machen" läßt mich an der Gemeinschaftskompetenz einiger zweifeln.
Wenn wir als User nicht geschlossen zusammenhalten, sondern verblendet durch die eigene Selbstgerechtigkeit auch noch Kriege unter uns ausfechten, können wir ja gar nichts erreichen. Meine Güte das KOTZT mich an!Es ist schon schwierig, im dünnen Segment der Highend-Käufer irgendwas zu bewegen, da Kasse im Einsteiger- und Midrange-Bereich gemacht wird. Aber: Highend ist für das Prestige da. Hier ist der Ansatzpunkt: Es muss deutlich gemacht werden, dass die Texturfilterung auch bei heutigen Highend-Karten erschreckend schlecht ist, jede GeForce3 (die war 2001 Highend) kanns besser, und zwar deutlich. Die 7800 GTX ist jetzt von der AF-Qualität sogar schlechter als eine Radeon 9600. Fast alle Highend-User lassen sich das aber bieten und setzen das AF in Bezug auf die G70-Vorteile – eine deutliche Bestätigung für NVs Entscheidung.
Ich brauche TAA SS nicht live gesehen zu haben um zu wissen, wie geil das aussehen muss. Ich brauche den G70 nicht gebencht zu haben um zu wissen, dass er die Reserven für SSAA mitbringt. Aber ich erwarte auf allen Feldern vernünftige Qualität, und Texturqualität ist bei den heute noch immer verbreiteten Multitexturing-Games nun mal sehr wichtig. Es kann nicht sein, dass man mit den 10 Gigatexeln nur WA-AF bekommt. Es kann nicht sein, dass das AF standardmäßig und sogar in HQ flimmert. Fast alle G70-Besitzer reden darüber, wie gut die Grafik letztlich aussehen würde. Worüber sie nicht reden ist, wie die Grafik aussehen könnte, wenn ein vernünftiges AF geboten würde.
Du scheinst es als Affront gegen die Community anzusehen, dass ich nicht in das allgemeine Geheule einstimme. Als ob ich irgendjemandem damit schaden würde... Dir selbst. Du gibst viel Geld aus und lässt dich mit einem AF abspeisen, dass sogar noch die Radeon-Qualität unterbietet. Stattdessen führst du TAA und Rendergeschwindigkeit an – offensichtlich kommt es dir auf das AF gar nicht so an. Da bist du in der Mehrheitsmeinung, die wenigsten User verlangen hochwertiges AF, sie reden meist nur blumig davon, dass es doch ganz nett wäre, wenn es das als Option gebe.
P.S.: Auch bei mir geht BQ vor FPS (wenn diese je nach Spiel mindestens konstant 30 oder 60 fps erreicht). Deswegen schätze ich die 7800GTX so sehr. Man kann deren Power nämlich damit sehr gut in BQ umsetzen.Auch in die Texturqualität einer GeForce 3?
Grestorn
2005-08-26, 10:22:10
Den Gefallen tust du dir nicht – für dich sind solche Qualitätsverschlechterung in letzter Konsequenz ok. Wenn es nach dir ginge, kann es noch weiter bergab gehen, solange du es nicht allzu häufig und allzu stark siehst. Die Linie hat NV bereits jetzt überschritten, aber du beschwichtigst und relativierst.Ich habe doch geschrieben, dass ich ein gleichwertiges Produkt, dass diesen Mangel nicht hätte, der 7800 GTX vorziehen würde. Mehr kann ich als Kunde nicht tun.
Auf alle Argumente, warum es keinen Sinn macht, jede Menge anderer für mich deutlich schwerwiegendere Nachteile in Kauf zu nehmen nur um diesen AF-Mangel nicht ertragen zu müssen, bist Du überhaupt nicht eingegangen.
Nein, mir geht es um das Prinzip.So was, wenn Du das nicht gesagt hättest, wär mir das glatt entgangen ;D
Mir geht's nicht ums Prinzip. Mir geht's ums Vergnügen beim Zocken, Punkt.
Ich will keine Worte hören sondern Taten sehen. Ständig gibts in diesem Forum Lippenbekenntnisse, imo gefördert durch die Angst, möglicherweise nicht als Fan von hoher BQ gesehen zu werden. Gleichzeitig gibts Relativierungen und Beschwichtigungen – alles andere als förderlich.Ach, Du willst Taten sehen? Erst wenn ich meine 7800GTX ans Kreuz nagle habe ich in Deinen Augen ausreichend Abitte geleistet?
Das erinnert mich an die Leute, die Castor-Transporte blockieren. Sicher ist es ziemliche Scheiße, dass Atom-Müll durch die Landschaft gekarrt wird. Aber dass es gar nicht anders geht, denn man kann den Müll ja schließlich nicht wegzaubern, wird geflissentlich übersehen. Und durch die Aktionen verursachen die weit mehr Gefahr für sich und andere als der eigentliche Transport alleine mit sich bringt.
Kurz: Blinder Aktionismus zum eigenen Nachteil bringt überhaupt nichts. Du kannst für Dich entscheiden, niemals eine G70 zu kaufen. Aber Du kannst nicht jeden, der anders handelt, als Verräter an der ehernen Sache der BQ hinstellen. Das ist schlicht anmaßend.
Grestorn
2005-08-26, 10:24:40
P.S.: Auch bei mir geht BQ vor FPS (wenn diese je nach Spiel mindestens konstant 30 oder 60 fps erreicht). Deswegen schätze ich die 7800GTX so sehr. Man kann deren Power nämlich damit sehr gut in BQ umsetzen.
Auch in die Texturqualität einer GeForce 3?
Ja, denn ich kann jedes Spiel in 16xS, manchmal sogar 4x4SS spielen und die G70 ist meist immer noch schneller als eine GF3.
Ja, denn ich kann jedes Spiel in 16xS, manchmal sogar 4x4SS spielen und die G70 ist meist immer noch schneller als eine GF3.Mit einer anständigen AF-Implementierung im G70 bräuchtest du gar kein Supersampling – wie viel mal schneller wärst du dann als die GeForce3?
Ich habe doch geschrieben, dass ich ein gleichwertiges Produkt, dass diesen Mangel nicht hätte, der 7800 GTX vorziehen würde. Mehr kann ich als Kunde nicht tun. Doch: Erst dann ein Produkt kaufen, wenn es die Anforderungen erfüllt. Mit dem Kauf zeigst du, dass deine Anforderungen nicht sehr hoch sind.
Auf alle Argumente, warum es keinen Sinn macht, jede Menge anderer für mich deutlich schwerwiegendere Nachteile in Kauf zu nehmen nur um diesen AF-Mangel nicht ertragen zu müssen, bist Du überhaupt nicht eingegangen.Weil schlechtes AF für mich ein Ausschlusskriterium ist. Es gibt für mich Grenzen wo ich sage: Jetzt reichts! Beim NV40 kaufte ich nur die 6600 GT, keine 6800, weil ich nicht einsah, für das schlechte AF viel Geld zu bezahlen und Texel-Leistung zu erwerben, die ich nicht vernünftig in Texturqualität umsetzen kann.
Mir geht's nicht ums Prinzip. Mir geht's ums Vergnügen beim Zocken, Punkt.Jo, ich spiele GT4 mit noch immer wachsender Begeisterung trotz des starken Flimmerns. Aber eine einzelne 7800 GTX kostet mehr als mein Fernseher, die PS2, das Spiel und das offizielle Forcefeedback-Lenkrad zusammen.
Ach, Du willst Taten sehen? Erst wenn ich meine 7800GTX ans Kreuz nagle habe ich in Deinen Augen ausreichend Abitte geleistet?Inzwischen ist mir klar geworden, dass du eben keine besonders hohe Ansprüche an Texturqualität stellst – von dir werde ich daher wirklich kritische Worte über den G70 nicht hören.
Grestorn
2005-08-26, 11:13:26
Doch: Erst dann ein Produkt kaufen, wenn es die Anforderungen erfüllt. Mit dem Kauf zeigst du, dass deine Anforderungen nicht sehr hoch sind.
Auf dieses ganze Posting von Dir, aths, passt einfach nur genau das, was ich schon geschrieben habe:
Ein Standpunkt wie: "Meine Ansprüche an BQ sind ja so hoch und unantastbar, deswegen ist das Produkt Müll, und jeder der nicht meiner Meinung ist muss was an den Augen haben oder ist anspruchslos" ist dagegen geradezu die Personifizierung von Selbstgerechtigkeit!
Wer bist Du denn, dass Du Dir erlaubst, über meine Anforderungen und meine Ansprüche zu urteilen?
Zumal ich Dir - wie viele andere hier - ganz klar die Kompetenz abspreche, über die G70 zu urteilen, mangels eigener Erfahrungen aus erster Hand.
Full Ack!
Das Flimmern nervt mich genau so bei einigen Spielen. Allerdings gibt es zur Zeit keine Alternative, auf die man überhaupt wechseln könnte. Ohne zuvor den R520 gesehen -und damit meine ich auch "gesehen" (sic!)- zu haben oder den 80er-Treiber auszuprobieren würde ich mich hüten, die Karte zurück zu geben oder auf ein (leistungsmässig gleichwertiges Produkt) zu wechseln. Dafür überwiegen für mich die anderen Vorteile eben doch zu stark.
(del676)
2005-08-26, 11:24:14
Zumal ich Dir - wie viele andere hier - ganz klar die Kompetenz abspreche, über die G70 zu urteilen, mangels eigener Erfahrungen aus erster Hand.
dazu hat sich ATHS selbst schon den Wind aus den Segeln genommen X-D
auf der einen Seite behauptet er stock und steif er kann die Texturquality der G70 anhand seiner heiligen Videos beurteilen
auf der anderen Seite hat er hier geschrieben dass er, wenn er eine G70 bekommen würde, diese einige WOCHEN testen müsste
tja so fällt man selbst in seine Gruben X-D
edit: aber ich bin mir SICHER herr aths wird diesen post entweder überlesen, oder ihn einfach aufgrund eines fadenscheinigen grundes nicht beantworten.
DrumDub
2005-08-26, 11:42:00
jetzt hört mal auf hier auf aths rumzuhacken. es geht aths ja um ein grundsätzliches problem, nämlich dass die mögliche texturqualität bei den heutigen highend-grakas kontinuierlich verschlechret wurde. das prangert er an!
es macht also euch nichts aus bzw. euch fällt das flimmern in den meisten spielen nicht wirklich auf und damit überwiegen für euch die vorteile des g70 diesen einen nachteil gegenüber dem nv40.
aber die entwicklung, die mit dem r300 und dem winkelabhängigen-af eingleitet wurde, darf nicht dazu führen, dass es für den kunden keine möglichkeit gibt die technisch schon im jahre 2001 sehr gute af-qualität zu bekommen, auch wenn diese lösung damals nicht sehr schnell war.
letzlich geht es doch nicht darum, schnelles und optimiertes af nicht mehr anzubieten, sondern darum endlich wieder dem kunden die möglichkeit zu geben die bestmögliche af-qualität zu wählen, die technisch machbar und sinnvoll ist.
(del676)
2005-08-26, 11:53:42
ja und wir sind abspruchslose blinde die die bösen machenschaften von nvidia auch noch unterstützen :rolleyes:
Quasar
2005-08-26, 12:06:06
Für mich sieht die Rechnung momentan so aus: Die 7800 GTX braucht Supersampling, um ordentliche Texturqualität zu liefern (sofern man nicht komplett auf AF verzichtet).
Die Leistung dafür ist in vielen Fällen vorhanden. 8xS ist oft auch in 1280 noch einigermaßen nutzbar (mit SLI umso mehr).
Allerdings könnte ich dieselben Games ohne den "Zwang" zum Supersampling auch in 2048 spielen - inklusive AF, AA und TSSAA.
ja und wir sind abspruchslose blinde die die bösen machenschaften von nvidia auch noch unterstützen :rolleyes:
Jetzt übertreibst du aber... :rolleyes:
Allerdings solltet "ihr" dann aber auch bitte nicht jammern, wenn die Next-Gen-Chips wieder einen Schritt weitergehen im Herabsetzen der Texturqualität. ;)
Aber solange genug FPS geboten werden, ist das ja sicherlich ein Mangel, mit dem man leben kann. War ja schon zu Zeiten der R300 so. ;)
Oh - und bitte nicht beleidigt sein und auf mich loshacken. Denkt lieber einmal darüber nach, was Firmen dazu bewegt, so zu handeln, wie sie handeln und was der Grund dafür ist, daß sie es auf diese Weise tun.
Knötchen
2005-08-26, 12:25:50
Ich lese viel zu oft: "Ist ja nicht so schlimm.", "Es hat doch auch seine guten Seiten.", "Wird nicht so heiss gegessen wies gekocht wird." usw. Das ist doch alles Humbuk!
Immer dieses Beschwichtigen, Relativieren, Abmildern, Arrangieren, man ist ja so erwachsen, da gibt es wichtigeres im Leben, man muss auch die guten Seiten sehen, eine neutrale Meinung in der Mtte, damit fährt man doch am besten.
Wirklich arm! Das sind genau die richtigen Opfer auf die die mächtige Industrie zählt. Dafür habe ich kein Verständnis. Kot bleibt Kot, auch wenn du einen Schlag süsser Sahne drüber serviert bekommst, ich würde es trotzdem nicht essen wollen.
Übrigens bewundere ich Anti-Castor-Demostranten sehr.
Wolfi
2005-08-26, 12:33:55
sorry leute, ich kann absolut nich nachvolziehn wie man den G70 momentan schönreden will.
Der NV40 hatt auf Quality eine grauenhafte Texturqualität, und das in absolut jedem Game, es spielt gar keine rolle wie alt das game ist, den es ist in fast jeder zene überdeutlich zu sehn.
Die frage ist nicht wo es flimmert, die frage ist wo flimmert es nicht.
Auch wenn der G70 im in HQ wohl etwas weniger flimmert ist das viel zu viel.
Und das neue AA vom G70 ist zwar eine super sache, aber gerade das flimmern würde diese Feature umso mehr versauen.
wenn zäune und kannten nicht mehr flimmern, das bild also dem Ideal schon sehr nahe ist, dann stört es umso mehr wenn die texturen größflächig grießeln.
Hätte ich die wahl, ich würde überdeutlich vorziehn das lieber ein paar wenige problemtexturen flimmern, als das alle Texturen Grießeln.
Das neue AA ist eine großartiege sache, wird aber durch das grießeln völlig versaut.
Auch beim neuen witz mit der pfeiloptimierung könnte ich kotzen.
Das ist einfach nur noch lächerlich.
Und der Aufschrei beim NV40 = Winkelabhängigkeit, war damals durchaus da, gerade auch bei 3dc
Nur ist im grunde das Flimmern ja jetzt noch schlimmer und sichtbarer.
Scheinbar wurde die masse wirklich mit Quality ala NV40 an Flimmern gewöhnt, ich les auch ständig im net ich seh kein Flimmern auf Q
Gegen diesen mob ist auch einfach kein ankommen, ist wie gegen windmühlen.
Und wieso keine Alternativen, die 6800 Ultra oder ATI ist nicht nennenswert Langsamer.
Und falls der G70 flimmerfrei wird dürfte der abstand noch geringer werden.
Ich mach mir eher sorgen wenn das das Flimmern zum dauerzustand wird und man in 1-2 generationen keine wahl mehr hatt, weil man aufrüsten muß.
Grestorn
2005-08-26, 12:47:26
jetzt hört mal auf hier auf aths rumzuhacken. es geht aths ja um ein grundsätzliches problem, nämlich dass die mögliche texturqualität bei den heutigen highend-grakas kontinuierlich verschlechret wurde. das prangert er an!Wer hackt hier auf wem rum?
Ich muss mir anhören, dass ich die Community schädige, dass ich dafür sorge, dass die BQ immer schlechter wird und dass ich sowieso weder Anspruch noch hohe Anforderungen habe.
Wenn aths einfach mal die Kirche im Dorf lassen würde, könnte man sich sicher auf einen gemeinsamen Nenner einigen. So aber nicht.
Wie aths im Moment schreibt, packe ich ihn in die gleiche Gruppe, wie die Extrem-HiFi-Puristen, die uns erklären wollen, dass ein €200 Coax-Kabel mit Goldkontakten und 2cm Durchmesser besser ist für digitale(!) SPDIF Übertragung als ein normales Kabel für €20.
Wolfi
2005-08-26, 12:58:08
Wie aths im Moment schreibt, packe ich ihn in die gleiche Gruppe, wie die Extrem-HiFi-Puristen, die uns erklären wollen, dass ein ?200 Coax-Kabel mit Goldkontakten und 2cm Durchmesser besser ist für digitale(!) SPDIF Übertragung als ein normales Kabel für ?20.
Was hatt das hiermit zu tun.
Der Hifi High End kram ist sicher großteils einbildung, speziell deine hier genante sache.
Nur das Grieseln sieht man, beim koax ist eben kein unterschied.
Man kann das ganze auch umdrehn und sagen der unterschied spielt keine Rolle HQ vs Q , genau wie die sagen sie hören einen Unteschied zwischen dem Kabel.
Nur das das mit dem Kabel eben wirklich blödsinn ist wie Blindtest zeigen, das grießeln aber leider nicht.
Grestorn
2005-08-26, 12:59:23
Ich lese viel zu oft: "Ist ja nicht so schlimm.", "Es hat doch auch seine guten Seiten.", "Wird nicht so heiss gegessen wies gekocht wird." usw. Das ist doch alles Humbuk!
Immer dieses Beschwichtigen, Relativieren, Abmildern, Arrangieren, man ist ja so erwachsen, da gibt es wichtigeres im Leben, man muss auch die guten Seiten sehen, eine neutrale Meinung in der Mtte, damit fährt man doch am besten.
Wirklich arm! Das sind genau die richtigen Opfer auf die die mächtige Industrie zählt. Dafür habe ich kein Verständnis. Kot bleibt Kot, auch wenn du einen Schlag süsser Sahne drüber serviert bekommst, ich würde es trotzdem nicht essen wollen.
Übrigens bewundere ich Anti-Castor-Demostranten sehr.
Was für ein besch... Beitrag. Von vorne bis hinten.
Du hast realisiert, dass ich mehrfach geschrieben habe, dass solche BQ Unterschiede durchaus einen Einfluss auf mein Kaufverhalten haben?
Wie kannst Du mir dann unterstellen, ich würde so etwas fördern? Es gibt halt einfach keine Alternative derzeit. Also ist das Problem doch eher das Versagen der Konkurenz!
Das uns G70 Nutzer in die Schuhe zu schieben ist echt das letzte.
Und wer gewaltbereite Castor-Demonstranten (und auch Nötigung ist Gewalt) auch noch bewundert, hat in meinen Augen noch nicht angefangen, wirklich über die Realität nachzudenken. Wünschen kann man sich ja viel. Dass nicht alles, was man sich wünscht, möglich ist, sollte man eigentlich schon als kleines Kind im Supermarkt gelernt haben. Manche Eltern scheinen da aber versagt zu haben, und solche Menschen meinen dann, mit Fuss auf den Boden stampfen und schreien kriegen sie ihren Willen. Genau in diese Kategorie fallen für mich Castor-Demonstranten, die den Transport blokieren (gegen reines Gewalt- und Nötigungsfreies Demonstrieren gibt's ja nix einzuwenden).
Extremisten haben noch nie etwas gutes gebracht, immer nur Leid. Und wer Sätze wie Immer dieses Beschwichtigen, Relativieren, Abmildern, Arrangieren, man ist ja so erwachsen, da gibt es wichtigeres im Leben, man muss auch die guten Seiten sehen, eine neutrale Meinung in der Mtte, damit fährt man doch am besten.
Wirklich arm! Das sind genau die richtigen Opfer auf die die mächtige Industrie zählt. Dafür habe ich kein Verständnis. Kot bleibt Kot, auch wenn du einen Schlag süsser Sahne drüber serviert bekommst, ich würde es trotzdem nicht essen wollen.klingt einfach sehr nach einem Anhänger extremistischer Ansichten.
Das Leben ist nun mal nicht schwarz oder weiß. Niemals ist der eine oder andere extreme Standpunkt zu 100% richtig. So etwas gibt es einfach nicht.
Und genau deswegen ist eine ausgewogene Meinung (die nicht in der Mitte liegen muss) immer besser als eine extreme.
Wenn Du meinst, eine G70 wäre Kot, was sind dann alle anderen aktuelle Produkte? Die in der Summe gesehen die BQ der G70 nicht erreichen? Mir fällt da spontan das Scheiße-Monster aus dem Film "Dogma" ein ... :)
Grestorn
2005-08-26, 13:07:59
Und wieso keine Alternativen, die 6800 Ultra oder ATI ist nicht nennenswert Langsamer.
Und falls der G70 flimmerfrei wird dürfte der abstand noch geringer werden.
Hast Du eine G70? Hast Du eine NV40? Hast Du eine R420?
Ich habe auf all diesen Karten gespielt und ich habe alle drei Karten aktuell in Rechnern im Betrieb (meinem (G70), dem meiner Freunden (NV40) und den Server (X800Pro), auf dem auch schon mal ein Spiel läuft, und sei es nur den Unterschied zwischen den Karten zu sehen).
Du schreibst immer, als wären alle Spiele absolut unspielbar wegen dem Flimmern (in HQ, von Q rede ich nicht). Es mag sein, dass es Spiele gibt, wo es echt stört. Ich habe wohl das Glück, dass mich keines dieser Spiele interessiert. Bei all den Spielen, die ich auf der Platte habe, ist es jedenfalls kein Thema. Und dann brauchst Du nicht mit Aussagen kommen wie
Das neue AA ist eine großartiege sache, wird aber durch das grießeln völlig versaut.
Auch beim neuen witz mit der pfeiloptimierung könnte ich kotzen.
Das ist einfach nur noch lächerlichdie halt einfach hinten und vorne nicht stimmen. Es gibt da nur eines was lächerlich ist, und das sind Leute wie Du, die meinen ihre Meinung wäre die einzig wahre, und jeder der eine andere vertritt schadet der Community, ist lächerlich und hat sowieso kein Niveau.
Grestorn
2005-08-26, 13:11:17
Was hatt das hiermit zu tun.
Der Hifi High End kram ist sicher großteils einbildung, speziell deine hier genante sache.
Nur das Grieseln sieht man, beim koax ist eben kein unterschied.
Man kann das ganze auch umdrehn und sagen der unterschied spielt keine Rolle HQ vs Q , genau wie die sagen sie hören einen Unteschied zwischen dem Kabel.
Nur das das mit dem Kabel eben wirklich blödsinn ist wie Blindtest zeigen, das grießeln aber leider nicht.
Es geht nicht darum, ob der Unterschied existiert oder nicht. In der Hinsicht passt der Vergleich nicht, und so war er auch nicht gemeint.
Ich habe hier nur auf die kompromisslosigkeit der Leute, die diese Meinung vertreten, angespielt. Auch die sind 100% von ihrer Meinung überzeugt und lassen nichts an sich ran. Ausgewogene Argumentation, die sich wenigstens die Mühe macht beide Seiten zu sehen, ist ihnen - genau wie offenbar Dir - völlig fremd.
Wolfi
2005-08-26, 13:29:14
Ich nehme als vergleich den Q modus meine 6800GT, und ja der ist Unspielbar. (Natürlich kann man sich damit arangieren, man gewöhnt sich an alles, aber das kann doch nicht das ziel sein)
Und auch wenn der G70 nur halb soviel flimmert ist das ein Todesurteil für mich.
Natürlich ist das "nur" meine meinung.
Ich kann aber eben nich nachvollziehn wenn einige so abfarn auf AA/AF aber das flimmern dann plötzlich relativ egal ist.
Ich bin der letzte der sich seine NV40 schönreden würde, genauso kotzt mich die winkelabhänigkeit an, aber ich muß mich damit arangieren weil es keine alternative.
Das Problem ist doch das sich jeder als gekreuzigt fühlt mit einem G70 wenn man was dagegen sagt.
zeigt doch seht gut der Thread hier wie das hier entgleist wenn um den Lebensinhalt einiger geht.
Man wird dann immer gleich persöhnlich...
Grestorn
2005-08-26, 13:37:48
Das Problem ist doch das sich jeder als gekreuzigt fühlt mit einem G70 wenn man was dagegen sagt.
zeigt doch seht gut der Thread hier wie das hier entgleist wenn um den Lebensinhalt einiger geht.
Man wird dann immer gleich persöhnlich...
Es ist halt nun mal persönlich, wenn es so hingestellt wird, als ob jeder der sich mit der G70 und ihrem Mangel arrangiert, einen an der Waffel hat, die Community schädigt und dafür verantwortlich ist, dass die BQ sinkt.
Genau das tut ihr - mit teilweise sehr deutlichen Worten - nun schon seit Tagen.
Es ist Euch egal, warum wir uns arrangieren. Wir können schreiben, was wir wollen, es wird ignoriert. Dagegen kommen immer wieder die selben Argumente von wegen unspielbar usw. Dabei spiele ich jeden Tag, und das meist ganz ohne jedes Flimmern. Selten sieht man hier und da ein leichtes Grieseln bei bestimmten Texturen in bestimmter Entfernung.
Unspielbar definiert sich für mich halt einfach anders. Wäre schön, wenn ihr das endlich akzeptieren könntet, ohne mich (und meine Meinungsgenossen) für die Nemesis der Computergrafik zu halten.
Ich habe hier nur auf die kompromisslosigkeit der Leute, die diese Meinung vertreten, angespielt. Auch die sind 100% von ihrer Meinung überzeugt und lassen nichts an sich ran. Ausgewogene Argumentation, die sich wenigstens die Mühe macht beide Seiten zu sehen, ist ihnen - genau wie offenbar Dir - völlig fremd.
Aths zu unterstellen, er würde die beiden Seiten nicht sehen, sondern schlicht polalisieren ist eine unverschämte Unterstellung sondergleichen. Gezielt darauf basiert seine herrvoragande Argumentation, nV hätte mit Leichtigkeit einen exzellenten AF Filter angesichts der zur Verfügung stehender Leistung anbieten können, was nvidia leider nicht tat.
"Kaufen Sie heute noch Mitdenken, Nachdenken gibt es gratis dazu" :P
Grestorn
2005-08-26, 13:47:07
Aths zu unterstellen, er würde die beiden Seiten nicht sehen, sondern schlicht polalisieren ist eine unverschämte Unterstellung sondergleichen. Gezielt darauf basiert seine herrvoragande Argumentation, nV hätte mit Leichtigkeit einen exzellenten AF Filter angesichts der zur Verfügung stehender Leistung anbieten können, was nvidia leider nicht tat.Er polarisiert extrem. Nicht wegen seinem Artikel und den Vorwürfen, die er bringt, die sind ja alle korrekt.
Sondern wegen seiner Art, alle die bereit sind, mit dem Mangel zu leben, zu diskreditieren.
Er kann und will mit dem Mangel nicht leben. Das ist sein gutes Recht. Aber es gibt ihm kein Recht, andere zu verurteilen, die das wollen.
Das muss auch mal ein aths lernen.
"Kaufen Sie heute noch Mitdenken, Nachdenken gibt es gratis dazu" :P
Unterschwellige Beleidigungen, die voll daneben treffen, helfen Deiner Argumentation kein bisschen. Dein Text zeigt sehr deutlich, dass Du nicht verstanden hast, was ich aths unterstelle und warum ich das tue. Damit solltest Du Deinen Rat am besten zunächst selbt als erster beherzigen.
@Wolfi oder Knötchen: Wohnt einer von Euch zufällig in der nähe von München? Ich würde Euch zugern bei mir zu hause ein paar Spiele (auch Eurer Wahl wenn möglich) auf der G70 zeigen, und ihr zeigt mir dann das Flimmern, weswegen die Spiele dann unspielbar werden...
Er polarisiert extrem. Nicht wegen seinem Artikel und den Vorwürfen, die er bringt, die sind ja alle korrekt.
Sondern wegen seiner Art, alle die bereit sind, mit dem Mangel zu leben, zu diskreditieren.
Er kann und will mit dem Mangel nicht leben. Das ist sein gutes Recht. Aber es gibt ihm kein Recht, andere zu verurteilen, die das wollen.
Das muss auch mal ein aths lernen.
Unterschwellige Beleidigungen, die voll daneben treffen, helfen Deiner Argumentation kein bisschen. Dein Text zeigt sehr deutlich, dass Du nicht verstanden hast, was ich aths unterstelle und warum ich das tue. Damit solltest Du Deinen Rat am besten zunächst selbt als erster beherzigen.
Bitte direkt zitieren, wo aths (wieso übrigens "ein"?) Benutzer verurteilt. Danke :D
Er zeigt Mängel auf und verweist hier ganz klar auf den Verusacher. Ich bin mir sicher, auch hier wirst Du ein paar "Argumente" für Deine These vorbringen können.
P.S. Gibt es Dein Tool auch ohne Framework? Wollte das mal antesten.
Tomaten auf den Augen?
Den Gefallen tust du dir nicht – für dich sind solche Qualitätsverschlechterung in letzter Konsequenz ok. Wenn es nach dir ginge, kann es noch weiter bergab gehen, solange du es nicht allzu häufig und allzu stark siehst. Die Linie hat NV bereits jetzt überschritten, aber du beschwichtigst und relativierst.
Das ist nur eines von zahlreichen Beispielen und Kommentare dieser Art gehen mir offengestanden auch auf den Senkel...
Grestorn
2005-08-26, 14:07:32
Bitte direkt zitieren, wo aths (wieso übrigens "ein"?) Benutzer verurteilt. Danke :D
Er zeigt Mängel auf und verweist hier ganz klar auf den Verusacher. Ich bin mir sicher, auch hier wirst Du ein paar "Argumente" für Deine These vorbringen können.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3415651&postcount=1102
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3418662&postcount=1124
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3418696&postcount=1127
und vorallem dann hier: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3418868&postcount=1132
P.S. Gibt es Dein Tool auch ohne Framework? Wollte das mal antesten.Das geht leider nicht. Ich nutze .NET ja nicht, um Anwender zu ärgern, sondern a) um meinen Horizont weiterzuentwickeln und b) weil man sich damit jede Menge Arbeit spart.
.NET macht nichts böses mit Deinem System. Keine Dienste, keine Hintergrundprozesse, noch nicht mal ein Neustart beim Installieren. Nur eine Handvoll DLLs und Controls.
Ich nehme als vergleich den Q modus meine 6800GT, und ja der ist Unspielbar.
ich hab einige zeit gebraucht bis ich auf der 6800GT zwischen HQ und Q einen unterschied sehen konnte (bis auf einige wenige spiele wo es sofort ins auge fällt), und ich bin extrem flimmerempfindlich. mittlerweile ist mein sehen so trainiert dass ich nach ein wenig begutachtung wohl bei so ziemlich jedem spiel sagen kann ob es in Q oder HQ ist (sofern kein SSAA zum einsatz kommt), allerdings ist es die minderheit der spiele in denen es wirklich störend ist (dann allerdings extrem).
natürlich spiele ich trotzdem in HQ, da die leistung ausreicht, bei Q kann ich aber nicht gerade generelle unspielbarkeit attestieren.
wahrscheinlich fällt das ganze auf dem G70 auch wesentlich extremer auf, da das bild dank TSAA praktisch kein flimmern mehr enthält, da stört ein wenig texturgrieseln natürlich wesentlich mehr wenn das restliche bild nahezu perfekt ist.
Knötchen
2005-08-26, 14:17:17
Ich lese viel zu oft: "Ist ja nicht so schlimm.", "Es hat doch auch seine guten Seiten.", "Wird nicht so heiss gegessen wies gekocht wird." usw. Das ist doch alles Humbuk!
Immer dieses Beschwichtigen, Relativieren, Abmildern, Arrangieren, man ist ja so erwachsen, da gibt es wichtigeres im Leben, man muss auch die guten Seiten sehen, eine neutrale Meinung in der Mtte, damit fährt man doch am besten.
Wirklich arm! Das sind genau die richtigen Opfer auf die die mächtige Industrie zählt. Dafür habe ich kein Verständnis. Kot bleibt Kot, auch wenn du einen Schlag süsser Sahne drüber serviert bekommst, ich würde es trotzdem nicht essen wollen.
Übrigens bewundere ich Anti-Castor-Demostranten sehr.
Was für ein besch... Beitrag. Von vorne bis hinten.
Hoppla! Habe ich da irgendeinen Nerv getroffen? Scheinst dich ja mächtig angesprochen zu fühlen.
Du hast realisiert, dass ich mehrfach geschrieben habe, dass solche BQ Unterschiede durchaus einen Einfluss auf mein Kaufverhalten haben?
yupp
Wie kannst Du mir dann unterstellen, ich würde so etwas fördern? Es gibt halt einfach keine Alternative derzeit. Also ist das Problem doch eher das Versagen der Konkurenz!
Ich unterstelle dir nichts, zumindest nicht mit obigem Post.
Das uns G70 Nutzer in die Schuhe zu schieben ist echt das letzte.
Ich würde bei dir allenfalls von einem allgemeinen Hang zur Verharmlosung und von einer gewissen Blauäugigkeit ausgehen. Die Anhaltspunkte dafür entnehme ich nicht nur diesen Thread. Ich unterstelle dir nichts.
Und wer gewaltbereite Castor-Demonstranten (und auch Nötigung ist Gewalt) auch noch bewundert, hat in meinen Augen noch nicht angefangen, wirklich über die Realität nachzudenken.
Ja, in deinen Augen.
Wünschen kann man sich ja viel. Dass nicht alles, was man sich wünscht, möglich ist, sollte man eigentlich schon als kleines Kind im Supermarkt gelernt haben. Manche Eltern scheinen da aber versagt zu haben, und solche Menschen meinen dann, mit Fuss auf den Boden stampfen und schreien kriegen sie ihren Willen. Genau in diese Kategorie fallen für mich Castor-Demonstranten, die den Transport blokieren (gegen reines Gewalt- und Nötigungsfreies Demonstrieren gibt's ja nix einzuwenden).
Ich bin mir sicher, dass du zu den Menschen gehörst die als erstes auf die Stasse gehen um Misstände anzuprangern. :rolleyes:
Extremisten haben noch nie etwas gutes gebracht, immer nur Leid. Und wer Sätze wie Immer dieses Beschwichtigen, Relativieren, Abmildern, Arrangieren, man ist ja so erwachsen, da gibt es wichtigeres im Leben, man muss auch die guten Seiten sehen, eine neutrale Meinung in der Mtte, damit fährt man doch am besten.
Wirklich arm! Das sind genau die richtigen Opfer auf die die mächtige Industrie zählt. Dafür habe ich kein Verständnis. Kot bleibt Kot, auch wenn du einen Schlag süsser Sahne drüber serviert bekommst, ich würde es trotzdem nicht essen wollen.klingt einfach sehr nach einem Anhänger extremistischer Ansichten.
Für mich sind die miesesten Extremisten gierige Grossindustrielle, denen ein Menschenleben aber sowas von völlig s-egal ist, denen aber jeder einzelne Cent ihres Milliarden-Profits heilig ist. Ganz schön extrem.
Das Leben ist nun mal nicht schwarz oder weiß. Niemals ist der eine oder andere extreme Standpunkt zu 100% richtig. So etwas gibt es einfach nicht. Und genau deswegen ist eine ausgewogene Meinung (die nicht in der Mitte liegen muss) immer besser als eine extreme.
Prinzipiell richtig, aber: Natürlich gibt es das absolut Falsche und absolut Richtige. Ein Mord, egal aus welcher Motivation bleibt für mich absolut falsch, selbst wenn man G.W. Bush umbringen würde, wäre es ein "falscher" Mord.
Wenn Du meinst, eine G70 wäre Kot, was sind dann alle anderen aktuelle Produkte?
Das habe ich nicht gesagt. Die Kotgeschichte war metaphorisch.
Die in der Summe gesehen die BQ der G70 nicht erreichen?
Komm mir bitte nicht mit SSAA oder so. Ich gehe doch nicht einen Schritt in Sachen fps vor um dann fünf Schritte zurückzugehen, um auf das selbe Ergebnis wie vor dem ersten Schritt zu kommen, zumal die Motivation für dieses alberne Spiel so offenkundig sind und den Käufer des Produktes völlig ignorieren. Sobald der Konsument im Sack ist, ist er kein Faktor mehr. Ich würde mir ja sowas von verarscht vorkommen, wahrscheinlich würde ich es sogar eingestehen.
Mir fällt da spontan das Scheiße-Monster aus dem Film "Dogma" ein ... :)
Lass mich nachdenken .. den habe ich gesehen ... Scheissemonster ... Puuh, ich kann mich nur noch an Alanis Morisett am Ende erinnern und wie süss ich sie fand, aber der Film sagte mir nicht zu, ich bin nicht so bibelfest, als dass ich mit den ganzen Anspielungen etwas anzufangen wusste und mich darüber amüsieren könnte. Was hat es denn mit dem Scheissemonster auf sich?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3415651&postcount=1102
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3418662&postcount=1124
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3418696&postcount=1127
und vorallem dann hier: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3418868&postcount=1132
Tomaten auf den Augen?
Das ist nur eines von zahlreichen Beispielen und Kommentare dieser Art gehen mir offengestanden auch auf den Senkel...
Sorry Mädels, es geht nur um die von aths geschriebenen Artikel...
Knötchen
2005-08-26, 14:46:01
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3415651&postcount=1102
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3418662&postcount=1124
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3418696&postcount=1127
und vorallem dann hier: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3418868&postcount=1132
Das geht leider nicht. Ich nutze .NET ja nicht, um Anwender zu ärgern, sondern a) um meinen Horizont weiterzuentwickeln und b) weil man sich damit jede Menge Arbeit spart.
.NET macht nichts böses mit Deinem System. Keine Dienste, keine Hintergrundprozesse, noch nicht mal ein Neustart beim Installieren. Nur eine Handvoll DLLs und Controls.
Mag sein, dass aths nach über 1000 geschriebenen und gelesenen Beiträgen zu etwas deutlicheren Formulierungen greift. Ich fürchte, das ändert gar nichts an den Fakten und an den Fronten. Die einen arrangieren sich oder "sehen es nicht", die anderen akzeptieren für high-end-Geld einfach kein Mittelmass. Und was mich persönlich angeht, geht es mir vorallem ganz schön gegen den Strich Spielball der Industrie zu sein, das bin ich vorallem und gerade als Kaüfer von NV-Produkten, da NV dem User ungemein viel Kontrolle über sein Eigentum vorenthält. Selbst wenn es 80% Geschwindigkeit kosten würde, möchte ich als user und Besitzer die volle Kontrolle über meine Hardware haben und selber entscheiden dürfen, ob ich volle Qualität wünsche oder mich mit weniger zufriedengeben kann. Doch das passt offenbar nicht ins Marktkalkül Nvidias.
Nein, ich lebe in Kiel, also ganz entgegengesetzt.
Btw: Woher weisst du, dass das .NET framework soooo lieb ist? Hast du jede DLL dekompiliert? Mich stört alleine schon, dass ich mich nach der Installation jedes mal einloggen muss. Ausserdem ist XP von Haus aus dermassen überfrachtet, dass ich so schon genug an Kontrolle aus mangelnder Übersicht abgeben muss, selbst wenn ich diverse Komponenten und Dienste deinstalliere/deaktivieren. Da muss ich mir nicht noch weiteres M$-Gefahrenpotential auf meinen Rechner installieren. Ich sehe in .NET-Framework genauso wenig Sinn wie in SP2 und wüsste nicht wo es mir Arbeit abnehmen könnte.
Edit: Da ich gerade so am Prinzipienreiten bin ;) ... ich bin nicht nur user und Besitzer, sondern Eigentümer der Hardware!
So, das musste sein. :)
mapel110
2005-08-26, 14:53:33
Mag sein, dass aths nach über 1000 geschriebenen und gelesenen Beiträgen zu etwas deutlicheren Formulierungen greift. Ich fürchte, das ändert gar nichts an den Fakten und an den Fronten. Die einen arrangieren sich oder "sehen es nicht", die anderen akzeptieren für high-end-Geld einfach kein Mittelmass. Und was mich persönlich angeht, geht es mir vorallem ganz schön gegen den Strich Spielball der Industrie zu sein, das bin ich vorallem und gerade als Kaüfer von NV-Produkten, da NV dem User ungemein viel Kontrolle über sein Eigentum vorenthält. Selbst wenn es 80% Geschwindigkeit kosten würde, möchte ich als user und Besitzer die volle Kontrolle über meine Hardware haben und selber entscheiden dürfen, ob ich volle Qualität wünsche oder mich mit weniger zufriedengeben kann. Doch das passt offenbar nicht ins Marktkalkül Nvidias.
Nein, ich lebe in Kiel, also ganz entgegengesetzt.
Btw: Woher weisst du, dass das .NET framework soooo lieb ist? Hast du jede DLL dekompiliert? Mich stört alleine schon, dass ich mich nach der Installation jedes mal einloggen muss. Ausserdem ist XP von Haus aus dermassen überfrachtet, dass ich so schon genug an Kontrolle aus mangelnder Übersicht abgeben muss, selbst wenn ich diverse Komponenten und Dienste deinstalliere/deaktivieren. Da muss ich mir nicht noch weiteres M$-Gefahrenpotential auf meinen Rechner installieren. Ich sehe in .NET-Framework genauso wenig Sinn wie in SP2 und wüsste nicht wo es mir Arbeit abnehmen könnte.
hehe, kauf dir einen R520 mit hoffentlich flimmerfreiem AF. Dann geht kein Weg mehr an .net vorbei. Ab September kommt kein altes Control Panel mehr. So schlimm kanns doch nicht sein, wenn ein großer IHV seinen Treiber nurnoch dafür anbietet.
Wolfi
2005-08-26, 14:56:20
Es ist halt nun mal persönlich, wenn es so hingestellt wird, als ob jeder der sich mit der G70 und ihrem Mangel arrangiert, einen an der Waffel hat, die Community schädigt und dafür verantwortlich ist, dass die BQ sinkt.
Genau das tut ihr - mit teilweise sehr deutlichen Worten - nun schon seit Tagen.
Es ist Euch egal, warum wir uns arrangieren. Wir können schreiben, was wir wollen, es wird ignoriert. Dagegen kommen immer wieder die selben Argumente von wegen unspielbar usw. Dabei spiele ich jeden Tag, und das meist ganz ohne jedes Flimmern. Selten sieht man hier und da ein leichtes Grieseln bei bestimmten Texturen in bestimmter Entfernung.
Unspielbar definiert sich für mich halt einfach anders. Wäre schön, wenn ihr das endlich akzeptieren könntet, ohne mich (und meine Meinungsgenossen) für die Nemesis der Computergrafik zu halten.
Es sagt doch keiner das ihr einen an der Waffel habt.
Aber der Teufelskreis aus Optimierungen muß mal enden.
Unspielbar ist relativ, früher hatt man auch in 640x480 gespielt und war zufrieden.
Heute fällt das für die meisten unter unspielbar.
Q fällt für mich eben nicht mehr unter zeitgemäß, ein vergleich von mir ist zb das ich mit Q@16AF mehr verliere als ich mit HQ@4AF auf 6800GT
Ich glaub ich würd wieder auch lieber wieder auf der GF4 spieln als auf Q
Spiele selbst san andreas mit auf manchen Texturen grausigstem Flimmern, und es kotzt mich sehr an.
Aber mit der zeit gewöhnt ich mich dran, da es andere sachen zu tun gibt im Spiel.
Und die Spielabschnitte wo nix flimmert genies ich dann halt.
Übriegens fangen mit Q dann auch noch die restlichen Texturen die korrekt dargestellt werden zu flimmern an.
Aber das ist eben nur ein Spiel, der rest ist ok.
Frage, kannst du mit dem 6800@Q leben?
Würdest du sagen das der G70 wenigsten halb soviel flimmert wie auf diesem Modus der 6800GT ?
wenn dem so ist brauch ich mir das nicht unbedingt anzusehn.
Selbstredent ohne SSAA, das wäre keine Alternative für mich.
Mir gehts auch nich um ein paar Pixel die man mit der Lupe suchen muß.
Aber wenn ich zb in Gothic 1 oder jedem anderen game rumlaufe, da flimmert fast der komplette boden, das ist doch einfach inakzeptabel.
Ich kann nachvollziehn das man mit SSAA sich anrangieren kann (wobei ich das jetzt nich getestet hab), aber das ist wird nicht lange eine Option bleiben.
Und Aths hatt doch recht, jeder der sich damit anrangiert fördert diese Graka Politik.
Damals wurde mit der 9700Pro auch NV versägt, aus heutiger sicht etwas zu unrecht, aber das ergebnis davon ist die Winkelabhängigkeit, das Flimmern ist nur die nächste runde im Pokern.
Die frage ist ob wir wieder das gleiche spielchen sehn.
Er versucht nur den anfängen zu wehren, mal sehn was die nächste optimierung ist.
Letztenendes ist das aber auch Demokratie, wenn für 95% das Flimmern ok ist müßen sich halt die restlichen 5% der feaks damit Anrangieren.
Nebenbei, an Aths stelle hätte ich schon resegniert, das wär mir der Kampf nicht wert.
Knötchen
2005-08-26, 15:04:13
hehe, kauf dir einen R520 mit hoffentlich flimmerfreiem AF. Dann geht kein Weg mehr an .net vorbei. Ab September kommt kein altes Control Panel mehr. So schlimm kanns doch nicht sein, wenn ein großer IHV seinen Treiber nurnoch dafür anbietet.
Yo, aber soweit ich mich erinnere (hatte die 9200), gibt es doch den Treiber ansich und das aufgesetze CCC, in dem man zusätzliche Settings machen kann. Und genau diese Funktionalität bieten doch tools wie atuner, oder ATI-Traytoools, oder wie sie heissen ... Wars nicht so? Diese Tools laufen ohne .NET, AFAIK.
Nuja, wie schlimm es ist, mache ich am wenigsten davon abhängig, ob ein grosser IHV seine Treiber dafür schreibt. Wie gesagt, ich weiss zuwenig darüber um zu sagen, dass es gut ist und wenn es von M$ kommt ist erst einmal davon auszugehen, dass es böse ist, bevor dass Gegenteil bewiesen ist. Genauso wie von der Unschuld eines Angeklagten auszugehen ist, bis seine Schuld bewiesen ist.
Black-Scorpion
2005-08-26, 15:06:09
hehe, kauf dir einen R520 mit hoffentlich flimmerfreiem AF. Dann geht kein Weg mehr an .net vorbei. Ab September kommt kein altes Control Panel mehr. So schlimm kanns doch nicht sein, wenn ein großer IHV seinen Treiber nurnoch dafür anbietet.
Was hat der Treiber mit .net zu tun?
Es zwingt dich keiner das CCC zu installieren.
Zumal man dafür auch die TrayTools nehmen kann.
Frank1974
2005-08-26, 15:11:18
Er polarisiert extrem. Nicht wegen seinem Artikel und den Vorwürfen, die er bringt, die sind ja alle korrekt.
Sondern wegen seiner Art, alle die bereit sind, mit dem Mangel zu leben, zu diskreditieren.
Er kann und will mit dem Mangel nicht leben. Das ist sein gutes Recht. Aber es gibt ihm kein Recht, andere zu verurteilen, die das wollen.
Das muss auch mal ein aths lernen.
Wie ich schon geschrieben hatte,ich habe meine 7800GTX zurück gegeben weil ich eben nicht mit diesem Mangel einverstanden bin,ein High END Produkt darf KEINE Mängel haben.
Jemand der sich einen Porsche oder ein anderes Luxusauto kauft,würde es auch nicht mit einer kleinen Beule,die man vieleicht nicht auf den ersten Blick sieht behalten,wenn es ein Neuwagen ist :wink:.Ich finde den Vergleich mit einem Auto sogar Perfekt,weil es beim Auto um dieselben 2 Dinge geht wie bei einer Grafikkarte,1 Schnell ; 2 Perfektes Aussehen.
Alles was in die High End Klasse gehört darf keine Mängel haben sonst ist es kein High End.
Und wenn du damit leben kannst auch gut,du hast deine Meinung ich habe meine :smile:
MFG
Frank
Die ja auch jeder akzeptiert (kann ich für Dich wunderbar nachvollziehen).
Dann soll man aber grestorn, anderen 7800GTX-Usern und mir bitteschön die Entscheidung selbst überlassen, ob man die Karte behält, zurückgibt oder gegen einen R520 switcht. Auch sollte man diejenigen, die sich entscheiden, die Karte zu behalten, nicht pauschal für anspruchslos halten bzw. als "Beschwichtiger" stigmatisieren.
Meine Erfahrung:
Einige Spiele (insbesondere Shader-lastige) sehen (für meine Belange) sogar wunderbar mit dem Q-Modus aus. Bei einigen grieselt es ein wenig, was mich nicht stört und bei einigen (Source-Engine) flimmert es bei einigen Texturen wirklich schlimm, was mich extrem stört.
Summa summarum für mich persönlich kein Grund die Karte momentan (mangels Alternative) zurückzugeben: Ich möchte die Geschwindigkeit unter 1600x1200 (TFT) nicht missen, da meine frühere X800 XT PE hier bei AA doch öfters schon ins Schwitzen kam und ich möchte auch nicht auf TSAA verzichten!
Ich habe mich durchaus beim Hersteller der Karte und NVIDIA per E-Mail beschwert und werde erst mal den neuen Treiber abwarten. Bietet der R520 mehr BQ bei vergleichbarer Leistung, werde ich eben wechseln, aber nur dann.
Auf dieses ganze Posting von Dir, aths, passt einfach nur genau das, was ich schon geschrieben habe:
Wer bist Du denn, dass Du Dir erlaubst, über meine Anforderungen und meine Ansprüche zu urteilen?
Zumal ich Dir - wie viele andere hier - ganz klar die Kompetenz abspreche, über die G70 zu urteilen, mangels eigener Erfahrungen aus erster Hand.Ich brauche keinen G70 benutzt zu haben um zu wissen, dass AF nicht flimmern soll. Wie stark der einzelne das Flimmern sieht, ist ein anderer Themenkomplex. Texturfilterung muss bestimmte Kriterien erfüllen, was der G70 nicht tut. Dass deine Ansprüche bezüglich Texturqualität nicht sonderlich hoch sind (wie leider bei den meisten Usern) lässt sich leicht feststellen: Du akzeptierst die starke winkelabhängige Senkung des AF-Maximalgrades und lebst mit der Flimmertendenz. Du gibst einige 100 € für Grafikhardware aus, die mittels einer extrem ineffizienten Methode (OGSSAA) alle möglichen Flimmerartefakte reduzieren kann. Das ist für mich ein Stück aus dem Tollhaus: NV verweigert die Implementierung von anständigem AF, aber der User ist glücklich, mittels einer extrem leistungsfressenden Methode die Nachteile zu reduzieren.
Grestorn
2005-08-26, 15:48:14
Btw: Woher weisst du, dass das .NET framework soooo lieb ist? Hast du jede DLL dekompiliert? Mich stört alleine schon, dass ich mich nach der Installation jedes mal einloggen muss. Ausserdem ist XP von Haus aus dermassen überfrachtet, dass ich so schon genug an Kontrolle aus mangelnder Übersicht abgeben muss, selbst wenn ich diverse Komponenten und Dienste deinstalliere/deaktivieren. Da muss ich mir nicht noch weiteres M$-Gefahrenpotential auf meinen Rechner installieren. Ich sehe in .NET-Framework genauso wenig Sinn wie in SP2 und wüsste nicht wo es mir Arbeit abnehmen könnte.
Hast Du jede DLL von Windows dekompiliert? Von DirectX? Jede Quelldatei von ner Linux Distri durchgesehen?
Einloggen musst Du Dich nur, weil .NET einen User anlegt. Den kann man auch wieder löschen, dann hat sich das mit dem einloggen. Der User ist übrigens dazu da, eine vom Rest des Systems abgesicherte Umgebung für ASP.NET Anwendungen (zu denen nHancer nicht gehört) herzustellen. Das ist also ein Sicherheitsfeature, vergleichbar mit einem dedizierten Unix-Account für einen bestimmten Dienst.
.NET als Gefahrenpotential ist wieder so eine Extremmeinung. Da .NET per Default keine eigenen Dienste und Prozesse startet (auch ASP.NET wird erst bei Bedarf geladen), kann es kaum neue Sicherheitslecks einbauen.
Jedes Spiel oder jede andere Applikation, die Du auf Deinem Rechner installierst, birgt mindestens genauso viel Gefahrenpotential, wie .NET.
Aber Deine Meinung zu SP2 sagt eigentlich alles.
Frank1974
2005-08-26, 15:48:43
Die ja auch jeder akzeptiert (kann ich für Dich wunderbar nachvollziehen).
Dann soll man aber grestorn, anderen 7800GTX-Usern und mir bitteschön die Entscheidung selbst überlassen, ob man die Karte behält, zurückgibt oder gegen einen R520 switcht. Auch sollte man diejenigen, die sich entscheiden, die Karte zu behalten, nicht pauschal für anspruchslos halten bzw. als "Beschwichtiger" stigmatisieren.
Meine Erfahrung:
Einige Spiele (insbesondere Shader-lastige) sehen (für meine Belange) sogar wunderbar mit dem Q-Modus aus. Bei einigen grieselt es ein wenig, was mich nicht stört und bei einigen (Source-Engine) flimmert es bei einigen Texturen wirklich schlimm, was mich extrem stört.
Summa summarum für mich persönlich kein Grund die Karte momentan (mangels Alternative) zurückzugeben: Ich möchte die Geschwindigkeit unter 1600x1200 (TFT) nicht missen, da meine frühere X800 XT PE hier bei AA doch öfters schon ins Schwitzen kam und ich möchte auch nicht auf TSAA verzichten!
Ich habe mich durchaus beim Hersteller der Karte und NVIDIA per E-Mail beschwert und werde erst mal den neuen Treiber abwarten. Bietet der R520 mehr BQ bei vergleichbarer Leistung, werde ich eben wechseln, aber nur dann.
Mein Post sollte das ja auch sagen,jeder hat sein eigenes Bild,ich akzeptierte grestorns,deine und die Meinung aller anderen 7800 Besitzer,die sie behalten,ich bin auch sehr ungeduldig und hätte die Karte gerne behalten,hat wirklich einen Topspeed,aber ich konnte mich einfach nicht mit der BQ anfreunden ;( .
MFG
Frank
Es sagt doch keiner das ihr einen an der Waffel habt.
Aber der Teufelskreis aus Optimierungen muß mal enden.So ist es.
ATI hat "16x" AF was dem 8x AF der GF FX deutlich unterlegen ist – aber was passiert? ATI wird für die Geschwindigkeit beim AF gelobt.
NV zwingt den FX-User zu brilinearer Filterung. Was passiert? Die meisten FX-User arrangieren sich, nur ganz wenige bleibem beim alten Treiber.
NV imitiert im NV40 den AF-Stil von ATI. Was passiert? Die Herren Reviewer benchen schön das NV40-AF vs. das GF-FX-AF und loben die Performance.
NV40 setzt die Standard-Einstellung auf Unterfilterung, was zum Flimmern führt. Ich wusste das nicht, da ich ohne Supersampling immer mit HQ spielte, aber die Herren Reviewer benchen schön Q (mit Flimmern) vs. GF FX bzw. Radeon, ohne die Qualität zu kontrollieren.
Der G70 bringt viele nützliche Verbesserungen – aber schlechteres AF. Was passiert? Der G70 wird in den Medien gelobt. Was passiert in den Foren? Die meisten G70-User verteidigen den Chip. Aus ihrer Sicht zurecht. Von denen ist keiner ist bereit, über den heutigen Tag hinauszudenken. Nur gemeinsam können die zahlenmäßig ohnehin dünn gesäten Freaks versuchen, was zu erreichen. Aber der Großteil der G70-User verlangt solche Formulierungen, die das AF-Problem als nur kleine, eigentlich nicht störende Schwäche bezeichnen. Dann aber gäbe es auch keinen wirklichen Grund, vehement eine Nachbesserung von Nvidia zu verlangen.
Jedes mal, wenn die Qualität gesenkt wird, verteidigen sie die Besitzer der neuen Hardware als ein höchstens geringfügiges Problem. Das war bei der Radeon 9700 so, das war bei der GeForce FX mit den bri-Treibern so, das war beim R420 so, das war beim NV40, das ist jetzt auch beim G70.
Warum dann, zum Geier, sollte ATI im R520 gutes AF anbieten?
Grestorn
2005-08-26, 16:00:29
Frage, kannst du mit dem 6800@Q leben?In vielen Spielen, ja. In vielen anderen ist allerdings ein sehr deutliches Flimmern und/oder eine Bugwelle in Q zu sehen. Da ich aber eigentlich immer HQ eingestellt habe - außer wenn ich es nach einer Treiberneuinstallation vergessen habe - behaupte ich nicht, ein Q-Experte zu sein :)
Würdest du sagen das der G70 wenigsten halb soviel flimmert wie auf diesem Modus der 6800GT ?Mit "halb so viel" lässt sich das kaum beantworten. Wenn man das Flimmern sieht, dann ist es deutlich schwächer ausgeprägt als bei NV40@Q. Man sieht es auch bei deutlich weniger Spielen.
wenn dem so ist brauch ich mir das nicht unbedingt anzusehn.
Selbstredent ohne SSAA, das wäre keine Alternative für mich.Nun, ich würde mir einfach wünschen, dass Du erkennst, wie wenig Spiele von dem Problem eigentlich betroffen sind. Einfach damit die Relationen wiederhergestellt sind.
Mir gehts auch nich um ein paar Pixel die man mit der Lupe suchen muß.Sehr gut!
Aber wenn ich zb in Gothic 1 oder jedem anderen game rumlaufe, da flimmert fast der komplette boden, das ist doch einfach inakzeptabel.Bei G1 flimmert das gesamte Bild (wegen AT), und zwar in meinen Augen absolut unerträglich (ich frage mich, wie ich das früher nur ohne SS spielen konnte). Und deswegen spiel ich es niemals ohne SS. Falls G1 und/oder G2 also ein Kandidat für AF-Flimmern sind, dann wäre mir das nie aufgefallen.
Ich kann nachvollziehn das man mit SSAA sich anrangieren kann (wobei ich das jetzt nich getestet hab), aber das ist wird nicht lange eine Option bleiben.Richtig. Wenn die Konkurenz besseres zu bieten hat, und nVidia das Flimmern nicht in den Griff bekommt, werde ich die Konsequenzen ziehen. Bis dahin kann ich mir behelfen. Mehr habe ich auch nie geschrieben.
Mit ner 6800U oder gar ner ATI könnte ich z.B. G2 bei weitem nicht in der Qualität spielen wie mit der G70. Vielleicht verstehst Du mich jetzt etwas besser.
Und Aths hatt doch recht, jeder der sich damit anrangiert fördert diese Graka Politik.Nicht wirklich. Wenn ich aus reinem Fanboyismus damit arrangieren würde, obwohl es Alternativen gäbe, dann hättest Du recht.
Aber so ist es eher so, dass nV von dem tiefen Schlaf der Konkurrenz profitiert. Auch was SS angeht.
Exxtreme
2005-08-26, 16:05:34
Jedes mal, wenn die Qualität gesenkt wird, verteidigen sie die Besitzer der neuen Hardware als ein höchstens geringfügiges Problem. Das war bei der Radeon 9700 so,
Ach. Habe ich das R300-AF wirklich verteidigt? Und du musst auch die Spiele in Betracht ziehen, die es zum R300-Launch gab. Damals war die Winkelabhängigkeit nicht so ein großes Problem wie sie es heute ist. Entweder war die Levelarchitektur fast nur 90°-winklig oder aber waren die Texturen so Lowres, daß das nicht wirklich stark aufgefallen ist.
Warum dann, zum Geier, sollte ATI im R520 gutes AF anbieten?
Hmmm, Vernunft?
MadManniMan
2005-08-26, 16:06:58
Wie arm ist das eigentlich, bei einer Grafikkartenfrage über Umweltprobleme zu reden :|
Und besteht die Spielewelt nur als Gothic 1 und 2 :|
Und überhaupt: es verlangt doch um Gottes Willen niemand, daß diverse G70 zurückgegeben werden, wenn sie zufriedenstellen.
Aber dennoch ist es eure gottverdammte Pflicht um die Gemeinschaft und um euret Willen lauthals mitzuschreien, daß NV übertrieben hat!
mbee, was ist mit Dir? Bevor Du die Karte gekauft hast, warst Du skeptisch, Deine ideologie war elementar für Dich - nach dem Kauf hast Du gesehen, daß die Karte Vorteile hat, die für Dich überwiegen. Würden sie nebenbei auch für mich ... aber das ändert doch nichts daran, daß die Filterung schweinedreist ist, Herrrrrgott nochmal!
Ihr seid nicht blöd/blind/selbstgerecht, weil ihr mit den Karten zufrieden seid, aber ich neige dazu, euch so nennen zu wollen, wenn euch eure Spielerzukunft, sowie die Community egal ist.
Natürlich ist die Optimierung schweinedreist! Etwas anderes behaupte ich doch auch gar nicht. Ich habe mich diesbezüglich ja auch schon unter den von Ulukay angebenen URLs mehrfach beschwert. Allerdings würde ich die Karte (noch mal) momentan nur aus diesem ideologischen Grund nicht zurückgeben. Sollte NVIDIA das Problem weiterhin ignorieren und der R520 eine ernstzunehmende Alternative mit besserem AF sein, wird gewechselt, keine Frage!
Grestorn
2005-08-26, 16:19:22
Wie arm ist das eigentlich, bei einer Grafikkartenfrage über Umweltprobleme zu reden :|Es ist überhaupt nicht arm, wenn es um einen Vergleich geht.
Du weißt, was ein Vergleich ist?
Im Übrigen habe ich nicht die Wichtigkeit von Umweltproblemen mit der Wichtigkeit von Hardwareproblemen verglichen. Sondern nur, wie Menschen darauf reagieren.
Und, nein, es gibt nicht nur G1 und G2. Sogar auf meinem Rechner sind deutlich mehr Spiele installiert. ;)
Vor einer Woche wurde Windows komplett neu installiert und seit dem sind immerhin FarCry, FEAR Demo, Gothic 2, Psychonauts, HL2, Sudeki, Riddick und Splinter Cell: CT auf die Platte gewandert worden.
Aber dennoch ist es eure gottverdammte Pflicht um die Gemeinschaft und um euret Willen lauthals mitzuschreien, daß NV übertrieben hat! Zunächst muss erst mal zweifelsfrei bewiesen werden, dass es Absicht war. Demirug hält es durchaus für möglich, dass es schlicht ein unabsichtlicher Bug ist, da seiner Ansicht nach, die G70 keine Samples spart. Und damit hätte das Flimmern 0 Performance-Vorteile. Ich hoffe nur, dass dieser Bug nicht in der HW liegt. Kann gut sein, dass sie eigentlich eine legale Optimierung in HW gegossen haben, die nicht korrekt funktioniert. Dann würde das Abschalten dieser fehlerhaft implementierten Optimierung natürlich Performance kosten.
Wenn nV das Thema ignoriert oder die Kunden langfristig verarscht, dann ziehe ich die Konsequenzen und kaufe keine Produkte mehr. Das hilft viel mehr als rumzuschreiben. Das kann aths außerdem viel besser als ich. Momentan sehe ich da aber noch keinerlei Veranlassung.
Ich bin immer noch im "Benefit of the doubt"-Modus (im Zweifel für den Angeklagten).
eXodia
2005-08-26, 16:52:09
Was noch fehlt ist, das der Artikel keine Auskunft darüber gibt, das es in Spielen weniger flimmert als in den Videos. Das sollte dringend geändert werden, zumal ja die CB auch daraufhin gewiesen hat.
GrUß
Zunächst muss erst mal zweifelsfrei bewiesen werden, dass es Absicht war.Da muss man nichts beweisen, schon gar nicht zweifelsfrei. NV hat dafür zu sorgen, dass alles stimmt.
Was noch fehlt ist, das der Artikel keine Auskunft darüber gibt, das es in Spielen weniger flimmert als in den Videos. Das sollte dringend geändert werden, zumal ja die CB auch daraufhin gewiesen hat.
GrUßNach reiflicher Überlegung habe ich entschieden, das im Artikel nicht zu ergänzen. Der Artikel behauptet ja auch nicht, dass die Videos ein verallgemeinerbares Erlebnis wie in Spielen bieten. Es hängt ohnehin vom Spiel ab, wie doll es flimmert, ebenso vom Monitor und anderen Umständen. Wichtig ist zu wissen, dass der G70 flimmert. Das muss nicht nur gemildert werden, sondern weg. Wie man sieht, kann es die andere Hardware ja.
Hmmm, Vernunft?
Eher Sinn für den Profit der Firma. Würde ATi jetzt - gerne optional - neben dem optimierten alten "Scheiß"-AF einen Extreme-High-Quality-Modus bieten, der mit einer GF4 gleichziehen oder diese auch qualitativ überholen kann, würde sich das nicht nur positiv auf die Verkäufe auswirken, da man den Spaß marketingtechnisch exzellent ausschlachten kann. Auch das Ansehen stiege bei Leuten wie uns!
Die Angst, dass dann wieder hirnlose Tester diesen neuen Modus gegen G70-Flimmer-AF testen, ist sicher nicht unbegründet ... aber der größte Teil der Leute dieser Materie dürfte mittlerweile aufpassen. ...
MfG,
Raff
Wolfi
2005-08-26, 17:16:57
@grestorn
Wo flimmert den in Gothic 1 das ganze Bild?, wenn ich zb vor dem alten lager rumlaufe ist da auf dem boden mit Q nur geflimmere, mit HQ aber nicht, und das ist doch wohl keine Textur wo man das neue AA bräuchte.
Ebenso in Max Payne bei jedem savegame das ich lade.
Ich hab mich bis jetzt auch nie mit dem Q modus beschäftigt, da ich immer HQ drin habe.
Aber nach der flimmergeschichte hab ich mir den mal genauer angesehn und erst bemerkt wie schlimm das ist.
Ich habe ein handvoll games angetestet, und bei jedem wo eine Textur zu sehn war hatt es geflimmert, also es flimmert wirklich sofort in jedem game.
Mal etwas mehr, mal etwas weniger je nach textur, aber vorhanden ist es immer.
Gothic 1+2 Max Payne 1+2 Mafia GLTron
Ich hab noch zahlreiche andere drauf, die haben mir aber erstmal gereicht um das Problem zu zeigen.
Diese Spiele habe ich auf die schnelle getestet und es sofort überall gesehn, und es braucht auch nicht die super textur dazu, danach gehe ich einfach davon aus das auch in allen anderen sein wird.
nach meiner groben einschätzung würde es frühestens bei unter 10% also 10x so klein an die sichtbarkeitsgrenze kommen, was nicht mal heißt das es weg ist, davon ist der G70 bestimmt weit entfernt.
Warscheinlich bin ich da aber auch empfindlicher, du sagst ja selbst das du oft mit 6800@Q leben kannst.
Also ich könnte das in keinem Game, wäre das der dauerzustand der 6800GT, ich hätte sie wirklich zurückgegeben und wieder meine GF4 genommen, und dann warscheinlich eine FX gekauft.
Wenn du damit leben kannst sei froh, ich gönne es dir, auch wenn es mir unverständlich ist.
Quasar
2005-08-26, 17:19:14
Da muss man nichts beweisen, schon gar nicht zweifelsfrei. NV hat dafür zu sorgen, dass alles stimmt.
Wenn man Absicht unterstellt, muss sie auch bewiesen werden. Das hat nichts damit zu tun, ob Nv dafür zu sorgen hat, dass alles stimmt.
eXodia
2005-08-26, 17:31:38
Der Artikel behauptet ja auch nicht, dass die Videos ein verallgemeinerbares Erlebnis wie in Spielen bieten.
Dann sollte dies erwähnt werden.
Ich finde es sollte auf jeden Fall darauf hin gewiesen werden, da viele diese Videos sonst als referenz nehmen (da dieser Artikel ja z.B. schon bei geizhals etc. gelistet ist), was sie aber nicht sind.
Ich kann dazu auch nur sagen das ich mir das AF des G70 auf HQ angesehen habe und kann sagen es flimmert (aber nur wenn ich mich zu 100% darauf konzentriere - beim ersten hinsehen und auch beim konzentrierten Spielen hab ich nix gesehen), aber nicht annähernd so stark wie in den Videos.
GrUß
mapel110
2005-08-26, 17:33:56
Wenn man Absicht unterstellt, muss sie auch bewiesen werden. Das hat nichts damit zu tun, ob Nv dafür zu sorgen hat, dass alles stimmt.
Wenn sich mit den nächsten Treiber dort nichts bessert, war/ist es Absicht. Time will tell. Da brauchen wir nicht extra nachforschen. :)
Wolfi
2005-08-26, 17:36:34
Eher Sinn für den Profit der Firma. Würde ATi jetzt - gerne optional - neben dem optimierten alten "Scheiß"-AF einen Extreme-High-Quality-Modus bieten, der mit einer GF4 gleichziehen oder diese auch qualitativ überholen kann, würde sich das nicht nur positiv auf die Verkäufe auswirken, da man den Spaß marketingtechnisch exzellent ausschlachten kann. Auch das Ansehen stiege bei Leuten wie uns!
Die Angst, dass dann wieder hirnlose Tester diesen neuen Modus gegen G70-Flimmer-AF testen, ist sicher nicht unbegründet ... aber der größte Teil der Leute dieser Materie dürfte mittlerweile aufpassen. ...
MfG,
Raff
Wenn ATI das macht dürfte es wohl extra Transis kosten gerade wenn es optional ist, und damit Leistung, auch im normal modus mit mitlerweile eingebürgerten bildnachteilen.
Die breite masse würde dann meckern, hmm selbst in default langsamer als NV.
Das kostet sicher mehr markt als die paar freaks wieder einbringen.
Man darf auch nie das zugpfert High End auswirkung auf low cost vergessen.
Beim AF tut sich bestimmt nix bei ATI, lasse mich aber gern eines besseren beleheren.
Vor einem neuen Chip haben alle große erwartungen, die dann aber doch oft entäuscht wurden.
Da muss man nichts beweisen, schon gar nicht zweifelsfrei. NV hat dafür zu sorgen, dass alles stimmt.
Doch, aths. Diejenigen, die hier http://www.forum-3dcenter.org/vbulletin/showthread.php?t=235409
nvidia Betrug vorwerfen sollten das schon zweifelsfrei beweisen können, denn weder Betrug noch Verleumdung sind Kavaliersdelikte.
Ice =A=
2005-08-26, 17:42:51
Zitat von grestorn
Du scheinst es als Affront gegen die Community anzusehen, dass ich nicht in das allgemeine Geheule einstimme. Als ob ich irgendjemandem damit schaden würde...
Jetzt muß ich's nochmal klar sagen:
DU SCHADEST MIR ganz persönlich und direkt mit Deinem Gerede!!!
Denn ICH (und das ist meine Entscheidung allein) will bessere Grafikqualität, und solange es zu viele Leute mit Deiner Ansicht gibt, wird nVidia keine Karte mit besserer Qualität auf den Markt bringen!
Respekt an Leute wie Frank1974, die ihre Karte deswegen sogar zurückgegeben haben!
Und nochmal den ALLERGRÖSSTEN RESPEKT für den Flimmer-Artikel hier auf 3DCenter!!!
Grestorn
2005-08-26, 17:48:17
Jetzt muß ich's nochmal klar sagen:
DU SCHADEST MIR ganz persönlich und direkt mit Deinem Gerede!!! Oh... mein... Gott!
Hoffentlich kommst Du nie in die Lage kommst ein Produkt gekauft zu haben, dass irgendeinen Mangel aufweist, wie geringfügig er auch sein mag. Es findet sich sicher irgendein Purist, der Dir das selbe vorwirft.
Der Papst ist echt nix gegen Euch. Aber wie heißt es so schön? "Wir sind Papst". Was gibt's da noch zu sagen? :)
DU SCHADEST MIR ganz persönlich und direkt mit Deinem Gerede!!!
Yep, nur weil DU im Moment ggf. auf die nächste Generation wartest, haben alle schön zu behaupten, dass das Produkt grob ausgedrückt komplett scheiße ist?
Die offensichtlichen Mängel verschweigt oder beschönigt hier doch keiner...auch grestorn nicht.
Sorry, aber dieses Posting ist IMO ziemlich daneben :crazy2:
(del676)
2005-08-26, 18:03:14
jawohl WIR sind an allem schuld
bitte bindet uns einen Stern auf den Oberarm :rolleyes:
(del676)
2005-08-26, 18:07:09
btw, mir gefällt die preispolitik von bmw nicht
alle bmw fahrer sind bonzen ärsche und IHR die ihr bmw fährt seid daran schuld dass ich mir nicht 3 7er in die garage stellen kann
Frank1974
2005-08-26, 18:08:01
Hallo nochmal
Ich stehe der Sache sehr neutral gegenüber,und ich habe in keinem meiner Posts anderen 7800GTX Besitzern geraten,ihre Karte zurückzugeben,nur weil ich das gemacht habe,ich habe meine Gründe,ich habe meine Zweifel gehabt ob es ein Hardwarebug ist oder am Treiber liegt,und ich musste von dem Rückgaberecht gebrauch machen, weil ich den PC über längere Sicht geplant hatte ohne aufzurüsten,ich kann mir nicht wie Grestorn oder andere Besitzer nach einem 1/2 Jahr ne neue Karte leisten soviel Geld habe ich leider nicht. :wink:
Wolfi
2005-08-26, 18:08:04
Es ist aber offensichtlich kein kleiner mangel mehr.
Erschreckend muß man ja sogar beobachten das Jede optmierungstufe Optisch größer ausfällt.
Brie seh ich noch als relativ kleine Optimierung, Winkelabhängigkeit ist schon eine ziemlich fette optimierung, und Flimmern ist eigentlich nochmal schlimmer.
Wenns so weiter geht werden dann mit dem NV50 die Mips abgeschaft.
Mans kanns ja noch mit SSAA glattbügeln...
Seraf
2005-08-26, 18:09:07
Boah...
Warum trollt ihr hier wieder so herum?
Das hatten wir doch schon 30 Seiten lang.
Hab gedacht wir warten nun zwei Wochen bis NV "den" Treiber rausbringt und sehen dann weiter.
Ich versteh das echt nicht mehr was ihr hier treibt... :|
Am liebsten wärs mir ein Mod würde den Thread eine Woche einfrieren.
(Aber das entscheide ja nicht ich)
(del676)
2005-08-26, 18:12:51
dasselbe habe ich schon vor einer woche gesagt
aber es wird fröhlich weiter auf die bösen blinden die sich schützend vor nvidia werfen einegschlagen um dem armen don quichotte zu helfen die böse herrschaft zu brechen.
Wenns so weiter geht werden dann mit dem NV50 die Mips abgeschaft.
sicher nicht, das kostet nämlich ordentlich leistung ;)
Knötchen
2005-08-26, 18:24:44
Hast Du jede DLL von Windows dekompiliert? Von DirectX? Jede Quelldatei von ner Linux Distri durchgesehen?
Behaupte ich zu wissen, dass .NET völlig unbedenklich ist?
Einloggen musst Du Dich nur, weil .NET einen User anlegt. Den kann man auch wieder löschen, dann hat sich das mit dem einloggen. Der User ist übrigens dazu da, eine vom Rest des Systems abgesicherte Umgebung für ASP.NET Anwendungen (zu denen nHancer nicht gehört) herzustellen. Das ist also ein Sicherheitsfeature, vergleichbar mit einem dedizierten Unix-Account für einen bestimmten Dienst.
.NET als Gefahrenpotential ist wieder so eine Extremmeinung.
Das ist imo keine Extremmeinung, sondern Allgemeinwissen. Jede M$-Software stellt a priori ein Gefahrenpotential dar.
Da .NET per Default keine eigenen Dienste und Prozesse startet (auch ASP.NET wird erst bei Bedarf geladen), kann es kaum neue Sicherheitslecks einbauen.
Jedes Spiel oder jede andere Applikation, die Du auf Deinem Rechner installierst, birgt mindestens genauso viel Gefahrenpotential, wie .NET.
Deswegen installiere ich nichts, was ich nicht brauche. Wie war das denn jetzt mit der Arbeitserleichterung? Wozu könnte ich .NET brauchen?
Aber Deine Meinung zu SP2 sagt eigentlich alles.
Meine Meinung zu SP2 sagt, dass SP2 nicht nur völlig unnütz ist, sondern im besten Fall hinderlich. Die Fixes kann ich einzeln installieren, als FW benutze ich ein gutes Produkt eines Herstellers meines Vertrauens und die Dateiausführungsverhinderung ist ein Witz, mit dem bestenfalls die Ängste durchschnittlicher Klicki-Bunti-user geschürt werden, evtl. zur vorbereitenden Markteinführung des "heilbrigenden" TCPAs?
Zur Sicherung einer Workstation reicht es vollkommen aus, die gröbsten Sicherheitslöcher die per default offenstehen zu deaktivieren, die nötigsten Fixes aufzuspielen, eine gute FW und einen guten Virenscanner einzusetzten. Und vorallem so wenig wie möglich M$-Software einzusetzen.
sloth9
2005-08-26, 18:26:53
Hast Du eine G70? Hast Du eine NV40? Hast Du eine R420?
Ich habe auf all diesen Karten gespielt und ich habe alle drei Karten aktuell in Rechnern im Betrieb (meinem (G70), dem meiner Freunden (NV40) und den Server (X800Pro), auf dem auch schon mal ein Spiel läuft, und sei es nur den Unterschied zwischen den Karten zu sehen).
Du schreibst immer, als wären alle Spiele absolut unspielbar wegen dem Flimmern (in HQ, von Q rede ich nicht). Es mag sein, dass es Spiele gibt, wo es echt stört. Ich habe wohl das Glück, dass mich keines dieser Spiele interessiert. Bei all den Spielen, die ich auf der Platte habe, ist es jedenfalls kein Thema. Und dann brauchst Du nicht mit Aussagen kommen wie
die halt einfach hinten und vorne nicht stimmen. Es gibt da nur eines was lächerlich ist, und das sind Leute wie Du, die meinen ihre Meinung wäre die einzig wahre, und jeder der eine andere vertritt schadet der Community, ist lächerlich und hat sowieso kein Niveau.
Nur leider trägt jeder G70-Käufer sein Scherflein dazu, bei das G80 und Co. noch weiter verschlimmbessert werden, Reden nichts bei kapitalistischen Konzernen nichts, die verstehen nur die Sparche Geld!
Von wg. es gibt keine andere/bessere Wahl als die G70: Doch! Konsumverzicht! Die einzige Wahlentscheidung in unserer Demokratie, die Veränderungen bringen kann...
Also: An alle G70-Käufer, bei den neuen G80-Optimierungen nicht meckern! Ihr habt die Entwicklung ebendieser schließlich bezahlt!
Für die Kaufverweigerer: Bei den Käufern bedanken!
Wolfi
2005-08-26, 18:29:08
Ja, man sollte mal abwarten, eventuell kommt ja ein passender Treiber.
wenn das prob nich hardware bedingt ist wird es NV wohl wieder geradebiegen, inwieweit wird man dann ja sehn.
Aber warum wohl, gebe e snicht so einen aufschrei würde das flimmern uns sicher noch lange begleiten.
Seraf
2005-08-26, 18:46:57
Nur leider trägt jeder G70-Käufer sein Scherflein dazu, bei das G80 und Co. noch weiter verschlimmbessert werden, Reden nichts bei kapitalistischen Konzernen nichts, die verstehen nur die Sparche Geld!
Wenn jeder zweite potenzielle Käufer wegen des AFs keine G70 kauft wird es NV auch bemerken. Es ist nicht nötig das niemand eine G70 kauft.
Von wg. es gibt keine andere/bessere Wahl als die G70: Doch! Konsumverzicht! Die einzige Wahlentscheidung in unserer Demokratie, die Veränderungen bringen kann...
Siehe oben.
Also: An alle G70-Käufer, bei den neuen G80-Optimierungen nicht meckern! Ihr habt die Entwicklung ebendieser schließlich bezahlt!
Für die Kaufverweigerer: Bei den Käufern bedanken!
Blabla...
Anscheinend wisst ihr nicht was Meinungsfreiheit bedeutet.
Wenn hier jemand mit seiner Karte zufrieden ist dann lasst ihn doch. :|
Jeder kann für sich selbst entscheiden was für ihn gut und schlecht ist.
Knötchen
2005-08-26, 19:17:25
[...]Anscheinend wisst ihr nicht was Meinungsfreiheit bedeutet.
Wenn hier jemand mit seiner Karte zufrieden ist dann lasst ihn doch. :|
Jeder kann für sich selbst entscheiden was für ihn gut und schlecht ist.
Es kann doch nicht wirklich jmd anzweifeln, dass die G70-Besitzer hier, die das Problem nicht so eng sehen, mit ihrem G70 nicht zufrieden wären. Zumindest ist das nicht die Form der Kritik, die ich an Nvidia übe. Wenn ich EUR 500,- (bzw. EUR 1000,- für SLI) für eine GTX ausgegeben hätte, würde ich vermutlich auch die tolle Rohleistung des Chips und die chiquen Features bewundern und mir sagen, dass ich bei derzeitigen Frames oder Workarounds per SSAA, hohen Auflösungen ect. das Flimmern eh kaum wahrnehmen kann. Die Rohpower des Chips ist doch unbestritten, das Problem ist die Nvidia Produktpolitik und NVidias Kundenveralberung. Dass die Leute, die jetzt schon die Treiberverarsche nicht gravierend finden und das Produkt eh abstossen wenn es sich kritischen Flimmerframes nähert, liegt doch auf der Hand. Praktischerweise wäre das auch noch Motivation die Nachfolgegeneration frühst möglich (und damit möglichst teuer) einzukaufen, die evtl. sogar als revolutionäres Feature Flimmerfreiheit bietet. hmmm ... sicher nicht dumm. :)
Seraf
2005-08-26, 19:28:00
Es kann doch nicht wirklich jmd anzweifeln, dass die G70-Besitzer hier, die das Problem nicht so eng sehen, mit ihrem G70 nicht zufrieden wären. Zumindest ist das nicht die Form der Kritik, die ich an Nvidia übe. Wenn ich EUR 500,- (bzw. EUR 1000,- für SLI) für eine GTX ausgegeben hätte, würde ich vermutlich auch die tolle Rohleistung des Chips und die chiquen Features bewundern und mir sagen, dass ich bei derzeitigen Frames oder Workarounds per SSAA, hohen Auflösungen ect. das Flimmern eh kaum wahrnehmen kann. Die Rohpower des Chips ist doch unbestritten, das Problem ist die Nvidia Produktpolitik und NVidias Kundenveralberung. Dass die Leute, die jetzt schon die Treiberverarsche nicht gravierend finden und das Produkt eh abstossen wenn es sich kritischen Flimmerframes nähert, liegt doch auf der Hand. Praktischerweise wäre das auch noch Motivation die Nachfolgegeneration frühst möglich (und damit möglichst teuer) einzukaufen, die evtl. sogar als revolutionäres Feature Flimmerfreiheit bietet. hmmm ... sicher nicht dumm. :)
Wenn das flimmern bleibt wird NV spätestens bei den G7x Midrange und LowCost Modellen Probleme bekommen wenn die Hälfte der Kundschaft unzufrieden ist und nicht mehr kauft.
DrumDub
2005-08-26, 21:15:38
Behaupte ich zu wissen, dass .NET völlig unbedenklich ist?
Das ist imo keine Extremmeinung, sondern Allgemeinwissen. Jede M$-Software stellt a priori ein Gefahrenpotential dar.
Deswegen installiere ich nichts, was ich nicht brauche. Wie war das denn jetzt mit der Arbeitserleichterung? Wozu könnte ich .NET brauchen? das .net-framework ist dasselbe wie ne vb-runtime... ich versteh diese paranoia echt nicht... in ein paar jahren wirste ohne .net viele anwendungen nicht nutzen können... bei directx gabs am anfang auch diese paranoia, deshalb haben manche leute nur opengl spiele gespielt... :rolleyes:
Meine Meinung zu SP2 sagt, dass SP2 nicht nur völlig unnütz ist, sondern im besten Fall hinderlich. Die Fixes kann ich einzeln installieren, als FW benutze ich ein gutes Produkt eines Herstellers meines Vertrauens und die Dateiausführungsverhinderung ist ein Witz, mit dem bestenfalls die Ängste durchschnittlicher Klicki-Bunti-user geschürt werden, evtl. zur vorbereitenden Markteinführung des "heilbrigenden" TCPAs?
Zur Sicherung einer Workstation reicht es vollkommen aus, die gröbsten Sicherheitslöcher die per default offenstehen zu deaktivieren, die nötigsten Fixes aufzuspielen, eine gute FW und einen guten Virenscanner einzusetzten. das kann man sicherlich so sehen... sp2 fand ich auch unnütz und hab ich nicht auf meinem system. dafür gibts ja downloads mit allen nötigen hotfixes für SP1 z.b. bei winfuture.de...
Und vorallem so wenig wie möglich M$-Software einzusetzen. na ja, office ist ganz sicher keine gefahrenquelle. wenn dann ist windows selber die gefahrenquelle auf grund von sicherheitslüccken...
aber letztlich ist jedes windows relativ sicher, wenn man nen nen account mit eingeschränkten rechten nutztund nur zum installieren den account mit adminrechten...
MikBach
2005-08-26, 21:35:54
das .net-framework ist dasselbe wie ne vb-runtime... ich versteh diese paranoia echt nicht... in ein paar jahren wirste ohne .net viele anwendungen nicht nutzen können... bei directx gabs am anfang auch diese paranoia, deshalb haben manche leute nur opengl spiele gespielt... :rolleyes:
das kann man sicherlich so sehen... sp2 fand ich auch unnütz und hab ich nicht auf meinem system. dafür gibts ja downloads mit allen nötigen hotfixes für SP1 z.b. bei winfuture.de...
na ja, office ist ganz sicher keine gefahrenquelle. wenn dann ist windows selber die gefahrenquelle auf grund von sicherheitslüccken...
aber letztlich ist jedes windows relativ sicher, wenn man nen nen account mit eingeschränkten rechten nutztund nur zum installieren den account mit adminrechten...
Sorry, aber mehr Offtopic geht es kaum. :eek:
Ice =A=
2005-08-26, 21:36:27
Hab mir schon gedacht, daß ich da einiges lostrete... :)
Aber ich steh zu meiner Aussage! Sie ist vielleicht zugespitzt formuliert, aber logisch und richtig!
Übrigens hat jedes Produkt irgendeinen "Mängel" darum geht's nicht. Ich würde aber nie da, wo sich andere über sie störende Mängel beschweren, ständig wieder dazwischenreden, daß ich mich durch den (eindeutigen) Mängel nicht gestört fühle. Wie sollte das passen?
Es gibt ein Argument für solche Einwürfe, nämlich daß bei gestrichenen Optimierungen viellecht etwas die Frameraten sinken und sich manch einer davon wiederum gestört bzw. beeinträchtigt fühlt. DANN kann ich die Einwürfe verstehen! Aber so hat hier ja noch niemand argumentiert!
Ales was kam, war: Ich find's OK! Wenn aber jemand einfach zufrieden ist, warum muß er das posten?!
Seraf
2005-08-26, 21:44:12
Hab mir schon gedacht, daß ich da einiges lostrete... :)
Aber ich steh zu meiner Aussage! Sie ist vielleicht zugespitzt formuliert, aber logisch und richtig!
Übrigens hat jedes Produkt irgendeinen "Mängel" darum geht's nicht. Ich würde aber nie da, wo sich andere über sie störende Mängel beschweren, ständig wieder dazwischenreden, daß ich mich durch den (eindeutigen) Mängel nicht gestört fühle. Wie sollte das passen?
Es gibt ein Argument für solche Einwürfe, nämlich daß bei gestrichenen Optimierungen viellecht etwas die Frameraten sinken und sich manch einer davon wiederum gestört bzw. beeinträchtigt fühlt. DANN kann ich die Einwürfe verstehen! Aber so hat hier ja noch niemand argumentiert!
Ales was kam, war: Ich find's OK! Wenn aber jemand einfach zufrieden ist, warum muß er das posten?!
Nein Nein Nein. Du weckst den Mutterinstinkt für das neue Baby... :tongue:
Spiel nicht mit den Gefühlen anderer. :nono:
;)
sloth9
2005-08-26, 21:47:33
[...]
Anscheinend wisst ihr nicht was Meinungsfreiheit bedeutet.
Wenn hier jemand mit seiner Karte zufrieden ist dann lasst ihn doch. :|
Jeder kann für sich selbst entscheiden was für ihn gut und schlecht ist.
Wäre nur schön, wenn Meinung und Kaufverhalten übereinstimmen würden...
So: Finde das AF zwar unschön, kaufe mir G70 aber trotzdem und belohne damit nvidia trotzdem ist IMHO inkonsequent und heisst weitere "Opt." mi G80 gut, weil es nvidias Geschäftspolitik fördert.
Wer jetzt beim G70 die Augen zudrückt, bestärkt nvidias Entwicklungstendenz.
sloth9
2005-08-26, 21:48:57
Wenn das flimmern bleibt wird NV spätestens bei den G7x Midrange und LowCost Modellen Probleme bekommen wenn die Hälfte der Kundschaft unzufrieden ist und nicht mehr kauft.
mmmh, warum sollten die sich beschweren, wenn selbst die 500,- bzw. 1000,- € - Poweruser das AF akzeptieren; verstehe ich nicht...
Ice =A=
2005-08-26, 21:52:34
Das is wahr. Wenn wir uns hier noch streiten, ob das Problem schlimm is oder nicht, wird's der Rest der Welt wahrscheinlich nicht mal bemerken...
Wir sind die Vorreiter, die Pioniere des scharfen Blicks, die Frontkämpfer des Anspruchs! ;)
(Is durchaus ernst gemeint... :))
Seraf
2005-08-26, 21:59:40
mmmh, warum sollten die sich beschweren, wenn selbst die 500,- bzw. 1000,- € - Poweruser das AF akzeptieren; verstehe ich nicht...
Du schreibst als ob alle Poweruser auf G70 SLI umgestiegen wären. Dem ist aber nicht so. Viele warten noch darauf ob NV was ändern wird...
Bei den "nicht" SLI Usern wird die Flimmerproblematik viel früher auftauchen. Zum einen haben sie weniger fps und benutzen niedrigere Auflösungen zum anderen können sie kein SSAA zuschalten.
Deshalb gehe ich davon aus das sich Teile dieser Käuferschicht von diesen Karten abwenden werden.
Frank1974
2005-08-26, 22:22:36
Bei den "nicht" SLI Usern wird die Flimmerproblematik viel früher auftauchen. Zum einen haben sie weniger fps und benutzen niedrigere Auflösungen zum anderen können sie kein SSAA zuschalten.
Deshalb gehe ich davon aus das sich Teile dieser Käuferschicht von diesen Karten abwenden werden.
Mit den Nutzern hier im Forum die eine 7800GTX besitzen kann man auch ganz gut diskutieren,jeder der 7800 Besitzer hier hat gesagt, das die Filterung nicht so gut ist,aber in einem anderen großen Deutschem Forum sind sich viele einig das ist alles OK,und sie sehen überhaupt kein Flimmern,was für mich ein echter Witz ist,auch wenn es nicht jeden stört es ist vorhanden,aber es wird einfach abgestritten,sowas finde ich nicht Ok.
MFG
Frank
MadManniMan
2005-08-27, 03:55:26
Oh... mein... Gott!
Hoffentlich kommst Du nie in die Lage kommst ein Produkt gekauft zu haben, dass irgendeinen Mangel aufweist, wie geringfügig er auch sein mag. Es findet sich sicher irgendein Purist, der Dir das selbe vorwirft.
Der Papst ist echt nix gegen Euch. Aber wie heißt es so schön? "Wir sind Papst". Was gibt's da noch zu sagen? :)
Ich hatte eigentlich vor, überhaupt nichts mehr hier im Fred zu sagen, da ich merkte, daß manche Meinungen hier arg zu extrem auch für meinen Geschmack sind (Quintessenz: hätte ich nen G70, würde ich ihn auch nich verkaufen, aber mir den Hals wund schrein, daß da was passiert), aber was Du jetzt wieder vom Stapel läßt... ARRRR!
Laß doch mal Deine ewigen Vergleiche aus dem Spiel! Es geht hier einzig und allein darum, daß die 7800 flimmert, wie doll auch immer. Und da hat Ice A recht: er ist Teil der Community, der Du schadest, wenn Du es einfach nur hinnimmst. Oder anders: Du kannst es gern hinnehmen - wenn Du Dich aber relativierend äußerst(was Du eigentlich nicht tust, Du reagierst nur überzogen auf ebenso überzogene Vorwürfe Dir gegenüber), schadest Du langfristig nicht nur Ica A, sondern auch mir. Das gefällt mir nicht :|
/geschrieben irgendwann Nachmittags, abgeschickt ... jetzt halt
Grestorn
2005-08-27, 07:55:54
Aber ich steh zu meiner Aussage! Sie ist vielleicht zugespitzt formuliert, aber logisch und richtig!Die Wahrheit ist stets im Auge des Betrachters.
Ich würde mich niemals hinstellen und behaupten, dass meine Meinung - so sehr ich sie vertrete - (die einzig) richtige ist und alle anderen falsch sind.
Grestorn
2005-08-27, 07:57:41
So: Finde das AF zwar unschön, kaufe mir G70 aber trotzdem und belohne damit nvidia trotzdem ist IMHO inkonsequent und heisst weitere "Opt." mi G80 gut, weil es nvidias Geschäftspolitik fördert.
Ich habe gekauft, zu einem Zeitpunkt, wo das Problem unbekannt war.
Hätte ich heute noch keine G70, würde ich sicherlich länger überlegen. Vielleicht sogar auf die R520 warten. Aber wenn diese meine Erwartungen nicht erfüllt oder nVidia das Problem löst dann letztlich doch eine G70 kaufen.
Grestorn
2005-08-27, 07:58:47
aber in einem anderen großen Deutschem Forum sind sich viele einig das ist alles OK,und sie sehen überhaupt kein FlimmernWelches Forum? Gamestar?
Grestorn
2005-08-27, 08:04:07
er ist Teil der Community, der Du schadest, wenn Du es einfach nur hinnimmst. Das ist Quatsch, und deswegen werde ich mich immer dagegen wehren, mit Vergleichen mit Argumenten usw.
Quatsch ist es aus mehreren Gründen:
a) Ich nehme es nicht einfach hin. Das habe ich mehrfach geschrieben. Auch warum ich die Karte dennoch behalte. Aber das ist nicht hinnehmen, sondern eher ein "Ertragen" mangels Alternative.
b) Selbst wenn ich es hinnehmen würde, ist der Gedankenkang falsch. Genauso wenig wie ich verantwortlich dafür bin, was die SPD in den letzten Jahren falsch gemacht hat, obwohl ich sie gewählt habe (das gilt für jede Regierung!). Hört auf, einzelne Kunden oder auch Kundengruppen für die Fehler einer Firma verantwortlich zu machen. Die Käufergruppe wird von selbst größer oder kleiner abhängig von der Qualität und Preis (und Marketing) eines Produkts.
c) Ist es immer noch nicht klar, ob das Flimmern von nVidia absichtlich in Kauf genommen wurde. Ist es ein unbeabsichtigter Fehler (z.B. durch einfaches Vertauschen zweier Werte oder so), dann ist das ganze Geschrei hier völlig lächerlich.
Mr. Lolman
2005-08-27, 09:25:14
c) Ist es immer noch nicht klar, ob das Flimmern von nVidia absichtlich in Kauf genommen wurde. Ist es ein unbeabsichtigter Fehler (z.B. durch einfaches Vertauschen zweier Werte oder so), dann ist das ganze Geschrei hier völlig lächerlich.
Genausogut könnte die Flimmerei Teil eines groß angelegten Programms zur Bewußtseinskontrolle sein. Das würde auch das Verhalten so mancher hier erklären ;)
LairD
2005-08-27, 10:38:17
Was mich wundert ist,das die Besitzer einer 7800 GTX nicht am lautesten von allen schreien.
Wenn ich mir für das viele Geld die Karte gekauft hätte,würde ich sie wahrscheinlich nicht zurückgeben,aber ich wäre derjenige der am lautesten schreit.
Ausser Frank1974 lese ich aber nur Meinungen,die das Problem,als nicht so schlimm beschreiben und die Flimmerei mit Modi "beheben",die ein mehrfaches der Leistung kostet,die ein astreines AF normalerweise braucht.
Ich habe vor ~2 1/2 Jahren meine 9500 pro 2 mal umgetauscht,weil der VGA-Ausgang geflimmert hat,ich hätte diese Probl. allerdings umgehen können,indem ich einen DVI Adapter verwendet hätte.
Aber warum sollte ich das tun,ich habe mein schwer verdientes Geld in diese Hardware gesteckt und das Recht auf eine Ware ohne Mängel.
Deswegen kann ich auch nicht verstehen,wie jemand mit dem Produkt (7800GTX)zufrieden sein kann,obwohl es Mängel hat,es ist ja schliesslich kein Sonderangebot.
Piffan
2005-08-27, 10:54:25
c) Ist es immer noch nicht klar, ob das Flimmern von nVidia absichtlich in Kauf genommen wurde. Ist es ein unbeabsichtigter Fehler (z.B. durch einfaches Vertauschen zweier Werte oder so), dann ist das ganze Geschrei hier völlig lächerlich.
Diese Aussage ist mir jetzt zu hoch. :confused:
Nur weil es ein "Versehen" ist, ist es besser? Es ist doch Latte, ob Absicht oder Panne. Tatsache ist, dass das Produkt bisher Mängel aufweist, die bei teuren Produkten in dieser Liga nicht zu erwarten wären......
Wenn der Fehler wirklich behoben wird, bleibt immer noch die Tatsache, dass NV "Q" als Standard und zum Benchen empfiehlt, obwohl die Qualy weit unter der der Mitbewerber liegt bei deren Standard- Einstellungen. Damit sind alle bisherigen Benchmarks und Leistungsvergleiche absurd und spiegeln die tatsächlichen Verhältnisse nicht annähernd wider....
Piffan
2005-08-27, 10:58:20
Deswegen kann ich auch nicht verstehen,wie jemand mit dem Produkt (7800GTX)zufrieden sein kann,obwohl es Mängel hat,es ist ja schliesslich kein Sonderangebot.
Weil es bisher nix vergleichbares gibt vielleicht? Einmal hat es den längsten Schwanzbalken, dann wirklich leckere Features und noch mehr Schwanz- äh Balken in From von SLI.....
Man sagt uns Männern nicht umsonst nach, dass wir oft mit dem Schwanz denken. Grafikkarten sind halt Spielzeug für Männer.
Ich habe gekauft, zu einem Zeitpunkt, wo das Problem unbekannt war.
Hätte ich heute noch keine G70, würde ich sicherlich länger überlegen. Vielleicht sogar auf die R520 warten. Aber wenn diese meine Erwartungen nicht erfüllt oder nVidia das Problem löst dann letztlich doch eine G70 kaufen.
Dem kann ich nur vollkommen zustimmen, auch ich war von anfang mit dabei als die ersten Karten hier angeliefert wurden. Ich sah damals keinen Unterschied zu meiner 6800er Karte, spielte WoW was sowieso immer etwas flimmerte. Die 7800GTX überzeugte durch TSAA was in vielen Spielen einem SOFORT ins Auge viel.
Wäre die Flimmerproblematik von Anfang an genauer Untersucht worden, hätte jeder potentielle Käufer es sich 2mal überlegt. Wurde aber nirgends erwähnt also hat man guten Gewissens zugegriffen und sich an der neuen Graka erfreut. 2 Monate später schaut man durch die Diskussion im Forum hier mal genauer hin und hey, jeder kann es sehen, aber im "Spielbetrieb" viel es eben nicht auf, nur wenige die es explizit untersucht haben, als es den "CLAMP" für LOD gab, meinten da wäre noch mehr...
Soll ich die Karte jetzt versuchen zurück zu geben mit der Begründung "die flimmert" *g glaube das wird kein Händler machen......
LovesuckZ
2005-08-27, 12:05:06
Wer jetzt beim G70 die Augen zudrückt, bestärkt nvidias Entwicklungstendenz.
Lächerlich². Diese Entwicklung liegt schon so weit zurueck, dass der G70 nur ein Produkt aus den vielen Faktoren ist.
Ich hoffe nur für dich, dass du dir nie eine Karte mit winkelabhaengigen AF gekauft hast. Denn dadurch traegst du an dieser Situation auch die Mitschuld!
Frank1974
2005-08-27, 12:14:04
Welches Forum? Gamestar?
Nein,nicht Gamestar :rolleyes:
Computerbase,die haben zwar auch einen Artikel geschrieben, aber im Forum von denen kannste nicht mit den 7800GTX Leuten diskutieren,sie beschimpfen einen da nur ,und man ist sofort Ati Fan boy wenn man etwas über die Filterqualität sagt,und das obwohl meine letzten 3 Karten alle von Nvidia waren :rolleyes: .
Hier streitet wenigstens keiner etwas ab,deshalb ist dieses Forum für mich Vorbildlich :smile:
MFG
Frank
Knötchen
2005-08-27, 12:20:20
[...]
c) Ist es immer noch nicht klar, ob das Flimmern von nVidia absichtlich in Kauf genommen wurde. Ist es ein unbeabsichtigter Fehler (z.B. durch einfaches Vertauschen zweier Werte oder so), dann ist das ganze Geschrei hier völlig lächerlich.
Das ist richtig. Der Q-Modus, der vielen Leuten das Mittagessen nochmal durch den Kopf gehen lässt, bieten ja auch "the highest image quality". Evtl. haben die Nvidia Ingenieure nur aus Versehen am GF4-Rechner nachgemessen. Hoppla, sowas kann ja mal passieren, kein Grund das nach Monaten zu korrigieren.
Ach, manchmal wünsche ich mir, dass ich naiver wäre ... Wieviel leichter wäre das Leben für mich und die die mich kontrollieren (wollen).
LairD
2005-08-27, 13:24:08
Weil es bisher nix vergleichbares gibt vielleicht? Einmal hat es den längsten Schwanzbalken, dann wirklich leckere Features und noch mehr Schwanz- äh Balken in From von SLI.....
Man sagt uns Männern nicht umsonst nach, dass wir oft mit dem Schwanz denken. Grafikkarten sind halt Spielzeug für Männer.
Aber wie gross würde er erst werden,wenn man zur besten Performance auch noch die beste BQ hätte? ;)
Im Ernst,das Bsp. mit dem Spielzeug für Männer,passt imho nicht,denn welcher Mann will schon ein Spielzeug,das mangelhaft ist.
Ich kauf mir doch keinen Porsche,um meinen Schnidel länger zu machen und wenn er dann nicht hält was er verspricht(z.Bsp.zuwenig PS),akzeptiere ich das und fahre meine Rennen nur noch gegen Polos,da bin ich ja trotzdem schnellster.
Irgendwie passt High-End=Viel Geld und das akzeptieren von Mängeln,überhaupt nicht zusammen,egal ob man beim Schnidelmark 2 virtuelle cm dazu gewinnt. ;)
Alles nur meine Meinung
Gruss
LairD
www.towsurfer.com
Piffan
2005-08-27, 15:42:32
Aber wie gross würde er erst werden,wenn man zur besten Performance auch noch die beste BQ hätte? ;)
Im Ernst,das Bsp. mit dem Spielzeug für Männer,passt imho nicht,denn welcher Mann will schon ein Spielzeug,das mangelhaft ist.
Ich kauf mir doch keinen Porsche,um meinen Schnidel länger zu machen und wenn er dann nicht hält was er verspricht(z.Bsp.zuwenig PS),akzeptiere ich das und fahre meine Rennen nur noch gegen Polos,da bin ich ja trotzdem schnellster.
Irgendwie passt High-End=Viel Geld und das akzeptieren von Mängeln,überhaupt nicht zusammen,egal ob man beim Schnidelmark 2 virtuelle cm dazu gewinnt. ;)
Alles nur meine Meinung
Gruss
LairD
www.towsurfer.com
Nach meiner Meinung passt das Beispiel schon. Denn es gibt leider keinen Schwanzmark für die BQ. Der gängige Schwanzmark misst leider nur die FPS, ungeachtet der präsentierten Qualität. Sobald AF ins Spiel kommt und man nur nominell gleiche Modi einstellt, differiert die Qualität. Wenn man NVs Empfehlung nachkommt und wirklich nur mit Q testet, verlieren die Werte ihre Brauchbarkeit völlig.....
Mr. Lolman
2005-08-27, 16:10:18
Wenn man NVs Empfehlung nachkommt und wirklich nur mit Q testet, verlieren die Werte ihre Brauchbarkeit völlig.....
Und wenn man nichtmal das macht, sondern mit Treiberdefault bencht, hat man sich die Gaubwürdigkeit imo vollends verspielt...
Wenn man Absicht unterstellt, muss sie auch bewiesen werden. Das hat nichts damit zu tun, ob Nv dafür zu sorgen hat, dass alles stimmt.Entweder hat NV in den Reviewers Guide mit Absicht Müll geschrieben, oder mit Absicht die HQ-Qualität gesenkt. Bei einer Firma wie NV sollte man eigentlich davon ausgehen, dass sie ihr Produkt vor der Auslieferung testen. Das setze ich voraus, ohne das explizit zu sagen, immerhin ist der G70 nicht irgenein Chip, sondern die neue Referenz.
Es ist nicht möglich, hieb- und stichfest zu beweisen, dass es Nvidias Absicht war, im HQ-Modus zu cheaten. Nvidia wird sich mit hoher Wahrscheinlichkeit darauf festlegen, öffentlich von einem Bug zu sprechen. Fast alle Bugs die der NV-Treiber hat, äußern sich allerdings dahingehen, dass man weniger Qualität bekommt als man eingestellt hat. Bei echten Bugs müsste es mal in die eine, mal in die andere Richtung gehen. Das sehe ich statistischen Beweis für die Absicht hinter Nvidias Bugs. Im Einzelfall mag es sich tatsächlich um einen Bug handeln, insgesamt sehe ich ein Bestreben von Nvidia, den User hinters Licht zu führen.
Es könnte jetzt beim Flimmerproblem auch reine Schlampigkeit sein: Die Passage wurde im Guide einfach ungeändert belassen, und keiner hat das Flimmern in HQ gesehen, zum Beispiel weil nur schwachkontrastige Texturen genutzt wurden. Dann müsste man NV keine Cheat-Absicht, jedoch ziemliche Inkompetenz unterstellen.
Um Absicht zu unterstellen reichen mir die bisherigen Gespräche mit NV aus, aus denen zu entnehmen ist, dass sie das Flimmern zumindest billigend inkauf nehmen. Wir werden sehen, ob der angekündigte verbesserte HQ-Modus genauso schnell ist. Ich sehe drei Möglichkeiten:
- Tatsächlich nur ein Bug, der NV unbemerkt blieb
- Den Bug gesehen, aber billigend in Kauf genommen
- Absicht, um Leistung zu schinden
Wie es auch immer ablief, keine der Möglichkeiten ist schmeichelhaft für NV oder lässt NV in Bezug auf das AF kompetent erscheinen.
Ich halte meinen Standpunkt, dass es in Q ebenfalls nicht flimmern darf, für nachvollziehbar. Da unterstelle ich NV Absicht, dass das Deaktivieren der AF-Sample-"Optimization" (wie ich diesen Euphemismus ablehne ...) keine Flimmerfreiheit bringt. Von der Absicht, es in Q flimmern zu lassen, sehe ich keinen großen Schritt zur Absicht, es selbst in HQ noch etwas flimmern zu lassen – ob das nun "nur" billigend in Kauf genommen oder bewusst unterfiltert wird. (Ich persönlich halte es am wahrscheinlichsten, dass NV das HQ-Flimmern und das stärkere Flimmern in Q (im Vergleich zum NV40) billigend in Kauf nahm. Beweisen kann ich das leider nicht.)
Doch, aths. Diejenigen, die hier http://www.forum-3dcenter.org/vbulletin/showthread.php?t=235409
nvidia Betrug vorwerfen sollten das schon zweifelsfrei beweisen können, denn weder Betrug noch Verleumdung sind Kavaliersdelikte.Richtig. Aber wie willst du, mit den Quellen die man so hat, bewussten Betrug hieb- und stichfest beweisen? Das geht aus meiner Sicht nicht. Sollte man deshalb dem Unternehmen alles nachsehen und grundsätzlich das für das Unternehmen beste unterstellen, egal, wie oft es sich danebenbenimmt? (Die Frage meine ich allgemein, nicht nur auf NV bezogen. Man darf auch bei ATI nicht immer nur annehmen, dass sie eigentlich das beste für den User wollten.)
Ich verstehe nicht warum der Reviewers Guide so wichtig ist?
Als kompetenter und begeisterter Tester schraube ich doch alles auf Höchste Qualität und Benche los.
Danach kommt es zum Technikartikel bei dem ich nicht vergleichbarkeiten aufzeige, wie die Unterschiedlichen AA Modi und mach Bildvergleiche.
Und halt alles was ich noch testen will, was interessiert mich das PR Blättchen?
Spielern gibt man ja auch keine Anweisung was sie aktivieren sollen und was nicht...
Ich verstehe nicht warum der Reviewers Guide so wichtig ist?
Als kompetenter und begeisterter Tester schraube ich doch alles auf Höchste Qualität und Benche los.Dann kommt sowas raus wie R300 vs. NV30, wo schlechtes 16x AF vs. sehr gutes 8x AF gebencht wurde.
Danach kommt es zum Technikartikel bei dem ich nicht vergleichbarkeiten aufzeige, wie die Unterschiedlichen AA Modi und mach Bildvergleiche.Der Leser interessiert sich nur für die fps-Balken. Die sollten die Geschwindigkeit bei (möglichst) gleicher Qualität zeigen, was aber nicht gegeben ist.
sloth9
2005-08-27, 17:11:51
Ich habe gekauft, zu einem Zeitpunkt, wo das Problem unbekannt war.
Hätte ich heute noch keine G70, würde ich sicherlich länger überlegen. Vielleicht sogar auf die R520 warten. Aber wenn diese meine Erwartungen nicht erfüllt oder nVidia das Problem löst dann letztlich doch eine G70 kaufen.
Zu früh gekauft. Habe ich mir gerade bei Hardware und Spielen (Bugs!) recht schnell abgewöhnt.
sloth9
2005-08-27, 17:20:00
Lächerlich². Diese Entwicklung liegt schon so weit zurueck, dass der G70 nur ein Produkt aus den vielen Faktoren ist.
Ich hoffe nur für dich, dass du dir nie eine Karte mit winkelabhaengigen AF gekauft hast. Denn dadurch traegst du an dieser Situation auch die Mitschuld!
Hä? Blödsinn!
Ich meinte natürlich die Entw. zum G80, G90 etc. hin...
Ich habe mir eine 6800 Silent für 155,- als Auslaufmodell gegönnt, zumal das AF der Radeons auch nicht besser ist, und ich keine Wahl hatte (DX 9 Performance der 5900 zu gering, OG 4x FSAA).
Bräuchte ich mehr Leistung, würde ich ganz klar die 850 XT anstelle eine 7800 GTX nehmen, weil die nicht so flimmert und kaum langsamer als die G70 auf HQ ist.
Mr. Lolman
2005-08-27, 18:14:46
Dann kommt sowas raus wie R300 vs. NV30, wo schlechtes 16x AF vs. sehr gutes 8x AF gebencht wurde.
Naja sehr gut war das NV30 AF auch nur bis zum 50er Treiber...
Bräuchte ich mehr Leistung, würde ich ganz klar die 850 XT anstelle eine 7800 GTX nehmen, weil die nicht so flimmert und kaum langsamer als die G70 auf HQ ist.
Davon träumst du...
Naja sehr gut war das NV30 AF auch nur bis zum 50er Treiber...
aber immer noch 100x besser als was ATI und NV heute abliefern.
aber immer noch 100x besser als was ATI und NV heute abliefern.Die stark reduziert trilineare Filterung hat mir nicht sehr gefallen. Zumal die FX-Serie noch für trilineare Filterung optimiert war, der Gewinn durch bilineare Filterung war nicht sehr hoch.
derominöseGast
2005-08-27, 21:32:35
ich bin betrübt wieviele NV40 und G70 user überhaupt kein flimmern sehen. ich hatte nun schon etliche streitgespräche in diversen foren... die sehen alle nix bzw. die wollen alle nix sehen! ich habe schon vor über einem jahr rumgemault wie der NV40 flimmert und die schlucken das alle...
letztes beispiel: US Version von Fable Lost chapters... das flimmert wie die hölle! TSSAA ist gar nicht einsetzbar da es dann probleme mit den schatten etc. gibt :(
ich zähle die tage bis zum erscheinen des Wundertreibers... jo herr neuschäfer noch ca. 7 tage hat NV zeit...
dazu die letzten meldungen über den R520... mir gefällt gar nicht was momentan auf dem grakamarkt passiert :mad:
Piffan
2005-08-27, 22:40:40
dazu die letzten meldungen über den R520... mir gefällt gar nicht was momentan auf dem grakamarkt passiert :mad:
Worum geht es da? :confused:
Es stimmt wirklich das die G70 Karten flimmern und bei ATI bekommt man die beste Bild Quallität für sein Geld. NIVIDA will ja noch neue Forceware bringen wo das etwas bessert, an der Karte liegt es angeblich nicht nur an den Treibern.
mfg
Die stark reduziert trilineare Filterung hat mir nicht sehr gefallen. Zumal die FX-Serie noch für trilineare Filterung optimiert war, der Gewinn durch bilineare Filterung war nicht sehr hoch.
klar, nicht wirklich schön, aber im gegensatz zur heute üblichen winkelabhängigkeit in der praxis wenigstens kaum sichtbar.
Bräuchte ich mehr Leistung, würde ich ganz klar die 850 XT anstelle eine 7800 GTX nehmen, weil die nicht so flimmert und kaum langsamer als die G70 auf HQ ist.
Das ist ziemlicher Schwachfug (in dem Fall hätte ich eine im Rechner)!
Ich bin von einer X800 XT PE gewechselt und der Geschwindigkeitszuwachs ist auch auf HQ durchweg sehr stark spürbar bzw. trotz TSAA ist bei vielen Titeln unter 1600x1200 4xAA "flüssiges" (zumindest was ich darunter verstehe) Spielen möglich, was bei der XT PE eben nicht der Fall bzw. hart an der Grenze war.
Worum geht es da? :confused:
nur 16pipes. R580 schon in den startlöchern (= nix R520 kaufen = totgeburt), gerücht über hardwarebug beim R520 der somit wohl gar nicht erscheinen wird und gleich vom R580 ersetzt wird.
insgesamt sei der R520 auch nicht schneller als eine G70, somit wird ATI wohl auch tweaken was geht und die IQ wird leiden usw. totale scheiss entwicklung.
klar, nicht wirklich schön, aber im gegensatz zur heute üblichen winkelabhängigkeit in der praxis wenigstens kaum sichtbar."Brilineare" Filterung ist für mich bei den entsprechenden Texturen ziemlich gut sichtbar.
Mr. Lolman
2005-08-28, 16:49:48
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_nvidias_g70_texturen/
CB hat jetzt auch was online.
Wenn man sich den Performancegewinn der aktuellen Treiber anschaut, kann mans wohl eher ausschließen, dass nvidia einen Treiber bringt, der akzeptable Qualität liefert, schon gar nicht bei defaulteinstellungen.
Kann sein, dass ich u.U. ne schon existente Kritik zu dem Machwerk übersehen habe, nichtsdestotrotz will ich mich auch mal in 25 Punkten darüber auslassen:
Du weißt das der Bericht 4 Tage alt ist? ;)
Der Computerbase Artikel ist Mist. Sry. Es scheint so, als hätte sich Computerbase einfach den Schreieren der Community gebeugt, und mal schnell nen Artikel darüber verfasst. Meine Kritikpunkte:
1. Warum braucht man unbedingt 2x ganz groß das GF7 Logo? Vertrag mit NV?
2. Der Artikel erschien vor einigen Wochen, nicht vor einigen Tagen:
So erschien zum Beispiel vor einigen Tagen ein entsprechender Artikel [2] bei den Kollegen vom 3DCenter.
3. Blaire gebührt zwar das ganze Lob durchaus (mehrmals im Artikel muss man auf nen User verweisen, der sich einfach die Arbeit gemacht hat die Grafikqualität genauer zu untersuchen). Seine Arbeit wär wohl nicht ohne die 3DC-Community möglich gewesen, und imo ists fast ein Armutszeugnis, die (zweifellos gute und notwendige) Arbeit von Blaire so hochzubauschen, weil der Gute eigentlich nix gemacht hat, was jedem sogenannten HW Redakteur nicht auch hätte einfallen können.
4. Imo hätte man ruhig schreiben können, dass der R200 technologisch fortschrittlicher war als der NV25:
Dabei bot man deutlich mehr als die Konkurrenz in Form von ATi, die mit der Radeon 8500-Serie [5] zwar einen technologisch weit entwickelten Chip auf den Markt gebracht hatten
5. Auch bei der FX wurde zumindest bei UT so gefiltert wies NV passt. Also nix mit generell abschaltbaren Optimierungen. Demnach ist:"die man aber immerhin in den neueren Treibern größtenteils wieder deaktivieren konnte" richtiger:
Trotz jener Schwierigkeiten bot die nVidia-Grafikkarte immer noch einen sehr guten Texturfilter, auch wenn die ersten Optimierungen – Stichwort „Brilinear“ – in Mode kamen, die man aber immerhin in den neueren Treibern wieder deaktivieren konnte.
6. ATi wird anscheinend nur als Beispiel rangezogen wenn man einen Buhman braucht:
Als der NV40 in Form der GeForce 6800 das Licht der Welt erblickte, kam fast durchgehend Begeisterung auf. Der Chip war extrem schnell, verfügte über modernste Techniken und die Shader 2.0-Schwäche des Vorgängers war vergessen. Vergessen war jedoch auch eine gute anisotrope Filterung, da der Chip erstmals bei nVidia auf einen winkelabhängigen Algorithmus setzte und man sich damit dem niedrigen Level von ATi angepasst hatte.
Denn: MSAA ist streng genommen auch ein AA Cheat, der zu Gunsten der Performance weniger glättet. Da war NV Vorreiter...
7. Eine weitere falsche Aussage bezüglich der generellen Deaktivierbarkeit der NV Optimierungen:
Nichtsdestotrotz lieferten entsprechende Karten – wohlgemerkt nach „Erfindung“ des „Clamp-Schalters“ [7] – eine recht gute Texturfilterqualität, die nach Wunsch weder brilinear noch bilinear war und somit konnte und kann sich der NV40-Chip bei dem anisotropen Filter immer noch von der X800-Serie des Konkurrenten ATi absetzen.
BTW:Absetzen konnte man sich sicher nicht. Schaut euch die Videos nochmal genau an. Absetzen kann sich ATi default von NV default. Außerdem ist der Clampschalter nur eine Option negativen LOD Bias unter d3d zu unterbinden. Wenn Devs der Meinung sind, sie brauchen einen negativen LOD Bias, dann soll man ihnen diesen auch gönnen. UT Texturen sind so unscharf, dass ein leicht negatives LOD nix ausmachen sollte. Was aber wohl was ausmacht, ist dass man den GPu LOad verändert, wenn man mit Clamp bencht. Demnach hoff ich, dass zumindest Clamp bei den CB benches immer deaktiviert war.
8. Das bessere AF gegenüber den ATi-Karten scheint beim neuen G70-Chip von nVidia ebenfalls bereits Geschichte zu sein,
NV HQ AF ist, wenn überhaupt, gerade minimalst besser als R420 AF. Treiberdefault ist jedoch meistens Q + alle Opts , was CB bisher auch immer, unter völliger Ignoranz von NVs (ohnhin schon fragwürdigen) Reviewerguides auch zum Benchen verwendet hat. Sobald ich die Möglichkeit hab ne Radeon 8500 in meinem Rechner einzubauen, beweise ich euch, dass zumindest in jedem OpenGL Spiel ATis achsomieses R200 biAF eine bessere BQ bietet als NV40 Q+Opts.
9. zumindest berichten immer mehr Besitzer einer entsprechenden Karte und auch die Kollegen des 3DCenters [1] von einer unangenehmen Auffälligkeit bei der anisotropen Filterung einer solchen Karte. So haben die Kollegen nach mehreren Beschwerden der Käufer herausgefunden, dass durch das AF des G70-Chips je nach Spiel die Texturen massiv Flimmern.
Der Satz ist syntaktisch völlig unlogisch. Erst nach mehreren Beschwerden haben die Kollegen herausgefunden, dass das AF massiv flimmert? Ja wo haben denn die ganzen Reviewer bisher hingeguckt? Klar, dass es nicht einfach ist Verfehlungen der Vergangenheit zuzugeben, ohne dass man sich dabei ins eigene Knie schiesst, aber solche Sätze verarschen den Leser.
10. So neigt in den Videos bereits die GeForce 6800 in der Standard-Einstellung des ForceWare-Treibers (Quality mit aktivierter „Trilinearen Optimierung“ und „Optimierung des anisotropen Musters“)
Falsch: Das ist nur die Standardeinstellung, sofern man AA/AF über die App wählt, oder mittels externem Tool. Sobald man mal das CP bemüht, sind ALLE Optimierungen aktiv.
11. Dieser Zustand ist unserer Meinung nach nur schwer nachvollziehbar und vor allem nicht verständlich
Jeder, der nicht, auf gut österreichisch, auf der Nudelsuppe dahergeschwommen ist, sollte diesen Zustand nachvollziehen können. Und am Verständnis sollts auch nicht mangeln. Die IHVs wollen unser Geld und das bekommen sie am ehesten durch lange Balken. Was ist da nicht verständlich? Tolerabel oder gar akzeptabel ist er jedoch sicher nicht.
12. Die GeForce FX kann man dagegen ganz klar als Referenz deklarieren: Kein Flimmern stört den Spielgenuss und auch alle Winkel werden, wie eingestellt, gefiltert – so muss es sein!
Diesen Umstand würd ich eher der GF4 zuschreiben, aber ok...
13. Der größte Schwachfug überhaupt:
Die neue „Optimierung“ geht diesmal gar so weit, dass man erstmals qualitativ einen schlechteren anisotropen Filter als die Konkurrenzkarten von ATi anbietet.
Denn: Man bietet schon seit der FX einen schlechteres AF an. Man wird mit dem G70 erstmal zu einem schlechteren AF gezwungen. Außerdem, ich wiederhole mich, bieten die NV Karten in euren Testreihen seit >1 Jahr ein schlechteres AF als ATI Karten.
Wieso verarscht ihr euere Leser so, denn zufällig enstehen solche Formulierungen wohl kaum.
14. Als weitere Folge lässt sich festhalten, dass die bisherigen Benchmark-Werte der entsprechenden Karte NICHT vergleichbar mit den Werten der GeForce 6800 und X800 (samt kleinerer Versionen) sind, solange alle Karten mit den Standard-Einstellungen der Treiber getestet wurden. In diesem Fall liefert die GeForce 7800 – auch in unserem Artikel – die schlechteste Bildqualität und kann sich somit einen kleinen und vor allem unfairen Performancevorteil erkämpfen.Das ist nicht erst eine Folge des G70, sondern die Folge einer generell NV freundlichen Benchtaktik von CB (und von fast allen anderen). Denn bei Defaultquality ist der Unterschied zw. R420 AF und NV40 AF auch unter d3d größer, als der von NV40 default vgl. mit G70 AF default (bei OpenGL sowieso)
15. Anzumerken ist, dass der Flimmereffekt nicht ganz so stark auffällt, wie er in den Videos zu sehen ist. Aufgrund der Videoeigenschaften vergrößert sich das Problem der flackernden Texturen. Nichtsdestotrotz fallen sie auch in einem normalen Spiel auf. Ist zwar korrekt, aber für den Laien unverständlich. Eine kleine Erklärung wär besser gewesen, als ein weiteres mal die Faktenkeule zu schwingen.
16. Zwar fällt das Flackern definitiv stärker auf als bei einem NV4x, jedoch bezeichnen es einige 7800-Besitzer eher als ein leichtes Grieseln. Dies kann von Person zu Person unterschiedlich ausfallen und jeder potenzielle Käufer sollte sich den Texturfilter des G70-Chips vor dem Kauf einmal persönlich ansehen.Ist zwar auch korrekt, aber auch da wär ne kleine Ausführung angebracht gewesen. Warum ists eher ein Leichtes Grieseln? Warum finden viele gerade FEAR so untragbar? Hängt vll. mit der nutzbaren Auflösung und den fps zusammen ;)
17. Zudem halten wir UT 2003 auch nicht für das optimale Spiel, um Eigenschaften des anisotropen Filters zu untersuchen, denn die ATi- sowie die nVidia-Treiber erkennen das Spiel und benutzen, ohne dass man es abstellen kann, bereits verschiedene AF-Optimierungen.Dann macht doch selbst Videos. Ihr hättet auch Links zu den mittlerweile fast unzähligen AF Clips im Forum anbieten können. Oder gleich zum generellen "default AF Problem" was ich mit Q3a Videos (und gifs) schon anschaulich illustriert hab.
18. Nun stellt sich natürlich die Frage, ob dieses Flimmern ein (gewollter) Hardware-Bug ist, oder ob man es durch ein Treiber-Update abstellen kann. Hierbei können wir, so wie es zur Zeit aussieht, Entwarnung geben. So hat der Forum-User Blaire vom 3DCenter einige interessante Versuche mit seiner GeForce 7800 GTX in Kombination älterer Treiber gestartet und ist zu einem erstaunlichen Ergebnis gekommen.
Ein (gewollter) HW Bug. :biggrin:
Echt süß wie ihr NV mit Samthandschuhen anfasst. Vll. Naja, war wahrscheinlich nur ein gewollter Redaktionsbug, damit der NV Osterhase auch das nächste Mal noch Testmaterial ins Körbchen legt.
19. Weitere Versuche startete Blair mit dem ForceWare 76.10 [9]. Dort hat er mit Hilfe von Ralf Kornmann herausgefunden, dass es nun eine pfeilartige Winkeloptimierung gibt. Diese muss man sich ungefähr in der Mitte des Bildes vorstellen, ab der es dann nach einer pfeilartig-aussehenden „Wand“ anfängt zu flimmern.
Heiss ich Ralf? Euch sind wohl die ausführlichen PN Diskussionen zw. mir und Blaire entgangen. BTW: Dieser nette Kollege heisst Blaire. Ich glaub gerne dass Demi da mit geholfen hat, aber warum versucht man diese Investigationsarbeit immer auf 2-3 Leute zu reduzieren. Imo ists einem großen Teil der 3DCenter Community zu verdanken, dass die Filterproblematik überhaupt zum öffentlichen Thema wurde...
20.
Zudem reagiert Half-Life 2, wenn auch nicht ganz so stark wie Unreal Tournament 2003 sowie 2004, recht aggressiv auf Filteroptimierungen, womit in anderen Spielen das Flimmern etwas weniger zu Tage kommt
Dieser Satz zeigt entweder dass der Redakteur keine Ahnung hat, oder dass er sine Leser bewusst für blöd verkaufen will. Es gibt praktisch kaum Spiele die mehr und weniger zum Flimmern neigen. Das sind immer einzelne Texturen. Demnach gilt der Satz allerhöchstens für Spiele wo man generell völlig unkritische, also relativ unscharfe, Texturen verwendet. Solche Spiele sind wohl eher die Ausnahmen. Man denke an den CB Artikel wo man ne Szene mit ner relativ unscharfen HL² Strassentextur heranzog um zu zeigen , dass die NV Optimierungen garnicht so schlimm sind :crazy:
21. Spielen das Flimmern etwas weniger zu Tage kommt. Das erste Video zeigt eine GeForce 6600 GT im High-Quality-Modus, bei welcher so gut wie kein Flimmern auftritt [8]. Das zweite bietet eine GeForce 7800 GTX mit dem modifizierten 70.41-Treiber an. Hier ist wie bei der langsameren GeForce 6600 GT kaum ein Flimmern erkennbar.Warum habt ihr nicht ein Video von der selben Stelle mit 77.77 genommen. So ein Video exisitiert definitiv. Warum wird dieses grauenhafte Ding euren Lesern vorenthalten? Das Ganze erinnert mich schon stark an Bild Journalismus.
22. . Wie bereits im oberen Teil des Textes erwähnt, ist das Flimmern in Wirklichkeit nicht ganz so stark ausgeprägt.Macht euch doch gleich ein paar Autoaufkleber mit dem Satz. 3x wiederholt ihr das jetzt, und der Leser weiss noch immer nicht worans liegt. :hammer:
23. Zwar sind die Texturen verbesserungswürdig, aber trotzdem gehört Doom 3 zu den anspruchsvollsten Titeln des Jahres 2004 und ist somit prädestiniert für unseren Benchmarkparcours. Das Spiel setzt ID-typisch nicht auf DirectX als API, sondern auf OpenGL.Absolut unnötig an dieser Stelle auf den Doom Texturen herumzuhacken. Seid doch froh, dass es wenigstens ein paar Spiele mit relativ unscharfen Texturen gibt. Sonst käme man ja aus dem Grauen garnichtmehr hinaus ;) BTW: Schreibt lieber Direct3D, denn DirectX nutzt D³ afaik schon.
24. Eine weitere positive Nachricht ereilte uns von einigen Tagen von Jens Neuschäfer, dem „Central European Product PR Manager“ von nVidia. Er berichtete, dass in einer zukünftigen Treiberversion der High-Quality-Modus in Bezug auf das Flimmern überarbeitet wird. Was für Auswirkungen das genau auf die Bildqualität hat, wird sich jedoch noch zeigen müssen. Zudem war von einer Änderung im Quality-Modus – welcher ja ebenfalls verschlechtert wurde – keine Rede. Aus diesem Grund sehen wir dieser Aussage zur Zeit noch etwas skeptisch entgegen. Schließlich hätte der Flimmer-Bug auch den nVidia-Ingenieuren während einiger Tests mit dem ForceWare 77.76 sowie 77.77 auffallen müssen, oder?
Der Schlusssatz ergibt nur einen Sinn, wenn man auch weiss, das der gute Jens in dem Statement auch verlautbart hat, dass NV das Problem eruieren konnte,... Diese Aussage habt ihr aber weggelassen. Somit wirkt das ganze diesmal wirklich wie ein Schuss ins eigene Knie, denn primär hätte euch der Mist auffallen müssen. NV hat anscheinend ausreichende Arbeit geleistet. Denn sie mussten den Filterpfusch nichtmals besonders gut verstecken :)
25. Und zum Schluss noch pseudoaufklärerisches Gesülze: Es zeigt, dass die Chiphersteller um jeden Frame kämpfen, egal ob der Kunde darunter zu leiden hat oder nicht. So geht es unserer Meinung nach aber nicht, nVidia! Wir verlangen zwar nicht die Abschaffungen sämtlicher Optimierungen des anisotropen Filters, jedoch verlangen wir, dass dem Kunden eine Möglichkeit in den Treibern geboten wird, jene zu deaktivieren – und das gilt auch für die Winkelabhängigkeit.Der Kunde hat mal primär wegen euren Benchmarks zu leiden. Und die waren schon beim NV40 hässlich falsch.
Zudem möchten wir alle Käufer und Redakteure bitten, in der Zukunft ein größeres Augenmerk auf die Bildqualität zu legen. Ansonsten wird es, den Entwicklungen nach zu folgen, in ein paar Jahren nur noch eine bilineare Filterung geben. Wir werden bezüglich der G70-Optimierungen natürlich am Ball bleiben.Sry für den Vergleich, aber das kommt so rüber wie wenn Bush sagen würde: "Zudem möchten wir jedes Land und dessen Einwohner bitten, in der Zukunft ein größeres Augenmerk darauf zu legen obs wirklich Massenvernichtungswaffen gibt. Ansonsten wird es, den Entwicklungen nach zu folgen, in ein paar Jahren nur solch fadenscheinige Vorwände für Angriffskriege geben... X-D
kthxsry ;(
Lolman
sorry lolman aber ich glaube nicht das viele soviel lesen wollen... meine güte!
ich hab mal aktive schadensbegrenzung für mich betrieben und stelle jetzt im rivatuner einfach mipmap lod bias auf +0.3 damit ist das flimmern fast gänzlich verschwunden... natürlich fehlt danach etwas schärfe aber auf ATI niveau ist die schärfe schon noch.
nVIDIA hat eine Alternative: Im Guide sollte man dazu schreiben, dass die "Optimierungen" nur in Kombination mit Supersampling sinnvoll sind. :D Dort fällt das Flimmern deutlich weniger bis garnicht auf, dafür ebnen die Schummeleien den Weg zu flüssig(er)em Spielspaß. Alles andere (ATi A.I. default vs. nV Q + Opts) ist einfach nicht fair in Sachen BQ ... aber das wissen wir ja. Viele aber wohl (noch) nicht ... :|
MfG,
Raff
Mr. Lolman
2005-08-28, 19:14:04
sorry lolman aber ich glaube nicht das viele soviel lesen wollen... meine güte!
Hast recht. Ich werds wohl spoilern...
Omg, die Diskusion dreht sich teils wieder im Kreis...
Ich stimmt Aths vollkommen zu ...
Das was ATI und Nvidia machen geht inzwischen einfach zu weit! Und Nvidia hat momentan die schlechtere BQ, bei teurerer Hardware. Ich glaube, zumindest darauf können wir uns alle einigen :D.
Jeder, der das Flimmern "nicht sieht", soll das haben, was er verdient, soll aber dann nicht versuchen, das Flimmern kleinzureden, wie "das sieht eh keiner". Fakt ist, das die Hardware-Hersteller einfach einen Schritt zu weit gehen.
Und was für möglichkeiten gibt es, das zu stoppen? Etwa laut jammern, aber die Karten weiterhin zu kaufen und zu empfehlen? Ich zwinge keinen, seine Karte zu verkaufen, aber ich finde es eine Leistung all jender, die es erkannt haben, dass es so nicht weitergehen darf und den Worten Taten haben folgen lassen. Sie tuen damit denjenigen etwas gutes, die es "sehen".
-----------
Den Artikel von Computerbase find ich nicht sonderlich gut, auch wenn er sicherlich besser ist, als gar keinen Artikel zu verfassen. Das Problem ist einfach, das es auf Computerbase zu viele "Fanboys" gibt, die, selbst wenn die andere Firma Karten verkaufen würde, die 100x so gut ist, trotzdem noch die schlechtere kaufen würden :o.
Zum Beispiel Benutzer wie "NVideo". Das Benuterbild: http://pics.computerbase.de/avatare/benutzer/avatar85209_3.gif
sagt ja schon alles.
Naja, in 3D-Belangen ist 3DC einfach besser. In Nachrichten, oder in Kaufberatung finde ich, dass Computerbase durchaus nicht schlecht ist.
@Leonidas: Danke für das hervorheben des Gedichtes, auch wenn ich das Gedicht schon vorher in diesem Tread geposted habe :D
Gruß Matt
Hier der orginale 3DCenter Link: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3393965&postcount=970
MikBach
2005-08-28, 20:39:35
Das was ATI und Nvidia machen geht inzwischen einfach zu weit!
Warum ATI?
Warum ATI?
auch das AF von ATI ist winkelabhängig etc. besser als NV im moment aber noch lange nicht gutes AF...
Ich persöhnlich finde auch die Winkelabhängigkeit schon als nicht in Ordnung, weil sie nicht deaktivierbar ist...
Warum ATI?
Sie haben angefangen ... der Spaß geht einfach weiter.
MfG,
Raff
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.