PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Welche Graka? X850 XT oder 7800 GT? Und Frage zum Speicher...


Schulzich
2005-08-29, 09:52:07
Hallo,
bin immer noch unschlüssig, welche Karte ich mir jetzt besorgen soll. Zur Auswahl stehen die o.g. Modelle. Im Test audf diesem Portal konnte die 7800 GT die X850 XT ganz knapp schlagen. Jetzt habe ich aber gehört, dass bei den aktuellen Nvidia - Karten die Darstellungsqualität beeinträchtigt sein soll (Flimmern etc.) , außerdem, dass die Pipelines bei der GT nur deaktiviert nicht aber aus vollkommen aus der Architektur ausgebunden sind. Wer hat schon Erfahrungen mit den beiden Karten gemacht und kann mir eine Empfehlung geben?

Zum Speicher: Mir hat jemand gesagt, dass Konfigurationen mit 4 Speicherriegeln (also 2048 MB insgesamt) problematisch sind, besonders wenn es sich dabei um einen Athlon 64 mit Venice - Kern handelt. Momentan habe ich noch einen 3200er mit Winchester - Kern. Was ist dran an der Sache?

Lawmachine79
2005-08-29, 10:09:07
Da die 7800GT erstens schneller (und nicht nur knapp) ist und auch noch PS3.0 unterstützt, dürfte die Frage klar sein.
Die Flimmerproblematik wird eh hemmunglos übertrieben.
Außerdem kann man das eh per Treiber beheben, NV wird sich diesem Druck auch beugen müssen.

Bandit666
2005-08-29, 10:10:11
Hallo,
bin immer noch unschlüssig, welche Karte ich mir jetzt besorgen soll. Zur Auswahl stehen die o.g. Modelle. Im Test audf diesem Portal konnte die 7800 GT die X850 XT ganz knapp schlagen. Jetzt habe ich aber gehört, dass bei den aktuellen Nvidia - Karten die Darstellungsqualität beeinträchtigt sein soll (Flimmern etc.) , außerdem, dass die Pipelines bei der GT nur deaktiviert nicht aber aus vollkommen aus der Architektur ausgebunden sind. Wer hat schon Erfahrungen mit den beiden Karten gemacht und kann mir eine Empfehlung geben?

Zum Speicher: Mir hat jemand gesagt, dass Konfigurationen mit 4 Speicherriegeln (also 2048 MB insgesamt) problematisch sind, besonders wenn es sich dabei um einen Athlon 64 mit Venice - Kern handelt. Momentan habe ich noch einen 3200er mit Winchester - Kern. Was ist dran an der Sache?

Hi!

1. Das Flimmern ist noch nicht ganz geklärt. Ich denke ein neuer Treiber wird da schon was richten!
2. Die GT kann man nicht freischalten! Aber sie läuft dafür leicht über GTX-Taktraten....somit gleicht sich das dann aus.
3. Welche Karte du nun kaufst, ist deine Entscheidung. Kosten tun beide gleich viel. Hmmm.....musst du wissen.
4. Jepp.....vier Riegel sollte man vermeiden! Ich hab problemlos 2x1024MB MDT drinne. War auch sehr günstig. Musst mal schauen ob du unbedingt 2Gig brauchst. Wenn ja verkaufe lieber die 512er Riegel und hole 1024er!

mfg

Sidius
2005-08-29, 10:36:02
4. Jepp.....vier Riegel sollte man vermeiden! Ich hab problemlos 2x1024MB MDT drinne. War auch sehr günstig. Musst mal schauen ob du unbedingt 2Gig brauchst. Wenn ja verkaufe lieber die 512er Riegel und hole 1024er!


Naja, Ich hab selber im augenblick noch 4x512 MB drinne. Laufen zwar recht annehmbar aber nicht so gut wie meine eigentlichen Rams ( siehe Sig ). Du musst auch wissen was du willst. Wenn du Oc'en willst solltest du dir 2 1024 MB Riegel holen mit spitzentimings und gutem Speed. Nen einfaches "so lala" System kannste auch mit 4x512 aufbauen aber mach dich darauf gefasst das die dann evtl. nicht auf spezifikation laufen. Oder auch mal probleme machen können. Mein Tipp: Weg mit den 512ern und 2x1024 MB rein.

Mrs. Lolman
2005-08-29, 10:39:40
Mr. Lolman meint:

Da die 7800GT erstens schneller (und nicht nur knapp) ist und auch noch PS3.0 unterstützt, dürfte die Frage klar sein.
Die Flimmerproblematik wird eh hemmunglos übertrieben.
Nein, denn durch das Problem wird die Performance verfälscht. Und zwar allen Anschein nach um 30-40%...

Gast
2005-08-29, 10:51:15
Mr. Lolman meint:


Nein, denn durch das Problem wird die Performance verfälscht. Und zwar allen Anschein nach um 30-40%...

Wieviel Fps sind 30 40 % ?

Sidius
2005-08-29, 11:06:33
Wie willst du das jetzt sagen können? Die FPS sind pro Game verschieden also unmöglich vorher zu sagen.

Winter[Raven]
2005-08-29, 11:08:10
Wieviel Fps sind 30 40 % ?

Sagt wer? Nur weil irgendein ATI Futzi (an seiner stelle würde ich schweigen) sagt es wären 30 - 40%, heißt es bei weitem nicht das es auch so ist. Vielleicht sollten wir mal testen wieviel % die Optimierungen bei ATI bringen... :P

VooDoo7mx
2005-08-29, 11:26:56
7800GT ist nicht nur knapp schneller als eine X850XT sondern deutlich schneller.

Wenn dann noch nächtes Jahr Spiele (Unreal Engine 3)mit rechenintensiven Shadern kommen, sieht die X850XT dann kein Land mehr.

Außerdem verbraucht eine 7800GT auch weniger Strom als eine X850GT. :eyes:

@Lolman

Du siehst das mit der Filterproblematik viel zu einseitig. (wie schon seit 2 1/2 Jahren)
Ohne die optimierungen bei den Ati Karten würden diese mindestens genauso viel Leistung verlieren. Be Computerbase gibts nen schönen Test dazu.

Außerdem sind diese 30-40% nur eine sehr grobe Schätzung von aths. Ich würde dafür nicht so einfach meien Hand ins Feuer legen ohne es nachgemessen zu haben.

Wie schon nabndit sagte, würde ich zur Flimmerproblematik den nächsten Treiber abwarten. Wenn es dann immer noch keine Besserung gibt kann man denke ich auch auf den kleineren R520 Ableger wraten. (sofern dieser einigermaßen vernünftig filtert)

Mr. Lolman
2005-08-29, 11:36:15
']Sagt wer? Nur weil irgendein ATI Futzi (an seiner stelle würde ich schweigen) sagt es wären 30 - 40%, heißt es bei weitem nicht das es auch so ist. Vielleicht sollten wir mal testen wieviel % die Optimierungen bei ATI bringen... :P

aths ist sicher kein ATi Futzi. Und die 30-40% sind imo nich ganz unbegründet: http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_nvidias_g70_texturen/6/

/edit: Aber natürlich trotzdem unter Vorbehalt zu betrachten. Und egal obs jetzt 30-40 oder auch nur 20% sind, die Benchmarks des G70 sind verfälscht.

'] Vielleicht sollten wir mal testen wieviel % die Optimierungen bei ATI bringen... :P

Vll. solltest du dir nochmal die 3DC Videos reinziehen. ATi R420 Optimierungen bringen anscheinend ca. die gleiche BQ wie NV40 HQ...

Gast
2005-08-29, 11:46:47
aths ist sicher kein ATi Futzi. Und die 30-40% sind imo nich ganz unbegründet: http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_nvidias_g70_texturen/6/



sie sind aber auch nicht bestätigt, was der Artikel klar zum Ausdruck bringt.

Gast
2005-08-29, 11:59:10
@Lolman
Du siehst das mit der Filterproblematik viel zu einseitig. (wie schon seit 2 1/2 Jahren)


Nein, er versucht sich nur aufzuspielen.
Unglaubwürdig, spielt er doch gerne mit Winkelabhaengigkeit und bilinear...

LovesuckZ, dem die ganze Diskussion nur noch nervt.

Gaestle
2005-08-29, 12:05:25
aths ist sicher kein ATi Futzi. Und die 30-40% sind imo nich ganz unbegründet: http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_nvidias_g70_texturen/6/

/edit: Aber natürlich trotzdem unter Vorbehalt zu betrachten. Und egal obs jetzt 30-40 oder auch nur 20% sind, die Benchmarks des G70 sind verfälscht.


Könnte es durch die Zusammenstückelung des Treibers ohne Texturfehler doch vielleicht zu problemen in der Abstimmung kommen, so dass die fps-Verluste auch dadurch zu stande kommen?
Demirug meint ja, dass die Texturen zwar korrekt ausgelesen werden, allerdings falsch berechnet. Wenn dies wirklich bis zu 40% bringt, dann wäre ein 6-Quad G70 (ohne diesen Fehler) ja fast auf dem Niveau des Outputs eines 4-Quad NV40,* oder? Die anderen "Optimierungen" die so aktiv sind, bringen doch auch nicht gleich bis zu 40%, oder?

*Milchmädchenrechnung:
24*430 = 10320 *0,6 (d.h 40% angezogen) = 6192
16*425 = 6800

Aufklärung und Richtigstellung wäre schön.
Grüße

Bandit666
2005-08-29, 12:10:58
Hier geht es aber nicht nur um das Grieseln beim G70!!
Der Threadstarter hat zwar das falsche Forum gewählt (Kaufberatungsforum wäre besser), aber noch einen Thread zum G70-Flimmern will er bestimmt nicht. :biggrin:

backt to topic plz!

Mrs. Lolman
2005-08-29, 12:12:02
Nein, er versucht sich nur aufzuspielen.
Unglaubwürdig, spielt er doch gerne mit Winkelabhaengigkeit und bilinear...


Gerne spiel ich nicht so. Ich betrachte beides (AtibiAF nur im vgl zu Q+Opts) einfach als das geringere Übel.

LovesuckZ, dem die ganze Diskussion nur noch nervt.

Lolman, der dir beim letzten Satz vollkommen zustimmt.
________________________


Und warum? Hier wird ein GENERELLER Cheat als Lapalie abgetan. Der Kunde kann zwar mit SSAA und hohen Auflösungen ein durchaus sehr zufriedenstellendes Bild auf der G70 erreichen, doch das ändert nix an den falschen Leistungswerten bei den Benchmarks. Wenn ich daran denke wie groß das Geschrei bei nem einzelnen 3dmark oder Q3a Cheat ist, so find ichs gleich nochmal unverständlicher dass mans einfach so hinnimmt, das NV/ATi Vergleiche zu NVs gunsten falsch sind.

bspw: Computerbase bencht mit Treiberdefault (lt ihren Aussagen Q+ Op1,3 - wobei sich zumindest mit neuren Treibern alle Optimierungen aktivieren, sobald man übers CP AA/AF verstellt. Egal) Dies ist sogar noch gegen NV Reviewerguides, wo nahegelegt wird, mit Q ihne Opts zu benchen. Mittlerweile kennt jeder meine Q3a gifs. Aber nochmal. So schaut Treiberdefault bei meinem NV40 bei Q3a aus (4xAA/16xAF):
http://img345.imageshack.us/img345/8628/default77761jd.gif

und so siehts am R3x0 aus:
http://img306.imageshack.us/img306/8826/ati0hz.gif

Und so wird verglichen. Muss man da wirklich ATi freundlich sein, um zu erkennnen, dass da was faul ist?


/edit: Schon wieder der Account der Freundin! Ich sollt vom eigenen rechner aus posten :tongue:

deekey777
2005-08-29, 12:14:06
']Sagt wer? Nur weil irgendein ATI Futzi (an seiner stelle würde ich schweigen) sagt es wären 30 - 40%, heißt es bei weitem nicht das es auch so ist. Vielleicht sollten wir mal testen wieviel % die Optimierungen bei ATI bringen... :P

aths ist sicher kein ATi Futzi. Und die 30-40% sind imo nich ganz unbegründet: http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_nvidias_g70_texturen/6/

...

Gemeint ist dieser "ATi-Futzi": http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3418600&postcount=25

Mr. Lolman
2005-08-29, 12:20:44
Könnte es durch die Zusammenstückelung des Treibers ohne Texturfehler doch vielleicht zu problemen in der Abstimmung kommen, so dass die fps-Verluste auch dadurch zu stande kommen?
Demirug meint ja, dass die Texturen zwar korrekt ausgelesen werden, allerdings falsch berechnet. Wenn dies wirklich bis zu 40% bringt, dann wäre ein 6-Quad G70 (ohne diesen Fehler) ja fast auf dem Niveau des Outputs eines 4-Quad NV40,* oder? Die anderen "Optimierungen" die so aktiv sind, bringen doch auch nicht gleich bis zu 40%, oder?

*Milchmädchenrechnung:
24*430 = 10320 *0,6 (d.h 40% angezogen) = 6192
16*425 = 6800

Aufklärung und Richtigstellung wäre schön.
Grüße

BQ bereinigt sollte eine 7800GTX natürlich 50% schneller sein als eine 6800 Ultra. Momentan sinds aber tw. bis zu 100%. ;)

Ronny G.
2005-08-29, 12:25:58
Hallo,
bin immer noch unschlüssig, welche Karte ich mir jetzt besorgen soll. Zur Auswahl stehen die o.g. Modelle. Im Test audf diesem Portal konnte die 7800 GT die X850 XT ganz knapp schlagen. Jetzt habe ich aber gehört, dass bei den aktuellen Nvidia - Karten die Darstellungsqualität beeinträchtigt sein soll (Flimmern etc.) , außerdem, dass die Pipelines bei der GT nur deaktiviert nicht aber aus vollkommen aus der Architektur ausgebunden sind. Wer hat schon Erfahrungen mit den beiden Karten gemacht und kann mir eine Empfehlung geben?

Zum Speicher: Mir hat jemand gesagt, dass Konfigurationen mit 4 Speicherriegeln (also 2048 MB insgesamt) problematisch sind, besonders wenn es sich dabei um einen Athlon 64 mit Venice - Kern handelt. Momentan habe ich noch einen 3200er mit Winchester - Kern. Was ist dran an der Sache?

Also so ne Frage zu stellen ist echt selten, den mal abgesehen von dem "flimmern" spricht alles, aber auch alles für die 7800er.
Ich nehme an das du eher der Marke Ati verschrieben bist, ansonsten würde dir die eintscheidung einfach fallen.

Gruß Ronny G.

Sidius
2005-08-29, 12:48:08
Ich schliess mich Bandit da mal an. Es gibt genug Flimmerfreds hier im Forum, da muss der hier nicht auch dazu misshandelt werden. Also, back to Topic please!

SKYNET
2005-08-29, 13:20:18
blablabla.....


das "flimmern" sieht in realität bei weitem nicht so schlimm aus, wie da auf dem .gif :P

Piffan
2005-08-29, 13:20:49
Ich schliess mich Bandit da mal an. Es gibt genug Flimmerfreds hier im Forum, da muss der hier nicht auch dazu misshandelt werden. Also, back to Topic please!

Ich glaub wohl, mein Pony hupt! Da fragt er ausdrücklich nach der Bildqualität und nun wird der Thread "missbraucht", wenn man sich dazu äußert?

Fakt ist, dass die Bildqualität minderwertig ist und von daher ein Teil der Leistung erschummelt wird. Punkt.

Edit: Die Leute die von "Ati- Fuzzy" reden und von "Stimmungsmache", sollten lieber im Gamestar- Forum rumtrollen. Die haben da ne bessere Heimat unter Gleichgesinnten.....

Piffan
2005-08-29, 13:25:02
das "flimmern" sieht in realität bei weitem nicht so schlimm aus, wie da auf dem .gif :P

Aber es ist da und bringt mehr FPS, also sind die Leistungsvergleiche für die Tonne.....

Wer also meint, dass ihm SM3 wichtiger ist als Texturenqualität und sich sehenden Auges drauf einlässt, kann ja die 7800 nehmen und hoffen, dass NV das Grieseln fixt. Sollte sich aber auch über deftige Performance- Einbußen im Klaren sein...wenn denn die Qualität wirklich verbessert werden sollte.

SKYNET
2005-08-29, 13:27:40
Ich glaub wohl, mein Pony hupt! Da fragt er ausdrücklich nach der Bildqualität und nun wird der Thread "missbraucht", wenn man sich dazu äußert?

Fakt ist, dass die Bildqualität minderwertig ist und von daher ein Teil der Leistung erschummelt wird. Punkt.

Edit: Die Leute die von "Ati- Fuzzy" reden und von "Stimmungsmache", sollten lieber im Gamestar- Forum rumtrollen. Die haben da ne bessere Heimat unter Gleichgesinnten.....


die BQ ist auch bei R3x0/R4x0 minderwertig.... wer perfekte BQ will muss halt nen NV2x nehmen, oder im zweifelsfall NV3x.... da gibt es dann das schönste AF auf den spiele karten! =)

SKYNET
2005-08-29, 13:29:52
Aber es ist da und bringt mehr FPS, also sind die Leistungsvergleiche für die Tonne.....

Wer also meint, dass ihm SM3 wichtiger ist als Texturenqualität und sich sehenden Auges drauf einlässt, kann ja die 7800 nehmen und hoffen, dass NV das Grieseln fixt. Sollte sich aber auch über deftige Performance- Einbußen im Klaren sein...wenn denn die Qualität wirklich verbessert werden sollte.

klar wird der 80er treiber ein wenig performance kosten... aber immernoch wird ne 7800GT schneller sein als ne X850XTPE.

Piffan
2005-08-29, 13:31:57
die BQ ist auch bei R3x0/R4x0 minderwertig.... wer perfekte BQ will muss halt nen NV2x nehmen, oder im zweifelsfall NV3x.... da gibt es dann das schönste AF auf den spiele karten! =)

Ok, dann führen wir die Kinderei weiter aus. Die Bildqualität bei NV ist deutlich schlechter, denn im Gegensatz zu NV liefert Ati flimmerfreie und ruhige Texturen bei Standard- Treibersettings, während NV die Spieler in einigen Spielen plagt mit Flimmern auf "höchster" Qualität.....Egal was man einstellt, die Karte bleibt flimmerkritisch....

edit: Ach ja, EOD.......

Mr. Lolman
2005-08-29, 13:53:07
das "flimmern" sieht in realität bei weitem nicht so schlimm aus, wie da auf dem .gif :P

Kommt draufan in welcher Auflösung/fps.

eXodia
2005-08-29, 13:56:39
@ Threadsteller:

- ich würd die 7800GT nehmen
- es kann problematisch werden wenn es sich nur um doublesided Module handelt

@ Mrs. Lolman:

Was zur Hölle sind das für .gifs... :|
Wenn du dir Q beim NV40 mal ansehen würdest wüsstest du das diese auf keinen Fall die Realität wiederspiegeln, never.

GrUß

deekey777
2005-08-29, 14:02:31
...

@ Mrs. Lolman:

Was zur Hölle sind das für .gifs... :|
Wenn du dir Q beim NV40 mal ansehen würdest wüsstest du das diese auf keinen Fall die Realität wiederspiegeln, never.

GrUß

Und wenn du den Thread lesen anstatt nur die Bilder anschauen würdest, hättest du einiges besser verstanden. :)

eXodia
2005-08-29, 14:14:20
Und wenn du den Thread lesen anstatt nur die Bilder anschauen würdest, hättest du einiges besser verstanden. :)

Was gibt es da zu verstehen? Mrs. Lolman behauptet das ihre Q3 .gifs in den Defaulteinstellungen entstanden sind. Wenn sie sie default anschaut dann würde sie feststellen das es auf keinen Fall so stark flimmert wie auf den .gifs. Das ensteht entweder durch irgendwelche komprimierungen durch das gif oder sonst was, aber Default sieht auf keinen Fall so schlimm aus.

GrUß

SKYNET
2005-08-29, 14:18:35
Was gibt es da zu verstehen? Mrs. Lolman behauptet das ihre Q3 .gifs in den Defaulteinstellungen entstanden sind. Wenn sie sie default anschaut dann würde sie feststellen das es auf keinen Fall so stark flimmert wie auf den .gifs. Das ensteht entweder durch irgendwelche komprimierungen durch das gif oder sonst was, aber Default sieht auf keinen Fall so schlimm aus.

GrUß


sagte ich oben bereits schon. ;)

Ronny G.
2005-08-29, 14:21:05
Ok, dann führen wir die Kinderei weiter aus. Die Bildqualität bei NV ist deutlich schlechter, denn im Gegensatz zu NV liefert Ati flimmerfreie und ruhige Texturen bei Standard- Treibersettings, während NV die Spieler in einigen Spielen plagt mit Flimmern auf "höchster" Qualität.....Egal was man einstellt, die Karte bleibt flimmerkritisch....

edit: Ach ja, EOD.......

Es ist doch immer wieder das gleiche, jeder versucht der anderen Marke was schlecht zu reden.

Fakt ist das .

1.Nvidia ne neue karte rausgebracht hat die Leistung bringt, auch wenn es da ein Flimmern gibt, und laut der ATI freaks Augenkrebs verursachen soll.
Finde ich diese "Standbilder/Screenshots" die zeigen sollen das es da sein soll, quark!
Denn wenn es auffallen soll dann sicherlich nur im stand, und meist ist man ja im Game in bewegung, dürfte also so schlimm nicht sein, das man gleich vom kauf abrät.

2.Ati und seine Fan´s können es bis heute nicht wahrhaben das SM3.0 erfunden wurde und auch noch zu erst bei NV verwendung findet.
Zwar müssen die Entwickler noch ein bisl an der performance tüffteln aber das wird schon.
Nein, sie versuchen es verzweifelt per Software zu emulieren, es scheint aber nciht so recht zu funzen, zumindest mal ja, mal nein.

Ich sage es schon voraus, wenn der R520 mit SM3.0 rauskommt, wird sich kein
Ati jünger mehr über Sm3.0 aufregen, nein es wird dann gelobt und als sicherlich besser als bei NV dargestellt.

Ich und mein Kumpel haben beide unterschiedliche Marken in sachen Graka, er ATI, und ich NV, wenn man der Stimmung hier im forum folgen sollte müsten wir uns am stück prügeln, warum??? weiß keiner :eek:

Gruß Ronny G.

Blaze
2005-08-29, 14:23:18
das "flimmern" sieht in realität bei weitem nicht so schlimm aus, wie da auf dem .gif :P

Doch, tut es. ;)

deekey777
2005-08-29, 14:26:17
Was gibt es da zu verstehen? Mrs. Lolman behauptet das ihre Q3 .gifs in den Defaulteinstellungen entstanden sind. Wenn sie sie default anschaut dann würde sie feststellen das es auf keinen Fall so stark flimmert wie auf den .gifs. Das ensteht entweder durch irgendwelche komprimierungen durch das gif oder sonst was, aber Default sieht auf keinen Fall so schlimm aus.

GrUß

Zum Bleistift, daß Mr. Lolman dies behauptet.
@Ronny G.:
Zu Nr. 2: In meiner Sig ist ein Link.*

(Es sei dir vergeben, wenn du die Rücktaste ihre Nachbarin gleichzeitig gedrückt hast.)

eXodia
2005-08-29, 14:26:17
Doch, tut es. ;)

Nie, ich weiß nicht wie ihr darauf kommt, aber so sieht es mit sicherheit nicht aus.

GrUß

Ronny G.
2005-08-29, 14:43:32
Zum Bleistift, daß Mr. Lolman dies behauptet.
@Ronny G.:
Zu Nr. 2: In meiner Sig ist ein Link.*

(Es sei dir vergeben, wenn du die Rücktaste ihre Nachbarin gleichzeitig gedrückt hast.)

Du hast sorgen???

Chronicle
2005-08-29, 14:58:50
Das flimmern von dem ihr hier alle redet soll ja auch auf dem NV40 zu sehen sein... komischerweise flimmert bei mir nix. Ich spiele immer auf quality. Das einzige was flimmert is CS 1.6 mit 16AF (aber wer spielt das schon X-D )

Und ja ich kann auch vergleichen, da mein nachbar ne 9800pro drin hat, und imo das bild da nicht besser aussieht.

Manche malen den Teufel an die wand hier hab ich den eindruck...
Naja macht mal weiter ich wollt des nur zum besten geben.

SKYNET
2005-08-29, 15:12:56
Doch, tut es. ;)


ähhmmm, du 6800er serie haben, nix 7800er, du nix nachvollziehn können, du darum *pssst*

eXodia
2005-08-29, 15:18:47
ähhmmm, du 6800er serie haben, nix 7800er, du nix nachvollziehn können, du darum *pssst*

Es ging um Default bei der NV40... :rolleyes:

GrUß

SKYNET
2005-08-29, 15:40:06
wir reden hier grade von 7800 vs. x800 :rolleyes:

und flimmern tut es default beim NV45 auch nicht wirklich...

eXodia
2005-08-29, 15:44:52
wir reden hier grade von 7800 vs. x800 :rolleyes:

und flimmern tut es default beim NV45 auch nicht wirklich...

Jaja ist klar... :rolleyes:

bspw: Computerbase bencht mit Treiberdefault (lt ihren Aussagen Q+ Op1,3 - wobei sich zumindest mit neuren Treibern alle Optimierungen aktivieren, sobald man übers CP AA/AF verstellt. Egal) Dies ist sogar noch gegen NV Reviewerguides, wo nahegelegt wird, mit Q ihne Opts zu benchen. Mittlerweile kennt jeder meine Q3a gifs. Aber nochmal. So schaut Treiberdefault bei meinem NV40 bei Q3a aus (4xAA/16xAF):

Darum gings, um Default bei NV40... :rolleyes:

GrUß

Blaze
2005-08-29, 15:46:06
wir reden hier grade von 7800 vs. x800 :rolleyes:

und flimmern tut es default beim NV45 auch nicht wirklich...

Ich glaub dann sind deine Augen schon genauso abgehärtet wie der Rest deines Körpers ;)

Gast
2005-08-29, 15:58:32
Ich glaub dann sind deine Augen schon genauso abgehärtet wie der Rest deines Körpers ;)

LoL

Mr. Lolman
2005-08-29, 17:32:48
Hier die Details, wie die Gifs enstanden sind: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3301741&postcount=958

Hier die 3x30MB Q3a Videos* (ATi default, NV40 Q (ohne Opts), NV40 HQ): http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3282496#post3282496

Anzumerken wäre noch, dass ich Kais Texturefix verwendet hab, welches die Texturen schärft. Aber trotzdem, flimmert HQ und ATi default ca gleichviel, Q schon deutlich mehr und bei Q+Opts ist zumindest jedes OpenGL Spiel aufgrund der Mipmapoptimierung (#2) so hässlich wie hier bei den Videos. Außerdem hat ein Gegencheck ergeben, dass idF auch die ungeschärfte Standardtextur genauso stark zum Flimmern neigt.


Nochmal: Mir ist schon klar, dass die Meisten bei 1600x1200 mit dem G70 HQ AF vollends zufrieden sein dürften, und mit 8xS noch das ev. vorhandene restliche Flimmern eliminieren können, weswegen momentan von der Anwenderseite her das Filterproblem zwar existent ist, aber nicht zwangsläufig gleich ein KO Kriterium darstellt. Nur neuere, aufwändigere Spiele laufen halt nicht mehr mit 8xS oder Auflösung >=1600x1200. Dementsprechend musste bei F.E.A.R. schon mancher erkennen, dass das AF doch nicht in allen Settings ausreichend gut ist.

Und ich will ja auch niemandem die Karten madig machen, sondern einfach mal feststellen, dass NV Karten ab dem NV40 in Benchmarks vgl mit ATi besser dastehen, als das tatsächlich der Fall ist. Und wenn ATi vor NV ein Setting bietet, was qualitativ mit NV AF vergleichbar ist kann man meinetwegen auch mit diesem benchen. Wenn NV40 HQ aber eh schon ca gleich mit ATi AF ist, und der G70 allem Anschein nach genausogut filtern kann -> Wo ist denn dann bitte das Problem die Karten auch mit vergleichbareren Settings zu benchen als das bisher der Fall war.

BTW: Die 30-40% beziehen sich nur auf HQ (so sehr man die CB-Werte auch unter Vorbehalt betrachten sollte). Gebencht wurde aber mit Q, oder gar Q+Opts. Somit ists SEHR wahrscheinlich, dass neue flimmerfreie HQ Benchmarks tatsächlich ~30% niedrigere Werte ergeben könnten, was das Leistungsbild der G70 Karten ein bisschen umwürfeln dürfte




*Mist, Rapidshare hat die Videos anscheinend schon gelöscht. Bei Interesse lad ichs nochmal hoch. Ist halt etwas zäh, da ich nur 256kbit/s Upload hab

Chronicle
2005-08-29, 17:57:54
tut mir leid hier nochmal schreiben zu müssen, obwohl ich da echt keine ahnung von habe und nur nach dem beurteilen kann was ich sehe.

Lolman ich spiele Fear aud 1152*864 mir 4*MSAA 4*AF und da flimmert echt rein garnix... entweder hab ich echt nen riesigen knick in der pupille oder bei mir is was "anders"... jedenfalls sieht des tob aus und ich brauch auch kein 8xS um wie ihr so schön sagt "keinen Augenkrebs zu bekommen"...

Mr. Lolman
2005-08-29, 18:05:01
Lolman ich spiele Fear aud 1152*864 mir 4*MSAA 4*AF und da flimmert echt rein garnix... entweder hab ich echt nen riesigen knick in der pupille oder bei mir is was "anders"... jedenfalls sieht des tob aus und ich brauch auch kein 8xS um wie ihr so schön sagt "keinen Augenkrebs zu bekommen"...


Das F.E.A.R Beispiel war eigentlich auf den G70-User bezogen.

Gast
2005-08-29, 18:53:19
Auch wenn es jetzt ein problem gibt aber mall ehrlich die 7800 Gt ist doch dei besser lösung mensch.

Mr. Lolman
2005-08-29, 19:20:37
Auch wenn es jetzt ein problem gibt aber mall ehrlich die 7800 Gt ist doch dei besser lösung mensch.

Stimmt. Die x850xt müsste schon um <300€ zu haben sein, damit sie in Frage käme.

Megamember
2005-08-29, 20:35:33
Was ist mit der hier?:

http://www.alternate.de/html/shop/productDetails.html?artno=JAXA90&

Mr. Lolman
2005-08-29, 20:44:56
Was ist mit der hier?:

http://www.alternate.de/html/shop/productDetails.html?artno=JAXA90&

Die is super. Hat die gleiche Füllrate wie ne 7800GT.

Gast
2005-08-29, 20:48:16
und flimmern tut es default beim NV45 auch nicht wirklich...
Auf beiden Augen blind?

MikBach
2005-08-29, 20:53:56
Auf beiden Augen blind?
Nicht eingelogt gewesen. :D

@ Skynet
Wenn du beim NV40/45 kein Flimmern unter Q wahrnimmst, solltest du dich nicht an BQ-Diskussionen beteiligen, weil du dich einfach nur zum Kasper machst.

edit:
wir reden hier grade von 7800 vs. x800 :rolleyes:

Da ist eine 7800 einer X800 gnadenlos unterlegen, was die BQ betrifft.

MikBach
2005-08-29, 20:57:34
entweder hab ich echt nen riesigen knick in der pupille oder bei mir is was "anders"...
Das hat doch nichts mit der Sehleistung zu tun, sondern mit der Wahrnemungsfähigkeit. Hier geht es nicht um die Augen, sondern darum, wie unser Gehirn die Informationen verarbeitet. :)

Ronny G.
2005-08-29, 22:44:38
Das hat doch nichts mit der Sehleistung zu tun, sondern mit der Wahrnemungsfähigkeit. Hier geht es nicht um die Augen, sondern darum, wie unser Gehirn die Informationen verarbeitet. :)

Nichts von dem, ist das worum es hier geht.

Wenn all diese Threads einen sinn haben sollen, dann ist dieser auf eine Sache bezogen, eigentlich regelrecht darauf zu pochen, das Nvidia rotze ist.

Und dieser beitrag von Chronicle, ist das urteil eines Gamers, der einfach nur spielt und spaß dabei hat, und sich nicht an nem süßen geflimmer aufgeilt.

Denn wenn ich so nen Aufstand wegen fehlenden SM 3.0 bei Ati machen würde , oh oh oh.
Aber ich kann daran nichts ändern und nehme es so wie es ist.

Ich weiß das meine ansicht der dinge hier, eigentlich dem Thema jede diskusionsgrundlage nimmt, aber ich habe es satt, das immer auf NV herumgehakt wird.
Das hat nichts mit schwindenter wahrnehmung der realität zu tuhen, vielmehr mir toleranz.

Und auch wenn es so ist, dann kann man darauf hinweisen, aber nicht gleich das ganze produkt zu dissen.

Gast
2005-08-29, 23:34:50
An den Thread Ersteller:
Wenn du etwas wartest wird sich das geflimmere der G7800 Serie vieleicht beheben, ansonsten ist die Karte spitze. TSAA und SSAA sind 2 Gründe die mich zu einer 7800GTX gedrängt haben ;)
Ja flimmern ist scheise keine Frage, aber man kanns abschwächen und wenn du das nicht willst, kauf die Karte nicht, keine Frage.
Aber ne X850, warum das? Deren Nachfolger kommt in einem Monat, du hast kein SM3 was dir nicht die Wahl in zukünftigen Spielen lässt mal alle Details raufzujagen, unabhängig vom SM3 fehlt dir auch HDR was man sich in jedem Spiel das es anbietet mal anschaun sollte, bevor man heult das brauch keiner. Es sieht schon geil aus, nur wenn mans nicht gesehen hat misst man es auch nicht, genau wie TSAA das ich persönlich in keinem Spiel mehr deaktiviere, sieht ja sonst beschissen aus *g
Fast alle Spiele gehen in 1280er Auflösung und fettes 8xS Antialiasing das is Grafik, flimmern kommt aufs Spiel an, kann man aber reduzieren. Kann dir aber auch mit ner X850 passieren oder das die Texturen matschig sind.

Also abwarten oder 7800GT meiner Meinung nach, alles andere wäre ohne gute Begründung nur schwer nachzuvollziehen.

Mr. Lolman
2005-08-30, 00:12:09
Also abwarten oder 7800GT meiner Meinung nach, alles andere wäre ohne gute Begründung nur schwer nachzuvollziehen.

Fast 100€ Preisunterschied wären z.B. eine gute Begründung :rolleyes:

Gast
2005-08-30, 00:16:47
Hallo,ich möchte mir die 7800 gtx kaufen und weiß aber nicht welchen Hersteller ich nehmen soll.Da gibt es so viele z.b. Asus,Albatron,Leadtek,MSI...usw.Auf was muß man da genau achten,abgesehen vom Preis, oder ist es egal was man nimmt...Danke

eXodia
2005-08-30, 00:21:25
Hallo,ich möchte mir die 7800 gtx kaufen und weiß aber nicht welchen Hersteller ich nehmen soll.Da gibt es so viele z.b. Asus,Albatron,Leadtek,MSI...usw.Auf was muß man da genau achten,abgesehen vom Preis, oder ist es egal was man nimmt...Danke

Die bauen alle nur Referenzdesign von daher ist es egal welchen Hersteller du nimmst. Es sollte daher der persöhnliche Geschmack, die Ausstattung und der Preis das Kaufkriterium sein.

GrUß

MadManniMan
2005-08-30, 03:08:44
@Threadersteller:

Wenn Du anfällig auf flimmernde Texturen bist, was ich Dir zumindest in meinem persönlichen Ausmaß nicht wünsche(mich nervt das minimal Gegriesel beim NV40 noch), überlege noch ein Weilchen länger.
Prinzipiell ist ein G70 eine geile Sache, wäge also ab. Beim Anti-Aliasing bleibt erstmal der TSSAA Vorteil - zwischen 6*SGMSAA und 8xS sehe ich mal hier, mal da Vorteile, wenn ich auch wegen der proportional besseren Performance ersteres lieber hab.

Wenn also Texturenbegucker wie ich: warte ab, wie sich die Treiber beim G70 entwickeln und am Besten noch, bis der R520 auftaucht. Oder nimm ne X800 XT (die X850 XT ist Overkill!).
Wenn Du kompromißlos mit Gegriesel/Geflimmer leben kannst, nimm ruhig den G70.


Und @Q3-Gif: kann bestätigen, daß NV43 @Q + Opt. 1 und 3 bei bilinearem Filter solchen Mist produziert.

Gast
2005-08-30, 07:36:40
Fast 100€ Preisunterschied wären z.B. eine gute Begründung :rolleyes:

Der Punkt geht an Dich :)
Aber wenn ich ne X850XT schon ins Auge fasse kann ich auch den Sprung zur 7800GT finanzieren.

Ronny G.
2005-08-30, 07:52:22
Jetzt sag mir doch mal wer, wo ich mit meiner 6800 gegrinsel/rauschen/flimmern sehe.

Sagt mal ein Spiel/Engine und dessen Szene/ort und welche einstellung, damit ich es nicht suchen muß, sondern sehe was alle so heiß macht?
Und vorallem worauf ich dabei achten muß, damit ich es finde.

Mr.Magic
2005-08-30, 08:22:25
Bei GTA: San Andreas ist das Flimmern nicht zu übersehen, eine Radeon hat da ein wesentlich ruhigeres Bild. SA ist aber auch der Extremfall. Bei den meisten anderen Spielen/Engines ist es zwar vorhanden, allerdings oft kaum, und/oder nur bei bestimmten Texturen, wahrnehmbar. Das alles gilt für HQ, Q habe ich seit dem Wechsel von der GeForce 5950 bei keinem einzigen Spiel mehr verwendet.

€: Da es eine neue Seite ist. Ich antworte auf Ronny G.'s Frage zum Flimmern bei der 6800.

Ronny G.
2005-08-30, 08:26:18
Bei GTA: San Andreas ist das Flimmern nicht zu übersehen, eine Radeon hat da ein wesentlich ruhigeres Bild. SA ist aber auch der Extremfall. Bei den meisten anderen Spielen/Engines ist es zwar vorhanden, allerdings oft kaum, und/oder nur bei bestimmten Texturen, wahrnehmbar. Das alles gilt für HQ, Q habe ich seit dem Wechsel von der GeForce 5950 bei keinem einzigen Spiel mehr verwendet.

Dann werde ich das mal installieren, auf welchen bildteil muß ich achten?
Texturen in weiterer entfernung?

Läuft es auf ner GF 4200Ti 128mb? Ist in meinem Zweitrechner drinn, soll ja teilweise ne bessere Qualität haben.

Welche einstellungen sollte ich vornehmen?AA+AF?Auflösung?

Mr.Magic
2005-08-30, 09:08:50
Das Flimmern sollte sofort auffallen. Die Engine ist nicht gerade gut optimiert, bei mir läuft es auf 1280@4xSAA oder 1600@4xAA mit 16xAF durchgehend flüssig. Mehr ist leider mit meiner 6800Ultra nicht drin wenn man keinerlei Slowdowns in kauf nehmen will (v.a. Regen u. Nebel).
San Andreas sollte auf der GF4 laufen, mit welchen Settings kann ich allerdings nicht sagen. Vor den NV4x hatte nVidia lange Zeit Lehrbuchqualität bei den Texturfiltern, so auch bei der 4200. Die Winkelabhängigkeit und den anderen Mist haben wir all den Usern zu verdanken die nur auf Benchmarkwerte und auf die Zahlen (2/4/8/16xAF) geachtet haben und nicht mal gedanken an die damit erzielte Qualität verschwendet haben.

Ronny G.
2005-08-30, 09:32:25
Das Flimmern sollte sofort auffallen. Die Engine ist nicht gerade gut optimiert, bei mir läuft es auf 1280@4xSAA oder 1600@4xAA mit 16xAF durchgehend flüssig. Mehr ist leider mit meiner 6800Ultra nicht drin wenn man keinerlei Slowdowns in kauf nehmen will (v.a. Regen u. Nebel).
San Andreas sollte auf der GF4 laufen, mit welchen Settings kann ich allerdings nicht sagen. Vor den NV4x hatte nVidia lange Zeit Lehrbuchqualität bei den Texturfiltern, so auch bei der 4200. Die Winkelabhängigkeit und den anderen Mist haben wir all den Usern zu verdanken die nur auf Benchmarkwerte und auf die Zahlen (2/4/8/16xAF) geachtet haben und nicht mal gedanken an die damit erzielte Qualität verschwendet haben.

Ich bin immer noch am Installieren auf meinem Zweitrechner, das dauert ja ewig, bin ich garnicht mehr gewohnt. :rolleyes:
Ist ein Duron 800 + Gf4200Ti + 330mb sdram fsb 100 = schnarch.

Ich werde mal versuchen bei beiden rechnern gleiche einstellung zu tätigen um genau zu vergleichen.Vieleicht bekommt man es per screenshots zu sehen.

Ist schon klar wenn Graka´s immer nur alá Diagramm mit fps verglichen werden, das die entwicklung so nen lauf nimmt, aber finde es alles etwas hochgespielt, und vorallem ist ATi außen vor natürlich anständig :|

Deswegen möchte ich beide GPU´s jetzt mal bei mir vergleichen.

4200ti vs. 6800LE@GT

Kann sich nur noch um stunden handeln, son 5gb game kennt der rechner garnicht ;D
Gruß Ronny G.

Schulzich
2005-08-30, 10:05:35
Wenn du etwas wartest wird sich das geflimmere der G7800 Serie vieleicht beheben, ansonsten ist die Karte spitze. TSAA und SSAA sind 2 Gründe die mich zu einer 7800GTX gedrängt haben

Das ist wirklich mal ein brauchbares Argument!

Aber ne X850, warum das? Deren Nachfolger kommt in einem Monat, du hast kein SM3 was dir nicht die Wahl in zukünftigen Spielen lässt mal alle Details raufzujagen, unabhängig vom SM3 fehlt dir auch HDR was man sich in jedem Spiel das es anbietet mal anschaun sollte, bevor man heult das brauch keiner. Es sieht schon geil aus, nur wenn mans nicht gesehen hat misst man es auch nicht, genau wie TSAA das ich persönlich in keinem Spiel mehr deaktiviere, sieht ja sonst beschissen...

Das sind Aufstellungen, die ich etwas vermisst habe. Endlich nennt mal einer wirklich einen Kaufgrund.

An alle, die denken, ich sei ein manischer ATI - Anhänger: Das stimmt so leider nicht. Als ich von meiner GEFORCE 3 zu ATI gewechselt bin, hatte das vor allem den Grund, dass ATI mehr für weniger geboten hat. Ich hatte bisher ne 9800 Pro und ne X800 Pro, mit beiden Karten war ich absolut zufrieden.
Aber warum soll ich jetzt nie wieder NV - Karten nehmen? Das ist doch irgendwo unlogisch, er SM 3.0 hat mich schon zu Zeiten der guten alten 9800 Pro angelacht und ich habe ernsthaft überlegt, ob ich mir nicht eine NV-Karte besorgen sollte. Letzlich hatte aber der geringfügige Leistungsvorsprung von ATI zum annehmbaren Preis dafür gesorgt, dass ich umgestiegen bin.

Ich bin inzwischen fest entschlossen, mir die 7800 GT (vielleicht sogar GTX) zu holen. Natürlich leg ich wert auf gut dargestellte Texturen, aber solange es nicht aussieht wie bei PowerVR oder Matrox - Chipsätzen (blöder Vergleich, wer kennt die noch...).
Bei einem Chip wie dem G70 und angesichts der Entwicklung, die die 3D - Hardware in den letzten 8 Jahren gemacht hat, kann man wohl davon ausgehen, dass man einen wahren Augenschmaus für sein Geld (und das ist in dem Fall nicht grad wenig) geboten bekommt.

Ronny G.
2005-08-30, 10:19:50
Ich bin immer noch am Installieren auf meinem Zweitrechner, das dauert ja ewig, bin ich garnicht mehr gewohnt. :rolleyes:
Ist ein Duron 800 + Gf4200Ti + 330mb sdram fsb 100 = schnarch.

Ich werde mal versuchen bei beiden rechnern gleiche einstellung zu tätigen um genau zu vergleichen.Vieleicht bekommt man es per screenshots zu sehen.

Ist schon klar wenn Graka´s immer nur alá Diagramm mit fps verglichen werden, das die entwicklung so nen lauf nimmt, aber finde es alles etwas hochgespielt, und vorallem ist ATi außen vor natürlich anständig :|

Deswegen möchte ich beide GPU´s jetzt mal bei mir vergleichen.

4200ti vs. 6800LE@GT

Kann sich nur noch um stunden handeln, son 5gb game kennt der rechner garnicht ;D
Gruß Ronny G.


Ich muß mich mal selber Zitieren

So ein mist das GTA SA will einfach nicht auf meinem Alten starten, kurz bevor er ins menü laden sollte schalten er mit ner fehlermeldung in den desktop zurück.

Mist

MiamiNice
2005-08-30, 11:33:21
Wen Du nen ATI-FAN_BOY bist dann natürlich die ATI. Ansonsten gibt es aus technologischer und leistungsmässiger Sicht keinen Grund für die ATI Karte. Ich würde die 7800 GT nehmen.

Spasstiger
2005-08-30, 12:04:49
Bei GTA: San Andreas ist das Flimmern nicht zu übersehen, eine Radeon hat da ein wesentlich ruhigeres Bild.

Ich behaupte jetzt mal das Gegenteil. Schalte bei einer GeForce 6800/7800 Supersampling dazu (performancemäßig kein Problem bei den High-End-Varianten) und du hast ein wesentlich ruhigeres Bild als auf einer Radeon.

Mr. Lolman
2005-08-30, 12:14:05
Ich behaupte jetzt mal das Gegenteil. Schalte bei einer GeForce 6800/7800 Supersampling dazu (performancemäßig kein Problem bei den High-End-Varianten) und du hast ein wesentlich ruhigeres Bild als auf einer Radeon.

Imo nicht korrekt. Selbst 2x2SSAA kann mipmaplose Texturen nicht glatt bügeln. Da brauchts schon funktionierendes AF.

Ok. TSAA ist ein enormer Vorteil. SSAA scho nicht mehr. (Das ist nur OG - absolut ineffzient) Beides kann man mehr oder weniger gut mit Tweaktools auch bei ATi aktivieren. Außerdem kann man bei Ati Karten höhere MS-Modi als 4xAA einstellen und sich mit den Smartshadereffekten spielen (HDRish :naughty: ) Zuguterletzt ist die x800xt ~100€ günstiger. Wenn die 100€ keine Rolle spielen, nimm die 7800GT. Wenn schon spricht imo kaum was gegen eine x800xt.

SKYNET
2005-08-30, 12:31:09
Nicht eingelogt gewesen. :D

@ Skynet
Wenn du beim NV40/45 kein Flimmern unter Q wahrnimmst, solltest du dich nicht an BQ-Diskussionen beteiligen, weil du dich einfach nur zum Kasper machst.

edit:

Da ist eine 7800 einer X800 gnadenlos unterlegen, was die BQ betrifft.


nicht mehr wenn SSAA und TSSAA zum einsatz kommt... :biggrin:

und falls dir nicht aufgefallen ist, bin ich nicht der einzige der unter Q kein flimmern wahrnimmt...


p.s. zocken tu ich eh immer min. auf HQ / alle opt. off 4x AA / 8x AF. :P

SKYNET
2005-08-30, 12:42:57
Imo nicht korrekt. Selbst 2x2SSAA kann mipmaplose Texturen nicht glatt bügeln. Da brauchts schon funktionierendes AF.

Ok. TSAA ist ein enormer Vorteil. SSAA scho nicht mehr. (Das ist nur OG - absolut ineffzient) Beides kann man mehr oder weniger gut mit Tweaktools auch bei ATi aktivieren. Außerdem kann man bei Ati Karten höhere MS-Modi als 4xAA einstellen und sich mit den Smartshadereffekten spielen (HDRish :naughty: ) Zuguterletzt ist die x800xt ~100€ günstiger. Wenn die 100€ keine Rolle spielen, nimm die 7800GT. Wenn schon spricht imo kaum was gegen eine x800xt.


ja, 2xSSAA bei ATI bis max 1024*768 :lol:
und HDR auf ATI is wohl nen witz oder was? ist 1. fake HDR das über die PS emuliert wird, und 2. ist die perfomance unter aller sau, kannst froh sein wenn du aktuelle games dann noch mit 4xAF in 1024 zocken kannst. :rolleyes: :biggrin:

Mr.Magic
2005-08-30, 12:44:52
Das SS überhaupt nichts bringt stimmt nicht. Andere Spiele sind normalerweise auf der 6800 unter HQ mit den Mixmodi annehmbar.

SA hat das bisher schlimmste Texturflimmern das ich zu gesicht bekam. Selbst mit 1280x960@16xAA (Mixed Mode) ist es noch deutlich wahrnehmbar, wäre für meine Ansprüche zwar optisch annehmbar ist aber auf einer Einzelkarte deutlich zu langsam. Erst 4x4SS (1024x768) konnte das Bild richtig beruhigen, allerdings kann man dann die Bilder einzeln zählen. Von einem Treiberproblem gehe ich nicht aus, es wurden drei verschieden Treiber getestet. Bleibt höchstens eine Engine/Treiberinkompatibilität, was dann allerdings das "the way it's meant..." darin sucht...

damit ich hier auch mal was zum Thread passendes von mir gebe:
Die Flimmerproblematik der 7800 ist wieder ein ganz anderes Thema.
Mit dem Kauf meiner beiden 7800er warte ich auf jeden Fall bis das nachgebessert ist (oder kaufe zwei 6800U wenn sie es nicht gebacken bekommen). Wäre ich kein Anhänger der (hohen) SS-Mix-Modi (deshalb SLI) und gelegentlicher Stereo-3D-Spieler würde ich vor einem Kauf abwarten ob ATi uns bei den neuen Karten mit einem Qualitätsschmankerl überrascht (wie damals beim RGMSAA). Ich erwarte jedenfalls das sie versuchen nVidia bei der Bildqualität zu überholen, nur bei den Features gleichzuziehen können sie sich fast nicht leisten.

Mr. Lolman
2005-08-30, 12:49:32
ja, 2xSSAA bei ATI bis max 1024*768 :lol:
und HDR auf ATI is wohl nen witz oder was? ist 1. fake HDR das über die PS emuliert wird, und 2. ist die perfomance unter aller sau, kannst froh sein wenn du aktuelle games dann noch mit 4xAF in 1024 zocken kannst. :rolleyes: :biggrin:

OGSSA ist absolut ineffizient, mal abgesehen davon, dass bis 1024x768 4xSSAA geht. Fake HDR oder nicht - es ist schnell genug. TM Sunrise rennt mit FakeHDR sogar auf meiner 64MB 9500@p noch mit 1024x768 und AA schön flüssig. Die Splintercell Performance auch ist ca. gleich gut wie mit SM3.0 Karten und echtem HDR.

Und HDRish heisst nur so - hat mit HDR aber nix zutun. Das ist ein netter kleiner Bloomfilter der nicht nur manche prä-DX9 Spiele, sondern auch neuere wie z.B. auch D³ gleich viel interessanter aussehen lässt...

Coda
2005-08-30, 13:23:18
OGSSA ist absolut ineffizient, mal abgesehen davon, dass bis 1024x768 4xSSAA geht.Nope. Maximale Framebuffer- und Texturgröße bei ATi ist bis R480 2048x2048, also ist 2x2 bei 1024x768 wirklich das höchste aller Gefühle.

eXodia
2005-08-30, 13:25:25
Wen Du nen ATI-FAN_BOY bist dann natürlich die ATI. Ansonsten gibt es aus technologischer und leistungsmässiger Sicht keinen Grund für die ATI Karte. Ich würde die 7800 GT nehmen.

ACK, Herr groundfrag!

GrUß

Mr.Magic
2005-08-30, 13:40:08
@Coda und Mr. Lolman

Bevor ihr euch die Köpfe einschlagt denke ich wir sollten uns auf 2x2=4 einigen.

Coda
2005-08-30, 13:43:59
Hab mich wohl verlesen, ich dachte es stand was von 4x4 da, srykthx.

Gast
2005-08-30, 14:53:45
OGSSA ist absolut ineffizient, mal abgesehen davon, dass bis 1024x768 4xSSAA geht. Fake HDR oder nicht - es ist schnell genug. TM Sunrise rennt mit FakeHDR sogar auf meiner 64MB 9500@p noch mit 1024x768 und AA schön flüssig. Die Splintercell Performance auch ist ca. gleich gut wie mit SM3.0 Karten und echtem HDR.

Und HDRish heisst nur so - hat mit HDR aber nix zutun. Das ist ein netter kleiner Bloomfilter der nicht nur manche prä-DX9 Spiele, sondern auch neuere wie z.B. auch D³ gleich viel interessanter aussehen lässt...

Man das hat nichts mit dem Thema zu tun und so langsam wiederholst du ewig die selben Argumente es langt wenn man sie einmal aufzeigt, es wird bestimmt nicht bedeutungsvoller wenn man es dauernd wiederblubbert.

@ ALL
Bleibt mal on Topic und haut nicht immer euren Kleinkrieg hierrein, es stinkt einfach.

Die Moderation lässt neuerdings wieder zu wünschen übrig, es gab mal Zeiten da wurde in solchen Threads gesplittet.

Spasstiger
2005-08-30, 15:35:41
Imo nicht korrekt. Selbst 2x2SSAA kann mipmaplose Texturen nicht glatt bügeln. Da brauchts schon funktionierendes AF.

Ich hab GTA:SA mit 8xS AA auf der GF6800 meines Bruders gesehen und das Bild war einiges ruhiger und glatter als bei mir mit meiner Radeon 9700 und 6xAA.

Ok. TSAA ist ein enormer Vorteil. SSAA scho nicht mehr. (Das ist nur OG - absolut ineffzient) Beides kann man mehr oder weniger gut mit Tweaktools auch bei ATi aktivieren.
Der DXTweaker funzt nicht mit GTA San Andreas.