Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Test: HD3850X2
Schlammsau
2008-04-22, 12:05:06
Hier kann über Sinn oder Unsinn dieser Karte diskutiert werden.
@Computerbase
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_asus_radeon_hd_3850_x2/
http://www.abload.de/img/unbenanntogr.jpg
Preise stehen noch nicht fest....sollten aber die 220€ Marke eigentlich nicht übersteigen! Sonst ist die Karte definitiv zu teuer.
Desti
2008-04-22, 12:55:50
[...]
Preise stehen noch nicht fest....sollten aber die 220€ Marke eigentlich nicht übersteigen! Sonst ist die Karte definitiv zu teuer.
http://www.watch.impress.co.jp/akiba/hotline/20080419/image/ss_vcas4.html
(rund 265€)
Schlammsau
2008-04-22, 12:59:39
http://www.watch.impress.co.jp/akiba/hotline/20080419/image/ss_vcas4.html
(rund 265€)
autsch
akuji13
2008-04-22, 13:12:55
[x] Unsinn bei dem Preis.
Steffko
2008-04-22, 13:16:53
Wenn ich mir den Bench so anschaue, dürfte die Karte preislich höchstens auf dem Niveau einer GF8800GTS liegen, also runde 170€.
seahawk
2008-04-22, 13:25:02
Dafür dass es in 8xAA + 16xAF in 1600x1200 die zweitschnellste kaufbare Graka ist, finde ich den Preis nicht überhöht.
K4mPFwUr$t
2008-04-22, 13:39:19
dafür darfst du dich mit CF profilen und mikroruckler rumschlagen ;)
Sorkalm
2008-04-22, 13:50:51
Mit einem Crossfire-Board sind wohl 2x 3850 auch jetzt schon möglich. ;)
Mit einem Crossfire-Board sind wohl 2x 3850 auch jetzt schon möglich. ;)
Toll, noch mehr CF Probleme.
dafür darfst du dich mit CF profilen und mikroruckler rumschlagen ;)
Wenn es bei CF wenigstens Profile gäbe. ;)
Naja Lag gibts gratis dazu, wenn CF nicht will hat man die Leistung einer 3850, oha. :ugly:
Dafür dass es in 8xAA + 16xAF in 1600x1200 die zweitschnellste kaufbare Graka ist, finde ich den Preis nicht überhöht.
Ja, in unspielbaren Settings
Außerdem wissen wir, das 8xMSAA nicht praxisrelevant ist.
Die Karte darf höchstens 170€ (8800GTS) kosten, dank CF Problemen dürften es höchstens 140€ (8800GT) sein.
Naja was soll man machen RV670 ist einfach maßlos überteuert, siehe 9600GT die 3870 fertig macht und so viel wie die 3850 kostet.
Schlammsau
2008-04-22, 14:51:40
dann dürfte aber die GX2 auch nicht jenseits der 400€ Marke liegen! ;)
Für alle die es noch nicht mitbekommen haben....in Assassins Creed performt CF besser als SLI.
Ich versteh zwar nicht warum das so ist, aber es ist fakt!
Auszug aus PCGH:
Ein unbedarfter Beobachter würde nach diesen Erkenntnissen sicherlich meinen, Assassin's Creed wäre der Vorzeige-Titel von AMD. Schließlich erhalten Nutzer einer HD3000 dank des D3D-10.1-Modus nicht nur eine bessere Optik, sondern auch mehr Leistung. Das i-Tüpfelchen aber ist die funktionierende Unterstützung von Crossfire.
Doch pikanterweise ist das Mittelalter-Spiel Teil von Nvidias "The Way it's meant to be played"-Programm. Was genau die Entwickler dort gemacht haben, ist uns zwar nicht bekannt. Besitzer eines SLI-Gespanns würden allerdings erwarten, dass sie ein größeres Leistungsplus als die mageren 10 Prozent erhalten. Allerdings war im Vorfeld bekannt, dass SLI/Crossfire nur wenig Leistungsvorteile bringen würde.
dann dürfte aber die GX2 auch nicht jenseits der 400€ Marke liegen! ;)
Stimmt, sie müsste irgendwo zwischen 300 und 400€ liegen.
Und die 3870 X2 ist auch zu teuer, knapp 200€ wären ok.
=Floi=
2008-04-22, 15:06:28
geil finde ich ja die kaputte lüftersteuerung der karte. bei solchen sachen sollten sich die tester weigern und das teil zurück schicken. oc geht wohl auch noch nicht
user77
2008-04-22, 15:10:05
Stimmt, sie müsste irgendwo zwischen 300 und 400€ liegen.
Und die 3870 X2 ist auch zu teuer, knapp 200€ wären ok.
warum?
ein QX9650 kostet 800€, wärend ein 20% langsamerer Q9300 nur 200€ kostet.
warum?
ein QX9650 kostet 800€, wärend ein 20% langsamerer Q9300 nur 200€ kostet.
Schlechter Vergleich, der QX9650 hat keine Konkurenz, die billiger und auf fast gleichen Performance level ist.
Schlammsau
2008-04-22, 15:49:33
Und die 3870 X2 ist auch zu teuer, knapp 200€ wären ok.
??? :eek:
die schnellste Karte nach der GX2? Noch ganz sauber???
Es sind beide MultiGPU Lösungen und haben mehr oder weniger mit den gleichen Problemen zu kämpfen!
Wenn die 3870X2 nur noch 200€ kosten soll, dann darf die GX2 auch nicht mehr als 280€ kosten!
Für alle die es noch nicht mitbekommen haben....in Assassins Creed performt CF besser als SLI.
Tut es nicht schau auf die FPS.
Hilft gegen Microruckler vielleicht 3xCF? Vielleicht fällt es dann nicht so stark auf, weil z.B. es nur jedes 3. Mal auftritt?
Weiß da einer was?
AnarchX
2008-04-22, 16:17:23
Hilft gegen Microruckler vielleicht 3xCF? Vielleicht fällt es dann nicht so stark auf, weil z.B. es nur jedes 3. Mal auftritt?
Weiß da einer was?
Du solltest dich nochmal mit der Thematik genauer beschäftigen.
Je mehr GPUs im System umso inhomogener können die einzelnen Frametimes sein.
Mit jeder weiteren GPU kommt auch ein Bild mehr Lag dazu.
Die gelbe Eule
2008-04-22, 17:20:51
Es ist zwar der richtige Weg, weil 2 GPUs nebeneinander, aber leider zu teuer für die Leistung. Ist wie die 7800GT Dual von Asus.
MadManniMan
2008-04-22, 20:22:29
Aktuelle AFR-Lösungen sind nicht überhaupt kein gangbarer Weg, daher ist die Karte Mist.
EOD.
Es ist zwar der richtige Weg, weil 2 GPUs nebeneinander, aber leider zu teuer für die Leistung. Ist wie die 7800GT Dual von Asus.
Was spielt denn die Anordnung der Chips für eine Rolle? :|
seahawk
2008-04-22, 20:37:08
Aktuelle AFR-Lösungen sind nicht überhaupt kein gangbarer Weg, daher ist die Karte Mist.
EOD.
Die Karte nicht, aber die NAchteile der AFR Lösungen machen sie minder attraktiv.
Schlammsau
2008-04-24, 09:23:00
Was spielt denn die Anordnung der Chips für eine Rolle? :|
vielleicht meint er im Gegensatz zur 9800GX2, die ja 2 PCB´s besitzt!?
Mr. Lolman
2008-04-24, 09:49:38
siehe 9600GT die 3870 fertig macht und so viel wie die 3850 kostet.
Najo, die 3870 ist gerademal 8€ teurer als die 9600GT und von fertigmachen kann auch keine Rede sein: http://www.behardware.com/articles/705-14/product-review-the-geforce-9600-gt-and-radeon-hd-3650.html
Schlammsau
2008-04-24, 10:02:42
Jeder Test, zeigt ein anderes Bild....Bei der einen Review Seite ist die GT schneller, bei der anderen wieder die 3870.
Schlussendlich ist es echt eine Symphatiefrage zu welcher Karte man greift!
AnarchX
2008-04-24, 10:45:22
Najo, die 3870 ist gerademal 8€ teurer als die 9600GT und von fertigmachen kann auch keine Rede sein: http://www.behardware.com/articles/705-14/product-review-the-geforce-9600-gt-and-radeon-hd-3650.html
... veraltete Treiber sowohl bei ATi und NV. ;)
Mr. Lolman
2008-04-24, 10:48:51
... veraltete Treiber sowohl bei ATi und NV. ;)
Imo sollte man sowieso nur offizielle Treiber testen. ;)
MikBach
2008-04-24, 11:34:32
Imo sollte man sowieso nur offizielle Treiber testen. ;)
Da wäre ich auch für.
The_Invisible
2008-04-24, 11:54:57
Najo, die 3870 ist gerademal 8€ teurer als die 9600GT und von fertigmachen kann auch keine Rede sein: http://www.behardware.com/articles/705-14/product-review-the-geforce-9600-gt-and-radeon-hd-3650.html
in dx10 + aa schauts aber nicht gut aus dafür das sie teurer ist.
mfg
in dx10 + aa schauts aber nicht gut aus dafür das sie teurer ist.
mfg#
Jetzt kommt er mit unspielbar settings.
deekey777
2008-04-24, 16:56:31
Es ist zwar der richtige Weg, weil 2 GPUs nebeneinander, aber leider zu teuer für die Leistung. Ist wie die 7800GT Dual von Asus.
Wie kommst du dazu, dass das teuer sei?
Die gelbe Eule
2008-04-24, 16:59:59
Was spielt denn die Anordnung der Chips für eine Rolle? :|
Siehe das neue Projekt von Asus mit den MXM Chips, da muss man hin. Austauschen und Geld sparen. 2PCBs übernander sind doch immer schwerer zu kühlen und auch mechanischer verbunden.
Wie kommst du dazu, dass das teuer sei?
260€ gegenüber 240€ für zwei einzelne. Das eine 8800GTX für 50€ weniger bei besserer Leistung und niedrigerem Verbrauch unter last auch zu haben ist, darf man ebenfalls nicht außer acht lassen. Aber wer die Exklusivität haben möchte wie damals bei der 7800GT Dual, bitteschön.
deekey777
2008-04-24, 17:26:53
...
260€ gegenüber 240€ für zwei einzelne. Das eine 8800GTX für 50€ weniger bei besserer Leistung und niedrigerem Verbrauch unter last auch zu haben ist, darf man ebenfalls nicht außer acht lassen. Aber wer die Exklusivität haben möchte wie damals bei der 7800GT Dual, bitteschön.
Entweder reden wir einander vorbei, oder du hast irgendwas einfachso dahin geschrieben, ohne sich vorher Gedanken gemacht zu haben:
Es ist zwar der richtige Weg, weil 2 GPUs nebeneinander, aber leider zu teuer für die Leistung. Ist wie die 7800GT Dual von Asus.
Was genau ist hier zu teuer? Der Preis der HD3850X2 ist für Deutschland nicht bekannt, dazu kommt, dass diese allein auf dem Markt ist (es kann sogar passieren, dass sie teuerer sein wird als die HD3870X2).
Dass sie in der Fertigung teuer ist, waage ich zu bezweifeln.
Die gelbe Eule
2008-04-24, 18:37:25
Zu teuer war nur auf den Preis bezogen, nicht auf die Fertigung. Und wenn sie noch teurer wird, wird sie eben noch sinnfreier. Kann mir denken das Limited Plates draufkommen und es nur 2.000 Stück werden.
Najo, die 3870 ist gerademal 8€ teurer als die 9600GT und von fertigmachen kann auch keine Rede sein: http://www.behardware.com/articles/705-14/product-review-the-geforce-9600-gt-and-radeon-hd-3650.html
Veraltete Treiber.
http://ht4u.net/reviews/2008/msi_n9800gx2/index16.php
Die 9600GT ist faktsich besser und billiger, Stromverbrauch ist kein Argument, die 9600GT ist unter Last sparsamer.
Imo sollte man sowieso nur offizielle Treiber testen. ;)Quatsch.
Sorkalm
2008-04-25, 11:18:56
Veraltete Treiber.
Der Treiber bei deinem Test ist auch nicht 100%ig aktuell, zumal die Vergleichbarkeit eh nicht gegeben ist - da HT4U noch auf XP testet.
Und die Leistungsaufnahme ist auch nur für dich kein Argument, der Idle-Verbrauch ist mir z. B. um ein Vielfaches wichtiger als der unter Last.
Der Treiber ist aber relativ aktuell, der 174.74 ist schon sehr schnell.
Was ist mit XP?
Idle sind es 10W für die 3870, unter Last sind es 30W für die 9600GT, jetzt guck dir das mal realistisch an. Nur auf den Idle zu gucken ist Quatsch.
MikBach
2008-04-25, 11:43:05
Quatsch.
Dann erklär mal, warum das Quatsch ist, wehrter Gast.
Wenn man Autos testet lässt man auch keine Prototypen gegen fertige Autos antreten.
Wenn ich Tester wäre, würde ich gnadenlos immer offizielle Treiber testen.
Vielleicht wäre NV dann endlich gezwungen kundenfreundlicher zu agieren und diese nicht als Betatester zu missbrauchen.
Und falls du den Begriff Beta nicht kennst, hier extra für dich:
http://de.wikipedia.org/wiki/Entwicklungsstadium_%28Software%29
MikBach
2008-04-25, 11:46:12
Dann erklär mal, warum das Quatsch ist, wehrter Gast.
Wenn man Autos testet lässt man auch keine Prototypen gegen fertige Autos antreten.
Wenn ich Tester wäre, würde ich gnadenlos immer offizielle Treiber testen.
Vielleicht wäre NV dann endlich gezwungen kundenfreundlicher zu agieren und diese nicht als Betatester zu missbrauchen.
Und falls du den Begriff Beta nicht kennst, hier extra für dich:
http://de.wikipedia.org/wiki/Entwicklungsstadium_%28Software%29
edit:
Dann brauchen wir uns nicht mehr dieses dumme Gelabber vom veralteten Treiber anzuhören. Kotz.
ups, falsches Knöpfchen gedrückt
Wenn man Autos testet lässt man auch keine Prototypen gegen fertige Autos antreten.
Äpfel - Birne
Wenn ich Tester wäre, würde ich gnadenlos immer offizielle Treiber testen.Dann bin ich froh, das du kein Tester bist.
Mich interessieren alte Treiber nicht.
Vielleicht wäre NV dann endlich gezwungen kundenfreundlicher zu agieren und diese nicht als Betatester zu missbrauchen.
Was hat Nvidia davon? Welcher Kunde schreibt einen ausführlichen Problembericht? Niemand. Das funktioniert nicht so, wie du es dir vorstellst.
Was ist an Betas unfreundlich? Laufen super, was willst du noch?
Dieses WHQL Siegel? Wenn du das brauchst, dann nimm halt AMD und freu dich ins Fäustchen.
The_Invisible
2008-04-25, 12:04:00
Dann erklär mal, warum das Quatsch ist, wehrter Gast.
Wenn man Autos testet lässt man auch keine Prototypen gegen fertige Autos antreten.
Wenn ich Tester wäre, würde ich gnadenlos immer offizielle Treiber testen.
Vielleicht wäre NV dann endlich gezwungen kundenfreundlicher zu agieren und diese nicht als Betatester zu missbrauchen.
Und falls du den Begriff Beta nicht kennst, hier extra für dich:
http://de.wikipedia.org/wiki/Entwicklungsstadium_%28Software%29
wenn wir schon dabei sind könnte man ja auch endlich defaultmäßig mit ai off testen. vielleicht wäre ati dann endlich gezwungen die spreu vom weizen zu trennen.
mfg
MikBach
2008-04-25, 12:08:51
Äpfel - Birne
Nix APfel - Birne. Es sei denn du meinst dich damit.
Dann bin ich froh, das du kein Tester bist.
Mich interessieren alte Treiber nicht.
Du raffst es nicht, oder?
Es geht nicht um alte Treiber, sondern um offizielle.
Oder kaufst du dir sonst auch nur Software, die gerade mal den Betastatus erreicht hat? Armes Würmchen.
Was ist an Betas unfreundlich? Laufen super, was willst du noch?
:lol:
Alle? Sicherlich nicht. Und das ist eben das Problem vom Betasofware.
Dieses WHQL Siegel? Wenn du das brauchst, dann nimm halt AMD und freu dich ins Fäustchen.
Darauaf kann ich gerne verzichten.
The_Invisible
2008-04-25, 12:12:43
mit betas von der offiziellen nvidia homepage hatte ich nie probleme.
wenn man natürlich jeden geleakten treiber jeglicher quelle installiert und bei diesen zb auch noch .inf anpassungen macht, darf man sich nicht wundern das was schiefgehen kann.
mfg
MikBach
2008-04-25, 12:13:20
wenn wir schon dabei sind könnte man ja auch endlich defaultmäßig mit ai off testen. vielleicht wäre ati dann endlich gezwungen die spreu vom weizen zu trennen.
mfg
Andere Abteilung, wobei ich hier durchaus zustimme, wenn mit AI-on die BQ schlechter sein sollte als mit AI-off.
wenn wir schon dabei sind könnte man ja auch endlich defaultmäßig mit ai off testen. vielleicht wäre ati dann endlich gezwungen die spreu vom weizen zu trennen.
mfg
Allerdingds.
http://www.ixbt.com/video/itogi-video/test/0801_3870x2.shtml
Die AMD Karten kannst du so in die Biotonne treten.
Nix APfel - Birne. Es sei denn du meinst dich damit.
Dein Vergleich war unpassend.
Alle? Sicherlich nicht. Und das ist eben das Problem vom Betasofware.
Die Betas sind offiziell, und auch nicht alle, sondern nur die Besten, wie 174.74.
Es geht nicht um alte Treiber, sondern um offizielle.
Die offiziellen Betas, laufen perfekt.
Darauaf kann ich gerne verzichten.
Ich auch.
Oder kaufst du dir sonst auch nur Software, die gerade mal den Betastatus erreicht hat? Armes Würmchen.
Ja, die Meiste Software ist quasi Beta, noch nicht mitbekommen?
MikBach
2008-04-25, 12:26:58
Die Betas sind offiziell
Damit hast du bewiesen, dass du nicht kappiert hast, worum es mir geht.
Also EOD mit dir.
Dann sagen wir mal Release-Treiber.
Damit hast du bewiesen, dass du nicht kappiert hast, worum es mir geht.
Doch, du versuchst ohne jegliche Fakten Nvidia zu bashen.
Doch, du versuchst ohne jegliche Fakten Nvidia zu bashen.
Wie viele Fakten brauchst du denn noch?
Den Link zu Wiki hast du aber gelesen?
Beta - unfertige Software.
EOD.
MikBach
Allerdingds.
http://www.ixbt.com/video/itogi-video/test/0801_3870x2.shtml
Die AMD Karten kannst du so in die Biotonne treten.
Bei AI off läuft nur eine GPU bei der X2, daher ist der vergleich recht beschissen bei den Russen :P
Wie viele Fakten brauchst du denn noch?
Den Link zu Wiki hast du aber gelesen?
Beta - unfertige Software.
EOD.
MikBach
Ich Fakten, das die offizielen Nvidia Beta Treiber mies sind!
Her damit! Fakten und auch nicht einzelne Probleme, die es bei AMD genauso gibt!
Bei AI off läuft nur eine GPU bei der X2, daher ist der vergleich recht beschissen bei den Russen :P
Ja und? Wenn AMD noch nicht mal die Optimierungen abschalten kann, ich würde nicht mit AI On spielen wollen, zu viel Geflimmer.
Mr. Lolman
2008-04-25, 14:14:15
Ja und? Wenn AMD noch nicht mal die Optimierungen abschalten kann, ich würde nicht mit AI On spielen wollen, zu viel Geflimmer.
Hast du überhaupt schon mal AIon/off auf ner 38x0 gesehen?
Hast du überhaupt schon mal AIon/off auf ner 38x0 gesehen?
Willst du mir das Geflimmer als toll verkaufen?
Ich warte noch auf die Fakten, das NV Treiber viel mehr Probleme machen.
Wird immer schlimmer, erst versachen NV GPUs Lag, dann verursachen chinesische PCBs Lag, aber nur auf NV Karten, jetzt die Treiber, wird mir zu albern.
Ich warte noch auf die Fakten, das NV Treiber viel mehr Probleme machen.
http://arstechnica.com/news.ars/post/20080325-vista-capable-lawsuit-paints-picture-of-buggy-nvidia-drivers.html
1. Viel mehr Leute hatten NVIDIA-Karten auf Vista
2. Gab's damals noch gar keine D3D10-Treiber von ATI.
Das ist nicht aussagekräftig. Ich hatte schon seit Monaten keinen Treiber-Reset mehr auf meiner 8800GTX und das obwohl ich selber jede Menge fehlerhaften Code beim Debuggen draufprügel. Bluescreen unter Vista sowieso nicht.
Ich denke aber auch dass ATI da nicht mehr Probleme machen würde, ich bin nur nicht im Bilde zur Zeit.
Sorkalm
2008-04-25, 15:22:57
Wobei man sich da wohl auch auf den IGP-Markt beziehen muss, der ja wohl jeweils bei beiden Herstellern einen nicht unwesentlichen Einfluss auf die Marktanteile hat.
Im IGP-Markt wird aber auch nicht gezockt, und wenn dann auch nicht mit D3D10. Nur von Aero schmierten auch die schlimmsten Beta-Treiber am Anfang von Vista nicht ab.
1. Viel mehr Leute hatten NVIDIA-Karten auf Vista
2. Gab's damals noch gar keine D3D10-Treiber von ATI.
3. Gab es KEINE Dx10 Games :P
Guter Punkt. Dennoch bin ich der Meinung dass die absoluten Zahlen der Statistik ein verfälschtes Bild liefern.
Mr. Lolman
2008-04-25, 18:39:19
Willst du mir das Geflimmer als toll verkaufen
Nein. Ich hab dich nur gefragt, ob du schon mal AI auf ner aktuellen Ati-Karte gesehen hast.
Nein. Ich hab dich nur gefragt, ob du schon mal AI auf ner aktuellen Ati-Karte gesehen hast.
Nein, die Berichte über das Flimmern haben mir gereicht, ich will mit meiner Karte zufrieden sein, das wäre ich so nicht.
Schlammsau
2008-04-25, 18:50:07
es ist immer das gleiche.....zu 99% haben die noch nie irgendwas flimmern gesehn, bzw. haben noch nie eine ATi in ihrem Rechner gehabt.
Ich hatte, dass Vergnügen beide Hersteller testen zu dürfen.
meine Karten der letzten 3 Jahre:
GF 4200 MX
Radeon x300
Radeon x700
GF 7600GT (hab ich bis jetzt am längsten gehabt!)
GF 8600GT
Radeon x1950Pro
Radeon HD3850
GF 8800GS
Radeon 3870
Leute ihr bildet euch das Flimmern ein! ;)
zu 99% haben die noch nie irgendwas flimmern gesehn, bzw. haben noch nie eine ATi in ihrem Rechner gehabt.
Oh doch ich hatte eine GFFX, super Teil, bis auf die Performance später, eine 7, jetzt eine GF8.
Flimmern gabs bei der 7 genug.
MikBach
2008-04-25, 19:34:11
Nein, die Berichte über das Flimmern haben mir gereicht, ich will mit meiner Karte zufrieden sein, das wäre ich so nicht.
Das Flimmern mit AI ist aber eher die Ausnahme, nicht die Regel.
Deswegen habe ich Standard AI on.
Wenn ich merke, dass es flimmert, dann wird es ausgeschaltet.
So einfach ist das. :D
Die gelbe Eule
2008-04-25, 20:15:11
Nein. Ich hab dich nur gefragt, ob du schon mal AI auf ner aktuellen Ati-Karte gesehen hast.
Wo bleibt eigentlich Dein Artikel dazu? Ist mittlerweile Monate her das wird das mal ausdiskutiert haben. Und nun kommst an wie AI auf ner 38XX aussieht, gibst also unterschwellig zu, daß es auf einer 2XXX genauso beschissen war wie vorher. Tut mir leid, aber Deine subjektive Meinung was ATI generell angeht hat sich um Null Millimeter geändert.
A.I. on flimmert wie Sau, mit off testet auch keine Sau, Beweise bitte endlich das Gegenteil, danke.
MikBach
2008-04-25, 20:25:08
A.I. on flimmert wie Sau,
Ich behaupte das Gegenteil, da ich von der Regel und nicht von der Ausnahme ausgehe.
mit off testet auch keine Sau,
Warum auch, wenn es in der Regel eben nicht flimmert.
Soll man wegen ein paar Ausnahmen die "guten" Optimierungen auch ausschalten?
Beweise bitte endlich das Gegenteil, danke.
Wie willst du das beweisen?
Ich finde sicherlich 5 Spiele, die flimmern, aber auch 5, die nicht flimmern.
Welche nehmen wir jetzt?
Ich behaupte mal, dass von den Spielen, die in den letzten 2-3 Jahren rausgekommen sind, deutlich weniger als 10% mit AI on flimmern.
Wird nur schwierig rauszufinden sein bei den etwa 200 Spielen oder mehr, die so im Jahr rauskommen.
Ich bin auch dafür, dass AMD die Optimierungen endlich voneinander trennt, nur darf man das auch nicht so dramatisieren, wie du es machst.
Das Flimmern ist auch meistens sehr gering, nicht so wie bei den 6800ern @Q ohne Clamp.
Das war damals echt übel.
Warum auch, wenn es in der Regel eben nicht flimmert.
Das ist deine durch AMD geprägte Meinung, kein Fakt.
LovesuckZ
2008-04-25, 20:27:58
Schon lustig, wie einerseits 10.1 gelobt wird, weil es in einem Spiel ein bisschen besseres AA bietet, aber gleichzeitig die Flimmernproblematik runtergespielt wird - weil es vielleicht in 5 Games auftaucht. ;D
Ich bin auch dafür, dass AMD die Optimierungen endlich voneinander trennt, nur darf man das auch nicht so dramatisieren, wie du es machst.
Die Lage ist ernst.
Flimmern ist scheise.
Ohne Optimierungen bemerkt man die viel zu geringe Texelfüllrate.
MikBach
2008-04-25, 20:30:22
Das ist deine durch AMD geprägte Meinung, kein Fakt.
Ich lasse mir meine Meinung nicht durch irgendeine Firma prägen oder vorschreiben.
Ich vertraue meiner Erfahrung und meinen Augen.
MikBach
2008-04-25, 20:38:30
Schon lustig, wie einerseits 10.1 gelobt wird, weil es in einem Spiel ein bisschen besseres AA bietet, aber gleichzeitig die Flimmernproblematik runtergespielt wird - weil es vielleicht in 5 Games auftaucht. ;D
Sehr schwach von dir LS, echt. :|
Das sind doch 2 paar Schuhe.
Was hat denn jetzt D3D10.1 mit der Flimmerproblematik mit AI on zu tun?
AMD hat nunmal die deutlich unterlegene Texelfüllrate, keine Frage.
Und sie versuchen das Beste draus zu machen.
Wenn man die Optimierungen nicht sieht, dann finde ich es ok.
Und das trifft in den meisten Fällen zu.
Was D3D10.1 angeht ist wieder ein ganz anderes Thema.
Dass in einem 3d-Technik-forum der Fortschitt gelobt wird, sollte dir doch eigentlich klar sein, vor allem wenn schon ein Spiel beweist, dass es keine Spielerei ist.
edit: kann ein Mod bitte die Gastkomments gegen Eule und LS entfernen, danke
Ich vertraue meiner Erfahrung und meinen Augen.
Ich kann nicht auf deine Augen vertrauen.
Da schenke ich lieber Coda Beachtung, oder eben Herr Lolman, der NV aufs Gröbste wegen dem Flimmern kritisiert hat, jetzt wo es bei AMD der Fall ist nicht mehr, seltsam.
Wenn man die Optimierungen nicht sieht, dann finde ich es ok.
Ja, wenn. Aber man sieht sie. Punkt.
LovesuckZ
2008-04-25, 20:45:48
Was D3D10.1 angeht ist wieder ein ganz anderes Thema.
Dass in einem 3d-Technik-forum der Fortschitt gelobt wird, sollte dir doch eigentlich klar sein, vor allem wenn schon ein Spiel beweist, dass es keine Spielerei ist.
Wie kann man einerseits 10.1 wegen der besseren AA Kompartibiltät loben, aber gleichzeitig die Flimmerproblematik als gering deklarieren?
Schlussendlich zählt das, was man auf dem Bildschrim sieht. Und wie es realisiert wird, ist dabei für den Kunden und 3DCenter User egal.
Und flimmerfreie Filterung stelle keinen Fortschritt dar? Na, dann tut es auch keine glatten Kanten.
MikBach
2008-04-25, 20:52:17
Ja, wenn. Aber man sieht sie. Punkt.
In Ausnahmefällen ja, gebe ich offen zu.
Den Rest habe ich ja schon @Eule erläutert.
MikBach
2008-04-25, 20:55:50
Wie kann man einerseits 10.1 wegen der besseren AA Kompartibiltät loben, aber gleichzeitig die Flimmerproblematik als gering deklarieren?
Schlussendlich zählt das, was man auf dem Bildschrim sieht. Und wie es realisiert wird, ist dabei für den Kunden und 3DCenter User egal.
Und flimmerfreie Filterung stelle keinen Fortschritt dar? Na, dann tut es auch keine glatten Kanten.
Immer wieder das selbe mit dir...:|
Die Unterschiede liegen schon darin begründet, dass du einen Missstand als User beheben kannst den anderen nicht.
Wenns mal flimmert, AI off und gut ist.
D3D10.1 kannst du nicht einfach so dazuschalten.
Und es geht primär ja nicht um AA, sondern um den Fortschritt allgemein.
Die gelbe Eule
2008-04-25, 21:22:50
Sry Mikbach, die Diskussion ist immer die gleiche, nur es wird ständig eins außer acht gelassen. Nämlich das A.I. optimiert egal ob gleichzeitig zum guten doer zum schlechten, nur A.I. off bringt volle Qualität. Hast ein Benchparcour mit 10 Games wo 5 flimmern, ist er fürn Arsch.
A.I. off kostet sehr viel Leistung und gerade das jedem offen zu zeigen, würde einige Fanbois sehr schmerzen.
Lolman wollte das einem Artikel ausarbeiten, hat Er aber niemals. Keine Zeit gibts nicht, sowas kann man mit Hintergrundwissen in ein paar Tagen hinklatschen, gerade dann wenn man eh weiß was man machen muss.
Wo bleibt eigentlich Dein Artikel dazu? Ist mittlerweile Monate her das wird das mal ausdiskutiert haben. Und nun kommst an wie AI auf ner 38XX aussieht, gibst also unterschwellig zu, daß es auf einer 2XXX genauso beschissen war wie vorher. Tut mir leid, aber Deine subjektive Meinung was ATI generell angeht hat sich um Null Millimeter geändert.
A.I. on flimmert wie Sau, mit off testet auch keine Sau, Beweise bitte endlich das Gegenteil, danke.
Unterschreib.
MikBach
2008-04-25, 21:36:49
A.I. off kostet sehr viel Leistung und gerade das jedem offen zu zeigen, würde einige Fanbois sehr schmerzen.
Du neigst auch zum Pauschalisieren.
Das hängt alles vom Spiel ab.
Wenn die Karte eh wegen mangelnder Shaderleistung verhungert, dann wird das Optimieren des AF auch nichts bringen.
Wiederum hängt das Spiel an der Texelfüllrate, dann kann die Optimierung viel Performance bringen. Man darf es halt nur nicht übertreiben, so dass es sichtbar wird, was leider ab und zu passiert.
naja, vielleicht ändert sich das ja bald, wenn der RV770 32 TMUs haben sollte.
Ich bin wie gesagt auch dafür, dass AMD die Optimierungen trennt.
Macht eine Petition und ich bin dabei! :)
Diese ganze Flimmer geschichte ist doch Bullshit ³, ich hab Triple CF und 3 Way SLi neben mir, mal von der Leistung abgesehen flimmert übehauptnichts bei NV, ok in dem billigen Doom 3 ud NFS Underground aber sonst nicht.
Wo was flimmert ist bei Crysis und das ist bei Nv viel schlimmer wie bei ATI.
Die gelbe Eule
2008-04-25, 21:42:22
Danke für die Anmache @ Gast , liest man so selten hier. Ich hatte die letzten Monate schon genügend ATi Karten, ob onboard oder Desktop und auch damals zur X19XX Zeit wollte Lolman nie was beweisen, nur mit EATM rumprahlen. Falls ich nicht falsch liege, hat Er genau diese Karte immernoch im Rechner und nie einen G80 oder G92 gegengestet.
Du neigst auch zum Pauschalisieren.
Das hängt alles vom Spiel ab.
Wenn die Karte eh wegen mangelnder Shaderleistung verhungert, dann wird das Optimieren des AF auch nichts bringen.
Wiederum hängt das Spiel an der Texelfüllrate, dann kann die Optimierung viel Performance bringen. Man darf es halt nur nicht übertreiben, so dass es sichtbar wird, was leider ab und zu passiert.
naja, vielleicht ändert sich das ja bald, wenn der RV770 32 TMUs haben sollte.
Ich bin wie gesagt auch dafür, dass AMD die Optimierungen trennt.
Macht eine Petition und ich bin dabei! :)
Ich pauschaliseire nichts, kenne es ja selbst von ATi Karten. Und egal ob es vom spiel abhängt, das Flimmern darf man nicht untern Tisch fallen lassen und als "hingenommen" abstempeln. Höchste Qualität ist das nicht, vielleicht bei ATi, aber dann muss man auch mit anderem Maß messen.
MikBach
2008-04-25, 21:55:21
Ich pauschaliseire nichts, kenne es ja selbst von ATi Karten. Und egal ob es vom spiel abhängt, das Flimmern darf man nicht untern Tisch fallen lassen und als "hingenommen" abstempeln. Höchste Qualität ist das nicht, vielleicht bei ATi, aber dann muss man auch mit anderem Maß messen.
Dem stimme ich ja zu, nur wüsste ich nicht, wie man es sonst Benchen sollte.
Vor allem, da du mit AI off auch gute Optimierungen ausschaltest und AFAIK auch z.B Crossfire nicht funktioniert.
Das ist eben das Problem.
Gerecht machen kann man es nicht.
Bei der 6800er ging es damals, da man keine guten Optimierungen ausschaltete.
Die gelbe Eule
2008-04-25, 22:25:04
Das ist kein Problem der Tester, daß ist ein Problem von AMD weil hier beste Qualität vorenthalten wird. Was damals war interessiert doch keinen mehr, dadurch werden aktuelle Karten nicht besser. NV hat vielleicht unter Q auch gute Optimierungen, aber die bleiben immer aus, weil man halt nur HQ nimmt.
MikBach
2008-04-25, 22:57:04
Das ist kein Problem der Tester, daß ist ein Problem von AMD weil hier beste Qualität vorenthalten wird. Was damals war interessiert doch keinen mehr, dadurch werden aktuelle Karten nicht besser. NV hat vielleicht unter Q auch gute Optimierungen, aber die bleiben immer aus, weil man halt nur HQ nimmt.
Wie schon erwähnt, wegen Ausnahmen, kann man doch AMD nicht direkt anmachen.
Und die beste Qualli wird dir ja nicht vorenthalten.
Kannst du einstellen, wenn du willst.
Auf der anderen Seite, wie wäre es, wenn wir nur noch mit Release-Treibern testen und keine Betatreiber nehmen.
Dann würde NV auch alt aussehen.
Man findet immer irgenetwas, that´s life. :)
Und die beste Qualli wird dir ja nicht vorenthalten.
Ja, aber die Ergebnisse, wie lahm AMD dann wäre wird mir vorenthalten. Selbst ohne Optimierungen ist das NV AF besser.
Auf der anderen Seite, wie wäre es, wenn wir nur noch mit Release-Treibern testen und keine Betatreiber nehmen.
Release Treiber? Die mit den ganzen Fehlern?
Betatreiber? Was ist damit? Du konntest bis jetzt kein Fakt liefern, das NVs offiziellen Betas schelcht sind, verwendest diesen Quatsch trotzdem noch.
Aber du nennst dich neutral?
Das ist kein Problem der Tester, daß ist ein Problem von AMD weil hier beste Qualität vorenthalten wird. Was damals war interessiert doch keinen mehr, dadurch werden aktuelle Karten nicht besser. NV hat vielleicht unter Q auch gute Optimierungen, aber die bleiben immer aus, weil man halt nur HQ nimmt.
Der Unterschied zwischen den Ati-"Optimierungen" und den Nvidia-Pendants liegt nicht etwa bei der Qualität, sondern bei ihrer Notwendigkeit. Während eine 32-TMUige GeForce 8 mit etwas füllratenlastigem Glück durch Q zehn Prozent gewinnt, kann ein R5x0 dank A.I. in Worst Cases mehr als doppelt so schnell werden. Wer keine Texelfüllrate hat, muss eben tricksen. Doch das ist alt, breitgetreten und offtopic.
MfG,
Raff
Die gelbe Eule
2008-04-25, 23:15:34
Dann nennt es doch in Zukunft beim Namen in Benchmarks, AMD/ATi hat es nötig zu optimieren, weil es notwendig ist. Und schon fragen sich alle was denn optimiert werden muss und auf welche Kosten. Wenn das alt und breitgetreten ist, dann muss man auch alte Legenden nicht ständig als Entschuldigung für neue heranziehen.
Man könnte auch offen zugeben, das AF Texelfüllrate verschlingt.
Dann wird die AMD Karte halt weitaus weniger FPS raushauen, aber nein nachdem alle Seiten immer mit 16xAF testen, muss AMD demnachgeben.
Ja AMD hat halt wenig TMUs, juckt mich nicht, ich wiel BQ, wenn die Karte dabei zusammenbricht ist sie schlechter.
Ich hab das Flimmern bei CSS und Quake 3 (mit Texturmod) gesehen sonst nicht bei der HD 3850 mit AI Default.
MikBach
2008-04-26, 08:56:02
Release Treiber? Die mit den ganzen Fehlern?
Betatreiber? Was ist damit? Du konntest bis jetzt kein Fakt liefern, das NVs offiziellen Betas schelcht sind, verwendest diesen Quatsch trotzdem noch.
Aber du nennst dich neutral?
Also, was du hier von dir gibst ist echt allerunterste Schublade.
Die Betatreiber sollen besser sein als der Release-Treiber?
Warum heissen sie dann Beta?
Wie schon erwähnt Beta=unfertige Software.
Seltsame Treiberpolitik. ;D
Das hat alles keine Logik, was du hier schreibst.
MikBach
2008-04-26, 09:01:02
Ich hab das Flimmern bei CSS und Quake 3 (mit Texturmod) gesehen sonst nicht bei der HD 3850 mit AI Default.
Dann hast du aber noch nicht viel gesehen...:wink:
Wobei meistes ist es Shaderflimmern, was stört. Das betrifft dann AMD aber genauso wie Nvidia.
Mr. Lolman
2008-04-26, 09:26:31
Dann nennt es doch in Zukunft beim Namen in Benchmarks, AMD/ATi hat es nötig zu optimieren, weil es notwendig ist
Notwendig sind die Optimierungen generell. Sonst wär AF viel zu teuer. Statt 8 Texel/Pixel, werden bis zu 256 Texel/Pixel gesampelt. Interessanterweise, ist bei Spielen wo man die AI-Optimierungen arg sieht, der Gewinn oft garnicht so groß. zB beim Driftrace in NFS-Carbon: Der Boden flimmert vorm Rennstart (übrigens auf jeder GraKa, also auch auf GF8s) sichtbar, mit AI sogar richtig übel - schaltet man AI aus war das Spiel keine 10% langsamer. Bei dem Spiel hilfts übrigens auch, AF bis zum Maximum hochzustellen (Ingame AF enstspricht da quasi auch 16xAF, nur die PCGH hat das damals auf 8xAF getestet).
BTW: Mein Artikel lässt leider noch ein bisschen auf sich warten. Ich bin jobmässig zZ ziemlich indisponiert.
Schlammsau
2008-04-26, 09:27:57
Das ist kein Problem der Tester, daß ist ein Problem von AMD weil hier beste Qualität vorenthalten wird. Was damals war interessiert doch keinen mehr, dadurch werden aktuelle Karten nicht besser. NV hat vielleicht unter Q auch gute Optimierungen, aber die bleiben immer aus, weil man halt nur HQ nimmt.
hier mal die Settings mit denen CB, NV gegen ATI testet.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_asus_radeon_hd_3850_x2/4/#abschnitt_testsystem
Nach sorgfältiger Überlegung und mehrfacher Analyse selbst aufgenommener Spielesequenzen sind wir zu dem Schluss gekommen, dass die Qualität der Texturfilterung auf aktuellen ATi- und Nvidia-Grafikkarten in der Standard-Einstellung in etwa vergleichbar sind (mit leichten Vorteilen für die GeForce-Produkte). Bei Nvidia verändern wir somit keinerlei Einstellungen und im ATi-Treiber belassen wir die A.I.-Funktion auf „Standard“.
Treibereinstellungen: Nvidia-Grafikkarten (G8x, G9x)
Texturfilterung: Qualität
Vertikale Synchronisierung: Aus
MipMaps erzwingen: keine
Trilineare Optimierung: Ein
Anisotrope Muster-Optimierung: Aus
Negativer LOD-Bias: Clamp
Gamma-angepasstes AA: Ein
AA-Modus: 1xAA, 4xAA, 8xQAA
Transparenz AA: Aus
Treibereinstellungen: ATi-Grafikkarten (R(V)6x0)
Catalyst A.I.: Standard
Mipmap Detail Level: High Quality
Wait for vertical refresh: Always off
AA-Modus: 1xAA, 4xAA, 8xAA
Adaptive Anti-Aliasing: Off
nix HQ.......
Also wenn AI aus verglichen werden soll, dann gefälligst auch mit HQ!
Wie schon erwähnt Beta=unfertige Software.
....
Das hat alles keine Logik, was du hier schreibst.
Ich warte noch auf Fakten.
Vom Namen auf etwas zu schliessen ist falsch.
Release Treiber, das sind für mich die Treiber, die mit dem Launch der Karte da sind. Ok?
Die offizielen Beta Treiber sind besser als diese Release. Das ist Fakt.
Also wenn AI aus verglichen werden soll, dann gefälligst auch mit HQ!
Ganz fair wäre es nicht, Q ist optisch bereits mindestens gleichwertig mit AI off.
Dennoch kein Problem, HQ zieht eh kaum Performance.
Ich sehe kein Problem darin mit AI off zu testen. Das CF dann nicht mehr läuft ist kein Argument, erstens AMDs Schuld und zweitens dann testet halt Single GPU Karten.
MikBach
2008-04-26, 10:14:06
hier mal die Settings mit denen CB, NV gegen ATI testet.
...
nix HQ.......
Also wenn AI aus verglichen werden soll, dann gefälligst auch mit HQ!
Mit AI off zu testen ist aber schwachsinn, da du auch die guten Optimierungen wie z.B Shaderreplacement rausnimmst.
Das Einzige, was man machen könnte, wäre, wenn man bei einem Bench/Spiel bemerkt, dass die BQ schlechter ist bei AMD, dann könnte man ja mit AI-off benchen.
Alles andere ist schwachsinn.
Mr. Lolman
2008-04-26, 10:14:23
Ganz fair wäre es nicht, Q ist optisch bereits mindestens gleichwertig mit AI off.
Ganz sicher nicht.
MikBach
2008-04-26, 10:16:56
Ich warte noch auf Fakten.
Vom Namen auf etwas zu schliessen ist falsch.
Release Treiber, das sind für mich die Treiber, die mit dem Launch der Karte da sind. Ok?
Die offizielen Beta Treiber sind besser als diese Release. Das ist Fakt.
Was für Fakten brauchst du denn?
Ich habe einige Jahre selbst programmiert und wenn die Betasoftware besser ist als die Releasesoftware, dann macht der Entwickler etwas falsch.
Das ist Fakt. Punkt.
EOD.
Die gelbe Eule
2008-04-26, 10:23:41
Notwendig sind die Optimierungen generell. Sonst wär AF viel zu teuer. Statt 8 Texel/Pixel, werden bis zu 256 Texel/Pixel gesampelt. Interessanterweise, ist bei Spielen wo man die AI-Optimierungen arg sieht, der Gewinn oft garnicht so groß. zB beim Driftrace in NFS-Carbon: Der Boden flimmert vorm Rennstart (übrigens auf jeder GraKa, also auch auf GF8s) sichtbar, mit AI sogar richtig übel - schaltet man AI aus war das Spiel keine 10% langsamer. Bei dem Spiel hilfts übrigens auch, AF bis zum Maximum hochzustellen (Ingame AF enstspricht da quasi auch 16xAF, nur die PCGH hat das damals auf 8xAF getestet).
BTW: Mein Artikel lässt leider noch ein bisschen auf sich warten. Ich bin jobmässig zZ ziemlich indisponiert.
Tja bei NV ist fast AF umsonst, was machen wir also nun? Und wenn man die Optimierungen sieht, der Gewinn aber gleich null ist, warum nicht gleich aus lassen? Ich kauf mir HighEnd damit ich auch hohe BQ fahren kann und wenn NV bitteschön das geilste AF bietet, dann wird x16 einzementiert.
Und wenn ein Spiel 10% langsamer ist, sieht der Balken nicht mehr so gut aus, sollte man immer bedenken. Quasi AF ist nicht x16 AF, entweder hat man x16 oder eben nicht.
@Mikbach:
NV Beta ist fast nur noch ohne WHQL, halt schneller rauszubringen als aufs OK von MS zu warten. ATi bringt Betas nur wenn der WHQL Kacke war, daß ein Unterschied.
Mr. Lolman
2008-04-26, 10:32:13
Und wenn ein Spiel 10% langsamer ist, sieht der Balken nicht mehr so gut aus, sollte man immer bedenken. Quasi AF ist nicht x16 AF, entweder hat man x16 oder eben nicht.
Mit "quasi" hab ich mir ne Hintertür offen gelassen. Im Grunde genommen ists 16xAF, ich weiss bloß nicht, ob auf irgendwelchen TS (wo mans nicht sieht), vll nicht doch ein niedriger AF-Modus gefahren wird.
Danke für die Anmache @ Gast , liest man so selten hier. Ich hatte die letzten Monate schon genügend ATi Karten, ob onboard oder Desktop und auch damals zur X19XX Zeit wollte Lolman nie was beweisen, nur mit EATM rumprahlen. Falls ich nicht falsch liege, hat Er genau diese Karte immernoch im Rechner und nie einen G80 oder G92 gegengestet.
Du liegst aber falsch. Ich hab schon längst nen G84 getestet (sitze bis zu 10h/Tag vor einem) und die X1900XTX nicht mehr im Rechner...
Gast Hitcher
2008-04-26, 10:58:30
zumindest ist bei den getesteten Spielen der Leistungsgewinn gegenüber einer einzelnen HD3850 512MB nicht übel. (fast 2x)
Gast hitcher
2008-04-26, 11:23:04
treten auf einem Intel System eigentlich eher Mikroruckler auf als auf einem AM2+ System?
Mr. Lolman
2008-04-26, 12:27:26
Das sind dann Optimierungen die keiner sieht, aber trotzdem den Benchmark verfälschen. Ohne A.I. on kann der Treiber das nicht, also bleibt das Ergebnis wenigstens durchgehend echt, egal ob nun langsamer. Und uns kommt es doch auf die Echtheit an, gerade als 200€ Kunde.
Ich rede von Ingame-AF. Wenn die App auf ner bestimmten TS weniger als 16xAF fordert, wird das Ergebnis doch nicht verfälscht. Außerdem wird beim AIoff auch optimiert. Genauso wie beim HQ-AF. Jedes AF was man heutzutage zu Gesicht bekommt ist in irgendeiner Weise optimiert. Die einzige Frage, die offen bleibt, ist, wie stark optimiert wird. Und hinsichtlich dessen fällt es mittlerweile schwer eindeutige Aussagen zu treffen, da das von App zu App völlig unterschiedlich sein kann (je nach dem, was der Texturinhalt erlaubt). Um die Aussage zu verdeutlichen kann man sich folgendes Extrembeispiel vorstellen: Bei ner komplett einfärbigen Textur, kann man zB auf jegliches Filtering verzichten, ohne dass es auffallen würde ;)
Gast hitcher
2008-04-26, 12:44:48
der hintere Teil der Platine ist wohl nur für die Spannungsversorgung nötig, verlängert die Karte aber um 1/3.
Besser Platz hätte eine solche Monsterkarte in engen Gehäusen wohl, wenn man die Spannungsversorgung auf eine eigene Platine auslagern würde,
und die in einen 5 1/4" Laufwerksschacht unterbringt.
Wäre auch von Vorteil, da oft nur ein Bauteil der Spannungsversorgung eingeht,
dh. man könnte diese Platine extra tauschen.
anddill
2008-04-27, 10:58:05
Die NV-Treiberdiskussion ist hier gelandet:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=413518
gamingforce
2008-04-27, 14:08:28
wer sagt NV hat besseres AF als ATI der brauch ne Brille und das ganz derbe:rolleyes:
Hier TDU 1920x1200 4xAA 16xAF HQ Im Treiber (8800GTS 512 MB SLI)
Das ist ein flimmerwald auf der Strasse vor mir was mit einer X2 nicht ist und besseres AF hat, zwar 10 FPS webiger aber das Bild ist von der ATI deutlich besser.
auf dem Screen sieht das nicht so krass aus, wenn man spieltist es viel schlimmer ;((PNG Bild)
http://www.abload.de/thumb/testdriveunlimited20on4.png (http://www.abload.de/image.php?img=testdriveunlimited20on4.png)
Da hast du nicht mal AA aktiviert.
=Floi=
2008-04-27, 14:15:24
schalt mal clamp zulassen an
gamingforce
2008-04-27, 14:15:36
:|
Brille aufsetzen bitte.
schalt mal clamp zulassen an
ok werds ma Probieren.
Brille aufsetzen bitte
Ich seh deutliche Kanten AA ist nicht aktiviert.
gamingforce
2008-04-27, 14:19:54
wie wäre es mal wenn du aufs Bild drauf klickst;D
gamingforce
2008-04-27, 14:21:34
schalt mal clamp zulassen an
mhhh welcher Einstellung soll das sein im Treiber?
http://www.abload.de/img/unbenanntrqz.jpg (http://www.abload.de/image.php?img=unbenanntrqz.jpg)
LovesuckZ
2008-04-27, 14:26:54
Der letzte Punkt: "Texture filtering - Negative LOD bias"
gamingforce
2008-04-27, 14:39:52
gut ist ein kleines bissel besser geworden, flimmer aber trotzdem noch :(
http://www.abload.de/thumb/88o7wr.bmp (http://www.abload.de/image.php?img=88o7wr.bmp)
wie wäre es mal wenn du aufs Bild drauf klickst;DHabe ich, guck dir das Auto, die Bürgersteige, die Laterne rechts oder die Bodenmarkierung genauer an.
Da wurde null geglättet.
Die Häuser sind schwer zu beurteilen, stehen günstigerweise senkrecht.
gut ist ein kleines bissel besser geworden, flimmer aber trotzdem noch :(
http://www.abload.de/thumb/88o7wr.bmp (http://www.abload.de/image.php?img=88o7wr.bmp)
Das Tool nHancer installieren und Supersampling(-Hybrid)-AA anmachen, dann flimmert sicher nichts mehr. Wobei mir das Gefussel auf dem Bild schon schwer suspekt ist ... das sah zum Release des Spiels nicht so aus, sondern gut.
MfG,
Raff
gamingforce
2008-04-27, 16:44:40
mhhh, ist aber nicht sinn und zweck der Sache, ich stell das ein was vom Treiber angeboten wird das mit (Hybrid AA) das Bild besser ist war und ist klar, aber Standard was man im Treiber einstellen kann ist Nvidia schlechter wie die ATI wie es aussah als das Spiel raus gekommen ist kann ich nicht sagen, aber jetzt mit dem Treiber (174.74) ist das Bild schlechter wie bei ATI.
Gut das erkennt man nur wenn man auf jeden mist achtet aber trotzdem.
Habe ich, guck dir das Auto, die Bürgersteige, die Laterne rechts oder die Bodenmarkierung genauer an.
Da wurde null geglättet.
Die Häuser sind schwer zu beurteilen, stehen günstigerweise senkrecht.
Du brauchst ne Brille eindeutig...
Du brauchst ne Brille eindeutig...
Das gibts doch nicht!
Wenn ich Kanten sehe, du nicht, wer kann dann nicht gucken? DU!
Denk doch mal genauer nach.
Edit: Treppen statt Kanten.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.