PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV vs. Ati, AA, AF, Grieseln -> die aktuelle Filterdiskussion


Seiten : 1 2 3 [4] 5 6 7

Jake Dunn
2009-05-17, 20:34:56
Was sagen eigentlich die r600 Käufer? :biggrin:

Kann ICH dir sagen die wurde im Nov.07 für gutes Geld (250€) vertickt und eine 8800GT wurde gekauft :rolleyes: [die nach nichtmal 3h das fliegen lernte ;D (Details erspare ich mir an der Stelle)]



Und bevor jetzt wieder kommt " bla nicht flüssig bla" - mit 3x3 ists mit einer geOCten GTX285 fast schon passabel spielbar. SLI-Nutzer kommen ergo in den Genuss.

Ich bitte Dich :)

Savay
2009-05-17, 20:35:06
Immer die selbe Leier...immer schön alles runterspielen ;)

jo immer schön runterspielen das die spielehersteller einfach content releasen der zum grausen ist unabhängig davon wie edel oder grottig der AF filtert

...und der IHV solls alles wieder richten? AAA ist schon ein produkt dessen...warum in aktuellen titeln alphatests zum erbrechen gespamt werden kann wohl auch keiner rationell begründen?! :|

sry entweder man beschwert sich über beide seiten der medallie oder lässt es sein...alles andere hat einfach immer den falen beigeschmack einer fanboy argumentation.

Gast
2009-05-17, 20:37:20
sry entweder man beschwert sich über beide seiten der medallie oder lässt es sein...alles andere hat einfach immer den falen beigeschmack einer fanboy argumentation.

Bleiben wir mal realistisch und beim Topic, nur darum gehts.

Dr. Cox
2009-05-17, 20:37:38
Kann ICH dir sagen die wurde im Nov.07 für gutes Geld (250€) vertickt und eine 8800GT wurde gekauft :rolleyes: [die nach nichtmal 3h das fliegen lernte ;D (Details erspare ich mir an der Stelle)]


Nunja, ohne Details kann man sich eine ganze Menge zusammenreimen, wie Z.B. dass du einfach nur die Farbe grün nicht magst... :D

Also wären Details besser ;)



...und der IHV solls alles wieder richten? AAA ist schon ein produkt dessen...warum in aktuellen titeln alphatests zum erbrechen gespamt werden kann wohl auch keiner rationell begründen?! :|

sry entweder man beschwert sich über beide seiten der medallie oder lässt es sein...alles andere hat einfach immer den falen beigeschmack einer fanboy argumentation.

Gute Argumentation ;)

Mich jedenfalls nervt die flimmernde Vegetation in Crysis fast noch schlimmer als flimmernde Texturen. Ich würde sogar lieber Crysis auf mittel spielen, wenn ich dafür mit AA die flimmernde Vegetation glätten könnte. Nur leider ist dies nicht mit einer als flüssig zu bezeichnenden Framerate möglich :(

y33H@
2009-05-17, 20:37:51
@ Dr. Cox

Mit einer übertakteten GTX285 sinds in der Szene mit 3x3 @ 720p @ Enthusiast @ DX9 so 22-27 Fps.
Ich bitte dich.Hmmm? =)

warum in aktuellen titeln alphatests zum erbrechen gespamt werden kann wohl auch keiner rationell begründen?!Willst du das alles aus Polygonen basteln oder wie stellst du dir das vor? Alpha-Tests kosten halt wenig.

Jake Dunn
2009-05-17, 20:42:38
Nunja, ohne Details kann man sich eine ganze Menge zusammenreimen, wie Z.B. dass du einfach nur die Farbe grün nicht magst... :D

Also wären Details besser ;)

Nein ist OT und ich hab nichts gegen Grün ;)




Mit einer übertakteten GTX285 sinds in der Szene mit 3x3 @ 720p @ Enthusiast @ DX9 so 22-27 Fps.


Autsch!


Thx für die Mühen :) der DL geht ja mit 220Kb/s hier

Dr. Cox
2009-05-17, 20:44:29
@ Dr. Cox

Mit einer übertakteten GTX285 sinds in der Szene mit 3x3 @ 720p @ Enthusiast @ DX9 so 22-27 Fps.
Hmmm? =)


Wäre mir persönlich noch zu wenig. Wie viel Frames sind es denn auf gamer?

Gast
2009-05-17, 20:45:30
@ Dr. Cox

Mit einer übertakteten GTX285 sinds in der Szene mit 3x3 @ 720p @ Enthusiast @ DX9 so 22-27 Fps.


Bei Crysis durchaus spielbar, die fühlen sich teilweise besser an als manch andere Games jenseits der 40er Marke.

Jake Dunn
2009-05-17, 20:46:39
Da wir schon bei CRYSIS sind welches AA ist den dieses EdgeAA das es in der CE2 gibt :confused:

IVN
2009-05-17, 20:51:35
Nein ist OT und ich hab nichts gegen Grün ;)




Autsch!


Thx für die Mühen :) der DL geht ja mit 220Kb/s hier
Tjo, das sind nun mal 3840*2160 Pixel.

y33H@
2009-05-17, 20:53:20
@ Jake Dunn

EdgaAA ist imo ein Blurfilter, kein "echtes" AA. Könnte aber auch sowas wie A2C sein, ich weiß es aber nicht.

http://www.tweakguides.com/images/Crysis_EdgeAA.gif


[B]@ Dr. Cox

Mit Gamer sinds in der Szene so 25-31, also kaum mehr. Ist viel bumm bumm, droppts auch mal unter 20 - für Crysis aber nicht ungewöhnlich.

http://www.abload.de/thumb/3x3_gamery0zq.png (http://www.abload.de/image.php?img=3x3_gamery0zq.png)

Grestorn
2009-05-17, 20:53:22
Nein ist OT und ich hab nichts gegen Grün ;)

Wenn alle Deine Aussagen soviel Wahrheitsgehalt haben, wie diese hier...

Bemüh Dich bitte doch bitte mal wenigstens um ein bisschen Objektivität. Eine Firma vorzuziehen ist ja ok, aber man sollte dennoch in der Lage sein, Vor- und Nachteile aller Produkte zu akzeptieren und nicht ständig einseitig zu über- oder untertreiben. Das wirkt dann einfach nur lächerlich... oder wie jemand der virales Marketing betreibt.

reunion
2009-05-17, 20:53:52
Dagegen ist ihre Shaderarchitektur höchst uneffizient, da sie nie richtig ausgelastet werden kann.


Ineffizient bitte. Etwas gut auszulasten ist noch lange nicht effizient.

Savay
2009-05-17, 20:54:38
Willst du das alles aus Polygonen basteln oder wie stellst du dir das vor? Alpha-Tests kosten halt wenig.

in UT2003 waren die ganzen fooliage texturen auch schon alphablending...und das spiel ist eindeutig nicht sonderlich flimmeranfällig (abseits gewisser texturen)

IVN
2009-05-17, 20:55:36
Ineffizient bitte. Etwas gut auszulasten ist noch lange nicht effizient.
Ja, ist es. Das Wort welches du suchst ist "effektiv".

Jake Dunn
2009-05-17, 20:57:08
@ Jake Dunn

EdgaAA ist imo ein Blurfilter, kein "echtes" AA. Könnte aber auch sowas wie A2C sein, ich weiß es aber nicht.


Hmm günstig ist es ja, bringt aber nicht wirklich was :(

y33H@
2009-05-17, 20:58:00
@ Savay

Echt? Tja ... vll weils Konsolen-Ports sind [Fallout 3] oder die Engine halt nur Alpha-Tests kann [Source]?

InsaneDruid
2009-05-17, 20:58:59
Einige (viele?) Engines haben halt auch ihre Probleme bei sich überlappendem Alphablending.

reunion
2009-05-17, 20:59:22
Ja, ist es. Das Wort welches du suchst ist "effektiv".

Nein. Leistung/Transistor ist Effizienz, Leistung/Watt ist Effizienz. Wieviele Einheiten ich für etwas benötige ist vollkommen gleichgültig. NVs Herangehensweise ist vielleicht effektiver, aber mitnichtern effizienter.

Jake Dunn
2009-05-17, 21:03:49
Wenn alle Deine Aussagen soviel Wahrheitsgehalt haben, wie diese hier...

Willst Du behaupten das ich lüge? :|



Bemüh Dich bitte doch bitte mal wenigstens um ein bisschen Objektivität. Eine Firma vorzuziehen ist ja ok, aber man sollte dennoch in der Lage sein, Vor- und Nachteile aller Produkte zu akzeptieren und nicht ständig einseitig zu über- oder untertreiben. Das wirkt dann einfach nur lächerlich... oder wie jemand der virales Marketing betreibt.

Bsp.?

Muß aber sagen mit sowas hätte ich von Dir nicht gerechnet.

Gast
2009-05-17, 21:11:05
Willst Du behaupten das ich lüge? :|

Bist doch meist immer einer der ersten der Nvidia Produkte schlecht redet und gleichermaßen in Ati Threads über alle Schwächen hinwegsiehst. So abwägig ist Grestorns Aussage nämlich nicht.

IVN
2009-05-17, 21:11:11
Nein. Leistung/Transistor ist Effizienz, Leistung/Watt ist Effizienz. Wieviele Einheiten ich für etwas benötige ist vollkommen gleichgültig. NVs Herangehensweise ist vielleicht effektiver, aber mitnichtern effizienter.
Meine Antwort war auf deine abstrakte Aussage bezogen, und nicht auf etwas konkretes, wie z.B. NV's aktuelle Architektur.

Etwas gut auszulasten ist noch lange nicht effizient.

Abstrakt betrachtet ist das Effizienz.

Gast
2009-05-17, 21:12:21
Ich habe die 600€ für die 8800GTX nicht bereuht.

Aber vielleicht bereut.

Dr. Cox
2009-05-17, 21:17:16
Wenn alle Deine Aussagen soviel Wahrheitsgehalt haben, wie diese hier...

Bemüh Dich bitte doch bitte mal wenigstens um ein bisschen Objektivität. Eine Firma vorzuziehen ist ja ok, aber man sollte dennoch in der Lage sein, Vor- und Nachteile aller Produkte zu akzeptieren und nicht ständig einseitig zu über- oder untertreiben. Das wirkt dann einfach nur lächerlich... oder wie jemand der virales Marketing betreibt.

Ich gleiche meine Kommentare nur denen an, auf welche ich antworte. Wenn diese einen leichten unobjektiven "touch" haben, haben es meine Antworten darauf genauso!

Wenn du mal meine Beiträge aus dem PCGH-Forum liest, wirst du sehen dass deine Zweifel was meine Objektivität betreffen absolut unbegründet sind ;)

y33H@
2009-05-17, 21:35:32
@ Dr. Cox

Das ging nicht gegen dich, sondern [imo zu Recht] gegen Jake Dunn.

Dr. Cox
2009-05-17, 22:17:14
@ Dr. Cox

Das ging nicht gegen dich, sondern [imo zu Recht] gegen Jake Dunn.

Achso, als ich darauf geantwortet habe, stand ein Zitat von mir in Grestorn seinem Posting ;)

Lawmachine79
2009-05-18, 00:51:42
Willst Du behaupten das ich lüge? :|




Bsp.?

Muß aber sagen mit sowas hätte ich von Dir nicht gerechnet.
Aber von mir bestimmt, ich schließe mich dem nämlich an. Im ATI-Subforum bist Du ja durchaus eine Hilfe, aber mit Deiner Herangehensweise hier nicht gerade. Teilweise fragt man sich echt, wie Schwarz-auf-Weiß Du etwas sehen musst, um es anzuerkennen. Wie gesagt, ich bin auch "Fan" von bestimmten Firmen; ich würde mir nie eine Intel-CPU kaufen aber dennoch kann ich anerkennen, daß sie im Moment die schnellste CPU anbieten (BQ bei CPUs gibt es ja nicht).

Gast
2009-05-18, 01:32:12
[B]Crysis mit 16:1 HQ-AF und 4x4 SSAA (http://www.megaupload.com/?d=QR61RRQR) - gerade im direkten Vergleich zu "banalem" 4x MSAA sehr eindrucksvoll, besonders die Vegetation.

Meine Beurteilung nach mehreren Stunden Download:

AI default = ganz furchtbar zwei Bandinglinien, insgesamt wird das Bild total flimmrig
AI off würde ich mit NV Quality gleichsetzen= akzeptabel
NV HQ spielt qualitativ deutlich in einer ganz anderen Liga ;)

Banshee18
2009-05-18, 03:35:12
jo immer schön runterspielen das die spielehersteller einfach content releasen der zum grausen ist unabhängig davon wie edel oder grottig der AF filtert

...und der IHV solls alles wieder richten? AAA ist schon ein produkt dessen...warum in aktuellen titeln alphatests zum erbrechen gespamt werden kann wohl auch keiner rationell begründen?! :|

sry entweder man beschwert sich über beide seiten der medallie oder lässt es sein...alles andere hat einfach immer den falen beigeschmack einer fanboy argumentation.
Meine Güte! Das eine hat mit dem anderen überhaupt nix zu tun.
Hmm günstig ist es ja, bringt aber nicht wirklich was :(
Für die Vegetation ist es imho ganz nett. Schade, dass es nicht zusammen mit AA funktioniert.

Frank1974
2009-05-18, 06:08:06
Ich hatte 2005 eine 7800GTX, die Filterung war so schlecht im Vergleich zu meiner 6800GT, das ich hier erst als Gast Videos gepostet habe und die 7800GTX als schlechte Wahl bezeichnet habe, die ATi-User in dem Forum hier würden sowas nie zugeben, ich aber schon weil ich neutral bin, wo die 1900XT kam, habe ich sofort gewechselt.

Schade das ich die Videos nicht mehr habe, die 7800GTX war auf HQ noch schlechter als meine 6800GT auf Q.

Aber nun zu diesem Thema, ich habe mir wieder die selbe HL2 Stelle ausgesucht, die werde ich auch niemals vergessen, bei der Qualität der 7800GTX auch kein Wunder;D

Ich habe mit meiner GTX295 jetzt 4 verschiedene Qualitätseinstellungen getestet, ist nur 2-3sek. das Video, aber man sieht die Unterschiede sofort, schade das ich keine ATI zum vergleichen habe.

HL2 ohne Mod
Einstellung 1680x1050, 4xAA, 16xAF

Einstellung 1: noch unter der default Einstellung
Filterung = Oualität
Trilineare Optimierung = An
Optimiertes anisotropes Sampeln = An
Negativer LOD BIAS = zulassen
http://www.megaupload.com/?d=0XV0BHRG

Einstellung 2: default
Filterung = Oualität
Trilineare Optimierung = An
Optimiertes anisotropes Sampeln = Aus
Negativer LOD BIAS = zulassen
http://www.megaupload.com/?d=7YPRCMOL

Einstellung 3: Q ohne Optimierungen
Filterung = Oualität
Trilineare Optimierung = Aus
Optimiertes anisotropes Sampeln = Aus
Negativer LOD BIAS = verhindern
http://www.megaupload.com/?d=99RLIB28

Einstellung 4: HQ
Filterung = Hohe Oualität
Trilineare Optimierung = Aus
Optimiertes anisotropes Sampeln = Aus
Negativer LOD BIAS = verhindern
http://www.megaupload.com/?d=Z27F2IP0

Einstellung 1 ist etwa die Qualität die ich mit meiner 7800GTX auf HQ hatte, vielleicht in einem etwas anderen Flimmermuster, aber es kommt dem am nächsten.

Die Einstellung Optimiertes anisotropes Sampeln ist für die schlechte Qualität im ersten Video verantwortlich.

Bei Einstellung 2 flimmert es noch ein wenig, im vorderen Bereich.

Bei 3 und 4 ist es aber sehr gut meiner Meinung nach, ein ATI Vergleichsvideos hätte ich gerne von y33H@ oder Raff, ich habe jetzt schon lange keine ATI Karte mehr, kann ja sein das diese Stelle bei ATI genauso gut gefiltert wird.

Hier das Savegame -> http://www.megaupload.com/?d=5DBRDZ55

Savegame laden Fraps starten, aber 2-3sec stehen bleiben bevor man los geht, kann man später mit einem Videoprogramm entfernen.

Meine Videos sind mit H264 auf sehr hoher Qualität komprimiert.

Und immer im Vollbild anschauen, am besten sogar in Zeitlupe.

Für die Leute die den Spieleentwicklern die Schuld geben, siehe mein erstes Video, da dreht nur Nvidia an der BQ, man sieht auf HQ wie es sein sollte.
Durch solche Tricks sparen NV und ATI, naja Nvidia macht sowas im Moment nicht, bei ATI weiß ich es nicht, deshalb bleibe ich auch neutral, ohne ATI Vergleich kann ich ja auch nichts sagen.

Vielleicht mache ich von anderen Games auch mal ein paar Videos, bei NV gibt es auch mal Stellen die leicht flimmern(kein Shaderflimmern), aber normal lasse ich nur Benchmarks laufen, Videos sind doch noch aufwendiger.

mfg
Frank

ROXY
2009-05-18, 06:54:54
das einzige dies zur zeit für nvidia spricht ist physix

in allen anderen bereichen nimmt sich ATI und NV zur zeit weder technisch noch preis/leistungsmässig nicht viel.
ein stetiges kopf an kopf rennen mit regelmässigen updates.

solange keine neuen GPUs da sind bleiben beide gleich auf.

ps.: was bringen ultra high quality einstellungen wenn die frames dann total im keller sind und man den unterschied bestenfalls bei standbildern deutlich erkennen kann?

Lightning
2009-05-18, 08:57:39
das einzige dies zur zeit für nvidia spricht ist physix

in allen anderen bereichen nimmt sich ATI und NV zur zeit weder technisch noch preis/leistungsmässig nicht viel.
ein stetiges kopf an kopf rennen mit regelmässigen updates.

solange keine neuen GPUs da sind bleiben beide gleich auf.

Es geht hier nicht um Einschätzungen, wie gut oder schlecht Nvidia und ATi am Markt positioniert sind. Es geht ausschließlich um die Bildqualität, speziell ums Flimmern.

ps.: was bringen ultra high quality einstellungen wenn die frames dann total im keller sind und man den unterschied bestenfalls bei standbildern deutlich erkennen kann?

Das wurde nun schon hundertmal durchgekaut. HQ kostet nur mäßig Performance, und der Unterschied ist kaum im Standbild, sondern vor allem in Bewegung zu erkennen.


@ y33H@:
Wenn ich frech wäre, würde ich jetzt "mehr davon!" schreien. :D
Im ernst: Vielen Dank für deine Mühen, die Videos fand ich interessant.

y33H@
2009-05-18, 10:12:56
@ Lightning

Work in Progress. Lasst mir mal 2-3 Wochen ... Coda braucht ja auch noch ;D

V2.0
2009-05-18, 11:04:39
Ich hatte am Wochenende mal Zeit mir im privaten Rechner ne 4890 zu installieren. Laut ist sie im Vergleich zur gewohnten 8800 + Zlamn VF900, aber sie hat halt auch ne andere Lesitung.

Leistung beiseite, muss ich zugeben, dass es je nach Anwendung schon differenziertere Unterscheide gibt. L4D fiel mir relativ unangenehm auf. Da ist das HQ Bild bei NV deutlich ruhiger. (Ich spiele nur HQ)

Letztlich fällt es beim Spielen selber kaum auf, aber ich muss doch zugegebn, dass es, wenn man weiss auf was man achten muss, augenfällig ist. Allerdings wer wechselt schon zwsichen NV und ATI hin und her. Daher verstehe ich auch ATI Nutzer, die den Unterschied nicht sehen können.

Savay
2009-05-18, 11:36:25
Meine Güte! Das eine hat mit dem anderen überhaupt nix zu tun.

stimmt...der AF ist ja auch kein BQ feature...

was nützt mir nen perfekter AF wenn die 10-15% bildschirmanteil die NICHT durch alphatest fooliage verdeckt werden auch noch zur hälfte mit 500 shader instruktionen in form von schatten, bump-, specular- und sonstwasfürmaps überdeckt werden.

suuuper ich hab nen perfekten AF aber der rest flimmert trotzdem noch wie bescheuert? da hab ich ja enorm viel gewonnen... :rolleyes:

tut mir echt leid...nen toller AF in ehren aber wenn ich spiele wie crysis, WoW, Fallout und co. ansehe muss ich echt sagen das das nVidische HQ AF nicht übermäßig hoch auf meiner prioritäten liste steht und ich dann doch eher wie bisher primär nach performance/€ kaufe...zumal in künftigen titeln irgendwie keine kehrtwende zu erkennen ist was flimmercontent angeht :)

h'lore
2009-05-18, 11:46:14
das einzige dies zur zeit für nvidia spricht ist physix

in allen anderen bereichen nimmt sich ATI und NV zur zeit weder technisch noch preis/leistungsmässig nicht viel.Wie bitte? Im Vergleich mit der Bildqualitäts-Geschichte stellt die PhysX-Sache in meinen Augen lediglich einen recht unbedeutenden Vorteil für Nvidia-Produkte dar. Würden sich die beiden IHVs in diesem Punkt tatsächlich nichts nehmen, wie du es behauptest, gäbe es wohl kaum Threads wie diesen. Der miese Texturfilter in Kombination mit dem Bevormunden der Anwender ist Grund #1 für das Nichtinfragekommen von ATI-Produkten bei meiner Kaufentscheidung. Ich bin da garantiert nicht der einzige, auch wenn es den gemeinen Mediamarkt-DAU wohl weniger interessieren mag.

Die Argumentation, dass das Bescheißen bei der Texturfilterung ja eine ganz tolle Leistung seitens ATI sei, da man so massiv Balkenlänge gewinnen kann, zählt imho ganz und gar nicht. Wäre es das, könnte man es abschalten. Außerdem: wenn mir die Leistung bei 16x AF nicht ausreichend ist, gehe ich halt auf 8x oder 4x runter. Wo ist das Problem? Sauberes 4x oder 8x AF sieht meilenweit besser aus, als die aktuellen Sauerein bei ATI, die sich "16x" schimpfen.sry entweder man beschwert sich über beide seiten der medallie oder lässt es sein...alles andere hat einfach immer den falen beigeschmack einer fanboy argumentation.Wie soll man das verstehen? In diesem Thread geht es um die Filtercheats seitens der IHVs und nicht um etwaige Untaten von Softwareentwicklern. Wieso bitte sollte man einen Grafikkartenhersteller nicht kritisieren dürfen, ohne auch auf teilweise schlechten Content in einem Spiel hinweisen zu müssen? Es gibt übrigens auch Spiele mit gutem Content, der nicht zwangsläufig zum Flimmern neigt und auch dort wird man mit ATIs Sparfilter konfrontiert.

Wenn ich jemanden dabei erwische, wie er mir die Geldbörse klauen möchte, soll ich ihn also mit Samthandschuhen anfassen, nur weil gleichzeitig draußen noch irgendwo ein Bankräuber frei rumläuft? Das ist doch Humbug. Der Besitzer der Geldbörse hat mit dem Bankräuber doch gar nichts am Hut, genausowenig wie ein Besitzer einer ATI-Karte nicht zwangsläufig Spiele mit Flimmercontent besitzen muss. Und selbst wenn, würden auch diese Spiele mit einer NV-Karte zur Zeit deutlich besser aussehen.

Savay
2009-05-18, 11:59:50
genau...weil die qualität des AF ja auch so losgelöst ist von dem gesamtergebniss das auf den bildschirm gezaubert wird.

es kann ja gerne soviel auf den filter"cheats" rumgehackt werden wie die leute hier energie dafür aufbringen...aber letztlich ist und bleibt es ein tropfen auf dem heißen stein.

nur weil das gesamtbild später ein bisschen weniger schei*e aussieht ist es deswegen noch lange nicht toll vorallem da mir in letzter zeit immer mehr titel unterkommen die einfach per se zum flimmern neigen ohne das auch nur irgend ein BQ feature dort wirklich greifen würde.

SSAA wäre die lösung...aber dafür ist im grunde keine karte durchgehend schnell genug für. warum nutzen die IHVs eigentlich SLI und CF nicht um spezielle SSAA modi anzubieten?

h'lore
2009-05-18, 12:04:41
Wie gesagt, es spielen nunmal nicht alle Leute die gleichen Spiele. Es gibt gar nicht mal so wenige Spiele ohne Flimmercontent. Mit anständigem Texturfilter sieht das dann alles andere als "scheiße" aus. Du kannst es doch nicht gutheißen, dass ein Käufer einer 4890 hier mit einem schlechteren Bild leben muss, als es ein Besitzer einer 70-€-Nvidia-Karte zu sehen bekommt, oder?
SSAA wäre die lösung...aber dafür ist im grunde keine karte durchgehend schnell genug für. warum nutzen die IHVs eigentlich SLI und CF nicht um spezielle SSAA modi anzubieten?Weil sich der 08/15-Dau nicht für Bildqualität, sondern nur für Balkenlänge interessiert. Aktuelle Grafikkarte-Tests in Online- oder Printmagazinen führen auch nicht gerade dazu, dass sich dies ändert. Das Herunterspielen der aktuellen Filterbetrügereien bei ATI ebenfalls nicht.

Einen miesen Texturfilter mit Supersampling zu bekämpfen ist übrigens alles andere als effizient. In erster Linie ist es aber auch unnötig, da man ja auch einen optimalen Texturfilter und SSAA haben kann, wie es heutige Nvidia-Produkte beweisen.

Savay
2009-05-18, 12:09:46
"gutheißen", "betrügen" du tust ja grade so als ob die leute gezwungen sind eine ATi zu kaufen und irgendwo falsche tatsachen vorgespielt werden! ;D
es gibt keine norm für die AF qualität und ATI behauptet nirgends den besten AF anzubieten.
wer sich mit dem thema beschäftigt kann ganz einfach herrausfinden das nV die nominell höhere BQ liefern kann

ganz ehrlich ich habe BEWUSST eine ATI gekauft obwohl ich WEISS das sie schlechter filtert und ich hab auch den vergleich zu einer nV karte.

MIR reicht die gebotene filterqualität in 99% der fälle aus da ich mich im vergleich zur vorgängerkarte faktisch nicht verschlechtert habe! vorallem angesichts dessen das man sowieso dauernd mit flimmercontent konfrontiert wird, kaufe ich doch gleich lieber nach FPS/€.

ob das bild nun minimal mehr flimmert weil der AF nicht 100% optimal arbeitet fällt bald auch kaum noch ins gewicht. also entweder ganz oder garnicht...alles andere hat keinen sinn. ein bisschen weniger scheiße bleibt halt trotzdem noch scheiße...und da ist ein ganzheitlicher ansatz gefragt der auch vor den spieleentwicklern nicht halt macht wie ich finde

wenn mich das zu einem mediamarkt-DAU stempelt...bitte dann sei es halt so.

Gast
2009-05-18, 12:10:55
genau...weil die qualität des AF ja auch so losgelöst ist von dem gesamtergebniss das auf den bildschirm gezaubert wird.

Wenn dich das Thema nicht interessiert oder du aufgrund emotionaler Bindungen an deine Computerhardware nicht zulassen kannst, dass das Thema für sich betrachtet und nüchtern diskutiert wird, geh weg und lebe deinen Traum.

Das Problem in Abrede stellen ist aber eine Frechheit. Das Problem wird auch nicht durch andere Schweinereien überdeckt, die bestehen nebeneinander (tatsächlich basieren sogar weiterführende Shaderberechnungen auf den Filterergebnissen) und hier geht es eben um diesen einen konkreten Problembereich: Anisotroper Filter

h'lore
2009-05-18, 12:15:40
ganz ehrlich ich habe BEWUSST eine ATI gekauft obwohl ich WEISS das sie schlechter filtert und ich hab auch den vergleich zu einer nV karte.

MIR reicht die gebotene filterqualität in 99% der fälle ausNa dann ist ja (für dich) alles in Ordnung. Aber nur weil du dich auch mit minderwertiger Filterung zufrieden gibst, ist das längst kein Grund, andere Leute, die diesen Umstand als Manko ansehen, als "Fanboy" zu bezeichnen.

Natürlich ist niemand dazu gezwungen, ATI-Produkte zu kaufen. Damit aber jeder in der Lage ist, seine Kaufentscheidung ebenso bewusst zu fällen, muss der Umstand der minderwertigen Filterung dem potentiellen Käufer auch bekannt sein. Dazu muss man diesen auch ansprechen können, ohne dass du und andere Leute versuchen, das Problem klein zu reden.

Savay
2009-05-18, 12:27:46
Na dann ist ja (für dich) alles in Ordnung. Aber nur weil du dich auch mit minderwertiger Filterung zufrieden gibst, ist das längst kein Grund, andere Leute, die diesen Umstand als Manko ansehen, als "Fanboy" zu bezeichnen.


ok lies meine beiträge nochmal, versuche sie zu verstehen und den begriff "fanboy" im zusammenhang mit teilnehmern zu finden. :P

Wenn dich das Thema nicht interessiert oder du aufgrund emotionaler Bindungen an deine Computerhardware nicht zulassen kannst, dass das Thema für sich betrachtet und nüchtern diskutiert wird, geh weg und lebe deinen Traum.

oh jetzt kommt schon nen gast und will mir eine emotionale bindung unterstellen...das forum wird immer drolliger!?! :uclap:

die einzige emotionale bindung die ich habe besteht zu meinen eltern, freunden und (in diesem fall relevant) zu meinem girokonto :rolleyes:


Das Problem in Abrede stellen ist aber eine Frechheit. Das Problem wird auch nicht durch andere Schweinereien überdeckt, die bestehen nebeneinander (tatsächlich basieren sogar weiterführende Shaderberechnungen auf den Filterergebnissen) und hier geht es eben um diesen einen konkreten Problembereich: Anisotroper Filter

tatsache...die berechnungen basieren auf den filterergebnissen? soso warum greift dann das AF LoD nicht bei shadern? :rolleyes: gibt es also doch das ominöse shader LoD das hier ab und an mal gerne diskutiert und gefordert wird...dann muss ich Coda wohl gänzlich missverstanden haben.

h'lore
2009-05-18, 12:34:58
Worauf zielt #752 denn sonst ab?sry entweder man beschwert sich über beide seiten der medallie oder lässt es sein...alles andere hat einfach immer den falen beigeschmack einer fanboy argumentation.Niemand will das Problem des teilweise suboptimalen Contents in Spielen herunterspielen (wie du es in diesem Beitrag dem nicht registrierten Gast unterstellst), es hat nur einfach nichts mit diesem Thread zu tun.

y33H@
2009-05-18, 12:36:23
Daher verstehe ich auch ATI Nutzer, die den Unterschied nicht sehen können.Nun, ohne Vergleich ist das auch nicht möglich. Was man nicht kennt, vermisst man nicht. Die Reviewer aber sollten den Unterschied erkennen und auch benennen bzw. kritisieren.

@ Savayweil die qualität des AF ja auch so losgelöst ist von dem gesamtergebniss das auf den bildschirm gezaubert wirdKorrekt. Hier gehts rein ums AF und nicht das drumherum. Wenn du das nicht kapierst, lass es sein.

Savay
2009-05-18, 12:40:18
nun wenn meine meinung nicht erwünscht ist dann lasse ich es dir zuliebe gerne sein auch wenn "grieseln" ein doch sehr weit gefasster begriff ist. :rolleyes:

Worauf zielt #752 denn sonst ab?Niemand will das Problem des teilweise suboptimalen Contents in Spielen herunterspielen (wie du es in diesem Beitrag dem nicht registrierten Gast unterstellst), es hat nur einfach nichts mit diesem Thread zu tun.

dann zitiere auch den gast...darauf hinzuweisen das der einfluss des AF flimmerns am gesamtbild in vielen titeln einfach nur noch den kleinsten anteil am gesamtflimmern hat ist irrelevant und darf nicht erwähnt werden? :rolleyes:

es geht um die verhältnissmäßigkeit der diskussion um nichts sonst.

nebenbei bestreite ich nirgends das die ATIs schlechter filtern..hier redet niemand das AF problem kleiner als es ist. :P

pest
2009-05-18, 12:40:22
ob das bild nun minimal mehr flimmert weil der AF nicht 100% optimal arbeitet fällt bald auch kaum noch ins gewicht. also entweder ganz oder garnicht...alles andere hat keinen sinn. ein bisschen weniger scheiße bleibt halt trotzdem noch scheiße...und da ist ein ganzheitlicher ansatz gefragt der auch vor den spieleentwicklern nicht halt macht wie ich finde


word

Raff
2009-05-18, 12:49:39
Alles der Reihe nach. Filtern beide Hersteller absolut regelkonform, ist ein Teil des Flimmerns schon weg. Die Spielentwickler werden immer Verbrechen begehen, solange Microsoft in Direct3D keine Reglementierungen für Frequenzen/Amplituden einbaut ... wie auch immer das genau gehen soll. Besser wäre noch, wenn MS (am besten noch für D3D11) festlegt, wieviele Samples beim AF zum Einsatz kommen müssen, damit sich eine Karte API-konform nennen darf.

Jeder, der anderen den Wunsch nach besserer BQ madig macht, sollte sich erst mal fragen, welche Nachteile er davon hätte. Fakt ist, dass hier immer die tolle Geschwindigkeit der Radeons gelobt wird, dabei aber kaum zur Sprache kommt, womit das erkauft wird. Das ist inkonsequent. Die Fps sind nur ein Teil von "Leistung".

MfG,
Raff

N0Thing
2009-05-18, 12:51:44
nur weil das gesamtbild später ein bisschen weniger schei*e aussieht ist es deswegen noch lange nicht toll vorallem da mir in letzter zeit immer mehr titel unterkommen die einfach per se zum flimmern neigen ohne das auch nur irgend ein BQ feature dort wirklich greifen würde.

Es ist aber schön, wenn man sich selber aussuchen kann, ob man weniger Scheiße bekommt, wenn man so will. Wenn ich schon den Kontent nicht ohne Flimmern bekomme, dann doch wenigstens nicht noch mehr vermeidbares Flimmern.

Was du diskutieren willst gehört in einen Thread, der sich um die allgemeine Bildqualität in aktuellen Spielen dreht.

Savay
2009-05-18, 12:53:48
Es ist aber schön, wenn man sich selber aussuchen kann, ob man weniger Scheiße bekommt, wenn man so will.

naja die wahl hat der geneigte käufer ja...er kann sich bewusst entscheiden ob er nach FPS/€ kauft und ihm die qualität ausreicht oder er nach BQ/€ geht. :smile:

Filtern beide Hersteller absolut regelkonform, ist ein Teil des Flimmerns schon weg.

es gibt nur keine regel, keine DIN und auch keine ISO norm für "richtigen" AF also filtern sie alle regelkonform ;)

Besser wäre noch, wenn MS (am besten noch für D3D11) festlegt, wieviele Samples beim AF zum Einsatz kommen müssen, damit sich eine Karte API-konform nennen darf.

qft da habe ich nun überhaupt nichts gegen einzuwenden dann wären wir die leidige diskussion auch endlich los

V2.0
2009-05-18, 13:25:32
Man darf aber auch nicht vergessen, dass das mit externen Tool erreichbare SSAA der NV Karten nochmal eine erhebliche Beruhigung des Bildes ermöglicht, auch wenn dies stark auf die Leistung geht und leider nicht mit dem Treiber aktivierbar ist. (Hallo NV das bitte ändern)

Frank1974
2009-05-18, 13:32:09
word

Sehe ich nicht so, ich habe immer einen fast aktuellen PC(GTX295, Q9650) bei Spielen hänge ich aber 6-12 Monate hinter den neuen Games(ich benche einfach zuviel:redface:).

Wenn ich aber spiele, dann vor allem Rollenspiele(Gothic3, Fallout3, Oblivion, Witcher usw) aber auch Spiele aus anderen Kategorien, mit 16xS oder 3x3SSAA wird bei diesen Games alles geglättet, bei Witcher hat man durch eine Einstellung auch kein Blurr, durch den Supersamplinganteil wird das AF noch erweitert, eine 4870x2 oder 2x4890 würden mir das nicht bieten, flimmern würde das gesamte Bild und ob die Bäume flimmern oder man am Boden eine hässliche Welle hat, ist für mich immer noch ein kleiner Unterschied, NV hat wenigsten den ersten Schritt gemacht, der zweite wäre, das man das Shaderflimmern in den Griff bekommt, ohne das es zu viel Leistung kostet.

Ich weiß nicht wie schlimm die Filterung bei ATI wirklich ist, ich kann nur danach gehen was y33H@, Raff und andere berichten, wenn das aber stimmt, hat ATI nicht mal den ersten Schritt gemacht.

Ich würde mir auch lieber eine oder zwei günstige HD4890 kaufen, wenn sie wenigstens Supersampling hätten, ich schmeiße mein Geld auch nicht gerne aus dem Fenster(500€ GTX280, 415€ GTX295:mad:), aber die Features die ich bevorzuge, bieten mir die ATI Karten im Moment nicht, die Filterung ist da noch das kleinste Problem.

mfg
Frank

N0Thing
2009-05-18, 14:00:18
naja die wahl hat der geneigte käufer ja...er kann sich bewusst entscheiden ob er nach FPS/€ kauft und ihm die qualität ausreicht oder er nach BQ/€ geht. :smile:


Da kommt dann wieder der Punkt der Unwissenheit ins Spiel. Ich bin mir sicher, daß viele potentielle Käufer auch weiterhin eine Karte von ATI kaufen würden, selbst wenn sie in mehreren Videos die Unterschiede gesehen hätten (und auch wahrgenommen hätten). Aber die wenigsten wissen überhaupt von einem Unterschied zwischen Nvidia und ATI in der möglichen Bildqualität und können sich so auch nicht bewußt zwischen FPS/€ und BQ/€ entscheiden. :wink:

Und für mich ist es noch viel schlimmer, ich mag ATI viel lieber als Nvidia und muß trotzdem zur Nvidia greifen, weil ATI zu Zeit nichts im Angebot hat, was meinen Ansprüchen genügt. Oh ich armer Mensch, diese Qual des Wissens. ;(

LovesuckZ
2009-05-18, 14:04:45
So sieht es aus: Informationen führen zu Wissen und Wissen ist Grundlage für Entscheidungen.

Dr. Cox
2009-05-18, 14:25:35
MIR reicht die gebotene filterqualität in 99% der fälle aus da ich mich im vergleich zur vorgängerkarte faktisch nicht verschlechtert habe! vorallem angesichts dessen das man sowieso dauernd mit flimmercontent konfrontiert wird, kaufe ich doch gleich lieber nach FPS/€.

Wenn du tatsächlich nach P/L-Verhältnis kaufen würdest, dann würdest du etwas abwarten, bis die Grafikkarten günstiger werden, so wie jetzt und dann würdest du auch nicht mehr behaupten, dass man nur bei ATI das beste P/L-Verhältnis bekommt ;)

Jetzt bekommst du eine GTX260 bereits ab 136€:

http://www.mindfactory.de/product_info.php/cat/k1663/info/p496640_896MB-ZOTAC-GeForce-GTX-260-SYNERGY-GDDR3-PCIe.html/SearchHandle/A%253dgrafikkarte%257eB%253dgrafikkarte%257eD%253d24%257eE%253d1%255e0%255e2%255 eName%257eG%253d11728%255e1%255e14499%255e1%257eI%253dMF_Price%257eK%253d4%257eL %253d1%257eM%253d9%257eN%253d4%257e/Action/2/AnswerId/14146/SessionID/7dn3ejtikvcbfbkjsg3uec9oon50ag84

Zeig mir mal eine gleichwertige ATI-Karte mit diesem P/L-Verhältnis....

Und komm jetzt bitte nicht mit einem Speicherkrüppel wie der HD4870/512MB an ;)


ob das bild nun minimal mehr flimmert weil der AF nicht 100% optimal arbeitet fällt bald auch kaum noch ins gewicht. also entweder ganz oder garnicht...alles andere hat keinen sinn. ein bisschen weniger scheiße bleibt halt trotzdem noch scheiße...und da ist ein ganzheitlicher ansatz gefragt der auch vor den spieleentwicklern nicht halt macht wie ich finde


Man kann in den meisten Spielen zugunsten der Texturen und Leistung die zum Teil sehr nervigen Unschärfe-Effekte deaktivieren. In Crysis hat man das Gefühl wenn man Unschärfe-Effekte auf max hat, dass man sich erst gerade eine ganze Flasche Wodka reingekippt hat :udown:

Aus diesem Grund deaktiviere ich die Unschärfe-Effekte in Crysis vollständig, ich brauche nämlich keine 2-Promille-Simulation, wenn ich die haben will, dann kippe ich mich am Wochenende zu, wie in meiner Jugend :unono:

Ganz ehrlich, mir wird nach einer Minute Crysis mit maximalen Unschärfe-Effekte echt schlecht...

Sehe ich nicht so, ich habe immer einen fast aktuellen PC(GTX295, Q9650) bei Spielen hänge ich aber 6-12 Monate hinter den neuen Games(ich benche einfach zuviel:redface:).

das kenne ich :D


Ich würde mir auch lieber eine oder zwei günstige HD4890 kaufen, wenn sie wenigstens Supersampling hätten, ich schmeiße mein Geld auch nicht gerne aus dem Fenster(500€ GTX280, 415€ GTX295:mad:), aber die Features die ich bevorzuge, bieten mir die ATI Karten im Moment nicht, die Filterung ist da noch das kleinste Problem.


Wer sich gleich zu Release eine Grafikkarte kauft ist doch selber schuld, ich habe meine GTX280 Anfang des Jahres für 230€ bekommen. Jetzt bekommt man eine sehr potente GTX260 für unter 140€. Bei der GTX360 warte ich dann auch, bis sie für 100-200€ zu bekommen ist, vorher kaufe ich keine neue Grafikkarte mehr, es seih denn meine GTX280 gibt den Geist auf, was ich nicht hoffe. Ich kann jedenfalls beruhigt über ein Jahr warten, mit dem Wissen dann ein Schnäppchen zu machen. Niemand der ein gesundes Verhältnis zu Geld hat, gibt mehr als 300€ für eine Grafikkarte aus ;)

LovesuckZ
2009-05-18, 14:29:51
Niemand der ein gesundes Verhältnis zu Geld hat, gibt mehr als 300€ für eine Grafikkarte aus ;)

Hm, denken deine Kunden auch so? ;)
Imo rechtfertigen herausragende Karten(generationen) immer ihren hohen Preis. r300 und G80 sind zwei, für die man gerne auch Beträge über 400€ bezahlt hat. Denn man hat hier einen Mehrwert erhalten, der zur damaligen zeit auch einmalig war.
Weder der rv770 noch der GT200 können dies bieten. Deswegen war vorallem auch beim GT200 in Form der GTX260 und GTX280 der Preis viel zu hoch angesetzt für die Features und der Leistung.

Savay
2009-05-18, 14:32:38
Wenn du tatsächlich nach P/L-Verhältnis kaufen würdest, dann würdest du etwas abwarten, bis die Grafikkarten günstiger werden, so wie jetzt und dann würdest du auch nicht mehr behaupten, dass man nur bei ATI das beste P/L-Verhältnis bekommt ;)


ich habe nie behauptet ATI hätte die P/L krone für sich gepachtet...mal ab davon das die HD4870/512MB sicher kein speicherkrüppel ist wie es vergleichbare nV karten mit gleichviel speicher wären.

ich kaufe eine grafikkarte grundsätzlich dann wenn ich sie benötige...zu dem zeitpunkt als ich die HD4850 für knappe 135€ angeschafft habe gab es nichts vergleichbar schnelles für das geld selbes galt seinerzeit für die X1950Pro, die 6800LE@Ultra und die GF4 Ti4400...einzig bei der GF256 DDR habe ich mich vergriffen aber hat ja keiner ahnen können das die GF2 MX so schnell hinterhergeworfen wird :rolleyes:

warten kann man immer...und wartet sich irgendwann nen wolf weil ja sowieso bald die neue generation kommt...ach und die lohnt ja auch nicht warten wir doch bis die preise fallen...ah dann kommt ja eh schon bald wieder ne neue generation also nochmal warten ;D

nebenher ist es erst meine 2. ATI karte...davor hatte ich seit der TNT2 nur nV karten im rechner :P

y33H@
2009-05-18, 15:09:03
mal ab davon das die HD4870/512MB sicher kein speicherkrüppel ist wie es vergleichbare nV karten mit gleichviel speicher wären. 9800 GX2? Genauso eine behinderte Konstruktion.

Dr. Cox
2009-05-18, 15:10:47
...mal ab davon das die HD4870/512MB sicher kein speicherkrüppel ist...

Doch ist sie und das wird dir jeder der sich auskennt bestätigen können ;)


warten kann man immer...und wartet sich irgendwann nen wolf weil ja sowieso bald die neue generation kommt...ach und die lohnt ja auch nicht warten wir doch bis die preise fallen...ah dann kommt ja eh schon bald wieder ne neue generation also nochmal warten ;D


Ich glaube du hast meinen Post nicht ganz verstanden....:uhammer2:



nebenher ist es erst meine 2. ATI karte...davor hatte ich seit der TNT2 nur nV karten im rechner :P

Das interessiert hier aber niemanden! Das Einzige was relevant ist, sind deine Aussagen, welche sich meiner Meinung nach, immer weiter jenseits von Sachlichkeit, Vernunft und Objektivität bewegen...


9800 GX2? Genauso eine behinderte Konstruktion.

Richtig (y)

Alle Grafikkarten ab der leistung einer 8800GT wären mit mehr als 512MB besser bedient ;)

Savay
2009-05-18, 15:17:40
tatsächlich ich habe also nicht verstanden das ich bis jetzt hätte warten sollen um mir günstig eine GTX260 zu kaufen weil sie jetzt das deutlich bessere P/L verhältniss hat als die HD4850 vor 5monaten? :rolleyes:

tja nur das die nVs den mehrspeicher in highend settings auch dringender brauchen als die ATIs...braucht man jetzt schon nen magister in hardware kunde um benchmarks interpretieren zu dürfen?! jeder der ahnung hat...pfff :smile:

nebenbei würde ich bei ner grafikkarte die länger als 1 jahr im rechner bleiben soll auch keine 512MB speicher mehr empfehlen :P


Das interessiert hier aber niemanden! Das Einzige was relevant ist, sind deine Aussagen, welche sich meiner Meinung nach, immer weiter jenseits von Sachlichkeit, Vernunft und Objektivität bewegen...

es ist unsachlich darauf hinzuweisen das in aktuellen titeln das AF grieseln einen immer kleineren anteil am gesamtbild einnimmt?

es ist unobjektiv zu bestätigen das die ATIs schlechter filtern als die NV karten?

es ist unvernünftig zu sagen das man eine grafikkarte kaufen sollte wenn man sie benötigt und in dem fall nach ökonomischen gesichtspunkten vorgeht?

aaaaaaaaaaah ja...:|

Dr. Cox
2009-05-18, 15:25:37
tatsächlich ich habe also nicht verstanden das ich bis jetzt hätte warten sollen um mir günstig eine GTX260 zu kaufen weil sie jetzt das deutlich bessere P/L verhältniss hat als die HD4850 vor 5monaten? :rolleyes:


Hättest du vielleicht besser tun sollen. Wenn ich eines gelernt habe, dann dass man am besten immer die Auslaufmodelle kaufen sollte, da diese nicht viel langsamer als die Refresh-Karte sind, aber dafür deutlich günstiger. Viele Leute machen das auch so ;)


tja nur das die nVs den mehrspeicher in highend settings auch dringender brauchen als die ATIs... :smile:

Die HD4870/512 bricht bereits jetzt schon in einigen Spielen mehr ein als die HD4870/1024!

Mr. Lolman
2009-05-18, 15:27:42
Die HD4870/512 bricht bereits jetzt schon in einigen Spielen mehr ein als die HD4870/1024!

Das ist ja kein Wunder. Wenn der Speicher ausgeht, dann geht er aus. Andererseits hängt ne 512MB 4850 deutlich weniger am Speicherlimit als ne 512MB GTS250.

Dr. Cox
2009-05-18, 15:29:29
Das ist ja kein Wunder. Wenn der Speicher ausgeht, dann geht er aus. Andererseits hängt ne 512MB 4850 deutlich weniger am Speicherlimit als ne 512MB GTS250.

Das ist richtig, dennoch hat eine GTX260 durch ihre 896MB Vram immer noch deutliche Vorteile in zukünftigen Games und hohen Settings gegenüber einer HD4870/512.

Jake Dunn
2009-05-18, 15:29:36
512mb NV <> 512mb ATI

Savay
2009-05-18, 15:30:56
Hättest du vielleicht besser tun sollen. Wenn ich eines gelernt habe, dann dass man am besten immer die Auslaufmodelle kaufen sollte, da diese nicht viel langsamer als die Refresh-Karte sind, aber dafür deutlich günstiger. Viele Leute machen das auch so ;)


beim nächsten mal werde ich mich deiner unendlichen weisheit bedienen...verzeihung das ich es wage zu denken und eine meinung zu haben...und dann auch noch eine falsche. :rolleyes:

Dr. Cox
2009-05-18, 15:46:44
512mb NV <> 512mb ATI

Und :uconf:

beim nächsten mal werde ich mich deiner unendlichen weisheit bedienen...

Wäre vielleicht besser :biggrin:


verzeihung das ich es wage zu denken und eine meinung zu haben...und dann auch noch eine falsche. :rolleyes:

Einsicht ist der erste Weg zur Besserung, aber dafür bräuchtest du dich nicht extra entschuldigen, denn jeder macht mal Fehler :cool:

Sarkasmus wtf ;D

Gast
2009-05-18, 15:51:11
eine hd4870 1024MB ist imo schneller als eine gtx260 192 und nur deswegen 10 Euro teurer! Wenn dann sollte man schon gegen eine gtx 260 216 vergleichen.

y33H@
2009-05-18, 15:52:53
Sarkasmus wtfFTW wenn schon ;)

LovesuckZ
2009-05-18, 15:53:49
Das ist ja kein Wunder. Wenn der Speicher ausgeht, dann geht er aus. Andererseits hängt ne 512MB 4850 deutlich weniger am Speicherlimit als ne 512MB GTS250.

Das hat sich aber auch schon deutlich geändert. ;)

Savay
2009-05-18, 15:54:29
Sarkasmus wtf ;D

das mittel der wahl um leuten, die anderen menschen zwanghaft erzählen müssen wie sie dieses und jenes handhaben sollten, ihre eigene ignoranz aufzuzeigen. :smile:
aber passt ja auch da ich ja eh unsachlich und unobjektiv bin. :rolleyes:

ich hab keinen bock mehr...cya

Gast
2009-05-18, 16:02:31
AMD Themen-Woche ab sofort auf Planet 3DNow! (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1242646710)

Anwender fragen, Hersteller antworten. :)

Dr. Cox
2009-05-18, 16:07:16
aber passt ja auch da ich ja eh unsachlich und unobjektiv bin. :rolleyes:


Wo ist es denn bitteschön sachlich und objektiv die Filteroptimierungen ATIs gut zu heißen?

Wo ist es denn bitteschön sachlich und objektiv meine Postings bewusst misszuverstehen, obwohl dies eigentlich anhand meiner Agrumente ausgeschlossen sein sollte?

Wie hier:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7307403&postcount=804

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7307429&postcount=806


ich hab keinen bock mehr...cya

Keine Argumente mehr? ;(

Savay
2009-05-18, 16:47:13
Wo ist es denn bitteschön sachlich und objektiv die Filteroptimierungen ATIs gut zu heißen?

wo ist es bitteschön unsachlich und unobjektiv wenn mir persönlich die gebotene filterqualität fürs erste ausreicht da ich keine faktische verschlechterung in spielbaren settings erleiden musste? es ist doch wohl meine sache ob ich damit leben kann und ich werde meine meinung dazu ja wohl auch kundtun dürfen?! ;D


Wo ist es denn bitteschön sachlich und objektiv meine Postings bewusst misszuverstehen, obwohl dies eigentlich anhand meiner Agrumente ausgeschlossen sein sollte?


kehr bitte erstmal in deinem eigenen vorgarten wenn es ums "bewusste missverstehen" von aussagen geht...

du hast mich zuerst zitiert wenn ich dich erinnern darf und vorrausgesetzt ich würde bei ATI generell das beste P/L verhältniss sehen! das stimmt aber schlicht nicht und ist einfach eine unterstellung...das und nichts anderes habe ich mit dem posting wiederlegt.

aber halt zum 2. mal damit es auch zu dir vordringt: was interessiert mich was eine GTX260 jetzt kostet wenn ich damals eine HD4850 gekauft habe und diese zu dem zeitpunkt das beste P/L verhältniss in meinem finanziellen rahmen hatte?
was interessiert es mich was GPU Y in 6 Monaten kostet wenn ich jetzt eine grafikkarte benötige und GPU X halt grade am besten da steht?!

Jake Dunn
2009-05-18, 17:57:42
wo ist es bitteschön unsachlich und unobjektiv wenn mir persönlich die gebotene filterqualität fürs erste ausreicht da ich keine faktische verschlechterung in spielbaren settings erleiden musste? es ist doch wohl meine sache ob ich damit leben kann und ich werde meine meinung dazu ja wohl auch kundtun dürfen?! ;D


Sowas darf man hier doch nicht sagen :usad:

Dr. Cox
2009-05-18, 17:58:09
naja die wahl hat der geneigte käufer ja...er kann sich bewusst entscheiden ob er nach FPS/€ kauft und ihm die qualität ausreicht oder er nach BQ/€ geht. :smile:


Anhand der vorangegangenen Diskussion stellst du mit dieser Behauptung indirekt ATI - um dich mal zu zitieren - als "FPS/€" und Nvidia als "BQ/€" dar, was anhand der aktuellen Situation jedoch falsch ist!

Mag vielleicht sein, dass diese Behauptung letztes Jahr zu Release der HD48X0 noch bestand hatte - deshalb kaufte ich mir damals ja auch eine HD4870 - jedoch jetzt ist diese Behauptung einfach schlichtweg falsch, was man anhand der GTX260 für 136€ gut sehen kann ;)

http://www.mindfactory.de/product_info.php/cat/k1663/info/p496640_896MB-ZOTAC-GeForce-GTX-260-SYNERGY-GDDR3-PCIe.html/SearchHandle/A%253dgrafikkarte%257eB%253dgrafikkarte%257eD%253d24%257eE%253d1%255e0%255e2%255 eName%257eG%253d11728%255e1%255e14499%255e1%257eI%253dMF_Price%257eK%253d4%257eL %253d1%257eM%253d9%257eN%253d4%257e/Action/2/AnswerId/14146/SessionID/7dn3ejtikvcbfbkjsg3uec9oon50ag84


Denn im Vergleich HD4870/512 vs GTX260/192 gewinnt eindeutig letztere was das P/L-Verhältnis angeht.

Zwischen HD4770 vs 8800GT ist erstere wiederum die bessere Wahl was das P/L-Verhältnis angeht.

All diese Verhältnisse befinden sich in einem dem Markt unterworfenem ständigem Wandel, weshalb man nicht genau sagen kann welcher der beiden Hersteller eindeutig das bessere P/L-Verhältnis bietet. Ergo sind pauschalisierende Aussagen wie: "ATI=FPS/€ und Nvidia=BQ/€ " einfach nicht richtig. Man kann also aktuell nur über die Bildqualität diskutieren, denn diese bleibt bei RV770/790 und GT200(b) konstant, während die Preise ständigen Schwankungen unterliegen ;)


Es mag ja auch sein, dass die HD4850 zum damaligen Zeitpunkt ein gutes P/L-Verhältnis hatte, das war bei meiner HD4870 genauso. Nur ist es eben nicht sonderlich klug eine Grafikkarte gleich zu Release zu kaufen, diesen Fehler habe ich mit der HD4870 auch begangen, welche mich damals noch 240€ kostete. Der Preisverfall ist einfach imens hoch! darum bin ich einfach der Meinung einfach solange abzuwarten bis die Preise ihren Tiefstpunkt erreicht haben(Ausverkauf, etc...), dadurch werden die Grafikkarten nicht gleich langsamer ;)

Meine GTX280 war z.B. sogar günstiger als meine HD4870!

LovesuckZ
2009-05-18, 18:07:18
wo ist es bitteschön unsachlich und unobjektiv wenn mir persönlich die gebotene filterqualität fürs erste ausreicht da ich keine faktische verschlechterung in spielbaren settings erleiden musste? es ist doch wohl meine sache ob ich damit leben kann und ich werde meine meinung dazu ja wohl auch kundtun dürfen?! ;D


Deine subjektive Meinung zählt in einem Thread, indem es um die unterschiedliche Bildqualität geht, nicht. Ob dir die Bildqualität ausreicht, ist nicht Themenbestandteil hier.

Gast
2009-05-18, 18:08:21
Dr. Cox: ich finde nicht, dass eine 512 hd4870 großasrtig langsamer ist als eine gtx 260 192. Sie ist eben auch ein paar Euros billiger..... einer hd4870 1024 ist wiederum um einiges schneller als eine gtx 260 192.

Imo geben sich hd4870 und gtx260 192 P/L mäßig nicht viel. Ebenso gtx 260 216 und hd4870 1024! Nur die 4890 und die 4770 stechen imo raus... aber auch nur im Vergleich zu ihrnen direkten Konkurenten!

LovesuckZ
2009-05-18, 18:11:03
Wo ist eine 4870 "um einiges schneller"? Soweit ich es überblicken kann, liegen zwischen GTX260-192 - 4870 1024 - GTX260-216 gerade mal 10%. Eine 4870 mit 512 hat dagegen deutliche Nachteile, die die paar Euro Ersparnis in keinem Verhältnis auwiegen.

Dr. Cox
2009-05-18, 18:13:05
Dr. Cox: ich finde nicht, dass eine 512 hd4870 großasrtig langsamer ist als eine gtx 260 192. Sie ist eben auch ein paar Euros billiger..... einer hd4870 1024 ist wiederum um einiges schneller als eine gtx 260 192.

Imo geben sich hd4870 und gtx260 192 P/L mäßig nicht viel. Ebenso gtx 260 216 und hd4870 1024! Nur die 4890 und die 4770 stechen imo raus... aber auch nur im Vergleich zu ihrnen direkten Konkurenten!

Eine HD4870/512MB ist aufgrund ihres viel zu geringen Vrams in einigen Spielen sogar langsamer als eine drei Jahre alte 8800GTX:

http://www.pcgameshardware.de/aid,680242/Test-Ati-Radeon-HD-4890-gegen-Nvidia-Geforce-GTX-275/Grafikkarte/Test/?page=8

(In 1680X1050)


http://www.pcgameshardware.de/aid,680242/Test-Ati-Radeon-HD-4890-gegen-Nvidia-Geforce-GTX-275/Grafikkarte/Test/?page=10

(Hier bereits ab 1280X1024)


Die HD4870/512 ist wie die 8800GTS/320, beides sind/waren miese Speicherkrüppel ;)

Jake Dunn
2009-05-18, 18:23:09
Eine HD4870/512MB ist aufgrund ihres viel zu geringen Vrams in einigen Spielen sogar langsamer als eine drei Jahre alte 8800GTX:

http://www.pcgameshardware.de/aid,680242/Test-Ati-Radeon-HD-4890-gegen-Nvidia-Geforce-GTX-275/Grafikkarte/Test/?page=8

(In 1680X1050)


Wow 12,1FPS bei beiden :ulol:

Savay
2009-05-18, 18:25:16
Deine subjektive Meinung zählt in einem Thread, indem es um die unterschiedliche Bildqualität geht, nicht. Ob dir die Bildqualität ausreicht, ist nicht Themenbestandteil hier.

da sie dir offensichtlich nicht ausreicht dürfte das dann im umkehrschluss wohl auch kein themenbestandteil sein...ergo keine meinungen und demzufolge auch keine diskussion.

dann nennt den thread lieber gleich "HQ AF Club...zutritt nur für member mit meinung X"

Gast
2009-05-18, 18:26:24
kommt wie immer auf den Test an den man sich ansieht.... aber ihr habt recht... : die hd4870 512Mb ist einen Tick langsamer... aber eben auch einen Tick billiger....

worauf ich eigentlich rauswollte: die hd4870 512 und die gtx260 192 geben sich Preisleistungtechnisch nichts!

Dr. Cox
2009-05-18, 18:30:21
kommt wie immer auf den Test an den man sich ansieht.... aber ihr habt recht... : die hd4870 512Mb ist einen Tick langsamer... aber eben auch einen Tick billiger....

worauf ich eigentlich rauswollte: die hd4870 512 und die gtx260 192 geben sich Preisleistungtechnisch nichts!

Hast du schon eine HD4870/512 für 136€ gesehen? Ich nicht ;)

Um aber mal wieder zur eigentlichen Diskussion zurückzukehren, die GTX260 ist dank mehr als 512MB in zukünftigen Spielen nicht nur minimal schneller als die HD4870/512, sie bietet auch die bessere Bildqualität :D

Gast
2009-05-18, 18:31:18
nein aber für 129Euro : http://geizhals.at/eu/a358946.html^^

Black-Scorpion
2009-05-18, 18:31:58
Eine HD4870/512MB ist aufgrund ihres viel zu geringen Vrams in einigen Spielen sogar langsamer als eine drei Jahre alte 8800GTX:
Du solltest aber auch wissen das NV Karten deutlich eher der VRam ausgeht wie ATI Karten.
Das ist nun wirklich kein Geheimnis.
Such doch mal Vergleiche von beiden mit 512MB.

y33H@
2009-05-18, 18:32:18
Hier wird nicht über Meinungen diskutiert, sondern um objektiv belegte [AI spart Samples] oder noch zu belegende Tatsachen [wie viel wird gespart, welcher Rattenschwanz folgt] - abhängig von Spiel und Setting.

Jake Dunn
2009-05-18, 18:41:19
Hier wird nicht über Meinungen diskutiert, sondern um objektiv belegte [AI spart Samples] oder noch zu belegende Tatsachen [wie viel wird gespart, welcher Rattenschwanz folgt] - abhängig von Spiel und Setting.

Immer her damit :biggrin:

y33H@
2009-05-18, 18:45:29
Sieh dir meine Videos an ;)

Jake Dunn
2009-05-18, 18:47:12
Sieh dir meine Videos an ;)

Hab ich doch hier (Warhead) oder gibt es neue schon? :)

Dr. Cox
2009-05-18, 18:48:22
Hier wird nicht über Meinungen diskutiert, sondern um objektiv belegte [AI spart Samples] oder noch zu belegende Tatsachen [wie viel wird gespart, welcher Rattenschwanz folgt] - abhängig von Spiel und Setting.

Ich könnte mir auch gut vorstellen, dass ATI durch die gesparten Samples auch Vram einspart ;)

Jake Dunn
2009-05-18, 18:51:43
Ich könnte mir auch gut vorstellen, dass ATI durch die gesparten Samples auch Vram einspart ;)

Nö weil es auch bei 1xAA/AF ein erheblichen Unterschied in der Vram belegung/benutzung gibt. ;)

Dr. Cox
2009-05-18, 18:55:01
Nö weil es auch bei 1xAA/AF ein erheblichen Unterschied in der Vram belegung/benutzung gibt. ;)

Die HD4870 filtert meines Wissens nach ja auch nicht komplett trilinear, das spart auch Vram/Bandbreite/TMU-Leistung ;)

Black-Scorpion
2009-05-18, 18:58:51
Ist klar wenn die Argumente ausgehen. ;)

Jake Dunn
2009-05-18, 18:59:13
Nach meinen Beobachtungen 512mb (ATI) = 700mb (NV) ;)

Dr. Cox
2009-05-18, 19:01:13
Du solltest aber auch wissen das NV Karten deutlich eher der VRam ausgeht wie ATI Karten.
Das ist nun wirklich kein Geheimnis.
Such doch mal Vergleiche von beiden mit 512MB.

Du willst hier allen ernstes behaupten, dass 512MB bei ATI besser sind und mehr Reserven haben als 896MB bei Nvidia :eek:

Na dann gute Nacht...:ucatch:

Gast
2009-05-18, 19:02:06
Wäre toll, wenn die Plauderrunde auf einen Absacker in die Lounge gehen könnte, wie y33H@ richtig anmerkt, geht es hier nicht um Meinungen, sondern um belegbare Fakten rund um die Texturfilter.

Die Videos von y33H@:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=455055&page=35

Die Videos des Gastes:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7290605&posted=1#post7290605
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7290958#post7290958


Bezeichnend, dass das AI-OFF-Video, das wirklich gut aussieht, kaum Beachtung gefunden hat. Man will es offenbar gar nicht sehen, läßt es lieber versanden.
A.I. Off mag teilweise gut aussehen, im Video des Gastes musste ich mich tatsächlich erst nochmal vergewissern, ob ich nicht versehentlich ein Nvidia-Video im Loop habe. Allerdings hilft das leider nicht viel, da man bei A.I. Off anwendungsspezifische Optimierungen verliert und damit oft jede Menge Performance und Kompatibilität. Immerhin zeigt es, dass die Hardware wesentlich besser filtern könnte, als A.I. Default erlaubt, das ist ja auch schon was.

LovesuckZ
2009-05-18, 19:03:29
da sie dir offensichtlich nicht ausreicht dürfte das dann im umkehrschluss wohl auch kein themenbestandteil sein...ergo keine meinungen und demzufolge auch keine diskussion.

dann nennt den thread lieber gleich "HQ AF Club...zutritt nur für member mit meinung X"

Es geht um die Frage, ob es Unterschiede gibt und wenn sie existieren, wie sie sich bemerkbar machen.
Dein subjektives Empfinden spielt hier keine Rolle. :rolleyes:

Black-Scorpion
2009-05-18, 19:22:36
Du willst hier allen ernstes behaupten, dass 512MB bei ATI besser sind und mehr Reserven haben als 896MB bei Nvidia :eek:

Na dann gute Nacht...:ucatch:
Lesen scheint nicht deine Stärke zu sein.
Wo habe ich das gesagt?

Dr. Cox
2009-05-18, 19:30:41
Eine HD4870/512MB ist aufgrund ihres viel zu geringen Vrams in einigen Spielen sogar langsamer als eine drei Jahre alte 8800GTX:


Du solltest aber auch wissen das NV Karten deutlich eher der VRam ausgeht wie ATI Karten.
Das ist nun wirklich kein Geheimnis.
Such doch mal Vergleiche von beiden mit 512MB.

Hier ging es aber um HD4870/512MB vs GTX260/192 mit 896MB!

Beide Karten kosten ungefähr gleich viel. Das eine 9800 GTX+ auch zu wenig Vram hat steht hier nicht zur Debatte, das ist längst bekannt. Außerdem ist die 9800GTX+ die Konkurrenz zur HD4850 ;)

y33H@
2009-05-18, 19:41:07
Nach meinen Beobachtungen 512mb (ATI) = 700mb (NV) Nein, eine Geforce schluckt nur rund 5-20% mehr.

Jake Dunn
2009-05-18, 19:45:22
Nein, eine Geforce schluckt nur rund 5-20% mehr.

Hab Screenshots mit 25% hier und die Spielzeit war deutlich unter einer Stunde ;)

Dr. Cox
2009-05-18, 19:46:51
Nein, eine Geforce schluckt nur rund 5-20% mehr.

:umassa:


Wäre es vielleicht möglich, dass Nvidia-Karten mit eingeschalteten AF-Optimierungen auch weniger Vram benötigen? Logisch und nachvollziehbar wäre es jedenfalls ;)

y33H@
2009-05-18, 19:48:39
Ich könnte mir auch gut vorstellen, dass ATI durch die gesparten Samples auch Vram einspartSamples beim AF bzw. generell AF erhöht den VRAM-Bedarf nur marginal.Hab Screenshots mit 25% hier und die Spielzeit war deutlich unter einer StundeGleiche Szene, gleiche Settings, gleiche Dauer, beide Grafikkarten die gleicher Speichermenge? Welches Spiel?

mapel110
2009-05-18, 19:49:59
:umassa:


Wäre es vielleicht möglich, dass Nvidia-Karten mit eingeschalteten AF-Optimierungen auch weniger Vram benötigen?
Nö, das spart kein VRam. AF geht nur auf die Textur-Füllrate. Es sind auch ohne AF alle Texturabstufungen im VRam. Brauchts für LOD.

Jake Dunn
2009-05-18, 19:50:16
Samples beim AF bzw. generell AF erhöht den VRAM-Bedarf nur marginal.Gleiche Szene, gleiche Settings, gleiche Dauer, beide Grafikkarten die gleicher Speichermenge? Welches Spiel?

5x Ja bei Warhead :)

Savay
2009-05-18, 19:52:43
Es geht um die Frage, ob es Unterschiede gibt und wenn sie existieren, wie sie sich bemerkbar machen.
Dein subjektives Empfinden spielt hier keine Rolle. :rolleyes:

über fakten muss man nicht diskutieren, die sprechen für sich selbst zumal es kein geheimniss ist das ATI schlechter filtert und TMU leistung einspart...

es gibt also weder ein "ob" zu klären, noch ein "wie" und auch nicht ein "warum"

es ist ja schön und gut das sich mal wer bemüht ein paar videos davon anzufertigen aber dann packt es in drei gottes namen in einen verdammten sticky der geschlossen ist wenn man nichtmal in einem DISKUSSIONS thread diskutieren und seine meinung kundtun darf!

LovesuckZ
2009-05-18, 19:52:46
Cool, jetzt wir beim Speicherverbrauch - immer schön ablenken vom Thema.

über fakten muss man nicht diskutieren, die sprechen für sich selbst zumal es kein geheimniss ist das ATI schlechter filtert und TMU leistung einspart...

es gibt also weder ein "ob" zu klären, noch ein "wie" und auch nicht ein "warum"

es ist ja schön und gut das sich mal wer bemüht ein paar videos davon anzufertigen aber dann packt es in drei gottes namen in einen verdammten sticky der geschlossen ist wenn man nichtmal in einem DISKUSSIONS thread diskutieren und seine meinung kundtun darf!

Wieso sollte man mir dir über solch ein Thema diskutieren, wenn deine Meinung von anfang feststeht? Fakt ist, dass A.I off besser aussieht als A.I Low und somit auch mit nVidia's HQ/Q Einstellungen verglichen werden muss.
Ob dich die Unterschiede zu irgendeiner Entscheidung treiben, interessiert hier niemanden.

Savay
2009-05-18, 19:59:59
Wieso sollte man mir dir über solch ein Thema diskutieren, wenn deine Meinung von anfang feststeht?

deine meinung steht doch auch von anfang an fest? aso wir haben also alle meinungen dürfen aber nur diskutieren wenn wir die gleiche haben?! rrrrrrrrrriiiiiiiiiiichtig!


Fakt ist, dass A.I off besser aussieht als A.I Low

ok diskutieren wir darüber:

ja!

das war sehr anregend danke für den meinungsaustausch. :rolleyes:

LovesuckZ
2009-05-18, 20:06:18
Wr müssen nicht über subjektive Empfindungen reden. Wie du spielst, ist mir sowas von egal. Mach'nen blog, wenn du meinst, dass du der Welt deine Präferenzen mitteilen musst.

Das einzige, was jetzt noch geklärt werden muss, ist, welcher Modus bei nVidia vergleichbar zu A.I off ist.

Savay
2009-05-18, 20:09:21
Das einzige, was jetzt noch geklärt werden muss, ist, welcher Modus bei nVidia vergleichbar zu A.I off ist.

und um konsequent zu bleiben welcher vergleichbar zu AI on ist...

y33H@
2009-05-18, 20:13:18
Wäre man "pööhse":

Q mit allen Optimierungen vs. AI-def
HQ vs. AI-off

Und selbst das ist nicht "fair" - weder für AMD noch für NV.

Blaire
2009-05-18, 20:22:11
Und selbst das ist nicht "fair" - weder für AMD noch für NV.

Wenn ich mir deine Crysis Videos ansehe ist NV HQ dem AI Off klar überlegen, NV Quality und AI off wäre hier am vergleichbarsten.

y33H@
2009-05-18, 20:23:05
Tja ... sag ich ja ;)

aths
2009-05-18, 20:29:49
Wäre es vielleicht möglich, dass Nvidia-Karten mit eingeschalteten AF-Optimierungen auch weniger Vram benötigen? Logisch und nachvollziehbar wäre es jedenfalls ;)Inwiefern wäre das logisch?

Gast
2009-05-18, 20:30:10
Ich sehe gravierende Unterschiede bei: Witcher, Sacred, WoW. Und ich kann das sogar ohne Videos erkennen weil ich ATI und Nvidia live im Vergleich sehen kann. Jeder der was anderes behauptet muss wirklich Tomaten auf den Augen haben.

Dr. Cox
2009-05-18, 20:32:52
Wäre man "pööhse":

Q mit allen Optimierungen vs. AI-def
HQ vs. AI-off

Und selbst das ist nicht "fair" - weder für AMD noch für NV.

Das hat nichts mit böse zu tun, eigentlich müsste man so testen, da sonst Nvdia benachteiligt wird. Immerhin müssen die Nvidia-Karten mit "fast" voller Bildqualität rendern, während ATI massiv Arbeit durch die ganzen Optimierungen einspart ;)



Inwiefern wäre das logisch?

Naja, es müsste doch durch die AF-Optimierungen eigentlich Daten gespart werden, welche ja auch im Vram enthalten sein müssten ;)

Nakai
2009-05-18, 20:37:52
Naja, es müsste doch durch die AF-Optimierungen eigentlich Daten gespart werden, welche ja auch im Vram enthalten sein müssten

Wenn AF-Optimierungen zu Performancesteigerungen führen, wäre das Gegenteil der Fall. Jedenfalls wird die Bandbreite stärker belastet.


mfg Nakai

Coda
2009-05-18, 20:54:44
Naja, es müsste doch durch die AF-Optimierungen eigentlich Daten gespart werden, welche ja auch im Vram enthalten sein müssten ;)
Nur weil man eine Textur schlechter abtastet müssen Teile davon nicht im VRAM sein? Nachdenken Leute. Bitte X-D

Wenn AF-Optimierungen zu Performancesteigerungen führen, wäre das Gegenteil der Fall. Jedenfalls wird die Bandbreite stärker belastet.
Durch Samplereduktion wird die nötige Bandbreite verringert die durch Texture-Cache-Misses entsteht.

LovesuckZ
2009-05-18, 21:25:00
UPDATE

Nun alles beisammen:

Crysis Warhead @ 720p

AI-default [RV770] (http://www.megaupload.com/?d=P8WK95BK) vs. Ai-off [RV770] (http://www.megaupload.com/?d=QBF381K5) vs. HQ ohne "Optimierungen" [GT200] (http://www.megaupload.com/?d=6KBKRHEC) vs. Q default [GT200] (http://www.megaupload.com/?d=5Q4A6O86) vs. HQ ohne "Optimierungen" mit 4x4 OGSSAA (http://www.megaupload.com/?d=QR61RRQR)

[Settings: 1.280 x 720 / 4x MSAA + 16:1 AF / Enthusiast]

Kannst du auch mal Leistungsvergleiche zwischen A.I off und A.I Low durchführen?
Abgesehen davon: Anhand der Videos ist klar, dass Quality nicht mit A.I Low verglichen werden darf. Wie sieht eigentlich nVidia's Performance Modus aus?

Gast
2009-05-18, 21:35:04
Kannst du auch mal Leistungsvergleiche zwischen A.I off und A.I Low durchführen?
"A.I. Low" existiert nicht, du meinst aber bestimmt "A.I. Off"

Abgesehen davon: Anhand der Videos ist klar, dass Quality nicht mit A.I Low verglichen werden darf. Wie sieht eigentlich nVidia's Performance Modus aus?
Ich habe jetzt schon eine ganze Weile eine Nvidia-Karte und der Texturfilter ist auf High-Quality mit Clamp festgenagelt, das ist das erste was ich bei einem Treiberupdate einstelle. Ich weiß, dass es den sogenannten Quality-Modus als Standardeinstellung gibt, aber ein Performancemodus mit noch mehr Sparmaßnahmen wäre mir neu, existiert sowas?

reunion
2009-05-18, 21:36:52
Ja, es gibt sogar auch noch "High Performance" neben "High Quality", "Quality" und "Performance". AFAIK ist das aber nur noch bi-Filterung.

Dr. Cox
2009-05-18, 21:40:02
Nur weil man eine Textur schlechter abtastet müssen Teile davon nicht im VRAM sein? Nachdenken Leute. Bitte X-D


Ich meinte ja, dass bei besserer Filterung, also ohne AF-Optimierungen theoretisch mehr Vram verbraucht werden müsste, als wie wenn die Filterung schlechter ist ;)

Aber das war auch eher als Frage gedacht, auf die ich gerne ein vernünftige Antwort hätte....

Gast
2009-05-18, 21:41:39
Ja, es gibt sogar auch noch "High Performance" neben "High Quality", "Quality" und "Performance". AFAIK ist das aber nur noch bi-Filterung.
Tja, offensichtlich kenne ich die Möglichkeiten meiner Hardware nicht. Mal sehen, vielleicht probiere ich die ATI-Emulation an Halloween mal aus. ;D

deekey777
2009-05-18, 21:52:17
"A.I. Low" existiert nicht, du meinst aber bestimmt "A.I. Off"

Er meint "AI auf Standard", AI low ist die ganz frühe Bezeichnung dafür.

Coda
2009-05-18, 22:10:02
Ich meinte ja, dass bei besserer Filterung, also ohne AF-Optimierungen theoretisch mehr Vram verbraucht werden müsste, als wie wenn die Filterung schlechter ist ;)
Nein. Müsste es nicht.

Gast
2009-05-18, 22:26:33
Ist doch egal. "DANK" fehlender Textureinheiten wird ATI nicht viel am AF rütteln können. der Fehler liegt in der Struktur!

y33H@
2009-05-18, 22:44:57
@ Dr. Cox

Coda hat Recht, AF hat mit dem VRAM (fast) nichts am Hut - nur hinsichtlich der Bandbreite.Kannst du auch mal Leistungsvergleiche zwischen A.I off und A.I Low durchführen?Klar, kommt."A.I. Low" existiert nicht, du meinst aber bestimmt "A.I. Off"Es gibt aktuell "disabled (off)", "standard (default)" und "advanced (low)". "Low", weil aggressivste und ergo häßlichste aller AI-Stufen."DANK" fehlender Textureinheiten wird ATI nicht viel am AF rütteln können.Ich will doch schwer hoffen, dass R600 ff nahe der Perfektion filtern können, rein technisch. AMD wird das wohl aber nicht freigeben, da der Performance-Impact recht heftig sein dürfte.

mapel110
2009-05-18, 22:50:10
Es gibt aktuell "disabled (off)", "standard (default)" und "advanced (low)".
Nee, es war doch so, dass AI low Treiberstandard war und daneben gabs dann noch Off und High.

Lightning
2009-05-18, 22:50:35
"Low", weil aggressivste und ergo häßlichste aller AI-Stufen.

Ne, deekey hat da recht. "Low" bezog sich auf den Grad der Optimierung, heute heißt das gleiche "Standard".

edit: Ich bin langsam. ;(

y33H@
2009-05-18, 22:55:28
Hmmm, ich hatte es anders im Kopf ... habe "low" mit "advanced" verknüpft. Sry ;(

Gast
2009-05-18, 23:01:35
Ich finds immer noch zu geil das trotz X2 das AI total blockiert wird. Damit gibt ATI indirekt zu das sie schwerste Probleme beim Filtern haben!

Gast
2009-05-18, 23:02:50
EDIT Ihr werdet wissen was ich meine;)

Gast
2009-05-19, 12:00:11
2008/2009 ist man endlich etwas weiter und wählt lieber Qualität (Nvidia) vor Quantität (ATI)

Nun zumindest haben einige der hier Anwesenden Bildqualitätsverfechter sich 2006/2007 mal eine Auszeit gegönnt.


Geforce 7900GTX (wegen leiserem Lüfter

S.o. leiser Lüfter, Peformance/Watt und so halt. Da hat auch keiner gesagt: "Jawohl ich hab ne Karte mit bekiffter BQ im PC!".
Schönrederei ist also keine einseitige Tugend der roten Fraktion.

N0Thing
2009-05-19, 12:17:05
Nun alles beisammen:

Crysis Warhead @ 720p

AI-default [RV770] (http://www.megaupload.com/?d=P8WK95BK) vs. Ai-off [RV770] (http://www.megaupload.com/?d=QBF381K5) vs. HQ ohne "Optimierungen" [GT200] (http://www.megaupload.com/?d=6KBKRHEC) vs. Q default [GT200] (http://www.megaupload.com/?d=5Q4A6O86) vs. HQ ohne "Optimierungen" mit 4x4 OGSSAA (http://www.megaupload.com/?d=QR61RRQR)

[Settings: 1.280 x 720 / 4x MSAA + 16:1 AF / Enthusiast]


Vielen Dank für die Videos! :smile:http://www.forum-3dcenter.org/vbulletin/images/icons/icon14.gif

Aber hattest du nicht auch schon von anderen Spielen Vergleichsvideos fertig gestellt?

Dr. Cox
2009-05-19, 12:18:34
S.o. leiser Lüfter, Peformance/Watt und so halt. Da hat auch keiner gesagt: "Jawohl ich hab ne Karte mit bekiffter BQ im PC!".
Schönrederei ist also keine einseitige Tugend der roten Fraktion.

Hast du schon einmal eine X1900XT unter Vollast gehört? Wohl eher nicht...;D

http://www.youtube.com/watch?v=hXJMB-FcYRc

Nachdem die Lüftersteuerung das laute Aufbrausen der Radeon X1900 XTX im Keim erstickte und die Karte im Idle-Modus unter Windows arbeitete, machte sich direkt ein angenehmes Geräuschsniveau bemerkbar. Das neue Top-Modell von ATi mit dem R580-Kern ist aus dem geschlossenem Gehäuse zwar heraushörbar, störend ist dies aber nicht. Insgesamt bleibt man gar – trotz identischer Lüftung – ein Dezibel unter den Werten der Radeon X1800 XT. Hierbei kann es sich allerdings auch um Messungenauigkeiten handeln. Gegen die direkte Konkurrenz, die nVidia GeForce 7800 GTX 512, hat die X1900 XTX keine Chance. Jene Karte ist unter Windows nicht bemerkbar.

Deutlich weniger erfreut waren wir von dem Lüftersystem unter Last. Dieses dreht je nach Temperatur etwas schneller oder langsamer und das ständige Wechseln der Drehzahlen ist äußerst nervend, da es direkt auffällt. So arbeitet der Lüfter bei voller Drehzahl mit einem recht hochfrequenten Geräusch, das die Messwerte leider nicht widerspiegeln. Diese sind zwar auch ein gutes Stück schlechter als bei einer Radeon X1800 XT, den „wahren“ Lärmpegel geben die Messungen aber nicht wieder. Besser wäre gewesen, wenn ATi eine Drehzahlgeschwindigkeit für den 2D- und eine für den 3D-Modus festgelegt hätte. Die Radeon X1800 XT konnte in dieser Disziplin besser überzeugen, da die Geräusche des Lüfters eher in den unteren Frequenzen angesiedelt waren. Hier herrscht also noch viel Nachholbedarf für die Kanadier!

Ein identisches Bild ergibt sich mit der „Radeon X1900 CrossFire“-Karte in Kombination mit der X1900 XTX. Unter Windows sind die beiden Adaptionen nur minimal lauter als eine X1900 XTX, womit ein nervenschonendes Arbeiten problemlos möglich ist. Die Sachlage ändert sich erneut unter Last: Beide Propeller drehen in unregelmäßigen Abständen mal schneller und mal etwas langsamer, was sehr störend ist. Zudem ist erneut ein hochfrequentes Fiepen zu hören, was man selbst im Spielgenuss kaum ignorieren kann. Zwei GeForce-7800-GTX-512-Karten arbeiten in dieser Disziplin deutlich leiser als die neuen CrossFire-Vertreter von ATi.

Quelle: http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/27/#abschnitt_lautstaerke

Also ich entscheide mich da dann lieber für das kleinere Übel! Abgesehen davon, hatte ich 2006 noch einen Röhrenmonitor, auf welchem das AF-Geflimmer nicht zu sehen war. Meine Entscheidung war also sehr wohl kalkuliert ;)

Außerdem konnte man bei der 7900 GTX die Sparfilter wenigstens deaktivieren, was man bei ATI aktuell leider nicht kann. Und wie bereits gesagt wurde, war 16xAF HQ auf der 7900GTX immer noch besser als AI Standard auf einer HD4870.

V2.0
2009-05-19, 12:26:43
Hmmm, der Warhead-Vergleich ist nicht gerade schmeichelnd für ATI.

Es wäre wirlich mal interessant zu sehen wie NV Performace dagegen aussieht.

reunion
2009-05-19, 12:36:49
Nun zumindest haben einige der hier Anwesenden Bildqualitätsverfechter sich 2006/2007 mal eine Auszeit gegönnt.


Genau das ist der Punkt, fast alle die hier meckern hatten vorher natürlich eine NV4x/G7x-Karte. Das ist unglaubwürdig.

Savay
2009-05-19, 12:44:15
Genau das ist der Punkt, fast alle die hier meckern hatten vorher natürlich eine NV4x/G7x-Karte. Das ist unglaubwürdig.

naja ein paar leuten möchte ich nun wirklich keine aufrechten ziele und objektivität absprechen aber es ist schon auffällig das einige die am lautesten schreien eine rosinenpicker mentalität sondergleichen an den tag legen...damals wars ja ok und das kleinere übel und heute ist es nicht tragbar! tut mir leid...das geht garnicht... :mad:

davon mal ab für crysis gilt: AI off < Q aber selbst mit HQ flimmert das spiel noch wie sau...und MIR eindeutig zuviel als das der AF noch großartig ins gewicht fällt.

vorallem würde mich jetzt mal WoW interessieren mit den sehr flimmeranfälligen texturen. dort sehe ich zwischen AI off und AI on keinerlei unterschied ingame...zumindest ist ein unterschied nicht augenscheinlich (ausser das die alphatests mit AI off bildfehler erzeugen). allerdings gilt auch dort...die ganzen alphatest fooliage texturen und vorallem die mit 3.0 dazugekommenen schatten flimmern eh permanent und überdecken beim spielen in vielen gebieten größtenteils die texturen.
in flugsequenzen wo kaum schatten und keine fooliage texturen zu sehen sind ist der sparfilter da imo noch am augenscheinlichsten.

BTW y33H@: hast du auch eine R5x0? mich würde mal der direkte vergleich dazu interessieren...meine ist leider eine AGP karte sonst würde ich ja mal selber videos von R5x0 HQ AF + AI off vs. RV770 AI off anfertigen.

Sonyfreak
2009-05-19, 12:44:59
Genau das ist der Punkt, fast alle die hier meckern hatten vorher natürlich eine NV4x/G7x-Karte. Das ist unglaubwürdig.Ich hatte kurzzeitig eine 7900GT, die aber schon nach etwas über 3 Monaten meinen PC wieder verlassen hat. Gruseliges Teil. ;)

mfg.

Sonyfreak

LovesuckZ
2009-05-19, 12:45:50
Genau das ist der Punkt, fast alle die hier meckern hatten vorher natürlich eine NV4x/G7x-Karte. Das ist unglaubwürdig.

Nein, unglaublich sind AMD User, die in einem zeitraum unglaublich Heiß auf die ansiotropische Filterung waren, aber es ihnen im Grunde komplett am Arsch vorbeigegangen ist.
Das Leute ihre Ansprüche höher schrauben, ist AMD User anscheinend unbekannt - die schrauben sie ja nur runter. ;D
Und weißt du, wem das AF der r5xx so gefallen hat, der hätte ja nie ein r6xx/r7xx kaufen dürfen. Soviel zur Doppelmoral. :rolleyes:

desert
2009-05-19, 12:46:55
Genau das ist der Punkt, fast alle die hier meckern hatten vorher natürlich eine NV4x/G7x-Karte. Das ist unglaubwürdig.

Wieso? auch die karten beherrschten schon hybridmodis. Und damit lagen sie bq doch vor ati.

Ich spiele lieber mit 30 fps auf hq und ssaa, als 200 fps und flimmer anfällig. Mit ssaa flimmert einfach nichts mehr oder nur noch sehr wenig. Auf hq hat auch ein g70 sehr gut gefiltert, er hatte halt noch die bekloppte winkelabhängikeit die ati auf hq nicht mehr hatte.

Nur habe ich bei ati keine wahl in was ich meine leistung investieren will, friss oder stirb.

Bei nividia kann ich noch wählen und deswegen kaufe ich nur nvidia. Da ist es meine entscheidung und nicht die entscheidung irgendeines marketing fuzzis.

Sonyfreak
2009-05-19, 12:53:31
Wieso? auch die karten beherrschten schon hybridmodis. Und damit lagen sie bq doch vor ati.Die Geforce 7 Reihe war aber so brustschwach, dass man schon froh sein konnte, wenn damit die normalen MSAA-Modi halbwegs brauchbar gelaufen sind. Durch das Rendertarget von 4096x4096 waren hohe Auflösungen in Verbindung mit SSAA auch nicht möglich. Wirklich nutzbar wurden diese Modi meiner Meinung nach erst mit der 8800er Serie.

mfg.

Sonyfreak

desert
2009-05-19, 12:57:53
Die Geforce 7 Reihe war aber so brustschwach, dass man schon froh sein konnte, wenn damit die normalen MSAA-Modi halbwegs brauchbar gelaufen sind. Durch das Rendertarget von 4096x4096 waren hohe Auflösungen in Verbindung mit SSAA auch nicht möglich. Wirklich nutzbar wurden diese Modi meiner Meinung nach erst mit der 8800er Serie.

mfg.

Sonyfreak

wieso, damals habe ich auflösungen von 800 x 600 bis 1024 x 768 gehabt. das reichte meistens.

Grestorn
2009-05-19, 12:59:17
Nun zumindest haben einige der hier Anwesenden Bildqualitätsverfechter sich 2006/2007 mal eine Auszeit gegönnt.

Es waren nur andere Leute. Einige davon erklären heute die BQ für unwichtig.

Gast
2009-05-19, 13:02:07
Nein, unglaublich sind AMD User, die in einem zeitraum unglaublich Heiß auf die ansiotropische Filterung waren, aber es ihnen im Grunde komplett am Arsch vorbeigegangen ist.
Und weißt du, wem das AF der r5xx so gefallen hat, der hätte ja nie ein r6xx/r7xx kaufen dürfen. Soviel zur Doppelmoral. :rolleyes:

Nicht unbedingt, einige haben es sogar so gemacht.Steht sogar hier im Thread und diese Personen haben damals auch an den BQ Diskussionen teilgenommen.


Das Leute ihre Ansprüche höher schrauben, ist AMD User anscheinend unbekannt - die schrauben sie ja nur runter. ;D


Ja, ja, ATI Besitzer sind eben Primaten und haben unterirdische Grafikkarten.Dein Standpunkt hat mittlerweile jeder mitbekommen.

So manchen Satz könntest du auch mal im Kopf lassen, bzw. eine Verwarnung wäre da echt mal angebracht.

Ausserdem, würde mich nicht wundern, wenn du nach dem NV40 einen G70 und dann nen G80 hattest, du lehnst dich mit deiner obigen Behauptung ganz schön weit aus dem Fenster.

Nicht nur auf andere zeigen, auch mal an die eigene Nase fassen.

Savay
2009-05-19, 13:02:30
Und weißt du, wem das AF der r5xx so gefallen hat, der hätte ja nie ein r6xx/r7xx kaufen dürfen. Soviel zur Doppelmoral. :rolleyes:

du setzt 1. schonmal vorraus das sich jeder ATI käufer die R5x0 primär wegen des AF und nicht wegen der performance bzw im fall des RV570 der P/L gekauft hat und 2. unterscheidet sich die AI on qualität wenn überhaupt nur marginal! :rolleyes: wer mit AI off spielt ist selber schuld...den haufen an bildfehlern in manchen spielen den du dir für den besseren AF reinholst senkt die BQ stärker als der gewinn durch den besseren filter.

nicht das ich traurig drum wäre wenn ATI gezwungen ist die kopplung aufzuheben und den AF mit dem RV870 zu verbessern :)

BTW: wir können ja mal eine umfrage machen wieviele der R5x0 käufer mit HQ AF + AI on und wieviele mit HQ AF + AI off...und wieviel gänzlich ohne HQ AF gespielt haben. :tongue:

Dr. Cox
2009-05-19, 13:02:31
Nein, unglaublich sind AMD User, die in einem zeitraum unglaublich Heiß auf die ansiotropische Filterung waren, aber es ihnen im Grunde komplett am Arsch vorbeigegangen ist.
Das Leute ihre Ansprüche höher schrauben, ist AMD User anscheinend unbekannt - die schrauben sie ja nur runter. ;D
Und weißt du, wem das AF der r5xx so gefallen hat, der hätte ja nie ein r6xx/r7xx kaufen dürfen. Soviel zur Doppelmoral. :rolleyes:

Richtig ;)


Genau das ist der Punkt, fast alle die hier meckern hatten vorher natürlich eine NV4x/G7x-Karte. Das ist unglaubwürdig.
Die 7900GTX hatte bei mir auch nur ein kurzes Gastspiel (ca 4 Monate) bis ich mir dann eine 8800GTX und einen TFT gönnte ;)
Desweiteren habe ich auch bereits erwähnt, dass ich damals noch auf einem Röhrenmonitor gezockt habe, welcher das Geflimmer verschluckt hat. Aber anscheinend wissen hier einige nicht mehr was ein Röhrenmonitor ist, oder können/wollen nicht lesen.

Sonyfreak
2009-05-19, 13:03:14
wieso, damals habe ich auflösungen von 800 x 600 bis 1024 x 768 gehabt. das reichte meistens.Ok, in dem Fall war das natürlich ne Möglichkeit die BQ zu verbessern. Ich spiele hingegen schon seit Jahren in vergleichsweise hohen Auflösungen (zuerst 1600x1200 und jetzt 1680x1050). Daher war bei mir die Verwendung der Hybridmodi leistungsmäßig halt nicht drinnen. :)
wir können ja mal eine umfrage machen wieviele der R5x0 käufer mit HQ AF + AI on und wieviele mit HQ AF + AI off...und wieviel gänzlich ohne HQ AF gespielt haben. :tongue:Man kann gar nicht sinnvoll ohne AI spielen, da daran auch die sinnvollen Optimierungen des Treibers gekoppelt sind. Einige Spiele werden durch das abschalten derselben unspielbar. Genau das ist ja das hier besprochene Problem.

mfg.

Sonyfreak

LovesuckZ
2009-05-19, 13:06:38
du setzt 1. schonmal vorraus das sich jeder ATI käufer die R5x0 nur wegen des AF und nicht wegen der performance bzw P/L gekauft hat und 2. unterscheidet sich die AI on qualität wenn überhaupt nur marginal! :rolleyes:

Nicht jeder muss sich angesprochen fühlen.
Es gibt hier aber genug Leute, die ihre Meinung komischerweise immer dann ändern, wenn AMD einen anderen Vorteil hat. Siehe auch die Diskussion mit SM3.0 und 2.x(b) und jetzt mit 10.1 und 10.0.
Aber das driftet wieder ab - hoffentlich bringt y33H@ ein paar Vergleichswerte von A.I Off und A.I Standard.

reunion
2009-05-19, 13:14:02
Nein, unglaublich sind AMD User, die in einem zeitraum unglaublich Heiß auf die ansiotropische Filterung waren, aber es ihnen im Grunde komplett am Arsch vorbeigegangen ist.
Das Leute ihre Ansprüche höher schrauben, ist AMD User anscheinend unbekannt - die schrauben sie ja nur runter. ;D

Natürlich nicht, User wie du mussten ja nur wieviele Jahre warten bis sie wieder die AF-Qualität eines NV20/25 bekamen? Und wenn NV mit GT300 wieder die AF-Qualität eines G7x bietet bist du der erste der das verteidigt, also bitte. Im übrigen ist die Aussagen bestenfalls unpräzise, AI_standard ist mit R6xx/R7xx nicht schlechter als auf R5xx.

y33H@
2009-05-19, 13:14:53
@ N0Thing

Jo, habe ich. Mir mangelt es aktuell aber job-bedingt n bissl an Zeit ;DBTW y33H@: hast du auch eine R5x0?Jupp, ne X1900XT/512 liegt hier.Aber das driftet wieder ab - hoffentlich bringt y33H@ ein paar Vergleichswerte von A.I Off und A.I Standard.Am Wochenende.

h'lore
2009-05-19, 13:27:43
Ne, deekey hat da recht. "Low" bezog sich auf den Grad der Optimierung, heute heißt das gleiche "Standard".Offiziell bezieht sich das "low" auf den Grad der allmächtigen künstlichen Intelligenz ("AI"), die dem Benutzer ach so schwere Entscheidungen wie die nach der gewünschten Bildqualität abnimmt. Zumindest nach außen hin kommunizieren die ATI-Marketingsfuzzis AI durchaus als etwas positives.Die Geforce 7 Reihe war aber so brustschwach, dass man schon froh sein konnte, wenn damit die normalen MSAA-Modi halbwegs brauchbar gelaufen sind.Als die 7800GTX/256 erschien, war sie alles andere als schwach. Überleg mal welche Spiele es zu diesem Zeitpunkt gab. Das erste Spiel, das die Karte auch ohne MSAA an die Grenze brachte, war wohl Fear mit Softschatten. Davor gab es kaum leistungsmäßig anspruchsvolle Spiele, von Riddick (ebenfalls mit Softshadows) vielleicht mal abgesehen. Ein HL2 und >90 % der bis dahin erschienenen Spiele konnte man problemlos mit 8xS plus Transparenz-AA spielen. Bei manch anderen Spielen musste man vielleicht auf 4x MSAA zurückgehen.

Anders sah es natürlich zum Erscheinungszeitpunkt von G7x-Mainstream aus, aber das war ja fast ein 3/4 Jahr später, was im Grafikmarkt recht viel sein kann.

Nach Erscheinen des 78.03-Betratreibers war die BQ auch wieder auf NV40-Niveau. Da man keine Alternativen hatte, nahm man es hin, so auch ich. Nvidia war zu diesem Zeitpunkt praktisch konkurrenzlos, von ATI gab es veraltete SM2-Hardware, die ebenfalls nur winkelabhängiges AF bot. Die Konkurrenz kam für meine Begriffe erst mit dem R580 - dafür aber richtig. Den R520 empfand ich nicht als sonderlich "sexy", der R580 war dann aber ein Top-Produkt imho.Ich meinte ja, dass bei besserer Filterung, also ohne AF-Optimierungen theoretisch mehr Vram verbraucht werden müsste, als wie wenn die Filterung schlechter ist ;)Nein. Es muss ja trotzdem immer die gesamte Textur im Speicher liegen. Theoretisch lässt sich aber halt die Bandbreite für die gesparten Samples sparen, da man diese ja aus dem Speicher zur GPU holen müsste. Praktisch wird das teilweise durch Caches aufgefangen. Weitaus relevanter ist hier aber sowieso eher die Texelfüllrate, welche bei ATI sowieso knapp ist.

Dr. Cox
2009-05-19, 13:31:28
Natürlich nicht, User wie du mussten ja nur wieviele Jahre warten bis sie wieder die AF-Qualität eines NV20/25 bekamen? Und wenn NV mit GT300 wieder die AF-Qualität eines G7x bietet bist du der erste der das verteidigt, also bitte. Im übrigen ist die Aussagen bestenfalls unpräzise, AI_standard ist mit R6xx/R7xx nicht schlechter als auf R5xx.


Falls Nvidia tatsächlich wieder eine schlechtere Bildqualität bieten sollte, ist es letztendlich die Schuld derer, welche die AF-Optimierungen ATIs wehemend verteidigt haben. Ignoranz war noch nie zielführend, was Problemlösungene angeht, Ingoranz hat Probleme in der Vergangenheit eher verharmlost und geschürt! Und das wird sich in der Zukunft auch sicherlich nicht ändern. Immerhin hat ATI doch damals mit der Radeon 9500/9700 die winkelabhängige Filterung eingeführt, welche von Nvidia mit dem NV40 nur nachgemacht und übertrieben wurde. Gerade weil ein perfektes AF in der Mehrheit der User keine Zustimmung fand, dort war nur er längste Balken entscheidend, so wie jetzt auch...

Wenn wir Pech habe wird Nvidia mit dem GT300 wieder vom fast perfekten AF ablassen und es ATI gleich tun. Ein Indiz hierfür ist z.B. dass das TMU/Shader-Verhältnis zugunsten der TMUs beim GT300 schlechter ausfallen wird als beim GT200 :(

desert
2009-05-19, 13:33:49
Natürlich nicht, User wie du mussten ja nur wieviele Jahre warten bis sie wieder die AF-Qualität eines NV20/25 bekamen? Und wenn NV mit GT300 wieder die AF-Qualität eines G7x bietet bist du der erste der das verteidigt, also bitte. Im übrigen ist die Aussagen bestenfalls unpräzise, AI_standard ist mit R6xx/R7xx nicht schlechter als auf R5xx.

Falls nvidia das macht weiss ich was du und deine ati freunde für geschütze auffahren werden.

irgendwie freue ich mich aber schon darauf von euch zu lesen wie wichtig der af-filter plötzlich ist.

Dr. Cox
2009-05-19, 13:37:59
Falls nvidia das macht weiss ich was du und deine ati freunde für geschütze auffahren werden.

irgendwie freue ich mich aber schon darauf von euch zu lesen wie wichtig der af-filter plötzlich ist.

Ich kann es mir bereits schon vorstellen ;D

Savay
2009-05-19, 13:49:58
kindergarten :|

Ein Indiz hierfür ist z.B. dass das TMU/Shader-Verhältnis zugunsten der TMUs beim GT300 schlechter ausfallen wird als beim GT200 :(

es kann aber auch schlicht der tatsache geschuldet sein das die ALU last stetig steigt (vorallem auch da nV stark auf GPGPU abzielt) wogegen die TMU last sich langsam sättig...vorallem die G92 haben wohl doch nen sehr starken TMU overhead für die restliche rohleistung vorallem die bandbreite. das wurde beim GT200 auch schon angepasst.

ich würde keine angst haben das NV aufeinmal die filterleistung verschlechtert, denn nur weil das verhältniss an zukünftige anforderungen angepasst wird muss noch lange nicht die absolute texel leistung sinken :tongue:

reunion
2009-05-19, 13:53:38
Falls nvidia das macht weiss ich was du und deine ati freunde für geschütze auffahren werden.

irgendwie freue ich mich aber schon darauf von euch zu lesen wie wichtig der af-filter plötzlich ist.

Also im Gegensatz zu "euch" kaufe ich nicht blind von einem Hersteller. Auch wenn ich es für erstrebenswert erachten den Underdog entsprechend zu pushen hatte ich fast immer die Karte mit der besseren Filterung. Das mit "deine ATi-Freunde" kannst du dir angesichts dessen sparen. Meine "Laufbahn" sieht folgendermaßen aus: NV20/R300/NV43/RV570/G92. NV30 war trotz besseren AFs als Gesamtpaket einfach zu schwach ggü. R300, bei NV43 wüsste man damals schlicht noch nichts von der schlechten Filterung. Zwischenzeitlich hatte ich der Vollständigkeit halber noch für ein paar Wochen andere Karten, aber das waren diese welche bei mir länger überdauerten.

Dr. Cox
2009-05-19, 13:53:43
es kann aber auch schlicht der tatsache geschuldet sein das die ALU last stetig steigt (vorallem auch da nV stark auf GPGPU abzielt) wogegen die TMU last sich langsam sättig...vorallem die G92 haben wohl doch nen sehr starken TMU overhead für die restliche rohleistung vorallem die bandbreite. das wurde beim GT200 auch schon angepasst.

ich würde keine angst haben das NV aufeinmal die filterleistung verschlechtert, denn nur weil das verhältniss an zukünftige anforderungen angepasst wird muss noch lange nicht die absolute texel leistung sinken :tongue:


Vielleicht haben wir ja auch Glück und beide Hersteller besinnen sich auf bessere Bildqualität...

Das wäre für uns alle natürlich wünschenswert ;)

Laut dieser Seite hier soll die HD5870 96 TMUs haben, das wäre schon einmal ein Schritt in die richtige Richtung:

http://www.hexus.net/content/item.php?item=18240

Würde man dann auch noch alle Optimierungen vom "AI" entkoppeln und SSAA anbieten, würde für mich wieder eine ATI-Karte in Frage kommen ;)

EDIT: Powerplay müsste dann natürlich auch funktionieren :)

N0Thing
2009-05-19, 13:57:01
Desweiteren habe ich auch bereits erwähnt, dass ich damals noch auf einem Röhrenmonitor gezockt habe, welcher das Geflimmer verschluckt hat. Aber anscheinend wissen hier einige nicht mehr was ein Röhrenmonitor ist, oder können/wollen nicht lesen.

Mein alter 17" Röhrenmonitor, der wirklich nicht viel Geld gekostet hat, konnte das Flimmern meiner GF6800 nicht verdecken.
Aber vielleicht war ich damals einfach zu enttäuscht, als ich erfahren habe, daß man mit einer X800/x850 den besseren Kauf gemacht hätte und mir ist deshalb das Flimmern immer deutlich aufgefallen.

Savay
2009-05-19, 13:59:58
ist das forum buggy oder warum sehe ich dauernd quotes von mir die garnicht meine sind? :mad:

y33H@
2009-05-19, 14:01:39
EDIT: Powerplay müsste dann natürlich auch funktionierenTut es bereits bei allen HD3k und HD4k.

Dr. Cox
2009-05-19, 14:03:26
Mein alter 17" Röhrenmonitor, der wirklich nicht viel Geld gekostet hat, konnte das Flimmern meiner GF6800 nicht verdecken.
Aber vielleicht war ich damals einfach zu enttäuscht, als ich erfahren habe, daß man mit einer X800/x850 den besseren Kauf gemacht hätte und mir ist deshalb das Flimmern immer deutlich aufgefallen.

Ich hatte damals einen EIZO Flexscan mit Streifenmaske, auf dem hast du nicht einmal mehr Aliasing erkannt in 1280X1024 :ulol4:


Tut es bereits bei allen HD3k und HD4k.

Aha, deshalb braucht eine HD4870 auch doppelt so viel Strom im IDLE wie eine GTX260... ;D


ist das forum buggy oder warum sehe ich dauernd quotes von mir die garnicht meine sind? :mad:

Ich sehe sie auch ;)

Gast
2009-05-19, 14:04:49
Mein alter 17" Röhrenmonitor, der wirklich nicht viel Geld gekostet hat, konnte das Flimmern meiner GF6800 nicht verdecken.
Aber vielleicht war ich damals einfach zu enttäuscht, als ich erfahren habe, daß man mit einer X800/x850 den besseren Kauf gemacht hätte und mir ist deshalb das Flimmern immer deutlich aufgefallen.

Nüchtern betrachtet hatte man damals nur die Wahl zwischen Pest und Cholera.

X8X0= hohe Rohleistung, schlechteres Featureset

GeForce 6= SM 3.0, aber geringere Rohleistung

Perfektes AF gabs bei beiden nicht.

Gast
2009-05-19, 14:06:04
Aha, deshalb braucht eine HD4870 auch doppelt so viel Strom im IDLE wie eine GTX260... ;D

Bei der 4870 macht der Speicher einen Strich durch die Rechnung, wurde schon oft erwähnt.

LovesuckZ
2009-05-19, 14:07:12
Natürlich nicht, User wie du mussten ja nur wieviele Jahre warten bis sie wieder die AF-Qualität eines NV20/25 bekamen? Und wenn NV mit GT300 wieder die AF-Qualität eines G7x bietet bist du der erste der das verteidigt, also bitte. Im übrigen ist die Aussagen bestenfalls unpräzise, AI_standard ist mit R6xx/R7xx nicht schlechter als auf R5xx.

So ein Quatsch.
Wieso sollte ich mich freuen, wenn die AF Qualität verschlechtert oder ich mich mit Nebenbedingungen rumschlagen würde? :rolleyes:

Sonyfreak
2009-05-19, 14:07:38
Als die 7800GTX/256 erschien, war sie alles andere als schwach. Überleg mal welche Spiele es zu diesem Zeitpunkt gab. Das erste Spiel, das die Karte auch ohne MSAA an die Grenze brachte, war wohl Fear mit Softschatten. Davor gab es kaum leistungsmäßig anspruchsvolle Spiele, von Riddick (ebenfalls mit Softshadows) vielleicht mal abgesehen. Ein HL2 und >90 % der bis dahin erschienenen Spiele konnte man problemlos mit 8xS plus Transparenz-AA spielen. Bei manch anderen Spielen musste man vielleicht auf 4x MSAA zurückgehen.Damals (Mitte 2005) aktuelle Spiele wie Far Cry, Quake 4, Call of Duty 2 oder Serious Sam 2 haben den G70 an den Rand seiner Leistungsfähigkeit gebracht. Da war selbst bei moderaten Auflösungen oft nicht mehr als 2xAA drinnen. Far Cry hab ich beispielsweise auf 1152x864 mit 2xTMSAA und 8xAF nur leidlich gut durchspielen können. Mit HDR (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_radeon_x1000_geforce_7/4/#abschnitt_performance) sah es noch schlimmer aus.

mfg.

Sonyfreak

_DrillSarge]I[
2009-05-19, 14:11:31
Damals (Mitte 2005) aktuelle Spiele wie Far Cry, Quake 4, Call of Duty 2 oder Serious Sam 2 haben den G70 an den Rand seiner Leistungsfähigkeit gebracht. Da war selbst bei moderaten Auflösungen oft nicht mehr als 2xAA drinnen. Far Cry hab ich beispielsweise auf 1152x864 mit 2xTMSAA und 8xAF nur leidlich gut durchspielen können. Mit HDR (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_radeon_x1000_geforce_7/4/#abschnitt_performance) sah es noch schlimmer aus.

mfg.

Sonyfreak
das ist heute auch nicht anders. spiele, die auf einer x1800/x1900 noch spielbar sind, bei denen versagt g70 völlig.
und genau bei diesem chip hat ja nv auch (afaik größtenteils nur treiberseitig; treiberdefault) am af gespart gehabt. wenigstens konnte man alle verschlimmbesserungen abschalten.

Dr. Cox
2009-05-19, 14:12:37
Bei der 4870 macht der Speicher einen Strich durch die Rechnung, wurde schon oft erwähnt.

Das könnte/sollte man aber schon in den Griff bekommen ;)

h'lore
2009-05-19, 14:12:47
NV43 wüsste man damals schlicht noch nichts von der schlechten FilterungWie meinst du das? Dass NV40 und Derivate nur winkelabhängiges AF bieten, war zum Erscheinen des NV43 schon längst bekannt. Aber man hatte ja eh keine Alternative, da die damaligen ATI-Chips den gleichen Mist fabrizierten. Wenn man also nicht beim NV30 bleiben wollte, was zu dieser Zeit bereits praktisch einen Verzicht auf aktuelle Spiele mit sich brachte, war man mehr oder weniger gezwungen, das winkelabhängige AF des NV4x und R4x0 zu wählen. Erst ATI war es dann, die mit R520 unter dem Markennamen "Area-AF" die Winkelabhängigkeit abschaffte, wofür sie immer noch meine Anerkennung haben.

Leider hat man von diesem Zeitpunkt an das AF kontinuierlich verschlechtert, während NV es zur Perfektion brachte. Mit R580 war zumindest mit abgeschaltetem AI das AF noch einwandfrei.

N0Thing
2009-05-19, 14:16:15
ist das forum buggy oder warum sehe ich dauernd quotes von mir die garnicht meine sind? :mad:


Hab scheinbar die falsche Textstelle stehen gelassen. Oder es war ein Fehler im Board. ;)


Ich hatte damals einen EIZO Flexscan mit Streifenmaske, auf dem hast du nicht einmal mehr Aliasing erkannt in 1280X1024 :ulol4:

Das meinst du nicht ernst, oder? ;D

Dr. Cox
2009-05-19, 14:18:27
Das meinst du nicht ernst, oder? ;D

Das Teil war so alt und unscharf, das kannst und willst du dir nicht vorstellen :D

Aber schöne Farben hat das Teil dargestellt ;)

y33H@
2009-05-19, 14:19:58
Aha, deshalb braucht eine HD4870 auch doppelt so viel Strom im IDLE wie eine GTX260Beschäftige dich mit der Materie. Der MC läuft immer mit vollem Takt und 3D-Spannung. AMD hat das bis heut nicht gefixt, wohl weil der MC die Taktsprünge auf Dauer nicht verkraftet. Mit PP hat das aber nichts zu tun.

Dr. Cox
2009-05-19, 14:22:48
Beschäftige dich mit der Materie. Der MC läuft immer mit vollem Takt und 3D-Spannung. AMD hat das bis heut nicht gefixt, wohl weil der MC die Taktsprünge auf Dauer nicht verkraftet. Mit PP hat das aber nichts zu tun.

Da brauche ich mich nicht weiter mit zu beschäftigen, ich weiß das schon lange (hohe Frequenz=hoher Strom)! Nur ändert das eben nichts am Gesamtergebnis, denn nur darauf kommt es an. Und ATI hätte das Problem zumindest beim RV790 in den Griff bekommen können ;)

V2.0
2009-05-19, 14:24:45
Immerhin hat der NV70 mit der Zeit noch einen "funktionierenden" HQ Modus gekriegt, natürlich immer nur innerhalb der Möglichkeiten der GPU.

Dnahc war der Chip ok, aber ich finde auch heutige ATIs ok.

Gast
2009-05-19, 14:25:09
Falls Nvidia tatsächlich wieder eine schlechtere Bildqualität bieten sollte, ist es letztendlich die Schuld derer, welche die AF-Optimierungen ATIs wehemend verteidigt haben. Ignoranz war noch nie zielführend, was Problemlösungene angeht, Ingoranz hat Probleme in der Vergangenheit eher verharmlost und geschürt! Und das wird sich in der Zukunft auch sicherlich nicht ändern. Immerhin hat ATI doch damals mit der Radeon 9500/9700 die winkelabhängige Filterung eingeführt, welche von Nvidia mit dem NV40 nur nachgemacht und übertrieben wurde. Gerade weil ein perfektes AF in der Mehrheit der User keine Zustimmung fand, dort war nur er längste Balken entscheidend, so wie jetzt auch...

Wenn wir Pech habe wird Nvidia mit dem GT300 wieder vom fast perfekten AF ablassen und es ATI gleich tun. Ein Indiz hierfür ist z.B. dass das TMU/Shader-Verhältnis zugunsten der TMUs beim GT300 schlechter ausfallen wird als beim GT200 :(
nVidia wird weder wegen diesem noch einem anderen Thread in diesem Forum die Filter zurueckschrauben, noch wird Ati deswegen die ihrigen verbessern. Sollte der naechste Ati Chip in punkto Fuellrate nV aehnliche Werte erreichen, wird Ati es eventuel tun, sollte G300 nicht schneller als R(v)8x0 sein, wird nV wieder am Filter sparen. Was lernen wir hieraus: weder du noch jemand anders in diesem Forum sind wichtig genug um einen der beiden IHVs dazu zubewegen die Filter zu verbessern oder verschlechtern, sondern der andere IHV im direkten Vergleich.

reunion
2009-05-19, 14:44:43
Wie meinst du das? Dass NV40 und Derivate nur winkelabhängiges AF bieten, war zum Erscheinen des NV43 schon längst bekannt. Aber man hatte ja eh keine Alternative, da die damaligen ATI-Chips den gleichen Mist fabrizierten. Wenn man also nicht beim NV30 bleiben wollte, was zu dieser Zeit bereits praktisch einen Verzicht auf aktuelle Spiele mit sich brachte, war man mehr oder weniger gezwungen, das winkelabhängige AF des NV4x und R4x0 zu wählen. Erst ATI war es dann, die mit R520 unter dem Markennamen "Area-AF" die Winkelabhängigkeit abschaffte, wofür sie immer noch meine Anerkennung haben.

Leider hat man von diesem Zeitpunkt an das AF kontinuierlich verschlechtert, während NV es zur Perfektion brachte. Mit R580 war zumindest mit abgeschaltetem AI das AF noch einwandfrei.

Es gibt auch Kriterien für vernünftiges AF außer der Winkelabhängigkeit, sonst würden wir heute nicht hier diskutieren. NV4x sparte ähnlich wie heute ATi massiv Samples, während R4xx einzig bri-filterte. Die Sampleoptimierungen kamen bei AMD erst ab R5xx. R4xx war wesentlich weniger flimmenanfällig wie NV4x. Das wurde aber erst viel später bekannt, zu Beginn fiel das keinem Schwein auf.

Dr. Cox
2009-05-19, 14:46:00
Ich habe noch eine 6800GT hier, soll ich mal demnächst ein Video machen?

reunion
2009-05-19, 14:47:13
I[;7309526']das ist heute auch nicht anders. spiele, die auf einer x1800/x1900 noch spielbar sind, bei denen versagt g70 völlig.
und genau bei diesem chip hat ja nv auch (afaik größtenteils nur treiberseitig; treiberdefault) am af gespart gehabt. wenigstens konnte man alle verschlimmbesserungen abschalten.

Nein konnte man nicht. Auch HQ sparte auf G7x noch an Samples.

_DrillSarge]I[
2009-05-19, 14:51:38
Nein konnte man nicht. Auch HQ sparte auf G7x noch an Samples.
dann halt so. wollte nur zeigen, das die ihvs nicht aus jux und dollerei sparen. :biggrin:

h'lore
2009-05-19, 14:54:56
Es gibt auch Kriterien für vernünftiges AF außer der Winkelabhängigkeit, sonst würden wir heute nicht hier diskutieren. NV4x sparte ähnlich wie heute ATi massiv Samples, während R4xx einzig bri-filterte. Die Sampleoptimierungen kamen bei AMD erst ab R5xx. R4xx war wesentlich weniger flimmenanfällig wie NV4x. Das wurde aber erst viel später bekannt, zu Beginn fiel das keinem Schwein auf.Unter HQ war NV40 nicht schlechter als R420. Vor allem wurden nicht "massiv Samples gespart". Auch Tri-AF hat man bekommen, wenn man es eingestellt hat (-> HQ). Komm jetzt bitte nicht mit den Rennspielen und dem negativen LOD-Bias-Kram.

Coda
2009-05-19, 16:15:21
Doch bei Quality wurden da tatsächlich massiv Samples gespart.

h'lore
2009-05-19, 16:50:34
Doch bei Quality wurden da tatsächlich massiv Samples gespart.Die Standardeinstellungen zu NV40-Zeiten beinhalteten damals ja auch noch die "anisotrope Sampleoptimierung" zusätzlich zum Bri-Filter. Konnte man aber seperat deaktivieren. Mein Beitrag bezog sich allerdings auf HQ (-> "Unter HQ war...").

Jake Dunn
2009-05-19, 17:05:03
Aha, deshalb braucht eine HD4870 auch doppelt so viel Strom im IDLE wie eine GTX260... ;D



Stimmt zwar nicht, aber ist ja deine Welt :rolleyes:

http://www.abload.de/img/unbenanntjtn7.jpg

Mr. Lolman
2009-05-19, 17:21:58
Die Standardeinstellungen zu NV40-Zeiten beinhalteten damals ja auch noch die "anisotrope Sampleoptimierung" zusätzlich zum Bri-Filter. Konnte man aber seperat deaktivieren. Mein Beitrag bezog sich allerdings auf HQ (-> "Unter HQ war...").

Das war nicht nur damals, sondern bis vor kurzem immernoch der Fall - vll. zwischenzeitlich nicht - aber mit dem 177.98 war jedenfalls standardmässig Bri, Clamp und die Sampleoptimierung aktiv, sobald man AF übers CP aktiviert hat.

Dr. Cox
2009-05-19, 17:27:08
Wir wollen doch mal fair bleiben, also 55nm vs 55nm:

Die Radeon HD 4890 rauscht im Idle-Modus aus 50 Zentimetern Abstand bereits mit 2,4 Sone. Die elektrische Leistungsaufnahme beträgt dabei jedoch satte 60 Watt (HD 4870/1G: 55 Watt).

Die Geforce GTX 275 erreicht im Leerlauf leise 1,2 Sone. Dank des funktionierenden 2D-Modus mit deutlich gesenkten Taktraten beträgt die elektrische Leistungsaufnahme dabei 34 Watt.

http://www.pcgameshardware.de/aid,680242/Test-Ati-Radeon-HD-4890-gegen-Nvidia-Geforce-GTX-275/Grafikkarte/Test/?page=3

Und das ist fast die doppelte Leistungsaufnahme. Bei einer HD4870 vs GTX260 (55nm) wird das ähnlich aussehen ;)

Vielleicht hat y33H@ da noch einen Test für uns...

Jake Dunn
2009-05-19, 17:30:56
Ich hab zu dem Post von dir geantwortet, ich weiß nicht was die 275er od. 4890er jetzt soll ^^

Mr. Lolman
2009-05-19, 17:34:31
Hier siehts wieder ganz anders aus: http://www.xbitlabs.com/articles/video/display/bfg-gf-gtx275oc_5.html#sect0

Jake Dunn
2009-05-19, 17:42:09
Hier siehts wieder ganz anders aus: http://www.xbitlabs.com/articles/video/display/bfg-gf-gtx275oc_5.html#sect0

Denke die Werte kommen nicht ganz hin oder der 2D Mode ging mal wieder bei NV nicht.


Ansonsten regen sich immer die Leute auf, die z.b. ein i7 haben der locker 30W im IDLE mehr durchknallt wie ein C2Q od. PII System.;D

y33H@
2009-05-19, 17:48:39
@ Jake Dunn

Eine GTX260-216 in 55nm schluckt unseren Messungen zufolge auf 29-30 Watt, je nach Modell. Eine HD4870/1G macht 58-71, je nach Modell. Also definitiv mindestens das Doppelte.

Xbitlabs sind in letzter Zeit etwas "komisch".

Savay
2009-05-19, 17:52:41
Xbitlabs sind in letzter Zeit etwas "komisch".

selbiges könnte man auch über die PCGH sagen...ich erinnere mich da an komische benchmarks zum rv770 launch die nun überhaupt nicht konform mit den ergebnissen nahezu aller online magazine waren.

aber wird das nicht doch alles wieder zu OT? wieso meckert denn jetzt eigentlich keiner?...ein schelm ;D

Jake Dunn
2009-05-19, 17:53:46
Ja BTT

Gibt es schon neue Videos? :)

y33H@
2009-05-19, 17:55:34
@ Savay

Das ist OT. Wir hatten eine verbuggte Nforce-Platine ... zudem sagte ich nur, die Werte seien "komisch" und flame nicht - du schon. Troll dich oder spiel weiter mit deiner faktisch besseren faktischen Flimmerhölle. Rot, AMD, Hölle ... haha ;D

@ Jake Dunn

Geben ja - lokal bei mir *g*

Dr. Cox
2009-05-19, 18:04:03
@ Jake Dunn

Eine GTX260-216 in 55nm schluckt unseren Messungen zufolge auf 29-30 Watt, je nach Modell. Eine HD4870/1G macht 58-71, je nach Modell. Also definitiv mindestens das Doppelte.

Xbitlabs sind in letzter Zeit etwas "komisch".

Ich wusste es doch, auf dich ist immer verlass ;) :D


selbiges könnte man auch über die PCGH sagen...ich erinnere mich da an komische benchmarks zum rv770 launch die nun überhaupt nicht konform mit den ergebnissen nahezu aller online magazine waren.


Ich glaube, die Verschwörungstheorien gegen PCGH seitens der Horde ignoranter FanATIker sind bereits aufgeklärt wurden, du brauchst nur mal auf PCGH danach zu suchen ;)

Jake Dunn
2009-05-19, 18:13:29
Da haben sich ja zwei gefunden ;D

Mr. Lolman
2009-05-19, 18:13:40
Ich wusste es doch, auf dich ist immer verlass ;) :D


Ich glaube, die Verschwörungstheorien gegen PCGH seitens der Horde ignoranter FanATIker sind bereits aufgeklärt wurden, du brauchst nur mal auf PCGH danach zu suchen ;)

Lassen wir das Thema lieber. Denn PCGH hat dabei jedenfalls nicht besonders gut ausgesehen, und das würden sie erneut nicht, wenn hier wieder die gesamte Geschichte von vorne aufgerollt würde. Deswegen spar dir deine orwellsche Semantik besser für andere Foren auf und schalt hier mal nen Gang runter. =)

Savay
2009-05-19, 18:43:28
@ Savay

Das ist OT. Wir hatten eine verbuggte Nforce-Platine ... zudem sagte ich nur, die Werte seien "komisch" und flame nicht - du schon. Troll dich oder spiel weiter mit deiner faktisch besseren faktischen Flimmerhölle. Rot, AMD, Hölle ... haha ;D


:rolleyes: oh mann warum so empfindlich...nicht gleich eingeschnappt reagieren...wo liest du einen flame? oder ist es eher so das du einen flame lesen "willst"
nebenbei hast du nicht geschrieben die werten seien komisch...sondern xbitlabs sei komisch das ist ein unterschied.

ausserdem habe ich nie behauptet die PCGH sei in irgendeiner form parteiisch. :| ich hab alle ausgaben seit der ersten...nur nehme ich mit verlaub einfach seit dieser gewissen ausgabe die benchmarks selber nicht mehr 100% für bare münze...auch wenn ich die restlichen artikel, news etc. immernoch sehr schätze.

hier werden in aussagen immer gleich dinge hineininterpretiert die überhaupt nicht im zusammenhang mit dem gesagten stehen.

aber genug OT das hat hier alles nix zu suchen wie mir ja mehrmals mit nachdruck eingebleut wurde... :tongue:

Gast
2009-05-19, 18:47:10
Nun zumindest haben einige der hier Anwesenden Bildqualitätsverfechter sich 2006/2007 mal eine Auszeit gegönnt.
Was die Geforce 8 mit schlechter BQ zu tun hat musst du noch erklären.
Andererseits schreibst du 2006/2007, damit könntest du auch die nie geübte Kritik an der Qualität des R600 (hier auf 3DC wurde er sogar besser als R5xx betitelt) oder der nie gelobten Qualität der GF8 meinen.

Die Geforce 7 Reihe war aber so brustschwach, dass man schon froh sein konnte, wenn damit die normalen MSAA-Modi halbwegs brauchbar gelaufen sind. Sie war zum Release der X850 XT PE ein gutes Stück vorraus.
Zudem gibts immer noch alte Spiele.

Das ist so wie wenn du du behauptest eine GTX 285 ist zu schwach für SSAA in modernen Spielen. ;)

Genau das ist der Punkt, fast alle die hier meckern hatten vorher natürlich eine NV4x/G7x-Karte. Das ist unglaubwürdig.
Stimmt, R4xx war eine reine Augenweide gegen NV4x.
Teils schlechtere Filterqualität und kein SSAA.
Belanglosigkeiten wie das bei Nvidia eigenführte TSSAA sind wurst.

Schwarz weiß ahoi.

y33H@
2009-05-19, 18:53:41
warum so empfindlichWeil es immer wieder Leute gibt, die meinen, wegen der Geschichte nachtreten zu müssen ;( nur nehme ich mit verlaub einfach seit dieser gewissen ausgabe die benchmarks selber nicht mehr 100% für bare münzeDas ist schade. In sich sind die Werte stimmig - und waren es auch im Falle des Nforce mit genau diesem BIOS ... wenn man es denn so genau nimmt. Nun aber B2T.

Sonyfreak
2009-05-19, 19:21:05
Sie war zum Release der X850 XT PE ein gutes Stück vorraus.Die ja auch ne (halbe) Generation älter ist und nie als Konkurrenz zum G70 geplant war. Bei einigen älteren Titeln waren die Hybridmodi durchaus verwendbar, das stimmt natürlich. :smile:

mfg.

Sonyfreak

h'lore
2009-05-19, 19:27:10
Das war nicht nur damals, sondern bis vor kurzem immernoch der Fall - vll. zwischenzeitlich nicht - aber mit dem 177.98 war jedenfalls standardmässig Bri, Clamp und die Sampleoptimierung aktiv, sobald man AF übers CP aktiviert hat.Und dieser Treiber wurde von Nvidia vertrieben? Ich kann ihn nämlich nicht im Treiberarchiv finden. Nach dem 177.92 Beta kam gleich der 178.13 WHQL. Ich kann mich auch an keinen Geforce-8-Treiber erinnern, der die Sample-Optimierung standardmäßig aktiviert hatte. Allerdings habe ich auch immer nur Treiber genutzt, die man von Nvidia oder der Nzone-Seite beziehen konnte.

Schlammsau
2009-05-19, 19:39:17
Und dieser Treiber wurde von Nvidia vertrieben? Ich kann ihn nämlich nicht im Treiberarchiv finden. Nach dem 177.92 Beta kam gleich der 178.13 WHQL. Ich kann mich auch an keinen Geforce-8-Treiber erinnern, der die Sample-Optimierung standardmäßig aktiviert hatte. Allerdings habe ich auch immer nur Treiber genutzt, die man von Nvidia oder der Nzone-Seite beziehen konnte.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=430808&highlight=177.98

Dr. Cox
2009-05-19, 19:43:25
Lassen wir das Thema lieber. Denn PCGH hat dabei jedenfalls nicht besonders gut ausgesehen, und das würden sie erneut nicht, wenn hier wieder die gesamte Geschichte von vorne aufgerollt würde. Deswegen spar dir deine orwellsche Semantik besser für andere Foren auf und schalt hier mal nen Gang runter. =)

Da hast du auch weder recht, war halt eine dumme Sache damals, die jedem hätte passieren können, sowas ist für keine Page/Zeitschrift gut ;)


Die ja auch ne (halbe) Generation älter ist und nie als Konkurrenz zum G70 geplant war. Bei einigen älteren Titeln waren die Hybridmodi durchaus verwendbar, das stimmt natürlich. :smile:


Habe das mit meiner 7900GTX nie ausprobiert, da ich sie dafür viel zu kurz hatte. Jedoch ist es für mich sehr schwer vorstellbar, dass man mit der 7900GTX damalige Spiele flüssig mit 8xSQ hätte fahren können...

EDIT: Hat die 7900GTX überhaupt schon 8xSQ unterstützt?

Wenn ich mich recht erinnere ist der 7900GTX bereits in einigen Spielen mit 16xAF die Puste ausgegangen (falls ich mich irren sollte bitte korrigieren) ;)

Gast
2009-05-19, 19:54:39
EDIT: Hat die 7900GTX überhaupt schon 8xSQ unterstützt?

Natürlich.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=430808&highlight=177.98
Wo ist da der Link zu nvidia?

h'lore
2009-05-19, 19:56:57
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=430808&highlight=177.98->
Es sind wieder einmal neue Treiber aufgetaucht...Yeah. Als verschlüsselte RAR-Dateien auf einem Server im asiatisch-pazifischen Raum.

Das kann nun wirklich nicht der Maßstab für Kritik an Defaulteinstellungen in Nvidia-Treibern sein. Selbst wenn die Treiber von NV signiert sein sollten und so wie sie sind aus deren Hause stammen, kann das wohl kaum ernst gemeint sein. Offizielle (Beta-)Treiber seit G80 hatten standardmäßig immer lediglich die trilineare Optimierung aktiv.

edit: Warum wohl gibts da keine Version für Vista 64? ;)

desert
2009-05-19, 20:32:44
Das war nicht nur damals, sondern bis vor kurzem immernoch der Fall - vll. zwischenzeitlich nicht - aber mit dem 177.98 war jedenfalls standardmässig Bri, Clamp und die Sampleoptimierung aktiv, sobald man AF übers CP aktiviert hat.

das war wohl eher ein bug, weil die treiber vorher und nachher haben das nicht gemacht. Da war die sampleotimierung aus.

Bleib doch einfach mal bei der wahrheit und nehme nicht immer alles nur selektiv war.

Oder hat hier irgendeiner ein fass aufgemacht als der 9.1 plötzlich kein af mehr dargestellt hat unter crysis. War ein bug, nur bei nvida ist das natürlich wieder mal von langer hand geplant um den unbedarften user zu hintergehen.

wird dir das nicht langsam peinlich?

Wie weiter oben geschrieben taucht er nichtmal in der treiberhistorie von nvidia auf. soll ich jetzt annehmen das fanATIker ihn programmiert haben und in umlauf gebracht haben um nivdia zu diskreditieren? Damit Herr Lolmann noch jahre später darauf rumreiten kann. Ausserdem haben wir dir doch in einem anderen thread gezeigt das das verhalten nur auf diesen treiber zu trifft. Wieso reitest dann immer noch darauf rum? Was bringt dir das?

V2.0
2009-05-19, 20:38:54
Das war nicht nur damals, sondern bis vor kurzem immernoch der Fall - vll. zwischenzeitlich nicht - aber mit dem 177.98 war jedenfalls standardmässig Bri, Clamp und die Sampleoptimierung aktiv, sobald man AF übers CP aktiviert hat.

War der überhaupt ein Alpha-Treiber? Das war weder ein Releasetreiber noch ein offizieller Beta. afaik.

Mr. Lolman
2009-05-19, 21:22:47
War der überhaupt ein Alpha-Treiber? Das war weder ein Releasetreiber noch ein offizieller Beta. afaik.

@all. Jetzt reitets nicht alle auf den Treiber herum. Ich hab wahrlich besseres zu tun, als alle Treiber durchzutesten (auch ein Grund, warum ich privat von NV weg bin). Dan hab ich halt einfach an meinem Arbeitsrechner installiert gehabt (iirc, weil die Crysis Performance besser wurde ;)), und da ists mir aufgefallen. Ich hab ja meine Aussage ohnehin eingeschränkt. Außerdem kommen die Treiber alle von NV selbst, und wenn sich der Treiber nunmal so verhält, dann ist das eben von NV gewollt, und nicht vom Herrn Lolman der wiedermal selektiv NV bashen will. Alles klar?


EDIT: Bug? Von wegen. ;D

EDIT2: Wär ja auch ein lustiger Zufall, dass gerade der einzige der 3 Treiber die ich im letzten Jahr installiert hatte, bei dem ich das mal überprüft hab, genau dieses Verhalten zeigt. Und dass das dann auch noch ein mimimiBug gewesen sein soll.

Naja. Andererseits kanns ja wirklich ein Zufall gewesen sein, und deswegen sparen wir uns besser weitere ziellose Diskussionen darüber, ok?

Gast
2009-05-19, 21:31:10
@all. Jetzt reitets nicht alle auf den Treiber herum.
[...] und wenn sich der Treiber nunmal so verhält, dann ist das eben von NV gewollt, und nicht vom Herrn Lolman der wiedermal selektiv NV bashen will. Alles klar?
Bug? Von wegen. ;D
Oh Mann, einfach mal kräftig auf die Kacke hauen und noch ein wenig Schlamm hinterherwerfen, das Ganze unter dem Deckmäntelchen der Beschwichtigung. Worum geht es eigentlich, einen inoffiziellen Betatreiber (oder gar Alpha), ansonsten war das Verhalten ja bisher nicht zu beobachten. Und soweit ich das sehe konnte man sogar diesen Teufelstreiber mit drei Klicks auf erstklassige Qualität trimmen. :eek:

Gast
2009-05-19, 21:54:12
Inoffzielle Treiber sollten nicht Grundlage einer Diskussion sein, um das Verhalten offizieller Treiber zu belegen.

desert
2009-05-19, 22:01:06
@all. Jetzt reitets nicht alle auf den Treiber herum. Ich hab wahrlich besseres zu tun, als alle Treiber durchzutesten (auch ein Grund, warum ich privat von NV weg bin). Dan hab ich halt einfach an meinem Arbeitsrechner installiert gehabt (iirc, weil die Crysis Performance besser wurde ;)), und da ists mir aufgefallen. Ich hab ja meine Aussage ohnehin eingeschränkt. Außerdem kommen die Treiber alle von NV selbst, und wenn sich der Treiber nunmal so verhält, dann ist das eben von NV gewollt, und nicht vom Herrn Lolman der wiedermal selektiv NV bashen will. Alles klar?


EDIT: Bug? Von wegen. ;D

EDIT2: Wär ja auch ein lustiger Zufall, dass gerade der einzige der 3 Treiber die ich im letzten Jahr installiert hatte, bei dem ich das mal überprüft hab, genau dieses Verhalten zeigt. Und dass das dann auch noch ein mimimiBug gewesen sein soll.

Naja. Andererseits kanns ja wirklich ein Zufall gewesen sein, und deswegen sparen wir uns besser weitere ziellose Diskussionen darüber, ok?

gut dann war das von ati auch gewollt das kein af mehr unter dx 10 angeboten wird, wird ja immerhin auch von ati angeboten und das war sogar noch im 9.2 release nicht beseitig, immerhin wurde die perfomance unter crysis ja wesentlich besser. Absolut lachhaft.

Dieser treiber von dem du sprichst wurde "nie" offiziel noch inoffziel von nvidia angeboten. Man konnte ihn nur über diverse obskure seiten runter laden aber nicht von einer nvidia seite. Und damit kommt der treiber mitnichten von nvida. Das wird wirklich immer schlimmer mit deinem fanboyismus.

Dir kann man wirklich nichts mehr glauben, du drehst dir die sachen solange hin bis ati gut dabei weg kommt.

V2.0
2009-05-19, 22:01:16
@all. Jetzt reitets nicht alle auf den Treiber herum. Ich hab wahrlich besseres zu tun, als alle Treiber durchzutesten (auch ein Grund, warum ich privat von NV weg bin). Dan hab ich halt einfach an meinem Arbeitsrechner installiert gehabt (iirc, weil die Crysis Performance besser wurde ;)), und da ists mir aufgefallen. Ich hab ja meine Aussage ohnehin eingeschränkt. Außerdem kommen die Treiber alle von NV selbst, und wenn sich der Treiber nunmal so verhält, dann ist das eben von NV gewollt, und nicht vom Herrn Lolman der wiedermal selektiv NV bashen will. Alles klar?


Ist aber schon arg selektiv, wenn Du Dich gerade an den Treiber erinnerst, der ein Fehlverhalten hat. Mir wäre kein non-BETA WHQL bekannt, der dies zeigte. Abgesehn davon, installiere ich bei NV im Jahr evtl. 3 WHQL-Fullreleasetreiber und fertig. Den BETA-Quatsch kann man mitmachen, muss man nicht.

Mr. Lolman
2009-05-19, 22:15:51
Ist aber schon arg selektiv, wenn Du Dich gerade an den Treiber erinnerst, der ein Fehlverhalten hat. Mir wäre kein non-BETA WHQL bekannt, der dies zeigte. Abgesehn davon, installiere ich bei NV im Jahr evtl. 3 WHQL-Fullreleasetreiber und fertig. Den BETA-Quatsch kann man mitmachen, muss man nicht.

Aso. Die Betas dürfen schlechter filtern, und sollen auch bei allen GraKatests verwendet werden, weils sie meist schneller sind, als der letzte WHQL, aber wenn man die BQ betrachtet, dann muss man sich an die ordentlich filternden WHQLs orientieren, oder wie? :rolleyes:


Und ja, ich hab wirklich nur ~3 Treiber installiert gehabt. Und das waren immer die aktuellsten, lt. Forum problemlostesten Betas. Und das hab ich hauptsächlich deswegen gemacht, weil ich in der Arbeit in ner ruhigen Minute auch ein bisschen auf selbstgebastelten Crysis Inseln entspannen können wollte :biggrin: - Und gerade mit nem C2D@3.2GHz und ner 8800GTS@650/900 zählt da halt jedes Frame...


Und soweit ich das sehe konnte man sogar diesen Teufelstreiber mit drei Klicks auf erstklassige Qualität trimmen. :eek:

Hat ja auch niemand bezweifelt. Ich hab nur die Aussage widerlegt, dass NV nur damals die anisotrope Sampleoptimierung per default aktiviert gehabt hat. Wenn das aktuell nur für (manche?) Betatreiber gilt, ists ja gut. Dann haben wir ja wieder alle was gelernt. =)

Dr. Cox
2009-05-19, 22:25:48
Und ja, ich hab wirklich nur ~3 Treiber installiert gehabt. Und das waren immer die aktuellsten, lt. Forum problemlostesten Betas. Und das hab ich hauptsächlich deswegen gemacht, weil ich in der Arbeit in ner ruhigen Minute auch ein bisschen auf selbstgebastelten Crysis Inseln entspannen können wollte :biggrin: - Und gerade mit nem C2D@3.2GHz und ner 8800GTS@650/900 zählt da halt jedes Frame...


Was habt ihr denn auf der Arbeit für gute PCs...

Oder hast du die Hardware dort "Stück" für "Stück" reingeschmuggelt? :biggrin:

Bei uns auf der Arbeit gibt es nur P4s und Onboardgrafik :(

desert
2009-05-19, 22:30:42
Aso. Die Betas dürfen schlechter filtern, und sollen auch bei allen GraKatests verwendet werden, weils sie meist schneller sind, als der letzte WHQL, aber wenn man die BQ betrachtet, dann muss man sich an die ordentlich filternden WHQLs orientieren, oder wie? :rolleyes:


Und ja, ich hab wirklich nur ~3 Treiber installiert gehabt. Und das waren immer die aktuellsten, lt. Forum problemlostesten Betas. Und das hab ich hauptsächlich deswegen gemacht, weil ich in der Arbeit in ner ruhigen Minute auch ein bisschen auf selbstgebastelten Crysis Inseln entspannen können wollte :biggrin: - Und gerade mit nem C2D@3.2GHz und ner 8800GTS@650/900 zählt da halt jedes Frame...



Hat ja auch niemand bezweifelt. Ich hab nur die Aussage widerlegt, dass NV nur damals die anisotrope Sampleoptimierung per default aktiviert gehabt hat. Wenn das aktuell nur für (manche?) Betatreiber gilt, ists ja gut. Dann haben wir ja wieder alle was gelernt. =)


bleib bei der wahrheit, nur der eine "beta" hatte die sample optimierung und den konntest du nicht auf normalen wege bekommen, sondern nur über obskure wege die kein reviewer oder normale user nutzen würde.

Du lügst ja wie gedruckt. Das ist echt schlimm mit dir, dir muss man immer auf die finger hauen und immer wieder widersprechen sonst glauben dir nachher noch welche deine lügen.

y33H@
2009-05-19, 22:38:04
Bei uns auf der Arbeit gibt es nur P4s und OnboardgrafikPentium4 EE @ 4 GHz samt passiver 76GT ;D

Gast
2009-05-19, 22:43:17
Was die Geforce 8 mit schlechter BQ zu tun hat musst du noch erklären.


Die war doch gar nicht gemeint.Es ging um die GeForce 7.

Mr. Lolman
2009-05-19, 22:47:59
Was habt ihr denn auf der Arbeit für gute PCs...

Oder hast du die Hardware dort "Stück" für "Stück" reingeschmuggelt? :biggrin:

Bei uns auf der Arbeit gibt es nur P4s und Onboardgrafik :(

Die GraKa hab ich günstig von nem Arbeitskollegen bekommen. Und da wir uA. viel mit großen Oracle Datenbanken zu tun haben, ist der CPU&RAM Untersatz schonmal ausreichend. Wobei, mein C2D stinkt gegen den neuen Q9550 von meinem nächsten Arbeitskollegen leider auch schon ziemlich ab. :D

bleib bei der wahrheit, nur der eine "beta" hatte die sample optimierung und den konntest du nicht auf normalen wege bekommen, sondern nur über obskure wege die kein reviewer oder normale user nutzen würde.

Keine Ahnung woher ich den Treiber gehabt hab. War wohl hier im Forum verlinkt. Ich war dementsprechend aber bei weitem nicht der Einzige, der ihn installiert gehabt hat. Und wenn er wirklich nur die löbliche Ausnahme gewesen sein sollte, dann tuts mir leid, dass ich mich erdreistet hab, der Aussage, dass NV die Sampleoptimierung nicht mehr standardmäßig nutzt, ein solch irrelevantes Beispiel entgegengestellt zu haben.


BTW: An deinem Diskussionsverhalten gemessen, kommen deine Aussagen aber auch nicht glaubwürdiger rüber. Und wenn ich wirklich lügen wöllte, dann würd ich das nicht mit Dingen machen, die Obernvverteidigungskommandant Desert, mit gehässigen Worten garniert, ganz leicht entlarven könnte.

Pass besser auf, dass ich nicht über noch einen solchen Treiber stolper. :cool:

Dr. Cox
2009-05-19, 22:49:04
Pentium4 EE @ 4 GHz samt passiver 76GT ;D

:eek: Wenn das der Chef mitbekommt...;D

Ich dachte ihr hättet auf der Arbeit grundsätzlich die Gamermaschienen :D

EDIT: Aber eine 7600GT (AF-Flimmerspaß) für einen Grafikenthusiasten, ne, ne, jetzt enttäuscht du mich aber... :D

Gast
2009-05-19, 22:54:23
Ist aber schon arg selektiv, wenn Du Dich gerade an den Treiber erinnerst, der ein Fehlverhalten hat. Mir wäre kein non-BETA WHQL bekannt, der dies zeigte. Abgesehn davon, installiere ich bei NV im Jahr evtl. 3 WHQL-Fullreleasetreiber und fertig. Den BETA-Quatsch kann man mitmachen, muss man nicht.
Du gehts falsch an die Sache ran.
Lolman trampelt auf einem inoffiziellen Alpha/Beta rum, nicht auf einem offiziellen Beta.

Aso. Die Betas dürfen schlechter filtern, und sollen auch bei allen GraKatests verwendet werden, weils sie meist schneller sind, als der letzte WHQL, aber wenn man die BQ betrachtet, dann muss man sich an die ordentlich filternden WHQLs orientieren, oder wie? :rolleyes:

Ohne Worte, siehe oben.

Gast
2009-05-19, 22:56:46
Die war doch gar nicht gemeint.Es ging um die GeForce 7.
Kann nicht sein.
Es wurde explezit der Erscheinungszeitraum von GF8 und HD2 genannt.

y33H@
2009-05-19, 23:07:11
@ Dr. Cox

Für Outlook reicht die Filterquali ;DIch dachte ihr hättet auf der Arbeit grundsätzlich die GamermaschienenDer i7-965-EE samt 3x GTX285/2G und dem 30er steht nebendran *g* So, nun B2T ... in Crysis zieht AI-off die Fps verdammt weit runter, mit AF sogar extrem ;(

Dr. Cox
2009-05-19, 23:12:09
in Crysis zieht AI-off die Fps verdammt weit runter, mit AF sogar extrem ;(

Habe doch gesagt, dass die aktuellen ATI-Karten heftigst einbrechen, sobald man einige AF-Optimierungen deaktiviert. Würde man alle deaktivieren, ist es theoretisch sogar möglich, dass eine HD4870 hinter eine 9800GTX fällt:

http://extreme.pcgameshardware.de/blogs/pcgh_raff/149-appell-qualitaet-anstatt-quantitaet-page3.html?page=3#comments

Deinem geschätzten Kollegen Raffaell habe ich im PCGH-Forum letztens schon gesagt, dass man die AF-Optimierungen zumindest unter XP mit dem ATI-Tray-Toll deaktivieren kann. Habe das selber mal in Gothic 3 ausprobiert ;)

Gast
2009-05-19, 23:23:53
Habe doch gesagt, dass die aktuellen ATI-Karten heftigst einbrechen, sobald man einige AF-Optimierungen deaktiviert. Würde man alle deaktivieren, ist es theoretisch sogar möglich, dass eine HD4870 hinter eine 9800GTX fällt:
Das erfordert keine große Denkarbeit, um darauf zu kommen.

Genau deshalb wird es keinen HQ Modus geben, weder jetzt noch in Zukunft.
Jetzt mangelst an TMUs in der Hardware. Eine bessere Filterung wäre möglich, ist aber nicht gestattet, wäre es möglich, dann wäre eine derartige AMD Karte vergleichsweise wertlos, das angeblich tolle Preis/"Leistungs"verhältnis wäre grottig.

In Zukunft besteht kein Bedarf an weiteren TMUs, weil die Cheats schon super angenommen werden und das Volk möglichst viel Mehrleistung sehen will, 5% weniger wegen ein paar TMUs mehr werden nicht aktzepiert.
Ergo ändert sich nichts.
Wobei andererseits könnte selbst eine HD4 mit Cheats mehr TMUs vertragen, um ein paar wertvolle FPS rauszuschinden.

N0Thing
2009-05-19, 23:27:21
Bei AI-off sind ja auch die Shader Replacements außen vor, daß dadurch Geschwindigkeit verloren geht sollte klar sein und man kann alleine daraus auch nicht ablesen, wie sehr die aktuelle ATI-Generation durch perfektes AF verlieren würde (gibt es doch selbst mit AI-off nicht, oder?)

Aber ne andere Frage: Warum kann man mit dem ATT die Optimierungen deaktivieren, warum nur unter XP und wenn es funktioniert, warum wird das Tool nicht benutzt, wie auch nHancer benutzt wird? <-- Ich hab keine Ahnung, deshalb jetzt bitte nicht die nächste Runde der Fanboyschlacht von Verdun starten.

LovesuckZ
2009-05-19, 23:31:21
So, nun B2T ... in Crysis zieht AI-off die Fps verdammt weit runter, mit AF sogar extrem ;(

Das ist doch endlich mal wieder eine interessante Nachricht hier.
Ich freu mich schon auf das Wochenende. =)

Dr. Cox
2009-05-19, 23:33:23
Aber ne andere Frage: Warum kann man mit dem ATT die Optimierungen deaktivieren, warum nur unter XP und wenn es funktioniert, warum wird das Tool nicht benutzt, wie auch nHancer benutzt wird? <-- Ich hab keine Ahnung, deshalb jetzt bitte nicht die nächste Runde der Fanboyschlacht von Verdun starten.

Keine Ahnung, warum das kaum einer nutzt, ich konnte jedoch mit dem ATT in Gothic 3 die AF-Optimierungen deaktivieren. Die Texturen habe deutlich sichtbar weniger geflimmert, das Bild wurde ruhiger und die Frames gingen in den Keller ;)

Bessere AA-Modi waren im Übrigen auch möglich, wer eine ATI-Karte hat kann es ja mal ausprobieren ;)


Das ist doch endlich mal wieder eine interessante Nachricht hier.
Ich freu mich schon auf das Wochenende. =)

Wer freut sich nicht aufs Wochenende, am Freitag muss ich mich dann aber erst einmal wieder vom Vatertag erholen ;D

Jake Dunn
2009-05-19, 23:36:26
Habe doch gesagt, dass die aktuellen ATI-Karten heftigst einbrechen, sobald man einige AF-Optimierungen deaktiviert. Würde man alle deaktivieren, ist es theoretisch sogar möglich, dass eine HD4870 hinter eine 9800GTX fällt:



Ist doch Quatsch, da auch sinnvolle Optimierungen aus sind bei AIoff

Dr. Cox
2009-05-19, 23:39:31
Ist doch Quatsch, da auch sinnvolle Optimierungen aus sind bei AIoff

Mit dem ATT habe ich "AI" auf Standard gelassen und nur die Optimierungen deaktiviert ;)

Probier es doch mal selber aus, du hast doch eine ATI-Karte, oder?

Jake Dunn
2009-05-19, 23:42:45
Mit dem ATT habe ich "AI" auf Standard gelassen und nur die Optimierungen deaktiviert ;)

Probier es doch mal selber aus, du hast doch eine ATI-Karte, oder?

Ich mein ja die Bugfixe usw. ;)

y33H@
2009-05-19, 23:43:18
AI schaltet offenbar in erster Linie Optimierungen wie Replacements [wobei es sowas kaum noch gibt]. AF-Optimierungen scheinen zwar mit drin zu sein, die machen aber nicht (!) den Löwenanteil aus.

Gast
2009-05-19, 23:45:14
4870: 30000 MTexel/s
9800 GTX+: 47232 MTexel/s
9800 GT: 33600 MTexel/s

Da fehlt eben etwas, kein Hexenwerk, simple Kopfrechenarbeit. ;)

Jake Dunn
2009-05-19, 23:53:54
9800 GTX+: 47232 MTexel/s


Da fehlt eben etwas, kein Hexenwerk, simple Kopfrechenarbeit. ;)


GTX280: 48160 MTex/s

Gast
2009-05-19, 23:57:58
Ist doch Quatsch, da auch sinnvolle Optimierungen aus sind bei AIoff

Welche denn? Ist dann wohl eher ne Schutzbehauptung. Komm mir aber nicht mit Valves Source Engine Bug das ist keine Optimierung. ;)

y33H@
2009-05-20, 00:00:51
AA plus HDR-Fixes etwa, als banales Bsp. Und CF ;D

Gast
2009-05-20, 00:02:31
AA plus HDR-Fixes etwa, als banales Bsp. Und CF ;D

Ich würde eher sagen das AI Off die EXE Kennung abschaltet und die üblichen AF Spielereien unterlässt die per EXE greifen. AA+HDR gehört da natürlich auch dazu klar.

h'lore
2009-05-20, 01:02:54
Deinem geschätzten Kollegen Raffaell habe ich im PCGH-Forum letztens schon gesagt, dass man die AF-Optimierungen zumindest unter XP mit dem ATI-Tray-Toll deaktivieren kann.Du meinst den Registry-Key? Das funktioniert nicht. Zumindest nicht ab R520. Die Nichtfunktion wird in der FAQ im ATT-Forum aber imho falsch interpretiert:From my experience, these optimizations do not improve performance. This is somewhat expectable however, as my GPU does not take a very large performance hit from AF as it is. If you own an X1650-series card or lower, enabling both of these may improve performance by up to 10-15% depending on the game and the resolution...

V2.0
2009-05-20, 07:10:01
Aso. Die Betas dürfen schlechter filtern, und sollen auch bei allen GraKatests verwendet werden, weils sie meist schneller sind, als der letzte WHQL, aber wenn man die BQ betrachtet, dann muss man sich an die ordentlich filternden WHQLs orientieren, oder wie? :rolleyes:


Zumindest bei treibern, die nicht auf den NV-Seiten verfügbar sind würde ich die Finger lassen. Und das bedie mit ihren Menchmarkbetas/ Hot-Fix-Treibern zum Relase schummeln, ist imho keine Frage. Und gerade NV schummelt das auf das Heftigste). Allerdings ist mir halt kein Fullrease bekannt, bei dem der genannte Fehler vorliegt.

Gast
2009-05-20, 09:25:16
Aso. Die Betas dürfen schlechter filtern, und sollen auch bei allen GraKatests verwendet werden, weils sie meist schneller sind, als der letzte WHQL, aber wenn man die BQ betrachtet, dann muss man sich an die ordentlich filternden WHQLs orientieren, oder wie? :rolleyes:

Wenigstens hat man bei NV die Wahl und wird nicht wie bei ATI gezwungen immer die schlechtere Filterqualität akzeptieren zu müssen.
Nach deiner Logik cheatet ja ATI dann bei den Benches immer, denn die Filterqualität ist per Se schlechter als bei NV. und das versucht NV eben auszugleichen.

Gast
2009-05-20, 09:46:45
4870: 30000 MTexel/s
9800 GTX+: 47232 MTexel/s
9800 GT: 33600 MTexel/s

Da fehlt eben etwas, kein Hexenwerk, simple Kopfrechenarbeit. ;)

Einer der Wenigen hier, der richtig kombiniert.
Die Radeon-Architektur ist nun mal ganz anders ausgelegt: Sehr hohe Shaderleistung, vergleichsweise schwache Texturfüllrate.

Man muß schon ein gehöriger Einfaltspinsel sein, wenn man angesichts der geposteten Zahlen noch hibbelig auf Ergebnisse wartet.

Gast
2009-05-20, 09:59:09
Man muß schon ein gehöriger Einfaltspinsel sein, wenn man angesichts der geposteten Zahlen noch hibbelig auf Ergebnisse wartet.
Mit einer 8800GT hatte ich in vielen Spielen mehr als genug Leistung und das wären genau die Situationen, wo ich als ATI-Kunde gern die Filtercheats deaktivieren würde. Alles oberhalb von 60FPS (je nach Genre auch mal 30FPS) geht bei mir in Bildqualität, den Rest frißt VSync.

Die Zahlen zeigen IMHO, dass ATI nach der sehr beeindruckenden Überarbeitung der Mißgeburt R600 mittlerweile sehr wohl anständig filtern könnte, 30000 MTexel/s sind nicht auf Augenhöhe mit Nvidia, aber durchaus ordentlich.

Grestorn
2009-05-20, 11:22:04
EDIT: Hat die 7900GTX überhaupt schon 8xSQ unterstützt?

Nein, dieser Modus ist erst in der G80 Generation gekommen.

Die älteren Generationen kannten nur das "8xS alt", was aber ein teilweise verbuggtes und ungünstiges Samplepattern verwendet hat.

Gast
2009-05-20, 12:42:32
Bei AI-off sind ja auch die Shader Replacements außen vor, daß dadurch Geschwindigkeit verloren geht sollte klar sein und man kann alleine daraus auch nicht ablesen, wie sehr die aktuelle ATI-Generation durch perfektes AF verlieren würde (gibt es doch selbst mit AI-off nicht, oder?)

Das kann man weitestgehend herausnehmen, siehe dazu auch:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7244198#post7244198

Carsten

InsaneDruid
2009-05-20, 12:59:40
Oder eine Rennsim benutzen. Auf die wird idr eh nicht optimiert (Nischenmarkt etc) und die Shaderlast ist generell nicht sehr hoch. Evtl zb GTR2 im DX7 oder 8 Mode.

_DrillSarge]I[
2009-05-20, 13:16:50
Welche denn? Ist dann wohl eher ne Schutzbehauptung. Komm mir aber nicht mit Valves Source Engine Bug das ist keine Optimierung. ;)
bspw. AA in UE3-spielen.

reunion
2009-05-20, 13:35:49
Das kann man weitestgehend herausnehmen, siehe dazu auch:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7244198#post7244198

Carsten

Wenig verwunderlich bei bi-TMUs. Dank "bri"-Filterung reicht es schon die Hälfte nur bi zu filtern und ich habe 50% "Füllratengewinn". Hast du auch Zahlen von NV mit HQ vs. Q?

Gast
2009-05-20, 13:41:58
Kann nicht sein.
Es wurde explezit der Erscheinungszeitraum von GF8 und HD2 genannt.

Moment, die GeForce 8 erschien im Herbst 2006.Und 2007 war die GeForce 7 unter Zockern auch noch ganz gut verbreitet, ist ja nicht jeder sofort umgestiegen.

Im Frühjahr 2006 kamen die 7900GTX und die X1800XT wurde durch die X1950XT abgelöst.Der Zeitraum passt schon sehr gut.

Dr. Cox
2009-05-20, 14:18:46
Also ich hatte die 7900GTX nicht lange. Ich bin wegen der schlechten Leistung und dem Texturflimmern dann Anfang 2007 auf eine 8800GTX umgestiegen ;)

Coda
2009-05-20, 14:40:03
Wenig verwunderlich bei bi-TMUs. Dank "bri"-Filterung reicht es schon die Hälfte nur bi zu filtern und ich habe 50% "Füllratengewinn". Hast du auch Zahlen von NV mit HQ vs. Q?
Du rechnest da komisches Zeug zusammen. Wenn ich die Hälfte "bri" filtere (was sie ganz abgesehen davon nicht tun), dann würde man 25% Füllrate sparen, oder andersrum man würde noch 75% der Samples nehmen.

Auf den Gewinn umgerechnet sind das +33% Füllrate.

reunion
2009-05-20, 14:42:43
Du rechnest da komisches Zeug zusammen. Wenn ich die Hälfte "bri" filtere (was sie ganz abgesehen davon nicht tun), dann würde man 25% Füllrate sparen, oder andersrum man würde noch 75% der Samples nehmen.

Warum? Bi statt Tri bringt 100% (Da nur ein Takt statt zwei), wenn ich die Hälfte bi filtere bringt das demnach 50%.

Coda
2009-05-20, 14:45:10
Trilinear: n*2 Samples
Bilinear: n Samples
Brilinear: n + n/2 Samples

(n*2)/(n + n/2) = 4/3 = ~1,33.

Real ist es noch weniger, da das Bri-Band eher 1/4 oder 1/3 ausmacht, aber nicht die Hälfte.

Bei 25% brilinear hätte man noch:

(n*2)/(n+3/4*n) = ~14,3% "mehr" Füllrate.

Bei 33% brilinear entsprechend 20%.

Gast
2009-05-20, 15:53:11
Moment, die GeForce 8 erschien im Herbst 2006.Und 2007 war die GeForce 7 unter Zockern auch noch ganz gut verbreitet, ist ja nicht jeder sofort umgestiegen.

Dann haben die "Anwesenden Bildqualitätsverfechter" extra von 2003 an eine Pause gemacht, um schnurstraks bis zu 12 Monate nach 8800 Release eine GF7 zu kaufen?
Absurd.


Im Frühjahr 2006 kamen die 7900GTX und die X1800XT wurde durch die X1950XT abgelöst.Der Zeitraum passt schon sehr gut.
Mitte-Ende 2004: X8xx
Mitte 2005: 7800
Ende 2005: X1800
Ende 2006: 8800
Mitte 2007: 2900


Verfügbare GF8 im Jahre 2007:
8400 GS, 8500 GT, 8600 GT, 8600GTS, 8800 GS, 8800 GT, 8800 GTS, 8800 GTS 512, 8800 GTX, 8800 Ultra

Verfügbare HD im Jahre 2007:
2350, 2400 Pro, 2400 XT, 2600 Pro, 2600 XT, 2600 XT X2, 2900 GT, 2900 Pro, 2900 XT, 3850, 3870

Nö, der Zeitraum wurde extrem beschissen gewählt, es sei den du meinst HD2,3, wo man auf einmal ein Auge zudrückt/zugedrückt hat.