PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Fermi Benchmark Auswahl?


Mr. Lolman
2010-04-07, 15:56:07
Angenommen, 3DCenter hätte die Möglichkeit ein Fermi-Review zu schreiben, welche Benchmarks würdet ihr gerne sehen?

san.salvador
2010-04-07, 15:58:03
HL2 Cinematic Mod

€dit:

Und das!
||
\/

Raff
2010-04-07, 15:59:00
HQ gegen A.I. Off. Unfair, aber das wird ja hier oft gepredigt.

MfG,
Raff

Spasstiger
2010-04-07, 16:01:07
Sobald der passende Treiber von NV kommt: Surround-Gaming auf drei Monitoren mit je 1920x1200 Pixeln, HD 5870 Eyefinity6 CF vs. GTX 480 SLI.

Gast
2010-04-07, 16:02:28
HQ gegen A.I. Off. Unfair, aber das wird ja hier oft gepredigt.

MfG,
Raff

DAS gibt 100 pro den nächsten Fanboy-Krieg.

BlackBirdSR
2010-04-07, 16:04:39
Sobald der passende Treiber von NV kommt: Surround-Gaming auf drei Monitoren mit je 1920x1200 Pixeln, HD 5870 Eyefinity6 CF vs. GTX 480 SLI.

Realistisch bleiben ;)

Mr. Lolman
2010-04-07, 16:07:31
Ihr könnt natürlich auch gerne Savegames posten, von Stellen die ihr getestet haben wölltet.

boxleitnerb
2010-04-07, 16:08:25
SSAA Benches von etwas älteren Spielen. Crysis mit Engine-Downsampling :biggrin:

Spasstiger
2010-04-07, 16:08:34
Realistisch bleiben ;)
Naja, drei Monitore macht gebraucht ca. 1000€ (Non-TN-Panel), die beiden Grafikkarten 1000€ und der PC drumherum 1000€. Für einen Enthusiasten ist das nicht ungewöhnlich viel Geld. Wenn ich 3000€ für einen PC frei zur Verfügung hätte, würde ich vielleicht auf Surround-Gaming gehen. Bei Rennspielen kommt das auf jeden Fall gut.

boxleitnerb
2010-04-07, 16:12:43
Vielleicht haben sie halt nur eine Karte ;)

Cryostasis?

Gast
2010-04-07, 16:13:47
Angenommen, 3DCenter hätte die Möglichkeit ein Fermi-Review zu schreiben, welche Benchmarks würdet ihr gerne sehen?

Crysis, Lolman´s map. ;)

derguru
2010-04-07, 16:14:04
DAS gibt 100 pro den nächsten Fanboy-Krieg.
vorallem wozu a.i off,als ob das gewinnbringendes af mit sich bringt.:rolleyes:

BlackBirdSR
2010-04-07, 16:16:19
Ich würde mal sagen:

Crysis Standard, WoW, Farcry2, heaven 2.0, Metro, Dirt2, HAWX, CoD6 hat man genügend gesehen.

Mich persönlich würde interessieren, ob die Karte auch in:

Dragon Age:Origins
Mass Effect 2
Total War
DoW2
Bad Company2
Just Cause 2

spübare Vorteile erbringen kann.

Spasstiger
2010-04-07, 16:20:21
Vielleicht haben sie halt nur eine Karte ;)
Du meinst, Mr. Lolman hat diesen Thread nicht ohne Hintergedanken erstellt? :D

Ich würde noch gerne Vergleichsvideos und Benchmarks von höherwertigen AA-Modi sehen. Z.B. 32xCSAA mit 32xTMSAA gegen 32xCSAA mit 8xTSAA gegen 24xAAA mit Edge Detect. Oder 4xSGSSAA gegen einen qualitativ ähnlichen Hybridmodus von NV (16xS mit TMSAA?).

boxleitnerb
2010-04-07, 16:20:22
Bad Company 2 und Just Cause 2 wurde doch auch von einigen Seiten gebencht. Das braucht man nicht nochmal sehen.

mrt
2010-04-07, 16:27:21
Spiele mit Texturmods wären auch interessant. Tests mit SSAA und Hybriden ebenso + dem was Spasstiger in #14 und #4 vorgeschlagen hat.
BC2 und JC2 gabs öfters schon, genauso wie Metro und Konsorten, lieber Titel die weniger für Tests herangezogen werden.

derguru
2010-04-07, 16:28:08
lieber ein paar exoten die aber ganz und gar nicht veraltet sind wie serious sam hd ,shattered horizon oder avatar.

Gast
2010-04-07, 16:30:09
HQ gegen A.I. Off. Unfair, aber das wird ja hier oft gepredigt.

MfG,
Raff

Ich möchte lieber 2xRGSSAA gegen 2x2 OGSSAA, sollte ja nen ähnlichen ERR haben ;)

Jeder halt wie er kann....

Raff
2010-04-07, 16:38:08
Ich möchte lieber 2xRGSSAA gegen 2x2 OGSSAA, sollte ja nen ähnlichen ERR haben ;)

Jeder halt wie er kann....

Auf Shader und Texturen wirkt 2x2 aber deutlich beruhigender als 2x RG/SG.

MfG
Raff

AYAlf_2
2010-04-07, 16:49:23
auch wenn es eher cpu limitierend ist .. mal was realistisches

fuer die mp pro gemeinde
counters-strike source /left 4 dead 2 dx9
starcraft2 beta dx9
bfbc2 9/10/11

alles bis zu max einstellungen via treiber und spiel
wichtig hier die min fps.

Ronny145
2010-04-07, 16:49:27
GTA 4 mit ENB Mod und SSAA. Ich glaube da kommt selbst Fermi schnell an die Grenze.

Nakai
2010-04-07, 16:57:44
Frameverläufe und keine(nur wenige) Sonderfälle bitte.


mfg

€: Metro 2033 sollte schon dabei sein.

Gast
2010-04-07, 17:16:49
Au ja am liebsten Gothic 2 und Win7 64 das hätte ich gern gesehen.

Oder checkt mal TDU oder Matrix Path of Neo oder Stalker SOC oder mirrors edge oder ut3 oder nfs4 oder trackmania.

Digg
2010-04-07, 17:24:27
Egal was, hauptsache nicht nur ne AVG FPS Tabelle. ;)

Spasstiger
2010-04-07, 17:44:39
Au ja am liebsten Gothic 2 und Win7 64 das hätte ich gern gesehen.
Da kannst mit der GTX 480 wahrscheinlich 4x4 SSAA draufknallen und es ändert nichts an der Spielbarkeit. :D

Gast
2010-04-07, 18:46:05
Stimmt, es ist nämlich unspielbar. Unter 7 funktioniert Gothic II nicht mit den aktuellen Nvidiatreibern. Steht auch schon seit Monaten in den Release Notes des Nvidia Treibers. :(

tombman
2010-04-07, 19:08:47
Age of Conan
Stalker CS
Crysis
Cryostasis
Metro2033
GTA4

und natürlich maximiert und leistungsverschlingende Stellen :)

Inoffizielle AA-Modi: 2x2 OGSSAA, 4x4 OGSSAA, etc !!
Downsampling bei DX10/11 !!!

Xvox Techdemo (wieviele Polys/Frame @ 30fps :))
Andere Techdemos, die fps ohne Ende ziehen

boxleitnerb
2010-04-07, 19:22:25
Downsampling ist zwar interessant, aber da das momentan keine offizielle Lösung ist, bei der man noch recht viel basteln muss, würde ich es nicht testen. Einfach weil es nicht jeder nutzen kann.

Gast
2010-04-07, 19:38:04
Oder 4xSGSSAA gegen einen qualitativ ähnlichen Hybridmodus von NV (16xS mit TMSAA?).Halbwegs vergleichbar wäre 4xSGSSAA vs 8xSq+TMAA. Beides 4x4 EER, beides 4 vollwertige Samples.

____________________________________________

Tja, ansonsten wären alle VRAM-Stresstests noch sehr interessant, besonders, wenn man die 285 sowohl mit 1GB als auch 2GB mittestet. Sprich Stereo3D mit mehreren Displays (können auch nur 2 sein wenn ihr nur eine Karte bekommt, mit Beamern durchaus praktikabel) und speicherfressende AA-Modi wie 16xS oder 32xS.
Wenn es mehr um die Speicherstresstests als um praxistaugliche Einstellungen geht könnten z.B. zwei 30"er mit 3D Vision Discover genutzt werden. Downsampling wäre natürlich auch geeignet um das VRAM gezielt zu überfüllen.
Weiterhin interessant wäre es, ob in 4x4 mit 16xHQ-AF in älteren Spielen die 480 immer noch schneller ist als die 285. Wage ich nämlich eher zu bezweifeln wegen der mangelnden TMU-Power.

Mr. Lolman
2010-04-07, 19:42:24
*del*

Veritas
2010-04-07, 19:50:53
KingPin @ "Eyefinty" SSAA

Gast
2010-04-07, 19:52:51
Shattered Horizon, bitte!

Spasstiger
2010-04-07, 21:22:51
Halbwegs vergleichbar wäre 4xSGSSAA vs 8xSq+TMAA. Beides 4x4 EER, beides 4 vollwertige Samples.
Wobei mit TMSAA meist nur 2 unterschiedliche Farbwerte an Alphatest-Kanten nimmt (zwei Polygone), TSSAA dagegen soviele wie Samples eingestellt sind (bei 8xSQ also 8). 4xSGSSAA nimmt vier unterschiedliche Farbwerte an Alphatest-Kanten. 8xSQ mit TMSAA ist also einen Tick schlechter als 4xSGSSAA, 8xSQ mit TSSAA aber besser. Einen direkt vergleichbaren Modus gibt es leider nicht. Wenn man aber ATI das schlechtere AF anrechnet, würde ich 8xSQ mit TMSAA schon als fairen Vergleich akkzeptieren. Denn letzlich liefert 8xSQ die bessere Texturschärfe ohne Flimmern bzw. hat das negativere LOD, ohne dass es zu Flimmern kommt (immer davon ausgehend, dass 16:1 HQ-AF sowieso Pflicht ist).

Gast
2010-04-07, 22:05:26
Auch wenn es letztlich nur Korinthenkackerei sein mag, da wir ja generell übereinstimmen:
8xSQ+TMAA ergibt eine bessere Qualität bei Transparenzen, weil das TMSAA noch zusätzlich zum SSAA obendrauf kommt.
4 vollwertige Samples mit jeweils 2xTMSAA > nur 4 vollwertige Samples ohne zusätzliches Upgrade durch 2xTMSAA.

Spasstiger
2010-04-07, 22:19:20
Hast recht, ich hab die Supersampling-Samples nicht bedacht. Ergo 8xSQ + TMSAA >= 4xSGSSAA. Allerdings lohnt sich 8xSQ kaum, weil 16xS nur wenig mehr kostet und klar besser ist, gerade in Verbindung mit TMSAA. 8xSQ wäre ein Modus, denn man nur des fairen Vergleichs halber erzwingen würde, nicht weil er auf den NV-Karten sinnvoll ist. Real fällt die Entscheidung auf 8xS oder 16xS.

tb
2010-04-07, 22:21:27
Ich würde mal sagen:

Crysis Standard, WoW, Farcry2, heaven 2.0, Metro, Dirt2, HAWX, CoD6 hat man genügend gesehen.

Mich persönlich würde interessieren, ob die Karte auch in:

Dragon Age:Origins
Mass Effect 2
Total War
DoW2
Bad Company2
Just Cause 2

spübare Vorteile erbringen kann.

FarCry2 ist sicher mal interessant, ob dann der "normale" DirectX 10.1 Pfad oder der spezielle NVIDIA Pfad (per nvapi, aus GTX 2xx Zeiten) verwendet wird.

Thomas

StefanV
2010-04-07, 22:23:36
Star Trek Online :devil:
Ansonsten: Tomb Raider

Und andere Spiele, die andere nur 'nebenbei' erwähnen.

Entsprechend sollt auch die Bewertung ausfallen: die 'üblichen Verdächtigen' weniger stark bewerten als die eher selteneren, BBSR hat da eine recht brauchbare Auswahl gepostet.

nagus
2010-04-07, 22:30:50
ETQW, Half-Life 2 Cinematic Mod, das neue "Rove" von farbrausch, Risen, MA2, Dragon Age, das neue Battlefield, Bioshock 2, Red Alert 3, Quake 4, Dawn of War II, Left 4 Dead 2

alles mit viel AA und mit Supersampling wenn möglich. in und 1920 und 2560er auflösungen mit einem bis zum anschlag übertaktetem, neuem 6-kern Phenom 2 in verbindung mit den corsair formular 4 ram auf 2Ghz CL7 ;D

Gast
2010-04-07, 22:39:17
8xSQ wäre ein Modus, denn man nur des fairen Vergleichs halber erzwingen würde, nicht weil er auf den NV-Karten sinnvoll ist. Real fällt die Entscheidung auf 8xS oder 16xS.Meist ja, durch den geringeren Speicherverbrauch kann 8xSQ allerdings dort der sinnvollste Modus sein, wo genug Grundtempo vorhanden ist, aber der sogenannte "VRAM-Bug" zuschlägt. Gerade wegen dem will ich ja Benchs mit gezielter Speicherquälerei gegen 285er mit sowohl weniger (1GB) als auch mehr (2GB) VRAM als die beiden Nextgen-GFs.

Mayk-Freak
2010-04-07, 23:07:45
BattleForge, Grand Theft Auto: Episodes from Liberty City

Gast
2010-04-07, 23:24:29
Xvox Techdemo (wieviele Polys/Frame @ 30fps :))

34.404

-Carsten

tombman
2010-04-07, 23:27:42
Generell würde ich schon mal alle Games/Settings aus dem Test herausnehmen, wo bereits eine GTX285 >60fps bringt- weil da wirds einfach witzlos.
Nur weil ein Spiel aktuell ist, muß man es nicht benchen...(siehe LFD, RE etc.)

tombman
2010-04-07, 23:29:58
34.404

-Carsten
Das ist aber in 1000er Stückzahlen, also 34 Millionen, oder?
Wieviele schafft da eine HD5870?

Gast
2010-04-07, 23:35:58
Generell würde ich schon mal alle Games/Settings aus dem Test herausnehmen, wo bereits eine GTX285 >60fps bringt- weil da wirds einfach witzlos.Nicht wirklich, denn durch die geringere TMU-Leistung sowie bei einigen Modellen mehr VRAM könnte auch manchmal eine 285 schneller sein. Außerdem gibts auch noch CRTs und manche TFTs schaffen auch 120Hz, zudem gibts kein wirkliches temporales AA in Spielen außer die Framerate an einen möglichst hohen Vsync zu tackern. Latenzminimierung für MP-Spiele kommt noch hinzu...

Gast
2010-04-07, 23:43:43
Die Games sind mir egal. Alles, was gebencht werden kann, wurde schon von Hardwareluxx, Computerbase, Anandtech, Xbitlabs, Ht4u, PCGH und Co. ausführlich gebencht. Irgendwelche "Spezialmodi" und Frameverläufe könnten höchstens noch interessant werden.

Gast
2010-04-07, 23:44:55
Ach ja, evtl. mal etwas ins Detail gehen, inwiefern man heute schon von > 1 GB VRAM profitiert. GTA IV soll da ja angeblich ganz hungrig sein.

Gast
2010-04-07, 23:46:00
Und mal spaßeshalber eine HD 5870 @ 1 GHz Chiptakt mittesten. Am Besten die 2 GB-Version. :D

Armaq
2010-04-07, 23:46:12
Aus Interesse natürlich immer GTA IV, auch wenn PCGH das schon gemacht hat. SC2 [Beta] (Crew-Mitglied hatn Key, ich würde meinen Login auch zur Verfügung stellen). Ich hab zB das merkwürdige Setting, dass Shader auf Extreme besser läuft als auf Ultra. Die Karte wird nicht so laut und ich habe mehr! fps.

Assassin's Creed 1 bzw 2. Ein Spiel, was sicher die Karte nicht ausreizt (SSAA ahoi). Just Cause 2 natürlich und vielleicht auch ein paar ältere Perlen mit vollem AA/AF. Je nachdem was die Karten hergeben, muss ja kein direkter Vergleich sein, aber mal die Karten nutzen und weniger testen wäre gut. Stalker SoC, NfS: Shift, TeamFortress 2, Mirror's Edge, Batman AA, CoDMW2, Supreme Commander.

Ein persönlich geprägter Eindruck wäre mir lieber, als ein "objektiver" Test. :)

Gast
2010-04-07, 23:50:03
Ihr könnt natürlich auch gerne Savegames posten, von Stellen die ihr getestet haben wölltet.

Kein Savegame direkt. Aber bestünde die Möglichkeit, Crysis mit diesem Physik-Mod zu benchen? http://www.youtube.com/watch?v=iwT8XM0AUPM Es muss lediglich eine CFG-Datei getauscht werden. Irgendeine schöne Szene damit aufnehmen und dann benchen.

Don-Roland
2010-04-07, 23:51:05
@ Mr. Lolman

Wäre denn die Fermi Karte die ihr Testen könntet mit einem Chip einer neueren Revision als die anderen von zahlreichen Seiten getesteten Karten ausgestattet?
Wenn nein wüßte ich nicht was dieses Review bringen sollte, außer wieder einmal einen extrem hohen Stromverbrauch und Hitzeentwicklung zu bestätigen.

Gast
2010-04-07, 23:52:33
Das ist aber in 1000er Stückzahlen, also 34 Millionen, oder?
Wieviele schafft da eine HD5870?
Ja, 34.404 k bei rund 34 Fps. Macht circa 1.190 Mrd. Dreiecke pro Sekunde. Meine HD 5870 kommt auf etwa 810-820 Mio.

-Carsten

Ronny145
2010-04-08, 00:02:04
Aus Interesse natürlich immer GTA IV, auch wenn PCGH das schon gemacht hat.

Aber ohne ENB Mod, deswegen war mein Vorschlag bereits GTA 4 mit ENB+SSAA. Das zieht extrem, mit der 5770 und 3x3 SSAA kann ich locker einstellige Werte erreichen, dann wird die 5870 auch keine Bäume ausreißen. Hier könnte Fermi durch den zusätzlichen VRAM einen extra Vorteil haben.

y33H@
2010-04-08, 00:03:39
PCGH hat keine Fermi-Benches mit ENB. Die gibt's denke ich erst mit der Eye6 =)

Spasstiger
2010-04-08, 00:13:33
Ja, 34.404 k bei rund 34 Fps. Macht circa 1.190 Mrd. Dreiecke pro Sekunde. Meine HD 5870 kommt auf etwa 810-820 Mio.

-Carsten
Meine HD 4850 Non-OC (625 MHz GPU) macht 16.676 k bei genau 30 fps. Das wären rund 500 Mio. Dreiecke pro Sekunde. Cypress und den GF100 würde ich eigentlich weiter entfernt sehen.

Gast
2010-04-08, 00:21:48
Meine HD 4850 Non-OC (625 MHz GPU) macht 16.676 k bei genau 30 fps. Das wären rund 500 Mio. Dreiecke pro Sekunde. Cypress und den GF100 würde ich eigentlich weiter entfernt sehen.
Cypress erreicht beinahe seinen theoretischen Durchsatz - was willst du da "mehr" sehen? Und Fermi, naja, Nvidia sagt ja selbst, dass man "bis zu 3,2 Tri/sec." beobachten konnte, aber in realen Apps sind fast zwei Tri/sec. schon nicht verkehrt.

-Carsten

tb
2010-04-08, 00:26:25
Das ist aber in 1000er Stückzahlen, also 34 Millionen, oder?
Wieviele schafft da eine HD5870?

HD5870:

default im fenster:
TPS 142,39M TPF 302 K, FPS 471,08

default im fenster mit autoload:
TPS 757,12M TPF 12618 K, FPS 59,95

Spasstiger
2010-04-08, 00:27:33
Schafft Cypress mit seinem Dual-Rasterizer nicht theoretisch 1700 Mio. Dreiecke pro Sekunde?

tombman
2010-04-08, 00:43:25
Ja, 34.404 k bei rund 34 Fps. Macht circa 1.190 Mrd. Dreiecke pro Sekunde. Meine HD 5870 kommt auf etwa 810-820 Mio.

-Carsten
Thx :)

Also kann Furby auch hier seine Geometriepower ausspielen :)
Welche Cpu wurde verwendet?

Ach ja, du solltest vielleicht zwischen "." und "," unterscheiden. Weil, einmal meinst du bei "34.404" 34-Tausend, andererseits bei "1.190 Mrd" 1-Komma. Beide Male mit "." geschrieben ;)

Gast
2010-04-08, 00:45:30
Schafft Cypress mit seinem Dual-Rasterizer nicht theoretisch 1700 Mio. Dreiecke pro Sekunde?
Nein, er schafft 2x 16 Pixel pro Takt, aber er hat nur ein Tri-Setup.

-Carsten

P.S.:
@tombman: Ja, da sollte ich mehr drauf achten.

tombman
2010-04-08, 00:58:24
P.S.:
@tombman: Ja, da sollte ich mehr drauf achten.
Obwohl, 1 Billion Dreiecke pro Sekunde wären auch ne Ansage ;D
Naja, Faktor 1000 -> in ~10 Jahren dann :) (jedes Jahr Verdoppelung -> 2^10= 1024) ;)

Du hast nicht zufällig Age of Conan, oder? (Testaccount?)

Dr. Lloyd
2010-04-08, 05:03:36
@Mr. Lolman:

Ich schließe mich der Meinung von vielen hier an: Auch ich würde es sehr begrüßen, wenn der 3D-Center-Test sich ausschließlich auf Spiele fokussiert, welche eher als Benchmark-Exoten gelten.

Zu den "Üblichen Verdächtigen" gibt es bereits mehr als genug Informationen aus bereits veröffentlichten Benchmarks.

Dabei fände ich es sehr interessant zu wissen, wie sich solche Exoten in einem Benchmark verhalten, wenn man davon ausgehen kann, dass weder Rot noch Grün ihre Treiber darauf optimiert haben.

Als RPG-Fan wünsche ich mir einen Test mit Dragon Age in 2.560x1.600 sowie einen Bildqualität- und Leistungsvergleich mit SSAA. Da Dragon Age auch PhysX unterstützt, würde mich interessieren, welche Vorteile man in diesem Spiel dadurch hat.

Als Gegenspieler zur GTX480/GTX470 wäre eine HD5870 mit 2GiB durchaus interessant.

Ailuros
2010-04-08, 09:16:04
DAS gibt 100 pro den nächsten Fanboy-Krieg.

Mir persoenlich egal. Eine ausfuehrliche AF Qualitaets-Untersuchung liegt an der Spitze meiner Wunschliste. Im Notfall kann Lolman sich auch die GeForce-Radeon Vergleiche auch sparen und sich ausschliesslich auf GF100 konzentrieren. Es ist seine eigene Entscheidung.

Meine HD 4850 Non-OC (625 MHz GPU) macht 16.676 k bei genau 30 fps. Das wären rund 500 Mio. Dreiecke pro Sekunde. Cypress und den GF100 würde ich eigentlich weiter entfernt sehen.

http://www.hardware.fr/articles/787-7/dossier-nvidia-geforce-gtx-480-470.html

http://www.hardware.fr/medias/photos_news/00/28/IMG0028392.gif

Gast
2010-04-08, 10:06:35
Ich wäre auch für eine ausführliche AF-Betrachtung sowohl in Qualität als auch Leistung.
Mich interessiert vor allem wie stark ein interpolierter GF 104 oder GF 102 einbricht, falls das geht. Bei den unteren Mainstream-Modellen war AF bis jetzt
bei NV praktisch geschenkt, mit dem Fermi wird man da deutlich uneffektiver.

Außerdem wäre eine ausführliche Qualtitätsbetrachtung von AF und AA schön.

Ich wäre wegen des augenscheinlichen Betastatus des Fermis eine reine Architekturuntersuchung durchzuführen, dass der Fermi eine Heizung ist wissen wir schon.

puntarenas
2010-04-08, 11:25:33
Fermi sollte erstmals die Möglichkeit bieten, Gothic 3 in voller Blüte zu zelebrieren. Bisher konnte man das neue HDR des Community Patch nicht in Verbindung mit MultiSampling gebrauchen, der dicke Fermi sollte aber endlich genug Dampf für 3x3 SuperSampling in allen Lagen haben und sowas gehört gebenchmarkiert! :up:

Gothic3 CP1.73 AntiAliasing - MultiSampling + HDR = Pixelfehler (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=467692)
Risen-Bugtracker - Grafikfehler oder Pixelfehler - ähnlich Overclocking-Artefakten oder Hardware-Defekten (http://risenbugs.borsal.de/view.php?id=378)

Überhaupt würde ein kleines Kapitel mit Gothic 2 und 3 sowie Risen ein schönes Zeichen setzen. Mainstreamsupport kann jeder, aber bei Piranha-Engines kommt es für Treiberabteilungen zum Schwur. Klar, man könnte sagen, die Piranhas könnten ihre Engines fixen, man könnte aber auch sagen, die Piranhas können es eben nicht! Brute Force ftw! :D

N0Thing
2010-04-08, 11:25:56
Hat eigentlich irgendeine Reviewseite den AF-Tester von Coda benutzt? Wenn dem nicht so ist, sollte der bei einem 3DCenter Review zum Einsatz kommen.

Gast
2010-04-08, 12:05:01
Du hast nicht zufällig Age of Conan, oder? (Testaccount?)
Doch, aber nach Level 47 aufgehört und ich plane auch nicht, wieder anzufangen. Dazu ist mir das Spiel einfach zu dämlich.

-Carsten

BlackBirdSR
2010-04-08, 12:13:07
@Mr. Lolman:



Als RPG-Fan wünsche ich mir einen Test mit Dragon Age in 2.560x1.600 sowie einen Bildqualität- und Leistungsvergleich mit SSAA. Da Dragon Age auch PhysX unterstützt, würde mich interessieren, welche Vorteile man in diesem Spiel dadurch hat.


Es nutzt die PhysX-Physik-Engine aber keine HW-Implementierung. Also keine Vorteile.

Spasstiger
2010-04-08, 18:07:58
der dicke Fermi sollte aber endlich genug Dampf für 3x3 SuperSampling in allen Lagen haben und sowas gehört gebenchmarkiert! :up:
Ich weiß nicht, wie sich Gothic 3 bei solchen Extremsettings verhält, aber wenn es die GTX 295 bislang nicht mit 3x3 SSAA flüssig gepackt hat, schafft es die GTX 480 auch nicht. Mit 16xS-AA + TMSAA ist die GTX 480 in CoD 6 gerade mal 26% schneller als die GTX 285 (Link (http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation-Update-SLI-Benchmarks-mit-2-GTX-480/Grafikkarte/Test/?page=16)). SSAA ist nicht unbedingt die Stärke des GF100.

Blaire
2010-04-08, 18:10:21
Ich weiß nicht, wie sich Gothic 3 bei solchen Extremsettings verhält, aber wenn es die GTX 295 bislang nicht mit 3x3 SSAA flüssig gepackt hat, schafft es die GTX 480 auch nicht. Mit 16xS-AA + TMSAA ist die GTX 480 in CoD 6 gerade mal 26% schneller als die GTX 285. SSAA ist nicht unbedingt die Stärke des GF100.

Das machst du anhand eines Benchmarks fest? Bei 32xS gibts ja immerhin eine Verdopplung. Ich würde gern mehr Benchmarks sehn so 40-50% mehr Speed rechne ich mir schon aus.

boxleitnerb
2010-04-08, 18:15:31
32xS profitiert aber hauptsächlich von der guten 8xAA Performance. Der reine SSAA-Anteil läuft unter Fermi kaum bis gar nicht schneller als bei der vorigen Generation.

Spasstiger
2010-04-08, 18:16:34
Bei 32xS gibts ja immerhin eine Verdopplung.
8xMSAA + mehr VRAM. Reines SSAA (z.B. 3x3) ist auf dem GF100 vermutlich nicht besonders schnell. Auf jeden Fall sollte da eine GTX 480 näher an der GTX 285 liegen als ganz ohne AA, solange der VRAM nicht limitiert. Mit zunehmender Auflösung verliert Fermi an Boden gegenüber der GTX 285. Und reines OGSSAA ist nichts anderes als eine höhere Auflösung.
Hier sieht man das mit der schrumpfenden Vorsprung bei wachsender Auflösung recht deutlich: http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/21/#abschnitt_performancerating.
1680x1050: Faktor 1,71
1920x1200: Faktor 1,68
2560x1600: Faktor 1,59

Hardcoregamer
2010-04-08, 18:25:37
Hallo,

Also mich würde die Performancesteigerung bei physx interessieren. Am liebsten an dem Spiel Sacred 2. Ich glaube das wurde noch nicht genannt.
Schön wäre dann auch mit 4xAA :)


Gruß
Hardcoregamer

Gast
2010-04-08, 18:29:04
Schau mal hier :

http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/22/#abschnitt_physx

Die Steigerung ist schon enorm:)

Hardcoregamer
2010-04-08, 18:33:32
Danke den Artikel kannte ich noch nicht.

Ist schon krass die Steigerung. Dann sollte bei Sacred 2 auch eine starke Steigerung drin sein. Sehr nett :)

Fehlt nur noch ne 512er 2GB Version. Die würde ich dann wohl kaufen. Naja mal abwarten.

Ronny145
2010-04-08, 18:34:44
Schau mal hier :

http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/22/#abschnitt_physx

Die Steigerung ist schon enorm:)


Bei solchen Vergleichen auf Computerbase immer an die Treiber denken. GTX285 mit einem Treiber vom November.

Hardcoregamer
2010-04-08, 18:38:39
Bei solchen Vergleichen auf Computerbase immer an die Treiber denken. GTX285 mit einem Treiber vom November.

Naja ein älterer ist mir sogar recht. Ich hab auch "nur" den 186 drauf. Die neueren Treiber setzen sich bei mir immer zurück damit kann ich gar nicht zocken.

Was die sich dabei gedacht haben ist eh ein Witz aber das ist ein anderes Thema...

Gast
2010-04-08, 18:51:11
Fehlt nur noch ne 512er 2GB Version. Die würde ich dann wohl kaufen. Naja mal abwarten.Beim Speicherinterface des aktuellen Chips kannst du das wohl vergessen, 2GB geht nicht. Aber 3GB wären machbar :D

Armaq
2010-04-08, 19:19:34
Insgesamt ist also ein Vergleich zur 5870 gar nicht der erste Wunsch. Das ist doch schon ein Start? Im Gehäuse ist natürlich Pflicht und ohne 12 Lüfter. Habt ihr vll. die Möglichkeit die Karte 2 Personen zukommen zu lassen? Das wäre natürlich eine tolle Sache, wenn jmd. noch eine eigene Wertung abgeben dürfte.

Hardcoregamer
2010-04-08, 21:22:16
Beim Speicherinterface des aktuellen Chips kannst du das wohl vergessen, 2GB geht nicht. Aber 3GB wären machbar :D

:D Na dann eben 3 GB. Die nehm ich natürlich auch ;)

Zum Test:

Ich kann Tombman zustimmen. Die Spiele wo ich auch mit meiner GTX 285 mit 4xAA über 60 FPS komme, kann man direkt rauslassen. Ist uninteressant.

Ach so. Und das ganze unter meiner bevorzugte Auflösung von 1920x1200.

Ich glaub jetzt hab ich aber alles geschrieben :D Meine Wunschliste ist komplett. Ist ja wie Weihnachten *g*


Gruß
Hardcoregamer

IVN
2010-04-08, 21:58:03
StarCraft 2, bitte. :)

y33H@
2010-04-08, 22:03:51
Das ist CPU-limitiert ;)

IVN
2010-04-08, 22:09:24
Das ist CPU-limitiert ;)
Ich meine sehr hohe Res + alles an BQ, was geht.

Geht SSAA?

Gast
2010-04-08, 22:13:44
Ich kann Tombman zustimmen. Die Spiele wo ich auch mit meiner GTX 285 mit 4xAA über 60 FPS komme, kann man direkt rauslassen. Ist uninteressant.Obwohl sowohl die TMUs als auch die ROPs eine niedrigere Peakleistung als die der 285 haben? Natürlich wird die 480 im Regelfall schneller sein. Gerade deshalb sind aber die Fälle umso interessanter, in denen sie gegen die 285 verliert. Geht schließlich nicht um Lastgen-Highend vs Nextgen-Midrange, sondern um Highend beider Generationen.

y33H@
2010-04-08, 22:22:15
@ IVN

Auf ner Geforce ja (Radeon kA, nicht probiert). aths meint mit leichten BQ-FuckUps bei der Feuerdarstellung; habe die Beta aber mangels Interesse nicht mehr gezockt.

Mond
2010-04-08, 22:25:33
GTA 4 + ENB

IVN
2010-04-08, 22:30:37
@ IVN

Auf ner Geforce ja (Radeon kA, nicht probiert). aths meint mit leichten BQ-FuckUps bei der Feuerdarstellung; habe die Beta aber mangels Interesse nicht mehr gezockt.
Hört sich gut an. :)


habe die Beta aber mangels Interesse nicht mehr gezockt.

Dann gibt mir den Key, plz.

http://4.bp.blogspot.com/_dGDky1kUdKU/SXQsSS9QDVI/AAAAAAAAARY/-NK5SXEPQ44/s400/shrek_cat.jpg

puntarenas
2010-04-08, 22:34:20
Ich weiß nicht, wie sich Gothic 3 bei solchen Extremsettings verhält, aber wenn es die GTX 295 bislang nicht mit 3x3 SSAA flüssig gepackt hat, schafft es die GTX 480 auch nicht. [...] SSAA ist nicht unbedingt die Stärke des GF100.
Okay, dann wäre in beiden Fällen wahrscheinlich nur 2x2 SSAA sorgenfrei drin und das ist dann wieder nicht gerade vorzügliche Bildqualität. Hybride kann man bei G3/HDR und Risen vergessen, der MSAA-Anteil sorgt für die Artefakte (auch wenn mir das bei Gothic3 anfangs entgangen war, ist dort wohl szenenabhängig).

V2.0
2010-04-09, 08:13:11
Weniger Pseudo-DX11-Spiele und mehr DX9 mit HQ-Mods.

Und bitte nehmt ne 2GB 5870 als Gegner.

Grestorn
2010-04-09, 08:24:47
Und bitte nehmt ne 2GB 5870 als Gegner.

Ja, das würde mich auch interessieren, speziell bei GTA IV. Einmal unter Ausnutzung des vollen zur Verfügung stehenden Speichers und einmal unter Nutzung von nur 1,5 GB.

_flx
2010-04-09, 08:42:15
Ich bin dafür das man so lange AI off vs HQ // AI vs Q bencht bis A/A ihre Treiberpolitik diesbezüglich ändert :)

DrFreaK666
2010-04-09, 10:06:22
Ich bin dafür das man so lange AI off vs HQ // AI vs Q bencht bis A/A ihre Treiberpolitik diesbezüglich ändert :)

Wegen einer Seite ändert AMD bestimmt nichts an der Politik.
Und ich denke mal, dass 3DC im Vergleich zu anderen Seiten eher eine unwichtige ist

_flx
2010-04-09, 10:21:41
Das hat ja damit nichts zu tun - man kann ja als gutes Beispiel vorangehen ;)

DrFreaK666
2010-04-09, 10:36:44
Das hat ja damit nichts zu tun - man kann ja als gutes Beispiel vorangehen ;)

Niemand schaltet A.I. aus. Wieso sollte man dann so benchen?

_flx
2010-04-09, 10:39:42
Niemand schaltet A.I. aus. Wieso sollte man dann so benchen?

Ich bin dafür das man so lange AI off vs HQ // AI vs Q bencht bis A/A ihre Treiberpolitik diesbezüglich ändert :)


Lesen & Verstehen.

DrFreaK666
2010-04-09, 10:52:43
Lesen & Verstehen.

habe ich dosch davor schon verstanden:
Wegen einer Seite ändert AMD bestimmt nichts an der Politik.
Und ich denke mal, dass 3DC im Vergleich zu anderen Seiten eher eine unwichtige ist :smile:

jetzt kannst du antworten:
Das hat ja damit nichts zu tun - man kann ja als gutes Beispiel vorangehen ;)

meine Reaktion darauf:
Niemand schaltet A.I. aus. Wieso sollte man dann so benchen?

;D

_flx
2010-04-09, 12:24:05
Natürlich schaltet im Moment keiner AI aus, die Performance geht ja auch gnadenlos in den Keller und man hat unter Umständen fiese Bugs...

-> http://www.forum-3dcenter.org/vbulletin/showthread.php?t=438475&highlight=Kontrolle

derguru
2010-04-09, 14:07:02
Natürlich schaltet im Moment keiner AI aus, die Performance geht ja auch gnadenlos in den Keller und man hat unter Umständen fiese Bugs...

-> http://www.forum-3dcenter.org/vbulletin/showthread.php?t=438475&highlight=Kontrolle

warum sollte man auch ,es bringt nicht einen vorteil(jedenfalls mit der 5er serie)

Iruwen
2010-04-10, 00:31:05
Cryostasis im Vergleich zur GTX 295 würd mich interessieren.

Don-Roland
2010-04-10, 00:31:44
[x] 5870 2GB zum Vergleich
[x] HL2 Cinematic Mod
[x] GTA4 ENB Mod

Gast
2010-04-10, 11:33:44
Mich würde interessieren was eine GTX 480 in Sachen "Cuda-Anwendungen" gegenüber einer GTX 285 reißen kann. Mit Programmen wie MediaCoder kann man inzwischen ja recht komfortabel Videos mit Hilfe von Cuda sehr flott umwandeln.

Gast
2010-04-10, 11:41:23
eine genaue aufdröselung von 32xCSAA und dessen BQ mit alphatest/texturen in verbindung mit TMAA und TSAA

Gast
2010-04-10, 11:55:02
warum sollte man auch ,es bringt nicht einen vorteil(jedenfalls mit der 5er serie)
Das sollte das 3DC Team zeigen und nicht du behaupten.

deekey777
2010-04-10, 12:19:49
Angenommen, 3DCenter hätte die Möglichkeit ein Fermi-Review zu schreiben, welche Benchmarks würdet ihr gerne sehen?
Einige BOINC-Projekte wie Milkyway@Home oder Collatz oder distributed.net.

(Es wäre herrlich zu sehen, wie eine HD4800 eine GTX480 in M@H plattmacht. :biggrin:)

Läuft die Software überhaupt mit GTX400?

J0ph33
2010-04-10, 13:08:38
frameverläufe (allgemein) und insbesondere von Bad Company 2 Multiplayer!

BC2 haben zwar schon viele reviewseiten getestet, aber die die kommen tlw auf exakt entgegengesetzte resultate, was sicher auch der testmethode geschuldet ist.

ich weiß. dass MP nicht gerade reproduzierbar ist, aber so ein squad dm mit 16 leuten auf zB arica harbor hat mit gleicher spielweise sicher immer ähnliche fps charakteristiken
oder kann man bei BC2 gar demos aufnehmen? Das wäre ja dann ideal.

Gast
2010-04-10, 13:38:32
Einige BOINC-Projekte wie Milkyway@Home oder Collatz oder distributed.net.

(Es wäre herrlich zu sehen, wie eine HD4800 eine GTX480 in M@H plattmacht. :biggrin:)

Läuft die Software überhaupt mit GTX400?
Willst du damit einfach nur das Foren-Klima aufheizen?

deekey777
2010-04-10, 13:48:52
Willst du damit einfach nur das Foren-Klima aufheizen?
Es ist also ok, wenn fast in jedem Review ein von Nvidia bereitgestellter unveröffentlichter F@H-Client getestet wird, aber wenn weitere DC-Projekte hinzugefügt werden, wo Geforces bisher gefressen werden, ist es gleich Anheizen des Forenklimas?

Coda
2010-04-10, 13:50:21
"plattmachen" ist schon sehr suggestiv.

deekey777
2010-04-10, 14:00:30
"plattmachen" ist schon sehr suggestiv.
Wieso "suggestiv"?

Sollen diese Tests die Meinung der Leser in irgendeine bestimmte Richtung lenken? Ich glaube kaum. Sie sollen aber seine Sicht erweitern.

Iruwen
2010-04-10, 16:18:19
Dann schreib dass du einen derartigen Vergleich sehen möchtest und nicht "wie eine HD4800 eine GTX480 in M@H plattmacht".

derguru
2010-04-10, 16:20:08
Das sollte das 3DC Team zeigen und nicht du behaupten.

sollen sie gerne machen und dann schauen ob es sinn macht mit a.i. off zu benchen.:wink:

Gast
2010-04-10, 19:05:40
sollen sie gerne machen und dann schauen ob es sinn macht mit a.i. off zu benchen.:wink:
Objektive Tests sollten sich danach richten, in wie weit der Hersteller künstliche Schranken einbaut.
Wenn AMD meint anwendungsspezifische Optimierungen mit der Filterqualität zu koppeln gibt es nicht automatisch einen Grund sie dafür zu belohnen.
Man kann und sollte natürlich erwähnen, warum es so ist, das trotz 80TMUs ein mehr oder minder großer Einbruch zu verzeichnen ist.

OBrian
2010-04-12, 03:07:04
Aber man muß doch realistisch testen. Wenn man einerseits zurecht keine "Benchmarks" wie 3DMark einsetzt, weil die unrealistisch sind (da das kein Spiel ist), wieso sollte man dann andererseits AI aus machen? Immerhin schaltet man damit auch diverse Bugfixes ab, was kein Spieler machen würde. Daß die Filterqualität damit gekoppelt ist, sollte man zwar mahnend erwähnen und man sollte auch BQ-Vergleiche machen mit AI an und aus und gegen NV vergleichen.

Aber benchen sollte man in den Einstellungen, die von Spielern genutzt werden. Dazu gehören übrigens auch keine unrealistischen Einstellungen wie 1280x1024 ohne AA oder sowas, was kein Käufer einer 300€+ Karte laufen läßt, ebenso keine so irre hohen Einstellungen, daß das Spiel auf allen Karten unter 10fps läuft.

Grestorn
2010-04-12, 08:19:00
...dann müsste man auch bei jedem(!) Benchmark dazu schreiben, dass die Werte nicht vergleichbar sind, da die gelieferte Qualität nicht identisch ist.

Gast
2010-04-12, 08:21:50
Objektive Tests sollten sich danach richten, in wie weit der Hersteller künstliche Schranken einbaut.
Wenn AMD meint anwendungsspezifische Optimierungen mit der Filterqualität zu koppeln gibt es nicht automatisch einen Grund sie dafür zu belohnen.
Man kann und sollte natürlich erwähnen, warum es so ist, das trotz 80TMUs ein mehr oder minder großer Einbruch zu verzeichnen ist.

Der letzte Satz ist hinfällig, sollte es keine Unterschiede in der Filterqualität zwischen AI on/off geben.

BTW, bei NVIDIA ist das Filtering nicht IMMMER gleich bzw. an bestimmte Anwendungsprofile gebunden...

Gast
2010-04-12, 08:24:04
...dann müsste man auch bei jedem(!) Benschmark dazu schreiben, dass die Werte nicht vergleichbar sind, da die gelieferte Qualität nicht identisch ist.

Das die BQ nicht immer identisch ist würde ich mal voraussetzen. Ist ja immerhin schon so seit man solche Produkte als "3D-Grafikkarte" bezeichnet.

Grestorn
2010-04-12, 08:42:16
Ok, dann ist das ja der Freibrief an der BQ zu sparen, wo es geht.

Wieso hat denn der G70 damals eigentlich so böse Kritik bekommen, samt Link aus Geizhals auf den Artikel im 3DC?

Cubitus
2010-04-12, 08:53:01
Also meine Favoriten
AA Einstellungen nach belieben, Supersampling sollte man aber weglassen oder nur am Rande erwähnen,
da sonst ein Vergleich schwierig wird.

DX10

Just Cause 2 -> Nvidia Spiel
Shatterd Horizon -> Tendenz zu ATI
Lost Planet --> Nvidia Spiel
Call of Jurez 1 mit DX10 --> ATI Spiel
Crysis 1 mit Enthusiast Setting --> Neutral
Avatar --> Nvidia Spiel

DX11

Dirt2 --> ATI Spiel
Metro --> Nvidia Spiel
Stalker SOC --> ATI Spiel
Battlefield BC II --> Nvidia Spiel

DX9

Hl2@Cinematic Mod --> ATI Spiel
UT 3 --> Neutral
Oblivion mit Qarls Texture Pack --> Neutral

Als Qualitätsettings sollte man den Nvidia und ATI Treiberstandard wählen,
AI on und Bei NV normale Qualität, Stichproben mit ein paar Spielen wären aber dennoch nicht schlecht um heraus zu finden wie groß überhaupt der FPS-Unterschied zwischen Nvidia Qualität und Nvidia hohe Qualität ist :wink:
AI off wäre unfair, da ATI leider Bugfixing mit der AI verbindet.

Gast
2010-04-12, 09:08:00
Ok, dann ist das ja der Freibrief an der BQ zu sparen, wo es geht.

Wieso hat denn der G70 damals eigentlich so böse Kritik bekommen, samt Link aus Geizhals auf den Artikel im 3DC?


Klar , jetzt werden wieder X-Jahre alten Kamellen aus dem Hut , zum schönreden , gezogen.


Ganz grosses Kino !

BTW: für damalige verhältnisse war die Kritik berechtigt und angebracht !


Wir sind inzwischen allgemein auf einem viel höheren Stand der BQ wie vor X Jahren.



am besten testen wir nur in 320x240 ohne Filterung , dann dürfte es auch Grestorn gefallen.

Grestorn
2010-04-12, 09:10:29
Ich will nur nicht, dass man mit den gerade genehmen Werten misst sondern mit objektiven.

Und das ist doch der Hintergrund der AI Diskussion.

Keiner hat AMD dazu gezwungen, Fixes mit Optimierungen zu verknüpfen. Das hatte genau nur einen Grund, der ist jedem offensichtlich. Und warum sollte man eine Firma, die genau wie nVidia nur Geld verdienen will, das durchgehen lassen, wo man bei nVidia sicher zurecht eingedroschen hat, als das G70 Problem aufkam?

Gast
2010-04-12, 09:14:58
Was genau ist denn mit AI default schlechter bei AMD? Und wann merke ich das?

Cubitus
2010-04-12, 09:30:11
Keiner hat AMD dazu gezwungen, Fixes mit Optimierungen zu verknüpfen. Das hatte genau nur einen Grund, der ist jedem offensichtlich. Und warum sollte man eine Firma, die genau wie nVidia nur Geld verdienen will, das durchgehen lassen, wo man bei nVidia sicher zurecht eingedroschen hat, als das G70 Problem aufkam?

Ja, dazu kommt noch das CF mit der AI verknüpft wird.
Ein großer Pluspunkt für SLI, das auch mit höchsten Qualität-setting funktioniert.

Aber he, der Rosenkrieg zwischen Nvidia und ATI geht schon soo lange das beide Seiten jede Menge Dreck am Stecken haben ;D

Z.b fand ich das gerade im Netz, als ich nach ATI optimierten Spiele suchte

Vorteil ATI: Erstes DX9-Spiel lässt Nvidia alt aussehen
Softwareschmiede Valve präsentiert Benchmarks des in Kürze erwarteten Spiels Half Life 2

Wie Berichten amerikanischer Hardware-Sites zu entnehmen ist, hat Spielentwickler Valve Performance-Daten seines noch in diesem Herbst erwarteten Egoshooters Half Life 2 präsentiert. Gabe Newell, Chefentwickler bei Valve, äußerte sich im Rahmen des von Grafikchiphersteller ATI veranstalteten Shader-Days in Seattle zur Half Life 2-Performance. Demnach sind derzeit ATI-Karten mit dem DirectX 9-Spiel deutlich leistungsfähiger als Chips von ATIs Hauptkonkurrenten Nvidia. Bereits der im mittleren Preissegment angesiedelte ATI Radeon 9600 ist mit 45 Bildern pro Sekunde deutlich schneller als Nvidias Highendlösung Geforce FX 5900 Ultra mit lediglich gut 30 fps. Unangefochten an der Spitze rangiert ATIs Radeon 9800 Pro mit über 60 fps. Für die Nvidia-Chips hat Valve in Half Life 2 eine spezielle Code-Variante implementiert, die allerdings auf Kosten der Bildqualität geht. Mit dieser Technik werden die Nvidia-Chips zwar schneller, an der Spitzenstellung der ATI-Karten bei Half Life 2 ändert es indes nichts.

Valve gab zudem bekannt, dass die mit Half Life 2 gemessenen Performance-Daten auch für zukünftige erscheinende DX9-Spiele repräsentativ seien. Zudem musste man fünfmal mehr Zeit für die Implementierung des Nvidia-Performance-Modus aufwenden als für die DirectX 9-Optimierung. Für die Zukunft sieht Newell die speziellen Anpassungen an die Nvidia-Hardware sehr kritisch, da diese mit erhöhten Kosten verbunden seien.
Quelle (http://www.multi-board.com/board/index.php?page=Thread&threadID=3516)

Am liebsten wäre mir persönlich ein dritter Hersteller der alles richtig machen würde ;(

Gast
2010-04-12, 09:43:06
Ok, dann ist das ja der Freibrief an der BQ zu sparen, wo es geht.

Wieso hat denn der G70 damals eigentlich so böse Kritik bekommen, samt Link aus Geizhals auf den Artikel im 3DC?


Mit Sicherheit nicht. Allerdings wird hier gerne Mal Tatsache und Annahme auf eine Stufe gestellt. Imho hast Du keine HD5xxx vorliegen, Deiner Schreibe würde man aber entnehmen dass Du Dich hier auf Fakten berufst.

Imho sind die wesentlichen Unterschiede zwischen AI Standard/Off auf HD5xxx Bugfixes+Shaderoptimierungen etc. und sollte kaum/keine Auswirkung auf die BQ haben.

Damit Du mich nicht falsch verstehst, ich habe/würde ein Vorgehen bzgl. AI wie in der Vergangenheit beim R670/R770 geschehen nicht gutheissen, allerdings sind die Vorwürfe in dieser Form bei der HD5er Reihe generell nicht mehr haltbar.

Spasstiger
2010-04-12, 10:12:41
Z.b fand ich das gerade im Netz, als ich nach ATI optimierten Spiele sucht
HL2 ist nicht ATI-optimiert, das haben doch die nachfolgenden GPU-Generationen gezeigt. Wenn überhaupt, dann hat Valve für die GeForce FX optimiert, um deren Architekturschwächen zu kompensieren.Als die GeForce FX nicht mehr relevant war, konnte sich eine Radeon 9800 Pro in neuen Spielen mit bis zu einem Faktor 4 von einer FX 5900 Ultra absetzen, siehe z.B. Oblivion.

Gast
2010-04-12, 10:51:47
Metro 2033 bitte benchen!

Gast
2010-04-12, 12:06:52
Ich will nur nicht, dass man mit den gerade genehmen Werten misst sondern mit objektiven.

Und das ist doch der Hintergrund der AI Diskussion.

Keiner hat AMD dazu gezwungen, Fixes mit Optimierungen zu verknüpfen. Das hatte genau nur einen Grund, der ist jedem offensichtlich. Und warum sollte man eine Firma, die genau wie nVidia nur Geld verdienen will, das durchgehen lassen, wo man bei nVidia sicher zurecht eingedroschen hat, als das G70 Problem aufkam?

Und was ist für dich Objektiv ?
eine X Jahre alte , längst erledigte Diskussion , immer wieder für deinen "Nvidia-wird-ja-so-schlecht-behandelt"-KREUZZUG herzuziehen hat ja fast schon schizoide Züge.


PS: Und Nvidia macht keine Optimierungen im Treiber,wechselt Shader aus ?
Kannst du das abschalten ?

Soviel zu deiner Objektivität.
Inzwischen befinden wir uns mit der BQ auf einem Niveau , wo nur noch auf "hohem" Niveau gejammert werden kann. ( 1920x1200 ,X-fach AF,Xfach MSAA,AAA,...)
(SSAA hab ich jetzt bewust ausgelassen !)

y33H@
2010-04-12, 12:31:23
NV optimiert getrennt (zumeist) von der BQ, kleiner Unterschied. Und AMDs Spar-AF samt Banding in Crysis als "hohes" Niveau zu bezeichnen, ist lächerlich. Das kann eine X19x0 XT um Welten besser mit AI off :rolleyes: Alles ab G80 sowieso.

Cubitus
2010-04-12, 12:35:21
HL2 ist nicht ATI-optimiert, das haben doch die nachfolgenden GPU-Generationen gezeigt. Wenn überhaupt, dann hat Valve für die GeForce FX optimiert, um deren Architekturschwächen zu kompensieren.Als die GeForce FX nicht mehr relevant war, konnte sich eine Radeon 9800 Pro in neuen Spielen mit bis zu einem Faktor 4 von einer FX 5900 Ultra absetzen, siehe z.B. Oblivion.

So steht es im Text.

Ich sag ja beide Seiten haben Dreck am Stecken

Gast
2010-04-12, 12:36:24
NV optimiert getrennt (zumeist) von der BQ, kleiner Unterschied. Und AMDs Spar-AF samt Banding in Crysis als "hohes" Niveau zu bezeichnen, ist lächerlich. Das kann eine X19x0 XT um Welten besser mit AI off :rolleyes: Alles ab G80 sowieso.

Ich bezog mich auf diesen G70 vergleich.
Wenn du aber meinst seit der G70 hat sich in der BQ nix verbessert, dann sollstest du hier nicht so grosse Töne spucken.:rolleyes::rolleyes:

Nochmal auch für dich seit Zeiten der G70 / X19x0 Xt hat sich doch schon einiges getan. oder hast du schon mit der g70 mit 1920x1200 16xAF 8xAA gespielt ? Wohl kaum.


PS: Nicht alles ist "Crysis" , und "Crysis" nicht alles.
So back to RL

Cubitus
2010-04-12, 12:43:18
Nochmal auch für dich seit Zeiten der G70 / X19x0 Xt hat sich doch schon einiges getan. oder hast du schon mit der g70 mit 1920x1200 16xAF 8xAA gespielt ? Wohl kaum.


Insbesondere ging bei G70 kein HDR+AA Das war damals mit einer X1900er kein Problem.

Nur, so wie es ATI immer noch mit seiner AI handhabt ist falsch. Da braucht man auch gar nix schön reden! Dieses Verfahren ist einfach Mist!
Aber wenn niemand danach kräht... dann wird dieser Zustand noch lange bestehen!

y33H@
2010-04-12, 13:19:32
@ Gast
Lesen hilft:
Alles ab G80 sowieso.G7x-AF ist grausam.
oder hast du schon mit der g70 mit 1920x1200 16xAF 8xAA gespielt ? Wohl kaum.8x MSAA habe ich nie gespielt ...

Gast
2010-04-12, 13:29:10
NV optimiert getrennt (zumeist) von der BQ, kleiner Unterschied. Und AMDs Spar-AF samt Banding in Crysis als "hohes" Niveau zu bezeichnen, ist lächerlich. Das kann eine X19x0 XT um Welten besser mit AI off :rolleyes: Alles ab G80 sowieso.


Worauf ich hinaus will: Auch Nvidia optimiert anwendungspezifisch. So wird in Crysis anders gefiltert als bei dem Groß der restlichen Spiele. Kannst Du diese "Optimierungen" getrennt von weiteren Parametern abschalten?

y33H@
2010-04-12, 13:31:13
Was filtert NV bei Crysis anders?

Gast
2010-04-12, 13:33:22
@ Gast
Lesen hilft:
G7x-AF ist grausam.
8x MSAA habe ich nie gespielt ...

Darph ich das so verstehen du hast mit der G70 in 1920x1200 und 16xAF gespielt ?


Kleiner Tip an Mr.Lolman - bei solchen "Profis" lass das testen , die sehen es immer Objektiv ?

y33H@
2010-04-12, 13:51:12
Damals hatte ich noch ne 1600 x 1200 Röhre. Ich versteh nicht, worauf du hinaus willst?

Klar wurde die Rohleistung besser und auch das AA und das AF. AMD allerdings hat von R580 auf R600 bis heute einen AF-Rückschritt gemacht, NV von G70 auf G80 bis heute einen großen nach vorne.

N0Thing
2010-04-12, 14:12:58
Was filtert NV bei Crysis anders?

Das würde mich auch mal interessieren. Wurde in letzter Zeit mehr als einmal behauptet, aber nie durch einen Link/Review/Vergleichsbilder/geklaute Dokumente oder was weiß ich untermauert.

lilgefo~
2010-04-12, 14:42:33
Damals hatte ich noch ne 1600 x 1200 Röhre. Ich versteh nicht, worauf du hinaus willst?

Klar wurde die Rohleistung besser und auch das AA und das AF. AMD allerdings hat von R580 auf R600 bis heute einen AF-Rückschritt gemacht, NV von G70 auf G80 bis heute einen großen nach vorne.

Wie siehts eigentlich aus wenn man die ganzen Reinfaelle (IQ-technisch) zwischen nv20 und g80 mal aussen vor laesst?

Gast
2010-04-12, 15:03:43
Klar wurde die Rohleistung besser und auch das AA und das AF. AMD allerdings hat von R580 auf R600 bis heute einen AF-Rückschritt gemacht, NV von G70 auf G80 bis heute einen großen nach vorne.
Ist jetzt nur die Frage, ob das schlechtere AF in Hardware gegossen ist oder die Scheiße treiberseitig behoben werden könnte?
Spätestens mit der 5000 Serie muss man doch nicht bei Samples sparen?
Vielleicht muss PCGH den Canandiern mal kräftig in den Arsch treten, ausreichend Macht und Verbreitung, jedenfall im deutschsprachigen Raum, dürtfe ja vorhanden sein?
Was ich neulich beispielsweise wieder in Quake 3 selbst mit AI off sehen musste, zum Kotzen. Schlechter als G80 auf Quality ohne Optimierungen!
Dann diese Inkonsequenz bei den internen Profilen. Einmal schaltet AI off manche Optimierungen bei einigen Games aus, die Bildqualität verbessert sich etwas. Bei vielen anderen Profilen ist dies anscheinend nicht der Fall. Die kanadische Frickelbude hat sich mit ihrem AI-Chaos komplett verzettelt und ist wohl selbst total überfordert. Da wäre lieber etwas AI in der Treiberentwicklung gar nicht verkehrt, um die Unfähigkeit dort zu lindern.

Gast
2010-04-12, 15:51:54
Damals hatte ich noch ne 1600 x 1200 Röhre. Ich versteh nicht, worauf du hinaus willst?

Klar wurde die Rohleistung besser und auch das AA und das AF. AMD allerdings hat von R580 auf R600 bis heute einen AF-Rückschritt gemacht, NV von G70 auf G80 bis heute einen großen nach vorne.

Worauf ich hinaus will ?

Heutzutage spielt man in 1920x1200 gegenüber (1600x1200) 1280x1024 und niedriger doch schon ein wenig mehr qualität.

Wenn du also ein Spiel das man damals mit max 1280x1024 (oder früher 800x600) gespielt hast , vergleichst mit heutigen 1920x1200. So ist mach allein das mehr an auflösung ne menge aus.


Denn mit "riesenpixel Röhre" ala 1024x768 , dürfte es um Welten mehr geflimmert haben, als auf nem TFT 1920x1200 heute !

Wer die möglichkeit hat mal auf ner alten Mühle (gf2,gf3, ....) und nem alten Montor zb. Quake 2 oder 3 anzuschauen wird wissen was ich meine.

Gast
2010-04-12, 15:54:54
...Scheiße ...kräftig in den Arsch treten... zum Kotzen. ...kanadische Frickelbude ... komplett verzettelt und ist wohl selbst total überfordert. .. Unfähigkeit ...


Hier spricht ein "wahrer" Experte zum Thema.
Besonders "bewunderndernswert" auch die ausgeklügelte Auswahl der Fachbegriffe.

Hier versteht man sofort : Es wird getrollt !


Lobenswert ! ::Rolleyes::

Coda
2010-04-12, 16:54:43
Wie siehts eigentlich aus wenn man die ganzen Reinfaelle (IQ-technisch) zwischen nv20 und g80 mal aussen vor laesst?
Bei NVIDIA wurde es wenn man NV4x/G7x weglässt immer besser oder ist gleichwerig geblieben.

Gast
2010-04-12, 17:36:19
Au ja, dieses geflame hilft dem Team sicher enorm bei dem Design des Testsetups weiter.
Ich finde es genial, das eine Readaktion solch ein Feedback nützt. Nur um so trauriger ist es, dass der Thread zerschreddert werden muss. Gibt doch genug andere Threads die sich mit AI vs HQ beschäftigen. Mal davon ab, dass es da nichts neues gibt. Lest einfach nen alten Thread, steht zu 99% das gleiche drin.


So jetzt mal zu meinem Vorschlag.
Ich würde gerne Serious Sam HD sehen.
Das ist ein Spiel abseits der ganzen gehypten Titel wo nicht so viel von den Treiberteams optimiert wird.
Zu lasch sind die Hardwareanforderungen auch nicht. Auf höchsten Details hat auch ne 5870 zu kämpfen.

N0Thing
2010-04-12, 18:01:14
Call of Juarez - Bound in Blood fände ich ganz gut als DX9 Beispiel.

chiller
2010-04-12, 21:34:01
Dragon Age Ostagar alles gemaxed, das schlaucht die Graka

vorallem würde ich gerne mal nen Benchmark sehen, ohne ne auf 4GHZ gezüchtete MonsterCPU die die meisten eh nich 24/7 so laufen lassen.

einfach ma std. da kann man sich nen viel besseres Bild machen

oder ma übertaktet und nicht übertaktet CPU gegeneinander. oder wie läuft fermi mit 1, 2, 3, oder 4 cores bei gleichem takt?

Gast
2010-04-12, 22:15:20
G7x-AF ist grausam.


Nö, ist es nicht, es wurde nur schlechtgeredet von ATi Fanboys, dabei ist es den X1900 AF ebenbürtig (bis auf Winkelabhängigkeit).

HarryHirsch
2010-04-12, 22:49:44
Alles was aktuell ist und Benches gegen A.I. off. Meinetwegen auch mit 5870CF.

Gast
2010-04-12, 22:55:21
Nö, ist es nicht, es wurde nur schlechtgeredet von ATi Fanboys, dabei ist es den X1900 AF ebenbürtig (bis auf Winkelabhängigkeit).
Kannst du oft nicht genug sagen, keiner glaubts. Sollens doch mal diverse Videos machen und vergleichen. HQ @ G70 ist (fast) immer mindestens gleichwertig (bis auf Winkelabhängigkeit) mit R580 @ AI off. Die Flimmerproblematik mit den ersten G70-Treibern hat den Ruf ruiniert. Es wird sich auch immer über das AF des NV40 beschwert. Dabei war das auf HQ super, nur der Performancedrop gegenüber Quality ohne Optimierungen war übel, dass es fast keiner nutzen konnte, da die Grundleistung mit Quality ohne Optimierungen eh schon nicht berauschend war.

Armaq
2010-04-12, 23:13:13
Alles was aktuell ist und Benches gegen A.I. off. Meinetwegen auch mit 5870CF.
Sinn?

HarryHirsch
2010-04-12, 23:14:23
Sinn?

Frust.

Angiesan
2010-04-12, 23:35:02
Ich würde es sehr begrüßen, wenn man den ganzen Aufbaukrams drausen lassen würde.
Ob ich nun 20 oder 60 Bilder bei den Siedlern habe interessiert doch eh kein Mensch, oder?

Und bitte wenn es möglich ist auch gerne wieder mit der "Spielbarkeitswertung" die Ihr schon mal gezeigt habt.

Ansonsten gerne mit den gängigen Auflösungen 1680x1050 und 1920x1600 und 1920x1080 mit 4x und 8XAA und 16xAF

Als Testfeld einfach die Spielecharts genommen und ein paar alte und neue HW-Fresser dazu.
Auch würde ich es interessant finden wenn man die Spiele wo es wirklich auf FPS ankommt in verschiedenen Einstellungen testen würde.
BC2 ist ein gutes Beispiel mit 40 Fps braucht man beim MP nicht antreten finde ich.
Das Ganze garniert mit alte Perlen mit SSAA.

Dann bleibt mir nur noch die Verbeugung!

Grüße

tombman
2010-04-12, 23:43:26
Und ganz wichtig:

Wenn keine 30fps erreicht werden können auf 16x10 oder 19x12, dann auf JEDEN FALL das entsprechende Spiel/Benchmark noch zusätzlich mit 1280x720 (16:9) und/oder 1280x800 (16:10) NACHTESTEN!

Nicht immer gleich aufgeben, wenns auf 16x10 nicht flüssig rennt ;)

Gast
2010-04-12, 23:50:23
Au ja, dieses geflame hilft dem Team sicher enorm bei dem Design des Testsetups weiter.
Ich finde es genial, das eine Readaktion solch ein Feedback nützt. Nur um so trauriger ist es, dass der Thread zerschreddert werden muss. Gibt doch genug andere Threads die sich mit AI vs HQ beschäftigen. Mal davon ab, dass es da nichts neues gibt. Lest einfach nen alten Thread, steht zu 99% das gleiche drin.

Das Volk will nicht den x-ten Thread oder alte nach kleinen Informationshäpchen durchwühlen.
Das Volk will nach 4 Generationen R600 endlich die Wahrheit, geschrieben von einem 3DC Redakteur.

Es braucht eine klare, leicht nachlesbare Ansage, was aktuell los ist.
Keine Schmeicheleien zu einem IHV, keine Rücksicht auf irgendwelche verbundenen Optimierungen, einfach die nakten Tatsachen.

AMD wurde jetzt lange genug geschont, mit ihrem Spiel seit R600 tut eine kleine Seite auf einer Seite nicht weh. Als unabhängige Seite sollte das kein Hinderrungsgrund sein. ht4u hat mir zum RV8xx Launch gezeigt, wie unfähig die Presse doch ist, haben die doch als einzige schnell gezeigt wie wenig sich getan hat. Ich hoffe weiterhin, das das 3DC sich seiner früheren Kraft erinnert und durch einen kritischen Artikel zeigt wo wir stehen.
Irgendwelche Balken, vor denen Fanboys Angst haben das sie zu kurz sind, darum geht es doch gar nicht. Was kümmerts euch wenns mit AI-off absäuft, ist doch egal, braucht ihr nicht zu nutzen.

Man kann sicherlich viel darüber schreiben, aber bitte verweist nicht immer auf irgendwelche Threads. Fanboyschlachten, in denen es Informationshäppchen gibt, derer man sich außerhalb nie wieder erinnern wird.

Gast
2010-04-13, 08:52:11
Das Volk will nach 4 Generationen R600 endlich die Wahrheit, geschrieben von einem 3DC Redakteur.
(Moneyquoute)
Es braucht eine klare, leicht nachlesbare Ansage, was aktuell los ist.
Keine Schmeicheleien zu einem IHV, keine Rücksicht auf irgendwelche verbundenen Optimierungen, einfach die nakten Tatsachen.

AMD wurde jetzt lange genug geschont, ....


(Jack Nicholson :)

Die Wahrheit, Sie können doch die Wahrheit überhaupt nicht ertragen......
Uppps ,falscher Film -

Typischer um-die-Ecke-Flame , liest man leider zu oft hier im 3D-Center.
Zuerst "Sachlich" objektivität vortäuschen und dann so richtig schön einseitig Stellung beziehen.


BT: wie wärs einfach mal mit ein paar "älteren" Krachern , diese dafür aber ausführlich mit mehreren auflösungen (1920xy1200,1680x1050,1280x1024,1024x768 (ja auch das !)) und verschieden Filterstufen ?
( 1920x1200 16AF 8AA ,1920x1200 8AF 4AA,... usw )

Es würde mich einfach Interressieren wieviel man wirklich aus den "modernen" Filtern rauskitzlen kann. Und wenn es sein muss eben auch mal in "niedrigen" auflösungen.
Wir zB. Skaliert eine Moderne Karte von 1024x768 bis 1920x1200. ?
(ab wann CPU-Limit schon ab 1024x768 oder niedrieger ?)

DrFreaK666
2010-04-13, 13:20:45
Damals hatte ich noch ne 1600 x 1200 Röhre. Ich versteh nicht, worauf du hinaus willst?

Klar wurde die Rohleistung besser und auch das AA und das AF. AMD allerdings hat von R580 auf R600 bis heute einen AF-Rückschritt gemacht, NV von G70 auf G80 bis heute einen großen nach vorne.

Hilft bei Crysis kein "exe-renaming"?

Gast
2010-04-13, 13:47:02
Das Volk will nicht den x-ten Thread oder alte nach kleinen Informationshäpchen durchwühlen.
Das Volk will nach 4 Generationen R600 endlich die Wahrheit, geschrieben von einem 3DC Redakteur.

Es braucht eine klare, leicht nachlesbare Ansage, was aktuell los ist.
Keine Schmeicheleien zu einem IHV, keine Rücksicht auf irgendwelche verbundenen Optimierungen, einfach die nakten Tatsachen.

AMD wurde jetzt lange genug geschont, mit ihrem Spiel seit R600 tut eine kleine Seite auf einer Seite nicht weh. Als unabhängige Seite sollte das kein Hinderrungsgrund sein. ht4u hat mir zum RV8xx Launch gezeigt, wie unfähig die Presse doch ist, haben die doch als einzige schnell gezeigt wie wenig sich getan hat. Ich hoffe weiterhin, das das 3DC sich seiner früheren Kraft erinnert und durch einen kritischen Artikel zeigt wo wir stehen.
Irgendwelche Balken, vor denen Fanboys Angst haben das sie zu kurz sind, darum geht es doch gar nicht. Was kümmerts euch wenns mit AI-off absäuft, ist doch egal, braucht ihr nicht zu nutzen.

Man kann sicherlich viel darüber schreiben, aber bitte verweist nicht immer auf irgendwelche Threads. Fanboyschlachten, in denen es Informationshäppchen gibt, derer man sich außerhalb nie wieder erinnern wird.



LOL, mal wieder eine Brandrede ohne Substanz. Lass stecken, Kleiner.

Warum? wurde hier schon mehrfach geschrieben.

Gast
2010-04-13, 15:27:10
(Jack Nicholson :)

Die Wahrheit, Sie können doch die Wahrheit überhaupt nicht ertragen......
Uppps ,falscher Film -

Typischer um-die-Ecke-Flame , liest man leider zu oft hier im 3D-Center.
Zuerst "Sachlich" objektivität vortäuschen und dann so richtig schön einseitig Stellung beziehen.

Was für eine Stellung?
Wenn man von AI-off schreibt ist es doch wohl klar das es um AMD geht.

Gast
2010-04-13, 15:31:05
LOL, mal wieder eine Brandrede ohne Substanz. Lass stecken, Kleiner.

Warum? wurde hier schon mehrfach geschrieben.
Bloggt hier die PR-Abteilung von Amd? Er hat doch vollkommen recht. HT4u hat die Unterfilterung schön gezeigt und dass sich nicht viel getan hat und es immer noch schlechter als bei nV ist. Und zwar sichtbar und störend, wenn man eine gesunde Wahrnehmung hat. Man muss es dann geistig gezielt ausblenden. Aber egal. Wer gutes AF haben will, muss halt weiter bei nV vorbeischauen.

DrFreaK666
2010-04-13, 15:36:56
Zum Glück spiele ich DX9-games mit SGSSAA. So fällt mir das AF nciht auf.
Aber früher oder später habe auch ich einen DX10/11-Titel auf dem rechner...

Gast
2010-04-13, 15:38:37
Bloggt hier die PR-Abteilung von Amd? Er hat doch vollkommen recht. HT4u hat die Unterfilterung schön gezeigt und dass sich nicht viel getan hat und es immer noch schlechter als bei nV ist. Und zwar sichtbar und störend, wenn man eine gesunde Wahrnehmung hat. Man muss es dann geistig gezielt ausblenden. Aber egal. Wer gutes AF haben will, muss halt weiter bei nV vorbeischauen.


Ja, aus diesem Grund wird auch weiterhin bei jedem Review darauf hingewiesen dass der HQ-Mode auf Nvidia dem Filtering auf ATI/AMD überlegen ist. Quality ist dagegen sehr gut mit dem Filter der HD5x vergleichbar. Warum man jetzt AI ausschalten müsste ist daraus aber nicht ersichtlich, zumal sich daraus BQ-technisch keine weiterer Vorteil ergibt.

Gast
2010-04-13, 15:41:58
Ja, aus diesem Grund wird auch weiterhin bei jedem Review darauf hingewiesen dass der HQ-Mode auf Nvidia dem Filtering auf ATI/AMD überlegen ist. Quality ist dagegen sehr gut mit dem Filter der HD5x vergleichbar. Warum man jetzt AI ausschalten müsste ist daraus aber nicht ersichtlich, zumal sich daraus BQ-technisch keine weiterer Vorteil ergibt.
Was juckt Q?
Jahre lang gabs die Geizhals Links zu HQ Artikeln oder in vielen anderen Artikeln wurde HQ gepredigt.

Ich finds gut, hat sich doch dadurch eine gute HQ Leistung und Qualität durchgesetzt. Bravo Presse, da habt ihr echtmal was sehr gutes geschafft.

Also, falls du es nicht gelesen hast, es geht hier nicht um Penisvergleiche. Balkenlänge interessiert einfach nicht. Wenn du Angst um deine Radeon hast dann fass AI nicht an und sei zufrienden.

Gast
2010-04-13, 15:48:08
Was juckt Q?
Jahre lang gabs die Geizhals Links zu HQ Artikeln oder in vielen anderen Artikeln wurde HQ gepredigt.

Ich finds gut, hat sich doch dadurch eine gute HQ Leistung und Qualität durchgesetzt. Bravo Presse, da habt ihr echtmal was sehr gutes geschafft.

Also, falls du es nicht gelesen hast, es geht hier nicht um Penisvergleiche. Balkenlänge interessiert einfach nicht. Wenn du Angst um deine Radeon hast dann fass AI nicht an und sei zufrienden.


Du bist aber auch merkbefreit, oder? Auch wenn man AI ausschaltet wird die Filter-Qualität nicht auf das !fantastisch-überragende! Niveau von Nvidia's HQ-Modus gehoben.

Btw, ich habe mit meiner GTX260 immer auf Quality gezockt, auch das empfand ich als durchaus hinnehmbar...

Gast
2010-04-13, 15:56:23
Du bist aber auch merkbefreit, oder? Auch wenn man AI ausschaltet wird die Filter-Qualität nicht auf das !fantastisch-überragende! Niveau von Nvidia's HQ-Modus gehoben.
Und darf man trotzdem nicht das Best einstellbare mal anschauen?
Wenn ja, dann bitte ich darum das AMD diesen Schalter entfernt. Und wenn sie schon dabei sind können sie auch gleich sämtlichen andere Einstellungen entfernen.


Btw, ich habe mit meiner GTX260 immer auf Quality gezockt, auch das empfand ich als durchaus hinnehmbar...Dein gutes Recht, hat aber nichts mit dem aktuellen Kontext zu tun.

Armaq
2010-04-13, 16:02:54
Bannt doch endlich mal diese assozialen Gäste aus solchen Threads.

Gast
2010-04-13, 16:05:12
Und darf man trotzdem nicht das Best einstellbare mal anschauen?
...

Herrje, was ist so schwer daran zu kapieren dass man auf HD5xxx das "Best einstellbare" schon bei AI Standard zu sehen bekommt, per AI off nur das Bugfixing usw abstellt?!

Meinetwegen kann ATi den Schalter entfernen, ich werds wohl kaum ausstellen.

Gast
2010-04-13, 16:06:03
Warum man jetzt AI ausschalten müsste ist daraus aber nicht ersichtlich, zumal sich daraus BQ-technisch keine weiterer Vorteil ergibt.
Doch, weil AI off in einigen Anwendungen das vorhandene BRI eliminiert in vielen anderen hingegen nicht. Das ist Inkonsistenz und bewusst undurchsichtig gemacht. Liegt wohl auch daran, wenn man bedenkt, wie AI überhaupt entstanden ist und warum man vor geraumer Zeit beim Filtern drastisch sparen musste und eine wahre Optimierungsevolution startete. Die bei ATI waren immer schon ein komisches Völkchen. Wenn ich nur an den frühen, von ATI genannten HQ-AF-Schalter denke, der "nur" dafür gesorgt hat, dass ab R520 winkelunabhängig gefiltert werden konnte. Dabei hätte der AI-Knopf diesen Namen verdient gehabt. Denn wenn man diesen deaktiviert hatte, gab es wirklich auf R520 flimmerfreies HQ-AF. Das hat natürlich böse Leistung gekostet und wurd gerade in Hinsicht auf den verkorksten R600 dann schön entschärft. Nicht dass es Reviews zur totalen Penisbalkenkatastrophe gekommen wäre.
Da es die Mehrzahl wohl eh nicht gemerkt hat, hat man dies bei den Nachfolgern so belassen - weil es ja so schön funktioniert hat.

Gast
2010-04-13, 16:09:33
Doch, weil AI off in einigen Anwendungen das vorhandene BRI eliminiert in vielen anderen hingegen nicht. Das ist Inkonsistenz und bewusst undurchsichtig gemacht. Liegt wohl auch daran, wenn man bedenkt, wie AI überhaupt entstanden ist und warum man vor geraumer Zeit beim Filtern drastisch sparen musste und eine wahre Optimierungsevolution startete. Die bei ATI waren immer schon ein komisches Völkchen. Wenn ich nur an den frühen, von ATI genannten HQ-AF-Schalter denke, der "nur" dafür gesorgt hat, dass ab R520 winkelunabhängig gefiltert werden konnte. Dabei hätte der AI-Knopf diesen Namen verdient gehabt. Denn wenn man diesen deaktiviert hatte, gab es wirklich auf R520 flimmerfreies HQ-AF. Das hat natürlich böse Leistung gekostet und wurd gerade in Hinsicht auf den verkorksten R600 dann schön entschärft. Nicht dass es Reviews zur totalen Penisbalkenkatastrophe gekommen wäre.
Da es die Mehrzahl wohl eh nicht gemerkt hat, hat man dies bei den Nachfolgern so belassen - weil es ja so schön funktioniert hat.


Wenn Du Deine Behauptung bei den aktuellen ATI-Karten belegen kannst, immer her damit. Das würde der ganzen Diskussion wenigstens mal ein wenig Substanz verleihen.

Gast
2010-04-13, 16:15:16
Herrje, was ist so schwer daran zu kapieren dass man auf HD5xxx das "Best einstellbare" schon bei AI Standard zu sehen bekommt, per AI off nur das Bugfixing usw abstellt?!

Meinetwegen kann ATi den Schalter entfernen, ich werds wohl kaum ausstellen.Ich glaube dir nicht. So ganz ohne Beweis.
Wenn das 3DC soetwas behaupten würde, würde ich es glauben.

Also, wenn man AI-off untersuchen würde und du hättest Recht, dann hast du noch weniger als gar nichts zu verlieren. Also wo ist das Problem?

MorPheuZ
2010-04-13, 16:17:54
Hallo Topic :mad:

Gast
2010-04-13, 16:33:53
Ich glaube dir nicht. So ganz ohne Beweis.
Wenn das 3DC soetwas behaupten würde, würde ich es glauben.

Also, wenn man AI-off untersuchen würde und du hättest Recht, dann hast du noch weniger als gar nichts zu verlieren. Also wo ist das Problem?

Das Problem ist dass hier die Behauptung in den Raum gestellt wird/wurde dass man durch AI off eine bessere Bildqualtität erreichen würde, die darauf aufbauende Argumentation ist dass man dieses daher für kommende Reviews ausschalten sollte (in diesem Zusammenhang ist davon auszugehen dass sich hier auf die aktuelle Produkt-Reihe von ATI bezogen wird).

Daher glaube ich nicht dass es jetzt an mir wäre hier den Nachweis zu erbringen dass dieses nicht so ist, ich bin natürlich bereit im Einzelfall entsprechende Ergebnisse zu "validieren".

Gast
2010-04-13, 16:35:24
AI-off hat in der Vergangenheit für ein besseres Ergebnis gesorgt.
Deshalb liegt es an dir zu beweisen das dies nun nicht mehr so ist und das das Ergebnis identisch ist.

Gast
2010-04-13, 16:35:29
Wenn Du Deine Behauptung bei den aktuellen ATI-Karten belegen kannst, immer her damit. Das würde der ganzen Diskussion wenigstens mal ein wenig Substanz verleihen.
Was soll ich belegen? AI off eliminiert beispielsweise bei UT2004 Banding. Mit einem LOD von 0.0, festgelegt in der UT.ini, sieht es dann fast genau so gut wie auf einem G80@HQ. In Half-Life 2 flimmerts mit AI off genauso wie mit AI on und es wird auch auf beiden Einstellungen nicht überall trilinear gefiltert. Bei Railworks, bei Driver Parallel Lines, bei Stalker, bei Quake 3 und bei FS2004 flimmerts stärker als auf G80 mit HQ und z. T. auch auf Q ohne Opt.
Viel mehr Games habe ich bis jetzt noch nicht Testen können, mit meiner neuen ATI.
Bei neueren Games sieht man wohl das Flimmern seltener - die gehen in den "Beleuchtungseffekten" und der Dynamik unter. Ist der Inhalt hingegen ruhig, stichts einem ins Auge.
Bei HAWX sehe ich beispielsweise keine Beeinträchtigung.

Niall
2010-04-13, 16:45:57
Gnahaha,
ich wisch’ mir hier die Tränen aus den Augen - :ulol4:
Ihr seid echt zu putzig...

Coda
2010-04-13, 16:49:31
Was ist daran "putzig"?

Ich kritisiere die Haltung von ATI was das Thema angeht auch schon seit Jahren.

DrFreaK666
2010-04-13, 16:50:10
Was ist daran "putzig"?

Ich kritisiere die Haltung von ATI was das Thema angeht auch schon seit Jahren.

trotzdem falscher Thread

Coda
2010-04-13, 16:53:51
Nein. Es geht ja darum wie man Fermi beurteilen soll, und dazu gehört nunmal auch der Vergleich mit ATI-Karten.

Niall
2010-04-13, 16:54:47
Was ist daran "putzig"?

Ich kritisiere die Haltung von ATI was das Thema angeht auch schon seit Jahren.

...und ich beziehe mich auf den tennisartigen Schlagabtausch
zwischen Gast, Gast, Gast und Gast die von wenigen angemeldeten
Usern unterbrochen werden wenn der Ball gerade in der Luft ist.
Nur dass keiner aufhört. Das war nix persönliches.

edit: Und hiermit entschuldige ich mich für den sinnbefreiten Offtopic Beitrag.

DrFreaK666
2010-04-13, 16:57:34
Nein. Es geht ja darum wie man Fermi beurteilen soll, und dazu gehört nunmal auch der Vergleich mit ATI-Karten.

Perfekt wäre ja Radeon@HQ, was aber nciht geht. Was will man hier also noch weiter darüber diskutieren?
Wegen dem Grieseln gibt es ja schon einen Thread, welchen du sicherlich kennst...
http://www.forum-3dcenter.org/vbulletin/search.php?searchid=1459580

Coda
2010-04-13, 16:59:31
Perfekt wäre ja Radeon@HQ, was aber nciht geht. Was will man hier also noch weiter darüber diskutieren?
Es geht darum ATI endlich mal einen Schuss vorn Bug zu verpassen.

Wenn A.I. off einen Bildqualitäts-Vorteil bringt, dann sollte man es auch mittesten. Egal was es sonst deaktiviert.

DrFreaK666
2010-04-13, 17:01:19
Es geht darum ATI endlich mal einen Schuss vorn Bug zu verpassen.

Wenn A.I. off einen Bildqualitäts-Vorteil bringt, dann sollte man es auch mittesten. Egal was es sonst deaktiviert.

Natürlich kann man es mittesten - nebenbei.
So spielt aber keiner!!!
Und wenn man nur darüber diskutiert dann ändert sich nichts. Da muss schon mehr passieren

Coda
2010-04-13, 17:04:41
So spielt aber keiner!!!
Das Argument kommt jedes Mal, halte ich aber für nicht durchdacht. Damit geben wir ATI nämlich einen Freifahrtschein machen zu können was sie wollen.

Und wenn man nur darüber diskutiert dann ändert sich nichts. Da muss schon mehr passieren
Ja, darüber schreiben dass der ATI-Filter immer noch schlimm genug ist und es nicht verharmlosen. Und schon gar nicht mit RGSSAA rechtfertigen, dass das ja dann nicht so schlimm ist.

Gast
2010-04-13, 17:05:47
Es geht darum ATI endlich mal einen Schuss vorn Bug zu verpassen.

Wenn A.I. off einen Bildqualitäts-Vorteil bringt, dann sollte man es auch mittesten. Egal was es sonst deaktiviert.

Wenn Du Deine Behauptung bei den aktuellen ATI-Karten belegen kannst, immer her damit. Das würde der ganzen Diskussion wenigstens mal ein wenig Substanz verleihen.


Damit sollte doch zum Thema alles gesagt sein.

DrFreaK666
2010-04-13, 17:06:40
Das Argument kommt jedes Mal, halte ich aber für nicht durchdacht.

Damit geben wir ATI nämlich einen Freifartschein machen zu können was sie wollen.

Dem ist aber so.
Ich hätte auch lieber hq-AF, leider steht es mir nicht zur Verfügung, deshalb spiele ich so!!

Man sollte alle großen Magazine, Online-Seite anstiften und AMD deswegen interviewen bis man eine ehrliche Antwort bekommt oder bis sich endlich was ändert.
Eine Diskussion in einem Forum ändert nichts

Coda
2010-04-13, 17:09:36
Kannst doch eh vergessen. Nichtmal PCGH hat ein Wort zu A.I. on/off verloren in ihrem 5870-Artikel.

DrFreaK666
2010-04-13, 17:11:13
Dann hat auch diese Diskussion keinen Sinn mehr :frown:
Mal sollte sich vielleicht mal überlegen wie man es anstellen sollte.
Vielleicht mach Raff und co. die ganze Zeit mit Emails, pms nerven bis was passiert

Aquaschaf
2010-04-13, 17:11:56
Wenn A.I. off einen Bildqualitäts-Vorteil bringt, dann sollte man es auch mittesten. Egal was es sonst deaktiviert.

Hat sich ATI nicht diesen Problems "entledigt" indem A.I.-off schlicht keine Verbesserung der Filterqualität mehr bringt bei den HD5xxx?

DrFreaK666
2010-04-13, 17:12:35
Hat sich ATI nicht diesen Problems "entledigt" indem A.I.-off schlicht keine Verbesserung der Filterqualität mehr bringt bei den HD5xxx?

Das problem ist trotzdem noch vorhanden.

Kannst doch eh vergessen. Nichtmal PCGH hat ein Wort zu A.I. on/off verloren in ihrem 5870-Artikel.
Immerhin haben sie im 4780/480-Artikel gezeigt, dass das AF der Radeons minderwertig ist im Vergleich

Aquaschaf
2010-04-13, 17:32:27
Das problem ist trotzdem noch vorhanden.

Mir ist klar dass sich dadurch nichts an der Filterqualität geändert hat. Nur gibt es ja keinen Grund mit A.I.-off zu testen, wenn sich die Bildqualität dadurch nicht mehr verbessert.

derguru
2010-04-13, 17:52:11
eben aber das wollen bestimmte anhänger nicht verstehen,es sei denn es ändert sich unter off was,wenn nicht gibt es kein grund mit a.i. off gegen hq zu vergleichen.ich glaub cb hatte geschrieben das zwischen a.i.off und default sich nichts tut(5er).

DrFreaK666
2010-04-13, 18:42:24
Populäre Magazine sollten etwas Druck auf AMD ausüben.
Aber es sieht wohl eher so aus, als wären die Magazine von AMD abhängig und nicht andersherum

AYAlf_2
2010-04-13, 20:16:45
a.i. off aendert rein gar nix bei der grafik quali! warum sollte man dann so benchen?

Coda
2010-04-13, 20:32:47
a.i. off aendert rein gar nix bei der grafik quali! warum sollte man dann so benchen?
Das bleibt zu zeigen. Bei der HD-4000-Serie ändert es sehr wohl etwas.

Gast
2010-04-13, 21:12:13
Aus welchen Grund besteht dann der AI-off Schalter?
Nur um zu zeigen wie Nutzerfreundlich AMD ist oder was? Wenn ja, dann bitte ich das die Presse dies verkündet und AMD um Gnade fleht auch gefälligst andere Schalter zu entfernen, Treiberautomatik solls richten.

derguru
2010-04-13, 21:12:17
dazu müsste ich nur die spiele von hier mit der heutigen 5er karte vergleichen.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7371457&postcount=149

Gast
2010-04-13, 22:17:44
Ja, darüber schreiben dass der ATI-Filter immer noch schlimm genug ist und es nicht verharmlosen. Und schon gar nicht mit RGSSAA rechtfertigen, dass das ja dann nicht so schlimm ist.Das Argument könnte man aber ebensogut umdrehen:
ATIs werden mit AI On + 4xSSAA gegen NVs mit HQ-AF und 4xMSAA+TSAA gebencht, weil man anders nicht ähnliche Texturruhe erreicht X-D

Gast
2010-04-13, 23:00:45
Das Argument könnte man aber ebensogut umdrehen:
ATIs werden mit AI On + 4xSSAA gegen NVs mit HQ-AF und 4xMSAA+TSAA gebencht, weil man anders nicht ähnliche Texturruhe erreicht X-D
Dann würde SSAA wieder schneller aus dem Treiber entfernt werden, als man Flimmern sagen kann. Wir kennen ja aus der Vergangenheit, wie unkonventionell die kanadische Grafikkartenschmiede Probleme aus der Welt "schafft". ;D

Armaq
2010-04-13, 23:18:42
Ist halt eine Frage von Marktmacht. Warum sie es nicht tun? Weil davon 5% der Käufer etwas mitbekommen. Die meisten Besitzer waren nichtmal in dem ATI-Menü, sondern nehmen das von Windows.

Gast
2010-04-13, 23:26:37
Bei nVidia hats geklappt Presse sei dank.
Es gibt keinen Grund warum es bei AMD nicht klappen sollte, wenn die Presse sich mal bewegen würde nachdem sie seit 4 Jahren schläft.
Diese 5% hätten bei nVidia auch gegolten, trotzdem wurde es besser. Ich frag mich oft warum nVidia nicht wieder auf alten Pfaden wandelt, z.B. gerade mit GF100 hätte es sich imho gelohnt, wenn die Presse so vergesslich ist.

Gast
2010-04-14, 08:29:39
Bei nVidia hats geklappt Presse sei dank.
Es gibt keinen Grund warum es bei AMD nicht klappen sollte, wenn die Presse sich mal bewegen würde nachdem sie seit 4 Jahren schläft.
Diese 5% hätten bei nVidia auch gegolten, trotzdem wurde es besser. Ich frag mich oft warum nVidia nicht wieder auf alten Pfaden wandelt, z.B. gerade mit GF100 hätte es sich imho gelohnt, wenn die Presse so vergesslich ist.

ATI hat das AF bei der Umstellung von HD4x auf HD5x verbessert und auf ein durchaus ordentliches Level gebracht, eben wie Quality auf Nvidia.

Zum Topic, ich hätte gerne Benches der GTX4xx die zeigen wie stark der Performance Hit von Q -> HQ ist....

Angiesan
2010-04-14, 08:43:10
Um hier auch noch meinen Senf dazu zu geben,

Ai on und die so minderwertige Qualität des AF fällt mir genau wie be NV Standard nur in sehr, sehr wenigen Spielen auf und dann nicht durchgehend sondern eher in bestimmten Bereichen.
Ich habe wenn ich daran gedacht habe bei meiner alten GTX 260 das HQ AF eingestellt, habe aber oft genug den Unterschied nicht gemerkt wenn ich einen neuen Treiber installiert habe und es dardurch zurückgesetzt wurde auf standard Q.
Und ich denke das hat nichts mit meinen Augen zu tun denn mehr damit, dass die die hier jetzt schreien eher wenig spielen sondern mehr Bildqualitätsvergleiche durchführen:rolleyes:
Das soll natürlich nicht bedeuten, dass es nicht wünschenswert ist, dass man auf Wunsch die beste Qualität bekommt die man haben möchte NV macht es ja vor.:up::cool:
In sofern könnte ich mir vorstellen, dass man immer in Test schreibt nicht direkt vergleichbar, da minderwertiges AF, der Verbraucher kann doch dann selbst entscheiden ob es Ihm genügt und wenn ja eben zu einer NV greifen, das ist doch der beste Druck überhaupt, wenn keine Kunden kommen, muss auch Ati was ändern.Ich bin nicht unzufrieden mit dem gesehenen und kann damit leben, konnte aber auch sehr gut mit meiner NV leben.

Aber bei der ganzen Thematik scheint es auch noch andere Sachen bezüglich der IQ zu geben, die mir durch den Wechsel zu Ati am vergangenem Wochenende aufgefallen sind, z.B.stellt meine alte GTX und die neue HD5850 das Spiel CoD WaW sehr unterschiedlich da, bei NV ist es viel wie soll ich sagen, milchiger, als ob ein Schleier über dem Bild liegt, das fällt besonders bei sehr entfernten Details auf.Die Ati hat diesen "Schleier" nicht!?Da ich das Spiel immr noch im MP sehr gerne und oft spiele habe ich sogar die Ati noch mal rausgebaut und noch mal die GTX eingebaut um zu sehen ob mich die Augen hier täuschen und nein das ist offensichtlich und bietet schlicht einen Vorteil mit der Ati, da das Bild einfach detailierter ist in großen Entfernungen und man Gegner einfach früher oder besser bei der sehr tristen Farbgestaltung des Spieles erkennen kann.

Das ist jetzt aber super oT.sorry

Obwohl wäre ja auch mal eine Sache dies in einem Test zu prüfen abseits der normalen Filterdiskusionen, denn der Unterschied ist so heftig dass kann man nicht übersehen gerade wenn man eh mit 2 Systemen arbeitet oder die Karten wie bei mir direkt hintereinander in dem System hatte.

Grüße

Grestorn
2010-04-14, 08:45:55
Das klingt eher, als würde ein "Dunst"-Effekt bei der ATI fehlen...

Es wird wirklich mal Zeit, dass die Tester ausführlichste IQ Vergleiche fahren, offenbar gibt es deutlich mehr Unterschiede, als man allgemein annimmt...

Angiesan
2010-04-14, 08:53:53
Das klingt eher, als würde ein "Dunst"-Effekt bei der ATI fehlen...

Es wird wirklich mal Zeit, dass die Tester ausführlichste IQ Vergleiche fahren, offenbar gibt es deutlich mehr Unterschiede, als man allgemein annimmt...

Moin Grestorn,

ich bin leider zu wenig Fachmann um das zu beurteilen, der Nebel den es bei einigen Maps gibt sind auch bei der Ati da, aber das Bild ist einfachklarer mit der ATi, ja wenn man das als Dunst bezeichnen kann und will, der würde fehlen, dass unterschreibe ich.

puntarenas
2010-04-14, 09:13:28
Es wird wirklich mal Zeit, dass die Tester ausführlichste IQ Vergleiche fahren, offenbar gibt es deutlich mehr Unterschiede, als man allgemein annimmt...
Da hänge ich mich mal dran, auch wenn du das vermutlich nicht ganz so zugespitzt gemeint hast. =)

Frage: Fermi Benchmark Auswahl?
Antwort: Gar keine Benchmark(-vergleiche), schreibt einen interessanten Artikel
Frage: Welche Spiele als Grundlage für die Fermi-Nabelschau?
Antwort: Siehe Thread "Fermi Benchmark Auswahl?"

Benchmarks gibt es samt Quervergleich zu Radeons wie Sand am Meer, gut gemachte Benchmarks lassen sich sogar im deutschsprachigen Raum finden, beispielsweise bei PCGH (http://www.pcgameshardware.de/aid,744422/FAQ-So-bencht-PCGH-Spiele-How-to-Benches-inside/Spiele/Test/) (<- Ehre wem Ehre gebührt).

Also, viele Bilder pro Zeitintervall kann die Karte malen, das wissen wir ja schon. Malt sie auch schöne Bilder? Schöner als die Konkurrenz? In jeder Situation schöner, oder schielt man als GeForce-Nutzer in DirectX9-Titeln vielleicht doch mal sehnsüchtig zur Radeon mit OGSSAA?

Den legendären Performancereports trauere ich ebenfalls noch ein wenig hinterher, kein Mensch brauch feste Qualitätseinstellungen oder gar stumpfsinnige Vergleichbarkeit, interessant ist doch welches Qualitätsniveau man bei aktuellen Titeln erreichen kann und Qualität heißt eben jenseits von 4xAA und 16xAF automatisch auch Transparenz-AntiAliasing, womit wir die vermeintliche Vergleichbarkeit hinter uns lassen. Vergleichbar ist ja sowieso bestenfalls das MSAA, AF ja offensichtlich schon nicht mehr, auch dazu gern ein Quervergleich.

Einen Haken hat der Ansatz, den Arbeitsaufwand stelle ich mir geringfügig höher vor, als bei einem blöden Benchmarkparcours mit 4xAA/16xAF. ;(

Schlammsau
2010-04-14, 09:26:16
Moin Grestorn,

ich bin leider zu wenig Fachmann um das zu beurteilen, der Nebel den es bei einigen Maps gibt sind auch bei der Ati da, aber das Bild ist einfachklarer mit der ATi, ja wenn man das als Dunst bezeichnen kann und will, der würde fehlen, dass unterschreibe ich.

Du hast schon recht, hab das Game zwar nicht, aber mit AF wirken die Radeons schärfer als die GeForces. Dadurch auch die Neigung zum "flimmern".
Gab auf PCGH mal einen Crysis Bildvergleich zu dem Thema.....auch dort waren die Texturen die weiter entfernt waren "matschiger".

Grestorn
2010-04-14, 09:42:19
Die AF Unschärfe kann sich nur auf "schräge" also verzerrte Texturen beziehen, denn nur dort kommt das AF überhaupt zum Tragen. Ich habe Angiesan aber so verstanden, dass die Gebäude insgesamt unscharf werden, und deren Texturen sind - wenn man gerade auf die Geböäude blickt - nicht verzerrt. Die Konturen der Gebäude werden vom AF generell nicht erfasst (bestenfalls durch AA), und dürfen deswegen auch nicht schärfer oder unschärfer werden.

Ich glaube deswegen nicht, dass dies mit dem AF zu tun hat. Außerdem ist der Unterschied der AF-Schärfe mit dem blosen Auge ohnehin praktisch unsichtbar.

Ansiesan:

Kannst Du uns vielleicht vergleichende Screenshots erstellen? Das würde mich wirklich sehr interessieren!

y33H@
2010-04-14, 09:47:24
Nichtmal PCGH hat ein Wort zu A.I. on/off verloren in ihrem 5870-Artikel. Print schon ;)

puntarenas
2010-04-14, 09:50:18
Gewerbsmäßige Internetausdrucker. :tongue:

Gast
2010-04-14, 10:57:40
Die AF Unschärfe kann sich nur auf "schräge" also verzerrte Texturen beziehen, denn nur dort kommt das AF überhaupt zum Tragen. Ich habe Angiesan aber so verstanden, dass die Gebäude insgesamt unscharf werden, und deren Texturen sind - wenn man gerade auf die Geböäude blickt - nicht verzerrt. Die Konturen der Gebäude werden vom AF generell nicht erfasst (bestenfalls durch AA), und dürfen deswegen auch nicht schärfer oder unschärfer werden.

Ich glaube deswegen nicht, dass dies mit dem AF zu tun hat. Außerdem ist der Unterschied der AF-Schärfe mit dem blosen Auge ohnehin praktisch unsichtbar.

Ansiesan:

Kannst Du uns vielleicht vergleichende Screenshots erstellen? Das würde mich wirklich sehr interessieren!

Ich denke worauf sich Ansiesan bezieht hat nichts mit AF zu tun sondern mit dem Gamma orwhatever. Ich teile aber den Eindruck das die Grafik in Games auf ATI einfach detailierter wirkt (subjektiv!), da dieser "milchige Schleier" hier nicht so ausgeprägt ist, die Farben wirken in der Distanz einfach kräftiger und kontrastreicher. Ob das nun "richtiger" ist sei mal dahin gestellt, allerdings hat BQ auch etwas mit der Wahrnehmung zu tun.

dllfreak2001
2010-04-14, 11:21:49
Ich denke das ist ein subjektiver Eindruck. Wobei zumindest bei Standbildern in Crysis, im direkten Vergleich NVs AF matschig aussieht.

Ich hätte auch gern einen Benchmark von Stalker Shadow of Chernobyl mit Min- Max-Frames.

Auch ganz nett wäre NFS Prostreet und als Stresstest eine Session TDU.

TDU weil es bei NV-Karten an einigen Stellen Schwächen des Speicherausbaus aufdeckt, nehme ich an.

Testet mal UT3 ob es zu Rucklern auf DM-Deck in der nähe des Portals unten kommt.

Spasstiger
2010-04-14, 11:40:04
TDU weil es bei NV-Karten an einigen Stellen Schwächen des Speicherausbaus aufdeckt, nehme ich an.
Test Drive Unlimited? Das kommt selbst in 1920x1200 8xAA mit 512 MiB VRAM aus.

Gast
2010-04-14, 22:49:19
Du hast schon recht, hab das Game zwar nicht, aber mit AF wirken die Radeons schärfer als die GeForces. Dadurch auch die Neigung zum "flimmern".
Gab auf PCGH mal einen Crysis Bildvergleich zu dem Thema.....auch dort waren die Texturen die weiter entfernt waren "matschiger".
Bewegen wir uns wieder auf das Niveau, das wir die Sparmaßnahme noch loben?
Wenn das so ist, das kann ich auch: Mit SGSSAA wirds bei AMD wieder unschärfer, den das LOD wird nicht so verschoben wie man es könnte.

Aber mal davon abgesehen, das kann doch nicht dein Ernst sein immer wieder diese Schärfe-Unschärfe ins Spiel zu bringen.
Man kann es doch einfach mal auf sich beruhen lassen, AMD schumelt halt und? Dich störts doch angeblich nicht, da du angeblich nichtmal 16xSchumel AF brauchst brauchst du erst recht nicht mit solchen faulen Ausreden anrücken.
Andere stören sich an der Schumelei und das brauchst du ihnen nicht ausreden.

Gast
2010-04-14, 23:02:12
Bewegen wir uns wieder auf das Niveau, das wir die Sparmaßnahme noch loben?
Wenn das so ist, das kann ich auch: Mit SGSSAA wirds bei AMD wieder unschärfer, den das LOD wird nicht so verschoben wie man es könnte.

Aber mal davon abgesehen, das kann doch nicht dein Ernst sein immer wieder diese Schärfe-Unschärfe ins Spiel zu bringen.
Man kann es doch einfach mal auf sich beruhen lassen, AMD schumelt halt und? Dich störts doch angeblich nicht, da du angeblich nichtmal 16xSchumel AF brauchst brauchst du erst recht nicht mit solchen faulen Ausreden anrücken.
Andere stören sich an der Schumelei und das brauchst du ihnen nicht ausreden.


Gähn, langsam wirds langweilig.

Die ATI-HD5xxx TMU's filtern so gut wie sie können, ob mit oder ohne AI. Was daran als "Schumeln" bezeichnet werden kann weisst du doch selber nicht.
Imho ist Nvidia derzeit nicht soooo dolle aufgestellt, da werden hier gleich die Fan-Bots aktiv und und kauen Tag für Tag die gleiche Leier runter.

BTW-

Nivida schummelt, die liefern übertaktete Grafikkarten in Serie aus.

oder

Nvidia schummelt, es gibt kein Full Screen SuperSampling mehr.

oder

Nivida schummelt, es PhysX zehrt so sehr an der Leistung dass man es eh ausstellt, obwohl die neuen Karten da ganz doll schnell sein sollen.

Bla bla bla, merkste was?!

Gast
2010-04-14, 23:07:39
Schumeln heisst, das es AMD besser kann und dies mit R500 gezeigt hat.
Das Problem an der Sache ist, das man nichtmal dem Nutzer einen Schalter gibt, damit er sich überlegen will ob ihm AMDs Optimierungen gefallen und genauso schlimm, es gibt Leute wie dich und Schlammsau, die dies sogar positiv darstellen, Stichwort "Schärfe".
Für Schlammsau habe ich diese Schärfe mal weiter getragen, mal sehen wie er reagiert.

y33H@
2010-04-14, 23:13:46
Wenn ich Schärfe und flimmern will, verschiebe ich bewusst das LOD-Bias ins Negative. Ich lasse aber keine Samples und trilineares MIP-Filtering weg ...
Nvidia schummelt, es gibt kein Full Screen SuperSampling mehr.Natürlich gibt's das ;)

Gast
2010-04-15, 08:40:49
Schumeln heisst, das es AMD besser kann und dies mit R500 gezeigt hat.
Das Problem an der Sache ist, das man nichtmal dem Nutzer einen Schalter gibt, damit er sich überlegen will ob ihm AMDs Optimierungen gefallen und genauso schlimm, es gibt Leute wie dich und Schlammsau, die dies sogar positiv darstellen, Stichwort "Schärfe".
Für Schlammsau habe ich diese Schärfe mal weiter getragen, mal sehen wie er reagiert.

Ja, der Schalter der die 16 R520 TMUs aktiviert, die noch auf dem Die schlummern...

Ich glaube Du rennst hier deiner fixen Idee hinterher und hast Dich so darin verbissen, dass Du für Argumentation gar nicht mehr empfänglich bist.

Gast
2010-04-15, 08:52:01
Ja, der Schalter der die 16 R520 TMUs aktiviert, die noch auf dem Die schlummern...

Ich glaube Du rennst hier deiner fixen Idee hinterher und hast Dich so darin verbissen, dass Du für Argumentation gar nicht mehr empfänglich bist.

Du hast vollkommen vergessen , das egal zu welchen Thema hier diskutiert wird.
Lovesucks,Yeeh@ & co hier vorbeikommen und die Filterdiskussion wieder anfachen.

Normalerweise komm ich in dieses Forum um mir eine "sachliche" Meinung über die "aktuelle" Grafikkartengeneration zu bilden.
Aber dies ist hier nicht mehr möglich.



Hier gings es zB mal um Games und Programme zuim Benchmarken, aber das wurde ja wieder "perfekt" unterbunden.

Und gleich kommt wieder einer um die Ecke und hoilt das man XXX ja so schlecht behandelt.

Iruwen
2010-04-15, 09:46:49
Du hast vollkommen vergessen , das egal zu welchen Thema hier diskutiert wird.
Lovesucks,YeehSchlammsau,corvus (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7971410&postcount=4173)@ & co hier vorbeikommen und die FilterSGSSAA-diskussion wieder anfachen.

Bemüh mal die Beitragssuche nach SGSSAA, die meisten Treffer sind von Schlammi :rolleyes:

Gast
2010-04-15, 11:44:51
Bemüh mal die Beitragssuche nach SGSSAA, die meisten Treffer sind von Schlammi :rolleyes:

Genau das meinte Ich !

Quod erat demonstrandum - was zu beweisen war !

Und Immer schön weiterreiten ;-)

Angiesan
2010-04-15, 11:51:01
Die AF Unschärfe kann sich nur auf "schräge" also verzerrte Texturen beziehen, denn nur dort kommt das AF überhaupt zum Tragen. Ich habe Angiesan aber so verstanden, dass die Gebäude insgesamt unscharf werden, und deren Texturen sind - wenn man gerade auf die Geböäude blickt - nicht verzerrt. Die Konturen der Gebäude werden vom AF generell nicht erfasst (bestenfalls durch AA), und dürfen deswegen auch nicht schärfer oder unschärfer werden.

Ich glaube deswegen nicht, dass dies mit dem AF zu tun hat. Außerdem ist der Unterschied der AF-Schärfe mit dem blosen Auge ohnehin praktisch unsichtbar.

Ansiesan:

Kannst Du uns vielleicht vergleichende Screenshots erstellen? Das würde mich wirklich sehr interessieren!

Hi, Grestorn,

kann ich sicherlich machen aber wohl erst zum Wochenende 24-25 April, da ich mit meiner Familie mal wieder umziehen darf, es geht wieder 600KM Richtung Süden, mein Job macht mich noch wahnsinnig :freak:
Und an diesem Wochenende bin ich bei unseren Nachbarn in Holland.

Aber wenn mein Büro eingerichtet ist werde ich gerne die ATi noch mal rausziehen und die NV einstecken für diesen Test.

Und nein, ich glaube auch, dass es nichts mit AF zu tun hat, denn das ganze Bild wird einfach klarer dargestellt und nicht nur Boden oder Wandtexturen. Es ist im übrigen auch nur bei CoD WaW so, und nur bei weit entfernten Objekten oder Spielern. Bei BC2 habe ich zumindest mal nicht direkt so einen Unterschied festgestellt, aber was mir auch noch aufgefallen ist, bei RE 5 ist der Überstrahleffekt der ATi total überzogen, da bleibt zum Teil von der Bodentextur im Startlevel nur noch ein heller Masse übrig;(
Ich kann aber eins mal probieren, habe noch ein NB mit GT240 hier und dort auch CoD WaW installiert, der TFT des NB hat jedoch nur eine natürliche Auflösung von 1366x768 und mein Samsung hat 1920x1200 wenn ich den aber runterstelle auf die Auflösung des NB müsste der Unterschied auch zu sehen sein, werde ich wenn ich dazu komme heute noch ausprobieren.

Wenn ich das simulieren kann, werde ich hierzu gerne einen eigenen Thread aufmachen um diesen hier nicht noch weiter zu OT´en

Grüße

dllfreak2001
2010-04-15, 15:40:46
Test Drive Unlimited? Das kommt selbst in 1920x1200 8xAA mit 512 MiB VRAM aus.

Ja dann weiß ich auch nicht weiter.