PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : SLI vs. Crossfire


Seiten : [1] 2 3

Schlammsau
2008-11-08, 16:12:29
Angeregt durch diesen Artikel (http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_spielen_intel_core_i7_nehalem/), war ich so frei und eröffne hier diesen Thread!


In den wichtigen games sind es bis zu 30%, meistens ca 20% mehr für 2x Nvidia Gpu.
Abgesehen davon hat Profilkontrolle auch einen (sehr hohen) Wert, den ich zb gerne mitbezahle ;)

Jetzt aber wirklich b2t. (man könnte es ja auch auslagern)


Wer entscheidet, welche Games am wichtigsten sind?
Wie auch immer, fast das doppelte für durchschnittlich 20% mehr Fps und ein bisschen Profilkontrolle zu zahlen, ist auch nicht das gelbe vom Ei!
Und wie ich gerade sehe, geht ein GTX280 Gespann auch nicht gerade zimperlich mit dem Stromverbrauch um. Es gönnt sich unter Last mal schnell 90 Watt mehr. nicht wenig, würd ich sagen!

http://www.abload.de/img/unbenannt8uag.png

dildo4u
2008-11-08, 16:17:28
Der Vergleich bringt es im Bezug auf den Preis und den Stormverbrauch nicht wirklich.Wenn dann bitte GTX 260 sli vs X2 4870.Es ist normal das richtiges High-End wie die GTX 280 expotenziell mher Strom braucht dafür aber auch mher leistet(Als einzelner Chip gesehen).Es ist aber nicht so das NV kein direkten Gegener für die x2 4870 hat ebend zwei GTX 260.

Schlammsau
2008-11-08, 16:21:17
Es geht nicht nur um den Stromverbrauch. Es geht um die gebotene Leistung und den Stromverbrauch! 2 GTX280 verbrauchen unter Last 90 Watt mehr, als 2 4870 und hat dabei "nur" 20% mehr Leistung!
Noch dazu sind es "nur" 20% mehr Leistung, aber um die 90% mehr Preis.

y33H@
2008-11-08, 16:29:21
Nimmst du nicht UT3 zum Strom messen, sondern den Furmark, schlucken die Radeons wie blöde ... ist also nicht absolut.

cYa

Schlammsau
2008-11-08, 16:32:41
Nimmst du nicht UT3 zum Strom messen, sondern den Furmark, schlucken die Radeons wie blöde ... ist also nicht absolut.

cYa

.....und die GTX280 nicht? :|

Schlammsau
2008-11-08, 16:37:44
Profilkontrolle ist extrem wichtig, da man auch bei schlechten Profilen immer die Möglichkeit hat nachzubessern, denn ohne Profile geht nunmal nix. Und es gibt ja noch andere wichtige Dinge die hier den Ausschlag geben (z.b. bessere Kompatibilität in Games und damit mit weniger Stress verbunden , Hybriden/Supersampling um MultiGPU auch wirklich auszulasten um nur einige Beispiele zu nennen.)

Der einzige Stress den man hat, ist wenn bei einem neuen Game CF nicht funkt, hier ins Forum zu gehen, um zu erfahren in welche Datei man seine Game.exe unzubenennen hat. Ganz schön viel
Stress, ich weiss! :rolleyes:

Dann hörts aber auch schon auf...und oft gehts nichtmal , weil man keinerlei Eingriffsmöglichkeit (Profil ;) ) hat.

Ja, und wo geht kein ED? Bei mir immer, sogar in Crysis. Nur ist es unspielbar damit!

Blaire
2008-11-08, 16:43:49
Der einzige Stress den man hat, ist wenn bei einem neuen Game CF nicht funkt, hier ins Forum zu gehen, um zu erfahren in welche Datei man seine Game.exe unzubenennen hat. Ganz schön viel stress......

Um dann später im Game festzustellen daß es Grafikfehler oder Slowdowns gibt die mit einer Karte nicht auftreten? Und nicht jedes Game erlaubt EXE Renaming.
Profilbearbeitung ist das Mindeste, was man als MultiGPU User erwarten darf!

Ja, und wo geht kein ED? Bei mir immer, sogar in Crysis. Nur ist es unspielbar damit!

z.b. Dort wo spezielle AA Bits greifen (Profil ;)) , ähnlich wie damals SuperAA ging nur mit EXE Renaming oder AI off und oft mehr schlecht als recht.

Gast
2008-11-08, 17:18:44
.....und die GTX280 nicht? :|
Nein.

Sofern es ein Furmark CF Profil gäbe und sofern AMD nicht die Leistung auf 50% drosseln würde, würde das X2 CF sehr böse schlucken.

Gast
2008-11-08, 17:23:09
Auch interessant ist die Skalierung.
CF mit mehr als 2 GPUs ist völliger Quatsch, ja selbst wenn man Lag und Mikroruckler und Profile und AI Zwang und und und mal außer Acht lässt:
http://www.abload.de/img/clipboard02qunr.jpg


Was ist den das?
Scheinbar wird ein CF mit mehr als 2 GPUs zu selten gebencht, so das AMD keinen Bedarf sieht, hier an der Balkenlänge schrauben zu müssen.

Black-Scorpion
2008-11-08, 17:31:24
Nimmst du nicht UT3 zum Strom messen, sondern den Furmark, schlucken die Radeons wie blöde ... ist also nicht absolut.

cYa
Und der sch*** Furmark hat genau was mit arbeiten und spielen zu tun?

Banshee18
2008-11-08, 17:33:49
Und ich dachte, das Thema sei ausgelutscht.

Rein auf CF vs. SLI bezogen, gibt es eigentlich nur zwei nennenswerte Unterschiede. Bei ATi fehlt die Profilverwaltung, dafür gibt es CF auf einer Karte. Stromverbrauch und Preis dürften für Highenduser nebensächlich sein.

Der Großteil der relevanten Unterschiede ist bei den Einzelkarten zu suchen.
Ich bitte euch vorsichtshalber schonmal, sachlich zu bleiben und den Thread nicht zu einem unsachlichen ATi vs. nV-Fanboythread werden zu lassen. Bringt Argumente und seid freundlich, sonst ist dieser Thread schnell dicht.

Gast
2008-11-08, 17:38:37
dafür gibt es CF auf einer Karte.
Gibts bei Nvidia auch.
Genauso wie es CF auf Einzelkarten gibt.

Schlammsau
2008-11-08, 17:49:14
Gibts bei Nvidia auch.
Genauso wie es CF auf Einzelkarten gibt.

Wenn man es genau nimmt eigentlich nicht! Diese ganzen GX2 Karten von nVidia, sind immer 2 Boards zu einem verbunden.

Banshee18
2008-11-08, 17:49:18
Gibts bei Nvidia auch.
Wen interessiert heute noch eine 7950GX2? Ich habs von aktuellen Chips.
Genauso wie es CF auf Einzelkarten gibt.
Die X2 hat aber den Vorteil, dass ich mir nicht extra ein CF-fähiges Board zulegen muss. Wenn ich eine aktuelle Multi-GPU-Lösung von nV möchte, brauche ich sehr wohl ein neues Board.
Wenn man es genau nimmt eigentlich nicht! Diese ganzen GX2 Karten von nVidia, sind immer 2 Boards zu einem verbunden.
Letztenendes spielt doch nur das weiter oben Geschriebene eine Rolle.

Schlammsau
2008-11-08, 17:54:56
Wen interessiert heute noch eine 7950GX2? Ich habs von aktuellen Chips.

Die X2 hat aber den Vorteil, dass ich mir nicht extra ein CF-fähiges Board zulegen muss. Wenn ich eine aktuelle Multi-GPU-Lösung von nV möchte, brauche ich sehr wohl ein neues Board.

Letztenendes spielt doch nur das weiter oben Geschriebene eine Rolle.

Das versteh ich jetzt nicht ganz. Braucht man für eine 9800GX2 ein SLi Board?

Banshee18
2008-11-08, 18:03:06
Das versteh ich jetzt nicht ganz. Braucht man für eine 9800GX2 ein SLi Board?
Nein. Ich beziehe mich ausschließlich auf die aktuellsten GPUs. Selbst die 9800GX2 ist imho heutzutage eigentlich nicht kaufenswert, eine GTX280 ist ungefähr ähnlich schnell, ohne die Nachteile mehrerer GPUs zu haben. Multi-GPU ist imho nur bei den schnellsten Chips sinnvoll.

Schlammsau
2008-11-08, 18:04:12
Nein. Ich beziehe mich ausschließlich auf die aktuellsten GPUs. Selbst die 9800GX2 ist imho heutzutage eigentlich nicht kaufenswert, eine GTX280 ist ungefähr ähnlich schnell, ohne die Nachteile mehrerer GPUs zu haben. Multi-GPU ist imho nur bei den schnellsten Chips sinnvoll.

Aso.........

Gast
2008-11-08, 18:17:11
Wenn man es genau nimmt eigentlich nicht! Diese ganzen GX2 Karten von nVidia, sind immer 2 Boards zu einem verbunden.
Ja und, ist trotzdem eine Karte. Wieviele PCBs es sind siehst du von außen gar nicht.
Dann kannst du die X2 Dinger als als 2 Karten bezeichnen, belegen ja auch 2 Slots....

Für mich macht den Unterschied obs eine 2 Karten sind: Fest verbunden, kannst es auch 30m aus dem Fenster werfen und es hält. Ein PCIe Slot wird benötigt.

Selbst die 9800GX2 ist imho heutzutage eigentlich nicht kaufenswert, eine GTX280 ist ungefähr ähnlich schnell, ohne die Nachteile mehrerer GPUs zu haben.
Dasselbe kann man auch auf 4850 X2 vs GTX 280 übertragen.


Wen interessiert heute noch eine 7950GX2? Ich habs von aktuellen Chips.Es gibt noch die 9800 GX2.
Die ist nur 5 Monate älter als die 4870 X2. Die 4870 X2 ist jetzt schon im 3 Monat.

Schlammsau
2008-11-08, 18:25:23
Ja und, ist trotzdem eine Karte. Wieviele PCBs es sind siehst du von außen gar nicht.
Dann kannst du die X2 Dinger als als 2 Karten bezeichnen, belegen ja auch 2 Slots....
Ich sagte ja auch genau genommen! ;)

Für mich macht den Unterschied obs eine 2 Karten sind: Fest verbunden, kannst es auch 30m aus dem Fenster werfen und es hält. Ein PCIe Slot wird benötigt.
Schon probiert? ;D


Dasselbe kann man auch auf 4850 X2 vs GTX 280 übertragen.
Welche ATi Karte, ausser der 4870 X2, ist schneller als die 4850 X2?
Bei der 9800GX2 ist die GTX260 bedingt (mit AA und in hohen Auflösungen), und die GTX280 immer schneller.

Es gibt noch die 9800 GX2.

Aber nicht mehr lange.......

Gast
2008-11-08, 18:27:55
Welche ATi Karte, ausser der 4870 X2, ist schneller als die 4850 X2?

Achso, es geht um AMD.
Na dann die 4870 1GiB.

Aber nicht mehr lange.......
Wie meinen?
Wird die X2 jünger oder hä?

Schlammsau
2008-11-08, 18:30:07
Achso, es geht um AMD.
Na dann die 4870 1GiB.
:|

Gast
2008-11-08, 18:33:39
:|
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6889753&postcount=27

Manchmal bringt sogar die 9800 GTX mehr minFPS. ;)

Gast
2008-11-08, 19:05:37
Bei ATi gibts übrigens auch CFAA Modi like 24x Edge Detect!

hm, was hat CFAA (aka Weichzeichner) mit SSAA zu tun?

Gast
2008-11-08, 19:37:28
generell bin ich nicht unbedingt ein freund von multi-gpu-lösungen, lehne sie aber auch nicht wirklich ab, ist gibt im highend-bereich investitionen mit wesentlich schlechterem preis-leistungsverhältnis.

aber wenn schon multi-gpu unbedingt SLI, CF disqualifiziert sich selbst aus diversen gründen.

die fehlende profilverwaltung ist mal der wichtigste grund, und nein renaming diverser .exe-dateien ist keine alternative.

als nächstes darf ich mit CF nichtmal die von ATI maximal zugestandene texturqualität verwenden ohne die CF-fähigkeit zu verlieren, das selbst diese im vergleich zur konkurrenz abstinkt ist ja schon fast nebensächlich.


zwar kein direkter disqualifikationsgrund, aber vielleicht für manche auch noch ganz interessant, dass CF unter WinXP oft deutlich schlechter skaliert, unter Vista ist es ja OK, so lange es ein profil gibt.

Mr.Magic
2008-11-08, 19:39:19
Wer entscheidet, welche Games am wichtigsten sind?
Wie auch immer, fast das doppelte für durchschnittlich 20% mehr Fps und ein bisschen Profilkontrolle zu zahlen, ist auch nicht das gelbe vom Ei!
Und wie ich gerade sehe, geht ein GTX280 Gespann auch nicht gerade zimperlich mit dem Stromverbrauch um. Es gönnt sich unter Last mal schnell 90 Watt mehr. nicht wenig, würd ich sagen!

Statt die GTX gegen die Radeon zu testen einfach mal Supersampling aktivieren. Nach meiner Erfahrung beträgt der Unterschied zwischen Single- und Dual-Betrieb mindestens 80%. Man muss nur das Potential ausschöpfen, und wer kein superduper AA benötigt braucht auch kein Multi-GPU*.

*Außer bei Crysis, aber das hat man eh in einem Nachmittag durch.

Raff
2008-11-08, 20:22:32
hm, was hat CFAA (aka Weichzeichner) mit SSAA zu tun?

Einfach: Vergleich mal die Kantenglättung von 24x Bitch-Detect mit 32xS. Was sieht besser aus? Übrigens blurrt ED-CFAA nicht. Es werden im Grunde nur die acht vorhandenen MSAA-Samples aufgeweicht, sodass ein fast fließender Übergang entsteht – und das ist gut so.

MfG,
Raff

Schlammsau
2008-11-08, 21:34:17
hm, was hat CFAA (aka Weichzeichner) mit SSAA zu tun?

Unyu? ;D
Viele behaupten fälschlicherweise, dass die ATi AA Modi Weichzeichner wären.
Verstehe nicht, wie dieses Gerücht zustande gekommen ist. 24x Edge Detect, sieht einfach genial aus, auch wenn es überproportional viel Leistung kostet.

Gast
2008-11-08, 21:45:06
Angeregt durch diesen Artikel (http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_spielen_intel_core_i7_nehalem/), war ich so frei und eröffne hier diesen Thread!





Wer entscheidet, welche Games am wichtigsten sind?
Wie auch immer, fast das doppelte für durchschnittlich 20% mehr Fps und ein bisschen Profilkontrolle zu zahlen, ist auch nicht das gelbe vom Ei!
Und wie ich gerade sehe, geht ein GTX280 Gespann auch nicht gerade zimperlich mit dem Stromverbrauch um. Es gönnt sich unter Last mal schnell 90 Watt mehr. nicht wenig, würd ich sagen!

http://www.abload.de/img/unbenannt8uag.png

Der Stromverbrauch unter Last wird bei Crysis gemessen, nur Skaliert dort CFX so gut wie gar nicht, deswegen sind die Messungen nicht gerade Vergleichbar.

Raff
2008-11-08, 21:45:11
Verstehe nicht, wie dieses Gerücht zustande gekommen ist.

Einfach: Durch die Tent-Modi. Gäbe es die nicht, sondern nur das (später eingeführte) 24x ED, wäre der Ruf ein anderer. Ati hat's diesbezüglich verschissen. ;)

MfG,
Raff

Gast
2008-11-08, 21:48:06
hm, was hat CFAA (aka Weichzeichner) mit SSAA zu tun?Die tatsächlich weichzeichnenden Modi eng- und breitzeltigerdings wirken wie auch SSAA gegen die Aliasinggeschmackrichtungen, gegen die normales Boxfilter-MSAA geradezu kontraproduktiv wirkt, weil es sie der flimmernden Umgebung beraubt, in der sie ganz ohne AA untergehen.

Was fälschlicherweise immer wieder behauptet wird ist die gänzlich falsche Aussage, schärfer sei immer besser.
Manche sind halt mental immer noch im Zeitalter des Pointsamplings gefangen :ulol:

Gast
2008-11-08, 21:50:24
Viele behaupten fälschlicherweise, dass die ATi AA Modi Weichzeichner wären.

es ist ein reiner weichzeichner, bei ED wird er lediglich selektiv auf die polygonkanten angewandt, wodurch er der einzig brauchbare CFAA-modus ist.

es werden übrigens alle polygonkanten weichgezeichnet, nicht nur die außenkanten, wo der effekt wünschenswert ist, sondern auch polygonkanten innerhalb eines objektes, wo die weichzeichnung desktruktiv ist.

Schlammsau
2008-11-08, 21:50:27
Der Stromverbrauch unter Last wird bei Crysis gemessen, nur Skaliert dort CFX so gut wie gar nicht, deswegen sind die Messungen nicht gerade Vergleichbar.

:eek::| ein CF aus 2 Karten skaliert sehr wohl gut! Deswegen hab auch nur das normale CF umrandet! ;)

Gast
2008-11-08, 21:53:28
In diesem Fall gerät CrossFire X trotz der immensen Frameraten wortwörtlich gerne ins Stocken, während 3-Way-SLI munter rendert. 3-Way-SLI konnte uns diesbezüglich beeindrucken, da nun selbst Crysis in hohen Qualitätseinstellungen flüssig spielbar ist.


Wie so hat CF eigentlich immer so extrem Tiefe min. FPS? Meistens sogar unter einer GTX 280, das macht die Multi GPU Technology von ATI ja zum Witz, hohe AVG FPS die aber kein flüssiges Spielen erlauben.

Vieleicht müsste man bei solche Test auch um denken und zusätlich die min. FPS Angeben.

Gast
2008-11-08, 21:59:37
Stichwort: Fehlende Profile, man muss das nehmen was Ati einem vorgibt. Nvidia hat diesbezüglich klare Vorteile da arbeitet man an SLI Profilen nicht erst dann, wenn ein Game erschíenen ist, sondern schon Monate zuvor.

Gast
2008-11-08, 22:02:03
Das kann aber kaum an den Profilen liegen wenn man "immensen Frameraten" hat, den dazu muss ja ein Profil vorhanden sein.

Blaire
2008-11-08, 22:07:24
Das kann aber kaum an den Profilen liegen wenn man "immensen Frameraten" hat, den dazu muss ja ein Profil vorhanden sein.

Vorhanden ja, aber nicht gut genug optimiert. ;) Der Gast war ich, war nicht eingeloggt. http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6900133&postcount=34

Gast
2008-11-08, 22:21:09
Wie so hat CF eigentlich immer so extrem Tiefe min. FPS? Meistens sogar unter einer GTX 280, das macht die Multi GPU Technology von ATI ja zum Witz, hohe AVG FPS die aber kein flüssiges Spielen erlauben.

weil die Min-FPS von der größten zeitspanne zwischen 2 frames abhängen und diese bekanntermaßen mit multi-gpu größer sind.


Vieleicht müsste man bei solche Test auch um denken und zusätlich die min. FPS Angeben.

die aussagekraft der Min-fps geht gegen 0, nur weil 1 frame mal länger braucht hat das noch keinen großen einfluss auf die spielbarkeit.

Schlammsau
2008-11-08, 22:23:14
....und leider sind die min FPS meistens auch CPU abhängig! Und das ein MGPU Gespann ein wenig mehr CPU Power benötigt, sollte jedem hier klar sein!

Frank1974
2008-11-08, 22:34:37
Einfach: Durch die Tent-Modi. Gäbe es die nicht, sondern nur das (später eingeführte) 24x ED, wäre der Ruf ein anderer. Ati hat's diesbezüglich verschissen. ;)

MfG,
Raff

Was hat man von so einem tollen AA Modus wenn man sich mit dem blöden AI und dem schlechten AF abgeben muss, wenn ATI die Qualität bei den anderen Sachen so hoch hätte wie bei 24x ED, könnte ich mir auch vorstellen nach meiner 1900XT mal wieder eine ATI zu kaufen.
Da kann ich ATI wirklich nicht verstehen, wenn Qualität dann auch überall.

mfg
Frank

Blaire
2008-11-08, 22:39:59
....und leider sind die min FPS meistens auch CPU abhängig! Und das ein MGPU Gespann ein wenig mehr CPU Power benötigt, sollte jedem hier klar sein!

Das schon.
Aber nicht dort wo SLI skaliert und Crossfire nicht, dann liegts ganz sicher am Profil. Und CPU Limitiertes Zeugs sollte man auch nicht mit MultiGPU Systemen testen, dafür sind die Dinger nicht da.

Gast
2008-11-08, 23:21:38
Was hat man von so einem tollen AA Modus wenn man sich mit dem blöden AI und dem schlechten AF abgeben muss, wenn ATI die Qualität bei den anderen Sachen so hoch hätte wie bei 24x ED, könnte ich mir auch vorstellen nach meiner 1900XT mal wieder eine ATI zu kaufen.
Da kann ich ATI wirklich nicht verstehen, wenn Qualität dann auch überall.

mfg
Frank
Kann ich auch nicht verstehen. Finde, dass Kanten schon mit 4xAA ( am besten mit TSAA) sehr gut geglättet werden. Beim konzentrierten Spielen fallen dann diese geringen verblieben "Zacken" so gut wie nicht auf. Aber was gar nicht geht, ist wenn man ne AF-Welle vor sich hinschiebt oder es flimmert und dies auf Unterfilterung zurückzuführen ist, sprich durch anständige Filterung behebbar. Versautes AF fällt mir sofort ins Auge, ist störend und behindert mich bei der "Immersion". Da kann ich auch nicht gezielt drüberweggucken. Allerdings bei Spielen mit Matschtexturen bzw. verschwommener Optik, die vor allem bei Konsolenports zu finden ist, fällt es oft weniger auf bzw. ist nicht vorhanden. Beim neulichem Spielen von CoJ ist es mir wieder störend aufgefallen. Habe meine HD4850 verscherbelt und mir eine 9600 GT geholt. Gute Performance, gute AF und auch relativ wenig Stromverbrauch. Amd soll sich endlich mal auf den Hosenboden setzen und einen Schalter für diese AF-Optimierungsscheiße einbauen, es suckt einfach nur noch.

Banshee18
2008-11-09, 02:35:50
ATi müsste ihre gesamte Treiberpolitik überdenken. Warum muss man immernoch bei einigen Spielen die exe umbenennen, damit man AA bekommt? Warum geht bei einigen Spielen immernoch kein AA, obwohl es eigentlich technisch machbar wäre? Warum kann ich mir nicht aussuchen, was für AAA ich haben möchte? Bei nV kann ich alles ganz bequem und ohne andere Nachteile per nHancer einstellen.

ATi hat momentan ohne Frage sehr gute Chips, die Treiber versauen aber alles. :( Was nützt mir da das schnellste Crossfire-Gespann, wenn ich mit so vielen Nachteilen leben muss?

derguru
2008-11-09, 02:53:52
ATi müsste ihre gesamte Treiberpolitik überdenken. Warum muss man immernoch bei einigen Spielen die exe umbenennen, damit man AA bekommt? Warum geht bei einigen Spielen immernoch kein AA, obwohl es eigentlich technisch machbar wäre? Warum kann ich mir nicht aussuchen, was für AAA ich haben möchte? Bei nV kann ich alles ganz bequem und ohne andere Nachteile per nHancer einstellen.

ATi hat momentan ohne Frage sehr gute Chips, die Treiber versauen aber alles. :( Was nützt mir da das schnellste Crossfire-Gespann, wenn ich mit so vielen Nachteilen leben muss?

weil die spiele von sich aus nicht aa unterstützen da ich mal annehme das du spiele unter der ut3 engine meinst,das sollte normalerweise das problem von den spieleentwicklern sein und nicht vom grafikkartenhersteller.das supersampling und af ohne optimierung nicht einschaltbar ist finde ich auch mist das ist schon richtig aber ohne nhancer sieht es aber bei nv nicht anders aus als bei ati abgesehen vom af.
was man halt zugeben muss das nv spiele viel besser spiele supporten siehe nv logos bei games,das hat sicherlich mit dem budget zutun.das fällt alleine schon auf bevor spiele raus kommen das z.b. wirklich immer die testrechner nv karten beinhalten was meiner meinung nach schon einen kleinen einblick auf die pioritäten gewährt.
dann kommt noch dazu das ati irgendwie ein hauweg hat und meiner meinung spieleentwickler supporten wie blizzard wo man gleich fragt warum,wieso gerade die.

Gast
2008-11-09, 03:06:11
Nimmst du nicht UT3 zum Strom messen, sondern den Furmark, schlucken die Radeons wie blöde ... ist also nicht absolut.

cYa

Schonmal auf die Frames geschaut im Furnurks?

Banshee18
2008-11-09, 03:13:46
weil die spiele von sich aus nicht aa unterstützen da ich mal annehme das du spiele unter der ut3 engine meinst,das sollte normalerweise das problem von den spieleentwicklern sein und nicht vom grafikkartenhersteller.
Ich wusste, dass das kommt. :biggrin:
Es interessiert mich aber nicht. Ich will AA, und das bekomme ich nur bei nV. Alles andere ist für mich als Verbraucher irrelevant.
Und was ist mit Stalker? Oder Pro Evolution Soccer, wo afaik auch kein AA geht (ging?) ohne exe-Renaming?
das supersampling und af ohne optimierung nicht einschaltbar ist finde ich auch mist das ist schon richtig aber ohne nhancer sieht es aber bei nv nicht anders aus als bei ati abgesehen vom af.
Wenn es irgendwie möglich wäre, gäbe es ein vergleichbares Tool auch schon für die ATis. Es ist aber nicht möglich. ATi hat anscheinend was dagegen.

Gast
2008-11-09, 03:21:02
Ich wusste, dass das kommt. :biggrin:
Es interessiert mich aber nicht. Ich will AA, und das bekomme ich nur bei nV. Alles andere ist für mich als Verbraucher irrelevant.
Und was ist mit Stalker? Oder Pro Evolution Soccer, wo afaik auch kein AA geht (ging?) ohne exe-Renaming?



Und was ist mit PURE bei NV :rolleyes:

derguru
2008-11-09, 03:30:39
Ich wusste, dass das kommt. :biggrin:
Es interessiert mich aber nicht. Ich will AA, und das bekomme ich nur bei nV. Alles andere ist für mich als Verbraucher irrelevant.
Und was ist mit Stalker? Oder Pro Evolution Soccer, wo afaik auch kein AA geht (ging?) ohne exe-Renaming?

Wenn es irgendwie möglich wäre, gäbe es ein vergleichbares Tool auch schon für die ATis. Es ist aber nicht möglich. ATi hat anscheinend was dagegen.

genau das ist der punkt es interessiert auch ati nicht ob du aa haben willst.ati legt nullwert auf die vereinzelten "freaks" und wie man sieht fahren die damit gut siehe geizhalscharts.
aa bei stalker ging eine sehr lange zeit auch nicht mit nv karten und den grund kann man sich ja auch denken wer will schon bei einstelligem fpsbereich ein shooter zocken.über pro evo hab ich kein peil sowas zocke ich eh lieber auf konsole aber ich nimm an da gibts in game keine aa aktivierung also hätte sich das für mich erledigt,sollen die spiele entwickler ihre hausaufgaben machen dann passiert sowas halt nicht.gleich wird noch bestimmt gothic3 ausgepackt die superdupa grafikengine.
wie gesagt kritik bei af und supersampling angebracht aber das wars dann aber auch schon.wenn z.b. ein spiel in game aa unterstützt und mal angenommen bei ati kein aa funktioniert dann würde ich das meckern verstehen aber das ist nicht der fall soweit ich weiß.(stalker ist die ausnahme)

Banshee18
2008-11-09, 03:48:16
Und was ist mit PURE bei NV :rolleyes:
Kenne ich nicht und wusste deshalb nichts davon.
genau das ist der punkt es interessiert auch ati nicht ob du aa haben willst.ati legt nullwert auf die vereinzelten "freaks" und wie man sieht fahren die damit gut siehe geizhalscharts.
Ist AA nur was für Freaks? Viele Spiele haben sogar eine Ingame-Option. :wink: Du bist hier außerdem in einem Freakforum.
über pro evo hab ich kein peil sowas zocke ich eh lieber auf konsole aber ich nimm an da gibts in game keine aa aktivierung also hätte sich das für mich erledigt,sollen die spiele entwickler ihre hausaufgaben machen dann passiert sowas halt nicht.
Lange Zeit gab es in Spielen keine Option für AA, da war es die Aufgabe von nV oder ATi. Und das hat sich jetzt geändert? Betrachte es doch als Schmankerl, dass einige Spiele AA in den Optionen anbieten.
Über das Thema kann man sicherlich streiten, letztendlich ist es mir aber egal, wer dafür verantwortlich ist, dass ich AA nutzen kann, hauptsache ich kanns. :biggrin:

derguru
2008-11-09, 04:00:44
Kenne ich nicht und wusste deshalb nichts davon.

Ist AA nur was für Freaks? Viele Spiele haben sogar eine Ingame-Option. :wink: Du bist hier außerdem in einem Freakforum.


ich meinte ja nicht grundsätzlich aa sondern wo es die spiele offiziell nicht unterstützen.ich weiß schon wo ich bin keine sorge;)

duck und weg bevor gleich noch die gäste aus dem schlaf gerissen werden:tongue:

Schlammsau
2008-11-09, 09:14:10
Das CF nVidias Sli immernoch ein wenig hinterher hinkt ist mir klar. Vor allem bei der Unterstützung von neuen Games.
Aber es hat auch Vorteile gegenüber Sli!

+ mehrere verschiedene Karten kombinierbar. (z.B. 4870 + 4850 = durchaus sehr positiv)
+ maximal 4 Karten werden unterstützt. (bei nVidia nur 2, und in Ausnahmefällen auch 3 Karten)
+ funzt auf Intel Boards.

Sind alles Pluspunkte, die man Crossfire nicht absprechen kann.

tombman
2008-11-09, 09:41:40
Das CF nVidias Sli immernoch ein wenig hinterher hinkt ist mir klar. Vor allem bei der Unterstützung von neuen Games.
Aber es hat auch Vorteile gegenüber Sli!

+ mehrere verschiedene Karten kombinierbar. (ist sehr positiv)
+ maximal 4 Karten werden unterstützt.
+ funzt auf Intel Boards.
3x X2 im CF geht aber immer noch ned, DAS wär doch mal interessant ;)

Auf X58 rennt auch SLI :tongue:

Schlammsau
2008-11-09, 09:47:35
Auf X58 rennt auch SLI :tongue:

stimmt, aber wo wir wieder beim Thema Bezahlbarkeit währen. Noch darf man ~250€ für ein solches Board berappen.

Crossfire ist mit allem drum und dran, einfach billiger!

tombman
2008-11-09, 10:04:29
Crossfire ist mit allem drum und dran, einfach billiger!
Du weißt gar ned wie recht du hast ;D;D

Gast
2008-11-09, 10:04:44
3x X2 im CF geht aber immer noch ned, DAS wär doch mal interessant ;)
6 Frames Lag?

Ne, muss nicht sein, besonders bei der Skalierung die 3 AMD GPUs zeigen.

Die Poer von gut skalierenden 3 Nvidia GPUs kann man vergleichsweise immer nutzen, selbst bei D3D9.

stimmt, aber wo wir wieder beim Thema Bezahlbarkeit währen.
Werd nicht lächerlich, 4870 im CF sind auch nicht billig.


Ist AA nur was für Freaks?
Scheint so.
Die Masse will FPS. Ups, wenn AA geht dann natürlich 8x, damit NV mies dasteht.
Obs bei Gothic 3 oder Bioshock AA gibt ist dann wieder unwichtig.

Schlammsau
2008-11-09, 10:07:47
Du weißt gar ned wie recht du hast ;D;D

Nicht in diesem Sinne Tombi ;)

=Floi=
2008-11-09, 11:06:16
NV unterstützt auch sli mit 4 chips
bei ati sind doch die 4 chips auch nur vista only wie tsli

wer will denn bitteschön verschiedene karten kombinieren? Höchstens 4870X2+4870 hat noch seine berechtigung, aber für den rest sollte man lieber andere sachen in den vordergrund rücken. Ati sollte lieber mal die ganze schwächen ausbügeln und an der bildqualität drehen. Das größte vergehen waren diese komischen blur aa modi.

8XAA nimmt man bei nv, weil das am besten aussieht. Da werden alle kanten richtig glatt und das ganze bild flimmerfrei. (zB Q4/D3/Siedler5 etc.) AA ist wohl das wichtigste feature der nächsten jahre.

----
der mainstream will gar kein aa, denn wer mal zu den konsolen (inclusive ds und psp) schaut, der sieht hässlichste pixelgrafik ohne kantenglätung. Der rund auf die ps2 war ja auch so ein phenomen. (eigentlich müsste es den run auf die ersten ps3 mit ps2 kompatibilität und aa/höherer auflösung geben)

tombman
2008-11-09, 11:10:16
Nicht in diesem Sinne Tombi ;)
ATI hat ja zuvor noch so rumgeprollt wie toll CF skalieren wird, neue bridge etc... und jetzt losen sie mit 4 Gpus ärger ab :lol:

Cubitus
2008-11-09, 11:13:12
CF ist immer mit der AI on verknüpft.
Bei NV lässt sich dagegen die höchste "un-optimierte" Qualität auswählen.

SLI ist komfortabler dank der SLI-Lastanzeige.
Für SLI gibt es bessere Tools, wie .zb den Nhancer.
Die Profilverwaltung ist besser.

SLI funktioniert bei mehr Games.

Gast
2008-11-09, 12:17:01
Aber es hat auch Vorteile gegenüber Sli!

kaum, erst recht nicht gegenüber der langen liste an nachteilen.


+ mehrere verschiedene Karten kombinierbar. (z.B. 4870 + 4850 = durchaus sehr positiv)

sinnlos, dadurch werden die eh schon vorhandenen ruckler nur noch stärker.


+ maximal 4 Karten werden unterstützt. (bei nVidia nur 2, und in Ausnahmefällen auch 3 Karten)

bei NV werden auch bis 4GPUs unterstützt, im gegensatz zu ATI skaliert SLI mit mehr als 2GPUs noch halbwegs ordentlich.

+ funzt auf Intel Boards.

bei NV teilweise auch ;) aber du hast schon recht, das ist der einzige wirkliche vorteil von CF, die mainboardunterstützung ist deutlich breiter.


Sind alles Pluspunkte, die man Crossfire nicht absprechen kann.

ähm, doch (bis auf das letzte) ;)

deekey777
2008-11-09, 12:55:25
ATi müsste ihre gesamte Treiberpolitik überdenken. Warum muss man immernoch bei einigen Spielen die exe umbenennen, damit man AA bekommt? Warum geht bei einigen Spielen immernoch kein AA, obwohl es eigentlich technisch machbar wäre? Warum kann ich mir nicht aussuchen, was für AAA ich haben möchte? Bei nV kann ich alles ganz bequem und ohne andere Nachteile per nHancer einstellen.

ATi hat momentan ohne Frage sehr gute Chips, die Treiber versauen aber alles. :( Was nützt mir da das schnellste Crossfire-Gespann, wenn ich mit so vielen Nachteilen leben muss?

Wenn es technisch möglich ist, warum bieten Spiele wie GoW unter DX9 von Haus aus keine Kantenglättung an?
Weil es gerade technisch nicht gerade einfach ist.
ATi nahm sich extrem viel Zeit, um MSAA in UE3-Spiele zu implementieren, denn keiner von uns möchte irgendwelche Artifakte wie weiße Pünktchen sehen, wenn er MSAA per CCC erzwingt. Carsten hat ja paar Bilder aus Bioshock gezeigt, auf den man sehen konnte, wozu herstellerseitiges MSAA führn kann. Das aktuelle Beispiel mit Kantenglättung in UT3 und fehlenden Effekten zeigt gerade, wie kompliziert die Kantenglättung ist, wenn es die Engine nicht unterstützt. In Crysis ist es gar nicht möglich MSAA per CCC zu erzwingen.
Dass UE3-Spiele Kantenglättung von Haus aus bieten können, zeigt der zweite Teil von R6: Vegas.

Black-Scorpion
2008-11-09, 13:12:13
Bei nV kann ich alles ganz bequem und ohne andere Nachteile per nHancer einstellen.
Wenn der nHancer wenigstens von nV wäre.
Du kannst doch nicht Tools als Vorteil hinstellen für die sich andere die Arbeit machen weil es die Hersteller selber nicht schaffen.

boxleitnerb
2008-11-09, 13:20:45
Naja, es gibt ihn aber, das ist Fakt. Und so ist eben die Situation :)

Gast
2008-11-09, 13:20:51
Du kannst doch nicht Tools als Vorteil hinstellen
Doch.
Mir ists scheiss egal, ob Nvidia das macht oder nHancer oder aTuner, solange es bei AMD keinerlei Gegenstück gibt, bin ich bei Nvidia besser dran.

Palpatin
2008-11-09, 13:45:29
Mal 2 Frage SLI soll ja mit dem neuen Treiber auch mit mehrere Monis funken, gibts da noch irgendwelche Probleme oder funkt das einwandfrei und kann ich so wie bei CF auch 3 Monitore verwenden, würd mir gern 2 19 Zoll neben mienem 27 bauen, Imo hab ich einen 24 Zoll neben dem 27er , da hat man den Nachteil das der 27 nicht schön zentriert in der Mitte steht.
Die andere Frage, geht der Wechsel auf NV Chipssatz genauso Problem wie der wechsel zwischen 2 Intel Chipsätzen, meine Vista installation läuft jetzt schon 1,5 Jahre und hat schon 2 Chipsatzwechsel (immer Intel) ohne Probleme mitgemacht sprich Board raus Board rein Booten und es lief.
Wenn das möglich ist würd mich ne 2te GTX280 schon reizen, wenn nicht knall ich vielleicht einfach eine der neue 4870X2 mit Tri-Slot Kühler und 3 Moni Ausgängen rein.

Raff
2008-11-09, 14:05:58
Wenn der nHancer wenigstens von nV wäre.
Du kannst doch nicht Tools als Vorteil hinstellen für die sich andere die Arbeit machen weil es die Hersteller selber nicht schaffen.

Der nHancer schaltet auch Dinge frei, die vorhanden, aber nicht offiziell sind. Was hat der Nutzer dieser Schmankerl für einen Nachteil durch die Tatsache, dass sich etwa die Hybridmodi nicht im Treiberpanel finden? Hat hier wirklich schonmal jemand beim Support angerufen, weil 32xS nicht flüssig läuft oder das post-prozessierte Bild matschig wird? ;D

Thema "Mismatched" Crossfire: HD4870 + HD4850 tut weh. Die Frames werden schon bei identisch potenten Karten unregelmäßig ausgegeben, was passiert also, wenn die Dinger asynchron rendern? Großes Mikroruckel-Aua. Viele wollten zum Start von Crossfire "X" auch noch ihre alte HD3800 einbinden ... das wäre noch viel mehr aua und niemals produktiv.

MfG,
Raff

Black-Scorpion
2008-11-09, 14:11:37
Der nHancer schaltet auch Dinge frei, die vorhanden, aber nicht offiziell sind. Was hat der Nutzer dieser Schmankerl für einen Nachteil durch die Tatsache, dass sich etwa die Hybridmodi nicht im Treiberpanel finden? Hat hier wirklich schonmal jemand beim Support angerufen, weil 32xS nicht flüssig läuft oder das post-prozessierte Bild matschig wird? ;D
Was hat das damit zu tun das der nHancer als Vorteil bei nV hingestellt wird aber nV nichts damit zu tun hat?
Gerade weil er auch inoffizielle Einstellungen zugänglich macht die nV selber nicht bereitstellt.

Ronny G.
2008-11-09, 14:12:21
Thema "Mismatched" Crossfire: HD4870 + HD4850 tut weh. Die Frames werden schon bei identisch potenten Karten unregelmäßig ausgegeben, was passiert also, wenn die Dinger asynchron rendern? Großes Mikroruckel-Aua. Viele wollten zum Start von Crossfire "X" auch noch ihre alte HD3800 einbinden ... das wäre noch viel mehr aua und niemals produktiv.

MfG,
Raff

Du bist aber auch fieß:P Ich fühle mich überhaupt nicht angesprochen
Ist es nicht so das sich die schnellere Karte nach der Langsameren richtet?

Black-Scorpion
2008-11-09, 14:14:31
Du bist aber auch fieß:P Ich fühle mich überhaupt nicht angesprochen
Ist es nicht so das sich die schnellere Karte nach der Langsameren richtet?
Ja ist es auch.
Und du kannst dir sicher sein das er das auch ganz genau weiß aber wie in jeden 2ten Beitrag nochmal einen Seitenhieb verteilen muss.

Raff
2008-11-09, 14:23:02
Was hat das damit zu tun das der nHancer als Vorteil bei nV hingestellt wird aber nV nichts damit zu tun hat?
Gerade weil er auch inoffizielle Einstellungen zugänglich macht die nV selber nicht bereitstellt.

Sehr eigenartige Diskussion. Er ist ein Vorteil. Du kaufst eine Grafikkarte doch als Ganzes und willst das beste, oder nicht? Genauso gut könnte man aber den Rivatuner anführen, der einige der AA-Modi auch feilbietet. Die SLI-Spielchen laufen nur mit dem nHancer. Du als versierter Nutzer kriegst kostenlos ein Instrument in die Hand gedrückt, um die Karte noch besser zu machen. Ein besserer "Tool-Pool" ist IMO genauso ein Pluspunkt für einen bestimmten Hersteller wie deren offizielle Dinge.

Und da du anscheinend mit mir oder meiner Einstellung ein Problem hast: Ich kritisiere nun mal Missstände. Auf beiden Seiten. Das sind keine Seitenhiebe, sondern direkte Schläge. ;)

Unausgegorene Scheiße wird von mir immer niedergemacht werden. Ich verstehe es nicht, wie immer wieder Verständnis für grobe "Verstöße" aufgebracht wird, obwohl die Hersteller nur eines wollen: Geld. Geld für unausgegorene Scheiße. Und dann wird das auch noch empfohlen und weniger versierte Nutzer kaufen das Zeug, ohne zu wissen, dass es bessere Alternativen gibt.

Du bist aber auch fieß:P Ich fühle mich überhaupt nicht angesprochen
Ist es nicht so das sich die schnellere Karte nach der Langsameren richtet?

Hättest mich einfach vorher fragen sollen ... ;D Natürlich "richten" sich die Karten nacheinander, aber 100% synchron ist das einfach nie. Der Speicher arbeitet beispielsweise mit ganz anderen Latenzen. Welcher GDDR5-Takt entspricht 100% der Leistung von 993 MHz GDDR3?

Aber nun hast du ja das Nonplusultra in Sachen Frameverteilung + Leistung im Rechner.

MfG,
Raff

boxleitnerb
2008-11-09, 14:25:53
Es IST nunmal ein Vorteil, unabhängig davon, ob NVidia seine Finger drin hat oder nicht. Warum kannst du das nicht einsehen? Dem Kunden kann das getrost egal sein, es ist ein nicht zu unterschätzender Vorteil.

Sollen die Leute jetzt diesen Vorteil ignorieren, nur weil es auf AMD-Seite nichts dergleichen gibt? Du versuchst hier nur, das schlecht zu machen, nur weil es auf NVidias Habenseite steht (abstrakt gesprochen, hat nichts mit der Firma NVidia zu tun).

Ronny G.
2008-11-09, 14:49:53
Mein HD4870+HD4850 Gespann war sicherlich nicht schlecht, in gewählten Situationen wie Crysis WH schneller als jede GTX280, das zu nem geringeneren Kaufpreis, aber eben mit ernormen Aufwand+Stromkosten, was dabei wichtig war, eine sehr potende HD4850 zu erwischen, diese erbarmungslos zu takten damit sie so wenig bremst wie es nur geht.

Die Jungs hier, mit richtiges CF Gespann aus 2xHD4870 hatten haben mir dann aber schnell gezeigt wo der Hammer hängt und was wirklich bei Optimum im CF steckt.

@Raff, ja die GTX280 macht mächtig dampf, Gestern gemerkt in Dead Space, da hatte ich trotz viel AA+AF in 1680x1050 weit über 100fps;D Und das einfach so, Spiel starten und los spielen, nicht wie vorher erstmal schauen ob CF überhaupt kreift, denn wenn nicht, waren die Frames teilweise meist schlechter als mit ner Singlekarte des gleichen Kalibers.

CF ist halt doch noch nicht so ausgereift wie vielleicht SLI, dazu fehlt auch einfach die Zeit, schließlich scheint CF einfach nur ne schnelle Zwangs-Aktion von ATI zu sein um parolle zu bieten. Sli ist ja schon ne Ecke länger da, dazu wiedergeboren von den Erfahrenen Erfindern der MGPU´s, ein nicht unerheblicher Vorteil.

Black-Scorpion
2008-11-09, 14:52:26
Es ist mir egal welcher Hersteller das jetzt ist.
Man kann aber nicht Tools als Vorteil einem Hersteller zuschreiben der damit nichts zu tun hat weil diese Einstellungen anbieten die es offiziell nunmal nicht gibt.
Ist das so schwer zu verstehen?
Die TrayTools waren auch kein Vorteil von ATI weil sie die Möglichkeit boten AAA einzuschalten.
Ohne diese Tools gäbe es diese Möglichkeit nicht.
Das sollte man nicht als Vorteil für die Hersteller sehen sondern eher darauf hinweisen/nachfragen warum es Tools braucht und die Hersteller das nicht selbst anbieten.
Ich kaufe bestimmt keine Karte nach dem ich mich informiert habe mit welchen Tools ich nicht offizielle Sachen einstellen kann weil die Hersteller zu blöd sind das selbst anzubieten.

Und da du anscheinend mit mir oder meiner Einstellung ein Problem hast: Ich kritisiere nun mal Missstände. Auf beiden Seiten. Das sind keine Seitenhiebe, sondern direkte Schläge. ;)
Missstände zu kritisieren ist die eine Sache. aber das sollte dann auch beide Seiten betreffen.
Nur ist das Verhältnis bei dir eher 70:30. Und komm ja nicht damit das es bei nV nicht mehr zu kritisieren gäbe.
Und ich bin mit Sicherheit nicht der einzige dem das auffällt.

Jake Dunn
2008-11-09, 15:18:13
Thema "Mismatched" Crossfire: HD4870 + HD4850 tut weh. Die Frames werden schon bei identisch potenten Karten unregelmäßig ausgegeben, was passiert also, wenn die Dinger asynchron rendern? Großes Mikroruckel-Aua. Viele wollten zum Start von Crossfire "X" auch noch ihre alte HD3800 einbinden ... das wäre noch viel mehr aua und niemals produktiv.

MfG,
Raff

Halt ich auch nichts von, wer so freaky ist für M-GPU sollte das auch mit den stärsten (identischen) Karten machen.
Und SLI/CF aus der Vorgänger Gen. zu machen ist auch nonsens (im Mix 3870+4850 sogar ³ ;D)

Gast
2008-11-09, 15:27:40
Man kann aber nicht Tools als Vorteil einem Hersteller zuschreiben der damit nichts zu tun hat weil diese Einstellungen anbieten die es offiziell nunmal nicht gibt.

natürlich, die bessere/größere auswahl an 3rd-party-tools kommt ja nicht von ungefähr, sondern vom langjährigen erfolg.


Die TrayTools waren auch kein Vorteil von ATI weil sie die Möglichkeit boten AAA einzuschalten.

natürlich, gegen rivatuner zwar immer noch ziemlich schwach, aber auch nicht schlecht, wobei rivatuner ja durchaus einiges auch für ATI bietet.


und wenn wir gerade bei nhancer sind, der als vorteil für NV bezeichnet wird: nhancer bietet eigentlich kaum etwas, was man nicht übers normale CP auch könnte, nur eben auf einer anderen oberfläche. hätte ATI eine dermaßen gute vom benutzer steuerbare profilsteuerung, dann gäbe es höchstwahrscheinlich auch für ATI ein derartiges tool. da ATI aber nichts derartiges anbietet sind programmierern derartiger tools die hände gebunden, es kann im moment einfach nichts vergleichbares für ATI geben. das ganze ist also durchaus zumindest zum teil auch ATIs schuld.



Und komm ja nicht damit das es bei nV nicht mehr zu kritisieren gäbe.


das sicher nicht, das verhältnis 70:30 an kritikpunkten dürfte es allerdings recht gut treffen.

im moment gibt es bei ATI einfach wesentlich mehr zu kritisieren, bekanntermaßen war es ja auch schon mal anders, aber in der gegenwart ist es eben so.

Raff
2008-11-09, 15:29:29
CF ist halt doch noch nicht so ausgereift wie vielleicht SLI, dazu fehlt auch einfach die Zeit, schließlich scheint CF einfach nur ne schnelle Zwangs-Aktion von ATI zu sein um parolle zu bieten. Sli ist ja schon ne Ecke länger da, dazu wiedergeboren von den Erfahrenen Erfindern der MGPU´s, ein nicht unerheblicher Vorteil.

Crossfire war ein "Schnellschuss", um das neue SLI zu kontern, ja. Nach 4 Jahren sollte die Schonfrist aber mal vorbei sein. Moment ... Schonfrist? Warum eigentlich? Du zahlst das Doppelte – welche Leistung erwartest du da? ;)

Missstände zu kritisieren ist die eine Sache. aber das sollte dann auch beide Seiten betreffen.
Nur ist das Verhältnis bei dir eher 70:30. Und komm ja nicht damit das es bei nV nicht mehr zu kritisieren gäbe.
Und ich bin mit Sicherheit nicht der einzige dem das auffällt.

Doch, es ist so. Nvidia gibt momentan kaum einen Anlass zu Meckern. Oder fällt dir gerade ein ähnlich gravierendes Verbrechen bzw. eine mangelhafte Treibereinstellung ein, die man mal ankreiden sollte? Sobald Ati wie Nvidia dem Nutzer die Macht über seine Grafikkarte überträgt, bin ich der Erste, der das lobend hervorhebt.

Hört endlich mit diesen lachhaften Unterstellungen auf, sie sind haltlos. Im nächsten Thread bin ich wieder ein Ati-Fanboy, weil ich auf der 9800 GX2 herumhacke oder erwähne, dass 8x MSAA auf einer GeForce ziemlich sinnlos ist. ;D Eines stimmt jedoch: Ich bin ein treuer Fan (ohne "boy") einer Firma. Das verstecke ich auch nicht – im Gegenteil, wie man an meinem Profil sehen kann. Besagte Firma ist schon lange tot, der Platz in meinem Herzen jedoch auf immer vergeben. ;)

MfG,
Raff

Schlammsau
2008-11-09, 17:37:42
Doch, es ist so. Nvidia gibt momentan kaum einen Anlass zu Meckern. Oder fällt dir gerade ein ähnlich gravierendes Verbrechen bzw. eine mangelhafte Treibereinstellung ein, die man mal ankreiden sollte?
MfG,
Raff

Gerade dass könnte man wenn man wolle, nVidia ankreiden!
Sie geben dem User jede Möglichkeit, alles zu verändern und anzupassen. Eigentlich sollte das die Aufgabe der Treiberentwickler sein.

Ein Bekannter (eher ein Noob) von mir hat einmal gesagt...."bei nVidia kann man so viel einstellen, viel zu viel für meinen Geschmack!"

Was man aber ihnen aber wirklich ankreiden kann, und das wurde es ihnen schon oft, ist diese Beta Treiberpolitik. Wenn wir hier im Forum, keinen RAZOR hätten würde doch keiner mehr durchblicken. Da ist plötzlich ein 174.13 neuer und besser als ein 180. schlag mich tot. Sehr verwirrend das alles!

Was nVidia auch noch anzukreiden ist, ist das VRAM Problem. Aber auch eine andere Geschichte.

Coda
2008-11-09, 17:40:03
Wer zwingt einen denn dazu die Betas zu installieren? Das ist so ein blödsinniges Argument. Es wird nirgends auf der Webseite von NVIDIA etwas davon erwähnt, abgesehen von offiziellen Betas. Die gibt es bei AMD auch.

Es ist immer schön mehr Optionen zu haben. Man muss nichts verändern, es funktioniert auch so wunderbar. Wenn das nicht so wäre, dann würde ich das gelten lassen, aber so ist es einfach nur Suchen nach widersinnigen Argumenten. NVIDIA bringt meinem Eindruck nach eher schneller SLI-Profile und auch mehr für Nicht-Mainstream-Titel.

Razor hat im Übrigen nicht mal einen Ansatz von Ahnung von dem was er von sich gibt.

Gast
2008-11-09, 18:06:22
Ein Bekannter (eher ein Noob) von mir hat einmal gesagt...."bei nVidia kann man so viel einstellen, viel zu viel für meinen Geschmack!"
Schon mal was von Treiberdefaults gehört?
Wer keine Ahnung hat, lässt es einfach, man muss nichts einstellen aber man kann. Bei AMD kann man nichts einstellen, das ist viel schlimmer, winde dich nicht raus.

Wenn wir hier im Forum, keinen RAZOR hätten würde doch keiner mehr durchblicken.
Glaubst du. Was macht Razor so wichtiges, was ich verpasst habe?

Da ist plötzlich ein 174.13 neuer und besser als ein 180. schlag mich tot.
Gerücht. Selbst wenn, was interessiert mich 1% (Messungenauigkeit) in Spiel X130030?


Was nVidia auch noch anzukreiden ist, ist das VRAM Problem. Aber auch eine andere Geschichte. Zuwenig VRAM ist ein Problem, aber das liegt an der Karte und nicht am IHV.
Gerade VRAM mäßig ist die HD48xx Sparte ein Witz.

Black-Scorpion
2008-11-09, 18:11:36
nV Karten könnten auch 2 GB Speicher drauf haben und es würde nichts daran ändern das dieser voll ist und die Karten einbrechen.
Und das ist sehr wohl ein Problem von nV und nicht der Karte.

Gast
2008-11-09, 18:13:11
Warum sollte der VRAM voll werden und bei AMD nicht?

Raff
2008-11-09, 18:13:22
:|

Man zeige mir bitte nur ein Spiel, bei dem eine GTX 280 (1.024 MiB) an ihrem Speicher verhungert (32xS lasse ich nicht gelten). Die 512-MiB-Krüppelkarten sind natürlich ein ganz anderes Kaliber. Dort hilft es, einfach eine G80-basierte 8800 zu kaufen. ;) Mit 768 MiB hat man erst ab 2.560x1.600 Probleme.

MfG,
Raff

derguru
2008-11-09, 18:22:42
Crossfire war ein "Schnellschuss", um das neue SLI zu kontern, ja. Nach 4 Jahren sollte die Schonfrist aber mal vorbei sein. Moment ... Schonfrist? Warum eigentlich? Du zahlst das Doppelte – welche Leistung erwartest du da? ;)
Eines stimmt jedoch: Ich bin ein treuer Fan (ohne "boy") einer Firma. Das verstecke ich auch nicht – im Gegenteil, wie man an meinem Profil sehen kann. Besagte Firma ist schon lange tot, der Platz in meinem Herzen jedoch auf immer vergeben. ;)

MfG,
Raff
biste auch auf den zug "Hype"gesprungen das voodoo karten cool sind,warst du nicht wo es die karten gab erst 10 oder so,
haste dir dank pcgh eine karte günstig ergattert und gehste jetzt ab wie ein zäpfchen wah:wink:


richtig ich erwarte doppelte leistung von sli und cf und das habe ich nur bei cf und nicht sli gehabt,im gegensatz zu anderen hatte ich beide sys und kann dazu nur sagen sli hat bei skalierung nicht mal einen hauch einer chance.
auflösung und die qualitysettings sind irrelevant,ich tippe mal jetzt kommen die gothic3 und crysis screens wah:wink:

ja mei sli rockt ja derbe

und an alle die ati verteufel,kauft euch doch die 260gtx ist in der selben preisklasse wie die 4870 1gb und gut ist.
http://www.abload.de/img/fearippc.gifhttp://www.abload.de/img/cod4yi6j.gifhttp://www.abload.de/img/jerichoamdj.gifhttp://www.abload.de/img/rsb9skv.gif

tombman
2008-11-09, 18:30:08
:|

Man zeige mir bitte nur ein Spiel, bei dem eine GTX 280 (1.024 MiB) an ihrem Speicher verhungert
http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_spielen_intel_core_i7_nehalem/16/#abschnitt_stalker_clear_sky

Ganz unten. 2560x1600 mit 4xAA und schon krepieren die Nvidias...

Black-Scorpion
2008-11-09, 18:31:55
Dir sollte aber bei Jericho auch aufgefallen sein das es bei CF zur X2 einen riesen Unterschied gibt. ;)

derguru
2008-11-09, 18:36:27
Dir sollte aber bei Jericho auch aufgefallen sein das es bei CF zur X2 einen riesen Unterschied gibt. ;)

ich dacht wir sind im "freak forum" da weiß man sich schon zuhelfen wie man das hinkriegt;:)

abgesehen davon funzt es auch mit 2 einzelnen karten seit treiber sowiesio,weiß nit mehr ab welcher.

Raff
2008-11-09, 18:36:56
http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_spielen_intel_core_i7_nehalem/16/#abschnitt_stalker_clear_sky

Ganz unten. 2560x1600 mit 4xAA und schon krepieren die Nvidias...

Ok, das war nun "das eine" Spiel. Hast du auch die Fps gesehen? Auch die der Radeons? Das ist nicht praxisnah. Dass das Spiel in Relation zur Optik zu viel VRAM frisst, ist auch bekannt. Da bringen 1.024 anstatt 512 MiB sogar auf Radeons in "normalen" Auflösungen Vorteile.

MfG,
Raff

_DrillSarge]I[
2008-11-09, 18:37:08
Dir sollte aber bei Jericho auch aufgefallen sein das es bei CF zur X2 einen riesen Unterschied gibt. ;)
sobald sowas auftritt (x2 deutlich langsamer/schneller als normales cf) ist es eh ein treiber-fuckup. nichtfunktionierendes sli kann es auch bei nv geben. das ist neben dem mikroruckeln eine weitere krux von mgpu - die treiber

Blaire
2008-11-09, 18:39:31
http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_spielen_intel_core_i7_nehalem/16/#abschnitt_stalker_clear_sky

Ganz unten. 2560x1600 mit 4xAA und schon krepieren die Nvidias...

Jo aber 2560x1600 4xAA ist dann eh nicht mehr spielbar. Ohne AA skalieren die 3xGTX280 aber noch sehr ordentlich. Und Vista ist ohnehin verschwenderischer beim VRAM Verbrauch, der gleiche Test unter WinXP würde vieleicht bessere Ergebnisse liefern.

tombman
2008-11-09, 18:51:48
Ok, das war nun "das eine" Spiel.
http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_spielen_intel_core_i7_nehalem/9/#abschnitt_rainbow_six_vegas
ganz unten ;)

Siehs ein, bei 2560x1600 und 8xAA versagt Nvidia...

Mir persönlich aber egal, weil ich nicht höher als mit 1920x1200 spiele, bestenfalls 2304x1440...

Spasstiger
2008-11-09, 19:10:11
ja mei sli rockt ja derbe

und an alle die ati verteufel,kauft euch doch die 260gtx ist in der selben preisklasse wie die 4870 1gb und gut ist.
http://www.abload.de/img/fearippc.gifhttp://www.abload.de/img/cod4yi6j.gifhttp://www.abload.de/img/jerichoamdj.gifhttp://www.abload.de/img/rsb9skv.gif
Ich kenne niemanden, der mind. eine GeForce 8800 oder Radeon HD 29xx besitzt und nur in 1280x1024 ohne AA zockt. Sieht man ja alleine schon an den Frameraten aus deinen Screenshots.
Meinst du es juckt irgendjemanden, ob er 100 statt 90 fps in niedrigen Settings hat, wenn auf hohen Settings der Vergleich eher ein 30 fps gegen 35 fps zeigt?

Gast
2008-11-09, 19:13:57
Dir sollte aber bei Jericho auch aufgefallen sein das es bei CF zur X2 einen riesen Unterschied gibt. ;)

Liegt am Treiber Mischmasch bei Computerbase :rolleyes:

derguru
2008-11-09, 19:17:22
Ich kenne niemanden, der mind. eine GeForce 8800 oder Radeon HD 29xx besitzt und nur in 1280x1024 ohne AA zockt. Sieht man ja alleine schon an den Frameraten aus deinen Screenshots.
Meinst du es juckt irgendjemanden, ob er 100 statt 90 fps in niedrigen Settings hat, wenn auf hohen Settings der Vergleich eher ein 30 fps gegen 35 fps zeigt?

ich hab mich nur darauf bezogen das cf "angeblich" so schlecht skaliert im gegensatz zu sli,mehr wollte ich damit nicht zeigen.wenn schon in solchen niedrigen auflösungen cf zu 100% skaliert dann braucht man in hohen auflösungen gar nicht erst drauf zu achten.mir ist schon klar das man in der auflösung nicht spielt.
zur ehrenrettung von sli kann man ja auch zugeben das die schlechten werte höchst wahrscheinlich an den kack nv board lagen das sich mit intel neuen boards dann erledigt hat.

Gast
2008-11-09, 19:36:25
http://www.abload.de/img/fearippc.gifhttp://www.abload.de/img/cod4yi6j.gifhttp://www.abload.de/img/jerichoamdj.gifhttp://www.abload.de/img/rsb9skv.gif
Warum pickst du 4 gute Dinge raus und lässt somit den miesen Rest unter den Tisch fallen?

http://www.abload.de/img/clipboard026ohg.jpg

Gast
2008-11-09, 19:38:07
ich hab mich nur darauf bezogen das cf "angeblich" so schlecht skaliert im gegensatz zu sli,

CF skaliert schon ziemlich gut, allerdings mit einigen einschränkungen:

1. ein profil existiert (trifft natürlich auch auf SLI zu, nur kann man sich da selbst helfen)

2. das verwendete OS ist vista. unter XP skaliert CF oft sehr schlecht, insbesonders bei neuerer software.

3. CF wird auf max 2GPUs beschränkt, mit mehr ist die skalierung größtenteils deutlich schlechter als bei SLI (was nicht heißen soll, dass es nicht vereinzelt auch mit mehr GPUs gut skaliert)

derguru
2008-11-09, 19:51:24
Warum pickst du 4 gute Dinge raus und lässt somit den miesen Rest unter den Tisch fallen?

http://www.abload.de/img/clipboard026ohg.jpg

war klar das jetzt das gesamtrating gezeigt wird,schonmal drauf geachtet warum das rating so ausfällt?
3 spiele haben garnicht erst skaliert mit cf dann kommt so ein rating dabei raus.

CF skaliert schon ziemlich gut, allerdings mit einigen einschränkungen:

1. ein profil existiert (trifft natürlich auch auf SLI zu, nur kann man sich da selbst helfen)

2. das verwendete OS ist vista. unter XP skaliert CF oft sehr schlecht, insbesonders bei neuerer software.

3. CF wird auf max 2GPUs beschränkt, mit mehr ist die skalierung größtenteils deutlich schlechter als bei SLI (was nicht heißen soll, dass es nicht vereinzelt auch mit mehr GPUs gut skaliert)

ok ich habe die erfahrung aus meiner sicht nur mit vista und 2 gpu´s gemacht,hatte mal eine kurze zeit ein triple laufen aber das kann man sich nicht antun,mikroruckler ohne ende.über 2 gpu´s ist bei ati eine katastrophe wie das bei sli ist weiß ich nicht.

Gast
2008-11-09, 19:58:27
war klar das jetzt das gesamtrating gezeigt wird,schonmal drauf geachtet warum das rating so ausfällt?
3 spiele haben garnicht erst skaliert mit cf dann kommt so ein rating dabei raus.

Ja und?
CF skaliert nicht immer, das ist eben Alltag.

Du willst AMD natürlich einen Bonus geben, weils nicht immer CF Profile gibt oder wie?

Gast
2008-11-09, 20:08:18
Ja und?
CF skaliert nicht immer, das ist eben Alltag.

Du willst AMD natürlich einen Bonus geben, weils nicht immer CF Profile gibt oder wie?

Genau. Mit 8xaa gibts auch paar games wo NV einbricht und das geht auch mit in des gesamtrating rin. ;)

Ps. lassen heulen!

Gast
2008-11-09, 20:10:56
Genau. Mit 8xaa gibts auch paar games wo NV einbricht und das geht auch mit in des gesamtrating rin. ;)

Ps. lassen heulen!
Ja und und wie zählt man die Games, wo es bei AMD kein AA gibt? Pauschal mal 0,1 FPS geben und das ins Rating miteinfügen?

Gast
2008-11-09, 20:34:06
3 spiele haben garnicht erst skaliert mit cf dann kommt so ein rating dabei raus.

es ist nunmal so dass spiele mit CF nicht skalieren, und da man bei CF mangels profilskontrolle keine andere wahl hat gehören sie auch so mit ins rating.

Spasstiger
2008-11-09, 20:44:14
Kann mir mal jemand ein paar Frametime-Benches zukommen lassen, wo jeweils mit aktivem und inaktivem SLI bzw. Crossfire getestet wurde?
Ich will meine Algorithmen zur Abschätzung von Mikrorucklern und der gefühlten Framerate überprüfen und optimieren:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6901955

akuji13
2008-11-09, 22:12:10
Ich finde es interessant, wie man überhaupt für ein SLi/CF Gespann argumentieren kann und welches besser ist....beides ist völliger Schrott. :wink:

2 Karten MÜSSEN für mich auch die doppelte Leistung bringen...immer.
Alles andere ist technisches Versagen, Unfähigkeit der Entwickler...whatever.
Microruckler sind die Krönung des ganzen.

:rolleyes:

Coda
2008-11-09, 22:15:16
Genauso wie 2 CPUs immer doppelte Leistung bringen müssen?

Matrix316
2008-11-09, 22:15:21
Ich finde es interessant, wie man überhaupt für ein SLi/CF Gespann argumentieren kann und welches besser ist....beides ist völliger Schrott. :wink:

2 Karten MÜSSEN für mich auch die doppelte Leistung bringen...immer.
Alles andere ist technisches Versagen, Unfähigkeit der Entwickler...whatever.
Microruckler sind die Krönung des ganzen.

:rolleyes:
Warum? Ein Auto mit einem 160 PS Motor fährt auch nicht doppelt so schnell wie ein 80 PS Auto...

akuji13
2008-11-09, 22:28:37
Und man braucht 4x soviel Watt für die doppelte Lautstärke....das weiss ich alles Leute. :wink:

Es gibt einen riesigen Unterschied zwischen einem DC/SC CPU und einem SLi/CF Vergleich.
Beispielsweise nehmen wir FC2.
Mit einer SC CPU nicht spielbar, ohne SLi/CF schon....auch wenn das Verhältnis zwischen Preis/Leistung bei DC/QC CPUs annähernd schlecht ist.

Sorry, ich bin Kaufmann, bei mir wird alles nach Preis/Leistung bewertet, ohne wenn und aber.
Und ein Microruckler Problem entsteht durch DC/QC auch nicht, die CPUs stehen also besser da.

:wink:

Raff
2008-11-09, 22:32:08
http://www.computerbase.de/artikel/hardware/prozessoren/2008/test_spielen_intel_core_i7_nehalem/9/#abschnitt_rainbow_six_vegas
ganz unten ;)

Siehs ein, bei 2560x1600 und 8xAA versagt Nvidia...

Mir persönlich aber egal, weil ich nicht höher als mit 1920x1200 spiele, bestenfalls 2304x1440...

Mit 8x MSAA "versagt" Nvidia generell, wenn man die aktuellen Radeons als Maßstab nimmt. Dass die unter der zockenden Bevölkerung wohl verbreitetste Kombination aus 2.560x1.600 Pixeln und 8x AA nicht so gut läuft, ist natürlich katastrophal. ;D

Aber stimmt schon: Wer nur absolute Fps will, der fährt mit einer Radeon genau richtig. Sollen die Frames aber hochwertig(er) sein, ist eine GeForce das Optimum.

MfG,
Raff

Gast
2008-11-10, 00:18:46
8xMSAA ist eh langweilig, die Hybriden rocken mehr.
und Edge AA, also ich sehe da keinen großartigen unterschied zu normalen msaa
hat vielleicht jemand ein gutes Vergleichsbild zur Hand ?

Und man braucht 4x soviel Watt für die doppelte Lautstärke....das weiss ich alles Leute.

Es gibt einen riesigen Unterschied zwischen einem DC/SC CPU und einem SLi/CF Vergleich.
Beispielsweise nehmen wir FC2.
Mit einer SC CPU nicht spielbar, ohne SLi/CF schon....auch wenn das Verhältnis zwischen Preis/Leistung bei DC/QC CPUs annähernd schlecht ist.

Sorry, ich bin Kaufmann, bei mir wird alles nach Preis/Leistung bewertet, ohne wenn und aber.
Und ein Microruckler Problem entsteht durch DC/QC auch nicht, die CPUs stehen also besser da.

Die Microruckler treten ja nur bei niedrigen Frames auf, mit einem SLI oder CF Gespann muss man erstmal in solche Regionen kommen..
Alle ut3 Spiele, und da sind Einige hochkarätige Titel dabei, haben einen Framelimitierer bereits mit an Board.
Und auch das hier von der Community entwickelte "FPS-Glättungs-Tool"
aka SLI-Optimizer funktioniert teilweise richtig gut.
Also wie du siehst sind die MR nicht soo tragisch.

Dann der kosten/nutzen Faktor.
Ich bin auch ein gelernter Kaufmann besitze aber ein GTX280 Gespann.

Tja, klar das die Karten ordentlich Strom ziehen, nur wer auf höchstem technischen Niveau zocken will nimmt das gerne in Kauf.

Also bis jetzt waren alle meine Bekannte, darunter auch viele Konsolenspieler von der Graphikpracht begeistert. Ich freu mich einfach wenn die Kanten glatt und die Texturen scharf sind. Dazu noch immer die native Auflösung von 1920*1200 fahren hat doch was an sich.

Genauso gönne ich es dem Cinemaisten wenn er in seinen 52er Pionieer Kuro reinglotzt und sich am großen Bild und einer Blu-Ray ergötzt.

Jeder hat eben seine Prioritäten, für dich mag es vielleicht unsinnig sein.
Aber generell haben Multi-Gpu Gespanne imo eine Daseinsberechtigung.


Mfg

Cubitus

akuji13
2008-11-10, 00:49:54
Die Microruckler treten ja nur bei niedrigen Frames auf, mit einem SLI oder CF Gespann muss man erstmal in solche Regionen kommen..

Was definitiv bei etlichen Titeln kein Problem ist.
Als Beispiel nur mal Crysis. :wink:


Alle ut3 Spiele, und da sind Einige hochkarätige Titel dabei, haben einen Framelimitierer bereits mit an Board.

Toll! Ich kaufe mir SLi/CF um hohe Frameraten zu bekommen, die ich wieder künstlich begrenzen muss. :wink:
Das nenne ich persönlich Nonsens.


Und auch das hier von der Community entwickelte "FPS-Glättungs-Tool"
aka SLI-Optimizer funktioniert teilweise richtig gut.
Also wie du siehst sind die MR nicht soo tragisch.

Ich muss ein externes Tool benutzen um einen Entwicklungsfehler auszubügeln....das ist es wieder mein Wort...Nonsens?


Tja, klar das die Karten ordentlich Strom ziehen, nur wer auf höchstem technischen Niveau zocken will nimmt das gerne in Kauf.

Höchstes technisches Niveau bedeutet für mich aber, hohe Frameraten mit hohen Quali settings ohne jegliches Problem. :wink:
Und das ist nicht gegeben, zumindest für mich nicht gut genug.

Spasstiger
2008-11-10, 00:51:58
8xAA bei ATI ist ganz nützlich in Verbindung mit adaptivem AA. Ich würde 8xAAA sicherlich häufig nutzen, wenn meine Graka schnell genug dafür wäre. 16xS-AA bei NV frisst doch ein paar Ecken mehr als 8x adaptives AA bei ATI und wenn man kein böses Shaderflimmern hat, sieht die ATI-Variante vergleichbar gut aus. Und 4xMSAA + Super-Transparenz-AA frisst bei NV zumindest auf einem G92 mächtig viel, da kann man gleich 8xS-AA benutzen.

Gegen 32xS-AA von Nvidia kann aber imo kein Modus von ATI anstinken. Ich habe selbst mal mit 32xS-AA auf einer 8800 GT rumgespielt und die Bildqualität ist einfach überragend.

Die Unterschiede bei den extremen Modi kommen btw. oft erst in Bewegung zum Tragen, Screenshots taugen meist nicht für einen Vergleich.

Cubitus
2008-11-10, 01:12:23
Was definitiv bei etlichen Titeln kein Problem ist.Als Beispiel nur mal Crysis. :wink:

Gut Crysis und DX10 sind so ne Sache..
Aber z.b Warhead oder Crysis DX9 würden meine Karten ohne erhebliche Qualitätseinstellungen zum Frühstück verspeisen.

Ich zocke das mit 8xS bzw. Crysis mit 4xS und nativer Auflösung.
Shaderflimmern ade, Das einzige was erheblich limitiert ist die CPU Q6600@3,6 Ghz. Jedenfalls sieht ein flimmerfreies Crysis um weiten besser aus. Für mich hat sich damit schon mal der Sinn von SLI erfüllt.

Toll! Ich kaufe mir SLi/CF um hohe Frameraten zu bekommen, die ich wieder künstlich begrenzen muss. :wink:Das nenne ich persönlich Nonsens.

Bei den U3E Games kann man variable FPS einstellen, je nach Kompromiss zwischen Leistung und Qualität. Mit der neuen Version des Optimizers kann man das anscheinend auch, hab ich aber selbst noch nicht getestet.

Ich muss ein externes Tool benutzen um einen Entwicklungsfehler auszubügeln....das ist es wieder mein Wort...Nonsens?


Ob es ein Entwicklungsfehler ist hmm darüber könnte man auch streiten, soweit ich weiß ist es durch das AFR technisch nicht anderst möglich


Höchstes technisches Niveau bedeutet für mich aber, hohe Frameraten mit hohen Quali settings ohne jegliches Problem. :wink:
Und das ist nicht gegeben, zumindest für mich nicht gut genug.
Das klappt aber vor allem bei PC Spielen gepaart mit einer hohen Auflösung und etwas AA meistens nicht. Oft muss man daher Kompromisse eingehen.



8xAA bei ATI ist ganz nützlich in Verbindung mit adaptivem AA. Ich würde 8xAAA sicherlich häufig nutzen, wenn meine Graka schnell genug dafür wäre. 16xS-AA bei NV frisst doch ein paar Ecken mehr als 8x adaptives AA bei ATI und wenn man kein böses Shaderflimmern hat, sieht die ATI-Variante vergleichbar gut aus.

Gegen 32xS-AA von Nvidia kann aber imo kein Modus von ATI anstinken. Ich habe selbst mal mit 32xS-AA auf einer 8800 GT rumgespielt und die Bildqualität ist einfach überragend.

Die Unterschiede bei den extremen Modi kommen btw. oft erst in Bewegung zum Tragen, Screenshots taugen meist nicht für einen Vergleich

Ah adaptives AA ist TSSAA ? Das kann NVidia ja auch!
Nur ATI kann keine Hybrid Modis, was ja in der AA-Qualität für NV Spricht.
Und das es in Bewegung besser aussieht kann ich bestätigen.

Die S Modis wirken vorallem auf verkleinerten Screens zu blurrig.

Jau 32xS ist schon geil, mit SLI ist unter OpenGL ja auch 64 SLI AA möglich,
16xS SSAA + 2x SLI SS, das rockt alles ;D

Slipknot79
2008-11-10, 01:16:08
>bei mir wird alles nach Preis/Leistung bewertet, ohne wenn und aber.

Hm, dann rechnen wir mal. Leistung in 1680x1050 mit einer Single GPU und viel AA macht Null. Preis/Null ergibt kein Ergebnis, so wie deine Argumentation eben.

>Höchstes technisches Niveau bedeutet für mich aber, hohe Frameraten mit hohen Quali settings ohne jegliches Problem.

Demzufolge wirst du dir nie eine Graka kaufen müssen.

Spasstiger
2008-11-10, 01:22:19
Ah adaptives AA ist TSSAA ? Das kann NVidia ja auch!
Ja, adaptives AA kann TSSAA sein. Oft ist es auch nur TMSAA, das entscheidet der Treiber je nach Spiel.
Adaptives AA profitiert jedenfalls recht deutlich von mehr als 4xMSAA und da hat ATI eben Vorteile. Denn 8xMSAA + adaptives AA kostet in der Regel weniger als 8xMSAA + TMSAA bei Nvidia.
Ich finde halt den Standardspruch "8xMSAA braucht niemand" etwas daneben. Nur weil NV damit nicht effizient umgehen kann, heißt es nicht, dass der Modus unnütz ist.
Aber ich persönlich würde wegen den hybriden AA-Modi momentan wahrscheinlich auch eher eine NV-Karte kaufen (GTX 260).

Cubitus
2008-11-10, 01:39:21
Ja, adaptives AA kann TSSAA sein. Oft ist es auch nur TMSAA, das entscheidet der Treiber je nach Spiel.
Adaptives AA profitiert jedenfalls recht deutlich von mehr als 4xMSAA und da hat ATI eben Vorteile. Denn 8xMSAA + adaptives AA kostet in der Regel weniger als 8xMSAA + TMSAA bei Nvidia

Also ich will jetzt nicht total pro NV rüberkommen, ich versuche das Thema neutral zu betrachten, aber warum entscheidet das der Treiber ob jetzt TMSAA oder TSSAA verwendet werden soll und nicht ich selbst :|
bei NV kann ich das für jedes Spiel individuell einstellen...

Ich finde halt den Standardspruch "8xMSAA braucht niemand" etwas daneben. Nur weil NV damit nicht effizient umgehen kann, heißt es nicht, dass der Modus unnütz ist.


Stimmt eigentlich schon, MSAA ist so gesehen ein fester Standard der auch vielen usern genügt.
Wenn ATI mit dem 8x Modi punkten kann, dann sei es Ihnen gegönnt!


Aber ich persönlich würde wegen den hybriden AA-Modi momentan wahrscheinlich auch eher eine NV-Karte kaufen (GTX 260).

He he :) Eventuell werden die alten Modelle durch das baldige Erscheinen der neuen Genration auch noch billiger, gut möglich das du durch diesen Umstand ein schönes "gebrauchtes" Schnäppchen schlagen kannst.
Für die meisten Games sollte die kleine GTX noch ne Zeit lang reichen.

Spasstiger
2008-11-10, 01:58:25
Also ich will jetzt nicht total pro NV rüberkommen, ich versuche das Thema neutral zu betrachten, aber warum entscheidet das der Treiber ob jetzt TMSAA oder TSSAA verwendet werden soll und nicht ich selbst :|
bei NV kann ich das für jedes Spiel individuell einstellen...
Was ATI beim adaptiven AA treibt, hab ich auch noch nicht so ganz durchschaut. Vor einiger Zeit konnte man ja inoffiziell EATM und ASBT aktivieren, da wusste man noch, was man bekam. Und EATM war zudem sehr effizient. Leider hat ATI diese Features im Treiber nicht weiter gepflegt bzw. vielleicht auch ins adaptive AA eingebaut. Den Begriff adaptives AA nimmt ATI wohl recht wörtlich und nimmt dem User die Entscheidung über die Methode der Glättung von Alphatests ab.

ATI verfolgt auf jeden Fall die Philosophie, keine Bruteforce-Mehtoden beim AntiAliasing wie SSAA anzubieten. Und auch beim adaptiven AA scheinen sie wohl verhindern zu wollen, dass der User eine eventuell ineffiziente Methode benutzt. Denn alles was im Treiber angeboten wird, könnte möglicherweise ja auch in Reviews durch Benchmarks gejagt werden.
Mit DirectX 10 sind die ganzen Optionen zum Transparenz-AA bzw. zum adaptiven AA afaik eh nicht mehr wirksam. Da muss dann das Spiel von sich aus eine Methode implementieren.

Was natürlich immer geht, ist SSAA bei NV. ;)

derguru
2008-11-10, 02:17:19
Was natürlich immer geht, ist SSAA bei NV. ;)

ne geht nicht immer,bei allen ut3 engine games kann man zwar ssaa aktivieren und sogar die fps fallen aber die bildqualität verbessert sich nicht.

und auch die ganzen hybrid modi gehen auch nur über nhancer,wie du schon sagtest könnte man ja sonst durch den bench Parcour laufen lassen:wink:

apropo adaptive,was macht der regler eigentlich wenn man auf performance einstellt,wird dann nur die hälfte bearbeitet oder was;D(hatte eigentlich gedacht adaptive auf P ist multi und auf Q superdupa)

habs gerade mal bei cod5 probiert das waren dann durch adaptive p gleich 10fps mehr drinnen als bei Q.

Cubitus
2008-11-10, 02:24:35
Vor einiger Zeit konnte man ja inoffiziell EATM und ASBT aktivieren, da wusste man noch, was man bekam. Und EATM war zudem sehr effizient. Leider hat ATI diese Features im Treiber nicht weiter gepflegt bzw. vielleicht auch ins adaptive AA eingebaut

bei Zeit muss ich mir Vergleichs-Screens mit EATM genauer ansehen.

weil CB schreibt ja auch http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_ati_catalyst_710/2/

EATM nutzt kein Super-Sampling-AA mehr, sondern setzt auf das effizientere Multi-Sampling-AA. EATM ist jedoch nicht mit dem Transparency-MSAA auf einer GeForce-Karte vergleichbar, denn ATis Variante erzeugt das optisch bessere Bild. So ist der Performanceeinbruch gegenüber der SSAA-Version spürbar geringer, während sich der Qualitätsverlust im Rahmen hält. Je nach Spielszene kann EATM unter Umständen gar besser aussehen.

Wenn nichts ins Adaptive AA aufgenommen wurde, dann verstehe ich diese Politik auch nicht ganz.
Auch das mit den CF unterstützen Games, welche Spiele denn aktuell mit dem neusten Treiber im CF laufen, bekommt man nur mit Hilfe:
einer dll.Datei+Hexeditor, einschlägige Foren, oder über Herstller Page (Wobei die vermutlich nicht sooft aktualisiert wird), raus.

Eine kleine Liste zum Nachschauen im CCCenter, oder beiliegend als txt. würde doch schon reichen.
Das könnte ATI auch ohne Profilverwaltung hinbekommen.

Ohne den Nhancer wäre auch die xml Lösung von Nvidia nicht gerade optimal.

Was ATI beim adaptiven AA treibt, hab ich auch noch nicht so ganz durchschaut.

ja bei ATI ist irgendwie alles so ein bißchen im dunkeln, auch das mit den ganzen Optimierungen bei AI ON ist etwas strange.
Vorallem hängt das ATI nicht an die große Glocke (wären ja auch blöd :tongue:) aber die Mehrheit weiß darüber fast gar nix.


den Begriff adaptives AA nimmt ATI wohl recht wörtlich und nimmt dem User die Entscheidung über die Methode der Glättung von Alphatests ab.

Lol ;D

Raff
2008-11-10, 02:42:48
ne geht nicht immer,bei allen ut3 engine games kann man zwar ssaa aktivieren und sogar die fps fallen aber die bildqualität verbessert sich nicht.

Und wie die sich verbessert. UT3 ist mit SSAA ein ganzes Stück weniger flimmrig.

apropo adaptive,was macht der regler eigentlich wenn man auf performance einstellt,wird dann nur die hälfte bearbeitet oder was;D(hatte eigentlich gedacht adaptive auf P ist multi und auf Q superdupa)

habs gerade mal bei cod5 probiert das waren dann durch adaptive p gleich 10fps mehr drinnen als bei Q.

Quality betreibt AAA mit derselben Anzahl an Samples wie der eingestellte MSAA-Modus, Performance halbiert die Samples für die Alphatests. Zumindest trifft das auf SS-AAA zu.

MfG,
Raff

derguru
2008-11-10, 03:07:20
Und wie die sich verbessert. UT3 ist mit SSAA ein ganzes Stück weniger flimmrig.



Quality betreibt AAA mit derselben Anzahl an Samples wie der eingestellte MSAA-Modus, Performance halbiert die Samples für die Alphatests. Zumindest trifft das auf SS-AAA zu.

MfG,
Raff

ich find die screens nicht mehr dazu,aufjedenfall gabs bei ssaa keine glättung.aber kannst mich ja vom gegenteil überzeugen wenn du paar screens machst oder auch ein anderer mit einer nv karte,z.b.
http://www.abload.de/thumb/ut32008-11-1003-25-33-cqt5.png (http://www.abload.de/image.php?img=ut32008-11-1003-25-33-cqt5.png)
hui hab ich gut geraten gehabt.:biggrin:

Blaire
2008-11-10, 03:40:19
ich find die screens nicht mehr dazu,aufjedenfall gabs bei ssaa keine glättung.aber kannst mich ja vom gegenteil überzeugen wenn du paar treppenstufen in ut3 mit ssaa screens.
hui hab ich gut geraten gehabt.:biggrin:

Funktioniert tadellos: Solltest mal Gears of War oder Bioshock (nutzen ja bekanntlich die Unreal Engine 3) mit 8xSQ in Bewegung sehen, du schaltest danach nicht mehr freiwillig auf 8xMSAA zurück. ;)
http://img3.imagebanana.com/img/do2k3gi/thumb/wargame8xSQ1920.png (http://img3.imagebanana.com/view/do2k3gi/wargame8xSQ1920.png)
http://img3.imagebanana.com/img/soxgb1md/thumb/Bioshock2008080120311068.jpg (http://img3.imagebanana.com/view/soxgb1md/Bioshock2008080120311068.jpg)

Blaire
2008-11-10, 03:42:57
ich find die screens nicht mehr dazu,aufjedenfall gabs bei ssaa keine glättung.aber kannst mich ja vom gegenteil überzeugen wenn du paar screens machst oder auch ein anderer mit einer nv karte,z.b.
http://www.abload.de/thumb/ut32008-11-1003-25-33-cqt5.png (http://www.abload.de/image.php?img=ut32008-11-1003-25-33-cqt5.png)
hui hab ich gut geraten gehabt.:biggrin:

Entweder falsche AA Bits aktiv oder Profil hat nicht gegriffen. ;)

derguru
2008-11-10, 03:48:23
Entweder falsche AA Bits aktiv oder Profil hat nicht gegriffen. ;)

ne die stelle ist ja ohne aa gescreent,will nur halt sehen ob das mit ssaa sich verbessert denn mit msaa ist da nada.

sind deine screens unter xp?

Blaire
2008-11-10, 03:55:18
ne die stelle ist ja ohne aa gescreent,will nur halt sehen ob das mit ssaa sich verbessert.

Auf deinem Screen ist kein AA aktiv ist doch klar zu sehn, deshalb schrieb ich ja es kann sein das die falschen AA Bits aktiv waren oder das Profil hat die Einstellungen einfach nicht übernommen. Was auch vorkommen kann, das der Videospeicher der Grafikkarte nicht ausreicht und ab einer bestimmten Auflösung einfach auf No Antialiasing zurückschaltet. Könnte bei dir der Fall sein^^
Die Bilder sind schon etwas älter wurden unter Vista aufgenommen. Kann derzeit nix aktuelles liefern da ich auf mein neues Board warte.

betasilie
2008-11-10, 04:13:00
Funktioniert tadellos: Solltest mal Gears of War oder Bioshock (nutzen ja bekanntlich die Unreal Engine 3) mit 8xSQ in Bewegung sehen, du schaltest danach nicht mehr freiwillig auf 8xMSAA zurück. ;)
http://img3.imagebanana.com/img/do2k3gi/thumb/wargame8xSQ1920.png (http://img3.imagebanana.com/view/do2k3gi/wargame8xSQ1920.png)
http://img3.imagebanana.com/img/soxgb1md/thumb/Bioshock2008080120311068.jpg (http://img3.imagebanana.com/view/soxgb1md/Bioshock2008080120311068.jpg)
Coole Sache. Aber wieso gibts bei Bioshock trotzdem so hässliches Shaderaliasing? Da sollte das SSAA doch greifen.

derguru
2008-11-10, 04:22:03
zb. an dieser stelle habe ich mit meiner 260gtx damals keine glättung hinbekommen.bei solchen bildern kriegt man wieder würgattacken,naja die engine ist eh rotz :uattack4:
sweenys schlechteste arbeit.

http://www.abload.de/thumb/bioshock2008-11-1004-1umgq.png (http://www.abload.de/image.php?img=bioshock2008-11-1004-1umgq.png)
boah betasilie dein avatar bringt einen zum schielen wenn man länger als ne sek. reinschaut,haha das ist ja körperverletzung;D

Blaire
2008-11-10, 04:29:26
Coole Sache. Aber wieso gibts bei Bioshock trotzdem so hässliches Shaderaliasing? Da sollte das SSAA doch greifen.

Das tut es doch auch. Hilft aber eben nicht immer aber mit normalen Multisampling sieht es noch deutlich schlimmer aus.

Hier mal ein Beispiel Medal of Honor:Airborne achte mal u.a.auf den Boden ;) Auf Bildern lässt sich sowas immer etwas schwer zeigen man muss selber vorm Monitor sitzen und im Level herumlaufen , dann sieht man es sofort.

8xMSAA:
http://img2.imagebanana.com/img/4bczruwq/8xmsaa.png

8xS:
http://img2.imagebanana.com/img/65qyuyd/8xs.png

tombman
2008-11-10, 04:48:22
Dass die unter der zockenden Bevölkerung wohl verbreitetste Kombination aus 2.560x1.600 Pixeln und 8x AA nicht so gut läuft, ist natürlich katastrophal. ;D

Obs katastrophal ist oder nicht war nicht deine Frage. Du hast behauptet, daß 1 GB Ram bei Nvidia für ALLES reicht, und das stimmt ned ;)
Ich schätze mal, wir werden bald >= 1.5Gb Ram bei HighEnd Grakas sehen ;D

derguru
2008-11-10, 05:13:08
versteh ich eh nicht warum nv nicht karten mit 2gb raus gebracht hat wenigstens bei der highend variante,hätte einige mankos gekillt wie die schlechtere performance bei 8msaa.sieht man ja auch wunderbar bei benchmarks bis 1280*1024+8aa ist die 260gtx² mit der 4870 gleichwertig,erst ab der nächsten auflösung verliert sie relative stark an leistung was durch die einfachste lösung mit 2gb behoben würde.ssaa würde auch danken und das sind ja kaum kosten bei ddr3,20-30 euro drauf max.;)

=Floi=
2008-11-10, 05:42:55
imho gab es diese 0.8ns gddr3 chips nicht größer. Ich könnte mir vorstellen, dass nv hier eher sparsam umgeht und wieder nur 1gb verbaut. Das alles kostet geld und das hat nv zz nicht. die marge muß passen und der markt fordert (highend) karten für 200€-300€
imho ist das max rendertaget bei 8192X8192 und somit könnte man mit ssaa auch keine 2gb vram auslasten

Gast
2008-11-10, 09:51:03
versteh ich eh nicht warum nv nicht karten mit 2gb raus gebracht hat wenigstens bei der highend variante,hätte einige mankos gekillt wie die schlechtere performance bei 8msaa.
Hätte nichts gebracht, das "Problem" ist immer noch die einbrechende z-Füllrate.

bei benchmarks bis 1280*1024+8aa ist die 260gtx² mit der 4870 gleichwertigCPU Limit.

Schlammsau
2008-11-10, 10:54:08
Um mal wieder Ontopic zu werden.....noch ein Beispiel wo CF sehr gut skaliert.
Ist im spielbaren Bereich!

http://www.abload.de/img/unbenanntd9gi.jpg


und hier zwar im unspielbaren Bereich. Aber doch sehr beindruckend!

http://www.abload.de/img/unbenanntl4fi.jpg

Sonyfreak
2008-11-10, 11:26:49
Das tut es doch auch. Hilft aber eben nicht immer aber mit normalen Multisampling sieht es noch deutlich schlimmer aus.

Hier mal ein Beispiel Medal of Honor:Airborne achte mal u.a.auf den Boden ;) Auf Bildern lässt sich sowas immer etwas schwer zeigen man muss selber vorm Monitor sitzen und im Level herumlaufen , dann sieht man es sofort.

8xMSAA:
http://img2.imagebanana.com/img/4bczruwq/8xmsaa.png

8xS:
http://img2.imagebanana.com/img/65qyuyd/8xs.pngDas Spiel scheint mit dem SS-Anteil nicht gut zurecht zu kommen, da das gesamt Bild - zumindest bei diesem Beispiel hier - unscharf wird. Und das ist auf keinen Fall der Effekt, den ich mir von den Hybridmodi erwarte. ;)

mfg.

Sonyfreak

Gast
2008-11-10, 12:17:22
Das Spiel scheint mit dem SS-Anteil nicht gut zurecht zu kommen, da das gesamt Bild - zumindest bei diesem Beispiel hier - unscharf wird. Und das ist auf keinen Fall der Effekt, den ich mir von den Hybridmodi erwarte. ;)

mfg.

Sonyfreak

Das liegt daran das das Bild resized ist, klick mal auf das Bild selbst.
In der orginalen Größe sieht es schärfer aus

Mfg

Cubitus

Gast
2008-11-10, 12:20:04
Um mal wieder Ontopic zu werden.....noch ein Beispiel wo CF sehr gut skaliert.
Die Skalierung mit mehr als 2 GPUs ist katastrphal.

Schlammsau
2008-11-10, 13:46:27
Die Skalierung mit mehr als 2 GPUs ist katastrphal.

Aber im Falle von Stalker immernoch besser als von nVidia.

Aber was ich schon sehr krass finde ist die Tatsache, dass in Stalker unter 2560x1600 4xAA eine 4870 schneller als als 3 GTX280 ist! Dass ist echt extrem.......

Natürlich ist es aber in andren Games auch andersherum.

Sonyfreak
2008-11-10, 13:55:29
Das liegt daran das das Bild resized ist, klick mal auf das Bild selbst.
In der orginalen Größe sieht es schärfer ausIch habe mir das Bild selbstverständlich unskaliert angesehen. Trotzdem ist die Hybridvariante unscharf. ;)

8xSAA
http://www.bilderkiste.org/show/original/f14529c827c48c719e0a3292cc3de978/8xSAA.png

8xAA
http://www.bilderkiste.org/show/original/52dea0a05ce3e7924266f86d44e4f48c/8xAA.png

Einfach zwei Tabs im Browser öffnen, und hin und her schalten. Dann ist der Unterschied recht deutlich zu sehen.

mfg.

Sonyfreak

Gast
2008-11-10, 13:57:22
Aber im Falle von Stalker immernoch besser als von nVidia.
"Stalker Clear Sky - 2560x1600 1xAA/16xAF"

1x 4870: 100% ........... 1x GTX 280: 100%
2x 4870: 165% ........... 2x GTX 280: 176%
3x 4870: 213% ........... 3x GTX 280: 233%
4x 4870: 249% ...........

Die % beziehen sich jeweils aufs 1x Modell. ;)

betasilie
2008-11-10, 13:58:56
Das tut es doch auch. Hilft aber eben nicht immer aber mit normalen Multisampling sieht es noch deutlich schlimmer aus.

Hier mal ein Beispiel Medal of Honor:Airborne achte mal u.a.auf den Boden ;) Auf Bildern lässt sich sowas immer etwas schwer zeigen man muss selber vorm Monitor sitzen und im Level herumlaufen , dann sieht man es sofort.

8xMSAA:
http://img2.imagebanana.com/img/4bczruwq/8xmsaa.png

8xS:
http://img2.imagebanana.com/img/65qyuyd/8xs.png
Da wird das Bild aber unscharf. ... Wie auch immer, es ist shcon seltsam, dass auf deinen bishock Bildern einiges an Shaderaliasing scheinbar garnicht wegefiltert wird.

Aber es steht natürlich aßer Frage, dass es trotzdem sehr, sehr gut aussehen sollte. :D

Das Spiel scheint mit dem SS-Anteil nicht gut zurecht zu kommen, da das gesamt Bild - zumindest bei diesem Beispiel hier - unscharf wird. Und das ist auf keinen Fall der Effekt, den ich mir von den Hybridmodi erwarte. ;)

mfg.

Sonyfreak
Auf jeden Fall!. Da wird was unscharf und informationen gehen verloren.













Mal ne kurze Frage ... gibts eigentlich noch die Microruckler, oder sind die behoben mittlerweile?

Schlammsau
2008-11-10, 14:02:50
"Stalker Clear Sky - 2560x1600 1xAA/16xAF"

1x 4870: 100% ........... 1x GTX 280: 100%
2x 4870: 165% ........... 2x GTX 280: 176%
3x 4870: 213% ........... 3x GTX 280: 233%
4x 4870: 249% ...........

Die % beziehen sich jeweils aufs 1x Modell. ;)

Dann schreib die FPS dazu und du wirst sehen wie egal das ist, wenn man durch eine 2 Grafikkarte die 360€ mehr kostet, 1 1/2 frames mehr hat! ;D

derguru
2008-11-10, 14:03:34
ist das bei moha jetzt die ausnahme oder blurt es bei jedem game und kommt es durch das bluren zur verringerung des shaderflimmern.
könnte man ja gleich wide tent nutzen dann gibts den gleichen effekt;)

Gast
2008-11-10, 14:06:30
Mal ne kurze Frage ... gibts eigentlich noch die Microruckler, oder sind die behoben mittlerweile?
Natürlich und diese werden niemals behoben, sonst würden die Balken kürzer werden.

oder blurt es bei jedem game
Meistens läufts korrekt.

Dann schreib die FPS dazu und du wirst sehen wie egal das ist, wenn man durch eine 2 Grafikkarte die 360€ mehr kostet, 1 1/2 frames mehr hat! ;D
Es ist ja nicht so, das CF mit weniger Last besser skaliert. ;)

Raff
2008-11-10, 14:08:04
SSAA blurrt bei einigen (lange nicht allen) Spielen, vor allem, wenn Post Processing zum Einsatz kommt. X3 ist ein aktuelles Beispiel, das exzellent auf SSAA anspricht und dabei scharf bleibt. Mit 16x OGSSAA schaut das Teil richtig fett aus, weil das Shader-Aliasing weg ist.

MfG,
Raff

Sonyfreak
2008-11-10, 14:18:58
SSAA blurrt bei einigen (lange nicht allen) Spielen, vor allem, wenn Post Processing zum Einsatz kommt. X3 ist ein aktuelles Beispiel, das exzellent auf SSAA anspricht und dabei scharf bleibt. Mit 16x OGSSAA schaut das Teil richtig fett aus, weil das Shader-Aliasing weg ist.Eigentlich gibts den Effekt ja erst seit einiger Zeit. Fast alle älteren Spiele sprechen sehr gut auf die Hybridmodi an, und sehen damit einfach fantastisch aus. :)

Leider scheinen sie halt irgendwie inkompatibel zu manchen Postprocessing Effekten zu sein. :(

mfg.

Sonyfreak

Mr.Magic
2008-11-10, 14:20:51
ist das bei moha jetzt die ausnahme oder blurt es bei jedem game und kommt es durch das bluren zur verringerung des shaderflimmern.
könnte man ja gleich wide tent nutzen dann gibts den gleichen effekt;)

Oft kommt der Blur auch von einseitigem Supersampling. Das mag mit Postprocessing einfach nicht so recht. Bei 2x2, 3x3, 8xSQ, 16xS, 4x4 und 32xS ist das Bild normalerweise wieder scharf.

Schlammsau
2008-11-10, 14:37:38
Mir sehen aber diese Hybridmodi auch wie eine riesige Baustelle aus.
Und dann gibt es Leute, denen ist es zuviel eine .exe umzubenennen! *Kopschüttel*

tombman
2008-11-10, 14:39:24
Mir sehen aber diese Hybridmodi auch wie eine riesige Baustelle aus.
Und dann gibt es Leute, denen ist es zuviel eine .exe umzubenennen! *Kopschüttel*
Und wenn du dann 4 games gleichzeitig zockst hast dann 4x: 3dmark06.exe ;D
Dann brauchst wieder Batch-Dateien mit sinnigen Namen und den Links auf die richtige .exes.

So macht CF "Spaß" :lol:

Spasstiger
2008-11-10, 14:40:18
Wie auch immer, es ist shcon seltsam, dass auf deinen bishock Bildern einiges an Shaderaliasing scheinbar garnicht wegefiltert wird.
Ein 2x1-SSAA-Anteil (EER: 2x1) ist noch nicht besonders wirksam gegen starkes Shaderaliasing. Durchschlagend wirksam ist erst ein 3x3- bis 4x4-SSAA-Anteil (EER: 3x3 oder 4x4).

derguru
2008-11-10, 15:03:08
ich hab mal bioshock mit wide tent laufen lassen,vom performanceverlust braucht es sich aber in keinsterweise vor 4x4-SSAA zu verstecken;D
mehr als 5 fps hatte ich an keiner stelle:eek:

4870 1gb CF
1920*1200 32AA Wide Tent/AdaptiveQ/16AF
http://www.abload.de/thumb/bioshock2008-11-1014-50l15.png (http://www.abload.de/image.php?img=bioshock2008-11-1014-50l15.png)

Sonyfreak
2008-11-10, 15:03:20
Ein 2x1-SSAA-Anteil (EER: 2x1) ist noch nicht besonders wirksam gegen starkes Shaderaliasing. Durchschlagend wirksam ist erst ein 3x3- bis 4x4-SSAA-Anteil (EER: 3x3 oder 4x4).Auch 8xSAA hat oft schon einen sehr positiven Einfluss auf flimmernde Texturen und Shaderaliasing. Klar viel hilft hier viel, aber auch die kleinen Modi haben durch den vergleichsweise niedrigen Leistungsverbrauch ihre Daseinsberechtigung finde ich.

mfg.

Sonyfreak

Gast
2008-11-10, 15:24:35
Es muss auch nicht immer 8xS sein, 8xSQ ist auch oft eine Alternative.

Spasstiger
2008-11-10, 15:27:17
Auch 8xSAA hat oft schon einen sehr positiven Einfluss auf flimmernde Texturen und Shaderaliasing. Klar viel hilft hier viel, aber auch die kleinen Modi haben durch den vergleichsweise niedrigen Leistungsverbrauch ihre Daseinsberechtigung finde ich.

mfg.

Sonyfreak
Wenn das Shaderflimmern aber übel ist, dann löst der 2x1-Anteil nicht das Problem, es flimmert weiterhin.
Das vom Gast erwähnt 8xSQ ist dann die bessere Wahl. Oder gleich 16xS, das frisst auch nicht viel mehr.

Raff
2008-11-10, 15:32:58
Es muss auch nicht immer 8xS sein, 8xSQ ist auch oft eine Alternative.

8xSQ läuft langsamer, da es 4x SSAA und 2x MSAA enthält. Des Weiteren ist 8xSQ in vielen Spielen nicht oder nur marginal schneller als das deutlich hübschere 16xS.

MfG,
Raff

Gast
2008-11-10, 15:57:18
Des Weiteren ist 8xSQ in vielen Spielen nicht oder nur marginal schneller als das deutlich hübschere 16xS.

Dieses Bissel kann leider manchmal über Leben und Tod entscheiden. ;)

Gast
2008-11-10, 15:59:22
Und wenn du dann 4 games gleichzeitig zockst hast dann 4x: 3dmark06.exe ;D
Dann brauchst wieder Batch-Dateien mit sinnigen Namen und den Links auf die richtige .exes.

So macht CF "Spaß" :lol:

Wer zockt 4 Games gleichzeitig ? :rolleyes:

derguru
2008-11-10, 16:16:16
ach das ist doch schon lange nicht mehr so schlimm mit den cf profilen,hab schon seit längerm das nicht mehr angewendet.

fallout3,cod5,scared2,stalker cs,crysis warhead,far cry2 (hotfix eigentlich noch zum release) funzt alles wunderbar um ein paar der aktuellen spiele zu nennen.
das einzige von den aktuellen was ich selbst gespielt hatte wo kein cf profil vorhanden war ist dead space aber naja die 100 fps avg hat man auch mit einer karte.

edit:mit 2gpu´s

Schlammsau
2008-11-10, 16:23:38
@Tombman
versteh den Umstand nicht. Auch wenn man 4 Spiele installiert hat , die allesamt kein CF Support haben (was eigentlich absolut ausgeschlossen ist), ist es doch ein leichtes die jeweilige .exe unzubenennen. Du spielst dich doch auch mit verschiedenen AA Modi rum und schaust welcher der beste ist bzw. welcher von denen überhaupt fehlerfrei funktioniert. Da ist der Aufwand doch noch grösser!

Der einzige wirkliche Vorteil von SLi (nVidia) ist doch nur, diese ganzen inoffiziellen Hybrid Modi nutzen zu können, von dem ein casual Spieler keine Ahnung hat. Und das lässt sich nVidia auch gut bezahlen.

Auch beim P/L Verhältniss bei MGPU, geht ATi als Sieger hervor. Da könnt ihr Bildqualitätsfetischisten rummaulen wie ihr wollt. Das hat der Kunde bereits entschieden.

Blaire
2008-11-10, 16:29:40
Das Spiel scheint mit dem SS-Anteil nicht gut zurecht zu kommen, da das gesamt Bild - zumindest bei diesem Beispiel hier - unscharf wird. Und das ist auf keinen Fall der Effekt, den ich mir von den Hybridmodi erwarte. ;)


Das liegt an der Gammakorrektur da gibt es scheinbar ein Problem, wie gesagt die Bilder sind auch schon etwas älter. Selbiges kann man auch bei Jericho beobachten mit Gammakorrektur enabled blurrt es , schaltet man die aus schon ist das Bild ok. Der Effekt ist dennoch der selbe Shaderflimmern wird eliminiert.

Gast
2008-11-10, 16:34:07
Auch wenn man 4 Spiele installiert hat , die allesamt kein CF Support haben (was eigentlich absolut ausgeschlossen ist)
Warum ausgeschlossen?
Du weißt schon, wie viele Spiele es gibt und das selbst bei häufig gebenchten nicht immer ein Profil existiert?

Du spielst dich doch auch mit verschiedenen AA Modi rum und schaust welcher der beste ist bzw. welcher von denen überhaupt fehlerfrei funktioniert.Ja stimmt, das geht bei AMD nicht, wenns kein AA gibt, dann gibts keins.
Oder halt: exe renaming. ;D

Der einzige wirkliche Vorteil von SLi (nVidia) ist doch nur, diese ganzen inoffiziellen Hybrid Modi nutzen zu können, von dem ein casual Spieler keine Ahnung hat. Und das lässt sich nVidia auch gut bezahlen.Bezahlen?
Hybrid Modi kann ich auch auf einer FX 5200 nutzen.
Nur eben das 64x SLI AA gibts nur bei SLi.

Schlammsau
2008-11-10, 16:40:28
Warum ausgeschlossen?
Du weißt schon, wie viele Spiele es gibt und das selbst bei häufig gebenchten nicht immer ein Profil existiert?
Na dann zähl mal auf, welche halbwegs aktuellen Spiele mit dem 8.10 HF2 Catalyst keine Profile haben! Aber Moorhuhn zählt nicht! ;)

Ja stimmt, das geht bei AMD nicht, wenns kein AA gibt, dann gibts keins.
Oder halt: exe renaming. ;D
Was ist daran so schlimm eine Datei umzubennen? Dafür gibt es dutzende Threads allein hier bei uns.
Als Beispiel: Bei UT3 funkt kein AA --- kein Prob die UT3.exe in Bioshock.exe umbenennen, schon geht es! 5 sekunden Arbeit ;)


Bezahlen?
Hybrid Modi kann ich auch auf einer FX 5200 nutzen.
Nur eben das 64x SLI AA gibts nur bei SLi.

Ich rede von dem aktuellem P/L Verhältniss, und da ist ATi der Sieger!

Gast
2008-11-10, 16:53:19
Na dann zähl mal auf, welche Spiele mit dem 8.10 HF2 Catalyst keine Profile haben! Und Moorhuhn zählt nicht!
Jetzt soll ich mir Arbeit machen.


Was ist daran so schlimm eine Datei umzubennen? Dafür gubt es dutzende Threads allein hier bei uns.
Also, da brauchts Freds oder "Razors".
Bei Nvidia brauche ich keinerlei Freds durchlesen.

Als Beispiel: Bei UT3 funkt kein AA --- kein Prob die UT3.exe in Bioshock.exe umbenennen, schon geht es! 5 sekunden Arbeit
Ja, so wie tomban schrieb: 24x 3mark.exe auf einem PC. ;D
Achja, wie toll das andere Dinge auch an der exe hängen, so wie die Cheats in UT3, Call of Duty 4 oder Far Cry 2 ....

Ich rede von dem aktuellem P/L Verhältniss, und da ist ATi der Sieger!
Nö, nur bei ein paar Modellen, gibt auch genug Modelle, wo Nvidia besser dran ist.

Außerdem meinst du nicht Preis/Leistung sondern Preis/FPS.
Ich bevorzuge statt FPS lieber Qualität und FPS, ich brauche keine 200 FPS.

Gast
2008-11-10, 16:53:56
Ups, habe den Gott falschgeschrieben. ;(

Blaire
2008-11-10, 16:55:02
Was ist daran so schlimm eine Datei umzubennen? Dafür gibt es dutzende Threads allein hier bei uns.
Als Beispiel: Bei UT3 funkt kein AA --- kein Prob die UT3.exe in Bioshock.exe umbenennen, schon geht es! 5 sekunden Arbeit ;)


Woher willst du wissen das die Bioshock.exe damit das ganze Spiel fehlerfrei funktioniert? Nur weil ein paar Szenen dann Crossfire besser ausnutzen muss das nicht das ganze Spiel über so sein, das vergesst ihr nämlich immer. Genauso wie Slowdowns und Texturflackern auftreten können weil die falschen Profilbits aktiv sind. Auch bei SLI muss man ab und an nochmal nachhelfen, da ist es gut das man alles selber editieren kann.

Ich rede von dem aktuellem P/L Verhältniss, und da ist ATi der Sieger!

Und wenn die Karten nochmal 50% günstiger sein würden, so liefern sie trotzdem nicht die Qualität die ich wünsche. P/L ist nicht alles, da investier ich gerne etwas mehr, aber ich werde dafür gut bedient.

Schlammsau
2008-11-10, 16:59:49
Woher willst du wissen das die Bioshock.exe damit das ganze Spiel fehlerfrei funktioniert? Nur weil ein paar Szenen dann Crossfire besser ausnutzen muss das nicht das ganze Spiel über so sein, das vergesst ihr nämlich immer. Genauso wie Slowdowns und Texturflackern auftreten können weil die falschen Profilbits aktiv sind. Auch bei SLI muss man ab und an nochmal nachhelfen, da ist es gut das man alles selber editieren kann.

Woher weisst du, dass irgendein innoffizieller AA Hybrid Modi fehlerfrei mit dem und dem Game funktioniert? Richtig, durch probieren und durchwühlen irgendwelcher Foren!


Und wenn die Karten nochmal 50% günstiger sein würden, so liefern sie trotzdem nicht die Qualität die ich wünsche. P/L ist nicht alles, da investier ich gerne etwas mehr, aber ich werde dafür gut bedient.
Und ob P/L alles ist! Gerade in Zeiten, wo das Geld eh so locker sitzt und wir unser Geld nur so zum Fenster rauswerfen können! [ironie ende]

Blaire
2008-11-10, 17:07:45
Woher weisst du, dass irgendein innoffizieller AA Hybrid Modi fehlerfrei mit dem und dem Game funktioniert? Richtig, durch probieren und durchwühlen irgendwelcher Foren!

SLI vs. Crossfire ist das Thema

Und ob P/L alles ist! Gerade in Zeiten, wo das Geld eh so locker sitzt und wir unser Geld nur so zum Fenster rauswerfen können! [ironie ende]

Das entscheidet jeder für sich. Das war nur mein persönlicher Standpunkt der nicht für jeden gelten muss.

Gast
2008-11-10, 17:09:47
Und ob P/L alles ist!
Stimmt, aber Leistung ist mehr als nur theoretische FPS.

Gast
2008-11-10, 17:14:18
Und ob P/L alles ist!

P-L ist wichtig, sehr wichtig sogar, da hast du recht.

Leistung ist allerdings nicht FPS sondern Arbeit/Zeiteinheit, wovon ATI bei der Arbeit massiv einspart, die leistung also nicht höher ist, da weniger arbeit verrichtet wird.

Schlammsau
2008-11-10, 17:14:55
SLI vs. Crossfire ist das Thema
Ganz recht, aber trotzdem ist halbe Thread voll mit irgendwelchen BQ Vergleichen! Ich wollte damit nur aufzeigen, dass sich beide Hersteller nicht mit Ruhm bekleckern.

Das entscheidet jeder für sich. Das war nur mein persönlicher Standpunkt der nicht für jeden gelten muss.
Natürlich und das habe ich dir auch nicht vorgeworfen.

Gast
2008-11-10, 17:17:28
Als Beispiel: Bei UT3 funkt kein AA --- kein Prob die UT3.exe in Bioshock.exe umbenennen, schon geht es! 5 sekunden Arbeit ;)
Und wie siehts bei Bioshock D3D10 aus? :rolleyes:

Ganz recht, aber trotzdem ist halbe Thread voll mit irgendwelchen BQ Vergleichen!
Dafür sind teure Lösungen doch da oder, für BQ. Nur eben das mit einem CF weniger BQ möglich ist, als mit einer Single, Stichwort AI Zwang.

Schlammsau
2008-11-10, 17:17:29
P-L ist wichtig, sehr wichtig sogar, da hast du recht.

Leistung ist allerdings nicht FPS sondern Arbeit/Zeiteinheit, wovon ATI bei der Arbeit massiv einspart, die leistung also nicht höher ist, da weniger arbeit verrichtet wird.

Warum sollte ATi sich massiv Zeit einsparen? Q und AI On ist vergleichbar! Nur weil ATi keinen HQ Mode anbietet, sparen sie sich doch keine Arbeit.
Solange Q mit A.I. Standard verglichen wird, hat keiner einen Vorteil.

Gast
2008-11-10, 17:23:22
Q und AI On ist vergleichbar!
Sagst du.

Nakai
2008-11-10, 17:31:30
Sagst du.

Ist den meisten Leute außerhalb dieses Forums eh egal. Manche führen sich hier auf, als würden sie für den Rest der Welt sprechen. Is zwar ein Freakforum, aber egal.

Die einzigsten zwei Sachen die mich bei ATI nerven sind, dass es kein Stereo3D gibt und die Rezession im NB-Bereich. Evtl. noch die beschissene Treiberpolitik, aber die geht den meisten Menschen am Arsch vorbei.


mfg Nakai

Gast
2008-11-10, 17:32:55
Nur weil ATi keinen HQ Mode anbietet, sparen sie sich doch keine Arbeit.
Doch, gerade deswegen. Was will ich mit Q? Was spart AMD nicht alles bei den Shaderreplacements und den verschwindenen Details?
Oder manche Seiten benchen ja MS (ist ja nicht steuerbar) AAA gegen TSAA.

derguru
2008-11-10, 17:34:25
das haut auch hin,Q ist vergleichbar mit AI on.da gabs schon etliche vergleiche mit crysis.

frag mich warum nv eigentlich nicht darauf rumreitet das z.b. das HQ Af ein gutes stück besser ist als A.I. on.man bekriegt sich ja sonst bei jeder kleinigkeit.

meiner ansicht nach wäre das beste druckmittel;)
mal angenommen nv würde damit werben eine bessere bildqualität zu erzeugen was meint ihr wie schnell ati´s A.I. schnee von gestern wäre:biggrin:

Coda
2008-11-10, 17:38:22
@Tombman
versteh den Umstand nicht. Auch wenn man 4 Spiele installiert hat , die allesamt kein CF Support haben (was eigentlich absolut ausgeschlossen ist), ist es doch ein leichtes die jeweilige .exe unzubenennen. Du spielst dich doch auch mit verschiedenen AA Modi rum und schaust welcher der beste ist bzw. welcher von denen überhaupt fehlerfrei funktioniert. Da ist der Aufwand doch noch grösser!
Das Problem ist, dass die Feinkontrolle komplett fehlt. Ein Profil für ein anderes Spiel ist einfach nicht das Optimum.

Außerdem ist es einfach nur Pfusch. ATI sollte endlich - auch aus anderen Gründen - Treiberprofile anbieten und nicht alles hardcoden. Das ist einfach schlimm so.

=Floi=
2008-11-10, 17:50:07
zitat
Und ob P/L alles ist! Gerade in Zeiten, wo das Geld eh so locker sitzt und wir unser Geld nur so zum Fenster rauswerfen können! [ironie ende]

wenn du kein geld hast ist das dein problem. Es gibt genug leute die einfach mehr geld haben, mehr verdienen, oder einfach mehr sparen als andere...
Wir könnten hier genausogut über die qualitäten eines BMW oder porsche diskutieren...

Schlammsau
2008-11-10, 17:54:41
Das Problem ist, dass die Feinkontrolle komplett fehlt. Ein Profil für ein anderes Spiel ist einfach nicht das Optimum.

Außerdem ist es einfach nur Pfusch. ATI sollte endlich - auch aus anderen Gründen - Treiberprofile anbieten und nicht alles in hardcoden. Das ist einfach schlimm so.

Natürlich könnte da mehr von ATi kommen. Aber es ist nicht so schlimm, wie hier dargestellt. Es wird von vielen hier dargestellt, als würde nichts bei ATi funktionieren. Und dagegen wehre ich mich, weil ich schon postive Erfahrungen gesammelt habe.
Ich sage nicht, dass CF besser als SLi ist. Aber ich sehe CF und SLi auf dem gleichen Niveau mit leichten Vorteilen für SLi.

Gast
2008-11-10, 18:00:25
Und wie siehts bei Bioshock D3D10 aus? :rolleyes:


geht mittlerweile auch.

Gast
2008-11-10, 18:06:25
Warum sollte ATi sich massiv Zeit einsparen? Q und AI On ist vergleichbar!

ist es eben nicht, nichtmal im geringsten.

selbst wenn du bei NV den regler auf high-performance drehst und alle "optimierungen" einschaltest schaffst du es nicht mit G80+ eine derartig schlechte texturfilterung zu erzeugen, wie es ATI@default macht.

treiberdefault bei NV ist Q mit nur der Tri-optimierung aktiv, das ist qualitativ immer noch besser als ATI mit AI-off (ab R600, mit R5xx ist ATI mit AI-off noch besser)

Gast
2008-11-10, 18:08:35
meiner ansicht nach wäre das beste druckmittel;)
mal angenommen nv würde damit werben eine bessere bildqualität zu erzeugen was meint ihr wie schnell ati´s A.I. schnee von gestern wäre:biggrin:

BQ lässt sich leider nicht in balkenlängen visualisieren.

NV kann da im prinzip garnichts machen, das einzige was etwas bringen würde wäre, wenn alle großen review-seiten generell nur mehr mit AI-off benchen würden, das würde bei ATI schnell mal die augen öffnen.

Coda
2008-11-10, 18:08:37
Natürlich könnte da mehr von ATi kommen. Aber es ist nicht so schlimm, wie hier dargestellt. Es wird von vielen hier dargestellt, als würde nichts bei ATi funktionieren. Und dagegen wehre ich mich, weil ich schon postive Erfahrungen gesammelt habe.
Die Treibersituation bei ATI was die Benutzerkontrolle angeht ist einfach grauenhaft, da braucht man ganz sicher nichts beschönigen.

LovesuckZ
2008-11-10, 18:13:41
A.I Off und HQ ist auch eine vergleichbare Situation. :rolleyes:
Wir reden doch hier von Texturfilterung, oder?

derguru
2008-11-10, 18:26:02
durch a.i. off entstehen aber andere probleme wie z.b. das cf keine funktion mehr hat.als cf user ist man gebunden an a.i. on.

hab mal mit a.i. on und ohne die fps verglichen

A.I. OFF A.I. ON

Bioshock 53fps // 56fps
Cod 5 36fps // 37fps
Fallout3 23fps // 24fps
Far Cry2 32fps // 34fps
Dead Space 99fps // 102fps

eine garantie das bei A.I. off mit AF nichts flimmert gibts ja eh nicht,bei Fallout3 flimmert es trotzdem.

Gast
2008-11-10, 19:31:50
Die Ausrede ist schlecht.

Weil mit der beste BQ (die trotzdem nicht an die Konkurrenz herankommt) will, kann nicht die schnellste Grafiklösung nutzen.

Geächteter
2008-11-10, 20:53:05
Die Ausrede ist schlecht.

Weil mit der beste BQ (die trotzdem nicht an die Konkurrenz herankommt) will, kann nicht die schnellste Grafiklösung nutzen.
Ich würde auf dem Fakt jetzt nicht so lange drauf rumhacken. Sonst beseitigt Amd die Unterschiede zwischen AI on und AI off völlig und zwar in Richtung AI on. Dann hat der Schalter nur noch einen Placeboeffekt. War doch genauso wie immer wieder zurecht drauf rumgehackt wurde, dass man doch bitte die Filteroptimierungen von den restlichen Optimierungen trennen könne und schließlich irgendwann wenige Magazine mit AI off benchten.
Was hat Amd gemacht? Die Optimierungen voneinander getrennt, nein die eigentlich gute IQ mit AI@off geopfert und nahezu der schlechteren IQ bei AI@ standard bzw. on angeglichen. Nächster Schritt ist dann den Unterschied ganz zu beseitigen. ;D

Gast
2008-11-10, 21:11:41
durch a.i. off entstehen aber andere probleme wie z.b. das cf keine funktion mehr hat.als cf user ist man gebunden an a.i. on.


richtig, das ist ja das schlimme.


eine garantie das bei A.I. off mit AF nichts flimmert gibts ja eh nicht,bei Fallout3 flimmert es trotzdem.


weil ati seit R600 auch mit AI-off grandios "optimiert"

akuji13
2008-11-10, 21:22:21
Gut Crysis und DX10 sind so ne Sache..
Aber z.b Warhead oder Crysis DX9 würden meine Karten ohne erhebliche Qualitätseinstellungen zum Frühstück verspeisen.

Ich zocke das mit 8xS bzw. Crysis mit 4xS und nativer Auflösung.
Shaderflimmern ade, Das einzige was erheblich limitiert ist die CPU Q6600@3,6 Ghz. Jedenfalls sieht ein flimmerfreies Crysis um weiten besser aus. Für mich hat sich damit schon mal der Sinn von SLI erfüllt.

http://www.abload.de/thumb/unbenanntd9ginkz6.jpg (http://www.abload.de/image.php?img=unbenanntd9ginkz6.jpg)

Wo da SLi/CF was zum Frühstück verpeisen soll, ist mir ein Rätsel.
Für eine solche Leistung von 3 oder gar 4 Grafikkarten in einem Bereich der für die ganz empfindlichen schon unspielbar ist fällt mir ehrlich gesagt nur ein Wort ein....lächerlich.
Und das hat nix mit dem Anderen etwas nicht zu gönnen zu tun.

Mag sein das Crysis & Co. für dich so spielbar sind, ich erwarte bei dem Kostenaufwand sehr viel mehr.


Das klappt aber vor allem bei PC Spielen gepaart mit einer hohen Auflösung und etwas AA meistens nicht. Oft muss man daher Kompromisse eingehen.

Genau deswegen kauft man doch Sli/CF...bei dem Kostenaufwand will ich nur noch ganz wenige Kompromisse eingehen müssen....aber das ist nicht gegeben, die erzielten Frameraten sind deutlich zu gering, genauso wie die Qualisettings.

Gast
2008-11-10, 22:13:58
Ich würde auf dem Fakt jetzt nicht so lange drauf rumhacken.
Ja gut, schweigen wir über die Mängel, aber nicht vergessen wieder laut zu schreien, wenn Nvidia cheated. :rolleyes:

Wir sollen ruhig sein, weil es sein könnte das AMD aufwacht und alles schlimmer macht?
Nein, also das ist keine annehmbare Lösung, ich als Kunde werde nicht ruhig Mängel hinnehmen.

Sonst beseitigt Amd die Unterschiede zwischen AI on und AI off völlig und zwar in Richtung AI on. Dann hat der Schalter nur noch einen Placeboeffekt.
Dann ists aus, dann werde ich AMD meiden und diese Kunde in Foren verbreiten.
Muss ich mit dem Nachteil leben, AMD nicht mehr in der Auswahl zu haben.


Was hat Amd gemacht? Die Optimierungen voneinander getrennt, nein die eigentlich gute IQ mit AI@off geopfert und nahezu der schlechteren IQ bei AI@ standard bzw. on angeglichen. Nächster Schritt ist dann den Unterschied ganz zu beseitigen. AMD wird so oder so einen nächsten Schritt einleiten.
Da es heute niemanden stört, kann man mit HD5 die nächste Optimierungsstufe einleiten.
Das Spiel kennen wir ja von R300-R480, nur das diesmal Nvidia noch nicht mitmacht.

Schlammsau
2008-11-11, 10:22:55
Jetzt kommt mal wieder runter, nur weil ATi seit 2 Generationen die gleich schlechte Filterquali hat. Davor hatte nVidia die schlechtere Bildqualität! Ihr spielt euch mit eurem halbwissen und halbwahrheiten auf, als würde hier jeder genau wissen, was hier abläuft. Euch würde es doch gar nicht auffallen, wenn nicht BQ Guru´s wie Raff und Konsorten, es euch nicht immer wieder einbleuen würden. Huhhhhh.....es flimmert, und immer ist ATi schuld. :hammer:
Nur blöd, dass es oft Kontentabhängig ist, und dann auch auf neueren nVidia Karten flimmern kann. Wie ich diese Hetzreden von gewissen Leuten hier, nicht mehr hören kann! Diese führen nur dazu, dass jeder denkt, jede Art von flimmern in Spielen, sei ATi´s schuld. Erklärt mal einem Noob, was Shaderflimmern ist.
Mir ist auf jedenfall übermässiges Flimmern noch nicht aufgefallen.......

Raff
2008-11-11, 10:37:39
Der Content ist immer maßgeblich. Aber auch guter Content flimmert, wenn der Texturfilter pfuscht. Ebenso kann "grenzwertiger" (hochfrequenter) Content halbwegs flimmerfrei bleiben, wenn der Filter ausreichend sampelt. Und wenn die Spieleentwickler es schon nicht gebacken bekommen, gescheite Shader auf gescheite Texturen zu legen, dann darf nicht noch die Filterung stinken.

Übrigens ist das "gut", wenn jeder denkt, dass Ati am Flimmern schuld ist. Denn dann ändert sich vielleicht etwas. :naughty: Niemand kann mir erzählen, dass ein optionaler HQ-Modus schaden würde. Das kommt uns allen zu Gute. Denen, die das Flimmern ankackt, und denen, die das Meckern wegen des Flimmerns nicht mehr hören/lesen können. ;)

MfG,
Raff

Schlammsau
2008-11-11, 10:44:04
Der Content ist immer maßgeblich. Aber auch guter Content flimmert, wenn der Texturfilter pfuscht. Ebenso kann "grenzwertiger" (hochfrequenter) Content halbwegs flimmerfrei bleiben, wenn der Filter ausreichend sampelt. Und wenn die Spieleentwickler es schon nicht gebacken bekommen, gescheite Shader auf gescheite Texturen zu legen, dann darf nicht noch die Filterung stinken.

Übrigens ist das "gut", wenn jeder denkt, dass Ati am Flimmern schuld ist. Denn dann ändert sich vielleicht etwas. :naughty:

MfG,
Raff

Nein das ist nicht "gut"! Erkläre mal einem Noob der vor einer Kaufentscheidung steht, was der Unterschied von einem Spielabhängigem und einem Filterabhängigem Flimmern ist. Und 80% der Verbraucher sind nunmal Noobs!

Raff
2008-11-11, 10:45:46
Im Grunde ist das wurst. Wenn beide gleich stark/wenig flimmern, muss man das gar nicht mehr erklären, da es irrelevant ist. Ok, bei NV hat man dann immer noch die Möglichkeit, mit der SSAA-Keule zu bügeln ... und bei Ati per Tent-Filter zu matschen.

MfG,
Raff

Schlammsau
2008-11-11, 10:52:16
Im Grunde ist das wurst. Wenn beide gleich stark/wenig flimmern, muss man das gar nicht mehr erklären, da es irrelevant ist. Ok, bei NV hat man dann immer noch die Möglichkeit, mit der SSAA-Keule zu bügeln ... und bei Ati per Tent-Filter zu matschen.

MfG,
Raff

Im Grunde müsstet ihr bei jedem Grafikkarten Generationswechsel Test den ihr macht, auch HQ-Videos von bekannten Games beifügen. Also eins mit maximal möglicher Quali, und eins mit Standard Settings des jeweiligen Herstellers. Damit die Leute auch wissen und sehen können was ihr meint! Mit bekannten Spielen meine ich, mehr als nur Half Life 2. ;)

Sonyfreak
2008-11-11, 11:07:27
Im Grunde müsstet ihr bei jedem Grafikkarten Generationswechsel Test den ihr macht, auch HQ-Videos von bekannten Games beifügen. Also eins mit maximal möglicher Quali, und eins mit Standard Settings des jeweiligen Herstellers. Damit die Leute auch wissen und sehen können was ihr meint! Mit bekannten Spielen meine ich, mehr als nur Half Life 2. ;)Und was würde das bringen? Wenn der Texturfilter einer Karte in einem Spiel schlampt, kann es in anderen Spielen nicht besser werden. Das Thema haben wir mittlerweile aber eh schon dutzende Male besprochen.

mfg.

Sonyfreak

Schlammsau
2008-11-11, 11:13:11
Und was würde das bringen? Wenn der Texturfilter einer Karte in einem Spiel schlampt, kann es in anderen Spielen nicht besser werden.

Was das bringen soll habe ich oben geschrieben!
Achso....wenn es in Spiel Y bescheiden aussieht, muss es ja in Spiel Z auch so aussehen? :hammer: Genau diese Pauschalisierung kann ich nicht ausstehen und zeugt von deiner Unwissenheit!

Cubitus
2008-11-11, 11:14:56
http://www.abload.de/thumb/unbenanntd9ginkz6.jpg (http://www.abload.de/image.php?img=unbenanntd9ginkz6.jpg)

Wo da SLi/CF was zum Frühstück verpeisen soll, ist mir ein Rätsel.
Für eine solche Leistung von 3 oder gar 4 Grafikkarten in einem Bereich der für die ganz empfindlichen schon unspielbar ist fällt mir ehrlich gesagt nur ein Wort ein....lächerlich.
Und das hat nix mit dem Anderen etwas nicht zu gönnen zu tun.

Mag sein das Crysis & Co. für dich so spielbar sind, ich erwarte bei dem Kostenaufwand sehr viel mehr.

Also wir reden von Crysis und du postet Clear Sky Benches :|
Auch ist der Bench nicht ausschlaggebend für die Gesamtperformance.
CB hat sich da wahrscheinlich eine spezielle Szene herausgepickt.
Bei Clear Sky gehen die FPS bei den Sonnenauf und-Untergängen immer drastisch zurück. Ich hab das neulich mit 2xAA, 1920*1200 +DX10 und allen Details mit ca 40-45 FPS avg gespielt. Also über die meiste Zeit lang mit ausreichend hohen FPS.

Und wegen Crysis, hier mal ein paar Screens, 8xSQ, Mstr Config 3 (high),16xAF

http://www.abload.de/img/8xsq.1920.1200.trssaa3ezu.jpg (http://www.abload.de/image.php?img=8xsq.1920.1200.trssaa3ezu.jpg)

und einmal mit 4xMSAA und TRSSAA

http://www.abload.de/img/4xmsaa.trssaa.1920.120i3p7.jpg (http://www.abload.de/image.php?img=4xmsaa.trssaa.1920.120i3p7.jpg)

Die Hybriden Modis funktionieren bei Crysis leider nicht unter DX10, deswegen "nur" in DX9 und mit Vista. Trotzdem, die Leistung kann sich sehen lassen.


Genau deswegen kauft man doch Sli/CF...bei dem Kostenaufwand will ich nur noch ganz wenige Kompromisse eingehen müssen....aber das ist nicht gegeben, die erzielten Frameraten sind deutlich zu gering, genauso wie die Qualisettings.

Auf einzelne Spielszenen sollte man sich nicht festlegen, die Gesamtperfromance ist entscheidend und da hat ganz Klar Multi-Gpu die Nase vorn.

Gast
2008-11-11, 11:36:40
Jetzt kommt mal wieder runter, nur weil ATi seit 2 Generationen die gleich schlechte Filterquali hat.

vor 3 generationen hatten sie immerhin noch bessere BQ.


Davor hatte nVidia die schlechtere Bildqualität!

stimmt, und NV hat offensichtlich davon gelernt, es wäre schön wenn wir den störrischen esel namens ATI auch noch in die richtige richtung lenken könnten.


Nur blöd, dass es oft Kontentabhängig ist, und dann auch auf neueren nVidia Karten flimmern kann.

richtig, nur flimmert schlechter content+ schlechter filter um größenordnungen mehr als schlechter content und ordentlicher filter.


Wie ich diese Hetzreden von gewissen Leuten hier, nicht mehr hören kann! Diese führen nur dazu, dass jeder denkt, jede Art von flimmern in Spielen, sei ATi´s schuld.


zumindest ist jegliches texturflimmern bei ATI deutlich stärker, besonderst bei zu hochfrequentem content.


Mir ist auf jedenfall übermässiges Flimmern noch nicht aufgefallen.......

schön für dich, nur lass denen die nach mehr BQ schreien ihre meinung. ich bin mir sicher, dass du selbst wenn ATI mal lernen sollte wie man ordentlich filtert immer noch mit flimmern spielen kannst.

Sonyfreak
2008-11-11, 12:58:09
Achso....wenn es in Spiel Y bescheiden aussieht, muss es ja in Spiel Z auch so aussehen? :hammer: Genau diese Pauschalisierung kann ich nicht ausstehen und zeugt von deiner Unwissenheit!Diese Pauschalisierung ist logisch und meine Tests haben mir genau dasselbe Bild gezeigt. Wenn eine Textur in Quake 3 flimmert, würde die selbe Textur auch in CoD4, Crysis, Warhammer Online oder Doom 3 so aussehen. Das ist ja nicht vom Spiel abhängig, sondern vom verwendeten Content.

mfg.

Sonyfreak

Banshee18
2008-11-11, 13:09:39
Ich verstehe nicht, warum viele diese ganzen Mängel und Nachteile bei ATi einfach so hinnehmen und auch noch jede Menge Geld dafür hinblättern. Ginge es um Waschmaschinen, würde wahrscheinlich jeder Meckern und niemand käme auf die Idee, das schlechtere, mit deutlich mehr Mängeln behaftete Produkt zu kaufen.

Warum ist das bei Grafikkarten so? Klärt mich auf.

derguru
2008-11-11, 13:18:04
früher war alles besser kann ich aber auch nicht bestätigen,mit meiner ersten radeon karte
(ATI Radeon 64 MB DDR Vivo) gabs auch extrem starkes flimmern gerade in games wie q3.hab sicherlich keiner beweise mehr ist schon paar tage her.mit welcher ati karten generation war denn af flimmerfrei?

Schlammsau
2008-11-11, 13:39:53
Ich verstehe nicht, warum viele diese ganzen Mängel und Nachteile bei ATi einfach so hinnehmen und auch noch jede Menge Geld dafür hinblättern. Ginge es um Waschmaschinen, würde wahrscheinlich jeder Meckern und niemand käme auf die Idee, das schlechtere, mit deutlich mehr Mängeln behaftete Produkt zu kaufen.

Warum ist das bei Grafikkarten so? Klärt mich auf.

Weil die Mängel wohl doch nicht so gravierend sind wie du denkst. Weil der Kosten/Nutzen Effekt trotzdem sehr gut bei ATi ist. Du kannst auch mit schlechteren Filtern ein Spiel, genauso wie auf nV Hardware zocken.

Und ich kenne viele, denen die Filterqualität am Arsch vorbei geht, weil sie zocken wollen und nicht mit einer Lupe vorm Bildschirm hängen! Ob du´s glaubst oder nicht, die meisten wissen gar nicht was AA und AF ist!

Spasstiger
2008-11-11, 13:59:38
Wahrscheinlich bemerken 99% der Käufer gar keinen Unterschied in der Bildqualität zwischen NV und ATI. Da müssen schon deftige Kaliber her wie Gamma- und Sättigungsunterschied, um die Leute im Glauben an ein besseres Bild zu lassen. Z.B. finde manche die Digital-Vibrance-Funktion bei NV ganz toll und meinen, dass wegen solchen Dingen die Bildqualität besser sei.

betasilie
2008-11-11, 14:07:33
Weil die Mängel wohl doch nicht so gravierend sind wie du denkst. Weil der Kosten/Nutzen Effekt trotzdem sehr gut bei ATi ist. Du kannst auch mit schlechteren Filtern ein Spiel, genauso wie auf nV Hardware zocken.

Und ich kenne viele, denen die Filterqualität am Arsch vorbei geht, weil sie zocken wollen und nicht mit einer Lupe vorm Bildschirm hängen! Ob du´s glaubst oder nicht, die meisten wissen gar nicht was AA und AF ist!
Mir geht das Filtern nicht am Arsch vorbei und ich bin trotzdem sehr zufrieden mit ATI. ... Witzig ist doch auch, dass viele leute, die heute über ATI meckern, trotzdem ihre NV-Karten gekauft haben, als ATI eherblich besser gefiltert hat.

Ich bin jedenfalls zufrieden mit der BQ bei ATI mit 4*AA und 8-16xAF, auch wenn es schön wäre, wenn dem User mehr selber überlassen werden würde.

Und dem Mainstream geht das ohnehin am .... vorbei. Die machen ja nichtmal AF an, weil sie nicht wissen was das ist.

Sonyfreak
2008-11-11, 14:12:46
Und ich kenne viele, denen die Filterqualität am Arsch vorbei geht, weil sie zocken wollen und nicht mit einer Lupe vorm Bildschirm hängen! Ob du´s glaubst oder nicht, die meisten wissen gar nicht was AA und AF ist!Wir sind hier aber nicht irgendwo, sondern im 3DCenter. Und auf diesem Niveau diskutieren wir, und nicht darunter.
Wahrscheinlich bemerken 99% der Käufer gar keinen Unterschied in der Bildqualität zwischen NV und ATI.Klar, nur die allerwenigsten Leute sehen einen Unterschied. Früher (zu Geforce 3 Zeiten), als ich mich für das Thema noch nicht interessiert habe, habe ich immer auf Performance gezockt. Ich wusste gar nicht was der Regler im Treiberpanel überhaupt bewirkt und habe auch keine Veränderung der Bildqualität ausmachen können.
Als Playstation-Zocker war man da ja schließlich ganz andere Kaliber gewohnt. Mit der Zeit habe ich mich allerdings an die Bildverbesserer (AA und AF) gewöhnt, und möchte ohne sie eigentlich nicht mehr auskommen. Heute regt mich selbst ein leichtes Flimmern schon ziemlich auf. Es ist halt ein Teufelskreis, aber das kann man nicht ändern.

Auf eine Flimmerkarte wie meine damalige Geforce 7900GT möchte ich heutzutage auf keinen Fall mehr zurückwechseln. Brr... :redface:
Da müssen schon deftige Kaliber her wie Gamma- und Sättigungsunterschied, um die Leute im Glauben an ein besseres Bild zu lassen. Z.B. finde manche die Digital-Vibrance-Funktion bei NV ganz toll und meinen, dass wegen solchen Dingen die Bildqualität besser sei.Ich nutze Digital-Vibrance, da mir das Bild damit besser gefällt. :D

mfg.

Sonyfreak

reunion
2008-11-11, 14:15:14
Witzig ist doch auch, dass viele leute, die heute über ATI meckern, trotzdem ihre NV-Karten gekauft haben, als ATI eherblich besser gefiltert hat.


Genau das ist der Punkt. Früher eine noch erheblich schlechter filternde GF7XXX gekauft zu haben, und sich dann jetzt hier hinzustellen und die Texturfilter bei ATi zu kritisieren ist schon etwas billig. Aber eine sachliche Diskussion ist bei so einem Thema wohl kaum möglich. Und um das klar zu stellen: Auch ich habe erhebliche Probleme mit den mangelnden Einstellmöglichkeiten im ATi-Treiber, weswegen ich auch seit der X1950pro keine ATi-karte mehr gekauft habe und aktuell eine 8800GTS512 verwende.

Raff
2008-11-11, 14:26:43
Auf eine Flimmerkarte wie meine damalige Geforce 7900GT möchte ich heutzutage auf keinen Fall mehr zurückwechseln. Brr... :redface:

Hehe. Prä-G80-Qualität ist allen in unglaublich schlechter Erinnerung. Dabei ist HQ auf NV4x und G7x gar nicht übel – davon habe ich mich erst letzte Woche wieder am selben Bildschirm überzeugen lassen. Es flimmert oft weniger als bei A.I. Schlimm ist jedoch die Winkelabhängigkeit, die diversen Winkeln nur 4:1 oder gar 2:1 AF spendiert. Hier hilft aber auch SSAA. Ich hab' auf meiner GF 6800 anno 2005 auch flimmerfreies, echtes 8x (4x OGSSAA + "16x" AF) bzw. 16x AF (16x OGSSAA + "16x" AF) gehabt. ;)

MfG,
Raff

reunion
2008-11-11, 14:31:25
Bleibt die Frage ob HQ auf NV4x/G7x mit heutigen Treibern überhaupt noch so aussieht wie damals. Wäre ja nicht das erste mal das nV nach dem erscheinen einer neuen Generation die BQ bei der alten plötzlich wieder hochschraubt. Es wurde damals wohl nicht ohne Grund von vielen namhaften Testern HQ vs. AIon verglichen und als gleichwertig befunden.

Gast
2008-11-11, 14:36:55
Hehe. Prä-G80-Qualität ist allen in unglaublich schlechter Erinnerung. Dabei ist HQ auf NV4x und G7x gar nicht übel
Tja, die Artikel waren eben sehr einseitig damals, R5xx hat ja niemand so recht durch gecheckt und jetzt ist Nvidia böse, weils auf Q nicht so toll war.

Ist da zufällig ein Artikel in der Pipeline? ;)

Raff
2008-11-11, 14:39:53
Da hat sich IMO nichts geändert. Es hat sich nur die Sicht der Nutzer verändert. Mit R4x0 hat Radeon-AF noch nicht ganz so evil ausgesehen, erst mit dem R520 tat sich etwas. Ich weiß es nicht mehr genau, es hatte aber etwas mit erhöhter Genaugkeit bei der MIP-Map-Berechnung zu tun, was Banding verstärkte. Das ziehen alle Nachfolge-Radeons mit sich. Letztere haben im Vergleich mit NV4x/G7x "nur" die Winkelunabhängigkeit als Vorteil, das Flimmern ist durchaus vergleichbar (mal rockt das eine, mal das andere mehr).

MfG,
Raff

Spasstiger
2008-11-11, 14:43:52
Ich nutze Digital-Vibrance, da mir das Bild damit besser gefällt. :D

mfg.

Sonyfreak
Gut, ich muss zugeben, dass ich es bei einem Bekannten, dem ich einen Rechner zusammengebaut hab, auch reingeknallt habe. Für mich persönlich wäre das aber nix. weil Farben verfälscht werden und Farbverläufe evtl. nicht mehr weich sind, sondern Abstufungen oder Querstreifen drin haben.

Schlammsau
2008-11-11, 14:47:31
Letztere haben im Vergleich mit NV4x/G7x "nur" die Winkelunabhängigkeit als Vorteil, das Flimmern ist durchaus vergleichbar (mal rockt das eine, mal das andere mehr).

MfG,
Raff

Videovergleich! Du hast doch sämtliche Karten bei dir. Und vielleicht bringst du mich so mal zum schweigen. :cool:

Raff
2008-11-11, 14:52:11
Videovergleich! Du hast doch sämtliche Karten bei dir. Und vielleicht bringst du mich so mal zum schweigen. :cool:

Ein Video sieht nie aus wie die Realität, es ist immer nur 'ne Annäherung Du könntest mir und den ganzen anderen Heulern ;) auch einfach glauben, wie wär's?

MfG,
Raff

Schlammsau
2008-11-11, 15:01:06
Ein Video sieht nie aus wie die Realität, es ist immer nur 'ne Annäherung Du könntest mir und den ganzen anderen Heulern ;) auch einfach glauben, wie wär's?

MfG,
Raff

Ein mit FRAPS aufgezeichnetes Video sollte doch gehen. Natürlich muss man es noch komprimieren.....
Ich bin nicht leicht zu überzeugen. Du und die anderen "Heuler" müssen mir schon gute Beweise liefern. :biggrin:

Sonyfreak
2008-11-11, 15:03:12
Hehe. Prä-G80-Qualität ist allen in unglaublich schlechter Erinnerung. Dabei ist HQ auf NV4x und G7x gar nicht übel – davon habe ich mich erst letzte Woche wieder am selben Bildschirm überzeugen lassen. Es flimmert oft weniger als bei A.I. Schlimm ist jedoch die Winkelabhängigkeit, die diversen Winkeln nur 4:1 oder gar 2:1 AF spendiert. Hier hilft aber auch SSAA. Ich hab' auf meiner GF 6800 anno 2005 auch flimmerfreies, echtes 8x (4x OGSSAA + "16x" AF) bzw. 16x AF (16x OGSSAA + "16x" AF) gehabt. ;)Als ich damals vor ziemlich genau zwei Jahren meine Geforce 7 bekommen habe, war ich einfach nur rundum enttäuscht von der Karte: Miese Bildqualität (winkelabhängiges AF und Flimmern) und trotz OC viel zu lahm für damals aktuelle Spiele. Die Möglichkeit darauf ernsthaft SSAA einzusetzen war zu keiner Zeit gegeben. Das damals nicht mehr wirklich aktuelle Far Cry habe ich beispielsweise mit 2xTMSAA und 4xAF auf 1152x864 spielen müssen, weil alles darüber einfach undenkbar war. :(

Das theoretisch herausholbare BQ-Maximum dieser Karte war natürlich wesentlich höher, aber das nutzbare halt leider nicht.
Gut, ich muss zugeben, dass ich es bei einem Bekannten, dem ich einen Rechner zusammengebaut hab, auch reingeknallt habe. Für mich persönlich wäre das aber nix. weil Farben verfälscht werden und Farbverläufe evtl. nicht mehr weich sind, sondern Abstufungen oder Querstreifen drin haben.Wenn die Farben nicht verfälscht werden dürfen, ist DV sicher nicht empfehlenswert. Für den normalen Spieler der gerne kräftige Farben hat, kann ich es hingegen schon empfehlen.
Videovergleich! Du hast doch sämtliche Karten bei dir. Und vielleicht bringst du mich so mal zum schweigen. :cool:Ich habe schon vor einiger Zeit - soweit ich mich erinnern kann sogar in einem deiner Threads - einen Videovergleich (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6187566&highlight=g80+rv630+sonyfreak#post6187566) (G80 vs. RV630) geliefert, der das Problem eindeutig sichtbar gemacht hat. ;)

mfg.

Sonyfreak

Coda
2008-11-11, 15:09:53
Genau das ist der Punkt. Früher eine noch erheblich schlechter filternde GF7XXX gekauft zu haben, und sich dann jetzt hier hinzustellen und die Texturfilter bei ATi zu kritisieren ist schon etwas billig.
Bla. Ich habe damals schon über NV4x/G7x geflucht. Kannst du gerne im Forum suchen.

Schlammsau
2008-11-11, 15:11:48
Ich habe schon vor einiger Zeit - soweit ich mich erinnern kann sogar in einem deiner Threads - einen Videovergleich (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6187566&highlight=g80+rv630+sonyfreak#post6187566) (G80 vs. RV630) geliefert, der das Problem eindeutig sichtbar gemacht hat. ;)

mfg.

Sonyfreak

Das scheine ich irgendwie übersehen zu haben. Werd mir das Video saugen und dann sehen wir weiter!

Edit: HQ gegen AI Standard zu testen ist :nono:. Ich rede hier die ganze Zeit von Vergleichbaren Einstellungen, wie Q gegen AI Standard oder AI Off und HQ!

reunion
2008-11-11, 15:11:56
Bla.

Ja du mich auch.


Ich habe damals schon über NV4x/G7x geflucht. Kannst du gerne im Forum suchen.

Dann solltest du deine Kaufentscheidungen vielleicht mal überdenken.

Coda
2008-11-11, 15:13:19
War fast genau die gleiche Situation wie damals. Ich wollte auf jeden Fall SM3 und hab über den Filter geflucht, heute wollte ich SM 4.1 und fluche wieder über die Filter. Nur war mir SM3 damals noch wichtiger als heute 4.1.

Ich sehe das Problem nicht. Du hast offenbar eine verzerrte Realitätswahrnehmung.

reunion
2008-11-11, 15:14:43
Mit R4x0 hat Radeon-AF noch nicht ganz so evil ausgesehen, erst mit dem R520 tat sich etwas. Ich weiß es nicht mehr genau, es hatte aber etwas mit erhöhter Genaugkeit bei der MIP-Map-Berechnung zu tun, was Banding verstärkte. Das ziehen alle Nachfolge-Radeons mit sich.

IMO liegt das nicht an einer erhöhten Genauigkeit, sondern schlicht und einfach daran, dass bei R4xx noch keine Samples eingespart wurden. R4xx filterte nur bri, erst R5xx hatte hier weitreichendere Optimierungen.

Sonyfreak
2008-11-11, 15:20:31
Edit: HQ gegen AI Standard zu testen ist :nono:. Ich rede hier die ganze Zeit von Vergleichbaren Einstellungen, wie Q gegen AI Standard!Man kann in HL2 HQ nur mit AIStandard vergleichen, da AIoff leider zu Bildfehlern führt. Darüber wurde - soweit ich mich erinnern kann - auch in dem oben genannten Fred diskutiert. ;)

Ein Test Q gegen AIStandard ist für mich uninteressant, da ich niemals auf Q spielen werde und würde.

mfg.

Sonyfreak

Schlammsau
2008-11-11, 15:25:06
Man kann in HL2 HQ nur mit AIStandard vergleichen, da AIoff leider zu Bildfehlern führt. Darüber wurde - soweit ich mich erinnern kann - auch in dem oben genannten Fred diskutiert. ;)

Ein Test Q gegen AIStandard ist für mich uninteressant, da ich niemals auf Q spielen werde und würde.

mfg.

Sonyfreak

Du vielleicht nicht, aber 90% der anderen nVidia Nutzer, die nichteinmal wissen wie man einen Treiber richtig anstalliert.

reunion
2008-11-11, 15:28:27
War fast genau die gleiche Situation wie damals. Ich wollte auf jeden Fall SM3 und hab über den Filter geflucht, heute wollte ich SM 4.1 und fluche wieder über die Filter. Nur war mir SM3 damals noch wichtiger als heute 4.1.

Ich sehe das Problem nicht. Du hast offenbar eine verzerrte Realitätswahrnehmung.

Tja, alles eine Frage der Prioritäten nicht wahr? Die eierlegende Wollmilchsau wurde eben noch nicht erfunden. Nur offenbar hat dir ja auch G7x-Qualität genügt um nicht von einem Kauf abzusehen. Was das mit meiner Wahrnehmung der "Realität" (wer definiert überhaupt wer oder was die Realität ist oder wer diese korrekt wahrnimmt?) zu tun haben soll erschließt sich mir allerdings nicht im geringsten. Aber vermutlich wolltest du ohnehin nur ein wenig nachtreten.

Sonyfreak
2008-11-11, 15:29:14
Du vielleicht nicht, aber 90% der anderen nVidia Nutzer, die nichteinmal wissen wie man einen Treiber richtig anstalliert.
Wir sind hier aber nicht irgendwo, sondern im 3DCenter. Und auf diesem Niveau diskutieren wir, und nicht darunter.:rolleyes:

Schön langsam nervt mich meine Funktion als Gebetsmühle.

Wenn du mit der Qualität so zufrieden bist, dann freu ich mich für dich. Aber dann misch dich doch bitte nicht immer und immer wieder in die BQ-Diskussionen ein, wenn du ohnehin nicht weißt worum es geht. Ich rede ja auch nicht dauernd im Silent-Forum mit, weil mir der Diskussionsstoff teilweise einfach am Popo vorbei geht.

mfg.

Sonyfreak

Coda
2008-11-11, 15:29:52
Ich bin der Meinung, dass Leute die High-End kaufen auch High-End-Bildqualität haben könnten.

Wenigstens auf den 4870- und GTX 2xx-Karten könnte man standardmäßig volle Filterqualität anbieten. Aber nein, man muss ja lange Balken haben.

Tja, alles eine Frage der Prioritäten nicht wahr? Die eierlegende Wollmilchsau wurde eben noch nicht erfunden. Nur offenbar hat dir ja auch G7x-Qualität genügt.
Hat sie nicht, ich hatte nur keine andere Wahl. Ich kann nicht dauernd die Karten tauschen nur wenn ich mal was spielen will.

reunion
2008-11-11, 15:35:09
Ich bin der Meinung, dass Leute die High-End kaufen auch High-End-Bildqualität haben könnten.

Ich denke das sieht niemand anders, aber nicht nur für High-End-Karten. Man kann ja gerne die Option auf schlechtere IQ bei unzureichender Leistung anbieten, aber man sollte als User auch immer die Wahl haben wie man die Leistung steigern will.


Wenigstens auf den 4870- und GTX 2xx-Karten könnte man standardmäßig volle Filterqualität anbieten. Aber nein, man muss ja lange Balken haben.

Die Hersteller geben das, was der User verlangt. So einfach ist das. Und solange der Balken der Maßstab ist, wird sich daran auch nichts ändern.

Coda
2008-11-11, 15:39:07
Die Hersteller geben das, was der User verlangt. So einfach ist das. Und solange der Balken der Maßstab ist, wird sich daran auch nichts ändern.
Das weiß ich doch selber, gut finde ich es trotzdem nicht. Und ich hör deshalb auch ganz sicher nicht auf dagegen zu meckern.

Und NEIN das hat nichts mit dem IHV zu tun. Ich wehre mich vehement gegen solchen Unsinn. ATI gibt mir nur fast immer mehr Grund zu fluchen, da kann ich auch nichts dafür.

Gast
2008-11-11, 15:54:27
Die Hersteller geben das, was der User verlangt. So einfach ist das. Und solange der Balken der Maßstab ist, wird sich daran auch nichts ändern.Warum ist den der Balken der Maßstab?
Weil jeder Heinz Kunz und jede Zeitschrift Grafikkarten "benchmarkt" und die FPS notiert, mehr nicht.

Banshee18
2008-11-11, 15:55:53
Weil die Mängel wohl doch nicht so gravierend sind wie du denkst. Weil der Kosten/Nutzen Effekt trotzdem sehr gut bei ATi ist. Du kannst auch mit schlechteren Filtern ein Spiel, genauso wie auf nV Hardware zocken.

Und ich kenne viele, denen die Filterqualität am Arsch vorbei geht, weil sie zocken wollen und nicht mit einer Lupe vorm Bildschirm hängen! Ob du´s glaubst oder nicht, die meisten wissen gar nicht was AA und AF ist!
Ich kann Spiele auch ohne Grafikfilter mit Pointsampling zocken.
Ein Missstand muss kritisiert werden, auch wenn viele ihn nicht bemerken. Immer zu behaupten, dass sei garnicht schlimm, ist in meinen Augen katastrophal. Irgendwann haben wir wieder starke Winkelabhängigkeit und ein Flimmern wie bei G70 Q.
Es soll ja Gaststätten geben, wo man manchmal verschimmeltes Zeugs bekommt. Ist das nicht schlimm, weils niemand bemerkt? Wenn ich für etwas bezahle, will ich optimale Qualität.
Witzig ist doch auch, dass viele leute, die heute über ATI meckern, trotzdem ihre NV-Karten gekauft haben, als ATI eherblich besser gefiltert hat.
Ich habe mir einen R520 und einen R580 gekauft, weil ich einen winkelunabhängigeren anisotropen Filter wollte (und AA in Spielen, die HDRR nutzen).

Ich denke das sieht niemand anders, aber nicht nur für High-End-Karten. Man kann ja gerne die Option auf schlechtere IQ bei unzureichender Leistung anbieten, aber man sollte als User auch immer die Wahl haben wie man die Leistung steigern will.

Doch, genau das ist das Problem. Schlammsau z.B. meint ja, es sei egal, da es 90% eh nicht sehen und dass unsere Kritik überzogen sei.

derguru
2008-11-11, 16:33:53
amd wird den teufel tun und irgendwas verändern solange die karten wie warme semmel verkauft werden.solang nur eine"minderheit"kritik ausübt wird es amd nicht mal ansatzweise jucken.
so eine kritikflut wie hier im forum gibts wahrscheinlich nur einmalig im netz.(ob die kritik gerechtfertig ist oder nicht ist erstmal nicht entscheidend)
als ob es ein wunschkonzert ist,ich will dies und das und dann am besten für 100euro
wenn wenigstens durch die kritk was dabei raus kommen würde.:|

Psychopat
2008-11-11, 17:00:07
Ich denke wir sind unserer Zeit mit unseren Qualitätsansprüchen einfach voraus. Ich stelle mir hier den Vergleich mit HiFi-Anlagen vor. Zu Zeiten von Schallplatten hat das Rauschen keinen gestört. Mit dem Aufkommen der CD's gab es überhaupt erst hochqualitative Medien. Ab dann haben die Leute erst beim Kauf einer Anlage nicht mehr nur auf die maximale Lautstärke geachtet. Und mittlerweile ist den meisten klar das 1000 Euro Boxen durchaus ihr Geld wert sind.

Bei der Grafik wird auch bald eine Sensibilisierung einsetzten. Wir kommen bei den Medien allmählich in den Bereich des sinkenden Grenzertrags, wo der Aufwand nicht mehr den Qualitätsgewinn rechtfertigt bzw. der kaum noch sichtbar ist (z.b. 8xMSAA vs 16xMSAA). Wenn eine neue Engine rauskommt und die Leute nicht mehr sagen "Boah, die sieht ja viel besser aus als die alte", wird man sich allmählich weniger auffälligen Details zuwenden bei der Bewertung der Hardware als "kann die neue Engine darstellen" (=FPS).

Banshee18
2008-11-11, 17:07:22
amd wird den teufel tun und irgendwas verändern solange die karten wie warme semmel verkauft werden.solang nur eine"minderheit"kritik ausübt wird es amd nicht mal ansatzweise jucken.

als ob es ein wunschkonzert ist,ich will dies und das und dann am besten für 100euro
Kein Wunschkonzert oder Extrawürste, sondern sehr gute Qualität ist das, was wir für unser Geld wollen. Hätten ATi-Karten die Features von nV-Karten, dann hätte ich und mit Sicherheit viele andere, die jetzt eine nV haben, schon lange eine ATi. Für eine solche X2 würde ich auch 600€ hinblättern. Jaja, wir sind leider eine Minderheit.
wenn wenigstens durch die kritk was dabei raus kommen würde.:|
Das Problem hast du selbst genannt (siehe erstes Zitat).

Gast
2008-11-11, 17:19:17
früher war alles besser kann ich aber auch nicht bestätigen,mit meiner ersten radeon karte
(ATI Radeon 64 MB DDR Vivo) gabs auch extrem starkes flimmern gerade in games wie q3.

vor R300 war der texturfilter bei ATI ja grauenhaft, kein wunder dass es da geflimmert hat, wenn man das als vergleich her nimmt filtern die heutigen ATI-karten wirklich gut

Sonyfreak
2008-11-11, 17:19:38
Ich denke wir sind unserer Zeit mit unseren Qualitätsansprüchen einfach voraus. Ich stelle mir hier den Vergleich mit HiFi-Anlagen vor. Zu Zeiten von Schallplatten hat das Rauschen keinen gestört. Mit dem Aufkommen der CD's gab es überhaupt erst hochqualitative Medien. Ab dann haben die Leute erst beim Kauf einer Anlage nicht mehr nur auf die maximale Lautstärke geachtet. Und mittlerweile ist den meisten klar das 1000 Euro Boxen durchaus ihr Geld wert sind.

Bei der Grafik wird auch bald eine Sensibilisierung einsetzten. Wir kommen bei den Medien allmählich in den Bereich des sinkenden Grenzertrags, wo der Aufwand nicht mehr den Qualitätsgewinn rechtfertigt bzw. der kaum noch sichtbar ist (z.b. 8xMSAA vs 16xMSAA). Wenn eine neue Engine rauskommt und die Leute nicht mehr sagen "Boah, die sieht ja viel besser aus als die alte", wird man sich allmählich weniger auffälligen Details zuwenden bei der Bewertung der Hardware als "kann die neue Engine darstellen" (=FPS).Im Zeitalter von DVB-T und MP3 am Handy ist das leider ein Wunschdenken. ;(

mfg.

Sonyfreak

Gast
2008-11-11, 17:24:19
Ein mit FRAPS aufgezeichnetes Video sollte doch gehen. Natürlich muss man es noch komprimieren.....

das ist eben der fehler, für einen vergleich bräuchte man unkomprimiertes videomaterial, zumindest in der kleinen HD-auflösung, alles andere hat keinen sinn.

dafür reichen die heutigen bandbreiten leider bei weitem nicht aus ;)

Raff
2008-11-11, 17:25:32
vor R300 war der texturfilter bei ATI ja grauenhaft, kein wunder dass es da geflimmert hat, wenn man das als vergleich her nimmt filtern die heutigen ATI-karten wirklich gut

Gegenüber R200-AF (Radeon 8500) ist sogar NV4x/G7x-Quality mitsamt allen "Optimierungen" relativ hübsch. X-D

MfG,
Raff

derguru
2008-11-11, 17:34:05
Kein Wunschkonzert oder Extrawürste, sondern sehr gute Qualität ist das, was wir für unser Geld wollen. Hätten ATi-Karten die Features von nV-Karten, dann hätte ich und mit Sicherheit viele andere, die jetzt eine nV haben, schon lange eine ATi. Für eine solche X2 würde ich auch 600€ hinblättern. Jaja, wir sind leider eine Minderheit.

Das Problem hast du selbst genannt (siehe erstes Zitat).
wieso würdest du denn bei gleicher bildqualität von nv zu ati wechseln.ist es nicht wurscht dann welche karte man kauft?oder wird das jetzt die solidaritätsnr.?(da sollte man eh aufpassen noch so eine"talfahrt" wie jetzt von nv dann sieht es bei denen auch nicht mehr rosig aus)

so wie du es beschreibst könnte man ja schon behaupten das du selbst ati anhänger bist und wegen der "der mangel"den totalen frust verbreitest.
ehrlich gesagt würde ich wegen HQ AF keine 250 euro mehr zahlen,das wäre es mir nicht wert aber das ist ansichtssache.

Banshee18
2008-11-11, 17:51:26
wieso würdest du denn bei gleicher bildqualität von nv zu ati wechseln.ist es nicht wurscht dann welche karte man kauft?
Wenn Preis und Performance gleich wären, wäre es egal. Das €-pro-fps-Verhältnis ist aber ganz gut bei ATi und das wäre es mit Sicherheit auch noch mit hochwertigem AF. Soviel Power wie mit der X2 bekomme ich von nV nicht mit einer Karte.
so wie du es beschreibst könnte man ja schon behaupten das du selbst ati anhänger bist und wegen der "der mangel"den totalen frust verbreitest.
ehrlich gesagt würde ich wegen HQ AF keine 250 euro mehr zahlen,das wäre es mir nicht wert aber das ist ansichtssache.
Ich bin Anhänger von guter Qualität. Welcher Markenname auf dem Produkt steht, ist mir dabei schnuppe. Wenn mehrere IHVs gute Qualität liefern würden, hätte ich die Wahl, die ich momentan leider nicht habe.
Nur für HQ-AF würde ich auch nicht 250€ mehr Zahlen, aber für die Power der X2 vereint mit gutem AF, guter Profilverwaltung, SSAA und AA in mehr Spielen und das, ohne dass ich die exe umbenennen muss.

Gast
2008-11-11, 17:55:53
vor R300 war der texturfilter bei ATI ja grauenhaft, kein wunder dass es da geflimmert hat, wenn man das als vergleich her nimmt filtern die heutigen ATI-karten wirklich gut
Mal kurz die Qualiät des Texturfilter zusammengefasst:
War R300 wirklich besser als R300?
Nach R300 gings ja immer nur bergab (Ausnahme R5xx), so toll ist diese Entwicklung nicht.

Nakai
2008-11-11, 18:09:31
Doch, genau das ist das Problem. Schlammsau z.B. meint ja, es sei egal, da es 90% eh nicht sehen und dass unsere Kritik überzogen sei.

Für Freaks gewiss nicht, aber für Leute die keinen Unterschied feststellen.
Für den meisten Kundekreis zähln nur FPS, ich kenn das selber aus einigen anderen Forum. Selbst in meinen Freundeskreis. Ich wurde mal auf neuere Grafikkarten angesprochen und gefragt, welche die bessere ist. Meine Antwort, ATI is schneller, aber NV bietet ne bessere Bildqualität. Der wollte dann unbedingt ne NV haben, spielte aber selber Flatout mit ~20fps und hatt das als flüssig angesehen.^^
Hat aber sich dann ne ATI gekauft, da NV für AGP nichts mehr im petto hat.
Naja der Kauf hat sich trotzdem nicht gelohnt...:|

Es ist jedoch wirklich schwach von ATI, das AF so zu fixieren und ein paar AA-Modi außenvor zu lassen. Mir persönlich ist es egal, aber besser wärs es immerhin.


mfg Nakai

pest
2008-11-11, 18:18:51
ich bin mal ehrlich, wenn ich meine Shooter zocke und AF aus habe, dann rausgehe und 16xAF anmache, bemerke ich nicht wirklich was. :( Ich bilde mir dann immer ein, das in der Entfernung Bodentexturen schön scharf sind, aber es gibt bei mir keinen Aha-Effekt wie z.b. bei Transparenz-AA. Und beschissene Texturen bleiben auch so beschissen, die fallen mir viel eher auf.
Das war wohl die Casual-Antwort auf...warum ATI alles so lässt wie es ist.

Coda
2008-11-11, 18:23:45
Es geht nicht um die Entfernung, sondern um die Verzerrung von Texturen die mit AF besser behandelt wird.

Eggcake
2008-11-11, 18:23:46
ich bin mal ehrlich, wenn ich meine Shooter zocke und AF aus habe, dann rausgehe und 16xAF anmache, bemerke ich nicht wirklich was. :( Ich bilde mir dann immer ein, das in der Entfernung Bodentexturen schön scharf sind, aber es gibt bei mir keinen Aha-Effekt wie z.b. bei Transparenz-AA. Und beschissene Texturen bleiben auch so beschissen, die fallen mir viel eher auf.
Das war wohl die Casual-Antwort auf...warum ATI alles so lässt wie es ist.

Naja ist bei mir ähnlich. In Egoshootern bemerke ich keinen grossen Unterschied. Aber z.B. bei Rennspielen ist der Unterschied gigantisch. Sehr gut merke ichs auch beim Flugsimulator. Die Mittelmarkierungen der Piste verschwimmen nach wenigen Metern, währenddem bei 16x AF die Dinger bis hinten scharf sind. Natürlich nur Nebensache, da ich ja sowieso sofort abhebe... :>

Aber es geht ja auch nicht primär um den Unterschied in der Qualität ansich, sondern darum, dass man durch die Qualitätsunterschiede keine direkten Vergleiche zwischen NV-AF und ATI-AF ziehen kann...

Banshee18
2008-11-11, 18:29:02
Es sei allen ATi-Besitzern gegönnt, die mit der Bildqualität und den Features zufrieden sind. Deshalb aber zu behaupten, "Besser" sei unnötig, ist doch sehr daneben.

pest
2008-11-11, 18:37:49
Es geht nicht um die Entfernung, sondern um die Verzerrung von Texturen die mit AF besser behandelt wird.

aber wie will ich das ohne direkten A/B Vergleich entscheiden, ich weiß ja nicht wie es aussehen müsste. Ja ich stell mich gerade doof an :rolleyes:

bei Rennspielen sehe ich es auch sofort

Coda
2008-11-11, 18:50:35
Einfach schräg eine Wand entlang schauen, dann sollte es eigentlich ins Auge springen.

_DrillSarge]I[
2008-11-11, 19:03:29
Crossfire ist viel besser als SLI :cool:.
liegt daran, dass die abkürzung ned von einer anderen firma geklaut ist.
man sieht, dass sich sli und cf in vor- und nachteilen nix nehmen, wenn sie funktionieren, es also profile und der gleichen für das jeweilige spiel gibt.

akuji13
2008-11-11, 19:23:14
Also wir reden von Crysis und du postet Clear Sky Benches :|

Noch ein Spiel wo SLi/CF ganz locker an seine Grenzen geführt wird.
Wenn wir weitersuchen, finden wir sicher noch diverse andere Spiele wo das ebenso ist.


Auch ist der Bench nicht ausschlaggebend für die Gesamtperformance.
CB hat sich da wahrscheinlich eine spezielle Szene herausgepickt.

Und? Das tun sie bei einer einzelnen Karte auch.
Benchmarks sollen numal möglichst fordernd sein...kaum wird es das, versagt das Multi-GPU setup prompt.
Und das setting ist ja nun wirklich nichts außergewöhnliches.


Bei Clear Sky gehen die FPS bei den Sonnenauf und-Untergängen immer drastisch zurück. Ich hab das neulich mit 2xAA, 1920*1200 +DX10 und allen Details mit ca 40-45 FPS avg gespielt. Also über die meiste Zeit lang mit ausreichend hohen FPS.

Nochmals: Und?
Sollen jetzt die fordernden Auf- und Untergänge nicht berücksichtigt werden?
Wofür habe ich ein Sli/CF? Für fordernde Szenen, Auflösungen, Qualitsettings.
2xAA ist übrigens wahnsinnig toll, von einem Multi-GPU System erwarte ich (ja, alles nur meine Meinung) deutlich mehr bei nur 40-45 FPS.


Und wegen Crysis, hier mal ein paar Screens, 8xSQ, Mstr Config 3 (high),16xAF

Die Hybriden Modis funktionieren bei Crysis leider nicht unter DX10, deswegen "nur" in DX9 und mit Vista. Trotzdem, die Leistung kann sich sehen lassen.

:biggrin: Wenn du meinst.
Nur DX9, keine Hybrid-Modi (ein Grund wofür ich eigentlich mehrere Grafikkarten kaufe) und eine getweakte config.
Es schreit nach meinem Lieblingswort....:wink:


Auf einzelne Spielszenen sollte man sich nicht festlegen, die Gesamtperfromance ist entscheidend und da hat ganz Klar Multi-Gpu die Nase vorn.

Die Gesamtperformance ist nicht mehr oder weniger entscheidend als bei einer Grafikkarte.
SLi/CF muss da massiv punkten, wo es eine einzelne Karte nicht kann.

Für Person A tut es das vielleicht, für Person B (mich) nicht.
Das P/L Verhältnis ist katastrophal (wieder nur meine Meinung), rechne nur mal aus was das System des
Benchmarks kostet.

Ich respektiere deine Meinung, schließlich lebe ich davon. :smile:
Verstehen muss und vor allem kann ich sie nicht.

:wink:

Gast
2008-11-11, 19:24:09
Mal kurz die Qualiät des Texturfilter zusammengefasst:
War R300 wirklich besser als R300?


R300 besser als R300? das sind die gleichen ;)


Nach R300 gings ja immer nur bergab (Ausnahme R5xx), so toll ist diese Entwicklung nicht.

nicht wirklich, grob zusammengefasst war es in etwa so:

vor R300 komplett unbrauchbar.

ab R300 bis auf die starke winkelabhängigkeit ganz brauchbar, die RV-varianten haben brilinear eingeführt, aber alles noch in dem maß wo es kaum bis garnicht auffällt.

bei R4xx gab es erstmals mehr "optimierungen", die aber alle nicht so schlimm waren und sich vor allem mit AI-off (zumindest was sichtbar war) noch deaktivieren ließen. (AI-on war damals deutlich besser als NVs standard, allerdings etwas schlechter als NV mit HQ, HQ und AI-off waren wieder vergleichbar)

R5xx war dann der höhepunkt in der ATI-geschichte, endlich kaum mehr winkelabhängigkeit, optimierungen lassen sich mit AI höchstwahrscheinlich deaktivieren.

danach ging es wieder bargab, die "optimierungen" werden stärker und lassen sich sichtbar auch mit AI-off nicht deaktivieren. zudem kommt natürlich erschwerend hinzu, dass die filterung bei NV ab G80 einfach superb ist.

Gast
2008-11-11, 19:52:45
Komisch das hier nur off Topic geschwallt wird :rolleyes:

Ich dachte es geht um Sli und Cf :(

Schlammsau
2008-11-11, 20:48:42
Mal angenommen bei beiden Herstellen ist ein Profil für ein Game vorhanden. Welche Unterschiede sind dann vorhanden? Skalierung ist fast identisch, mit Vorteilen in niedrigeren Auflösungen für SLi, und in hohen Auflösung mit mehr als 4xAA für Crossfire.

derguru
2008-11-11, 21:06:45
Skalierung ist fast identisch, mit Vorteilen in niedrigeren Auflösungen für SLi, und in hohen Auflösung mit mehr als 4xAA für Crossfire.

wie kommste denn auf den quatsch?

vorteile sehe ich bei sli nur wenn es sich um mehr als 2 gpu´s handelt,bis 2 gpu´s gibts unterschiede nur unter der lupe.

Gamer68
2008-11-11, 21:29:14
Mal angenommen bei beiden Herstellen ist ein Profil für ein Game vorhanden. Welche Unterschiede sind dann vorhanden? Skalierung ist fast identisch, mit Vorteilen in niedrigeren Auflösungen für SLi, und in hohen Auflösung mit mehr als 4xAA für Crossfire.


Das ist aber nich ganz wahr, CF Skaliert selber bei 800x600 wo SLI ganix macht.
Bei SLi brauch man schon ne höhere Auflösung das es anständigt skaliert ich seh es bei meiner 9800GX2 ohne spielerei mit dem nhancer würde SLi nie richtig laufen so wie ich das will :rolleyes:

Gast
2008-11-11, 21:44:47
R300 besser als R300? das sind die gleichen ;)

Nein so wars gemeint:
R300 besser als R200?

vor allem mit AI-off
Ach, das vergisst man heute gerne.
Bis wann war AI-off mit weniger schlimmen Nebenwirkungen nutzbar?
War es jemals so gut nutzbar wie HQ? HQ ist ja immer nutzbar.


R5xx war dann der höhepunkt in der ATI-geschichte, endlich kaum mehr winkelabhängigkeit, optimierungen lassen sich mit AI höchstwahrscheinlich deaktivieren.
Na, nach Herrn Raff flimmert R5xx so viel G7x, hat nur eben die nahezu Winkelunabhängigkeit als Vorteil, also mal nicht übertreiben.
R5xx genießt vor allem den Vorteil, das jeder auf G7x Q rumgehackt hat. Wenn man nur wüsste, was damals diese G7x Hasswelle losgetreten hat, dann könnte man es jetzt mit R6xx wiederholen.

mit Vorteilen in niedrigeren Auflösungen für SLi, und in hohen Auflösung mit mehr als 4xAA für Crossfire.
Beweiß?

Das ist aber nich ganz wahr, CF Skaliert selber bei 800x600 wo SLI ganix macht.
Beweiß?