PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kann eine GTS G92 einem CF 3870 gefährlich werden?


Gast
2008-01-17, 14:19:35
Hi,

ich wollte mal wissen ob eine neue 8800 GTS mit Taktraten von 800/2000/1000 einer CF 3870 im standarttakt das Wasser reichen kann?

Spasstiger
2008-01-17, 14:29:48
Wenn CF mit vernünftiger Effizienz funktioniert, hat die G92 GTS keine Chance. Schon eine einzelne Radeon HD 3870 zieht bei hohen Qualitätseinstellungen in hohen Auflösungen an einer G92 GTS (512 MiB) vorbei, weil die 3870 effizienter mit dem Grafikspeicher umgeht und zudem noch eine größere Speicherbandbreite besitzt. Und wer wirklich zwei 3870 im CF braucht, will ja in der Regel sehr hohe Auflösungen möglichst mit AA fahren (z.B. Besitzer eines 30" TFT mit 2560x1600). Da scheitert die G92 GTS kläglich (sogar die alte G80 GTS zieht da teils vorbei).
Siehe auch hier:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_crossfire_sli_einzelkarte/22/#abschnitt_performancerating_qualitaet
Man beachte insbesondere die Auflösung 2560x1600.

Gast
2008-01-17, 15:14:25
naja ich weis nicht so recht.mir gehts hauptsächlich bis 1680x1050 und vom 8AA hab ich auch nix gutes gehört da es sogut wie nirgends funktioniert.ich habe eine 3870 und ich seh bei keinem spiel eine bildverbesserung von 4AA zu 8AA.

lumines
2008-01-17, 15:30:42
und vom 8AA hab ich auch nix gutes gehört da es sogut wie nirgends funktioniert.i

das sollte eigentlich genau wie 4xAA überall funktionieren...

Gast
2008-01-17, 16:09:51
das sollte eigentlich genau wie 4xAA überall funktionieren...
Tut es auch,muß man oft im CCC einstellen da es in Games nicht immer geht.

Gast
2008-01-17, 16:10:33
Tut es auch,muß man oft im CCC einstellen da es in Games nicht immer geht.

Meinte 8xAA ;-)

Gast
2008-01-17, 17:49:40
Wenn CF mit vernünftiger Effizienz funktioniert, hat die G92 GTS keine Chance. Schon eine einzelne Radeon HD 3870 zieht bei hohen Qualitätseinstellungen in hohen Auflösungen an einer G92 GTS (512 MiB) vorbei, weil die 3870 effizienter mit dem Grafikspeicher umgeht und zudem noch eine größere Speicherbandbreite besitzt. Und wer wirklich zwei 3870 im CF braucht, will ja in der Regel sehr hohe Auflösungen möglichst mit AA fahren (z.B. Besitzer eines 30" TFT mit 2560x1600). Da scheitert die G92 GTS kläglich (sogar die alte G80 GTS zieht da teils vorbei).
Siehe auch hier:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_crossfire_sli_einzelkarte/22/#abschnitt_performancerating_qualitaet
Man beachte insbesondere die Auflösung 2560x1600.

1. Is sowieso eine Auflössung wo die Frames nicht mehr im spielbereich sind.
2. Mit CF ganz klaro 3870 vorteil

Gast
2008-01-17, 17:58:12
hatte gedacht da die gts ca.30% schneller ist als die einzelne 3870 und dann wenn man noch auf den takt kommt wie im titel dann müssten es doch ca.50% sein.

Spasstiger
2008-01-17, 18:08:41
1. Is sowieso eine Auflössung wo die Frames nicht mehr im spielbereich sind.
Frameraten in 2560x1600 mit 8xAA und 16:1 AF
Spiel: HD3870 CF/8800 Ultra/8800 GT

Anno 1701: 39 fps/21 fps/4 fps
Company of Heroes: 46 fps/25 fps/23 fps
F.E.A.R.: 33 fps/15 fps/9 fps
Oblivion: 43 fps/20 fps/11 fps
Prey: 41 fps/20 fps/18 fps
Rainbow Six Vegas (noAA): 46 fps/28 fps/23 fps
Call of Juarez (DX10, 4xAA): 27 fps/17 fps/8 fps

Was ist daran jetzt bitte nicht mehr spielbar? Achso, du gehörst auch zu den Leuten, die nur Crysis spielen ...

Gast
2008-01-17, 18:39:00
Ich habs doch extra SCHWARZ markiert? ich rede ja von einer 3870er
und da is deine aufloessung sowieso zuhoch für BEIDE karten.
man kann es natürlich mit dazu nehm, um die 3870er schön zureden ;)
Fakt is das eine GT schon reicht für die eine 3870.

Spasstiger
2008-01-17, 19:00:04
und da is deine aufloessung sowieso zuhoch für BEIDE karten.
Wie ich oben dargelegt habe, reichen zwei 3870er im Gegensatz zu einer 8800 Ultra oder zwei G92 GT/GTS auch für 2560x1600 mit 8xAA in grafisch ansprechenden Games. Erst zwei 8800 GTX/Ultra können den zwei 3870 Paroli bieten oder überholen.

Banshee18
2008-01-17, 19:12:13
Was ist daran jetzt bitte nicht mehr spielbar? Achso, du gehörst auch zu den Leuten, die nur Crysis spielen ...
*hust*
(http://www.forum-3dcenter.org/vbulletin/showthread.php?t=371844)
Das kann man eigentlich garnicht oft genug erwähnen.

Spasstiger
2008-01-17, 19:28:55
*hust*
(http://www.forum-3dcenter.org/vbulletin/showthread.php?t=371844)
Das kann man eigentlich garnicht oft genug erwähnen.
Besser durchschnittlich 40 fps und gefühlte 30 fps als reale und gefühlte 10 fps.

Gast
2008-01-17, 19:46:41
Frameraten in 2560x1600 mit 8xAA und 16:1 AF


Da 8xAA auf der 3870 oft nicht funktioniert, sind diese Werte für die Katz.

nomadhunter
2008-01-17, 19:53:46
8xAA-Benches sind IMHO eh recht theoretisch. Der Unterschied zu 4xAA ist so klein, dass ich in Situationen, in denen es auf die Leistung ankommt, problemlos darauf verzichten kann. Wichtiger ist mir, wie es bei 4xAA aussieht.

Banshee18
2008-01-17, 19:57:23
Besser durchschnittlich 40 fps und gefühlte 30 fps als reale und gefühlte 10 fps.
Ich durfte zwar noch kein Multi-GPU-System life erleben, aber nachdem, was man so liest, fühlen sich 40 fps nach weniger als 30 fps an.

MadManniMan
2008-01-17, 19:58:12
Da 8xAA auf der 3870 oft nicht funktioniert, sind diese Werte für die Katz.

Warum sollte es das nicht tun? :|

Spasstiger
2008-01-17, 20:11:00
Ich durfte zwar noch kein Multi-GPU-System life erleben, aber nachdem, was man so liest, fühlen sich 40 fps nach weniger als 30 fps an.
Spiel mit VSync + Triplebuffering, so ähnlich ist das wohl auch bei AFR.

Gast
2008-01-17, 20:13:46
Da 8xAA auf der 3870 oft nicht funktioniert, sind diese Werte für die Katz.
Ist das ein billiger Flamevesuch? Natürlich funktioniert das 8xAA. Nur weil die G8x derbe einbrechen heißt das noch lange nicht dass es auf dten ATis nicht läuft. Es gibt technische Gründe dafür.

puntarenas
2008-01-17, 20:15:04
8xAA-Benches sind IMHO eh recht theoretisch. Der Unterschied zu 4xAA ist so klein, dass ich in Situationen, in denen es auf die Leistung ankommt, problemlos darauf verzichten kann. Wichtiger ist mir, wie es bei 4xAA aussieht.
Naja, den Unterschied zwischen 4xAA und 6xAA habe ich deutlich wahrgenommen und 6xAA war ein Segen. Da dieses technisch nicht mehr möglich ist, muss 8xAA diese Lücke füllen und eine 3870X2 dürfte das in "normalen" Auflösungen auch liefern können.

Das Problem mit den Mikrorucklern durch ungleichmäßige Frameverteilung ist zwar vorhanden, aber nicht unumgänglich. Ich hoffe, dass ComputerBase wie angekündigt das Thema bald aufgreift und es dann die Runde macht, nach einem Treiberfix verlöre man vielleicht ein paar FPS, aber am Ende hätte man mit der CF-Lösung dann trotzdem noch deutlich mehr Leistung als mit einer GTS G92.

Spasstiger
2008-01-17, 20:21:39
p.s. Setz mal deine beschissne Rote Brille ab.
Wer in dem Ton mit mir redet, hat eine Diskussion nicht verdient. Will euch ja nicht beim G92 hypen stören. Im Freundeskreis empfehle ich übrigens den G92, da wird eh nur in 1280x1024 mit max. 4xMSAA gezockt. Und dabei ist der G92 einfach exzellent.
Außerdem sind die Leute irgendwie zufriedener, wenn man Nvidia empfiehlt. Bei ATI wird immer kritisch nachgehakt, Nvidia wird sofort geschluckt.

/EDIT: Bevor noch mehr Missverständnisse auftreten: CF heißt Crossfire. In diesem Thread geht es um den Vergleich von zwei Radeon HD3870 gegen einer GeForce 8800 GTS G92. Nicht dass nochmal jemand mit Ergebnissen einer einzelnen HD3870 antanzt.

vinacis_vivids
2008-01-17, 20:35:11
Selbst eine 8800 Ultra kann nicht immer einem CF 3870 Paar Paroli bieten. Wie soll dies dann einer G92 GTS gelingen? G92 GTS SLI würde ich auf Augenhöhe der CF 3870 einschätzen. Aber das ist von Spiel zu Spiel unterschiedlich.

Spasstiger
2008-01-17, 20:39:12
Da wo SLI und Crossfire unumgänglich ist, nämlich bei einem 30" TFT und dem Anspruch, aktuelle Games mit (adaptivem) AA zu zocken, kann man aus P/L-Sicht nur Crossfire empfehlen. Die ganz Bekloppten holen sich drei 8800 GTX.
Die 8800 GTS G92 ist da gut, wofür Nvidia sie in ihrer Produktlinie vorsieht, nämlich in Mainstream-Auflösungen mit mäßigem AA. Nur braucht man dort auch keine zwei 3870 im Crossfire (würde ich mir dann auch nicht einbauen).

Und bevor ich mir eine G92 GTS holen würde, würde ich direkt die 8800 GT 1024 MiB für 260€ nehmen. Die hat einen gewichtigen Nachteil weniger (der andere ist die Speicherbandbreite).

derguru
2008-01-17, 21:07:46
absoluter schwachsinn.

1. 30 tft sorry aber wer hat das schon? 1 oder 2? absolut lächerlich die aussage immer mit dem 30 zoll gedrisse
2. ich habe die 3870 und sehe über 4aa keine unterschiede da es bei den meisten spielen nicht greifen tut.oft sogar gar kein aa.ich hab probleme ein spiel zu finden das 8aa kann geschweige denn 16aa.find mir eins dann schau ich mal.viel glück dabei.
3.ich bin ja zufrieden mit meinen 3870 karten aber bildqualität ist was anderes.ich hab mir die karten gekauft um mal in 16aa und 16 af zu spielen blos ist wohl nix damit.

schön gucken:)

das soll im treiber 16aa und 16 af sein? wie der glättet ich bin hin und weg;D;)
http://www.abload.de/thumb/3dmark062008-01-17216gs.jpg (http://www.abload.de/image.php?img=3dmark062008-01-17216gs.jpg)http://www.abload.de/thumb/moha2008-01-1721-46-l93.jpg (http://www.abload.de/image.php?img=moha2008-01-1721-46-l93.jpg)

und hier mal ohne AA, bösartig könnte man schon sagen ohne sieht besser aus:)

http://www.abload.de/thumb/3dmark062008-01-1721iv2.jpg (http://www.abload.de/image.php?img=3dmark062008-01-1721iv2.jpg)http://www.abload.de/thumb/moha2008-01-1721-48-bqe.jpg (http://www.abload.de/image.php?img=moha2008-01-1721-48-bqe.jpg)

ich könnte immer weiter so machen mit den screens.

Spasstiger
2008-01-17, 21:14:42
3.ich bin ja zufrieden mit meinen 3870 karten aber bildqualität ist was anderes.
Was veranlasst dich denn zu Klagen? Klar hat NV mehr AA-Modi und ein minimal besseres AF, aber ATI liefert jetzt nicht gerade miese Bildquali ab.
8xAA greift übrigens überall dort, wo auch 4xAA geht.

Ultron
2008-01-17, 21:20:00
absoluter schwachsinn.

1. 30 tft sorry aber wer hat das schon? 1 oder 2? absolut lächerlich die aussage immer mit dem 30 zoll gedrisse


Ich! Bzw ich zocke auch mit 4MP bei 3840x1024. Surround Gaming by Matrox TH2G-D. Außerdem was soll denn diese Aussage? Wir sind hier in einem 3D-Forum, und da haben mehr Leute einen 30" TFT bzw 3 TFTs als du denkst. Das ist halt Highend, aber das macht auch am meisten Spass.

derguru
2008-01-17, 21:27:43
kein stuss erzählen ich will schwarz auf weiss screens sehen wo es unterschiede gibt.ich sehe nix aber überhaupt nix.und was du ultron zockst ist mir sowas von schnuppe.ja du bist der highend freak rofl.wenn jemand nicht die hardware hat zum testen dann sollte er nicht mit reden damit das klar ist.von da gehört oder oder von dort interessiert mich nicht.
schonmal paar feststellungen. hat mit dem treiber nix zutun. von 7.10-8.1 der selbe scheiss.mit den karten hat es auch nichts zutun habe schon 4 stück hier gehabt alle von anderen marken.

wenn mir jemand erklären kann warum das so ist,bitte.

vinacis_vivids
2008-01-17, 21:55:35
absoluter schwachsinn.

1. 30 tft sorry aber wer hat das schon? 1 oder 2? absolut lächerlich die aussage immer mit dem 30 zoll gedrisse
2. ich habe die 3870 und sehe über 4aa keine unterschiede da es bei den meisten spielen nicht greifen tut.oft sogar gar kein aa.ich hab probleme ein spiel zu finden das 8aa kann geschweige denn 16aa.find mir eins dann schau ich mal.viel glück dabei.
3.ich bin ja zufrieden mit meinen 3870 karten aber bildqualität ist was anderes.ich hab mir die karten gekauft um mal in 16aa und 16 af zu spielen blos ist wohl nix damit.

schön gucken:)

das soll im treiber 16aa und 16 af sein? wie der glättet ich bin hin und weg;D;)

http://www.abload.de/thumb/3dmark062008-01-17216gs.jpg (http://www.abload.de/image.php?img=3dmark062008-01-17216gs.jpg)http://www.abload.de/thumb/moha2008-01-1721-46-l93.jpg (http://www.abload.de/image.php?img=moha2008-01-1721-46-l93.jpg)

und hier mal ohne AA interessant wah selbe bild aber weniger fps sehr eigenartig:) bösartig könnte man schon sagen ohne sieht besser aus:)

http://www.abload.de/thumb/3dmark062008-01-1721iv2.jpg (http://www.abload.de/image.php?img=3dmark062008-01-1721iv2.jpg)http://www.abload.de/thumb/moha2008-01-1721-48-bqe.jpg (http://www.abload.de/image.php?img=moha2008-01-1721-48-bqe.jpg)

ich könnte immer weiter so machen mit den screens.

3dmark scheidet schonmal aus als "Spiel", versuchs mal mit HL2

derguru
2008-01-17, 21:58:31
ne so alte schinken hab ich nicht mal installiert,abgesehen davon ich brauch nichts zu probieren ich weis es ja.:)

Odal
2008-01-17, 22:14:00
manchmal sitzt der fehler einfach vor dem bildschirm...

leute mit 3 dioptrin regen sich auch über das indiskutable matschige hd fernsehbild auf

8xAA funktioniert definitiv..das kann man sowohl sehen als auch FPS technisch "messen"

Spasstiger
2008-01-17, 22:19:24
das soll im treiber 16aa und 16 af sein? wie der glättet ich bin hin und weg;D;)
http://www.abload.de/thumb/3dmark062008-01-17216gs.jpg (http://www.abload.de/image.php?img=3dmark062008-01-17216gs.jpg)http://www.abload.de/thumb/moha2008-01-1721-46-l93.jpg (http://www.abload.de/image.php?img=moha2008-01-1721-46-l93.jpg)

und hier mal ohne AA, bösartig könnte man schon sagen ohne sieht besser aus:)

http://www.abload.de/thumb/3dmark062008-01-1721iv2.jpg (http://www.abload.de/image.php?img=3dmark062008-01-1721iv2.jpg)http://www.abload.de/thumb/moha2008-01-1721-48-bqe.jpg (http://www.abload.de/image.php?img=moha2008-01-1721-48-bqe.jpg)

ich könnte immer weiter so machen mit den screens.
4xAA:
http://img407.imageshack.us/img407/8369/3dm064xaaix0.th.png (http://img407.imageshack.us/my.php?image=3dm064xaaix0.png)

8xAA:
http://img407.imageshack.us/img407/8228/3dm068xaajm3.th.png (http://img407.imageshack.us/my.php?image=3dm068xaajm3.png)

Geht aber zugegebenermaßen nur, wenn ichs in 3DMark06 direkt einstelle. :frown:

Gast
2008-01-17, 22:19:54
ne so alte schinken hab ich nicht mal installiert,abgesehen davon ich brauch nichts zu probieren ich weis es ja.:)
HL2 ist nicht alt. Der neueste Engine Update in Form der Episode2 ist noch nicht so lange draußen.
Dazu sieht HL2 mit Cinematic Mod besser aus als so manches neuestes hyper Grafik Spiel.

Gast
2008-01-17, 22:21:05
Geht aber zugegebenermaßen nur, wenn ichs in 3DMark06 direkt einstelle. :frown:
Als ich vor einem Jahr das letzte mal 3DMark gezockt habe konnte ich da nichts auswählen, Demo Version und so. ;(

Undertaker
2008-01-17, 22:23:03
Außerdem was soll denn diese Aussage? Wir sind hier in einem 3D-Forum, und da haben mehr Leute einen 30" TFT bzw 3 TFTs als du denkst. Das ist halt Highend, aber das macht auch am meisten Spass.

hmm, ich denke nicht das du hier im 3dc auch nur 10 leute mit 30" oder th2g zum zocken finden wirst ;) alles über 1920x1200 ist noch absolut verschwindend geringe ausnahme...

Popeljoe
2008-01-17, 22:37:31
4xAA:
http://img407.imageshack.us/img407/8369/3dm064xaaix0.th.png (http://img407.imageshack.us/my.php?image=3dm064xaaix0.png)

8xAA:
http://img407.imageshack.us/img407/8228/3dm068xaajm3.th.png (http://img407.imageshack.us/my.php?image=3dm068xaajm3.png)

Geht aber zugegebenermaßen nur, wenn ichs in 3DMark06 direkt einstelle. :frown:
Also den Unterschied zu sehen fällt mir echt schwer!
(er ist vorhanden, aber nur, wenn ich genau hinsehe)
Sowas nehme ich in einem Spiel nicht wirklich wahr...

@derguru: halt dich bitte mal im Ton etwas zurück!

vinacis_vivids
2008-01-17, 22:56:22
hmm, ich denke nicht das du hier im 3dc auch nur 10 leute mit 30" oder th2g zum zocken finden wirst ;) alles über 1920x1200 ist noch absolut verschwindend geringe ausnahme...

naja die Dells 2407 WFP gehen weg wie warme Semmeln. ;) 1920x1200 halte ich für sehr tauglich und nicht so selten wie man denkt.

derguru
2008-01-17, 22:57:28
4xAA:
http://img407.imageshack.us/img407/8369/3dm064xaaix0.th.png (http://img407.imageshack.us/my.php?image=3dm064xaaix0.png)

8xAA:
http://img407.imageshack.us/img407/8228/3dm068xaajm3.th.png (http://img407.imageshack.us/my.php?image=3dm068xaajm3.png)

Geht aber zugegebenermaßen nur, wenn ichs in 3DMark06 direkt einstelle. :frown:


und genau das ist der punkt solang ich das nicht im treiber erzwingen kann ist es nichts wert und das ist nicht nur bei 3d mark06 so.was hab ich davon wenn ich im treiber 16 aa einstellen kann aber nirgendwo funktioniert aber das komische ist trotzdem performance klaut ohne ende.

vinacis_vivids
2008-01-17, 22:58:16
4xAA:
http://img407.imageshack.us/img407/8369/3dm064xaaix0.th.png (http://img407.imageshack.us/my.php?image=3dm064xaaix0.png)

8xAA:
http://img407.imageshack.us/img407/8228/3dm068xaajm3.th.png (http://img407.imageshack.us/my.php?image=3dm068xaajm3.png)

Geht aber zugegebenermaßen nur, wenn ichs in 3DMark06 direkt einstelle. :frown:

An der dünnen Antenne sieht man deutliche Vorteile von 8AA

nomadhunter
2008-01-17, 23:06:03
naja die Dells 2407 WFP gehen weg wie warme Semmeln. ;) 1920x1200 halte ich für sehr tauglich und nicht so selten wie man denkt.
Deswegen hat Undertaker auch "über 1920x1200" geschrieben.

An der dünnen Antenne sieht man deutliche Vorteile von 8AA
Deswegen gebe ich aber kein Geld für eine leistungsfähigere oder besser für 8xAA optimierte Grafikkarte aus. :rolleyes: Ich sehe das wie Popeljoe. Der Unterschied ist vorhanden, aber nur beim genauen Hinschauen. Da investiere ich die Leistung lieber in andere Dinge (oder einfach mehr fps).

Spasstiger
2008-01-17, 23:09:51
Also den Unterschied zu sehen fällt mir echt schwer!
(er ist vorhanden, aber nur, wenn ich genau hinsehe)
Sowas nehme ich in einem Spiel nicht wirklich wahr...
Ich seh da auch keinen relevanten Unterschied. Mag aber auch an Schneeverwehungen in der Luft liegen, die eh schon für eine leichte Tiefenunschärfe sorgen.

Wo mir der Vorteil von 8xAA stark auffällt, ist Celestia, wenn ich mir Modelle von Satelliten, Raumschiffen und Sonden anschaue:
http://img178.imageshack.us/img178/7484/cel1wm6.th.png (http://img178.imageshack.us/my.php?image=cel1wm6.png) http://img178.imageshack.us/img178/1520/cel2sq4.th.png (http://img178.imageshack.us/my.php?image=cel2sq4.png) http://img237.imageshack.us/img237/4154/cel3mu6.th.png (http://img237.imageshack.us/my.php?image=cel3mu6.png)
In Bewegung ist der Unterschied sehr deutlich zu sehen, mit 8xAA flimmert kaum noch was, mit 4xAA dagegen stört das Flimmern noch.

Und HL2 Episode 2 ist mit 8x adaptivem AA (MSAA) und 16:1 AF glatt wie nie zuvor und läuft zudem immer noch flüssig in 1680x1050 auf meiner 130€-Karte. War schon ein kleiner Aha-Effekt nach dem Wechsel von der X1900 AIW aus.

Ich möchte 8xAA als Option zumindest nicht mehr missen.

Gast
2008-01-17, 23:11:46
An der dünnen Antenne sieht man deutliche Vorteile von 8AA
Richtig.

Das Vergleichszenario ist deshalb ungünstig.
Bei vielen anderen Spielesituationen zb in HL2 sticht ein besseres AA deutlich ins Auge, da kann man auch noch locker den Unterschied zwischen 8S und 16S sehen.

derguru
2008-01-17, 23:43:32
wenn es funktioniert will ich es auch nicht missen das ist klar,aber ich traue dem braten nicht wie z.b. hier

wie kann es sein das zwischen keinem aa bis 8aa gar keine performance unterschiede zusehen sind und das erst bei 16aa der einbruch entsteht.und so geht das bei fast jedem spiel.

extra innenraum als beispiel genommen bevor einer gleich antanzt und sagt das es cpu limitiert wäre.

alles bei 1680*1050

16AF
http://www.abload.de/thumb/oblivionohnemts.jpg (http://www.abload.de/image.php?img=oblivionohnemts.jpg)
4AA/16AF
http://www.abload.de/thumb/oblivion4aa8mk.jpg (http://www.abload.de/image.php?img=oblivion4aa8mk.jpg)
8AA/16AF
http://www.abload.de/thumb/oblivion8aa7fc.jpg (http://www.abload.de/image.php?img=oblivion8aa7fc.jpg)
16AA/16AF
http://www.abload.de/thumb/oblivion16aajkw.jpg (http://www.abload.de/image.php?img=oblivion16aajkw.jpg)

Spasstiger
2008-01-17, 23:53:22
wenn es funktioniert will ich es auch nicht missen das ist klar,aber ich traue dem braten nicht wie z.b. hier

wie kann es sein das zwischen keinem aa bis 8aa gar keine performance unterschiede zusehen sind und das erst bei 16aa der einbruch entsteht.und so geht das bei fast jedem spiel.

extra innenraum als beispiel genommen bevor einer gleich antanzt und sagt das es cpu limitiert wäre.
Zwischen 4xAA und 8xAA ist doch hier ein klarer Unterschied zu sehen, siehe die Kette. Aber leider überwiegen insgesamt die Kompressionsartefakte, hättest besser mal verlustfrei komprimiert (mit PNG).
Dass die Framerate von 4x zu 8xAA nicht einbricht, sondern erst hin zu 16xAA, würde ich schon auf ein CPU-Limit zurückführen. 88 fps sieht man nicht oft in Oblivion, weil die CPU vorher dicht macht.

derguru
2008-01-18, 00:13:59
die bricht ja nicht mal von 1aa zu 8aa und das kann einfach nicht sein.und das selbe könnte ich jetzt mit mohaa z.b. machen mit dem screen von eben.da ist es genau das selbe einbruch erst bei 16aa.zwischen 1aa und 8aa garkein performance unterschied.

vinacis_vivids
2008-01-18, 00:17:13
4MSAA
http://www.abload.de/img/4msaawqx.png

8MSAA
http://www.abload.de/img/8msaa3dt.png

Transparenz 4MSAA
http://www.abload.de/img/4tmsaar18.png

Transparenz 8MSAA
http://www.abload.de/img/8tmsaab84.png

Spasstiger
2008-01-18, 00:20:23
die bricht ja nicht mal von 1aa zu 8aa und das kann einfach nicht sein.und das selbe könnte ich jetzt mit mohaa z.b. machen mit dem screen von eben.da ist es genau das selbe einbruch erst bei 16aa.zwischen 1aa und 8aa garkein performance unterschied.
Sei doch froh. Bei deinem Oblivion-Screen sehe ich zumindest trotz der JPEG-Artefakte eine klare Verbesserung bei der Kantenglättung.

derguru
2008-01-18, 00:27:12
lol ich werde das noch in den nächsten tagen in ruhe in den spielen beobachten.das wäre mir neu das karten von 1aa zu 8aa keine performance verluste erleiden(egal ob nvidia oder ati)
zuviele fanatiker hier:)
ach und half life würde ich eh nicht zum maßstab nehmen,da schlafen die karten eh ein.deins ist doch eh die gt karte:)

Eggcake
2008-01-18, 00:38:13
Hatte neulich mit meiner GTS 320 beim Crysis GPU Bench 16x AA bei 1280x1024 eingestellt. 1 FPS weniger als ohne AA.
Nun gut, hab bloss einen E4300 @ 2.7...aber warum zum Teufel arbeitete die Grafikkarte _überhaupt_ nicht? Die Temps gingen auf max. 64° anstatt auf 70-73° während einem Crysis Bench. Und trotzdem fast gleiche FPS??


@guru

Finds jetzt aber auch bisl komisch dass hier deine Einwände einfach ignoriert werden... ;> Über AA/AF-Probleme haben in letzter Zeit ziemlich viele rumgemault - sowas ist schon ärgerlich.

derguru
2008-01-18, 00:46:05
@Eggcake

ist normal die haben ja auch keine argumente;),ausser seih doch froh wie es ist zusagen:tongue:

aber das reicht nun auch bevor gleich die gäste wieder antanzen.hier gings ja eigentlich um was ganz anderes:)

BvB123
2008-01-18, 01:51:11
Das ist doch jetzt wirklich nicht dein ernst oder?

Du beschwerst dich, das bei sichtbarer Qualitätsverbesserung deine Frames nicht in den Keller gehen?

Unglaublich.

Spasstiger
2008-01-18, 01:53:54
@Eggcake

ist normal die haben ja auch keine argumente;),ausser seih doch froh wie es ist zusagen:tongue:
Ich seh doch da eine Verbesserung der Bildquali auf dem Screen, also greift der höhere AA-Modus ganz offenbar. Man kann sich auch absichtlich quer stellen und am anderen vorbeireden. :rolleyes:
Wenn ein CPU-Limit auftritt, was bei Oblivion @ knapp 90 fps sehr wahrscheinlich ist, dann kostet AA auch keine zusätzliche Leistung.

Ich hab übrigens eine 2900 Pro und keine GT. Und in Half-Life 2 Episode 2 haben GeForce-7-Karten im Übrigen so ihre Performance-Problemchen. Die Echtzeit-Softshadows und das Motion-Blur, was neu hinzukam, fressen nicht unerheblich viel Shaderpower. Dazu noch HDR-Rendering, was auch nicht vom Himmel fällt. Also spiel mal die Anforderungen von Episode 2 nicht so runter.

Auf jeden Fall beschissene Diskussionkultur hier, wenn man nur belächelt wird, sobald man harte Fakten auftischt und Missverständnisse aus der Welt schaffen möchte. Es wurde offenbar auch schon was in dem Thread gelöscht. Ich habe meine Lektion gelernt und werde in Zukunft Threads mit Potential zum "Nvidia vs. ATI"-Bashing meiden. Meine Meinung ist eh unerheblich und für wen mach ich mir hier überhaupt die Mühe? Für irgendwelche Ignoranten, die nur auf Stimmungsmache aus sind. Im Real-Life hätten mich solche Leute schon lange angepisst und ich wäre wortlos davon gegangen.

derguru
2008-01-18, 04:26:11
@Spasstiger
1.beklage ich ganz bestimmt nicht sondern mach nur darauf aufmerksam(gilt auch für @BvB123)
2.wenn du ein aufmerksamer leser bist wäre dir aufgefallen das du nicht mit gt gemeint bist
3.sorry aber was haben aufeinmal geforce 7 karten hier zusuchen,nix.
4.ich seh da wirklich null verbesserungen in oblivion ausser beim 16aa zum 4aa
5.wo sind die harten fakten ich seh immer noch nix ? das gesponsorte half life 2?
6.komm mir nicht mit fanboy gesülze wie du siehst hab ich selbst die karten und ausnahmsweise kritisiert mal einer der auch die karten besitzt und nicht wie andere die einfach cf ist scheisse reinbrüllen gibts ja ne menge hier von der sorte.ich kämpf aber auch nicht mit haut und haaren um meine karten bin ja nicht bedeppert.

hier haste fakten.

kläre mich auf.ich seh keine bildverbesserung,aber lustiger weise halbieren sich die fps?wieso wenn doch eh keine bildverbesserung ensteht.mal gucken was für harte fakten jetzt kommen.

alle einstellungen über treiber,mich interessiert ob bei nvidia bei manueller einstellung im treiber bei den stellen das selbe passiert oder ob AA greifen tut.

das sollen Transparenz 16MSAA/16AF screens sein nur zur info,so glatt wie die mondoberfläche
http://www.abload.de/thumb/xr_3da200816aa97a.jpg (http://www.abload.de/image.php?img=xr_3da200816aa97a.jpg)

http://www.abload.de/thumb/3dmark062008-01-17216gs.jpg (http://www.abload.de/image.php?img=3dmark062008-01-17216gs.jpg)http://www.abload.de/thumb/moha2008-01-1721-46-l93.jpg (http://www.abload.de/image.php?img=moha2008-01-1721-46-l93.jpg)

MadManniMan
2008-01-18, 06:29:08
das sollen Transparenz 16MSAA/16AF screens sein nur zur info,so glatt wie die mondoberfläche

Nachher schreib ich vielleicht ein bisschen mehr, soviel vorweg:

Du hast keine Ahnung, warum AA hier und da nicht greift und weißt nicht wirklich, AA zu deuten, nicht wahr?

Was denkst Du, warum funktioniert bei STALKER kein AA?
Und wo schaust Du hin, wenn Du in den Oblivion-Shots Unterschiede ausmachen willst?

Gast
2008-01-18, 07:33:52
Was denkst Du, warum funktioniert bei STALKER kein AA?
Gab es nicht irgend einen Weg um dennoch MSAA haben zu können?

MadManniMan
2008-01-18, 07:59:14
Gab es nicht irgend einen Weg um dennoch MSAA haben zu können?

IIRC funktionierts mit neuen Treibern und neuen Geforces, aber mit wirklich herbem Performanceverlust - und vor allem scheint derguru nicht einmal um die Problematik selbst zu wissenn.

Fakt ist: wenn nicht künstlich gebremst (wie in Gears of War, wo es nur 4*MSAA oder gar nix gibt, das aber auch nur unter D3D10) wird, funktioniert entweder gar kein AA, oder aber jede Form von MSAA.

Hakkerstiwwel
2008-01-18, 09:57:56
wenn es funktioniert will ich es auch nicht missen das ist klar,aber ich traue dem braten nicht wie z.b. hier

wie kann es sein das zwischen keinem aa bis 8aa gar keine performance unterschiede zusehen sind und das erst bei 16aa der einbruch entsteht.und so geht das bei fast jedem spiel.

extra innenraum als beispiel genommen bevor einer gleich antanzt und sagt das es cpu limitiert wäre.

alles bei 1680*1050


Also ich kann bei mir mit der selben Aufloesung wohl Unterschiede in Oblivion zwischen 4x, 8x, 12X ED und 24X ED ausmachen. Letzterer glaettet wirklich alles, reicht aber leider nicht in Szenen mit viel Vegetation und aktiviertem TAA, waehrend der 12X Modus noch geradeso spielbar bleibt.

Gast
2008-01-18, 11:19:35
Warum sollte es das nicht tun? :|

Da fragst du besser ATI.
Jedenfalls gibt es oft 8xCFAA (4xMS+wide tent) anstatt echtem 8xAA.

MadManniMan
2008-01-18, 11:33:20
Da fragst du besser ATI.
Jedenfalls gibt es oft 8xCFAA (4xMS+wide tent) anstatt echtem 8xAA.

Hm, das ist dann echt ne Treiberschweinerei (sowas hat Leo früher immer schnell aufgeklärt... *schwelg*), keine prinzipielle technische Limitation. Für 8*MSAA loopen die ROPs einfach doppelt so lange, wie für 4*MSAA...

derguru
2008-01-18, 12:06:00
was pickst du dir stalker raus.ist nur beispiel abgesehen davon soll stalker mit dem neuen patch auch bei aa greifen.wie du siehst gehts oft nicht,nicht mal beim 3d mark 06 gehts.aus welcher technischer sicht es nicht greift ist mir schnuppe das sollte nicht mein problem sein sondern anderer.und wenn nicht aa greift so kannte ich es bisher dann blieben die fps wenigstens so wie ohne aa.aber hier soll keiner wind machen das wenn mal aa klappen tut dann geht das bei ati karten so richtig ab blos nutzen kann man es sogut wie nie.

aber ich bring gleich noch ein schönes beispiel.

Gast
2008-01-18, 12:29:01
wie kann es sein das zwischen keinem aa bis 8aa gar keine performance unterschiede zusehen sind und das erst bei 16aa der einbruch entsteht.und so geht das bei fast jedem spiel.

extra innenraum als beispiel genommen bevor einer gleich antanzt und sagt das es cpu limitiert wäre.


vermutlich limitiert auf grafikseite mit 16xAF fast immer die geringe füllrate, da ist es kein wunder, dass FSAA nicht mehr viel kostet (es war eher wundersam, dass es beim R600 trotzdem viel gekostet hat)

Raff
2008-01-18, 12:39:15
Hatte neulich mit meiner GTS 320 beim Crysis GPU Bench 16x AA bei 1280x1024 eingestellt. 1 FPS weniger als ohne AA.
Nun gut, hab bloss einen E4300 @ 2.7...aber warum zum Teufel arbeitete die Grafikkarte _überhaupt_ nicht? Die Temps gingen auf max. 64° anstatt auf 70-73° während einem Crysis Bench. Und trotzdem fast gleiche FPS??

Geht nicht. In 1280x1024 bricht eine GTS/320 mit 16xQ gnadenlos auf unspielbare Fps ein. Der Speicher ist randvoll. Ich orakle daher mal, dass kein AA an war oder der Treiber in Eigenregie eine niedrigere Stufe aktivierte.

MfG,
Raff

MadManniMan
2008-01-18, 12:56:34
was pickst du dir stalker raus.ist nur beispiel abgesehen davon soll stalker mit dem neuen patch auch bei aa greifen.

1) Du postest das Bild von STALKER und willst damit beweisen, dass AA bei so vielen Dingen nicht geht. Nicht ich war das.
2) Seit dem 169.02 läuft STALKER mit G8x+ Karten und Vista mit MSAA - nix bei ATi, nix mit älteren Karten.


wie du siehst gehts oft nicht

Was ist den "oft"?


nicht mal beim 3d mark 06 gehts.

1) Wie relevant ist der Murks?
2) Über den Murks selbst eingestellt hat bei mir bisher immer alles funktioniert (X800 XL, 6600 Go).

derguru
2008-01-18, 12:58:15
keine sorge klugscheisser gleich gehts weiter

Dafür und für Deinen allgemeinen Ton gibts die rote Karte

<anddill>

Raff
2008-01-18, 13:00:16
keine sorge klugscheisser gleich gehts weiter

Falsche Tonlage, bitte etwas anheben.

MfG,
Raff

MadManniMan
2008-01-18, 13:07:21
Falsche Tonlage, bitte etwas anheben.

Soll er meinetwegen blaffen, aber doch bitte mit greifbaren Argumenten ;(

derguru
2008-01-18, 13:18:15
@Raff sorry für die tonlage aber bei solchen manis gehts nur so

so nächste runde von ich seh ich ja nix ausser gesülze:)ach ich glaub mohaa war eben auch dabei nur zur info manni:)

ok ich zeig wie gut der treiber funktioniert und nicht auf die bildqualität achten sondern nur auf die leistung.also fps.
1680*1050 messtoleranz 1-2fps
nur 16af 79fps
http://www.abload.de/thumb/ohnevx1.jpg (http://www.abload.de/image.php?img=ohnevx1.jpg)
im treiber 8aa/16af 80fps
http://www.abload.de/thumb/imtreiber8aa28p.jpg (http://www.abload.de/image.php?img=imtreiber8aa28p.jpg)
im treiber 16aa/16af 41fps
http://www.abload.de/thumb/imtreiber16aa0qx.jpg (http://www.abload.de/image.php?img=imtreiber16aa0qx.jpg)
im spiel 8aa/16af 36fps
http://www.abload.de/thumb/imspiel8aaekx.jpg (http://www.abload.de/image.php?img=imspiel8aaekx.jpg)

was ich jetzt mit den screens sagen will muss ich ja nicht erklären oder manilein?

so du mani wenn du noch mehr spiele brauchst sag bescheid dann kommen die nächsten,.:)

lol blaffen einfach ohne worte;D

edit:für gäste gibts keine antworten

Gast
2008-01-18, 13:32:00
Mach mal screens wo man etwas erkennt und als PNG.

Danke

MadManniMan
2008-01-18, 14:34:08
@Raff sorry für die tonlage aber bei solchen manis gehts nur so

Im Ernst: red doch ganz normal mit mir, dann macht das auch mehr Spaß!



so nächste runde von ich seh ich ja nix ausser gesülze:)ach ich glaub mohaa war eben auch dabei nur zur info manni:)

Das liegt nicht an den Grafikkarten, sondern an der Engine. Die Unreal Engine 3 nutzt deferred rendering, welchem man unter Umständen mit Treiberzwang (siehe Bioshock), aber Grafikfehler beikommen kann, oder aber mit D3D10 und seinen erweiterten Fähigkeiten auf Spiele-Hersteller-Seite entgegenkommt (siehe Gears of War).
MoH-A (nicht Allied Assault) nutzt eben jene Engine - und man kann vielleicht über erzwungenes Supersamping AA nutzen, aber MSAA wird nicht funktionieren.



ok ich zeig wie gut der treiber funktioniert und nicht auf die bildqualität achten sondern nur auf die leistung.also fps.
1680*1050 messtoleranz 1-2fps
nur 16af 79fps
im treiber 8aa/16af 80fps
im treiber 16aa/16af 41fps
im spiel 8aa/16af 36fps

was ich jetzt mit den screens sagen will muss ich ja nicht erklären oder manilein?

Das von Dir im Treiber eingestellte 8*AA greift nicht, das ist richtig. Warum es das nicht tut, läßt sich schwer aus der Ferne diagnostizieren. Auch das 16*AA funktioniert nicht so, wie Du es Dir vorstellst, sondern es wird nur 2*Supersampling appliziert, was folgerichtig 50% Leistung kostet.
Im Spiel eingestelltes 8*AA greift und funktioniert hingegen.

Je neuer die Engine, desto verzwickter das Ganze: einfach MSAA drüberzwingen funktioniert leider nicht mehr so einfach, wie es das noch zu Prä-SM3-Zeiten tat.

Beim 8800 GT Review bei der Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/9/#abschnitt_clive_barker_s_jericho) scheint MSAA bei allen SM4-Karten anstandslos zu funktionieren. Was benutzt Du? Eine 7600 GT?

so du mani wenn du noch mehr spiele brauchst sag bescheid dann kommen die nächsten,.:)

Bisher präsentierst Du keine Überraschungen - und vor allem weiß ich ehrlich gesagt nicht, was Du uns damit überhaupt zeigen willst!

Eggcake
2008-01-18, 14:47:24
Geht nicht. In 1280x1024 bricht eine GTS/320 mit 16xQ gnadenlos auf unspielbare Fps ein. Der Speicher ist randvoll. Ich orakle daher mal, dass kein AA an war oder der Treiber in Eigenregie eine niedrigere Stufe aktivierte.

MfG,
Raff

AA war definitiv garkeins an. Bei 4x AA hatte ich ~20FPS, bei 16x 35fps, ohne AA 36 FPS. Schön wärs ja, wenns an gewesen wäre :biggrin:

Aber ja, wird sich wohl verselbsständigt haben. Aber danke für die Aufklärung, hätte gedacht, dass die Karte macht, was ich ihr Befehle ;)


@Manni

Ich glaube er will einfach nur sagen, dass die Einstellungen im Treiber nicht korrekt funktionieren.

Gast
2008-01-18, 15:45:45
Naja ok, aber das ist doch bekannt und sieht bei Nvdia auch nicht wirklich besser aus. Hacks mal außen vor gelassen ;)

Gast
2008-01-18, 15:50:51
Also zum Topic, wenn man sich die Ergebnisse in diesem Test ansieht, kann ich nicht verstehen wie man eine 3870 mit einer g92 gts vergleichen kann! (im test nur eine gt)

Die 3870 stinkt durchgehend gegen die 8800er ab (hat es sogar gegen eine 8800gt 256mb teils nicht leicht)

und wenn man nun den gewinn durch cf draufrechnen würde, kommt meiner meinung nach kein besonders großer vorsprung raus, außerdem ist es immer besser eine schnelle single graka zu haben, aufgrund der multi-gpu nachteile.

ich habe übrigens eine 3850, und wenn ich zu meinem bruder rübersehe und ihn crysis zocken sehe fallen mir die augen raus!! er hat eine g92 gt

http://www.firingsquad.com/hardware/sapphire_radeon_hd_3850_ultimate_3870_atomic/

Gast
2008-01-18, 15:59:14
Naja Crysis läuft auf Nvidia Hardware besonders gut, auch CoJ und LP tun dies, wenn auch nicht so krass. Im Durchschnitt hält sich der Unterschied aber in Grenzen, sprich <= 20%.

Gast
2008-01-18, 16:05:25
und wie oft funktioniert cf durchschnittlich so wie es soll ;)

Sterems
2008-01-18, 17:38:03
Wenn Antialiasing bei euch nicht geht solltet ihr im Treiber herumspielen.

Test 1.Du startest das Spiel guckts ob aa an ist.Wenn nicht...
Test 2.Du gehst ins ccc und schaltest AA auf application controlled und drückst auf apply.Dann entfernst du den Haken wider und drückst auf apply.Dann gehst ins Spiel und guckst.

So funktioniert bei mir dann immer aa.

Der Treiber muss anscheinend denn wert nochmall schreiben.

vinacis_vivids
2008-01-19, 03:07:33
Also zum Topic, wenn man sich die Ergebnisse in diesem Test ansieht, kann ich nicht verstehen wie man eine 3870 mit einer g92 gts vergleichen kann! (im test nur eine gt)

Die 3870 stinkt durchgehend gegen die 8800er ab (hat es sogar gegen eine 8800gt 256mb teils nicht leicht)

und wenn man nun den gewinn durch cf draufrechnen würde, kommt meiner meinung nach kein besonders großer vorsprung raus, außerdem ist es immer besser eine schnelle single graka zu haben, aufgrund der multi-gpu nachteile.

ich habe übrigens eine 3850, und wenn ich zu meinem bruder rübersehe und ihn crysis zocken sehe fallen mir die augen raus!! er hat eine g92 gt

http://www.firingsquad.com/hardware/sapphire_radeon_hd_3850_ultimate_3870_atomic/

Nvidia hat auch 4 Mio. USD $ in Crysis gesteckt.
Aber das Blatt wendet sich:

Mit Zuschaltung von AA dürfte die GT und auch GTS weit abfallen
http://www.techspot.com/articles-info/83/bench/1920_DX10_High.png

Gast
2008-01-19, 03:16:15
Wendet sich? Hä? Eher normalisiert sich...

vinacis_vivids
2008-01-19, 05:33:18
Wendet sich? Hä? Eher normalisiert sich...

fehlt noch die Zuschaltung von AA, aber die werde ich bald selbst liefern.

Gast
2008-01-19, 10:10:08
fehlt noch die Zuschaltung von AA, aber die werde ich bald selbst liefern.

Jo und dann steht es 9 zu 7 für ATI. Und dann?

Coda
2008-01-19, 17:49:05
Nvidia hat auch 4 Mio. USD $ in Crysis gesteckt.
Aber das Blatt wendet sich:

Mit Zuschaltung von AA dürfte die GT und auch GTS weit abfallen
http://www.techspot.com/articles-info/83/bench/1920_DX10_High.png
Das Diagram zeigt nur, dass SLI immer noch nicht gescheit funktioniert, Crossfire aber schon. Reine Treibersache. CF hat hardwaretechnisch keinen Vorteil ggü. SLI.

Liszca
2008-01-19, 17:59:43
aber definitiv kann eine gts eine CF verbund gefährlich werden, und zwar für den der die rechnung für den strom bezahlen muß!!!

hoffentlich wird strom bald wieder teuerer ;D

Gast
2008-01-19, 18:06:10
@Spasstiger

Du erwähnst hier zweimal die mangelnde Speicherbandbreite des G92. Der R670 hat aber auch nicht mehr zu bieten (256 Bit). Im übrigen sollte man dann schon 3870 CF gegen 8800GT Sli vergleichen.

vinacis_vivids
2008-01-19, 18:24:11
Das Diagram zeigt nur, dass SLI immer noch nicht gescheit funktioniert, Crossfire aber schon. Reine Treibersache. CF hat hardwaretechnisch keinen Vorteil ggü. SLI.

Der Balken zeigt, dass CF viel mehr Potential zur Verbesserung als SLI hat. Leider wurde nicht mit AA getestet. Da wäre SLI gnadenlos im Boden versunken, was erst recht für die singlekarte gilt.

Coda
2008-01-19, 18:24:41
Der Balken zeigt, dass CF viel mehr Potential zur Verbesserung als SLI hat.
Wieso das denn? Es skaliert doch schon viel besser. Das krasse Gegenteil ist der Fall. Eine 3870 skaliert ja bereits fast 100% mit AFR. Eine 8800 GTX fast gar nichts. Theoretisch könnten da zwei locker >35FPS raushauen.

Was für Treiber wurden da überhaupt verwendet?

vinacis_vivids
2008-01-19, 18:30:00
Wieso das denn? Es skaliert doch schon viel besser.

Guck doch mal die Verbesserung der Singelkarten an. Da hat die 3870 1fps zugelegt. Was CF angeht wurde wohl nur ein schalter umgehebelt, dass CF überhaupt funktioniert, denn vorher war CF langsamer als singel 3870. Optimiert wurde da noch nicht viel.

Cat 7.12!!

Nochmal die Grafik und interpretation:

http://www.techspot.com/articles-info/83/bench/1920_DX10_High.png

Singelkarten verbesserten sich um wenige Prozentpunkte außer die 2900XT die gut zulegen kann.

8800GT SLI skalierte bereits wegen der engen Zusammenarbeit schon im 1.0, die Steigerung im Patch 1.1 ist nicht auf die bessere Skalierung zurück zu führen, sondern auf die Steigerung der Singelkarte.

3870 CF skalierte überhaupt nicht bei 1.0, sondern war sogar langsamer als singel 3870. Mit 1.1 wurde funktionierendes CF implementiert.
Die von einer verbesserten Skalierung bei CF kann nicht die Rede sein, da es keinen Vergleich gibt.

Coda
2008-01-19, 18:31:37
Ich kann deine Logik immer noch nicht nachvollziehen. Crossfire skaliert mit 1.1 bereits besser als SLI (50% ggü. ~42%).

vinacis_vivids
2008-01-19, 18:41:48
Ich kann deine Logik immer noch nicht nachvollziehen. Crossfire skaliert mit 1.1 bereits besser als SLI (50% ggü. ~42%).

Mir ist bewusst, dass CF besser skaliert. Jedoch wurde erst mit 1.1 CF überhaupt in Crysis möglich gemacht, bei SLI ging es schon mit 1.0.
Insofern ist bei ATI noch viel Treiberarbeit nötig, wohingegen es bei Nvidia schon ausgereifter ist. Daher sehe ich mehr Potential zur Besserung bei ATI. Alles klar ;D

Coda
2008-01-19, 18:43:38
Nein, das ist ausgemachter Humbug. CF und SLI unterscheiden sich technisch nur in Details, weswegen es auch dort genau das gleiche Parallelitätslimit gibt wie bei SLI auch. Bei Crysis wird wohl nie ein Treiber mit AFR auf 100% skalieren können, weil u.a. das Render-To-Texture für das Wasser ein Hindernis ist.

Oder anders gesagt: Jede Leistungssteigerung die mit SLI möglich ist, ist auch mit CF möglich und andersrum. Es gibt keine "Wundertreiber".

vinacis_vivids
2008-01-19, 18:48:36
Oder anders gesagt: Jede Leistungssteigerung die mit SLI möglich ist, ist auch mit CF möglich und andersrum. Es gibt keine "Wundertreiber".

Das ist hausgemachter Humbug, weil sich SLI und CF gerade in technischen Details doch unterscheiden, wie du bereits erwähnt hast.

Mit CF sind in wenigen Fällen eine Steigerung von gar über 100% möglich, wohingegen ich dies bei SLI nie beobachten konnte.

Coda
2008-01-19, 19:05:15
Das ist hausgemachter Humbug, weil sich SLI und CF gerade in technischen Details doch unterscheiden, wie du bereits erwähnt hast.
Nein tun sie nicht. Nicht die Bohne. Die Prinzipien sind exakt die selben. Und ich habe das auch ganz sicher nirgends erwähnt.

Mit CF sind in wenigen Fällen eine Steigerung von gar über 100% möglich, wohingegen ich dies bei SLI nie beobachten konnte.
Das ist nicht möglich, außer der Treiber versaut etwas mit nur einer Karte.

AnarchX
2008-01-19, 19:13:49
Wobei man aber sagen muss, dass bei SLI mit 512MB-GF8 die Skalierung doch auch ziemlich stark unter dem "VRAM-Bug" leidet. Da hat NV definitiv noch Arbeit vor sich, wenn die 9800GX2 kein Reinfall werden soll.

Rainman2k
2008-01-19, 19:14:55
Nein tun sie nicht. Nicht die Bohne. Die Prinzipien sind exakt die selben. Und ich habe das auch ganz sicher nirgends erwähnt.


Das ist nicht möglich, außer der Treiber versaut etwas mit nur einer Karte.


Und ob das möglich ist,
das haben wir hier im Forum schon bei anderen BEnches festgstellt.
Offenbar gibt es bei einer Single Karte eine limitierung, die bei CF gelöst wird, das 2 singlekarten zusammen pro karte dann mehr %tuale Leistung bringen.
Es war in dem Thread aber die Rede von bis zu 130% zuschlag.
Ich weiss abe rgrad im moment nicht, wo der Fred sich versteckt hat, vielleicht gräbt den einer aus.
hatte irgendwas mit skalierung von cf zu tun, und von irgendeinem wurden da mehrere bilder CF - ohne cf epostet!

Gruss

Coda
2008-01-19, 19:15:10
Wobei man aber sagen muss, dass bei SLI mit 512MB-GF8 die Skalierung doch auch ziemlich stark unter dem "VRAM-Bug" leidet. Da hat NV definitiv noch Arbeit vor sich, wenn die 9800GX2 kein Reinfall werden soll.
Warum sollte das mit SLI mehr ausmachen als sonst? Die Daten werden auf beiden Karten vollständig gespiegelt bis auf den Framebuffer.

Und ob das möglich ist,
Nein ist es nicht, außer die Single-Card-Performance ist nicht so gut wie sie sein sollte. Schon gar nicht mit AFR.

AnarchX
2008-01-19, 19:28:34
Warum sollte das mit SLI mehr ausmachen als sonst? Die Daten werden auf beiden Karten vollständig gespiegelt bis auf den Framebuffer.

In der Tat - Denkfehler...
Trotzdem bleibt das Problem im Bezug auf die kommende 9800GX2 kritisch, welche ab bestimmten Setting einbrechen würde, wo die 3870X2 weiter auf hohem Niveau bleiben würde.

AnarchX
2008-01-19, 19:33:50
Und genau dieser Framepuffer macht manchmal den Unterschied.
Aber in diesem Beispiel gerade nicht, da er ja bei der Single-Karte auch vorhanden ist.;)

Coda
2008-01-19, 19:34:55
Überhaupt glaube ich immer noch nicht an einen "VRAM-Bug". Es ist vielmehr so, dass G8x offenbar die Daten so hinterlegt dass sie mehr Speicher brauchen als bei ATi.

Einen "Bug" hätten sie inzwischen gefixt.

vinacis_vivids
2008-01-19, 19:41:27
Wobei man aber sagen muss, dass bei SLI mit 512MB-GF8 die Skalierung doch auch ziemlich stark unter dem "VRAM-Bug" leidet. Da hat NV definitiv noch Arbeit vor sich, wenn die 9800GX2 kein Reinfall werden soll.

Da die Singelkarte G92 mit 512MB unter höherem AA viel stärker einbricht als die 3870, wird sich mit der 9800GX2 auch nichts ändern. Es sei denn, es wird Hardwaremäßig an der Speicherverwaltung etwas getan. Dass es nicht an der Speichermenge liegt, belegen viele Test mit der 1GB 8800GT.

Überhaupt glaube ich immer noch nicht an einen "VRAM-Bug". Es ist vielmehr so, dass G8x offenbar die Daten so hinterlegt dass sie mehr Speicher brauchen als bei ATi.

Einen "Bug" hätten sie inzwischen gefixt.

Dann müsste die 8800GT 1GB viele Reserven freisetzen können, da sie ja mehr "Platz" hat. Alle Tests belegen aber, dass es nicht so ist.

AnarchX
2008-01-19, 19:56:07
Überhaupt glaube ich immer noch nicht an einen "VRAM-Bug". Es ist vielmehr so, dass G8x offenbar die Daten so hinterlegt dass sie mehr Speicher brauchen als bei ATi.

Einen "Bug" hätten sie inzwischen gefixt.
Das glaube ich mittlerweile auch, wobei es seltsam ist, dass in einigen Reviews die 256/320MB GF8 dazu neigen ab gewissen Settings einfach abzustürzen, wo die ATis mit 256MB munter weiterrechnen.:|

Aber das NV die 9800GX2 mit nur 2x512MB ins Rennen schicken will, ist sicherlich nicht wirklich optimal, erst recht wenn man noch die Q-SLI-Option anbietet.

Da die Singelkarte G92 mit 512MB unter höherem AA viel stärker einbricht als die 3870, wird sich mit der 9800GX2 auch nichts ändern.

Das Problem ist hier nicht so einfach:
Einmal hat die 3870 um einiges mehr Bandbreite als die 8800 GT, was aber wohl bei der X2 nicht mehr der Fall sein wird, da diese in der Referenz nur 900MHz GDDR3 vorsieht.
Ein weiteres Problem, was sich nicht ändern wird, ist der Vorteil von RV670 unter 8xMSAA, weil von 4x auf 8x G9x/G8x seine Z-Fill viertelt (http://www.hardware.fr/articles/671-4/ati-radeon-hd-2900-xt.html), während RV670 sie nur halbiert und sich somit vor G92 setzen kann.
Zu guter letzt bleibt noch das Problem der speicherlastigeren VRAM-Verwaltung, welche in gewissen AA-Settings auch Probleme bereiten kann.



Dann müsste die 8800GT 1GB viele Reserven freisetzen können, da sie ja mehr "Platz" hat. Alle Tests belegen aber, dass es nicht so ist.
In spielbaren Setting für eine G92-GPU bringt es sicherlich nicht viel, aber wir reden hier von 2-4 und von den hier mögliche Settings.;)

Coda
2008-01-19, 19:56:13
Da die Singelkarte G92 mit 512MB unter höherem AA viel stärker einbricht als die 3870, wird sich mit der 9800GX2 auch nichts ändern.
"Viel stärker einbrechen" tut sie nur bei sehr hohen Auflösungen. Ansonsten hast du natürlich recht.

Das ändert aber nichts daran wie SLI und Crossfire aus Prinzip skalieren können.

Dann müsste die 8800GT 1GB viele Reserven freisetzen können, da sie ja mehr "Platz" hat. Alle Tests belegen aber, dass es nicht so ist.
Hä? Das sagt doch gerade, dass es eben bei der 512er auch keine Probleme gibt. Mehr VRAM bringt nur was wenn er eben zu Ende geht.

vinacis_vivids
2008-01-19, 20:06:29
Hä? Das sagt doch gerade, dass es eben bei der 512er auch keine Probleme gibt. Mehr VRAM bringt nur was wenn er eben zu Ende geht.

Aber warum schreibst du dann:

Es ist vielmehr so, dass G8x offenbar die Daten so hinterlegt dass sie mehr Speicher brauchen als bei ATi.

???

dargo
2008-01-19, 20:35:55
Nein ist es nicht, außer die Single-Card-Performance ist nicht so gut wie sie sein sollte. Schon gar nicht mit AFR.
Da fällt mir gerade was ein - bei ATI gibts doch A.I off, on und advanced (oder so ähnlich). CF funktioniert afaik aber nur mit A.I advanced was zu mehr Performance auch auf einer Singlekarte führt. Könnte das die Skalierung >100% erklären? Die Singlekarten werden in der Regel mit A.I on, manchmal mit A.I off getestet. A.I advanced habe ich noch nicht bei einer Singlekarte im Test gesehen.

vinacis_vivids
2008-01-19, 20:41:02
Da fällt mir gerade was ein - bei ATI gibts doch A.I off, on und advanced (oder so ähnlich). CF funktioniert afaik aber nur mit A.I advanced was zu mehr Performance auch auf einer Singlekarte führt. Könnte das die Skalierung >100% erklären? Die Singlekarten werden in der Regel mit A.I on, manchmal mit A.I off getestet. A.I advanced habe ich noch nicht bei einer Singlekarte im Test gesehen.

Ist mit ATI advanced also auch bei einer singelkarte mit deutlichen Performancesteigerung zu rechnen?
Das würde die Aussage von Coda relativieren, wonach es keine "Wundertreiber" gibt. Es wäre ja nicht mal ein Wunder sondern nur ein "klick" auf ein Häckchen.

pest
2008-01-19, 20:43:07
Ist mit ATI advanced also auch bei einer singelkarte mit deutlichen Performancesteigerung zu rechnen?

Kommt auf die Karte an, bei meiner X1900XT legt z.B. Nature01 mit A.I. advanced ordentlich zu. Mit dem R6XX Chips passiert das nicht.
Spiele bleiben davon eher unbeeindruckt oder es sind nur bestimmte Situationen die profitieren.

dargo
2008-01-19, 20:44:09
Ist mit ATI advanced also auch bei einer singelkarte mit deutlichen Performancesteigerung zu rechnen?

Naja, deutlich würde ich zwar nicht sagen. Etwas ja, ist aber mit "schlechterer" BQ verbunden.

Coda
2008-01-19, 20:47:03
Aber warum schreibst du dann:
Weil in den derzeitigen Situationen auch so die 512 MiB meistens noch reichen, außer man fährt ganz extreme Settings.

Ist mit ATI advanced also auch bei einer singelkarte mit deutlichen Performancesteigerung zu rechnen?
Das würde die Aussage von Coda relativieren, wonach es keine "Wundertreiber" gibt. Es wäre ja nicht mal ein Wunder sondern nur ein "klick" auf ein Häckchen.
A.I. advanced Pfuscht extrem beim filtern.

Gast
2008-01-19, 20:50:10
A.I. advanced Pfuscht extrem beim filtern.

Nur sieht das keiner der einfach nur zocken will.....

Blaire
2008-01-19, 21:25:57
Wobei man aber sagen muss, dass bei SLI mit 512MB-GF8 die Skalierung doch auch ziemlich stark unter dem "VRAM-Bug" leidet. Da hat NV definitiv noch Arbeit vor sich, wenn die 9800GX2 kein Reinfall werden soll.

Genau daran liegts, gut erkannt unter Vista ist das ganz sicher der Fall ;)

Liszca
2008-01-19, 21:38:56
Ein weiteres Problem, was sich nicht ändern wird, ist der Vorteil von RV670 unter 8xMSAA, weil von 4x auf 8x G9x/G8x seine Z-Fill viertelt (http://www.hardware.fr/articles/671-4/ati-radeon-hd-2900-xt.html), während RV670 sie nur halbiert und sich somit vor G92 setzen kann.

Super, echt super, und welches aktuelle spiel kann man in vernünftiger auflösung mit 8x FSAA zocken???

keines! also siehst du deine argumentation geht da echt an der realität vorbei.

dargo
2008-01-19, 21:44:23
Super, echt super, und welches aktuelle spiel kann man in vernünftiger auflösung mit 8x FSAA zocken???

keines! also siehst du deine argumentation geht da echt an der realität vorbei.
Was ist denn für dich eine vernünftige Auflösung? Ich kann zb. NfS: ProStreet ohne Probleme mit 1280x1024 8xQMSAA/16xAF spielen.

deekey777
2008-01-19, 21:46:18
A.I. advanced Pfuscht extrem beim filtern.
Aber nicht nur beim Filtern, siehe Doom 3 at Ultra Quality.

AnarchX
2008-01-19, 21:54:03
Super, echt super, und welches aktuelle spiel kann man in vernünftiger auflösung mit 8x FSAA zocken???

keines! also siehst du deine argumentation geht da echt an der realität vorbei.
:| Ganz verstehe ich nun nicht, was dein Posting, in unangemessener Form(betrunken?), mit meiner Erklärung für vinacis_vivids zu tun hat, warum die 8800er unter 8xMSAA meist gegen RV670 wegbrechen.

Und wie schon dargo zeigt, kann man 8xMSAA doch einsetzen und es muss ja auch nicht immer das aktuellste Game sein, ein Oblivion ist z.B. auch heute noch sehenswert.;)

Liszca
2008-01-19, 22:00:41
Was ist denn für dich eine vernünftige Auflösung? Ich kann zb. NfS: ProStreet ohne Probleme mit 1280x1024 8xQMSAA/16xAF spielen.

zum beispiel die auflösung, aber dass das flüssig sein soll kann ich mir nicht vorstellen...

dargo
2008-01-19, 22:06:04
zum beispiel die auflösung, aber dass das flüssig sein soll kann ich mir nicht vorstellen...
Ich aber. ;)

Gast
2008-01-19, 23:03:37
Da fällt mir gerade was ein - bei ATI gibts doch A.I off, on und advanced (oder so ähnlich). CF funktioniert afaik aber nur mit A.I advanced was zu mehr Performance auch auf einer Singlekarte führt.

Ist mit ATI advanced also auch bei einer singelkarte mit deutlichen Performancesteigerung zu rechnen?


Ich hatte bei einigen Tests (Single Graka) sogar weniger FPS mit AI Advance...?