PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 295: (P)Review-Thread


Seiten : 1 [2] 3

crux2005
2009-01-06, 11:36:19
btw: in der Slowakei (http://www.atcomp.sk/zbozi/vga-karty-pci-express/graficke-karty-strizne-a-tv-tunery/gigabyte/seznam.aspx?p=kpv:163:1612:76) waren die Gigabyte GeForce GTX 295 und GTX 285 schon Gestern gelistet:

http://s10b.directupload.net/images/090106/u78a9qg8.jpg

status war sogar "auf Lager"
Preise: 490 und 375 Euro...

Schlammsau
2009-01-07, 20:17:32
Die GTX295 ist seit heute bei Geizhals für 502€ (http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=gtx+295&asd=on&v=e&pixonoff=on&filter=+Liste+aktualisieren+&bl1_id=100&xf=) gelistet. :ulol:

Blaire
2009-01-07, 20:23:53
Die GTX295 ist seit heute bei Geizhals für 502€ (http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=gtx+295&asd=on&v=e&pixonoff=on&filter=+Liste+aktualisieren+&bl1_id=100&xf=) gelistet. :ulol:

Normaler Preis, wird aber sicher noch günstigere Anbieter geben. ;)
Bei den Amis gibts schon welche für 529$ http://www.hardforum.com/showpost.php?p=1033555378&postcount=1

Spasstiger
2009-01-07, 20:25:48
Die GTX295 ist seit heute bei Geizhals für 502€ (http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=gtx+295&asd=on&v=e&pixonoff=on&filter=+Liste+aktualisieren+&bl1_id=100&xf=) gelistet. :ulol:
Die wird zu dem Preis genauso ihre Abnehmer finden wie auch die 9800 GX2.
Auf jeden Fall ist man mit zwei übertakteten GTX 260-216 in 55 nm + SLI-Board teurer dran, braucht mehr Platz und hat eine höhere Stromrechnung.

dildo4u
2009-01-07, 20:26:43
Natürlich nimmt man zum Start noch ein Launch Bonus ich schätze die GTX 295 wird in 2-3 Wochen maximal 70€ mher kosten wie die X2 und ca 25% schneller sein im Schnitt und weniger Strom verbrauchen.Selbst 500€ wären zu den 400€ der X2 zur Zeit ok.

Schlammsau
2009-01-07, 20:35:04
Es sind keine 30% im Schnitt! Ausser natürlich bei den typischen auf nVidia optimierten Games, wie L4D, FC2, CoD5, etc.
In Fallout 3 (http://www.pcgameshardware.de/aid,670858/Test/Benchmark/Geforce_GTX_295_-_Erster_Test_der_Nvidia-Dual-Grafikkarte/?page=5) z.B. liefert sie sich ein Kopf an Kopf rennen mit der 4870X2.
Die GTX295 ist doch auch nur eine Kombi aus 2 beschnittenen GTX260²!

dildo4u
2009-01-07, 20:37:34
Es sind keine 30% im Schnitt! Ausser bei typischen auf nVidia optimierten Games.
Die GTX295 ist doch auch nur eine Kombi aus 2 beschnittenen GTX260²!
Informier dich erstmal die Chips sind 240 Shaderchips da ist nix beschnitten nur der Takt wurde leicht gesenkt gegenüber einer GTX 280(um 25mhz) um die X2 bei Stromverbrauch deutlich zu unterbieten bei deutlich mher Rechenleistung.

Spasstiger
2009-01-07, 20:37:44
Es sind keine 30% im Schnitt! Ausser natürlich bei den typischen auf nVidia optimierten Games.
Die GTX295 ist doch auch nur eine Kombi aus 2 beschnittenen GTX260²!
Die GTX 295 ist mehr als zwei GTX 260-216. Immerhin hat die GTX 295 2*240 SPs und nicht 2*216 SPs.
Außerdem hat die GTX 295 offenbar die sparsame Variante der 55-nm-Chips abbekommen.

Raff
2009-01-07, 20:39:11
Es ist völlig Wurstsalat, mit was Nvidia die GTX 295 zur schnellsten erhältlichen Grafikkarte macht. Sie wird der HD4870 X2 in 95% der Fälle davonrennen. Und diesen Effekt wird jeder Käufer spüren, ergo sind 500 €uro angebracht. Dennoch sollte jeder immer im Hinterkopf behalten, dass wir hier MGPU-Mist mit MGPU-Mist vergleichen.

MfG,
Raff

AnarchX
2009-01-07, 20:39:30
Die GTX295 ist doch auch nur eine Kombi aus 2 beschnittenen GTX260²!
2x240SPs sind keine zwei beschnittenen GTX260-216SPs. ;)


In den Niederlanden steht sie übrigens schon für 459€ in den Regalen und das ist eine EVGA-Karte:
http://img224.imageshack.us/img224/6739/2952ic6.jpg
http://img224.imageshack.us/img224/4733/2953ph1.jpg
http://gathering.tweakers.net/forum/view_message/31304116

;)

Schlammsau
2009-01-07, 20:43:46
Es ist völlig Wurstsalat, mit was Nvidia die GTX 295 zur schnellsten erhältlichen Grafikkarte macht. Sie wird der HD4870 X2 in 95% der Fälle davonrennen. Und diesen Effekt wird jeder Käufer spüren, ergo sind 500 €uro angebracht. Dennoch sollte jeder immer im Hinterkopf behalten, dass wir hier MGPU-Mist mit MGPU-Mist vergleichen.

MfG,
Raff

Sorry aber der Umstand wird ihr auch nicht mehr Käufer als 4870X2 einbringen.
Klar ist sie schneller als die X2. Aber wieviel % sind es wirklich? 15%?
Auch die 400€ für die Radeon sind nicht angebracht und du redest davon, dass 500€ für die Geforce angebracht wären?

Ok@all
dann ist es eben kein beschnittener GT200b! :redface:

dildo4u
2009-01-07, 20:45:56
Sorry aber der Umstand wird ihr auch nicht mehr Käufer als 4870X2 einbringen.
Klar ist sie schneller als die X2. Aber wieviel % sind es wirklich? 15%?
Auch die 400€ für die Radeon sind nicht angebracht und du redest davon, dass 500€ für die Geforce angebracht wären?

25% bei 4XAA 18% bei 8XAA laut PCGH.Was bis jetzt getestet wurde die X2 wurde mit neuen optemierten 8.12 Treibern getestet also laber nicht wegen Nvidia Spielen laut CB hat ATI dort kein Nachteil mher.

"Die Geforce GTX 295 ist über die fünf getesteten Spiele hinweg mit vier- wie achtfacher Kantenglättung der klare Sieger. Zwar schrumpfen die 25 Prozent mit 4x FSAA auf 18 Prozent mit 8x FSAA zusammen, der Vorsprung bleibt aber deutlich. Die Stunde der HD 4870 X2 schlägt einzig in sehr hohen Auflösungen, allerdings wird diese Tatsache durch die absolut niedrigen Fps relativiert."

http://www.pcgameshardware.de/aid,671188/Test/Benchmark/Geforce_GTX_295_vs_Radeon_HD_4870_X2-_Benchmark-Test_mit_8x-Kantenglaettung/

AnarchX
2009-01-07, 20:47:41
Es ist völlig Wurstsalat, mit was Nvidia die GTX 295 zur schnellsten erhältlichen Grafikkarte macht. Sie wird der HD4870 X2 in 95% der Fälle davonrennen. Und diesen Effekt wird jeder Käufer spüren, ergo sind 500 €uro angebracht. Dennoch sollte jeder immer im Hinterkopf behalten, dass wir hier MGPU-Mist mit MGPU-Mist vergleichen.

Mit Stereo 3D dürfte aber bei NV doch MGPU, jedenfalls mit 2 GPUs doch wieder um einiges interessanter werden oder unterstützt es momentan noch kein SLI?
Du (http://www.pcgameshardware.de/aid,670854/News/Geforce_3D_Vision-_Die_Rueckkehr_der_3D-Brille_in_PC-Spielen/) solltest ja dazu schon etwas sagen können. ;)

Schlammsau
2009-01-07, 20:48:11
25% bei 4XAA 18% bei 8XAA laut PCGH.Was bis jetzt getestet wurde die X2 wurde mit neuen optemierten 8.12 Treiber getestet also laber nicht wegen Nvidia Spielen laut CB hat ATI dort kein Nachteil mher.

Schau dir die Games an. Bei diesen hat ATi trotz des 8.12 Catalysts, noch immer teils deutlich das nachsehen. In anderen Games schauts wieder ganz anders aus!

y33H@
2009-01-07, 20:48:41
Aber wieviel % sind es wirklich? 15%? Meistens mehr, nur selten weniger. Und damit ist der Aufpreis fair. Im Schnitt über 20% schneller, da sind 500€ ok, wenn die X2 400€ kostet.Auch die 400€ für die Radeon sind nicht angebrachtGenerell sind die Preise bei MGPU nicht angebracht, da sie das doppelte kosten, es in der Regel aber nicht ansatzweise leisten (meist nur 50-70% und davon muss man an sich noch die µRuckler rausrechnen, bleiben 25-40% - arm.).In anderen Games schauts wieder ganz anders aus!Nö, idR nicht.

cYa

Raff
2009-01-07, 20:49:20
Sorry aber der Umstand wird ihr auch nicht mehr Käufer als 4870X2 einbringen.
Klar ist sie schneller als die X2. Aber wieviel % sind es wirklich? 15%?
Auch die 400€ für die Radeon sind nicht angebracht und du redest davon, dass 500€ für die Geforce angebracht wären?

Ok@all
dann ist es eben kein beschnittener GT200b!

So gesehen stimmt's: 400 Euro für die X2 sind zu viel, damit sind auch 500 Euro für die GTX 295 zu viel, ja. Deswegen werden nach dem Launch auch sicher die Preise beider Karten fallen. Aber es ist egal: Die Krone geht wieder an Nvidia, weshalb endlich wieder AMD/Ati unter Druck ist. Das Problem ist, dass sich derartiger Druck nie in besserer Bildqualität niederschlägt, sondern eher in schlechterer ... aber immerhin in besseren Preisen.

Die wirklich interessante NV-Karte, von der man jedoch keine Wunder erwarten sollte, kommt erst noch.

MfG,
Raff

Schlammsau
2009-01-07, 20:52:17
Nö, idR nicht.

Hier nur eine Ausnahme?
http://www.pcgameshardware.de/aid,670858/Test/Benchmark/Geforce_GTX_295_-_Erster_Test_der_Nvidia-Dual-Grafikkarte/?page=5

So gesehen stimmt's: 400 Euro für die X2 sind zu viel, damit sind auch 500 Euro für die GTX 295 zu viel, ja. Deswegen werden nach dem Launch auch sicher die Preise beider Karten fallen. Aber es ist egal: Die Krone geht wieder an Nvidia, weshalb endlich wieder AMD/Ati unter Druck ist.

Die einzige preislich interessante MGPU Karte ist immo die 4850X2 2GB. Die ist für ihre 275€ schon fast ein Schnäppchen und nur unwesentlich langsamer als die 4870X2.

dildo4u
2009-01-07, 20:53:15
Schau dir die Games an. Bei diesen hat ATi trotz des 8.12 Catalysts, noch immer teils deutlich das nachsehen. In anderen Games schauts wieder ganz anders aus!
Die 4870 gewinnt immer gegen die alte GTX 260 und gegen die war sie angesetzt Nvidia musste ja die 216 SP GTX260 nachlegen.

y33H@
2009-01-07, 21:00:20
@ Schlammsau

CPU-Limit beiden Dual-Karten ...

cYa

dargo
2009-01-07, 21:00:52
Die GTX295 ist seit heute bei Geizhals für 502€ (http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=gtx+295&asd=on&v=e&pixonoff=on&filter=+Liste+aktualisieren+&bl1_id=100&xf=) gelistet. :ulol:
Und was möchtest du mit dem Smiley zum Ausdruck bringen? Ich sehe im Link:

1. Einen Hersteller.
2. Einen Shopanbieter.
3. Nicht lieferbar.

:uclap:

In ~4 Wochen können wir gerne nochmal über den Preis diskutieren.


CPU-Limit beiden Dual-Karten ...

Richtig, wobei ich mich gerade frage warum die PCGH GPUs mit Savegames testet? :confused:

Schlammsau
2009-01-07, 21:04:11
@ Schlammsau

CPU-Limit beiden Dual-Karten ...

cYa


bei 2560x1600, 4xAA? (http://www.guru3d.com/article/geforce-gtx-295-preview/11) :|

Haha....bis 1920x1200 CPU Limit, bei höheren Auflösungen nicht mehr. Aber trotzdem Gleichstand! :P
And for those that are wondering, yes up to 1920x1200 that's CPU limitation. And we're merely using a Core i7 965 processor at 3.7 GHz ;)

reunion
2009-01-07, 21:05:23
Aber es ist egal: Die Krone geht wieder an Nvidia, weshalb endlich wieder AMD/Ati unter Druck ist.

Dir ist schon klar das NV nach wie vor klarer Marktführer ist und Gewinne schreibt während AMD nur dank Dubai an der Insolvenz vorbei geschrammt ist? Wie man da froh sein kann das die Krone wieder an nV geht und AMD endlich wieder unter Druck steht erschließt sich mir nicht im geringsten.

Raff
2009-01-07, 21:07:03
Dir ist schon klar das NV nach wie vor klarer Marktführer ist und Gewinne schreibt während AMD nur dank Dubai an der Insolvenz vorbei geschrammt ist? Wie man da froh sein kann das die Krone endlich wieder an nV geht erschließt sich mit nicht im geringsten.

Ganz einfach: Mir geht diese übermütige Pro-Ati-Übermacht seit Monaten unglaublich auf den Sack. Das wird damit aufhören. Ich gönne es AMD/Ati sehr, wenn sie mit guten Produkten Gewinn machen. Ich hab' das selbst belohnt und zum Launch eine HD4870 gekauft. Nicht aber verstehe ich, wie die halbe Welt über die ohne Zweifel existenten Probleme hinwegsehen und hypen kann.

MfG,
Raff

y33H@
2009-01-07, 21:11:14
@ Schlammsau

Joa, anders lassen sich die Werte nicht interpretieren imo. Guru3D-Bench =! PCGH-Bench.Richtig, wobei ich mich gerade frage warum die PCGH GPUs mit Savegames testet?Mit was sonst?

Saves aka reale Spielszenen, die einige Zeit dauern, mit Bewegung, KI, Explosionen usw. Für L4D kommt eine Realtime-Demo zum Einsatz, Timedemos natürlich nicht.

cYa

Schlammsau
2009-01-07, 21:15:35
@ Schlammsau
Joa, anders lassen sich die Werte nicht interpretieren imo. Guru3D-Bench =! PCGH-Bench.Mit was sonst?


Ausrede!
Schau dir die Balken von Fallout 3 genau an. Eine 4870 ist der GTX260² ebenbürtig! Warum sollte dann auf einmal die 295 deutlich schneller als eine X2 sein?

Gast
2009-01-07, 21:16:04
Die 4870 gewinnt immer gegen die alte GTX 260 und gegen die war sie angesetzt Nvidia musste ja die 216 SP GTX260 nachlegen.

Gegen die GTX 260 216sp siehts doch gut aus

http://www.pcgameshardware.de/aid,671247/Test/Benchmark/Catalyst_812_vs_Geforce_18048-_Benchmark-Test_mit_GTX_260-216_und_9800_GTX_sowie_HD_4870_und_HD_4850/

Auch hier verkauft sich die HD 4870 recht ordentlich gegen die GTX 280 http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_anti-aliasing_ati_nvidia/#abschnitt_einleitung

Raff
2009-01-07, 21:16:55
Ausrede!
Schau dir die Balken von Fallout 3 genau an. Eine 4870 ist der GTX260² ebenbürtig! Warum sollte dann auf einmal die 295 deutlich schneller als eine X2 sein?

Die GTX 295 hat 2x 240 ALUs, die GTX-260"²" 216. Klar, für deutlich mehr Leistung sorgt das nicht, aber für 'nen leichten Vorsprung.

Ansonsten: Die GTX 295 wird wie auch die GTX 260 in extremen Einstellungen an ihrem Speicher(interface) eingehen. Es wird gewiss Fälle geben, wo GTX-280-SLI und die HD4870 X2 deutlich schneller sind.

MfG,
Raff

LovesuckZ
2009-01-07, 21:18:20
Auch hier verkauft sich die HD 4870 recht ordentlich gegen die GTX 280 http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_anti-aliasing_ati_nvidia/#abschnitt_einleitung

CPU-Limit bei fast jedem Spiel.

Schlammsau
2009-01-07, 21:20:02
Die GTX 295 hat 2x 240 ALUs, die GTX-260"²" 216. Klar, für deutlich mehr Leistung sorgt das nicht, aber für 'nen leichten Vorsprung.

MfG,
Raff

Ok, dann ist evtl das SLi Profil fehlerhaft. Aber egal, wie ich bereits schrieb, der Preis macht die Musik.

dargo
2009-01-07, 21:21:27
Mit was sonst?

Mit Timedemos natürlich, um möglichst geringe CPU-Last zu erzeugen. Im Optimalfall natürlich zu 100% gpu-limitierte Szenen.

Gast
2009-01-07, 21:22:50
Ganz einfach: Mir geht diese übermütige Pro-Ati-Übermacht seit Monaten unglaublich auf den Sack.

MfG,
Raff

FB FTW :P

CPU-Limit bei fast jedem Spiel.

4Ghz Yorkfield ist auch Low End :rolleyes:

Raff
2009-01-07, 21:23:12
Mit Timedemos natürlich, um möglichst geringe CPU-Last zu erzeugen.

:|

Wo ist da die Praxisnähe? Deaktivieren wir demnächst das Pixel-Shading in Crysis, obwohl so keine Sau spielt? ;)

FB FTW :P

Jaja. Aaaaaalt. Wird dadurch aber auch nicht richtig.

MfG,
Raff

LovesuckZ
2009-01-07, 21:27:31
4Ghz Yorkfield ist auch Low End :rolleyes:

Ändert nichts an der Tatsache, dass Computerbase.de vorwiegend CPU-limitierte Szenarien ausgewählt hat.

Gast
2009-01-07, 21:27:42
Jaja. Aaaaaalt. Wird dadurch aber auch nicht richtig.

MfG,
Raff

Na wenn du mit solchen Aussagen um dich wirfst ;)

Und ja ich weiß das du ein FB bist von 3DFX...hehe

y33H@
2009-01-07, 21:30:17
Schau dir die Balken von Fallout 3 genau an. Eine 4870 ist der GTX260² ebenbürtig!Äh, CPU-Limit. Nichts mit ebenbürtig, da die CPU bremst. Sie ist nur gleichschnell in diesem Fall - das ist aber etwas anderes.Mit Timedemos natürlich, um möglichst geringe CPU-Last zu erzeugen.Zockst du Timedemos? Ich nicht ;D

cYa

dargo
2009-01-07, 21:31:11
Wo ist da die Praxisnähe?
Was ist denn die Praxisnähe? Ich kenne zig verschiedene Settings wie man ein Game spielen kann (mit einer Konfiguration wohlgemerkt). Außerdem nehmt ihr eine Szene von tausenden die Ingame ständig zwischen CPU-/ und GPU-Limit wechseln können. Ich dachte man will mit den Tests zeigen um wieviel % GPU X schneller ist als GPU Y. Da sind Savegames völlig ungeeignet. Und das sieht man auch an eurem Fallout 3-Test.
http://www.pcgameshardware.de/aid,670858/Test/Benchmark/Geforce_GTX_295_-_Erster_Test_der_Nvidia-Dual-Grafikkarte/?page=5

In allen 3 Settings zum großen Teil CPU-Limit bei den MGPU-Grakas.

derguru
2009-01-07, 21:33:58
Die GTX 295 hat 2x 240 ALUs, die GTX-260"²" 216. Klar, für deutlich mehr Leistung sorgt das nicht, aber für 'nen leichten Vorsprung.


der leichte vorsprung geht dann wieder fast verloren durch PCI-E 8fach.deshalb wird es auch zwischen der 295gtx und einem 260²gtx sli kaum unterschiede geben.
minimi

Raff
2009-01-07, 21:34:06
Was ist denn die Praxisnähe? Ich kenne zig verschiedene Settings wie man ein Game spielen kann (mit einer Konfiguration wohlgemerkt). Außerdem nehmt ihr eine Szene von tausenden die Ingame ständig zwischen CPU-/ und GPU-Limit wechseln können. Ich dachte man will mit den Tests zeigen um wieviel % GPU X schneller ist als GPU Y. Da sind Savegames völlig ungeeignet. Und das sieht man auch an eurem Fallout 3-Test.
http://www.pcgameshardware.de/aid,670858/Test/Benchmark/Geforce_GTX_295_-_Erster_Test_der_Nvidia-Dual-Grafikkarte/?page=5

In allen 3 Settings zum großen Teil CPU-Limit bei den MGPU-Grakas.

Wenn eine Grafikkarte mit einem Savegame keine Vorteile hat, dann hat sie die im Spielalltag auch nicht. Warum soll ich versuchen, theoretisch Unterschiede herauszubenchen, die praktisch gar nicht auftreten? Teste ich um des Tests Willen, oder um zu sehen, was mir praktisch das beste Ergebnis bringt? :) Ideal ist natürlich beides, um jeden Fall aufzuzeigen. Praktisch relevant ist aber nur das Savegame.

MfG,
Raff

Schlammsau
2009-01-07, 21:34:24
Äh, CPU-Limit. Nichts mit ebenbürtig, da die CPU bremst. Sie ist nur gleichschnell in diesem Fall.

Willst du mich veräppeln? :mad:
Bei einem Core i7 965 @ 3.7 GHz bei 2560x1600 und 4xAA von einem CPU Limit zu sprechen, ist schon sehr gewagt.
Ach weisst du was, vergiss es!

dargo
2009-01-07, 21:34:34
Zockst du Timedemos? Ich nicht ;D
Spielst du immer die gleiche Szene die von der PCGH getestet wurde? Bitte erst denken, dann posten.

y33H@
2009-01-07, 21:34:36
Man will mit den Tests zeigen, wie die Spiele auf ner Karte laufen und dabei ergibt sich automatisch, dass Karte X schneller ist als Karte Y. Was bringts mir, wenn ich weiß, dass Karte X schneller ist als Karte Y, das Spiel aber auf beiden 100% flüssig ist oder auf beiden ruckelt? Nichts.

Fallout 3 ist die Ausnahme, da bremst eben die "lahme" DC-CPU - in wie vielen Spielen ist das der Fall? 5%? 4%?Bei einem Core i7 965 @ 3.7 GHz bei 2560x1600 und 4xAA von einem CPU Limit zu sprechen, ist schon sehr gewagt! Ach darauf beziehst du dich dieses Mal. Oh ja, die X2 ist fette 0,26% schneller, bei Werten von über 60 Fps. Damit ist klar, dass die X2 die ub0r-Karte ist ... na klar ;DSpielst du immer die gleiche Szene die von der PCGH getestet wurde? Bitte erst denken, dann posten.Freilich nicht - gleiches gilt bei der Timedemo auch, ergo ist das kein Argument. Zumal PCGH idR Worst-Cases bencht, d.h. läuft der Bench passabel, dann das restliche Spiel auch. Find ich gut.

cYa

dargo
2009-01-07, 21:41:17
Wenn eine Grafikkarte mit einem Savegame keine Vorteile hat, dann hat sie die im Spielalltag auch nicht. Warum soll ich versuchen, theoretisch Unterschiede herauszubenchen, die praktisch gar nicht auftreten? Teste ich um des Tests Willen, oder um zu sehen, was mir praktisch das beste Ergebnis bringt? :) Ideal ist natürlich beides, um jeden Fall aufzuzeigen. Praktisch relevant ist aber nur das Savegame.

Ihr testet mit Savegames gerade mal paar Sekunden ein Game welches mehrere Stunden Spieldauer bietet. Was ist daran praxisrelevant? Wenn man es praxisrelevant aufzeigen will müsste man einen Frameverlauf von mehreren Stunden aufzeichnen. :ugly:
Und selbst das hätte keine 100%-ige Aussagekraft, schließlich kann ich im Spiel anders vorgehen.

Ich bleibe dabei:

1. CPU-Tests = Savegames
2. GPU-Tests = Timedemos

In beiden Fällen jeweils ein Limit von 100% "erzwingen".

Schlammsau
2009-01-07, 21:42:13
Fallout 3 ist die Ausnahme, da bremst eben die "lahme" DC-CPU - in wie vielen Spielen ist das der Fall? 5%? 4%?Ach darauf beziehst du dich dieses Mal. Oh ja, die X2 ist fette 0,26% schneller, bei Werten von über 60 Fps. Damit ist klar, dass die X2 die ub0r-Karte ist ... na klar ;D

Ich habe NIEMALS gesagt, dass die X2 schneller ist! :mad:
Ich wollte nur aufzeigen, dass die GTX295 nicht im Schnitt 30% schneller ist, mehr nicht! Das es durchaus Fälle geben kann, wo sich beide Karten ein Kopf an Kopf rennen liefern!

Und jetzt bin ich raus, kein Bock mehr!

Raff
2009-01-07, 21:47:36
Wuahahaaa, der morgige Tag wird gewiss in die Geschichte eingehen. Als der Tag, an dem weltweit in jedem Forum zu zwei Themen die wildesten Flamewars aller Zeiten ausgetragen werden. Sozusagen ein "Weltkrieg". AMD vs. Intel und Ati vs. Nvidia am selben Tag – die haben sich doch abgesprochen. :ulol:

Ich bin auch raus, mir ist das jetzt schon zu blöd.

MfG,
Raff

dargo
2009-01-07, 21:48:03
Freilich nicht - gleiches gilt bei der Timedemo auch, ergo ist das kein Argument.

Ich sage auch nicht, dass eine Timedemo praxisrelevanter wäre. Mit dieser verringere ich aber die CPU-Last wodurch die Grafikkarte überhaupt erst zeigen kann was sie leistet.


Zumal PCGH idR Worst-Cases bencht, d.h. läuft der Bench passabel, dann das restliche Spiel auch. Find ich gut.

Es gibt nicht das Worst-Case-Szenario. Es kann sich um extremes CPU-Limit, extremes GPU-Limit oder aber auch eine Mischung vom Beiden handeln, sprich extreme Hardwareanforderung von beiden Seiten.

y33H@
2009-01-07, 21:53:07
Mit dieser verringere ich aber die CPU-Last wodurch die Grafikkarte überhaupt erst zeigen kann was sie leistet. Das hat für die Spiele-Praxis aber keinerlei Relevanz. Als Zusatztest meinetwegen, aber nicht bei einem Test mit der Ausrichtung einer PCGH oder einer CB.Es gibt nicht das Worst-Case-Szenario.Mein O-Ton lautet "PCGH bencht idR Worst-Cases". Worst-Cases ist plural und impliziert nicht, dass damit zwanghaft ein extremes CPU-Limit, extremes GPU-Limit oder aber auch eine Mischung vom Beiden vorhanden ist, sondern eine repräsentative Stelle. idR werden GraKas mit GPU-Limit-Benches, Prozzis aber mit CPU-Limit-Benches getestet - ist auch so sinnvoll imo. CPUs zudem mit GPU-lastigeren Settings, da praxisnäher.

Ich sehe keinen Grund, es anders zu handhaben.

cYa

derguru
2009-01-07, 21:57:02
Ich habe NIEMALS gesagt, dass die X2 schneller ist! :mad:
Ich wollte nur aufzeigen, dass die GTX295 nicht im Schnitt 30% schneller ist, mehr nicht! Das es durchaus Fälle geben kann, wo sich beide Karten ein Kopf an Kopf rennen liefern!

Und jetzt bin ich raus, kein Bock mehr!

lol,30% schneller das sind wenn es hoch kommt 2*280 gtx sli wenn überhaupt.wer sagt denn sowas?

die 295gtx dürfte im durchschnitt 10% schneller als ein 260 gtx im sli sein
die 295 gtx müßte etwa 15% schneller als eine x2 sein.(außer in den pcgh benchs da wird es dann wieder anders aussehen)30% und mehr:eek:
http://www.abload.de/thumb/gesamtrankingt1yy.gif (http://www.abload.de/image.php?img=gesamtrankingt1yy.gif)

dargo
2009-01-07, 21:58:43
idR werden GraKas mit GPU-Limit-Benches, Prozzis aber mit CPU-Limit-Benches getestet - ist auch so sinnvoll imo.
Aber davon rede ich doch die ganze Zeit. :| :)
Ich bleibe dabei:

1. CPU-Tests = Savegames
2. GPU-Tests = Timedemos

In beiden Fällen jeweils ein Limit von 100% "erzwingen".
Und genau das Gegenteil macht die PCGH im Fall von Fallout3, nämlich Grakas (in diesem Fall MGPU) mit CPU-Limits zu testen.

y33H@
2009-01-07, 22:07:41
Bei F3 gehen keine Timedemos, zumindest habe ich nie etwas anderes in Erfahrung bringen können.nämlich Grakas (in diesem Fall MGPU) mit CPU-Limits zu testen.Ein Spiel mit zwei MGPU-Karten und einem C2D ... mit einem i7 sieht es wieder anders aus. Was beklagst du dich?GPU-Tests = TimedemosIch wiederhole mich - kein Praxisbezug.

cYa

LovesuckZ
2009-01-07, 22:10:46
lol,30% schneller das sind wenn es hoch kommt 2*280 gtx sli wenn überhaupt.wer sagt denn sowas?

die 295gtx dürfte im durchschnitt 10% schneller als ein 260 gtx im sli sein
die 295 gtx müßte etwa 15% schneller als eine x2 sein.(außer in den pcgh benchs da wird es dann wieder anders aussehen)30% und mehr:eek:
http://www.abload.de/thumb/gesamtrankingt1yy.gif (http://www.abload.de/image.php?img=gesamtrankingt1yy.gif)

Das ist die alte 260. Die neue hat 25% mehr Leistung durch die 8 10 Cluster.

y33H@
2009-01-07, 22:12:07
Die neue hat 25% mehr Leistung durch die 8 Cluster.Vertippt? ;)

cYa

derguru
2009-01-07, 22:16:38
Das ist die alte 260. Die neue hat 25% mehr Leistung durch die 8 10 Cluster.
hab kein 260² sli vergleich auf anhieb gefunden aber das macht kaum ein unterschied.5% kannste dann nochmal gutschreiben.

y33H@
2009-01-07, 22:19:02
außer in den pcgh benchs da wird es dann wieder anders aussehenMan beachte die Spiele :rolleyes:5% kannste dann nochmal gutschreiben.Womit wir laut deiner Rechnung (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7024554&postcount=297)(!) bereits bei 20% wären. PCGH hat 18-25%, macht im Schnitt 1,5% mehr als 20% ... böse gelle? ;D

"Die Geforce GTX 295 ist über die fünf getesteten Spiele hinweg mit vier- wie achtfacher Kantenglättung der klare Sieger. Zwar schrumpfen die 25 Prozent mit 4x FSAA auf 18 Prozent mit 8x FSAA zusammen, der Vorsprung bleibt aber deutlich."

cYa

LovesuckZ
2009-01-07, 22:19:19
hab kein 260² sli vergleich auf anhieb gefunden aber das macht kaum ein unterschied.5% kannste dann nochmal gutschreiben.

Es sollten um die 15% Mehrleistung sein, wenn man sieht, dass die 216 Version ca. 7,5% schneller ist.

derguru
2009-01-07, 22:31:10
Man beachte die Spiele :rolleyes:Womit wir laut deiner Rechnung (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7024554&postcount=297)(!) bereits bei 20% wären. PCGH hat 18-25%, macht im Schnitt 1,5% mehr als 20% ... böse gelle? ;D

"Die Geforce GTX 295 ist über die fünf getesteten Spiele hinweg mit vier- wie achtfacher Kantenglättung der klare Sieger. Zwar schrumpfen die 25 Prozent mit 4x FSAA auf 18 Prozent mit 8x FSAA zusammen, der Vorsprung bleibt aber deutlich."

cYa

auf die 5 getesten spiele,hehe
mal sehen wie es aussieht wenn der rest an spielen dabei ist;)
http://www.pcgameshardware.de/aid,671247/Test/Benchmark/Catalyst_812_vs_Geforce_18048-_Benchmark-Test_mit_GTX_260-216_und_9800_GTX_sowie_HD_4870_und_HD_4850/?page=1
aber egal morgen ist tach der wahrheit.

reunion
2009-01-07, 23:00:53
Es sollten um die 15% Mehrleistung sein, wenn man sieht, dass die 216 Version ca. 7,5% schneller ist.

Chip A 100%
Chip B 107.5%

SLI:
Chip A 200%
Chip B 215%

Chip B ist natürlich auch mit SLI nicht mehr als 7.5% schneller. Wenn du es im Bezug auf die erhöhte Cluster-Anzahl gesagt hast, dann habe ich nichts gesagt. :)

LovesuckZ
2009-01-07, 23:03:24
Es bezug sich auf auf den Vergleich einer 260-240 gegenüber einer 260-192.

Frank1974
2009-01-07, 23:40:01
Für mich ich ist die GTX295 sehr interessant, da kann man schön etwas höhere Hybrid Modi einstellen, 8xMSAA nutze ich eh so gut wie nie, vollkommen überflüssig der Modus, aber 8xS oder höher das ist was, deswegen ist die 4870x2 für mich auch keine Alternative, selbst für 250€ würde ich die Karte nicht nehmen.

Mal sehen ob ich meine GTX280 gegen die 295 austausche, als Test Freak müsste ich, mal sehen, ab 450€ bin ich dabei, ich möchte gerne mal sehen wie SLI so ist, ich hoffe das die Karten nicht auch so was wie den Heatbug haben, mit meiner GTX280 sofort in der ersten Woche hatte ich ziemlich viel Glück, meine Karte war in Ordnung.

Eine zweite GTX280 ist keine Option, ich mag die Nforce Boards nicht.

mfg
Frank

Gast
2009-01-07, 23:58:28
101 GTX295 benchmarks
http://www.theinquirer.net/inquirer/news/268/1050268/101-gtx295-benchmarks

Mayk-Freak
2009-01-08, 02:18:57
Eine zweite GTX280 ist keine Option, ich mag die Nforce Boards nicht.

mfg
Frank

Für 2x 280GTX braucht man nicht unbedingt ein Nvidia Board ein Intel X58 reicht auch!

Coda
2009-01-08, 03:26:53
Nur wenn das Board SLI-Zertifiziert ist.

derguru
2009-01-08, 03:30:52
dann nimmt man das bios vom sli board und schon gehts auch,ist halt nur nicht offiziell aber funzt einwandfrei.
wie z.b. beim msi platinum X58 non sli board.

Coda
2009-01-08, 04:57:06
Das kann, muss aber nicht funktionieren. Die SLI-Version könnte ja durchaus auch andere Komponenten enthalten.

Aber ansonsten ist das natürlich ein guter Hinweis.

Spasstiger
2009-01-08, 07:01:07
der leichte vorsprung geht dann wieder fast verloren durch PCI-E 8fach.deshalb wird es auch zwischen der 295gtx und einem 260²gtx sli kaum unterschiede geben.
minimi
Warum PCIe 8x? Die Karte hat ein externes PCIe-2.0-x16-Interface und die beidenen GPUs sind auch jeweils mit 16 Lanes angebunden über einen Brückenchip.
Natürlich hat die GTX 295 mehr Rechenleistung im Verhältniss zur Bandbreite der externen Schnittstelle als eine GTX 280 aber du sagst ja auch nicht, dass eine GTX 280 nur 8 PCIe-Lanes hat, nur weil sie doppelt soviel Leistung im Verhältnis zur Bandbreite der externen Schnittstelle einer 8800 GT hat.

Übrigens können weder Core-2-Chipsätze noch der Athlon 64 oder Phenom die für eine optimale Auslastung von 32 PCIe-2.0-Lanes nötigen 16 GB/s an Speicherbandbreite liefern. Somit hast du in der Regel bei zwei Karten im SLI effektiv nicht die Bandbreite von 32 PCIe-Lanes. Zumal beide Karten ja stets nur dieselben Daten anfordern, da sie ja dieselbe Szene rendern.

AnarchX
2009-01-08, 14:24:48
The Comeback Kid - NVIDIA GeForce GTX 295 Full Review (http://www.hardwarezone.com/articles/view.php?cid=3&id=2780)

Spasstiger
2009-01-08, 14:42:30
The Comeback Kid - NVIDIA GeForce GTX 295 Full Review (http://www.hardwarezone.com/articles/view.php?cid=3&id=2780)
Die Leistungsaufnahme hat NV bei der GTX 295 echt gut im Griff. Die GTX 295 braucht unter Last gerade mal 40 Watt mehr als die GTX 280 und im idle verbrauch die GTX 295 sogar weniger als eine Radeon HD 4870.

Frank1974
2009-01-08, 14:50:13
GTX295 lieferbar, 439€, das ist weniger als ich dachte

http://geizhals.at/deutschland/a394217.html

mfg
Frank

Spasstiger
2009-01-08, 14:56:35
GTX295 lieferbar, 439€, das ist weniger als ich dachte

http://geizhals.at/deutschland/a394217.html

mfg
Frank
Liegt wohl an der Preissenkung bei der HD 4870 X2:
http://www.computerbase.de/news/treiber/grafikkarten/ati/2009/januar/amd_preis_ati_radeon_hd_4870_x2/

Jedenfalls bietet die GTX 295 eigentlich nur Vorteil gegenüber zwei übertakteten GTX 260-216.
Kein SLI-Board erforderlich, nur zwei Slots blockiert, deutlich geringere Leistungsaufnahme und jetzt auch günstiger.

Frank1974
2009-01-08, 15:03:30
CB Test ist Online -> http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/

mfg
Frank

MadManniMan
2009-01-08, 15:04:29
Reduzierte Mikroruckler? :|

dildo4u
2009-01-08, 15:05:44
CB Test ist Online -> http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/

mfg
Frank

Mikroruckler auf der GTX 295


"Wir hatten es beim Probespielen im Gefühl und die Diagramme der GeForce GTX 295 bestätigen unsere Vermutung: In der Tat, Nvidia scheint mit den letzten Treibern aktiv gegen die Mikroruckler vorgegangen zu sein. Es gibt sie zwar immer noch, aber in deutlich geringerem Maße. So war es sowohl in Call of Juarez als auch in Crysis Warhead sowie Stalker Clear Sky selbst mit 30 FPS noch ohne Probleme möglich, auf der Multi-GPU-Karte ein flüssiges Spielerlebnis zu haben. Bis vor kurzem konnte man mit älteren Treibern vor allem in den drei Spielen bei den FPS-Raten teils extreme Mikroruckler erleben.

Selbst 25 FPS sind auf der GeForce GTX 295 ohne allzu große Einbußen machbar. Man merkt in dem Bereich durchaus, dass eine Single-GPU-Karte das Spiel „runder“ darstellen kann, aber die Anwendungen sind noch nicht unspielbar. Insofern hat Nvidia das Problem noch nicht völlig aus der Welt geschaffen, konnte es aber zumindest so weit reduzieren, dass man ein Multi-GPU-System endlich an die Grenzen seiner Leistungsfähigkeit bringen kann, ohne dass es trotz theoretisch noch gut spielbaren Werten unspielbar wird."

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/21/#abschnitt_mikroruckler_auf_der_gtx_295

derguru
2009-01-08, 15:05:48
Warum PCIe 8x? Die Karte hat ein externes PCIe-2.0-x16-Interface und die beidenen GPUs sind auch jeweils mit 16 Lanes angebunden über einen Brückenchip.
Natürlich hat die GTX 295 mehr Rechenleistung im Verhältniss zur Bandbreite der externen Schnittstelle als eine GTX 280 aber du sagst ja auch nicht, dass eine GTX 280 nur 8 PCIe-Lanes hat, nur weil sie doppelt soviel Leistung im Verhältnis zur Bandbreite der externen Schnittstelle einer 8800 GT hat.

Übrigens können weder Core-2-Chipsätze noch der Athlon 64 oder Phenom die für eine optimale Auslastung von 32 PCIe-2.0-Lanes nötigen 16 GB/s an Speicherbandbreite liefern. Somit hast du in der Regel bei zwei Karten im SLI effektiv nicht die Bandbreite von 32 PCIe-Lanes. Zumal beide Karten ja stets nur dieselben Daten anfordern, da sie ja dieselbe Szene rendern.
trotzdem gibt es verluste wenn 2 kerne über ein brückenchip arbeiten auch wenn der mit 16 Lanes angebunden ist siehe x2.warum sollte ich bei einem singlechip auch von 8pci-e gehen,ist ja eben nur ein chip.

hier paar beispiele über den x2 gegenüber ein cf(das cf sys hat sogar nur 512mb speicherram jeweils) sys.

http://www.abload.de/thumb/cod4d7it.gif (http://www.abload.de/image.php?img=cod4d7it.gif) http://www.abload.de/thumb/coyx1vh.gif (http://www.abload.de/image.php?img=coyx1vh.gif) http://www.abload.de/thumb/fearl2cd.gif (http://www.abload.de/image.php?img=fearl2cd.gif) http://www.abload.de/thumb/markhfxr.gif (http://www.abload.de/image.php?img=markhfxr.gif) http://www.abload.de/thumb/utnf48.gif (http://www.abload.de/image.php?img=utnf48.gif)

GTX295 lieferbar, 439€, das ist weniger als ich dachte

http://geizhals.at/deutschland/a394217.html


mfg
Frank

gleich bestellt;) hmm.der gpu takt ist doch ein schreibfehler oder?

Schlammsau
2009-01-08, 15:08:28
CB Test ist Online -> http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/

mfg
Frank

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/20/#abschnitt_performancerating_qualitaet
Im Schnitt 10% schneller als eine 4870X2, unter 8xAA sogar teils langsamer.
nVidia hat wieder die Performancekrone. Glückwunsch!

LovesuckZ
2009-01-08, 15:10:32
Na, das wird ein Flamefest gegenüber Computerbase.de. Da testen sie doch glatt einen Betatreiber auf AMD Seite. Ne, sry, die haben ihr Ansehen damit komplett verloren!!!!!!!

Abgesehen davon ist die Karte genauso wie die x2 von AMD uninteressant. Unter Last viel zu laut und der IDLE-verbrauch ist auch sehr fragwürdig.

Raff
2009-01-08, 15:12:20
der gpu takt ist doch ein schreibfehler oder?

Nee, der stimmt.

Übrigens: Geforce GTX 295 - Test der finalen Nvidia-Dual-Grafikkarte (http://www.pcgameshardware.de/aid,671953/Test/Benchmark/Geforce_GTX_295_-_Test_der_finalen_Nvidia-Dual-Grafikkarte/)

MfG,
Raff

Spasstiger
2009-01-08, 15:12:40
CB Test ist Online -> http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/

mfg
Frank
Hm, die HD 4870 X2 legt ja kräftig zu mit dem neuen Catalyst, 7% schneller in 2560x1600 4xAA als mit dem Catalyst 8.12.
Schade, dass die Mikroruckler bei der HD 4870 X2 wohl immer noch so ausgeprägt sein sollen. Da hat Nvidia wohl größere Bemühungen reingesteckt. Auf dem Papier herrscht auf jeden Fall laut CB ein ziemlicher Gleichstand zwischen der HD 4870 X2 und der GTX 295, bei mittleren Auflösungen führt die GTX 295, in 2560x1600 führt die HD 4870 X2 dank größerem Speicher.
Die Kaufentscheidung muss man wohl von den Features und auch der Ausprägung der Mikroruckler abhängig machen sofern man mit entsprechend niedrigen Frameraten spielt (z.B. weil man gerne extreme Auflösungen/AA-Modi fährt).

Jake Dunn
2009-01-08, 15:13:20
CB Test ist Online -> http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/

mfg
Frank

Die HD 4870 X2 hält aber sehr gut dagegen :biggrin:

Schlammsau
2009-01-08, 15:14:00
Na, das wird ein Flamefest gegenüber Computerbase.de. Da testen sie doch glatt einen Betatreiber auf AMD Seite. Ne, sry, die haben ihr Ansehen damit komplett verloren!!!!!!!

Abgesehen davon ist die Karte genauso wie die x2 von AMD uninteressant. Unter Last viel zu laut und der IDLE-verbrauch ist auch sehr fragwürdig.

Kein Beta, sondern ein Hotfix Treiber! ;)

Fetza
2009-01-08, 15:16:48
Na, das wird ein Flamefest gegenüber Computerbase.de. Da testen sie doch glatt einen Betatreiber auf AMD Seite. Ne, sry, die haben ihr Ansehen damit komplett verloren!!!!!!!




Abgesehen davon ist die Karte genauso wie die x2 von AMD uninteressant. Unter Last viel zu laut und der IDLE-verbrauch ist auch sehr fragwürdig.


Jo

derguru
2009-01-08, 15:17:00
Nee, der stimmt.

Übrigens: Geforce GTX 295 - Test der finalen Nvidia-Dual-Grafikkarte (http://www.pcgameshardware.de/aid,671953/Test/Benchmark/Geforce_GTX_295_-_Test_der_finalen_Nvidia-Dual-Grafikkarte/)

MfG,
Raff

740 ,ernsthaft?
http://www2.hardwareversand.de/2VPuDMrH1-yjlg/articledetail.jsp?aid=25002&agid=707&ref=13

Raff
2009-01-08, 15:18:37
740 ,ernsthaft?
http://www2.hardwareversand.de/2VPuDMrH1-yjlg/articledetail.jsp?aid=25002&agid=707&ref=13

Ich dachte, du meinst Geizhals. Da steht korrekterweise 576/1.242/999. Alles andere ist falsch oder eine OC-Version – 740 MHz schafft aber sicher keine. ;)

MfG,
Raff

LovesuckZ
2009-01-08, 15:19:33
Kein Beta, sondern ein Hotfix Treiber! ;)

Beta, bleibt Beta. Tut mir leid, aber wir wollen doch keine Doppelmoral an den Tag legen.

dildo4u
2009-01-08, 15:23:04
Mikroruckler auf der GTX 295


"Wir hatten es beim Probespielen im Gefühl und die Diagramme der GeForce GTX 295 bestätigen unsere Vermutung: In der Tat, Nvidia scheint mit den letzten Treibern aktiv gegen die Mikroruckler vorgegangen zu sein. Es gibt sie zwar immer noch, aber in deutlich geringerem Maße. So war es sowohl in Call of Juarez als auch in Crysis Warhead sowie Stalker Clear Sky selbst mit 30 FPS noch ohne Probleme möglich, auf der Multi-GPU-Karte ein flüssiges Spielerlebnis zu haben. Bis vor kurzem konnte man mit älteren Treibern vor allem in den drei Spielen bei den FPS-Raten teils extreme Mikroruckler erleben.

Selbst 25 FPS sind auf der GeForce GTX 295 ohne allzu große Einbußen machbar. Man merkt in dem Bereich durchaus, dass eine Single-GPU-Karte das Spiel „runder“ darstellen kann, aber die Anwendungen sind noch nicht unspielbar. Insofern hat Nvidia das Problem noch nicht völlig aus der Welt geschaffen, konnte es aber zumindest so weit reduzieren, dass man ein Multi-GPU-System endlich an die Grenzen seiner Leistungsfähigkeit bringen kann, ohne dass es trotz theoretisch noch gut spielbaren Werten unspielbar wird."

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/21/#abschnitt_mikroruckler_auf_der_gtx_295Mikroruckler betrachtet aus dem PCGH Test der GTX 295

"Bezüglich des Mikroruckelns verhält sich die Geforce GTX 295 relativ zurückhaltend. Eine generelle Entwarnung können wir nicht aussprechen, in vielen uns getesteten Spielen ist das berüchtigte Stocken jedoch so unauffällig, dass man darüber hinwegsehen kann. In Race Driver Grid gelang es uns zu keiner Zeit, fühlbares Mikoruckeln zu provozieren - selbst bei (unspielbaren) 20 Fps liefert die Karte eine subjektiv saubere Frameverteilung. Das bestätigen unsere Nachmessungen mit Fraps. In Crysis (DX10, Very High) ist die Lage ähnlich: Das Stocken wird erst unter 30 Fps fühlbar. Dem gegenüber stehen Left 4 Dead (dt.) und Call of Duty 5, die - abhängig von Framerate und Einstellungen - deutlich spürbares Mikroruckeln aufweisen. In L4D fühlen sich 50 angezeigte Fps an wie 30 Fps auf einer Single-GPU. Bei CoD: WaW ist es nicht ganz so schlimm, hier gleichen 40 Fps auf der GTX 295 etwa 30 auf einer GTX 280. Nicht jeder Mensch nimmt Mikroruckeln ohne Hinweis wahr, es kommt auf die individuelle Sensorik an."

http://www.pcgameshardware.de/aid,671953/Test/Benchmark/Geforce_GTX_295_-_Test_der_finalen_Nvidia-Dual-Grafikkarte/?page=3

Jake Dunn
2009-01-08, 15:28:01
Beta, bleibt Beta. Tut mir leid, aber wir wollen doch keine Doppelmoral an den Tag legen.

Der 181.20er ist auch Beta

Spasstiger
2009-01-08, 15:29:01
Beta, bleibt Beta. Tut mir leid, aber wir wollen doch keine Doppelmoral an den Tag legen.
CB hat beide Treiberversionen getestet, den offiziellen Catalyst 8.12 und den neuen Beta-Treiber. Du kannst dir die Ergebnisse aussuchen, die dir besser gefallen. Die Tests mit dem Beta-Treiber wurden zusätzlich und nicht ausschließlich gemacht.

dildo4u
2009-01-08, 15:31:38
Guru 3D GeForce GTX 295 Quad SLI gaming test

http://www.guru3d.com/article/geforce-gtx-295-quad-sli-gaming-test/1


firingsquad: EVGA GeForce GTX 295 Plus Performance Preview mit Quad SLI


http://www.firingsquad.com/hardware/evga_geforce_gtx_295_performance/page3.asp

derguru
2009-01-08, 15:32:30
Ich dachte, du meinst Geizhals. Da steht korrekterweise 576/1.242/999. Alles andere ist falsch oder eine OC-Version – 740 MHz schafft aber sicher keine. ;)

MfG,
Raff

ich dacht schon das wäre ja schon extrem,

apropo pcgh thx dafür,netter preis;)
http://www.abload.de/thumb/amd_quadcore_opteron_kv2u2.jpg (http://www.abload.de/image.php?img=amd_quadcore_opteron_kv2u2.jpg)

dildo4u
2009-01-08, 15:40:06
Der 181.20er ist auch Beta
Nope.

Der 181.20 Treiber für die GTX 295 hat sogar schon ein WHQL Siegel

http://www.nvidia.com/object/winxp_181.20_whql.html

http://www.nvidia.com/object/winvista_x86_181.20_whql.html

http://www.nvidia.com/object/winvista_x64_181.20_whql.html

Fetza
2009-01-08, 15:50:19
Das wird einen schönen preiskrieg geben, die karten geben sich ja nicht viel - wenn das nicht den kunden freut. ;)

Eggcake
2009-01-08, 16:01:28
Hätte es trotzdem gut gefunden, wenn sie (bei CB) bei den Frameverläufen bei den Mikrorucklern auch die X2 reingetan hätten...

Blaire
2009-01-08, 16:02:45
Reduzierte Mikroruckler? :|

Kann ich bestätigen mit TripleSLI z.b. bei Crysis sind die tatsächlich weniger geworden vor allem bei ~30fps , aber vorhanden sie die nachwievor.

Spasstiger
2009-01-08, 16:05:32
Kann ich bestätigen mit TripleSLI z.b. bei Crysis sind die tatsächlich weniger geworden vor allem bei ~30fps , aber vorhanden sie die nachwievor.
Du kannst ja mal in diesem Thread Frametime-Messungen posten, dann kann ich für dich eine quantitative Analyse durchführen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=436940

reunion
2009-01-08, 16:06:05
CB Test ist Online -> http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/

mfg
Frank

Naja, nicht wirklich schneller wie eine 4870 X2. In sehr hohen Auflösungen oder 8AA sogar langsamer. Durch den besseren Treiber für SLi und abschaltbare Optimierungen aber trotzdem die empfehlenswertere Karte. Leider ist das Ding selbst unter idle sehr laut.

deekey777
2009-01-08, 16:06:45
Beta, bleibt Beta. Tut mir leid, aber wir wollen doch keine Doppelmoral an den Tag legen.
Es ist kein Beta-Treiber. Beta = unfertig. Dieser Treiber ist "Vorschautreiber" für den kommenden 9.1 (Erklärung (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7025729#post7025729)). Echter (Beta-)Treiber 9.1 wäre 8.57x (8.56x = 8.12).
Der Gag ist, dass es einen weiteren 8.561.8 gibt (Vist x64).

y33H@
2009-01-08, 16:07:00
@ Spasstiger

CB hat mit dem 8.11 und dem Hotfix getestet (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/4/#abschnitt_testsystem).

cYa

Blaire
2009-01-08, 16:07:30
Du kannst ja mal in diesem Thread Frametime-Messungen posten, dann kann ich für dich eine quantitative Analyse durchführen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=436940

Kann ich machen, warte aber derzeit auf die Austauschkarte dauert noch paar Tage.

derguru
2009-01-08, 16:10:02
Du kannst ja mal in diesem Thread Frametime-Messungen posten, dann kann ich für dich eine quantitative Analyse durchführen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=436940

ich poste auch später die selben spiele die ich schon mit cf gemacht hatte aber diesmal mit sli,mal schauen wie die unterschiede sind.

Blaire
2009-01-08, 19:11:58
Quad SLI 295 vs Tri SLI 280
http://www.evga.com/forums/tm.asp?m=717673&mpage=1 :)

Spasstiger
2009-01-08, 19:15:43
Quad SLI 295 vs Tri SLI 280
http://www.evga.com/forums/tm.asp?m=717673&mpage=1 :)
TSSAA dazu wäre noch ganz interessant. Und bei FC2 kann man auch gerne mal 8xS- oder 16xS-Benchmarks wagen.

Gast
2009-01-08, 19:20:15
PCGH: GTX 295 mit Geforce 181.20 WHQL vs. HD 4870 X2 mit 8.12 Hotfix (http://www.pcgameshardware.de/aid,672348/Test/Benchmark/GTX_295_mit_Geforce_18120_WHQL_vs_HD_4870_X2_mit_812_Hotfix/)

Ein wenig enttäuschend, die GTX295 hätte die HD4870X2 doch deutlicher schlagen sollen. Andererseits auch beeindruckend, was der neue ATI-Treiber herausholt, wäre schön zu wissen ob dies auch andere Spiele betrifft oder handoptimiert und maßgeschneidert bleibt.

Fetza
2009-01-08, 19:28:03
Damit kann man die beiden ja jetzt schon fast als gleichschnell bezeichnen, jetzt würde mich nur interessieren, ob mit dem neuen ati treiber mr noch weiter abgenommen hat.

derguru
2009-01-08, 19:28:34
wenn ich das sehe falle ich fast vom glauben ab,das ist doch nicht normal.
gabs nicht mal eine spekulation das ati mit dem 9er cat die karten schneller machen wollte mit 4 kern cpu´s?weil die mit nv sehr gut skalierten im gegensatz zu ati karten.

das ist nicht beachtlich das ist wirklich schon unglaublich.:eek:
http://www.abload.de/thumb/extrem8l07.gif (http://www.abload.de/image.php?img=extrem8l07.gif)

Gast
2009-01-08, 19:34:20
gabs nicht mal eine spekulation das ati mit dem 9er cat die karten schneller machen wollte mit 4 kern cpu´s?weil die mit nv sehr gut skalierten im gegensatz zu ati karten.

Ja, aber PCGH (Link oben) hat mit einem DualCore gebencht und auch dort schließt die 4870X2 zur GTX295 auf.

Gast
2009-01-08, 19:34:58
Wurde der neue Catalyst denn schon im Bezug auf BQ geprüft? Ich erinnere mich da an fehlende Effekte bei CoD4 etc. Bei solch einem Performancesprung sollte in der Regel die BQ überprüft werden - bei beiden Herstellern.

Gast
2009-01-08, 19:41:34
Wieso sind hier 2 GTX295er immer dabei? Die eine Ohne 181.20 treiber (oder was auch immer das ist) ist oft deutlich besser. Mhmm...
http://www.pcgameshardware.de/aid,672348/Test/Benchmark/GTX_295_mit_Geforce_18120_WHQL_vs_HD_4870_X2_mit_812_Hotfix/?page=2

Ich find der 181.20er treiber ist eher schlechter als seine vorgänger. Da kommt sicher noch nen sprung nach vorn.

Blaire
2009-01-08, 19:42:25
PCGH: GTX 295 mit Geforce 181.20 WHQL vs. HD 4870 X2 mit 8.12 Hotfix (http://www.pcgameshardware.de/aid,672348/Test/Benchmark/GTX_295_mit_Geforce_18120_WHQL_vs_HD_4870_X2_mit_812_Hotfix/)

Ein wenig enttäuschend, die GTX295 hätte die HD4870X2 doch deutlicher schlagen sollen. Andererseits auch beeindruckend, was der neue ATI-Treiber herausholt, wäre schön zu wissen ob dies auch andere Spiele betrifft oder handoptimiert und maßgeschneidert bleibt.

Guter Test, aber durch die zu niedrigen Ergebnisse wird das Gesamtergebnis erheblich verfälscht. Wenn dann sollte man schon testen , was spielbar ist und nicht solche Sinnlossettings. Es ist doch egal ob man 11 oder 19 fps bekommt es ist beides unspielbar. Solche unspielbaren Settings sollten gänzlich verschwinden denn der praktische Nutzen ist gleich Null.

Gast
2009-01-08, 19:43:19
Wurde der neue Catalyst denn schon im Bezug auf BQ geprüft?
Laut PCGH waren keine Veschlechterungen auszumachen, sie schauen sich das aber im Detail nochmal an.

reunion
2009-01-08, 19:43:53
Eine Verschlechterung der Bildqualität konnten wir während den Benchmarks nicht feststellen, diese prüfen zurzeit jedoch noch im Detail. Im Kurztest zeigte sich, dass auch eine HD 4870 vom Treiberupdate profitiert.

http://www.pcgameshardware.de/aid,672348/Test/Benchmark/GTX_295_mit_Geforce_18120_WHQL_vs_HD_4870_X2_mit_812_Hotfix/?page=5

Wenn die normalen Karten hier ebenfalls so zulegen dürfte Nv ganz schön Probleme bekommen.

Sorkalm
2009-01-08, 19:46:42
Wenn die normalen Karten hier ebenfalls so zulegen dürfte Nv ganz schön Probleme bekommen.

Ist aber die Frage, ob das nur eine CF-Optimierung ist... ;)

reunion
2009-01-08, 19:48:03
Ist aber die Frage, ob das nur eine CF-Optimierung ist... ;)

Wie schon zitiert: "Im Kurztest zeigte sich, dass auch eine HD 4870 vom Treiberupdate profitiert."

Wie viel ist natürlich die Frage.

reunion
2009-01-08, 19:50:01
wenn ich das sehe falle ich fast vom glauben ab,das ist doch nicht normal.
gabs nicht mal eine spekulation das ati mit dem 9er cat die karten schneller machen wollte mit 4 kern cpu´s?weil die mit nv sehr gut skalierten im gegensatz zu ati karten.

das ist nicht beachtlich das ist wirklich schon unglaublich.:eek:
http://www.abload.de/thumb/extrem8l07.gif (http://www.abload.de/image.php?img=extrem8l07.gif)

Und das entscheidende für keine Multi-Karten-User: Die 4870 X2 ist hier durch den neuen Treiber bis zu 158% schneller als eine 4870 1GB. Selbst wenn man eine optimale CF-Skalierung von 100% annimmt, sollte eine normale 4870 der GTX 280 hier locker Paroli bieten können.

Gast
2009-01-08, 19:50:06
PCGH: GTX 295 mit Geforce 181.20 WHQL vs. HD 4870 X2 mit 8.12 Hotfix (http://www.pcgameshardware.de/aid,672348/Test/Benchmark/GTX_295_mit_Geforce_18120_WHQL_vs_HD_4870_X2_mit_812_Hotfix/)



Erstaunlich das auch beim 2 Kerner mehr Leistung rausspringt

LovesuckZ
2009-01-08, 19:50:08
Ist aber die Frage, ob das nur eine CF-Optimierung ist... ;)

Inwieweit? Das einzige, was möglich wäre, wäre eine Art CF - AA. Denn ohne AA bringt der Treiber kaum etwas.

Gast
2009-01-08, 19:56:18
Und das entscheidende für keine Multi-Karten-User: Die 4870 X2 ist hier durch den neuen Treiber 258% schneller als eine 4870. Selbst wenn man eine optimale CF-Skalierung von 100% annimmt, sollte eine normale 4870 der GTX 280 hier locker Paroli bieten können.
Die 4870X2 verfügt über 2x1024MB VRAM. ;)

derguru
2009-01-08, 19:57:14
Ist aber die Frage, ob das nur eine CF-Optimierung ist... ;)

das kann keine cf optimierung sein.wie soll man denn z.b. bei meinem bild in warhead mehr als 100% skalieren:wink:

die optimierungen haben mit cf nichts am hut.die treiber wurden grundsätzlich verbessert,anders gehts gar nicht.

Und das entscheidende für keine Multi-Karten-User: Die 4870 X2 ist hier durch den neuen Treiber bis zu 158% schneller als eine 4870 1GB. Selbst wenn man eine optimale CF-Skalierung von 100% annimmt, sollte eine normale 4870 der GTX 280 hier locker Paroli bieten können.

eben wenn man von der möglichst besten skalierung ausgeht und einfach die werte von der x2 halbiert dann ist das größtenteils 280gtx niveau für eine 4870 1gb.

Sorkalm
2009-01-08, 19:57:54
Inwieweit? Das einzige, was möglich wäre, wäre eine Art CF - AA. Denn ohne AA bringt der Treiber kaum etwas.

Ich meinte, ob der Treiber hier nur CF-Simulationen beschleunigt (durch Multi-GPU-Optimierungen eben) oder generell alle Grafikkarten. Ohne das zu wissen, kann man wohl nicht vollständig beurteilen, inwiefern sich da was gebessert hat.

reunion
2009-01-08, 19:59:08
Die 4870X2 verfügt über 2x1024MB VRAM. ;)

Ich vergleiche auch mit der 4870 1GB. Habe es editiert.

Gast
2009-01-08, 20:03:51
Auf jeden Fall nenne ich das einen "Big Bang"! :D

dildo4u
2009-01-08, 20:21:57
wenn ich das sehe falle ich fast vom glauben ab,das ist doch nicht normal.
gabs nicht mal eine spekulation das ati mit dem 9er cat die karten schneller machen wollte mit 4 kern cpu´s?weil die mit nv sehr gut skalierten im gegensatz zu ati karten.

das ist nicht beachtlich das ist wirklich schon unglaublich.:eek:
http://www.abload.de/thumb/extrem8l07.gif (http://www.abload.de/image.php?img=extrem8l07.gif)
Bei Crysis glaub ich eher das der GTX 295 der Speicher ausgeht (siehe 1680x1050 1XAA 41fps vs 4XAA Absturz auf 27fps)ein Vergleich mit zwei GTX 280 wäre interresant.

Gast
2009-01-08, 20:23:33
Würde mich freuen, ich habe nämlich eine 4850. Ich habe damals beim Launch sofort zugeschlagen da ich mir erhoffte, daß bei solchen Shadermonstern durch zukünftige Treiberupdates noch ein gutes Stück mehr an Performance möglich ist.

HarryHirsch
2009-01-08, 20:26:51
Ich hoffe der Test wurde noch nicht genannt:
http://www.hartware.de/review_891_1.html

edit:
Hier noch einer:
http://www.technic3d.com/article-803,1-zotac-nvidia-gtx295-double-impact.htm

Schlammsau
2009-01-08, 20:30:35
http://www.pcgameshardware.de/aid,672348/Test/Benchmark/GTX_295_mit_Geforce_18120_WHQL_vs_HD_4870_X2_mit_812_Hotfix/?page=5

Wenn die normalen Karten hier ebenfalls so zulegen dürfte Nv ganz schön Probleme bekommen.

Tun sie! :) http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7026718#post7026718

Gast
2009-01-08, 20:33:16
das kann keine cf optimierung sein.wie soll man denn z.b. bei meinem bild in warhead mehr als 100% skalieren:wink:

die optimierungen haben mit cf nichts am hut.die treiber wurden grundsätzlich verbessert,anders gehts gar nicht.


http://www.behardware.com/news/lire/07-01-2009/

AMD has been able to provide us with a beta version of the forthcoming Catalysts which will now be multithreaded in some DirectX 10 applications. They carry the numbering 8.561.3 and seem to be an optimisation that will be integrated as of Catalyst 9.1.

derguru
2009-01-08, 20:45:30
Bei Crysis glaub ich eher das der GTX 295 der Speicher ausgeht (siehe 1680x1050 1XAA 41fps vs 4XAA Absturz auf 27fps)ein Vergleich mit zwei GTX 280 wäre interresant.

das liegt nicht am speicher oder kaum,schau dochmal wo die einzelne 280gtx liegt.sogar bei einer 100% Skalierung wäre immernoch die x2 schneller.

http://www.behardware.com/news/lire/07-01-2009/

jepp ganz genau das meinte ich aber es wurde ja gesagt das pcgh mit dual core getestet hatte und dort waren die geschwindigkeitsschübe in etwa wie mit einem quad.aber thx für den link bevor noch leute denken das wäre aus der luft gegriffen.:wink: wurde sogar akualisiert.

tombman
2009-01-08, 21:19:12
Quad SLI 295 vs Tri SLI 280
http://www.evga.com/forums/tm.asp?m=717673&mpage=1 :)

3DMark Vantage
Performance Setting
3xGTX 280's= 31,963
2xGTX 295's= 35,329

Crysis Warhead
1920x1200 - 4xAA - Enthusiast Settings
3xGTX 280's= 38.86FPS
2xGTX 295's= 44.22FPS


JAWOLL ;) Besonders letzteres ;)

Btw, habe mir 2x GTX295 bestellt :cool:

reunion
2009-01-08, 21:20:29
3 x GTX285 und du hast wohl dieselbe Leistung mit weniger GPUs, mehr VRAM, weniger Lautstärke und wohl wesentlich höhere Übertaktungserfolge wenn man sich die Vorabwerte ansieht.

Sorkalm
2009-01-08, 21:21:10
3 x GTX285 und du hast wohl dieselbe Leistung mit weniger GPUs.

Fände ich persönlich auch attraktiver ... abgesehen, das ich längst nicht so viel Leistung benötige. ;)

tombman
2009-01-08, 21:44:13
3 x GTX285 und du hast wohl dieselbe Leistung mit weniger GPUs, mehr VRAM, weniger Lautstärke und wohl wesentlich höhere Übertaktungserfolge wenn man sich die Vorabwerte ansieht.
Ich will aber nicht 3 Karten im System, ist arsch zu verlegen mit Wakü etc, wenn man noch ne XFI behalten will.
Um den letzten fps gehts mir nicht unbedingt. Ich bin irgendwie geil auf den Spruch, der bald in meiner Sig stehen könnte/wird:

4 Cpu Cores
4 Gpu Cores
Welcome to Cinema Gaming ;)

Wobei das "Cinema" wörtlich zu nehmen sein wird. Seit kurzem habe ich ja den Sony VPL-HW10 Full-HD Projektor in tha house ;)

Crysis Very High @ Full-HD Video von Cinema Gaming is about to come :cool:

Gast
2009-01-08, 23:07:00
@tombman
Was bringen dir so viele Grakas?

1 Ultra High End Karte sollte reichen.

Cpl. Dwayne Hicks
2009-01-09, 00:41:09
Ich will aber nicht 3 Karten im System, ist arsch zu verlegen mit Wakü etc, wenn man noch ne XFI behalten will.
Um den letzten fps gehts mir nicht unbedingt. Ich bin irgendwie geil auf den Spruch, der bald in meiner Sig stehen könnte/wird:

4 Cpu Cores
4 Gpu Cores
Welcome to Cinema Gaming ;)

Wobei das "Cinema" wörtlich zu nehmen sein wird. Seit kurzem habe ich ja den Sony VPL-HW10 Full-HD Projektor in tha house ;)

Crysis Very High @ Full-HD Video von Cinema Gaming is about to come :cool:


Bist du irgendwie ein multi Millionär oder so?! ;D

Nightspider
2009-01-09, 01:28:27
Bist du irgendwie ein multi Millionär oder so?! ;D

ne Tomby hat die letzte Monate gar mal gespart, er hat ja noch nichtmal ne SSD :eek:

;)

Schlammsau
2009-01-09, 08:56:59
Ich hab mir mal die ganzen Review Ergebnisse mal genauer angeschaut. Mit dem 9.1 Beta liegen die 4870X2 und die GTX295 eigentlich auf Augenhöhe. Die X2 ist vor allem in hohen Auflösungen (z.B. in Crysis und Stalker CS (http://www.pcgameshardware.de/aid,672348/Test/Benchmark/GTX_295_mit_Geforce_18120_WHQL_vs_HD_4870_X2_mit_812_Hotfix/)) und mit viel AA der 295 deutlich überlegen. In niedrigeren Auflösungen und mit 4xAA dominiert meist die GTX295. Aber jetzt sollte man sich als interessent überlegen, wofür man so ein Monster kauft. Für niedrige Auflösungen mit wenig AA oder für extrem hohe Auflösungen und mit viel AA!
Also irgendwie ist nVidia die Karte doch nicht so gelungen. Aber einen Vorteil hat die Geforce, dadurch ist die X2 billiger geworden. :D

MadManniMan
2009-01-09, 08:59:00
Wenn es jedoch stimmen sollte, dass die Mikroruckler zumindest teilweise weniger ausgeprägt sind, so ist jeder Gleichstand oder jede knappe Niederlage der 295 eigentlich ein Sieg gegenüber der X2.

Schlammsau
2009-01-09, 09:01:18
Wenn es jedoch stimmen sollte, dass die Mikroruckler zumindest teilweise weniger ausgeprägt sind, so ist jeder Gleichstand oder jede knappe Niederlage der 295 eigentlich ein Sieg gegenüber der X2.

Ich glaube es erst wenn ich eine Frametimeanalyse gesehen habe! Und wenn es stimmt, ist es nur eine Treibersache, und da kann ATi auch noch nachlegen.

MartinRiggs
2009-01-09, 09:16:54
Komischerweise bist du mal wieder der einzige der die Karte schlechtreden muss.
Wenn Computerbase sagt das die Mikroruckler weniger geworden sind dann wird wohl was dran sein, die Jungs haben auch die 4870X2 getestet und Live erlebt!

Solche Monster von Grafikkarten sind dafür da mit viel AA zu laufen -> richtig.
Kann man auf der ATI 16xS oder sowas fahren ->nö.
Komm mir bloss nicht mit Edge-Detect, das liefert grade in Rennspielen absolut keine überzeugende Vorstellung ab(probier mal Race/GTR Evo)
8xMSAA was ich mit meiner Single-Karte auch fahren kann in etlichen Spielen ,glättet halt einfach nicht alles:(

Klar ist es ne Treibersache, ATI und NV haben fast zeitgleich angekündigt gegen MR vorzugehen, ATI pennt aber scheinbar mal wieder bzw. lässt den großen Worten keine Taten folgen.
Ich warte auch seit dem Releasetreiber noch auf den Stromsparmodus, leider vergeblich:rolleyes:

Schlammsau
2009-01-09, 09:26:48
Komischerweise bist du mal wieder der einzige der die Karte schlechtreden muss.
Wenn Computerbase sagt das die Mikroruckler weniger geworden sind dann wird wohl was dran sein, die Jungs haben auch die 4870X2 getestet und Live erlebt!
Das ist subjektiv/gefühlt! Ich glaub, was ähnliches stand auch schon beim Release der X2 bei CB.

Solche Monster von Grafikkarten sind dafür da mit viel AA zu laufen -> richtig.
Kann man auf der ATI 16xS oder sowas fahren ->nö.
Komm mir bloss nicht mit Edge-Detect, das liefert grade in Rennspielen absolut keine überzeugende Vorstellung ab(probier mal Race/GTR Evo)
8xMSAA was ich mit meiner Single-Karte auch fahren kann in etlichen Spielen ,glättet halt einfach nicht alles:(
24x Edge Detect, sieht einfach göttlich aus! Nur die Performance könnte besser sein! ;)

Klar ist es ne Treibersache, ATI und NV haben fast zeitgleich angekündigt gegen MR vorzugehen, ATI pennt aber scheinbar mal wieder bzw. lässt den großen Worten keine Taten folgen.
Ich warte auch seit dem Releasetreiber noch auf den Stromsparmodus, leider vergeblich:rolleyes:
Das ATi etwas länger braucht, dürfte dir doch mittlerweile bekannt sein oder?
Und zu PP, es wurde nie und ich sage wirklich nie offiziell von ATi bestätigt!
Es waren nur Gerüchte und Spekulationen.

tombman
2009-01-09, 09:31:59
z.B. in Crysis und Stalker CS (http://www.pcgameshardware.de/aid,672348/Test/Benchmark/GTX_295_mit_Geforce_18120_WHQL_vs_HD_4870_X2_mit_812_Hotfix/)

Im spielbaren Bereich liegt meist Nvidia vorne, auch bei den minimalen fps. Im unspielbaren Bereich dann meist die ATI.
Der spielbare Bereich ist aber der wichtigere, oder? ;)

Und Quad-Sli skaliert auch deutlich häufiger (fast immer) im Vergleich zu Quad-CF. Siehe Guru3D und Firingsquad Quad reviews...

Die wichtigsten Auflösungen sind für mich 1920x1200 (bzw 1920x1080 in 16:9) und 1680x1050 (bzw 1600x900 in 16:9) im Kombination mit 4xAA, und da schlägt sich die GTX 295 und vorallem 2 Stück davon besser als die HD4870X2.

Zusammen mit den "Komfortfeatures" würde ich derzeit Nvidia leichte Vorteile einräumen.

Schlammsau
2009-01-09, 09:37:33
Im spielbaren Bereich liegt meist Nvidia vorne, auch bei den minimalen fps. Im unspielbaren Bereich dann meist die ATI.
Der spielbare Bereich ist aber der wichtigere, oder? ;)

Und Quad-Sli skaliert auch deutlich häufiger (fast immer) im Vergleich zu Quad-CF. Siehe Guru3D und Firingsquad Quad reviews...

Die wichtigsten Auflösungen sind für mich 1920x1200 (bzw 1920x1080 in 16:9) und 1680x1050 (bzw 1600x900 in 16:9) im Kombination mit 4xAA, und da schlägt sich die GTX 295 und vorallem 2 Stück davon besser als die HD4870X2.

Zusammen mit den "Komfortfeatures" würde ich derzeit Nvidia leichte Vorteile einräumen.


Leichte Vorteile ja! Aber nichtmal Ansatzweise die prophezeiten 30% im Schnitt!
Blätter mal ein paar Seiten vor, dann weisst du was ich meine!
Die Mehrleistung ist im Schnitt bei 5%......

Mr. Lolman
2009-01-09, 09:38:37
Kann man auf der ATI 16xS oder sowas fahren ->nö.

Das ist nämlich der Punkt, den ich bei aktuellen ATi MultiGPU Configs überhaupt nicht verstehe: Nämlich, dass man bei SuperAA den SSAA-Anteil entfernt hat. Auf X1900XT CF Configs konnte man nämlich wunderbar mit 12x SuperAA zocken, welches sich aus 6xSGMSAA und 2xSGSSAA zusammengesetzt hat und eine entsprechende EER von 12x12 mitgebracht hat. Zum Vergleich: 16xS ist 4xRGMSAA mit 4xOGSSAA und hat ne EER von 8x8.

Wenn beim SuperAA also immernoch beide GPUs das gleiche Bild mit verschiedenen Offsets überlagen - ist zumindest performancetechnisch absolut unsinnig auf den gratis SSAA-Anteil zu verzichten.

VooDoo7mx
2009-01-09, 09:39:45
@tombman
Was bringen dir so viele Grakas?

1 Ultra High End Karte sollte reichen.

Nicht für Crysis@1080p mit allen Details und 32S AA. ;)

Und irgendwie finde ich den neuen ATi Treiber doch schon etwas merkwürdig was der so telweise rausholt. Mal sehen wie sich ATi da wieder die FPS ercheatet.

Und Quad-Sli skaliert auch deutlich häufiger (fast immer) im Vergleich zu Quad-CF. Siehe Guru3D und Firingsquad Quad reviews...

Wir alle wissen ja das 3 GTX 280 schon schneller als 2 4870X2 sind. ;D
Wenn man als Enthusiast 2 Multi GPU Karten zusammen betreiben will, führt kein Weg an nVidia vorbei, da Crossfire ab der 3 GPU einfach nur noch scheiße skaliert.

Mr. Lolman
2009-01-09, 09:42:42
Im spielbaren Bereich liegt meist Nvidia vorne, auch bei den minimalen fps. Im unspielbaren Bereich dann meist die ATI.
Der spielbare Bereich ist aber der wichtigere, oder? ;)

Beim Computerbaserating mit AA/AF sinds bei 4xAA ~6%, die die 295 vorne liegt. (außer bei 256x1600, da ist die X2 13% schneller). Bei 8xAA ist die X2 hingegen schon in 1280x1024 8% flotter.

tombman
2009-01-09, 09:45:33
Leichte Vorteile ja! Aber nichtmal Ansatzweise die prophezeiten 30% im Schnitt!
Blätter mal ein paar Seiten vor, dann weisst du was ich meine!
Also von mir kamen diese 30% nie. Daß das Rennen knapp wird war eh immer klar, schließlich wußten wir ja wie schnell die single gpu Karten
waren. Die 295 ist halt ne Mischung aus GTX 280 SLI und GTX 260 SLI. Sie hat zwar die vollen shader wie die 280er, aber das schwächere Speicherinterface der 260er. Das war also schlicht eine "Pflichtkarte" von Nvidia um ATI konntern zu können.

Interessanter wird da schon der GT212 chip mit fett aufgebohrter Shaderanzahl (384) in 40nm. Wenn da ein Stück die 295er haut wird die 295er kein langes Leben haben. Ein Doppeldecker mit 2x GT212 wäre wohl ein Monster ;)

Mr. Lolman
2009-01-09, 09:48:01
da Crossfire ab der 3 GPU einfach nur noch scheiße skaliert.

Blödsinn. Schon mit alten treibern hat 3xCF je nach Profil schon ganz gut skaliert: http://xbitlabs.com/articles/video/display/7games-fall2008_6.html

Außerdem krankt MGPU ja ohnehin am zusätzlichen Lag, denn man im Gegensatz zu den Mikrorucklern nichteinmal vermeiden kann. Bei 4xSLI/CF hat man schon ein Lag von 4 Frames. Das wären bei 40fps schon 100ms. Jeder Monitor der die Hälfte an Lag hat fällt bei den Gamern durch, und dann ist der hl. Gral trotzdem 4xSLI/CF, wo man min 80fps braucht um den Lag unter 50ms zu halten. :rolleyes:

tombman
2009-01-09, 09:59:58
Blödsinn. Schon mit alten treibern hat 3xCF je nach Profil schon ganz gut skaliert: http://xbitlabs.com/articles/video/display/7games-fall2008_6.html
"je nach Profil" ;D Bewerten tut man aber die Gesamtsituation und nicht einzelne Profile, zumal dein Devil May Cry 4 ein sehr primitives game ist- da fällt das skalieren wirklich nicht schwer.

Außerdem krankt MGPU ja ohnehin am zusätzlichen Lag, denn man im Gegensatz zu den Mikrorucklern nichteinmal vermeiden kann. Bei 4xSLI/CF hat man schon ein Lag von 4 Frames. Das wären bei 40fps schon 100ms. Jeder Monitor der die Hälfte an Lag hat fällt bei den Gamern durch, und dann ist der hl. Gral trotzdem 4xSLI/CF, wo man min 80fps braucht um den Lag unter 50ms zu halten. :rolleyes:
Nach deiner Rechnung wäre aber schon SLI mit 30fps (66ms) unspielbar, was aber Blödsinn ist. Wäre der lag wirklich so hoch würde keiner SLI oder CF haben.

reunion
2009-01-09, 10:02:14
Und irgendwie finde ich den neuen ATi Treiber doch schon etwas merkwürdig was der so telweise rausholt. Mal sehen wie sich ATi da wieder die FPS ercheatet.


Jaja, PCGH konnte keine IQ-Unterschiede feststellen. Aber Hauptsache erstmal losflamen.

reunion
2009-01-09, 10:06:43
Außerdem krankt MGPU ja ohnehin am zusätzlichen Lag, denn man im Gegensatz zu den Mikrorucklern nichteinmal vermeiden kann. Bei 4xSLI/CF hat man schon ein Lag von 4 Frames. Das wären bei 40fps schon 100ms. Jeder Monitor der die Hälfte an Lag hat fällt bei den Gamern durch, und dann ist der hl. Gral trotzdem 4xSLI/CF, wo man min 80fps braucht um den Lag unter 50ms zu halten. :rolleyes:

Einen Lag von drei Frames hast du vier GPUs. Bei normalen SLi/CF dann nur noch ein Frame.

Gast
2009-01-09, 10:14:19
Im spielbaren Bereich liegt meist Nvidia vorne, auch bei den minimalen fps. Im unspielbaren Bereich dann meist die ATI.
Der spielbare Bereich ist aber der wichtigere, oder? ;)


Typisches NV-Fanboy geludel. Solche Karten werden ja wohl eher nicht in 1280*1024 gefahren, sondern mindestens in 1680*1050, tendenziell eher noch höher. Und da kann man getrost von einem Gleichstand reden: mal in die ATI etwas schnell, mal die NV ein bisschen. Aufgrund der Tatsache, dass die Ati-Karte bereits ein gutes halbes Jahr verfügbar ist, hat NV hier zwar eine gute Karte vorgestellt, aber bei Weitem keinen Überflieger. Sie haben tempomässig wieder aufgeschlossen, mehr nicht.

Und von verringerten MR hat man seinerzeit auch bei der ATI gesprochen.

Mr. Lolman
2009-01-09, 10:15:56
"je nach Profil" ;D Bewerten tut man aber die Gesamtsituation und nicht einzelne Profile, zumal dein Devil May Cry 4 ein sehr primitives game ist- da fällt das skalieren wirklich nicht schwer.


Ist ja nicht nur DMC4. Stalker:CS skaliert ähnlich gut, und div. andere Spiele auch.

Nach deiner Rechnung wäre aber schon SLI mit 30fps (66ms) unspielbar, was aber Blödsinn ist. Wäre der lag wirklich so hoch würde keiner SLI oder CF haben.

Der Lag ist aber so hoch. Wenn man dagegen unempfindlich ist, ists ja kein Problem. Wenn man sich über schwammige 30fps ärgert, liegts auch meistens am default Prerenderlimit von 3 => 100ms.

tombman
2009-01-09, 10:30:00
Typisches NV-Fanboy geludel.
Typisches Gast Getrolle.

Solche Karten werden ja wohl eher nicht in 1280*1024 gefahren, sondern mindestens in 1680*1050, tendenziell eher noch höher.

Es wird das gefahren was gefahren werden kann, sprich was ca auf 30fps oder höher rennt. Stalker CS zb gibt in höheren Auflösungen bei ATi 18fps und bei Nvidia 11fps aus. Blöd nur, daß das völlig irrelevant ist, weil beides nicht mehr spielbar ist.

Und da kann man getrost von einem Gleichstand reden: mal in die ATI etwas schnell, mal die NV ein bisschen. Aufgrund der Tatsache, dass die Ati-Karte bereits ein gutes halbes Jahr verfügbar ist, hat NV hier zwar eine gute Karte vorgestellt, aber bei Weitem keinen Überflieger. Sie haben tempomässig wieder aufgeschlossen, mehr nicht.

Laut cb sinds eben doch im SCHNITT ein paar Prozenterl mehr, und bei Quadbetrieb noch ein bischen deutlicher.

Von "viel mehr" hat keiner geredet...

Eggcake
2009-01-09, 10:43:37
Hätte von der 295 auch etwas mehr erwartet, aber ich finds sehr gut, dass NV an der Leistungsaufnahme etwas gedreht hat. Das hätte ich hingegen nicht erwartet :)

Schlammsau
2009-01-09, 10:54:37
Von "viel mehr" hat keiner geredet...

Doch...hier haben viele davon geredet! U.a. auch Raff der davon Sprach, dass die 295 der X2 in 95% aller Fälle, davonrennen wird. Aber wie man jetzt sieht, ist dem ganz und gar nicht so. Sie schafft es zwar öfters ein klein wenig schneller zu sein, aber davonrennen ist was anderes.

James Ryan
2009-01-09, 11:05:32
Und von verringerten MR hat man seinerzeit auch bei der ATI gesprochen.

Das kam davon, weil die ersten Tester bei 100 fps keine Mikroruckler festgestellt haben (ist ja auch logisch).
Bei 30fps gibt es sie aber noch, das wurde bspw. auch von der PCGH berichtet!

MfG :cool:

Gast
2009-01-09, 11:35:14
Jaja, PCGH konnte keine IQ-Unterschiede feststellen. Aber Hauptsache erstmal losflamen.

Sie habens sich doch netmal angesehn? Die sagten doch nur -auf den ersten Blick konnten wir blabla...- da muss ersten richtig nachgeschaut werden bevor man etwas dazu sagen kann.Vlt. ging auch kein AA bei manchen tests
weil 40% in Crysis is schon arg viel. oder isses wiedermal nur timedemo optimiert :D Das kennen wir ja von ATI/AMD!

Schlammsau
2009-01-09, 11:37:35
Sie habens sich doch netmal angesehn? Die sagten doch nur -auf den ersten Blick konnten wir blabla...- da muss ersten richtig nachgeschaut werden bevor man etwas dazu sagen kann.Vlt. ging auch kein AA bei manchen tests
weil 40% in Crysis is schon arg viel. oder isses wiedermal nur timedemo optimiert :D Das kennen wir ja von ATI/AMD!

Nur blöd, dass ich die 40%+ in Warhead schon gegengetestet (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443424&page=2) habe. Und das AA ist definitiv aktiv! ;)

Raff
2009-01-09, 11:38:47
Doch...hier haben viele davon geredet! U.a. auch Raff der davon Sprach, dass die 295 der X2 in 95% aller Fälle, davonrennen wird. Aber wie man jetzt sieht, ist dem ganz und gar nicht so. Sie schafft es zwar öfters ein klein wenig schneller zu sein, aber davonrennen ist was anderes.

Sie ist schneller. Ohne den "Wundertreiber" fast immer, und darauf bezog sich die Prognose. Anhand der Roh-Specs war ja schon seit Langem klar, was die Karte können wird – und was nicht.

MfG,
Raff

Gast
2009-01-09, 11:43:17
Nur blöd, dass ich die 40%+ in Warhead schon gegengetestet (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443424&page=2) habe. Und das AA ist definitiv aktiv! ;)

Es sind NUR zahlen! BildA braucht das land.

Schlammsau
2009-01-09, 11:48:25
Sie ist schneller. Ohne den "Wundertreiber" fast immer, und darauf bezog sich die Prognose. Anhand der Roh-Specs war ja schon seit Langem klar, was die Karte können wird – und was nicht.

MfG,
Raff

Dann haben sich aber einige gewaltig verschätzt! Weil Treiberverbesserungen kann/sollte man immer erwarten/einrechnen.

derguru
2009-01-09, 11:52:46
Sie habens sich doch netmal angesehn? Die sagten doch nur -auf den ersten Blick konnten wir blabla...- da muss ersten richtig nachgeschaut werden bevor man etwas dazu sagen kann.Vlt. ging auch kein AA bei manchen tests
weil 40% in Crysis is schon arg viel. oder isses wiedermal nur timedemo optimiert :D Das kennen wir ja von ATI/AMD!
nur optimiert auf timedemo´s kann auch nicht sein weil z.b. pcgh keine timedemo verwendet aber die ergebnisse der standard timedemos wiederspiegelt.
Dann haben sich aber einige gewaltig verschätzt! Weil Treiberverbesserungen kann/sollte man immer erwarten/einrechnen.

aber ganz sicher nicht in der höhe,das konnte niemand erwarten.

Schlammsau
2009-01-09, 12:07:53
nur optimiert auf timedemo´s kann auch nicht sein weil z.b. pcgh keine timedemo verwendet aber die ergebnisse der standard timedemos wiederspiegelt.
Mit Sicherheit haben nichts auf Timedemos optimiert, wie soll das auch gehen! :| Hab ja auch mit nem ganz anderen Benchmark gegengetestet.
Wieso hab das Gefühl die ganzen Gastpostings sind immer von der gleichen Person! ;D

aber ganz sicher nicht in der höhe,das konnte niemand erwarten.
Die Performancesteigerung ist wirklich beachtlich. An welcher Schraube ATi da gedreht hat?

MartinRiggs
2009-01-09, 12:12:41
Ehrlich gesagt glaub ich nichtmal das es für ATI schwer war.
Grade DX10 wurde bisher sehr stiefmütterlich behandelt und die ATIs waren unter DX10 oft beschissen und jetzt performen die Karten endlich so wie es die Hardware kann.

Schlammsau
2009-01-09, 12:22:07
Ehrlich gesagt glaub ich nichtmal das es für ATI schwer war.
Grade DX10 wurde bisher sehr stiefmütterlich behandelt und die ATIs waren unter DX10 oft beschissen und jetzt performen die Karten endlich so wie es die Hardware kann.

Aber nicht nur DX10 hat sich deutlich verbessert...Die Performance in Warhead DX9 mit 8xAA/16xAF ist auch deutlich nach oben geschossen!
Und ich habe nur einen Dual Core!

Spasstiger
2009-01-09, 12:25:39
Grade DX10 wurde bisher sehr stiefmütterlich behandelt und die ATIs waren unter DX10 oft beschissen und jetzt performen die Karten endlich so wie es die Hardware kann.
Daran liegt es eher nicht, unter DX10 war AMD auch mit den 2008er-Catalysts immer gleichauf mit DX9 relativ zu Nvidia. Ende 2008 waren es sogar eher klassische DX9-Spiele, in denen die ATIs Federn lassen mussten, z.B. Dead Space oder Left 4 Dead (Source-Engine).

dildo4u
2009-01-09, 15:03:58
bit-tech.net Nvidia GeForce GTX 295 1,792MB & Quad SLI

http://www.bit-tech.net/hardware/2009/01/08/nvidia-geforce-gtx-295-quad-sli-review/1

dargo
2009-01-09, 15:28:46
bit-tech.net Nvidia GeForce GTX 295 1,792MB & Quad SLI

http://www.bit-tech.net/hardware/2009/01/08/nvidia-geforce-gtx-295-quad-sli-review/1
Was ist denn eigendlich mit den min.fps bei Crysis da los? :|
Treiber, bzw. SLI-Profilprobleme? :confused:

Aber 1,680 x 1,050 4xAA 16xAF, DirectX 10, Very High Quality mit knapp 73 avg.fps sind schon der Wahnsinn. :eek:
Meint ihr der GT300 kommt an die Leistung von zwei GTX 295 ran? :biggrin: 50-60fps würden mir auch schon reichen. ;)

derguru
2009-01-09, 15:35:09
Was ist denn eigendlich mit den min.fps bei Crysis da los? :|
Treiber, bzw. SLI-Profilprobleme? :confused:

Aber 1,680 x 1,050 4xAA 16xAF, DirectX 10, Very High Quality mit knapp 73 avg.fps sind schon der Wahnsinn. :eek:
Meint ihr der GT300 kommt an die Leistung von zwei GTX 295 ran? :biggrin: 50-60fps würden mir auch schon reichen. ;)

wahnsinn finde ich das crysis 4 gpu kerne von diesem kaliber benötigt um auf 73fps zu kommen.

ab einem triple sli gabs glaub ich schon immer schlechtere min. fps werte in crysis.
http://www.tweaktown.com/articles/1466/8/nvidia_geforce_gtx_280_in_tri_sli_tested/index.html

HarryHirsch
2009-01-09, 15:44:12
wahnsinn finde ich das crysis 4 gpu kerne von diesem kaliber benötigt um auf 73fps zu kommen.

ab einem triple sli gabs glaub ich schon immer schlechtere min. fps werte in crysis.
http://www.tweaktown.com/articles/1466/8/nvidia_geforce_gtx_280_in_tri_sli_tested/index.html

Könnte das eventuell mit der erhöhten "Verwaltungsarbeit" für die CPU zusammenhängen?

dargo
2009-01-09, 15:44:15
wahnsinn finde ich das crysis 4 gpu kerne von diesem kaliber benötigt um auf 73fps zu kommen.

Naja, ich sehe das etwas anders. Ist aber nicht das Thema hier. :)

Wobei man die SLI-Effizienz nicht vergessen darf. Mit einer Single-GPU-Graka die 4x so schnell wie eine einzelne GPU der GTX 295 ist müsste man an >90 fps kommen. Das Problem ist nur, dass es keine CPU gibt die diese Framerate durchgehend in Crysis halten kann. :D Nein, selbst ein 4Ghz i7 ist dafür zu schwach.

AnarchX
2009-01-09, 15:49:48
Dann schaltet man halt 16xS ein und schon ist man wieder unter 40FPS. ;)
Aber bis zu einer GPU die 4mal so schnell ist wie eine halbe GTX 295 kann man wohl noch ein paar Jahre warten.

LovesuckZ
2009-01-09, 16:21:59
Vielleicht interessiert es jemanden: Weder die GTX285 noch die GTX295 unterstützen Hybrid-Power.
Schade, so scheint wohl ein sehr tolles Feature nun entgültig gestorben zu sein.

y33H@
2009-01-09, 16:33:52
Vlt. ging auch kein AA bei manchen testsNa klar ... der Tester sieht nicht, ob FSAA an ist ... also 4x AA und 8x AA sieht man auf den ersten Blick ...Vielleicht interessiert es jemanden: Weder die GTX285 noch die GTX295 unterstützen Hybrid-Power. Hmpf :(

cYa

Blaire
2009-01-09, 16:58:09
Doch...hier haben viele davon geredet! U.a. auch Raff der davon Sprach, dass die 295 der X2 in 95% aller Fälle, davonrennen wird. Aber wie man jetzt sieht, ist dem ganz und gar nicht so. Sie schafft es zwar öfters ein klein wenig schneller zu sein, aber davonrennen ist was anderes.

Ihr Leute macht den Fehler und schaut immer nur auf Balkenlänge, die bessere Bildqualität, SSAA sowie die besseren Treiber wird gänzlich ignoriert, aber Hauptsache "Billig" :wink:

tombman
2009-01-09, 16:59:16
Will the real slim shady tombman please stand up!? :cool:

http://www.abload.de/thumb/295-12mk1.jpg (http://www.abload.de/image.php?img=295-12mk1.jpg)http://www.abload.de/thumb/295-3hu7o.jpg (http://www.abload.de/image.php?img=295-3hu7o.jpg)http://www.abload.de/thumb/295-24mm6.jpg (http://www.abload.de/image.php?img=295-24mm6.jpg)

Habe in Wien noch ein bischen handeln können, 473€ pro Karte lagernd ;) Deppensteuer war natürlich zu zahlen (mehr als 400 sind die eh ned wert), aber solange es im Rahmen bleibt gehts ja noch. Jedenfalls glaube ich kaum, daß diese Babies in Österreich wer schneller hatte ;D;D
Verkäufer meinte, ich habe 2 von 5 Karten in .at - rofl.

Ach ja, Zubehör ist dabei:

2x4 pin Molex auf 1x6 pin Pci-e Adapter
2x6 pin Pci-e auf 1x8 pin Pci-e Adapter
1x Audio spdif Kabel
1x DVi auf D-Sub(Vga) Adapter
CD und Handbuch

Und jetzt das Blöde: habe derzeit keinen Monitor zum testen, da mein FW900 ja schon lange hin ist. Neuen Monitor habe ich noch nicht, und die Projektoren kann ich nicht so aufstellen, daß der große Rechner drankommt.
Wann oder wie ich die testen kann- keine Ahnung. Muß mir was einfallen lassen...lol

Naja, Gier siegte, und ich mußte eben HABEN ;D

Gast
2009-01-09, 17:17:14
Ihr Leute macht den Fehler und schaut immer nur auf Balkenlänge, die bessere Bildqualität, SSAA sowie die besseren Treiber wird gänzlich ignoriert, aber Hauptsache "Billig" :wink:
DIe 295 Gx2 bricht doch aber schon oft bei 4aa ein?Wie gut soll die Karte dann ssaa bewerkstelligen?

Blaire
2009-01-09, 17:21:52
DIe 295 Gx2 bricht doch aber schon oft bei 4aa ein?Wie gut soll die Karte dann ssaa bewerkstelligen?

Kommt auf die Auflösung an, bis 1920x1200 kann man sicher schon schön mit SSAA probieren. Und sowenig VRAM sind 896MB ja nun auch wieder nicht.

Schlammsau
2009-01-09, 17:23:32
Ihr Leute macht den Fehler und schaut immer nur auf Balkenlänge, die bessere Bildqualität, SSAA sowie die besseren Treiber wird gänzlich ignoriert, aber Hauptsache "Billig" :wink:

Die Treiber sind nicht besser! Ich rede aus eigener Erfahrung!

SSAA was? Sorry aber diese Spielerei kennen die wenigsten!

Bessere Bilqualität.....hmmm......nur mit AF und dann auch nicht immer!
Dafür haben (wir) DX10.1 und Edge Detect, dass die AA Qualität deutlich anhebt, wenn es den unterstützt wird.

Und ja, Geiz ist irgendwie doch geil, gerade in Zeiten der Wirtschaftskrise und exorbitant hohen Energiekosten.
Und wenn man die Möglichkeit hat, ein paar € zu sparen, und dafür aber auch ein gutes Produkt bekommt, warum nicht!?


Und nochmal zu der 295, weil es anscheinend falsch rübergekommen ist.
Sie ist der X2 überlegen, zwar nicht deutlich aber dennoch überlegen.
nVidia hat sich die Krone zurückerobert.

HD-Ronny
2009-01-09, 17:25:34
[QUOTE=tombman;7028519
Und jetzt das Blöde: habe derzeit keinen Monitor zum testen, da mein FW900 ja schon lange hin ist. Neuen Monitor habe ich noch nicht, und die Projektoren kann ich nicht so aufstellen, daß der große Rechner drankommt.
Wann oder wie ich die testen kann- keine Ahnung. Muß mir was einfallen lassen...lol

Naja, Gier siegte, und ich mußte eben HABEN ;D[/QUOTE]

Aua. Kannst du dir nicht irgendwo schnell einen ausleihen ? Das tut doch in der seele weh sowas liegen zu haben und nicht auszutesten ... :eek:

MartinRiggs
2009-01-09, 17:29:39
Naja das rumgemache mit den Betatreibern geht einem teilweise auf den Sack, aber oft ist die Treiberunterstützung für Games bei NV früher gegeben bzw. besser gegeben.

DX10.1 ist praktisch wertlos, Spiel doch mal Clear Sky mit AA, viel spass beim ruckeln:biggrin:
Energie spart ne aktuelle Geforce im idle gut ein, was meine HD4870 nicht tut, soviel zu GEIZ ist geil und bessere Treiber.:rolleyes:

LovesuckZ
2009-01-09, 17:31:09
SSAA was? Sorry aber diese Spielerei kennen die wenigsten!

Bessere Bilqualität.....hmmm......nur mit AF und dann auch nicht immer!
Dafür haben (wir) DX10.1, dass die AA Qualität deutlich anhebt, wenn es den unterstützt wird.

Besseren AF, mehr Auswahl beim AA, Entscheidungsfreiheit zwischen TSAA und TMAA - die Bildqualität liegt wohl klar auf Seiten von nVidia.
Und 10.1 muss sich mit PhysX messen.


Und ja, Geiz ist irgendwie doch geil, gerade in Zeiten der Wirtschaftskrise und exorbitant hohen Energiekosten.
Und wenn man die Möglichkeit hat, ein paar € zu sparen, und dafür aber auch ein gutes Produkt bekommt, warum nicht!?

Derjenige kauft sich keine x2 Karte - weder von AMD noch von nVidia.

VooDoo7mx
2009-01-09, 17:31:14
Schlammsau du bist echt nur noch ne peinliche Nummer hier.

In wie vielen Spielen kann ich mit einer nVidia Karte von SSAA oder Hybridmodi profitieren? In mehreren Hundert oder gar tausenden.

In wievielen Spielen kann ich von DirectX 10.1 auf einer ATi Kate profitieren? In einen! Wahnsinn!

Und nicht nur der anisotope Filter bei nV Karten rechnet genauer sonder die gesamte Texturfilterung ist insgesamt besser.

Oh ja Weltwirtschaftskrise... lol ich fall gleich vom Stuhl. Frag mal Tombman was der von der Weltwirtschaftskrise hält. :ulol:

Daredevil
2009-01-09, 17:38:30
@VooDoo7mx

Selbst wenn mir Quad-SLI nicht gefällt behalte ich eben nur eine und sollte nicht zuviel fps im Vergleich zu meinem jetzigen GTX280-SLI setup (vielleicht 10%) verlieren, dabei aber natürlich Strom und Platz sparen... ;)

:D
Aber Zwei GTX295 nur so zum anschauen haben is auch nicht so pralle, verschieb deinen Beamer in den Kabuff wo dein PC steht! ^^

Gast
2009-01-09, 17:39:14
Das Argument DX10.1 ist doch nur nen Strohhalm der ATI-Jungs.

Raff
2009-01-09, 17:39:44
Die Treiber sind nicht besser! Ich rede aus eigener Erfahrung!

SSAA was? Sorry aber diese Spielerei kennen die wenigsten!

Bessere Bilqualität.....hmmm......nur mit AF und dann auch nicht immer!
Dafür haben (wir) DX10.1 und Edge Detect, dass die AA Qualität deutlich anhebt, wenn es den unterstützt wird.

Sieh endlich ein, dass Nvidia das qualitativ rundere Paket bietet. Da gibt's überhaupt keine Diskussion – wohl aber darüber, dass diese Vorteile ständig von einigen Spezialisten kleingeredet werden. Dabei geht's nicht mal um die GTX 295, welche ich persönlich auch schlicht als MGPU-Murks ansehe, sondern um Radeon vs. GeForce generell.

MfG,
Raff

pest
2009-01-09, 17:55:08
SSAA geht doch garnicht überall, so wie es m.M. nach soll.
Pauschal zu sagen, das man daraus Vorteile zieht, ist übertrieben.
Und wenn es geht, welchen neuen Spiele laufen damit wirklich vernünftig?
Genauso ist 64xQ ziemlich...gegenstandslos

Da gibt's überhaupt keine Diskussion – wohl aber darüber, dass diese Vorteile ständig von einigen Spezialisten kleingeredet werden.

Ich würde eher sagen, ein paar Spezialisten blähen die Vorteile unnötig auf.
Und mit diesen Vorteilen verdient NV auch nicht ihr Geld.

Allerdings ist es schon merkwürdig das ATI genau jetzt teilweise 40% zulegen kann.
Es ist m.M. nach relativ unwahrscheinlich Verbesserungen dieser Größenordnung zu finden, wenn man schon viel Entwicklungszeit in ein Projekt gesteckt hat.

Den Vogel schießt aber mal wieder tombman ab :tongue:
immerhin hast du uns mit Fotos beglückt da ist am Ende für dich vielleicht auch egal, ob du die Dinger auch nutzen kannst :D

dildo4u
2009-01-09, 17:59:21
Allerdings ist es schon merkwürdig das ATI genau jetzt teilweise 40% zulegen kann.

Kundenverarsche über die 40% hätten sich die ATI User sicherlich schon über Weihnachten gefreut wo sie Zeit zum zocken hatten,aber nein das hebt man sich 2 Wochen für den Konkkurenz Launch auf.:down:

y33H@
2009-01-09, 18:01:14
nur mit AF und dann auch nicht immer! HQ-AF ohne Optimierungen ist dem AF der Radeons überlegen, da ändert auch AI-off nichts dran. Punkt.

cYa

LovesuckZ
2009-01-09, 18:05:48
SSAA geht doch garnicht überall, so wie es m.M. nach soll.
Pauschal zu sagen, das man daraus Vorteile zieht, ist übertrieben.


MSAA funktioniert auch nicht in jedem Spiel. ;)
Und SSAA zu haben ist ein Vorteil. Ob es nun einsetzt oder nicht, relativiert diesen Vorteil nicht. Bei AMD hat man z.B keine Möglichkeit mehr SS-AAA in jeder Anwendung verwenden zu können. Ist das jetzt kein Nachteil gegenüber nVidia, da man es dort explizit einstellen kann?
Es ist immer besser mehr Auswahl zu haben als zu wenig. Wer das nicht als Vorteilt ansieht, muss dies schon besser begründen als mit "es funktioniert nicht überall".

derguru
2009-01-09, 18:09:50
HQ-AF ohne Optimierungen ist dem AF der Radeons überlegen, da ändert auch AI-off nichts dran. Punkt.

cYa

genau und das wars dann auch schon,punkt.

ssaa,lol man kauft sich keine 295gtx sli um damit dann alte schinken zu spielen weil es bei neuen spielen extrem hardwarefordend ist und wie du selbst schon etliche mal gesagt hast sogut wie immer bluren tut bei neuen spielen.

also fot damit,bringt nichts mehr in zukunft.
im gegensatz zum ssaa kann ich wirklich in jedem spiel edge detect an machen+adative Q und auch spielen und nicht nur screenshots schiessen.:wink:(mal ausgenommen crysis und stalker cs)

so groß wie hier immer getan wird ist die BQ ganz sicher nicht,ist ja langsam lächerlich.(das beste ist noch dann,verteidigen noch leute ssaa bis zum tot die gerade mal ne g92 oder in dem performance bereich haben)

Spasstiger
2009-01-09, 18:10:45
DIe 295 Gx2 bricht doch aber schon oft bei 4aa ein?Wie gut soll die Karte dann ssaa bewerkstelligen?
SSAA-Benchmarks gibts hier:
http://www.pcgameshardware.de/aid,670858/Test/Benchmark/Geforce_GTX_295_-_Erster_Test_der_Nvidia-Dual-Grafikkarte/?page=8

Die GTX 295 führt dabei durchgehend deutlich vor der GTX 280, auch in 1680x1050 mit 32xS-AA, was man ja auch als 3360x2100 mit 8xMSAA interpretieren kann.

=Floi=
2009-01-09, 18:15:19
wo liegt der sinn in einer lauten 295er, wenn man zwei 280er hat?
das teil dürfte immer dröhnen und oc dürfte auch unmöglich sein.

Mr. Lolman
2009-01-09, 18:15:21
Das kennen wir ja von ATI/AMD!

Woher zB?

Kundenverarsche über die 40% hätten sich die ATI User sicherlich schon über Weihnachten gefreut wo sie Zeit zum zocken hatten,aber nein das hebt man sich 2 Wochen für den Konkkurenz Launch auf.:down:

Hä? Immerhin hat der Kunde für die HD4870 (zum Launch) nur ~halb soviel bezahlt wie für eine GTX280 - und dank der Treiber jetzt aber gleichwertige Leistung...

HQ-AF ohne Optimierungen ist dem AF der Radeons überlegen, da ändert auch AI-off nichts dran. Punkt.

cYa

Nur solang kein negatives LOD verwendet wird. Punkt.

die Projektoren kann ich nicht so aufstellen, daß der große Rechner drankommt

Schade eigentlich, oder? Bluetooth Tastatur/Maus und langes HDMI Kabel ist keine Option? So mach ichs nämlich auch...

Spasstiger
2009-01-09, 18:20:14
wo liegt der sinn in einer lauten 295er, wenn man zwei 280er hat?
das teil dürfte immer dröhnen und oc dürfte auch unmöglich sein.
Gegen die zu hohe Lautstärke im idle hilft RivaTuner. Und OC geht sehr wohl. Sowohl die PCGH als auch Computerbase konnten problemlos 20% höhere Taktraten bei der GTX 295 fahren.

dildo4u
2009-01-09, 18:21:32
Woher zB?



Hä? Immerhin hat der Kunde für die HD4870 (zum Launch) nur ~halb soviel bezahlt wie für eine GTX280 - und dank der Treiber jetzt aber gleichwertige Leistung...


In 2-3 Spielen gabs deutliche Zugewinne verkauf das nicht so als wenn die Karte durch die Bank 40% schneller geworden ist.(Selbst beim CB Test sind mit den zwei optemierten Games im Schnitt nur 8%)
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_catalyst_9x_beta/10/#abschnitt_performancerating
Würde man 30 Spiele testen wirds whol maximal 25 zu 5 stehen.(gegen die GTX 280)Im Schnitt liegt die 4870 unter der GTX 260².

Blaire
2009-01-09, 18:23:22
also fot damit,bringt nichts mehr in zukunft.
im gegensatz zum ssaa kann ich wirklich in jedem spiel edge detect an machen+adative Q und auch spielen und nicht nur screenshots schiessen.:wink:(mal ausgenommen crysis und stalker cs)

Stell dir mal vor, das kann ich auch MIT SupersamplingAA ...und das was jetzt 3 Karten schaffen wird in Zukunft auch 1 Karte schaffen. 24xEdgeAA kannst mit 1 Karte auch vergessen, dafür brauchst mindestens Crossfire könnte man genauso argumentieren...

Mr. Lolman
2009-01-09, 18:24:47
In 2-3 Spielen gabs deutliche zugewinne würde man 30-40 Spiele testen wirds whol maximal 25 zu 5 stehen.Im Schnitt liegt die 4870 unter der GTX 260².

Ja würde und hätte. CB hat mehr spiele getestet als PCGH und da ist die 295 im Durchschnitt langsamer als bei PCGH. Von daher kann man das Argument auch umdrehen. Ausgehend von der vielzitierten schlechteren CF-Skalierung und den aktuellen Ergebnissen bei CB fehlt imo nicht mehr viel zw 280 und 4870.

y33H@
2009-01-09, 18:27:20
Nur solang kein negatives LOD verwendet wird. Punkt.Clamp zählt freilich zu "ohne Optimierungen". Und per nHancer das LOD-BIAS ins Minus zu schieben mache ich wenn, dann nur für Shots.m gegensatz zum ssaa kann ich wirklich in jedem spiel edge detect an machen+adative Q und auch spielen und nicht nur screenshots schiessen4x FSAA samt TMSAA kann ich auch auf jeder Geforce anmachen. Und idR ist TMSAA optisch gleichauf mit HQ-AAA, kostet auch ähnlich viel. TSSAA ist ohnehin ub0r ... das kostet aber. CFAA-ED ist dafür DIE Geometrie-Glättung schlechthin.

Sprich, als HD4870/1G-User sollte man imo auf nem 22er idR mit 12xED samt HQ-AAA zocken, als GTX260-User mit 4x TSSAA samt HQ-AF. Absolut ist dann imo das Bild auf der Geforce n Tick besser aufgrund der besser geglätteten Alpha-Tests und des besseren AF. Was die Fps anbelangt - kommt aufs Spiel und den Content an.

cYa

LovesuckZ
2009-01-09, 18:27:34
Ja würde und hätte. CB hat mehr spiele getestet als PCGH und da ist die 295 im Durchschnitt langsamer als bei PCGH. Von daher kann man das Argument auch umdrehen. Ausgehend von der vielzitierten schlechteren CF-Skalierung und den aktuellen Ergebnissen bei CB fehlt imo nicht mehr viel zw 280 und 4870.

Die 295 ist auch keine GTX280 * 2. Es ist daher komplett falsch, diese Behauptung aufzustellen.
Und in den zwei Spielen, wo der Treiber was bringt, sollte 4870 fast schon schneller als die 280 sein.

Mr. Lolman
2009-01-09, 18:27:37
In 2-3 Spielen gabs deutliche zugewinne würde man 30-40 Spiele testen wirds whol maximal 25 zu 5 stehen.Im Schnitt liegt die 4870 unter der GTX 260².

Ja würde und hätte. CB hat mehr spiele getestet als PCGH und da ist die 295 im Durchschnitt langsamer als bei PCGH. Von daher kann man das Argument auch umdrehen. Ausgehend von der vielzitierten schlechteren CF-Skalierung und den aktuellen Ergebnissen bei CB fehlt imo nicht mehr viel zw 280 und 4870.

EDIT: Außerdem ist der Treiber bei hoher Last bei fast jedem Spiel zumindest ein paar Prozent flotter als der 8.12...

dildo4u
2009-01-09, 18:27:47
Ja würde und hätte. CB hat mehr spiele getestet als PCGH und da ist die 295 im Durchschnitt langsamer als bei PCGH. Von daher kann man das Argument auch umdrehen.
Es ging um 4870 vs GTX 280 den Vergleich hast du hier gebracht nicht ich.



Hä? Immerhin hat der Kunde für die HD4870 (zum Launch) nur ~halb soviel bezahlt wie für eine GTX280 - und dank der Treiber jetzt aber gleichwertige Leistung...
.
Mit der Realität hat das nix zu tun leider können Manche nichtmal halbwegs Objektiv argumentieren.

Blaire
2009-01-09, 18:29:04
Ja würde und hätte. CB hat mehr spiele getestet als PCGH und da ist die 295 im Durchschnitt langsamer als bei PCGH. Von daher kann man das Argument auch umdrehen. Ausgehend von der vielzitierten schlechteren CF-Skalierung und den aktuellen Ergebnissen bei CB fehlt imo nicht mehr viel zw 280 und 4870.

http://pctuning.tyden.cz/index.php?option=com_content&task=view&id=12396&Itemid=44&limit=1&limitstart=15
Auch ein guter Test mit sehr vielen Games...

=Floi=
2009-01-09, 18:31:25
die testen mit 100% lüfter! Beim spielen soll die karte aber auch noch angenehm sein.

Mr. Lolman
2009-01-09, 18:40:59
Mit der Realität hat das nix zu tun leider können Manche nichtmal halbwegs Objektiv argumentieren.

Naja. zumindest bringen grad die Spiele die GraKaleistung zum Frühstück fressen (wie Crysis Warhead und Stalker CS) nette Mehrperformance. Das mit der vergleichbaren Performance zur GTX280 nehm ich tw. zurück. Sind wohl noch ~15% Abstand bei 1680x1050, 4xAA/16xAF (bei höherer Last verschiebt sich das Verhältnis zugunsten ATIs)

Jedenfalls find ich keinen Grund warum man über die Leistungssteigerung meckern könnte. Hätten die Treiber von Anfang an die Performance erlaubt, wären die Karten preislich wohl auch dementsprechend platziert worden.

http://pctuning.tyden.cz/index.php?option=com_content&task=view&id=12396&Itemid=44&limit=1&limitstart=15
Auch ein guter Test mit sehr vielen Games...

Stimmt. Thx für den Link. Leider nur mit Cat. 8.12 aber trotzdem nett.

LovesuckZ
2009-01-09, 18:44:09
Warum sollten die Karten anders preislich plaziert werden? AMD ging es nie darum, die Karten teuer zu verkaufen. Und zum Release gab es jedenfalls kein Warhead, Farcry 2 und Konsorten in denen das Leistungsplus hervorgerufen wurden. ;)

y33H@
2009-01-09, 18:45:36
Der einzige Grund zum Meckern ist der, dass der Treiber - rein zufällig *g* - erst zum Launch der GTX 295 erscheint. Sieht halt n bissl danach aus, als ob man da gewartet hätte. Wobei das ein Schuss ins Bein wäre: Wäre die MT-Optimierung des Workloads schon im 8.11 oder 8.12 drin gewesen, hätten alle Reviewer damit gebencht und die Radeons - gerade die X2 - wären durchweg besser aufgestellt.

Aber AMDs Marketing bzw. die Treiberentwicklung habe ich seit der HD-Series ohnehin nicht mehr kapiert ... vll wissen die ja tatsächlich was sie machen ;D

cYa

LovesuckZ
2009-01-09, 18:46:52
Und ich frage mich, warum jeder von MT-Optimierung spricht, es aber keinen Zugewinn gibt, wenn wirklich die CPU limitiert.
Wieso sollte ausgerechnet das AA von einer MT-Optimierung so stark profitieren - und dann auch nur in einigen Engines?

/edit:
http://www.behardware.com/html/news/cat4/page1.html

De Leistungsplus mit AA hat nichts mit der MT-Optimierung zu tun.

Gast
2009-01-09, 18:52:57
enttäuschend. Die Lautstärke ist wie im Affenrudel unter Löwen. Positiv: Der Stromverbrauch. Negativ: Der Preis. Overall einfach enttäuschend. Habe mehr erwartet.

tombman
2009-01-09, 18:56:22
Schade eigentlich, oder? Bluetooth Tastatur/Maus und langes HDMI Kabel ist keine Option? So mach ichs nämlich auch...
Im Endausbau meines Zimmers wird das dann auch so gemacht (Stichwort "Cinema Gaming"), aber JETZT ist das noch nicht möglich weil dazu Möbel verstellt werden müssen.

Ich könnte jetzt zum Testen den "alten" Z2000 schon mal kurz ein paar Stunden irgendwie aufstellen- werds wahrscheinlich auch so machen, weil lange halte ich das eh ned aus ;D;D

Wochenende abwarten ;)

y33H@
2009-01-09, 18:58:54
@ LovesuckZ

mWn ist der Workload mit FSAA höher als ohne ... man korrigiere mich.

cYa

Gast
2009-01-09, 19:00:28
Ich finde auch Nvidia hat alles falsch gemacht was man falsch machen konnte. Hier und da lustige Produktbeschreibungen die User in die Irre führen. "Neue" Karten (vor der GTX260/280) die teilweise unter 8800GTX sind. Was werkeln die da? Unbeschreiblich wie man sich selbst ein Grab schaufeln kann. So sehe ich als GTX260 User das...

LovesuckZ
2009-01-09, 19:02:15
@ LovesuckZ

mWn ist der Workload mit FSAA höher als ohne ... man korrigiere mich.

cYa

Die Arbeit, die die GPU vollrichtet, ist wesetlich aufwendiger als das bissl Workload zwischen CPU, Treiber und System.
Und sollte es wirklich sein, dass der AMD Treiber 25% der Leistung in einigen Anwendungen aufgegessen hat, sollte man die Treiberabteilung feuern.

VooDoo7mx
2009-01-09, 19:05:35
Und ich frage mich, warum jeder von MT-Optimierung spricht, es aber keinen Zugewinn gibt, wenn wirklich die CPU limitiert.
Wieso sollte ausgerechnet das AA von einer MT-Optimierung so stark profitieren - und dann auch nur in einigen Engines?

/edit:
http://www.behardware.com/html/news/cat4/page1.html

De Leistungsplus mit AA hat nichts mit der MT-Optimierung zu tun.

Ja das ist mir auch schon aufgefallen. PCGH hat selbst mit einen Dual Core teils deutliche Gewinne durch den neuen Treiber bekommen können.
Bei Hardware die schon so lange auf dem Markt ist glaube ich einfach nicht mehr an solch gewaltige Zugewinne nur durch einen Treiber ohne weiter die Bildqualität zu reduzieren.
Eine andere Vermutung von meiner Seite wäre auch, dass ATi den Treiber nochmal direkt auf Crossfire getrimmt hat und sich die ganzen Profile der bekanntentesten Spiele per Hand nochmal vorgeknüpft hat. Um diese Theorie zu berstätigen, müsste aber al eine Seite eine 4870 mit alten und neuen Treiber mitbenchen.
Es müsste auch mal eien Seite Spiele testen, dieabseits vom Maonstream liegen, mal sehen obd er ATi Treiber da auch so deutlich zulegt. :|

derguru
2009-01-09, 19:09:00
Stell dir mal vor, das kann ich auch MIT SupersamplingAA ...und das was jetzt 3 Karten schaffen wird in Zukunft auch 1 Karte schaffen. 24xEdgeAA kannst mit 1 Karte auch vergessen, dafür brauchst mindestens Crossfire könnte man genauso argumentieren...
das brauch man sich nicht vorstellen denn das wird so sein,ich meine auch 2 cf oder sli,8+edge oder ssaa hat auf einer karte auch nichts zusuchen.


Eine andere Vermutung von meiner Seite wäre auch, dass ATi speziell den treiber nochmal auf Crossfire getrimmt hat und sich die ganzen Profile der bekanntentesten Spiele per Hand vorgeknüpft hat. Umd iese Theorie zu berstätigen, müsste aber al eine Seite eine 4870 mitbenchen.

auf cf getrimmt ganz sicher nicht denn die verbesserungen sind auch bei einer karte vorhanden.

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_catalyst_9x_beta/7/#abschnitt_crysis_warhead

LovesuckZ
2009-01-09, 19:09:58
Computerbase hat eie 4870 getestet. (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_catalyst_9x_beta/7/) Der Leistungsgewinn fällt gleich mit den Crossfire-System aus. Es wären mal Test mit A.I Off interessant, um zu sehen, ob es sich nur um anwendungsspezifische Optimierungen handelt.

Gast
2009-01-09, 19:13:01
Bin mal gespannt wieviele Nvidia Bosse sich vor den Zug schmeissen in Anlehnung an den Pharmaboss*Sarkasmusmode on*

Und nehmst locker die nächste Graka die ich kaufe wird von Nvidia sein und zwar ne GT300.

Banshee18
2009-01-09, 19:15:53
Sprich, als HD4870/1G-User sollte man imo auf nem 22er idR mit 12xED samt HQ-AAA zocken...
12xED ist doch 4xMSAA inklusive Edge Detection, oder? Ist das wirklich besser als 8xAA, was deutlich schneller ist?
ssaa,lol man kauft sich keine 295gtx sli um damit dann alte schinken zu spielen weil es bei neuen spielen extrem hardwarefordend ist und wie du selbst schon etliche mal gesagt hast sogut wie immer bluren tut bei neuen spielen.

also fot damit,bringt nichts mehr in zukunft.
im gegensatz zum ssaa kann ich wirklich in jedem spiel edge detect an machen+adative Q und auch spielen und nicht nur screenshots schiessen.:wink:(mal ausgenommen crysis und stalker cs)

so groß wie hier immer getan wird ist die BQ ganz sicher nicht,ist ja langsam lächerlich.(das beste ist noch dann,verteidigen noch leute ssaa bis zum tot die gerade mal ne g92 oder in dem performance bereich haben)
Man kann auch einige relativ neue Spiele sogar mit einer GTX280 noch gut mit Hybrid-AA zocken. Und dass es so gut wie immer blurt, ist total übertrieben.
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_anti-aliasing_ati_nvidia/10/#abschnitt_benchmarks
Schau dir mal an, welchen Hybridmodus man nutzen kann, um ca. auf die fps einer ATi mit Edge Detect zu kommen. Klingelts?

In vielen Spielen sind Hybridmodi bzw. SSAA einfach toll und sogar fast unverzichtbar für gute Qualität, z.B. Riddick.

y33H@
2009-01-09, 19:18:50
12xED ist doch 4xMSAA inklusive Edge Detection, oder? Ist das wirklich besser als 8xAA, was deutlich schneller ist?Imo ja. Wobei man mit ner 1G-Karte auch 24xED nutzen kann, dass ist aber zu testen. Bei FC2 etwa haut 8x bei den Radeon (überraschenderweise) übelst rein.

cYa

derguru
2009-01-09, 19:26:29
Man kann auch einige relativ neue Spiele sogar mit einer GTX280 noch gut mit Hybrid-AA zocken. Und dass es so gut wie immer blurt, ist total übertrieben.
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_anti-aliasing_ati_nvidia/10/#abschnitt_benchmarks
Schau dir mal an, welchen Hybridmodus man nutzen kann, um ca. auf die fps einer ATi mit Edge Detect zu kommen. Klingelts?

In vielen Spielen sind Hybridmodi bzw. SSAA einfach toll und sogar fast unverzichtbar für gute Qualität, z.B. Riddick.

natürlich kann man auch neue spiele spielen ohne blur aber es werden immer mehr spiele kommen die mit ssaa probleme machen(wie blur oder sonstiges)

ja schau mal dann klingelt es eventuell bei dir.:eek:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_anti-aliasing_ati_nvidia/17/#abschnitt_performancerating

Riddick,ja genau aus dem jahre 2004 packe ich nochmal aus um zusehen ob ssaa ihren dienst macht.sorry ich lebe in der gegenwart.

bevor jetzt wieder eingedroschen wird,habe selbst nv karten aber egal.;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7028637&postcount=51

y33H@
2009-01-09, 19:27:14
Reines SSAA ist imo eh gay. Wenn, dann Hybriden oder TSSAA.

cYa

LovesuckZ
2009-01-09, 19:34:32
Riddick,ja genau aus dem jahre 2004 packe ich nochmal aus um zusehen ob ssaa ihren dienst macht.sorry ich lebe in der gegenwart.


Yeah, viel Spaß mit 24xED in Crysis, Stalker, GTA4 (hoppla, das untersützt ja garkein AA) und Konsorten. :rolleyes:
Muss schon geil sein in der Gegenwart zu leben und auf gewisse AA Modi verzichten zu müssen. ;D

Eggcake
2009-01-09, 19:36:13
Es müsste auch mal eien Seite Spiele testen, dieabseits vom Maonstream liegen, mal sehen obd er ATi Treiber da auch so deutlich zulegt. :|

Und was hast du damit bewiesen? Genau - höchstens, dass ATI spieleabhängig optimiert, was ja nicht wirklich ungewöhnlich ist.

Ganz einfach Bildqualität genau untersuchen - wenn die gleich ist, ists mir eigentlich wurscht woher und wieso die zusätzliche Leistung kommt - Hauptsache sie ist da und die Bildquali ist gleich (was getestet werden soll).

Banshee18
2009-01-09, 19:40:07
ja schau mal dann klingelt es eventuell bei dir.:eek:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_anti-aliasing_ati_nvidia/17/#abschnitt_performancerating
Fallout 3:
24xED: 55,1 fps
16xS: 53f ps

F.E.A.R.
24xED: 73 fps
8xS: 91 fps
8xQS: 66 fps

Rainbow Six
24xED: 32,5 fps
8xS: 32 fps

Racedriver Grid
24xED: 50,4 fps
8xQS: 49,4

...

Riddick,ja genau aus dem jahre 2004 packe ich nochmal aus um zusehen ob ssaa ihren dienst macht.sorry ich lebe in der gegenwart.
Das war ein Beispiel.

pest
2009-01-09, 19:46:21
wenn ne GTX280 200,-€ kostet darfste das so vergleichen, oder du argumentierst so, wer unbedingt 8xS statt 24xEDAA will muss halt 80,-€ mehr bezahlen

Mr. Lolman
2009-01-09, 19:51:54
Imo ja. Wobei man mit ner 1G-Karte auch 24xED nutzen kann, dass ist aber zu testen. Bei FC2 etwa haut 8x bei den Radeon (überraschenderweise) übelst rein.

cYa


Imo nö. Mal abgesehen davon, dass ich quasi nie mehr als 4xAA brauch, hatt man bei 8xMSAA halt 8 Geometrie Samples, während bei 12xEDAA 4 Samples bloß geblurt werden. Das kann zwar besser aussehen, aber meistens ist imo normales 8xMSAA vorzuziehen.

BTW: Je nach Auflösung rennt auch 24xEDAA mit ner 512MB Karte ganz gut. In RD:Grid mit 1280x1024 bespw...

tombman
2009-01-09, 20:07:38
Ähm, was hat diese AA Diskussion jetzt im 295er thread verloren?

deekey777
2009-01-09, 20:15:08
NVIDIA GeForce GTX 295 (http://www.ixbt.com/video3/gt200-6-part1.shtml) (in Russisch)

http://www.ixbt.com/video3/gt200-6-part2.shtml#p5
Wie es aussieht, funktioniert SLI nicht mit D3D RightMark.

HarryHirsch
2009-01-09, 20:16:03
Yeah, viel Spaß mit 24xED in Crysis, Stalker, GTA4 (hoppla, das untersützt ja garkein AA) und Konsorten. :rolleyes:
Muss schon geil sein in der Gegenwart zu leben und auf gewisse AA Modi verzichten zu müssen. ;D

Du hast keine Ahnung wovon du redest oder?

Vertigo
2009-01-09, 20:16:17
Ähm, was hat diese AA Diskussion jetzt im 295er thread verloren?
Pah! Solange Lolman und Konsorten noch nicht beim Voodoo5-AA angelangt sind, ist das Ende der Fahnenstange noch nichtmal in Sicht. :biggrin:

Aber mal zum eigentlichen Thema: Laut vielen Reviews ist das Mikroruckeln wohl (etwas) besser geworden. Liegt das an der 295GTX oder eher am Treiber (was dann ja wohl auch andere SLI-Setups begünstigen sollte)?

Frank1974
2009-01-09, 20:16:24
Was ist denn eigendlich mit den min.fps bei Crysis da los? :|
Treiber, bzw. SLI-Profilprobleme? :confused:

Aber 1,680 x 1,050 4xAA 16xAF, DirectX 10, Very High Quality mit knapp 73 avg.fps sind schon der Wahnsinn. :eek:
Meint ihr der GT300 kommt an die Leistung von zwei GTX 295 ran? :biggrin: 50-60fps würden mir auch schon reichen. ;)

Man sollte sich nie zu viel erhoffen, beim G200 wurde Monate vorher über 2-3fache 8800GTX Leistung spekuliert, ich habe da auch immer mitgelesen, man braucht nur die alten Threads zum G200 anschauen.
Und was war dann, die GTX280 hat bei normalen Einstellungen(4xAA, 16xAF) 50-60% gebracht, in einige Situationen auch mal mehr.
Klar bis zum GT300 ist noch lange Zeit, aber es ist besser wenn man nicht zuviel erwartet.

mfg
Frank

LovesuckZ
2009-01-09, 20:19:21
Du hast keine Ahnung wovon du redest oder?

Er posaunt rum, dass er es lächerlich finde SS nur in älteren Spielen einsetzen zukönnen. Fakt ist, dass ED in neuen Spielen zur Unspielbarkeit neigt und viele Games heute ebenfalls Probleme mit MSAA haben.
Und ja, ich habe Ahnung. ;)

HarryHirsch
2009-01-09, 20:27:03
Er posaunt rum, dass er es lächerlich finde SS nur in älteren Spielen einsetzen zukönnen. Fakt ist, dass ED in neuen Spielen zur Unspielbarkeit neigt und viele Games heute ebenfalls Probleme mit MSAA haben.
Und ja, ich habe Ahnung. ;)

Bei Crysis kostet ED ~15 FPS im vergleich zu 8x MSAA und selbst dann ist es immer noch spielbar mit ~60 FPS

Raff
2009-01-09, 20:27:54
Reines SSAA ist imo eh gay. Wenn, dann Hybriden oder TSSAA.

cYa

Reines SSAA ist nur "gay", weil Nvidia bisher nur das minderwertige OG-SSAA integriert hat. Besser als nichts ist es definitiv, denn OG entflimmert astrein. Und 16x OGSSAA kann man eigentlich nur vorwerfen, dass es übelst langsam ist – seinen Job als "Bügeleisen" vollzieht es sehr effektiv. Oh, da oben sagte jemand Voodoo5: Hätten wir 8x SGSSAA, bräuchten wir weder 16xS noch 32xS. ;)

Ähm, was hat diese AA Diskussion jetzt im 295er thread verloren?

Für was brauchst du 2, 3 oder 4 GPUs – für Multisampling? Also ich nicht, da reicht eine einzelne astrein.

MfG,
Raff

LovesuckZ
2009-01-09, 20:29:56
Bei Crysis kostet ED ~15 FPS im vergleich zu 8x MSAA und selbst dann ist es immer noch spielbar mit ~60 FPS

Zeig mal. Aber bitte nicht in 800x600. ;)

Schlammsau
2009-01-09, 20:29:57
Frage an die Profis - Welcher nVidia AA Modi ist am ehesten mit ATi´s 24x Edge Detect vergleichbar? Nicht von der Leistung her, sondern Bildqualitätsmässig!

derguru
2009-01-09, 20:31:28
Er posaunt rum, dass er es lächerlich finde SS nur in älteren Spielen einsetzen zukönnen. Fakt ist, dass ED in neuen Spielen zur Unspielbarkeit neigt und viele Games heute ebenfalls Probleme mit MSAA haben.
Und ja, ich habe Ahnung. ;)

fakt ist nur eins,das deine gast post langsam nerven,(nicht heute aber sonst)
fakt ist,das du mit deiner 9800 gurke nur ssaa im standbild kennst,
fakt ist,wenn msaa sogar in heutigen spielen probleme macht,wie zur hölle kann man dann ssaa hervor heben.:|
fakt ist,das ich das schon geschrieben hatte das mit stalker und crysis.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7028676&postcount=437
fakt ist,das ich nicht geschrieben habe das ssaa nur in alten spielen einsetzbar ist.

Raff
2009-01-09, 20:32:40
Frage an die Profis - Welcher nVidia AA Modi ist am ehesten mit ATi´s 24x Edge Detect vergleichbar? Nicht von der Leistung her, sondern Bildqualitätsmässig!

Gibt's nicht. 32xS erreicht subjektiv die EER (Polygonkantenglättung) von 24x ED (welche sehr, sehr gut ist). Aber bei 32xS kommen eben die vier Supersamples hinzu, welche den Gesamteindruck deutlich zu Gunsten Nvidias verschieben.

MfG,
Raff

Schlammsau
2009-01-09, 20:35:04
Gibt's nicht. 32xS erreicht subjektiv die EER (Polygonkantenglättung) von 24x ED (welche sehr, sehr gut ist). Aber bei 32xS kommen eben die vier Supersamples hinzu, welche den Gesamteindruck deutlich zu Gunsten Nvidias verschieben.

MfG,
Raff
hmmmm......aber es muss doch einen einigermassen äquivalenten AA Modi geben. Welcher wäre am ehesten vergleichbar?

LovesuckZ
2009-01-09, 20:35:50
fakt ist nur eins,das deine gast post langsam nerven,(nicht heute aber sonst)

Ich schreibe nicht als Gast. ;)


fakt ist,das du mit deiner 9800 gurke nur ssaa im standbild kennst,
fakt ist,wenn msaa sogar in heutigen spielen probleme macht,wie zur hölle kann man dann ssaa hervor heben.:|
fakt ist,das ich das schon geschrieben hatte das mit stalker und crysis.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7028676&postcount=437

Ich hatte auch mal eine 8800GTX - exakt zwei Tage nach dem Release. Und zu dem Zeitpunkt gab es kein Crysis, Stalker und Konsorten. Wenn du es nicht einsiehst, dass man als PC auch ältere Spiele zocken kann, dann ist das nicht mein Problem.
Und du solltest richtig lesen. Ich hebe SSAA nicht anhand der Tatsache hervor, dass es vorallen in neueren Spielen zu Problemen führt, sondern dass es überhaupt zur Verfügung steht. Wer jedoch behauptet, es sei kein Vorteil, weil es zu Problemen mit Games kommt, muss dies auch über MSAA schreiben.

Raff
2009-01-09, 20:37:29
hmmmm......aber es muss doch einen einigermassen äquivalenten AA Modi geben. Welcher wäre am ehesten vergleichbar?

Gibt es einfach nicht, denn wie man's auch macht, es wird nie richtig fair sein. Nvidia kriegt es bislang nicht auf die Reihe, so hübsch auf Multisampling-Basis zu glätten. 16xQ ist 24x ED in Sachen Polygonglättung deutlich unterlegen: http://www.3dcenter.org/artikel/ati-radeon-hd-2900-xt-review/praxisvergleich-custom-filter-coverage-sample-anti-aliasing

Jeder Vergleich ist irgendwo sinnlos. Erinnert sich jemand an die Benchmarks von 6x AA (Ati) vs. 8xS (Nvidia)? ;)

MfG,
Raff

derguru
2009-01-09, 20:37:29
aber mal im ernst man kann doch 32s nicht mit 24ed vergleichen:confused:,klar ist 32S besser aber 24ed ist performancemäßig im 8s bereich.
wenn ich bei meinen 2*260 gtx sli 32 s mache habe ich in fast jedem spiel einstellige fps wenn überhaupt ein bild zustande kommt weil der ram voll ist;)

Frank1974
2009-01-09, 20:38:58
hmmmm......aber es muss doch einen einigermassen äquivalenten AA Modi geben. Welcher wäre am ehesten vergleichbar?

Soll er sich 1000mal wiederholen, nichts, von ATI gibt es auch nix vergleichbares zu 16xS oder 32xS von Nvidia, Punkt.

mfg
Frank

LovesuckZ
2009-01-09, 20:39:29
Jeder Vergleich ist irgendwo sinnlos. Erinnert sich jemand an die Benchmarks von 6x AA (Ati) vs. 8xS (Nvidia)? ;)

MfG,
Raff

Nein, es war 4xS gegen 4xMSAA. ;)

Schlammsau
2009-01-09, 20:40:54
Soll er sich 1000mal wiederholen, nichts, von ATI gibt es auch nix vergleichbares zu 16xS oder 32xS von Nvidia, Punkt.

mfg
Frank
Ruhig brauner, alles wird wieder gut! ;)

Raff
2009-01-09, 20:47:02
Nein, es war 4xS gegen 4xMSAA. ;)

Das war zu 9700- vs. 5800-Zeiten. X-D 6x SGMS vs. 8xS kam dann zu GF7- vs. X1000-Zeiten.

aber mal im ernst man kann doch 32s nicht mit 24ed vergleichen:confused:,klar ist 32S besser aber 24ed ist performancemäßig im 8s bereich.
wenn ich bei meinen 2*260 gtx sli 32 s mache habe ich in fast jedem spiel einstellige fps wenn überhaupt ein bild zustande kommt weil der ram voll ist;)

=>

SSAA-Benchmarks gibts hier:
http://www.pcgameshardware.de/aid,670858/Test/Benchmark/Geforce_GTX_295_-_Erster_Test_der_Nvidia-Dual-Grafikkarte/?page=8

Die GTX 295 führt dabei durchgehend deutlich vor der GTX 280, auch in 1680x1050 mit 32xS-AA, was man ja auch als 3360x2100 mit 8xMSAA interpretieren kann.

Einfach mal den völlig wahnsinnigen Rechenaufwand vor Augen führen. :biggrin:

MfG,
Raff

Frank1974
2009-01-09, 20:56:28
Einfach mal den völlig wahnsinnigen Rechenaufwand vor Augen führen. :biggrin:

MfG,
Raff

Wieso sind keine 2xGTX280 dabei?

Oder hab ich da was übersehen?

mfg
Frank

pest
2009-01-09, 20:56:30
Einfach mal den völlig wahnsinnigen Rechenaufwand vor Augen führen.

wäre es nicht besser für die Zukunft intelligentere AA-Algorithmen zu entwicklen, als mit Brute-Force?

dargo
2009-01-09, 21:00:27
Man sollte sich nie zu viel erhoffen, beim G200 wurde Monate vorher über 2-3fache 8800GTX Leistung spekuliert, ich habe da auch immer mitgelesen, man braucht nur die alten Threads zum G200 anschauen.
Und was war dann, die GTX280 hat bei normalen Einstellungen(4xAA, 16xAF) 50-60% gebracht, in einige Situationen auch mal mehr.
Klar bis zum GT300 ist noch lange Zeit, aber es ist besser wenn man nicht zuviel erwartet.

Ja, ich weiß. Aber hoffen darf man ja noch. :biggrin:
Und gerade weil der GT200 gegenüber dem G80 deutlich weniger leistet als früher der G80 gegenüber dem G71 erwarte ich jetzt halt wieder einen größeren Vorsprung. Ich hoffe auf 2,5-3x GTX 280 Leistung. :sneak:


wenn ich bei meinen 2*260 gtx sli 32 s mache habe ich in fast jedem spiel einstellige fps wenn überhaupt ein bild zustande kommt weil der ram voll ist;)
Dann ist deine Auflösung zu hoch. ;) Und warum muss es 32xS sein? Mir persönlich zb. würde 8xSQ vollkommen in 1680x1050 reichen. :)

Raff
2009-01-09, 21:04:45
Wieso sind keine 2xGTX280 dabei?

Oder hab ich da was übersehen?

mfg
Frank

Testsystem auf X48-Basis (siehe unten bei den Benchmarks), ergo nix mit SLI. Mit dem X58 wird alles gut. ;)

wäre es nicht besser für die Zukunft intelligentere AA-Algorithmen zu entwicklen, als mit Brute-Force?

Klar. Aber bisher gibt es in Spielen weder adaptives Pixel-Shader-AA noch irgendeinen Algorithmus, der durch Spar-AF hervorgerufenes Texturflimmern bügelt. Letzteres wäre sowieso Bullshit – dann doch lieber die Wurzel bekämpfen (A.I. ;)). Und Ersteres nähert sich mit der Zunahme von Pixel-Shading immer mehr Vollbild-SSAA ... Was bitte ist TSSAA? Teures Bügeln von Objekten, die zum Zwecke von Leistungsersparnis integriert wurden. Gibt es viele dieser Objekte, liegen die Fps mit TSSAA/SS-AAA kaum mehr über Vollbild-SSAA ...

MfG,
Raff

_DrillSarge]I[
2009-01-09, 21:06:52
wäre es nicht besser für die Zukunft intelligentere AA-Algorithmen zu entwicklen, als mit Brute-Force?
MSAA + adaptive AA + AF ist ja schon das "schlauste", was es gibt.
nur gibt es damit auch probleme, dass man best. sachen nicht filtern bzw. glätten kann, zB "shader"-aliasing. in solchen fällen hilft nur ssaa.
zudem kann man mit super-sampling flimmrigen content glattbüglen oder auch "optimiertes" af nachträglich wieder geradebügeln.
zudem wirkt ein mit ssaa geglättetes bild sehr ruhig.
€: zu spät :cool:

pest
2009-01-09, 21:07:41
Was bitte ist TSSAA? Teures Bügeln von Objekten, die zum Zwecke von Leistungsersparnis integriert wurden. Gibt es viele dieser Objekte, liegen die Fps mit TSSAA/SS-AAA kaum mehr über Vollbild-SSAA ...


Da hast du allerdings Recht

Frank1974
2009-01-09, 21:08:08
Testsystem auf X48-Basis (siehe unten bei den Benchmarks), ergo nix mit SLI. Mit dem X58 wird alles gut. ;)

MfG,
Raff

Ach ja, also schnell auf das neue System wechseln, dürfte für so eine große Seite kein Problem sein.

mfg
Frank

HarryHirsch
2009-01-09, 21:32:34
Zeig mal. Aber bitte nicht in 800x600.

Hmm ,also als ich das vor dem Post geprüft hab waren die FPS anders.

8xMSAA

http://www.abload.de/thumb/crysis2009-01-0921-08-o1ag.png (http://www.abload.de/image.php?img=crysis2009-01-0921-08-o1ag.png)

8x CFAA ED

http://www.abload.de/thumb/crysis2009-01-0921-13-s9nw.png (http://www.abload.de/image.php?img=crysis2009-01-0921-13-s9nw.png)

ich sehe genau eine Stelle wo "anders" geglättet wird :redface:
im Bench (Assault Harbor) sind die FPS bei beiden Modi gleich :confused:
vielleicht ist es ja doch kein ED...