PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 480 und 470: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18] 19 20 21 22 23 24 25 26 27 28

Gast
2010-04-16, 09:37:53
Die Fermi gehen gut zu ocen.

http://www.overclock3d.net/reviews/gpu_displays/zotac_gtx480_review/4

Schlammsau
2010-04-16, 09:38:24
Du immer mit deinem SGSSAA. Jetzt wo ATI es nach Jahren endlich auch anbietet, soll es der große Übervorteil sein? Ob es jetzt OG oder SG ist...wayne. Fakt ist, Nvidia bietet SSAA mindestens seit 2006, eher sogar früher an. Zwar inoffiziell, aber die, die sich dafür interessieren, haben eh nhancer, ist ja kein Hexenwerk.

Gerade deswegen, es war das Killerfeature vin nVidia, wurde immer und immer und immer wieder genannt, und jetzt soll es egal sein? Das SGSSAA von ATi ist wesentlich besser nutzbar als die inoffizielle Variante von nVidia (und sieht dabei noch besser aus) das praktisch bei neuen DX9 Games nicht mehr einsetzbar ist, weil es wie verrückt blurt.
Guck dir den SSAA Thread von nVidia an und auch die Kommetare von Raff. ;)

Gast
2010-04-16, 09:40:35
Du immer mit deinem SGSSAA. Jetzt wo ATI es nach Jahren endlich auch anbietet, soll es der große Übervorteil sein? Ob es jetzt OG oder SG ist...wayne. Fakt ist, Nvidia bietet SSAA mindestens seit 2006, eher sogar früher an. Zwar inoffiziell, aber die, die sich dafür interessieren, haben eh nhancer, ist ja kein Hexenwerk.

So siehts aus. Schlammsau einfach nicht Ernst nehmen, der trollt hier eh nur rum.

Gast
2010-04-16, 09:41:08
Die Fermi gehen gut zu ocen.

http://www.overclock3d.net/reviews/gpu_displays/zotac_gtx480_review/4
Nicht besser oder schlechter als die 58x0er (im Vergleich).
Nichts besonderes.
Außerdem dürftest du beim OC die Spezifikationen beim Stromverbrauch überschreiten...

boxleitnerb
2010-04-16, 09:41:44
Nicht egal, jetzt haben es halt beide. In irgendeinem Thread hier wurde auch die Vermutung geäußert, dass das SSAA von ATI nicht überall greift, hab leider vergessen wo ich das gelesen hatte.
Ich finde es halt ziemlich heuchlerisch es die ganzen Jahre runterzuspielen und jetzt groß loszutrompeten.

Gast
2010-04-16, 09:44:45
So siehts aus. Schlammsau einfach nicht Ernst nehmen, der trollt hier eh nur rum.
Ich bin zwar kein Fan von Schlammsau, aber in dem Punkt hat er schon Recht.
Vor allem muss man auch bedenken, dass SSAA in immer mehr Spielen nutzbar wird, da die Ansprüche an die Leistung der Graka stagnieren.

Deswegen kann man heute in mehr Spielen SSAA nutzen als noch z.B. vor 3 Jahren, da die Rechenleistung mittlerweile im Überfluss da ist.

boxleitnerb
2010-04-16, 09:46:46
Wobei man beachten sollte, dass die Ära der DX9 Titel langsam aber sicher zu Ende geht. Und in DX10+ kann man kein AA mehr forcen, nur das nehmen, was das Spiel vorschreibt. Da kommt tb's Downsampling Tool, sofern es funktionieren sollte wie beworben, gerade recht.

Gast
2010-04-16, 09:46:47
Nicht besser oder schlechter als die 58x0er (im Vergleich).
Nichts besonderes.
Außerdem dürftest du beim OC die Spezifikationen beim Stromverbrauch überschreiten...

Dann schau mal was es bringt. Fermi zieht daraus mehr Vorteil als die 5870. Die Karte ist wirklich Hammer. Kannst ja mal im Luxx schauen, das stimmt das die so abgehen.;)

AYAlf_2
2010-04-16, 09:46:56
Die GTX 470 ist ja auch nicht schlechter als die HD 5870. Wurde zwar schon tausendmal gesagt, aber ich fasse es trotzdem nochmal kurz zusammen:

Pro:

PhysX (mag einem gefallen oder nicht, aber Mafia II wird ohne nicht mit vollen Details spielbar sein und ich warte schon seit Release von Mafia auf diesen Nachfolger, den ich mit vollen Details genießen will)
CUDA (nice to have)
besseres AF
bessere Treiber (wochenlange Probleme in Blockbustern à la GTA IV, Anno 1404, Modern Warfare 2, unbehobene Bugs in meinen Oldielieblingen Mafia und Gothic 2 (Performancebug))
deutlich höhere Tesselationsleistung (es kann nur häufiger eingesetzt werden, nicht seltener)
TWIMTBP (Spiele eher auf nVidias optimiert)
höherer VRAM
im Mittel so schnell wie HD 5870 und nicht teurer

Contra:

Zusatzverbrauch unter Last, als hätte man sich eine zusätzliche stinknormale 60W-Glühbirne gekauft. :rolleyes: Mir gefällts zwar auch nicht, aber auch nur, weil ich ein ordentliches 400 Watt-NT habe und nicht aufrüsten möchte. Auf die GTX 475 kann ich auch warten.

Eine ATi kann seit G80 nur noch ein Kompromiss sein. Da können Schlammsau und Co. noch so sehr "fail" schreien. Die Karten werden sich verkaufen.

sorry ... aber auch als total verblendeter nvidia-fanboy, der du sehr wahrscheinlich bist... muss dir auffallen, dass das meiste bloedsinn ist!

boxleitnerb
2010-04-16, 09:49:55
Nö, stimmt alles. Nur bei der Treiberfrage kann man sich streiten.

Gast
2010-04-16, 09:50:55
sorry ... aber auch als total verblendeter nvidia-fanboy, der du sehr wahrscheinlich bist... muss dir auffallen, dass das meiste bloedsinn ist!

Du und Schlammsau solltet ne WG aufmachen. Echt lustige Gesellen seid ihr.

Grestorn
2010-04-16, 09:53:10
sorry ... aber auch als total verblendeter nvidia-fanboy, der du sehr wahrscheinlich bist... muss dir auffallen, dass das meiste bloedsinn ist!

Man kann die Vor- und Nachteile evtl. stärker oder schwächer gewichten, aber bis auf das Argument mit dem Treiber, über das man sicher streiten kann, sind alle genannten Vor- und Nachteile grundsätzlich nicht wegzudiskutieren.

Die Liste ist aber nicht vollständig.

Fehlende Vorteile von ATI:
SGSSAA, EDAA, Eyefinity (und es gibt sicher noch mehr, die ihr gleich ergänzen werdet... :) ).

Fehlende Vorteile nVidia:
CSAA (sehr billig), SSAA (funktioniert öfter als ATI's SGSSAA, aber oft auch unscharf), Kombi-AA, Kompatibilitätsprofile speziell für AA (einer der wichtigsten Punkte für mich), Profile generell, 3D-Vision.

Gast
2010-04-16, 09:55:25
@Grestorn

man sieht, Fermi ist einfach besser:)

AYAlf_2
2010-04-16, 09:56:21
Du und Schlammsau solltet ne WG aufmachen. Echt lustige Gesellen seid ihr.
dir faellt wohl auf, dass die vor und nachteile ziemlich einseitig beschrieben wurden, fast wie in einer nvidia praesentation :freak:

auch wenn das hier ein nvidia thread ist .. sollte man wenigstens halbwegs bei der wahrheit bleiben :rolleyes:

boxleitnerb
2010-04-16, 09:57:34
Dann sag uns doch, wo da was nicht wahr ist :rolleyes:
Immer dieselben, echt!

Gast
2010-04-16, 09:58:07
dir faellt wohl auf, dass die vor und nachteile ziemlich einseitig beschrieben wurden, fast wie in einer nvidia praesentation :freak:

auch wenn das hier ein nvidia thread ist .. sollte man wenigstens halbwegs bei der wahrheit bleiben :rolleyes:

Bin doch bei der Wahrheit. Ihr seid es die im Teletubbyland ne WG aufmachen solltet:)

AYAlf_2
2010-04-16, 10:03:07
wenn ihr euch hier selbst und euren favorisiertes unternehmen beweihraeuchern wollt .. muesst ihr das nur sagen, dann muesst ihr den threadtitel einfach aendern und die kritischen leute aussperren.

der thread verkommt zu einer farce. ;(

Gast
2010-04-16, 10:04:43
wenn ihr euch hier selbst und euren favorisiertes unternehmen beweihraeuchern wollt .. muesst ihr das nur sagen, dann muesst ihr den threadtitel einfach aendern und die kritischen leute aussperren.

der thread verkommt zu einer farce. ;(

Ne Farce wird es nur, weil du und Schlammsau es einfach nicht verstehen wollt. Es wurde doch gerade aufgelistet was wie gut/schlecht ist. Jetzt wege ab. Ich komme zum Fazit Fermi ist besser.

boxleitnerb
2010-04-16, 10:04:58
Anstatt solche lahmen Sprüche loszulassen, könntest du auch mal was Sinnvolles beitragen und Begründungen für deine Behauptungen liefern. Objektiv gesehen stimmen fast alle Punkte (zusammengenommen mit denen von Grestorn). Wie man jetzt die Wichtigkeit der einzelnen Punkte für sich selbst beurteilt, ist jedem selbst überlassen.

Iruwen
2010-04-16, 10:14:07
Und wieso sind jetzt beide Umfragen so gut miteinander vergleichbar?
In einer geht es um Grafikkarten, in der anderen nur um Geforce-Karten.
Wieviele AMD-, S3-, Intel- und Matrox-User werden wohl bei Geforce-GPU-Poll mitmachen?

Aktuell 70 :P

Schlammsau
2010-04-16, 10:22:02
Anstatt solche lahmen Sprüche loszulassen, könntest du auch mal was Sinnvolles beitragen und Begründungen für deine Behauptungen liefern. Objektiv gesehen stimmen fast alle Punkte (zusammengenommen mit denen von Grestorn). Wie man jetzt die Wichtigkeit der einzelnen Punkte für sich selbst beurteilt, ist jedem selbst überlassen.

Natürlich stimmen die Punkte prinzipiell....wurden aber nur einseitig aufgelistet.
Man hätte im gleichen Post die Vorteile der Radeons auch noch aufzeigen können. Und die sind freilich auch vorhanden nur anders gelagert.

Grestorn
2010-04-16, 10:30:39
Natürlich stimmen die Punkte prinzipiell....wurden aber nur einseitig aufgelistet.
Man hätte im gleichen Post die Vorteile der Radeons auch noch aufzeigen können. Und die sind freilich auch vorhanden nur anders gelagert.

Deswegen habe ich sie ja ergänzt. Schreib doch mal noch weitere Punkte auf, die wir vergessen haben, dann können wir eine Gegenüberstellung machen. Und wie jeder die einzelnen Punkte dann gewichtet bleibt ihm selbst überlassen.

Iruwen
2010-04-16, 10:32:22
Dann mach das doch selbst mal objektiv statt nur rumzumosern, bei AYAlf_2 ist was das angeht eh Hopfen und Malz verloren. Dann hat man wenigstens mal eine komplette Auflistung.

/e: Zwischenposter bekommen keine GTX 4x0 :rolleyes:

AYAlf_2
2010-04-16, 10:34:02
Ne Farce wird es nur, weil du und Schlammsau es einfach nicht verstehen wollt. Es wurde doch gerade aufgelistet was wie gut/schlecht ist. Jetzt wege ab. Ich komme zum Fazit Fermi ist besser.
ich respektiere dein fazit. das hast du ganz toll gemacht, willst du nen keks? :rolleyes:

nur nicht alle, die hier anders denken sind deshalb ati-fanboys, vielleicht setzen sie einfach andere prioritaeten? moeglicherweise schadet es dir nicht selber mal ueber den tellerrand zu glotzen? moeglicherweise!

Gast
2010-04-16, 10:35:42
ich respektiere dein fazit. das hast du ganz toll gemacht, willst du nen keks? :rolleyes:

nur nicht alle, die hier anders denken sind deshalb ati-fanboys, vielleicht setzen sie einfach andere prioritaeten? moeglicherweise schadet es dir nicht selber mal ueber den tellerrand zu glotzen? moeglicherweise!

Danke für den Keks. Ich schaue über den Tellerrand, du anscheinend nicht. Es wurde eigentlich alles gesagt und aufgelistet. Jetzt widerlege das mal:)

Schlammsau
2010-04-16, 10:42:31
Deswegen habe ich sie ja ergänzt. Schreib doch mal noch weitere Punkte auf, die wir vergessen haben, dann können wir eine Gegenüberstellung machen. Und wie jeder die einzelnen Punkte dann gewichtet bleibt ihm selbst überlassen.

Hab ich doch schon ein paar Post vor dir.

Ich machs jetzt aber nochmal, für den direkten Vergleich GTX480 und HD5970.
DualGPU ist crab!

GTX480:
+ mehr Power beim tesselieren
+ Cuda
+ PhysX
+ Hybride möglich
+ besseres AF
+ keine MicroRuckler
+ 3D Vision
----------------------------------------------
- deutlich höherer Stromverbrauch, auch im Idle
- ausser beim tesselieren deutlich langsamer
- höhere Lautstärke unter Last
- kein Stream
- kein SGSSAA
- kein Eyefinity

vielleicht hab ich noch was vergessen.

Iruwen
2010-04-16, 10:44:38
- deutlich höherer Stromverbrauch, auch im Idle
- ausser beim tesselieren deutlich langsamer

Die beiden stimmen nicht.

Gast
2010-04-16, 10:46:34
Fakt ist, Nvidia bietet SSAA mindestens seit 2006, eher sogar früher an.Seit der ersten GF, also mittlerweile schon gut eine Dekade. Und Hybride seit mit der GF3 MSAA dazukam. 8xS kam schon damals geil :usweet:

Auch wenn ich mich nur ungern wiederhole:
Ist jetzt eigentlich TMAA auf CSAA-Samples mittlerweile möglich oder immer noch nur in Marketingfolien, aber nicht in funzender Form im Treiber vorhanden? Falls mittlerweile funzend, schon irgendwo CSAA+TMAA+Downsampling getestet worden?Anyone? Gouvernator? Raff? y33H@?

tombman
2010-04-16, 10:51:15
Nachteile sind, das schlechtere AF und das fehlende PhysX.
Und langsamere SingleGpu und halbe Tess. Leistung ;)

Außerdem zieht Fermi mit OC noch stärker davon ;)

Für Enthusiasten ist GTX4 einfach besser geeignet, da fährt die Eisenbahn drüber...

Btw, vergiß deine "vernünftige Erziehung" und laß das Tier heraus- wir wissen doch, daß du die 470er haben willst ;)
Die ständige Selbstgeißelung unter dauerndem "..und führe mich nicht in Versuchung, sondern erlöse mich von dem Stromverbrauch..."
hält doch keiner lange durch :lol:

In diesem Sinne ein befreiendes "Fuck yeah!" an dich :)

Zatoichi
2010-04-16, 10:51:28
der thread verkommt zu einer farce. ;(

Ja, toll das 2 Leute hier mit solcher Ignoranz und Penetranz auftreten. Das was ihr abzieht hat nichts, aber auch gar nichts mit dem Thema zu tun. Und Schlaumsau, das du alle Nase lang behauptest du hättest dir eine 470er gekauft macht es nicht besser und noch unglaubwürdiger gehts nicht. Man klickt hier rein und was bekommt man zu lesen? Gebashe und getrolle.

Die 4x0 Reihe läß sich bis jetzt sehr gut Übertakten. Meine beiden Karten gehen ohne Probleme mit 100 Mhz mehr Core, was sich auch in den Benches wiederspiegelt. Nur der Speicher lahmt etwas. Das deckt sich auch mit dem was in anderen Foren zu lesen ist. Mit Wasser geht wohl mehr, aber das istfür mich keine Alternative.

AYAlf_2
2010-04-16, 10:54:12
ok fangen wir bei den treibern an.

bei gta iv hatte ich probleme mit meiner 8800gt vram bug?????!!!!!!! nicht mit meiner spaeter erworbenen ati 4890.

anno besitze ich auch.. das problem lag wohl bei anno, da dies wie wir alle wissen mit einem patch behoben wurde. dx9 lief uebrigens tadellos.

bei mw2 hatte ich hingegen keine probleme .. diese spiel hatte ich seit release. und mit einer 4890 und 5870 gespielt.

meiner meinung nach sind die treiber von ati um einiges besser, zumindest die aktuellen release versionen. (zur anmerkung: ich besitze auch noch ein nvidia system) hier sollten wir uns nicht streiten, da das wohl sehr subjektiv bewertet wird.

die gtx470 ist nicht im mittel der 5870 ebenbuertig. es ist eher so, dass die 5870 ca. 10-15% schneller ist (laut benchmarks - werde ich wohl aber bald selber benchen koennen, wenn ich zugriff auf eine 470 habe).

ps: ich schaue mir IMMER SELBER beide grafikkarten generationen der beiden grossen hersteller an, sobald ich an die karten rankomme. mich als nvidia oder ati fanboy zu beschimpfen ist also komplett unangebracht. tatsache ist, ich hatte bisher wesentlich mehr nvidia, als ati karten!

du wirst mir deshalb hoffentlich erlauben zu einem anderen fazit zu kommen (bisher).

Gast
2010-04-16, 10:55:41
Und langsamere SingleGpu und halbe Tess. Leistung ;)

Außerdem zieht Fermi mit OC noch stärker davon ;)

Für Enthusiasten ist GTX4 einfach besser geeignet, da fährt die Eisenbahn drüber...

Btw, vergiß deine "vernünftige Erziehung" und laß das Tier heraus- wir wissen doch, daß du die 470er haben willst ;)
Die ständige Selbstgeißelung unter dauerndem "..und führe mich nicht in Versuchung, sondern erlöse mich von dem Stromverbrauch..."
hält doch keiner lange durch :lol:

In diesem Sinne ein befreiendes "Fuck yeah!" an dich :)

So sieht es aus. Highend NVidia, ATI Performance. Und 480 gegen 5970 zu vergleichen ist eh Banane.

Gast
2010-04-16, 11:00:14
So sieht es aus. Highend NVidia, ATI Performance. Und 480 gegen 5970 zu vergleichen ist eh Banane.
Wie man es gerade braucht, nicht wahr ;-)

boxleitnerb
2010-04-16, 11:07:10
ok fangen wir bei den treibern an.

bei gta iv hatte ich probleme mit meiner 8800gt vram bug?????!!!!!!! nicht mit meiner spaeter erworbenen ati 4890.

anno besitze ich auch.. das problem lag wohl bei anno, da dies wir alle wissen mit einem patch behoben wurde. dx9 lief uebrigens tadellos.

bei mw2 hatte ich hingegen keine probleme .. diese spiel hatte ich seit release. und mit einer 4890 und 5870 gespielt.

meiner meinung nach sind die treiber von ati um einiges besser, zumindest die aktuellen release versionen. (zur anmerkung: ich besitze auch noch ein nvidia system) hier sollten wir uns nicht streiten, da das wohl sehr subjektiv bewertet wird.

die gtx470 ist nicht im mittel der 5870 ebenbuertig. es ist eher so, dass die 5870 ca. 10-15% schneller ist (laut benchmarks - werde ich wohl aber bald selber benchen koennen, wenn ich zugriff auf eine 470 habe).

ps: ich schaue mir IMMER SELBER beide grafikkarten generationen der beiden grossen hersteller an, sobald ich an die karten rankomme. mich als nvidia oder ati fanboy zu beschimpfen ist also komplett unangebracht. tatsache ist, ich hatte bisher wesentlich mehr nvidia, als ati karten!

du wirst mir deshalb hoffentlich erlauben zu einem anderen fazit zu kommen (bisher).

Witzbold. VRAM Bug gabs laut Coda nicht, das war eine bewusste Designentscheidung.
Und Treiber, dazu schrieben ja schon mehrere, dass das Geschmackssache ist - und auch von System zu System unterschiedlich ausfallen kann.
D.h. dein Post lief grade total ins Leere, Glückwunsch.

tombman
2010-04-16, 11:14:37
Wie man es gerade braucht, nicht wahr ;-)
Die HD5970 ist eine tolle Karte, mich reizt sie trotzdem nicht...außerdem müßte man noch eine Phys-X Karte dazustecken.
Also wäre man bei ca. 700€- da kann man gleich 2x GTX470 nehmen, hat auch nur 2 Gpus, verbraucht auch 2 PCI-e 16x Slots- bekommt aber deutlich mehr Tess. Power, mehr nutzbaren Ram und TWIMTBP ;)

Und die 5970 mit 4GB ist wiederrum zu teuer, genauso wie die 2GB 5870...irgendwie werd ich mit ATI ned warm, egal welche Kombination.

Dann kommt noch SLi > CF dazu (Bedienung, Komfort)...

BeeRockxs
2010-04-16, 11:17:44
Witzbold. VRAM Bug gabs laut Coda nicht, das war eine bewusste Designentscheidung.
Ob jetzt Bug oder bewusste Designentscheidung, die miese Performance unter bestimmten Bedingungen kommt doch aufs selbe raus, passiert mit ATI nicht und daher als Vorteil für ATI zu werten.

mrt
2010-04-16, 11:18:33
Witzbold. VRAM Bug gabs laut Coda nicht, das war eine bewusste Designentscheidung.
Und Treiber, dazu schrieben ja schon mehrere, dass das Geschmackssache ist - und auch von System zu System unterschiedlich ausfallen kann.
D.h. dein Post lief grade total ins Leere, Glückwunsch.
Doch den gabs, war ein Treiberproblem bei dem der VRAM nicht zuverlässig von alten Texturen befreit wurde. Konnte man umgehen mit einem Wechsel auf den Desktop.
Hat rein garnichts mit der fehlenden Adressierung des RAM zu tun und damit nicht aus dem RAM texturieren -> die Karten müssen swapen. Das war eine Designentscheidung, obiges nicht. ;)

skampi
2010-04-16, 11:19:00
Witzbold. VRAM Bug gabs laut Coda nicht, das war eine bewusste Designentscheidung.
Und Treiber, dazu schrieben ja schon mehrere, dass das Geschmackssache ist - und auch von System zu System unterschiedlich ausfallen kann.
D.h. dein Post lief grade total ins Leere, Glückwunsch.

Bitte was soll das? Ist doch im Ergebnis ziemlich egal ob die VRAM-Problematik aufgrund einer Design Entscheidung (gewollt) oder ungewollt aufgetreten ist. Imho war? das ein großer Pferdefuss bei der bisherigen Architektur.

AYAlf_2
2010-04-16, 11:20:37
Witzbold. VRAM Bug gabs laut Coda nicht, das war eine bewusste Designentscheidung.
Und Treiber, dazu schrieben ja schon mehrere, dass das Geschmackssache ist - und auch von System zu System unterschiedlich ausfallen kann.
D.h. dein Post lief grade total ins Leere, Glückwunsch.

da hat es jetzt sehr wenig zweck noch weitere gruende anzugeben. :confused:

ich bin das 2te mal raus aus dem thread.. wunesche euch noch viel spass beim posten.

Raff
2010-04-16, 11:20:43
Sieht man aber in höchstens 1 % der Spiele, wenn überhaupt.

Dürfte für die meisten (auch Nvidia-Nutzer) von wenig Interesse sein.
Wie man auch hier z.B. sieht:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7936756&postcount=31
"PhysX habe ich nie verwendet (ausser in Benchmarks)"

Du immer mit deinem SGSSAA. Jetzt wo ATI es nach Jahren endlich auch anbietet, soll es der große Übervorteil sein? Ob es jetzt OG oder SG ist...wayne. Fakt ist, Nvidia bietet SSAA mindestens seit 2006, eher sogar früher an. Zwar inoffiziell, aber die, die sich dafür interessieren, haben eh nhancer, ist ja kein Hexenwerk.

Warum? Warum nur? Warum werden hier immer wieder die echten Vorteile individueller Grafikkarten(hersteller) kleingeredet und stattdessen die Nachkommastellen der Fps in den Vordergrund gerückt? Was spielt die größere Rolle: 32 anstelle von 30 Fps oder ein schönes gegenüber einem hässlichen Bild? Die Fps, ich weiß. :rolleyes:

(HQ-)AF: Plus für Nvidia
SGSSAA: Plus für Ati

MfG,
Raff

Grestorn
2010-04-16, 11:25:22
Ob jetzt Bug oder bewusste Designentscheidung, die miese Performance unter bestimmten Bedingungen kommt doch aufs selbe raus, passiert mit ATI nicht und daher als Vorteil für ATI zu werten.

Ist als Vorteil von ATI ggü. dem G80 und G92 zu werten, beim Fermi wurde dieser Nachteil (fehlender direkter Speicherzugriff auf das Haupt-RAM) behoben.

boxleitnerb
2010-04-16, 11:26:07
Wie dem auch sei, Bug oder nicht - ich geb zu, ich hatte ihn auch, aber nach dem was Coda gesagt hatte, war ich unsicher, da er sich vehement gegen das Wort "Bug" gewehrt hat - es geht hier ja um aktuelle Karten und nicht um G80-G200.

Raff, ich rede nichts klein. Mich stört nur dieses "ey, is ja scheiße, brauch kein Schwein!" und wenn man es selber hat "ey, ist ja geil!" Sowas hasse ich wie die Pest, wohl zu Recht. Nicht nur bei Grafikkarten, überall.
Und btw unterstell mir bitte nicht, ein fps-Jünger zu sein. Das ist 1. ab vom Thema und 2. stimmt es nicht.

Grestorn
2010-04-16, 11:26:44
Doch den gabs, war ein Treiberproblem bei dem der VRAM nicht zuverlässig von alten Texturen befreit wurde. Konnte man umgehen mit einem Wechsel auf den Desktop.

Das Speichermanagement macht Windows (D3D), nicht der Treiber. Und offenbar konnte Windows nicht immer korrekt entscheiden, welche Texturen tatsächlich noch benötigt werden und hat die falsche Swapping-Strategie gewählt.

Durch das Swappen wurde die D3D Speicherverwaltung neu initialisiert.

Black-Scorpion
2010-04-16, 11:37:56
Witzbold. VRAM Bug gabs laut Coda nicht, das war eine bewusste Designentscheidung.
Das macht das ganze natürlich zur perfekten Speicherverwaltung.
Es ist scheiß egal ob das eine Designentscheidung ist oder nicht.
Man sollte sich besser fragen wer solche Entscheidungen trifft ohne auf die Folgen zu achten.
Mir kann keiner erzählen das es bei Nvidia keinem aufgefallen ist das da ein Riesen Bock drin ist.
Für den User macht es nämlich keinen Unterschied ob das ein Bug oder gewollt ist. Der muss es ausbaden.

Gast
2010-04-16, 11:48:59
@Grestorn

man sieht, Fermi ist einfach besser:)
Nein.
Schneller ja, besser nein. :)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7973639&postcount=4246

Gast
2010-04-16, 11:53:53
So sieht es aus. Highend NVidia, ATI Performance.
Nein.
Entweder beides High-End oder beides Performance.
Der Abstand ist einfach zu gering, um beide in verschiedene Klassen zu stecken.
Aber das sollte man schon selbst so einschätzen können, wenn man nicht gerade bei der Intelligenz von seinem Hund übertrumpft wird. :D

tombman
2010-04-16, 12:03:07
Nein.
Entweder beides High-End oder beides Performance.
Der Abstand ist einfach zu gering, um beide in verschiedene Klassen zu stecken.
Aber das sollte man schon selbst so einschätzen können, wenn man nicht gerade bei der Intelligenz von seinem Hund übertrumpft wird. :D
Was Tess. betrifft sind es verschiedene Klassen, weil hier Fermi nicht nur ein bischen schneller ist, sondern schwer dominiert.

Gast
2010-04-16, 12:06:50
Was Tess. betrifft sind es verschiedene Klassen, weil hier Fermi nicht nur ein bischen schneller ist, sondern schwer dominiert.
Tesselation ist bisher in den Spielen so miserabel umgesetzt worden, dass man für eine bessere BQ Tesselation ausschalten sollte.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=481051

Reden wir in einer Jahr drüber, wenn die Umsetzungen besser sind.
Zu Zeit Tesselation = Checkfeature.

Savay
2010-04-16, 12:14:47
unigine übertreibt es mit der tesselation auch ein wenig...in spielen ist das wesentlich hübscher und subtiler...zumindes in metro ist tesselation bei den chars und gegnern IMO sehr schön umgesetzt und sieht gut aus. auch wenn man teilweise genau hinsehen muss um zu erkennen wieviel höher der detailgrad wirklich ist :biggrin:

Was Tess. betrifft sind es verschiedene Klassen, weil hier Fermi nicht nur ein bischen schneller ist, sondern schwer dominiert.

in echten spielen oder in unigine? :freak:

und jetzt bitte bloss nicht den PCGH bench von metro posten...da stimmt irgendwas nicht. ;D ich komme mit meiner RV870 bei gleichen settings im selben level nirgends in einstellige regionen...egal ob tesselation an ist oder nicht. :smile:

Gast
2010-04-16, 12:18:37
auch wenn man teilweise genau hinsehen muss um zu erkennen wieviel höher der detailgrad wirklich ist :biggrin:

Und das ist (neben dem Problem der Texturverzerrung) das größte Problem der Tesselation.
Man sieht es kaum, kostet aber jede Menge Leistung.
Dann lieber ohne Tesselation und dafür besseres AA (SSAA).
Hat man mehr von (BQ). :)

Savay
2010-04-16, 12:28:00
Und das ist (neben dem Problem der Texturverzerrung) das größte Problem der Tesselation.


das ist ein grundsätzliches problem des abnehmenden ertrags...zumal die details die tesseliert werden auch schon großteils über bump und displacement mapping umgesetzt werden. kein wunder das bei "korrekter" anwendung der eintretende effekt eher subtil ist :rolleyes:

vorallem ist tesselation IMO auch eher als mesh-LOD auf "hardwarebasis" anzusehen statt als neuer bahnbrechender effekt. tesselation ist das was TnL vor 10 jahren hätte werden sollen ;)

y33H@
2010-04-16, 12:33:29
@ Savay

Stell den Bench 1:1 nach mit maximalen Settings. derguru bestätigt die PCGH-Werte ... aber nee, ist natürlich alles Gülle :rolleyes:

Gast
2010-04-16, 12:36:52
wenn ihr euch hier selbst und euren favorisiertes unternehmen beweihraeuchern wollt .. muesst ihr das nur sagen, dann muesst ihr den threadtitel einfach aendern und die kritischen leute aussperren.

der thread verkommt zu einer farce. ;(

was machst eigentlich hier???
krampfhaft deine hd5 schönreden?

Savay
2010-04-16, 12:42:20
@ y33H@

lass mir doch bitte mal infos zukommen wie ihr das gebencht habt...

bei gleichen settings komme ich jedenfalls beim "spielen" (ja sowas tun manche leute wirklich! ;)) keinesfalls in den einstelligen bereich...ich bin vorgestern 60min durch das olle level gerannt hab versucht wie blöde soviele viecher wie möglich einzusammeln...und nix...nirgends einstellig.

kann sein das ich zu blöd bin aber ich kann es einfach nicht provozieren ohne genau zu wissen was ihr gemacht habt...

ich hab nur die details bis auf DOF raufgeschraubt und bin durch cursed geschlichen und hab wirklich jeden winkel des levels abgesucht! tut mir echt leid das mir eure werte daraufhin etwas seltsam vorkommen :freak:
zumal ihr schon öfter eher fragwürdige werte gebracht habt...niemand ist perfekt :rolleyes:

warum eigentlich gleich so brastig?! das war kein angriff auf eure kompetenz

Iruwen
2010-04-16, 12:42:33
Ja sicher. Man muss sie auch nicht krampfhaft kleinreden, allerdings sind die letzten Seiten ohne Beteiligung von LZ der ja offenbar schon Spaß mit seiner Karte hat zu einem reinen bashing seitens einiger ATI-User verkommen. Geht doch in einen "welche Karte ist besser" Thread um euch anzuflamen den man dann einfach ignorieren kann, ich weiß nicht was das hier verloren hat.

derguru
2010-04-16, 12:52:30
@Savay

wenn du voll aufdrehst(bei 1920*1200) brauchst du gar nicht erst das spiel geladen zu haben,da merkt man schon im menü.(2- 4fps):biggrin:

tombman
2010-04-16, 12:57:43
Frage an alle Besitzer: ist der GTX4 HDMI Anschluß bootfähig, sprich ein "master", oder funkt der nur als Zweitanschluß, wenn mindestens 1x DVI aktiv ist?

Zatoichi
2010-04-16, 13:01:24
Frage an alle Besitzer: ist der GTX4 HDMI Anschluß bootfähig, sprich ein "master", oder funkt der nur als Zweitanschluß, wenn mindestens 1x DVI aktiv ist?

Geht ohne DVI.

Savay
2010-04-16, 13:07:15
@Savay

wenn du voll aufdrehst(bei 1920*1200) brauchst du gar nicht erst das spiel geladen zu haben,da merkt man schon im menü.(2- 4fps):biggrin:

ich spiele in (durchaus vergleichbaren) 2048*1152 :freak:

DX11 very high + 4xMSAA + tesselation + adv. PhysX
http://img404.imageshack.us/slideshow/webplayer.php?id=metro203320100413212001.png

vlt liegt ja auch bei mir ein bug vor...seltsam ist es so oder so :)

tombman
2010-04-16, 13:16:27
Geht ohne DVI.
Sprich, du kannst mit HDMI-only zb ins Bios?

tombman
2010-04-16, 13:18:36
ich spiele in (durchaus vergleichbaren) 2048*1152 :freak:

DX11 very high + 4xMSAA + tesselation + adv. PhysX
http://img404.imageshack.us/slideshow/webplayer.php?id=metro203320100413212001.png

vlt liegt ja auch bei mir ein bug vor...seltsam ist es so oder so :)

Gtx480 oder Gtx470, diese 18fps auf dem Pic?

Savay
2010-04-16, 13:20:43
Gtx480 oder Gtx470, diese 18fps auf dem Pic?

nein ist definitv eine Sapphire 5870 vapor-X Rev. 2.
adv.PhysX halt auf der CPU

wie gesagt...ka ob es nen bug ist oder nen bugfix...treiber war der 8.730.0.
vlt fehlen ja auch details...kein plan! zumindest fällt mir nix auf..
fest steht ich kann in dem level keine einstelligen fps reproduzieren wenn der rechner nur metro ausführt.

schnell ist es nicht und es kann bis 12-13 fps droppen aber es bleibt "spielbar"...im weitesten sinne. ;) zumal die ecke die langsamste im level ist die ich finden konnte

tombman
2010-04-16, 13:24:29
nein ist definitv eine Sapphire 5870 vapor-X Rev. 2
Wie geht dann adv. Phys-X? Zusatzkarte?
Oder ist adv.P. Cpu-Physik? (habs noch ned gespielt)

Savay
2010-04-16, 13:26:54
man kann adv. physx auf der CPU laufen lassen...mit nem schnellen quad geht das sehr gut...ich hab nen X3 720BE@3,4GHz. also nix dolles

die einstellung frisst selbst damit recht wenig leistung so das ich es immer an lasse :smile: das spiel ist scheinbar weitestgehend GPU limitiert auch mit PhysX

vlt unterscheidet das spiel ja nochmal zusätzlich automatisch zwischen GPU und CPU und verringert entsprechend details. anwählbar ist adv. PhysX aber in jedem fall

SamLombardo
2010-04-16, 13:28:34
Ich hab auch lange überlegt welche meine neue Graka wird (meine jetzige ist die 3870X2, da ist mal wieder was neues fällig:wink:). Ich würde mich als "preisbewußten High End User" bezeichnen, das heißt ein gutes PL Verhältnis ist mir schon wichtiger als das letzte bisschen Leistung, das aber wohlgemerkt im Highend Segment. (Ich hatte die TI 4400, die FX 5900, die 1800XT....immer die zweite Highendstufe wenn man so will). Nun stand für mich zur Auswahl: Ati 5870 oder NV GTX470. Ich hab mich für die GTX 470 entschieden aus folgenden Gründen: Sie ist in den Spielen die ich spiele genauso schnell/schneller als die Ati. Dass sie in den alten DX9 Games teilweise langsamer ist juckt mich nicht, da die FPS eh hoch genug sind. (20 zu 30 fps in einem DX11 Game sind weit wichtiger als 80 zu 70 fps in einem DX9 Spiel). Ob der Abstand in zukünftigen Games noch größer wird weiß natürlich niemand - Die Chancen stehen aber nicht schlecht. Also warum diese Möglichkeit außen vor lassen...Silentfetischist bin ich nicht und den Stromverbrauch finde ich auch übertrieben bewertet, wer 350€ und mehr für ne Graka ausgibt hat auch die +10€ Stromkosten im Jahr übrig. Dazu die genannten Dinge wie PhysX Cuda usw. Diese hätten für sich allein keine Relevanz für mich, im Gesamtpaket stehen sie aber doch auf der Habenseite:) Das knappe Drittel mehr an Speicher kann auch nicht verkehrt sein.
Ich denke die GTX 470 ist ein rundes Gesamtpaket für User wie mich. Irgendwie witzig, dass meine erste NV Karte seit 6 Jahren ausgerechnet der vielgescholtene Fermi ist. Insgesamt hat er mir doch mehr zugesagt als die aktuellen Atis. Man bekommt die deutlich höhere Tesselation/DX11 Leistung quasi zum selben Preis dazu. Wenn es was bringt ist es schön (was ich ehrlich gesagt noch in diesem Jahr glaube...man wird sehen), wenn nicht wars auch nicht teurer. Die immer wieder zitierten Nachteile sind für mich eher zweitrangig. Ich freu mich jedenfalls auf meine Karte:)

Gruß Sam

Don Vito
2010-04-16, 13:32:08
So meine sind da. im Idle sicher nicht so laut wie erwartet.

derguru
2010-04-16, 13:35:06
@Savay
kann ich nicht nachvollziehen deine werte und das auch noch bei einem zacken höherer auflösung,lol.;D
bei mir sieht es so aus,http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7958924&postcount=64

naja egal,ot in da house.:freak:

Savay
2010-04-16, 13:36:43
@Savay
kann ich nicht nachvollziehen deine werte und das auch noch bei einem zacken höherer auflösung,lol.;D

:freak:

kann doch garnicht sein...moment ich mach das spiel nochmal an :|

EDIT:

ist reproduzierbar...ich habs mal mit meiner (grottigen) handykamera gefilmt :) nur noch nen hoster suchen

AMC
2010-04-16, 13:42:01
Ja sicher. Man muss sie auch nicht krampfhaft kleinreden, allerdings sind die letzten Seiten ohne Beteiligung von LZ der ja offenbar schon Spaß mit seiner Karte hat

Mein Gott, hast auch Du es auch noch nicht gerafft? :rolleyes: Sucky und Bucklew arbeiten bei nV, der Launch ist überstanden und die PRler sind jetzt in Ihrem wohlverdienten Urlaub...

Gott wie ich diese Naivität liebe. ;)

N0Thing
2010-04-16, 13:43:24
:freak:

kann doch garnicht sein...moment ich mach das spiel nochmal an :|


Hattest du weiter vorn nicht geschrieben, daß du DoF nicht aktiviert/höchste Einstellung ausgewählt hast? Vielleicht liegt darin der Unterschied.

Savay
2010-04-16, 13:47:00
jo dann liegts definitv am DoF :)

nur sagt der benchmark dann mehr über die compute shader bzw "DoF" fähigkeiten als über die tesselation aus
und es ging ja eigentlich um tesselation wenn ich mich recht entsinne. ;)

edit:
mir scheint da ein problem mit DoF + FSAA auf den ATI karten vorzuliegen. wenn das beides an ist ist es nahezu egal was ich sonst mache. :D naja ist hier ja letztlich irrelevant.

DrFreaK666
2010-04-16, 14:03:50
Nehmt euch mal ein Beispiel an mir :biggrin:

@Topic
anscheinend noch nicht gepostet:
http://www.overclock3d.net/reviews/gpu_displays/zotac_gtx480_review/6

GTX480 - GTX480 OC - 5870 - 5970 (GTX480=100%) (ich habe nur Games verwendet)

Dirt 2 - Maximum Settings (min+max+avg-FPS)
212FPS - 236FPS - 190FPS - 224FPS (100% - 111% - 89% - 105%)

Need For Speed Shift - Maximum Settings (min+max+avg-FPS)
222FPS - 241FPS - 229FPS - 286FPS (100% - 108% - 103% - 128%)

Crysis Warhead - Gamer (min+max+avg-FPS)
173FPS - 210FPS - 145FPS - 168FPS (100% - 121% - 83% - 97%)

CoD-MW2 - Maximum Settings (min+max+avg-FPS)
410FPS - 443FPS - 388FPS - 478FPS (100% - 108% - 94% - 116%)

Metro DX11 - Maximum Settings (min+max+avg-FPS)
106FPS - 119FPS - 97FPS - 102FPS (100% - 112% - 91% - 96%)

Performance-Rating:
GTX480 OC - 112%
Radeon 5970 - 108%
GTX480 - 100%
Radeon 5870 - 92%

dreamweaver
2010-04-16, 14:22:42
...We can best explain the volume of heat with this small anecdote. When we were trying to get the fan as near to our desired 50% as possible, whilst not causing thermal shutdown, we thought we'd got it nailed at 65%. However the GTX480 puts out so much heat that although it was touch and go when we started testing, within 20 minutes the temperature in the room had increased so much due to the head expelled from the card, that we experienced thermal cutoff because the card had warmed the room up so much the air it was sucking in was too warm to keep it under 110°C.

In SLI we imagine you'll never need to heat your house again, as one of these cards can heat a 15'x15' room by 2°C in half an hour....

http://www.overclock3d.net/reviews/gpu_displays/zotac_gtx480_review/8

:uup: @ nv

Packungsbeilagezettel:
"Bitte nur in großflächigen Räumen mit ausreichender Belüftung/Kühlung nutzen. Empfohlene Raumtemperatur: 15°C."

Gast
2010-04-16, 14:27:55
http://www.overclock3d.net/reviews/gpu_displays/zotac_gtx480_review/8

:uup: @ nv

Packungsbeilagezettel:
"Bitte nur in großflächigen Räumen mit ausreichender Belüftung/Kühlung nutzen. Empfohlene Raumtemperatur: 15°C."
Was erwartest du von knapp 300 Watt Verlustleistung?
Die Wärme wird an die Luft im Raum abgegeben. Die Wärme verschwindet nicht einfach so.
Viel Spass im Sommer...
Eigentlich kann man jetzt schon ein Thread über verstorbene Fermis aufmachen. *SCNR* :)

Grestorn
2010-04-16, 14:32:21
http://www.overclock3d.net/reviews/gpu_displays/zotac_gtx480_review/8

:uup: @ nv

Packungsbeilagezettel:
"Bitte nur in großflächigen Räumen mit ausreichender Belüftung/Kühlung nutzen. Empfohlene Raumtemperatur: 15°C."

Zwei Karten heizen mit maximal 600Watt. Das ist zwar durchaus nicht zu verachten, aber das muss schon ein extrem kleiner Raum sein, der sich davon in 20 Minuten nennenswert aufheizen lässt.

Zum Vergleich: Ein Kühlschrank nimmt etwa 500 Watt auf (eher mehr). Eine Spülmaschine bewegt sich deutlich über 1kW, meist eher in der Gegend von 2kW. Ich glaube nicht, dass Du deswegen auf eine Heizung in der Küche verzichten kannst, obwohl natürlich schon eine spürbare Wärme vom Kühlschrank ausgeht.

derguru
2010-04-16, 14:37:07
jetzt werden schon haushaltsgeräte mit dem fermi verglichen,mal schauen wann das auto wieder dran ist. :lol:

LovesuckZ
2010-04-16, 14:39:19
Mein "Fermi" steht auch im Haus. :rolleyes:

Gast
2010-04-16, 14:39:53
Zwei Karten heizen mit maximal 600Watt. Das ist zwar durchaus nicht zu verachten, aber das muss schon ein extrem kleiner Raum sein, der sich davon in 20 Minuten nennenswert aufheizen lässt.

Zum Vergleich: Ein Kühlschrank nimmt etwa 500 Watt auf (eher mehr). Eine Spülmaschine bewegt sich deutlich über 1kW, meist eher in der Gegend von 2kW. Ich glaube nicht, dass Du deswegen auf eine Heizung in der Küche verzichten kannst, obwohl natürlich schon eine spürbare Wärme vom Kühlschrank ausgeht.
Grestorn,

der Kühlschrank läuft ja nicht dauernd.
Der Kompressor springt nur ab und zu mal an.

Grestorn
2010-04-16, 14:41:47
jetzt werden schon haushaltsgeräte mit dem fermi verglichen,mal schauen wann das auto wieder dran ist. :lol:

Das ist kein Vergleich sondern die Begründung, warum das gequotete Posting nonsense ist. Watt sind nun mal Watt, egal ob sie von einer Grafikkarte oder von einem Herd oder einer Spülmaschine kommen. Das nennt man Physik.

Grestorn
2010-04-16, 14:42:28
Grestorn,

der Kühlschrank läuft ja nicht dauernd.
Der Kompressor springt nur ab und zu mal an.

Die Grafikkarte auch nicht. Die Spülmaschine läuft schon mal 2 Stunden. Ist Dir deswegen aufgefallen, dass es in der Küche wärmer wird?

derguru
2010-04-16, 14:43:01
Das ist kein Vergleich sondern die Begründung, warum das gequotete Posting nonsense ist. Watt sind nun mal Watt, egal ob sie von einer Grafikkarte oder von einem Herd oder einer Spülmaschine kommen. Das nennt man Physik.
ne das nennt man schön reden,verharmlosen und nicht physik was du machst.:wink:

Gast
2010-04-16, 14:44:15
Waschmaschine ist nicht vergleichbar, da die meiste Energie für das Aufheizen des Wassers verbraucht wird und diese Wärme geht in den Abfluss. Der Rest wird für den Elektromotor verbraucht.

300 W effektive Heizleistung sind eher mit einem Haushaltsheizkörper in den Maßen 500mm*400mm bei 75°C Vorlauftemperatur und 20°C Umgebungstemperatur zu vergleichen. Also schon recht ordentlich. Bei diesem sinkt allerdings die Wärmeleistung mit steigender Umgebungstemperatur, bei der Graka bis zu deren Ausschalten nicht.

Gast
2010-04-16, 14:48:25
Die Grafikkarte auch nicht. Die Spülmaschine läuft schon mal 2 Stunden. Ist Dir deswegen aufgefallen, dass es in der Küche wärmer wird?
Zwar nicht extrem, aber es fällt auf.
Eine Spülmaschine fordert auch nicht immer die volle Leistung ab.

Wenn Du mit einem Fermi aber den ganzen Tag im Sommer zockst, dann könnte es eng werden.
Ich wünsche niemandem, dass sein Fermi abkratzt, man sollte aber auf jeden Fall vorsichtiger sein, als mit jeder anderen Karte bisher.

Grestorn
2010-04-16, 14:48:32
Waschmaschine ist nicht vergleichbar, da die meiste Energie für das Aufheizen des Wassers verbraucht wird und diese Wärme geht in den Abfluss. Der Rest wird für den Elektromotor verbraucht.

Ok, das stimmt natürlich. Streicht die Spülmaschine aus meiner Argumentation :)

Ist lange her, dass ich die Energie berechnen musste, die nötig ist um einen Raum des Volumens x um 1° zu erwärmen. Hat jemand, der gerade in der 10. Gymnasium oder so ist, da die Formel parat? Würde mich schon wirklich interessieren...

skampi
2010-04-16, 14:50:54
Zwei Karten heizen mit maximal 600Watt. Das ist zwar durchaus nicht zu verachten, aber das muss schon ein extrem kleiner Raum sein, der sich davon in 20 Minuten nennenswert aufheizen lässt.

Zum Vergleich: Ein Kühlschrank nimmt etwa 500 Watt auf (eher mehr). Eine Spülmaschine bewegt sich deutlich über 1kW, meist eher in der Gegend von 2kW. Ich glaube nicht, dass Du deswegen auf eine Heizung in der Küche verzichten kannst, obwohl natürlich schon eine spürbare Wärme vom Kühlschrank ausgeht.


500Watt -> Never. Ich denke du hast beim Kühlschrank die Kühlleistung mit mittlerer Leistungsaufnahme verwechselt.

skampi
2010-04-16, 14:52:16
Ok, das stimmt natürlich. Streicht die Spülmaschine aus meiner Argumentation :)

Ist lange her, dass ich die Energie berechnen musste, die nötig ist um einen Raum des Volumens x um 1° zu erwärmen. Hat jemand, der gerade in der 10. Gymnasium oder so ist, da die Formel parat? Würde mich schon wirklich interessieren...


Spezifische Wärmekapazität dem Volumens der Luft ensprechend auflösen, oder?

http://de.wikipedia.org/wiki/Spezifische_W%C3%A4rmekapazit%C3%A4t

PS: Args, wenn man es genau machen will ist es wohl nicht ganz so trivial. Ich sag nur Kreisprozess...

Grestorn
2010-04-16, 14:52:24
*hier stand quark*

Gast
2010-04-16, 14:52:28
Waschmaschine ist nicht vergleichbar, da die meiste Energie für das Aufheizen des Wassers verbraucht wird und diese Wärme geht in den Abfluss. Der Rest wird für den Elektromotor verbraucht.

300 W effektive Heizleistung sind eher mit einem Haushaltsheizkörper in den Maßen 500mm*400mm bei 75°C Vorlauftemperatur und 20°C Umgebungstemperatur zu vergleichen. Also schon recht ordentlich. Bei diesem sinkt allerdings die Wärmeleistung mit steigender Umgebungstemperatur, bei der Graka bis zu deren Ausschalten nicht.
Ist nur im Sommer problematisch. Im Winter lässt man die Heizung aus und alles ist wunderbar. Es gab schon Leute, die mit 2 X GTX 295 keine Heizung im Winter mehr brauchten. Dafür im Sommer einen sehr starken Raumventilator, weil es zu einem örtlichen Hitzewall rund um den Tower kam. Ansonsten Oberkörper frei, Füße in einen Wassereimer und beruhigt zoggen.

Grestorn
2010-04-16, 14:52:57
Ok, man sollte nicht dem ersten Link wenn man "Leistungsaufnahme Kühlschrank" sucht, Glauben schenken :redface:

pXe
2010-04-16, 14:53:45
Zwei Karten heizen mit maximal 600Watt. Das ist zwar durchaus nicht zu verachten, aber das muss schon ein extrem kleiner Raum sein, der sich davon in 20 Minuten nennenswert aufheizen lässt.

Zum Vergleich: Ein Kühlschrank nimmt etwa 500 Watt auf (eher mehr). Eine Spülmaschine bewegt sich deutlich über 1kW, meist eher in der Gegend von 2kW. Ich glaube nicht, dass Du deswegen auf eine Heizung in der Küche verzichten kannst, obwohl natürlich schon eine spürbare Wärme vom Kühlschrank ausgeht.

Nein, aber es wird kalt im Raum wenn man ihn zu lange aufläßt :freak::freak::freak:


pXe

Iruwen
2010-04-16, 15:07:06
Also Kühlschrank offen neben den PC stellen, Thema erledigt.

Gast
2010-04-16, 15:07:16
Zwei Karten heizen mit maximal 600Watt. Das ist zwar durchaus nicht zu verachten, aber das muss schon ein extrem kleiner Raum sein, der sich davon in 20 Minuten nennenswert aufheizen lässt.

Zum Vergleich: Ein Kühlschrank nimmt etwa 500 Watt auf (eher mehr). Eine Spülmaschine bewegt sich deutlich über 1kW, meist eher in der Gegend von 2kW. Ich glaube nicht, dass Du deswegen auf eine Heizung in der Küche verzichten kannst, obwohl natürlich schon eine spürbare Wärme vom Kühlschrank ausgeht.



Ein Kühlschrank wird wohl nicht über 500 Watt verbrauchen. Mein Kühlschrank (130L) zieht maximal 69Watt.

Die 500Watt Leistungsaufnahme sind verbgleichbar mit meinem Wasserdestillator, der mit der Wärmeleistung Wasser zum Kochen und der Wasserdampf anschliessend in einem Radiator, der von einem Lüfter gekühlt wird, kondensiert.

Wenn der Destillator einige Zeit läuft, dann wärmt sich die Küche auch etwas auf. Aber sie kühlt dann auch relativ schnell wieder ab, nachdem ich ihn ausschalte. Also über 500 Watt Wärmeabgabe reichen aus damit die Raumtemperatur angenehm warm ist. Die Wärmeleistung ist aber nicht so stark, wie wenn ich die Heizung anschalten.
Bei Tri-Sli und über 1000Watt könnte es aber ziemlich warm werden.

Marodeur
2010-04-16, 15:09:20
So meine sind da. im Idle sicher nicht so laut wie erwartet.

Hast das WE Zeit? Könnt ich mal mit Motorrad vorbei kommen und live anhören. :biggrin:


Nicht jeder kann sich die Karten leisten, klar das die Mehrzahl dagegen stimmt. Und jetzt?

Autsch, der Käse der hier manchmal verzapft wird schmerzt ja richtig...

AMC
2010-04-16, 15:11:48
Ich glaube nicht, dass Du deswegen auf eine Heizung in der Küche verzichten kannst, obwohl natürlich schon eine spürbare Wärme vom Kühlschrank ausgeht.

Logisch, denn eine Spülmaschine ist ja zum Glück nicht in einem Wasserkreislauf eingebunden und die Wärmeenergie von 1-2kw wird natürlich direkt in die Küche abgegeben.... :rolleyes: wieder mal 3DC-Forum@Physik: fail!

/edit: Ah, der Fehler wurde schon aufgelöst. ;)

Iruwen
2010-04-16, 15:12:08
Hast das WE Zeit? Könnt ich mal mit Motorrad vorbei kommen und live anhören. :biggrin:

Mach mal ein Video, Soundvergleich Motorrad <=> Grafikkarte :D

Marodeur
2010-04-16, 15:13:08
Mach mal ein Video, Soundvergleich Motorrad <=> Grafikkarte :D

Unfair. Ich hab Akrapovic dran, da hat Fermi keine Chance... :D

skampi
2010-04-16, 15:23:18
Logisch, denn eine Spülmaschine ist ja zum Glück nicht in einem Wasserkreislauf eingebunden und die Wärmeenergie von 1-2kw wird natürlich direkt in die Küche abgegeben.... :rolleyes: wieder mal 3DC-Forum@Physik: fail!

/edit: Ah, der Fehler wurde schon aufgelöst. ;)


Aber FüssiX auf der Graka, hehe ... ;)

Gast
2010-04-16, 15:51:20
@Grestorn
So einfach ist das nicht. Zum einen musst du das Luftvolumen aufheizen (das ist noch der einfachste Teil, E=cp(T)*rho(T)*V(T)*deltaT.

Aber dann kommt hinzu: die Wände wollen, dank wesentlich höherer Gesamtmasse (wobei die Wärmekapazität geringer ist als Luft) auch aufgeheizt werden, sonst kühlt der Raum rasch wieder ab. Weiterhin ist anzumerken, dass selbst bei geschlossenen Fenstern und Türen das Luftvolumen eines Raumes ca. 3-fach am Tag ausgetauscht wird (wenn man grad nicht in nem Passivhaus sitzt). Weiter gehts damit, dass dein Raum nicht adiabat ist, sondern sobald du die Wände über Umgebungstemperatur erwärmst, diese auf der Aussenseite wieder Wärme abführen. Was hier reinspielen kann, ist z.B. Außenwand mit all den möglichen Einflüssen, wie Sonne, Wind (hohe Wärmeabfuhr) und Außentemperatur, welche einen anderen Wärmefluss bewirken, als z.B. beheizte Innenwände im Winter oder gekühlte im Sommer.
Also neben dem 1. Teil, der nur eine Energiemenge benötigt (hat man bei kleinen Räumen in kurzer Zeit aufgebracht) kommt ein komplexer Teil hinzu, welcher einen variablen Wärmestrom (Leistung) benötigt.

Don Vito
2010-04-16, 15:56:44
gtx 480 SLI ohne OC

http://img338.imageshack.us/img338/6783/xvox2010041615424758.jpg

gtx 480 single ohne OC

http://img338.imageshack.us/img338/6783/xvox2010041615424758.jpg

tombman
2010-04-16, 15:59:15
^-- wurde unter meiner Anleitung erstellt ;)

Tarkin
2010-04-16, 16:00:10
http://notablecalls.blogspot.com/2010/04/nvidia-corp-nasdaqnvda-downgraded-at.html

"Fermi is not ramping well. After a series of channel checks, Needham believes there is limited supply of Fermi parts (single digit thousands) compared to their previous expectations (hundreds of thousands). Heat (over 200W), poor yields (20-30%) and large die size (550mm2) are reducing availability of Fermi chips and causing further product delays (1-2 months)"

Scheint wohl doch etwas dran zu sein an Charlies/Neliz Aussagen bzgl. Verfügbarkeit/Menge an Chips

N0Thing
2010-04-16, 16:07:04
gtx 480 SLI ohne OC

http://img338.imageshack.us/img338/6783/xvox2010041615424758.jpg

gtx 480 single ohne OC

http://img338.imageshack.us/img338/6783/xvox2010041615424758.jpg

Ist zweimal das gleiche Bild. Nächstes mal nicht die Anleitung von Tombman verwenden. :D

Iruwen
2010-04-16, 16:07:55
Die Verlustleistung reduziert die Verfügbarkeit?

Gast
2010-04-16, 16:11:18
Die Verlustleistung reduziert die Verfügbarkeit?
Auch. Nicht nur.
Das ist alles ein wenig komplexer als du es dir vorstellst. ;)

mictasm
2010-04-16, 16:58:55
Auch. Nicht nur.
Das ist alles ein wenig komplexer als du es dir vorstellst. ;)
Oh erhelle uns, du von höherer Macht erleuchteter Gast!

Gast
2010-04-16, 17:27:13
Schlammsau lese das mal. Und nu? Ich stimme dem Gast zu.

lol, du stimmst dir wohl selbst zu.

Don Vito
2010-04-16, 17:31:16
Hast das WE Zeit? Könnt ich mal mit Motorrad vorbei kommen und live anhören. :biggrin:




Autsch, der Käse der hier manchmal verzapft wird schmerzt ja richtig...
sonntag :d

aths
2010-04-16, 17:55:06
Also Kühlschrank offen neben den PC stellen, Thema erledigt.Diese Lösung heizt den Raum noch stärker auf.

tombman
2010-04-16, 18:07:46
Ist zweimal das gleiche Bild. Nächstes mal nicht die Anleitung von Tombman verwenden. :D
Die Bilder hat er allein gemacht ;) Mit Single-Gpu warens 28.x fps und 1000 Mio TPS ;)

Don Vito
2010-04-16, 18:14:38
Tombman lass sie blubbern:D.
Wir wissen ja was Fakt ist.

dildo4u
2010-04-16, 18:17:24
Die Bilder hat er allein gemacht ;) Mit Single-Gpu warens 28.x fps und 1000 Mio TPS ;)
Ohne Vergleichswert mit na GTX 280 nix Wert.

Gast
2010-04-16, 18:18:34
Was sind denn Vergleichsergebnisse aktueller Karten in Xvox?

Gast
2010-04-16, 18:29:12
http://notablecalls.blogspot.com/2010/04/nvidia-corp-nasdaqnvda-downgraded-at.html

"Fermi is not ramping well. After a series of channel checks, Needham believes there is limited supply of Fermi parts (single digit thousands) compared to their previous expectations (hundreds of thousands). Heat (over 200W), poor yields (20-30%) and large die size (550mm2) are reducing availability of Fermi chips and causing further product delays (1-2 months)"

Scheint wohl doch etwas dran zu sein an Charlies/Neliz Aussagen bzgl. Verfügbarkeit/Menge an Chips



Wahrscheinlich hängt die geringe Verfügbarkeit mit der gerigen Sonnenaktivität zusammen, oder es liegt an den Vorboten des neuen Zeitalters The Age of Aquarius.
Das Nvidia einen Fehler gemacht hat ist ausgeschlossen.

Marodeur
2010-04-16, 18:35:19
sonntag :d

Ok, ich meld mich vorher nochmal. :biggrin:

N0Thing
2010-04-16, 19:25:03
Die Bilder hat er allein gemacht ;) Mit Single-Gpu warens 28.x fps und 1000 Mio TPS ;)

Ah, dann skalieren die Karten im SLI ja nahezu perfekt. Bei meinem System kommt ne GTX275 in etwa auf die halben Werte einer GTX480.
14.xx fps und ca. 500 Mio. TPS.

Don Vito
2010-04-16, 19:31:05
Ah, dann skalieren die Karten im SLI ja nahezu perfekt. Bei meinem System kommt ne GTX275 in etwa auf die halben Werte einer GTX480.
14.xx fps und ca. 500 Mio. TPS.
25% meinst wohl

Gast
2010-04-16, 19:56:51
Wo Geometrie auch so wichtig ist...
Der letzte haken ist abgerissen.

Gast
2010-04-17, 08:49:04
Ich hab auch lange überlegt welche meine neue Graka wird (meine jetzige ist die 3870X2, da ist mal wieder was neues fällig:wink:). Ich würde mich als "preisbewußten High End User" bezeichnen, das heißt ein gutes PL Verhältnis ist mir schon wichtiger als das letzte bisschen Leistung, das aber wohlgemerkt im Highend Segment. (Ich hatte die TI 4400, die FX 5900, die 1800XT....immer die zweite Highendstufe wenn man so will). Nun stand für mich zur Auswahl: Ati 5870 oder NV GTX470. Ich hab mich für die GTX 470 entschieden aus folgenden Gründen: Sie ist in den Spielen die ich spiele genauso schnell/schneller als die Ati. Dass sie in den alten DX9 Games teilweise langsamer ist juckt mich nicht, da die FPS eh hoch genug sind. (20 zu 30 fps in einem DX11 Game sind weit wichtiger als 80 zu 70 fps in einem DX9 Spiel). Ob der Abstand in zukünftigen Games noch größer wird weiß natürlich niemand - Die Chancen stehen aber nicht schlecht. Also warum diese Möglichkeit außen vor lassen...Silentfetischist bin ich nicht und den Stromverbrauch finde ich auch übertrieben bewertet, wer 350€ und mehr für ne Graka ausgibt hat auch die +10€ Stromkosten im Jahr übrig. Dazu die genannten Dinge wie PhysX Cuda usw. Diese hätten für sich allein keine Relevanz für mich, im Gesamtpaket stehen sie aber doch auf der Habenseite:) Das knappe Drittel mehr an Speicher kann auch nicht verkehrt sein.
Ich denke die GTX 470 ist ein rundes Gesamtpaket für User wie mich. Irgendwie witzig, dass meine erste NV Karte seit 6 Jahren ausgerechnet der vielgescholtene Fermi ist. Insgesamt hat er mir doch mehr zugesagt als die aktuellen Atis. Man bekommt die deutlich höhere Tesselation/DX11 Leistung quasi zum selben Preis dazu. Wenn es was bringt ist es schön (was ich ehrlich gesagt noch in diesem Jahr glaube...man wird sehen), wenn nicht wars auch nicht teurer. Die immer wieder zitierten Nachteile sind für mich eher zweitrangig. Ich freu mich jedenfalls auf meine Karte:)

Gruß Sam


Ich würde mich genauso charakterisieren im Bezug auf Hardware. Sind schon interessante Überlegungen dabei. Für mich kommt der Fermi aber leider nicht in frage, da Silent-Gamer PC - so weit das eben geht - Dennoch kann ich dein Geschreibsel nachvollziehen, ähnliche Gedanken habe ich auch.

mfg

Gast
2010-04-17, 10:01:26
Man kann die Vor- und Nachteile evtl. stärker oder schwächer gewichten, aber bis auf das Argument mit dem Treiber, über das man sicher streiten kann, sind alle genannten Vor- und Nachteile grundsätzlich nicht wegzudiskutieren.

Die Liste ist aber nicht vollständig.

Fehlende Vorteile von ATI:
SGSSAA, EDAA, Eyefinity (und es gibt sicher noch mehr, die ihr gleich ergänzen werdet... :) ).

Fehlende Vorteile nVidia:
CSAA (sehr billig), SSAA (funktioniert öfter als ATI's SGSSAA, aber oft auch unscharf), Kombi-AA, Kompatibilitätsprofile speziell für AA (einer der wichtigsten Punkte für mich), Profile generell, 3D-Vision.

Danke das du dich wieder mal geoutet hast. Wie kann schlechteres OG-SSAA ein Vorteil bei NV sein wenn AMD besseres SGSSAA bietet? Noch dazu dreht sich jedem Benutzer der von einer NV auf eine AMD-Karte gewechselt ist der Magen um wenn du behauptest NVs-SSAA funktioniere öfter.

"Kombi-AA" ist nur eine Folge der ineffektiven OG-SSAA, die Profile packst du praktischerweise auch gleich in zwei Punkten ein um die Vorteile-Liste bei NV größer erscheinen zu lassen. :)

boxleitnerb
2010-04-17, 10:29:32
Die Hybriden sind insofern nicht schlecht als dass man eine hervorragende Polygonglättung erreicht, die man mit reinem SSAA teuer erkaufen müsste. In Spielen, in denen die Performance für 8 oder gar 4x SGSSAA nicht reicht, kann man bei Nvidia 32xS draufhauen und hat 8xMSAA und 2x2 SSAA.

Gast
2010-04-17, 10:36:12
Die Hybriden sind insofern nicht schlecht als dass man eine hervorragende Polygonglättung erreicht, die man mit reinem SSAA teuer erkaufen müsste. In Spielen, in denen die Performance für 8 oder gar 4x SGSSAA nicht reicht, kann man bei Nvidia 32xS draufhauen und hat 8xMSAA und 2x2 SSAA.

Wenn die Leistung selbst für 4xSGSSAA nicht reicht reicht sie für 32xS bei weitem nicht. SSAA läuft bei AMD zudem sehr schnell. Ich warte ja nach wie vor auf SSAA-Benchs, aber ich gehe jetzt schon jede Wette ein das dort eine 5870 eine GTX480 schlägt.

Gast
2010-04-17, 10:44:40
Ich hab auch lange überlegt welche meine neue Graka wird (meine jetzige ist die 3870X2, da ist mal wieder was neues fällig:wink:). Ich würde mich als "preisbewußten High End User" bezeichnen, das heißt ein gutes PL Verhältnis ist mir schon wichtiger als das letzte bisschen Leistung, das aber wohlgemerkt im Highend Segment. (Ich hatte die TI 4400, die FX 5900, die 1800XT....immer die zweite Highendstufe wenn man so will). Nun stand für mich zur Auswahl: Ati 5870 oder NV GTX470. Ich hab mich für die GTX 470 entschieden aus folgenden Gründen: Sie ist in den Spielen die ich spiele genauso schnell/schneller als die Ati. Dass sie in den alten DX9 Games teilweise langsamer ist juckt mich nicht, da die FPS eh hoch genug sind. (20 zu 30 fps in einem DX11 Game sind weit wichtiger als 80 zu 70 fps in einem DX9 Spiel). Ob der Abstand in zukünftigen Games noch größer wird weiß natürlich niemand - Die Chancen stehen aber nicht schlecht. Also warum diese Möglichkeit außen vor lassen...Silentfetischist bin ich nicht und den Stromverbrauch finde ich auch übertrieben bewertet, wer 350€ und mehr für ne Graka ausgibt hat auch die +10€ Stromkosten im Jahr übrig. Dazu die genannten Dinge wie PhysX Cuda usw. Diese hätten für sich allein keine Relevanz für mich, im Gesamtpaket stehen sie aber doch auf der Habenseite:) Das knappe Drittel mehr an Speicher kann auch nicht verkehrt sein.
Ich denke die GTX 470 ist ein rundes Gesamtpaket für User wie mich. Irgendwie witzig, dass meine erste NV Karte seit 6 Jahren ausgerechnet der vielgescholtene Fermi ist. Insgesamt hat er mir doch mehr zugesagt als die aktuellen Atis. Man bekommt die deutlich höhere Tesselation/DX11 Leistung quasi zum selben Preis dazu. Wenn es was bringt ist es schön (was ich ehrlich gesagt noch in diesem Jahr glaube...man wird sehen), wenn nicht wars auch nicht teurer. Die immer wieder zitierten Nachteile sind für mich eher zweitrangig. Ich freu mich jedenfalls auf meine Karte:)

Gruß Sam
"Das knappe Drittel mehr ans Speicher" ist ein genaues Viertel. Wenn deine restlichen Überlegungen genauso unscharf sind, könntest du zu einer falschen Schlußfolgerungen gekommen sein.

boxleitnerb
2010-04-17, 10:49:34
Wenn die Leistung selbst für 4xSGSSAA nicht reicht reicht sie für 32xS bei weitem nicht. SSAA läuft bei AMD zudem sehr schnell. Ich warte ja nach wie vor auf SSAA-Benchs, aber ich gehe jetzt schon jede Wette ein das dort eine 5870 eine GTX480 schlägt.

8xMSAA ist bei Fermi weitestgehend umsonst. 2x2SSAA hängt noch an der Füllrate, das stimmt. Wenn NV hier bei der nächsten Generation nachbessert, sind diese Modi auch wieder besser benutzbar und dürften schneller als reines höheres SSAA sein. SSAA-Benches mit verschiedenen Modi bei beiden IHVs (nicht unbedingt vergleichbar, klar), wären aber echt nett!

Wenn daran Interesse bestünde, könnte man im Benchforum mal einen Thread aufmachen. Jemand mit einer 5870 und ein anderer mit einer 480 könnten einen kleinen Shootout machen. Gleiche Bedingungen, nur am SSAA drehen.

Bucklew
2010-04-17, 10:56:00
Sucky und Bucklew arbeiten bei nV, der Launch ist überstanden und die PRler sind jetzt in Ihrem wohlverdienten Urlaub...
Kein Angst, ich bin noch da :freak: Ich hab nur meine Präsenz in vielen Foren auf mitlesen und mitleidiges Kopfschütteln reduziert, alles andere (speziell Diskussionen mit selbsternannten "Experten") ist einfach zu zeitaufwendig. Studium geht halt vor.

btw arbeite ich weder bei der PR, noch bei GeForce. Im Gegenteil, ich sorge dafür, dass die Produkte besser werden (wenn es auch keine GeForce sind ;D)

Grestorn
2010-04-17, 12:02:52
Danke das du dich wieder mal geoutet hast. Wie kann schlechteres OG-SSAA ein Vorteil bei NV sein wenn AMD besseres SGSSAA bietet?

Wenn Du gelesen hättest, was ich geschrieben habe, dann wäre Dir vielleicht aufgefallen, dass ich explizit geschrieben habe, dass ich die einzelnen Punkte nicht gewertet habe. Zudem habe ich bei beiden Seiten die jeweiligen SSAA Modi aufgeführt mit ihren Vor- und Nachteilen. Dein Vorwurf geht also absolut ins Leere.

Noch dazu dreht sich jedem Benutzer der von einer NV auf eine AMD-Karte gewechselt ist der Magen um wenn du behauptest NVs-SSAA funktioniere öfter.Nun, das ist ein Fakt, tut mir leid.

"Kombi-AA" ist nur eine Folge der ineffektiven OG-SSAA, die Profile packst du praktischerweise auch gleich in zwei Punkten ein um die Vorteile-Liste bei NV größer erscheinen zu lassen. :)

Scho recht. Tut mir leid, wenn Du nicht weißt wie man eine Vor/Nachteilliste liest. Es kann sogar sein, dass 10 Vorteile gegen einen einzigen Vorteil verlieren. Das nennt man Gewichtung. Die Zahl der Vorteile spielt gar keine Rolle.

Gast
2010-04-17, 12:13:36
Wenn die Leistung selbst für 4xSGSSAA nicht reicht reicht sie für 32xS bei weitem nicht. SSAA läuft bei AMD zudem sehr schnell. Ich warte ja nach wie vor auf SSAA-Benchs, aber ich gehe jetzt schon jede Wette ein das dort eine 5870 eine GTX480 schlägt.
Zwischen 2x2 und 32xS gibt es weitere Modi.
Insofern ist deine Behauptung witzlos.

Wenn man bei 4xSS noch Leistung über hat, so reicht es nicht automatisch für 8xSS. Aber für 4xSS inklusive etwas MS und TAA würde es gut reichen.
Ergo, der Radeon Nutzer der 4xSS nutzt und Leistung übrig hat, verpulvert diese ohne jeglichen Nutzen. Wer bsp. statt der 5850 eine 5870 gekauft hat weil sie xx% schneller ist, merkt es in dem Falle in exakt null besserer BQ. Das ist entäuschend, mal eben mehr Geld für nichts bezahlt.
Mit Hybriden wär das nicht passiert.

Gast
2010-04-17, 12:17:04
sgssaa geht bei jedem Spiel mit einer ATI, das ist Fakt!
Wenns mal nicht will nimmt man die Mass2.exe.

wenns gar nicht geht, gehts bei NV auch nicht, falls das nicht stimmen sollte hätte ich gerne, zumindest ein Spiel um das nachzuvollziehen.

Schlammsau
2010-04-17, 12:20:55
Zwischen 2x2 und 32xS gibt es weitere Modi.
Insofern ist deine Behauptung witzlos.

Wenn man bei 4xSS noch Leistung über hat, so reicht es nicht automatisch für 8xSS. Aber für 4xSS inklusive etwas MS und TAA würde es gut reichen.
Ergo, der Radeon Nutzer der 4xSS nutzt und Leistung übrig hat, verpulvert diese ohne jeglichen Nutzen. Wer bsp. statt der 5850 eine 5870 gekauft hat weil sie xx% schneller ist, merkt es in dem Falle in exakt null besserer BQ. Das ist entäuschend, mal eben mehr Geld für nichts bezahlt.
Mit Hybriden wär das nicht passiert.
Nein, er hat die Möglichkeit nen zusätzlichen Filter zu nutzen.

Schlammsau
2010-04-17, 12:24:45
sgssaa geht bei jedem Spiel mit einer ATI, das ist Fakt!
Wenns mal nicht will nimmt man die Mass2.exe.

wenns gar nicht geht, gehts bei NV auch nicht, falls das nicht stimmen sollte hätte ich gerne, zumindest ein Spiel um das nachzuvollziehen.

SGSSAA geht bei nahezu jedem DX9 Game (Ausnahmen bestätigen die Regel), natürlich gibt es aber das ein oder andere Game, wo es kontraproduktiv wirkt. Ist aber seltenst der Fall.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=476233&highlight=unscharf

Schaut euch mal im Vergleich die nVidia Liste an.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443275

ATi hats endlich geschafft, beim SSAA nicht nur gleichzuziehen, sondern auch nVidia zu überholen.

Gast
2010-04-17, 12:32:44
Nun, das ist ein Fakt, tut mir leid.


Fakten kann man auch belegen, dann leg mal los. Ich fange mal an:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=476233
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443275

Und da du mir ohnehin nicht glaubst, hier noch ein paar eindeutige Aussagen "unseres" Bildqualitäts-Fetischisten:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7917068&postcount=16616
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7917081&postcount=16620

Es gibt kaum ein Spiel wo das SGSSAA auf einer HD5 nicht läuft, ob du es glaubst oder nicht.


Zwischen 2x2 und 32xS gibt es weitere Modi.
Insofern ist deine Behauptung witzlos.



Wenn du den Kontext beachtet hättest wäre dir aufgefallen das das 32xS Beispiel nicht von mir kam.

Blaire
2010-04-17, 12:47:59
Was wohl eher daran liegt, das kaum jemand jemals ältere Games mit SGSSAA getestet hat. Logischerweise gibt es auch weniger Probleme.

Gast
2010-04-17, 13:02:15
Was wohl eher daran liegt, das kaum jemand jemals ältere Games mit SGSSAA getestet hat. Logischerweise gibt es auch weniger Probleme.

Bei NVs SSAA scheitert es an aktuellen Games. Blur soweit das Auge reicht. Ich habe auch noch kein altes Spiel gefunden das mit SGSSAA von AMD nicht läuft.

Blaire
2010-04-17, 13:05:20
Bei NVs SSAA scheitert es an aktuellen Games. Blur soweit das Auge reicht. Ich habe auch noch kein altes Spiel gefunden das mit SGSSAA von AMD nicht läuft.

X3 ist so ein Kandidat, in Crysis greift SGSSAA nicht überall (Nvidias Hybriden glätten dort besser) Doom3 bzw. OpenGL funktioniert garkein SGSSAA es gibt garantiert noch mehr Fälle wo dem so ist.
Man kann nicht sagen Nvidias Hybriden sind weniger kompatibel, wenn es auf der anderen Seite auch nicht immer korrekt funktioniert das ist der Punkt.

Savay
2010-04-17, 13:47:09
Man kann nicht sagen Nvidias Hybriden sind weniger kompatibel, wenn es auf der anderen Seite auch nicht immer korrekt funktioniert das ist der Punkt.


welch ein wirres konstrukt! :tongue:
natürlich kann man das quantitativ unterscheiden wenn man denn wollte...und so auch eine aussage darüber treffen was denn nun "kompatibler" ist :freak:
ich glaube eine der beiden seiten sollte sich dann wirklich mal die arbeit machen ansonsten ist das eine sinnlose diskussion...

zu sagen nur weil es bei ATi nicht überall geht ist es genauso inkompatibel oder anders herum bringt hier garnichts. ;)

was aber festzuhalten ist: es gibt einen "qualitativen" unterschied beim support. ATI bietet das SSAA offiziell an...und hat somit auch ein gewisses interesse das es in aktuellen titeln innerhalb technischer limitationen (DX10,11) funktioniert. bei nV ist und bleibt es bis auf weiteres ein eher inoffizielles goodie. inwieweit sich das in reale ergebnisse niederschlägt bleibt zu testen ;)

Iruwen
2010-04-17, 14:25:06
sgssaa geht bei jedem Spiel mit einer ATI, das ist Fakt!
Wenns mal nicht will nimmt man die Mass2.exe.

Bei ATI muss man also genauso frickeln, von daher nehmen sich beide doch nicht viel... können wir's nicht einfach dabei belassen dass ATI tolles AA hat und NV tolles AF? Wahrscheinlich nicht :rolleyes:

Gast
2010-04-17, 14:31:30
Nein, er hat die Möglichkeit nen zusätzlichen Filter zu nutzen.
Du weisst, das das kein Ersatz ist, warum erwähnst du es?

Fetter Fettsack
2010-04-17, 14:40:43
können wir's nicht einfach dabei belassen dass ATI tolles AA hat und NV tolles AF? Wahrscheinlich nicht

Ein weises Wort :-)

DrFreaK666
2010-04-17, 14:42:14
...Wenn daran Interesse bestünde, könnte man im Benchforum mal einen Thread aufmachen. Jemand mit einer 5870 und ein anderer mit einer 480 könnten einen kleinen Shootout machen. Gleiche Bedingungen, nur am SSAA drehen.

Wenn dann GTX470 vs. HD5870

Gast
2010-04-17, 14:44:59
Wenn dann GTX470 vs. HD5870
Sehe ich auch so, da vergleichbarer Preis.

HarryHirsch
2010-04-17, 14:45:19
Blaire und ich haben so etwas schon seit Monaten vor. Er muss nur noch seine Karten erhalten.

boxleitnerb
2010-04-17, 14:58:03
Hervorragend, freu mich drauf!

DrFreaK666
2010-04-17, 15:08:15
Was wird dann vergleichen? 4xOGSSAA vs. 4xSGSSAA?

Don Vito
2010-04-17, 15:09:08
Er muss nur noch seine Karten erhalten.

Ich sag mal soviel... Er bekam heute ein Paket:d

boxleitnerb
2010-04-17, 15:13:28
Ich würde vorschlagen, nur wenige Games, dafür mehr Modi.

Geforce:

16xS
32xS
2x2 OGSSAA
4x4 OGSSAA

Radeon:

2xSGSSAA
4xSGSSAA
8xSGSSAA

Superheld
2010-04-17, 15:48:21
dann benutzt doch gleich das Tool für die beiden Karten oder wird auf Bildqualität auch eingegangen ?:)

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=481802

boxleitnerb
2010-04-17, 15:58:58
Geht ja nur für DX10 aufwärts. Deshalb wären solche Benches schon nett. Wenn man tb's Tool für neuere Spiele, in denen man kein custom-AA mehr forcen kann, mitverwendet, umso besser!

derguru
2010-04-17, 16:14:55
Was wird dann vergleichen? 4xOGSSAA vs. 4xSGSSAA?

wozu,der gewinner steht jetzt schon fest.

obwohl why not damit es auch der letzte sieht.

DrFreaK666
2010-04-17, 16:16:03
Ich würde vorschlagen, nur wenige Games, dafür mehr Modi.

Geforce:

16xS
32xS
2x2 OGSSAA
4x4 OGSSAA

Radeon:

2xSGSSAA
4xSGSSAA
8xSGSSAA

Wenn man wissen will welches SSAA kompatibler und blur-freier ist dann wären mehr Games sinnvoller

Grestorn
2010-04-17, 16:17:21
sgssaa geht bei jedem Spiel mit einer ATI, das ist Fakt!
Wenns mal nicht will nimmt man die Mass2.exe.

wenns gar nicht geht, gehts bei NV auch nicht, falls das nicht stimmen sollte hätte ich gerne, zumindest ein Spiel um das nachzuvollziehen.

Ach, es geht bei jedem Spiel, aber wenn's nicht geht, geht's bei nV auch nicht?!

Geh woanders trollen. Danke.

boxleitnerb
2010-04-17, 16:20:25
Wenn man wissen will welches SSAA kompatibler und blur-freier ist dann wären mehr Games sinnvoller

Also mich z.B. interessiert eher der Performancehit. Für die Kompatibilitäts gibts für beide IHVs schon Threads.

DrFreaK666
2010-04-17, 16:22:17
Also mich z.B. interessiert eher der Performancehit. Für die Kompatibilitäts gibts für beide IHVs schon Threads.

Der Performance-Hit müsste bei SSAA doch prozentual gleich sein, oder?

Coda
2010-04-17, 16:23:40
Dass das SGSSAA von ATI nicht blurt falls das Spiel MSAA anbietet ist eine technische Gegebenheit. Technisch ist das ohne zweifel definitiv die bessere und kompatiblere Lösung und ich bin sehr enttäuscht, dass NVIDIA das in Fermi nicht vorgesehen hat.

Da muss ich auch mal in die Bresche für die ATI-Fraktion werfen.

Der Performance-Hit müsste bei SSAA doch prozentual gleich sein, oder?
Nein. OGSSAA führt zu größeren Polygonen und dazu zu besserer Raster-Effizienz während SGSAA evtl. bessere Cachelokalität bietet.

Die Arbeit die getan werden muss ist die allerdings die gleiche.

Schlammsau
2010-04-17, 16:24:48
Also mich z.B. interessiert eher der Performancehit. Für die Kompatibilitäts gibts für beide IHVs schon Threads.

Guckst du hier zB.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7966127#post7966127

Ich würd sagen, der Performancehit hält sich u.a. in Crysis in grenzen.

DrFreaK666
2010-04-17, 16:26:36
Dass das SGSSAA von ATI nicht blurt falls das Spiel MSAA anbietet ist eine technische Gegebenheit. Technisch ist das ohne zweifel definitiv die bessere und kompatiblere Lösung und ich bin sehr enttäuscht, dass NVIDIA das in Fermi nicht vorgesehen hat.

Da muss ich auch mal in die Bresche für die ATI-Fraktion werfen.

hm, das stimmt so nicht ganz.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=476233&highlight=ssaa
Ist aber anscheinend trotzdem besser als bei nv

y33H@
2010-04-17, 16:28:28
Die Arbeit die getan werden muss ist die allerdings die gleiche.
Right, auf einer GTX470 kostet 2x2 OGSSAA prozentual gesehen genauso viel [+/- 1%] wie auf einer HD5870 4x SGSSAA. Wobei letztere freilich die bessere SSAA-Optik bietet.

boxleitnerb
2010-04-17, 16:29:29
Guckst du hier zB.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7966127#post7966127

Ich würd sagen, der Performancehit hält sich u.a. in Crysis in grenzen.

Hm, vielleicht doch noch ein paar Games mehr :)

derguru
2010-04-17, 16:30:30
würde eher so vergleichen weil es in etwa die selbe bq ist.(jaja ist subjektive gesehen)

4xSGSSAA vs. 8xQS+TMSAA
4xSGSSAA+tent modi(edge) vs. 16xS+TMSAA
8xSGSSAA vs. 32S+TMSAA

und spezialfall aber was eh sogut wie immer zu lahm ist,

16xSGSSAA(cf von nöten) vs. 4x4OGSSAA

Schlammsau
2010-04-17, 16:32:26
Hm, vielleicht doch noch ein paar Games mehr :)

Hab leider nur noch SS HD selber gebenchmarkt.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=475443&page=2

hq-hq
2010-04-17, 16:37:30
hab heute meine gtx 470 bekommen,
die gpu wird tatsächlich 90°C warm nach ca 15min mit atitool

meine alte gtx260 is fetter als die gtx470 auch wenn die mehr strom zieht ...

an zwei stellen is per hand nachgelötet worden und es sind noch flussmittelreste zu sehen...
aber sie läuft und is kaum lauter als die alte gtx260

http://freenet-homepage.de/hauptquartier/gtx470_vs_gtx260.jpg

das msi afterburner scheint noch net ganz zu funzen, man kann zwar [x] unlock voltage control setzen aber der regler is nicht nutzbar ^^

y33H@
2010-04-17, 16:38:20
Erst die kommende Beta supportet die GTX470. Aktuell nur GTX480.

Gast
2010-04-17, 16:52:11
Ach, es geht bei jedem Spiel, aber wenn's nicht geht, geht's bei nV auch nicht?!

Geh woanders trollen. Danke.

Ich warte auf eine Antwort. Das du auf meinen Beitrag nicht eingegangen bist obwohl du vorher schon die bessere Kompatibilität von NVs SSAA als Fakt tituliert hast zeigt mal wieder wie wenig glaubwürdig du bist und wie dünn deine Argumentationskette ist. Sich stattdessen einen Trollbeitrag zu suchen um sich wichtig zu machen ist arm. Aber eigentlich war mir ohnehin klar das nichts mehr kommt, ich bin schließlich von einer GTX285 auf eine 5870 umgestiegen und sehe tagtäglich SSAA wo es bei NV nicht möglich war. Danke für die Aufmerksamkeit.

y33H@
2010-04-17, 16:56:45
Aber eigentlich war mir ohnehin klar das nichts mehr kommt, ich bin schließlich von einer GTX285 auf eine 5870 umgestiegen und sehe tagtäglich SSAA wo es bei NV nicht möglich war.Bringe doch Beispiele. Als Anti: In Stalker SoC geht auf Radeons überhaupt kein AA - auf Geforces dagegen MSAA, TAA, SSAA und xS.

Grestorn
2010-04-17, 16:57:19
Ich warte auf eine Antwort. Das du auf meinen Beitrag nicht eingegangen bist obwohl du vorher schon die bessere Kompatibilität von NVs SSAA als Fakt tituliert hast zeigt mal wieder wie wenig glaubwürdig du bist und wie dünn deine Argumentationskette ist. Sich stattdessen einen Trollbeitrag zu suchen um sich wichtig zu machen ist arm. Aber eigentlich war mir ohnehin klar das nichts mehr kommt, ich bin schließlich von einer GTX285 auf eine 5870 umgestiegen und sehe tagtäglich SSAA wo es bei NV nicht möglich war. Danke für die Aufmerksamkeit.

SSAA geht praktisch bei jedem Spiel, bei dem über den Treiber überhaupt irgendein AA Modus erzwungen werden kann. Es gibt sogar ein paar wenige Spiele, bei denen *nur* SSAA aber kein MSAA möglich ist. Auch bei OpenGL Spielen gehen die meisten SSAA Modi. Der Nachteil von SSAA ist die Unschärfe, die besonders bei neueren Spielen auftritt, aber das hatte ich ja schon im allerersten Posting klar geschrieben.

Transp. SSAA, was ja im prinzip die selbe Technik verwendet wie ATI's SGSSAA, geht bei vielen Spielen nicht korrekt. Und so weit ich das verstanden habe, geht SGSSAA bei OpenGL Spielen generell nicht. Und zumindest kann ich mich erinnern hier im Forum von Fällen gelesen zu haben, wo normales Treiber MSAA normal funktioniert, nicht aber SGSSAA. Und darauf bezieht sich meine Aussage.

hq-hq
2010-04-17, 16:59:34
ja wär nicht schlecht wenns bald gehen würde, bei der gtx260 konnte ich 0,1v gpu spannung absenken und die hat so 20-30 watt weniger gezogen

in idle braucht die gtx470 schon mal gut 10 watt weniger als die gtx260,
sys
idle 125watt
atitool 272watt

gtx260 wars glaub ich 135 und 260watt

y33H@
2010-04-17, 17:00:37
SGSSAA geht zumindest in Doom III. Dafür geht es in Bioshock 1/2 nur unter DX9 - bei einer Geforce auch @ DX10.

Schlammsau
2010-04-17, 17:00:39
Also hat Raff keine Ahnung oder lügt er nur um ATi besser da stehen zu lassen?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7917068&postcount=16616
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7917081&postcount=16620

Raff also doch ein ATi-Fanboy? Ich habs doch gewusst. :lol:

PCGH_Raffael
2010-04-17, 17:00:46
Erst die kommende Beta supportet die GTX470. Aktuell nur GTX480.

GTX-400-Nutzer sollten jedenfalls mehr als nur einen Blick darauf werfen, konnten wir durch Undervolting doch schon einen Verbrauchsrückgang von rund 70 Watt und über 90 Watt (!) im Furmark messen – mit verschiedenen GTX-480-Karten.

Raff also doch ein ATi-Fanboy?

Das wäre mal eine nette Abwechslung!

MfG,
Raff

Schlammsau
2010-04-17, 17:03:44
GTX-400-Nutzer sollten jedenfalls mehr als nur einen Blick darauf werfen, konnten wir durch Undervolting doch schon einen Verbrauchsrückgang von rund 70 Watt und über 90 Watt (!) im Furmark messen – mit verschiedenen GTX-480-Karten.



Das wäre mal eine nette Abwechslung!

MfG,
Raff

Ich weiss. :)

Sags bitte nochmal für alle hier. Dir wird wenigstens geglaubt!

Welche Methode ist die bessere?

Don Vito
2010-04-17, 17:04:12
GTX-400-Nutzer sollten jedenfalls mehr als nur einen Blick darauf werfen, konnten wir durch Undervolting doch schon einen Verbrauchsrückgang von rund 70 Watt und über 90 Watt (!) im Furmark messen – mit verschiedenen GTX-480-Karten.



Das wäre mal eine nette Abwechslung!

MfG,
Raff
Kann ich bestätigen 130 Watt im SLI komm ich dank undervoling niedriger.
Allerdings ein nogo wollts nur mal testen:d

PCGH_Raffael
2010-04-17, 17:05:06
Die bessere AA-Methode? Ich kann dir nur sagen, welche die momentan kompatiblere ist: Atis SGSSAA.

MfG,
Raff

Schlammsau
2010-04-17, 17:06:02
Die bessere AA-Methode? Ich kann dir nur sagen, welche die momentan kompatiblere ist: Atis SGSSAA.

MfG,
Raff

Danke! ..... :massa:

y33H@
2010-04-17, 17:06:13
Welche Methode ist die bessere? SGSSAA bietet idR die klar bessere Optik und funktioniert mit den meisten aktuellen Spielen. Sieht man von Fails wie in Stalker SoC ab, erachte ich die AMD-Lösung als definitiv besser im Sinne der Kompatibilität. Raff auch ;D

Grestorn
2010-04-17, 17:08:15
Wegen dem Blurren oder weil es grundsätzlich öfter funktioniert? Wenn letzteres der Fall ist, dann hatte ich das falsch verstanden.

Aber anyway, ich hab absolut kein Problem damit, dass das SSAA momentan bei ATI besser ist. Schade für die nVidia Kunden und man kann nur hoffen, dass nVidia mal nachzieht.

Schlammsau
2010-04-17, 17:11:34
Raff und y33H....ich mag euch! :)

Wegen dem Blurren oder weil es grundsätzlich öfter funktioniert? Wenn letzteres der Fall ist, dann hatte ich das falsch verstanden.

Wegen beidem denke ich.

y33H@
2010-04-17, 17:13:07
Dann schreib auch meinen Nick richtig :tongue: Oder ich schreibe versehentlich Schlammdau ;)

@ Grestorn

Wegen der generell besseren Kompatibilität. Worunter je nach Auslegung aber auch das Blur fiele.

Grestorn
2010-04-17, 17:14:06
Wegen beidem denke ich.

Das beantwortet nicht, ob es nun öfter funktioniert oder nicht. Darauf hätt ich echt gern eine Antwort... Bin halt neugierig!

LovesuckZ
2010-04-17, 17:14:49
GTX-400-Nutzer sollten jedenfalls mehr als nur einen Blick darauf werfen, konnten wir durch Undervolting doch schon einen Verbrauchsrückgang von rund 70 Watt und über 90 Watt (!) im Furmark messen – mit verschiedenen GTX-480-Karten.


Ich schaff nur 50 Watt. :( Komm aber auch nicht tiefer als 0,938V.

DrFreaK666
2010-04-17, 17:15:19
Das beantwortet nicht, ob es nun öfter funktioniert oder nicht. Darauf hätt ich echt gern eine Antwort... Bin halt neugierig!

Ich denke mal Raffael und Marc haben betsimmt mehr tu tun als das SSAA zu vergleichen.
Insgesamt interessiert es wohl die wenigsten Gamer - imho

derguru
2010-04-17, 17:15:37
Raff und y33H....ich mag euch! :)
:lol:


Wegen beidem denke ich.

das würde ich nicht sagen,bei nv funktionierts öfter aber halt auch öfter mit blur.

Gast
2010-04-17, 17:15:51
und spezialfall aber was eh sogut wie immer zu lahm ist,

16xSGSSAA(cf von nöten) vs. 4x4OGSSAA

Wobei 4x4OGSSAA BQ-mäßig total abstinken würde. 16xSGSSAA hat ein 16xEER (15 Zwischenstufen bei Polygonen), 4x4 OGSSAA hat ein 4xEER (3 Zwischenstufen bei Polygonen)

PCGH_Raffael
2010-04-17, 17:16:23
Wegen dem Blurren oder weil es grundsätzlich öfter funktioniert? Wenn letzteres der Fall ist, dann hatte ich das falsch verstanden.

Aber anyway, ich hab absolut kein Problem damit, dass das SSAA momentan bei ATI besser ist. Schade für die nVidia Kunden und man kann nur hoffen, dass nVidia mal nachzieht.

Ich beziehe mich primär auf das Gematsche. Bei einer HD 5000 kannst du das an einer Hand abzählen, während die GeForce-Methode (leider!) in den meisten aktuellen Spielen blurrt. Gut, 8xS ist normalerweise ohne große Matsch-Beeinträchtigung nutzbar, aber je mehr Supersamples, desto matschiger. Immerhin erwähnte Nvidia die inoffizielle Unterstützung beim GTX-400-Launch, ergo wird's die Modi wohl noch eine Weile geben. Die Frage ist nur, ob sie an der Kompatibilität etwas ändern.

Raff und y33H....ich mag euch! :)

WTF! :eek:

Ich schaff nur 50 Watt. Komm aber auch nicht tiefer als 0,938V.

Bei uns schwankt die Qualität der Karten auch. Eine macht minimal 0,95 Volt. Die, auf welche ich mich bezog, stemmt ihren Takt in Spielen sogar noch mit 0,863 Volt – und das wirkt sich heftig positiv aus.

MfG,
Raff

Gast
2010-04-17, 17:17:46
Sieht man von Fails wie in Stalker SoC ab, erachte ich die AMD-Lösung als definitiv besser im Sinne der Kompatibilität. Raff auch ;D

Welche Fails gibts denn noch?

y33H@
2010-04-17, 17:18:23
Raff du weißt doch - was sich liebt, das neckt sich. So wie wir den Tag über :ulol:
Welche Fails gibts denn noch? Als Fail bezeichne ich mal: IHV #1 geht gar kein AA, bei IHV #2 dagegen alles. War bei Mass Effect 2 bei beiden IHVs der Fall, mittlerweile geht's bei beiden (wieder).

Gast
2010-04-17, 17:20:16
Ich schaff nur 50 Watt. :( Komm aber auch nicht tiefer als 0,938V.
Das Gros der Chips dürfte wohl am Limit laufen und nicht groß Reserven besitzen bzw. die Voltage ist von vorn herein schon sehr niedrig gesetzt worden, um die TDP nicht völlig zu sprengen. Könnte auch erklären, warum die Chips so selten sind. Nicht weil so viele kaputt sind, sondern weil nur wenige für diese niedrige Spannung geeignet sind.
Evtl. kommst du mit ein bisschen Untertakten noch weiter mit der Voltage runter.

derguru
2010-04-17, 17:22:15
Wobei 4x4OGSSAA BQ-mäßig total abstinken würde. 16xSGSSAA hat ein 16xEER (15 Zwischenstufen bei Polygonen), 4x4 OGSSAA hat ein 4xEER (3 Zwischenstufen bei Polygonen)
jaja aber mehr ist nicht drin als 4x4 OGSSAA.:biggrin:

ich würd selbst schon sagen 8xsgssaa+edge wäre die krönung aber dann gibts ja haue:tongue:


Als Fail bezeichne ich mal: IHV #1 geht gar kein AA, bei IHV #2 dagegen alles. War bei Mass Effect 2 bei beiden IHVs der Fall, mittlerweile geht's bei beiden (wieder).

ja aber der fix war sehr zügig da,paar tage soweit ich mich zurück erinnern kann.

LovesuckZ
2010-04-17, 17:24:11
Das Gros der Chips dürfte wohl am Limit laufen und nicht groß Reserven besitzen bzw. die Voltage ist von vorn herein schon sehr niedrig gesetzt worden, um die TDP nicht völlig zu sprengen. Könnte auch erklären, warum die Chips so selten sind. Nicht weil so viele kaputt sind, sondern weil nur wenige für diese niedrige Spannung geeignet sind.
Evtl. kommst du mit ein bisschen Untertakten noch weiter mit der Voltage runter.

Nein, meine läuft mit 1V und 700Mhz nicht am Limit.
Anscheinend ist die Speicherspannung an die GPU Spannung gekoppelt. Mit 0,938V stürzt der PC gleich ab bei 2000MHz, bei 0,925V bricht Heaven2.0 mit Fehldarstellungen nach ein paar Minuten ab.
Dagegen kann ich den Coretakt auf 760MHz steigern ohne Fehldarstellungen zu erhalten.

Gast
2010-04-17, 17:24:28
SSAA geht praktisch bei jedem Spiel, bei dem über den Treiber überhaupt irgendein AA Modus erzwungen werden kann. Es gibt sogar ein paar wenige Spiele, bei denen *nur* SSAA aber kein MSAA möglich ist. Auch bei OpenGL Spielen gehen die meisten SSAA Modi. Der Nachteil von SSAA ist die Unschärfe, die besonders bei neueren Spielen auftritt, aber das hatte ich ja schon im allerersten Posting klar geschrieben.

Transp. SSAA, was ja im prinzip die selbe Technik verwendet wie ATI's SGSSAA, geht bei vielen Spielen nicht korrekt. Und so weit ich das verstanden habe, geht SGSSAA bei OpenGL Spielen generell nicht. Und zumindest kann ich mich erinnern hier im Forum von Fällen gelesen zu haben, wo normales Treiber MSAA normal funktioniert, nicht aber SGSSAA. Und darauf bezieht sich meine Aussage.

AMD SGSSAA geht überall dort wo auch MSAA geht und da gibt es wirklich kaum Ausnahmen über eine sehr breite Palette von Spielen die ich getestet habe. Und mit gehen meine ich perfekt gehen, ergo kein blur. Natürlich funktioniert auch OpenGL, außerdem läuft es für meinen Geschmack erstaunlich flott. Ich habe oft doppelte SSAA-Leistung wie mit meiner alten GTX285.

NVs SSAA geht prinzipiell genau so oft, blurrt aber bei fast jedem halbwegs aktuellem Spiel. Das kann man vergessen. Dazu hat AMD natürlich noch den Vorteil der wesentlich besseren Sampleverteilung. OG vs. sparsed halt.

Und auch wenn es immer wieder Unkenrufe gibt, es gibt nichts was die Bildqualität von SSAA erreicht, hier eine gute Kompatibilität ist zumindest mir sehr viel Wert. Das war der Grund mir die Radeon zu kaufen und ich bereue es nicht. Da kann ich dann auch andere Nachteile oder schlechtere AF verkraften, SSAA bügelt alles perfekt hin.

Gast
2010-04-17, 17:24:58
Raff du weißt doch - was sich liebt, das neckt sich. So wie wir den Tag über :ulol:
Als Fail bezeichne ich mal: IHV #1 geht gar kein AA, bei IHV #2 dagegen alles. War bei Mass Effect 2 bei beiden IHVs der Fall, mittlerweile geht's bei beiden (wieder).

Also ist Stalker momentan das einzige Fail.

Blaire
2010-04-17, 17:27:06
Aber anyway, ich hab absolut kein Problem damit, dass das SSAA momentan bei ATI besser ist. Schade für die nVidia Kunden und man kann nur hoffen, dass nVidia mal nachzieht.

Erst 8xSGSSAA ist wirklich gut, 4xSGSSAA ist meiner Meinung nach schlechter als 16xS. Das die Hybriden öfter mal blurren stimmt, aber meist liegts an Effekten die man abschalten kann. Ich verschweige aber auch nicht das einige Games wie Serious Sam,Tomb Raider Underworld oder Resident Evil4 überhaupt keine Hybriden mögen und Grafikfehler erzeugen, dafür hat man aber Downsampling und es ist daher kein wirklicher Nachteil. Es sind letztlich geringe Unterschiede vor allem dann wenn man hohen Auflösungen nutzt, da muss man schon mit der Lupe suchen bzw. Bilder vergrößern um überhaupt noch Unterschiede auszumachen.

derguru
2010-04-17, 17:29:41
Also ist Stalker momentan das einzige Fail.

nö,x3t,riddick anscheinend auch doom3 und es wird bestimmt noch mehr geben.

Gast
2010-04-17, 17:31:09
Erst 8xSGSSAA ist wirklich gut, 4xSGSSAA ist meiner Meinung nach schlechter als 16xS. Das die Hybriden öfter mal blurren stimmt, aber meist liegts an Effekten die man abschalten kann. Ich verschweige aber auch nicht das einige Games wie Serious Sam,Tomb Raider Underworld oder Resident Evil4 überhaupt keine Hybriden mögen und Grafikfehler erzeugen, dafür hat man aber Downsampling und es ist daher kein wirklicher Nachteil.

SGSSAA mit Tent-Downfilter und du erkennst nicht mehr das du Pixel vor dir hast, perfekte Übergänge plus perfekte SSAA-Power. Dagegen stinkt jeder xS-Modi aber sowas von ab. Mein Praxisvergleich war eindeutig.

Gast
2010-04-17, 17:31:41
Da kann ich dann auch andere Nachteile oder schlechtere AF verkraften, SSAA bügelt alles perfekt hin.

Wenn nun SGSSAA unter CF überakk so funktionieren würde, dass die Samples unter den einzelnen GPUs aufgeteilt werden, wär ja eine HD5970 auch absolut empfehlenswert.

Go ATI Go :naughty:

Schlammsau
2010-04-17, 17:32:51
Das Hauptproblem am DS ist aber die Performance.

eine Verdoppelung der Auflösung macht jedes Game unspielbar. Während sie mit SGSSAA noch spielbar sind.

derguru
2010-04-17, 17:35:41
und wenn jetzt dieses tool von tb noch für ds kommt dann kann man über schlechterem af ein auge zu drücken.
das tool wird geil,mir persönlich wichtiger als alle anderen offziellen feature.dx9 schön und gut aber very wichtig ist dx10 und 11.:biggrin:

Gast
2010-04-17, 17:35:48
SGSSAA mit Tent-Downfilter und du erkennst nicht mehr das du Pixel vor dir hast, perfekte Übergänge plus perfekte SSAA-Power. Dagegen stinkt jeder xS-Modi aber sowas von ab. Mein Praxisvergleich war eindeutig.

welcher praxisvergleich? link?

y33H@
2010-04-17, 17:38:50
An SGSSAA + ED-CFAA führt nichts vorbei. Punkt =)

Blaire
2010-04-17, 17:39:27
Das Hauptproblem am DS ist aber die Performance.

Mit drei GTX285 2GB konnte man schon ordentlich was machen. Ein Crysis Warhead war spielbar@3360x2100

LovesuckZ
2010-04-17, 17:41:08
und wenn jetzt dieses tool von tb noch für ds kommt dann kann man über schlechterem af ein auge zu drücken.
das tool wird geil,mir persönlich wichtiger als alle anderen offziellen feature.dx9 schön und gut aber very wichtig ist dx10 und 11.:biggrin:

Downsampling benötigt massig Leistung, weil mehr Pixelberechnungen durchgeführt werden müssen. Es ist keine Alternative, sondern immer nur eine Notlösung. Schon traurig, dass man massig Pixelleistung für HQ-AF investieren muss. :rolleyes:

Gast
2010-04-17, 17:42:13
welcher praxisvergleich? link?

Ich habe nichts ins Internet gestellt. Ich sehe es tagtäglich vor mir. Die GTX285 ist in meinen Zweitrechner gewandert. Wobei man hier wieder sagen muss das die Tent-Filter nicht so kompatibel sind und es durchaus Spiele gibt wo es relativ stark blurrt. Bei vielen Spielen geht es aber und dort wo es funktioniert ist 8xSGSSAA plus Narrow-Tent ein Traum. Gibt ja auch genug Screens hier im Forum, da kommt meiner Meinung bei weitem nichts ran.

derguru
2010-04-17, 17:42:47
Downsampling benötigt massig Leistung, weil mehr Pixelberechnungen durchgeführt werden müssen. Es ist keine Alternative, sondern immer nur eine Notlösung. Schon traurig, dass man massig Pixelleistung für HQ-AF investieren muss. :rolleyes:

meinste ich nutze dann DS nur wegen dem besseren AF,bist ja noch lustiger als sonst.;D

2 fliegen mit einer klatsche ist das;)

Gast
2010-04-17, 17:43:22
An SGSSAA + ED-CFAA führt nichts vorbei. Punkt =)

Die Tentmodi kommen teilweise auch ganz gut. Man sehe sich mal die Trinescreenshots an: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7917133&postcount=39

boxleitnerb
2010-04-17, 17:44:06
Wenn nun SGSSAA unter CF überall so funktionieren würde, dass die Samples unter den einzelnen GPUs aufgeteilt werden, wär ja eine HD5970 auch absolut empfehlenswert.

Go ATI Go :naughty:

Warum geht das eigentlich nicht?
Wäre dann auch leider nur für DX9 eine Lösung. Es ist echt blöd, dass man immer Kompromisse eingehen muss.

Grestorn
2010-04-17, 17:44:33
SGSSAA mit Tent-Downfilter und du erkennst nicht mehr das du Pixel vor dir hast, perfekte Übergänge plus perfekte SSAA-Power. Dagegen stinkt jeder xS-Modi aber sowas von ab. Mein Praxisvergleich war eindeutig.

Freut mich echt voll, dass ihr so begeistert seid von SSAA. Das lässt wirklich darauf hoffen, dass diese Technik noch viel mehr Aufmerksamkeit bekommt.

Ich frage mich nur, wo ihr vor dem Release des HD5xxx alle wart... wäre schön gewesen, wenn ihr schon damals alle total geil auf SSAA gewesen wärt, dann wären wir da wahrscheinlich schon viel weiter. Damals musste SSAA aber leider scheiße sein, weil es vom falschen Anbieter kam.

Blaire
2010-04-17, 17:44:37
Die Tentmodi kommen teilweise auch ganz gut. Man sehe sich mal die Trinescreenshots an: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7917133&postcount=39

Ich seh immer noch leichtes Ausfransen, perfekt ist das nicht. ;)

Gast
2010-04-17, 17:46:02
Freut mich echt voll, dass ihr so begeistert seid von SSAA. Das lässt wirklich darauf hoffen, dass diese Technik noch viel mehr Aufmerksamkeit bekommt.

Ich frage mich nur, wo ihr vor dem Release des HD5xxx alle wart... wäre schön gewesen, wenn ihr schon damals alle total geil auf SSAA gewesen wärt, dann wären wir da wahrscheinlich schon viel weiter. Damals musste SSAA aber leider scheiße sein, weil es vom falschen Anbieter kam.

Ich hatte seit Ewigkeiten eine Geforce wegen SSAA, also bitte nicht pauschal verurteilen.

Grestorn
2010-04-17, 17:47:49
Ich hatte seit Ewigkeiten eine Geforce wegen SSAA, also bitte nicht pauschal verurteilen.

Das Problem des anonymen Gasts... Es sollte klar sein, dass ich all diejenigen meinte, die früher SSAA als unwichtig bezeichnet haben, und jetzt total begeistert davon sind.

Das ist wie bei der Tesselation, nur umgedreht... echt lustig.

derguru
2010-04-17, 17:48:36
Damals musste SSAA aber leider scheiße sein, weil es vom falschen Anbieter kam.

nein einfach nur zu langsam für hd auflösungen,jedenfalls war es das was mich gestört hatte.

Ich seh immer noch leichtes Ausfransen, perfekt ist das nicht. ;)

machs besser.:biggrin:

DrFreaK666
2010-04-17, 17:48:47
Freut mich echt voll, dass ihr so begeistert seid von SSAA. Das lässt wirklich darauf hoffen, dass diese Technik noch viel mehr Aufmerksamkeit bekommt.

Ich frage mich nur, wo ihr vor dem Release des HD5xxx alle wart... wäre schön gewesen, wenn ihr schon damals alle total geil auf SSAA gewesen wärt, dann wären wir da wahrscheinlich schon viel weiter. Damals musste SSAA aber leider scheiße sein, weil es vom falschen Anbieter kam.

Wer zum Teufel ist "ihr"?? :rolleyes:

Gast
2010-04-17, 17:50:14
Ich seh immer noch leichtes Ausfransen, perfekt ist das nicht. ;)

War ja auch nur 4xWD-SGSSAA. Kannst ja mal einen Vergleich mit deinem NV-System machen (inkl. fps).

Gast
2010-04-17, 17:50:41
Ich seh immer noch leichtes Ausfransen, perfekt ist das nicht. ;)

Spätestens mit 8xSGSSAA ist das glatt wie ein Babypopo. Wobei SSAA bei Trine nativ nicht läuft, sondern nur mit ut3.exe, vielleicht beeinflusst das auch die Bildqualität.

Gast
2010-04-17, 17:56:02
Wer zum Teufel ist "ihr"?? :rolleyes:


Mal abgesehen davon, dass OGSSAA nicht halbsogeil ist, wie SGSSAA und auch mittels Downsampling erreicht werden kann, wobei Downsampling sogar kompatibler ist - und auch auch ATis funktioniert.

Und auf AA-Bits pfeif ich ehrlich gesagt auch. Wenn mir das ingame Box-gefilterte nicht reicht, dann stell ich im CCC einen anderen Filter ein. Da braucht man nix mit Profilen herumfrickeln, oder irgendwelche Bits erweitern...

Gast
2010-04-17, 17:57:16
Das Problem des anonymen Gasts... Es sollte klar sein, dass ich all diejenigen meinte, die früher SSAA als unwichtig bezeichnet haben, und jetzt total begeistert davon sind.

Das ist wie bei der Tesselation, nur umgedreht... echt lustig.

Das geht aber auch in beide Richtungen, wie überall wo Emotionen im Spiel sind. Die Leute welche früher SSAA als das non plus ultra angesehen haben sind jetzt plötzlich erstaunlich still und Kleinlaut wenn es um SSAA geht und kaufen sich trotzdem eine Geforce. Da sieht man sehr schön wer soetwas nur als vorgeschobenes Argument verwendet.

Grestorn
2010-04-17, 17:57:23
Wer zum Teufel ist "ihr"?? :rolleyes:

Ihr, die jetzt so begeistert seid.

Aber egal, ich hätte das Thema gar nicht angefangen, wenn diese Vorteilsliste der beiden Hersteller nicht so angegriffen worden wäre. Manche reagieren total empfindlich darauf, wenn man in irgendeiner Weise nicht nur positives zum favorisierten Hersteller schreibt und nicht nur negatives zur Konkurenz. Das ist echt anstrengend.

DrFreaK666
2010-04-17, 17:58:27
Ihr, die jetzt so begeistert seid.

Aber egal, ich hätte das Thema gar nicht angefangen, wenn diese Vorteilsliste der beiden Hersteller nicht so angegriffen worden wäre. Manche reagieren total empfindlich darauf, wenn man in irgendeiner Weise nicht nur positives zum favorisierten Hersteller schreibt und nicht nur negatives zur Konkurenz. Das ist echt anstrengend.

Du solltest nicht so verallgemeinern... :mad:

Grestorn
2010-04-17, 17:58:44
Mal abgesehen davon, dass OGSSAA nicht halbsogeil ist, wie SGSSAA und auch mittels Downsampling erreicht werden kann, wobei Downsampling sogar kompatibler ist - und auch auch ATis funktioniert.

Und auf AA-Bits pfeif ich ehrlich gesagt auch. Wenn mir das ingame Box-gefilterte nicht reicht, dann stell ich im CCC einen anderen Filter ein. Da braucht man nix mit Profilen herumfrickeln, oder irgendwelche Bits erweitern...

Genau das meine ich. Solche Postings diskreditieren irgendwie alle Leute, die ATI favorisieren. Es ist einfach unsachlich.

Grestorn
2010-04-17, 17:59:22
Das geht aber auch in beide Richtungen, wie überall wo Emotionen im Spiel sind. Die Leute welche früher SSAA als das non plus ultra angesehen haben sind jetzt plötzlich erstaunlich still und Kleinlaut wenn es um SSAA geht und kaufen sich trotzdem eine Geforce. Da sieht man sehr schön wer soetwas nur als vorgeschobenes Argument verwendet.

Zeig mir ein einziges Posting eines nVidia Fans, wo steht, dass er jetzt auf einmal (SG)SSAA nicht mehr wichtig und gut findet!

Gast
2010-04-17, 18:04:31
Zeig mir ein einziges Posting eines nVidia Fans, wo steht, dass er jetzt auf einmal (SG)SSAA nicht mehr wichtig und gut findet!

Du weißt was "erstaunlich still und Kleinlaut" bedeutet? Aber wenn du so willst: Zeig mir einen Beitrag eines AMD-Fans wo er sagt das er SSAA nicht gut findet. Ansonsten war deine Behauptung ohne Substanz.

DrFreaK666
2010-04-17, 18:07:38
Wegen der SSAA-Diskussion bitte hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=467150&page=5&highlight=ssaa) weiter

Grestorn
2010-04-17, 18:10:02
Du weißt was "erstaunlich still und Kleinlaut" bedeutet? Aber wenn du so willst: Zeig mir einen Beitrag eines AMD-Fans wo er sagt das er SSAA nicht gut findet. Ansonsten war deine Behauptung ohne Substanz.

Ach, wieviel 1000 Postings willst Du? Natürlich alle bevor der HD5x00 rauskam. Das willst Du doch bitte nicht ernsthaft leugnen.

Und "erstaunlich still und leise" möchte ich das nicht nennen. Es gibt jede Menge nVidia Fans, die das SGSSAA von ATI richtig gut finden. Erwartest Du, dass man das jetzt in jedes Posting reinschreibt? Man kann auch immer wieder die Hoffnung lesen, nVidia möge das bitte auch übernehmen. Das klingt nicht danach, als würde man das Feature nicht gut finden.

Blaire
2010-04-17, 18:11:33
Du weißt was "erstaunlich still und Kleinlaut" bedeutet? Aber wenn du so willst: Zeig mir einen Beitrag eines AMD-Fans wo er sagt das er SSAA nicht gut findet. Ansonsten war deine Behauptung ohne Substanz.

Aber es wurde schon früher als ineffizient abgetan bzw. sowieso zu langsam und EdgeAA wäre besser usw. da hat Grestorn völlig Recht.
SGSSAA war für mich auch mit der Hauptgrund warum ich 3xHD5870 kaufte, doch leider war es nicht nutzbar wegen der Crossfireprobleme, aber das ist ein anderes Thema.

DrFreaK666
2010-04-17, 18:15:09
Aber es wurde schon früher als ineffizient abgetan bzw. sowieso zu langsam und EdgeAA wäre besser usw. da hat Grestorn völlig Recht.[/B]
SGSSAA war für mich auch mit der Hauptgrund warum ich 3xHD5870 kaufte, doch leider war es nicht nutzbar wegen der Crossfireprobleme, aber das ist ein anderes Thema.

So sind halt Fanboys

Iruwen
2010-04-17, 18:16:54
Wofür steht eigentlich IHV? :rolleyes:

Grestorn
2010-04-17, 18:17:42
Independent Hardware Vendor (http://en.wikipedia.org/wiki/Independent_hardware_vendor)

Gemeint sind Hardware Hersteller. Ich finde die Abkürzung ein wenig merkwürdig, muss ich sagen...

Gast
2010-04-17, 18:39:11
Genau das meine ich. Solche Postings diskreditieren irgendwie alle Leute, die ATI favorisieren. Es ist einfach unsachlich.

Was daran ist unsachlich? Es ist vielleicht nicht neutral formuliert, aber Unsachlichkeit kann ich da keine erkennen.

Grestorn
2010-04-17, 18:45:39
Was daran ist unsachlich? Es ist vielleicht nicht neutral formuliert, aber Unsachlichkeit kann ich da keine erkennen.Der Mensch hat offenbar keine Ahnung wofür Profile und AA Flags da sind, hält sie aber für unnötig -> Unsachlich.

DrFreaK666
2010-04-17, 18:48:51
Der Mensch hat offenbar keine Ahnung wofür Profile und AA Flags da sind, hält sie aber für unnötig -> Unsachlich.

Gehe doch nciht auf jeden Gast ein :rolleyes:
Bist echt leicht manipulierbar

Grestorn
2010-04-17, 18:51:52
Gehe doch nciht auf jeden Gast ein :rolleyes:
Bist echt leicht manipulierbar

Sogar von Dir, wie? :)

Überlass mir auf wen ich wie antworte, ok? Danke.

DrFreaK666
2010-04-17, 18:52:49
Sogar von Dir, wie? :)

Überlass mir auf wen ich wie antworte, ok? Danke.

Ihr zerstört den ganzen Thread und seid schon ewig OT.

Grestorn
2010-04-17, 18:54:54
Zerstört wurde der Thread schon lange von einigen ATIianern, die einfach kein gutes Haar am Fermi lassen wollen und alle ständig davon überzeugen müssen, dass ATI die bessere Alternative ist.

Dabei ist das hier ein Thread, in dem Vor- und Nachteile vom Fermi diskutiert werden sollten. Das geht leider ziemlich unter.

Und Dein Posting ist nun definitiv OT.

DrFreaK666
2010-04-17, 18:56:28
Zerstört wurde der Thread schon lange von einigen ATIianern, die einfach kein gutes Haar am Fermi lassen wollen und alle ständig davon überzeugen müssen, dass ATI die bessere Alternative ist.

Dabei ist das hier ein Thread, in dem Vor- und Nachteile vom Fermi diskutiert werden sollten. Das geht leider ziemlich unter.

Und Dein Posting ist nun definitiv OT.

Wieso gehst du dann dauernd auf OT-Gelabber ein?? :rolleyes:

edit: Und um genauer zu sein geht es hier um 470/480-Reviews...

Fetter Fettsack
2010-04-17, 18:58:20
Nun, nur so als Einwurf: man kann Vorteile und Nachteile ja nur im Vergleich zur Konkurrenz betrachten. Insofern ist ein bisschen OT gar nicht so schlecht, wie ich finde. Fehlt also nur noch mehr die einflechtung des Threadthemas und alles passt :freak: .

DrFreaK666
2010-04-17, 18:59:45
Nun, nur so als Einwurf: man kann Vorteile und Nachteile ja nur im Vergleich zur Konkurrenz betrachten. Insofern ist ein bisschen OT gar nicht so schlecht, wie ich finde. Fehlt also nur noch mehr die einflechtung des Threadthemas und alles passt :freak .

Dann haben die ganzen AA-Threads keinen Sinn...

Iruwen
2010-04-17, 18:59:56
Nun, nur so als Einwurf: man kann Vorteile und Nachteile ja nur im Vergleich zur Konkurrenz betrachten.

Vorgängergeneration.

DrFreaK666
2010-04-17, 19:01:59
Vorgängergeneration.

Ein Vergleich mit der Konkurrenz ist ja ok.
Aber wenn man sich ewig von Gästen provozieren lässt und immer darauf eingeht dann zerstört es den Thread.
Wie oft mussten in letzter Zeit schon GTX480/HD5870-Threads geschlossen werden weil man sich nicht im Zaun halten konnte?

Fetter Fettsack
2010-04-17, 19:04:59
Dann haben die ganzen AA-Threads keinen Sinn...

Zugegeben, da hat man u.U. ein Sinnproblem. Andererseits bekommt man als nicht ganz versierter in diesem Gebiet viel mit, was man bei einer der Sinn-Vorgabe folgenden Diskussion nicht könnte.

DrFreaK666
2010-04-17, 19:07:27
Zugegeben, da hat man u.U. ein Sinnproblem. Andererseits bekommt man als nicht ganz versierter in diesem Gebiet viel mit, was man bei einer der Sinn-Vorgabe folgenden Diskussion nicht könnte.

Man kann es hier ja kurz ansprechen und dann auf den jeweiligen Thread verweisen.

OC_Burner
2010-04-17, 19:19:32
Nein, meine läuft mit 1V und 700Mhz nicht am Limit.
Anscheinend ist die Speicherspannung an die GPU Spannung gekoppelt. Mit 0,938V stürzt der PC gleich ab bei 2000MHz, bei 0,925V bricht Heaven2.0 mit Fehldarstellungen nach ein paar Minuten ab.
Dagegen kann ich den Coretakt auf 760MHz steigern ohne Fehldarstellungen zu erhalten.

Kann das Absolut bestätigen, die Speicherspannung ist mit der GPU-Spannung gekoppelt.

Mit Defaulttaktraten gibt es bei 0.925V einen Absturz.

Mit "GPU/Shader/Mem = 525MHz/1050MHz/default" gibt es bei 0.925V ebenfalls einen Absturz.

Mit "GPU/Shader/Mem = default/default/1600MHz" gibt es bei 0.925V keinen Absturz mehr.

Fetter Fettsack
2010-04-17, 19:22:25
Vorgängergeneration.


Warum denn eigentlich nicht? Um bei AA und Konsorten zu bleiben (ausnahmsweise :) ). Das SSAA der Vodookarten war ja auch für Generationen da nach nicht einholbar. Insofern kommt es meiner Ansicht nach auf die absolut gesehene Güte der zu vergleichenden Sachen an, nicht auf ihre zeitliche Relation zueinander (ganz allgemein gesagt).

Feuerteufel
2010-04-17, 20:22:35
Gibts ein Test von GTX 480 SLI gegen HD5870 Crossfire?

Sentionline
2010-04-17, 20:35:55
Aufgrund der enormen GPGPU Kompatibilität der GeForce Karten wirds wieder eine Nvidia bei mir. Selbst eine 8800GT gibts für 48€ neu. Grandiöser Preis für einen Supercomputerersatz.

Ich beobachte die Reviews und breche die 400€ Marke nicht für die 480GTX.

Eine 480GTX SLI macht eine HD5870SLI um minderstens 50% platt. Allerdings auch beim Konsum des Stoms um 50%. Aufgrund der besseren Treiber und weniger Mikroruckelneigung der GeForce Karten, macht SLI alleine schon mehr sinn als CF...

Iruwen
2010-04-17, 21:11:54
Inno3D Black Freezer (http://www.bit-tech.net/news/hardware/2010/04/15/inno3d-previews-black-freezer-gtx-400-serie/1)

Tarkin
2010-04-17, 22:36:12
Eine 480GTX SLI macht eine HD5870SLI um minderstens 50% platt. Allerdings auch beim Konsum des Stoms um 50%.

Träum weiter (http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/30999-nvidia-geforce-gtx-470-sli-review.html)

wenn zwei 470 in SLI im Schnitt nur 7% schneller sind als zwei 5850 in CF...

dann sind natürlich zwei 480er in SLI MINDESTENS 50% schneller als zwei 5870

selten so gelacht. :freak: :rolleyes:

y33H@
2010-04-17, 22:38:12
Kommt auf die Spiele/Settings/Benches an. Mit GTA4, WoW, Metro, FC2, BC2, Unigine könnte man die 50% so stehen lassen.

Iruwen
2010-04-17, 22:40:55
Träum weiter (http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/30999-nvidia-geforce-gtx-470-sli-review.html)

Da ist ja auch gleich mal wieder ein schöner ATI Treiberfail bei AvP :tongue:

nagus
2010-04-17, 22:44:23
... Aufgrund der besseren Treiber...

aha, du stehst also auf abrauchende grafikkarten (http://www.computerbase.de/news/treiber/grafikkarten/nvidia/2010/maerz/nvidia_geforce-treiber_19675/) weil die lüftersteuerung plötzlich nicht mehr richtig funktioniert? etc, etc...

@Iruwen: treiberfail? und was sind abrauchende grafikkarten bei nvidia dank treiber?

Tarkin
2010-04-17, 22:53:30
Kommt auf die Spiele/Settings/Benches an. Mit GTA4, WoW, Metro, FC2, BC2, Unigine könnte man die 50% so stehen lassen.

Wie bitte? Aber das Review hast du dir schon angesehen oder?

FC2, BFBC2 sind enthalten!

und WOW - der war echt gut. Da brauch ich wirklich DRIGEND eine 480 in SLI dafür - HALLELUJA!

und Heaven mal wieder... war ja klar. Sonst noch geniale Einfälle wo Fermi 50% schneller ist? Btw Heaven ist AUCH im Review enthalten und da ist die 470 SLI nur 10% schneller als die 5870er. 50% geht sich da mit 480 GTX SLI auch nicht aus. Und das ist dann der BEST CASE.

"Kommt auf die Settings an"... ja darauf kommts an. Wenn ich in 1280 spiele, dann schafft es das Geforce Paar vielleicht.

Oder spielst du auf höhere Quali Settings a la DX11 und 8xAA an?? Tja da siehst leider noch düsterer aus. Dirt, BFBC2 gewinnt soger 5850 CF deutlich gegen 470 SLI.

Aber die 480 SLI ist MIN. 50% schneller als 5870 CF .. das kann man schon gelten lassen.

Herrgott... was ist das hier? Wunschkonzert oder was?

Aber der Redakteur bist DU.. also zeig her die Metro und GTA4 SLI vs CF Benches! MACH HINNÄ!

Iruwen
2010-04-17, 22:53:57
Tragisch? So wie klemmende Gaspedale bei Toyota um mal den beliebten Autovergleich heranzuziehen :rolleyes:

/e: Zwischenposter würden ATI kaufen.

Gast
2010-04-17, 22:56:57
Wie bitte? Aber das Review hast du dir schon angesehen oder?

Ist halt die Frage wie man die 0FPS in AvP wertet.
Sind die Geforces unendlich viel schneller?

Iruwen
2010-04-17, 22:58:05
Oder spielst du auf höhere Quali Settings a la DX11 und 8xAA an?? Tja da siehst leider noch düsterer aus. Dirt, BFBC2 gewinnt soger 5850 CF deutlich gegen 470 SLI.

Komisch, seh ich nichts von. Nichtmal undeutlich. Erst recht bei den Minimum FPS.

nagus
2010-04-17, 23:03:41
@Iruwen: ich hab einen vorschlag: kauf dir doch deine dschieföhn und schieben sie dir dort hin, wo die sonne nie scheint.... aber verschone uns BITTE mit deinen märchen über "nvidia hat bessere treiber" und 480SLI ist 50% blah blah blah ... das hält ja kein normal denkender mensch aus.