PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 6990 (Antilles): (P)Review-Thread


Raff
2011-03-08, 07:01:50
PCGH: Radeon HD 6990 (Antilles): Mit 375 Watt zu neuen Benchmark-Rekorden (http://www.pcgameshardware.de/aid,814660/Radeon-HD-6990-Antilles-Mit-375-Watt-zu-neuen-Benchmark-Rekorden/Grafikkarte/Test/)
HT4U: Gedrosselter Truck: AMD Radeon HD 6990 im Test (http://ht4u.net/news/23518_gedrosselter_truck_amd_radeon_hd_6990_im_test/)
Computerbase: AMD Radeon HD 6990: Aus zwei vollen Rohren (http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-6990/)

MfG,
Raff

Dr. Lloyd
2011-03-08, 07:07:15
Golem.de: Grafikmonster mit 500 Watt für 600 Euro (http://www.golem.de/1103/81952.html)

Raff
2011-03-08, 10:05:34
Das Interesse hier ist ja überwältigend. ;)

Die Skalierung der beiden Kaimane verläuft übrigens exzellent. In den 2.560er-Tests ist die HD 6990 immer zwischen 90 und 100 Prozent schneller als die HD 6970. Dabei ist sie aber leider ziemlich genau doppelt so hungrig und doppelt so laut ...

Am liebsten mag ich den Bench hier (http://www.pcgameshardware.de/aid,814660/Radeon-HD-6990-im-Test-Antilles-Mit-375-Watt-zu-neuen-Benchmark-Rekorden/Grafikkarte/Test/?page=6):

http://666kb.com/i/brl5zn2ixrygbfy70.png

Perfekte Skalierung, GTX 580 sowas von chancenlos. Hach, könnte man die Antilles-Leistung doch nur in einen Chip pressen und dazu leise kühlen ...

MfG,
Raff

deekey777
2011-03-08, 10:10:59
Die MR-Problematik ist kaum vorhanden, HT4U liefert zwar einige Zahlen und Sätze dazu, aber sie sind ja nicht neu. Schlussfolgerung: Zu wenig Zeit?

AMD's Radeon HD 6990: The New Single Card King (http://www.anandtech.com/show/4209/amds-radeon-hd-6990-the-new-single-card-king)
The launch drivers for the 6990 will be a preview version of Catalyst 11.4, which will be made available later today and the final version launching sometime in April. Compared to the earlier drivers we’ve been using performance in most of our games is up by at least a few percent, particularly in Crossfire. For launching a dual-GPU card like the 6990, the timing couldn’t be better.
Hyper! Hyper!

san.salvador
2011-03-08, 10:16:16
10.2 Sone mit Standardtakt beim Spielen - OMGWTFBBQ! :ulol:

Lowkey
2011-03-08, 10:16:49
Alle Tests benutzen ein X58 System - nur die PCGH: P55

HEXUS (http://www.hexus.net/content/item.php?item=29430)
HARDOCP (http://www.hardocp.com/article/2011/03/07/amd_radeon_hd_6990_antilles_video_card_review)
GURU3D (http://www.guru3d.com/article/radeon-hd-6990-review/)
ANANDTECH (http://www.anandtech.com/show/4209/amds-radeon-hd-6990-the-new-single-card-king)
BIT-TECH (http://www.bit-tech.net/hardware/2011/03/08/amd-radeon-hd-6990-review/1)
HARDWARECANUCKS (http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/41404-amd-radeon-hd-6990-4gb-review.html) <-- 4 GHZ CPU
TECHREPORT (http://techreport.com/articles.x/20537)
TOMSHARDWARE (http://www.tomshardware.de/radeon-hd-6990-antilles-crossfire,testberichte-240739.html)<-- 4 GHZ CPU (6 Kerne)

fetthund
2011-03-08, 10:22:38
lächerlich, dass für die Tests kein SB-System > 4,5 Ghz verwendet wird.....

Genau sowas ist doch primär die Zielgruppe solcher Karten....

derguru
2011-03-08, 10:23:18
die lautstärke bringt anscheinend neue rekorde zustande,da reicht nicht mal"ich spiel mit kopfhörer" als ausrede.;D

http://www.abload.de/img/157mh.jpg

Spasstiger
2011-03-08, 10:27:22
Teilweise 90% schneller als die GTX 580, das ist schon beeindruckend. Ich würde mir die Karte allerdings nie im Leben zulegen, bei der Lautstärke indiskutabel. Dann lieber zwei HD 6950 mit leiser Alternativkühlung und auf HD 6970 modden.

Bei CB benötigt die HD 6990 übrigens "nur" 167 Watt mehr als die HD 6970 bei 85% höherer Framerate. D.h. Watt pro fps ist deutlich besser als bei der HD 6970.

san.salvador
2011-03-08, 10:28:15
Passend dazu:
http://alexandriava.gov/uploadedImages/tes/info/typicalsoundlevelscr.jpg

Schrotti
2011-03-08, 10:31:06
lächerlich, dass für die Tests kein SB-System > 4,5 Ghz verwendet wird.....

Genau so was ist doch primär die Zielgruppe solcher Karten....

Dann musst du alle anderen Karten aber auch neu benchen weil sonst keine Vergleichsmöglichkeit gegeben ist. Außerdem ist das doch kaum machbar in der kurzen Zeit.

Bleib mal auf dem Boden.

Blediator16
2011-03-08, 10:31:09
Ich kann mir nicht vorstellen, dass jemand sich das Ding ohne alternativ Kühlung einbaut :D

Schrotti
2011-03-08, 10:34:48
Perfekte Skalierung, GTX 580 sowas von chancenlos. Hach, könnte man die Antilles-Leistung doch nur in einen Chip pressen und dazu leise kühlen ...

MfG,
Raff

Was soll daran perfekt sein?

Man nehme den GF110 und packe das ganze zweimal auf ein PCB. Schon ist AMD wieder hinten.

Außerdem vergleicht man kein Single GPU mit einem Multi GPU System (solltest du eigentlich wissen).

derguru
2011-03-08, 10:36:40
Ich kann mir nicht vorstellen, dass jemand sich das Ding ohne alternativ Kühlung einbaut :D
sei dir da mal nicht so sicher,es gibt immer ein paar verrückte.ich frag mich wie laut das teil dann in einem quad cf wird,ich tippe auf rasenmäher :|

Spasstiger
2011-03-08, 10:38:41
Um die DisplayPorts sinnvoll nutzen zu können, wird jeder Radeon HD 6990 ein Adapter für einen HDMI-, ein Adapter für einen DVI- und ein aktiver (!) Adapter für einen weiteren DVI-Ausgang beiliegen. Letzterer ermöglicht es, dass die Grafikkarte drei Monitore gleichzeitig ansteuern kann, ohne dass diese einen DisplayPort haben müssen.
http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-6990/3/#abschnitt_amd_radeon_hd_6990

Warum benötigt man hier einen aktiven Adapter? Es sind zwei GPUs verbaut und damit 4 TMDS-Transmitter. An der Radeon HD 4870 X2 und der GTX 295 konnte man auch schon drei DVI/HDMI-Monitore nutzen.

Lowkey
2011-03-08, 10:39:52
Im Grunde testen alle Seiten die Karte mit derselben Hardware: X58 und teils 80%+ statt 90%+ Netzteil.

Dabei werden die meisten Neukäufer nicht zum 6 Kerner und X58 greifen, sondern zur Sandy Bridge.

deekey777
2011-03-08, 10:40:53
die lautstärke bringt anscheinend neue rekorde zustande,da reicht nicht mal"ich spiel mit kopfhörer" als ausrede.;D

http://www.abload.de/img/157mh.jpg
Ich weiß nicht, wie ihr so spielt, aber mein Gehäuse ist zu und unter dem Tisch.

Schrotti
2011-03-08, 10:42:58
Ich weiß nicht, wie ihr so spielt, aber mein Gehäuse ist zu und unter dem Tisch.

Das hilft bei 73db auch nicht mehr.

Die GTX 480 kam seinerzeit auf 68,5db.

Raff
2011-03-08, 10:43:57
lächerlich, dass für die Tests kein SB-System > 4,5 Ghz verwendet wird.....

Genau sowas ist doch primär die Zielgruppe solcher Karten....

Lächerlich ist eigentlich nur, eine solche Monsterkarte mit 5 sandigen GHz im Rücken nur mit MSAA in Full-HD zu betreiben und sich über drei heilige Dreistelligkeit zu freuen. ;)

MfG,
Raff

derguru
2011-03-08, 10:56:49
Ich weiß nicht, wie ihr so spielt, aber mein Gehäuse ist zu und unter dem Tisch.
nein ist nicht wahr:eek: und ich dachte offen und gleich auf dem tisch.

Spasstiger
2011-03-08, 11:03:34
Passend dazu:
http://alexandriava.gov/uploadedImages/tes/info/typicalsoundlevelscr.jpg
Wobei CB in nur 15 cm Abstand und ohne Gehäusewand dazwischen misst.
Alleine bei einer Abstandsvergrößerung auf 1 m, muss man schon 16,5 dB abziehen. Kommt noch ein geschlossenes Gehäuse dazu, sinds über 20 dB, die man abziehen muss.
Aus normaler Sitzposition (Gehäuse klebt nicht am Ohr) und mit geschlossenen Gehäuse sollte man also rund 50 dB(A) und nicht 73 dB(A) annehmen.

Spirou
2011-03-08, 11:10:58
Messungen bei offenem Gehäuse? Das belegt bestenfalls technische Inkompetenz der Testredaktionen, weil nicht die absoluten Schallpegel, sondern die nach Gehörempfindlichkeit gewichteten Pegel eines Frequenzgemischs zählen, und verschiedene Anteile dieses Gemischs bei geschlossenem Gehäuse unterschiedlich stark durchdringen.

Wer also Werte angibt, die bei offenem Gehäuse gemessen wurden, hat nicht mal die Messvorgaben beachtet, und ganz offensichtlich auch nicht verstanden.

Verschiedene Frequenzgemische mit gleicher Schallenergie werden beim Gehäuseaustritt infolge verschiedener Mischverhältnisse unterschiedlich stark bedämpft. D. h. die Vergleichstabellen dazu sind irreführender Unfug.

Spasstiger
2011-03-08, 11:15:06
Computerbase muss so nah ran, damit ihr Messgerät bei leisen Grafikkarten überhaupt noch Unterschiede registriert.

boxleitnerb
2011-03-08, 11:15:59
Sehe das wie Raff. Eine schnellere CPU wäre nur interessant für "low"-BQ Settings. Und dass das Unsinn ist, solche mit derart viel Power zu fahren, ist offensichtlich.

Ich lese an Tests eigentlich nur noch CB und PCGH, für Strom- und Lautstärke noch HT4U. Der Rest kann mir gestohlen bleiben.

Aber selbst bei CB stört mich, dass teilweise ohne AA und mit Sub-HD Auflösung gebencht wird. Ab 1080p 4/16 sollte es losgehen, das ist das absolute Minimum für MGPU.

Spirou
2011-03-08, 11:19:39
Computerbase muss so nah ran, damit ihr Messgerät bei leisen Grafikkarten überhaupt noch Unterschiede registriert.
Blödsinn. Geräuschpegel in db werden nicht nur von CB behauptet, sondern von anderen bei anderen Erzeugnissen tatsächlich korrekt gemessen, und vom Verbraucher als gleichbedeutend vermutet.

D. h. CB verbreitet damit groteske Verbrauchertäuschung.

fondness
2011-03-08, 11:26:44
Das hilft bei 73db auch nicht mehr.

Die GTX 480 kam seinerzeit auf 68,5db.

Damit ist man ohne dem OC-Schalter noch immer deutlich leiser als eine GTX480. Der OC-Schalter für die 5% mehr fps ist natürlich lächerlich, da wird wohl auch deutlich mehr Spannung gegeben um mehr OC-Spielraum zu ermöglichen. SO oder so ist beides für mich inakzeptabel laut.

Spasstiger
2011-03-08, 11:27:44
@Spirou: Wenn du meinst, dass CB die Akkustikmessungen falsch durchführt, kannst du Ihnen ja nahelegen, wie es richtig geht.
Ich hab auch mal detailliert und konstruktiv einen Optimierungsvorschlag für die Reviews im Forum gepostet und der Thread wurde geschlossen. Seitdem bin ich nicht mehr im Computerbase-Forum aktiv, da sind wohl nur Idioten als Mods unterwegs. Wobei da noch andere Sachen vorgefallen sind, die mich zum Abgang veranlasst haben (Löschen von mühevoll verfassten Speku-Postings seitens der Moderation auf Druck von AMD; Diskussionen über Forenregeln unerwünscht, man wird sofort als Unruhestifter hingestellt; keine Plattform, um sich wissenschaftlich mit Fachthemen auseinanderzusetzen)

Spirou
2011-03-08, 11:38:08
Willkommen im Club :)

Wir erfreuen uns halt zum Ausgleich an Wolfgangs Besänftigungs-Auftritten, wenn er wieder erzählt, daß er doch seine ganze Freizeit aus lauter Altruismus investiert und einfach nicht dazu kommt, mal zu berücksichtigen, was ihm schon unzählige Male gesagt wurde. Manchmal glaub ich, der ist sowas wie ein Bot.

Dr. Lloyd
2011-03-08, 12:02:10
@Spirou: Hinzu kommt ja noch, dass die Ergonomie-Tests von CB bei der GTX 480 auf einem Exemplar mit 1,062 Volt basieren. Wenn man sich mal bei den GTX-480-Besitzern umsieht, so ist ein derart schlechter Chip überhaupt nicht repräsentativ. Die Werte meiner Karte, sind da schon eher dem Standard entsprechend.

Aber CB behauptet ja auch: "Ein zusätzlicher 120-mm-Lüfter, der direkt auf die Grafikkarte pustet, bringt dagegen keine Besserung." Genau das Gegenteil ist jedoch der Fall. Ein 120er Lüfter an der Unterseite der Karte bewirkt massive Verbesserungen. Was bei der Konstruktion des GTX-480-Kühlkörpers auch einfach nachzuvollziehen ist.

MechWOLLIer
2011-03-08, 13:31:08
Hoch, seid ihr alle wieder lieb.
Lest mal eure Posts morgen nochmal und fragt euch dann, ob es verwunderlich ist wenn wir solche "Vorschläge" ignorieren, wenn sie so wie von euch vorgetragen werden.

Und Spirou, musst du eigentlich in jedem post immer direkt aggressiv und persöhnlich werden?

san.salvador
2011-03-08, 13:33:12
Hoch, seid ihr alle wieder lieb.
Lest mal eure Posts morgen nochmal und fragt euch dann, ob es verwunderlich ist wenn wir solche "Vorschläge" ignorieren, wenn sie so wie von euch vorgetragen werden.

Und Spirou, musst du eigentlich in jedem post immer direkt aggressiv und persöhnlich werden?
Seh nur ich den Themenbezug nicht?

fondness
2011-03-08, 13:35:44
Seh nur ich den Themenbezug nicht?

MechWOLLIer hat wohl einen Bezug zu ComputerBase?

Raff
2011-03-08, 13:38:09
WOLLI = Wolfgang.

MfG,
Raff

y33H@
2011-03-08, 13:40:10
MechWOLLIer ist Wolfgang von CB und beklagt sich - nicht zu Unrecht - über den Tonfall von Spirou. Der übertreibt's nämlich gerne.

LovesuckZ
2011-03-08, 13:41:04
Damit ist man ohne dem OC-Schalter noch immer deutlich leiser als eine GTX480.

Auch nur bei Computerbase.de. HT4U.de ermittelt in HAWX 2 Sone und die PCGH ermittelte für Grid 6,8 Sone, was annährend 4 Sone weniger sind. Und im November haben sie nur 5 Sone für die GTX480 in Bad Company 2 gemessen. Was genau die Hälfte entspricht.
Soviel dazu, dass die Karte leiser wäre.

Das denkt Tomshardware.com über die Lautstärke:
There’s no excuse for a graphics card to be this loud and, if spinning its cooling fan up to 3600 RPM is the only way to keep the Radeon HD 6990 from overheating, then this product simply isn’t ready for consumption. Because the problem is related to fan speed, there’s a chance an updated firmware could smooth out the way AMD handles heat. Right now, though, there’s no way I’d install one of these things in a gaming machine.

The problem is compounded by the fact that two Radeon HD 6970s in CrossFire top out at 53.1 dB(A) (slightly louder than a single GeForce GTX 480) and two GeForce GTX 570s in SLI max out at 49.1 dB(A)—quieter than a Radeon HD 5970. Both card combinations exhaust all of their air out the back of your chassis, they’re both quieter, and the 6970s, at least, are universally faster.
http://www.tomshardware.com/reviews/radeon-hd-6990-antilles-crossfire,2878-15.html

Spasstiger
2011-03-08, 13:43:06
Lest mal eure Posts morgen nochmal und fragt euch dann, ob es verwunderlich ist wenn wir solche "Vorschläge" ignorieren, wenn sie so wie von euch vorgetragen werden.
Meine Vorschläge wurden immer sachlich vorgetragen und ohne Bezug auf irgendwelche Personen zu nehmen. Mir dagegen wurde immer sofort mit Aggression entgegengetreten. Irgendwann hat man halt keinen Bock mehr auf Schleimerei. Kommentarloses Löschen von regelkonformen, sachlichen und mühevoll verfassten Postings aus "politischen Gründen" ist ein Unding, was mich zum sofortigen Verlassen eines Forums bewegt - wie bei euch geschehen.

Auch nur bei Computerbase.de.
Mit aktiviertem OC ist die HD 6990 bei CB die lauteste bislang geteste Karte.
Wenn das OC-BIOS aktiviert ist, wird die Radeon HD 6990 dann sogar noch lauter – 73 Dezibel ist aktuell ein Rekordwert! In dem Fall hilft es eigentlich nur noch, den Rechner in einen anderen Raum zu stellen.
Die GTX 480 brachte es im gleichen Testsystem und mit dem gleichen Messabstand "nur" auf 68,5 dB: http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-480/24/#abschnitt_lautstaerke.

airbag
2011-03-08, 13:55:24
Das Interesse hier ist ja überwältigend. ;)

Die Skalierung der beiden Kaimane verläuft übrigens exzellent. In den 2.560er-Tests ist die HD 6990 immer zwischen 90 und 100 Prozent schneller als die HD 6970. Dabei ist sie aber leider ziemlich genau doppelt so hungrig und doppelt so laut ...

Am liebsten mag ich den Bench hier (http://www.pcgameshardware.de/aid,814660/Radeon-HD-6990-im-Test-Antilles-Mit-375-Watt-zu-neuen-Benchmark-Rekorden/Grafikkarte/Test/?page=6):

http://666kb.com/i/brl5zn2ixrygbfy70.png

Perfekte Skalierung, GTX 580 sowas von chancenlos. Hach, könnte man die Antilles-Leistung doch nur in einen Chip pressen und dazu leise kühlen ...

MfG,
Raff

Das ist ja auch kein Wunder,wenn ihr mit SGSSAA testet. Da hat auch ein SLI 99% Skalierung. ;)

@Topic

Die Karte ist für mich ein großer Fail :freak:
Ne GTX590 will ich garnicht erst sehen.

Passend dazu:
http://alexandriava.gov/uploadedImages/tes/info/typicalsoundlevelscr.jpg

Ein Flugzeug wird man wohl kaum aus einem Meter Entfernung messen. Geschweige denn 10cm

derguru
2011-03-08, 14:07:39
die ersten karten sind in geizhals gelistet und bei alternate auch schon verfügbar.verfügbar werden die wohl auch bleiben für eine lange zeit.:biggrin:
http://geizhals.at/deutschland/?cat=gra16_512&asuch=6990&sort=p

LovesuckZ
2011-03-08, 14:08:17
Mit aktiviertem OC ist die HD 6990 bei CB die lauteste bislang geteste Karte.

Die GTX 480 brachte es im gleichen Testsystem und mit dem gleichen Messabstand "nur" auf 68,5 dB: http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-480/24/#abschnitt_lautstaerke.

Computerbase hat bei der GTX480 auch den Worst-Case ermittelt: Ein Gehäuse, dass keine Lüfter hat bzw. nur minimal Frischluft erhielt. Da erstickt die GTX480 ja förmlich in ihrer eigenen Suppe. Aber man sieht ja, wenn selbst die 6990 standardmäßig auf dem Niveau des Worst-Case Szenarium liegt, dann zeigt es einmal mehr, dass 250 Watt das Limit darstellen, um Karten mit 2 Slots vernünftig kühlen zu können.

Spasstiger
2011-03-08, 14:11:01
Man kann es ja so wie tombman machen, PC in anderes Zimmer stellen. Dann ist die Lautstärke der Komponenten relativ egal. Für solche Leute dürfte die HD 6990 auch interessant sein, je nach Preis.
Alle anderen fahren mit zwei Karten besser, wenn es denn mehr Leistung als mit einer GTX 580 sein soll. Sinnvollstes Einsatzgebiet für HD 6900 Crossfire ist imo Eyefinity/Triplehead.

airbag
2011-03-08, 14:11:14
250W ist bei weitem nicht das Limit. Lediglich wird beim Kühler gegeizt. Wenn ich mich richtig errinnere kosten die Coolermasterkühler keine 10$.

Man kann es ja so wie tombman machen, PC in anderes Zimmer stellen.
Verlagerung ist keine wirklich Lösung. Davonabgesehen, dass der Rechner dann auch 10 Meter weit weg muss stehen und mehre Türen dazwischen sein müssen, dass man wirklich nichts mehr wahrnimmt.
BTW
Wenn ich auf dem Klo bin, will ich auch meine Ruhe haben.;)

LovesuckZ
2011-03-08, 14:12:49
250W ist bei weitem nicht das Limit. Lediglich wird beim Kühler gegeizt. Wenn ich mich richtig errinnere kosten die Coolermasterkühler keine 10$.

Ohne Verlängerung der Karte ist es überhaupt nicht mehr möglich. Oder man muss auf 3 Slot gehen. Aber für 2 Slot sind 250 Watt das maximalste.

y33H@
2011-03-08, 14:13:21
Asus hat's mit den Direct Cu II richtig gemacht, Triple-Slot = leise und kühl

derguru
2011-03-08, 14:17:59
kommt von asus auch bestimmt für die 6990,wäre jedenfalls zu begrüßen.

edit:im idle soll die Direct Cu II auch nicht gerade leise sein,laut cb.

airbag
2011-03-08, 14:19:44
kommt von asus auch bestimmt für die 6990,wäre jedenfalls zu begrüßen.

Dann kostet das Teil aber dann wieder 1000-1300 Euro und nennt sich Ares II. An eine Customlösung für MGPUkarten, glaube ich eigentlich nicht, außer wie gesagt als limitierte Sammlerauflage, weil die Karten eh schon teuer genug sind.

Spasstiger
2011-03-08, 14:20:58
Bei der HD 6990 hilft auch Direct CU II nicht mehr, um die Karte leise zu bekommen. Zumal wahrscheinlich die meisten Käufer den OC-Switch umlegen (oder eine OC-Variante ab Werk haben wollen) und noch ein wenig selbst am Takt drehen.
Hier wird denke ich ein durchdachtes Wakü-Konzept fällig mit eigenem Kreislauf nur für die Grafikkarte.

@airbag: Die HD 6990 ist mit dem OC-Switch, den 2*2 GiB VRAM und dem 450-Watt-PCB ja schon ab Werk eine Quasi-Ares. Hier ist nicht mehr viel Spielraum für Luxusausführungen. WaKü werden wir sicherlich ab Werk bei dem einen oder anderen Hersteller sehen.

N0Thing
2011-03-08, 14:25:02
Außerdem vergleicht man kein Single GPU mit einem Multi GPU System (solltest du eigentlich wissen).

Natürlich vergleicht man Single- mit Multi-GPU, sonst hätte man ja gar keine Referenz und keine Kenntnis über die Skalierung. Daß die Ergebnisse bei SLI und Crossfire auf Grund von MR nicht den Frames einer Single-GPU entsprechen, wird in guten Reviews mehr als einmal erwähnt.

Ich frage mich aber, was sich AMD bei dem OC-Schalter gedacht hat. Die Minimalen Verbesserungen bei den fps stehen für mich in keinem sinnvollen Verhältnis zur dadurch gesteigerten Leistungsaufnahme und Lautstärke. Das Geld für das Feintuning des OC-BIOS hätte sich AMD sparen können, oder in einen besseren Kühler investieren sollen.

LovesuckZ
2011-03-08, 14:26:35
Ich frage mich aber, was sich AMD bei dem OC-Schalter gedacht hat. Die Minimalen Verbesserungen bei den fps stehen für mich in keinem sinnvollen Verhältnis zur dadurch gesteigerten Leistungsaufnahme und Lautstärke. Das Geld für das Feintuning des OC-BIOS hätte sich AMD sparen können, oder in einen besseren Kühler investieren sollen.

Vielleicht will man für RMA nicht aufkommen? ;)
Wer das zweite Bios verwendet, verliert die Garantie.

airbag
2011-03-08, 14:31:19
Die HD 6990 ist mit dem OC-Switch, den 2*2 GiB VRAM und dem 450-Watt-PCB ja schon ab Werk eine Quasi-Ares.

Naja es fehlt nur der ein besserer Kühler.

Vielleicht will man für RMA nicht aufkommen?
Das sie für OC keine Garantie geben, ist verständlich. Ist es abe erlaubt diese zu verweigern, wenn sie einen solchen Schaltern anbieten ? Ich glaube nicht. Zumal fast 90% aller AGB nicht wirklich gültig sind.

Schrotti
2011-03-08, 14:34:12
Natürlich vergleicht man Single- mit Multi-GPU, sonst hätte man ja gar keine Referenz und keine Kenntnis über die Skalierung.

Sachverhalt gelesen und verstanden? ;) Du hast mein kleines Zitat komplett aus dem Zusammenhang gerissen.

Raff freut sich das die SingleGPU GTX 580 gegen eine 6990 verliert. Ja das ist natürlich erfreulich für AMD :eek:

Spasstiger
2011-03-08, 14:35:02
Der OC-Switch ist eine Komfortfunktion für Übertakter. Das zweite Bios erlaubt dank der höheren Spannung ein Übertakten jenseits der 900 MHz und wer seine Karte kaputt flasht, hat immer noch ein Reservebios. Ich kann mir vorstellen, dass die Supportabteilungen im Fall eines fehlgeschlagenen Flashversuchs zum Umstellen auf das Alternativbios raten.
Die Kosten, die AMD durch das Entwickeln des Bios-Switch hatte, sind denke ich vernachlässigbar, da ja alle Cayman-Karten mit diesem Feature daherkommen.

P.S.: Die Early-Adopter-Preise sind ja mal wieder stolz. Lieferbar ab 630€. Für das Geld bekommt man auch zwei Asus Radeon HD 6970 Direct CU II lieferbar. Wobei man da wegen Tripleslot-Kühlung bei der Boardwahl aufpassen muss, wenn man Crossfire fahren möchte.

derguru
2011-03-08, 14:47:52
oder fast 3*6950 2gb referenz (inkl.6970flash)

mFuSE
2011-03-08, 14:51:26
..Das belegt bestenfalls technische Inkompetenz der Testredaktionen,....
...D. h. CB verbreitet damit groteske Verbrauchertäuschung.


Eine ganz andere Sache übrigens die ich ebenfalls als hochgradig Schwierig ansehe:

Bis heute hat CB in ihrem Artikel den Abschnitt über den Multimonitorpart nicht kommentiert oder vervollständigt:
http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-560-ti-sli/28/#abschnitt_bluraymultimonitorverbrauch


Es wird suggeriert die GTX 560 könne nun endlich "richtig" den P12 State mit Multimonitor.
Das dem nicht so ist hat nun so ziemlich jeder andere bewiesen, zu lesen ist bei CB aber weiterhin nichts darüber ... :rolleyes:

Peter Gräber
2011-03-08, 15:25:18
Mit aktiviertem OC ist die HD 6990 bei CB die lauteste bislang geteste Karte.


Das ist sie bei uns aber auch - bis zu 11,8 sone
http://ht4u.net/reviews/2011/amd_radeon_hd_6990_antilles_test/index10.php

Nakai
2011-03-08, 16:06:11
Was soll daran perfekt sein?

Man nehme den GF110 und packe das ganze zweimal auf ein PCB. Schon ist AMD wieder hinten.

Da wär ich mir nicht so sicher. Einen durchgehenden Sieg wird man nicht schaffen.
Im Vergleich zum GF110 schlägt sich die Cayman, vor allem bei den hohen Settings, verdammt gut, genau in dem Bereich, wo die DualChip-Lösungen ihre Existenz haben.

Die GTX590 wird eher leicht oberhalb eines GTX570-SLI angesiedelt sein.

LovesuckZ
2011-03-08, 16:07:34
Da wär ich mir nicht so sicher. Einen durchgehenden Sieg wird man nicht schaffen.
Im Vergleich zum GF110 schlägt sich die Cayman, vor allem bei den hohen Settings, verdammt gut, genau in dem Bereich, wo die DualChip-Lösungen ihre Existenz haben.


Nunja - wenn man davon absieht, dass bei nVidia man wesentlich mehr hohe Settings zur Verfügung hat ohne 650€+ in einen Monitor zu investieren.
Ich habe es hier ja schonmal geschrieben: Gewinnen wird der, der mehr BQ-Möglichkeiten anbietet. Und das ist zZ immer noch nVidia. Selbst Multi-Monitor-Gaming ist ja kein Argument mehr.

Fetter Fettsack
2011-03-08, 16:09:40
Das sie für OC keine Garantie geben, ist verständlich. Ist es aber erlaubt diese zu verweigern, wenn sie einen solchen Schaltern anbieten ? Ich glaube nicht. Zumal fast 90% aller AGB nicht wirklich gültig sind.

Kommt ganz auf die genaue Vertragsgestaltung an und wird man wohl ohne den Wortlaut nicht so wirklich sagen können.

Spirou
2011-03-08, 16:16:42
Und Spirou, musst du eigentlich in jedem post immer direkt aggressiv und persöhnlich werden?
Ich kann überhaupt gar nicht persöhnlich geworden sein, weil ich mich nämlich immer zunächst ganz klar zwischen versöhnlich und persönlich entscheide, damit man mich nicht etwa falsch versteht. Und ich bin auch nie direkt aggressiv, sondern lieber indirekt, weil das bekanntlich nicht so gern gesehen wird.

Aber bevor wir hier völlig off topic abgleiten, würde ich schon gern wissen, wer denn bitteschön das Opfer meiner direkt aggressiven Persöhnlichkeit gewesen sein soll, weil ich hier doch noch niemanden angegriffen habe. Also bitte demnächst wenigstens einen dezenten Hinweis geben, was gemeint ist oder worauf man sich bezieht, damit ich wenigstens erfahre, wen ich denn nun mit welchem Wort umgebracht habe.

Das flappsige "Blödsinn." in meiner Erwiderung auf Spasstiger bitte ich als geringe Verfehlung zu entschuldigen, und gelobe Besserung. Es war wohl meiner Verärgerung über Wolfgangs seltsame Messungen geschuldet, die den Vergleich der Karten unglücklicherweise entwerten. Es ist generell für uns alle schlecht, wenn verschiedene Tests durch proprietäre Methoden an Vergleichbarkeit verlieren. Da gilt: Je Standard desto besser, auch wenn man das ohnehin nur bedingt erreichen kann.

Ich würde mir wünschen, die meist aus der Enthusiasten-Szene kommenden Tester würden sich auch in den abseits gelegenen Bereichen etwas mehr professionalisieren, was durch die Foren und darin auftauchende Hinweise sogar erleichtert wird, wenn man nicht wie bei CB immer wieder mal durchaus konstruktiv denkende Teilnehmer aus dem Forum ekeln würde.

So läuft es jetzt nämlich auf einen eigentlich für kaum noch jemanden interessanten Test hinaus, der nur noch als Erweiterung der CB-Testbibliothek taugt, also wohl eher der Selbstdarstellung dient.

Mich zum Beispiel interessiert die Karte höchstens als Kernstück eines ins Auge gefassten Eyefinitysetups für Stereoskopie, und ganz sicher nicht, um damit einen Standardmonitor mit dreistelligen FPS-Werten zu beschicken.

Das ist für solche Karten naheliegend, zumal im Bereich Stereoskopie Mikroruckeln prinzipbedingt gar keine Rolle spielt. Bis zu den Testredakteuren scheint sich das aber noch nicht rumgesprochen zu haben.

Raff
2011-03-08, 16:28:38
Der Ton macht die Musik. Du scheinst ja durchaus Ahnung und vielleicht auch Wissen zu haben, doch niemand wird deine Kompetenz ernsthaft würdigen, wenn du sie rundum mit reichlich indirektem "ihr seid alle Deppen" ausfüllst.

Raff freut sich das die SingleGPU GTX 580 gegen eine 6990 verliert. Ja das ist natürlich erfreulich für AMD :eek:

Das war kein Freuen. Das war eine respektvolle Anerkennung der HD-6990-Bildrate. Wenn die Karte 100 Prozent mehr Fps liefert als die GTX 580 (das passiert nur mit 8x SGSSAA ab und an), dann ist sie nämlich auch gefühlt besser/schneller €dit: bei nur 35 Fps nicht unbedingt. Natürlich wäre es trotzdem besser, diese Kraft in nur einem Chip zu haben – aber darüber brauchen wir eigentlich nicht zu diskutieren. :)

MfG,
Raff

Fetter Fettsack
2011-03-08, 16:36:41
Du musst aber auch bedenken, dass man sich bei einem Test wohl auch immer fragen muss, ob ein gesundes Aufwand-Nutzen-Verhältnis besteht. Schließlich ist soetwas ja auch nicht auf die Schnelle fertig gestellt, wodurch man dann natürlich auch möchte, dass viele etwas damit anfangen können. Wenn es nur sehr wenige interessiert, ist es zumindest für mich nachvollziehbar, dass anderen Dingen mehr Importanz zugemessen wird.

wenn man nicht wie bei CB immer wieder mal durchaus konstruktiv denkende Teilnehmer aus dem Forum ekeln würde.

Ich will hier der dortigen Moderation nichts vorwegnehmen, aber ich kann mir gut vorstellen, dass das z.T. der wenig sensiblen Vorgangsweise so mancher Poster geschuldet ist oder aber dem gelegentlichen Umstand, dass manche Threads aus verschiedenen Gründen (Troll-Kriege und ähnliches) baden gehen und dann eben auch sinnvolle Posts mitgerissen werden. Vor allem letzter Fall stellt, soweit ich das beurteilen kann, aber idR eher einen "Kollateralschaden" denn eine vorsätzliche Ignoranz gegenüber Kritik dar.

Meiner persönlichen Meinung nach gehen so manche auch mit einer zu großen Emotionalität an derlei heran. Wenn der eigene Vorschlag nicht umgesetzt wird (aus welchen Gründen auch immer), wird dann zuweilen gleich eine grobe Beleidigung der eigenen Person darin gesehen. Es kommt durchaus vor, dass manche sofort beleidigt / gekränkt sind, wenn ihnen gesagt wird "Nein, dein Vorschlag wird nicht umgesetzt". Meiner Ansicht nach sollte man sich derlei nicht gleich derart zu Herzen nehmen. :-)

EDIT:

Der Ton macht die Musik. Du scheinst ja durchaus Ahnung und vielleicht auch Wissen zu haben, doch niemand wird deine Kompetenz ernsthaft würdigen, wenn du sie rundum mit reichlich indirektem "ihr seid alle Deppen" ausfüllst.

Ok, so kann man es auch ausdrücken.^^

airbag
2011-03-08, 16:38:40
Kommt ganz auf die genaue Vertragsgestaltung an und wird man wohl ohne den Wortlaut nicht so wirklich sagen können.

Natürlich kommt es auf den Wortlaut an, aber es ist in der Praxis üblich dem Verbraucher zustehende Rechte per AGB einzuschränken, obwohl es nicht gültig wäre, weil die meisten sie ohne es zu hinterfragen hinnehmen.
Der Gewinn ist dementsprechend größer und gleicht es locker wieder aus, wenn sich ein paar Leute dennoch beschweren.

Bestes Beispiel sind die AGB für Software, die sehr oft nach deutschen AGB-Recht üngültig wären. (Behauptung von meinem Vertragsrecht Prof, der sich auf Internet- und Softwarerecht unteranderem spezialsiert hat)

Fetter Fettsack
2011-03-08, 16:46:29
Praktisch gesehen hast du schon recht, ich bin jetzt die Sache unter Ausblendung der Praxis ganz theoretisch angegangen, deshalb auch meine Aussage.

In realita sind gröblich benachteiligende Klauseln und völlig AGB unübliche Klauseln (zumindest bei uns) neben den diversen Verbraucherschutzbestimmungen idR natürlich ungültig (von Einzelfällen abgesehen).

LovesuckZ
2011-03-08, 16:51:07
Das war kein Freuen. Das war eine respektvolle Anerkennung der HD-6990-Bildrate. Wenn die Karte 100 Prozent mehr Fps liefert als die GTX 580 (das passiert nur mit 8x SGSSAA ab und an), dann ist sie nämlich auch gefühlt besser/schneller €dit: natürlich nicht bei nur 35 Fps! Natürlich wäre es trotzdem besser, diese Kraft in nur einem Chip zu haben – aber darüber brauchen wir eigentlich nicht zu diskutieren. :)

MfG,
Raff

"Respektvolle Anerkennung"? Die Karte ist nochmal 4cm länger als eine GTX580 und um ein vielfaches Lauter - dazu wird auch noch ein Teil der wärme nach hinten zu den HDDs abgegeben (http://www.anandtech.com/show/4209/amds-radeon-hd-6990-the-new-single-card-king/3).
Die Karte bietet soviele Nachteile, dass sie nicht mehr mit anderen Single-Karten vergleichbar ist. Man sollte also anfangen hier andere mGPU Systeme aus zwei Einzelkarten heranziehen. Die ziehen zwar vielleicht mehr Strom (wobei das auf dem Niveau schon egal ist), bieten aber die deutlich geringere Lautstärke und belasten nicht andere Kompomenten im System. Und durch Untervolting kann man sie nochmal sparsamer - und vorallem - leiser machen. Und das übertakten klappt dagegen auch besser, weil die Kühlung überlegender ist.

=Floi=
2011-03-08, 17:19:56
eine andere frage ist auch, ob man so etwas überhaupt braucht?!

normales sli/CF ist hier viel stärker im vorteil.

Spasstiger
2011-03-08, 17:21:14
Bei hardware.fr gibts eine Verbrauchsmessung der Karte direkt:

http://www.abload.de/img/img0031255rnkr.gif
Quelle: http://www.hardware.fr/articles/822-3/dossier-amd-radeon-hd-6990-carte-tous-records.html

Sind in Furmark 63% mehr als bei der Radeon HD 6970 und 13% mehr als bei der GeForce GTX 580. Sieht in Sachen Energieeffizienz also gar nicht schlecht aus. Trotzdem ist die Abwärme abartig. Und wenn man mal mit Übertakten anfängt, landet man vermutlich schnell über 500 Watt mit einer Grafikkarte. Das spart definitiv die Heizung im Winter. :freak:
Im NV-Vergleich schneidet die HD 6990 je nach Setting in diesem Review mal etwas besser, mal etwas schlechter als GTX 570 SLI ab:

http://www.abload.de/img/img00312887uyk.gif

eine andere frage ist auch, ob man so etwas überhaupt braucht?!
Imo nur, wenn man vier GPUs zusammen betreiben möchte.

y33H@
2011-03-08, 17:25:05
Diese Messungen gibt's auch bei HT4U und PCGH. Von 328W bis 506W alles dabei :ugly:

N0Thing
2011-03-08, 17:27:03
Sachverhalt gelesen und verstanden? ;) Du hast mein kleines Zitat komplett aus dem Zusammenhang gerissen.

Raff freut sich das die SingleGPU GTX 580 gegen eine 6990 verliert. Ja das ist natürlich erfreulich für AMD :eek:


Gelesen und verstanden. ;)
Raff hat sich dazu schon geäußert (er ist erfreut über die Skalierung der MGPU-Lösung und die
Balkenlänge im Vergleich zur schnellsten Single-GPU und nicht über eine Niederlage von Nvidia oder einen Sieg von AMD), deshalb ist für mich der Aspekt schon geklärt.

Mein Kommentar bezog sich nur auf deine Behauptung, daß man Single-GPU nicht mit Multi-GPU vergleichen sollte/dürfte und diese Aussage habe ich kritisiert und die Kritik begründet. (was du leider nicht komplett zitiert hast ;) )
Vergleichbar ist fast alles, es kommt aber auf die Schlüsse an die man daraus zieht.

LovesuckZ
2011-03-08, 17:31:39
Sind in Furmark 63% mehr als bei der Radeon HD 6970 und 13% mehr als bei der GeForce GTX 580. Sieht in Sachen Energieeffizienz also gar nicht schlecht aus.

Logo - wenn man den ungedrosselten Verbrauch einer GTX580 mit dem gedrosselten einer 6990 vergleicht. ;(

Spasstiger
2011-03-08, 17:44:09
Ja, die Messungen sind nur bedingt aussagekräftig. Eigentlich bräuchte man konkrete Spielemessungen mit Frames und Energieverbrauch pro Zeit. Dann könnte man die Energieeffizienz sinnvoll bestimmen.

dreas
2011-03-08, 17:49:05
Ja, die Messungen sind nur bedingt aussagekräftig. Eigentlich bräuchte man konkrete Spielemessungen mit Frames und Energieverbrauch pro Zeit. Dann könnte man die Energieeffizienz sinnvoll bestimmen.

frames pro watt wäre ein vernünftiger effizienzmesser.

Black-Scorpion
2011-03-08, 17:54:37
"Respektvolle Anerkennung"? Die Karte ist nochmal 4cm länger als eine GTX580 und um ein vielfaches Lauter - dazu wird auch noch ein Teil der wärme nach hinten zu den HDDs abgegeben (http://www.anandtech.com/show/4209/amds-radeon-hd-6990-the-new-single-card-king/3).
Die Karte bietet soviele Nachteile, dass sie nicht mehr mit anderen Single-Karten vergleichbar ist. Man sollte also anfangen hier andere mGPU Systeme aus zwei Einzelkarten heranziehen. Die ziehen zwar vielleicht mehr Strom (wobei das auf dem Niveau schon egal ist), bieten aber die deutlich geringere Lautstärke und belasten nicht andere Kompomenten im System. Und durch Untervolting kann man sie nochmal sparsamer - und vorallem - leiser machen. Und das übertakten klappt dagegen auch besser, weil die Kühlung überlegender ist.
Da siehst du mal wie groß die 580er ist. Das du dich darüber aufregst das eine mGPU Karte 4 cm länger ist wie eine Singlekarte kann nur dir einfallen.

Spasstiger
2011-03-08, 18:06:15
frames pro watt wäre ein vernünftiger effizienzmesser.
Du meinst sicherlich fps pro Watt, was gleichbedeutend mit Frames pro Joule ist. Frames pro Watt macht keinen Sinn.

Fetza
2011-03-08, 18:35:18
Doppelpost

Fetza
2011-03-08, 18:35:30
Das Interesse hier ist ja überwältigend. ;)

Naja, ist ja auch eine herzlich uninteressante karte. Zumindest wenn man stromverbrauch, preis und lautstärke als kriterium nimmt.

Perfekte Skalierung, GTX 580 sowas von chancenlos. Hach, könnte man die Antilles-Leistung doch nur in einen Chip pressen und dazu leise kühlen ...

Nächstes jahr geht das bestimmt. ;)

Matrix316
2011-03-08, 18:53:03
Wie sieht denn eine 4870X2 im Vergleich beim Stromverbrauch aus?

LovesuckZ
2011-03-08, 18:54:20
Wie sieht denn eine 4870X2 im Vergleich beim Stromverbrauch aus?

300 Watt beim Spielen, 370 Watt unter Furmark.

Blaire
2011-03-08, 18:56:59
Nunja - wenn man davon absieht, dass bei nVidia man wesentlich mehr hohe Settings zur Verfügung hat ohne 650€+ in einen Monitor zu investieren.
Ich habe es hier ja schonmal geschrieben: Gewinnen wird der, der mehr BQ-Möglichkeiten anbietet. Und das ist zZ immer noch nVidia. Selbst Multi-Monitor-Gaming ist ja kein Argument mehr.

Was ich bei den ganzen Reviews als Kritikpunkt vermisse, ist die Profilproblematik. Das ist eigentlich mit das Wichtigste bei MultiGPU. Denn ohne gescheite Profile wird man sehr schnell merken wie abhängig man von AMD ist.

Matrix316
2011-03-08, 19:00:19
300 Watt beim Spielen, 370 Watt unter Furmark.
Hm, dann dürfte ein 625 Watt Enermax nicht für die 6990 ausreichen, oder?

fondness
2011-03-08, 19:02:54
Hm, dann dürfte ein 625 Watt Enermax nicht für die 6990 ausreichen, oder?

PowerTune regelt zuverlässig bei 375W ab, alles andere hängt vom Restsystem und vom Netzteil ab.

boxleitnerb
2011-03-08, 19:02:59
Kann man die Profile nicht inzwischen selbst anpassen/erstellen mit dem RadeonPro...irgendwas Tool?

DrFreaK666
2011-03-08, 19:03:50
Was ich bei den ganzen Reviews als Kritikpunkt vermisse, ist die Profilproblematik. Das ist eigentlich mit das Wichtigste bei MultiGPU. Denn ohne gescheite Profile wird man sehr schnell merken wie abhängig man von AMD ist.

"Zum einen muss für ein Spiel überhaupt ein Multi-GPU-Profil im Treiber vorhanden sein, damit es von der zweiten GPU profitiert (diesbezüglich leistet AMD mit den wöchentlichen Profil-Updates in letzter Zeit eine lobenswerte Arbeit!), zum anderen holen auch die Radeon HD 6990 die Mikroruckler ein." ;)
http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-6990/31/#abschnitt_fazit

Ilendir
2011-03-08, 19:06:32
Teilweise 90% schneller als die GTX 580, das ist schon beeindruckend.
[...]

Dazu muss man natürlich auch sagen, dass sie, verglichen mit der GTX 580, teilweise auch langsamer oder gleichschnell ist! :uclap: :ulol:
(im Bezug auf die CB-Tests)

Wenn cherry-picking, dann richtig oder? :lol:

Spasstiger
2011-03-08, 19:11:05
Im Mittel sinds 50% Vorteil vor der GTX 580. :wink:
Wenn man halt 8xSGSSAA fährt, dann hat man in fast allen (kompatiblen) Spielen den Fall, dass die HD 6970 fast doppelt so schnell wie die GTX 580 ist. Klar, in 1680x1050 ohne AA schrumpft der Abstand öfters auf Null. Aber dafür kauft man sich keine High-End-Karte.

Blaire
2011-03-08, 19:12:59
Kann man die Profile nicht inzwischen selbst anpassen/erstellen mit dem RadeonPro...irgendwas Tool?

Nein. Nur halt das typische Exe Renaming. Die CF- Profile selber sind verschlüsselt. Das Problem ist die Vielzahl an Games, die Kombination der einzelnen Values ist wichtig, da nutzt Exe Renaming nur bedingt, gibts Grafikfehler oder Slowdowns ist man meist aufgeschmissen. Hinzu kommt das 2-Way, 3-Way und 4-Way unterschiedlich auf Profile reagieren...ein Spießrutenlauf.

derguru
2011-03-08, 19:17:00
amd ist so zackig was profile angeht das es kaum notwendig ist.

DrFreaK666
2011-03-08, 19:18:03
Und soweit ich weiss wird exe-renaming dank RadeonPro übeflüssig

airbag
2011-03-08, 19:22:03
Und soweit ich weiss wird exe-renaming dank RadeonPro übeflüssig

RadeonPro macht nichts anderes, wenn ich mich richtig errrinnere.

DrFreaK666
2011-03-08, 19:22:51
RadeonPro macht nichts anderes, wenn ich mich richtig errrinnere.

Ja schon, aber die exe bleibt unangetastet, oder?

boxleitnerb
2011-03-08, 19:25:31
Ist ja mistig. Hier verstehe ich nicht, warum AMD nicht ein Tool zur Verfügung stellt, mit dem man die Profile bei Bedarf entschlüsseln kann. Den Standarduser (gibts das bei MGPU überhaupt? :freak:) wird das nicht jucken, der Enthusiast kann aber rumbasteln und optimieren.

Generell finde ich, dass MGPU dafür, dass es das Aushängeschild von NV und AMD ist was Leistung angeht, recht stiefmütterlich behandelt wird. Sinnlose AA-Modi (SLI-AA bei NV, 16xSGSSAA schon wieder zu langsam bei AMD - afaik gibts kein CF-8xSGSSAA), Grafikfehler, AMD macht nichts gegen MR...wtf? Verstehe ich einfach nicht. Bei den letzten Themenabenden wollte ich NV und AMD fragen, ob man nicht wenigstens vernünftige SGSSAA-Modi implementieren kann für SLI/CF, die den Performancegewinn nicht gleich wieder komplett auffressen und man wieder bei 20 fps landet, aber ich habs verpennt.

airbag
2011-03-08, 19:27:27
Es gab keinen AMD Themenabend.:freak:
Man durfte mit den PCGH Jungs vorlieb nehmen, wenn ich mich richtig erinnere.

boxleitnerb
2011-03-08, 19:29:29
Es gab keinen AMD Themenabend.:freak:
Man durfte mit den PCGH Jungs vorlieb nehmen, wenn ich mich richtig erinnere.

Ja richtig. Bei NV hab ich es verpennt - blödes Downsampling hat allen die Show gestohlen :D
Wird der AMD-Themenabend eigentlich mal nachgeholt?

Nakai
2011-03-08, 19:41:28
Ist ja mistig. Hier verstehe ich nicht, warum AMD nicht ein Tool zur Verfügung stellt, mit dem man die Profile bei Bedarf entschlüsseln kann. Den Standarduser (gibts das bei MGPU überhaupt? ) wird das nicht jucken, der Enthusiast kann aber rumbasteln und optimieren.

AMD interessiert sich hald nicht so sehr für technisch interessierte Kunden. Der DAU ist jedem Hersteller eh am liebsten.

Naja Besserung gabs, aber an die Möglichkeiten und Qualität von NV beim Treiber ist man noch ein Stück entfernt. Aber wenns so weitergeht, dann werden sich diese Probleme auch irgendwann wegrationalisieren, auf die eine oder andere Art.

mironicus
2011-03-08, 19:44:10
Und wie wird NVidias Antwort aussehen? 3 x 8 Pin-Strom und 600 Watt Stromverbrauch? :D

LovesuckZ
2011-03-08, 19:48:30
Ist ja mistig. Hier verstehe ich nicht, warum AMD nicht ein Tool zur Verfügung stellt, mit dem man die Profile bei Bedarf entschlüsseln kann. Den Standarduser (gibts das bei MGPU überhaupt? :freak:) wird das nicht jucken, der Enthusiast kann aber rumbasteln und optimieren.

Generell finde ich, dass MGPU dafür, dass es das Aushängeschild von NV und AMD ist was Leistung angeht, recht stiefmütterlich behandelt wird. Sinnlose AA-Modi (SLI-AA bei NV, 16xSGSSAA schon wieder zu langsam bei AMD - afaik gibts kein CF-8xSGSSAA), Grafikfehler, AMD macht nichts gegen MR...wtf? Verstehe ich einfach nicht. Bei den letzten Themenabenden wollte ich NV und AMD fragen, ob man nicht wenigstens vernünftige SGSSAA-Modi implementieren kann für SLI/CF, die den Performancegewinn nicht gleich wieder komplett auffressen und man wieder bei 20 fps landet, aber ich habs verpennt.

SuperSampling kostet Leistung. Damit muss man sich abfinden. Man benötigt ca. immer die doppelte Leistung von 2x -> 4x -> 8x.
mGPU ermöglicht also im gewissen Rahmen entweder mit 60 FPS und SSAA oder aber mit mehr Samples bei gleicher FPS spielen zu können.
Man muss sich bei SuperSampling einfach davon lösen, dass der Leistungsverlust genauso hoch/klein wie bei MSAA ist.

boxleitnerb
2011-03-08, 20:06:11
SuperSampling kostet Leistung. Damit muss man sich abfinden. Man benötigt ca. immer die doppelte Leistung von 2x -> 4x -> 8x.
mGPU ermöglicht also im gewissen Rahmen entweder mit 60 FPS und SSAA oder aber mit mehr Samples bei gleicher FPS spielen zu können.
Man muss sich bei SuperSampling einfach davon lösen, dass der Leistungsverlust genauso hoch/klein wie bei MSAA ist.

Ach was :eek:
Spass beiseite - MGPU bietet Leistung. Da will ich entscheiden können, ob ich lieber mehr fps oder mehr BQ hab. Im Prinzip hat man die Wahl ja auch. Beim CF-SGSSAA geht es aber darum, dass durch irgendeine Besonderheit (frag mich nicht was genau da passiert, ich hab das mal wo gelesen) keine Mikroruckler auftreten sollen. Null. Nada. Nur hab ich davon nix, wenn ich bei 20 fps rumgurke, weil ich nichts kleineres als 16xSGSSAA einstellen kann. Deshalb würde ich mir für CF zusätzlich 4x und 8xSGSSAA als CF-AA-Modus wünschen. Bei NV übrigens auch. MSAA als SLI-AA ist in Zeiten von intensiver Shadernutzung out. Von perfekt geglätteten Kanten hab ich nichts, wenn der Rest des Bildes flimmert wie doof. Das wäre doch ein toller Grund für MGPU: Perfekte BQ, perfekte Skalierung, keine MR.

An die Gurus:
Warum gibt es bei SGSSAA, das speziell als MGPU-Modus angepasst ist (?) keine Mikroruckler? Könnte das auch mit 4x und 8x funktionieren oder gar mit anderen AA-Modi (OGSSAA z.B.)? Wenn es zu OT wird, kann man das auch in einen neuen Thread auslagern.

Spasstiger
2011-03-08, 20:35:32
Bei CF-SGSSAA rechnen beide GPUs am selben Frame, wobei jede GPU 8 von 16 SGSSAA-Samples berechnet. Nachteil dieser Methode ist, dass ein und dasselbe Bild zweimal gerastert werden muss (eben von jeder GPU einmal). Darunter leidet die Skalierung und zwar umso stärker, je weniger Farbsamples pro Bild berechnet werden müssen. 4xCF-SGSSAA würde wahrscheinlich recht bescheiden skalieren. Die Frage ist, ab wann die fast 100%-ige Skalierung bei Alternate Frame Rendering (AFR) trotz Mikroruckler gegenüber einer schlecht skalierenden CF-SGSSAA-Variante im Vorteil ist.
Um Benchmarks zu gewinnen und Crossfire auch gegenüber den Single-GPU-Produkten gut aussehen zu lassen, nimmt man natürlich immer AFR. Bei 16xSG-SSAA funktioniert AFR allerdings nicht, weil die GPUs jeweils nur 8 Samples beherrschen.

boxleitnerb
2011-03-08, 20:41:08
Danke schonmal für die Erklärung :)

Was genau hat die Samplezahl mit der Skalierung zu tun? Meinst du, wenn die Sampleberechnungen so lange dauern, fällt die fixe (?) Rasterungszeit nicht mehr so sehr ins Gewicht? Funktioniert AFR dann generell nicht, wenn die Sampleberechnungen beim selben Bild auf zwei Karten aufgeteilt werden? Wenn am selben Bild gerechnet wird, ist es ja per Definition kein AFR mehr, richtig? Dein letzter Satz klingt so, als würde AFR mit 16x (pro Karte 8 Samples) nicht gehen, mit 8x (4,4) aber schon?

Edit:
8 Samples reichen doch. 8+8=16...?

Spasstiger
2011-03-08, 20:46:52
8xSGSSAA wird bei Crossfire mit AFR berechnet, das heißt die GPUs berechnen unabhängig voneinander verschiedene Frames mit ganz normalem 8xSGSSAA wie es auch bei Single-GPU der Fall wäre. Damit wird jeder Frame nur einmal gerastert, so dass effektiv die doppelte Frontendleistung gegenüber einer GPU zur Verfügung steht.
16xSGSSAA kann eine einzelne GPU gar nicht berechnen (max. 8 Samples), deshalb geht hier AFR auch nicht (im AFR geht nur das, was auch eine einzelne GPU alleine kann). AMD griff bei 16xSGSSAA auf den Trick zurück, die Samples aus der 16x-Maske in zwei 8x-Masken aufzuteilen. Wenn eine GPU 16 Samples berechnen könnte, dann würde AMD auch hier AFR einsetzen.

Meinst du, wenn die Sampleberechnungen so lange dauern, fällt die fixe (?) Rasterungszeit nicht mehr so sehr ins Gewicht?
Richtig.

Raff
2011-03-08, 20:50:59
Hm. Jetzt, wo AMD das Frontend gegenüber Evergreen aufgepumpt hat, könnte man sie nochmal an solche Dinge erinnern ... =)

MfG,
Raff

boxleitnerb
2011-03-08, 20:58:52
Okay, d.h. man muss immer Kompromisse eingehen. Entweder gute Skalierung und Mikroruckler (AFR, 8xSGSSAA) oder schlechte Skalierung und keine Mikroruckler (kein AFR, 16xSGSSAA). Sprich, es ist das alte Problem, dass AFR gute Skalierung aber eben auch MR bedingt?

Jetzt muss ich aber nochmal nachfragen:
Ist die Skalierung so schlecht, weil das Bild 2x gerastert wird oder weil kein AFR eingesetzt wird? Oder ist das dasselbe?

derguru
2011-03-08, 21:13:16
wie kommst du denn auf schlechte skalierung bei 16xsgssaa?

boxleitnerb
2011-03-08, 21:15:52
Spasstiger hat ja gemeint, kein AFR bei 16x. Und ohne AFR ist die Skalierung ja generell mies. Vielleicht werfe ich da auch was durcheinander, weiß nicht.

derguru
2011-03-08, 21:22:27
naja ich habe nicht viel mit 16xsgssaa testen können weil es halt sehr inkompatibel ist aber wenn dann war das verhältnis ähnlich wie von 4 auf 8x sgssaa.

horn 12
2011-03-08, 21:52:05
Also bei diesen teils doch recht ernüchternden, möchte vielleicht gar behaupten "miesen Konsolenumsetzungen" verrichtet meine Sapphire HD6950 2GB (ReferenzDesign) um damals 263 Euro inkl. Versand durchaus bis Ende des Jahres DEN GERECHTEN Dienst als Grafikkarte.

Zudem gind die vorherige Sapphire HD5850 für 130 Euro an den Mann.

Fazit für die HD6990 / bald auch GTX 590:
Besser man spart das nötige "Kleingeld"! (in meinen Vermessen wohl zum Fenster verpulverisierenden >350 Euro)
und investiert anschließend zum Richtigen Zeitpunkt (ABER DANN Ordentlich)
in die kommenden 28um Grafikkarten Ende dieses Jahr, ----> sprich besser erst Anfang 2012 da vorher wohl sehr sehr schwierig wird...

Bis dahin sollte selbst eine HD6950/ GTX 570 ausreichen.

Spasstiger
2011-03-08, 21:56:49
wie kommst du denn auf schlechte skalierung bei 16xsgssaa?
16x sollte gehen. Man hat zwar vermutlich nicht die gleiche Framerate wie mit Single-GPU @ 8xSGSSAA, aber die Skalierung durch die zweite GPU sollte noch brauchbar sein .
Aber bei 4xCF-SGSSAA wäre die Skalierung vermutlich recht mies im Vergleich zu normalem 4xSGSSAA @ Crossfire.

seaFs
2011-03-08, 23:07:24
[...] AMD macht nichts gegen MR...wtf? Verstehe ich einfach nicht.[...]
Das ist einfach eine Kostesache.
Da gab es ein Interview mit einem Ingenieur bei AMD, der sowohl den RV770 als auch den RV870 mitentwickelt hat.
Darin sagte er, dass bei der HD4870 X2 der Sideport mit eingebaut wurde, aber nicht aktiviert (wohl aus thermischen Gründen). Der Sideport erlaubt direkte Kommunikation der GPUs auf einem Board (!) untereinander, ohne dabei das PCI-E-Interface zu belasten. Dadurch hätte man, zumindest auf dem Papier, der Microrucklersache Herr werden können. Ab RV870 gab es dann den Sideport nicht mehr, da auf einen möglichst kleinen Die gesetzt wurde.

[Edit] Link zum Thema Sideport im Interview mit Carrell Killebrew: http://www.anandtech.com/show/2937/5

boxleitnerb
2011-03-08, 23:11:12
Das ist einfach eine Kostesache.
Da gab es ein Interview mit einem Ingenieur bei AMD, der sowohl den RV770 als auch den RV870 mitentwickelt hat.
Darin sagte er, dass bei der HD4870 X2 der Sideport mit eingebaut wurde, aber nicht aktiviert (wohl aus thermischen Gründen). Der Sideport erlaubt direkte Kommunikation der GPUs auf einem Board (!) untereinander, ohne dabei das PCI-E-Interface zu belasten. Dadurch hätte man, zumindest auf dem Papier, der Microrucklersache Herr werden können. Ab RV870 gab es dann den Sideport nicht mehr, da auf einen möglichst kleinen Die gesetzt wurde.

Der Sideport hat nur 5GB/s pro Richtung geliefert - da schafft PCIe inzwischen mehr. Was der Sideport mit der gleichmäßigen FPS-Ausgabe zu tun haben soll, erschließt sich mir nicht.

Angiesan
2011-03-08, 23:25:37
Der Sideport hat nur 5GB/s pro Richtung geliefert - da schafft PCIe inzwischen mehr. Was der Sideport mit der gleichmäßigen FPS-Ausgabe zu tun haben soll, erschließt sich mir nicht.

Soweit ich das in Erinnerung habe sollte der Sideport auch nicht dem Datenaustausch alla PCIe ersetzten sondern vielmehr eine Vernetzung der beiden GPUs dienen, man wollte somit auf das AFR Verfahren verzichten und die beiden GPUs hätten wie eine angesprochen werden können, also wenn man so möchte eine GPU mit zwei Kernen. Eigentlich genau das was man gemeinhin von Multigpu-Systemen erwarten möchte annähernd doppelte Leistung ohne Nachteile in der IQ.

Aquaschaf
2011-03-09, 00:04:46
Dadurch hätte man, zumindest auf dem Papier, der Microrucklersache Herr werden können.

Nö, an der Problematik ändert der Sideport nichts.

seaFs
2011-03-09, 00:20:27
http://www.anandtech.com/show/2937/5
The whole point of doing CrossFire in alternate frame rendering mode (AFR) is that the chips never have to talk. The minute you have to start synchronizing them, you kill performance. Sideport was supposed to alleviate that.
Dem Schema nach zu urteilen klingt das erstmal nach geringeren Latenzen bezogen auf die PCIe-Bridge...

mironicus
2011-03-09, 08:28:24
Bei Dragon Age 2 sind die AMD-Karten richtig gut. Die GTX 580 dagegen...

http://www.hardwareheaven.com/reviews/1127/pg9/amd-radeon-hd-6990-graphics-card-review-dragon-age-2.html

Scheint auch endlich mal ein AMD-optimierter Titel zu sein:

Dragon Age 2 will be a key title for AMD in the coming months as it is AMD 3D enabled and it is one of the few (the first) which will support 5x1 portrait Eyefinity mode for those who can afford a high end setup. That said, at 5760x1080 it is already a very demanding game and it will take two 6990s to power those five displays without image quality compromises.

boxleitnerb
2011-03-09, 08:35:04
Mit aktuellen Treibern gibts Performanceprobleme. Es gibt einen Betatreiber für DA2 - würde mal nicht zu voreilig sein :)

derguru
2011-03-09, 13:21:55
Sapphire Radeon HD 6990 CrossFire Graphics Card Review (http://www.hardwareheaven.com/reviews/1128/pg1/sapphire-radeon-hd-6990-crossfire-graphics-card-review-introduction.html)

PowerColor Radeon HD 6990 CrossFire (http://www.techpowerup.com/reviews/Powercolor/Radeon_HD_6990_CrossFire/)

PHuV
2011-03-09, 13:30:39
Sapphire Radeon HD 6990 CrossFire Graphics Card Review (http://www.hardwareheaven.com/reviews/1128/pg1/sapphire-radeon-hd-6990-crossfire-graphics-card-review-introduction.html)

PowerColor Radeon HD 6990 CrossFire (http://www.techpowerup.com/reviews/Powercolor/Radeon_HD_6990_CrossFire/)

Crysis 2 mit GTX 580 SLI ist langsamer als eine 580er Single? :| Können die nicht mal ein Profil anpassen oder anlegen? :rolleyes:

Und bei Shogun 2 halb so langsam? :|

san.salvador
2011-03-09, 13:32:55
Crysis 2 mit GTX 580 SLI ist langsamer als eine 580er Single? :| Können die nicht mal ein Profil anpassen oder anlegen? :rolleyes:
Wann ist Crysis 2 nochmal erschienen?

fondness
2011-03-09, 13:33:32
Crysis 2 mit GTX 580 SLI ist langsamer als eine 580er Single? :| Können die nicht mal ein Profil anpassen oder anlegen? :rolleyes:

Und bei Shogun 2 halb so langsam? :|

Das ist NVs-Job, das Argument mit dem herumgefrickel ist ein schwaches.

PHuV
2011-03-09, 13:35:59
Wann ist Crysis 2 nochmal erschienen?

Was hat das damit zu tun?

Das ist NVs-Job, das Argument mit dem herumgefrickel ist ein schwaches.

Warum, ist doch mit Nivdia Inspector kein Thema? Für einen seriösen Test kann man das von einem Tester erwarten, maximale Performance rauszuholen.

derguru
2011-03-09, 13:36:53
Crysis 2 mit GTX 580 SLI ist langsamer als eine 580er Single? :| Können die nicht mal ein Profil anpassen oder anlegen? :rolleyes:

Und bei Shogun 2 halb so langsam? :|
profile anzulegen ist nicht die aufgabe der redakteure.(aber es gibt auch ein sli-patch (http://www.nvidia.com/object/nvidia-multigpu-SLI-profile-update-v7-driver.html) zur demo,so ist es nicht)

PHuV
2011-03-09, 13:43:41
profile anzulegen ist nicht die aufgabe der redakteure.(aber es gibt auch ein sli-patch (http://www.nvidia.com/object/nvidia-multigpu-SLI-profile-update-v7-driver.html) zur demo,so ist es nicht)

Klar, Tanken bei Autotests auch nicht, oder? :rolleyes:

So ein Profil ist in ein paar Minuten erstellt, oder sind die Redakteure zu blöde dafür, was jeder einigermaßen Computerbesitzer locker hinbekommt. Ich würde es ja verstehen, wenn anspruchsvoll Code ediert oder kompiliert werden muß, aber so? Klickibunti ist doch kein Problem! :rolleyes:

fondness
2011-03-09, 13:49:05
Warum, ist doch mit Nivdia Inspector kein Thema?
Für einen seriösen Test kann man das von einem Tester erwarten, maximale Performance rauszuholen.

Welche Forderung kommt als nächstes? Bei Grafikfehlern solle man doch bitte alle möglichen Profile und Kompatibitätsbits, AA-bits und weiß der Geier was es da noch alles gibt testen? Nene, für soetwas habe ich weder Zeit noch Nerven.

Die IHVs haben dafür zu sorgen das ein Spiel läuft, sowas auf die Reviewer bzw. die User abzuwälzen ist letztklassig. Getestet werden soll wie es out-of-the-box läuft. Wer scharf drauf ist bei jedem Spiel vorher Stunden herumzutüfteln kann das ja gerne machen.

Klar, Tanken bei Autotests auch nicht, oder? :rolleyes:


Der Vergleich hinkt. Vergleichbar dazu wäre in etwa der Strom bei Grafikkarten. Und nein, auch bei einem Autotest ist es nicht Aufgabe des Testers für jede Bedingung das perfekte Setup zu finden um eine möglichst gute Performance zu erzielen.

boxleitnerb
2011-03-09, 13:51:08
Das sehe ich auch so. Allerdings ist es nicht zuviel verlangt, vorher die aktuellsten Treiber bzw. Profile überhaupt herunterzuladen und zu installieren.

Raff
2011-03-09, 13:52:24
Genau so ist es. Zumal es sich beim Problem der nichtvorhandenen Skalierung um ein Multi-GPU-exklusives handelt. Auf einer Single-GPU läuft's – und so kriegt es der Kunde vorgesetzt. So sollte es auch getestet werden.

MfG,
Raff

derguru
2011-03-09, 13:57:38
Das sehe ich auch so. Allerdings ist es nicht zuviel verlangt, vorher die aktuellsten Treiber bzw. Profile überhaupt herunterzuladen und zu installieren.
ich finde das es selbst nachträgliche profile-updates da nicht hingehören,man kann es anmerken aber mMn sollte man nur mit dem aktuellen treiber benchen und gut ist.

boxleitnerb
2011-03-09, 14:00:09
Was heißt nachträglich? Bei einem SLI-Review sollte alles auf dem aktuellsten Stand sein, mehr nicht. Rumbasteln muss man nicht, das kann niemand verlangen. Denn wenn man sowas schon testet, sollte man sich auch der Profilabhängigkeit bewusst sein.

derguru
2011-03-09, 14:07:15
aktuellster whql stand aber nicht beta und dann sind viele profil-updates noch nicht nutzbar wie auch beim crysis2 profil-update.

Spirou
2011-03-09, 14:12:46
Auf einer Single-GPU läuft's – und so kriegt es der Kunde vorgesetzt. So sollte es auch getestet werden.

Mit der Einschränkung, daß man Spiele, bei denen der Redakteur aus seiner Erfahrung abschätzen kann, daß in Kürze ein Profilproblem behoben wird, vielleicht nicht in den beliebten Leistungsindizes berücksichtigen sollte.

Bei allzu frischen Games dürfte das auf eine Gewissensproblematik hinauslaufen, weil die zum einen viele erwähnt und mitgetestet sehen wollen, zum anderen aber auch den Eindruck verfälschen, wenn man bedenkt, daß so ein Review üblicherweise noch monatelang verlinkt, gelesen und berücksichtigt wird.

Am Ende ist angesichts der Patcherei und Profilverbesserei der Redakteur der Dumme, wenn seine Ergebnisse irgendwann nicht mehr nachvollziehbar sind.

Vielleicht sollte man für MGPU-Karten verschiedene Tabellen erstellen, in der einen Gruppe die Ergebnisse mit offensichtlich gegebener Skalierung, in der anderen die ohne und den Mittelwert als Zusatzinfo.

dildo4u
2011-03-09, 14:16:02
NV wird zum Launch des Games ein neuen Treiber mit integriertem SLI Profil haben schon wegen der GTX590.

PHuV
2011-03-09, 14:35:09
Bei allzu frischen Games dürfte das auf eine Gewissensproblematik hinauslaufen, weil die zum einen viele erwähnt und mitgetestet sehen wollen, zum anderen aber auch den Eindruck verfälschen, wenn man bedenkt, daß so ein Review üblicherweise noch monatelang verlinkt, gelesen und berücksichtigt wird.

Genau das ist das Problem. Es steht dann ein für alle Male ein falsches Ergebnis drin. Die wenigsten Online-Redakteure liefern dann korrekte und aktuelle Ergebnisse nach. Nur weil jemand aktuelle Profile aufgrund eines neueren GK-Releases liefert, wird dann die andere Lösung vermeidlich signifikant schlechter dargestellt. Wie gesagt, eine Profiländerung ist doch kein Hexenwerk. :rolleyes: Realitätsnahe nenne ich das nicht.

fondness
2011-03-09, 14:42:26
Genau das ist das Problem. Es steht dann ein für alle Male ein falsches Ergebnis drin. Die wenigsten Online-Redakteure liefern dann korrekte und aktuelle Ergebnisse nach. Nur weil jemand aktuelle Profile aufgrund eines neueren GK-Releases liefert, wird dann die andere Lösung vermeidlich signifikant schlechter dargestellt. Wie gesagt, eine Profiländerung ist doch kein Hexenwerk. :rolleyes: Realitätsnahe nenne ich das nicht.

Ein Ergebnis ist und wird auch nicht falsch nur weil zukünftige Treiber ein neues/besseres Profil liefern. Es wird für jeden nachvollziehbar der verwendete Treiber angegeben. Wenn man so argumentiert sind alle Ereignisse, auch bei Single-GPUs falsch, sobald ein neuer Treiber erscheint und irgendwo ein paar Prozent mehr Leistung rausquetscht.

Spirou
2011-03-09, 22:40:03
irgendwo ein paar Prozent mehr Leistung rausquetscht.
Es geht bei CF/SLI aber nicht um ein paar Prozent. Ohne taugliches Profil skaliert eine zweite GPU praktisch gar nicht, mit aber um 70%, und teilweise sogar mehr.

Das geht ja schon in Richtung einer Verdopplung und macht sich dementsprechend auch in den Performace-Ratings bemerkbar, wobei der Anteil solcher Fälle bei der Mittelwertbildung dann aber nicht mehr transparent ist.

Da sich inzw. herumgesprochen hat, daß die durchschnittliche Performance durch neuere Treiber keine großen Sprünge macht, ist das irritierend bis irreführend.

Schlammsau
2011-03-15, 16:25:00
XFX und Sapphire: Garantie für HD 6990 erweitert (Update) (http://www.computerbase.de/news/hardware/grafikkarten/ati/2011/maerz/xfx-und-sapphire-garantie-fuer-hd-6990-erweitert/)

Sapphire hat uns nach der ersten Meldung kontaktiert und dazu Stellung bezogen. Demnach seien die Karten von Sapphire ebenfalls von der vollen Garantie abgedeckt, wenn der Kunde den Overclocking-Schalter betätigt. Voraussetzung dafür ist jedoch, dass das restliche System des Kunden auch mit einer derartigen Karte fertig werden kann. Dabei zielt man insbesondere auf eine ordentliche Kühlung und ein sehr großes Netzteil ab, das die maximale Boardpower von bis zu 450 Watt stemmen kann. Wenn dies der Fall ist, kann der Käufer einer Sapphire Radeon HD 6990 den „AUSUM“-Switch bedenkenlos betätigen und genießt dabei die volle Garantie.

Blaire
2011-03-18, 19:44:54
6990 im 4-Way CF vs. GTX580 3-Way von Trubritar:

Crysis:
http://www.youtube.com/watch?v=acqSUoPnQzA&feature=channel_video_title

Metro 2033:
http://www.youtube.com/watch?v=yzb_fjjVlYQ&feature=channel_video_title

AVP DX11:
http://www.youtube.com/watch?v=9GWIlrYMTec&feature=channel_video_title

Heaven:
http://www.youtube.com/watch?v=Z6xcQFJNHNY&feature=channel_video_title

Vor allem in Crysis und Heaven sieht man sehr schön das es auch trotz gleicher FPS die kurzen "Ruckler" bei CF deutlich ausgeprägter sind.

Knuddelbearli
2011-03-18, 19:49:02
ok ist aber auch kein gamnz fairer vergleich auch sli 4 way ruckelt extrem. ansonsten war das ja so zu erwarten

fondness
2011-03-18, 19:49:17
6990 im 4-Way CF vs. GTX580 3-Way von Trubritar:

Crysis:
http://www.youtube.com/watch?v=acqSUoPnQzA&feature=channel_video_title

Metro 2033:
http://www.youtube.com/watch?v=yzb_fjjVlYQ&feature=channel_video_title

AVP DX11:
http://www.youtube.com/watch?v=9GWIlrYMTec&feature=channel_video_title

Heaven:
http://www.youtube.com/watch?v=Z6xcQFJNHNY&feature=channel_video_title

Vor allem in Crysis und Heaven sieht man sehr schön das es auch trotz gleicher FPS die kurzen "Ruckler" bei CF deutlich ausgeprägter sind.


Eine unterschiedliche Anzahl an GPUs ist prinzipiell nicht vergleichbar.

Blaire
2011-03-18, 19:56:46
Eine unterschiedliche Anzahl an GPUs ist prinzipiell nicht vergleichbar.

Eigentlich müsste 4-Way CF ja Vorteile haben, aber wie man sieht gibt es diese nicht. Die kurzen "Stehenbleiber" sind bei 4-Way SLI jedenfalls nicht vorhanden. Obwohl 4-Way SLI auch extrem grenzwertig ist und hohe FPS erfordert.

fondness
2011-03-18, 20:05:26
Eigentlich müsste 4-Way CF ja Vorteile haben, aber wie man sieht gibt es diese nicht.

Nein, es haben natürlich weniger GPUs prinzip bedingt Vorteile bei dem Microrucklern.


Die kurzen "Stehenbleiber" sind bei 4-Way SLI jedenfalls nicht vorhanden. Obwohl 4-Way SLI auch extrem grenzwertig ist und hohe FPS erfordert.

Dazu braucht es objektive Messungen. Nach allem was ich bis jetzt gesehen habe kommt es auf die App an, eine Pauschalaussage ist wie so oft nicht zulässig.

Blaire
2011-03-18, 20:17:00
Nein, es haben natürlich weniger GPUs prinzip bedingt Vorteile bei dem Microrucklern.

Mit 2 vs. 2 (HD6990 vs. 2xGTX580] ist das gleiche zu sehen, im Trubritar Channel gibt es auch die Videos dazu. Das hat mit mehr oder weniger GPUs nichts zu tun, die kurzen "Stehenbleiber" sind bei SLI nicht vorhanden. Aber wahrscheinlich muss man beides kennen um überhaupt zu sehen was gemeint ist.

fondness
2011-03-21, 19:10:34
Bald auch in leise:

http://img715.imageshack.us/img715/6927/4jaxm2u0.png (http://img715.imageshack.us/i/4jaxm2u0.png/)

http://www.computerbase.de/news/hardware/grafikkarten/ati/2011/maerz/erster-wasserkuehler-fuer-amd-radeon-hd-6990-gesichtet/

Knuddelbearli
2011-03-21, 19:27:01
hoffentlich mit ordentlicher spawa kühlung

fondness
2011-03-22, 21:04:15
Mit 2 vs. 2 (HD6990 vs. 2xGTX580] ist das gleiche zu sehen, im Trubritar Channel gibt es auch die Videos dazu. Das hat mit mehr oder weniger GPUs nichts zu tun, die kurzen "Stehenbleiber" sind bei SLI nicht vorhanden. Aber wahrscheinlich muss man beides kennen um überhaupt zu sehen was gemeint ist.

Bei HT4U gibt es neben einen ziemlich ausführlichen Test auch mal wieder Messungen der Frametimes:

http://ht4u.net/reviews/2011/performancevergleich_grafikkarten_quartal_1_2011/index4.php

Das Nvidia bei dem Microrucklern hier irgendwie besser abschneidet, geben die Fakten einfach nicht her. Je nach Anwendung sind sie mehr oder weniger stark ausgeprägt, aber sie sind definitiv vorhanden und zwar unabhängig vom Hersteller.

Blaire
2011-03-22, 21:53:03
Bei HT4U gibt es neben einen ziemlich ausführlichen Test auch mal wieder Messungen der Frametimes:

http://ht4u.net/reviews/2011/performancevergleich_grafikkarten_quartal_1_2011/index4.php

Das Nvidia bei dem Microrucklern hier irgendwie besser abschneidet, geben die Fakten einfach nicht her. Je nach Anwendung sind sie mehr oder weniger stark ausgeprägt, aber sie sind definitiv vorhanden und zwar unabhängig vom Hersteller.

Mikroruckler sind bei SLI/CF vorhanden, niemand hat etwas anderes behauptet. Trotzdem sind diese auf CF ausgeprägter. Selbst Hardocp.com schreibt:
"Beyond that though, GTX 580 SLI provided the smoothest gameplay. There was less choppiness with SLI and it seemed lower framerates felt smoother on GTX 580 SLI than it did with 6990 or 6970 CFX. If you've got the cash to burn, you can't beat GTX 580 SLI for true multi-display gaming performance."
http://hardocp.com/article/2011/03/07/amd_radeon_hd_6990_antilles_video_card_review/9

Knuddelbearli
2011-03-22, 22:55:35
also bei HT4u einzig und alleine eine Konfiguration beinahe Ruckelfrei und das ist eine ATI. HT4u hat auch Zahlenwerte aka Beweise und nicht nur einen Subjektiven eindruck. Den jeder weiss niemand ist absolut neutral schon gar nicht die tester

Natürlich ist HT4u auch nicht der weisheits letzer Schluss aber deine Aussage ( Blair ) passt da mal überhaupt nicht dazu. Auch CBs letzer CF SLI Test sah einen gleichstand nach messwerten

Blaire
2011-03-23, 00:16:00
Natürlich ist HT4u auch nicht der weisheits letzer Schluss aber deine Aussage ( Blair ) passt da mal überhaupt nicht dazu. Auch CBs letzer CF SLI Test sah einen gleichstand nach messwerten

Nein?
http://www.computerbase.de/artikel/grafikkarten/2011/test-radeon-hd-6900-cf-vs.-geforce-gtx-500-sli/20/#abschnitt_das_problem_mikroruckler
Stand der Dinge: Während AMD-Kunden mit CrossFire in vielen Spielen mit Mikrorucklern zu kämpfen haben, sieht es für die Nvidia-Käufer mit SLI zwar etwas besser aus, Mikroruckler gibt es dort aber genauso – sie sind meistens (nicht immer) jedoch weniger stark ausgeprägt.

Black-Scorpion
2011-03-23, 18:21:11
Mikroruckler sind bei SLI/CF vorhanden, niemand hat etwas anderes behauptet. Trotzdem sind diese auf CF ausgeprägter. Selbst Hardocp.com schreibt:
"Beyond that though, GTX 580 SLI provided the smoothest gameplay. There was less choppiness with SLI and it seemed lower framerates felt smoother on GTX 580 SLI than it did with 6990 or 6970 CFX. If you've got the cash to burn, you can't beat GTX 580 SLI for true multi-display gaming performance."
http://hardocp.com/article/2011/03/07/amd_radeon_hd_6990_antilles_video_card_review/9
Wenn es die Seite schreibt muss es ja stimmen. Das sind doch die Künstler die OC Nvidia Karten gegen Standardkarten testen.

y33H@
2011-03-23, 19:18:05
Das Nvidia bei dem Microrucklern hier irgendwie besser abschneidet, geben die Fakten einfach nicht her. Je nach Anwendung sind sie mehr oder weniger stark ausgeprägt, aber sie sind definitiv vorhanden und zwar unabhängig vom Hersteller.NV µRuckelt weniger, das wird immer und immer wieder bewiesen - zB erneut in der kommenden PCGH 05/2011.

Raff
2011-03-23, 19:21:31
Mit der richtigen Spiele-Selektion findet man gewiss für jede Aussage ("AMD mikrospackt weniger" bzw. "Nvidia mikrosuckt weniger") die richtigen Belege. Die Wahrheit ist nämlich, dass beide nicht perfekt sind. Nvidia ist bestenfalls "weniger scheiße". :ulol: Aber das wirst du BlackScorpion, der alles Kritische gegenüber AMD kleinredet, nicht klarmachen können.

MfG,
Raff

Black-Scorpion
2011-03-23, 19:27:30
Deine Spitzen kannst du stecken lassen. Ich bin nur nicht dafür ausgerechnet eine Seite zu zitieren und als Beweis anzugeben die sich immer so neutral gibt.
Aber das kapierst du eh nicht.

Pirx
2011-03-23, 20:04:23
NV µRuckelt weniger, das wird immer und immer wieder bewiesen - zB erneut in der kommenden PCGH 05/2011.
Bist du dort etwa der Tester?

y33H@
2011-03-23, 20:06:11
Der Artikel stammt aus Carstens Feder/Keyboard. Die Frametimes sprechen im Mittel wie gehabt für NV - altbekannt, aber beeindruckend aufgezeigt.

boxleitnerb
2011-03-23, 20:12:30
Gekauft. Wieviele Spiele wurden da getestet? >5, >10?

y33H@
2011-03-23, 20:14:31
Mehr als du morgen sehen wirst iirc.

fondness
2011-03-23, 20:20:59
Mit der richtigen Spiele-Selektion findet man gewiss für jede Aussage ("AMD mikrospackt weniger" bzw. "Nvidia mikrosuckt weniger") die richtigen Belege.

Genau das ist der Punkt. Es hängt vom jeweiligen Benchmark ab. Wenn man weiß wie Microruckler entstehen, dann hängt es sogar vielmehr vom Zufall ab, wie stark diese gerade auftreten. Ich seh bei Nvidia jedenfalls keinen Mechanismus der µRuckler verhindert, ansonsten wäre solchen krassen "Ausreißer" nicht möglich.

fondness
2011-03-23, 20:24:22
Nein?
http://www.computerbase.de/artikel/grafikkarten/2011/test-radeon-hd-6900-cf-vs.-geforce-gtx-500-sli/20/#abschnitt_das_problem_mikroruckler
Stand der Dinge: Während AMD-Kunden mit CrossFire in vielen Spielen mit Mikrorucklern zu kämpfen haben, sieht es für die Nvidia-Käufer mit SLI zwar etwas besser aus, Mikroruckler gibt es dort aber genauso – sie sind meistens (nicht immer) jedoch weniger stark ausgeprägt.

Wenn ich fünf Spiele vermesse, und daraus NV mit einem Spiel Vorsprung gewinnt, ist das mit Sicherheit kein Beweis für einen pauschalen Zusammenhang.

y33H@
2011-03-23, 20:28:15
Es ist kein Zufall. µRuckler lassen sich provozieren durch Engine, Settings und Movement.

fondness
2011-03-23, 20:35:08
Es ist kein Zufall. µRuckler lassen sich provozieren durch Engine, Settings und Movement.

Klar lassen sie sich produzieren, ich brauche nur eine schnelle Lastschwankung während die GPUs limitieren mit anschließend möglichst gleichbleibender Last und ich habe die "feinsten" Microruckler. Aber es ist im Spielverlauf Zufall wie und ob diese Lastschwankung auftritt.

Blaire
2011-03-23, 20:54:40
Klar lassen sie sich produzieren, ich brauche nur eine schnelle Lastschwankung während die GPUs limitieren mit anschließend möglichst gleichbleibender Last und ich habe die "feinsten" Microruckler. Aber es ist im Spielverlauf Zufall wie und ob diese Lastschwankung auftritt.

Wie wärs, wenn du es dir selber mal anschaust, anstatt immer alles zu relativieren?

fondness
2011-03-23, 21:19:03
Wie wärs, wenn du es dir selber mal anschaust, anstatt immer alles zu relativieren?

Relativieren? Du weißt offensichtlich nicht mal was das Wort bedeutet. Ich habe jedenfalls nirgends relativiert, ich sehe nur nicht inwiefern hier ein Hersteller weniger betroffen sein soll als der andere. Und bis jetzt konnte das auch keiner nachweisen.

y33H@
2011-03-23, 21:26:55
Du siehst es nicht. Es gibt aber genügend Reviewer (und auch User!) die es sehen und deren Tenor ist eindeutig.
Und bis jetzt konnte das auch keiner nachweisen. Du bist für Artikel nicht zugänglich, oder? :rolleyes:

fondness
2011-03-23, 21:42:40
Du bist für Artikel nicht zugänglich, oder? :rolleyes:

Ich kann dir auch eine Artikel basteln der das Gegenteil zeigt. Beim Artikel von HT4U zeigen die nackten Zahlen jedenfalls was anderes, auch bei CB gibt eine keine statistisch relevante Aussage. Das einzige was man daraus schließen kann ist das es vom Szenario abhängt. Immerhin gibt es auch Szenarien wo AMD weniger µ-ruckelt. Solange das so ist braucht es für eine statistisch relevante Aussage eine wesentlich höhere Stichprobe.

gedi
2011-03-23, 23:31:23
Mit der richtigen Spiele-Selektion findet man gewiss für jede Aussage ("AMD mikrospackt weniger" bzw. "Nvidia mikrosuckt weniger") die richtigen Belege. Die Wahrheit ist nämlich, dass beide nicht perfekt sind. Nvidia ist bestenfalls "weniger scheiße". :ulol: Aber das wirst du BlackScorpion, der alles Kritische gegenüber AMD kleinredet, nicht klarmachen können.

MfG,
Raff

Dem kann ich zu 100% zustimmen. Relevante Unterschiede bez. MR muss der entsprechende User wirklich mit der Lupe suchen, oder eben die entsprechende Brille aufsetzen um irgendetwas schön/schlecht zu reden. Zudem ist die Performance eines 6970CFX- oder 580_SLI-Gespanns meist so gut, dass MR wirklich nicht ins Gewicht fallen. Die große Ausnahme: 3D-Vision und HD3D. Hier ist OC angesagt um möglichst die Framerate jenseits der 40 zu halten.

Edit: Mit HD3D hat kein CFX funktioniert - fällt mir gerade so ein....

Spirou
2011-03-23, 23:37:16
Die große Ausnahme: 3D-Vision und HD3D. Hier ist OC angesagt um möglichst die Framerate jenseits der 40 zu halten.
Im 3D-Betrieb sind MR prinzipbedingt unmöglich, da jedes Auge nur jedes zweite Bild sieht, weswegen der Versatz der Frametimes zweier GPUs keine Rolle spielt.

gedi
2011-03-24, 06:06:12
Die Aussage bezog sich auf die generelle Performance. Sry falls dies unklar war.

y33H@
2011-03-24, 10:05:41
Im 3D-Betrieb sind MR prinzipbedingt unmöglich, da jedes Auge nur jedes zweite Bild sieht, weswegen der Versatz der Frametimes zweier GPUs keine Rolle spielt.Bullshit. Auch hier ist ein Versatz zu sehen.

Gipsel
2011-03-24, 11:06:47
Bullshit. Auch hier ist ein Versatz zu sehen.Kannst Du das mal erklären? Also wenn man das nicht total hirnverbrannt löst, entsprechen die sichtbaren Ruckler im 3D-Betrieb mit zwei GPUs ziemlich genau den normalen Rucklern mit einer GPU ohne 3D, nicht irgendwelchen µRucklern, da hat spirou schon recht.

y33H@
2011-03-24, 11:19:41
Er sagt, MR seien in 3D unmöglich. Und das ist Quatsch, denn die Ausgabe der Bilder erfolgt - 3D hin oder her - ebenfalls unregelmäßig.

kmf
2011-03-24, 14:46:37
Der Artikel stammt aus Carstens Feder/Keyboard. Die Frametimes sprechen im Mittel wie gehabt für NV - altbekannt, aber beeindruckend aufgezeigt.Und als Messinstrument für den Nachweis der unterschiedlichen Frametimes wahrscheinlich Fraps. :upara:

Ich kann mich da noch gut an eine Aussage seitens Nvidia beim Themenabend mit Nvidia erinnern, dass in neueren Treibern mit Fraps keinerlei allgemeingültiger Nachweis der tatsächlich am Bildschirm ausgegebenen Frames samt deren unterschiedlichen Ausgabezeiten zu verifizieren sei. War das nur Marketing gewesen, also eine Lüge oder ist da was dran? :uponder:

Gipsel
2011-03-24, 15:28:01
Er sagt, MR seien in 3D unmöglich. Und das ist Quatsch, denn die Ausgabe der Bilder erfolgt - 3D hin oder her - ebenfalls unregelmäßig.
Unregelmäßig wie bei einer einzelnen GPU, ja. Mikrorucklermäßig nein. Ist aber auch OT hier.

Spasstiger
2011-03-24, 16:32:49
Mikrorucklerbeseitigung durch 3D geht doch nur, wenn jede der zwei GPUs fest einem Stereo-Kanal (rechts/links) zugeordnet. Ich denke nicht, dass so eine fixe Zuordnung besteht, weil darunter die Skalierung leidet. Und bei drei GPUs geht das ohnehin nicht.

Berserker
2011-04-05, 17:15:07
http://www.youtube.com/watch?v=usGkq7tAhfc&feature=player_embedded

;D

boxleitnerb
2011-04-05, 17:48:06
Also bei Thermi konnte ich das noch verstehen, aber dieser Spot ist etwas fehl am Platz. Man preist eine Karte an, die


die PCIe-Specs sprengt
scheiße laut ist
keine so gute Bildqualität wie die 590 ermöglicht

Grad der letzte Satz mit "Is it true that, if I use an inferior graphics card, I go blind?" ist wohl ein Schuss ins eigene Knie.
Blind werd ich nur, wenn ich das AMD'sche AF-Flimmern oder sonstiges Flimmern ertragen muss, weil mit der Radeon mal wieder kein (SS)AA oder Downsampling geht. ;D

Black-Scorpion
2011-04-05, 18:34:06
So was würden deine Lieblinge in Grün natürlich nie machen. :rolleyes:

boxleitnerb
2011-04-05, 18:42:10
Was, so ein Video? Naja erstens haben sie sich schon selbst verarscht (FX5800) und zweitens sollte man schon einigermaßen eine solide Basis haben, auf der man so ein Video machen kann. Und die hat man hier eben überhaupt nicht, man hat (imo) sogar ein Eigentor geschossen.

Ich find das kindisch, gleich wieder zum Konkurrenten zu gucken was der verbrochen hat und pingelig alles gegeneinander aufzuwiegen. Ich hab meine Meinung zu dem AMD-Video (und zu sonst nichts) gepostet, da brauchst gar nicht vom Thema ablenken :tongue:

Positiv ist allerdings anzumerken, dass AMD überhaupt mal was für Werbung tut...

Schaffe89
2011-04-05, 20:25:02
Mein gott, das Video soll einfach nur lustig sein.
War ja klar dass daraus wieder irgenwelche kontroversen Aussagen entstehen.

eil mit der Radeon mal wieder kein (SS)AA oder Downsampling geht.

Meine Augen fallen ab, wenn das Nvidia´nsche SSAA die AF Qualität und die Schärfe unter directx10/11 verunzen.:freak:
AMD SGSSAA @ directx9 ist mit Nvidia SGSSAA @ directx9 von der Qualität völlig vergleichbar.

Unregelmäßig wie bei einer einzelnen GPU, ja. Mikrorucklermäßig nein. Ist aber auch OT hier.

Hier möchte ich nochmal nachhaken. Ist ja aufgrund der Duall HD6990 nun eigentlich nicht OT.
Also wie hängt das Zusammen? Da jedes 2 Bild bei 3D nur ins Auge fällt, fallen die µruckler weg? Hört sich für mich nicht plausibel an.

dass in neueren Treibern mit Fraps keinerlei allgemeingültiger Nachweis der tatsächlich am Bildschirm ausgegebenen Frames samt deren unterschiedlichen Ausgabezeiten zu verifizieren sei. War das nur Marketing gewesen, also eine Lüge oder ist da was dran?

Seitdem Nvidia Treiberseitig in die Frametimes reinpfuscht, dürfte da nichts exaktes mehr zu messen sein. Soviel hab ich jedenfalls im Hinterkopf.
y33H@ hat das früher aber immer abgestritten. Von daher... keine Ahnung, was nun stimmt.

boxleitnerb
2011-04-05, 20:38:05
Meine Augen fallen ab, wenn das Nvidia´nsche SSAA die AF Qualität und die Schärfe unter directx10/11 verunzen.:freak:
AMD SGSSAA @ directx9 ist mit Nvidia SGSSAA @ directx9 von der Qualität

Besser als nichts :tongue:
Musst ja nicht gleich 8x einstellen, 2x wirkt auch schon wie Baldrian :D

Wenn es denn geht, dann ja.

y33H@
2011-04-05, 21:33:25
y33H@ hat das früher aber immer abgestritten.Was soll ich wo (Link) abgestritten haben?

Und lieber überhaupt SGSSAA unter DX10/11 als gar nicht, zumal es weniger blurt als MLAA und Co. :tongue:

Gipsel
2011-04-05, 22:33:48
Hier möchte ich nochmal nachhaken. Ist ja aufgrund der Duall HD6990 nun eigentlich nicht OT.
Also wie hängt das Zusammen? Da jedes 2 Bild bei 3D nur ins Auge fällt, fallen die µruckler weg? Hört sich für mich nicht plausibel an.Ist aber so, wenn man 3D mit zwei GPUs macht.
Das Spiel (die Anwendung) schickt ja nicht die zwei Ansichten für jedes Auge getrennt und unabhängig auf die Reise (wie das bei zwei aufeinanderfolgenden Bildern geschieht). Im Prinzip wird die zu rendernde Szene nur ein einziges Mal erstellt und dann schlußendlich nur aus zwei leicht unterschiedlichen Blickwinkeln berechnet. Man kann sich das so vorstellen, daß in die Schlange oben praktisch immer nur ein zu renderndes Bild reinkommt, was dann erst dupliziert wird (rechtes/linkes Auge). Oder alternativ daß die beiden Bilder oben simultan reingestellt werden. Der Treiber verteilt dann wie bei Crossfire/SLI die Bilder auf die zwei Grafikkarten. Allerdings wird bei 3D auch zwingend bei der Ausgabe der fertig gerenderten eine Synchronisation durchgeführt (was sonst nicht passiert). Es wird immer so lange gewartet, bis beide Bilder (rechtes/linkes Auge) fertig sind, bevor beide zusammen ausgegeben werden. Ansonsten würde dr 3D-Effekt nämlich nicht funktionieren, wenn nicht zueinander passende Bilder dargestellt werden. Daher kann es zwar passieren, daß eine GPU schon mit dem Frame fertig ist und schon das nächste anfängt, aber die Zeit zwischen der Ausgabe zweier aufeinanderfolgender Frames beträgt immer mindestens so lange, wie die schnellere GPU für das komplette Frame benötigt. Ergo keine Mikroruckler.

Die einzige Ausnahme könnte es geben, wenn eine GPU mehr als ein ganzes Frame innerhalb des Prerender-Limits schneller ist (also eine GPU ist noch beim zweiten Frame, die andere GPU hat aber das dritte bereits fertig). Bei einem Prerender-Limit von 3 (das ist soweit ich weiß das übliche Maximum), muß also eine GPU mehr als 33% schneller Rendern als die andere, damit das auftreten könnte. Wenn die Grafikkartenhersteller clever sind, unterbinden die das aber in dem Fall per Treiber. Außerdem sollte das eher selten sein (wenn man nicht zwei GPUs mit deutlich unterschiedlicher Geschwindigkeit koppelt), da die jeweils gepaarten Bilder doch sehr ähnlich sind und daher auch sehr ähnliche Renderzeiten benötigen.

Schaffe89
2011-04-05, 22:39:23
Huh, war ne Diskussion bei CB vor ca 5 Monaten.Da hast du behauptet die Frametimes wären mit Fraps einwandfrei und korrekt auszulesen. :D

Blurt nicht weniger wie MLAA. Teilweise sogar stärker.:tongue:
Siehe Bilder ausm AA Bit Thread.

y33H@
2011-04-06, 08:27:13
Dann such die "Diskussion bei CB vor ca 5 Monaten" doch bitte mal =)

Bandit3644
2011-04-11, 14:46:43
sehr interessant
http://www.youtube.com/watch?v=Kq40MqiPkJQ&feature=mfu_in_order&list=UL

Raff
2011-04-11, 14:54:26
Blurt nicht weniger wie MLAA. Teilweise sogar stärker.:tongue:
Siehe Bilder ausm AA Bit Thread.

Mal ab davon: Es besteht ein Unterschied zwischen Blur (MLAA) und Blur plus ernsthafte Glättung durch echtes Oversampling (SGSSAA mit den falschen Bits). Denn während das MLAA-Bild unscharf ist und in Bewegung munter weiterflimmert, ist das SGSSAA-Bild unscharf, aber ruhig.

MfG,
Raff

M4xw0lf
2011-04-11, 16:00:08
NV µRuckelt weniger, das wird immer und immer wieder bewiesen - zB erneut in der kommenden PCGH 05/2011.

also im Heft liest sich das ein wenig anders :wink:
NV µruckelt seltener, dafür heftiger - das steht da.

y33H@
2011-04-11, 16:21:45
Ich habe da etwas zu weit voraus gegriffen, zugegeben. Seltener, das war meine Essenz ;)

M4xw0lf
2011-04-11, 16:24:19
Agreed ^^