PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 6970 und 6950 (P)Review-Thread


Seiten : 1 [2] 3 4

gedi
2010-12-15, 16:06:53
Also ich werd mir ein 6970-Gespann antun, da CF wohl noch besser als NVs SLI scalliert. Allerdings werde ich warten bis die Karten so um 280.- Euronen verfügbar sind. Darüberhinaus warte ich noch auf DEN Wundertreiber :biggrin:

uweskw
2010-12-15, 16:08:16
Hardwareluxx:
AMD nannte uns jeweils eine BIOS-Version für die Radeon HD 6970 und 6950, die verwendet werden sollte. Durch Zufall hatten wir jeweils das richtige BIOS ausgewählt, denn auch wenn AMD das aktuellere BIOS auf Position "1" beschrieb, lag es bei der Radeon HD 6970 bei uns auf Position "2". Interessant ist auch, wie lange noch an den verschiedenen BIOS-Versionen gearbeitet wurde.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/16815.html?start=7

@Raff

Möglich deswegen das bessere Abschneiden der 6970 bei HWLux?

LovesuckZ
2010-12-15, 16:08:22
Die einzigen zwei Nachteile von GTX480 bzw. GF100 generell ist der hohe IDLE- und MM-Verbrauch. Der Last-Verbrauch lässt sich easy per Afterburner durch Untervolting deutlich verringern. Leistungstechnisch ist die GTX480 jeder 6970 vorzuziehen. BQ-mäßig ist es zZ klar, was man nehmen sollte.

dildo4u
2010-12-15, 16:10:42
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/16815.html?start=7

@Raff

Möglich deswegen das bessere Abschneiden der 6970 bei HWLux?
Nope bei CB hat sie sogar höhere Werte bei 3DMark 2011.Wobei sich die Bios vergleiche eh alle in der messungenauigkeit bewegen.
http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6970-und-hd-6950/10/#abschnitt_3dmark_11

Dural
2010-12-15, 16:13:54
keine garantie,ne danke.
brauchste nicht verlinken,ich kenn die preise auswendig.:wink:


lol die hast du bei der AMD ja so wie so nicht ;) oder wer nimmt nicht gleich diese blöde beschränkung raus?!?

PHuV
2010-12-15, 16:17:59
Also ich werd mir ein 6970-Gespann antun, da CF wohl noch besser als NVs SLI scalliert.

Woran siehst Du das?

Darlie
2010-12-15, 16:20:36
Das die Häme der NVIDIA Fanboys jetzt gnadenlos ist war doch klar.
Unter 250€ ist die AMD Fraktion besser aufgestellt, darüber Nvidia.

Nakai
2010-12-15, 16:21:44
lol die hast du bei der AMD ja so wie so nicht ;) oder wer nimmt nicht gleich diese blöde beschränkung raus?!?

Weiß das AMD?;)


Also bzgl dem Launch. Enttäuscht bin ich nicht, da mir der Markt am Arsch vorbeigeht. HD6950 könnte wirklich potential zu einem Preiskampf haben, vor allem wenn eine GTX560 kommt, die schön von unten reinhämmert. ;)

Die Werte überraschen mich nicht. Cayman hat kaum mehr Rohleistung als Cypress und das sieht man.
Da wo die neuen Features gefragt werden, da schafft es Cayman sich ordentlich abzusetzen, ansonsten ist der Zugewinn zwischen 10 bis 20%.
Somit ist Cayman ein fehlerbefreiter Cypress. Also ein Cypress-DoneRight(so wie fast alle neueren AMD-Karten).

HD6950 hat wirklich Potential als Verkaufsschlager, aber da sollte man noch auf die GTX560 warten.



mfg

Menace
2010-12-15, 16:24:22
Der Last-Verbrauch lässt sich easy per Afterburner durch Untervolting deutlich verringern.

:eek: Untervolting können nur nvidia?

Eggcake
2010-12-15, 16:30:29
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/16815.html?start=7

@Raff

Möglich deswegen das bessere Abschneiden der 6970 bei HWLux?

Die 10 MHz an Plus im GPU-Takt machen sich in den Benchmarks kaum bemerkbar. Wir hatten noch mit zusätzlichen Optimierungen gerechnet, konnten aber keinerlei weitere Unterschiede feststellen.
(gleiche Quelle)

Wohl kaum. Zudem hat die eine Version, wie geschrieben, 10Mhz mehr Takt, was sofort auffallen würde (noch dazu die Version, welche nicht getestet wurde - die langsamere Version ist ja die neuere).

Didi Bouzul
2010-12-15, 16:33:43
Ich denke, wir können in nächster Zeit dank Treiberverbesserung seitens AMD eine Steigerung der Performance um weitere 5% erwarten. Damit sollte eine gtx570 mehr als deutlich geschlagen sein. Das sowieso für AMD bessere Preis-/Leistungsverhältnis würde weiter verdeutlicht.

James Ryan
2010-12-15, 16:39:17
Und NVIDIA verbessert den Treiber natürlich nicht?! :freak:
Leute, DEN Wundertreiber wirds nicht geben, so wie es aktuell aussieht wird es auch noch in 6 Monaten aussehen.
Für den Preis ist die HD 6950 aber nicht verkehrt.
Jetzt muss NVIDIA nur schnell die GTX 560 nachschieben und der Preiskampf kann beginnen.

MfG :cool:

Dural
2010-12-15, 16:39:24
Ich denke, wir können in nächster Zeit dank Treiberverbesserung seitens AMD eine Steigerung der Performance um weitere 5% erwarten. Damit sollte eine gtx570 mehr als deutlich geschlagen sein. Das sowieso für AMD bessere Preis-/Leistungsverhältnis würde weiter verdeutlicht.

Ja AMD kann ja noch etwas am AF drehen :freak:

Langenscheiss
2010-12-15, 16:43:43
Ja AMD kann ja noch etwas am AF drehen :freak:
Frei nach dem Motto "Schlimmer geht immer" oder was ;)
Der neue Performance Modus, den es bis dato ja so noch nicht gab hat ja gezeigt, dass sie in Richtung schlechterer BQ offenbar nicht limitiert sind, aber lassen wir das...

y33H@
2010-12-15, 16:44:13
Das die Häme der NVIDIA Fanboys jetzt gnadenlos ist war doch klar.
Unter 250€ ist die AMD Fraktion besser aufgestellt, darüber Nvidia.Was ist mit der GTX 460 als 1G und 768M?

N0rG
2010-12-15, 16:52:00
Und das nach 15 Monaten, echt traurig...

AMD ist glorreicher 2. und Nvidia einmal mehr nur vorletzter ;D

uweskw
2010-12-15, 16:52:47
Was ist mit der GTX 460 als 1G und 768M?

In dem Preisbereich liegt ja auch die 5850, da ists Gaubensfrage.

Aber wenn die 6950 mit 1GB rauskommt könnte die preislich ähnlich liegen, vll. 20€ mehr.

y33H@
2010-12-15, 16:54:01
Dann müsste die 1G-Version der HD 6950 ja für 170€ weggehen ... wohl kaum.

uweskw
2010-12-15, 16:57:14
(gleiche Quelle)

Wohl kaum. Zudem hat die eine Version, wie geschrieben, 10Mhz mehr Takt, was sofort auffallen würde (noch dazu die Version, welche nicht getestet wurde - die langsamere Version ist ja die neuere).

Ja aber sind es die gleichen Versionen wie bei den Kollegen?
Irgendwie schneidet die Karte hier ja besser ab als bei den anderen.
Edit: Besonders leiser und sparsamer im Verhältnis zur 570

y33H@
2010-12-15, 16:59:03
Wir haben alle die gleichen Karten, PCGH-BIOS #2 hat auch 890 MHz.

LovesuckZ
2010-12-15, 17:01:05
Wieso 890Mhz? Sollte der Defaulttakt nicht bei 880Mhz liegen?!

DarknessFalls
2010-12-15, 17:01:56
Was ist mit der GTX 460 als 1G und 768M?

GTX460 768MB ist in ihrem Preisgefüge nahezu konkurrenzlos (HD5770 zu langsam, HD5830 fast gleichschnell aber mit zu unrecht schlechtem Ruf, HD6850 deutlich schneller, aber auch teurer). GTX460 1GB hingegen hat in HD6850 einen schnelleren Gegner und auch als teurere OC-Version muss sie sich der noch lieferbaren HD5850 sowie der HD6870 (die aber wieder etwas teurer ist) beugen.

Nee, sorry, y33h@, aber imho sieht nVidia ab HD6950 abwärts kein Land (ausgenommen GTX460 768MB vielleicht). Und bittebitte reit jetzt nicht wieder auf irgendwelchen BQ-Features rum, die meisten bemerken das AF-Flimmern nicht (wie ich z.B.) - und ein Großteil derjenigen, die hier vorgeben es zu sehen, benutzen es allenfalls als Anti-AMD-Keule.

Ich komm jetzt ja auch nicht mit den Verbrauchswerten von Barts und GF104.

mapel110
2010-12-15, 17:02:28
Nochmal zum positiven zurück. Wo kann man ablesen, dass sich die SSAA-Performance verbessert hat?

btw tolle Verfügbarkeit sieht für mich anders aus. Und jetzt sagt mir nicht, das läge am großen Ansturm...
http://geizhals.at/deutschland/?cat=gra16_512&bpmax=&asuch=radeon+6970&v=l&plz=&dist=&pixonoff=on&xf=&sort=p

http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=radeon+6950&v=l&plz=&dist=&pixonoff=on&filter=+Liste+aktualisieren+&xf=

LovesuckZ
2010-12-15, 17:05:53
GTX460 768MB ist in ihrem Preisgefüge nahezu konkurrenzlos (HD5770 zu langsam, HD5830 fast gleichschnell aber mit zu unrecht schlechtem Ruf, HD6850 deutlich schneller, aber auch teurer). GTX460 1GB hingegen hat in HD6850 einen schnelleren Gegner und auch als teurere OC-Version muss sie sich der noch lieferbaren HD5850 sowie der HD6870 (die aber wieder etwas teurer ist) beugen.

Ja, "schnelleren Gegner": Ganze 1% Unterschied zwischen der GTX460 1gb und der 5-10€ teureren 6850. :eek:


Nee, sorry, y33h@, aber imho sieht nVidia ab HD6950 abwärts kein Land (ausgenommen GTX460 768MB vielleicht). Und bittebitte reit jetzt nicht wieder auf irgendwelchen BQ-Features rum, die meisten bemerken das AF-Flimmern nicht (wie ich z.B.) - und ein Großteil derjenigen, die hier vorgeben es zu sehen, benutzen es allenfalls als Anti-AMD-Keule.

Ich komm jetzt ja auch nicht mit den Verbrauchswerten von Barts und GF104.

Hoppla, wenn die meisten es sowieso nicht merken - nunja, dann tut's auch eine 5770. :freak:

AnarchX
2010-12-15, 17:07:51
Passt der Lüfter wohl nicht exakt auf die Karte, sodass hier händisch nachgepfeilt wurde? :|

http://translate.google.de/translate?hl=de&sl=zh-CN&tl=en&u=http%3A%2F%2Fwww.chiphell.com%2Fthread-148220-1-1.html

Bei der CB-Karte ist das gleiche zu sehen: http://www.computerbase.de/bildstrecke/32106/41/

DarknessFalls
2010-12-15, 17:08:28
Ja, "schnelleren Gegner": Ganze 1% Unterschied zwischen der GTX460 1gb und der 5-10€ teureren 6850. :eek:

Na, dann schau mal, wo der eine Prozent ist über alle Auflösungen gerechnet. ;)



Hoppla, wenn die meisten es sowieso nicht merken - nunja, dann tut's auch eine 5770. :freak:

...wenn Du mir jetzt noch erklärst, wo der Zusammenhang zwischen der HD5770, die langsamer als die fraglichen GTX-Karten ist und der BQ liegt... bzw wo der Zusammenhang zwischen der Geschwindigkeit und der BQ liegt...

:freak:

Iruwen
2010-12-15, 17:08:56
Das die Häme der NVIDIA Fanboys jetzt gnadenlos ist war doch klar.
Unter 250€ ist die AMD Fraktion besser aufgestellt, darüber Nvidia.

Zwischen 200€ und 250€ und unter 100€ wohl eher :p "Häme" ist ziemlich überzogen, guck dir mal den GF100 Launchthread an, der war ätzend.

Woran siehst Du das?

Und was bringt etwas bessere Skalierung wenn die Mikroruckler dafür stärker nerven?

PS:

Think AMD are working on a new bios that will give their new VLIW4 architecture a large boost but just haven't had time to finalise it.
Thats why they have included this switch so Joe Average can update his bios without fear of bricking his card, thats why its not on Barts as it is specific to the VLIW4 architecture

Bei S|A wird noch geträumt ;D

[dzp]Viper
2010-12-15, 17:09:41
Passt der Lüfter wohl nicht exakt auf die Karte, sodass hier händisch nachgepfeilt wurde? :|

http://www.chiphell.com/thread-148220-1-1.html

Bei der CB-Karte ist das gleiche zu sehen: http://www.computerbase.de/bildstrecke/32106/41/

Das ist qualitative hochwertige Handarbeit! :uup:

LovesuckZ
2010-12-15, 17:11:28
Na, dann schau mal, wo der eine Prozent ist über alle Auflösungen gerechnet. ;)

Im neuen Testparcour ist die GTX460 in 1920x1200 und 4AA/16AF im Schnitt 1% schneller als die 6850: http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6970-und-hd-6950/26/#abschnitt_performancerating_mit_aaaf

Ich habe mich also geirrt. :redface:


...wenn Du mir jetzt noch erklärst, wo der Zusammenhang zwischen der HD5770, die langsamer als die fraglichen GTX-Karten ist und der BQ liegt... bzw wo der Zusammenhang zwischen der Geschwindigkeit und der BQ liegt...

:freak:

BQ kostet. Interessiert mich BQ nicht, komme ich auch ganz easy mit weniger aus und spare dabei noch bares Geld.

airbag
2010-12-15, 17:12:08
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/16815.html?start=7

@Raff

Möglich deswegen das bessere Abschneiden der 6970 bei HWLux?
Vielleicht testet Luxx einfach per Reviewers Guide :freak:

DarknessFalls
2010-12-15, 17:16:59
Im neuen Testparcour ist die GTX460 in 1920x1200 und 4AA/16AF im Schnitt 1% schneller als die 6850: http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6970-und-hd-6950/26/#abschnitt_performancerating_mit_aaaf

Ich habe mich also geirrt. :redface:

Betreiben wir jetzt Cherrypicking? Holla, in 2560x1600 ist die HD6850 19% schneller als die GTX460. ;D Den Käse kann ich auch mitmachen. Ist aber totaler Tullux.



BQ kostet. Interessiert mich BQ nicht, komme ich auch ganz easy mit weniger aus und spare dabei noch bares Geld.

Ähm. Was ist denn das für ne Rechnung? :eek: Warum nicht gleich ne HD5450? Damit komm ich ja auch aus, wenn mich BQ nicht interessiert. Au backe.

Tja, naja, wie formuliere ich's am besten? Für Dich ist jede absolut flimmerfreie, perfekte nV (banding?) auf alle Fälle besser geeignet als jede ATi-Karte, das steht mal fest. Wäre auch fürchterlich, wenn Du bemerken würdest, daß auf einem handelsüblichen, günstigen TFT-Monitor, wie er an den meisten Rechnern angestöpselt ist, das pöse Flimmern der Radeon-Karten den meisten Usern nicht auffällt.

Kauf Dir bloss keine AMD-Karte. Bittebitte nicht. ;D

LovesuckZ
2010-12-15, 17:21:33
Betreiben wir jetzt Cherrypicking? Holla, in 2560x1600 ist die HD6850 19% schneller als die GTX460. ;D Den Käse kann ich auch mitmachen. Ist aber totaler Tullux.

Cherrypicking? Was ist an 1920x1200 mit 4AA/16AF Cherrypicking? Das ist der heutige Standard.


Tja, naja, wie formuliere ich's am besten? Für Dich ist jede absolut flimmerfreie, perfekte nV (banding?) auf alle Fälle besser geeignet als jede ATi-Karte, das steht mal fest. Wäre auch fürchterlich, wenn Du bemerken würdest, daß auf einem handelsüblichen, günstigen TFT-Monitor, wie er an den meisten Rechnern angestöpselt ist, das pöse Flimmern der Radeon-Karten den meisten Usern nicht auffällt.

Kauf Dir bloss keine AMD-Karte. Bittebitte nicht. ;D

Das ist eine interessante Theorie. Wobei sich mir dann die Frage stellt, wieso man die schlechtere Filterung nicht nur auf Videos aufnehmen, nein auch auf diesen überall wieder erkennen kann. :freak:

Duke Nukem
2010-12-15, 17:30:14
Nicht nur da bei 8x AA machst die 6970 die 570 auch bei niedrigen auflösungen nass so übel ist das Ding nicht.
http://www.3dcenter.org/dateien/abbildungen/2010-12Dez-15c.png

V2.0
2010-12-15, 17:30:37
Muss, das wieder sein? Auf Seite 5 konnten wir auch noch recht vernünftig über die Karten sprechen.

DarknessFalls
2010-12-15, 17:32:22
Cherrypicking? Was ist an 1920x1200 mit 4AA/16AF Cherrypicking? Das ist der heutige Standard.

Ach so?

http://www.3dcenter.org/image/view/3236/_original

Aber schön, dann mal ohne Cherrypicking... schauen wir uns die beiden meistgenutzten Auflösungen mal an:

1680x1050: 10% schneller für HD6850
1680x1050 4xAA/16xAF: 4% langsamer gegenüber GTX460 (na, kommt da nicht Freude auf?!)
1680x1050 8xAA/16xAF: 3% schneller

1920x1280: 12% schneller
1920x1280 8xAA/16xAF: 2% schneller

Was kommt da overall raus? BTW, nein, ich hab 4xAA bei 1920 nicht vergessen, das hattest Du schon "rausgepickt".



Das ist eine interessante Theorie. Wobei sich mir dann die Frage stellt, wieso man die schlechtere Filterung nicht nur auf Videos aufnehmen, nein auch auf diesen überall wieder erkennen kann. :freak:

Weil diese Videos bewusst provizierte und herausgepickte Szenarien darstellen? Schätze, wenn man lange genug sucht, findet man sowas auch bei ner GF. :freak:


Davon ab - kannst Du nicht mal akzeptieren, daß es möglich ist, daß ne AMD-Karte das bessere Gesamtpaket stellt? Dafür ist die GTX580 konkurrenzlos, freu Dich doch. Und die GTX570 ist nix schlechter als die HD6970 - wenn man auf der BQ rumreitet ist sie sogar besser. ^^

LovesuckZ
2010-12-15, 17:39:20
Ach so?

http://www.3dcenter.org/image/view/3236/_original

Aber schön, dann mal ohne Cherrypicking... schauen wir uns die beiden meistgenutzten Auflösungen mal an:

1680x1050: 10% schneller für HD6850
1680x1050 4xAA/16xAF: 4% langsamer gegenüber GTX460 (na, kommt da nicht Freude auf?!)
1680x1050 8xAA/16xAF: 3% schneller

1920x1280: 12% schneller
1920x1280 8xAA/16xAF: 2% schneller

Was kommt da overall raus? BTW, nein, ich hab 4xAA bei 1920 nicht vergessen, das hattest Du schon "rausgepickt".

Und? merkst du nicht, dass ohne AA/AF eine 5770 noch besser dasteht? Merkst du nicht, dass 8xMSAA irgendwie absurd ist, wenn man keine nVidia-ähnliche HQ-Filterung auf Seiten von AMD aktivieren kann?
Ich habe das Setting herausgesucht, da es der Standard ist für alle Karten. Und nur für dich: Wer sowieso kaum Probleme mit Flimmern hat, der kann bei nVidia 16xCSAA aktivieren, dass schneller als 8xMSAA ist und deutlich schöner als 4xMSAA aussieht. Da kommt leider Barts nicht mit.

Davon ab - kannst Du nicht mal akzeptieren, daß es möglich ist, daß ne AMD-Karte das bessere Gesamtpaket stellt? Dafür ist die GTX580 konkurrenzlos, freu Dich doch. Und die GTX570 ist nix schlechter als die HD6970 - wenn man auf der BQ rumreitet ist sie sogar besser. ^^

Da verliere ich gerade die Übersicht. Du fasselts gerade von Barts und GF104. Was haben die GTX570/GTX580 damit zu tun?
Vielleicht solltest du akzeptieren, dass nVidia zwischen 120-260€ einfach besser ausgestellt ist, sowie AMD unter 120€ und mit der 6950 für ca. 260€. Wobei hier die Custom-GTX470-Design als Konkurrenz interessant sind.

/edit: Wenn es auf einer nVidia mit HQ flimmert, dann noch deutlicher auf Barts. Wobei man ein Flimmern laut dir sowieso nie wahrnimmt und es somit garnicht exisitiert... Du würdest in die Zeit passen, in der die Menschen die Erde noch für eine Scheibe hielten.

DrFreaK666
2010-12-15, 17:39:23
...darstellen? Schätze, wenn man lange genug sucht, findet man sowas auch bei ner GF. :freak:
...

Mag sein, dass man sowas auch bei einer Geforce findet.
Bei einer Radeon muss man aber nicht so lange suchen

Duke Nukem
2010-12-15, 17:40:23
Viele zocken 8xAA mit "Edge-Detect" Filter. Glaube kaum, daß es was gibt, das noch besser ausschaut. Und dafür langt die 6970 locker. Und sie sind günstiger . Mehr Grafikkarte braucht kein Mensch.

Blaire
2010-12-15, 17:44:01
Das einzigste was momentan für 69x0 spricht, ist der Preis. Ansonsten sehe ich da kaum Argumente. Die GTX570 bietet definitiv das rundere Paket.

DarknessFalls
2010-12-15, 17:44:32
Und? merkst du nicht, dass ohne AA/AF eine 5770 noch besser dasteht? Merkst du nicht, dass 8xMSAA irgendwie absurd ist, wenn man keine nVidia-ähnliche HQ-Filterung auf Seiten von AMD aktivieren kann?


...ich erwähnte, daß ich die Flimmerei bisher noch nicht gesehen hab beim Zocken? ;) Von daher ist Q/HQ für mich uninteressant. Und für einen Großteil der restlichen User auch.

Wenn das bei Dir nicht ist - dann das in allen Ehren, sei doch glücklich mit Deiner nV und kauf Dir möglichst weiterhin Karten aus Santa Clara. ;)



Vielleicht solltest du akzeptieren, dass nVidia zwischen 120-260€ einfach besser ausgestellt ist, sowie AMD unter 120€ und mit der 6950 für ca. 260€. Wobei hier die Custom-GTX470-Design als Konkurrenz interessant sind.

GTX470 ist EOL. Ich könnte sonst auch noch HD5870 ins Spiel bringen, die preislich im freien Fall ist. Wär aber albern. ;)

Pass auf, wir formulieren es so, daß es passt: nV ist besser aufgestellt, wenn man perfektes AF über alles stellt. Passt so?


Mag sein, dass man sowas auch bei einer Geforce findet.
Bei einer Radeon muss man aber nicht so lange suchen

Stell ich nicht in Abrede. Hab ja auch nirgendwo behauptet, daß das nV-AF nicht BESSER wäre als das von AMD.

Es stört nur einen Großteil der User nicht. Und deshalb nervt es als Dauer-Totschlag-Argument.

LovesuckZ
2010-12-15, 17:50:55
...ich erwähnte, daß ich die Flimmerei bisher noch nicht gesehen hab beim Zocken? ;) Von daher ist Q/HQ für mich uninteressant. Und für einen Großteil der restlichen User auch.

Tja, da Barts aber mehr als eine GTX460 kostet, erübrigt sich das Thema ja sowieso von allein.


GTX470 ist EOL. Ich könnte sonst auch noch HD5870 ins Spiel bringen, die preislich im freien Fall ist. Wär aber albern. ;)

Von mir aus. Macht die 6950 dann aber irgendwie nicht attraktiver. :rolleyes:


Pass auf, wir formulieren es so, daß es passt: nV ist besser aufgestellt, wenn man perfektes AF über alles stellt. Passt so?

Stell ich nicht in Abrede. Hab ja auch nirgendwo behauptet, daß das nV-AF nicht BESSER wäre als das von AMD.

Es stört nur einen Großteil der User nicht. Und deshalb nervt es als Dauer-Totschlag-Argument.

Mehr Optionen zu haben ist immer besser als weniger. Und wenn man für weniger Geld, die gleiche Leistung bei gleicher BQ + mehr Optionen für bessere BQ erhält, dann ist die Fall wohl eindeutig. Und das sollte nicht ich akzeptieren, sondern diejenigen, die Zwanghaft versuchen, AMD besser zu stellen als sie es in Wirklichkeit sind.

DrFreaK666
2010-12-15, 17:51:11
...
Stell ich nicht in Abrede. Hab ja auch nirgendwo behauptet, daß das nV-AF nicht BESSER wäre als das von AMD.

Es stört nur einen Großteil der User nicht. Und deshalb nervt es als Dauer-Totschlag-Argument.

Wenn man Grafikkarten vergleicht, dann muss man auch die BQ vergleichen.
LS ist ja nciht der einzige, der sagt, dass nv die besserere BQ bietet

DarknessFalls
2010-12-15, 17:57:31
Tja, da Barts aber mehr als eine GTX460 kostet, erübrigt sich das Thema ja sowieso von allein.


Fünf Euro bei lieferbaren Karten. :rolleyes:


Von mir aus. Macht die 6950 dann aber irgendwie nicht attraktiver. :rolleyes:


Dessen bin ich mir bei Dir sicher. :D


Mehr Optionen zu haben ist immer besser als weniger. Und wenn man für weniger Geld, die gleiche Leistung bei gleicher BQ + mehr Optionen für bessere BQ erhält, dann ist die Fall wohl eindeutig. Und das sollte nicht ich akzeptieren, sondern diejenigen, die Zwanghaft versuchen, AMD besser zu stellen als sie es in Wirklichkeit sind.

Würde ich das zwanghaft versuchen, würde ich versuchen, HD6970 über GTX570 zu stellen. Tu ich das? ;)

Nach meinem Empfinden ist das AF der AMD-Karten nicht deutlich schlechter als das der nV-Karten. Von daher passt Deine Argumentation nicht auf mich - und da bin ich sicherlich nicht der Einzige genauso wie hier:

Wenn man Grafikkarten vergleicht, dann muss man auch die BQ vergleichen.
LS ist ja nciht der einzige, der sagt, dass nv die besserere BQ bietet

...wie oben erwähnt: Sicher, da bin ich fest von überzeugt. Es gibt auch Leute, die sind auf MR nicht empfindlich, andere meinen sie immer und überall zu sehen.

Gleiches Streitthema, weil größtenteils subjektiv.


Um nochmal zu verdeutlichen, worauf ich hinaus will:

Das bessere AF der nV-Karten kann für mich kein Totschlagargument sein - sie mag das Zünglein an der Waage bei Gleichstand sein, aber sie kann eine Karte nicht völlig entwerten, wie es manche hier darstellen.

Man könnte glatt glauben, mit einer Radeon wären Games unspielbar, weil man sonst was an den Augen bekommt...

:rolleyes:

LovesuckZ
2010-12-15, 18:01:26
Letztes Posting zum Troll zu diesem Thema:
Es ist sinnbefreit über AF zu diskutieren, wenn die zu vergleichenen Karten sich preislich nichts nehmen und man bei der einen die Option auf bessere Qualität hat ohne mit SSAA 50% Leistungsverlust sowie einen deutlich erhöhten Stromverbrauch in Kauf nehmen zu müssen.

Und nun auf Wiedersehen. :)

Palpatin
2010-12-15, 18:04:13
Das einzigste was momentan für 69x0 spricht, ist der Preis. Ansonsten sehe ich da kaum Argumente. Die GTX570 bietet definitiv das rundere Paket.
Naja VRAM ist schon auch noch ein Argument aber das wars dann.

Blediator16
2010-12-15, 18:09:25
Sehr lustig zu sehen wie Leute ihre Zeit verschwenden, um ihre Lieblibgsfirma zu verteidigen:D
Gut, dass ich immernoch frei entscheiden kann was ich kaufen will ohne, dass mir jemand sagt wenn du Firma XXX kaufst bist du blind/Invalide oder geistesgestört :D

Langenscheiss
2010-12-15, 18:28:36
Man könnte glatt glauben, mit einer Radeon wären Games unspielbar, weil man sonst was an den Augen bekommt...

:rolleyes:

Für den Cypress würde ich dir zustimmen. Ich zumindest bin insgesamt zufrieden mit meiner Karte. Wenn die anderen Argumente für den Kauf einer Radeon aber sowieso schon eher weniger überzeugend sind, was hier imo der Fall ist, ist gerade die BQ durchaus wichtig. Das Problem ist einfach die Verhältnismäßigkeit. Da werkelt man munter nun länger als n Jahr an dem Refresh, und das, was dabei rauskommt, liefert insgesamt keine überzeugende Mehrperformance und verschlechtert die BQ gegenüber Cypress sogar noch (was man nach den banding Problemen kaum für möglich gehalten hat). Da find ich es durchaus angebracht, hier auch mal harsche Kritik zu formulieren, auch wenn dem average gamer das Flimmern vielleicht nicht auffallen mag.

ChaosTM
2010-12-15, 18:47:05
Naja VRAM ist schon auch noch ein Argument aber das wars dann.

Dann wäre da noch die überlegene (HD)Video Qualität.
Nvidia Karten sind da leider relativ unbrauchbar durch das verwendete Post-Processing, dass imho auch für das "flimmerfreiere" (Aniso)-Bild sorgt.

Hatte in den letzten Jahren mehrere Nvidia Karten zu Testzwecken in meinem Rechner und ALLE zeigten diesen DNR-ähnlichen Effekt, den die Fanboys scheinbar so lieben. :rolleyes:

Für Leute mit relativ guten Ausgabegeräten (halbwegs gute Full-HD Beamer und Fernseher > 50Zoll) ein absolutes KO-Kriterium.


..und ich freue mich schon auf die Antworten der Nvidia-Marketingabteilung... ;)

Didi Bouzul
2010-12-15, 19:02:06
Sehr lustig zu sehen wie Leute ihre Zeit verschwenden, um ihre Lieblibgsfirma zu verteidigen:D
Gut, dass ich immernoch frei entscheiden kann was ich kaufen will ohne, dass mir jemand sagt wenn du Firma XXX kaufst bist du blind/Invalide oder geistesgestört :D

Ich bin dafür, dass wir uns wie manch ein Ultra auf einer großen Wiese treffen, auf der einen Seiten die Grünen, auf der anderen die Roten. Danach wird ordentlich aufeinander eingehauen, bis nichts mehr geht. Das Fanboytum muss sich weiterentwickeln. Das ist der Weg.

Duke Nukem
2010-12-15, 19:04:05
Dann wäre da noch die überlegene (HD)Video Qualität.
Nvidia Karten sind da leider relativ unbrauchbar durch das verwendete Post-Processing, dass imho auch für das "flimmerfreiere" (Aniso)-Bild sorgt.

Hatte in den letzten Jahren mehrere Nvidia Karten zu Testzwecken in meinem Rechner und ALLE zeigten diesen DNR-ähnlichen Effekt, den die Fanboys scheinbar so lieben. :rolleyes:

Für Leute mit relativ guten Ausgabegeräten (halbwegs gute Full-HD Beamer und Fernseher > 50Zoll) ein absolutes KO-Kriterium.


..und ich freue mich schon auf die Antworten der Nvidia-Marketingabteilung... ;)

Wer mit NV Karten auf nem Full HD 50 er HD Videos schaut ist selber schuld hoffe die neuen 69 er Atis sind da so gut wie die 58 er wird aber wohl noch keiner wissen.

Darlie
2010-12-15, 19:32:48
Viele zocken 8xAA mit "Edge-Detect" Filter. Glaube kaum, daß es was gibt, das noch besser ausschaut. Und dafür langt die 6970 locker. Und sie sind günstiger . Mehr Grafikkarte braucht kein Mensch.

Da könten wir ja mal ne Umfrage starten. Ich zock jedenfalls meistens mit 4AA und 8 oder 16AF . Bei hohen Auflösungen ist 8AA imho eh Schwachsinn.
Ich möchte behaupten das 8AA nur eine Minderheit benutzt.

airbag
2010-12-15, 19:34:11
Die meisten kennen ED-CFAA nicht mal. Soviel zum Thema viele zocken damit ....

deekey777
2010-12-15, 19:36:48
Alt, oder?
http://developer.amd.com/samples/demos/pages/RadeonHD6900SeriesRealTimeDemos.aspx
The HK-2207 real-time demo features a number of post processing effects (depth-of-field, lens flare, ghosting, aerial perspective/atmospheric, LUT, emissive and reflection) provided as an easy approach for developers and artists to adopt Microsoft® DirectX® 11 programming. This demo also uses a current trend in game engines utilizing deferred lighting and deferred shading allowing many more lights and rapid prototyping. A newly developed GPU accelerated physics particle system is introduced utilizing DX11 DirectCompute. Bullet Physics is used with a new fracture/destruction approach that also features procedurally generated unique debris leveraging DX11 tessellation.

y33H@
2010-12-15, 19:39:44
Viele zocken 8xAA mit "Edge-Detect" Filter. Glaube kaum, daß es was gibt, das noch besser ausschaut. Und dafür langt die 6970 locker. Und sie sind günstiger . Mehr Grafikkarte braucht kein Mensch.Was soll ich mit 24x ED-CFAA?! Polygone glatt bis zum geht nicht mehr, herber Fps-Verlust. Und der Rest des Bildes flimmert weiter wie blöde vor sich hin. Statt 24x ED-CFAA ist 4x SGSSAA viel viel sinnvoller.

deekey777
2010-12-15, 19:41:08
Was soll ich mit 24x ED-CFAA?! Polygone glatt bis zum geht nicht mehr, herber Fps-Verlust. Und der Rest des Bildes flimmert weiter wie blöde vor sich hin. Statt 24x ED-CFAA ist 4x SGSSAA viel viel sinnvoller.
Oder gleich 4xSGSSAA + Edge Detect.

Darlie
2010-12-15, 19:41:41
Die meisten kennen ED-CFAA nicht mal. Soviel zum Thema viele zocken damit ....
Richtig.
Leider. Kannst froh sein das jemand dich versteht wenn du Antialaising sagst.

y33H@
2010-12-15, 19:42:00
Tent =)

airbag
2010-12-15, 19:43:19
Tent =)
blurrt
Aber immerhin besserer DS-Filter als Box

Mayk-Freak
2010-12-15, 19:50:40
Wer mit NV Karten auf nem Full HD 50 er HD Videos schaut ist selber schuld hoffe die neuen 69 er Atis sind da so gut wie die 58 er wird aber wohl noch keiner wissen.

Ich schaue selbst mit der GTX580 und PowerDVD 10 Ultra 3D Full HD auf einem großen Bildschirm und ich finde das Bild nicht schlecht.

deekey777
2010-12-15, 20:03:04
blurrt
Aber immerhin besserer DS-Filter als Box
Da man mit SGSSAA über deutlich mehr Informationen verfügte, sollte eine Tent-Filter zu weniger Unschärfe führen als mit MSAA.

derguru
2010-12-15, 20:06:38
dito und was auch ein wichtiger aspekt ist,unter sgssa oft ohne große leistungseinbussen.

y33H@
2010-12-15, 20:08:01
Richtig, Tent + SGSSAA + auto-LOD ist derzeit unübertroffen.

derguru
2010-12-15, 20:09:54
und dann nimmt amd die tent modi wieder raus,irgendwie machen die zur zeit alles falsch.;(

mapel110
2010-12-15, 20:11:22
und dann nimmt amd die tent modi wieder raus,irgendwie machen die zur zeit alles falsch.;(
Ich dachte, Edge wäre das einzig brauchbare von den Filtern. Wurde zumindest immer gesagt.

LovesuckZ
2010-12-15, 20:11:55
Alt, oder?
http://developer.amd.com/samples/demos/pages/RadeonHD6900SeriesRealTimeDemos.aspx

Hm, naja, sehr kurzweiliger Spaß.
Ziemlich unfertig: Häßliches Wasser - stammt wohl aus Morrowind. Die Bullet-Implementierung ist auf einem sehr niedrigen Niveau (Riesige Teile statt realistischer Zerstörung). Die Umgebung ist mit Low-Res Texturen geschmückt, jedoch dank DoF schön versteckt...

Irgendwie hat AMD ihre Finger für Techdemos verloren. Die Ruby-Dinger sind wesentlich ansprechender und die Whiteout-Demo sieht meiner Meinung nach besser aus als diese DX11 Demo.

derguru
2010-12-15, 20:12:12
Ich dachte, Edge wäre das einzig brauchbare von den Filtern. Wurde zumindest immer gesagt.

unter msaa ja aber unter sgssaa ist narrow tent mMn sogar noch besser als edge.(wide blurt dann doch zuviel)

8xsgssaa+narrow tent=godlike:D

gedi
2010-12-15, 20:32:49
mir gefiel ED+sgssaa auf meiner 5870 (vor allem in HL2) noch nen Ticken besser. Godlike sind imo beide und auch nicht von einem NV-Superdupi-SLI-Mega_SuperHQsystem BQ-technisch nicht einzufangen!

Dumm nur, dass dies (hoffentlich nur für den Moment) lediglich unter DX9 funktioniert.

Ronny145
2010-12-15, 20:42:41
unter msaa ja aber unter sgssaa ist narrow tent mMn sogar noch besser als edge.(wide blurt dann doch zuviel)

8xsgssaa+narrow tent=godlike:D


Manchmal zeigt Narrow Tent quasi keine Wirkung, dann geht auch Wide Tent problemlos mit geringfügigen Schärfeverlust. Zum Beispiel im Ferrari Challenge oder Far Cry.

Hier ein Beispiel.

8xSGSSAA
http://www.abload.de/thumb/farcry20108xsgssaakxeq.png (http://www.abload.de/image.php?img=farcry20108xsgssaakxeq.png)

8xSGSSAA+Wide Tent
http://www.abload.de/thumb/farcry20108xsgssaawide79zo.png (http://www.abload.de/image.php?img=farcry20108xsgssaawide79zo.png)

derguru
2010-12-15, 20:49:16
@Ronny145

ja stimmt schon,pauschalisieren kann man das wirklich nicht.ist von spiel zu spiel anders und teilweise auch geschmackssache,gedi findet z.b. mit edge in hl2 besser und ich gerade da narrow.:smile:

Ronny145
2010-12-15, 20:52:24
@Ronny145

ja stimmt schon,pauschalisieren kann man das wirklich nicht.ist von spiel zu spiel anders und teilweise auch geschmackssache,gedi findet z.b. mit edge in hl2 besser und ich gerade da narrow.:smile:


HL2 blurrt mit SSAA bei mir. Ich halte AAA für die bessere Wahl, Shader Flimmern gibt es eh kaum in dem Spiel.

V2.0
2010-12-15, 20:53:52
Wobei es imho umso ärgerlicher ist, dass AMD bei den "Standardsettings" durch das schlechtere AF verliert. Ich finde die Tentfilter und SGSSAA auch ganz nett, aber hochwertiges 4xMSAA + 16xAF+ SSAAA hat doch Priorität.

Stormscud
2010-12-15, 20:56:34
Sieht man denn da überhaupt einen Unterschied in Bewegung? Auf den Bildern ist bis auf die geringfügige Unschärfe nix zu erkennen meiner Meinung nach.

y33H@
2010-12-15, 20:57:39
Ja, sieht man - sehr sogar.

Stormscud
2010-12-15, 21:03:03
brauch ich ne Brille? oO also auf den Far Cry Bildern, ich seh da keine besser Glättung...

Ronny145
2010-12-15, 21:05:10
Sieht man denn da überhaupt einen Unterschied in Bewegung? Auf den Bildern ist bis auf die geringfügige Unschärfe nix zu erkennen meiner Meinung nach.


In Bewegung sieht man es eher mehr, ist bei Unruhe generell so. In Far Cry wäre das jetzt nicht nötig, ist nur ein Beispiel gewesen. Aber gibt ja genügend Spiele die mehr Flimmerpotenzial (trotz SSAA) aufweisen und ein Tent Filter noch mehr Ruhe reinbringen kann.

brauch ich ne Brille? oO also auf den Far Cry Bildern, ich seh da keine besser Glättung...


Also ich kann es klar erkennen.

Die gelbe Eule
2010-12-15, 21:05:11
Falls es wen interessiert, 6970 20 Stück von Club3D angekommen, 6950 Lieferdatum ungewiss. Da war NV deutlich besser.

Ailuros
2010-12-15, 21:07:38
Ihr werdet das OT wohl entschuldigen: wer will kann mir privat eine PM schicken und seit Wut bzw. Enttaeschung gegen mich ausdruecken weil ich eben darauf bestand dass Cayman lediglich ein refresh ist.

Und ja wie ich im Spekulations-thread schon sagte: AMD lieferte mit Cayman genau dass was ich von ihnen erwartete. High end GPU Leistung mit Performance GPU Preisen (zumindest der Vergangenheit).

Meine letzte Hoffnung war dass AMD selbst gegen Barts die AF Qualitaet etwas verbessert auf Cayman. Dass sie dieses Wehwehchen nicht beseitigen konnten ist zwar bedauernswert, aber ich will hoffen dass sie Zeit dafuer hatten bei der naechsten echten Generation.

***edit: V2.0 kann sich das PM sparen LOL *grins*

Chris2CB
2010-12-15, 21:09:09
brauch ich ne Brille? oO also auf den Far Cry Bildern, ich seh da keine besser Glättung...


5% Leistungsunterschied gilt hier auch als platt machen.....

Abgesehen von etwas Unschärfe und einem anderen Blickwinkel sehe ich, was die Kantenglättung betrifft auch keinen Unterschied.

AwesomeSauce
2010-12-15, 21:11:54
Alt, oder?
http://developer.amd.com/samples/demos/pages/RadeonHD6900SeriesRealTimeDemos.aspx

Ich krieg gleich nach Starten des Installers einen Error:
http://www.abload.de/img/errrrrroran3m.png (http://www.abload.de/image.php?img=errrrrroran3m.png)

Startet die Demo grundsätzlich nicht mit NV-Karten?

Edit: Jaja, lesen sollte man können...
The HK2207 demo requires Windows Vista® or above operating system, a Radeon™ HD 6900 Series graphics processor and associated Catalyst™ software, a dual- or quad-core CPU, and 2GB of RAM.

Tarkin
2010-12-15, 21:14:40
Ich krieg gleich nach Starten des Installers einen Error:
http://www.abload.de/img/errrrrroran3m.png (http://www.abload.de/image.php?img=errrrrroran3m.png)

Startet die Demo grundsätzlich nicht mit NV-Karten?

selber Error bei mir (Radeon 5870)

LovesuckZ
2010-12-15, 21:14:59
Ich krieg gleich nach Starten des Installers einen Error:
http://www.abload.de/img/errrrrroran3m.png (http://www.abload.de/image.php?img=errrrrroran3m.png)

Startet die Demo grundsätzlich nicht mit NV-Karten?

Edit: Jaja, lesen sollte man können...

Funktioniert auf meiner GTX580 Karte bestens.

Raff
2010-12-15, 21:20:01
Welch Ironie! ;D Auf der Geforce geht's, auf den Radeönern nicht.

Ich check's gleich mal auf meiner "veralteten" Zypresse. =)

MfG,
Raff

AwesomeSauce
2010-12-15, 21:21:19
Funktioniert auf meiner GTX580 Karte bestens.
Wie gross ist der Installer bei dir? Bei mir sinds nur 280MB, auf der AMD-Seite steht aber:
Demo: » HK2207.exe (655 MB)

dildo4u
2010-12-15, 21:21:44
Wie gross ist der Installer bei dir? Bei mir sinds nur 280MB, auf der AMD-Seite steht aber:
Neu laden sind 655mb.

LovesuckZ
2010-12-15, 21:22:23
Wie gross ist der Installer bei dir? Bei mir sinds nur 280MB, auf der AMD-Seite steht aber:

Sollten 655mb sein.
Wenn gewünscht, kann ich meins auf Rapidshare.com hochladen.

AwesomeSauce
2010-12-15, 21:22:31
@dildo4u
Bin ich ja schon dabei - wieder 280MB...

@LovesuckZ
Wäre nett von dir...

Raff
2010-12-15, 21:22:52
Bei mir will er auch nur 280 MiB ziehen. :| Mal den Internet Explorer probieren ...

Ok, gleiches Problem, egal wie. Wie habt ihr das Ding runterbekommen?

MfG,
Raff

Vento
2010-12-15, 21:24:42
Asus hat die ersten HD69xx OC Karten im Programm.
Overclocking um 10 MHz.;D

http://www.hardwareluxx.de/index.php?option=com_content&view=article&id=17256%20%20&catid=38&Itemid=101

dildo4u
2010-12-15, 21:25:00
Spoiler es lohnt nicht das Ding ist grotten Häslich ich bete das die Next-Gen Konsole Games nich so aussehen.*g*

LovesuckZ
2010-12-15, 21:38:45
http://rapidshare.com/files/437144632/AMD-Demo-HK2207-v1.0.part1.rar
http://rapidshare.com/files/437145294/AMD-Demo-HK2207-v1.0.part2.rar
http://rapidshare.com/files/437146123/AMD-Demo-HK2207-v1.0.part3.rar
http://rapidshare.com/files/437145727/AMD-Demo-HK2207-v1.0.part4.rar

/edit: http://www.multiupload.com/PH0AHQRTW3

Spasstiger
2010-12-15, 21:47:48
Von der Performance bin ich jetzt auch ein wenig enttäuscht. Habe mir doch 5-10% mehr erhofft. Das verdoppelte Frontend schlägt nicht so stark durch wie von mir erwartet. Letztlich ist die HD 6970 soviel gegenüber der HD 5870 schneller wie die GTX 580 gegenüber der GTX 480. Der Abstand zwischen NVs Single-GPU-High-End-Karte und AMDs Single-GPU-High-End-Karte bleibt erhalten. Allerdings musste AMD dafür die Leistungsaufnahme ordentlich nach oben schrauben, so dass die HD 6970 nicht nur in Sachen Performance mit der GTX 570 gleichzieht, sondern leider auch in Sachen Energieeffizienz.
Die HD 6950 zeigt immerhin noch, dass AMD das Entwickeln energieeffizienter Designs nicht verlernt hat, denn die ist etwas sparsamer als die HD 5870 und ungefähr gleichschnell.

Einen wirklich großen Vorteil haben die Kaimane nur, wenn der große Grafikspeicher zum Tragen kommt. Dann ist eine HD 6970 2 GiB auch mal 70% schneller als eine HD 5870 1 GiB bei spielbaren fps. Aber im Vergleich zu einer HD 5870 2 GiB wäre der Performancevorteil wahrscheinlich wieder ernüchternd.

Wer viel Speicher benötigt (Eyefinity, Downsampling, GTA IV), macht mit einer HD 6950 2 GiB für 260€ oder einer HD 6970 2 GiB für 330€ aber trotzdem keinen schlechten Kauf. Besitzer einer HD 5870 können sich das Aufrüsten in der Regel sparen.
Und alle Anderen werden mit der GTX 570 glücklich, die jetzt dank der HD 6970 auch ein wenig im Preis fallen dürfte. ;)

Vento
2010-12-15, 21:56:48
Eigentlich ist es sehr schade, ein Crossfire aus HD6970 mit SGSSAA in allen API's, Downsampling in allen API's und einem HQ AF das den Namen auch verdient wäre schon was sehr feines für SGSSAA und Downsampling Fans und würde den Weg in meinen Rechner finden.
So bleibt ein fader Beigeschmack, den wirklich wichtigen Sachen (aus Sicht des Enthusiasten) hat man sich nicht angenommen, oder hatte im Falle des AF auch nicht genug Zeit dafür.
Oben genannte Features würden die Karte mit der insbesondere in sehr hohen Auflösungen überzeugenden Performance sehr viel interessanter machen.
Die Masse der User die auf SSAA-Modi, DS oder wirkliches HQ AF keinen Wert legt, wird auch am wenigsten von den 2GB und der sehr guten Performance im Extrem-Auflösungs-Bereich profitieren.

Spasstiger
2010-12-15, 22:01:03
Schaut mal die AF-Skalierung an:
http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6970-und-hd-6950/6/#abschnitt_skalierungstests.
AF ist auf dem Cayman fast schon for free und nochmal ein wenig günstiger als auf dem Cypress.
Schon ein Jammer, dass die Hardware bei soviel Texelfüllrate nicht in der Lage ist, in Referenz-Qualität zu filtern.

LovesuckZ
2010-12-15, 22:01:18
Wer viel Speicher benötigt (Eyefinity, Downsampling, GTA IV), macht mit einer HD 6950 2 GiB für 260€ oder einer HD 6970 2 GiB für 330€ aber trotzdem keinen schlechten Kauf. Besitzer einer HD 5870 können sich das Aufrüsten in der Regel sparen.
Und alle Anderen werden mit der GTX 570 glücklich, die jetzt dank der HD 6970 auch ein wenig im Preis fallen dürfte. ;)

Um das Aufzufassen: Im Grunde gibt es doch kein Grund eine 6970 zu kaufen. Sie performt genauso viel schneller zur 6950 wie sie Mehrtakt besitzt. Die 2 zusätzlichen SIMDs und der höhrere Speichertakt wirken sich fast kaum aus. Dank dem selben Front-End muss man sich bei Tessellation auch keine weiteren Gedanken machen. Stromverbrauch und Lautstärke der 6970 geben ihr dann noch den Rest.
Aus meiner Sicht macht sind die Zusatzkosten komplett rausgeworfen.

Schaut mal die AF-Skalierung an:
http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6970-und-hd-6950/6/#abschnitt_skalierungstests.
AF ist auf dem Cayman fast schon for free und nochmal ein wenig günstiger als auf dem Cypress.
Schon ein Jammer, dass die Hardware bei soviel Texelfüllrate nicht in der Lage ist, in Referenz-Qualität zu filtern.

Natürlich "4free", wenn man an der Qualität bei 96 TMUs spart...

LuXon
2010-12-15, 22:12:57
Es ist zwar OT, aber kann es sein, dass ATI die nächsten Quartale wieder grössere Verluste machen wird?
Grössere Chips und der schnelle grosse teure Speicher fressen bestimmt einiges auf, wenn die Preise noch ein bisschen sinken werden. Ausserdem gibt es jetzt nicht mehr so gute Publicity durch den hohen Stromverbrauch.

Crazy_Chris
2010-12-15, 22:14:20
Die paar Retailkarten haben doch kaum Einfluss. Im OEM Geschäft wird das große Geld verdient und dort ist AMD immer noch sehr gut aufgestellt.

Vento
2010-12-15, 22:45:24
The true reason behind the delay of AMD Cayman 6970/6950? - you'd never wanna know ;D

http://www.xtremesystems.org/forums/showthread.php?t=263668

dildo4u
2010-12-15, 22:48:26
The true reason behind the delay of AMD Cayman 6970/6950? - you'd never wanna know ;D

http://www.xtremesystems.org/forums/showthread.php?t=263668
Holy Shit EPIC. ;D

DrFreaK666
2010-12-15, 22:48:29
Die neuen Karten benötige ich nicht.
Meine 5850 reicht mir noch. Auf EQAA kann ich verzichten, obwohl ich gerne mit neuen AA-Möglichkeiten experimentiere (daher auch die HD5850 wegen SGSSAA), ausserdem hatte ich davor eine GTX260.
Eine Geforce benötige ich auch nicht, da ich nur (!!!) DX9-Games habe und daher SGSSAA aktivieren kann.
Gott sei Dank - Geld gespart :biggrin:

Vento
2010-12-15, 22:50:21
Holy Shit EPIC. ;D

Das im Hinterkopf, dazu noch die Absage beim PCGH AMD Themenabend, dass hat schon was von einem Debakel.

airbag
2010-12-15, 22:50:32
Manchmal zeigt Narrow Tent quasi keine Wirkung, dann geht auch Wide Tent problemlos mit geringfügigen Schärfeverlust. Zum Beispiel im Ferrari Challenge oder Far Cry.

Hier ein Beispiel.

8xSGSSAA
http://www.abload.de/thumb/farcry20108xsgssaakxeq.png (http://www.abload.de/image.php?img=farcry20108xsgssaakxeq.png)

8xSGSSAA+Wide Tent
http://www.abload.de/thumb/farcry20108xsgssaawide79zo.png (http://www.abload.de/image.php?img=farcry20108xsgssaawide79zo.png)
Ja hält sich in Grenzen, obwohl es immer noch leicht unscharf gegenüber dem Boxfiltershot ist.

Langenscheiss
2010-12-15, 23:06:16
Natürlich "4free", wenn man an der Qualität bei 96 TMUs spart...
Ich glaube, die Möglichkeit des "AF4free" ist ein Mythos, der schon seit einiger Zeit herumgeistert.
Eine gute Texturfilterung ist und bleibt ein erheblicher Mehraufwand, der sich, sofern nicht ein anderer Faktor limitiert, auch bei den FPS zeigen müsste.

@Vento:
Diese Absage ist schon peinlich, aber es wäre wohl noch peinlicher geworden, wenn sie nicht abgesagt hätten. Offenbar muss AMD feststellen, dass man irgendwann an einem Punkt angekommen ist, wo man die etwas erfahrenen Kunden (die ich jetzt mal bewusst von den 3DClern abgrenze) selbst mit noch soviel PR-Gedöns und Friede-Freude-Eierkuchen nicht mehr einwickeln kann.

airbag
2010-12-15, 23:09:06
Ich glaube, die Möglichkeit des "AF4free" ist ein Mythos, der schon seit einiger Zeit herumgeistert.
Eine gute Texturfilterung ist und bleibt ein erheblicher Mehraufwand, der sich, sofern nicht ein anderer Faktor limitiert, auch bei den FPS zeigen müsste.
In Relation zu früheren Zeiten mehr oder weniger 4free

LovesuckZ
2010-12-15, 23:10:22
Ich glaube, die Möglichkeit des "AF4free" ist ein Mythos, der schon seit einiger Zeit herumgeistert.
Eine gute Texturfilterung ist und bleibt ein erheblicher Mehraufwand, der sich, sofern nicht ein anderer Faktor limitiert, auch bei den FPS zeigen müsste.


Tut es auch - siehe nVidia. In Stalker geht es jeweils deutlich nach unten, wenn man eine höhrere Stufe wählt. Schlussendlich bleiben nur noch 75% der Leistung übrig. Deswegen sollte nVidia auch endlich die AF Einstellungen für DX1x Anwendungen überarbeiten. Sind ja so nur im Nachteil gegenüber AMD.

airbag
2010-12-15, 23:16:14
Deswegen sollte nVidia auch endlich die AF Einstellungen für DX1x Anwendungen überarbeitet. Sind ja so nur im Nachteil gegenüber AMD.

Nur das Beste für den Kunden. :unono:
Eventuell die neue Strategie. In Dx1x Applikationen die Kunden verwöhnen und wenn Dx11 Standard geworden sind, werden die Kunden aufgrund des schlechten AFs ihre neuen AMDs (wechsler von NV zu AMD) zurückschicken. (Gewöhnung unzo ;D)

LovesuckZ
2010-12-15, 23:31:42
Ist eigentlich noch jemanden die riesigen Unterschiede im Verbrauch zwischen der 6950 und der 6970 aufgefallen? PCGH.de misst in Battlefield 50% mehr Stromaufnahme (bei 8% Mehrleistung), HT4U 37% mehr in HAWX und Comuterbase ganze 76Watt (das sind ganze 23% mehr als die 6950, die GTX580 benötigt gegenüber der 6970 nur 11% mehr...) mehr beim Gesamtsystem...

Das ist ganz schön heftig. Und laut Carsten Spille von der PCGH sollen auch normale Verkaufsboard über die lautere Kühllösung verfügen...

AwesomeSauce
2010-12-15, 23:34:06
Ich möchte eher wissen, ob an den Retail-Karten auch rumgefeilt wurde;D Oder liegt der Packung gleich eine Feile bei?:D

Vento
2010-12-15, 23:35:03
Ich möchte eher wissen, ob an den Retail-Karten auch rumgefeilt wurde;D

Wäre immerhin ein zusätzlicher Pluspunkt, hand crafted.:freak:

Langenscheiss
2010-12-15, 23:38:11
Tut es auch - siehe nVidia. In Stalker geht es jeweils deutlich nach unten, wenn man eine höhrere Stufe wählt. Schlussendlich bleiben nur noch 75% der Leistung übrig. Deswegen sollte nVidia auch endlich die AF Einstellungen für DX1x Anwendungen überarbeiten. Sind ja so nur im Nachteil gegenüber AMD.

Um den P-Balken Wahnsinn noch weiter zu fördern, nein danke! Dafür sollen erst mal neue Spiele ohne Konsolengrafik rauskommen!

Klar, wenn es um Verkaufszahlen geht, muss man hier von einem Nachteil sprechen, weil hier schließlich Performance und Checklisten-Features zählen. Von letzterem hat NV aber immer noch genug, da sollen die schön weiter an ihrer BQ festhalten. Es ist im Grunde ja schon bezeichnend, dass man seit dem G80 keinen wirklichen Handlungsbedarf mehr in diesem Bereich hatte, während AMD bei jeder Generation wieder etwas anderes aufgetischt hat. (das NV AF hat sich seit dem G80 nicht wesentlich geändert, soweit ich das sehe)

airbag
2010-12-15, 23:38:23
Ist eigentlich noch jemanden die riesigen Unterschiede im Verbrauch zwischen der 6950 und der 6970 aufgefallen? PCGH.de misst in Battlefield 50% mehr Stromaufnahme (bei 8% Mehrleistung), HT4U 37% mehr in HAWX und Comuterbase ganze 76Watt (das sind ganze 23% mehr als die 6950, die GTX580 benötigt gegenüber der 6970 nur 11% mehr...) mehr beim Gesamtsystem...

Das ist ganz schön heftig. Und laut Carsten Spille von der PCGH sollen auch normale Verkaufsboard über die lautere Kühllösung verfügen...
Wahrscheinlich besteht im Mittel rund 0,1 V Spannungsunterschied.
http://ht4u.net/reviews/2010/amd_radeon_hd_6970_6950_cayman_test/index17.php
Bei einer Spannung größer Cayman XT scheint es stärker als normal anzusteigen.
(war bei Cypress z.b ab 1,3V der Fall)

LovesuckZ
2010-12-15, 23:38:47
Um den P-Balken Wahnsinn noch weiter zu fördern, nein danke!

Klar, wenn es um Verkaufszahlen geht, muss man hier von einem Nachteil sprechen, weil hier schließlich Performance und Checklisten-Features zählen. Von letzterem hat NV aber immer noch genug, da sollen die schön weiter an ihrer BQ festhalten. Es ist im Grunde ja schon bezeichnend, dass man seit dem G80 keinen wirklichen Handlungsbedarf mehr in diesem Bereich hatte, während AMD bei jeder Generation wieder etwas anderes aufgetischt hat. (das NV AF hat sich seit dem G80 nicht wesentlich geändert)

Ich sprach eigentlich davon, dass sie nicht durchgehend HQ forcieren sollten. ;)

Wahrscheinlich besteht im Mittel rund 0,1 V Spannungsunterschied.
http://ht4u.net/reviews/2010/amd_radeon_hd_6970_6950_cayman_test/index17.php
Bei einer Spannung größer Cayman XT scheint es stärker als normal anzusteigen.
(war bei Cypress z.b ab 1,3V der Fall)

Wow. 0,1V mehr. Das ist dann doch ganz schön heftig. Sieht schon nach einem verzweifelten Versuch aus auf GTX570 Niveau zu kommen...

airbag
2010-12-15, 23:44:01
Wow. 0,1V mehr. Das ist dann doch ganz schön heftig. Sieht schon nach einem verzweifelten Versuch aus auf GTX570 Niveau zu kommen...

Die Vermutung hatte ich schon vor dem Caymanlaunch aufgrund des hohen TGP- bzw. auch TDPunterschieds. Cayman XT scheint für die Massenproduktion am Taktlimit zu sein, was auch die eher mageren OCergebenisse zeigen und OC-Werkskarten mit nur 10Mhz mehr Takt zeigen.

Iruwen
2010-12-15, 23:44:17
Spricht dafür dass was OC angeht auch mit mehr Spannung nicht mehr viel geht?

airbag
2010-12-15, 23:46:16
Wenns am Limit ist, kannst du soviel Spannung draufgeben wie du willst. Es bringt dich aber nicht weiter.
PCGH hat z.B. nur miese +40Mhz geschafft.
http://www.pcgameshardware.de/aid,803440/Radeon-HD-6970-und-HD-6950-im-Test-AMDs-neue-Oberklasse-Grafikkarten/Grafikkarte/Test/?page=11

edit:
Spannung lässt sich aber noch nicht anhben.

Langenscheiss
2010-12-15, 23:47:18
Ich sprach eigentlich davon, dass sie nicht durchgehend HQ forcieren sollten. ;)

Ist mir schon klar, dass du davon sprachst. Wenn sie es nicht mehr machen würden, hieße das, dass sie einen längeren P-Balken hätten. NV ist zurzeit in der Position, dass sie das einfach nicht nötig haben. Die GTX570 ist mit der 6970 auf Augenhöhe, was die Performance und den Verbrauch angeht, wenn man AMD auf HQ bencht, ist sie anscheinend sogar davor, und dann ist da ja immer noch die 580. Warum also sollte man jetzt einen bereits gewonnen Wettstreit nochmal gewinnen.
EDIT: Und im höheren Performance Segment ist man halt einfach nicht so dicht aufgestellt, da bringen solche Maßnahmen dann auch nicht mehr soviel. Wie gesagt, die HD6950 ist ja eigentlich das einzig positive an diesem Launch.

airbag
2010-12-15, 23:51:08
Vielleicht ist es halt einfach nur ein Bug gewesen, den sie erst bemerkt haben als LZ er erwähnt hat ?
Immerhin ist es vorallem zum GF100 Launch eher kontraproduktiv gewesen.Von mit Absicht leisten, waren sie damals warhscheinlich weit entfernt.

Langenscheiss
2010-12-15, 23:57:32
Jo, kann schon sein bzw. ist sogar wahrscheinlich, dass es n bug war/ist, und ja, es hätte für die User schlicht den Vorteil der Kontrolle, die wir ja von AMD auch immer fordern und nun gerechterweise auch von NV fordern sollten. Aber aus Gründen der Leistung ist man aber von Cayman sicher nicht genötigt, zu handeln. Vielleicht ist NV auch ein wenig überrascht von der Performance der Caymans.

MaxMax
2010-12-16, 00:26:21
Wenns am Limit ist, kannst du soviel Spannung draufgeben wie du willst. Es bringt dich aber nicht weiter.
PCGH hat z.B. nur miese +40Mhz geschafft.
http://www.pcgameshardware.de/aid,803440/Radeon-HD-6970-und-HD-6950-im-Test-AMDs-neue-Oberklasse-Grafikkarten/Grafikkarte/Test/?page=11

edit:
Spannung lässt sich aber noch nicht anhben.

jep, ist auch bei der hd5870 der fall: die meisten karten sind bei 1050mhz am ende gewesen, egal wieviel spannung man da noch hineinbutterte. ganz selten gabs welche die >1100 mit 1.35v schaften...
und bei cayman wirds sicher nicht so leicht werden mit einer spannungserhöhung: a) 1.3v bei ~2.7mrd tranis wollen gekühlt werden (siehe gf100: selten sehe ich da werte über 1.13v bei 3mrd transis bei overclocks, ausser du greifst zu flüssigstickstoff) b) mit powertune +20% verbrennt die hd6970 ja eh schon an die 270watt bei standardspannung, wennst da noch 0.1v drauflegst für 3-4fps bist wahrscheinlich jenseits von gut und böse...

airbag
2010-12-16, 00:28:22
Mit knapp über 1,3V war Cypress btw schon auf GTX480 Niveau bzgl des Verbrauchs. Wenn Cayman auf GTX580 Leistungsniveau will, wird man die GTX ´580 beim Verbrauch sicherlich locker schlagen können.

Iruwen
2010-12-16, 00:31:49
Ginge dank des Limiters ja nichtmal wenn man wollte.

derguru
2010-12-16, 01:13:27
falls nicht bekannt,tweak pc review http://www.tweakpc.de/hardware/tests/grafikkarten/xfx_amd_radeon_hd_6970_hd_6950/s01.php

airbag
2010-12-16, 01:38:55
Hat das hier jemand schon gepostet ?
http://www.xtremesystems.org/forums/showthread.php?t=263668

Vielleicht ist das ja der Grund für die Verspätung. Jede Karte musste ausgepackt und per Hand zerstört werden. ;D

edit:
Scheint was dran zu sein. Auch auf den Ht4U BIldern zu sehen (bei CB auch )
http://images.ht4u.net/reviews/2010/amd_radeon_hd_6970_6950_cayman_test//wandler_6950.jpg

Vento
2010-12-16, 01:48:09
Es war angeblich tatsächlich der Grund für die Verspätung.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8451328&postcount=347

svenw
2010-12-16, 08:46:44
Die Karte macht was sie soll! Welche Spiele sind denn mit den Karten nicht mit 1920er Auflösung und 8xAA spielbar?
So eine Karte ist für hohe Qualität ausgelegt und die liefert sie mit hohen FPS ab. Sorry, aber wer betreibt so eine Karte mit weniger als HD?

Ja, die Karte ist anscheinend in manchen Bereichen limitiert, aber IMHO nicht bei der Speicherbandbreite, denn ansonsten würde sie nicht gerade bei hohen Speicherfressenden Settings brillieren.

Dural
2010-12-16, 09:05:00
Wahrscheinlich besteht im Mittel rund 0,1 V Spannungsunterschied.
http://ht4u.net/reviews/2010/amd_radeon_hd_6970_6950_cayman_test/index17.php
Bei einer Spannung größer Cayman XT scheint es stärker als normal anzusteigen.
(war bei Cypress z.b ab 1,3V der Fall)


hier sind ja auch meine schon seit monaten vermutete 1,2Volt ja auch eigetroffen ;D


und für 80MHz mehr fast 0,10Volt mehr spannung ist ja mal auch nicht schlecht! da kann man bei der 6970 ja echt von "die ist am Limit" sagen

NVs GTX570 vorstellung war jetzt rückblickent einfach genial, die haben ihre GTX570 vor der 6970 fast genau auf diese abgestimmt. (oder AMD hat natürlich mit aller gewalt das teil so hoch geprügelt, obwohl die 880MHZ ja schon länger im gespräch waren...)

john carmack
2010-12-16, 09:24:05
http://www.3dcenter.org

News des 15. Dezember 2010

"Es läßt sich hieran die These aufstellen, daß Radeon HD 6950 & 6970 eventuell komplett an ihrer ROP-Leistung oder Speicherbandbreite hängen (letzteres ist wahrscheinlicher) und daß daher die Verbesserungen an der Architektur gar nicht zum tragen kommen, so lange man ROP-Leistung oder Speicherbandbreite nicht erhöht."

Das müssen die AMD Ingenieure doch vorausgesehen haben.
Wirklich schade... Gerade weil eine Leistungssteigerung von 25% - 30% wirklich im Bereich des machbaren gelegen hätte.
Ob es noch mal einen RefreshChip vor der 28nm Fertigung geben wird? Ich glaube nicht!

Da bleibt für mich nur bis zur 28nm Generation zu warten.

ChaosTM
2010-12-16, 09:45:25
Ich denke eher, dass die Treiber noch nicht wirklich fertig sind.
Dass die Ingenieure so grob daneben gehauen haben, kann ich mir fast nicht vorstellen.

10-15%+ sollten auf jeden Fall noch möglich sein.

Trotzdem ist die Leistung, speziell die der 6970er, etwas enttäuschend..

zitat.: zb. computerbase

In den Benchmarks zeigt sich dennoch ein leichtes Ungleichgewicht zwischen synthetischen Tests und Spielen - stabil laufen die Treiber zwar, sie scheinen aber noch viel Luft für Optimierungen zu haben.

Chris2CB
2010-12-16, 10:21:27
AMD sollte David Copperfield einstellen, dann wirds auch was mit dem Wunder Treiber :eek:.......wird auch die 2900XT beflügeln :wink:

airbag
2010-12-16, 10:38:56
http://www.3dcenter.org

News des 15. Dezember 2010

"Es läßt sich hieran die These aufstellen, daß Radeon HD 6950 & 6970 eventuell komplett an ihrer ROP-Leistung oder Speicherbandbreite hängen (letzteres ist wahrscheinlicher) und daß daher die Verbesserungen an der Architektur gar nicht zum tragen kommen, so lange man ROP-Leistung oder Speicherbandbreite nicht erhöht."


Naja ein Speicherbandreitenlimit dürfte man sicherlich auch vor allem daran sehen, wenn die SSAA-Leistung gegenüber der MSAA-Leistung einer anderen Karte (HD5870 beispielsweise einbricht) stärker einbricht/der Vorsprung kleiner wird, aufgrund des MSAA Kompressionen zum Bandbreitensparen.

Z.b
In SC2 1920+1200 aus dem CB-Parcour
4MSAA +14% für die 6970 gegenüber der 587
4SGSSAA nur noch +4%

Dural
2010-12-16, 11:23:47
Hab eine 6970 da, die wird sich jetzt gegen die GTX580 (OC Version 810MHz) messen dürfen :freak:

john carmack
2010-12-16, 11:29:25
Dann kommt doch hoffentlich die HD7XXX mit 384BIT SI oder gleich 512Bit SI...

In der 28nm Fertigung sollte ja Platz genug sein um solch ein SI zu integrieren!

65x65 = 4225
55x55 = 3025 (~ minus 28,25%)
40x40 = 1600 (~ minus 47,10%)
28x28 = 784 (exakt minus 51,00%)

Sieht doch ganz gut aus :D - Und ganz nebebei der größte Sprung seit Jahren! :D


@Dural
Dann mess mal :)

Iruwen
2010-12-16, 11:32:52
Die Karte macht was sie soll!

Die Frage ist weniger was sie tut als eher was sie besser oder schlechter tut als eine gewisse andere ähnlich teure Karte :tongue:

y33H@
2010-12-16, 11:36:32
Die Karte macht was sie soll!Flimmern? :eek: *SCNR* bei der Steilvorlage ...

Grumbart
2010-12-16, 11:46:25
Hier noch ein kleines Review von heise.de
http://www.heise.de/newsticker/meldung/AMD-praesentiert-Radeon-HD-6950-und-HD-6970-1153065.html

Dimon
2010-12-16, 11:46:31
Gibt da keine quervergleiche mit der GTX460 2GB? Mich würde es vor allem in sehr hohen auflösungen interessieren!

mfg
Dimon

AnarchX
2010-12-16, 11:48:55
Einen direkten Vergleich gibt es da wohl nicht:
http://www.computerbase.de/artikel/grafikkarten/2010/beratung-geforce-gtx-460/12/#abschnitt_performancerating
http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6970-und-hd-6950/26/#abschnitt_performancerating_mit_aaaf

airbag
2010-12-16, 12:14:11
Dann kommt doch hoffentlich die HD7XXX mit 384BIT SI oder gleich 512Bit SI...

Nach R600 wieder ein 512bit. Mal sehen. Glaube ich aber weniger.

horn 12
2010-12-16, 12:40:04
http://www.bpm-power.com/it/product/19679/Powercolor+Radeon+HD6950+2048MB+%28PCI-E%2C2xD%2CHDMI%2C2xmini+DP%2CA%29+%5BA99F-PJ5%5D.html

Die 230-240 Euro für HD6950 2GB werden wir bald sehen...
Wenn nur dieses miesere AF nicht wäre, dann wäre diese gleich mein.
Aber so-- NO WAY oder halt für 200 Euro...

Karten kommen täglich zwischen 20-60 rein.

Bis Monatg sollten viele Händler beliefert sein.

airbag
2010-12-16, 12:43:53
Soll man das traurig finden, dass Cayman dermaßen verschleudert wird? Immerhin ist bei der der DIEfläche doch klar, dass es eher ein Kampfpreis ist um scheinbar Marktpräsenz zu gewinnen.
Ob der Kurs dann auch in einem Gewinn im Abschluss für das laufende Geschäftsjahr enden wird, glaube ich irgendwie nicht. (haben immerhin auch noch Verlust gemacht, obwohl sich die H5k sehr gut verkauft haben und der Preis nicht niedrig war)

nagus
2010-12-16, 12:46:51
AMD sollte David Copperfield einstellen, dann wirds auch was mit dem Wunder Treiber :eek:.......wird auch die 2900XT beflügeln :wink:

ich weiß echt nicht wieso die sache mit den treibern permanent heruntergespielt wird?! auch die 480/470 hat mit neuen treibern noch ordendlich zulegen können... JEDE neue generation ist NIE von anfang an zu 100% optimiert. hat schon jemals einer von beiden herstellern zum start PERFEKT optimierte treiber präsentiert? oder gabs noch NIE performance-sprünge durch treiber?

vor allem für eine neue architektur brauchen die treiber zeit zu reifen und wachsen.

Raff
2010-12-16, 12:48:48
Da geht bestimmt noch was, wenn der Compiler besser vom althergebrachten VLIW5 auf VLIW4 getrimmt wird. Aber IMO nicht so viel wie anders herum, denn die Neuerung von VLIW4 ist ja, dass es "werkseitig" besser ausgelastet wird.

MfG,
Raff

Armaq
2010-12-16, 13:04:20
Naja ein Speicherbandreitenlimit dürfte man sicherlich auch vor allem daran sehen, wenn die SSAA-Leistung gegenüber der MSAA-Leistung einer anderen Karte (HD5870 beispielsweise einbricht) stärker einbricht/der Vorsprung kleiner wird, aufgrund des MSAA Kompressionen zum Bandbreitensparen.

Z.b
In SC2 1920+1200 aus dem CB-Parcour
4MSAA +14% für die 6970 gegenüber der 587
4SGSSAA nur noch +4%
Die SC2-Benches sehen bei CB eh gut für die 69xx aus. Wenn das die tatsächliche Leistung sein sollte, dann ist die 69xx-Serie vll. doch besser als bisher gedacht.

desert
2010-12-16, 13:05:05
ich weiß echt nicht wieso die sache mit den treibern permanent heruntergespielt wird?! auch die 480/470 hat mit neuen treibern noch ordendlich zulegen können... JEDE neue generation ist NIE von anfang an zu 100% optimiert. hat schon jemals einer von beiden herstellern zum start PERFEKT optimierte treiber präsentiert? oder gabs noch NIE performance-sprünge durch treiber?

vor allem für eine neue architektur brauchen die treiber zeit zu reifen und wachsen.

Quatsch mit soße. Den wundertreiber der die grafikpower entfesselt gibt es und gab es auch noch nie, weder bei ati noch bei amd,

airbag
2010-12-16, 13:05:43
Ja aber nur ohne AA. Mit AA fällt Cayman XT hinter eine GTX460 zurück. Immerhin noch schlimmer als in HAWX2

Armaq
2010-12-16, 13:10:54
Ja aber nur ohne AA. Mit AA fällt Cayman XT hinter eine GTX460 zurück. Immerhin noch schlimmer als in HAWX2
Spricht für a) Treiber b) ROP/Speicherbandbreite. Welchen Grund hat sonst dieser sehr teure Speicher?

y33H@
2010-12-16, 13:20:56
Die getunten ROPs zeigen zusammen mit dem fetten Speicherpolster in Metro 2033 (voll deferred!) was sie können - da ist die HD 6970 selbst wenn 1G nicht (!) überlaufen schon mal gepflegt gute 40% vor der HD 5870 und fast an der GTX 580 dran.

Iruwen
2010-12-16, 13:22:54
Neuer Avatar, wie irritierend.

DrumDub
2010-12-16, 14:18:52
die speicherbandbreite scheint tatsächlich bei höheren auflösungen ein problem zu sein. man achte auf die werte der übertakteten 6950:

http://www.xbitlabs.com/images/video/radeon-hd6970-hd6950/charts/20_hawk2.png
quelle: xbitlabs (http://www.xbitlabs.com/articles/video/display/radeon-hd6970-hd6950_13.html#sect0)

derguru
2010-12-16, 14:23:39
preisleistungverhältniss der 6950 ist wirklich gut,schon lustig wie ineffizient die 6970 mit mehr shader ist.
6950 kerntakt auf 6970 bringen +bissel ramtakt und man hat quasi eine 6970.

Eggcake
2010-12-16, 14:41:48
Mh das ist dann aber schon ziemlich nice (für die 6950).
Aberrr mal die 560 abwarten.

Wäre aber schade wenn's tatsächlich an der Speicherbandbreite liegen würde...

Raff
2010-12-16, 14:44:35
Nun, der Speicher auf 6970-Karten verkraftet laut der Hynix-Spec 3 GHz. Das wären 9 Prozent mehr. AMD gibt den Teilen anscheinend weniger Saft, um Strom zu sparen (bzw. damit sich die Karten nicht heruntertakten X-D). Im OC-Betrieb schaffen aber einige 6970er 3.000 MHz Speichertuckt.

MfG,
Raff

Bucklew
2010-12-16, 14:45:30
Hat das hier jemand schon gepostet ?
http://www.xtremesystems.org/forums/showthread.php?t=263668

Vielleicht ist das ja der Grund für die Verspätung. Jede Karte musste ausgepackt und per Hand zerstört werden. ;D
Ach herrje :facepalm:

Das passt natürlich wunderbar auf sowohl den Zeitpunkt der Bekanntgabe der Verzögerung als auch auf die Dauer. Das wird nicht billig gewesen sein und die dummen Gesichter im Management/Entwicklung kann ich mir schon vorstellen...

Gibts wohl bald bei AMD ne neue Stelle als Produktmanager? :D

airbag
2010-12-16, 14:49:22
die speicherbandbreite scheint tatsächlich bei höheren auflösungen ein problem zu sein. man achte auf die werte der übertakteten 6950:

http://www.xbitlabs.com/images/video/radeon-hd6970-hd6950/charts/20_hawk2.png
quelle: xbitlabs (http://www.xbitlabs.com/articles/video/display/radeon-hd6970-hd6950_13.html#sect0)
Signifikant ist auch noch der BC2 DS (4 OGSSAA) + 4MSAAbench von PCGH
Cayman ist das genauso lahm/schnell wie Cypress

DrumDub
2010-12-16, 14:52:53
es spricht vieles dafür, dass der cayman an der speicherbandbreite hängt, denn bei xbitlabs ist die 6950@870/5880 meistens nur minimal langsamer oder gleichschnell (bei borderlands und hawx2 sogar schneller) als die 6970.

airbag
2010-12-16, 14:56:32
Weiß jemand wie Speicherbandbreitenlimitierend MW2 ist ?

Immerhin zeig tsich im CB Test, dass Cayman Pro nru minimal langsamer ist als Cayman XT

Raff
2010-12-16, 14:57:17
Das Hack-MSAA für UE3-Spiele (Ass Effect 2, Borderlands, etc.) scheint seehr bandbreitenlastig zu sein. So gehört das erstgenannte Spiel zu den Fällen, wo die GTX 570 der GTX 480 unterliegt, obwohl's sonst idR umgekehrt ist.

MfG,
Raff

derguru
2010-12-16, 15:00:39
das hab ich bei borderlands gemerkt,da hat die gtx460 sli mit msaa und ds nicht viel zu lachen.

Raff
2010-12-16, 15:02:55
Mit SGSSAA noch viel weniger. :D Das haut echt unfassbar rein.

MfG,
Raff

derguru
2010-12-16, 15:20:16
sgssaa hab ich nur einmal probiert,als ich dann im menü die 17 fps gesehen habe hab ich die finger von sgssaa gelassen,ok war 8xsgssaa aber 4x hätte es auch nicht gerettet.:)

wohlbemerkt,460 gtx sli mit oc.;D
http://www.abload.de/thumb/borderlands2010-12-16136t7.png (http://www.abload.de/image.php?img=borderlands2010-12-16136t7.png)

Vento
2010-12-16, 15:33:57
HD6970 Crossfire Test mit 2xHD6970, 3xHD6970 und 4xHD6970

http://lab501.ro/placi-video/his-hd-6970-studiu-de-scalare-in-configuratii-multi-card

derguru
2010-12-16, 15:40:46
das sieht so krank aus,quatratisch,praktisch nicht gut.:eek:
http://www.abload.de/thumb/4way-04r614.jpg (http://www.abload.de/image.php?img=4way-04r614.jpg)

Bucklew
2010-12-16, 15:47:05
HD6970 Crossfire Test mit 2xHD6970, 3xHD6970 und 4xHD6970

http://lab501.ro/placi-video/his-hd-6970-studiu-de-scalare-in-configuratii-multi-card
Skalierung ab der zweiten Karten ist eher lala, teilweise sind zwei Karten sogar schneller als vier :freak:

Mich würd ja mal die Temperatur der inneren Karte(n) bei 3 bzw 4 Karten interessieren, das schaut ziemlich eng aus...

john carmack
2010-12-16, 15:47:28
8GB RAM :D :D :D


(2GB CrossFire)

john carmack
2010-12-16, 15:51:36
@ Bucklew

Warum ist in deiner Sig. das zweite Zitat von Schlammsau nur zur Hälfte zu sehen?

airbag
2010-12-16, 15:54:38
sgssaa hab ich nur einmal probiert,als ich dann im menü die 17 fps gesehen habe hab ich die finger von sgssaa gelassen,ok war 8xsgssaa aber 4x hätte es auch nicht gerettet.:)

wohlbemerkt,460 gtx sli mit oc.;D
http://www.abload.de/thumb/borderlands2010-12-16136t7.png (http://www.abload.de/image.php?img=borderlands2010-12-16136t7.png)
Vielleicht andere AA-Bits mal probieren. Die Standarbits sollen bzgl. der Perfomance in Borderlands nicht so toll sein.

y33H@
2010-12-16, 16:03:18
sgssaa hab ich nur einmal probiert,als ich dann im menü die 17 fps gesehen habe hab ich die finger von sgssaa gelassen,ok war 8xsgssaa aber 4x hätte es auch nicht gerettet.:)

wohlbemerkt,460 gtx sli mit oc.;D
http://www.abload.de/thumb/borderlands2010-12-16136t7.png (http://www.abload.de/image.php?img=borderlands2010-12-16136t7.png)Kommt mir bekannt vor :usad: Mit der GTX 580 easy, mit GTX 460 @ 30% OC unspielbar.

DrumDub
2010-12-16, 16:07:00
Skalierung ab der zweiten Karten ist eher lala, teilweise sind zwei Karten sogar schneller als vier :freak:
och, bei heaven in 2560x1600 ist die skalierung fast optimal:
http://lab501.ro/wp-content/uploads/2010/12/Unigine-25600.jpg

airbag
2010-12-16, 16:10:41
Skalierung ab der zweiten Karten ist eher lala, teilweise sind zwei Karten sogar schneller als vier :freak:

Mich würd ja mal die Temperatur der inneren Karte(n) bei 3 bzw 4 Karten interessieren, das schaut ziemlich eng aus...
Was aber nicht an den Karten liegen muss.
Mich würde mal interessieren, wie gut 4Karten mit einem durch LN2 auf 7Ghz gekloppten 980X abgehen. :naughty:

Botcruscher
2010-12-16, 16:16:16
och, bei heaven in 2560x1600 ist die skalierung fast optimal:
http://lab501.ro/wp-content/uploads/2010/12/Unigine-25600.jpg

Geniale Farbgebung.

MorPheuZ
2010-12-16, 16:18:21
Und wie schreibt man Tes(s)ellation nochmal :confused:

Raff
2010-12-16, 16:34:50
Das kommt von "Tesa", also Einzelteile zusammenkleben. Also Tesalation.

MfG,
Raff

Eggcake
2010-12-16, 16:38:56
Geniale Farbgebung.

Dachte ich auch :ugly:

uweskw
2010-12-16, 17:01:35
HD6970 Crossfire Test mit 2xHD6970, 3xHD6970 und 4xHD6970

http://lab501.ro/placi-video/his-hd-6970-studiu-de-scalare-in-configuratii-multi-card

Wau, in sachen Skalierung hat sich wirklich was zum positiven getan...

Bucklew
2010-12-16, 18:46:29
Warum ist in deiner Sig. das zweite Zitat von Schlammsau nur zur Hälfte zu sehen?
Frag die Forensoftware...

och, bei heaven in 2560x1600 ist die skalierung fast optimal:
Ist aber auch so ziemlich der einzige Test. Die ganzen Spiele kannste ab der 3. Karte fast alle knicken (Ausnahmen bestätigen die Regel).

Was aber nicht an den Karten liegen muss.
Nö, wahrscheinlich eher am Treiber. Aber kommt aufs selbe hinaus ;)

nagus
2010-12-16, 19:27:28
Quatsch mit soße. Den wundertreiber der die grafikpower entfesselt gibt es und gab es auch noch nie, weder bei ati noch bei amd,

eigenartig.... wieso wird von gewissen personen immer ein "wundertreiber" zitiert? definiere bitte "wundertreiber".

airbag
2010-12-16, 19:41:02
@ Bucklew

Warum ist in deiner Sig. das zweite Zitat von Schlammsau nur zur Hälfte zu sehen?
90Pixel Beschränkung.

Vento
2010-12-16, 19:41:32
eigenartig.... wieso wird von gewissen personen immer ein "wundertreiber" zitiert? definiere bitte "wundertreiber".

Wundertreiber ist ein Märchen, findet man bei Release von neuen ATI Karten immer mal wieder.
Im Luxx kursiert das auch derzeit, da wird der HD6970 als Pluspunkt angedichtet das die AMD Treiber sicherlich noch 15% in der nächsten Zeit rausholen.
Bei den ganz harten Fanboys sehr beliebt die Argumentation, wenn die Performance nicht den Erwartungen entspricht projiziert man die unerfüllten Erwartungen in den Treiber als letzten Strohalm und dichtet der Karte damit mal eben +15% in spe an.

airbag
2010-12-16, 19:46:52
Aber irgendwo her muss das Ammenmärchen doch kommen ?

Ich vermute mal: Ein Treiber bringt nur einen signifikanten Perfomancesprung, wenn es vorher scheisse gelaufen ist. (bugs, etc. )
D.h. analog zum Launch ist Cayman scheiße oder die Spieleentwickler sind Schuld, dass Nvidia besser darsteht. Das ist so ziemlich die Meinung in den anderen Foren. ;D

Vento
2010-12-16, 19:51:52
Ich kenne es nur aus der Fanboyecke, wenn eine Karte die Erwartungen nicht erfüllt hat kommt das dann immer wieder auf.
Dann kommt die Argumentation, AMD hat schon immer mehr rausgeholt aus den Treibern, da gehen noch mindestens 15%.
Bei einer HD5870 hat man das nie gelesen (die liegt auch zumindest bei CB im Performancerating 1920x1200 4xAA/16AF nach dem HD69xx Test noch immer auf den Prozentpunkt im gleichen Abstand zur GTX480 wie zum Release der GTX480), dass kommt immer dann verstärkt auf wenn eine Karte die Erwartungen nicht zu 100% erfüllt hat und es ein paar Fanboys nicht wahr haben wollen.

Natürlich lassen sich über den Treiber noch Verbesserungen erzielen, bei manchen Spielen auch deutlich, manche Spiele verlieren eventuell auch ein paar Prozent, aber insgesamt wird man niemals 15% raus holen.

Schlammsau
2010-12-16, 19:55:43
Die Treiber werden sich sicherlich noch verbessern, bestimmt so 5% im Schnitt in den nächsten 2 Monaten.

Cayman ist ne fast neue Architektur, die Vergangenheit hat gezeigt, dass auch bei nVidia, neuere Treiber Wunder bewirken können. Gerade wenn die Architektur neu ist.

AnarchX
2010-12-16, 19:56:54
Und Nvidia kann bei Bedarf die Geometrie-Drossel für die GeForce lösen.

y33H@
2010-12-16, 19:59:04
Bei PCGH haben wir das mal gemacht: Geforce GTX 280 vs. Radeon HD 4870: Launch-Treiber versus aktuelle Treiber im Test (http://www.pcgameshardware.de/aid,698272/Geforce-GTX-280-vs-Radeon-HD-4870-Launch-Treiber-versus-aktuelle-Treiber-im-Test/Grafikkarte/Test/)

Im Endeffekt holt das jeder am Ende grob das gleiche raus, gerade bei Spielen, die NACH den Karten erscheinen. NVs 1D-Einheiten mögen auf dem Papier ausgelasteter sein, aber AMDs VLIW4 sind nach nun mehr über drei Jahren VLIW5 sicher auch alles andere als "unoptimiert". Zumal AMD angibt, dank VLIW4 einfacheres Scheduling und Register Management zu haben.

Wundertreiber gibt's und gab es nicht - einzig, ein IHV entdeckt einen üblen Bug etc.

Schlammsau
2010-12-16, 20:02:20
Definiere Wundertreiber!

y33H@
2010-12-16, 20:05:26
Overall innerhalb weniger Wochen mal eben so Fps im zweistelligen Prozentbereich zuzulegen. Das ist utopisch. Auch bei Cayman.

Schlammsau
2010-12-16, 20:06:33
Overall innerhalb weniger Wochen mal eben so Fps im zweistelligen Prozentbereich zuzulegen. Das ist utopisch. Auch bei Cayman.

Wer behauptet den sowas?

Ich finde die nächsten 2 Monate, könnten ~5% im Schnitt durchaus machbar sein.

airbag
2010-12-16, 20:07:01
Wundertreiber gibt's und gab es nicht - einzig, ein IHV entdeckt einen üblen Bug etc.


Es ist alles relativ. Angenommen der Algorithmus hat eine O(n) und ein Treiberentwickler hat die bahnbrechende Idee und schafft es einen mit O(log(n)) zu entwickeln, mit der es eine deutliche Perfomancesteigerung gibt .

O = O-Notation und steht für Komplexität (das in der Klammer ist funktionelle Art der Komplexität )

Chris2CB
2010-12-16, 20:09:48
Zitat:

Tendenziell nutzen die Treiberentwickler bei Nvidia durch ihre Arbeit mehr brachliegendes Potenzial bei ihren Grafikkarten als die Kollegen von AMD/Ati. Wie unsere Entwicklung der Treiber zeigt, sind die Geforce-Treiber etwas weniger fehleranfällig

Rein rechnerisch über alle sechs Spiele hinweg legt die Geforce GTX 280 satte 33 Prozent an Leistung zu. Ende.


Liegen wir also alle falsch, es gibt Wundertreiber, aber nicht von Ati :D

Ich selbst finde es gut das eine 6970 dem Rotstift zum Opfer gefallen ist, kann ich mir günstig eine 6950 kaufen:wink:

Vento
2010-12-16, 20:10:33
Definiere Wundertreiber!

Der Wundertreiber, so wie es hier im Thread anklang und auch im Luxx zeichnet sich ja im Falle der HD6970 dadurch aus das AMD noch +15% rausholt und NV stagniert.
Das es teilweise auch drastische Leistungsverbesserungen geben kann in einzelnen Spielen sieht man ja auch am Link von y33H@.
In der Summe nehmen sich bei IHV's kaum etwas und optimieren natürlich auch mit den Treibern.
Der Wundertreiber zeichnet sich aber in der Argumentation in Foren eher dadurch aus das man dem anderen IHV mal eben locker noch 15% abnimmt und die HD6970 in absehbarer Zeit auf Augenhöhe mit der GTX580 ist, ein wenig wie im Märchen, der Frosch muss erst geküsst werden damit er zum Krokodil mutiert.

airbag
2010-12-16, 20:10:53
Das Wunder liegt im Bug. SGSSAA Bug.:D

TX 280 satte 33 Prozent an Leistung zu. Ende.

Bei einer Verbesserung in Far Cry 2 um mehr als 50% kein Wunder, dass der Schnitt so hoch ist.

Schlammsau
2010-12-16, 20:14:44
mMn kann AMD aus dem Cayman momentan mehr rauskitzeln, als nVidia aus ihrer "alten" Architektur. Eben weil Cayman "neu" ist und die GF100 Architektur nicht (mehr) .

Aber Wunder sollte man imo keine Erwarten, im nächsten halben Jahr vielleicht 10% im Schnitt, beim tessellieren evtl mehr.....

y33H@
2010-12-16, 20:16:47
GTX 280 in FC2 war schlicht der MSAA-Hack, der bei AMD via DX10.1 gemacht wurde.

dildo4u
2010-12-16, 20:23:04
mMn kann AMD aus dem Cayman momentan mehr rauskitzeln, als nVidia aus ihrer "alten" Architektur. Eben weil Cayman "neu" ist und die GF100 Architektur nicht (mehr) .

Aber Wunder sollte man imo keine Erwarten, im nächsten halben Jahr vielleicht 10% im Schnitt, beim tessellieren evtl mehr.....
Die Karte verhungert an der Speicherbandbreite da nützt der tollste Treiber nix.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8452499&postcount=398

Spasstiger
2010-12-16, 20:28:26
Wie man aus diesen Benchmarks auf eine Bandbreitenlimitierung schließen kann, wird mir nicht klar. Die Speicherbandbreite von Cayman ist genauso stark gegenüber Cypress gestiegen wie die effektive Rechenleistung. Das Verhältnis von Speicherbandbreite zu Rechenleistung ist erstmals seit dem R600 nicht mehr schlechter geworden bei den High-End-GPUs von AMD. Eine stärkere Limitierung durch die Speicherbandbreite als bei Cypress würde ich deshalb ausschließen.

Nur nochmal zur Erinnerung, was die HD 6970 gegenüber der HD 5870 bringt:
Peak-Rechenleistung (theor.): -1%
Effektive Rechenleistung bei hoher Shaderlast: +14%
Texelfüllrate: +24%
Pixelfüllrate ohne AA: +4% (mit AA sieht es hier und da besser aus)
Speicherbandbreite: +15%
Und im Mittel kommen 15% mehr Performance raus, was genau zu den Eckdaten passt. Lediglich die verdoppelte Frontend-Leistung schlägt abseits von synthetischen Geometrietests nicht durch.

Undertaker
2010-12-16, 20:31:33
Und Nvidia kann bei Bedarf die Geometrie-Drossel für die GeForce lösen.

Ist die denn in realen Spielen eine Bremse? :confused: Interessant wäre es auf jeden Fall, mal eine takt- und einheitengleiche Quadro gegen eine Geforce zu benchen.

boxleitnerb
2010-12-16, 20:31:44
Und warum ist dann die 6950 mit weniger Einheiten, einem Tick weniger Takt bei der GPU aber mehr beim VRAM schneller als eine 6970?

Spirou
2010-12-16, 20:33:32
Soweit Karten auffällige Inkonsistenzen in der Leistung zeigen, liegt es nahe, Ursachen im Bereich der Interoperabilität zwischen Treiber und Ansteuerung anzunehmen.

dildo4u
2010-12-16, 20:33:38
Wie man aus diesen Benchmarks auf eine Bandbreitenlimitierung schließen kann, wird mir nicht klar. Die Speicherbandbreite von Cayman ist genauso stark gegenüber Cypress gestiegen wie die effektive Rechenleistung. Das Verhältnis von Speicherbandbreite zu Rechenleistung ist erstmals seit dem R600 nicht mehr schlechter geworden bei den High-End-GPUs von AMD. Eine stärkere Limitierung durch die Speicherbandbreite als bei Cypress würde ich deshalb ausschließen.
Die 6950 hat weniger Shader-Cluster und der Core takt ist in dem Fall selbst mit OC niedriger als bei der 6970 trotzdem ist die 6950 schneller dank des Speicher OC.

PCGH_Carsten
2010-12-16, 20:34:03
Und warum ist dann die 6950 mit weniger Einheiten, einem Tick weniger Takt bei der GPU aber mehr beim VRAM schneller als eine 6970?

Weil der verlinkte Benchmark Hawx2 mit Tessellation ist. Cayman „unterstützt” einen off-chip-Buffer für Tessellation, wenn die internen Buffer überlaufen: den Grafikspeicher.

boxleitnerb
2010-12-16, 20:35:32
Weil der verlinkte Benchmark Hawx2 mit Tessellation ist. Cayman „unterstützt” einen off-chip-Buffer für Tessellation, wenn die internen Buffer überlaufen: den Grafikspeicher.

Äh, 6950 und 6970 sind beides Cayman und beide haben in dem Bench 2GB.

PCGH_Carsten
2010-12-16, 20:41:06
Äh, 6950 und 6970 sind beides Cayman und beide haben in dem Bench 2GB.
Richtig. Und der eine Cayman hat übertaktetes RAM.

Spirou
2010-12-16, 20:41:12
Ich erwarte kein Logikverständnis von Leuten, die Mikroruckeln per Kamera, d. h. mit festem Frametakt aufzeichnen und über umkomprimierte Youtube-Videos zeigen wollen.

Spasstiger
2010-12-16, 20:44:55
Äh, 6950 und 6970 sind beides Cayman und beide haben in dem Bench 2GB.
Die Tessellationsperformance hängt hier an der Speicherbandbreite, weil der Grafikspeicher als Off-Chip-Buffer für die Tessellation genutzt wird.
Gäbe es die Möglichkeit des Off-Chip-Buffers nicht, würde die Performance einfach komplett in den Keller wegbrechen.

In den Benchmarks ohne Tessellation bei Xbitlabs liegt die HD 6950 @ 870 MHz /5880 Mbps stets hinter der HD 6970 @ 880 MHz / 5500 Mbps.

boxleitnerb
2010-12-16, 20:52:27
Ah, kapiert. Nur mit Tess.

transstilben
2010-12-16, 21:03:15
Und Nvidia kann bei Bedarf die Geometrie-Drossel für die GeForce lösen.
Welches von diesen spiralförmigen Bauteilen ist das noch gleich und kann man das nicht einfach mit einer Kneifzange durchknipsen ? ;)

Spasstiger
2010-12-16, 21:10:26
Ah, kapiert. Nur mit Tess.
Richtig, das altbekannte Cherrypicking, um seine Argumente zu untermauern.

sklave_gottes
2010-12-16, 21:24:10
Wie man aus diesen Benchmarks auf eine Bandbreitenlimitierung schließen kann, wird mir nicht klar. Die Speicherbandbreite von Cayman ist genauso stark gegenüber Cypress gestiegen wie die effektive Rechenleistung. Das Verhältnis von Speicherbandbreite zu Rechenleistung ist erstmals seit dem R600 nicht mehr schlechter geworden bei den High-End-GPUs von AMD. Eine stärkere Limitierung durch die Speicherbandbreite als bei Cypress würde ich deshalb ausschließen.

Nur nochmal zur Erinnerung, was die HD 6970 gegenüber der HD 5870 bringt:
Peak-Rechenleistung (theor.): -1%
Effektive Rechenleistung bei hoher Shaderlast: +14%
Texelfüllrate: +24%
Pixelfüllrate ohne AA: +4% (mit AA sieht es hier und da besser aus)
Speicherbandbreite: +15%
Und im Mittel kommen 15% mehr Performance raus, was genau zu den Eckdaten passt. Lediglich die verdoppelte Frontend-Leistung schlägt abseits von synthetischen Geometrietests nicht durch.

Wenn man vergleiche wegnimmt wo der hd5870 der ram aus geht sind es sogar eher 10% mehr leistung. Also am ram liegt es nicht. Ich tippe immer noch auf die ROPs. Eine HD5870 mit 10%-15% mehr einheiten und 64ROPs hätte auf kurze sicht wesentlich mehr gebracht.

mfg martin

Spirou
2010-12-16, 21:29:56
In der Auflösung 1920*1080 liegen 5% Abstand zwischen 6950 und 6970. Bei 10% Taktdifferenz. Das ist schon ungewöhnlich genug für Karten mit unterschiedlicher Anzahl Ausführungseinheiten und gleichem Aufbau. Die übertaktete 6950 zeigt hier dieselbe Leistung wie die 6970.

In der Auflösung 2560*1600 wächst der Abstand zwischen 6950 und 6970, aber die 6970 ist mit der übertakteten 6970 nicht mehr gleichauf. Das Bild wird offenbar vom Speichertakt bestimmt.

GPU-Takt und Anzahl der Einheiten wirkungslos? In der niedrigeren Auflösung ist derselbe Unterschied im Speichertakt wirkungslos, der in der höheren allein maßgeblich ist? Dann müßte in der niedrigeren Auflösung der GPU-Takt das Maß der Dinge sein. Der aber liegt 10% auseinander und nicht 5%.

Das gleiche betrifft den Abstand zur 6870, denn 71/50*42=59. D. h. die Tesselation-Leistung der 6870 ist hier genau so hoch wie die der 6950?

Und auch der Abstand der 6870 zur 6970, der offenbar bei 2560*1600 allein vom Speichertakt bestimmt wird, ist bei 1920*1080 von was genau bestimmt, wenn er gerade mal 13% ausmacht? Der Speichertakt ist es nicht, die Anzahl der Ausführungseinheiten ist es nicht, die Architektur nicht, das Frontend nicht, usw. usf. Vielleicht ja die Größe des Pappkartons, in dem sie geliefert wurde. Wenn übrigens die Unterschiede in der Tesselation-Leistung zwischen 6870 und 6970 so bedeutungslos sind, wie es die Ergebnisse bei 1920*1080 annehmen lassen, wie kann dann Tesselation über die Bandbreite das Ergebnis bei 2560*1600 determinieren?

Man fragt sich doch sowieso schon, wie bei 10% weniger Ausführungseinheiten und 10% Taktunterschied overall 10% Unterschied in der Gesamtperformance zustandekommen. Zumal bei GPUs, die offenbar für eine größere Anzahl Ausführungseinheiten aufgebohrt wurden.

Deswegen bin ich sehr neugierig, ob sich das Bild mit den nächsten Treibern noch ändert. Konsistent sind diese Ergebnisse jedenfalls nicht.

Bucklew
2010-12-16, 21:32:01
Ich erwarte kein Logikverständnis von Leuten, die Mikroruckeln per Kamera, d. h. mit festem Frametakt aufzeichnen und über umkomprimierte Youtube-Videos zeigen wollen.
Das ist nicht entscheidend (der TFT hat ja auch eine feste Taktrate), entscheidend ist, dass der VBlank von TFT und Kamera nicht gesynct ist.

Schlammsau
2010-12-16, 21:32:02
Nur nochmal zur Erinnerung, was die HD 6970 gegenüber der HD 5870 bringt:
Peak-Rechenleistung (theor.): -1%
Effektive Rechenleistung bei hoher Shaderlast: +14%
Texelfüllrate: +24%
Pixelfüllrate ohne AA: +4% (mit AA sieht es hier und da besser aus)
Speicherbandbreite: +15%
Und im Mittel kommen 15% mehr Performance raus, was genau zu den Eckdaten passt. Lediglich die verdoppelte Frontend-Leistung schlägt abseits von synthetischen Geometrietests nicht durch.

Genau das ist das was ich nicht verstehe!

Cayman ist eigentlich um genau das an Grösse gewachsen, was er an Mehrleistung zu Cypress bringt. Und das trotz des Umstiegs von 5D auf 4D, was ja Die-Size spart.
Wo sind die Verbesserungen über ein Jahr nach Cypress? Bei Barts sieht man wenigstens eine deutliche Verkleinerung der Die-Grösse. Aber beim Cayman? Was hat sich verbessert? Ist er günstiger herzustellen? Hat er andere Vorteile?
Cayman ist ~50% grösser als Barts, bringt aber im Schnitt nur ~25% mehr Leistung auf die Strasse. Wo ist die Effizienz von AMD hin? Da hatte man genauso gut Cypress um 15% aufblasen können oder schlicht übertakten, und man hätte den gleichen Effekt.

Klär mich auf!

PCGH_Carsten
2010-12-16, 21:45:09
In der Auflösung 1920*1080 liegen 5% Abstand zwischen 6950 und 6970. [...]
Nur zur Sicherheit, für mein mangelndes Logikverständnis:
Du beziehst dich, wie ich, auf diesen Hawx2-Benchmark?

http://www.xbitlabs.com/images/video/radeon-hd6970-hd6950/charts/20_hawk2.png

airbag
2010-12-16, 21:48:58
Er könnte sich auch auf den CB COD MW2bench beziehen, der @1920*1200 so ziemlich ein ähnliches Bild zeigt. SC2 mit 4MSAA übrigens auch.

Botcruscher
2010-12-16, 21:53:37
Irgendwas liegt da richtig im Argen. Der Geschwindigkeitszuwachs von Cypress ist viel zu gering und die Abstände in der Serie seltsam.

Spirou
2010-12-16, 22:05:28
Klär mich auf!Das irritiert nur auf den ersten Blick. Da werkeln 4,16% weniger ALUs mit 3,53% mehr Takt. Wenn man daraus auch nur 20% mehr Leistung schöpft, ist das doch wohl ein deutlicher Anstieg der Effizienz. Bei 16% mehr Diesize ist meiner Meinung nach das gesamte Framework auf einen größeren Anstieg des Durchsatz hin optimiert worden. Darin steckt so viel Manpower, daß die Vorgaben zwangsläufig älter sein müssen als die Entscheidung über die Anzahl der verbauten ALUs. Letztere hing nun mal von der effektiven Strukturbreite ab, die bekanntlich nicht wie geplant verfügbar wurde.

D. h. IMHO ist Cayman auf eine größere Anzahl ALUs ausgelegt, die mit 40nm nicht verwirklicht werden kann, ohne einen Monsterchip zu bauen. Deswegen bin ich mir relativ sicher, daß für die Inkonsistenzen keine Flaschenhälse der GPU verantwortlich sind, sondern eher Anlaufschwierigkeiten in Sachen Abstimmung zw. Architektur, Treiber und Software.

Ich glaub zwar nicht, daß neue Treiber an der Gesamtperformance viel ändern, aber bei den Inkonsistenzen, die sich in den Reviews zeigen, wird sich sicher noch einiges tun. Und spätestens, wenn die ersten ihre Karten über 1GHz jagen, hört auch das Gejaule in den Foren auf.

Vielleicht kommt ja auch noch eine Überraschung mit rund 440 mm² in der Preisregion der 580 auf uns zu, und AMD dreht allen eine lange Nase. Wäre ohne weiteres machbar, behaupte ich mal salopp. 480 mm² gehen eigentlich auch. Ich mein 520 mm² müssen nun nicht unbedingt sein. Zumindest nicht vor Herbst 2011 falls 28nm nun gar nicht zupasse kommen.

Wenn man das unbedingt will, geht vieles. Selbst in 40nm, wenn man noch nicht mit dem Rücken zur Wand steht. Hab gehört, die Wand soll wohl um die 500 mm² herum definiert sein. Also noch kein Grund zum Flennen für Markenanhänger.
EDIT: Nur zur Sicherheit, für mein mangelndes Logikverständnis:
Du beziehst dich, wie ich, auf diesen Hawx2-Benchmark?Ja, natürlich, weil der hier erwähnt wurde. Was Dein Logikverständnis angeht, kann ich nichts sagen. Ich weiß ja nicht, was Du von solchen Vorführungen hältst. Kann ja auch ein Praktikant bei euch verbockt haben.

y33H@
2010-12-16, 22:12:39
Bei Barts sieht man wenigstens eine deutliche Verkleinerung der Die-Grösse. Nein. Barts liegt zwischen Juniper und Cypress, von der Größe wie von der Leistung. Dass er trotz der Größe so nahe an Cypress liegt, ist u.a. dem fehlenden DP geschuldet sowie der erhöhten Packdichte.
Kann ja auch ein Praktikant bei euch verbockt haben. Damit drückst du jedem Pratikanten einen üblen Negativ-Stempel auf, was diese nicht verdient haben!

PCGH_Carsten
2010-12-16, 22:24:29
EDIT: Ja, natürlich, weil der hier erwähnt wurde.
Wollte nur sichergehen, weil ich da in 1920 keine 5% sehe. eher sowas im Bereich von 0-7% zwischen HD6970 und HD6950OC je nach Auflösung und AA-Level (ich gehe jetzt mal davon aus, dass die Benchmarks korrekt durchgeführt und nicht allzu arg gerundet wurden). Und etwa sieben Prozent mehr Bandbreite hat die übertaktete HD 6950 ggü. der HD 6970 ja ebenfalls.

Warum ein Cayman allerdings derart an der Bandbreite hängen soll, während die GTX 570 mit deutlich weniger GByte/sek. zum Teil deutlich vorn liegt, leuchtet mir nicht ein - außer der Möglichkeit, die ich bereits angedeutet habe und die Spasstiger mithilfe der nicht-tessellierten Xbit-Benchmarks untermauert hat.

Was Dein Logikverständnis angeht, kann ich nichts sagen. Ich weiß ja nicht, was Du von solchen Vorführungen hältst. Kann ja auch ein Praktikant bei euch verbockt haben.
Wenn du so einen Satz direkt unter meinem Posting rausknallst ohne dass er in irgendeinem Zusammenhang mit etwas anderem in diesem Thread steht, ist es ja nicht völlig abwegig, wenn ich auch ohne an übermäßiger Geltungssucht zu leiden, erstmal davon ausgehe, dass du damit auf mich abzielst.

Schlammsau
2010-12-16, 22:29:10
Und? Barts liegt nur 10% unter Cypress bei deutlich kleinerer Die-Size!
Und Barts hat sogar eine, wenn auch nur moderate, bessere Tessleistung.

Warum haben die das nicht mit Cayman hinbekommen? Es liegen durchschnittlich nur 25% Leistung, aber 50% mehr Die-Size und 100% mehr VRAM, zwischen Barts und Cayman.

Cayman ist mMn wirklich nur halbgar auf den Markt gekommen, entweder da kommt Treibermässig noch was, oder da ist gehörig was schief gelaufen.

Nur meine Meinung......

PCGH_Carsten
2010-12-16, 22:37:47
In dieser Runde hat AMD eben das getan, für was Nvidia mit Fermi Schelte kassiert hat: Transistoren in GPU-Computing investiert.

Erinnert sich noch jemand an den Sprung von Geforce 2 Ultra auf Geforce 3? In den "üblichen" Workloads, also 16 Bit Farbtiefe, konnte sich der NV20 nicht absetzen, war teils sogar langsamer. Fail - solange eben nicht die neuen Features (32 Bit, Shader, MSAA) genutzt wurden. So ist das nunmal, wenn man auch mal etwas langfristiger investiert. Zugegeben, in der heutigen Zeit ist langfristiges Denken nicht gerade "in".

edit:
Und bevor wieder unsere armen Praktikanten geflamed werden:
"However, AMD Graphics CTO Eric Demers, who was chief architect on Cayman back when the project started and was also deeply involved in R600, said almost wistfully that AMD would have retained the five-wide ALU if graphics workloads were the only consideration."
http://www.techreport.com/articles.x/20126/2

Spirou
2010-12-16, 22:38:18
Ich habe mich allein auf die Ergebnisse im obersten Block ohne AA konzentriert, weil es da tatsächlich auf diese 5% hinausläuft, und dabei weniger Abhängigkeiten zum Tragen kommen als mit AA.

Der Hinweis auf die Bandbreite der 570 hebt es ja noch hervor. Wenn dafür OFF-Chip-Buffering verantwortlich ist, wundert mich, daß der Effekt sowohl Barts als auch Cayman in gleicher Weise betrifft und nur in größeren Auflösungen. Der auflösungsbedingte Zuwachs an Schreibvorgängen in den Framebuffer macht doch am Gesamtumfang der Speicherzugriffe nur einen Bruchteil aus. D. H. die Gesamtperformance könnte beeinflusst sein, wird dadurch aber doch keine lineare Funktion der Bandbreite.

Zumal bei auflösungsbedingt weniger Frames pro Sekunde der Effekt von selbst ausgeglichen werden müßte.

y33H@
2010-12-16, 22:41:30
@ Schlammsau

Kommt auch auf die Spiele an. Eine HD 5870 konnte sich anno September 2009 auch nicht weit von der GTX 285 absetzen und die HD 5850 oft erst recht nicht. Mittlerweile klatscht selbst die allseits verpönte HD 5830 im Mittel eine GTX 285, selbst ohne DX11-SpeedUp. Wozu Cayman in der Lage ist, zeigt zB in Metro 2033: Da schlägt eine HD 6970 eine HD 6870 mal so um gepflegte +50 bis +60% - ohne Tessellation (da hast du btw 1:1 mehr Leistung bei steigender Die-Size)! Es ging halt sicherlich viel Platz für das doppelte Front-End drauf, was derzeit ebenso wenig oft durchschlägt wie die verbesserten ROPs. Gib der Karte mal ein paar Neuerscheinungen und von mir aus auch Treiber und sie wird ihren Weg gehen. Und wie Carsten sagte, Platz für GGPU musste auch sein.

PCGH_Carsten
2010-12-16, 22:50:37
Ich habe mich allein auf die Ergebnisse im obersten Block ohne AA konzentriert, weil es da tatsächlich auf diese 5% hinausläuft, und dabei weniger Abhängigkeiten zum Tragen kommen als mit AA.
103:103= 1,0
82:77= 1,0649

5% scheinen eine grobe Schätzung zu sein.

Der Hinweis auf die Bandbreite der 570 hebt es ja noch hervor.
Nein, Fermi fängt Geometrieverstärkung über den L2-Cache ab.

Wenn dafür OFF-Chip-Buffering verantwortlich ist, wundert mich, daß der Effekt sowohl Barts als auch Cayman in gleicher Weise betrifft und nur in größeren Auflösungen.
Von Barts sehe ich nur Einzelwerte und keine verschiedenen Taktraten. Daher lässt sich dieser Effekt aus dem fraglichen Benchmark mMn nicht herauslesen.

Der auflösungsbedingte Zuwachs an Schreibvorgängen in den Framebuffer macht doch am Gesamtumfang der Speicherzugriffe nur einen Bruchteil aus. D. H. die Gesamtperformance könnte beeinflusst sein, wird dadurch aber doch keine lineare Funktion der Bandbreite.

Zumal bei auflösungsbedingt weniger Frames pro Sekunde der Effekt von selbst ausgeglichen werden müßte.
Ich verstehe diesen Teil deines Postings nicht.

derguru
2010-12-16, 22:51:52
bei stalker ebenso,da gibts auch bis zu 70% mehr speed zur 6870.(1920*1200 4aa/16af)
http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6970-und-hd-6950/23/#abschnitt_stalker__call_of_pripyat

y33H@
2010-12-16, 23:00:30
Stammt ja beides fast aus den gleichen Händen :ugly: Oleg war doch iirc vor 4A Games bei GSC.

Spirou
2010-12-16, 23:42:18
Pardon, 7%, aber das ist ja auch gar nicht der Knackpunkt.

1920*1080, 0AA, ich nehm die 570 mal heraus, um es hervorzuheben:

a) 6970 = 103 bei 1536*880=1351680 / 5500
b) 6950 = 103 bei 1408*870=1224960 / 5880
c) 6950 = 096 bei 1408*800=1126400 / 5000
d) 6870 = 090 bei 1120*900=1008000 / 4200

1) b erreicht mit 13% weniger Shaderleistung a, ergo ist die Shaderleistung keine Determinante, die Bandbreite aber auch nicht, denn die liegt bei b 7% höher als bei a.

2) c liegt 7% unter a und b, die Bandbreite von c liegt 10% unter a und 17% unter b, die Shaderleistung 25% unter a und 10% unter b.

3) d liegt 7% unter c hat weitere 17% weniger Bandbreite, und 12% weniger Shaderleistung als c.

Und nun 2560*1600, 0AA, wiederum ohne die 570:

a) 6970 = 77 bei 5500
b) 6950 = 82 bei 5880
c) 6950 = 71 bei 5000
d) 6870 = 59 bei 4200

1) d liegt exakt bei 71/5000*4200=59
2) c liegt etwa bei 82/5880*5000=70
3) b liegt etwa bei 77/5500*5880=82

D. h. in der höheren Auflösung determiniert die Bandbreite zu 99% die Leistung bei verschiedenen Architekturen mit verschiedenen Tesselatoren und unterschiedlichster Shaderleistung.

Derselbe dafür verantwortliche Effekt bügelt sowohl die Anzahl ALUs als auch deren Takt als auch die Unterschiede im Frontend zu 100% glatt. Gäbe es ihn real, dürfte der Gleichstand zw. 5500 und 5880 GBit/s in der niedrigeren Auflösung nicht zustandekommen. Was geht da vor?

Rund 289/4=72 FPS bei 2560*1600 (4096000) zu 392/4=96 FPS bei 1920*1080 (2073600) bedeutet 288:192 also im Mittel 3/2 und damit 50% mehr Schreibvorgänge in den Ausgabepuffer. Alle anderen Speicherzugriffe laufen weiterhin proportional der Anzahl Frames pro Sekunde ab. D. h. es kann keine proportionale Abhängigkeit von der Bandbreite geben, solange nicht der Umfang der Schreibzugriffe auf den Ausgabepuffer auflösungsbedingt so groß wird, daß er die sinkende Bildwiederholrate ausgleicht. Sonst überwiegt der Einfluss der GPU auf das Leistungsbild.

Zu 100% von der Bandbreite determinierte Bildraten schliessen den Einfluss der Tesselation m. E. ohnehin aus, es sei denn, alle Speicherzugriffe wären Off-Chip-Buffering, und die GPU würde praktisch nichts anderes mehr machen. Dann wäre sie aber auch bei der kleineren Auflösung schon reichlich damit beschäftigt, und würde auf die 7% zwischen a und b skalieren. Tut sie aber nicht.

EDIT: Danke für den Hinweis, bin offenbar schon ganz konfus. Hab das korrigiert.

sklave_gottes
2010-12-16, 23:47:38
Pardon, 7%, aber das ist ja auch gar nicht der Knackpunkt.

1920*1080, 0AA, ich nehm die 570 mal heraus, um es hervorzuheben:

a) 6970 = 103 bei 1536*880=1351680 / 5500
b) 6950 = 103 bei 1408*870=1224960 / 5880
c) 6950 = 096 bei 1408*800=1126400 / 5000
d) 6870 = 090 bei 1280*900=1152000 / 4200




Es sind nicht 1280 sondern 1120*900

mfg martin

Spirou
2010-12-17, 00:48:23
Schweigen im Walde. Dabei habe ich noch gar nicht danach gefragt, worin sich die wundersame Leistung der GTX570 begründet, wenn keinerlei Einfluss der Tesselation oder der Shaderleistung festzustellen ist. Is this Benchgate?

G A S T
2010-12-17, 01:45:04
Richtig spannend wird das Ganze doch erst aus P/L-Sicht,
wenn dann noch die GTX 560 Ende Januar aufschlägt. :ulol:

horn 12
2010-12-17, 06:45:57
Ja, aber die GTX 560 wird so wie die HD6950 sich um die 210 / 220+ Euro einpendeln,- und AMD wird NV das Leben schon zum Lauch der GTX 560 schwer machen zwecks des Kampfpreises.

Die gelbe Eule
2010-12-17, 08:41:55
Die Verfügbarkeit der 6970 ist zur Zeit wirklich mies. Keine 30 Karten in 2 Tagen, von der 6950 nichts zu sehen. Die 570er hingegen kommt täglich in guter Stückzahl rein.

Dural
2010-12-17, 08:43:49
na das feilen benötigt halt seine zeit ;D :freak: :wink:

Die gelbe Eule
2010-12-17, 08:50:07
Genau das hab ich mir gedacht. Wäre übrigens interessant mal in der Technik nachzuschauen, ob die "neuen" Karten auch fehlende Ecken am 6-PIN haben und wie man dann damit umgeht, sollte ein Kunde dies bemerken.

Dural
2010-12-17, 09:18:02
meine retail 6970 hat es auch... Fail hoch 3 aber hey ist AMD von denen erwartet man ja ach nichts anderes ;)

PCGH_Carsten
2010-12-17, 09:27:33
Schweigen im Walde.
Guck mal auf die Uhr - bzw. auf die Uhrzeit deines Postings. Gibt auch Leute, die morgens früh wieder schaffen müssen. :) Und genau das wird mich heute auch mindestens bis 20:00 Uhr davon abhalten, weiter darauf einzugehen. Mal sehen, vielleicht komme ich am WE dazu.

john carmack
2010-12-17, 10:00:43
Die Karte verhungert an der Speicherbandbreite da nützt der tollste Treiber nix.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8452499&postcount=398


Stehen die Sterne ja gut für ein HD7XXX mit 384BIT SI oder gleich 512Bit SI...

In der 28nm Fertigung sollte ja Platz genug sein um solch ein SI zu integrieren!

65x65 = 4225
55x55 = 3025 (~ minus 28,25%)
40x40 = 1600 (~ minus 47,10%)
28x28 = 784 (exakt minus 51,00%)

Sieht doch ganz gut aus :D - Und ganz nebebei der größte Sprung seit Jahren! :D

Fetza
2010-12-17, 10:15:31
Stehen die Sterne ja gut für ein HD7XXX mit 384BIT SI oder gleich 512Bit SI...

In der 28nm Fertigung sollte ja Platz genug sein um solch ein SI zu integrieren!

65x65 = 4225
55x55 = 3025 (~ minus 28,25%)
40x40 = 1600 (~ minus 47,10%)
28x28 = 784 (exakt minus 51,00%)

Sieht doch ganz gut aus :D - Und ganz nebebei der größte Sprung seit Jahren! :D

Eigentlich überhaupt nicht. Denn ein 512 bittiges speicherinterface hätte amd schon jetzt den karten spendieren müssen, wenn bandbreite das problem ist. So steht cayman ziemlich schlecht da.

john carmack
2010-12-17, 10:18:42
Kostet aber Transistoren und damit Platz. Und etwas Strom natürlich auch!

Der_Korken
2010-12-17, 10:32:18
Kostet aber Transistoren und damit Platz. Und etwas Strom natürlich auch!

Mit einem 384bit SI hätte man aber bei 1,5GB VRAM bleiben können, der zudem auch mit 4800Mhz locker auskommen würde. Ich denke mal der Verbrach wäre nicht nennenswert angestiegen. Dafür hätte man (Spekulation!) mehr Speed und könnte die Karten teurer verkaufen.

john carmack
2010-12-17, 10:40:05
Hatte da was anderes gelesen... Weiß leider net mehr wo hier im Forum. So ein SI braucht schon etwas Platz...

Ist zwar schade, dass der Cayman wohl noch irgendeinen Flaschenhals hat, aber ihn zu bringen war wohl wichtig. Es war ja schon lange bekannt, dass es eine Hybridlösung auf dem Weg zu einer stark veränderten Architektur wird. Das Umstellen auf 4D und die Dual-Engine wird schon noch Früchte tragen und erleichtert sicher die Anpassung auf Southern Island.

AnarchX
2010-12-17, 10:44:51
Vielleicht kann ein HD 6900 Besitzer einen Skalierungstest machen.
Mit 1/2 GPU-Takt + vollem Speichertakt VS 1/2 GPU-Takt + 1/2 Speichertakt, kann man wohl durchaus das Verhalten eines größeren SIs simulieren.

john carmack
2010-12-17, 10:50:17
:D

Ja genau, schöne Idee... Mach mal jemand! Ich hab keine 69XX :(

deekey777
2010-12-17, 10:54:37
An die Cayman-Besitzer:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=174939

Die Ergebnisse wären interessant.
Am besten gleich nur so eine Batch-Datei:
@echo off
REM gpubench.bat by mirp
REM for GPUBench (http://gpubench.sourceforge.net/)

if not exist ..\bin goto help
if not exist gpubench.bat goto help
if "%1" == "help" goto help
if "%1" == "start" goto start
if "%1" == "" (call gpubench.bat start > ..\gpubench_results.txt) else (call gpubench.bat start > ..\%1)
goto end

:help
echo.
echo ----------------------------------
echo gpubench.bat for GPUBench
echo http://gpubench.sourceforge.net/
echo.
echo move gpubench.bat to .\scripts
echo.
echo GPUBENCH [filename.txt]
echo ----------------------------------
echo.
goto end

:start
cd ..\bin
echo ==========================================================================
echo GPUBench - http://gpubench.sourceforge.net/
echo ==========================================================================
echo.
echo --------------------------------------------------------------------------
echo Video Driver Information
echo --------------------------------------------------------------------------
gid
echo.
echo --------------------------------------------------------------------------
echo Instruction Issue
echo --------------------------------------------------------------------------
instrissue -n -a -l 64 -m
echo.
echo --------------------------------------------------------------------------
echo Scalar vs Vector Instruction Issue
echo --------------------------------------------------------------------------
instrissue -n -c 1 -i ADD -l 40 -m
instrissue -n -c 4 -i ADD -l 40 -m
instrissue -n -c 1 -i SUB -l 40 -m
instrissue -n -c 4 -i SUB -l 40 -m
instrissue -n -c 1 -i MUL -l 40 -m
instrissue -n -c 4 -i MUL -l 40 -m
instrissue -n -c 1 -i MAD -l 40 -m
instrissue -n -c 4 -i MAD -l 40 -m
echo.
echo --------------------------------------------------------------------------
echo Instruction Precision
echo --------------------------------------------------------------------------
precision.exe -m 0.001 -x 1.5707963267949 -b
precision.exe -m 1.0e-12 -x 0.001 -bsce
cd ..\scripts

:end
Neue Textdatei, das, was oben steht, darein kopieren, als gpubench2.bat.txt speichern und TXT entfernen. Sonst siehe mirps Posting.

Armaq
2010-12-17, 11:19:37
Man kann zumindest ohne Probleme behaupten, dass AMD in der Lage sein muss, ihre Position derart zu verbessern, wie es die Rohdaten andeuten. Es wäre schön zu sehen, wenn ein professionelles Magazin wie die PCGH an dieser Sache dran bleibt.

Für Nvidia-Fans ist es sicher bitter zu lesen, worauf ein Neutraler schon kommt, wenn er Reviews einmal überfliegt.

Absolut genial ist die Kühler/Kartenkombi. Der Verantwortliche hat vll. keine schönen Weihnachten.

y33H@
2010-12-17, 11:26:02
Ich verstehe deine drei letzten Sätze nicht.

Armaq
2010-12-17, 11:43:19
Ich verstehe deine drei letzten Sätze nicht.
Eonige Erbnisse aus den Benchmarks zeigen deutlich, dass diese Serie Potential hat, es aber nicht ausspielt.

Die geteilten Kanten sind ein echter Entlassungagrund.

Besser?

_flx
2010-12-17, 11:45:38
meine retail 6970 hat es auch... Fail hoch 3 aber hey ist AMD von denen erwartet man ja ach nichts anderes ;)


Reklamier das doch mal bitte :biggrin:

y33H@
2010-12-17, 11:50:25
Eonige Erbnisse aus den Benchmarks zeigen deutlich, dass diese Serie Potential hat, es aber nicht ausspielt.

Die geteilten Kanten sind ein echter Entlassungagrund.

Besser?
Ersten Satz kapiert, ja. Metro 2034 etwa zeigt das Potenzial. Den zweiten Satz kapiere ich aber nach wie vor nicht - spielst du auf diese schwarz-roten Streben an?

deekey777
2010-12-17, 11:53:10
Reklamier das doch mal bitte :biggrin:
Auf jeden Fall! Und beschreibe dabei, wie du diesen Fehler auf deiner HD6900 festgestellt hast.

Eggcake
2010-12-17, 11:57:32
@y33h@

Wenn ich Armaq richtig verstanden habe, meint er die Sache mit dem Feilen :ugly:

y33H@
2010-12-17, 12:00:53
Ach so ... tja, das ist natürlich übel, wenn die Verzögerung daher kommt :usad:

Armaqs Schreibe wirkt heute leider etwas besoffen, "geteilt" statt "gefeilt" hat halt eine komplett andere Bedeutung.

Raff
2010-12-17, 12:11:05
Ich tippe auf das Eierphone-Syndrom. Damit kann man an jedem Ort der Welt spammen – aber fast nie fehlerfrei. :D

MfG,
Raff

PCGH_Carsten
2010-12-17, 12:16:20
An die Cayman-Besitzer:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=174939

Die Ergebnisse wären interessant.
Am besten gleich nur so eine Batch-Datei:
@echo off
REM gpubench.bat by mirp
REM for GPUBench (http://gpubench.sourceforge.net/)

if not exist ..\bin goto help
if not exist gpubench.bat goto help
if "%1" == "help" goto help
if "%1" == "start" goto start
if "%1" == "" (call gpubench.bat start > ..\gpubench_results.txt) else (call gpubench.bat start > ..\%1)
goto end

:help
echo.
echo ----------------------------------
echo gpubench.bat for GPUBench
echo http://gpubench.sourceforge.net/
echo.
echo move gpubench.bat to .\scripts
echo.
echo GPUBENCH [filename.txt]
echo ----------------------------------
echo.
goto end

:start
cd ..\bin
echo ==========================================================================
echo GPUBench - http://gpubench.sourceforge.net/
echo ==========================================================================
echo.
echo --------------------------------------------------------------------------
echo Video Driver Information
echo --------------------------------------------------------------------------
gid
echo.
echo --------------------------------------------------------------------------
echo Instruction Issue
echo --------------------------------------------------------------------------
instrissue -n -a -l 64 -m
echo.
echo --------------------------------------------------------------------------
echo Scalar vs Vector Instruction Issue
echo --------------------------------------------------------------------------
instrissue -n -c 1 -i ADD -l 40 -m
instrissue -n -c 4 -i ADD -l 40 -m
instrissue -n -c 1 -i SUB -l 40 -m
instrissue -n -c 4 -i SUB -l 40 -m
instrissue -n -c 1 -i MUL -l 40 -m
instrissue -n -c 4 -i MUL -l 40 -m
instrissue -n -c 1 -i MAD -l 40 -m
instrissue -n -c 4 -i MAD -l 40 -m
echo.
echo --------------------------------------------------------------------------
echo Instruction Precision
echo --------------------------------------------------------------------------
precision.exe -m 0.001 -x 1.5707963267949 -b
precision.exe -m 1.0e-12 -x 0.001 -bsce
cd ..\scripts

:endNeue Textdatei, das, was oben steht, darein kopieren, als gpubench2.bat.txt speichern und TXT entfernen. Sonst siehe mirps Posting.

Das war so ziemlich das erste, was ich mit der 6970 gemacht habe. Skalar 330, Vector 320. Die Präzision hat sich durch die Umstellung auf kleiner LUTs geändert.