PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 7970: (P)Review-Thread


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12

w0mbat
2011-12-22, 19:59:22
also meines wissens nach war das ca. ziel 1200mhz. damit wäre man auch locker bei gtx580 +50%.

Zergra
2011-12-22, 20:09:30
Laut AMD wohl ~40% mehr Takt mit Spannungserhöhung: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9092011#post9092011
Nunja da kann AMD ja noch ne 7980 rausbringen die dann einfach nen höheren Standart Takt hat und dann auch mit Kepler mithalten kann :D

mapel110
2011-12-22, 20:12:35
Genau, und dann ist Dual Tahiti völlig sinnlos.

boxleitnerb
2011-12-22, 20:14:25
Wieso? An Dual Tahiti wird auch ein gepimpter Tahiti nicht rankommen. Und man will sicher was gegen die hypothetische GTX690/790 im Stall haben.

Dural
2011-12-22, 20:17:56
Unsere Karte ging auch auf 1125 MHz, allerdings griff hier PowerTune und die Performance stieg ab 1045 MHz nicht weiter.

:eek: :confused:

Zergra
2011-12-22, 20:20:26
:eek: :confused:
Begrentz Power Tune nicht die Max. TDP ? hatten die das vllt. falsch eingestellt.. ? kann ich mir nicht vorstellen ...

boxleitnerb
2011-12-22, 20:21:54
Bei den anderen OC-Tests war das aber nicht der Fall. Daher gehe ich auch von einem Fehler der Redaktion aus.

mapel110
2011-12-22, 20:23:00
Dual Tahiti wird sicher gesenkten Takt haben. Dann wird der Abstand zu einer stark übertakteten 7900er nicht gerade berauschend.
Ich würde nicht mit einer Karte zwischen 7970 und 7990 rechnen.

Zergra
2011-12-22, 20:28:56
Dual Tahiti wird sicher gesenkten Takt haben. Dann wird der Abstand zu einer stark übertakteten 7900er nicht gerade berauschend.
Ich würde nicht mit einer Karte zwischen 7970 und 7990 rechnen.
wieso ?
nur weil die 590GTX das hatte? die wurde ja auch schamlos von der 6990 abgezogen... ich denke nicht das sie diesmal die weiter runtertakten werden... vorallem weil die Leistungsaufnahme im Bereich der 6970 ist und dort haben sie den chip auch nicht runtergetaktet

mapel110
2011-12-22, 20:32:39
Natürlich hat man den Takt gesenkt bei der 6990. Sowohl Chip als auch Speicher. Das wird bei Tahiti nicht anders sein.

Dural
2011-12-22, 20:43:14
keine ahnung... ich dachte bis jetzt naja gut wenigstens vernüftiges OC potential und dann hab ich das auf luxx gelessen :rolleyes:


übrigens die 7970 hat 1,180Volt, sehr viel für 28nm... die ausbeute dürfte ja wohl nicht so der hammer sein, nett ausgedrückt...


der heutige tag hinterlässt deutlich mehr fragen zu diesem produkt als es sein sollte und man kann es nicht mal selber nach test: paperlaunch

Tesseract
2011-12-22, 20:54:57
nein, die BQ ist nicht geringer. ich nehme etwas mehr flimmern gerne in kauf (was man nicht wirklich merkt), habe dafür aber volle winkelunabhängikeit.

kannst du machen, aber richtig ist des deswegen noch lange nicht. wenn nicht alle videos aller reviewer falsch sind ist die filterung nach wie vor schlechter.

Black-Scorpion
2011-12-22, 20:59:44
keine ahnung... ich dachte bis jetzt naja gut wenigstens vernüftiges OC potential und dann hab ich das auf luxx gelessen :rolleyes:


übrigens die 7970 hat 1,180Volt, sehr viel für 28nm... die ausbeute dürfte ja wohl nicht so der hammer sein, nett ausgedrückt...


der heutige tag hinterlässt deutlich mehr fragen zu diesem produkt als es sein sollte und man kann es nicht mal selber nach test: paperlaunch
Wie viel schreibt der werte Herr denn für 28nm vor?

Merkst du überhaupt wie viel Scheiße du schreibst? Seit wann bestimmst du mit welcher Spannung ein Chip zu laufen hat. Oder willst du wie üblich nur BS verbreiten.

uweskw
2011-12-22, 21:00:12
keine ahnung... ich dachte bis jetzt naja gut wenigstens vernüftiges OC potential und dann hab ich das auf luxx gelessen :rolleyes:




Wenn du nur sinnlos gegen AMD bashen kannst......
In geschätzten 180 Reviews all over the world wird ausdrücklich die OC Fähigkeit gelobt.:freak:
Dabei gibts doch genug echte Angriffsfläche bei diesem überstürzen Launch. Aber hast wohl Angst dass konstruktive Kritik zu Verbesserungen führt. Also ziehst du es vor sinnlos zu bashen.

Zergra
2011-12-22, 21:03:00
Wie viel schreibt der werte Herr denn für 28nm vor?

Merkst du überhaupt wie viel Scheiße du schreibst? Seit wann bestimmst du mit welcher Spannung ein Chip zu laufen hat. Oder willst du wie üblich nur BS verbreiten.

Er versucht darauf zu schließen weil die Spannung bei Sandy auch immer geringer wurde... aber das war ja nur die die vertragen wird.

M4xw0lf
2011-12-22, 21:06:41
kannst du machen, aber richtig ist des deswegen noch lange nicht. wenn nicht alle videos aller reviewer falsch sind ist die filterung nach wie vor schlechter.

Ist nicht das einzige Video, das wirklich schlecht aussieht, das von The Witcher 1?
Im Filter Tester sieht es ja nicht verkehrt aus.

Zergra
2011-12-22, 21:08:04
http://www.hardwareluxx.de/images/stories/galleries/reviews/2011/radeon-7970/bench/far1.jpg
mhh dort ist die Karte sogar schneller als die 6990.... die warscheinlich schlecht skalliert... aber dort rennt sie ins Cpu limit.. wäre mal interessant wie weit sie sich dort noch von der 590 GtX absetzten könnte

w0mbat
2011-12-22, 21:32:11
kannst du machen, aber richtig ist des deswegen noch lange nicht. wenn nicht alle videos aller reviewer falsch sind ist die filterung nach wie vor schlechter.

je nach dem was dein focus ist. AMD flimmer marginal, NV ist nicht ganz winkelunabhängig. ich bin sicher, wenn AMD es mit der winkelunabhängigkeit nicht so genau nehmen würde, wären sie auch besser bein flimmern.

das ding ist, dass man beides nicht sieht. frag Raff, der kann dir das bestätigend.

fakt ist: AMD hat das AF gefixed und AMD default ist = NV default. nur einige fanboys wollen das nicht wahrhaben und wheinen rum.

Ronny145
2011-12-22, 21:35:28
das ding ist, dass man beides nicht sieht. frag Raff, der kann dir das bestätigend.


Klar lässt sich das Flimmern sehen.

HarryHirsch
2011-12-22, 21:40:30
je nach dem was dein focus ist. AMD flimmer marginal, NV ist nicht ganz winkelunabhängig. ich bin sicher, wenn AMD es mit der winkelunabhängigkeit nicht so genau nehmen würde, wären sie auch besser bein flimmern.

das ding ist, dass man beides nicht sieht. frag Raff, der kann dir das bestätigend.

fakt ist: AMD hat das AF gefixed und AMD default ist = NV default. nur einige fanboys wollen das nicht wahrhaben und wheinen rum.

im nächsten (?) heft wollen sie noch mal genauer darauf eingehen.

Wir werden uns die Filterung im Rahmen eines großen Print-Praxisartikels nochmals genauer ansehen.mal sehen was da noch kommt... eventuell kann jemand mit abo das fazit ja dann hier posten

Locuza
2011-12-22, 21:40:41
je nach dem was dein focus ist. AMD flimmer marginal, NV ist nicht ganz winkelunabhängig. ich bin sicher, wenn AMD es mit der winkelunabhängigkeit nicht so genau nehmen würde, wären sie auch besser bein flimmern.

das ding ist, dass man beides nicht sieht. frag Raff, der kann dir das bestätigend.

fakt ist: AMD hat das AF gefixed und AMD default ist = NV default. nur einige fanboys wollen das nicht wahrhaben und wheinen rum.

Dies ist eine haltlose Unterstellung, die du gerne hier nach lesen kannst und sicher auch zum Teil schon gemacht hast.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=519108
Fakt ist: Q ist deutlich besser geworden. HQ ist deutlich schlimmer und Q reicht nicht an Nvidias Q heran. ( Bisher ausgehend von The Witcher, 3DC-Filtertest, den Pauschalisierungen von 3 Webseiten, einigen User-Augen und als kostenlose Beigabe, meine Augen.)

Superheld
2011-12-22, 21:52:54
http://www.hardwareluxx.de/images/stories/galleries/reviews/2011/radeon-7970/bench/far1.jpg
mhh dort ist die Karte sogar schneller als die 6990.... die warscheinlich schlecht skalliert... aber dort rennt sie ins Cpu limit.. wäre mal interessant wie weit sie sich dort noch von der 590 GtX absetzten könnte

hier ist sie langsamer als die gtx580:D
http://www.guru3d.com/article/amd-radeon-hd-7970-review/14

hardwareluxx hat sowieso immer komische Ergebnisse...

Zergra
2011-12-22, 21:58:55
hier ist sie langsamer als die gtx580:D
http://www.guru3d.com/article/amd-radeon-hd-7970-review/14

hardwareluxx hat sowieso immer komische Ergebnisse...
naja du kannst ja nicht 8xAA mit 4xAA vergleichen....

Superheld
2011-12-22, 22:14:09
dann isses aber weniger cpu limitiert..:)

Knuddelbearli
2011-12-22, 22:14:09
[QUOTE=Locuza;9092688]Dies ist eine haltlose Unterstellung, die du gerne hier nach lesen kannst und sicher auch zum Teil schon gemacht hast.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=519108
Fakt ist: Q ist deutlich besser geworden. HQ ist deutlich schlimmer und Q reicht nicht an Nvidias Q heran. ( Bisher ausgehend von The Witcher, 3DC-Filtertest, den Pauschalisierungen von 3 Webseiten, einigen User-Augen und als kostenlose Beigabe, meine Augen.)[/QUOTE

komisch das der 3dc filtertest ersteller was anderes sagt ...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9092725&postcount=202

boxleitnerb
2011-12-22, 22:19:01
Wieso sieht man dann immer noch ein leichtes Flimmern im Vergleich zu NV-Q? Ich mein, wir bilden uns das ja nicht ein. Zugegeben, es ist im Filtertester wirklich ein kleiner Unterschied, aber er ist da. Vielleicht hat man einfach nicht auf Nvidias Niveau gezielt.

Zergra
2011-12-22, 22:26:20
Wieso sieht man dann immer noch ein leichtes Flimmern im Vergleich zu NV-Q? Ich mein, wir bilden uns das ja nicht ein. Zugegeben, es ist im Filtertester wirklich ein kleiner Unterschied, aber er ist da. Vielleicht hat man einfach nicht auf Nvidias Niveau gezielt.

Naja selber gesehen hast du das auch noch nicht oder? jeder sieht da etwas anderes und den Videos würd ich nicht vertrauen :D

Eggcake
2011-12-22, 22:29:21
kannst du machen, aber richtig ist des deswegen noch lange nicht. wenn nicht alle videos aller reviewer falsch sind ist die filterung nach wie vor schlechter.

"Alle Videos aller reviewer"?

Ich kenne genau 2: den Filtertester von CB/HT4U und Witcher. Im Filtertester ist's eigentlich perfekt, bei Witcher flimmerts. Also genau 1 Video wo's flimmert. Oder kennst du noch mehr?

boxleitnerb
2011-12-22, 22:35:09
Naja selber gesehen hast du das auch noch nicht oder? jeder sieht da etwas anderes und den Videos würd ich nicht vertrauen :D

Live? Wie denn? Ich sehe keinen Grund, warum ich Videos nicht vertrauen sollte. Und jetzt kommt mir nicht mit Codec, Monitor usw usf :wink:

Wenn Raff oder Marc mal wenigstens die Schienenszene oder was aus Crysis hochladen würden, wäre doch schon viel gewonnen. Dann könnte man besser beurteilen, ob das Video von HT4U nicht doch ein fuckup ist.

Locuza
2011-12-22, 22:39:37
[QUOTE=Locuza;9092688]Dies ist eine haltlose Unterstellung, die du gerne hier nach lesen kannst und sicher auch zum Teil schon gemacht hast.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=519108
Fakt ist: Q ist deutlich besser geworden. HQ ist deutlich schlimmer und Q reicht nicht an Nvidias Q heran. ( Bisher ausgehend von The Witcher, 3DC-Filtertest, den Pauschalisierungen von 3 Webseiten, einigen User-Augen und als kostenlose Beigabe, meine Augen.)[/QUOTE

komisch das der 3dc filtertest ersteller was anderes sagt ...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9092725&postcount=202

Ich habe mir die Videos vom Filter von CB runter geladen und da erkenne ich immer noch einen Unterschied. Q hat Mittig/Hinten bei der Textur einen Unschärfe-Bereich. Bei HQ ist die Textur schärfer, es flimmert aber im Vorderen/Mittleren Bereich. Zwischen HQ und Q bei Nvidia kann ich ehrlich gesagt eig. keinen Unterschied feststellen.
Gucke ich mir alle im Durchlauf an, sehe ich das Nvidias Flimmern sich auf einen ähnlichen Bereich impliziert, aber deutlich weniger Flimmert. Das Flimmern bei Nvidia sieht man am besten in der Mitte. Tahiti flimmert dort auf HQ genau so, bloß das es nach links und rechts sich ausweitet.

Tesseract
2011-12-22, 22:41:31
je nach dem was dein focus ist. AMD flimmer marginal, NV ist nicht ganz winkelunabhängig. ich bin sicher, wenn AMD es mit der winkelunabhängigkeit nicht so genau nehmen würde, wären sie auch besser bein flimmern.
da besteht kein zusammenhang und selbst wenn ist es nicht vergleichbar. durch die trilineare filterung unterscheidet sich die minimale winkelabhängigkeit so gut wie garnicht von der referenz-implementierung. das was man sieht sind sprungstellen an denen sich ein wert temporal sehr stark ändert. deswegen schlagen die filterprobleme von AMD viel stärker durch.

Ich kenne genau 2: den Filtertester von CB/HT4U und Witcher. Im Filtertester ist's eigentlich perfekt, bei Witcher flimmerts. Also genau 1 Video wo's flimmert. Oder kennst du noch mehr?
es flimmert in beiden mehr.

Ist nicht das einzige Video, das wirklich schlecht aussieht, das von The Witcher 1?
es sieht nicht schlecht aus im filtertester, aber es flimmert dennoch mehr als der filter von nvidia.

Knuddelbearli
2011-12-22, 22:42:30
HQ scheint ja noch verbugt ist auf jedenfall aktuell schlechter als Q

w0mbat
2011-12-22, 22:42:46
Dies ist eine haltlose Unterstellung, die du gerne hier nach lesen kannst und sicher auch zum Teil schon gemacht hast.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=519108
Fakt ist: Q ist deutlich besser geworden. HQ ist deutlich schlimmer und Q reicht nicht an Nvidias Q heran. ( Bisher ausgehend von The Witcher, 3DC-Filtertest, den Pauschalisierungen von 3 Webseiten, einigen User-Augen und als kostenlose Beigabe, meine Augen.)

NVIDIAs AF ist winkelabhängig, also nicht wirklich gut. halbe sache eben. aber das scheint an dir vorbei gegangen zu sein...

y33H@
2011-12-22, 22:43:58
Diese sehr geringe Winkelabhängigkeit sieht man in der Praxis im Gegensatz zum Flimmern aber nicht.

boxleitnerb
2011-12-22, 22:44:25
NVIDIAs AF ist winkelabhängig, also nicht wirklich gut. halbe sache eben. aber das scheint an dir vorbei gegangen zu sein...

Merkst du nicht, wie lächerlich das ist? Zeig mir mal eine Person, die das in einem Spiel wirklich sieht. Wenn man laut diversen Leuten schon mit der Lupe nach dem AF-Flimmern suchen muss, muss man danach mit was suchen...einem Hubble? Imo ist die Winkelabhängigkeit (ist eigentlich schon vermessen, das überhaupt so zu nennen), irrelevant. Darüber kann man sich unterhalten, wenn das AF auf Nvidias HQ-Niveau ist ;)

Spasstiger
2011-12-22, 22:44:32
Natürlich hat man den Takt gesenkt bei der 6990. Sowohl Chip als auch Speicher. Das wird bei Tahiti nicht anders sein.
"AMD AUSUM" vergessen? Du kannst bei der HD 6990 per Switch die vollen HD-6970-Taktraten freischalten, die TDP steigt dann von 375 Watt auf 450 Watt.
Außerdem sprechen wir bei einer hypothetischen HD 7980 oder HD 7975 von 10-15% mehr Performance gegenüber einer HD 7970, siehe in der Vergangenheit GTX 285 vs. GTX 280 oder HD 4890 vs. HD 4870 oder 8800 Ultra vs. 8800 GTX. Viel Platz nach oben für eine CF-basierende HD 7990.

Tesseract
2011-12-22, 22:47:15
NVIDIAs AF ist winkelabhängig, also nicht wirklich gut. halbe sache eben. aber das scheint an dir vorbei gegangen zu sein...

bitte lies dich mal in die materie ein was diese winkelabhängigkeit bedeutet. egal wie du die textur im raum drehst und bewegst, die werte ändern sich dabei im vergleich zur referenzimplementierung erstens kaum und zweitens kontinuierlich.
das problem am flimmern ist, dass diese bei kleinen örtlichen veränderungen große wert-sprünge hinlegen. deswegen sieht man z.B. unterfiltering, auch wenn sie nur minimal ist, sehr stark und minimale winkelabhängigkeit so gut wie garnicht.
können wir diese thema jetzt bitte endlich abschließen?

Locuza
2011-12-22, 22:49:21
@w0mbat

Mir wäre es scheiß egal, wenn man durch irgendwelche Zahlenspiele oder spezifischen Tools nachweisen kann, das AMD ihr Filter wie Sau winkelabhängig ist und verschissen, Grottenschlecht, ein krebserregender Algorithmus.
Wenn mir die Augen etwas anderes sagen, dann ist mir das so was von egal und ich wäre so froh das AMD richtig gut filtern würde, nach meinem Geschmack.

Von der Winkelabhängigkeit bei Nvidia merke ich 0 und von den Stimmen anderer auch 0 und bisher hat mir auch niemand ein Beispiel vorlegen können, wo ich speziel darauf achten sollte, dass in dem Winkel unsauber geglättet wird.

Willst du mir jetzt ernsthaft erzählen, ich würde in meinem Filter-Tester sowas nicht erkennen können, ja?

Edit: Okay, evtl. ist das NVIDIA-Bild noch ein *winzig* kleines bisschen ruhiger. Da muss man dann aber auch noch dazu sagen, dass die Filtergewichte nie "korrekt" sein können. Entweder mehr Schärfe oder mehr Ruhe. Ich denke AMD hat hier etwas mehr auf Schärfe wert gelegt.

Also w0mbat, ich höre weder Stimmen in meinem Kopf, noch bin ich ein Fanboy, noch nehme ich urteilsverzerrende Mittel zu mir. Das ist einfach etwas, was einige Menschen immer noch merken.

Ich ziehe gerne meine Aussage zurück ( auf mich bezogen ), falls es bei den anderen Spielen kaum einen Unterschied geben sollte und die Geschichte mit Witcher wirklich auf einen falschen Befehl zurück zu führen ist.

deekey777
2011-12-22, 23:15:57
Womit die Ausrichtung so eingetreten ist, wie von mir prognostiziert ;)

Für mich sieht die Sache abr wirklich SEHR schick aus. Da muss man auch nur auf den Bench schauen, den Gipsel verlinkt hat :eek:




Sieht wirklich SEHR schick aus :biggrin:

Ich hoffe ja wirklich, dass die GPGPU-Werte von den Folien eher hinhauen als die Gamer-Sachen. Damit wäre die Karte echt bombe :biggrin:
Aber:
Wenn Nvidia die HD7970 releasen würde, hätten alle Reviews mindestens eine GPGPU-Anwendung im Angebot und der Redakteur hätte noch eine halbe Seite geschrieben, wie toll die Anwendung ist und es ihm nicht klar ist, wie er ohne sie überleben konnte.
Was bieten heutige Reviews an: Eigentlich nichts. Hier und da ließen die Redakteure SmallPTGPU oder LuxMark laufen, oder auch einen Test (http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/49646-amd-radeon-hd-7970-3gb-review-22.html) aus SiSoft Sandra. Natürlich musste auch unbedingt Cyberlink MSE 6.5 (http://www.hardwareheaven.com/reviews/1361/pg12/amd-radeon-hd-7970-graphics-card-review-gpu-computing.html)getestet werden (:ucrazy:), wobei der hier (http://www.hardwaresecrets.com/article/AMD-Radeon-HD-7970-Video-Card-Review/1458/13) einen Vorteil von PCIe 3.0 zeigt. Und natürlich die obligatorischen SDK-Samples waren dabei.

Wo (http://www.pcgameshardware.de/aid,679661/Vreveal-Videoverbesserung-im-CSI-Stil-mithilfe-der-GPU-im-Praxis-Check/Tools/Test/) ist (http://www.computerbase.de/artikel/software/2009/bericht-motiondsp-vreveal/) denn (http://www.netzwelt.de/news/79648-vreveal-videoverbesserung-la-csi-test.html) vreveal (http://www.anandtech.com/show/2745/14) 3.0 (http://www.computerbase.de/artikel/grafikkarten/2011/test-llano-grafikleistung/7/)? Seit 3.0 ist AMD am Steuer, die Anwendung bietet OpenCL-Unterstützung, hat so gar ein Promo-Video dabei, und keiner testet? SiSoft Sandra hat mehrere GPGPU-Tests an Bord (ua AES-Verschlüsselung), aber das sieht keiner.

Entweder ist der GPGPU-Part noch nicht fertig, was den Treiber und entsprechende Anwendungen angeht, oder AMD schafft es nicht, die Reviewer in die richtige Bahn zu lenken.

Blaire
2011-12-22, 23:20:12
Ich ziehe gerne meine Aussage zurück ( auf mich bezogen ), falls es bei den anderen Spielen kaum einen Unterschied geben sollte und die Geschichte mit Witcher wirklich auf einen falschen Befehl zurück zu führen ist.

Was ich stark bezweifeln würde, Computerbase schreibt auch das es in anderen Games ähnlich ist wie im Filtertester.

Knuddelbearli
2011-12-22, 23:38:43
und filtertest beschreiben sie ja als sehr gut vergleichbar mit nv ( nur Q nicht HQ)

Blaire
2011-12-22, 23:51:09
und filtertest beschreiben sie ja als sehr gut vergleichbar mit nv ( nur Q nicht HQ)

Bei NV ist Q identisch zu HQ im Filtertester und zeigt entsprechend auch nur DX10 Filterung an. Was DX9 macht (Witcher2), steht auf einen ganz anderen Blatt. CB schreibt klar das NV@HQ weiterhin besser ist, in allen 3 getesteten Games@(HL2,Skyrim,Sam3@DX9.) So habe ich es jedenfalls verstanden.

uweskw
2011-12-22, 23:57:15
Hab mir die Witcher Videos von HT4U jetzt mal genau angesehen. Mind. 150mal.
AMD mit HQ flimmert in den ausgewiesenen Bereichen, wirkt aber klarer.
AMD mit Q flimmert nur noch im Bereich des roten Ziegeldaches. Genauso wie die 580GTX.
Bild ist wirkt mehr ganz so klar wie bei HQ aber immer noch nen Tick klarer als NV HQ.
Von den gezeigten Videos gefällt mir AMD Q am besten. Macht euch selbst ein Bild.


Ich werde mir die Karte aber wegen fehlendem SSAA unter DX10/11 nicht kaufen.

gREETZ
U.S.

Edit: Kann mir eigentlich irgend wer erklären warum heute High-End Karten noch mit 4xAA getestet werden? Leistung ist doch wahrlich genug da.

Blaire
2011-12-23, 00:16:30
Wenn es klarer ist, dann zeig mal anhand von Screenshots was du damit meinst. Sollte doch einfach sein, wenn es so "klar" ist!?
Ich denke jeder kann sehen das NV@HQ sowohl am Boden im Vordergrund als auch in der Ferne weitgehend sauber filtert im Gegensatz zu allen AMD Videos die dort gepostet wurden.

Pentium M
2011-12-23, 00:21:06
Zeig mir dies und zeig mir das Nvidia ist natürlich der Burner .SKOTOM :biggrin:

AwesomeSauce
2011-12-23, 00:22:22
Zeig mir dies und zeig mir das Nvidia ist natürlich der Burner .SKOTOM :biggrin:
Hast du auch was konstruktives zum Thema beizutragen? Flamen kannst du im CB-Forum:rolleyes:

grobi
2011-12-23, 00:32:10
Wie gut ist denn jetzt eigentlich die Tesslationsleistung gegenüber dem Fermi?

mfg grobi

Pentium M
2011-12-23, 00:32:30
Hat AMD die DP-Rechenleistung der 7970 nun beschnitten oder nicht?

uweskw
2011-12-23, 00:35:18
Wenn es klarer ist, dann zeig mal anhand von Screenshots was du damit meinst. Sollte doch einfach sein, wenn es so "klar" ist!?
Ich denke jeder kann sehen das NV@HQ sowohl am Boden im Vordergrund als auch in der Ferne weitgehend sauber filtert im Gegensatz zu allen AMD Videos die dort gepostet wurden.


Woran sehe ich daß NV "weitgehend sauber filtert"?:freak:

Ich kann jedem den es interessiert nur empfehlen sich die Sache selbst anzuschauen.

AMD mit Q
http://ht4u.net/images/reviews/2011/amd_radeon_hd_7900_southern_island_test/witcher_haendler_hd7970_q.avi

NV mit HQ
http://ht4u.net/images/reviews/2011/amd_radeon_hd_7900_southern_island_test/witcher_gtx_580_hq.avi

sind zwar 150MB für 3 Sekunden, hilft aber sich seine Meinung zu bilden.
Aber wie gesagt: Ich bleib bei meiner GTX570, SSAA unter DX10/11. Wo soll ich sonst mit der Leistung hin? Noch größerer Monitor hat leider keinen Platz.

Greetz
U.S.

horn 12
2011-12-23, 00:44:15
AMD´s Fehler war wohl der unbedingte PAPERLAUNCH NOCH DIESES Jahr 2011.
Wenn diese Vorstellung wohl nicht nach hinten losgehen wird, bzw. schon losgegangen ist.
Hätte man einen richtigen Launch Treiber und die Karten nicht über Nacht verschickt, würden einige Testberichte weitaus besser ausfallen.
Zudem ist die Sache mit dem DS noch nicht vom Tisch.

Auch beim SSAA in DX10/ 11 isat wohl noch nicht Aller Tage Abend.
Zu schnell wollte man noch vor der Konkurrenz releasen,- um in aller Munde zu bleiben,- nun wohl eher im Negativen!

Blaire
2011-12-23, 00:45:54
Woran sehe ich daß NV "weitgehend sauber filtert"?:freak:

Video auf Vollbild schalten, auf den Boden im Vorder-und-Hintergrund achten. :smile:

uweskw
2011-12-23, 00:48:28
Ist zwar OT, hat jemand nen halbwegs aktuellen Link für einen Bildvergleich 4xAA und 8xAA ?
Am besten mit Szenen aus Spielen.

uweskw
2011-12-23, 00:51:32
Video auf Vollbild schalten, auf den Boden im Vorder-und-Hintergrund achten. :smile:

Genau. Sieht bei NV HQ genau so aus wie bei AMD Q. Flimmert nix. Nur am Dach. Bei beiden. Allerdings ist das Bild bei AMD etwas schärfer.

Tesseract
2011-12-23, 00:53:01
AMD mit Q
http://ht4u.net/images/reviews/2011/amd_radeon_hd_7900_southern_island_test/witcher_haendler_hd7970_q.avi

NV mit HQ
http://ht4u.net/images/reviews/2011/amd_radeon_hd_7900_southern_island_test/witcher_gtx_580_hq.avi

das erste ist unschärfer und flimmert trotzdem mehr. was daran besser sein soll ist mir ein rätsel. :confused:

uweskw
2011-12-23, 01:01:49
sicher dass du nicht die Videos verwechselt hast? Vollbild?

aufkrawall
2011-12-23, 01:03:46
Woran sehe ich daß NV "weitgehend sauber filtert"?:freak:

Ich kann jedem den es interessiert nur empfehlen sich die Sache selbst anzuschauen.

AMD mit Q
http://ht4u.net/images/reviews/2011/amd_radeon_hd_7900_southern_island_test/witcher_haendler_hd7970_q.avi

NV mit HQ
http://ht4u.net/images/reviews/2011/amd_radeon_hd_7900_southern_island_test/witcher_gtx_580_hq.avi

Habs mir angesehen:
Sowohl ATIs Q als auch HQ flimmern auf dem breiteren Platz im hinteren Teil der Bilder ziemlich unansehlich.
Bei den ATI-Videos wird es ja auch kurz mal dunkel, sodass die Lichtverhältnisse mit dem Video von Nvidias HQ übereinstimmen, es flimmert dann trotzdem genau so oder sogar mehr. An der Helligkeits liegt es also nicht.
ATIs Q flimmert auch weniger als HQ, also ist wohl wirklich eine Verschiebung des LODs ins Positive aktiv?
Oder was sonst könnte eine Erklärung sein?
Jedenfalls ist der HQ-Modus ziemlicher Bockmist.

Bei Nvidia ist zwischen Q und HQ kein sehr großer Unterschied, mit HQ flimmert allerdings das rote Dach links etwas weniger.

Wenn diese Videos wirklich repräsentativ sind, sind die ganzen Presse-Artikel für die Tonne...

uweskw
2011-12-23, 01:08:52
Mir fällt gerade ein Bereich auf in dem NV auf HQ mehr flimmert als AMD.
Am mittleren Haus rechts, die Plakate an der Wand. Mit NV HQ flimmerts.

LovesuckZ
2011-12-23, 01:10:31
Hab mir die Witcher Videos von HT4U jetzt mal genau angesehen. Mind. 150mal.
AMD mit HQ flimmert in den ausgewiesenen Bereichen, wirkt aber klarer.
AMD mit Q flimmert nur noch im Bereich des roten Ziegeldaches. Genauso wie die 580GTX.
Bild ist wirkt mehr ganz so klar wie bei HQ aber immer noch nen Tick klarer als NV HQ.
Von den gezeigten Videos gefällt mir AMD Q am besten. Macht euch selbst ein Bild.


Ich werde mir die Karte aber wegen fehlendem SSAA unter DX10/11 nicht kaufen.

gREETZ
U.S.

Edit: Kann mir eigentlich irgend wer erklären warum heute High-End Karten noch mit 4xAA getestet werden? Leistung ist doch wahrlich genug da.

Sry, aber das ist jetzt nur ein Witz, oder? Q schiebt ein nettes Band umher indem man nett zwischen "unscharf" und "scharf" switch. Gleichzeitig flimmert es noch wesentlich mehr als HQ von nVidia. Wer das nicht sieht, sollte nicht über das Thema reden.

Ronny145
2011-12-23, 01:10:37
ATIs Q flimmert auch weniger als HQ, also ist wohl wirklich eine Verschiebung des LODs ins Positive aktiv?
Oder was sonst könnte eine Erklärung sein?


Ja ist wohl so. Quality sieht ja auch etwas unschärfer aus in der Praxis.

http://www.computerbase.de/bildstrecke/38677/46/
http://www.computerbase.de/bildstrecke/38677/47/

Tesseract
2011-12-23, 01:10:49
sicher dass du nicht die Videos verwechselt hast? Vollbild?
bist du sicher, das du sie nicht verwechselt hast?

hier ein zoom: (links ist HQ, sieht man auch am rotstich)
http://i.imgur.com/BIkO7.jpg

aufkrawall
2011-12-23, 01:18:35
Mir fällt gerade ein Bereich auf in dem NV auf HQ mehr flimmert als AMD.
Am mittleren Haus rechts, die Plakate an der Wand. Mit NV HQ flimmerts.
Das kann auch Aliasing sein.

Nur mal so als Hinweis: Das GTX 580 HQ-Video hat als Auflösung 1600*1200, die anderen haben alle 1680*1050.
Wenn man das Nvidia HQ-Video also auf die gleiche Größe skaliert wie die anderen, neigt es stärker zum Flimmern.


Ja ist wohl so. Quality sieht ja auch etwas unschärfer aus in der Praxis.

http://www.computerbase.de/bildstrecke/38677/46/
http://www.computerbase.de/bildstrecke/38677/47/
Die typische ATI-Mogelei, wie in alten Zeiten. ;D

uweskw
2011-12-23, 01:18:56
Mmmm, ist wie bei HiFi oder Parfüm: Nach ner weile weiss man nicht mehr was man sieht/hört/riecht und was man sich einbildet. Ich mach morgen weiter.

@Tesseract; Bei deinem Bild kann ich als Laie keine Schärfe interpretieren. rechts ist dunkler, links scheint weniger Kontrast zu haben??

mapel110
2011-12-23, 01:21:35
Ist doch eindeutig, dass rechts mehr Blur ist. Übel. Schade, dass es noch ein paar Wochen dauert, bis User ein paar Videos erstellen können.

LovesuckZ
2011-12-23, 01:27:28
Wer findet den Fehler?


Image quality enhancement technology

Up to 24x multi-sample and super-sample anti-aliasing modes
Adaptive anti-aliasing
Morphological Anti-Aliasing (MLAA)
DirectX® 10/11 Super-Sample Anti-Aliasing (SSAA)
16x angle independent anisotropic texture filtering
128-bit floating point HDR rendering


Vielleicht tut sich ja was.

uweskw
2011-12-23, 01:29:00
Ja ist wohl so. Quality sieht ja auch etwas unschärfer aus in der Praxis.

http://www.computerbase.de/bildstrecke/38677/46/
http://www.computerbase.de/bildstrecke/38677/47/

Aber immer noch schärfer als NV HQ.
http://www.computerbase.de/bildstrecke/38677/49/
Vor dem grossen Felsblock in der Mitte gut zu sehen.

uweskw
2011-12-23, 01:31:43
DirectX® 10/11 Super-Sample Anti-Aliasing (SSAA)

LS, wo hast du das ausgegraben?

LovesuckZ
2011-12-23, 01:32:34
Das steht auf der Produktseite.

Pentium M
2011-12-23, 01:32:52
@auf_krawall_gebürstet: ich glaube du musst mal langsam in der welt der lebenden ankommen
.

derguru
2011-12-23, 01:32:57
wo haste das zitat her?

mapel110
2011-12-23, 01:33:05
LS, wo hast du das ausgegraben?
http://www.amd.com/us/products/desktop/graphics/7000/7970/Pages/radeon-7970.aspx#3
steht hier

aufkrawall
2011-12-23, 01:33:56
Aber immer noch schärfer als NV HQ.
http://www.computerbase.de/bildstrecke/38677/49/
Vor dem grossen Felsblock in der Mitte gut zu sehen.

Edit: Sorry, falsch gelesen.

derguru
2011-12-23, 01:34:01
Das steht auf der Produktseite.


edit:alles klar.
hmm nach einem fehler glaub ich weniger,sieht wohl doch aus das noch was nach kommt,das wäre mehr als erfreulich vor allem überraschend.:smile:

haben die reviewer überhaupt mal versucht bei einem dx10 aufwärts sgssaa zu aktivieren? könnt ja sein.

LovesuckZ
2011-12-23, 01:36:17
edit:alles klar.
hmm nach einem fehler glaub ich weniger,sieht wohl doch aus das noch was nach kommt,das wäre mehr als erfreulich vor allem überraschend.:smile:

Dafür haben sie EQAA vergessen. :D

Ronny145
2011-12-23, 01:36:23
Aber immer noch schärfer als NV HQ.
http://www.computerbase.de/bildstrecke/38677/49/
Vor dem grossen Felsblock in der Mitte gut zu sehen.


NV HQ sieht schärfer aus.

Es gab ja schon einen 8.93 leaked driver, vielleicht sollten die reviewer es testweise damit versuchen. Wäre dx10/11 SSAA zum launch direkt dabei, wäre der Tenor viel positiver ausgefallen.

Gipsel
2011-12-23, 01:37:28
Ist doch eindeutig, dass rechts mehr Blur ist. Übel.Ohne mir die Videos angeschaut zu haben, aber wenn das wirklich unterschiedliche Auflösungen waren (wie auf_krawall_gebürstet sagt), kannst Du den Vergleich anhand der Bilder eh' knicken.

derguru
2011-12-23, 01:41:36
Es gab ja schon einen 8.93 leaked driver, vielleicht sollten die reviewer es testweise damit versuchen. Wäre dx10/11 SSAA zum launch direkt dabei, wäre der Tenor viel positiver ausgefallen.
die frage ist ob es überhaupt jemand versucht hat,das wäre ja möglich.;D

ich fang an zu heulen vor freude wenn das funktionieren sollte ob jetzt oder demnächst.:)

Gipsel
2011-12-23, 01:44:02
die frage ist ob es überhaupt jemand versucht hat,das wäre ja möglich.;D
Auflösung:
Die Radeons können doch SSAA unter DX10/11, man kann es nur nicht erzwingen, sondern das muß die Anwendung selber machen. ;)

Tesseract
2011-12-23, 01:45:47
Ohne mir die Videos angeschaut zu haben, aber wenn das wirklich unterschiedliche Auflösungen waren (wie auf_krawall_gebürstet sagt), kannst Du den Vergleich anhand der Bilder eh' knicken.

bilder vergleichen kann man sowieso nur wenn sie 1:1 dargestellt werden und dann ist die auflösung ziemlich egal. im schlimmsten fall bekommt man halt nicht das ganze bild am monitor.

mapel110
2011-12-23, 01:46:07
Auflösung:
Die Radeons können doch SSAA unter DX10/11, man kann es nur nicht erzwingen, sondern das muß die Anwendung selber machen. ;)
Afaik ists doch so, dass das CCC bei ATI vom WHQL von Microsoft unabhängig ist. Also können sie da doch reinbauen was sie wollen?!

uweskw
2011-12-23, 01:47:02
Das steht auf der Produktseite.
Das spricht leider für einen Fehler. NV bewirbt SSAA unter DX10 auch nicht auf der Produktseite. Dürfen nicht gegen die Microsoft Spezifikationen verstossen.Deswegen ist es doch inoffiziell implementiert.

derguru
2011-12-23, 01:48:16
Auflösung:
Die Radeons können doch SSAA unter DX10/11, man kann es nur nicht erzwingen, sondern das muß die Anwendung selber machen. ;)
du meinst wirklich das ist damit gemeint?ach hör doch auf mir die hoffnung zu rauben.;(:D

zu cayman und co. stand doch auch nichts dabei.

Gipsel
2011-12-23, 01:53:41
bilder vergleichen kann man sowieso nur wenn sie 1:1 dargestellt werden und dann ist die auflösung ziemlich egal. im schlimmsten fall bekommt man halt nicht das ganze bild am monitor.
Nein, eine (texturierte) Fläche hat eine im Game vorgegebene Winkelausdehnung, die bei gegebenem FoV bei unterschiedlichen Auflösungen auch in eine unterschiedliche große (in Pixeln) Flächen transformiert werden. Im Prinzip ändern sich dadurch die konkret vorliegenden Gradienten der Texturkoordinaten und damit das benutzte LOD (und auch den AF-Grad) etwas. Es ist somit kein 1:1 Vergleich mehr möglich (oder ein geändertes FoV kompensiert exakt die unterschiedliche Auflösung, eher unwahrscheinlich).

Das setzt natürlich voraus, daß die Videos 1:1 in der Renderauflösung mitgeschnitten wurden, aber davon bin ich mal ausgegangen.

uweskw
2011-12-23, 01:56:10
Auflösung:
Die Radeons können doch SSAA unter DX10/11, man kann es nur nicht erzwingen, sondern das muß die Anwendung selber machen. ;)

Steht unter "Image quality enhancement technology". Bei der 6970 ist es nicht aufgeführt.:freak:

http://www.amd.com/us/products/desktop/graphics/amd-radeon-hd-6000/hd-6970/Pages/amd-radeon-hd-6970-overview.aspx#2

Ich fange ja schon an zu hoffen dass es kein Fehler ist. Obwohl ichs besser weis.

Tesseract
2011-12-23, 02:00:12
Nein, eine (texturierte) Fläche hat eine im Game vorgegebene Winkelausdehnung, die bei gegebenem FoV bei unterschiedlichen Auflösungen auch in eine unterschiedliche große (in Pixeln) Flächen transformiert werden. Im Prinzip ändern sich dadurch die konkret vorliegenden Gradienten der Texturkoordinaten und damit das benutzte LOD (und auch der AF-Grad) etwas. Es ist somit kein 1:1 Vergleich mehr möglich (oder ein geändertes FoV kompensiert exakt die unterschiedliche Auflösung, eher unwahrscheinlich).
das ändert sich aber auch alles durch den abgegangenen weg des witchers und das verhalten des filters bleibt trotzdem weitgehend konsistent.
nur weil man keine 1:1 differenzbilder machen kann heißt das nicht, dass man die nicht vergleichen kann.
Das setzt natürlich voraus, daß die Videos 1:1 in der Renderauflösung mitgeschnitten wurden, aber davon bin ich mal ausgegangen.
ich meine eher, dass leute hier die 1200 auf einem 1080p im fullscreen angesehen haben und deswegen zu schlüssen kommen, die objektiv ganz einfach falsch sind.
ist natürlich klar wenn da noch die skalierung dazwischen ist.

uweskw
2011-12-23, 02:17:42
das ändert sich aber auch alles durch den abgegangenen weg des witchers und das verhalten des filters bleibt trotzdem weitgehend konsistent.
nur weil man keine 1:1 differenzbilder machen kann heißt das nicht, dass man die nicht vergleichen kann.

ich meine eher, dass leute hier die 1200 auf einem 1080p im fullscreen angesehen haben und deswegen zu schlüssen kommen, die objektiv ganz einfach falsch sind.
ist natürlich klar wenn da noch die skalierung dazwischen ist.

Also sind die Videos nicht wirklich aussagekräftig?
Sobald meine Auflösung nicht der Auflösung der Aufnahme entspricht wird das Ergebnis verfälscht?
Was ich auf den Videos sehe entspricht aber grundsätzlich auch meinen Erfahrungen. Als ich von AMD auf NV umgestiegen bin kam mir erstmal alles verwaschen vor.

Gipsel
2011-12-23, 02:17:49
das ändert sich aber auch alles durch den abgegangenen weg des witchers und das verhalten des filters bleibt trotzdem weitgehend konsistent.
nur weil man keine 1:1 differenzbilder machen kann heißt das nicht, dass man die nicht vergleichen kann.

ich meine eher, dass leute hier die 1200 auf einem 1080p im fullscreen angesehen haben und deswegen zu schlüssen kommen, die objektiv ganz einfach falsch sind.
ist natürlich klar wenn da noch die skalierung dazwischen ist.
Das Problem ist, daß das FoV normalerweise auf einen bestimmten Blickwinkel in der Höhe des Screens festgepinnt wird (in der Breite sieht man dann je nach Seitenverhältnis mehr oder weniger). Bei nV mit der höheren Auflösung (1200 vs. 1080) besteht damit jedes Objekt auf dem Screen an gleicher Stelle einfach aus mehr Pixeln. Deshalb müßte es eigentlich subjektiv schärfer [edit: detaillierter paßt eigentlich besser, man sieht bei gleicher Schärfe mehr Details einfach durch die höhere Auflösung] aussehen, wenn man es nativ auf einem Schirm darstellt. Hier kommt wahrscheinlich das von Dir genannte Problem beim Betrachten auf einem 1080p-Monitor dazu. Da bekommt das nV-Video ja je nach benutzter Skalierung im Prinzip einen leichten SSAA-Anteil verpaßt, was die Flimmerneigung reduzieren könnte (zumindest wenn es ein gutes Downsampling ist, es kann auch schlechter werden und erklärt vielleicht die unterschiedlichen Einschätzungen durch unterschiedliche Leute).

Egal, mit der 1200er Auflösung sind die Gradienten bei Flächen im gleichen Abstand zur Kamera (Texturkoordinatenänderung pro Bildschirmpixel!) generell etwas höher (nämlich um ~11%, weswegen ein anderes LOD benutzt wird, den AF-Grad ändert dies erstmal nicht). Wenn man weiter vom fraglichen Objekt/Fläche weggeht, kann man es zwar grob auf die gleiche Fläche in Pixeln bringen, aber dann ist der Winkel der jeweiligen Fläche zur Blickrichtung der Kamera natürlich eine andere (außer man schaut senkrecht auf eine Wand, aber dann gibt es ja sowieso kein AF ;)), sprich die Gradienten sind anders (nicht einfach skaliert), so daß ein anderer AF-Grad (LOD ist im Zweifelsfall auch anders) zur Filterung benutzt wird. Kurz, Du bekommst es nie zur Deckung für einen genauen Vergleich (und damit meine ich kein Differenzbild).

LovesuckZ
2011-12-23, 02:23:33
Also sind die Videos nicht wirklich aussagekräftig?
Sobald meine Auflösung nicht der Auflösung der Aufnahme entspricht wird das Ergebnis verfälscht?
Was ich auf den Videos sehe entspricht aber grundsätzlich auch meinen Erfahrungen. Als ich von AMD auf NV umgestiegen bin kam mir erstmal alles verwaschen vor.

Nein, er bezieht sich nur auf den Bildausschnitt. Das, was man im Video sieht, bleibt natürlich gleich und ist aussagekräftig.

Tesseract
2011-12-23, 02:25:33
es geht überhaupt nicht darum 100%ige deckungsgleichheit zu erreichen sondern das verhalten des filters einzuschätzen. in dem video gibt es einen ganzen haufen unterschiedlicher texturen mit unterschiedlichen neigungen, entfernungen usw. und trotzdem sind die eigenheiten der jeweiligen filterung an nahezu jeder fläche ähnlich, manchmal stärker, manchmal schwächer aber immer ziemlich konsistent.

Sobald meine Auflösung nicht der Auflösung der Aufnahme entspricht wird das Ergebnis verfälscht?
nein, das ist ansich kein problem. wenn die auflösung des videos eine andere als die des monitors ist darfst du es aber auf keinen fall auf fullscreen schalten weil dann das ganze bild skaliert wird.

Als ich von AMD auf NV umgestiegen bin kam mir erstmal alles verwaschen vor.
da muss man zwischen schärfe und kontrast unterscheiden. schärfe ist detailinformation, kontrast ist der unterschied zwischen hellen und dunklen werten. wenn eine graka unterfiltert kann er kontrast steigen, dennoch wird es unschärfer.

Gipsel
2011-12-23, 02:31:51
es geht überhaupt nicht darum 100%ige deckungsgleichheit zu erreichen sondern das verhalten des filters einzuschätzen. in dem video gibt es einen ganzen haufen unterschiedlicher texturen mit unterschiedlichen neigungen, entfernungen usw. und trotzdem sind die eigenheiten der jeweiligen filterung an nahezu jeder fläche ähnlich, manchmal stärker, manchmal schwächer aber immer ziemlich konsistent.Du hast auch überall konsistent eine höhere Auflösung. Wie gesagt ~11% in beiden Achsen, also 23% mehr Pixel und damit 23% mehr Details, die man darstellen kann. ;)

Tesseract
2011-12-23, 02:35:05
Du hast auch überall konsistent eine höhere Auflösung.

nein hast du nicht weil das ein video und kein standbild ist und sich die figur bewegt. die höhere auflösung ist ein paar meter weiter eine kleinere auf der selben textur. zwar ist die dann etwas anders verzerrt, also nicht 100% vergleichbar, aber auch hier hat man wieder viele verschiedene texturen zum vergleichen.
im schnitt über das ganze video kann man da schon einiges rauslesen.

Gipsel
2011-12-23, 02:41:22
nein hast du nicht weil das ein video und kein standbild ist und sich die figur bewegt. die höhere auflösung ist ein paar meter weiter eine kleinere auf der selben textur. zwar ist die dann etwas anders verzerrt,gleichbedeutend mit einem anderen benutzten AF-Grad,
also nicht 100% vergleichbar,
Genau.
aber trotzdem hat man den fall wieder bei vielen texturen unterschiedlicher verzerrung.
im schnitt über das ganze video kann man da schon einiges rauslesen.
Ich sage ja nicht, daß man gar nichts herauslesen kann, aber das ist sehr schwierig zu trennen. Das sollte man schon bei identischer Auflösung machen. Niedrigere Auflösungen sehen subjektiv notgedrungen immer etwas weniger scharf (da detailärmer) aus und scheinen auch leicht die Flimmerneigung zu verstärken (bei niedriger Auflösung werden alle Texturen hochfrequenter, sprich es muß mehr gefiltert werden, außerdem sind die Pixel schlicht größer, ein flimmernder Pixel fällt also mehr auf ;)).

Tesseract
2011-12-23, 02:45:55
Das sollte man schon bei identischer Auflösung machen.
klar sollte man, die meisten leute die karten haben schreiben aber lieber die marketingfolien ab und der der sich doch die mühe gemacht hat videos zu machen, hat halt nicht die selbe genommen. :(

uweskw
2011-12-23, 02:55:49
....
nein, das ist ansich kein problem. wenn die auflösung des videos eine andere als die des monitors ist darfst du es aber auf keinen fall auf fullscreen schalten weil dann das ganze bild skaliert wird.
....


Habs grad mal im Fenstermodus probiert, da sehe ich auf einmal deutlich mehr Bereiche flimmern. Beim NV HQ Video.
Bin am Laptop mit 1280x800
"Alles ist relativ"

Neon3D
2011-12-23, 03:05:14
Wer findet den Fehler?



Vielleicht tut sich ja was.

du meinst amd bringt ssaa für dx10&11?
habe mich sowieso total gewundert das bei so einer high-end karte das immer noch fehlt.

Skysnake
2011-12-23, 03:13:40
So schauts aus...

Ich glaub ich hab aber jetzt endlich mal gerafft, was alle mit Flimmern meinen :ugly:

Hab das ja nie verstanden, was gemeint war, und mir konnts auch keiner erklären.

Das Flimmern ist aber ganz natürlich, und so gering wie es da auftaucht, fällt es doch echt nicht mehr auf, also zumindest mir. Zudem passiert so etwas halt immer wieder, mal bei der einen Karte mehr als bei der anderen, und dann wieder andersrum. Kommt halt immer aufs Game, die Texturen blablubbla drauf an.

Wenn ich es so bedenke, hatte ich auch Games, die stark ge"flimmert" haben, so stark, das es mich sogar gestört hat, aber das passiert halt mit jeder Karte irgendwo. Absolut Flimmerfrei geht gar nicht.

Also keine Ahnung, aber früher war so was teils echt viel viel heftiger. Vielleicht gewöhnt man sich auch daran, und an AMD kanns sicherlich nicht bei mir liegen, denn davor hatte ich immer ne Matrox, 3Dfx oder halt nVidia, und bei der ATI fand ichs dann am wenigsten störend.

Man sollte glaub ich einfach mal wirklich tief Luft holen, und sich durch den Kopf gehen lassen, ob man eben nicht mit einem gewissen Flimmergrad einfach leben muss. Der eine wills lieber etwas schärfer, der andere bischen weniger flimmern, usw usw. Man kanns halt einfach nicht jedem Recht machen.....

So wies jetzt aber ist bei beiden Herstellern würde ich sagen passts eigentlich. Auch wenn man natürlich irgendwo und irgendwelchen Konstellationen doch einen Vor-/Nachteil für den einen oder anderen Hersteller findet.

Sie sind halt einfach unterschiedlich und dem einen liegt das eine mehr und dem anderen das andere. Deswegen ist aber das eine nicht besser als das andere. Sie sind halt einfach nur unterschiedlich.

Ist halt wie BMW und Daimler. Was ist da das bessere Auto. Frag 10 Leute und du bekommst 11 Meinungen ;)

Gipsel
2011-12-23, 03:21:03
klar sollte man, die meisten leute die karten haben schreiben aber lieber die marketingfolien ab und der der sich doch die mühe gemacht hat videos zu machen, hat halt nicht die selbe genommen. :(
Habe mir jetzt auch mal die Witcher-Videos angesehen, und ich muß sagen, daß der Unterschied schon etwas groß ist, um nur mit der Auflösungs-Geschichte erklärt zu werden (müßte eben mal wer ausprobieren, um zu sehen, wieviel das ausmacht :rolleyes:). Das mag das zwar verstärken, aber da würde ich sonst auch noch mal auf Coda verweisen, der meinte, daß wir da vielleicht bi-AF vs. tri-AF sehen oder sowas.

LovesuckZ
2011-12-23, 03:21:42
Also, dazu fällt mir wirklich nur noch :facepalm: ein.

Das Quality-Video zeigt keine natürliche Flimmerneigung noch ist der Übergang vollkommen in Ordnung. Man muss hier keinen Martyrer-Tod sterben, nur weil seine Lieblingsfirma in einem Spiel mist baut. Aber die Realität zu ignorieren, ist dann doch schon sehr daneben.

Echt, "natürlich" my ass...

Gipsel
2011-12-23, 03:28:20
Das Quality-Video zeigt keine natürliche Flimmerneigung
Was ist denn das?

firma in einem Spiel mist baut
Eventuell baut auch das Spiel Mist (nur bi-AF angefordert), wie Coda im anderen Thread meinte. ;)

PS:
Mit Deiner Antwort meintest Du aber nicht mich, oder? Ein Zitat oder ein "@xyz" am Anfang des Posts hilft da ungemein.

LovesuckZ
2011-12-23, 03:36:00
Was ist denn das?

Mal überlegen: Ein Fehler.


Eventuell baut auch das Spiel Mist (nur bi-AF angefordert), wie Coda im anderen Thread meinte. ;)


Kann sein. Ändert nichts daran, dass jedenfalls das Q-Video von AMD nicht "normal" ist. Weder von der Flimmeranfälligkeit noch vom Umhergeschiebe des Wechselbandes.

N0Thing
2011-12-23, 03:39:36
Habe mir jetzt auch mal die Witcher-Videos angesehen, [...]

Ich hätte es ganz gut gefunden, wenn man sich erst die Videos anschaut und sich dann an der Diskussion über die Qualität des AF beteiligt. Gerade als Mod und gerade wenn man sich öfter harte Diskussionen mit anderen Membern liefert. ;)

Ich finde es zwar auch unglücklich, daß die Vergleiche AMD vs. Nvidia nicht bei gleicher Auflösung erfolgt sind, aber sowohl beim AF-Tester als auch bei The Witcher 2 sind die Unterschiede bei HQ-AF so deutlich, daß allein die Auflösung nicht die Ursache für die erhöhte Flimmerneigung des Tahiti-Chips sein kann.

Was im übrigen meiner Meinung nach sehr schade ist, denn mit einem astreinen AF und einer besseren Kühlung/Lautstärke, wäre die HD 7970 auch trotz ihrer etwas enttäuschenden Performance eine gute Karte. Nach aktuellem Stand ist sie für mich weder Fisch noch Fleisch noch Gemüse. Egal welchem Aspekt man der Karte zu gute hält, es gibt auf jeden Fall einen anderen Aspekt, der ihm im negativen Sinne gegenüber steht.

Mal sehen was AMD in einem Jahr zu bieten hat, wenn der 28nm-Prozess ausgereifter ist.

Langenscheiss
2011-12-23, 03:42:12
Was ist denn das?


Eventuell baut auch das Spiel Mist (nur bi-AF angefordert), wie Coda im anderen Thread meinte. ;)

PS:
Mit Deiner Antwort meintest Du aber nicht mich, oder? Ein Zitat oder ein "@xyz" am Anfang des Posts hilft da ungemein.

Ich habe nur die Hoffnung, dass noch irgendeiner hier so eine Karte kauft. Wenn es tatsächlich noch Probleme mit dem AF selbst geben sollte, so müsste man die mit den Filter-Testern aufspüren können. Wenn sich nichts ergibt, so würde ich natürlich auch auf ein Anwendungsproblem tippen, aber AMD hat in der Vergangenheit einfach zu häufig enttäuscht, als das ich jetzt solch eine "einfache" Erklärung blind glauben würde. Wenn es auch nur ein Anzeichen für Probleme gibt, läuten bei mir sämtliche Alarmglocken. Aber schon richtig, es bringt nichts da jetzt irgendwas zu vermuten.

Darüber hinaus interessiert mich der Performance-Modus und der Quality-Modus bei der Texturfilterung. Alles Dinge, die man eigentlich bequem mit den vorhandenen Test-Programmen analysieren könnte, wenn es denn jemanden gäbe, der so eine Karte hätte ;)

Skysnake
2011-12-23, 03:53:09
Mal überlegen: Ein Fehler.



Kann sein. Ändert nichts daran, dass jedenfalls das Q-Video von AMD nicht "normal" ist. Weder von der Flimmeranfälligkeit noch vom Umhergeschiebe des Wechselbandes.

Sprich deutlich oder lass es.

Und was ist daran bitte falsch, dass du ein 100% flimmerfreies AF nicht hin bekommst?

Du arbeitest halt immer mit Aproximationen. Da findet sich immer irgendeine Konstellation wo es dann zu Flimmern kommen kann.

Oder warum schafft es nVidia nicht das Flimmern ganz weg zu bekommen, wo die doch alles so super toll machen? :rolleyes:

Es ist halt nicht alles nur Schwarz oder Weiß, sondern verdammt viel dazwischen....

Gipsel
2011-12-23, 03:55:10
Ich hätte es ganz gut gefunden, wenn man sich erst die Videos anschaut und sich dann an der Diskussion über die Qualität des AF beteiligt. Gerade als Mod und gerade wenn man sich öfter harte Diskussionen mit anderen Membern liefert. ;)Ich habe mich ja gar nicht an der Diskussion über die Qualität des AFs beteiligt (bzw. nicht bevor ich die Videos gesehen hatte), sondern nur dargelegt und begründet, warum ein Vergleich bei unterschiedlichen Bildschirmauflösungen ziemlich suboptimal ist. Und dazu muß man die Videos nicht gesehen haben, denn da ist ein prinzipieller Punkt. ;)

Außerdem kannst Du das Gerede mit Mod und so auch stecken lassen, das gehört hier nicht hin. Ich habe als Member mit einem anderen Member (der zufällig genau wie ich auch Mod ist) diskutiert und in zivilisierter Art Argumente ausgetauscht. Da können sich andere ein Beispiel dran nehmen (nein, ich meine niemand im Speziellen). :rolleyes:

Ich finde es zwar auch unglücklich, daß die Vergleiche AMD vs. Nvidia nicht bei gleicher Auflösung erfolgt sind, aber sowohl beim AF-Tester als auch bei The Witcher 2 sind die Unterschiede bei HQ-AF so deutlich, daß allein die Auflösung nicht die Ursache für die erhöhte Flimmerneigung des Tahiti-Chips sein kann.Dann sind wir ja einer Meinung, denn das schrieb ich auch. :wink:

Locuza
2011-12-23, 03:56:18
Mal überlegen: Ein Fehler.



Kann sein. Ändert nichts daran, dass jedenfalls das Q-Video von AMD nicht "normal" ist. Weder von der Flimmeranfälligkeit noch vom Umhergeschiebe des Wechselbandes.

Der Q-Modus ist mir beleibe, um alles Geld welches ich besitze, lieber. Dieses Flimmern ist nicht okay. Bei The Witcher (1) ist HQ beinahe genau so versaut, wie auf dem Cayman. Q allerdings deutlich besser. Ich merke zwar die Unschärfe, aber die fällt deutlich weniger ins Gewicht, als dieses Flimmern zu sehen. Was mich eher stört ist, dass ich es bei mehreren Bereichen immer noch sehen kann. Bei Nvidia sind es weniger. Beim Dach merke ich es eher konstant und bei dem Rest nur durch Dauerschleife.
Mir ist die Erklärung Schärfe oder Flimmern auch ungenügend, weil Nvidia das jedenfalls bei Q bei höherer Schärfe besser hinbekommt. Ich kann auch keinen großen Unterschied zwischen Q und HQ bei Nvidia feststellen.
( Alles unter bisherigen Infos, sollte Codas Theorie stimmen, dann hoffe ich auf selbiges Niveau. )

Der Filtertest von Coda spiegelt die Szene von The Witcher leider nur wieder :frown:
HQ flimmert mehr und ich sehe bei Q in der Mitte Unschärfe.

Dieses Video von Anandtech ist mir dann wieder ein totales Rätsel.
http://www.youtube.com/watch?v=6SM41gVg_y8
Cayman und Fermi liegen für mich praktisch gleich auf und Tahiti hat einen deutlich geringeren Flimmer Radius.

Eine Gegenüberstellung der Filter, den ich jeden nur empfehlen kann und TweakPC dafür liebe.
http://www.tweakpc.de/hardware/tests/grafikkarten/amd_radeon_hd_6870_hd_6850/s09.php

Ist die Berechnung durch die ALUs die maximal mögliche Referenz? Denn dann flimmert es immer noch, aber es wäre das höchste der Gefühle und Nvidias HQ landet komischerweise dort.

Bösewicht
2011-12-23, 04:01:06
Habs grad mal im Fenstermodus probiert, da sehe ich auf einmal deutlich mehr Bereiche flimmern. Beim NV HQ Video.
Bin am Laptop mit 1280x800
"Alles ist relativ"
Ne nichts Relativ...
Augen Probleme oder voreingenommen...
Ich würde nicht so weit gehen und sagen das die Witcher Videos überhaupt geeignet sind um die AF Qualität zu ermitteln... vielleicht ist das Spiel auch schlecht ausgesucht, aber das was auf beiden Videos zu sehen ist ist schlechtes AF von AMD und noch dazu gibt es bei AMD hinten, oben rechts am Dach Grafikfehler die Nvidia nicht hat.
Es flimmert Stark am Boden, auf Dächern und mehr.
Das sehe ich sogar mit 1,5m Abstand zum 24" ohne Probleme...
Ich hätte es ganz gut gefunden, wenn man sich erst die Videos anschaut und sich dann an der Diskussion über die Qualität des AF beteiligt. Gerade als Mod und gerade wenn man sich öfter harte Diskussionen mit anderen Membern liefert. ;)
.
Ich glaube es gibt durchaus Leute die so was neutral und nüchtern betrachten können.

Gipsel
2011-12-23, 04:04:19
Hmm, gab es eigentlich noch was anderes als AF, was in den Reviews getestet wurde? Vielleicht sollte man die Diskussion sonst auch dort (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=519108&page=6) fortführen.

Hübie
2011-12-23, 04:19:07
Darf ich mal eure Expertenmeinung bzgl. der Speicherbandbreite hören? Sind hier wirklich 384 bit nötig? Ich mein: Das will ja auch alles gefüttert werden.

Übrigens finde ich die Tesselationleistungs jetzt nicht sehr berauschend. Entgegen der tollen AMD-Folien sieht die Realität etwas anders aus. Kann das noch n Treiberding sein?

OgrEGT
2011-12-23, 06:38:05
Hab den Thread jetzt durch, und wie erwartet dreht sich die Diskussion hauptsächlich um das AF von AMD.

Unabhängig von der jeweiligen subjektiven "Schmerzschwelle" was das Flimmern anbelangt, würde ich bzgl der Frage, ob AMD das Problem nun in Hardware behoben hat oder nicht auch nochmal auf die Aussage von Coda verweisen und (ich zitiere) "...kein Fass aufmachen" wollen.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9092725&postcount=202

Fakt ist, der vormalige Fehler bzgl. der Gewichtung der AF Samples wurde behoben. Diese pedantische überkandidelte Sucherei anhand von 3 Sekunden Videos (eines Spiels!) wo, an welchem Hausdach, an welchem Steinchen, das Bild stärker flimmert, die manche hier betreiben grenzt ja schon fast Wahnsinn. Der Eindruck wird erweckt, dass selbst wenn AMD irgendwann mal die genau gleiche Qualität liefert wie NV, dies nicht sein kann, weil es nicht sein darf.

Beim AF geht es (mir jedenfalls) um den Gesamteindruck beim Spielen selbst. Leider kann ich persönlich keinen Vergleich machen, da ich keine HD7970 habe. Ich kann nur den Vergleich zwischen HD5870 und GTX570 machen, und in dem Fall ist das Bild bei NV insgesamt etwas "ruhiger". Irrwitzig riesige Unterschiede in der BQ an sich konnte ich nicht feststellen.

Hübie
2011-12-23, 06:42:42
Seh ich auch so. Ausserdem gibts dafür n extra Thread ;) Ich hab im zweit-PC ne 6870 und finde das jetzt auch nicht soo schlimm.
Viel schlimmer ists, wenn Alpha-Texturen nicht geglättet werden. Da flimmert der ganze Bildschirm ;D

DrumDub
2011-12-23, 10:18:54
Darf ich mal eure Expertenmeinung bzgl. der Speicherbandbreite hören? Sind hier wirklich 384 bit nötig? Ich mein: Das will ja auch alles gefüttert werden.
hängt vom spiel und natürlich der auflösung ab: In Metro 2033 hat die Speicherbandbreite dagegen eine entscheidende Bedeutung und ist in etwa genauso wichtig wie der Speichertakt. Um in dem First-Person-Shooter mehr Leistung zu erhalten, muss beides gleichzeitig erhöht werden. http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/21/#abschnitt_taktskalierung

Soul
2011-12-23, 10:53:20
Aus Tomshardware.de

Unverständlich ist aber, dass AMD die Vorstellung der neuen Karte so weit vorverlegt hat, dass selbst die eigenen Software-Partner nicht in der Lage waren, uns rechtzeitig neue Versionen ihrer Programme zur Verfügung zu stellen. Immerhin sollen doch gerade sie die passenden Anwendungen für die spannenden neuen Funktionen liefern. Bestes Beispiel dafür ist VCE, das ohne entsprechende Software vorerst ein unerfülltes Versprechen bleibt.


Selbst AMDs eigenes Treiber-Team konnte mit den Plänen der Marketingabteilung nicht mithalten. So können wir über geplante neue Funktionen und Fähigkeiten nur sprechen, sie aber weder demonstrieren noch testen. Zuguterletzt verfügt AMD offenbar nicht einmal über genügend Exemplare der Radeon HD 7970, um uns ein zweites Exemplar für CrossFire-Tests zu schicken.

Der 2te Teil passt mir doch am besten, da das mit den fehlenden (schlechten) Treiber wieder passen würde. Da Bulldozer eine berechtigt schlechte Note aus dem PC Umfeld bekommen hat, kann ich mir dieses Vorziehen der Karte gut vorstellen wegen den kommen Jahresabschlusszahlen für die Aktionäre nach dem Motto "BD war nicht so gut wie gedacht aber mit der 7970 haben wir ein heisses Eisen im Feuer das uns und auch euch fette Gewinne bringen wird".

DrumDub
2011-12-23, 10:55:27
man wollte unbedingt die karte noch in 2011 "launchen", weil das ja so vorab versprochen wurde. mmn gabs aber schon schlimmere paper launches.

uweskw
2011-12-23, 11:02:01
man wollte unbedingt die karte noch in 2011 "launchen", weil das ja so vorab versprochen wurde. mmn gabs aber schon schlimmere paper launches.

Nö, ich wüsste keinen der sich so auf Leistung und Qualität der GraKa ausgwirkt hat wie dieser. Hätte man noch eine Woche in die Feinabstimmung von Takt und Lüftersteuerung investiert hätten wir eine flottere und leisere Karte. Aber die PR-Abteilung musste den Launch ja unbedingt 2 Wochen vorziehen.:freak:

deekey777
2011-12-23, 11:10:00
Auflösung:
Die Radeons können doch SSAA unter DX10/11, man kann es nur nicht erzwingen, sondern das muß die Anwendung selber machen. ;)
Wie die hier:
http://www.ixbt.com/video3/tahiti-part2.shtml#p5
(unten)

M4xw0lf
2011-12-23, 11:41:54
Wie die hier:
http://www.ixbt.com/video3/tahiti-part2.shtml#p5
(unten)

Mein Russisch ist leider nicht besonders... kannst du genauer beschreiben wo da was interessantes zu sehen ist? :)

DrumDub
2011-12-23, 11:52:32
Mein Russisch ist leider nicht besonders... kannst du genauer beschreiben wo da was interessantes zu sehen ist? :) guck mal bei den grafiken zu "pixel shader 4.0".

aufkrawall
2011-12-23, 12:02:30
Eventuell baut auch das Spiel Mist (nur bi-AF angefordert), wie Coda im anderen Thread meinte. ;)

Das kann doch bei über den Treiber forcierter HQ-AF gar nicht sein.
Das würde also zumindest nicht das Flimmern bei HQ erklären.
Oder wurde in-game AF verwendet?
Wenn ja, wäre es kein guter Test.

Aus solchen Gründen hab ich eigentlich immer Treiber-AF an, schadet ja nichts.
Zumindest bei Nvidia, bei AMD gab es bei Witcher 2 einen Bug, dass die FPS mit Treiber-AF stark absackten.
Noch so ein Beispiel von AMD-AF aus der Praxis, und nein, ich bashe nicht, ich war damals nur ziemlich angepisst. :D

MechWOLLIer
2011-12-23, 12:22:51
Wer weitere Spielevideos zu AF-Vergleichen sehen möchte, findet hier noch was :)
https://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/6/#abschnitt_anisotrope_filterung_in_der_praxis

Mr. Lolman
2011-12-23, 12:37:53
Aus solchen Gründen hab ich eigentlich immer Treiber-AF an, schadet ja nichts.
Zumindest bei Nvidia, bei AMD gab es bei Witcher 2 einen Bug, dass die FPS mit Treiber-AF stark absackten.
Noch so ein Beispiel von AMD-AF aus der Praxis, und nein, ich bashe nicht, ich war damals nur ziemlich angepisst. :D

Treiber-AF sollte immer über alle Texturstages gehen. Wenn der Treiber allerdings auf ein Spiel optimiert ist, werden ggf nur die TS verwendet, in denen auch Texturen zu sehen sind. Deswegen ist Treiber AF imo keine gute Vergleichsgrundlage. Wenn die App allerdings nur bi-AF anfordert und der Treiber daraus dann Tri-AF macht, ist App.AF auch keine gute Vergleichsgrundlage...

Wer weitere Spielevideos zu AF-Vergleichen sehen möchte, findet hier noch was :)
https://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/6/#abschnitt_anisotrope_filterung_in_der_praxis


Also bei HL2 sieht das Tahiti AF schonmal besser aus, als das des GF110. :|

Raff
2011-12-23, 12:38:34
Wenn die App allerdings nur bi-AF anfordert und der Treiber daraus dann Tri-AF macht, ist App.AF auch keine gute Vergleichsgrundlage...

In welchen Fällen passiert das? Mir ist dazu nichts bekannt, AFAIK kann die Applikation jeden Scheiß anfordern (gerade unter DX10+) und bekommt das dann auch.

MfG,
Raff

DrFreaK666
2011-12-23, 12:39:30
In welchen Fällen passiert das? Mir ist dazu nichts bekannt, AFAIK kann die Applikation jeden Scheiß anfordern (gerade unter DX10+) und bekommt das dann auch.

MfG,
Raff

Ich dachte die NV-Karten erzwingen dan HQ?

aufkrawall
2011-12-23, 12:39:57
Also bei HL2 sieht das Tahiti AF schonmal besser aus, als dass des GF110. :|
Warum ist das FOV verschieden? :confused:

Mr. Lolman
2011-12-23, 12:40:04
In welchen Fällen passiert das? Mir ist dazu nichts bekannt, AFAIK kann die Applikation jeden Scheiß anfordern (gerade unter DX10+) und bekommt das dann auch.

MfG,
Raff

Gute Frage. Keine Ahnung ob das wirklich passiert. Vorstellen könnt ichs mir aber.

Warum ist das FOV verschieden? :confused:

ist es doch nicht, oder? :|

BTW: Bei Skyrim sieht Tahiti auch minimalst besser aus, aber nicht so eklatant wie bei HL2.



@MechWOLLIer: Beim HL2 Video steht "Tahitit"

LovesuckZ
2011-12-23, 12:41:37
Ich dachte die NV-Karten erzwingen dan HQ?

Ja, aber nicht ob bilinear oder trilineare gefltert wird. Das konnte man auch mal erzwingen, keine Ahnung, ob das noch geht.

aufkrawall
2011-12-23, 12:42:44
Ja, aber nicht ob bilinear oder trilineare gefltert wird. Das konnte man auch mal erzwingen, keine Ahnung, ob das noch geht.
Ist das nicht so bei HQ?

DrFreaK666
2011-12-23, 12:42:50
AF-blabla bitte hier rein (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=519108) :smile:

Blaire
2011-12-23, 12:45:11
Ist das nicht so bei HQ?

Unter DX10/11 ist HQ immer trilinear, verstellen lässt sich da nichts.

LovesuckZ
2011-12-23, 12:45:28
Ist das nicht so bei HQ?

Nur kurz dazu: Nein.

fondness
2011-12-23, 12:49:45
In welchen Fällen passiert das? Mir ist dazu nichts bekannt, AFAIK kann die Applikation jeden Scheiß anfordern (gerade unter DX10+) und bekommt das dann auch.

MfG,
Raff

Das vermutet zum Beispiel Coda bei "The Witcher" als Grund für das seltsame AF bei Tahiti:

Zum HT4U-Video von Witcher: Das sieht so aus, als wäre es auf GCN bilinear, auf NVIDIA trilinear (man sieht auf GCN eindeutig Mip-Bänder). Außerdem ist das Bild auf Tahiti heller, was das Flimmern nahe der Mipbänder (normal bei bilinear) noch verstärkt. Das würde den Effekt erklären.

Im Filtertester ist GCN *definitiv* gleichwertig zu Fermi.

Macht hier also kein Fass auf. Das ganze riecht eher nach einer Applikationsgeschichte. Witcher fordert wahrscheinlich Bi-AF an, bekommt bei NVIDIA aber Tri-AF (ab D3D10 gibt's sowieso nur noch Tri-AF, wahrscheinlich haben sie den anderen Treiberpfad entsorgt).

Ich bleibe dabei: Der Filter ist sauber.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9092725&postcount=79

Bei Nv gibt es nur noch HQ, egal was die Anwendung verlangt und dadurch erspart man sich solche Szenarien.

Zergra
2011-12-23, 12:59:32
Also nochmal : ALLES zu AF Hier rein -> KLICK (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=519108)

ChaosTM
2011-12-23, 13:24:43
http://www.legitreviews.com/article/1805/15/
Für das Topmodell einer neuen Generation ist der Zugewinn durch Übertaktung grandios.

Ähnlich gut wie meine MSI 560TI 448, die bis zu 980mhz schafft und damit auf und tw. sogar über 580er Niveau zu bringen ist.

Mit etwas mehr Spannung sind bei der 7970 wohl 1.2+GHz drinnen und damit kann man möglicherweise sogar Kepler kontern bzw. sehr nahe kommen. Es wird darauf ankommen, wie viel Strom letzterer braucht, um die AMD Lösung (klar) zu schlagen - für Spannung ist jedenfalls gesorgt!

Zergra
2011-12-23, 13:28:46
http://www.legitreviews.com/article/1805/15/
Für das Topmodell einer neuen Generation ist der Zugewinn durch Übertaktung grandios.

Ähnlich gut wie meine MSI 560TI 448, die bis zu 980mhz schafft und damit auf und tw. sogar über 580er Niveau zu bringen ist.

Mit etwas mehr Spannung sind bei der 7970 wohl 1.2+GHz drinnen und damit kann man möglicherweise sogar Kepler kontern bzw. sehr nahe kommen. Es wird darauf ankommen, wie viel Strom letzterer braucht, um die AMD Lösung (klar) zu schlagen - für Spannung ist jedenfalls gesorgt!
da geht doch bestimmt noch mehr :D beim OC .. aber sonst bringt die ja noch richtig Leistung.. nur ist der Stromverbrauch bei OC nicht angegeben

aufkrawall
2011-12-23, 14:21:34
Auflösung:
Die Radeons können doch SSAA unter DX10/11, man kann es nur nicht erzwingen, sondern das muß die Anwendung selber machen. ;)
Das hat aber doch überhaupt nichts mit der API zu tun.
Es gibt auch DX9-Spiele mit OGSSAA bzw. Downsampling (Crysis, Trine 2, Serious Sam 3...).

HD-Ronny
2011-12-23, 15:17:49
da geht doch bestimmt noch mehr :D beim OC .. aber sonst bringt die ja noch richtig Leistung.. nur ist der Stromverbrauch bei OC nicht angegeben

Doch, schau mal auf die Startseite. Der Stromverbrauch steigt nur moderat, in der Marketingabteilung von AMD sitzen tatsächlich nur Stümper an den entscheidenen Stellen. :mad:

Interessant ist zudem, daß das niedrigste Übertaktungsergebnis bei immerhin 1000/2800 MHz liegt, was also einigen Spielraum beim Chiptakt eröffent – noch dazu, wo die Radeon HD 7970 gemäß einhelliger Meinung der Tester unter Übertaktung nur erstaunlich maßvoll mehr Strom zieht, ganz im Gegensatz zu vielen anderen Grafikkarten unter hoher Übertaktung. Man kann hier durchaus die These aufstellen, daß AMD vielleicht besser damit beraten gewesen wäre, die Karte gleich auf 1000/2750 MHz herauszubringen – der Stromverbrach unter Spielen würde dann von 211W auf nur 220W ansteigen, womit die Karte in dieser Disziplin immer noch sehr gut (für eine HighEnd-Grafikkarte) darstehen würde. Gemäß den Skalierungstests der ComputerBase würde die Karte auf diesem Takt nochmals um 4,7 Prozent hinzugewinnen – bei einer Taktsteigerung um 8,1 Prozent nicht ganz schlecht.

dildo4u
2011-12-23, 15:22:02
Doch, schau mal auf die Startseite. Der Stromverbrauch steigt nur moderat, in der Marketingabteilung von AMD sitzen tatsächlich nur Stümper an den entscheidenen Stellen. :mad:
Die wissen genau was sie machen die wollen später noch ne Multi GPU Karte verkaufen,wenn die nicht entsprechend schneller ist lässt sie sich nicht absetzen.

chrigeligigeli
2011-12-23, 15:25:52
Die wissen genau was sie machen die wollen später noch ne Multi GPU Karte verkaufen,wenn die nicht entsprechend schneller ist lässt sie sich nicht absetzen.
oder wie die 4890 noch ne schnellere version als konter gegen NV's karte in der hinterhand halten. niemand legt gleich mal alle karten aufn tisch..

Distroia
2011-12-23, 15:29:31
für Spannung ist jedenfalls gesorgt!

Im wahrsten Sinne des Wortes. ;D Pun intended?

Bei der Leistungsaufnahme dürfte noch ziemlich viel Luft für höhere Spannung sein und die Stromversorgung lässt auch noch eine Menge Spielraum. Die von AMD behaupteten 1,2 Ghz sind also keine Übertreibung gewesen.

Superheld
2011-12-23, 16:50:00
AMD Radeon HD 7970 & CrossFireX

http://www.hardware.fr/articles/848-1/amd-radeon-hd-7970-crossfirex-test-28nm-gcn.html

ChaosTM
2011-12-23, 17:01:31
Im wahrsten Sinne des Wortes. ;D Pun intended?

Bei der Leistungsaufnahme dürfte noch ziemlich viel Luft für höhere Spannung sein und die Stromversorgung lässt auch noch eine Menge Spielraum. Die von AMD behaupteten 1,2 Ghz sind also keine Übertreibung gewesen.

was kind of intended..

Die Frage ist nur, ob man damit nicht wirklich den Absatz einer 2-Chip Lösung schwerer macht - wie dildo4u schon sagte.
Andererseits ist eine schnelle 1 Chip Lösung immer weit beliebter, als Micro-Ruckler verseuchten SLI-Lösungen - schwer zu sagen...

Aja.: meine 560ti 448 frisst bei 980mhz (mehr geht wirklich nicht!) ca. soviel wie die 580er.. ~ 240 Watt

Zergra
2011-12-23, 17:04:03
AMD Radeon HD 7970 & CrossFireX

http://www.hardware.fr/articles/848-1/amd-radeon-hd-7970-crossfirex-test-28nm-gcn.html
:D bei Crysis 2 rennt der schnell ist CPU limit :D

Soul
2011-12-23, 17:12:36
Die Frage ist nur, ob man damit nicht wirklich den Absatz einer 2-Chip Lösung schwerer macht - wie dildo4u schon sagte.
Andererseits ist eine schnelle 1 Chip Lösung immer weit beliebter, als Micro-Ruckler verseuchten SLI-Lösungen - schwer zu sagen...

Die 7970 Tests bei den Franzosen zeigen schön, dass im CFX Modus die beiden fast zu 100% skalieren. Somit wird eine 2 Chip Lösung immer schneller sein als die schnellste 1 Chip Version.

Bin jedenfalls schon mal gespannt auf die ersten 3 und 4 fach CFX Tests, falls ein Tester 4 Karten in die Hand bekommt. =)

ChaosTM
2011-12-23, 17:21:32
deleted

ChaosTM
2011-12-23, 17:23:45
Die 7970 Tests bei den Franzosen zeigen schön, dass im CFX Modus die beiden fast zu 100% skalieren. Somit wird eine 2 Chip Lösung immer schneller sein als die schnellste 1 Chip Version.

Bin jedenfalls schon mal gespannt auf die ersten 3 und 4 fach CFX Tests, falls ein Tester 4 Karten in die Hand bekommt. =)

Das ist sowieso klar. Die Frage ist nur, ob man eine etwa 20-30% schnellere 1 Chip Lösung präsentieren wird oder nicht. Auf Grund des grossen Headrooms ist alles möglich.

Das wird AMD aber erst entscheiden, wenn Kepler da ist..

AnarchX
2011-12-23, 17:31:28
4Gamer mit einem Treiber vom 20.12. (8.921.2-111219a-130573E-ATI):
http://www.4gamer.net/games/135/G013536/20111223007/TN/034.gif
http://translate.google.de/translate?u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F135%2FG013536%2F20111223007%2F&sl=ja&tl=en&hl=&ie=UTF-8

Hat man da bei 2560x1600 vielleicht die Werte vertauscht?

Ronny145
2011-12-23, 17:34:07
4Gamer mit einem Treiber vom 20.12. (8.921.2-111219a-130573E-ATI):
http://www.4gamer.net/games/135/G013536/20111223007/TN/034.gif
http://translate.google.de/translate?u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F135%2FG013536%2F20111223007%2F&sl=ja&tl=en&hl=&ie=UTF-8

Hat man da bei 2560x1600 vielleicht die Werte vertauscht?


Laut Don hat der eine miese Performance, sollte also stimmen. Ich würde eher sagen das 1920 Ergebnis ist vertauscht.

http://www.hardwareluxx.de/community/18112000-post814.html

LovesuckZ
2011-12-23, 17:44:04
Ich frage mich bei den ganzen Chaos, wieso man unbedingt den Launch vorziehen wollte...

Raff
2011-12-23, 17:45:48
Und ich frage mich, wann der erste "Wundertreiber" mit 10 Prozent across the board kommt. Tahiti scheint derzeit noch mit mehr Blasen zu laufen als die VLIW-Chips. Da sind ein paar Sprünge so sicher wie das Amen in der Kirche.

MfG,
Raff

Gipsel
2011-12-23, 18:11:23
Das hat aber doch überhaupt nichts mit der API zu tun.
Es gibt auch DX9-Spiele mit OGSSAA bzw. Downsampling (Crysis, Trine 2, Serious Sam 3...).
Doch. Bei DX9 kann man es auch erzwingen, ab DX10 nicht mehr, da muß die Anwendung selber das unterstützen.

deekey777
2011-12-23, 18:16:27
Ich frage mich bei den ganzen Chaos, wieso man unbedingt den Launch vorziehen wollte...
Was für ein Chaos?

aufkrawall
2011-12-23, 18:16:31
Doch. Bei DX9 kann man es auch erzwingen, ab DX10 nicht mehr, da muß die Anwendung selber das unterstützen.
Und deshalb ist AMDs Aussage so verwirrend. :)

HD-Ronny
2011-12-23, 18:17:57
Die wissen genau was sie machen die wollen später noch ne Multi GPU Karte verkaufen,wenn die nicht entsprechend schneller ist lässt sie sich nicht absetzen.

Nope. Eine Multi GPU ist sowieso schneller bei/in der Balkenlänge. Für eine "7975" ist der Sprung zu gering. Vielleicht verarscht uns AMD ja auch nur und möchte Nvidia aus der Deckung locken.

;D

deekey777
2011-12-23, 18:20:00
Doch. Bei DX9 kann man es auch erzwingen, ab DX10 nicht mehr, da muß die Anwendung selber das unterstützen.
Kann man im CCC überhaupt schon MSAA in DX10-Anwendungen (und höher) erzwingen? Mit AAA?

ChaosTM
2011-12-23, 18:28:03
Was für ein Chaos?

Manche Leute werden offensichtlich für ihre Kommentare hier bezahlt. Anders ist das nicht erklärbar.. ;)

Matrix316
2011-12-23, 18:44:35
Nach lesen einiger Reviews bleiben nur drei Fragen:

Wann kommts raus? Wieviel solls kosten? Und wer will meine 580GTX kaufen?:up::naughty:

Hätte nicht gedacht, dass die so schnell wird.

Raff
2011-12-23, 18:48:22
AMD spricht nach wie vor vom 9. Januar 2012 als Verfügbarkeitstermin. Ich bin aber sicher, dass erste Groß-Shops (wie Alternate) schon ein paar Tage früher Karten auf Lager haben.

MfG,
Raff

LovesuckZ
2011-12-23, 19:00:29
Was für ein Chaos?

Gucken wir mal:
Treiber die weniger Leistung geben, da Overdrive noch nicht ready
Schlechte Kühlermontierung, dadurch schlechtere Lautstärke Messung
Geringe Anzahl an Karten, daher kein Crossfire in Tests möglich

Aber du hast recht, es ist im Grunde kein Chaos, sondern die typische Unfähigkeit von AMD. :up:

DrFreaK666
2011-12-23, 19:06:59
Zum Glück gabs noch keine nv-treiber, die Grakas zerstört haben... ;)
Ist halt nicht jeder so perfekt wie nv...
http://www.hardware-mag.de/news/2010/maerz/vvidia_ruft_geforce-treiber_19675_zurueck/
Ist natürlich schon verjährt, war ja schliesslich im 1Q.2010

LovesuckZ
2011-12-23, 19:08:18
Und das hat jetzt genau mit dem vorgezogenen Launch und den daraus ergebenen Chaos zu tun?

Was kommt als nächtes: Die abgebrochenen Stromanschlussecken der 6970? :lol:

Knuddelbearli
2011-12-23, 19:11:19
auch bei nv sind sli benchmarks beim launch eine extreme ausnahme

von wünschen was überhaupt gebencht werden soll wie zB bei der GTX295 gar nicht zu reden ...

DrFreaK666
2011-12-23, 19:15:42
Und das hat jetzt genau mit dem vorgezogenen Launch und den daraus ergebenen Chaos zu tun?

Was kommt als nächtes: Die abgebrochenen Stromanschlussecken der 6970? :lol:

Ja du ziehst AMD immer in den Dreck, dabei ist auch nv nicht unfehlbar.
Dass durch einen Treiber Grakas verrecken ist natürlich nicht so schlimm wie fehlende CF-benchmarks...
UPS, meine Graka ist tot. Egal, es gibt CF-benchmarks ;D

LovesuckZ
2011-12-23, 19:18:17
Ja du ziehst AMD immer in den Dreck, dabei ist auch nv nicht unfehlbar.
Dass durch einen Treiber Grakas verrecken ist natürlich nicht so schlimm wie fehlende CF-benchmarks...
UPS, meine Graka ist tot. Egal, es gibt CF-benchmarks ;D

Und? Was hat das mit dem Launch zu tun? :confused:

Du vergleichst gerade Äpfel mit Birnen.
Aber egal, sinnlos diskussionen habe ich schon beim Thema Tessellation mit Leuten wir dir gehabt. Daher lass ich es mal ruhen und denke mir meinen Teil.

aufkrawall
2011-12-23, 19:20:47
Kann man im CCC überhaupt schon MSAA in DX10-Anwendungen (und höher) erzwingen? Mit AAA?
Man kann bei DX10+ gar nichts erzwingen, AAA erweitern geht auch nicht.
Das war es doch, was ich dir mitzuteilen versuchte. ;)

derguru
2011-12-23, 19:21:22
Kann man im CCC überhaupt schon MSAA in DX10-Anwendungen (und höher) erzwingen? Mit AAA?
ich denke nicht,geklappt hat es jedenfalls noch nie bei mir,egal ob es ein far cry2,crysis oder sonst was war.
aber seit wann funktioniert das denn bei nv?ging zu der zeit wo ich noch eine hatte auch nie.

aufkrawall
2011-12-23, 19:24:48
aber seit wann funktioniert das denn bei nv?ging zu der zeit wo ich noch eine hatte auch nie.
Du kannst bei Nvidia auch nichts erzwingen und auch nicht den eigentlichen AA-Modus enhancen (hat zumindest bei mir auch nie funktioniert).
Du kannst aber TSSAA hinzufügen oder statt MSAA SGSSAA anwenden lassen.
Dafür muss allerdings die Anwendung MSAA anwenden.

derguru
2011-12-23, 19:29:50
ja das weiß ich aber du erwähnst seit tagen das unter amd mit dx10 aufwärts kein aaa möglich sei,ich betone ausdrücklich nur bei amd.;)

DrFreaK666
2011-12-23, 19:30:20
*gelöscht*

Duke Nukem
2011-12-23, 21:06:28
Gucken wir mal:
Treiber die weniger Leistung geben, da Overdrive noch nicht ready
Schlechte Kühlermontierung, dadurch schlechtere Lautstärke Messung
Geringe Anzahl an Karten, daher kein Crossfire in Tests möglich
:

Crossfire brauchts wohl bei der Karte nicht bissel oc und schon knallt das ding das es nv und deren hypern schwindlig wird.

HarryHirsch
2011-12-23, 21:19:20
welche specs hat eigentlich der verbaute vram? weiß das jemand?

edit:
hat sich erledigt

Nasenbaer
2011-12-23, 23:11:22
Hat irgendwer was zu Evefinity 3D geschrieben? Kursierten ja Gerüchte über die "neue Technologie" und 3 Monitore + 3D wäre sicher schon was feines. :)

Hübie
2011-12-23, 23:25:20
Crossfire brauchts wohl bei der Karte nicht bissel oc und schon knallt das ding das es nv und deren hypern schwindlig wird.

Naja ~10 fps mehr als die Matrix würde ich nun nicht als schwindelig machend bezeichnen. Projezieren wir das mal auf bspw. Witcher 2 mit Ubersampling bleibt auch nicht mehr allzu viel übrig. Es kann natürlich den Unterschied zwischen gerade noch spielbar und spielbar machen. Alles aber immer mit einem Fingerzeig in Richtung Energiebedarf/Lautstärke.

LG Hübie
ps: Ja ich weiß, das man bei den Taktraten Wasser nutzen sollte ;)

Captain Future
2011-12-23, 23:27:11
Hat irgendwer was zu Evefinity 3D geschrieben? Kursierten ja Gerüchte über die "neue Technologie" und 3 Monitore + 3D wäre sicher schon was feines. :)

Das gibt's für alle im Cat 11.12:
AMD Eyefinity technology enhancements:
- Enables support for AMD HD3D technology when using a 3x1 Landscape Eyefinity display group, on supported - DisplayPort 3D monitors.

http://www.pcgameshardware.de/aid,859631/Catalyst-1112-WHQL-fuer-Radeon-Diverse-Verbesserungen-und-Bugfixes-Spieler-passen-lieber-Download-des-Tages/Grafikkarten-Treiber/Download/

uweskw
2011-12-23, 23:53:24
Gerade bei Witcher2 mit Übersampling enttäuscht die 7970 leider.
http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/12/#abschnitt_leistung_mit_ssaa
Grade wos drauf ankommt! Kaum schneller als die GTX580. Und gerade mal 15% schneller als die 6970. Das ist das einzige Spiel bei dem mir meine 570er zu schwach ist. Drum hab ich ans aufrüsten gedacht. Muss wohl noch warten.

Hübie
2011-12-24, 05:36:20
Hahahaaa...15% klingt ja passabel, aber 0,5 fps klingen zum brechen ;D

Duke Nukem
2011-12-24, 08:08:02
Naja ~10 fps mehr als die Matrix würde ich nun nicht als schwindelig machend bezeichnen. Projezieren wir das mal auf bspw. Witcher 2 mit Ubersampling bleibt auch nicht mehr allzu viel übrig. Es kann natürlich den Unterschied zwischen gerade noch spielbar und spielbar machen. Alles aber immer mit einem Fingerzeig in Richtung Energiebedarf/Lautstärke.

LG Hübie
ps: Ja ich weiß, das man bei den Taktraten Wasser nutzen sollte ;)

Na ja die 590 ist ne dual karte hier langsamer als ne Single das würde ich schon als schwindelig machend bezeichnen. Oder schafts vielleicht ne NV single karte so nah an die 6990 rannzukommen. Wenn crossfire funzt.

Hübie
2011-12-24, 09:28:39
Öh. Ich rede von der GTX 580 (ASUS Matrix@957 MHz). Meine rennt auch mit 920, was mir aber zu laut ist. Da sinds in FullHD gerade mal 10 fps laut deinem Bild. Und du wirst doch nicht auf die 1280er Auflösung anspielen wollen, oder? :rolleyes:

Da macht nix schwindelig.

ChaosTM
2011-12-24, 09:45:43
Brand Loyalty aka Fanboism ist eine der schlimmsten Formen der Dummheit.

Leider basieren gut 80% aller Beiträge in den Grafikkarten- Foren auf diesem Prinzip...

Nasenbaer
2011-12-24, 09:48:21
Das gibt's für alle im Cat 11.12:
AMD Eyefinity technology enhancements:
- Enables support for AMD HD3D technology when using a 3x1 Landscape Eyefinity display group, on supported - DisplayPort 3D monitors.

http://www.pcgameshardware.de/aid,859631/Catalyst-1112-WHQL-fuer-Radeon-Diverse-Verbesserungen-und-Bugfixes-Spieler-passen-lieber-Download-des-Tages/Grafikkarten-Treiber/Download/
Dank dir. :)

Hübie
2011-12-24, 09:56:58
Brand Loyalty aka Fanboism ist eine der schlimmsten Formen der Dummheit.

Leider basieren gut 80% aller Beiträge in den Grafikkarten- Foren auf diesem Prinzip...

:| Ich hoffe doch sehr du meinst nicht mich...

desert
2011-12-24, 11:11:36
Hahahaaa...15% klingt ja passabel, aber 0,5 fps klingen zum brechen ;D

Naja schau dir metro2033 an, da sind es 1,3 fps bei aa/af die die 7970 schneller ist als die 580. Die 7970 holt sich ihren geschwindigkeitsvorteil in "unwichtigen" spielen. Ob ich nun 120 oder 100 fps ist nicht wirklich von bedeutung, ob ich 30 oder 40 habe schon. Bei the witcher sind es ohne ssaa gerade mal 5 fps. Wo geht die ganze leistung hin? 1,6 gflops gegen 3,8 gflops, Da muss doch mehr bei rumkommen?

http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/40/#abschnitt_metro_2033

Deswegen ist die karte für mich persönlich eine enttäuchung. Hätte mit deutlich mehr "bumms" gerade bei grafiklastigen spielen gerechnet. So bin ich mit der 580 besser bedient. Eigentlich traurig das eine neue grafikkarte schafft es nicht, eine bald 2 jahre alte architektur zu schlagen.

AnarchX
2011-12-24, 11:19:08
Als Erinnerung:
Zielsetzung der (P)Review-Threads sind vernünftige und konstruktive Diskussionen über neue Produkte anhand geposteter Reviews.

Halbsätze mit Emoticons und persönliche Angriffe gehören nicht dazu. Wer die Anforderungen an diese Diskussion nicht erfüllen kann, sollte dieser fern bleiben oder muss mit Konsequenzen rechnen.

Reneeeeeee
2011-12-24, 11:21:52
30-64% schneller unter ssaa als die 580er ist doch mal nicht schlecht.

Witcher 2 ist mir egal , da langt die Power auch :)

Wenn der Preis noch stimmen würde könnte ich meine 5870 dafür hergeben :)

edit:

Mist, Starcraft ist mir schon wichtig :(

Raff
2011-12-24, 11:24:52
Es sind aber nicht feinselektierte +30 bis 64 Prozent, sondern eher -27 bis +64 Prozent ;) (Starcraft 2 (http://www.pcgameshardware.de/aid,860536/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm/Grafikkarte/Test/?page=14) und GTA IV (http://www.pcgameshardware.de/aid,860536/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm/Grafikkarte/Test/?page=11) liegt selbst GCN nicht).

MfG,
Raff

AnarchX
2011-12-24, 11:44:14
In StarCraft ist wohl NVs MSAA-Hack immernoch deutlich besser. Gegenüber Cayman ist der Zugewinn schon sehr ordentlich.
Aber GTA4 ist wohl ein Totalausfall, wo man gerade mal den Taktunterschied als Leistungsgewinn umsetzen kann.
Bei einem BQ-maximierten D3D11-WoW sieht es wohl ähnlich aus: http://www.pcgameshardware.de/aid,860536/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm/Grafikkarte/Test/?page=16

Für den Herbst-Refresh wäre wohl wirklich ein fetteres Setup und breitere Datenpfade zwischen den Einheiten angebracht. Aber vielleicht tut sich im Frühjahr bzgl. der Treiber noch etwas.

Raff
2011-12-24, 12:09:27
Skyrim (http://www.pcgameshardware.de/aid,860536/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm/Grafikkarte/Test/?page=15) läuft auch noch ziemlich grützig, trotz mehrerer explizit genannter Verbesserungen im Catalyst. Schon kurios, dass diese Uralt-Engine Probleme bereitet. Ich kann mir aber vorstellen, dass hier NVs dickes Setup ebenfalls hilft – wenn auch mit 8x SGSSAA eher was anderes im Argen ist. Dafür sind Mass Effect 2 mit SGSSAA und Serious Sam 3 mit Downsampling + MSAA richtig schön "in your face". :biggrin:

MfG,
Raff

AnarchX
2011-12-24, 12:11:28
In Skyrim kann man auch andere Resultate erzielen:http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/30/#abschnitt_skyrim
Mit SGSSAA sind es dann bis zu 64%.

Dafür sind Mass Effect 2 mit SGSSAA und Serious Sam 3 mit Downsampling + MSAA richtig schön "in your face". :biggrin:

SS3@SGSSAA ist in der Tat ein Bestcase. In Mass Effect 2 ist man aber auch nur 25% über der 6970.

Raff
2011-12-24, 12:14:13
Lässt sich irgendwo einsehen, welche Stelle CB testet?

MfG,
Raff

AnarchX
2011-12-24, 12:15:52
Lässt sich irgendwo einsehen, welche Stelle CB testet?

Frag doch Wolfgang nach dem Savegame. Ansonsten ist oberhalb der Ergebnisse wohl ein Bild der Savegame-Stelle.

Ronny145
2011-12-24, 12:18:04
Der GTA 4 Ausfall ist schon ziemlich ärgerlich. Mit ENB Mod und SSSAA wäre mehr Leistung dringend benötigt.

LovesuckZ
2011-12-24, 12:19:02
SS3@SGSSAA ist in der Tat ein Bestcase. In Mass Effect 2 ist man aber auch nur 25% über der 6970.

So sollte man auch vergleichen. Denn nur weil die 7970 in einigen Fällen (deutlich) vor der GTX580 ist, steht sie nur im erwarteten bis geringen Abstand zur 6970.

Raff
2011-12-24, 12:26:23
Frag doch Wolfgang nach dem Savegame. Ansonsten ist oberhalb der Ergebnisse wohl ein Bild der Savegame-Stelle.

Wolle kümmert sich drum. =)

Der GTA 4 Ausfall ist schon ziemlich ärgerlich. Mit ENB Mod und SSSAA wäre mehr Leistung dringend benötigt.

Das schon, aber natürlich stemmt die Radeon das ganze Shader- und Postfilter-Gedöns sowie OGSSAA mit einem prozentual geringeren Einbruch als die Geforce-Karten (eben weil sie selbst in niedrigen Einstellungen nicht zu Potte kommt). Wer mit 30 Fps zufrieden ist, hat mit Tahiti viel Luft für Bildverbesserer.

MfG,
Raff

MechWOLLIer
2011-12-24, 12:32:26
Mal ein wenig Auflärung:
Skyrim ist nicht unbedingt ein toller Benchmark.
Denn das Spiel ist entweder krass CPU-limitiert (Außenwelt) oder GPU-Limitiert (Innenwelt). Das alleine ist noch kein Problem, jedoch hat man in den Außenwelten generell niedrigere FPS-Raten. Deswegen hat sich Raff wohl für einen Benchmark "draußen" entschieden. Entsprechend ist das FPS-Limit hoch (kann man eben etwas durch Todeseinstellungen kaschieren, ohne das Problem aber vollends zu beseitige).

Wir haben uns dagegen für einen Indoor-benchmark entschieden. Der hat eben deutlich höhere FPS-Raten, ist dafür aber deutlich GPU-limitierter. Dementsprechend hat man in Skyrim die Qual der Wahl :) Und dadurch kommen wohl auch die unterschiedlichen Ergebnisse zu Stande, da den AMDs Outdoor nicht so richtig zu gefallen scheint (und anders herum auch).

Raff
2011-12-24, 12:36:14
Danke für dein Statement. :) Richtig, Outdoor + Niederkeulen mit SGSSAA hielt ich für toller als einen Dungeon-Benchmark ... in der ungetesteten, naiven Hoffnung, dass GPU-Limit = GPU-Limit ist. Gut zu wissen, dass dem nicht so ist. Das Spiel taugt demnach nur bedingt als Grafikkartentest.

MfG,
Raff

LovesuckZ
2011-12-24, 12:36:59
Mit dem neusten Betatreiber von nVidia hat man angeblich die Indoor-Leistung deutlich verbessert.

Peter Gräber
2011-12-24, 12:57:58
Danke für dein Statement. :) Richtig, Outdoor + Niederkeulen mit SGSSAA hielt ich für toller als einen Dungeon-Benchmark ... in der ungetesteten, naiven Hoffnung, dass GPU-Limit = GPU-Limit ist. Gut zu wissen, dass dem nicht so ist. Das Spiel taugt demnach nur bedingt als Grafikkartentest.

MfG,
Raff

http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index43.php

Das Savegame spielt in einer Höhle. Ansonsten hab ich im übrigen die gleichen Feststellungen wie Wolfgang machen dürfen. Skyrim bietet sich damit eigentlich optimal für CPU- und GPU-Benchmarker an - je nach Szene natürlich. Deutlich ungeeigneter für Grakas kam mir Starcraft vor. Da hat man ihmo fast überall vorrangig CPU-Limits.

Hugo78
2011-12-24, 12:58:26
@Wolle und Raff

Ihr nutzt auch unterschiedliche Patches.
PCGH v1.3, CB v1.2.

Hübie
2011-12-24, 16:23:12
Es sind aber nicht feinselektierte +30 bis 64 Prozent, sondern eher -27 bis +64 Prozent ;) (Starcraft 2 (http://www.pcgameshardware.de/aid,860536/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm/Grafikkarte/Test/?page=14) und GTA IV (http://www.pcgameshardware.de/aid,860536/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm/Grafikkarte/Test/?page=11) liegt selbst GCN nicht).

MfG,
Raff

Ich musste eben zwei mal lesen eh ich es gecheckt habe ;D Miiiiinus siebenundzwanzig Prozent :facepalm:!

In StarCraft ist wohl NVs MSAA-Hack immernoch deutlich besser. Gegenüber Cayman ist der Zugewinn schon sehr ordentlich.
Aber GTA4 ist wohl ein Totalausfall, wo man gerade mal den Taktunterschied als Leistungsgewinn umsetzen kann.
Bei einem BQ-maximierten D3D11-WoW sieht es wohl ähnlich aus: http://www.pcgameshardware.de/aid,860536/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm/Grafikkarte/Test/?page=16

Für den Herbst-Refresh wäre wohl wirklich ein fetteres Setup und breitere Datenpfade zwischen den Einheiten angebracht. Aber vielleicht tut sich im Frühjahr bzgl. der Treiber noch etwas.

Was meinst du damit? Sorry falls ich doof frage, aber hab davon nix mitbekommen...

In Skyrim kann man auch andere Resultate erzielen:http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/30/#abschnitt_skyrim
Mit SGSSAA sind es dann bis zu 64%.

CB nutzt 4xSSAA. Afaik also kein SGSSAA sondern OGSSAA um die Basis zu AMD aufrecht zu erhalten. Schlagt mich wenn ich irre, aber dann bitte mit Quelle ;) Übrigens kann man Skyrim gerade ausklammern da es derbe Performanceprobleme hatte, welche nicht ausschließlich treiberbedingt waren. Mich würde ebenfalls die Benchsequenz interessieren.

LG Hübie

Edit: @all: FROHES FEST & VIELE GABEN WÜNSCH ICH EUCH!

@raff: Nutzt ihr SKSE mit dem TESV Acceleration Layer (http://forums.bethsoft.com/topic/1322545-rel-tesv-acceleration-layer-thread-3/)?? Bringt wirklich etwas. Ich und viele andere können das bestätigen. So nun aber ab zur Bescherung - mein Herz pochert =)

derguru
2011-12-24, 16:36:31
CB nutzt 4xSSAA. Afaik also kein SGSSAA sondern OGSSAA um die Basis zu AMD aufrecht zu erhalten. Schlagt mich wenn ich irre, aber dann bitte mit Quelle ;) Übrigens kann man Skyrim gerade ausklammern da es derbe Performanceprobleme hatte, welche nicht ausschließlich treiberbedingt waren. Mich würde ebenfalls die Benchsequenz interessieren.

LG Hübie

Edit: @all: FROHES FEST & VIELE GABEN WÜNSCH ICH EUCH!

cb nutzt sgssaa,wüsste auch nicht wie cb ogssaa bei amd karten anwenden könnte.
das muss definitiv sgssaa sein,quelle habe ich aber keine.:biggrin:

von mir auch eine frohes fest für alle!

Raff
2011-12-24, 16:40:49
Es gibt keine Möglichkeit für OGSSAA bei Ati, ergo ist's SGSSAA.

MfG,
Raff

Hübie
2011-12-24, 16:41:00
:| AMD beherrscht doch nur OGSSAA oder verdreht meine Birne da was?!

Edit: Okay meine Matschbirne hats genau verdreht ;D Danke für die Aufklärung!
@MechWOLLIer: Nenne mal bitte den Dungeon welchen ihr testet und die ungefähre Stelle. Möchte das gerne mal mit dem aktuellen Stand der Software nachvollziehen.

Raff
2011-12-24, 16:42:14
Nee, das ist zweifellos SGSSAA. Der Treiber macht einfach aus dem altbewährten SG-MSAA Supersampling. Inklusive LOD-Verschiebung, weshalb's ja so toll aussieht.

MfG,
Raff

Hübie
2011-12-24, 16:45:10
Ich empfand AMDs AA Modi schon seit langem als schicker, aber das kann teils placebo sein. Äääähm. Wieso bekommen die es eigentlich nicht unter D3D10/11 hin? Auf Anfragen reagieren die ja nie. Man könnte sich bei der catalyst-crew tottwittern und bekäme nix brauchbares :mad:

Knuddelbearli
2011-12-24, 17:04:07
dx 10 und 11 darf nur vom programm angefordert werden. treiber hat da gar nichts zu melden

y33H@
2011-12-24, 17:39:13
Erzähl das mal einer Geforce ;D

Knuddelbearli
2011-12-24, 17:48:40
da gehts auch nur inoffiziel, für leute die gerne bisl herummodden. wette 90% der spieler wissen gar nichts davon

mir selber ist das auch zuviel umstand nutze einfach DS und fertig.

=Floi=
2011-12-24, 17:57:59
seit wann geht es bei nv auch? link?

mapel110
2011-12-24, 18:01:27
seit wann geht es bei nv auch? link?
http://nvidia.custhelp.com/app/answers/detail/a_id/2624
Seit 1.5 Jahren?! O_o

derguru
2011-12-24, 18:23:56
da gehts auch nur inoffiziel, für leute die gerne bisl herummodden. wette 90% der spieler wissen gar nichts davon

mir selber ist das auch zuviel umstand nutze einfach DS und fertig.
mit 90% hast du noch untertrieben,selbst leute die regelmäßig hier im forum sind und grüne unterwäsche tragen wissen es nicht siehe =Floi=:freak:

Hübie
2011-12-24, 19:20:41
dx 10 und 11 darf nur vom programm angefordert werden. treiber hat da gar nichts zu melden

Die Art lässt sich aber per Treiber erweitern ;) Wenn das Spiel nur MSAA anfordert kann man SSAA erweitern. Bekannteste Beispiele: Crysis 2, Battlefield 3 oder Dirt³.

btw: Sind DX10/11-Spiele da, welche ohne implementiertes AA selbiges trotzdem applizieren wenn es per bit forciert wird? :| Ich kann heute irgendwie nicht klar denken :redface:

LG Hübie

Edit: http://extreme.pcgameshardware.de/quickpolls/182275-aa-modi-kantenglaettung-welche-dieser-verfahren-kennt-ihr.html Ist nicht deutschlandweit ausserhalb des Forums sehr repräsentativ, aber zeigt einen Trend ;) Macht die Menschen nicht dümmer/unwissender als sie sind.

boxleitnerb
2011-12-24, 19:41:24
Die Art lässt sich aber per Treiber erweitern ;) Wenn das Spiel nur MSAA anfordert kann man SSAA erweitern. Bekannteste Beispiele: Crysis 2, Battlefield 3 oder Dirt³.

btw: Sind DX10/11-Spiele da, welche ohne implementiertes AA selbiges trotzdem applizieren wenn es per bit forciert wird? :| Ich kann heute irgendwie nicht klar denken :redface:

LG Hübie


Crysis 2 fordert doch gar kein MSAA an, weder DX9 noch DX11. In BF3 hab ich SSAA gar nicht zum Laufen gekriegt. Geht das inzwischen?

Soweit ich weiß, gibts praktisch keine AA-Bits für DX11. Für DX10 auch nicht, vielleicht ein, zwei Spiele mehr wenn überhaupt.

mapel110
2011-12-24, 20:09:38
Edit: http://extreme.pcgameshardware.de/quickpolls/182275-aa-modi-kantenglaettung-welche-dieser-verfahren-kennt-ihr.html Ist nicht deutschlandweit ausserhalb des Forums sehr repräsentativ, aber zeigt einen Trend ;) Macht die Menschen nicht dümmer/unwissender als sie sind.
Schau dir die Umfrage genau an. Wenn ich da sehe, wie viele Leute Downsampling kennen, aber keine Ahnung von den anderen AA-Modi haben, bekomme ich jedenfalls das ganz große Kotzen. Die Zukunft wird jedenfalls für AA-Liebhaber sehr traurig werden.
Dank Tessellation viele, viele, viele Polygone und nichts wird mehr effizient geglättet. Downsampling hat auch seine Nachteile. Zum Beispiel gibts viele Games, bei denen die Schrift und die Optionsmenüs unlesbar klein werden.

Raff
2011-12-24, 20:26:36
Downsampling hat auch seine Nachteile. Zum Beispiel gibts viele Games, bei denen die Schrift und die Optionsmenüs unlesbar klein werden.

Das ist aber ein Spiel-Fail. Man muss die Fonts nicht so auslegen, dass sie sich an der Pixelgröße orientieren. Es gibt genug Gegenbeispiele, bei denen Schrift/GUI immer dieselbe, fest definierte Größe haben und einfach mehr Pixel darauf liegen.

MfG,
Raff

=Floi=
2011-12-24, 22:37:14
mit 90% hast du noch untertrieben,selbst leute die regelmäßig hier im forum sind und grüne unterwäsche tragen wissen es nicht siehe =Floi=:freak:

ich habe mich nach dem thread gerichtet:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=490867
siehe BF:BC2 und noch ein paar weitere. wenn unter DX10/11 nur wieder ~30% geglättet werden und das bild nach FXAA aussieht, dann bringt es ja nichts. Da man bei quasi jedem neuen titel selbst nachbessern muß darf, richte ich mich eben nach der liste und nicht nach dem treiber.


was hat sich denn beim frontend getan? gibt es da irgendwelche bahnbrechenden verbesserungen? gibt es eigentlich irgendwas, was extrem überlegen gegenüber nv ist?

Nasenbaer
2011-12-25, 00:58:09
Für DX10/11 wurden neben dem AA-Samplecount, auch QualityLevels definiert. Darüber wird dann entschieden welcher AA-Modi gewählt wird. So kann ein Programm halt MSAA, SSAA, oder was auch immer der IHV für die QualityLevel hinterlegt hat, auswählen.

Das Problem: Nvidia bietet unterschiedliche QualityLevel aber Catalyst bei meiner letzten Recherche mit dem DX Caps Viewer (im DX SDK) nur einen (MSAA halt) an. So können Spiele bei AMD leider kein SSAA wählen, wohl das keine Beschränkung seiten DX10/11 ist.

Mit dieser Funktion kann man die QualityModi bspw. abfragen:
http://msdn.microsoft.com/en-us/library/windows/desktop/ff476499%28v=vs.85%29.aspx

Edit: Dazu noch ne Bestätigung aus dem msdn-Blog:

Quelle: http://blogs.msdn.com/b/chuckw/archive/2010/06/10/directx-11-hardware-vendor-differences.aspx
The biggest difference I noticed was that number of MSAA quality levels exposed by AMD vs. NVIDIA. This information is obtained via the CheckMultisampleQualityLevels method in Direct3D 10.x and 11. The ATI Radeon HD 5000 Series only provides one quality level per sample count, while the NVIDIA GeForce GTX 400 Series exposes a number of fine-grain quality levels per sample count.

=Floi=
2011-12-25, 08:02:37
Es ist notwendig, um die höhrere Rohleistung ausspielen zu können. Es limitiert so dermaßen, dass am Ende von der 2x Rechen- und Texturleistung kaum etwas übrig bleibt. Und dann hat man plötzlich nur noch einen 15% Vorsprung.

das glaubst doch wohl selbst nicht?! auch ohne tesselation die 7970er nicht so schnell wie sie es sein sollte. es ist schon ein wenig erschreckend, wie brutal gut fermi ist und wie genial der weg eigentlich ist, wenn man auf AMD blickt.

lastshady
2011-12-25, 09:45:19
Es gab mal jemand im Forum.
Der hätte glaub ich die hd 7970 für müll erklärt.wieso?
wahrscheinlich:
"Man ich warte seit monaten sehnsüchtigst auf neue karten und dann dass?
3gb ram, ohne ende bandbreite -perverse vorraussetzungen für DS+SGSSAA
-und die karte kann nix neues? So ein Bullshit man!!
Toll Wenn Amd da bald nix nachverbessert, bleib ich lieber bei meiner 4*gtx580 ultra oc.
fürs erste und switch dann auf 4*gtx680-(die babys werden geil)";-)

sorry musste die ganze zeit an ihn deken bei den ganzen Bildquali-diskussionen.

-tk|doc-
2011-12-25, 10:02:52
Tombman? Bist du es?

Ich finde die Möglichkeit gut, dass sie ihren Verbrauch so weit runter regeln kann (idle, Monitor aus). Das hat mich immer schon gewundert, warum das vorher nie so umgesetzt wurde wundert mich immer wieder.

ciao Phil

HarryHirsch
2011-12-25, 10:32:41
der preiskampf (:freak:) hat begonnen: http://geizhals.at/eu/719058

640€ :crazy:

=Floi=
2011-12-25, 12:26:16
~20 Prozent schneller als die GTX 580 (~400 Euro) und dazu der Technologiebonus (sparsamer, PCI-E 3.0, DX11.1). Ich finde es gerechtfertigt. Sicher nicht günstig, leider, aber gerechtfertigt.

MfG,
Raff


was ihr aber nicht seht ist das dumme powertune. die karte kann man zwar heftig übertakten, aber wie stark läuft sie dann wirklich in den begrenzer?/bzw. lässt sich dieser nicht einfach abschalten wie bei nv und ist auch sehr knapp gesetzt.
nächster punkt ist, dass bei einer 500€ keine phase fehlen darf. ATI lernt es einfach nicht. die sparen seit jahren an der hardware und das kann man bei einer 500€ karte nicht bringen. :rolleyes:
-pcie 3.0 ist sowas von egal
-sparsamer ist relativ, wenn die karte trotzdem oft mehr verbraucht wie sie soll, weil die videobeschleunigung anspringt. (ich habe dafür einfach einen 2. pc) trotzdem nett, dass weiterhin der 2D modus optimiert wird
- DX3D 11.1 ist irgendwie ein witz. alle paar monate ne neue version trägt nicht zur stärke der api bei. das hätte man sicherlich auch gleich in 11.0 integrieren können. nervt schon ein wenig und früher gab es da mal 9a, b, c.

Raff
2011-12-25, 12:30:16
Man kann z. B. mit dem Afterburner(-OSD) zuverlässig checken, ob das Ding heruntertaktet. PCGH hat die ganze Kiste nochmal mit +20 % Popotune gebencht, ohne dass sich die Werte veränderten (heißt: sie taktet nicht herunter).

Mit Powertune +20 Prozent ist schon viel OC zu holen (eben rund 250 Watt), extreme Overvolting-Aktionen bringen aber tatsächlich nichts, weil die Kiste dadurch nur gedrosselt wird. Die Frage ist, ob man die Bremse per BIOS zuverlässig heraufsetzen oder killen kann – wäre gut für die Lightnings & Co.

MfG,
Raff

uweskw
2011-12-25, 13:38:22
Die Ergebnisse im PCGH Test waren die mit oder ohne +20% ?
Denn die erwähnten 1050MHz sind im Vergleich mit aneren Magazinen nicht sooo prall.

Raff
2011-12-25, 13:48:33
€dit: Ach so, du meinst nur die OC-Werte. Die entstanden natürlich mit +20 Prozent. Und es skaliert.

____

Da es nichts ausmachte, wurden die ursprünglichen Werte (Powertune +/–0) genommen. Spielt ohne OC ja keine Rolle. Zum OC zitiere ich mal den PCGH-Test (http://www.pcgameshardware.de/aid,860536/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm/Grafikkarte/Test/?page=3):

Mit der zum Testzeitpunkt noch nicht veränderbaren Standardspannung (je nach Tool werden 1,17 oder 1,15 Volt angezeigt) kommen wir auf dauerhaft stabile 1.050 MHz, für Benchmarkzwecke erreichten wir auch 1.100 MHz GPU-Takt mit ersten Grafikfehlern.

1,1 GHz liefen, aber mit sporadischem Geflacker. In Crysis Warhead mit 4x Supersample-AA wohlgemerkt, also Maximallast. Dass andere Sites 3D Mark & Co. noch mit mehr Takt durchlaufen lassen konnten, verwundert mich kein bisschen. Diese Zahlen sind aber nicht realistisch, weil entfernt von "rockstable". Vermutlich liegt das Limit des PCGH-Musters bei grob stabilen ~1.080 MHz. Sobald sich die Spannung anziehen lässt, steht felsenfesten 1,1+ GHz nicht mehr viel im Weg.

MfG,
Raff

Zergra
2011-12-25, 14:55:34
der preiskampf (:freak:) hat begonnen: http://geizhals.at/eu/719058

640€ :crazy:
Naja geht so... die ist ja nichtmal Lieferbar... also eher noch zu vernachlässigen, und sonst hat die ja keine im Sortiment bei Gh.

Gipsel
2011-12-25, 14:59:52
nächster punkt ist, dass bei einer 500€ keine phase fehlen darf. ATI lernt es einfach nicht. die sparen seit jahren an der hardware und das kann man bei einer 500€ karte nicht bringen. :rolleyes:
Hmm, die letzte Karte mit unterdimensionierten Spannungswandlern war eine nVidia, und dann noch das Topmodell, die GTX590, wo die Karten deswegen beinahe reihenweise abrauchten. Das Gegenstück von AMD hatte demgegenüber locker ausreichende Spannungswandler, die auch kräftige Übertaktungsversuche unbeschadet überstehen. :rolleyes:
Mit Powertune +20 Prozent ist schon viel OC zu holen (eben rund 250 Watt), extreme Overvolting-Aktionen bringen aber tatsächlich nichts, weil die Kiste dadurch nur gedrosselt wird. Die Frage ist, ob man die Bremse per BIOS zuverlässig heraufsetzen oder killen kann – wäre gut für die Lightnings & Co.
Die Bremse von Powertune beachtet meines Wissens nur die Einheitenauslastung und die Frequenz, aber nicht die Spannung. Eine manuelle Anhebung der Spannung hebt also sozusagen auch das Powertune-Limit mit an. Oder anders, mit angehobener Spannung regelt eine Karte auch nicht eher ab als mit niedrigerer Spannung. Zumindest war das bei den 6970ern wohl so.

Raff
2011-12-25, 15:12:31
AFAIK ist's eher so, dass die Einheiten den Ampere-Fluss überwachen. Jedenfalls führt eine Erhöhung der Spannung beispielsweise auf einer HD 6970 dazu, dass die Karte öfter heruntertaktet. Das hört erst auf, wenn man das PT-Limit hochschiebt. Wie Tahiti das macht, müssen Tests klären.

MfG,
Raff

Gipsel
2011-12-25, 15:20:23
AFAIK ist's eher so, dass die Einheiten den Ampere-Fluss überwachen.
Also laut allen Beschreibungen wird genau das nicht gemacht. Es wird anhand der Auslastung geschätzt. Das macht es reproduzierbar, so daß keine Schwankungen zwischen verschiedenen GPUs auftreten. Das hebt AMD ja gerade als Vorteil hervor, nämlich daß keine Messungen von analogen Größen (wie der Stromstärke) nötig sind (und auch nicht erfolgen, sieht man von der Temperaturdrosselung als zusätzlichen Notmaßnahme ab).

=Floi=
2011-12-25, 20:22:30
Hmm, die letzte Karte mit unterdimensionierten Spannungswandlern war eine nVidia, und dann noch das Topmodell, die GTX590, wo die Karten deswegen beinahe reihenweise abrauchten. Das Gegenstück von AMD hatte demgegenüber locker ausreichende Spannungswandler, die auch kräftige Übertaktungsversuche unbeschadet überstehen. :rolleyes:


bei der 590er (@referenzdesign) fehlt wohl auch schlicht der platz. :rolleyes: von dem ding bin ich ja auch nicht begeistert und das macht es bei ati auch nicht besser. ich ging eigentlich von der 580er mit 6 phasen aus. (die 570er hat dann dementsprechend 5 phasen für den chip)
die 6990er legte man ja auf 450 watt aus. das ist ja eine ganz andere baustelle.

http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/8/#abschnitt_amd_radeon_hd_7970
dem bild zufolge geht es schon wieder um jeden cent und das kann ich einfach nicht abhaben bei so teurer hardware. das ist keine 30€ karte bei der man beide augen zudrückt. gerade vor dem hintergrund der guten übertaktbarkeit stört mich die fehlende phase.

Skysnake
2011-12-25, 23:34:25
Dann schau dir bitte nicht zu genau dein MB, oder sonstige Elektrogeräte an.

HarryHirsch
2011-12-26, 01:17:38
bei der 590er (@referenzdesign) fehlt wohl auch schlicht der platz. :rolleyes: von dem ding bin ich ja auch nicht begeistert und das macht es bei ati auch nicht besser. ich ging eigentlich von der 580er mit 6 phasen aus. (die 570er hat dann dementsprechend 5 phasen für den chip)
die 6990er legte man ja auf 450 watt aus. das ist ja eine ganz andere baustelle.

http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/8/#abschnitt_amd_radeon_hd_7970
dem bild zufolge geht es schon wieder um jeden cent und das kann ich einfach nicht abhaben bei so teurer hardware. das ist keine 30€ karte bei der man beide augen zudrückt. gerade vor dem hintergrund der guten übertaktbarkeit stört mich die fehlende phase.

ein problem mit den spannungswandlern gab es schon mal, das war glaube bei den 3870. die wurden aber zu heiß und litten nicht an verfügbarkeit.
wenn ich da an meine jetzigen 5780er denke haben die auf keinen fall zu wenig spawas. :wink:

btw. wieviele "phasen" hat die 7970 denn?

Ronny145
2011-12-26, 11:57:15
http://www.hardware.fr/articles/848-23/benchmark-project-cars.html


pCARS schmeckt der 7970 oder allgemein AMD nicht besonders.

Gipsel
2011-12-26, 14:33:21
@Floi:
Die Anzahl der Phasen sagt alleine wenig über die Güte der Stromversorgung aus. Man kann auch mit weniger Phasen in der Summe bessere SpaWas verbauen ;).

Botcruscher
2011-12-26, 14:56:22
Blöd ist nur das man da überhaupt nichts nachprüfen kann, mangels Messinstrumenten. Ich sag nur Usernetzteiltests. War super verpackt, hat viel Anschlüsse und läuft.:freak:

Screemer
2011-12-26, 18:17:42
Seit ihr jetzt eigentlich verrückt geworden? Möglich wäre es durchaus nachzumessen, aber der Aufwand ist wohl kaum zu rechtfertigen. Messpunkte suchen, versuchsaufbau erstellen, Messinstrumente organisieren/kaufen, referenztestszenario festlegen und und und. Wer soll das bezahlen und für wieciele wäre das überhaupt von Relevanz?

Peter Gräber
2011-12-26, 20:00:09
was ihr aber nicht seht ist das dumme powertune. die karte kann man zwar heftig übertakten, aber wie stark läuft sie dann wirklich in den begrenzer?/bzw. lässt sich dieser nicht einfach abschalten wie bei nv und ist auch sehr knapp gesetzt.


Das Powertune-Max unseres Testmuster haben wir knapp unter 250 Watt bestimmt. Die simulierte maximale 3D-Spiele-Last-Leistungsaufnahme haben wir mit rund 210 Watt messen dürfen.
http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index22.php

Da ist also noch einiges an Luft nach Oben bis zu den knapp 250 Watt. Die Leistungsaufnahme übertaktet (ohne Spannungszugabe) stieg auf rund 223 Watt an.
http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index24.php

Der Sinn und Zweck von Powertune hat sich bei der 6900er-Serie erst einmal nicht erschlossen, aber bei der Vorstellung der HD 6990 wurde dann einiges klar - oder besser gesagt bei der Vorstellung der GTX 590 ging dann AMDs Idee auf.

@Gipsel: Korrekt - es wird nicht Strom, Spannung oder Leistungsaufnahme überwacht - AMDs ASICs überwachen die Auslastung der Einheiten.
http://ht4u.net/reviews/2010/amd_powertune_technology/

Leider hat AMD seinerzeit abgeschottet, je tiefer unsere Fragen zur Funktion gingen.

Tante Ädit: Und ja, wenn man ein Board fertigt, welches typisch auf maximal 210 Watt blickt und im dümmsten Fall in Richtung 250 Watt geht, kann man natürlich auch günstiger im Aufbau agieren. Wobei günstig sich häufig im Cent-Bereich bewegt, was sich erst über die Mengen hochrechnen lässt. Somit hält sich AMD Spielraum nach unten (Preis) und oben (HD 7980?) offen und kann ggf. in Ruhe die weitere Ausbeute und Besserungen bei den Chips beobachten. Aber so billig, wie das hier teils angenommen wird, ist das Design der Referenzkarte eigentlich nicht. Ich kann mir sehr gut vorstellen, dass das "günstiger" geht - das werden die Boardpartner ggf. über die Monate 2012 unter Beweis stellen ;).

Ronny145
2011-12-26, 21:20:52
http://www.4gamer.net/games/135/G013536/20111226081/

In CoD4 und Dirt 3 bringt PCIe 3 ein paar Prozent Leistung.

Skysnake
2011-12-26, 23:34:15
Rage wäre mal interessant, da da ja die Texturen nachgeladen werden.

Raff
2011-12-26, 23:35:25
Alles Spiele, die der Karte nur ein Gähnen entlocken.

MfG,
Raff

Skysnake
2011-12-26, 23:57:13
sollte das Texturnachladen bei Rage aber nicht verbessert werden? Drückt sich zwar nicht in FPS aus, aber in Bildqualität

deekey777
2011-12-27, 00:33:30
sollte das Texturnachladen bei Rage aber nicht verbessert werden? Drückt sich zwar nicht in FPS aus, aber in Bildqualität
Wodurch? Durch 16k-Textur? Ich glaub, da ist nichts mehr zu holen, da die Abschnitte, die davon profitieren würden, zu weit wären.

=Floi=
2011-12-27, 04:44:48
@Floi:
Die Anzahl der Phasen sagt alleine wenig über die Güte der Stromversorgung aus. Man kann auch mit weniger Phasen in der Summe bessere SpaWas verbauen ;).

es "wirkt" einfach billig, wenn schon eine pahse fehlt und je besser die last verteilt wird, desto kühler ist die ganze geschichte. diese max 250 watt wirken auch nicht so vertrauenserweckend auf mich. die 580er hat das offene 480er layout und die verträgt auch spitzen um die 300 watt.


die 4870er hatte auch eine phase weniger (wie die 4890) und hatte dank fehlendem powertune probleme im furmark.

Soul
2011-12-27, 09:35:59
Am 9.1. werden wir sehen wie die definitiven Karten sein werden. Die Hersteller werden sicher da ihr eigenes Süppchen brauen. Wegen dem Kühler hoffe ich dies jedenfalls.

Iruwen
2011-12-27, 10:44:34
http://www.4gamer.net/games/135/G013536/20111226081/

In CoD4 und Dirt 3 bringt PCIe 3 ein paar Prozent Leistung.

Kaum spürbar, aber better safe than sorry. Für GPGPU (http://www.anandtech.com/show/5261/amd-radeon-hd-7970-review/10) wirds interessanter werden.

Coda
2011-12-27, 11:33:11
sollte das Texturnachladen bei Rage aber nicht verbessert werden? Drückt sich zwar nicht in FPS aus, aber in Bildqualität
Das wird von der Transkodierung limitiert, nicht von derBandbreite.

Skysnake
2011-12-27, 11:34:58
Und was soll da transkodiert werden? :ugly: Dachte die laden einfach die Texturen aus dem RAM der CPU on the fly nach. Zumindest hatte ich das immer so verstanden.

Raff
2011-12-27, 11:37:48
Am 9.1. werden wir sehen wie die definitiven Karten sein werden. Die Hersteller werden sicher da ihr eigenes Süppchen brauen. Wegen dem Kühler hoffe ich dies jedenfalls.

Die ersten Karten werden bei allen Herstellern Referenzdesigns mit anderen Aufklebern sein. Auf Custom-Bauten würde ich nicht vor Februar hoffen.

MfG,
Raff

Gipsel
2011-12-27, 11:40:43
es "wirkt" einfach billig, wenn schon eine pahse fehlt und je besser die last verteilt wird, desto kühler ist die ganze geschichte.
Also nochmal: Man kann mit weniger Phasen bessere Spannungswandler mit höherer Effizienz bauen, die also auch kühler bleiben. Eine exorbitante Phasenanzahl ist eher Blendwerk und benötigt man nur bei Verwendung minderwertiger Komponenten (bzw. wenn man Komponenten wählt, die nicht für eine hohe Last taugen, kann man das durch mehr Phasen [oft auf Kosten des Wirkungsgrades] kompensieren). Die Gleichung mehr Phasen = bessere SpaWas stimmt auf jeden Fall so nicht.
Kannst ja mal anddill dazu fragen, der weiß das vielleicht besser als ich. ;)
die 4870er hatte auch eine phase weniger (wie die 4890) und hatte dank fehlendem powertune probleme im furmark.
Und war die letzte AMD-Karte mit problematischen Wandlern (wobei die Mehrzahl der Probleme mit Aftermarket-Kühlern auftrat, die die Spannungswandler nicht ausreichend kühlten). Wirklich abgeraucht (wie die GTX590) sind die mit dem Referenzkühler eher selten (da gab es einen Notabschaltungsmechanismus). Ab der 5800er-Serie hat AMD dann mehr Wert darauf gelegt, die Spannungswandler in keinem Fall zu überlasten. Zum Einen durch das Verbauen besserer ;), zum Anderen durch ausgefeilte Drosselmechanismen.

Hübie
2011-12-27, 16:03:17
Und vor allem fiepen die AMD-Karten nicht :rolleyes: Aber das ist ein anderes Thema =) AMD hat nun ein halbes Jahr Zeit für einen refresh pünktlich zum GK100(110?)-Launch. Und genau das werden die wohl auch machen.

Raff
2011-12-27, 17:17:28
Die fiepen. Die HD 7970 übrigens kräftiger als ihre Vorgänger ...

MfG,
Raff

Zergra
2011-12-27, 17:32:03
Klar Fiepen die auch... merk ich bei meiner 5850 auch ab und zu... was nervt.... aber das werden sachen sein die WIR nicht ändern können und scheinbar kommt NV da auch net weiter

derguru
2011-12-27, 17:33:35
AMD hat nun ein halbes Jahr Zeit für einen refresh pünktlich zum GK100(110?)-Launch. Und genau das werden die wohl auch machen.
ist das so,ein halbes jahr bis zum kepler?dann hätten sie wirklich noch zeit für ein refresh.

Raff
2011-12-27, 17:34:59
Man munkelt, dass "The Real Johannes" (GK100) erst im Sommer kommt, ja.

Klar Fiepen die auch... merk ich bei meiner 5850 auch ab und zu... was nervt.... aber das werden sachen sein die WIR nicht ändern können und scheinbar kommt NV da auch net weiter

Undervolting hilft dagegen. Und laute Kühlung auch. ;D

MfG,
Raff