PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 7970 "GHz Edition": (P)Review-Thread


Seiten : [1] 2

Leonidas
2012-06-22, 05:26:48
Radeon HD 7970 "GHz Edition"

1000/3000 MHz
Boost-Takt: 1050/3000 MHz

Testberichte (deutsch):
ComputerBase (http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7970-ghz-edition/)
HT4U (http://ht4u.net/reviews/2012/amd_radeon_hd_7970_ghz_edition_tahiti_xt2_test/)
PCGH (http://www.pcgameshardware.de/aid,907095/Test-Radeon-HD-7970-GHz-Edition/Grafikkarte/Test/)

Testberichte (englisch):
AnandTech (http://www.anandtech.com/show/6025/radeon-hd-7970-ghz-edition-review-catching-up-to-gtx-680)
Guru3D (http://www.guru3d.com/article/radeon-hd-7970-ghz-edition-review/)
HardOCP (http://www.hardocp.com/article/2012/06/21/amd_radeon_hd_7970_ghz_edition_video_card_review)
Hardware Canucks (http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/54954-amd-radeon-hd-7970-3gb-ghz-edition-review.html)
Hardware Heaven (http://www.hardwareheaven.com/reviews/1527/pg1/amd-radeon-hd-7970-ghz-edition-graphics-card-review-introduction.html)
Hot Harwdare (http://hothardware.com/Reviews/AMD-Radeon-HD-7970-GHz-Edition-Review/)
PC Perspective (http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-HD-7970-3GB-GHz-Edition-Review-Taking-GTX-680)
TechPowerUp (http://www.techpowerup.com/reviews/AMD/HD_7970_GHz_Edition/)
TweakTown (http://www.tweaktown.com/reviews/4783/amd_radeon_hd_7970_ghz_edition_3gb_video_card_review/index.html)

Zergra
2012-06-22, 06:35:00
Whooot :D Das war mal überraschend :P

PowerTune with Boost
Da hat wohl wieder jmd. kopiert ;)

boxleitnerb
2012-06-22, 07:17:14
Leistungsaufnahme auf einem Niveau mit der GTX480. Das hab ich nicht erwartet. HT4U misst 10% bessere Performance und satte 20% höheren Verbrauch. Da muss man erstmal schlucken. Naja, ein Positives hat die Sache: AMD hat jetzt vielleicht keine Hemmungen mehr, mit Sea Islands auch ein "Monster" zu bauen.

john carmack
2012-06-22, 07:37:58
http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7970-ghz-edition/14/

Top Leistung AMD! :-)

boxleitnerb
2012-06-22, 07:46:12
Dargo wird sich über den temperaturabhängigen Turbo freuen :D
Aber gut, der ist weniger "zappeliger" als der Boost bei Nvidia. Da AMD damit jetzt aber auch die Pandorabüchse aufgemacht hat, werden wir sicher mehr davon sehen.

TobiWahnKenobi
2012-06-22, 07:49:52
toll.. ich will auch boost an meiner 7970 haben.. :-( immer dieses doofe overdrive-regler im CCC nach rechts schieben..

btw,
würde gern mal meine GTX680 mit 1.2V-spannung sehen.. ;-)


(..)

mfg
tobi

Knuddelbearli
2012-06-22, 07:54:51
enttäuschend ... vor allem die leistungsaufnahme ...

Booby
2012-06-22, 08:07:56
Auf Custom-Designs warten, der Chip ist definitiv effizienter geworden!
http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7970-ghz-edition/12/

Nur hat AMD wieder unnötig hohe Spannungen angelegt.
Der würde den Takt wohl auch mit 1,1V statt 1,256V schaffen.

TobiWahnKenobi
2012-06-22, 08:24:35
"würde" ?! denkst du AMD ist zu blöde das anständig auszuloten?


(..)

mfg
tobi

y33H@
2012-06-22, 08:35:06
1,25 Volt? Standard mit Boost sind laut PCGH und HT4U nur 1,20 Volt - eine bessere Effizienz gibt's daher eher nicht ... davon ab lässt sich die Spannung ändern.

Iruwen
2012-06-22, 08:38:56
Die Leistungsaufnahme und (damit) die Lautstärke.

http://i.imgur.com/kaOsr.gif

Da hat sich das Warten ja gelohnt. Und um das nochmal abschließend zu klären:

Per Übertaktung erreichen wir bei 1,25 statt 1,20 Volt immerhin stabile 1.150/3.600 MHz - was aber nicht nennenswert besser ist als bei einer gewöhnlichen Radeon HD 7970.

qed (ht4u ist auch bis 1150 gekommen, CB immerhin bis 1200)

PS: Das Kernproblem des Testmusters ist jedoch die starke Fiep-/Zirp-Neigung der Platine, welche auf überforderte Spannungswandler zurückzuführen ist. Ein lauteres Fiepen (drei- bis vierstellige Fps) respektive Zirpen (zweistellige Fps) ist uns bei keiner Grafikkarte zuvor untergekommen.

Hat was von "wir machen mal irgendwas ohne drüber nachzudenken". Wenn man eh kein Eigendesign hat das irgendwie verkaufsrelevant ist kann man auch ein etwas teureres vernünftiges rausbringen das in Reviews zumindest halbwegs taugt. Das einzige worüber sich bei der 7970 nie einer beschwert hat war die Performance - und das ist das einzige woran gedreht wurde. Genital.

y33H@
2012-06-22, 08:40:41
Ich bin davon ausgegangen, dass AMD wie bei den AIB OC-Karten alle fünf GPU-Phasen nutzt - das Board ist aber identisch mit einer HD 7970 ... vll nur ein anderes BIOS drauf ;-)

Hugo78
2012-06-22, 08:54:50
8Sone @ 250W in 28nm, sportlich. :biggrin:

boxleitnerb
2012-06-22, 08:59:22
Radeon HD 7970 "Gigawatt Edition"...ist nicht von mir, ich fands nur originell :)

Raff
2012-06-22, 09:04:14
In Form des Referenzdesigns ist die Karte leider "The way it's meant to be fiiiiieep". Aber die Partner werden die Geräuschkulisse schon richten. Ein Effizienzwunder wird sie zu Lebzeiten aber wohl nicht mehr.

MfG,
Raff

Dural
2012-06-22, 09:08:17
lol...

für 75MHz (8%) satte 35Watt mehr Verbrauch ;D :eek:

Der Sinn dieser Karte erschlisst mir ganz und völlig, wenn man wenigsten ein neues Stepping aufgelegt hätte...


Übrigens so viel zum Thema AMD kann jeder Zeit ohne Problem einen Thaiti mit 1100-1200MHz raus hauen :P

fondness
2012-06-22, 09:10:26
Völlig unnötig die Karte, von Partnern gibt es schon höher getaktete 7970 mit leisem Kühler und ohne fiepen. Die Leistungsaufnahme unter Last ist mit hingegen völlig egal. Unter idle ist die Karte sehr sparsam, wenn ich nicht am Rechner bin schaltet sie sich sogar völlig ab. Ob da die verhältnismäßig kurze Zeit wo die Karte voll belastet wird ein paar Watt mehr verbraucht werden -> wayne?

TobiWahnKenobi
2012-06-22, 09:11:51
einspunkteinundzwanziggigawatt!!! was zum geier ist ein gigawatt.. !? *gg*

da ich null respekt vor meiner 7970 habe, werde ich ihr bei verfügbarkeit mal ein bios von der "neuen" spendieren..

mich würde es nichtmal wundern, wenn das läuft.. mehr saft, andere lüfterkurve.. passt..

ja ja.. nur orakelei.. ist mir auch klar.. aber AMD kocht auch nur mit wasser.


(..)

mfg
tobi

Spasstiger
2012-06-22, 09:18:21
13% mehr Takt (inkl. Boost, der ja fast immer greift) bei rund 30 Watt mehr Leistungsaufnahme sind doch gut. Normalerweise verschlechtert sich die Energieeffizienz bei höherem Takt, hier ist sie gleich geblieben. Computerbase hat ja eine normale Radeon auf die Werte der GHz-Edition inkl. Boost hochgezogen und damit einen Anstieg von rund 70 Watt gemessen. D.h. mit der GHZ-Edition spart man bei gleicher Spezifikation rund 40 Watt ein.
An die Energieeffizienz der GTX 680 kommt die HD 7970 aber nicht ganz ran, sofern man nur in FullHD mit MSAA zockt.

Raff
2012-06-22, 09:20:37
13% mehr Takt (inkl. Boost) bei rund 30 Watt mehr Leistungsaufnahme sind doch gut, normalerweise verschlechtert sich die Energieeffizienz bei höherem Takt, hier ist sie gleich geblieben. Computerbase hat ja eine normale Radeon auf die Werte der GHz-Edition inkl. Boost hochgezogen und damit einen Anstieg von rund 70 Watt gemessen. D.h. mit der GHZ-Edition spart man bei gleicher Spezifikation rund 40 Watt ein.
An die Energieeffizienz der GTX 680 kommt die HD 7970 aber nicht ganz ran, sofern man nur in FullHD mit MSAA zockt.

CB hat die HD 7970 aber mit 1,25 Volt gegeißelt, während die anderen Tests von "nur" 1,2 Volt für die Gigafiep-Edition sprechen.

MfG,
Raff

boxleitnerb
2012-06-22, 09:20:56
9% mehr Leistung, aber 21% mehr Leistungsaufnahme:
http://ht4u.net/reviews/2012/amd_radeon_hd_7970_ghz_edition_tahiti_xt2_test/index15.php

Nicht jede Seite sieht ein gleiches oder besseres Perf/W-Verhältnis. Techpowerup sieht die 7970 GHZ Ed. auch hinter der 7970, und die messen wie HT4U auch die Karte einzeln.

M4xw0lf
2012-06-22, 09:21:09
Raff streichelt seine Standard 7970@Accelero Xtreme und lächelt müde angesichts dieser lächerlichen GHz-Edition. ;D

TobiWahnKenobi
2012-06-22, 09:21:20
solange man mit FHD + MSAA unterwegs ist, ist es völligst egal, ob man ne 7970 V1, V2 oder GTX680 benutzt.. die nehmen sich unter diesen - ich nenns mal - normbedingungen nix..

ich finde, amd hätte den preis nicht hochschrauben sollen.. *schulterzuck* v1 läuft doch sicher nicht mehr vom band - und v2 ist einfach produktion mitte 2012..


(..)

mfg
tobi

Raff
2012-06-22, 09:22:32
Raff streichelt seine Standard 7970@Accelero Xtreme und lächelt müde angesichts dieser lächerlichen GHz-Edition. ;D

Hrhr, aber sowas von. Meine braucht für super(sample)stabile 1,2 GHz aber leider ~1,23 Volt.

MfG,
Raff

y33H@
2012-06-22, 09:23:31
Computerbase hat ja eine normale Radeon auf die Werte der GHz-Edition inkl. Boost hochgezogen und damit einen Anstieg von rund 70 Watt gemessen. D.h. mit der GHZ-Edition spart man bei gleicher Spezifikation rund 40 Watt ein.Ich fürchte - da muss sich Wolle aber selbst zu äußern, dass hier ein Auslesefehler vorliegt. Das Multimeter bei PCGH und HT4U sagt 1,20 Volt - keine 1,25 Volt. Genau diese 0,05 Volt würden die 40 (nicht 70! (http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7970-ghz-edition/12/)) Watt mehr wunderbar erklären ;-)

Ob da die verhältnismäßig kurze Zeit wo die Karte voll belastet wird ein paar Watt mehr verbraucht werden -> wayne?Das Problem ist nicht der Stromverbrauch an sich, sondern die daraus resultierende extrem laute Kühlung ... aber die AIBs haben das ja zum Glück im Griff.

Spasstiger
2012-06-22, 09:23:57
CB hat die HD 7970 aber mit 1,25 Volt gegeißelt, während die anderen Tests von "nur" 1,2 Volt für die Gigafiep-Edition sprechen.
Laut CB 1,2 Volt default und 1,256 Volt @ Boost. Und CB hat die normale 7970 auf die Boost-Werte hochgezogen.
Man kann wohl schon davon ausgehen, dass die neue Chiprevision bei gleicher Spannung im Mittel weniger Strom aufnimmt.
Aber klar ist auch, dass die GHZ-Edition harte Konkurrenz am Markt durch die vielen OC- und Custom-Versionen der normalen HD 7970 hat.

Ich fürchte - da muss sich Wolle aber selbst zu äußern, dass hier ein Auslesefehler vorliegt. Das Multimeter bei PCGH und HT4U sagt 1,20 Volt - keine 1,25 Volt. Genau diese 0,05 Volt würden die 40 (nicht 70! (http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7970-ghz-edition/12/)) Watt mehr wunderbar erklären ;-)
Ok, das sollte man klären. Ich bin noch dabei, die anderen Reviews zu sichten, das CB-Review ist mir nur als Erstes ins Auge gefallen.

Hugo78
2012-06-22, 09:24:52
da ich null respekt vor meiner 7970 habe, werde ich ihr bei verfügbarkeit mal ein bios von der "neuen" spendieren..

Thermiti Upgrade Bios. :usweet:

MechWOLLIer
2012-06-22, 09:30:34
Ich fürchte - da muss sich Wolle aber selbst zu äußern, dass hier ein Auslesefehler vorliegt. Das Multimeter bei PCGH und HT4U sagt 1,20 Volt - keine 1,25 Volt. Genau diese 0,05 Volt würden die 40 (nicht 70! (http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7970-ghz-edition/12/)) Watt mehr wunderbar erklären ;-)

Das Problem ist nicht der Stromverbrauch an sich, sondern die daraus resultierende extrem laute Kühlung ... aber die AIBs haben das ja zum Glück im Griff.

Dein Wunsch ist mir Befehl, Marc:D

Wir haben die anliegende SPannung nicht gemessen (weil wir esn icht können), sondern von Tools auslesen lassen, was normalerweise immer sehr gut funktioniert.

Und die Tools haben uns durchaus auch 1,2 Volt angegeben - aber nur, wenn der Turbo nicht greift. Sprich, wenn die Karte mit 1.000 MHz taktet. Greift der Turbo ein, zeigen die Tools 1,256 Volt an. Und auf diesen Wert haben wir uns dann bei den Vergleichstests konzentriert.

john carmack
2012-06-22, 09:37:26
"würde" ?! denkst du AMD ist zu blöde das anständig auszuloten?


(..)

mfg
tobi


Richtig! Das verstehe ich auch nincht warum hier viele Leute denken das sie es besser wissen als die gesamte AMD/Nvidia Entwicklungs Abteilung! :freak:

fondness
2012-06-22, 09:38:06
Das Problem ist nicht der Stromverbrauch an sich, sondern die daraus resultierende extrem laute Kühlung ... aber die AIBs haben das ja zum Glück im Griff.

Wie viele der Hardwareseite haben für solche Tests einen klimatisierten Raum mit exakt definierten Temperatur, Druck und Luftfeuchtigkeitswerten? Wenn nicht dann hatten die normale 7970 im Januar bzw. die GTX680 im März hier mit Sicherheit wesentlich bessere Umweltbedingungen vorliegen. Und wenn die Karte schneller heißt wird wirkt sich das nicht zuletzt auch auf die Leistungsaufnahme aus.

y33H@
2012-06-22, 09:40:09
Wir haben einen klimatisierten Raum ... was aber nichts am Tenor ändert: Extrem laut. Und schneller heiß ändert nichts an der finalen Maximaltemperatur/Lautheit.

MechWOLLIer
2012-06-22, 09:40:47
Ich fürchte - da muss sich Wolle aber selbst zu äußern, dass hier ein Auslesefehler vorliegt. Das Multimeter bei PCGH und HT4U sagt 1,20 Volt - keine 1,25 Volt. Genau diese 0,05 Volt würden die 40 (nicht 70! (http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7970-ghz-edition/12/)) Watt mehr wunderbar erklären ;-)

Das Problem ist nicht der Stromverbrauch an sich, sondern die daraus resultierende extrem laute Kühlung ... aber die AIBs haben das ja zum Glück im Griff.
Glaub mir, selbst im allterifsten Hitzedschungel wäre die GHz Edition garantiert lauter als die 7970 und immer noch viel lauter als die 680 :)

-=Popeye=-
2012-06-22, 09:48:41
Test: AMD Radeon HD 7970 GHz Edition

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22829-test-amd-radeon-hd-7970-ghz-edition.html

Mr. Lolman
2012-06-22, 09:58:24
Test: AMD Radeon HD 7970 GHz Edition

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22829-test-amd-radeon-hd-7970-ghz-edition.html

Da sieht die GHz-Edition ja durchaus gut aus...

Raff
2012-06-22, 09:59:37
Da sieht die GHz-Edition ja durchaus gut aus...

Jaaaa, bei einem Test, wuhu! :freak:

Mit Referenzkühlung und -PCB ist das Ding uncool. Punkt. Die Partner werden aber gewiss hübsche Designs mit 1,05+ GHz zimmern, da bin ich sicher. Sapphire, Vertex 3D und XFX: Übernehmen Sie!

MfG,
Raff

AnarchX
2012-06-22, 10:06:39
Mehr als 1050MHz kann wohl AMD nicht sicherstellen, denn es hätte bestimmt auch Szenarien gegeben, wo man ~1,1GHz bei 250W anlegen kann.

Mit den Referenz-Kühler-Samples hat man sich aber definitiv keinen Gefallen getan, da hätte man wohl gleich auf Partner-Designs setzen sollen.

Mr. Lolman
2012-06-22, 10:07:17
Jaaaa, bei einem Test, wuhu! :freak:


Hör doch auf zu trollen, und wunder dich lieber, wie es möglich ist, dass man eine niedrigere Leistungsaufnahme / Temperatur und Lautstärke misst. Gibts etwa unterschiedliche Reviewsamples? Wärs also möglich, dass die GHz-Edition am Markt dann doch ungefähr im Rahmen der normalen HD7970 bleibt, bei gleichzeitig höherer Performance? Also, dass das Ding doch effizienter als die Standard-HD7970 rechnet (sowie auch von CB beobachtet), oder sind das alles nur Messfehler?

Irgendwie geht mir deine Art manchmal gehörig auf den Sack. :mad:

AnarchX
2012-06-22, 10:10:03
Da AMD das Ziel einer deterministischen Leistung hat, streut der Stromverbrauch relativ deutlich. Bei NV ist es anders herum.

Fragt sich nur wie groß der Vorteil einer "guten" 7970GE gegenüber einer "guten" 7970 ist.

y33H@
2012-06-22, 10:10:24
@ Mr. Lolman

Kehre bitte erst mal vor deiner Tür (Stichwort fiepen). Der Luxx-Test zeigt halt was komplett anderes als die anderen Reviews ...

Gibts etwa unterschiedliche Reviewsamples? Wärs also möglich, dass die GHz-Edition am Markt dann doch ungefähr im Rahmen der normalen HD7970 bleibt, bei gleichzeitig höherer Performance?Wenn, dann sind alle cherry picked ;-) und nein, eine höhere Spannung und mehr Takt bei gleicher Platine sowie Kühlung, dabei aber leiser und kühler und sparsamer? Wunder-Chips gibt's nicht.

MadManniMan
2012-06-22, 10:13:42
Irgendwie geht mir deine Art manchmal gehörig auf den Sack. :mad:

Und bei Dir wundere ich mich doch arg darüber, wie Du Dich an jeden Strohhalm klammerst, der AMD besser darstellt, als der Konsens es tut. Siehst Du Dich eigentlich selbst als Fanboy?

AnarchX
2012-06-22, 10:15:15
Bitte beim Thema bleiben.

Raff
2012-06-22, 10:15:33
Und bei Dir wundere ich mich doch arg darüber, wie Du Dich an jeden Strohhalm klammerst, der AMD besser darstellt, als der Konsens es tut. Siehst Du Dich eigentlich selbst als Fanboy?

Danke, Manni. Meine Äußerung Richtung Lolli kam auch nur, weil mich ebendieses Strohhalm-Klammern tierisch nervt. Man kann auch einfach mal einsehen, dass die neue Karte in dieser Form nichts taugt.

MfG,
Raff

Mr. Lolman
2012-06-22, 10:16:26
@ Mr. Lolman

Kehre bitte erst mal vor deiner Tür (Stichwort fiepen).


Lehn dich da mal nicht zuweit aus dem Fenster: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9354508&postcount=244 (das gehts um die angeblich generell stark fiepende Sapphire HD7970 OC)

dargo
2012-06-22, 10:20:53
Ist ja total langweilig mit nur 1000/1500Mhz und 1,2V ohne Boost. :P Mit 1,0V wärs interessanter. ;)

lol...

für 75MHz (8%) satte 35Watt mehr Verbrauch ;D :eek:

Der Sinn dieser Karte erschlisst mir ganz und völlig, wenn man wenigsten ein neues Stepping aufgelegt hätte...

Immer diese Ökofuzzis hier. :rolleyes:

Spasstiger
2012-06-22, 10:22:48
Ich hab eine Radeon HD 2900 Pro mit 1,0 Volt daheim (gemoddet, default sind 1,07 Volt), aber sparsam ist die nicht gerade. ;)
Die Spannung sagt nichts aus und wenn eine GPU mit relativ hoher Spannung sparsam ist, spricht das eher für gute Qualität als für schlechte.

mironicus
2012-06-22, 10:26:57
Da kann ich meine 314 Euro-Sapphire ja bedenkenlos behalten. Ich dachte schon, da kommt jetzt wirklich ein besserer Chip. Kühler, effizienter etc. aber letzten Endes hat man hier einen normalen Chip ohne hohe Asic-Qualität verwendet.

Mr. Lolman
2012-06-22, 10:27:20
Und bei Dir wundere ich mich doch arg darüber, wie Du Dich an jeden Strohhalm klammerst, der AMD besser darstellt, als der Konsens es tut. Siehst Du Dich eigentlich selbst als Fanboy?

Ich klammere? Ich wundere mich wiedermal über widersprüchliche Ergebnisse. Aber offensichtlich macht mich das zum Fanboy. Und genau diese persönlichen Untergriffe gehen mir schön langsam gegen den Strich.

Nur als Beispiel: Da wird ewig lang lamentiert, dass AMD kein Downsampling kann, und NIEMAND von den hauptberuflichen Redakteuren machte sich die Mühe eine im Widescreengamingforum vorhandene Anleitung genauer zu untersuchen. Jetzt wos (zumindest zT) geht, ists aufeinmal nicht mehr so wichtig.


Schreibt euch doch künftig eure Tools doch selbst. Mir reichts. :mad:

dargo
2012-06-22, 10:28:19
@Spasstiger

Was soll mir jetzt dieser völlig bescheuerte Quervergleich mit deiner Kartre sagen? :facepalm:

Spasstiger
2012-06-22, 10:32:03
@Spasstiger

Was soll mir jetzt dieser völlig bescheuerte Quervergleich mit deiner Kartre sagen? :facepalm:
Wenn die ASIC-Qualität steigt, muss man die Spannung nicht senken, um den Verbrauch bei gleichem Takt zu senken. Eine niedrige Spannung ist kein Qualitätsmerkmal, ebenso wie eine hohe Spannung kein Anti-Qualitätsmerkmal ist.

Peter Gräber
2012-06-22, 10:40:03
Da sieht die GHz-Edition ja durchaus gut aus...

In den Temperaturvergleichen erreicht dort die GHz-Edition auch nur 72 °C, die reguläre Variante 74 °C. Ich kann nicht sagen mit welcher Applikation die Temperaturwerte erzielt worden sind.

Wir haben mit Hawx, Anno 2070 und The Witcher 2 jeweils Temperaturen im Bereich von 81 bis 82 °C erreicht. Da arbeitet die Lüftersteuerung schon deutlich gegen, um die Bereiche zu halten.

Schau ich mir das beispielsweise mit Max Payne 3 an, da habe ich Temperaturen von "lediglich" 78 °C und gleich eine Differenz von etwa 300 rpm bei der Lüfterdrehzahl.

Knuddelbearli
2012-06-22, 10:41:37
hat die von luxx halt wohl einen extrem guten chip. zumindest sieht man daran das die Presseexemplare bei AMD eindeutig nicht selektiert sind wenn es solche Schwankungen gibt ^^

dargo
2012-06-22, 10:42:08
Da kann ich meine 314 Euro-Sapphire ja bedenkenlos behalten. Ich dachte schon, da kommt jetzt wirklich ein besserer Chip. Kühler, effizienter etc. aber letzten Endes hat man hier einen normalen Chip ohne hohe Asic-Qualität verwendet.
Was hast du denn gedacht? Dass da ein Refreshchip kommt? :D Minimale Veränderungen/Verbesserungen bei der Fertigung erlauben scheinbar geringere Leckströme, dadurch die etwas kleinere Verlustleistung beim gleichen Takt und Spannung zwischen V1 und V2. Wobei ich hier immer noch nicht ganz durchblicke. Einer misst weniger, der andere deutlich mehr. :freak: Bis das endgültig geklärt ist bleibt erstmal ein :confused:.

PS: wäre der Chip bedeutend besser hättest du den eher für >500€ bekommen und keine 314€. ;)

Peter Gräber
2012-06-22, 10:44:30
hat die von luxx halt wohl einen extrem guten chip. zumindest sieht man daran das die Presseexemplare bei AMD eindeutig nicht selektiert sind wenn es solche Schwankungen gibt ^^

Kann ich nicht sagen, wäre im Bereich des Möglichen, allerdings hat unsere HD 7970 vom letztjährigen Launch ebenfalls schon Temperaturen von 79 °C erreicht - also ebenfalls höher, als das was die Kollegen bei Luxx ermittelt haben. Kann also ebenfalls am Lastszenario liegen.

samm
2012-06-22, 10:45:31
Wag ichs mal, mich während der Pause @work einzuloggen um zu sagen: Muuurks ist diese Karte :freak: Die 1GHz-OC-Versionen der ursprünglichen Version durch die Partnerfirmen sind wesentlich tauglicher und ich bereu meinen damaligen Kauf nicht :biggrin:


Mr. Lolman, nicht aufgeben wegen ein paar Flames, radiT, DS-Anleitung usw. sind echt gut & ich wollts nicht missen :)

Mr. Lolman
2012-06-22, 10:45:44
Schau ich mir das beispielsweise mit Max Payne 3 an, da habe ich Temperaturen von "lediglich" 78 °C und gleich eine Differenz von etwa 300 rpm bei der Lüfterdrehzahl.

Hm, vielleicht spielt angesichts der generell niedrigeren Temperatur da auch die Testumgebung mit rein. (z.B. Gehäuselüftung vs. offener Aufbau)

BTW: Bei HardOCP dreht der Lüfter bei der normalen HD7970 auch schneller, als der der GHz-Edition.

dargo
2012-06-22, 10:46:36
Wenn die ASIC-Qualität steigt, muss man die Spannung nicht senken, um den Verbrauch bei gleichem Takt zu senken. Eine niedrige Spannung ist kein Qualitätsmerkmal, ebenso wie eine hohe Spannung kein Anti-Qualitätsmerkmal ist.
Du willst mir also erzählen, dass eine Ghz-Edition mit 1,0V nicht weniger verbraucht als eine mit 1,20V? :freak: Zudem ist zumindest die Chance bei 1,0V größer den Chip dann mit einer Spannungserhöhung weiter takten zu können als die 1,2GHz.

Nur darum gings mir und um nichts anderes.

Knuddelbearli
2012-06-22, 10:48:08
hmm stimmt wie testen die Seiten eigentlich alle ? Das luft aus dem Gehäuse raus design von AMD kackt natürlich auf einem Teststand oder auch bei einem offenen Gehäuse ziemlich ab gegenüber den Customs

y33H@
2012-06-22, 10:50:44
Die GTX 680 ist genauso ein DHE-Design wie die HD 7970 ...

derguru
2012-06-22, 10:55:02
bei pcgh macht die 8,4 Sone und das bei spielen,muhaaa.
das unwort des jahres fiepen ist damit gekillt/übertönt.:lol:

Gipsel
2012-06-22, 10:57:03
Test: AMD Radeon HD 7970 GHz Edition

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22829-test-amd-radeon-hd-7970-ghz-edition.html
Am lustigsten finde ich diese Passage:
Die genaue Typenbezeichnung der Tahiti-GPU auf der ersten Version der Radeon HD 7970 lautete "1146". Der Chip der GHz Edition wird als "1218" geführt, was vermutlich auf die verbesserte Fertigung zurückzuführen ist.
Auf die Idee, daß das die Produktionswoche und -jahr sein könnten, sind die wohl nicht gekommen. Genaue Typenbezeichnung. Ha! ;D

dargo
2012-06-22, 10:59:39
Auf die Idee, daß das die Produktionswoche und -jahr sein könnten, sind die wohl nicht gekommen. Genaue Typenbezeichnung. Ha! ;D
Du kennst es doch... höhere Zahlen sind erstmal immer besser. :biggrin:

Peter Gräber
2012-06-22, 11:02:54
hmm stimmt wie testen die Seiten eigentlich alle ? Das luft aus dem Gehäuse raus design von AMD kackt natürlich auf einem Teststand oder auch bei einem offenen Gehäuse ziemlich ab gegenüber den Customs

Das würde ich nicht verallgemeinern:
http://www.computerbase.de/artikel/grafikkarten/2012/kurztest-4-x-amd-radeon-hd-7970/7/

Hier sind die Custom OC-Karten mit Axial-Lüfter im Gehäuse alle Kühler. 70 bis 77 °C zur Referenz mit 81 °C. Die GHz Edition kommt im aktuellen Test von CB gar auf 84 °C.

Gipsel
2012-06-22, 11:06:28
Du willst mir also erzählen, dass eine Ghz-Edition mit 1,0V nicht weniger verbraucht als eine mit 1,20V? :freak:0,2 Volt Unterschied sind ziemlich groß, aber im Prinzip kann das passieren, wenn sich die Chips stark in der Leakage unterscheiden (durch die Prozeßvariabilität). Es gibt ja auch Standard HD7970er zwischen 1,05V und 1,175V, die bei gleichem Takt (und trotz der unterschiedlichen Spannung) alle in etwa gleich viel verbrauchen. Die unterschiedliche Spannung wird nämlich gerade so gewählt, daß genau das heraus kommt. ;)

Die hohe Spannung auf den GHz-Editions zeigt also vielleicht auch nur, daß man dort Chips mit relativ niedriger Leakage gewählt hat (Chips mit niedriger Leakage [und gegebenenfalls auch hoher Taktbarkeit bei niedrigen Spannungen, das schließt sich nicht unbedingt aus] enden normalerweise [dann aber mit etwas niedrigeren Spannungen] in Notebooks bzw. auf den Dual-GPU-Karten).

dargo
2012-06-22, 11:22:40
0,2 Volt Unterschied sind ziemlich groß, aber im Prinzip kann das passieren, wenn sich die Chips stark in der Leakage unterscheiden (durch die Prozeßvariabilität). Es gibt ja auch Standard HD7970er zwischen 1,05V und 1,175V, die bei gleichem Takt (und trotz der unterschiedlichen Spannung) alle in etwa gleich viel verbrauchen. Die unterschiedliche Spannung wird nämlich gerade so gewählt, daß genau das heraus kommt. ;)

Ich glaube wir reden aneinander vorbei. :freak:

Ich meine natürlich den selben Chip einmal mit 1,0 und einmal mit 1,20V. Dass die GPUs unterschiedliche VIDs haben ist ja nichts Neues. Ist bei CPUs auch nicht anders.

Gipsel
2012-06-22, 11:28:33
Ich glaube wir reden aneinander vorbei. :freak:

Ich meine natürlich den selben Chip einmal mit 1,0 und einmal mit 1,20V. Dass die GPUs unterschiedliche VIDs haben ist ja nichts Neues. Ist bei CPUs auch nicht anders.
Dann hast Du aber bereits an Spasstigers Argument vorbei geredet. Da ging es nämlich genau darum. ;)

PCGH_Carsten
2012-06-22, 11:47:07
0,2 Volt Unterschied sind ziemlich groß, aber im Prinzip kann das passieren, wenn sich die Chips stark in der Leakage unterscheiden (durch die Prozeßvariabilität). Es gibt ja auch Standard HD7970er zwischen 1,05V und 1,175V, die bei gleichem Takt (und trotz der unterschiedlichen Spannung) alle in etwa gleich viel verbrauchen. Die unterschiedliche Spannung wird nämlich gerade so gewählt, daß genau das heraus kommt. ;)

Das stimmt so nicht ganz. Wir haben ja schon einige Karten im Test vermessen und da ist auch bei Karten im Referenzdesign und Referenztakt schon einiges an Varianz beim Last-Stromverbrauch. Und das muss auch herauskommen, wenn AMD nach konstanter Performance binnt - während das bei Nvidia anders ist, dort ist die Performance via Boost variabel.

Gipsel
2012-06-22, 12:01:38
Das stimmt so nicht ganz. Wir haben ja schon einige Karten im Test vermessen und da ist auch bei Karten im Referenzdesign und Referenztakt schon einiges an Varianz beim Last-Stromverbrauch. Und das muss auch herauskommen, wenn AMD nach konstanter Performance binnt - während das bei Nvidia anders ist, dort ist die Performance via Boost variabel.
Nur binnt AMD nicht nach konstanter Performance (das ist durch die Funktionsweise von Powertune sichergestellt).
Dave Baumann hat das mal bei B3D angerissen. Man ermittelt zuerst die Leakage und setzt dann die Spannung so, daß der Stromverbrauch halbwegs identisch ist (ganz geht natürlich nicht, da die Leakage auch stark von der Temperatur abhängig ist [und man den Test wahrscheinlich bei Tj_max macht] und man auch nur eine Handvoll Voltage-Bins hat) und dann testet man, ob man damit den Speed einer HD7970/50/whatever erreicht oder nicht.
Das vereinfacht das Binning-Prozedere und man hat keine wild variierenden Stromverbräuche (ist aber im Schnitt schlechter).
Mobil-GPUs werden natürlich etwas anders aussortiert und genauso kann sich AMD entscheiden, für cherry-picked Samples Dies mit niedriger Leakage zu wählen und denen aber trotzdem eine niedrige Spannung verpassen (statt einer hohen, wie das standardmäßig passieren würde).

V2.0
2012-06-22, 12:07:36
In den Temperaturvergleichen erreicht dort die GHz-Edition auch nur 72 °C, die reguläre Variante 74 °C. Ich kann nicht sagen mit welcher Applikation die Temperaturwerte erzielt worden sind.


Das Luxx hatte afaik ein recht mäßiges Sample der normalen 7970 und wohl ein gutes der GE. Warum man den Testern allerdings eine Art von übertakteten Referenz 7970ern gegeben hat, ist mir schleierhaft.

PCGH_Carsten
2012-06-22, 12:11:38
Nur binnt AMD nicht nach konstanter Performance (das ist durch die Funktionsweise von Powertune sichergestellt).
Dave Baumann hat das mal bei B3D angerissen. Man ermittelt zuerst die Leakage und setzt dann die Spannung so, daß der Stromverbrauch halbwegs identisch ist (ganz geht natürlich nicht, da die Leakage auch stark von der Temperatur abhängig ist [und man den Test wahrscheinlich bei Tj_max macht] und man auch nur eine Handvoll Voltage-Bins hat) und dann testet man, ob man damit den Speed einer HD7970/50/whatever erreicht oder nicht.
Genau - und was ist das letztgenannte anderes als primär ein konstante-Performance-Binning. Das betont AMD selbst auch immer wieder, dass Ihnen die konstante, vorhersagbare Performance im Gegensatz zu Nvidia wichtig sei.

edit:
Da du gerade Dave Baumann zitierst:
http://forum.beyond3d.com/showpost.php?p=1631133&postcount=31

Ronny145
2012-06-22, 12:21:46
Am lustigsten finde ich diese Passage:

Auf die Idee, daß das die Produktionswoche und -jahr sein könnten, sind die wohl nicht gekommen. Genaue Typenbezeichnung. Ha! ;D


Solche Schnitzer gibt es öfter von hwl.

Ich finde die Karte auch nicht besonders überzeugend. Mit dem Mehrverbrauch durch die relativ kleine Steigerung hätte ich nicht gerechnet und die Laustärke geht gar nicht. Zeigt aber auch wieder, dass solche Aussagen "AMD könnte leicht 1,1-1,2 GHz Editionen bringen" auf Basis der eigenen übertakteten Karte nicht auf die Serienfertigung übertragbar ist.

dargo
2012-06-22, 12:33:53
Ich finde die Karte auch nicht besonders überzeugend. Mit dem Mehrverbrauch durch die relativ kleine Steigerung hätte ich nicht gerechnet und die Laustärke geht gar nicht. Zeigt aber auch wieder, dass solche Aussagen "AMD könnte leicht 1,1-1,2 GHz Editionen bringen" auf Basis der eigenen übertakteten Karte nicht auf die Serienfertigung übertragbar ist.
Der Referenzkühler ist schon bei der V1 scheiße. Wieso sollte er jetzt plötzlich gut sein? Wer kauft überhaupt die Karte mit dem Referenzkühler der Wert auf ein leises System legt außer den Wakü-Usern?

Raff
2012-06-22, 13:12:01
Interessant ist IMO, dass der Kühler bei der 1-GHz-Edition deutlich höhere Temperaturen zulässt als bei der 0,925-GHz-Edition – IMO hat das schon etwas mit der GPU-Güte zu tun. Wird eine "alte" HD 7970 heißer als 80 Grad Celsius, ist kaum noch an OC zu denken (Grafikfehler, Abkacker). Bis 70 ist alles dufte.

MfG,
Raff

Gipsel
2012-06-22, 13:48:25
Genau - und was ist das letztgenannte anderes als primär ein konstante-Performance-Binning. Das betont AMD selbst auch immer wieder, dass Ihnen die konstante, vorhersagbare Performance im Gegensatz zu Nvidia wichtig sei.

edit:
Da du gerade Dave Baumann zitierst:
http://forum.beyond3d.com/showpost.php?p=1631133&postcount=31
Die vorhersagbare Performance begründet sich genau aus dem von Dir verlinkten Dave Baumann-Zitat, nämlich der Funktionsweise von Powertune, nicht primär durch das Binning. Deterministisch heißt, daß jede HD7970 in jedem Rechner bei gleichem Workload die gleiche Performance abliefert. Und wie Dave Baumann auch schon sagte, könnte man Powertune auch umprogrammieren, so daß es nicht deterministisch wird, also die individuellen (die gemessenen, nicht berechneten) Daten (Temperatur/Leistungsaufnahme) der GPUs berücksichtigt. Dazu müßte man noch nicht mal zwingend das eigentliche Binning umstellen.

Der fundamentale Unterschied zwischen nVidias Boost und AMDs Powertune (der Determinismus) kommt doch genau aus der Wahl von PerformanceCountern bei AMD zur Bestimmung der Last und des GPU-Taktes (die bei gegebenem Workload auf jeder GPU exakt das gleiche Ergebnis liefern) und bei nVidia aus der Benutzung von Stromaufnahme und Temperatur (die sich bei jeder GPU unterscheiden und auch vom Gehäuse/Umgebungstemperatur abhängig sind). Das Binning ist für diesen fundamentalen Unterschied vollkommen sekundär.

Schaffe89
2012-06-22, 14:13:28
Bei der C´T ist die Gigahertz Edition auch fast schon sparsamer als die AMD Standard Edition.
Ich denke dass die bisherigen Karten mehr oder weniger lieblos für einen Paparlaunch zusammengscharrt wurden und es erst die Boadpartner richten.

Wenn man sich den Verbrauch einer VTX 1050 MHZ Karte ansieht, liegt der nur 20 Watt über dem Standardmodell und nicht wie die Referenzversion teils 50 Watt.

PCGH_Carsten
2012-06-22, 14:16:59
Die vorhersagbare Performance begründet sich genau aus dem von Dir verlinkten Dave Baumann-Zitat, nämlich der Funktionsweise von Powertune, nicht primär durch das Binning. Deterministisch heißt, daß jede HD7970 in jedem Rechner bei gleichem Workload die gleiche Performance abliefert. Und wie Dave Baumann auch schon sagte, könnte man Powertune auch umprogrammieren, so daß es nicht deterministisch wird, also die individuellen (die gemessenen, nicht berechneten) Daten (Temperatur/Leistungsaufnahme) der GPUs berücksichtigt. Dazu müßte man noch nicht mal zwingend das eigentliche Binning umstellen.

Müsste nicht, wäre aber sehr sinnvoll. Das Binning stellt sicher, dass die Karte die geforderte Performance innerhalb der vorgesehenen Leistungsaufnahme erreicht.

Dabei werden die verschieden charakterisierten GPUs „gleichgemacht“: Solche mit hohen Leckströmen erreichen die geforderte Taktrate überlicherweise bei geringerer Spannung, solche mit niedrigeren Leckströmen brauchen dafür mehr Spannung.

Bei Kepler habe ich bisher nur GPUs gesehen, die für ihren maximalen Takt dieselbe Spannung von 1,175 Volt anlegten – aber eben im erreichbaren Maximaltakt variierten.

Möglicherweise reden wir auch gerade aneinander vorbei.

-=Popeye=-
2012-06-22, 14:24:53
AMD Radeon HD 7970 GHz Edition im Test: Gerangel um die Performance-Krone

http://www.tomshardware.de/radeon-hd-7970-ghz-edition-review-benchmark,testberichte-241046.html

dargo
2012-06-22, 14:43:46
Wenn man sich den Verbrauch einer VTX 1050 MHZ Karte ansieht, liegt der nur 20 Watt über dem Standardmodell und nicht wie die Referenzversion teils 50 Watt.
Hier muss man etwas aufpassen. Bei der VTX wird die Spannung gerne mal zu niedrig angesetzt.
http://geizhals.at/de/?sr=735997,-1

AMD Radeon HD 7970 GHz Edition im Test: Gerangel um die Performance-Krone

http://www.tomshardware.de/radeon-hd-7970-ghz-edition-review-benchmark,testberichte-241046.html
In Skyrim wird die GTX680 schon recht gut abgezockt. Ich finds juut. :D Am geilsten finde ich aber den Vergleich mit dem neuen Kühler. X-D

Edit:
Die Verbrauchsmessungen sind auch witzig. Man erwähnt zwar, dass die neue 13W mehr verbraucht. Vergisst scheinbar aber, dass man hier erstens den Gesamtverbrauch misst. Bei 85% NT-Effizienz sind es dann 11W mehr Verbrauch. Zweitens ist die neue 9°C bei Last wärmer. Bei gleicher Temperatur liegen wahrscheinlich beide in etwa gleich auf (in diesem Test natürlich). Eventuell +~5W für die Neue was schon "wayne" ist.

Gipsel
2012-06-22, 15:12:40
Müsste nicht, wäre aber sehr sinnvoll. Das Binning stellt sicher, dass die Karte die geforderte Performance innerhalb der vorgesehenen Leistungsaufnahme erreicht.Das tut es immer.
Dabei werden die verschieden charakterisierten GPUs „gleichgemacht“: Solche mit hohen Leckströmen erreichen die geforderte Taktrate überlicherweise bei geringerer Spannung, solche mit niedrigeren Leckströmen brauchen dafür mehr Spannung.Da wird hauptsächlich der Verbrauch angeglichen. Der von Dir beschriebene Zusammenhang existiert so klar nämlich auch nicht. Erst bei gut eingefahrenem Prozeß ohne merkliche intra-Die Variabilitäten gibt es eine starke Korrelation von Leckströmen mit dem Takt (was dann dazu genutzt wird, mittels Tuning am Prozeß die Binsplits zu steuern, die Breite der Verteilung nimmt ebenfalls deutlich ab). Vorher gibt es auch einen Haufen leakiger und gleichzeitig langsamer Dies genauso wie es welche mit niedriger leakage und relativ hohem Taktvermögen geben kann.
Bei Kepler habe ich bisher nur GPUs gesehen, die für ihren maximalen Takt dieselbe Spannung von 1,175 Volt anlegten – aber eben im erreichbaren Maximaltakt variierten.NVidia hat sich eben entschieden, Leakage-Unterschiede in Geschwindigkeitsunterschiede zwischen verschiedenen GPUs der gleichen Bezeichnung umzusetzen, AMD hält es für wichtig, daß jeder Kunde exakt die gleiche Leistung erhält (bei grob ähnlichem Stromverbrauch) und nimmt dafür auch in Kauf, daß die Karten im Mittel mehr Strom schlucken, als notwendig wäre.

Ich sage ja nicht, daß das besser wäre, es ist einfach ein anderer Ansatz (der erstmal nichts mit dem Binning zu tun hat, man kann es dadurch höchstens vielleicht etwas einfacher gestalten).

derguru
2012-06-22, 15:14:17
AMD Radeon HD 7970 GHz Edition im Test: Gerangel um die Performance-Krone

http://www.tomshardware.de/radeon-hd-7970-ghz-edition-review-benchmark,testberichte-241046.html
interessant ist dirt 3,seit wann liegt amd vorn? oder auch so ein performanceschub wie bei skyrim durch den treiber?

dargo
2012-06-22, 15:26:22
Naja... so ganz schläft die Treiberabteilung nun auch nicht bei AMD. ;) Zudem geht 8xMSAA auch etwas stärker auf die Bandbreite. Über den Sinn von 8x kann man sicherlich streiten.

Raff
2012-06-22, 15:35:51
Yep. Der Boden flimmert vor sich hin, aber hey, wir können den Polygonen ja noch zwei Zwischenstufen verpassen. :ugly:

MfG,
Raff

aufkrawall
2012-06-22, 15:45:51
Über den Sinn von 8x kann man sicherlich streiten.
Wieso das denn?
Bei 4x hat man noch deutlich mehr Aliasing.
8x sieht auch deutlich besser aus als 4x + CS/EQAA.
Von sinnfrei kann da keine Rede sein. Finde es eher begrüßenswert, wenn so getestet wird.

derguru
2012-06-22, 15:46:51
und ohne 8xmsaa auch kein 8xsgssaa.;)

aufkrawall
2012-06-22, 15:51:22
und ohne 8xmsaa auch kein 8xsgssaa.;)
Zwar anderes Thema, aber stimmt auch wieder.
Wenn die Entwickler bei DX11 kein 8xMSAA einbauen, hat man für 8xSSAA die Arschkarte.

Außerdem hat Dirt doch nicht sonderlich viel Geometrie. Da sollte 8x eigentlich auch gar nicht so sehr reinhauen und somit nochmals mehr Sinn machen.
Wobei ich den konkreten Unterschied bei Dirt 3 zwischen 4x und 8x jetzt nicht auswendig kenne.

derguru
2012-06-22, 16:09:01
in dirt 3 kommt man auch ohne sgssaa ganz gut klar,für mich reicht 8xmsaa/ aaa / (hq)af vollkommen aber lieber wieder btt.:biggrin:

noch ein review falls nicht bekannt.
http://www.techspot.com/review/546-amd-radeon-hd-7970-ghz-edition/

Zergra
2012-06-22, 17:22:21
http://www.hardwareluxx.de/community/f14/test-amd-radeon-hd-7970-ghz-edition-897970-2.html#post19061101

HD7970 GHz Bios :D

dargo
2012-06-22, 17:29:12
Und was soll dieser Quatsch jetzt genau bringen?

-=Popeye=-
2012-06-22, 17:30:03
http://www.hardwareluxx.de/community/f14/test-amd-radeon-hd-7970-ghz-edition-897970-2.html#post19061101

HD7970 GHz Bios :D

http://www.tomshardware.de/radeon-hd-7970-ghz-edition-review-benchmark,testberichte-241046-5.html ;)

mironicus
2012-06-22, 17:57:54
Hmm... selbst die normale 7970 überholt mittlerweile die GTX 680 in Skyrim? Wie sich die Dinge doch ändern können...

EDIT: Das Aufspielen des Bios sollte gefahrlos sein, dank Bios-Switch. Aber wahrscheinlich muss da noch etwas gepatcht werden. :)

Gipsel
2012-06-22, 18:04:08
Laut Dave Baumann erfährt das Powertune auch bei bereits vorhandenen Karten ohne jegliches BIOS-Änderung ab dem Cat 12.7 (dem Beta-Treiber, den viele für den Test benutzt haben) ein Update. Es gibt zwar keinen Boost, aber die Drosselung erfolgt im Schnitt etwas später, weil der Algorithmus zur Berechnung der Auslastung erneuert wurde und auf den Stand der GHz-Edition gebracht wird (AMD hat ja immer betont, daß PT über einen eigenen kleinen Prozessor auf dem Die funktioniert, und das Programm/der Algorithmus änderbar ist). Was also dazu kommt, ist eine Temperatur-Abschätzung (die Leakage ist ja bekanntermaßen temperaturabhängig) unter Annahme des Referenzkühlers. Dies führt dazu, daß nach längerfristiger Niedriglast eine Weile später gedrosselt wird (weil die GPU höchstwahrscheinlich noch kalt ist und weniger leakt) und sich erst nach einer Weile Volllast (der Aufwärmperiode) einbremst. Ist der Kühler besser als der Referenzkühler, kann man das bei THG sogar sehen (hellblaue Kurve, der Einbruch nach ~100 Sekunden):

http://media.bestofmicro.com/B/L/342561/original/Heavy%20Load%20Gelid.png

Mit dem Referenzkühler geht es dagegen sehr schnell auf Endtemperatur, weil das Absenken des Taktes nach einer Weile den weiteren Temperaturanstieg verhindert, die Abschätzung klappt also ganz gut (wieder die hellblaue Linie für das Stock-Setting):
http://media.bestofmicro.com/B/K/342560/original/Heavy%20Load%20AMD%20Stock.png

Schaffe89
2012-06-22, 18:32:41
Jaaaa, bei einem Test, wuhu!

Mit Referenzkühlung und -PCB ist das Ding uncool. Punkt. Die Partner werden aber gewiss hübsche Designs mit 1,05+ GHz zimmern, da bin ich sicher. Sapphire, Vertex 3D und XFX: Übernehmen Sie!


Es gibt mehrere reviews die einen Stromverbrauch messen der kaum über der normalen 925Mhz Edition liegt.

Da wäre Toms Hardware, C´T und Hardwareluxx.

M4xw0lf
2012-06-22, 18:36:31
Es gibt mehrere reviews die einen Stromverbrauch messen der kaum über der normalen 925Mhz Edition liegt.

Da wäre Toms Hardware, C´T und Hardwareluxx.

Ist doch seltsam, man sollte meinen dass AMD dafür sorgt, dass handselektierte GPUs mit extra niedriger Vcore für die Reviews der GHz-Edition an die Tester ausgegeben werden, sodass bei allen Tests ein gleich gebliebener Vebrauch rauskommt. Aber nee, da hab ich AMDs PR-Abteilung wohl wieder überschätzt ;)

y33H@
2012-06-22, 19:07:48
Es gibt mehrere reviews die einen Stromverbrauch messen der kaum über der normalen 925Mhz Edition liegt. Da wäre Toms Hardware, C´T und Hardwareluxx.Stellt sich die Frage: Haben die als 7970-Wert die Referenz-Karte von Dezember 2011 genommen oder "nur" eine im Referenz-Design?

boxleitnerb
2012-06-22, 19:18:26
Ich vertraue eh nur den Tests, die die Karte direkt messen. Das wären ht4u, PCGH und techpowerup. Alles andere hat imo zuviele Fehlerfaktoren mit drin.

y33H@
2012-06-22, 19:20:40
c't nimmt auch nur die Karte.

boxleitnerb
2012-06-22, 19:29:27
Gut zu wissen, thx.

john carmack
2012-06-23, 04:49:14
http://www.gamestar.de/hardware/grafikkarten/amd-radeon-hd-7970-ghz-edition/test/amd_radeon_hd_7970_ghz_edition,516,2569181,7.html

NVIDIA :usex: ?!?!?

Iruwen
2012-06-23, 09:17:24
interessant ist dirt 3,seit wann liegt amd vorn? oder auch so ein performanceschub wie bei skyrim durch den treiber?
Muss wohl, vor kurzem sah das noch so aus:
http://www.tomshardware.de/geforce-gtx-670-review-GK104,testberichte-241020-8.html

M4xw0lf
2012-06-23, 09:27:25
http://www.gamestar.de/hardware/grafikkarten/amd-radeon-hd-7970-ghz-edition/test/amd_radeon_hd_7970_ghz_edition,516,2569181,7.html

NVIDIA :usex: ?!?!?

Ja, Gamestar hat wirklich konstant den Vogel abgeschossen mit allen Tests der 28nm-Karten.

AffenJack
2012-06-23, 09:30:13
Ich vertraue eh nur den Tests, die die Karte direkt messen. Das wären ht4u, PCGH und techpowerup. Alles andere hat imo zuviele Fehlerfaktoren mit drin.

Hardware.Fr ist da auch noch dabei und auch die zeigen nen deutlichen Mehrverbrauch.

StefanV
2012-06-23, 09:46:49
Ich finde es dennoch interessant, wie groß der Vorsprung der neuen HD7970 gegenüber der alten ist...

dargo
2012-06-23, 09:49:48
Was ist daran jetzt so interessant oder ungewöhnlich?

ndrs
2012-06-23, 10:44:46
Ich vertraue eh nur den Tests, die die Karte direkt messen. Das wären ht4u, PCGH und techpowerup. Alles andere hat imo zuviele Fehlerfaktoren mit drin.
Kurze OT-Zwischenfrage:
Kann es nicht auch sein, dass Treiber oder whatever verschiedene CPU-Lasten erzeugen und damit den Verbrauch des Gesamtsystems reproduzierbar verändern, wodurch eigentlich die Messung nur der GraKa nicht den real zu erwartenden Verbrauchsunterschied beim Tausch der Grafikkarte (welcher ja der eigentliche Knackpunkt bei der Kaufentscheidung sein sollte) wiederspiegelt? Wenn es hier einen Unterschied gibt, wird er vermutlich nur zwischen den Herstellern auftreten, nicht innerhalb einer GPU-Familie.

Nur um das nochmal klarzustellen. Ich bin auch eher Freund von direkter Messung des Grafikkartenverbrauchs und alles andere ist dann ja auch wieder zu sehr abhängig vom Restsystem aber rein interessehalber würde ich schon gern mal wissen, ob das mal untersucht wurde.

boxleitnerb
2012-06-23, 10:48:00
Man könnte höchstens im kompletten GPU-Limit bei beiden Konfigurationen (es muss dasselbe sein, also nicht zwei identische Systeme, sondern exakt dasselbe System einmal mit Radeon und einmal mit Geforce) die Leistungsaufnahme von Board und CPU separat mitmessen. Wäre sicher interessant.

dargo
2012-06-23, 10:51:20
Die beste Methode ist immer direkt die Graka zu messen. Und selbst das ist nicht immer zuverlässig. Sobald es gewisse CPU-Limits gibt muss die Graka auf die CPU warten wodurch deren Stromverbrauch sinkt.

Edit:
Bei einer HD7970 und einer HD7970 Ghz-Edition hält sich die Abweichung in der Leistung noch in Grenzen. Richtig schlimm wird es erst wenn man zwei Grafikkarten vergleicht die sich stärker in der Leistung unterscheiden. Zb. HD7970 und HD7850. Stell dir vor beide Karten werden in einer Spielszene vermessen. Man nutzt natürlich gleiche Settings und auch ansonsten gleiches System. Wenn du Pech hast und die HD7850 bewegt sich in der Spielszene gerade so im absoluten GPU-Limit kann es schnell passieren, dass die HD7970 wieder stärker ins CPU-Limit rutscht. Und schon wird das Ergebnis beim Stromverbrauch der schnelleren Graka verfälscht.

boxleitnerb
2012-06-23, 11:14:32
Das heißt dann aber auch, dass die gemessene Differenz das Minimum ist und sogar höher ausfallen kann.

dargo
2012-06-23, 11:21:09
Das heißt dann aber auch, dass die gemessene Differenz das Minimum ist und sogar höher ausfallen kann.
Jepp... allerdings nur wenn die Karte vermessen wird. Wird das Gesamtsystem gemessen hast du ein hin und her. Gehts Richtung CPU-Limit wird logischerweise die CPU mehr verbrauchen.

Schaffe89
2012-06-23, 11:39:35
Genau deswegen kommen in manchen Tests so sachen raus wie, GTX 670 30 Watt sparsamer als die HD 7950. Beispislweise bei Techpowerup .

boxleitnerb
2012-06-23, 11:42:19
Ja, es könnte in anderen Spielen bzw. bei anderen Settings auch noch mehr sein ;)

y33H@
2012-06-23, 12:12:58
Man sollte im GPU-Limit testen, etwa 19x12 mit SGSSAA (natürlich so, dass der Speicher nicht überläuft).

john carmack
2012-06-24, 14:34:11
wieviel schneller ist die 7970GhzEd. zur 6970?

ndrs
2012-06-24, 14:39:39
wieviel schneller ist die 7970GhzEd. zur 6970?
Auf Seite eins dieses Threads sind jede Menge Testberichte verlinkt.

PCGH_Carsten
2012-06-24, 19:19:37
Das tut es immer.
Da wird hauptsächlich der Verbrauch angeglichen. Der von Dir beschriebene Zusammenhang existiert so klar nämlich auch nicht. Erst bei gut eingefahrenem Prozeß ohne merkliche intra-Die Variabilitäten gibt es eine starke Korrelation von Leckströmen mit dem Takt (was dann dazu genutzt wird, mittels Tuning am Prozeß die Binsplits zu steuern, die Breite der Verteilung nimmt ebenfalls deutlich ab).
Da sprechen aber einige Aussagen von AMD-Mitarbeitern eine andere Sprache. Beispielsweise in Bezug auf Cayman, welche 1,5 Jahre nach den ersten GPUs mit 40-nm-Technik ohne das ausgleichende Binning bis zu 90 Watt Variation aufweisen hätten können.

Vorher gibt es auch einen Haufen leakiger und gleichzeitig langsamer Dies genauso wie es welche mit niedriger leakage und relativ hohem Taktvermögen geben kann.
Für erstere gibt es ja das Harvest-1-Bin.

NVidia hat sich eben entschieden, Leakage-Unterschiede in Geschwindigkeitsunterschiede zwischen verschiedenen GPUs der gleichen Bezeichnung umzusetzen, AMD hält es für wichtig, daß jeder Kunde exakt die gleiche Leistung erhält (bei grob ähnlichem Stromverbrauch) und nimmt dafür auch in Kauf, daß die Karten im Mittel mehr Strom schlucken, als notwendig wäre.

Naja, wie gesagt: Dafür dass via Spannungsanpassung schon der Stromverbrauch geregelt wird, finde ich mehr als 12 Prozent Varianz zwischen, ich nennen sie mal „ziemlich guten“ und schlechten Chips/Karten recht viel.

Mehr wollte ich auch gar nicht sagen - aber ich muss wohl damit leben, dass man im Netz viel Zeit einplanen muss, um eine einfache Aussage zu tätigen. :)

Tschüss dann erstmal.

dildo4u
2012-06-24, 19:21:55
wieviel schneller ist die 7970GhzEd. zur 6970?
50-60% Je nach Auflösung.
http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7970-ghz-edition/4/

Duplex
2012-06-24, 20:30:09
wieviel schneller ist die 7970GhzEd. zur 6970?
Ist das jetzt dein ernst?
Hätte nicht gedacht das einige do dumm sind solche Fragen in dem Fred hier zu stellen...

M4xw0lf
2012-06-24, 21:20:05
Ist das jetzt dein ernst?
Hätte nicht gedacht das einige do dumm sind solche Fragen in dem Fred hier zu stellen...

Kein Grund, unhöflich zu werden...

Gipsel
2012-06-24, 21:40:27
@Carsten:
Deine Anwort hat entweder eher nur am Rande mit meinen Äußerungen zu tun oder bestätigen sie sogar (wie z.B. der zweite Satz Deines letzten Posts in Bezug auf die Verbrauchsangleichung). Offensichtlich reden wir wirklich aneinander vorbei. Lassen wir es gut sein.

boxleitnerb
2012-06-25, 08:51:05
Erste Karte von Club3D:

Carrying the model number CGAX-7977SO, the card by Club 3D sticks to AMD's reference design, for both the PCB and cooling assembly, with just company branding stickers to make for the difference.

Read more: http://vr-zone.com/articles/club-3d-first-with-radeon-hd-7970-ghz-edition/16400.html#ixzz1ymkjeRmW


Sind die verrückt? Wie war das noch gleich - die Karte kommt im unerträglich lauten Referenzdesign nicht auf den Markt. Okaaaay...

Knuddelbearli
2012-06-25, 11:05:43
waküler freuen sich drüber ^^

Raff
2012-06-25, 11:18:20
Wieso? Wenn das PCB fiept, bringt dir der beste Wasserspucker nichts. Im Gegenteil – es fällt noch mehr auf.

MfG,
Raff

Knuddelbearli
2012-06-25, 11:26:29
nicht jede fiept ^^

und meine aktuelle 480 fiept ja auch :-/

Raff
2012-06-25, 11:34:27
So gut wie jede aktuelle High-End-Grafikkarte fiept. Mehr oder minder. Mehr oder minder vom Individuum wahrnehmbar. Und fallabhängig (Bildrate, Kühlung, Restsystem, übertaktet oder nicht). Wer's drauf anlegt, hört bei jeder spieletauglichen Grafikkarte in konstruierten Tests ein Fiepen – nur ist das weit entfernt von dem praktisch immer störenden Abart-Geweine, das die GHz Edition von sich gibt.

MfG,
Raff

fondness
2012-06-25, 15:40:41
So gut wie jede aktuelle High-End-Grafikkarte fiept. Mehr oder minder. Mehr oder minder vom Individuum wahrnehmbar. Und fallabhängig (Bildrate, Kühlung, Restsystem, übertaktet oder nicht). Wer's drauf anlegt, hört bei jeder spieletauglichen Grafikkarte in konstruierten Tests ein Fiepen – nur ist das weit entfernt von dem praktisch immer störenden Abart-Geweine, das die GHz Edition von sich gibt.

MfG,
Raff

Gerade bei solchen Dingen sollte man sich davon hüten von einem Testexemplar auf eine allgemeingültige Aussage zu schließen. Ich habe schon mal eine Karte gegen eine Baugleiche ausgetauscht die dann plötzlich nicht mehr fiepte.

Raff
2012-06-25, 15:42:43
Natürlich, in dem Fall ist's aber nicht verwunderlich. Wer seine HD 7970 übertaktet und overvoltet, wird feststellen, dass sie lauter fiept als innerhalb der Spec. Da es sich bei den GHz-Testmustern um "gekeulte" HD-7970-Platinen handelt, tritt genau das ein. Eine Serienstreuung kommt immer hinzu.

MfG,
Raff

mironicus
2012-06-25, 16:14:33
Aber auch ein Untervolten schützt vor dem Fiepen nicht. Meine VTX3D lief mit 1,06 Volt und 1050 Mhz und die hatte einen ASIC-Wert von 84%, die braucht wenig Spannung und verbraucht auch nicht so viel Strom, trotzdem hatte sie gefiept beim Ladescreen von Hard Reset.

aufkrawall
2012-06-25, 16:16:04
trotzdem hatte sie gefiept beim Ladescreen von Hard Reset.
Wahrscheinlich bei >5000fps?
Das ist doch völlig normal.
So lange es bis 300fps nicht laut zirpt, ist imho alles in Ordnung.

mironicus
2012-06-25, 16:55:57
Meine neue Sapphire hat da jetzt nicht mehr gefiept, Gott sei Dank. Die VTX war zumindest so laut, dass man es aus dem geschlossenen Gehäuse heraus gehört hat. Eine Garantie darauf, eine sorgenfreie Karte zu bekommen, gibt es aber wohl leider nicht. Daher ist es gut, dass in den Tests jetzt verstärkt darauf hingewiesen wird, denn ohne Öffentlichkeit tut sich da leider nichts. Sapphire hat ja auch erst reagiert, nachdem sich eine Menge Leute in öffentlichen Foren beschwert haben und auch der Händler SDV hat ziemlich sauer reagiert. Im CB-Forum gab es übrigens gerade ein längeres Rede-Duell zwischen SDV und einem Vertreter von Sapphire!

http://www.computerbase.de/forum/showthread.php?p=12253949

dargo
2012-06-25, 17:01:07
Ich finde es übrigens sehr gut, dass die User sowas kritisieren. Es kann nicht sein, dass das die Regel wird! Wie man wunderbar sieht kann man mit der Kritik auch was bewirken.

mironicus
2012-06-25, 17:06:07
Ja! Wer sich nicht beschwert, kann auch nichts ändern.

dargo
2012-06-25, 17:18:40
Das sagt mir eigentlich schon alles.

Es ist zu vermuten, dass die Dunkelziffer etwas höher ist, das ist richtig.
Ich will auch nichts beschönigen, aber auch unter Berücksichtigung der Dunkelziffer kann man hier nicht von einem Serienfehler sprechen. So gern ich würde, ich kann leider nicht auf nähere Hintergründe zu diesem Thema eingehen, aber so viel: es sind hauptsächlich bestimmte Karten bestimmter Hersteller betroffen. Wichtig ist: wir werden unser Möglichstes tun, um alle eingehenden Reklamationen zufriedenstellend zu lösen.
Da wurden stellenweise sicherlich minderwertige Bauteile verwendet. Natürlich darf sowas Sapphire nicht offiziell zugeben. ;)

@Butters86
Ich würde dir empfehlen die Karte direkt an Sapphire zum Austausch zu schicken. Afaik ist das für den Endkunden auch kostenlos. Kann aber 2-8 Wochen dauern laut Sapphire.

nagus
2012-06-25, 18:47:50
Meine neue Sapphire hat da jetzt nicht mehr gefiept, Gott sei Dank. Die VTX war zumindest so laut, dass man es aus dem geschlossenen Gehäuse heraus gehört hat. Eine Garantie darauf, eine sorgenfreie Karte zu bekommen, gibt es aber wohl leider nicht. Daher ist es gut, dass in den Tests jetzt verstärkt darauf hingewiesen wird, denn ohne Öffentlichkeit tut sich da leider nichts. Sapphire hat ja auch erst reagiert, nachdem sich eine Menge Leute in öffentlichen Foren beschwert haben und auch der Händler SDV hat ziemlich sauer reagiert. Im CB-Forum gab es übrigens gerade ein längeres Rede-Duell zwischen SDV und einem Vertreter von Sapphire!

http://www.computerbase.de/forum/showthread.php?p=12253949

danke für den hinweis! ... und sehr beruhigend, dass sapphire die kunden jetzt (endlich) doch nicht im regen stehen läßt. meine anfragen beim sapphire support waren nämlich letzte woche ein ziemlicher "griff ins klo". gott sei dank hat klarsicht--it die karte zurückgenommen und tauscht diese gegen eine neue aus. falls diese wieder so stark fiepen sollte, werde ich sie sogleich direkt an sapphire schicken. (ich sollte die neue karte ende der woche bekommen und berichte dann bezüglich "coil whining")

Schaffe89
2012-06-29, 14:31:17
Es ist meiner Meinung nach ne Sauerei dem Kunden eine Karte zu liefern die 400 Euro kostet und dann mit solchen Mängeln behaftet ist.
Bei Fiepkonzerten bei 200 FPS + lass ichs mir ja eingehen, aber drunter never ever.

Gipsel
2012-07-10, 19:13:15
http://www.hardwareluxx.de/community/f14/test-amd-radeon-hd-7970-ghz-edition-897970-2.html#post19061101

HD7970 GHz Bios :D
Jetzt gibt es wohl eine funktionsfähige Variante (http://icrontic.com/files/Tahiti_XTGHz_C38601_BIOS_Jun29_2012.zip).
Dave Baumann gibt übrigens zu bedenken (http://forum.beyond3d.com/showthread.php?p=1655517#post1655517), daß nicht nur das Binning der GPUs etwas anders ist, sondern auch andere Speicherchips (anderer Hersteller? andere Revision?) als bei der originalen HD7970 verbaut werden. Was Icrontic über angeblich verbesserte Sensoren schreibt (http://icrontic.com/article/leaked-bios-easily-turns-radeon-hd-7970-into-ghz-edition), ist aber schlicht Unsinn. Das ist einfach eine Erweiterung des Powertune-Algos, der mit dem Catalyst 12.7 aktiviert wird (siehe hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9356250#post9356250)).

Raff
2012-07-10, 20:17:02
Das mit dem Speicher ist so eine Sache. Die HD 7970 nutzt, wie alle GTX-600-Karten auch, Hynix R0C-RAM, der offiziell bis 3.000 MHz "specced" ist (6 Gbps) (http://html.alldatasheet.com/html-pdf/333515/HYNIX/H5GQ1H24AFR-R0C/978/6/H5GQ1H24AFR-R0C.html). Auf der HD 7970 laufen die Dinger nur mit 2.750 MHz bei 1,6 Volt, auf der GHz Edition mit 3.000 MHz bei 1,5 Volt – das ist der nennenswerte Unterschied. Ich denke nicht, dass das andere Chips sind. Daher gilt: Packt eine HD 7970 die genannte Takt-Volt-Kombination, packt sie auch das GHz-BIOS.

Also ich mach's nicht, trotz Referenzplatine. :D

MfG,
Raff

aufkrawall
2012-07-10, 20:20:00
Also ich mach's nicht, trotz Referenzplatine. :D

Wieso sollte man das überhaupt machen wollen?
Man kann ja softwareseitig sowohl GPU- als VRAM-Spannung erhöhen, von den Taktraten ganz zu schweigen.

Doch wohl nicht wegen diesem Gammelboost...

Raff
2012-07-10, 20:25:15
Es soll Leute geben, die ungern immer ein Tool anwerfen, um zu übertakten. ;) Zu diesen Leuten gehöre ich nur bedingt, aber das neue BIOS leistet genau das und verschiebt außerdem das Power- und Overdrive-Taktlimit ...

MfG,
Raff

aufkrawall
2012-07-10, 20:29:10
Es soll Leute geben, die ungern immer ein Tool anwerfen, um zu übertakten. ;) Zu diesen Leuten gehöre ich nur bedingt, aber das neue BIOS leistet genau das und verschiebt außerdem das Power- und Overdrive-Taktlimit ...

Manche Leute sind halt nicht sehr logikaffin. :tongue:
Mehr als +20% PT braucht man nie, die CCC-Taktlimits kann man auch mit dem Asus GPU Tweak Tool erhöhen und für die Spannung gibts Afterburner.

Dazu muss man auch nicht ständig eines der Programme aktiv haben.
Und auch wenn die aktiv sind, ist das kein Beinbruch.

Raff
2012-07-10, 20:34:49
Nachdem es mit neueren Katalysatoren Probleme mit dem Unofficial Overclocking Mode des Arschfacklers (http://forums.guru3d.com/showthread.php?t=359671) gibt, könnte man trotzdem auf die Idee kommen. Für mich persönlich ist der "Gammelboost", wie du so treffend sagst, aber das gewichtigste Hindernis. Bei 1.050 MHz ohne diesen Lötfug wäre ich dabei. Andere BIOS-Mods sind ja auf aktuellen Radeönern leider nicht möglich.

MfG,
Raff

aufkrawall
2012-07-10, 20:38:13
Einmal einflashen und Ruhe ist natürlich bequem - aber zum Preis des Garantieverlustes?

AMD könnte mal das Erhöhen der Spannung im CCC ermöglichen.
Bei Nvidia gehts ja auch über NVAPI.

Gipsel
2012-07-10, 23:24:41
Die HD 7970 nutzt, wie alle GTX-600-Karten auch, Hynix R0C-RAM, der offiziell bis 3.000 MHz "specced" ist (6 Gbps) (http://html.alldatasheet.com/html-pdf/333515/HYNIX/H5GQ1H24AFR-R0C/978/6/H5GQ1H24AFR-R0C.html). Auf der HD 7970 laufen die Dinger nur mit 2.750 MHz bei 1,6 Volt, auf der GHz Edition mit 3.000 MHz bei 1,5 Volt – das ist der nennenswerte Unterschied. Ich denke nicht, dass das andere Chips sind.Genau das scheint Dave Baumann aber in meinem oben verlinkten Post zu sagen:
PCB wise they are idential, save for the memory devices.
Im Übrigen sind die R0C laut Deinem Link mit 1,6V spezifiziert (alle anderen mit 1,5V). Die mit 1,5V bei 6 GBps zu betreiben, wäre also ziemlich mutig. Vielleicht doch andere Chips?

AnarchX
2012-07-11, 11:28:43
http://www.hynix.com/inc/pdfDownload.jsp?path=/upload/products/gl/products/dram/down/GDDR.pdf

GHz Edition: H5GQ2H24AFR (http://www.techpowerup.com/reviews/AMD/HD_7970_GHz_Edition/4.html)
Classic: H5GQ2H24MFR (http://www.techpowerup.com/reviews/AMD/HD_7970/5.html)

Laut Part Number Decoder sind es wohl 2nd Generation Dies auf der GHz Edition.

NV erreicht aber 6Gbps auch mit den Dies der 1. Generation: http://www.techpowerup.com/reviews/AMD/HD_7970/5.html

Gipsel
2012-07-11, 12:03:40
http://www.hynix.com/inc/pdfDownload.jsp?path=/upload/products/gl/products/dram/down/GDDR.pdf

GHz Edition: H5GQ2H24AFR (http://www.techpowerup.com/reviews/AMD/HD_7970_GHz_Edition/4.html)
Classic: H5GQ2H24MFR (http://www.techpowerup.com/reviews/AMD/HD_7970/5.html)

Laut Part Number Decoder sind es wohl 2nd Generation Dies auf der GHz Edition.

NV erreicht aber 6Gbps auch mit den Dies der 1. Generation: http://www.techpowerup.com/reviews/AMD/HD_7970/5.html
Der Unterschied ist die spezifizierte Spannung. Die MFR-R0C erreichen 6GBps laut Spec nur mit 1,6V, die AFR-R0C schon mit 1,5V. Das ist also der Fortschritt.

PS: Dein Link zu der nV-Karte ist falsch.

OgrEGT
2012-07-14, 15:50:48
Weiß jemand hier, ob's von XFX auch neue Karten mit XT2 GPU's geben wird?

TobiWahnKenobi
2012-07-19, 09:26:21
oh wie schade.. wenn jetzt alle hersteller den bios-switch-schalter vom PCB der normalen 7970 entfernen - wie XFX ab version 1.1 der non-GHz-edition - können die sparfüchse ja nichtmal mehr auf GHz-Edition flashen..

ts ts ts.. kommt mir fast so vor, als soll man nur noch kriegen, wofür man bezahlt hat..


(..)

mfg
tobi

Iruwen
2012-07-19, 09:36:19
Warum sollte man das auch wollen? Spannung und Takt kann man doch auch so ändern und bekommt nur den depperten Turbo dazu oder nicht?

TobiWahnKenobi
2012-07-19, 10:01:36
na weil man es kann konnte :-)

dafür hat die karte doch - bis jetzt zumindest - ein duales, umschaltbares bios. zumindest für mich war das immer ein nettes feature. ein bios zum rumspielen und eines, das immer funktioniert.. schalter umlegen - läuft!


(..)

mfg
tobi

Raff
2012-10-27, 12:30:14
Medal of Honor Warfighter: 20 Grafikkarten im Test - fordernder als Battlefield 3? (http://www.pcgameshardware.de/Medal-of-Honor-Warfighter-PC-239190/Tests/Medal-of-Honor-Warfighter-Test-Battlefield-3-Engine-1032463/)

Hier kann sich die HD 7970 GHz Edition schön in Szene setzen, bei Hi-Res klassisch am deutlichsten. Vermutlich liegt das alles am "Wundertreiber" Catalyst 12.11 Beta.

MfG,
Raff

boxleitnerb
2012-10-27, 12:34:23
10% sind jetzt auch sehr deutlich ;)

Raff
2012-10-27, 12:38:02
Erst in 2.560 x 1.600 hat das für die Spielbarkeit einen Hauch von Relevanz. ;) Ich find's ja interessant, dass der Treiber in Battlefield 3 anscheinend mehr bringt als in Warfighter.

MfG,
Raff

Raff
2013-01-09, 11:04:59
*Selbstgespräch, olé!*

Battlefield 3 Reloaded: 22 Grafikkarten mit aktuellen Geforce- und Radeon-Treibern im Leistungstest (http://www.pcgameshardware.de/Battlefield-3-PC-221396/Tests/Battlefield-3-Grafikkarten-Benchmarks-1042773/)

Wunder-Catalyst hin oder her: Nvidia hat mit den neuen Versionen aufgeholt.

MfG,
Raff

MadManniMan
2013-01-09, 11:27:48
Ihr könnt ja schonmal die neue AMD-Generation mittesten :D

boxleitnerb
2013-01-09, 11:31:15
Sowas find ich immer interessant, die Performanceentwicklung mit unterschiedlichen Treibern. Ist halt ne üble Arbeit.

y33H@
2013-01-09, 13:06:52
Deswegen gibt's ja uns ;-)

boxleitnerb
2013-01-09, 13:12:16
Testet ihr damit auch mehrere Spiele und macht ein Diagramm mit den prozentualen Steigerungen von mehreren Karten? Bitte? :D

Raff
2013-01-09, 13:14:49
Nur, wenn du auch mal ein Heft kaufst. Oder mehrere. :tongue: Das wäre ein Thema für Print – sowas gab's öfter im Rahmen von Aufrüstspecials.

MfG,
Raff

boxleitnerb
2013-01-09, 13:15:43
Mach ich gerne :)

Skysnake
2013-01-22, 00:26:36
Hier mal noch nen Test mit E8400@4.0GHz und nem i7-920@3.36GHz zusammen mit ner HD7870 und ner XFX R7970 Double Dissipation.

AMD scheint den CPU-Ressourcenverbrauch des Treibers usw. nochmals deutlich gesenkt zu haben mit der HD79x0. War ja schon vorher so, das nVidia mit schwächeren CPU stärker eingebrochen ist als AMD mit ihren Karten. Ich vermute, dass das am Umstieg von VLIWx auf SIMD zu tun hat, da die LLVM deutlich weniger zu tun hat.

Das macht den Test mit OC-CPUs noch fragwürdiger als bisher schon, seitdem man das Verhalten mit AMD und nVidia Karten kennt. nVidia wird dadurch ja bevorteilt, da man CPU-Leistung bereitstellt, die so eigentlich nicht vorhanden ist, und später durchaus auch benötigt werden kann.

Hier der Link ;)

http://extreme.pcgameshardware.de/grafikkarten/255983-xfx-r7970-double-dissipation-edition-im-pcghx-test.html

dildo4u
2013-01-22, 00:36:07
Es reicht schon ein i3 mit HT(100€) damit eine 680 ordentlich performt,wer Kepler mit nem 50€ Pentium verbaut gehört eh geschlagen.Wichtig für den NV Treiber sind nur 4 Thread's müssen nich mal 4 Cores sein.


http://www.computerbase.de/artikel/prozessoren/2012/alle-desktop-trinity-im-cpu-vergleichstest/39/

http://www.computerbase.de/artikel/prozessoren/2012/alle-desktop-trinity-im-cpu-vergleichstest/46/

http://www.computerbase.de/artikel/prozessoren/2012/alle-desktop-trinity-im-cpu-vergleichstest/44/

Rest ist entweder GPU limitiert oder hat weit über 60fps.

Skysnake
2013-01-22, 01:23:51
Ah ok, ich hatte diesbezüglich noch im Hinterkopf, das es echte Cores sein sollten am Besten, also das man leichte Gewinne nochmals hatte bei 4 echten Cores statt 2cores+SMT, aber schon ziemlich nah dran war.

Ich versteh eh nicht, was nVidia da macht. AMD scheint ja auch mit weniger Ressourcen aus zu kommen

Gerade Batman Arkham City finde ich schon sehr interessant, da sich CPU und GPU-Limitierung eigentlich freudig abwechseln, wobei die großen Framdrops ziemlich im Zusammenhang mit dem Nachladen von Daten stehen. Da sieht man mal, was man an einem Game verhunzen kann, wenn man nicht zum richtigen Zeitpunkt die richtigen Daten im Speicher hat ;D

PS: Ich hab grad gesehen, das Diagramm zu MafiaII ohne Vsync hat gefehlt :ugly: Das ist irgendwie verschüttgegangen, obwohl ich mir sicher bin, es mal drin gehabt zu haben

Knuddelbearli
2013-01-22, 14:33:32
dildo du ignorierst aber das das nicht nur die GTX 680 betrifft sondern auch kleinere und ältere Karten zB im Notebook Markt

Ich mit meinem P8600 bekomme immer das kotzen wenn einer so wie du versucht das schönzureden ...

Raff
2013-04-30, 22:24:18
Bisschen polarisierendes Futter:

Far Cry 3 Blood Dragon: Test und Grafikkarten-Benchmarks - herrlich übertriebener Action-Klamauk, Shooter des Jahres? (http://www.pcgameshardware.de/Far-Cry-3-Blood-Dragon-PC-257125/Tests/Far-Cry-3-Blood-Dragon-Benchmark-Test-1067445/)

Obwohl Effekte und Hardware-Hunger ähnlich ausfallen wie bei der Vorlage Far Cry 3, liegt es den GCN-Karten sehr gut. Schön für "Never settle reloaded"-Key-Besitzer. :)

MfG,
Raff

boxleitnerb
2013-04-30, 22:57:50
Die Ergebnisse sind nicht anders als der Durschnitt, wo liegt das GCN besonders gut?

aufkrawall
2013-04-30, 22:59:08
Versteh ich auch nicht so ganz, die GE gefühlt kein Unterschied zur 680.
Würde man AMD HQ mit Nvidia Q vergleichen...

boxleitnerb
2013-04-30, 23:06:54
Bei PCGH kommt Titan irgendwie immer schlecht weg, wenn ich mir die Ergebnisse der letzten Tests anschaue und z.B. mit den Computerbase-Werten vergleiche, selbst mit den ausgebremsten. In Far Cry 3 sind es normal gut 30% Vorsprung zur 7970 GE (bei wohlgemerkt nur 849 MHz), bei PCGH nur 18% bei wohl 876 MHz. Selbe Engine, da kann ich mir nicht vorstellen, dass da nur die neueren Treiber den Ausschlag geben.

M4xw0lf
2013-04-30, 23:11:20
Versteh ich auch nicht so ganz, die GE gefühlt kein Unterschied zur 680.
Würde man AMD HQ mit Nvidia Q vergleichen...

Auf welcher Grundlage? HQ und HQ wurde überall für gleichwertig befunden.

aufkrawall
2013-04-30, 23:16:11
Auf welcher Grundlage? HQ und HQ wurde überall für gleichwertig befunden.
Nope, imho sieht Nvidia Q gar noch besser als AMD HQ von der Flimmerneigung aus. Kannste mich mit Blindtests drauf festnageln.
Sehe ich auch nicht alleine so:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=519108

boxleitnerb
2013-05-01, 00:34:29
Ich habe gerade mal den Benchmark nachgestellt, genau wie im Video. 30 Sekunden Fraps, selbe Einstellungen.
1080p+4xMSAA: 63.9fps, PCGH: 59.9
1600p+4xMSAA: 42.8fps, PCGH: 38.2

Differenz 6.7% bzw. 12%
Karte lief festgetackert auf 875/3005 so wie PCGH (meines Wissens nach) auch bencht, Durchschnittsboost eben. 314.22, 16xHQ-AF

Raff
2013-05-01, 11:46:17
Wie eben bei PCGH geschrieben: Hast du das FOV angepasst? Kann eigentlich nur daran liegen. Ich versuche die Werte mal an meinem FX nachzustellen. :)

Auf welcher Grundlage? HQ und HQ wurde überall für gleichwertig befunden.

"Gleichwertig" würde ich unterschreiben, aber es gibt Unterschiede: Nvidia filtert einen Tick ruhiger, AMD dafür etwas knackiger. (http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm-860536/2/) Die beiden waren aber noch nie so nah beisammen.

Nope, imho sieht Nvidia Q gar noch besser als AMD HQ von der Flimmerneigung aus. Kannste mich mit Blindtests drauf festnageln.
Sehe ich auch nicht alleine so:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=519108

Nvidias Q ist mit Gewissheit in den meisten Spielen schlechter als GCN-HQ. Das GCN ist hier wichtig, alles davor ist nicht optimal.

HQ gegen Q ist nie fair, da ab Q bei beiden IHVs ein Bri- statt einem Trilinearen Filter zum Einsatz kommt.

MfG,
Raff

boxleitnerb
2013-05-01, 12:07:34
Ja, ist auf 90.2
Beim Test eben kam ich sogar auf 65fps, ist wohl ne kleine Varianz drin. Was ich festgestellt habe: Wenn man auf Apply klickt, ändert sich die AO-Implementierung von HBAO zu HDAO bzw. umgekehrt. Bei mir war immer HDAO an, darauf habe ich geachtet.

aufkrawall
2013-05-01, 12:22:35
HQ gegen Q ist nie fair, da ab Q bei beiden IHVs ein Bri- statt einem Trilinearen Filter zum Einsatz kommt.

Trotzdem flimmert Nvidia Q bei den Videos von CB sichtbar weniger als AMD HQ. Die Schärfe ist dabei für mich vergleichbar.
Wobei Intel IVB wohl sogar noch stärker flimmert als AMD HQ. Der Unterschied ist aber längst nicht so deutlich wie Nvidia Q vs AMD HQ.

Nvidias Filterung neigt einfach deutlich am wenigsten zum Flimmern (erst recht mit HQ), was in der Praxis garantiert wichtiger ist als eine Winkelabhängigkeit.

Mr. Lolman
2013-05-01, 12:23:22
Nvidias Filterung neigt einfach deutlich am wenigsten zum Flimmern (erst recht mit HQ), was in der Praxis garantiert wichtiger ist als eine Winkelabhängigkeit.

Für dich vielleicht... :cool:

boxleitnerb
2013-05-01, 12:31:14
Natürlich ist es wichtiger, denn
a) wüsste ich nicht, wo das irgendjemanden schonmal gestört hat oder wo man abseits von Filtertestern die Winkelabhängigkeit überhaupt in Spielen sehen kann
b) in Bewegung fallen solche Sachen wie Flimmern/Grieseln naturgemäß mehr auf

Ich finde beides Korinthenkackerei, wobei das mit der Winkelabhängigkeit die größere ist, denn das war bei Nvidia nie ein Problem in der Praxis - AMDs Flimmern hingegen schon.

Mr. Lolman
2013-05-01, 12:36:20
Und diese tolle AF Blume zeigt natürlich, dass man bei NV Q nie im Leben ein Briband vor sich herschieben würde, gell?

http://www.abload.de/image.php?img=quality5klay.png

EDIT: Aber letztlich ists wurscht. AF kostet so wenig, dass Q vs HQ oder umgekehrt, die Benchmarkergebnisse nicht großartig beeinflussen würde. Und darum gehts ja den Hatern hier, oder? Nämlich dass AMD bei Farcry Blood Dragon irgendwie zu flott ist um das einfach so akzeptieren zu können...

@Mods: Split, oder Stop mit OT?

fondness
2013-05-01, 12:37:11
Immer das gleiche Schauspiel. Wehe AMD kommt mal gut weg, schon sind die zwei bis drei immer gleichen User hier und ziehen immer den gleichen Zirkus ab.

boxleitnerb
2013-05-01, 12:38:53
Und diese tolle AF Blume zeigt natürlich, dass man bei NV Q nie im Leben ein Briband vor sich herschieben würde, gell?

http://www.abload.de/image.php?img=quality5klay.png

EDIT: Aber letztlich ists wurscht. AF kostet so wenig, dass Q vs HQ oder umgekehrt, die Benchmarkergebnisse nicht großartig beeinflussen würde. Und darum gehts ja den Hatern hier, oder? Nämlich dass AMD bei Farcry Blood Dragon irgendwie zu flott ist um das einfach so akzeptieren zu können...

@Mods: Split, oder Stop mit OT?

Jetzt geht es plötzlich um ein Briband? Bleib doch mal beim Thema.
Die Praxisrelevanz ergibt sich schon allein deshalb, weil die Winkel, die vom Nvidia-AF nicht erfasst werden, heute immer noch selten vorkommen, vor allem großflächig wo man es gut sehen könnte. Ein Großteil der Levelgeometrie ist immer noch rechtwinklig.

Und wenn Ergebnisse unschlüssig sind und das angesprochen wird, ist man ein Hater? Was ein Schwachsinn. Ich hab mir wenigstens die Mühe gemacht den Benchmark nachzustellen. Von dir kommt nichts außer Polemik.

Immer das gleiche Schauspiel. Wehe AMD kommt mal gut weg, schon sind die zwei bis drei immer gleichen User hier und ziehen immer den gleichen Zirkus ab.

Wenn du nichts von Substanz zu sagen hast, sag doch besser gar nichts.

Mr. Lolman
2013-05-01, 12:40:14
Es ging darum, dass man HQ vs HQ nicht für vergleichbar hält, bzw NV Q gleichwertiger mit AMD HQ sein soll, als NV HQ. Schon wieder vergessen? Wer bestimmt eigentlich das Thema? Du etwa?

Ein Großteil der Levelgeometrie ist immer noch rechtwinklig.

Lol. Im Jahr 2013 ist das fast sigwürdig.


Und wenn Ergebnisse unschlüssig sind und das angesprochen wird, ist man ein Hater? Aha...

Wenn NV-Fans versuchen, sobald Ergebnisse vom einem (!) Spiel nicht in den Kram passen, grundsätzliche Fehler beim Benchen herbeizudiskutieren, dann schon irgendwie. Ja.

Ronny145
2013-05-01, 12:40:37
Nvidias Q ist mit Gewissheit in den meisten Spielen schlechter als GCN-HQ. Das GCN ist hier wichtig, alles davor ist nicht optimal.

HQ gegen Q ist nie fair, da ab Q bei beiden IHVs ein Bri- statt einem Trilinearen Filter zum Einsatz kommt.

MfG,
Raff


Zum launch war HQ am vergleichbarsten mit Q von Nvidia. Nvidia hat schärfer und ruhiger gefiltert. Lies dir die damaligen Diskussionen durch. Du hast wie so oft eine etwas andere Wahrnehmung für AMD. Ich schreibe extra zum launch, da AMD in 2012 mehrmals an der Filterung rumgespielt hat und mangels Tests der Status in 2013 unbekannt ist. Was soll also der alte Link? Du bist informiert, siehe hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9256954#post9256954
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9270703&highlight=sch%E4rfer#post9270703

So richtig auseinandergesetzt hast du dich scheinbar eh nie. Man beachte den Kommentar von dir im zweiten Link. Das positive lod hat AMD damals nur im Performance Modus eingesetzt. Übrigens filtert Nvidia in Q leicht schärfer als in HQ. Wenn es danach geht, müsstet ihr für Nvidia Q einstellen. Sofern ab Cat 12.4 Schärfe und Flimmern bei AMD zugenommen und sich nichts mehr daran geändert hat, dürfte Q bei Nvidia ruhiger filtern. Schärfe und Flimmerneigung wäre wie gesagt mit Q vergleichbarer gegen AMDs HQ.

aufkrawall
2013-05-01, 12:44:35
Und diese tolle AF Blume zeigt natürlich, dass man bei NV Q nie im Leben ein Briband vor sich herschieben würde, gell?

http://www.abload.de/image.php?img=quality5klay.png

Fällt mir nicht wirklich mehr auf wie das flächenmäßige Flimmern von AMD HQ.


Nämlich dass AMD bei Farcry Blood Dragon irgendwie zu flott ist um das einfach so akzeptieren zu können...

Das interessiert mich nicht. Ich werd das Spiel wahrscheinlich gar nicht spielen, auch wenn meine 670 OCs vermutlich ziehmlich gut mit einer fiependen und lärmenden GE mithalten würden. ;)


Ich finde beides Korinthenkackerei
Es gibt auch noch flimmeranfälligere Texturen.

boxleitnerb
2013-05-01, 12:57:40
Es ging darum, dass man HQ vs HQ nicht für vergleichbar hält, bzw NV Q gleichwertiger mit AMD HQ sein soll, als NV HQ. Schon wieder vergessen? Wer bestimmt eigentlich das Thema? Du etwa?

Lol. Im Jahr 2013 ist das fast sigwürdig.

Wenn NV-Fans versuchen, sobald Ergebnisse vom einem (!) Spiel nicht in den Kram passen, grundsätzliche Fehler beim Benchen herbeizudiskutieren, dann schon irgendwie. Ja.

Was du mit krawall diskutierst, ist eure Sache. Ich bin wie gesagt ebenfalls der Meinung, dass Flimmern auffälliger ist als diese (soweit ich weiß in Spielen nie nachgewiesene) Winkelabhängigkeit. Ich habe auch begründet warum.

Und du kannst lollen solange du willst, das ist leider traurige Realität.

Erstens hör doch mal auf, Leute als "Hater" oder "Fans" zu bezeichnen. Das bringt doch überhaupt nichts und das weißt du auch. Wie gesagt, ich habe die Zahlen in Frage gestellt, weil ich hier andere Ergebnisse bekomme und weil es auch nicht zu anderen FC3-Ergebnissen passt. Nicht krawall. Also wirf uns nicht in einen Topf.

Raff
2013-05-01, 13:17:53
Wisst ihr ... früher wäre ich auf diese Diskussionen eingegangen, aber im Laufe der Jahre führen Kommentare und Anschuldigungen wie diese einfach zu Ermüdung. Ich sehe die Filter beider IHVs jeden Tag, weil das zu meinem Job gehört. Mit anderen Worten: Wenn ich etwas schreibe, dann weil sich das im Rahmen stunden-, nein tage-, nein eher monatelanger Betrachtungen herauskristalliert. Das kann man anders sehen, aber Fakt ist: Filtert ein Hersteller brilinear und der andere trilinear, werde ich mich hüten, das in Benchmarks gegeneinander zu stellen.

Gedankenanstoß: Spätestens beim Einsatz von Supersampling sind alle Flimmergeschichten egal, dann zählt der Grundfilter.

MfG,
Raff

Ronny145
2013-05-01, 13:29:05
Mit anderen Worten: Wenn ich etwas schreibe, dann weil sich das im Rahmen stunden-, nein tage-, nein eher monatelanger Betrachtungen herauskristalliert.


Es ist ganz einfach wertlos ohne Dokumentation. Du behauptest etwas, was der Faktenlage nach in Videos und Screenshots widerlegt wurde. Wenn jemand wiederholt das Gegenteil von dem behauptet, muss er das mit Videos und screenshots belegen können. Erst dann lässt sich beurteilen, ob deine Wahrnehmung den Tatsachen entspricht, oder ob wieder ein Wahrnehmungsproblem pro-AMD vorliegt. Du pochst ständig auf HQ-HQ Vergleiche, ja dann hättest du nach den Filteränderungen in 2012 längst ein Update bringen müssen.

Raff
2013-05-01, 14:24:58
Ich habe gerade mal den Benchmark nachgestellt, genau wie im Video. 30 Sekunden Fraps, selbe Einstellungen.
1080p+4xMSAA: 63.9fps, PCGH: 59.9
1600p+4xMSAA: 42.8fps, PCGH: 38.2

Differenz 6.7% bzw. 12%
Karte lief festgetackert auf 875/3005 so wie PCGH (meines Wissens nach) auch bencht, Durchschnittsboost eben. 314.22, 16xHQ-AF

Ich hab's eben auf meiner Privatkiste mit FX 8350 und HD 7970 nachgetestet. Blood Dragon v1.0 laut Menü (es handelt sich um eine Presse-Version), HDAO, FOV 90,2, HQ-AF. Meine Werte decken sich perfekt mit denen bei PCGH (http://www.pcgameshardware.de/Far-Cry-3-Blood-Dragon-PC-257125/Tests/Far-Cry-3-Blood-Dragon-Benchmark-Test-1067445/). Was folgt, ist 2.560x1.600 mit 4x MSAA + A2C.


1.050/3.000 MHz (GHz Edition):
2013-05-01 14:14:37 - fc3_blooddragon_d3d11
Frames: 971 - Time: 30000ms - Avg: 32.367 - Min: 28 - Max: 37

2013-05-01 14:15:20 - fc3_blooddragon_d3d11
Frames: 965 - Time: 30000ms - Avg: 32.167 - Min: 29 - Max: 36

OC @ 1.250/3.600 MHz:
2013-05-01 14:16:16 - fc3_blooddragon_d3d11
Frames: 1122 - Time: 30000ms - Avg: 37.400 - Min: 33 - Max: 43

2013-05-01 14:16:58 - fc3_blooddragon_d3d11
Frames: 1138 - Time: 30000ms - Avg: 37.933 - Min: 34 - Max: 43


Full HD ist wertlos, da hier meine CPU bremst und ich keine Lust habe, sie auf 5 GHz zu treiben. Will sagen: Die Werte bei PCGH stimmen grundsätzlich (natürlich!), es ist aber nicht ausgeschlossen, dass die "echte" Retail-Version anders läuft als die Presse-Build. Das gilt dann aber für alle Grafikkarten, die Titan wird also nicht benachteiligt. Also bitte einfach etwas weniger Paranoia :), es nervt nämlich tierisch.

MfG,
Raff

dildo4u
2013-05-01, 14:29:01
Schafft der 8350 keine 60fps bei dem Game?

boxleitnerb
2013-05-01, 14:32:12
Ich hab's eben auf meiner Privatkiste mit FX 8350 und HD 7970 nachgetestet. Blood Dragon v1.0 laut Menü (es handelt sich um eine Presse-Version), HDAO, FOV 90,2, HQ-AF. Meine Werte decken sich perfekt mit denen bei PCGH (http://www.pcgameshardware.de/Far-Cry-3-Blood-Dragon-PC-257125/Tests/Far-Cry-3-Blood-Dragon-Benchmark-Test-1067445/). Was folgt, ist 2.560x1.600 mit 4x MSAA + A2C.


1.050/3.000 MHz (GHz Edition):
2013-05-01 14:14:37 - fc3_blooddragon_d3d11
Frames: 971 - Time: 30000ms - Avg: 32.367 - Min: 28 - Max: 37

2013-05-01 14:15:20 - fc3_blooddragon_d3d11
Frames: 965 - Time: 30000ms - Avg: 32.167 - Min: 29 - Max: 36

OC @ 1.250/3.600 MHz:
2013-05-01 14:16:16 - fc3_blooddragon_d3d11
Frames: 1122 - Time: 30000ms - Avg: 37.400 - Min: 33 - Max: 43

2013-05-01 14:16:58 - fc3_blooddragon_d3d11
Frames: 1138 - Time: 30000ms - Avg: 37.933 - Min: 34 - Max: 43


Full HD ist wertlos, da hier meine CPU bremst und ich keine Lust habe, sie auf 5 GHz zu treiben. Will sagen: Die Werte bei PCGH stimmen grundsätzlich (natürlich!), es ist aber nicht ausgeschlossen, dass die "echte" Retail-Version anders läuft als die Presse-Build. Das gilt dann aber für alle Grafikkarten, die Titan wird also nicht benachteiligt. Also bitte einfach etwas weniger Paranoia :), es nervt nämlich tierisch.

MfG,
Raff

Danke für den Test. Jetzt bitte noch mit Titan ;)
Ich bin nicht paranoid, mir kamen die Abstände nur zu gering vor, weil ich weiß, dass die FC3-Engine Nvidia gut liegt und dass ca. 30% Abstand zwischen der 7970 GE und Titan@ca. 876 MHz rauskommen sollten.

Vielleicht hab ich auch was falsch gemacht, es gibt ja keine exakte Anleitung. Hab angefangen zu schießen damit das Feuer den letzten Baum vor dem ersten Gebäude trifft und genau in dem Moment starte ich 30s Fraps. Die Maus bewege ich nicht, halte nur die Feuertaste gedrückt.

Raff
2013-05-01, 14:41:35
Schafft der 8350 keine 60fps bei dem Game?

Nicht in dieser Szene, ich komme mit 4 GHz auf ~50 Fps average (1080p ohne MSAA). Eine Ivy @ 4,5 GHz klebt mit 'ner Titan OC bei etwa 80 Fps (Hochrechnung anhand PCGH).

Danke für den Test. Jetzt bitte noch mit Titan ;)
Ich bin nicht paranoid, mir kamen die Abstände nur zu gering vor, weil ich weiß, dass die FC3-Engine Nvidia gut liegt und dass ca. 30% Abstand zwischen der 7970 GE und Titan@ca. 876 MHz rauskommen sollten.

Vielleicht hab ich auch was falsch gemacht, es gibt ja keine exakte Anleitung. Hab angefangen zu schießen damit das Feuer den letzten Baum vor dem ersten Gebäude trifft und genau in dem Moment starte ich 30s Fraps. Die Maus bewege ich nicht, halte nur die Feuertaste gedrückt.

Titan kann ich leider nicht testen, da Nvidia zu viel Geld dafür haben will. ;)

Ich denke nicht, dass man bei dem Test etwas falsch machen kann, vermutlich liegt es echt nur an der Spielversion. Sobald mein NSR-Key da ist, benche ich's nochmal. :) Derweil kann ich nur sagen: In der PCGH-Szene für Far Cry 3 schneiden die Nvidia-Karten stand vorletzter Woche prozentual besser ab als in Blood Dragon.

MfG,
Raff

Skysnake
2013-05-01, 14:48:13
Danke für den Test. Jetzt bitte noch mit Titan ;)
Ich bin nicht paranoid, mir kamen die Abstände nur zu gering vor, weil ich weiß, dass die FC3-Engine Nvidia gut liegt und dass ca. 30% Abstand zwischen der 7970 GE und Titan@ca. 876 MHz rauskommen sollten.

Vielleicht hab ich auch was falsch gemacht, es gibt ja keine exakte Anleitung. Hab angefangen zu schießen damit das Feuer den letzten Baum vor dem ersten Gebäude trifft und genau in dem Moment starte ich 30s Fraps. Die Maus bewege ich nicht, halte nur die Feuertaste gedrückt.
-.-
Was erwartest du? Du hast weder die 100% gleiche Hardware, noch die gleiche Software...

Bei dir rennt vielleicht ein Virenscanner, oder auch nicht, etwas muss nicht indiziert werden, Windows meint halt irgendwas tolles machen zu müssen, oder eben auch nicht, die Daten liegen wo anders auf der Festplatte, die Festplatte dreht sich etwas schneller/langsamer, Sie muss etwas zweimal lesen oder oder oder.

Es gibt drölf Millionen Gründe, warum man nicht auf GENAU die gleichen Ergebnisse kommt, wenn man etwas nachstellt. Man hat immer Variationen drin... Deswegen sollte man auch benchmarks nicht quer direkt vergleichen...

Ich denke nicht, dass man bei dem Test etwas falsch machen kann, vermutlich liegt es echt nur an der Spielversion. Sobald mein NSR-Key da ist, benche ich's nochmal. :) Derweil kann ich nur sagen: In der PCGH-Szene für Far Cry 3 schneiden die Nvidia-Karten stand vorletzter Woche prozentual besser ab als in Blood Dragon.

MfG,
Raff
Ich versteh wirklich nicht, warum Leute euch so von der Seite anmachen. Ich bewundere echt, wie ruhig du dabei bleibst.

Undertaker
2013-05-01, 14:56:07
Geht das bitte auch in einem sachlicheren Umgangston, ohne das man den anderen persönlich angreift? :)

Aufgeräumt.

Hübie
2013-05-01, 14:58:37
Ich würde euch alle gerne mal beim Blindflug testen. Mal sehen wie hoch dann die Trefferquote ist. Erst danach kann man weiter diskutieren. Sonst ist das doch hier echter bullshit.
Warum kauft sich jemand AMD? Weil er damit zufriedener ist = Fanboy. Warum kauft sich jemand nVidia? Weil er damit zufriedener ist = Fanboy. Wo ist das Problem? Dem einen fällt banding mehr auf als flimmern, weil er darauf achtet, dem anderen flimmern statt banding weil er darauf achtet. Das ihr immer noch die Musse habt tagtäglich eure Produktkaufentscheidung zu rechtfertigen find ich beinahe schon erschreckend.

@Raff: Was sagt denn der Energieverbrauchsmesser bei GCN- und Vishera-OC? ;D

Skysnake
2013-05-01, 15:03:51
Hübie spricht mir aus der Seele.

@Raff:
Könntet ihr nicht mal nen Doppeltblindtest mit AMD und nVidia organisieren, bei dem ihr ~20 Leute einladet zu euch in die Redaktion, Fahrkosten von jedem selbst getragen z.B. Um mal wirklich die Sache auf ein halbwegs vernünftiges Fundament zu stellen?

Oder zumindest mal 20 Vergleichsvideos, wo ihr random die Abfolge der Videos mischt, und die Eingabe mit Skripten erledigt?

Dann entsprechend halt die Auswahlmöglichkeit, ob AMD oder nVidia, und ob besser als A, gleich oder schlechter.

Mich würde es wirklich überraschen, wenn man etwas anderes als eine statistische Verteilung erhalten würde.

boxleitnerb
2013-05-01, 15:11:25
-.-
Was erwartest du? Du hast weder die 100% gleiche Hardware, noch die gleiche Software...

Bei dir rennt vielleicht ein Virenscanner, oder auch nicht, etwas muss nicht indiziert werden, Windows meint halt irgendwas tolles machen zu müssen, oder eben auch nicht, die Daten liegen wo anders auf der Festplatte, die Festplatte dreht sich etwas schneller/langsamer, Sie muss etwas zweimal lesen oder oder oder.

Es gibt drölf Millionen Gründe, warum man nicht auf GENAU die gleichen Ergebnisse kommt, wenn man etwas nachstellt. Man hat immer Variationen drin... Deswegen sollte man auch benchmarks nicht quer direkt vergleichen...


Ach bitte...im GPU-Limit sind die Ergebnisse eigentlich immer reproduzierbar. Titan ist Titan, bei gleichem Takt. Da musst du dir jetzt nicht irgendwelche Sachen ausdenken, die irrelevant sind. Variationen ja, 1-2% wenn sonst alles gleich ist. Hättest du dir meine Zahlen aber überhaupt angeschaut, hättest du gesehen, dass der Unterschied bedeutend größer ist.

Ich sehe nur drei Möglichkeiten:
a) Spielversion
b) Performancebug mit dem 320.00 beta
c) Der angesprochene Einstellungsbug bzgl. Ambient Occlusion

aufkrawall
2013-05-01, 15:20:14
Ich würde euch alle gerne mal beim Blindflug testen. Mal sehen wie hoch dann die Trefferquote ist.
Können wir gerne machen, am besten mit Geldeinsätzen.

Hübie
2013-05-01, 16:18:38
Dir glaub ich das sogar aber vielen anderen nicht ;)

Knuddelbearli
2013-05-01, 16:19:29
Ich würde euch alle gerne mal beim Blindflug testen. Mal sehen wie hoch dann die Trefferquote ist. Erst danach kann man weiter diskutieren. Sonst ist das doch hier echter bullshit.
Warum kauft sich jemand AMD? Weil er damit zufriedener ist = Fanboy. Warum kauft sich jemand nVidia? Weil er damit zufriedener ist = Fanboy. Wo ist das Problem? Dem einen fällt banding mehr auf als flimmern, weil er darauf achtet, dem anderen flimmern statt banding weil er darauf achtet. Das ihr immer noch die Musse habt tagtäglich eure Produktkaufentscheidung zu rechtfertigen find ich beinahe schon erschreckend.


und was bin ich der fast jedesmal wechselt? ^^

ATI Rage 128
Ti 4200
GF 8800 ( da gabs halt keine alternative bei AMD und es musste endlich was neues her ^^)
HD 5850
HD 5870 ( Ersatz da 5850 defekt und ich ne wakü habe und der selbe kühler auf 50 und 70 passt )
GTX 480
HD 8950? ( kommt drauf an obs nen negativen Boost geben wird mit dynamischer Spannung da ich viel oldis spiele )

Hübie
2013-05-01, 16:30:22
Mal Fanboy von der einen Serie mal von der anderen. Man ist immer fanboy von der Sache mit der man zufrieden ist. Fantastisch wirds erst dann wenn manche versuchen negative Kritikpunkte zu relativieren (mal als Beispiel der Energiebedarf von meinen Fermis - der ist einfach scheiße). AMD hats besser hinbekommen. Mittlerweile hat wieder nVidia mit Kepler das bessere Perf / mm²-Verhätlnis. Fertig. Das sind dann aber keine Pfänbois sondern Tr0lls. Oder nicht? ;)

Knuddelbearli
2013-05-01, 17:27:14
wenn ich zufrieden wäre würde ich ja nicht immer wechseln ^^
Zumindest mir fehlt leider immer genau das was ich nicht habe XD

samm
2013-05-02, 20:46:25
Zumindest mir fehlt leider immer genau das was ich nicht habe XDEin Konsument, wie ihn sich jedes Unternehmen nur wünschen kann ;)
Ich würde euch alle gerne mal beim Blindflug testen.Gibt es nicht sowas wie eine "Cloud-Blindtest-Plattform"? ;) Ich wäre jedenfalls dabei :) Spannender wäre es aber dann mit diesem Frame-Pacing für Crossfire vs. SLi, Geht halt noch ne Weile bis nicht mehr Alpha. Zumal SGPU-Stuttering ja (seit FCAT nachweislich xD) nur in Ausnahmefällen übel ist - bei beiden GPU-Herstellern - und je nach Schluckauf der Engines...

john carmack
2013-05-17, 13:42:31
Hi,

will jetzt nicht unbedingt nen neuen Thread öffnen für die Frage hier...

Reicht ein
"be quiet! Dark Power Pro P10 550W"
für
i5-3570k + 7970Ghz Edition?

Würde auch gerne nach Möglichkeiten per LuftKühlung OC´n

dildo4u
2013-05-17, 13:51:25
Dicke.

Knuddelbearli
2013-05-17, 14:42:52
ohne extrem oc lockerst

Coda
2013-05-17, 14:48:11
Für dich vielleicht... :cool:
Ich hab's jetzt schon hundertmal geschrieben, es gibt keine "Winkelabhängigkeit" in NVIDIAs Filter die man irgendwie sehen könnte.

Das siehst du nichtmal im Extremfall mit absolut rundem Tunnel wenn du keine gefärbten Mips hast. Hör endlich auf den Müll zu verbreiten.

fondness
2013-05-17, 14:51:38
Ich hab's jetzt schon hundertmal geschrieben, es gibt keine "Winkelabhängigkeit" in NVIDIAs Filter die man irgendwie sehen könnte.

Das siehst du nichtmal im Extremfall mit absolut rundem Tunnel wenn du keine gefärbten Mips hast. Hör endlich auf den Müll zu verbreiten.

Das ändert auch nichts daran das sich NV damit Transistoren und auch ein bisschen Leistung spart. Wenn man hier schon auf jeder Kleinigkeit herum reitet ist das genau so erwähnenswert.

Hübie
2013-05-17, 14:54:46
Oh man jetzt geht das schon wieder los :facepalm: Dann kramt doch bitte konkrete Beweise heraus.
Und wenn ich mit weniger gleich viel oder mehr als die Konkurrenz erreiche nennt sich das Effizienz.

fondness
2013-05-17, 15:00:39
Oh man jetzt geht das schon wieder los :facepalm: Dann kramt doch bitte konkrete Beweise heraus.
Und wenn ich mit weniger gleich viel oder mehr als die Konkurrenz erreiche nennt sich das Effizienz.

Von was redest du bitte? Beweise gibt es mehr als genug. Die Winkelabhängigkeit bei 45° ist Faktum, das man sie in der Praxis ohne Einfärbung nicht sieht ist ein anderes Thema.

Aber um Gottes Willen sowas darf man natürlich auf keinen Fall erwähnen, darauf steht die Kreuzigung durch NV-Fanboys. :rolleyes:

aufkrawall
2013-05-17, 15:06:28
Erwähnen darf man es natürlich schon, es ist nur kein Argument für irgendwas.
Nvidias HQ Filterung braucht trotz besserem Ergebnis übrigens weniger Leistung als AMD HQ. ;)

Angiesan
2013-05-17, 16:37:04
Oh man jetzt geht das schon wieder los :facepalm: Dann kramt doch bitte konkrete Beweise heraus.
Und wenn ich mit weniger gleich viel oder mehr als die Konkurrenz erreiche nennt sich das Effizienz.
Aber nur wenn die Grafikkarte Grün ist, wenn sie rot ist ist es gecheate:freak:

aufkrawall
2013-05-17, 16:42:19
Aber nur wenn die Grafikkarte Grün ist, wenn sie rot ist ist es gecheate:freak:
Nicht unbedingt Gecheate, gerne auch einfach Unfähigkeit.
Das war beim AF-Bug so und es ist beim AA-Bug so, über viele Jahre hinweg.

Raff
2013-05-17, 16:59:40
Welche Bugs meinst du jetzt? :| Flimmer-AF bis inklusive Cayman und ... ?

MfG,
Raff

fondness
2013-05-17, 17:06:22
Don't feed the Troll.

Ronny145
2013-05-17, 17:11:04
Nvidias HQ Filterung braucht trotz besserem Ergebnis übrigens weniger Leistung als AMD HQ. ;)


Gibt es da einen Test? Ich messe zwischen Q und HQ 5% Unterschied auf meiner GTX660 Ti in pCARS.

aufkrawall
2013-05-17, 17:20:49
Welche Bugs meinst du jetzt? :| Flimmer-AF bis inklusive Cayman und ... ?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9441237&postcount=223
Sorry, aber dass ihr Journalisten so was nicht merkt, ist echt arm.
Diese dort abgebildete Schwäche ist bei allen Spielen im Thread zu beobachten.
fondness oder schaffe brauchen auch gar nicht blöd rumätzen, langenscheiss ist haargenau der gleiche Fehler aufgefallen (und Tesseract, Coda, Gipsel...).

Nicht dass der Eindruck aufkäme, ich wollte AMD bashen: Das mit der versaubeutelten LOD-Verschiebung bei Nvidia & DX9 hättet ihr auch bringen sollen.
Zum Glück hat Nvidia sich die Userreports zu Herzen genommen und das gefixt...

Gibt es da einen Test? Ich messe zwischen Q und HQ 5% Unterschied auf meiner GTX660 Ti in pCARS.
Ich kenne keinen Test außer Usertests.
Hatte mal Godmode gebeten, mit einer Titan bei Heaven oder Valley Q mit HQ zu vergleichen. Da waren es ~0% Unterschied.
Ich hatte es damals mit einer 7970 und der HL2-Schienenszene gebencht, da waren es ~10% Unterschied. Raff erwähnte auch mal, dass HQ bei AMD teurer ist als bei NV.

Mr. Lolman
2013-05-17, 17:32:36
Hatte mal Godmode gebeten, mit einer Titan bei Heaven oder Valley Q mit HQ zu vergleichen. Da waren es ~0% Unterschied.
Ich hatte es damals mit einer 7970 und der HL2-Schienenszene gebencht, da waren es ~10% Unterschied. Raff erwähnte auch mal, dass HQ bei AMD teurer ist als bei NV.
Heaven und Valley sind shaderlimitert. Bei HL2 limitiert hingegen die Texelleistung.

Raff
2013-05-17, 17:38:51
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9441237&postcount=223
Sorry, aber dass ihr Journalisten so was nicht merkt, ist echt arm.
Diese dort abgebildete Schwäche ist bei allen Spielen im Thread zu beobachten.
fondness oder schaffe brauchen auch gar nicht blöd rumätzen, langenscheiss ist haargenau der gleiche Fehler aufgefallen (und Tesseract, Coda, Gipsel...).

Nicht dass der Eindruck aufkäme, ich wollte AMD bashen: Das mit der versaubeutelten LOD-Verschiebung bei Nvidia & DX9 hättet ihr auch bringen sollen.
Zum Glück hat Nvidia sich die Userreports zu Herzen genommen und das gefixt...

Ich bleibe dabei: Das sind Dinge, die in der Praxis kein Schwein sieht/sah.

Ich kenne keinen Test außer Usertests.
Hatte mal Godmode gebeten, mit einer Titan bei Heaven oder Valley Q mit HQ zu vergleichen. Da waren es ~0% Unterschied.
Ich hatte es damals mit einer 7970 und der HL2-Schienenszene gebencht, da waren es ~10% Unterschied. Raff erwähnte auch mal, dass HQ bei AMD teurer ist als bei NV.

Das steht in jeder dritten PCGH irgendwo, in der kommenden 07 im Rahmen eines SGSSAA-Tests. ;)

MfG,
Raff

aufkrawall
2013-05-17, 17:39:57
Heaven und Valley sind shaderlimitert. Bei HL2 limitiert hingegen die Texelleistung.
Ja, wird so sein. Ich wollte auch nicht sagen, dass HQ bei NV 0% kostet.
Ronny hat ja schon 5% gemessen. Edit 3: Bei der Schienenszene hatte es jedenfalls keine 10% gekostet.

Meine HL2 Version will gerade irgendwie nicht, sonst hätt ichs schon erneut getestet.
Das Spiel lag damals bei meiner Radeon 9xxx bei und na ja...

Edit: @Raff: Dann seid ihr halt für BQ-Vergleiche unqualifiziert. Schade. Bleibt halt alles an den Usern hängen.
Bei einer Petition für DX11 AA-Bits ist von euch wohl auch keine Unterstützung zu erwarten?

Edit 2: Laut deiner Definition würde das Bri-AF bei Nvidia Q auch kein Schwein sehen.
Ja ja...

Match-Maker
2013-05-17, 18:24:33
Ich bleibe dabei: Das sind Dinge, die in der Praxis kein Schwein sieht/sah.

MfG,
Raff
Ja, natürlich fällt sowas den meisten nicht direkt auf, aber solange man es sieht, sollte dem auch Beachtung geschenkt werden.
Und wozu wurde dann jahrelang die Flimmer-AF Diskussion geführt? Gibt ja auch Leute, die sowas nicht stört (den 08/15 DAU z.B.).
Ich würde sagen: Entweder richtig oder gar nicht ;)

Angiesan
2013-05-17, 18:50:39
Ja das ist richtig, bei den AMD´s ist das von Spiel zu Spiel aber unterschiedlich und ab und an habe ich es nicht gemerkt und dann hat es wieder richtig Leistung gekostet, am Schluss habe ich entschieden Treiber-Default zu verwenden da das auch am wenigsten Probleme bereitet, und wirklich nicht schlecht aussieht. Bei meiner 690er wähle ich aber immer HQ da sieht man relativ oft den Unterschied durch Banding, was man bei AMD jetzt überhaupt nicht hat, oder mir zumindest nicht aufgefallen ist mit Q.
Dafür Kostet das HQ bei NV aber auch fast keine Leistung und sieht immer gut aus, zumindest habe ich noch kein Spiel gefunden wo mir da was negativ aufgefallen wäre.

Wenn man mich auf die Probe stellen würde bin ich mir nicht sicher ob ich einen Unterschied sehen würde bei AMD, im Gegenteil bei Rage und Far Cry3 sieht Q meiner Meinung nach besser aus wie HQ auf der 7950:confused:warum auch immer?

Aber um das auch mal gesagt zu haben es gibt definitiv einen Unterschied zwischen AMD und NV sowohl beide auf Q wie auch beide auf HQ das ist nicht bei jedem Spiel ersichtlich aber irgendwas machen die unterschiedlich und ab und an sieht man das auch recht gut. Gerade die etwas neueren Spiele zeigen hier zum Teil deutliche Unterschiede Far Cry z.B der Strand sieht definitiv besser aus auf AMD und es werden deutlich mehr Details gezeigt so kleine Unebenheiten die bei NV mehr verschluckt werden, dafür flimmert das Wasser bei AMD je nach Blickwinkel wie blöde, was jetzt richtig ist Anzeige technisch kann ich nicht sagen. Wenn ich wählen dürfte würde ich sagen bitte die Darstellung des Strandes von AMd und die des Wassers von NV:freak::biggrin:

gedi
2013-05-17, 23:48:47
Bau halt ne 7990 zusätzlich für den Strand ein - Problem gelöst ;D

aufkrawall
2013-05-24, 14:48:19
Ja, wird so sein. Ich wollte auch nicht sagen, dass HQ bei NV 0% kostet.
Ronny hat ja schon 5% gemessen. Edit 3: Bei der Schienenszene hatte es jedenfalls keine 10% gekostet.

Habe es erneut gebencht:
Schienenszene, 670 OC, 1280x1024, 32xSSAA
Q: 97fps
HQ: 95fps

dildo4u
2013-06-18, 19:59:35
All Frostbite 3 Titles to Ship Optimized Exclusively for AMD

http://www.ign.com/articles/2013/06/18/all-frostbite-3-titles-to-ship-optimized-exclusively-for-amd

Knuddelbearli
2013-06-18, 20:02:16
ist das nur eine Vermutung das es nur gpu optimiert sein soll oder wird es auch cpu Optimierung geben? vor allem fürs Modulkonzept und FMA usw

wenn sie schon zusammenarbeiten wären sie doch eigentlich dumm das nicht auch für die cpu zu nutzen.

Wobei bei AMD weiss man ja nie ^^

dildo4u
2013-06-18, 20:05:56
Glaube nicht das man was spezielles was für AMD CPU's optimiert bis auf das die Engine besser mit Kernen skaliert,was Intel's mit SMT ja auch hilft.

dargo
2013-06-18, 20:20:23
Mich würde mal interessieren was die mit den Optimierungen genau meinen? AMD freundliche Tessellation und jede Menge Direct Compute Zeugs? :biggrin:

aufkrawall
2013-06-18, 20:27:53
Das ist das Problem bei so nem Heißluft-Artikel, erst recht ohne Quellenangabe.

dargo
2013-06-18, 20:35:47
Naja... so unlogisch klingt das aber nun auch nicht. Beide Konsolen AMD Hardware, ein X Prozentsatz AMD Hardware am PC. Das werden sicherlich keine Welten sein, ich könnte mir aber durchaus vorstellen, dass zb. eine 7970GE immer öfter an die Leistung einer Geforce Titan herankommt.

dildo4u
2013-06-18, 20:44:37
AMD wird wohl eher die Games früher bekommen und damit ein Vorteil haben,hindert NV nicht daran die selbe Treiberarbeit zu machen.Zu Shaderlastig kann es eh nich werden,da die Xbox immer den kleinsten Nenner mit der 1.3TFlop GPU vorgibt.Wie letzte Gen wird kaum ein Entwickler extra Geld ausgeben um Effekte speziell für die PC Version zu basteln.

dargo
2013-06-18, 20:46:47
Zu Shaderlastig kann es eh nich werden,da die Xbox immer den kleinsten Nenner mit der 1.3TFlop GPU vorgibt.
Naja... schau dir mal die aktuellen Games an und wo die aktuelle Konsolen-Gen steht. Wenn es danach ginge hätten wir am PC noch Konsolengrafik.

Wie letzte Gen wird kaum ein Entwickler extra Geld ausgeben um Effekte speziell für die PC Version zu basteln.
Also wird die PS4-Version exakt wie die XBox-Version aussehen?

dildo4u
2013-06-18, 21:03:19
Also wird die PS4-Version exakt wie die XBox-Version aussehen?
Auflösung/fps könnten sich unterscheiden,wie es schon bei der PS3/360 der Fall war nur das der Power Abstand diesmal größer ist.Z.b könnte die PS4 Version in 1080p laufen und die Xbox 1600*900 skaliert auf 1080p.Im Prinzip umgedreht wie es letzte Gen der Fall war,wo die 360 oft 720p hatte und die PS3 leicht dadrunter lag.

fondness
2013-06-18, 21:17:46
Das ganze ist nicht mehr wirklich ein Geheimnis, selbiges kam von AMD zur E3:

Today we're proud to announce that Battlefield 4 will be exclusively optimized for AMD Radeon GPUs, AMD A-Series APUs and AMD FX CPUs! AMD, EA and Dice have collaborated to ensure Frostbite 3-based titles like Battlefield 4 look and run their best on AMD hardware. If you’re at E3, you could be one of the first to try Battlefield 4 multiplayer on the AMD-powered systems at EA’s booth in the South Hall!

dargo
2013-06-18, 21:24:09
Auflösung/fps könnten sich unterscheiden,wie es schon bei der PS3/360 der Fall war nur das der Power Abstand diesmal größer ist.Z.b könnte die PS4 Version in 1080p laufen und die Xbox 1600*900 skaliert auf 1080p.Im Prinzip umgedreht wie es letzte Gen der Fall war,wo die 360 oft 720p hatte und die PS3 leicht dadrunter lag.
Ich denke auch, dass sich die ersten Ports weder zwischen den Konsolen noch dem PC großartig optisch unterscheiden werden. Aber einen Unterschied sehe ich... man wird am PC sich nicht mehr mit zwei Renderpfaden rumärgern müssen wie damals wo die ersten DX10 Karten kamen. Ich glaube nämlich kaum, dass die Entwickler diesmal einen Fallback zu DX10 machen werden (Ausnahmen bestätigen die Regel) und man sich deshalb voll auf DX11 konzentrieren kann. Wer weiß... durch den geringeren Aufwand bekommt eventuell der PC hier und da eine extra Wurst. Von DX12 hört man nämlich noch gar nichts.

Knuddelbearli
2013-06-18, 21:30:37
anja die meisten spiele kommen ja erstmal auch noch für last gen also dx9c

Hübie
2013-06-18, 21:35:11
Huhu. Ein paar Fragen an die Sachkundigen:

Kann mir mal bitte jemand kurz und bündig sagen ob die alten Tahiti einen voltage-lock haben und / oder auch die "neuen" (GHE). Wenn ja welche sind dennoch befreit und woran könnte man das erkennen?
Zweite Frage: welche ist die leiseste out of the box? Ich hörte von Sapphires Vapor-X 7970 GHE (http://geizhals.de/sapphire-vapor-x-radeon-hd-7970-ghz-edition-11197-12-40g-a804863.html) Bestnoten. Wie sieht das mit der Zirp-Problematik aus im allgemeinen aus?
Dritte: Welche Spiele gehen auf AMD nicht mit SSAA die jedoch bei nVidia mit SSAA arbeiten?
Vierte: Gibt es mittlerweile einen gratis-framelimiter (nein kein ENB!)?

Daaankö

dargo
2013-06-18, 21:41:33
anja die meisten spiele kommen ja erstmal auch noch für last gen also dx9c
Ich spreche hier ausschließlich von den Ports der neuen Konsolen. Da wird es mit ziemlicher Sicherheit keinen DX9 Renderpfad mehr geben. Ich gehe sogar davon aus, dass kaum DX10 vorkommen wird.

Knuddelbearli
2013-06-18, 21:48:33
wie gesagt die meisten bisher angekündigten spiele kommen auch noch auf der alten konsole

Raff
2013-06-18, 21:52:06
Vierte: Gibt es mittlerweile einen gratis-framelimiter (nein kein ENB!)?

Daaankö

Da mir gerade zu heiß ist: nur eine Antwort. ;)

Mit dem Tool RadeonPro kann man alles einstellen, was das Her(t)z begehrt.

MfG,
Raff

dargo
2013-06-18, 21:53:41
wie gesagt die meisten bisher angekündigten spiele kommen auch noch auf der alten konsole
Ja und?

Hast du bei BF3 oder Crysis 3 einen DX9 Renderpfad gesehen? Ich nicht. Den Aufwand spart man sich aus gutem Grund.

dargo
2013-06-18, 21:56:18
Da mir gerade zu heiß ist: nur eine Antwort. ;)

Mit dem Tool RadeonPro kann man alles einstellen, was das Her(t)z begehrt.

MfG,
Raff
Dann entlaste ich dich etwas vom Schwitzen. :D

@Hübie
Mit Dxtory gehts auch. Nutze ich schon seit langem. 70-80fps festtackern und jut ist.

Hübie
2013-06-18, 22:26:06
Dxtory ist nicht gratis und somit wieder raus. Davon wusste ich ;)

Was ist meinen anderen Fragen?

DoomGuy
2013-06-18, 22:28:03
Eine Sperre für die VCore gibt es an sich nicht bzw. lässt sich das mit nem anderen Bios umgehen (bei den Karten von Asus war das glaub so). Das einzige Problem, was man haben kann ist, dass der Spannungsregler nicht per Software steuerbar ist (z.B. ADP4100) also gezielt eine mit CHiL-Chip kaufen.Ich kann dir zwar keine leise Karte nennen aber dafür von den GB abraten (adp und der dreifach-Propeller ist recht laut, wenn man ihn nicht manuell auf 40% nagelt, was im Sommer vielleicht nicht so gut ist)

Gruß

Hübie
2013-06-18, 22:30:39
Okay das bringt mich schon mal ein Stück weiter.
Gibt es eine Liste mit Karten welche den CHiL-Chip drauf haben?

DoomGuy
2013-06-18, 22:35:16
Leider ist mir das nicht bekannt. Viele Karten werden aus Kostengründen (?) inzwischen mit dem ADP bestückt. die VTX3D Radeon HD 7970 X-Edition hat aber mit hoher Wahrscheinlichkeit nen CHiL.

HarryHirsch
2013-06-18, 22:38:32
Huhu. Ein paar Fragen an die Sachkundigen:

Kann mir mal bitte jemand kurz und bündig sagen ob die alten Tahiti einen voltage-lock haben und / oder auch die "neuen" (GHE). Wenn ja welche sind dennoch befreit und woran könnte man das erkennen?
Zweite Frage: welche ist die leiseste out of the box? Ich hörte von Sapphires Vapor-X 7970 GHE (http://geizhals.de/sapphire-vapor-x-radeon-hd-7970-ghz-edition-11197-12-40g-a804863.html) Bestnoten. Wie sieht das mit der Zirp-Problematik aus im allgemeinen aus?
Dritte: Welche Spiele gehen auf AMD nicht mit SSAA die jedoch bei nVidia mit SSAA arbeiten?
Vierte: Gibt es mittlerweile einen gratis-framelimiter (nein kein ENB!)?

Daaankö

Ja haben sie bei 1.3 Volt. Lässt sich aber, wie gesagt, mit einem Asus Bios umgehen.

DoomGuy
2013-06-18, 22:41:21
wenn der Controller mitspielt ;)

edit: Zirpen scheint ein Glücksspiel zu sein. Meine MSI wurde nach nem NT-Wechsel und Umbau auf WaKü zur Rattlesnake. Extrem hörbar aus nem gedämmten Gehäuse :(

HarryHirsch
2013-06-18, 22:47:05
Dann kauft man halt eine non-GHz mit AMD-PCB. ;)

edit:

Ja, das "Zirpen" soll extrem vom Netzteil abhängen. (Mit Seasonic hatte ich noch nie solche Probleme)

DoomGuy
2013-06-18, 22:59:38
Es tat mir in den Augen weh, dass die 12V Leitung auf 11,90V eingeknickt ist und da habe ich mir ein Cougar 800W als Ersatz für mein (schon einmal in der RMA gewesenes) OCZ 600W zugelegt. Ergebnis war ernüchternd: stabile 12.1V aber dafür dieses furchtbare Geräusch. Vielleicht liegt es am Cougar, vielleicht hat die Karte aber auch schon vorher gerasselt und wurde nur vom eigenen Lüfter übertönt... k.A.

Hübie
2013-06-19, 00:54:53
Okay. Ein paar Fragen geklärt und ein paar sind noch offen. Bisher siehts nicht gut für ne Radeon aus.

HarryHirsch
2013-06-19, 01:08:03
Zu 2, keine Ahnung.
Zu 3: Überall wo MSAA geht geht auch SGSSAA. Bei speziellen Engines wie z.B. von StarCraft braucht es ein Profil.
Dann läuft es auch da.

Hübie
2013-06-19, 01:10:19
Schade. Noch ein negativer Punkt. Okay. Radeon ist wohl raus :(

HarryHirsch
2013-06-19, 01:15:15
Viel Spaß mit deiner Nv. ;)

Hübie
2013-06-19, 01:15:45
Witzbold. Die sind schweine-teuer. :(

HarryHirsch
2013-06-19, 01:19:44
Frauchen? Kinder? Selbst schuld. :tongue:

Hübie
2013-06-19, 01:36:20
:tongue: Erfasst. Na vielleicht hol ich mir mal zwei und teste. Dann kann man vielleicht objektiver entscheiden.