PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 480: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24

Fliwatut
2016-07-07, 09:37:25
Es ist schon erschreckend, wieviel mehr Karten bei NV trotz dem vielfach höheren Preis verkauft werden.
Deutschland ist nunmal ein sehr reiches Land, in den USA scheinen sich 1070/80 auch besser zu verkaufen. In GB sieht das wohl anders aus, dort scheint die RX 480 besser zu laufen. Richtig Masse dürfte die 480 in Asien und in den OEM-Geräten machen.

MikePayne
2016-07-07, 09:38:14
Gibts denn echt keine gescheiten Verbrauchsmessungen einer undervolteten Stock und OC Karte? Und nein ich will keine Steckdosenmessungen. :freak:

Hier gibts Leute die die GPU @ Stock mit 1,0V betreiben können und ich bin mir sicher der Speicher @ Stock geht unter 1,0. Mich würd es echt mal interessieren was man da einsparen kann...

PCGHs 4GB Sample würde sich sicher gut eignen... Auch als Vergleich vor und nach 8 GB Flash.

Meine GPU (ASIC: 82.7%) kriege ich auf 1035mV runter. DOOM, Tomb Raider & Dirt laufen super mit 1440p (VSR).

Den Speicher kann ich auch auf 2100 MHz übertakten, aber dies sorgt für allgemein weniger FPS bzw Punkte in 3dmark, daher wieder 2000 MHz Speichertakt.

Für 250€ einfach super, den 1060er Quatsch mit 3 oder 6 GB mit geplanter Obsoleszenz braucht doch keiner ;)

dildo4u
2016-07-07, 09:39:06
Ich hoffe euch ist bewusst, dass diese herangehensweise bei AMD nicht optimal ist. Ein schlechtes Testsample wie bei der RX 480 geschehen, und ihr ordnet die Karte pauschal zu niedrig ein. Bei NV hingegen vertraut ihr auf eine Herstellerangabe.
Er hat doch geschrieben das NV Angabe gegengetestet wird,sie verlassen sich also nicht auf NV's Aussage.Die 480 ist ein Sonderfall da sie Specs überschreitet normal sind AMD's so ausgelegt,das die Stromversorgung massig Luft nach oben hat.PCGH kann nix für AMD's Fuckup.

Screemer
2016-07-07, 09:39:27
btw. der videotrend ist scheiße.

Complicated
2016-07-07, 09:39:55
Ich höre immer nur "macht's anders" – ja wie denn?
Testet die Herstellerangaben. Nicht einfach übernehmen. Besonderst bei Nvidia die ja ein ganz besonderes Verhältnis zur Presse haben, sollte das ja kein Problem sein.

Dass man einem Tester sagen muss, dass er alle gleich behandeln soll ist schon sehr fragwürdig.

Macht ihr das bei CPUs mit Turbo auch so? Und wenn nicht warum nicht? Und wenn ja Warum? Bedenklich ist hier schon die Schnapsidee der Testmethodik.

Ätznatron
2016-07-07, 09:40:46
Argh, niemand hier kann lesen (wer's doch kann, fühlt sich bitte nicht angesprochen :D). Erschreckende Statistik. :( Wie gut, dass Videos die Zukunft sind.

MfG,
Raff

Zitat Raff:

Oft sind die Angaben deckungsgleich genug, um ruhigen Gewissens mit dem typischen Boost zu messen.

btw. der videotrend ist schieße.

Ja, bin auch kein Freund davon.

Complicated
2016-07-07, 09:41:16
PCGH kann nix für AMD's Fuckup.Nur ist der Fuckup hier die Testmethode von PCGH. Warum soll das AMDs Fuckup sein?

Schaffe89
2016-07-07, 09:41:40
Deutschland ist nunmal ein sehr reiches Land, in den USA scheinen sich 1070/80 auch besser zu verkaufen. In GB sieht das wohl anders aus, dort scheint die RX 480 besser zu laufen. Richtig Masse dürfte die 480 in Asien und in den OEM-Geräten machen.

Ich sehe da eher wenig Chancen bei den OEM´s sich gegenüber einer GTX 1060 durchzusetzen, da kommt erstmal der Nividia Bonus und dann kommt das, dass die 1060 einfach die bessere Karte sein wird.

Wenn AMD die Karte gut bei OEM´s verkaufen will, dann müsste die mal eben 40 Watt weniger ziehen und innerhalb der Spezifikationen laufen, so ist das bisher alles für OEM`s ziemlich ungünstig.

Testet die Herstellerangaben. Nicht einfach übernehmen. Besonderst bei Nvidia die ja ein ganz besonderes Verhältnis zur Presse haben, sollte das ja kein Problem sein.

Dass man einem Tester sagen muss, dass er alle gleich behandeln soll ist schon sehr fragwürdig.

Jetzt bin ich schon der Verschwörungsonkel was die PCGH in AMD Benachteiligung angeht, aber ihr checkt es nicht.
Die PCGH macht ne gute Arbeit und sie checken das doch gegen, da wird gar nix einfach übernommen...:upicard:

Raff
2016-07-07, 09:42:46
Und jetzt bedenkt noch, dass jede Karte ein Unikat ist. Und dass jeder Mittelwert ein ... Mittelwert ist. Dass jeder Index ein Mittelwert ist. Das sind alles Glättungen, um Ausreißern nicht zu viel Gewicht einzuräumen. Je mehr Proben, desto genauer wird der Mittelwert.

MfG,
Raff

Complicated
2016-07-07, 09:42:51
Argh, niemand hier kann lesen (wer's doch kann, fühlt sich bitte nicht angesprochen :D). Erschreckende Statistik. :( Wie gut, dass Videos die Zukunft sind.Das Problem ist vielleicht, dass die Leute zu gut zwischen den Zeilen lesen können. Was du da zum besten gibst über eure Testmethode ist äusserst alarmierend.

Complicated
2016-07-07, 09:44:26
Und jetzt bedenkt noch, dass jede Karte ein Unikat ist. Und dass jeder Mittelwert ein ... Mittelwert ist. Dass jeder Index ein Mittelwert ist. Das sind alles Glättungen, um Ausreißern nicht zu viel Gewicht einzuräumen. Je mehr Proben, desto genauer wird der Mittelwert.
Ja und die Unterschiede zwischen Realer Leistung und euren Tests sind dann Rundungsfehler aus 3 mal Mittelwert.

Macht ihr das auch bei CPUs?

Screemer
2016-07-07, 09:44:32
Testet die Herstellerangaben. Nicht einfach übernehmen. Besonderst bei Nvidia die ja ein ganz besonderes Verhältnis zur Presse haben, sollte das ja kein Problem sein.

das tun sie nicht. sie vergleichen den durchschnittstakt über 20 spiele und wenn der mit dem angegebenen boost übereinstimmt, dann wird dieser genommen. ist er niedriger, dann eben dieser. verstanden?

wie gesagt halte ich das aber auch für ungut. aufheizphasen gibt es in spielen auch immer. nicht jede szene beansprucht die karte gleich stark. da springen eben dann nach einer schwachen szene mehr fps raus, als wenn die karte dauernd dauerlast fährt. ist die kühlung gut kommt es dann eben öfter zu diesen peaks, denn der turbo kann öfter greifen. imho sollten die karten so getestet werden wie sie kommen. feddisch.

Complicated
2016-07-07, 09:47:21
Die PCGH macht ne gute Arbeit und sie checken das doch gegen, da wird gar nix einfach übernommen...:upicard:Nein aber der Turbo deaktiviert und ein fester Takt für alle Spiele festgesetzt. Das nennst du gut? Ich nenne das misserabel und verfälschend. Bei CPUs würde keiner auf eine solche Schnapsidee kommen.

Nicht weil sie absichtlich AMD benachteiligen, also nix Verschwörungstheorie. Einfach schlechte Entscheidung für einen Testaufbau.

Screemer
2016-07-07, 09:50:30
Einfach schlechte Entscheidung für einen Testaufbau.
das würde ich so unterschreiben. für was haben die hersteller denn die boost funktionen eingeführt, wenn die auswirkungen nicht in den tests wiederzufinden sind. wen das jetzt bevor- oder benachteiligt ist völlig wurscht.

würde man das bei cpu-tests machen, dann würden sich die leute krümmen vor lachen. ich teste über 20 testszenen wie der turbo im schnitt ist, dann tackere ich den takt dort fest und mache meine benches. seriously :ugly:

Ätznatron
2016-07-07, 09:50:54
Ich hätte einen anderen Vorschlag: Hört einfach damit auf, bei der PCGH Verschwörungstheorien gegen AMD zu suchen. Es ist einfach Unsinn. Mich wundert ehrlich gesagt, dass nach dem Nano-Hype der PCGH noch niemand "AMD-Fanboys!" gebrüllt hat. :ulol:

Hoffentlich kommt niemand auf die Idee, das jetzt als Ausgleich für den (angeblichen) Nano-Hype zu sehen. ;)

Fliwatut
2016-07-07, 09:51:02
Man steht also vor der Wahl weiter zu warten, oder mehr Geld auszugeben, als man eigentlich gewillt ist, oder weniger Performance zu bekommen, als man eigentlich für ein Upgrade eingeplant hat. :(
Du hast mein Dilemma voll auf den Punkt gebracht. Ich würde gerne 350,- € ausgeben, mit Zähneknirschen auch 400,- €, aber da gibt es momentan nix, was mich zufrieden stellt. Die Fury gab es mal kurz für 349,- €, da hab ich überlegt oder die 980, die haben aber nur 4GB Speicher, das ist mir zu wenig. Die R9 390X wäre noch eine Alternative, aber die ist halt schon ein "altes Eisen" mit 28nm und viel Stromverbrauch und Abwärme, eine gebrauchte 980ti wäre auch noch drin, aber da bin ich dann schon am äußersten Ende des Budgets.

Also warte ich weiter auf die Customs der 480, Wunder sollte man da aber auch nicht erwarten, durchgehend 980-Leistung auch unter DX11 wäre schon fein, dann schlag ich wohl zu. Ansonsten muss man mal sehen, was die 1060 kann.

Wenn das alles Mist ist, dann beiße ich in den sauren Apfel und kauf ich mir einen 1070, ich will einfach ausreichend Leistung für mindestens die nächsten 3 Jahre und ich möchte auch nicht mehr ewig warten.

Ich würde gerne ein AMD-Produkt kaufen, gerne auch die 480, weil Wettbewerb unglaublich wichtig ist, aber AMD muss liefern und das zieht sich irgendwie wie Kaugummi...

Schaffe89
2016-07-07, 09:51:45
So wie ich das verstehe geht es nur wieder um eine angebliche Benachteiligung von AMD, weniger um die Testmethodik.
Und so schlecht ist das Sample von AMD nicht mal, 1150mhz in der Praxis sind durchaus normal für den Chip.
Bei Computerbase sind die Taktraten vll 3% höher, das macht den Kohl auch nicht grade fett.

Nein aber der Turbo deaktiviert und ein fester Takt für alle Spiele festgesetzt. Das nennst du gut? Ich nenne das misserabel und verfälschend. Bei CPUs würde keiner auf eine solche Schnapsidee kommen.

Naja, sie werden sich dabei schon was gedacht haben, warum sie es so machen, du testest ja keine Grafikkarten und ich auch nicht, von daher wird das schon einen Grund haben.

Ätznatron
2016-07-07, 09:55:20
So wie ich das verstehe geht es nur wieder um eine angebliche Benachteiligung von AMD, weniger um die Testmethodik.
Und so schlecht ist das Sample von AMD nicht mal, 1150mhz in der Praxis sind durchaus normal für den Chip.

Wie es bei Anderen ist, weiss ich nicht, mir jedenfalls geht es nur um die unterschiedliche Methodik.

Screemer
2016-07-07, 09:59:28
amd hats mit den hohen spannungen und über 80°C doch eh wieder selber verkackt, dass der boost nicht gehalten wird. das futzelige stück alu/kupfer, welches die auf polaris geschnallt haben ist witzlos. das ding hat zwar für den anfang erst mal viel kapazität um die energie aufzunehmen. mit den paar finnen aber viel zu wenig fläche um die auch wieder abzugeben. billigste aftermarketkühler machen es teils massiv besser. für die basics reicht es und er hat dafür ne gute leistungscharakteristik. für mehr aber eben nicht. da hätte um einiges mehr raus kommen können, hätten sie mal nen 5er mehr in den kühler investiert.

Fliwatut
2016-07-07, 10:00:02
btw. der videotrend ist scheiße.
Allerdings. Ich verstehe aber gerade die Kritik an PCGH nicht, wo soll denn da der Unterschied in der Testmethodik sein? Alle Karten werden aufgeheizt und auch bei Nvidia werden die Herstellerangaben kontrolliert. Wenn es ein schlechtes Testsample gibt, ist das natürlich blöd gelaufen, eigentlich spricht das zwar für AMD, dass keine Samples hangepickt werden, birgt aber auch das Risiko nicht so gut abzuschneiden.

Schaffe89
2016-07-07, 10:01:08
ich teste über 20 testszenen wie der turbo im schnitt ist, dann tackere ich den takt dort fest und mache meine benches. seriously :ugly:

Ok du hast recht, das ist nicht wirklich eine gute Messmethodik.

da hätte um einiges mehr raus kommen können, hätten sie mal nen 5er mehr in den kühler investiert.

Naja, ich hab mir jetzt angewohnt meine Erwartungen bei AMD auf das absolute Minimum herabzusenken und selbst dann enttäuschen sie mich noch mit so Scherzen eine Karte zu liefern die bis zu 170 Watt zieht
aber eigentlich nur für 150 ausgelegt ist, sowas gabs bei so 0815 Karten eigentlich noch nie zuvor.

Hätte AMD einen bisschen besseren Kühler verbaut, oder den Launch 3 Wochen später nur mit Customdesigns veranstaltet, dann hätte man sich die ganzen Negativberichte sparen können.
Aber sie schaffen es immer wieder es maximal zu versauen.

Die GTX 1060 wird es als Referenzdesign in allen Punkten deutlich besser machen und das bleibt dann in den Köpfen der Menschen.
Ich hätte gedacht AMD hätte endlich mal ein bisschen was gelernt, aber das Unternehmen scheint von irgendwelchen dunklen Mächten verfolgt zu werden und immer versaut man es.

Der einzige reibungslose Launch war die r9 Nano und die Grenada Chips. Die R9 Nano kam dann heraus, "when its done", vielleicht sollte AMD endlich mal so arbeiten und nicht Termine auf Teufel komm raus Monate im Vorraus setzen.

Screemer
2016-07-07, 10:01:38
@fliwatut: weil es grundfeatures der karte deaktiviert, vielleicht? ich würds so nicht machen. die pcgh wird sich aber was dabei gedacht haben. verstehe nur nicht was.

j4l
2016-07-07, 10:02:08
Ich hätte einen anderen Vorschlag: Hört einfach damit auf, bei der PCGH Verschwörungstheorien gegen AMD zu suchen. Es ist einfach Unsinn. Mich wundert ehrlich gesagt, dass nach dem Nano-Hype der PCGH noch niemand "AMD-Fanboys!" gebrüllt hat. :ulol:

Davon ab habe ich ja oben schon gesagt, wie getestet wird: Da findet ein Vergleich zwischen offizieller Angabe und dem Ergebnis des einen vorliegenden Musters statt. :)

Zum qualitativen Unterschied der Samples AMD RX 480/8G vs. "Sapphire" RX 480/4G bitte dieses Video von Anfang bis Ende ansehen: https://www.youtube.com/watch?v=3mPpGzuBeko

Heute kommt hoffentlich der "Wundertreiber" und damit werden dann beide Karten neu indiziert.

MfG,
Raff

Es ist krass, was passiert, wenn die Spannung vom Speichercontroller auf Auto steht. Hat sich also bewahrheitet, was schon am Wochenende auf Reddit beschrieben wurde. Hast du mal ausprobiert, dass wenn du die Spannung des Controllers manuell auf den Default Wert von 1V stellst und den Rest auf Default lässt, ob die Karte dann schon den Boost halten kann, besonders euer 8GB sample?

Achja: Die 4GB ist inzwischen komplett raus aus dem Handel....

Disco_STFU
2016-07-07, 10:03:49
Wieso muss man denn überhaupt einen festen Wert einstellen und lässt die Karte nicht einfach so wie sie ist? :confused:

Screemer
2016-07-07, 10:07:34
Wieso muss man denn überhaupt einen festen Wert einstellen und lässt die Karte nicht einfach so wie sie ist? :confused:
das ist eben die frage.

@j4l: das würde mich auch interessieren. entweder gibts nen bug in wattman wenns um die speichercontrollerspannung geht oder die wird auf auto einfach zu hoch angesetzt und die karten bräuchten das nicht. raff hatte ja schon angemerkt, dass 1.05v bei ihrer 8gb karte nicht reichen. leider aber nichts zur controllerspannung gesagt.

Megamember
2016-07-07, 10:08:08
DAdurch das die 480 schon stock gnadenlos in ihr Powerlimit reinläuft und runtertaktet ist sehr unglücklich für Amd. Benches sollten generell mit erhöhtem Powerlimit durchgeführt werden.

scully1234
2016-07-07, 10:09:39
wo soll denn da der Unterschied in der Testmethodik sein? .

''Kritik'' at its best....=)

Wieso muss man denn überhaupt einen festen Wert einstellen und lässt die Karte nicht einfach so wie sie ist? :confused:


Wieso fragt ihre euch das erst jetzt und nicht schon bei den tausend Tests zuvor, wo komischerweise niemand Anstoss genommen hat daran?:freak:

mkh79
2016-07-07, 10:10:52
die karten einfach so zu lassen wie sie sind, scheint ja schwer zu sein. natürlich hat man dann eine streuung je nach dem wie gut oder schlecht das sample ist. es aber "künstlich" einzubremsen, nicht anderes ist das festtackern auf einen takt für mich, ist doch mehr als banane. nicht jedes spiel lastet jede karte gleich aus, nicht jede karte hat die gleichen charakteristika was den boost angeht. karte rein, game an und gut ist. dabei ist es völlig wurscht um welchen hersteller es geht. sample lotterie halt, dass muss man den nutzern halt dann im text näher bringen.

+1

Genau so, alles andere verfälscht Werte.
Deswegen ist so ein Test nicht aussagekraftig und spiegelt nicht das Realworld-Szenario.

Schaffe89
2016-07-07, 10:12:36
Achja: Die 4GB ist inzwischen komplett raus aus dem Handel....

Soviel zur guten Verfügbarkeit die in den ganzen Foren verbreitet wurde, angeblich viel besser als bei der GTX 1070 und GTX 1080.
Wenn es die 4GB jetzt schon nicht mehr gibt, obwohl das für 199 Dollar das Zugpferd war und man eigentlich nur 8GB Karten mit nem anderen Bios versehen hat, sieht man wie knapp auf Kante der Launch gestrickt war.

http://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+RX+Serie.html/listing_sort/6

Die Verkaufszahlen bei Mindfactory gehen auch kaum noch mehr nach oben.
Von gestern 10 uhr bis heute 10 Uhr gerade mal 80 Stück insgesamt verkauft, ich bezweifel irgendwie den guten Verkaufsstart der rx480.

Benches sollten generell mit erhöhtem Powerlimit durchgeführt werden.

Dann hätte AMD einen Ubermodus einführen müssen, genauso wie bei der 290x, aber dann halt auch 8 Pin verbauen.
Fairerweise sollte PCGH vll auch einen festen Takt von 1200mhz für die rx480 ansetzen.

Fliwatut
2016-07-07, 10:13:03
Nein aber der Turbo deaktiviert und ein fester Takt für alle Spiele festgesetzt.
@fliwatut: weil es grundfeatures der karte deaktiviert, vielleicht?
Woraus leitet ihr ab, dass PCGH das macht? Das kann ich weder den Aussagen von Raff hier noch dem Artikel über die Testmethodik entnehmen.

Screemer
2016-07-07, 10:13:27
Wieso fragt ihre euch das erst jetzt und nicht schon bei den tausend Tests zuvor, wo komischerweise niemand Anstoss genommen hat daran?:freak:
ich hab da schon immer anstoß daran genommen. fand das schon nach einführung der boost funktion bei nv komisch. hab bis heute auch nicht verstanden warum man das tut.

Soviel zur guten Verfügbarkeit die in den ganzen Foren verbreitet wurde, angeblich viel besser als bei der GTX 1070 und GTX 1080.
Wenn es die 4GB jetzt schon nicht mehr gibt, obwohl das für 199 Dollar das Zugpferd war und man eigentlich nur 8GB Karten mit nem anderen Bios versehen hat, sieht man wie knapp auf Kante der Launch gestrickt war.

http://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+RX+Serie.html/listing_sort/6

Die Verkaufszahlen bei Mindfactory gehen auch kaum noch mehr nach oben.
Von gestern 10 uhr bis heute 10 Uhr gerade mal 100 Stück insgesamt verkauft.
das war aber von anfang an klar, dass die 4gb karte eine kleine auflage bekommen wird und amd das den boardpartner überlassen wird. so wie ich das verstanden habe wurde das auch so kommuniziert. mich hat es eher gewundert, dass überhaupt 4gb-karten im refdesign in den läden standen. war halt das $199 zugpferd. die verfügbarkeit der 8gb karte ist ja gegeben.

habt ihr eigentlich schon mal gesehen, dass mf auf ebay einen kleinen teil seiner produkte zum gleichen preis wie im eigenen shop aber ohne versandkosten anbietet? -> http://stores.ebay.de/Mindfactory-City/_i.html?_nkw=rx+480

kruemelmonster
2016-07-07, 10:13:33
Selfquote aus dem PCGH & die GTX 970 Thread:

OMG, die Meute hat ihr Opfer gefunden. :eek:

Habt ihr alle vergessen wieviel Raum Eyefinity eingeräumt wurde als das noch heißer Scheiß war? Oder die kontinuierliche, breit aufgestellte Berichterstattung über die APUs und FXe. Oder wie trotz des damaligen Gammel-AF weiterhin Positivpunkte für Radeons gesammelt worden sind um sie dann möglichst objektiv den GeForces gegenüber zu stellen.
Imo sollten sich jene die PCGH einen NV-Bias unterstellen, mal überprüfen ob nicht sie selber einen AMD-Bias haben und hier einer Wahrnehmungstäuschung unterliegen.

Die Beschreibung der Shop PCs sollte um einen Link zur Problematik ergänzt werden, keine Frage.
Aber Fackeln und Heugabeln für eine Redaktion die erkennbar um die Balance zwischen den IHVs bemüht ist? Kommt mal wieder runter.

Die Testmethodik der PCGH für boostende Karten wurde für Kepler erarbeitet und begründet, lest es einfach nach wenn ihr nicht versteht warum die Karten auf den mittleren Boost fixiert werden.
Kleiner Tip: weder Referenzkarten noch Golden Samples sind im Gegensatz zum mittleren Boost repräsentativ, siehe dazu den Zotac GTX 680 Test von HT4U.

Cyphermaster
2016-07-07, 10:16:51
Die GTX 1060 wird es als Referenzdesign in allen Punkten deutlich besser machenNur aus Interesse: Du arbeitest als Hellseher?
Soviel zur guten Verfügbarkeit die in den ganzen Foren verbreitet wurde, angeblich viel besser als bei der GTX 1070 und GTX 1080.
Wenn es die 4GB jetzt schon nicht mehr gibt, obwohl das für 199 Dollar das Zugpferd war und man eigentlich nur 8GB Karten mit nem anderen Bios versehen hat, sieht man wie knapp auf Kante der Launch gestrickt war.Ist klar, dazu hat ja auch gar nicht dazu beigetragen, daß die 4GB real mit 8GB bestückt und offensichtlich BIOS-modbar sind...

Ist schon schwer, sich mit persönlichem Butthurt aus so einem Thread der bösen, bösen Gegenseite zu halten, was?

Ascorvit
2016-07-07, 10:21:07
Es ist einfach Beschiss die RX480 ca. 10% runterzutakten!

Und diese manipulierten Werte in den 3d-einigenen Index zu nehmen ist auch nicht wirklich glücklich.

Raff
2016-07-07, 10:21:27
Selfquote aus dem PCGH & die GTX 970 Thread:

Die Testmethodik der PCGH für boostende Karten wurde für Kepler erarbeitet und begründet, lest es einfach nach wenn ihr nicht versteht warum die Karten auf den mittleren Boost fixiert werden.
Kleiner Tip: weder Referenzkarten noch Golden Samples sind im Gegensatz zum mittleren Boost repräsentativ, siehe dazu den Zotac GTX 680 Test von HT4U.

Ich wünschte, jeder wäre so vernünftig wie du. :)

Fairerweise sollte PCGH vll auch einen festen Takt von 1200mhz für die rx480 ansetzen.

Das ergibt erst Sinn, wenn sich herausstellt, dass das der durchschnittliche Takt von sagen wir mal 100 Karten ist. Kann aber niemand mit Sicherheit sagen.

Das Problem ließe sich ganz einfach lösen: Wir kommen wieder von diesem Boost-Unsinn herunter, jede Karte läuft unter Last immer mit dem gleichen Takt. Hätte AMD die Karte mit einer 8-Pol-Buchse und 200W TDP spezifiziert, hätten wir 1.266 MHz in jeder Lage und gut. Aber nööö ...

Es ist einfach Beschiss die RX480 ca. 10% runterzutackten!

Wer taktet die RX 480 herunter? Sie selbst. Ist das nun Selbstbeschiss? Kritisierst du nun AMD oder PCGH?

MfG,
Raff

Linmoum
2016-07-07, 10:23:40
Es ist einfach Beschiss die RX480 ca. 10% runterzutakten!

Und diese manipulierten Werte in den 3d-einigenen Index zu nehmen ist auch nicht wirklich glücklich.
Kommt mal runter.
Ist zwar aus meiner Sicht auch eher unglücklich, aber man muss jetzt nicht wieder den Aluhut aufsetzen und Verschwörungstheorieren basteln.

Screemer
2016-07-07, 10:25:08
Die Testmethodik der PCGH für boostende Karten wurde für Kepler erarbeitet und begründet, lest es einfach nach wenn ihr nicht versteht warum die Karten auf den mittleren Boost fixiert werden.
Kleiner Tip: weder Referenzkarten noch Golden Samples sind im Gegensatz zum mittleren Boost repräsentativ, siehe dazu den Zotac GTX 680 Test von HT4U.
und damit hat man jetzt konform zu gehen? sehe ich nicht so. boost hat sich seit kepler massiv verändert und auch amd handhabt heute so manche dinge anders.

Ich wünschte, jeder wäre so vernünftig wie du. :)

das zu einem der grünsten mitglieder hier im board zu sagen hat schon was von satire.


Wer taktet die RX 480 herunter? Sie selbst. Ist das nun Selbstbeschiss? Kritisierst du nun AMD oder PCGH?

MfG,
Raff
die karte taktet sich aber nicht dauerhaft und in jeder szene auf niedrige frequenzen, sondern das tut ihr. im schnitt kommt dann eben weniger leistung rum. aussagekräftig ist das genau so wenig für alle karten, wie ein gutes sample zu erwischen. sieht bei nv nicht anders aus.

Raff
2016-07-07, 10:28:25
Ernsthaft? Muss ich jetzt wirklich ein drittes Mal schreiben, dass wir die RX 480 aufgeheizt und so gemessen haben, wie sie von sich aus lief? Ohne Worte. :eek: Ich bin jetzt weg, was arbeiten.

MfG,
Raff

MikePayne
2016-07-07, 10:29:19
Wie gesagt: von 1150mV auf 1035mV runter = 1266 MHz praktisch stabil bei einem GPU Power Draw von 120W.

Die Voltage in Wattmann anzupassen erfordert jetzt keinen Nobelpreis (damit meine ich jetzt nicht Raff, eher allgemein), weiss nicht warum alle auf der RX480 so rumhacken bei dem Preis und der Leistung - die 1060er wird sicher mehr kosten mit weniger Speicher (und wird auch nicht so lange aktuell bleiben wie eben die RX480)...

Und mit der Cheaterkarte Nr.1 GTX 970 muss hier keiner kommen, der Zug ist abgefahren!

Schaffe89
2016-07-07, 10:29:40
Das Problem ließe sich ganz einfach lösen: Wir kommen wieder von diesem Boost-Unsinn herunter, jede Karte läuft unter Last immer mit dem gleichen Takt. Hätte AMD die Karte mit einer 8-Pol-Buchse und 200W TDP spezifiziert, hätten wir 1.266 MHz in jeder Lage und gut.

Ich hab ja ganz am Anfang als AMD das mit dem Boost Nvidia nachgemacht hat schon gesagt dass das eine ganz blöde Idee ist und mich furchtbar drüber aufgeregt.
Wenn AMD mit dem Boost Quatsch aufhören würde, würden auch die Frametimes wieder besser aussehen, denn die waren auch schon bei der Nano durchgehend etwas schlechter als bei Karten mit festem Takt, keine Ahnung wie NVIDIA das sogut hinbekommt.

Wie gesagt: von 1150mV auf 1035mV runter = 1266 MHz praktisch stabil bei GPU Power Draw von 120W.

Die Voltage in Wattmann anzupassen erfordert jetzt keinen Nobelpreis.

Es wäre mal interessant 20 Samples durchzutesten und zu schauen ob man bei allen großzügig die Spannung absenken kann und dann dauerhaft mit 1266mhz innerhalb des gesetzten PT´s fahren kann.
Wenn das der Fall ist, dann muss man sich echt mal fragen, wieso AMD da immer so viel Spannung drauf gibt.

Hab bisher noch von keinem rx480 Besitzer gelesen, dass es schwer wäre das Ding stabil mit 1266 mhz mit kleinen Anpassungen laufen zu lassen.

Screemer
2016-07-07, 10:30:23
Wie gesagt: von 1150mV auf 1035mV runter = 1266 MHz praktisch stabil bei GPU Power Draw von 120W.

Die Voltage in Wattmann anzupassen erfordert jetzt keinen Nobelpreis.
die karte von pcgh lief nicht mal mit 1.1v.

Ernsthaft? Muss ich jetzt wirklich ein drittes Mal schreiben, dass wir die RX 480 aufgeheizt und so gemessen haben, wie sie von sich aus lief?
klaro. das kannst du beim besten willen niemandem erzählen, dass die karte kein einziges mal über die 1150MHz hinausgekommen ist. szenenwechseln, ändern von blickrichtungen? keine taktschwankung über und unter 1150MHz :confused: allein im witcher müssen die takte so dermaßen schwanken, dass es nicht feierlich ist. vielleicht solltet ihr dann mal eure beschriftung und erläuterung überdenken, denn das kommt so nicht rüber.

Megamember
2016-07-07, 10:32:57
die karte von pcgh lief nicht mal mit 1.1v.

Das war anscheinend auch ein Blech Sample und kein Golden Sample.;)

dildo4u
2016-07-07, 10:33:47
und damit hat man jetzt konform zu gehen? sehe ich nicht so. boost hat sich seit kepler massiv verändert und auch amd handhabt heute so manche dinge anders.


das zu einem der grünsten mitglieder hier im board zu sagen hat schon was von satire.


die karte taktet sich aber nicht dauerhaft und in jeder szene auf niedrige frequenzen, sondern das tut ihr. im schnitt kommt dann eben weniger leistung rum. aussagekräftig ist das genau so wenig für alle karten, wie ein gutes sample zu erwischen. sieht bei nv nicht anders aus.
Der Takt ist im Realeinsatz vermutlich im Schnitt niedriger,da die Meisten vermutlich nich nur in 20 Minuten Abschnitten zocken.

MikePayne
2016-07-07, 10:36:06
Der Takt ist im Realeinsatz vermutlich im Schnitt niedriger,da die meisten vermutlich nich nur in 20 Minuten Abschnitten zocken.

:upicard:

4h DOOM = 1266 MHz, noch Fragen?

dildo4u
2016-07-07, 10:38:11
Es geht um die 8GB Karte die mher Saft zieht.

MikePayne
2016-07-07, 10:40:11
Es geht um die 8GB Karte die mher Saft zieht.

:upicard:

Siehe Signatur, ich habe die 8 GB von Powercolor mit dem 08/15-Referenzkühler.

dildo4u
2016-07-07, 10:42:40
Sorry dachte du hast eine 4GB auf 8 geflasht.Und ja Undervolting kann helfen die Frage ist ob das jede Karte in jedem Game schafft.Ich vermute mal eher nicht da AMD ja selbst im neuen Treiber die Spannung nicht senkt,sondern die Last auf den 6xPin leitet.

Schnoesel
2016-07-07, 10:43:08
Von gestern 10 uhr bis heute 10 Uhr gerade mal 80 Stück insgesamt verkauft, ich bezweifel irgendwie den guten Verkaufsstart der rx480.

Dafür dass es lediglich

- die ReferenzKarte ist
- diese über UVP verkauft wird
- es noch den PCIe Gate gab

verkauft sich die Karte imo sehr gut. Zudem ist Deutschland und Mindfactory nicht der Nabel der Welt, scheinen einige aber nicht zu kapieren...

j4l
2016-07-07, 10:44:27
Soviel zur guten Verfügbarkeit die in den ganzen Foren verbreitet wurde, angeblich viel besser als bei der GTX 1070 und GTX 1080.
Wenn es die 4GB jetzt schon nicht mehr gibt, obwohl das für 199 Dollar das Zugpferd war und man eigentlich nur 8GB Karten mit nem anderen Bios versehen hat, sieht man wie knapp auf Kante der Launch gestrickt war.

http://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+RX+Serie.html/listing_sort/6

Die Verkaufszahlen bei Mindfactory gehen auch kaum noch mehr nach oben.
Von gestern 10 uhr bis heute 10 Uhr gerade mal 80 Stück insgesamt verkauft, ich bezweifel irgendwie den guten Verkaufsstart der rx480.


Ähm nein. Mindfactory wird wohl so an die 2000 Karten bekommen haben und das zum Release letzte Woche. Die zweite Charge schein wohl für Ende nächste Woche erwartet zu werden.

Die 4GB ist raus, weil das nur umgeflashte 8Gb Karten als Lockvogel waren und die jetzt alle sind. Quasi limited Edition :freak:

UnderTheRock
2016-07-07, 10:44:43
Und täglich grüßt das Murmeltier das PCGH-Bashing

Dafür musste ich mich als stiller Mitleser doch glatt mal anmelden.

Da packt man sich wirklich an den Kopf, warum jetzt darauf herum geritten wird. Basht doch lieber AMD, dass sie euch so einen Mist verkaufen wollen.

=Floi=
2016-07-07, 10:46:59
kommt mal wieder BTT.
ich verstehe eh nicht, wieso amd noch immer so viel spannung braucht. liegt das an der architektur selbst? Das ist mittlerweile ein echter nachteil und ich frage mich auch wo der extreme spannungshunger herkommt.

Disco_STFU
2016-07-07, 10:47:23
Wieso fragt ihre euch das erst jetzt und nicht schon bei den tausend Tests zuvor, wo komischerweise niemand Anstoss genommen hat daran?:freak:

Ich habe es schlicht nicht gewusst...

Schaffe89
2016-07-07, 10:47:32
Die Spannung kommt wohl einfach daher, dass man es möglichst billig haben will und vermutlich den letzten Schrott auch noch verkaufen will.
Dass man sich damit deutlich mehr ins eigene Fleisch schneidet , merkt AMD wohl nicht.
AMD hätte mal lieber deutlich mehr rx480 weggeschmissen oder als rx470 aufgehoben und lieber weniger 130 Watt Karten gebaut als jetzt viele 160+ Watt Karten.

MikePayne
2016-07-07, 10:47:33
Dafür dass es lediglich

- die ReferenzKarte ist
- diese über UVP verkauft wird
- es noch den PCIe Gate gab

verkauft sich die Karte imo sehr gut. Zudem ist Deutschland und Mindfactory nicht der Nabel der Welt, scheinen einige aber nicht zu kapieren...

Schön gesehen.

Für mehr als 250€ hätte ich die Referenz mit 8GB auch nicht gekauft, aber der Preis war da bei der Powercolor und bisher bin ich nicht enttäuscht worden.

Und das alles mit einem min. 3 Jahre alten legacy BIOS-Mobo, ausgenudelten Slot & Referenzkühler (der im Laufe der Zeit noch getauscht wird = OC).

Und täglich grüßt das Murmeltier das PCGH-Bashing

Dafür musste ich mich als stiller Mitleser doch glatt mal anmelden.

Da packt man sich wirklich an den Kopf, warum jetzt darauf herum geritten wird. Basht doch lieber AMD, dass sie euch so einen Mist verkaufen wollen.

Für diesen Mist hast Du Dich angemeldet?

kommt mal wieder BTT.
ich verstehe eh nicht, wieso amd noch immer so viel spannung braucht. liegt das an der architektur selbst? Das ist mittlerweile ein echter nachteil und ich frage mich auch wo der extreme spannungshunger herkommt.

AMD hat default zu viel Spannung drauf. Warum auch immer.
Aber dieses Problem kann jedes Kind mit WattMan nun selbst lösen, ohne größeren Aufwand.

Screemer
2016-07-07, 10:48:16
Und täglich grüßt das Murmeltier das PCGH-Bashing

Dafür musste ich mich als stiller Mitleser doch glatt mal anmelden.

Da packt man sich wirklich an den Kopf, warum jetzt darauf herum geritten wird. Basht doch lieber AMD, dass sie euch so einen Mist verkaufen wollen.
na das hättest du dir auch sparen können.

Schaffe89
2016-07-07, 10:52:07
Andere hätten sich auch viel sparen können und die Kritik am besten bei der PCGH direkt als Feedback formulieren können.

Disco_STFU
2016-07-07, 10:54:45
Kann mir jetzt jemand einfach nochmal den Vorteil dieser Methode nennen im Vergleich dazu die Karte einach so zu lassen wie sie ist?

Schaffe89
2016-07-07, 10:56:28
Du sparst Zeit und musst die Karte nicht ewig vorheizen lassen, wenn du sie mit einem festgepinnten Takt testest.

Frosty
2016-07-07, 10:58:28
ich überlege auch, einfach eine referenzkarte zu kaufen und da den accelero mono plus draufzubauen

gefällt mir, was raff da präsentiert hat, einfacher geht eine kühlermontage nicht, mit nur 4 schrauben:)

Cyphermaster
2016-07-07, 11:02:15
AMD hat default zu viel Spannung drauf. Warum auch immer.Das ist relativ übliches Prozedere, da die Gründe auf der Hand liegen, warum man als Hersteller grade um den Launch gern mit im Schnitt unnötig hohen Spannungen fährt:

- Es begünstigt die Verfügbarkeit der Karten durch besser Ausbeute bei den ersten, ggf. noch nicht ganz optimal laufenden Produktionschargen
- Es verringert die Chance, unerwartete instabile Ausreißer-Karten im Markt zu haben, die einem die Reputation versauen können
- In der Regel gilt beim Endkunden Performance > Effizienz
- Verbesserungen kann man ggf. als "Special Edition" oder Ähnliches immer noch nachschieben.

kruemelmonster
2016-07-07, 11:02:54
und damit hat man jetzt konform zu gehen? sehe ich nicht so. boost hat sich seit kepler massiv verändert und auch amd handhabt heute so manche dinge anders.

Kalte Karten boostet weiter und länger als warme, irgendwo muss man halt einen Mittelwert nehmen. Was hat sich denn im Gesamtbild deiner Meinung nach so stark verändert dass die alte Methode nicht mehr funktioniert, und wie sollte man deiner Meinung nach dieser Veränderung Rechnung tragen?

Konkrete und praktikabele Vorschläge ohne Luftschlößchen bitte.

das zu einem der grünsten mitglieder hier im board zu sagen hat schon was von satire.

Ach so? Deshalb hab ich wohl auch von Anfang an die GTX 970 verdammt und einen Kaufberatungsthread für eine R9 380 eröffnet.
Ich hab einen Pro-NV Bias, vollkommen korrekt, bin deshalb aber noch lange nicht farbenblind (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11087241&postcount=1111).

MikePayne
2016-07-07, 11:05:59
Das ist relativ übliches Prozedere, da die Gründe auf der Hand liegen, warum man als Hersteller grade um den Launch gern mit im Schnitt unnötig hohen Spannungen fährt:

- Es begünstigt die Verfügbarkeit der Karten durch besser Ausbeute bei den ersten, ggf. noch nicht ganz optimal laufenden Produktionschargen
- Es verringert die Chance, unerwartete instabile Ausreißer-Karten im Markt zu haben, die einem die Reputation versauen können
- In der Regel gilt beim Endkunden Performance > Effizienz
- Verbesserungen kann man ggf. als "Special Edition" oder Ähnliches immer noch nachschieben.

Ok, das macht Sinn.
Danke für die Antwort.

Wie gesagt: WattMan nutzen - alles wird gut :)

Screemer
2016-07-07, 11:06:51
Kalte Karten boostet weiter und länger als warme, irgendwo muss man halt einen Mittelwert nehmen. Was hat sich denn im Gesamtbild deiner Meinung nach so stark verändert dass die alte Methode nicht mehr funktioniert, und wie sollte man deiner Meinung nach dieser Veränderung Rechnung tragen?

für mich hat die methodik noch nie funktioniert. das man die karten vorheizt ist ja nicht mein kritikpunkt. die boosten dann aber trotzdem rum und sind nicht fix was den takt angeht.
die karten einfach so zu lassen wie sie sind, scheint ja schwer zu sein. natürlich hat man dann eine streuung je nach dem wie gut oder schlecht das sample ist. es aber "künstlich" einzubremsen, nicht anderes ist das festtackern auf einen takt für mich, ist doch mehr als banane. nicht jedes spiel lastet jede karte gleich aus, nicht jede karte hat die gleichen charakteristika was den boost angeht. karte rein, game an und gut ist. dabei ist es völlig wurscht um welchen hersteller es geht. sample lotterie halt, dass muss man den nutzern halt dann im text näher bringen.



Das ist relativ übliches Prozedere, da die Gründe auf der Hand liegen, warum man als Hersteller grade um den Launch gern mit im Schnitt unnötig hohen Spannungen fährt:

- Es begünstigt die Verfügbarkeit der Karten durch besser Ausbeute bei den ersten, ggf. noch nicht ganz optimal laufenden Produktionschargen
- Es verringert die Chance, unerwartete instabile Ausreißer-Karten im Markt zu haben, die einem die Reputation versauen können
- In der Regel gilt beim Endkunden Performance > Effizienz
- Verbesserungen kann man ggf. als "Special Edition" oder Ähnliches immer noch nachschieben.
das problem ist, dass amd das anhand der chipgüte und des binnings eigentlich variabel regelt. p0 ist nicht für jeden chip gleich. von dem ausgehend errechnen sich dann die anderen spannungen in den einzelnen states. irgendwie landet man bei polaris aber quasi immer bei 1.15v. das ist sehr verwunderlich, denn es gibt auch karten die bei unter 1,04v default liegen. das sind aber wohl sehr wenige und massive ausnahmen. es wurden schon karten mit ~85-95% asicquality gepostet, die trotzdem mit den 1,15v als standard liefen. die werden dann sack warm und machen eigentlich wesentlich niedrigere spannungen mit. irgendwas passt da bei amd und der variablen spannungsfestsetzung ganz und gar nicht.

Mr.Y
2016-07-07, 11:07:09
Ich wünschte, jeder wäre so vernünftig wie du. :)



Das ergibt erst Sinn, wenn sich herausstellt, dass das der durchschnittliche Takt von sagen wir mal 100 Karten ist. Kann aber niemand mit Sicherheit sagen.

Das Problem ließe sich ganz einfach lösen: Wir kommen wieder von diesem Boost-Unsinn herunter, jede Karte läuft unter Last immer mit dem gleichen Takt. Hätte AMD die Karte mit einer 8-Pol-Buchse und 200W TDP spezifiziert, hätten wir 1.266 MHz in jeder Lage und gut. Aber nööö ...



Wer taktet die RX 480 herunter? Sie selbst. Ist das nun Selbstbeschiss? Kritisierst du nun AMD oder PCGH?

MfG,
Raff
Ich muss zugeben, ich habe nicht genau den Artikel gelesen :freak: Aber ihr sucht den durchschnittlichen Takt jeder Karte, also im Fall der RX480 halt 1150 MHz, bei der GTX 970 halt 1xxx MHz und betreibt sie damit konstant in jedem Benchmark?
Dann ist doch der Fehler, dass die Karten unterschiedlich in ihr Limit rennen. Wo sie bei Anno stock bei 1100 MHz nur rennen, schaffen sie in CS-GO vllt. 1250 MHz konstant. Das eine Ergebnis ist zu hoch, das andere zu niedrig.
Auch wenn das alle Karten betrifft ist das doch ein eklatanter Fehler. Zumal es eben Karten und Spiele gibt, die zB eh mehr am Speichertakt hängen.
Den Ansatz und die Idee in Ehren, aber wenn nicht für jedes Spiel der Takt rausgesucht wird, wird so das Bild in beiden Lagern verzogen.

user77
2016-07-07, 11:14:37
Die Karte wird so getestet wie sie von AMD geliefert wird.Wenn

die Karten den Max.boost von 1266mhz nicht halten können, weil amd beim Kühler und der Chipqualität (Spannung) gespart hat, kann PCGH nichts dafür.

Den Takt festsetzen und die Spannungen zu optimieren, würde das Ergebnis noch mehr verfälschen.

Screemer
2016-07-07, 11:14:48
@mr. Y: so habe ich die methodik auch verstanden. raff sagt aber, dass das bei der 480 nicht getan wurde und sie so lief wie sie war. eben ohne taktfixierung.
@user77: scheint aber bisher seit kepler so gehandhabt worden zu sein.

Frank1974
2016-07-07, 11:26:33
Wofür die Aufregung hier, sollten die Karten wirklich fixiert sein auf einen Takt gilt das gleiche für Nvidia, also kein Vorteil oder Nachteil für keinen von beiden, das alle Karten jetzt diesen Boost haben, finde ich trotzdem nicht gut, bin ein alter Gamer, habe ja meine HD7970, wenn ich demnächst wechsle, egal zu welcher Marke werde ich damit aber wohl leben müssen, ich hatte den festen Takt am liebsten, meine Meinung dazu.

mfg
Frank

Screemer
2016-07-07, 11:29:32
wie sich das fixieren des taktes auswirkt ist aber doch gar nicht ersichtlich. man müsste in jedem einzelnen spiel erst mal den durschnittstakt ermitteln, dann fixieren und benchen. anschließend alle ergebnisse aufsummieren um nen index zu bilden. erst nen durchschnittstakt über alle games zu suchen und damit zu benchen und dann aufzusummieren glättet das ganze viel zu stark. ich kann mir nicht vorstellen, dass man da im schnitt auf nahezu gleiche ergebnisse kommt. da kann man die karten auch gleich boosten lassen wie sie es in den spielen eben können.

Fliwatut
2016-07-07, 11:32:16
Woraus geht hervor, dass der Takt bei PCGH fixiert wird? Kann das mal bitte jemand mit link zitieren? Falls das stimmt, fände ich das auch nicht optimal.

Tru
2016-07-07, 11:33:09
Dann lässt PCGH alle Karten boosten, wie sie lustig sind, erhält ein gutes Nvidia-Muster und alle unterstellen wieder, dass PCGH grün sei. Man stelle sich jetzt vor, die RX 480 schafft real 1.200 MHz und die GTX 1060 boostet ihr davon, weil es eben ein gutes Muster ist. Was es da für einen Aufschrei gäbe ...

Schaffe89
2016-07-07, 11:35:01
So tru
Eigentlich bin ich mit dem Messverfahren der PCGH zufrieden, kauf mir auch heute mal wieder das Heft.

Screemer
2016-07-07, 11:38:14
Dann lässt PCGH alle Karten boosten, wie sie lustig sind, erhält ein gutes Nvidia-Muster und alle unterstellen wieder, dass PCGH grün sei. Man stelle sich jetzt vor, die RX 480 schafft real 1.200 MHz und die GTX 1060 boostet ihr davon, weil es eben ein gutes Muster ist. Was es da für einen Aufschrei gäbe ...
gar keinen, denn das kann man komplett transparent rüber bringen. es wird dann in den foren eher rumgehäult, dass die karte nicht so super geht wie die bei pcgh und warum das denn so ist. anders rum ist es doch jetzt genau so.


Woraus geht hervor, dass der Takt bei PCGH fixiert wird? Kann das mal bitte jemand mit link zitieren? Falls das stimmt, fände ich das auch nicht optimal.
Wir haben Mittelwerte für jede Spiel- Auflösungs-Kombi gebildet und die Karte jeweils damit getestet. Geforce-Karten erreichen je nach Temperatur oft einen höheren Boost-Takt als den von Nvidia für die meisten Bedingungen garantierten und von uns getesteten. Sie können unter besonders heißen Bedingungen jedoch auch wieder in ihrer Leistung abfallen. Besitzer eines hochgezüchteten, teuren OC-Designs können indes davon ausgehen, dass ihre Grafikkarte schneller rechnet als die Referenzkarten im Index.
-> http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/

Screemer
2016-07-07, 11:41:59
DP

Frank1974
2016-07-07, 11:44:27
gar keinen, denn das kann man komplett transparent rüber bringen. es wird dann in den foren eher rumgehäult, dass die karte nicht so super geht wie die bei pcgh und warum das denn so ist. anders rum ist es doch jetzt genau so.

Ich sagte ja die Einführung des Boost ist jetzt nicht so die Revolution gewesen, bisher hatte ja auch nur Nvidia den Boost, oder hatte schon vor der RX480 eine AMD Karte einen Boost, bin da nicht ganz auf dem laufenden?

mfg
Frank

RoughNeck
2016-07-07, 11:44:37
Wenn die PCGH das Booststufe verhalten so belässt, dann wird auch gemeckert da Karte X höher oder niedriger taktet wie Karte Y.
Ich finde die Lösung von der PCGH schon in Ordnung.

dildo4u
2016-07-07, 11:48:14
Das ganze wird eh zu hochgespielt da die Refrenz Karten maximal für paar Wochen Relevant sind egal ob bei NV oder AMD,normal testet PCGH ja Custom Karten wenn es z.b neue Games gibt,damit machen sie es schon deutlich besser als andere Seiten.

Screemer
2016-07-07, 11:50:25
Ich sagte ja die Einführung des Boost ist jetzt nicht so die Revolution gewesen, bisher hatte ja auch nur Nvidia den Boost, oder hatte schon vor der RX480 eine AMD Karte einen Boost, bin da nicht ganz auf dem laufenden?

mfg
Frank
boost gibt es seit tahiti (7950 Boost). gab aber auch mit hawaii noch karten ohne.

Frank1974
2016-07-07, 11:51:54
Wenn die PCGH das Booststufe verhalten so belässt, dann wird auch gemeckert da Karte X höher oder niedriger taktet wie Karte Y.
Ich finde die Lösung von der PCGH schon in Ordnung.

So sehe ich das auch, angenommen sie würden 5 verschiedene RX480er testen, und alle würden verschieden laufen, vielleicht sogar mehr als 10% Unterschied, welche Karte sollte man dann ins Ranking nehmen:freak:

boost gibt es seit tahiti. ich hab noch eine ohne aber die meisten waren mit.

Habe auch eine 7970, ohne Boost:smile:

mfg
Frank

Disco_STFU
2016-07-07, 11:54:16
So sehe ich das auch, angenommen sie würden 5 verschiedene RX480er testen, und alle würden verschieden laufen, vielleicht sogar mehr als 10% Unterschied, welche Karte sollte man dann ins Ranking nehmen:freak:

Die Schlechteste, welche denn auch sonst. :rolleyes:

Frank1974
2016-07-07, 11:56:26
Die Schlechteste, welche denn auch sonst. :rolleyes:

Hmm, keine Ahnung ob das so einfach ist, da würde ja auch jeder meckern.

mfg
Frank

Screemer
2016-07-07, 11:57:15
sie testen aber nicht 5 karten, weil sonst könnten sie auch alle 5 karten einzelln im index aufnehmen.

Cyphermaster
2016-07-07, 11:59:36
Wenn die PCGH das Booststufe verhalten so belässt, dann wird auch gemeckert da Karte X höher oder niedriger taktet wie Karte Y.
Ich finde die Lösung von der PCGH schon in Ordnung.Eine vollumfängliche Vergleichbarkeit sich nun mal nicht so verhaltender Karten ist eben nicht erreichbar, es wird notwendig immer mehr oder minder "schief". Testet man die Karten ohne Boost, wird gemeckert, weil unrealistisches Verhalten. Testet man sie mit Boost, wird gemeckert, weil ja die eine getestete Karte besser/schlechter als der Durchschnitt aller Karten sein könnte. Und testet man sie auf Dauer-Boost-Takt, dann wird wieder dran rumgekrittelt, daß die Zeitspanne, in der der anliegt, in der Realität unterschiedlich ist. Das absolut gleiche Dilemma wie bezüglich den Benchmarks.

Frank1974
2016-07-07, 12:03:11
Naja immerhin weiß man jetzt wie die verschiedenen Ergebnisse von unterschiedlichen Seiten zustande kommen, die eine Seite hat ein Supersample die andere nicht.

/edit
Ich bin auch nur ein Laie und kein Experte wie manch andere hier, ich lese nur gerne über diese Themen, wenn ich etwas falsch rüber bringe tut es mir leid, und man möge mich korrigieren.

mfg
Frank

Pirx
2016-07-07, 12:20:57
So werden aber, da der Takt festgesetzt wird, Karten getestet, die es so im Auslieferungszustand nicht gibt. Zusätzlich wird bei nV noch eine Herstellerangabe mit hinzugezogen. Das finde ich suboptimal, aber ein großes Drama ist es auch nicht.

Fliwatut
2016-07-07, 12:26:50
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/
Danke, den link kannte ich, das ist dann aber sehr verklausuliert geschrieben. Macht in meinen Augen wenig Sinn, das so zu testen, so dürfte wohl nur ein ganz geringer Bruchteil der User die Karten benutzen.

N0Thing
2016-07-07, 12:32:22
Wer ernsthaft ein Problem mit der Testmethodik der PCGH hat, der sollte dies in deren Forum ansprechen, wo es hingehört. Am besten mit einem Vorschlag, der in einem realistischen zeitlichen Rahmen bleibt und nicht einfach kalte Karten für den Benchmark schön boosten lässt, was einem Spieler, der länger als 15 Minuten spielen will, keine realistischen Benchmarkergebnisse beschert.
Mal abgesehen davon, dass man in einem Spiel unterschiedlichste Benchmarkstellen auswählen könnte, die von sich allein schon andere Ergebnisse liefern können, dürfte die maximale Abweichung vom maximalen Takt bei der RX 480 von ca. 10% oftmals fps-Unterschiede im Bereich der Messungenauigkeit liefern. Da erscheint mir die Methode der PCGH eher ein Malus für Nvidia zu sein (was in der Vergangenheit auch durchaus öfter vom grünen Lager moniert wurde).

Wem andere Testmethoden generell lieber sind, der findet sicher andere Seiten, die sich nicht die Mühe machen, ein ausgeglichenes Testumfeld zu liefern, oder erst gar nicht ihre Testmethoden dokumentieren.

Disco_STFU
2016-07-07, 12:37:05
Fazit: Wenns dir nicht passt mimim dann geh woanders hin. Toll!

dildo4u
2016-07-07, 12:39:56
Nur die echten Fanboy's hoffen das AMD Golden Sampels versickt und so den PCGH Bench verfälscht.PCGH sollte immer den Worst Case abbilden,da es ja scheinbar solche schlechten Karten auch im Retail gibt.

maximus_hertus
2016-07-07, 12:49:10
Sind die 1733 MHz bei der GTX 1080 @ PCGH festgetackert, aka in jedem Spiel dauerhaft drauf?
Irgendwie bin ich durch Raffs Postings etwas verwirrt?!

Sind die 1150 MHz der gemessene Mittelwert @ RX 480, aber es wurde ohne festen Takt gebencht für den Index?

Bisher habe ich das so verstanden, dass sich die PCGH den Mittelwert in den Benches anschaut und die Karte dann in allen Benchmarks mit einem festen Takt testet. Beispiel:
Eine Karte hat 1000 MHz Base und 1100 MHz Boost. Im Mittel ereicht sie jedoch nur 1075 MHz und wird dann für den Index in allen Benchmarks mit festen 1075 MHz getestet.

UnderTheRock
2016-07-07, 12:52:25
Mal weg von diesem merkwürdigen Gebashe und mal hin zu einer interessanten Fragen für die ganzen Leute in Redaktionen und durchaus auch als Frage an den Rest, wie man das am Besten handhaben sollte:

Wenn ich das AMD-Statement richtig verstehe, wird die zu hohe Leistungsaufnahme der RX480 nicht behoben, sondern einfach nur vom PCIe Slot zum 6-Pin verschoben. Brechen würde die Karte die Spec damit imme rnoch, wenn auch "weniger schlimm". Zusätzlich gibt es einen (vom Nutzer extra zu aktivierenden) Modus, in dem die Leistungsaufnahme auf <=150W begrenzt wird.

Angenommen dem ist so, welchen Modus nutzt ihr dann zukünftig für die Benches/Indexes?

Und an die anderen: Welcher Modus sollte gewählt werden? Oder Beide?

Frosty
2016-07-07, 12:52:58
ist jetzt endlich der neue treiber da, mit dem die sache mit der lastverteilung auf slot und stecker behoben wird?

maximus_hertus
2016-07-07, 12:55:02
Es ist nicht mal 4 Uhr morgens, da musst du dich noch etwas gedulden ;)

dildo4u
2016-07-07, 12:55:44
Sind die 1733 MHz bei der GTX 1080 @ PCGH festgetackert, aka in jedem Spiel dauerhaft drauf?
Irgendwie bin ich durch Raffs Postings etwas verwirrt?!

Boost 3.0 lässt kein Festtackern zu.

Schaffe89
2016-07-07, 12:57:32
Und an die anderen: Welcher Modus sollte gewählt werden? Oder Beide?

Natürlich den innerhalb der Spezifikationen, das andere hängt dann iregndwie in der Luft und ist sowieso nicht optimal.
Bin gespannt wieviel Leistung das kosten wird, dann ist die Karte ja wirklich langsamer als ne 970, wer hätte das noch vor Release gedacht.

Messias
2016-07-07, 12:59:48
Nur mal so, als jemand, der gerne einen groben Überblick haben will, ohne sich an Winzigkeiten aufzuhängen:

Wenn man diesem Forum und den dort gemachten Aussagen glauben würde, dann dürfte man sich niemals eine AMD Grafikkarte kaufen. Es gibt immer etwas auszusetzen. Diesmal ist es der etwas zu hohe Verbrauch, ein andermal ist es der zu geringe verbaute Speicher oder es wird gejammert, daß die Karte nicht so schnell ist, wie die gerade präsentierte Enthusiasten Lösung von nVidia.

Ich kaufe seit ein paar Jahren immer AMD, weil sich gezeigt hat, daß diese Karten in der Regel länger Luft haben, als die nVidia Pendants. Meist starten die Karten ein wenig langsamer als ihre direkten nVidia Konkurrenten und nach ein, zwei Jahren ziehen sie dank Treiberentwicklung und Hardwarereserven, die erst mit der Zeit ratsgekitzelt werden, an den nVidia Modellen vorbei.
Ich finde das gut, denn gerade nach ein paar Jahren braucht man doch die Mehrperformance, und nicht unbedingt, wenn die Karte erscheint.

Das sind einfach unterschiedliche Ansätze und mir erscheint dieser einfach intelligent. Aber es ist Geschmacksache. Jedenfalls sind die Diskussionen um ein paar Watt mehr oder weniger oder um die Frage, ob es reicht, wenn die GTX 970 überholt wird oder ob es die GTX 980 sein muß, um eine Daseinsberechtigung zu haben, im Prinzip die Gleichen, die es bei jedem Release gibt, und das ist gähnend langweilig und am Ende Haarspalterei...

Ich habe mir im Übrigen gestern eine RX480 zugelegt, eingebaut und mich über die Performance in den Spielen, die ich Spiele gefreut. Und darum geht es doch, nicht darum, ob die Karte einen Tick besser hätte sein können... sie ist gut, so wie sie ist. Zumal für den Preis.

Frank1974
2016-07-07, 13:02:11
Natürlich den innerhalb der Spezifikationen, das andere hängt dann iregndwie in der Luft und ist sowieso nicht optimal.
Bin gespannt wieviel Leistung das kosten wird.

Hier hat doch schon ein User geschrieben das man den Boost-Takt sogar besser hält mit abgesenkter Spannung, oder habe ich das falsch verstanden?

AMD gibt doch wohl zur Vorsicht mehr wie nötig.

mfg
Frank

N0Thing
2016-07-07, 13:03:04
Fazit: Wenns dir nicht passt mimim dann geh woanders hin. Toll!

Nein, nur ist hier Kritik und mimimi an der Messmethode von PCGH nicht sinnvoll, die sollte vor Ort geäußert werden. Hier führt es nur zu Offtopic-Diskussionen.
Und es ist schon erstaunlich, dass scheinbar so viele die Entwicklungen der letzten Jahre nicht mitbekommen habe und auch die Kommentare und Anmerkungen in Artikeln und in Forenbeiträgen zu ignorieren scheinen. Die Gründe für die aktuellen Testmethoden wurden schon mehrmals erklärt und galten eigentlich als sinnvoll und notwendig, um realistische und reproduzierbare Ergebnisse zu erhalten, die einen Redakteur nicht bis zu 20 Minuten extra pro Benchmarkdurchlauf kosten.

Wer keine Benchmarks haben will, die sich auf die Verhaltensweisen der aktuellen GPUs eingestellt haben, der könnte auch woanders hinschauen, anstatt die Vielfalt der Berichterstattung zu bekämpfen. Ich fände es auch interessant, mal Benchmarks mit kalten Karten zu sehen, um rein theoretisch die Differenz zwischen Schein und Sein dokumentiert zu bekommen. Aber am Ende will ich Daten über die Realperformance im angedachten Einsatzgebiet und das sind eben Spiele, die ich länger als 10 Minuten am Stück spiele und deshalb interessiert es mich weniger, ob eine GTX 1080 für ein paar Minuten bei 2000MHz taktet, sondern die Performance, wenn die Karte nach 10-30 Minuten beispielsweise nur noch mit 1700MHz läuft.

Ich bin sicher, wenn jeder die Arbeit der PCGH in Form von Abos oder abgeschalteter Werbeblocker refinanzieren würde, wären vielleicht 1-2 Stellen mehr in der Redaktion möglich, die sich dann auch noch(!) mehr um Sonderwünschen widmen können.

Schaffe89
2016-07-07, 13:12:49
Ich kaufe seit ein paar Jahren immer AMD, weil sich gezeigt hat, daß diese Karten in der Regel länger Luft haben, als die nVidia Pendants. Meist starten die Karten ein wenig langsamer als ihre direkten nVidia Konkurrenten und nach ein, zwei Jahren ziehen sie dank Treiberentwicklung und Hardwarereserven, die erst mit der Zeit ratsgekitzelt werden, an den nVidia Modellen vorbei.


Das war jetzt auch eigentlich nur bei Tahiti vs Kepler so, bisher steht Maxwell immernoch gut da.
Und in 2 Jahren habe ich schon wieder lange ne neue GPU gekauft.
AMD sollte lieber mal zusehen, dass die Leistung ab Release verfügbar ist, damit macht man Kohle.

Dino-Fossil
2016-07-07, 13:20:35
Maxwell, ernsthaft?
Ist ja noch nichtmal vollständig abgelöst und enthält noch dazu die 970-Ram-Gurke.

dildo4u
2016-07-07, 13:20:38
Das war jetzt auch eigentlich nur bei Tahiti vs Kepler so, bisher steht Maxwell immernoch gut da.
Und in 2 Jahren habe ich schon wieder lange ne neue GPU gekauft.
AMD sollte lieber mal zusehen, dass die Leistung ab Release verfügbar ist, damit macht man Kohle.
PCGH hat im Heft schon angemerkt ab Tonga kann AMD die GPU's vorallem in 1080p besser auslasten,also sie steht was das angeht schon besser da als Fury lässt dann aber vermutlich weniger Steigerung per Treiber zu.Der niedrige Takt bei PCGH scheint das auch zu belegen,wäre die Auslastung schlechter läge der Takt höher.

Rabiata
2016-07-07, 13:26:50
Hab mir die PCGH Testmethode mal durchgelesen, und sie scheint schon einigermaßen realistisch.

Größter Vorteil:
Da willkürlich ausgewählte Spielstände verwendet werden, bringt es den GraKa-Herstellern nichts, eine Benchmarkerkennung in den Treiber einzubauen und damit schummeln zu wollen.

Größter Nachteil:
Die ermittelten Frameraten sind nur innerhalb der PCGH-Tests wirklich vergleichbar.

Complicated
2016-07-07, 13:30:49
Nein, nur ist hier Kritik und mimimi an der Messmethode von PCGH nicht sinnvoll, die sollte vor Ort geäußert werden. Hier führt es nur zu Offtopic-Diskussionen.
Was erzählst du denn da? Das ist der Thread der sich mit den Reviews beschäftigt. Und wenn sich hier herausstellt, dass eben so ein Murks bei Tests gemacht wird, dann melde ich mich sicher nicht extra bei PCGH an um dort deren Tests, die ich immer schon für suboptimal hielt, zu kommentieren.

Die Messergebnisse sind einfach "flawed" wie der Ami sagt, und Aussagen auf Basis derer sind für die Tonne. Also dafür ist der Thread da - um die Spreu vom Weizen zu trennen und fest zu stellen wessen Messergebnisse man ernst nehmen kann und welche Redaktionen mehr Wert darauf legen schön Grafiken für Klicks zu generieren. Was dort getestet wird, bekommt kein Kunde zu sehen der sich die Karten kauft. Dient das dann der Kaufberatung? Nein, eindeutig Nein. Auch Leonidas verwendet Messergebnisse von anderen Seite für seinen Performanceindex - den von PCGH dürfte er nicht mehr mit berücksichtigen, da fehlerhafter Testaufbau.

Und das ist der Kern-Topic dieses Threads!

Ätznatron
2016-07-07, 13:33:33
Die Messergebnisse sind einfach "flawed" wie der Ami sagt, und Aussagen auf Basis derer sind für die Tonne. Also dafür ist der Thread da - um die Spreu vom Weizen zu trennen und fest zu stellen wessen Messergebnisse man ernst nehmen kann und welche Redaktionen mehr Wert darauf legen schön Grafiken für Klicks zu generieren.

Können wir uns denn wenigstens darauf einigen, dass es sich weniger um Mess- als vielmehr um Schätzungen handelt?

Dann wären wir hier doch ein großes Stück weiter....

Complicated
2016-07-07, 13:40:48
Die ermittelten Frameraten sind nur innerhalb der PCGH-Tests wirklich vergleichbar.
Inwiefern, wenn der AMD Renderpfad eine höhere Turbolast erzeugen kann weil ACEs verwendet oder wenn der Turbotakt niedriger wird weil ACEs verwendet werden, ist das in diesem Spiel nicht zu messen und die Werte könnten 10-15% anders sein bei den FPS und ebenso beim Verbrauch.
Die sind auch innerhalb nicht vergleichbar, weil Nvidia einen solchen Offload von Einheiten nicht kennt. Verfügbares Powerbudget durch Fixed Function Units nicht in Takt wandeln zu können ist bei heutigen GPUs ein völliges NOGO beim testen. Keine zwei unterschiedliche Generationen können da verglichen werden, geschweige denn verschiedene Hersteller.

Was ist mit Effizienz-Tests beim Video-Rendering? Hier werden Shader für H.256 Decodierung genutzt im Mixed-Mode von einigen GPUs bei Intel, Nvidia und AMD. Von einigen nicht.

Was ist mit denen die lediglich 2-3 Spiele langfristig spielen? Die schauen sich vielleicht genau das Spiel an welches sie kaufen wollen und da stehen völlig falsche Werte drin. Zu hoch wie, Z.B. Anno das schon erwähnt wurde oder zu niedrig weil Takt limitierte Tests vorliegen.

Es zeigt sich wieder einmal dass Spieleseiten keine Hardware richtig testen, sondern sich lieber die Realität zurecht biegen damit das konsumierbar wird beim Leser und man irgendetwas in Balken gießen kann die irgendeinen Index ergeben.

N0Thing
2016-07-07, 13:40:49
Was erzählst du denn da? Das ist der Thread der sich mit den Reviews beschäftigt. Und wenn sich hier herausstellt, dass eben so ein Murks bei Tests gemacht wird, dann melde ich mich sicher nicht extra bei PCGH an um dort deren Tests, die ich immer schon für suboptimal hielt, zu kommentieren.

Die Messergebnisse sind einfach "flawed" wie der Ami sagt, und Aussagen auf Basis derer sind für die Tonne. Also dafür ist der Thread da - um die Spreu vom Weizen zu trennen und fest zu stellen wessen Messergebnisse man ernst nehmen kann und welche Redaktionen mehr Wert darauf legen schön Grafiken für Klicks zu generieren. Was dort getestet wird, bekommt kein Kunde zu sehen der sich die Karten kauft. Dient das dann der Kaufberatung? Nein, eindeutig Nein. Auch Leonidas verwendet Messergebnisse von anderen Seite für seinen Performanceindex - den von PCGH dürfte er nicht mehr mit berücksichtigen, da fehlerhafter Testaufbau.

Und das ist der Kern-Topic dieses Threads!


Du kannst die Ergebnisse von PCGH natürlich ignorieren und kritisieren, das steht dir frei. Du stehst mit der Ansicht, dass deren Tests Murks und für die Tonne sind, nur relativ alleine da, denn es gibt gute Gründe für die verwendete Methode und die Ergebnisse sind in sich schlüssig, reproduzierbar und nachvollziehbar. Dank der transparenten Herangehensweise, kann sogar jeder die Benchmarkstelle nachtesten und die Ergebnisse auf Plausibilität überprüfen. Entweder hat sich bisher keiner die Mühe gemacht, oder die Messergebnisse sind doch so brauchbar, dass Kritik fehl am Platze ist.

Raff
2016-07-07, 13:42:19
Complicated nimmt das mit der Rebellion einfach sehr ernst. Da nimmt man sich den nächstbesten Feind, nachdem Nvidia zu mächtig ist. Wenn er wüsste, dass die PCGH gerade beide Polaris-Karten neu testet und dass die Ergebnisse ziemlich gut aussehen ... würde es nichts ändern, denn seine Wahrnehmung die PCGH-Methodik ist totally flawed. :ulol:

MfG,
Raff

M4xw0lf
2016-07-07, 13:43:15
Wenn der wüsste, dass die PCGH gerade beide Karten neu testet und dass die Ergebnisse ziemlich gut aussehen ...
MfG,
Raff
Bin gespannt :)

Cyphermaster
2016-07-07, 13:43:51
Hier hat doch schon ein User geschrieben das man den Boost-Takt sogar besser hält mit abgesenkter Spannung, oder habe ich das falsch verstanden?Schaffe ist für eine halbwegs objektive Einschätzung der Karte imho keine besonders gute Quelle.

Disco_STFU
2016-07-07, 13:45:14
dass die Ergebnisse ziemlich gut aussehen ...

1175

:freak:

Complicated
2016-07-07, 13:47:44
Complicated nimmt das mit der Rebellion einfach sehr ernst. Da nimmt man sich den nächstbesten Feind, nachdem Nvidia zu mächtig ist. Wenn er wüsste, dass die PCGH gerade beide Polaris-Karten neu testet und dass die Ergebnisse ziemlich gut aussehen ... würde es nichts ändern, denn seine Wahrnehmung die PCGH-Methodik ist totally flawed. Sorry Raff, doch die Testsmethodik wird auch von deinem hohen Roß aus gesehen nicht besser. Und die dauernde Schleichwerbung für kommende Tests geht mir so langsam auch gegen den Zeiger, wenn die Reaktionen mit fundierter Kritik zu Fanboy-Gelaber gemacht wird von dir.

Es gibt gute Gründe nicht bei PCGH angemeldet zu sein, du demonstrierst gerade einen hier im Thread.

j4l
2016-07-07, 13:48:49
Complicated nimmt das mit der Rebellion einfach sehr ernst. Da nimmt man sich den nächstbesten Feind, nachdem Nvidia zu mächtig ist. Wenn er wüsste, dass die PCGH gerade beide Polaris-Karten neu testet und dass die Ergebnisse ziemlich gut aussehen ... würde es nichts ändern, denn seine Wahrnehmung die PCGH-Methodik ist totally flawed. :ulol:

MfG,
Raff

Hattest du meine Frage bzgl. des manuellen Einstellens der Defaultspannung für den Speichercontroller gelesen? Probiert ihr das auch aus?

Raff
2016-07-07, 13:50:22
Sorry Raff, doch die Testsmethodik wird auch von deinem hohen Roß aus gesehen nicht besser. Und die dauernde Schleichwerbung für kommende Tests geht mir so langsam auch gegen den Zeiger, wenn die Reaktionen mit fundierter Kritik zu Fanboy-Gelaber gemacht wird von dir.

Es gibt gute Gründe nicht bei PCGH angemeldet zu sein, du demonstrierst gerade einen hier im Thread.

Das nennt man Erfahrung. Nach zehn Jahren im Geschäft nehme ich nur noch ordentlich vorgetragene Kritik ernst. Nicht jedes Gemotze von der Seite fließt beim Überdenken der jahrelang erprobten Testmethodik ein.

Hattest du meine Frage bzgl. des manuellen Einstellens der Defaultspannung für den Speichercontroller gelesen? Probiert ihr das auch aus?

Jau, das wird allerdings noch etwas dauern. Da ist ein dicker Praxisartikel in der Mache. :)

MfG,
Raff

Linmoum
2016-07-07, 13:51:02
Ist nicht so einfach, da für alle Seiten eine zufriedenstellende Lösung zu finden. Irgendjemand findet immer etwas, dass er kritisieren kann.

Problematisch wird's da eher bei Leuten, die sich ansonsten kaum mit Grafikkarten beschäftigen und jetzt einfach wissen wollen, wie viel Leistung die potentiell neu gekaufe Karte hat.

Wenn man da PCGH (15 Spiele) und CB (22 Spiele) vergleicht, dann ist die 480 bei PCGH 11% hinter der 390, bei CB ist sie aber mit jener 390 gleichauf.
Da stehst du dann als Laie natürlich vor der Frage: Was davon stimmt nun eher?

Edit: (Ok, bei PCGH muss man natürlich noch bedenken, dass WQHD und UHD mit dabei sind. Kommt natürlich noch dazu).

Es gibt gute Gründe nicht bei PCGH angemeldet zu sein, du demonstrierst gerade einen hier im Thread.
Die Art und Weise hier wie die "Kritik" vorgetragen wird lässt aber auch zu wünschen übrig... Kann Raff da schon verstehen.

Fliwatut
2016-07-07, 13:51:32
Wenn er wüsste, dass die PCGH gerade beide Polaris-Karten neu testet und dass die Ergebnisse ziemlich gut aussehen ...
Habt ihr den neuen Treiber schon oder habt ihr mit Wattman experimentiert?

Complicated
2016-07-07, 13:53:47
Du kannst die Ergebnisse von PCGH natürlich ignorieren und kritisieren, das steht dir frei. Du stehst mit der Ansicht, dass deren Tests Murks und für die Tonne sind, nur relativ alleine da, denn es gibt gute Gründe für die verwendete Methode und die Ergebnisse sind in sich schlüssig, reproduzierbar und nachvollziehbar. Dank der transparenten Herangehensweise, kann sogar jeder die Benchmarkstelle nachtesten und die Ergebnisse auf Plausibilität überprüfen. Entweder hat sich bisher keiner die Mühe gemacht, oder die Messergebnisse sind doch so brauchbar, dass Kritik fehl am Platze ist.
Nichts dagegen einzuwenden. Ich schrieb dir lediglich, dass dies HIER nicht Offtopic ist seine Meinung darüber zu äussern. Daher fand ich deinen Hinweis darauf deplatziert.

Wenn jemand die Stelle nachprüft kann er nicht das selbe Ergebnis bekommen, weil er dafür ebenfalls die Taktraten fest setzen müsste. Tut er das nicht bekommt er auf jeden Fall ein anderes Ergebniss. Dem zu folge müsste ich alle 20 Spiele testen und dann daraus meinen eigenen Mittelwert der Taktrate erstellen un dann eben die Spiele mit der festen Taktrate erneut testen. Nur so kann ich überprüfen ob die PCGH Werte korrekt sind oder nicht. Ernsthaft jetzt? Die Werte kann niemand zu Hause nachstellen.

BK-Morpheus
2016-07-07, 13:53:58
[..]Wenn er wüsste, dass die PCGH gerade beide Polaris-Karten neu testet]...]
MfG,
Raff
Finde ich übrigens richtig super, dass ihr das nochmal testet. Auch die Videos von euch fand ich (entgegen anderer User) gut und unterhaltsam.

Ein paar Detailtests zum Stromverbrauch bei Videowiedergabe und Multimonitor-Betrieb wären noch nett.
Es gibt Tests, bei denen der Verbrauch beim Multimonitor-Setup nicht übel aussieht und welche, bei denen es AMD typisch mies aussieht.
Ich gehe davon aus, dass es weiterhin große Unterschiede gibt zwischen 2x Monitor mit gleiche Auflösung+Refreshrate und zwei unterschiedlich auflösenden Monitoren.

Birdman
2016-07-07, 13:55:11
eieie, was die diversen AMD Fanboys auf den letzten 10 Seiten hier von sich gegeben haben, lässt mich grad etwas am Auffassungsvermögen und der Intelligenz dieser Klientel zweifeln....

Die PCGH Messmethode ist mitunter nämlich sogar die beste und transparenteste von allen!
Schon mal gefragt wieso die RX480 in manchen Tests quasi über den ganzen Gameparcour hindurch langsamer als die GTX970 ist (z.B. TomsHardware) in andern Tests mit +- den selben Games jedoch schneller?
Gaynau, unterschiedliche (Boost)Taktraten der modernen 3D-Beschleuniger im Werkszustand und diese lassen einfach keine "vergleichbaren" Tests mehr zu, ausser eben man macht es so wie PCGH.
Denn dort wird die wirkliche! (und nicht auf der Packung aufgedruckt) Taktfrequenz jeder Karte mitgeliefert und man kann exakt vergleichen, wie schnell eine GPU im Verhältnis zur andern ist.

Bei allen andern Tests ist es doch nur ein Rätselraten im heutzutage bis zu 20% Differenz-Bereich, wie schnell denn eine Karte im Verhältnis zu einer andern wirklich ist.
Weil je nachdem was der Tester gerade im GPU-Lotto vgewonnen hat, kommen trotz identischerer Referenzangaben, komplett andere Werte raus.
Und i.d.R gibt ja keiner dieser Tester die gemittelten Taktwerte beim jeweiligen Benchmark mit an....wie also soll man so dann die Performance einschätzen können?

Complicated
2016-07-07, 13:55:38
Die Art und Weise hier wie die "Kritik" vorgetragen wird lässt aber auch zu wünschen übrig... Kann Raff da schon verstehen.Und welche Art und Weise stört dich da konkret? Die Dinge beim Namen zu nennen? oder fehlende Smileys :eek: :redface::tongue:

Complicated
2016-07-07, 13:58:09
Denn dort wird die wirkliche! (und nicht auf der Packung aufgedruckt) Taktfrequenz jeder Karte mitgeliefert und man kann exakt vergleichen, wie schnell eine GPU im Verhältnis zur andern ist.Dann erkläre mir mal warum sie CPUs nicht auf die selbe Weise testen und dort die Turbos nicht fest takern? Da würde dir jeder einen Vogel zeigen wenn du so einen Test in einem Forum verlinkst.
Hast du schon mal einen Notebooktest mit dieser Methode gesehen?

N0Thing
2016-07-07, 13:58:32
Ist nicht so einfach, da für alle Seiten eine zufriedenstellende Lösung zu finden. Irgendjemand findet immer etwas, dass er kritisieren kann.

Problematisch wird's da eher bei Leuten, die sich ansonsten kaum mit Grafikkarten beschäftigen und jetzt einfach wissen wollen, wie viel Leistung die potentiell neu gekaufe Karte hat.

Wenn man da PCGH (15 Spiele) und CB (22 Spiele) vergleicht, dann ist die 480 bei PCGH 11% hinter der 390, bei CB ist sie aber mit jener 390 gleichauf.
Da stehst du dann als Laie natürlich vor der Frage: Was davon stimmt nun eher?

Edit: (Ok, bei PCGH muss man natürlich noch bedenken, dass WQHD und UHD mit dabei sind. Kommt natürlich noch dazu).


AFAIK wurden auch unterschiedliche Treiber verwendet und CB testet nicht immer mit maximalen Details, was der geringeren Speicherbandbreite der RX 480 zugutegekommen sein könnte.

Loeschzwerg
2016-07-07, 13:59:26
Ist der Polaris Bios Editor schon hier durchgedrungen?

https://github.com/caa82437/PolarisBiosEditor

Schon jemand probiert? Scheint ja keine Sau hier zu interessieren...

BK-Morpheus
2016-07-07, 13:59:51
Mich stört die Messmethode von PCGH nicht, zum Glück steht ja dran, dass es im Schnitt 1150MHz Boost waren.
Ich muss mir dann aber ausrechnen oder andere Reviews heranziehen um zu sehen, wo die Karte mit durchgängig 1266MHz Boost einzuordnen ist, da ich die Karte ohnehin undervolten würde und der Boost alleine dadurch quasi durchgängig voll anliegt.

Birdman
2016-07-07, 14:07:43
Dann erkläre mir mal warum sie CPUs nicht auf die selbe Weise testen und dort die Turbos nicht fest takern? Da würde dir jeder einen Vogel zeigen wenn du so einen Test in einem Forum verlinkst.
Hast du schon mal einen Notebooktest mit dieser Methode gesehen?
Geht es hier um CPUs? :freak:
Und ja, auch dort sind ALLE Tests seit Jahren genau gleich "flawed", weil einfach nicht übertragbar auf alle Modelle des gleichen Chips. Ja nach ASIC, Temperatur im Testraum, Wärmeleitpaste, Lüftersteuerung des Mainboards, etc. kommen da unterschiedliche Werte raus.

Deswegen macht es aber die PCGH Testmethode trotzdem nicht schlecht.
Nur weil alle andern Scheisse fressen, soll Raff doch nicht auf sein 7-Gang Menu verzichten....

N0Thing
2016-07-07, 14:13:52
Wenn jemand die Stelle nachprüft kann er nicht das selbe Ergebnis bekommen, weil er dafür ebenfalls die Taktraten fest setzen müsste. Tut er das nicht bekommt er auf jeden Fall ein anderes Ergebniss. Dem zu folge müsste ich alle 20 Spiele testen und dann daraus meinen eigenen Mittelwert der Taktrate erstellen un dann eben die Spiele mit der festen Taktrate erneut testen. Nur so kann ich überprüfen ob die PCGH Werte korrekt sind oder nicht. Ernsthaft jetzt? Die Werte kann niemand zu Hause nachstellen.

Wenn man die Ergebnisse anzweifelst, kann man diese mit identischer Hardware und Einstellungen überprüfen und mit Messergebnissen auf identischer Hardware ohne festgepinnten Takt vergleichen. Das dies für die meisten Leser mangels passender Hardware eine theoretische Möglichkeit ist, sollte klar sein, aber das ist ja nicht die Schuld oder das Problem der PCGH, oder?
Ich muss für mein System übrigens auch umdenken, wie die potentielle Performance in meinem System aussehen würde, wenn ich CPU X oder GPU Y einbauen würde, da ich in der Regel weder die für CPU-Reviews verwendete GPU besitze, noch die für GPU-Reviews verwendete CPU. Da kommen mir die unterschiedlichen Benchmarks, die man überall antrifft entgegen und ich kann mir aus einem breiten Angebot ein eigenes Urteil bilden. Die Benchmarks der PCGH mögen ein worst case szenario abbilden (sehe ich anders), überflüssig, wertlos oder falsch sind sie deshalb noch lange nicht.
Übrigens, da Desktop-CPUs in der Regel nicht in eine Strom- und Temperaturgrenze laufen, sehe ich dort auch keinen gesteigerten Bedarf für einen festgepinnten Takt.

Vielleicht findest du im Forum oder sonst wo jemanden, der die passende Hardware hat und zumindest stichprobenartig die Benchmarks der PCGH nachstellen kann.

Fliwatut
2016-07-07, 14:18:06
Ist der Polaris Bios Editor schon hier durchgedrungen?

https://github.com/caa82437/PolarisBiosEditor

Sieht auf jeden Fall interessant aus, da kann man ja ganz sehr viel einstellen.

Achill
2016-07-07, 14:26:35
Ist der Polaris Bios Editor schon hier durchgedrungen?

https://github.com/caa82437/PolarisBiosEditor

Schon jemand probiert? Scheint ja keine Sau hier zu interessieren...

Würde mich auch interessieren ... :D

Schnoesel
2016-07-07, 14:38:58
Ehrlich gesagt versteh ich einfach nicht warum man hier wieder auf PCGH rumhackt die sind sicherlich nicht parteiisch. Dabei sollten einem jeden auch klar sein dass ein Benchmark nichts anderes ist als eine Leistungsabbildung über einen kurzen Zeitraum in einer bestimmten Szene mit bestimmten Settings. Daher ist es immer sinnvoll sich mehrere Seiten anzusehen wobei keine davon die ultimative Wahrheit darstellt.

Aber lieber begräbt man hier das eigentlich Thema wieder mal in einer sinnlosen Seitenlangen Diskussion. Vielen Dank dafür ... nicht!

RoughNeck
2016-07-07, 14:42:05
Dann erkläre mir mal warum sie CPUs nicht auf die selbe Weise testen und dort die Turbos nicht fest takern? Da würde dir jeder einen Vogel zeigen wenn du so einen Test in einem Forum verlinkst.
Hast du schon mal einen Notebooktest mit dieser Methode gesehen?

Willst jetzt ernsthaft den Boost bei den CPUs, mit den Boost bei den Grafikakrten vergleichen?
Da gibt es schon "winzig" kleine Unterschiede :wink:

Raspo
2016-07-07, 14:55:50
So siehts aus, gibt einfach keine Alternativen, nach 4 Jahren mit der HD 7970 in meinem Fall :(

Sehe ich völlig anders. Hab ne 7970 OC und für mich ist ne Custom RX 480 genau das Richtige.

iuno
2016-07-07, 15:03:13
Ich moechte mich nicht in das Gebashe einreihen (habe ehrlich gesagt auch nie verstanden warum PCGH anti-AMD sein soll), habe aber trotzdem noch ein paar Punkte, die imho auch ins Thema des Threads passen.

AMD gibt keinen typischen Boost an, daher wird da mit dem Takt gemessen, wie er nach der Aufheizphase herauskommt. Die vorliegende RX 480/8G scheint nicht die beste zu sein, der Takt fällt stark; bei der später hinzugekommenden RX 480/4G sieht's wesentlich besser aus. Hier würde eine Angabe des typischen Boosts zur Einschätzung helfen. Wobei Ausreißer nach oben und unten natürlich auch interessant sind.
Ja, Nvidia macht das ganze Gebooste zweifellos auch besser als AMD. Einerseits sind die Schwankungen offenbar schon nicht so gross (ohne OC Potenzial jetzt gesehen), andererseits wird da auch einfach mehr abgefangen. AMD ist da groeber mit den 7 DPM States und dementsprechend 7 festen Spannungen fuer jeweils die entsprechende Guete des Chips.

Da 1,15 V aber das Maximum sind, was ueberhaupt einstellbar ist kann man sich leicht denken, dass das Muster wirklich sehr schlecht sein muss, wenn es schon standardmaessig mit der maximal moeglichen Spannung laeuft.
Ihr lest ja auch hier und anderswo mit und seht, dass die Chips mitunter auch mal (angeblich) mit 1,0 V laufen.

Das soll jetzt keine Kritik an der Methodik von PCGH sein. Ich weiss auch dass es aufwendig ist, mir geht es nur um die Einordnung der Chips und das Sammeln von weiteren Erkenntnissen.

Wir wissen, dass AMD Spannungstabellen hat und je nach Guete der Chips +/- Offsets auf die DPM Spannungen gibt, wie genau das funktioniert aber nicht (ich zumindest). Man konnte die eingestellten Spannungen pro DPM State aber vorher aus Registern und jetzt so einfach wie nie mit dem WattMan ablesen. Oben ist bei 1,15 Schluss, aber was ist der kleinste Wert, den AMD minimal bei dem theoretisch perfekten Chip in DPM7 setzt?
Ich hatte auch noch keine Lust das zu untersuchen, waere aber mal interessant zu wissen. Dann koennte man eingrenzen und sehen, wie gross wirklich die Bandbreite der Spannungen zwischen den ausgelieferten Chips ist.

Von manuellem Undervolting fuer Tests (wie hier ja von einigen gefordert wird) halte ich absolut nichts. Dann muesste man alle anderen Chips, einschliesslich derer von NV genauso untervolten. Das taugt hoechstens fuer Sondertests wie es auch bei der Nano gemacht wurde aber nicht fuer einen Index.

Wenn wir aber jetzt wuessten, wo der Median der Spannungen liegt, koennte man in dem Fall, dass das Sample davon wirklich extrem abweicht, das immerhin kenntlich machen, ein anderes Sample probieren oder ein bisschen in die "richtige" Richtung gehen.
Wie gesagt, den Aufwand erwarte ich aber eigentlich von keinem. Bei Nvidia wird das bzgl. des Boosts ja auch nicht gemacht. NV boostet intelligenter und schneidet damit logischerweise auch in Tests besser ab, was solls. Interessant waeren diese Infos dennoch mal :P


Das jedem Tester zugesandte Sample kann links und rechts neben der statistischen Angabe liegen (oder zufällig mittig). Auch wenn man das als Tester gerne so hätte, ein Muster ist eben nur ein Muster.
Genau daher verstehe ich nicht, warum man das nicht klarer herausstellt. Die 4 GiB Karte ist der "Geheimtipp", fuer mich stimmt das weil sie real 8 GiB hat, fuer den Leser wird aber imho suggeriert, dass sie im Schnitt schneller ist weil sie den Takt besser haelt. Das liegt zum einen natuerlich am niedrigeren Speichertakt, zum anderen aber auch an der deutlich niedrigeren Spannung des jeweiligen Samples. Das trifft aber wiederum nicht auf alle Chips zu. Es kann genauso schlechte ASICs geben, die auf ein "4G" Modell kommen und genauso gute, die auf einer 8G-Karte verwendet wurden.


Schon jemand probiert? Scheint ja keine Sau hier zu interessieren...
ja, ich hoere dich (und kannte es aber auch schon zuvor ;p )
Interessant ist das schon, ich habe aber keine 480 :P


Andere Frage: weiss jemand, ob bei P10 jetzt die Komponenten mit eigenen Spannungstabellen auch alle eigene Spannungen haben?
Vorher gab es ja immer 6 Spannungstabellen: GPU, Speicher, UVD, VCE, SAMU, ACP. Alle mit den 7 DPM States und entsprechenden Spannungen. Man musste die Spannungen ueber alle Komponenten gleich halten.
Der MC ist ja mit WattMan erstmals eigens einstellbar aber was ist mit UVD, VCE usw?
Bei mir (Hawaii) war das naemlich durchaus ein "Problem". Mit den -75 mV in DPM7, mit denen ich die Karte seit Monaten betreibe ist alles stabil, nur die VCE laeuft nicht.
("Problem" steht in in "" weil ich die VCE nicht benutze.)

Unrockstar
2016-07-07, 15:10:29
Ernsthaft? Muss ich jetzt wirklich ein drittes Mal schreiben, dass wir die RX 480 aufgeheizt und so gemessen haben, wie sie von sich aus lief? Ohne Worte. :eek: Ich bin jetzt weg, was arbeiten.

MfG,
Raff
Du böser Mensch, du nutzt ein Produkt out of the Box :biggrin: Aber ich mag Eure Tests, auch wenn sie eben nicht das Maximum der Karten mit Boost zeigen. Ich denke ne RX 480 würde auch bei mir die 1200MHz nicht halten, wenn sie eben schon 2std läuft. Deswegen ist das doch völlig ok
Overall würde es ja die Karte nun auch nicht zum 980 Killer machen, sondern eben auf 390 vllt X Niveau klettern lassen. Ich versteh die Aufregung nicht.
Aber nach dem PCI-Sig Skandal muss der nächste her :eek:

@Iono
AMD hat 7 States und Nvidia mittlerweile 21? (Meine da mal sowas gelesen zu haben)
Würde man bei AMD mehr States einfügen wäre die Karte effizienter.. Aber mehr States bedeuten ja auch mehr Aufwand für die Selbstüberwachung.

Dino-Fossil
2016-07-07, 15:15:49
Das Lagerdenken und draus folgende getrolle und gejammere hat in den letzten Jahren schon ziemliche Ausmaße angenommen.
Inzwischen steht ja grundsätzlich jeder erstmal unter Generalverdacht irgendeine Agenda zu verfolgen.

TerrorZivi
2016-07-07, 15:21:58
Schon jemand probiert? Scheint ja keine Sau hier zu interessieren...


Der Editor an sich soll wohl funktionieren, wenn ich allerdings nach overclock.net gehen bringt er im Moment noch nichts. Scheinbar ist im Treiber wieder eine BIOS-Validierung eingerichtet. Mit einem veränderten BIOS erkennt der Treiber, unter Windows, die Karte nicht. Unter Linux scheint es trotzdem zu laufen. Bisher kann man in der Windowswelt also nur ungemoddete Originale flashen.

Cyphermaster
2016-07-07, 15:46:58
Das Lagerdenken und draus folgende getrolle und gejammere hat in den letzten Jahren schon ziemliche Ausmaße angenommen.
Inzwischen steht ja grundsätzlich jeder erstmal unter Generalverdacht irgendeine Agenda zu verfolgen.
QFT.

Ich bin aktuell eher auf den Vergleich der Customs gespannt zwischen 1060 und 480, als das Einprügeln auf tote Pferde bzw. Wunschphantasien der komplett "rot-grün-blinden" Fanboys. ;)

Dino-Fossil
2016-07-07, 16:07:04
Durch Sommerurlaub und diverse berufliche und persönliche Termine werde ich vor August/September wohl eh nicht dazu kommen, mir eine neue Karte anzuschaffen.
Bis dahin sind dann hoffentlich einige Customs der 470/480 und 1060 raus, die Preise haben sich etwas eingependelt und man kann in Ruhe die richtige Karte für die jeweiligen Bedürfnisse aussuchen.

Wenigstens tut sich mal wieder was am Markt. :wink:

Cyphermaster
2016-07-07, 16:55:31
Absolut! Bleibt nur anzufügen zum Thema "...die Preise haben sich etwas eingependelt...", daß sie das wohl in die für Kunden richtige Richtung, nämlich nach unten, tun. In Sachen Preis/Leistung ist die RX480 deshalb aus dem Aspekt heraus schon jetzt ein Gewinn. ;)

[MK2]Mythos
2016-07-07, 16:58:45
Die Nitro 480 liegt mittlerweile bei umgerechnet 319 Eur mit Versand bei OC UK. Vor ein paar Tagen waren es auf Grund des Umrechnungskurses noch 330 Eur. Wahnsinn was sich da tut.
Ich frag mich nur warum deutsche Händler die Karte nicht listen.

Complicated
2016-07-07, 17:12:08
Wenn man die Ergebnisse anzweifelst, kann man diese mit identischer Hardware und Einstellungen überprüfen und mit Messergebnissen auf identischer Hardware ohne festgepinnten Takt vergleichen. Das dies für die meisten Leser mangels passender Hardware eine theoretische Möglichkeit ist, sollte klar sein, aber das ist ja nicht die Schuld oder das Problem der PCGH, oder?
Die Schuld von PCGH ist, dass man mit einem, zwei oder drei der Spiele aus den 20 die PCGH verwendet um den "mittleren Boosttakt" zu ermitteln die Ergebnisse nicht nachstellen kann. Man braucht nicht nur die Hardwre dazu, sondern auch alle 20 Spiele um zu verifizieren, dass der durchschnittliche Boosttakt korrekt ist. Das ist für jeden Leser unzumutbar und de Facto nicht möglich. Bei anderen Tests kann ich mein Spiel raus picken und das nachtesteten.
Du böser Mensch, du nutzt ein Produkt out of the Box :biggrin: Nein das machen sie ja eben nicht. Der Boost wird deaktiviert und auf eine feste Taktfrequenz gepinnt. Was ist da "out of the box"?

Wenn ich mir den Aufwand anschaue um die mittlere Boost-Frequenz zu ermitteln in 20 Spielen, dann schlage ich eher vor ihr testet jede Karte undervolted und OC. Das spart Zeit und ihr habt Ergebnisse die deutlich sinnvoller zu nutzen sind vom Leser.

Loeschzwerg
2016-07-07, 17:17:00
ja, ich hoere dich (und kannte es aber auch schon zuvor ;p )
Interessant ist das schon, ich habe aber keine 480 :P


Dann kaufen, los los! :deal: Als Linuxer hat man da ja aktuell die besseren Optionen :)

Der Editor an sich soll wohl funktionieren, wenn ich allerdings nach overclock.net gehen bringt er im Moment noch nichts. Scheinbar ist im Treiber wieder eine BIOS-Validierung eingerichtet. Mit einem veränderten BIOS erkennt der Treiber, unter Windows, die Karte nicht. Unter Linux scheint es trotzdem zu laufen. Bisher kann man in der Windowswelt also nur ungemoddete Originale flashen.

Danke für die Info. Dürfte wohl nur eine Frage der Zeit sein bis man das Bios entsprechend mit dem Editor "zertifiziert" bekommt.

Hasenpfote
2016-07-07, 17:23:02
Die GTX 1060 wird es als Referenzdesign in allen Punkten deutlich besser machenNur aus Interesse: Du arbeitest als Hellseher?Scheinbar, denn Nvidia behauptet, die 1060 bügelt die RX480 weg. Für 249$ (ok, Referenzdesign ist 299$, aber hier sind ja eh alle scharf auf Customs) und 120W:
http://www.heise.de/newsticker/meldung/Nvidia-enthuellt-Spieler-Grafikkarte-GeForce-GTX-1060-GTX-980-Leistung-bei-120-Watt-3259536.html

Soviel zum großen Wurf von AMD :mad::mad::mad:

Wenn Zen genauso ein Reinfall wird, soll AMD sich am Besten verkaufen und zerschlagen lassen. Ist doch zum Kotzen...

PS: Ja, ich weiß die 249$ sind vor Steuern, genau wie die 199$/239$ von AMD.

BiZiNiZz
2016-07-07, 17:28:59
@Complicated
Wenn du hier so der Ober-Pro bist und meinst alles und jeden kritisieren zu müssen, bzw auch alles besser weißt, dann hab ich einen Vorschlag an dich:

Mach deine eigene Hardware Redaktion auf und erleuchte uns mit deinen perfekten Benchmarks :freak:

iuno
2016-07-07, 17:29:19
Dann kaufen, los los! :deal: Als Linuxer hat man da ja aktuell die besseren Optionen :)
Mich juckt es tatsaechlich ein bisschen, das ist aber nur der Spieltrieb.
Unter Linux brauche ich die Leistung nicht, da reicht mir momentan die IGP. Und fuers Spielen bin ich mit Hawaii noch versorgt ;)
Wenn die Karten nicht mehr ueber UVP verkauft werden und Fullcover verfuegbar sind koennte ich es mir nochmal ueberlegen, ich gehe aber nicht davon aus.

Menace
2016-07-07, 17:33:36
@Hasenpfote: Ja, die 1060 könnte AMD wirklich schmerzen. Ich hoffe, die haben noch Reserven, was der Preis angeht.

Zen wird trotzdem nicht direkt so von den Balkenlängen abhängen, wie eine GPU, um Erfolgreich zu sein (imho).

Dino-Fossil
2016-07-07, 17:38:35
Vor allem sollte man NVidia Marketing nicht 1:1 mit AMD-Realität vergleichen.
AMD-Marketing sah ja auch deutlich besser aus...

Aber sicher wäre es AMD lieber gewesen, die 1060 käme später. Wobei ja erstmal abzuwarten bleibt, wie die Verfügbarkeit aussieht.
Für uns Kunden ist es eigentlich gut, mehr Angebot, bessere Preise...

Korfox
2016-07-07, 17:41:36
...
Ich finde, es reicht jetzt.
Es gibt Leute, die hier über die RX480 lesen wollen und die deine Kritik an der PCGH nicht interessiert. Schreibe das doch woanders.
Du hast mehrfach Antworten bekommen. Dir wurde auch geschrieben, dass die RX480 beim Test nicht festgepinnt wurde. Du stänkerst rum und machst Krawll, der völlig OT ist.
Ich habe deinen letzten Beitrag dann mal gemeldet.

---
Der Beitrag hier kann gerne gelöscht werden, wenn im Thread aufgeräumt werden sollte. Der tut auch nichts zum Thema bei.
---

Arcanoxer
2016-07-07, 17:42:23
PS: Ja, ich weiß die 249$ sind vor Steuern, genau wie die 199$/239$ von AMD.Die 4GB RX480 war eine reine Marketing Karte und kann getrost aus den Köpfen gestrichen werden.
Beim geizhals.de Preisvergleich ist keine einzige mehr gelistet. :freak:

http://geizhals.de/?cat=gra16_512&xf=1440_RX+480#xf_top

hmmm
2016-07-07, 17:42:34
Scheinbar, denn Nvidia behauptet, die 1060 bügelt die RX480 weg. ...
Auch unter DX12?

Loeschzwerg
2016-07-07, 17:47:20
Mich juckt es tatsaechlich ein bisschen, das ist aber nur der Spieltrieb.
Unter Linux brauche ich die Leistung nicht, da reicht mir momentan die IGP. Und fuers Spielen bin ich mit Hawaii noch versorgt ;)
Wenn die Karten nicht mehr ueber UVP verkauft werden und Fullcover verfuegbar sind koennte ich es mir nochmal ueberlegen, ich gehe aber nicht davon aus.

Same here :) So bescheiden die ganze Gewichtung von Slot/6Pin auch sind, das PCB bietet viele Möglichkeiten für Bastler (HIER! :cool:). Mit einem entriegelten Bios wäre ich bei der Ref.-Karte sofort dabei, zumal ich hier einen fast exakt passenden Vollkupfer-Kühler herumliegen habe (DHE done right).

Schaffe89
2016-07-07, 17:48:50
@Complicated
Wenn du hier so der Ober-Pro bist und meinst alles und jeden kritisieren zu müssen, bzw auch alles besser weißt, dann hab ich einen Vorschlag an dich:

Mach deine eigene Hardware Redaktion auf und erleuchte uns mit deinen perfekten Benchmarks :freak:

Das ist doch jedes Jahr so, ich weiß damals noch auf Computerbase wo jeder Launch ein Fiasko war, wenn gruffi und er AMD bis aufs Blut verteidigten.:tongue: Hach das waren noch Zeiten.
Er fordert hier für die AMD Karten eine Übertaktung und Senkung der Spannung, mhm ja klar. Sinnvoll.

Ich wäre dafür die Produkte genauso zu testen wie sie AMD/Nvidia vorsieht.
Wenn AMD dabei so schlecht aussieht, ist das nunmal ihr eigenes Verschulden, wie so oft schon.

Menace
2016-07-07, 17:49:59
Die 4GB RX480 war eine reine Marketing Karte und kann getrost aus den Köpfen gestrichen werden.
Beim geizhals.de Preisvergleich ist keine einzige mehr gelistet. :freak:

http://geizhals.de/?cat=gra16_512&xf=1440_RX+480#xf_top

Dann müsste die 8GB auch eine reine Marketing-Karte sein, da sie auch langsam nicht mehr vorhanden ist: http://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+RX+Serie/RX+480.html

Linmoum
2016-07-07, 17:51:10
Die 4GB RX480 war eine reine Marketing Karte und kann getrost aus den Köpfen gestrichen werden.
Beim geizhals.de Preisvergleich ist keine einzige mehr gelistet. :freak:

http://geizhals.de/?cat=gra16_512&xf=1440_RX+480#xf_top
War ja auch davon die Rede, dass AMD nur für die 8GB ein Referenzmodell anfertigt und die 4GB komplett von den AIBs übernommen werden. Passt dann schon.

Arcanoxer
2016-07-07, 17:51:30
Auch unter DX12?
Das kann dir noch keine Beantworten.
DX12 ist doch sowas von bedeutungslos. Und wird es dank Windows 10 hoffentlich auch bleiben.
Vulkan ist ein anderes Thema, aber auch dort werden noch so einige Monate verstreichen bis es relevant wird, leider.

Dann müsste die 8GB auch eine reine Marketing-Karte sein, da sie auch langsam nicht mehr vorhanden ist: http://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+RX+Serie/RX+480.html
7 von 8 RX480 sind lieferbar...
http://geizhals.de/?cat=gra16_512&xf=1440_RX+480#xf_top

Schaffe89
2016-07-07, 17:52:16
Dann müsste die 8GB auch eine reine Marketing-Karte sein, da sie auch langsam nicht mehr vorhanden ist: http://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/Radeon+RX+Serie/RX+480.html

Ja soviel dann zur guten Verfügbarkeit wenn keine mehr lagernd ist.:redface:
Damit wurde ja seit GTX1070/GTX1080 Launches in jedem Forum herumgedödelt und dann kann es AMD auch nicht besser machen.

Complicated
2016-07-07, 17:53:28
@Complicated
Wenn du hier so der Ober-Pro bist und meinst alles und jeden kritisieren zu müssen, bzw auch alles besser weißt, dann hab ich einen Vorschlag an dich:

Mach deine eigene Hardware Redaktion auf und erleuchte uns mit deinen perfekten Benchmarks :freak:Was für ein schlauer Kommentar ist das denn? Hier dürfen nur Redakteure kritisieren oder den Mund halten? Soweit ich weiss ist das ein Forum. Ich hoffe du gibst keine Kommentare zur Leistung der Deutschen Mannschaft ab heute Abend :freak: Es sei denn du bist Nationalspieler.
Ich finde, es reicht jetzt.
Es gibt Leute, die hier über die RX480 lesen wollen und die deine Kritik an der PCGH nicht interessiert. Schreibe das doch woanders.
Du hast mehrfach Antworten bekommen. Dir wurde auch geschrieben, dass die RX480 beim Test nicht festgepinnt wurde. Du stänkerst rum und machst Krawll, der völlig OT ist.
Ich habe deinen letzten Beitrag dann mal gemeldet.

---
Der Beitrag hier kann gerne gelöscht werden, wenn im Thread aufgeräumt werden sollte. Der tut auch nichts zum Thema bei.
---Also zum einen ist DAS HIER der Thread wo es um Reviews und Previews der RX480 geht. Wenn dann eine fehlerhafte Testmethodik festgestellt wird, spricht man darüber. Über den PCIe-Slot der RX480 wurde ja auch recht viel breit getreten, nicht wahr? Also bitte die selben Maßstäbe bei der Arbeit der Testredaktionen anwenden. Das ist kein stänkern und beleidigt habe ich auch niemanden.

Und jetzt eine Frage:
Wenn alle anderen Karten im Index festgepinnt waren und die RX 480 nicht, macht das diesen Test dann besser oder eher noch weniger aussagekräftig? Und ich stelle hier nicht die Frage nach dem warum oder weil es eine AMD Karte ist. Denn der Test taugt auch nicht um Nvidia Karten von 3 Generation miteinander zu vergleichen.

Menace
2016-07-07, 17:54:19
Das kann dir noch keine Beantworten.
DX12 ist doch sowas von bedeutungslos. Und wird es dank Windows 10 hoffentlich auch bleiben.
Vulkan ist ein anderes Thema, aber auch dort werden noch so einige Monate verstreichen bis es relevant wird, leider.

Man sollte nicht immer von sich auf andere schließen. Ich nutze erfolgreich Windows 10 (zum Geldverdienen und spielen), ebenso spiele ich zu einem viertel der Zeit momentan DX12 Titel (wenn ich mal Zeit habe).

Aber ich denke, dass die Kunden sich schon entsprechende Karten aussuchen können, die für ihre Nutzungsprofile passen.

Hasenpfote
2016-07-07, 17:55:08
Auch unter DX12?DX12=Windows10. Windows7 wird auf absehbare Zeit das am weitesten verbreitete OS sein. Wenn DX12 wirklich ein Rolle spielt, reden wir vermutlich schon vom Nachnachfolger der aktuellen Karten.

Persönlich spielt DX12 für mich keine Rolle, solange es an Win10 gebunden ist.
Eh ich Win10 verwende, wechsel ich zu Linux.

BK-Morpheus
2016-07-07, 17:56:06
Ja soviel dann zur guten Verfügbarkeit wenn keine mehr lagernd ist.:redface:
Damit wurde ja seit GTX1070/GTX1080 Launches in jedem Forum herumgedödelt und dann kann es AMD auch nicht besser machen.
Von den 8GB Karten sind mehr als genug vorhanden, wenn nicht bei Mindfactory only schaut.

DX12=Windows10. Windows7 wird auf absehbare Zeit das am weitesten verbreitete OS sein. Wenn DX12 wirklich ein Rolle spielt, reden wir vermutlich schon vom Nachnachfolger der aktuellen Karten.

Persönlich spielt DX12 für mich keine Rolle, solange es an Win10 gebunden ist.
Eh ich Win10 verwende, wechsel ich zu Linux.
Sag mal in 1-2 Jahren Bescheid, wie gut du mit Linux zurecht kommst.

Arcanoxer
2016-07-07, 17:56:33
Also zum einen ist DAS HIER der Thread wo es um Reviews und Previews der RX480 geht. Wenn dann eine fehlerhafte Testmethodik festgestellt wird, spricht man darüber.Hast du dir überhaubt mal die Mühe gemacht die postings von Raff zu verstehen?

Schnoesel
2016-07-07, 17:56:53
Die 4GB RX480 war eine reine Marketing Karte und kann getrost aus den Köpfen gestrichen werden.
Beim geizhals.de Preisvergleich ist keine einzige mehr gelistet.

Was du auch ständig mit deinem scheiß Marketing hast. Und ? Wo ist dein Problem außer mal wieder zu meckern? Nvidia hat auch angekündigt, dass die Partnerkarten wesentlich günstiger sein sollen. Und? Pustekuchen Marketing eben oder zündest du den Nvidia thread auch so an ... ich denke nicht. Lass es halt einfach.

Wenn dann eine fehlerhafte Testmethodik festgestellt wird, spricht man darüber.

Das ist allerdings deine exklusive Meinung und nervt nur noch.

Menace
2016-07-07, 17:58:26
Wie sieht es eigentlich allgemein im dem Referenzdesign aus. Wird so etwas nachproduziert oder ist das nur eine erste Menge, die dann durch Customs verdrängt wird? :confused:

Screemer
2016-07-07, 17:59:16
@Complicated
Wenn du hier so der Ober-Pro bist und meinst alles und jeden kritisieren zu müssen, bzw auch alles besser weißt, dann hab ich einen Vorschlag an dich:

Mach deine eigene Hardware Redaktion auf und erleuchte uns mit deinen perfekten Benchmarks :freak:
Der nächste Fanboy der Kritik an Testmethoden komsich findet? Ich nicht. die Art wie er es rüberbringt ist jedoch fragwürdig :ugly:

Fliwatut
2016-07-07, 18:01:44
Aber sicher wäre es AMD lieber gewesen, die 1060 käme später. Wobei ja erstmal abzuwarten bleibt, wie die Verfügbarkeit aussieht.
Ich glaube nicht, dass das anfänglich den Verkauf der 480 merklich beeinflusst, die 1060 wird erst als FE erscheinen und deutlich teurer sein als die 480, von der es dann ja auch bald gescheite Custom-Karten gibt. Erst wenn von beiden Chips Custom-Karten ohne Einschränkung verfügbar sind und sich die Preise eingependelt haben, wird man eine richtige Vergleichsbasis haben.

Complicated
2016-07-07, 18:01:58
Er fordert hier für die AMD Karten eine Übertaktung und Senkung der Spannung, mhm ja klar. Sinnvoll.
Einfach richtig lesen. Ich fordere gar nichts für AMD. Es geht um die Testmethodik. Angeblich ist es zu viel Aufwand undervolting und OC mit JEDER GPU die neu erscheint zu betreiben. Aber 20 Spiele mal schnell die Durchschnittswerte des Boosts zu ermitteln liegt dann im machbaren für JEDE GPU - das liest sich äußerst widersprüchlich. Ich sagte, dass man dann lieber auf den Turbo-Durchschnitt verzichtet und dafür die Spannungen testet. BEI JEDER KARTE. Damit etwas sinnvolles an Daten zur Verfügung steht.

Mir schwant nämlich bei dem "Zeitdruck" ganz anderes als 20 Spiele die durchgetestet wurden...wer kann das nachprüfen oder nachstellen daheim?

Edit: Also hilfreich wäre hier als Vorschlag in den Einzelspielen dann die erreichten Boost Takte einzupflegen. Damit hat jeder die Möglichkeit die einzelnen Spiele zu verifizieren. Gemesen und erfasst sind die ja, sonst kann man keinen Durchschnitt bilden. Diese Werte kann und sollte man sogar nachreichen. Das hilft dann zwar immer noch nicht bei dem fehlerhaften Index, doch wer Bescheid weiss kann sich wenigstens richtig informieren. Sollte ja kein Problem sein und damit ist das Thema dann auch vom Tisch - Eine gute PR-Abteilung hätte eine solche Lösung vielleicht schon gefunden ;)

Fliwatut
2016-07-07, 18:04:53
DX12=Windows10. Windows7 wird auf absehbare Zeit das am weitesten verbreitete OS sein.
Laut Steam ist Win10 das am weitesten verbreitete OS, das nutzen mehr Spieler als Win7 und Win8.1 zusammen: https://www.computerbase.de/2016-07/steam-umfrage-44-prozent-der-nutzer-bereits-mit-windows-10/ Daher wird sich auch DX12 über kurz oder lang durchsetzen, wovon dann die 480 profitieren könnte.

Arcanoxer
2016-07-07, 18:06:02
Ich glaube nicht, dass das anfänglich den Verkauf der 480 merklich beeinflusst, die 1060 wird erst als FE erscheinen und deutlich teurer sein als die 480, von der es dann ja auch bald gescheite Custom-Karten gibt.Die FE und Custom-Karten der GTX1060 sollen zeitgleich am 19. July erscheinen. Und deutlich teurer werden die auch nicht sein.
Woher stammen deine Informationen?

BiZiNiZz
2016-07-07, 18:09:40
Der nächste Fanboy der Kritik an Testmethoden komsich findet? Ich nicht. die Art wie er es rüberbringt ist jedoch fragwürdig :ugly:

Ne Kritik ist immer angebracht, aber wenn man ohne Ende auf seine Meinung besteht und auf Argumente, etc nicht eingeht und auch noch ausfällig wird, dann naja.... no comment :biggrin:

Und Fanboy? Eher weniger, es wird das gekauft was vernünftig bzw für den Einsatzzweck entsprechend taugt:cool:

eratte
2016-07-07, 18:14:55
Es gibt btw keinen Windows 8.1 Treiber von AMD für die RX 480.

Screemer
2016-07-07, 18:17:24
Es gibt btw keinen Windows 8.1 Treiber von AMD für die RX 480.
Schwer den Crimson 16.6.2 u ter Win8.1 zu installieren?

https://www2.ati.com/drivers/beta/radeon-crimson-16.6.2-win8.1-64bit.exe

Hasenpfote
2016-07-07, 18:18:57
Sag mal in 1-2 Jahren Bescheid, wie gut du mit Linux zurecht kommst.Naja, Win7 wird ja noch bis min. 2020 unterstützt. Zum normalen Surfen, Mailen und co. hab ich meine Mutter vor Jahren auf Ubuntu umgestellt. Deutlich weniger Anrufe seit dem, wobei es ab und zu mal Probleme gibt (Drucker spinnt, Programme sehen nach Updates anders aus, etc.), aber deutlich weniger als mit Windows.
Offen ist natürlich das Thema zocken, insbesondere bei Spielen, die Kopierschutz verwenden (z.B. MMORPGs). Aber wie gesagt, da ist noch eine Weile Zeit.

Loeschzwerg
2016-07-07, 18:19:14
Es gibt btw keinen Windows 8.1 Treiber von AMD für die RX 480.

Der Admin der AMD Treiberseite ist nur zu blöd um den link in der Übersicht zu setzen ;) Klickt man in z.B. den Win10 Download, findet man auch den 8.1.er (ist letztendlich aber eh identisch)

http://support.amd.com/en-us/kb-articles/Pages/AMD-Radeon-Software-Crimson-Edition-16.6.2-Release-Notes.aspx

eratte
2016-07-07, 18:19:53
Nein unmöglich weil den gibt es nicht für RX 480 und 8.1 - wird auch von AMD garnicht angeboten.

Workround wäre nur:

RX480 device information is completely missing in Windows 8,1 driver .inf file.

Download Windows 7 drivers and extract driver package. Browse to extracted drivers, e.g. c:\AMD\Radeon-Crimson-16.6.2-With-DOTNet45-Win7-64Bit\Packages\Drivers\Display\W76A_INF\ and manually install through context menu of C7303809.inf.

Control Center can also be installed manually through c:\AMD\Radeon-Crimson-16.6.2-With-DOTNet45-Win7-64Bit\Packages\Apps\CN\CNext\cnext64\ccc-next64.msi

Seems to work fine as a temporary solution until AMD gets their stuff fixed

Bei dem 16.6.2 für 8.1 wird nur der HDMI Audio zur Installation angeboten sonst nichts.

Loeschzwerg
2016-07-07, 18:25:22
Nein unmöglich weil den gibt es nicht für RX 480 und 8.1 - wird auch von AMD garnicht angeboten.

Workround wäre nur:



Bei dem 16.6.2 für 8.1 wird nur der HDMI Audio zur Installation angeboten sonst nichts.

Es wird aber doch ein 8.1er Paket angebote :confused: Wenn die Einträge dort wirklich fehlen wäre das mal wieder eine super Leistung :D

eratte
2016-07-07, 18:27:01
Es ist so, und auf das einbinden des Windows 7 Treibers habe ich keine Lust. Wenn der 16.7.1 nicht hilft geht die Karte zurück.

Screemer
2016-07-07, 18:30:35
Es ist so, und auf das einbinden des Windows 7 Treibers habe ich keine Lust. Wenn der 16.7.1 nicht hilft geht die Karte zurück.
Alter das ist das Anpassen/kopieren einer inf. Da musst du gar nix einbinden. Das dauert 1 Minute. Entpack das Ding und kopieren die oben angesprochene inf einfach in den entpacken win8.1 Treiber. Man kann sich halt auch echt anstellen als hätte man noch nie ne Textdatwi verändert oder gar ne Datei kopiert.

Trotzdem wieder großes Kino von amd.

eratte
2016-07-07, 18:43:55
Man kann sich halt auch echt anstellen als hätte man

Hauptsache dicke Lippe riskieren, dann kuck dir die Treiberpakete mal an und schau wie weit du meinst damit zu kommen. Stell dich nicht so an.

Pirx
2016-07-07, 18:55:39
Boah das ist ja wieder eine Meisterleistung von AMD.

Disco_STFU
2016-07-07, 19:03:50
Wird das Bitter für AMD wenn die Cumstoms der 1060 noch vor den 480ern kommen...

RoughNeck
2016-07-07, 19:05:12
Einfach richtig lesen. Ich fordere gar nichts für AMD. Es geht um die Testmethodik. Angeblich ist es zu viel Aufwand undervolting und OC mit JEDER GPU die neu erscheint zu betreiben. Aber 20 Spiele mal schnell die Durchschnittswerte des Boosts zu ermitteln liegt dann im machbaren für JEDE GPU - das liest sich äußerst widersprüchlich. Ich sagte, dass man dann lieber auf den Turbo-Durchschnitt verzichtet und dafür die Spannungen testet. BEI JEDER KARTE. Damit etwas sinnvolles an Daten zur Verfügung steht.

Mir schwant nämlich bei dem "Zeitdruck" ganz anderes als 20 Spiele die durchgetestet wurden...wer kann das nachprüfen oder nachstellen daheim?

Edit: Also hilfreich wäre hier als Vorschlag in den Einzelspielen dann die erreichten Boost Takte einzupflegen. Damit hat jeder die Möglichkeit die einzelnen Spiele zu verifizieren. Gemesen und erfasst sind die ja, sonst kann man keinen Durchschnitt bilden. Diese Werte kann und sollte man sogar nachreichen. Das hilft dann zwar immer noch nicht bei dem fehlerhaften Index, doch wer Bescheid weiss kann sich wenigstens richtig informieren. Sollte ja kein Problem sein und damit ist das Thema dann auch vom Tisch - Eine gute PR-Abteilung hätte eine solche Lösung vielleicht schon gefunden ;)

Mal eine Frage an dich.
Hast du schon mal undervoltet, den Takt angepasst und oder übertaktet und dabei die vcore angepasst? Das ist ein großer Aufwand und das geht sicher nicht in den kurzen Zeitraum dem den Testern zur Verfügung steht.
Das kann man mal in einem extra Artikel machen (RX 480 Spezial oder so, hat die PCGH schon öfters gemacht).

Das System mag nicht perfekt sein aber man kann dennoch die Karten untereinander vergleichen, freu dich doch lieber das es solch Seiten gibt die die Ergebnisse kostenlos zur Verfügung stellen.
Klar kannst du was kritisieren und Verbesserungsvorschläge machen, nur der Ton macht die Musik.

Frosty
2016-07-07, 19:05:32
Wird das Bitter für AMD wenn die Cumstoms der 1060 noch vor den 480ern kommen...


versteh ich auch nicht warum die da so lange brauchen.:mad:
man sieht ja an der gtx 1060, dass ein launch sowohl des referenzdesigns als auch von custom designs parallel möglich ist...:(

Fliwatut
2016-07-07, 19:08:39
Wann wurde Polaris das erste Mal gezeigt, dieses Video gegen die 950, war das im Dezember, Januar? Was zur Hölle haben die bei AMD in den 6 Monaten gemacht? Komisches Powermanagement, zu wenig Leistung, kein 8.1 Treiber, unterdimensionierter Lüfter. Ich verstehe das nicht, wenn ich ein Produkt launche, von dem auch mein Überleben abhängt, weil der Laden seit Jahren in der Krise ist, dann sehe ich zu, dass das Ding perfekt ist. Die Ref-480 kommt mir immer mehr so vor, als hätte man sie lieblos zusammen geschustert, um nur ja irgendwas liefern zu können.

Screemer
2016-07-07, 19:15:30
Hauptsache dicke Lippe riskieren, dann kuck dir die Treiberpakete mal an und schau wie weit du meinst damit zu kommen. Stell dich nicht so an.
kopier mal die inf aus dem nach ..\Radeon-Crimson-16.6.2-Win8.1-64Bit\Packages\Drivers\Display\WB6A_INF und installier direkt über die inf. aktuelles ccc kannst du via ..\Radeon-Crimson-16.6.2-Win8.1-64Bit\Packages\Apps\CN\CNext und die erweiterten alten catalysteinstellungen unter ..\Radeon-Crimson-16.6.2-Win8.1-64Bit\Packages\Apps\CN\CCCSlim installieren.

hoffe das klappt.

StefanV
2016-07-07, 19:18:53
Es gibt btw keinen Windows 8.1 Treiber von AMD für die RX 480.
Kannst du bitte mit dem FUD aufhören und bei der Wahrhreit bleiben?! Das wäre sehr schön.

Denn hier sagt AMD was ganz anderes:
http://support.amd.com/en-us/kb-articles/Pages/AMD-Radeon-Software-Crimson-Edition-16.6.2-Release-Notes.aspx

Und der 'Mainstreamsupport' für WIndows 7 ist auch schon seit über 1,5 Jahren ausgelaufen...

Argo Zero
2016-07-07, 19:21:54
Da der Informationsgehalt der letzten Seiten unterirdisch ist.
Gibt es etwas neues wissenswertes zur RX 480?

Screemer
2016-07-07, 19:24:29
Kannst du bitte mit dem FUD aufhören und bei der Wahrhreit bleiben?! Das wäre sehr schön.

Denn hier sagt AMD was ganz anderes:
http://support.amd.com/en-us/kb-articles/Pages/AMD-Radeon-Software-Crimson-Edition-16.6.2-Release-Notes.aspx

Und der 'Mainstreamsupport' für WIndows 7 ist auch schon seit über 1,5 Jahren ausgelaufen...
das passt schon. die haben in der treiber inf und somit auch in der cab die infos für polaris vergessen:

[ati2mtag_Polaris10]
FeatureScore=E6
CopyFiles=R300.Miniport, R300.Display, R300.DXX, R300.DispWow, R300.OGL, R300.OD, R300.VCE, R300.VCEWOW, R300.Samu, R300.SamuWow64
CopyFiles=R300.Mppxy
CopyFiles=R300.ProxyM, R300.ProxyU
CopyFiles=r300.CFNext
CopyFiles=r300.CFNextWow
CopyFiles=R300.OpenCL
CopyFiles=R300.OpenCLWow64
CopyFiles=R300.AMDKMPFD
CopyFiles=r300.Miniport_PA
CopyFiles=r300.Display_PA
CopyFiles=r300.DispWow_PA
CopyFiles=R300.MFTENC
CopyFiles=R300.MFTDEC
CopyFiles=R300.MFTMJPEG
AddReg = ati2mtag_SoftwareDeviceSettings
AddReg = ati2mtag_AI_SoftwareDeviceSettings
AddReg = ati2mtag_Polaris10_SoftwareDeviceSettings
AddReg = ati2mtag_Mobile_SoftwareDeviceSettings
AddReg = ati2mtag_Post_EG
AddReg = ati2mtag_ProxySettings_DX10
AddReg = ati2mtag_ProxySettings_DX10_PXAA
AddReg = ati2mtag_Proxy
AddReg = ati2mtag_Polaris10_PX
AddReg = ati2mtag_DX11
AddReg = ati2mtag_PX_DGPU_Only_2ID
DelReg = ati2mtag_RemoveDeviceSettings
DelFiles = R300.DelFiles
RegisterDlls = TMM.RegisterDlls
RegisterDlls = MFTENCRegister
RegisterDlls = MFTDECRegister
RegisterDlls = MFTMJPEGRegister

das gibts zwar in der win7 inf aber nicht in der von win8.

vielleicht möchtest du dich ja entschuldigen...

@Argo Zero: nein alles stand gestern.

d2kx
2016-07-07, 19:55:27
Die Wunder der modernen Treibermedizin!

AMD Radeon Software Crimson 16.7.1 (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=574409)

dildo4u
2016-07-07, 19:55:49
Der Treiber der die Stromverteilung verändert ist da.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=574409

(del)
2016-07-07, 20:12:33
Nachgemessen. Und so teils, teils... :)

AMD Radeon RX 480: Neuer Treiber entlastet das Mainboard deutlich (http://www.tomshardware.de/amd-radeon-rx-480-polaris-grafikkarte-treiber,testberichte-242146.html)

Frosty
2016-07-07, 20:12:43
hoffentlich misst einer der experten jetzt nochmal nach, damit wir klarheit haben.:)

edit: zu spät.

Screemer
2016-07-07, 20:33:20
Und Unleashed (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11092851#post11092851) kann seine Karte jetzt wieder umlöten :D

Ach ne. Das legt ja ramversorgung auch auf den Peg. Mich wurde mal interessieren wie das mit umgelöteten 0 Ohm Widerständen dann am Peg aussieht.

Nightspider
2016-07-07, 20:36:38
Ein paar % mehr in diversen Spielen? :uponder:

Hakim
2016-07-07, 20:37:57
@Format_C kannst du schon was zu der Performance im Greenmode schreiben? Also im Vergleich zu den Launchtreiber.

Screemer
2016-07-07, 20:39:43
@Format_C kannst du schon was zu der Performance im Greenmode schreiben? Also im Vergleich zu den Launchtreiber.

Hat er doch. Er geht von rund 3% aus und jeder soll das für sich ausmachen. Nicht nur Bildchen guggen ;)

Hakim
2016-07-07, 20:41:42
Hat er doch. Er geht von rund 3% aus und jeder soll das für sich ausmachen. Nicht nur Bildchen guggen ;)

Ich habs komplett gelesen glaub mir ;), daher die frage wie es denn in der Praxis bei den spielen genau aussieht.

Menace
2016-07-07, 20:52:28
Scheint besser gelungen zu sein, als ich befürchtet hatte. Und einen "Öko-Schalter" halte ich immer für gut.

@Format_C: Recht hast Du: Warum nicht gleich so.

Birdman
2016-07-07, 20:53:56
Ein paar % mehr in diversen Spielen? :uponder:
Zu geil, die im Vorfeld von AMD proklamierte Performancesteigerung von 2-3% geht auf gestiegene GPU Taktraten durch ein um 2-3% erhöhtes PT einher.....keine Ahnung was ich von dieser Posse halten soll.

Screemer
2016-07-07, 20:59:43
Mit dem nächsten Treiber die Spannungen noch overall um 25-50mv runter und die paar karten die nicht laufen umtauschen. Schon ist man bei den proklamierten 150w. :ugly:

Dino-Fossil
2016-07-07, 21:11:24
Zu geil, die im Vorfeld von AMD proklamierte Performancesteigerung von 2-3% geht auf gestiegene GPU Taktraten durch ein um 2-3% erhöhtes PT einher.....keine Ahnung was ich von dieser Posse halten soll.

Eine gewagte Hypothese die du da hast...

Birdman
2016-07-07, 21:12:55
Mit dem nächsten Treiber die Spannungen noch overall um 25-50mv runter und die paar karten die nicht laufen umtauschen. Schon ist man bei den proklamierten 150w. :ugly:
Nice wäre doch ein im Treiber integriertes Utility mit welchem jeder die eigene Karte diesbezüglich ausmessen kann.
Aka das Teil lässt irgendeinen 3D Powervirus die GPU auslasten und senkt dann sukzessive die Spannung, bis zum dem Zeitpunkt wo es crasht oder Bildfehler gibt.
Am Schluss trägt man die die jeweilig ermittelten Werte mit etwa Reserve in die Powerstates ein und gut ist.

(del)
2016-07-07, 21:14:34
Interesant, dass AMD die Leakage besser im Griff hat. Die paar Watt sind zu verschmerzen

Screemer
2016-07-07, 21:16:16
Nice wäre doch ein im Treiber integriertes Utility mit welchem jeder die eigene Karte diesbezüglich ausmessen kann.
Aka das Teil lässt irgendeinen 3D Powervirus die GPU auslasten und senkt dann sukzessive die Spannung, bis zum dem Zeitpunkt wo es crasht oder Bildfehler gibt.
Am Schluss trägt man die die jeweilig ermittelten Werte mit etwa Reserve in die Powerstates ein und gut ist.
;D
Ich fände ja so ein o/uc Tool cool, dass so ähnlich funktioniert wie beim guten alten atitool. Also zieltakt, zielspannung oder zielverbrauch eingeben starten und das Tool ermittelt für jede Karte individuell die passenden Werte.

Birdman
2016-07-07, 21:16:27
Eine gewagte Hypothese die du da hast...
Fakt ist folgendes:

- AMD hat ganz klar im Vorfeld von Performanceverbesserungen (bei diversen Titeln) gesprochen
- Igors Nachtest haben ganz klar eine erhöhte Stromaufnahme der Karte ergeben


Und da die Welt halt doch fast immer sehr simpel ist, kann man die höhere Stromaufnahme mit einem höheren Powertarget erklären und dieses dann Wiederum als Grund wieso die Karte mit dem neuen Treiber im Schnit einen höheren Takt anschlägt.
Und dass höherer Takt = mehr FPS bedeutet, braucht sicher keine weite Beweisführung.

Blediator16
2016-07-07, 21:18:01
Echt jetzt? Hetzt du jetzt wegen 2-3% hier herum oder was ist dein Problem? Mehr als ein Furz ist das doch sowieso nicht...

Screemer
2016-07-07, 21:18:33
wenn du mal genau hinschaust, dann siehst du auch das der chip an sich weniger verbraucht.

fondness
2016-07-07, 21:19:25
Bei PCPer sieht man keinen Performanceverlust, die TDP sinkt:
http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-RX-480-Power-Consumption-Concerns-Fixed-1671-Driver

Was will man mehr? :)

The 16.7.1 driver without compatibility mode shows a slightly, barely measureable, improvement in performance. Meanwhile, the original 16.6.2 driver and the 16.7.1 with compatibility ON are indistinguishable.

Screemer
2016-07-07, 21:20:44
will noch mal einer von frickellösungen (http://www.pcper.com/image/view/71401?return=node%2F65732) bei deutschen magazinen reden? die amis wieder ;D

Dino-Fossil
2016-07-07, 21:30:56
Fakt ist folgendes:

Nun, AMD sagte, dass sie einen Schalter einführen, der die Stromaufnahme begrenzt (also sogar niedrigeres PT) und zusätzlich Leistungsverbesserungen bringen, die den Verlust an Leistung kompensieren sollten.

Ergo: Die Leistungsverbesserungen stammen laut AMD nicht aus dem angeblich erhöhten PT (vermutlich eher eine Folge der veränderten Stromzufuhr, bzw. möglicherweise innerhalb der üblichen Schwankungen), sondern aus anderen Quellen, da sie sonst kaum simultan zum tragen kommen.

(del)
2016-07-07, 21:42:32
Bei PCPer sieht man keinen Performanceverlust, die TDP sinkt:
http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-RX-480-Power-Consumption-Concerns-Fixed-1671-Driver

Was will man mehr? :)

Bei 1080p wird man auch kaum was merken ;)

Bei Metro habe ich 2-3%, PCPer ist da auch etwas auseinandergezogen. Wobei bei Metro die Toleranz von Haus aus bei fast 1.5 % liegt. In 4K :D

Troyan
2016-07-07, 22:04:10
Fakt ist folgendes:

- AMD hat ganz klar im Vorfeld von Performanceverbesserungen (bei diversen Titeln) gesprochen
- Igors Nachtest haben ganz klar eine erhöhte Stromaufnahme der Karte ergeben


Und da die Welt halt doch fast immer sehr simpel ist, kann man die höhere Stromaufnahme mit einem höheren Powertarget erklären und dieses dann Wiederum als Grund wieso die Karte mit dem neuen Treiber im Schnit einen höheren Takt anschlägt.
Und dass höherer Takt = mehr FPS bedeutet, braucht sicher keine weite Beweisführung.

Laut PCPer.com benötigt die Karte mit dem neuen Treiber 5,3% mehr Strom in The Witcher 3 - 158W zu 150W. Irgendwie dreist.

(del)
2016-07-07, 22:08:45
Laut PCPer.com benötigt die Karte mit dem neuen Treiber 5,3% mehr Strom in The Witcher 3 - 158W zu 150W. Irgendwie dreist.

Lies mal meinen Test bitte etwas aufmerksamer. Die GPU-Power bleibt nämlich gleich, es steigen hingegen die Spannungswandlerverluste durch die provozierte Schieflage beider 3er-Blöcke. Bei mir sind es keine 8 Watt, aber ich teste auch mit einem anderen Spiel. Bei Metro sind unsere Ströme nämlich fast komplett gleich. Nur habe ich eben auch GPU-Z mitloggen lassen, was die GPU zieht. Und das stehen faktisch 110 Watt zu 110 Watt. Der Rest ist Schwund.

Blediator16
2016-07-07, 22:09:11
Laut PCPer.com benötigt die Karte mit dem neuen Treiber 5,3% mehr Strom in The Witcher 3 - 158W zu 150W. Irgendwie dreist.

Lustig was du als dreist bezeichnest :freak:

Disco_STFU
2016-07-07, 22:15:58
Lustig was du als dreist bezeichnest :freak:

Wie war gleich nochmal seine Haltung zur 970 Speicherverarsche? :freak:

dildo4u
2016-07-07, 22:24:21
Lustig was du als dreist bezeichnest :freak:

Was soll das sonst sein korrekt Wäre es endlich die angegebenen Specs einzuhalten.

http://www.amd.com/de-de/products/graphics/radeon-rx-series/radeon-rx-480

Godmode
2016-07-07, 22:36:19
Was ich nicht verstehe ist, warum sie sich immer wieder ihre eigenen Launches kaputt machen? Messen die nicht nach? Sowas schädigt den Ruf nachhaltig, auch wenn der Fix schneller gekommen ist, als viele das erwartet hätten.

RoughNeck
2016-07-07, 22:42:42
@Godemode

Ich verstehe es auch nicht, man steckt Millionen in die Entwicklung und da macht man so unnötige Fehler.
Aber das passiert ja schon seit längeren so, der misslungene Launch der 290 Karten, der schlechte Fury Launch und jetzt eben die 480.
Hat schon fast Tradition

Mr. Lolman
2016-07-07, 22:45:57
Was ich nicht verstehe ist, warum sie sich immer wieder ihre eigenen Launches kaputt machen? Messen die nicht nach? Sowas schädigt den Ruf nachhaltig, auch wenn der Fix schneller gekommen ist, als viele das erwartet hätten.

Die rechnen halt immernoch nicht damit, dass der korrekte Deutsche wegen ein paar Watt so ein Fass aufmachen wird....

Menace
2016-07-07, 22:47:42
@Godemode

Ich verstehe es auch nicht, man steckt Millionen in die Entwicklung und da macht man so unnötige Fehler.
Aber das passiert ja schon seit längeren so, der misslungene Launch der 290 Karten, der schlechte Fury Launch und jetzt eben die 480.
Hat schon fast Tradition

Ich glaube, Phenom war noch schlimmer.

Birdman
2016-07-07, 22:51:08
Die GPU-Power bleibt nämlich gleich, es steigen hingegen die Spannungswandlerverluste durch die provozierte Schieflage beider 3er-Blöcke.
Args, hätte deinen Test genauer lesen sollen :(
Damit ziehe ich meine Aussage zur Posse mit dem erhöhten PT zurück.

illidan
2016-07-07, 22:52:27
Der 1080-Launch war aber auch nicht perfekt.
Natürlich muss AMD dem noch die Krone aufsetzen, sonst wär ja auch irgendwas verkehrt.
Trotzdem werden die Customs später als Gesamtpaket durch so was nicht unattraktiver. Wer das Produkt mit weniger VRAM kauft, ist selbst schuld.

Rincewind
2016-07-07, 22:52:40
Ich glaube, Phenom war noch schlimmer.

mit Zen gibt es die nächste Chance... ;)

Menace
2016-07-07, 22:57:02
Die Produkte sind nachher auch ziemlich gut.

In zwei (von 3 Desktop-PCs) arbeiten immer noch zuverlässig Phenoms. Die Nano arbeitet für mich super. Auch mein Bulli macht genau das, was ich von ihm erwarte. Das Problem ist einfach, dass sie die Einführung der Produkte vermasseln oder meisten eine weitere Variante/Evolutionsstufe brauchen.

@Rincewind: Mal mal nicht den Teufel an die Wand. :freak: :wink:

Troyan
2016-07-07, 22:57:14
Lies mal meinen Test bitte etwas aufmerksamer. Die GPU-Power bleibt nämlich gleich, es steigen hingegen die Spannungswandlerverluste durch die provozierte Schieflage beider 3er-Blöcke. Bei mir sind es keine 8 Watt, aber ich teste auch mit einem anderen Spiel. Bei Metro sind unsere Ströme nämlich fast komplett gleich. Nur habe ich eben auch GPU-Z mitloggen lassen, was die GPU zieht. Und das stehen faktisch 110 Watt zu 110 Watt. Der Rest ist Schwund.

Die Taktrate ist höher. Und warum? Weil das TDP-Limit erhöht wurde. Ohne Anhebung wäre man wohl aufgrund dem Schwund minimal langsamer.
Stromverbrauch gilt für die komplette Karte und nicht nur für die GPU. :rolleyes:

(del)
2016-07-07, 23:01:47
Die Taktrate ist nur MINIMAL höher, das sind schon fast Werte innerhalb der Messtoleranzen.

Screemer
2016-07-07, 23:10:09
Lass ihn doch. Ist wie immer. Zweiter Quote in meiner Sig.

=Floi=
2016-07-07, 23:51:06
ich finde die lösung echt super gelungen!

haben sie die spikes auch gefixt?

2Ms
2016-07-07, 23:56:43
Was ist das denn bitte für ein Vergleich? Was denkst du wird in 2 Jahren wenn die 480er alt ist, eine neue andere Karte mit ihr machen, egal ob von AMD oder Nvidia, ich hatte großes Interesse an der RX480, sie war schon zu 99% gekauft, aber durch die ganzen negativen Eigenschaften, musste ich es mir doch überlegen, keine Ahnung was ich jetzt kaufen soll, zwischen der RX480 und der nächsten neuen Karte, der GTX1070, ist eine viel zu große Lücke für mich, aber diese Videos sind eher ein Grund gegen die RX480, und eine GTX970 wird sich eh kein normaler Mensch mehr kaufen, der Test spricht aber auch gegen die RX480, die hat ja jetzt schon keine großen Reserven, naja mir auch egal, dann muss meine HD7970 noch ewas länger halten.

mfg
Frank
Selbst der Sprung von der 7950 auf die Rx480 ist nicht sonderlich gross. Die hält auf keinen Fall die fast 4 Jahre, die die 7950 noch konnte.
Ist halt kein Highend mehr wie damals noch die HD 79xx, kostet aber genausoviel. Ok, Preisverfall miteingerechnet und der Luxus des Neuen haben auch mit dem jetzigen Verkaufswert zutun.
Evt. reguliert sich der Preis nach unten, oder bis Vega warten, was aber fast noch ein Jahr ist. uhhh !

Hennson
2016-07-08, 00:17:51
Ja und warum weil die 80 in der RX480 schon das Midrange Impliziert die ist nicht mit der 7950 zu vergleichen... Und auch nicht mit dem Speicherkrüppel von Nvidia obwohl sie gleich auf sind... Bin mal gespannt wenn der Groschen bei den meisten gefallen ist....

2Ms
2016-07-08, 01:25:43
Stimmt, AMD hat nie gesagt, dass die Karte Highend sein wird.

Mein Fehler zuerwarten, dass ich nach 3 Jahren und 2 übersprungenen Chipgenerationen bei gleichem geldwerten Einsatz doppelte Leistung bekomme.

Ich mecker viel und bin auch enttäuscht von der Karte, vorallen wegen des Verbrauchs, aber ansich ist die Karte zu einem Preispunkt von 250 völlig ok.

Eine Karte in der Größe (PCB) mit der Leistungs-/Stromverbrauchsverhältnis zubauen, ist auf jeden Fall anerkennungswürdig, aber irgendwie klemmt es.

Sonst begleiteten den Kauf einer neuen Graka viele AHHHs und OHHHs, aber die wird jetzt niemand von mir hören.

Die Customs werden es aber bestimmt reißen.

Schlammsau
2016-07-08, 01:30:38
Hat die 7950 bei Release nicht mindestens 399€ gekostet und ist dann erst nach langer Zeit günstiger geworden?

Screemer
2016-07-08, 01:46:20
Hat die 7950 bei Release nicht mindestens 399€ gekostet und ist dann erst nach langer Zeit günstiger geworden?
nein, nein. das kann doch gar nicht sein. die karte ist doch im gleichen leistungsegment wie die rx 480. ach vielleicht doch nicht:

Mit 449 Euro liegt die offizielle Preisempfehlung der HD 7950 in etwa auf dem Niveau des aktuellen Straßenpreises der GeForce GTX 580 mit 3 GB aber deutlich über dem der Version mit 1,5 GB.

im sommer ging es dann aufgrund eines langzeittiefs des dollar (niedrigster wert seit glaub ich 2 jahren) richtung 320€-360€ je nach karte.

marc-05
2016-07-08, 07:18:16
Hat die 7950 bei Release nicht mindestens 399€ gekostet und ist dann erst nach langer Zeit günstiger geworden?
Hab da nach etwa 8 Monaten nur noch 250 € bezahlt,da kamen grad die ersten Boost Karten raus.

j4l
2016-07-08, 08:17:06
Selbst der Sprung von der 7950 auf die Rx480 ist nicht sonderlich gross. Die hält auf keinen Fall die fast 4 Jahre, die die 7950 noch konnte.
Ist halt kein Highend mehr wie damals noch die HD 79xx, kostet aber genausoviel. Ok, Preisverfall miteingerechnet und der Luxus des Neuen haben auch mit dem jetzigen Verkaufswert zutun.
Evt. reguliert sich der Preis nach unten, oder bis Vega warten, was aber fast noch ein Jahr ist. uhhh !


Was ist denn für dich "nicht besonders groß"? Die Karte ist ca. 75% schneller und mal eben 5GB VRam mehr und das für schlappe 250€.

Wenn deine 7950 jetzt 4 Jahre alt ist, hast du dafür mindestens 300€ ausgegeben. ;)

Guck (http://www.3dcenter.org/artikel/grafikkarten-marktueberblick-august-2012) doch lieber erst nochmal was zu dem Zeitpunkt wie teuer auf dem Markt war und dann überleg noch mal, bevor du hier weiter schreibst und dich lächerlich machst ;)


Noch lustiger wird es, wenn man die 4 Jahre als Kaufdatum mit dem eigentlichen Releasedatum vergleicht. Dann war die 7950 schon ein halbes Jahr am Markt. Du vergleichst hier also den Einführungspreis der RX 480 mit einem schon fast wieder in Richtung Abverkauf drehenden Preis. Die 7950 kam damals für knapp 399€ auf den Markt. :)

Palpatin
2016-07-08, 08:32:07
Hat die 7950 bei Release nicht mindestens 399€ gekostet und ist dann erst nach langer Zeit günstiger geworden?
Damals war halt auch der Euro noch mehr Wert.
Der MSRP der 7950 war $449.
Der MSRP der RX480 ist $229.
Also in etwa die Hälfte.
Rechne imo mit 2 Varianten von Vega eine mit HBM2 die preislich bei ~500-600$ liegt und eine mit GDDR(X) die preislich bei ~350-400$ liegt.
Die Lücke die bleibt ist natürlich trozdem ziemlich groß.

Complicated
2016-07-08, 09:26:30
Mal eine Frage an dich.
Hast du schon mal undervoltet, den Takt angepasst und oder übertaktet und dabei die vcore angepasst? Das ist ein großer Aufwand und das geht sicher nicht in den kurzen Zeitraum dem den Testern zur Verfügung steht.
Ja. Und das dauert nicht länger als in 20 Spielen den Turbotakt zu ermitteln, wenn man das denn richtig macht. Und was nützt es schnell fertig zu sei mit nicht aussagekräftigen Messdaten? Ich würde diese 20 Turbotakte gerne sehen...sofern sie denn wirklich vorhanden sind. Dürfte ja kein Problem sein die zu veröffentlichen. Aber das wird wohl nie passieren...

UnderTheRock
2016-07-08, 09:31:37
Ich bin mal so dreist mein zweites Posting hier rein zu kopieren, weil die Frage wohl übersehen wollte :ugly:

Wenn ich das AMD-Statement richtig verstehe, wird die zu hohe Leistungsaufnahme der RX480 nicht behoben, sondern einfach nur vom PCIe Slot zum 6-Pin verschoben. Brechen würde die Karte die Spec damit imme rnoch, wenn auch "weniger schlimm". Zusätzlich gibt es einen (vom Nutzer extra zu aktivierenden) Modus, in dem die Leistungsaufnahme auf <=150W begrenzt wird.

Angenommen dem ist so, welchen Modus nutzt ihr dann zukünftig für die Benches/Indexes?

Und an die anderen: Welcher Modus sollte gewählt werden? Oder Beide?
Wobei ich ja sogar zu optimistisch war, die Karte bricht ja selbst im Kompatibilitätsmodus die 150W-Grenze. Und sogar streng genommen die PCIe Grenze, wobei die 2W natürlich hart an der Messungenauigkeit sein. Aber, ganz ehrlich: Wenn schon AMD, warum dann nicht direkt richtig?

Raff
2016-07-08, 09:33:06
Ja. Und das dauert nicht länger als in 20 Spielen den Turbotakt zu ermitteln, wenn man das denn richtig macht. Und was nützt es schnell fertig zu sei mit nicht aussagekräftigen Messdaten? Ich würde diese 20 Turbotakte gerne sehen...sofern sie denn wirklich vorhanden sind. Dürfte ja kein Problem sein die zu veröffentlichen. Aber das wird wohl nie passieren...

Hast du jemals eine PCGH gekauft? Vermutlich nicht. Hier ist deine Chance: In der PCGH 07/2016 (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-07-2016-Magazin-DVD-Download-PDF-1196605/) findest du die genannte Boosttabelle für die GTX 1080 auf Seite 13. Entsprechende Werte werden nicht immer abgedruckt, sondern intern verwendet und ansonsten im Fließtext erwähnt. Getestet wird das immer. So und nun würde ich mich freuen, wenn du deine schlechte Laune woanders auslassen könntest. Wie wär's mit reddit?

MfG,
Raff

Loeschzwerg
2016-07-08, 09:33:25
Hat mir jemand die Abmessungen des Ref.-Kühlkörpers (Höhe, Breite, Tiefe, Höhe der GPU Auflagefläche)?

Malabolge
2016-07-08, 09:35:56
Ja. Und das dauert nicht länger als in 20 Spielen den Turbotakt zu ermitteln, wenn man das denn richtig macht. Und was nützt es schnell fertig zu sei mit nicht aussagekräftigen Messdaten? Ich würde diese 20 Turbotakte gerne sehen...sofern sie denn wirklich vorhanden sind. Dürfte ja kein Problem sein die zu veröffentlichen. Aber das wird wohl nie passieren...

Vergiss es , Don Quichote
Da kämpfst du vergeblich gegen Windmühlen.

Die PCGH steht über so was. Die machen IMMER alles richtig:cool::tongue:

Malabolge
2016-07-08, 09:40:55
Hast du jemals eine PCGH gekauft? Vermutlich nicht. Hier ist deine Chance: In der PCGH 07/2016 (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-07-2016-Magazin-DVD-Download-PDF-1196605/) findest du die genannte Boosttabelle für die GTX 1080 auf Seite 13. Entsprechende Werte werden nicht immer abgedruckt, sondern intern verwendet und ansonsten im Fließtext erwähnt. Getestet wird das immer. So und nun würde ich mich freuen, wenn du deine schlechte Laune woanders auslassen könntest. Wie wär's mit reddit?

MfG,
Raff

Ist das jetzt vorraussetzung dafür eine andere Ansicht über eure "Messmethodik" zu haben ?
Wen ihr schon mit irgemndwelchen "Boosttabellen" arbeitet , warum veröffentlicht ihr sie nicht einfach für ALLE Karten.
Wenn du schon Werbung für eure Artikel machst, KENNZEICHE das bitte !
Andere Publikation müssen dann "ANZEIGE" darüber schreiben.

MadManniMan
2016-07-08, 09:43:04
Vergiss es , Don Quichote
Da kämpfst du vergeblich gegen Windmühlen.

Irgendwie verwendest Du die Analogie falsch.

Außerdem ignorierst Du raffs Entgegnung, aber alles andere wäre jetzt auch überraschend gewesen.

Raff
2016-07-08, 09:44:02
Ist das jetzt vorraussetzung dafür eine andere Ansicht über eure "Messmethodik" zu haben ?
Wen ihr schon mit irgemndwelchen "Boosttabellen" arbeitet , warum veröffentlicht ihr sie nicht einfach für ALLE Karten.
Wenn du schon Werbung für eure Artikel machst, KENNZEICHE das bitte !
Andere Publikation müssen dann "ANZEIGE" darüber schreiben.

Eine Grundvoraussetzung zur Äußerung von Kritik ist, die Werke des kritisierten Mediums zu kennen.

MfG,
Raff

Complicated
2016-07-08, 09:47:15
Hast du jemals eine PCGH gekauft? Vermutlich nicht. Hier ist deine Chance: In der PCGH 07/2016 (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-07-2016-Magazin-DVD-Download-PDF-1196605/) findest du die genannte Boosttabelle für die GTX 1080 auf Seite 13. Entsprechende Werte werden nicht immer abgedruckt, sondern intern verwendet und ansonsten im Fließtext erwähnt. Getestet wird das immer. So und nun würde ich mich freuen, wenn du deine schlechte Laune woanders auslassen könntest. Wie wär's mit reddit?

MfG,
Raff
Ich soll euer Heft kaufen um die von dir hier im Forum beworbenen Tests zu verifizieren? Nennst du das gutes Marketing?

Wie wäre es wenn du einfach die Daten zu den Behauptungen lieferst? So läuft das in normalen Foren. Nur scheinst du hier den Sonderstatus zu haben Sprüche klopfen zu dürfen anstatt belastbares zu liefern. Und ich sagte dir schon, dass der Anteil Eigenwerbung zu Fakten hier sehr in der Schieflage liegt bei dir.

Einfach die gemessenen 20 Turbotakte der RX480 veröffentlichen....wo ist das Problem?

Raff
2016-07-08, 09:49:45
Im Gegensatz zu dir, der einfach nur sagt, dass die PCGH stinkt, liefere ich dir sehr wohl Fakten. Und gerade frage ich mich wieder, warum ich ständig mit Mauern spreche. :|

MfG,
Raff

Complicated
2016-07-08, 09:52:08
Nein das schiebst du mir unter..du lieferst alles ausser dem einen nach dem man fragt. Nebelkerzen.
Wo sind die 20 angeblich gemessenen Turbotakte der RX480?

Einfach mal auf den Punkt.

Megatron
2016-07-08, 09:53:09
Eine Grundvoraussetzung zur Äußerung von Kritik ist, die Werke des kritisierten Mediums zu kennen.

MfG,
Raff
Meine Meinung steht fest, bitte verwirren sie mich nicht mit Tatsachen :freak:

Am Ende war die Boost Geschichte eine tolle Idee, um bei diversen Tests deutlich besser dazustehen, ohne dass die Karten allgemein extreme Taktraten fahren müssen.
Da war bei Einführung auch allgemeine Ratlosigkeit angesagt, wie man denn nun "richtig" misst...

Ich bin gespannt, wie sich die Partnerkarten letztendlich schlagen und vor allem, ob diese dann bereits eine etwas bessere Charge an Chips drauf haben, die allgemein mit weniger Spannung laufen, als noch einige der Referenzkarten.

UnderTheRock
2016-07-08, 09:53:27
Ich soll euer Heft kaufen um die von dir hier im Forum beworbenen Tests zu verifizieren? Nennst du das gutes Marketing?
Wie denn sonst? :freak:

Du bist kein Stückchen besser, als die ganzen "Lügenpresse"-Brüller, die in ihrem Leben noch nie eine Zeitung gelesen haben. Aber die AfD auf Facebook hatte da doch was gepostet, also plapper ich das nach.... :facepalm:

deekey777
2016-07-08, 09:59:34
Lügenpresse! Lügenpresse! Lügenpresse!

Damit wären doch alle gemeint, die irgendwas veröffentlichen, oder?

Eine (zu) hohe Stromstärke am sechspoligen 12V-Anschluss ich auch nicht gesund.


Gibt es paar Neuigkeiten zum VCE/UVD bzw. deren Nutzung? VP9-Unterstützung soll erst duch einen Treiber nachgereicht werden. Zum HEVC-Encoding habe ich seit dem Start nichts gefunden.

Complicated
2016-07-08, 10:00:19
Finde ich interessant als Nicht-Deutscher mit der AfD verglichen zu werden. Ist das jetzt noch Topic? Eine Beleidigung? Oder einfach nur dummes Geschwätz?

Auch Du:
Wer Testergebnisse Online stellt sollte diese verifizierbar machen. Vor allem wenn diese Ergebnisse hier als der Nabel der Testwelt verkauft werden sollen. Wer sein Heft verkaufen will sollte nicht schon die Online-Test verhageln.

Naturlcuch muss die PCGH keine transparenten Ergebnisse online liefern...nur ich muss mir auch nicht Infos kaufen sondern kann die bewerten die veröffentlicht wurden. Wer mir aber dann erzählt "Das haben wir intern und wenn du Teile davon haben willst kaufe das Heft" dem sage ich deutlich: Die Werbung ging nach hinten los. Da rate ich doch lieber jedem ab davon dieses Heft überhaupt zu kaufen und die Webseite zu meiden da nur bruchstückhaft nachvollziehbar.

Cyphermaster
2016-07-08, 10:06:08
Was "dummes Geschwätz" angeht, sehe ich auf den letzten Seiten Gejammer und Gebashe von Leuten, bei denen man entweder schon weiß, daß es sich um Trolle bzw. grüne Fanboys handelt, oder von sehr jungen Accounts, die -bestimmt nur zufällig- praktisch ausschließlich maximal halb-sachlich an der RX480 rumätzen. Plus eine ins persönliche abgeglittene Nebendiskussion über interne Entscheidungen einer Testseite, die hier ohnehin nix zu suchen hat.

Also reißt euch lieber mal am Riemen, bevor wir das wieder tun müssen, sonst tut das weh.

Gorkon
2016-07-08, 10:48:53
Gibt es paar Neuigkeiten zum VCE/UVD bzw. deren Nutzung? VP9-Unterstützung soll erst duch einen Treiber nachgereicht werden. Zum HEVC-Encoding habe ich seit dem Start nichts gefunden.
Ich glaub da muss man auf User-Tests warten...interessiert halt kein Schwein. Ich würde aber auch gerne wissen, was AMD vor allem am VCE-Block gemacht hat. Stichwort 2-Pass-Filter beim Streaming und HEVC-Unterstützung für Software ala OBS, wo sie ja angeblich ein wenig helfen wollen.

VP9 finde ich persönlich aber weniger spannend bis unnötig. Google / YT als Hauptbenutzer davon will doch eh alle 2 Jahre ne neue Version davon einführen und angeblich steht für 2017 schon VP10 an. Dann geht der ganze Mist doch wieder von vorne los :rolleyes: https://de.wikipedia.org/wiki/VP9#VP10

deekey777
2016-07-08, 11:07:07
VCE ist abseits des Broadcastings a la Twitch unbrauchbar, aber der Reiz ist da, das Ding mal auszuprobieren.

Bei meiner R7 260X musste ich auch kräftig schwitzen, damit es läuft. Es lief und das Ergebnis war schlecht.