PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 480: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 [22] 23 24

von Richthofen
2016-10-25, 23:49:06
paste auf heatpipes aufbringen, oder gleich auf den die streichen?

Das hab ich oben versucht deutlich zu machen.
Nochmal ausgebessert.

drumnbass
2016-10-25, 23:52:25
Das hab ich oben versucht deutlich zu machen.
Nochmal ausgebessert.

danke für die info - vllt probier ich das auch mal.. wenn die kohle für die strix da ist.

Dino-Fossil
2016-10-28, 17:33:43
Die Powercolor RX480 Red Dragon 8GB ist jetzt ab 249€ zu haben!

Achim_Anders
2016-10-28, 17:55:41
Wie leise/laut ist die denn? Gibt es vernünftige Tests?

Dino-Fossil
2016-10-28, 19:13:45
Konnte leider noch nichts finden. Da ich die Karte aber eh noch ein wenig sparsamer betreiben will, hoffe ich, dass der kühler da auf jeden Fall ruhig bleibt.

dargo
2016-10-31, 16:34:54
@Dino-Fossil

Bewertung von MF.

Schnelle Lieferung, Top !!

Positiv:

Super Karte für günstiges Geld (im allgemeinen finde ich die aktuelle Mittelklasse aber zu teuer !!)
Ersetzt eine saphire nitro radeon 280.

Da merkt man auch den Fortschritt:

Um einiges kürzer, nur einen 6-Pin Stromanschluss statt 2 (ca. 250 Watt vs. 150),unter Last, gute 40 % schneller und verdammt leise, aus meinen offenen Gehäuse im Testbetrieb nicht zu hören, unter geringer Belastung bleiben die Lüfter stehen (Zero-Fan). Im Burn-in bei Furmark (1920x1080) kommen die Lüfter auf 45 %, bei ca. 60°, auch das hört man kaum.

An Spielen habe ich bis jetzt Skyrim SE und Fallout 4 getestet: SkyrimSE ~ 55 FPS (2560x1440 VSR), auf Ultra.
Fallout 4 60 FPS (1920x1080) ebenfalls auf ultra 60 FPS (wahrscheinlich mehr ohne Framelimiter), unter 2560x1440 muss ich noch ausprobieren, habe die Karte erst gestern eingebaut.
Die Leistung deckt sich mit Testberichten von diversen Computerseiten. Vielleicht kann man noch was rausholen, das Kühlsystem würde es zulassen.

Negativ:

Habe über DVI an meinem Monitor ein leichtes rauschen/brummen (ist schwer zu Beschreiben^^). Vor allem wenn man durch Internetseiten scrollt, auch unter Minecraft, bei SkyrimSE kaum, auch wenn der Ton unter Windows aus ist.
Habe das ganze mit dem HDMI Anschluss ausprobiert, Tonausgabe erfolgt dann über HDMI, alles wieder super !! Kopfhörer an der Soundkarte auch keine Störgeräusche. Muss dann wohl am DVI Anschluss liegen, habe zwei Kabel getestet...
Bin mal auf weitere Bewertungen gespannt, was dieses Problem betrifft.

Fazit:

Viel Schatten ist nicht, außer das die Karte jetzt noch 10 Euro günstiger geworden ist^^
Bis jetzt absolut stabil unter Windows 7 und unter Last. Bis auf das DVI Problem, (wobei noch geklärt werden muss ob es bei anderen Käufern auch auftritt) wenn der Monitor keine Lautsprecher hat und das Headset oder Lautsprecher über die Kopfhörerbuchse angeschlossen wird, hat sich das Problem erledigt.

Klare Kaufempfehlung von mir !!

http://www.mindfactory.de/product_info.php/8192MB-PowerColor-Radeon-RX-480-Red-Dragon-Aktiv-PCIe-3-0-x16--Retail-_1124443.html

Dummerweise schreibt der Tester beim Lüfter keine Umdrehungen sondern nur Prozent. :freak: Aber bei 60°C sollte da noch einiges möglich sein mit eigener Lüfterkurve.

Dino-Fossil
2016-10-31, 22:07:30
Ah, danke!

Klingt doch gar nicht so schlecht, wenn man den Preis bedenkt.

Der_Korken
2016-10-31, 22:44:50
Bei User-Bewertungen bin ich immer vorsichtig, weil viele, die was von Temperaturen und Co. schreiben, eigentlich keine Ahnung haben, wie man sowas richtig testet. Wenn ältere Spiele gezockt werden, die die Karte gar nicht fordern, oder mit 60fps-Lock gespielt wird, obwohl die Karte deutlich mehr könnte, dann sind Aussagen der Art "wird bei Spielen X Grad warm" nutzlos.

Bei der Powercolor muss man sehen, welchen Takt sie unter Last überhaupt erreicht bzw. mit welchem Powertarget sie läuft. Genauso die Lüfter RPM. Bei meiner neuen Sapphire 470 sind 35% schon ~1600RPM, die man deutlich raushören kann (mich stört es noch nicht, aber silent ist das sicher nicht mehr). Das könnte die 60°C möglicherweise relativieren. Nichtsdestotrotz sieht der Preis echt OK aus, abgesehen von der Tatsache, dass die 480 eigentlich generell in die 200€-Klasse gehört, wo vorher die 380/960 waren ;).

Dino-Fossil
2016-10-31, 23:11:21
250 ist meine obere Schmerzgrenze, die ist nun endlich erreicht.
Stimme dir durchaus zu, dass die Polaris10-Karten tendenziell zu teuer sind, aber bisher sinken die Preise leider sehr langsam.

Wie auch immer, ich schätze ich werde sie mir mal holen, wenn sie sich doch als zu laut herausstellt muss ich halt vom Rückgaberecht gebrauch machen.

dargo
2016-11-01, 08:21:31
Bei meiner neuen Sapphire 470 sind 35% schon ~1600RPM, die man deutlich raushören kann (mich stört es noch nicht, aber silent ist das sicher nicht mehr).
Deutlich heraushörbar? Dann hast du entweder ein schweizer Käse-Gehäuse oder die Lüfter bei Sapphire sind echt kacke.

Edit:
Ah... habs vergessen, dass die Lüfter bei Sapphire größer sind. Da sind die RPM was Lautstärke angeht natürlich dann nicht mehr 1:1 vergleichbar.

Der_Korken
2016-11-01, 10:01:20
Deutlich heraushörbar? Dann hast du entweder ein schweizer Käse-Gehäuse oder die Lüfter bei Sapphire sind echt kacke.

Edit:
Ah... habs vergessen, dass die Lüfter bei Sapphire größer sind. Da sind die RPM was Lautstärke angeht natürlich dann nicht mehr 1:1 vergleichbar.

So ein Gehäuse habe ich tatsächlich: Ein Arc Mini mit viel Mesh und ohne Dämmung. Ich finde die Lautstärke nicht dramatisch, da ich das Lüftergeräusch angenehmer als bei meiner alten Karte finde. Allerdings lese ich von Vielen, dass sie Wert auf absolute Unhörbarkeit legen auch unter maximaler Last und das bietet z.B. die Sapphire bei 1600RPM nicht. Die Red Dragon hat nur minimal kleinere Lüfter (90 vs 95mm), zur Lüfterqualität kann ich mangels Vergleichsmöglichkeiten nichts sagen.

Ich will die Red Dragon auch überhaupt nicht madig reden. Da sich P10 sowieso relativ schlecht übertakten lässt, ist ein Top-Kühler wie der von MSI kein must-have. Selbst wenn der 30% mehr kühlt bei gleicher Lautstärke, sind das am Ende vielleicht 10% mehr GPU-Takt, der Rest geht für die Spannungserhöhungen drauf (und 10% GPU OC != 10% mehr fps).

Dino-Fossil
2016-11-01, 10:19:54
Es ist sogar so, dass ich mich für die Red Dragon interessiere, eben weil ich keinerlei Interesse an OC habe.
Evtl. werde ich sie sogar ein wenig untertakten - mein Ziel ist es, die 480 sparsam zu bekommen, auch wenn ich dann eben ein paar % Performance einbüße.
Da ich aber neben Windows auch Linux nutze und dort, soweit ich weiß, kein zu Wattman vergleichbares Tool existiert, ist es mir wichtig eine Karte zu kaufen, die ohne Werksübertaktung daher kommt.

Auch wenn der Kühler kein absoluter Spitzenkühler ist, sollte er unter diesen Bedingungen gute Arbeit leisten.

Der_Korken
2016-11-01, 10:27:06
Unter Windows wirst du wahrscheinlich nicht mal untertakten müssen, da die 1266Mhz in der Regel mit deutlich weniger Spannung zu erreichen sind als sie vom VBIOS vorgegeben werden (bei mir: 1137 vs 1000mV). Prinzipiell reicht es danach auch, statt zu untertakten einfach das Powertarget runterzuregeln, bis es leise/sparsam genug ist. Dadurch verschenkst du in älteren Spielen keine Leistung. Dass es bei Linux leider nur langsam vorwärts geht, ist schade. Da bleibt nur das Hoffen, dass der Crimson-Nachfolger hier nachlegt.

StefanV
2016-11-01, 12:46:26
Ah... habs vergessen, dass die Lüfter bei Sapphire größer sind. Da sind die RPM was Lautstärke angeht natürlich dann nicht mehr 1:1 vergleichbar.
Sind sie so oder so nicht, da du glatt mal die Geometrie der Lüfterblätter unter den Tisch gekehrt hast, sowie die Anzahl der Lüfterblätter...
Und natürlich auch den Luftwiderstand des darunter liegenden Kühlers sowie die daran auftretenden verwirbelungen.

Ist also alles weit weniger einfach als stumpf die Drehzahl zu vergleichen...

Achill
2016-11-01, 13:31:46
Es ist sogar so, dass ich mich für die Red Dragon interessiere, eben weil ich keinerlei Interesse an OC habe.
Evtl. werde ich sie sogar ein wenig untertakten - mein Ziel ist es, die 480 sparsam zu bekommen, auch wenn ich dann eben ein paar % Performance einbüße.
Da ich aber neben Windows auch Linux nutze und dort, soweit ich weiß, kein zu Wattman vergleichbares Tool existiert, ist es mir wichtig eine Karte zu kaufen, die ohne Werksübertaktung daher kommt.

Auch wenn der Kühler kein absoluter Spitzenkühler ist, sollte er unter diesen Bedingungen gute Arbeit leisten.

Für Polaris muss man noch etwas warten, die Patches zum Einstellen des Powerplay sind aber unterwegs:
- dpm (https://patchwork.freedesktop.org/project/amd-xorg-ddx/patches/?submitter=15902&state=&q=dpm&archive=&delegate=)
- powerplay (https://patchwork.freedesktop.org/project/amd-xorg-ddx/patches/?submitter=15902&state=&q=powerplay&archive=&delegate=)

Mit GCN 1.0-1.2 geht es so (wird bei Polaris dann wahrscheinlich ähnlich sein): https://wiki.archlinux.org/index.php/ATI#Powersaving - so habe ich meine zwei 390x unter Linux auf den niedrigsten Power-State gezwungen (reicht für alles).

Dino-Fossil
2016-11-01, 14:15:37
Für Polaris muss man noch etwas warten, die Patches zum Einstellen des Powerplay sind aber unterwegs:
- dpm (https://patchwork.freedesktop.org/project/amd-xorg-ddx/patches/?submitter=15902&state=&q=dpm&archive=&delegate=)
- powerplay (https://patchwork.freedesktop.org/project/amd-xorg-ddx/patches/?submitter=15902&state=&q=powerplay&archive=&delegate=)


Nun, dass ist weder so komfortabel wie mit Wattman, noch in der Funktionalität so umfangreich, aber wenigstens ein Anfang.
Trotzdem, ich hoffe, dass sich da noch ein bisschen was tut.

Achill
2016-11-01, 16:28:24
Nun, dass ist weder so komfortabel wie mit Wattman, noch in der Funktionalität so umfangreich, aber wenigstens ein Anfang.
Trotzdem, ich hoffe, dass sich da noch ein bisschen was tut.

Achso, für den AMD-Linux-Treiber könnte natürlich Wattman kommen, die Links oben sind der Status für den OSS-Linux-Treiber der Community - ggf. tangiert das trotzdem Wattman / den Closed-Source-Treiber.

r3ptil3
2016-11-01, 23:39:49
Kennt jemand ein aktuelles Review, welches einen Treiber-Vergleich vom Release-Treiber zum aktuellen macht?

(del)
2016-11-02, 07:18:06
Dies ist extrem spielabhängig und wird durch zwischenzeitliche Patches der Spiele auch noch verfälscht. Wenn, dann müsste man so etwas anhand ganz bestimmter Spiele zum heutigen Stand komplett noch einmal benchen. Pauschal kann man da nichts dazu schreiben. :)

Nur lohnt der Aufwand nicht.

dargo
2016-11-03, 17:02:57
Lol... die Red Dragon scheint sich sehr gut zu verkaufen. Innerhalb von 2-3 Tagen steht die bei MF bei über 250 Stück. :D
http://www.mindfactory.de/product_info.php/8192MB-PowerColor-Radeon-RX-480-Red-Dragon-Aktiv-PCIe-3-0-x16--Retail-_1124443.html

joni200
2016-11-03, 17:47:05
@dargo Bei dem Preis ist das auch nicht so verwunderlich 250 Euro für ne RX480 ist ja sicherlich nicht schlecht.

@bardh Für Linux gibt es sowas in der Art (http://www.phoronix.com/scan.php?page=news_item&px=RX-470-Comparison-To-Launch). Da wird der OpenSource Treiber vom Launch-Day mit jetzt verglichen, das ganze auf einer RX470.

dargo
2016-11-03, 17:50:36
@dargo Bei dem Preis ist das auch nicht so verwunderlich 250 Euro für ne RX480 ist ja sicherlich nicht schlecht.

Ja... ich fands nur etwas lustig. Der Preis ist nicht erst seit heute bei 249€. Als ich letztes Mal geschaut habe lag die Stückzahl bei >10. Heute >250. :tongue: Kann aber auch sein, dass der Zähler bei MF wenige Tage kaputt war.

Menace
2016-11-03, 17:55:13
Gibt es eigentlich von der HIS IceQ X² Turbo Aktiv Variante ein Test?

(del)
2016-11-03, 17:59:59
Nein. Bestellt, aber leider bisher nicht mal als Sample zu bekommen :(

XFX pusht lieber die eigenen Karten als die umgebrandeten der neu eingegliederten Stiefschwester.

dargo
2016-11-03, 18:17:27
Nein. Bestellt, aber leider bisher nicht mal als Sample zu bekommen :(

Wo beziehst du die immer? In DE ist die doch super verfügbar.

(del)
2016-11-03, 18:28:05
Beim Distri schon. Aber wenn der mich komplett besampelt, muss er die Karte bezahlen und die anderen wollen auch eine. Das ist uns beiden der Spaß, nicht wert. Wenn Pine nicht mag, ist es nicht meine Schuld :(

iuno
2016-11-04, 01:18:37
Kennt jemand ein aktuelles Review, welches einen Treiber-Vergleich vom Release-Treiber zum aktuellen macht?
Auch schon wieder ein paar Wochen alt, aber PCGH hat den Nachtest gemacht:
Update vom 13.10.16: Spieleleistung nach vier Monaten (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/RX-480-Test-1199839/2/#a4)

-/\-CruNcher-/\-
2016-11-04, 06:51:11
Ich empfehle mal

https://www.youtube.com/user/ArT1S/videos

dort kann man quasi "live" beobachten was so passiert ;)

Wobei teils live natürlich dumm ist auf den Kern da die Entscheidungen schon längst getroffen worden bevor man ihre Ergebnise dann irgendwan sieht auch im Zusammenspiel mit den Treibern ;)

NikLaw
2016-11-04, 15:57:41
Auch schon wieder ein paar Wochen alt, aber PCGH hat den Nachtest gemacht:
Update vom 13.10.16: Spieleleistung nach vier Monaten (http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/RX-480-Test-1199839/2/#a4)

Da wird von einem Boosttakt von 1190 Mhz gesprochen und 8 % Leistungsgewinn. Wo bin ich dann mit meinen 1370 Mhz... 20 %? ;)

Gibt es immer noch Leute, die nicht undervolten, um stabil 1266 Mhz zu kriegen?

Dino-Fossil
2016-11-04, 16:07:00
Da wird von einem Boosttakt von 1190 Mhz gesprochen und 8 % Leistungsgewinn. Wo bin ich dann mit meinen 1370 Mhz... 20 %? ;)

Gibt es immer noch Leute, die nicht undervolten, um stabil 1266 Mhz zu kriegen?

Ich denke es soll lediglich ausdrücken, dass die 480 im Referenzdesign ohne weitere Änderungen inzwischen minimal effizienter boostet.
Customs oder OC/undervolting individueller Nutzer können da natürlich nicht sinnvoll berücksichtigt werden.

Ex3cut3r
2016-11-04, 16:41:37
Falscher Thread. Sry :(

iuno
2016-11-05, 03:58:31
Die 480 liegt beim Test von CB bis zu 20% vor der 1060, untypischerweise wird der Abstand mit hoeheren Aufloesungen geringer.

https://www.computerbase.de/2016-11/call-of-duty-infinite-warfare-benchmark/2/#diagramm-cod-infinite-warfare-1920-1080

Ist ein besonderer Grund bekannt, warum das Spiel auf AMD Karten aussergewoehnlich schnell ist? Benutzen die etwa Intrinsics oder hat es einfach allgemein sehr viel shaderlast? Kepler liegt ja auch nicht so schlecht.

dildo4u
2016-11-05, 04:03:24
Dort steht doch im Text das 6GB nicht reichen.

-/\-CruNcher-/\-
2016-11-05, 04:21:44
Das ist auch ein Brüller von Computerbase

anstatt das oder extra verrutscht man einfach alles sehr nice

https://www.computerbase.de/thema/grafikkarte/rangliste/


http://i1.sendpic.org/i/16/16R0ay2dZyr59GdA0TJCwktdjfh.png

:D

iuno
2016-11-05, 04:28:02
Dort steht doch im Text das 6GB nicht reichen.
In der Sequenz sind nur 2 Haenger drin, die Frametimes sind bei AMD durchgehend niedriger, also liegt es nicht daran.
Ansonsten koennte Fiji auch niemals die 1070 und 980 Ti so stehen lassen. Ausserdem ist auch die 290 schneller als die 1060, was sowieso schon nicht normal ist, mit dem 2 GiB kleineren Speicher dann aber erst recht keinen Sinn mehr ergibt.

StefanV
2016-11-05, 04:49:00
Dort steht doch im Text das 6GB nicht reichen.
3GiB R9-280X deutlich vor der GTX 970, aber auch R9-380(X).
Widerspricht also deiner Behauptung.

-/\-CruNcher-/\-
2016-11-05, 05:00:34
In der Sequenz sind nur 2 Haenger drin, die Frametimes sind bei AMD durchgehend niedriger, also liegt es nicht daran.
Ansonsten koennte Fiji auch niemals die 1070 und 980 Ti so stehen lassen. Ausserdem ist auch die 290 schneller als die 1060, was sowieso schon nicht normal ist, mit dem 2 GiB kleineren Speicher dann aber erst recht keinen Sinn mehr ergibt.

Tschasching ;)

StefanV
2016-11-05, 06:11:27
Die 480 liegt beim Test von CB bis zu 20% vor der 1060, untypischerweise wird der Abstand mit hoeheren Aufloesungen geringer.

https://www.computerbase.de/2016-11/call-of-duty-infinite-warfare-benchmark/2/#diagramm-cod-infinite-warfare-1920-1080

Ist ein besonderer Grund bekannt, warum das Spiel auf AMD Karten aussergewoehnlich schnell ist? Benutzen die etwa Intrinsics oder hat es einfach allgemein sehr viel shaderlast? Kepler liegt ja auch nicht so schlecht.
Wobei man hier hinzufügen sollte, dass es sehr schade ist, dass kein Pitcairn Chip mit von der Partie ist...

Aber das ist ja grundsätzlich das Problem, dass 'last gen' zu schnell fallen gelassen wird. Und so für den Nutzer weniger offensichtlich ist, wie sehr eine neue Grafikkarte rein haut.

Gibt ja auch heute noch Leute, die mit Fermis rumgeistern.

dargo
2016-11-05, 11:03:59
Die nächste non OC Custom RX480 im Anmarsch.
http://geizhals.de/gigabyte-radeon-rx-480-windforce-8g-gv-rx480wf2-8gd-a1530409.html
http://geizhals.de/gigabyte-radeon-rx-480-windforce-4g-gv-rx480wf2-4gd-a1530408.html?hloc=at&hloc=de

Der Preis muss sich natürlich wieder anpassen, also locker bleiben. ;)

Hübie
2016-11-05, 11:24:46
Die Ergebnisse bei PCGH beißen sich total mit denen von computerbase. Dort ist die Fury X unter der XFX RX 480 GTR. http://www.pcgameshardware.de/Call-of-Duty-Infinite-Warfare-Spiel-56591/Specials/Technik-Test-Benchmarks-1212463/

dargo
2016-11-05, 11:30:39
Die Fury braucht Pixellast. 1080p ist kein Kampfgebiet für Fiji, eher 2560/3440x1440. Zudem unterschiedliche Testszenen. Neues Spiel mit ersten Treibern und womöglich noch nicht ganz optimierten Spiel. Einfach mal bissel abwarten.

dildo4u
2016-11-05, 11:36:00
Fury leidet an der schlechten Speicherverwaltung die 980 läuft besser.

dargo
2016-11-05, 11:50:24
:facepalm:

https://www.computerbase.de/2016-11/call-of-duty-infinite-warfare-benchmark/2/
http://www.guru3d.com/articles_pages/call_of_duty_infinite_warfare_pc_graphics_benchmark_review,6.html
https://www.techpowerup.com/reviews/Performance_Analysis/Call_of_Duty_Infinite_Warfare/4.html

fondness
2016-11-05, 11:57:41
Die Fury braucht Pixellast. 1080p ist kein Kampfgebiet für Fiji, eher 2560/3440x1440. Zudem unterschiedliche Testszenen. Neues Spiel mit ersten Treibern und womöglich noch nicht ganz optimierten Spiel. Einfach mal bissel abwarten.

PCGH hat Details reduziert, die wohl AMD deutlich besser schmecken als NV. CB und alle anderen Seiten testen mit vollen Details, da liegt AMD deutlich besser.

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11203128#post11203128

Raff
2016-11-05, 12:01:43
Keine Details, nur Buffering-Optionen (http://www.pcgameshardware.de/Call-of-Duty-Infinite-Warfare-Spiel-56591/Specials/Technik-Test-Benchmarks-1212463/):

"Folgerichtig testen wir die Grafikkarten mit dem Detailgrad, welchen Infinite Warfare ihnen zugesteht. Im Grafikmenü setzen wir alle Optionen auf das jeweilige Maximum - vom Puffern der Punkt- und Sonnenschatten abgesehen, da diese Optionen weiteren Grafikspeicher belegen und bereits bei den Vorgängern die Streaming-Symptome verstärkten."

Dafür forciert PCGH 16:1 HQ-AF im Treiber. Siehe auch dieses Posting: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11203579&postcount=149

Ist aber alles Haarspalterei, denn Grafikkarten mit weniger als 8 GiByte sucken alle mehr oder minder bei der unendlichen Kriegsführung.

MfG,
Raff

Der_Korken
2016-11-05, 12:10:48
Dafür forciert PCGH 16:1 HQ-AF im Treiber.

Könnte das es Rätsels Lösung sein? Es gab doch bei Tomb Raider schon den Fall, dass Radeons mit AF unverhältnismäßig stark eingebrochen sind.

-/\-CruNcher-/\-
2016-11-05, 12:14:56
PCGH hat Details reduziert, die wohl AMD deutlich besser schmecken als NV. CB und alle anderen Seiten testen mit vollen Details, da liegt AMD deutlich besser.

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11203128#post11203128

Nvidia schadet vor allem das PP dort brechen sei meistens ein vor allem wenn es mainly auf AMD optimiert wurde ;)

fondness
2016-11-05, 12:44:47
Keine Details, nur Buffering-Optionen (http://www.pcgameshardware.de/Call-of-Duty-Infinite-Warfare-Spiel-56591/Specials/Technik-Test-Benchmarks-1212463/):

"Folgerichtig testen wir die Grafikkarten mit dem Detailgrad, welchen Infinite Warfare ihnen zugesteht. Im Grafikmenü setzen wir alle Optionen auf das jeweilige Maximum - vom Puffern der Punkt- und Sonnenschatten abgesehen, da diese Optionen weiteren Grafikspeicher belegen und bereits bei den Vorgängern die Streaming-Symptome verstärkten."

Dafür forciert PCGH 16:1 HQ-AF im Treiber. Siehe auch dieses Posting: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11203579&postcount=149

Ist aber alles Haarspalterei, denn Grafikkarten mit weniger als 8 GiByte sucken alle mehr oder minder bei der unendlichen Kriegsführung.

MfG,
Raff

Das Posting hatte ich noch gar nicht gesehen, um auch darauf einzugehen: Es fällt halt auf, wenn jemand häufig aus der Reihe fällt. Ich habe mir das schon öfter gedacht, deshalb habe ich jetzt mal zugegebenermaßen leicht provokativ nachgefragt. Vielleicht gibt es ja irgendwelche besonderen Umstände, die das rational erklären können. Und offensichtlich gab es diese ja auch in Form von diesen reduzierten Buffern, 16x forcierten AF und OC-Modellen.

Aber um bei deinen Jargon zu bleiben: Warum ist immer Gesetz, was für einen selbst gut aussieht? Ich verstehe durchaus, dass man lieber Lob hört über seinen Arbeitgeber bzw. über Benchmarks, an denen man möglicherweise selbst beteiligt war. Trotzdem muss auch kritischen Nachfragen erlaubt sein. Das muss man auch nicht gleich persönlich nehmen.

Schaffe89
2016-11-05, 12:45:25
3GiB R9-280X deutlich vor der GTX 970, aber auch R9-380(X).
Widerspricht also deiner Behauptung.

Ich würde den Benchmarks von COD ehrlichgesagt nicht soviel beimessen, offenbar hakt es an allen Ecken und Enden, teilweise gibt es hohe CPU Last, Teilweise nicht. Manchmal performt Nvidia gut, manchmal schlecht und umgekehrt. Eine Fury haut bei PCGH im CPU Limit nur knapp über 80 Frames oder so raus, da gibts offenbar vielfältige Probleme.

Der V-ram Bedarf sinkt mit höher werdender Auflösung und der ist astronomisch hoch für sonen Titel.

Fury leidet an der schlechten Speicherverwaltung die 980 läuft besser.

Jup, das hilft der GTX 1060 in dem Fall aber auch nicht mehr. Wenn Nvidia klug ist schieben sie 2017 noch nen 12GB Speedbumb nach.

dargo
2016-11-05, 12:54:47
PCGH hat Details reduziert, die wohl AMD deutlich besser schmecken als NV. CB und alle anderen Seiten testen mit vollen Details, da liegt AMD deutlich besser.

Dann eben so. Die Frage ist ob das so bleibt? Wie gesagt... ganz frische Spiele mit frischen Treibern sind mir in letzter Zeit zu unausgereift.

MechWOLLIer
2016-11-05, 13:10:43
Der V-ram Bedarf sinkt mit höher werdender Auflösung und der ist astronomisch hoch für sonen Titel.


Der VRAM-Bedarf sinkt nicht. Vergesst in dem Spiel eure Speicherbelegungsanzeige komplett. Es macht nur den Anschein, als wäre der Speichgerverbrauch niedriger, da Grafikkarten, wenn es wirklich anfängt knapp zu werden, nur noch die Daten im Speicher behalten die wirklich notwendig sind. Daher KANN der Eindruck erstehen, der Verbrauch wäre geringer.

Das ist aber nix neues und gibt es in vielen Spielen zu sehen. Ich selbst finde den Titel, anders als BO3, eigentlich technisch völlig in Ordnung.

dargo
2016-11-05, 13:18:07
Ich selbst finde den Titel, anders als BO3, eigentlich technisch völlig in Ordnung.
Das wird aber Schaffe nicht gefallen... RX480 20% vor GTX1060, RX470 5%. Und das sogar @DX11. Sorry, den konnte ich mir nicht verkneifen. ;)

-/\-CruNcher-/\-
2016-11-05, 13:25:50
Der VRAM-Bedarf sinkt nicht. Vergesst in dem Spiel eure Speicherbelegungsanzeige komplett. Es macht nur den Anschein, als wäre der Speichgerverbrauch niedriger, da Grafikkarten, wenn es wirklich anfängt knapp zu werden, nur noch die Daten im Speicher behalten die wirklich notwendig sind. Daher KANN der Eindruck erstehen, der Verbrauch wäre geringer.

Das ist aber nix neues und gibt es in vielen Spielen zu sehen. Ich selbst finde den Titel, anders als BO3, eigentlich technisch völlig in Ordnung.

BO3 ist auch technisch vollkommen in Ordnung und teils sogar besser es sind 2 unterschiedliche Engine Branches des selben Kerns mit 2 unterschiedlichen herangehensweisen die aber beide ihre Fortschritte sharen und beide zusätzlich von Activisions R&D gestützt werden :)

Infinite wards herangehensweise ist sehr vergleichbar mit CryEngine 2, Frostbite 3, Unreal 4 während Treyarchs Ansatz sehr Dunia 2/CryEngine 3 ähnelt :)

Botcruscher
2016-11-05, 13:33:00
Schön wie sich mal wieder meine Voraussagen zum VRAM bestätigen. Alles unter 8GB ist einfach nicht mehr zeitgemäß. Dazu ist es ja gerade mal gammeliges FHD. Wenn AMD sich mit VEGA noch etwas zeit lässt brauchen die wirklich nur noch mit 16GB kommen.

dargo
2016-11-05, 13:35:47
Schön wie sich mal wieder meine Voraussagen zum VRAM bestätigen. Alles unter 8GB ist einfach nicht mehr zeitgemäß. Dazu ist es ja gerade mal gammeliges FHD. Wenn AMD sich mit VEGA noch etwas zeit lässt brauchen die wirklich nur noch mit 16GB kommen.
:confused:

Wenn der Vram-Bedarf so riesig ist kannst du mir gerne erklären wie Fiji, Hawaii und Tahiti auf so hohe Frames kommen?

-/\-CruNcher-/\-
2016-11-05, 13:51:45
Naja du solltest mal schauen wie PCGH von textur lade fehlern berichtet die ganzen daten kann man ohne genau zu prüfen eh nicht für ernst nehmen die hier rumschwirren ;)

Botcruscher
2016-11-05, 13:53:26
:confused:
Wenn der Vram-Bedarf so riesig ist kannst du mir gerne erklären wie Fiji, Hawaii und Tahiti auf so hohe Frames kommen?

Erstens siehst du das streaming in normalen Messungen erst wenn alles zu spät ist und zweitens dynamische Detailanpassung aka Speicherbremse.

Thunder99
2016-11-05, 13:55:09
:confused:

Wenn der Vram-Bedarf so riesig ist kannst du mir gerne erklären wie Fiji, Hawaii und Tahiti auf so hohe Frames kommen?
Weil nicht alle Details geladen werden?! Steht ja so im Text. Dennoch schön das ein Titel wieder besser GCN auslasten kann :).

-/\-CruNcher-/\-
2016-11-05, 13:58:07
Erstens siehst du das streaming in normalen Messungen erst wenn alles zu spät ist und zweitens dynamische Detailanpassung aka Speicherbremse.

Nicht nur Streaming kann dynamisch sein auch Effekte können sich durchaus dynamisch anpassen so wie das PP selbst ;)

Botcruscher
2016-11-05, 14:05:06
Genau das darf in einem Test nicht passieren. Dazu hat die ganze Funktion einen ordentlichen Ausschalter zu besitzen. Bevormundung und Täuschung können die sich für die Konsolenversion sparen. Dort kann es gerne "zur optimalen Ausnutzung der Hardware" und "sieht man eh nicht" werbewirksam angepriesen werden.

woodsdog
2016-11-05, 14:07:54
BO3 ist auch technisch vollkommen in Ordnung und teils sogar besser es sind 2 unterschiedliche Engine Branches des selben Kerns mit 2 unterschiedlichen herangehensweisen die aber beide ihre Fortschritte sharen und beide zusätzlich von Activisions R&D gestützt werden :)

Infinite wards herangehensweise ist sehr vergleichbar mit CryEngine 2, Frostbite 3, Unreal 4 während Treyarchs Ansatz sehr Dunia 2/CryEngine 3 ähnelt :)

Hast du zur Abwechslung auch mal irgend welche Quellen für diese Behauptungen? :confused:

-/\-CruNcher-/\-
2016-11-05, 14:08:44
Moment nicht falsch verstehen sage nur es ist möglich wird aber eher selten auf dem PC gemacht ;)

Nur mit VR ist es wieder sehr in Mode gekommen auch auf dem PC

Mit Täuschung hat das ganze nichts zu tun es geht darum ohne sichtbare verluste eine größere menge an Systemen zu erreichen und Supportkosten und Steam Bashings zu verhindern.

woodsdog
2016-11-05, 14:16:12
Moment nicht falsch verstehen sage nur es ist möglich wird aber eher selten auf dem PC gemacht ;)

Nur mit VR ist es wieder sehr in Mode gekommen auch auf dem PC

Was soll hier "nicht falsch verstehen" bedeuten?! Du triffst in dem Post MEHRFACH glasklare Aussagen. Kein Wunder das kein Mensch dein Geschreibsel versteht.

Raff
2016-11-05, 14:21:05
Aber um bei deinen Jargon zu bleiben: Warum ist immer Gesetz, was für einen selbst gut aussieht? Ich verstehe durchaus, dass man lieber Lob hört über seinen Arbeitgeber bzw. über Benchmarks, an denen man möglicherweise selbst beteiligt war. Trotzdem muss auch kritischen Nachfragen erlaubt sein. Das muss man auch nicht gleich persönlich nehmen.

Je mehr Aufwand und Herzblut in einen Artikel geflossen sind, desto nerviger empfindet man nun mal solche Postings. Wäre mir alles egal und würden meine Kollegen und ich einfach lieblos Benchmarks hinklatschen, ohne groß nachzudenken, ginge mir das am Allerwertesten vorbei. Ich erwarte ja nicht mal Lob (passt nicht zu unserer Welt), wohl aber Anerkennung für die Arbeit und vor allem die Dokumentation und Transparenz, welche ich vielerorts vermisse. :)

Moment nicht falsch verstehen sage nur es ist möglich wird aber eher selten auf dem PC gemacht ;)

Nur mit VR ist es wieder sehr in Mode gekommen auch auf dem PC

Mit Täuschung hat das ganze nichts zu tun es geht darum ohne sichtbare verluste eine größere menge an Systemen zu erreichen und Supportkosten und Steam Bashings zu verhindern.

Die Verluste sind bei Infinite Warfare, leider, offensichtlich. Dafür fällt die Performance auf schwachen Karten gut aus. Die Herangehensweise ist aber IMO Unsinn: Wenn ich als PC-Spieler die Optionen auf das Maximum stelle, dann will ich auch das Maximum haben, etwa weil ich lieber schönes Ruckeln als halbflüssigen Brei habe. Das Spiel bevormundet, ohne eine Option dagegen anzubieten. Das Problem ließe sich ganz einfach mithilfe eines "Speicherschutz"-Schalters lösen, wie ihn u. a. Mirror's Edge: Catalyst, Hitman und Battlefield 1 bieten. Mal sehen, was da noch per Patch kommt. :)

MfG,
Raff

-/\-CruNcher-/\-
2016-11-05, 14:28:08
Was soll hier "nicht falsch verstehen" bedeuten?! Du triffst in dem Post MEHRFACH glasklare Aussagen. Kein Wunder das kein Mensch dein Geschreibsel versteht.

Naja du hättest auch Logisch schlussfolgern können das das nicht an dich gerichtet war sondern an dem über dir, weil das überhaupt keinen sinn auf deinen Post ergibt ;)

TobiG
2016-11-05, 14:29:55
Naja du hättest auch Logisch schlussfolgern können das das nicht an dich gerichtet war sondern an dem über dir, weil das überhaupt keinen sinn auf deinen Post ergibt ;)

Dann macht dein geschreibsel nur noch weniger Sinn. Sorry Sense :D

woodsdog
2016-11-05, 14:30:40
Naja du hättest auch Logisch schlussfolgern können das das nicht an dich gerichtet war sondern an dem über dir, weil das überhaupt keinen sinn auf deinen Post ergibt ;)

Ahha. Dann kannst du mir ja JETZT antworten und Quellen nennen :)

-/\-CruNcher-/\-
2016-11-05, 14:41:59
COD Entwicklung ist ne komplexe sache 3 Entwickler mit 3 Engine branches und teils differenten ansätzen die unter einander austauschen ;)

https://en.wikipedia.org/wiki/IW_engine

woodsdog
2016-11-05, 15:11:52
COD Entwicklung ist ne komplexe sache 3 Entwickler mit 3 Engine branches und teils differenten ansätzen die unter einander austauschen ;)

https://en.wikipedia.org/wiki/IW_engine

DANKE!

warum nicht immer so? Das könnte deinem Gegenüber häufiger helfen eben nicht ständig so > :confused: < nach dem lesen deiner Satzzeichen-losen Ergüsse auszusehen.
Darüber hinaus, zitiere doch bitte einfach die relevanten Stellen oder Posts, wenn du dich auf etwas beziehst. Das hilft allen den Faden zu behalten.

achja, gerne weniger Smileys auch wenn sie bei dir quasi das Ende eines Cruncher-Satzes anzeigen helfen. xD

Ex3cut3r
2016-11-05, 15:47:49
Cruncher neigt auch dazu, nicht passende Youtube Videos zum Thema zu Posten. :biggrin:

Naja wie dem auch sei, die RX 480 ist schon ein nettes Spielzeug, möglicherweise holt mein Dad sich die noch , für seinen i5 2500k.

Schaffe89
2016-11-05, 17:54:21
Das wird aber Schaffe nicht gefallen... RX480 20% vor GTX1060, RX470 5%. Und das sogar @DX11. Sorry, den konnte ich mir nicht verkneifen. ;)

Nope, ich finde es super dass AMD Boden gut machen kann.:redface:

dildo4u
2016-11-06, 10:22:05
PCGH hat jetzt übrigenz den Bench Parkour geändert,480 ist jetzt Gleichauf mit der 1060.Es nervt einfach nur das hier ständig gegen die PCGH gepöbelt wird das sie mit Absicht AMD schlecht dastehen lassen.

horn 12
2016-11-06, 10:27:32
Mal den Crimson Nachfolge Treiber abwarten
Bringt etliche Neuerungen laut d2kx

Gerade eine Fury Nitro OC+ UEFI für 263 Euro bestellt.

Raff
2016-11-06, 11:24:28
PCGH hat jetzt übrigenz den Bench Parkour geändert,480 ist jetzt Gleichauf mit der 1060.Es nervt einfach nur das hier ständig gegen die PCGH gepöbelt wird das sie mit Absicht AMD schlecht dastehen lassen.

Ah, hat's doch einer bemerkt – die Umstellung fand schließlich schon zum Heft statt, das Anfang Oktober (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-11-2016-Magazin-DVD-Download-PDF-1209181/) erschien. Danke für dieses Posting, dildo. :) Die Abhandlung des neuen 19+1-Parcous wird ihren Weg bald ins Netz finden. Aber selbst mit diesem fortschrittlichen Setup und Polaris-Ergebnissen werden noch Leute pöbeln. Möglicherweise stimmt sie aber der brandneue Speicher-Ratgeber (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-12-2016-Magazin-DVD-Download-PDF-1211670/) um, bei dem es um die Fragen "8 oder 4, 6 oder 3 GiByte?" geht. Getestet mit Standardboosts und angeglichener Rohleistung, um die Speicherkapazität in den alleinigen Fokus zu setzen. Mit tadelloser Vorstellung der RX 480/8G und dementsprechender Empfehlung. :naughty:

Mal den Crimson Nachfolge Treiber abwarten
Bringt etliche Neuerungen laut d2kx

Gerade eine Fury Nitro OC+ UEFI für 263 Euro bestellt.

Der Treiber wird Fiji nicht erlösen, er hat einfach zu wenig Speicher. Stornier das besser und kauf dir stattdessen eine RX 480/8G, z. B. die MSI Gaming X, Asus Strix oder Powercolor-Teufel. Eine solche Karte hat genug RAM und ist, auch wegen der Treiberliebe, zukunftssicher (siehe oben).

MfG,
Raff

horn 12
2016-11-06, 11:56:27
Nun, bereits gekauft Raff!

Habe bereits ja die Sapphire Fury AMD Referenz Design Tri-X mit +12 mV auf 1070 stabil
und mit FIXEN! 37% Lüfterspeed um die 80 Grad und angenehm leise.
Ist die Nitro da noch Leiser, und vor Allem das Untervolting/ OC bis mindestens 1100 Mhz wohl generell möglich sollte besser gehen, dafür aber eher geneigt zum(hohen) Spulenfiepen welche meine komplett NICHT aufweist.

Nun, ansonsten verkaufe ich die Nitro wiederum und mit 4K gehen die Fury´s bedeutend besser ab als die RX 480/1060-er Karten.
Später wird sowieso auf Vega groß umgesattelt, Voraussetzung jener ist 70 bis 100 Prozent schneller als die Fury Nitro!

dildo4u
2016-11-06, 12:38:42
Ah, hat's doch einer bemerkt
Was noch fehlt ist die 1080 nicht genug Zeit gehabt?

Raff
2016-11-06, 12:43:04
Nun, ansonsten verkaufe ich die Nitro wiederum und mit 4K gehen die Fury´s bedeutend besser ab als die RX 480/1060-er Karten.

Das gilt leider immer seltener, da, wie gesagt, 4 GiByte RAM zu wenig für UHD ist. Das wurde bereits zum Launch kritisiert und hemmt den schnellen Chip in fast jedem neuen Spiel.

Was noch fehlt ist die 1080 nicht genug Zeit gehabt?

Richtig. In der PCGH 01/2017 wird sie dabei sein und die Top 20 sind dann ebenfalls voll. :)

MfG,
Raff

dargo
2016-11-08, 21:04:00
Noch eine Custom RX480 unter 250€.
http://geizhals.de/his-radeon-rx-480-iceq-x-oc-hs-480r8lcnr-a1533409.html

jorge42
2016-11-08, 21:18:09
Noch eine Custom RX480 unter 250€.
http://geizhals.de/his-radeon-rx-480-iceq-x-oc-hs-480r8lcnr-a1533409.htmlLautstärke?

dargo
2016-11-08, 22:16:16
Kann ich dir nicht sagen. Der Kühler sieht mir aber identisch zum Kühler der RX470 aus.
http://geizhals.de/his-radeon-rx-470-iceq-x-turbo-hs-470r4ltnr-a1488555.html?hloc=at&hloc=de

Und der soll kein Leisetreter sein.

herp_derp
2016-11-08, 22:32:54
Kein Wunder, bei Geizhals sind die exakt gleichen Bilder drin.

Die Karte hat wohl das gleiche PCB wie die XFX GTR und der Kühler scheint auch der gleiche zu sein. Leider findet man von beiden keine richtigen Reviews aber bei reddit wird die GTR oft gepriesen.

gedi
2016-11-08, 23:33:18
Ah, hat's doch einer bemerkt – die Umstellung fand schließlich schon zum Heft statt, das Anfang Oktober (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-11-2016-Magazin-DVD-Download-PDF-1209181/) erschien. Danke für dieses Posting, dildo. :) Die Abhandlung des neuen 19+1-Parcous wird ihren Weg bald ins Netz finden. Aber selbst mit diesem fortschrittlichen Setup und Polaris-Ergebnissen werden noch Leute pöbeln. Möglicherweise stimmt sie aber der brandneue Speicher-Ratgeber (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-12-2016-Magazin-DVD-Download-PDF-1211670/) um, bei dem es um die Fragen "8 oder 4, 6 oder 3 GiByte?" geht. Getestet mit Standardboosts und angeglichener Rohleistung, um die Speicherkapazität in den alleinigen Fokus zu setzen. Mit tadelloser Vorstellung der RX 480/8G und dementsprechender Empfehlung. :naughty:



Der Treiber wird Fiji nicht erlösen, er hat einfach zu wenig Speicher. Stornier das besser und kauf dir stattdessen eine RX 480/8G, z. B. die MSI Gaming X, Asus Strix oder Powercolor-Teufel. Eine solche Karte hat genug RAM und ist, auch wegen der Treiberliebe, zukunftssicher (siehe oben).

MfG,
Raff


Sry Raff - aber mir wird es langsam zu blöd. Du hattest vergessen zu erwähnen, dass es eine 480 8GB gerade mal so auf das Level einer 1060 3GB schafft.

Witzig fand auch einen Artikel in einem eurer letzten Reviews
, wo eine OC 480 gegen eine OC 980 gestellt wurde, wo ich erst dachte: Meh, wahrscheinlich hatte PCHG vergessen den Monitor einzustecken (oder sucht immer noch nach dem D-Sub Anschluss) und/oder schätzt die Werte, bis ich gesehen habe, dass die 480 immer im höchsten Setting gebencht wurde.

Für was dann die Balken? Wenn es euch so schwer fällt, dann macht doch bitte mal einen Bench von GTX1070 zur 480 8GB mit jeweils 1.45G ohne Fangaybrille - mal schauen, wer angesichts der P/L den Längeren hat ;)

Iruwen
2016-11-09, 08:04:44
"Fangaybrille", ernsthaft? Das ist auf so vielen Ebenen dämlich, schlimmer als Trump.

Thunder99
2016-11-09, 08:45:20
@gedi: Ernsthaft? Schau mal bitte über den Tellerrand hinaus, danke.

Es gibt zwar einige Spiele wo nvidia Grafikarten deutlich schneller als die AMD Konkurrenten sind, aber genau so Spiele wo es umgekehrt ist ;). Und da wo der Spieleentwickler keine oder geringe Optimierung des Speicherbedarf gemacht hat deklassiert jede AMD GPU eine Nvidia GPU mit geringerem Speicher.

Als Beispiel performt die Polaris GPU besonders gut im neuem CoD, bei vollen Details ohne Reduzierung der Texturen.

Dino-Fossil
2016-11-10, 00:26:28
Eigentlich hätte heute die Red Dragon kommen sollen, aber Hermes war wohl etwas optimistisch mit dem vorraussichtlichen Lieferdatum.
Wobei zuvor schon Mindfactory etwas optimistisch mit der Übergabe an Hermes war... :uponder:

Schnoesel
2016-11-10, 11:37:29
Erfahrungen bezüglich der Laustärke wären interessant, wurde ja noch nirgendwo getestet oder bewertet.

Dino-Fossil
2016-11-10, 13:54:58
So sie denn mal irgendwann den Weg zu mir findet - heute schaut auch schon schlecht aus und übers WE bin ich gleich mal weg vom Spielerechner.
Gut möglich, dass ich damit erst nächste Woche dienen kann. :(

dargo
2016-11-12, 08:38:46
Bei der RX480 gibt es auch die neue von Powercolor für 199€.
http://geizhals.de/powercolor-radeon-rx-480-red-dragon-v2-axrx-480-4gbd5-3dhdv2-a1535966.html?hloc=at&hloc=de

Bei dem Preis disqualifiziert sich die GTX1050 TI komplett mit ihren lächerlichen 2,x TFLOPs.

dildo4u
2016-11-12, 09:58:31
Was hat die Karte mit der 1050 Ti zu tun,NV hat 1060 Karten für 200€.

dargo
2016-11-12, 10:18:26
Ja... mit 3GB. :ulol:

-/\-CruNcher-/\-
2016-11-12, 10:23:22
Das ist in der tat nicht mehr empfehlenswert 3.5/4 sind äusserste Schmerzgrenze je nach Systemkonfiguration auch wenn man Zukünftige Optimierungen mit einplannt, wenn sich überhaupt jemand den Aufwand dazu macht.

Ansonsten sollte man gleich Konsole kaufen ;)

dargo
2016-11-12, 10:31:50
Zumal der Preis der 1050TI gemessen an der Rohleistung zur 1060 3GB ein Witz ist. Womit will NV das begründen? Mit dem 1GB Vram mehr für 5-10€? ;D

dildo4u
2016-11-12, 10:32:48
Das trifft genau so auf die 460 zu natürlich erwähnst du die nicht.

dargo
2016-11-12, 10:35:28
Spar dir den Blödsinn. Ich hatte schon öfter gesagt, dass die 4GB 460 Richtung 100€ gehört. Viel fehlt da nicht mehr.
http://geizhals.de/xfx-radeon-rx-460-single-fan-rx-460p4sfg5-a1490294.html?hloc=at&hloc=de

btw.
RX470 4GB vs. RX460 4GB = 44% höherer Preis bei ca. 123% mehr Rohleistung.
GTX1060 3GB vs. GTX1050 TI 4GB = 33% höherer Preis bei ca. 83 % mehr Rohleistung.
GTX1060 6GB vs. GTX1050 TI 4GB = 68% höherer Preis bei ca. 101 % mehr Rohleistung.

Das P/L ist bei den kleinen Karten einfach nur mies.

(del)
2016-11-12, 11:46:13
Tja, das ist nun mal Marktwirtschaft. Wer Preisbindung lieber mag, der kaufe sich am besten ein Buch.

Ist eh besser und bildet zudem :)

dargo
2016-11-12, 13:19:54
Man sieht, dass die ~2TFLOPs Dinger schon lange im neuen Fertigungsprozess in einen SoC gehören.

Mancko
2016-11-12, 14:39:17
Zumal der Preis der 1050TI gemessen an der Rohleistung zur 1060 3GB ein Witz ist. Womit will NV das begründen? Mit dem 1GB Vram mehr für 5-10€? ;D

Unter anderem damit, dass die 1050 Ti in eine kritische Watt Klasse mit ihren 75W fällt. Diese Grenzkategorien sind sehr wichtig, insbesondere für OEM-PCs, da dies Ersparnisse an anderer Stelle ermöglicht. Ich empfehle daher nicht immer nur schwarz/weiß das Ganze zu sehen oder linear zu beurteilen. Der Markt wird den Preis ohnehin regeln, zumal die Karten nun noch nicht so wirklich lange draußen sind.

dildo4u
2016-11-12, 15:08:53
Ebend nicht Jeder hat die selben Voraussetzungen,die 470/480 sind nicht so billig wenn man gezwungen ist ein neues ordentliches Netzteil zu kaufen.Ich wette massig i3 OEM Systeme kommen ohne 6/8 Pin Anschluss.

Michalito
2016-11-12, 16:11:51
Ich denke, der OEM Markt muss hier niemanden intressieren. Aus verschiedenesten Gründen. Und, ein neues korrektes NT bewegt sich ab ca. 40€ +

(del)
2016-11-12, 18:10:56
Ich denke, der OEM Markt muss hier niemanden intressieren. Aus verschiedenesten Gründen. Und, ein neues korrektes NT bewegt sich ab ca. 40€ +
Mit 40 Euro Aufpreis ist man dann aber schon deutlich woanders ;)

Systembuilder, HTPCs, Nachrüster usw. - die steckerlose 75-Watt-Klasse ist durchaus ein echter Kassenschlager.
Umsatz machen die Firmen im echten Massenmarkt, nicht mit ein paar gamenden Foristen und teureren Karten ;)

AMD trauert heute noch der HD 7750 nach, die es sogar als "Green"-Version und passiv gab. Das Ding war ein echter Money-Maker.
Polaris 11 als unverkrüppelte Karte hätte echt das Zeug zum Nachfolger gehabt. Aber nein, man muss sich Apple andienen,
nur des schnellen Geldes wegen. Nachhaltig ist dies nun wirklich nicht und ich denke mal, das wird sich noch rächen.

Michalito
2016-11-12, 19:34:58
Ja, danke Igor, du nennst ja einige Gründe warum man hier im Forum sich sicher nicht um den OEM Markt kümmern muss. das ist ein ganz anderer Beritt, und von knallharter Kalkulation geprägt. Da sind andere Stückzahlen, Margen, Intressen als hier im Forum, mit sicher auch weit anderen Anforderungen. First World Probs..
Und die 40€ die man für ein neues hlabwegs taugliches Nt hinlegt, sind ca. 10% des OEM PC Kaufpreises und max. 25% der neuen Graka. I.d.R. ca. 40%. Tja, was kann man dann dem OEM PC Käufer sagen, wer billigt kauft kauft oft zwei mal. Oder wie mein Opa gerne richtig bemerkte: Wir sind viel zu arm, um uns was billiges leisten zu können.

Rampage 2
2016-11-12, 20:05:20
Vielleicht begreifst du es nicht: AMD baut keine konkurrenzfähigen Produkte. Das ist die Krux. Die meisten greifen halt eher zur 1060. Mit lächerlichen 1280 ALUs hält man 2304 ALUs und mehr Bandbreite in Schach. Das spricht sich herum. Und außerdem steht da NVIDIA drauf. "Hab mal gehört das AMD nicht so gut ist, weil die Abstürzen. NVIDIA braucht auch weniger Strom."
Das sind typische Dumpfbackenphrasen die man ständig hört oder liest.


Ich hab das mal in diesen Thread kopiert;)

Ich finde diesen Vergleich unpassend, denn du vergleichst Karte A, deren üblicher Boost-Takt bei 1266MHz liegt mit Karte B, wo Selbiges bei 1850MHz liegt - also fast 50% höherer Chiptakt! So gesehen ist die 1060 eine RX480 mit 1920SPs @ 1250MHz und 25% weniger Bandbreite, wo aber die Differenz durch die überlegene DCC erheblich verkleinert wird...

Die RX480 hat also nur eine 20-25% höhere Rechenleistung und eine geschätzt 20% höhere effektive Bandbreite als die 1060 - und Letzteres ist eher eine optimistische denn pessimistische Schätzung...

Aber ja, von der RX480 hatte ich auch mehr erwartet - ich kann echt nicht nachvollziehen, warum AMD nichts Gescheites aus der Rohleistung rausbekommt. Insbesondere kapiere ich nicht, warum AMD-Karten unter DX11 so schlecht abschneiden - da muss AMD unbedingt nachbessern, da DX11 auch in den nächsten Jahren von Relevanz sein wird!

R2

(del)
2016-11-12, 20:08:15
Der Witz ist nur:
Die meisten OEM-PCs (ich meine die guten) sind oft haltbarer als das, was man sich hier so oft zusammenbastelt.
Ich kenne die Kalkulationen im SI-Business und auch den Puffer, der zur Sicherheit trotzdem mit einberechnet wird.

Was ich meinte:
Die Grafikkartenhersteller machen den Schotter nicht mit den Flaggschiffen und der Ober- bzw. Mittelklasse.
Um überleben zu können und um Kevin-Normalzocker bedienen zukönnen, müssen erst mal viele kleine Jasons und
Justins die Fußhupen-PCs kaufen. Ohne tonnenweise Krümel im Abverkauf keine Sahnetorte als Dessert. :D

Bedauerlicherweise verschenkt AMD jede Menge Potential, um gutes und nötiges Geld zu verdienen, weil man bei den
Einstiegsmodellen nicht in die Pötte kommt oder solch albernen Exklsiv-Verträge wie mit Apple hinschustert.
Dann nämlich kann NV mit dem 1050 (Ti) Geraffel genüsslich absahnen, ohne dass es eine echte Alternative gäbe.
Einsteigermodelle mit Stromstecker sind schlecht verkäuflich und die kastrierte RX 460 einfach zu lahm.

Dino-Fossil
2016-11-12, 20:20:31
Naja, auf die Gefahr hin, ein wenig wie ein Fanboy zu klingen, aber ich denke AMD weiß möglicherweise besser, was sie von ihrem eigenen Chip wirtschaftlich zu erwarten haben, als du.
Bzw. wird es schon einen Grund haben, warum sie Polaris so positioniert/vermarktet haben (abgesehen von reiner Inkompetenz die du zu vermuten scheinst?).

BlackArchon
2016-11-12, 20:20:58
...
AMD trauert heute noch der HD 7750 nach, die es sogar als "Green"-Version und passiv gab. Das Ding war ein echter Money-Maker.
Polaris 11 als unverkrüppelte Karte hätte echt das Zeug zum Nachfolger gehabt. Aber nein, man muss sich Apple andienen,
nur des schnellen Geldes wegen. Nachhaltig ist dies nun wirklich nicht und ich denke mal, das wird sich noch rächen.
Was meinst du damit genau? Die RX460 hat doch in der Standardausführung keinen extra Stromstecker.

iuno
2016-11-12, 20:31:13
Verstehe auch nicht, was Igor damit sagen will. Man hatte seither immer Karten ohne Stecker im Angebot, wenn er das meint, was ich denke haette er er besser geschrieben "AMD trauert immer noch den Zeiten der xy nach".
Wobei ich das trotzdem nicht verstehe. Damals ist man kurzzeitig noch gegen Fermi angetreten, ansonsten war Cape Verde jetzt auch kein Ueberflieger.

dargo
2016-11-12, 20:42:28
Ebend nicht Jeder hat die selben Voraussetzungen,die 470/480 sind nicht so billig wenn man gezwungen ist ein neues ordentliches Netzteil zu kaufen.Ich wette massig i3 OEM Systeme kommen ohne 6/8 Pin Anschluss.
Was ist für dich ein neues ordentliches Netzteil? Hier hast du eins welches ohne Probleme eine RX480 (auch wenn sie nicht das Thema war) stemmt.
http://geizhals.de/be-quiet-system-power-b8-300w-atx-2-4-bn256-a1382415.html?hloc=at&hloc=de

Erst recht mit einem poppeligen i3.

Edit:
Sorry, mein Fehler. Das NT hat tatsächlich keinen Grafikkartenstecker. :freak:

Dann müssen es eben 5€ mehr sein.
http://geizhals.de/be-quiet-system-power-b8-350w-atx-2-4-bn257-a1382424.html?hloc=at&hloc=de


Systembuilder, HTPCs, Nachrüster usw. - die steckerlose 75-Watt-Klasse ist durchaus ein echter Kassenschlager.
Umsatz machen die Firmen im echten Massenmarkt, nicht mit ein paar gamenden Foristen und teureren Karten ;)

Ich gebe dir mal einen Tipp... mit einem SoC und nem GPU-Part @~2TFLOPs sparst du dir noch viel mehr ein. Nämlich zusätzliches PCB, Stromanschlüsse und jede Menge Platz. ;)

Botcruscher
2016-11-12, 21:00:00
Das ist aber nicht die Zielgruppe der Gurkenkarten. Die OEM haben ein ganz anderes Profil. Da geht es ja gerade darum nicht auf die IGPU angewiesen zu sein.

(del)
2016-11-12, 21:21:27
Die R460 ist nicht sexy genug, um NV damit rauszukegeln. DAS meinte ich damit. Polaris 11 im Vollausbau wäre besser gewesen. Die WX 4100 ist nämlich nice. Und die WX 7100 ist bis auf die Lautstärke aus meiner Sicht die ehrlichere 10er :)

HOT
2016-11-13, 09:20:21
Der Witz ist nur:
Die meisten OEM-PCs (ich meine die guten) sind oft haltbarer als das, was man sich hier so oft zusammenbastelt.
Ich kenne die Kalkulationen im SI-Business und auch den Puffer, der zur Sicherheit trotzdem mit einberechnet wird.

Was ich meinte:
Die Grafikkartenhersteller machen den Schotter nicht mit den Flaggschiffen und der Ober- bzw. Mittelklasse.
Um überleben zu können und um Kevin-Normalzocker bedienen zukönnen, müssen erst mal viele kleine Jasons und
Justins die Fußhupen-PCs kaufen. Ohne tonnenweise Krümel im Abverkauf keine Sahnetorte als Dessert. :D

Bedauerlicherweise verschenkt AMD jede Menge Potential, um gutes und nötiges Geld zu verdienen, weil man bei den
Einstiegsmodellen nicht in die Pötte kommt oder solch albernen Exklsiv-Verträge wie mit Apple hinschustert.
Dann nämlich kann NV mit dem 1050 (Ti) Geraffel genüsslich absahnen, ohne dass es eine echte Alternative gäbe.
Einsteigermodelle mit Stromstecker sind schlecht verkäuflich und die kastrierte RX 460 einfach zu lahm.
Das war mal so, in Zeiten von APUs ist das Unsinn. Die 1050 hatte ja interessanterweise nichts mit dem Rekordquartal zu tun, es war in erster Linie der GP104, der das Rekordquartal bescherte. Es lag massig Geld auf der Strasse und NV hat das mit dem richtigen Produkt zum richitgen Zeitpunkt eingesammelt. Erst mit dem GM200, bei dem man mit der Produktion kaum hinterherkam, jetzt mit dem GP104. AMD macht eigentlich alles richtig - konkurriere da wo du kannst und nicht da wo du keine Chance hast. Die haben aber sowohl im APU als auch im GPU-Bereich immer noch große Probleme mit ihrem Ruf - sagen wir ein Markenproblem. Das Weiteren hat AMD aufgrund der 1 1/2 Jahre Readscher Sparpolitik und unsinniger Projekte in dieser Zeit immer noch große Defizite im Softwarebereich.

(del)
2016-11-13, 09:38:16
So gern ich APUs mag und ständig auch getestet habe, für Full-HD mit akzeptablen Settings ist das leider immer noch nichts.
Für Office-PCs oft mehr als ok, ein paar Browser-Games tun es auch. Aber für normales Gaming, sogar im Entry-Level,
ist es geradezu unbrauchbar. Dinge wie Mafia III laufen auf einer 1050 auch in 1080p noch recht gut -
ich habe aber keine APU im Archiv, mit der ich mir das Spiel oberhalb 720p antun würde. Und dies ist nur ein Beispiel von vielen.

AMD hat aktuell eigentlich kein kein Marken-, sondern ein echtes Produktproblem. Es fehlen die echten Highlights,
um ohne Brechstange Akzente setzen zu können. Nimmt man mal den größeren Speicherausbau beiseite,
bleiben leider nicht viele Argumente. Und das mit den vielen TFLOPS hören wir uns seit 6 Jahren an.
So sehr ich es AMD wünsche, es ist schwer, die Produkte nicht ausschließlich über den Preis zu verkaufen.

Ich bin auf Vega gespannt und das, was sich dort vielleicht auch an zukünftiger Strategie ablesen lassen kann.
Wenn dann noch die PR nicht die Techniker überstimmt, dann könnte es was werden. Naja, bald sind wir schlauer ;)

horn 12
2016-11-13, 09:44:25
Was heist bald sind wir schlauer?
Vorstellung noch dieses Jahr und Lieferung Jänner 2017
Habe wie gesagt 2 Furien hier und jene laufen echt gut, Nitro gar mit -78 UnterVoltinmg über Stunden mit Farcry Primal in Ultra HD...

Verkaufe nun die Fury Tri-X und bei Vega guter Lieferung steife ich erneut um, auch wenn es Mitte 2017 werden sollte.
Jener muss (knapp) doppelt so schnell werden als meine Fury, ansonsten steige ich erst bei Vega 2 um!

dargo
2016-11-13, 09:50:39
So gern ich APUs mag und ständig auch getestet habe, für Full-HD mit akzeptablen Settings ist das leider immer noch nichts.
Für Office-PCs oft mehr als ok, ein paar Browser-Games tun es auch. Aber für normales Gaming, sogar im Entry-Level,
ist es geradezu unbrauchbar. Dinge wie Mafia III laufen auf einer 1050 auch in 1080p noch recht gut -
ich habe aber keine APU im Archiv, mit der ich mir das Spiel oberhalb 720p antun würde. Und dies ist nur ein Beispiel von vielen.

Es geht auch gar nicht um die Krücken die es aktuell zu kaufen gibt und ausschließlich an DDR4 oder gar DDR3 hängen. Mir gehts da um die kommenden APUs wo der Flaschenhals Bandbreite mit Hilfe vom kleinen HBM umgangen wird. Richtig interessant wird es erst bei APUs wenn es nur noch HBM gibt.

Edit:
Diese 210mm² APU ist nur der Übergang in die richtige Richtung sofern das Gerücht stimmt.
http://www.bitsandchips.it/52-english-news/7622-rumor-two-versions-of-raven-ridge-under-development

fondness
2016-11-13, 09:53:32
Umsatz machen die Firmen im echten Massenmarkt, nicht mit ein paar gamenden Foristen und teureren Karten ;)

Das stimmt nicht. Nvidia hat das Rekordquartal in Q3 praktisch nur mit Karten >$299 erreicht, GP107 war da noch kaum relevant.


Polaris 11 als unverkrüppelte Karte hätte echt das Zeug zum Nachfolger gehabt. Aber nein, man muss sich Apple andienen,
nur des schnellen Geldes wegen.

Auch das ist Blödsinn, mit Apple-Deals verdient man kein Geld.

dargo
2016-11-13, 09:58:54
Auch das ist Blödsinn, mit Apple-Deals verdient man kein Geld.
Wofür dann die Deals?

fondness
2016-11-13, 10:00:16
Wofür dann die Deals?

Weil Apple wie keine andere Marke für Premium steht und es sehr gutes Marketing ist im Apple Flagship zu landen. Man braucht sich ja nur mal die ganzen Diskussionen hier und anderswo ansehen. Natürlich verdient man durch die große Stückzahl auch ein bisschen was, aber des Geldes wegen macht man das sicher nicht. Die Margen sind gering.

Thunder99
2016-11-13, 10:06:20
Wofür dann die Deals?
Lieber weniger Umsatz generieren als gar keinen, um die Fixkosten zumindest rein zu holen. Als Zulieferer hat man gegen Apple wohl echt keine Chance wirklich Geld zu verdienen. Siehe auch Japan Display. Trotz mega Deal sind die quasi pleite und benötigen eine Finanzspritze :(

Es gibt wohl mittlerweile zwei Massenmärkte. Der low price aka 100-200€ sowie den high price aka 300-500€. Ansonsten kann der Umsatz den nvidia erwirtschaftetet wohl kaum zu erklären sein :confused:.

fondness
2016-11-13, 10:11:30
Civilization 6 gibt es bald zu jeder RX 480:

https://s12.postimg.org/pblvtk4rh/AMD_CIV6_Promo.jpg
http://videocardz.com/64319/sid-meiers-civilization-vi-free-with-radeon-rx-480

dargo
2016-11-13, 10:11:54
Weil Apple wie keine andere Marke für Premium steht und es sehr gutes Marketing ist im Apple Flagship zu landen.
Stimmt auch wieder. Den Punkt Marketing vergesse ich oft.

Complicated
2016-11-13, 10:13:25
Das selbe wurde über die Konsolen Deals gesagt. Tatsächlich hat AMD es trotzdem geschafft daraus Gewinn zu ziehen weil sie eine Plattform anbieten die zuvor keiner angeboten hat. Alleine dadurch war es möglich schon mit dem Verkauf der Hardware kostendeckend zu sein und schon 3 Jahre später eine weitere Generation aufzulegen anstatt in 7 Jahren. AMD da wieder raus zu drängen wird schwer für die Konkurrenz.

Die Polaris Chips für Apple sind auch speziell angepasst in der Höhe so dass das Package nur noch 1,5 mm hoch ist. Das wird wohl fortan als Maßstab gelten und als Argument jenseits der reinen Performance und Effizienz der Architekturen.

Botcruscher
2016-11-13, 10:15:31
NV verkauft schlicht zwischen fünf und drei mal mehr Karten. Der fette Umsatz wird dazu im Hochpreissegment gemacht. Die letzte News dazu waren zum Umsatz mit CPUs.

Complicated
2016-11-13, 10:49:14
Und warum ist das jetzt hier wieder relevant was Nvidia macht? Intel verkauft noch mehr mit noch höherer Marge und Apple macht das auch.

(del)
2016-11-13, 10:56:05
Umsatz <> Gewinn. :)

Loeschzwerg
2016-11-13, 11:51:25
Polaris 11 im Vollausbau wäre besser gewesen. Die WX 4100 ist nämlich nice. Und die WX 7100 ist bis auf die Lautstärke aus meiner Sicht die ehrlichere 10er :)

Wann darf man mit dem Test rechnen? :)

Pirx
2016-11-13, 11:58:58
Der einzige Kritikpunkt an der RX480 aus Kundensicht ist doch die Leistungsaufnahme und selbst die ist auf einem Niveau, mit dem (fast) jeder sehr gut leben kann. Alles andere spricht doch für die Karte.

(del)
2016-11-13, 12:07:51
Wann darf man mit dem Test rechnen? :)
Gar nicht. AMD hat kein Interesse am offiziellen Sampling und auf Eigenkosten mache ich keine Werbung mehr.
Es hat mir schon gereicht, dass ich mir die W5100 selbst besorgen musste. Mein Budget ist nicht unbegrenzt.
Ich habe sie über Nacht mal hier gehabt, dass wars dann aber auch schon. Ich verstehe AMD wirklich nicht mehr.
Erst nehmen sie Sapphire das komplette Marketing und den Vertrieb der FirePro wieder ab, weil sie meinten, das
wäre zu schlecht gelaufen und nun machen sie exakt dort weiter, wo es vorher schon mies lief.

Aber ich habe zumindest die WX 7100 auf offiziellem Weg bekommen - dazu gibt es dann auch einen Test.
Power Tune funktioniert komplett anders und wir müssen mit den Treiber-Leuten in Toronto noch etwas klären,
bevor ich überhaupt weitermache. Immerhin 1243 MHz stable, auch im Stresstest bei deutlich unter 140 Watt.
Nun ja, neues PCB und besseres Balancing inklusive. Trotzdem ist an einer Stelle (noch) der Wurm drin.

Ich spiele mal wieder Beta-Tester, Stichwort Radeon Pro 16.Q4 ;)

Karümel
2016-11-13, 12:18:28
Welche 480 ist eigentlich unter Last die leiseste?

Thunder99
2016-11-13, 12:48:14
Welche 480 ist eigentlich unter Last die leiseste?
Red Devil von PowerColor soweit ich weiß

Loeschzwerg
2016-11-13, 13:25:50
@Format_C: Schade, hätte zu der kleinen Karte gerne einen Test gelesen :( Seltsame Haltung die AMD hier an den Tag legt, aber gut, freue ich mich halt nur auf den Test der WX 7100.

fondness
2016-11-13, 13:37:03
Red Devil von PowerColor soweit ich weiß

Eher die MSI.

Complicated
2016-11-13, 13:39:53
Gar nicht. AMD hat kein Interesse am offiziellen Sampling und auf Eigenkosten mache ich keine Werbung mehr.
Vielsagend, dass du deine eigene Arbeit als Werbung bezeichnest für die du entlohnt werden willst.

Testredaktionen bezeichnen eigentlich den Erwerb von Hardware die sie testen als Investition in die eigentliche Arbeit. Samples von Unternehmen sind eben oft nicht das selbe wie die später zu kaufende Hardware...siehe RAM bei Pascal z.B.

Zumindest weiss man nun was man bei dir bekommt. Werbung.

fondness
2016-11-13, 13:41:21
Gar nicht. AMD hat kein Interesse am offiziellen Sampling und auf Eigenkosten mache ich keine Werbung mehr.


Seltsame Aussagen, wo du gleich im nächsten Absatz schriebst du hast die WX 7100 bekommen von AMD.

Der_Korken
2016-11-13, 14:22:35
Aber ich habe zumindest die WX 7100 auf offiziellem Weg bekommen - dazu gibt es dann auch einen Test.
Power Tune funktioniert komplett anders und wir müssen mit den Treiber-Leuten in Toronto noch etwas klären,
bevor ich überhaupt weitermache. Immerhin 1243 MHz stable, auch im Stresstest bei deutlich unter 140 Watt.
Nun ja, neues PCB und besseres Balancing inklusive.

Das hört sich sehr interessant an, sofern wir von stable clocks in anspruchsvollen Spielen reden. Ich nehme mal an, du darfst zu den dabei benötigten GPU-Spannungen noch nichts sagen, oder? :)

Eher die MSI.

Die Powercolor und MSI sind beide sehr leise. Allerdings boostet die MSI bei Last etwas höher und bleibt auch ein paar Grad kühler bei einem insgesamt kürzeren Kühler (falls Länge ein Problem ist). Dafür sind die MSI-Karten immer mit die teuersten.

Loeschzwerg
2016-11-13, 14:27:56
Ist zwar jetzt nicht das Thema hier, aber AMD startet mit allen drei Karten der WX Serie zur gleichen Zeit und nachdem man ja eine Art "Neustart" hinlegt, wäre ein Test sämtlicher Karten sicherlich sinnvoller als nur des Topmodells. Tests zu professionellen Karten findet man eh nicht wirklich viele, die wenigen Samples würden AMD nicht weh tun.
Hier könnt man also nur gewinnen, außer man befürchtet ein zu negatives Ergebnis (starke Mängel beim Treiber o.ä.).

(del)
2016-11-13, 15:15:03
Seltsame Aussagen, wo du gleich im nächsten Absatz schriebst du hast die WX 7100 bekommen von AMD.Nicht seltsam, sondern gute alte Schule. Man möchte nur die Spitzenmodelle getestet haben,
jedoch nicht die Einstiegsklasse. Image und so. Das war schon in den Generationen zuvor so.
Aber keine Angst, NV handhabt das kaum anders.

iuno
2016-11-13, 15:43:02
Man möchte nur die Spitzenmodelle getestet haben, jedoch nicht die Einstiegsklasse.
Ergibt doch keinen Sinn, man vergleicht ja in einem ordentlichen Test (wie bei euch ;p ) mit gleichartigen Produkten, nicht gegen das Topmodell der Konkurrenz. Schade dass da nichts kommt, deine Haltung ist aber auch fragwuerdig. Machen alle unabhaengigen Tester, die sich Testmodelle selbst besorgen automatisch Werbung? Ich glaube nicht :rolleyes:

(del)
2016-11-13, 15:47:59
Ergibt doch keinen Sinn, man vergleicht ja in einem ordentlichen Test (wie bei euch ;p ) mit gleichartigen Produkten, nicht gegen das Topmodell der Konkurrenz. Schade dass da nichts kommt, deine Haltung ist aber auch fragwuerdig. Machen alle unabhaengigen Tester, die sich Testmodelle selbst besorgen automatisch Werbung? Ich glaube nicht :rolleyes:
Gib mir das Geld und ich kaufe sie, sofort. Die WX4100 steckte in einem Komplett-PC den ich nicht auseinanderschrauben durfte und mal ein paar Stunden hier hatte.
Workstation ist leider viel zu sehr Nische, als dass sich hier solche Investitionen lohnen. Entweder, die Hersteller ziehen mit, oder sie lassen es. Einfache Artithmetik.

Nvidia hat mich mittlerweile nach sehr langen Diskussionen mit den ganzen M-Karten ausgestattet. Offiziell habe ich hingegen noch nicht mal eine W5100.
Deren Anschaffung aus meinem Privat-Budget war ein glattes Verlustgeschäft. So ein Artikel bringt von der Reichweite her schon mal keine Kompensation ein.
Von irgendwas müssen ja auch wir leben, auch wenn es aktuell ohne Print und Adblocker-Wegelagerei geht.

Ich bin nicht Vater Theresa :P

iuno
2016-11-13, 16:02:57
Ich habe dir keinen Vorwurf wegen der Auswahl der Tests gemacht, sondern lediglich wegen der Ausdrucksweise. Natuerlich sollten die Hersteller Produkte fuer Tests bereitstellen. Ich habe auch nirgends auch nur annaehernd von dir verlangt, das von deinem Privatvermoegen zu finanzieren. Ich erinnere mich aber an Tests kleinerer Karten aus der Vergangenheit, war das denn damals der Fall?
Ich selbst habe privat natuerlich auch keine Verwendung fuer so eine Karte, es ist nur allgemeines Interesse. Aber wenn ein Test mit der 7100 kommt ist das eigentlich Interessante, die Software, eh abgedeckt.

(del)
2016-11-13, 16:08:12
Ich schriebs doch weiter oben:
Bisher habe die kleinen Karten gekauft bzw. mir von Bekannten mal ausleihen können.

Hintergrund:
AMD äußerte sich mir gegenüber, dass man Sapphire das Geschäft und die PR wieder weggenommen hätte,
weil vor allem das Sampling nicht ideal gelaufen ist. Nun ist AMD wieder selbst am Zug und was ist?
Nichts! Alles wie bisher. Und genau das ist der Punkt, warum ich meine Zeit hier nicht mehr opfern möchte.

Da mir die Redaktion diese Arbeit nur unwillig bis nicht vergütet, ist das alles eine Kombination aus Neugier
meinerseits und Sympathien für AMD andererseits (auch wenn das so mancher nicht glauben mag).
Workstation ist und bleibt eine Nische und ich habe bisher, zumindest bei AMD, privat nur zugesetzt.
Ich sitze heute an einem Sonntag, weil die Woche mit anderen Dingen vollgestopft ist. Und über meine
Freizeit entscheide immer noch ich allein. No Sample, no Review. Warum sollte ich jemandem eine Plattform
für etwas bieten, was er mir vorenthält? Am Ende liest das doch eh keiner.

Iruwen
2016-11-13, 16:10:10
Stimmt auch wieder. Den Punkt Marketing vergesse ich oft.
Würde ich in dem Fall aber nicht überschätzen, ich glaub nicht dass der durchschnittliche Apple User weiß was in seiner Kiste steckt, und Apple User sind gerade nicht die PC-Zielgruppe. Dasselbe gilt m.E. für Konsolendeals, aber die haben zumindest einen postiven Effekt auf die PC-Performance.

=Floi=
2016-11-13, 16:52:42
Am Ende liest das doch eh keiner.

weil der normale user davon nichts hat und der kleine quirl auch nichts bringen kann was positiv sein sollte.*
das ist auch keine on the edge karte, sondern einfach mid end verwurstung. wo soll das leser ineresse herkommen?

*bei dem preis und dem einsatzort jeden tag 8std am arbeitsplatz finde ich die kleinen lüfter doppelt erschreckend!
komplett an der kundschaft vorbei.

(del)
2016-11-13, 17:49:23
weil der normale user davon nichts hat und der kleine quirl auch nichts bringen kann was positiv sein sollte.*
das ist auch keine on the edge karte, sondern einfach mid end verwurstung. wo soll das leser ineresse herkommen?

*bei dem preis und dem einsatzort jeden tag 8std am arbeitsplatz finde ich die kleinen lüfter doppelt erschreckend!
komplett an der kundschaft vorbei.
Ist aber bei den Quadros nicht anders :)

horn 12
2016-11-13, 20:15:51
@Format C

Nun, wenn Vega nur GTX 1070 / 1080 erreichen sollte, braucht man gar nicht von Fiji und Co umsteigen da auch DX12 immer besser läuft und bei AMD Früchte trägt.
Da muss schon Vega zur Titan X Pascal oder gar Höher aufschliessen um sich die 600 bis 700 Euro auch lohnen.
Vega klein dann vielleicht im Frühjahr für 450 Euro bei + - GTX 1080er Leistung.

(del)
2016-11-13, 20:33:43
Nun ja, DX12... Ist in der breiten Masse eh noch nicht angekommen und macht meist mehr Ärger als Freude, leider.

Ich sehe das Problem für Vega eher in der 1080 Ti, die deutlich günstiger als die Titan XP kommen wird. Wenn AMD das wieder nicht schafft, ist Vega mehr oder weniger obsolet - jedenfalls dann, wenn es ums echte Geldverdienen geht.

Flusher
2016-11-13, 21:20:43
Was mir aufgefallen ist wenn man sich in anderen , auch englischsprachigen Foren mal etwas umsieht, wird NVIDIA als Technologieträger und Heilsbringer der PC-Gaming-Industrie angesehen. Und das tragischerweise, obwohl in Konsolen und Apple-Produkten AMD Hardware drin steckt und dort die Leute damit rundum zufrieden sind. Irgendwie hat AMD schwierigkeiten diese Designwins richtig auszuschlachten um auch im PC-Gaming-Markt erfolgreich zu sein.

Dino-Fossil
2016-11-13, 21:28:17
Wen's interessiert:
Meine Red Dragon ist endlich bei mir angekommen. Bisher noch keine umfangreichen Tests gemacht, eigentlich nur mal Wattman angeworfen und bissl in Witcher 3 herumgerannt.

Standard-Spannungen sind nicht der Brüller:
http://i.imgur.com/El4gUmw.png

Karte scheint den max. Boost von 1266 allerdings in Witcher stabil zu halten.
Per Undervolting ging schonmal ein wenig, 1050 @ 1266MHz läuft bisher wenigstens in Witcher 3 stabil.
Bin aktuell allerdings von einem eigenartigen Bug mit Wattman betroffen:
Wenn ich manuelle Spannungen einstelle und Wattman nicht geöffnet ist, taktet die Karte immer auf 300MHz, sobald W3 fertig geladen ist. :freak:
Öffne ich Wattman, passt es wieder. :confused:
Siehe unten - Problem war ein altes Overdrive-Profil für W3.

Lautstärke ist in Ordnung. Karte hat einen 0-fan Modus und unter Last wird sie zuverlässig von meinem CPU-Lüfter übertönt :biggrin: (gut, der wird auch bald getauscht, dann sehen wir mal weiter).

Mal sehen, was sich noch so ergibt in den nächsten Tagen...

Der_Korken
2016-11-13, 22:01:58
Stell doch mal die Frequenzen auf "Dynamisch", dann kannst du für jede Stufe genau einstellen, welcher Takt dort anliegen soll. Insgesamt sind die Spannungen aber schon mal besser verteilt als bei meiner Sapphire (dort waren es 987-1031-1137 auf den hinteren drei Stufen). Probleme mit dem Hochtakten habe ich normalerweise nur wenn "Energieeffizienz" im globalen Profil eingeschaltet ist.

Dino-Fossil
2016-11-13, 22:17:09
Stell doch mal die Frequenzen auf "Dynamisch", dann kannst du für jede Stufe genau einstellen, welcher Takt dort anliegen soll. Insgesamt sind die Spannungen aber schon mal besser verteilt als bei meiner Sapphire (dort waren es 987-1031-1137 auf den hinteren drei Stufen). Probleme mit dem Hochtakten habe ich normalerweise nur wenn "Energieeffizienz" im globalen Profil eingeschaltet ist.

Ja, hab ich schon gesehen, werd ich mich später noch mit beschäftigen.
Energieeffizienz "ein" verringert recht deutlich den anliegenden Takt, deswegen lass ich das auch erstmal aus.
Das von mir beschriebene Problem scheint er ein Bug in Wattman zu sein, die Karte bleibt dann halt im niedrigsten P-State.
Wobei mir grad was einfällt - könnte an einem alten Overdrive-Profil für W3 von meiner vorherigen 7850 liegen.
Werd das mal entfernen und dann nochmal testen...

Edit: Ja, das scheint's gewesen zu sein. Läuft jetzt offenbar korrekt. :up:

drumnbass
2016-11-13, 22:23:09
Civilization 6 gibt es bald zu jeder RX 480:

https://s12.postimg.org/pblvtk4rh/AMD_CIV6_Promo.jpg
http://videocardz.com/64319/sid-meiers-civilization-vi-free-with-radeon-rx-480

nice - wenn das kommt, werd ich käufer (und stolzer besitzer).. lieber strix oder eher msi - mit ziel auf geräuschlos?

samm
2016-11-13, 22:44:05
MSI würd ich sagen, zumal Asus nach wie vor nicht gelernt hat, Heatpipes sinnvoll zu verlegen.

bnoob
2016-11-14, 10:35:56
@formatC-Workstation-Diskussion: Wann kommt dein vor einigen Monaten angekündigter Workstation Artikel? Oder ist das kein Thema mehr? (wofür ich Verständnis hätte, war nur gespannt)

(del)
2016-11-14, 11:00:30
Der kommt noch - keine Angst. Nur schiebt man dessen Prio täglich nach hinten :(

HOT
2016-11-14, 14:44:19
So gern ich APUs mag und ständig auch getestet habe, für Full-HD mit akzeptablen Settings ist das leider immer noch nichts.
Für Office-PCs oft mehr als ok, ein paar Browser-Games tun es auch. Aber für normales Gaming, sogar im Entry-Level,
ist es geradezu unbrauchbar. Dinge wie Mafia III laufen auf einer 1050 auch in 1080p noch recht gut -
ich habe aber keine APU im Archiv, mit der ich mir das Spiel oberhalb 720p antun würde. Und dies ist nur ein Beispiel von vielen.

Wer redet denn davon, was wo drauf läuft? Das war doch in dem Zusammenhang total irrelevant. Es ist nunmal aber so, dass PC-Hersteller immer weniger auf kleine Grafikchips setzen. Die 1050 ist vom Massenprodukt zum Nischenprodukt degradiert worden. Früher haben die Grafikkartenhersteller billige Karten in sehr großen Mengen abgesetzt und das Topprodukte diente als Zugpferd. Das ist heute lange nicht mehr so, eben weil vor allem Intel massiv auf APUs setzt im Consumer und auch im Unternehmensbereich (sofern es nicht Workstations sind). Ob da Mafia3 auf einer APU läuft ist schlicht egal, wer sowas spielt holt sich eh mindestens ne 1060.

AMD hat aktuell eigentlich kein kein Marken-, sondern ein echtes Produktproblem. Es fehlen die echten Highlights,
um ohne Brechstange Akzente setzen zu können. Nimmt man mal den größeren Speicherausbau beiseite,
bleiben leider nicht viele Argumente. Und das mit den vielen TFLOPS hören wir uns seit 6 Jahren an.
So sehr ich es AMD wünsche, es ist schwer, die Produkte nicht ausschließlich über den Preis zu verkaufen.

Das sehe ich ganz anders. Die Produkte, die sie im Moment gebracht haben sind eigentlich optimal, ein Knaller war ja jetzt eh nicht zu erwarten. Ein Knaller ist auf dem Markt sowieso gar nicht mehr zu erwarten, auch nicht von NV und schon gar nicht von Intel. Sicherlich war man etwas überrascht, dass Pascal so hohe Takte packt, aber im Grunde ist das ebenfalls ein altes Produkt. Die Leute sind allerdings eben bereit, anders als früher, 600€ für ne Grafikkarte zu bezahlen, wenn sie von der richtigen Marke angeboten werden, genauso wie Leute bereit sind 800€ für ein Apple oder Samsung-Telefon auszugeben, aber eben nicht für ein HTC und schon gar nicht für ein Microsoft-Telefon. Das Produkt ist eigentlich völlig nachrangig. Drehen wir den Spieß doch mal um: Wäre NV nur mit einer Karte etwas >1060 mit 8GB auf den Markt gekommen und AMD hätte V10 mit 8GB gebracht für 800€, dann hätten die trotzdem nichts verkauft. AMD hätte einfach nicht mal theoretisch eine Chance auf so einen Rekordumsatz, weil in dem Bereich das Produkt völlig nachrangig ist. Da gibts dann ja auch ne ganze Latte von Quereffekten: Mit mehr Geld kannst du mehr Chips machen und den Markt besser bedienen, da du ja mehr Marktanteil hast, also vergrößert sich der Marktanteil noch weiter - genau das sehen wir ja seit ca. 3 Jahren. Sicher war AMD wirklich schwach (vor allem finanziell), aber mit so viel Geld kann NV auch richtig in die Vollen gehen, das hat wiederum Einfluss auf die Softwareentwicklung beider Firmen und der Einfluss auf die Marke wird noch desaströser. NV ist Apple im Grafikbereich, das ist einfach keine Übertreibung mehr.

Ich bin auf Vega gespannt und das, was sich dort vielleicht auch an zukünftiger Strategie ablesen lassen kann.
Wenn dann noch die PR nicht die Techniker überstimmt, dann könnte es was werden. Naja, bald sind wir schlauer ;)
Das wird wieder total in die Hose gehen. Vega wird gegen die Marktdominanz, Softwarevorteile, Spieleherstellerbevorzugung (GW) und anderen Effekten einfach nicht ankommen, egal wie gut er ist.
Die einzigen Möglichkeiten, die ich da sehe, ist konsequenter DX12-Einsatz, am besten mit SM6.0 und massiver FP16-Nutzung. Aber das wird sich eh erst durchgesetzt haben, wenn Volta kommt und dann ist der Vorteil wieder verpufft, wie immer.

(del)
2016-11-14, 17:59:37
Wer redet denn davon, was wo drauf läuft? Das war doch in dem Zusammenhang total irrelevant. Es ist nunmal aber so, dass PC-Hersteller immer weniger auf kleine Grafikchips setzen. Die 1050 ist vom Massenprodukt zum Nischenprodukt degradiert worden. Früher haben die Grafikkartenhersteller billige Karten in sehr großen Mengen abgesetzt und das Topprodukte diente als Zugpferd. Das ist heute lange nicht mehr so, eben weil vor allem Intel massiv auf APUs setzt im Consumer und auch im Unternehmensbereich (sofern es nicht Workstations sind). Ob da Mafia3 auf einer APU läuft ist schlicht egal, wer sowas spielt holt sich eh mindestens ne 1060Verlässliche Zahlen?

Nach dem Gespräch mit zwei Distris und der erhöhten Nachfrage vor allem aus dem SI-Bereich sehe ich das nun mal so, wie ich es schrieb.
Aktuell kann nur kaum jemand befriedigt werden, da die Karten viel zu knapp sind. Und Intel... das sind keine APUs.
Würde Intel mal eine gescheite iGP in die kleinen CPUs packen, dann wäre das vielleicht eine gute Alternative.
Aber sogar die wirklich gute IrisPro ist dem Aussterben verdächtig nahe und die Treiber sind übelste Grütze.

Das zweite Problem ist, dass AMD die Mischanbieter wie MSI und Gigabyte komplett vergrätzt hat, weil man die Exklusiv-Büdchen wie Sapphire,
Pine (XFX, HIS) und TUL (PowerColor, Club3D) permanent bevorzugt beliefert hat. Ich hatte ein längeres Gespräch mit Eddie (Gigabytes VGA Manager)
über deren Unmut darüber, wie sie von AMD behandelt wurden und werden. Gleiches trifft auf MSI und in Teilen auch auf Asus zu.
Die sind alle nicht mehr bereit, Kohle ins Marketing zu pumpen. Und ohne Marketing und Verfügbarkeit geht alles den Bach runter.

Was bin ich hier ca. 100 Seiten vorher, verbal geprügelt worden, nur weil ich genau diese Meining vertreten habe. Und nun? Es ist leider genauso eingetreten.
Da sind jetzt weder Häme noch Genugtuung dabei, sondern überwiegend Trauer darüber, wie es eine PR mal wieder geschafft hat,
ein eigentlich akzeptables Produkt totzutreten, indem man sogar die eigenen Ingenieure überstimmt.

Das ist das eigentliche Problem: es wird gegen Logik und Vernunft gehandelt.

Die Treiber sind auch so eine Dauerbaustelle. Beim der aktuellen Radeon Pro Software gibt es bugs en masse. Wattman defalts restored...
Lustige Meldung für ein Produkt, wo Wattman gar nicht nicht drein sein soll. Und das nach einem AutoCAD-Absturz (reproduzierbar).
Die Treiberinstallation für die WX7100 ging auch nur, wenn man dabei eine ältere Karte reinsteckte.
Mittlerweile hat AMD das wenigstens nach meinem Feedback geflickt. Der Speciher lungert im Idle überwiegend auf 1750 Mhz,
Leistungsaufnahme der Karte 34 Watt und über 50 Grad. Nun ja, man hatte wohl wie bei Nvidia damals gerade keine X99 Workstation zu Hand.
Nur wer testet das bitte? Es kann echt nicht sein, dass man das stets und ständig Dritten überläst. :(
Und: es ist Samung RAM drauf, der laut C im Namen kein Industrie-Standard ist und somit auch über den Specs läuft (Temperaturen).
93°C bei der GPU als Normtemperatur zu bezeichnen ist auch schon irgendwie mutig :D

Complicated
2016-11-14, 19:29:22
Es ist nunmal aber so, dass PC-Hersteller immer weniger auf kleine Grafikchips setzen. Die 1050 ist vom Massenprodukt zum Nischenprodukt degradiert worden.
Also dem ist ganz sicher nicht so - diese Einschätzung ist aus dem hohlen Bauch von dir und völlig an der Realität vorbei. Aldi hat gerade einen 600,- € PC mit 2 GB RX460 in den Regalen stehen. Das sind die Massenprodukte, trotz eigenen APUs. Nvidia benötigt dieses Segment ebenso dringend, sogar noch dringender als AMD da sie kein Ersatzprodukt wie eine APU haben, welches dieses Segment bedient.
Das zweite Problem ist, dass AMD die Mischanbieter wie MSI und Gigabyte komplett vergrätzt hat, weil man die Exklusiv-Büdchen wie Sapphire,
Pine (XFX, HIS) und TUL (PowerColor, Club3D) permanent bevorzugt beliefert hat. Ich hatte ein längeres Gespräch mit Eddie (Gigabytes VGA Manager)
über deren Unmut darüber, wie sie von AMD behandelt wurden und werden. Gleiches trifft auf MSI und in Teilen auch auf Asus zu.
Die sind alle nicht mehr bereit, Kohle ins Marketing zu pumpen. Und ohne Marketing und Verfügbarkeit geht alles den Bach runter.

Also alle Marketing Mitarbeiter von AMD und Nvidia zusammen genommen können nicht so viel geblubber produzieren wie in diesem Absatz enthalten ist.

Ein Redakteur und ein Manager bei einem OEM beschweren sich über das schlechte Hintern pudern seitens eines Hardwarehersteller - etwas völlig neues und noch nie da gewesenes. Und erneut beschweren sich beide darüber, dass AMD nicht ihren Job mit macht wie der andere Konkurrent der es einem ja um so vieles bequemer und gemütlicher macht ^^

Wenn du das nicht jeden Monat mindestens einmal von jedem der oben aufgezählten OEMs über jeden einzelnen Zulieferer zu hören bekommst, dann redest du nicht viel mit OEMs. Ebenso wie man in immer wieder kehrender Regelmäßigkeit hier im Forum die Beschwerde eines Redakteurs zu lesen bekommt man bekomme keine Testsamples und habe sowieso zu wenig Zeit zum testen.

Dass ihr beide euch einig wart, ist wenig verwunderlich. Aber wenig neues und wenig relevantes, außer man mag Kaffeeklatsch.

Iruwen
2016-11-14, 20:58:50
Bei deinem Tonfall glaube ich nicht dass irgendjemand mit dir über irgendwas redet.

Complicated
2016-11-14, 21:12:24
Zumindest erzählt mir keiner Blödsinn und ich spende dafür dann noch Applaus.

(del)
2016-11-14, 21:18:06
Sorry, dass ich hier wieder gewisse Befindlichkeiten gestört habe. Nur dass mir dies seit Langem so ziemlich egal ist.
Man kann sich die Realität zwar immer wieder schönreden (wie vor allem hier in diesem Thread), nur besser wird das Ganze deswegen trotzdem nicht.

@Iruwen:
Du wirst lachen, es gibt sogar Leute, die um ehrliche Meinungen bitten. Sogar bei AMD.
Soll vorkommen, auch wenn es sicher nicht in Dein Weltbild passen mag. Frag doch mal,
welche Redaktion überhaupt eine WX-Karte bekommen hat. Ganz so deppert bin ich dann
ja für irgendjemanden irgendwie dann doch nicht - oder habe ich irgendetwas irgendwann
übersehen? Dass sie mit den üblichen Foren-Claqueuren nicht weiterkommen,
hat mittlerweile sogar nicht nur irgendwer begriffen. Dass beispielsweise Creo 3 mittlerweile läuft,
hat auch nur mit einem guten, verbalen Tritt in Richtung Toronto zu tun. :D

Ach egal, ich kurier mich lieber von meiner Grippe aus, anstatt hier Zeit zu verschwenden.
Vergebliche Mühe :D

Blediator16
2016-11-14, 21:55:48
Gute Besserung :up:

Linmoum
2016-11-14, 22:42:03
Um mal wieder auf die 480 selbst zurückzukommen: Die Red Dragon 4GB gibt es aktuell (im Mindstar) für knapp 200€.

http://www.mindfactory.de/product_info.php/4GB-PowerColor-Radeon-RX-480-Red-Dragon-Aktiv-PCIe-3-0-x16--Retail-_1125148.html

Dino-Fossil
2016-11-14, 22:55:29
Mit der 8GB Variante bin ich soweit (nach gerade 24h :wink:) ganz zufrieden.
Wem OC nicht wichtig ist (und die 480 ist mMn eh keine sonderlich gute OC Karte), der bekommt eine Karte mit sehr gutem P/L-Verhältnis.

Allerdings würde ich mir wohl überlegen, die 20€ mehr zur 8GB Version draufzulegen.

Edit: Achso, Mindstar ist nochmal billiger. Das ist dann was anderes...

dargo
2016-11-15, 08:25:19
@Dino-Fossil

Erzähl mal was zu dem Kühler. Wie schnell drehen die Lüfter bei Last ohne UV und mit bei welchen Temps.? Wie hoch ist der Takt dabei.

N0Thing
2016-11-15, 09:35:41
@Iruwen:
Du wirst lachen, es gibt sogar Leute, die um ehrliche Meinungen bitten. Sogar bei AMD.
Soll vorkommen, auch wenn es sicher nicht in Dein Weltbild passen mag. Frag doch mal,
welche Redaktion überhaupt eine WX-Karte bekommen hat. Ganz so deppert bin ich dann
ja für irgendjemanden irgendwie dann doch nicht - oder habe ich irgendetwas irgendwann
übersehen? Dass sie mit den üblichen Foren-Claqueuren nicht weiterkommen,
hat mittlerweile sogar nicht nur irgendwer begriffen.

Er hat dich doch gar nicht angesprochen. :confused:
Wunden Punkt getroffen?

Dino-Fossil
2016-11-15, 09:36:02
Erzähl mal was zu dem Kühler. Wie schnell drehen die Lüfter bei Last ohne UV und mit bei welchen Temps.? Wie hoch ist der Takt dabei.

In Furmark drehen sie nach erreichen des TT (80°C default) bei 46% und ca 1500 U/min. Dabei bleibt die Karte recht ruhig - zumindest in meinem Rechner ist sie über den Gehäuselüftern nicht bis kaum zu hören, wobei die zwar nicht laut sind, aber eben hörbar.
Der Takt pendelt sich allerdings bei ca 1080 MHz ein.

In Witcher 3 (aktuell mein fordernstes installiertes Spiel) scheint die Karte die 1266 MHz recht zuverlässig zu halten, wobei ich bisher nicht alle Einstellungen ausgefahren habe (kein HBAO+, nur hohe Einstellungen + ultra Texturen) @ fullHD.
Dabei erreicht sie ca 75°C bei ca 40% Lüfter.

Bisher habe ich ein wenig mit UV gespielt, TT auf 75°C (Lüfter bleibt immernoch leise aber die GPU etwas kühler) und dazu Powerlimit 10% runter.
Bin bisher noch am Anfang damit, aber soweit zufrieden.

r3ptil3
2016-11-15, 10:15:25
Kann man eigentlich bei den aktuellen 4Gb RX 480 Karten noch 8Gb freischalten oder werden jetzt wirklich nur 4Gb verbaut?

(del)
2016-11-15, 10:18:53
Er hat dich doch gar nicht angesprochen. :confused:
Wunden Punkt getroffen?Überlesen? (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11212063&postcount=5406)

Der einzige wunde Punkt ist meine Grippenase. Und die hat mit dem ganzen Senf nun wirklich nichts zu tun. :D

Screemer
2016-11-15, 10:28:51
Kann man eigentlich bei den aktuellen 4Gb RX 480 Karten noch 8Gb freischalten oder werden jetzt wirklich nur 4Gb verbaut?
wenn du noch ein rev. model erwischt sollten 8 drauf sein. die gibts nur kaum noch. hab bisher noch keine rev. 4gb ohne die zus. 4gb gesehen.

N0Thing
2016-11-15, 10:33:28
Überlesen? (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11212063&postcount=5406)

Der einzige wunde Punkt ist meine Grippenase. Und die hat mit dem ganzen Senf nun wirklich nichts zu tun. :D

Ne, nicht überlesen. Und auf wen hat er geantwortet, du Triefnase? :D

dargo
2016-11-15, 10:37:03
In Witcher 3 (aktuell mein fordernstes installiertes Spiel) scheint die Karte die 1266 MHz recht zuverlässig zu halten, wobei ich bisher nicht alle Einstellungen ausgefahren habe (kein HBAO+, nur hohe Einstellungen + ultra Texturen) @ fullHD.
Dabei erreicht sie ca 75°C bei ca 40% Lüfter.

Prozent sind irrelevant, Drehzahl bitte. :wink:

Dino-Fossil
2016-11-15, 11:44:49
Prozent sind irrelevant, Drehzahl bitte. :wink:

Steht doch alles relevante in meinem Beitrag.
Dreisatz und so :P

dargo
2016-11-15, 11:56:09
Dann tippe ich ins blaue... 1350-1400RPM @40%. Ist auf jeden Fall verdammt leise wenn die Lüfter was taugen.

Dino-Fossil
2016-11-15, 12:26:24
Dann tippe ich ins blaue... 1350-1400RPM @40%. Ist auf jeden Fall verdammt leise wenn die Lüfter was taugen.

Für mein persönliches Empfinden bleibt sie angenehm leise, auch unter Last und ohne UV.
Zusätzlich bringt sie ja noch einen Zero-fan-Modus mit, wobei das Dank der eh relativ ruhigen Lüfter in meinem Rechner nicht ins Gewicht fällt.
Wenn gewünscht, kann ich in ein paar Tagen-Wochen nochmal ein genaueres Fazit ziehen.

kruemelmonster
2016-11-15, 16:31:16
Zumindest erzählt mir keiner Blödsinn...

Warum auch anderen etwas überlassen was man selber viel besser kann. :P

Eine bessere Quelle für industrienahe Einblicke als Format_C wirst du hier schwerlich finden, wie wärs also mit zuhören statt rummotzen nur weil dir die Message nicht gefällt?

(del)
2016-11-15, 17:32:09
Ne, nicht überlesen. Und auf wen hat er geantwortet, du Triefnase? :DBeiträge bestimmter Spezialisten sehe ich nun mal leider nicht. Wobei, was heißt leider... ;)
Da kann sich durchaus auch der Kontext mal ändern. Ist übrigens per PN längst geklärt.

Aber Back2Topic...

Wir tüfteln gerade an der WX7100, die ja nichts anders als eine blaue RX480 mit Workstation-Aufpreis ist.
Da stimmt mit dem Lüfter und auch dem Treiber noch was nicht, aber ansonsten macht das Ding durchaus Spaß.
AMD hat vor allem die Spannungsversorgung deutlich verbessert. Mit 5+2 Phasen sieht es jetzt deutlich besser aus.
Und man hat schöne Infineon-MOSFETs (HEXFET) mit sehr geringem Innenwiderstand genommen.
Der HC28-RAM von Samsung (8 x 1 GB) ist etwas langsamer (1750 Mhz), dafür etwas sparsamer.

Immerhin braucht man nun nur noch ganze 137 Watt bei Maximallast und der 6-Pin reicht. Zwei Phasen GPU und
zwei für den RAM am Mainboard-Slot (<= 5.3A) und drei Phasen GPU am Stecker. Passt.

Nur das Blau ist echt fies. Sieht zudem auch aus, wie bei Intel geklaut. :D

Complicated
2016-11-15, 18:38:03
Eine bessere Quelle für industrienahe Einblicke als Format_C wirst du hier schwerlich finden, wie wärs also mit zuhören statt rummotzen nur weil dir die Message nicht gefällt?
Genau dem widerspreche ich ja hier eben. Er erzählt einen Haufen Tratsch weiter und sonst nichts.

Den kriegt man zu jeder Zeit, auf jeder Veranstaltung von jedem OEM über jeden Hersteller und in jeder Variante zu hören die man wünscht. Das muss man nicht in Foren als irgendeine Wahrheit verkaufen. Es fällt einfach auf, dass es eigentlich immer um die Eigenwerbung geht bei Format_C und das nervt mich einfach wenn es auf Kosten von seriösen Informationen geht. Weniger wäre da sicherlich mehr und die sachlichen Beiträge würden nicht durch die dauernde Selbstbeweihräucherung entwertet.

Dino-Fossil
2016-11-15, 18:45:26
Immerhin braucht man nun nur noch ganze 137 Watt bei Maximallast und der 6-Pin reicht. Zwei Phasen GPU und
zwei für den RAM am Mainboard-Slot (<= 5.3A) und drei Phasen GPU am Stecker. Passt.

@Stock schon niedrigere Spannungen für die P-States als bei der Referenz 480?
Gibt ja bei den 480 darüber auch einiges Sparpotential.

(del)
2016-11-15, 18:54:27
Momentan lässt sich nichts auslesen. Wattman selbst lässt sich auch nicht aufrufen (da in der Pro-Version angeblich gar nicht drin),
obwohl er sporadisch abstürzt und mich danach mit Wiederherstellungsmeldungen nervt.

Den Solidworks-Fehler in der 2016 mit aktiviertem AA haben sie mit meinen Logs mittlerweile gefunden,
immerhin soll das über Nacht behoben werden können. Fix sind sie ja, die Jungs in Toronto.
Nun noch den Fehler mit dem nicht runtertaktenden RAM und der Lüfterkurve beheben und ich bin zufrieden.

http://i.imgur.com/mYuliBA.jpg

Loeschzwerg
2016-11-15, 18:58:12
Lässt sich der normale Crimson Treiber eigentlich anpassen sodass dieser für die WX verwendet werden kann? (habe mich lange nicht mehr mit INF-Modding beschäftigt)

(del)
2016-11-15, 19:03:05
Nein, geht aktuell nicht. Warum sollte man das auch tun? Am Ende steckt doch der gleiche Trödel drin,
nur dass anstelle der Game-Profile die Pro-Apps geliefert werden. Und das GUI ist halt blau, nicht rot.

Loeschzwerg
2016-11-15, 19:09:17
Falls man unsinnigerweise so ein Teil für Spiele hernehmen wollen würde, könnte man von den kürzeren Veröffentlichungszyklen profitieren (und evtl. von Wattman) :D

=> Zum Spaß an der Freude :freak:

Edit: 6-Pin Verlängerung wie bei der GTX 1060. Scheint in Mode zu kommen ^^

(del)
2016-11-15, 19:10:02
Die WX läuft theoretisch auch mit dem normalen Catalysten Crimson ;)

Ich hatte dich falsch verstanden, also Crimson Pro für normale Karten. Die RX 480 mochte den 16.Q4 nicht.
Du siehst, ich bin noch vom Fieber geschüttelt, nicht gerührt. :(

Was heißt Mode? Den gab es vor jahren schon auf der W7000, dann auf der W7100...
Die 1060 hat sich nur Anleihen bei den WS-Karten genommen, die Quadros machen das ja nicht anders.

Falls man unsinnigerweise so ein Teil für Spiele hernehmen wollen würde, könnte man von den kürzeren Veröffentlichungszyklen profitieren (und evtl. von Wattman) :D
So unsinnig ist das gar nicht. Nur dass Wattman nicht funktionieren wird. Der Rest passt sicher.

Das ging schon immer und ich habe seinerzeit auf der Quadro M6000 gezockt, bis sie als TitanX dann auch für alle kam.
Das Lustige daran: die Takraten unter Last waren nur 50 Mhz niedriger als bei der TitanX. Und die Lötaugen für die TX waren auch auf der Platine.
Faktisch wusste jeder mit etwas Grips und so einer Karte, dass da noch was kommt - 6 Monate vorher ;)

Loeschzwerg
2016-11-15, 19:15:58
Ok, muss ich mir die Sache mit meiner kommenden WX4100 doch mal wieder anschauen.

Gute Besserung! :wave2:

Edit zu 6-Pin: KK, wusste ich gar nicht. Wir haben hier mittlerweile zu selten Pro Karten von AMD herumfliegen.

(del)
2016-11-15, 19:20:37
Danke :)

Zumindest bin ich von knapp 40 samt Schüttelfrost gestern auf 39.5 heute früh und jetzt angenehme 38.7 wieder runter. Es wird also. ;)

phoenix887
2016-11-15, 20:45:00
Danke :)

Zumindest bin ich von knapp 40 samt Schüttelfrost gestern auf 39.5 heute früh und jetzt angenehme 38.7 wieder runter. Es wird also. ;)

Du bist aber zäh wie Leder....weiter sag ich nicht wie der Spruch geht:D

(del)
2016-11-15, 20:51:01
Flink bin ich aber nicht mehr. Ich arbeite gerade in vollster Entschleunigung. :D
Dank Cefuroxim 500 und einem erlesenen Tröpfchen Codein für die Nacht ;)

Nennen wir es mal Arbeitsbeschaffungsmaßnahme. Ich spiele gerade VGA-DJ,
wechsle ab und zu mal eine Workstation-Karte und lasse ansonsten auf zwei
Systemen schöne, lange Workloads als Benchmark laufen. Das beruhigt :)

phoenix887
2016-11-15, 20:56:10
Flink bin ich aber nicht mehr. Ich arbeite gerade in vollster Entschleunigung. :D
Dank Cefuroxim 500 und einem erlesenen Tröpfchen Codein für die Nacht ;)

Deswegen habe ich das Flink ja übersprungen und gleich vom Leder gelassen:D

Dino-Fossil
2016-11-15, 21:00:07
Momentan lässt sich nichts auslesen.

Naja, vielleicht kommt ja noch was...

Gipsel
2016-11-16, 14:06:08
Die Diskussion zur Treiberentwicklung wurde hierhin (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11213485#post11213485) ausgelagert.

joni200
2016-11-16, 15:11:41
Och menno. Hab mir vor 1,5 Monaten die Sapphire RX480 Nitro+ OC für 290 Euro geholt, jetzt kostet sie 270 Euro und Civ VI gibts auch noch dazu :(

Achim_Anders
2016-11-16, 19:10:18
Und dafür hattest du schon 1,5Monate Spaß mit ihr ;)

joni200
2016-11-16, 20:02:53
@Achim Naja sie steckt halt im Rechner von meinem Bruder :)

RitterRost
2016-11-17, 10:12:18
@Format_C:

Wenn Du im Kontakt mit AMD stehst...
Was ist aus der niedrigeren idle Leistungsaufnahme (11W statt 17W) durch nen neuen Treiber geworden?
Gibt es das ZeroCore Feature nun noch?
Hast Du mal nachgefragt?
Danke.

Raff
2016-11-17, 10:17:35
Polaris beherrscht Zero Core und in vielen Fällen funktioniert das auch. U. a. nachzulesen hier (ganz unten ist das ein Thema): http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Asus-RX-470-Strix-versus-GTX-960-1213357/

MfG,
Raff

Dino-Fossil
2016-11-17, 10:24:21
Ich spiele derzeit noch ein wenig mit Undervolting bei meiner 480, vielleicht kann mir jemand hier ein, zwei Tipps geben:
Gestern hatte ich nach ca 2 Stunden Witcher 3 einen Bluescreen bei 1020 mV @1210 MHz und 950 mV Speicher. Etwas später traten auch leichte Grafikfehler auf (ich vermute hier auch das Undervolting als Ursache, aber natürlich könnte es ein Bug in W3 gewesen sein), mittlerweile liege ich wieder bei 1050mV und 975mV (Speicher).
Die Taktraten habe ich abgesenkt, weil ich unter anderem den Einfluss auf den Verbrauch testen wollte.
Wie wirkt sich eine zu niedrige Spannung in einem mittleren P-State aus?
Probleme nur wenn die Karte in den jeweiligen P-State schaltet, oder auch unabhängig davon?

Laut GPUz liegt der Durchschnitts-Verbrauch meiner Karte (bzw ja nur "GPU-only") um ca 80W - ignoriert man kurzzeitige Ausschläge nach unten oder oben (nach unten ist häufiger), sind es ca 90W in Witcher 3 oder im Heaven-Benchmark.
Nach oben zeigt GPUz gelegentlich einzelne Ausschläge bis ca 140W. Vorrausgesetzt, der Wert ist halbwegs verlässlich, kann die GPU offenbar kurzfristig das Powerlimit (bei mir -15%, Karte hat nur 1x 6-pin, daher vermute ich das Referenz-Design-Limit) auch mal großzügig überschreiten.
Allerdings ist das auch meine erste Karte, die mir diesen Wert liefert, daher kann ich leider keine Vergleiche zu anderen Karten ziehen...

RitterRost
2016-11-17, 10:26:53
Polaris beherrscht Zero Core und in vielen Fällen funktioniert das auch. U. a. nachzulesen hier (ganz unten ist das ein Thema): http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Asus-RX-470-Strix-versus-GTX-960-1213357/

MfG,
Raff

Ah, Danke.
Bei Eurem rx480 Rundumschlag im Heft 10 war ZeroCore (soweit ich mich erinner) ja kein Thema.
Schön, dass es unter Windows geht. Vielleicht sollte ich es mal unter Linux probieren.

Edit: Laut der verlinkten Tabelle unten spart ZeroCore zu idle 30W. Wie geht das denn?
(ich hätte idle=17W und ZC=3W, also ne 14W Differenz erwartet)

mironicus
2016-11-17, 10:33:21
Auf dem Bild von Format C kann man ja eine Grafikkarte mit seitlichen Stromstecker sehen, gibt es das auch als Konsumerkarte zu kaufen (gewinkelt nach hinten)? Mein HTPC ist so flach, dass ich nur Grafikkarten mit Stecker nach hinten einbauen kann.

(del)
2016-11-17, 10:52:17
Es gibt auch Winkelstecker im Zubehör :)

Zero Core... Nun ja. Wann erreicht man das eigentlich außer mit einem Crossfile-Gespann im Idle?
Im normalen Idle und W10-Desktop mit einer Karte geht es nur, wenn der PC in den Schlaf fällt...

Die RX480 knattert im Idle als Karte zwischen 16 und 17 Watt weg, was daran liegt, dass die
Taktraten nicht weit genug nach unten gehen. AMD hatte nach dem Launch Abhilfe versprochen,
aber passiert ist leider nichts. Zum Zero Core hat man dann zwischen 10 und 13 Watt Luft,
je nach Modell und VR-Layout.

Raff
2016-11-17, 11:06:15
Zero Core würde mein Rechner daheim ständig sehen – bzw. hat es, als noch die HD 7970 darin werkelte. Man ist ja nicht immer am PC. Wenn ein fetter Download läuft oder die Kiste als Musikmaschine fungiert, stelle ich das Auto-Off des Monitors auf fünf Minuten, womit genau ab da Zero Core und somit die Stromersparnis greift. Ich halte das Feature für sehr sinnvoll, wobei es weniger wertvoll wäre, wenn die Karte im Leerlauf eh nur 5 Watt zöge. :)

Ah, Danke.
Bei Eurem rx480 Rundumschlag im Heft 10 war ZeroCore (soweit ich mich erinner) ja kein Thema.
Schön, dass es unter Windows geht. Vielleicht sollte ich es mal unter Linux probieren.

Edit: Laut der verlinkten Tabelle unten spart ZeroCore zu idle 30W. Wie geht das denn?
(ich hätte idle=17W und ZC=3W, also ne 14W Differenz erwartet)

Das hat mich auch gewundert. Offenbar hindert etwas die Radeon daran, komplett in den Leerlauf zu gehen, sodass die Leistungsaufnahme höher ausfällt als erwartet. Zero Core Power springt nach Abschalten des Monitors jedoch ordnungsgemäß an, sodass die Differenz größer ist, als wenn die GPU im erwarteten 15-Watt-Rahmen arbeitete.

MfG,
Raff

(del)
2016-11-17, 11:09:40
Für Downloads nimmt man doch nicht den Office-/Gaming-PC. Und was ist ein fetter Download? Ab 200 MBit/s aufwärts ist auch das obsolet ;)

Wenn eine Grafikkarte im Idle 10 Watt oder weniger schappt, ist dieses Feature nicht wirklich wichtig. Die aktuelle WX7100 mit Radeon Pro 16.40
schluckt im Idle fette 34-35 Watt, schaltet aber eh nicht in der Zero Core, weil noch nicht mal der RAM runtertaktet. Das wiederum merkt man
in der Workstation dann doch, weil bei der reinen 2D-Konstruktion der GPU-Takt kaum hoch geht. Treiberfehler, leider :(

Screemer
2016-11-17, 11:16:17
Für Downloads nimmt man doch nicht den Office-/Gaming-PC. Und was ist ein fetter Download? Ab 200 MBit/s aufwärts ist auch das obsolet ;)
kannst du solche posts nicht sein lassen. die überwiegende mehrheit macht auch downloads an ihrem pc, wenn denn einer vorhanden ist, und 200mbit/s haben auch die wenigsten. das ist doch quatsch des quatschens willen, oder?

Raff
2016-11-17, 11:16:41
Ich habe "nur" 50 MBit/s. ;) Und natürlich nehme ich dafür den Gaming-PC, denn dort sollen die Spiele ja anschließend laufen.

MfG,
Raff

(del)
2016-11-17, 11:20:29
kannst du solche posts nicht sein lassen. die überwiegende mehrheit macht auch downloads an ihrem pc, wenn denn einer vorhanden ist, und 200mbit/s haben auch die wenigsten. das ist doch reiner quatsch des quatschens willen, oder?

Gelaber. Als ich noch die 16K hatte, gab's einen kleinen Fileserver mit Torrent-Clenten. Das Teil lief mit unter 20 Watt bei Vollast.
Wer noch sparsamer sein will, besorgt sich einen gescheiten Router und hängt eine Festplatte dran. Finito.

Die ellenlagen Steam-Download liefen am Notebook, man kann das doch ganz einfach rumkopieren. Spart immer noch deutlich mehr,
als Zero-Core am großen PC. Wer wirklich sparen will, macht das nun mal anders, als nur auf die Grafikkarte zu schauen ;)

Screemer
2016-11-17, 11:24:18
Gelaber. Als ich noch die 16K hatte, gab's einen kleinen Fileserver mit Torrent-Clenten. Das Teil lief mit unter 20 Watt bei Vollast.
Wer noch sparsamer sein will, besorgt sich einen gescheiten Router und hängt eine Festplatte dran. Finito.
genau das ist es gelaber von deiner seite. die die so ein ding haben bewegen sich im promille bereich. ich kenne niemanden der das eingebaute dl feature der router (fb, etc.) nutzt auch wenn es vorhanden ist. zerocore ist ein super feature. kann man natürlich auch klein reden.

Wer wirklich sparen will, macht das nun mal anders, als nur auf die Grafikkarte zu schauen ;)
na dann sind die 20-30w die eine amd im vergleich zu einer equivalenten nv braucht doch eh kinkerlitzchen.

deinen smily kannst du dir schenken. das ist einfach nur geflame übelster art.

(del)
2016-11-17, 11:25:05
genau das ist es gelaber von deiner seite. die die so ein ding haben bewegen sich im promille bereich. ich kenne niemanden der das eingebaute dl feature der router (fb, etc.) nutzt auch wenn es vorhanden ist. zerocore ist ein super feature. kann man natürlich auch klein reden.Dann kennst Du die falschen Leute ;)

Ich finde Zero Core genial, wenn man ein CF hat (siehe Post weiter oben) und die zweite Karte abschaltet, wenn man sie nicht braucht.
Aber am Arbeitsplatz wirklich bis zum letzten Watt sparen geht anders. Da gibt es andere Verbraucher, die mehr absahnen, als die paar Watt,
die man damit noch spart.

Im Übrigen habe ich Probleme mit Zero Core, DisplayPort und einen 4K Monitor an den Workstations, weil dort der Monitor nach dem WakeUp nicht mehr hochfährt.
Den darf ich dann manuell wieder anschalten und mich über verschobene Icons auf dem Desktop freuen. Mit HDMI geht es, aber meine großen Monitore haben nur DP.
Mit Adapter habe ich aber nur 30Hz und die WS karten bieten eh nur DP. Mit Multi-Monitor-Setups geht garnichts. Ob es an W10 liegt, kann ich nicht beurteilen,
aber ich schalte die Monitore nicht mehr übers OS ab.

In der täglichen Praxis halten sich die Unterschiede und Probleme zwischen den AMD- und Nvidia-bestückten Workstations in Grenzen. Ich sehe da auf keiner
Seite echte Vor- oder Nachteile. Es gibt sogar Programme, da sehen die AA-Modi auf AMD deutlich knackiger aus (Maya 2016 z.B.).

mkh79
2016-11-17, 11:44:59
Ja klar, ZeroCore lohnt nicht wegen "ein paar Watt".
Aber im Test der RX480 "sind die gemessenen 16 Watt (...) eine ziemlich hohe Hausnummer"
Zitat (http://www.tomshardware.de/amd-radeon-rx-480-polaris-10-gpu,testberichte-242140-9.html)
Meine Güte....

(del)
2016-11-17, 11:54:13
Ja klar, ZeroCore lohnt nicht wegen "ein paar Watt".
Aber im Test der RX480 "sind die gemessenen 16 Watt (...) eine ziemlich hohe Hausnummer"
Zitat (http://www.tomshardware.de/amd-radeon-rx-480-polaris-10-gpu,testberichte-242140-9.html)
Meine Güte....
Ja, im Verhältnis sind sie es, weil man mit angepasstem GPU-Takt mindestens auf 10 Watt kommen könnte (und diese 16 Watt vor zwei Jahren schon erreichbar waren).
Das zumindest hatte AMD in Gesprächen selbst ausgesagt. Nur kam nach dem Launch nie wieder was ;)

Und bitte:
Nicht das Wort im Munde rumdrehen :D Natürlich wird der Fahrer eines hubraumstarken SUV im Stand den Motor eher abstellen als der eines sparsamen Fahrzeuges.
Bei Multi-GPU sehe ich den Sinn wirklich ein. Nur muss man auich einmal abwägen, in welchen Szenarien es sich wie am meisten einsparen lässt. :)

Eine W9100 (Hawaii) zieht im Idle am Desktop mit dem aktuellen Radeon Pro 16.40 satte 45 Watt, Zero Core funktioniert seit dem Sommer schon nicht mehr.

Dino-Fossil
2016-11-17, 12:07:09
Bei Multi-GPU sehe ich den Sinn wirklich ein. Nur muss man auich einmal abwägen, in welchen Szenarien es sich wie am meisten einsparen lässt. :)

Ist schon irgendwo wahr, aber im Rahmen der Diskussion hier muss man auch mal über den Tellerrand sehen können und verstehen, dass es eben unterschiedliche Lösungen gibt und die, die man selbst als optimal ansieht, für andere vielleicht doch nicht in Frage kommt.
Naja, jedem Tierchen sein Pläsierchen... ;)

N0Thing
2016-11-17, 12:07:51
Zero Core würde mein Rechner daheim ständig sehen – bzw. hat es, als noch die HD 7970 darin werkelte. Man ist ja nicht immer am PC. Wenn ein fetter Download läuft oder die Kiste als Musikmaschine fungiert, stelle ich das Auto-Off des Monitors auf fünf Minuten, womit genau ab da Zero Core und somit die Stromersparnis greift. Ich halte das Feature für sehr sinnvoll, wobei es weniger wertvoll wäre, wenn die Karte im Leerlauf eh nur 5 Watt zöge. :)



Das hat mich auch gewundert. Offenbar hindert etwas die Radeon daran, komplett in den Leerlauf zu gehen, sodass die Leistungsaufnahme höher ausfällt als erwartet. Zero Core Power springt nach Abschalten des Monitors jedoch ordnungsgemäß an, sodass die Differenz größer ist, als wenn die GPU im erwarteten 15-Watt-Rahmen arbeitete.

MfG,
Raff

Gibt es feste Bedingungen, wann ZeroCore aktiv wird? Bestimmte Anschlussart wie DVI oder HDMI?
Bei mir funktioniert ZeroCore nämlich nicht, egal ob Windows den Bildschirm schlafen legt, oder ob ich selber den Schalter am Gerät betätige.

(del)
2016-11-17, 12:09:11
Ist schon irgendwo wahr, aber im Rahmen der Diskussion hier muss man auch mal über den Tellerrand sehen können und verstehen, dass es eben unterschiedliche Lösungen gibt und die, die man selbst als optimal ansieht, für andere vielleicht doch nicht in Frage kommt.
Naja, jedem Tierchen sein Pläsierchen... ;)Ich habe Zero Core nicht als sinnlos bezeichnet, finde nur manche Argumente nicht so recht überzeugend. ;)

Und die Umsetzung ist auch etwas, naja, sagen wir mal, sporadisch und nicht immer sicher reproduzierbar. ;)

Dino-Fossil
2016-11-17, 12:11:53
Ist mir schon klar ;)

fondness
2016-11-17, 12:21:41
Gelaber. Als ich noch die 16K hatte, gab's einen kleinen Fileserver mit Torrent-Clenten. Das Teil lief mit unter 20 Watt bei Vollast.
Wer noch sparsamer sein will, besorgt sich einen gescheiten Router und hängt eine Festplatte dran. Finito.

Die ellenlagen Steam-Download liefen am Notebook, man kann das doch ganz einfach rumkopieren. Spart immer noch deutlich mehr,
als Zero-Core am großen PC. Wer wirklich sparen will, macht das nun mal anders, als nur auf die Grafikkarte zu schauen ;)

Denn was ich nicht brauche ist sinnlos. Das nennt man wohl den Horizont eines Kreises mit dem Radius 0. Mein PC läuft ständig, dabei bin ich vielleicht 2-3 Stunden pro Tag aktiv davor. Keine Lust den jedes mal auszuschalten oder neu hochzufahren wenn ich ihn brauche. Und da bin ich sicher nicht der einzige. ZeroCore kann also sehr viel Sinn machen.

Ich finde Zero Core genial, wenn man ein CF hat (siehe Post weiter oben) und die zweite Karte abschaltet, wenn man sie nicht braucht.
Aber am Arbeitsplatz wirklich bis zum letzten Watt sparen geht anders. Da gibt es andere Verbraucher, die mehr absahnen, als die paar Watt,
die man damit noch spart.


Gleichzeitig beschwert du dich freilich laufend über die "paar Watt" mehr, die zB eine RX480 im idle zieht. Nicht sehr konsequent um es freundlich auszudrücken.

(del)
2016-11-17, 12:49:23
Gleichzeitig beschwert du dich freilich laufend über die "paar Watt" mehr, die zB eine RX480 im idle zieht. Nicht sehr konsequent um es freundlich auszudrücken.
Ich bin sogar sehr konsequent. Länger nicht am Arbeitsplatz? Rechner aus. Für alle Hintergrundaufgaben gibts einen sehr sparsamen,
kleinen Server, der den gesamten Ablauf im Büro, Labor und der Wohnung am Leben hält und mit weniger als 20 Watt auskommt.
Alles komplett auf LED umgestellt, die komplette weiße Ware systematisch erneuert und ansonsten auch TV & Co nur dann,
wenn ich sie wirklich nutze. Elektrisch abschaltbare Steckdosen gegen aufsummierte Standby-Verbräuche inklusive.

Mich ärgern aber (unnötig hohe) 16 Watt am Desktop sehr wohl. Nicht etwa, weil sie mich in den Ruin treiben würden,
sondern weil ich mich entgegen der Ankündigungen etwas verarscht fühle und es technisch auch anders gehen würde.
Als ich weit vorm Launch bei AMD wegen der 16 Watt nachfragte, da hieß es, wir reichen den Treiber zeitnah nach,
das ist nur mal temporär so. Nur dass dann nichts mehr kam, obwohl wir bis einen Tag vorm Launch noch auf das Update
gewartet haben. Reaktion darauf siehe Launch-Review.

Und? Wo ist das Problem, wenn man etwas unsinnig hoch findet? Ich habe nämlich genauso scharf all die Custom-Designs
der Pascal-Karten kritisiert, die auch mit über 200 Mhz als unterste Stufe ins Rennen gingen und ebenfalls 15-16 Watt verballern,
nur um vermeintlich den Längsten haben zu können. Was anderes ist das bei der RX 480 aber auch nicht, denn auch
deutlich unter 200 Mhz würden noch reichen. Das ist in den R&Ds getestet, aber von AMD nicht freigegeben worden.

Da die Hersteller auf Grund von Nvidias Restriktionen auf die unterste mogliche Taktrate verzichten, um durch diesen Kunstgriff quasi einen Boost-Step mehr zu erhalten, steigt die Leistungsaufnahme im Idle leider an. Der niedrigste GPU-Takt liegt, wie eben schon erwähnt, bei stolzen 319 MHz.
Die Folgen davon zeigt die Tabelle:.... 15 Watt (Zotac)

Wenn Du mich mit Zitaten kritisierst, dann bitte auch mit welchen aus Nvidia-Reviews (z.B. dem Roundup).
Sonst hat es einen unangenehmen Beigeschmack. Kirschen, Picken und so :)

Der_Korken
2016-11-17, 12:58:30
Ich spiele derzeit noch ein wenig mit Undervolting bei meiner 480, vielleicht kann mir jemand hier ein, zwei Tipps geben:
Gestern hatte ich nach ca 2 Stunden Witcher 3 einen Bluescreen bei 1020 mV @1210 MHz und 950 mV Speicher. Etwas später traten auch leichte Grafikfehler auf (ich vermute hier auch das Undervolting als Ursache, aber natürlich könnte es ein Bug in W3 gewesen sein), mittlerweile liege ich wieder bei 1050mV und 975mV (Speicher).
Die Taktraten habe ich abgesenkt, weil ich unter anderem den Einfluss auf den Verbrauch testen wollte.
Wie wirkt sich eine zu niedrige Spannung in einem mittleren P-State aus?
Probleme nur wenn die Karte in den jeweiligen P-State schaltet, oder auch unabhängig davon?

Das ist eine sehr gute Frage, auf die ich leider keine Antwort kenne. Ich selbe habe es tatsächlich so gemacht, dass ich die States einzeln ausgelotet habe. Das ist natürlich mehr Arbeit, dafür sollte es aber keine Probleme geben. Ich weiß leider nicht, wie Polaris die Zwischentaktraten berechnet bzw. welche Spannung er dann nimmt. Ich hätte jetzt naiv auf eine lineare Interpolation aus den beiden benachbarten States getippt. Nimmt man an, dass die Takt-Spannungs-Paare der States auf der "optimalen" Kurve liegen, dann würden die Interpolationen allesamt taktmäßig darunter liegen und müssten somit stabil laufen (unter der Annahme, dass die Steigung der Kurve kontinuierlich sinkt, was sie bei in den States 4-7 tut. Das heißt, der Taktertrag aus der gleichen Mehrspannung nimmt immer weiter ab).

Getestet habe ich das ganze, indem ich die States 4-7 "erzwungen" habe. Das heißt wenn man State n testet, trägt man die Werte von State n auch bei allen darüberliegenden ein und das Powertarget hoch genug, damit dieser Zustand gehalten wird. Kann für P7 natürlich laut werden, aber es geht ja nur ums Testen, das PT regelt man hinterher runter, bis es leise genug ist.

Dino-Fossil
2016-11-17, 13:35:27
Getestet habe ich das ganze, indem ich die States 4-7 "erzwungen" habe. Das heißt wenn man State n testet, trägt man die Werte von State n auch bei allen darüberliegenden ein und das Powertarget hoch genug, damit dieser Zustand gehalten wird. Kann für P7 natürlich laut werden, aber es geht ja nur ums Testen, das PT regelt man hinterher runter, bis es leise genug ist.

Wie lange hast du das laufen lassen um die Langzeitstabilität zu testen?
Meine 480 war bei den Einstellungen ja im Spiel über Stunden ohne Probleme gelaufen, bis dann dochmal ein Absturz kam.
Da sie aber auch mit Takt @Stock (1266) bei 1050 mV längere Zeit stabil zu sein schien, habe ich mich eben gefragt, ob nicht doch ein Problem mit den niedrigeren P-States (die ich später weiter abgesenkt habe) dahinter stecken könnte.

Natürlich gäbe es auch andere Möglichkeiten - so ist mein Netzteil schon etwas älter und zeigt vielleicht erste Alterungserscheinungen.
Sporadisch hatte ich über die Jahre auch immer wieder mal einen Bluescreen der dann oft auf einen kürzlich installierten Treiber zurück zu führen war.

Naja, für den Augenblick werde ich das wohl mal weiter beobachten und austesten. Schönes Spielzeug. :biggrin:

herp_derp
2016-11-17, 14:33:36
Inwieweit kann man Polaris denn noch die Sparsamkeit nachträglich beibringen abgesehen von Undervolting? Vor allem auch im Multi-Monitor-Betrieb wird ja immer noch hochgetaktet.
Geht da was mit Wattman oder muss man tiefer eingreifen wenn es überhaupt geht?

Der_Korken
2016-11-17, 15:31:39
Wie lange hast du das laufen lassen um die Langzeitstabilität zu testen?
Meine 480 war bei den Einstellungen ja im Spiel über Stunden ohne Probleme gelaufen, bis dann dochmal ein Absturz kam.
Da sie aber auch mit Takt @Stock (1266) bei 1050 mV längere Zeit stabil zu sein schien, habe ich mich eben gefragt, ob nicht doch ein Problem mit den niedrigeren P-States (die ich später weiter abgesenkt habe) dahinter stecken könnte.

Ich habe mit den kleinen States angefangen und mich in 5Mhz-Schritten bei der GPU hochgetastet. Zuerst liefen auch Furmark+Heaven durch, aber das wurde mir irgendwann zu viel Arbeit, deswegen habe ich nur noch Witcher 3 getestet und die anderen beiden nur mit den finalen Taktraten. Für jeden Schritt bin ich anschließend so 5-10 Minuten durch die Gegen geritten, bis es Fehler oder Abstürze gab. Danach habe ich für den State den letzten stabilen Takt genommen und 15Mhz abgezogen. So ging das von State 5 bis 7 (State 4 konnte ich erst später testen, da ich für ihn 950mV veranschlagt habe, aber die GPU komischerweise nie weniger Vcore als der MC bekommt, weswegen ich es erst nach MC-UV testen konnte. Außerdem habe ich hier nicht bis zum BSOD getestet, weil ich außerhalb von Furmark nie in die Nähe komme).

Dabei lief es eigentlich immer nach dem Schema ab, dass Takt X für 10 Minuten stabil war, aber X+5Mhz innerhalb weniger Sekunden zu einem BSOD geführt hat. Ich habe mal unterstellt, dass die Fehlerrate exponentiell mit dem Takt sinkt, sodass ich mit 15Mhz Abstand genug Puffer habe um etliche Stunden fehlerfrei spielen zu können.

Inwieweit kann man Polaris denn noch die Sparsamkeit nachträglich beibringen abgesehen von Undervolting? Vor allem auch im Multi-Monitor-Betrieb wird ja immer noch hochgetaktet.
Geht da was mit Wattman oder muss man tiefer eingreifen wenn es überhaupt geht?

Multi-Monitor habe ich bisher nicht testen können, aber ich gehe davon aus, dass die Wattman-Einstellungen am hohen Verbrauch dort nichts ändern. Generell scheint das Taktverhalten noch nicht optimal zu sein, da manche unscheinbare Dinge zum Hochtakten führen. Wie z.B. der animierte ;D-Smiley, der während ich hier tippe die Karte auf knapp 50°C aufheizt, weil MC+VRAM ständig von 300 auf 2100Mhz hochtakten. Das gleiche passiert auch bei den meisten Youtube-Videos, während Twitch z.B. gar keinen Mehrverbrauch erzeugt.

Lard
2016-11-17, 16:19:33
Inwieweit kann man Polaris denn noch die Sparsamkeit nachträglich beibringen abgesehen von Undervolting? Vor allem auch im Multi-Monitor-Betrieb wird ja immer noch hochgetaktet.
Geht da was mit Wattman oder muss man tiefer eingreifen wenn es überhaupt geht?
Ohne Last im Idle, ist die RX480 durch WattTool recht sparsam:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=57994&stc=1&d=1479393437

Nur bei Last im 2D-Modus, erhöht sich die Spannung unötigerweise bis auf 937mV.
Ich werde bald die 732mV ins BIOS flashen, weil WattTool den Offset oft vergisst.
Ein früherer BIOS-Flash mit 700mV zum testen fuktionierte, bis auf die Stabilität beim öffnen von Flashvideos.

ZeroCore funktioniert mit HDMI auf DVI-Adapter einwandfrei, ebenso das aufwecken vom Suspend to RAM.

Der_Korken
2016-11-17, 16:24:20
Das mit den Spannungen ist bei Polaris so eine Sache. Ich konnte erst unter 1000mV undervolten, als ich auch die MC-Spannung entsprechend unter 1000mV gesenkt habe. Davor wurde keine manuell eingestellte Spannung der P-States unter 1000mV übernommen. Bei deinem Bild hast du auch eine Durchschnittsspannung von 875mV, obwohl du 800mV durchgehend eingestellt hast. Ein Flash kann helfen, kommt für viele aus Garantiegründen aber nicht in Frage.

Pirx
2016-11-17, 16:44:19
Nichtsdestotrotz(!!1) sollte AMD wirklich mal fixen, was es beim Idle-"Verbrauch" zu fixen gibt. Wirft kein gutes Licht auf die Firma.

Schnoesel
2016-11-17, 16:47:54
Sehe ich auch so. Zumal es angekündigt war, dass sie es fixen. Wenns sie es nicht angekündigt hätten, dann ok "you get what you see" aber das geht nicht. Angekündigte Sachen zu ignorieren sollen sie ruhig weiterhin Nvidia überlassen.

aufkrawall
2016-11-17, 16:52:10
Was Nvidia fixen kann, fixen sie meist auch irgendwann (siehe Idle-Verbrauch bei 144Hz).
Wenns die Hardware nicht hergibt, nun ja (Nvidia halt)...

AMD verkackt den Idle-Verbrauch aber nun schon gekonnt seit zig Jahren. HT4U hatten das wahrscheinlich schon 2012 für GCN kritisiert.

Schnoesel
2016-11-17, 17:36:45
Weder Tahiti noch Hawaii noch Fiji hatte signifikant höhere Verbrauchswerte im idle gegenüber der Konkurrenz.

Der_Korken
2016-11-17, 17:40:29
Das Problem ist imho nicht so sehr der Idle-Verbrauch (auch wenn er natürlich besser sein könnte), sondern der 2D-Lastverbrauch. Liegt laut PCGH-Test irgendwo um die 50W, was eindeutig zu viel ist.

aufkrawall
2016-11-17, 17:48:38
Das Problem ist halt das ständige Herauftakten für jeden Pups. Überspitzt gesagt gibt es deshalb bei AMD überhaupt keinen Idle-, sondern einen ständigen Mischverbrauch.

Loeschzwerg
2016-11-17, 18:07:19
Ich habe das bei meinem kurzen RX 480 Ausflug nicht kontrolliert, aber bei der R9 Nano ist das Taktverhalten auf dem Desktop echt extrem. Das System ist im Idle und trotzdem wird fleißig hoch und runter getaktet. Bin gespannt wie es beim P11 aussieht.

Linmoum
2016-11-17, 19:28:20
Um mal wieder auf die 480 selbst zurückzukommen: Die Red Dragon 4GB gibt es aktuell (im Mindstar) für knapp 200€.

http://www.mindfactory.de/product_info.php/4GB-PowerColor-Radeon-RX-480-Red-Dragon-Aktiv-PCIe-3-0-x16--Retail-_1125148.html
Zuschlagen :D
https://i.gyazo.com/d1bd7f8b0622eb94101bd728ca7c9ac0.png

TheGood
2016-11-17, 19:45:07
Ich habe Zero Core nicht als sinnlos bezeichnet, finde nur manche Argumente nicht so recht überzeugend. ;)

Und die Umsetzung ist auch etwas, naja, sagen wir mal, sporadisch und nicht immer sicher reproduzierbar. ;)

Die Argumente sind genauso nicht überzeugend wie deine eigenen....

Über den TEllerrand rausschauen oder mal seine eigene "Blase" erweitern... Letzters tust du ja hier im Forum, aber machst nichts draus....

Chaser187
2016-11-17, 21:19:31
Es gibt auch Winkelstecker im Zubehör :)

Zero Core... Nun ja. Wann erreicht man das eigentlich außer mit einem Crossfile-Gespann im Idle?
Im normalen Idle und W10-Desktop mit einer Karte geht es nur, wenn der PC in den Schlaf fällt...

Die RX480 knattert im Idle als Karte zwischen 16 und 17 Watt weg, was daran liegt, dass die
Taktraten nicht weit genug nach unten gehen. AMD hatte nach dem Launch Abhilfe versprochen,
aber passiert ist leider nichts. Zum Zero Core hat man dann zwischen 10 und 13 Watt Luft,
je nach Modell und VR-Layout.

Liegt nicht an der Taktrate, sondern an der zu hohen Spannung. 0,8V für 300 Mhz sind einfach overkill.

Pirx
2016-11-18, 10:29:35
Liegt nicht an der Taktrate, sondern an der zu hohen Spannung. 0,8V für 300 Mhz sind einfach overkill.Ich finde diesen aktuellen "Trend" zu Absolutaussagen bei gerade überschaubarem Fachwissen in der heutigen Zeit immer wieder sehr beeindruckend.

Lard
2016-11-18, 11:43:55
Ich habe nun meine RX480 mit 731mV für VDDC/VDDCI geflasht.
Der Verbrauch im Idle (nur Desktop) ist ca. 8W.
Abspielen von HD (H264) Film:10,9W und Flashvideo 11,6W:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=58001&stc=1&d=1479464515

Auch wenn die Spannung teilweise hohe Lastspitzen hat, ist im Schnitt der Verbrauch gering.
Mit WattTool kann man mit einer Batchdatei einfach verschiedene Profile laden.

Raff
2016-11-18, 11:58:54
Geflasht? Erzähl! :)

MfG,
Raff

Birdman
2016-11-18, 12:30:26
Der Verbrauch im Idle (nur Desktop) ist ca. 8W.
Abspielen von HD (H264) Film:10,9W und Flashvideo 11,6W:

Das scheinen aber nur die Verbrauchswerte der GPU alleine zu sein, über die ganze Karte gesehen kommt dann wieder deutlich mehr zusammen.

Lard
2016-11-18, 12:56:51
Geflasht? Erzähl! :)

MfG,
Raff
Was gibt es da großartig zu Erzählen? :biggrin:

Ab Crimson 16.9.1 hat AMD die Überprüfung der BIOS-Signatur abgestellt.
Mit dem Polaris BIOS Editor GPU/Memory Spannung von 800 auf 731mV ändern.
Unter Windows diese Batch ausfüren:
@echo off
cls

echo Flashing card 0 with RX480.rom...
echo.
AtiFlash -p 0 -f RX480.rom
echo.

pause
Das wars schon.
Das scheinen aber nur die Verbrauchswerte der GPU alleine zu sein, über die ganze Karte gesehen kommt dann wieder deutlich mehr zusammen.
Das ist mir klar, es dient lediglich zum Vergleich mit einer Karte, der man freien Lauf gewährt und munter hochtakten läßt.

Z.B. die MVDDC Spannung von 1,55V läßt sich nur mit einem Hardmod ändern.
Ich hatte die Spannung mal mit einem 100kΩ Wiederstand auf 1.62V erhöht, und konnte so den VRAM auf 2300MHz takten.
Wie es scheint ist der Samsung VRAM aber schon am Limit, da ich viele EDC Fehler hatte.
Die Memory Timings schärfer zu stellen ist dagegen etwas schneller, und mit viel weniger Fehler lohnender.

Raff
2016-11-18, 13:10:07
Was gibt es da großartig zu Erzählen? :biggrin:

Ab Crimson 16.9.1 hat AMD die Überprüfung der BIOS-Signatur abgestellt.

Habe ich nicht mitbekommen. Hochinteressant. Danke für die Info. :up:

MfG,
Raff

Chaser187
2016-11-18, 13:27:41
Ich habe nun meine RX480 mit 731mV für VDDC/VDDCI geflasht.
Der Verbrauch im Idle (nur Desktop) ist ca. 8W.
Abspielen von HD (H264) Film:10,9W und Flashvideo 11,6W:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=58001&stc=1&d=1479464515

Auch wenn die Spannung teilweise hohe Lastspitzen hat, ist im Schnitt der Verbrauch gering.
Mit WattTool kann man mit einer Batchdatei einfach verschiedene Profile laden.


Das geht aber nicht, wie du siehst, da kannste auch 600mV flashen trotzdem fällt die Spannung nicht weiter. Wie du ja selber siehst in GPU-Z.

Raff
2016-11-18, 13:36:34
0,77V ist bereits ein guter Anfang – ab Werk liegen die im Bereich 0,8 bis 0,825V.

MfG,
Raff

Chaser187
2016-11-18, 13:56:57
0,77V ist bereits ein guter Anfang – ab Werk liegen die im Bereich 0,8 bis 0,825V.

MfG,
Raff


Nein, das ist Blödsinn! Es sind immer 800mV nur zeigt GPU-Z 0,75 an egal was du machst. Bios flashen bringt nichts. Versteht es doch bitte!!!

Lard
2016-11-18, 13:58:55
Das geht aber nicht, wie du siehst, da kannste auch 600mV flashen trotzdem fällt die Spannung nicht weiter. Wie du ja selber siehst in GPU-Z.
Die Spannung ist halt dynamisch, im Idle ist sie aber im Bereich von 731mV.

Screemer
2016-11-18, 13:59:47
voltmeter dran, foto, fertig.

Chaser187
2016-11-18, 14:01:45
Die Spannung ist halt dynamisch, im Idle ist sie aber im Bereich von 731mV.

Das sieht man aber nicht auf dem Foto! Bei mir ist sie auch 0,75V das ist Standard. Und wieso hast du 731mv gewählt? Wieso nicht mal 650mV, dann würde ichs dir glauben. ;)

Lard
2016-11-18, 14:11:06
Das sieht man aber nicht auf dem Foto! Bei mir ist sie auch 0,75V das ist Standard. Und wieso hast du 731mv gewählt? Wieso nicht mal 650mV, dann würde ichs dir glauben. ;)
Das Bild zeigt die Karte auch unter Last.
Mit einem Offset von -68,75mv in WattTool, habe ich die Karte fast eine Woche lang getestet.
Geringere Spannungen sind nicht Stabil.

Chaser187
2016-11-18, 16:05:04
Das Bild zeigt die Karte auch unter Last.
Mit einem Offset von -68,75mv in WattTool, habe ich die Karte fast eine Woche lang getestet.
Geringere Spannungen sind nicht Stabil.

Zeigt es garnicht! Die VCore liegt doch garnicht voll an (GPU Load 0%)??? Entweder du hast keine Ahnung oder du willst uns hier ordentlich verscheissern.

https://abload.de/img/wattman2skjp1.png

Screemer
2016-11-18, 16:24:44
dir ist aber schon aufgefallen, dass das die avg. voltage über den kompletten run gpu-z ist, oder? also ich seh da ab und an durchaus mal gpu-load. lard soll einfach noch mal ein neues bild schießen ohne load und mit min. voltage.

Chaser187
2016-11-18, 16:33:09
dir ist aber schon aufgefallen, dass das die avg. voltage über den kompletten run gpu-z ist, oder? also ich seh da ab und an durchaus mal gpu-load. lard soll einfach noch mal ein neues bild schießen ohne load und mit min. voltage.

Ja das ist mir aufgefallen, aber er spricht von "load" guck dir den Graph mal an da ist kaum load drauf und dann guck dir meinen mal an mit load.

Der Punkt ist einfach das er seine Voltage garnicht gesenkt hat, es aber behauptet. Die Spannung bewegt sich immer zwischen 0,75 und 0,8, daher kommt auch sein gemessenes mittel von 0,78. Sein Bios flashing bringt nen sch****.

Lard
2016-11-18, 16:50:35
Zeigt es garnicht! Die VCore liegt doch garnicht voll an (GPU Load 0%)??? Entweder du hast keine Ahnung oder du willst uns hier ordentlich verscheissern.
Videos sind keine Vollastszenarien, es spiked immer wieder bis zu 100%, wie man an WattTool unter Activity 97% erkennen kann.
Und da mir dein Ton nicht gefällt, spare ich mir weitere diskussionen mit dir.

Salvee
2016-11-18, 20:44:13
Auf dem Bild von Format C kann man ja eine Grafikkarte mit seitlichen Stromstecker sehen, gibt es das auch als Konsumerkarte zu kaufen (gewinkelt nach hinten)? Mein HTPC ist so flach, dass ich nur Grafikkarten mit Stecker nach hinten einbauen kann.

Die Sapphire RX480 Karten haben den Stecker nach hinten.

Birdman
2016-11-18, 21:31:03
Das Bild zeigt die Karte auch unter Last.
Mit einem Offset von -68,75mv in WattTool, habe ich die Karte fast eine Woche lang getestet.
Geringere Spannungen sind nicht Stabil.
Und keinen negativen Impact festgestellt?
Einen, zwei oder drei Monitore angeschlossen?

Weil da fragt man sich wieso die Karte @default im 2D Betrieb in die höheren Powerstati geht, wenn es offensichtlich gar nicht nötig wäre?!?

Der_Korken
2016-11-18, 22:33:41
Vielleicht hat der Treiber generell Probleme zu erkennen, wann die Karte wie stark gefordert wird. Ich habe z.B. bei Warcraft 3 (von 2002) das Problem, dass die Karte sich bei Full HD nicht immer richtig hochtaktet, weil ihr die Last wohl nicht hoch genug ist. Wenn ich den Energieeffizienz-Schalter noch an habe, dann krebt das Spiel mit 30fps vor sich hin, während die Karte mit 300/300 taktet. Andererseits taktet sie dann für irgendwas anderes hoch, wo es gar nicht nötig wäre.

Lard
2016-11-18, 23:58:38
Und keinen negativen Impact festgestellt?
Einen, zwei oder drei Monitore angeschlossen?

Weil da fragt man sich wieso die Karte @default im 2D Betrieb in die höheren Powerstati geht, wenn es offensichtlich gar nicht nötig wäre?!?
Das negative ist, daß der wechsel vom 2D zu einem 3D/OC Powerstate, vorallem unter Last, die Karte abschmieren läßt.
Deshalb sollte vorher ein konservativer UVD Powerstate gewählt werden.
Am schnellsten geht es, mit einer Batchdatei einfach zwei Profile hintereinander zu laden.
Ich vermute das ist auch der Grund, warum die Karten für garnichts ständig hochtakten.
Läge eine Last schon an, würde der Bildschirm bunt oder grau.

Ich habe nur einen Monitor angeschlossen, bei Multimonitorbetrieb ist die individuelle Anpassung von Takt und Spannung bei Bedarf ja möglich.

Mr.Bug
2016-11-22, 23:36:04
Die RX480 knattert im Idle als Karte zwischen 16 und 17 Watt weg, was daran liegt, dass die
Taktraten nicht weit genug nach unten gehen. AMD hatte nach dem Launch Abhilfe versprochen,
aber passiert ist leider nichts. Zum Zero Core hat man dann zwischen 10 und 13 Watt Luft,
je nach Modell und VR-Layout.

Da muß ich auch widersprechen - Karte verhällt sich selbst oberhalb von Idle bei leichten Tätigkeiten moderat & vorbildlich unter 16 Watt. Im Idle lediglich 7,6 Watt mit Monitor an und bspws. E-Mail tippen oder Forenpost lesen. MSI Radeon RX 480 Gaming X 8 GB in aktuellem Win 10, allerdings noch auf Sandy Bridge Basis. Alles Serie, vorerst keine Veränderungen in Wattman vorgenommen.

http://fs5.directupload.net/images/161122/sh62igl4.jpg