PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 480: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15 16 17 18 19 20 21 22 23 24

Nightspider
2016-07-12, 01:09:07
Mal paar Fragen:

Hat hier jemand schon mal das 2 pass encoding ausprobiert?
Ist das nur fürs Streaming sinnvoll für Twitch oder auch für YouTube oder wenn man selbst Videos umwandeln und speichern will?

-/\-CruNcher-/\-
2016-07-12, 01:17:48
Wie soll 2 pass fürs Streaming funktionieren ?

Die RX480 reist in die Zukunft und schickt den 1st pass back to the past ;) ?

Sozusagen ein Async Compute Flux Kompensator onboard :D

mit 2 pass ist hier sicherlich etwas ganz anderes gemeint ;)

Lookahead würde ich aber nicht als 2 pass bezeichnen sondern eben als Lookahead :D

Nightspider
2016-07-12, 01:42:14
Mit Caching und möglichst minimierter Verzögerung?

-/\-CruNcher-/\-
2016-07-12, 01:50:35
Lookahead aber das bezeichnet man nicht als 2 pass encoding sondern als "look ahead rate control support" wenn schon

wenn das für H.264 gilt haben sie endlich aufgeholt wenn es für H.265 gilt nicht schlecht ;)

iuno
2016-07-12, 02:24:16
Mal paar Fragen:

Hat hier jemand schon mal das 2 pass encoding ausprobiert?
Ist das nur fürs Streaming sinnvoll für Twitch oder auch für YouTube oder wenn man selbst Videos umwandeln und speichern will?
Ich sehe nicht, wieso das sonst grossartig was bringen soll. Multi-pass encoding wird im Zusammenhang mit CBR (konstanter Bitrate) verwendet. Das macht sinn wenn man die Bitrate (oder die Dateigroesse am Ende) ziemlich genau vorher muss wie beim eben Streaming. Wenn du fuer dich selbst Videos umwandelst macht CBR fast immer mehr Sinn.

Wie soll 2 pass fürs Streaming funktionieren ?

Die RX480 reist in die Zukunft und schickt den 1st pass back to the past ;) ?

Sozusagen ein Async Compute Flux Kompensator onboard :D
VP9 soll ja afair auch erst nachkommen. Und dann braucht man auch noch die Softwareunterstuetzung an sich...
mit 2 pass ist hier sicherlich etwas ganz anderes gemeint ;)

Lookahead würde ich aber nicht als 2 pass bezeichnen sondern eben als Lookahead :D

2-/multi-pass encoding ist ein voellig gaengiger Begriff, warum soll man den hier verfremdend verwenden?
Ich sehe nicht, warum two-pass nicht mit Caching funktionieren soll. Natuerlich braucht es dann aber etwas mehr Speicher und Bandbreite.

Ist das ueberhaupt schon irgendwo implementiert?

Cyphermaster
2016-07-12, 08:13:52
hmpf... Zero Core Power geht natürlich mal wieder nicht (ging das bei irgend einer Karte bei irgend jemandem überhaupt schon mal?)*meld* Bei mehreren Karten bei mir und im Umfeld problemlos; da hatte ich mal näher nachgesehen, aus Interesse.

MikePayne
2016-07-12, 08:41:23
https://www.computerbase.de/2016-07/doom-vulkan-amd-nvidia-mehr-leistung/
"DOOM: Vulkan-Unterstützung für mehr Leistung ist online"

RX 480 soll durch Vulkan über 27 Prozent schneller werden.

Was dies in der Praxis heißt, lässt sich ungefähr anhand von Benchmarks abschätzen, die AMD für eine Radeon RX 480 veröffentlicht hat. Da es sich um Herstellerbenchmarks handelt, ist natürlich etwas Vorsicht geboten, die Ergebnisse sollten aber einen guten Richtwert bieten. Bei ansonsten gleichem Testsystem ermöglicht die Vulkan-API in 1080p ein Leistungsplus von über 27 Prozent. In 1440p ist es zwar etwas weniger, es steht jedoch noch immer ein Plus von über 23 Prozent zu Buche.

y33H@
2016-07-12, 09:11:29
Rennt ziemlich gut auf der RX 480:

2160p @ Nightmare: +25 Prozent (40 statt 32 fps)
1440p @ Nightmare: +26 Prozent (78 statt 62 fps)
1080p @ Nightmare: +22 Prozent (115 statt 94 fps)

http://www.golem.de/news/doom-vulkan-macht-die-hoelle-schneller-1607-122052.html

dargo
2016-07-12, 09:13:37
Wo lag der Fehler?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11098249&postcount=1099

Vor dem Monitor? :tongue:

y33H@
2016-07-12, 09:21:00
Ich hab im Excel Zeilen vertauscht ;(

Raff
2016-07-12, 09:23:20
Windows Calculator oder altschulisches Kopfrechnen FTW! :D

Fiji profitiert erwartungsgemäß mehr als Polaris (http://www.pcgameshardware.de/Doom-2016-Spiel-56369/News/Vulkan-Patch-bessere-Performance-Benchmarks-1201321/), da bei Ersterem einfach mehr brach liegt.

MfG,
Raff

dildo4u
2016-07-12, 10:22:45
Wundert nicht AMD hatte nicht mal Open GL 4.5 Support bei Doom,es läuft mit 4.3.

4.3 ist von 2012 und 4.5 von 2014.

https://de.wikipedia.org/wiki/OpenGL

Sehr komisch da sie ja immer drauf pochen offene Standard's zu unterstützen.

Dio Eraclea
2016-07-12, 10:59:47
Schlechter Troll Versuch, dildo4u:

OpenGL 4.5 wird offiziell (inoffiziell schon länger) mit dem AMD Catalyst™ 15.30 unterstützt. Angeblich (sofern man den verschiedenen Foren Beiträgen so glauben darf) wird von Doom ein OpenGL 4.3 Context erzeugt weshalb der AMD Treiber danach OpenGL 4.3 zurückmeldet. (siehe z.B. http://steamcommunity.com/app/379720/discussions/0/351660338715231739/ und viele anderen steam und reddit threads)

(Angeblich war dies bei der Beta nicht so - da soll der AMD Treiber auch OpenGL 4.5 zurückgemeldet haben)

StefanV
2016-07-12, 11:27:35
hmpf... Zero Core Power geht natürlich mal wieder nicht (ging das bei irgend einer Karte bei irgend jemandem überhaupt schon mal?)
Joa, bei meinen beiden Tahitis geht das ohne Probleme, leider...

VfBFan
2016-07-12, 11:34:37
hmpf... Zero Core Power geht natürlich mal wieder nicht (ging das bei irgend einer Karte bei irgend jemandem überhaupt schon mal?)...

Laut AMD muss das für die RX 480 noch gefixt werden, ebenso die VP9-Unterstützung
Bei meiner 7850 damals hat Zero Core Power einwandfrei funktioniert, habe ich mit dem Energiemessgerät nachgeprüft gehabt.

Die Funktion vermisse ich bei meiner aktuellen Karte schon, vorallem wenn man den Rechner mal den Tag über was von Steam laden lassen muss. Das läppert sich dann schon.

Raff
2016-07-12, 11:41:03
Laut AMD muss das für die RX 480 noch gefixt werden, ebenso die VP9-Unterstützung

Kwelle? =)

MfG,
Raff

y33H@
2016-07-12, 11:46:27
Beides geht nicht, also wäre es schön, wenn sie es fixen. Zu VP9 sagte mir AMD, sie seien dran. ZeroCore hatte ich nicht noch mal gefragt ...

VfBFan
2016-07-12, 12:21:24
c't 15/16: "Die Standby-Abschaltfunktion ZeroCore Power funktionierte nicht, AMD will auch dieses Problem mit einem künftigen Treiber lösen."

Unrockstar
2016-07-12, 12:25:27
Ja, aber man kann nicht alles gleichzeitig machen. Die RX 480 ist ziemlich gelungen, wenn auch nicht perfekt.

Vielleicht ist es sogar klug, das Referenzdesign so schlicht zu halten. Sonst würden sich beide Wettbewerber mit sehr ähnlichen Designs kabbeln, die zur Funktion wenig beitrage, und der Interessent hat weniger Auswahl.

Dennoch Hätte AMD mehr in den Kühler Investieren müssen. Das Design ist Edel, aber ne Vapor Chamber oder zumindest ein besserer Kühlblock wäre Sinnig gewesen..
Ich bin auch persönlich Fan der Axiallösungen, Leider schwer als Ref Design zu verkaufen. Meiner Meinung nach hätte AMD eine 970 4GB für 220€ als Ref bringen sollen und die 8GB den Custum AIBs überlassen.
Dann hätten wir vllt eine 970 mit 130W gesehen und alles darüber als Custom. Klar da hätten immer noch die Fans der Grünen gemeckert aber man muss ehrlich sagen, wenn man sich Hawaii oder Tahiti anschaut ist Maxwell Niveau etwas womit AMD arbeiten kann. Ausserdem meckern die Fans immer, denn die GTX 970 kostet ja schon seit Release 220€ :D
GGF sind noch nicht alle GCN4 Funktionen Aktiv, vllt kommt ja noch was. Volker meinte bei CB ja sowas, wobei ich eher an Sarkasmus glaube als an nen Treiber der mal eben den DX11 Overhead entfernt

Birdman
2016-07-12, 13:02:18
Multi-pass encoding wird im Zusammenhang mit CBR (konstanter Bitrate) verwendet. Das macht sinn wenn man die Bitrate (oder die Dateigroesse am Ende) ziemlich genau vorher muss wie beim eben Streaming. Wenn du fuer dich selbst Videos umwandelst macht CBR fast immer mehr Sinn.
Meintest du VBR, weil ansonsten macht diese Aussage imho nicht so viel Sinn.
Weil gerade bei variabler Bitrate ist es essenziell, ein MultiPass encoding zu haben, um genauer bestimmen zu können, bei welchen Frames bits eingespart und bei welchen ein paar mehr verwendet werden können.

Aber ist VBR nicht quasi überall tot? Dachte selbst Twitch hat eine konstante Bitrate und alle kommerziellen Video Angebote und DVD/BluRays sind doch eh CBR encodiert....wobei ich nie genau verstanden habe wieso.

BK-Morpheus
2016-07-12, 13:25:15
Twitch akzeptiert zwar auch variable Bitraten (finde ich eh viel sinnvoller als CBR...ich nutze gerne konstante Qualität bei variabler Bitrate, also mittels QRF), aber das Streaming bei Twitch bereitet mit variabler Bitrate häufig Probleme bei starken Bitraten-Schwankungen (high bitrate peaks).

Je nach Viewer/Gerät, haut es manchmal Viewer aus dem Stream, selbst wenn diese weit mehr Downstream Geschwindigkeit haben, als die Bitrate Peaks im Upstream bei der Wiedergabe benötigen würden.

Ich habe daher meinen Stream nach einer gewissen Testphase mit VBR umgestellt auf CBR. Seit dem fliegen die paar Leute (von denen ich weiß, dass sie mit Laptop/Handy vorher manchmal vom Stream geflogen sind) nicht mehr vom Stream.

Cyphermaster
2016-07-12, 13:37:01
Dennoch Hätte AMD mehr in den Kühler Investieren müssen. Das Design ist Edel, aber ne Vapor Chamber oder zumindest ein besserer Kühlblock wäre Sinnig gewesen..Woher nimmst du das, ohne die Performance-Daten des Kühlers zu kennen - geschweige denn potentielle Reaktionen der Käufer?

Die Referenz ist immer wie ein Boxed-Kühler bei einer CPU - "ausreichend" für den Zweck. Jeder Cent darüber muß sich erst einmal über geringeren Lärmpegel, bessere Taktbarkeit usw. rechtfertigen. Wenn man das aber in einem Umfang tut, daß es wirklich nennenswert wird, würde man den Spielraum für Customs kannibalisieren, und verteuert sein Produkt unnötig für die Kunden, die wegen OC, Supersilent-Anspruch usw. ohnehin den Referenzkühler durch 3rd-Party-Lösungen ersetzen.

Digidi
2016-07-12, 14:17:32
http://www.3dmark.com/fs/9255333

1,5 GHz :D

anddill
2016-07-12, 14:19:22
Der Kühler ist nicht schlecht, er tut genau das was der Konstrukteur wollte. Ich weiß, viele vergleichen mit den martialisch dekorierten 3-Lüfter Herstellerdesigns. Das ist aber nur "viel hilft viel", das kann jeder. Möglichst viel Luft über Kühlgerippe und Karte blasen bringt erst mal relativ niedrige Temperaturen auf der Karte, bläst aber unmengen 60° heiße Luft ins Case, und dann kann man zusehen wie man die wieder los wird.

Was gut ist an dem Kühler:
Der Lüfter ist auf dem Metallrahmen befestigt, seine Masse vermindert Vibrationen.
Die Luftführung ist sehr dicht, es leckt kaum heiße Luft ins Gehäuse.
Der Lüfter kann Luft von unten ansaugen, er erzeugt deutlich mehr Luftdurchsatz als bisherige AMD-Ref-Kühler
Er nutzt genau so viel Luft wie nötig ist um den Chip auf Betriebstemperatur zu halten.
Er schafft die Wärme aus dem Gehäuse.
Für 99% der Käufer ist er leise genug.

Was besser sein könnte:
Die Hohlräume zwischen Luftführung und Außenwand könnten bedämpft sein (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11098535#post11098535).

Dino-Fossil
2016-07-12, 14:19:44
Abgesehen von den fehlenden OC-Reserven war die Reaktion auf den Referenzkühler doch eigentlich relativ positiv, oder?

Möglich, dass die 480 ursprünglich bei etwas niedrigerem Verbrauch geplant war, aber im normalen Betrieb ist der Kühler - gerade für ein Referenzmodell - durchaus brauchbar.

StefanV
2016-07-12, 15:58:38
Möglichst viel Luft über Kühlgerippe und Karte blasen bringt erst mal relativ niedrige Temperaturen auf der Karte, bläst aber unmengen 60° heiße Luft ins Case, und dann kann man zusehen wie man die wieder los wird.
Ein Seitenlüfter direkt vor der Karte hilft da Wunder, insbesondere bei Crossfire Gespannen...

Wie zum Beispiel das Siemens Celsius M460/470 Gehäuse...

Wenn du mit 'nem 20kg Klotz an Rechner leben kanst, ist das Gehäuse echt genial, insbesondere für die Größe.

horn 12
2016-07-12, 22:54:34
Stolzer Erstkunden Preis und erst im August, bzw. frühestens ab 23 bis 25.ten Juli verfügbar !?

http://www.eprice.it/schede-video-SAPPHIRE/d-8880820

Dino-Fossil
2016-07-12, 23:29:04
Angeblich 20€ über dem Referenzmodell, damit kann man es sich ausrechnen.

Aber erstmal abwarten - wenn (falls) die 1060 mit nennenswerter Verfügbarkeit noch im Juli kommt, würde es mich nicht wundern, wenn die Preise der 480 sinken.

Tamagothi
2016-07-12, 23:47:00
In dem Shop sind alle Karten teurer als in DE -> nicht ausagekräftig

[MK2]Mythos
2016-07-13, 00:36:08
Vulkan bringt bis zu 66% Boost bei AMD in DOOM. Die Fury hängt die 1070 locker ab.
https://www.computerbase.de/2016-07/doom-vulkan-benchmarks-amd-nvidia/
Edit: Alt, wird natürlich im Technologiebereich schon heftigst gefeiert, aber ist ja vllt trotzdem ganz interessant hier.

Hakim
2016-07-13, 03:55:54
Stolzer Erstkunden Preis und erst im August, bzw. frühestens ab 23 bis 25.ten Juli verfügbar !?

http://www.eprice.it/schede-video-SAPPHIRE/d-8880820

unter 300€

http://geizhals.eu/sapphire-radeon-rx-480-nitro-a1473094.html?hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu

denke die Deutschen Händler werden es anfangs so für 280-300€ anbieten.

dargo
2016-07-13, 07:08:53
@[MK2]Mythos

Eine 1070TI gibt es nicht. ;)

HOT
2016-07-13, 07:57:24
Mythos;11099771']Vulkan bringt bis zu 66% Boost bei AMD in DOOM. Die Fury hängt die 1070ti locker ab.
https://www.computerbase.de/2016-07/doom-vulkan-benchmarks-amd-nvidia/
Edit: Alt, wird natürlich im Technologiebereich schon heftigst gefeiert, aber ist ja vllt trotzdem ganz interessant hier.
Ein Schelm wer Böses dabei denkt, dass die 1080 fehlt :D.

soLofox
2016-07-13, 08:13:06
Ein Schelm wer Böses dabei denkt, dass die 1080 fehlt :D.


dachte ich erst auch, aber warum?

die fury x bekommt man inzwischen für 429EUR (http://geizhals.de/xfx-radeon-r9-fury-x-liquid-cooled-r9-fury-4qfa-a1285955.html?hloc=at&hloc=de), die GTX 1070 kostet knapp 70EUR mehr.

AMD ist aktuell am schachzug, denn die RX 480 ist ja nun in keinster weise konkurrenz für die GTX 1070/1080 karten.

hesTeR-
2016-07-13, 08:17:15
Das ist doch nur gut für uns.... das muss man doch nicht als Argument FÜR AMD und gegen NV benutzen oder umgekert, im endeffekt bekommen wir alle mehr leistung ohne Geld zu bezahlen, da kann man nur hoffen das sich die Technik durchsetzt und in zukunft viel eingesetzt wird.

[MK2]Mythos
2016-07-13, 08:44:40
@dargo, stimmt! War schon spät. 😉
Der Preis der Fury X ist wirklich verlockend auch im Hinblick auf die neuen DOOM Realität. Hätte sie doch bloß 8gb. Sie wäre schon längst mein.

dargo
2016-07-13, 08:46:48
Weiß einer eigentlich warum der Aufpreis für die 8GB so hoch ist? Ich hätte eher mit 20-30€ und nicht 50€ gerechnet. Mal schauen ob sich das bald mit den Customs und der GTX1060 angleicht.

Edit:
Argh... mein Fehler. Ich habe da als Vergleich an die 380 gedacht. Da geht es aber um 2GB vs. 4GB und nicht 4GB vs. 8GB. Zudem verwendet die RX480 8Gbps Speicher der sicherlich etwas mehr kostet. Die 50€ Aufpreis passen also.

Messias
2016-07-13, 10:04:04
Weiß einer eigentlich warum der Aufpreis für die 8GB so hoch ist? Ich hätte eher mit 20-30€ und nicht 50€ gerechnet. Mal schauen ob sich das bald mit den Customs und der GTX1060 angleicht.


Die Preise für die 480 werden sich sicher mit der Zeit noch einpendeln.
Ich gehe mal davon aus, daß der Unterschied sich auch bei der Karte bei um die 30€ bewegen wird...
Immerhin gab es ja kurzzeitig schon mal Angebote der 480 mit 8GB, die bei 240€ lagen.

StefanV
2016-07-13, 12:27:11
*seufz* :rolleyes:

Nein, sondern ganz einfach, weil es genau wie Spulenfiepen und all der andere "Kleinkram" auch relevant/interessant ist. Echt, wenn ich diese andauernde implizite rot-grüne Dauerschlacht in den Köpfen sehe, werde ich immer wieder daran erinnert, warum ich in dem Bereich hier so wenig poste.
Ja, kann ich verstehen.

An dieser Stelle aber noch ein dezenter Hinweis von einem nicht länger vorhandenem User:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10623834&postcount=2008

Da wurde ja schon angedeutet, dass bei einem diverse Dinge nicht berechnet werden. Und ansonsten ist das ganze ja, wie schon angegeben, ein heiden Aufwand und nicht unbedingt etwas, was dann wirklich sinnvoll wäre...
Das Problem dabei wäre aber, dass ich vergessen habe, was ich schreiben wollte...

Anyway:
Vieles ist in diesem Bereich auch Subjektiv, viele sehen gar nicht die Unterschiede oder wollens nicht sehen....
Gut, das Ergebnis ist ungewiss und hier kann ein ziemlich großes Fass aufgemacht werden, wenn das, was verlinkt wurde, korrekt ist und nVidia wirklich im Treiber Objekte entfernt...

StefanV
2016-07-13, 12:30:38
Ein Schelm wer Böses dabei denkt, dass die 1080 fehlt :D.
Du meinst, dass in dem Dokument zur Bereitstellung der GTX 1080 sowas steht wie:

'Must not be used if the benchmarked things make this card/nVidia look bad'

Oder sowas in der Art halt? ;)

Hübie
2016-07-13, 12:33:16
Wäre dem so würde das auffallen. Culling heißt in dem Kontext wohl wegschneiden von verborgenen Dingen. Das steigert nur die Effizienz. Ich koche ja auch nicht ständig für 11 Fussballer wenn ich alleine wohne (okay es sei denn ich bin der Mannschaftskoch). :D

Isen
2016-07-13, 13:00:43
Bei dem Bildunterschied bei Ashes hat man sich sogar noch gebrüstet :D
Von wegen auffallen. :P

Schlammsau
2016-07-13, 13:01:12
Radeon RX 480 - Crimson 16.7.2 legt bei der Leistung deutlich zu
https://www.computerbase.de/2016-07/radeon-rx-480-crimson-16.7.2-test/

https://abload.de/img/unbenanntvajcv.jpg

Hübie
2016-07-13, 13:03:04
Bei dem Bildunterschied bei Ashes hat man sich sogar noch gebrüstet :D
Von wegen auffallen. :P

War das nicht eine AMD-Präsi? Wie ist denn der Status quo von den Redaktionen?

Isen
2016-07-13, 13:07:10
War das nicht eine AMD-Präsi? Wie ist denn der Status quo von den Redaktionen?

Japp. Es wurde von AMD der Pressetreiber verwendet, wurde via Twitter von NV sogar bestätigt, wie AMD denn an diesen Treiber ran gekommen ist.

Erst dichtete man dann AMD das schummeln vor, dann kam schnell heraus, dass auf seiten NV geschummelt wurde, statt das sich die Presse sich diesen annehmen, kamen nur die Lobpreisungen der Community, dass es sogar besser ausschaut als es sich der Entwickler erdacht hat, wie es auszusehen hat.

Von der Presse kam dazu nichts. Tot geschwiegen.

Allein deswegen schreit es nach einem Vergleich zwischen beiden, da es doch schon Unterschiede gibt... nur eben ziemlich weit zerstreut im Netz... Doom z.B. sind die Farben kräftiger, aber eben nur Youtube... daher lieber richtig checken.

Hübie
2016-07-13, 13:20:35
Da kann ich leider nix zu sagen. Habe weder AotS, noch eine AMD Karte. :redface: Da vertraue ich mal auf die redaktionelle Professionalität und Seriösität von den hier ansässigen Redakteuren wie Wolle, Raff, Igor, Peter und Marc (alle die ich vergessen haben auch :D).

Edit: Phil auch.

illidan
2016-07-13, 13:26:16
Bei der Schrott-Grafik ist es einfach schwer zu unterscheiden, was ein Grafikfehler des Spiels und was einer des Treibers sein könnte.
Beispiele: Schatten flimmern teilweise fehlerhaft, größere Units wechseln ständig den LoD/Texturen von ihnen werden nicht richtig gestreamt, Geschosse sind merkwürdig am flackern usw. etc....

dildo4u
2016-07-13, 13:31:41
Jup das Game ist häßlich zum Glück hat AMD jetzt Doom zum prahlen.
Hoffe wird sehen es nie wieder als Argumentation Grund für zukünftige DX12 Performance.Auch mit DX12 verhält sich nich jedes Game gleich.

Ravenhearth
2016-07-13, 14:44:27
Was hast Du denn gegen schwarze Klötze? Schau Dir mal an was so an Gehäusen verkauft wird. Besser als das Powerrangers- Design anderer Hersteller ist das allemal.

Aber die Powerrangers sind so kewl!

VQI8lhHFQ9Q

;D

Jake Dunn
2016-07-13, 15:24:28
Immerhin gab es ja kurzzeitig schon mal Angebote der 480 mit 8GB, die bei 240€ lagen.

Ja im Mindstar 239,90 oder bei Caseking für 234,90 ,bei letzterem hab ich mal zugeschlagen ^^

Sunrise
2016-07-13, 17:00:51
https://www.reddit.com/r/Amd/comments/4slkff/amd_event_in_korea_is_today_5pm/d5afieg
****
Updates:

PowerColor Devil series will have 1367mhz factory OC
HIS Roaring series will have 1342mhz factory OC
XFX Black series will have 1328mhz factory OC
There was no information about Sapphire Nitro factory OC.

Also non-reference cards will be in market ETA 7/27 (in Korea at least)
****

Sieht doch ganz nett aus, leider wie angegeben noch keine Informationen über die Sapphire Nitro.

(del)
2016-07-13, 17:13:41
Sieht doch ganz nett aus, leider wie angegeben noch keine Informationen über die Sapphire Nitro.Und keine über die Leistungsaufnahme der OC-Karten.

Sollten dann die RX 480 und die GTX 1060 im Durchschnitt über alle möglichen Spiele in ungefähr gleich schnell sein, dürften da schnell mal so eben fast xxx Watt zusammenkommen, wenn man es grob peilt, weil sagen darf ich ja nix ;)

Ok, wem Energiekosten und Abwärme egal sind, hat dann für etwas weniger Geld eine in ungefähr identische Karte - oder so. Immerhin kann er ja dann auch CF machen (was per se ja eigentlich idiotisch ist), was aber bei NV eben nicht geht. ;)

Achim_Anders
2016-07-13, 17:21:53
@Format C:
Mittlerweile kauft man sich ja leider auch eine Art Ökosystem mit ein. Ich denke hier an Freesync und Gsync Monitore. Und gerade in diesem mittleren und unteren Preisbereich können diese Techniken glänzen. Dann wird AMD mit der größeren Auswahl im unteren Preisbereich der Monitore insgesamt schon (viel) günstiger, wenn ich das richtig im Kopf habe.

Edit: Mal davon abgesehen das die 970 oc Karten auch leise gekühlt werden können und die Leistungsaufnahme sich da nicht so viel besser darstellen sollte als bei den RX 480 OC Pendants. Es bleibt, das die 1060 effizienter und (evtl) schneller ist. Dafür aber weniger Rohleistung bietet und teurer ist. Mit Gsync Monitor novh etwas teurer. Da kann für viele die 480 der bessere Deal sein, auch auf zwei Jahre gesehen.

herp_derp
2016-07-13, 17:25:26
Diese Verzögerung geht mir langsam auf die Nüsse. Ich will endlich Fakten und einen Bestellknopf.

dargo
2016-07-13, 17:27:03
Und keine über die Leistungsaufnahme der OC-Karten.

Sollten dann die RX 480 und die GTX 1060 im Durchschnitt über alle möglichen Spiele in ungefähr gleich schnell sein, dürften da schnell mal so eben fast xxx Watt zusammenkommen, wenn man es grob peilt, weil sagen darf ich ja nix ;)

Ok, wem Energiekosten und Abwärme egal sind, hat dann für etwas weniger Geld eine in ungefähr identische Karte - oder so. Immerhin kann er ja dann auch CF machen (was per se ja eigentlich idiotisch ist), was aber bei NV eben nicht geht. ;)
Bei High Level sicherlich, bei Low Level eher nicht. ;)

(del)
2016-07-13, 17:38:26
Ich darf mich ja nicht äußern.... NV weiß schon, warum die Karte kein SLI hat :P
Und eine 1050 ohne 6-pin wäre sicher auch kein Thema mehr :D

Ich habe einen dreitägigen Effizienztest gemacht und die RX 480 mit dazu genommen. AMD wird mich sicher das zweite Mal ermorden wollen :D

Disco_STFU
2016-07-13, 17:42:01
Ergebnis:

Stock: 100 zu 170 Watt
OC: 120 zu 220 Watt

Brauchst nix mehr veröffentlichen. :P

Sunrise
2016-07-13, 17:42:15
Ich darf mich ja nicht äußern.... NV weiß schon, warum die Karte kein SLI hat :P...
Weil sie sich ansonsten das eigene Preisgefüge kaputtmachen würden. SLI interessiert aber nur noch die Wenigsten, aus verständlichen Gründen.

Schnoesel
2016-07-13, 17:43:55
Solange AMD die Karten verkauft bekommt wird es ihnen ziemlich egal sein. Solange die Wärme leise abgeführt werden kann ist den meisten der Verbrauch doch egal. Die paar Moneten im Jahr. Dabei hilft dann auch die Performancesprünge in den neuen LL APIs, die 2GB + an VRAM und der günstigere Preis. All das zusammen mit guten PArtnerkarten und Polaris dürfte noch einige Zeit attraktiv bleiben.

gedi
2016-07-13, 17:52:37
Und keine über die Leistungsaufnahme der OC-Karten.

Sollten dann die RX 480 und die GTX 1060 im Durchschnitt über alle möglichen Spiele in ungefähr gleich schnell sein, dürften da schnell mal so eben fast xxx Watt zusammenkommen, wenn man es grob peilt, weil sagen darf ich ja nix ;)

Ok, wem Energiekosten und Abwärme egal sind, hat dann für etwas weniger Geld eine in ungefähr identische Karte - oder so. Immerhin kann er ja dann auch CF machen (was per se ja eigentlich idiotisch ist), was aber bei NV eben nicht geht. ;)

:rolleyes: Also eine 1060 ist doch jetzt schon per se, bevor se überhaupt released wurde, aufgrund wahrscheinlich grottiger Next-API Performance. Und wie bereits erwähnt, sind 1060- oder 480-User diejenigen welcher, welche die GraKa nicht ständig wechseln. Die sind eher im Highend-Segment zu suchen ;) Und ob jetzt, in Anbetracht dessen, eine Grafikkarte 100W oder 200W verbraucht, ist imo scheißegal.

Disco_STFU
2016-07-13, 17:55:00
Und ob jetzt, in Anbetracht dessen, eine Grafikkarte 100W oder 200W verbraucht, ist imo scheißegal.

Das wird wieder DAS Totschlagargument...

"Suche stromsparende Grafikkarte (Zukunftssicherheit egal)" :freak:

Dino-Fossil
2016-07-13, 17:56:50
Naja, Format_C wird jedenfalls wohl kein Polaris-Fan mehr. :D

(del)
2016-07-13, 17:57:36
Man kann sich Features auch schön reden. Das Problem ist, dass gerade die überbordende Verwendung von AC schon allein deswegen ausbleiben dürfte, weil man sonst die Spiele nur noch sehr schlecht für die Masse ab und unterhab der Mittelklasse skaliert bekommt. Im Gegensatz zu Tessellation lasst sich das meiste nämlich kaum sinnvoll regulieren.

BTW:
Ich habe per se überhaupt nichts gegen Polaris, aber man muss schon mal der Realität ins Auge sehen. NV wird im nächsten Launch-Artikel auch etwas Haue abbekommen, so ist es ja nun auch wieder nicht :)

Loeschzwerg
2016-07-13, 17:58:34
Steuerrückzahlung erhalten => RX 480 bestellt => Wird zu Tode gebastelt

Screemer
2016-07-13, 18:05:41
Man kann sich Features auch schön reden. Das Problem ist, dass gerade die überbordende Verwendung von AC schon allein deswegen ausbleiben dürfte, weil man sonst die Spiele nur noch sehr schlecht für die Masse ab und unterhab der Mittelklasse skaliert bekommt. Im Gegensatz zu Tessellation lasst sich das meiste nämlich kaum sinnvoll regulieren.
das ist doch imho totaler quatsch. gerade in der mittel- und lowendklasse ist ac am interessantesten. egal ob cpu oder gpu. im highend erschlägt man das problem einfach mit schierer leistung. im unteren preissegment ist das aber nicht möglich und man muss eben andere wege finden. wenn ich mir ansehe wie gut der vulcanport von doom auf billigen amd-cpus in kombination mit karten der x70/x80-klasse performed kann man nur hoffen, dass mehr und mehr engine-entwickler und auch middleware-klitschen auf ac setzen. das bringt nämlich genau den midrange- und lowendgamern am meisten. ist ja nicht gerade so, dass nur einer der ihvs davon profitieren würde. einer nicht ganz so stark wie der andere, dass war aber auch schon bei der von dir angesprochenen tesselation so.

Pirx
2016-07-13, 18:23:47
680 vs 7970, 780 vs 290, 960 vs 380,edit: 970(sic) vs 390 - spricht alles langfristig für AMD und das mit der relativ gleich gebliebenen GCN-Architektur. Das sollte auch mal vom Kunden und Testern beachtet werden.

dargo
2016-07-13, 18:27:54
Man kann sich Features auch schön reden. Das Problem ist, dass gerade die überbordende Verwendung von AC schon allein deswegen ausbleiben dürfte, weil man sonst die Spiele nur noch sehr schlecht für die Masse ab und unterhab der Mittelklasse skaliert bekommt.

Naja... wenn ich mich nicht gerade vertan habe sind bisher vier LL-Titel mit AC erschienen. Weitere zwei (Dishonored 2 + Civilization 6) sind bereits angekündigt. Beim neuen Battlefield 1 würde es mich auch schwer verwundern wenn DICE kein AC verwenden würde.

Ich sehe das absolut genauso wie Screemer... gerade im Lowend, Mainstream und Performancesegment ist AC besonders wichtig.

Disco_STFU
2016-07-13, 18:31:15
680 vs 7970, 780 vs 290, 960 vs 380,edit: 970(sic) vs 390 - spricht alles langfristig für AMD und das mit der relativ gleich gebliebenen GCN-Architektur. Das sollte auch mal vom Kunden und Testern beachtet werden.

Das fänd ich mal einen guten Artikel der die Langlebigkeit aufzeigt... Aber längere Balken in der Momentaufnahme sind halt "klickiger" :rolleyes:

Cyphermaster
2016-07-13, 18:34:03
Das wird wieder DAS Totschlagargument...

"Suche stromsparende Grafikkarte (Zukunftssicherheit egal)" :freak:Eine tolle Argumentation rausgesucht, um das zu entkräften. Als ob im Gaming-Hardwarebereich statt "Stromsparen" grade "Zukunftssicherheit" ein so viel schlagenderes Argument wäre... :rolleyes: :ulol:

@Format_C/Screemer:
Ich denke, beides ist richtig, aber nur teilweise. Sicher ist AC grade im unteren Segment am Interessantesten/Lohnendsten - allerdings ist eine offene Frage, in wie weit dieses Potential in der Breite real nutzbar gemacht werden (können) wird. Schließlich werden grade AAA-Titel nicht immer unbedingt mit Priorität auf optimale Performance im unteren Leistungssegment hin entwickelt.

Disco_STFU
2016-07-13, 18:36:56
@Cyphermaster

10-20€ im Jahr vs. 250-500€ für neue Karte. Do the math...

dargo
2016-07-13, 18:45:54
Schließlich werden grade AAA-Titel nicht immer unbedingt mit Priorität auf optimale Performance im unteren Leistungssegment hin entwickelt.
Das gilt aber genauso für High-End + Enthusiast. Man orientiert sich an den Konsolen die nichts anderes als Performancesegment sind. Die ganzen Dreingaben wie zb. höhere Schattenauflösung, höherwertigeres AO oder weniger agressives LoD sind doch nur die günstigsten Alternativen um noch irgendwie Highend und Enthusiast zu beschäftigen.

Cyphermaster
2016-07-13, 18:55:14
@Disco_STFU: Gamer wechseln sowieso alle ~2 Jahre ihre Karten; und sie werfen die Alten bei einem Upgrade (anders als du offensichtlich) nicht dabei in den Müll. Das, was da an zusätzlichem Wertverlust im Verkehrswert rauskommt, bewegt sich also in ähnlichen Dimensionen wie der Stromverbrauch.

(del)
2016-07-13, 18:57:06
Wobei bisher keiner die Frage beantworten kann, ob eine Wieauchimmer-AC-Implementierung die NV-Karten wirklich ins Abseits stellt. Und wenn doch, wie stark. Wenn ich mir solche Extrembesipiele wie AotS angucke, dann ist das ja kein Spiel, sondern ein spielbarer Benchmark. :D

Mir ging es lediglich darum, und genau da haben die Fanboys ja leider so ihre Probleme das richtig einzuordnen, dass man Features auch überbewerten kann. Praxisrelevanz ist dann etwas völlig anderes, was sich auch erst noch zeigen muss. Kann gut ausgehen, muss aber nicht. Und keiner von uns, wirklich keiner, kann hier eine verlässliche Aussage treffen. Nur, sind wir mal ehrlich: auf hättekönntewürde kann man kein Geld verwetten. Jedenfalls nicht sein eigenes ;)

Screemer
2016-07-13, 19:08:36
Wobei bisher keiner die Frage beantworten kann, ob eine Wieauchimmer-AC-Implementierung die NV-Karten wirklich ins Abseits stellt. Und wenn doch, wie stark. Wenn ich mir solche Extrembesipiele wie AotS angucke, dann ist das ja kein Spiel, sondern ein spielbarer Benchmark. :D

Mir ging es lediglich darum, und genau da haben die Fanboys ja leider so ihre Probleme das richtig einzuordnen, dass man Features auch überbewerten kann. Praxisrelevanz ist dann etwas völlig anderes, was sich auch erst noch zeigen muss. Kann gut ausgehen, muss aber nicht. Und keiner von uns, wirklich keiner, kann hier eine verlässliche Aussage treffen. Nur, sind wir mal ehrlich: auf hättekönntewürde kann man kein Geld verwetten. Jedenfalls nicht sein eigenes ;)
da bin ich voll und ganz bei dir. so hatte ich deine aussage von oben allerdings nicht verstanden. es ist auch nicht gesagt, dass ac nv ins abseits stellen muss. ich für meinen teil würde mich ganz sicher nicht darüber freuen, denn das verhindert die verbreitung und eben auch die effektive nutzung. mir wäre es als dev. wichtig, für alle die beste performance raus zu holen. schaffe ich das bei einem ihv über ac, dann sollte ich es auch nutzen. am besten auf eine art und weise, dass es eben nicht beim anderen ihv nicht schlechter performt als würde ich es nicht nutzen.

dargo
2016-07-13, 19:18:16
Wobei bisher keiner die Frage beantworten kann, ob eine Wieauchimmer-AC-Implementierung die NV-Karten wirklich ins Abseits stellt. Und wenn doch, wie stark.
Was verstehst du genau darunter?

Im Prinzip ist es doch ganz einfach... dank low level hat NV keine Vorteile mehr in cpu-limitierten Szenen. Oder AMD eben keinen Nachteil. Kann man sehen wie man will (auch in gpu-limitierten Szenen legen die Radeons dank LL ohne AC zu, aber eben nicht so stark wie auf CPU-Seite). Dank AC verschieben sich die Kräfteverhältnisse bei den GPUs in gpu-limitierten Szenen etwas in den jeweiligen Leistungsklassen zugunsten AMD, kein Weltuntergang.

Schlammsau
2016-07-13, 19:19:02
Erinnert mich alles hier irgendwie an die Tesselation Diskussion. Kann gut aussehen, muss aber nicht! :rofl:

(del)
2016-07-13, 19:22:48
Erinnert mich alles hier irgendwie an die Tesselation Diskussion. Kann gut aussehen, muss aber nicht! :rofl:

Genau deswegen ist es aber eben nicht AMDs Wunderheilung, dass plötzlich die Karten alle besser dastehen. Und mangelnde Zukunftssicherheit bei NV ist schon arg übertrieben, da ist der Wunsch wohl eher Vater der diesbezüglichen Gedanken. :D

Ich habe auch noch eine Nano im HTPC, aber wenn es eine kurze 1060 oder 1070 gibt, ist sie raus. Trotz Zukunftssicherheit und so. Ich habe da drin einen Hitzestau. Das ist dann meine GEGENWART :(
Und wenn ich erlich sein soll: die fast 50 Watt beim Blu-ray-Gucken kann ich auch keinem logisch erkären. Wobei der echte Fanboy ja sagt, Blu-ray sei eh tot. ;)

dargo
2016-07-13, 19:25:45
Erinnert mich alles hier irgendwie an die Tesselation Diskussion. Kann gut aussehen, muss aber nicht! :rofl:
Mit Tessellation hat das absolut nichts zu tun. Dank GCN in den Konsolen wurde kaum tesselliert. Bei AC sieht es wiederum ganz anders aus. Um das letzte aus den GPUs herauszuholen ist der Entwickler geradezu gezwungen AC zu implementieren. Eine gewisse Lernphase über den Zeitraum X gehört sicherlich dazu.

(del)
2016-07-13, 19:28:26
@dargo:
Nur wird es nicht so extrem ausfallen, dass NV damit wirklich echte Probleme kriegen dürfte. Das Zauberwort heißt: Verhältnismäßigkeit. Solange man es nicht zusammenschmatzt wie AotS, kann NV genüsslich zusehen. Ich finde es einfach falsch, sich an einzelne Features zu klammern und zu hoffen, dass die Zukunft allein davon abhängen wird. Das geht schief.

Cyphermaster
2016-07-13, 19:32:41
Genau deswegen ist es aber eben nicht AMDs Wunderheilung, dass plötzlich die Karten alle besser dastehen.Ich verstehe gar nicht, wo das überhaupt eine Frage bzw. ein Argument sein soll - schließlich ist das weder ein IHV-exklusives Feature, noch beschränkt es sich auf nur eine einzelne, jetzige Hardware-Generation (AC-Implementierung in der Breite der Spiele dauert wohl nicht nur Monate, sondern Jahre); heißt, bis das richtig relevant wird, werden die Karten zwischen den Herstellern eh nochmal neu gemischt (zumindest teilweise).

Butterfly
2016-07-13, 19:34:53
@dargo:
Nur wird es nicht so extrem ausfallen, dass NV damit wirklich echte Probleme kriegen dürfte. Das Zauberwort heißt: Verhältnismäßigkeit. Solange man es nicht zusammenschmatzt wie AotS, kann NV genüsslich zusehen. Ich finde es einfach falsch, sich an einzelne Features zu klammern und zu hoffen, dass die Zukunft allein davon abhängen wird. Das geht schief.
Meint ihr damit Async Compute?
Damit ist der wechsel zwischen Render Prozess und DirectCompute gemeint. (Kann nvidia auch schon länger wurde mit DX11 eingeführt)
Das Feature welches wirklich auch Auswirkungen auf das Bild hat ist AS = Async Shader .
Das ist wie SMT für die CPU, es werden andere Render Prozesse zwischen die Pipeline geschoben und somit die GPU besser Ausgelastet. :smile:

dargo
2016-07-13, 19:34:57
@Format_C
Ich verstehe ehrlich gesagt nicht so ganz warum du immer auf AotS beharrst. Ich finde die LL-Implementierung bei Doom deutlich beeindruckender. Bei beiden IHVs.

PS: ich weiß nicht so recht ob wir eventuell aneinander vorbei reden. Das Allheilmittel für AMD ist nicht AC sondern low level. AC ist nur ein netter zusätzliche Bonus. So sehe ich das zumindest.

Butterfly
2016-07-13, 19:45:29
Hier eine gute PDF zu AS: http://amd-dev.wpengine.netdna-cdn.com/wordpress/media/2012/10/Asynchronous-Shaders-White-Paper-FINAL.pdf

MfG

Loeschzwerg
2016-07-13, 19:59:03
https://www.computerbase.de/2016-07/radeon-rx-480-bilder-partnerkarten/#update1
PowerColor Devil Series: 1.367 MHz
HIS Roaring Series: 1.342 MHz
XFX Black Series: 1.328 MHz

Keine 1,4GHz bei der Devil dürfte schon alle sagen zur effektiven Taktbarkeit von Polaris 10. P10 geht wohl nur mit brachialer Spannung.

---

@Igor: Ja, das Nano Konzept funktioniert in HTPCs / ITX Systemen recht schlecht, dafür heizt die Karte viel zu viel.

Butterfly
2016-07-13, 20:02:26
@Loeschzwerg
Welcher Takt ist das nun, der max Turbo Boost oder Minimum?
Wäre mir neu, dass die custom Designs ausschließlich maximalen Takt im Focus haben, mehr Effizienz und weniger Lautstärke. :cool:

Ph03n!X
2016-07-13, 20:03:15
Fehlt immernoch der Takt der Strix und der Nitro.

Linmoum
2016-07-13, 20:04:54
Strix keine Ahnung, bei der Nitro sollen es 1350MHz sein.

dargo
2016-07-13, 20:06:39
https://www.computerbase.de/2016-07/radeon-rx-480-bilder-partnerkarten/#update1


Keine 1,4GHz bei der Devil dürfte schon alle sagen zur effektiven Taktbarkeit von Polaris 10. P10 geht wohl nur mit brachialer Spannung.

Dir ist aber schon klar, dass selbst bei manchen Customs der 1070 der Takt gerade mal 7% höher als Referenz gewählt ist? :tongue: Zb. bei der beliebten MSI Gaming.
http://geizhals.de/msi-geforce-gtx-1070-gaming-x-8g-v330-001r-a1456552.html?hloc=at&hloc=de

dildo4u
2016-07-13, 20:07:53
Dir ist aber schon klar, dass selbst bei manchen Customs der 1070 der Takt gerade mal 7% höher als Referenz gewählt ist? :tongue: Zb. bei der beliebten MSI Gaming.
http://geizhals.de/msi-geforce-gtx-1070-gaming-x-8g-v330-001r-a1456552.html?hloc=at&hloc=de
Die Angaben sagen nix aus diese Karte wird auch nicht als 2Ghz Karte beworben.

https://www.computerbase.de/2016-06/palit-geforce-gtx-1070-gamerock-test/2/#abschnitt_taktraten_unter_last

Normal boosten 1070 höher als die Hersteller Angabe.

Cyphermaster
2016-07-13, 20:13:43
Keine 1,4GHz bei der Devil dürfte schon alle sagen zur effektiven Taktbarkeit von Polaris 10. P10 geht wohl nur mit brachialer Spannung.Gut möglich, aber alles andere als gesichert. Kommt u.a. drauf an, ob es sich z.B. um eigene, optimierte PCBs handelt oder nicht, die jeweilige TaktHALTEfähigkeit in der Praxis usw..

Customs mit so geringem Taktplus, daß sie oft den Zusatz "OC" eigentlich gar nicht hätten ohne Schamröte tragen dürfen, sind doch nix Neues. Genau wie Customs ganz ohne Taktplus, wie z.B. oft von HIS. Ich würd mich da noch nicht aus dem Fenster lehnen.

Loeschzwerg
2016-07-13, 20:19:09
Dir ist aber schon klar, dass selbst bei manchen Customs der 1070 der Takt gerade mal 7% höher als Referenz gewählt ist? :tongue: Zb. bei der beliebten MSI Gaming.
http://geizhals.de/msi-geforce-gtx-1070-gaming-x-8g-v330-001r-a1456552.html?hloc=at&hloc=de

Von einer "Devil" erwarte ich die 1.4 GHz einfach, sonst kann man sich diesen fetten Klotz aus sparen.

@Butterfly: Da steht nur "Factory OC". Ich vermute es ist der "Boost", aber halt ohne entsprechendes Limit wie bei der Ref. RX 480.

@Cyphermaster: Bin gespannt wie meine Praxiserfahrung bei der Ref. ausfällt, ich werde das Ding definitiv quälen.

Cyphermaster
2016-07-13, 20:29:09
@Cyphermaster: Bin gespannt wie meine Praxiserfahrung bei der Ref. ausfällt, ich werde das Ding definitiv quälen.http://stream1.gifsoup.com/view/164429/ben-stiller-do-it-o.gif!!! (y)

dargo
2016-07-13, 20:33:35
Von einer "Devil" erwarte ich die 1.4 GHz einfach, sonst kann man sich diesen fetten Klotz aus sparen.

Nicht wenn man es extrem leise haben möchte. Was glaubst du warum einzelne Hersteller bei der 1070 Triple-Slot Kühllösungen anbieten?

(del)
2016-07-13, 20:48:37
Nicht wenn man es extrem leise haben möchte. Was glaubst du warum einzelne Hersteller bei der 1070 Triple-Slot Kühllösungen anbieten?
Weil die Dinger im Dutzend billiger sind ;)

Wenn man bei verschiedenen Serien eh aufs gleiche PCB setzen kann, fragmentiert man nicht auch noch die Kühler. Da perspektivisch wohl eh mehr 1070er verkauft werden dürften, laufen halt die 1080er mit der gleiche Linie.

Aber wir sind damit wirklich arg Off-Topic :)

Aber mal was anderes....

Für mich war es interessant wie das einzelne Boardpartner sehen. Die AMD-exklusiven gehen breitbandig in die Offensive (was sollten sie sonst ja auch tun), die Mischanbieter hingegen halten die RX 480 als Stiefkind auf Sparflamme. Karten ja, aber eher lieblos, keine Werbung, kostenoptimiert bis zum Abwinken. Wenn dann Nachfragen noch so beantwortet werden wie "Nvidia hat *piep* Prozent Marge und das lässt kaum echten Spielraum zu, bei AMD setzen wir aber seit zwei Jahren nur noch zu", dann frage ich mich schon, wo hier was schief läuft. Von den Mischbutzen wie MSI und Gigabyte gabs keine breitenwirksamen Fury, nur ein paar Kleinserien, um AMD nicht ganz zu vergrätzen. Das Asus-Experiment ist ja auch schief gegangen. Kleinere Exklusiv-Firmen wie HIS hatten keine Chance mehr und existieren nur noch als Marke weiter, andere wie Club3D halten sich mit Kabeln und Gedöns über Wasser, weil die Mutter (TUL Corp) nix mehr zum Zusetzen hat und alles in Powercolor pulvert.

Butterfly
2016-07-13, 20:54:10
Von einer "Devil" erwarte ich die 1.4 GHz einfach, sonst kann man sich diesen fetten Klotz aus sparen.

@Butterfly: Da steht nur "Factory OC". Ich vermute es ist der "Boost", aber halt ohne entsprechendes Limit wie bei der Ref. RX 480.

@Cyphermaster: Bin gespannt wie meine Praxiserfahrung bei der Ref. ausfällt, ich werde das Ding definitiv quälen.
So langsam wird es Eng, zwo R7970 mit 120% Power Limit kommen zusammen auf 540W TDP.
Das sind selbst 2x 200W echt fies!
Aber ich vermute immer noch, dass weniger DP Leistung dahinter steckt.
Alles was Compute nutzt kann auch mit DP gelöst werden, gerade bei Kollision Abfragungen wird das richtig interessant. ;)

StefanV
2016-07-13, 21:36:34
Das fänd ich mal einen guten Artikel der die Langlebigkeit aufzeigt... Aber längere Balken in der Momentaufnahme sind halt "klickiger" :rolleyes:
Ja, siehe hier, 1080p Vulkan...
http://gamegpu.com/action-/-fps-/-tps/doom-api-vulkan-test-gpu

Vergleiche mal die GTX 770 mit der R9-280X....
Ignoriere bitte die ganzen GK110 Karten, das sorgt nur für schlechte Laune....

StefanV
2016-07-13, 21:40:36
@Disco_STFU: Gamer wechseln sowieso alle ~2 Jahre ihre Karten; und sie werfen die Alten bei einem Upgrade (anders als du offensichtlich) nicht dabei in den Müll. Das, was da an zusätzlichem Wertverlust im Verkehrswert rauskommt, bewegt sich also in ähnlichen Dimensionen wie der Stromverbrauch.
Öhm, sorry, aber nein.

Das ist völliger Quatsch, was du hier schreibst...
Die wo alle 2 Jahre 'ne neue Karte kaufen sind da ganz gewaltig in der Minderheit und/oder haben schlicht zu viel Geld...

Aber die Regel ist das ganz und gar nicht, ganz im Gegenteil.

Und, wie schon erwähnt, gibt es einige Benchmarks, die, wenn man jetzt bei Kepler vs Tahiti bleibt, ziemlich übel für die Kepler Karten ausschauen.
Da schlägt sich eine GK104 Karte mit 'nem Pitcairn rum und die Tahitis legen sich mit den GK110 an.

Das kanns ja auch irgendwie nicht sein, oder?!

Beim Hexer 3 gabs wenigstens noch 'nen bisserl Shitstorm, aber das ist ja schon wieder abgeflacht und sollte noch mal angeheizt werden.
Denn sooo groß ist der Unterschied zwischen den Architekturen ja auch nicht, so dass es durchaus auch möglich wäre, dass die Optimierungen auch für die alten Karten nutzbar wären - aber ob das auch gewollt ist?!

Hier wird anscheinend versucht künstlich einen Bedarf zu erzeugen...

Schlammsau
2016-07-13, 21:51:27
Ist doch schon immer so gewesen, dass AMD Karten performancetechnisch langlebiger waren als die der Konkurrenz. Fluch für AMD, Segen für die Verbraucher.
Ob künstlich oder nicht, sei mal dahingestellt.

Screemer
2016-07-13, 21:55:47
Ja, siehe hier, 1080p Vulkan...
http://gamegpu.com/action-/-fps-/-tps/doom-api-vulkan-test-gpu

Vergleiche mal die GTX 770 mit der R9-280X....
Ignoriere bitte die ganzen GK110 Karten, das sorgt nur für schlechte Laune....
Dabei ist bei den Russen wohl smaa genutzt worden und somit kein ac aktiv.

Cyphermaster
2016-07-13, 22:19:21
Öhm, sorry, aber nein.

Das ist völliger Quatsch, was du hier schreibst...
Die wo alle 2 Jahre 'ne neue Karte kaufen sind da ganz gewaltig in der Minderheit und/oder haben schlicht zu viel Geld...

Aber die Regel ist das ganz und gar nicht, ganz im Gegenteil.Wie kommt dann sowas zustande: http://www.3dcenter.org/umfrage/aus-welcher-generation-stammt-die-zum-spielen-benutzte-grafikloesung-2015

Screemer
2016-07-13, 22:23:23
Wie kommt dann sowas zustande: http://www.3dcenter.org/umfrage/aus-welcher-generation-stammt-die-zum-spielen-benutzte-grafikloesung-2015
Weil wir hier in nem absoluten nerdforum sind. Da ist die wechselquote wohl wesentlich höher als im sonstigen Markt.

Dino-Fossil
2016-07-13, 22:30:04
Persönlich habe ich - wenn ich mich recht erinnere - früher sogar häufiger die Karte gewechselt, und das trotz geringerem finanziellem Spielraum.
Allerdings hat sich im Mittelfeld in den letzten paar Jahren auch nicht soo viel getan (28nm "sei Dank"), was für mich wirklich attraktiv war.
Wäre meine letzte Karte nicht vor einem Jahr abgeraucht, säße ich wohl seit über 4 Jahren auf der gleichen - die aktuelle war primär Ersatz und nur ein kleineres Upgrade weil gebraucht relativ günstig zu haben und 14nm in Sichtweite.

Argo Zero
2016-07-13, 22:52:24
Meine 280X würde ich eigentlich auch noch behalten, wäre sie nicht so laut bei 1440p.
Mit dem alten 1080p Monitor fiel das nie wirklich auf.

Disco_STFU
2016-07-13, 22:53:51
War der alte Monitor noch lauter? ;) :tongue: ;D

Argo Zero
2016-07-13, 22:54:50
Der fiept zum Glück noch nicht, auch wenns wieder Dell ist ;)

Screemer
2016-07-13, 23:01:33
Was macht die Karte jetzt lauter? Don't get it. Höhere Auslastung in Spielen, zu laut auf dem Desktop, ...? Meiner Karte ist es völlig wurscht ob ich 1080p oder 1440p Spiele, wenn ich sie bis Anschlag ausreize ist sie immer gleich von der Akustik.

TheGood
2016-07-13, 23:06:24
Und wenn ich erlich sein soll: die fast 50 Watt beim Blu-ray-Gucken kann ich auch keinem logisch erkären. Wobei der echte Fanboy ja sagt, Blu-ray sei eh tot. ;)
WArum das ist doch ne Tatsache. Ich kenn wenig Leute die sich regelmässig blue rays kaufen. Dazu muss man in den einschlägigen Märkten auch nur das Angeobt ansehen. Wenn dann wirds direkt gestreamt. DAs mag in deiner Alterklasse aber ggf. noch anders sein ;)

Argo Zero
2016-07-13, 23:07:15
@┼Screemer
Die Auslastung der GPU. Konnte den Lüfter früher bei maximal 50% halten bei maximal 86°C in 1080p Auflösung.
Bei 1440p geht das nicht mehr. Ab 90°C sagt er "fu" zu dem custom Lüfterprofil und das Teil geht an die Decke. Ab 60% Lüftergeschw. macht das keinen Spaß mehr.
Aber gut, eine 250 Watt Karte produziert halt Wärme.

Th3o
2016-07-13, 23:11:17
OCuk erwartet Powercolor RX 480 Devil Lieferung am 22. Juli (https://www.reddit.com/r/Amd/comments/4smmiu/ocuk_expecting_delivery_of_powercolor_rx480_devil/)

Hennson
2016-07-13, 23:23:15
Leider etwas zu spät, naja ich hab meine und bin echt zufrieden mit ihr. Dazu kommt noch ein Eiswolf, wenn der verfügbar ist und dann läuft das hier auf 2k in WoW :D

Hakim
2016-07-13, 23:25:53
WArum das ist doch ne Tatsache. Ich kenn wenig Leute die sich regelmässig blue rays kaufen. Dazu muss man in den einschlägigen Märkten auch nur das Angeobt ansehen. Wenn dann wirds direkt gestreamt. DAs mag in deiner Alterklasse aber ggf. noch anders sein ;)

Aber es geht ja nicht nur direkt um Blu ray, wenn man daheim HD-Material rein zieht, z.B über eine TV-Karte ist das auch scheiße. Eines der Hauptkriterien bei mir. Und umso ärgerlicher das AMD da seit Ewigkeiten sich nicht mal etwas bemüht.

StefanV
2016-07-13, 23:33:54
Was macht die Karte jetzt lauter? Don't get it. Höhere Auslastung in Spielen, zu laut auf dem Desktop, ...? Meiner Karte ist es völlig wurscht ob ich 1080p oder 1440p Spiele, wenn ich sie bis Anschlag ausreize ist sie immer gleich von der Akustik.
Ja, höhere Auslastung durch höhere Auflösung...

Hübie
2016-07-13, 23:41:02
Leider etwas zu spät, naja ich hab meine und bin echt zufrieden mit ihr. Dazu kommt noch ein Eiswolf, wenn der verfügbar ist und dann läuft das hier auf 2k in WoW :D

Was ist ein Eiswolf in dem Zusammenhang? Sorry, falls die Frage dumm ist. :biggrin:

Hennson
2016-07-13, 23:51:29
AlphaCool nennt seine GPU-Aoi Eiswolf bis her GPX-PRO. Finde die Idee echt gut eine Fullcover AOI für GPU´s

Hier wurde das mal für die Fury vorgestellt.

http://www.tomshardware.de/alphacool-gpx-pro-aio-gpu-wasserkuhlung-umbau,testberichte-241935.html

(del)
2016-07-14, 14:22:30
Das Ding läuft hier immer noch, allerdings in der ersten Revision. Sogar gut geeignet für Open Loop und die CPU mit im Kreislauf. Dann sollte es aber schon ein 360er Radi sein. Die Pumpe ist sowas von leise... :)

BTW:
Ich habe gerade eben eine Boardpartnerkarte mit einem gewissen Mitbewerber-Chip getestet - da hängen alle 5 Phasen brav am 8-Pin und nur noch der Speicher am PEG. Sehr löblich und fein ausbalanciert. So sollte Technik ;)

AlphaNUSS
2016-07-14, 14:36:55
Vll sehen wir Vega ja doch noch dieses Jahr.

https://www.reddit.com/r/Amd/comments/4ssb59/skhynix_listing_hbm2_for_q3_2016/

Hübie
2016-07-14, 14:36:57
Was ist das für eine Bauform der Pumpe? Impeller?

Emil_i_Lönneberga
2016-07-14, 14:52:03
@Hübie: dclt (http://www.alphacool.com/shop/pumpen/alphacool-pumpen/20729/alphacool-dc-lt-2600-ultra-low-noise-ceramic-12v-dc)

Hübie
2016-07-14, 14:57:13
Kreiselpumpe mit Keramikachse. Clever. Die gefällt mir schon jetzt. :D Dank dir!

(del)
2016-07-14, 15:08:53
Es ist keine Pumpe, sondern eine Sauge. Patenrechtliches AIO-Gedöns wegen der Asetek-Trolle. Die zieht das Wasser durch, anstelle es durchzudrücken. Ist sogar deutlich leiser. Zu bewundern auch auf Be Quiets neuer CPU-AIO :)

Emil_i_Lönneberga
2016-07-14, 15:18:52
Bzw. steckt die verlinkte Pumpe bereits in der Alphacool Eisbaer:

Seite 5 im Dokument

http://www.aquatuning.de/download/Eisbaer_neu.pdf

und die ähnliche Vorgängerpumpe wird auch schon seit 2012 standalone und in der Cooler Master Eisberg verkauft.

https://geizhals.de/alphacool-dc-lt-3600-ceramic-bulk-13154-a728357.html

https://geizhals.de/cooler-master-eisberg-prestige-240l-rl-eb24-16fk-r1-a847405.html

Die aktuelle überarbeite Revision DCLT 2600 Ultra Low Noise drückt im CPU-Kühler Eisbaer das Kühlmitttel durch die Düsenplatte, beim GPU-Kühler Eiswolf wird das Wasser durch den Kühler gesaugt.

(del)
2016-07-14, 15:45:46
Beim CPU-Kühler von Be Quiet ist auch die Sauge verbaut, im Eisbaer steckt eine Pumpe :)

Goser
2016-07-14, 16:35:27
Sauge, ehm ja :ugly: Machen wir eine große Sauge!

Loeschzwerg
2016-07-14, 16:43:34
Nicht wenn man es extrem leise haben möchte.

Etwas übertrieben für eine 110Watt GPU, meinst du nicht? Das schafft man mit weniger genauso leise, ging ja immerhin auch bei der Fury.

---

Meine Ref. ist angekommen... bin dann mal testen.

MikePayne
2016-07-14, 16:45:40
Etwas übertrieben für eine 110Watt GPU, meinst du nicht? Das schafft man mit weniger genauso leise, ging ja immerhin auch bei der Fury.

---

Meine Ref. ist angekommen... bin dann mal testen.

Wieso hast Du das Label vom Hersteller weggemacht? ;)
Welche Ref. ist das?

Loeschzwerg
2016-07-14, 16:49:53
Sapphire :) Der überklebte Aufkleber (Sapphire on top Radeon) sah jetzt nicht wirklich toll aus.

Der rote Aufkleber lies sich nicht gut entfernen, da habe ich gleich beide entfernt ^^

iuno
2016-07-14, 16:51:41
:up:

Kannst du dann deine default-Spannungen posten?

Und da ich weiss dass du gerne ausprobierst: waere ein Kurztest um ~1 GHz mit moeglichst niedriger Spannung drin?

Messias
2016-07-14, 17:03:40
:up:

Kannst du dann deine default-Spannungen posten?

Und da ich weiss dass du gerne ausprobierst: waere ein Kurztest um ~1 GHz mit moeglichst niedriger Spannung drin?

Wie ermittelt man denn zuverlässig die Default Spannungen?
Das schwankt doch ununterbrochen...

Sorry, wenn die Frage dumm sein sollte. ;)

MikePayne
2016-07-14, 17:03:58
Sapphire :) Der überklebte Aufkleber (Sapphire on top Radeon) sah jetzt nicht wirklich toll aus.

Der rote Aufkleber lies sich nicht gut entfernen, da habe ich gleich beide entfernt ^^

Ah OK, Powercolor hat einen Holosticker draufgeklebt -> guckt eh kein Schwein hin :ugly:

ASIC Quality bei Dir (meine siehe Sig)?

Wie ermittelt man denn zuverlässig die Default Spannungen?
Das schwankt doch ununterbrochen...

Sorry, wenn die Frage dumm sein sollte. ;)

Er meint sicher die Defaultspannung (Werkseinstellungen) bei max. GPU-Boost (Default: 1266 MHz @ 1,15V bei meiner Powercolor Referenzkarte) und für die anderen P-States

Screemer
2016-07-14, 17:09:54
In wattman einfach die Spannung des höchsten pstates.

Effe
2016-07-14, 17:30:51
Ich sehe einen Sapphireaufkleber. :)

MikePayne
2016-07-14, 17:34:13
Ich sehe einen Sapphireaufkleber. :)

Stimmt (den man dann im Rechner noch weniger sehen wird) :D

Loeschzwerg
2016-07-14, 18:12:36
:up:

Kannst du dann deine default-Spannungen posten?

Und da ich weiss dass du gerne ausprobierst: waere ein Kurztest um ~1 GHz mit moeglichst niedriger Spannung drin?

1150mV

1GHz bei niedrigster stabiler Spannung? Gut, muss ich testen bevor ich mit der Lötarbeit beginne :D


ASIC Quality bei Dir (meine siehe Sig)?


70.0%

Ich sehe einen Sapphireaufkleber. :)

Der kommt auch noch weg ^^

dargo
2016-07-14, 18:13:00
Etwas übertrieben für eine 110Watt GPU, meinst du nicht?
Was für eine 110W GPU? :confused:

Wie ermittelt man denn zuverlässig die Default Spannungen?
Das schwankt doch ununterbrochen...

Sorry, wenn die Frage dumm sein sollte. ;)
Wenn die Spannung ständig wechselt wechselt auch der Takt ständig. Ergo PT rauf und Takt fixieren.

Loeschzwerg
2016-07-14, 18:17:48
Was für eine 110W GPU? :confused:


P10 halt. Lass die GPU 150 Watt "saufen", da braucht's immer noch keinen so dicken Kühler :)

MikePayne
2016-07-14, 18:18:02
70.0%

Der kommt auch noch weg ^^

Hm, unter 1050mV wird bestimmt schwer werden,
aber Du wirst es sicher ausprobieren:
Bin gespannt, wie weit du mit 70% bei der GPU-Voltage runterkommst (1266 MHz Boost wird dauerhaft anliegen, wenn Du sie weit genug absenkst)

P10 halt. Lass die GPU 150 Watt "saufen", da braucht's immer noch keinen so dicken Kühler :)

Die GPU säuft bei DOOM ~120W, in manchen Benches bis zu 130W (@1035mV)

Loeschzwerg
2016-07-14, 18:35:44
Im ComputeMark sind es ziemlich genau 110Watt (104-118), wobei die Karte bei der Last immer schön im PState 4 bummelt (also 1138-1185MHz).

Messias
2016-07-14, 18:37:40
In wattman einfach die Spannung des höchsten pstates.

Doch so einfach:

1150mV auch hier.
ASIC = 74%

Bei der XFX ist der Defaultboost bei 1288MHz.

[MK2]Mythos
2016-07-14, 18:40:58
Meine Powercolor rennt auch seit einer halben Stunde. Asic Quality ist bei 89,8%
Maximalspannung 1043mV im State 7. 1,3 Ghz sind mit 1100mV problemlos.Mal sehen was noch so geht...

MikePayne
2016-07-14, 18:45:50
Mythos;11101831']Meine Powercolor rennt auch seit einer halben Stunde. Asic Quality ist bei 89,8%
Maximalspannung 1043mV im State 7. 1,3 Ghz sind mit 1100mV problemlos.Mal sehen was noch so geht...

Leider geil!

89,8% ist aber auch eine sehr gute Basis dafür, da geht doch noch was :D

Btw: Powercolor FTW! ;D

iuno
2016-07-14, 18:47:13
1150mV

1GHz bei niedrigster stabiler Spannung? Gut, muss ich testen bevor ich mit der Lötarbeit beginne :D
Danke :up:
Hast aber wohl nicht so einen guten Chip erwischt
Im ComputeMark sind es ziemlich genau 110Watt (104-118), wobei die Karte bei der Last immer schön im PState 4 bummelt (also 1138-1185MHz).
Mit GPU-Z ausgelesen oder?
Der Vergleich bei 1 GHz wuerde mir reichen, vielen Dank schon vorab

Screemer
2016-07-14, 18:47:46
Ich hab heute im übrigen mal ausgelotet, was mein Hawaii auf meiner urigen 290 so mitmacht. 1,04ghz/2,3ghz bei 1,045v-1,075v laut gpu-z unter. Dabei hat sich die Temperatur zu den 1,2v auf vrm1, welcher vorher mit bis zu 110°c in Division lief, auf ~95°c reduziert. Das sind gut 10% oc bei gut 15% weniger spannung und dabei ist meine 290 echt ne Krücke. Irgendwie scheint 14ff nicht so toll zu skalieren was die temps angeht.

Loeschzwerg
2016-07-14, 18:58:41
Danke :up:
Hast aber wohl nicht so einen guten Chip erwischt

Mit GPU-Z ausgelesen oder?
Der Vergleich bei 1 GHz wuerde mir reichen, vielen Dank schon vorab

Ob gut oder nicht, die GPU wird geprügelt :freak:

Bei 1GHz und dynamischer Spannung sind es ~82-98Watt (0,9750-0,9875 V) in GPU-Z.

Ich schau jetzt mal was manuell an Spannungsabsenkung geht.

TarantulaENERGY
2016-07-14, 18:59:03
Hallo liebe 3DCenter Forenmitglieder,

ich folge jetzt schon seit einigen Wochen euren Diskussionen und Spekulationen zu allen möglichen Themen. Da ich mich hier recht gut unterhalten fühle und man einiges lernt, habt ihr mich dazu bewegt mich anzumelden. :biggrin:

@[MK2]Mythos - Mit welchem Programmen/Tools/Spielen testest Du deine Karte? Der 3DMark scheint was die Stabilität angeht nicht wirklich reprensativ zu sein. Da kann ich die GPU Spannung der RX 480 deutlich unter 1000mV setzen ohne dass Grafikfehler/Probleme auftauchen. Der Valley-Benchmark zeigt dagegen leichte Grafikfehler.

Gruß,
Manuel

[MK2]Mythos
2016-07-14, 19:03:44
Fürs Erste direkt mit GPU-Z. Im Hintergrund wird aber DOOM herunter geladen.
Was mir übrigens ziemlich schnell aufgefallen ist, dass die Lüftersteuerung ziemlich lahmarschig ist. Du startest den Belastungstest, die GPU ist sofort am Temp Limit, taktet sich entsprechend sofort wieder auf ca 400 Mhz runter und ca 10 Sekunden später hat der Lüfter eine Drehzahl erreicht, die die GPU langsam wieder runter kühlt. Ab 3000 U/min wirds dann richtig laut. Insofern muss ich ganz klar bestätigen dass das Referenzboard kacke ist.

Hennson
2016-07-14, 19:03:48
Oh schaut auch das an 1700 Mhz unter Co2 Kühlung xD

https://i.redd.it/zpwfvttjo69x.jpg

dildo4u
2016-07-14, 19:16:56
Der neue 3DMark DX12 Test mit allen neuen Karten

https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/2/

Async Compute an/aus

https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/3/

dargo
2016-07-14, 19:19:20
P10 halt. Lass die GPU 150 Watt "saufen", da braucht's immer noch keinen so dicken Kühler :)
Die 1070er saufen sogar exakt 150W und haben so einen Brocken. ;) Ob mans braucht oder nicht ist davon abhängig wie leise man seine Graka haben möchte.

Oh schaut auch das an 1700 Mhz unter Co2 Kühlung xD

https://i.redd.it/zpwfvttjo69x.jpg
1,5V. :freak:

[MK2]Mythos
2016-07-14, 19:22:41
Ich habe mich jetzt bis auf 970mV @1 Ghz herunter gewagt und GPU-Z zeigt mir eine GPU Power Draw zwischen 65 und 77 Watt an.
Was ich mich nur frage, hat das reduzieren des Power Targets jetzt überhaupt irgend eine Funktion?

TarantulaENERGY
2016-07-14, 19:43:47
Mythos;11101899']Ich habe mich jetzt bis auf 970mV @1 Ghz herunter gewagt und GPU-Z zeigt mir eine GPU Power Draw zwischen 65 und 77 Watt an.
Was ich mich nur frage, hat das reduzieren des Power Targets jetzt überhaupt irgend eine Funktion?

Vielleicht stelle ich mich gerade zu blöd an und finde die Option zum Testen im GPU-Z nicht, oder aber wir reden aneinander vorbei. Womit belastest Du deine Karte um die Stabilität zu testen? :wink:

Das reduzieren des Powertarget bremst die Karte frühzeitiger beim maximalen Takt ein, sobald das von die eingestellte Limit erreicht ist.

Gruß

[MK2]Mythos
2016-07-14, 19:51:46
Wenn du im Menü "Graphics Card" bist, ist rechts neben dem Feld "Bus Interface" ein kleines blaues Fragezeichen, damit startest du den integrierten Stresstest, aber wie gesagt, Doom ist gleich fertig und dann schau ich mal wie zuverlässig der Test ist.

Frosty
2016-07-14, 19:55:35
passt dieser passivkühler hier von den abmaßen

https://www.amazon.de/98x40x20mm-Aluminium-K%C3%BChlk%C3%B6rper-K%C3%BChlung-Silberton/dp/B019AP9TXO/ref=sr_1_8?ie=UTF8&qid=1468518465&sr=8-8&keywords=mosfet+k%C3%BChler

auf die spannungswandler einer referenz rx 480?


wenn das teil passt, überlege ich mir einen accelero mono plus darauf zu bauen, diese warterei seit über zwei wochen auf custom rx 480 karten nervt langsam.:frown:

[MK2]Mythos
2016-07-14, 20:17:28
passt dieser passivkühler hier von den abmaßen

https://www.amazon.de/98x40x20mm-Aluminium-K%C3%BChlk%C3%B6rper-K%C3%BChlung-Silberton/dp/B019AP9TXO/ref=sr_1_8?ie=UTF8&qid=1468518465&sr=8-8&keywords=mosfet+k%C3%BChler

auf die spannungswandler einer referenz rx 480?


wenn das teil passt, überlege ich mir einen accelero mono plus darauf zu bauen, diese warterei seit über zwei wochen auf custom rx 480 karten nervt langsam.:frown:
Jep, ich wollte eigentlich auch auf die Nitro warten. Ich hoffe dass wir in den nächsten Wochen schöne Drittanbieter Kühler sehen werden. Dann wird gemodded. ;)

Frosty
2016-07-14, 20:21:10
Mythos;11101945']Jep, ich wollte eigentlich auch auf die Nitro warten. Ich hoffe dass wir in den nächsten Wochen schöne Drittanbieter Kühler sehen werden. Dann wird gemodded. ;)


wie gesagt, ich muss wissen ob der verlinkte spannungswandlerkühler auf die wandler der rx 480 referenzplatine passt.

ist das der fall?

Ph0b0ss
2016-07-14, 20:24:52
1,5V. :freak:

Skaliert doch sauber mit der Spannung.:D

Loeschzwerg
2016-07-14, 20:45:38
Also bei mir spinnt der WattMan :freak: Takt wird übernommen. Spannung zumindest augenscheinlich im WattMan, aber effektiv ändert sich nichts... (muss ich mir morgen genauer anschauen)

Afterburner o.ä. was mit RX 480 umgehen kann gibt es noch nicht, oder?

[MK2]Mythos
2016-07-14, 20:56:51
Also bei mir spinnt der WattMan :freak: Takt wird übernommen. Spannung zumindest augenscheinlich im WattMan, aber effektiv ändert sich nichts... (muss ich mir morgen genauer anschauen)

Afterburner o.ä. was mit RX 480 umgehen kann gibt es noch nicht, oder?
Dachte ich anfangs auch, aber GPU-Z braucht immer ein paar Anläufe bis die Spannung korrekt angezeigt wird.
Ich habe jetzt übrigens eine Stunde Doom@Vulkan bei 1 Ghz mit 970mV völlig problemlos gezockt.

Loeschzwerg
2016-07-14, 20:59:11
Ich habe bei 1GHz 800mV angelegt und mein System läuft prima :freak: (Doom, FireStrike, Valley...) Ne, da kann was nicht stimmen ^^

[MK2]Mythos
2016-07-14, 21:02:29
Was zeigt dir GPU-Z denn dann für ein Power Draw an?

Loeschzwerg
2016-07-14, 21:06:51
Da ändert sich nichts, es werden einfach die Spannungen nicht in HW übernommen. Ich lass morgen mal den DDU laufen, deinstalliere den Afterburner und dann den Treiber neu.

Nervt mich irgendwie schon wieder... WattMan stürzt auch bei jedem zweiten start/öffnen ab.

[MK2]Mythos
2016-07-14, 21:10:46
Scheint wirklich an Wattman zu liegen, ich hab gerade resettet und nun scheint die Spannung bei mir auch bei Standard festzuhängen, die GPU Power Draw liegt nun auch wieder bei 93 - 100 Watt.
Edit:
Wattman resetten und dann einstellen löst das Problem bei mir mehr oder weniger. Die per GPU-z ausgelesene Spannung ist immer noch deutlich höher als die eingestellte.
Mein GPU Power Draw liegt jetzt aber bei 77 Watt@1,1 Ghz und eingestellten 900mV (985mV ausgelesen per GPU-z).
Standard sind bei mir übrigens bei State 3 1075 Mhz@862mV und bei State 4 1145 Mhz@918mV

Loeschzwerg
2016-07-14, 21:19:07
Damn... ich hatte die Hoffnung es liegt nur an meinem System, aber so deutet alles schon wieder auf mistige Software hin :(

Disco_STFU
2016-07-14, 21:24:00
Hieß es nichtmal, dass man die Spannung vom RAM von Auto auf Manuell stellen muss damit das funzt? :freak:

[MK2]Mythos
2016-07-14, 21:29:06
Keine Ahnung, das macht bei mir kein Unterschied.

TarantulaENERGY
2016-07-14, 21:30:25
@[MK2]Mythos - Danke! Hab's gefunden. Wieder was gelernt.

GPU-Z Experience +1

Nervt mich irgendwie schon wieder... WattMan stürzt auch bei jedem zweiten start/öffnen ab.

Passiert bei mir auch, ABER nur wenn GPU-Z geöffnet ist/war.

Tests mit festgesetztem 1GHz GPU Takt und min. vCore hab ich noch nicht gemacht, aber @1266Mhz und min. vCore (1025mV). Lief die letzten beiden Tage stabil. Speicher Takt hochdrehen geht auch super, aber da wird die Karte echt durstig, bleibt aber ebenfalls stabil.

Loeschzwerg
2016-07-14, 21:33:52
Hieß es nichtmal, dass man die Spannung vom RAM von Auto auf Manuell stellen muss damit das funzt? :freak:

Hatte ich auch schon getestet :(

@TarantulaENERGY: Stimmt, die Abstürze liegen an GPU-Z. Danke für den Hinweis.

bison
2016-07-14, 21:37:41
Vielleicht ists ja von Interesse: Hatte letztes Wochenende Glück, als per ebay nochmal bei mindfactory-city eine powercolor 4gb für 219 aufgetaucht ist. Ehe ichs hier melden konnte, war sie natürlich auch wieder ausverkauft. Hab danach aber nochmal auf geizhals kurzzeitig was aufblinken sehen...
Anyway: Habe das bios der 8gb einfach auf gut Glück flashen wollen und mir damit das bios erstmal zerschossen. Erst über zweite pcie (alte nvidia) und nach mehrern windows-boot-problemen konnte ich sie über atiwinflahs wieder mit orginalbios herstellen und dann in einem zweiten Versuch auch aufs 8gb-bios flashen. Wieso es beim ersten Mal nicht geklappt hat, weiß ich nicht.
Der zwischenzeitig gestartete Versuch über freedos per usb und atiflash klappte nicht - da wurde die karte nicht erkannt. Vermutlich fehlt da polaris-Unterstützung?

[MK2]Mythos
2016-07-14, 21:40:28
Also wenn ich mir die Spannungen so angucke, so sieht es wirklich so aus, als ob der Sweetspot irgendwo bei 1 Ghz bis 1,1 Ghz gewesen wäre mit einem - ins blaue geschossen - vermuteten Verbrauch von 120 Watt, mit 75 Watt für die eigentliche GPU.
In dem Bereich agiert der Lüfter auch wirklich sehr sehr leise.
Power State 1 - 3 sind Standard.

2Ms
2016-07-15, 00:21:11
Nervt mich irgendwie schon wieder... WattMan stürzt auch bei jedem zweiten start/öffnen ab.

Bei jedem 1. Start. Beim zweiten Anlauf öffnet sich dann.

@[MK2]Mythos, die Spannung hattest du nicht verändert ? Die steht ja auf Standard 0,98 V laut GPU-Z.

-/\-CruNcher-/\-
2016-07-15, 00:32:33
Naja... wenn ich mich nicht gerade vertan habe sind bisher vier LL-Titel mit AC erschienen. Weitere zwei (Dishonored 2 + Civilization 6) sind bereits angekündigt. Beim neuen Battlefield 1 würde es mich auch schwer verwundern wenn DICE kein AC verwenden würde.

Ich sehe das absolut genauso wie Screemer... gerade im Lowend, Mainstream und Performancesegment ist AC besonders wichtig.

Überall dort wo die Latenz innerhalb verschiedener Compute Workloads pro Frame stabill gehalten werden muss ist es sinvoll dort wird der Verbrauch dann das Experience abseits von Balken vor allem bei VR wie gesagt es sind verschiedene Ansätze der Last Verteilung und Final Latenzen die bei Nvidia immer direkt auf die Shader selbst gehen während sie bei AMD inteligent zwischen ACEs, Shader und Fixed Function verteilt werden und insgesammt das System entlasten Driver Overhead (CPU).

Mainstream und Performance erdrückt die Compute last dann irgendwann Latenz Probleme sind die Folge, aufrüsten wird forciert.

Bei AMD brauch man sich darüber weniger gedanken machen durch die ACE Verlagerung was aber eben den Verbrauch steigert hier wird dann anders Kompensiert allerdings wird man irgendwann nicht mehr kompensieren können, dann wird das ganze System selbst die Kompensation ;)

Mainstream ist so gesehen noch nicht optimal in Balance ohne weitere kompensierende Faktoren, die aber höhere Kosten nach sich gezogen hätten.

Reviewer müssen anfangen die Systeme so billig wie möglich auszulegen dann wird es sichtbar ;)

Der Witz an der Sache gerade Nvidia hätte mit ihrer ARM Platform mächtig Vorteile daraus.

Ein schöner test wäre das Latenzverhalten in einem Video Streaming Szenario zwischen Nvidia und AMD während Compute und 3D in relation zum Verbrauch :)

Das ist heute seit Twitch und Co auch ein real existierendes System Usecase Szenario wird aber in Reviews noch keine wirkliche Beachtung geschenkt ;)

2Ms
2016-07-15, 00:36:44
Überall dort wo die Latenz innerhalb verschiedener Compute Workloads pro Frame stabill gehalten werden muss ist es sinvoll dort wird der Verbrauch dann das Experience abseits von Balken vor allem bei VR wies gesagt verschiedene ansätze der Last Verteilung und Final Latenzen bei Nvidia geht es immer direkt auf die Shader selbst.

Mainstream und Performance erdrückt die Compute last dann irgendwann Latenz Probleme sind die Folge.
Ohne Punkt und Komma geschrieben, habe ich arge Probleme, deine Beiträge zu verstehen.

captain_drink
2016-07-15, 01:03:38
Ohne Punkt und Komma geschrieben, habe ich arge Probleme, deine Beiträge zu verstehen.

Daran dürfte sich auch mit Punkt und Komma nichts ändern.

-/\-CruNcher-/\-
2016-07-15, 02:47:29
Aber es geht ja nicht nur direkt um Blu ray, wenn man daheim HD-Material rein zieht, z.B über eine TV-Karte ist das auch scheiße. Eines der Hauptkriterien bei mir. Und umso ärgerlicher das AMD da seit Ewigkeiten sich nicht mal etwas bemüht.

Du musst hier allerdings die Anwendungsszenarios explizit unterscheiden du kannst nicht davon ausgehen das der Verbrauch in einem Blu-Ray Review gleich diesem Verbrauch entspricht da spielen noch andere dinge eine Rolle ;)
Das ist eben teils sehr irreführend innerhalb dieser Reviews.

Viel interessanter ist ob AMD Broadcasting Bitstreams nun besser unter Kontrolle hat früher war das in UVD eine totale Katastrophe und einer der Gründe wieso ich überhaupt zu Nvidia gewechselt bin nach reiflichen tests und vergeblicher Anstrengung AMD diesbezüglich auch zu erreichen was bei Nvidia dann absolut kein Problem war und es feedback nur so rasselte was letztendlich die VPX stabilität immer weiter erhöhte ;)

Wenn das auch eines deiner Haupttargets Effizienztechnisch ist solltes du vielleicht auch eine komplette neuausrichtung in betracht ziehen allerdings könnte das erstmal wieder höhere kosten verursachen.

PS: Suche immernoch einen Everybody's Gone to the Rapture RX480 test ;)

Sehr interessant und sehr überraschend nach Digitalfoundry ihren Daten diesbezüglich

lnzI-LR9-cs

Bm5ZCJah-FY


Vor allem wüsste ich jetzt nicht das dieser change im Treiber Changelog Nvidias dokumentiert wäre.

Wohl eher Patch seitens DICE hmm sehr strange.


Scheinbar frist der Nvidia Treiber bzw das Engine Streaming hier bei BO3 Extra Texture mehr CPU Cycles und die RX480 ist hier unter DX11 wohl das erste mal überhaupt effizienter :D

AOACge8JhNo

uweskw
2016-07-15, 07:22:56
Gibt es schon was Konkretes, wo die Customs bleiben?
Es ist noch nicht mal was gelistet bei Geizhals.

greetz
US

(del)
2016-07-15, 07:33:11
Sapphire hat zumindest schon einmal Nitro-Werbung verschickt. So mit "coming soon" und so :)

gogetta5
2016-07-15, 09:01:31
Lt. CB sollen erst Ende des Monats (27.07.) welche kommen .. in Korea.
Was das auf unseren Markt schließen lässt - kein Plan :freak:

https://www.computerbase.de/2016-07/radeon-rx-480-bilder-partnerkarten/

[MK2]Mythos
2016-07-15, 09:11:46
Ein bißchen Offtopic, aber kennt jemand eine Übersicht über die Lochabstände vom Kühler/PCB der letzten AMD Grafikkarten?
Edit: @2Ms Wie bereits geschildert, liest GPU-z die Spannung entweder nicht korrekt, oder immer ein bißchen zu hoch aus, unter den angezeigten Wert von 0,98 Volt komme ich laut GPU-z nicht, egal was ich für eine Spannung im Wattman eintrage. Standard sind ja wie bereits geschrieben 1043 mV im letzten Powerstate, wobei mir GPU-z dann 11xx mV anzeigt.

Dino-Fossil
2016-07-15, 11:24:28
Das könnte ein paar hier interessieren:

http://i.imgur.com/p791SpM.png?1

dildo4u
2016-07-15, 11:27:28
Also kommen die Custom 480 und 1060 zur selben Zeit,naja zumindest dürfte das die Preise drücken.

Raff
2016-07-15, 11:31:55
Exakt. Kommende Woche wird spannend für Rote und Grüne. :)

MfG,
Raff

Linmoum
2016-07-15, 11:36:55
Ich will eigentlich nur 'ne Toxic von Sapphire :P

Raff
2016-07-15, 11:38:57
Und ich will ne Vega- oder Big-Pascal-Karte. Dein Wunsch ist realistischer, sofern das im Juli/August sein soll. :biggrin:

MfG,
Raff

Loeschzwerg
2016-07-15, 11:42:52
Hey Raff, hattest du während deiner Testerei auch Probleme mit dem WattMan?

Linmoum
2016-07-15, 12:03:26
Und ich will ne Vega- oder Big-Pascal-Karte. Dein Wunsch ist realistischer, sofern das im Juli/August sein soll. :biggrin:

MfG,
Raff
Eigentlich sollte das dann schon in den nächsten 2-3 Wochen der Fall sein, ansonsten können sie die behalten und ich warte direkt auf Vega. :tongue:

So eilig hab ich's ja nun auch nicht. Kribbelt mir aber halt auch ein bisschen in den Fingern, mal wieder rumzubasteln. :D

Grendizer
2016-07-15, 12:04:13
Exakt. Kommende Woche wird spannend für Rote und Grüne. :)

MfG,
Raff

Ich freue mich auf die Battles :biggrin:

-/\-CruNcher-/\-
2016-07-15, 12:13:37
Also kommen die Custom 480 und 1060 zur selben Zeit,naja zumindest dürfte das die Preise drücken.

Jepa hoffen wir mal :)

(del)
2016-07-15, 12:48:00
Wattman ist die Pest. So oft wie das Ding bei mir schon abgekackt ist...

Wenn Crimson sich wenigstens mal die letzte Fenstergröße merken würde... Jedes Mal nach dem Neuaufruf bekommt man wieder so eine winzige Briefmarkenansicht, die ja nun wirklich nicht mehr zeitgemäß ist. Außerdem total verschachtelt und teilweise auch unlogisch gegliedert.

Raff
2016-07-15, 12:51:56
Ich kann bestätigen, dass das Ding oft abstürzt, die Spannungen wurden auf meinen Testkisten aber bisher übernommen.

MfG,
Raff

[MK2]Mythos
2016-07-15, 13:08:43
Womit hast du die Spannungen denn anschließend überprüft? Und waren die Werte da exakt die selben wie im Wattman eingestellt?

Sunrise
2016-07-15, 16:26:19
Ich will eigentlich nur 'ne Toxic von Sapphire :P
Einfach diese Threads/Links beobachten:
https://forums.overclockers.co.uk/showthread.php?t=18738486
https://www.overclockers.co.uk/pc-components/graphics-cards/amd/radeon-rx-480

Hat zwar für Deutschland nur begrenze Aussagekraft, aber Gibbo bei OcUK bestellt sowieso immer wie ein Wahnsinniger, der bekommt wohl auch als erster die Sapphire Nitro rein (2000 Stk. sind bestellt, laut seiner Aussage). Von einer Toxic wissen wir ja noch nichts, evtl. meintest du ja die Nitro. :D

Auch interessant (RX480 mit 1,530 GHz Takt):
http://www.3dmark.com/spy/16288

Linmoum
2016-07-15, 16:52:50
Von einer Toxic wissen wir ja noch nichts, evtl. meintest du ja die Nitro. :D
Nein, meine schon die Toxic. Sapphire Ed hatte vor ein paar Wochen während eines Livestreams sinngemäß etwas wie "Toxic is not dead" gesagt. Deswegen meine Hoffnung, dass da eine kommt. :tongue:

(del)
2016-07-15, 17:30:56
Nein, meine schon die Toxic. Sapphire Ed hatte vor ein paar Wochen während eines Livestreams sinngemäß etwas wie "Toxic is not dead" gesagt. Deswegen meine Hoffnung, dass da eine kommt. :tongue:

So schnell sicher nicht... Wohl eher später für die richtig großen Karten, die werden's auch sicher brauchen. Aktuell wirft Sapphire diesen Willi hier in den Raum:

https://scontent.xx.fbcdn.net/t31.0-8/13662230_1276484199052908_8715543734329219041_o.jpg

dildo4u
2016-07-15, 18:23:18
Die 480 Strix soll Mitte August kommen.

http://videocardz.com/62280/asus-rog-announces-strix-radeon-rx-480-available-mid-august

Hübie
2016-07-15, 18:32:39
Toxic zeichnete sich bisher doch durch Vapor Chamber und doppelten Speicher aus oder? :|

dargo
2016-07-15, 18:39:52
Die 480 Strix soll Mitte August kommen.

http://videocardz.com/62280/asus-rog-announces-strix-radeon-rx-480-available-mid-august
19% schneller als die Referenz in Doom? Damit ist die 1070 Referenz geknackt... nett. :)

[MK2]Mythos
2016-07-15, 18:49:09
Das hieße ja, dass die Karte bei guten 1,5 Ghz landen würde wenn man von den standardmäßigen 1,266 Ghz Boost Takt ausgeht. Kommt mir schon sehr viel vor. Meine Karte macht irgendwo zwischen 1410 und 1430 Mhz dicht bei 1,1 Volt. Eine weitere Spannungserhöhung bringt bei mir nichts.
Edit: Blödsinn, steht ja da: 1330 Mhz. Dann scheinen die das einfach über den Speicher zu machen.

(del)
2016-07-15, 18:53:51
19% schneller als die Referenz in Doom? Damit ist die 1070 Referenz geknackt... nett. :)

Mit gerade mal 8 Prozent mehr Takt unter Last als die Referenz "19%-faster gaming performance in Hitman™ and Doom®" zu erreichen - DAS nenne ich mal eine mathematisch exkate Aussage zur Belegung the Perpetuum Mobiles. :D
Übrigens hat die PR das "schneller als was genau" weggelassen. Klar ist die Karte 20% schneller als eine 380X :D

dargo
2016-07-15, 18:58:06
Mythos;11102963']Das hieße ja, dass die Karte bei guten 1,5 Ghz landen würde wenn man von den standardmäßigen 1,266 Ghz Boost Takt ausgeht.
Eine Referenz RX480 hält praktisch nie die 1266Mhz ohne zu undervolten. Ich habs jetzt mal nachgerechnet. Asus geht wohl davon aus, dass in Hitman und Doom die Referenz RX480 mit nur 1120Mhz läuft, was nicht ganz hinkommt. Da passen die +19% ausgehend von 1330Mhz wie Faust aufs Auge. Marketing on the best von Asus. :D

[MK2]Mythos
2016-07-15, 19:04:20
Ich weigere mich zu glauben dass ich ein ganz ganz besonders tolles Modell erwischt habe. Aber meine Karte hält bisher bei jedem Spiel und über die gesamte Spieldauer die 1266Mhz bei standardmäßigen 1043 mV.
Das Problem ist wohl einfach, dass es keine "Standardspannung" mehr gibt.
Vielleicht sollten wir mal eine Umfrage starten wie hoch die Spannungen bei den RX480 Besitzern sind.

dargo
2016-07-15, 19:08:12
Mythos;11102978']Ich weigere mich zu glauben dass ich ein ganz ganz besonders tolles Modell erwischt habe. Aber meine Karte hält bisher bei jedem Spiel und über die gesamte Spieldauer die 1266Mhz bei standardmäßigen 1043 mV.

Umso besser denn dann läuft deine Karte kaum bis gar nicht ins PT-Limit. Das würde bedeuten, dass die OC-Customs noch durchaus im Bereich von 170-180W landen könnten wenn die Hersteller es nicht mit der Spannung übertreiben. Wir werden es bald erfahren.

Edit:
Bei dir liegen aber echt nur 1043mV mit 1266Mhz an? Ich dachte immer es wären 1150mV. Das ist schon ein riesen Unterschied.

Loeschzwerg
2016-07-15, 19:12:14
Bezüglich WattMan: Im höchsten PState scheint es eine Spannungsgrenze (GPU-Z 0,9850V) zu geben welche nicht unterschritten werden darf bzw. die Karte übernimmt dann den Wert nicht. Daher lässt sich bei 1 GHz auch nicht das Minimum ausloten...

Mit WattMan werde ich irgendwie nicht warm, da muss viel zu viel gescrollt werden.

---

UV scheint bei meiner Karte bis 1055mV zu funktionieren (zumindest nach den ersten Tests), ab 1050mV gibt es gelegentlich Grafikfehler.

Complicated
2016-07-15, 19:16:18
Bei der Asus Strix finde ich vor allem die beide 4-pin-Header für Systemlüfter sehr interessant. Bei den heutigen CPU-TDPs finde ich es gut die GPU als Referenz für die Gehäuselüfter zu nutzen.

fondness
2016-07-15, 19:18:04
Toxic zeichnete sich bisher doch durch Vapor Chamber und doppelten Speicher aus oder? :|

Toxic stand ursprünglich mal für die schnellste Karte, die man für Geld kaufen konnte. Das war damals eine 7970@1,2Ghz/1,6Ghz default mit 6GB VRAM.

dargo
2016-07-15, 19:20:22
Bei der Asus Strix finde ich vor allem die beide 4-pin-Header für Systemlüfter sehr interessant. Bei den heutigen CPU-TDPs finde ich es gut die GPU als Referenz für die Gehäuselüfter zu nutzen.
Mit Speedfan lassen sich die Gehäuselüfter auch nach der GPU-Temp. wunderbar steuern. :)

(del)
2016-07-15, 19:32:09
Mit Speedfan lassen sich die Gehäuselüfter auch nach der GPU-Temp. wunderbar steuern. :)Ja, nur kann man sich bei direkter Ansteuerung die ganze Frickelware sparen :)

dargo
2016-07-15, 19:40:03
Was heißt hier Frickelware? Einmal eingestellt passt es. Findest du es etwa besser wenn Asus die Geschwindigkeit deiner einzelnen Gehäuselüfter vorgibt? Ich bin da lieber mit eigenen Profilen unterwegs. ;) Und ob ich in einem Asus Tool (sollte es ein entsprechendes geben) meine Profile konfiguriere oder in Speedfan ist Jacke wie Hose. Wobei ich meine Gehäuselüfter nicht nur abhängig von der GPU-Temp. sondern auch CPU-Temp. alleine mit Speedfan steuere. Somit erspare ich mir ein "Frickeltool" von Asus. ;)

(del)
2016-07-15, 19:43:38
Was heißt hier Frickelware? Einmal eingestellt passt es. Findest du es etwa besser wenn Asus die Geschwindigkeit deiner einzelnen Gehäuselüfter vorgibt? Ich bin da lieber mit eigenen Profilen unterwegs. ;)Jede Software, die hintenrum im System mitläuft, ist mir suspekt. Diese ganzen Sensorloops sind meist unnötig. Man muss das Asus Feature ja nicht nutzen, aber die meisten RX 480 Käufer haben sicher eher Hasenställe mit einem oder zwei Lüftern. Das trifft nicht alle, aber wenn ich so sehe, was in den Shops von den Kunden so bestellt wird... Gespart wird immer am Gehäuse und am Netzteil.

dargo
2016-07-15, 19:57:17
Man muss das Asus Feature ja nicht nutzen, aber die meisten RX 480 Käufer haben sicher eher Hasenställe mit einem oder zwei Lüftern. Das trifft nicht alle, aber wenn ich so sehe, was in den Shops von den Kunden so bestellt wird... Gespart wird immer am Gehäuse und am Netzteil.
Da möchte ich dir keineswegs widersprechen. Ich möchte eher die volle Kontrolle über jeden einzelnen Lüfter haben, bin halt die Ausnahme.

Complicated
2016-07-15, 20:23:31
Mich würde viel mehr interessieren ob mit einem passiven Kühler auf der GPU die zwei Systemfans gesteuert von der GPU im Gehäuse ausreichen würden für eine RX480 in meinem Lian Li PC-B25FB. Und wenn nicht wie weit man runter volten/takten müsste dafür.

Speedfan ist frickelware, da geb ich Format_C recht. Auch wenn ich es als tool gerne mal benutzte würde halte ich die Lüftersteurung lieber so nahe an der Hardware wie nur möglich. BIOS/UEFI und/oder Lüftersteuerung im Gehäuse sind meine erste Wahl.

dargo
2016-07-15, 20:40:26
Bios/UEFI ist imho zu simpel gestrickt. Zudem fehlt da Hysterese, zumindest bei den günstigeren Brettern. Keine Ahnung wie es bei den Teuren ist. Externe Lüftersteuerung finde ich wiederum überflüssig wenn ich für Lau alles über Software machen kann. Zumal man diese simplen manuellen Steuerungen die es so beim Gehäuse gibt eh vergessen kann. Gut... für den 08/15 Hans wirds dann wahrscheinlich reichen.

Schnoesel
2016-07-15, 20:46:44
Toxic stand ursprünglich mal für die schnellste Karte, die man für Geld kaufen konnte. Das war damals eine 7970@1,2Ghz/1,6Ghz default mit 6GB VRAM.

Die sollen lieber mal wieder die Atomic Reihe mit Vega und Wakü auferstehen lassen :cool:

Complicated
2016-07-15, 21:02:58
Bios/UEFI ist imho zu simpel gestrickt. Zudem fehlt da Hysterese, zumindest bei den günstigeren Brettern.

Wenn CPU und GPU semipassiv betrieben werden sollen ist die Hysterese wenig von nutzen. Es geht um möglichst konstante Lüftergeschwindigkeit der Gehäuselüfter und dabei so leise wie möglich. Dort braucht es keine zwei verschiedene Ein- und Ausschaltlimits. Vielleicht eher darum einen zweiten Lüfter zuzuschalten :)
Mit den beiden 4-Pin PWMs kann man sozusagen 2 Semipassive Bertriebszustände definieren für 2D und 3D.

TarantulaENERGY
2016-07-15, 22:10:04
Mythos;11102978']Ich weigere mich zu glauben dass ich ein ganz ganz besonders tolles Modell erwischt habe. Aber meine Karte hält bisher bei jedem Spiel und über die gesamte Spieldauer die 1266Mhz bei standardmäßigen 1043 mV.

Das ist schon realistisch. PT +10% reicht bei mir auch, um wirklich immer mit vollen 1266MHz unterwegs zu sein bei 1025mV. Meine aktuelle Testreferenz ist der Valley Benchmark. Alles Andere (3D Mark, GPU-Z, Hitman, etc) lässt mir mehr Spielraum beim beim Absenken der Spannung, oder Erhöhung des Takts, ohne dass es zu (Grafik-)Fehlern kommt.

Falls es jemanden interessiert - Da liegt das Maximum was ich bis jetzt aus der Karte bekommen habe:

http://www.3dmark.com/fs/9302391

edit:

Noch eine Info für Bastler: Der Raijintek Morpheus (1) passt nicht auf die Karte, da eine der Heatpipes mit den SFCs kollidiert. Die Lochabstände vom PCB sahen auf den ersten Blick identisch zur R9 290 aus. Der Morpheus 2 hat an den Heatpipes minimale Änderung erfahren und könnte evtl.passen. Leider kann man es ja momentan nicht testen, da der Kühler nirgends lieferbar ist. :motz:

Gruß,
Manuel

Schnoesel
2016-07-15, 22:10:57
War das schon?

https://www.youtube.com/watch?time_continue=443&v=85-WNE_owyY

Battlefield 1 Performance mit ner RX 480

inspectah
2016-07-15, 22:33:21
Mythos;11102978']Ich weigere mich zu glauben dass ich ein ganz ganz besonders tolles Modell erwischt habe. Aber meine Karte hält bisher bei jedem Spiel und über die gesamte Spieldauer die 1266Mhz bei standardmäßigen 1043 mV.
Ich habe bis jetzt nur Doom und GTA V auf maximalen Einstellungen getestet, aber dort hält meine auch den Boosttakt.
In Firestrike taktet sie dann jedoch runter.
(Alles @Stock).

[MK2]Mythos
2016-07-15, 22:44:22
Was hast du denn für eine Spannung im Powerstate?

gedi
2016-07-16, 02:55:09
Unlocked VBios: http://overclocking.guide/download/amd-radeon-rx-480-unlocked-air-bios/

dargo
2016-07-16, 08:30:48
War das schon?

https://www.youtube.com/watch?time_continue=443&v=85-WNE_owyY

Battlefield 1 Performance mit ner RX 480
Ist noch DX11. :) Afaik hat die Closed Beta Alpha noch kein DX12/Vulkan. DICE testet was besser ist.

MikePayne
2016-07-16, 08:38:24
Mythos;11102978']Ich weigere mich zu glauben dass ich ein ganz ganz besonders tolles Modell erwischt habe. Aber meine Karte hält bisher bei jedem Spiel und über die gesamte Spieldauer die 1266Mhz bei standardmäßigen 1043 mV.
Das Problem ist wohl einfach, dass es keine "Standardspannung" mehr gibt.
Vielleicht sollten wir mal eine Umfrage starten wie hoch die Spannungen bei den RX480 Besitzern sind.


So wie ich Dir per PN vorgeschlagen habe, es müsste bei Dir auch mit weniger mV gehen (so ca. 1025-1030mV)

Mythos;11102978']
Vielleicht sollten wir mal eine Umfrage starten wie hoch die Spannungen bei den RX480 Besitzern sind.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=574660 <- dann lasst mal vergleichen, wird ja genug RX 480 User geben :)


UV scheint bei meiner Karte bis 1055mV zu funktionieren (zumindest nach den ersten Tests), ab 1050mV gibt es gelegentlich Grafikfehler.

As expected (70% ASIC)...

Frosty
2016-07-16, 09:41:45
lohnt es sich jetzt noch eine referenz rx 480 zu kaufen, oder kommen nächste woche "schon" die custom designs?:ucoffee:

Schlammsau
2016-07-16, 10:55:47
Sorry falls schon mal gefragt, aber welchen Karten liegt jetzt ein HDMI 2 DVI oder DP 2 DVI Dongle bei. Die HIS und Xfx scheinen ja einen beiligen zu haben.

[MK2]Mythos
2016-07-16, 11:36:54
Bei der Powercolor liegt nichts bei.
Und ob es sich "lohnt" jetzt eine RX480 zu kaufen... Wenn du eine Karte hast mit der du noch ein paar Wochen arbeiten kannst, würde ich warten, wenn du aber, so wie ich, dein SLI Gespann schon verscherbelt hast, dann nicht. ;)
Und dass nächste Woche die Customs kommen, glaub ich nicht. Ich denke beim Käufer werden die erst in der ersten August Woche ankommen.

Schlammsau
2016-07-16, 11:39:55
Ich hab Zeit aber die Exhaust Kühlung finde ich schon sehr ansprechend. Ich will das die warme Luft gleich aus dem Gehäuse gezogen wird. Deswegen tendiere ich eher zu Referenzdesign....

Argo Zero
2016-07-16, 12:40:39
Wurde das schon gepostet?
http://rog.asus.com/23922016/gaming-graphics-cards-2/asus-republic-of-gamers-announces-strix-rx-480/

100% der GPU Power wird vom Stromkabel gezogen. Release aber erst August :(

dargo
2016-07-16, 12:44:26
Soviel zum Thema die Partner dürfen die Stromversorgung nicht ändern @dildo. ;)

btw.
Heißt das nur der Speicher wird über den PCIe versorgt?

Release aber erst August :(
Sind doch bloß noch 4 Wochen. :)

dildo4u
2016-07-16, 12:48:58
Ich hab mich gefragt ob wie es können Antwort ja dafür verzögert sich die Auslieferung bis dahin hat die 1060 schon alles abgegrast.

Thunder99
2016-07-16, 12:51:34
Glaube ich erst wenn die Karte da ist

Complicated
2016-07-16, 12:53:41
Ich sage die Sapphire Custom kommt mit Launch der GTX1060 fast zeitgleich im Kampf um die Presseschlagzeilen. Sapphire hat hier einen Sonderstatus bei AMD. Die anderen Customs werden sich auch Stück für Stück aneinanderreihen um die Presse mit immer anderen Performance und Verbrauchszahlen zu bedienen...
Und die GTX 1060 kann nicht abgrasen wo die RX480 schon billiger zu haben ist.

Linmoum
2016-07-16, 12:59:12
Ich hab mich gefragt ob wie es können Antwort ja dafür verzögert sich die Auslieferung bis dahin hat die 1060 schon alles abgegrast.
Du kennst schon die Verfügbarkeit der 1060? Interessant.

inspectah
2016-07-16, 12:59:57
Mythos;11103214']Was hast du denn für eine Spannung im Powerstate?
Stockspannung war ziemlich hoch 1150 mV @State7.

Habe sie jetzt stabil undervolted bei 1266 Mhz @1060 mV, ~70°C @2500 RPM in Firestrike.
Hab schon niedrigere Werte für den Chip gesehen, aber bin voll zufrieden.

Jetzt mal sehen wie weit ich hoch gehen kann bei max. 1100 mV.

Eine wirklich schöne Karte, hatte noch nie eine Referenz, aber dass die heiße Luft direkt abgeführt wird gefällt mir sehr gut, meine CPU dankt es mir bereits mit ein paar Grad niedrigeren Temps unter Last.

Leider gibt der Lüfter auch bei niedriger Drehzahl einen unangenhemen, hochfrequenten Ton von sich, das ist mein einziger Kritikpunkt, aber der stört schon etwas.

Nächste Woche habe ich noch Zeit, dann muss ich mich entscheiden ob sie zurückgeht.
Ich hoffe bis dahin weiß man mehr über die Partnerkarten.

dargo
2016-07-16, 13:00:08
Ich sage die Sapphire Custom kommt mit Launch der GTX1060 fast zeitgleich im Kampf um die Presseschlagzeilen. Sapphire hat hier einen Sonderstatus bei AMD.
Kommt da von Sapphire nur eine OC Variante oder auch non OC mit Custom Kühler? Ich bin gespannt ob man den Stromverbrauch noch Richtung ~150W drücken können wird. Ich meine mit zwei großen Lüftern und entsprechender Kühlfläche sollten ~15°C weniger GPU.Temp locker drin sein.

Argo Zero
2016-07-16, 13:07:02
Sapphire Nitro kommt auch mit einem Custom-Kühler.
Der hat sogar austauschbare Lüfter, weil die wohl nicht lange halten (scnr) :D

Edit: Was mir bei der Asus gerade auffällt. Dort spricht man von "connectors". Soll das etwa ein overclocking-Monster sein mit 2 PCIe Stromanschlüssen? :O

iuno
2016-07-16, 13:07:44
Bezüglich WattMan: Im höchsten PState scheint es eine Spannungsgrenze (GPU-Z 0,9850V) zu geben welche nicht unterschritten werden darf bzw. die Karte übernimmt dann den Wert nicht. Daher lässt sich bei 1 GHz auch nicht das Minimum ausloten...
Schade, aber danke fuer die Muehen :up:

dargo
2016-07-16, 13:08:47
Sapphire Nitro kommt auch mit einem Custom-Kühler.

Schon klar. ;) Das war aber nicht die Frage. Die Frage ist ob es eine Nitro auch ohne OC geben wird? Die OC-Karten werden alle eine etwas höhere TDP brauchen wenn der maximale Boosttakt gehalten werden soll.

@iuno
Das könnte dich eventuell interessieren.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11103775&postcount=20

Wobei [MK2]Mythos schon ein besonders gutes Exemplar erwischt hat.

Complicated
2016-07-16, 13:09:14
Ich denke der Stromverbrauch wird nicht unbedingt kleiner werden, aber die Leistung wird höher und AMD wird versuchen Nvidias Verfügbarkeit bloss zu stellen..
Sprich viele vorproduzierte und vielleicht auch selektierte Chips, die eben einen höheren Preispunkt rechtfertigen für die Customs...Nvidia platziert die FEs ja über den Customs...AMD andersherum. Ich glaube auch nicht dass jetzt noch die Spannungen so hoch gesetzt werden. Wir sollten uns eher an den undervolteten Tests orientieren.

Edit:
Siehe auch den Beitrag von Löschzwerg eben.

dargo
2016-07-16, 13:16:33
Ich denke der Stromverbrauch wird nicht unbedingt kleiner werden, aber die Leistung wird höher und AMD wird versuchen Nvidias Verfügbarkeit bloss zu stellen..
Sprich viele vorproduzierte und vielleicht auch selektierte Chips, die eben einen höheren Preispunkt rechtfertigen für die Customs...Nvidia platziert die FEs ja über den Customs...AMD andersherum.
Den Blödsinn mit der FE wird es auch bei der 1060 geben? :eek: Lol...

DarknessFalls
2016-07-16, 13:25:34
Den Blödsinn mit der FE wird es auch bei der 1060 geben? :eek: Lol...

...der Unterschied ist wohl nur, dass sie gleichzeitig mit den Customs erscheint und nur bei nV zu beziehen ist. Kauft niemand, schätze ich.

decimad2
2016-07-16, 13:41:02
Wenn ich hier schon wieder von der Rücksendemoral lese... Manche Leute sollten geflagt werden, dass sie nur noch Rückläufer kaufen können.

deLuxX`
2016-07-16, 15:16:06
Wenn ich hier schon wieder von der Rücksendemoral lese... Manche Leute sollten geflagt werden, dass sie nur noch Rückläufer kaufen können.
ACK. Schweinepriester...

[MK2]Mythos
2016-07-16, 15:31:35
Wenn ich hier schon wieder von der Rücksendemoral lese... Manche Leute sollten geflagt werden, dass sie nur noch Rückläufer kaufen können.
Warum? Wenn einem vorallem das Leerlaufgeräusch zu sehr auf die Nerven geht? Ich kann die Überlegung verstehen, werde mich aber sehr wahrscheinlich für einen Kühlerumbau entscheiden. Fakt ist, dass die Karte mit Referenzkühler kaum erträglich ist. Ich habe eine 100 qm² Wohnung und höre die Karte überall wenn der Rechner im Leerlauf ist.
Die Fernabsatzregelung sieht genau sowas vor und ich habe z.B. extra 5 Eur mehr bezahlt um die Karte ohne wenn und aber gegen Bares tauschen zu können.

decimad2
2016-07-16, 15:38:13
In diesem Fall entscheidet man sich sofort und macht es nicht davon abhängig ob nächste Woche Customs kommen und daddelt und clocked solange damit rum, als Zeitüberbrückung. Von diesem Leerlaufgeräusch habe ich in keinem Test gelesen, vielleicht ein Mangelexemplar?

[MK2]Mythos
2016-07-16, 16:14:59
In diesem Fall entscheidet man sich sofort und macht es nicht davon abhängig ob nächste Woche Customs kommen und daddelt und clocked solange damit rum, als Zeitüberbrückung. Von diesem Leerlaufgeräusch habe ich in keinem Test gelesen, vielleicht ein Mangelexemplar?
2 Wochen sind 2 Wochen. Wenn der Gesetzgeber das so wie du gesehen hätte, hätte er das Gesetz entsprechend formuliert. Und ich persönlich habe kein Mängelexemplar, alle Referenzkarten erzeugen diesen nervigen Ton.

decimad2
2016-07-16, 16:17:52
Die Intention des Gesetzes ist damit aber verfehlt. Darum geht es mir, nicht um den Wortlaut, der eben so ein Verhalten zulässt, weil er ansonsten 5 Enzyklopädien mit Sonderregelungen ausfüllen würde und damit den Umtausch für den Endkunden ohne Rechtsschutz unmöglich machen würde.

Gynoug MD
2016-07-16, 16:41:51
lohnt es sich jetzt noch eine referenz rx 480 zu kaufen, oder kommen nächste woche "schon" die custom designs?:ucoffee:
Bis Ende Juli wirste doch noch durchhalten, die am Limit laufende Radial-Puste kann man die paar Tage doch wirklich noch aussitzen.:wink:

Mortalvision
2016-07-16, 17:53:49
Ich finde die Zeit bis zu den Customs auch ein bischen arg lang. Hier in Bayern sind im August Schulferien, da erwarte ich, am 29.07. bestellen zu können und paar Tage später loslegen zu dürfen ^^

Unrockstar
2016-07-16, 23:13:17
Ich finde die Zeit bis zu den Customs auch ein bischen arg lang. Hier in Bayern sind im August Schulferien, da erwarte ich, am 29.07. bestellen zu können und paar Tage später loslegen zu dürfen ^^

Gottseidank ist Bayern nicht der Nabel der Welt ;) Ich vermute mal Mitte August gibts alle Custom Karten. Ebenso bei der 1060.. Wenn ich die 1070/80 Launches sehe, dann hat Huangs PR Abteilung was von Kaptn Blaubärs Seemannsgarn wenn die von großer Verfügbarkeit faseln

Iruwen
2016-07-16, 23:57:58
Dann guck dir mal die Verkaufszahlen an. Dass die Nachfrage in der Preisklasse so groß ist, damit hat wohl nichtmal Huang gerechnet.

-/\-CruNcher-/\-
2016-07-17, 00:23:14
Jede Software, die hintenrum im System mitläuft, ist mir suspekt. Diese ganzen Sensorloops sind meist unnötig. Man muss das Asus Feature ja nicht nutzen, aber die meisten RX 480 Käufer haben sicher eher Hasenställe mit einem oder zwei Lüftern. Das trifft nicht alle, aber wenn ich so sehe, was in den Shops von den Kunden so bestellt wird... Gespart wird immer am Gehäuse und am Netzteil.

Gegen Asus Software Abteilung hab ich extreme hängengebliebene Vorurteile, die Software Qualität die sie meistens ablieferten war unterirdisch vor allem was stabilität der device treiber und ring0 angeht da vertrau ich jedem nerd coder mehr ;)

Die Steurungseinführung auf Intels Platform war eine Katastrophe darüber kann auch nicht ihr erster sein bei UEFI wegtäuschen einfach nur Schund billig und schrottig die guten sachen sind mittlerweile alles 3rd partys mit rebranding.

Asus Software erfüllt meist den Zustand den man Frickelware unterstellen würde.


MSI hat es als erste richtig gemacht und sich Unwinder ins Boot geholt dabei war ihre eigene Software selbst garnicht schlecht und hatte von Anfang an höheres niveou als Asus ;)

Und wenn man sieht was sie über Jahre nun mit ASMedia im VIA PCI stiel verbocken kann man nur noch den Kopf schütteln.



Wattman ist die Pest. So oft wie das Ding bei mir schon abgekackt ist...
AMD selbst brauch etwas Zeit seh ich als ganz normal bei jetzigem Resourcenstand immerhin wird das ganze neue UI und Sensorik Modular nicht mit Intel Platform Systemen als Präferenz entwickelt sondern für die neueren und zukünftigen AMD Platformen.
Wenn Crimson sich wenigstens mal die letzte Fenstergröße merken würde... Jedes Mal nach dem Neuaufruf bekommt man wieder so eine winzige Briefmarkenansicht, die ja nun wirklich nicht mehr zeitgemäß ist. Außerdem total verschachtelt und teilweise auch unlogisch gegliedert.

Man hatt sich mit WattMan hauptsächlich Intel genähert und ich seh das vor allem sehr Positiv was die usability angeht die Kinderkrankheiten werden mit der Zeit weniger werden, jedenfalls stören sie den Systemablauf nicht.

Bei der unlogischen Gliederung stimme ich dir zu auch die Box für den Compatibility mode ist relativ unglücklich platziert worden was Maus effizienz angeht.

gedi
2016-07-17, 02:22:52
http://up.picr.de/26222114le.jpg

-/\-CruNcher-/\-
2016-07-17, 02:28:30
Die Spanischen Händler brauchen scheinbar dringend das Geld wenns die EU nicht liefert dann eben die verrückten Gamer aus ihr ;)