PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 480: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 [20] 21 22 23 24

-/\-CruNcher-/\-
2016-08-20, 23:06:21
Wieso umsonst? Gute Ergebnisse sind doch auch eine Aussage :D

@Achill:
Mit was protokolliert? Ich messe nachher die 1060 3GB, dann hänge ich auch die AMD Karten wieder mit rein. Nach dem Dreckspatch gehen manche Settings nicht mehr (ausgegraut). Kann also mal wieder bei Null anfangen :(

Das wird langsam zum Standard für Konsolen Ports die extreme die Pagefile anfangen zu verschleisen und mehr IO Bottlenecken als jemals zuvor ;)

Cod Black Ops 3 ist da ein netter witz gewesen, das frist die Pagefile nur so zum Frühstück bei 8 GB System Ram ist error ohne Pagefile unausweichlich ;)


Auf die Dauer kann sich diese nachfragen kein Support leisten deshalb besser mit detection riegel die grenzen vorab setzen ;)

Schöne neue Konsolen Welt macht einige scheinbar ziemlich Lazy ;)

Das wird noch richtig spannend mit (pre) UHD als target ;)

http://news.xbox.com/wp-content/uploads/GOW4_PC_Specs.jpg

Theoretisch haben sie ein + vor den 4 GB der GTX 970/1060 vergessen ;)

Vorbildliches Unreal Engine 4 Setup :)

Mal sehen ob es noch mit VRAM Detection rules kommen wird oder UE4 Streaming jetzt standhalten kann, bis jetzt scheint es noch nur auf Empfehlungen aufgebaut ;)

Vor allem mit der GTX 970 3.5 GB wird das interessant unter Windows 10 vs den großen 6 GB Bruder ;)

vQef2x76bv0

Vor allem die Separierung in Realtime Cinematics ist vorbildlich :)

Sogar ein Temporales AA Sharpening :D

Meinen System geht es eigentlich gut (5820k@4GHz, Prime-Stabil, Temp.Max ~70°C), keine auffälligen Einträge im Ergebnisprotokoll unter Computerverwaltung und auch die Latency-Tools sehen gut aus. Gibt es die DX11 Spikes bei dir nicht?

hmm naja Primestabil ist nice hat aber mit Realtime und Multithreading Sheduling (Sync) präzesion nicht viel am hut ;)

fahr mal testweise dein OC runter auf System default.

(del)
2016-08-21, 07:05:25
@Achill
So, ich habe Deine Daten mal ins Tool geworfen und den Uneveness-Index errechnen lassen. Spielen würde ich das so nicht wirklich. Vor allem die Einbrüche am Anfang sind eigenartig. Die 16 GB RAM halte ich mittlerweile schon für wenig. Ich nutze 32 GB ohne Swap-File und es läuft in einigen Situationen deutlich besser.

http://i.imgur.com/mb5vogK.png
Die Auflösung in der Grafik stimmt nicht, aber ich war zu faul, das anzupassen. Er hat 1440p gemessen :P

Übrigens sind die drei totalen Standbilder bei DX12 genau an der gleichen Stelle, wo ich sie mit anderen AMD-Karten auch hatte. Dann ist es wirklich noch ein Treiber Problem, denn der Mitbewerber hat das so nicht. Wobei ich manchmal fast daran zweifle, dass DX12 dort wirklich voll implementiert wurde.

Hübie
2016-08-21, 08:29:43
Uneveness-Index? Was ist das? Da ist man ein paar Tage abwesend, dann sowas. :D

(del)
2016-08-21, 08:40:52
Ihr habt mir doch den Ruckel-Index reingedrückt :D

Hübie
2016-08-21, 08:55:21
Hast du mal einen link wo du erklärst wat dat is und wie dat zustande kommt? :D

btw: Wann kommt denn endlich mal das website update wo 16:9 etc nicht immer lächerlich gemacht wird, weißt du da was? :naughty:

Cyphermaster
2016-08-21, 09:25:12
Ein oder zwei Seiten hier im Thread zurück steht das.

(del)
2016-08-21, 09:25:49
Hättest Du die letzten 3 Seiten gelesen, wüsstest Du, was das macht. ;)
Ansonsten bitte Montag, da gibt es alles in ausführlich als Artikel.

-/\-CruNcher-/\-
2016-08-21, 09:36:33
Wie gesagt lock mal die Framerate 60 FPS der Overhead reduktion willen mit den Internal treiber Limiter oder Engine intern und vergleich das mal mit der unlocked distribution.

EIn 1080p locked und unlocked result side by side im Artikel wäre nice :)

Hübie
2016-08-21, 13:31:28
Hättest Du die letzten 3 Seiten gelesen, wüsstest Du, was das macht. ;)
Ansonsten bitte Montag, da gibt es alles in ausführlich als Artikel.

Dann Morgen. :biggrin: Keine Zeit soviel hier zu lesen, sorry. Und Danke für den Verweis.

Achill
2016-08-21, 14:39:01
So, ich habe mein Windows neu gemacht. Irgend etwas lief nicht gut rund seit den letzten Windows-Update (1607) bzw. ich habe was rum gespielt ohne es mir zu merken.

@Achill
So, ich habe Deine Daten mal ins Tool geworfen und den Uneveness-Index errechnen lassen. Spielen würde ich das so nicht wirklich. Vor allem die Einbrüche am Anfang sind eigenartig. Die 16 GB RAM halte ich mittlerweile schon für wenig. Ich nutze 32 GB ohne Swap-File und es läuft in einigen Situationen deutlich besser.

http://i.imgur.com/mb5vogK.png
Die Auflösung in der Grafik stimmt nicht, aber ich war zu faul, das anzupassen. Er hat 1440p gemessen :P

Übrigens sind die drei totalen Standbilder bei DX12 genau an der gleichen Stelle, wo ich sie mit anderen AMD-Karten auch hatte. Dann ist es wirklich noch ein Treiber Problem, denn der Mitbewerber hat das so nicht. Wobei ich manchmal fast daran zweifle, dass DX12 dort wirklich voll implementiert wurde.

Dank dir für die Aufbereitung. Die ersten ~380 Frames war noch Ladebildschirm, da stockt es mehrmals in der UI und am Ende fällt es auch auf <20fps (mit AF gesehen) bei der Roten-Schwarzen-Landkarte. Der erste Spike im Bench ist der Zaun mit den golden Kopf gleich am Anfang.

Was ich noch nicht wieder aktiv habe:
- TimerTool (https://vvvv.org/contribution/windows-system-timer-tool) von ~15ms auf 0.5ms (Standard bei mir) hatte pos. Auswirklungen auf DX11
- Ram-Cache für Festplatten (daher der Ramverbrauch von +10GB)
- Afterburner

@CruNcher, HW teste ich gleich noch - evtl. läuft da auch was nicht rund.

Mortalvision
2016-08-21, 18:52:25
Es gibt Neuigkeiten von PowerColor:

Das neue Bios hat quasi Beta-Status erreicht. Es ist aber unklar, ob es überhaupt released wird...
Bei mir funktioniert es, und heiliger Bimbam, ist die Karte ein Schluckspecht bei 1330 MHz und 2150 MHz VRAM und +20% Power-Target. Persönliches Gefühl: Verbesserte Frametimes, na FormatC, magst mal nach Schweinfurt kommen und nachmessen? ^^


aus dem teuflischen Club:
"4 ▼
Sniper13x

Where is the bios update to allow +50% power target? This should’ve been addressed before cards even launched.

▲ 1 ▼
Powercolor

Our R&D team was being cautions about possible high RMA rates while use substantial higher Power limits.
As you might know, the power consumption increase is exponentially higher when it goes much above 1350Mhz and unlocked Power Limit.

(Warning! please use it carefully! ) https://drive.google.com/open?id=0B9HMk-E2fvNlQl84WjFBMmxtNEk"

(del)
2016-08-21, 19:18:03
Muss ich nicht :D Ich habe hier eine MSI RX 480 Gaming X 8G bei 1350 MHz laufen (max. Power Limit auf ca. 250 Watt), die schlägt sogar die alte R9 290X an der Steckdose und natürlich auch im Spiel. Spaß macht das aber nicht mehr wirklich, denn es wird einfach nur laut und heiß.
Polaris ist für solche Mätzchen einfach nicht gemacht und ich finde die umgekehrte Variante mit Untervolten und Takt bei ca. 1100 MHz viel interessanter. Im Übrigen werden die Frametimes oberhalb 1300 Mhz sogar wieder leicht schlechter, weil die Karte in den elektrischen und thermischen Schluckauf läuft.

BTW: die 1060 Light mit läppischen 3GB RAM ist eine Art Hinrichtung für den GP106-300. Die RX 470 kann das Ding in einigen Situationen geradezu vermöbeln. Wenn ich mich in diesem segment entscheiden müsste, ich würde wohl eine gute 470 sogar der 480 vorziehen, wenn der Preis stimmt.

marc-05
2016-08-21, 20:25:42
Gibts den für Polaris ein Tool z.b MSI AF (Beta) mit den man die Spannung des Chips unter 1V bekommt ?

-/\-CruNcher-/\-
2016-08-21, 21:35:59
Muss ich nicht :D Ich habe hier eine MSI RX 480 Gaming X 8G bei 1350 MHz laufen (max. Power Limit auf ca. 250 Watt), die schlägt sogar die alte R9 290X an der Steckdose und natürlich auch im Spiel. Spaß macht das aber nicht mehr wirklich, denn es wird einfach nur laut und heiß.
Polaris ist für solche Mätzchen einfach nicht gemacht und ich finde die umgekehrte Variante mit Untervolten und Takt bei ca. 1100 MHz viel interessanter. Im Übrigen werden die Frametimes oberhalb 1300 Mhz sogar wieder leicht schlechter, weil die Karte in den elektrischen und thermischen Schluckauf läuft.

BTW: die 1060 Light mit läppischen 3GB RAM ist eine Art Hinrichtung für den GP106-300. Die RX 470 kann das Ding in einigen Situationen geradezu vermöbeln. Wenn ich mich in diesem segment entscheiden müsste, ich würde wohl eine gute 470 sogar der 480 vorziehen, wenn der Preis stimmt.

Dito 470 mit guter Ausstatung und Verarbeitungsqualy ist den Preis auf jedenfall mehr wert :)

Das selbst ein MSI High Price Model mit seinem OC in der melk mich Gamer Lineup einen Abflug macht ist dagegen sehr bedenklich.

Naja bin mal gespannt ob du Standhaft bist und die daten auch so released freunde wirst du dir keine machen und für viele zerbrichst du eine Inszenierte Traumwelt aber erretest sie auch gleichzeitig von dem Bösen ;)

Du hast es ja bei Nvidia ja schon geäusert aber anscheinend hört dich niemand so richtig oder versteht die Zusammenhänge nicht was du erläutern möchtest ;)

Wohl nur wenige würden es überhaupt verstehen das höherer takt und die daraus resultierenden längeren Balken ≠ ausnahmslos Besser sein müssen sondern sie oftmals nur blenden sollen ;)

I.C.Wiener
2016-08-22, 12:19:49
Gibts den für Polaris ein Tool z.b MSI AF (Beta) mit den man die Spannung des Chips unter 1V bekommt ?

Die GPU Spannung ist irgendwie an die memory Spannung (wohl eigentlich der memory controller) gekoppelt. Stellt man im Wattman beim memory 860 mV ein (so weit runter ging es stabil bei 2000 Mhz), dann konnte man auch die GPU Spannung messbar so weit reduzieren.
Leider differiert beim Polaris, um so weiter man unter 1000 mV geht, je nach Anwenung die stabile Taktfrequenz immer weiter. Während Furmark bei 860 mV noch mit 1030 MHz stabil läuft und kaum 80 Watt im GPU-Z verballert gehen andere Tests und Spiele nichtmal mit 800 MHz. Das war total frustrierend beim undervolten.
Das haben die bei AMD bestimmt auch festgestellt und deswegen ist wohl die idle Spannung bei recht hohen 800 mV und Spannung des höchsten powerstates bei meistens mindestes 1000 mV.

Raspo
2016-08-22, 16:42:02
Wenn ich mich in diesem segment entscheiden müsste, ich würde wohl eine gute 470 sogar der 480 vorziehen, wenn der Preis stimmt.

Was wäre denn Dein Favorit unter den 470ern?

(del)
2016-08-22, 16:48:32
Was wäre denn Dein Favorit unter den 470ern?Da ich noch nicht so viele hier habe (nur XFX, Asus, Sapphire und MSI), wäre es eindeutig die MSI-Karte.
MSI verzichtet zwar auf die Backplate (die eh keiner braucht), ansonsten ist die Karte aber recht proper und vor allem eines: leise.
Ich habe sie diese Woche auch mit im Test gegen die GeForce GTX 1060 CE (Cripple Edition).
Die 470 läuft da mit zwei fetten Samsonite-Koffern voller Grafikdaten zum Check-In, während die CE mit zwei ärmlichen Dederon-Beuteln auskommen muss :D

Screemer
2016-08-22, 17:03:07
Das liest sich im von troyan verlinkten guru3d-review anders.

Raff
2016-08-22, 17:05:18
Das liest sich im von troyan verlinkten guru3d-review anders.

Macht nichts, ich stimme Format_C da ausnahmsweise ;) vollkommen zu. In Spielen bis inkl. 2014 ist die GTX 1060 "CE" (hehe) jedoch echt schnell.

MfG,
Raff

(del)
2016-08-22, 18:35:08
Klar, wenn man Battlefield 4 testet, gewinnt immer die CE :P

Was mir aufgefallen ist:
Letzter GeForce-Treiber und Hitman-Patch. Die Schatten lassen sich bei der 1060 CE plötzlich nur noch bis mittel stellen. Alte Einstellungen wie meine werden kommentarlos ersetzt. Ich wäre fast darauf reingefallen und hatte mich schon gewundert, warum die 1060 CE nach dem Patch so gut abschneidet. :D

Th3o
2016-08-22, 19:04:00
Hi,

hat hier jemand eine XFX Radeon RX 480 GTR im Einsatz?

raumfahrer
2016-08-22, 19:35:58
Welche 480 (oder auch 470) ist bislang eigentlich am positivsten beim PCB/Layout aufgefallen? Hab einen 3rd-Party Kühler, was Kühlung anbelangt sind mir die Spielchen der Hersteller also eher egal.

Gipsel
2016-08-22, 19:55:49
Hi,

hat hier jemand eine XFX Radeon RX 480 GTR im Einsatz?
Ich habe am WE eine bei meinem Bruder eingebaut und mir das mal kurz angesehen. Macht einen ganz vernünftigen Eindruck, auch wenn sie mit den Standardsettings nicht wirklich leise ist. Dies wäre 70°C Temperaturtarget und maximale Lüfterdrehzahl von 3000 rpm (kann man im Wattman auf 3600 hochstellen, wenn man unbedingt will, aber die 3000 fand ich schon relativ laut). In den anderthalb Spielen, die wir mal so auf die Schnelle ausprobiert haben, kam er aber an die 3000 nicht ran (nur im Furmark). Maximum waren so etwa 2500-2600. Mit Temperaturtarget von 75°C oder 80°C oder so wird die Karte merklich leiser (unter 2000 ist die aus dem Gehäuse meines Bruders zwar noch herauszuhören, aber nicht störend; ist aber auch kein silent System), da muß man sehen, wie weit man gehen will. Und mit aktivem VSync in einem nicht so fordernden Spiel bzw. Settings blieb die Karte sehr leise. Genau wie auf dem Desktop, da halten die Lüfter komplett an (und gehen erst wieder an, wenn die Temperatur sich dem Temperaturtarget nähert).

Der Speicher ging bis auf 9Gbps (also 2250 MHz, mit dem Hotfix-Treiber geht es wieder bis dahin, vorher war ja der Slider bei 2050MHz am Anschlag), am Chiptakt haben wir nicht rumgespielt (zu wenig Zeit). Die Spannung im höchsten Powerlevel (1290MHz) betrug bei der Karte beachtliche 1,168V. Außerdem hat XFX das Standard-Powertarget wohl etwas angehoben, denke ich. Zumindest lief die Karte im Furmark mit durchschnittlich knapp 1200MHz (die Referenz liegt da z.B. deutlich tiefer, wenn ich mich recht entsinne). Hier konnte er das Temperaturtarget übrigens nicht halten und kam im Maximum bis an 88°C heran (die Lüfter gehen dabei [langsam] auf die 3000 rpm in den Standardsettings maximal erlaubten), wo er sich dann mit dem verringertem Takt einpegelte. Allerdings reichten auch 100% Lüfter (3600rpm und dann deutlicher unter 90°C) nicht aus, um wirklich über 1200MHz im Furmark zu kommen (die Karte gewann aber noch minimal Takt). Das ist dann wohl das Power-Limit (war auf Standard belassen), was zuschlägt (kann man ja anheben, wenn einem das zu wenig ist). Also vom Hocker hat mich die Kühlleistung nicht gerissen, war aber recht solide gemessen an der Abwärme (die Karte heizte schon ganz ordentlich, weniger Corespannung wäre wohl sehr hilfreich). Die Furmark-Runs liefen mit 8,5Gbps Speicher, spielt vermutlich nicht so die große Rolle, keine Ahnung.

Achja, die Lüftersteuerung ist extrem langsam. Wenn man irgendwas anschmeißt, bleibt der Lüfter noch eine ganze Weile unhörbar. Das dauert mehrere Minuten, bis er sich bemüßigt sieht, mal irgendwie etwas hochzudrehen. Und umgedreht genauso: Rennt der Lüfter nach ein paar Minuten Furmark auf 3000 rpm und man beendet es, geht die Drehzahl vielleicht mit 10rpm pro Sekunde oder so runter, selbst wenn die GPU nach einer Minute nur noch 35°C hat, macht der Lüfter noch mit über 2000 rpm ordentlich Betrieb. Die Nachlaufzeit ist also recht groß.
Und ändert man irgendwas im Wattman an den Lüftersettings, resettet sich die ganze Regelung und hält erstmal die Lüfter an, um sie dann ganz gemütlich hochzufahren, selbst unter Last im Furmark :freak:.

Insgesamt macht die Karte nach meinem zugegeben kurzen Eindruck (anderthalb Stunden) einen recht soliden Eindruck. Das Temperaturtarget ist allerdings für meinen Geschmack zu niedrig gesetzt (unnötig laut). Und die Lüfterdrehzahl nach einer Last könnte auch schneller runtergehen. Dem kann man entweder mit einem höheren Temperaturtarget etwas entgegenwirken, oder man limitiert im Wattman einfach die Lüfterdrehzahl auf den persönlich noch erträglichen Wert (dann kann er gegebenefalls bei hoher Last die Temperatur nicht halten und regelt im Zweifelsfall vor Erreichen der 90°C ab).
Zum OC oder Undervolting kann ich mangels Versuch nicht viel sagen. Lediglich den Speicher habe ich mal kurzentschlossen bis an den Anschlag hochgezogen, was erstmal ohne Probleme lief.

Screemer
2016-08-22, 20:03:23
Macht nichts, ich stimme Format_C da ausnahmsweise ;) vollkommen zu. In Spielen bis inkl. 2014 ist die GTX 1060 "CE" (hehe) jedoch echt schnell.

MfG,
Raff
+@igor: Danke euch beiden gut die Info!

Ach ja und noch eine kurze Info zur 480 4gb von Bora/km Computer, sie kommt nicht mehr. Gerade kam ein storno und ein Angebot über einen tankgutschein. Begründung ist "fehlinfo vom zulieferer".

dargo
2016-08-22, 20:31:03
Was mir aufgefallen ist:
Letzter GeForce-Treiber und Hitman-Patch. Die Schatten lassen sich bei der 1060 CE plötzlich nur noch bis mittel stellen. Alte Einstellungen wie meine werden kommentarlos ersetzt. Ich wäre fast darauf reingefallen und hatte mich schon gewundert, warum die 1060 CE nach dem Patch so gut abschneidet. :D
Ich ahne zukünftig Schlimmes. Wenn immer mehr Spiele diverse Settings selbst festlegen weil der Speicher Mangelware ist und der Reviewer nicht penibel aufpasst wird man viel Mist benchen.

Raspo
2016-08-22, 20:53:01
Danke Format_C für Deine Einschätzung zu den 470ern.
Hatte eigentlich die Nitro im Auge, werde mir nun aber die MSI genauer ansehen.

Th3o
2016-08-22, 21:05:54
@Raff

wird es in der PCGH 10/16 einen Test aller verfügbaren RX 470 / RX 480 Custom Varianten geben?

Zeroman
2016-08-23, 00:11:44
@Raff

wird es in der PCGH 10/16 einen Test aller verfügbaren RX 470 / RX 480 Custom Varianten geben?

Der Test wäre aber nicht sehr umfangreich, wenn nur die verfügbaren Karten getesten werden würden. ;)

Gab vor 3 Wochen ein Video der PCGHW, wo sie die verschiedenen Customs der 480 gezeigt haben. Es fehlte, glaube ich, die Gigabyte und die HIS. Ein Vergleichstest für die Septemberausgabe wurde angekündigt. Wie es mit der 470er aussieht - keine Ahnung.

-/\-CruNcher-/\-
2016-08-23, 01:41:56
Die GPU Spannung ist irgendwie an die memory Spannung (wohl eigentlich der memory controller) gekoppelt. Stellt man im Wattman beim memory 860 mV ein (so weit runter ging es stabil bei 2000 Mhz), dann konnte man auch die GPU Spannung messbar so weit reduzieren.
Leider differiert beim Polaris, um so weiter man unter 1000 mV geht, je nach Anwenung die stabile Taktfrequenz immer weiter. Während Furmark bei 860 mV noch mit 1030 MHz stabil läuft und kaum 80 Watt im GPU-Z verballert gehen andere Tests und Spiele nichtmal mit 800 MHz. Das war total frustrierend beim undervolten.
Das haben die bei AMD bestimmt auch festgestellt und deswegen ist wohl die idle Spannung bei recht hohen 800 mV und Spannung des höchsten powerstates bei meistens mindestes 1000 mV.

Es gibt viel zu viele Faktoren und Szenarien die die meisten nie in ihrer Kartenstabilität mit einbeziehen, wenn es dann soweit ist sind das die ersten die im Forum auftauchen und über TDRs meckern gut erkannt das gilt aber nicht nur für UV sondern genauso für OC ;)

Weder AMD noch Nvidia können es sich leisten dieses Risiko zu fahren die kennen die meisten Szenarios ganz genau und genau so wird auch der Headroom ausgelegt.

Achill
2016-08-23, 07:01:12
Bei GameGpu gibt es die ersten Werte zu DeusEx-MD (http://gamegpu.com/action-/-fps-/-tps/deus-ex-mankind-divided-test-gpu):

http://gamegpu.com/images/stories/Test_GPU/Action/Deus_Ex_Mankind_Divided_/test/dem_1920_11_2.png

http://gamegpu.com/images/stories/Test_GPU/Action/Deus_Ex_Mankind_Divided_/test/dem_1920_12.png

Ich hoffe, das dies noch nicht die Endversion war/ist. Ab 1440p braucht es bis jetzt richtig Power, sprich CFX/SLI oder sehr schnelle single GPUs.


http://gamegpu.com/images/stories/Test_GPU/Action/Deus_Ex_Mankind_Divided_/test/proz_12_amd.png

Die Kern-Skalierung sieht aber schon einmal gut aus, das Spiel scheint aber auch CPU Power haben zu wollen. Leider verstehe ich nicht die in russisch eingestellten Settings mit denen gebencht wurde.

The_Invisible
2016-08-23, 07:22:28
Da soll noch wer sagen CPU Aufrüstung bringt eh nix, von 2600k auf 6700 fast doppelte min. fps oder mehr min fps als der 2600k avg fps hat.

MartinRiggs
2016-08-23, 07:54:05
Erstmal abwarten was deutsche Websites benchen, das sieht mir extrem unoptimiert aus.

dildo4u
2016-08-23, 08:18:38
PCGH hat die selben Werte ca 60fps für eine Fury X in 1080p unter DX11.

http://www.pcgameshardware.de/Deus-Ex-Mankind-Divided-Spiel-55470/Specials/Benchmarks-Test-DirectX-12-1204575/

DX12 ist noch kaputt der CPU Bench oben ist ne Katastrophe.

(del)
2016-08-23, 08:46:57
Deshalb bringt es auch nichts, halbfertiges Zeug zu benchen. Click-Baiting über Fanboy-Kriege... :D

Dino-Fossil
2016-08-23, 10:12:38
Frag mich in letzter Zeit sowieso immer häufiger, wie sinnvoll es ist, neue Spiele unmittelbar bei Release zu benchen.
Meist folgen innerhalb der ersten paar Tage/Wochen mehrere Patches und Treiberupdates, welche die gemessene Performance grundlegend ändern können.

Zwar ist verständlich, dass die Leute wissen wollen, wie ein neues Spiel auf ihrem PC läuft, aber richtig sinnvoll wäre so ein Test frühestens, wenn angepasste Treiber raus sind und die Entwickler eventuelle Performance-Bugs beseitigt haben - wobei man natürlich für letzteres auch erstmal wissen muss, dass es sie gibt...

dildo4u
2016-08-23, 10:19:51
Wenn man die Steamzahlen so sieht zocken die meisten Singleplayer Games Day One und gucken es dann nie wieder an.Daher sind die Test's zum Launch schon sinvoll.

(del)
2016-08-23, 10:39:13
Zum Launch: ja. Vorm Launch: nein.

Ansonsten is es eh meist nur pure Produktplatzierung, die dann aber auch als solche gekennzeichnet sein sollte.
Wir bekommen auch ab und zu solche Offerten, um "exclusiv" irgendetwas vorab testen zu können (meist verbunden mit Werbeschalten).
Mache ich aber aus Prinzip nicht.

Iruwen
2016-08-23, 11:50:19
Kommt drauf an ob meine Aussage über das Spiel oder die Hardware treffen will.

(del)
2016-08-23, 11:56:54
Ich schrieb ja weiter vorn: Benchmarks

Ein Spiele-Hands-On ist was anderes, obwohl auch da nicht selten bezahlte Werbung oder zumindest eine gewisse Gefälligkeit dahinter stecken. Das muss jeder mit sich selbst ausmachen.

Hier mal ein kleiner Auszug, welche Software ich nun nutze und was die RX 480 mit der GTX 1060 macht (und was nicht) anhand eines exemplarischen Beispiels (nicht Metro LL) ;)
http://www.tomshardware.de/messung-gaming-performance-grafikkarten-bewertung,testberichte-242176.html

horn 12
2016-08-23, 14:33:23
@Format C


Was haltest bitte von der Powercolor Devil Karte,
Besser als Sapphire RX480 / XFX GTR Karte
und was weist über die Powercolor Devil Rev. 2 bereits Neues.

Tu mich selbst verdammt! schwer von der Fury 1070 Mhz auf eine Devil V.2 downzugraden, oder XFX GTR ... ....
denn MUSS AUF VEGA WARTEN, Vor Allem auch wenns äußerst SCHWER FÄLLT!

(del)
2016-08-23, 14:38:47
Powercolor liefert aktuell keine Samples, ergo weiß ich nichts. Schade, aber isso :(

RoughNeck
2016-08-23, 14:40:55
@Format_C

Du meinst bestimmt 1060.
Und habe ich was verpasst oder warum sind die Frametimes beim Haus und Hof Benchmark von AMD unter DX12 auf einmal so schlecht?
Hitman war ja immer das Vorzeige Spiel / Benchmark für AMD Karten.

Linmoum
2016-08-23, 15:01:47
@Format C


Was haltest bitte von der Powercolor Devil Karte,
Besser als Sapphire RX480 / XFX GTR Karte
und was weist über die Powercolor Devil Rev. 2 bereits Neues.

Tu mich selbst verdammt! schwer von der Fury 1070 Mhz auf eine Devil V.2 downzugraden, oder XFX GTR ... ....
denn MUSS AUF VEGA WARTEN, Vor Allem auch wenns äußerst SCHWER FÄLLT!
Warum ziehst du das denn überhaupt in Betracht? :D
Dopelter Speicher und weniger Verbrauch, ok, aber das lohnt sich doch nicht. Rund 300€ für ein Downgrade und dann, je nach Spiel und Auflösung, teilweise recht deutliche Performanceeinbuße...
Würde ich nicht lange überlegen und auf Vega warten, bis dahin wird die Fury schon noch überleben.

(del)
2016-08-23, 15:11:25
@Format_C
Du meinst bestimmt 1060.
Und habe ich was verpasst oder warum sind die Frametimes beim Haus und Hof Benchmark von AMD unter DX12 auf einmal so schlecht?
Hitman war ja immer das Vorzeige Spiel / Benchmark für AMD Karten.

Korrigiert. Danke :)

Bitte bis zum Schluss lesen. Du kannst es Dir nämlich aussichen: höhere FPS-Zahlen und gelegentliche kurze Hoppler oder etwas weniger Bums, dafür etwas ruhiger.
Jeder hat da unterschiedliche Vorlieben :)

Nur ist es halt leider so, dass fast alle nur noch Balkendinger in den Reviews drin haben, da kann man ja schon froh sein, wenn wenigstens die Min-FPS dabei sind.
Ich finde die Frametimes und deren richtige Interpretation wesentlich wichtiger. Ohne Erklärung sind die auch Fanboy-Nimmerland ;)

Fliwatut
2016-08-23, 16:01:24
Tu mich selbst verdammt! schwer von der Fury 1070 Mhz auf eine Devil V.2 downzugraden, oder XFX GTR ... ....
Das würde imho nur Sinn machen, wenn du ins Speicherlimit der Fury rennst.

HOT
2016-08-23, 16:20:09
Frag mich in letzter Zeit sowieso immer häufiger, wie sinnvoll es ist, neue Spiele unmittelbar bei Release zu benchen.
Meist folgen innerhalb der ersten paar Tage/Wochen mehrere Patches und Treiberupdates, welche die gemessene Performance grundlegend ändern können.

Zwar ist verständlich, dass die Leute wissen wollen, wie ein neues Spiel auf ihrem PC läuft, aber richtig sinnvoll wäre so ein Test frühestens, wenn angepasste Treiber raus sind und die Entwickler eventuelle Performance-Bugs beseitigt haben - wobei man natürlich für letzteres auch erstmal wissen muss, dass es sie gibt...
DAS ist mal ein wahres Wort. Eigentlich werden Benches erst nach einer gewissen Patchstand und Treiberstand überhaupt interessant. Beispiele: GE-Titel DAI -> später stehen Geforce deutlich besser da
GW-Titel ACU -> später stehen Radeons deutlich besser da
uvm. Benches direkt nach Release sind trotz GameReady oder Hotfix-Treiber nie wirklich aussagekräftig, das ist die Erfahrung, die man hier mitnehmen kann.

Und was DX12 angeht, offenbar hat es nur id mit Vulkan geschafft eine fertige Implementation hinzulegen. Alles, was für DX12 kam hat noch Geschmäckle. Irgendwie hat das keiner so richtig hinbekommen bisher. Und die Treiber sind auch noch sehr beta offenbar. Nach NVs Vulkan-Fix-Treiber ist hier ja auch alles tutti. Gibts da einen Grund, warum DX12 den Entwicklern so schwer zu fallen scheint? Gut id ist jetzt für seine Technik-Affinität durchaus bekannt, vielleicht haben die einfach das bessere KnowHow - und die entscheiden sich gegen DX12...

Außerdem sehr spannend: Was passiert bei StarCitizen. Die haben zwar bislang DX12 erwähnt, aber denen traue ich zu, doch noch auf Vulkan umzuspringen, wenn die CE soweit ist. Bei denen ist jedenfalls klar: Die benötigen die DrawCall-Performance der neuen APIs wirklich bei dem Detailgrad, den die planen, bei denen gibts DX11 nur Entwicklerversion, aber nicht in der Finalversion.

@Format C


Was haltest bitte von der Powercolor Devil Karte,
Besser als Sapphire RX480 / XFX GTR Karte
und was weist über die Powercolor Devil Rev. 2 bereits Neues.

Tu mich selbst verdammt! schwer von der Fury 1070 Mhz auf eine Devil V.2 downzugraden, oder XFX GTR ... ....
denn MUSS AUF VEGA WARTEN, Vor Allem auch wenns äußerst SCHWER FÄLLT!

So hinderlich sind die 4GB nun auch wieder nicht. Ich denke schon, dass es sogar Sinn macht mit einer Fury auf die größere Vega zu warten. Man wusste ja worauf man sich einlässt, wenn man eine Fury kauft. Bis dahin kommt man mit der Fury sicherlich sehr gut hin. Man muss halt ab und an mal die Texturen etwas runterdrehen. Das Problem haben aber viele GM204 und Hawaii-Besitzer ebenfalls, wobei die GTX980 da sogar künstlich limitiert wurde, indem man den Kartenherstellern verbot 8GB (wie beispielsweise im Notebookbereich) zu verbauen. Meine 290 hält noch gut bis Vega10, ich denke, das wird mein Kaufobjekt werden. P10 ist nicht meine Leistungsklasse und wird sicherlich im Preis noch massiv in Richtung 200€ fallen.

Messias
2016-08-23, 16:36:52
So hinderlich sind die 4GB nun auch wieder nicht. Ich denke schon, dass es sogar Sinn macht auf die größere Vega zu warten. Bis dahin kommt man mit der Fury sicherlich sehr gut hin. Man muss halt ab und an mal die Texturen etwas runterdrehen. Das Problem haben aber viele GM204 und Hawaii-Besitzer ebenfalls. Meine 290 hält noch gut bis Vega10, ich denke, das wird mein Kaufobjekt werden.

Sehe ich auch so. Ich habe mir immerhin erst am Wochenende noch eine Fury X gekauft. ;)
Soweit ich das überblicke, gibt es bisher erst eine Handvoll Spiele, mit denen es in ultrahohen Auflösungen und HighRes Texturen Probleme geben kann mit den 4GB.
Bei fast allen Spielen reichen die 4GB noch... auch, wenn das in ein, zwei Jahren nicht mehr so gut aussehen wird.
Aber Vega steht ja auch bald vor der Tür und dann lohnt sich ein Up- statt ein Downgrade. ;)

dildo4u
2016-08-23, 18:13:58
Finale Deus EX DX11 Benchmark's.

http://www.pcgameshardware.de/Deus-Ex-Mankind-Divided-Spiel-55470/Specials/Benchmarks-Test-DirectX-12-1204575/

(del)
2016-08-23, 18:28:03
Finale Deus EX DX11 Benchmark's.

http://www.pcgameshardware.de/Deus-Ex-Mankind-Divided-Spiel-55470/Specials/Benchmarks-Test-DirectX-12-1204575/

Nö:

Bevor wir loslegen, möchten wir anmerken, dass unsere Performance-Eindrücke von Deus Ex: Mankind Divided noch auf einer nicht finalen Review-Version basieren.
Die finale gibts aktuell nur im Pre-Load.

4Fighting
2016-08-23, 18:28:39
Nö:

Doch:)

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11139506&postcount=427

Raff
2016-08-23, 18:32:05
Die Benchmarks sind für "early birds" – schon live, aber der Text drumherum ist noch von Freitag. "Richtig" live geht der Artikel morgen früh um 10, die Benchmarks sind aber bereits final und gültig – und wahrlich mit interessanten Ergebnissen gespickt! :naughty:

MfG,
Raff

Monsta
2016-08-23, 19:56:36
Die RX480 scheint weg zu gehen wie warme Semmel.
Nvidia hat 28,15% weniger Gpus im 2. Quartal als im ersten ausgeliefert.
AMD konnte 4% mehr absetzen.

http://www.heise.de/newsticker/meldung/Desktop-GPUs-Nvidia-verzeichnet-dramatischen-Absatzrueckgang-AMD-holt-auf-3303131.html

(del)
2016-08-23, 20:02:14
Naja.... 4% auf was? Absolute Stückzahlen oder Umsätze wären deutlich aussagekräftiger. Und Q2 war mies, weil alle auf Pascal gewartet haben und dann nichts zu kaufen bekamen. Auch irgendwie selbst schuld :D

Linmoum
2016-08-23, 20:02:33
Die RX480 scheint weg zu gehen wie warme Semmel.
Nvidia hat 28,15% weniger Gpus im 2. Quartal als im ersten ausgeliefert.
AMD konnte 4% mehr absetzen.

http://www.heise.de/newsticker/meldung/Desktop-GPUs-Nvidia-verzeichnet-dramatischen-Absatzrueckgang-AMD-holt-auf-3303131.html
Finde den Fehler. ;)

Grendizer
2016-08-23, 20:05:45
Finde den Fehler. ;)

Ich hatte die Nachricht unter IT News auch schon gelinkt. Aber eigentlich zeigt es nur insgesamt eine Käuferzurückhaltung auf Grund der angekündigten neuen Grafikkarten.

Sunrise
2016-08-23, 20:25:04
Die RX480 scheint weg zu gehen wie warme Semmel.
Nvidia hat 28,15% weniger Gpus im 2. Quartal als im ersten ausgeliefert.
AMD konnte 4% mehr absetzen.

http://www.heise.de/newsticker/meldung/Desktop-GPUs-Nvidia-verzeichnet-dramatischen-Absatzrueckgang-AMD-holt-auf-3303131.html
Die RX480 und Co. (Polaris) sind dort noch garnicht dabei. Das sind größtenteils nur die Grenada- und Co.-Rebrands. Immerhin, NVs Marktanteile schrumpfen.

Dass sich die RX480 aber positiv auf das Ergebnis auswirken wird, ist eigentlich so gut wie sicher.

NikLaw
2016-08-23, 20:31:04
Ich habe am WE eine bei meinem Bruder eingebaut und mir das mal kurz angesehen. Macht einen ganz vernünftigen Eindruck, auch wenn sie mit den Standardsettings nicht wirklich leise ist. Dies wäre 70°C Temperaturtarget und maximale Lüfterdrehzahl von 3000 rpm (kann

man im Wattman auf 3600 hochstellen, wenn man unbedingt will, aber die 3000 fand ich schon relativ laut). In den anderthalb Spielen, die wir mal so auf die Schnelle ausprobiert haben, kam er aber an die 3000 nicht ran (nur im Furmark). Maximum waren so etwa 2500-2600. Mit Temperaturtarget von 75°C oder 80°C oder so wird die Karte merklich leiser (unter 2000 ist die aus dem Gehäuse meines Bruders zwar noch herauszuhören, aber nicht störend; ist aber auch kein silent System), da muß man sehen, wie weit man gehen will. Und mit aktivem VSync in einem nicht so fordernden Spiel bzw. Settings blieb die Karte sehr leise. Genau wie auf dem Desktop, da halten die Lüfter komplett an (und gehen erst wieder an, wenn die Temperatur sich dem Temperaturtarget nähert).

Der Speicher ging bis auf 9Gbps (also 2250 MHz, mit dem Hotfix-Treiber geht es wieder bis dahin, vorher war ja der Slider bei 2050MHz am Anschlag), am Chiptakt haben wir nicht rumgespielt (zu wenig Zeit). Die Spannung im höchsten Powerlevel (1290MHz) betrug bei der Karte beachtliche 1,168V. Außerdem hat XFX das Standard-Powertarget wohl etwas angehoben, denke ich. Zumindest lief die Karte im Furmark mit durchschnittlich knapp 1200MHz (die Referenz liegt da z.B. deutlich tiefer, wenn ich mich recht entsinne). Hier konnte er das Temperaturtarget übrigens nicht halten und kam im Maximum bis an 88°C heran (die Lüfter gehen dabei [langsam] auf die 3000 rpm in den Standardsettings maximal erlaubten), wo er sich dann mit dem verringertem Takt einpegelte. Allerdings reichten auch 100% Lüfter (3600rpm und dann deutlicher unter 90°C) nicht aus, um wirklich über 1200MHz im Furmark zu kommen (die Karte gewann aber noch minimal Takt). Das ist dann wohl das Power-Limit (war auf Standard belassen), was zuschlägt (kann man ja anheben, wenn einem das zu wenig ist). Also vom Hocker hat mich die Kühlleistung nicht gerissen, war aber recht solide gemessen an der Abwärme (die Karte heizte schon ganz ordentlich, weniger Corespannung wäre wohl sehr hilfreich). Die Furmark-Runs liefen mit 8,5Gbps Speicher, spielt vermutlich nicht so die große Rolle, keine Ahnung.

Achja, die Lüftersteuerung ist extrem langsam. Wenn man irgendwas anschmeißt, bleibt der Lüfter noch eine ganze Weile unhörbar. Das dauert mehrere Minuten, bis er sich bemüßigt sieht, mal irgendwie etwas hochzudrehen. Und umgedreht genauso: Rennt der Lüfter nach ein paar Minuten Furmark auf 3000 rpm und man beendet es, geht die Drehzahl vielleicht mit 10rpm pro Sekunde oder so runter, selbst wenn die GPU nach einer Minute nur noch 35°C hat, macht der Lüfter noch mit über 2000 rpm ordentlich Betrieb. Die Nachlaufzeit ist also recht groß.
Und ändert man irgendwas im Wattman an den Lüftersettings, resettet sich die ganze Regelung und hält erstmal die Lüfter an, um sie dann ganz gemütlich hochzufahren, selbst unter Last im Furmark :freak:.

Insgesamt macht die Karte nach meinem zugegeben kurzen Eindruck (anderthalb Stunden) einen recht soliden Eindruck. Das Temperaturtarget ist allerdings für meinen Geschmack zu niedrig gesetzt (unnötig laut). Und die Lüfterdrehzahl nach einer Last könnte auch schneller runtergehen. Dem kann man entweder mit einem höheren Temperaturtarget etwas entgegenwirken, oder man limitiert im Wattman einfach die Lüfterdrehzahl auf den persönlich noch erträglichen Wert (dann kann er gegebenefalls bei hoher Last die Temperatur nicht halten und regelt im Zweifelsfall vor Erreichen der 90°C ab).
Zum OC oder Undervolting kann ich mangels Versuch nicht viel sagen. Lediglich den Speicher habe ich mal kurzentschlossen bis an den Anschlag hochgezogen, was erstmal ohne Probleme lief.

Ich hab die XFX FE der 480 und betreibe sie mit 1.078 mV bei 1290 Mhz/2200 Mhz, Temp unter Last 65-75 Grad und die 1290 Mhz werden gehalten. Undervolting auszuprobieren lohnt sich! Ach ja Lüfter drehen unter Last zwischen 1700 und 2500, je nach Game.

Th3o
2016-08-23, 22:03:37
Ich hab die XFX FE der 480 und betreibe sie mit 1.078 mV bei 1290 Mhz/2200 Mhz, Temp unter Last 65-75 Grad und die 1290 Mhz werden gehalten. Undervolting auszuprobieren lohnt sich! Ach ja Lüfter drehen unter Last zwischen 1700 und 2500, je nach Game.

was ist eine XFX FE der 480? Meinst Du die XFX Radeon RX 480 GTR Black Edition oder die XFX Radeon RX 480 GTR?

tech noir
2016-08-24, 05:08:16
Was wird die PowerColor Radeon RX 480 Red Devil V2 bringen?
Wahrscheinlich das Logo richtig herum, aber warum gibt es dann noch keine Info zu den Taktraten?

(del)
2016-08-24, 06:56:51
Für den Hersteller sicher niedrigere Kosten ;)

masked__rider
2016-08-24, 10:08:04
Was wird die PowerColor Radeon RX 480 Red Devil V2 bringen?
Wahrscheinlich das Logo richtig herum, aber warum gibt es dann noch keine Info zu den Taktraten?

Weiß man schon was über die V2? Wieso, weshalb? Ich hab meine Devil jetzt seit ein paar Tagen, so richtig überzeugt bin ich noch nicht. Die Lüfter geben bei höherer Drehzahl ein leises Schleifen von sich. Und im Multimonitor-Betrieb wird die Karte ca 61C° warm.. Lüfter laufen dann auf minimum.. Warum AMD das nicht auf die Reihe bekommt...

Mortalvision
2016-08-24, 11:55:16
Hast du die WLP gewechselt?

NikLaw
2016-08-24, 17:32:16
was ist eine XFX FE der 480? Meinst Du die XFX Radeon RX 480 GTR Black Edition oder die XFX Radeon RX 480 GTR?

UPS, meinte die ganz normal AMD-Version, FE war ja bei nvidia. XFX RX 480.

masked__rider
2016-08-24, 17:35:06
Hast du die WLP gewechselt?

Nein, noch ned. Weil ich noch überlege die Karte aufgrund der Schleifgeräusche umzutauschen. Hörst du bei deiner Karte ab 1800rpm etwas merkwürdiges von den Lüftern oder alles ok?

Mortalvision
2016-08-24, 23:38:16
Nein, keinerlei Schleifen!

Cyphermaster
2016-08-25, 08:25:16
UPS, meinte die ganz normal AMD-Version, FE war ja bei nvidia. XFX RX 480.
Das kann nicht sein. Du mußt entweder eine "RS" oder "GTR"-Version haben - die "ganz normale AMD-Version" (= Referenzdesign) hat nur einen einzelnen Radiallüfter.

dildo4u
2016-08-25, 08:37:04
F1 2016 Benches

https://www.computerbase.de/2016-08/f1-2016-test/2/#diagramm-f1-2016-1920-1080

Auslastung der 480 ist auch ohne DX12 ziehmlich gut,kein Plan was die PC Version extra hat aber mir erscheinen die 60fps@1080p ziehmlich langsam für eine 480.Mal sehen was ein PS4 vs PC vergleich zeigt.

NikLaw
2016-08-25, 09:38:27
Das kann nicht sein. Du mußt entweder eine "RS" oder "GTR"-Version haben - die "ganz normale AMD-Version" (= Referenzdesign) hat nur einen einzelnen Radiallüfter.

XFX RX 480 Referenzdesign mit Radiallüfter ist richtig, 4 GB auf 8 GB geflasht, 219 EUR. :)

Wenn ich nicht übertakte läuft sie mit 1,075 mV und Standardlüftersteuerung mit Ca. 1500-2000 U/min bei 50-75 Grad. Powertarget +10 %.

ASIC 78,9 %

Gipsel
2016-08-25, 10:50:26
F1 2016 Benches

https://www.computerbase.de/2016-08/f1-2016-test/2/#diagramm-f1-2016-1920-1080

Auslastung der 480 ist auch ohne DX12 ziehmlich gut,kein Plan was die PC Version extra hat aber mir erscheinen die 60fps@1080p ziehmlich langsam für eine 480. Mal sehen was ein PS4 vs PC vergleich zeigt.Die relative Einordnung zur 1060 von nV (wird in allen Settings geschlagen) sieht aber nicht so aus, als wäre die RX480 da besonders langsam.

===============================

XFX RX 480 Referenzdesign mit Radiallüfter ist richtig, 4 GB auf 8 GB geflasht, 219 EUR. :)

Wenn ich nicht übertakte läuft sie mit 1,075 mV und Standardlüftersteuerung mit Ca. 1500-2000 U/min bei 50-75 Grad. Powertarget +10 %.

ASIC 78,9 %Kann ich kaum glauben, daß das auch bei fordernden Spielen hinkommt mit dem Mini-Kühler (mach mal VSync aus ;)). Die GTR dreht ihre zwei 92mm Lüftern schon schneller, um 75°C zu halten. Okay, Chip lief auch mit 100mV mehr (muß ich mal runtersetzen, wenn ich das nächste Mal wieder da bin), aber trotzdem.

Cyphermaster
2016-08-25, 11:12:36
XFX RX 480 Referenzdesign mit Radiallüfter ist richtig, 4 GB auf 8 GB geflasht, 219 EUR. :)

Wenn ich nicht übertakte läuft sie mit 1,075 mV und Standardlüftersteuerung mit Ca. 1500-2000 U/min bei 50-75 Grad. Powertarget +10 %.

ASIC 78,9 %Sorry, mein Fehler, hatte da (wohl wegen schnellem Lesen) einen Teil von masked_rider fälschlich im Hinterkopf dir zugeordnet. :redface:

dildo4u
2016-08-25, 11:26:47
Die relative Einordnung zur 1060 von nV (wird in allen Settings geschlagen) sieht aber nicht so aus, als wäre die RX480 da besonders langsam.

Ich meine im Vergleich zur PS4.

dargo
2016-08-25, 11:29:34
Die PS4 wird sicherlich reduzierte Details haben, war schon in F1 2015 so im Regen. Zudem ist fraglich ob die PS4 die 60fps überhaupt hält. War im letzten Teil wieder bei weitem nicht der Fall.

NikLaw
2016-08-25, 12:27:46
Die relative Einordnung zur 1060 von nV (wird in allen Settings geschlagen) sieht aber nicht so aus, als wäre die RX480 da besonders langsam.

===============================

Kann ich kaum glauben, daß das auch bei fordernden Spielen hinkommt mit dem Mini-Kühler (mach mal VSync aus ;)). Die GTR dreht ihre zwei 92mm Lüftern schon schneller, um 75°C zu halten. Okay, Chip lief auch mit 100mV mehr (muß ich mal runtersetzen, wenn ich das nächste Mal wieder da bin), aber trotzdem.

Undervolting spart ne Menge Hitze und 100 mV sind schon erheblich mehr. FPS Lock auf 60 habe ich, außer bei Doom, an. Default Spannung war auf 1,165 V eingestellt.

Mortalvision
2016-08-26, 17:37:08
Ich würde ja gerne meine Karte mal undervolten. Macht die aber nicht mit :( ASIC ist nur 76,1%

Dafür geht der Speicher ganz gut, und ein klein bischen Undervolting ist immerhin drinnen (2% auf 1355 MHz)

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=57138&stc=1&d=1472225861

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=57139&stc=1&d=1472225861

DarkmanX88
2016-08-27, 16:45:55
Hab ASIC von 81,5 wie weit kann man da untervolten ?
ist ne RX480 von Sapp mit 4GB
http://www2.pic-upload.de/thumb/31562225/Unbenannt2.png (http://www.pic-upload.de/view-31562225/Unbenannt2.png.html)

Messias
2016-08-27, 16:48:32
Meint ihr alle "untervolten"? Oder übertakten?
Mortalvision zumindest scheint da was durcheinander zu bringen...

Zur Sache selbst: Das ist immer individuell. Ausprobieren.

Mortalvision
2016-08-27, 16:51:21
Nimm mal im Wattman in den letzten drei Stufen je 50 mV weg. Klappt es so, prima! Sonst gehst du zusätzlich 50 mV weiter runter. Klappt das, kannst Du in der Regel das Ganze 3-5 Mal wiederholen.

Lady Edith: meine Karte lässt sich nicht sinnvoll undervolten :(

DarkmanX88
2016-08-27, 16:52:53
mit welchem GPU stress tool teste ich das am besten sorry bin da aber echt lange raus damals war es ja nocht mit dem ATItool ca 10 Jahre her :D

aufkrawall
2016-08-27, 17:03:31
Diese Tools decken häufig nur offensichtlich instabiles OC auf (oder Hardware-Probleme). Aktuelle Spiele sind meist besser geeignet, um Grafikfehler durch OC zu provozieren.
Mit meiner 390 war das neue Hitman da absolut am anfälligsten.

Messias
2016-08-27, 17:04:02
Doom. ;)

DarkmanX88
2016-08-27, 17:24:44
hab nur csgo XD

iuno
2016-08-27, 17:41:50
Weiss nicht, ob DOOM wirklich eine gute Wahl ist, aber als kleinen Hinweis: die Demo gibt es auf Steam.

dargo
2016-08-27, 18:57:53
Ich würde ja gerne meine Karte mal undervolten. Macht die aber nicht mit :( ASIC ist nur 76,1%

Du lässt die GPU mit 1355Mhz laufen und wunderst dich, dass du nicht undervolten kannst? :uconf3: Schau doch einfach nach was an UV mit 1266Mhz drin ist.

Mortalvision
2016-08-27, 21:04:20
Du lässt die GPU mit 1355Mhz laufen und wunderst dich, dass du nicht undervolten kannst? :uconf3: Schau doch einfach nach was an UV mit 1266Mhz drin ist.

Ich mag aber nicht undervolten ^^

dargo
2016-08-27, 21:10:56
Warum schreibst du dann was anderes? :confused:
Ich würde ja gerne meine Karte mal undervolten. Macht die aber nicht mit :( ASIC ist nur 76,1%

Mortalvision
2016-08-28, 08:40:14
Ich meinte undervolten ohne Takteinbuße. ;)

MadManniMan
2016-08-28, 12:05:48
Gibt es eigentlich einen tatsächlichen Zusammenhang zwischen Taktung/Spannung/Bla und der "ausgelesenen" ASIC-Qualität?

Mortalvision
2016-08-28, 12:12:46
Das ist mehr was Statistisches. Du kannst irre hohen ASIC haben und trotzdem kein MHz höher takten.

Megamember
2016-08-28, 12:16:32
Gibt es eigentlich einen tatsächlichen Zusammenhang zwischen Taktung/Spannung/Bla und der "ausgelesenen" ASIC-Qualität?

Hohe Asic braucht tendenziell weniger Spannung bei gleichem Takt. Bei gleicher Spannung und Takt verbrauchen sie aber auch mehr als niedrige Asics. So klar sind die Vorteile also auch nicht.

MadManniMan
2016-08-28, 14:11:54
Das ist mehr was Statistisches. Du kannst irre hohen ASIC haben und trotzdem kein MHz höher takten.

Das ist klar. Mich würde daher die Korrelation interessieren.


Hohe Asic braucht tendenziell weniger Spannung bei gleichem Takt. Bei gleicher Spannung und Takt verbrauchen sie aber auch mehr als niedrige Asics. So klar sind die Vorteile also auch nicht.

Wie wird die denn ausgelesen?

Megamember
2016-08-28, 14:17:31
Mit GPU-z geht das, unter settings.

MadManniMan
2016-08-28, 15:34:45
Mit GPU-z geht das, unter settings.

Nee, das weiß ich doch. Ich will nicht wissen, wo man den Namen des Kindes lesen kann, sondern wie er vergeben wird.

Iruwen
2016-08-29, 12:57:19
Der Wert wird bei der Produktion individuell und unveränderlich in jeden ASIC geschrieben.

We've found the ways in which AMD and NVIDIA segregate their freshly-made GPU ASICs based on the electrical leakages the chips produce (to increase yield by allotting them in different SKUs and performance bins), and we've found ways in which ASIC quality can be quantified and displayed.

https://www.techpowerup.com/159098/techpowerup-gpu-z-0-5-8-released

scully1234
2016-08-29, 12:59:34
Bei Pascal kann man ihn derzeit nicht ermitteln ueber GPU Z

Triskaine
2016-08-29, 13:52:05
Die sogenannte „ASIC-Quality“ (eigentlich SIDD) ist bei AMD ein Messwert für den statischen Leckstrom eines GPU-ASICs. Dazu wird während des Tests und Binnings der Chips der Leckstrom gemessen und als 10-bit Wert (1024 Stufen) über eFuses fest für jeden Chip individuell eingebrannt. GPU-Z liest diesen Wert aus und überträgt ihn auf eine 0-100% Skala (0-1023). Bei einem FijiXT Chip z.B. kann sich der Leckstrom in einem Bereich von 26 bis 46A bewegen. Meine Fury mit einem SIDD von 56,5% hat also einen statischen Leckstrom von 37,3A. In der Praxis ist die Varianz meist deutlich kleiner als maximal möglich, die meisten (>99%) Furys dürften zwischen 36 bis 40A liegen.

Der SIDD-Wert wird durch Powertune bei der Bestimmung der aktuell anliegenden Spannung verwendet. Dazu gibt es im VBIOS Tabellen über mögliche Spannungsstufen, die je nach SIDD über Pointer festgelegt werden. Ein Chip mit hohem SIDD wird eine niedrigere Spannung bekommen, ein Chip mit niedrigerem SIDD eine höhere. Wie schon mal erwähnt, wird ein Chip mit hoher SIDD bei gleicher Spannung und Takt mehr verbrauchen bzw. schneller ins Powerlimit rennen als einer mit niedrigerer SIDD. Eine Nano hat also tendenziell eine kleinere SIDD als eine Fury X.

Grundsätzlich sagt der SIDD-Wert aber nichts darüber aus wie gut ein bestimmter Chip sich übertakten lässt, außer das Chips mit hoher SIDD tendenziell besser mit der Spannung skalieren. Solange der Chip mit normaler Kühlung, also Luft und Wasser betrieben wird, ist bei AMD ein niedrigerer ASIC/SIDD Wert zu bevorzugen da man meistens an die thermische/Stromaufnahme Grenze stößt bevor die bessere Spannungsskalierung Wirkung zeigt.

skampi
2016-08-29, 14:49:59
Der Wert wird bei der Produktion individuell und unveränderlich in jeden ASIC geschrieben.


Zitat:
We've found the ways in which AMD and NVIDIA segregate their freshly-made GPU ASICs based on the electrical leakages the chips produce (to increase yield by allotting them in different SKUs and performance bins), and we've found ways in which ASIC quality can be quantified and displayed.

https://www.techpowerup.com/159098/t...0-5-8-released



Von "unveränderlich in jeden ASIC geschrieben" steht aber zumindest in dem von Dir angeführten Zitat nichts... .

Triskaine
2016-08-29, 15:06:04
Von "unveränderlich in jeden ASIC geschrieben" steht aber zumindest in dem von Dir angeführten Zitat nichts... .

Die SIDD ist tatsächlich Chipindividuell und unveränderlich. Der gleiche Mechanismus (eFuse) wird auch benutzt um z.B. CUs zu deaktivieren.

Iruwen
2016-08-29, 15:28:26
Offenbar kann man den genauen Wafer und sogar die Position auf dem Wafer bestimmen.

Dave Baumann hat auch mal grundsätzlich was dazu gesagt: https://forum.beyond3d.com/threads/hd-5870-first-impressions.47065/page-2#post-1367002

Hübie
2016-08-29, 16:09:09
Das ist bei NVIDIA etwas anders. Die ASIC ist nicht die einzige Größe, welche die Spannung bestimmt. Habe schon einige Chips mit gleicher ASIC aber unterschiedlichen Spannungen bei Takt XY gesehen. Da muss noch mehr hinter stecken. Soviel ich weiß ist deren Binning aufwändiger. Hab mal einige Screenshots von dem Verfahren gesehen und wie es aussieht macht man das Pin-Gruppe für Pin-Gruppe. Leider ist deren Pinout nirgends öffentlich zugänglich. :D Ich tippe einfach dass NV mehr PLL/Taktdomänen hat und so separate Spannungen anlegen kann (welche auch noch schnell wechseln können). Dadurch ergibt sich allein schon ein Vorteil im Verbrauch.
Aber interessant wieviel du weißt, Triskaine.

Triskaine
2016-08-29, 16:34:12
Das ist bei NVIDIA etwas anders. Die ASIC ist nicht die einzige Größe, welche die Spannung bestimmt. Habe schon einige Chips mit gleicher ASIC aber unterschiedlichen Spannungen bei Takt XY gesehen. Da muss noch mehr hinter stecken. Soviel ich weiß ist deren Binning aufwändiger. Hab mal einige Screenshots von dem Verfahren gesehen und wie es aussieht macht man das Pin-Gruppe für Pin-Gruppe. Leider ist deren Pinout nirgends öffentlich zugänglich. :D Ich tippe einfach dass NV mehr PLL/Taktdomänen hat und so separate Spannungen anlegen kann (welche auch noch schnell wechseln können). Dadurch ergibt sich allein schon ein Vorteil im Verbrauch.
Aber interessant wieviel du weißt, Triskaine.

Bei der Lastregelung spielen auch bei AMD natürlich noch andere Faktoren als der Leckstrom eine Rolle, so wie Temperatur, Auslastung, Telemetrie der Wandler und noch ein paar andere Dinge. Es ist natürlich auch möglich die ASICs nach der Qualität ihres Timingbudgets zu binnen, das geht über Transition-Scan-Testing. Nvidia ist was moderne Testmethodik betrifft ziemlich weit vorne, wenn man mal in die entsprechenden Paper schaut. AMD benutzt die Leckstrommessung hauptsächlich um die Ausbeute zu optimieren und die Varianz innerhalb einer Produktreihe möglichst klein zu halten. Die gleiche Methode wird auch bei ihren CPUs angewendet. Leider braucht es bei AMD oft einige Revisionen bis das Binning und Powermanagement sauber läuft, deswegen kann man bei einigen Karten (wie der Fury) noch einiges per Hand rausholen. Der ewige Fluch der knappen Ressourcen.

AMD geizt dafür im allgemeinen mit der Veröffentlichung solcher Implementierungsdetails nichts so sehr wie Nvidia, über die Linux Treiber kann man auch einiges über den tatsächlichen Aufbau der Chips herausfinden. Es schadet natürlich auch nicht das ich selbst bei einem Halbleiterkonzern tätig bin. :biggrin:

Schaffe89
2016-08-30, 05:57:58
Kommt von AMD jetzt eigentlich nochmal noch ein TReiber um die Leistungsaufnahme zu senken?
Oder was das nur eine Ausrede zum Release? Jetzt sind 8 Wochen rum und es hat sich immernoch nichts getan. Die Redaktionen sollten da vielleicht mal nachhaken, genauso beim nicht funktionierenden Feature Zero Core Power, funktioniert auf meiner Nano schon seit Ewigkeiten nicht mehr.

horn 12
2016-08-30, 06:51:20
http://www.eprice.it/schede-video-ASUS/d-8915135?shopid=0&meta=TRVP&utm_source=TRVP&utm_term=Radeon+RX+480+8+GB+GDDR5+Pci-E+HDMI+2.0b+/+3xDisplay+Port+1.4+STRIX+OC&utm_medium=cpc&utm_campaign=Schede+Video

ASUS Strix RX 480 lieferbar aber der Preis 409 Euroi Zumindest bei uns in Italien.
Bis generell die RX 480 Karten gute Preise aufweisen werden können haben wir Ende September!

Grendizer
2016-08-30, 14:56:00
http://www.eprice.it/schede-video-ASUS/d-8915135?shopid=0&meta=TRVP&utm_source=TRVP&utm_term=Radeon+RX+480+8+GB+GDDR5+Pci-E+HDMI+2.0b+/+3xDisplay+Port+1.4+STRIX+OC&utm_medium=cpc&utm_campaign=Schede+Video

ASUS Strix RX 480 lieferbar aber der Preis 409 Euroi Zumindest bei uns in Italien.
Bis generell die RX 480 Karten gute Preise aufweisen werden können haben wir Ende September!


Dafür bekommt man in DE schon eine 1070 :eek:

Goser
2016-08-30, 15:09:37
Dafür bekommt man in DE schon eine 1070 :eek:
Ja echter Wahnsinn was da mit den Preisen geht, zumal man eine gute custom RX 470 für 200€ bekommt

http://geizhals.de/his-radeon-rx-470-x-turbo-hs-470r4ltnr-a1488555.html?hloc=at&hloc=de

Fliwatut
2016-08-30, 20:03:17
Die 470 ist die stimmigere Polariskarte.

Achill
2016-08-30, 20:37:13
http://www.eprice.it/schede-video-ASUS/d-8915135?shopid=0&meta=TRVP&utm_source=TRVP&utm_term=Radeon+RX+480+8+GB+GDDR5+Pci-E+HDMI+2.0b+/+3xDisplay+Port+1.4+STRIX+OC&utm_medium=cpc&utm_campaign=Schede+Video

ASUS Strix RX 480 lieferbar aber der Preis 409 Euroi Zumindest bei uns in Italien.
Bis generell die RX 480 Karten gute Preise aufweisen werden können haben wir Ende September!

https://www.amazon.cn/ASUS-ROG-STRIX-Radeon-Rx-480-8GB-OC-Edition-DP-1-4-HDMI-2-0-AMD-Polaris-Graphics-Cards-STRIX-RX480-O8G-GAMING/dp/B01J3TZJOA/ref=sr_1_1?ie=UTF8&qid=1472581980&sr=8-1&keywords=ASUS+Radeon+RX+480

¥ 2,016.71 =~ 270€

jorge42
2016-08-30, 20:38:21
Inzwischen bekommt man die custom 480er mit 8gb doch auch für 299
Bei 1440p würde ich doch lieber ne 480 nehmen

Linmoum
2016-08-31, 16:17:19
http://www.mindfactory.de/Highlights/MindStar/main/true

XFX 480 GTR für 275€ im Mindstar, 100 Stück verfügbar.

DarkmanX88
2016-08-31, 19:16:42
Jungs gibt es ein Desktop Tool wie damals Atitool
Muss net automatisch den Takt anheben.. Geht nur drum Bsp bei Zuviel Speichertakt das die Bildfehler angezeigt werden :)

Echt kb cs Zuspielen und am Takt rumschrauben und im MM
Zack weg

iuno
2016-08-31, 19:49:17
http://www.mindfactory.de/Highlights/MindStar/main/true

XFX 480 GTR für 275€ im Mindstar, 100 Stück verfügbar.
Zu der gibt es keinen Test? :eek:
taugt?

Screemer
2016-08-31, 19:50:52
Nen automatischen artefaktscan wie atitool gibts nicht mehr. Sowas könnte man wirklich mal wieder anbieten. Die Frage ist nur wie verläßlich sowas wäre.

Pirx
2016-08-31, 20:16:02
Zu der gibt es keinen Test? :eek:
taugt?
hier im Thread hatte schon jemand was zu einer XFX 480 geschrieben
afair wohl langsame Lüftersteuerung, sonst ok

edit: ahja, dieser Jemand;) http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11138638#post11138638

DarkmanX88
2016-08-31, 20:22:57
Nen automatischen artefaktscan wie atitool gibts nicht mehr. Sowas könnte man wirklich mal wieder anbieten. Die Frage ist nur wie verläßlich sowas wäre.

Automatisch net wirklich aber hab vorhin doch was gewunden ausm
Techchannel poste es später.

Hab es 3 min getestet Zeigt wie damals Atitool die Fehler an.....

Th3o
2016-08-31, 23:16:11
Zu der gibt es keinen Test? :eek:
taugt?

Ich hatte diese Karte ein Paar Tage und habe sie wieder zurückgeschickt. Imho ist die Kühllösung nicht gut genug für diesen Hitzkopf RX 480. Bis 2000 rpm ist die Karte leise, danach schon wahrnehmbar. Meine 4 Jahre alte ASUS GeForce GTX 670 DirectCU II mit einer TDP von 170 W kriegt das wesentlich besser hin. Ich warte erstmal bis alle Custom Designs getestet sind und entscheide dann. Für eine wirklich gute RX 480 bin ich auch bereit bis 320€ zu zahlen, ansonsten denke ich auch über die RX 470 Nitro mit 8GB nach.

Raff
2016-08-31, 23:23:22
Das Prädikat "wirklich gut" verdient meiner Meinung nach nur die MSI Gaming X, auch wenn mich da die nicht ganz optimale VRM-Kühlung stört. Dennoch: Die Karte ist leise und sie kann ihren Boost halten – das dicke Powerlimit in Kombination mit dem starken Kühler macht's möglich. In der am Freitag digital erhältlichen PCGH 10/2016 finden Interessenten übrigens einen Vergleichstest von 15 Grafikkarten zwischen 250 und 330 Euro, darunter sechs 480er. Just sayin' ... :)

MfG,
Raff

Th3o
2016-08-31, 23:59:39
Das Prädikat "wirklich gut" verdient meiner Meinung nach nur die MSI Gaming X, auch wenn mich da die nicht ganz optimale VRM-Kühlung stört. Dennoch: Die Karte ist leise und sie kann ihren Boost halten – das dicke Powerlimit in Kombination mit dem starken Kühler macht's möglich. In der am Freitag digital erhältlichen PCGH 10/2016 finden Interessenten übrigens einen Vergleichstest von 15 Grafikkarten zwischen 250 und 330 Euro, darunter sechs 480er. Just sayin' ... :)

MfG,
Raff

Freitag beim Zeitschriftenhändler meines Vertrauens? Can't wait until friday ;)

g2422125
2016-09-01, 00:19:53
genauso beim nicht funktionierenden Feature Zero Core Power, funktioniert auf meiner Nano schon seit Ewigkeiten nicht mehr.
Ohne Monitor am DVI-Port gibts auch kein Zero Core Power, so war´s jedenfalls bei allen vorherigen Generationen. Ich bezweifle das AMD extra für deine Nischenkarte die Funktion so umgestrickt hat, dass diese auch mit DP oder HDMI funktioniert

Schaffe89
2016-09-01, 02:49:50
Wie schick, die Nano hat auch keinen DVI Port...

DarkmanX88
2016-09-01, 12:28:54
@Screemer
Das geht noch :D also der artefaktscan
https://www.techpowerup.com/downloads/1383/gputool-community-technology-preview-1

Screemer
2016-09-01, 12:55:36
@Screemer
Das geht noch :D also der artefaktscan
https://www.techpowerup.com/downloads/1383/gputool-community-technology-preview-1
Boah. Das Ding ist ja schon 100 Jahre alt ;) ob da noch Verlass drauf ist und es ordentlich gpulast erzeugt?!

DarkmanX88
2016-09-01, 14:58:10
Boah. Das Ding ist ja schon 100 Jahre alt ;) ob da noch Verlass drauf ist und es ordentlich gpulast erzeugt?!

Hab es getestet findet artefakte und wiendamals beim Atitool wenn max erreicht -> 5mhz zurück und alles Save :)

Edit wegen der Last liegt immer bei 95-99% :)

marc-05
2016-09-01, 15:29:26
Bei OCCT unter GPU Test gibts auch noch so eine Option " Fehler-Prüfung" ,beim Test hat man dann Error Counter.

Raff
2016-09-01, 18:45:30
Freitag beim Zeitschriftenhändler meines Vertrauens? Can't wait until friday ;)

Nicht ganz, die gedruckte PCGH erscheint immer am ersten Mittwoch des Monats – neu ist, dass die Digitalversion schon ab Freitag davor erhältlich ist. Ist aber nicht mehr sooo lang.

Appetitmacher: Inhalt der PCGH 10/2016 (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-10-2016-Magazin-DVD-Download-PDF-1206420/) :)

MfG,
Raff

N0Thing
2016-09-02, 00:35:05
Hat zufällig jemand Insiderinformationen zur Hand, wann mit neuem Nachschub der Referenz RX 480 gerechnet werden kann? Das Angebot ist inzwischen doch sehr überschaubar geworden und keine Karte ist mehr für den sonst üblichen Preis von 269€ erhältlich.

Raff
2016-09-02, 00:36:48
EOL.

MfG,
Raff

N0Thing
2016-09-02, 00:37:39
Kein Smiley, also ernst gemeint??

Raff
2016-09-02, 00:44:03
Das ist das, was ich zuletzt vermehrt hörte. Ist eben keine "Founders Edition", sondern nur ein Referenzdesign. :ugly:

Für was brauchst du den Plastikbomber denn? Kauf dir besser eine Red Devil, Gaming X oder Strix. :)

MfG,
Raff

N0Thing
2016-09-02, 01:03:53
Inzwischen wird es arg eng bei einigen Spielen mit 2GB VRAM. :D
Die RX 480 im Referenzdesign wäre eine Übergangslösung bis Vega kommt, um dann endgültig aufzurüsten. Dann würde die RX 480 in ein HTPC Case umziehen und da wäre ein DHE Lüfter ideal, trotz der sonstigen Nachteile.

In mein normales Case würde sonst nur eine leise Custom Karte einziehen dürfen, hätte jetzt aber eine Ausnahme gemacht. Und da mein Monitor Freesync unterstützt, sträube ich mich ein wenig dagegen, Nvidia nach der Geschichte mit der GTX 970 Geld zu geben, wenn AMD was adäquates anbieten kann.

Screemer
2016-09-02, 10:20:26
Kauf dir ne 470. Da ist das plv derzeit einfach besser und man kann bis Vega brücken. Vor allem kann man die auch noch kaufen ;)

zB geizhals.de/msi-radeon-rx-470-gaming-x-8g-v341-001r-a1488445.html?hloc=at&hloc=de

Schaffe89
2016-09-02, 11:16:29
Kauf ne GTX 1060, ne rx470/rx480 mit großem Klopper für nen HTPC?
Alleine der Stromverbrauch für so ein Gerät bei Videos usw.. wäre mir bei ner AMD aktuell zu hoch.

@ Raff

Was ist eigentlich mit AMD´s Ankündigung den Strombedarf zu senken? Kommt da noch was?

Schnoesel
2016-09-02, 11:20:50
Dann würde die RX 480 in ein HTPC Case umziehen und da wäre ein DHE Lüfter ideal, trotz der sonstigen Nachteile.


Die 4GB 470 gibts noch als DHE:

http://www.mindfactory.de/product_info.php/4096MB-Sapphire-Radeon-RX-470-Aktiv-PCIe-3-0-x16--Retail-_1117829.html

https://www.computerbase.de/preisvergleich/sapphire-radeon-rx-470-4g-d5-11256-00-20g-a1488305.html

Fürn Übergang doch recht passabel wie ich finde. Bei mir kommt auch noch ne GTX 470 4GB in den HTPC.

RoughNeck
2016-09-02, 14:10:40
Oder zumindest ein Tool ähnlich wie der Nvidia Inspector.
Da könnte man den 2D Takt forcieren. Der hohe Verbrauch beim Video abspielen ist total unnötig.

N0Thing
2016-09-02, 15:02:30
Kauf ne GTX 1060, ne rx470/rx480 mit großem Klopper für nen HTPC?
Alleine der Stromverbrauch für so ein Gerät bei Videos usw.. wäre mir bei ner AMD aktuell zu hoch.

Die kommt in ein HTPC Case, der Rechner wird aber als Linux- und LAN-PC verwendet, nicht Multimediasystem. Das ist einfach der Basteltrieb, der befriedigt werden will und es würde mir mittelfristig die Möglichkeit geben, meinen Haupt-PC mit einer WaKü auszustatten.
Eine Nvidia möchte ich diesmal aus den genannten Gründen (GTX 970 und Freesync) lieber vermeiden.

Die 4GB 470 gibts noch als DHE:

http://www.mindfactory.de/product_info.php/4096MB-Sapphire-Radeon-RX-470-Aktiv-PCIe-3-0-x16--Retail-_1117829.html

https://www.computerbase.de/preisvergleich/sapphire-radeon-rx-470-4g-d5-11256-00-20g-a1488305.html

Fürn Übergang doch recht passabel wie ich finde. Bei mir kommt auch noch ne GTX 470 4GB in den HTPC.

Die Karte hatte ich auch schon ins Visier genommen. Nach dem Griff zur 2GB GTX 770, möchte ich diesmal aber nicht schon wieder am unteren Ende der VRAM-Skala ansetzen. Falls wirklich keine RX 480 mehr nachgeliefert werden sollten, wäre die Sapphire dann aber wohl die beste Alternative.

Kauf dir ne 470. Da ist das plv derzeit einfach besser und man kann bis Vega brücken. Vor allem kann man die auch noch kaufen ;)

zB geizhals.de/msi-radeon-rx-470-gaming-x-8g-v341-001r-a1488445.html?hloc=at&hloc=de

Mangels Luftzug im zukünftigen Gehäuse ist ein DHE-Kühler eigentlich unvermeidlich.

Ich werde mal bis Anfang nächster Woche warten und dann mal bei Alternate oder Mindfactory nachfragen, was deren Stand der Dinge ist. Vielleicht verschifft AMD seine Karten ja mittels Hanjin (http://www.handelsblatt.com/unternehmen/handel-konsumgueter/hanjin-pleite-ein-containerriese-in-seenot/14479760.html). :freak:

Hermelinmaster
2016-09-02, 16:20:06
Die Sapphire Nitro hatten doch paar Probleme mit dem Kühler und wurden recht warm?

Gabs eigentlich mal den Versuch CUs bei der 470 frei zu schalten?

gedi
2016-09-03, 21:28:27
http://videocardz.com/review/his-radeon-rx-480-iceq-x2-roaring-turbo-8gb-review

Didi Bouzul
2016-09-05, 17:21:51
Habe mal die Asus dual-rx480-04G für 212€ geordert. Ich werde berichten, ob es ein P/L-Kracher ist.

Screemer
2016-09-05, 20:03:01
Für ne 4gb Karte? Nicht wirklich ;)

MadManniMan
2016-09-05, 21:00:56
Bei DEM Preis?

N0Thing
2016-09-06, 01:13:43
EOL.

MfG,
Raff

Das ist das, was ich zuletzt vermehrt hörte. Ist eben keine "Founders Edition", sondern nur ein Referenzdesign. :ugly:

Ich hab jetzt mal eine Rückmeldung von Shop bekommen, da wird erst Anfang Oktober eine neue Lieferung der Referenzkarten erwartet. Klingt also wirklich entweder nach EOL, oder es wurde gerade erst wieder ein Schiff beladen. Die letzte Lieferung ist inzwischen auch ein paar Wochen her und bei den custom Modellen sind die Preise hoch, oder die Lieferbarkeit gering. Klingt so, als ob AMD viel zu wenig Chips produzieren (lassen) kann. Wirklich schade.

dargo
2016-09-13, 12:34:50
HIS RX 480 IceQ X2 Roaring Turbo 8GB Video Card Review
http://www.madshrimps.be/articles/article/1000897/HIS-RX-480-IceQ-X2-Roaring-Turbo-8GB-Video-Card-Review/0#axzz4K89iZFUz

horn 12
2016-09-13, 23:51:40
Wie gut ist dann die HIS
Exakt gleich der XFX da selber Kühler und über TUL vekauft wird

Powercolor, XFX und HIS gehören zusammen.
Club-3D ist raus aus dem Grafikkarten Geschäft, eben!

(del)
2016-09-14, 07:19:01
Wie gut ist dann die HIS
Exakt gleich der XFX da selber Kühler und über TUL vekauft wird
Powercolor, XFX und HIS gehören zusammen.
Club-3D ist raus aus dem Grafikkarten Geschäft, eben!

Zu TUL gehören Powercolor und Club3D, während XFX und HIS zu Pine gehören. Zwei komplett verschiedene Konzerne, jedoch mit dem gleichen Kühler-OEM ;)

horn 12
2016-09-15, 00:01:19
Geiler Preis
So langsam macht sich die RX480 wirklich

http://www.taocomputer.eu/shop2007/scheda.asp?id=34941

Um die 250 bis 260 Euro mit 8GB wirklich die Karte schlechthin
Da überlege ich glatt meine Fury abzustoßen ... :-)

Nur über die Gigabyte G1 hört man nie nichts,
@Format C
was haltest von jener Gigabyte RX 480 G1

(del)
2016-09-15, 06:46:33
Naja, der Preis liegt in Deinem Link liegt bei 280 Euro, nicht 250 bis 260. ;)

Gigabyte gibt sich bewusst keine Mühe. Es lohnt einfach nicht, die Karten in Kleinserie zu produzieren.
Der alte Windforce auf der G1 ist auch nicht wirklich optimal, er wirkt irgendwie nur draufgeschludert - Cost Down.
Kein Wunder, dass es diese Karte nie in Stückzahlen nach Europa schaffen wird.

Gigabyte hat in Dongguan mit der neuen Fabrik genügend andere Probleme und MSI als Nachbarn.
Und wenn selbst ich keine eigenen Samples bekomme, dann gibts die Karte auch nicht wirklich ;)

Aber vielleicht erfahre ich ja im Oktober bei PC Partner bezüglich Verfügbarkeiten was Neues, ist auch in Dongguan :)
Da stempeln sie neben Zotac, inno3D und Manli ja auch die Sapphire-Karten.

Pirx
2016-09-15, 07:19:51
...
Gigabyte gibt sich bewusst keine Mühe. Es lohnt einfach nicht, die Karten in Kleinserie zu produzieren.
Der alte Windforce auf der G1 ist auch nicht wirklich optimal, er wirkt irgendwie nur draufgeschludert - Cost Down.
Kein Wunder, dass es diese Karte nie in Stückzahlen nach Europa schaffen wird.
...
keine Mühe, draufgeschludert, cost down - na ich weiß ja nicht... Objektivität sieht anders aus
Die Karte sieht doch von weitem gut aus/nicht schlechter, als andere und verfügbar ist sie auch gut.

Datarecovery09
2016-09-15, 07:30:17
Er wurde ja auch nach seiner persönlichen Meinung gefragt. Können wir nicht einen Moment lang einfach mal froh und glücklich darüber sein, dass Redakteure, die so ziemlich jede der Partnerkarten in der Hand hatten, uns ihre persönlichen Eindrücke schildern?

MadManniMan
2016-09-15, 07:39:07
Solange auch nur irgendwas Pirx' feststehendes Bild von ihm zu bestätigen in der Lage ist: warum sollte er die Gelegenheit verpassen?

dargo
2016-09-15, 07:45:10
Gigabyte gibt sich bewusst keine Mühe. Es lohnt einfach nicht, die Karten in Kleinserie zu produzieren.
Der alte Windforce auf der G1 ist auch nicht wirklich optimal, er wirkt irgendwie nur draufgeschludert - Cost Down.
Kein Wunder, dass es diese Karte nie in Stückzahlen nach Europa schaffen wird.

Gigabyte hat in Dongguan mit der neuen Fabrik genügend andere Probleme und MSI als Nachbarn.
Und wenn selbst ich keine eigenen Samples bekomme, dann gibts die Karte auch nicht wirklich ;)

Sowohl die 4GB als auch 8GB Version ist doch laut Geizhals in DE recht gut verfügbar. :confused:
http://geizhals.de/gigabyte-radeon-rx-480-g1-gaming-4g-gv-rx480g1-gaming-4gd-a1479729.html?hloc=at&hloc=de
http://geizhals.de/gigabyte-radeon-rx-480-g1-gaming-8g-gv-rx480g1-gaming-8gd-a1483564.html?hloc=at&hloc=de

uweskw
2016-09-15, 07:53:39
du kennst doch unser Format C: da wird keine Gelegenheit ausgelassen um offensichtlich oder unterschwellig gegen AMD zu bashen.
Und falls mal jemand wagt zu sagen er hätte unrecht, dann ist es halt wieder mal eine Verschwörung und alle tun nur so als hätten sie die Karten vorrätig:freak:
er weiß er weiß es nun mal besser als wir Ahnungslosen.

greetz
US

mkh79
2016-09-15, 08:08:55
Gigabyte hat in Dongguan mit der neuen Fabrik genügend andere Probleme und MSI als Nachbarn.
Und wenn selbst ich keine eigenen Samples bekomme, dann gibts die Karte auch nicht wirklich ;)


Aus Neugier: bedeutet das, du hast die Karte in der Hand gehabt und sie wurde nur öfters durchgereicht oder hattest du sie gar nicht in der Hand?
Letzteres wäre dann ja eher Unwillen seitens Gigabyte, wenn sie in Shops sogar verfügbar ist.

(del)
2016-09-15, 08:23:44
Ich durfte sie mir mal anschauen, konnte sie aber nicht selbst im Detail testen. In der EU wird die Karte weder aktiv beworben,
noch in nennenswerten Stückzahlen verkauft werden. Was ich hatte, war Pre-Production. Diese Samples darf ich weder schlachten, noch behalten.

Gigabyte nimmt die RX 480 mit, um den Status bei AMD zu halten und nicht, um damit Geld zu machen. Letzteres geht bei derart kleinen Stückzahlen gar nicht.
Die meisten Chips gehen zu AMD-exklusiven Fertigern, um denen das Überleben etwas einfacher zu machen. Im Gegensatz zu Asus oder MSI ist Gigabyte
zu klein, um irgendwelche Forderungen durchzudrücken. Allerdings macht die VGA-Sparte mit AMD-Karten schon seit einiger Zeit keine operativen Gewinne mehr.

Mal was anders:
Weil uns mittlerweile doch so einige Mails von Lesern erreichten, die sich über den angeblich nicht mehr aktiven Kompatibilitätsmodus seit Crimson 16.9.1 beschwerten,
habe ich noch einmal nachgemessen. Auch, damit nicht wieder dumme Gerüchte in Umlauf geraten:

http://www.tomshardware.de/amd-grafiktreiber-leistungsaufnahme-hotfix-kompatibilitatsmodus,testberichte-242229.html

Man kann mittlerweile wirklich unsignierte Firmware draufballern, wenn man weiß wie. Im Ergebnis ist die Referenzkarte jedoch für den Treiber keine solche mehr,
was eben zu Problemen führen kann. Man kann damit sogar das Balancing unbewusst verändern und die Spannungswandlerzüge hübsch überlasten.

mkh79
2016-09-15, 08:55:42
Danke für die Info.
Schade, dass sie keine Karten für Reviews herausgeben, zur Gigabyte findet man ja echt gar nix.

MikePayne
2016-09-15, 09:31:46
du kennst doch unser Format C: da wird keine Gelegenheit ausgelassen um offensichtlich oder unterschwellig gegen AMD zu bashen.
Und falls mal jemand wagt zu sagen er hätte unrecht, dann ist es halt wieder mal eine Verschwörung und alle tun nur so als hätten sie die Karten vorrätig:freak:
er weiß er weiß es nun mal besser als wir Ahnungslosen.

greetz
US

Stimme Dir & Pirx zu.
Er ist damit schon öfter negativ aufgefallen (AMD Bashing), ziemlich gewöhnlich.

Die RX 480 überzeugt mich immer noch - auch nach 2,5 Monaten im Gebrauch (ohne Probleme bisher).

MadManniMan
2016-09-15, 09:39:49
Du bist aber schon in der Lage zu erkennen, dass Format C keine beleglosen Subjektivitäten vorweist, sondern immer erklären kann, warum er welchen Standpunkt einnimmt? Ja?

RoughNeck
2016-09-15, 09:41:10
keine Mühe, draufgeschludert, cost down - na ich weiß ja nicht... Objektivität sieht anders aus
Die Karte sieht doch von weitem gut aus/nicht schlechter, als andere und verfügbar ist sie auch gut.

Er hat doch recht.
Bei den geringen Stückzahlen die Gigabyte mit der RX 470 / 480, warum da mehr Geld als nötig investieren?
Gigabyte gibt sich selbst bei den Nvidia Karten keine große Mühe, durfte eine 1070 Gaming G1 Karte mal antesten und die Lüfter sind furchtbar und der Kühler so abgespeckt, dass er halt reicht, mehr aber auch nicht.

Da möchte ich nicht wissen was die bei den AMD Karten so alles streichen.
Und wenn man sich die Verkaufscharts bei Mindfactory ansieht (ich weiß nicht repräsentativ für den Markt bla bla bla), dann können AMD User froh dass es noch so viele Partner gibt die AMD Karten anbieten.

dildo4u
2016-09-15, 09:42:38
Stimme Dir & Pirx zu.
Er ist damit schon öfter negativ aufgefallen (AMD Bashing), ziemlich gewöhnlich.

Die RX 480 überzeugt mich immer noch - auch nach 2,5 Monaten im Gebrauch (ohne Probleme bisher).


Kommt vermutlich drauf an was man aktuell zockt.Deus Ex soll z.b Probleme machen.

Between the RX 480 and the GTX 1060, the most interesting graphs may be those of the time spent beyond the 50-ms and 30-ms thresholds. The RX 480 spends slightly longer working on frames that take longer than 50 ms and 33.3 ms to complete, and that time translates into slight-but-noticeable hitches during gameplay. The GTX 1060 spends barely any time past 33.3 ms working on frames, and it spends no time past 50 ms. That means it offers a perceptibly smoother gameplay experience, even if it's not turning out as many frames as the RX 480 does.

http://techreport.com/review/30639/examining-early-directx-12-performance-in-deus-ex-mankind-divided/2

mkh79
2016-09-15, 09:56:05
Seltsam, hier ist es zwar "nur" die RX470, aber selbst auf Ultra sind die Frametimes bei der 8GB in Ordnung:
https://www.computerbase.de/2016-09/grafikkarten-speicher-vram-test/3/#diagramm-deus-ex-mankind-divided-texturen-ultra-radeon-rx-470_2

(del)
2016-09-15, 10:01:28
Du bist aber schon in der Lage zu erkennen, dass Format C keine beleglosen Subjektivitäten vorweist, sondern immer erklären kann, warum er welchen Standpunkt einnimmt? Ja?Vergebliche Mühe. Gegen Fanboys helfen weder Argumente noch interne Einsichten. Damit kann ich aber kommod leben.

Wenn ich schreibe "hingeschludert", dann betrifft es den Boardpartner und nicht AMD. Die 1060 habe ich genauso bezeichnet, weil der billige DHT-Krempel mit den zwei spacken Heatpipes auch nicht besser ist. Cost-Down eben. Nur sind es genau diese Schnellschreiber, die solche Details gelant ausblenden, weil sie nur in einem Thread lesen :D

Pirx
2016-09-15, 10:03:48
Du bist aber schon in der Lage zu erkennen, dass Format C keine beleglosen Subjektivitäten vorweist, sondern immer erklären kann, warum er welchen Standpunkt einnimmt? Ja?
Keine Mühe, draufgeschludert, cost down - sind keine beleglosen Subjektivitäten?
Ich sehe das zwar jetzt nicht verbissen, aber da ist keine konkrete Aussage dabei, die dem Fragesteller wirklich weitergeholfen hätte und sowas stösst mir übel auf, gerade bei einem Hardwaretester.

gedi
2016-09-15, 10:23:03
Geiler Preis
So langsam macht sich die RX480 wirklich

http://www.taocomputer.eu/shop2007/scheda.asp?id=34941

Um die 250 bis 260 Euro mit 8GB wirklich die Karte schlechthin
Da überlege ich glatt meine Fury abzustoßen ... :-)

Nur über die Gigabyte G1 hört man nie nichts,
@Format C
was haltest von jener Gigabyte RX 480 G1

http://www.guru3d.com/articles-pages/gigabyte-radeon-rx-480-g1-gaming-review,1.html

(del)
2016-09-15, 10:23:06
Keine Mühe, draufgeschludert, cost down - sind keine beleglosen Subjektivitäten? Ich sehe das zwar jetzt nicht verbissen, aber da ist keine konkrete Aussage dabei, die dem Fragesteller wirklich weitergeholfen hätte und sowas stösst mir übel auf, gerade bei einem Hardwaretester.

Da es die Karte hier mit ziemlicher Wahrscheinlichkeit nie in wirklichen Stückzahlen geben wird, ist der Test eh obsolet.
So ein Shipment als Side-Kick zu anderen Paletten fällt halt mal mit ab.

Hilbert hat die Karte offensichtlich aus Taiwan oder an einem Lager abgegriffen und fürs Review entgegen der bei ihm gängigen Praxis
noch nicht mal aufgeschraubt. Komischerweise fehlen auch die sonst bei ihm üblichen IR-Bilder und ein paar andere Details.
Ist das keinem aufgefallen? Normalerweise ist Gigabyte immer hinterher, PCGH, CB und andere mit Karten zu bestücken - hier sehe ich nirgendwo etwas.

Der alte Windforce-Kühler ist brauchbar, da er für höhere TDP-Klassen gedacht war. Das Cover hat nun RGB, so what?
Man hätte auch das 380X Review kopieren können. Viel ist da am Kühler nicht passiert.
Was liegt da näher, als die alten aufzutragen? Das wird man ja wohl mal noch schreiben dürfen.

Und bitte, ich habe geschrieben "er wirkt wie" und nicht "er ist". Kleiner, aber feiner Unterschied.
Und es hat mit AMD nichts zu tun, weil sie es bei der 1070 auch nicht wirklich besser gemacht haben.
Wenn mir etwas nicht gefällt, sind die Grundfarbe des Chips und die Hersteller-Labels schlichtweg egal. Das schreibe ich dann auch :D

MechWOLLIer
2016-09-15, 11:42:07
Ist das keinem aufgefallen? Normalerweise ist Gigabyte immer hinterher, PCGH, CB und andere mit Karten zu bestücken - hier sehe ich nirgendwo etwas.

Sagt ja keiner, dass Gigabyte nicht gefragt hat ;)

dildo4u
2016-09-15, 11:49:09
Seltsam, hier ist es zwar "nur" die RX470, aber selbst auf Ultra sind die Frametimes bei der 8GB in Ordnung:
https://www.computerbase.de/2016-09/grafikkarten-speicher-vram-test/3/#diagramm-deus-ex-mankind-divided-texturen-ultra-radeon-rx-470_2
Techreport testet eine andere Stelle.

http://techreport.com/review/30639/examining-early-directx-12-performance-in-deus-ex-mankind-divided

mkh79
2016-09-15, 12:03:24
Bedeutet also, diese Spitzen treten nicht im ganzen Spiel auf.
Das kann heißen, die sind überwiegend da oder selten, auf jeden Fall macht das den Test in der Form obsolet, wenn in einem Spiel zwei völlig gegensätzliche Ergebnisse herauskommen.

Nichtmal herstellerabhängig ist da miener Meinung nach eine Aussage zu treffen, da die maximale Speichermenge nicht übereinstimmt, so dass man einen Vergleich anstellen könnte.
Bei CB sind die Frametimes der RX470 auf Ultra mit 8GB in Ordnung, GTX1060 hat schon Probleme bei Ultra damit, aber hätte sie die auch mit 8GB? Oder an anderer Stelle? Oder an anderer Stelle nicht?

dildo4u
2016-09-15, 12:07:09
Es scheint nix mit der Vram Menge zu tun zu haben,da Fury die Probleme nicht hat.

(del)
2016-09-15, 12:18:29
Sagt ja keiner, dass Gigabyte nicht gefragt hat ;)Wobei sich die Frage stellt, WANN sie gefragt haben ;)

Palpatin
2016-09-15, 12:26:46
Es scheint nix mit der Vram Menge zu tun zu haben,da Fury die Probleme nicht hat.
Deutet schon alles auf VRam Menge hin, da die 3GB Version genau die gleichen Probleme schon bei Textur Stufe Sehr Hoch hat die bei der 6GB Version dann bei Textur Stufe Ultra auftreten.
Bei der Radeon genau das gleiche nur das hier eben die 8GB Version auch Ultra problemlos schafft.

dildo4u
2016-09-15, 12:31:27
Wie gesagt CB testet eine anderen Stelle als Techreport,kann sein das die offenen Hublevel den V-Ram stärker füllen.Das war bei Tomb Raider auch der Fall am Anfang ging es noch mit einer 4GB Karte,dann gings Steil bergab in der ersten Hubwelt.

MechWOLLIer
2016-09-15, 12:34:23
Wobei sich die Frage stellt, WANN sie gefragt haben ;)
Vor ein paar Tagen.

dargo
2016-09-15, 12:57:46
Bei CB sind die Frametimes der RX470 auf Ultra mit 8GB in Ordnung, GTX1060 hat schon Probleme bei Ultra damit, aber hätte sie die auch mit 8GB?
Wo ist eigentlich Schaffe mit seinem überlegenen Speichermanagement bei Nvidia? :sneak:

dildo4u
2016-09-15, 13:02:27
2GB kann man damit whol kaum überbrücken,leider gibt es keine 1060 mit 4GB das wäre interresant gegen die 4GB 480.

dargo
2016-09-15, 13:14:06
So ein Pech aber auch.

Edit:
Für 1GB reichts auch nicht.
https://www.computerbase.de/2016-09/grafikkarten-speicher-vram-test/3/#diagramm-deus-ex-mankind-divided-texturen-hoch-geforce-gtx-1060

dildo4u
2016-09-15, 13:18:18
Die 8GB haben vor und Nachteile,wenn man die Test's in der PCGH liest führen die 8GB bei der 480 dazu,das der Stromverbauch massiv ansteigt.Hätten die 8GB Karte den Verbrauch der 4GB Karten,hätte sie deutlich mher Potenzial was den Takt angeht ohne das der Verbauch über 200 Watt steigt.

Blediator16
2016-09-15, 13:28:04
Wieso nicht gleich über 300 Watt?

Cyphermaster
2016-09-15, 13:28:12
RAM ist wie Hubraum. Durch Kompression nicht unbegrenzt zu ersetzen, kostet aber Energie.

von Richthofen
2016-09-15, 13:52:12
Hilbert hat die Karte offensichtlich aus Taiwan oder an einem Lager abgegriffen und fürs Review entgegen der bei ihm gängigen Praxis noch nicht mal aufgeschraubt. Komischerweise fehlen auch die sonst bei ihm üblichen IR-Bilder und ein paar andere Details.

In den anderen 480er Tests wurden die Karten auch nicht auseinandergenommen:
http://www.guru3d.com/articles_pages/msi_radeon_rx_480_gaming_x_review,1.html
http://www.guru3d.com/articles_pages/powercolor_radeon_rx_480_red_devil_review,1.html

Hier sind die IR-Bilder der Gigabyte:
http://www.guru3d.com/articles_pages/gigabyte_radeon_rx_480_g1_gaming_review,7.html

Die Tests fallen für meinen Begriffe ähnlich umfangreich aus.

(del)
2016-09-15, 14:03:13
Vor ein paar Tagen.Genau DAS meinte ich ;)
Wo sind sie, wenn man sie wirklich braucht? :D

Hier sind die IR-Bilder der Gigabyte:
http://www.guru3d.com/articles_pages/gigabyte_radeon_rx_480_g1_gaming_review,7.html
Die Tests fallen für meinen Begriffe ähnlich umfangreich aus.
Dann habe ich das übersehen und bitte um Vergebung :)
Auch wenn das, was er da misst, fast nicht aussagt ;)

dargo
2016-09-15, 14:28:15
Die 8GB haben vor und Nachteile,wenn man die Test's in der PCGH liest führen die 8GB bei der 480 dazu,das der Stromverbauch massiv ansteigt.
Dieses Stromverbrauch-Geblubber kann ich bald echt nicht mehr hören. Ich hoffe du kümmerst dich um deine Haushalsgeräte auch so akribisch wie um deine PC-Hardware.

Iruwen
2016-09-15, 15:29:02
Sein Kühlschrank kühlt aber nicht schlechter wenn die Beleuchtung an ist :p

Raff
2016-09-15, 15:36:05
Die 8GB haben vor und Nachteile,wenn man die Test's in der PCGH liest führen die 8GB bei der 480 dazu,das der Stromverbauch massiv ansteigt.Hätten die 8GB Karte den Verbrauch der 4GB Karten,hätte sie deutlich mher Potenzial was den Takt angeht ohne das der Verbauch über 200 Watt steigt.

Vorsicht, da wurden zwei Referenzkarten miteinander verglichen – nicht dieselbe Karte einmal mit 4 und einmal mit 8 GiByte (was technisch nicht geht). Sicher kostet der Speicher etwas Strom, was sich auf die Board Power auswirkt, die Aussagen dazu sind aber bestenfalls Näherungen. Gravierender waren die Differenzen zwischen zwei scheinbar gleichen RX-480-Referenzkarten mit 8 GiB: Die erste, das AMD-Sample, konnte ihren Takt kaum über 1.200 MHz halten, die aus dem Handel hingegen locker.

MfG,
Raff

N0Thing
2016-09-15, 15:56:21
keine Mühe, draufgeschludert, cost down - na ich weiß ja nicht... Objektivität sieht anders aus
Die Karte sieht doch von weitem gut aus/nicht schlechter, als andere und verfügbar ist sie auch gut.

Auch keine Mühe, draufgeschludert, cost down können objektive Beschreibungen sein, nämlich dann, wenn sie mit der Realität übereinstimmen.

Draufgeschludert ist zwar sehr umgangssprachlich formuliert, aber am Ende bedeutet es auch nichts anderes, als dass man sich nicht bemüht hat.
Lieber ein ehrliches Wort, als die Wiederholung des Marketingbeipackzettels.

Sein Kühlschrank kühlt aber nicht schlechter wenn die Beleuchtung an ist :p

Doch, er muss die Abwärme der Lampe mitkühlen, also bei einer Halogenbirne ca. 15W. :freak:

RoughNeck
2016-09-15, 23:36:06
Gravierender waren die Differenzen zwischen zwei scheinbar gleichen RX-480-Referenzkarten mit 8 GiB: Die erste, das AMD-Sample, konnte ihren Takt kaum über 1.200 MHz halten, die aus dem Handel hingegen locker.

MfG,
Raff

Und dass ist das was ich bei AMD nicht verstehe.
Wieso nimmt man so leichtfertig schlechte Presse in Kauf?

horn 12
2016-09-15, 23:47:41
Durch den Neu überarbeiten DX11 Crimson Treiber dürften die AMD Karten einen nicht zu vernachlässigten Boost erfahren und so eine Fiji Karte wird nun wohl auch weitaus besser ausgelastet und der GTX 1070 das Leben schwer machen.

PS:
Der User @d2kx weis da mehr!

MadManniMan
2016-09-15, 23:51:20
Quelle. Bitte.

Raff
2016-09-15, 23:52:05
Und dass ist das was ich bei AMD nicht verstehe.
Wieso nimmt man so leichtfertig schlechte Presse in Kauf?

Dass AMD nur geringes Interesse an einem guten Referenzdesign und somit Launch-Eindruck hat, sieht man regelmäßig. Dass keine selektierten Pressemuster (mehr?) verschickt werden, finde ich hingegen gut.

Durch den Neu überarbeiten DX11 Crimson Treiber dürften die AMD Karten einen nicht zu vernachlässigten Boost erfahren und so eine Fiji Karte wird nun wohl auch weitaus besser ausgelastet und der GTX 1070 das Leben schwer machen.

PS:
Der User @d2kx weis da mehr!


So schön das wäre: Fiji hat zu wenig RAM, um der GTX 1070 irgendetwas schwierig zu machen.

Eine Quelle hätte ich aber auch gern. :)

MfG,
Raff

Ex3cut3r
2016-09-15, 23:55:05
Vorallem bei der Effizienz, so eine GTX 1070 frisst bei mir mit 2025mhz @ 1Volt und den speicher auf +700 grade mal 185 Watt.

Ein Typischer Horn DAU Comment mal wieder. ;D

StefanV
2016-09-16, 01:36:08
Gigabyte nimmt die RX 480 mit, um den Status bei AMD zu halten und nicht, um damit Geld zu machen. Letzteres geht bei derart kleinen Stückzahlen gar nicht.
Die meisten Chips gehen zu AMD-exklusiven Fertigern, um denen das Überleben etwas einfacher zu machen. Im Gegensatz zu Asus oder MSI ist Gigabyte
zu klein, um irgendwelche Forderungen durchzudrücken. Allerdings macht die VGA-Sparte mit AMD-Karten schon seit einiger Zeit keine operativen Gewinne mehr.
Vielleicht liegts auch schlicht daran, dass Gigabyte einfach unfähig ist, halbwegs brauchbare AMD Karten zu liefern und sie deshalb (in Folge) keine Chips bekommen?!

Wenn ich so an meine 7970GHz/280X denke, die bei 100% Lüfterdrehzahl über 90°C kommen, wenn man sie in 'nem geschlossenen Gehäuse verwendet...
Und auch ansonsten ist der Kühler einfach nur Müll...

Warum sollte man solch einem Hersteller, der einfach nur Unfähig ist, halbwegs brauchbare Kühler auf die Karten zu pappen, auch noch aktiv unterstützen?! Damit die nVidia Fans AMD noch besser bashen können?!

StefanV
2016-09-16, 01:39:13
Die 8GB haben vor und Nachteile,wenn man die Test's in der PCGH liest führen die 8GB bei der 480 dazu,das der Stromverbauch massiv ansteigt.Hätten die 8GB Karte den Verbrauch der 4GB Karten,hätte sie deutlich mher Potenzial was den Takt angeht ohne das der Verbauch über 200 Watt steigt.
Ach und woher weißt du denn jetzt genau, dass nVidia nicht 'golden sampelt' und die nur die besten der besten Chips für Pressemuster zulässt?!

Hat irgendwer eine GTX 1060 aus dem Handel mit den Pressemustern verglichen? Oder überhaupt mal geschaut, wie groß die Varianz bei modernen Grafikkarten eigentlich ist?!

Woher weißt du denn, dass zwischen einer guten GTX 1060 und einer weniger guten nicht ebenso 50W oder vielleicht sogar mehr liegen können?!
Dass AMD nur geringes Interesse an einem guten Referenzdesign und somit Launch-Eindruck hat, sieht man regelmäßig. Dass keine selektierten Pressemuster (mehr?) verschickt werden, finde ich hingegen gut.
Womit du dann im umkehrschluss bestätigen würdest, dass AMD einfach irgendwelche Karten raus haut und man von nVidia nur vorselektierte Karten, extra vergoldet bekommt ;)

...und damit ist diese Stromverbrauchs Debatte auch mal wieder völlig fürs Klo, da gute und schlechte Karten eben durchaus einige Unterschiede ausmachen können...

(del)
2016-09-16, 06:37:23
Vielleicht liegts auch schlicht daran, dass Gigabyte einfach unfähig ist, halbwegs brauchbare AMD Karten zu liefern und sie deshalb (in Folge) keine Chips bekommen?!Die können schon, wenn es sich kaufmännisch auch auszahlt. Siehe Xtreme Gaming. Dass ältere Serien sehr laut waren (Windforce) liegt daran, dass Eddie Lin, der VGA Boss (a) schlecht hört und (b) Asiaten Lautstärke mit Performance verbinden. Den europäischen Markt mit seinen speziellen Befindlichkeiten hatte damals keiner so recht im Visier.

Die Verteilungsschlüssel sind nicht offiziell bekannt, aber die vorhandenen Ressourcen werden zunächst an die AMD-exkluiven Partner (TUL, Pine, PC Partner/Sapphire) und dann unter den großen Mischpartnern (Asus, MSI) aufgeteilt. Da hilft auch das Gießkannenprinzip nicht weiter, denn Kleinserien lohnen sich einfach nicht. Wer weiß, wie die Produktion funktioniert, der weiß auch, dass man da schon echte Stückzahlen braucht um (a) rentabel zu sein und (b) konstante Qualität hinzubekommen. Man kann ja nicht einfach häppchenweise produzieren. Es sind letztendlich drei große Produktionsabschnitte, die so eine Karte durchlaufen muss, bis sie in den Karton kommt. Und dummerweise steht und fällt alles mit dem Chip noch vor dem ersten Lötvorgang (Reflow Soldering), man kann also nicht mal vorarbeiten. Außerdem kostet die Entwicklung von PCBs Zeit und Geld, die Kühler müssen modifiziert bzw. neu gestaltet und beim OEM in Auftrag gegeben werden. Dafür benötigt man dann Evaluation Samples, sowohl als funktionsunfähigen Dummy als auch als zumindest teilaktivierte Chips. Dazu kommen dann noch die Firmware, die eigene Logistik, das Marketing und viele andere Dinge, für die man in Vorleistung gehen muss. Einfach mal so Loslegen und was produzieren ist also nicht.

Besuch der alten Fabrik auf Taiwan vor drei Jahren:
http://www.tomshardware.de/fotoreportage/189-gigabyte-grafikkarten-herstellung-fertigung-werksbesuch.html#s1

Mittlerweile kommen die Grafikkarten seit 2016 aber aus Dongguan. Macht Sinn, weil dort auch die ganzen Zulieferer sitzen und der Versand ab Hong Kong einfacher ist.

fondness
2016-09-16, 08:38:07
Dass AMD nur geringes Interesse an einem guten Referenzdesign und somit Launch-Eindruck hat, sieht man regelmäßig. Dass keine selektierten Pressemuster (mehr?) verschickt werden, finde ich hingegen gut.


Vermutlich wurden eh nie selektierte Pressemuster verschickt. Nur habt ihr eben damals zufällig das bessere Muster erwischt und diesmal eben das schlechtere. Jede Karte verhält sich anders.

Raff
2016-09-16, 09:04:28
Womit du dann im umkehrschluss bestätigen würdest, dass AMD einfach irgendwelche Karten raus haut und man von nVidia nur vorselektierte Karten, extra vergoldet bekommt ;)

Nein. Ich habe nur gesagt, wie es ist: AMD-Referenzdesigns sind entweder laut oder haben einen anderen Makel (zuletzt: Pumpe, PCIe-Last). Die Nvidia-Referenzkühler sind zwar nicht besonders leistungsstark, aber erzeugen zumindest (in den meisten Fällen) eine brauchbare Geräuschkulisse.

Vermutlich wurden eh nie selektierte Pressemuster verschickt. Nur habt ihr eben damals zufällig das bessere Muster erwischt und diesmal eben das schlechtere. Jede Karte verhält sich anders.

Da ich trotz der Widrigkeiten ein gutgläubiger Mensch bin, gehe ich auch von normaler Serienstreuung aus, da es eben auch Gegenbeispiele gibt, wo das Pressemuster schlechter "geht" als spätere Retailkarten.

MfG,
Raff

Cyphermaster
2016-09-16, 09:56:08
Dass AMD nur geringes Interesse an einem guten Referenzdesign und somit Launch-Eindruck hat, sieht man regelmäßig.Interesse heißt nicht, daß man auch die Ressourcen hat, sich auch entsprechend stark drum zu kümmern. Da eh meist kurz danach gepimpte Partnerkarten erscheinen und man in Sachen Performance und Energieeffizienz sowie Treiber größere Baustellen hat, ist Feintuning an Dingen wie Referenzdesign-Kühlern wohl nicht so riesig weit oben auf der AMD-Prioritätenliste. Nicht unverständlich, imho.

M4xw0lf
2016-09-16, 10:04:15
Nicht unverständlich, imho.
Aber dumm. Der erste Eindruck einer neuvorgestellten Karte bleibt hängen.

Screemer
2016-09-16, 10:18:38
Eine Quelle hätte ich aber auch gern. :)

MfG,
Raff

Da haben wir doch schon vor tagen drüber gesprochen. Wundert mich, dass ihr das nicht mitbekommen habt. Es geht um teils massive steigerungen bei singlethread, unter vulkan @doom und anderen:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11152328#post11152328

https://m.reddit.com/r/pcgaming/comments/51tcy7/amd_crimson_1691_increases_singlethreaded_draw/

Im amd subreddit gibts noch mehr beispiele.

Cyphermaster
2016-09-16, 10:20:14
Nicht dumm, nur unschön. Das ist aufgrund der Lage von AMD einfach die Frage nach dem geringeren Übel - und schlechter Eindruck wegen schwacher Performance wäre fraglos sehr viel nachhaltiger und schädlicher als der eines nicht optimalen Referenzkühlers.

M4xw0lf
2016-09-16, 10:41:49
schlechter Eindruck wegen schwacher Performance wäre fraglos sehr viel nachhaltiger und schädlicher als der eines nicht optimalen Referenzkühlers.
Der Referenzkühler beeinträchtigt die Performance ja.

Gorkon
2016-09-16, 10:42:24
Da haben wir doch schon vor tagen drüber gesprochen. Wundert mich, dass ihr das nicht mitbekommen habt. Es geht um teils massive steigerungen bei singlethread, unter vulkan @doom und anderen:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11152328#post11152328

https://m.reddit.com/r/pcgaming/comments/51tcy7/amd_crimson_1691_increases_singlethreaded_draw/

Im amd subreddit gibts noch mehr beispiele.
Hindert den Horny trotzdem nicht daran, einfach mal ne Quelle anzugeben. Kam schon oft genug Stuss... Im Studium durftest dich dafür in ne dunkle Ecke stellen oder für den Kurs ne Runde ausgeben ;)

16.9.1 bringt jedenfalls hier auf ner Kaveri-CPU allerdings absolut nix in Sachen DX11-ST/MT mit ner R9 270x. Star Trek Online als Paradebeispiel in Sachen schlampiger Technik läuft auf Ground-Maps (Risa) beschissen wie eh und je. Ansonsten tut sich auch in anderen Spielen nicht so viel, aber ich weiss...2M/4T ;)

Cyphermaster
2016-09-16, 10:51:33
Der Referenzkühler beeinträchtigt die Performance ja.Den kann man aber tauschen/auf Customs warten - beim Chip nicht.

M4xw0lf
2016-09-16, 10:54:52
Den kann man aber tauschen/auf Customs warten - beim Chip nicht.
Natürlich kann man das. Aber Kevin Pasulke liest den Test des Referenzdesigns zum Launch und entscheidet infolgedessen, dass das komplette Produkt scheiße ist, weil am Kühler 50ct gespart werden mussten.

Schaffe89
2016-09-16, 11:06:52
Interesse heißt nicht, daß man auch die Ressourcen hat, sich auch entsprechend stark drum zu kümmern.

Sehr unwahrscheinlich. Die Angestellten bauen komplexeste Chips, PCB´s usw.. und gute Kühler kann auch der Heimwerker im Keller montieren und abstimmen, dafür brauche ich kaum ressourcen. AMD hat einfach ein extrem geringeres Interesse an gelungenen Kühlkonstruktionen, die Führungsetage wird bestimmen wieviel Materialkosten so ein Kühler haben darf um den maximalen Profit rauszuziehen und nebenbei die Karte grade so kühlen zu können.

AMD hat auch nach den Jahren der schlechten Referenzdesigns immer noch nicht gelernt, wie man eine gute Aussenwirkung erzielt. Mit guten Produkten, und guten, reibungslosen Launches. Mit der Strategie wird man langfristig auch Pleite gehen, wenn man absichtlich keine Qualität liefert und das darf man mittlerweile unterstellen.
Man kümmert sich auch einen Dreck um extrem laute und sinnlose Kühlkonstruktionen der AMD Partner. Wenn man hierbei auch keine Vorgaben setzt, was die maximale Lautstärke angeht, dann trägt man auch hier zum schlechten Eindruck bei. Ich kann nach all den Jahren hier keinen Drang zur Verbesserung feststellen, obwohl man es doch so dringend tun müsste und mit dem Marketing so tut, als ob man sich hier verbessert. Wer so leichtfertig Kunden verliert, der hat es auch nicht verdient weiter am Markt zu bestehen.

Ich hoffe inständig dass die Radeon Group oder AMD von einem großen Hai geschluckt wird, denn so weiter gehen kanns imho nicht.

Wie soll erst der Kühler zur Vega Karte aussehen? Doch bitte nicht wieder eine Wasserkühlung und ansonsten eine Sperre für andere Kühllösungen.
Damit hat man sich wiedermal dumm wie Brot Verkäufe versaut, denn nicht jeder will ne Wasserkühlung, zumal das eh locker hätte gekühlt werden können wie man an den To Kühllösungen der Partner der Fury gesehen hat.

Cyphermaster
2016-09-16, 11:15:43
Da geht es nicht um 50ct am Kühler, sondern um Mannstunden in der Entwicklung. Die sind nicht nur teurer, AMD hat schlicht nicht für alles Leute im Überfluß, so daß es ein "Entweder-Oder"-Szenario ist. Wenn du als Führungskraft entscheiden müßtest, worauf sich deine Leute konzentrieren sollen, wäre dann der Referenzkühler oder der Chip bei dir in der Priorität höher angesiedelt?

Wenn's "nur" ein etwas lauterer Referenzkühler als bei der Konkurrenz ist, wird sich ein Kevin Pasulke beim späteren Test einer Custom-Karte mit besserem Fazit weil besserem Kühler vielleicht noch so eine Karte zulegen (wenn Lautstärke für ihn überhaupt so ein großes Thema ist); bei einem beschissenen Chip wird er das aber nie, weil auch alle Folgetests beschissen sein werden.

Cyphermaster
2016-09-16, 11:19:54
Sehr unwahrscheinlich. Die Angestellten bauen komplexeste Chips, PCB´s usw.. und gute Kühler kann auch der Heimwerker im Keller montieren und abstimmen, dafür brauche ich kaum ressourcen.Alter, ganz ehrlich, arbeite doch bitte mal in der freien Wirtschaft, vielleicht blieben einem dann solche Stories erspart. Als ob sich eine Firmen-Führungsetage eines internationalen Konzerns auch nur näherungsweise für konstruktive Details wie Materialkosten von Produkt-Einzelkomponenten interessieren würde... :rolleyes:

Schaffe89
2016-09-16, 12:20:02
Da geht es nicht um 50ct am Kühler, sondern um Mannstunden in der Entwicklung.#

Jeder Hans Wurst kann einen besseren Referenzkühler entwickeln, der bei leichter Übertaktung nicht gleich so laut wird wie eine r9 290x im Ubermodus. und das kostet halt schlicht ein bisschen mehr, dann muss ich halt für ein gutes Erscheinungsbild ein bisschen an Marge verzichten, was sowieso zweitrangig ist, wenn das Referenzdesign später EOL geht.
Ich kapiers halt einfach nicht wieso man sich immer wieder das versaut. Zumal der Kühler für eine 120 Watt Karte gepasst hätte, so ist er halt wieder 5/6 dezibel lauter als ein Nvidia Referenzkühler und wird bei OC zur Turbine, wie halt die letzten Jahre bei AMD immerschon. Nvidia hat sich nach der GTX 480 keine solchen Schwächen mehr geleistet.
AMD gefühlt bei jeder neuen Karte.

Als ob sich eine Firmen-Führungsetage eines internationalen Konzerns auch nur näherungsweise für konstruktive Details wie Materialkosten von Produkt-Einzelkomponenten interessieren würde...

Die Führungsetage von eben dem Bereich der auf die Kosten schaut ( Controlling whatever ), die möglichst gering gehalten werden. Dann verzichte ich halt auf die lächerliche Rebellion Werbestrategie und druck paar Poster weniger und bau dafür nen gescheiten Kühler und ein gescheites PCB zum Launch, oder schiebe den Launch paar Wochen nach hinten. Kann ja nicht sein dass man immer an den falschen Stellen spart, das war doch beim Fury Launch dasselbe, ein Fiepkühler wo 90% der Pumpen nach wie vor fiepen.
Qualitätssicherung existiert da offensichtlich nicht oder ist nicht gewünscht, auch ein Beleg dafür dass an der falschen Stelle gespart wird.

Schnoesel
2016-09-16, 12:23:45
Also ich frage mich ernsthaft warum dann alle Referenzdesigns der GTX 480 vergriffen sind und über UVP verkauft wurden (und wenn verfügbar dann nur noch zu Mondpreisen). Die müssten eigentlich wie Blei in den Regalen liegen?! AMD hat alles richtig gemacht. Period.

anddill
2016-09-16, 12:32:15
Der Ref-Kühler der RX 480 ist den Custom Designs gewaltig überlegen. Er ist leise genug, kompakt, robust und fördert vor allen die Hitze aus dem Gehäuse. Die Customs verquirlen alles nur, und dann muss sich der Käufer darum kümmern, wie er die Hitze los wird. Das endet dann zu 90% (außerhalb der Nerdforen) entweder mit Throtteln von CPU und/oder Graka oder einem gequält kreischendem 80er Lüfter im Billig-Case.

DrumDub
2016-09-16, 12:33:38
Alter, ganz ehrlich, arbeite doch bitte mal in der freien Wirtschaft, vielleicht blieben einem dann solche Stories erspart. Als ob sich eine Firmen-Führungsetage eines internationalen Konzerns auch nur näherungsweise für konstruktive Details wie Materialkosten von Produkt-Einzelkomponenten interessieren würde... :rolleyes: nene, du siehst das völlig falsch. bei nvidia ist doch jede komponente ihrer erlesenen produkte einzeln ausgewählt vom großen führer jen-hsun huang. ;D

dargo
2016-09-16, 12:55:12
Ich zitiere mal igor.
Dass ältere Serien sehr laut waren (Windforce) liegt daran, dass Eddie Lin, der VGA Boss (a) schlecht hört und (b) Asiaten Lautstärke mit Performance verbinden. Den europäischen Markt mit seinen speziellen Befindlichkeiten hatte damals keiner so recht im Visier.

Manchen empfehle ich hier etwas globaler zu denken. Deutschland ist nur ein Fliegenschiss gegen die globalen Stückzahlen. Ob außerhalb von DE in Europa die Mehrheit auch so ein riesen Interesse an möglichst unhörbaren (Referenz)-Kühlern hat müsste erstmal geklärt werden. Zudem bitte den Preispunkt bei P10 nicht vergessen. Einen guten Kühler kann man bei einer teuren Karte viel besser unterbringen.

Cyphermaster
2016-09-16, 13:15:41
Die Führungsetage von eben dem Bereich der auf die Kosten schaut ( Controlling whatever ), die möglichst gering gehalten werden. Dann verzichte ich halt auf die lächerliche Rebellion Werbestrategie und druck paar Poster weniger und bau dafür nen gescheiten Kühler und ein gescheites PCB zum Launch, oder schiebe den Launch paar Wochen nach hinten. Kann ja nicht sein dass man immer an den falschen Stellen spart, das war doch beim Fury Launch dasselbe, ein Fiepkühler wo 90% der Pumpen nach wie vor fiepen.
Qualitätssicherung existiert da offensichtlich nicht oder ist nicht gewünscht, auch ein Beleg dafür dass an der falschen Stelle gespart wird.Dann empfehle ich dir ob deiner großen Kompetenz eine Karriere in der Geschäftsleitung eines Unternehmens und hake diese Diskussion ab.

Schaffe89
2016-09-16, 13:44:03
Also ich frage mich ernsthaft warum dann alle Referenzdesigns der GTX 480 vergriffen sind und über UVP verkauft wurden (und wenn verfügbar dann nur noch zu Mondpreisen). Die müssten eigentlich wie Blei in den Regalen liegen?! AMD hat alles richtig gemacht. Period.

Das Referenzdesign wird von niemanden mehr gekauft oder empfohlen, es gab schlicht zum Launch nix anderes und jeder der ne neue AMD wollte musste in den sauren Apfel beißen.

Schaffe89
2016-09-16, 13:46:36
Der Ref-Kühler der RX 480 ist den Custom Designs gewaltig überlegen. Er ist leise genug, kompakt, robust und fördert vor allen die Hitze aus dem Gehäuse.

Das ist aber auch nur eine persönliche Meinung. Betreibt man die Karte mit bisschen OC wird er zum Fön und @ Stock ist er weder besonders leise, noch schafft er es die Karte kühl zu kühlen. Manche rx480 Karten gehen auf 87 bis 90 Grad hoch in einem handelsüblichen Gehäuse.

Screemer
2016-09-16, 13:48:44
posts kann man auch editieren...

Schaffe89
2016-09-16, 13:54:38
Dann empfehle ich dir ob deiner großen Kompetenz eine Karriere in der Geschäftsleitung eines Unternehmens und hake diese Diskussion ab.

Es ist schon wahnsinn mit welch einer AMD Verteidigungshaltung hier manche argumentieren. Ne bei AMD ist alles gut, nicht hinschauen und weitergehen.
Wenn du glaubst dass sich niemand um die Kosten des Kühlers schert, dann hast du wohl noch nie irgendwo gearbeitet. AMD hat Personal/Ausgaben usw.. alles zusammengestrichen und scheint wohl nur noch entwickeln zu wollen, alles andere überlassen wir dann dem Praktikanten der dafür möglichst kein Geld ausgeben darf und einen Plastikkühler ohne jede Wertigkeit dann draufmontiert, den er vorher innerhalb von Milliarden Stunden mit Ingenieuren entwickelt hat, ein simples Kühlerdesign wo die Leistung definitiv nicht es möglichst leise, sondern es möglichst günstig herzustellen. Meine Nano hat da hingegen einen wirklich wertigen Kühler der was taugt.

Es wird doch nicht so schwierig sein, Nvidia mal in der Lautstärke des Referenzdesigns schlagen zu können, um insgesamt ein wertigeres Bild abzugeben.
Wie gesagt den Kühler paar Cent teurer machen und schon hat sich das erledigt.

Messias
2016-09-16, 13:58:14
... noch schafft er es die Karte kühl zu kühlen. Manche rx480 Karten gehen auf 87 bis 90 Grad hoch in einem handelsüblichen Gehäuse.

Und warum ist das jetzt ein Problem?
Mich stört das jedenfalls nicht, wenn die Karte nicht 75° sondern 85°C warm wird.

fondness
2016-09-16, 14:04:17
Das ist aber auch nur eine persönliche Meinung. Betreibt man die Karte mit bisschen OC wird er zum Fön und @ Stock ist er weder besonders leise, noch schafft er es die Karte kühl zu kühlen. Manche rx480 Karten gehen auf 87 bis 90 Grad hoch in einem handelsüblichen Gehäuse.

Eine GTX1070 verbraucht weniger Strom wie eine RX480 und der Referenzkühler ist weder leiser noch hält er den Chip kühler. Ich frage mich, welcher Kühler hier Schrott ist.

Schnoesel
2016-09-16, 14:07:44
Natürlich wird die Referenz nicht mehr gekauft es gibt sie ja kaum noch aber so schlecht wie du den Kühler gemacht hast war sie offenbar nicht. AMD hat die Referenz so gut wie alle verkauft --> Ziel erreicht. Der Rest landet in OEMs. Das ist kein Fail sondern genau so gewollt.

Und nochmal das Ding wurde über UVP verkauft. Schon allein das ist ein Zeichen, dass es genug Leute gibt die die Referenz haben wollten. Dass du über deinen kleinen bescheidenen Tellerrand nicht schauen kannst ist mir klar. Das Einzige was man AMD vorwerfen kann ist, dass sie offenbar nicht genug Karten liefern konnten, denn für UVP oder darunter wären sicher noch mehr Referenzkarten weggegangen. So haben die Händler eben die Marge eingestrichen.

Mich stört das jedenfalls nicht, wenn die Karte nicht 75° sondern 85°C warm wird.

Wenn mich jemand fragt was ich am PC Gaming am meisten liebe sage ich immer, dass meinen Karte so kühl bleibt und so stromsparend ist ... nicht.

dargo
2016-09-16, 14:30:30
Es ist schon wahnsinn mit welch einer AMD Verteidigungshaltung hier manche argumentieren.

Dein dauerhaftes Bashing steht dem in nichts nach. Wirds dir nicht langsam peinlich?

Cyphermaster
2016-09-16, 15:12:08
Es ist schon wahnsinn mit welch einer AMD Verteidigungshaltung hier manche argumentieren. Ne bei AMD ist alles gut, nicht hinschauen und weitergehen.
Wenn du glaubst dass sich niemand um die Kosten des Kühlers schert, dann hast du wohl noch nie irgendwo gearbeitet.1. Ich habe versucht, einen Sachverhalt aus meinem Erfahrungsschatz heraus zu erklären. Da das das Faktum weder zum Positiven noch zum Negativen verändert, handelt es sich dabei wohl kaum um Schönfärberei. Ob das zu deiner Welt passen mag und ob das deiner Meinung nach ein positiveres oder negativeres Bild zu AMD, Frau Holle oder Rumpelstilzchen ergibt, mag eines deiner Probleme sein, aber nicht meines.

2. Wir haben hier im Forum mehrere Leute, die mit Projektmanagement und -reporting Erfahrung haben bis ihre Brötchen verdienen, also nicht glauben, sondern wissen, was auf welchem Detaillevel diskutiert/entschieden wird, und wie diese Entscheidungsprozesse laufen. Vielleicht hat vom Rest jemand so viel Langeweile und Bedarf, um den verbalen Schwanzvergleich diesbezüglich mit dir (und absehbarem Ergebnis) einzugehen. Mir ist es die Zeit schlicht nicht wert.

eratte
2016-09-16, 15:27:33
Hört mal mit dem quoten von Schaffe89 auf damit unterlauft ihr meine Ignoreinstellungen ;).

Spaß beiseite, nicht auch noch füttern den Troll.

x-force
2016-09-16, 15:51:07
trotzdem ist es schon eine ganz eigene art von missmanagement, die amd seit einiger zeit veranstaltet.

natürlich wurde auch an falschen stellen gespart, ziemlich eigen, wer das nach dem launch nicht erkennen will.

Botcruscher
2016-09-16, 16:13:29
Ich zitiere mal igor.
...
Manchen empfehle ich hier etwas globaler zu denken.
Dann macht per Schalter einen Asiatenmodus mit 100% Lüfter dran. :rolleyes:

Einen guten Kühler kann man bei einer teuren Karte viel besser unterbringen.
Als ob sich irgend ein Entwickler ein Bein ausgerissen hätte. Im Glücksfall ist es irgend ein Altmodell mit Minimalanpassungen und hält wenigstens die CPU Kühl. Richtig überzeugend war für die TDP der Karte nicht einer.

Und nochmal das Ding wurde über UVP verkauft. Schon allein das ist ein Zeichen, dass es genug Leute gibt die die Referenz haben wollten.
WaKü. Dafür ist die 480 aber im falschen Segment.

Schaffe89
2016-09-16, 18:50:04
Eine GTX1070 verbraucht weniger Strom wie eine RX480 und der Referenzkühler ist weder leiser noch hält er den Chip kühler. Ich frage mich, welcher Kühler hier Schrott ist.

http://www.pcgameshardware.de/Nvidia-Geforce-GTX-10606G-Grafikkarte-264678/Tests/GTX-1060-Review-1201931/

Selbst die 180 Watt GTX 1080 ist gleichlaut., außerdem bändigen die Nvidia Referenzkühler kleine Übertaktungsversuche nicht mit extrem hochdrehendem Lüfter wie Computerbase feststellt.

https://www.computerbase.de/2016-05/geforce-gtx-1080-test/9/

https://www.computerbase.de/2016-06/nvidia-geforce-gtx-1070-test/6/

https://www.computerbase.de/2016-06/radeon-rx-480-test/8/

Zumal es auch eher um GTX 1060 vs rx480 ging und da AMD nicht genügend in den Kühler investiert um ihn auf ein Niveau mit der Lautstärke der GTX 1060 zu bringen, stehen sie halt wieder mal schlechter da und selbst im direkten Vergleich GTX 1070vs rx480 ist man lauter und das Lüftergeräusch der AMD ist subjektiv unangenehmer, weil hochfrequenter.

GTX 1060 Gaming vs rx480 Gaming.

Nvidia 0,7 Sone AMD 2,2 Sone
Das sind halt fast überall Welten und solange AMD nicht dagegensteuert, werden sich diese Dinge wie heiß und laut nie ändern und AMD bleibt nach wie vor mit diesen Vorurteilen nunmal zurecht belegt.

Wir haben hier im Forum mehrere Leute, die mit Projektmanagement und -reporting Erfahrung haben bis ihre Brötchen verdienen, also nicht glauben, sondern wissen, was auf welchem Detaillevel diskutiert/entschieden wird, und wie diese Entscheidungsprozesse laufen.

Ja wie laufen die denn? Erklär doch mal.
Was wird den wohl der Grund für ein billiges Plastik und eine minimalistischen Kühlblock sein, der so günstig und billig ist und die Karte nur davon lebt, dass von beiden Seiten Luft angesaugt wird? Was glaubst du wird so ein Billiggehäuse für Reaktionen hervorrufen? https://www.youtube.com/watch?v=bvpLTSqn9z0
Ist das das Werk von einem Projektleiter mit vernünftigem Materialbudget oder ist es eher das Werk eines Projektleiters mit Daumenschrauben von oben möglichst günstig und billig zu produzieren, wo es auf jeden Cent ankommt? Es ist doch wohl klar letzteres.
Aber es ist eh sinnlos darüber zu debattieren. AMD bekommt in letzter Zeit für alles und jenes einen AMD Bonus.

Hätten die den Kühler der R9 290x von 2013 mit ein paar Anpassungen da draufgeschnallt wäre Ruhe im Karton gewesen, ja teurer, aber für die paar Referenzkarten die da verkauft wurden ziemlich egal.

Ex3cut3r
2016-09-16, 19:02:59
Ach Gott Schaffe, lass es doch mal gut sein, man weiß das AmD Karten in der Regel lauter sind, ich glaube in der GTX 1060/RX 480/470 geht es nicht so unbedingt um die Lautstärke sondern um den VRAM. Und da sind die 8GB einfach besser als 6GB.

StefanV
2016-09-16, 19:44:07
Manchen empfehle ich hier etwas globaler zu denken. Deutschland ist nur ein Fliegenschiss gegen die globalen Stückzahlen. Ob außerhalb von DE in Europa die Mehrheit auch so ein riesen Interesse an möglichst unhörbaren (Referenz)-Kühlern hat müsste erstmal geklärt werden.
Hängt von der Standard Geräuschkulisse ab, die sie tagtäglich erdulden müssen.

Und das ist auch der Grund, warum wir deutschen so sehr Wert auf Ruhe legen:
Bei uns ist die normale Geräuschkulisse in der Hütte sehr niedrig.
Das ist bei jemandem, der in New York lebt, wohl nicht unbedingt der Fall...

DAS ist es, worauf es eher ankommt...
UNd eben auch, was man schon mal erleben durfte...

RoughNeck
2016-09-16, 19:50:23
Das ist aber auch nur eine persönliche Meinung. Betreibt man die Karte mit bisschen OC wird er zum Fön und @ Stock ist er weder besonders leise, noch schafft er es die Karte kühl zu kühlen. Manche rx480 Karten gehen auf 87 bis 90 Grad hoch in einem handelsüblichen Gehäuse.

Nur ist OC nicht relevant, außer in den Foren.
Und die die sich für OC interessieren, die sind auch bereit den Kühler zu wechseln, der Rest betreibt die Karte so wie es vom Hersteller vorgesehen ist.

Kartenlehrling
2016-09-16, 20:42:39
http://cdn.videocardz.com/1/2016/08/MSI-RX-470-1.jpg

So was hässliches habe ich lange nicht gesehen,
da stimmt doch was mit den grössenverhältnisse nicht.

http://www.guru3d.com/news-story/msi-releases-armor-series-radeon-rx-480.html
MSI Releases Armor Series Radeon RX 480

Raff
2016-09-16, 20:50:41
Armor = Cost-Down gegenüber Gaming (X/Z), gibt's auch bei anderen aktuellen Modellen.

Sorgen sollte man sich hier nur um die Wandler machen, der entsprechende Kühler ist recht klein. Und der Speicher liegt auch blank.

MfG,
Raff

dargo
2016-09-16, 21:48:32
http://www.pcgameshardware.de/Nvidia-Geforce-GTX-10606G-Grafikkarte-264678/Tests/GTX-1060-Review-1201931/

Selbst die 180 Watt GTX 1080 ist gleichlaut...
Bist du wieder in deinem Trollmodus?

GTX1080 = 175W bei 314mm² Die-Size
RX480 = 160W bei 232mm² Die-Size

Erstere verbraucht zwar 15W mehr (jeweils den höchsten PCGH-Wert genommen), dafür ist die Fläche mit der abzuführenden Energie auch 35% größer was die Sache vereinfacht. Zudem kostet die Referenz GTX1080 2,5x so viel wie eine RX480. Da kannst du die Kosten für einen eventuell besseren Kühler wie schon gesagt besser "verstecken".

Und ist dir schon mal aufgefallen, dass die GTX1080 in Risen 3 auf 4,2 Sone aufdreht während die RX480 weiter bei 3,3 Sone bleibt? Die Referenz GTX1070 passt da schon besser ins Bild und den PCGH-Daten nach steht der Kühler der RX480 dem von Nvidia im nichts nach. GTX1070 hat etwas weniger Verbrauch, entsprechend ist sie auch etwas leiser. Und den Flächenvorteil hat sie auch.


GTX 1060 Gaming vs rx480 Gaming.

Nvidia 0,7 Sone AMD 2,2 Sone
Das sind halt fast überall Welten und solange AMD nicht dagegensteuert, werden sich diese Dinge wie heiß und laut nie ändern und AMD bleibt nach wie vor mit diesen Vorurteilen nunmal zurecht belegt.

:facepalm: :facepalm: :facepalm:

Du kapierst die einfachsten Grundlagen nicht.

MSI erhöht bei der RX480 Gaming sowohl den Takt über Referenz, als auch das PT um diesen Takt zu halten. Entsprechend wird man auch die Spannung anheben. Diese Karte liegt damit mal eben ~40W über dem Referenzdesign. Du wunderst dich dann also, dass eine ~120W Graka mit dem gleichen Kühler leiser ist als eine mit 190-200W? :crazy:

btw.
Eine Quelle für die Lautstärkeangaben wäre auch nicht verkehrt.

Mike
2016-09-16, 22:23:27
So was hässliches habe ich lange nicht gesehen,
da stimmt doch was mit den grössenverhältnisse nicht.
So unterschiedlich kann Geschmack sein, ich finde die Armor-Karten relativ schick. Kein albernes Kinder-Bunt oder LEDs, dafür elegant in schwarz/weiß.
Welche Größenverhältnisse stimmen nicht?

horn 12
2016-09-16, 23:02:47
Bestelle mir wohl eine AMD Referenz Karte Sapphire oder XFX RX 480 Referenz mit Radiallüfter.
Sollte die 1266 bis gar 1350Mhz wohl halten können.
Drosseln sollte Karte erst unter extremen Bedingungen.

Megamember
2016-09-16, 23:11:58
Bestelle mir wohl eine AMD Referenz Karte Sapphire oder XFX RX 480 Referenz mit Radiallüfter.
Sollte die 1266 bis gar 1350Mhz wohl halten können.
Drosseln sollte Karte erst unter extremen Bedingungen.

Der Sinn von einer Fury umzusteigen ist genau welcher?

Ex3cut3r
2016-09-16, 23:17:00
Wahrscheinlich der VRAM, vlt will er mal wieder mit Ultra Texturen ohne Spikes spielen? :D

Raff
2016-09-16, 23:19:34
Horn, lass das besser, die Fury ist in den meisten Fällen mächtiger. :)

MfG,
Raff

horn 12
2016-09-16, 23:36:56
Der Sinn von einer Fury umzusteigen ist genau welcher?

Der Basteldrang und dannach unglücklich zu sein
Kenne mich eben zu genau !!

Raff
2016-09-16, 23:48:55
Dann kauf dir wenigstens eine vernünftige Karte wie die MSI Gaming X, nicht das Referenzdesign. Das vergrößert die Chancen auf Zufriedenheit immens. :D

MfG,
Raff

r-or
2016-09-17, 00:15:03
Ich weiß ja nicht warum nicht alle Leute hier Schaffe auf Ignore haben.

Früher war er ausgesprochener AMD-Fanboy, seit einiger Zeit steht bashing auf dem Programm. Vielleicht ist das ein Fetisch, erinnert etwas an SM-Spielchen

MikePayne
2016-09-17, 11:03:12
Der Ref-Kühler der RX 480 ist den Custom Designs gewaltig überlegen. Er ist leise genug, kompakt, robust und fördert vor allen die Hitze aus dem Gehäuse. Die Customs verquirlen alles nur, und dann muss sich der Käufer darum kümmern, wie er die Hitze los wird. Das endet dann zu 90% (außerhalb der Nerdforen) entweder mit Throtteln von CPU und/oder Graka oder einem gequält kreischendem 80er Lüfter im Billig-Case.

*unterschreib* :up:

Schaffe89
2016-09-17, 13:12:19
Früher war er ausgesprochener AMD-Fanboy, seit einiger Zeit steht bashing auf dem Programm

Sicher verändern sich Geschmäcker, aber wieso sollte man AMD durchweg verteidigen? Hat ja eh keinen Sinn. Lieber in allen Dingen kritisch sein, damit kommt man im Leben weiter. Ausgesprochener AMD Fanboy war ich definitiv nie, ich hab meine Meinung zu AMD nicht geändert, ist mir immernoch deutlich lieber als Intel oder Nvidia.


Bist du wieder in deinem Trollmodus?

Man hätte auch schreiben können AMD lauter als Nvidia, durch die Bank. Die Gründe dafür sind dem Kunden piepegal.
Die Diskussion entsteht ja nicht nur wegen mir, sondern auch aufgrund anderer die sowas immer negieren und dann Ausreden finden was Chipgröße usw.. angeht, dabei ist die Chipgröße einer GTX 1060 kleiner wie einer rx470/rx480 und kann auch erheblich besser gekühlt werden.
Aber ich hoffe AMD merkt dass sie mehr Qualität liefern müssen, vielleicht wird es dann ja mit Vega was.

Wo ist eigentlich Schaffe mit seinem überlegenen Speichermanagement bei Nvidia? :sneak:

Ist immernoch hier und wird bei Computerbase auch bestätigt, nur dass das nicht reichen wird um ein GB auszugleichen bei lediglich 3GB vs 4GB war doch sowieso klar, das habe ich auch genauso gesehen.

r-or
2016-09-17, 13:26:27
offtopicSicher verändern sich Geschmäcker, aber wieso sollte man AMD durchweg verteidigen? Hat ja eh keinen Sinn. Lieber in allen Dingen kritisch sein, damit kommt man im Leben weiter.
Durchaus richtig. Aber wie wär's mit etwas Differenziertheit? Deine schwarz-weiß-Haltung nervt und ist nicht konstruktiv kritisch. Und nein, ich kann dich nicht ignorieren, wenn jeder dich quotet. /offtopic_troll_feed

horn 12
2016-09-17, 13:37:10
Die Neue Charge von Sapphire Referenz Karten sollte um einen erheblichen Teil bessere Fertigung erfahren haben und wohl mit weniger Spannung auskommen
Nur wenn diese mal wieder aufschlagen sei dahingestellt. Wird wohl Oktober werden.
Rechne auch dass die Referenz Karte besser als jede Custom Karte ist, nur die Fertigung lies anfangs wenig zu.
Mit angemessener Spannung sollte die Karte weniger heiss (warm) werden, geringer Strom Verbrauchen und auch immer leise bleiben!
Schaun wann die Karten NEU aufschlagen, nicht jene welche nun auf Lager sind!

Schaffe89
2016-09-17, 13:52:37
Deine schwarz-weiß-Haltung nervt und ist nicht konstruktiv kritisch

Sehe ich nicht so, ich möchte bei AMD bessere Kühler sehen und will Aktien, die ich nach wie vor bei AMD in recht großer Zahl halte, nicht von so Pfuschern abgewertet sehen.


Die Neue Charge von Sapphire Referenz Karten sollte um einen erheblichen Teil bessere Fertigung erfahren haben und wohl mit weniger Spannung auskommen

Quelle?

mkh79
2016-09-17, 14:19:00
Sicher verändern sich Geschmäcker, aber wieso sollte man AMD durchweg verteidigen? Hat ja eh keinen Sinn. Lieber in allen Dingen kritisch sein, damit kommt man im Leben weiter.
Da gebe ich dir pinzipiell absolut recht.
Man kann Dinge aber auch ZU kritisch sehen.
Da wäre dann das gesunde Maß überschritten. Und das kann dann Leuten irgendwann mal richtig auf den Zeiger gehen.
Ich denke, genau das passiert eben leider oft bei AMD Themen, vielleicht teilweise auf Grund ihres Images.
Ins genaue Gegenteil sollte sich das natürlich auf nicht verdrehen.

von Richthofen
2016-09-17, 14:30:12
...ich hab meine Meinung zu AMD nicht geändert, ist mir immernoch deutlich lieber als Intel oder Nvidia.


Dann macht natürlich auch das Avatar-Bild Sinn. ;)

RoughNeck
2016-09-17, 14:49:37
Die Neue Charge von Sapphire Referenz Karten sollte um einen erheblichen Teil bessere Fertigung erfahren haben und wohl mit weniger Spannung auskommen
Nur wenn diese mal wieder aufschlagen sei dahingestellt. Wird wohl Oktober werden.
Rechne auch dass die Referenz Karte besser als jede Custom Karte ist, nur die Fertigung lies anfangs wenig zu.
Mit angemessener Spannung sollte die Karte weniger heiss (warm) werden, geringer Strom Verbrauchen und auch immer leise bleiben!
Schaun wann die Karten NEU aufschlagen, nicht jene welche nun auf Lager sind!

Was nimmst du eigentlich?
Möchte auch was davon haben.

dildo4u
2016-09-17, 14:55:41
Jup die PS4 Pro kommt erst im November und muss massiv untertaktet werden,das sieht nicht so aus als wenn das in Zukunft besser wird.

dargo
2016-09-17, 14:57:23
Man hätte auch schreiben können AMD lauter als Nvidia, durch die Bank. Die Gründe dafür sind dem Kunden piepegal.

Gehörst du auch zu dem 08/15 Kunden? Da du öfter im 3DC unterwegs bist gehe ich nicht davon aus. Das sind einfachste Physikgrundregeln die du gekonnt ignorierst.


Die Diskussion entsteht ja nicht nur wegen mir, sondern auch aufgrund anderer die sowas immer negieren und dann Ausreden finden was Chipgröße usw.. angeht, dabei ist die Chipgröße einer GTX 1060 kleiner wie einer rx470/rx480 und kann auch erheblich besser gekühlt werden.

So viele Facepalms kann ich hier gar nicht unterbringen. GTX1080/RX480 trennen ~15W, GTX1060/RX480 ~40W. GP104 vs. P10 = +35% Die-Size. P10 vs. GP106 = + 16% Die-Size.

Du hattest mal eine MSI Gaming 1060 und RX480 mit 0,7/2,2 Sone in den Raum geworfen. Ich warte immer noch auf die Quelle.

Hier hast du mal eine Custom Asus RX470.
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/Tests/Radeon-RX-470-Test-Review-1203600/

Lässt man ihr ein TT von 70°C zu kommt sie nur noch auf 1,0 Sone bei 140-144W (http://www.tomshardware.de/amd-radeon-rx-470-grafikkarte-asus,testberichte-242165-7.html). Das sind immer noch 20-25W mehr als die GTX1060. Also wo sind die Kühler so viel schlechter? Du blendest hier komplett die Physikgrundlagen aus, was ist das für eine Diskussionsbasis? Zudem solltest du auch nicht vergessen, dass das TT einen großen Einfluss auf die Lautstärke hat. Wenn man schon den Kühler vom Hersteller X mit Y vergleicht dann bitte auch beim gleichen TT, Verbrauch und vergleichbaren Die-Size! Alles andere ist nonsens.

Sehe ich nicht so, ich möchte bei AMD bessere Kühler sehen und will Aktien, die ich nach wie vor bei AMD in recht großer Zahl halte, nicht von so Pfuschern abgewertet sehen.

Ach daher weht der Wind. Jetzt weiß ich auch was man von dir halten soll. Deine gescheiterten Geschäfte an der Börse haben in diesem Thread nichts verloren!

Blediator16
2016-09-17, 15:27:24
Jup die PS4 Pro kommt erst im November und muss massiv untertaktet werden,das sieht nicht so aus als wenn das in Zukunft besser wird.

Was hat das hier zu suchen?

Raff
2016-09-17, 15:38:32
Du hattest mal eine MSI Gaming 1060 und RX480 mit 0,7/2,2 Sone in den Raum geworfen. Ich warte immer noch auf die Quelle.

Die Werte stammen aus dem PCGH-Test (15 GTX-1060- und RX-480-Modelle verglichen), zu finden im aktuellen Heft (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-10-2016-Magazin-DVD-Download-PDF-1206420/) respektive der digitalen Zusammenstellung zum Thema GTX 1060 und RX 400 (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Sonderheft-GTX-1060-RX-480-1207317/).

MfG,
Raff

dargo
2016-09-17, 16:16:34
Die Werte stammen aus dem PCGH-Test (15 GTX-1060- und RX-480-Modelle verglichen), zu finden im aktuellen Heft (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/Specials/PCGH-10-2016-Magazin-DVD-Download-PDF-1206420/) respektive der digitalen Zusammenstellung zum Thema GTX 1060 und RX 400 (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Sonderheft-GTX-1060-RX-480-1207317/).

MfG,
Raff
Danke, magst du auch folgende Werte ergänzen?

GTX1060 Gaming = W(?), TT(?)
RX480 Gaming = W(?), TT(?)

Ich tippe mal ins blaue... Geforce 140-145W, Radeon 190-200W.

Hübie
2016-09-17, 17:35:47
Wieviel Performance ginge denn flöten wenn man die Radeon auf 145-150 Watt stellen würde? Hatte Igor da nicht mal was gemacht? :uponder:

(del)
2016-09-17, 17:46:54
Es gibt eigentlich keine 1060, die deutlich über 130 Watt geht.
Raff schreibt hier sicher nichts im Detail rein, Du sollst ja die Inhalte schließlich kaufen (siehe Links oben) ;)