PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 480: (P)Review-Thread


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24

(del)
2016-07-03, 15:10:43
War schon klar, dass sie 3 Phasen vom 6pin und 3 Phasen vom Slot powern. Das macht man nun mal so, aus dem einfachen Grund, würde man beide 12V Schienen direkt verbinden, würde durch die zu erwartende Spannungsdifferenz (liefern ja nicht beide exakt 12V) immer ein recht großer Strom fließen um die Spannungen auszugleichen.

Erinnerst Du Dich an mein Rechenbeispiel von gestern abend? Auf dem PEG liegen wohl vier Phasen, am PCIe nur zwei + die Phase für den RAM und Gedöns rechts oben neben dem PCIe-Stecker. 3.3 Volt sitzt links oben, AUX zieht nur ein paar mA. Jede der sechs Phasen scheint mit etwas über 20 Watt ausgelastet zu sein, also etwas über 18 Watt für den Chip, der wirklich nur 110 Watt an Leistung benötigt, zuzüglich 2 Watt für die Spannungswandler, die man wohl auch gerade deshalb so überdimensioniert gewählt hat (Innenwiderstand). Solange man von einer symetrischen Auslastung der Phasen ausgeht, ist eine 3:3-Phasen-Aufteiling nicht möglich. Ich messe übrigens 82 Watt am PEG, was exakt den 4 Phasen meines Gedankenspiels entsprechen würde. Nimmt man nämlich die Gesamtleistung durch Untervolten zurück, ändert sich die Leistungsaufnahme ebenfalls nicht etwa 50:50, sondern der PEG wird überproportional entlastet, was ebenfalls auf 4:2 Phasen hinweisen würde.

Ich habe es auch gemessen - 12V PEG vom Mainboard und PCIe sind NICHT elektrisch miteinander verbunden. Lässt man den PEG weg, läuft interessanterweise der Lüfter der Karte, im ungekehrten Fall nicht. Ergo liegt die Peripherie mit am oberen PCIe und es besteht eine saubere Trennung.

=Floi=
2016-07-03, 15:13:50
Und dann schön drauf hoffen, dass es nicht auffliegt?

ich meine ein powervirus bios um die karte ohne pc mit last zu testen!



die taktanpassung kam hinterher! Es ist im grunde auch total wurst wie es damals zur zertifizierung kam. das problem haben die jetzigen karten.

(del)
2016-07-03, 15:19:51
Morgen gibt es noch einmal einen längeren Artikel von mir, ich bin auch sauer, dass PCPer zwar unsere Grafiken nutzt, jedoch nicht auf den Begleittext dazu eingeht. Vor allem deren erster Artikel mit der tollen Sensationsaufmache stößt mir da sauer auf, weil es bei uns gar nicht so drinsteht.

Für den Rest: ich habe die Ströme noch mehrmals gemessen (Watt sind ja sinnlos, weil die Spec die Ströme festlegt). Ich zitiere mich gern noch einmal aus dem alten Launchartikel:

"Zur Klarstellung: Es wird sicher nichts verbrennen, aber Normen gibt es, um sie zu beachten."


Ich finde es aber durchaus erheiternd, wie viele Seiten nun plötzlich bei "Nachtests" auf so viel niedrigere Werte kommen wollen. Einen Satz dazu will ich aber dann doch spoilern:

Wir können uns damit auch nicht dem aktuellen Trend anschließen, bei erneuten Messungen plötzlich sehr viel niedrigere Werte erreicht zu haben. Die seit Jahren verwendete, turnusmäßig kalibrierte Messtechnik lieferte in beiden Szenarien, also der mit hoher und niedrigerer Auflösung, verlässliche und sehr ähnliche Werte. Im Gegenteil, man wird fragen müssen, warum bisherige Werte in manchen Quellen nunmehr so deutlich voneinander abweichen und was dies dann für deren ältere Reviews bedeuten könnte.

Hakim
2016-07-03, 15:21:29
Ein Händler listet die 8 GB Version für 229€. Sieht echt so kurz nach Verkaufsstart aus das einige Händler die Referenz abverkaufen wollen

Schlammsau
2016-07-03, 15:28:25
Mythos;11089690']Ja, das Thema hatten wir schon, die Beiträge dazu wurden allerdings leider gelöscht, warum auch immer...
Inklusive Versand bist du bei knapp 330 Eur nach Deutschland dabei. Erscheinungsdatum ist der 22. July.
330€ .... hmmm .... dat is mir zu viel. :ufinger: Habs auch gerade selbst mit dem Währungsrechner umrechnen lassen. Lohnt sich nicht wirklich selbst bei dem schwachen Kurs des Pfund.
Ein Händler listet die 8 GB Version für 229€. Sieht echt so kurz nach Verkaufsstart aus das einige Händler die Referenz abverkaufen wollen
Hies es hier vor x Seiten nicht schon das die Referenz praktisch jetzt schon EOL sein soll?

[MK2]Mythos
2016-07-03, 15:32:29
Man kann denke ich davon ausgehen dass auch deutsche Händler die Karten in den nächsten Wochen für vermutlich unter 300EUR listen werden.

unl34shed
2016-07-03, 15:33:04
... Nimmt man nämlich die Gesamtleistung durch Untervolten zurück, ändert sich die Leistungsaufnahme ebenfalls nicht etwa 50:50, sondern der PEG wird überproportional entlastet, was ebenfalls auf 4:2 Phasen hinweisen würde.

Ich habe es auch gemessen - 12V PEG vom Mainboard und PCIe sind NICHT elektrisch miteinander verbunden. ...

Ja stimmt ein Verhältnis von 4:2 ergibt mehr Sinn, da VRAM noch dazu kommt.
Prinzipiell ging es mir darum, dass die 12V aus oben genanntem Grund nicht mit einander verbunden sind.

Hast du Lust spaßeshalber mal eine der 4 PEG Phasen auszulöten? :D

Butterfly
2016-07-03, 15:35:39
Morgen gibt es noch einmal einen längeren Artikel von mir, ich bin auch sauer, dass PCPer zwar unsere Grafiken nutzt, jedoch nicht auf den Begleittext dazu eingeht. Vor allem deren erster Artikel mit der tollen Sensationsaufmache stößt mir da sauer auf, weil es bei uns gar nicht so drinsteht.

Für den Rest: ich habe die Ströme noch mehrmals gemessen (Watt sind ja sinnlos, weil die Spec die Ströme festlegt). Ich zitiere mich gern noch einmal aus dem alten Launchartikel:



Ich finde es aber durchaus erheiternd, wie viele Seiten nun plötzlich bei "Nachtests" auf so viel niedrigere Werte kommen wollen. Einen Satz dazu will ich aber dann doch spoilern:
Danke, eure Test sind nicht Fehlerfrei, aber welcher Mensch ist das schon! ;)
Ich hab gerade ein älteren Test gefunden "HD6990" PEG Watt Werte:
http://www.tomshardware.de/radeon-r9-295x2-benchmark-performance-project-hydra-wasserkuhlung,testberichte-241536-14.html
In wie fern spielt denn die Frequenz der 12V Leitung mit rein, es sind doch noch Schaltnetzteile mit Kondensator Siebung?

Mit welcher Spec (ISO 9001) der Turnus kalibriert wurde wird auch nicht erwähnt. :biggrin:

Gipsel
2016-07-03, 15:37:18
Erinnerst Du Dich an mein Rechenbeispiel von gestern abend? Auf dem PEG liegen wohl vier Phasen, am PCIe nur zwei + die Phase für den RAM und Gedöns rechts oben neben dem PCIe-Stecker.Der erste Vorschlag in die Richtung der 4:2 Aufteilung (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11087982#post11087982) ist wohl älter. ;)

Edit:
Übrigens mußt Du nicht vermuten. Nimm einfach wie von anddill schon vorgeschlagen (und in dem hier verlinkten Video auf twitch demonstriert) einfach ein Multimeter und messe nach, welche Phase wo dran hängt. Du hast doch die Karte. ;)
Falls das z.B. doch 3:3 aufgeteilt wäre, ist eventuell sogar schon ein Current Balance Bias zwischen den Phasen programmiert, nur vielleicht falsch rum? So ein Fuck up würde mich ehrlich gesagt inzwischen nicht mehr wirklich überraschen.

Fliwatut
2016-07-03, 15:41:19
angeblich bei ocuk ab morgen vorbestellbar und ab 7.7 kaufbar
MW. soll die Sapphire ab 22. Juli kaufbar sein.

hesTeR-
2016-07-03, 15:42:24
ok das wären dann ja noch gut 1,5 wochen... schade

wo gibts denn die referenz 8gb so billig ? ich finde kein preis in der region

dildo4u
2016-07-03, 15:43:31
ok das wären dann ja noch gut 1,5 wochen... schade

wo gibts denn die referenz 8gb so billig ? ich finde kein preis in der region
https://www.computeruniverse.net/products/90659430/sapphire-radeon-rx-480-lite-retail.asp

Fliwatut
2016-07-03, 15:46:31
Ein Händler listet die 8 GB Version für 229€. Sieht echt so kurz nach Verkaufsstart aus das einige Händler die Referenz abverkaufen wollen
Das ist wahrscheinlich ein Listungsfehler bei Computeruniverse, das wird die 4GB Version sein.

Die Herstellernummer "21260-01-20G" führt zur 4GB-Version.

Butterfly
2016-07-03, 15:51:40
Ich finde es aber durchaus erheiternd, wie viele Seiten nun plötzlich bei "Nachtests" auf so viel niedrigere Werte kommen wollen. Einen Satz dazu will ich aber dann doch spoilern:
Bei einer Einsparung von 95W werden nur noch 47% der Leistung erreicht, Takt abhängig.

Hier gibt es auch eine Meldung in die andere Richtung: http://www.tweakpc.de/news/37474/amd-treiberupdate-fuer-die-radeon-rx-480-bringt-mehr-performance/
Scheint innerhalb des Machbaren zu sein, für den Preis welchen der Board Hersteller trägt immer noch beachtlich.

Ätznatron
2016-07-03, 15:56:26
ich meine ein powervirus bios um die karte ohne pc mit last zu testen!



die taktanpassung kam hinterher! Es ist im grunde auch total wurst wie es damals zur zertifizierung kam. das problem haben die jetzigen karten.

Man kann es ganz einfach nachprüfen, in dem man die PCI-SIG eine gewöhnliche Retail-Karte testen lässt.

(del)
2016-07-03, 16:00:49
Danke, eure Test sind nicht Fehlerfrei, aber welcher Mensch ist das schon! ;)
Ich hab gerade ein älteren Test gefunden "HD6990" PEG Watt Werte:
http://www.tomshardware.de/radeon-r9-295x2-benchmark-performance-project-hydra-wasserkuhlung,testberichte-241536-14.html
In wie fern spielt denn die Frequenz der 12V Leitung mit rein, es sind doch noch Schaltnetzteile mit Kondensator Siebung?
Mit welcher Spec (ISO 9001) der Turnus kalibriert wurde wird auch nicht erwähnt. :biggrin:

Es ist aber eindeutig im Grundlagenartikel erklärt (der immer mit verlinkt ist) dass wir Spannungen und Sträme zeitgleich messen und sogar den zweitlichen Versatz der Messelektronik in den Zangen mit einplanen. Kalibriert sind die Messgeräte, ich schaffe die Zangen regelmäßig weg.

Der Aufbau wurde über Jahre hin entwickelt, man kann in den einzelnen Reviews also auch die Fortschritte sehen. :)

Screemer
2016-07-03, 16:04:39
Das ist wahrscheinlich ein Listungsfehler bei Computeruniverse, das wird die 4GB Version sein.

Die Herstellernummer "21260-01-20G" führt zur 4GB-Version.
Ich hab sie mal bestellt. Wir werden sehen. Light retail ist häufig günstiger. Sind ja nur 19€ unter Mindfactory gestern.

Butterfly
2016-07-03, 16:10:01
Es ist aber eindeutig im Grundlagenartikel erklärt (der immer mit verlinkt ist) dass wir Spannungen und Sträme zeitgleich messen und sogar den zweitlichen Versatz der Messelektronik in den Zangen mit einplanen. Kalibriert sind die Messgeräte, ich schaffe die Zangen regelmäßig weg.

Der Aufbau wurde über Jahre hin entwickelt, man kann in den einzelnen Reviews also auch die Fortschritte sehen. :)
Es gibt inzwischen auch VDI Normen (Verbund deutscher Ingenieure) von daher ist die Angabe der Spezifikation schon wichtig bei einer Kalibrierung*.
*Welche auch ein Nachstellen (justieren) beinhaltet im Falle von "out of spec". ;)

Der erste Vorschlag in die Richtung der 4:2 Aufteilung (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11087982#post11087982) ist wohl älter. ;)

Edit:
Übrigens mußt Du nicht vermuten. Nimm einfach wie von anddill schon vorgeschlagen (und in dem hier verlinkten Video auf twitch demonstriert) einfach ein Multimeter und messe nach, welche Phase wo dran hängt. Du hast doch die Karte. ;)
Falls das z.B. doch 3:3 aufgeteilt wäre, ist eventuell sogar schon ein Current Balance Bias zwischen den Phasen programmiert, nur vielleicht falsch rum? So ein Fuck up würde mich ehrlich gesagt inzwischen nicht mehr wirklich überraschen.
+1
Wobei die Kontrolle immer noch beim user bleiben sollte, nur weil andere nicht wissen how to, lass ich mich doch nicht beschränken. :cool:

anddill
2016-07-03, 16:18:00
Morgen gibt es noch einmal einen längeren Artikel von mir, ich bin auch sauer, dass PCPer zwar unsere Grafiken nutzt, jedoch nicht auf den Begleittext dazu eingeht. Vor allem deren erster Artikel mit der tollen Sensationsaufmache stößt mir da sauer auf, weil es bei uns gar nicht so drinsteht.
Ich kann nicht nachvollziehen was Dein Problem ist. Sie gehen auf Deine Arbeit doch sachlich richtig ein. Daß sie in Sachen Sampling und Darstellung einen etwas anderen Ansatz gewählt haben ist doch ok, und wie ich es schon sagte, finde ich deren Ansatz im Grunde besser, jedenfalls wenn ich mich entscheiden müsste.
Oder beziehst DU Dich auf etwas anderes als den extra Artikel zur Stromaufnahme (http://www.pcper.com/reviews/Graphics-Cards/Power-Consumption-Concerns-Radeon-RX-480)?


Für den Rest: ich habe die Ströme noch mehrmals gemessen (Watt sind ja sinnlos, weil die Spec die Ströme festlegt). Ich zitiere mich gern noch einmal aus dem alten Launchartikel:



Ich finde es aber durchaus erheiternd, wie viele Seiten nun plötzlich bei "Nachtests" auf so viel niedrigere Werte kommen wollen. Einen Satz dazu will ich aber dann doch spoilern:

Wo? Die über die wir hier diskutieren mit exakten Messungen haben nichts geändert.
Aber ich freu mich auf Deinen Nachtest. :cool:

Achim_Anders
2016-07-03, 16:34:32
Irgendwas passt doch bei der RX 480 nicht zusammen.

Unstimmigkeiten:

1. Stromaufnahme über dem maximal Erlaubten für die Steckerverbindung.
2. PCB anscheinend voll der "Overkill"
3. Kühlkonzeption incl. Lüfterkurve mehr als fragwürdig.
4. Zu hohe Spannung ab Werk in vielen Test. (Treibt die Temperatur hoch und throttled die Karte dadurch früher.)

Ich bin wirklich Laie, aber so ein wirklich "rundes" Gebilde scheint das nicht geworden zu sein...

Wie kann sowas kommen? Vor allem in Hinblick auf das PCB. Gerade AMD hat doch nichts zu verschenken, warum dann sowas?
http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Radeon-RX-480-PCB-Overkill-1200256/

Arcanoxer
2016-07-03, 16:42:28
Das Phoronix Review der RX480 fehlt noch immer im Startposting.
http://www.phoronix.com/scan.php?page=article&item=amdgpu-rx480-linux&num=1

Hakim
2016-07-03, 16:42:38
In der Regel eigentlich nur wenn man auf Teufel komm raus einen Termin einhalten muss obwohl es mehr Zeit braucht? Wollte AMD nicht ursprünglich die Karte sogar früher bringen?

Ich glaube das man kurzfristig durch eine Erkenntnis die Karte noch schnell anpassen wollte (mehr takt? Entsprechend auch +PT).

d2kx
2016-07-03, 16:43:39
https://i.imgur.com/cCoirVR.png

https://i.imgur.com/rTpfuU3.png

anddill
2016-07-03, 16:46:13
Das Phoronix Review der RX480 fehlt noch immer im Startposting.
http://www.phoronix.com/scan.php?page=article&item=amdgpu-rx480-linux&num=1

Hab den Link eingefügt.

Digidi
2016-07-03, 16:46:30
@d2kx danke für den tweet
Immerhin erlich! Sowas hätte ich mir bei Nvidia beim 3,5 GB bug gewünscht, dann hätte ich mir eine 1080 FE geholt.

raumfahrer
2016-07-03, 16:48:02
In der Regel eigentlich nur wenn man auf Teufel komm raus einen Termin einhalten muss obwohl es mehr Zeit braucht? Wollte AMD nicht ursprünglich die Karte sogar früher bringen?

Ich glaube das man kurzfristig durch eine Erkenntnis die Karte noch schnell anpassen wollte (mehr takt? Entsprechend auch +PT).

Offiziell war wohl immer Mitte oder Sommer 2016.

(del)
2016-07-03, 16:52:19
Oder beziehst DU Dich auf etwas anderes als den extra Artikel zur Stromaufnahme (http://www.pcper.com/reviews/Graphics-Cards/Power-Consumption-Concerns-Radeon-RX-480)?Genau den. Hat einen etwas komischen Beigeschmack.

Wo? Die über die wir hier diskutieren mit exakten Messungen haben nichts geändert.Einige haben, PCPer auch, wenn auch nicht dramatisch. Andere haben sich dann aber drangehangen und die eigenen Reviews geglättet. PCPer hat aber am gleichen Tag, an dem sie plötzlich auf meine Methoden einhacken, noch eine 960 getestet. Die Werte sind keineswegs plausibel, da ich seinerzeit genau für diese Karte die Messdaten eines Mitbewerbers bekommen habe, die sich erstaunlich gut mit meinen Daten deckten. PCPer hat auch da eindeutig zu wenig gemessen. Ich halte deren 10 Khz für viel zu niedrig, um wirklich alles sauber zu erfassen. Sicher muss man nicht über 100 KHz gehen, aber irgendwo dazwischen ist es schon interessant. ;)

Gigabyte hat übrigens seit 2012 eine eigene Platine, die ich kenne, aber nicht nutze. Da wird auch mit Shunts gearbeitet und die Umsetzung läuft auch weitaus genauer als das, was PCPer da gebastelt hat. Unsere Ergebnisse haben sich bisher immer gedeckt und GB hat das Teil vor allem deshalb entwickelt, im transportabel und platzsparender sein zu können. Mittlerweile gibts dort Lösungen für ganze Renderfarmen :D
Aber: eine R9 295X2 hatte das Dingens wohl auch nicht überlebt.

j4l
2016-07-03, 16:53:11
Also auf Reddit ist ja einiges los. Die Leute bekommen die Karte bis 13xx bei 1,0xV zum laufen. Was ich da gelesen (https://www.reddit.com/r/Amd/comments/4qupw4/super_psa_all_rx480_owners_please_attempt_to/d4whbd4) habe, fande ich sehr interessant. Wenn man die Spannung des VRAM von Auto auf den Default Wert manuell stellt, ist die Leistungsaufnahme laut GPUZ geringer

Mag das mal einer der Tester testen?

Digidi
2016-07-03, 16:54:15
Genau den. Hat einen etwas komischen Beigeschmack.

Einige haben, PCPer auch. Die haben aber am gleichen Tag, an dem sie plötzlich auf meine Methoden einhacken, noch eine 960 getestet. Die Werte sind keineswegs plausibel, da ich seinerzeit genau für diese Karte die Messdaten eines Mitbewerbers bekommen habe, die sich erstaunlich gut mit meinen Daten deckten. PCPer hat auch da eindeutig zu wenig gemessen. Ich halte deren 10 Khz für viel zu niedrig, um wirklich alles sauber zu erfassen. Sicher muss man nicht über 100 KHz gehen, aber irgendwo dazwischen ist es schon interessant. ;)

Gigabyte hat übrigens seit 2012 eine eigene Platine, die ich kenne, aber nicht nutze. Da wird auch mit Shunts gearbeitet und die Umsetzung läuft auch weitaus genauer als das, was PCPer da gebastelt hat. Unsere Ergebnisse haben sich bisher immer gedeckt und GB hat das Teil vor allem deshalb entwickelt, im transportabel und platzsparender sein zu können. Mittlerweile gibts dort Lösungen für ganze Renderfarmen :D

PCPer gibt ja auch an das sie das Signal Filtern im Gegensatz zu euch. Aber ich will doch gar nicht Filtern. Ich will alles sehen was das Ding ausspuckt? Die sind etwas seltsam :D

(del)
2016-07-03, 16:56:27
PCPer gibt ja auch an das sie das Signal Filtern im Gegensatz zu euch.Das mache ich seit Jahren. Ich halte das eher für eine Selbstverständlichkeit, die man nicht jedes Mal reinschreiben muss. Woher wollen die wissen, dass ich ohne Filter im Oszi arbeite? Können die hellsehen? Genau solche Behauptungen sind es, die mich maßlos enttäuschen. Nur filtere ich ja das, was oberhalb meines Interesses liegt und nicht das, was ich bei meiner Auflösung gern im Log auch gesehen hätte. Wir haben auch mit variablen Low-Pass-Filtern experimentiert und an der Firmware rumgeschraubt. Nur bringt das bei den vergleichweise lahmen Spannungsreglern fast gar nichts. da muss man schön höher einsteigen, damit das lohnt.

Digidi
2016-07-03, 16:58:39
Du baust Filter ein ? Nach was filterst du denn? Du willst doch nicht Filtern? Du willst doch wissen was da wirklich los ist?

Du schraubst da an der Firmware rum :lol

Execel Datei schreiben und einen mathematischen Lowpas Filter anwenden. Das sollte doch viel einfacher sein.

(del)
2016-07-03, 17:03:38
Ich baue nichts ein, ich nutze es. Die Oszis haben die Möglichkeit, sowohl Low-Pass-Filter, als auch Noise-Reduzierung pro Kanal zu nutzen. Letzteres ist zwar Käse, aber der Low-Pass filtert genau das weg, was oberhalb meiner Vorgaben liegt. Nicht mehr, aber auch nicht weniger. Was soll ich z.B. mit Spikes oberhalb 250 KHz, wenn die VR eh nicht so viel abkönnen?

Du schraubst da an der Firmware rum :lol
Nicht ich, sondern die Kollegen von Rohde & Schwarz, deren Oszi-Entwicklung hier nur 1km Luftlinie weg ist und die mir auch sonst kräftig helfen. Ist ja schließlich mein Kooperationspartner und Sponsor. Technisch und mit Wissen.

Execel Datei schreiben und einen mathematischen Lowpas Filter anwenden. Das sollte doch viel einfacher sein.
Ich nutze eine selbst programmierte Software zur Auswertung, Excel ist nur die finale Ausgabestation. Versuche mal, mit knapp 50.000 belegten Zellen zu rechnen, im Extremfalls sind es sogar knapp 500.000 :D
Morgen gibts dazu mehr.

Gipsel
2016-07-03, 17:05:44
https://i.imgur.com/cCoirVR.png

https://i.imgur.com/rTpfuU3.pngDaß das Mainboard abschalten sollte, ist nur leider Blödsinn.
Auf dem Mainboard ist da üblicherweise maximal noch ein Kondensator gegen Masse verbaut, um die 12V noch etwas zu filtern, ansonsten wird die Spannung vom Netzteil schlicht durchgeschleift. Wozu sollte das Mainboard irgendwie messen, wie viel Strom vom Slot (oder den Slots) gezogen wird, um abschalten zu können? Wenn das Board dafür ausgelegt ist, an einen PEG-Slot 5,5A zu liefern und an die kleineren (bzw. nicht-PEG x16-Slots) die 0,5A bzw. 1,5A oder so, die eigentlich maximal für die 10W- und 25W-Karten vorgesehen sind, dann ist eine Überwachung da doch eigentlich überflüssig.

Halbwegs sinnvoll wäre das nur bei Boards mit 3 oder 4 PEG-Slots, die dann z.B. überwachen könnten, ob entsprechend zusätzliche Stromstecker auf dem Board benutzt wurden, um genügend Saft für die vielen Slots zu liefern (z.B. ein 6Pin-Stecker auf dem Board für die Versorgung der PEG-Slots Nummer 3 und 4, weil das sonst über den ATX-Stecker extrem eng wird). Auf normalen Boards ist so eine Überwachung wohl schlicht verschwendetes Geld.

Digidi
2016-07-03, 17:07:04
Ich baue nichts ein, ich nutze es. Die Oszis haben die Möglichkeit, sowohl Low-Pass-Filter, als auch Noise-Reduzierung pro Kanal zu nutzen. Letzteres ist zwar Käse, aber der Low-Pass filtert genau das weg, was oberhalb meiner Vorgaben liegt. Nicht mehr, aber auch nicht weniger. Was soll ich z.B. mit Spikes oberhalb 250 KHz, wenn die VR eh nicht so viel abkönnen?


Da solltest du dich doch fragen wo die Spikes von 250 KHz herkommen ;)

hq-hq
2016-07-03, 17:08:54
bzgl. des Marketings von AMD betreffend hat PCPer sicherlich voll getroffen:

"AMD probably didn’t want to include a second 6-pin or upgrade to an 8-pin
connection because of the impression it would give for a mainstream gaming
card. Having two power connectors or an 8-pin might tell uninformed buyers
that the RX 480 isn’t power efficient enough, that it might not work with an
underpowered system and power supply, etc."

Der Anschein, der erste Blickkontakt, ist einfach sehr wichtig :freak:

Wegen der Phasenaufteilung, noch nicht jemand Kühler demontiert und mit
dem Multimeter gemessen?

(del)
2016-07-03, 17:10:47
Da solltest du dich doch fragen wo die Spikes von 250 KHz herkommen ;)
Prävention, denn bei Messungen am und im PC gibts so einiges, auch aus Richtung Netzteil. Rauschen gibt es immer, vor allem bei Messzangen, wenn sie am Rande der Specs belastet werden. Was bei der RX 480 aber nicht der Fall ist. Wären die Filter so notwendig, hätte ich bei der Zweitmessung nicht ein so ähnliches Ergebnis ;)


bzgl. des Marketings von AMD betreffend hat PCPer sicherlich voll getroffen:

"AMD probably didn’t want to include a second 6-pin or upgrade to an 8-pin
connection because of the impression it would give for a mainstream gaming
card. Having two power connectors or an 8-pin might tell uninformed buyers
that the RX 480 isn’t power efficient enough, that it might not work with an
underpowered system and power supply, etc."

Der Anschein, der erste Blickkontakt, ist einfach sehr wichtig :freak:


Genau das steht bei mir auch im Launchartikel :D

Kommen wir nun noch einmal auf die Geschichte mit dem 8-Pin-Anschluss zurück: So ein kleiner 6-Pin-Anschluss impliziert zwar Sparsamkeit, aber man wäre mit Sicherheit besser beraten gewesen, das Balancing der sechs Phasen ... und den Mainboard-Anschluss deutlicher entlastet.

Gipsel
2016-07-03, 17:11:15
Da solltest du dich doch fragen wo die Spikes von 250 KHz herkommen ;)Mit entsprechendem Equipment würde ich erwarten, die PWM-Frequenz der Schaltregler und die Obertöne davon zu sehen, bis weit in den MHz-Bereich hinein, je nachdem wo man abgreift (weil ja die Spannungen auf dem Board auch schon kräftig gefiltert werden).

Butterfly
2016-07-03, 17:12:53
Halbwegs sinnvoll wäre das nur bei Boards mit 3 oder 4 PEG-Slots, die dann z.B. überwachen könnten, ob entsprechend zusätzliche Stromstecker auf dem Board benutzt wurden, um genügend Saft für die vielen Slots zu liefern (z.B. ein 6Pin-Stecker auf dem Board für die Versorgung der PEG-Slots Nummer 3 und 4, weil das sonst über den ATX-Stecker extrem eng wird). Auf normalen Boards ist so eine Überwachung wohl schlicht verschwendetes Geld.
Mein 24P Stecker hat Schätzungsweiße 2x1.5mm² Leitungen in einem Pin (Crimp) vereint.
3 PEG Slots gehen bei mir nur via 2x PCIE3.0 + 1x PCIE2.0. :smile:

(del)
2016-07-03, 17:21:14
Mit entsprechendem Equipment würde ich erwarten, die PWM-Frequenz der Schaltregler und die Obertöne davon zu sehen, bis weit in den MHz-Bereich hinein, je nachdem wo man abgreift (weil ja die Spannungen auf dem Board auch schon kräftig gefiltert werden).

Letzteres, dafür stecken ja auch Solids auf den Platinen und ich messe am PCIe-Stecker (Spannungen) und am Kabel, nah an der Karte (Ströme). Da kommt im MHz-Bereich kaum noch was an, zumal die Zangen oberhalb von ca. 150 KHz quasi selbst filtern, weil sie aus den Specs laufen. Die Elektronik der Zangen hat bereits passend zur Leistungsgrenze eingebaute Low-Pass-Filter, deswegen verwundert mich die Filter-Frage immer wieder. Ich hab doch mein Equipment in jedem Review drin stehen und nicht im Supermarkt gekauft. Mehr als 500-Euro-Zangen sind aber als Testequipment nicht möglich, auch nicht mit Sponsor. Ich messe ja Ströme auf bis zu vier Kanälen, das kostet :(

Das schlimmste war sowieso das Masseproblem, da habe ich mir echt helfen lassen müssen. Am besten sind da immer noch die verhassten Y-Kabel für den 2x 8-Pin ;)

hq-hq
2016-07-03, 17:26:22
Genau das steht bei mir auch im Launchartikel :D

Jepp, stimmt :-D

hätte selbst erst garnicht drangedacht, ich kannte es nur umgekehrt, am besten 2x8Pin und dann nur 210watt max PT :biggrin:

Mortalvision
2016-07-03, 17:34:48
Leichter erklärt als angenommen: Der Einkäufer bei AMD hat gesehen, dass die MOSFETs im Millionenpack billiger kommen als für zwei verschiedene Chargen den Aufpreis zu zahlen. Mit der Technik Rücksprache gehalten: ja, geht, können wir verbauen. Und die Techniker freuen sich, dass sie schon mal das PCB für V11 vortesten können, so es denn noch mit GDDR5/5X kommt.

(del)
2016-07-03, 17:37:17
Leichter erklärt als angenommen: Der Einkäufer bei AMD hat gesehen, dass die MOSFETs im Millionenpack billiger kommen als für zwei verschiedene Chargen den Aufpreis zu zahlen. Mit der Technik Rücksprache gehalten: ja, geht, können wir verbauen. Und die Techniker freuen sich, dass sie schon mal das PCB für V11 vortesten können, so es denn noch mit GDDR5/5X kommt.

Nicht lachen, aber es sind ja eh zwei Chargen verbaut. Low- und High-Side sind nicht identisch. Den fetten hat man eher dazu genommen, um durch dessen niedrigeren Innenwiderstand die Effizienz zu steigern und die Wandlerverluste zu minimieren.

Eigenzitat:
Aber AMD wird diesen MOSFET wohl eher wegen seines sehr geringen Innenwiderstandes von nur 2,4 mΩ ausgewählt haben, um vor allem die Wandlerverluste minimieren, damit auch kühler zu bleiben und die Leistungsaufnahme des Boards signifikant senken zu können.

Butterfly
2016-07-03, 17:43:45
@Format_C
Kleine Verständins Frage Meinerseits, AWG18 sollten doch 0.75mm² Querschnitt entsprechen?
Demnach sind 2x 1.5mm² AWG36 ?

Troyan
2016-07-03, 17:45:44
bzgl. des Marketings von AMD betreffend hat PCPer sicherlich voll getroffen:

"AMD probably didn’t want to include a second 6-pin or upgrade to an 8-pin
connection because of the impression it would give for a mainstream gaming
card. Having two power connectors or an 8-pin might tell uninformed buyers
that the RX 480 isn’t power efficient enough, that it might not work with an
underpowered system and power supply, etc."

Der Anschein, der erste Blickkontakt, ist einfach sehr wichtig :freak:


Jap. Tolle Argumentation:
Unsere 170W Karte würde Leute, die nur Karten bis 150W kaufen würden, abschrecken. Also lügen wir in unseren Angaben, so dass die Leute keine angst haben müssen, dass unsere außerhalb der Spezifikation laufende Karte in deren Systemen zu Problemen führen könnte.

Schon traurig, wie man so einen Quatsch kommunizieren kann. :rolleyes:

/edit: Quelle der Argumentation von AMD kommt von PCGH: http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Radeon-RX-480-PCB-Overkill-1200256/

Digidi
2016-07-03, 17:48:08
Ich wollte noch mal zu Crossfire zurück. Stimmt das jetzt wenn ich 4 Karten als Crossfire verbauen und ich trozdem knapp unter 75W bleibe packt es torzdem nicht mein ATX Mainboardstecker diese Leistung von 300W zu bringen?

(del)
2016-07-03, 17:48:27
@Format_C
Kleine Verständins Frage Meinerseits, AWG18 sollten doch 0.75mm² Querschnitt entsprechen?
Demnach sind 2x 1.5mm² AWG36 ?

Du hast Recht, AWG18 ist Spielkram:
http://www.tomshardware.de/leistungsaufnahme-grafikkarte-netzteil-wechselwirkung-messung,testberichte-241622-6.html

2x 1,5 sind dann AWG 12 oder so :D

Screemer
2016-07-03, 17:53:48
wenn man dem reddit-faden (https://www.reddit.com/r/Amd/comments/4qupw4/super_psa_all_rx480_owners_please_attempt_to/)folgt, dann scheint amd bei deim vvram was tüchtig verkackt zu haben. denn mit reduzierter vram spannung zeigt gpu-z schon mal massiv geringere powerdraw werte an. gpu-z ist natürlich kein maßstab, jedoch ist das extrem interessant.

noch dazu kommt, dass die karten durch die bank weniger vcroe brauchem. damit teilweise massiv höher takten und wasinnig irre firestrike ergebnisse einfahren. 165W nach gpu-z und über 11,5k (http://imgur.com/a/vay81).

dildo4u
2016-07-03, 17:57:57
Das sind halt 200€ Karten da muss man auch dem Ramsch vom Waffer nehmen damit es sich rechnet.Aber natürlich sind dort auch Perlen dabei.

Digidi
2016-07-03, 17:59:28
Das sind halt 200€ Karten da muss man auch dem Ramsch vom Waffer nehmen damit es sich rechnet.Aber natürlich sind dort auch Perlen dabei.

Auch Nvidia nimmt den Ramsch von den Wafern :D Siehe das kaum eine Founders Edtion stabiel 2000 MHZ packt :D

(del)
2016-07-03, 18:00:04
Ich wollte noch mal zu Crossfire zurück. Stimmt das jetzt wenn ich 4 Karten als Crossfire verbauen und ich trozdem knapp unter 75W bleibe packt es torzdem nicht mein ATX Mainboardstecker diese Leistung von 300W zu bringen? Boards, die vier solcher Karten ernsthaft über den PCIe kommunizieren lassen können, sind in Preisklassen, wo meist noch ein zusätzlicher 6-Pin am Board aufgelötet ist ;)

anddill
2016-07-03, 18:19:49
Ich wollte noch mal zu Crossfire zurück. Stimmt das jetzt wenn ich 4 Karten als Crossfire verbauen und ich trozdem knapp unter 75W bleibe packt es torzdem nicht mein ATX Mainboardstecker diese Leistung von 300W zu bringen?
Sagen wir mal 70W. Das wären dann insgesamt 280W. Macht bei 12V rund 23,3A. Die Steckkontakte im ATX-Stecker (War gar nicht zu leicht da eine Angabe zu finden) sind genau wie die Kontakte im 6-Pin mit je 9A spezifiziert. Ein alter 20-poliger ATX Stecker kann also 9A auf 12V liefern und wäre damit so überlastet, daß er ziemlich sicher und sofort in Rauch aufgeht. Ein 24-poliger mit 2x 12V kommt auf 18A. Nun ist je die Grafikkarte nicht der einzige Verbraucher an 12V, so 1-2A gehen da noch für andere Verbraucher weg, je nach Board.
Auch hier hätten wir fette Überlast mit rund 25A.:uexplode:

Und jetzt rechnen wir noch mal den Fall aus dem Bitcion-Mining Forum durch:
3x RX-480 @ Volldampf sind rund 3x80W (er hatte ja angeblich das PT etwas reduziert) oder 20A. Plus Board-Eigenverbrauch, und das auf einer Platine die nur einen vollwertigen PEG-Port hat.:uexplode:

Wobei auch hier wieder gilt: Wenn die Kontakte neu, blank und voller Spannkraft sind, dann wird in der Praxis trotzdem nichts passieren. Aber sobald der Stecker nicht absolut fest sitzt (was in der Praxis erstaunlich oft vorkommt, ist oft nicht eingerastet), Dreck im Kontakt ist oder die Spannung am unteren Rand des Toleranzbandes ist (was den Strom noch höher treibt) wird es zunehmend enger.

Oder mal andersrum gerechnet: Der Stecker liefert 18A, bei der minimalen zulässigen Spannung wären das dann rund 200W. Mehr ist nicht gesund. Das gilt genauso für den 4-Poligen CPU-Stecker (der ja auch 2 12V-Kontakte hat.

Screemer
2016-07-03, 18:23:50
Das sind halt 200€ Karten da muss man auch dem Ramsch vom Waffer nehmen damit es sich rechnet.Aber natürlich sind dort auch Perlen dabei.
mir ging es eigentlich vor allem um die massiv gesunkene leistungsaufnahme bei verringerter ramspannung. da fällt der verbrauch via gpu-z und bei firestrike teils um 40-50W. dabei läuft der vram wohl teils bei 975mv stabil und 1v scheint sich als stabiler mittelwert für alle herauszustellen. hat das von den reviewern mal einer gecheckt? konnte leider keine wirklichen undervolting tests finden.

dann wäre noch hinzuzufügen, dass es wohl karten mit unterschiedlicher stockvoltage gibt. das wurde in dem thread auch schon mehrfach erwähnt. zb. hier:

My Powercolour RX480 came with 1.068V at its max, atleast when I press 'voltage control' so it goes to manual, I get those values. Looks like mine is factory undervolted :P?

According to GPU-Z, the VDDC is at 1.05V running at 100% load.

Permalinkembed

[–]Denizzje 2 Punkte vor 20 Stunden

Woops, forgot to add a screenshot with it, here it is: http://imgur.com/a/Ie6Wx

This is how it came out of the box for me. Might gonna try to lower it, but how does one correctly do that? Reduce all the steps with the same ammount you reduce the highest one? So for example, you lower the highest step with 15, you do that to the other steps too?

PermalinkembedÜbergeordnet

[–]Schizoricani7 6700k|RX 480|16GB RAM 1 Punkt vor 1 Tag

Good guy Powercolour doing their job correctly. I'm seriously impressed by that, I wonder if they have their own custom BIOS on that card.

PermalinkembedÜbergeordnet

[–]Whatsthisnotgoodcompi5-4590, RX 480, 2x4gb DDR3, SSD 1 Punkt vor 22 Stunden

That's awesome if people can verify, means at least some companies are doing it correctly.

Although you then need to ask what the hell XFX were thinking with their overclocked one.

PermalinkembedÜbergeordnet
https://www.reddit.com/r/Amd/comments/4qupw4/super_psa_all_rx480_owners_please_attempt_to/d4wlh6l

sehr komisch.

Achill
2016-07-03, 18:32:05
Mein ASUS X99-E WS/USB 3.1 hat ein paar mehr Power-Connector. Ich würde bei allen Boards für ein CFX/SLI mit >2 GPUs schauen, dass dort eine bessere Stromversorgung existiert, die CPU nimmt ja auch nochmal ein ordenlichen Schluck beim Netzteil ... ;)

56524

(Ich würde dir aber kein CFX/SLI mit >2 GPUs empfehlen, viele Spiele sind nicht auf mGPU ausgelegt und Treiber können nur begrenzt Entscheidungen von Entwicklern umgehen aka Zustand im VRam zwischen n-Frames, der dann zwischen den GPUs sync. werden muss im mGPU Setup.)

Der_Korken
2016-07-03, 18:48:41
Das mit den Spannungen ist interessant. Das könnte bedeuten, dass die Custom Designs deutlich besser werden als das Referenzdesign. Mit einem besseren Kühler und entsprechend niedrigeren Temps sehen wir vielleicht GTX980-Performance bei echten 150W.

anddill
2016-07-03, 18:51:19
Es könnte auch bedeuten daß tatsächlich nur die Review Karten bzw. die allerersten so hohe Spannungen hatten. Besser kann man sich nicht ins Knie schießen.

Disco_STFU
2016-07-03, 18:51:41
wenn man dem reddit-faden (https://www.reddit.com/r/Amd/comments/4qupw4/super_psa_all_rx480_owners_please_attempt_to/)folgt, dann scheint amd bei deim vvram was tüchtig verkackt zu haben. denn mit reduzierter vram spannung zeigt gpu-z schon mal massiv geringere powerdraw werte an. gpu-z ist natürlich kein maßstab, jedoch ist das extrem interessant.

noch dazu kommt, dass die karten durch die bank weniger vcroe brauchem. damit teilweise massiv höher takten und wasinnig irre firestrike ergebnisse einfahren. 165W nach gpu-z und über 11,5k (http://imgur.com/a/vay81).

Das mit dem Undervolten des VRAMs klingt heftig. :eek:

When you leave your memory voltage at stock it jumps to 170+ power draw, manually setting my memory voltage only consumed 138w at load.

Datarecovery09
2016-07-03, 19:05:12
Es wäre so wahnsinnig AMD-typisch, wenn sich das Bild auf breiter Front bestätigen sollte... Unfassbar! ^_^'

Aber mal im Ernst: Woran kann das liegen, dass ausgerechnet der Speicher solche Eskapaden macht (mal vorausgesetzt, dass das alles so stimmt)? 30W Differenz sind ja nun keine Kleinigkeit. Ist das ein Software-Fehler oder gibt es da irgendwo im Herstellungsprozess Streuungen, die es nötig machen, grds. so eine hohe Spannung anzulegen?

Magensaft
2016-07-03, 19:06:03
Das mit den Spannungen ist interessant. Das könnte bedeuten, dass die Custom Designs deutlich besser werden als das Referenzdesign. Mit einem besseren Kühler und entsprechend niedrigeren Temps sehen wir vielleicht GTX980-Performance bei echten 150W.

Das könnte gut sein das die 980 in DX11 damit erreicht und eventuell sogar überboten wird, aber die 150W sind dann eher knapp bemessen, denke ich.

In DX12 sieht es dann aber wirklich gut aus gegenüber der 980.

Das nächste Update von AMD ist richtig wichtig, viele Reviewer wetzen bereits Ihre Instrumente um die Karte ab dem 5ten nochmals so richtig ranzunehmen.
Wenn die Performance im Schnitt knapp die 980 erreicht (etwa +10%), ist das bereits ein Sieg für AMD und die ganze Powergate und veraltetes Bios bei Testern (~3% Verlust weil PCIe Bandbreite limitiert) Geschichte ist am Ende kostenlose Werbung gewesen. Da stellt sich mir die Frage wieviele Marketingpsychologen bei AMD arbeiten. :biggrin:

Aber mal im Ernst: Woran kann das liegen, dass ausgerechnet der Speicher solche Eskapaden macht (mal vorausgesetzt, dass das alles so stimmt)? 30W Differenz sind ja nun keine Kleinigkeit. Ist das ein Software-Fehler oder gibt es da irgendwo im Herstellungsprozess Streuungen, die es nötig machen, grds. so eine hohe Spannung anzulegen?

Wahrscheinlich wurde das Bios einfach mit der heißen Nadel gestrickt, PCB´s und GPU´s verheiratet und dann direkt geflasht und raus mit den Samples nach den Standardtests, wie es halt so läuft wenn man mit einer Deadline arbeitet.

(del)
2016-07-03, 19:09:30
Seit wann kontrolliert GPU-Z die Spannungswandler-Phase für den RAM? Als Max-Wert für die Leistungsaufnahme stehen bei mir ohne OC @stock z.B. 145 Watt Max, auch wenn es laut GPU-Z im Mittelwert über die zeit exakt 110 Watt sind. Da der RAM schätzungsweise sogar mit 3,5 Watt pro Modul und mehr zu Buche schägt, kann in diesen Werten nie im Leben der RAM mit drin sein.

Übrigens läuft der RAM über den PCIe und es ändert sich am PEG erst dann was, wenn die GPU durch den heruntergetakteten RAM limitiert wird und deshalb weniger zieht.

Thowe
2016-07-03, 19:12:47
Es könnte auch bedeuten daß tatsächlich nur die Review Karten bzw. die allerersten so hohe Spannungen hatten. Besser kann man sich nicht ins Knie schießen.

Meine Vermutung bleibt die Ausbeute bei den Chips, vermutlich gibt es eine Anzahl X, die eben nicht mit geringerer Spannung laufen und somit ist es nicht unwahrscheinlich, dass hier tatsächlich etwas angehoben wurde. Selektion jedes Chips wird man wohl kaum vornehmen wollen. Vor allem in Anbetracht dessen, dass wohl die Ausbeute pro Wafer bislang in Richtung unerfreulich geht.

Edit: Wobei ja Karten ja eigenständig dies bestimmen sollten ...

Edit2: Und vielleicht passt deshalb auch das "some Boards" wenn die Chips dies tatsächlich eigenständig tun und in der Mehrheit wohl mehr als erwartet. Was die Sache nicht besser macht.

StefanV
2016-07-03, 19:15:31
Sagen wir mal 70W. Das wären dann insgesamt 280W. Macht bei 12V rund 23,3A. Die Steckkontakte im ATX-Stecker (War gar nicht zu leicht da eine Angabe zu finden) sind genau wie die Kontakte im 6-Pin mit je 9A spezifiziert. Ein alter 20-poliger ATX Stecker kann also 9A auf 12V liefern und wäre damit so überlastet, daß er ziemlich sicher und sofort in Rauch aufgeht. Ein 24-poliger mit 2x 12V kommt auf 18A. Nun ist je die Grafikkarte nicht der einzige Verbraucher an 12V, so 1-2A gehen da noch für andere Verbraucher weg, je nach Board.
Und warum hälst du es für ausgeschlossen, dass das nicht von +12V CPU versorgt wird? ;)
Muss wohl mal meine Boards, die ich gerade nicht eingebaut hab, durchbimmeln...

decimad2
2016-07-03, 19:18:29
Wozu braucht man denn bei einem Spannungsregler einen Low-Side-Fet?

TerrorZivi
2016-07-03, 19:29:35
Ich packe mal die Werte meiner 4GB-Version dazu. Wird wohl etwas durch den alten X5650@4GHz gebremst. Da kommen zwar schöne Werte bei raus aber mit dem derzeitigen Referenzdesign würde ich das trotzdem nicht betreiben mögen.
Lüfter@Fermi :mad: , Versorgung an der Kotzgrenze :mad:!

Aber das gibt zumindest Hoffnung für wirklich ordentliche Herstellerkarten.

j4l
2016-07-03, 19:32:05
Seit wann kontrolliert GPU-Z die Spannungswandler-Phase für den RAM? Als Max-Wert für die Leistungsaufnahme stehen bei mir ohne OC @stock z.B. 145 Watt Max, auch wenn es laut GPU-Z im Mittelwert über die zeit exakt 110 Watt sind. Da der RAM schätzungsweise sogar mit 3,5 Watt pro Modul und mehr zu Buche schägt, kann in diesen Werten nie im Leben der RAM mit drin sein.

Übrigens läuft der RAM über den PCIe und es ändert sich am PEG erst dann was, wenn die GPU durch den heruntergetakteten RAM limitiert wird und deshalb weniger zieht.


Ja und wenn der "Fehler" tatsächlich bei den Default Spannungen liegt? Würde doch erklären, warum bei ein bisschen Undervolting (PCGH) mal eben über 30 Watt weniger rausgekommen sind. Egtl würde das fast alles erklären, z.B. warum die Karte ihren Boost nicht hält, weil zuviel Leistung abgerufen wird, warum sich der Speicher locker auf 2,5GHz jagen lässt oder warum AMD schon am 5.7 den Fix präsentieren will/kann und der nachher vllt nicht mal Performance kostet wird bzw. die Karte fast so schnell ist, wie es CB beim Undervolting gemessen hat. Alle, die die Spannung des Speichers fix gesetzt haben, kommen beim Ram vllt grade so auf 2050 MHz.
Müsste doch nicht so schwer sein für dich, das zu messen oder?

chgamauf
2016-07-03, 19:32:51
Wozu braucht man denn bei einem Spannungsregler einen Low-Side-Fet?
Bei einem Schaltregler egal was für ein Typ wird entweder eine Diode oder ein Mosfet(geringere Leitverluste aber höherer Aufwand beim Controller und mehr Schaltverluste ) benötigt um den Stromfluss durch die Induktivität bei ausgeschalteten " high side" fet zu gewährleisten. Auf Wikipedia findest du halbwegs brauchbare/verständliche Diagramme die die Funktionsweise erklären.

decimad2
2016-07-03, 19:44:32
Die verwenden da echt eine aktive Freilauf-Einrichtung? Hätt' ich nicht gedacht! Aber bei den Strömen vielleicht auch gar nicht anders möglich...

hesTeR-
2016-07-03, 19:46:15
Ich packe mal die Werte meiner 4GB-Version dazu. Wird wohl etwas durch den alten X5650@4GHz gebremst. Da kommen zwar schöne Werte bei raus aber mit dem derzeitigen Referenzdesign würde ich das trotzdem nicht betreiben mögen.
Lüfter@Fermi :mad: , Versorgung an der Kotzgrenze :mad:!

Aber das gibt zumindest Hoffnung für wirklich ordentliche Herstellerkarten.

ist das jetzt untervolted ?

raumfahrer
2016-07-03, 19:50:29
Ich packe mal die Werte meiner 4GB-Version dazu. Wird wohl etwas durch den alten X5650@4GHz gebremst. Da kommen zwar schöne Werte bei raus aber mit dem derzeitigen Referenzdesign würde ich das trotzdem nicht betreiben mögen.
Lüfter@Fermi :mad: , Versorgung an der Kotzgrenze :mad:!

Aber das gibt zumindest Hoffnung für wirklich ordentliche Herstellerkarten.

Ist die Zieltemperatur standardmäßig bei 70 Grad? In den Tests habe ich bis jetzt eigentlich immer ~85 gesehen.

-Phoenix-
2016-07-03, 19:51:49
ist das jetzt untervolted ?
Jap, nach Vergleich mit den Reddit Ergebnissen hat er max 10mV mehr Spannung.

Troyan
2016-07-03, 19:53:14
Was ist denn der Unterschied zwischen 0,9V und 1V?

167W alleine für die GPU ist schon heftik.

chgamauf
2016-07-03, 19:59:10
Die verwenden da echt eine aktive Freilauf-Einrichtung? Hätt' ich nicht gedacht! Aber bei den Strömen vielleicht auch gar nicht anders möglich...

Gute shottky Dioden haben ein Durchlassspannung von 0.3-0.7V abhängig von dem Strom und der Temperatur. Die Verlustleistung bei 20A wäre so um die 14W(bei 0.7V). Gute Mosfets haben ca 1-10mOhm das wären ca. 4W(bei 10mOhm). Beim Mosfet kommen dann natürlich noch die Schaltverluste dazu. Diese können durchaus im Bereich der Leitungsverlust oder sogar größer sein. Hängt von der Schaltfrequenz, den Treiber Ausgangsimpedanzen, dem Mosfet Typ,...

hq-hq
2016-07-03, 20:00:15
also RAM mit weniger Spannung, GPU mit 1.14v?

sind die 12500GPU firestrikes jetzt sooo gut, ne gut getaktete GTX980 macht da 16000 und ne GTX970 13000

der Wattman ist aber nice

Screemer
2016-07-03, 20:03:23
ist das jetzt untervolted ?
Sieht nach geringeren Werten (-50mv) bei vgpu aus. laut gpu-z liegen doch die regulären 1,15v an. Allerdings hat er den 1750er Ram mal auf 2150 geprügelt. Haben die 4gb Karten die gleichen Chips wie die 8gb Karten oder gibts da unterschiede?

Grafix Score liegt genau zwischen ner 970 und 980. Mit Tendenz zur 980. Http://cdn.videocardz.com/1/2015/05/NVIDIA-GeForce-GTX-980TI-R9-300-Hawai-3DMark-FireStrike-Performance.png

Find ich jetzt nicht so schlecht.

TerrorZivi
2016-07-03, 20:06:58
@raumfahrer:
Zieltemperatur steht standardmäßig auf 80 Grad und der Lüfter dreht mit maximal 2200 U/min.

Ich pack mal nen Screen mit Standardwerten mit rein.

Troyan
2016-07-03, 20:11:09
Laut GPU-Z liegen 1,15V an, laut Wattman nur 1,1V. Funktioniert das "undervolten" überhaupt?

Screemer
2016-07-03, 20:12:11
Das wurde auch schon auf reddit angesprochen. Da gibts wohl Aussetzer. Ob jetzt von wattman oder vom User ist aber noch nicht klar :ugly: Den Bench sollte er auf jeden Fall noch mal laufen lassen.

hq-hq
2016-07-03, 20:13:07
Laut GPU-Z liegen 1,15V an, laut Wattman nur 1,1V. Funktioniert das "undervolten" überhaupt?
ja komisch... scheint offenbar nicht zu gehen oder Anwenderfehler :biggrin:

TerrorZivi
2016-07-03, 20:15:12
Das muss ne Spitze sein.
Das undervolten funktioniert definitiv. Wenn ich mit alles all@default den Ram auf 2000MHz einstelle wird bei Last sofort der Chiptakt verringert. Wenn ich dann die Spannung vom Ram verringere steigt diese wieder bis zum max. Boost.

Screemer
2016-07-03, 20:16:44
Kannst du mal mit default ramclock und weniger ramspannung laufen lassen?

Troyan
2016-07-03, 20:18:34
Das muss ne Spitze sein.
Das undervolten funktioniert definitiv. Wenn ich mit alles all@default den Ram auf 2000MHz einstelle wird bei Last sofort der Chiptakt verringert. Wenn ich dann die Spannung vom Ram verringere steigt diese wieder bis zum max. Boost.

Sind die 167W konstant anliegen? Kannst du den Stresstest durchlaufen lassen und den Stromverbrauch für ein paar Sekuden überprüfen?

Wäre klasse.

Screemer
2016-07-03, 20:25:44
Gpu-z Log vom run wäre super.

TerrorZivi
2016-07-03, 20:33:01
Komme gerade nicht an meinen Steam-account...
Aber hier ist das Log von dem Run.

hq-hq
2016-07-03, 20:38:13
ja nur ein peak besser spike 1.1438 , 2016-07-03 19:01:33.976

Hakim
2016-07-03, 20:48:56
Noch einer mit Problemen, hier ist es ein ITX Mobo ( ok ist ein µATX) und es sind zumindest gut belüftet aus.

https://www.amazon.co.uk/gp/customer-reviews/R12YKAXKZJJPJM/ref=cm_cr_arp_d_rvw_ttl?ie=UTF8&ASIN=B01H01E4CQ

(del)
2016-07-03, 20:55:39
Ja, aber das Netzteil... Schau mal auf die Rails. Wenn das Combined und konstant über 300 Watt auf 12 Uhr bringt, dann fresse ich einen Besen. Diese hochgelabelten 700 Watt Dinger sind doch echter Schrott und die Angabe für die Galerie. Dazu der durstige FX und gut ists. :D
Ich hatte mal so eine 700-Watt-eBay-Krücke, da steckte ein umgebasteltes 250 Watt Linkworld-Design drin. samt passiver PFC. Das machte bei 295 Watt einfach nur Peng :D

Lies mal hier:
https://www.amazon.co.uk/ACE-700W-PSU-12cm-Red/dp/B006FUTPPK

Hakim
2016-07-03, 21:01:56
20 Pfund für ein 700W NT, mehr brauch ich nicht lesen :). Wobei ja gerade Leute mit so ähnlichen NTs 150-250€ Grakas kaufen.

(del)
2016-07-03, 21:04:09
AMD sollte Netzteile bauen... :D

anddill
2016-07-03, 21:05:47
Er vermutet ja selber daß es das NT ist, wenn ich das Kauderwelsch da richtig interpretiere dann hat die Kiste schon vorher (mit welcher Graka?) öfter mal abgeschaltet.

(del)
2016-07-03, 21:09:49
Ich schalte jetzt auch erst mal ab, bzw. um. Fussball FTW. Möge Island gewinnen. :P

Disco_STFU
2016-07-03, 21:18:10
Investigating Thermal Throttling and Undervolting on AMD’s RX 480

http://semiaccurate.com/2016/07/01/investigating-thermal-throttling-undervolting-amds-rx-480/

If you want the best performance the RX 480 can offer without overclocking, bump the PowerTune limit to +10%. If efficiency is your goal consider setting your PowerTune limit to -20%. You’ll lose about 5% in terms of raw performance, but the decrease in power consumption is greater proportionally than the performance hit

illidan
2016-07-03, 21:26:17
fps alleine haben nicht genug Aussagekraft, Frametimes sind wichtiger.

Troyan
2016-07-03, 21:28:29
Was für ein Zufall, dass Battlefield 4 die Karte weniger stark auslastet: http://www.hardware.fr/articles/951-9/consommation-efficacite-energetique.html

Ein Spiel ist viel zu wenig, um irgendwelche allgemeinen Aussagen zu treffen.

dildo4u
2016-07-03, 21:33:42
Jup BF4 läuft Grottig auf der 480 vermutlich versagt die Kompression weil es MSAA nutzt.

http://abload.de/img/480guhsw0.png

Iruwen
2016-07-03, 21:51:42
AMD sollte Netzteile bauen... :D
Nee, lieber nicht ;D

/e: das Thema Island hat sich ja gerade erledigt.

Hakim
2016-07-03, 22:14:20
hier stand Mist

illidan
2016-07-03, 22:16:21
Jup BF4 läuft Grottig auf der 480 vermutlich versagt die Kompression weil es MSAA nutzt.

http://abload.de/img/480guhsw0.png
Entweder, die DCC ist richtig schlecht, oder da limitiert noch etwas anderes in höheren Auflösungen. Crysis 3 1440p FXAA (kein MSAA) ist auch nicht berauschend:
http://www.anandtech.com/show/10446/the-amd-radeon-rx-480-preview/4

Der_Korken
2016-07-03, 22:18:23
Jup BF4 läuft Grottig auf der 480 vermutlich versagt die Kompression weil es MSAA nutzt.

Fragt sich nur warum die 970 trotzdem 15% schneller ist, obwohl sie sogar noch weniger Bandbreite hat. Schlechte Kompression kann also eigentlich nicht der Grund sein.

Magensaft
2016-07-03, 22:31:21
Hier mal ein Interview mit Raja Koduri bei pcper, ganz interessant, dauert aber bisserl also Popcorn und Softdrink bereit stellen.

https://www.youtube.com/watch?v=24rFeHo1S-o

Gipsel
2016-07-03, 23:10:13
Jup BF4 läuft Grottig auf der 480 vermutlich versagt die Kompression weil es MSAA nutzt.Framebufferkompression für MSAA gibt es schon ewig auf allen Karten. Der Unterschied dürfte eher sein, daß DCC da der 480 im Vergleich zur 290 wenig bringt, da die eben auch schon Kompression bei MSAA kann.

=Floi=
2016-07-03, 23:57:08
AMD sollte Netzteile bauen... :D

eher schweißgeräte, weil mit hohen ampere haben sie es ja. ^^

captain_drink
2016-07-04, 00:19:09
Investigating Thermal Throttling and Undervolting on AMD’s RX 480

http://semiaccurate.com/2016/07/01/investigating-thermal-throttling-undervolting-amds-rx-480/

5% sind sicherlich falsch, realistischer sind 15-20% bei -20% PT (und powerintensiven Spielen). Aber gut, ist schließlich SA...

Schlammsau
2016-07-04, 05:37:44
Ist da jetzt was dran an der RAM-Spannung Geschichte?

Keine Ahnung ob schon angesprochen aber sollte die echte 4GB Version mit ihrem deutlich niedrigeren Speichertakt nicht auch weniger Spannung benötigen, ergo auch deutlich weniger Verbrauchen?

Irgendwo hier im Thread hab ich gelesen, dass die getesteten 4GB Versionen bislang nur "gemoddete" 8GB Versionen waren ...

(del)
2016-07-04, 06:04:13
So, meine Wochenendarbeit ist nun auch online. :)

AMD Radeon RX 480 im Detail: Leistungsaufnahme, Layout und Normen (http://www.tomshardware.de/amd-radeon-rx-480-grafikkarte-leistungsaufnahme-pci-sig,testberichte-242143.html)

Leonidas
2016-07-04, 07:10:20
:up:

uweskw
2016-07-04, 07:37:21
So, meine Wochenendarbeit ist nun auch online. :)

AMD Radeon RX 480 im Detail: Leistungsaufnahme, Layout und Normen (http://www.tomshardware.de/amd-radeon-rx-480-grafikkarte-leistungsaufnahme-pci-sig,testberichte-242143.html)

Schön, dass es noch Experten gibt die ihre Arbeiten ohne Paywall veröffentlichen.
Macht es einen Unterschied ob mit dem "PCIe-Fix Treiber" oder mit dem älteren gemessen wird?

greetz
US

Korvaun
2016-07-04, 07:42:31
Sehr schöner Artikel Format_C, top! Ich frage mich nur warum AMD nicht PEG- & PCIe-"Verbraucher" vertauscht hat. Wäre zwar auch außerhalb der Norm, aber wesentlich unproblematischer oder?

Malabolge
2016-07-04, 07:57:14
So, meine Wochenendarbeit ist nun auch online. :)

AMD Radeon RX 480 im Detail: Leistungsaufnahme, Layout und Normen (http://www.tomshardware.de/amd-radeon-rx-480-grafikkarte-leistungsaufnahme-pci-sig,testberichte-242143.html)


Guter Artikel

Leider muss ich bemängeln das gerade IHR/DU dieses "abrauchen des Boards" impliziert habt :


Wir haben übrigens bewusst auf eine Übertaktung/ein Übervolting der Grafikkarte in einem längeren Test samt Langzeitmessung verzichtet, weil wir die dann anliegenden noch höheren Leistungsaufnahmen - bis zu 100 Watt Durchschnitt und Spitzen bis 200 Watt! - nicht dem Mainboard unseres Testsystems zumuten wollten.

Die Karte zieht bis 20% über Specs auf dem PEG, Spitzen bis 200 Watt. Das sollte so eigentlich nicht mal verkauft werden.

(Es gibt noch mehr solcher Aussagen aus deinen Post hier und den Artikeln)


Das auf solche Kommentare ,natürlich die Fanboys aufspringen war abzusehen. Ihr habt diesen "Hype" ums "abrauchen" durchaus durch diese unglückliche Formuliereungen mit verursacht. Beim Öffnen dieser Büchse der Pandora habt ihr euch zumindest beteiligt.


Deshalb möchten wir uns auch gegen den Vorwurf des Click-Baitings oder gar Bashings verwahren, denn ein deratiger Stil gehört garantiert nicht zu dem, was wir als Maßstab unserer Arbeit betrachten. Was Dritte dann in Verlinkungen und eigenen Schlussfolgerungen daraus machen, steht nicht in unserer Macht.


Ein wenig mehr "fingerspitzengefühl" und weniger unglückliche Formuliereungen wären "Nett"

Schnoesel
2016-07-04, 07:58:09
Top Igor =) Ich hoffe es beruhigen sich damit jetzt alle wieder und man kann den Thread wieder lesen.

(del)
2016-07-04, 08:27:31
Guter Artikel

Leider muss ich bemängeln das gerade IHR/DU dieses "abrauchen des Boards" impliziert habt :

(Es gibt noch mehr solcher Aussagen aus deinen Post hier und den Artikeln)

Das auf solche Kommentare ,natürlich die Fanboys aufspringen war abzusehen. Ihr habt diesen "Hype" ums "abrauchen" durchaus durch diese unglückliche Formuliereungen mit verursacht. Beim Öffnen dieser Büchse der Pandora habt ihr euch zumindest beteiligt.

Ein wenig mehr "fingerspitzengefühl" und weniger unglückliche Formuliereungen wären "Nett"

Ich war wütend, dass sich AMD mal wieder unnötig selbst ein Bein gestellt hat. Ich habe mit den Leuten in Macau an einem Tisch gesessen und am Ende hat keiner exakt gesagt, was Phase ist. Selbst auf Fragen in privater Runde kam keine befriedigende Antwort, auch von den Technikern nicht. Ich fühle mich heute noch von der PR und einigen Gesprächspartnern verscheißert, sorry. Für so dumm kann man uns doch nun wirklich nicht halten.

nicht dem Mainboard unseres Testsystems zumuten wollten.
Diesen Part unterschreibe ich immer noch, da er sich aufs OC bezog und mit knapp 7.5 Ampere durchaus die Chance bestehen könnte, den Slot vielleicht nicht zu zerstören, aber für weitere Messungen unbrauchbar zu machen.

=Floi=
2016-07-04, 08:41:04
Macht es einen Unterschied ob mit dem "PCIe-Fix Treiber" oder mit dem älteren gemessen wird?


der treiber kommt erst noch!
ich bin gespannt, was sie machen.

anddill
2016-07-04, 08:43:25
So, meine Wochenendarbeit ist nun auch online. :)

AMD Radeon RX 480 im Detail: Leistungsaufnahme, Layout und Normen (http://www.tomshardware.de/amd-radeon-rx-480-grafikkarte-leistungsaufnahme-pci-sig,testberichte-242143.html)
Auch von mir etwas Kritik. Erst mal wegen eines faktischen Fehlers. Es gibt für die 5,5A keine Toleranzgrenze, die gilt für die Spannung direkt am Slot. Wurde hier im Thread auch schon ein paar mal erwähnt. Würde ja auch wenig Sinn machen, erst eine absolute Obergrenze festzulegen, und dann nochmal Plus und vor allem Minus soundsoviel Prozent festzulegen. Die errechneten Leistungen stimmen am Ende zwar trotzdem, denn es ist ja egal, ob Du nun Strom oder Spannung variierst.
Das macht am Ende die Übertretung des Max-Stromes trotzdem schlimmer, denn aufgrund der Verluste liegen am Slot ja die Spannungen meist an der Untergrenze, was ja auch einer der Gründe für die von Dir gemessenen Ströme ist.
Und es macht den Einsatz einer RX 480 umso riskanter, je versiffter und ausgeleierter das Board ist.

Zum anderen fällt mir auf daß Du ziemlich aggressiv gegen Kollegen auskeilst, vor allem weil sie sich auf Deine Arbeit bezogen haben. Das wirkt unprofessionell. Lass doch lieber Fakten sprechen. Du nutzt ja selber auch jede Menge Erkenntnisse, die andere Leute zusammengetragen und erarbeitet haben.

Magensaft
2016-07-04, 08:46:21
So, meine Wochenendarbeit ist nun auch online. :)


Messtechnik-Porn at its best, sehr schöner Artikel auch gut Nachvollziehbar für den aufmerksamen Laien.

Danke dafür:up:

Screemer
2016-07-04, 08:55:24
zu ner pci-e-test card von passmark hab ich grad folgende passage gefunden:

Q. Can the PassMark PCIe test card be used in x16 PEG slot?
No. PEG (PCI Express Graphics) slots are only designed for use with x16 PCIe video cards. While the behaviour card vary between machines, using a x1 or x4 card in a PEG slot can result in lockups or a system freeze. While they visually look identical to a true PCIe x16 slot, the PEG slots lack the ability to negotiate the link speed, which normal PCIe slots have. PEG was an intermediate solution in the transition from PCI to PCIe and so PEG slots are rare. Most x16 slots are true PCIe slots, with only a handful of older motherhboards having PEG. In some cases PEG can be enabled or disabled in BIOS and forced to a x1 link speed in BIOS.

http://www.passmark.com.au/support/pcie-test-card-faq.htm (faq sollte aktuell sein vom 17.6.16)

kann es sein, dass die boards mit den abschaltproblemen die angesprochenen peg-slots haben? ich dachte bisher peg-slot und pci-e x16 wären das selbe.

noch eine frage. das immer wieder herangezogene bild (http://media.bestofmicro.com/1/D/593617/gallery/Rails_w_637.jpg) der specs ist wohl aus nem pci sig slideset von 2008. ryan von pcper hat da wohl irgendwas aus nem pdf der pcie cem (http://www.pcper.com/files/imagecache/article_max_width/review/2016-06-30/PCIe%20Power%20Rail-2_0.png) kopiert. ka wie alt das ist. kann sich da nicht schon mal wieder was verändert haben? wie ja nun schon mehrfach, auch von igor angesprochen, sind nun auch 5 pins auf 12v.

(del)
2016-07-04, 09:02:23
Auch von mir etwas Kritik. Erst mal wegen eines faktischen Fehlers. Es gibt für die 5,5A keine Toleranzgrenze, die gilt für die Spannung direkt am Slot. Wurde hier im Thread auch schon ein paar mal erwähnt. Würde ja auch wenig Sinn machen, erst eine absolute Obergrenze festzulegen, und dann nochmal Plus und vor allem Minus soundsoviel Prozent festzulegen.

Ist mittlerweile gefixt, Danke für den Hinweis! Das ist mir im ganzen Stress durch die Lappen gerutscht, dass das die Toleranzprozente ja vorn bei der Spannung standen. Hätte nicht sein sollen, aber es ist ja korrigierbar :)


Zum anderen fällt mir auf daß Du ziemlich aggressiv gegen Kollegen auskeilst, vor allem weil sie sich auf Deine Arbeit bezogen haben. Das wirkt unprofessionell. Lass doch lieber Fakten sprechen. Du nutzt ja selber auch jede Menge Erkenntnisse, die andere Leute zusammengetragen und erarbeitet haben.

Den Part habe ich sogar noch extrem entschäft, mein Chef hatte da nachträglich noch was ganz anderes drin stehen. Hintergrund dafür ist (unter anderem) das Video von PCPer, das den Amis extrem sauer aufgestoßen ist, sowie diverse Bashs auf anderen Seiten und in anderen Foren. Erstens hätte PCPer wissen können, was und wie wir messen und zweitens haben sie sich offensichtlich einer Aussprache unter Kollegen verweigert, wenn ich den US-Chefredakteur richtig interpretiere. DAS ist unkollegial. Das Review ist ein Auftragswerk der Amis und ich miuss mich auch dort den Richtlinien beugen. Leider.

Du nutzt ja selber auch jede Menge Erkenntnisse, die andere Leute zusammengetragen und erarbeitet haben.
Auch dazu habe ich was ergänzt, nachdem der Chef aus dem CMS raus war. Ehre, wem Ehre gebührt. Aber ich bin nicht die Endinstanz ;)

FYI: bei uns liegt noch ein Cache dazwischen, da dauert es immer etwas, bis die Änderungen auch angezeigt werden ;)

deekey777
2016-07-04, 09:30:33
Bin jetzt nicht auf dem laufenden:
Wenn AMD per Treiber den Hunger senkt, bedeutet das doch, dass die Leistung nach der Installation des Treibers sinken wird, oder? Also würden dann die ganzen Reviews nicht mehr stimmen? Sehr diplomatisch ausgedrückt.

Argo Zero
2016-07-04, 09:35:37
Möglich ist das wohl. Oder aber es wird die Spannung nicht nur bei der GPU reduziert sondern auch wo anders, bei gleichem Takt.

Screemer
2016-07-04, 09:35:52
hat mal einer nen link zur PCI-E CEM 3.0? Die ist vom 2013 und wohl die aktuellste. würde da gern mal rein schauen. die einzige cem die ich finden kann ist die 1.1 und die ist von 2005.

PCI Express Card Electromechanical Specification Revision 3.0
3.x Specification July 21, 2013

gr33nyx
2016-07-04, 09:36:36
So, meine Wochenendarbeit ist nun auch online. :)

AMD Radeon RX 480 im Detail: Leistungsaufnahme, Layout und Normen (http://www.tomshardware.de/amd-radeon-rx-480-grafikkarte-leistungsaufnahme-pci-sig,testberichte-242143.html)

Der Einleitungssatz ist großartig ;D

"Selten hat eine Grafikkarte zum Launch dermaßen polarisiert wie AMDs Radeon RX 480 im Referenz-Design."

Polaris 10 polarisiert :biggrin:

hesTeR-
2016-07-04, 09:36:46
oder es ist wirklich ein Bug das die Rams grade zuviel watt saugen, der Bug wird behoben und die Karte wird sogar schneller weil mehr vom PT für den takt bleibt und sie ihren Boost länger hällt oder ?

TerrorZivi
2016-07-04, 09:44:44
Evtl. wird auch einfach nen kleines negatives Offset für Chip und Speicher eingestellt.

Wenn ich mir den Kommentar des Users Heliox (http://forum.ethereum.org/discussion/8094/heliox-roms-for-480) aus einem Mining-Forum angucke.
What i can do is something else.

I can program the voltage chip by using the i2c command switch built in afterburner.

Got one for -50mV core.

Tested it, and that works.

Brought my power draw down by 30watt

Screemer
2016-07-04, 09:44:53
oder es ist wirklich ein Bug das die Rams grade zuviel watt saugen, der Bug wird behoben und die Karte wird sogar schneller weil mehr vom PT für den takt bleibt und sie ihren Boost länger hällt oder ?
wenn sie die 4 phasen wirklich soweit runter bringen, dass im mittel 66W nicht überschritten werden, dann würde das schon an ein wunder grenzen. die manuellen undervolting geschichten auf reddit zeigen auf jeden fall, dass es möglich ist. allerdings würde ich da nicht auf allgemeingültigkeit hoffen und das wäre ja für ein rollout für alle verkauften referenzboard nötig.

(del)
2016-07-04, 09:45:51
Ich finde die 3,5 Watt aus meinem Rechenbeispiel eigentlich gnädig, wenn man bedenkt, dass 4Gbps schon über 4 lag.

Dural
2016-07-04, 09:51:41
Also für mich hört sich die Pressemitteilung von AMD eher so an das die Karte bei ihrem recht hohen Speichertakt einfach etwas mehr Strom benötigt als AMD erwartet hat.
Kann am Speicher selber liegen, oder an der GPU. Wenn ich die 1070 anschaue dürfte es aber recht klar sein an was es liegt. Zudem es AMD erste GPU ist die einen so hohen Speichertakt fährt.
Auf die Lösung bin ich aber auch gespannt, es sind schlisslich Karten im umlauf die schon so recht am Limit laufen, ich kann mir nicht vorstellen das es da eine einfache Lösung geben wird.

(del)
2016-07-04, 09:54:57
Da der Speicher am PCIe hängt, ware ein 8-Pin die einzig saubere Lösung. Und nun drehen wir uns wieder im Kreis :)

anddill
2016-07-04, 09:56:01
hat mal einer nen link zur PCI-E CEM 3.0? Die ist vom 2013 und wohl die aktuellste. würde da gern mal rein schauen. die einzige cem die ich finden kann ist die 1.1 und die ist von 2005.

Ich hatte die auf einer chinesischen Seite gefunden, wo man sich in einem Webinterface durchscrollen kann. Die einzige Änderung ist, daß in der Steckernorm der 5. 12V-Kontakt jetzt offiziell belegt ist.

@ Format_C: Wenn man den Speicher aber tatsächlich durch Manipulation der Speicher-Spannung um 20-30W runter bekommt, dann würde das Luft machen für einen Lastverschiebung vom PEG auf den 6-pin.
Und noch eine Kleinigkeit zur Artikel: Auf Seite 2 zeigst Du die Messung am 6-Pin und erklärst sie direkt darunter. Wer das Bild aber nicht explizit anklickt und vergrößert kann nicht erkennen worüber Du redest. Darunter bei der Messung und Diskussion zum PEG ist es besser erkennbar, aber dann ist es schon zu spät, der Leser ist schon verwirrt. Ist mir vor allem aufgefallen weil ich den Artikel am Handy gelesen habe und die Bilder erst mal ignoriert. Ich weiß ja was sie zeigen.

(del)
2016-07-04, 10:03:44
Wie soll man den Speicher um 30 Watt runter bekommen?

Schau doch mal auf mein Rechenbeispiel im Artikel. Wenn die Karte auf 12 Volt 160 Watt aufnimmt, davon 110 Watt auf die GPU entfallen, bleiben noch 50 Watt. Wovon willst du die 30 Watt abziehen? Dann wären es noch 20 Watt für RAM und Spannungswandler + Lüfter + Board. Perpetuum mobile? Die haben die Absenkung ja mit GPU-Z dokumentiert, nur dass mir Wizard sagte, dass dort NUR die GPU protokolliert wird. Nun zeige mir doch mal wer, wo die 165 Watt auf der GPU herkommen sollen....

Screemer
2016-07-04, 10:05:57
Ich hatte die auf einer chinesischen Seite gefunden, wo man sich in einem Webinterface durchscrollen kann. Die einzige Änderung ist, daß in der Steckernorm der 5. 12V-Kontakt jetzt offiziell belegt ist.
alles klar, thx. also immer noch 5,5A allerdings nun auf 5 pins. das würde ja die belastung pro pin sogar um 25% reduzieren. komische revision.

anddill
2016-07-04, 10:08:29
Ok, an der Stromeinsparung wird zumindest noch das Speicherinterface beteiligt sein. Habs oben mal etwas sinnvoller formuliert.
Vielleicht hat AMD da wirklich nur einen fetten BIOS-Bug 5min vor Release eingebaut. Und wer weiß was die da alle messen, vielleicht zeigt GPU-Z da wirklich Quark, und keiner misst nach.
Oder die 20-30W stammen von einem Leistungsmessgerät an der Steckdose, dann blieben nach Netzteil davon noch 13-20W übrig.

Screemer
2016-07-04, 10:09:45
Wie soll man den Speicher um 30 Watt runter bekommen?

Schau doch mal auf mein Rechenbeispiel im Artikel. Wenn die Karte auf 12 Volt 160 Watt aufnimmt, davon 110 Watt auf die GPU entfallen, bleiben noch 50 Watt. Wovon willst du die 30 Watt abziehen? Dann wären es noch 20 Watt für RAM und Spannungswandler + Lüfter + Board. Perpetuum mobile? Die haben die Absenkung ja mit GPU-Z dokumentiert, nur dass mir Wizard sagte, dass dort NUR die GPU protokolliert wird. Nun zeige mir doch mal wer, wo die 165 Watt auf der GPU herkommen sollen....
natürlich bekommt man vom ram alleine keine 30W runter. allerdings hängt die gpu ja auch noch mit am pci-e. der speichercontroller wäre hier auch so ne idee. lass in der gpu (speichercontroller + rest) 25 und beim ram 5w wegfallen, dann hast du die 30w. dein testsetup steht doch eh noch rum, oder? senk doch einfach mal die spannungen der karte. vram auf um die 0,95v und vgpu auf um 1,05v. sollte doch machbar sein. ob die kiste dann stabil ist ist ja ne ganz andere frage. das wäre wirklich super. du musst ja keine 10 runs fahren und gleich nen artikel draus basteln. das wäre service an uns. musst es ja nicht mal selber posten, wenn du um die copy'n'paster fürchtest ;)

Chronicle
2016-07-04, 10:09:49
Wie laufen eigentlich die Treiber mittlerweile so bei AMD?
Hab mir nach jeder AMD Karte bisher gesagt, dass ich zu Nvidia wechseln will, aber irgendwie wollt ich dann doch lieber die "kleinen" unterstützen.
Aber bei wirklich jeder AMD Karte die ich im Rechner hatte, hat sich über kurz oder lang irgendwann der Treiber verabschieded mit regelmäßigen "Der Anzeigetreiber wurde zurückgesetzt (...)" Fehlern. Das fing bei meinen beiden 4850ern damals an und besserte sich auch nicht bei 6850 und 6870 und auch die r290 machte solche Späße.

Oder mögen die AMD Treiber schlicht kein Triple-Screen?

(del)
2016-07-04, 10:12:42
natürlich bekommt man vom ram alleine keine 30W runter. allerdings hängt die gpu ja auch noch mit am pci-e. der speichercontroller wäre hier auch so ne idee. lass dort 25 und beim ram 5w wegfallen, dann hast du die 30w. dein testsetup steht doch eh noch rum, oder? senk doch einfach mal die spannungen der karte. vram auf um die 0,95v und vgpu auf um 1,05v. sollte doch machbar sein. ob die kiste dann stabil ist ist ja ne ganz andere frage. das wäre wirklich super.

Ich sitze momentam am Pascal-Roundup, werde das aber zusammen mit den neuen Treibern natürlich testen. Nur jeden Scheiß einzeln zu testen geht aus Zeitgründen leider nicht :)

Screemer
2016-07-04, 10:14:53
@chronicle: ich weiß ja nicht was du mit deinen amd karten machst. einen nicht durch mich getriggerten treiber reset hatte ich seit meiner 6950 nicht mehr. resets sind immer auf irgendwas zurück zu führen. defekt an der karte, unzureichende stromversorgung und am aller häufigsten bananen-oc.

(del)
2016-07-04, 10:33:41
Das bekomme ich immer nur beim etwas zu übermütigen OC ;)

Screemer
2016-07-04, 10:34:14
Ich sitze momentam am Pascal-Roundup, werde das aber zusammen mit den neuen Treibern natürlich testen. Nur jeden Scheiß einzeln zu testen geht aus Zeitgründen leider nicht :)
schon klar. find deinen service hier im board sowieso extrem. bei serien/filmen nennt man sowas fanservice. :up: du postest jetzt ca. 1 jahr hier und trägst massiv zum niveau des boards bei. ich kenne da wenige beispiele hier im board, die das niveau so heben. es gibt solche perlen wie gipsel, anddill, demirug, u.a die ich jetzt nicht auf dem schirm hab (sorry). softwaretechnisch war coda immer ne wucht und den vermisse ich sehr, auch wenn ich in den nachfolgenden diskussionen zwischen ihm und demirug vielleicht 1/4 verstanden hab. bei dem was du macht kann ich zumindest halbwegs folgen, mit meinen 4 semestern etechnik ;)

RoughNeck
2016-07-04, 10:34:29
AMD wird die ganzen Spannung ja sicher nicht gewürfelt haben.
Rein durch reduzieren der Spannungen glaube ich nicht dass die da so viel einsparen, ich denke da wird auch der Takt reduziert werden.
Weniger GPU und RAM Takt, die 480 wäre dann ja immer noch eine gute Karte, nur dass die Karte dann eben die Specs einhält.

Malabolge
2016-07-04, 10:38:41
Ich war wütend, dass sich AMD mal wieder unnötig selbst ein Bein gestellt hat. Ich habe mit den Leuten in Macau an einem Tisch gesessen und am Ende hat keiner exakt gesagt, was Phase ist. Selbst auf Fragen in privater Runde kam keine befriedigende Antwort, auch von den Technikern nicht. Ich fühle mich heute noch von der PR und einigen Gesprächspartnern verscheißert, sorry. Für so dumm kann man uns doch nun wirklich nicht halten.

Trotdem wäre hier eine "direktere" Kritik an AMD (Dem Marketing und den Ing.) zweckmäßiger gewesen.
So blieb die Kritik leider nur am "Endprodukt" hängen.
Durch deine/eure Formulierung habt ihr leider "Grabenkämpfe" mit ausgelöst.



(Zitat)
"nicht dem Mainboard unseres Testsystems zumuten wollten."

Diesen Part unterschreibe ich immer noch, da er sich aufs OC bezog und mit knapp 7.5 Ampere durchaus die Chance bestehen könnte, den Slot vielleicht nicht zu zerstören, aber für weitere Messungen unbrauchbar zu machen.

Das hätte man durhaus auch Direkt in dieser Formulierung unterbringen können.
Und hätte wenn auch so Formuliert , weitaus kleinere Wellen geschlagen.

Also nächstes Mal , ein wenig mehr "Fingerspitzengefühl"

StefanV
2016-07-04, 10:40:01
Und es macht den Einsatz einer RX 480 umso riskanter, je versiffter und ausgeleierter das Board ist.
...und vorallendingen auch alte, ausgelutschte Netzteile, die z.T. gar nicht für moderne Systeme gedacht sind.
Sei es nun ein Combat Power oder aber ein alter Schinken von 2006 oder davor, bei dem die Spannung der +12V Leitung regelmäßig in der mittleren oder niedrigen 11er Region zu finden ist...

Und das ist leider relativ häufig, dass die Leute ihr 10 Jahre altes "High End" Netzteil, dass ja mal 100€ gekostet hat, auch heute noch verwenden wollen - und sich dann über irgendwelche komischen Freezes, Lockups und Reboots wundern...

hesTeR-
2016-07-04, 10:52:18
Ich hatte ja geschrieben warum amd nicht einfach einen 8pin oder 2x6pin verbaut hat. (vor 10-15 seiten ;) )

Darauf hat anddill ja mit der Argumentation reagiert das grade der 1x6Pin so super ist grade für ältere Netzteile und ältere Pcs...

In diesen Wiederum hat man aber kein Modernes BQ oder Corsair NT und auch kein High end Board.

Das Problem ist doch das die Karte genau für die Leute sehr attraktiv ist für die sie aber wiederum auch gefährlich ist.

Chronicle
2016-07-04, 10:53:50
Das bekomme ich immer nur beim etwas zu übermütigen OC ;)

Übertaktet waren sie alle nicht. Lediglich die 290 war "untertaktet" weil sie später ständig Blackscreens ausgeworfen hat, was aber ein Defekt war und deswegen in die RMA ging.

hq-hq
2016-07-04, 10:54:49
...und vorallendingen auch alte, ausgelutschte Netzteile, die z.T. gar nicht für moderne Systeme gedacht sind.
Sei es nun ein Combat Power oder aber ein alter Schinken von 2006 oder davor, bei dem die Spannung der +12V Leitung regelmäßig in der mittleren oder niedrigen 11er Region zu finden ist...

Und das ist leider relativ häufig, dass die Leute ihr 10 Jahre altes "High End" Netzteil, dass ja mal 100€ gekostet hat, auch heute noch verwenden wollen - und sich dann über irgendwelche komischen Freezes, Lockups und Reboots wundern...

wollte AMD nicht den Eindruck vermitteln, dass genau diese guten alten NTs
mit nur einem oder zwei 6pin pcie Stecker ausreichend sind für die RX480 :freak:

Wer sieht ein Netzteil schon als Verschleißteil, dass vielleicht nach 8 Jahren
getauscht werden sollte. Mein SS-750H muss >10 Jahre halten :biggrin:

StefanV
2016-07-04, 11:02:29
Wie laufen eigentlich die Treiber mittlerweile so bei AMD?
Sehr gut eigentlich.


Aber bei wirklich jeder AMD Karte die ich im Rechner hatte, hat sich über kurz oder lang irgendwann der Treiber verabschieded mit regelmäßigen "Der Anzeigetreiber wurde zurückgesetzt (...)" Fehlern. Das fing bei meinen beiden 4850ern damals an und besserte sich auch nicht bei 6850 und 6870 und auch die r290 machte solche Späße.
Dann waren entweder die Karten, die du hast, defekt oder aber irgendwas stimmt bei deinem System nicht...
Welches Netzteil verwendest du?

Hab hier selbst einige Karten im Hause, die überwiegend funktionieren, aber ab und an dann doch mal rumzicken und 'der Anzeigetreiber wurde zurückgesetzt' Fehlermeldungen ausspucken, aber normal ist das nicht. Und passieren tut das, weil die Karte sich aufgehängt hat. Früher, vor langer Zeit unter ganz schrecklichen, unsicheren Betriebssystemen, wäre das System schlicht abgeschmiert...
Heute kommt die 'der Anzeigetreiber wurde zurückgesetzt' Meldung...


Oder mögen die AMD Treiber schlicht kein Triple-Screen?
Doch, eigentlich kein Problem, bei meiner Radeon HD7970 (eigentlich GHz Edition, aber 'standard' 7970OC BIOS von Gigabyte drauf, wg. Lautheit)...

Aber, wie erwähnt, ev. liegt es ja an anderen Komponenten, die du verwendest und nicht den GraKas.
Ev. gar am Netzteil...

Air Force One
2016-07-04, 11:10:00
Ich bin jetzt in der Diskussion nicht ganz drin aber wieviel Watt muss hier eingespart werden?
Wenn man die Taktraten behalten will, so sind Einsparungen bis zu 50W bei allen Boards denke ich mal kein Problem.
Werden aber wohl 40W sein um safe zu sein.
Wenn es wirklich "nur" diese 30W sind, sollte es ohnehin kein Problem darstellen.
Beim VRAM wären aber wohl eher nur 5-8W zu holen.

Megamember
2016-07-04, 11:14:41
SPannungsabsenkung scheint eh jede Menge möglich zu sein. Im Hwluxx lässt z.B. jemand seine mit 1,0 statt 1,15 laufen ohne den Takt abzusenken. Schein also mal wieder sehr viel Toleranz da zu sein.

StefanV
2016-07-04, 11:15:48
wollte AMD nicht den Eindruck vermitteln, dass genau diese guten alten NTs
mit nur einem oder zwei 6pin pcie Stecker ausreichend sind für die RX480 :freak:
Ich denke, dass AMD hier eher an die üblichen OEM Rechner und die dort so verbauten Netzteile gedacht hat.
Also eher sowas wie DELL, HP und Co.

Wobei normale Office Kisten, die ab Werk nicht mit GK kommen, gar keinen PCIe haben. Und Adapter sind hier eine furchtbar furchtbar schlechte Idee, da die S-ATA Stecker aufs Board gesteckt werden und die Netzteile nur +12V erzeugen.
Manche haben sogar eine 11-12V Standby Leitung, manche immerhin noch eine +5V Standby Leitung...

Wer sieht ein Netzteil schon als Verschleißteil, dass vielleicht nach 8 Jahren
getauscht werden sollte. Mein SS-750H muss >10 Jahre halten :biggrin:
Nicht genügend, leider.
Und dann kauft man sich 'nen i7-6850K mit 'nem entsprechenden 'Gaming' Board und wundert sich dann, warum das System, am liebsten mit AMD GraKa, nicht stabil läuft - und flamt dann meist AMD, statt das 10 Jahre alte (1000W) Netzteil, dass ja bisher scheinbar funktionierte auszutauschen...

hesTeR-
2016-07-04, 11:18:16
Ich denke, dass AMD hier eher an die üblichen OEM Rechner und die dort so verbauten Netzteile gedacht hat.
Also eher sowas wie DELL, HP und Co.

Wobei normale Office Kisten, die ab Werk nicht mit GK kommen, gar keinen PCIe haben. Und Adapter sind hier eine furchtbar furchtbar schlechte Idee, da die S-ATA Stecker aufs Board gesteckt werden und die Netzteile nur +12V erzeugen.
Manche haben sogar eine 11-12V Standby Leitung, manche immerhin noch eine +5V Standby Leitung...

normale office kisten sind doch aber auch nicht das ziel einer rx480 oder ? das ne gaming grafikkarte.

Chronicle
2016-07-04, 11:44:35
Aber, wie erwähnt, ev. liegt es ja an anderen Komponenten, die du verwendest und nicht den GraKas.
Ev. gar am Netzteil...

Hatte die Probleme über diverse Plattformen, aber den Gedanken an eine andere Komponente hatte ich auch schon, allerdings nach dem dritten Wechsel wurden diese dann auch wieder verworfen :freak:

Netzteil damals zu Zeiten der 4850 und 68xx Serie war nen Tagan TG480 und mittlerweile werkelt ein Corsair CX650 im System.

Disco_STFU
2016-07-04, 11:50:21
SPannungsabsenkung scheint eh jede Menge möglich zu sein. Im Hwluxx lässt z.B. jemand seine mit 1,0 statt 1,15 laufen ohne den Takt abzusenken. Schein also mal wieder sehr viel Toleranz da zu sein.

Aber das führt doch lediglich zu nem stabilieren und höheren Boost laut CB Test, gespart wurde da nichts, nur 5% mehr Leistung.

Geht Einsparung überhaupt ohne Absenkung des PT?

Thunder99
2016-07-04, 11:50:33
Wenn via Treiber nachgebessert werden kann ist da gut. Ansonsten sollte da das Layout überarbeitet werden.

Habt ihr mitbekommen, dass die GTX1070 FE ebenfalls den PCI-E Slot voll belastet? Sie bewegen sich am Rand der Spezifikation (75W) mit Peaks welche deutlich darüber liegen ;). Hab ich vorhin bei THG gefunden

Troyan
2016-07-04, 11:55:38
Da der Speicher am PCIe hängt, ware ein 8-Pin die einzig saubere Lösung. Und nun drehen wir uns wieder im Kreis :)

Der 6-Pin Anschluss ist vollbestückt (3x 12V). Es gab im Grunde keine Notwendigkeit den PCIe-Slot soweit auszufahren.

Kein Plan, wie die Spezifikation es sieht, wenn eine Karte mit einem 6-Pin Anschluss mehr als 150W benötigt...

TerrorZivi
2016-07-04, 11:58:15
Aber das führt doch lediglich zu nem stabilieren und höheren Boost laut CB Test, gespart wurde da nichts, nur 5% mehr Leistung.

Geht Einsparung überhaupt ohne Absenkung des PT?

Natürlich, der Boost geht ja bis unendlich sondern hat auch ne Grenze. So läuft die Karte dann evtl. mit 145 Watt statt 150 Watt und man spart sich 5 Watt ohne das PT zu senken.

Ob der Fall in der Realität erreicht wird, wohl nur von einem wirklich guten Chip.

Der_Korken
2016-07-04, 12:04:26
CB hat die GPU-Spannung durchgehend um 75mV gesenkt und dadurch bei gleichem Verbrauch 4,5% mehr Leistung bekommen. Wenn man die oberen States sogar um 150mV senken kann wie derjenige um HWLuxx, könnte man auch auf 9% mehr Leistung kommen. Wie schon gesagt: Die Custom-Lösungen könnten sehr interessant werden.

y33H@
2016-07-04, 12:05:56
Der 6-Pin Anschluss ist vollbestückt (3x 12V). Es gab im Grunde keine Notwendigkeit den PCIe-Slot soweit auszufahren. Kein Plan, wie die Spezifikation es sieht, wenn eine Karte mit einem 6-Pin Anschluss mehr als 150W benötigt...Die heutigen 6P sind idR ja 6+2P ... früher hatten die echten 6P nur 2x 12V, erst 8P brachte 3x 12V. Sprich jedes halbwegs aktuelle Netzteils sollte 3x 12V selbst bei 6P haben und damit kein Problem mit mehr als 75W.

Troyan
2016-07-04, 12:09:49
Die Frage, die sich mir stellt, darf eine Karte z.B. eine Stromaufnahme von 170W haben und gleichzeitig sich PCIe-kompartibel nennen, wen sie nur über einen 6Pin-Anschluss verfügt!?

Dino-Fossil
2016-07-04, 12:11:17
Ich wüsste gerne, wie groß die Streuung bei den Polaris Chips ist.
Irgendeinen Grund muss es ja geben, dass AMD soviel Spannung gibt, wenn einige Leute doch recht ordentlich undervolten können.

Was ist in dem Zusammenhang eigentlich mit den Selbstkalibrations-Features von Polaris, die auf einigen Folien zu sehen waren?

(del)
2016-07-04, 12:11:44
Wenn via Treiber nachgebessert werden kann ist da gut. Ansonsten sollte da das Layout überarbeitet werden.
Habt ihr mitbekommen, dass die GTX1070 FE ebenfalls den PCI-E Slot voll belastet? Sie bewegen sich am Rand der Spezifikation (75W) mit Peaks welche deutlich darüber liegen ;). Hab ich vorhin bei THG gefunden

Im Mittel liegt sie aber voll in der Norm, was die Ströme betrifft :)

Sie nimmt exakt 64 Watt im Durchschnitt am 12V-PEG auf und liegt bei etwas über 5.3 Ampere im Mittel. Es wären 5.5 erlaubt. Vorbildlich, denn Spikes gibts (fast) immer.

Es ist genau das was ich meinte, als ich schrieb, das jeder es so interpretiert, wie er es gern gehabt hätte. :(

anddill
2016-07-04, 12:11:51
Der 6-Pin Anschluss ist vollbestückt (3x 12V). Es gab im Grunde keine Notwendigkeit den PCIe-Slot soweit auszufahren.

Kein Plan, wie die Spezifikation es sieht, wenn eine Karte mit einem 6-Pin Anschluss mehr als 150W benötigt...

Selbst wenn der 6-pin nur mit zwei 12V-Leitungen beschaltet wäre (was er ja aktuell nicht mehr ist) kann jeder Pin 9A tragen. Also rund 100W. Muss nur das Netzteil mitmachen. Selbst mit einem Molex-auf-6-pin Adapter (wie er laut Produktbildern den RX 480 Karten beiliegt) sind diese 100W möglich.
66W aus dem PEG und rund 100W aus dem 6_pin wäre zwar auch über der Spec, aber würde nur Teile überlasten, die auch entsprechend überdimensioniert sind und etwas Missbrauch vertragen.

StefanV
2016-07-04, 12:18:45
Netzteil damals zu Zeiten der 4850 und 68xx Serie war nen Tagan TG480 und mittlerweile werkelt ein Corsair CX650 im System.
Bei DEN NEtzteilen wundert es mich nicht...
Das Tagan dürfte wohl schon zu Zeiten der HD4850 richtig ausgelutscht sein, das Corsair CX ist auch nicht gerade besonders toll, ganz im Gegenteil.

Da würde ich dir raten, mal etwas (mehr) Geld in die Hand zu nehmen und ein gescheites Netzteil zu kaufen.

Minimum würd ich hier ein Cougar LX500, 400W Straight Power, 450W Super Flower HX oder so nehmen.
Dann bist auf der Sicheren Seite und hast ein recht anständiges Netzteil, dass auch für moderne Systeme geeignet ist...

Die alten Tagan Geräte (made by Topower) waren einfach Gülle, Tagan hat leider viel zu lange an Topower festgehalten und erst zu spät wirklich brauchbare Geräte gebracht (Superrock II Serie)...

StefanV
2016-07-04, 12:22:18
Hat schon mal jemand geschaut, wieviel die PCIe Slots denn nun wirklich 'dauerhaft' mitmachen?

Ich hab zuhaus ja ein defektes ASUS A8N-SLI Premium liegen, dass man wohl kurzzeitig zur Mitarbeit bewegen kann (Kühler Ab, heißluft auf den CHipsat -> läuft kurzzeitig)...

Das könnte man ohne Probleme opfern, wär halt auch nur ein Single Core Athlon 64 druff...

Alternativ könnte man 'nen LGA775 oder AM2 billig(st)board opfern...

DiscoInferno
2016-07-04, 12:29:07
Wenn die Spezifikation mit 5,5A für den PCIe damals noch für die übliche Beschaltung über nur 4 Pins im Sockel erstellt wurde, wären dann nicht seit man den fünften Pin mit nutzt theoretisch eigentlich gesamt 6,875A in Ordnung, nur die Spezifikation müsste für diesen Fall up-to-date gebracht werden? Oder habe ich hier einen Denkfehler?

anddill
2016-07-04, 12:31:04
@ StefanV: Muss ja nicht mal laufen, man kann auch einfach ein Stück Uni-Platine in den Slot stecken und mit einem Labor-Netzteil Dampf drauf geben. Mist, ich hab mich grade erst vor ein paar Wochen entmüllt. Muss mal in der Firma im Elektronikschrott buddeln.

Wenn die Spezifikation mit 5,5A für den PCIe damals noch für die übliche Beschaltung über nur 4 Pins im Sockel erstellt wurde, wären dann nicht seit man den fünften Pin mit nutzt theoretisch eigentlich gesamt 6,875A in Ordnung, nur die Spezifikation müsste für diesen Fall up-to-date gebracht werden? Oder habe ich hier einen Denkfehler?

Hatte ich weiter oben schon mal angesprochen. Es wäre Interessant zu wissen, ob der Kontakt dazu genommen wurde weil es Probleme mit den 4 Kontakten gab und die Vorgabe für die Kontakte daraufhin gesenkt wurde, oder ob er dazu genommen wurde weil er nun schon mal da ist, und einfach unterlassen wurde die Norm zu ändern. Vielleicht mit dem Hintergedanken, daß der ATX-Stecker ja auch keine unendlichen Reserven hat. Oder man wollte einfach keine unterschiedlichen Normen für die Strombelastbarkeit der PCIe-Slots unterschiedlicher Generationen haben, wegen der Interoperabilität.

(del)
2016-07-04, 12:31:31
Wenn die Spezifikation mit 5,5A für den PCIe damals noch für die übliche Beschaltung über nur 4 Pins im Sockel erstellt wurde, wären dann nicht seit man den fünften Pin mit nutzt theoretisch eigentlich gesamt 6,875A in Ordnung, nur die Spezifikation müsste für diesen Fall up-to-date gebracht werden? Oder habe ich hier einen Denkfehler?

Ja, denn wie der Name schon sagt, fließt er. Durch die Karte und dann wieder zurück. und die Anzahl der Masseleitungen hat sich nicht erhöht. Außerdem wäre dann nichts mehr abwärtskompatibel, was eine Steckeränderung notwendig machen würde.

yamo
2016-07-04, 12:35:08
Bei AMD kommt doch leider nix rum, die GTX 1060 wird den neuen Prozess auch gleich killen.
Man kommt nur mit OC über GTX970, da aber deutlich. Herrje, bringt doch mal nen Killer.

anddill
2016-07-04, 12:39:58
Ja, denn wie der Name schon sagt, fließt er. Durch die Karte und dann wieder zurück. und die Anzahl der Masseleitungen hat sich nicht erhöht. Außerdem wäre dann nichts mehr abwärtskompatibel, was eine Steckeränderung notwendig machen würde.

Zähl einfach mal die Massekontakte am PEG ;)
Und denk dran, auch die Masse vom 6-Pin ist da mit verbunden, da ist nichts getrennt.

DiscoInferno
2016-07-04, 12:42:12
Danke für die Erklärung. Ja, ich ging in der Tat davon aus, dass über jeden einzelnen Pin 1,375A (5,5:4) fliessen dürfen und sich das mit einem Pin mehr dementsprechend erhöhen würde. Denn bei einem Pin mehr würde sich ja bis 82,5W bei 12V an der maximalen Stromstärke die durch jeden einzelnen Pin geht nichts ändern und wäre im Limit.

Das würde dann nämlich ziemlich genau zu den ~162-165W Gesamtverbrauch passen, bei der man die Karte per Power Limit abzuriegeln versucht um drin zu bleiben, geht man von exakter 1:1 Verteilung über PCIe und 6-pin aus.
Und zu dem was die meisten Reviewer so als max Aufnahme gemessen haben für den PCIe.

War auch nur so ein Gedankengang, sollte mir wohl noch nen Kaffee machen. :)

StefanV
2016-07-04, 12:47:54
Ah...
Also nach dem ich dieses Video geschaut habe:
https://www.youtube.com/watch?v=plC7tOYIqBw
(zwischen etwa 54:00 und 1:03:00 oder so)

Und mir die nackte Karte auf TPU angeschaut habe:
https://www.techpowerup.com/reviews/AMD/RX_480/3.html (letzten beiden Bilder auf der Seite), denke ich, dass es schlicht möglich ist, dass irgendwer irgendwie aus irgendwelchen Gründen die Bestückungsmaschine falsch programmiert hat...

Und für die, die auf die Garantie scheissen und löten können:
Ich denke (bitte falsifizieren!), dass die zwei Widerstände auf der vorderseite, links am loch, über dem kleinen PCIe Steckerchen weg müssen und dafür auf die Rückseite hin müssten.
Und zwar an die beiden Plätze links am Loch, unter dem PCIe Anschluss.

Und wer nicht löten mag, ein Single Voltage Netzteil besitzt, könnte eventuell auch diese 4 Kontakte kurz schließen - Problem solved.

Also eigentlich ein winzig kleines Fehlerchen...

StefanV
2016-07-04, 12:48:51
Zähl einfach mal die Massekontakte am PEG ;)
Und denk dran, auch die Masse vom 6-Pin ist da mit verbunden, da ist nichts getrennt.
Und vergiss nciht das Slotblech, das ja auch mit Masse verbunden ist.
Also an Massepunkten fehlts in der Regel nun wirklich nicht in einem PC ;-)

Setsul
2016-07-04, 13:14:10
Jetzt wirds wirklich interessant, da möchte ich mich nach langem Mitlesen auch mal zu Wort melden.

-50mV und -20% PT oder sowas in die Richtung sollte schon funktionieren. Scheint auch die beste Lösung zu sein wenn AMD das über den Treiber regeln will. 50mV sollten auch auf den meisten Karten machbar sein, notfalls nimmt man ein paar bei denen es nicht funktioniert zurück.
Wir werden aber morgen sowieso sehen was AMD sich ausgedacht hat, also kein Grund sich groß den Kopf zu zerbrechen.

Viel interessanter ist die Aufteilung der Phasen. 4 / 2+1 für PEG / 6 pin scheinen schon recht fragwürdig, andersrum würde es mMn mehr Sinn ergeben.
Aber jetzt wo auch schon das entsprechende Video gelinkt würde mich interessieren ob irgendjemand bestätigen kann, dass AMD Pin 5 / Sense mit den beiden anderen GND pins verbunden hat.
Ich meine wenn ein 8 pin 150W packen soll, dann schafft ein 6 pin mit den gleichen (im Fall von einem 6+2 pin sogar den selben) Kabeln ohne Probleme 100W, nicht nur 75W. Pin 2 hängt sowieso an +12V (bei nem 6+2 pin muss er ja), das heißt wenn AMD tatsächlich Sense als dritten GND missbraucht haben die sich effektiv einen 8 pin gebastelt.
Dann stellt sich die Frage: Wieso machen die das, sodass sie theoretisch 150W über den 6 pin ziehen können, legen dann aber 4 Phasen an den PEG der nur bis 66W geht? Was zum Teufel steckt da für eine Logik dahinter?

PCGH_Carsten
2016-07-04, 13:25:04
Ashes kann MSAA ist ein Wunder das die 480 so gut mithält,die Bandbreiten Kompression kackt nur bei Wolfenstein komplett ab laut PCGH.Dort ist sie ca so schnell wie eine 380.
Ich weiß nicht, ob Raff es inzwischen klargestellt hat, aber: Das gilt auch für andere Karten, die sich auf DCC verlassen: Tonga schneidet schlecht ab, Pascal schneidet schlecht ab, Maxwell schneidet im Vergleich schlecht ab. Alles im Vergleich zu ähnlichen Architekturen (Hawaii, Kepler) die eigentlich zurückliegen müssten, aber eine hohe Brutto-Transferrate haben. Tatsächlich liegt die Fury X beispielsweise in Wolf-TOB sogar oberhalb des Index-Schnitts, leistet hier also vergleichsweise mehr als im Durchschnitt gegenüber der GTX 1080. AMD haben wir natürlich zeitnah informiert, man will sich das Problem ansehen.

BK-Morpheus
2016-07-04, 13:48:12
Ich weiß nicht, ob Raff es inzwischen klargestellt hat, aber: Das gilt auch für andere Karten, die sich auf DCC verlassen: Tonga schneidet schlecht ab, Pascal schneidet schlecht ab, Maxwell schneidet im Vergleich schlecht ab. Alles im Vergleich zu ähnlichen Architekturen (Hawaii, Kepler) die eigentlich zurückliegen müssten, aber eine hohe Brutto-Transferrate haben. Tatsächlich liegt die Fury X beispielsweise in Wolf-TOB sogar oberhalb des Index-Schnitts, leistet hier also vergleichsweise mehr als im Durchschnitt gegenüber der GTX 1080. AMD haben wir natürlich zeitnah informiert, man will sich das Problem ansehen.
Danke für die Info und die Weitergabe an AMD. (y)

anddill
2016-07-04, 13:51:06
Ah...
Also nach dem ich dieses Video geschaut habe:
https://www.youtube.com/watch?v=plC7tOYIqBw
(zwischen etwa 54:00 und 1:03:00 oder so)

Und mir die nackte Karte auf TPU angeschaut habe:
https://www.techpowerup.com/reviews/AMD/RX_480/3.html (letzten beiden Bilder auf der Seite), denke ich, dass es schlicht möglich ist, dass irgendwer irgendwie aus irgendwelchen Gründen die Bestückungsmaschine falsch programmiert hat...

Und für die, die auf die Garantie scheissen und löten können:
Ich denke (bitte falsifizieren!), dass die zwei Widerstände auf der vorderseite, links am loch, über dem kleinen PCIe Steckerchen weg müssen und dafür auf die Rückseite hin müssten.
Und zwar an die beiden Plätze links am Loch, unter dem PCIe Anschluss.

Und wer nicht löten mag, ein Single Voltage Netzteil besitzt, könnte eventuell auch diese 4 Kontakte kurz schließen - Problem solved.

Also eigentlich ein winzig kleines Fehlerchen...

meinst Du die beiden handverlöteten 0-Ohm Widerstände unter dem 6-Pin? Ich kann Deiner Beschreibung nicht so ganz folgen. Aber sieht tatsächlich so aus als wäre die Zuordnung der Phasen zu den 12V-Schienen per 0-Ohm Jumper per Hand erfolgt. Da sind auch noch einige Flächen frei, die so aussehen als könnten da bei Bedarf Verbindungen hergestellt werden. Ich hab jetzt aber wirklich nur 10s draufgeschaut. Bin nämlich mit einem anderen Projekt beschäftigt.:cool:

StefanV
2016-07-04, 13:56:30
Dann stellt sich die Frage: Wieso machen die das, sodass sie theoretisch 150W über den 6 pin ziehen können, legen dann aber 4 Phasen an den PEG der nur bis 66W geht? Was zum Teufel steckt da für eine Logik dahinter?
So wie es sich momentan darstellt, schaut es so aus, als ob das PCB sehr flexibel ist und es mehrere mögliche Bestückungsvarianten gibt. Eventuell sogar von gar keinem PCIe Anschluss über so ziemlich alles über PCIe.
Das ganze wird anscheinend über einige 0 Ohm Widerstände realisiert, die an entsprechenden Stellen platziert wurden.

So und jetzt schaut es so aus, als ob irgendwer diese 0 Ohm Widerstände einfach falsch platziert wurden...

StefanV
2016-07-04, 14:01:23
meinst Du die beiden handverlöteten 0-Ohm Widerstände unter dem 6-Pin?
Genau die beiden.
Und auf der Rückseite gibt es noch weitere solcher Widerstände.
Und dann gibts zwischen GPU VRM und dem kleinen PCIe Funzelchen auch noch 2 dieser 0 Ohm Widerstände...


Ich kann Deiner Beschreibung nicht so ganz folgen.
Macht nix, ist auch nicht so ganz klar, ohne Bilder...


Aber sieht tatsächlich so aus als wäre die Zuordnung der Phasen zu den 12V-Schienen per 0-Ohm Jumper per Hand erfolgt. Da sind auch noch einige Flächen frei, die so aussehen als könnten da bei Bedarf Verbindungen hergestellt werden.
Ja, genau das meinte ich, dass die Verteilung der beiden +12V Quellen per Hand erfolgt, über eben jene Widerstände.

Und da kann jetzt irgendein kleiner Chinese in irgendeiner chinesischen Werkstatt schlicht diese Widerstände falsch gelötet haben. Oder irgendwer das falsch beschrieben hat...
Auf jeden Fall ist das PCB sehr flexibel und kann, durch eben jene Position, auf verschiedene +12V Verteilungen eingestellt werden.

PCGH_Carsten
2016-07-04, 14:12:42
Moin nochmal :) Die 0,5GB Module gibt es nur bis 1750MHz, nur die 1GB RAMs sind mit 2GHz verfügbar. Also aktuell nein.
Von Samsung gibt's da schon was - oder missverstehe ich dich da gerade? Micron samplet glaube ich noch bis 9 gbps, Samsung ist laut Eigenkatalog in der Produktion. Irgendwo im Einsatz habe ich die aber noch nicht gesehen. Mal schauen, ob C'n'P aus dem PDF klappt:

GRAPHICS DRAM COMPONENTS …
Type Density Organization Part Number Package VDD/VDDQ Speed Bin (MHz) Production …
GDDR5 8Gb 256M x 32 …
K4G80325FB-HC(03/28/25) 170-FCFBGA 1.5V/1.5V 6000/7000/8000 Now…
K4G80325FB-HC(03/28/25) 170-FCFBGA 1.35V/1.35V 5000/6000/(TBD) Now…

4Gb 128M x 32 …
K4G41325FE-HC2(03/28/25/22) 170-FCFBGA 1.5V/1.5V 6000/7000/8000/9000 Now…
K4G41325FE-HC2(03/28/25/22) 170-FCFBGA 1.35V/1.35V 5000/6000/7000/TBD Now…

Nicht schön aber selten :)

Thowe
2016-07-04, 14:13:10
...

Ich meine wenn ein 8 pin 150W packen soll, dann schafft ein 6 pin mit den gleichen (im Fall von einem 6+2 pin sogar den selben) Kabeln ohne Probleme 100W, nicht nur 75W. Pin 2 hängt sowieso an +12V (bei nem 6+2 pin muss er ja), das heißt wenn AMD tatsächlich Sense als dritten GND missbraucht haben die sich effektiv einen 8 pin gebastelt.


Viele Netzteile haben sogar einen 6+1 (2 Masse Pin eben nicht eingeschlossen), eigentlich muss hier nur Netzteil und Aderquerschnitt mitspielen. Was ich bei einem ordentlichen Netzteil als gegeben einstufen würde.

--

Thema zu hohe Last:

Da ich davon ausgehe, dass AMD respektive der Entwickler der Grafikkarten-Platine wussten was Wandler und Speicher verbrauchen, werden sie dies innerhalb der eigenen Überlegungen auch mit berücksichtigt haben.

Wenn das BIOS nun die grundsätzlichen Spannungseinstellungen bestimmt und dies soll ja in Abhängigkeit zu dem verbauten Grafikchip stehen, ist hier entweder der Algorithmus irgendwie "schlampig", die verbauten Chips zu einem guten Teil einfach schlechter als erwartet oder man hat beschlossen lieber gleich höher anzusetzen als ursprünglich angedacht. Oder die Mitarbeiter hatten zu wenig Kaffee oder noch schlimmer, es gab nur entkoffeinierten für die Ingenieure, gesponsert von einem gewissen Huang.

--

Thema Stabilität bei AMD Grafikkarten

Als jemand der nun etliche Generation von NVIDIA Karten hatte und wegen der 970 zur 390 gewechselt ist, weil mir die aktuell für 4K reicht, kann ich bislang weder Probleme mit Treibern, Stabilität etc. feststellen. Noch irgendwie das es optisch schlechter als bei NV ausschauen würde. Alles, was ich meiner Nitro nachsagen kann ist es, dass sie unter Last mir zu laut wird.

Da ich beruflich bedingt ja nun eine Menge an PCs sehe aus ganz unterschiedliche Quellen bzw. Eigenbauten, habe ich schon einiges gesehen was nie stabil hätte laufen können. Egal ob man nun eine 800,- Euro Grafikkarte an ein 750W Netzteil für 34,95 hängt oder schlecht zusammengebaute PCs wo Karten halbherzig steckten oder das Mainboard direkt ans Gehäuse geschraubt wurden, Abstandshalter? Wer brauch so etwas. Bedeutet, die meisten Probleme liegen in Feinheiten. Auch bei Seriengeräten: Medion baut gerne mal Gaming-PCs wo die Durchlüftung so gar nicht passt, immerhin sollte die Gehäuse-Innentemperatur nicht die 38° überschreiben, eine Norm, die nur wenige einhalten. Dell hat bei einigen Geräte Steckkarten im Abluftstrom der BTX-Kühlung, keine Ahnung warum da bei den RAID-Controller gerne mal die Kondensatoren sterben, da habe ich schon etliche aufgeplatzte gewechselt. Bei Acer lässt man auch gerne mal die Grafikkarte mit Standard-Kühler in einem Bereich mit zu wenig Konvektion ersticken. Der wahre Horror bleiben aber Eigenbauten. Vieles lässt sich mit guter Kühlung und einen ernsthaften Netzteil lösen. Über letztere und die Tests solcher von denen, die gar nicht testen können, hatte sich ja Gabriel Torres auch mal tierisch aufgeregt. Nicht verkehrt, wenn mehr und mehr der Webseiten keine Leser mehr haben, die gar nicht so recht wissen was sie tun!

--

Thema Igor: :up:

anddill
2016-07-04, 14:25:27
Moin nochmal :)
Von Samsung gibt's da schon was - oder missverstehe ich dich da gerade? Micron samplet glaube ich noch bis 9 gbps, Samsung ist laut Eigenkatalog in der Produktion. Irgendwo im Einsatz habe ich die aber noch nicht gesehen. Mal schauen, ob C'n'P aus dem PDF klappt:



Hatte auch nur wiedergekäut was ich hier ein paar Seiten vorher gelesen hatte. Auch wenn sie jetzt verfügbar sind, heißt das ja noch nicht daß das auch so war als die paar 4GB Alibikarten zusammengelötet wurden.

hesTeR-
2016-07-04, 14:38:42
könnte man das problem denn selber durch ne verlötung lösen ?

anddill
2016-07-04, 14:44:49
könnte man das problem denn selber durch ne verlötung lösen ?
Wenn es wirklich so ist, daß diese Brücken im Stromweg der 12V-Schienen liegen, und wenn es so ist das da genügend Freiheit vorhanden ist um die Zuordnung zu ändern, dann könnte man das machen. Evtl waren da während der Entwicklung (oder der PCIe-Zertifizierung!) einfach Shunts aufgelötet, mit deren Hilfe man die Ströme gemessen hat. Dann müsste man zumindest mit Drahtbrücken arbeiten.
Im Moment ist das erst mal pure Spekulation.

hesTeR-
2016-07-04, 14:46:55
kannst du das nicht testen? du scheinst ja mehr ahnung zu haben als die bei AMD wenn sie das produkt so ausliefern und es durch die qm kommt :)

PCGH_Carsten
2016-07-04, 14:48:51
Hatte auch nur wiedergekäut was ich hier ein paar Seiten vorher gelesen hatte. Auch wenn sie jetzt verfügbar sind, heißt das ja noch nicht daß das auch so war als die paar 4GB Alibikarten zusammengelötet wurden.
Ist gut möglich. :)
Das ist aus dem H1/2016-Katalog. Keine Ahnung, wie lange es den schon gibt - also ja, könnte durchaus sein. Bis H1/2015 war er jedenfalls noch nicht drin. Den H2/2015 finde ich grad nicht.

Iruwen
2016-07-04, 15:01:41
kannst du das nicht testen? du scheinst ja mehr ahnung zu haben als die bei AMD wenn sie das produkt so ausliefern und es durch die qm kommt :)
Kaufst du ihm 'ne Karte? :biggrin:

anddill
2016-07-04, 15:07:07
Ich hab mir jetzt endlich mal das buildzoid-Video angeschaut. Also der misst dort daß von dem großen Corespannungs.Block 4 Phasen mit dem 6-Pin verbunden sind und 2 mit dem PEG. Das würde dann eigentlich perfekt passen. Ist da nur die Phasenbalance ab Werk verstellt, evtl. um die 75W am 6-Pin zu halten???

Ich meine wenn ich nur ein Zangenamperemeter habe, dann kann ich den gut messen, den PEG aber nicht. Nun sagt mein Chef, daß die ganze Karte nur 130W zieht. Dann ist die beste Möglichkeit die Balance einzustellen am 6-Pin zu messen und das Lastverhältnis so lange zu verschieben bis am 6-Pin rund 6A anliegen. Fertig, ins BIOS geschrieben und ab damit.

hesTeR-
2016-07-04, 15:09:40
wir können ja nen croudfounding machen ;) um anddill ne test karte zu besorgen an der er rumlöten kann. Ich bin mit nem 5er dabei :D Wenn es klappt verlosen wir Sie unter allen die mitgemacht haben oder Verkaufen Sie für teuer Geld an AMD :D

Hennson
2016-07-04, 15:12:42
Ist gut möglich. :)
Das ist aus dem H1/2016-Katalog. Keine Ahnung, wie lange es den schon gibt - also ja, könnte durchaus sein. Bis H1/2015 war er jedenfalls noch nicht drin. Den H2/2015 finde ich grad nicht.

Hab die 4GB Version, hier mal Bilder vom RAM:

56537

56538

Da sind doch dann auch 8GB Verbaut?

iuno
2016-07-04, 15:21:54
Der Produktnummer nach sind das auf jeden Fall 8 Gb (K4G8) Chips, die auch fuer 8 Gbps gebinnt (HC25) wurden.
Der "4 GB"-Aufkleber auf der Packung scheint aber auch nachtraeglich angebracht worden zu sein. Sicher, dass es die 4 GiB Karte ist? ;D
Ihc dachte, die soll es gar nicht im Referenzdesign geben? :confused:

Gipsel
2016-07-04, 15:23:22
Ich hab mir jetzt endlich mal das buildzoid-Video angeschaut. Also der misst dort daß von dem großen Corespannungs.Block 4 Phasen mit dem 6-Pin verbunden sind und 2 mit dem PEG.Also ich kann in dem Video nicht genau erkennen, wie viele Phasen genau am 6Pin und dem Slot hängen. Nach dem Video hätte ich eher auf 3:3 getippt (+ Speicher am 6Pin). Die beiden zusätzlichen VRMs (außer GPU und Speicher) ziehen vermutlich nicht soo viel. Der zweite durch den IR3567B gesteuerte einphasige Kreis oberhalb der GPU-Versorgung ist vermutlich für den Speicher-Controller (die Default 1,0V im WattMan, dort fälschlicherweise als Speicherspannung angegeben), die eigentliche Speicherspannung von ~1,5V kann im WattMan gar nicht verstellt werden. Der einphasige VRM für den Speicher direkt neben dem 6Pin hat ja offenbar nochmal einen eigenen Controller (den man im WattMan eben nicht ansteuern kann). Und der ganz mickrige VRM ganz unten unter der GPU-Versorgung ist ja höchstens für irgendwas ganz kleines zuständig (Display-Interfaces?).
Das würde dann eigentlich perfekt passen. Ist da nur die Phasenbalance ab Werk verstellt, evtl. um die 75W am 6-Pin zu halten???Auch die 3:3 Phasenaufteilung zwischen Slot und 6Pin würde nur gehen, wenn bereits ein Bias zwischen den Phasen programmiert wurde. Deswegen habe ich ja gestern auch schon die Vermutung geäußert, daß das aus irgendeinem Grund eventuell einfach falsch herum gemacht wurde (Phasen am Slot ziehen mehr als die am 6Pin).
Da aber der 6Pin-Stecker auf der Karte voll verdrahtet ist (3x 12V + 3x Masse) und ich noch nie ein Netzteil gesehen habe, wo das bei den 6Pin-Steckern nicht ebenfalls der Fall wäre (der mittlere Masse-Pin wird ja als Sense benutzt, wozu der bei Einstecken des 6Pins über Widerstand eben auf Masse gezogen wird, der muß also netzteilseitig sowieso immer mit Masse verbunden sein), würde ich persönlich es als ziemlich unkritisch sehen, den 6Pin-Stecker mit (deutlich) mehr als 75W zu belasten.

Arcanoxer
2016-07-04, 15:24:53
wir können ja nen croudfounding machen ;) um anddill ne test karte zu besorgen an der er rumlöten kann. Ich bin mit nem 5er dabei :D Wenn es klappt verlosen wir Sie unter allen die mitgemacht haben oder Verkaufen Sie für teuer Geld an AMD :D
Traust du AMD kein gescheiten Powergate fix zu, oder warum?

anddill
2016-07-04, 15:25:36
Ja, den könnte man problemlos mit 300W belasten.

hesTeR-
2016-07-04, 15:26:32
Hennson wo und wann hast du die Karte bestellt? also bei welchem anbieter Alternate?

Traust du AMD keine gescheiten Powergate fix zu, oder warum?

doch aber ich finde community based lösungen einfach total spannend :)

die sache mir den 3,5+05 nv ram wurde ja auch heir im forum entdeckt. Wie witzig wäre es wenn wir hier im Forum bzw einige Member jetzt rausfinden woran es bei der rx480 hapert.

Hennson
2016-07-04, 15:30:59
War gleich am Mittwoch bei Mindfactory die haben mittlerweile die 4GB Version raus genommen.

hesTeR-
2016-07-04, 15:31:58
jo scon gesehen, alternate hat die auch rausgenommen, eigentlich gibts garkeine 4gb mehr zu kaufen....

hast du die karte mal eingebaut und geguckt ob es ne 4 oder 8gb ist ?

wäre ja auch mal witzig zu wissen ob man die sonst flashen kann auf ein 8gb bios

Hennson
2016-07-04, 15:35:57
Jo GPU-Z zeigt 4GB an bei 1750 MHz der RAM läuft aber Stabil bei 2250Mhz auf 0,950V. Ich würde es ja Probieren zu Flashen aber es mangelt an Software dafür^^

PCGH_Carsten
2016-07-04, 15:37:00
Hab die 4GB Version, hier mal Bilder vom RAM:

56537

56538

Da sind doch dann auch 8GB Verbaut?

Der Produktnummer nach sind das auf jeden Fall 8 Gb (K4G8) Chips, die auch fuer 8 Gbps gebinnt (HC25) wurden.

Jep.

illidan
2016-07-04, 15:41:28
die sache mir den 3,5+05 nv ram wurde ja auch heir im forum entdeckt.
Nope, das schwirrte vorher schon längst bei Guru3D und Reddit rum und der VRAM-Benchmark kam von jemandem aus dem CB-Forum.
3DC hatte damit gar nichts am Hut.

hesTeR-
2016-07-04, 15:43:26
ell, after reading around the internet, it seems like multiple people/sources are confirming that some 4gb versions are actually 8gb versions but with just a custom bios to cap down the size and speed due to their lack of 4gb versions being available at launch. So it was easier for them to get more 4gb models release at launch with just a custom bios.

Source 1: http://www.legitreviews.com/amd-radeon-rx-480-4gb-versus-radeon-rx-480-8gb_183576
Summary:
All of the AMD Radeon RX 480 at-launch graphics cards have shipped with 8GB of memory on them. That means if you run out and buy a 4GB card this very second it really does have 8GB of memory on the card. AMD disabled it through a special vBIOS and also lowered the clock speed of the memory on the 4GB cards.


Source 2: http://www.overclock.net/t/1604567/polaris-bios-mod-rx480/10#post_25314546
Quotes 1:
"I bought an xfx rx 480 4GB on launch. I replaced the thermal paste and I saw 8 Samsung memory chips. I downloaded and xfx rx 480 8GB bios from the tech power up database but I'm not sure what flash utility I can use. Any help would be appreciated."
Quotes 2:
"Same thing here, all the memory modules are sitting pretty....waiting to be flashed from a 4GB to an 8GB...but ATIWINFLASH isn't recognizing the card as a Radeon card, lol."


Source 3: http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-RX-480-Review-Polaris-Promise
Summary:
Another oddity – and one that may make enthusiast a bit more cheery – is that AMD only built a single reference design card for this release to cover both the 4GB and 8GB varieties. That means that the cards that go on sale today listed at 4GB models will actually have 8GB of memory on them! With half of the DRAM partially disabled, it seems likely that someone soon will find a way to share a VBIOS to enable the additional VRAM. In fact, AMD provided me with a 4GB and an 8GB VBIOS for testing purpose. It’s a cost saving measure on AMD’s part – this way they only have to validate and build a single PCB.


also heir gibts das 8gb bios

https://www.techpowerup.com/vgabios/184030/sapphire-rx480-8192-160603

zum flashen geht doch bestimmt ati flash oder ?


aber ich glaube ich würde noch ein paar tage warten, wenn sich das wirkliuch bestätigt gibt es bestimmt bald ein Mod bios

iuno
2016-07-04, 15:57:14
Hiess ja urspr. auch es soll gar keine Referenzmodelle mit 4 GiB geben oder habe ich das falsch im Kopf?

@Hennson: kannst du mal dein Bios hochladen? bei TPU ist kein 4 GiB BIOS gelistet. Speichern geht mit GPU-Z

Noebbie
2016-07-04, 15:59:57
Hab die 4GB Version, hier mal Bilder vom RAM:

56537

56538

Da sind doch dann auch 8GB Verbaut?

Jo. Kannst du auch im HWLuxx Forum nachlesen. Ist dort schon seit Tagen das Thema! Hier gehts nur um die >150 Watt. :D

marc-05
2016-07-04, 16:32:42
That means that the cards that go on sale today listed at 4GB models will actually have 8GB of memory on them

War die Meldung(en vom 29. doch nicht falsch.
https://www.reddit.com/r/Amd/comments/4qfsji/rx_480_4gb_can_be_modded_to_8gb_via_bios_flash/

http://www.legitreviews.com/amd-radeon-rx-480-4gb-video-cards-8gb-memory_183548

Leonidas
2016-07-04, 17:24:09
ell, after reading around the internet, it seems like multiple people/sources are confirming that some 4gb versions are actually 8gb versions but with just a custom bios to cap down the size and speed due to their lack of 4gb versions being available at launch. So it was easier for them to get more 4gb models release at launch with just a custom bios.

Source 1: http://www.legitreviews.com/amd-radeon-rx-480-4gb-versus-radeon-rx-480-8gb_183576
Summary:
All of the AMD Radeon RX 480 at-launch graphics cards have shipped with 8GB of memory on them. That means if you run out and buy a 4GB card this very second it really does have 8GB of memory on the card. AMD disabled it through a special vBIOS and also lowered the clock speed of the memory on the 4GB cards.


Source 2: http://www.overclock.net/t/1604567/polaris-bios-mod-rx480/10#post_25314546
Quotes 1:
"I bought an xfx rx 480 4GB on launch. I replaced the thermal paste and I saw 8 Samsung memory chips. I downloaded and xfx rx 480 8GB bios from the tech power up database but I'm not sure what flash utility I can use. Any help would be appreciated."
Quotes 2:
"Same thing here, all the memory modules are sitting pretty....waiting to be flashed from a 4GB to an 8GB...but ATIWINFLASH isn't recognizing the card as a Radeon card, lol."


Source 3: http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-RX-480-Review-Polaris-Promise
Summary:
Another oddity – and one that may make enthusiast a bit more cheery – is that AMD only built a single reference design card for this release to cover both the 4GB and 8GB varieties. That means that the cards that go on sale today listed at 4GB models will actually have 8GB of memory on them! With half of the DRAM partially disabled, it seems likely that someone soon will find a way to share a VBIOS to enable the additional VRAM. In fact, AMD provided me with a 4GB and an 8GB VBIOS for testing purpose. It’s a cost saving measure on AMD’s part – this way they only have to validate and build a single PCB.


Da wäre ich vorsichtig, dies so zu interpretieren.

1) und 3) beziehen sich bei der Faktenbasis auf die Presseamples - und geben rein die Annahme aus, das es bei den Retailmodellen genauso sein soll.

2) Ist ja noch nix passiert. Die 8 Chips können jewels 0,5 GB Speichermenge haben und damit wären es insgesamt nur 4 GB.


Wo ist der echte rauchende Colt?

Screemer
2016-07-04, 17:40:50
@leo: die 4gbit Chips sind gelabelt mit k4g4... die 8gbit k4g8...

Die Chips auf den verkauften 4gb Karten und letztere. Da dürften ja dann nur 4 stk. Verbaut sein.

So hab ich das Sortiment von Sami verstanden.

Der rauchende Colt ist für mich, dass keine 4gb Karten mehr verfügbar sind. Weder hier in de, noch in uk, noch in den USA.

Ich geh davon aus das die 4gb Karten in Zukunft von den Partner bedient werden.

Hakim
2016-07-04, 17:40:53
Es gab ja schon Tests wo durch Senkung des PT die Karte ihre Leistung halten konnte (teils sogar besser), könnte man davon ausgehen das es so jede Karte mitmacht? Dann wäre die Lösung einfach, wobei ich glaube das AMD nicht grundlos den PT so gesetzt hat.

illidan
2016-07-04, 17:42:39
Nein. Wie schon dazu gesagt, wurden nicht die Frametimes getestet, und das verwendete BF4 ist auch nicht gerade ein Powervirus.

DarknessFalls
2016-07-04, 17:42:55
Es gab ja schon Tests wo durch Senkung des PT die Karte ihre Leistung halten konnte (teils sogar besser), könnte man davon ausgehen das es so jede Karte mitmacht? Dann wäre die Lösung einfach, wobei ich glaube das AMD nicht grundlos den PT so gesetzt hat.

Schwer zu sagen, kommt halt ganz darauf an, wie groß die Streuung bei der Qualität ist. Meine Vermutung geht aber schon dahin, dass man das PT senken wird via Firmware / Treiber und die paar, die das nicht mitmachen, via RMA abhandelt.

Ist die logischste Herangehensweise IMHO.

marc-05
2016-07-04, 17:50:09
4 GB müsste ja dann K4G41325FE sein
Hennson mit 4GB hat gleichen Vram wie 8Gb Versin
K4G80325FB-HC25

https://www.techpowerup.com/reviews/AMD/RX_480/4.html

iuno
2016-07-04, 18:10:11
So, meine Wochenendarbeit ist nun auch online. :)

AMD Radeon RX 480 im Detail: Leistungsaufnahme, Layout und Normen (http://www.tomshardware.de/amd-radeon-rx-480-grafikkarte-leistungsaufnahme-pci-sig,testberichte-242143.html)
Danke fuer den Artikel :up: Haette aber noch eine Frage:
Woher kommt denn der Messwert mit 110 Watt vom ASIC genau und warum wird diesem Wert absolut vertraut?

Dass der Wert mit GPU-Z ausgelesen wird, ist mir klar. Aber wo kommt er her bzw. wie wird da gemessen? Kann das nicht auch eine eher grobe Schaetzung oder sein? So zeigt ja etwa CPU-Z auch einen Verbrauchswert an, dem man eigentlich nicht 100%ig vertraut oder habe ich was verpasst?

Loeschzwerg
2016-07-04, 18:16:40
Bei den ganzen Taktspielchen und Stromsparfeatures moderner GPUs... da steckt genügend Messtechnik für die einzelnen Einheiten im Design und geregelt wird das ganze eh schon über das Bios :) Jetzt gibt man die Werte halt über den Treiber an die Außenwelt.

Ph03n!X
2016-07-04, 18:48:01
Gibt es schon ca. Spekulationen wegen dem Preis der Strix und der Nitro?

Argo Zero
2016-07-04, 18:49:35
Pfund in Euro macht das 300€ in etwa.

(del)
2016-07-04, 19:08:48
Danke fuer den Artikel :up: Haette aber noch eine Frage:
Woher kommt denn der Messwert mit 110 Watt vom ASIC genau und warum wird diesem Wert absolut vertraut?

Dass der Wert mit GPU-Z ausgelesen wird, ist mir klar. Aber wo kommt er her bzw. wie wird da gemessen? Kann das nicht auch eine eher grobe Schaetzung oder sein? So zeigt ja etwa CPU-Z auch einen Verbrauchswert an, dem man eigentlich nicht 100%ig vertraut oder habe ich was verpasst?

Der PWM-Controller setzt auf ein standardisiertes Protokoll und es lassen sich per Schnittstelle die relevanten Sensorwerte sehr exakt auslesen. Das kommt ziemlich genau hin und wäre in kleineren Intervallen noch schöner. :)

Screemer
2016-07-04, 19:14:07
4 GB müsste ja dann K4G41325FE sein
Hennson mit 4GB hat gleichen Vram wie 8Gb Versin
K4G80325FB-HC25

https://www.techpowerup.com/reviews/AMD/RX_480/4.html
Schau mal auf die Seite davor. Hab ich vor ca. 5 posts auch schon angemerkt. Scheint aber wohl nicht zu interessieren.

Butterfly
2016-07-04, 19:18:26
Der PWM-Controller setzt auf ein standardisiertes Protokoll und es lassen sich per Schnittstelle die relevanten Sensorwerte sehr exakt auslesen. Das kommt ziemlich genau hin und wäre in kleineren Intervallen noch schöner. :)
Von mir auch ein :up: für den Artikel: http://www.tomshardware.de/amd-radeon-rx-480-grafikkarte-leistungsaufnahme-pci-sig,testberichte-242143-2.html

Hab da auch noch eine Frage zu dem Text hier:
Was bringt uns eigentlich darauf, das Ganze eher entspannter zu sehen? Als die Norm verabschiedet wurde, waren ursprünglich vier Pins für die 12-Volt-Spannungsversorgung vorgesehen, je zwei auf Ober- und Unterseite der Platine (Bild oben mit älterer Grafikkarte, Pin 1 und 2).
Damit sind die + Pole gemeint?
Wie viele Pins sind denn GND? (um mal beim Strom zu bleiben) und wird die Masse gemeinsam für alle Phasen genutzt oder separat aufgeteilt?

anddill
2016-07-04, 19:31:18
Wie viele Pins sind denn GND? (um mal beim Strom zu bleiben) und wird die Masse gemeinsam für alle Phasen genutzt oder separat aufgeteilt?
Wenn ich mich nicht verzählt habe, und das habe ich bestimmt, dann sind es 68 Stk. Und Gnd ist immer gemeinsam.

Disco_STFU
2016-07-04, 19:31:22
Ich bin mir gar nicht so sicher, dass AMD morgen schon was konkretes liefert. Es heißt ja lediglich mal wolle uns informieren...

Ich bin noch skeptisch.

Isen
2016-07-04, 19:33:45
Und wenn es die 6,8A mit den 5 Pins ist?
Was dann?!

anddill
2016-07-04, 19:36:32
Und wenn es die 6,8A mit den 5 Pins ist?
Was dann?!

Gar nix. Ich hab einen PEG-Slot mal gnadenlos überlastet. Video lädt gerade hoch.

DiscoInferno
2016-07-04, 19:41:11
Dann wäre man wohl tatsächlich knapp innerhalb der Spezifikation, und nur die Karten die tatsächlich über 82,5W im Durchschnitt verbrauchen wären genau die "Ausreißer", die AMD als ebensolche bezeichnet hat.

Unrockstar
2016-07-04, 19:42:45
Wir können uns damit auch nicht dem aktuellen Trend anschließen, bei erneuten Messungen plötzlich sehr viel niedrigere Werte erreicht zu haben. Die seit Jahren verwendete, turnusmäßig kalibrierte Messtechnik lieferte in beiden Szenarien, also der mit hoher und niedrigerer Auflösung, verlässliche und sehr ähnliche Werte. Im Gegenteil, man wird fragen müssen, warum bisherige Werte in manchen Quellen nunmehr so deutlich voneinander abweichen und was dies dann für deren ältere Reviews bedeuten könnte.

Deswegen lese ich ja nur eure Verbrauchsmessungen Igor.. Wenn ich sehe wie das andere Messen, wird mir als Elektroniker immer Angst und Bange. Kannst damit endlich das Thema mal geklärt ist ne 750Ti ohne 6 Pin und ne 7850 vermessen? Ich denke selbst die 7850 bzw dann die 660ti haben die Spezifikationen überschritten.. Damals hat es eben wohl nur keinen Interessiert. Wenn ich euren Test zu 660 von Asus sehe dann hängt das Ding ja auch 10W und mehr in der Reserve.

Eine Frage hätte ich noch an dich Igor:
Wie kann es sein dass der 470 eine Asic von 85W haben soll, aber ein etwas größerer P10 110W und hast du eine Antwort warum AMD nicht einfach das 470 Brett genommen hat? Das dürfte eigentlich wesentlich besser zu P10 passen.. Gibts eine Möglichkeit, wurde diese kommuniziert, ob Treiberseitig alle Stromsparmechanismen laufen? Irgendwie will mir das nicht in den Kopf gehen, wenn die 470 ja auch nur 10% Langsamer sein soll. Ich komme als Ergebnis immer wieder beim Thema : Herstellungsprozess raus. Da muss bei Samsung/GloFo ganz gehörig was schieflaufen

Isen
2016-07-04, 19:43:50
Knapp? Wenn ich mir den Durchschnitt von, Igor ansehe (82W) wäre man genau richtig @5 Pins
Und alles was darüber geht @5Pins empfindet bzw. versteht AMD als das Problem und nicht die 75W bei 4 Pins.

Wenn es also die Lösung mit 5Pins ist, was von der PCI-SIG entsprechend abgesegnet wurde (sofern natürlich) und man hier mit 4Pins misst, würde ich Köpfe hacken gehen aber mit Anlauf. Dann heißt es ruck zuck Pressegate....

DiscoInferno
2016-07-04, 19:48:20
Genau das sag ich doch, etwas unter 82,5W (respektive 6,875A) im Mittel und es passt. Ein paar Karten in einzelnen Tests waren drüber, diese waren die Ausreißer. Evtl weil man die angepeilten ~165W Gesamtaufnahme per Software nicht ganz hinbekommen hat.

Ein zusätzlicher Pin würde auch den Leitungsquerschnitt gesamt um 25% vergrößern, was dann die um 23% höhere Stromaufnahme die Igor gemessen hat, ins Fenster bringen würde.

Dino-Fossil
2016-07-04, 19:51:52
Kannst damit endlich das Thema mal geklärt ist ne 750Ti ohne 6 Pin und ne 7850 vermessen? Ich denke selbst die 7850 bzw dann die 660ti haben die Spezifikationen überschritten.. Damals hat es eben wohl nur keinen Interessiert. Wenn ich euren Test zu 660 von Asus sehe dann hängt das Ding ja auch 10W und mehr in der Reserve.

Zumindest bei der 7850 seh ich eigentlich keinen Grund, die lag in der normalen Version soweit ich weiß eigentlich sicher unter 150W, üblicherweise deutlich.
Kenne jedenfalls keine Reviews die da mehr gemessen haben.

Isen
2016-07-04, 19:52:29
Wenn es sich herausstellt, dass das ganze alles OK ist mittels 5Pin ~82,5W ... und nach allem was da so nun im Umlauf ist...( 4Pin ...) das man das ganze ohne 100% zu Wissen so breit tretet grenzt echt an alles und schießt mächtig über jedes Ziel hinaus.

Unrockstar
2016-07-04, 20:03:42
Zumindest bei der 7850 seh ich eigentlich keinen Grund, die lag in der normalen Version soweit ich weiß eigentlich sicher unter 150W, üblicherweise deutlich.
Kenne jedenfalls keine Reviews die da mehr gemessen haben.

Ich kenne kein Review aus der Zeit was das so ausführlich betrachtet hat.. Das ist der Knackpunkt. Dann nimm statt der 7850 halt nen anderen AMD 6 Pin Modell.. Ich vermute sogar die 295X2 wird 5Pins à 12V nutzen.. Ich warte nun auf Richtigstellung der Presse.. Was da bei Geizhals zb. abgeht ist eine Bodenlose Frechheit.

@Isen:
Nunja wäre Ich AMD würde ich zumindest Wiedergutmachung fordern.. Bei Geizhals ist auch so eine unsägliche Aussage

BlacKi
2016-07-04, 20:10:40
ab wieviel +PT würdet ihr einen schaden erwarten?

anddill
2016-07-04, 20:11:02
Laut aktueller Norm gelten die 5,5A für 5 Kontakte bei 1,1A pro Kontakt.

Unrockstar
2016-07-04, 20:19:09
Also 1,38A statt 1,1A
Also ca. 25% mehr, wenn ich mich nun nicht vertan habe. Aus Elektrotechnischer Sicht würde ich sagen kein Problem. Warum aber man 4 zu 2 Phasen gemacht hat verstehe ich nicht. Symmetrisch wäre wohl besser gewesen, und Igor schrieb ja auch schon, bei 3 Phasen wären es 60W aus dem PEG. Ich kann mir auch nicht vorstellen dass AMD eine Phase abschalten lässt, selbst wenn der 6Pin PCIe das verkraften kann

Igor sagt ja 18,7W pro Phase, das wäre locker mit 5 Phasen gegangen (eine weniger auf dem PEG) und die Lastverteilung wäre immernoch Vertretbar gewesen...
Wie mans dreht und wendet, das PCB passt nicht ansatzweise zur GPU

BlacKi
2016-07-04, 20:21:35
welchen rat würdest du jemandem geben, der die karte übertakten möchte, welches +an PT nicht zu überschreiten, wenn ich keinen schaden an mainboard oder graka unnötig riskieren will, bezüglich der stromaufnahme.

ich meine das problem ist im prinzip neu, oder zumindest die diskussion darüber. ich will keine garantien, eher ein vertretbares risiko, wenn ich OC betreiben will.

Unrockstar
2016-07-04, 20:27:56
welchen rat würdest du jemandem geben, der die karte übertakten möchte, welches +an PT nicht zu überschreiten, wenn ich keinen schaden an mainboard oder graka unnötig riskieren will, bezüglich der stromaufnahme.

ich meine das problem ist im prinzip neu, oder zumindest die diskussion darüber. ich will keine garantien, eher ein vertretbares risiko, wenn ich OC betreiben will.

Warte auf eine Custom. Die Referenzbretter sind schlecht für OC.. Das würde ich dir auch als Garantie geben ;)
Referenz 4GB für 220€ ist schön, wenn die Kiste laufen soll, also für die 85% die das Thema PC nicht interessiert. Die anderen 15% Enthusiasten und PC Freaks sollten schon wissen was sie tun.. Warte auf die Custom und gut. Gilt übrigends auch für die NV 1060.. Referenzkarten und OC das beisst sich (meiner Meinung nach)

Mortalvision
2016-07-04, 20:34:06
+1 Dankeschön an Format_C für den informativen Artikel auf THG! :)

(del)
2016-07-04, 20:40:26
Danke auch an die Community, allein geht so etwas immer schief :)

DiscoInferno
2016-07-04, 20:45:00
Laut aktueller Norm gelten die 5,5A für 5 Kontakte bei 1,1A pro Kontakt.

Aha, das würde meine Rechnung dann also zunichte machen. Allerdings wird man sich doch als Ingeniuer in der Entwicklungsabteilung irgendwas dabei gedacht haben wenn man den PCIe so überlastet. Dann kann doch niemand zufällig machen (->muss Absicht gewesen sein), also wird das sicher schon einen wie auch immer gearteten technischen Hintergrund haben. Ich kann mir nicht vorstellen dass das jemand einfach "übersehen" hat.

Naja, mal abwarten was da morgen so kommen soll - man darf gespannt sein.

Unrockstar
2016-07-04, 20:53:00
Aha, das würde meine Rechnung dann also zunichte machen. Allerdings wird man sich doch als Ingeniuer in der Entwicklungsabteilung irgendwas dabei gedacht haben wenn man den PCIe so überlastet. Dann kann doch niemand zufällig machen (->muss Absicht gewesen sein), also wird das sicher schon einen wie auch immer gearteten technischen Hintergrund haben. Ich kann mir nicht vorstellen dass das jemand einfach "übersehen" hat.

Naja, mal abwarten was da morgen so kommen soll - man darf gespannt sein.
Carsten bei PCGH sagt: 5,5A auf den 4 Pins, was anderes steht in der Norm nicht. Aber der freie 5te Pin ist tatsächlich laut der 3.1 nicht Spezifiziert.. AMD nutzt also die Reserven im PCIe. Oder aber wir erwarten ein Update der Norm. https://de.wikipedia.org/wiki/PCI_Express#Slot-Varianten
Wenn man davon ausgeht 5,5A bei 4 Pins sind das 1,375A pro Pin also 16,5W Pro Pin (ohne Verluste) Nimmt man den 5ten dazu hast du:
5*1,375A = 6,875A, also sogar noch über AMDs Belastung. Deswegen wohl auch AMDs Verwunderung

DiscoInferno
2016-07-04, 20:55:44
Öh, ja genau das schreib ich doch seit heute mittag. Spec ausgelegt für 4-pin 12V, daher müsste man evtl die Spec erweitern wenn 5 pins genutzt werden. Mühlen mahlen langsam, vielleicht ist man da noch auf altem Stand.

Möglicherweise weiß die PCI-SIG auch schon mehr als wir alle und erlauben 6,875A bei 5pins, weswegen die Karten auch den Test erfolgreich absolviert haben.

Und eben nur die paar Karten, die über den 82,5W im Mittel in einigen Szenarien lagen, waren dann die Ausreißer, die AMD bezifferte. Das lässt sich dann aber ziemlich sicher mit minimalen Änderungen im PT regeln, ohne dass großartige Leistungseinbußen zu Buche stehen würden.

(del)
2016-07-04, 20:56:12
Die Norm ist aber nicht pro Pin sondern pro Schiene so festgelegt. Macht auch Sinn, wegen der Abwärtskompatibilität. Werden elektrische Parameter dermaßen geändert, wäre sonst ein neuer Slot fällig geworden. Es stehen auch weiterhin 5.5 Ampere drin. Punkt. :)

Isen
2016-07-04, 21:01:32
Abwarten. Zu früh raus preschen kann sich bitter rächen.
Die Amis sind doch eh Eigenblödler und Papier ist bei denen alles andere als geduldig :D

Unrockstar
2016-07-04, 21:03:59
Die Norm ist aber nicht pro Pin sondern pro Schiene so festgelegt. Macht auch Sinn, wegen der Abwärtskompatibilität. Werden elektrische Parameter dermaßen geändert, wäre sonst ein neuer Slot fällig geworden. Es stehen auch weiterhin 5.5 Ampere drin. Punkt. :)
Die Kardinalsfrage:
Warum hat die Karte dann das PCIe Signet? Müsste die PCI Sig bei den Tests nicht niet gesagt haben? Und dass mit dem Bios um Nvidia eins auszuwischen, das können die Fans ihrer Mama erzählen. Du weisst genauso gut wie ich, so ein Bios wird nicht mal zwischen Tür und Angel gemacht, sondern das hat Vortests für die Karte gegeben. Es hätte also auffallen müssen

DiscoInferno
2016-07-04, 21:16:52
Die Norm ist aber nicht pro Pin sondern pro Schiene so festgelegt. Macht auch Sinn, wegen der Abwärtskompatibilität. Werden elektrische Parameter dermaßen geändert, wäre sonst ein neuer Slot fällig geworden. Es stehen auch weiterhin 5.5 Ampere drin. Punkt. :)

Sehen wir die "Schiene" mal nicht als 4 einzelne Pins sondern gesamt bzw als einzelnen Leiter, würde dann nicht eine Erhöhung des Leitungsquerschnitts um 25% an sich gesehen nicht auch eine Erhöhung des maximal durchlässigen Stroms (A) in gleicher Höhe mit sich ziehen?

Butterfly
2016-07-04, 21:23:10
Wenn ich mich nicht verzählt habe, und das habe ich bestimmt, dann sind es 68 Stk. Und Gnd ist immer gemeinsam.
Ok, das sind doch eine Menge, bleibt die Frage wie viel Pins sind "ungenutzt"?
Gar nix. Ich hab einen PEG-Slot mal gnadenlos überlastet. Video lädt gerade hoch.
:biggrin:Was? wo bleibt das Video?
Laut aktueller Norm gelten die 5,5A für 5 Kontakte bei 1,1A pro Kontakt.
Sind eigentlich ~300W über zwei P4 4-Pin Stecker zuviel?
Die Norm ist aber nicht pro Pin sondern pro Schiene so festgelegt. Macht auch Sinn, wegen der Abwärtskompatibilität. Werden elektrische Parameter dermaßen geändert, wäre sonst ein neuer Slot fällig geworden. Es stehen auch weiterhin 5.5 Ampere drin. Punkt. :)
ASUS macht auch gern mal ein neuen Sockel (S2011-3) :smile:
Werden die Slots auch spezifiziert, außer über die Lane Anzahl?
Naja, zuviel Spezifikation schränkt dann auch wieder die Entwicklung ein.
Aber die alten Normen könnten sie ruhig mal aktualisieren, allerdings sind solche Specs meinst nicht umsonst und nur für Hersteller zugänglich.

Rabiata
2016-07-04, 21:45:19
Sehen wir die "Schiene" mal nicht als 4 einzelne Pins sondern gesamt bzw als einzelnen Leiter, würde dann nicht eine Erhöhung des Leitungsquerschnitts um 25% an sich gesehen nicht auch eine Erhöhung des maximal durchlässigen Stroms (A) in gleicher Höhe mit sich ziehen?
Theoretisch ja. Und ich habe mich auch schon leise gefragt, wieso die Hersteller die vier onehin zusammengeschalteten Pins nicht als eine große Fläche ausbilden. Das würde noch ein bißchen mehr Querschnitt bringen, weil die bisher weggeätzte Fläche zwischen den Leiterbahnen auch als Leiter zur Verfüfgung stünde.

DiscoInferno
2016-07-04, 21:57:07
Ich hab da noch eine Idee: wäre es eine Riesenumstellung im Testbaufbau (wenn man eh schon mit Risern/Extendern arbeitet), wenn man die Stromstärke die über einen einzelnen Pin geht einzeln mißt und diese Ergebnisse mit den (wieviel nun auch immer der wirklich max haben darf) 1,1/1375A vergleicht? Damit würde man praktisch gesehen völlig die Anzahl der Pins negieren, die dann egal wäre, egal wieviele der Hersteller belegt.

Das könnte man dann eig sogar besser mit anderen Karten vergleichen, die in der Gesamtleistungsaufnahme niedriger liegen, bei denen man aber auch nicht sicher weiß, wieviel Pins dort belegt sind.

Würde auch bessere Aussagen zulassen, wie hoch die thermische Belastung des einzelnen Pins beträgt.

Wer sagt denn, dass man nicht sogar 6 pins @1,1A fahren kann, freie gäbe es dafür genug, und Masse ist mehr als ausreichend vorhanden. Hoch gegriffen, aber wer weiß schon.
Messung einzelner Pins wäre da völlig unabhängig.

Unrockstar
2016-07-04, 21:58:03
Theoretisch ja. Und ich habe mich auch schon leise gefragt, wieso die Hersteller die vier onehin zusammengeschalteten Pins nicht als eine große Fläche ausbilden. Das würde noch ein bißchen mehr Querschnitt bringen, weil die bisher weggeätzte Fläche zwischen den Leiterbahnen auch als Leiter zur Verfüfgung stünde.
Vermute mal wegen der Signaltrennung. Schau dir den Steckplatz als solchen mal an. Pin1 detektiert ob eine Karte steckt und die restlichen werden dann geschaltet. Ich denke eine einzige Fläche bringt zu viele Probleme mit sich, auch dass man den Übergangswiderstand wohl nicht maßgeblich senkt.

anddill
2016-07-04, 23:08:22
Theoretisch ja. Und ich habe mich auch schon leise gefragt, wieso die Hersteller die vier onehin zusammengeschalteten Pins nicht als eine große Fläche ausbilden. Das würde noch ein bißchen mehr Querschnitt bringen, weil die bisher weggeätzte Fläche zwischen den Leiterbahnen auch als Leiter zur Verfüfgung stünde.

Ist doch. Nur die Kontaktfinger sind getrennt. Und das ist kein Problem, eine 1mm breite Leiterbahn kann alleine 5A tragen.

Ich hab da noch eine Idee: wäre es eine Riesenumstellung im Testbaufbau (wenn man eh schon mit Risern/Extendern arbeitet), wenn man die Stromstärke die über einen einzelnen Pin geht einzeln mißt und diese Ergebnisse mit den (wieviel nun auch immer der wirklich max haben darf) 1,1/1375A vergleicht? Damit würde man praktisch gesehen völlig die Anzahl der Pins negieren, die dann egal wäre, egal wieviele der Hersteller belegt.

Das könnte man dann eig sogar besser mit anderen Karten vergleichen, die in der Gesamtleistungsaufnahme niedriger liegen, bei denen man aber auch nicht sicher weiß, wieviel Pins dort belegt sind.

Würde auch bessere Aussagen zulassen, wie hoch die thermische Belastung des einzelnen Pins beträgt.

Wer sagt denn, dass man nicht sogar 6 pins @1,1A fahren kann, freie gäbe es dafür genug, und Masse ist mehr als ausreichend vorhanden. Hoch gegriffen, aber wer weiß schon.
Messung einzelner Pins wäre da völlig unabhängig.

Ähm.. Mathe? 7A:5=1,4A? Und 6 Pins gibts nicht, Du kannst doch nicht einfach irgendwelche Kontakte umwidmen. Vor allem wenn die Gegenseite 10 Jahre alt sein kann.

Vermute mal wegen der Signaltrennung. Schau dir den Steckplatz als solchen mal an. Pin1 detektiert ob eine Karte steckt und die restlichen werden dann geschaltet. Ich denke eine einzige Fläche bringt zu viele Probleme mit sich, auch dass man den Übergangswiderstand wohl nicht maßgeblich senkt.
Da wird nix geschaltet. Ist eine Rückmeldung ans Board daß da ne Karte steckt wenn die 12V da zurück kommen.

DiscoInferno
2016-07-04, 23:23:50
Ja das war Schwachsinn mit 6 pins. Meine ursprüngliche Rechnung war ja 5 pins @1,375A, was die 82,5W über den PCIe erklären könnte. Und das Abregeln des Gesamtverbrauchs bei knapp unter 165W.

Bin jetzt auch raus aus der Diskussion, das übersteigt dann doch mein Wissen. War nur eine theoretische Überlegung wie man die Karte ins Power-Budget quetschen konnte. Den Rest überlasse ich dann doch lieber euch - no ducks were harmed. ;)

-/\-CruNcher-/\-
2016-07-05, 02:05:05
Welche Reviewer haben eigentlich die RX480 Referenz gegen Nvidias eigene Brand Referenz GTX 970 und clocks getestet ?

Die Karte ging ja ziemlich unter da sie relativ spät im Lifecycle angesetzt wurde und quasi auch die eigene Founders Edition First Release Strategie Veränderung mit Pascal 1070/1080 nach sich zog.

2qTZMNfCRlI

Gefertigt wurde sie scheinbar von Manli (PC-Partner) in Nvidias Auftrag


Computerbase hat sie scheinbar als erstes noch unter Manli Brand in den fingern gehabt, umso verwunderlicher das sie die das Review mit einer MSI Gaming durchführten gegen die RX480 Referenz ;)


yDE2iefM8cY

Irgendwie bringt Computerbase sie mit OCuk in Verbindung was ich überhaupt nicht verstehe ?


Sehr interessant sie ist weitab vom 1266 MHz Boost Sweetspot, den wie ich immernoch ein krasser Zufall finde AMD sich letztendlich als Referenz Ziel genommen hat für die RX480 :D

@Format_C

Wo bleibt die RX480 Sweetspot analyse :) ?

Das PCIE-Thema ist doch jetzt schon genug ausgelutscht worden oder wartest du noch auf das Final Clocking verhalten ? ;)

Wobei ich sagen würde du denkst langsam innerhalb deiner Test Methodologie etwas um bei AMD oder führst 2 verschiedene analysen einmal im Async Compute umfeld und einmal ausserhalb durch :)

Mein ideales Test Setup würde so aussehen ;)

GTX 970 Referenz
GTX 1060 Referenz
RX480 Referenz

Die GTX 970 würde allerdings schon im Media Berreich (VPX) haushoch verlieren heutzutage ;)

Du musst auf jedenfall umdenken was Metro Last Light angeht es ist nicht mehr aussreichend innerhalb des AMD Ökosystems.

Aber denke mal lange wird es nicht mehr dauern und 4A Games und Oles Shyshkovtsov auch bald das update liefern frisch aus Malta ;)

Leonidas
2016-07-05, 06:24:41
@leo: die 4gbit Chips sind gelabelt mit k4g4... die 8gbit k4g8...

Die Chips auf den verkauften 4gb Karten und letztere. Da dürften ja dann nur 4 stk. Verbaut sein.



Gibt es dafür Belege, welche Chips auf den 4GB-Retailkarten verbaut sind?

Hakim
2016-07-05, 06:43:08
Hm http://wccftech.com/amd-rx-480-4gb-cards-8gb-unlockable-bios-update/

Sind die Preise für die 4GB Version deshalb heute von 219€ auf 229€ gestiegen? :)

anddill
2016-07-05, 07:31:34
Gibt es dafür Belege, welche Chips auf den 4GB-Retailkarten verbaut sind?

Fotos hier im Forum:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11090628#post11090628
und folgende.

Screemer
2016-07-05, 07:49:01
Gibt es dafür Belege, welche Chips auf den 4GB-Retailkarten verbaut sind?
ähhh ja. die fotos die ein boardmember von seiner karte gepostet hat. von dem post ging doch die diskussion aus.

-> http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11090628&postcount=1683

Hm http://wccftech.com/amd-rx-480-4gb-cards-8gb-unlockable-bios-update/

Sind die Preise für die 4GB Version deshalb heute von 219€ auf 229€ gestiegen? :)
eigentlich sind die dinger gar nicht mehr (http://geizhals.de/?cat=gra16_512&asd=on&asuch=480%204gb&xf=1440_RX+480#xf_top) zu bekommen. jeder der eine abgegriffen hat darf sich glücklich schätzen. allgemein ziehen die preise grad wieder an. unter 270€ ist gar nix zu bekommen und die preise klettern wacker richtung 300€ für die rev-version. ich sag mal die 1060 wird scheiße ;)

TerrorZivi
2016-07-05, 07:49:36
Gibt es dafür Belege, welche Chips auf den 4GB-Retailkarten verbaut sind?

Hab gestern nen TwinTurbo II auf meine Sapphire 4GB gepackt. Unter dem Originalkühler waren auch Samsung k4g80325fb.

hesTeR-
2016-07-05, 08:10:18
die 1060 wird bestimmt nicht scheisse, sondern sie wird erstmal nicht verfügbar sein. Außer NV kann die ganzen chips die für 70er und 80er nicht reichen dort noch verwursten.

@ andill danke für den Test, sehr schön!

Tja eine 4gb für 219 wäre wirklich ein guter Deal gewesen, egal ob jetzt auf 8gb unlockbar aber einfach vom P/L ich beziehe in meine Überlegungen was ich kaufe ja auch imemr gute gebrauchtkarten mit ein und in regionen von 300 wird die Karte für mich unatraktiv.

Screemer
2016-07-05, 08:13:41
das mit dem smilies hat früher auch mal besser funktioniert ;( ich hab erst mal gar keine erwartungshaltung zur 1060.

Unicous
2016-07-05, 09:30:29
Die 4GB SKUs der Referenzversion waren wohl wirklich nur dazu da, den Preispunkt von 200 Dollar zu halten und es ist wohl billiger 8Gb Chips in Großmengen einzukaufen. Die OEMs werden dann bald nachziehen, wie Gibbo@OcUK ja bereits sagte wollte AMD keine 4GB-Versionen nachproduzieren.