PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 480: (P)Review-Thread


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24

aths
2016-07-02, 11:23:28
Diese PCIe-Stromsache verdunkelt leider den Launch etwas. Wenn man davon absieht (was mir als Prinzipienreiter schwer fällt) ist der Launch aber positiv. Man könnte sagen "ATI ist zurück". Ja, es ist kein ATI mehr, ich meine auch nur vom Gefühl her.

- Kritik wie die schlechte Effizienz finde ich kleinlich. Das Preisleistungsverhältnis ist so gut, dass die Karte auch bisschen Strom ziehen darf.

- Produktbezeichnungen sind wieder übersichtlich.

- Das Marketing um die neuen Radeons dreht endlich auf. Ich will den Wettbewerb.

- ATI, äh AMD entwickelt nicht für Selbstbeweihräucherung ("most advanced GPU ever") zu Mondpreisen, sondern liefert das, was 'der Gamer' in der Breite braucht.

- Keine künstliche Produktalterung durch knapp bemessenen RAM. Wer die Karte günstig will, kauf mit 4 GB, wer mehr Lebensdauer will, kauft mit 8 GB. Es wird einem die Wahl gelassen.

Jaja man könnte auf dem D3D12-Level 12_0 rumhacken (eben kein 12_1) dafür gibts ordentlich implementierte Asynchronous Shader.

uweskw
2016-07-02, 11:25:24
.......Alle sieben getesteten Karten (1 Pressesample, 6x Retail) hatten das gleiche Feature. "Some boards" muss dann wohl schon ein arger Zufall sein :)

Kannst du eine Karte anfordern die nicht betroffen ist?
Wenn es nur "some" sind, sollte es für AMD ja kein Problem darstellen euch zum gegencheck ein i.O. Sample zukommen zu lassen.

greetz
US

anddill
2016-07-02, 11:29:10
So, das kam gerade rein - Antwort von AMD auf meine ganzen Daten und wohl auch später als Textbaustein für die Presse:



Alle sieben getesteten Karten (1 Pressesample, 6x Retail) hatten das gleiche Feature. "Some boards" muss dann wohl schon ein arger Zufall sein :)

"Some boards" von allen um Umlauf befindlichen Radeon Karten.;)


Ich bin ja zu Anfang davon ausgegangen, daß die Leistungsverteilung der Phasen und damit der 12V-Schienen fix ist. Scheint ja nun nicht nur fixe Hardware zu sein.
So ganz überzeugt bin ich immer noch nicht, ob die Hardware genügend flexibel programmierbar ist um die Lastverteilung unabhängig von der Gesamtlast zu regulieren. Am Ende wird vielleicht nur das PT runtergesetzt. Das würde auch nur eine geänderte Variable in Treiber sein, ein schnell zu strickender Fix.
Nur daß dann die ganzen Tests der Grafikleistung neu gemacht werden müssen.

scully1234
2016-07-02, 11:30:57
Nur weil der ein oder andere meint in seinem Staubfänger von Anno 2005 das PT auf 150% setzen zu müssen, um es der Karte mal richtig zu geben, .

Was ist denn das für ne Rechtfertigung:freak:

Der Kunde soll jetzt schuld sein ,weil er sich 0815 Hardware gegönnt hat, die mit ner 0815 480er nicht klar kommt, weil diese die Spezifikationen sprengt?

Genau das ist der primäre Kundenkreis den sie angepeilt haben ,und das hätte AMD auch mit einkalkulieren müssen. Die Werbung ist konsequent auf ''Geiz ist Geil'' getrimmt,und zieht somit eben auch solche Kundschaft an,und keine Enthusiasten mit Highendboards mit zusätzlicher Stromversorgung für die Slots.

Ausserdem ist das Problem mit eingreifenden Schutzschaltungen(wie in den Videos zu sehen) doch sehr wohl schon unter Standardkonfig der Fall und nicht erst wenn man es der Karte richtig besorgt

Ätznatron
2016-07-02, 11:33:48
Am Ende wird vielleicht nur das PT runtergesetzt. Das würde auch nur eine geänderte Variable in Treiber sein, ein schnell zu strickender Fix.
Nur daß dann die ganzen Tests der Grafikleistung neu gemacht werden müssen.

Ja, die Tests müssten eventuell wiederholt werden, aber um innerhalb der Specs zu bleiben, reicht doch eine Absenkung auf 162 Watt aus, oder sehe ich da was falsch?

Herr Doktor Klöbner
2016-07-02, 11:38:09
Die übliche Testkonfiguration der Redaktionen sind sehr solide Ober- bis Spitzenklassekomponenten. Interessant wäre mal den Bodensatz der Board zu testen die ganzen Biostar/Asrock-Boards der 50,- Klasse wo naturgemäß an jedem Cent gespart wurde, genau so ein Teil ( Asrock H61 ) werkelt auch bei mir ohne Auffälligkeiten. Mit dieser Board-Klasse sollte man mal einen Stresstest machen, das ein 200,- Z170 Ultra-Gaming de Luxe das klaglos mitmacht ist ja keine Überraschung.

Menace
2016-07-02, 11:38:25
Jetzt mal abwarten, was die Software-Lösung bringt. Wenn sie es lösen können, ist doch prima. Haben auf die Kritik gehört und ändern es. Solange sie nicht in einem ungelöstem Problem in einem Jahr schreiben, dass sie wussten, dass uns das Nichteinhalten der Specs gefällt, ist doch alles gut. Und eine gute Werbung für qualitative hochwertige Test wurde auch noch abgeliefert.

Loeschzwerg
2016-07-02, 11:39:36
- Audio macht bei mir eine SB ZxR inkl diesem Tisch-Regler. Dort habe ich je nach Bedarf mein Headset oder den Monitor via 3,5mm Klinke eingesteckt. Mit der 480 habe ich _massives Spulen-fiepen im Monitor_ wenn ich dessen "boxen" nutze. Das tuh ich leider vergleichsweise häufig. Doof. Mit der 280 passiert das nicht...


Kenne ich wie gesagt von der Nano auch. Man kann da fast das Takt-/Lastverhalten mithören. *übertrieben ausgedrückt*

uweskw
2016-07-02, 11:41:36
.........Nur daß dann die ganzen Tests der Grafikleistung neu gemacht werden müssen.


Die wirklich interessanten Karten kommen doch ohnehin erst mit den Customs. Leiser, schneller, sparsamer und in den Specs.

greetz
US

woodsdog
2016-07-02, 11:45:49
Kenne ich wie gesagt von der Nano auch. Man kann da fast das Takt-/Lastverhalten mithören. *übertrieben ausgedrückt*
nur um sicher zu gehen... das Spulen-fiepen hast du auch im MONITOR? oder doch auf der Karte?

karte ist bei mir wie gesagt völlig unauffällig.

anddill
2016-07-02, 11:48:49
Ja, die Tests müssten eventuell wiederholt werden, aber um innerhalb der Specs zu bleiben, reicht doch eine Absenkung auf 162 Watt aus, oder sehe ich da was falsch?

Wenn Du es ganz genau machen willst landest Du irgendwo um 66Wx2+3,3V-Schiene, also im 140W-Bereich. Aber erst mal abwarten, vielleicht ist der PWM-Controller ein Wunder an Flexibilität und Programmierbarkeit.
Vielleicht wühl ich mich heut nachmittag mal durch das Datenblatt, falls ich es finde.

Die wirklich interessanten Karten kommen doch ohnehin erst mit den Customs. Leiser, schneller, sparsamer und in den Specs.

greetz
US
Nur wenn die ein komplett neu entwickeltes PCB mit anderer Lastverteilung haben. Nur einen 8-Pin ranklatschen hilft dem PCIe Slot kein Stück.

(del)
2016-07-02, 11:49:21
Warum der negative Unterton? Ist doch an sich eine gute Nachricht.

1.) Weil die Mail nicht von den Technikern, sondern wieder vom Marketing kam
2.) Weile es mit "some boards" einen sehr eigenen Beigeschmack hat

dildo4u
2016-07-02, 11:49:46
Wenn der Fix per Treiber kommt bremst es dann nicht auch Custom Karten ein?

Ätznatron
2016-07-02, 11:49:52
Wenn Du es ganz genau machen willst landest Du irgendwo um 66Wx2+3,3V-Schiene, also im 140W-Bereich. Aber erst mal abwarten, vielleicht ist der PWM-Controller ein Wunder an Flexibilität und Programmierbarkeit.
Vielleicht wühl ich mich heut nachmittag mal durch das Datenblatt, falls ich es finde.

Ich hatte hier im Thread irgendwas von max +8% auf den Basiswert gelesen und habe als Basis die 75 Watt bzw. 150 Watt genommen.

anddill
2016-07-02, 11:50:09
1.) Weil die Mail nicht von den Technikern, sondern wieder vom Marketing kam
2.) Weile es mit "some boards" einen sehr eigenen Beigeschmack hat
2. ist wegen 1. ;)

Ich hatte hier im Thread irgendwas von max +8% auf den Basiswert gelesen und habe als Basis die 75 Watt bzw. 150 Watt genommen.
Das ist die Spannungstoleranz.

tdon
2016-07-02, 11:55:36
AMD lügt doch nur wo es geht. Das hört sich alles nicht ehrlich an, wie sie mit dem Problem umgehen. Typisch Marketing.

Loeschzwerg
2016-07-02, 11:56:09
nur um sicher zu gehen... das Spulen-fiepen hast du auch im MONITOR? oder doch auf der Karte?

karte ist bei mir wie gesagt völlig unauffällig.

Ich meine schon die "Einspeisung" auf die Klinke Buchse, wobei es bei mir den Onboard Sound betrifft. Die Lösung ist eine USB Soundkarte (oder Digitalausgang/Toslink; THX @ Ulukay).

Das Spulenfiepen ist wieder ein andere Thema, nur da hat das UV recht gut geholfen.

Linmoum
2016-07-02, 12:00:53
AMD lügt doch nur wo es geht. Das hört sich alles nicht ehrlich an, wie sie mit dem Problem umgehen. Typisch Marketing.
Was hört sich nicht ehrlich an?

Stand der Dinge ist, dass man es jetzt bei AMD intern (ob bei 100 oder 5 Boards mal ausgeklammert) reproduzieren konnte.
Stand der Dinge ist genauso, dass im voraus AMD und die PCI-SIG keine Auffälligkeiten festgestellt haben.

Sie könnten also genauso gut weiterhin behaupten, dass sie nichts finden und im voraus die Testläufe ja bestanden wurden - machen sie aber nicht.

dildo4u
2016-07-02, 12:02:17
Ich sehe das auch positiv jetzt werden sie ihre Test's für die nästen Karten anpassen.

Ätznatron
2016-07-02, 12:03:30
2. ist wegen 1. ;)


Das ist die Spannungstoleranz.

Es wird doch trotzdem eine gewisse Toleranzschwelle auch bei der Leistungsaufnahme geben.

Lightning
2016-07-02, 12:09:12
Diese PCIe-Stromsache verdunkelt leider den Launch etwas. Wenn man davon absieht (was mir als Prinzipienreiter schwer fällt) ist der Launch aber positiv. Man könnte sagen "ATI ist zurück". Ja, es ist kein ATI mehr, ich meine auch nur vom Gefühl her.

- Kritik wie die schlechte Effizienz finde ich kleinlich. Das Preisleistungsverhältnis ist so gut, dass die Karte auch bisschen Strom ziehen darf.

- Produktbezeichnungen sind wieder übersichtlich.

- Das Marketing um die neuen Radeons dreht endlich auf. Ich will den Wettbewerb.

- ATI, äh AMD entwickelt nicht für Selbstbeweihräucherung ("most advanced GPU ever") zu Mondpreisen, sondern liefert das, was 'der Gamer' in der Breite braucht.

- Keine künstliche Produktalterung durch knapp bemessenen RAM. Wer die Karte günstig will, kauf mit 4 GB, wer mehr Lebensdauer will, kauft mit 8 GB. Es wird einem die Wahl gelassen.

Jaja man könnte auf dem D3D12-Level 12_0 rumhacken (eben kein 12_1) dafür gibts ordentlich implementierte Asynchronous Shader.

Ich würde das ja gerne ähnlich sehen, aber gerade den für mich wichtigsten Punkt (Preis/Leistung) finde ich nur gut; von einer neuen Generation und nach der ewigen 28nm-Durststrecke hatte ich mir mehr erhofft (nicht nur von AMD natürlich, Nvidia machts ja auch nicht besser).

Bin auch gespannt, was wegen der PCIe-Geschichte jetzt noch konkret passiert.

Spasstiger
2016-07-02, 12:11:24
Damit muss ein Bios-Update gemeint sein, sehe ich das richtig?

Mit Treiber-Lösungen könnten sie das Problem ja nur auf Kosten der Leistung angehn oder?
Treiber-Lösung:
We are already testing a driver that implements a fix [...]
Wenn das ein Power Limit von 150 Watt bedeutet, was zur Einhaltung der PCIe-Spec notwendig wäre, dann müssen die Tester leider nochmal ran, denn das kostet sicherlich Performance.
Man sollte einfach auf Herstellerdesigns mit 8-Pin-PCIe warten. 225 Watt wären dann möglich und mit der richtigen Kühlung plus maximiertem Powerlimit dürfte das auch nochmal gut Performance bringen, vielleicht sogar bis ran an die GeForce GTX 980.

kuj0n
2016-07-02, 12:12:38
Was ist denn das für ne Rechtfertigung:freak:

Der Kunde soll jetzt schuld sein ,weil er sich 0815 Hardware gegönnt hat, die mit ner 0815 480er nicht klar kommt, weil diese die Spezifikationen sprengt?

Genau das ist der primäre Kundenkreis den sie angepeilt haben ,und das hätte AMD auch mit einkalkulieren müssen. Die Werbung ist konsequent auf ''Geiz ist Geil'' getrimmt,und zieht somit eben auch solche Kundschaft an,und keine Enthusiasten mit Highendboards mit zusätzlicher Stromversorgung für die Slots.

Ausserdem ist das Problem mit eingreifenden Schutzschaltungen(wie in den Videos zu sehen) doch sehr wohl schon unter Standardkonfig der Fall und nicht erst wenn man es der Karte richtig besorgt
Ich rede von dem Menschen im AMD Forum, dessen PCIe Slot nicht mehr funktioniert, mit dem uralten zugestaubten Case, ohne richtige Belüftung. Nachdem er die 480 auf 1350MHz übertaktet hat und nach sieben Stunden Witcher 3 ein Problem feststellte.

Keine Ahnung ob das ein Troll ist, wenn man etwas Ahnung von OC hat, kann man sich vielleicht denken, dass das nicht die schlauste Idee ist.

Alles andere wird doch jetzt geklärt.

Troyan
2016-07-02, 12:23:21
Die schlauste Idee ist es auch nicht, ein Produkt zu verkaufen, dass nicht übertaktet werden darf, weil man damit sein Mainboard brutzeln kann.

Es ist auch AMDs Verantwortung Hardware und Software zu programmieren, die eine solche Einstellung nicht erlauben. AMD erlaubt das Erhöhen der Taktrate und des Powerlimits in ihrem Treiber. Das ist so als wenn man Drogen verkauft und sich keiner Verantwortung bewusst sein müsste, weil die Leute diese freiwillig einnehmen...

Menace
2016-07-02, 12:26:56
Ach, Troyan. Deine Dauerwerbesendung nervt. Etwas Eigenverantwortung darf man einem Übertakter schon geben. :rolleyes: Sapere aude darf man hoffentlich auch einen PC-Nutzer zumuten.

Digidi
2016-07-02, 12:29:05
Na da bin ich mal auf den 5. Gespannt. Ich kann mir gut vorstellen das man die gpu untervoltet. Das ging ja sogar sehr gut bei vermeintlich schlechten Samples die sich schlecht Übertakten lassen. Da kann man locker 30w einsparen ohne Leistungsverlust.

Ich glaube wirklich das es nur einige Karten sind.namkichndie die einen zu hohe asic haben. @format_c wie hoch ist denn der asic deiner Karten?

Troyan
2016-07-02, 12:38:34
Ach, Troyan. Deine Dauerwerbesendung nervt. Etwas Eigenverantwortung darf man einem Übertakter schon geben. :rolleyes: Sapere aude darf man hoffentlich auch einen PC-Nutzer zumuten.

"Eigenverantwortung"? Du meinst, wenn die Bremsen eines Autos bei 150km/h aufgrund eines Produktfehlers nicht mehr funktionieren, dann ist der Autofahrer schuld und nicht der Hersteller? :rolleyes:

Das Ökosystem PCIe hat klare Richtlinien, die auch für Transparenz sorgen sollen. Eigenverantwortung hat nicht der Kunde sondern wohl der Hersteller des Produktes, der mit dem Siegel des Ökosystems wirbt.

Wenn das Übertakten zur Beschädigung des Mainboards führen könnte, weil die Karte außerhalb festgelegter Spezifikationen aufgrund eines Produktfehlers betrieben wird, dann ist dies doch wohl kaum im Verantwortungsbereich des Benutzers. Man darf keine Einstellungen erlauben, die solche Konsequenzen haben können. Vor Allem nicht, wenn dies innerhalb des eigenen Treiberpanels geschieht.

Wenn die Leute ein Bios raufspielen oder per Hardmod die Spannung ändern, kann man von Eigenverantwortung reden. Aber ein Regler von 0% auf +50% zu erhöhen, sollte keine Schädigung an anderen Bauteilen ermöglichen...

BlacKi
2016-07-02, 12:39:23
Na da bin ich mal auf den 5. Gespannt. Ich kann mir gut vorstellen das man die gpu untervoltet. Das ging ja sogar sehr gut bei vermeintlich schlechten Samples die sich schlecht Übertakten lassen. Da kann man locker 30w einsparen ohne Leistungsverlust.

Ich glaube wirklich das es nur einige Karten sind.namkichndie die einen zu hohe asic haben. @format_c wie hoch ist denn der asic deiner Karten?
erstens hätte man das schon früher machen können, zweitens würden damit einige karten instabil werden, manche 390er schaffen auch fast nix an undervolting.

das niedrigere powercap macht dagegen mehr sinn. die masse wird die 10% leistungsverlust kaum bemerken^^

Menace
2016-07-02, 12:44:24
Autovergleich. Glückwunsch!

Sobald ich anfange zu übertakten, weiß ich, dass ich meiner Hardware bestimmt nichts gutes tue. In den allermeisten Fällen wird der höherer Verschleiß halt viel später kommen, als die Grafikkarte genutzt wird. Da ich meine Hardware lange behalten möchte, setze ich z.B. meine Zieltemperatur herunter. Eigenverantwortung.

Da Du aber ein massives Problem siehst: Wie viele Mainboards sind nachweislich auf Grund der schlechten Spezifikationen durch die RX480 schon abgeraucht?

Nein, ich befürchte Du machst das, was Du hier immer machst: Werbung für nvidia und damit Rumgetrolle gegenüber AMD. Dass man auch differenziert diesen Fehler von AMD kritisieren kann sieht man an vielen Beispielen hier im Thread.

Edit: Hast Du eigentlich den Link zu Deiner Kritik bzgl. 970 und dem Abraten des Kaufs einer solchen Karte gefunden?

Digidi
2016-07-02, 12:45:13
Das wird Amd nicht tun denn dann Ware der shitstorm riesig. Die senken die Spannung oder wenn sie es könne teilen sie es anderster auf. Lieber lassen sie 5% der Karten die mit Undervolting nicht funktionieren zurückgehen als den shitstorm zu ernten

Disco_STFU
2016-07-02, 12:45:52
"Eigenverantwortung"? Du meinst, wenn die Bremsen eines Autos bei 150km/h aufgrund eines Produktfehlers nicht mehr funktionieren, dann ist der Autofahrer schuld und nicht der Hersteller? :rolleyes:


Toller Vergleich echt... :uup:

Civtam
2016-07-02, 12:50:13
Verglichen mit dem 3,5 GB + 0,5 GB Betrug ist das doch deutlich zahmer. PCI-Signal hat die Karte doch abgenommen und getestet.

Linmoum
2016-07-02, 12:52:28
Ist wirklich schlimm.

Nüchterne und sachliche Kritik ist angebracht, alles andere ist purer Kindergarten.
Wundert aber nicht, dass jemand wie Troyan bei seiner "Kritik" fröhlich ignoriert, dass AMD von der PCI-SIG bescheinigt bekommen hat, dass alles in Ordnung ist.

Digidi
2016-07-02, 12:53:18
Spätestens mit den custom Modellen ist der Makel beseitigt da schlagen dann auch die meisten zu!

MadPenguin
2016-07-02, 12:55:47
Spätestens mit den custom Modellen ist der Makel beseitigt da schlagen dann auch die meisten zu!

Genauso ist es. Troyan kannst du bitte aufhören dich so daran aufzugeilen und auch hier alles zuzumüllen?

Gipsel
2016-07-02, 12:55:59
Ich bin ja zu Anfang davon ausgegangen, daß die Leistungsverteilung der Phasen und damit der 12V-Schienen fix ist. Scheint ja nun nicht nur fixe Hardware zu sein.
So ganz überzeugt bin ich immer noch nicht, ob die Hardware genügend flexibel programmierbar ist um die Lastverteilung unabhängig von der Gesamtlast zu regulieren.Das auf der RX480 ist ja im Prinzip ein 6 Phasen DC-DC-Regler über den die Versorgung der GPU läuft (der Speicher hat nochmal was Eigenes). Vermutlich hängt ein Teil der Phasen am PCIe-Slot, der andere Teil am 6Pin-Stecker (die verschiedenen Spannungsquellen auf der GPU direkt zu verbinden ist wohl möglich aber vielleicht nicht die allerbeste Idee, wenn die beiden von verschiedenen Rails des Netzteils gespeist werden; aber damit kenne ich mich nicht aus). Viele Controller kann man doch auch auf eine reduzierte Anzahl von Phasen konfigurieren, sprich bei einem 6-Phasen-Controller kann man z.B. eine oder zwei Phasen deaktivieren. Dies würde es dann ermöglichen, das zwischen Slot- und 6Pin-Stecker zu verschieben (auf Kosten des verfügbaren Maximalstroms für die GPU, aber bei OC könnte man die eventuell nach einem Warnhinweis wieder aktivieren). Die Frage wäre wirklich, ob das Board-Design es vorsieht, dies über BIOS/Treiber zu erledigen.

Da laut Tests die Karten tendentiell etwas mehr über den Slot als den 6Pin-Stecker ziehen (und von der Platzierung des Reglers für den Speicher) könnte man z.B. vermuten, daß 4 Phasen am Slot hängen, 2 Phasen (und der Regler für den Speicher) am 6Pin-Stecker. Eine am Slot hängende Phase auszuknipsen würde also den Anteil des über den Slot gezogenen Stromes verringern. Wie viel? Die Messungen zeigen, daß ohne OC bis zu etwas über 80W über die 12V im Slot laufen. Unter obiger Annahme wären das 2/3 des Verbrauchs der GPU (inklusive Reglerverluste), die dann also etwas über 120W rauskommen würde. Das paßt auch zu den von AMD genannten 110W nur für die GPU und der für Schaltregler oft um die 90% liegenden Effizienz (110/125=88%). Mit einer ausgeknipsten Phase, also 3 von 5 Phasen am Slot, wären es dann noch 60% der gut 120W der GPU, die über den Slot kommen müssen, also irgendwas im Bereich 72-75W. Das wäre also immer noch 10% über der Spec (die 66W über die 12V im Slot sagt). Erst mit zwei ausgeschalteten Phasen wäre man sicher drunter.

Achja, das ist wohl der VRM-Controller (http://www.infineon.com/dgdl/pb-ir3567b.pdf?fileId=5546d462533600a4015356803a7228ef) auf der RX480.
IR’s Dynamic Phase Control adds/drops active phases based upon load current and can be configured to enter 1-phase operation and diode emulation mode automatically or by command. Keine Ahnung, wie flexibel das von der Firmware/Treiber gesteuert werden kann (edit: das Datenblatt des Controllers erwähnt mehrfach, daß Phasen "seamless", "on-the-fly" an- und ausgeknipst werden können).

Edit:
Und weiter (aus der vollständigen Version der 4-Phasenvariante (http://www.irf.com/product-info/datasheets/data/ir3565b.pdf)):
The digital PWM generator uses the outputs of the PID and the phase current balance control signals to determine the pulse width for each phase on the loop. [..] The compensator coefficients are user configurable to enable optimized system response.
Der Controller kann den Strom zwischen den Phasen ausgleichen (normalerweise, damit jede Phase gleich stark belastet wird). Aber da die benutzten Koeffizienten offenbar programmierbar sind, kann man das also eventuell auch dazu nutzen, bestimmte Phasen gezielt stärker zu belasten und andere zu entlasten, so daß man nicht direkt komplette Phasen ausknipsen muß.

Edit2:
Weiter hinten ist sogar direkt ein Beispiel dafür angegeben:
https://abload.de/img/ir3565b_vrm_controllerqjwe.png
Das scheint also definitiv zu gehen. Der Controller hat ein I²C-Interface, über welches sowas programmiert werden kann. Das muß also nur irgendwie ansprechbar sein, damit man den Stromverbrauch zwischen Slot und 6Pin-Stecker per Software verschieben kann (und ansprechbar ist es wohl, weil das ganze Monitoring, was z.B. GPU-Z anzeigt, wohl auch darüber läuft).

Genauso kann man Schwellen programmieren, ab welchem Ausgangsstrom jeweils eine Phase dazukommt (der Controller aktiviert bzw. deaktiviert an diesen Schwellen die Phasen automatisch). Wenn man das hochschiebt, kommt man im Normalbetrieb sicher mit 4 oder 5 Phasen aus (wäre halt schade um die zusätzlich verbauten Phasen). Da muß man nur hoffen, daß die höheren am Slot hängen (weil man die Reihenfolge offenbar nicht festlegen kann, die ist fest). Da wäre die Variante mit dem Offset zwischen den Phasen sicherlich etwas eleganter.

Rabiata
2016-07-02, 12:57:55
Was hört sich nicht ehrlich an?

Stand der Dinge ist, dass man es jetzt bei AMD intern (ob bei 100 oder 5 Boards mal ausgeklammert) reproduzieren konnte.
Stand der Dinge ist genauso, dass im voraus AMD und die PCI-SIG keine Auffälligkeiten festgestellt haben.

Sie könnten also genauso gut weiterhin behaupten, dass sie nichts finden und im voraus die Testläufe ja bestanden wurden - machen sie aber nicht.
Wenn alle Tester mit entsprechendem Equipment Lastüberschreitungen am PCI-Bus gemessen haben, ist es unwahrscheinlich, daß in der Entwicklungsabteilung bei AMD nichts bemerkt wurde. Außer die Tester dort wären extrem schlampig gewesen. Das heißt:

entweder die Qualitätssicherung bei AMD taugt nichts und die PCI-SIG hat mit Glück ein "Golden Sample" bekommen das irgendwie unter dem Limit blieb
oder AMD hat im Stil der Autoindustrie ein Testexemplar auf Einhaltung der Grenzwerte getrimmt und an die PCI-SIG geschickt, während der Rest der Welt auf Performance getrimmte Testexemplare bekommen hat.

Beides ist nicht sehr vertrauenerweckend und erinnert mich schon an die GTX 970-Affäre. Ich persönlich werde unter den Umständen sicherlich keine Referenz-RX 480 kaufen. Eine RX 470 könnte durchaus OK sein, weil generell bei weniger Leistungsaufnahme angesiedelt. Custom wäre auch denkbar. Aber auch da will ich erst ein paar unabhängige Tests sehen.

danarcho
2016-07-02, 13:00:04
"Eigenverantwortung"? Du meinst, wenn die Bremsen eines Autos bei 150km/h aufgrund eines Produktfehlers nicht mehr funktionieren, dann ist der Autofahrer schuld und nicht der Hersteller? :rolleyes:

Das Ökosystem PCIe hat klare Richtlinien, die auch für Transparenz sorgen sollen. Eigenverantwortung hat nicht der Kunde sondern wohl der Hersteller des Produktes, der mit dem Siegel des Ökosystems wirbt.


Dann schau mal, wie viele Nutzer sich die VRMs auf ihrem Mainboard mit einer übertakteten CPU gebutzelt haben. Bei manchen Mainboards schalten sogar die VRMs ab, wenn man einfach nur das Topmodell einbaut.
Wer OC betreibt, muss darauf achten, dass alle Komponenten mitspielen.
Das schließt, Netzteil, Mainboard und eine adequate Kühlung mit ein.

Um mal in deinem unsinnigen Vergleich zu bleiben: Das entspräche eher einer Lachgaseinspritzung(OC) und dann wundern, dass der Motor heiß wird.

Linmoum
2016-07-02, 13:00:38
Wenn alle Tester mit entsprechendem Equipment Lastüberschreitungen am PCI-Bus gemessen haben, ist es unwahrscheinlich, daß in der Entwicklungsabteilung bei AMD nichts bemerkt wurde. Außer die Tester dort wären extrem schlampig gewesen. Das heißt:

entweder die Qualitätssicherung bei AMD taugt nichts und die PCI-SIG hat mit Glück ein "Golden Sample" bekommen das irgendwie unter dem Limit blieb
oder AMD hat im Stil der Autoindustrie ein Testexemplar auf Einhaltung der Grenzwerte getrimmt und an die PCI-SIG geschickt, während der Rest der Welt auf Performance getrimmte Testexemplare bekommen hat.

Beides ist nicht sehr vertrauenerweckend und erinnert mich schon an die GTX 970-Affäre. Ich persönlich werde unter den Umständen sicherlich keine Referenz-RX 480 kaufen. Eine RX 470 könnte durchaus OK sein, weil generell bei weniger Leistungsaufnahme angesiedelt. Custom wäre auch denkbar. Aber auch da will ich erst ein paar unabhängige Tests sehen.
Genau, AMD schickt da einfach ein Golden Sample hin, um den Test zu bestehen. Fällt ja spätestens den Reviewern dann überhaupt nicht auf, falls da etwas nicht stimmt. :freak:

Digidi
2016-07-02, 13:04:22
@Rabiata

es gibt auch noch die 3 Möglichkeit: Amd hatten per Zufall sehr gute Samples zum Testen! Viele berichten ja bei Amd wie auch bei Nvidia das diesmal die siliconlottery mit einer großen Spannweite ausfällt!

Schlammsau
2016-07-02, 13:06:11
Aus meiner Sicht wird hier mal wieder das Haar in der Suppe gesucht, dass ist meckern auf gaaaanz hohem Niveau und sind auch mal wieder die üblichen Verdächtigen die das hier tun.

Ich glaube dieses Problem ist gar kein wirkliches und vielmehr rein theoretischer Natur. Sonst hätte AMD schon längst die nötigen Schritte einleiten müssen wenn sie nicht zu Tode geklagt werden möchten in den USA.

Stattdessen hört man sogut wie gar nix, bis auf ein halbgares Statement des Marketings das man dran arbeite und die Geschichte Softwareseitig lösen möchte.

Ascorvit
2016-07-02, 13:26:38
Das Ökosystem PCIe hat klare Richtlinien,

Deren Nichteinhaltung seitens Nvidia dir bisher scheissegal waren und lt. deinen aktuellen Posts auch weiterhin scheissegal sind.

Und nachdem ich mir jetzt mal die letzten 500 Posts von dir, verfasst in ca. 2 Monaten, angeschaut habe, finde ich es, die Moderation sollte da mal eingreifen.

Argo Zero
2016-07-02, 13:29:38
Warum muss die Moderation eingreifen, wenn du die Option hast, einfach nicht darauf einzugehen.
Ist ja keine Beleidigung oder dergleichen...

AtTheDriveIn
2016-07-02, 13:33:45
Die gtx960 und gtx1070 ziehen in den Spitzen übrigens auch zuviel über den Slot.

BlacKi
2016-07-02, 13:35:04
Viele berichten ja bei Amd wie auch bei Nvidia das diesmal die siliconlottery mit einer großen Spannweite ausfällt!
jaber wenn der chip schlecht ausfällt, dann erhöht sich nicht der stromverbrauch sondern der takt veringert sich. höchstens powertune könnte hardware seitig schwankungen erleiden. aber auch das ist amd bekannt, deswegen baut man normalerweidse reserven für schwankungen ein.

hq-hq
2016-07-02, 13:44:03
Die gtx960 und gtx1070 ziehen in den Spitze übrigens auch zuviel über den Slot.
:freak: ist ne Frage der Zeit nichtwahr

ist es nicht seltsam, dass AMD die Versorgung nicht primär über den 6Pin laufen lässt

Nikstar
2016-07-02, 13:46:29
Die gtx960 und gtx1070 ziehen in den Spitze übrigens auch zuviel über den Slot.
Das liest man häufig, Link?

interzone
2016-07-02, 13:49:41
ich habe die letzten Tage aufmerksam verfolgt, da ich nach dem Abrauchen meiner 5,5 Jahre alten HD5850 eine 35€ passiv-Fehlersuche-Notlösung eingebaut habe; und die neue Generation eh auf dem Radar war.

Bemerkenswert ist, wie sich AMD selbst torpediert.
Wie manche schon geschrieben hatten, ist die aktuelle Problematik der (zu) hohen Leistungsaufnahme eventuell Problemen mit dem aktuellen Stand des Chipfertigungsprozesses geschuldet.
Die 970 war das Minimalziel, und musste um jeden Preis übertroffen werden - koste es, was es wolle.
Wäre dieses Ziel nicht erreicht worden - wäre der Shitstorm eventuell noch größer es als aktuell der Fall ist.
AMD steht finanziell mit dem Rücken zur Wand. Das war vielleicht einfach die Flucht nach vorn; in einem Lose-Lose-Szenario.

Obwohl, die Karte befindet sich imo im preislichen sweet-spot, trotz der Mängel, die hoffentlich von von den Customer-Karten egalisiert, bzw. abgeschwächt werden.
Ein großer Kritikpunkt ist für mich die Leistungsaufnahme, die auf dem Level der 970 ist, was für einen neuen Fertigungsprozess schon recht heftig erscheint.

Die RX480 wäre meine Karte, wenn sie im Custom-Design 30 Watt weniger ziehen würde, dank besserer Kühlung leise/unhörbar wäre - da würde ich auch 10% weniger Leistung in Kauf nehmen. Ich brauche aktuell nur 1080/60Hz; wäre es mehr, würde ich zur 1070 greifen, wenn sie denn lieferbar wäre...und ich die Preisgestaltung von NV unterstützen möchte.
Ich warte mal auf Tests der Customer bzw. die RX 470.

Bemerkenswert finde ich auch, dass hier einige vermutlich Aktionäre sind, aber sicher keine Gamer.

Arcanoxer
2016-07-02, 13:58:21
Verglichen mit dem 3,5 GB + 0,5 GB Betrug ist das doch deutlich zahmer.Wenn im worst case dein PC aufgrund der #powergate Affäre abfackelt bezeichnest Du als zahmer?
Wobei das GTX970 Ärgernis in real World Szenarien praktisch kein Problem darstellt.

Als betrug kann auch die gelogene Effizens Steigerung angesehen werden, die von AMD vorab publiziert wurde.

#powergate schönreden ist nicht nur falsch, sondern auch fahrlässig und gefährlich!

Fallacy
2016-07-02, 14:05:03
Ob nun auf der B-Seite drei oder zwei verbunden sind, hat mit dem Fakt nichts zu tun, dass die Norm in gleichem Maße bewusst verletzt wurde.

Werf mal einen Blick in eine halbwegs aktuelle Version der Spezifikation, dann siehst du, dass der Pin schon lange nicht mehr reserved, sondern dedizierte 12V-Versorgung ist. Das wurde noch geändert, bevor überhapt erste PCIe-Karten auf den Markt gekommen sind. Wie hast du denn deinen Slot-Adapter zur Strommessung gebaut? Du kannst den Pin ja nicht einfach ignoriert haben.

Danke für den Link. Interessant und technisch fundiert. Was mich aber mal interessieren würde, speziell weil das im Artikel sogar angesprochen wird: Wieviel Spannungsabfall erzeugen die Messysteme zwischen PCIe-Slot des Boards und der Grafikkarte. Niedrigere Eingangsspannung bedeutet nämlich bei Schaltwandlern immer höheren Strom. Und meist auch etwas niedrigere Effizienz. Es macht in Sachen Strombelastung des Slots eine Menge aus, ob da an den Kontakten der Grafikkarte 11,5V oder 12,5V anliegen.

Auch wenn mit Stromzangen gemessen wird, kommt da zumindest ein zusätzlicher Stecker (der dann vielleicht nur 4 der 5 Kontakte durchschleift!?) dazu mit entsprechenden Verlängerungen. Das Teil von HT4U sieht aus als wenn es Messwiderstände nutzt, was nochmal höhere Verluste bewirkt.
Außerdem sind solche Zwischenbau-Messadapter noch eine zusätzliche Impedanz, die Wirkung der Pufferkondensatoren auf dem Board neben dem Slot wird dadurch behindert, was den Lastverlauf zusätzlich zackiger macht.


Es sind 5 mOhm High-Side-Shunts mit entsprechender Nachverstärkung. Den Spannungsabfall von ca. 20-30 mV bei 5A brauchen wir denke ich nicht ernsthaft hinsichtlich der nachfolgenden Schaltwandler diskutieren. Wichtig ist aus meiner Sicht ein möglichst reproduzierbarer Aufbau um eine Vergleichbarkeit zwischen den Tests zu ermöglichen.

Shuntmessung hat Vorteile und Nachteile, ebenso die Messung mit Stromzange. Interessanterweise diskutieren wir hier aber gerade darüber ob ein Schaltwandler sich mit 20-30 mV niedriger Eingangsspannung gravierend anders verhält, aber wenn im gleichen Zuge Oszilloskop-Messungen mit 8/10-bit Oszilloskopen gemacht werden um ein DC-Verhalten zu messen, dann ist die Welt in Ordnung. Es steht auch jedem frei sich die Angaben zur vertikalen Genauigkeiten bei Oszilloskopen einmal anzusehen. Selbst bei richtig teuren Examplaren fährt man diesebezüglich i.d.R. mit einem 01815-Multimeter besser. Idealerweise wählt man dann noch einen schön großen vertikalen Messbereich, damit die Genauigkeit gleich richtig in den Keller geht.

Wir haben uns aus Genauigkeitsgründen bewusst für eine Shunt-basierte Lösung entschieden, die wie mit einem Norm-gerecht kalibriertem Multimeter abgeglichen haben.


Ein gutes Sample, ein Netzteil mit leicht über 12V liegender Ausgangsspannung und eine Messmethode die nichts am Slot einfügt (zB. indem man Gesamtleistung der Karte - Leistung über Netzteilstecker rechnet), und schon ist man, zwar knapp aber sicher, im grünen Bereich.

Schau dir unsere Messungen an, in den Screenshots siehst du auch die Spannungswerte nach den Shunts - da liegt nur noch ein 8-Pin-Molex dazwischen der dann direkt auf dem Slot-Adapter angelötet ist. Alle Pegel liegen über 12V. Und was ist überhaupt die richtige Spannung für die Messung? 11.4 V, das Minimum, dass die Spec anzieht? Oder die nominalen 12V? Oder doch der Maximalwert?

Zergra
2016-07-02, 14:05:18
Wenn im worst case dein PC aufgrund der #powergate Affäre abfackelt bezeichnest Du als zahmer?
Wobei das GTX970 Ärgernis in real World Szenarien praktisch kein Problem darstellt.

Als betrug kann auch die gelogene Effizens Steigerung angesehen werden, die von AMD vorab publiziert wurde.

#powergate schönreden ist nicht nur falsch, sondern auch fahrlässig und gefährlich!

Oh man, das sind im normal fall ein paar Watt über den Spezifikationen. Dieses sind sogar noch sehr moderat ausgelegt. Aber schön immer drauf und sich gleich an jedem Sargnagel festklammern.

uweskw
2016-07-02, 14:06:39
.........Die 970 war das Minimalziel, und musste um jeden Preis übertroffen werden - koste es, was es wolle.
Wäre dieses Ziel nicht erreicht worden - wäre der Shitstorm eventuell noch größer es als aktuell der Fall ist.
.........

Die Performance der 970 und die Taktrate von 1266 war ja klar. Ich denke was sich geändert hat, ist vieviel Spannung der Chip braucht um sicher den Takt zu erreichen.
AMD hat offensichtlich nicht damit gerechnet dass der Chiphersteller den Prozess so vermasselt.
Wie stehen die Changen, dass sich das mit der zweiten oder dritten Charge verbessert?
Ich kenne das nur aus der Abpressung von Blechteilen. Da wird bei fast jeser Charge der Prozess optimiert um die Oberfläche zu verbessern oder Spring-Back zu minimieren.

greetz
US

Lightning
2016-07-02, 14:09:34
Das liest man häufig, Link?

z.B. hier bei einer 750 Ti: http://www.tomshardware.com/reviews/geforce-gtx-750-ti-review,3750-20.html

Allerdings eben "nur" in der Spitze, mit 64W im Durchschnitt.

Grundkurs
2016-07-02, 14:10:21
Leonidas hat im 3dcenter-Artikel herausgestellt, dass AMD das powergate zwar auf "einzelne" Karten schiebt die als "Einzelfall" nicht in Ordnung sein sollen, jedoch alle Reviewer welche die technischen Möglichkeit haben, den Stromverbrauch am PCIe-Anschluss zu messen, einheitlich einen über die erlaubte Spezifikation gemessenen Stromverbrauch festgestellt haben. Von Einzelfällen kann daher nicht die Rede sein. AMD versucht sich schlicht aus der Affäre zu quasseln und macht dabei eine mehr als schwache Figur.

Linmoum
2016-07-02, 14:12:43
Wenn im worst case dein PC aufgrund der #powergate Affäre abfackelt bezeichnest Du als zahmer?
Wobei das GTX970 Ärgernis in real World Szenarien praktisch kein Problem darstellt.

Als betrug kann auch die gelogene Effizens Steigerung angesehen werden, die von AMD vorab publiziert wurde.

#powergate schönreden ist nicht nur falsch, sondern auch fahrlässig und gefährlich!
Du solltest mal differenzieren. Nur weil jemand keine Untergangsszenarien bastelt und stumpf am bashen ist, redet er nicht automatisch etwas schön. Kritik muss nicht immer überzogen sein, sondern sie kann ebenfalls auch ganz nüchtern und sachlich geäußert werden, was hier bei sehr vielen der Fall ist.

Und ob hier irgendwas "fahrlässig und gefährlich" ist, bleibt abzuwarten. Es wurde schon seitenlang darüber diskutiert, wie die aktuelle Problematik einzuordnen ist. Solltest du vielleicht mal nachlesen. ;)

Ansonsten ging es bei der Effizienssteigerung ("up to 2.8") explizit um die 470, das steht auch u.a. auf den Folien vom 13. Juni. :)

Leonidas hat im 3dcenter-Artikel herausgestellt, dass AMD das powergate zwar auf "einzelne" Karten schiebt die als "Einzelfall" nicht in Ordnung sein sollen, jedoch alle Reviewer welche die technischen Möglichkeit haben, den Stromverbrauch am PCIe-Anschluss zu messen, einheitlich einen über die erlaubte Spezifikation gemessenen Stromverbrauch festgestellt haben. Von Einzelfällen kann daher nicht die Rede sein. AMD versucht sich schlicht aus der Affäre zu quasseln und macht dabei eine mehr als schwache Figur.
Dann würden sie nach den Testläufen (und die waren nicht nur AMD exklusiv!) im voraus abstreiten, dass es überhaupt Probleme gibt. Tun sie aber nicht.

Unrockstar
2016-07-02, 14:21:13
Also wenn ich so ein Unsinn aus dem Fefe Blog lese, wenn man nicht wirklich Ahnung von der Materie hat sollte man lieber garnichts schreiben:
Ähm wer istn dieser Spinner überhaupt?
Also für mich ist die Karte Solide.. Ich frag mich nur warum das PCB so massiv Überkonstruiert wurde?
mit einem 4+1 Phasen Design hätte man wohl die 150W gehalten.. Ist das eventuell das Referenzboard für die 490 aka Vega?

Alle blubbern was von Powergate Affäre.. Also ich lach mich nur noch Tod. Wo hat AMD denn das Dementiert? Man hat gesagt man prüft es, das ding ist aber bei der PCISIG durch ergo müssten die es ja auch gewusst haben. Ich seh das ziemlich entspannt, AMD hat nichts verschwiegen, und die PCISig hat das wohl auch abgesegnet. Mit 90% PTT sollte man auch dem ängstlichsten Hasenfuß auf nummer sicher wähnen.. Und lustigerweise würde dann die Karte auch noch besser den Turbo halten
Ich bin allerdings von einer ASIC von 85-90W für den großen P10 ausgegangen. Oder aber das Ding ist wirklich kein Vollaktiver, dann ist es quasi Tradition bei AMD

Gipsel
2016-07-02, 14:25:34
Die gtx960 und gtx1070 ziehen in den Spitzen übrigens auch zuviel über den Slot.Das schwächste Glied in der Kette dürften die Kontakte im Slot sein. Und für die sind die Spitzen nicht so wichtig, sondern nur etwas auf der Zeitskala von >100ms oder so, also im Prinzip die gemittelte Last. Die Spikes stören vielleicht den Onboard-Sound oder sowas, aber davon geht der Slot nicht kaputt.

anddill
2016-07-02, 14:31:14
@ Gipsel: Deine ersten beiden Absätze hatten wir hier schon mal abgehandelt. Format_C hat ausgemessen, daß die Phasen zu je 3 und 3 zwischen Slot und Stecker aufgeteilt sind. Die 7. Phase versorgt den RAM aus den 3,3V des Slots, die ist safe.

Danke fürs raussuchen der relevanten Beschreibungen. Sieht ja gut aus für AMD, das sollte über Wattman über Vorgaben im Treiber also anpassbar sein. Nur die Effizienz der Karte selbst wird minimal durch die asymmetrische Lastverteilung leiden. Aber das dürfte akademisch sein, im Promille-Bereich bei der Verschiebung die hier nötig ist.
Bliebe nur die Frage wie das der Linux-Treiber händelt. Da wird die Entwicklung noch etwas hinterherhinken, aber ehe der in den Mainstreamdistis integriert ist wird sicher auch eine Lösung per vBIOS zur Verfügung stehen.




Es sind 5 mOhm High-Side-Shunts mit entsprechender Nachverstärkung. Den Spannungsabfall von ca. 20-30 mV bei 5A brauchen wir denke ich nicht ernsthaft hinsichtlich der nachfolgenden Schaltwandler diskutieren. Wichtig ist aus meiner Sicht ein möglichst reproduzierbarer Aufbau um eine Vergleichbarkeit zwischen den Tests zu ermöglichen.

Shuntmessung hat Vorteile und Nachteile, ebenso die Messung mit Stromzange. Interessanterweise diskutieren wir hier aber gerade darüber ob ein Schaltwandler sich mit 20-30 mV niedriger Eingangsspannung gravierend anders verhält, aber wenn im gleichen Zuge Oszilloskop-Messungen mit 8/10-bit Oszilloskopen gemacht werden um ein DC-Verhalten zu messen, dann ist die Welt in Ordnung. Es steht auch jedem frei sich mal die Angaben zur vertikalen Genauigkeiten Auflösung bei Oszilloskopen der High-End-Klassen anzusehen -> selbst bei den richtig teuren Modellen fährt man i.d.R. mit einem 01815-Multimeter besser. Idealerweise wählt man dann noch einen schön großen vertikalen Messbereich, damit die Genauigkeit gleich richtig in den Keller geht.

Wir haben uns aus Genauigkeitsgründen bewusst für eine Shunt-basierte Lösung entschieden, die wie mit einem Norm-gerecht kalibriertem Multimeter abgeglichen haben.

Danke für die Zahlen. Ja, schon toll was moderne Messtechnik mit ein paar mV anfangen kann. Ich bin mit Spulen-Multimetern aufgewachsen ;)
Da musste man immer vorsichtig sein daß man überhaupt noch was misst. Ich hatte halt beim Anblick Eures Meßsystems gleich angefangen drüber nachzudenken wie Ihr die Shunts kühlt. :redface:
Aber stimmt schon, eine ATX-Verlängerung dürfte weitaus höhere Verluste haben als Euer Messaufbau.

Schau dir unsere Messungen an, in den Screenshots siehst du auch die Spannungswerte nach den Shunts - da liegt nur noch ein 8-Pin-Molex dazwischen der dann direkt auf dem Slot-Adapter angelötet ist. Alle Pegel liegen über 12V. Und was ist überhaupt die richtige Spannung für die Messung? 11.4 V, das Minimum, dass die Spec anzieht? Oder die nominalen 12V? Oder doch der Maximalwert?

Tja, wenn Du schon so fragst dann natürlich die 11,4V.

Troyan
2016-07-02, 14:33:58
Autovergleich. Glückwunsch!

Ich habe sogar einen viel besseren Vergleich:
Jeder, der seine GTX970 mit mehr als 3,5Gb Speichernutzung verwendet, betreibt diese außerhalb der Spezifikation (aka Übertaktung).

Jetzt kannst du anbringen: "nvidia bewirbt die Karte aber mit 4GB und 256bit".

Dann sage ich dir: AMD bewirbt die RX 480 auch mit "bis zu* 5,8TFLOPs" und "150W".

Man betreibt die Karte nicht außerhalb der Spezifikation, wenn man sie mit 1266MHz laufen lassen möchte. Das die Karte dann aber bis zu 250W benötigt und rund 120W über den PCIe-Slot gezogen werden, wird nirgendwo tranzparent beschrieben oder kommuniziert.

*Nope, "bis zu" lasse ich nicht gelten. Hätte auch niemand bei nVidia, wenn die "bis zu 4Gb" geschrieben hätten. :freak:

Hakim
2016-07-02, 14:34:09
Ich glaube das viele custom oc Karten teilweise hohe Spitzen beim pcie haben aber halt im Durchschnitt dennoch unter den 75W sind. Die RX ist aber quasi Dauer über 75W von dem was ich gesehen habe. Und ich finde gerade ein Referenz Design vom Hersteller sollte in solchen Sachen vernünftig laufen, sprich es wäre nicht so schlimm gewesen wenn es ein XFX super dupa OC custom über pcie specs laufen würde

Nikstar
2016-07-02, 14:35:41
https://www.techpowerup.com/223833/official-statement-from-amd-on-the-pci-express-overcurrent-issue
... We are already testing a driver that implements a fix, and we will provide an update to the community on our progress on Tuesday (July 5, 2016)."
Schon bekannt? Falls ja doppelt hält besser.

Andron
2016-07-02, 14:36:20
Wenn im worst case dein PC aufgrund der #powergate Affäre abfackelt bezeichnest Du als zahmer?
Wobei das GTX970 Ärgernis in real World Szenarien praktisch kein Problem darstellt.

Als betrug kann auch die gelogene Effizens Steigerung angesehen werden, die von AMD vorab publiziert wurde.

#powergate schönreden ist nicht nur falsch, sondern auch fahrlässig und gefährlich!

Ich würde auch keinem, der an einer RX 480 interessiert ist, raten zum Referenzdesign zugreifen. Warum kein 8 Pin Stecker mit der Option die Karte auch mit nur 6 Pin zu betreiben verbaut wurde, wie es diverse Customkarten machen werden, ist mir unbegreiflich.
Im Gegensatz zum 970 Betrug werden es aber die Customs (vermutlich) richten.
Das Referenzdesign ist mal wieder für die Tonne. Bei Computerbase ist eine maximierte RX480, die ihren maximalen (Standard-)Boost erreicht, fast auf GTX 980 Niveau. Mit besserem Kühler, niedrigeren Temperaturen und etwas moderateren Spannungen und vor allem vernünftiger Stromversorgung dürfte das ein gutes Gesamtpaket werden.
Mit leichtem OC (vor allem beim limitierenden VRam) Könnte knapp die Leistung von Custom GTX980 erreicht werden, was zu den erwarteten Preisen + 8 GB VRam ein gutes Angebot wäre.
Dass NVidia in Sachen Effizienz immer noch in einer eigenen Liga spielt, ist natürlich auch nicht von der Hand zu weisen.

Arcanoxer
2016-07-02, 14:36:24
Es wurde schon seitenlang darüber diskutiert, wie die aktuelle Problematik einzuordnen ist. Solltest du vielleicht mal nachlesen. ;)
Habe ich.
Ganz ehrlich, ich traue den beteiligten keine objektivität bei den Thema zu, was übrigens ausgelagert gehört.
Das sind wohl die perks der Moderation.

anddill
2016-07-02, 14:36:44
Ähm wer istn dieser Spinner überhaupt?
Ein typischer Softwaremensch. Hat halt mehr Ahnung als der normale Smartphonestreichler und Viren-Installierer, aber steckt im Thema Hardware nicht so tief drin wie er das denkt.


Also für mich ist die Karte Solide.. Ich frag mich nur warum das PCB so massiv Überkonstruiert wurde?
mit einem 4+1 Phasen Design hätte man wohl die 150W gehalten.. Ist das eventuell das Referenzboard für die 490 aka Vega?



Wirkungsgrad. Dieses massive Überdimensionieren hilft die Verluste zu verringern. Sieht wie ein verzweifelter Versuch aus die Karte in das geplante elektrische Leistungsfenster zu quetschen.

Screemer
2016-07-02, 14:40:49
Leonidas hat im 3dcenter-Artikel herausgestellt, dass AMD das powergate zwar auf "einzelne" Karten schiebt die als "Einzelfall" nicht in Ordnung sein sollen, jedoch alle Reviewer welche die technischen Möglichkeit haben, den Stromverbrauch am PCIe-Anschluss zu messen, einheitlich einen über die erlaubte Spezifikation gemessenen Stromverbrauch festgestellt haben. Von Einzelfällen kann daher nicht die Rede sein. AMD versucht sich schlicht aus der Affäre zu quasseln und macht dabei eine mehr als schwache Figur.
der zustand, dass das "jeder" festgestellt hat ist einfach kein fakt und ich finde es schlimm, dass das so dargestellt wird. vor allem von leo auf der main, der gar keine eigenen tests fährt. jeder redakteur, der das feststellt sollte das auch so sagen. leute die zusammenfassen, sollten es aber nicht als fakt darstellen. ich kenne zumindest ein englischsprachiges review mit entsprechendem equipment, dass das nicht festgestellt hat: https://techaltar.com/amd-rx-480-gpu-review/4/. bei knapp 130w kann da gar nicht zu viel über den pci-e-slot laufen, wenn der peg auch noch belastet wird.

Habe ich.
Ganz ehrlich, ich traue den beteiligten keine objektivität bei den Thema zu, was übrigens ausgelagert gehört.
Das sind wohl die perks der Moderation.
boah. jetzt geht's aber los. moderation angreifen, externe wie igor und leander als nicht objektiv abstempeln. krass.

Digidi
2016-07-02, 14:54:24
Das schwächste Glied in der Kette dürften die Kontakte im Slot sein. Und für die sind die Spitzen nicht so wichtig, sondern nur etwas auf der Zeitskala von >100ms oder so, also im Prinzip die gemittelte Last. Die Spikes stören vielleicht den Onboard-Sound oder sowas, aber davon geht der Slot nicht kaputt.

Ich weiß nicht ob die Spikes nicht sogar schlimmer sind. Immerhin jagt man da eine sehr große Strommenge in kurzer Zeit über einen Engpass. Das heißt sehr viele Elektronen wollen sich durch die Engstelle da durchdrängen. Das ist wahrscheinlich kritischer als wenn es da durchschnittlich etwas wärmer wird.

Aber nochmal ich werde ja hier ignoriert. Bei USB Typ C sind 20V bei 2,5A pro Pin spezifiziert, und der Pin sieht kleiner aus als die von PCIe. So Long....

Arcanoxer
2016-07-02, 14:56:26
boah. jetzt geht's aber los. moderation angreifen, externe wie igor und leander als nicht objektiv abstempeln. krass.
Moderation angreifen. ;D
Wen ich für objektiv halte lass mal meine sorge sein.
Aber ich kann dich beruhigen, igor habe ich damit bestimmt nicht gemeint.

Troyan
2016-07-02, 14:57:14
der zustand, dass das "jeder" festgestellt hat ist einfach kein fakt und ich finde es schlimm, dass das so dargestellt wird. vor allem von leo auf der main, der gar keine eigenen tests fährt. jeder redakteur, der das feststellt sollte das auch so sagen. leute die zusammenfassen, sollten es aber nicht als fakt darstellen. ich kenne zumindest ein englischsprachiges review mit entsprechendem equipment, dass das nicht festgestellt hat: https://techaltar.com/amd-rx-480-gpu-review/4/. bei knapp 130w kann da gar nicht zu viel über den pci-e-slot laufen, wenn der peg auch noch belastet wird.


Und was hat er getestet? Welche Anwendung?!

Hier meint jemand, dass seine 3x RX 480 Karten nach 6h Mining sein Board zerstört hätten: https://bitcointalk.org/index.php?topic=1433925.msg15438155#msg15438155

raumfahrer
2016-07-02, 14:57:14
Leonidas hat im 3dcenter-Artikel herausgestellt, dass AMD das powergate zwar auf "einzelne" Karten schiebt die als "Einzelfall" nicht in Ordnung sein sollen, jedoch alle Reviewer welche die technischen Möglichkeit haben, den Stromverbrauch am PCIe-Anschluss zu messen, einheitlich einen über die erlaubte Spezifikation gemessenen Stromverbrauch festgestellt haben. Von Einzelfällen kann daher nicht die Rede sein. AMD versucht sich schlicht aus der Affäre zu quasseln und macht dabei eine mehr als schwache Figur.

Wer weiß, wie viele Karten produziert wurden? Wie viele Karten wurden positiv auf das Verhalten getestet? Das sind erstmal Stichproben. Theoretisch kann da sogar ein Bias drin sein, wenn die alle aus einer Charge kommen. Keiner kann dir sagen, ob die Auswahl repräsentativ ist.

Schön ist das Problem nicht, AMD könnte auch etwas transparenter sein als "Softwareupdate" und "einige" Karten, und mal Butter bei die Fische und Lachs auf den Tisch legen. Aber hier Vorsatz --ob absichtlich Spezifikationen gebrochen oder jetzt un-/absichtliche Mängel zu vertuschen-- zu unterstellen finde ich zur Zeit unangebracht.

Wie zeitnah kann man die Reaktion von AMD jetzt eigentlich einschätzen? Wann wurde AMD von den Testern erstmals zur Thematik angesprochen?

anddill
2016-07-02, 14:58:28
der zustand, dass das "jeder" festgestellt hat ist einfach kein fakt und ich finde es schlimm, dass das so dargestellt wird. vor allem von leo auf der main, der gar keine eigenen tests fährt. jeder redakteur, der das feststellt sollte das auch so sagen. leute die zusammenfassen, sollten es aber nicht als fakt darstellen. ich kenne zumindest ein englischsprachiges review mit entsprechendem equipment, dass das nicht festgestellt hat: https://techaltar.com/amd-rx-480-gpu-review/4/. bei knapp 130w kann da gar nicht zu viel über den pci-e-slot laufen, wenn der peg auch noch belastet wird.

Interessantes Review. Die hatten wohl einen Hauptgewinn in der Siliziumlotterie. Die Spieleleistung liegt da auch etwas höher als im Schnitt, anscheinend hatten die eine Karte erwischt die konstant den Boost-Takt gehalten hat.
Allerdings haben sie die Stromaufnahme nur bei einem Spiel gemessen, und auch die Idle-Werte sind ungewöhnlich niedrig, Glaube nicht, daß die schon den gefixten Treiber hatten.

Fliwatut
2016-07-02, 14:59:16
Gab es sowas bei der GTX970?
Natürlich nicht; http://www.sweclockers.com/test/19332-nvidia-geforce-gtx-980-och-gtx-970/23#content "Toppklass" :rolleyes:

Birdman
2016-07-02, 15:01:04
ich kenne zumindest ein englischsprachiges review mit entsprechendem equipment, dass das nicht festgestellt hat: https://techaltar.com/amd-rx-480-gpu-review/4/. bei knapp 130w kann da gar nicht zu viel über den pci-e-slot laufen, wenn der peg auch noch belastet wird.
lol @techaltar
An diesen gefakten Balken hält sich das rote Lager seit dem RX480 release fest...
Diese Werte in Frage zu stellen wird natürlich nicht in Betracht gezogen, auch nicht wenn es das einzige! in über 100! Reviews ist, welche bei der Karte 116 Watt Verbrauch gemessen hat und alle andern bei 150W+ ankommen....

Screemer
2016-07-02, 15:02:03
Und was hat er getestet? Welche Anwendung?!

Hier meint jemand, dass seine 3x RX 480 Karten nach 6h Mining sein Board zerstört hätten: https://bitcointalk.org/index.php?topic=1433925.msg15438155#msg15438155
sagt mal habt ihr nix anderes zu tun als foren zu stalken und nach so ner scheiße zu suchen? ist echt nicht mehr auszuhalten.

lol @techaltar
An diesen gefakten Balken hält sich das rote Lager seit dem RX480 release fest...
Diese Werte in Frage zu stellen wird natürlich nicht in Betracht gezogen, auch nicht wenn es das einzige! in über 100! Reviews ist, welche bei der Karte 116 Watt Verbrauch gemessen hat und alle andern bei 150W+ ankommen....
obiges gilt auch für dich. ich kann mir kaum vorstellen, dass du alle reviews dieser welt kennst.

das die karte unstrittig zu viel über den pci-e zieht ist klar. dauerbelastung kann problematisch sein. das ist auch klar. warum dem so ist wird geprüft. euch scheint aber einer abzugehen dabei. ist ja nicht mehr feierlich hier. dieser thread besteht mittlerweile aus posts von scully1234, birdman, troyan, arcanoxer und den anderen amd hatern. da kommt nichts konstruktives aus der ecke. diskussionen zu reviews werden ins lächerliche gezogen. andere nutzer verlacht. schönes klima im 3dc.

scully1234
2016-07-02, 15:04:09
Was hört sich nicht ehrlich an?

Stand der Dinge ist, dass man es jetzt bei AMD intern (ob bei 100 oder 5 Boards mal ausgeklammert) reproduzieren konnte.
.

Genau das hört sich nicht ehrlich an

Glaubt doch kein Mensch der bei klaren Verstand ist ,das das bei internen Tests nicht schon vorher hätte hervor stechen müssen,bei dem ganzen Equipment zur Validierung.

Entweder war die (und das sehe ich am wahrscheinlichsten an)Karte nicht stark genug nachdem man ungefähr einschätzen konnte wo sich GP106 hinbewegt, und man entschied sich bewusst ,zum Überfahren der Spezifikationen, oder das Problem schleppt man schon seit dem Binning mit rum, und hat es einfach ignoriert nach dem Motto wird schon schief gehen.

Das das erst Aufgrund von externen unabhängigen Chroma Messungen zum Vorschein kommt, würde ich zu 100% als Baron Münchhausen Syndrom brandmarken.

Birdman
2016-07-02, 15:04:56
Ich finds gut dass die Leute vor den Folgen einer Verwendung der RX480 gewarnt werden.
Ich denke die Mobo Hersteller feiern sich aktuell grad einen ab, weil hier endlich wieder jemand kommt der die Leute dazu zwingt ein neues Board zu kaufen weil das alte abgefackelt ist.

Troyan
2016-07-02, 15:05:04
sagt mal habt ihr nix anderes zu tun als foren zu stalken und nach so ner scheiße zu suchen? ist echt nicht mehr auszuhalten.

Ich bin rein zufällig in einem Allerweltsenglischtechnikforum darauf gestoßen. ;D

AMD ruft die Rebellion aus, um die GPU zu befreien, aber freien Informationsfluss scheint man wohl dabei nicht gerne zu sehen.

DDR@AMD. :freak:

Digidi
2016-07-02, 15:05:04
@Scully1234

Natürlich AMD lässt die Karte so durchkommen weil bei Anderen das die Boards abrauchen und sie noch mehr Kosten und ärger haben. Oh man Oh mann

Hakim
2016-07-02, 15:06:07
Leute vergisst tech altar, schaut mal die Benchs, da steht eine RX480 bei Star Wars Battlefront in 1080p vor einer fury X, selbes Spiel bei CB zeigt das da die fury X über 30%! Vorsprung hat. Kann man nicht ernst nehmen

unl34shed
2016-07-02, 15:06:52
Und was hat er getestet? Welche Anwendung?!

Hier meint jemand, dass seine 3x RX 480 Karten nach 6h Mining sein Board zerstört hätten: https://bitcointalk.org/index.php?topic=1433925.msg15438155#msg15438155

Auf der 3,3V Schiene? Sehr merkwürdig :freak:

E: Wie bekommt man an einem Asus P7P55-LX, drei RX480 betrieben, ohne die Spezifikationen der PCI-E Slots zu überlasten? Jetzt mal von den Paar Watt die die 480 mehr zieht abgesehen, hat das Board nur 2 PCI-E 16x und über den 1x Slot sind lediglich 25W erlaubt.

Rabiata
2016-07-02, 15:07:59
Noch ein Kommentar zu 6-Pin vs. 8-Pin und sonstigen nötigen Änderungen:
Nach diesem Bild (http://images.anandtech.com/doci/10389/9310_ellesmere_cam4_02_0010_4K.jpg)(bei Anandtech) zu urteilen, wird wohl auch an Gehäuse und PCB ein bißchen was geändert werden müssen, um einen 8-Pin-Stecker unterzubringen. Die zwei Extra-Pins würden in einem Bereich landen, wo bisher andere Leitungen sind.

Und wenn man das schon anpackt, wieso nicht eine der bisher drei Phasen vom Slot wegnehmen und an den PCI-Stecker hängen? Dann wären wir bei

2 Phasen für 75W via Slot
und 4 Phasen für 150W via Stecker

und damit bei einer sinnvollen Aufteilung die sogar in der Spec wäre :smile:

illidan
2016-07-02, 15:09:00
*Nope, "bis zu" lasse ich nicht gelten. Hätte auch niemand bei nVidia, wenn die "bis zu 4Gb" geschrieben hätten. :freak:
Keine Karte liefert bei Powerviren die vollen FLOPs.

Mein Senf zur Karte: Mit 8GB, HEVC 10 Bit- & VP9-Support hat sie trotz ihrer erbärmlichen Effizienz eine Daseinsberechtigung und kann ein guter Kauf sein.
Wenn der Treiber-Fix für das PCIe-Stromproblem hinhaut, mitunter sogar das Referenzdesign.
Hoffentlich nähert sich die 8GB-Version noch der 200€-Marke, wenn die 1060 draußen ist. GCN 4 ist Pascal technisch insgesamt völlig unterlegen, P10 kann man da nicht zu ähnlichen Preisen anbieten. Bei GK104 hatte es die Käufer auch nicht interessiert, dass er weniger VRAM hat, obwohl es zwischen GCN 1.0 und Kepler keinen eindeutigen technischen Gewinner damals gab (GK104 damals effizienter in Spielen, aber heftige Compute-Schwäche).
Für einen guten Preis wär es mit den 8GB aber trotzdem ein guter Deal, so wichtig ist Effizienz für Desktop-Rechner auch wieder nicht.

GCN 4 ist aber einfach echt mies, in einigen Spielen gibts einen deutlichen Rückstand zu Hawaii. Nvidia hat mit Maxwell und Pascal immer weiter Flaschenhälse geschlossen, GP104 hat etwa in Hitman am stärksten gegenüber GM200 zugelegt. AMD ist das nicht gelungen.
Warten auf Vega, aber besser nichts dabei hoffen...

Birdman
2016-07-02, 15:09:22
Genau das hört sich nicht ehrlich an
Glaubt doch kein Mensch der bei klaren Verstand ist ,das das bei internen Tests nicht schon vorher hätte hervor stechen müssen,bei dem ganzen Equipment zur Validierung.
Wenn AMD das Problem angeblich mit einem Treiber lösen kann, ist es auch möglich dass ein Last-Minute Treiber der erst zu den Reviews fertig wurde, das ganze eingebrockt hat.
Wer weiss was da in letzter Sekunde noch an all für Rädchen im Treiber-Stellwerk gedreht wurde, um in den Benchmarks auch sicher vor der 970rev zu landen.

gedi
2016-07-02, 15:10:46
Ich weiß nicht, ob die Meldung bereits gepostet worden ist:

http://up.picr.de/26074506bu.jpg


Also doch ein Softfix für das Problem, welches dann der Vergangenheit angehören sollte :wink:

Screemer
2016-07-02, 15:12:20
ach ja mal was zum gegrillten p7p55 lx: https://www.techpowerup.com/forums/threads/fried-some-chips-on-my-mobo-w-gfx-card-will-it-happen-again.186398/

Auf der 3,3V Schiene? Sehr merkwürdig :freak:
da hat wohl der ram zu viel saft gezogen...

scully1234
2016-07-02, 15:15:37
Wenn AMD das Problem angeblich mit einem Treiber lösen kann, ist es auch möglich dass ein Last-Minute Treiber der erst zu den Reviews fertig wurde, das ganze eingebrockt hat.
Wer weiss was da in letzter Sekunde noch an all für Rädchen im Treiber-Stellwerk gedreht wurde, um in den Benchmarks auch sicher vor der 970rev zu landen.

Mich würde vor allem mal ne Stellungnahme der PCIe Sig interessieren, bzw was für ein Test Setup dort gefahren wurde ,das das unter dem Radar geblieben ist

Sehr merkwürdig

Menace
2016-07-02, 15:16:35
Habe ich.
Ganz ehrlich, ich traue den beteiligten keine objektivität bei den Thema zu, was übrigens ausgelagert gehört.
Das sind wohl die perks der Moderation.

Stimmt. Im Vergleich zu Dir, bringen die ja auch gar keine technische Erklärungen und Fachwissen mit. Auch bei Dir immer die gleiche Propaganda-Leier. Glückwunsch.

@Troyan:
AMD ruft die Rebellion aus, um die GPU zu befreien, aber freien Informationsfluss scheint man wohl dabei nicht gerne zu sehen.

DDR@AMD.

Auch das hier nur Trolling und auch noch Verharmlosung der DDR oder gibt es Menschen, die im Stasi-Knast in Kanada (oder wo auch immer sitzen), weil sie sich über die RS480 beschwert haben. :freak:

Edit: Hoffentlich funktioniert der Softfix auch halbwegs adäquat. Mir würde 140 W besser gefallen, als dass immer die 970 geschlagen wird.

Hakim
2016-07-02, 15:16:51
Die Frage ist nur ob sie es wirklich packen die Verteilung mehr auf den 6pin zu schieben was am besten wäre. Die einfachste Lösung wäre das PT um 5-10% zu senken, wobei alle Tests damit für die Tonne wären

illidan
2016-07-02, 15:18:45
Schon seit Kepler kann man in den Biosen die maximale Stromaufnahme für die unterschiedlichen Rails festlegen.
Wenn das in der Praxis auch so funktioniert, sollte es für AMD echt nicht schwer sein das zu fixen, sofern ihre Powertune-Steuerung nicht völlig für die Tonne wäre (was ich eigentlich nicht glauben kann).
Aber auch nicht optimal, dass der Treiber darin rumpfuscht. Bios-Update wäre besser.

scully1234
2016-07-02, 15:21:09
. Bios-Update wäre besser.

das würde Rückruf Aktion aller schon ausgelieferten Karten bedeuten, abzüglich des vorübergehenden Verkaufsstop für alle anderen noch nicht modifizierten

Gipsel
2016-07-02, 15:23:34
@ Gipsel: Deine ersten beiden Absätze hatten wir hier schon mal abgehandelt. Format_C hat ausgemessen, daß die Phasen zu je 3 und 3 zwischen Slot und Stecker aufgeteilt sind. Die 7. Phase versorgt den RAM aus den 3,3V des Slots, die ist safe.Habe ich dann wohl überlesen.
Aber stimmt das auch so? Den RAM aus den 3,3V des Slots zu versorgen, dürfte nicht so ganz klappen. GDDR5@8Gbps zieht locker mal 2+W pro Chip im Peak. Bei 8 Stück muß der Regler also eher so 20-30W können. Die gehen nicht über die 3.3V im Slot (haben ein Limit von 3A laut Spec und in den Tests wurde über 3,3V auch nur mit 4-5W vermessen). Der aus den 3,3V gespeiste Regler versorgt wohl eher die Display-Outputs oder vielleicht den Speicher-Controller im Chip (der hat eine eigene Voltage-Domain). Den Speicher-VRM würde ich eher auf das einphasige Teil (mit eigenem Controller) direkt neben dem 6Pin-Stecker (an dem er höchstwahrscheinlich auch hängt) verorten. Aber das muß sich jemand mit Karte mal genauer ansehen.
Es gibt insgesamt wohl 4 verschiedene VRMs (6 Phasen für GPU, 1 Phase AUX für irgendwas [Speichercontroller?] am gleichen Controller, der 2 Loops kann) einen mickrigen unterhalb des Reglers für die GPU (Display?) und eben den recht großen einphasigen neben dem 6Pin-Stecker (ich vermute für die Speicherchips).

Digidi
2016-07-02, 15:23:55
das würde Rückruf Aktion aller schon ausgelieferten Karten bedeuten, abzüglich des vorübergehenden Verkaufsstop

:rolleyes: Ich frage mich nur wie die ganzen leute die 290 zur 290x gemacht haben :rolleyes:

Muss wohl beten gewesen sein.

Hakim
2016-07-02, 15:24:12
Hm ja man weiß nicht ob jeder 08/15 user einen BIOS Update vernünftig machen kann. Für 3Dc Member sicher kein Problem

Screemer
2016-07-02, 15:25:25
@gipsel: wenn man sich die fritierten 3,3v pins aus dem miningrig ansieht, dann könnte man auch vermuten, dass am die specs der 3,3v pins auch maximal überfährt :ugly:
falsch gesehen ist 12v1 und 12v2. falsch gedreht...

scully1234
2016-07-02, 15:25:59
:rolleyes: Ich frage mich nur wie die ganzen leute die 290 zur 290x gemacht haben :rolleyes:

Muss wohl beten gewesen sein.

Tellerrand Modus ein:

Du willst doch nicht nem Blödmarkt Kunden ,der gerade so Grafikkarte schreiben kann, zumuten, das er sein Bios selber auf die Karte flasht

In der Welt soll es auch noch in Summe mehr solche Leute geben...

Tellerrand Modus aus

Digidi
2016-07-02, 15:27:11
Tellerand Modus ein:

Du willst doch nicht nem Blödmarkt Kunden zumuten, das er sein Bios selber auf die Karte flasht

Tellerand Modus aus

Wie dumm hälst du Kunden? Eine Exe Datei die danach alles automatisch macht kann noch jeder aufrufen :eek:

anddill
2016-07-02, 15:27:38
...
Hier meint jemand, dass seine 3x RX 480 Karten nach 6h Mining sein Board zerstört hätten: https://bitcointalk.org/index.php?topic=1433925.msg15438155#msg15438155

Das Board hat einen vollen PEG Slot, einen 4x mit 16X Steckplatz und 2x 1x. Er hat über Riser 3 Karten betrieben, und nicht die PCIe-Slots sind abgeraucht, sondern der ATX-Stecker. Logisch.
Auch wenn die Karten die Norm eingehalten hätten, hätte er immer noch mindestens eine Grafikkarte zu viel an einem Steckplatz der nicht dafür ausgelegt ist, was damit auch für das gesamte Board zutrifft. Die Hersteller von Board und Graka wären damit offiziell aus dem Schneider.
Daß es bisher mit anderen Karten ging liegt nur daran, daß sie die Spec massiv unterschreiten.

Eine sehr interessante Entwicklung. Auch wenn AMD es schafft die RX-480 auf normgerechte PCIe-Belastung zu trimmen, wird sie immer noch den PCIe mehr belasten als die meisten anderen Karten. Und wenn dann noch mehr ATX-Stecker abfackeln, dann wird es interessant für die Mainboard-Hersteller. Auch wenn alle Normen eingehalten werden, zieht ein Quad-Crossfire (oder 4 Mining-Karten) immer noch 300W über 12V ATX. Das geht technisch gar nicht.
Ein Quad-SLI aus 4 GTX 950 hätte das selbe Problem, wenn es technisch gehen würde.

Hakim
2016-07-02, 15:29:28
Ganz einfach, beides anbieten, für Menschen die sich das nicht zutrauen, einschicken, der Rest macht es selber

illidan
2016-07-02, 15:30:54
Ganz einfach, beides anbieten, für Menschen die sich das nicht zutrauen, einschicken, der Rest macht es selber
Sehe ich auch so.
Der Treiber kann Schadensbegrenzung bei Karten mit nicht aktualisiertem Bios betreiben, aber das sollte nicht der Normalfall sein.
Die Chance, dass sich irgendwelche anderen Probleme bei so was einschleichen, ist einfach höher...

Digidi
2016-07-02, 15:30:54
@Hakim
So siehts aus :D

scully1234
2016-07-02, 15:33:28
Wie dumm hälst du Kunden? Eine Exe Datei die danach alles automatisch macht kann noch jeder aufrufen :eek:

Wie ''dumm'' ich Kunden halte, kann dir ja vielleicht mal wer erklären ,der für die Allgemeinheit da draußen Rechner konfiguriert

Das Flashen von Grafikkarten,gehört jedenfalls nicht zu dem Umfang ,den ein normaler User können muss.:wink:

In solch einem Fall würde dieses Vorgehen auch rechtlich eine Rückrufaktion bedeuten, von daher ist der Umweg über den Treiber schon die ''elegantere'' Lösung

anddill
2016-07-02, 15:34:22
Auf der 3,3V Schiene? Sehr merkwürdig :freak:

E: Wie bekommt man an einem Asus P7P55-LX, drei RX480 betrieben, ohne die Spezifikationen der PCI-E Slots zu überlasten? Jetzt mal von den Paar Watt die die 480 mehr zieht abgesehen, hat das Board nur 2 PCI-E 16x und über den 1x Slot sind lediglich 25W erlaubt.

Riser. Und nachdem ich 5min in dem Miningforum gelesen habe weiß ich daß man da normalerweise welche nimmt die eine zusätzliche Stromversorgung für die GPU haben.
Und dreh mal das Bild. Es sind schon die 12V-Pins die da abgebrannt sind.

Digidi
2016-07-02, 15:35:03
Wie ''dumm'' ich Kunden halte, kann dir ja vielleicht mal wer erklären ,der für die Allgemeinheit Rechner konfiguriert

Das Flashen von Grafikkarten,gehört jedenfalls nicht zu dem Umfang ,den ein normaler User können muss.:wink:

Oh man die müssen nur eine Datei Öffnen. 1 Datei!

unl34shed
2016-07-02, 15:37:48
Riser. Und nachdem ich 5min in dem Miningforum gelesen habe weiß ich daß man da normalerweise welche nimmt die eine zusätzliche Stromversorgung für die GPU haben.
Und dreh mal das Bild. Es sind schon die 12V-Pins die da abgebrannt sind.

Hab ich auch grad festgestellt, habe das einzige Bild bei google erwischt, bei dem die Kodierung der Pins gedreht war. Hat mich auch schon etwas irritiert, warum es die 3,3V sein sollen, aber die Rundungen an den Pins und die Nase haben auf dem Bild gepasst....

anddill
2016-07-02, 15:46:07
Oh man die müssen nur eine Datei Öffnen. 1 Datei!

Muss AMD einfach dranschreiben daß es ein 100000$ Gewinn ist, dann wird die sofort ausgeführt ;D

Digidi
2016-07-02, 15:47:04
;D;D;D

Hakim
2016-07-02, 15:48:44
Ja Moment, ein Gewinnspiel wo die Teilnahme erst anfängt wenn man in ruhe die Balken bis zu ende machen lässt, man weiß ja nie :)

scully1234
2016-07-02, 15:50:27
Muss AMD einfach dranschreiben daß es ein 100000$ Gewinn ist, dann wird die sofort ausgeführt ;D


Stimmt damit fängt man sogar Opa Alfons=)

Gipsel
2016-07-02, 15:52:32
@gipsel: wenn man sich die fritierten 3,3v pins aus dem miningrig ansieht, dann könnte man auch vermuten, dass am die specs der 3,3v pins auch maximal überfährt :ugly:Dann hätten die Tester bloß nicht den richtigen Workload gefunden, um die 3,3V ordentlich auszulasten? Wie gesagt, die Tests, die ich kenne, haben nur 4-5W für die 3,3V vermessen. Selbst mit 4 Karten und dem Doppelten davon (dann also ~40W, 12A), sollte das der ATX-Stecker locker überleben (der hat immerhin 4 Pins für 3,3V, wären also nur 3A pro Pin), wenn da nicht irgendwas Anderes noch massiv Strom gezogen hat.
Im Speku-Thread hatte ich mal erwähnt, daß ich zwei System kannte, die nach dauerhaft überlastetem ATX-Stecker denselben zusammengeschmort (und teilweise ausgelötet) haben. Da ging aber jahrelang 24/7 an die 10A pro Pin drüber. Das war offenbar zu viel.
Und da käme man nur hin, wenn das Board die 3,3V aller PCIe-Slots mit nur einem einzigen Pin des ATX-Stecker verbindet (und irgendwie ist ja auch nur ein Pin verschmort :rolleyes:). Das wäre dann aber eher ein Fail des Board-Designs.

Edit:
Hast recht, es sind die 12V durchgeschmort.

Loeschzwerg
2016-07-02, 15:53:58
Wie dumm hälst du Kunden? Eine Exe Datei die danach alles automatisch macht kann noch jeder aufrufen :eek:

Könnte man theoretisch auch in den neuen Treiber einbinden und während der Installation abhandeln. Der Neustart wird so oder so fällig.

Also da hat man genügend Optionen für den geneigten DAU :)

Noch ein Kommentar zu 6-Pin vs. 8-Pin und sonstigen nötigen Änderungen:
Nach diesem Bild (http://images.anandtech.com/doci/10389/9310_ellesmere_cam4_02_0010_4K.jpg)(bei Anandtech) zu urteilen, wird wohl auch an Gehäuse und PCB ein bißchen was geändert werden müssen, um einen 8-Pin-Stecker unterzubringen. Die zwei Extra-Pins würden in einem Bereich landen, wo bisher andere Leitungen sind.

Und wenn man das schon anpackt, wieso nicht eine der bisher drei Phasen vom Slot wegnehmen und an den PCI-Stecker hängen? Dann wären wir bei

2 Phasen für 75W via Slot
und 4 Phasen für 150W via Stecker

und damit bei einer sinnvollen Aufteilung die sogar in der Spec wäre :smile:

Nö, man hätte einfach von Anfang an mehr Last über den 6-Pin fahren müssen, der hat so oder so genügend Luft wenn man sich Spezifikationen der "Steckerhersteller" (Molex, TE...) ansieht.

Hakim
2016-07-02, 15:54:08
Aber ich muss ja selbst zugeben das ich noch oldschool bin und z.B ein Mobo Bios update lieber über das UEFI Tool (davor DOS Mode) mache statt unter Windows mit Hersteller Tools.

Ätznatron
2016-07-02, 15:54:09
Oh man die müssen nur eine Datei Öffnen. 1 Datei!

Damit kannst du den nVidia-Trollen doch nicht kommen - das überfordert die maßlos.

Genau so, wie sie mit dem transparanten Vorgehen seitens AMD überfordert scheinen, die Angelegenheit zeitnah zu klären.

Kennen die doch von ihrem Hersteller gar nicht. Der hätte sie mit einem awesome abspeisen und ihnen dazu noch den Finger zeigen dürfen und sie hätten es toll gefunden.

Hat man beim 3,5 + 0,5 GB nVidia Kärtchen ja schon erleben dürfen.

anddill
2016-07-02, 16:02:49
So Leute, wir hatten unseren Spaß. Jetzt lasst Opa Alfons und die nVidia-Trolle wieder in Ruhe.

@Gipsel: Bist wieder spät dran. Es ist doch die 12V-Schiene.

Lowkey
2016-07-02, 16:02:52
Es wird Zeit für einen 970 Test mit entsprechenden neuen Spielen.

Hakim
2016-07-02, 16:05:58
Bei Mindfactory hab man jetzt knapp oder schon über 1000 Karten verkaufen können (970 gezählt), geht doch trotz der PCIe Meldungen.

Troyan
2016-07-02, 16:07:03
@Troyan:
Auch das hier nur Trolling und auch noch Verharmlosung der DDR oder gibt es Menschen, die im Stasi-Knast in Kanada (oder wo auch immer sitzen), weil sie sich über die RS480 beschwert haben. :freak:


:rolleyes:

Vielleicht solltest du den Kontext verstehen. Screemer möchte doch nicht, dass Informationen hier veröffentlich werden, die eine RX 480 nicht nur im guten Licht erscheinen lassen. Kein Unterschied zu früher.

Achja und wo wir gerade beim Übertakten sind. Hier ist die offizielle Seite von "WattMan":
http://radeon.com/command-your-gpu-and-control-your-graphics-performance-with-radeon-wattman/

Ein paar Auszüge:

Good news for PC gamers seeking the latest tactical advantage: AMD’s new Radeon WattMan utility delivers full overclocking command and control of select AMD Radeon™ graphics cards. Gamers and power users seeking ultimate graphics performance and efficiency can use Radeon WattMan to help achieve higher graphics performance and frame rates, greater efficiency and power savings, cool and quiet operation, improved operational stability, and extended service life.


Comprehensive tuning features now include precise controls for overvoltage and per-state frequency curve for the GPU clock[...]


Radeon WattMan includes a per-profile overclocking feature that allocates a dedicated overclocking profile for each detected game[...]
http://radeon.com/command-your-gpu-and-control-your-graphics-performance-with-radeon-wattman/

Das beste ist der in kleinerer Schrift stehende Disclaimer.
"Du kannst übertakten. Hier ist unser absolut, geiles neues Tool. Aber wenn du es verwendest und es geht was kaputt, dann hast du einfach Pech gehabt." :freak:

http://radeon.com/wp-content/uploads/2016/05/Radeon-FullControl-Tex.png
http://radeon.com/RX/

Eigenverantwortung und so. Was für ein Quatsch.

Gipsel
2016-07-02, 16:12:31
Achja und wo wir gerade beim Übertakten sind. Hier ist die offizielle Seite von "WattMan":
http://radeon.com/command-your-gpu-and-control-your-graphics-performance-with-radeon-wattman/
[..]
Das beste ist der in kleinerer Schrift stehende Disclaimer.
"Du kannst übertakten. Hier ist unser absolut, geiles neues Tool. Aber wenn du es verwendest und es geht was kaputt, dann hast du einfach Pech gehabt." :freak:

http://radeon.com/wp-content/uploads/2016/05/Radeon-FullControl-Tex.png
http://radeon.com/RX/

Eigenverantwortung und so. Was für ein Quatsch.:confused:
Häh? Was willst Du uns damit sagen?
Das ist ein Standard-Disclaimer und nichts Neues.

Edit: Das stand übrigens im Manual zu den nV Control-Panels mit OC-Settings:
• Caution:
Increasing the voltage or the clock speed of a component may void its warranty due to exceeding recommended specifications. NVIDIA and the board manufacturers are not responsible for damage that may occur when component tolerances are exceeded.
/plonk

Wake
2016-07-02, 16:14:32
Das Board hat einen vollen PEG Slot, einen 4x mit 16X Steckplatz und 2x 1x. Er hat über Riser 3 Karten betrieben, und nicht die PCIe-Slots sind abgeraucht, sondern der ATX-Stecker. Logisch.
Auch wenn die Karten die Norm eingehalten hätten, hätte er immer noch mindestens eine Grafikkarte zu viel an einem Steckplatz der nicht dafür ausgelegt ist, was damit auch für das gesamte Board zutrifft. Die Hersteller von Board und Graka wären damit offiziell aus dem Schneider.
Daß es bisher mit anderen Karten ging liegt nur daran, daß sie die Spec massiv unterschreiten.

Eine sehr interessante Entwicklung. Auch wenn AMD es schafft die RX-480 auf normgerechte PCIe-Belastung zu trimmen, wird sie immer noch den PCIe mehr belasten als die meisten anderen Karten. Und wenn dann noch mehr ATX-Stecker abfackeln, dann wird es interessant für die Mainboard-Hersteller. Auch wenn alle Normen eingehalten werden, zieht ein Quad-Crossfire (oder 4 Mining-Karten) immer noch 300W über 12V ATX. Das geht technisch gar nicht.
Ein Quad-SLI aus 4 GTX 950 hätte das selbe Problem, wenn es technisch gehen würde.

Auch wenn Miner gerne mal Mist bauen, der mit dem abgekokeltem Board hatte vorher 3x 280Xs 3 Jahre lang ohne Probleme in Betrieb und die haben eine TDP von 250W (aber eben auch mind. 8-Pin + 6-Pin) verglichen zu den 150W mit denen die RX480 angeschrieben ist.

Da kann man schonmal blöd schauen wenn plötzlich der Rauch aus dem Case anfängt aufzusteigen. ;D

Wieviel ne 280X aus dem Slot zieht im Vergleich wäre interessant, aber gibt wohl keine Reviews von damals welche solche Messungen gemacht haben?

Fliwatut
2016-07-02, 16:16:58
ist echt nicht mehr auszuhalten.
Zitat aus dem thread: "wrong he was using unpowered ribbon risers , recipe for disaster long term"

Anders als mit Risern passen wohl auch keine 3 RX 480 auf das Board: https://www.asus.com/media/global/products/2UYSq8dAHOj0k84O/3pQwoz9W3W8cwXXh_500.jpg

Ziemliches Gefrickel und dann wundern sich die Leute, wenn die Sachen abrauchen...

Screemer
2016-07-02, 16:22:09
Screemer möchte doch nicht, dass Informationen hier veröffentlich werden, die eine RX 480 nicht nur im guten Licht erscheinen lassen. Kein Unterschied zu früher.

bullshit. wie oft hab ich mittlerweile betont, dass der umstand unschön ist? in meinem letzten post hab ich sogar spekuliert, dass amd die 3,3v schiene auch vollgas übefährt. leb mal weiter in deiner traumwelt.

(del)
2016-07-02, 16:45:46
Vorbemerkung
So, wir haben heute mal etwas anders gemessen - Danke auch an den Messingenieur, der seinen Samstag geopfert hat und an meine Familie, die mich hat programmieren und messen lassen. Weniger Auflösung, dafür mit Filter für kurzzeitige Schwankungen (Spikes), die damit in beide Richtungen geglättet wurden. Lassen wir auch den Speicher (sowie dessen wirkliche Speisung) und die 3.3-Volt-Schiene mal als Detail außen vor und betrachten lediglich die 12V-Kurven als solche, die nun (logischerweise) flacher ausfallen, aber in der Summe zusammen mit den Leistungsaufnahmewerten für 3.3 Volt (hier nicht mit aufgeführt) beim selben Durchlauf nur ein reichliches Watt unter meinen ersten Messungen liegen. Für die Spannungen habe ich auch mal das Speichermultimeter parallel für den Plausibilitätstest bemühlt - Oszi und Multimeter sind nahezu deckungsgleich - Schwund gibt es ja immer etwas (Toleranzbereich), aber zu vernachlässigen.

Parallel dazu habe ich GPU-Z mitprotokollieren lassen, also das, was W1zard über die Schnittstelle abgreift. Da dies nur im 0,5-Sekunden Intervall geht, habe ich die fehlenden Werte für Excel quasi "aufgefüllt". Nicht wirklich genau, nur ist dies GPU-Z softwarebedingt auch nicht, denn die Intervalle sind nicht wirklich exaxt in der Timeline. Aber das können wir erst einmal vernachlässigen, denn es ist trotzdem ein guter Anhaltspunkt, weil die Messung über einen längeren Zeitraum ging.

Leistungsaufnahme Chip
Die Werte von GPU-Z ergeben im Mittel eine Leistungsaufnahme von 110 Watt, also genau das, was AMD ja selbst wohl mit "Chip-Power" meinte. Das kann man durchaus so stehen lassen, wenn wir GPU-Z trauen können (was ich auch erst einmal tue).

Leistungsaufnahme Board
Diese Messungen erfolgen zwischen Karte und Mainboard bzw. am PCIe-Anschluss. Die beiden Loops an der Riser-Karte sind kurze Stücke aus einem AWG16-Kabel eines Markennetzteils. Wie bei PCPer "nur" 10 KHz und aktiver Filter.

Wandlerverluste
Zieht man vom Mittelwert der Boardpower die Chippower ab, dann verbleiben 51 Watt für die Tonne. Das klingt plausibel, zeigt aber auch, dass hier extreme Verluste entstehen, die auf anderen Boards sicher niedriger ausfallen könnten, wenn sich die Boardpartner nur etwas mehr Mühe geben.
Geht man noch einen Schritt weiter, dann könnte man fast meinen, AMD hat sich mit dem Platinenlayout selbst einen Strick gedreht und nicht mit dem Chip.

http://i.imgur.com/hLGPZCJ.jpg

Was PCPer im zweiten Artikel zur 480 allerdings nicht wirklich weiter verfolgt hat: es geht bei der Norm eben NICHT um die Wattzahlen, sondern um die fließenden Ströme. Und die sind auch ohne die Spikes in meinen Messungen nach wir vor extrem über den Vorgaben. Mehr dazu gibts in meinem Follow-up, ich kann ja nicht alles teasern ;)

dildo4u
2016-07-02, 16:47:30
Ultra Wide Screen Gameing auf der 480

https://youtu.be/Z4TkD8VP094

AMD Radeon RX 480 Power Concerns - Detailed Analysis

https://youtu.be/ZjAlrGzHAkI

AlphaNUSS
2016-07-02, 16:48:22
Schön viele Bilder zur Rx 480 Nitro

https://www.overclockers.co.uk/detail/index/sArticle/61887

Digidi
2016-07-02, 16:51:42
Wenn ich das so lese sind die ganzen Spezies zu nichts zu gebrauche! Was bringt es mir wenn ich 75 Watt aus jedem Slot ziehen kann, ich dann aber bei 3-4 Slots die Spec für den Mainboard Eingang überschreiten!

Wenn das so stimmt finde ich das den eigentlichen Skandal! :)
Für was brauch ich dann specs wenn so ein Murks dabei raus kommt !

@Format_c
Dann durfte es kein USB Typ C mit 2,5 A 20V pro Pin und 0,25mm Pin geben!!!!
Die Spikes sind gefährlicher da die verluste an der Übergangstelle sehr extrem sind bei massiven uberstrom! Da wollen zig Elektronen durch eine Engstelle da reißt es das eine oder andere Teil mit!

Raff
2016-07-02, 16:52:03
Vorbemerkung
So, wir haben heute mal etwas anders gemessen - Danke auch an den Messingenieur, der seinen Samstag geopfert hat und an meine Familie, die mich hat programmieren und messen lassen. Weniger Auflösung, dafür mit Filter für kurzzeitige Schwankungen (Spikes), die damit in beide Richtungen geglättet wurden. Lassen wir auch den Speicher (sowie dessen wirkliche Speisung) und die 3.3-Volt-Schiene mal als Detail außen vor und betrachten lediglich die 12V-Kurven als solche, die nun (logischerweise) flacher ausfallen, aber in der Summe zusammen mit den Leistungsaufnahmewerten für 3.3 Volt (hier nicht mit aufgeführt) beim selben Durchlauf nur ein reichliches Watt unter meinen ersten Messungen liegen. Für die Spannungen habe ich auch mal das Speichermultimeter parallel für den Plausibilitätstest bemühlt - Oszi und Multimeter sind nahezu deckungsgleich - Schwund gibt es ja immer etwas (Toleranzbereich), aber zu vernachlässigen.

Parallel dazu habe ich GPU-Z mitprotokollieren lassen, also das, was W1zard über die Schnittstelle abgreift. Da dies nur im 0,5-Sekunden Intervall geht, habe ich die fehlenden Werte für Excel quasi "aufgefüllt". Nicht wirklich genau, nur ist dies GPU-Z softwarebedingt auch nicht, denn die Intervalle sind nicht wirklich exaxt in der Timeline. Aber das können wir erst einmal vernachlässigen, denn es ist trotzdem ein guter Anhaltspunkt, weil die Messung über einen längeren Zeitraum ging.

Leistungsaufnahme Chip
Die Werte von GPU-Z ergeben im Mittel eine Leistungsaufnahme von 110 Watt, also genau das, was AHM ja mict "Chip-Power" meinte. Das kann man durchaus so stehen lassen, wenn wir GPU-Z trauen können (was ich auch erst einmal tue).

Leistungsaufnahme Board
Diese Messungen erfolgen zwischen Karte und Mainboard bzw. am PCIe-Anschluss. Die beiden Loops an der Riser-Karte sind kurze Stücke aus einem AWG16-Kabel eines Markennetzteils. Wie bei PCPer "nur" 10 KHz und aktiver Filter.

Wandlerverluste
Zieht man vom Mittelwert der Boardpower die Chippower ab, dann verbleiben 51 Watt für die Tonne. Das klingt plausibel, zeigt aber auch, dass hier extreme Verluste entstehen, die auf anderen Boards sicher niedriger ausfallen könnten, wenn sich die Boardpartner nur etwas mehr Mühe geben.
Geht man noch einen Schritt weiter, dann könnte man fast meinen, AMD hat sich mit dem Platinenlayout selbst einen Strick gedreht und nicht mit dem Chip.

http://i.imgur.com/hLGPZCJ.jpg

Was PCPer im zweiten Artikel zur 480 allerdings nicht wirklich weiter verfolgt hat: es geht bei der Norm eben NICHT um die Wattzahlen, sondern um die fließenden Ströme. Und die sind auch ohne die Spikes in meinen Messungen nach wir vor extrem über den Vorgaben. Mehr dazu gibts in meinem Follow-up, ich kann ja nicht alles teasern ;)

Wandlerverluste wegen der "imba" Platine? Interessant. :up:

MfG,
Raff

kuj0n
2016-07-02, 16:56:09
Geht man noch einen Schritt weiter, dann könnte man fast meinen, AMD hat sich mit dem Platinenlayout selbst einen Strick gedreht und nicht mit dem Chip.

Mach mir Hoffnungen. :D Danke für die Arbeit.

Gipsel
2016-07-02, 16:56:40
Wandlerverluste wegen der "imba" Platine? Interessant. :up:

MfG,
Raff
Ich würde ja sagen, von den 51W "Wandlerverlusten" gehen locker 20W oder so für den Speicher drauf (der sehr unwahrscheinlich von den 3,3V gespeist wird, sondern auch an den 12V hängt). Ich hatte das ja weiter oben schon mal so grob überschlagen.

Ascorvit
2016-07-02, 16:58:07
...extrem..

Also 100% mehr ? Oder 75% mehr? Oder was willst du hier als extrem verkaufen?

Hakim
2016-07-02, 16:58:10
oh man, diese Hausgemachten Probleme. Jetzt bin ich auch echt bezüglich der Stromaufnahme bei den Customs gespannt.

Akkarin
2016-07-02, 16:58:40
@Format_C: In den 52W "für die Tonne" ist doch auch der RAM drin, oder ? Und bei 8GB 8Gbps GDDR5 kann der ja auch einiges ziehen.

uweskw
2016-07-02, 16:58:48
.............Eigenverantwortung und so. Was für ein Quatsch.



Ich hab keine 480er. Aber bei meiner 290er ging beim Aktivieren der OC-Funktion ein Fenster auf und man musste bestätigen, dass man es auf eigene Gefahr macht. Wie bei den 3th party tools für NV. Nur dass es da im Kleingedruckten der EULA versteckt ist.;D

(del)
2016-07-02, 17:00:52
Erstens ist es nur das alte Teaser-Bild, zweitens schrieb ich ja oben explizit "Speicher außen vor". Den klären wir gerade. Würde der Speicher am PCI-e hängen, wäre das mit den balanciert verteilten 3/3-Phasen nämlich widerlegt und der PEG würde die Hauptlast der GPU zu tragen haben. Das wiederum wäre bei OC blanker Nonsens im Layout.

@Format_C: In den 52W "für die Tonne" ist doch auch der RAM drin, oder ? Und bei 8GB 8Gbps GDDR5 kann der ja auch einiges ziehen.
Ja, der RAM ist da mit drin. Wie gesagt, wir sind noch nicht fertig :P

Unrockstar
2016-07-02, 17:03:30
Wirkungsgrad. Dieses massive Überdimensionieren hilft die Verluste zu verringern. Sieht wie ein verzweifelter Versuch aus die Karte in das geplante elektrische Leistungsfenster zu quetschen.
Daran habe ich auch schon gedacht. Aber 6+1 ist zuviel.. Die Verluste an so Mosfets sind ja auch nicht unerheblich. Ich bin sehr gespannt was der neue Treiber bringt. Und angesichts der Tatsache dass mit 1,036V die 150W locker gehalten werden bin ich auch gespannt was das effektive Undervolting betrifft. Ich hab noch 2 Wochen Zeit, dann gibts hoffentlich die Nitro oder nen IceQ

Gipsel
2016-07-02, 17:03:31
Dann durfte es kein USB Typ C mit 2,5 A 20V pro Pin und 0,25mm Pin geben!!!!
Die Spikes sind gefährlicher da die verluste an der Übergangstelle sehr extrem sind bei massiven uberstrom! Da wollen zig Elektronen durch eine Engstelle da reißt es das eine oder andere Teil mit!Hatten wir doch schon mal. Anders konstruierte Pins, andere Spec. Die kleinen Federkontakte in den Slots sind typischerweise mickrig, da kann über den USB-Stecker tatsächlich mehr gehen. Und die Spikes sind wenn sie kurz sind, für die Beschädigung des Slots nicht wirklich wesentlich. Thermisch relevante Zeiten sind da eher 100ms oder so.

Digidi
2016-07-02, 17:04:33
Thermisch ja aber wie sieht es Elektro chemisch aus?

Das einzige was zählt ist die Kontaktfläche und die durfte bei USB Typ C bei Micro USB geringer sein als bei PCI-E!

(del)
2016-07-02, 17:06:08
Also 100% mehr ? Oder 75% mehr? Oder was willst du hier als extrem verkaufen?Ich verkaufe hier gar nichts. AMD verkauft Karten, ich verliere an diesem Mist nur meine eigene Lebenszeit. Die Specs haben schon großzügige 9% Toleranz nach oben und ja, es liegt immer noch deutlich darüber. Trotzdem spare ich mir diese Dinge für den Artikel auf.

Gipsel
2016-07-02, 17:07:47
Thermisch ja aber wie sieht es Elektro chemisch aus?Meinst Du Elektrolyse des Schweißes, den Du da reingetropft hast oder was? Was Anderes als thermisch spielt da meiner Meinung nach erstmal keine Rolle. Wenn's chemisch wird, ist es schon zu spät. ;)

Edit:
Und zur Kontaktfläche, die ist bei USB eben nicht kleiner. Außerdem spielt das Material, dessen Form und der Anpressdruck auch eine Rolle.

Magensaft
2016-07-02, 17:10:57
Das Marketing von Amd macht, meiner Meinung nach, momentan alles richtig.
Schön zu sehen, das Sie langsam aus Ihrem Schatten heraustreten und dem blitzeplank gewienerten auf heldenpose getrimmten grünen Ritter mit erhobenem Haupt (und einem Schlagring) entgegen treten. Dazu gehört aber auch das Spiel zu spielen und in dieserm Fall heißt das Spiel Marktanteile zu erobern. AMD nutzt hier sehr geschickt sein Underdog Image, generiert mit der neuen Homepage ein zentrales Hub und gibt sich solidarisch mit der "normalen" Bevölkerung. Aufbruch ist angesagt. Aber wohin?
Natürlich in richtung Marktanteile, und das machen Sie gerade wirklich gut.

Geschafft haben Sie es sobald Sie anfangen auf Fachmessen bei großen Neuerscheinungen nicht mehr die Führungsriege antreten zu lassen, sondern ein medientaugliches Moderatorenpaar. Da freue ich mich schon drauf.

Eigentlich hoffe ich immer nur, das beim Schlagabtausch zwichen den beiden Farbklecksen nicht allzuviel Kolateralschaden entsteht. Aber so ist das wenn sich N-zilla mit A-kong balgt, da muss halt auch mal Tokyo restauriert werden.

TerrorZivi
2016-07-02, 17:13:25
Auch wenn Miner gerne mal Mist bauen, der mit dem abgekokeltem Board hatte vorher 3x 280Xs 3 Jahre lang ohne Probleme in Betrieb und die haben eine TDP von 250W (aber eben auch mind. 8-Pin + 6-Pin) verglichen zu den 150W mit denen die RX480 angeschrieben ist.

Da kann man schonmal blöd schauen wenn plötzlich der Rauch aus dem Case anfängt aufzusteigen. ;D

Wieviel ne 280X aus dem Slot zieht im Vergleich wäre interessant, aber gibt wohl keine Reviews von damals welche solche Messungen gemacht haben?


Es gibt ja nicht umsonst Boards die für mehr als zwei Grafikkarten ausgelegt sind und die haben nicht ohne Grund zusätzliche Anschlüsse um die PEG-Slots zu versorgen.

Das größte Problem an der RX 480 ist zur Zeit halt, dass Menschen die extreme Dinge damit in Tat umsetzen aber auf der anderen Seite nicht wirklich wissen was die gerade eigentlich machen sich einfach für den Darwinpreis nominieren.
Nicht umsonst wurde in den Foren schon sehr früh der Hinweis gestreut wie die Stromzufuhr der Karte funktioniert und auch bei powered Risern davor gewarnt, dass es zu Problemen kommen kann.

Menace
2016-07-02, 17:23:08
Schön viele Bilder zur Rx 480 Nitro

https://www.overclockers.co.uk/detail/index/sArticle/61887

Schöne Karte, aber sehe ich das richtig, dass die einzige große Öffnung, wo die Abluft raus kann in Richtung Mainboard läuft? Ist das sinnvoll?

Auf der Seite zum Gehäusedeckel gibt es ja keine Öffnung; nach hinten scheint die Öffnung auch recht klein zu sein. :confused:

Edit: Iieeh. TDP auch noch 175 W.

Gibt es eine Chance, dass sich jemand bereit findet und nicht "out of the box" übertaktet sondern sparsamer macht?

@Troyan: Das war keine Antwort; ich sehe immer noch nicht, wo Du innerhalb der AMD die DDR erkennen kannst. Folglich Propaganda deinerseits.

kuj0n
2016-07-02, 17:26:05
Schön viele Bilder zur Rx 480 Nitro

https://www.overclockers.co.uk/detail/index/sArticle/61887

The Sapphire Nitro is not only the first custom RX 480 on the market and Overclockers UK is the first to list this amazing product world wide with 2000 units due to arrive middle to end July.

https://abload.de/img/unbenannt2i3ksf.png (http://abload.de/image.php?img=unbenannt2i3ksf.png)

https://abload.de/img/unbenannt3i5k12.png (http://abload.de/image.php?img=unbenannt3i5k12.png)

https://abload.de/img/unbenannt4iwkan.png (http://abload.de/image.php?img=unbenannt4iwkan.png)

Features:
- Sapphire Nitro Twin Fan Black Cooler
- Removable Fans (Makes cleaning easy)
- 2x HDMI, 2x DIsplayPort & 1x DVI (Perfect for VR Setups)
- Overclocked out the box
- 1x 8-Pin power connector for improved overclocking ability
- RGB Sapphire logo with LED Mode switch for different settings (Pick any colour or turn off)
- Sapphire Nitro backplate for improved cooling and aesthetics
- Black Diamond Chokes for improved power and eliminate potential of coil whine
- Nitro Pass through cooling to further improve cooling
- Dual BIOS

Specification:-
- GPU: Polaris
- Stream Processors: 2304
- Compute Cores: 36
- Core Speed: TBAMHz
- Boost Speed: TBAMHz
- Memory Speed: 8000Mhz
- Memory interface: 256-Bit
- Memory capacity: 8192MB GDDR5
- PCI-Express X16 lane required
- 400W or greater PSU required
- 175W TDP
- Power Connectors: 1x 8-pin required
- Display Outputs: 2x HDMI, 2x DisplayPort & 1x DVI
- Warranty: 3yr

https://www.youtube.com/watch?v=1N-rjhS_cJg&feature=youtu.be&t=14m26s

StefanV
2016-07-02, 17:26:08
Wirkungsgrad. Dieses massive Überdimensionieren hilft die Verluste zu verringern. Sieht wie ein verzweifelter Versuch aus die Karte in das geplante elektrische Leistungsfenster zu quetschen.
Und natürlich auch Haltbarkeit, die auch nicht vergessen werden darf....
Das führt dann zu dem, was du sagtest, dass die AMD Karten tendentiell besser halten...

Gibt einige Gründe, das bisserl zu überdiemensionieren, normalerweise ist man ah um einiges von der max. Leistungsfähigkeit der Komponenten entfernt.

Ascorvit
2016-07-02, 17:32:21
Gibt es eine Chance, dass sich jemand bereit findet und nicht "out of the box" übertaktet sondern sparsamer macht?


Unwahrscheinlich!

Ich undervolte seit der 4850. Damals bin ich dafuer noch fuer verrueckt erklaert worden ...

Herr Doktor Klöbner
2016-07-02, 17:36:27
Es würde mich mal interessieren was das OC in Sapphire Radeon RX 480 Nitro OC konkret bedeutet , bei den angegebenen 175 Watt TDP wird das wohl bei eher symbolischen 20-30 MHz liegen. Dennoch eine schöne Karte, wenn die den Preispunkt von 250,- € erreicht wird sie gekauft.

Thowe
2016-07-02, 17:37:45
Oh man die müssen nur eine Datei Öffnen. 1 Datei!

Nicht einmal das, derartiges kann man per Treiber von selbst anstoßen und prinzipiell, wie es auch Intel beim Microcode in Zusammenarbeit mit Microsoft macht, einfach per Windows Update verteilen.

Das "auffällige Poster" nun jeden Kunden einer Grafikkarte für zu blöde halten ein Flash-Update für diese zu starten, nun dies halte ich für bezeichnend. Wären diese Kunden wirklich zu blöd für diese Welt, hätten sie sicherlich eine NVIDIA-Karte. <- Nun, ab und an muss man ja auch mal trollen, derweil belustige ich mich weiter über so manchen Schreiber hier. Das schöne ist ja, es gibt eine Menge sinnige Beiträge von Personen mit Wissensschatz, die den Thread letztendlich wertvoll halten. :)

Menace
2016-07-02, 17:38:28
Unwahrscheinlich!

Ich undervolte seit der 4850. Damals bin ich dafuer noch fuer verrueckt erklaert worden ...

Dann warte ich mal auf die 970 470 . :-/

StefanV
2016-07-02, 17:38:57
Und wenn dann noch mehr ATX-Stecker abfackeln, dann wird es interessant für die Mainboard-Hersteller. Auch wenn alle Normen eingehalten werden, zieht ein Quad-Crossfire (oder 4 Mining-Karten) immer noch 300W über 12V ATX. Das geht technisch gar nicht.
Dafür hatten einige ältere Boards aber 6pin PCIe Anschlüsse direkt oberhalb der PCIe Slots.

Aber genau die findest heute kaum noch und wenn, dann höchstens auf absoluten High End Brettern...
Aber auch das ist irgendwie bei moderneren Boards wieder verschwunden, aus irgendwelchen Gründen.
Ein Rampage IV Extreme hat z.B. diesen PCIe Anschluss.
Andere Boards wie das Rampage III hatten immerhin einen oder mehrere Molex Anschlüsse in der Nähe der PCie Slots...

Das ist also gar kein neues/modernes Problem sondern eher ein altes, dass jetzt wieder neu aufgekommen ist...

Aber weil es halt AMD/RTG betrifft, wirds halt wieder aufgebauscht...

anddill
2016-07-02, 17:50:22
@ Format_C: Schönes Diagramm. Viel besser verständlich. Ich meine wer darauf trainiert ist mit Messplots umzugehen der sucht in Deinen bisherigen Impulswäldern sofort und ohne drüber nachzudenken die Max- Min- und Mittelwerte und kann das auch halbwegs abschätzen. Joe Sixpack ist da hoffnungslos verloren, für den ist die geglättete Darstellung verständlich, und die wesentlichen Informationen, mal abgesehen von den Ausreißern, gehen bei dieser Darstellung auch nicht verloren.

Effe
2016-07-02, 17:52:18
Es würde mich mal interessieren was das OC in Sapphire Radeon RX 480 Nitro OC konkret bedeutet
Ich habe die 380X Nitro, da sind es immerhin 70Mhz (1040 statt 970Mhz)

Dennoch eine schöne Karte
Ja sehr hübsch, sehr ähnlich zur 380X. Nur dieses RGD-Gedöns können sie sich sparen.


Ich warte noch auf RGB-Klopapier. ;D:freak:

anddill
2016-07-02, 17:53:10
Dafür hatten einige ältere Boards aber 6pin PCIe Anschlüsse direkt oberhalb der PCIe Slots.

Aber genau die findest heute kaum noch und wenn, dann höchstens auf absoluten High End Brettern...
Aber auch das ist irgendwie bei moderneren Boards wieder verschwunden, aus irgendwelchen Gründen.
Ein Rampage IV Extreme hat z.B. diesen PCIe Anschluss.
Andere Boards wie das Rampage III hatten immerhin einen oder mehrere Molex Anschlüsse in der Nähe der PCie Slots...

Das ist also gar kein neues/modernes Problem sondern eher ein altes, dass jetzt wieder neu aufgekommen ist...

Aber weil es halt AMD/RTG betrifft, wirds halt wieder aufgebauscht...

Eingespart, da bei den max. 50W die jede Graka in den letzten Jahren aus dem Slot gezogen hat nicht unbedingt nötig.

Also mal wieder voll der Reinfall von AMD. Da denkt man es kommt was gutes bei raus dann versemmeln die es wieder beim Ref Design. Und nicht nur das, Die Specs werden gebrochen. AMD, was ist los? Naja, Geld ist wieder mal bei nVidia gelandet.

Hab keinen Bock drauf das die Leiterbahnen meines Mainboards verglühen.

500 Euro sind wieder bei nVidia gelandet. Schade.

Um die Leiterbahnen Deines Mainboards brauchst Du Dir keine Sorgen machen. Die sind das letzte das abbrennt.

Nikstar
2016-07-02, 17:55:14
https://abload.de/img/unbenannt2i3ksf.png (http://abload.de/image.php?img=unbenannt2i3ksf.png)

https://abload.de/img/unbenannt3i5k12.png (http://abload.de/image.php?img=unbenannt3i5k12.png)

https://abload.de/img/unbenannt4iwkan.png (http://abload.de/image.php?img=unbenannt4iwkan.png)

Features:
- Sapphire Nitro Twin Fan Black Cooler
- Removable Fans (Makes cleaning easy)
- 2x HDMI, 2x DIsplayPort & 1x DVI (Perfect for VR Setups)
- Overclocked out the box
- 1x 8-Pin power connector for improved overclocking ability
- RGB Sapphire logo with LED Mode switch for different settings (Pick any colour or turn off)
- Sapphire Nitro backplate for improved cooling and aesthetics
- Black Diamond Chokes for improved power and eliminate potential of coil whine
- Nitro Pass through cooling to further improve cooling
- Dual BIOS

Specification:-
- GPU: Polaris
- Stream Processors: 2304
- Compute Cores: 36
- Core Speed: TBAMHz
- Boost Speed: TBAMHz
- Memory Speed: 8000Mhz
- Memory interface: 256-Bit
- Memory capacity: 8192MB GDDR5
- PCI-Express X16 lane required
- 400W or greater PSU required
- 175W TDP
- Power Connectors: 1x 8-pin required
- Display Outputs: 2x HDMI, 2x DisplayPort & 1x DVI
- Warranty: 3yr

https://www.youtube.com/watch?v=1N-rjhS_cJg&feature=youtu.be&t=14m26s
Bin gespannt wann das Teil kommt, aber 299,- Euro wird der Spass bestimmt kosten.


Hab keinen Bock drauf das die Leiterbahnen meines Mainboards verglühen.

500 Euro sind wieder bei nVidia gelandet. Schade.
Oder man würde auf die RX 490 warten, aber dein Kommentar wirkt schon ziemlich grün.

@[MK2]Mythos
Das wäre großartig! Vielleicht eine Quelle?

[MK2]Mythos
2016-07-02, 17:57:35
Bin gespannt wann das Teil kommt, aber 299,- Euro wird der Spass bestimmt kosten.
22. July.

RoughNeck
2016-07-02, 17:59:24
Bin gespannt wie sich AMD da rauswinden will.
Kann mir gut vorstellen dass es gerade in den USA zu einer Sammelklage kommen kann.

Magensaft
2016-07-02, 18:00:10
[QUOTE=Nikstar;11088378]Bin gespannt wann das Teil kommt, aber 299,- Euro wird der Spass bestimmt kosten.

Jap, wurde bereits hier im Thread vermutet und dann auch (wahrscheinlich) bestätigt.

Hakim
2016-07-02, 18:03:28
Bin gespannt wie sich AMD da rauswinden will.
Kann mir gut vorstellen dass es gerade in den USA zu einer Sammelklage kommen kann.

Wenn AMDs Lösung beinhaltet das man den PT senken muss, könnte es drüben echt hart werden. Aber mal abwarten.

anddill
2016-07-02, 18:08:28
Wenn AMDs Lösung beinhaltet das man den PT senken muss, könnte es drüben echt hart werden. Aber mal abwarten.
Dank Gipsels Detektivarbeit wissen wir ja jetzt, daß der PWM-Controller auf ungleiche Lastverteilung der Phasen programmierbar ist. Und genug Reserven sind auch vorhanden, dank dem überdimensionierten Wandler, so daß die vom 6-Pin gespeisten Phasen auch nicht überlastet werden.
Statt 50/50 kann man also zB. auch 33/67% einstellen. Theoretisch.

horn 12
2016-07-02, 18:11:36
@Format C

Somit würdest Du vom Kauf einer RX 480 derzeit abraten und auf die Custom Sapphire, andere Custom Karten warten...

PS: Das es AMD aber jedesmal wieder auf´s Neue Versemmelt nach so einem 480-er Vor Release-Hype!

y33H@
2016-07-02, 18:22:46
Es würde mich mal interessieren was das OC in Sapphire Radeon RX 480 Nitro OC konkret bedeutet , bei den angegebenen 175 Watt TDP wird das wohl bei eher symbolischen 20-30 MHz liegen. Dennoch eine schöne Karte, wenn die den Preispunkt von 250,- € erreicht wird sie gekauft.Hatte ich schon mal geschrieben, derzeit sind 1.300 MHz angepeilt und zwar dauerhaft dank entsprechendem Power- sowie Temperatur-Target.

kuj0n
2016-07-02, 18:46:10
Die Nitro kostet hoffentlich nicht soviel wie eine 6GB 1060, wenn ich diese jetzt schon für unter 299€ in UK vorbestellen kann.

https://www.overclockers.co.uk/detail/index/sArticle/61887

(del)
2016-07-02, 18:46:36
Trotzdem habe auch ich irgendwie gerade ein Verständnisproblem... Oder eine Lösung.

Gedankenspiel
Wenn der RAM über den Wandlerblock direkt neben dem PCIe-Anschluss gespeist wird, was ja auf der Hand liegt, dann hieße das auch, dass sich bei einer Leistungsaufnahme des RAM von ca. 27 Watt (3 Watt pro Modul) die Wandlerluste von insgesamt ca. 21 Watt auf ca. 3.5 Watt pro Phase belaufen würden. Teilt man jetzt noch die 110 Watt ChipPower durch sechs (18.3 Watt), wären das pro Phase zusammen mit den Wandlerverlusten ca. 21.8 Watt. Bei vier Phasen am PEG wären das dann im Maximum 88 Watt. Da aber durch Baulelementeschwankungen die Leistungsabgabe und Verluste der einzelnen Wandlerblöcke ebenfalls ein wenig schwanken können und man die Leistungsaufnahme des RAM nur abschätzen kann, kommen meine 81 Watt nur für den PEG recht gut hin, wenn man hypothetisch annimmt, dass vier der sechs Phasen am PEG saugen und der RAM ggf. auch knapp über 30 Watt liegen könnte. Die Gegenrechnung mit 2 Phasen und deren ca. 44 Watt + ca. 27 Watt RAM zuzüglich den 4 Watt Verlust bei dessen Wandlerblock und die restliche Elektronik ergäben dann mit ca. 75 Watt zwar nicht ganz das, was ich auch gemessen habe, aber nach Rücksprache mit einem Boardpartner zu einem ähnlichen Phänomen laufen nie alle Phasen mit gleicher Last (Gründe siehe oben) und die Unterschiede im einstelligen Wattbereich sind plausibel.

PEG vs. PCIe
Am PEG liegen vier Phasen von insgesamt sechs an der 12V-Schiene, am PCIe dann die restlichen zwei. Hier wird parallel der Speicher versorgt, was auch dadurch plausibel scheint, das sich der Wert bei RAM-OC erhöht, während der am PEG PEG faktisch gleich bleibt.

Schlussfolgerung
Es wäre somit eine ziemlich fragwürdige Aufteilung und wurde wohl auch nur deshalb so ausgelegt, um den 6-Pin-PCIe zu retten, der optisch eine effizientere Karte suggeriert. Da die Phasen für PEG und PCIe elektrisch getrennt gespeist werden dürften, wird es für einen Treiber-Fix wohl doch eng, wenn es um die Verschiebung der Balance geht. Es sei denn, man nimmt eine ganz leichte Spannungsabsenkung in Kauf.

Fliwatut
2016-07-02, 18:48:50
330,- € für die Sapphire würde ich nur ausgeben, wenn da ein fettes OC von >1400 MHz geht. Ich seh's schon kommen, ich sitze hier auf meiner Kohle und kein Hersteller ist in der Lage, eine richtig flotte Karte für ~350,- € zu bringen :freak:

Linmoum
2016-07-02, 18:51:30
330,- € für die Sapphire würde ich nur ausgeben, wenn da ein fettes OC von >1400 MHz geht. Ich seh's schon kommen, ich sitze hier auf meiner Kohle und kein Hersteller ist in der Lage, eine richtig flotte Karte für ~350,- € zu bringen :freak:
Die Nitro kostet bei OCUK umgerechnet 299€, damit kannst du hier in Deutschland dann sicherlich auch rechnen.

Fliwatut
2016-07-02, 18:54:21
Die Nitro kostet bei OCUK umgerechnet 299€, damit kannst du hier in Deutschland dann sicherlich auch rechnen.

Damit könnte ich leben, wenn die Karte 10% schneller ist als die Referenz mit OC.

Herr Doktor Klöbner
2016-07-02, 18:54:51
Die echten Preise kennen wir erst bei voller Verfügbarkeit der Custom Karten. Die R7870 hatte ihre Markteinführung mit 349,- als untaugliches Referenzdesign, 6 Monate später lag der Straßenpreis guter Customs bei 220,- hier wird sich das auch so einstellen.

Magensaft
2016-07-02, 18:55:57
330,- € für die Sapphire würde ich nur ausgeben, wenn da ein fettes OC von >1400 MHz geht. Ich seh's schon kommen, ich sitze hier auf meiner Kohle und kein Hersteller ist in der Lage, eine richtig flotte Karte für ~350,- € zu bringen :freak:

Das Overclocking bringt Dir da auich nichts mehr, die karte wird momentan durch Ihr Powerlimit, die ROPs und die Speicherbandbreite ausgebremst.

Eines kannst Du komplett beheben, eines nur bedingt und eines garnicht.

Herr Doktor Klöbner
2016-07-02, 18:58:05
Bitter ist das die RX 480 bis jetzt absolut keine Auswirkungen auf die Preise der Konkurrenz gebracht hat obwohl sie als P/L Heiland angekündigt wurde. Wenn eine GTX 1070 für 469€ lieferbar ist, dann kann eine GTX 980 nur maximal 350€ kosten. Kostet eine 980 350€ dann kann der gehandycapte Abfall vom GM 204 nur irgendwo bei 250€ kosten. Nun kommt AMD mit der RX 480 auf GTX 970 Leistungsniveau, und der alte Schrott wird doch tatsächlich höher gehandelt (4GB vs. 3,5GB). Gab es das schon mal das das alte Produkt teurer gehandelt wird als das neue vergleichbare Produkt inklusive 100% Shrink ?

Mein letztes echtes Schäppchen bei Generationswechsel von Grafikkarten war eine Geforce 3 für 99,-, ist schon eine Weile her. Abverkaufschnäppchen bei neuen Generationen gibt es seit zig Jahren nicht mehr, egal ob CPU,GPU oder SSD oder sonstwas.

kuj0n
2016-07-02, 18:58:24
Mythos;11088531']Den habe ich mit bedacht, natürlich kommen aber noch die Versandkosten nach Deutschland oben drauf. Und dann landest du bei knapp 330 Eur.
Sobald deutsche Händler die Karten listen, sieht die Sache natürlich anders aus.
Wenn der Händler dort bei Abnahme von 2000 Karten zu einem Preis von umgerechnet knapp 300€ verkaufen kann - inkl. Steuern und Versand, was glaubst du können deutsche Händler? Da muss ich nicht in UK bestellen. Der Markt in DE ist noch mal größer.

Magensaft
2016-07-02, 18:58:24
Bitter ist das die RX 480 bis jetzt absolut keine Auswirkungen auf die Preise der Konkurrenz gebracht hat obwohl sie als P/L Heiland angekündigt wurde. Wenn eine GTX 1070 für 469€ lieferbar ist, dann kann eine GTX 980 nur maximal 350€ kosten. Kostet eine 980 350€ dann kann der gehandycapte Abfall vom GM 204 nur irgendwo bei 250€ kosten. Nun kommt AMD mit der RX 480 auf GTX 970 Leistungsniveau, und der alte Schrott wird doch tatsächlich höher gehandelt (4GB vs. 3,5GB). Gab es das schon mal das das alte Produkt teurer gehandelt wird als das neue vergleichbare Produkt inklusive 100% Shrink ?

Die Karte ist ganz neu und anscheinend platzieren die Händler Sie gerade gegen die 1070 da es ansonsten keine Konkurenz gibt. Den alten Schrott kann man aber auch nicht verschenken um die Lager zu leeren, lieber lässt man Ihn als Posten langsam auslaufen, solange sich die Lagerkosten rechnen ist das kein Ding.

Fliwatut
2016-07-02, 18:59:16
Das Overclocking bringt Dir da auich nichts mehr, die karte wird momentan durch Ihr Powerlimit, die ROPs und die Speicherbandbreite ausgebremst.
Wenn ich mir die OC-Ergebnisse der 480 angucke, dann schlummert da schon noch einiges an Leistung. Die Referenz kann das nur wegen der beknackten Stromversorgung nicht abrufen. Die AIB schweißen einen 8pin oder 2x6pin auf ihre Platinen, damit dürfte einiges mehr drin sein. Und wenn nicht, warte ich eben weiter bis zum Herbst, vllt. reißt Vega es dann raus.

Th3o
2016-07-02, 19:09:50
330,- € für die Sapphire würde ich nur ausgeben, wenn da ein fettes OC von >1400 MHz geht. Ich seh's schon kommen, ich sitze hier auf meiner Kohle und kein Hersteller ist in der Lage, eine richtig flotte Karte für ~350,- € zu bringen :freak:

Hier werden Preise für RX 480 Custom Designs angegeben (nach unten scrollen)

http://techfrag.com/2016/06/30/aftermarket-custom-radeon-rx-480-designs/

Die Preise sind in Singapur $, das gibt bei der Sapphire 399 S$ = 266,36€. 300€ als Endkundenpreise sind also realistisch

M4xw0lf
2016-07-02, 19:10:17
Die Sapphire-Karte hat bereits ein custom-PCB, kann das sein? Kein AMD-Schriftzug über den PCI-Pins. Dann besteht ja Hoffnung, dass die bereits sehr viel weniger bis kaum was über den Slot zieht, schließlich darf sie 150 ihrer ~175W über die Kabel schlürfen. Das ist für mich von Interesse als Besitzer eines Störgeräusche-anfälligen Boards. ;)

Screemer
2016-07-02, 19:13:40
Die iceq von his könnte dann wieder die günstigste costum wund bei gleichem Kühler wie die 390 werden.

(del)
2016-07-02, 19:26:18
Sind die ganzen Profis schon aus dem Forum geflüchtet?

Ich grübele immer noch noch über dem hier:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11088508&postcount=1454

anddill
2016-07-02, 19:37:21
Trotzdem habe auch ich irgendwie gerade ein Verständnisproblem... Oder eine Lösung.

Gedankenspiel
Wenn der RAM über den Wandlerblock direkt neben dem PCIe-Anschluss gespeist wird, was ja auf der Hand liegt, dann hieße das auch, dass sich bei einer Leistungsaufnahme des RAM von ca. 27 Watt (3 Watt pro Modul) die Wandlerluste von insgesamt ca. 21 Watt auf ca. 3.5 Watt pro Phase belaufen würden. Teilt man jetzt noch die 110 Watt ChipPower durch sechs (18.3 Watt), wären das pro Phase zusammen mit den Wandlerverlusten ca. 21.8 Watt. Bei vier Phasen am PEG wären das dann im Maximum 88 Watt. Da aber durch Baulelementeschwankungen die Leistungsabgabe und Verluste der einzelnen Wandlerblöcke ebenfalls ein wenig schwanken können und man die Leistungsaufnahme des RAM nur abschätzen kann, kommen meine 81 Watt nur für den PEG recht gut hin, wenn man hypothetisch annimmt, dass vier der sechs Phasen am PEG saugen und der RAM ggf. auch knapp über 30 Watt liegen könnte. Die Gegenrechnung mit 2 Phasen und deren ca. 44 Watt + ca. 27 Watt RAM zuzüglich den 4 Watt Verlust bei dessen Wandlerblock und die restliche Elektronik ergäben dann mit ca. 75 Watt zwar nicht ganz das, was ich auch gemessen habe, aber nach Rücksprache mit einem Boardpartner zu einem ähnlichen Phänomen laufen nie alle Phasen mit gleicher Last (Gründe siehe oben) und die Unterschiede im einstelligen Wattbereich sind plausibel.

PEG vs. PCIe
Am PEG liegen vier Phasen von insgesamt sechs an der 12V-Schiene, am PCIe dann die restlichen zwei. Hier wird parallel der Speicher versorgt, was auch dadurch plausibel scheint, das sich der Wert bei RAM-OC erhöht, während der am PEG PEG faktisch gleich bleibt.

Schlussfolgerung
Es wäre somit eine ziemlich fragwürdige Aufteilung und wurde wohl auch nur deshalb so ausgelegt, um den 6-Pin-PCIe zu retten, der optisch eine effizientere Karte suggeriert. Da die Phasen für PEG und PCIe elektrisch getrennt gespeist werden dürften, wird es für einen Treiber-Fix wohl doch eng, wenn es um die Verschiebung der Balance geht. Es sei denn, man nimmt eine ganz leichte Spannungsabsenkung in Kauf.

Nicht raten, MESSEN! Ob da nur ein Stück Metall oder ein Haufen Elektronik zwischen den 12V-Seiten der High-Side Fets ist kannst Du mit einem 10€-Multimeter feststellen.
Oh Mann, ich brauch sone Karte.

Diese Überlegungen klingen plausibel. Ansonsten hast Du ja die Specs der Mosfets selbst beschrieben. Die Low-Side Fets (und die tragen die Stromlast!) gehen bis 100A. Und wieviel zieht der Grafikchip? Rund 100A? 110W bei 1,1V oder so. Würden also ohne Sicherheitsreserve sogar 2 Phasen reichen. 3 wären schon komfortabel. Im Grunde muss AMD nur eine der am PEG hängenden Phasen ausschalten und ist fertig.

Die ganzen Messdiagramme haben mich auf eine Idee gebracht. Der Spannungsabfall zwischen Netzteil und PEG-Slot ist ja signifikant höher als zwischen Netzteil und 6-Pin.
Nun habe ich in diesem Thread ja gelernt, daß man die beiden 12V-Schienen eigentlich nicht verbinden darf. Könnten ja unterschiedliche Einschaltfolge oder Spannung haben. Oder eine könnte ausfallen etc.

Ich behaupte jetzt mal, in 99,9% aller Fälle ist das egal. Das Netzteil ist sowieso Singlerail, oder speist alle Rails aus dem selben Wandler. Alle Stecker sitzen ordentlich und sind 3x gecheckt, bevor man das erste mal einschaltet.
Unter diesen Bedingungen könnte man die 12V-Schienen einfach auf der Graka verbinden. Ein kleines Stück Draht an der richtigen Stelle am Wandlereingang reicht dafür.
Was würde jetzt passieren, wenn man diese Konstruktion einschaltet? Der Strom vom NT zur Grafikkarte teilt sich nach dem MAschensatz auf, was in der Praxis bedeutet daß über den niederohmigen 6-Pin deutlich mehr Strom fließt als über den PEG-Slot. Problem gelöst.
Man darf nur nicht vergessen den 6-Pin anzustecken. Die Karte würde vielleicht sogar anlaufen, nur wäre das für den PEG-Slot dann so richtig ungesund. Und die Besitzer der Kilowatt-Netzteil-Brocken mit mehreren Trafos sollten das auch nicht probieren.
Ich brauch echt sone Karte.

Fliwatut
2016-07-02, 19:52:55
Hier werden Preise für RX 480 Custom Designs angegeben (nach unten scrollen)

http://techfrag.com/2016/06/30/aftermarket-custom-radeon-rx-480-designs/

Die Preise sind in Singapur $, das gibt bei der Sapphire 399 S$ = 266,36€. 300€ als Endkundenpreise sind also realistisch

Danke!

StefanV
2016-07-02, 19:54:11
Ich behaupte jetzt mal, in 99,9% aller Fälle ist das egal. Das Netzteil ist sowieso Singlerail, oder speist alle Rails aus dem selben Wandler.
Och mensch, Anddill.

Gerade von dir hätte ich erwartet, dass du diesen Single Rail Blödsinn nicht noch hervorhebst. Sind doch Stabkernspulen oder aber Shuntwiderstände, über die der Strom fließt und die als Messwiderstände genutzt werden...

Dual +12V Netzteile gibt es aber durchaus noch, wenn auch 'nur' noch im 1kW+ Bereich. Und auch da eher selten.

Einige 1200W Netzteile, die von CWT hergestellt werden z.B. und auch andere Dinge wie z.B. Flextronics und die ganz dicken Super FLower Netzteile.
Also nicht 1200W sondern 1600W und co...
Und ev. auch noch die Dark Power P11 ab 850W.
Wobei immer die Frage ist, ob hier 2 Trafos parallel geschaltet sind oder unabhängig voneinander arbeiten....
Dark Power schauen aber eher nach 2 Trafos Parallel aus, die CWT, Super Flower aber nach 'Doppel Netzteilen'...

anddill
2016-07-02, 20:07:13
Och mensch, Anddill.

Gerade von dir hätte ich erwartet, dass du diesen Single Rail Blödsinn nicht noch hervorhebst. Sind doch Stabkernspulen oder aber Shuntwiderstände, über die der Strom fließt und die als Messwiderstände genutzt werden...

Dual +12V Netzteile gibt es aber durchaus noch, wenn auch 'nur' noch im 1kW+ Bereich. Und auch da eher selten.

Einige 1200W Netzteile, die von CWT hergestellt werden z.B. und auch andere Dinge wie z.B. Flextronics und die ganz dicken Super FLower Netzteile.
Also nicht 1200W sondern 1600W und co...
Und ev. auch noch die Dark Power P11 ab 850W.
Wobei immer die Frage ist, ob hier 2 Trafos parallel geschaltet sind oder unabhängig voneinander arbeiten....
Dark Power schauen aber eher nach 2 Trafos Parallel aus, die CWT, Super Flower aber nach 'Doppel Netzteilen'...

Ich antworte Dir darauf mit einem Selbstzitat:
... Und die Besitzer der Kilowatt-Netzteil-Brocken mit mehreren Trafos sollten das auch nicht probieren.
...

Fliwatut
2016-07-02, 20:12:25
Wie könnte die Karte den offiziellen Test bei PCI-SIG bestanden haben, wenn es ein Problem mit der Hardware wäre?

Ich vermute, dass man mit der Leistung nicht ganz zufrieden war und deshalb an der Takt- und Voltschraube gedreht hat. Das wird mit dem kommenden Treiber behoben, Leistungsverluste werden hingenommen oder durch Treiberoptimierung ausgeglichen.

Oder ist das zu abwegig?

Nightspider
2016-07-02, 20:13:09
Ich weiß das es schon irgendwo mal in den drölfzig Seiten diskutiert wurde aber...

Soll es auch 4GB Karten mit 2000Mhz Speicher geben?

Die 1750Mhz Karten würden die Hashrate fürs Mining doch weiter limitieren.

StefanV
2016-07-02, 20:13:15
Ich antworte Dir darauf mit einem Selbstzitat:
Ah, OK, das hab ich übersehen.

Wollts nur noch mal klar stellen, sicherheitshalber ;)

anddill
2016-07-02, 20:18:05
Ich weiß das es schon irgendwo mal in den drölfzig Seiten diskutiert wurde aber...

Soll es auch 4GB Karten mit 2000Mhz Speicher geben?

Die 1750Mhz Karten würden die Hashrate fürs Mining doch weiter limitieren.

Die 0,5GB Module gibt es nur bis 1750MHz, nur die 1GB RAMs sind mit 2GHz verfügbar. Also aktuell nein.

Nightspider
2016-07-02, 20:23:33
Die 0,5GB Module gibt es nur bis 1750MHz, nur die 1GB RAMs sind mit 2GHz verfügbar. Also aktuell nein.

http://www.nooooooooooooooo.com/vader.jpg :(

Hakim
2016-07-02, 20:23:53
Waren eigentlich bei dem Testern das Bios was eine 4 GB simulieren sollte auch das mit dem 1750 MHz berücksichtigt? Ich frag mich wie groß der Unterschied ist.

Edit: jo auf anandtech wurde das ausprobiert, 1750 MHz

Isen
2016-07-02, 20:29:06
Dass sich die PCI-SIG bisher nicht sonderlich imstande sieht sich mal ein wenig darüber zu äußern wie die Testkriterien/Testaufbau sind/ist, verwundert umso mehr :D

Magensaft
2016-07-02, 20:39:48
Dass sich die PCI-SIG bisher nicht sonderlich imstande sieht sich mal ein wenig darüber zu äußern wie die Testkriterien/Testaufbau sind/ist, verwundert umso mehr :D

Mich überhaupt nicht, die Jungs machen Ihren Job und hoffen, das Sie nicht von Intel, Nvidia oder AMD überfahren werden wenn da mal getrickst wird.

Fliwatut
2016-07-02, 20:41:42
Dass sich die PCI-SIG bisher nicht sonderlich imstande sieht sich mal ein wenig darüber zu äußern wie die Testkriterien/Testaufbau sind/ist, verwundert umso mehr :D
Das ist ein Industrieverband, die machen Freitags um 12 Uhr Feierabend und gehen ins Wochenende :biggrin:

Gipsel
2016-07-02, 20:42:02
Die 0,5GB Module gibt es nur bis 1750MHz, nur die 1GB RAMs sind mit 2GHz verfügbar. Also aktuell nein.Dafür sampelt Samsung bereits 4Gbit-Module mit 9Gbps ("Customer Sample", sollte also für die Hersteller in kleinen Stückzahlen zum Testen zur Verfügung stehen). :rolleyes:

anddill
2016-07-02, 20:48:27
Dass sich die PCI-SIG bisher nicht sonderlich imstande sieht sich mal ein wenig darüber zu äußern wie die Testkriterien/Testaufbau sind/ist, verwundert umso mehr :D
Zertifizierungsvorgänge sind oft selbst zertifiziert und unverrückbar festgeschrieben, bis sie neu zertifiziert werden, was evtl. mit einer neuen Norm kommt. Es könnte also sein daß die da am Ende ein 20 Jahre altes Schätzeisen dranhalten und den Wisch unterschreiben.

BlacKi
2016-07-02, 21:01:01
Waren eigentlich bei dem Testern das Bios was eine 4 GB simulieren sollte auch das mit dem 1750 MHz berücksichtigt? Ich frag mich wie groß der Unterschied ist.

Edit: jo auf anandtech wurde das ausprobiert, 1750 MHz
interessant: sie ist langsamer. 4gb sollten dabei aber reichen(ausser tomraider).

der durch den sparsameren speicher sollte doch mehr gpu takt anliegen und das defizit ausgleichen können oder nicht?

oder regelt das PT nur den grafikchip selbst? dann würden die 3watt die die 4gb karte spart aber nicht dazu passen.

Isen
2016-07-02, 21:20:51
Ganze Referenz Gelumpe sollte eh eingestampft werden, sehe den Sinn in diese nicht.
Hat zwar auch seine Vorteile, aber die wiegen die Nachteile nicht auf.

Nackte Karten ohne Kühler für die WaKü-Spezies der Rest kommt von den Partnern...
Der Ruf der Referenzkarten war nie überragend - ich hab die Teile früher schon gehasst wie sau, allein das Reinigen der Finnen hat mich immer angekotzt, da man hier die Karte demontieren muss und im ungünstigen Fall gleich neue WLP und Pads benötigt.

Nightspider
2016-07-02, 21:41:33
Dafür sampelt Samsung bereits 4Gbit-Module mit 9Gbps ("Customer Sample", sollte also für die Hersteller in kleinen Stückzahlen zum Testen zur Verfügung stehen). :rolleyes:

Die werden wir wohl aber nie in RX480 Karten sehen oder? :(

Fliwatut
2016-07-02, 21:51:25
Es könnte also sein daß die da am Ende ein 20 Jahre altes Schätzeisen dranhalten und den Wisch unterschreiben.
Dann braucht sich aber auch niemand zu beschweren.

Rabiata
2016-07-02, 23:21:26
Zertifizierungsvorgänge sind oft selbst zertifiziert und unverrückbar festgeschrieben, bis sie neu zertifiziert werden, was evtl. mit einer neuen Norm kommt. Es könnte also sein daß die da am Ende ein 20 Jahre altes Schätzeisen dranhalten und den Wisch unterschreiben.
Dann wäre es nicht verwunderlich, wenn ein paar Spikes undetektiert durchrutschen. Was ja auch nicht schlimm ist.

Aber ein um 20% überhöhter Strom als Mittelwert müßte doch auffallen :confused:

(del)
2016-07-02, 23:28:58
Dann wäre es nicht verwunderlich, wenn ein paar Spikes undetektiert durchrutschen. Was ja auch nicht schlimm ist.

Aber ein um 20% überhöhter Strom als Mittelwert müßte doch auffallen :confused:

Nicht, wenn es so abläuft wie bei den Reifenherstellern oder den Automobilbauern. Die dürfen ja auch selbst testen und die Behörde nickt es ab.

Ätznatron
2016-07-03, 00:01:33
Nicht, wenn es so abläuft wie bei den Reifenherstellern oder den Automobilbauern. Die dürfen ja auch selbst testen und die Behörde nickt es ab.

Du hast also keine Ahnung, wie der Zertifizierungsprozess tatsächlich durchgeführt wird?

Iruwen
2016-07-03, 00:15:14
kA ob ich an der richtigen Stelle schau und habs nur überflogen, wenn man "pci sig compliance test" googlet findet man ein bisschen was, das klingt zumindest ziemlich lax.

The PCI SIG recognizes that participants may bring designs that are not fully compliant or have unknown or undisclosed bugs. For this reason, to pass the interoperability tests, vendors must only demonstrate a success rate of 80%. If they have passed 100% of the PCI SIG mandatory tests (Gold Tests) and the 80% interoperability, the device is eligible to be included on the Integrators List. The Integrators List is proof a product has passed the rigorous PCI SIG tests and has demonstrated interoperability with others. This status implies that the device is viable for use in PCI Express systems.

TerrorZivi
2016-07-03, 02:36:04
Ich weiß das es schon irgendwo mal in den drölfzig Seiten diskutiert wurde aber...

Soll es auch 4GB Karten mit 2000Mhz Speicher geben?

Die 1750Mhz Karten würden die Hashrate fürs Mining doch weiter limitieren.


Den kannst du auch einfach auf 2000+MHz übertakten.

Wake
2016-07-03, 03:27:12
buildzoid scheint vom Aufbau des Ref-PCB nicht gerade begeistert zu sein:
https://www.twitch.tv/buildzoid/v/75850933?t=53m41s

Also würde 8-Pin ohne weiterführende Änderungen am PCB gar nichts bringen wenn das so bleibt, läuft die Sapphire (und womöglich die Devil) deswegen auch mit nur 6-Pin eingesteckt?

d2kx
2016-07-03, 03:52:43
buildzoid scheint vom Aufbau des Ref-PCB nicht gerade begeistert zu sein:
https://www.twitch.tv/buildzoid/v/75850933?t=53m41s

Also würde 8-Pin ohne weiterführende Änderungen am PCB gar nichts bringen wenn das so bleibt, läuft die Sapphire (und womöglich die Devil) deswegen auch mit nur 6-Pin eingesteckt?

Die Sapphire Nitro hat ein komplett eigenes PCB. Wie das bei anderen Custom-Karten aussieht, weiß ich nicht.

Ravenhearth
2016-07-03, 06:06:34
Wens interessiert: Techaltar (https://techaltar.com/amd-rx-480-gpu-review/4/) haben neu vermessen und kommen jetzt statt auf 116W auf 146W.

(del)
2016-07-03, 07:41:44
Wens interessiert: Techaltar (https://techaltar.com/amd-rx-480-gpu-review/4/) haben neu vermessen und kommen jetzt statt auf 116W auf 146W.Märchenstunde, Wenn ich immer "messen" lesen muss...

295 °C - erstaunlich, welch hohe Temperaturen manche Karten so abkönnen :D
https://i0.wp.com/techaltar.com/wp-content/uploads/2016/06/PowerFixed.png


Und nein, ich weiß nicht, WIE AMD das Ding zertifizieren ließ. Ich arbeite ja nicht bei denen... Ansonsten verweise ich auf meinen Artikel am Montag.

uweskw
2016-07-03, 07:57:58
Die 4gb Version war ja schon lieferbar, gibt es mittlerweile auch schon Reviews mit echten 4gb Karten?

greetz
US

Ätznatron
2016-07-03, 09:55:01
kA ob ich an der richtigen Stelle schau und habs nur überflogen, wenn man "pci sig compliance test" googlet findet man ein bisschen was, das klingt zumindest ziemlich lax.

Zwar aus 2007, aber möglicherweise heute noch so gültig:

http://www.embedded.com/design/system-integration/4026048/How-to-test-your-board-and-system-designs-for-PCIe-compliance-and-interoperability

Despite the presence of unreleased prototypes for testing and various competitors in the same building, the environment is very healthy. Engineers from competing companies help each other.

Also haben auch die Wettbewerber offenbar Einblick in den Zertifizierungsprozess des jeweiligen Konkurrenten.

Im Text wird auch auf diese Gold-Tests eingegangen, die auf ausgesuchten Testsytemen ("Gold" systems) stattfinden und zu 100% bestanden werden müssen.

Moreover, the PCI-SIG provides several "Gold" systems that have been determined to be fully compliant and provide a good platform for add-in card testing.

Lax? Ich weiss nicht...

Und wer sich mal die Testmethodik in schön bunt angucken möchte, wird hier fündig:

https://doc.xdevs.com/doc/Standards/PCIe/05_PCIe_3.0_Compliance_Testing.pdf

Nikstar
2016-07-03, 10:11:15
Nochmal bestätigt (http://www.pcgameshardware.de/AMD-Polaris-Hardware-261587/News/Radeon-RX-480-Polaris-10-Vollausbau-1200391/)
Er machte unmissverständlich klar, dass Polaris 10 nicht - wie kolportiert - 40 Compute Units besitzt, sondern die Radeon RX 480 mit 36 CUs (2.304 Shader) den Vollausbau nutzt.
http://www.pcgameshardware.de/screenshots/original/2016/06/AMD-Polaris-10-Polaris-11-Spezifikationen-29--pcgh_b2article_artwork.png

horn 12
2016-07-03, 10:25:18
Diese kommende Woche sollte es doch weitere Infos zu einer weiteren AMD Polaris/ Vega Karte geben.
Hat Volker von CB dies nicht angedeutet?

Wake
2016-07-03, 10:34:53
Die Sapphire Nitro hat ein komplett eigenes PCB. Wie das bei anderen Custom-Karten aussieht, weiß ich nicht.

Schon klar, aber falls vom Ref-Design ausgehend dieses neue Sapphire-Design diese Besonderheit weiterhin aufweist?

fondness
2016-07-03, 10:36:43
Viele weitere Bilder zur Sapphire Radeon RX 480 Nitro:
http://videocardz.com/61794/sapphire-radeon-rx-480-nitro-detailed-some-more

Argo Zero
2016-07-03, 10:47:04
1.325 Mhz ist schon eine Ansage. Bin mal auf den Speichertakt gespannt und natürlich auf die Lautstärke der Lüfter.

fondness
2016-07-03, 10:51:01
Die Lautstärke wird kein Problem sein, ein ähnlicher Kühler war bei Tonga flüsterleise.

Magensaft
2016-07-03, 11:00:38
Die 4gb Version war ja schon lieferbar, gibt es mittlerweile auch schon Reviews mit echten 4gb Karten?

greetz
US

Das könnte weiterhelfen:

http://wccftech.com/article/radeon-rx-480-reducing-voltage-increasing-efficiency/

Spasstiger
2016-07-03, 11:29:11
Im Startposting fehlt imo der Test von hardware.fr:
http://www.hardware.fr/articles/951-1/amd-radeon-rx-480-8-go-14nm-polaris-test.html
Dort ist gut zu sehen, dass AMD wie versprochen einen guten Schritt nach vorne gemacht hat beim Geometriedurchsatz mit Culling:

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=56514&stc=1&d=1467538076

Nvidia profitiert bei Pascal von den deutlich höheren Taktraten und scheint ebenfalls am Durchsatz pro Takt geschraubt zu haben.

dildo4u
2016-07-03, 11:38:53
Im Startposting fehlt imo der Test von hardware.fr:
http://www.hardware.fr/articles/951-1/amd-radeon-rx-480-8-go-14nm-polaris-test.html
Dort ist gut zu sehen, dass AMD wie versprochen einen guten Schritt nach vorne gemacht hat beim Geometriedurchsatz mit Culling:

Nvidia profitiert bei Pascal von den deutlich höheren Taktraten und scheint ebenfalls am Durchsatz pro Takt geschraubt zu haben.
Die haben auch Wichter 3 Hairwork's on/off getestet,die 480 setzt sich mit Tesselation gut von der 390 ab.

http://abload.de/img/hair5vosw0.png

http://abload.de/img/hair3q8sk7.png

BlackArchon
2016-07-03, 11:41:11
...
Nvidia profitiert bei Pascal von den deutlich höheren Taktraten und scheint ebenfalls am Durchsatz pro Takt geschraubt zu haben.
Hm, bei Tom's Hardware ist eher zu sehen, dass sich überhaupt nichts beim Durchsatz pro Takt von Maxwell zu Pascal weiterentwickelt hat: http://www.tomshardware.de/gtx-1070-gtx-1080-nvidia-pascal-effizienz-performance,testberichte-242131-3.html (das letzte Diagramm, "Shader Unit Performance Per Clock").

AnarchX
2016-07-03, 11:44:24
Da wird ja auch ein Spiel gemessen und nicht der explizite Dreieckdurchsatz.

dildo4u
2016-07-03, 11:46:25
Spasstiger meint die Geometrie Leistung dort ist Pascal massiv besser da diese Steigerungen für die 2x Gewinne für VR Game's nötig sind.

anddill
2016-07-03, 11:59:20
Zwar aus 2007, aber möglicherweise heute noch so gültig:

http://www.embedded.com/design/system-integration/4026048/How-to-test-your-board-and-system-designs-for-PCIe-compliance-and-interoperability



Also haben auch die Wettbewerber offenbar Einblick in den Zertifizierungsprozess des jeweiligen Konkurrenten.

Im Text wird auch auf diese Gold-Tests eingegangen, die auf ausgesuchten Testsytemen ("Gold" systems) stattfinden und zu 100% bestanden werden müssen.



Lax? Ich weiss nicht...

Und wer sich mal die Testmethodik in schön bunt angucken möchte, wird hier fündig:

https://doc.xdevs.com/doc/Standards/PCIe/05_PCIe_3.0_Compliance_Testing.pdf

Diese "Gold-Systeme" sind Referenzplattformen, in die wird die Karte reingesteckt, und wenn sie erkannt wird und nichts Feuer fängt dann hat sie bestanden.

Hab mich jetzt mal durch das bunte Dokument gewühlt. Da wird jede Menge in Sachen Signalqualität getestet, die Stromversorgung wird kaum erwähnt. Es gibt einen Testadapter mit der Möglichkeit den Strom zu messen, aber das ist nur statisch, also komplett ohne Rechenlast auf der Grafikkarte.

Ätznatron
2016-07-03, 12:21:52
Diese "Gold-Systeme" sind Referenzplattformen, in die wird die Karte reingesteckt, und wenn sie erkannt wird und nichts Feuer fängt dann hat sie bestanden.

Hab mich jetzt mal durch das bunte Dokument gewühlt. Da wird jede Menge in Sachen Signalqualität getestet, die Stromversorgung wird kaum erwähnt. Es gibt einen Testadapter mit der Möglichkeit den Strom zu messen, aber das ist nur statisch, also komplett ohne Rechenlast auf der Grafikkarte.

Ist schon klar, dass das Referenzplattformen sind.

Mittlerweile bin ich der Meinung, dass sich die Redakteure, die von einem Bruch der Spezifikationen sprechen, eventuell ein wenig sehr weit aus dem Fenster gelehnt haben.

Für den Außenstehenden (dazu zähle ich auch die Redakteure) ist das Verfahren und letztlich damit auch die finale Produktbewertung\Zertifizierung durch die PCIe-SIG ein Buch mit 7 Siegeln. Man weiss zu wenig darüber.

Erstmal ist also hinzunehmen, dass die RX480 erfolgreich die Zertifizierung bestanden hat. Und erst wenn die PCIe-SIG sagt, nee, Freunde, is nich, dann darf vom Bruch der Spezifikation gesprochen werden.

anddill
2016-07-03, 12:33:59
So wie ich das aus den Dokumenten entnehmen kann, wird die Stromaufnahme unter Last bei der Zertifizierung gar nicht gemessen. Das ist wohl als so trivial angesehen, daß man einfach voraussetzt daß der Hersteller des Prüflings das garantiert.
Wobei der Hersteller hier sicher nicht AMD heißt, sondern "nur" der Auftraggeber ist. Das PCB hat irgend jemand für AMD entwickelt und hergestellt.
Fragt sich nur wer hier wen beschissen hat. Hat AMD dem Entwickler einen zu niedrigen Verbrauch der Karte vorgegeben? Dagegen spricht die mit Gewalt auf geringe Verluste unter Vollast getrimmte Stromversorgung, die wussten daß sie an der Grenze kratzen. Hat der Entwickler einfach mit einem Schulterzucken die zu hohe Strombelastung des PEG hingenommen und das Ding einfach verkauft, in der Hoffnung es kommt nicht raus? :uponder:

illidan
2016-07-03, 12:38:03
Sicher, dass die Entwicklung outgesourced ist?
Das bedeutete doch schon einen ziemlichen Kontrollverlust. Kann auch nicht so teuer sein, eine Abteilung mit Labor für so etwas zu unterhalten.
Kann mich an ein Video aus dem NV-HQ erinnern, wo so ein oder ein ähnlicher Bereich zu sehen war.

Ätznatron
2016-07-03, 12:38:16
So wie ich das aus den Dokumenten entnehmen kann, wird die Stromaufnahme unter Last bei der Zertifizierung gar nicht gemessen. Das ist wohl als so trivial angesehen, daß man einfach voraussetzt daß der Hersteller des Prüflings das garantiert.


Wiedermal nur eine Vermutung.

Da werden jede Menge Tests gefahren und ausgerechnet beim Punkt der Leistungsaufnahme soll das Verfahren versagen?

Ich bitte dich...

Fliwatut
2016-07-03, 12:40:00
Für den Außenstehenden (dazu zähle ich auch die Redakteure) ist das Verfahren und letztlich damit auch die finale Produktbewertung\Zertifizierung durch die PCIe-SIG ein Buch mit 7 Siegeln. Man weiss zu wenig darüber.

Erstmal ist also hinzunehmen, dass die RX480 erfolgreich die Zertifizierung bestanden hat. Und erst wenn die PCIe-SIG sagt, nee, Freunde, is nich, dann darf vom Bruch der Spezifikation gesprochen werden.

Das sehe ich sehr ähnlich. Der offizielle Test wurde bestanden, wenn da nicht intensiv getestet wird, dann ist das nicht AMDs Problem. Was da genau in welcher Form geprüft wird, scheint keiner zu wissen, anscheinend auch die Journalisten nicht, die vom Bruch der Spezifikation schreiben. Das ist ohne klaren Beweis schon ein gefährlich dünnes Eis, beeinflusst es doch den Verkauf der Karten wahrscheinlich in nicht unerheblichem Maß. Sollte kein Bruch der Spezifikationen vorliegen, dann könnte es durchaus sein, dass man ggü. AMD schadenersatzpflichtig wäre. Hier hätten die Tester wohl besser im Konjunktiv formuliert anstatt direkt einen Fakt zu postulieren.

Was passiert denn mit einem PCIe-Slot, wo andauernd starke Schwankungen im Stromfluss vorkommen? Altert der nicht vllt. sogar schneller als einer, in dem dauerhaft etwas mehr Strom fließt? Keiner kennt die wirklichen Konsequenzen, aber es wird ein Riesenfass aufgemacht.

illidan
2016-07-03, 12:42:11
Du hast da einen Denkfehler. Es gibt bei der 480 nämlich nicht nur konstant starken Stromfluss, sondern diese Spitzen auch noch zusätzlich.

Argo Zero
2016-07-03, 12:43:32
Die Lautstärke wird kein Problem sein, ein ähnlicher Kühler war bei Tonga flüsterleise.

Das klingt schon mal gut.
Ich sehe in der Karte außerdem richtig viel OC Potential, gerade beim Speicher. Die paar MHz, die das Referenzdesign verkraftet, haben erstaunlich gut in Mehrleistung skaliert. Vielleicht geht es dann sogar knapp bis zur 980.

Magensaft
2016-07-03, 12:48:01
Das sehe ich sehr ähnlich. Der offizielle Test wurde bestanden, wenn da nicht intensiv getestet wird, dann ist das nicht AMDs Problem.


Ok, was Du damit sagen möchtest ist also, wenn ein Prüfungsverfahren nicht mit der Zeit schritt hält, es nicht die Schuld des Herstellers ist dieses auszunutzen? Interessant.

Andererseits könnte man versuchen die Frage der Schuld einfach mal beiseite zu schieben und nach dem Gründen fragen, das wird zwar vermutlich genauso wenig erfolg haben ist aber bestimmt im Grunde der Sache deutlich ehrlicher.

Magensaft
2016-07-03, 12:51:41
Das klingt schon mal gut.
Ich sehe in der Karte außerdem richtig viel OC Potential, gerade beim Speicher. Die paar MHz, die das Referenzdesign verkraftet, haben erstaunlich gut in Mehrleistung skaliert. Vielleicht geht es dann sogar knapp bis zur 980.

Unter DX11 werden da bei den Custom sicherlich noch gute Fortschritte gemacht werden, aber halt alles über 150W.
Die eigentliche Stärke von der RX480 sehe ich persönlich in der besseren DX12 Performance und der gesteigerten Tesselationsleistung.


Ob wohl eine verbessertes Blower Design auf den Markt kommen wird? Eventuell wird Saphire das ja machen, mal sehen.

illidan
2016-07-03, 12:54:10
Was für bessere DX12-Performance? In Ashes ist die 390 klar schneller.

Magensaft
2016-07-03, 13:00:44
Was für bessere DX12-Performance? In Ashes ist die 390 klar schneller.

Nimm Dir mal die Vergleichswerte der GTX Reihe als anhaltspunkt, die 390 hat anscheinend auch vom Treiberupdate Profitiert. Ausserdem hat die 480 immer dann Nachteile wenn ein Spiel mehr ROPs nutzen möchte, da glänzt dann auch die 390 da sie doppelt so viele davon hat. Auserdem macht ein einzelner Spielebenchmark keinen Beweis...

Fliwatut
2016-07-03, 13:04:15
Ok, was Du damit sagen möchtest ist also, wenn ein Prüfungsverfahren nicht mit der Zeit schritt hält, es nicht die Schuld des Herstellers ist dieses auszunutzen?
Das impliziert böse Absichten von AMD, kannst du beweisen, dass etwas ausgenutzt wurde?

Linmoum
2016-07-03, 13:04:31
Was für bessere DX12-Performance? In Ashes ist die 390 klar schneller.
Laut CB sind's in FullHD nicht mal 5%, "klar schneller" ist da für mich was anderes.

dildo4u
2016-07-03, 13:08:58
Ashes kann MSAA ist ein Wunder das die 480 so gut mithält,die Bandbreiten Kompression kackt nur bei Wolfenstein komplett ab laut PCGH.Dort ist sie ca so schnell wie eine 380.

illidan
2016-07-03, 13:14:21
Es gab irgendwo einen MSAA-Test der gezeigt hat, dass die 480 mit MSAA stärker einbricht als die 390. MSAA ist also wohl eben genau keine Paradedisziplin der Karte.
Und in WQHD sinds halt 7% Vorsprung für die 390 in Ashes. Gibt DX11-Spiele, in denen die 480 auch in WQHD schneller als die 390 ist.
Die Aussage, die 480 wäre die bessere DX12-Karte, ist doch völlig unbelegbar.

anddill
2016-07-03, 13:15:12
Wiedermal nur eine Vermutung.

Da werden jede Menge Tests gefahren und ausgerechnet beim Punkt der Leistungsaufnahme soll das Verfahren versagen?

Ich bitte dich...

Möglich.
Ich hab Dir mal ein Bild von der Testplattform angehangen die genutzt wird um die elektrische Kompatibilität zu testen. Rechts unten sind Shunts mit Prüfbuchsen verbaut, über die der Strom gemessen werden kann. Ansonsten gibt es Messpunkte um die Bussignale zu messen. Aber ich kann mir nicht vorstellen wie man eine Grafikkarte auf dieser Messplattform auslasten kann. Es gibt keine Verbindung zu einem PC, zumindest sehe ich keine.

Magensaft
2016-07-03, 13:17:08
Das impliziert böse Absichten von AMD, kannst du beweisen, dass etwas ausgenutzt wurde?

Wollen wir diese Art Spiel wirklich spielen?

Thowe
2016-07-03, 13:18:20
So wie ich das aus den Dokumenten entnehmen kann, wird die Stromaufnahme unter Last bei der Zertifizierung gar nicht gemessen. Das ist wohl als so trivial angesehen, daß man einfach voraussetzt daß der Hersteller des Prüflings das garantiert.

...

Ich denke schon das diese auch gemessen wird, nur im Dokument einfach nicht erwähnt. Wenn ich etwas zertifiziere, muss ich schon jeden Aspekt bei der Kontrolle abarbeiten und das sind ja schon eine Menge.

Argo Zero
2016-07-03, 13:19:56
Unter DX11 werden da bei den Custom sicherlich noch gute Fortschritte gemacht werden, aber halt alles über 150W.
Die eigentliche Stärke von der RX480 sehe ich persönlich in der besseren DX12 Performance und der gesteigerten Tesselationsleistung.


Ob wohl eine verbessertes Blower Design auf den Markt kommen wird? Eventuell wird Saphire das ja machen, mal sehen.

Bei mir werkelt gerade ein 250 Watt Monster (Asus R9 280X). :D
Schätze mal bis ca. 200 Watt kann man eine Grafikkarte leise mit einem guten Kühler kühlen.
Für 980 Performance wäre ich dann auch bereit 300EUR für die Karte auszugeben, sofern der TDP bei ca. 180 Watt liegt, damit das entsprechend leise gekühlt werden kann.
Bei den aktuellen Preisen der 980 (410 EUR) wäre das ein gutes P/L.

anddill
2016-07-03, 13:21:16
Ich denke schon das diese auch gemessen wird, nur im Dokument einfach nicht erwähnt. Wenn ich etwas zertifiziere, muss ich schon jeden Aspekt bei der Kontrolle abarbeiten und das sind ja schon eine Menge.
Aber wirklich unter Vollast? Siehe Bild weiter oben.

horn 12
2016-07-03, 13:28:47
@AnarchX

Was haltest Du bitte zur RX480 und sollte man jene im Referenz Design derzeit meiden
Mit einem Absenken des PL durch Neuen AMD Treiberfix würde die Karte nochmals langsamer werden und gar unter GTX 970 Stock rutschen.
Da bleibe ich bei Sapphire Fury Tri-X bis es Vega gebacken bekommt!

Hübie
2016-07-03, 13:29:12
Auf mich macht es ebenfalls den Eindruck, als konzentriere man sich bei der Zertifizierung vornehmlich auf die Signalqualität und Bandbreite, weniger um Energieversorgung und Leistungsaufnahme / -abgabe.

Thowe
2016-07-03, 13:34:25
Aber wirklich unter Vollast? Siehe Bild weiter oben.

Das Board oben habe ich gesehen, meines Wissens werden diese an Hersteller von Karten verkauft um Vorabtests durchführen zu können. Ich hoffe doch, die PCI SIG machen auch entsprechende Tests mit anderen Hilfsmitteln, da die Leistungsaufnahme ohne Funktion der Karte in den allermeisten Fällen, beispielhaft noch RAID-Controller oder Quad-NICs, ohne jeglichen Aussagewert ist.

Magensaft
2016-07-03, 13:36:02
Bei mir werkelt gerade ein 250 Watt Monster (Asus R9 280X). :D
Schätze mal bis ca. 200 Watt kann man eine Grafikkarte leise mit einem guten Kühler kühlen.
Für 980 Performance wäre ich dann auch bereit 300EUR für die Karte auszugeben, sofern der TDP bei ca. 180 Watt liegt, damit das entsprechend leise gekühlt werden kann.
Bei den aktuellen Preisen der 980 (410 EUR) wäre das ein gutes P/L.

Ja, da sehe ich auch keine Probleme, die 180W sind mit OC auch machbar, zumindest suggerieren das die vorläufigen Erkenntnisse. Bin jetzt aber erstmal auf den Patch am fünften gespannt, das wird wahrscheinlich der wichtigste Patch in der Geschichte der RX480 werden. :)

Ätznatron
2016-07-03, 13:42:46
Möglich.
Ich hab Dir mal ein Bild von der Testplattform angehangen die genutzt wird um die elektrische Kompatibilität zu testen. Rechts unten sind Shunts mit Prüfbuchsen verbaut, über die der Strom gemessen werden kann. Ansonsten gibt es Messpunkte um die Bussignale zu messen. Aber ich kann mir nicht vorstellen wie man eine Grafikkarte auf dieser Messplattform auslasten kann. Es gibt keine Verbindung zu einem PC, zumindest sehe ich keine.

Interessanter Gedanke.

Innerhalb der PCI-SIG werden also explizite Regeln vereinbart (u.a. zur max. Leistungsaufnahme), deren Einhaltung mangels geeignenten Equipments nicht überprüfbar ist.

Hm, kann man glauben, muss man aber nicht.

Phonon
2016-07-03, 13:46:19
Ich bin sehr gespannt auf die Custommodelle. Bei meinem Freund werkelt bisher eine 280x. Die RX480 scheint nach bisherigen Augenmaß und vermuteter Verbesserung bei den Customs ein sehr guter Ersatz für Spiele in FHD zu sein.

Schlammsau
2016-07-03, 14:23:14
Weiß man schon wann die ersten Customs aufschlagen werden, Bilder der Sapphire hab ich hier ja jetzt einige gesehen.

hesTeR-
2016-07-03, 14:27:53
angeblich bei ocuk ab morgen vorbestellbar und ab 7.7 kaufbar

Gipsel
2016-07-03, 14:29:55
Nicht raten, MESSEN! Ob da nur ein Stück Metall oder ein Haufen Elektronik zwischen den 12V-Seiten der High-Side Fets ist kannst Du mit einem 10€-Multimeter feststellen.
Oh Mann, ich brauch sone Karte.
Hier hat einer genau das gemacht (https://www.twitch.tv/buildzoid/v/75850933?t=53m39s). ;)
Der war ziemlich überrascht, daß die Phasen aufgeteilt sind.

Edit:
Und bei 1:15 verbindet er die 12V vom Slot und vom 6Pin (da gibt es offenbar direkt nebeneinander liegende Pads am Ende der Karte :freak:), was bei Single-Rail-Netzteilen recht unproblematisch ist, solange man nicht den 6Pin-Stecker vergißt (ohne den 6Pin fritiert man sich dann aber mit verbundenen 12V sicher den Slot, weil die Karte dann nicht mitbekommt, daß der Stecker fehlt und Alles über den Slot zieht statt den Betrieb zu verweigern).

unl34shed
2016-07-03, 14:31:20
buildzoid scheint vom Aufbau des Ref-PCB nicht gerade begeistert zu sein:
https://www.twitch.tv/buildzoid/v/75850933?t=53m41s

Also würde 8-Pin ohne weiterführende Änderungen am PCB gar nichts bringen wenn das so bleibt, läuft die Sapphire (und womöglich die Devil) deswegen auch mit nur 6-Pin eingesteckt?

War schon klar, dass sie 3 Phasen vom 6pin und 3 Phasen vom Slot powern. Das macht man nun mal so, aus dem einfachen Grund, würde man beide 12V Schienen direkt verbinden, würde durch die zu erwartende Spannungsdifferenz (liefern ja nicht beide exakt 12V) immer ein recht großer Strom fließen um die Spannungen auszugleichen.

Was man aber mal testen könnte wäre das auslöten einer Phase die mit den 12V des Slot verbunden ist, dann müsste theoretisch so der Slot entlastet werden. Die Spule auslöten sollte eigentlich reichen. Ich muss aber sagen, dass ich nicht ins Datenblatt des Voltagecontroller geschaut habe, ob das Probleme machen könnte. Und wenn AMD mit dem Fix das Verhältnis vom Powerdraw aus dem Slot und 6Pin anpassen (der Voltagecontroller soll das wohl hergeben) wäre das auch egal.

=Floi=
2016-07-03, 14:33:40
Interessanter Gedanke.

Innerhalb der PCI-SIG werden also explizite Regeln vereinbart (u.a. zur max. Leistungsaufnahme), deren Einhaltung mangels geeignenten Equipments nicht überprüfbar ist.

Hm, kann man glauben, muss man aber nicht.


man könnte auh ein spezielles bios schreiben. das ist doch nicht wirklich das problem. das golden sample wird sicherlich entweder weniger takt gehabt haben oder war von der chip spannung besser.

Ätznatron
2016-07-03, 14:46:47
man könnte auh ein spezielles bios schreiben. das ist doch nicht wirklich das problem. das golden sample wird sicherlich entweder weniger takt gehabt haben oder war von der chip spannung besser.

Und dann schön drauf hoffen, dass es nicht auffliegt?

Argo Zero
2016-07-03, 14:51:44
angeblich bei ocuk ab morgen vorbestellbar und ab 7.7 kaufbar

https://www.overclockers.co.uk/sapphire-radeon-rx-480-nitro-oc-8192mb-gddr5-pci-express-graphics-card-gx-37b-sp.html

"Should Half Life 3 ever be released, the RX-480 will be the perfect gaming card!!!"

ROFL ;D
Da macht das Marketing wohl ein Teenager

Schlammsau
2016-07-03, 14:56:59
Hmm, warum nur in UK ....

Versenden die auch nach DE?

[MK2]Mythos
2016-07-03, 15:09:50
Ja, das Thema hatten wir schon, die Beiträge dazu wurden allerdings leider gelöscht, warum auch immer...
Inklusive Versand bist du bei knapp 330 Eur nach Deutschland dabei. Erscheinungsdatum ist der 22. July.