Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 28./29./30. Juni 2016
Leonidas
2016-07-01, 11:45:59
Link zur News:
http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-282930-juni-2016
Der Scheiß mit der Slot-Problematik produziert wieder lauter mistige Schlagzeilen die sich in jedem Hirn für längere Zeit festsetzten. Als ob es schon nicht schwer genüg wäre die Leute vom Kauf der 480 zu überzeugen anstatt zu einer 390 oder 390X zu greifen.
MadManniMan
2016-07-01, 13:00:28
Hey Leo, kleine dass/das-Korrektur folgend.
Erster Absatz:
"... vieler Beobachter ist, dass die Karte einfach nur ..."
"... - und dass dies nicht ausreichend ist, ..."
Zweiter Absatz:
"Sicherlich freuen sich nun die Grafikkarten-Hersteller, dass es ein ..."
Vierter Absatz:
"... in der Foren-Diskussion davon aus, dass ein Teil ..."
Fünfter Absatz:
"Gut möglich (...), dass die Radeon RX 480 letztlich ..."
Sechster Absatz:
"Damit bleibt die Chance offen, dass Sonys PS4K ..."
Wie immer gilt: Deine Zusammenfassung der Tagesgeschehnisse bzw. der Hardwarewelt ist für mich noch immer der Grund dafür, dass diese Seite lebt - und einfach der beste Überblick, den man bekommen kann.
Der Gesamteindruck würde durch diese kleine Korrektur nur noch besser werden.
TightNX
2016-07-01, 13:56:21
Der Grund für die durchwachsene Resonanz auf die RX480 liegt weniger darin, was sie geworden ist. Oder, was sie hätte sein sollen. Sondern, was sie hätte sein können.
Äh... was?!? ;)
Und in dieser Frage hat AMD (nicht zum ersten Mal) ein klares Eigentor geschossen
Amen, Reverend.
zur RX 480:
Effizienz:
AMD scheint eingeschränkter in den Architekturänderungen zu sein als nVidia.
Raja Koduri z.B. sagte das die erste Archtekturentscheidung für Polaris etwa 3 Jahre zurrück liegt Anfang 2013,
wenn das so auch auf die ganze GCN-Architektur also ab HD7970 zutrifft ist das 3 Jahre vor Dez.2011 also Ende 2008 passiert
und seitdem sind keine wirklich krassen Änderungen ála nVidia gemacht worden, die scheinen da deutlich kreativer zu sein.
------------------------------------------------------------------------
zum PCIe ? Problem ?
AMD hat erklärt, dass die eigenen Validierungstestläufe auf anerkannten Messständen keine Probleme gemacht oder gezeigt haben, und dennoch waren die Werte bei TomsHardware deutlich drüber bzw. außerhalb der Specs.
Im AMD Statement bezüglich ihrer eigenen Testläufe wurde aber weder über "noch in Ordnung gehende Toleranzgrenzen" oder generell über den 75W-Wert oder Ampere-Zahlen gesprochen.
Also wurde garnicht eindeutig kommuniziert was denn die Testläufe eigentlich für Fehler aufdecken sollen oder wo die Toleranzgrenzen gesetzt waren.
-- Great question and I am really glad you asked.
We have extensive testing internally on our PCIE compliance and RX480 passed our testing. However we have received feedback from some of the reviewers on high current observed on PCIE in some cases. We are looking into these scenarios as we speak and reproduce these scenarios internally. Our engineering team is fully engaged. --
MadManniMan
2016-07-01, 14:44:24
und seitdem sind keine wirklich krassen Änderungen ála nVidia gemacht worden, die scheinen da deutlich kreativer zu sein.
NV hat durch den ganzen Project-Denver-Kram (mobile APU und Zeugs) viel in Richtung Effizienz entwickelt, das ist in Maxwell eingeflossen, IIRC. Schade, dass AMD noch nicht hat nachziehen können.
Iscaran
2016-07-01, 15:23:18
AMD hat allerdings einiges verschenkt durch die Problematik der zu hohen Stromaufnahme, welche ihrerseits den faktischen Bruch der PCI-Express-Spezifikation hervorruft. Rein praktisch werden wohl auch die Referenzdesigns funktionieren, wahrscheinlich selbst auf eher günstigen Mainboards bzw. in billigen Komplett-Rechnern. Dennoch sollte man niemals eine solche Angriffsfläche bieten, welche zudem mit einer einfachsten Maßnahme wie einem 8poligen Stromstecker vorab hätte verhindert werden können. Sicherlich freuen sich nun die Grafikkarten-Hersteller, das es ein größeres Augenmerk auf die Herstellerdesigns zur Radeon RX 480 geben wird – aber gerade der Eindruck am Launchtag zählt viel mehr als alle später erbrachten Leistungen und Verbesserungen. Und in dieser Frage hat AMD (nicht zum ersten Mal) ein klares Eigentor geschossen – was die Frage aufstellt, wie sorgsam diese Launches bei AMD geplant und vorbereitet werden. Bei einer wirklich soliden Launch-Vorbereitung hätte klar werden müssen, was die Presse zu dieser Problematik schreiben würde – und dann hätte man eventuell vorab noch reagieren können.
Nicht besonders nett ist in dieser Angelegenheit im übrigen der Versuch AMDs, das ganze herunterzuspielen als Ausnahmen bei "einigen" Testberichte – denn am Ende haben alle Testberichte, welche über die Möglichkeit zur Stromverbrauchs-Messung der reinen Grafikkarte verfügen, jene Spezifikations-Übertretung ausgemessen (Überblick über die Stromverbrauchs-Messungen der Radeon RX 480). Einige Tester wie HT4U, PC Games Hardware und Tom's Hardware hatten dann noch weitere Möglichkeiten und konnten damit dann den Finger zielgenau in die Wunde legen. Wie gesagt wäre dies – da AMD intern über das Verhalten der Grafikkarte eigentlich Bescheid gewußt haben muß – vorher erkennbar gewesen, was die Presse zu diesem Punkt herausfinden und schreiben würde. Es sei denn natürlich, AMD würde über die (inzwischen jahrealte) Pionierarbeit gerade von HT4U in dieser Frage nicht im Bilde sein – was kaum sein kann angesichts inzwischen mehrerer Webseiten, welche Stromverbrauchs-Messung der reinen Grafikkarte beherrschen. Und sicherlich ist AMD gut beraten, entschärfenderweise dem Vorschlag von HT4U folgend sich offiziell, ordentlich und erschöpfend zu erklären, sowie vor allem eine Unbedenklichkeitserklärung ob dieses Spezifikationsbruchs abzugeben (sofern möglich).
Es ist wieder wie üblich.
Hier und auch sonst fast überall wird ein Riesenfass aufgemacht über angebliche "Specs"-Tatsachen die z.B. von der nVidia 750Ti oder 960 ebenso gebrochen werden wie auch der 1070.
In der Spec steht nirgends was von "average" etc.
Warum wirft man nVidia kein Spec-bruch vor ? Die Lastspitzen durchbrechen 75W.
Zudem wird die Spannung mit einer Toleranz von 9% vorgegeben...
P =U *I
Wenn also U mit 9% Toleranz vorgegeben ist, wie groß ist dann die "Schwankung" in P ?
Annahme I ist Präzise und exakt messbar.
Mit 9% Toleranz in U hat man einen "Range von 69-82W" der 75W "nominal" unter Einhaltung der Norm entspricht.
Und das ist nur "simpel" gerechnet und noch gar nicht mit Zeitauflösung für Lastspitzen etc.
Das Problem ist denke ich das THG und HT4u und andere hier mit Equipment messen das noch nicht mal in den zur Normung vorgesehenen "Messungen" Gefordert wird...dazu noch das keiner "kritisch" die Toleranzen der Norm diskutiert ist auch sehr ärgerlich.
Hauptsache ein Faß aufmachen und groß auf Seite 1 Schreiben "ich habs ja gewusst AMD hats wieder verkackt"....na klar und nVidia betreibt ihre Karten mit einer anderen PCIe-Norm offenbar.
Im AMD Statement bezüglich ihrer eigenen Testläufe wurde aber weder über "noch in Ordnung gehende Toleranzgrenzen" oder generell über den 75W-Wert oder Ampere-Zahlen gesprochen.
Also wurde garnicht eindeutig kommuniziert was denn die Testläufe eigentlich für Fehler aufdecken sollen oder wo die Toleranzgrenzen gesetzt waren.
Das PEG Protokoll stell 60 Watt über die 12 Volt Schiene und 15 Watt über die 3,3 Volt Schiene sicher. Wie haben die Redaktionen das vermessen? Ein Messkabel an den Bus zu halten, macht es nicht besser, wahrscheinlich reagiert der PWR-Regulator darauf.
Die Karte 75 Watt aus dem PEG und 75 Watt über den 6xPin-PCIE Stecker ziehen zu lassen, reduziert das gehaßte Spulenfiepen (Gewyne) merklich, ohne groß auf eine hochwertige VRM setzen müssen (besonders verteuerte Bauteile). Da sonst beide Versorgungsschienen sich gegenseitig hochschaukeln können, was dann zu den genannten Resonanzen in der Versorgung führt und gezielt auf die Filterung übergreift. Der Preis der Karte erlaubt einfach keinen anderen Ansatz.
Auf einem Mainboard mit 2 oder heute meist 3 PEG Slots (16x/8x/4X; 8x/8x/4x usw. [die auch noch automatisch ab- und angeschalten werden]), kann man locker 3 Grafikkarten ohne zusätzliche Stromstecker betreiben. Da schaltet nichts ab oder sonst was, so ein Blödsinn hier schon wieder. Das Board oder Netzteil sowie die Überwachung (TPU etc. und sowas) hat damit auch kein Problem.
Die PWR-Regulation reagiert dabei auch mit vordefinierten Trägheitswerten, was auch dazu führen kann, daß die Karten kurzzeitig mehr aufnehmen können. Es hängt von der Empfindlichkeit des Regulator ab. Wenn dieser nicht mit bestimmter Trägheit konzipiert würde, kann das Probleme auf dem gesamten Bus verursachen.
Die PEG Slots lassen mehr als 75 Watt zu, binden sich eher an Temperaturprotokolle (Materialmix usw.) und es gab in der Vergangenheit von Nvidia Grafikkarten und Mainboards, die genauso gegen das Protokoll als solches (wenn es überhaupt so existiert - mit der Meßmethodik die die genannten Redaktionen anwenden) verstießen und zusätzliche Stromzuleitungen über das Netzteil (Molexstecker) zuließen.
Die Diskussion ist ermüdend, da wird wird mal wieder das Haar in der Suppe gesucht. AMD muß dazu nicht mal ein Statement abgeben, denn das Meßprotokoll muß der SIG vorliegen, bzw. haben die das selbst angefertigt. Die Karte hat jedenfalls von denen eine Freigabe erhalten.
Ich will nicht ausschließen dass dort vllt. Zulieferbauteile auf dem Layout defekt sind oder entsprechen nicht den Spezifikationen. Das gab es in der Vergangenheit auch schon, gespart wird überall und auch mal was anderes aufgedruckt!
Die Frage ist, wie und welche Meßmethodik die Spezifikation zur Wertermittlung vorsieht und nicht welcher fiktiver oder gemessener Wert, dem Protokoll als solches frei zugeordnet wird. Die Meßmethodik der feststellenden Redaktionen kann am Spezifikationsprotokoll gemessen, völlig falsch sein. Soviel dazu, wahrscheinlich muß AMD dann die Redaktionen halt verklagen, wenn sie FUD verbreiten und dadurch ein finanzieller Schaden entstünde. Der Ruf ist ja schnell ruiniert.
Klicks sind immer noch Wert, als alles andere - schlimm ist das im ganzen WWW geworden! Hauptsache ich kann dem Anderen eins rein würgen.
Heinlo
2016-07-01, 15:43:49
Naja, das mit dem Stromverbrauch jenseits der 150W ist wirklich nicht erwartet worden ganz einfach weil man zuvor eben die 6Pin Anschlüsse und die 150W Designs verkündet hat. Da bin ich wirklich mal gespannt, was sehr viel kühlere Chips bei Custom-Designs für Werte zeigen. Es wird ja immer wieder geschrieben je heisser die Chips desto schlechter die Taktausbeute, nur wieviel macht das wirklich aus, und geht dann auch gleicher Takt bei weniger Watt? Wir werden sehen.
Was eigentlich eine geheuchelte Falschinformation darstellt sind die Angaben zur Effizienz.
Man muss einfach mal akzeptieren, dass die neuen AAA Games alle mit DX12 und Vulkan kommen werden, VR sowieso.
Eine GPU die heute gekauft wird muss man doch für die nächsten par Jahre bewerten, die wenigsten Käufer suchen eine Graka nur für 3-6 Monate.
Ergo sollte man Effizienz und Leistung mal ausschliesslich mit DX12 und Vulkan anschauen und vergleichen. Ich bin sicher es ergibt sich dann ein gänzlich anderes Bild, weil dan die AsyncCompute Architektur von GCN nicht mehr umsonst mit Strom mitläuft..... und wer dann noch bei gleichem Preis eine GTX970 holt, der hat den Schuss nicht gehört
Plitzkrieg
2016-07-02, 17:39:19
Es ist wieder wie üblich.
Hier und auch sonst fast überall wird ein Riesenfass aufgemacht über angebliche "Specs"-Tatsachen die z.B. von der nVidia 750Ti oder 960 ebenso gebrochen werden wie auch der 1070.
In der Spec steht nirgends was von "average" etc.
Warum wirft man nVidia kein Spec-bruch vor ? Die Lastspitzen durchbrechen 75W.
Zudem wird die Spannung mit einer Toleranz von 9% vorgegeben...
P =U *I
Wenn also U mit 9% Toleranz vorgegeben ist, wie groß ist dann die "Schwankung" in P ?
Annahme I ist Präzise und exakt messbar.
Mit 9% Toleranz in U hat man einen "Range von 69-82W" der 75W "nominal" unter Einhaltung der Norm entspricht.
Und das ist nur "simpel" gerechnet und noch gar nicht mit Zeitauflösung für Lastspitzen etc.
Das Problem ist denke ich das THG und HT4u und andere hier mit Equipment messen das noch nicht mal in den zur Normung vorgesehenen "Messungen" Gefordert wird...dazu noch das keiner "kritisch" die Toleranzen der Norm diskutiert ist auch sehr ärgerlich.
Hauptsache ein Faß aufmachen und groß auf Seite 1 Schreiben "ich habs ja gewusst AMD hats wieder verkackt"....na klar und nVidia betreibt ihre Karten mit einer anderen PCIe-Norm offenbar.
Vielleicht liegt das Problem darin, dass die Referenz Karten die Spezifikationen nicht überschreiten und die Boardpartner bei Nvidia die Spezifikationen nicht einhalten? Bei AMD ist es das REFERENZDESIGN dass die Spezifikationen bricht!
zu deinen halbgaren Erklärungsversuchen wieso das ja alles gar nicht so schlimm ist und sich AMD ja quasi doch an die Spezifikationen hält hier ein kleiner Ausschnitt von FormatC von Toms Hardware:
Die Wattzahlen legen wir mal beiseite, die haben als Produkt mit der (ebenfalls schwankenden) Spannung mit der verletzten Norm nur indirekt etwas zu tun. Der 12V-Anschluss am PEG ist laut SIG mit 5.5 Ampere spezifiziert, einschließlich 9% Toleranz nach beiden Seiten hin. Ich habe im Mittel aber ca. 7 Ampere gemessen, also fast 30% mehr! Selbst wenn man gnädig die Toleranz mit einpackt, verbleiben immer noch so um die 20% Überschreitung.
Die 75 Watt für den PEG sind ein volkstümlich genutzter Richtwert, aber die Norm sagt eindeutig nur etwas über die Stromstärken aus und lässt die Spannungen außen vor. Womit wir bei 65 Watt für 12 Volt wären, der Rest teilt sich auf 5 und 3.3 Volt auf.
Was eigentlich eine geheuchelte Falschinformation darstellt sind die Angaben zur Effizienz.
Man muss einfach mal akzeptieren, dass die neuen AAA Games alle mit DX12 und Vulkan kommen werden, VR sowieso.
Eine GPU die heute gekauft wird muss man doch für die nächsten par Jahre bewerten, die wenigsten Käufer suchen eine Graka nur für 3-6 Monate.
Ergo sollte man Effizienz und Leistung mal ausschliesslich mit DX12 und Vulkan anschauen und vergleichen. Ich bin sicher es ergibt sich dann ein gänzlich anderes Bild, weil dan die AsyncCompute Architektur von GCN nicht mehr umsonst mit Strom mitläuft..... und wer dann noch bei gleichem Preis eine GTX970 holt, der hat den Schuss nicht gehört
Ich weiß nicht wie du die Produkte vergleichst, aber es kann doch wohl nicht das Ziel von AMD sein sich mit 28nm Karten vergleichen zu wollen! AMD tritt mit Polaris gegen Pascal an und nicht gegen Maxwell! Die 1070 hat keine Async Probleme und ist genauso DX12 fähig wie die AMD Gegenparts. Da ist also nicht mehr viel zu holen für AMD. Vielleicht sollten wir ja die Effizienz aufgrund von Mantle Performance berechnen? Das war auch die Zukunft! Bis jetzt haben wir nichts was auf einen Durchbruch von Vulkan hinweist und die wenigen Beispiele die wir haben zeigen SCHLECHTERE Performance als DX11! Selbst DX12 zeigt derzeit noch großteils gleiche oder schlechtere Performance als DX11 ...
Man kann nur das als Grundlage nehmen was man weiß. Du kannst nicht ernsthaft die DERZEITIGE Effizienz von Grafikkarten mit Vulkan angeben, wenn es nur 2-3 Spiele gibt die diese Technik halbherzig eingebaut haben.
Wir können ja mal ein kleines Gedankenexperiment durchführen: AMDs Karten werden jetzt mit Vulkan als Grundlage gemessen: 99% aller Benchmarks nicht bestanden, weil es kein Vulkan zur Auswahl gibt. Talos Principle funktioniert aber ... aber die AMD hat weniger FPS als unter DX11? Mensch ... das drückt die Effizienz ja NOCHMAL nach unten!
Rabiata
2016-07-02, 18:00:00
Vielleicht liegt das Problem darin, dass die Referenz Karten die Spezifikationen nicht überschreiten und die Boardpartner bei Nvidia die Spezifikationen nicht einhalten? Bei AMD ist es das REFERENZDESIGN dass die Spezifikationen bricht!
zu deinen halbgaren Erklärungsversuchen wieso das ja alles gar nicht so schlimm ist und sich AMD ja quasi doch an die Spezifikationen hält hier ein kleiner Ausschnitt von FormatC von Toms Hardware:
Die 75 Watt für den PEG sind ein volkstümlich genutzter Richtwert, aber die Norm sagt eindeutig nur etwas über die Stromstärken aus und lässt die Spannungen außen vor.
Was auch völlig korrekt ist wenn es um die Strombelastbarkeit eines Steckverbinders geht. Hier gilt für die Verlustwärme P, die im Steckverbinder entsteht, P = I² * R, wobei R die Summe aus Leiterbahnwiderstand im Steckerbereich und Übergangswiderstand ist.
Und diese Verlustwärme ist es, die den Steckverbinder bei Überlast gefährdet. Die Spannung spielt keine Rolle, außer sie wird so groß daß es Überschläge gibt. Und das wird meiner Meinung erst bei dreistelligen Spannungen passieren, bei denen die sonstige Elektronik längst vorher abraucht :freak:.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.