PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse: AMD Radeon R9 285


Leonidas
2014-09-02, 22:14:17
Link zum Artikel:
http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-r9-285


Update 3.9.:
Absatz zum Overclocking eingefügt

Rubber Duck
2014-09-02, 23:05:08
Hier ist auf dem Bild mit der Rohleistung steht 2 mal die R280 X bei den 100% Balken. Sollte bestimmt nur R280 stehen.
http://www.3dcenter.org/abbildung/rohleistungs-vergleich-radeon-hd-7950-boost-geforce-gtx-760-radeon-r9-280-285-285x

forenhoernchen
2014-09-03, 01:03:42
klingt für mich stark, als würde Tonga absichtlich flach gehalten, um der nächsten Generation nicht vorzeitig die Show zu stehlen. Klingt ja auch fast so, als wären nicht einmal alle Shader-Cluster freigeschaltet.
Wahrscheinlich ist der Chip einfach deutlich früher als das neue Flagschiff fertig geworden (wohl auch verständlich, wenn die neue Nummer 1 der neuen Serie erstmals seit langem deutlich größer als 400mm² werden wird) und einen fertigen Chip gar nicht zu verkaufen (obwohl die Entwicklung nen Batzen Geld gekostet hat), dafür aber ein längst abgezahltes Modell ähnlicher Leistung weiter zu betreiben, macht ja auch nicht allzu viel Sinn.
So kann die neue Architektur in der Massenfertigung getestet werden und diese Besserungen fließen dann in die letzten Revisionen der Chips der neuen Serie ein.
Na dann warten wir einfach mal ab...

Ravenhearth
2014-09-03, 01:53:19
Es sind doch auch nicht alle Einheiten aktiviert. Von den 32 CUs sind nur 28 aktiv, ist schließlich Tonga Pro, nicht Tonga XT ("Radeon R9 285X").

m0ep
2014-09-03, 02:07:58
der Stromverbrauch den Ihr angebt kann aber net stimmen, denn sowohl bei Computerbase, asl auch Hardwareluxx ist der Stromverbrauch unter Last klar niedriger als bei der normalen 280er, also kann da was nicht stimmen ;)

Knuddelbearli
2014-09-03, 02:57:28
abgesehen davon das unser liebe CB ein OC Modell nutzt und dann den Takt senkt. die erhöhte Spannung bleibt natürlich gleich

FlashBFE
2014-09-03, 09:04:26
Im Fazit hätte noch stehen können, dass man mit der neuen Karte wenigstens TrueAudio und Freesync (in Spielen) bekommt. Klar, ersteres wird noch kaum benutzt und letzteres dauert noch eine Weile. Aber wenn nicht mehr Karten damit auf den Markt kommen, würden es beide Features auch schwer haben, sich durchzusetzen.

HOT
2014-09-03, 09:16:35
Ich verstehe nicht, dass immernoch zwischen DX11.2a und b unterschieden wird. Lt. AMD können alle GCN Karten 11.2 komplett...
http://www.xbitlabs.com/news/graphics/display/20130821223625_AMD_Current_Generation_GCN_Graphics_Architecture_Fully_Compatible _with_DirectX_11_2.html

MadManniMan
2014-09-03, 09:33:49
Ich hatte gehofft, dass mein sehr selektives Lesen der Reviews gestern eine ungünstige Auswahl gewesen wäre, aber so bleibe ich leider bei meiner Enttäuschung.

Hach.

M4xw0lf
2014-09-03, 10:28:56
Angesichts dessen, daß AMD zwischen Tahiti und Tonga das dicke 384 Bit Speicherinterface auf ein handlicheres 256 Bit DDR Speicherinterface reduziert hat und wahrscheinlich die meisten für professionelle Zwecke benötigten Transistoren komplett entfallen sind (DoublePrecision-Einheiten), dafür der einzige konkrete Zuwachs jedoch nur in der Verdopplung der Raster-Engines von 2 auf 4 liegt, überrascht insbesondere die Transistoren-Anzahl.
Das hier halte ich für sehr weit hergeholt. GCN hat schließlich keine dedizierten FP64-ALUs. Wenn Tonga als FirePro kein half rate DP kann, dann bin ich fast geneigt einen Besen zu fressen.
Imo hat Tonga sogar nur überhaupt dann Sinn, wenn er half rate DP kann, um damit in günstigere Regionen des Profimarkts vorzudringen und selbst dann noch Nvidias GK110-Angebote in Sachen FP64 nass zu machen.
Ansonsten ist mir schleierhaft, warum AMD einen neuen, gleich großen Chip bringen sollte, der nur R&D-Kosten verursacht, aber keine Produktionkosten erspart - der geringere Speicher dürfte ja hauptsächlich die board partner entlasten(?).

Schnitzl
2014-09-03, 10:47:36
der Stromverbrauch den Ihr angebt kann aber net stimmen, denn sowohl bei Computerbase, asl auch Hardwareluxx ist der Stromverbrauch unter Last klar niedriger als bei der normalen 280er, also kann da was nicht stimmen ;)
das hat mich auch gewundert. Beim Stromverbrauch ist Computerbase nicht mit dabei, auf Seite 2 dann aber doch bei Geräuschentwicklung usw.

Warum 285 bei PCGH deutlich mehr verbraucht als 280 ist mir ebenfalls ein Rätsel, da scheint irgendwas schiefgegangen zu sein?

Pirx
2014-09-03, 10:50:46
das hat mich auch gewundert. Beim Stromverbrauch ist Computerbase nicht mit dabei, auf Seite 2 dann aber doch bei Geräuschentwicklung usw.

Warum 285 bei PCGH deutlich mehr verbraucht als 280 ist mir ebenfalls ein Rätsel, da scheint irgendwas schiefgegangen zu sein?
Denke ich mal auch, die 285 soll doch weniger verbrauchen, als die 280, gemäß einigen Reviews - denen die ich gelesen habe. ich schätze mal, daß hier die OC-Versionen mit eingerechnet wurden.

Leonidas
2014-09-03, 14:33:14
Hier ist auf dem Bild mit der Rohleistung steht 2 mal die R280 X bei den 100% Balken. Sollte bestimmt nur R280 stehen.
http://www.3dcenter.org/abbildung/rohleistungs-vergleich-radeon-hd-7950-boost-geforce-gtx-760-radeon-r9-280-285-285x

Gefixt.




der Stromverbrauch den Ihr angebt kann aber net stimmen, denn sowohl bei Computerbase, asl auch Hardwareluxx ist der Stromverbrauch unter Last klar niedriger als bei der normalen 280er, also kann da was nicht stimmen ;)


das hat mich auch gewundert. Beim Stromverbrauch ist Computerbase nicht mit dabei, auf Seite 2 dann aber doch bei Geräuschentwicklung usw.


Beim Stromverbrauch nehme ich nur Seiten, die *allein* die Grafikkarte und nicht das Gesamtsystem messen. In diesem Fall hat dies leider sehr differierende Werte ergeben, über die ich auch nicht glücklich bin. Allerdings kann ich auch nicht einfach Werte manipulieren - wenn im Schnitt das angegebene Ergebnis herauskommt, muß ich das so nennen.




Ich verstehe nicht, dass immernoch zwischen DX11.2a und b unterschieden wird. Lt. AMD können alle GCN Karten 11.2 komplett...
http://www.xbitlabs.com/news/graphics/display/20130821223625_AMD_Current_Generation_GCN_Graphics_Architecture_Fully_Compatible _with_DirectX_11_2.html


Diese Meldung ist über ein Jahr alt und inzwischen durch neuere Informationen überholt:
http://www.3dcenter.org/news/nur-radeon-hd-7790-r7-260x-unterstuetzten-directx-112-vollstaendig-hardware

Irgendjemand wollte man mir Meldungen vorlegen, wonach nun auch die älteren Chips DX 11.2 Tier 2 können. Bislang habe ich dafür aber keinerlei Quellen finden können. Ich würde das sofort ändern, wenn es belegbar wäre.

CD-LABS
2014-09-03, 16:01:32
Schöne Zusammenfassung. Bin mir aber dennoch bei vielen Dingen nicht sicher:
Wieso hat AMD der Karte keine 1GHZ+ Chiptakt verpasst? Dann wäre die Diskussion um die falsche Benennung wesentlich komplizierter ausgefallen!

Und dass man kein RefDesign gebracht hat, macht das gesamte natürlich auch enorm herausfordernd, was man ja bei den Leistungsaufnahmen sehen kann---> die sind wirklich so hart zwischen den Reviewern schwankend, dass es nicht mehr schön ist!

Mittlerweile glaub ich daran, dass AMD einfach nur Aufmerksamkeit und Tests für die ColourCompression wollte und die haben sie jetzt auch bekommen.
Bitte bei der 370 (X) dann nen vernünftigen Launch hinlegen!

Schnitzl
2014-09-03, 18:01:33
Gefixt.
Beim Stromverbrauch nehme ich nur Seiten, die *allein* die Grafikkarte und nicht das Gesamtsystem messen. In diesem Fall hat dies leider sehr differierende Werte ergeben, über die ich auch nicht glücklich bin. Allerdings kann ich auch nicht einfach Werte manipulieren - wenn im Schnitt das angegebene Ergebnis herauskommt, muß ich das so nennen.
Tut mir leid, aber das ist doch Blödsinn. Wie kann eine Karte, die niedriger getaktet ist und weniger Speicher hat, mehr verbrauchen?

M4xw0lf
2014-09-03, 18:03:42
Tut mir leid, aber das ist doch Blödsinn. Wie kann eine Karte, die niedriger getaktet ist und weniger Speicher hat, mehr verbrauchen?
16% mehr Transistoren.

Schnitzl
2014-09-04, 16:14:01
16% mehr Transistoren.
Frontend und Caches hauptsächlich, v.a. letzteres ist beim Stromverbrauch vernachlässigbar.

Knuddelbearli
2014-09-05, 09:19:12
Cache helfen sogar dem Stromverbrauch da das SI sehr viel Strom verbraucht, cache brauchen aber recht viel Fläche und sind bei GPUs nicht ganz so einfach implementierbar wie bei CPUs