Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10
victore99
2016-06-07, 23:37:31
Warum wird hier eigentlich im AMD-Speku-Thread über Pascal spekuliert :confused:
Weil BAUM.
Ka was das soll.. Naja.. Pascal ist gut, aber bis auf den Treiberkrams keine wirkliche überraschung.
Nightspider
2016-06-07, 23:38:39
Errrrr, von 28nm auf 16nm = 16nmauf 10nm? das ist doch der crux...
16nm == 16FF == 22nm + FF
Und der 10nm Prozess bei TSMC wird sicherlich 14 oder 16nm + FF.
Der Sprung von 28nm auf 16FF enstpricht nicht 28nm auf 16nm und ist nicht so groß wie du vllt denken magst.
Zumal FinFETs in der zweiten und dritten Generation sicherlich auch noch besser genutzt werden, wie in der 1. Generation. War ja bei Intel ähnlich.
Die ist sich hoffentlich klar, dass dieser Vergleich vollkommen unsinnig ist? GP100 mag zwar fast doppelt so groß sein wie GP104, er hat allerdings nur etwa 30% mehr Shadereinheiten. Der große Flächenunterschied kommt durch die zusätzlichen DP-Einheiten, NVLink und andere Compute-Features.
Würde man GP104 einfach hochskalieren, bräuchte ein Chip mit GP100 Spieleleistung kaum viel mehr als 450mm². Sehr viel größer wird man GP102 vermutlich auch nicht ansetzen, denn mit etwas höherem Takt als bei GP100 würde das bereits für einn Leistungsunterschied wie bei der letzten Generation zwischen 980 und 980Ti sorgen.
Darum gehts ja überhaupt nicht.
16/14FF wird laenger benutzt werden als sich viele vorstellen :wink:
Auf jeden Fall werden diese lange genutzt aber trotzdem soll doch Volta schn mit 10nm (10FF ?) kommen oder? Und wenn für Apple dieses Jahr schon 10nm Chips vom Band fallen (was noch zu beweisen gilt) dann werden die ersten GPUs wohl wirklich schon Ende 2017 oder Anfang 2018 in 10FF vom Band fallen.
Aber erstmal abwarten wie sich der 10nm Prozess entwickeln wird. Mit 16FF hat sich TSMC ja sehr viel Zeit gelassen, wobei Intel sich auch mit 10nm viel Zeit lassen muss.
unl34shed
2016-06-07, 23:52:15
Wurde eigentlich mal getestet, wie Pascal auf undervolting reagiert? Also als Rückschluss ob Nvidia evtl doch "angst" vor P10 hat und Pascal weit außerhalb des sweetspots betreibt. (Die hohen OC-Traktraten sprechen da zwar etwas dagegen, wäre aber dennoch interessant).
Der ganze Pascal Release kam mMn. etwas überhastet seitens Nvidia.
Elkinator
2016-06-07, 23:55:20
16nm == 16FF == 22nm + FF
Unsinn!
Der Sprung von 28nm auf 16FF enstpricht nicht 28nm auf 16nm und ist nicht so groß wie du vllt denken magst.
Auch das ist Blödsinn, man kann das nicht so stark vereinfacht behaupten.
aber trotzdem soll doch Volta schn mit 10nm (10FF ?) kommen oder?
Dazu ist noch nichts bekannt, dürfte aber weiterhin 16nm bleiben.
Screemer
2016-06-08, 00:19:05
Hier scheinen einige vor lauter Überheblichkeit vergessen zu haben, dass wir im Spekulationsforum sind. Bezeichnend.
Unsinn
As a result, the current 20nm lithography process was modified for FinFETs, and the 16nm FinFET process was born.
https://www.semiwiki.com/forum/content/1789-16nm-finfet-versus-20nm-planar.html
N0Thing
2016-06-08, 00:31:16
Gibt es Langzeitstudien bezüglich HBM Speicher?
Mechanische Belastungen wegen Wärme sollte ja höher sein als bei GDDR5x oder?
Warum soll dies so sein?
Elkinator
2016-06-08, 00:31:41
Das widerspricht meiner Aussage aber nicht...
Warum soll dies so sein?
Weil NVIDIA genau damit Probleme hatte?
Lange haben sie GP100 nicht getestet, würde mich nicht wundern wenn die Karten wie die Fliegen sterben werden!
N0Thing
2016-06-08, 00:51:20
Weil NVIDIA genau damit Probleme hatte?
Lange haben sie GP100 nicht getestet, würde mich nicht wundern wenn die Karten wie die Fliegen sterben werden!
Gibt es dazu auch was handfestes?
Soweit ich weiß, sind auch andere Produkte mit HBM nicht wie die Fliegen gestorben, obwohl man nichts von einer langen Testphase mitbekommen hat.
OBrian
2016-06-08, 01:27:05
auch wieder so eine Folgerung, die unzulässig ist, da völlig aus der Luft gegriffen. Wenn Nvidia "angeblich" (!) irgendwas nicht lange getestet hat, wieso soll es dann nicht gehen, und wieso glaubt man, man könne das auf einen anderen Hersteller übertragen?
AMD hat jedenfalls mit HBM lange rumexperimentiert (http://www.kitguru.net/wp-content/uploads/2015/08/amd_sk_hynix_hbm_history_graph_proto_1.jpg), warum sollte Nvidia nicht ähnlich lange daran herumgebastelt haben? Wann man es in Produkte gießt, die im Handel auftauchen, ist ja meist eine ökonomische Entscheidung (Maxwell konnte von der TDP her und von der Bandbreite her problemlos gegen Fiji antreten, HBM war also unnötig).
Langfristig kann es aber sein, daß HBM sich viel weiter verbreitet als so mancher hier denkt. Die Kosten sind uns doch völlig unbekannt, es wird zwar gesagt, HBM sei teuer, aber evtl. gilt das nur in der Anlaufphase, mit unoptimiertem Interposer-Verfahren und noch geringer Serienproduktion. Wenn das besser wird, dann sehen wir evtl. HBM für alles oberhalb eines 256 bit SI, später evtl. sogar alles oberhalb 128bit. Ein einziger Stack neben einer kleinen GPU. Das ganze Drumherum (PCB, Kühler usw.) ist ja viel weniger aufwändig, und man spart auch Diefläche im teuren 14nm-Prozeß, weil man da die kaum schrumpfbaren und somit immer größer werdenden Strukturen im Speicherinterface minimieren kann.
Zu Vega 10 und 11 sei gesagt, daß die größere Variante davon doch auch eine Doppelkarte sein könnte, einfach aus zwei kleineren Vega. AMD baut Greenland für Server-Opterons, das Ding muß also groß sein, aber nicht extremst, weil es ja zusammen mit HBM, einer sicherlich nicht kleinen CPU und ggf. noch weiterer wärmeerzeugender Logik im "Projekt Zeppelin" unter einer bestimmten TDP bleiben muß, der Sockel wurde ja kolportiert mit 300 W. Das heißt, die TDP von Greenland alleine müßte im Bereich der Nano liegen. Und wenn sie eine Pro Duo aus zwei Nanos bauen können, dann auch eine Karte mit zwei Greenlands drauf.
Navi kann dann ja nochmal was draufsatteln, sicherlich ebenfalls noch in dem gleichen 14nm-Prozeß, etwas gereift bis dahin. Dann traut sich AMD an einen richtig großen Chip, oder mehrere kleinere auf einem Interposer, wer weiß.
Elkinator
2016-06-08, 01:33:08
warum sollte Nvidia nicht ähnlich lange daran herumgebastelt haben?
Weil sich das nur mit einer Zeitmaschine ausgehen würde!
NVIDIA hat Jahre nach AMD überhaupt mal Zugriff auf diese Technik, natürlich fehlt ihnen die Zeit jetzt.
Pascal war ursprünglich sogar mit HMC geplant, also ganz ohne Interposer.
Die Quelle bringt euch halt nichts.
Thing go bump(gate) in the night for Nvidia’s GP100 Pascal GPU (http://semiaccurate.com/2016/05/03/thing-go-bumpgate-in-the-night-for-nvidias-gp100-pascal-gpu/)
Nightspider
2016-06-08, 01:36:48
Unsinn!
Sondern?
Elkinator
2016-06-08, 01:41:14
Man kann Bulk planar und Bulk FinFET einfach nicht so Vergleichen.
Einfach zu behaupten es wäre planar + FinFET ist einfach totaler Bullshit.
Nightspider
2016-06-08, 04:13:40
Man kann die Strukturbreite vergleichen.
So weit ich mich erinnern kann hieß es doch früher das 16FF in etwa die gleichen Strukturbreiten hat wie 22nm, nur eben mit FinFET und das TSMC dies als 16nm bzw. 16FF vermarktet.
Ich habe mich aber zugegebenermaßen länger nicht damit beschäftigt.
Foobar2001
2016-06-08, 06:02:27
Es stimmt schon, dass 16nm lange nicht so gut skaliert wie es sollte. 22nm ist eigentlich die naechste Node und man wuerde gegenueber 28nm eine Skalierung von 2x erwarten, die hat aber erst 16FF erreicht.
Andererseits ist die Nanometer-Angabe sowieso nur die Gate-Laenge und hat nicht unbedingt etwas mit der fertig verdrahteten Transistor-Dichte zu tun.
Das Thema hatten wir schon oft...
Grundsaetzlich kann man wohl schon sagen, dass die fruehen FinFET Prozesse von Samsung und TSMC "FinFET@20nm" waren, aber sie wurden ja nochmal weiterentwickelt und die neueren Verfahren kommen ja jetzt auch bei den GPUs zum Einsatz.
14LPP vs 14LPE
16FF+ vs 16FF
http://scr3.golem.de/screenshots/1502/Fertigungstechnik/thumb620/Fertigungstechnologie-02.png
http://xtreview.com/images/6deformation.jpg
(leider ist mir die Originalquelle unbekannt, daher nur ein Ausschnitt; da fehlt auch 14LPP; die Angaben zu Intel decken sich nicht mit denen von Intel oben)
Weil sich das nur mit einer Zeitmaschine ausgehen würde!
NVIDIA hat Jahre nach AMD überhaupt mal Zugriff auf diese Technik, natürlich fehlt ihnen die Zeit jetzt.
Pascal war ursprünglich sogar mit HMC geplant, also ganz ohne Interposer.
Die Quelle bringt euch halt nichts.
Thing go bump(gate) in the night for Nvidia’s GP100 Pascal GPU (http://semiaccurate.com/2016/05/03/thing-go-bumpgate-in-the-night-for-nvidias-gp100-pascal-gpu/)
Das Thema mit den HMCs hatten wir auch schon:
Das ganze ist etwas verwirrend, weil Pascal wieder so eine eingeschobene Generation ist. Vorher dachte man noch, Volta kaeme direkt nach Maxwell. Und fuer Volta wurde (als erste! Generation mit stacked RAM - aus heutiger Sicht nicht zu verwechseln mit Pascal) natuerlich tatsaechlich 1 TB/s angegeben, das war noch 2013. http://www.heise.de/newsticker/meldung/GTC-2013-Nvidia-kuendigt-Next-Gen-GPU-Volta-mit-Stacked-DRAM-an-1826130.html
2014 wurde dann Pascal genannt, angeblich wieder mit 1 TB/s :confused: http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/30356-gtc-2014-nvidia-praesentiert-nvlink-3d-memory-und-neue-pascal-gpu.html (interessant: damals wusste man noch nix von HBM und hat ein 1024-2048 Bit breites SI sowie zwischen 1 und 2 GHz angenommen). Es wurde aber auch absehbar, dass es keine HMCs werden: http://www.heise.de/newsticker/meldung/Uebernaechste-Nvidia-GPU-Generation-Pascal-mit-schnellem-Interconnect-2154878.html
2015 dann Klarheit mit ~750 GB/s: http://www.heise.de/newsticker/meldung/Nvidia-High-End-Grafikkarte-GeForce-GTX-Titan-X-fuer-1000-Dollar-2577791.html
Jeweils GTC, also einfach zu finden ;)
Mancko
2016-06-08, 10:15:47
16/14FF wird laenger benutzt werden als sich viele vorstellen :wink:
Davon gehe ich auch aus und deswegen bin ich auch davon überzeugt, dass sowohl AMD als auch Nvidia bei den High End / Enthusiast Produkten Salami Taktik fahren werden. Sprich es wird mit Vega und GP102 eben nicht an die Grenzen gegangen. Warum auch? Die Teile verkaufen sich auch so. Alles was nötig ist wäre eine spürbare Leistungsverbesserung zu GP104. Dafür reichen 450 qmm aus. Je nach Interface Breite kann man auch GDDR5X statt HBM2 nehmen. Ich denke da ist alles noch offen. Ich bin aber nicht davon überzeugt, dass Nvidia jetzt sofort 600 qmm mit HBM2 als GP104 Ersatz bringt. Der Sprung wäre zu groß und ist auch ökonomisch gesehen weder notwendig noch sinnvoll.
Sunrise
2016-06-08, 10:23:52
...Ich bin aber nicht davon überzeugt, dass Nvidia jetzt sofort 600 qmm mit HBM2 als GP104 Ersatz bringt. Der Sprung wäre zu groß und ist auch ökonomisch gesehen weder notwendig noch sinnvoll.
Machen sie auch nicht, wenn man für GP102 um die $999 US verlangen kann. Noch deutlich höhere Preise in dieser Generation exklusiv für Gaming ergeben keinen Sinn. Man könnte es allenfalls über Workstation-Karten (FP32-Leistung) abfangen. Mit einem 450mm^2 Die und der Endleistung die zu erwarten ist lässt sich mehr als genug Geld verdienen.
Ich wäre aber vorsichtiger mit euren 14/16nm-Schätzungen, das gilt sicher nicht generell. Denn nur weil man die zwei Generationen nutzt, wird 10nm und darunter dennoch benötigt. Für preissensitive Chips ja, aber professionelle GPUs müssen alle Vorteile so schnell als möglich mitnehmen und auch Navi ist für mich noch ein Fragezeichen in der Beziehung. Wenn AMD Multi-Chip will müssen die Dinger so klein als möglich sein und mit Polaris/Vega-Arch funktioniert das nicht. Wo soll denn sonst die Mehrleistung herkommen? Noch größer machen ist keine Option. Gilt auch für GV100 bzw. die Generation danach.
So siehts aus. Aber da 10nm wieder nur ein Minimalsprung wird, aber extrem viel teurer, dürfte sich 10nm auch auf Profichips und vielleicht noch Enthusiastenhardware beschränken. Der Rest wird sicherlich weiterhin in 14/16nm gefertigt, bis 7nm kommt. Im Klartext: GV100 (und sicherlich GV102, wenn man dabei bleibt) wird sicherlich 10nm werden, ob das für GV104 bis 108 auch gilt, halte ich aber für mindestens fraglich, vermutlich bleiben die 16nm.
Genau wie Navi; Polaris ist sicher die kleine Serie, Vega reizt 14nm aus und Navi ergänzt nach oben mit Profikram und Enthusiastenchip.
StefanV
2016-06-08, 11:08:05
[immy;11059438']Die viel interessantere Frage ist wohl, warum rendert ein Presse-Treiber anders bzw. lässt Sachen weg. Hinterher kann man immer sagen, das es ein Fehler war.
Wäre natürlich interessant ob sich dadurch in der Performance etwas getan hat. aber abgesehen davon, es gibt genug Quellen im Internet um einen Presse-Treiber zu bekommen.
Na, damit das ganze noch etwas bessere Performance ausspuckt, damit die Balken etwas länger werden und man so noch mal eine schnellere Karte als eigentlich vorhanden, vorgaukeln kann...
Bei nicht so gut optimierten Titeln siehst du ja auch, dass ein 'Cuda Core' nicht unbedingt besser ist als eine AMD CU, siehe z.B. The Division PCGH Benchmarks und siehe Tahiti vs GK110...
Da ist der Unterschied dann kaum mehr vorhanden, bei vergleichbarem Takt.
Ailuros
2016-06-08, 19:36:40
Machen sie auch nicht, wenn man für GP102 um die $999 US verlangen kann. Noch deutlich höhere Preise in dieser Generation exklusiv für Gaming ergeben keinen Sinn. Man könnte es allenfalls über Workstation-Karten (FP32-Leistung) abfangen. Mit einem 450mm^2 Die und der Endleistung die zu erwarten ist lässt sich mehr als genug Geld verdienen.
Ich wäre aber vorsichtiger mit euren 14/16nm-Schätzungen, das gilt sicher nicht generell. Denn nur weil man die zwei Generationen nutzt, wird 10nm und darunter dennoch benötigt. Für preissensitive Chips ja, aber professionelle GPUs müssen alle Vorteile so schnell als möglich mitnehmen und auch Navi ist für mich noch ein Fragezeichen in der Beziehung. Wenn AMD Multi-Chip will müssen die Dinger so klein als möglich sein und mit Polaris/Vega-Arch funktioniert das nicht. Wo soll denn sonst die Mehrleistung herkommen? Noch größer machen ist keine Option. Gilt auch für GV100 bzw. die Generation danach.
Ich hab auch nie etwas anderes behauptet. Nichdestominder wenn es vor sagen wir mal H2 2018 keine kleineren als high end chips unter 10FF bzw. konkurrierendem Prozess ankommen, dann wuerde es mich kein bisschen ueberraschen wenn beide IHVs bis dahin von heute und irgendwo in der Mitte zeitlich nochmal eine neue 16/14FF Familie auflegen eigentlich auch nur als refreshes zum heutigen Material und nichts von der Volta/Navi Familie.
OBrian
2016-06-08, 22:51:05
hmm, sie werden es dann Volta bzw. Navi nennen, völlig egal, was damit mal gemeint war, nur damit es aussieht, als hätten sie die Roadmap eingehalten.
Flusher
2016-06-08, 23:51:17
Machen sie auch nicht, wenn man für GP102 um die $999 US verlangen kann. Noch deutlich höhere Preise in dieser Generation exklusiv für Gaming ergeben keinen Sinn. Man könnte es allenfalls über Workstation-Karten (FP32-Leistung) abfangen. Mit einem 450mm^2 Die und der Endleistung die zu erwarten ist lässt sich mehr als genug Geld verdienen.
Ich wäre aber vorsichtiger mit euren 14/16nm-Schätzungen, das gilt sicher nicht generell. Denn nur weil man die zwei Generationen nutzt, wird 10nm und darunter dennoch benötigt. Für preissensitive Chips ja, aber professionelle GPUs müssen alle Vorteile so schnell als möglich mitnehmen und auch Navi ist für mich noch ein Fragezeichen in der Beziehung. Wenn AMD Multi-Chip will müssen die Dinger so klein als möglich sein und mit Polaris/Vega-Arch funktioniert das nicht. Wo soll denn sonst die Mehrleistung herkommen? Noch größer machen ist keine Option. Gilt auch für GV100 bzw. die Generation danach.
Da halte ich aber dagegen. Wir haben mit Maxwell gesehen, dass es durchaus möglich ist die Performance innerhalb eines Nodes durch Architekturverbesserungen deutlich zu steigern bei ähnlicher Die-Größe. (vgl. GK110 vs. GM200 / 561 mm2 vs. 601 mm2)
Elkinator
2016-06-09, 00:04:36
Die Packdichte wird bei 14/16nm auch noch steigen, dieht man doch schon bei 28nm.
uweskw
2016-06-09, 09:03:24
16/14FF wird laenger benutzt werden als sich viele vorstellen :wink:
.......Ja, weil man da 90-95% der Anlagen dei auch 20nm gefertigt haben nutzen kann.......
Wirklich? Es steht doch überall, dass die 16/14FF so viel teurer für die Hersteller ist. Der Kostensprung sei nicht mit früheren Strukturbreitenänderungen vergleichbar.
Oder sind das nur wieder die Konzernversteher die mit Möchtegern-Wirtschaftsverständnis prahlen?
greetz
US
Sunrise
2016-06-09, 10:12:45
Da halte ich aber dagegen. Wir haben mit Maxwell gesehen, dass es durchaus möglich ist die Performance innerhalb eines Nodes durch Architekturverbesserungen deutlich zu steigern bei ähnlicher Die-Größe. (vgl. GK110 vs. GM200 / 561 mm2 vs. 601 mm2)
Natürlich, der Punkt ist aber dass du das nicht endlos (deshalb zwei Generationen) fortsetzen kannst. Irgendwann brauchst du für Verbesserungen mehr Platz. Wenn du das brauchst wird es auch teurer und es schränkt dich aufgrund der Größe ein. Bei GCN sollen wir für Vega nochmal eine 40% bessere Effizienz bekommen, was aber teils schon HBM2 einrechnet. Bei Navi müssen die Chips desto kleiner sein, je mehr Chips AMD koppeln will, weil sie diese auf einen Interposer bauen und mit HBMx verbinden wollen.
NV hat ggü. Maxwell mit Pascal eigentlich nur die Takte erhöht, der Rest sind wirklich nur minimale Änderungen. GP100 ist der erste, Volta der zweite Chip, aber danach wird man aufgrund der schieren Anzahl der Einheiten und größeren Caches einfach mehr Platz benötigen.
GK104 war noch um die 300mm^2, GM204 bei etwa 430mm^2, wenn du das mit der jetzigen Situation mit GP104 vergleichst, wird NV Spielraum bei GV104 bis 450mm^2 haben, danach muss der Performance-Chip aber wieder kleiner werden. Also etwa 50% Kostendifferenz, die vom neuen Node abgefangen werden muss, dafür dann wieder nur 300mm^2.
Bei AMD werden sich richtig kleine Dies mit extremer Packdichte bei GCN umso mehr auszahlen. Leider ist GloFo hier aber der Pferdefuß, denn TSMC ist deutlich aggressiver bei 10nm und auch 7nm.
Was hindert AMD daran, fuer Navi und folgende nicht wieder auf TSMC zu gehen? Es ist ja nichtmal sicher, ob Vega moeglicherweise sogar dort gefertigt wird.
Sollten Erkenntnisse aus der Fertigung von Chips in 14LPP fuer 10/7nm Prozesse bei GloFo helfen und bei TSMC nicht? Ansonsten verstehe ich das Problem nicht.
btw: man sollte sich auch nicht so auf die +40% Effizienz einschiessen, imho. Wenn Polaris mit 1,2 GHz taktet und Vega auf die HPC APU kommt, dort auch so vermarktet wird und mit <=1 GHz taktet, hat es das gleich. Das heisst aber nicht, dass die Grafikkarten um einen aehnlichen Faktor zulegen.
Sunrise
2016-06-09, 10:51:45
Was hindert AMD daran, fuer Navi und folgende nicht wieder auf TSMC zu gehen? Es ist ja nichtmal sicher, ob Vega moeglicherweise sogar dort gefertigt wird.
Sollten Erkenntnisse aus der Fertigung von Chips in 14LPP fuer 10/7nm Prozesse bei GloFo helfen und bei TSMC nicht? Ansonsten verstehe ich das Problem nicht.
Bei AMD haben wir die Situation (GPUs, CPUs, APUs...) dass sie ihre IP in Blöcke gießen und diese wie in einem Baukausten anbieten möchten, das bedingt, dass hier ein Fertiger alles liefern muss, was für das Design benötigt wird. Das betrifft vor allem die eigenen APUs. Zen könnte man prinzipiell überall fertigen, aber die APUs beinhalten sowohl GPU-IP als auch CPU-IP.
Dann hast du entweder die Wahl, komplett zu TSMC zu gehen, oder bei GloFo zu bleiben. Bei beiden zu fertigen würde bedeuten, dass AMD jeden benötigten Block doppelt designen müsste (für beide Fertiger) und sie hätten auch die doppelte Arbeit mit zwei Semis. Das ist bei AMD anzuzweifeln, da fehlt es an allen Ecken und Enden.
Bei GloFo wird voraussichtlich 10nm erst später als bei TSMC zur Verfügung stehen (14nm kam von Samsung, alles danach ist wieder IBM/GloFo) und 7nm werden laut den letzten Meldungen von IBM und Glofo eher forciert werden.
Ohne leichte Anpassungen wird man die IP Bloecke doch sowieso nich 1:1 auf jedem Chip wiederverwenden koennen und Layouting muss auch jedes mal gemacht werden. AMD hat in der Vergangenheit APUs bei GF und GPUs bei TSMC fertigen lassen, da waren auch dieselben Bloecke drin. Es gab afair sogar in juengerer Vergangenheit eine GPU von GF (Cape Verde oder sowas), irgendwer hat das mal hier gepostet.
Sollte sich 16FF+ aus irgendeinem Grund besser fuer Vega eignen oder die 10/7nm Prozesse von TSMC fuer Navi und Nachfolger glaube ich kaum, das man mit Gewalt alles bei einem Fertiger machen laesst.
Sunrise
2016-06-09, 11:05:07
Ohne leichte Anpassungen wird man die IP Bloecke doch sowieso nich 1:1 auf jedem Chip wiederverwenden koennen und Layouting muss auch jedes mal gemacht werden. AMD hat in der Vergangenheit APUs bei GF und GPUs bei TSMC fertigen lassen, da waren auch dieselben Bloecke drin. Es gab afair sogar in juengerer Vergangenheit eine GPU von GF (Cape Verde oder sowas), irgendwer hat das mal hier gepostet.
Sollte sich 16FF+ aus irgendeinem Grund besser fuer Vega eignen oder die 10/7nm Prozesse von TSMC fuer Navi und Nachfolger glaube ich kaum, das man mit Gewalt alles bei einem Fertiger machen laesst.
Für Einzelfälle galt das, ja, aber warum sollte man es machen, wenn dir ein Fertiger alles liefert was du brauchst, genug Volumen hat und der Preis passt? Man geht doch immer nur zu zweien, weil irgendwas nicht mit den Plänen vereinbar ist. Und du wirst mir hoffentlich zustimmen, dass man lieber nur ein Layout baut, als zwei, das kostet Zeit für den Floorplan, den Tape-Out, Validierung usw. nochmal extra, was nicht unbedingt optimal ist, wenn man mit begrenzten Ressourcen arbeiten muss. Wenn dir jemand wie Sony, MS oder Nintendo Geld dafür bezahlt und die Teams noch nicht ausgelastet sind, dann ist das generell natürlich schon möglich.
Wir wissen ja über Navi auch fast noch nichts, nur gehe ich da eben schon von <14nm aus, evtl. stimmt es ja auch nicht. Nur wird AMD ja auch bei Zen kontinuierliche Prozessverbesserungen benötigen um mit Intel bei CPUs (APUs) und NV bei GPUs schritthalten zu können. Das ist für AMD immens wichtig. Dass AMD sich da einfach auf 14nm ausruhen kann wäre IMHO fatal, vor allem weil das ja eigentlich keine "echten" 14nm sind, das ist alles nur Marketing-Kauderwelsch.
Bei so einer GPU Multi-Chip Strategie wird die Leistung über die Menge der Chips die man koppeln kann kommen müssen, also umso kleiner desto schneller. Der Preis wäre erstmal fast egal, wenn AMD dann 4 Chips mit HBMx integrieren und im HPC/Pro-Segment für teures Geld und große Margen absetzen kann. Dadurch, dass man den Die nur einmal baut, spart man auch wieder immens an Kosten, und muss nicht wie bei NV etliche Chips bauen. Ob das aufgehen wird (bei der Voodoo damals lief es bis zu einem gewissen Punkt prächtig, nur haben sich die Zeiten und die Rendertechniken und die APIs ja stark verändert) müssen wir sehen, wenn AMD da mal mehr Details rauslässt.
Ja selbstverstaendlich stimme ich da zu, aber halt nur solange auch beide Verfahren qualitativ und preislich vergleichbar sind.
Ich spreche ja auch nicht davon, denselben Chip bei unterschiedlichen Fertigern bauen zu lassen, sondern unterschiedliche Chips. Das weitere was du ansprichst, floorplan, Tapeout und Validierung treffen ja voellig unabhaengig vom Fertiger auf jeden neuen Chip zu, egal ob die einzelnen Bloecke schon mal verwendet wurden.
Weil das auch schon oefter hier war: http://www.heise.de/newsticker/meldung/Bericht-Doch-neue-MacBooks-zur-WWDC-3232872.html
Complicated
2016-06-09, 12:07:25
Sollte sich 16FF+ aus irgendeinem Grund besser fuer Vega eignen oder die 10/7nm Prozesse von TSMC fuer Navi und Nachfolger glaube ich kaum, das man mit Gewalt alles bei einem Fertiger machen laesst.Hier hat AMD mit dem Wafer Supplie Agreement (WSA) recht enge Rahmenbedingungen mit GF ausgehandelt:
https://biz.yahoo.com/e/160218/amd10-k.html
The WSA governs the terms by which we purchase products manufactured by GF. Pursuant to the WSA, we are required to purchase all of our microprocessor and APU product requirements, and a certain portion of our GPU product requirements from GF with limited exceptions. If we acquire a third-party business that manufactures microprocessor and APU products, we will have up to two years to transition the manufacture of such microprocessor and APU products to GF. The WSA terminates no later than March 2, 2024. GF has agreed to use commercially reasonable efforts to assist us to transition the supply of products to another provider and to continue to fulfill purchase orders for up to two years following the termination or expiration of the WSA. Es gibt also nur wenige Aussnahmen, doch möglich sind diese bei GPUs.
Zergra
2016-06-09, 12:39:56
Also ich vermute das Vega 10/11 beide bei TSMC gebaut werden.
Gab es da nicht mal mehr drüber zu lesen ?
Elkinator
2016-06-09, 12:49:15
Also ich vermute das Vega 10/11 beide bei TSMC gebaut werden.
Würde eigentlich nur Zusatzkosten verursachen, für 14LPP kann man einiges übernehmen, bei 16FF+ brauchen sie alles neu.
Gab es da nicht mal mehr drüber zu lesen ?
Nur Gerüchte.
14LPP läuft bei Samsung gut, warum sollte man da zu TSMC wechseln?
Auch wenn GF Probleme hätte (worüber nichts bekannt ist), wäre es für AMD sinnvoller die Masken für 14LPP zu erstellen udn dann bei Samsung zu fertigen.
Da können sie dann die Masken auch für GF verwenden, kann alles 1:1 übernommen werden.
Bei AMD haben wir die Situation (GPUs, CPUs, APUs...) dass sie ihre IP in Blöcke gießen und diese wie in einem Baukausten anbieten möchten, das bedingt, dass hier ein Fertiger alles liefern muss, was für das Design benötigt wird. Das betrifft vor allem die eigenen APUs. Zen könnte man prinzipiell überall fertigen, aber die APUs beinhalten sowohl GPU-IP als auch CPU-IP.
Dann hast du entweder die Wahl, komplett zu TSMC zu gehen, oder bei GloFo zu bleiben. Bei beiden zu fertigen würde bedeuten, dass AMD jeden benötigten Block doppelt designen müsste (für beide Fertiger) und sie hätten auch die doppelte Arbeit mit zwei Semis. Das ist bei AMD anzuzweifeln, da fehlt es an allen Ecken und Enden.
Bei GloFo wird voraussichtlich 10nm erst später als bei TSMC zur Verfügung stehen (14nm kam von Samsung, alles danach ist wieder IBM/GloFo) und 7nm werden laut den letzten Meldungen von IBM und Glofo eher forciert werden.
Hm ich weiss nicht, ob 10nm deswegen später kommt, denn die brauchen den Prozess doch für Power9 oder nicht? IBM will doch ausdrücklich die Lücke zu Intel schließen mit dem Prozessor, dafür braucht man natürlich einen passenden Prozess. Dass IBM sich mit GV100 kombiniert sieht mit Power9 spricht eher dafür, dass man wieder ähnlich schnell ist, denn GV100 ist sicher 10nm. Ist halt die IBM-Prozessentwicklung, die da zum Einsatz kommt. GloFo kann das ja jetzt nur auch "zweckentfemden", beipielsweise für Navi oder Zen+.
Elkinator
2016-06-09, 13:33:13
IBM hat doch 14nm SOI FinFET entwickelt, schätze GF wird ihnen für den POWER9 den Prozess anbieten?
Grabhopser
2016-06-09, 13:43:44
Ich wäre auch vorsichtig damit einen Prozess, den IBM für seine "3" Power CPUs entwickelt hat einfach so auf AMDs C/A/GPUs zu übertragen.
Ach? Aber den Apple Chip verwenden um den Prozess von Samsung/GF mit TSMC 16nm vergleichen das geht ja? :D
Dass das nicht geht, ist allein damit begründet, da man nicht weiß, welche Optimierungen Apple bei der Maske bei TSMC gemacht hat oder gar Kompromisse eingegangen ist.
Die weniger gute Effizienz beim Apple Chip mit dem Samsung Prozess muss ja auch nicht "nur" am Prozess allein liegen.
Elkinator
2016-06-09, 13:53:28
Nein, das geht eigentlich nicht:O
Man kann den Apfel-SOC nicht 1:1 auf eine GPU umlegen.
Wir wissen auch nicht wie schnell die Masken für 14LPP da zusammengefrickelt wurden.
Apple hat 100% der Chips bei TSMC geplant, da TSMC aber nicht genug in 16FF liefern konnte mußte Apple Masken für 14LPE auflegen.
Vielleicht hatten sie keine Zeit für eine weitere Stepping.
Ja eben. Aber es hält sich überall als Fakt fest, dass der Samsung Prozess verglichen mit dem TSMC nahezu identisch ist. THG fing ja damit an, man verglich den A9 und stellte fest: Gleich also ist es bei AMD und NV auch gleich :D
Egal wo man anführt, dass AMD wegen der besseren Effizienz den Samsung Prozess verwendet, kommt der Unsinnige Vergleich von THG mit dem A9 und das beide gleich wären.
Complicated
2016-06-09, 14:01:34
Dass IBM sich mit GV100 kombiniert sieht mit Power9 spricht eher dafür, dass man wieder ähnlich schnell ist, denn GV100 ist sicher 10nm. Quelle? IBM hat HPC-Systeme für 2017 mit Volta angekündigt. Ich sehe Volta nicht auf 10nm, zumindest nicht die erste Version für HPC. Kommt Volta 2017 in 10nm kauft sich keiner einen GP102 in 14nm Anfang 2017.
Sunrise
2016-06-09, 14:46:02
Kommt Volta 2017 in 10nm kauft sich keiner einen GP102 in 14nm Anfang 2017.
Nunja, sollte sich NV da bei den HPC-Preisen (die verkaufen ja scheinbar nur im Bündel) genug Platz gelassen haben (>$10.000 US pro Stück (P100) würde ich mal vorsichtig schätzen, das kommt raus, wenn man den NV DGX-1 bei Dell identisch konfiguriert und das restliche Budget durch die 8 P100 GPUs teilt (http://techreport.com/news/29946/pascal-makes-its-debut-on-nvidia-tesla-p100-hpc-card?post=972932)), dann sollte GV100 auf 10nm wohl entweder noch teurer sein oder aber da ist genug Spielraum für solche Stunts.
GP102 ist da im Vergleich ein Super-Schnäppchen mit GDDR5X.
Ich glaube aber auch nicht unbedingt an 10nm bei GV100. Irgendwie wäre das schon ziemlich heftig, das wäre wirklich extrem, wenn NV das noch 2017 fertig stellen kann, wenn P100 noch nichtmal richtig lieferbar zu sein scheint.
Wenn wir das jetzt mal auf AMD übertragen (darum geht es hier ja) sieht es natürlich ganz anders aus (Yield), wenn du stattdessen nur 4x 150mm² GPUs und HBM2 hättest, das wäre zumindest pro Die gemessen im SoC-Größenbereich und auf 10nm sicher schon deutlich früher machbar mit einigermaßen guter Ausbeute. Und bezahlen würden das sicher auch einige im HPC-Markt, wenn es gut skaliert auf einem Interposer.
An 10nm bzw. 7nm geht jedenfalls kein Weg vorbei, wenn das was AMD da bauen will auch genug Leistung auf die Straße bringt im Gegensatz zu Einzel-GPUs.
Elkinator
2016-06-09, 15:11:46
POWER9 ist auch sicher größer als GV100.
Ein 10nm Chip mit 600-700mm² wird sich nicht ausgehen, zuerst kommen mal eher kleinere SOCs mit 100mm².
10nm muß sicher schon mal 2 Jahre laufen bis ein POWER9 überhaupt möglich wäre.
14nm SOI FinFET
IEDM: TSMC, Intel and IBM 14/16nm Processes (https://www.semiwiki.com/forum/content/4110-iedm-tsmc-intel-ibm-14-16nm-processes.html)
y33H@
2016-06-09, 17:08:27
Power9 ist 14FF-iwas bei GloFo, denke mal 14LPP.
Complicated
2016-06-09, 18:06:20
GP102 ist da im Vergleich ein Super-Schnäppchen mit GDDR5X.
Ich glaube aber auch nicht unbedingt an 10nm bei GV100. Irgendwie wäre das schon ziemlich heftig, das wäre wirklich extrem, wenn NV das noch 2017 fertig stellen kann, wenn P100 noch nichtmal richtig lieferbar zu sein scheint.
Genau deshalb ist GP102 in 16nm womöglich überhaupt kein Super-Schnäppchen für Nvidia. Schaut man sich den Preis der 16nm Pascals an und die Verfügbarkeit schreien alle Wirtschaftlichen Kennzahlen: zu niedrige Yields.
Nvidia sieht tatenlos zu wie AMD den Mainstream aufmischt mit sub-199$ GPUs und kann nicht mal die hohen Margen einfahren von denen seit Wochen gesprochen wird da nicht ausgeliefert wird. Und nun soll auch noch die Lebenszeit von Pascal in 16nm so kurz sein, dass es für Nvidia einer Abschreibung der Entwicklungskosten gleich kommt. Damit wären dann 2 Prozesse hintereinander gescheitert bei Nvidia, erst 20/22nm und dann auch 16nm. Das ist für mich kaum vorstellbar. 10nm müssen auch warten bis 16nm sich amortisiert haben.
Complicated
2016-06-09, 18:06:49
Also ich vermute das Vega 10/11 beide bei TSMC gebaut werden.Warum?
Sunrise
2016-06-09, 18:34:35
Genau deshalb ist GP102 in 14nm womöglich überhaupt kein Super-Schnäppchen für Nvidia.
Nana, jetzt nicht den Satz verdrehen, der ging in etwa so:
Im Gegensatz zu P100 für den geschätzten Preis wird NV jeder Endkunde für eine leistungsfähige $1000 GPU die Füße küssen.
Würde AMD es schaffen etwa gleichzeitig mit Vega zu kommen wäre das super, nur sieht es danach nicht aus -> Preise bestimmt weiter NV im High-End. P10 wird auch gegen die 1060 ranmüssen, da mach dir mal keine Sorgen.
Heiß ist einzig und allein der Preis von $199 US, aber auch nur, weil NV nicht über den Preis gehen muss.
Der Yield bei 300mm^2 verhindert keine niedrigen Preis, siehst du ja an der 1070, und es würde auch noch tiefer gehen, wäre NV nicht so stark gewinnorientiert.
Complicated
2016-06-09, 18:51:18
Ich hab den Satz nicht verdreht. Ich habe dein "Super-Schnäppchen" lediglich aus Nvidas Perspektive beleuchtet. Daher bitte den zweiten Teil der das präzisiert mit in dem Zitat beachten:
Schaut man sich den Preis der 14nm Pascals an und die Verfügbarkeit schreien alle Wirtschaftlichen Kennzahlen: zu niedrige Yields.Daher wird Nvidia hier wenig Lut haben und nicht die Margen haben die sie brauchen um im Midrange die 199$ mit zu gehen.
Jetzt im Moment reißt sich AMD immer mehr Marktanteile unter den Nagel, obwohl die neuen Karten noch gar nicht released sind. Nur mit den 3xx Rebrands und Fiji. 4 Quartale hintereinander und im folgenden wird es wohl so weiter gehen bei der Verfügbarkeit von GP104.
Die 1070 hat einen niedrigen Preis? :O
fondness
2016-06-09, 18:54:37
Scheint wohl wirklich "nur" auf 390 Speed hinaus zu laufen:
http://www.3dmark.com/3dm11/11263084
/Edit: Aber okay das Ding dürfte gut CPU-limitiert sein, ein Crossfire-System ist praktisch gleich schnell^^
dargo
2016-06-09, 18:57:03
Abwarten, immer noch kein Releasetreiber.
Die 1070 hat einen niedrigen Preis? :O
Man muss nur den Preis der 1080 genug hochtreiben, dann sieht die 1070 nicht mehr so teuer aus. Psychologie und so. Hat schon bei Titan funktioniert. ;)
illidan
2016-06-09, 19:05:14
/Edit: Aber okay das Ding dürfte gut CPU-limitiert sein, ein Crossfire-System ist praktisch gleich schnell^^
Bei <100fps im Grafik-Score?
Glaube nicht.
http://www.3dmark.com/compare/3dm11/11263084/3dm11/10808024
Gipsel
2016-06-09, 19:19:40
Scheint wohl wirklich "nur" auf 390 Speed hinaus zu laufen:
http://www.3dmark.com/3dm11/11263084
/Edit: Aber okay das Ding dürfte gut CPU-limitiert sein, ein Crossfire-System ist praktisch gleich schnell^^
Bei <100fps im Grafik-Score?
Glaube nicht.
http://www.3dmark.com/compare/3dm11/11263084/3dm11/10808024Da die praktisch punktgleiche "390" mit 1050MHz läuft, ist es wohl näher an der 390X, oder?
Edit: Skaliert übrigens irgendwie praktisch perfekt mit #CU*Takt:
67DF:C7 / 390X
36*1266 / 44*1050 = 0,98
18060 / 18615 = 0,97
:|
Limit
2016-06-09, 19:21:32
Power9 ist 14FF-iwas bei GloFo, denke mal 14LPP.
Das bezweifle ich stark. Der dürfte eher in einem Prozess vom Band laufen den GloFo bei der Übernahme der IBM Fertigungssparte mitbekommen hat und das wird sicherlich ein SOI Prozess sein.
illidan
2016-06-09, 19:26:38
Da die praktisch punktgleiche "390" mit 1050MHz läuft, ist es wohl näher an der 390X, oder?
Eher minimal < 390, 1050Mhz ist kein untypischer Takt für die. Die X-Modelle takten dann nochmal meist leicht höher, also sind die eigentlich außer Reichweite. Wenn man das so drastisch formulieren will zumindest, die Differenzen sind ja sehr gering.
Wenn es Custom Designs mit ~15% mehr Takt gäbe, wären die dann > 390X Customs, wenn die Bandbreite nicht limitiert.
Gipsel
2016-06-09, 19:29:17
Eher minimal < 390, 1050Mhz ist kein untypischer Takt für die. Die X-Modelle takten dann nochmal meist leicht höher, also sind die eigentlich außer Reichweite.Offizieller Takt der 390 ist 1000MHz, der der 390X beträgt 1050MHz. Alles andere sind OC-Modelle.
illidan
2016-06-09, 19:33:00
Es gibt kein Referenzdesign und 390er Karten mit genau 1Ghz sind eher die Ausnahme.
dargo
2016-06-09, 19:36:53
Es sind keine Ausnahmen, ich zähle bei GH 4 Stück. Auch wenn da 1010/1015/1020Mhz steht spielt es keine Rolle da dich PT schon früher je nach Szene limitieren kann. Und schon hast du avgs. von 1000Mhz oder gar weniger. Es heißt übrigens bei der R9 390 bis 1000Mhz und R9 390X bis 1050Mhz.
Edit:
Steht übrigens auch so offiziell bei AMD (unten auf R9 300 klicken).
http://www.amd.com/de-de/products/graphics/desktop/R9
illidan
2016-06-09, 19:41:52
Deine HiS ist nicht der Nabel der Welt, die meisten Karten haben ein großzügigeres PT-Limit und drosseln i.d.R. gar nicht.
http://www.computerbase.de/2015-10/neun-radeon-r9-390-x-partnerkarten-test/3/#abschnitt_taktraten_unter_last
dargo
2016-06-09, 19:49:40
Was ein Blödsinn. Gib den Karten genug Last dann drosseln die auch. Es sei denn man gibt denen irgendein hirnrissiges Powertarget von 350W+. :rolleyes: Spätestens im Furmark werden sie selbst damit drosseln.
M4xw0lf
2016-06-09, 19:57:11
Da die praktisch punktgleiche "390" mit 1050MHz läuft, ist es wohl näher an der 390X, oder?
Edit: Skaliert übrigens irgendwie praktisch perfekt mit #CU*Takt:
67DF:C7 / 390X
36*1266 / 44*1050 = 0,98
18060 / 18615 = 0,97
:|
Sehr. Sehr. Unsexy.
illidan
2016-06-09, 20:10:53
Was ein Blödsinn. Gib den Karten genug Last dann drosseln die auch. Es sei denn man gibt denen irgendein hirnrissiges Powertarget von 350W+. :rolleyes: Spätestens im Furmark werden sie selbst damit drosseln.
Blödsinn erzählst du, denn es ging um Spiele-Performance, nicht um Furmark...
Abgesehen davon ist die ganze Debatte um die paar Mhz hirnrissig, weil es nur um einstellige Prozentwerte bei den Differenzen in fps geht.
Ergo, wenn der 3DMark-Wert hinhaut, wird es eben ~390 Performance. Da so einen Eiertanz drum zu machen...
Botcruscher
2016-06-09, 20:14:22
Schaut man sich den Preis der 14nm Pascals an und die Verfügbarkeit schreien alle Wirtschaftlichen Kennzahlen: zu niedrige Yields.
Die Idiot-Edition ist doch ordentlich erhältlich. NV hat sich schlicht für einen frühen Start entschieden und die Nachfrage eben per Preis reguliert. Eine schlichte Optimierung der Wirtschaftlichkeit. Über die Yields sagt das nichts aus. AMD ist halt später dran weil viel mehr Masse raus muss.
Ailuros
2016-06-09, 20:15:31
Scheint wohl wirklich "nur" auf 390 Speed hinaus zu laufen:
http://www.3dmark.com/3dm11/11263084
/Edit: Aber okay das Ding dürfte gut CPU-limitiert sein, ein Crossfire-System ist praktisch gleich schnell^^
Ich hab persoenlich auch nie mehr als =/>390 Leistung (mit einem maximalen Verbrauch von ~120W) erwartet um ehrlich zu sein. Das schlimmste ist dass es wohl wieder etwas dauern bis sich Preise normalisieren nach dem launch, denn fuer den Anfang sieht es nicht danach aus als ob diese sehenswert niedriger sein werden im Vergleich zu den 390-ern.
Die Idiot-Edition ist doch ordentlich erhältlich. NV hat sich schlicht für einen frühen Start entschieden und die Nachfrage eben per Preis reguliert. Eine schlichte Optimierung der Wirtschaftlichkeit. Über die Yields sagt das nichts aus. AMD ist halt später dran weil viel mehr Masse raus muss.
So toll sind die yields tatsaechlich nicht. Eine gute Indizie dafuer werden u.a. die Anzahl der jeweiligen salvage SKUs beider Seiten sein und auch wie viel jeder jeweils seine chips kastrieren wird. Wenn wir ueber laengere Zeit dann kastrierte chips sehen mit >35% deaktivierten Einheiten insgesamt ist es dann wohl schon eine Indizie fuer ultra-beschissene binning yields.
scully1234
2016-06-09, 20:16:54
https://abload.de/img/480xucs5t.jpg
https://abload.de/img/480x206syz.jpg
https://abload.de/img/480x3hdrhq.png
Botcruscher
2016-06-09, 20:28:02
So toll sind die yields tatsaechlich nicht. Eine gute Indizie dafuer werden u.a. die Anzahl der jeweiligen salvage SKUs beider Seiten sein und auch wie viel jeder jeweils seine chips kastrieren wird. Wenn wir ueber laengere Zeit dann kastrierte chips sehen mit >35% deaktivierten Einheiten insgesamt ist es dann wohl schon eine Indizie fuer ultra-beschissene binning yields.
Aber nur wenn kein anderer Chip den Marktbereich besetzen kann. Yield ist das eine, Herstellungskosten das andere. Wenn der Gewinn stimmt ist es egal wie viel da geschnippelt wird. Erst mal abwarten wie die Lieferbarkeit der 480 und 1070 ausfällt.
PS: Was sagen jetzt die Sisoft Ergebnisse? Wenn die Karte zwischen 970 und 980 landet hat AMD doch alles richtig gemacht.
dargo
2016-06-09, 20:38:59
Blödsinn erzählst du, denn es ging um Spiele-Performance, nicht um Furmark...
Ach was... es gibt auch genug Karten die in Spielen teilweise einknicken. Das wird schon mal jede Karte mit einem PT von 250W betreffen. Genug Auflösung und Shaderlast, mehr braucht es nicht. Wie kommst du überhaupt auf die Idee die Szene die CB da nimmt wäre für alle Spieleszenarios repräsentativ? Es gibt schon einen guten Grund warum eine MSI R9 390X Gaming bei DX12 in AotS mit/ohne AC beim Stromverbrauch durch die Decke geht.
http://www.tomshardware.de/ashes-of-the-singularity-beta-2-directx-12-dx12-gaming,testberichte-242049.html
Ailuros
2016-06-09, 20:41:40
Aber nur wenn kein anderer Chip den Marktbereich besetzen kann.
Wie ich schon oben sagte wenn ein IHV fuer zu lange mit einem halb deaktivierten chip herumwerkelt, schreit es nur so von ueblen binning yields.
Yield ist das eine, Herstellungskosten das andere.
Die beiden sind aber selbst indirekt nicht von einander unabhaengig.
Wenn der Gewinn stimmt ist es egal wie viel da geschnippelt wird. Erst mal abwarten wie die Lieferbarkeit der 480 und 1070 ausfällt.
Um es auf eine reale Basis zu bringen: benutzt NV tatsaechlich einen fast halben GP104 fuer eine GTX1060 dann wird es auch kein Zufall mehr sein. Benutzen sie es nur als kurze Bruecke bis 106 ankommt dann ok; in jeglichem Gegenfall spricht es dann schon von wesentlichen Wehwehchen wenn sie die Haelfte der clusters abschalten muessen.
Muss nicht so sein und ja wir muessen abwarten wie es aussieht, aber es gibt bis jetzt keine einzige Meldung von "guten" yields bei foundries oder dass Herstellung generell "billig" ist. Mag sein dass so manche davon traeumten dass sich die transistor/$ Relation verbessert mit FF Prozessen, aber zumindest am Anfang ist es wie erwartet genau das Gegenteil.
illidan
2016-06-09, 20:47:52
Ach was... es gibt auch genug Karten die in Spielen teilweise einknicken. Das wird schon mal jede Karte mit einem PT von 250W betreffen. Genug Auflösung und Shaderlast, mehr braucht es nicht. Wie kommst du überhaupt auf die Idee die Szene die CB da nimmt wäre für alle Spieleszenarios repräsentativ? Es gibt schon einen guten Grund warum eine MSI R9 390X Gaming bei DX12 in AotS mit/ohne AC beim Stromverbrauch durch die Decke geht.
http://www.tomshardware.de/ashes-of-the-singularity-beta-2-directx-12-dx12-gaming,testberichte-242049.html
Ich habe das Spiel und ich habe eine 390 und ich merke nichts von "durch die Decke gehen".
Genau so gut kann das an der abartigen Leakage von Hawaii mit hohen Spannungen und Takt liegen. Die MSI 390X ist schließlich nicht nur quasi-ungelockt, sondern läuft auch mit für Hawaii als Standard-Takt wahnwitzigen 1,1Ghz. Die dafür notwendige Spannung, um alle zur Verfügung stehenden Chips einsetzen zu können, kannst du dir ja denken.
Botcruscher
2016-06-09, 20:57:04
Jenseits der Jubelmeldungen von TSMC wie toll der nächste Prozess läuft, gibt es leider überhaupt keine neueren Meldungen. Google spuckt dazu uraltes Zeug mit irgendwelchen Erwartungen und/oder Meldung aus dem 3DC von annodazumal aus.
Hier sieht es dann wiederum nicht so extrem aus:
http://www.elektroniknet.de/halbleiter/sonstiges/artikel/125983/
Complicated
2016-06-09, 21:22:16
NV hat sich schlicht für einen frühen Start entschieden und die Nachfrage eben per Preis reguliert. Eine schlichte Optimierung der Wirtschaftlichkeit. Über die Yields sagt das nichts aus.Also wirtschaftlich optimieren kann man auf keinem Prozess je früher man die Serienproduktion startet. Hier wurde die Wirtschaftlichkeit dem Marketing geopfert. Und die "schlichte Entscheidung" für einen früheren Start ist auch eine ganz bewusste für schlechtere Yields gewesen. Daher ist auch die Regulierung über den hohen Preis notwendig, um die Preise der 28nm Produkte nicht zu gefährden.
Nvidia pokert derzeit und man wird sehen müssen ob es aufgeht mit eben GP106 oder dem GP104-150. Die Abwanderung der Käufer zu AMD ist jetzt seit 4 Quartalen konstant und Nvidia weiss genau, dass mit dem erscheinen der RX480 die Preise der 28nm Produkte gesenkt werden muss. Abverkaufen geht aber auch nicht solange man keine 16nm in der Preisregion zu bieten hat. Die GTX 980 müsste deutlich billiger als eine RX480 sein mit 199 $ und man müsste den 398mm² in 28nm deutlich teurer herstellen als AMD seinen P10 mit ca. 230 mm² in 14nm.
AMD hat Nvidia in eine Zwickmühle manövriert aus der sie nur mit einem guten GP106, der günstig herzustellen ist, raus kommen ohne zu viel Marktanteile zu verlieren.
Ravenhearth
2016-06-09, 21:50:20
An dieser Stelle möchte ich mal an die Kommentare erinnern, die für die 480X eine Performance auf Fury X- oder 980 Ti-Niveau für möglich hielten ;D
basix
2016-06-09, 22:02:06
https://abload.de/img/480xucs5t.jpg
https://abload.de/img/480x206syz.jpg
https://abload.de/img/480x3hdrhq.png
Sehe ich das richtig, das DP / SP Verhältnis = 1 / 8 ist?
Linmoum
2016-06-09, 22:03:15
An dieser Stelle möchte ich mal an die Kommentare erinnern, die für die 480X eine Performance auf Fury X- oder 980 Ti-Niveau für möglich hielten ;D
Kann ich leider nicht viel zu sagen, da (noch) keine 480X vorgestellt wurde.
Falls du allerdings die RX 480 meinst, dann habe ich ehrlich gesagt allerdings auch so gut wie niemanden gelesen, der da von der 980TI ausgegangen ist.
Dino-Fossil
2016-06-09, 22:04:40
Da war sicherlich einiges an Wunschdenken dabei.
Ich bin allerdings von Anfang an eher von 390-390X Performance ausgegangen, wobei ich mir vorstellen könnte, das einzelne Spiele der neuen Architektur besser schmecken.
Allerdings wissen wir bisher noch nicht, wie die Karten sich unter realen Bedingungen schlagen werden. Fury X oder 980Ti Performance ist unrealistisch, ich könnte mir aber vorstellen, dass sie in manchen Titeln relativ zur 390(X) besser abschneidet, als es anscheinend in AotS der Fall ist (wobei man auch hier noch die Tests abwarten muss).
Immerhin läuft das ja schon auf den aktuellen AMD Karten recht gut - wenn AMD's Architekturänderungen allerdings die effektive Auslastung der GCN4-CUs erhöhen, wird das womöglich nur in Titeln sichtbar, die im Moment eher Probleme bereiten.
Naja, es bleibt spannend. :biggrin:
Oh das ist ja interessant, die C4-Variante hat auch 36CUs aber deutlich weniger Takt und nur 6Gbps-RAM. Scheint so ne Art Nano-Variante zu sein, vllt. ohne Powerstecker. Das erhärtet meinen Verdacht, dass eine RX490 mit 2560 SPs und GDDR5X noch kommt und die RX480 doch Salvage ist.
Complicated
2016-06-09, 22:43:20
Wäre tatsächlich eine Variante das Lineup wie beim Fiji Chip zu wiederholen.
Die vorgestellte RX 480 ist der Salvage mit 36 CUs wie die Fury, ich nenn sie mal dann R9 480,
der Vollausbau mit 40 CUs wie die FuryX, ich nenn sie mal R9 480X,
und die Nano-Variante des Salvage als R7 480 (oder R7 470X)
Darunter fängt P11 mit der R7 470 mit dem kleineren Chip an.
Fliwatut
2016-06-09, 22:49:15
Morgen werden wir vllt. schon mehr wissen :cool:
Schnoesel
2016-06-09, 22:49:57
Würde dann auch einen Preisbereich bis 300€ abdecken. Blöd wäre es nicht aber ob es so kommt?! So ne P10 nano könnte ich mir dann auch gut für meinen HTPC vorstellen aber das kommt auf den Preis an.
Momentan gehe ich aber davon aus, dass RX 480 der Vollausbau ist, wenn nicht hätte AMD so ziemlich jeden genarrt.
Eine "Nano" als Referenz macht doch in dem Bereich keinen Sinn. Die Nano ist mit 175 W angegeben, die Fury X mit (ueber?) 300. Eine Karte mit 150 und eine mit 100 bringt es da doch nicht. Das eine koennte imho eher eine mobile Variante sein.
Minis kann es ja von den AIBs trotzdem geben
Complicated
2016-06-09, 23:21:04
Jetzt sind die Differenzen der R7 370 und R7 360 ja auch nicht anders im Mainstream:
R7 370 TDP 110W, 212mm²
R7 360 TDP 100W, 160mm²
Die Abstände in diesem Segment sind beim Verbrauch nicht so hoch wie bei 800$ Chips.
Oder auch Nvidias Maxwell Lineup mit
GTX 980 TDP 165W, 398mm²
GTX 970 TDP 145W, 398mm²
GTX 960 TDP 120W, 227mm²
GTX 950 TDP 90W, 227mm²
Daran könnte sich AMD orientieren, da das Maxwell 2.0 Lineup eigentlich sich perfekt gegen AMD positioniert hatte und AMD genau weiß wie schwer das Leben so werden kann als Konkurrent.
Elkinator
2016-06-09, 23:26:08
Morgen werden wir vllt. schon mehr wissen :cool:
Zu Polaris?
Was ist denn morgen?
Screemer
2016-06-09, 23:29:57
Zu Polaris?
Was ist denn morgen?#
soweit ich weiß nix. montag ist der interessantere tag, denn da ist die e3 pc gaming show (http://www.pcgamingshow.com/). ist ein von amd gesponsorter event. die fury reihe wurde da das erste mal der öffentlichkeit präsentiert (http://www.gamestar.de/hardware/grafikkarten/amd-radeon-r9-fury-x/news-artikel/amds_live_stream_von_der_e3,928,3087058.html).
Elkinator
2016-06-09, 23:51:16
Wahrscheinlich weis es nicht, daß es hier um AMD geht!
MorPheuZ
2016-06-09, 23:59:43
Die beiden sind aber selbst indirekt nicht von einander unabhaengig.
Das ist glaube ich der schwierigste Satz den ich je gelesen habe...
Sorry für OT, aber musste sein :tongue:
Weiter geht's...
So schnell wie eine GTX980, passt doch ;) http://www.guru3d.com/articles_pages/nvidia_geforce_gtx_970_and_980_reference_review,20.html
Die paar Pünktchen mehr macht wohl die auf 4.6G übertaktete X-CPU aus.
OBrian
2016-06-10, 00:05:26
Eine "Nano" als Referenz macht doch in dem Bereich keinen Sinn. Die Nano ist mit 175 W angegeben, die Fury X mit (ueber?) 300. Eine Karte mit 150 und eine mit 100 bringt es da doch nicht. Das eine koennte imho eher eine mobile Variante sein.
Minis kann es ja von den AIBs trotzdem geben
Ja, das dürfte auch einfacher sein, eine sparsame Variante zu bringen, das muß kein "ingenieurtechnisches Meisterwerk" sein wie die Nano. Das PCB der RX480 ist, den Bilder nach zu schließen, gerade mal anderthalb Zentimeter länger als das der Nano, also ist die Platine schonmal klein genug. Da muß nur ein kleiner dimensionierter Kühler drauf und fertig. Und damit der reicht, schält man etwas von der Spannung ab und ein paar MHz, nimmt ggf. ein paar minimal teurere Bauteile mit besserer Effizienz und fertig. Ich denke da also eher an sowas wie die 285 in der "ITX-Compact"-Version von Sapphire.
Das sind also alles Dinge, die die Kartenhersteller selbst erledigen können. Genauso wie pervers übertaktete Exemplare mit fast doppelter TDP, acht Lüftern und einem Kilo LED-beleuchteten Plastiks drauf.
Fliwatut
2016-06-10, 00:26:22
Jo, ich meinte die PC Gaming Show, ich dachte, die wäre heute. Sorry.
Leonidas
2016-06-10, 06:55:51
Nein, 13. Juni 2016:
http://www.3dcenter.org/news/amds-polaris-launch-ist-ziemlich-sicher-zum-29-juni-2016-zu-erwarten
Sunrise
2016-06-10, 10:08:40
Um es auf eine reale Basis zu bringen: benutzt NV tatsaechlich einen fast halben GP104 fuer eine GTX1060 dann wird es auch kein Zufall mehr sein. Benutzen sie es nur als kurze Bruecke bis 106 ankommt dann ok; in jeglichem Gegenfall spricht es dann schon von wesentlichen Wehwehchen wenn sie die Haelfte der clusters abschalten muessen.
Ihr verrennt euch hier etwas. Sollte NV GP104 anstatt GP106 benutzen, ist es lediglich ein Indiz darauf, dass GP106 zu spät kommt.
Und wenn eine 300mm^2 GPU ultra-beschissene Yields hätte, könnte AMD keine 230mm^2 RX480 für gerademal $199 US in Masse verkaufen.
Dass die Yields nicht traumhaft sind ist klar, aber mal realistisch bleiben bitte.
NV kann sich schlicht diese Preise erlauben, siehe Intel. Das ist wenn schon ein Indiz auf fehlende Konkurrenz, sonst nichts.
Was haben die Yields von Nvidia's Chips bei TSMC mit denen von AMD's voellig anderen Chips bei GF zu tun?
Hast du Daten zu beiden?
Uebrigens: wenn es stimmt, dass ein P11 mit 10 CUs kommt, deutet das auch darauf hin, dass AMD realtiv stark beschnittene Chips verkauft/verkaufen muss. Mit GP104 hat das aber immer noch nichts zu tun.
Sunrise
2016-06-10, 10:14:11
Was haben die Yields von Nvidia's Chips bei TSMC mit denen von AMD's voellig anderen Chips bei GF zu tun?
Hast du Daten zu beiden?
Die Argumentation ist und bleibt Quatsch, da brauche ich keine Daten.
$199 US sind ein Preis an dem man sich für die Masse orientieren kann, $499-599 US sicher nicht, das ist weder ein Hinweis auf Yields noch irgendwas. Allenfalls auf horrende NV-Preisaufschläge wie bei Intel.
Glaubst du ernsthaft du könntest an den Endpreisen die Yields festmachen? Ich hoffe nicht. Und AMD verkauft in Masse sicher nicht mit Verlust und weder Samsung/GloFo noch TSMC haben einen Magic-Stick bei FinFET.
NV war schon fast immer deutlich teurer, dürfen sie auch, keine Konkurrenz.
GDDR5X hat wohl ein Preispremium, die 70mm^2 auch, aber sicher nicht das 2-3fache von AMD.
AMD zeigt nur mal wieder, dass 980-Leistung für die Masse erschwinglich zu produzieren ist und die Leute, die von NVs Preisen benebelt sind wachen plötzlich auf.
Complicated
2016-06-10, 10:34:50
Natürlich kann man auf die Yields schließen, wenn ein Hersteller einen Paperlaunch hinlegt, der dann auch die Preise der Produkte deutlich höher ansetzt als es erwartet wurde und somit die Stückzahlen steuert. Wenn genug Produkte vorhanden sind, braucht man nicht die Hallen zu füllen, sondern man verkauft sie den Kunden. Händler würden schon längst einen Preiskampf starten im Vorfeld wenn sie mehr als 3-4 Stck. verkaufen könnten. Doch warum sollte man Preise senken wenn man nicht weiß wann die nächste Charge eintrifft? Also hat man ebenfalls Zeit und damit keinen Grund die Preise anzupassen.
Auch bringt es Nvidia nichts die teureren GM204 in 28nm gegen P10 aufzustellen. Der Chip ist deutlich kleiner und günstiger. Also hat Nvidia derzeit keine GPU die wirtschaftlich gegen P10 antreten kann, bis GP106 eintrifft. Und ob das hinhaut, wird erst der offizielle Launch von Polaris zeigen. Der Druck auf GP106 ist allein mit den 199$ schon enorm, denn ganz sicher sollte auch der eine Preisstufe hoch rutschen. Ende des Monats werden wir sehen ob es doch anders herum kommt und GP104 wieder eine runter muss. Bis GP106 erscheint, verliert Nvidia jedenfalls konstant Marktanteile solange sie die Preise nicht anpassen. Derzeit ist das auch kein Problem, da die 80% wohl ein Peak waren den sie auch gar nicht beabsichtigen mit allen Mitteln zu verteidigen. Sie müssen halt aufpassen, dass es nicht zum völligen Umschwung kommt.
AMD hat eine 14nm Fertigung und Nvidia nicht. Auch hatte Nvidia das erste mal keine Vorarbeit auf einem Prozessnode durch AMD, sondern musste 16nm als erstes veröffentlichen. AMD könnte alleine durch die 14nm einen Kostenvorteil haben, bessere Yields durch einen kleineren Die sind auch noch automatisch gegeben.
Sunrise
2016-06-10, 10:53:20
...AMD hat eine 14nm Fertigung und Nvidia nicht.
...was reines Marketing ist. Entscheidend sind einzig und allein die Preise, die AMD bei GloFo zahlt und NV bei TSMC, komplett unabhängig vom Prozess für Chip X und Chip Y.
Warum bitte sollte NV die Preise so runterziehen, wenn sie sich die Preise nicht kaputtmachen wollen? Das hat rein garnicht mit Yields zu tun, sondern damit, dass sie wie Intel oder Apple ihre Hochpreis-/Premium-Strategie haben und sie eine AG sind, und ihre cross margins wichtig sind.
AMD bzw. ATi, die auch vor gefühlt 20 Jahren schon niedrigere Preise hatten, trotz dessen dass sie bei dem gleichen Fertiger gefertigt haben, widerspricht dem auch komplett.
Die Argumentation mit den Yields ist Quatsch, die Preise macht einzig und allein NV und was da dahinter steht, weiß hier keiner. Aber man kann sich da nicht Yield als Entschuldigung für die Preise schnappen und dann sagen "NV hat eben schlechtere Yields". Das ist totaler Mist. Wenn mir jetzt jemand sagt, Yields von P100 (GP100) sind ultra-beschissen, gerne, das ist aber ein anderes Thema als eine 200-300mm² GPU. Und war es auch schon immer.
Fehlt nur noch jemand der behauptet, dass AMD mit der RX480 Verluste macht. (Natürlich machen sie das, weil sie gerne endlos Geld verbrennen!).
Es ist gut, dass wir endlich wieder Konkurrenz haben, und dass AMD da so dagegen gegangen ist, gefällt mir irgendwie. Da freut man sich doch direkt auf Zen.
AlphaNUSS
2016-06-10, 11:02:06
Also irgendeinen Grund muss es ja für die sehr schlechte Verfügbarkeit von Pascal geben. Und ein vorgezogenen Launch oder schlechten Yields scheinen mir da relativ plausibel.
Sunrise
2016-06-10, 11:06:39
Also irgendeinen Grund muss es ja für die sehr schlechte Verfügbarkeit von Pascal geben. Und ein vorgezogenen Launch oder schlechten Yields scheinen mir da relativ plausibel.
Der vorgezogene Launch ist recht wahrscheinlich, da NV noch vor AMD vorstellen wollte. Das hatte niemand hier auf dem Schirm und alle überrascht. Sowas ist ungewöhnlich, weil selbst von AMD die komplett dicht gemacht hatten erfuhr man das bereits schon Monate vorher. NV muss natürlich auch die Lager leeren, denn wer will jetzt noch GM204 kaufen?
Der Desktop-Markt ist ja recht träge geworden, da werden noch massig GM204 unterwegs sein, die NV bzw. die Partner irgendwie verkaufen müssen.
Wir wissen auch nicht, wie gut verfügbar GDDR5X ist, da ausschließlich Micron die produziert aktuell. AMD hat da natürlich den immensen Vorteil mit GDDR5.
Die RX480 wird jedenfalls den Markt gehörig durchwirbeln, und NV muss da irgendwie dagegen gehen, wird interessant, wie sie das machen wollen.
Zettabit
2016-06-10, 11:09:44
Natürlich kann man auf die Yields schließen, wenn ein Hersteller einen Paperlaunch hinlegt
Also denkst du die Yields von AMD sind für Polaris so schlecht? Ja, das würde Sinn ergeben. Erklärt ja immerhin, warum man schon letztes Jahr quasi fertige Chips präsentiert hat und nun ein halbes Jahr das Schweigen im Wald war.
Derweil hat die Konkurrenz einen viel größeren Chip per Hardlaunch gestartet, einen Monat vorher. Heute das nächste Modell.
Bis GP106 erscheint, verliert Nvidia jedenfalls konstant Marktanteile solange sie die Preise nicht anpassen.
Quatsch mit Soße, dafür muss AMD erstmal liefern können. Ob sie das können, wissen wir noch überhaupt nicht.
Und solange verliert nur AMD Marktanteile, weil sie überhaupt gar kein aktuell interessantes Modell haben und NVIDIA verdient sich die goldene Nase.
Also irgendeinen Grund muss es ja für die sehr schlechte Verfügbarkeit von Pascal geben. Und ein vorgezogenen Launch oder schlechten Yields scheinen mir da relativ plausibel.
http://www.heise.de/preisvergleich/?cat=gra16_512&xf=1439_GTX+1080~5586_Referenzdesign#xf_top
9/10 Referenzmodelle sofort lieferbar. Mensch ist echt katastrophal schwer, so eine Pascalkarte zu erhalten :P
Ailuros
2016-06-10, 11:15:49
Ihr verrennt euch hier etwas. Sollte NV GP104 anstatt GP106 benutzen, ist es lediglich ein Indiz darauf, dass GP106 zu spät kommt.
Und wenn eine 300mm^2 GPU ultra-beschissene Yields hätte, könnte AMD keine 230mm^2 RX480 für gerademal $199 US in Masse verkaufen.
Dass die Yields nicht traumhaft sind ist klar, aber mal realistisch bleiben bitte.
NV kann sich schlicht diese Preise erlauben, siehe Intel. Das ist wenn schon ein Indiz auf fehlende Konkurrenz, sonst nichts.
Ich sagte wenn sie den 104 zu lange benutzen und dieses muss auch nicht mir nichts dir nichts desktop sein. Bei Fermi war zwar der MC k.o. aber anstatt die halb kaputten chips wegzuschmeissen verkauften sie diese als mainstream Quadros.
Sonst erwaehnte ich klipp und klar innerhalb der vorigen HYPOTHESEN binning yields, welches ein ganz anderes Tier ist als wafer yields. Falls es noch niemand hier bis jetzt eingeleuchtet ist: BEIDE IHVs sammeln momentan Erfahrungen mit FF Prozessen.
Sunrise
2016-06-10, 11:23:51
...BEIDE IHVs sammeln momentan Erfahrungen mit FF Prozessen.
Wenn AMD bald in Masse liefern kann, bin ich mal gespannt, ob bei AMD die Erfahrungen ausreichen. :P
Im Ernst: War auch nicht ausschließlich auf dich gemünzt, nur wenn du dir mal die Preise für die FE bei Geizhals anschaust, dann ist doch klar, dass NV hier Preise verlangt, die einfach nur völlig aus der Luft gegriffen sind und vom Preisbereich die 980 Ti ersetzen sollen, jedoch haben sie eben aktuell dort auch keine Konkurrenz und 8GB reichen für 99% der Fälle auch aus.
Denn wenn AMD für die RX480 schon so tiefe Preise fährt, wird NV gehörig Druck bei den anderen GPUs bekommen und irgendwie reagieren müssen, was ja vor Jahren auch schon so war, es war eben deutlich gesünder für alle, als AMD/ATi noch mehr Marktanteile hatte und NV da nicht einfach die Preise irgendwo hinsetzt wo es ihnen passt.
fondness
2016-06-10, 11:29:49
NV hat einen Stunt hingelegt, weil sie vor AMD dran sein wollten. Die niedrigen Stückzahlen gleicht man durch die hohen Preise der FE aus. Im Juli werden sie dann schon liefern können.
Mal abgesehen davon, dass das alles wieder OT Gelabere ist, bin ich echt gespannt, wie viele Polaris anfangs verfuegbar sind. Theoretisch muesste die Nachfrage "gigantisch" sein, verglichen mit den anderen Launches die AMD die letzte Zeit so hatte.
Zumal ich immer noch glaube, dass Miner den Spielern wieder ordentlich den Spass verderben koennten :P
Und dann naturlich noch die Karten an die OEMs...
scully1234
2016-06-10, 11:58:38
. Theoretisch muesste die Nachfrage "gigantisch" sein, verglichen mit den anderen Launches die AMD die letzte Zeit so hatte.
...
Das laesst sich ja leicht verifizieren ,zwei Wochen nach Launch werden wir die Mindfactory Statistik nochmal aufrufen , und schauen wer der groessere Stuntman ist oder war:tongue:
Wenn ich ein Wettbüro haette ,wuesste ich wie ich jetzt leicht zu Geld kommen wuerde.
Raspo
2016-06-10, 12:42:39
Was würde gegen eine Theorie sprechen, dass AMD NV gezielt manipuliert hat? In dem Sinne, wir launchen als Erste, und die Lederjacke sein Ego in Gefahr sah und den NV-Launch beschleunigt hat? Was AMD davon hätte? NV legt die Karten aufn Tisch und AMD kann in Ruhe ihre Produkte ausrichten. Wenn dann noch die Lager bei NV mit Maxwellkarten voll ist, tut das NV zumindest ein bisschen weh. Wenn sie den frühen Launch vor NV gar nicht wirklich angestrebt haben, Respekt für die Finte.
Rincewind
2016-06-10, 13:33:19
Was machen eigentlich GF und TSMC mit ihren jetzt 28nm-Maschinen? Werden die verschrottet? Werden die weiterverkauft?
N0Thing
2016-06-10, 13:38:38
Was machen eigentlich GF und TSMC mit ihren jetzt 28nm-Maschinen? Werden die verschrottet? Werden die weiterverkauft?
Die werden weiterhin genutzt, für billige, kleine Allerwelts-Chips.
Es gibt immer wieder mal Übersichten, mit welchen Prozessen das Geld verdient wird und da sind oftmals die ein bis drei Generationen alten Prozesse die Cash Cows, da die Investitionen abbezahlt und mit der Masse an low end chips noch gutes Geld verdient werden kann. Als 28nm bei TSMC neu war, war afaik der 90nm Prozess der Bereich mit den höchsten Gewinnen.
Complicated
2016-06-10, 13:38:50
Was machen eigentlich GF und TSMC mit ihren jetzt 28nm-Maschinen? Werden die verschrottet? Werden die weiterverkauft?Es gibt noch viele Designs die auf 28nm lange Jahre laufen werden. Gute Übersicht hier in diesem Paper von esilicon: https://www.esilicon.com/wp-content/uploads/Quantifying-IP-Entitlement-for-14-16nm-Technologies.pdf
56259
Felixxz2
2016-06-10, 13:39:04
@Rincewind
28nm läuft weiter, wird wohl auf Jahre wieder DER Standardprozess werden, für billige Allerweltchips. Kannst ja mal die Statistiken von TSMC anschaun, bis hoch zu 500nm wird da noch einiges auch in größeren Strukturbreiten gefertigt, z.B. Chips die in 28nm schlicht zu klein wären um sie überhaupt noch zu verbauen.
Rincewind
2016-06-10, 13:39:59
Danke für die Infos.
Was machen eigentlich GF und TSMC mit ihren jetzt 28nm-Maschinen? Werden die verschrottet? Werden die weiterverkauft?
Es werden ja auch weiterhin viele Chips in 28 nm gefertigt, es gibt ja nicht nur high-end GPUs und bleeding-edge SoCs, sie muessen daher nicht auf einen Schlag alle Produktionsmaschinen loswerden. Bei weitem nicht alle Fabs werden immer sofort auf neue Prozesse umgestellt. Bei der Wiki gibt es eine Uebersicht welche Fab bei GF gerade was macht: https://de.wikipedia.org/wiki/Globalfoundries
Wie korrekt/aktuell die ist, kann ich aber nicht beurteilen. Aber offenbar laeuft 14 FF bei GF nur in einer einzigen Fab (8), das war mir auch noch nicht bewusst.
edit, oh da war ich lahm :P
Hübie
2016-06-10, 13:49:31
Was machen eigentlich GF und TSMC mit ihren jetzt 28nm-Maschinen? Werden die verschrottet? Werden die weiterverkauft?
Viele Lithographiegeräte kann man auch für folgende Prozesse verwenden oder halt einfach andere Produkte damit weiter Fertigen. Die Maschinen werden ja über die Jahre abgeschrieben und sind dann halt Überschuß. Dann werden diese entweder tatsächlich verschrottet oder halt symbolisch veräußert. Es hängt auch immer vom Staat ab, in der ein Unternehmen tätig ist.
Wenn du wüsstest wie viele Lithographie-fertiger es gibt... Da findet sich schon jemand der scharf da drauf ist. :D
Tesseract
2016-06-10, 13:55:25
Was machen eigentlich GF und TSMC mit ihren jetzt 28nm-Maschinen? Werden die verschrottet? Werden die weiterverkauft?
die werden zu einem gewissen grad sicherlich noch jahre lang für zig andere chips (microcontroller usw.) weiterverwendet.
intel fertigt z.B. auf der älteren generation so dinge wie chipsätze oder crystalwell und auf noch älteren dann wahrscheinlich netzwerkchips und ähnliches bis die fertigung unprofitabel wird.
Gipsel
2016-06-10, 13:57:02
Bisher war die Moderation nachsichtig und hat nur Posts gelöscht, aber das kann sich auch ganz schnell ändern. Hier im Thread sind irgendwelche Fanboy-Streitereien definitiv nicht Thema. Hier geht es um Polaris (und Vega).
Hübie
2016-06-10, 13:58:34
Haha. Hab eben Mikrowellen statt Microcontroller gelesen X-D
Elkinator
2016-06-10, 14:09:55
Was machen eigentlich GF und TSMC mit ihren jetzt 28nm-Maschinen? Werden die verschrottet? Werden die weiterverkauft?
28nm wird sicher noch 10 Jahre verwendet werden.
Dresden wurde aber zb. auf 22FDX umgerüstet, das geht mit den 28nm Anlagen recht günstig.
Felixxz2
2016-06-10, 17:27:09
Kurzer Crosstalk von der PS4 Neo: Wenn die mit 36CU Polaris kommt, MUSS es doch eig nen vollen Polaris geben, denn AFAIK sind Konsolenchips doch, gerade auf nem neuen Prozess, teildeaktiviert. War die Ur PS4 ja auch. Könnte also ein Indiz sein.
][immy
2016-06-10, 17:46:23
Kurzer Crosstalk von der PS4 Neo: Wenn die mit 36CU Polaris kommt, MUSS es doch eig nen vollen Polaris geben, denn AFAIK sind Konsolenchips doch, gerade auf nem neuen Prozess, teildeaktiviert. War die Ur PS4 ja auch. Könnte also ein Indiz sein.
Nicht wenn sony die defekten chips für die normale ps4 nimmt (soweit zumindst die hälfte des chips funktioniert)
Gipsel
2016-06-10, 17:56:03
Die Konsolen bekommen natürlich wieder eine APU. Wie die diskreten GPUs aussehen, ist völlig unabhängig davon.
Screemer
2016-06-10, 17:57:12
Da ist doch sicher wieder ein Custom soc drin mit spekulative plaris ip und nicht eine extra gpu. Da können die soviele cus verbauen wie eben für sie sinnvoll ist. Mit polaris als gpu hat das erst mal nix zu tun.
Elkinator
2016-06-10, 18:58:42
Wenn die mit 36CU Polaris kommt, MUSS es doch eig nen vollen Polaris geben, denn AFAIK sind Konsolenchips doch, gerade auf nem neuen Prozess, teildeaktiviert.
Die Konsole bekommt aber sicher keine P10-GPU.
War die Ur PS4 ja auch.
Eigentlich nicht, das war ein EIGENER SOC NUR für die PS4.
Da sind 4 CUs deaktiviert um die Yield zu erhöhen.
Ravenhearth
2016-06-10, 19:11:48
Bei der PS4 sind nur 2 CUs deaktiviert. ;)
herp_derp
2016-06-10, 19:40:05
Auf reddit sind ein paar Leaks unterwegs:
https://i.imgur.com/6GdHZVB.png
https://www.reddit.com/r/hardware/comments/4nhc9v/sapphire_radeon_400_series_image_leak/
RX 480 European price without VAT etc.
https://www.reddit.com/r/Amd/comments/4nfwmn/rx_480_european_price_without_vat_etc/
fondness
2016-06-10, 20:01:44
http://s33.postimg.org/xqstp9hq7/ugpf5_FE.jpg (http://postimage.org/)
Felixxz2
2016-06-10, 20:31:38
Mir schon klar, aber wie bei der normalen PS4 wird man keine ganz neue GPU bauen, sondern vorhandene IP benutzen. Wenn die PS4 36CUs hat, ist es sehr wahrscheinlich dass 2 oder 4 CUs deaktiviert sind. Das ließe dann sehr sicher auf einen 40CU Polaris schließen, denn wieso sollte man P10 mit 36 CUs bringen und für die PS4 nochmal extra ne GPU mit 38 oder 40 CUs designen? Macht keinen sinn. Wenn P10 36 CUs im Vollausbau hat, käme die PS4 Neo mit 34 oder 32, wenn die Neo 36 CUs hat, existiert ein P10 Vollausbau mit 40. Alles andere wäre IMO unlogisch.
basix
2016-06-10, 20:39:21
Ist es eigentlich fix, dass beide Vega mit HBM kommen? Weil wenn 8 Gbps GDDR5 bei 2304 Cores nicht limitieren könnte auch ein doppelter Polaris 10 mit 4608 Shader, 384 Bit und 11 Gbps locker machbar sein.
Ravenhearth
2016-06-10, 20:44:22
Vega10 soll sogar "nur" 4096 ALUs bekommen, da reichen 384 bit zwar locker aus, aber es gibt gute Gründe für HBM: Kompaktheit und Stromaufnahme.
Tamagothi
2016-06-10, 20:48:59
RX 480 European price without VAT etc.
https://www.reddit.com/r/Amd/comments/4nfwmn/rx_480_european_price_without_vat_etc/
In Andorra einkaufen 185€ für 4GB Version :freak:
OBrian
2016-06-10, 21:18:10
Die Preise hat man ja so ähnlich schon erwartet. Aber super, daß es schon Listungen gibt, dann verteilen die sich langsam im Channel, sieht also gut aus für Verfügbarkeit am Monatsende.
und sry 4 OT, aber:
28nm wird sicher noch 10 Jahre verwendet werden.
Dresden wurde aber zb. auf 22FDX umgerüstet, das geht mit den 28nm Anlagen recht günstig.nee, da lief/läuft 32nm SOI, deswegen ja auch Umrüstung auf 22FDX, ebenfalls SOI. 28nm bulk lief so weit ich weiß nur in New York, und da wurde/wird auf 14FF umgerüstet, was ja auch ein bulk-Prozeß ist. http://www.globalfoundries.com/about/manufacturing
Übrigens baut GF auch in China demnächst eine Fab (http://www.globalfoundries.com/newsroom/press-releases/2016/05/27/globalfoundries-to-expand-presence-in-china-with-300mm-fab-in-chongqing). Evtl. stellen sie da ja alte Technik rein; aber bis die fertig ist, gilt 14FF schon als alt, und wenn man eine Fab aufbaut, dann ist die ja auch jeweils nach neuesten Gesichtspunkten bzgl. Reinraumqualität usw. gebaut, also wird das da wohl eher eine 10- oder 7-nm-Fab.
In Malta, NY ist ja auch noch der Bauplatz vorgesehen für eine Verdoppelung der Fabfläche, diese Erweiterung wird aber wohl erst kommen, wenn der bestehende Bauteil so alt ist, daß er mal kräftig überholt werden muß. Chipfertiger machen mit ihren Fabs ja so eine Art Wanderfeldbau ;)
Disco_STFU
2016-06-10, 21:24:16
Auf reddit sind ein paar Leaks unterwegs:
https://i.imgur.com/6GdHZVB.png
https://www.reddit.com/r/hardware/comments/4nhc9v/sapphire_radeon_400_series_image_leak/
RX 480 European price without VAT etc.
https://www.reddit.com/r/Amd/comments/4nfwmn/rx_480_european_price_without_vat_etc/
Über Geschmack lässt sich zwar streiten aber WTF is das...:freak:
Sieht aus wie ein alter Braunrasierer oder ein Radio aus den 90ern...
edit: Eine dezente Überarbeitung der aktuellen Designs hätte mir viel besser gefallen.
Über Geschmack lässt sich zwar streiten aber WTF is das...:freak:
Sieht aus wie ein alter Braunrasierer oder ein Radio aus den 90ern...
LOL ... an Braun musste ich auch denken ;D
Aber wenigstens kein LED-Bling-Bling. Kann ich nicht ausstehen.
Dino-Fossil
2016-06-10, 21:43:46
wieso sollte man P10 mit 36 CUs bringen und für die PS4 nochmal extra ne GPU mit 38 oder 40 CUs designen? Macht keinen sinn.
Ich glaube nicht, dass man eine APU wie sie in der PS4 verbaut ist so einfach mit einer dedizierten GPU vergleichen kann.
Sicherlich kann es sein, dass sie auf die Polaris-Entwicklungen zurückgreifen, aber es sind doch zwei paar Schuhe.
Elkinator
2016-06-10, 21:47:03
Mir schon klar, aber wie bei der normalen PS4 wird man keine ganz neue GPU bauen, sondern vorhandene IP benutzen.
Natürlich, deswegen wurde auch AMD gewählt.
Wenn die PS4 36CUs hat, ist es sehr wahrscheinlich dass 2 oder 4 CUs deaktiviert sind.
Warum?
Das ließe dann sehr sicher auf einen 40CU Polaris schließen
Nein.
, denn wieso sollte man P10 mit 36 CUs bringen und für die PS4 nochmal extra ne GPU mit 38 oder 40 CUs designen?
Nochmal, die PS4 bekommt einen SOC, also einen eigene Chip!
Macht keinen sinn.
Naja, du kannst das wohl nicht so ganz beurteilen;)
Wenn P10 36 CUs im Vollausbau hat, käme die PS4 Neo mit 34 oder 32
Warum?
, wenn die Neo 36 CUs hat, existiert ein P10 Vollausbau mit 40.
Warum?
Alles andere wäre IMO unlogisch.
Unlogisch ist nur dein Posting:O
Ist es eigentlich fix, dass beide Vega mit HBM kommen?
Ja.
Weil wenn 8 Gbps GDDR5 bei 2304 Cores nicht limitieren könnte auch ein doppelter Polaris 10 mit 4608 Shader, 384 Bit und 11 Gbps locker machbar sein.
Höherer Verbrauch, größere Die, größere Karte,...
und sry 4 OT, aber:
nee, da lief/läuft 32nm SOI, deswegen ja auch Umrüstung auf 22FDX, ebenfalls SOI. 28nm bulk lief so weit ich weiß nur in New York, und da wurde/wird auf 14FF umgerüstet, was ja auch ein bulk-Prozeß ist. http://www.globalfoundries.com/about/manufacturing
28nm lief dort auch, deswegen konnte man günstig auf 22FDX umrüsten!
http://globalfoundries.com/about/manufacturing
][immy
2016-06-10, 22:10:38
Mir schon klar, aber wie bei der normalen PS4 wird man keine ganz neue GPU bauen, sondern vorhandene IP benutzen. Wenn die PS4 36CUs hat, ist es sehr wahrscheinlich dass 2 oder 4 CUs deaktiviert sind. Das ließe dann sehr sicher auf einen 40CU Polaris schließen, denn wieso sollte man P10 mit 36 CUs bringen und für die PS4 nochmal extra ne GPU mit 38 oder 40 CUs designen? Macht keinen sinn. Wenn P10 36 CUs im Vollausbau hat, käme die PS4 Neo mit 34 oder 32, wenn die Neo 36 CUs hat, existiert ein P10 Vollausbau mit 40. Alles andere wäre IMO unlogisch.
Man bräuchte keine redundanten CUs wenn man mit den defekten die standard PS4 bedient. Zudem waren es bei der PS4 2CU, 4 wären ziemliche materialverschwendung.
uweskw
2016-06-10, 22:46:43
Auf reddit sind ein paar Leaks unterwegs:
https://i.imgur.com/6GdHZVB.png
https://www.reddit.com/r/hardware/comments/4nhc9v/sapphire_radeon_400_series_image_leak/
RX 480 European price without VAT etc.
https://www.reddit.com/r/Amd/comments/4nfwmn/rx_480_european_price_without_vat_etc/
Die sieht ja mal richig geil aus. Nach Qualität und Technik.
Wenn der große Brucer sich an dieses Design hält und schneller als die 1080 wird, hole ich mir die.
greetz
US
-/\-CruNcher-/\-
2016-06-10, 22:58:42
Die sieht ja mal richig geil aus. Nach Qualität und Technik.
Wenn der große Brucer sich an dieses Design hält und schneller als die 1080 wird, hole ich mir die.
greetz
US
Wie bitte ein bischen im silber look anmalen und ein par löcher rein stanzen und schon ist es Qualität und Technik der Spitzenklasse für dich ?
Selbst wenn das ein blech aufsatz ist weiss ich nicht was daran nun plötzlich die Qualität zu AMDs normaler schwarzen schlichten Version steigern sollte, es scheint nur ein Designfaktor zu sein um sich zu unterscheiden.
Also ich kann persönlich auf sowas verzichten hauptsache die Real Qualität im Betrieb ist ordentlich, auf welche wahnwitzige ideen da manch ein AIB mittlerweile kommt nur um den Preis Unterschied zu gerechtfertigen interessiert mich mal überhaupt nicht.
Felixxz2
2016-06-10, 23:05:14
Ich rede davon, dass man P10 als IP integriert, mir ist bewusst, dass es ein SOC ist!
Hab es viell ein bisschen hart ausgedrückt aber nochmal: wenn man einen P10 mit 36CUs bringt und die Neo auch 36 CUs hat, dann ist das doch schon ein starkes Indiz, dass beiden Chips (nochmal ich weiß dass es ein SOC ist) die selbe 40CU GPU IP zugrunde liegt.
Natürlich könnte AMD auch ne custom 38CU GPU designen für die den Neo SOC, aber wenn man unbdedingt kosteneffizient arbeiten will (wovon ich bei AMD mal ausgehe), dann wäre das zumindest merkwürdig. Immerhin liegen beide Designs sicher seit einiger Zeit bei AMD in der Entwicklung. Wenn ich also eh grade ne neue GPU designe, nehm ich die doch, zieh x CUs für die yield ab und back die in den SOC der Neo rein.
mczak
2016-06-10, 23:21:37
Ich rede davon, dass man P10 als IP integriert, mir ist bewusst, dass es ein SOC ist!
Hab es viell ein bisschen hart ausgedrückt aber nochmal: wenn man einen P10 mit 36CUs bringt und die Neo auch 36 CUs hat, dann ist das doch schon ein starkes Indiz, dass beiden Chips (nochmal ich weiß dass es ein SOC ist) die selbe 40CU GPU IP zugrunde liegt.
Natürlich könnte AMD auch ne custom 38CU GPU designen für die den Neo SOC, aber wenn man unbdedingt kosteneffizient arbeiten will (wovon ich bei AMD mal ausgehe), dann wäre das zumindest merkwürdig. Immerhin liegen beide Designs sicher seit einiger Zeit bei AMD in der Entwicklung. Wenn ich also eh grade ne neue GPU designe, nehm ich die doch, zieh x CUs für die yield ab und back die in den SOC der Neo rein.
Es macht absolut keinen Unterschied ob du jetzt ein 40 CU Chip als "Vorlage" nimmst oder einen mit 36 CU wenn das sowieso ein anderer Chip ist. Die paar Blöcke zusätzlich hinpflanzen ist kein Problem, das wäre bloss anders wenn das Design aus irgendeinem Grund ein hartes Limit hätte so dass nur 36 CU gehen und da effektiv Designänderungen nötig wären um 40 CU zu ermöglichen. Das ist garantiert nicht der Fall (auch die Anordnung der Blöcke wird ziemlich sicher sowieso anders sein weil es eben eh nicht derselbe Chip ist).
Elkinator
2016-06-10, 23:30:25
Ich rede davon, dass man P10 als IP integriert, mir ist bewusst, dass es ein SOC ist!
Du stellst dir das zu einfach vor.
wenn man einen P10 mit 36CUs bringt und die Neo auch 36 CUs hat, dann ist das doch schon ein starkes Indiz, dass beiden Chips (nochmal ich weiß dass es ein SOC ist) die selbe 40CU GPU IP zugrunde liegt.
Nein!
Wenn ich also eh grade ne neue GPU designe, nehm ich die doch, zieh x CUs für die yield ab und back die in den SOC der Neo rein.
So einfach geht das aber nicht.
Felixxz2
2016-06-11, 00:33:56
Es macht absolut keinen Unterschied ob du jetzt ein 40 CU Chip als "Vorlage" nimmst oder einen mit 36 CU wenn das sowieso ein anderer Chip ist. Die paar Blöcke zusätzlich hinpflanzen ist kein Problem, das wäre bloss anders wenn das Design aus irgendeinem Grund ein hartes Limit hätte so dass nur 36 CU gehen und da effektiv Designänderungen nötig wären um 40 CU zu ermöglichen. Das ist garantiert nicht der Fall (auch die Anordnung der Blöcke wird ziemlich sicher sowieso anders sein weil es eben eh nicht derselbe Chip ist).
Ah ok, ja dann hab ich den Aufwand ein bisl überschätzt.
Du stellst dir das zu einfach vor.
Nein!
So einfach geht das aber nicht.
Wenn alle hier wie du diskutieren würden, wäre es sooo witzig im 3DC.....
Da die praktisch punktgleiche "390" mit 1050MHz läuft, ist es wohl näher an der 390X, oder?
Edit: Skaliert übrigens irgendwie praktisch perfekt mit #CU*Takt:
67DF:C7 / 390X
36*1266 / 44*1050 = 0,98
18060 / 18615 = 0,97
:|
Nö - ist slighty über 390x-Performance - die CPU bricht Polaris hier das Genick. 15% Prozent über 290x und somit leicht über 980/390x. Enttäuschend für den Highenduser, für OEM wohl wichtig. Das Overall-Target (in jeder Beziehung) muss besser sein als GM204, denn jeder depperda HP, Acer oder Lenovo hat eine GTX980 installiert und darf sich Highend (nicht zu unrecht) nennen. Naja, wenn die 8G (36CU Variante) im Retailmarkt die 250 Teuronen nicht überschreitet, dann hat AMD ein relativ heißes Eisen im Feuer.
Und gleich noch eine Frage: Warum ist unter DX 12 die Bandbreite so wichtig? Eigentlich dachte ich, dass sie unter DX12/Vulkan lediglich eine untergeordnete Rolle spielen dürfte und hier die Menge ausschlaggebend ist .... :(
N0Thing
2016-06-11, 01:12:12
Ist es eigentlich fix, dass beide Vega mit HBM kommen? Weil wenn 8 Gbps GDDR5 bei 2304 Cores nicht limitieren könnte auch ein doppelter Polaris 10 mit 4608 Shader, 384 Bit und 11 Gbps locker machbar sein.
Nein, fix ist nichts, da man zu Vega kaum handfeste Daten hat. Für den 2. Chip hat man nicht einmal mehr als eine Erwähnung Anandtechs gegenüber. Nur weil auf der Roadmap HBM für Vega genannt wird, muß dies nicht für beide Chips gelten, wenn es denn wirklich zwei Chips geben sollte.
Ein Chip sollte aus dem gleichen Grund aber schon ziemlich sicher mit HBM kommen. ;)
Elkinator
2016-06-11, 01:17:47
Wenn alle hier wie du diskutieren würden, wäre es sooo witzig im 3DC.....
Was erwartest du dir?
Ich kläre dich auf und du widersprichst mir, obwohl du davon keine Ahnung hast, soetwas nervt mich einfach irgendwann.
Nein, fix ist nichts, da man zu Vega kaum handfeste Daten hat. Für den 2. Chip hat man nicht einmal mehr als eine Erwähnung Anandtechs gegenüber. Nur weil auf der Roadmap HBM für Vega genannt wird, muß dies nicht für beide Chips gelten, wenn es denn wirklich zwei Chips geben sollte.
Ein Chip sollte aus dem gleichen Grund aber schon ziemlich sicher mit HBM kommen. ;)
Vega ist HBM2, da so konzipiert. Allerdings würde es mich schwer wundern dieses Teil diesen Jahres noch zu Gesicht zu bekommen :eek:
mczak
2016-06-11, 01:38:11
Und gleich noch eine Frage: Warum ist unter DX 12 die Bandbreite so wichtig? Eigentlich dachte ich, dass sie unter DX12/Vulkan lediglich eine untergeordnete Rolle spielen dürfte und hier die Menge ausschlaggebend ist .... :(
Wieso denn? Der Bandbreitenbedarf ändert sich nicht magischerweise bloss weil die API neu ist. Eine Textur an ein Objekt zu klatschen und das in das RT zu rendern braucht noch genau gleich viel Bandbreite wie vorher.
Die explizite Verwendung von Render-Passes könnte zwar ab und zu etwas bringen (z.B. etwas mehr Cache-Hits) (Render-Passes sind enorm wichtig für TBDR), auch die besser kontrollierbare Synchronisation vielleicht, aber alles in allem dürfte der Effekt in Bezug auf Bandbreite eher marginal sein.
Aber die Texturen stellen ansich doch nicht das Problem dar?! Aber trotzdem danke, du bringst mich da auf eine Idee, welche ich geschäftlich zwecks Compiler anwenden könnte (Linux <-> Win 2000 auf C-/Maschinensprache) - vielen Dank ( denn Auflösen muss ich es hier wie als auch da) ;)
€dit: -- und failed hier auf Simulation nach reproduzierbar (emulierten) ~400hrs. Ich bekomme die Sync leider in diesem Leben nicht mehr hin :(
Aber zu meiner Frage: Die Bandbreite war doch bisher vornehmlich wichtig für MSAA (ich habe allerdings keine Ahnung zwecks der Skalierung - bin wohl der Oberdau in diesem Forum)?
OBrian
2016-06-11, 02:07:19
Vega ist HBM2, da so konzipiert. Allerdings würde es mich schwer wundern dieses Teil diesen Jahres noch zu Gesicht zu bekommen :eek:
das ist die entscheidende Frage: Wie lange dauert es von Tape-Out bis Verkaufsstart?
Ersterer sei ja angeblich gerade erfolgt, behauptet bei Reddit jemand (ob echt oder Wichtigtuer kann man wohl schwer sagen). Siehe http://www.planet3dnow.de/vbulletin/threads/423353-AMD-s-Arctic-Islands-GPUs-Greenland-Baffin-Ellesmere?p=5096465&viewfull=1#post5096465
Michalito
2016-06-11, 02:11:32
I like:
https://imgur.com/6GdHZVB sexy...
und was zum Teufel gibt es gegen Braun Design zu sagen..
das ist die entscheidende Frage: Wie lange dauert es von Tape-Out bis Verkaufsstart?
Ersterer sei ja angeblich gerade erfolgt, behauptet bei Reddit jemand (ob echt oder Wichtigtuer kann man wohl schwer sagen). Siehe http://www.planet3dnow.de/vbulletin/threads/423353-AMD-s-Arctic-Islands-GPUs-Greenland-Baffin-Ellesmere?p=5096465&viewfull=1#post5096465
Was was du dich fragen solltest: In wie weit ist HBM kompatibel zu GDDR? Und welches Target sollte Vega erschließen? Ich denke, alle sehen klarerer zum Polaris-Launch ;)
Elkinator
2016-06-11, 02:34:44
Vega ist HBM2, da so konzipiert.
Was bedeutet bitte "so konzipiert"?
Vega wird wahrscheinlich eine leichte Weiterentwicklung von GCN4, warum sollte man da keine GPU mit einem IMC+PHY für GDDR5/GDDR5X entwerfen können?
In wie weit ist HBM kompatibel zu GDDR?
Ist überhaupt nicht kompatibel..
Was bedeutet bitte "so konzipiert"?
Vega wird wahrscheinlich eine leichte Weiterentwicklung von GCN4, warum sollte man da keine GPU mit einem IMC+PHY für GDDR5/GDDR5X entwerfen können?
Ist überhaupt nicht kompatibel..
Oha - merkst du was?
Elkinator
2016-06-11, 02:58:46
Oha - merkst du was?
Was soll ich den merken?
uweskw
2016-06-11, 07:45:53
Wie bitte ein bischen im silber look anmalen und ein par löcher rein stanzen und schon ist es Qualität und Technik der Spitzenklasse für dich ?
Selbst.....
Schaut doch einfach klasse aus.
https://i.imgur.com/6GdHZVB.png
Wertig und schlicht. Zeitlos eben.
Das alberne Pling-Pling-Plastic-Fantastic-Dessign der neuen NVs schaut doch aus als wie aus dem Kindergarten.
Greetz
US
Datarecovery09
2016-06-11, 08:07:33
An der Stelle möchte ich mal einwerfen, dass das ursprüngliche Braun-Design einen nicht unerheblichen Teil zu Apples Erfolg beigetragen hat.
Gut, das betrifft zwar nicht die Rasierer, aber immerhin.^^
Ich bin ja eher kein Fan von "metall-farbenen" Kühlern. Aber wenigstens strahlt das Design eine gewisse Schlichtheit aus, was ja auch schon mal was ist.
TheGood
2016-06-11, 08:15:43
Schaut doch einfach klasse aus.
https://i.imgur.com/6GdHZVB.png
Wertig und schlicht. Zeitlos eben.
Das alberne Pling-Pling-Plastic-Fantastic-Dessign der neuen NVs schaut doch aus als wie aus dem Kindergarten.
Greetz
US
Ich hab als erstes an einen Plattenspieler/teller gedacht :)
Ich finds sehr Retro
Pappenheimer
2016-06-11, 08:23:36
für mich ist das etwas ärgerlich wenn es dieses jahr nur bei einer leistung von einer 390 oder 390x bleibt bei amd, wollte gerne mit einer amd aufrüsten aber bis nächstes jahr warten? ach mist....
wenn es blöd läuft wirds dann leider nochmal nvidia und dann muss meine amd + freesync-monitor kombo bis nächstes jahr oder länger warten. :(
Mortalvision
2016-06-11, 08:59:52
Warte halt, was Vega bringt :)
Ich persönlich freue mich auf die 480 :D
uweskw
2016-06-11, 09:13:23
Ich hab als erstes an einen Plattenspieler/teller gedacht :)
Ich finds sehr Retro
klar ist klar ist das Retro. "Back to the Roots" ist das Motto. Ich hoffe in Wirklichkeit fühlt sie sich genauso wertig an wie sie aussieht.
Aber Polaris ist mir eh egal. Falls ich es schaffe der neuen 1080 zu widerstehen, kommt nur Vega in Fage.
greetz
US
greetz
US
uweskw
2016-06-11, 09:21:48
AMD führt mit Polaris doch eine neue Boost-Funktion ein, ähnlich der von NV.
Wer sagt denn, dass die 1266 nicht der Base-Takt sind?
greetz
US
fondness
2016-06-11, 09:43:35
Scheint ein Hard-Launch zu werden:
According to our information, some european stores already received their stock, and they are ready to sell Polaris 10-based graphics cards. In China a company called Dataland (Chinese PowerColor brand), was already selling places on reservation lists.
Meanwhile some reviewers already have their cards for tests, so we expect to see a lot of leaks in the coming days.
http://videocardz.com/60992/sapphire-radeon-rx-480-nitro-pictured
Sapphire Referenzdesign:
http://s33.postimg.org/7usc6ej6n/7a79ec5bc2629bc83777c6e1fc6a5c17_1465221326_7469.jpg (http://postimage.org/)
http://www.hwbattle.com/bbs/board.php?bo_table=hardwareboard&wr_id=14816&ckattempt=1
-/\-CruNcher-/\-
2016-06-11, 09:54:37
Die 390X Performance zu dem Angepeilten Preis ist Massiv das wäre exakt der Unterschied aus dem was Nvidia aus der x60 be Maxwell zumindestens gemacht hat für den Massiven Preis Aufschlag von 100 € :)
Es würde Nvidia keine andere wahl lassen der 1060 wieder ordentlich dampf zu geben für diese 100 €, alles positiv für den Endverbraucher auf beiden Seiten in dem Preisbereich ;)
Die 1060 muss die 970 erreichen am besten drüber sein um ihren Preis zu rechtfertigen aber selbst wenn sie die 980 erreicht wäre der Unterschied zur RX480 immernoch Marginal und deren Preis immernoch bombastisch ;)
Vor allem wird der Kampf hier bei VR stattfinden und Nvidias neuen "Hardware featuren" vs Pure Async Compute solutions, zwischen der 1060 und RX480.
Gameworks VR vs Liquid VR/GpuOpen
wenn AMD es schaft die Performance/Power mit 14nm (small logic) vs 16nm (big logic) zu halten wäre das schon absoluter wahnsinn, wenn sie dann noch die selbe Experience garantieren können innerhalb des Ökosystems wie Nvidia für den angepeilten Preis Unterschied na dann siehts düster aus für Nvidias Preispolitik :)
Allerdings traue ich so gut wie keinem Reviewer momantan zu das vollumfänglich bewerten zu können, hier wird daten sammeln pflicht werden, das alles ist auch noch nicht so einfach weil sehr wenig Praktisch schon exestiert was es in diesem Umfang auch Nutzt ;)
Es gibt schon einige dinge an denen man die Ökosystem Unterschiede und features zwischen Nvidia und AMD differenzieren könnte z.b das komplett neue QT Treiber Interface was RTG Entwickelt hat ist für mich wo ich sage klasse Arbeit :)
Nvidia hat hier immernoch keine Zeitgemäse Überarbeitung des GUI geliefert, es sei den man sieht Geforce Experience als vollkommenen ersatz dazu.
Wenn Nvidia allerdings vor hat Geforce Expeirence zum Controllpanel umzubauen (erweitern) und den Online Account Mode damit quasii zu Erzwingen fall ich vom glauben ab.
Glaube schon das Nvidia vor hat vor allem ihre Cloud Services weiter zu pushen eine direkte Integration wäre da am Effizientesten.
Auch sind bei AMD die Video Post Process funktionen noch vorhanden bei Nvidia fehlen sie immernoch (nach der letzten ünbegründeten Treiber Entfernung).
Dann kommen wir zu GameWorks VRs Audio part der von Optix (Cuda) getragen werden muss während man bei AMD den DSP Support (True Audio + Async Compute) zur Verfügung hat ;)
TressFX,PureHair,NeoFur vs Hairworks Effizienz auch ein spannendes Thema vor allem in einem async kontext :)
Nvidia Optix vs AMD Firerender ;)
Umtimativ enden wir dann wieder bei OpenCL vs Cuda ;)
Andi Y
2016-06-11, 10:45:20
"The side of the card features LED illuminated Sapphire logo"
Ha ha, also doch bling bling bei der Sapphire. Schade
y33H@
2016-06-11, 11:03:34
Kannste abschalten :P
AnarchX
2016-06-11, 11:10:02
Ich rede davon, dass man P10 als IP integriert, mir ist bewusst, dass es ein SOC ist!
Hab es viell ein bisschen hart ausgedrückt aber nochmal: wenn man einen P10 mit 36CUs bringt und die Neo auch 36 CUs hat, dann ist das doch schon ein starkes Indiz, dass beiden Chips (nochmal ich weiß dass es ein SOC ist) die selbe 40CU GPU IP zugrunde liegt.
Natürlich könnte AMD auch ne custom 38CU GPU designen für die den Neo SOC, aber wenn man unbdedingt kosteneffizient arbeiten will (wovon ich bei AMD mal ausgehe), dann wäre das zumindest merkwürdig. Immerhin liegen beide Designs sicher seit einiger Zeit bei AMD in der Entwicklung. Wenn ich also eh grade ne neue GPU designe, nehm ich die doch, zieh x CUs für die yield ab und back die in den SOC der Neo rein.
Es ist halt die Frage ob ein iGPU P10 Design sich für einen abwärtskompatiblen SoC eignet. Das man hier ohne Patches/Codeänderungen auskommt, war wohl ein Ziel der Neo Version - dazu gab es ja auch einen Eintrag im Linkedin-Profil des Greenland-Leakers.
Vielleicht ist ja Ellesmere/Polaris10 einfach ein Neo-SoC im dGPU-Modus. Von der Die-Size könnte es sich wohl fast ausgehen. ;D
MikePayne
2016-06-11, 11:10:52
"The side of the card features LED illuminated Sapphire logo"
Ha ha, also doch bling bling bei der Sapphire. Schade
Interessiert doch niemanden (also ob das bling bling ist oder nicht, ich selbst kann durch mein Alu-Gehäuse eh nicht durchgucken ;) ).
Die Gamestar-Leute surfen hier bestimmt auch immer rum ;)
AMD Radeon RX 480 - Bild eines Modells von Sapphire & Leistung in 3DMark 11 (http://www.gamestar.de/hardware/grafikkarten/amd-radeon-rx-480/news-artikel/amd_radeon_rx_480,988,3273911.html)
Andi Y
2016-06-11, 11:47:34
Kannste abschalten :P
Sehr gut, ich hoffe nicht über irgendwelche Drittprogramme. Ich mag diesen kicki bunti blinki Schnickschnack nicht. Und richtig, mein R4 ist auch geschlossen, ich sehe es nicht aber ich weiß das es da ist.
Ich werde wohl mal seit meiner ATI Rage 128 eine RX480 kaufen. Die Preise klingen vielversprechend.
Spasstiger
2016-06-11, 13:06:14
Eine werksseitig übertaktete R9 390 8 GiB gibts mittlerweile auch schon für unter 260 € lieferbar: http://geizhals.de/powercolor-radeon-r9-390-pcs-axr9-390-8gbd5-ppdhe-a1282774.html.
Performancemäßig wohl gleichauf mit der RX 480, vielleicht hat die R9 390 wegen der größeren Speicherbandbreite in Einzelfällen sogar mehr Performance-Reserven.
Und ich befürchte, dass die RX 480 mit 8 GiB in Richtung 300 € bei uns aufschlägt.
Warten auf Polaris 10 lohnt imo nur bedingt, wenn man halt auf die verbesserte Energieeffizienz schielt.
-/\-CruNcher-/\-
2016-06-11, 13:16:37
Naja es ist GCN 4 das bringt schon etwas mehr als nur verbesserte Energieeffizienz in der theorie bei gutem Software support.
Sunrise
2016-06-11, 13:19:39
...Warten auf Polaris 10 lohnt imo nur bedingt, wenn man halt auf die verbesserte Energieeffizienz schielt.
Bis auf die Leistung ist aber alles andere komplett neu und Hawaii ist eigentlich schon uralt. Die gehen ja im Gaming-Markt wahrscheinlich sowieso EOL.
Da müsste Hawaii schon deutlich unter 200 EUR fallen und selbst dann ist Polaris meilenweit besser ausgestattet. Bei Polaris ist die Ausrichtung deutlich klarer, erst Vega wird Hawaii komplett obsolet machen.
Schlammsau
2016-06-11, 13:25:31
Eine werksseitig übertaktete R9 390 8 GiB gibts mittlerweile auch schon für unter 260 € lieferbar: http://geizhals.de/powercolor-radeon-r9-390-pcs-axr9-390-8gbd5-ppdhe-a1282774.html.
Performancemäßig wohl gleichauf mit der RX 480, vielleicht hat die R9 390 wegen der größeren Speicherbandbreite in Einzelfällen sogar mehr Performance-Reserven.
Und ich befürchte, dass die RX 480 mit 8 GiB in Richtung 300 € bei uns aufschlägt.
Warten auf Polaris 10 lohnt imo nur bedingt, wenn man halt auf die verbesserte Energieeffizienz schielt.
Sorry aber das sind 300W TDP-Monster ....
Die würd ich nichtmal geschenkt haben wollen .....
G3cko
2016-06-11, 16:29:52
Es ist vor allem der softwaresupport der mit GCN sehr gut ist. Wenn der Chip wieder in den 2017 Konsolen steckt profitiert auch der pc Käufer.
Der stromverbauch interessiert nicht. Vor 4 Jahren habe ich mir mal den Spaß gemacht und aussgerechnet wann der breakeven point zwischen GTX680 und 7970 ereicht ist. Letztere war 100€ preiswerter. Es waren etwa 10 Jahre als hardcore gamer gewesen. Wie man aber sieht ist kepler bereits am VRAM und nvidia Support verhungert.
Was ich damit sagen will. Natürlich verbraucht eine 390 mehr Strom, aber wenn man sich alle 2 Jahre eine neue Karte kauft ist das unterm Stich um Welten teurer. Die GTX970 wird spätestens nächstes Jahr am VRAM verhungern. Auch in der Ökobilanz ist das deutlich besser. Green it ist halt nicht nur Strom sparen...
Es ist aber nicht nur Strom, der gegen viel Strom spricht, sondern auch leiser Rechner, kühle Bude, usw....
illidan
2016-06-11, 18:22:50
Ist halt unglücklich gewesen, dass Hawaii erst so spät sein Potential entfalten kann und deshalb so über den Sweet-Spot geprügelt wurde.
Mit Binning etc. hätte man auch problemlos den Stromverbrauch auf 230W begrenzen können und die Leistung wär in aktuellen (DX12) Spielen durchaus konkurrenzfähig. Wenn man Hawaii vernünftig betreibt, ist der gar nicht so schlimm. Die Leistung ist natürlich unterhalb von GM204@1,4Ghz, aber dafür ist das Teil auch von 2013, ein HPC-Chip und durch die 8GB beim Rebrand trotzdem zukunfts- bzw. nun gegenwartssicherer.
So gesehen wird Polaris natürlich eine bessere Zeit haben, Low Level kommt gerade im AAA-Markt an und man dürfte weniger Durchhänger als damals mit Hawaii haben.
Sapphire Referenzdesign:
http://s33.postimg.org/7usc6ej6n/7a79ec5bc2629bc83777c6e1fc6a5c17_1465221326_7469.jpg (http://postimage.org/)
http://www.hwbattle.com/bbs/board.php?bo_table=hardwareboard&wr_id=14816&ckattempt=1
Referenz bekommt bei denen Backplate und ein anderes Logo :confused: Sonst war das doch maximal der Sticker auf dem Luefter oder?
Ich bin mal gespannt wie die Referenzkuehlung diesmal ausfaellt...
Zu P11 gibt es noch keinerlei Leaks? :confused:
uweskw
2016-06-11, 18:45:21
Eine werksseitig übertaktete R9 390 8 GiB gibts mittlerweile auch schon für unter 260 € lieferbar: http://geizhals.de/powercolor-radeon-r9-390-pcs-axr9-390-8gbd5-ppdhe-a1282774.html.
Performancemäßig wohl gleichauf mit der RX 480, vielleicht hat die R9 390 wegen der größeren Speicherbandbreite in Einzelfällen sogar mehr Performance-Reserven.
Und ich befürchte, dass die RX 480 mit 8 GiB in Richtung 300 € bei uns aufschlägt.
Warten auf Polaris 10 lohnt imo nur bedingt, wenn man halt auf die verbesserte Energieeffizienz schielt.
also wenn die 480 nicht entweder wirklich günstiger oder wirklich schneller als die 390 ist, wäre ich schon sehr enttäuscht. Dann sollten die Fachmagazine sie in der Luft zerreißen.
Ich denke da kommt noch was. Wie war das jetzt noch mal mit dem neuen Boost? Kann es sein dass die 1266MHz Basetakt sind?
greetz
US
Palpatin
2016-06-11, 19:42:22
Vielleicht hat AMD aus dem Erfolg von Maxwell gelernt und Polaris läßt sich ähnlich gut OCen. NV ist damit bei Maxwell ja sehr gut gefahren und Partner freuen sich weil sie viele OC Editions raus bringen können. 390 Performance zu 390 Preis bei halben Verbrauch und 25-30% OC Potential wäre auch schön.
uweskw
2016-06-11, 19:44:56
Aber ohne 25-30% OC Potenzial mehr als nur fade...
w0mbat
2016-06-11, 19:48:28
Ihr vergesst alle, dass der 390er Preis bei deutlich über 300€ liegt. Ihr könnt nicht wirklich die Preise im Abverkauf vergleichen.
prinz_valium
2016-06-11, 20:20:01
gtx970 für 220 euro (http://www.mydealz.de/deals/mediamarkt-at-evga-geforce-gtx-970-superclocked-acx-2-0-222-inkl-versand-nach-de-751513)
ich bin echt nicht mehr so sicher, was ich von polaris 10 halten soll
selbe Leistung und selber preis 2 jahre später ist nix für mich
bleiben also nur die 8gb vs 3.5 + 0.5 als argument für die amd
Ihr vergesst alle, dass der 390er Preis bei deutlich über 300€ liegt. Ihr könnt nicht wirklich die Preise im Abverkauf vergleichen.
wieso nicht? soll ich die preise von vor einem oder zwei jahren als vergleich ranziehen?
es geht doch darum, was jetzt der bessere deal ist und man für sein geld bekommt
illidan
2016-06-11, 20:27:01
bleiben also nur die 8gb vs 3.5 + 0.5 als argument für die amd
In GCN optimierten DX12/Vulkan-Spielen dürfte die 970 deutlich geschlagen werden.
[MK2]Mythos
2016-06-11, 20:39:08
gtx970 für 220 euro (http://www.mydealz.de/deals/mediamarkt-at-evga-geforce-gtx-970-superclocked-acx-2-0-222-inkl-versand-nach-de-751513)
ich bin echt nicht mehr so sicher, was ich von polaris 10 halten soll
selbe Leistung und selber preis 2 jahre später ist nix für mich
bleiben also nur die 8gb vs 3.5 + 0.5 als argument für die amd
wieso nicht? soll ich die preise von vor einem oder zwei jahren als vergleich ranziehen?
es geht doch darum, was jetzt der bessere deal ist und man für sein geld bekommt
Ist zwar halb OT, aber was willst du uns mit der GTX 970 für 220 Tacken sagen?
Wer sich jetzt noch so eine Grafikkarte kauft, dem ist entweder nicht zu helfen, oder der hat absolut keine Ahnung, wie bereits erwähnt, wird die 970 spätestens 2017 am RAM Mangel sterben.
Die RX480 wird zwar vielleicht nicht viel schneller rendern, trotzdem wird man damit mit Sicherheit sehr lange auskommen werden wenn man nicht die höchsten Ansprüche hat.
Ich werde sie mir kaufen und damit meinen Sli Verbund ablösen, der zwar effektiv deutlich schneller war, aber auf Grund des VRAM Mangels nicht mehr zu gebrauchen. Ende des Jahres gibts dann wieder ne Highend Lösung in Gestalt einer Vega Karte.
Tamagothi
2016-06-11, 20:44:20
gtx970 für 220 euro (http://www.mydealz.de/deals/mediamarkt-at-evga-geforce-gtx-970-superclocked-acx-2-0-222-inkl-versand-nach-de-751513)
ich bin echt nicht mehr so sicher, was ich von polaris 10 halten soll
selbe Leistung und selber preis 2 jahre später ist nix für mich
bleiben also nur die 8gb vs 3.5 + 0.5 als argument für die amd
Falsch.
-Weniger Leistung
-Weniger Speicher
-Höherer Verbrauch
-Veraltete Architektur
-Verkakt in DX12 Spiele
-28nm
Soll ich noch mehr aufzählen?
Und außerdem ist das nur ein billiger versuch die Lagerbestände los zu werden.
robbitop
2016-06-11, 20:50:18
Einen Mydealz Deal mit einer Herstellerpreisempfehlung zu vergleichen ist ziemlich Apfel/Birne. Ansonsten ist die 970 leider ein Speicherkrüppel und beherrscht kein gescheites Async Compute.
prinz_valium
2016-06-11, 20:55:14
Mythos;11063664']Ist zwar halb OT, aber was willst du uns mit der GTX 970 für 220 Tacken sagen?
Wer sich jetzt noch so eine Grafikkarte kauft, dem ist entweder nicht zu helfen, oder der hat absolut keine Ahnung, wie bereits erwähnt, wird die 970 spätestens 2017 am RAM Mangel sterben.
Die RX480 wird zwar vielleicht nicht viel schneller rendern, trotzdem wird man damit mit Sicherheit sehr lange auskommen werden wenn man nicht die höchsten Ansprüche hat.
Ich werde sie mir kaufen und damit meinen Sli Verbund ablösen, der zwar effektiv deutlich schneller war, aber auf Grund des VRAM Mangels nicht mehr zu gebrauchen. Ende des Jahres gibts dann wieder ne Highend Lösung in Gestalt einer Vega Karte.
ich will damit sagen, dass etwas über 970 Leistung 2 Jahre später für den selben preis alles andere als ein knaller ist
wenn eine neu generation nicht besser bei der Leistung pro $ ist, dann ist das für mich einfach nicht gut (genug).
das heißt die 480 wäre erst für 150 euro in der 8gb variante ein wirklicher kracher. und darüber bin ich enttäuscht, weil ich mehr erwartet hatte.
schlimmer als 480 ist also nur die fools edition (in beiden varianten, aber vorallem bei der 1080) von nvidia ;D
die letzte Hoffnung bleibt nun die 470
hier könnte der abstand zur 480 relativ gesehen deutlich geringer sein als bei 1070 vs 1080. wenn dann noch der preis stimmt, oder man sogar wieder flashen kann (okay das ist Wunschvorstellung), hätte man dort eine gute karte.
vllt gibt es die ja für etwas über 150 straßenpreis als 8gb version
Einen Mydealz Deal mit einer Herstellerpreisempfehlung zu vergleichen ist ziemlich Apfel/Birne. Ansonsten ist die 970 leider ein Speicherkrüppel und beherrscht kein gescheites Async Compute.
nö für mich nicht. weil ich bei allem nur zuschlage, wenn es gescheite angebote gibt.
aber klar es gibt auch leute, die zahlen 100 oder 200 euro mehr als uvp für eine ps4 oder ein iPhone, weil es neu und ausverkauft ist.
das ist aber nicht mein Anspruch an Preis/Leistung
[MK2]Mythos
2016-06-11, 21:03:14
Ich kann deinen Argumenten in absolut keiner Hinsicht folgen.
Wenn die RX480 wie vermutet kommt, ist sie ein absoluter Preis/Leistungs Kracher und wird garantiert sehr gut im Markt ankommen.
Dass du von der Geschwindigkeit enttäuscht bist, liegt an deiner Wahrnehmung. Die RX480 ist nun mal eine Grafikkarte im Midrange - Performance Segment. Du kannst heute erscheinende Midrange Grafikkarten nicht mit Oberklasse-Karten (wenn auch beschnitten) der vergangenen Generation vergleichen und dabei erwarten, dass sie in jeder Hinsicht schneller und besser als diese sind.
Dass die alten Karten nun so krass im Preis fallen, liegt eben gerade an dem äußerst attraktivem Angebot, dass eine RX480 darstellt. Nicht andersrum.
maximus_hertus
2016-06-11, 21:09:03
ich will damit sagen, dass etwas über 970 Leistung 2 Jahre später für den selben preis alles andere als ein knaller ist
Wo gibt es denn die 970 für 220 in DE zu kaufen? Siehst du ;)
Ansonsten ist etwas schneller ja dann doch untertrieben. Bei den Min-FPS kann es ganz schnell im Bereich von 500-1000+% Differenz geben (wenn der VRAM massiv überläuft). Die 3,5 GiB sind einfach der totale Abturner. 2014 noch Ok, aber 2016 bzw. dann in 2017 eine einzige Katastrophe. Schaue dir mal die Probleme der GTX 780er an @ Ultra Details.
Hätte die GTX 970 ein 256er Interface und damit volle 4 GiB, würde man dein Argument noch ein wenig nachvollziehen. So aber wirkt es eher wie ein Trollversuch.
Wie schaut es mit 4K @ 120 Hz aus? DP 1.3 / HDMI 2.0b? HDR? Geringe NT-Anforderung, da nur 1 x 6 Pin? DX12 (Performance)? Zeitgemäße VRAM Bestückung?
Irgendwie sieht die 970 da nur sehr wenig "Land"...
Ich würde mal sagen, dass ca. 170 Euro für eine 970 wohl in Ordnung wären, 150 Euro wäre dann richtig gut bzw. würden die 480 unter Druck setzen. 220 Euro ist aber kein wirklich guter Preis.
-/\-CruNcher-/\-
2016-06-11, 21:12:17
Falsch.
-Weniger Leistung
-Weniger Speicher
-Höherer Verbrauch
-Veraltete Architektur
-Verkakt in DX12 Spiele
-28nm
Soll ich noch mehr aufzählen?
Und außerdem ist das nur ein billiger versuch die Lagerbestände los zu werden.
1060 ist im Anrollen der direkte Konkurent zur RX480 jetzt kann man Anfangen über deren Preis zu spekulieren 300 € - 350 war meine Schätzung ;)
es wird Spannend zu sehen ob Nvidia mit einer 8 GB version antretten wird vorausichtlich sind aber nur 4 geplannt gewesen von vornerein
Disco_STFU
2016-06-11, 21:15:04
ich will damit sagen, dass etwas über 970 Leistung 2 Jahre später für den selben preis alles andere als ein knaller ist
Na dann kannst du ja froh sein, wenn Nvidia mit der GTX 1060 die gleiche Leistung für mehr Geld bringt. :rolleyes:
Dino-Fossil
2016-06-11, 21:15:19
Mit der Argumentation ist natürlich jede nicht-High-End Karte uninteressant.
Polaris10 ist klar die erste Mittelfeld-Karte aus der 16/14nm Generation und entsprechend positioniert.
Interessant natürlich nur für Leute, die nicht schon eine alte High-End Karte haben.
Warum man sich eine RX 480 kaufen sollte anstatt einer 970?
Speicher, Features und vermutlich bessere Effizienz sowie etwas höhere Performance gerade in DX12/Vulkan.
Wer kein AMD will muss eben die 1060 abwarten - gegen die wird man vermutlich ganz genauso argumentieren können, nur dass sie wohl eher noch teurer kommt.
[MK2]Mythos
2016-06-11, 21:16:01
Wo gibt es denn die 970 für 220 in DE zu kaufen? Siehst du ;)
Ansonsten ist etwas schneller ja dann doch untertrieben. Bei den Min-FPS kann es ganz schnell im Bereich von 500-1000+% Differenz geben (wenn der VRAM massiv überläuft). Die 3,5 GiB sind einfach der totale Abturner. 2014 noch Ok, aber 2016 bzw. dann in 2017 eine einzige Katastrophe. Schaue dir mal die Probleme der GTX 780er an @ Ultra Details.
Hätte die GTX 970 ein 256er Interface und damit volle 4 GiB, würde man dein Argument noch ein wenig nachvollziehen. So aber wirkt es eher wie ein Trollversuch.
Wie schaut es mit 4K @ 120 Hz aus? DP 1.3 / HDMI 2.0b? HDR? Geringe NT-Anforderung, da nur 1 x 6 Pin? DX12 (Performance)? Zeitgemäße VRAM Bestückung?
Irgendwie sieht die 970 da nur sehr wenig "Land"...
Ich würde mal sagen, dass ca. 170 Euro für eine 970 wohl in Ordnung wären, 150 Euro wäre dann richtig gut bzw. würden die 480 unter Druck setzen. 220 Euro ist aber kein wirklich guter Preis.
So ist es, wenn man die RX480 aber als fail betrachtet, obwohl sie objektiv betrachtet in allen Bereichen deutlich besser als alles preislich vergleichbare ist, der sollte dann vielleicht doch zur GTX970 greifen und damit zufrieden sein, sich dann aber auch nicht aufregen, wenn man ihn in eine gewisse Ecke stellt. ;)
P.S.
Bei e*** werden für gebrauchte GTX 970 immer noch über 200 Eur bezahlt. :D
Troyan
2016-06-11, 21:16:32
Man kauft sich keine 28nm Karte mehr. Weder unten noch oben. Macht null Sinn.
-/\-CruNcher-/\-
2016-06-11, 21:23:01
Na dann kannst du ja froh sein, wenn Nvidia mit der GTX 1060 die gleiche Leistung für mehr Geld bringt. :rolleyes:
Nvidia wird die Verteilung schon so gestaltet haben das ein + vor allem bei heutigen Balken Reviews rauskommt ;)
Linmoum
2016-06-11, 21:39:52
1060 ist im Anrollen der direkte Konkurent zur RX480 jetzt kann man Anfangen über deren Preis zu spekulieren 300 € - 350 war meine Schätzung ;)
es wird Spannend zu sehen ob Nvidia mit einer 8 GB version antretten wird vorausichtlich sind aber nur 4 geplannt gewesen von vornerein
Da würde ich mal abwarten, ob da schon was im anrollen ist.
Die Vorstellung der 1070/1080 wirkte auf mich schon vorgezogen und vor Herbst rechne ich ehrlich gesagt nicht mit einem Konkurrenten für die 480.
w0mbat
2016-06-11, 21:57:00
nö für mich nicht.
Du bist aber irrelevant. Klar ist eine 390er im Abverkauf für 240€ ein guter Deal, aber diesen Deal gibt es ja eben nur durch die Ankündigung der RX 480.
es geht doch darum, was jetzt der bessere deal ist und man für sein geld bekommt
Jetzt? Das ist doch klar, da man jetzt die RX 480 noch nicht kaufen kann :freak:
Rabiata
2016-06-11, 22:09:34
Naja, von einer GTX 970 auf eine RX480 umzusteigen erscheint mir ein recht kleines Upgrade. Unterstellen wir, daß die RX480 etwa auf GTX 980 - Niveau liegt, dann bringt der Wechsel vielleicht 30% Performance. Sofern nicht gerade ein Fall vorliegt, wo die GTX 970 an der Langsamkeit des letzten halben GB knapst.
Nichts gegen die Leute, die gern öfter die Hardware tauschen, die Industrie braucht Euch ;). Aber einen richtigen Aha-Effekt bringt meiner Meinung erst eine Performanceverdoppelung, und die gibt es nur in größeren Zeitabständen. Also sowas wie GTX 670 => RX480 oder Radeon HD 7950 => RX480.
Troyan
2016-06-11, 22:56:47
30%? Geht der Speicher nicht aus, ist die GTX980 ~15% schneller.
Linmoum
2016-06-12, 00:16:52
Weiterer Spekulatius:
http://www.overclock.net/t/1602760/some-rx-480-4gb-stuff-leaking-out-1080mhz-clock
1080MHz Clock (soll aber, wenn ich das richtig verstanden habe, ein Auslesefehler sein und die "bekannten" 1266MHz stimmen)
Firestrike Ultra 3268
Will jetzt endlich handfestes. :P
OgrEGT
2016-06-12, 00:46:02
Weiterer Spekulatius:
http://www.overclock.net/t/1602760/some-rx-480-4gb-stuff-leaking-out-1080mhz-clock
1080MHz Clock (soll aber, wenn ich das richtig verstanden habe, ein Auslesefehler sein und die "bekannten" 1266MHz stimmen)
Firestrike Ultra 3268
Will jetzt endlich handfestes. :P
Oder 1080MHz Base Clock 1266MHz Boost...
Linmoum
2016-06-12, 00:49:07
Wenn die 3268 Firestrike Ultra stimmen ist mir das relativ egal, wie viel die Karte da hat. :tongue:
kuj0n
2016-06-12, 01:15:40
Weiterer Spekulatius:
http://www.overclock.net/t/1602760/some-rx-480-4gb-stuff-leaking-out-1080mhz-clock
1080MHz Clock (soll aber, wenn ich das richtig verstanden habe, ein Auslesefehler sein und die "bekannten" 1266MHz stimmen)
Firestrike Ultra 3268
Will jetzt endlich handfestes. :P
Aus dem Thread:
Quote:
Originally Posted by prznar1 View Post
It was said that 1080 clocks are some bug in display. Dont get overexcited yet smile.gif Untill nda drops tongue.gif
No, he said the drivers were underclocking it to 1080.
Demnach untertaktet der benutzte Treiber die Karte.
Und macht 3,2k in Firestrike? Bei knappen 1300Mhz landet man da auf ca 4k ... würde die Gerüchte vor paar Wochen hinsichtlich Einordnung bestätigen.. mal sehen :)
Ravenhearth
2016-06-12, 01:23:07
Lustig ist, dass es mit 1080 MHz fast genau 5 TFLOPs sind (eigentlich 1085 MHz). :D
illidan
2016-06-12, 01:28:04
Also wäre die Spiele-Performance/FLOP deutlich gesteigert?
Knuddelbearli
2016-06-12, 01:29:21
also ich überlege ernsthaft von einer 970 darauf zu wechseln, bis vega und gp102 ists mir zu lange. eventuell wirds aber sogar ein sidegrade zu einer RX 470 kommt drauf an was der spekulatius bei erscheinen über gp102 und vega sagt.
Wenn sie sehr gut werden sollen bei guten preis und ich deshalb sicher umsteigen werde eher RX 470
-/\-CruNcher-/\-
2016-06-12, 01:42:49
AMD Radeon "RAGE"
RAGE wurde doch als name für die Fury spekuliert holen sie den jetzt tatsächlich zurück ?
Vor allem wieso hatten sie das zum Computex Reveal dann noch nicht bekannt gegeben, wieso taucht da plötzlich RAGE im ID String auf ?
O_qg2PITCts
Fake ?
Hmm oder
RX480 = Rage Xtreme 480 ?
kuj0n
2016-06-12, 01:51:42
*tinfoil hat on*
RX 480, X=AGE
RAGE 480
*tinfoil hat off*
TightNX
2016-06-12, 02:44:16
Keine Ahnung. Gerüchte zur Wiederbelebung der Marke "Rage" habe ich kürzlich noch irgendwo gelesen. "Fury" und "Rage" wären doch ein schöner Kontrast zu "Zen". ;)
Bin eh gespannt auf das neue Namensschema. Werden die Karten einfach unter RX durchnummeriert - also analog zu nVidias "GTX" - oder wird das X nur bestimmten Karten zugeteilt.
Leonidas
2016-06-12, 05:28:27
Aus dem Thread:
Demnach untertaktet der benutzte Treiber die Karte.
Genau was ich vermutet habe. AMD wird bei RX das Boost-Verhalten näher an das von NV legen. Die maximalen Taktraten werden eher nur selten erreicht, weil das PowerTarget viel früher anschlägt. Damit erhält man schwankender Taktraten, aber einen glatteren Stromverbrauch und damit mehr Effizienz.
MadPenguin
2016-06-12, 08:20:21
http://semiaccurate.com/forums/showpost.php?p=265454
MSI 480 Lightning mit 8pin und 4pin Stromstecker:D
Ich glaube wir werden Modelle mit Taktraten von base bis +20-30% sehen :)
kuj0n
2016-06-12, 08:30:48
http://semiaccurate.com/forums/showpost.php?p=265454
MSI 480 Lightning mit 8pin und 4pin Stromstecker:D
Ich glaube wir werden Modelle mit Taktraten von base bis +20-30% sehen :)
Vorsicht mit solchen Behauptungen. Erstmal sehe ich 8+6pin und hier wird dem Ganzen der Wind aus den Segeln genommen.
1: http://www.overclock.net/t/1602741/chiphell-msi-480
Well it look almost identical to GTX 780 Ti / 290X Lightning, I doubt MSI would go back to old design. Also his hand is covering Lightning logo (we can still see the N).
I heard from good source MSI is skipping GP104 for GP102 Lightning, and this would suggest they are making RX 480 Lightning. Yeah, I don't think so.
Edited by WhyCry - Today at 11:39 am
---
2: Wohl Originalquelle: https://www.chiphell.com/thread-1601437-1-1.html
http://cdn.wccftech.com/wp-content/uploads/2014/03/MSI-Radeon-R9-290X-Lightning_5.jpg
MSI-Radeon-R9-290X-Lightning
Mehr Bilder der Karte:
https://www.chiphell.com/forum.php?mod=redirect&goto=findpost&ptid=1601437&pid=33609196
---
3: Alles Fake?
http://www.overclock.net/t/1602741/chiphell-msi-480/30#post_25248567
Yeah this is 290X Lightning for sure. The video he posted clearly confirms 4GB, 1080 MHz and the same cooler as 290X Lightning https://www.msi.com/Graphics-card/R9-290X-LIGHTNING.html#hero-overview
Why people do this wink.gif
-/\-CruNcher-/\-
2016-06-12, 08:31:02
Genau was ich vermutet habe. AMD wird bei RX das Boost-Verhalten näher an das von NV legen. Die maximalen Taktraten werden eher nur selten erreicht, weil das PowerTarget viel früher anschlägt. Damit erhält man schwankender Taktraten, aber einen glatteren Stromverbrauch und damit mehr Effizienz.
Naja da brauchte man nichts vermuten sie mussten dort aufholen immerhin ist Nvidia schon bei der 3ten Generation und hier zeichnet sich ab das sie wenigstens die Effizienz der 2ten erreicht haben ;)
Und genau das gleiche AIB Schema bei den OC Versionen wird nun auch bei AMD gefahren werden.
Also können wir davon ausgehen das diie Preise bis rauf auf 300 € gehen werden sprich die Schmerzgrenze die Raja ansprach somit liegt man dann vermutlich bei einer base clock GTX 1060
sieht man dann da natürlich 2 pins wie bei der Lighting drückt das die Effizienz sofort wieder runter aber Raja sprach ja scheinbar von bellow 150W für die Base Clock die PRE OCten AIB Versionen scheinen klar in Richtung 150W und mehr zu gehen.
DarknessFalls
2016-06-12, 08:31:09
[url]
MSI 480 Lightning mit 8pin und 4pin Stromstecker:D
Ich seh da 6- und 8-pin. Macht null Sinn für eine RX480...
MadPenguin
2016-06-12, 09:00:45
Ich seh da 6- und 8-pin. Macht null Sinn für eine RX480...
Hmmm, sorry, war wohl der Enthusiasmus :D also ein fake....
Finde die Zeit vor dem release der RX480 im Moment volle lustig.
uweskw
2016-06-12, 09:02:23
Genau was ich vermutet habe. AMD wird bei RX das Boost-Verhalten näher an das von NV legen. Die maximalen Taktraten werden eher nur selten erreicht, weil das PowerTarget viel früher anschlägt. Damit erhält man schwankender Taktraten, aber einen glatteren Stromverbrauch und damit mehr Effizienz.
Abgesehen von der Dimensionierung des Netzteils: was stört an kurzfristigen Verbrauchpeaks.
Die sollten doch eigentlich helfen Drops zu verhindern und so den Framrate Verlauf glatt zu halten.
Greetz
US
Edit:
Also könnten die 1266 doch Basetakt sein. Dann sollte die 480 ja doch noch deutlich über der 390 liegen.
Damit wäre auch der Preispunkt auf Höhe der aktuellen 390 erklärt.
dargo
2016-06-12, 09:49:45
Weiterer Spekulatius:
http://www.overclock.net/t/1602760/some-rx-480-4gb-stuff-leaking-out-1080mhz-clock
1080MHz Clock (soll aber, wenn ich das richtig verstanden habe, ein Auslesefehler sein und die "bekannten" 1266MHz stimmen)
Firestrike Ultra 3268
Will jetzt endlich handfestes. :P
Zum Vergleich... meine R9 390 @~1000Mhz erreicht 2700 Grafik-Punkte.
Edit:
Wenn die 1080Mhz stimmen müsste die Karte nach meiner Rechnung mit 1266Mhz knapp 39% vor der R9 390 liegen. Das wäre schon fast zu gut. :uponder:
Schnoesel
2016-06-12, 09:53:55
Also ich denke man kann davon ausgehen, dass hier vor Release zahlreiche Fakes im Umlauf sein werden. Die Lightning gabs wenn dann schon immer nur für den Top Dog und wird wenn dann für den großen Vega kommen (sollte es den geben).
Eventuell macht man es wie Nvidia. Referenz hart begrenzt durch die Leistungsaufnahme und dann den Partnern freie Wahl lassen. Der niedrige Verbrauch der Referenz brennt sich ein ebnso wie die Leistung der Customs. War bei Nvidia auch schon so.
Dino-Fossil
2016-06-12, 10:01:50
Wenn die 1080Mhz stimmen müsste die Karte nach meiner Rechnung mit 1266Mhz knapp 39% vor der R9 390 liegen. Das wäre schon fast zu gut. :uponder:
Falls alle geleakten Benchmarks stimmen, schätze ich das sich Polaris in der Performancecharakteristik ein wenig von bisherigen GCN-GPUs unterscheidet.
Wenn es AMD gelungen ist, die Auslastung mit GCN4 zu optimieren, könnte Polaris gerade dann gut abschneiden, wenn bisher viel Leistung brach lag.
Umgekehrt würde Polaris in den Szenarien, die bereits bisher GCN gut ausgelastet haben (AotS?) weniger Leistungszuwachs zeigen, oder sogar etwas schlechter abschneiden, da weniger absolute Rohleistung vorhanden ist (unter Vorbehalt der Taktraten).
uweskw
2016-06-12, 10:09:22
Angeblich liegen doch schon Karten bei den Großhändlern herum. Da sieht man mal wieder wie sehr die Hersteller unsere Onlinemagazine im Griff haben. Ist ja nicht schlecht wenn man ein wenig Rücksicht aufeinander nimmt, aber zwei oder drei Wochen zur Vorbereitung eines Reviews und nichts sickert durch, das ist doch zu viel des Guten.
greetz
US
Skysnake
2016-06-12, 10:24:42
Warum?
GENAU SO ist es richtig und nichts anderes. Endlich halten sich mal die Leute an das was vertraglich vereinbart ist...
MadPenguin
2016-06-12, 10:25:18
Angeblich liegen doch schon Karten bei den Großhändlern herum. Da sieht man mal wieder wie sehr die Hersteller unsere Onlinemagazine im Griff haben. Ist ja nicht schlecht wenn man ein wenig Rücksicht aufeinander nimmt, aber zwei oder drei Wochen zur Vorbereitung eines Reviews und nichts sickert durch, das ist doch zu viel des Guten.
greetz
US
Wieso zu viel des Guten? Wenn das NDA am 29. fällt, dann kriegen wir am 29. Infos. Leaks sind jemand der gegen Regeln verstößt.
y33H@
2016-06-12, 10:40:12
Angeblich liegen doch schon Karten bei den Großhändlern herum. Da sieht man mal wieder wie sehr die Hersteller unsere Onlinemagazine im Griff haben. Ist ja nicht schlecht wenn man ein wenig Rücksicht aufeinander nimmt, aber zwei oder drei Wochen zur Vorbereitung eines Reviews und nichts sickert durch, das ist doch zu viel des Guten.Hast du jemals ein NDA unterzeichnet? Dann solltest du es besser wissen. Davon ab: nur weil jemand behauptetet, der viel FUD von sich gibt, Händler hätten bereits Karten, bedeutet das 1) nicht, dass dem so ist und 2) auch Reviewer schon Karten haben. Zudem: Was bringt dir ein Leak? Was hast du davon ob du nun halbgare Schnipsel meinst zu erfahren oder doch in zwei Wochen einen gescheiten Test? Manche Leute muss ich nicht verstehen :mad:
TightNX
2016-06-12, 11:08:55
Genau. Wie sollte man dann einen Leak zuverlässig von einem Fake (also einen geschickteren als 6-Pin + 8-Pin :freak:) unterscheiden? Wie man es auch dreht und wendet, Sicherheit gibt's erst ab Launch.
Der niedrige Verbrauch der Referenz brennt sich ein ebnso wie die Leistung der Customs. War bei Nvidia auch schon so.
This!
(Außer nVidia launcht eine neue Generation. Dann ist die Leistung der alten Customs plötzlich vergessen.:devil:)
Hast du jemals ein NDA unterzeichnet? Dann solltest du es besser wissen. Davon ab: nur weil jemand behauptetet, der viel FUD von sich gibt, Händler hätten bereits Karten, bedeutet das 1) nicht, dass dem so ist und 2) auch Reviewer schon Karten haben. Zudem: Was bringt dir ein Leak? Was hast du davon ob du nun halbgare Schnipsel meinst zu erfahren oder doch in zwei Wochen einen gescheiten Test? Manche Leute muss ich nicht verstehen :mad:
Ich glaube, ich mache auch mal 'ne Website auf, um wilde Gerüchte zu verbreiten. Machst du mit? Alternativ scheint es sich zu bewähren, in fernöstlichen Foren Unfug zu verbreiten, Ruhm in aller Welt ist sicher.
Der Radeon-Treiberstring ist editierbar, zumindest war er das noch bis vor einiger Zeit. Und vieles geht vermutlich beim Übersetzen verloren. Aber dass die Karte bereits bei Händlern herumliegt, ist ... wie sage ich das jetzt diplomatisch ... sehr optimistisch. ;) Fakt ist auch: Die Presse hatte in letzter Zeit nie genug Vorlauf.
MfG,
Raff
Skysnake
2016-06-12, 11:22:14
Ich würde auf jeden Fall mit machen :ugly:
Ansonsten ist doch klar, warum ihr so wenig Zeit bekommt. Es ist im Allgemeinen leider viel zu gefährlich der Preisse oder sonst jemandem genug Zeit zu geben, weil es eben Leaks gibt...
Alle tragen also den Schaden dafür, das sich einige Bereichern/Aufspielen....
Herr Doktor Klöbner
2016-06-12, 11:37:37
Wie sehen da eigentlich die Vertragsstrafen aus ? Keine Informationen und Testmuster in Zukunft oder sind das zusätzlich noch Geldstrafen ?
w0mbat
2016-06-12, 11:43:19
Du bekommst nen Brief mit einem Pups drin.
prinz_valium
2016-06-12, 11:49:41
Na dann kannst du ja froh sein, wenn Nvidia mit der GTX 1060 die gleiche Leistung für mehr Geld bringt. :rolleyes:
dann ist eben die komplette gen enttäuschend
aber wenn nur die fools Edition mehr geld kostet, könnten ja partnerkarten der 1060 weniger kosten
y33H@
2016-06-12, 12:03:55
Ich glaube, ich mache auch mal 'ne Website auf, um wilde Gerüchte zu verbreiten. Machst du mit? Alternativ scheint es sich zu bewähren, in fernöstlichen Foren Unfug zu verbreiten, Ruhm in aller Welt ist sicher. Ich poste einfach einen GPU-Z-Shot, der bei Chiphell landet, von Leonidas aufgegriffen und dann bei den üblichen Verdächtigen als News gebracht wird ... huch, das ist schon passiert? ;D
Wie sehen da eigentlich die Vertragsstrafen aus ? Keine Informationen und Testmuster in Zukunft oder sind das zusätzlich noch Geldstrafen ?Das kommt immer auf's NDA und das Produkt bzw die Firma an. Generell sollte man unterschriebene Abkommen nicht brechen ;)
Troyan
2016-06-12, 12:36:57
Ich frage mich, wieso bei AMD das soviel ernster ist als bei nVidia. Da haben die Reviewer ja fröhlich Bilder der GTX1080 aus ihren Taschen beim Abflug gepostet...
Sunrise
2016-06-12, 12:43:49
Der Chiphell-Leak scheint echt zu sein, der gleiche Typ hatte die GP104-Daten und Scores relativ früh oben.
Der 1080er Takt ist ja wohl nur geil...der Seitenhieb für NV ;)
Schaut gut aus!
Troyan
2016-06-12, 12:51:31
Ist fake: https://www.reddit.com/r/Amd/comments/4npe43/speculation480_fire_strike_ultra_benchmark_could/
Wahrscheinlich 380X und die Werte einfach hingebogen.
Zergra
2016-06-12, 13:04:45
Ich frage mich, wieso bei AMD das soviel ernster ist als bei nVidia. Da haben die Reviewer ja fröhlich Bilder der GTX1080 aus ihren Taschen beim Abflug gepostet...
Tja, möglicherweise war auch dies Teil des NDA. :freak:
Dural
2016-06-12, 13:12:08
Tja, möglicherweise war auch dies Teil des NDA. :freak:
Bestimmt sogar.
Troyan
2016-06-12, 13:12:13
Natürlich, aber wieso? AMD hat doch die Karten schon gezeigt. :D
Bzgl. dem 3DMark-Score: Der Graphics-Score müsste 3110 sein, wenn man nach dem "Technical Paper" von Futuremark geht: http://s3.amazonaws.com/download-aws.futuremark.com/3DMark_Technical_Guide.pdf
Muss man nicht mehr viel dazu sagen. Klarer Fake.
-/\-CruNcher-/\-
2016-06-12, 13:16:26
Auch Nvidia könnte das gezielt in die Welt setzen oder Nvidia Fanboys um die Entäuschung zu steigern es wird ein gutes stabiles Produkt mit sehr viel Value in die Zukunft gedacht :)
Allerdings darf und sollte man nicht vergessen das AMD hier die Zukunft teils schon mitbestimmt und ihr Einfluss größer als jemals zuvor ist weitaus größer als selbst Nvidia damals mit TWIMTBP aufgebaut hat ;)
Für die jetzige Zeit und Lage AMDs ist das allerdings sehr positiv und Nvidia kann auch mal eine längere Zeit einstecken zumal auch Nvidia user selbst davon profetieren werden auch wenn sie es noch nicht sehen wollen ;)
Bei mir ist der groschen mit Polaris nun gefallen, zu verstehen was da ein Value auf sehr viele User zurollt und nicht nur mit Polaris selbst ;)
Es ist gerade zu beindruckend wie AMD trozt am Boden zu liegen dafür gekämpft hat eine Vision zu verwirklichen und das nicht gegen 1 nein 2 stärkere Competitor im Markt, das beindruckt mich echt schwer und so vielen usern das zu ermöglichen und die boarders immer weiter runterzusetzen.
Nvidia wollte die Komplette Kontrolle am Ende verloren sie eine Menge dafür ;)
dildo4u
2016-06-12, 13:16:39
Natürlich ist es Fake wenn es kein finales Bios gibt,bis jetzt können die Reviewer den finalen Takt nur raten.
Linmoum
2016-06-12, 13:48:36
https://www.youtube.com/watch?v=rG-_mzIho5g&
Das Video halte ich für weniger Fake. :tongue:
dildo4u
2016-06-12, 13:53:31
Vermutlich mit OC sagt immer noch nix um Default Performance aus.Die Karte sollte default besser nicht mit 95° laufen.
AlphaNUSS
2016-06-12, 13:58:16
Warum nicht? Wenn sie mit 95° läuft, die Lüfter dafür aber kaum aufdrehen müssen, ist doch alles ok.
dildo4u
2016-06-12, 14:00:06
3DMark erzeugt keine Dauerlast das kann also durchaus noch höher gehen.
krissbay
2016-06-12, 14:00:09
https://www.youtube.com/watch?v=rG-_mzIho5g&
Das Video halte ich für weniger Fake. :tongue:
89 Grad fü die GPU im Volllast wäre zu viel und AMD würde so eine Karte nicht releasen. für mich noch Fake. außerdem lagen die Temps auf dem von ihm veröffentlichen Screenshots bei 40-50 Grad
Dino-Fossil
2016-06-12, 14:00:36
Wenn es echt ist und die GPU 95°C erreicht, ist es entweder ein Problem mit der Kühlung, z.B. wegen Defekt (vielleicht hat er die Karte bekommen, die Koduri hat fallen lassen :D ) oder extremen OC, oder der Chip kann's vertragen und die Kühlung ist entsprechend ausgelegt.
In dem Leistungs-Bereich in dem Polaris sich bewegt sollte es kein Problem sein, den Chip zu kühlen, wenn es nötig ist.
Linmoum
2016-06-12, 14:00:43
Noch ein weiteres
nUG9jgERvEQ
herp_derp
2016-06-12, 14:03:35
Einfach mal die Karte filmen wäre zu viel verlangt?
Troyan
2016-06-12, 14:06:03
89 Grad fü die GPU im Volllast wäre zu viel und AMD würde so eine Karte nicht releasen. für mich noch Fake. außerdem lagen die Temps auf dem von ihm veröffentlichen Screenshots bei 40-50 Grad
Der vorige 3DMark Score war auch nicht korrekt. Das Ergebnis entspricht +- einer Nano.
AlphaNUSS
2016-06-12, 14:10:03
Einfach mal die Karte filmen wäre zu viel verlangt?
Aber dann erkennt man doch, dass das Video ein Fake ist :D
Mancko
2016-06-12, 14:15:35
Auch Nvidia könnte das gezielt in die Welt setzen oder Nvidia Fanboys um die Entäuschung zu steigern es wird ein gutes stabiles Produkt mit sehr viel Value in die Zukunft gedacht :)
Allerdings darf und sollte man nicht vergessen das AMD hier die Zukunft teils schon mitbestimmt und ihr Einfluss größer als jemals zuvor ist weitaus größer als selbst Nvidia damals mit TWIMTBP aufgebaut hat ;)
Für die jetzige Zeit und Lage AMDs ist das allerdings sehr positiv und Nvidia kann auch mal eine längere Zeit einstecken zumal auch Nvidia user selbst davon profetieren werden auch wenn sie es noch nicht sehen wollen ;)
Bei mir ist der groschen mit Polaris nun gefallen, zu verstehen was da ein Value auf sehr viele User zurollt und nicht nur mit Polaris selbst ;)
Es ist gerade zu beindruckend wie AMD trozt am Boden zu liegen dafür gekämpft hat eine Vision zu verwirklichen und das nicht gegen 1 nein 2 stärkere Competitor im Markt, das beindruckt mich echt schwer und so vielen usern das zu ermöglichen und die boarders immer weiter runterzusetzen.
Nvidia wollte die Komplette Kontrolle am Ende verloren sie eine Menge dafür ;)
Was Du wieder für einen Mist hier den ganzen Tag erzählst. Kaum zum Aushalten. Nur davon dass Du ständig den gleichen Quatsch wiederholst wird es auch nicht besser oder realistischer. Wie gut Polaris ist werden wir sehen. Ist ja bald soweit. Aber was die Zukunft angeht bestimmt die AMD nicht mehr und nicht weniger mit als vorher auch schon. Das gleiche gilt für Nvidia. Da hat sich rein gar nichts geändert.
Spasstiger
2016-06-12, 14:23:28
Dass hier noch so wild über die Performance spekuliert wird. Zwischen GTX 970 und GTX 980 wurde doch schon von AMD-Seite genannt, d.h. also R9-390-Niveau. Passt auch zu den spekulierten Spezifikationen, wobei ich noch skeptisch bin, ob AMD es gelingt, die deutlich niedrigere Speicherbandbreite durchgehend zu kaschieren.
Ich würde die RX 480 8 GiB übrigens über 250 € verorten. AMD sprach von "unter 500 US-$" für zwei dieser Karten im Crossfire. Das kann 249 US-$ für eine Karte bedeuten. Und 249 US-$ werden in Euroland ganz schnell 275 €. NV vertickt die GTX 1070 Founders Edition bei einer MSRP von 449 US-$ hierzulande offiziell für 499 € (https://www.nvidia.de/graphics-cards/geforce/pascal/gtx-1070/), also ca. 25 € teurer als man es der Umrechnung von Dollar zu Euro plus Steuern nach erwartet. Vielleicht, um Wechselkursschwankungen vorzubeugen, vielleicht aber auch, weil die Deutschen kaufkräftiger sind (waren?) als die Amerikaner.
TightNX
2016-06-12, 14:26:19
Einfach mal die Karte filmen wäre zu viel verlangt?
Die filmen sich lieber selbst im spiegelnden Monitor. Das ist YouTube, das ist authentisch, das muss reichen. :biggrin:
Kriegsgeier
2016-06-12, 14:51:34
Finde das 2te Video völlig authentisch.
Weiß nicht was man da nicht glauben kann.
Steht doch RX 480 nach dem Testen
Ja weil ein String auch so schwer umzuschreiben ist ;D
Warum sollen die das Teil auf >90°C laufen lassen? Nur um dann bei der Kuehlung wieder ein paar Cent zu sparen?
<150 Watt sollten locker wegkuehlbar sein. Bei der Temperatur waere die Effizienz unnoetigerweise wieder deutlich niedriger
Dino-Fossil
2016-06-12, 15:02:01
Selbst wenn es eine RX 480 ist, wäre es einfach per Overdrive die Lüftungssteuerung anzupassen, wenn man ein wenig stänkern möchte (warum auch immer).
maximus_hertus
2016-06-12, 15:08:40
Warum sind 80-85 Grad gut und 90-95 Grad ein "Problem"? Ernst gemeinte Frage. Solange alles stabil und vernünftig läuft, ist es doch egal, was da an Grad Celsius angezeigt wird?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.