PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Polaris (Arctic Islands): Baffin, Ellesmere - Polaris 12, 11 & 10


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51

M4xw0lf
2016-04-09, 17:32:55
Wieso? AMD User haben doch genauso Probleme. Versuche mal The Witcher 3 aus dem Jahr 2015 mit Hairworks zu spielen. Da bleibt dir als AMD Mensch auch keine andere Wahl eine neue Karte zu kaufen.
Was für ein Schwachsinn. Selbst meine olle 7950 stemmt das mit angepasstem Tesselationsgrad (16x).

aufkrawall
2016-04-09, 17:33:46
8GB Hawaiis gab es allerdings schon lange vor dem 300er-Rebrand. Waren auch nicht unverschämt überteuert.

Troyan
2016-04-09, 17:45:08
Was für ein Schwachsinn. Selbst meine olle 7950 stemmt das mit angepasstem Tesselationsgrad (16x).

Und GTX970 Käufer können in Quantum Break einfach die Grafik runterstellen. :freak:

Sage ich ja: Als AMD User darf man anscheinend die Qualität reduzieren. Als nVidia-User wäre man ein Konsumzombie, der zum Neukauf gezwungen werden würde.

HOT
2016-04-09, 17:50:11
Es gab bis vor kurzem schlicht keine Alternative, spiel mal Witcher 3 ohne Shadercache oder Prerenderlimit 1. Gabs vor Crimson bei AMD schlicht nicht.
Mit etwas Glück für AMD sieht Pascal in DX12-Spielen aber gar nicht so viel besser als Maxwell aus. Das wär dann die Chance für AMD, das Gammel-Image komplett abzustreifen.
Pascal wird mMn in DX12 endlich auch gut aussehen denke ich. Die werden den Chip schon so verändert haben, dass damit AsyncCompute gut läuft. Letztendlich könnten GCN4 und Pascal sehr nah beieinander liegen.

Botcruscher
2016-04-09, 17:57:42
Wenn du den Unterschied beim ordentlichem Tesselationsgrad sehen kannst bekommst du einen Keks.

Tamagothi
2016-04-09, 18:03:28
Wenn man 100fach reinzooooom dann kann ich es dir zeigen :ulol:

Thunder99
2016-04-09, 18:10:05
Man kann genau so sagen es müssen sich alle Leute einer 290 eine neue Karte kaufen,vielen tun so als ob es schon seit 2014 brauchbare 8GB Karten von AMD gab.

The Division



http://www.pcgameshardware.de/The-Division-Spiel-37399/Specials/PC-Benchmarks-1188384/

Tomb Raider 2016


http://www.pcgameshardware.de/Rise-of-the-Tomb-Raider-Spiel-54451/Specials/Grafikkarten-Benchmarks-1184288/
Naja, Fakt ist das eine echte 4GB Karte dann immer noch besser ist als eine 3,5+0,5GB Karte :wink:. Ansonsten stimme ich dir zu das 4GB so langsam ausgedient haben wer aktuelle Games in maximaler Qualität zoggen möchte.

Doch Polaris wird ja auch >4GB bieten was ja gut ist. Hawaii mit 8GB war gut, aber Polaris wird (viel) besser :D schätze ich

Nakai
2016-04-09, 18:26:21
@Nakai: So richtig ist mir noch nicht klar wozu man eine Scalar-ALU braucht. Kannst du mir dass mal bitte für doofe erklären? :) Wie wird das denn bei NVIDIA gerade gelöst? Wird das auf eine vALU gemapped? Das kostet afaik doch auch wieder mehr area für den Scheduler und (separaten?) Registerspace.

Also, wie das bei NV gemacht wird keine Ahnung. Eine CU ist im Grunde ein In-Order-RISC-Kern. Die skalare ALU übernimmt Branches und Maskierung der SIMD-Einheiten für die SIMT-Berechnungen auf den SIMDs. Das geht im Round Robin-Verfahren, weil man eben eine 4 Takte Latenz hat. GCN ist da unglaublich balanced. Man hat zwei skalare Einheiten, eine für Branching & Messaging (manipulation des PCs einer Wavefront) und eine normale skalare Einheit. Die normale skalare Einheit ist eine 64 Bit ALU für die Maskierung, weil eine Wavefront innerhalb von 4 Takten auf einer 16er SIMD ausgeführt wird.

Mal ein Beispiel:
Wavefront A hat eine Branch. Branch Path1 16 aktive Threads und Path2 eben 48 aktive Threads. Beide Pfade werden ausgeführt innerhalb 8 Takte (4 Takte Path1 und vice versa). Dabei maskiert die skalare ALU bei Path1 eben 16 Threads und bei Path2 eben 48 Threads. Danach wird der Programm Counter dieser Wavefront eben neu eingestellt, also ob Path1 oder Path2 gepickt wird. Das Result-Write-Back muss auch dann dementsprechend maskiert werden.

Derzeit übernimmt die skalare Einheit noch gar keine weiteren Funktionalitäten. Ich hoffe darauf, dass die skalare Einheit noch eine FPU bekommt und völlig normal arbeiten kann. Die Caches sind nur Read-Only und daher nicht für normale Berechnung zugänglich. Eventuell bringt da Polaris schon was.

Mal ein Bsp, wieso SIMDs manchmal nervig sind. Eine Wavefront sind immer 64 Threads und wenn ich weiß, dass nur 4 Threads effektiv etwas arbeiten, dann will man keine SIMD damit auslasten. Das wäre verschwendete Ressourcen. Das schmeißt man lieber auf die skalare Einheit, welche dann in 4 Takten den Code ausführt. Wenn das kommt, ich denke mit Vega wird das eingeführt werden, dann kann man sagen, dass eine CU ein vollständiger In-Order-RISC-Kern ist. Derzeit ist der Fokus noch stark auf SIMT und nicht skalaren Berechnungen. Diesbezüglich abwarten.

€: Bei NV wird innerhalb eines SMs sehr viel FF-Hardware verbaut sein. Ich habe da keine Ahnung, aber das was NV auf den Folien angibt, ist definitiv nicht alles.
Jeder Warp-Scheduler bei NV kann einen Warp selektieren und ihn den Dispatchern bereitstellen. Die Dispatcher sind Dual-Issue, ergo kann ein Dispatcher pro Takt zwei unabhängige Instruktionen pro Warp auf die SIMDs schedulen. Ich denke hier werden die Branches verarbeitet, ergo Branch#1 und Branch#2 können gleichzeitig dispatched werden. Man müsste da eben dann sicherstellen, dass das Result WriteBack dementsprechend blockiert wird.

€2:
Pascal wird mMn in DX12 endlich auch gut aussehen denke ich. Die werden den Chip schon so verändert haben, dass damit AsyncCompute gut läuft. Letztendlich könnten GCN4 und Pascal sehr nah beieinander liegen.

Abwarten, es wird wohl keine bösen Performanceeinbrüche mehr geben und evtl sogar PErformancezuwächse.

€3: Ich bin auch nur ein Laie wohlgemerkt und unglaublich müde. Fehler kann Gipsel gerne finden, wenn er möchte und ankreiden.^^

dildo4u
2016-04-09, 18:31:50
Naja, Fakt ist das eine echte 4GB Karte dann immer noch besser ist als eine 3,5+0,5GB Karte :wink:. Ansonsten stimme ich dir zu das 4GB so langsam ausgedient haben wer aktuelle Games in maximaler Qualität zoggen möchte.

Doch Polaris wird ja auch >4GB bieten was ja gut ist. Hawaii mit 8GB war gut, aber Polaris wird (viel) besser :D schätze ich
Das ist halt die typische PC Einstellung einfach mehr Hardware auf das Probleme zu werfen. DX12 sollte es eigentlich ermöglichen aggressiver zu streamen ohne die CPU zu sehr zu belasten,damit sollte der Vram Verbrauch eigentlich sinken,das Lustige ist genau das Gegenteil ist der Fall,die Games die DX11 und 12 unterstützen brauchen in DX12 mehr Vram.

dargo
2016-04-09, 18:45:54
Doch Polaris wird ja auch >4GB bieten was ja gut ist. Hawaii mit 8GB war gut, aber Polaris wird (viel) besser :D schätze ich
Ich glaube du erwartest zu viel von Polaris. Was verstehst du unter viel besser? Beim Stromverbrauch sicherlich. Bei der Leistung kaum.

Das ist halt die typische PC Einstellung einfach mehr Hardware auf das Probleme zu werfen. DX12 sollte es eigentlich ermöglichen aggressiver zu streamen ohne die CPU zu sehr zu belasten,damit sollte der Vram Verbrauch eigentlich sinken,das Lustige ist genau das Gegenteil ist der Fall,die Games die DX11 und 12 unterstützen brauchen in DX12 mehr Vram.
Wie oft denn noch? Die Geschichte wiederholt sich wie bei Mantle. Die Entwickler müssen sich erstmal in DX12 vernünftig einarbeiten. Das geht nicht von heute auf morgen.

iuno
2016-04-09, 18:46:55
Einfach nur eine normale Speicheranbindung zu erwarten anstatt einen Krueppel ist also ein Problem mit Hardware zu erschlagen?

Ja, bisher braucht man etwas mehr VRAM, es gibt aber ja auch schon so viele Anhaltspunkte :rolleyes:
Wie viel Engines/Spiele wurden komplett fuer DX12 konzipiert? Das wird schon noch werden...

Botcruscher
2016-04-09, 18:47:23
DX12 spart dir maximal CPU Leistung und lastet die Karte besser aus. Von weniger Speicherverbrauch war nie die Rede. Da die Entwickler zusätzlich noch Arbeit reinstecken müssen wird es auch nicht besser. Das ist halt so wenn 2016 noch Karten mit schlimmstenfalls 32bit nutzbarem Speicherinterface auf dem Markt sind.

R.I.P.
2016-04-09, 18:52:56
Aus dem Semiaccurate-Forum geklaut. Scheinbar auf der GTC gezeigt. Die Proportionen wären Nvidia-Style :D

http://abload.de/img/cfs-bxwxeaajw9lyaf70.jpg (http://abload.de/image.php?img=cfs-bxwxeaajw9lyaf70.jpg)

dargo
2016-04-09, 18:59:05
Fake, der AMD-Balken müsste rot sein. :P

Locuza
2016-04-10, 06:34:39
Derzeit übernimmt die skalare Einheit noch gar keine weiteren Funktionalitäten. Ich hoffe darauf, dass die skalare Einheit noch eine FPU bekommt und völlig normal arbeiten kann. Die Caches sind nur Read-Only und daher nicht für normale Berechnung zugänglich. Eventuell bringt da Polaris schon was.

GCN Gen 3:
- Scalar memory writes.

- In Generation 2, a kernel could read from a scalar data cache to retrieve
constant data. In Generation 3, that cache now supports reads and writes.
http://amd-dev.wpengine.netdna-cdn.com/wordpress/media/2013/07/AMD_GCN3_Instruction_Set_Architecture.pdf

Stellt das schon die nötige Verbesserung dar?

Skysnake
2016-04-10, 07:35:59
Das ist eine notwendige, aber keine hinreichende Bedingung für die Verbesserung würde ich sagen.

Hübie
2016-04-10, 07:42:53
Bräuchte man writes für die Prioritäten einer Queue im Branch oder wie? Das muss dann ja restriktiv vom Scheduler gehandelt werden. So langsam wird klar weshalb AMD GPUs mehr verbrauchen. Es werden deutlich mehr Daten zu Gunsten der Flexibilität bewegt, ums mal zusammenfassend benennen zu wollen. Wenn nVidia sich dem also annähernd ähnelt dürfte die arithmetische Effizienz sinken.

Nakai
2016-04-10, 10:24:13
Nicht nur das. AMD hat deutlich mehr Hardware Funktionalitäten bzgl Compute im Frontend liegen. Fiji hat noch hier und da etwas in Hardware was erst in den nexten Generationen verwendet wird. Die ACEs sind anscheinend sehr programmierbar. NV macht das alles im Treiber. Auch ein Grund wieso NV nochmal eine bessere Energieeffizienz hat.

Die Skalare ALUs muss auch auf Vektordaten zugreifen können und vice versa. Ergo Export Import auf das Vektor Register file und Skalar Register File. Write and Read auf den Cache ist schon mal eine gute Basis.

Ich denke dennoch, dass Polaris hauptsächlich Effizienz Verbesserungen mit sich bringt. Eventuell sogar Vereinfachungen in der CU. Keinen globalen Scheduler, sondern dedizierte Scheduler.

fondness
2016-04-10, 11:25:38
Natürlich, genau deshalb war AMD Mantle bzw. DX12/Vulkan so wichtig. AMD hat mit GCN eine sehr zukunftsweisende und flexible Architektur, die sich mit DX11 leider nicht ausnutzen lässt, wodurch enorm viel Potential brach liegt. Selbst GP100 kommt da in punkto compute nicht mal an GCN1.0 ran wie weiter hinten schon bemerkt. Es gibt auf ISA-Level sehr viele intrinsics, mit denen man Leistung heraus holen könnte. Die ACEs sind nur ein Aspekt davon. AMD versucht aktuell möglichst viele diese "GCN-Secret-Sauce" den ENtwicklern zur Verfügung zu stellen - welche natürlich praktischerweise durch die Konsolen bereits Erfahrungen damit gesammelt haben. NV ist eigentlich bis jetzt eher den Umgekehrten Weg gegangen, nämlich die HW zu versimplifizieren um möglichst viel Strom zu sparen und so viel wie möglich in Software zu machen. Mit der lowlevel Programmierung aktueller APIs geht das natürlich nicht mehr so gut auf.

Kriton
2016-04-10, 12:23:08
Ich glaube ehrlich gesagt nicht, dass für eine entschwindende Masse an Käufern solche Dinge wie Prerenderlimit eine Rolle spielen. Aber ja AMD versucht sich so gut es geht auf Gamer zu fokussieren. Nicht zuletzt solchen Leuten wie dir, welche verschiedene Dinge in Foren zu beanstanden haben (:D), wird sehr viel Aufmerksamkeit geschenkt. Denn auch wenn Nvidia gerne etwas anderes suggeriert, die überwältigende Mehrheit des Umsatzes und Gewinnes kommt nach wie vor von den Gamern und eben nicht von den Servern oder professionellen Bereichen oder gar Tegra.

/Edit: Und btw, ich habe Witcher 3 ohne Shadercache und Prerenderlimit 1 durchgespielt, und es ging. :)
Aber ja ich gebe dir Recht, es ist nicht ganz umsonst. ^^

Gibt es irgendwo eigentlich einen guide für den ganzen Kram?

Janos
2016-04-10, 13:24:54
Gibt es irgendwo eigentlich einen guide für den ganzen Kram?

Wie man Witcher 3 für eine 7950 einstellt?
Ich habe es 2x gespielt, so schlecht kann es also nicht gelaufen sein.

System GPU HD7950, CPU Xeon 1650v3
Windows 10, AMD Treiber 16.2 (jetzt 16.3.2)

Settings,
Treiber Einstellungen auf default.
Im Spiel: FHD, Hairworks aus, SSAO, Scharfzeichnen niedrig, alle anderen Einstellungen aktviert.

Kommt average auf 45 fps.

VG Janos

dildo4u
2016-04-10, 13:33:54
DX12 spart dir maximal CPU Leistung und lastet die Karte besser aus. Von weniger Speicherverbrauch war nie die Rede. Da die Entwickler zusätzlich noch Arbeit reinstecken müssen wird es auch nicht besser. Das ist halt so wenn 2016 noch Karten mit schlimmstenfalls 32bit nutzbarem Speicherinterface auf dem Markt sind.
Es könnte mit 11.3 und 12.1 eigentlich Tiled Resources genutzt werden bisher ist davon aber noch nix zu sehen.


https://blogs.nvidia.com/blog/2013/06/26/higher-fidelity-graphics-with-less-memory-at-microsoft-build/

Schätze mal das ist keine Option da AMD es nicht unterstützt.Nicht nur die 970 auch Fury hätte damit ein deutlich längeres Leben gehabt.

Botcruscher
2016-04-10, 13:50:40
Die beiden hätten mit 7 bzw. 8GB ein längeres Leben gehabt. Es macht überhaupt keinen Sinn da irgendwie Arbeitszeit für Optimierungen zu verschwenden. Die Konsolen als kleinster Nenner können es nicht und bringen mehr RAM mit.

Kartenlehrling
2016-04-10, 13:55:56
Eine Menge ist noch nicht gezeigt worden was eigentlich "angekündigt" wurde.
Beste Beispiel ist BatmanAK und Justcause3 die beide von Nvidia mit zukunftweisende DX12 Technik beworben wurde.
Am Ende sind beide Spiele nur als DX11 Release worden und durchwachsene Performance.
Auf der letzten GDC2016 gibt eine Folie wo gezeigt wird das der Rauch von JC3 mit Tessellation zugekleister ist.

Locuza
2016-04-10, 14:09:46
Es könnte mit 11.3 und 12.1 eigentlich Tiled Resources genutzt werden bisher ist davon aber noch nix zu sehen.


https://blogs.nvidia.com/blog/2013/06/26/higher-fidelity-graphics-with-less-memory-at-microsoft-build/

Schätze mal das ist keine Option da AMD es nicht unterstützt.Nicht nur die 970 auch Fury hätte damit ein deutlich längeres Leben gehabt.
Tiled Resources Tier 1-2 wurden mit DX11.2 eingeführt.
Tier 3 kam mit DX11.3 und DX12.

Tier 1 wird von GCN Gen 1 und Kepler/Maxwell v1 unterstützt. (+Fermi)
Tier 2 GCN Gen 2, 3 und Maxwell v2 und Gen 9.
Tier 3 unterstützt nur Maxwell v2 und Gen 9 von Intel.

Eine Menge ist noch nicht gezeigt worden was eigentlich "angekündigt" wurde.
Beste Beispiel ist BatmanAK und Justcause3 die beide von Nvidia mit zukunftweisende DX12 Technik beworben wurde.
Am Ende sind beide Spiele nur als DX11 Release worden und durchwachsene Performance.
Auf der letzten GDC2016 gibt eine Folie wo gezeigt wird das der Rauch von JC3 mit Tessellation zugekleister ist.
Es wird dir sicher nicht schwer fallen, die Quelle für die DX12 Werbung von Nvidia für Batman AK zu finden oder?
Auch die für Just Cause 3?
Und auch für den Rauch der mit Tessellation zugekleistert ist?

Ich mein, ich weiß das deine Aussagen nicht stimmen, aber wie hast du den Unsinn in der Art auf geschnappt oder dir zusammengereimt?

Botcruscher
2016-04-10, 14:10:13
Gameworks hat damit doch alle Ziele erfüllt.

HOT
2016-04-10, 15:04:38
Hier gibts ne komplette Übersicht, was GCN und Maxwell können:
http://www.se7ensins.com/forums/threads/dx12-full-compatability-chart.1335526/

Für Polaris stellt sich die Frage, ob der einen der Rasterizer erweiter wurde oder nicht. Damit wäre Polaris FL 12_1. Wahrscheinlich unterstützen aber sowohl Polaris als auch Pascal FL12_1 komplett, also wie Skylake, nur mit vollem AsyncCompute-Support.

Hübie
2016-04-10, 15:10:20
Tiled Resources Tier 1-2 wurden mit DX11.2 eingeführt.
Tier 3 kam mit DX11.3 und DX12.

Tier 1 wird von GCN Gen 1 und Kepler/Maxwell v1 unterstützt. (+Fermi)
Tier 2 GCN Gen 2, 3 und Maxwell v2 und Gen 9.
Tier 3 unterstützt nur Maxwell v2 und Gen 9 von Intel.


Es wird dir sicher nicht schwer fallen, die Quelle für die DX12 Werbung von Nvidia für Batman AK zu finden oder?
Auch die für Just Cause 3?
Und auch für den Rauch der mit Tessellation zugekleistert ist?

Ich mein, ich weiß das deine Aussagen nicht stimmen, aber wie hast du den Unsinn in der Art auf geschnappt oder dir zusammengereimt?

Da hat MSI Scheiße gebaut und alle haben es abgeschrieben, statt die Entwickler zu kontaktieren. :facepalm:

Nakai
2016-04-10, 15:17:16
Hier gibts ne komplette Übersicht, was GCN und Maxwell können:
http://www.se7ensins.com/forums/threads/dx12-full-compatability-chart.1335526/

Für Polaris stellt sich die Frage, ob der einen der Rasterizer erweiter wurde oder nicht. Damit wäre Polaris FL 12_1. Wahrscheinlich unterstützen aber sowohl Polaris als auch Pascal FL12_1 komplett, also wie Skylake, nur mit vollem AsyncCompute-Support.

Der Rasterizer wurde anscheinend nicht angerührt. Kein Conservative Rasterization. Ich hoff mal es kommt für Vega, weil das eigentlich ein triviales Feature ist.

ROV sollte inkludiert werden.

€: Womöglich wurde Greenland wegen einigen DX12-Features gecancelt und als Vega10 neu aufgestezt. Es gab immer das Gerücht, dass Greenland tot ist. Ich habe es letztens wieder gehört, sogar Details zum original Greenland erfahren. Wobei ich diesbezüglich eher meine Augenbrauen gerunzelt habe. Greenland war urpsrünglich ein Polaris-Chip, weswegen einige Leute diesbezüglich mittlerweile verwundert sind. Charlie dachte dass Polaris slipt, weil er Polaris wohl als Greenland, Baffin und Ellesmere sieht. Naja...

Locuza
2016-04-10, 15:39:35
Da hat MSI Scheiße gebaut und alle haben es abgeschrieben, statt die Entwickler zu kontaktieren. :facepalm:
Ja, es ging um Batman AK und The Witcher 3.
Just Cause 3 war nicht dabei und auf der GDC gab es auch keinen Rauch "voll mit Tessellation".
https://software.intel.com/sites/default/files/managed/20/d5/2016_GDC_Optimizations-and-DirectX-features-in-JC3_v0-92_X.pdf


ROV sollte inkludiert werden.

€: Womöglich wurde Greenland wegen einigen DX12-Features gecancelt und als Vega10 neu aufgestezt. Es gab immer das Gerücht, dass Greenland tot ist. Ich habe es letztens wieder gehört, sogar Details zum original Greenland erfahren. Wobei ich diesbezüglich eher meine Augenbrauen gerunzelt habe. Greenland war urpsrünglich ein Polaris-Chip, weswegen einige Leute diesbezüglich mittlerweile verwundert sind. Charlie dachte dass Polaris slipt, weil er Polaris wohl als Greenland, Baffin und Ellesmere sieht. Naja...
Wieso sollten ROVs enthalten sein?

Das mit Greenland finde ich spannend. War es nicht angeblich der erste Chip mit einem Tape-Out?
Das ganze verschieben und modifizieren für FL12.1?
Froh wäre ich schon, wenn wenigstens ein Chip von AMD die neuen Features anbietet.

Kriton
2016-04-10, 16:54:41
Wie man Witcher 3 für eine 7950 einstellt?

Nein, was die verschiedenen Treibereinstellungen machen.

Kartenlehrling
2016-04-10, 19:43:13
Es wird dir sicher nicht schwer fallen, die Quelle für die DX12 Werbung von Nvidia für Batman AK zu finden oder?
Auch die für Just Cause 3?
Und auch für den Rauch der mit Tessellation zugekleistert ist?

Ich mein, ich weiß das deine Aussagen nicht stimmen, aber wie hast du den Unsinn in der Art auf geschnappt oder dir zusammengereimt?

Werde ich jetzt von Dir als Lügner dagestellt?
Bei Dir und Nvidia müsste man alles Aufzeichnen und Fotos machen, auf der Nivida/Geforce Seite hatten sie zum Thema DX12 und Play the Future,
damit geworben das diese beiden Spiele DX12 Features haben, nur gibts diese Seiten nicht mehr,
SLI wurde ja bei BatmanAK auch bist vor einigen Monaten mit geworben.
Wenn ich gewusste hätte das dieses gelogen ist und nie eintrifft hätte ich für Dich natürlich ein Sceenshot geschossen und
es für 1 jahr aufgehoben damit ich auch ja nicht vor Dir als Lügner dastehe.
Genauso hat Nvidia auf ihre Geforce.com Seite Fermi Karten als DX12 verkauft.
Genauso hat Nvidia vor 2 Jahre noch geschreiben das alle Nvidia DX11 Karten zu 100% DX12 supporten und
AMD dieses nicht leisten kann und ihre DX11 Karten nur zu 40% DX12 support werden,
und somit suggeriert Nvidia das ihre Produkte zukunftsicher sind.

Wenn ich somit Lüge dann hat Nvidia zuerst gelogen.

Hier im Microsoft DX12 Video wird Justcause3 ja auch geworben warum sollten sie es tun wenn es nicht stimmt. (https://www.youtube.com/watch?v=c4cXG8zu61Y)

Fakt ist Nvidia hat auf ihre Seite mit BatmanAK und Justcause3 für DX12 Features geworben,
da sich aber DX12 verschoben hatte sind wohl beide Spiele frühzeitig nur als PC-DX11 veröffentlich worden.
Erklärt vielleicht auch die anfänglichen schlechten Performence beider Spiele.
Starwars Battelfront gibt ja auch nur ein XBone DX12 Version,
da hat eigentlich nach dem Mantle Auftritt von Battelfield4 auch jeden an eine PC-DX12 version gehofft.

Locuza
2016-04-10, 20:54:02
Werde ich jetzt von Dir als Lügner dagestellt?
Lügner wäre eine böse Unterstellung...
Wie wäre es mit Falschaussager oder Falschglauber vielleicht? Meine arrogante Persönlichkeit könnte sich darauf einigen. :smile:

Bei Dir und Nvidia müsste man alles Aufzeichnen und Fotos machen, auf der Nivida/Geforce Seite hatten sie zum Thema DX12 und Play the Future,
damit geworben das diese beiden Spiele DX12 Features haben, nur gibts diese Seiten nicht mehr,
SLI wurde ja bei BatmanAK auch bist vor einigen Monaten mit geworben.
Wenn ich gewusste hätte das dieses gelogen ist und nie eintrifft hätte ich für Dich natürlich ein Sceenshot geschossen und
es für 1 jahr aufgehoben damit ich auch ja nicht vor Dir als Lügner dastehe.
Genauso hat Nvidia auf ihre Geforce.com Seite Fermi Karten als DX12 verkauft.
Genauso hat Nvidia vor 2 Jahre noch geschreiben das alle Nvidia DX11 Karten zu 100% DX12 supporten und
AMD dieses nicht leisten kann und ihre DX11 Karten nur zu 40% DX12 support werden,
und somit suggeriert Nvidia das ihre Produkte zukunftsicher sind.

Ja, dass wäre schon nicht schlecht gewesen, aber ich habe mal ein bisschen Google Yoga gemacht:

SLI in Batman AK zum Ende hin nicht eingebaut: check (Auch wenn es nicht um diese neue Behauptung ging)
http://steamcommunity.com/app/208650/discussions/0/490125737480961119/#c485622866434462346

Ich gebe von meiner Seite noch ein Bonus:
http://www.arkhamverse.com/news/wp-content/uploads/2014/09/GameWorks-Games-Batman-Arkham-Knight.jpg

Mindestens FaceWorks hat es nicht in das Spiel geschafft.
Bei Project Cars war Turbulence nicht enthalten, in AC:U fehlt der Tessellation-Patch bis Heute.
http://www.dsogaming.com/wp-content/uploads/2014/09/GameWorks-Games-Project-CARS.jpg
http://media.gamersnexus.net/images/media/2014/games/acu-tessellation.jpg

Alle DX11 GPUs DX12 fähig: check (Auch wenn es nicht um diese neue Behauptung ging)
http://image.slidesharecdn.com/driver337dxperformanceupdate-140414054819-phpapp02/95/nuevo-driver-nvidia-337-mejoras-18-638.jpg?cb=1398655165
http://de.slideshare.net/revolutioncomputer/nuevo-driver-nvidia-337-mejoras

Nvidia Werbung bezüglich Batman AK und Just Cause 3 mit DX12: Nicht check.
Schon komisch das man dazu nichts findet, wobei die Community und Presse stets fleißig solche Infos gesammelt hat.
Man findet schließlich sehr schnell, den MSI PR-Text der für DX12 Verwirrung bei Batman AK und The Witcher 3 gesorgt hat:
http://www.pcgameshardware.de/DirectX-12-Software-255525/News/Patches-Batman-Arkham-Knight-Witcher-3-1157092/

Just Cause 3 Rauch mit Tessellation auf der GDC: Nicht check.
Möchtest du vielleicht nachhelfen?

Oder du sagst mir, in welcher der drei Sessions man das gesehen hat:
http://schedule.gdconf.com/session/more-explosions-more-chaos-and-definitely-more-blowing-stuff-up-optimizations-and-new-directx-features-in-just-cause-3-presented-by-intel

Mit der PDF:
https://software.intel.com/sites/default/files/managed/20/d5/2016_GDC_Optimizations-and-DirectX-features-in-JC3_v0-92_X.pdf

Oder muss man hier suchen?
http://schedule.gdconf.com/session/technical-artist-bootcamp-honey-where-is-my-wingsuit-building-the-just-cause-3-animation-and-rigging-pipeline

Oder dort?
http://schedule.gdconf.com/session/free-reign-building-visual-effects-for-player-agency-in-just-cause-3


Hier im Microsoft DX12 Video wird Justcause3 ja auch geworben warum sollten sie es tun wenn es nicht stimmt. (https://www.youtube.com/watch?v=c4cXG8zu61Y)
Just Cause 3 + DX12 kam zuerst auf, nachdem eine Session auf der GDC damit eingetragen wurde, gesponsert von Intel.
Danach kam noch dieses Werbevideo von MS.

Davor gab es sicher keine Werbung von Nvidia bezüglich DX12.

Fakt ist Nvidia hat auf ihre Seite mit BatmanAK und Justcause3 für DX12 Features geworben,
da sich aber DX12 verschoben hatte sind wohl beide Spiele frühzeitig nur als PC-DX11 veröffentlich worden.
Wäre schon cool, wenn man Fakten nachchecken könnte.
Aber vermutlich liege ich falsch und muss dir das einfach glauben.
(Nein, ich tue es natürlich nicht)

Gipsel
2016-04-11, 10:35:57
Ich empfehle dringend, wieder zum Thema zu kommen.

Nakai
2016-04-12, 18:49:02
http://forums.anandtech.com/showpost.php?p=38158614&postcount=115

And here we go. Wenn das GCN4 ist, dann wird das alles sehr interessant.

Ailuros
2016-04-12, 18:54:20
http://forums.anandtech.com/showpost.php?p=38158614&postcount=115

And here we go. Wenn das GCN4 ist, dann wird das alles sehr interessant.

Also die Interpretation von dem Kerl im Anandforum ist fuer die Muelltonne. Hier bitte schoen mehr dazu:

https://forum.beyond3d.com/threads/amd-polaris-arctic-islands-r-4-series-speculation-rumors-and-discussion.56719/page-22

Nakai
2016-04-12, 19:06:44
Also die Interpretation von dem Kerl im Anandforum ist fuer die Muelltonne. Hier bitte schoen mehr dazu:

https://forum.beyond3d.com/threads/amd-polaris-arctic-islands-r-4-series-speculation-rumors-and-discussion.56719/page-22

Im Orginal-Patent habe ich kein Bilder gefunden. Ja, das macht generell noch nicht soviel Sinn, da GCN eine 4clk Latenz hat. Da muss eigentlich noch deutlich mehr geändert werden, was im ersten Moment nicht ersichtlich ist.
Grundsätzlich sind eher die ganzen anderen "Ideen", wie "SIMD-lane Powergating", sehr interessant. Im Grunde ist so ein Patent erstmal interessant, da es Möglichkeiten aufzeigt. Die konkrete Implementierung wird eher völlig anders aussehen.
Ein andere Problem wird es sein, die fixen Wavefrontgrößen dementsprechend anzupassen. Derzeit pro Wavefront 64 Threads, für kleinere SIMDs müsste die Latenz angepasst werden oder die Wavefront-Größe.

Ich denke Polaris wird erstmal keine großen Änderungen diesbezüglich bringen. Ich denke wir sehen immer noch 4x16 SIMDs, evtl wird die skalare ALU aufgewertet oder eine 1/2/4/8SIMD-ALU wird hinzugefügt. Wir werden sehen.

Skysnake
2016-04-12, 19:33:03
Von wann ist das Patent?

Ich würde mir gern mal wieder in den Arsch beisen kein Geld für PAtente zu haben -.-

Ailuros
2016-04-12, 19:40:55
Von wann ist das Patent?

Ich würde mir gern mal wieder in den Arsch beisen kein Geld für PAtente zu haben -.-

http://www.freepatentsonline.com/20160085551.pdf

Eingereicht in 2014, veroeffentlicht in 2016.

Skysnake
2016-04-12, 21:08:21
Danke. Ich habs mir jetzt mal ganz durchgelesen.

Da kann ich wirklich nur eins zu sagen: LOL

Das ist doch quasi eine klare Schlussfolgerung aus HSA. Pack die GPU zu nem CPU Kern dazu und lass dann freudig die Sachen hin und her wandern.

Über etwas derartiges hatte ich, wenn ich mich recht erinnere, schon 2014 wirklich hier mal gequasselt.

Allerdings habe ich das mit dem Power-Gating gerade nicht gefunden, sondern nur was bezüglich Deaktivierung von nicht gebrauchten Lanes/ALUs.

Btw. Genau darüber hatte ich bei meinem neuen Job mit so manchem Mitarbeiter schon Diskussionen, wo die mir nicht folgen wollten, das man im Prinzip gerne pro Takt die ALUs an und auch wieder aus knippst, und wenns geht sogar ganze Cores.

Muss ja nicht immer gleich Power-Gating sein. ClockGating reicht auch schon mal aus, und da ist es eher ein kleineres Problem. Und Clock-Gating lohnt sich auch. Ein moderner Chip braucht ja etwa 1/3 der Energie einfach nur für die Verteilung der Clock.

Ansonsten ist das Patent aber mal wieder ziemlich määhh...

Wenn Patente doch nur nicht so viel kosten würden, und man selbst Leute an der Hand hätte, die einem beim Formulieren sowie dem abklopfen der aktuellen Patente helfen würden. Dann könnte man im Dutzend die Patente fast schon rausballern.

EDIT:
Der Post aus dem Anandtech Forum ist mal für die Katz.

Da wurde nicht alles gelesen. Das muss nicht zwingend die reale Aufteilung sein. Das kann auch durch PowerGating erreicht werden.

Ich für meinen Teil würde aber eher die FPUs von CPU und GPU verschmelzen lassen, und die ALUs pro SIMD Unit nicht gleich aufbauen, so das man einige einfach höher Takten kann, wenn man eh weniger Threads hat. Da könnte man schon sehr coole Sachen machen.

Vielleicht sollte ich mal doch dafür mir nen Patentgeschriebsel überlegen. Aber hiermit ist das ja jetzt eh verbrannt :ugly: ;D

Ailuros
2016-04-12, 21:13:28
Patente sind immer langweilig weil der Author auch nie wirklich verrraten wird wie es in Realitaet integriert wird. Ich wuerde eher sagen dass der eigentliche Inhalt fraglich sein koennte. AMD wird wohl nicht der einzige IHV sein der daran gedacht hat auf SIMD level etwas abzuschalten; es ist aber dann wohl wieder wie MfA@B3D sagte: "every idea worth a damn, has been patented.....twice." (at least).

iuno
2016-04-12, 23:35:00
Hab hier gerade nur ein Handy und kann nicht alles nachvollziehen. Wurde extra eine uralte Forumsseite gepostet aus der dazu nichts steht?
Ich sehe da den springenden Punkt aber wie skysnake, siehe auch [0030]: man wird einzelne alus per gating abschalten können, um die simds etwa im ich nenne es mal "x8" modus laufen zu lassen. Also einfach eine Ausweitung der gating Mechanismen auf kleinere ebene.
Ging das denn bisher nicht? Geht das bei NV? Kann das Fiji womöglich schon?
Patente werden ja nicht zwingend zu einem "logischen" Zeitpunkt veröffentlicht :uhly:

Skysnake
2016-04-13, 00:45:14
Patente sind immer langweilig weil der Author auch nie wirklich verrraten wird wie es in Realitaet integriert wird. Ich wuerde eher sagen dass der eigentliche Inhalt fraglich sein koennte. AMD wird wohl nicht der einzige IHV sein der daran gedacht hat auf SIMD level etwas abzuschalten; es ist aber dann wohl wieder wie MfA@B3D sagte: "every idea worth a damn, has been patented.....twice." (at least).
Was glaubste, was ich froh bin an einer Uni zu arbeiten, und daher mich im Allgemeinen mit so etwas gar nicht mit Patenten rumschlagen muss.

Wenn ich da an die Hardwareentwicklung in der Wirtschaft denke, dann stelle ich mir das als echte Mienenfeld vor. Da kannste eigentlich keinen Schritt mehr machen, oder hoch zu gehen. -.-

PS: Hat sonst noch jemand was von diesem Kunstprojekt gelesen, das aus alten Patenten PiorArt generieren will? Die erstellen da wohl hunderttausende Texte am Tag :freak:

Ich finds lustig. Vielleicht gibt es so etwas weniger Trivialpatente. Man darf ja wohl noch Träumen dürfen :frown:

Ailuros
2016-04-13, 06:16:43
Hab hier gerade nur ein Handy und kann nicht alles nachvollziehen. Wurde extra eine uralte Forumsseite gepostet aus der dazu nichts steht?
Ich sehe da den springenden Punkt aber wie skysnake, siehe auch [0030]: man wird einzelne alus per gating abschalten können, um die simds etwa im ich nenne es mal "x8" modus laufen zu lassen. Also einfach eine Ausweitung der gating Mechanismen auf kleinere ebene.
Ging das denn bisher nicht? Geht das bei NV? Kann das Fiji womöglich schon?
Patente werden ja nicht zwingend zu einem "logischen" Zeitpunkt veröffentlicht :uhly:

Ich als Laie wuerde schaetzen dass dieses Patent fuer die heutigen Architekturen noch zu kompliziert ist um richtig anzuwenden. Ausschliessen kann man es natuerlich nicht und es ist keine schlechte Idee als Grundsatz.

iuno
2016-04-13, 08:09:07
PS: Hat sonst noch jemand was von diesem Kunstprojekt gelesen, das aus alten Patenten PiorArt generieren will? Die erstellen da wohl hunderttausende Texte am Tag :freak:

Ich finds lustig. Vielleicht gibt es so etwas weniger Trivialpatente. Man darf ja wohl noch Träumen dürfen :frown:
OT, aber egal ;p

Ja, habe davon gelesen. Finde das ehrlich gesagt ein schoenes Projekt. In erster Linie sollte es allerdings erstmal haufenweise Trivialpatente generieren, die auch noch "Sinn" ergeben. Momentan kommen da aber leider nur so Texte nach dem infinite monkey Theorem dabei raus.
Dann koennte das aktuelle System endlich mal ueberdacht/angepasst werden, sodass es ueberhaupt keine Trivialpatente mehr zulaesst.

Hübie
2016-04-13, 11:09:37
Das infinite monkey theorem wurde afaik widerlegt. ;) Wörter mit mehr als 5 Buchstaben werden auch mit unendlich vielen Affen in einer unendlich langen Zeit zu unwahrscheinlich generiert und dann müssen es ja auch noch die richtigen Wörter mit 5+ Buchstaben sein. Wer Shakespeare mal gelesen hat weiß wovon ich spreche.

Das Patent zielt also nur auf Granularität und bessere yields ab. Als Bonus dann eben via Power-Gating höhere Effizienz. Der bei anandtech dachte wohl das eine CU jetzt mit unterschiedlich vielen Einheiten daher kommt. Das stelle ich mir ziemlich schwierig vor. Einmal von der physischen Anordnung bis hin zum Scheduling. Und was ist wenn überwiegend 8+ Threads verteilt werden? Dann liegen die kleinen brach. Also macht es kaum Sinn die CUs unterschiedlich groß zu machen, sondern diese dynamisch an- und abschalten zu können.

Maxwell kann afair keine einzelnen ALUs oder ALU-Groups abschalten.

Complicated
2016-04-13, 11:39:37
Und was ist wenn überwiegend 8+ Threads verteilt werden? Dann liegen die kleinen brach. Also macht es kaum Sinn die CUs unterschiedlich groß zu machen, sondern diese dynamisch an- und abschalten zu können.
Wenn ich das richtig verstanden habe würde bei 8+ Threads eine Gruppierung der Einheiten erfolgen. 2 Scalare (in diesem Beispiel)+2ALU+4ALU+8ALU ergeben zusammen auch 16 Threads die allerdings alle Granularitäten zwischen 1-16 abdecken können wenn die Gruppen abgeschaltet werden können.

Die unterschiedlichen Größen der Gruppen wären wohl der nächste Step nach dem dynamischen abschalten der einzelnen Grupen. Dies ist sicherlich leichter zu implementieren als einzelne ALUs abschaltbar zu machen.

Ailuros
2016-04-13, 11:40:22
Maxwell kann afair keine einzelnen ALUs oder ALU-Groups abschalten.

Kommt drauf an was Du mit ALU meinst. Es wuerde mich verdammt ueberraschen wenn sie nicht auf SIMD16 oder von mir aus 2*(SIMD16)-level nicht clock und power gating anwenden koennen.

Hübie
2016-04-13, 11:57:19
Wenn ich das richtig verstanden habe würde bei 8+ Threads eine Gruppierung der Einheiten erfolgen. 2 Scalare (in diesem Beispiel)+2ALU+4ALU+8ALU ergeben zusammen auch 16 Threads die allerdings alle Granularitäten zwischen 1-16 abdecken können wenn die Gruppen abgeschaltet werden können.

Die unterschiedlichen Größen der Gruppen wären wohl der nächste Step nach dem dynamischen abschalten der einzelnen Grupen. Dies ist sicherlich leichter zu implementieren als einzelne ALUs abschaltbar zu machen.

Du kannst doch nicht einfach skalar und Vektor-ALUs zusammenzählen. Es wären also 14 Threads. Und wieso sind unterschiedlich große CU leichter zu implementieren? :confused:

Kommt drauf an was Du mit ALU meinst. Es wuerde mich verdammt ueberraschen wenn sie nicht auf SIMD16 oder von mir aus 2*(SIMD16)-level nicht clock und power gating anwenden koennen.

Damit meine ich ein einzelnen Block oder zusammengeschaltet in 2er-, 4er- oder meinetwegen 8er-Gruppen. Mit 2*16 könnte es schon realistisch werden oder vielleicht ist dem sogar so. So weit hatte ich meine Argumentation noch nicht durchdacht. :D Wie gesagt lässt man sich da nicht in die Karten schauen und es bleibt fröhliches rätselraten.

Ailuros
2016-04-13, 12:02:45
Damit meine ich ein einzelnen Block oder zusammengeschaltet in 2er-, 4er- oder meinetwegen 8er-Gruppen. Mit 2*16 könnte es schon realistisch werden oder vielleicht ist dem sogar so. So weit hatte ich meine Argumentation noch nicht durchdacht. :D Wie gesagt lässt man sich da nicht in die Karten schauen und es bleibt fröhliches rätselraten.

Und wie behandelst Du eine quad-TMU die rein zufaellig am cluster haengt?

iuno
2016-04-13, 12:20:31
Wie lange vorher weiss man denn, wie viele Threads gleichzeitig ausgefuehrt werden koennen?
Ich frage mich gerade, ob es ueberhaupt realistisch ist, die einzelnen ALUs noch lohnend abzuschalten, wenn die Instruktion eben erst reinkommt. Vielleicht werden eher SIMDs laengerfristig mit weniger ALUs laufen und die Threads dann entsprechend auf verschieden breite SIMDs gemappt (Ablauf sieht man ja in Fig. 6; und 5B dass es verschiedene Thread Pools gibt)? Also eine Mischung aus verschieden "grossen" SIMDs (die eben eine Weile lang in dem Modus laufen, nicht nur fuer 1 issue) und "einfachem" Gating je nach Threadanzahl

marc-05
2016-04-13, 12:42:50
Bisher war es ja so das die Radeon schon mehr Bandbreite brauchten um an die Leistung der Konkurrenz zu erreichen.Ob as Problem man bei Polaris das Problem in den Griff bekommt wird sich zeigen vorallem die kleine 11er mit ihren 128Bit SI.

Complicated
2016-04-13, 12:45:22
Nicht unterschiedlich große CUs. Eine CU ist ja heute 4x16 SIMD. Unterschiedlich große SIMD-Gruppen für eine CU. Auch eine skalare Recheneinheit steuert Threads zur Wavefront bei. Was nützt eine Scalar Unit die keine Threads abarbeitet? Die Aufgaben sind andere, doch Instruktionen müssen dennoch verarbeitet werden.

Ich meinte es sei leichter unterschiedlich große SIMD-Gruppen dynamisch ein- und auszuschalten als einzelne ALUs in einer Gruppe. Gruppiert man anstatt 4x16 +1 Scalar für eine CU eben 1x2, 1x4, 1x8 + 2 Scalar. Bzgl. dem zusmmenzählen der Units war das spekukliert auf der Basis dieses Papers, welches hier im Thread ja schon verlinkit wurde: http://people.engr.ncsu.edu/hzhou/ipdps14.pdf
The most related solution is the AMD GCN architecture, in which the scalar unit and the SIMT unit share the same instruction stream and the compiler is responsible to identify the scalar operations. Although compiler algorithms [27] have been proposed to
find more scalar operations, the capability of the scalar unit is still limited because of the shared instruction stream with the SIMT unit. Furthermore, our proposed architecture also
has the flexibility to be configured as a GCN processor.

X. Conclusions

In this paper, we propose to extend the scalar unit in the recent GCN architecture such that it can either share the instruction stream with the SIMT unit or have its own instruction stream. The programming model of our proposed architecture is extended from current GPGPU programming model. We present three collaborative execution paradigms to show the benefits of our proposed architecture and programming model. First, we use scalar units to prefetch data for SIMT units. Second, we use scalar units to eliminate control divergence at runtime. Third, the scalar workloads of SIMT/vector programs are exacted and distributed to scalar units. Our experimental results show that our proposed solutions achieve significant performance gains at the cost of low instruction execution overhead from scalar units. We also demonstrate that the scalar kernel can be automatically generated using our proposed compiler algorithms, thereby not increasing the programming complexity

Skysnake
2016-04-13, 13:27:00
wenn du aber so viele unabhaengige ALUs haben willst, dann geht das ziemlich auf den Verwaltungsoverhead.

Wenn dann macht so ein System wie bei den CPUs Sinn.

Gipsel
2016-04-13, 13:46:09
Wie lange vorher weiss man denn, wie viele Threads gleichzeitig ausgefuehrt werden koennen?
Ich frage mich gerade, ob es ueberhaupt realistisch ist, die einzelnen ALUs noch lohnend abzuschalten, wenn die Instruktion eben erst reinkommt. Vielleicht werden eher SIMDs laengerfristig mit weniger ALUs laufen und die Threads dann entsprechend auf verschieden breite SIMDs gemappt (Ablauf sieht man ja in Fig. 6; und 5B dass es verschiedene Thread Pools gibt)? Also eine Mischung aus verschieden "grossen" SIMDs (die eben eine Weile lang in dem Modus laufen, nicht nur fuer 1 issue) und "einfachem" Gating je nach ThreadanzahlWenn es dynamisch sein soll im Prinzip nur wenige Takte vorher. Die Execution Mask (die steuert, welche Lane aktiv ist) ist ja im Prinzip nur ein spezielles Skalarregister, welches im Shaderprogramm beliebig gesetzt werden kann (oder automatisch z.B. bei Vergleichen und anschliessenden Branches gesetzt wird). Da ist vermutlich nur clock gating halbwegs effizient. Dauerhaft groessere Teile zu powergaten bzw. auf kleinere SIMD-Einheiten zu mappen erscheint mir nur sinnvoll, wenn z.B. der Programmierer entsprechende Hints im Code hinterlaesst (den Code beispielsweise als sehr divergent branchend flagged bzw. sehr kleine thread-/workgroups definiert).

Nicht unterschiedlich große CUs. Eine CU ist ja heute 4x16 SIMD. Unterschiedlich große SIMD-Gruppen für eine CU. Auch eine skalare Recheneinheit steuert Threads zur Wavefront bei. Was nützt eine Scalar Unit die keine Threads abarbeitet? Die Aufgaben sind andere, doch Instruktionen müssen dennoch verarbeitet werden.Genau, die Aufgaben der Skalareinheit sind andere. Workitems ("Threads", der Thread ist eigentlich eher die komplette Wavefront, aber egal) wird man nur hoechst ungern zwischen SIMD-Einheiten unterschiedlicher Groesse (oder ueberhaupt) migrieren. Das verursacht mit den ganzen Registerzugriffen nur einen gehoerigen Aufwand. Deswegen ergeben Register und Ausfuehrungseinheiten typischerweise auch eine feste Einheit und ein Workitem ist auch fest an eine ALU gepinnt. Das minimiert Latenzen und Stromverbrauch. Und genau deswegen hat die Skalareinheit auch ein eigenes Registerfile (als Optimierung koennen darauf zwar auch die Vektoreinheiten zugreifen, aber das ist eben nur fuer die Flexibilitaet und kostet teilweise auch zusaetzliche Latenz) und erledigt andere Aufgaben (z.B. den Controlflow fuer die komplette Wavefront, das Numbercrunching laeuft dann auf den Vektoreinheiten).
Ich meinte es sei leichter unterschiedlich große SIMD-Gruppen dynamisch ein- und auszuschalten als einzelne ALUs in einer Gruppe.Nicht wenn Du Wavefronts dynamisch zwischen diesen verschiedenen Vektoreinheiten migrieren willst.

Und zu dem Paper und dem "Nachteil" des geteilten Instruktionsstreams fuer skalare und Vektoroperationen: Das ist in meinen Augen nicht wirklich stichhaltig, wenn man dem Programmierer die Moeglichkeit geben wuerde, das wie einen Vektorrechner anzusprechen (wovon sich GCN etliche Konzepte geborgt hat). Dann wird das naemlich zum Vorteil (Performance + Flexibilitaet), wenn man explizit den Skalar- und Vektorteil definieren kann. Und das gibt es ja schon Alles, Vektorrechner gab es schon vor Jahrzehnten (und nach dem Lesen eines guten Buches ueber Rechnerarchitektur sollte man das kapieren) und jeder der mit SIMD-Intrinsics auf dem PC gearbeitet hat, ist im Prinzip ebenfalls bereits halbwegs vertraut mit einigen Grundlagen des Konzepts.

Skysnake
2016-04-14, 09:22:07
/sing

Und in OpenCL könnte man einfach skalare und vector Types mischen um genau dieses Verhalten zu erreichen ;)

Ansonsten muss ich dir nochmals nachdrücklich zustimmen. Wenn man im Instruktionscode ALUs ausknipsen will, dann macht das nur mit ClockGAting Sinn, und wie du schon sagtest mit den Maskregistern hat man da auch quasi schon alle Information parat. Man kann ja wirklich von Takt zu Takt die Clock an und wieder aus machen. Ich seh da kein Problem drin, wenn man CMOS-Clocks hat, was man dort haben wird. Bei CML-Clocks sieht das anders aus, aber innerhalb der ALUs wird man eh CMOS Clocks haben. Von daher kein Problem.

Wo das PowerGating aber Sinn macht ist, wenn man weiß, das z.B. eine Applikation eben zu wenig Parallelität hat. Bei Games über den Treiber z.B. das man alte Games eben auf schmäleren oder weniger CUs laufen lässt.

Und bei OpenCL könnte man das ja ohne Probleme über die Kernel-Argumente machen.

Es wäre halt sehr viel Flexibler und man bekäme eventuell einen "Turbo" für schlechten Code.

Ich seh da aber wie du auch den Programmierer in der Pflicht.

PS: Vektorrechner gibt es auch heute noch, wenn auch wenige. Bin aktuell gerade dabei mit einem rum zu spielen :D

Hübie
2016-04-14, 10:10:26
Wo liegt der unterschied zwischen CML- und CMOS-Clocks? :redface: Afair ist das Anschwingen nach wie vor ein Problem in ASICs. Also auch trivial.
Power-Gating entsprechend um ein vielfaches komplexer (auch in Hinblick auf den Kompromiss des Platzbedarfs). Auf welcher Ebene das also Sinn macht könnte ich allerhöchsten einschätzen, aber nicht logisch untermauern. Zumindest sollte jedoch jede CU powergating können.

Skysnake
2016-04-14, 10:18:10
CML= Current Mode Logik (https://de.wikipedia.org/wiki/Current_Mode_Logic) (Und CML hat einen CM Common Mode, daher entfällt mir meist das Current in CML ;D)

CMOS-Logik (https://de.wikipedia.org/wiki/Complementary_metal-oxide-semiconductor)= Complementary metal-oxide-semiconductor-Ligik (Also einfach Schaltungen aus N und PMOS, bei denen nur beim Umschalten der Zustände Strom fliest.)

Die Clockbuffer sind einfach immer Inverter. Mehr ist das nicht. Bei CML ist es halt der invertierende Verstärker, und bei CMOS an sich einfach der Inverter. Im Prinzip unterscheiden Sie sich halt nur in den Pegeln und darin, das bei CML quasi immer ein konstanter Strom fließt, und bei CMOS nur wenn du umschaltest.

Nakai
2016-04-14, 14:24:11
Ich würde dieses Patent nicht für voll nehmen. Wir werden immer noch 64er Wavefronts sehen. Eventuell ist der GCP auf andere Wavefront-Größen angepasst, was ich nicht denke. Kurz, es werden wohl wieder 64SPs pro CUs, evtl ist Organisation anders, aber 4 SIMD16 sehe ich als alternativ los an. Ich denke die skalare Einheit wird erweitert bzw eine skalare Einheit wird hinzugefügt, welche dann deutlich mehr kann.

Complicated
2016-04-14, 15:35:21
Baffin bietet wohl etwas neues:
http://www.planet3dnow.de/cms/23084-polaris-mit-bis-zu-1154-mhz-und-neuer-stromsparfunktion/
Weiterhin wird Baffin wohl bis zu 5 Displays und Ellesmere derer 6 ansteuern können. In einem weiteren Beitrag schreibt Alex Deucher etwas zu einem neuen Stromsparmechanismus, welcher erstmal nur für Baffin zur Verfügung steht. Wie es aussieht bietet AMD bei der neuen GCN-Generation Powergating für einzelne CUs (Compute Units), welche mehrere Shader bündeln.

iuno
2016-04-14, 15:49:05
Das hatten wir hier schon lange, z.B. da: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10982320&highlight=per+power+gating#post10982320

Kurz, es werden wohl wieder 64SPs pro CUs, evtl ist Organisation anders, aber 4 SIMD16 sehe ich als alternativlos an.
nochmal :rolleyes:
SIMD units 406, 412, and 418 may initially have the same width (e.g., each being an eight thread wide SIMD unit) but may be configured (on a demand basis) to deactivate (e.g., through gating mechanisms, disabling, powering off, etc.) to have different widths (e.g., a two thread wide, a four thread wide, and an eight thread wide SIMD unit, as described above, by deactivating, six, four, and zero, respectively, pipes or ALUs in each unit).

Nakai
2016-04-14, 15:50:24
Naja das steht alles im Treiber und ist nichts neues. Ebenso wird auch Ellesmere diesbezüglich Funktionalitäten bringen. Der Treiber unterscheidet noch nicht so sehr zwischen P10 und P11.

Andere Frage: Womöglich hat Polaris andere SIMD Organisation welche wieder auf 64 SPs hinausläuft. Jedoch statt 4 Simd16 eher 8 Simd8 wobei immer zwei Simd8 auf eine Registerfile zugreifen kann und damit wie eine Simd16 agieren kann oder eben als 2 Simd8. Andere Konfigurationen sind natürlich auch möglich.

Complicated
2016-04-14, 15:50:26
Ups übersehen...

N0Thing
2016-04-14, 15:51:02
Was auch interessant ist, falls zutreffend:


Gleiches gilt für den angegebenen Maximaltakt von 1154 MHz, der für beide Chips gelten soll.


Damit würde AMD wohl einen anderen Schwerpunkt setzen als Nvidia, also eher auf Packdichte und mehr Recheneinheiten.
Da aber der Speichertakt von 6000MHz wohl noch ein Platzhalter ist, wird man weiterhin abwarten müssen.

Nakai
2016-04-14, 15:52:04
Wie war das bei gddr5x als gddr5 und 6ghz speichertakt?

iuno
2016-04-14, 15:56:06
Leute :rolleyes:
Die Taktraten hatten wir auch schon.

Hatten wir schon, wobei das auch nur dummy Werte sind. Habe jetzt nicht naher geschaut, aber die richtigen Raten mit der voltage table usw. stehen natuerlich im vbios. Der Code steuert die Hardware nicht, zumal das ja im DAL steht und nicht im drm. Muss aber schon wieder los
Carrizo steht auch dabei. Da steht z.B. 1600 MHz dabei, aber iirc geht mit Carrizo ja auch mindestens DDR3-1866

https://cgit.freedesktop.org/cgit/?url=~agd5f/linux/tree/drivers/gpu/drm/amd/dal/dc/calcs/bandwidth_calcs.c&h=drm-next-4.7-wip-dal#n3624
nachtraegliche Bestaetigung fuer Carrizo mit 1866: s.85 (http://support.amd.com/TechDocs/50742_15h_Models_60h-6Fh_BKDG.pdf#page=85)
Davon ab ist die Aussage bei p3dn Unsinn.
Einen solchen Takt erreichen aktuelle Speichermodule nicht, auch nicht die der kommenden GDDR5X-Generation
Dort geht es um das Errechnen der Bandbreite, also wird halt der effektive Takt angegeben, who cares :confused:
Aendert aber ohnehin nichts daran, dass das rein gar nichts mit den letztendlichen Taktraten zu tun haben muss.

OgrEGT
2016-04-15, 06:39:44
Hmm...
https://www.chiphell.com/thread-1567047-1-1.html

horn 12
2016-04-15, 06:46:28
ALT - Von gestern
Bereits gepostet :-)

Ailuros
2016-04-15, 06:55:53
nochmal :rolleyes:

Entschuldige aber ich stehe mal wieder auf dem Schlauch: was hat Nakai's Schaetzung dass es wohl wieder 4*SIMD16/CU sein werden genau zu tun mit dem Absatz die Du gequotet hast? :confused:

Hübie
2016-04-15, 08:20:02
An der Differenz sieht man doch dass es 8 ALUs in einer Organisation sind. 6, 4 und 0 werden im o.g. Szenario deaktiviert. 2, 4 und 8 werden geplant.

iuno
2016-04-15, 08:45:29
Entschuldige aber ich stehe mal wieder auf dem Schlauch: was hat Nakai's Schaetzung dass es wohl wieder 4*SIMD16/CU sein werden genau zu tun mit dem Absatz die Du gequotet hast? :confused:
Sollte nur ein kleine Erinnerung sein, dass es offenbar um Dynamik geht und nicht um eine grundsaetzliche Strukturaenderung. Er hat damit ja quasi die ganze Diskussion fuer "ungueltig" erklaert.
Ich würde dieses Patent nicht für voll nehmen.
Laut dem Abschnitt ist es ja absolut moeglich, die Struktur mit 4*16 beizubehalten, die Idee aber trotzdem umzusetzen.
An der Differenz sieht man doch dass es 8 ALUs in einer Organisation sind. 6, 4 und 0 werden im o.g. Szenario deaktiviert. 2, 4 und 8 werden geplant.
Sind doch nur Beispiele. In jedem Satz steht gefuehlt 6x "e.g.", 4x "may" und 0x "is" ;p

edit: http://vrworld.com/2016/04/13/amd-polaris-10-gpu-beat-competing-pascal/
Achtung ;) : Kein besonders wertvoller Beitrag. Angeblich Infos zugespielt ueber P10 Samples mit 36 CUs, je nach Partner 800/1250 bis 1050/1500 MHz...

HOT
2016-04-15, 10:30:18
Aber wahrscheinlich als salvage-Variante. Die hätte dann 36CUs bei 1050MHz und 6Gbps-GDDR5. 800MHz mit 5Gbps-GDDR5 war wohl die Sample-Karte, ähnlich der, mit der letztes Jahr die P11 vorgestellt wurde. Sollte in etwa bei der 290 non-X liegen.

So wie P10 momentan spekuliert wird, mit 40CUs+1154MHz und wahrscheinlich 7 oder 8Gbps GDDR5-RAM, hat er exakt dieselbe Rechenpower wie HawaiiXT (also 390X). Das auf einem 232mm²-Chip und TDP wahrscheinlich <125W sollte klar sein, dass sich AMD auf Packdichte konzentriert hat. Hohe Takte sind also immer noch nicht zu erwarten.
Sollte P11 tatsächlich 1280 SPs haben ist das ein ganz schön großes Loch zwischen P11 und P10. Mal sehen, wie das gelöst ist. Vllt. hat P11 auch gar nicht 20CUs sondern 22, das würde rein rechnerisch deutlich besser passen. Die salvage-Variante könnte ja immer noch auf 16CUs gedrosselt sein, damit wär dann auch bei gleichen Takten (wahrscheinlich alle so um 1150MHz, niedriger getaktete Varianten sind dann alle mobil) genug Abstand zwischen den Varianten.

Botcruscher
2016-04-15, 11:15:23
37% Abfall sind dann doch etwas viel. :rolleyes:

aim.star
2016-04-15, 13:25:12
Habe ich hier noch nicht gesehn:
https://benchlife.info/computex-2016-pre-show-with-amd-arm-intel-nvidia-04142016/
就現在已經知道的資訊,Computex 公佈的 Polaris 會有 Baffin 以及 Ellesmere,而沒有意外的話,Baffin 是 Radeon R9 470,而 Ellesmere 則是 Radeon R9 480 系列。可靠消息提到,Baffin 功耗低於 50W,而 Ellesmere 則是高於 100W,在 110 ~ 135W 左右,因此兩個系列顯示卡並不屬於高階產品。Google translate: It is now known that information, Computex published Polaris will Baffin and Ellesmere, but no accident, then, Baffin is the Radeon R9 470, and Ellesmere is the Radeon R9 480 series. Reliable sources mentioned, Baffin consumes less than 50W, and Ellesmere is higher than 100W, about 110 ~ 135W, so the two series graphics cards do not belong to high-end products.

Sunrise
2016-04-15, 13:48:38
Habe ich hier noch nicht gesehn:
https://benchlife.info/computex-2016-pre-show-with-amd-arm-intel-nvidia-04142016/
Klingt realistisch, beides ersetzt stark veraltete GPUs, macht sie deutlich sparsamer, schneller, erneuern das Featureset, damit OEMs (Notebooks) und PCs kostengünstig aktualisiert werden können.

Blediator16
2016-04-15, 15:32:43
110 bis 135w müsste 390x Bereich sein.

iuno
2016-04-15, 15:44:31
Mal schauen. Hoffentlich kommt dann auch der grosse Chip bald in Notebooks, damit AMD dort auch mal wieder stark aufgestellt ist. Das ist gerade so etwa der Bereich, den mobile GPUs maximal verbrauchen duerfen. Momentan steht da ein gedrosselter Tonga einem GM204 chancenlos gegenueber. Dann haette man wenigstens im "mobilen high-end" was anzubieten.
Und dann kommt Vega hoffentlich noch dieses Jahr

Das auf einem 232mm²-Chip und TDP wahrscheinlich <125W sollte klar sein, dass sich AMD auf Packdichte konzentriert hat. Hohe Takte sind also immer noch nicht zu erwarten.
Gut, das kann aber moeglicherweise auch durch 14 LPP bedingt sein. Muss kein riesen Problem sein, so faehrt man halt wie bisher mit "breiteren" Chips. Dann wuerde ich aber hoffen, dass sich die vergleichsweise kleinen dies auch im Preis wiederspiegeln, sodass man auf Marktanteil gehen kann.
Premiumpreise fuers Image (:ugly:) kann man dann vielleicht bei Vega wieder fahren...

Agent117
2016-04-15, 17:38:07
Vega kommt hoffentlich noch wenigstens zum Weihnachtsgeschäft. Ich weiß ja nicht wie AMDs ursprüngliche Planung aussah aber glaube kaum dass man vorhatte Nvidia erneut ein halbes Jahr leistungsmäßig hinterherzurennen, attraktivere Preise hin oder her. Ich weiß auch nicht ob Greenland = Vega (kleinerer Vega) ist. Greenland wurde siw schon vor P10 und 11 begonnen zu entwickeln.

Der jetzige Plan funktioniert nur, wenn P10 und 11 wirklich sehr effizient werden mit Vorteil in Perf/W zu Nvidia, P10 GP104 Salvage angreifen kann und in Notebooks aufgrund besserer Perf/W als Nvidia deutlich attraktiver als die jetzige Generation sind.

Was die Taktraten angeht würde ich ausgehend von GP100 nicht darauf schließen dass die Consumer Chips genauso hoch oder höher takten.
Bei Tesla P100 ging es darum möglichst viel Rechenleistung für die übliche TDP von max 300W zu bieten.
Aus Platzgründen konnte man aber nur max. 3840SP unterbringen und diese dann hoch takten. Man hat ja auch weiterhin fette dezidierte DP-Units.
Bin mal gespannt wie gut sich die P100 übertakten lässt.
Polaris scheint aber ja mit 1150Mhz auch ganz gut darzustehen verglichen mit Tonga

Herr Doktor Klöbner
2016-04-15, 18:07:51
Da ich eh immer in der 200-250,- € Klasse kaufe ist für mich der Polaris 10 eh sehr viel interessanter als der GP104.

Aus dem bisherigen Marktverhalten von nVidia würde ich die maximalst drummdreiste Abzocke erwarten: Einstiegsvariante mit 6 GB an einem 192 Bit SI, reichlich Rechenwerke deaktiviert, macht 300,- Euronen. 400,- für einen GTX 970 Nachfolger mit 256 Bit SI, immer noch kein Vollausbau und für die Beste Variante gerne 500-550,- €, alles andere würde mich bei nVidia sehr überraschen, in meinem Preissegment gibt es dann wahrscheinlich einen popligen GTX 960 Nachfolger in Form eines halbierten GP 104 Chips mit 4 Gigabyte, den können sie gerne behalten.

Ein Polaris 10 als R390 Nachfolger, also teildeaktiviert, 130 Watt TDP 8 Gigabyte, R390-R390X Leistung, mit der Option 10-20% Mehrleistung durch übertakten zu generieren für 250,- € am besten von Saphire mit leisem Kühler: Das wäre meine nächste Grafikkarte.

Disco_STFU
2016-04-15, 18:54:26
110 bis 135w müsste 390x Bereich sein.

Argh viel effizienter wird Nvidia in dem Bereich doch auch nicht arbeiten können oder?

Zumindest wirds 80 Watt weniger bei gleicher Performance wohl nicht mehr geben, sonst fängt Pascal noch irgendwann an Strom zu erzeugen. ;D

fondness
2016-04-15, 18:57:03
Laut VR-World:

Polaris 10 GPU “67DF:C4” Specifications

14nm FinFET, GlobalFoundries
Diffused in USA (New York state)
Assembled in Taiwan
2304 Cores (silicon: 2560)
36 Enabled Core Clusters (silicon: 40)
New GPU Architecture (not GCN “1.5”)
256-bit Memory Controller
8GB GDDR5/GDDR5X (when available)


Plus:

Depending on the sample, the memory is clocked at 1.25-1.50 GHz QDR (5000-6000 MHz), which the 256-bit memory bus converts to 160-192 GB/s. This however, probably won’t be the final shipping clock. Memory is estimated to reach as high as 1.75-2.0 GHz QDR stock (224-256 GB/s), which should boost the performance nicely, enabling the card to replace the old 512-bit Hawaii and Tonga GPUs. These new cards should to the market as Radeon R9 400 Series cards, even though we’re starting to hear that Radeon Pro Duo is just the beginning for the renaming of the whole product stack, which should be more in tune with the consumers.

According to sources in the know, GlobalFoundries really “kicked butt” with the switch to 14nm FinFET process, and the initial cautious approach to the new process node and transistor design turned out to be unnecessary. Today, AMD is tuning clocks above 1.05 GHz, and the final configuration might be as high as 1.15 GHz for the stock clock.

It is expected that AMD will launch its Polaris-based family of GPUs on Computex 2016 (May 31-June 4) or E3 2016 (June 14-17), in a repeat of last year’s dual launch.

http://vrworld.com/2016/04/13/amd-polaris-10-gpu-beat-competing-pascal/

dildo4u
2016-04-15, 18:58:47
Argh viel effizienter wird Nvidia in dem Bereich doch auch nicht arbeiten können oder?

Zumindest wirds 80 Watt weniger bei gleicher Performance wohl nicht mehr geben, sonst fängt Pascal noch irgendwann an Strom zu erzeugen. ;D
NV sollte deutlich effizienter sein eine 980 kommt schon mit 165 Watt aus,ein Gewinn von 30 Watt durch 16nm wäre lächerlich.

Disco_STFU
2016-04-15, 19:05:08
Huch ich dachte Polaris kommt in 16nm von TSMC? :confused:

fondness
2016-04-15, 19:05:32
NV sollte deutlich effizienter sein eine 980 kommt schon mit 165 Watt aus,ein Gewinn von 30 Watt durch 16nm wäre lächerlich.

Eine 980 mit 165W reißt auch keine Bäume mehr aus. Die ganzen OC-Modelle schlucken schnell mal 200W oder mehr und die werden teilweise von einer 390X gebügelt. Wenn Polaris10 >390X Leistung bei ~120W liefert wäre das absolut im zu erwartenden Bereich und IMO auch konkurrenzfähig, NV wird mit Pascal hier laut den eigenen Roadmaps nicht viel zusätzliche Perf/Watt vs. Maxwell liefern.

Huch ich dachte Polaris kommt in 16nm von TSMC? :confused:

Nein, GF ist bestätigt.

/Edit: Es sind bereits Notebooks mit Polaris 11 im Umlauf:
http://laptopmedia.com/highlights/an-early-sample-of-amd-radeon-polaris-10-is-in-our-office-and-heres-what-to-expect/

dildo4u
2016-04-15, 19:12:54
Eine 980 mit 165W reißt auch keine Bäume mehr aus. Die ganzen OC-Modelle schlucken schnell mal 200W oder mehr und die werden teilweise von einer 390X gebügelt. Wenn Polaris10 >390X Leistung bei ~120W liefert wäre das absolut im zu erwartenden Bereich und IMO auch konkurrenzfähig, NV wird mit Pascal hier laut den eigenen Roadmaps nicht viel zusätzliche Perf/Watt vs. Maxwell liefern.

Bei manchen Games können die 8GB der 390X schon gegen die 980 helfen,das Problem hat Pascal nicht mehr.Würde mich wundern wenn Pascal mit 980 Leistung über 100 Watt geht.

maguumo
2016-04-15, 19:30:49
Mit der Leistung welcher 980? Eine die bei 165W voll ins Power Limit rennt oder einer die schlucken darf was sie will?

Gipsel
2016-04-15, 20:31:53
Laut VR-World:

Polaris 10 GPU “67DF:C4” Specifications

14nm FinFET, GlobalFoundries
Diffused in USA (New York state)
Assembled in Taiwan
2304 Cores (silicon: 2560)
36 Enabled Core Clusters (silicon: 40)
New GPU Architecture (not GCN “1.5”)
256-bit Memory Controller
8GB GDDR5/GDDR5X (when available)
Ja, nicht GCN1.5, sondern "4th Generation GCN".
Was die da schon wieder schreiben :rolleyes:.

Ailuros
2016-04-15, 20:46:30
Mit der Leistung welcher 980? Eine die bei 165W voll ins Power Limit rennt oder einer die schlucken darf was sie will?

So lange die vendor uebertakteten SKUs nicht den board form factor ueberkreuzen ist es auch kein wirkliches Problem (gilt fuer alle IHVs). Haben die meisten bestimmt schon gesehen:

http://www.evga.com/Products/Product.aspx?pn=04G-P4-2983-KR

Wobei die top SKU eigentlich total Irrsinn ist wenn man fast 70% mehr Strom verbrauch fuer ~16% hoehere Leistung. Sonst liegt die groesste Pascal GP104 SKU die die Ti end Juni ersetzen soll eben nicht bei dem max default Verbrauch von 250W einer 980Ti. AMD wird zwar nicht so hoch anschlagen koennen so frueh, aber man kann schon spekulieren wo die zwei kleineren SKUs in etwa liegen werden. <100W max power ist zwar IMHO eine sinnlose Uebertreibung, aber da ich stets gerne auf dem Teppich bleibe erwarte ich von der groessten Polaris natuerlich auch nicht so wenig.

horn 12
2016-04-15, 20:58:53
Etwa zwischen R9 390X und Fury, mit OC von Polaris sollte Fury X wohl in etwa möglich sein.
Mit 1300 Mhz sollte POLARIS 10 bereits mit 1070 GTYX mithalten können.

Der_Korken
2016-04-15, 21:00:54
36 von 40 CUs aktiviert, 7-8Gbps GDDR5. Das klingt ja wirklich so, als ob AMD das "Top-Modell" noch etwas zurückhält bis GDDR5X verfügbar ist und vorerst nur eine "480 non-X" launcht. In Kombination mit 10Gbps GDDR5X, den restlichen CUs und vielleicht etwas mehr Takt, kann die "480X" sicher nochmal 15% drauflegen.

Ich hoffe AMD konnte die Effizienz pro SP spürbar steigern, denn sonst wird man Probleme haben überhaupt die 390 zu schlagen. Eigentlich schon etwas underwhelming, wenn man überlegt, dass Nvidia mit dem GP104 sicherlich nochmal deutlich an Effizienz und Leistung gegenüber GM204 zulegen wird.

Agent117
2016-04-15, 21:31:56
36 von 40 CUs aktiviert, 7-8Gbps GDDR5. Das klingt ja wirklich so, als ob AMD das "Top-Modell" noch etwas zurückhält bis GDDR5X verfügbar ist und vorerst nur eine "480 non-X" launcht. In Kombination mit 10Gbps GDDR5X, den restlichen CUs und vielleicht etwas mehr Takt, kann die "480X" sicher nochmal 15% drauflegen.


Ob man GDR5 und GDR5X sinnvoll kombinieren kann bei Polaris 10 hängt auch etwas vom Speichercontroller ab. Bisher war bei AMDs "Standardinterface" (z.B. auf Hawaii, Tonga, Pitcairn) immer bei 6Ghz Schluss.
Das entspräche dann bei GDR5X mit Quad Data Rate effektiven 12Ghz ohne dass sich der Takt der Datenübertragung zwischen SI und Speicherchip ändert.
Allerdings müssen im QDR Mode pro Takt 4 Werte übermittelt werden. Eventuell erfordert das eine bessere Signalqualität und Änderungen am Controller. So könnte es sein dass, sagen wir Polaris 10 schafft 12 Ghz effektiv im QDR Mode mit GDR5X, er dann im DDR Mode mit GDR5 immerhin noch z.B. 8Ghz und nicht nur 6 Ghz erreicht. Dann würde eine gemischte Bestückung zwischen XT und Pro ggf. bei mangelnder Verfügbarkeit Sinn machen.
Andernfalls wäre der Bandbreitenunterschied zu groß.

Edit: Auffallend in dem Zusammenhabg ist auch dass die bisher spezifizierten GDR5X Chips sich nur im QDR Mode hinsichtlich der maximal möglichen Taktrate unterscheiden; im DDR Mode jedoch nicht. Das hat zwar erstmal mit dem SI der GPU nichts zu tun, als mögliche Ursache käme jedoch die Datenübertragung zur GPU in Frage. Oder kann auch der verdoppelte Prefetch im QDR Mode die Taktbarkeit verringern?

dargo
2016-04-15, 21:53:35
Laut VR-World:

Polaris 10 GPU “67DF:C4” Specifications

14nm FinFET, GlobalFoundries
Diffused in USA (New York state)
Assembled in Taiwan
2304 Cores (silicon: 2560)
36 Enabled Core Clusters (silicon: 40)
New GPU Architecture (not GCN “1.5”)
256-bit Memory Controller
8GB GDDR5/GDDR5X (when available)


Ich verstehe die Daten nicht so ganz. Kommt da erst eine 480 non X mit GDDR5 und später 480X mit GDDR5X wenn verfügbar? Was ist mit dem Speichercontroller? Sind beide zu einander kompatibel? Kann ich mir kaum vorstellen.

w0mbat
2016-04-15, 22:20:47
Ja, sind zueinander kompatibel.

Screemer
2016-04-15, 22:57:51
Nur wenn der Speichercontroller auch fur gddr5x ausgelegt ist. Ein Standard gddr5 Controller ist nicht mit gddr5x verwendbar. Andersherum schon. Gipsel hat das vor ein paar Seiten mal ausgeführt, was sich da alles ändern muss.

y33H@
2016-04-15, 23:04:16
Wobei GDDR5X ein anderes Platinen-Design braucht, das noch als Anmerkung.

horn 12
2016-04-15, 23:21:38
Gut möglich dass Polaris Full mit GDDR5X erst in den Markt gelassen wird sobald der X- Speicher relativ gut verfügbar und jener als Fury - X Ersatz kommt und dann Ende des Jahres 2016 Vega mit 30% über Fury X entlassen werden wird und der TOP Dog kommt erst Frühling/ Sommer 2017.

Polaris 40 CU´s mit 1200+ bis 1300 Mhz und 8GB GDDR5-X sollte gut was reißen können...
Wohl die Taktik bei AMD diesmal ganze 3 Karten zu releasen und Ailuros hatte somit wohl komplett Recht mit zuerst Salvage zu bringen.

Sunrise
2016-04-16, 01:29:25
36 von 40 CUs aktiviert, 7-8Gbps GDDR5. Das klingt ja wirklich so, als ob AMD das "Top-Modell" noch etwas zurückhält bis GDDR5X verfügbar ist und vorerst nur eine "480 non-X" launcht. In Kombination mit 10Gbps GDDR5X, den restlichen CUs und vielleicht etwas mehr Takt, kann die "480X" sicher nochmal 15% drauflegen.

Ich hoffe AMD konnte die Effizienz pro SP spürbar steigern, denn sonst wird man Probleme haben überhaupt die 390 zu schlagen. Eigentlich schon etwas underwhelming, wenn man überlegt, dass Nvidia mit dem GP104 sicherlich nochmal deutlich an Effizienz und Leistung gegenüber GM204 zulegen wird.
Da wird man reale Vergleiche abwarten müssen.

Wenn AMD tatsächlich nur zwischen 800MHz (Polaris 11 - 50W TDP) und 1050MHz (Polaris 10 - 100 bis 130W TDP) taktet, dann muss sich entweder ein enorm verbesserter Leistung/W-Wert einstellen und/oder auch brutal niedrige TDP relativ zu bisherigen GCN-Ablegern. Denn was AMD scheinbar eingebaut hat sind pro CU Mechanismen, die zusätzlich zu 14nm (doppelte Perf/W ggü. 28nm laut AMD) nochmal stark am Verbrauch drehen, sobald die Einheiten nicht ausgelastet werden müssen. Daher wohl auch die 2.5X-Angabe bei Polaris. Alles konservativer ausgelegt, mit etwas Spielraum nach oben *1.

NV setzt einfach weiter oben an, wo wohl nur Vega konkurrieren wird können. Solange AMD da aber ein sehr gutes TDP-Leistung-Preis-Verhältnis liefert, ist das eine sehr gute Basis für den/die großen Chips, denn die kann AMD dann ja skalieren wie sie lustig sind. Was Polaris an Effizienz zulegt lässt sich sicher sehr gut auf Vega übertragen. Und wenn dann ein 64CU-Chip noch unter 200W (absolut, nicht wie die Fury nano) liegen könnte, kann man sich vorstellen, dass sowas doch ganz "nett" aussehen könnte.

Momentan ist eher die Frage, ob AMD bei der Anzahl der CUs und dem schmalen Interface nicht komplett speicherlimitiert wird. Dafür bräuchte man auch min. DCC auf Maxwell-Level, wenn nicht besser, da wohl bei AMD konservativer getaktete Module verwendet werden dürften.

Schlechter als jetzt kann es jedenfalls nicht werden, da AMD über der 390X wohl kaum mehr nenneswert verkauft. Solange man mal an die Fury rankommt bei nochmal deutlich verringerter TDP und 8GB VRAM ist das optimal, auch für AMDs Geldbeutel. Das sind die GPUs die mehrheitlich verlangt und gekauft werden, ab DX12 sowieso.

*1 Jedenfalls besser als wie bisher oft am Limit zu liefern, das gefällt weder den Partnern noch den Endverbrauchern.

fondness
2016-04-16, 07:31:56
Laut VR-World sollen die finalen Taktraten bei ~1150Mhz liegen, siehe meine Link oben....

Hübie
2016-04-16, 08:43:56
Ja, nicht GCN1.5, sondern "4th Generation GCN".
Was die da schon wieder schreiben :rolleyes:.

Als hätte AMD da eine klare Linie. Tahiti, Hawaii, Tonga und Fiji. Alles unterschiedliche IP. Ich zähle vier. Demnach kommt jetzt fünf. AMD zählt vier. Für mich sieht es unlogisch aus. Aber gut. Es sind Namen und Erbsen zählen nützt nix. ;)

dargo
2016-04-16, 08:54:18
Als hätte AMD da eine klare Linie. Tahiti, Hawaii, Tonga und Fiji. Alles unterschiedliche IP. Ich zähle vier. Demnach kommt jetzt fünf. AMD zählt vier. Für mich sieht es unlogisch aus. Aber gut. Es sind Namen und Erbsen zählen nützt nix. ;)
Ich komme auf die gleiche Anzahl wie AMD. ;)

GCN 1.0, 1.1 und 1.2. Nun kommt die vierte Generation.

Mortalvision
2016-04-16, 08:56:37
Tonga ist 1/2 Fiji

AffenJack
2016-04-16, 08:57:01
Laut VR-World sollen die finalen Taktraten bei ~1150Mhz liegen, siehe meine Link oben....

Bei den Taktraten kann man doch immer nur abwarten. Oft genug wurden die noch in letzter Sekunde geändert.

Hübie
2016-04-16, 10:15:32
Tonga ist 1/2 Fiji

Nö.

@dargo: 0, 1, 2 und 4? Wo hattest du Mathe? :freak: Und die Chips haben alle andere µArch (wenn auch nur geringfügig). GK110<->GK210 ist aber auch schon andere IP und da sind nur größer L2 slices plus minimale Änderungen an Registern.

HOT
2016-04-16, 10:18:24
Im Prinzip doch. Nur eben nicht ganz. Tonga hat mehr Tesselationspower im Verhältnis.

Sunrise
2016-04-16, 10:20:07
Laut VR-World sollen die finalen Taktraten bei ~1150Mhz liegen, siehe meine Link oben....
Wie Affenjack schon schreibt, sind das Änderungen, die teilweise noch beim Verschicken der Samples durchgeführt werden (BIOS). Ich würde mich darauf nicht verlassen, vor allem weil wir nicht wissen, welches Modell das jetzt ist. Bevor NV was zeigt, wird AMD sicher nicht finalisieren, genauso umgekehrt.

Ob das wirklich die engültigen Taktraten für den großen P10 sind müssen wir abwarten.

Hübie
2016-04-16, 10:31:00
Im Prinzip doch. Nur eben nicht ganz. Tonga hat mehr Tesselationspower im Verhältnis.

Da gibts noch mehr unterschiede.

fondness
2016-04-16, 10:32:25
Nö.

@dargo: 0, 1, 2 und 4? Wo hattest du Mathe?

Man muss das jetzt wirklich nicht ins lächerliche ziehen. Ob man jetzt bei 0 oder 1 zu zählen beginnt spielt nun wirklich keine Rolle. Es ist die vierte GCN Architektur. GCN1.0, GCN1.1 etc war nie offiziell sondern wurde von der Presse verwendet. Das es natürlich auch zwischen zwei Chips eine Architektur kleinere Unterschiede geben kann liegt auf der Hand.

Hübie
2016-04-16, 10:35:17
Weil die Presse die Notwendigkeit sieht. Das hat nichts mit lächerlich zu tun. Es sind nach wie vor Namen. Kannst ja auch Hans, Peter, Dieter und Horst nennen. Dann kommt jetzt Albert. :P

Edit: Lass es mich aufs platteste formulieren: So bald ein Chip ne andere Maske braucht, sollte man das Kind benennen.

fondness
2016-04-16, 10:36:42
Weil die Presse die Notwendigkeit sieht. Das hat nichts mit lächerlich zu tun. Es sind nach wie vor Namen. Kannst ja auch Hans, Peter, Dieter und Horst nennen. Dann kommt jetzt Albert. :P

Edit: Lass es mich aufs platteste formulieren: So bald ein Chip ne andere Maske braucht, sollte man das Kind benennen.

Natürlich sind es nur Namen, deshalb stehe ich auch nicht, was es da zu kritisieren gibt. Dementsprechend zählt AMD nur den Shadercluster als GCN-Architektur, die einzelnen Chips haben eigenen Namen.

Hübie
2016-04-16, 10:48:43
Die Chips haben sogar Doppelnamen :D
Es muss ja mehr als nur shadercluster sein. TMU/TAU, ACE, CP, ROP, Dispatch, MC... blah blah blah. Und wenn du das summierst, kommst du nicht auf vier verschiedene µArch.

fondness
2016-04-16, 10:51:52
Die Chips haben sogar Doppelnamen :D
Es muss ja mehr als nur shadercluster sein. TMU/TAU, ACE, CP, ROP, Dispatch, MC... blah blah blah. Und wenn du das summierst, kommst du nicht auf vier verschiedene µArch.

Nein, es muss nicht mehr als nur der Shadercluster sein. Polaris ist die vierte Iteration der GCN-Architektur. Dazu gab es auch ein schönes Schaubild bei Vorstellung der Polaris-Architektur. Aber die Diskussion ist eigentlich vollkommen lächerlich und überflüssig.

Hübie
2016-04-16, 11:00:10
Ich vermute dass AMD nur eine neue Nummer vergibt wenn sich auch die ISA ändert. Dann sind es vier.

Gipsel
2016-04-16, 11:33:13
Ich vermute dass AMD nur eine neue Nummer vergibt wenn sich auch die ISA ändert.Du hast es erfaßt. GCN bezeichnet nur die CUs selber und deren ISA. Das ganze drumherum gehört schlicht nicht dazu. Da gab es tatsächlich ebenfalls Iterationsstufen, die unabhängig von den CUs sind. Und bisher gab es drei GCN-Iterationen (und passend dazu auch drei ISA-Manuals, in denen die kleinen Unterschiede nachzulesen sind), Polaris enthält die vierte. Das steht so auf AMDs Präsentationsfolien zu Polaris. Insofern entbehrt die Behauptung auf irgendwelchen Webseiten, Polaris wäre kein GCN sondern eine völlig neue Architektur jeglicher Grundlage. Fertig. Ich weiß gar nicht, was es da zu diskutieren gibt.

Hübie
2016-04-16, 12:56:37
Es gab ja schon diese Auseinandersetzung wegen Polaris 10 (groß) und 11 (klein). Namen haben den Sinn zu differenzieren und entbehren jeglicher Logik. Das fällt schwer zu verinnerlichen, wenn man es versucht miteinander zu verknüpfen. ;) Und hey: uns ist langweilig.

OBrian
2016-04-16, 13:41:50
Insofern entbehrt die Behauptung auf irgendwelchen Webseiten, Polaris wäre kein GCN sondern eine völlig neue Architektur jeglicher Grundlage. Fertig. ...außer daß möglicherweise AMDs Marketing das so darstellt. "Total neu und total geil" klingt ja besser als "wir haben zum vierten Mal dasselbe gebracht und nur ein bißchen was verändert". Bei VW gibt es auch alle nasenlang einen "total neuen" Golf, obwohl sich praktisch nichts Wesentliches verändert.

Und es gibt ja leider genug Leute, die Marketingaussagen noch ansatzweise Glauben schenken. Insofern nciht wundern, wenn solche Diskussionen doch hochkommen.

[MK2]Mythos
2016-04-16, 13:51:34
Und fährt VW schlecht damit? Scheint nicht so, denn der Golf ist nach wie vor ein Erfolgsmodell.
Im Gegensatz zu AMD's Grafikkarten.
B2Topic:
Also im Prinzip sehen wir mit P10 eine R390(X) mit halben Verbrauch und hoffentlich attraktivem Preis. Genau so hatte ich das vor einer Weile ja spekuliert und erhofft.
Wenn die Kärtchen wirklich für unter 300 Eur kommen, dann kann ich nur hoffen, dass ich nicht der Einzige bin der nach langer NVIDIA-Phase endlich wieder auf eine (oder zwei) AMD Karte(n) setzt.

OBrian
2016-04-16, 13:58:34
ja nee, behaupte ich ja nicht. Bei GCN zu bleiben wird sicherlich jeder Speielprogrammierer begrüßen. Und solange mit einer Änderung an der Stelle keine großen Effizienzgewinne zu verbuchen wären, wäre es ja auch Quatsch, nur der Änderung wegen was zu ändern.

AMD hat immerhin den Vorteil ggü. VW, daß die neue Karte schneller wird. VW kann eben im Stahlwerk nicht auf einen Prozeß-Shrink hoffen ;)

[MK2]Mythos
2016-04-16, 14:02:20
Um mal bei der Automobil-Analogie zu bleiben:
Halber (messbarer) Verbrauch mit der neuen Generation ohne andere Nachteile hinzunehmen, das wär doch was. ;-)

Rabiata
2016-04-16, 17:36:24
Mythos;11004656']Um mal bei der Automobil-Analogie zu bleiben:
Halber (messbarer) Verbrauch mit der neuen Generation ohne andere Nachteile hinzunehmen, das wär doch was. ;-)
Ja, da hoffe ich auch drauf.

Als bisheriger "Mittelklasse"-Käufer (derzeit ne 7850) könnte ich mir im Prinzip die höhere Leistung auch einfach erkaufen, mit dem Griff zu einem High-End-Modell. Aber ich mag mir einfach keinen so krassen Heizofen in die Bude stellen. Der PC soll im Desktopbetrieb unter 100W und im Spielebetrieb unter 250W bleiben. Das finde ich noch vertretbar mit Blick auf den Umweltschutz.

Herr Doktor Klöbner
2016-04-16, 17:44:40
Ich denke wenn man den kompletten ökologischen Fußabdruck einer Grafikkarte durchrechnet, hat man wahrscheinlich schon 90% der Umweltbelastung und des Verbrauchs von Strom wenn das Teil noch Fabrikneu beim Händler liegt. Mir geht es mehr um leisen Betrieb in allen Lastsituationen, gibt die Karte das her darf sie bei entsprechender Leistung auch 200 Watt verballern.

Hübie
2016-04-16, 19:10:47
Ja, da hoffe ich auch drauf.

Als bisheriger "Mittelklasse"-Käufer (derzeit ne 7850) könnte ich mir im Prinzip die höhere Leistung auch einfach erkaufen, mit dem Griff zu einem High-End-Modell. Aber ich mag mir einfach keinen so krassen Heizofen in die Bude stellen. Der PC soll im Desktopbetrieb unter 100W und im Spielebetrieb unter 250W bleiben. Das finde ich noch vertretbar mit Blick auf den Umweltschutz.

Ob nun elektrische Energie oder chemische Energie zu Wärme wird ist doch zweitrangig. Wenn man so konsequent ist, hat man hoffentlich Erdwärme, Photovoltaik, Solarthermie neben seinem Tesla S. ;)

Polaris kann ich mir vermutlich sparen, da keine Mehrperformance ggü. GM200 erwartet wird, oder? :|

Rabiata
2016-04-16, 19:40:24
Ob nun elektrische Energie oder chemische Energie zu Wärme wird ist doch zweitrangig. Wenn man so konsequent ist, hat man hoffentlich Erdwärme, Photovoltaik, Solarthermie neben seinem Tesla S. ;)

Polaris kann ich mir vermutlich sparen, da keine Mehrperformance ggü. GM200 erwartet wird, oder? :|
Auch wenn das wohl scherzhaft gemeint war:
Mehrfamilienhaus. Erdwärme, Photovoltaik, Solarthermie gehen nicht im Alleingang, da müßte ich die Eigentümergemeinschaft überzeugen.
Licht und Kühlschrank sind schon in moderner Technik, da bin ich zufrieden mit mir :biggrin:

Skysnake
2016-04-17, 12:13:00
Weil die Presse die Notwendigkeit sieht. Das hat nichts mit lächerlich zu tun. Es sind nach wie vor Namen. Kannst ja auch Hans, Peter, Dieter und Horst nennen. Dann kommt jetzt Albert. :P

Edit: Lass es mich aufs platteste formulieren: So bald ein Chip ne andere Maske braucht, sollte man das Kind benennen.
Auch Metal layer Masken? ;)

Und wenn ja, nur die, die die Transistoren anders verdrahten und somit Logik ändern, oder nur die, die an der Logik nichts ändern?

Bei Metal patches wird nämlich durchaus auch etwas an der Logik geändert. Es ist "Best Practice" mehr Transistoren zu generieren, als man braucht, so das man in geringem Umfang auch Änderungen an der Logik vornehmen kann, falls einem doch ein Designfehler durch die Validierung gegangen ist.

Korvaun
2016-04-17, 13:11:07
Polaris kann ich mir vermutlich sparen, da keine Mehrperformance ggü. GM200 erwartet wird, oder? :|

Ja, Polaris kannste vergessen, erst mit Vega Anfang 2017 würde es interessant werden wenn du AMD unbedingt haben willst...

Der große GP104 von NV soll im GM200 Bereich liegen, aber halt 8GB+verbessertes DX12+bessere Effizienz. Wirklich schnellere Karten kommen auch bei NV erst 2017.

Wenn du jetzt heiss bist auf ne kühle neue Karte kannste ja im Juni/Juli ne 1080GTX kaufen und dann im Frühjahr 2017 richtig zuschlagen bei den neuen Boliden ;)

Hübie
2016-04-17, 14:02:16
Also Geld verpulvern will ich ebenso wenig wie krampfhaft einen IHV zu fröhnen. Bisher tangierte mich DX12, entgegen zur Presse, noch gar nicht. Ansonsten kann ich es entspannt angehen. Werde dieses Jahr wohl zumindest die CPU gegen AMD eintauschen. Warum dann nicht auch noch die GPU?

Achill
2016-04-17, 14:42:31
Ja, Polaris kannste vergessen, erst mit Vega Anfang 2017 würde es interessant werden wenn du AMD unbedingt haben willst...

Der große GP104 von NV soll im GM200 Bereich liegen, aber halt 8GB+verbessertes DX12+bessere Effizienz. Wirklich schnellere Karten kommen auch bei NV erst 2017.

Wenn du jetzt heiss bist auf ne kühle neue Karte kannste ja im Juni/Juli ne 1080GTX kaufen und dann im Frühjahr 2017 richtig zuschlagen bei den neuen Boliden ;)

Klasse wie wir in einen AMD Spekulations-Thread einmal mehr wissen was AMD nicht schafft aber NV um so besser ... tolle Wurst.

Polaris kann ich mir vermutlich sparen, da keine Mehrperformance ggü. GM200 erwartet wird, oder? :|

Man muss einfach Abwarten und die Reviews nach Release + 1-2 Monate Treiber-Tuning sich anschauen. Mit deiner 980TI bist du aber doch gar nicht in Zugzwang oder?

Thunder99
2016-04-17, 14:49:58
Ja, Polaris kannste vergessen, erst mit Vega Anfang 2017 würde es interessant werden wenn du AMD unbedingt haben willst...

Der große GP104 von NV soll im GM200 Bereich liegen, aber halt 8GB+verbessertes DX12+bessere Effizienz. Wirklich schnellere Karten kommen auch bei NV erst 2017.

Wenn du jetzt heiss bist auf ne kühle neue Karte kannste ja im Juni/Juli ne 1080GTX kaufen und dann im Frühjahr 2017 richtig zuschlagen bei den neuen Boliden ;)
erst Recht keine neue nvidia kaufen da man sonst nur Geld raus schmeißt ;)

Polaris ist was für GCN Nutzer welche maximal eine R9 280(x) besitzen. Alle darüber können sich zurück lehnen bis Vega da ist :cool:

Hübie
2016-04-17, 14:55:31
Na wenn es um kompromisslose 4k-Resolution geht dann ist man immer im Zugzwang. Wenn man dann noch hardwaregeil ist... :D
Ich habe jetzt nur etwas den Überblick verloren. P10: 2560 ALUs? P11 1920 ALUs? So ist der aktuelle Stand der Dinge, richtig? Dazu gesellt sich besseres Powergating und ähnlich wie Kepler <-> Maxwell ein ausgeglicheneres Verhältnis aus Frontend, Backend und Rechenwerke. Lapidar formuliert, aber ich denke jeder versteht was ich zusammenfassend sagen möchte. Sind meine Infos denn korrekt?

fondness
2016-04-17, 14:57:05
V10: 4096 ALUs, HBM2.
P10: 2560 ALUs 256 bit SI.
P11: 1280 ALUs, 128 bit SI.

Hübie
2016-04-17, 15:26:18
Dann wird Vega also meinen feuchter Traum den Fiji nicht gerecht werden konnte. :D Vega sollte doch auch zwei Chips haben oder nur zwei Versionen? Warum gibt es in Sammlern eigentlich keine verantwortungsvollen Threadstarter? :confused:

Edit: Ich sehe dass du der TE bist :D Füll den ersten Post doch mal mit Infos von Stand April 2016. Wären dir sicher einige dankbar.

Herr Doktor Klöbner
2016-04-17, 15:31:14
Ich denke nicht das unterhalb der absoluten High-End Klasse HBM2 irgendeinen Sinn macht, ich würde für Vega auf GDDR5x tippen, das ist billiger und flexibler und dennoch völlig ausreichend.

AngelDust 32
2016-04-17, 16:22:41
ich würde für Vega auf GDDR5x tippen,

http://www.geeks3d.com/20160315/amd-unveils-its-gpu-roadmap-polaris-vega-navi/

Das steht doch schon auf der Roadmap

Nightspider
2016-04-17, 16:24:21
Nö.

@dargo: 0, 1, 2 und 4? Wo hattest du Mathe? :freak: Und die Chips haben alle andere µArch (wenn auch nur geringfügig). GK110<->GK210 ist aber auch schon andere IP und da sind nur größer L2 slices plus minimale Änderungen an Registern.

Hübie du bringst mich mit deinen Matheskills immer wieder zum Grinsen. (y):biggrin:

Locuza
2016-04-17, 16:25:35
Dann wird Vega also meinen feuchter Traum den Fiji nicht gerecht werden konnte. :D Vega sollte doch auch zwei Chips haben oder nur zwei Versionen?

Vega10(?) wird sehr wahrscheinlich seine Mehrleistung rein aus der Architektur und etwas mehr Takt holen müssen.
Bei Maxwell gab es schon einen großen Sprung gegenüber Kepler, aber ich denke nicht das es an einen feuchten Traum heran reichen wird, jedenfalls was die absolute Leistung angeht.

Meanwhile AMD has also confirmed the number of GPUs in the Vega stack and their names. We’ll be seeing a Vega 10 and a Vega 11. This follows Polaris GPU naming – which has finally been confirmed – with Polaris 10 and Polaris 11. I have also been told that Polaris 11 is the smaller of the Polaris GPUs, so at this point it’s reasonable to assume the same for Vega.
http://anandtech.com/show/10145/amd-unveils-gpu-architecture-roadmap-after-polaris-comes-vega

2 Chips, mit der Spekulation das Vega11 größer und nicht kleiner sein wird, falls AMD ein Schlachtschiff gegenüber GP100 bauen möchte.

Ich denke nicht das unterhalb der absoluten High-End Klasse HBM2 irgendeinen Sinn macht, ich würde für Vega auf GDDR5x tippen, das ist billiger und flexibler und dennoch völlig ausreichend.
Für Greenland waren auf jeden Fall 2048-Bit HBM2 geplant, mit der gleichen Bandbreite wie bei Fiji mit 512 GB/s.
Edit: Ja klar, siehe AngelDust 32, steht ja auf der Roadmap offiziell drauf. :ugly:

Thunder99
2016-04-17, 16:28:30
Bis jetzt weiß man nur von Vega 10. Über Vega 11 wird nur spekuliert das es auch den gibt aber sicher ist das nicht. Vor allem ist mit Polaris die 10 der größerer Chip als die 11. Bei Vega nun anders rum? :| Ergibt 0 Sinn :confused:

Nightspider
2016-04-17, 16:28:50
Ich hoffe ja mal dass das finale Silizium noch mehr Clock hergeben wird.

1100 oder 1150Mhz wären imo schon recht schwach für 14FF und einen so kleinen Chip.

Ich will eigentlich AMD kaufen aber ich hätte gerne etwas leistungsfähiges....ich habe die Befürchtung das ich zur GTX1080 greifen muss. :(
Diese wird mir OC sicherlich 50-100% schneller sein als eine kleine Polaris Karte und die Leistung brauche ich in Star Citizen, welches noch kein DX12 hat und deswegen sowieso noch grottig auf AMD Karten performed. *seufz*

Locuza
2016-04-17, 17:15:36
Bis jetzt weiß man nur von Vega 10. Über Vega 11 wird nur spekuliert das es auch den gibt aber sicher ist das nicht. Vor allem ist mit Polaris die 10 der größerer Chip als die 11. Bei Vega nun anders rum? :| Ergibt 0 Sinn :confused:
Anandtech meint aber das AMD gegenüber ihnen zwei Vega Chips bestätigt hat.
Und bei einem Capsaicin Interview mit pcper meinte Koduri von AMD das die Zahlen keine Bedeutung haben, sondern einfach nachfolgend vergeben werden.
Sinn sucht man vergeblich. :P

Tamagothi
2016-04-17, 18:12:28
ich habe die Befürchtung das ich zur GTX1080 greifen muss. Diese wird mir OC sicherlich 50-100% schneller sein als eine kleine Polaris Karte

Wusste gar nicht das es offizielle Daten von GP104 und P10 gibt.

Benchmarks habe ich auch noch keine gesehen :uponder:

Ich tippe das P10 FuryX leistung erreicht mit 1150 MHz

victore99
2016-04-17, 18:13:04
Hab mal nachgedacht.
Egal wie ichs drehe, Vega klein mit zwei Stacks passt nicht zu Vega groß mit vier Stacks. Damit würde man unnötig kompliziert, da man Rechenwerke mit Speichersystem nicht so wunderbar linear hätte. Passend wären:
Vega klein mit 3 Stacks (dazu passend 3840 Rechenwerke?) und Vega Groß mit 4 Stacks (5120 Rechenwerke?)
Geht das mit drei Stacks überhaupt?

Gut wäre, dass man P klein mit 1 Shader Engine baut, P groß mit zweien, V klein mit 3 und groß mit 4 - Passend dazu die HBM-Stacks.

Herr Doktor Klöbner
2016-04-17, 18:19:26
Wusste gar nicht das es offizielle Daten von GP104 und P10 gibt.

Benchmarks habe ich auch noch keine gesehen :uponder:

Ich tippe das P10 FuryX leistung erreicht mit 1150 MHz

Die aktuellen Preise für R9 Fury Karten riechen schon ein wenig nach Abverkauf, klingt also gar nicht so weit hergeholt.

http://geizhals.de/xfx-radeon-r9-fury-pro-triple-dissipation-r9-fury-4tf9-a1329253.html

Achill
2016-04-17, 18:40:16
Ich hoffe ja mal dass das finale Silizium noch mehr Clock hergeben wird.

1100 oder 1150Mhz wären imo schon recht schwach für 14FF und einen so kleinen Chip.

Ich will eigentlich AMD kaufen aber ich hätte gerne etwas leistungsfähiges....ich habe die Befürchtung das ich zur GTX1080 greifen muss. :(
Diese wird mir OC sicherlich 50-100% schneller sein als eine kleine Polaris Karte und die Leistung brauche ich in Star Citizen, welches noch kein DX12 hat und deswegen sowieso noch grottig auf AMD Karten performed. *seufz*

Bei SC kann es aber auch gut sein, dass vorher Vega raus ist ... ;)

Nightspider
2016-04-17, 18:40:23
Wusste gar nicht das es offizielle Daten von GP104 und P10 gibt.

GP104 ist deutlich größer als P10. Was gibts da noch zu überlegen wenn man viel Leistung haben will.
Oder glaubst du AMD kann zaubern? ;D

Bei SC kann es aber auch gut sein, dass vorher Vega raus ist ... ;)

Joar aber ich will ja auch schon vorher die Alpha genießen und für VR bräuchte ich vielleicht auch deutlich mehr Leistung.

Achill
2016-04-17, 18:43:51
Joar aber ich will ja auch schon vorher die Alpha genießen und für VR bräuchte ich vielleicht auch deutlich mehr Leistung.

Hmm, also für VR in SC (und ähnliche Leistungsfresser) wird man 2 GPUs (egal ob AMD/NV) brauchen wo dann jede GPU für das Bild eines Auges zuständig ist.

Nightspider
2016-04-17, 18:46:27
Ich meine VR Allgemein. VR in SC wird scheinbar eh noch nicht zum Release supported werden und laut Traxx ist die Auflösung noch zu niedrig und er würde SC eh lieber am Display zocken weil sonst die ganzen Details untergehen.

Zur Not könnte ich auch einfach eine zweite GTX1080 dazustecken da VR ja ziemlich ideal mit zwei Karten skalieren soll.

Grabhopser
2016-04-17, 20:23:43
GP104 ist deutlich größer als P10. Was gibts da noch zu überlegen wenn man viel Leistung haben will.
Oder glaubst du AMD kann zaubern? ;D


TeraScale VLIW, ach das waren noch Zeiten.;D

dargo
2016-04-17, 21:09:55
@dargo: 0, 1, 2 und 4? Wo hattest du Mathe? :freak:
Wo hattest du eigentlich Schule? ;D

A, B und C oder X, Y und Z ergibt bei mir immer noch 3, völlig egal was sich hinter den Buchstaben versteckt. Die 4 ist im Anmarsch.

Tamagothi
2016-04-17, 21:22:15
GP104 ist deutlich größer als P10. Was gibts da noch zu überlegen wenn man viel Leistung haben will.

Anhand der Größe auf die Leistung zu schließen?

Oder glaubst du AMD kann zaubern? ;D


R9 290X vs. GTX 780ti

438mm² vs. 550mm²

Sry für OT

[MK2]Mythos
2016-04-17, 21:32:10
Ich denke es gibt keine ernsthaften Zweifel daran dass AMD mit Polaris P10 auf die Performance Klasse abzielt und NVIDIA später wie gewohnt mit einer HighEnd Karte kommt.

reaperrr
2016-04-17, 22:20:52
GP104 ist deutlich größer als P10. Was gibts da noch zu überlegen wenn man viel Leistung haben will.
Oder glaubst du AMD kann zaubern? ;D
GK110 ist auch deutlich größer als Hawaii.
Man darf mMn nicht den Fehler machen, von den in Sachen Performance/mm² schlechtesten GCN-Chips (Tonga und Fiji) auf GCN an sich und vor allem Polaris zu schließen.

Hawaii gegenüber GM204 und Pitcairn gegenüber GM206 sind in Sachen Performance/mm² nur ca. 15% schlechter, trotz Maxwells massivem Sprung gegenüber Kepler.

Wir wissen noch nicht, wie groß der Effizienz-Sprung bei GCN4 ist, aber nur weil Nvidia mit Maxwell klar gegen GCN3 gewonnen hat, sollte man AMD nicht gleich komplett abschreiben. Vielleicht stellt sich Maxwell 2.0 im Nachhinein als Nvidia's Sandy Bridge heraus und Pascal bietet außer dem Node-Shrink keine gravierenden Verbesserungen, während AMD seinen SB in GCN4 bekommt.

Ailuros
2016-04-18, 06:52:40
Anhand der Größe auf die Leistung zu schließen?

Mit nur einer Konstante in solch einem Fall tatsaechlich zu gewagt, aber....


R9 290X vs. GTX 780ti

438mm² vs. 550mm²

Sry für OT

Jetzt mach nochmal den Vergleich aber diesmal mit TDP Werten fuer beide.

GK110 ist auch deutlich größer als Hawaii.
Man darf mMn nicht den Fehler machen, von den in Sachen Performance/mm² schlechtesten GCN-Chips (Tonga und Fiji) auf GCN an sich und vor allem Polaris zu schließen.

Da sich nach AMD's marketing Polaris aber wohl hauptsaechlich auf perf/W zu konzentrieren scheint, sollte man wohl eher spekulative Vergleiche auf der Ebene machen.

Hawaii gegenüber GM204 und Pitcairn gegenüber GM206 sind in Sachen Performance/mm² nur ca. 15% schlechter, trotz Maxwells massivem Sprung gegenüber Kepler.

Das in roher Leistung; geht man jetzt auf perf/W Ebene sieht es wie genau aus?

Wir wissen noch nicht, wie groß der Effizienz-Sprung bei GCN4 ist, aber nur weil Nvidia mit Maxwell klar gegen GCN3 gewonnen hat, sollte man AMD nicht gleich komplett abschreiben. Vielleicht stellt sich Maxwell 2.0 im Nachhinein als Nvidia's Sandy Bridge heraus und Pascal bietet außer dem Node-Shrink keine gravierenden Verbesserungen, während AMD seinen SB in GCN4 bekommt.

Ein Anteil der Pascal Leistungs-steigerung beruht auf ebenso wie bei Maxwell auf extravaganten Frequenzen und diese sind keine garden variety Uebertaktungen sondern architektur-bedingte Anpassungen. Zwar ist GP100 ein schlechtes Beispiel mit seinen 300W TDP, aber sie haben die Packdichte im Vergleich zu 28HP TSMC um 86% erhoeht und die standard Frequenzen vs. GM200 ueber 30% hoeher angelegt, wobei natuerlich auch der sehr hohe TDP nicht wundern sollte. Polaris muss N Unterschied zwischen Maxwell und Hawaii und co im Bereich perf/W gut machen und noch einen Schritt vor Pascal liegen. Alles andere als unmoeglich, aber so ein Kinderspiel wie es von vielen zu klingen scheint ist es nun auch wieder nicht.

Ausser ich hab etwas verpasst setzt auch AMD auf einen Schnitt hoeheren standard Frequenzen bei Polaris SKUs; das sagt mir persoenlich erstmal dass sie wohl auch NICHT die Transistoren Packdichte um 100% erhoeht haben im Vergleich zu 28HP.

Das alberne daran ist dann wohl eher dass die bescheuerte 232mm2 die area die ueber dem gesamten internet immer und immer wiedergekaut wird hoechstwahrscheinlich gar nichts mit der eigentlichen Realitaet zu tun hat.

iuno
2016-04-18, 09:10:29
Jetzt mach nochmal den Vergleich aber diesmal mit TDP Werten fuer beide.
Verstehe ich jetzt nicht, schlucken doch beide gleich viel. Damals gleich schnell, heute ist Hawaii schneller. In Games wohlgemerkt, computing sieht es noch ganz anders aus.

Ausser ich hab etwas verpasst setzt auch AMD auf einen Schnitt hoeheren standard Frequenzen bei Polaris SKUs; das sagt mir persoenlich erstmal dass sie wohl auch NICHT die Transistoren Packdichte um 100% erhoeht haben im Vergleich zu 28HP.
Zu Frequenzsteigerungen gibt es keine sicheren Infos. Was da aus dem Treiberquellcode spekuliert wird ist Unsinn.
Eine Verdoppelung ist auch gar nicht noetig. Hawaii hat ~440 sqmm, Polaris wohl ein schmaleres SI und wenig FP64. Bei spekulierten 40 CUs sind da 232 sqmm doch absolut im erwartbaren Bereich.

Das alberne daran ist dann wohl eher dass die bescheuerte 232mm2 die area die ueber dem gesamten internet immer und immer wiedergekaut wird hoechstwahrscheinlich gar nichts mit der eigentlichen Realitaet zu tun hat.
Und wieso ist das jetzt ploetzlich hoechstwahrscheinlich?
Wir wissen sicher, dass es ein Projekt gab, das eine dGPU mit der Flaeche entwickelt hat. Wir wissen auch grob, wo Polaris und Vega platziert sind. Fuer mich ist nichts daran abwegig und schon gar nicht hoechstwahrscheinlich falsch.

HOT
2016-04-18, 09:50:16
Perf/W ist im Gamingbereich im Prinzip scheissegal. Es war mal weniger egal - je nach Modetrend, aber im Moment ist es wieder ziemlich egal. Solange Netzteil und Gehäuse passen haben die meisten Leute wenig Hemmungen sich 300W in den Rechner zu stecken. Preis / Leistung ist wieder deutlich wichtiger geworden als Verbrauch / Leistung.

Ailuros
2016-04-18, 10:13:20
Es ist so egal dass AMD die 2.5x Mal perf/W Fahne wedelt fuer Polaris.

Verstehe ich jetzt nicht, schlucken doch beide gleich viel. Damals gleich schnell, heute ist Hawaii schneller. In Games wohlgemerkt, computing sieht es noch ganz anders aus.

Wobei dann die Frage bleibt wozu jegliche die area relative Debatte genau gut sein soll. Es sollte wohl verstaendlich sein dass hoehere Packdichten auch nicht umsonst sind wenn es zum Stromverbrauch kommt.

Zu Frequenzsteigerungen gibt es keine sicheren Infos. Was da aus dem Treiberquellcode spekuliert wird ist Unsinn.
Eine Verdoppelung ist auch gar nicht noetig. Hawaii hat ~440 sqmm, Polaris wohl ein schmaleres SI und wenig FP64. Bei spekulierten 40 CUs sind da 232 sqmm doch absolut im erwartbaren Bereich.

Damit es klarer wird: sie sind wohl NICHT das Risiko eingegangen und haben die Packdichte um 100% erhoeht und gleichzeitig auch die Frequenzen um ein relativ geringes Prozentual. Nicht wenn ihnen diesmal perf/W nicht so egal sein sollte.

Und wieso ist das jetzt ploetzlich hoechstwahrscheinlich?
Wir wissen sicher, dass es ein Projekt gab, das eine dGPU mit der Flaeche entwickelt hat. Wir wissen auch grob, wo Polaris und Vega platziert sind. Fuer mich ist nichts daran abwegig und schon gar nicht hoechstwahrscheinlich falsch.

Wer will es garantieren dass es wirklich 232mm2 sind? Ja es gab ein Projekt aber danach die Sintflut oder genauso viel spekulierter Unsinn wie Du auch alles andere abstempeln willst. Es ist total wurscht momentan wie gross der chip eigentlich ist. Mir geht lediglich dieses unendliche 232 Mantra das sich im gesamten internet zementiert hat auf den Wecker. Vega bzw. jegliche GPU w/HBM2 wohl erst ab Q1 2017.

Sunrise
2016-04-18, 12:02:46
Ich hoffe ja mal dass das finale Silizium noch mehr Clock hergeben wird.

1100 oder 1150Mhz wären imo schon recht schwach für 14FF und einen so kleinen Chip.

Ich will eigentlich AMD kaufen aber ich hätte gerne etwas leistungsfähiges....ich habe die Befürchtung das ich zur GTX1080 greifen muss. :(
Diese wird mir OC sicherlich 50-100% schneller sein als eine kleine Polaris Karte und die Leistung brauche ich in Star Citizen, welches noch kein DX12 hat und deswegen sowieso noch grottig auf AMD Karten performed. *seufz*
Polaris ist zu langsam für solche Enthusiast-Anforderungen wie du sie stellst. Entweder du kannst auf Vega warten oder du musst wohl zu NV greifen.

Dass der Takt bei etwa 250mm^2 jetzt plötzlich deutlich hochgehen soll, ist mir auch neu. Es wird höhere Taktfrequenzen geben, die auch nicht ans Limit gefahren sind, wer mehr erwartet wird enttäuscht. Die Leistung muss aus der Breite des Chips kommen und Polaris is schlichtweg zu klein für das was viele an High-End-Anforderungen haben. Da passen Erwartungshaltung und Realität nicht zusammen.

Vega wird nicht umsonst mit HBM2 laut AMD kommen, und Fiji ist kein gutes Beispiel für nichts.

Thunder99
2016-04-18, 12:17:10
Perf/W ist im Gamingbereich im Prinzip scheissegal. Es war mal weniger egal - je nach Modetrend, aber im Moment ist es wieder ziemlich egal. Solange Netzteil und Gehäuse passen haben die meisten Leute wenig Hemmungen sich 300W in den Rechner zu stecken. Preis / Leistung ist wieder deutlich wichtiger geworden als Verbrauch / Leistung.
Da liegst du falsch. Oder wieso verkauften sich die Maxwell unter anderem Karte so gut? ;) Weniger Energieverbrauch bedeutet leisere Karte. Das haben doch mehr eingesehen als gedacht

iuno
2016-04-18, 12:21:23
Naja Maxwell hat mit der 970 billig annaehernd 780 Ti Leistung gebracht.
Und natuerlich wurden auch dort vornehmlich Partnermodelle verkauft und die sind OC (und damit schneller) und auch nicht so effizient.

Perf/W ist natuerlich trotzdem wahnsinnig wichtig. Gerade fuer AMD, deren Image in dieser Hinsicht einfach kaputt ist. Da muss man nur mal entsprechende Kommentare im Netz lesen

Effe
2016-04-18, 12:23:13
Der Verbrauch wird bei Maxwell ja immer Mantraartig hervorgehoben. Im Performancebereich ist der auch nicht unwichtig. Wenn AMD da glänzen kann, wäre das ein Fortschritt. Das Wichtigste ist mE Features wie Freesync, DP1.3 und HDMI2.0 in den Bereich zu bekommen.
Im Enthusiast/Highend ist es aber wirklich wurscht, ob die Karte 200 oder 250W verbraucht. Da gibt es inzwischen auch leise Luftkühler(Fury Nitro).

medi
2016-04-18, 12:30:20
Da liegst du falsch. Oder wieso verkauften sich die Maxwell unter anderem Karte so gut? ;) Weniger Energieverbrauch bedeutet leisere Karte. Das haben doch mehr eingesehen als gedacht

+ niedriger Energieverbrauch = weniger Wärmeerzeugung = weniger Aufheizung des (Schlaf)Zimmers! :)
Im Winter mags ja egal sein aber im Sommer ohne Klima schränkt es das Zocken ein. Wer will und kann schon in ner Saune noch halbwegs vernünftig pennen?

Ailuros
2016-04-18, 13:35:17
Der Verbrauch wird bei Maxwell ja immer Mantraartig hervorgehoben. Im Performancebereich ist der auch nicht unwichtig. Wenn AMD da glänzen kann, wäre das ein Fortschritt. Das Wichtigste ist mE Features wie Freesync, DP1.3 und HDMI2.0 in den Bereich zu bekommen.
Im Enthusiast/Highend ist es aber wirklich wurscht, ob die Karte 200 oder 250W verbraucht. Da gibt es inzwischen auch leise Luftkühler(Fury Nitro).

Perf/W ist heutzutage eines der wichtigsten Aspekte von ULP SoCs fuer smartphones/tablets bis zu HPC und Supercomputers. Das hat wenig mit AMD vs. NVIDIA oder umgekehrt zu tun sondern Markt-Tendenzen die mit der eigentlichen Praktikalitaet zu tun hat. Waere das angebliche "Maxwell-Mantra" ach so intensiv und ach so toll wuerde NVIDIA auch um einiges mehr Tegras im Verbraucher-Markt verkaufen.

Sonst da wo Polaris hauptsaechlich mit perf/W punkten wird ist eher der Bereich zwischen mainstream und performance SKUs wo es sowohl fuer desktop als auch notebook Loesungen so oder so am wichtigsten ist.

Effe
2016-04-18, 13:57:47
Perf/W ist heutzutage eines der wichtigsten Aspekte
Bezweifle ich keinesfalls. Perf/W ist meist nur Nerdgamern mit WaKü völlig wurscht. Selbst viele Selberschrauber fragen erstmal: Reicht mein Netzteil?

Sonst da wo Polaris hauptsaechlich mit perf/W punkten wird ist eher der Bereich zwischen mainstream und performance SKUs wo es sowohl fuer desktop als auch notebook Loesungen so oder so am wichtigsten ist.
AMD braucht dringend einen neuen Brot- und Butterchip für Notebooks und Desktop mit den neuesten Features wie Cape Verde oder Pitcairn.

Leonidas
2016-04-18, 15:29:53
Ich würde es nochmal anders sehen: AMD kann sich die Releasestrategie von NV ausrechnen - HighEnd, Performance, Mainstream, Enthusiast, in dieser zeitlichen Reihenfolge.

Damit ist klar, das NV am Anfang nix bringt, was für OEM-Gefilde gut ist. Anstatt also den Zweikampf mit NV im HighEnd-Segment zu suchen, geht AMD zuerst auf Mainstream & Performance - und wedelt dann den OEMs mit einem erheblichen Zeitvorteil vor der Nase herum.

Ob es zu mehr OEM-Aufträgen für AMD führt, bliebe abzuwarten. Aber so zumindest die Strategie von AMD bei 14/16nm.

Menace
2016-04-18, 17:03:30
Ob es zu mehr OEM-Aufträgen für AMD führt, bliebe abzuwarten. Aber so zumindest die Strategie von AMD bei 14/16nm.

Könnte die Intention der Strategie nicht vielmehr darin liegen, kein zu hohes Risiko (= kein zu komplexe GPU) für eine neue Fertigungstechnik einzugehen? AMD hat nicht die Reserven großartig zu scheitern.

Ailuros
2016-04-18, 17:21:55
Könnte die Intention der Strategie nicht vielmehr darin liegen, kein zu hohes Risiko (= kein zu komplexe GPU) für eine neue Fertigungstechnik einzugehen? AMD hat nicht die Reserven großartig zu scheitern.

Es ist eine Kombination von zu teurer Herstellung und fehlender HBM2 Verfuegbarkeit fuer GP100 und Vega dass sie nicht vor 2017 fuer die Masse verfuegbar sein werden.

Bezweifle ich keinesfalls. Perf/W ist meist nur Nerdgamern mit WaKü völlig wurscht. Selbst viele Selberschrauber fragen erstmal: Reicht mein Netzteil?

Den letzten Satz wuerde ich gar nicht unterschaetzen. Beschaeftigt man sich mit Kaufberatung und es kommt jemand mit einem guten 500-er Netzteil an und will einen Rat fuer eine neue GPU kann ich ihm eben nicht eine 390/390X empfehlen.

AMD braucht dringend einen neuen Brot- und Butterchip für Notebooks und Desktop mit den neuesten Features wie Cape Verde oder Pitcairn.

Werden sie schon geschafft haben IMO; ich bezweifle dass ihre groesste SKU die im Juni vorgestellt wird mehr als sagen wir mal 120-130 W verbrauchen wird.

Sunrise
2016-04-18, 17:23:25
...Ob es zu mehr OEM-Aufträgen für AMD führt, bliebe abzuwarten. Aber so zumindest die Strategie von AMD bei 14/16nm.
Ich denke davon kann man ausgehen, besser als aktuell auf jeden Fall, da muss man denke ich kein Wahrsager sein. So ziemlich alles was OEMs gefällt bietet Polaris auch an.

DX12, Async Compute
Sehr gute VR-Unterstützung
2nd Gen. FreeSync
Ultra HD Blu-ray kompatible Decoder (HEVC, HDR, BT.2020)
8GB VRAM
TDP für Laptops (Apple und Co. bei P11)
TDP für High-End Laptops (Dell und Co. bei P10) und Desktops
Sparsam und leistungsfähig
...

Schnoesel
2016-04-18, 17:25:42
Werden wir Unterschiede bezüglich der Fertigung sehen also 14nm vs 16nm? Was ist "besser" bzw. was ist der Unterschied?

Käsetoast
2016-04-18, 17:25:42
Selbst viele Selberschrauber fragen erstmal: Reicht mein Netzteil?
Das kommt aber auch nur weil die Grafikkarten Hersteller seit ca. 10 Jahren überall ein "Braucht mindestens ein 500 W Netzteil." draufschreiben einfach damit der Dau ein halbwegs aktuelles Netzteil nutzt wo auf den 12V Schienen auch genug Ampere verfügbar sind...

Ailuros
2016-04-18, 17:32:19
Werden wir Unterschiede bezüglich der Fertigung sehen also 14nm vs 16nm? Was ist "besser" bzw. was ist der Unterschied?

14LPP--> Polaris bzw. 16FF+ ----> Pascal duerften IMHO keine besonderen Unterschiede als Prozesse haben.

Nakai
2016-04-18, 17:33:49
Jeglicher Hersteller versucht eben in ein bestimmtes Segment vorzudringen. AMD will mit P10 eben einen Pitcairn-Nachfolger bringen. Man wird wohl nicht mit GP104 direkt konkurrieren wollen.
Wichtig ist nur, dass AMD mit P10 es schafft eine gute Perf/Watt und eine gute Perf/$ zu bringen. Wenn man noch gut liefern kann, wieso sollte der Chip nicht gekauft werden. Dasselbe gilt für P11.

Nebenbei bemerkt wird P10 wohl etwas billiger erstmal erscheinen, als viele Leute erwarten. Mehr als 300$ kann ich mir erstmal nicht vorstellen.

Sunrise
2016-04-18, 17:35:26
Werden wir Unterschiede bezüglich der Fertigung sehen also 14nm vs 16nm? Was ist "besser" bzw. was ist der Unterschied?
Wie Ailuros schon schreibt kann man die Unterschiede wohl mit der Stecknadel suchen. Entscheidend ist da eher die Architektur.

fondness
2016-04-18, 18:24:02
Ich würde es nochmal anders sehen: AMD kann sich die Releasestrategie von NV ausrechnen - HighEnd, Performance, Mainstream, Enthusiast, in dieser zeitlichen Reihenfolge.

Damit ist klar, das NV am Anfang nix bringt, was für OEM-Gefilde gut ist. Anstatt also den Zweikampf mit NV im HighEnd-Segment zu suchen, geht AMD zuerst auf Mainstream & Performance - und wedelt dann den OEMs mit einem erheblichen Zeitvorteil vor der Nase herum.

Ob es zu mehr OEM-Aufträgen für AMD führt, bliebe abzuwarten. Aber so zumindest die Strategie von AMD bei 14/16nm.

Naja, letztlich bringt man da zuerst etwas, wo der größte Handlungsbedarf besteht. AMD muss dringend etwas im Notebookbereich bringen, NV hat den größten Handlungsbedarf zurzeit ganz klar bei Server bzgl DP-Leistung.

maguumo
2016-04-19, 08:26:46
Beschaeftigt man sich mit Kaufberatung und es kommt jemand mit einem guten 500-er Netzteil an und will einen Rat fuer eine neue GPU kann ich ihm eben nicht eine 390/390X empfehlen.

Warum nicht? Reicht doch locker solange man die nicht mit einer CPU mit absolut überduechachnittlichem Verbrauch kombiniere...

Ailuros
2016-04-19, 08:44:44
Warum nicht? Reicht doch locker solange man die nicht mit einer CPU mit absolut überduechachnittlichem Verbrauch kombiniere...

Mag sein dass es fuer Dich reichen sollte mit weiss der Geier welcher merkwuerdigen Kombination, aber es spinnen nicht alle GPU Hersteller wenn sie fuer die GPU Klasse wesentlich groessere PSUs vorraussetzen. Da ich persoenlich immer fuer grosszuegige Sicherheitsmassnahmen stehe wuerde ich eine einfache 390 mit default Frequenzen nicht mit einer <600-650W PSU betreiben. Unter Deiner Logik kann man natuerlich auch das Risiko eingehen und eine GTX970 nur mit einer 400W PSU begleiten, was aber am Grundsatz meiner vorigen Logik keinen millimeter etwas aendert.

iuno
2016-04-19, 08:51:32
Grosszuegige Sicherheitsmassnahmen hin oder her. Wenn das Netzteil nicht absoluter Schrott ist, reichen 500 Watt da locker. Genau fuer diesen Fall geben die Grafikkartenhersteller aber so grosszuegige Werte an.

Ich denke, wir muessen uns nicht darueber streiten, ob Netzteilhersteller gerne teure Netzteile verkaufen. beQuiet! empfiehlt aber z.B. fuer die Kombination i7-4790k, 2 SATA Festplatten, 4 Luefter, R9 390 und die Wahl "es soll uebertaktet werden" Netzteile ab 500 Watt:
http://www.bequiet.com/de/psucalculator

Warum soll man das ganze auch an voellig ueberdimensionierten Netzteilen betreiben, dabei sinkt nur die Effizienz.

R.I.P.
2016-04-19, 08:54:08
http://wccftech.com/amd-polaris-radeon-400-series-gpus-sweep-apple-design-wins/

Apple hat sich scheinbar wieder für AMD mit Polaris 10 und 11 entschieden für ihre Notebooks und Desktops. Für das Notebook Segment wäre das ein sehr wichtiger Schritt nach vorne, auch was das Image von AMD betrifft.

Ailuros
2016-04-19, 09:13:58
Grosszuegige Sicherheitsmassnahmen hin oder her. Wenn das Netzteil nicht absoluter Schrott ist, reichen 500 Watt da locker. Genau fuer diesen Fall geben die Grafikkartenhersteller aber so grosszuegige Werte an.

Ich denke, wir muessen uns nicht darueber streiten, ob Netzteilhersteller gerne teure Netzteile verkaufen. beQuiet! empfiehlt aber z.B. fuer die Kombination i7-4790k, 2 SATA Festplatten, 4 Luefter, R9 390 und die Wahl "es soll uebertaktet werden" Netzteile ab 500 Watt:
http://www.bequiet.com/de/psucalculator

Warum soll man das ganze auch an voellig ueberdimensionierten Netzteilen betreiben, dabei sinkt nur die Effizienz.

Es aendert NICHTS an der Logik dass man fuer die direkten GeForce konkurrierenden Loesungen stets kleinere PSUs braucht. Sonst hab ich nirgends die Netzteilhersteller erwaehnt, sondern die GPU Hersteller wie z.B: http://www.sapphiretech.com/productdetial.asp?pid=FF539E23-7718-4BDE-9E02-CF174D2BFCC2&lang=eng .....wobei es wohl eine globale Konspiration ist um den Netzteilherstellern unter die Arme zu gehen....

Ailuros
2016-04-19, 09:15:22
http://wccftech.com/amd-polaris-radeon-400-series-gpus-sweep-apple-design-wins/

Apple hat sich scheinbar wieder für AMD mit Polaris 10 und 11 entschieden für ihre Notebooks und Desktops. Für das Notebook Segment wäre das ein sehr wichtiger Schritt nach vorne, auch was das Image von AMD betrifft.

Na wenn schon erwaehnt wuerde ich die Konsolen design wins gleich mit erwaehnen ;)

R.I.P.
2016-04-19, 09:20:05
Na wenn schon erwaehnt wuerde ich die Konsolen design wins gleich mit erwaehnen ;)

:eek: Das ist doch klar, dass neue Konsolen NUR mit AMD Technologie auf den Markt kommen ;D

Du hast aber (wie immer :biggrin:) recht

edit: http://wccftech.com/nintendo-nx-gpu-power-rumors-debunked-by-insider/

Scheinbar ist nichts sicher bezüglich Polaris in Nintendos NX.

2 wccftech in einem Post...nicht steinigen bitte

Ailuros
2016-04-19, 09:26:20
Steinigen nein, aber mit so viel wccftech auf einmal wuerde ich schon gerne Teer und Federn bereitstellen ;D :freak: Spass beiseite, bleibt wohl nur noch dass sich Microsoft noch meldet.

iuno
2016-04-19, 09:28:27
Schoen, macht auch absolut Sinn. Das war imho ein erwartbarer Deal, alles andere waere bitter gewesen.
Aber so bekommt etwa ein MBP endlich auch wieder ein ordentliches Upgrade. P11 passt da perfekt, P10 in den iMac 5k. Der Pro wird dagegen wohl nochmal warten muessen, oder bekomt ein Hawaii-Upgrade wenn P10 keine DP Leistung bringt. :lol:

OT: Diese Kommentare bei WCCF... das ist mir noch gar nie aufgefallen. Da passt die Leserschaft ja zur "Redaktion" :ulol:

igg
2016-04-19, 09:40:09
Rechnen sich die Konsolen-Wins für AMD eigentlich oder kommen die da auf +/- 0?

Schnoesel
2016-04-19, 10:28:30
Soweit ich weiß ist die Semi-Custom Sparte die einzige die alle anderen noch über Wasser hält, also ja.

Leonidas
2016-04-19, 10:38:11
Trotzdem dürfte AMD gewisse Schweinepreise machen - weil technisch gesehen könnte Intel genauso APUs liefern. Aber bei Intel existiert wohl eine gewisse Hochpreishaltung, zum Vorteil von AMD.

dildo4u
2016-04-19, 10:38:52
http://wccftech.com/amd-polaris-radeon-400-series-gpus-sweep-apple-design-wins/

Apple hat sich scheinbar wieder für AMD mit Polaris 10 und 11 entschieden für ihre Notebooks und Desktops. Für das Notebook Segment wäre das ein sehr wichtiger Schritt nach vorne, auch was das Image von AMD betrifft.
Apple hat AMD doch schon vorher verbaut,(Mac Pro,iMac,Macbook Pro)das hat also nix mit der tollen per Watt Performance zu tun,sondern weil AMD Ramsch Preise anbietet.Apple will bei jedem Produkte die größte Marge in der Industrie haben,da ist es nötig billig zu kaufen und teuer zu verkaufen.

Botcruscher
2016-04-19, 10:42:01
Gegen Intel sind alles Ramschpreise. NV kann keine APUs liefern und auf die Politik wie bei Open CL hat Apple kein Bock.

PS: Bei einigen Herstellern wird es heute schon schwer überhaupt ein NT unter 500W zu bekommen.

iuno
2016-04-19, 11:06:09
Schon klar :lol: Z.B. fuer die FirePros im Mac Pro, Tonga XT im iMac oder die damaligen Mobilen GPUs gab es ja zum jeweiligen Zeitpunkt auch so viiieel effizientere Alternativen :rolleyes: Ausserdem faellt Nvidia mit OpenCL fuer Apple einfach flach. Natuerlich ist der Preis bei Apple auch unglaublich wichtig aber anders als hier suggeriert wird verbauen sie sicher keinen Schrott.

WWDC ist von 13. bis 17. Juni, waere nett, wenn es da direkt schon klappt.

@igg: das ist immer schwer zu sagen, aber immerhin sorgt es ordentlich fuer Umsatz und das auch ueber laengeren Zeitraum und konstant. Darueber hinaus sieht man ja aktuellen Entwicklungen an, dass mehr in Richtung GCN gemacht wird, insofern kommen die Design-Wins AMD dann natuerlich nochmal sehr zugute.

deekey777
2016-04-19, 11:12:22
Auf welchem Level ist Open CL auf MacOS? (Gewöhnt euch an "MacOS")

Dural
2016-04-19, 11:14:12
War zu erwarten, aber Polaris ist sicher kein schrott, der deal mit Apple muss aber auch nicht unbedingt das gegenteil bedeuten.

AMD scheint immer wie mehr ein auftragsfertiger zu werden, ob sich das mit der zeit lohnt hmm

iuno
2016-04-19, 11:16:09
ltic 1.2, aber es geht ja nicht nur darum

Ailuros
2016-04-19, 11:54:20
Apple hat AMD doch schon vorher verbaut,(Mac Pro,iMac,Macbook Pro)das hat also nix mit der tollen per Watt Performance zu tun,sondern weil AMD Ramsch Preise anbietet. Apple will bei jedem Produkte die größte Marge in der Industrie haben,da ist es nötig billig zu kaufen und teuer zu verkaufen.

Haette NV den deal jetzt gewonnen waere die Laier wohl gewesen dass Apple nicht zufrieden mit AMD war/ist und daher gewechselt hat oder? Apple's Margen haben weniger damit zu tun, sondern eher dass sie bei AMD die OCL Unterstuetzung bekommen die sie haben moechten und auch leicht angepasste designs u.a.

Zettabit
2016-04-19, 12:23:29
Haette NV den deal jetzt gewonnen waere die Laier wohl gewesen dass Apple nicht zufrieden mit AMD war/ist und daher gewechselt hat oder? Apple's Margen haben weniger damit zu tun, sondern eher dass sie bei AMD die OCL Unterstuetzung bekommen die sie haben moechten und auch leicht angepasste designs u.a.
Stellen wir die Frage doch mal andersherum: Eventuell hat AMD den Launch von Polaris10/11 extra vorgeschoben, um diese Chips bei Apple im Sommer unterbringen zu können? Dass wir die Chips anderswo in breiter Masse vor Launch von Kaby Lake sehen werden, ist ja extrem unrealistisch, weil die OEMs ihre Zyklen mit Intel syncen. Apple dagegen schert sich ja darum nicht. Würde also für AMD durchaus Sinn ergeben, die mobilen Chips vorzuziehen, um Apple außerhalb der Reihe zu beliefern.

Sunrise
2016-04-19, 13:12:42
Wenn man zwei oder drei Goliaths der Industrie (z.B. Apple, Intel, NV) Verträge aushandeln ließe, dann wäre es wohl eher nicht so leicht, ordentliche Preise (Schnäppchen) zu bekommen, da jeder von sich behaupten kann (und das ist auch die Realität) Marktführer in gewissen relevanten Bereichen zu sein. AMD ist aber in einer Position, nehmen zu müssen, was Ihnen angeboten wird, damit sie Marktanteile festigen oder ausbauen können. NV hat Ihnen soviele Marktanteile weggenommen, dass AMD eigentlich nichtmal groß überlegen darf.

Das ist also erstmal nur ganz grob Architektur- und Lieferfähigkeit-bedingt, hier geht es schlichtweg wie schon genannt sofort ums Geld. Sofern AMD das hilft um weiter R&D betreiben zu können, und Apple ihre R&D "zahlt" wäre es ja schonmal was, aber damit wird man wohl eher erstmal nicht rechnen können.

Vielmehr spekuliere ich damit, dass Apple bei AMD über kurz oder lang KnowHow abziehen möchte, auf die ein oder andere Art.

Die beiden passen sowieso sehr gut zusammen. Apple benötigt eine zweite Strategie für IMGtec-Alternativen, AMD liefert mehr als genug KnowHow für CPU und GPU und genug Patente, dass diese "Zusammenarbeit" vor allem für Apple viele Vorteile hat.

Ailuros
2016-04-19, 13:38:28
Wenn man zwei oder drei Goliaths der Industrie (z.B. Apple, Intel, NV) Verträge aushandeln ließe, dann wäre es wohl eher nicht so leicht, ordentliche Preise (Schnäppchen) zu bekommen, da jeder von sich behaupten kann (und das ist auch die Realität) Marktführer in gewissen relevanten Bereichen zu sein. AMD ist aber in einer Position, nehmen zu müssen, was Ihnen angeboten wird, damit sie Marktanteile festigen oder ausbauen können. NV hat Ihnen soviele Marktanteile weggenommen, dass AMD eigentlich nichtmal groß überlegen darf.

Das ist also erstmal nur ganz grob Architektur- und Lieferfähigkeit-bedingt, hier geht es schlichtweg wie schon genannt sofort ums Geld. Sofern AMD das hilft um weiter R&D betreiben zu können, und Apple ihre R&D "zahlt" wäre es ja schonmal was, aber damit wird man wohl eher erstmal nicht rechnen können.

Wenn es NUR um's Geld ginge haetten sie auch gleich IMG GPU IP integrieren koennen.

Vielmehr spekuliere ich damit, dass Apple bei AMD über kurz oder lang KnowHow abziehen möchte, auf die ein oder andere Art.

Macht Apple schon immer mit Technologie die sie links und rechts einkaufen.

Die beiden passen sowieso sehr gut zusammen. Apple benötigt eine zweite Strategie für IMGtec-Alternativen, AMD liefert mehr als genug KnowHow für CPU und GPU und genug Patente, dass diese "Zusammenarbeit" vor allem für Apple viele Vorteile hat.

LOL es ist wohl eher so dass sich das i-Zeug von unten nach oben leicht dehnt als andersum und nein AMD hat ueberhaupt nichts dass so stromsparend waere. Es soll gar nichts heissen denn Apple wird wohl fuer noch etliche Jahre dedizierte GPUs weiter einkaufen. Wenn Apple interessiert waere AMD zu kaufen haetten sie es schon seit langem angestellt bzw. man haette zumindest von relevanten Verhandlungen gehoert. Dass sich solche selbst bei Apple nicht verstecken lassen koennen, sahen wir erst vor wenigen Wochen mit IMG.

Es ist uebrigens billiger sw und hw engineers links und rechts aufzunehmen als ganze IHVs zu kaufen fuer das was Apple eigentlich haben will. Ich wusste schon ca. 6 Wochen vor arstechnica dass Apple wohl mit IMG plaudert weil zu viele bekannte engineers zu Apple ruebergewandert sind und so etwas ist selten ein Zufall.

Im guten Ganzen ist Apple zufrieden mit dem was ihnen AMD liefert. Wenn sie NICHT mit einem Lieferant zufrieden sind, geht's zum naechsten mit genauso niedrigen vereinbarten Preisen.

HOT
2016-04-19, 14:29:54
Trotzdem dürfte AMD gewisse Schweinepreise machen - weil technisch gesehen könnte Intel genauso APUs liefern. Aber bei Intel existiert wohl eine gewisse Hochpreishaltung, zum Vorteil von AMD.
Die könnten niemals die GPU-Technik liefern, die Konsolenhersteller brauchen mMn. GCN ist der Intel-Technik um Längen voraus mMn wenn es um Spiele geht. Es sind nicht die Preise, es ist die Kombination aus der Fähigkeit APUs flexibel mit vorhandener Technik, die nicht von Grund auf neu entwickelt werden muss, aufzulegen, die Software entsprechend liefern zu können, das semi-Custom-Projekt und die Fähigkeit das Gewinnorientiert trotzdem zu relativ günstigen Konditionen anzubieten. Intel ist hierbei schlichtweg überteuert (wie bei der XBox damals), nicht andersherum.
Leo ich finds vollkommen lächerlich das derart negativ zu darzustellen und das mir auch alles viel zu einfach formuliert - nur weil AMD mal was hat, wobei die mal Erfolg durch ne sinnvolle Strategie haben. die haben keine "Schweinepreise" gemacht, im Gegenteil, die Konsolendeals haben AMD über 2013 bis 2016 überhaupt gerettet. Ich glaube nicht, dass die Vorgängerkonsolen bessere Deals für die Hardwarehersteller waren, ganz im Gegenteil. Durch Standardisierung der Technik (PC-Technik für Konsolen) und Modularisierung der "Bausteine" schaffte es AMD für die Konsolenhersteller Hardware erschwinglich zu machen und dennoch gut daran zu verdienen. Ein Konsolenhersteller kommt an AMD nicht vorbei, wenn er günstige Top-Hardware haben will, die er selbst zusammenkonfigurieren kann. Das können weder NV noch Intel liefern.

fondness
2016-04-19, 14:48:56
Haette NV den deal jetzt gewonnen waere die Laier wohl gewesen dass Apple nicht zufrieden mit AMD war/ist und daher gewechselt hat oder? Apple's Margen haben weniger damit zu tun, sondern eher dass sie bei AMD die OCL Unterstuetzung bekommen die sie haben moechten und auch leicht angepasste designs u.a.

Jap ist immer die gleiche Laier: Wenn AMD einen Deal landet dann weil sei angeblich so billig sind, bei NV weil sie angelich so super tolle Produkte haben. Manche Leute machen es sich schon etwas sehr einfach.

Sunrise
2016-04-19, 15:22:09
AMD steht dort wo sie stehen nicht, weil sie hohe Preise rechtfertigen, gleichzeitig hohe Volumen fahren und gigantische Margen haben.

Das ist wohl eher ein Wunschtraum der Leute, die ständig nur träumen und die Realität nicht wahrnehmen.

Viele verwechseln aber billig mit Qualität und AMD liefert eben keine schlechten Produkte, sie müssen sie eben leider sehr oft billig(er) anbieten, weil sie sich in diese Sackgasse selbst befördert haben.

Die Konsolendeals sind obwohl diese eigentlich voll im Massenmarkt sind irrsinnigerweise bei AMD sehr gut und besser als alles andere am Laufen. Sowas ist schon ziemlich schräg, weil Konsolen heutzutage in einem extrem preissensitiven Bereich sind, wo bereits beim Design extrem auf Kosten geachtet wird, ansonsten lassen sich Konsolen heute wohl nichtmehr gewinnbringend verkaufen.

Polaris ist eine Fortführung dessen, relativ günstig wieder Marktanteile hinzugewinnen zu können. Das hat auch mit Apple sehr viel zu tun, denn Apple achtet sehr auf die Kostenseite, auch wenn das wie Ailuros schreibt natürlich etwas stark vereinfacht ausgedrückt ist.

Je größer Firmen werden, je stärker fällt jeder Cent ins Gewicht, das war schon immer so, ist schon immer so und wird wohl auch so bleiben, denn so funktioniert unsere Wirtschaft. Und da bindet man sich nicht an Firmen wie Intel oder NV, die ganz andere Argumente haben, höhere Preise verlangen zu können, das ist auch das was Leo meinte, aber gänzlich falsch verstanden wurde.

Dass Intel nicht von jetzt auf nachher AMD ersetzen kann (GPU KnowHow) ist klar, weil Intel viel zu groß ist, aber über 4-5 Jahre gesehen sollte Intel sowas spielend machen können. Nur, warum sollten sie das machen, wenn sie Märkte besetzten können, die viel mehr Gewinne abliefern.

HOT
2016-04-19, 15:47:25
So ist das korrekt ausgedrückt. Die Kosten mögen zwar objektiv für den Konzern egal sein, aber man darf nicht vergessen, dass es nicht Primärzweck eines Konzerns ist Produkte zu verkaufen, ein Konzern muss mindestens im gleichen Maße Investitionen verkaufen und genau da fällt jeder Cent ins Gewicht weil hier jeder gesparte Cent den Kurs treibt. Die haben eben nicht den Konsumenten im Blick, sondern ihren eigentlichen Kunden, den Investor. Wenn man es genau nimmt haben wir es hier schon mit ganz schön perversen Konstrukten zu tun, da wünscht man sich doch das klassische Unternehmen zurück, aber das ist OT.

Und ich teile deine Einschätzung der "3 Goliaths" nicht. NV zählt nicht dazu, definitiv nicht. Die haben noch ihre Nische, den Consumer-Grafikkarten-Markt und ein paar proprietäre Geschichten, die da noch laufen, aber langfristig ist es absehbar, dass auch NV zum Spielzeug (Zulieferer) für die Großen wird. Ich wage sogar zu prognostizieren, dass im Gegensatz zu AMD NV irgendwann einfach gekauft wird.
GlobalFoundries und ein großer Teil von AMD gehören dem arabischen Großinvestor Mubadala und sind in Staatsbesitz von AbuDhabi.
http://www.mubadala.com/en/what-we-do/capital-investments/advanced-micro-devices-amd
Ich muss immer lachen wenn "AMD geht pleite" oder "AMD geht das Geld aus" oder "AMD wird bestimmt gekauft" kommt, sowas lächerliches. So versteht man auch, warum AMDs TSMC-Zeit endgültig vorbei ist, da noch nach Verbindungen zu suchen ist komplett lächerlich. Die sind komplett mit GloFo verheiratet.

Sunrise
2016-04-19, 16:37:11
Und ich teile deine Einschätzung der "3 Goliaths" nicht. NV zählt nicht dazu, definitiv nicht. Die haben noch ihre Nische, den Consumer-Grafikkarten-Markt und ein paar proprietäre Geschichten, die da noch laufen, aber langfristig ist es absehbar, dass auch NV zum Spielzeug (Zulieferer) für die Großen wird. Ich wage sogar zu prognostizieren, dass im Gegensatz zu AMD NV irgendwann einfach gekauft wird.
Wenn ich AMD mit NV vergleiche, dann ist AMD aktuell fast nur noch ein IP-Zulieferer mit geringeren Marktanteilen in den aktiven Märkten, während NV nicht nur im Desktop hohe Marktanteile hat, sondern auch im professionellen Markt, wo NV sehr hohe Gewinne fahren kann. NV ist kein Prinz, sie wissen aber genau wo und wie sie Geld verdienen können. Die gehen in die Märkte in denen sie sich größtenteils befinden mit relativ viel Aggressivität rein (wenn auch manchmal blauäugig, wie bei Tegra), die man bei AMD aber leider entweder gänzlich vermisst oder es wird missverständlich der garnicht kommuniziert.

Das kann sich schnell wieder drehen, aber aktuell ist eher NV der Goliath und AMD muss sich mit der Rolle des David zufrieden geben.

AMD will das ändern, aber das Spiel spielt NV bisher einfach besser, weil AMD sie aufgrund diverser Fehler gelassen hat und bei AMD einfach keine richtige Strategie erkennbar war. Aktuell sieht es aber wieder etwas besser aus.

Jedenfalls würde auch ich wohl eher zu AMD bei einer Custom-GPU gehen, weil bei denen bekommt man wohl State-Of-The-Art IP für sehr kostensensitive Bereiche weit billiger eingekauft, als NV das überhaupt vorsieht, weil NV erstmal mit dem Bankkonto wedelt, bevor sie überhaupt mit dir zusammenarbeiten. Jedenfalls kommt das von extern so rüber.

Zettabit
2016-04-19, 16:49:01
Das kann sich schnell wieder drehen, aber aktuell ist eher NV der Goliath und AMD muss sich mit der Rolle des David zufrieden geben.
Danke, das hatte ich auch so geschrieben, aber ein Mod löscht ja lieber kommentarlos Postings, nur weil man das heile-AMD-Welt-Getrolle von HOT einfach mal nicht unkommentiert stehen lassen kann.

Machen wir uns nichts vor, natürlich verkauft AMD sich deutlich billiger als NVIDIA. Ob das hinterher der einzige/der ausschlaggebende Grund ist, steht natürlich auf einem anderen Blatt Papier.

Aber wie HOT zu behaupten NVIDIA stände mit einem deutlich größeren Umsatz als AMD bei gleichzeitig deutlich fokussierterem Geschäftsfeld in einer Nische ist nicht nur ein Facepalm-Smiley wert.

HOT
2016-04-19, 16:49:11
NV wär wahrscheinlich schon längst aufgekauft (durch AMD oder Intel sicherlich sogar lustigerweise) wenn die nicht durch ein Vorkaufsrecht seitens M$ geschützt wären seit 2001. Das garantiert NV Streubesitz. Aber sollte M$ irgendwann finanziell nicht mehr so rund laufen und/oder sollte der PC-Markt weiter so abstinken werden sie diese Option sicherlich irgendwann verkaufen. Das ist echt lustig, dass M$ den Schutzheiligen für NV spielt aber nicht mit NV sondern mit AMD zusammenarbeitet :D.
Ha Verschwörungstheorie (bitte nicht ernst nehmen, ist Humor): die haben NV sicherlich mit Übernahme oder Verkauf gedroht wenn die DX12 nicht akzeptieren und forcieren trotz unpassender Hardware :D.

iuno
2016-04-19, 16:55:36
Naja, was Belegschaft und Umsatz angeht spielen AMD und Nvidia eigentlich immer noch in der selben Liga. Nvidia hat halt viel hoehere Margen und erwirtschaftet haufenweise Gewinn, AMD natuerlich nicht. NV macht erst seit letztem Jahr deutlich mehr Umsatz.
Wansinnig viel fehlt da aber im Prinzip nicht. Das Unternehmen ist stark eingegangen und wenn Zen und Polaris gut ankommen, ist AMD wohl schnell in den schwarzen Zahlen.
AMD macht halt auch mit CPUs und semi-custom viel Umsatz, Nvidia mit Tegra eher nicht. Dafuer haben sie bei HPC einen Stand und bei Gamer Hardware unglaublich viel Marktanteil. Das Ende von irgendeinem vorauszusagen ist imho Unsinnig.
Allerdings wird es schon langsam kritisch, wenn AMD es 2017 nicht in die schwarzen Zahlen schafft. Aber dafuer gibt es eigentlich einen extra Thread

HOT
2016-04-19, 17:06:41
Halte ich für unsinnig zu denken, dass der Laden überhaupt pleite gehen kann. Wenn die Kurse weiter sinken, kauft Mandala den Rest auf, dann wird AMD eine 100%-Tochter und man wird nichts mehr über Gewinn und Verlust hören. Das geht mMn sowieso in diese Richtung. Seitdem die Read rausgeschmissen haben gehts doch immer weiter in Richtung Expansion, die werden auch weiterhin Verlust machen, aber es wird eben auch sehr viel entwickelt und investiert. Wenn ich an die ganzen Masken denke, für die ganzen Semi-Custom-Klamotten denke, die jetzt kommen, die 4 Grafikchips, die mindestens 3 Zen-Dice - das sind allein 7 14nm-Masken von denen wir sicher wissen in sehr kurzer Zeit, teilweise extrem komplex - wo gehobelt wird, da fallen Späne.

fondness
2016-04-19, 17:10:48
AMD steht dort wo sie stehen nicht, weil sie hohe Preise rechtfertigen, gleichzeitig hohe Volumen fahren und gigantische Margen haben.

Das ist wohl eher ein Wunschtraum der Leute, die ständig nur träumen und die Realität nicht wahrnehmen.

Viele verwechseln aber billig mit Qualität und AMD liefert eben keine schlechten Produkte, sie müssen sie eben leider sehr oft billig(er) anbieten, weil sie sich in diese Sackgasse selbst befördert haben.

Immer die gleiche Leier, AMD=billig, NV= gut. Warum auch differenzieren, wäre ja viel zu kompliziert. Apple hat jahrelang ständig zwischen AMD und Nvidia gewechselt. Seit kurzem machen sie das nicht mehr, sondern sind völlig auf AMD umgestiegen. Was wohl nicht ganz zufällig mit dem OpenCL Engagement von AMD und dem OpenCL Nicht Engagement von Nvidia zusammen fällt. Ganz davon abgesehen, dass AMDs-GPUs gerade im für Apple wichtigen Compute-Bereich nach wie vor führend sind.


Die Konsolendeals sind obwohl diese eigentlich voll im Massenmarkt sind irrsinnigerweise bei AMD sehr gut und besser als alles andere am Laufen. Sowas ist schon ziemlich schräg, weil Konsolen heutzutage in einem extrem preissensitiven Bereich sind, wo bereits beim Design extrem auf Kosten geachtet wird, ansonsten lassen sich Konsolen heute wohl nichtmehr gewinnbringend verkaufen.

Es gab und gibt nach wie vor keine vernünftige SoC-Alternative zu AMD, auch wenn das manche nicht wahr haben wollen und noch immer mit dem Preis argumentieren.


Polaris ist eine Fortführung dessen, relativ günstig wieder Marktanteile hinzugewinnen zu können. Das hat auch mit Apple sehr viel zu tun, denn Apple achtet sehr auf die Kostenseite, auch wenn das wie Ailuros schreibt natürlich etwas stark vereinfacht ausgedrückt ist.

Ich sehe kein Argument sondern nur eine Behauptung. Wo genau und warum ist Polaris "eine Fortführung dessen, relativ günstig wieder Marktanteile hinzugewinnen zu können". Würde Nvidia die exakt selben Chips bringen, wäre das laut dir wohl wieder ein genialer Schachzug oder so. NV hat es bsw. bei Maxwell nicht anders gemacht und auch zuerst die kleinen Chips gebracht. Man liefert dort Chips, wo man den größten Handlungsbedarf sieht, so einfach ist das.

Je größer Firmen werden, je stärker fällt jeder Cent ins Gewicht, das war schon immer so, ist schon immer so und wird wohl auch so bleiben, denn so funktioniert unsere Wirtschaft. Und da bindet man sich nicht an Firmen wie Intel oder NV, die ganz andere Argumente haben, höhere Preise verlangen zu können, das ist auch das was Leo meinte, aber gänzlich falsch verstanden wurde.


Ein Firmenname ist kein Selbstzweck. Die Frage ist, ob diese von dir angesprochene Firmen auch bessere Produkte liefern können - und das ist eben nicht immer der Fall.

Jedenfalls würde auch ich wohl eher zu AMD bei einer Custom-GPU gehen, weil bei denen bekommt man wohl State-Of-The-Art IP für sehr kostensensitive Bereiche weit billiger eingekauft, als NV das überhaupt vorsieht, weil NV erstmal mit dem Bankkonto wedelt, bevor sie überhaupt mit dir zusammenarbeiten. Jedenfalls kommt das von extern so rüber.

Das ist das, was einem das NV-Marketing erzählen will. Das muss man nicht undifferenziert nachbeten. Nvidia hat für Apple nicht nur einmal die Hosen ganz weit runter gelassen.

Zettabit
2016-04-19, 17:28:47
Immer die gleiche Leier, AMD=billig, NV= gut. Warum auch differenzieren, wäre ja viel zu kompliziert.
Ihr seid doch diejenigen, die bei jeder sich bietenden (oder nicht bietenden) Gelegenheit darauf herumreitet, wie AMD doch viel günstiger ist. Fragt euch doch mal warum - oder anders gesagt: Warum schafft es NVIDIA eine Karte mit ähnlicher Leistung für 50 oder 100€ mehr zu verkaufen? Und nicht nur einmalig, sondern um den Faktor 2-3x so oft, wie AMD.

Apple hat jahrelang ständig zwischen AMD und Nvidia gewechselt. Seit kurzem machen sie das nicht mehr, sondern sind völlig auf AMD umgestiegen. Was wohl nicht ganz zufällig mit dem OpenCL Engagement von AMD und dem OpenCL Nicht Engagement von Nvidia zusammen fällt.
Oder auch ganz zufällig damit, dass AMD dringend Chips verkaufen muss, um nicht mit Milliarden bei GloFo in der Kreide zu stehen, ohne einen US$ auf der Habenseite zu haben.

Welche Korrelation (nicht Kausalität!) ist nun richtig?

NVIDIA wusste vielleicht einfach, dass AMD die Maxwell2-Generation keine Paroli bieten kann und hat seine Ressourcen lieber dort investiert, als bei Apple. Es ist einfach nur reine Glaskugel, was du da betreibst.

Nvidia hat für Apple nicht nur einmal die Hosen ganz weit runter gelassen.
Benenne doch mal bitte konkret, wo und wann das gewesen sein soll. Und selbst wenn es damals der Fall gewesen sein soll: Warum sollte es heute immer noch so sein?

Oder glaubt ihr wirklich, mit einer Belieferung von Apple hätte NVIDIA mehr Geld verdient, als z.B. mit einer GTX970? Und ja: Im Zweifelsfall muss man das als Firma abwägen. Man hat eben nur begrenzte Ressourcen und wenn ich einen OEM-Vertrag mit einem Konzern die Apple abschließe (oder jeder andere große OEM), dann muss ich im Ernstfall bei den Consumerprodukten sparen.

Sunrise
2016-04-19, 17:28:52
Ich sehe kein Argument sondern nur eine Behauptung. Wo genau und warum ist Polaris "eine Fortführung dessen, relativ günstig wieder Marktanteile hinzugewinnen zu können". Würde Nvidia die exakt selben Chips bringen, wäre das laut dir wohl wieder ein genialer Schachzug oder so. NV hat es bsw. bei Maxwell nicht anders gemacht und auch zuerst die kleinen Chips gebracht. Man liefert dort Chips, wo man den größten Handlungsbedarf sieht, so einfach ist das.
Der fett gequotete Teil kommt von AMD selbst und war über die Jahre bei AMD nicht groß anders.


What you’ll see us do is completely different with Polaris 10 and 11. We are really focusing on trying to bring FinFET technology with it’s amazing performance per watt to as many segments as possible. As many ranges of performance as possible. I can tell you Ryan, you and your readers, you’ll be pleased at what we’re going to do with this thing and you’ll be surprised.
...
"We’re looking at the entire gamut of players, how many millions of them are there, what they buy, the performance per dollar aspect. How do we make it sweet for them from the performance per dollar aspect”

Dass Apple sich AMD aussucht hat mehrere Gründe und dass Preis nicht der einzige ist, sollte klar sein. Ich bin glaube ich auch einer derjenigen, die oft genug hier im Thread OpenCL usw. als Gründe erwähnt hatten.

Ich will damit nur deutlich machen, dass AMD sich in diesem Markt überhaupt noch bewegen kann, weil Preis/Leistung bei AMD sehr gut ist, und das ist partout nichts Schlechtes, auch wenn einige sich da scheinbar irgendwie persönlich gekränkt fühlen. Nicht AMD bestimmt die Richtung, sondern die Käufer bestimmen AMDs Richtung. AMD lenkt deutlich weniger und lässt sich eher treiben, während NV da deutlich mehr "lenkt".

Wenn AMD so eine gesunde Basis finden kann, warum nicht, aber AMD wird sich aktuell nicht wie eine Prinzessin verhalten können und sich die Käufer aussuchen, vor allem bei solchen Millionendeals, die ihnen zumindest fortwährende Einnahmen sichern. Das Geschäft kann sich aber immer drehen, wie wir ja jetzt über ein Jahrzehnt schon gesehen haben.

Schnoesel
2016-04-19, 17:40:23
AMD muss ja auch über die Marktanteile gehen. Erst wenn du dir wieder eine solide Stammkundschaft aufgebaut hast mit gutem Cashflow kannst du dich dranmachen die Marge zu erhöhen und genau das macht AMD. Man darf nicht vergessen, dass die GPU Sparte doch eigentlich eher nebensächlich ist. ZEN muss liefern, denn das ist das eigentliche Kerngeschäft von AMD das mit Bulldozer sehr gelitten hat.

Diese Design Wins sind allerdings für die Zeit vor ZEN überlebenswichtig für AMD nicht unbedingt um Gewinn zu machen, sondern den Laden am Laufen zu halten.

Sony und MS haben imo auch gar keine andere Wahl. Sie können nicht einfach auf Intel/Nvidia umsteigen. Die Entwickler haben gerade eben erst gelernt GCN richtig zu nutzen, da werden die sicherlich nicht das Ganze zu Grabe tragen.

Zettabit
2016-04-19, 18:56:14
Sony und MS haben imo auch gar keine andere Wahl. Sie können nicht einfach auf Intel/Nvidia umsteigen. Die Entwickler haben gerade eben erst gelernt GCN richtig zu nutzen, da werden die sicherlich nicht das Ganze zu Grabe tragen.
Klar, so wie man ja nie die Prozessorarchitektur gewechselt hat, weil die Entwickler sich ja so an x86 bei der XBox gewöhnt hatten. Moment, war die XBox1 nicht x86, die XBox360 PowerPC und die XBoxOne wieder x86?

Also kurz: Ist Sony und MS scheiß egal. Sagen den Entwicklern halt: Deal with it.

Locuza
2016-04-19, 19:02:40
Die Hersteller haben natürlich eine Wahl, aber völlig egal ist es ihnen nicht.
Dank der bestehenden Technologie befinden sich die Parteien in einer gewissen Komfortzone, die man natürlich nur verlässt, wenn die letzte Zusammenarbeit schrecklich war oder die Angebote einfach zu miserabel ausfallen.

Ailuros
2016-04-19, 20:19:44
Wenn ich AMD mit NV vergleiche, dann ist AMD aktuell fast nur noch ein IP-Zulieferer mit geringeren Marktanteilen in den aktiven Märkten, während NV nicht nur im Desktop hohe Marktanteile hat, sondern auch im professionellen Markt, wo NV sehr hohe Gewinne fahren kann. NV ist kein Prinz, sie wissen aber genau wo und wie sie Geld verdienen können. Die gehen in die Märkte in denen sie sich größtenteils befinden mit relativ viel Aggressivität rein (wenn auch manchmal blauäugig, wie bei Tegra), die man bei AMD aber leider entweder gänzlich vermisst oder es wird missverständlich der garnicht kommuniziert.

Das kann sich schnell wieder drehen, aber aktuell ist eher NV der Goliath und AMD muss sich mit der Rolle des David zufrieden geben.

AMD will das ändern, aber das Spiel spielt NV bisher einfach besser, weil AMD sie aufgrund diverser Fehler gelassen hat und bei AMD einfach keine richtige Strategie erkennbar war. Aktuell sieht es aber wieder etwas besser aus.

Jedenfalls würde auch ich wohl eher zu AMD bei einer Custom-GPU gehen, weil bei denen bekommt man wohl State-Of-The-Art IP für sehr kostensensitive Bereiche weit billiger eingekauft, als NV das überhaupt vorsieht, weil NV erstmal mit dem Bankkonto wedelt, bevor sie überhaupt mit dir zusammenarbeiten. Jedenfalls kommt das von extern so rüber.

Semi custom SoCs sind nicht IP; fuer einen jeglichen IHV mit der Struktur von AMD. NVIDIA und dergleichen reines IP zu verkaufen ist ein ziemlich grosses Oxymoron. AMD verkauft um einiges mehr in diesen Faellen als nur floorplans und Treiber. Ausser Du glaubst natuerlich dass AMD jegliche Konsolen SoC nur fuer eine handvoll $ verkauft. Sie machen schon ein gutes Geschaeft damit aber es werden eben keine Dutzend Millionen Konsolen jeden Monat verkauft. Es ist ein relativ kleines Geschaeft dass sich ueber mehrere Jahre zieht.

Es ist eben NICHT so dass NV nichts davon wissen will; sie haben einfach keine brauchbare CPU eine groessere als ULP SoC damit auszustatten. Ist auch mit unter der Grund warum Denver eigentlich ihre groesste Leiche im Keller ist.

Sonst hat sich NV in desktop bzw. Profi-Maerkten schon seit einer Ewigkeit so stark etabliert dass es praktisch unmoeglich ist dass AMD mit ihren durchaus laecherlichen resources je richtig gegen sie anstinken koennen. Dafuer muesste NV eine Architektur total versauen dass sie wirklich Licht sehen werden und selbst dann wird sich NV zu wenden wissen (wie zu Zeiten NV3x) eben weil sie auch genug resources auflegen.

Thunder99
2016-04-19, 20:22:19
Wird jetzt Polaris 10 knapp unter der Fury X gesehen/spekuliert oder doch eher knapp über der 390x? :confused: Spiele mit dem Gedanken evt früher mal wieder zu wechseln und nicht auf Vega zu warten ;D

Ailuros
2016-04-19, 20:29:30
Wird jetzt Polaris 10 knapp unter der Fury X gesehen/spekuliert oder doch eher knapp über der 390x? :confused:


Uhmmm wo genau liegt da der Unterschied zwischen dem entweder/oder? :freak:

Thunder99
2016-04-19, 20:56:27
Uhmmm wo genau liegt da der Unterschied zwischen dem entweder/oder? :freak:
Wenn man sich so manche Benches anschaut stimmt es :freak:

Ailuros
2016-04-19, 21:12:10
Stell Dir eine GPU mit >380X Leistung vor aber mit um einiges kleineren maximalen Stromverbrauch.

Nakai
2016-04-19, 22:59:08
Mit den spekulierten 2560 SPs und 1,15 Ghz wird man eher bei Hawaii liegen.
Womöglich wird die Bandbreite ein großer Bottleneck werden. Selbst mit mehr Cache und DCC wird man einem 512 Bit SI nicht gleichkommen. Außer AMD bringt noch GDDR5X mit ins Boot. Wer Fiji Performance erhofft hat sie nich mehr alle.

Schnoesel
2016-04-19, 23:12:22
Klar, so wie man ja nie die Prozessorarchitektur gewechselt hat, weil die Entwickler sich ja so an x86 bei der XBox gewöhnt hatten. Moment, war die XBox1 nicht x86, die XBox360 PowerPC und die XBoxOne wieder x86?

Also kurz: Ist Sony und MS scheiß egal. Sagen den Entwicklern halt: Deal with it.


Das kannst du machen bei einem großen Cut also einer völlig neuen Konsolengeneration nach wesentlich längerer Zeit ohne Rücksicht darauf, dass die Spiele auf beiden Versionen laufen. So wie es sich Sony vorstellt ist dies nur mit AMD möglich. Es ist schließlich lediglich eine Performance-Version der bereits existierenden PS4. Wenn Spiele auf beiden parallel laufen müssen kannst du nicht einfach mal eben die Hardware grundlegend ändern.

Der Wechsel von XB zu XB360 zu XBone ist damit schlicht nicht zu vergleichen.

horn 12
2016-04-19, 23:17:24
Nun, dann sind all jene die sich Fiji geholt haben, mich miteinbeschlossen wohl die Weisesten gewesen.
Haben dieses Jahr noch mit Fury, X - Nano Ihren Spass, und auch länger ... Aber halt: Hieß es nicht 2016 wird so spannend und da kommen die richtig geilen Grafikkarten.
Von dem scheint nur wenig bis kaum etwas übrig zubleiben.

GTX 980TI Stock plus 15 bis 20% ist wohl das Maß Aller Gefühle, gepaart mit 8GB Speicher!

dildo4u
2016-04-19, 23:19:51
Nun, dann sind all jene die sich Fiji geholt haben, mich miteinbeschlossen wohl die Weisesten gewesen.
Haben dieses Jahr noch mit Fury, X - Nano Ihren Spass, und auch länger ... Aber halt: Hieß es nicht 2016 wird so spannend und da kommen die richtig geilen Grafikkarten.
Von dem scheint nur wenig bis kaum etwas übrig zubleiben.

GTX 980TI Stock plus 15 bis 20% ist wohl das Maß Aller Gefühle, gepaart mit 8GB Speicher!
Ja sehr weise 500€ für ne 4GB Karte. :rolleyes:

horn 12
2016-04-19, 23:33:56
Nope meinerseits gelinde gesagt 456 Euro im Oktober 2015 bezahlt und immer noch besser als 650+ für eine GTX 980TI/ Fury X zudem erstere nun langsam suckt.

Nakai
2016-04-19, 23:48:33
Was ist eigentlich der Primitive Discard Accelerator? Der Name verspricht, dass Triangles initial entsorgt werden, damit sie nicht die Pipeline zusätzlich belasten. Ein stark erweitertes Occlusion culling? GeometryFX bloß in Hardware? Wäre sehr nice, wenn dadurch Effizienzsteigerungen erreichbar sind.

mczak
2016-04-20, 00:51:43
Was ist eigentlich der Primitive Discard Accelerator? Der Name verspricht, dass Triangles initial entsorgt werden, damit sie nicht die Pipeline zusätzlich belasten. Ein stark erweitertes Occlusion culling? GeometryFX bloß in Hardware? Wäre sehr nice, wenn dadurch Effizienzsteigerungen erreichbar sind.
Müsste ich raten, würde ich sagen das funktioniert ähnlich wie bei nvidia - Dreiecke die man früh "entsorgen" kann erreichen nie den Rasterizer.
Sieht man schön bei theoretischen Tests, nvidia Chips erreichen mehr als den theoretisch möglichen Rasterizer-Durchsatz wenn die Geometrie gecullt wird. So ein GM107 (entsprechendes gilt für alle Maxwell und auch Kepler Chips, wobei Kepler anderen Dreiecksdurchsatz pro SMX hatte) hat z.B. 1 Rasterizer, aber die SMM kriegen 1/3 Dreieck pro SMM hin. Insgesamt also 5/3 Dreiecke pro Takt - und das kriegt der Chip auch hin wenn genügend Tris per Backside-Culling eliminiert werden, auch wenn der bloss 1 Tri pro Takt im Rasterizer verarbeiten kann.
Ist im Prinizip ja ganz einfach, denn clip (normal genauso wie clipDistance), cull (back/frontSide oder cullDistance) geht natürlich locker auch lokal, ohne irgendwelche Synchronisation - nur für Dreiecke die nach diesen Tests noch existieren braucht man den Rasterizer der die dann weiterschickt (und auch für die Synchronisation sorgen muss bei mehrerern Rasterizern).
Bis jetzt scheinen alle GCN-Chips jedenfalls denselben culled/unculled Tri-Durchsatz zu haben.
Ist aber bloss eine Vermutung...

Pick
2016-04-20, 00:53:15
Was ist eigentlich der Primitive Discard Accelerator?

Geometry Processor fur Conservative Rasterization

Nakai
2016-04-20, 01:40:40
Geometry Processor fur Conservative Rasterization

Unwahrscheinlich. Conservative Rasterization ist "nur" eine Modifikation des typischen Rasterisierungsalgorithmus. Das hat erstmal nichts mit dem Geometry Processor zu tun.

Müsste ich raten, würde ich sagen das funktioniert ähnlich wie bei nvidia - Dreiecke die man früh "entsorgen" kann erreichen nie den Rasterizer.
Sieht man schön bei theoretischen Tests, nvidia Chips erreichen mehr als den theoretisch möglichen Rasterizer-Durchsatz wenn die Geometrie gecullt wird. So ein GM107 (entsprechendes gilt für alle Maxwell und auch Kepler Chips, wobei Kepler anderen Dreiecksdurchsatz pro SMX hatte) hat z.B. 1 Rasterizer, aber die SMM kriegen 1/3 Dreieck pro SMM hin. Insgesamt also 5/3 Dreiecke pro Takt - und das kriegt der Chip auch hin wenn genügend Tris per Backside-Culling eliminiert werden, auch wenn der bloss 1 Tri pro Takt im Rasterizer verarbeiten kann.
Ist im Prinizip ja ganz einfach, denn clip (normal genauso wie clipDistance), cull (back/frontSide oder cullDistance) geht natürlich locker auch lokal, ohne irgendwelche Synchronisation - nur für Dreiecke die nach diesen Tests noch existieren braucht man den Rasterizer der die dann weiterschickt (und auch für die Synchronisation sorgen muss bei mehrerern Rasterizern).
Bis jetzt scheinen alle GCN-Chips jedenfalls denselben culled/unculled Tri-Durchsatz zu haben.
Ist aber bloss eine Vermutung...

http://www.hardware.fr/articles/937-5/performances-theoriques-geometrie.html

Bei AMD wird schon gecullt. Aber NV liegt noch Welten davor. Es spricht jedenfalls stark dafür, dass man hier einen Boost erwarten kann. Das ist auich ein typischer Schwachpunkt von GCN-class GPUs. Tonga macht schonmal einen starken Sprung nach vorne.

NV hat eine deutlich niedrigere SP-Dichte, weil man eben mehr ins Frontend gepackt hat. AMD wird da diesmal etwas aufholen bzw. eher aufschließen.

mczak
2016-04-20, 02:09:10
http://www.hardware.fr/articles/937-5/performances-theoriques-geometrie.html

Bei AMD wird schon gecullt. Aber NV liegt noch Welten davor. Es spricht jedenfalls stark dafür, dass man hier einen Boost erwarten kann. Das ist auich ein typischer Schwachpunkt von GCN-class GPUs. Tonga macht schonmal einen starken Sprung nach vorne.

Der Durchsatz bleibt aber in jedem Fall (bei jedem GCN-Chip) auch mit Culling gerade noch unterhalb des theoretisch möglichen Rasterizer-Durchsatzes, das spricht also nicht unbedingt dafür dass man das vor dem Rasterizer macht. Die Culled-Rate skaliert jedenfalls überhaupt nicht mit den Shadereinheiten mit wie das bei nvidia der Fall ist, sondern nur mit der Anzahl Rasterizer.

Langlay
2016-04-20, 03:26:56
Nun, dann sind all jene die sich Fiji geholt haben, mich miteinbeschlossen wohl die Weisesten gewesen.


Seh ich anders. Imo waren aus heutiger Perspektive waren die R9 290 Releasekäufer die die das beste Geschäft gemacht haben. So ne R9 290 ist 25% langsamer als ne Fury NonX und hat zum Release ~340€ gekostet. 1.5 Jahre nach Release der 290 für 25% mehr Leistung über 30% mehr zu zahlen ist imo nicht der beste Deal den man machen kann.

Leonidas
2016-04-20, 04:13:41
Ein Konsolenhersteller kommt an AMD nicht vorbei, wenn er günstige Top-Hardware haben will, die er selbst zusammenkonfigurieren kann. Das können weder NV noch Intel liefern.


Ich denke, Intel könnte das gleiche liefern. Da ist noch ein wenig unsicher, wie gut die gfx im großen Maßstab skaliert - aber da gibt es sicherlich interne Simulationen für. Ansonsten ist Intel technisch dazu in der Lage.

Bei AMD issses einfacher: Sowohl weiss man Bescheid, das große gfx auch wirklich gehen, zum anderen steht das Plus an praktischer Treiberarbeit bei AMD und dann bietet AMD die Customisierung auch standardmäßig an. Am Ende erhofft aber jeder auch noch, das AMD dafür keinen Hochpreis verlangt, wie das bei NV oder Intel der Fall wäre. Und es hat der Recht, der sagt, das Intel und NV aufgrund ihrer Marktstellung einfach verlangen würden.

Und damit Back to Topic ...



Aber halt: Hieß es nicht 2016 wird so spannend und da kommen die richtig geilen Grafikkarten.



Das ist arg Mist gelaufen. Wer sich erinnern kann: Schon anno 2013 gab es die ersten Spekulationen über erste 20nm-Beschleuniger im Jahr 2014! Das haben wir seinerzeit zwar zurückgewiesen und auf das Jahr 2015 geschoben. Dann aber wurde aus 2015 nichts - womit man annehmen durfte, das es nun aber im Jahr 2016 krachen wird. Leider wieder nix gewesen.

mboeller
2016-04-20, 07:37:50
Was ist eigentlich der Primitive Discard Accelerator? Der Name verspricht, dass Triangles initial entsorgt werden, damit sie nicht die Pipeline zusätzlich belasten. Ein stark erweitertes Occlusion culling? GeometryFX bloß in Hardware? Wäre sehr nice, wenn dadurch Effizienzsteigerungen erreichbar sind.

hörte sich für mich nach einer sehr alten Idee an... Delaystreams. Die wurden aber, soweit ich weiß von Nvidia übernommen.

tm0975
2016-04-20, 08:58:00
Wer Fiji Performance erhofft hat sie nich mehr alle.

wenn fury-performance nicht erreicht wird, warum sollte amd diese katen dann so im massiv im preis reduzieren. das sind ja mittlerweile gut 150 bis 200 € weniger, die die fury kostet. das macht man nur, wenn ein (leistungsmäßiger) nachfolger in den startlöchern steht. vermutlich wird eine 480 (x) auf dem leistungsniveaus einer 390 bis fury kommen, mit 8 gb und zum preis von ca 450 bis 500 €.

Ailuros
2016-04-20, 09:20:06
http://www.fudzilla.com/news/processors/40489-amd-to-announce-sugon-deal

Greenland? Steht da wirklich Greendland und dann auch noch HBM2? Wie viele high end GPUs mit HBM2 hat denn AMD wirklich entwickelt? :freak: :weg:

iuno
2016-04-20, 09:30:56
Das Bild ist uralt (mindestens April 15): http://www.fudzilla.com/news/processors/37588-amd-x86-16-core-zen-apu-to-fight-core-i7

Zettabit
2016-04-20, 09:34:26
Greenland? Steht da wirklich Greendland und dann auch noch HBM2?
Ne, steht doch "HMB" :freak:

Ailuros
2016-04-20, 09:41:12
Mensch Ihr habt Erwartungen von Fudo.....:rolleyes:

Nightspider
2016-04-20, 09:57:04
Seh ich anders. Imo waren aus heutiger Perspektive waren die R9 290 Releasekäufer die die das beste Geschäft gemacht haben. So ne R9 290 ist 25% langsamer als ne Fury NonX und hat zum Release ~340€ gekostet. 1.5 Jahre nach Release der 290 für 25% mehr Leistung über 30% mehr zu zahlen ist imo nicht der beste Deal den man machen kann.

Sehe ich auch so. Die R9 290(x) hält extrem gut durch, ist dank 4GB von Anfang an gut ausgestattet gewesen und legt in letzter Zeit immer mehr zu dank CGN Optimierungen bei Konsolenspielen.
Mirrors Edge Catalyst scheint nach den Systemanforderungen ja auch wieder auf AMD GPUs optimiert worden zu sein.
Quantum Break lief auf AMD ja auch schon teils deutlich besser.

Und wenn ich mich zurückerinnere welche Probleme NV Besitzer damals mit Watch Dogs hatten während es bei mir von Tag -2 flüssig lief....^^

Blediator16
2016-04-20, 11:20:31
Ich denke, Intel könnte das gleiche liefern. Da ist noch ein wenig unsicher, wie gut die gfx im großen Maßstab skaliert - aber da gibt es sicherlich interne Simulationen für. Ansonsten ist Intel technisch dazu in der Lage.

Und damit Back to Topic ...



AMD könnte auch HBM draufpappen nur wer zahlt dann die Konsole?
Technologisch wäre jeder in der Lage etwas zu machen nur niemand will eine 1000€ Konsole. Intel kann einfach keinen guten und günstigen Konsolenchip - sie können es einfach nicht. Selbiges gilt auch für Nvidia.

iuno
2016-04-20, 12:31:22
http://videocardz.com/59143/amd-radeon-m400-series-rebrands-confirmed-by-drivers

Angeblich alles bis inkl. der Radeon R9 M470X rebrands (Topaz (Iceland)/Sun und nochmal Bonaire). Insofern ist fuer mich P10 auch fuer mobile bestaetigt (M490), oder haelt es jemand fuer Wahrscheinlich, dass AMD P11 PRO als M480 und XT als M490 verkauft?
Offenbar will man auch die Strategie mit dual graphics weiterfuehren (445DX, 435DX, auch Topaz/Sun). Vermutlich wird dort dann spaeter mit Bristol Ridge nochmal "umgebaut" :ugly:
Ist halt wie immer verwirrend. Sun = Iceland oder gar Oland? Warum heisst der Kram "Sun XT" wenn es vermutlich eigentlich Topaz PRO ist? :confused:

Botcruscher
2016-04-20, 14:24:43
Das ist arg Mist gelaufen. Wer sich erinnern kann: Schon anno 2013 gab es die ersten Spekulationen über erste 20nm-Beschleuniger im Jahr 2014! Das haben wir seinerzeit zwar zurückgewiesen und auf das Jahr 2015 geschoben. Dann aber wurde aus 2015 nichts - womit man annehmen durfte, das es nun aber im Jahr 2016 krachen wird. Leider wieder nix gewesen.
Ich sehe euer Problem nicht. Der letzte Strohhalm für 20nm war die 750TI. Die Gerüchte um den 20nm Totalausfall gehen auch mindesten bis 2013. Mitte 2016 für die ersten 16nm Karten steht nun auch seit einer Ewigkeit fest. An der Strategie von NV hat sich null verändert. "Titan" war für die Consumer immer später. Einzig AMD hat dieses mal keine Lust auf die Fresse zu fallen und fängt im Performance an. Angesichts der über 6 Monate Lieferschwierigkeiten bei den 28nm Kärtchen auch absolut richtig.

fondness
2016-04-20, 20:13:57
Nicht wirklich neue Infos, aber zumindest neu aufbereitet:

http://s31.postimg.org/dylephjbv/AMD_Radeon_2016_2017_Polaris_Vega_Navi_Roadmap.png (http://postimg.org/image/4e1s2ltzr/full/)

http://videocardz.com/59206/amds-official-gpu-roadmap-for-2016-2018

Complicated
2016-04-20, 21:50:17
Sollte das echt sein, könnte man es als Bestätigung sehen, dass Polaris kein GDDR5X erhalten wird. Bei allen anderen Generation werden neu eingeführte Speichertechniken aufgeführt, doch GDDR5X scheint AMD komplett weg zu lassen.

G3cko
2016-04-20, 22:13:06
Seh ich anders. Imo waren aus heutiger Perspektive waren die R9 290 Releasekäufer die die das beste Geschäft gemacht haben. So ne R9 290 ist 25% langsamer als ne Fury NonX und hat zum Release ~340€ gekostet. 1.5 Jahre nach Release der 290 für 25% mehr Leistung über 30% mehr zu zahlen ist imo nicht der beste Deal den man machen kann.

Noch besser 7970 Ghz 330€ Oktober 2012. ;)

Ablöse dann mit Vega 2017. 4,5Jahre ohne große Kompromisse.

M4xw0lf
2016-04-20, 22:13:32
Sollte das echt sein, könnte man es als Bestätigung sehen, dass Polaris kein GDDR5X erhalten wird. Bei allen anderen Generation werden neu eingeführte Speichertechniken aufgeführt, doch GDDR5X scheint AMD komplett weg zu lassen.
Neue Specihertechnik ist etwas hochgegriffen für 5X. Vielleicht wird es deswegen nicht extra erwähnt.

Langlay
2016-04-20, 22:43:15
Noch besser 7970 Ghz 330€ Oktober 2012. ;)

Ablöse dann mit Vega 2017. 4,5Jahre ohne große Kompromisse.

Einigen wir uns auf unentschieden?

Die R9 290 hat das gleiche gekostet kam etwas übern Jahr später und hat 30% mehr Speed und 1GB mehr VRAM als die 7970 Ghz. Also der Aufrüstdruck bei der 7970 ist imo schon höher als bei na R9.

Der kleine Vega wird für R9 290 Nutzer eher weniger interresant sein, mit na 7970 Ghz sieht der kleine Vega dann schon attraktiver aus.

iuno
2016-04-20, 23:08:54
Sehe ich auch nicht als Bestaetigung fuer keinen 5X. Ist nur eine Erweiterung (und zudem ja eigentlich ein Rueckschritt ggue. der Fury Serie), in der Roadmap werden eher Features hervorgehoben. AC gab es auch schon vor der 300er Reihe, FreeSync weiss ich gerade nicht. Kann Tahiti das noch nicht? Ist nur eine kurze Info, da muss ja nicht alles stehen.
Interessanter finde ich, dass Fiji laut der Roadmap abgesetzt wird. Schoen, dann wird P10 aber wirklich bis zur Fury X reichen muessen, sonst es wird bitter. Und das sehe ich ehrlich gesagt mit 256 Bit GDDR5 bei AMD eigentlich nicht. Das Bild suggeriert halt ein komplettes Lineup mit 2 Chips, was ja auch schon den Infos zu den mobilen Loesungen widerspricht. Moeglich waere das schon, gerade auch mit der Abgrenzung und 5X, aber ist es auch wahrscheinlich?

So wie das Bild aussieht, koennte es aber auch einfach mal wieder ein billiger Fake sein.
Alleine wieder die unregelmaessigen Abstaende von den roten Boxen zum weissen Rand, ich hoffe, kein Profi der halbwegs anstaendige Software benutzt macht das so.
Warum ist Vega 10/11 nicht eingezeichnet?
Iirc sagen sie auch idR. "GCN Gen 4", nicht "4th gen GCN" (unsicher).
Und warum steht nirgends RTG oder das Logo? Wird doch jetzt ueberall hingeklatscht was Grafik betrifft.
Warum stehen Vega und Navi in Anfuehrungszeichen, Polaris aber nicht?
Warum hat der Hintergrund uebles Banding wie so ein GIF?
Warum ragen die gestrichelten vertikalen Linien oben nicht bis ueber die Kopfzeile der Tabelle und unten nur die beiden rechten ueber die Tabelle hinaus?

horn 12
2016-04-21, 00:01:04
Könnte AMD so treist sein und einen Fiji 8GB HBM-2 1150 Mhz für den Gegenpart von GP104 zurechtbiegen lassen bis Vega spruchreif wird und dies derzeit nirgends groß kundtud ?
HBM-2 sollte doch bis Juli - August realisierbar und lieferbar sein, vor Allem beim Hand in Hand Händler Hynics?
Somit würde man GP104 ausstechen außer beim Verbrauch, aber selektierte Chips sollten nicht allzuweit entfernt davon liegen.

horn 12
2016-04-21, 00:01:46
@edit

iuno
2016-04-21, 00:24:09
Der Zug ist abgefahren. Fiji rettet auch kein doppelter Speicher mehr. Das Design ist unausgewogen und die Rohleistung wird nicht auf die Straße gebracht. Hynix produziert erst gegen Jahresende HBM2 und Nvidia wird bei Samsung für GP100 ungefähr zu jedem Preis alles kaufen, was es so gibt.

y33H@
2016-04-21, 01:21:48
Sollte das echt sein, könnte man es als Bestätigung sehen, dass Polaris kein GDDR5X erhalten wird. Bei allen anderen Generation werden neu eingeführte Speichertechniken aufgeführt, doch GDDR5X scheint AMD komplett weg zu lassen.Hier die ursprüngliche Quelle ... nämlich AMD selbst ... so schwer ist das doch nicht, Videocardz :mad:

http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9MzI0NjU4fENoaWxkSUQ9LTF8VHlwZT0z&t=1&cb=635918349639602935

iuno
2016-04-21, 01:43:27
Danke
Na in dem Fall muss ich sagen: AMD macht echt scheiß Folien ;p
Das ist dann für mich schon die Bestätigung, dass Fiji ausläuft...

Agent117
2016-04-21, 02:17:18
Interessanter finde ich, dass Fiji laut der Roadmap abgesetzt wird. Schoen, dann wird P10 aber wirklich bis zur Fury X reichen muessen, sonst es wird bitter. Und das sehe ich ehrlich gesagt mit 256 Bit GDDR5 bei AMD eigentlich nicht.

Naja auffallend ist ja schon dass auch die PS4 Neo bei 2,3- facher GPU Rechenleistung nur 25% mehr Bandbreite bekommt.
Klar ist hingegen dass AMD für APUs die durch DDR4 die nächsten Jahre limitierte Bandbreite sehr effizient nutzen muss im Zweikampf mit Intel. Es ist ja nicht so dass Intel nicht schon gut aufgeholt hat was die IGP betrifft.
Man wird daher vmtl. schon darauf Entwicklungsschwerpunkte gelegt haben, hauptsächlich für die APUs und Polaris 11 und 10 profitieren davon dann eben auch.

Ob Polaris 10 mit 256Bit und 7 Ghz auf Fiji Performance ohne Bandbreitenlimitierung kommen kann kann ich natürlich nicht beantworten aber ein deutlich verbessertes Caching mit größeren Cache sollte schon noch Potenzial bieten. DCC vmtl eher weniger.

Seth
2016-04-21, 04:03:56
Also wenn man die Folien genau nimmt...

Seite 3: 2016 Polaris, 2017 Vega ->HBM2

Seite 5: Computing and Graphics Roadmap: 2016
High-Performance GPUs: -2nd Gen High Bandwidth Memory

Also entweder Polaris hat HBM2 oder Vega kommt schon 2016. ;)

horn 12
2016-04-21, 07:05:45
Oder AMD schlägt echt 2 Fliegen mit einer Klappe
Bringt AMD Fiji mit HBM-2 durch einen Vertrag mit Hynics und selektiert die Chips inkl. 1,15 Ghz sollte man knapp mit GTX 1080 mithalten können, ebenso 8GB Speicher und eben nicht bandbreitenlimitiert.
Dies würde der Presse enorm gut gut, HBM 1 beim Pionier-Projekt Fiji, obendrauf HBM-2 bei Fiji´s Mini-Refresh und zudem die Radeon Pro Duo Karte.

Wer weiss was AMD und HYNICS im Stillen Kämmerchen so alles treiben.
Polaris wäre dann auf Effizienz getrimmt, Alle Karten mit 8GB Speicher und die GTX 1080 könnte angegriffen werden , zudem die Vorteile von AC und DX12
Würde bis 2017mit Vega 10/11 locker ausreichen.
Wenn, Falls es so kommen sollte würde es einschlagen wie eine AMD Bombe zum Ersten Mal.
Mal abwarten, was kommt!

victore99
2016-04-21, 07:07:06
Also wenn man die Folien genau nimmt...

Seite 3: 2016 Polaris, 2017 Vega ->HBM2

Seite 5: Computing and Graphics Roadmap: 2016
High-Performance GPUs: -2nd Gen High Bandwidth Memory

Also entweder Polaris hat HBM2 oder Vega kommt schon 2016. ;)
Klingt wie ein Kuriosum, muss es aber nicht sein.
Denn auf Folie 5 steht nicht umsonst "Computing and Graphics Roadmap 2016"
Das kann auch heißen, dass GPU-Computing 2016 schon mit HBM2 kommt. Aber auf den Gamingmarkt geworfen wird das Zeug dann 2017.
So was ähnliches, wie NV mit GP100 fährt.
Nur eben nicht mit einer reinen Compute-Karte.

Skysnake
2016-04-21, 08:30:28
Ist denkbar. Also klingt fuer mich sehr schluessig.