PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 [56]

Achill
2016-03-15, 17:31:17
Ein neues PCB haben sie aber entwickelt, 2cm länger und mehr Spannungswandler, 3x8pin anstelle von 2x , so hat man auch die 16 anstatt 12 Teraflops hinbekommen.

http://www.techpowerup.com/img/15-11-30/217a.jpg
http://www.techpowerup.com/img/16-03-15/Capture1616.jpg

Ist das zwischen den beiden GPUs an der unteren Kante eine PCIe-Switch-Chip oder ein anderer Zusatzchip?

Unicous
2016-03-15, 17:46:17
Ist ein PLX-Switch Chip (PEX 8747 wahrscheinlich). Sieht man auf allen mGPU-Karten.

Rente
2016-03-15, 18:19:33
Ist es nicht ein ganz schön teures Unterfangen so eine Spezialkarte zu entwickeln für die es einen noch kleineren Markt gibt als für alle Titans bisher, speziell wenn man finanziell nicht so gut aufgestellt ist?

Die Karte hat für Spieler aus meiner Sicht deutlich zu wenig VRAM, für den professionellen Einsatz zu wenig DP-Durchsatz und für VR-Entwickler ist sie (ohne Geschenke/Sponsoring) doch viel zu teuer um attraktiv zu sein.

Thunder99
2016-03-15, 18:51:49
Evt liegen auch zu viele Fiji auf Halde :freak:

Pirx
2016-03-15, 18:56:14
Sollte nicht bei DX12/Vulkan der VRAM-Bedarf bei mGPU sinken?

iuno
2016-03-15, 20:24:03
Sollte nicht bei DX12/Vulkan der VRAM-Bedarf bei mGPU sinken?

Das ist in der Theorie so, war für mich aber nie logisch. Man kann nicht einfach das Bild zweiteilen, je einen chip die Hälfte machen lassen und dadurch 100% Speicher sparen. Da ist ja nicht als statisch.Vielleicht lässt sich durch explizite mgpu Nutzung ein bisschen was sparen, aber sicher nicht viel.

'Viel' kann man machen wenn es einen gemeinsamen Speicherpool mit schneller Anbindung oder zumindest einen dicken interconnect gibt

Pirx
2016-03-15, 20:43:14
Ja, sehe ich auch so.

Mortalvision
2016-03-15, 21:17:33
TDP-limitiert? Also, das hätte ich jetzt wirklich nicht erwartet. Vielleicht gibt es ja noch die eine oder andere Custom-Verbesserung, was die Wasserkühlung anbelangt.

Hübie
2016-03-16, 00:49:01
Also doll ist es jedenfalls nicht was da heraus kommt:

http://abload.de/img/3dmark_radeonproduo5fuzs.png (http://abload.de/image.php?img=3dmark_radeonproduo5fuzs.png)

Nightspider
2016-03-16, 02:45:54
Ist es nicht ein ganz schön teures Unterfangen so eine Spezialkarte zu entwickeln für die es einen noch kleineren Markt gibt als für alle Titans bisher, speziell wenn man finanziell nicht so gut aufgestellt ist?

Die Karte hat für Spieler aus meiner Sicht deutlich zu wenig VRAM, für den professionellen Einsatz zu wenig DP-Durchsatz und für VR-Entwickler ist sie (ohne Geschenke/Sponsoring) doch viel zu teuer um attraktiv zu sein.

Ich glaube die Kosten halten sich in Grenzen. Man nutzt ja nur Dinge die es schon gibt. GPU, PLX Chip sind schon da und das Platinenlayout wird auch keine Millionen kosten. Da kommt zwar noch Kleinkram hinzu wie Kühlung designen und testen aber das dürfte sich auch in Grenzen halten.

Ob die damit Gewinn machen? Vielleicht nicht aber das ist ja eh ein Prestige Objekt und dient auch zur Werbung.

Wobei es ja nur viel Sinn macht wenn zwei von den Dual-Karten genommen werden, sonst könnten die Enwickler ja auch einfach zwei einzelne Karten nehmen.

Ich hoffe ja nach wie vor das VR gut mit 4 GPUs zusammenarbeitet, wenn jeweils zwei GPUs pro Auge arbeiten. Die VR Brillen haben ja eh ein Display pro Auge. Dürfte sich gut aufteilen lassen.

iuno
2016-03-16, 03:32:19
Also doll ist es jedenfalls nicht was da heraus kommt:

http://abload.de/img/3dmark_radeonproduo5fuzs.png (http://abload.de/image.php?img=3dmark_radeonproduo5fuzs.png)
Das Ding ist auch nicht fuer implicit mGPU gedacht. Dass es dafuer nicht taugt, war doch schon vorher klar.

Ich hoffe ja nach wie vor das VR gut mit 4 GPUs zusammenarbeitet, wenn jeweils zwei GPUs pro Auge arbeiten. Die VR Brillen haben ja eh ein Display pro Auge. Dürfte sich gut aufteilen lassen.
Da waere ich noch skeptisch. Wenn es 2 GPUs pro Auge braucht, damit 90 (oder wie auch immer die refresh rate dann ist) FPS erreicht werden koennen, ist das problematisch. Bei mGPU kannst du aktuell immer schlechtere Frametimes und hoehere Latenzen. Wenn in VR dann noch die Augen 'auseinanderlaufen' wird es glaube ich richtig eklig

Hübie
2016-03-16, 08:26:02
Ich glaube die Kosten halten sich in Grenzen. Man nutzt ja nur Dinge die es schon gibt. GPU, PLX Chip sind schon da und das Platinenlayout wird auch keine Millionen kosten. Da kommt zwar noch Kleinkram hinzu wie Kühlung designen und testen aber das dürfte sich auch in Grenzen halten.

Ob die damit Gewinn machen? Vielleicht nicht aber das ist ja eh ein Prestige Objekt und dient auch zur Werbung.

Wobei es ja nur viel Sinn macht wenn zwei von den Dual-Karten genommen werden, sonst könnten die Enwickler ja auch einfach zwei einzelne Karten nehmen.

Ich hoffe ja nach wie vor das VR gut mit 4 GPUs zusammenarbeitet, wenn jeweils zwei GPUs pro Auge arbeiten. Die VR Brillen haben ja eh ein Display pro Auge. Dürfte sich gut aufteilen lassen.

Das bedarf einer hochspeziellen Implementierung. Also definitiv nix für die Masse.
Du würdest dich übrigens wundern, wie aufwändig es ist ein PCB zu designen, herzustellen und zu validieren. Da kommen schon sechsstellige Zahlen für ein neues Projekt zusammen. Die Kosten bei der Herstellung waren afaik proportional zur Anzahl der Layer.

iuno
2016-03-16, 08:45:13
Gut, so viele Layer gibt es ja mit HBM nicht mehr ;)

Hübie
2016-03-16, 08:56:51
Guter Punkt. Weiß jemand wieviel Layer die PCBs der Fiji-Karten haben? :|
Wirtschaftlich ist die Pro Duo jedenfalls nicht. Dafür lege ich die Hand ins Feuer. Man bekommt so nur ein Bein in die Tür der Devs und diese erlangen Erkenntnisse.

Zettabit
2016-03-16, 09:16:42
http://1.f.ix.de/imgs/18/1/7/6/9/5/4/3/Radeon_Pro_Duo_3-8f392980da51bb29.png

Das ist nicht deren Ernst, oder? :rolleyes: Was wollen die mit so einem winzigen Radiatörchen?

Loeschzwerg
2016-03-16, 10:01:33
140mm, oder? Dürfte doch ausreichen.

Raff
2016-03-16, 10:10:04
Ist doch kein Problem – die Karte wird schlicht und ergreifend nicht so leise sein wie die Fury X, da der Radi-Lüfter zur Abwechslung mal gefordert wird. Vermutlich sind dann Drehzahlen im 2.000er-Bereich anzutreffen.

MfG,
Raff

iuno
2016-03-16, 10:12:50
darf ich daran erinnern, dass man bei der 295x2 auch so klar kam?

Dural
2016-03-16, 10:13:32
ja und auch die hat schon bei Volllast getrosselt, oder war so laut das man nichts mehr verstand.

sieht aber nach 120mm aus?

das beste finde ich die grösse der karte, wie war das noch mal, dank HBM können wir sehr kleine karten bauen ;D;D;D

dargo
2016-03-16, 10:26:48
das beste finde ich die grösse der karte, wie war das noch mal, dank HBM können wir sehr kleine karten bauen ;D;D;D
:rolleyes:

Wo soll die ganze Spannungsversorgung bei zwei GPUs hin? Auf den Radiator? :ulol:

ndrs
2016-03-16, 10:37:01
:rolleyes:

Wo soll die ganze Spannungsversorgung bei zwei GPUs hin? Auf den Radiator? :ulol:
Warum nicht? Leitfähige Kühlflüssigkeit und problem gelöst :ulol:

fondness
2016-03-16, 18:28:32
Ist doch kein Problem – die Karte wird schlicht und ergreifend nicht so leise sein wie die Fury X, da der Radi-Lüfter zur Abwechslung mal gefordert wird. Vermutlich sind dann Drehzahlen im 2.000er-Bereich anzutreffen.

MfG,
Raff

Wer weiß, ob die TDP überhaupt wesentlich über der FuryX liegt...

reaperrr
2016-03-16, 21:09:08
Wer weiß, ob die TDP überhaupt wesentlich über der FuryX liegt...
Nicht mehr als 375W, würde ich nach den bisherigen Infos schätzen. Also quasi Nano x2 mit 25W extra für etwas höheren Durchschnittstakt.

Hübie
2016-03-16, 22:26:55
Und dann 3 x 8 Pin? :confused: So ein content creator wird glaub ich nicht zu den OC-Gurus gezählt :freak:

Korvaun
2016-03-17, 08:16:38
Für 2mal 1080*1200 bei 90Hz sollte es locker reichen. Außerdem ist das ja ne "Profi-Karte", die muss also nicht leise sein ;)

Hübie
2016-03-17, 10:58:21
Ich wüsste jetzt auch nicht, wann ein content creator im Jahre 2015/2016 mit 4 GB VRAM auskäme. :| Ich halte es nach wie vor für den Versuch einer Rettung des Projekts. NVIDIA pappt seit Äonen zwei derer Top Dogs auf ein PCB, aber nicht immer wird es dann auf den Markt gebracht. Mit Maxwell erspart man sich wohl das "Desaster". :D

OBrian
2016-03-17, 12:21:43
ja mein Gott, ist doch egal. So ein Projekt kostet fast nichts, da muß nur die Platine gebastelt werden, man bestückt sie mit dem eh vorhandenen Krempel und baut eine schöne Kühllösung drauf. Wenn es kaum einer kauft, dann war's wenigstens ein PR-Stunt. Für ein neu erarbeitetes Designkonzept für die Präsentationsfolien geben sie sicher mehr aus.

Aber ich denke, wer sich einen kleinen Powerwürfel zusammenbauen will, wo zwei Nanos nicht auf das ITX-Brett passen, der ist ganz froh über so eine Möglichkeit. Und der ein oder andere wird es einfach kaufen, weil es die fetteste Karte ist. Also ein paar werden bestimmt verkauft.

Unicous
2016-03-31, 15:11:18
Dual "Nano" für HPC

AMD Announces FirePro S9300 X2: Dual Fiji for HPC (http://anandtech.com/show/10209/amd-announces-firepro-s9300-x2)

13,9 TFLOPS, 300W.

$5999:freak:

iuno
2016-03-31, 15:28:44
Still und heimlich ;)
schon uebel, ~14 TFLOPS und 300 Watt bei nur ~850 MHz. Und das mit 2x4 GiB.
Ob Nvidia noch eine Tesla M80 nachschiebt? :ugly:

Tamagothi
2016-03-31, 18:05:22
Das ding würde sich verkaufen wie sonst was wenn da nicht diese 4Gb wären ;(

Kartenlehrling
2016-03-31, 18:12:10
Was ich halt nicht verstehe, sie hatten auf der Präsentation schon gesagt das die Radeon Duo (auch) mit Workstation Graphics Drivers läuft,
wieso soll ich dann 6000€ bezahlen wenn ich die nanoX2 schon für 1600€ bekomme ?

AffenJack
2016-03-31, 18:32:06
Weil du die andere nicht in einen Serverrack bauen kannst und das nur mit dem Passivkühler geht, den die S9300 hat. Auch mag der Service ein anderer sein.

Kartenlehrling
2016-04-09, 10:11:20
Bei FP32-Operationen soll die Karte eine Leistung von 16 TFLOPS bewerkstelligen - die so eben von Nvidia vorgestellte Tesla-P100-Grafikkarte mit der auf der Pascal-Architektur basierenden GP100-GPU kommt hier auf 10,6 TFLOPS.
Nun scheint sich abzuzeichnen, dass die Pro Duo, die sich speziell bei VR-Anwendungen bzw. -Spielen auszeichnen soll, am 26. April zu den Händlern kommen könnte. Sie soll 1499 Dollar kosten.


Ich verstehe immer noch nicht wieso Coolmaster so ein Baukastenkühlung verbaut hat,
eine Kühlplatte für beide GPU und die Pumpe am Radiatorkühlkörper das wär doch aufgeräumter und effizienter.

http://www.tomshardware.de/radeon-pro-duo-fiji-xt-dual-gpu,news-255320.html

Kartenlehrling
2016-04-13, 15:12:05
http://cdn.wccftech.com/wp-content/uploads/2016/04/AMD-Radeon-Pro-Duo-Package-Unboxing_1.jpg


LOL ... da wurde noch vor Tagen über die Nvidia Pascal Ausbeute Witze gemacht ....


@ scully1234

Es gab für jeden Keynote-Teilnehmer einen GP100 als Schlüsselanhänger weil nur 5 der 90 Dies pro Wafer funktionieren :P

iuno
2016-04-13, 15:20:59
Der Tweet ist schon ein paar Tage alt: https://twitter.com/iBUYPOWER/status/718183532397490177
Das ist schon uebel :ulol: Aber warum auch nicht? Wenn das nicht mal als PRO taugt und sonst auf dem Abfall landet, ein paar der ersten HBM Chips/Kombis fuer Enthusiasten zum Einrahmen ;p

Loeschzwerg
2016-04-13, 17:18:13
Gebt dem Kollegen OC_Burner so ein Ding zum sezieren :D

von Richthofen
2016-04-13, 18:46:33
Das dient der reinen Kostenersparnis des ohnehin teuren Designs.
Die Endmontage erfolgt mithilfe der beiliegenden Anleitung beim Kunden. :D

Blediator16
2016-04-13, 18:58:38
Am Ende ist es nur ein Stück bedruckte Folie :D

Ailuros
2016-04-15, 10:36:20
Pah also ich zumindest hab es erwartet: http://www.anandtech.com/show/10253/amd-announces-32gb-firepro-w9100

iuno
2016-04-15, 10:47:12
Naja, nichts Besonderes, eigentlich. Die S gibt es ja schon lange mit 32 GiB.
Laesst aber natuerlich darauf schliessen, das Hawaii noch eine Weile lebt und von P10 nicht gaenzlich ersetzt werden kann...

Skysnake
2016-04-15, 11:57:05
Ja davon muss man wohl leider ausgehen.

So recht dran glauben will ich nicht, das man das nur bringt fuer die Leuete, bei denen es rein um den RAM geht. HBM2 wird ja auch nicht mehr bieten, und wahrscheinlich auch nicht direkt.

Mal schauen, ob es AMD doch mal wieder schafft etwas zu verkacken.

iuno
2016-04-15, 11:59:24
http://www.golem.de/news/firepro-w9100-amd-verdoppelt-den-videospeicher-auf-32-gbyte-1604-120346.html
@y33h@, falls du das hier liest (hab keinen Account bei Golem):
die 9300x2 mit zwei Fijis hat natuerlich nicht mehr FP64 Leistung als die 9100. Ein FirePro Pendant zur 295x2 mit 1:2 DP gibt es auch nicht.

y33H@
2016-04-15, 12:56:23
Ja, du hast völlig Recht. Ist Fiji ...

HOT
2016-04-15, 22:20:41
Hawaii ist kaum ersetzbar im Profisegment fürs erste. Die DP-Leistung gepaart mit dem Speicherinterface und den möglichen 32GB sind schwer ersetzbar mit 2 HBM2-Stapeln bei Vega und Polaris hat die DP-Power einfach nicht, weil der zwar Hawaii im Desktop ersetzt aber eben ein günstig-Produkt ist. Der Chip wird also sicherlich noch ne ganze Weile im Programm bleiben im Profibereich.

Sunrise
2016-04-16, 01:55:55
Naja, nichts Besonderes, eigentlich. Die S gibt es ja schon lange mit 32 GiB.
Laesst aber natuerlich darauf schliessen, das Hawaii noch eine Weile lebt und von P10 nicht gaenzlich ersetzt werden kann...
Dafür ist das SI zu schmal, daher wird wie bei NV mit GK110/180/210 oder wie auch immer Hawaii eben solange verkauft bis es keine Abnehmer mehr gibt oder AMD ein Produkt liefern kann, dass Hawaii nicht nur DP-mäßig deutlich schlägt, sondern auch genug VRAM liefern kann.

Das Ding sollte mittlerweile für nen Appel und nen Ei herstellbar sein, und AMD bei jedem Verkauf ordentlich Gegenwert liefern, für sowas ist immer Platz.

Fiji ist viel zu teuer und zu beschnitten ggü. Hawaii. In fast jeder relevanten Hinsicht.

Schrotti
2016-04-16, 02:59:08
Ich könnte echt wieder zum AMD Fan werden.

Meine beiden 1455MHZ GTX 980 verkauft (für richtig gutes Geld) und nun ersatzweise wieder eine R9 390 im System.
CP startet sofort, Karte ist performant, ICH LIEBE SIE (bis auf die Lautstärke).

Werde Sie wohl an http://www.liquidextasy.de schicken um einen Wasserkühler zu bekommen (es sei denn Pascal von nv ist brutal schneller).

fondness
2016-04-16, 07:33:48
Congratz, du bist mittlerweile längst nicht der einzige, der einen ähnlichen Schritt vollzogen hat und dabei ähnliche Erfahrungen gemacht hat...ich frage mich nur, warum die Leute immer zuerst NV viel Geld zahlen müssen, bevor sie solche Dinge "bemerken". Welche Karte hast du denn, gibt durchaus auch leise 390er.

tm0975
2016-04-16, 07:42:30
Die beste 390 (sapphire, powercolor) wird laut, wenn das Gehäuse nicht ausreichend entlüftet wird.

Hübie
2016-04-16, 08:40:02
Congratz, du bist mittlerweile längst nicht der einzige, der einen ähnlichen Schritt vollzogen hat und dabei ähnliche Erfahrungen gemacht hat...ich frage mich nur, warum die Leute immer zuerst NV viel Geld zahlen müssen, bevor sie solche Dinge "bemerken". Welche Karte hast du denn, gibt durchaus auch leise 390er.

Das liegt u.a. an der Psychologie die hinter dem Verkauf steckt. Es gibt sogar Doktortitel für Wirtschaftspsychologie. :D
Bei Release der GTX 980 war die 390(X) abgeschlagen und von der Effizienz meilenweit (übertrieben) weg von der GM204 GPU. Das hat sich durch neue Treiber und eingefahrenen Prozess (Stichwort "undervolting") etwas verschoben. Dazu kommt der Fakt dass man mit GM204 bei 4 GB stecken bleibt. Es stellt sich also heraus, dass viele Käufer nicht langfristig denken und investieren. Darauf baut NVIDIA's Konzept ja auch. ;) Das heißt ja nicht dass deren Produkte Abfall sind. Aber bei NVIDIA zahlt man in jedem Falle, genau wie bei Intel, das was du bekommst. Und das ist immer 25% über NN.
Just my two cents.

iuno
2016-04-16, 12:04:26
Jaja schon klar. Als ob sich der überwiegende Großteil der Käufer um die Effizienz schert. Die wissen schlicht gar nicht, dass es Alternativen gibt.
Ich habe sogar schon Leute erlebt, die es feiern wenn ihre gtx460(!) ordentlichen Krach macht weil das ja impliziert dass sie ein Monster ist und richtig power hat :facepalm:
Zum release der 980 gab es übrigens keine 300er Serie.

Botcruscher
2016-04-16, 12:12:32
Weil Hawaii auf der 290er ja so viel anders ist.

Kriton
2016-04-16, 12:32:30
Allein die 8 GB (im Standard) sind ein Unterschied.

OBrian
2016-04-16, 13:51:50
(es sei denn Pascal von nv ist brutal schneller)also wenn das nicht so sein sollte, dann wär aber brutal was falsch gelaufen bei denen.

ob sich dann der Kauf lohnt, ist ne andere Frage, wird ja sicherlich auch brutal teurer. Solange es keine Konkurrenz gibt, sehe ich nicht, warum Nvidia an irgendwas ein nur dreistelliges Preisetikett kleben sollte. Ich hoffe mal, AMD läßt sich nicht so ewig Zeit damit, im Performancebreich oberhalb Fiji auch was zu bringen.

Thunder99
2016-04-16, 13:54:04
Congratz, du bist mittlerweile längst nicht der einzige, der einen ähnlichen Schritt vollzogen hat und dabei ähnliche Erfahrungen gemacht hat...ich frage mich nur, warum die Leute immer zuerst NV viel Geld zahlen müssen, bevor sie solche Dinge "bemerken". Welche Karte hast du denn, gibt durchaus auch leise 390er.
Ganz einfach. Wenn man unzufrieden mit dem Produkt ist gibt man es zurück. Im meinem Falle war es so mit der HD7950 ;).

Dann hat mich nvidia enttäuscht und die 970 ging zurück. Nun hat aber AMD aus den Fehlern gelernt und die R9 290 ist weitaus besser im Gesamtpaket als es die 7950 vorher war :)

Einzige was ich echt vermisse ist die volle Kontrolle über Bits und Co (AA/SGSSAA) :D :( (Beispiel in WoWs kann man AA mit nvidia erzwingen, mit AMD leider nicht... f*** FXAA...)

Kartenlehrling
2016-04-16, 14:37:40
WOW hat doch AMD EQ8x16 reicht das nicht um jede Falte aus WOW zu glätten?

kdvd
2016-04-16, 14:50:34
Es stellt sich also heraus, dass viele Käufer nicht langfristig denken und investieren.

Aber im September 2014 gab es nur eine 290X mit 4GB?! :confused:
Und die spätere 8GB Version war teuer und kaum schneller, bzw wenn dann nur in UHD.

http://www.3dcenter.org/news/erster-sinnvoller-test-der-radeon-r9-290x-8gb-zeigt-gute-mehrperformance-durch-den-mehrspeicher

Effe
2016-04-16, 14:52:40
WOW hat doch AMD EQ8x16 reicht das nicht um jede Falte aus WOW zu glätten?
WoWs=World of Warships.
Das Spiel kantenflimmert sich zu Tode.

Thunder99
2016-04-16, 16:15:04
WoWs=World of Warships.
Das Spiel kantenflimmert sich zu Tode.
Genau, leider :(

horn 12
2016-04-16, 20:35:03
1696 Euro
1 Ghz Takt
281 x 116 x 42 cm Größe der Duo Karte

http://videocardz.com/59107/xfx-radeon-pro-duo-detailed-costs-1696-eur

uweskw
2016-04-17, 12:43:58
Mal die totale Noob-Frage:
Wenn an der Architektur nicht viel geändert wird, ist es dann nicht machbar Hawaii und Fury dank Shrink mit ca. 1500MHz laufen zu lassen?
Wäre das nicht schneller und güstiger als das hier besprochene???

greetz
US

BlacKi
2016-04-17, 12:53:02
Noob antwort:
10-20% bestimmt, aber genau die architektur ist mit verantwortlich wieviel takt ein chip mitmacht. siehe kepler und maxwell, selbe fertigung aber 20% mehr takt durch optimierung der chiparchitektur.

uweskw
2016-04-17, 13:15:45
Danke, hätte schon gedacht, dass da ne Ecke mehr drin ist, wenn man die Packdichte nicht gar so extrem ausnutzt.

greetz
US

Hübie
2016-04-17, 13:49:11
Aber im September 2014 gab es nur eine 290X mit 4GB?! :confused:
Und die spätere 8GB Version war teuer und kaum schneller, bzw wenn dann nur in UHD.

http://www.3dcenter.org/news/erster-sinnvoller-test-der-radeon-r9-290x-8gb-zeigt-gute-mehrperformance-durch-den-mehrspeicher

Zwei Monate später gab's 8GB. Beim VRAM geht's doch gar nicht darum schneller zu sein, sondern weniger Spikes bei Frametimes zu haben. :|
Mit DX12 sieht man ja wo man landet wenn IHV ihre Finger im Spiel haben. Des einen Freud, ist des anderen Leid. Und damit meine ich sogar Käufer innerhalb eines der beiden Lager. ;)

kdvd
2016-04-17, 14:52:34
Mit bezug auf dein "langfristig denken und investieren", da ist schneller werden/aufholen/gleichziehen aber schon ein Punkt und diesen hatte erst die 390/390X.
Vom OC Potential der GM204er ganz zuschweigen. Also "langfristig denken und investieren" hat damals sicher jeder Kunde getan, aber es blieb ein Abwegen zwischen grundsätzlich mehr FPS + OC Potential und weniger Speed aber 8GB. Und nun ja Texturedetails kann man verringern, aber die Grundgeschwindigkeit ändert sich nicht.

Btw. DX12 sollte meiner Meinung nach >langfristig< ignoriert werden.
Vulkan muss endlich die Zukunft sein.

Hübie
2016-04-17, 15:29:37
Hm. Guter Punkt. Stimmt schon. Hängt auch mit eigenen Präferenzen zusammen. Vulkan wird sich wenn überhaupt erst später durchsetzen. Der Fokus liegt klar auf Mobilgeräte.

Skysnake
2016-04-17, 15:32:40
Noob antwort:
10-20% bestimmt, aber genau die architektur ist mit verantwortlich wieviel takt ein chip mitmacht. siehe kepler und maxwell, selbe fertigung aber 20% mehr takt durch optimierung der chiparchitektur.
Das kann man nicht wirklich so sagen.

Klar entscheidet die grundlegende Architektur, ob man jetzt eher im MHz oder GHz Bereich sich bewegt, allerdings hängt von der konkreten Implementierung der Schaltungen >50% der endgültigen Taktrate ab.

horn 12
2016-04-23, 14:50:07
http://wccftech.com/amd-radeon-pro-duo-official-specifications-leaked/

50% über Titan X
30% über R9 295X2

dildo4u
2016-04-23, 14:55:09
Preis Leistung ist also genau wie bei Titan X mit 4GB Pro GPU?Hätte nich gedacht das AMD mal das Titan Programm einholt was miese Performance pro Euro angeht.
Die haben nicht mal durchgängig Benches gefunden wo die Karte gut aussieht das scaling bei Tomb Raider und Syndicate ist grottig zu wenig Vram.

Kartenlehrling
2016-04-23, 15:20:40
Die Wasserkühlung von EK-WaterBlocks sieht gut aus, auch wenn ich die zweite Chipzone befremdend finde.
Dieses Fischertechnik-Baukastensysteme von Coolmaster ist ja ein Witz.




http://cdn.wccftech.com/wp-content/uploads/2016/04/AMD-Radeon-Pro-Duo-Waterblock-EK-1.jpg

Schnoesel
2016-04-23, 18:57:23
Hätte nich gedacht das AMD mal das Titan Programm einholt was miese Performance pro Euro angeht.

Da steht die Titan Z ja wohl noch unangefochten an der Spitze. Sehen wir es als das an was die Karte ist ... irrelevant! :biggrin:

fondness
2016-04-23, 19:01:08
350W TDP, also wie erwartet 2x Nano.

y33H@
2016-04-25, 07:27:51
Radeon Pro Duo von XFX zerlegt: http://www.expreview.com/46802.html

horn 12
2016-04-25, 21:29:45
Sieht gut aus für die Radeon Pro Duo.

60% über Fury X und beim Verbrauch erstaunlicherweise kanpp über Fury X - GTX 980TI
Zudem nicht viel uneffizienter als die Nano! Sind somit wie 2 Nano´s welche aber knappe 900 Euro kosten :-)

http://wccftech.com/amd-radeon-pro-duo-benchmark-results-leaked/

Kartenlehrling
2016-04-25, 21:43:38
Also die Verbrauchs- und Temperaturwerte kann ich als Nano Besitzer nicht glauben.


http://www.computerbase.de/forum/attachment.php?attachmentid=529986&d=1448911715

y33H@
2016-04-26, 15:16:56
Radeon Pro Duo wurde veröffentlicht: http://www.golem.de/news/radeon-pro-duo-die-schnellste-grafikkarte-kommt-in-den-handel-1604-120546.html

[mit den bekannten Slides]

M4xw0lf
2016-04-26, 15:22:38
Veröffentlicht im weitesten Sinne, d.h. ihre Existenz wurde bestätigt. :freak:

soLofox
2016-04-26, 15:27:00
Veröffentlicht im weitesten Sinne, d.h. ihre Existenz wurde bestätigt. :freak:

kannst auch bestellen ;)

http://geizhals.eu/amd-radeon-pro-duo-a1384783.html

Agent117
2016-04-26, 15:38:06
Capsaicin XT nennen sie den Fiji Chip für die Pro Duo. Das war doch mal ein Teaser von Raja Koduri auf Twitter mit versteckten Hinweisen auf 8,6M Transistoren oder GFlops und noch irgendwas mit 16 Millionen.

Hatte dann aber wohl mit Polaris rein garnichts zu tun wie damals alle vermuteten.

Hübie
2016-04-26, 16:53:42
Doof nur, dass Fiji 8.900 Mio Transistoren auf 596 mm² hat, was 14,9 Mio pro mm² ergibt. :D


http://abload.de/img/nano_verbrauchzrspw.png (http://abload.de/image.php?img=nano_verbrauchzrspw.png)

Das kann ich auch nicht glauben :D :biggrin:

FTFY:

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=55765&stc=1&d=1461682943

fondness
2016-04-26, 17:22:06
Ein paart Benchwerte: http://videocardz.com/59373/amd-radeon-pro-duo-review-posted-ahead-of-launch

Die Leistungsaufnahme ist schon "interessant:

http://s32.postimg.org/wgfqvu9vp/AMD_Radeon_Pro_Duo_Benchmarks_Results_Power_Cons.png (http://postimage.org/)

dildo4u
2016-04-26, 17:25:59
Nutzlos ohne Angabe der Auflösung nur Heaven skaliert über 2 GPU's nutzt die Karte aber in 1080p vermutlich nicht aus.Viel interessanter wäre Witcher 3 in 4k.

dargo
2016-04-26, 17:37:47
Wieso nutzlos? Die Karte rennt doch schon ins PT-Limit bei Heaven mit 991Mhz. Da wird sich bei höherer Last am Stromverbrauch nichts ändern. Das einzige was ich seltsam finde ist, dass das gesamte System im Furmark nur 280W zieht. Warum macht die Karte so früh bei 350W TDP dicht? :confused:

PS: in Heaven macht sie natürlich auch zu früh zu.

Hübie
2016-04-26, 18:12:40
Die lassen in 1080p, extreme Tess und 8xMSAA laufen. Keine Ahnung wie das auf der Fury aussieht aber ne GM200 wird afair ausgelastet.

BlacKi
2016-04-26, 18:33:18
sieht jemand unterschiede zu einem CF system mit nano´s? ausser im preis und lautstärke? von daher...

Hübie
2016-04-26, 18:48:17
Lisa Su, Roy Taylor und Johan Andersson haben ihre Käufe schon bewertet. Die hatten das Ding wohl schon früher.

Im kommenden Call kann man dann vermelden, der Absatz der Radeon Pro Duo habe sich verdoppelt :biggrin:
http://abload.de/img/radeonproduo_gh.ded4sn5.png (http://abload.de/image.php?img=radeonproduo_gh.ded4sn5.png)

SCNR!

b2t: Expreview ist für die Tonne*, also warten wir mal ab was echte Reviewer uns da vorsetzen. Verbrauch sieht aber schon mal Human aus, dafür dass die Karte 300 Watt ziehen darf. :freak:
Ich hab auch gerade einen Knoten im Hirn. Was ist bei Kartenlehrling seinem Screen jetzt eigentlich so gut? :confused:

Edit: *z.B. FuryX @4k in The Division - Ultra: ~45 fps - gibt kein Review welches das ansatzweise bestätigt

dildo4u
2016-04-29, 12:40:26
Pcper hat sich ne Pro Duo besorgt und wird sie testen.


https://youtu.be/-E_e3QVxlCk?t=10m20s

Knuddelbearli
2016-05-03, 21:26:45
Mit bezug auf dein "langfristig denken und investieren", da ist schneller werden/aufholen/gleichziehen aber schon ein Punkt und diesen hatte erst die 390/390X.
Vom OC Potential der GM204er ganz zuschweigen. Also "langfristig denken und investieren" hat damals sicher jeder Kunde getan, aber es blieb ein Abwegen zwischen grundsätzlich mehr FPS + OC Potential und weniger Speed aber 8GB. Und nun ja Texturedetails kann man verringern, aber die Grundgeschwindigkeit ändert sich nicht.

Btw. DX12 sollte meiner Meinung nach >langfristig< ignoriert werden.
Vulkan muss endlich die Zukunft sein.

Also ich finde niedrigere Texturen sieht man eher als Sehr Hohe statt Ultra Schatten. Zumindest in den meisten Spielen.

MadPenguin
2016-05-27, 15:43:19
Die Fury schlägt sich tapfer in Total War Warhammer

http://www.pcgamer.com/total-war-warhammer-benchmarks-strike-fear-into-cpus/

StefanV
2016-05-27, 16:19:40
Joa, interessant wie stark die AMD Chips dabei sind.
Wenn man jetzt fies ist, verweist man auf die 1080p Benches, in dem die Fury X die GTX 1080 hinter sich lassen kann.

dildo4u
2016-05-27, 16:23:23
1080p ist offensichtlich CPU limitiert wenn Titan X vor 1080 liegt.

MadPenguin
2016-05-27, 16:23:25
Joa, interessant wie stark die AMD Chips dabei sind.
Wenn man jetzt fies ist, verweist man auf die 1080p Benches, in dem die Fury X die GTX 1080 hinter sich lassen kann.

Wir sind nicht fies...wir sind nicht "grün" vor Neid ;D Man muss auch dazusagen, dass AMD scheinbar bei keinem anderem Spiel so viel geholfen hat, auf DX12 zu optimieren (sagt man zumindest); auch, um endlich das Image AMD ist nicht gut für Strategiespiele abzuschütteln.

Grabhopser
2016-05-27, 18:35:32
Bei PCGH liegen in 1080p@DX12 Tonga und GM204 Takt-bereinigt gleichauf.
Wo hat man das schon mal gesehen :freak:

iuno
2016-07-26, 04:46:28
:eek:
Haben die eine Grafikkarte mit einer zwei SSDs verschmolzen?? edit: P10+2 x M.2 :ulol:

Radeon Pro SSG: http://www.anandtech.com/show/10518/amd-announces-radeon-pro-ssg-polaris-with-m2-ssds-onboard

For the moment, AMD is treating the Radeon Pro SSG as a beta product, and will be selling developer kits for it directly., with full availability set for 2017. For now developers need to apply for a kit from AMD, and I’m told the first kits are available immediately. Interested developers will need to have saved up their pennies though: a dev kit will set you back $9,999.

mczak
2016-07-26, 05:12:17
:eek:
Haben die eine Grafikkarte mit einer zwei SSDs verschmolzen?? edit: P10+2 x M.2 :ulol:

Radeon Pro SSG: http://www.anandtech.com/show/10518/amd-announces-radeon-pro-ssg-polaris-with-m2-ssds-onboard
Naja also die Bandbreite ist jetzt nicht so der Hammer. Im besten Fall (m.2 pcie 3.0 x4) kriegt so eine m2 ssd etwa 3GB/s Lesedurchsatz hin - das ganze mal zwei sind das dann 6GB/s. Gegenüber den 256GB/s des 8gbps Speichers einer RX 480 ist das nur 1/40. Das kriegt man natürlich auch mit "normalen" m.2 hin via ssd->Systemspeicher->Graka (braucht dann aber ein LGA2011 Board, sicher kein Problem für den gedachten Markt). Wie das genau mit den Latenzzeiten aussieht bin ich aber zu faul um all die Zahlen zusammenzusuchen, schneller kann es sicher sein fragt sich bloss wieviel und ob das entscheidend ist.

iuno
2016-07-26, 05:21:31
Na dann steck mal 4 GPUs und 8 M.2 SSDs auf ein Mainboard :P
Natuerlich ist das nicht vergleichbar mit VRAM, das behauptet aber auch keiner und darum geht es ueberhaupt nicht. Das gibt es so bisher trotzdem noch nicht und es ist eben ein Pilotprojekt, um zu schauen, ob man es brauchen kann. Mich wuerde interessieren, ob da nur ein PCIe Switch auf der Karte ist oder ob der Chip noch SoC-artig eine Anbindung bereitstellt :ugly: Massgeblich schneller wird das aber sicherlich nicht sein.
Und ja, die 7100 ist offensichtlich (wie gesagt) das Pendant zur RX 470. Verbrauch wird sich zeigen muessen, sie werden aber imho bei den Pro Karten keine unnoetigen Risiken eingehen, zumal sie auch 10 Jahre Garantie geben.

Hübie
2016-07-26, 09:41:22
Na dann steck mal 4 GPUs und 8 M.2 SSDs auf ein Mainboard :P
Natuerlich ist das nicht vergleichbar mit VRAM, das behauptet aber auch keiner und darum geht es ueberhaupt nicht. Das gibt es so bisher trotzdem noch nicht und es ist eben ein Pilotprojekt, um zu schauen, ob man es brauchen kann. Mich wuerde interessieren, ob da nur ein PCIe Switch auf der Karte ist oder ob der Chip noch SoC-artig eine Anbindung bereitstellt :ugly: Massgeblich schneller wird das aber sicherlich nicht sein.
Und ja, die 7100 ist offensichtlich (wie gesagt) das Pendant zur RX 470. Verbrauch wird sich zeigen muessen, sie werden aber imho bei den Pro Karten keine unnoetigen Risiken eingehen, zumal sie auch 10 Jahre Garantie geben.

Da kannst du für den Preis zwei M6000 kaufen und hast dann 24 GB VRAM, vonder Mehrleistung will ich nicht reden. Ob das wirklich ein Vorteil ist bezweifel ich erst mal. Hangt aber auch von der internen Organisation ab. Wenn der Flashmemory direkt von der GPU angesprochen werden kann ist es gut. Wenn nicht...Müll.
Pleite-AMD versucht eine Nische zu füllen und macht wieder einmal ne neue Baustelle auf. Na mal sehen ob es sich rentiert.

2B-Maverick
2016-07-26, 09:57:12
Da kannst du für den Preis zwei M6000 kaufen und hast dann 24 GB VRAM, vonder Mehrleistung will ich nicht reden. Ob das wirklich ein Vorteil ist bezweifel ich erst mal. Hangt aber auch von der internen Organisation ab. Wenn der Flashmemory direkt von der GPU angesprochen werden kann ist es gut. Wenn nicht...Müll.
Pleite-AMD versucht eine Nische zu füllen und macht wieder einmal ne neue Baustelle auf. Na mal sehen ob es sich rentiert.

Na Mahlzeit. Da hast du in der Öl-Industrie oder ähnl. mal eben 800GB Daten zu analysieren.... und was genau machst Du dann mit 24GB RAM? -> nüscht :confused:
Da würden Dir auch 10000 CUs nichts nützen.

Ob die SSDs on-board nun helfen ist natürlich offen - interessant ist der Ansatz aber alle mal. Klasse wäre dafür evtl. der kommende 3D XPoint-Speicher von Intel.

Hübie
2016-07-26, 10:22:15
Ob die Daten über den PCIE transferiert werden oder über ein zweites Interface an die GPU ist ja eben die entscheidende Frage. Ich bezweifel erst einmal den Vorteil von der Geschichte in Kombination mit diesem Chip. Will AMD jetzt für jeden spezifischen Fall ein Produkt entwickeln?

Zergra
2016-07-26, 10:29:21
Ob die Daten über den PCIE transferiert werden oder über ein zweites Interface an die GPU ist ja eben die entscheidende Frage. Ich bezweifel erst einmal den Vorteil von der Geschichte in Kombination mit diesem Chip. Will AMD jetzt für jeden spezifischen Fall ein Produkt entwickeln?
Naja es kann auf einem Board ohne M.2 Steckplätze gut eingesetzt werden.
Vor allem wenn es auch wenig PCIE Steckplätze gibt.

Pirx
2016-07-26, 10:48:37
Da kannst du für den Preis zwei M6000 kaufen und hast dann 24 GB VRAM, vonder Mehrleistung will ich nicht reden. Ob das wirklich ein Vorteil ist bezweifel ich erst mal. Hangt aber auch von der internen Organisation ab. Wenn der Flashmemory direkt von der GPU angesprochen werden kann ist es gut. Wenn nicht...Müll.
Pleite-AMD versucht eine Nische zu füllen und macht wieder einmal ne neue Baustelle auf. Na mal sehen ob es sich rentiert.
Boah hör doch mal auf mit diesen ständigen Extrempositionen, erst recht, da du hier die Fakten noch nicht mal kennst.

Hübie
2016-07-26, 10:56:58
Was bitte? Extrempositionen? X-D Ich äußere Zweifel an der Sinnhaftigkeit. Große Datensätze über PCIE zu transferieren kann durchaus zum Flaschenhals werden aber dann musst du die auch in den VRAM bekommen. Am wahrscheinlichsten ist doch dass das GPU interne Interface geteilt wird. Einmal x4 und x8 was bedeuten würde dass extern nur x8 durchgesetzt werden kann. Das man ein erweitertes Interface mit 20 lanes hat wäre möglich aber unwahrscheinlich.

Schnoesel
2016-07-26, 11:42:48
Da stehen doch Beispiele für Anwendungsgebiete:

https://www.computerbase.de/2016-07/amd-radeon-pro-ssg-grafikkarte-m2-ssd/

"Beispiele hierfür sind die Genomsequenzierung, die Bearbeitung von 8K-Videomaterial, dreidimensionale Echtzeit-Bildgebungsverfahren in der Medizin und die Erforschung von Öl- und Erdgas-Lagerstätten."

Das Video mit dem 8K Video ist auch beeindruckend.

Hübie
2016-07-26, 12:07:15
Ja und nun rechtfertige mal 10.000 für ein Kit mit gesteigerter Produktivität. Ich glaube nach wie vor das eine M6000 für <5000 und m.2-SSDs für weitere 1000 mehr auszahlen... Aber hey was solls. Geben wir einfach aus und gucken mal X-D

fondness
2016-07-26, 12:26:31
Ja und nun rechtfertige mal 10.000 für ein Kit mit gesteigerter Produktivität. Ich glaube nach wie vor das eine M6000 für <5000 und m.2-SSDs für weitere 1000 mehr auszahlen... Aber hey was solls. Geben wir einfach aus und gucken mal X-D

Für >5x mehr Performace bei Spezialanwendungen wie 8K Videobearbeitung ist das doch ein Klacks, zumal das Vergleichssystem laut AMD ebenfalls 10K kosten soll. Deine M6000 hat da keinerlei Vorteil ggü. anderen Chips, wenn der VRAM überläuft.

Megatron
2016-07-26, 12:35:51
Ja und nun rechtfertige mal 10.000 für ein Kit mit gesteigerter Produktivität. Ich glaube nach wie vor das eine M6000 für <5000 und m.2-SSDs für weitere 1000 mehr auszahlen... Aber hey was solls. Geben wir einfach aus und gucken mal X-D
Vielleicht, weil man dann auch eine FirePro S9170 (http://geizhals.eu/amd-firepro-s9170-31004-55-20a-a1293791.html?hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu) nehmen könnte, die nicht nur günstiger ist sondern mit 32GB auch noch 1/3 mehr RAM hat.
Wenn aber selbst das nicht ausreichend ist, kann man ja sehr wohl andere Wege suchen.

Am Ende war die Integration der Logik nicht mal übermäßig kompliziert bzw. winkt hier am Ende trotz BETA Status doch ganz gut Geld.
Wenn ein paar GB mehr gereicht hätten, wäre auch ein Quad-Channel DDR4 Controller ausreichend gewesen - passenden Server RAM gibt es schließlich auch bis 64GB pro Modul (http://geizhals.eu/crucial-lrdimm-64gb-ct64g4lfq424a-a1428568.html?hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu)

Armaq
2016-07-26, 13:34:03
Da stehen doch Beispiele für Anwendungsgebiete:

https://www.computerbase.de/2016-07/amd-radeon-pro-ssg-grafikkarte-m2-ssd/

"Beispiele hierfür sind die Genomsequenzierung, die Bearbeitung von 8K-Videomaterial, dreidimensionale Echtzeit-Bildgebungsverfahren in der Medizin und die Erforschung von Öl- und Erdgas-Lagerstätten."

Das Video mit dem 8K Video ist auch beeindruckend.
Es gibt einige Gebiete mit riesigen Datenmengen. Das Teil scheint erstmal speziell, aber die von dir genannten Themen sind da nur der Anfang.

iuno
2016-07-26, 13:35:09
Da kannst du für den Preis zwei M6000 kaufen und hast dann 24 GB VRAM, vonder Mehrleistung will ich nicht reden. Ob das wirklich ein Vorteil ist bezweifel ich erst mal. Hangt aber auch von der internen Organisation ab. Wenn der Flashmemory direkt von der GPU angesprochen werden kann ist es gut. Wenn nicht...Müll.
Pleite-AMD versucht eine Nische zu füllen und macht wieder einmal ne neue Baustelle auf. Na mal sehen ob es sich rentiert.
Ja sicher, aber was ist das fuer ein Argument? Du kannst auch anstatt einer P100 sicherlich vier S9170 kaufen, hast dann jeweils 32 GiB, von der Mehrleistung gar nicht zu sprechen... Ist halt trotzdem Unsinn, wenn man von NVLink Gebrauch machen will, was die Leistungsaufnahme angeht limitiert ist oder sonst was.

Will AMD jetzt für jeden spezifischen Fall ein Produkt entwickeln?
Der Aufwand, hier zwei M.2 SSDs dazuzupacken ist ja wohl hoechst ueberschaubar und wenn es Anwendungsbereiche gibt und dementsprechend erfolgreich ist, warum nicht?

Einmal x4 und x8 was bedeuten würde dass extern nur x8 durchgesetzt werden kann.
Nenne mich naiv, aber ich denke, wenn die benoetigten Daten erstmal im Speicher sind, dann bleibt es dabei erstmal. Sie vielleicht laenger oder auch mehrfach gebraucht werden. Der Speicher ist ja nicht fluechtig. Waehrend der Arbeit stehen der GPU bei Einsatz eines PCIe Switch also auch weiterhin die vollen 16 Lanes zur Verfuegung, wenn keine Daten zwischen Systemspeicher und den onboard SSDs transferiert wird. Dann ist die Latenz halt ein bisschen erhoeht. Oder stimmt hier was nicht?

Ja und nun rechtfertige mal 10.000 für ein Kit mit gesteigerter Produktivität. Ich glaube nach wie vor das eine M6000 für <5000 und m.2-SSDs für weitere 1000 mehr auszahlen... Aber hey was solls. Geben wir einfach aus und gucken mal X-D
Wenn AMD entsprechende Beziehungen hat wo sie das Ding bewerben koennen und es tatsaechlich in spezifischen Faellen mal 5x speedup bringt verglichen mit einem gleich teuren System (!) ist das doch kein Problem.
Wenn sich das als brauchbar herausstellt, wird das finale Produkt sicher weniger kosten, zumal auch andere sowas schnell gebaut haetten und anbieten koennten.
btw: vorhin waren es noch zwei, jetzt eine M6000? ;D Zumal wir hier nicht bei Games sind. Die M6000 hat nur eine Handvoll mehr FLOPs als eine RX 480, bei 100 W mehr TDP. Der Vergleich hinkt doch gewaltig, selbst wenn hier eine lahmere Variante von P10 zum Einsatz kommt.

Unicous
2016-07-26, 14:50:56
Was hat die Radeon Pro SSG eigentlich im Polaris Thread zu suchen?:wink:


Und btw.

Warum mokiert/echauffiert sich eigentlich Hübie über Dinge dessen Dimensionen er gar nicht begreift und meckert rum wenn die Informationslage noch äußerst dünn ist? (...bzw. war > Updated: AMD Announces Radeon Pro SSG: Polaris With M.2 SSDs On-Board
(http://www.anandtech.com/show/10518/amd-announces-radeon-pro-ssg-polaris-with-m2-ssds-onboard))

Megatron
2016-07-26, 14:53:20
Was hat die Radeon Pro SSG eigentlich im Polaris Thread zu suchen?:wink:
Weil die Wahrscheinlichkeit doch recht hoch ist, dass hier Polaris IP zum Einsatz kommt :wink:

Unicous
2016-07-26, 14:59:17
Weil die Wahrscheinlichkeit doch recht hoch ist, dass hier Polaris IP zum Einsatz kommt :wink:

Eher nicht.

Ein Foto der Rückseite der neuen Karte offenbart, dass diese vermutlich auf dem Fiji-Chip inklusive High Bandwidth Memory basiert. Es sind keinerlei Lötstellen für klassischen GDDR-Speicher zu erkennen, die Ähnlichkeiten zu der Fury/Fury X sind hingegen sehr groß.


https://www.computerbase.de/2016-07/amd-radeon-pro-ssg-grafikkarte-m2-ssd/#update1

Unicous
2016-07-26, 15:04:18
Da das Ding ein Prototyp bzw. eine Machbarkeitsstudie ist, wird man das mit Fiji machen und dann schauen ob die Industrie darauf anspringt. Vega wird dann natürlich der nächste stepping stone und dann könnte man das noch weiter interieren.:wink:

https://pbs.twimg.com/media/CoQn51CUkAIXWFM.jpg



The Radeon Pro SSG has a single graphics processor based on Fiji architecture, also used in the company's dual-GPU Radeon Pro Duo. AMD didn't share more details, but with two GPUs, the Radeon Pro Duo delivers 16 teraflops of single-precision performance. The Radeon Pro SSG is a test product, and the specifications will certainly change in the final product that ships next year.

http://www.pcworld.com/article/3100032/amd-packs-1tb-ssd-into-a-gpu-for-better-vr-and-gaming.html

Ravenhearth
2016-07-26, 15:46:22
Details are a bit thin and I’ll update this later this evening, but in short the card utilizes a Polaris 10 GPU and includes 2 PCIe 3.0 M.2 slots for adding flash drives to the card.

http://www.anandtech.com/show/10518/amd-announces-radeon-pro-ssg-polaris-with-m2-ssds-onboard

Natürlich hat der keine GDDR5-Lötstellen, der benutzt ja auch die SSDs.

Pirx
2016-07-26, 15:56:59
Bspw. für den Frambuffer? Glaube ich nicht.

Hübie
2016-07-26, 15:59:01
Was hat die Radeon Pro SSG eigentlich im Polaris Thread zu suchen?:wink:


Und btw.

Warum mokiert/echauffiert sich eigentlich Hübie über Dinge dessen Dimensionen er gar nicht begreift und meckert rum wenn die Informationslage noch äußerst dünn ist? (...bzw. war > Updated: AMD Announces Radeon Pro SSG: Polaris With M.2 SSDs On-Board
(http://www.anandtech.com/show/10518/amd-announces-radeon-pro-ssg-polaris-with-m2-ssds-onboard))

Weder mecker ich, noch echauffiere ich mich. :| Nach wie vor zweifel ich die Sinnhaftigkeit dieses Produkts. Zugegeben habe ich die News auf anandtech nicht ganz gelesen. Das mit dem PCIE-Switch hab ich nicht gesehen und auch nicht dass es Fiji ist. Dann soll ein Mod das hier bitte verschieben.
Nach wie vor sieht es danach aus, dass man hier nur Platz spart.

Unicous
2016-07-26, 16:15:10
Du hast dein mehrere 100 GB großes Projekt e: resistent resident im SSD RAID und kannst innerhalb von Sekunden Änderungen vornehmen (zum Teil sogar real time wie in dem Beispiel) ohne Umweg über CPU, Chipsatz, RAM etc.... wo liegt denn hier dein Verständnisproblem?:confused:

Ob die Industrie das auch anders (und günstiger) lösen kann steht in den Sternen aber sich indirekt über den Preis eines Dev Kits mit 24/7 Support zu mokieren, von Pleite-AMD zu reden und den Sinn dahinter nicht zu verstehen ist einfach nur peinlich.:rolleyes:

Das Produkt, so es denn auf den Markt kommt, wird sicherlich einen Bruchteil des Dev Kits kosten und selbst wenn es nur 5000 Dollar wären... das wäre immer noch deutlich günstiger als zwei M6000.:rolleyes:

Zumal Nvidia (oder auch Intel :wink:) ähnliche Lösungen anbieten könnten.

iuno
2016-07-26, 16:55:17
Natürlich hat der keine GDDR5-Lötstellen, der benutzt ja auch die SSDs.
Aber nicht als VRAM

Was hat die Radeon Pro SSG eigentlich im Polaris Thread zu suchen?:wink:
Die ersten Meldungen sagten P10, daher habe ich das hier mit reingeschmissen :redface:
Radeon Pro SSG: http://www.anandtech.com/show/10518/amd-announces-radeon-pro-ssg-polaris-with-m2-ssds-onboard
Dort steht das im Uebrigen immer noch so

Hübie
2016-07-26, 18:31:03
Du hast dein mehrere 100 GB großes Projekt resistent im SSD RAID und kannst innerhalb von Sekunden Änderungen vornehmen (zum Teil sogar real time wie in dem Beispiel) ohne Umweg über CPU, Chipsatz, RAM etc.... wo liegt denn hier dein Verständnisproblem?:confused:

Ob die Industrie das auch anders (und günstiger) lösen kann steht in den Sternen aber sich indirekt über den Preis eines Dev Kits mit 24/7 Support zu mokieren, von Pleite-AMD zu reden und den Sinn dahinter nicht zu verstehen ist einfach nur peinlich.:rolleyes:

Das Produkt, so es denn auf den Markt kommt, wird sicherlich einen Bruchteil des Dev Kits kosten und selbst wenn es nur 5000 Dollar wären... das wäre immer noch deutlich günstiger als zwei M6000.:rolleyes:

Zumal Nvidia (oder auch Intel :wink:) ähnliche Lösungen anbieten könnten.

Herrje dann halt NVMe SSDs. Ich kenne durchaus solche Projekte und weiß nicht warum du mich so von der Seite anmachst. In diesen Projekten kann man instant Änderungen vornehmen ohne Verzögerung und es ist einfach fraglich ob man hier eine erhöhte Produktivität feststellen kann um den Preis zu rechtfertigen.
@iuno: Ich habe zwei M6000 aus dem Hut gezogen, weil man dann auf unter 9.999 $ kommt und dennoch Geld für SSDs übrig hätte. Eine kann man nehmen und dann meinetwegen noch ne sauteure NVMe SSD dazu pappen. Nach wie vor muss mir mal einer den Vorteil nennen um den Preis zu rechtfetigen.
Und die S9170 hinkt da kein Display-out. Wie sieht's eigentlich bei der SSG mit DP1.4 oder HDMI 2.0a aus?

Edit: Demnächst können wir dann P6000 einsetzen, was die SSG preislich noch unattraktiver macht.

Unicous
2016-07-26, 18:42:27
Du machst uns alle mit deinen komischen Szenarien von der Seite an und verstehst die Implikationen nicht.:wink:

Das Projekt resident "in" der GPU zu halten ohne es immer und immer wieder von neuem zu Laden ist alleine schon ein Vorteil, dass alles in einem PCIe-Slot zu haben noch besser.

Und irgendwelche anekdotische Stories helfen uns hier auch nicht weiter. Ich glaube der Blick über den Tellerrand würde dir mal wieder (wie so oft) gut tun.

edit:

Du kannst uns übrigens gerne noch einmal erzählen, wie ein System das über SSD->Chipsatz->CPU->PCIe->GPU und das ganze nochmal zurück und gegebenfalls mit Zwischenstopp in den RAM genauso schnell sein soll wie GPU ->PCIe Lanes->SSD. :rolleyes:

Hübie
2016-07-26, 18:52:19
Wo genau habe ich jemanden von euch angemacht? :| So ein Projekt wird in den DRAM geladen. Was meinst du warum workstations bei Airbus 64 oder 128 GB etc. haben.
Was hat das mit Tellerrand zu tun? Ich seh schon: Hier wird wieder auf grün vs. rot hingearbeitet. Du sagtest NV habe auch so ein Produkt. Kenne keines. Haste mal n Link? Ich sehe nach wie vor keinen wirklichen Vorteil... Ich bin nicht der Nabel der Welt, aber durchaus erfahren.

Edit: Wenn du mir erzählst wie du den Unterschied bemerken willst, erzähle ich dir wie du die Zugriffe verkürzt. NVMe wurde ja nicht umsonst entwickelt. Mit einer normalen AHCI SSD am SATA Interface hat das ja nicht mehr viel gemeinsam.

Unicous
2016-07-26, 19:07:48
Ich glaube du solltest deine Beiträge etwas reflektieren. Du meckerst über ein Konzept ohne substantielle Grundlage dafür zu haben außer: ich kannte da mal ein irgendein Projekt da ging das doch auch... ohne konkrete Aussagen zu machen was für ein use case es ist.

Und deine komische 64GB und 128 GB Analogie ist einfach nur...:freak:


Und btw.


Hör auf mit dem Fanboy-Gelaber... und achte bitte auf den Konjunktiv wenn du meine Beiträge "überfliegst".

Hübie
2016-07-26, 19:34:14
Also meckern ist das nicht.
Meckern laut duden:
an einer Sache etwas auszusetzen haben und ärgerlich seiner Unzufriedenheit Ausdruck geben

Entspann dich mal. Ich kritisiere einfach nur dass AMD ein Produkt bringt wo die Sinnhaftigkeit einfach fraglich ist. Dauernd fordere ich mal Beispiele und von dir kommt nur ich würde meckern. Wozu soll das führen? Soll ich Lobpreisen dass man ne alte GPU mit SSD paart? :| Haben die in der Präsentation gegen eine NVMe SSD gebencht? Ist für mich jetzt nicht ersichtlich. Und dass die als erweiterter VRAM adressiert wird bezweifel ich gerade, denn woher soll die MMIOU von der SSD am PCIE Interface wissen? Da sitzt ebenfalls ein RTOS samt Controller drauf. Das ginge über einen Softwarestack denke ich.

Menace
2016-07-26, 19:42:13
Vielleicht ist das ja genau der Grund, warum sie es als Prototyp vor Ort erst einmal testen lassen. Wird es angenommen und führt das dazu, dass man den Kundenkreis erweitert, hat man eine neue Perspektive bzw. neue Technik getestet. Wenn nicht hat man dank eines "älteren" Prozessors (der doch genau in der angestrebten Sparte gar nicht schlecht schlägt) nicht zu viel Geld in den Sand gesetzt.

Das permanente Nörgeln gegen AMD hat doch Tradition. Man schaue sich einfach die Diskussion um Mantle an ("kam 2 Wochen später als angekündigt", "Nvidia mit DX11 ist genauso schnell", "nicht Open Source") konnte man hier im Forum auch Verfolgen. Das eigentlich Ergebnis sieht man momentan an Doom. Deshalb auch hier: Geduld. :wink:

Skysnake
2016-07-26, 19:43:57
Ähm.... Hübie rechne mal lieber mit TB. Also insbesondere wenn du Airbus nennst, dann sind das schnell wirklich verdammt große Dinger. Mit 32GB oder so kannste mit Glück vielleicht das Modell an sich darstellen lassen, aber nicht wirklich viel arbeiten.

Nicht ohne Grund hat Airbus einen ziemlich fetten Cluster... (https://www.top500.org/system/178387)

Mal ganz davon abgesehen, das man sich eben durchaus einige Sachen für so etwas vorstellen kann.

Es gibt wohl insbesondere in der Chemie Anwendungsfälle, bei denen man ziemlich riesige loockup tables benutzen muss.

Für die Klimajungs könnte das auch ziemlich interessant sein. Die müssen ja oft genug gewaltige Datenmengen laden. Dabei rede ich natürlich dann selbst bei 1TB pro GPU von einem Cluster aus vielen GPUs.

Für die Visualisierung von Simulationsdaten könnte es auch ganz interessant sein. Simulationen sind durchaus oft zich TB groß was den Output anbelangt. Wenn man das dann auf ein paar GPUs laden könnte wäre das schon sehr geil.

Am Ende wird es aber sehr sehr sehr! darauf ankommen, WIE die GPU genau auf die Daten zugreifen kann. Wenn das über ein Filesystem mit POSIX läuft, dann wird das verdammt schnell uninteressant. Wenn das Ding aber quasi genau wi RAM adressiert werden kann, wovon ich eigentlich mal ausgehen würde, dann wäre das schon ziemlich geil.

Also potenzielle Anwendungsgebiete tun sich schon so einige auf, wenn man mal kurz darüber nachdenkt. Checkpointing ist da auch so etwas. Entscheidend ist halt, wie die SSDs angesprochen werden und eingebunden sind. Aktuell liest man nämlich sowohl was von einem PCI-E Switch als auch davon, das man die 16 PCI-E lanes auf 2x 8 aufteilt...

AMD hätte da etwas mehr ins detail gehen müssen, aber mal schauen, was wird.

BTW:
Was auch ganz interessant sein könnte ist, das man Daten simuliert, und dann Nachhinein das Mashing der Punktwolken auf den Daten auf den SSDs macht. Also da liesen sich schon nette Workflows ausdenken.

Unicous
2016-07-26, 19:49:09
@Hübie

Du bist hier eh im falschen Thread, Antworten gibt es schon seit Stunden im Volcanic Thread.

Man merkt, dass du dich intensiv damit auseinandergesetzt hast und alle Informationen bevor AMD sie preisgab schon hattest und z.B. nicht den Anandtech Artikel lesen musstest um dir deine "Meinung" zu bilden.(y)


Und natürlich ist das nie meckern, es ist immer "kritisieren" besonders wenn man profunde Informationen zu einem Projekt zu haben scheint, das noch nicht einmal veröffentlicht wurde.:rolleyes:

StefanV
2016-07-26, 20:05:08
Du kannst uns übrigens gerne noch einmal erzählen, wie ein System das über SSD->Chipsatz->CPU->PCIe->GPU und das ganze nochmal zurück und gegebenfalls mit Zwischenstopp in den RAM genauso schnell sein soll wie GPU ->PCIe Lanes->SSD. :rolleyes:
Und das auch noch als jemand, der Effizienz/niedrigen Verbrauch propagiert.

Was wird wohl mehr Energie verplempern?!
Wenn man die SSDs auf die GraKa packt?
Wenn man die SSDs auf das Board packt, wo das ganze durch die CPU, ggF auch noch den Chipsatz muss?!

Und von den Latenzen reden wir mal lieber nicht, zumal die CPU auch noch andere Dinge machen könnte usw...

Sorry, Hübie, aber es wäre schön, wenn du mal dein AMD gebashe etwas zurückfahren würdest...
Es nervt einfach nur, wenn du in jedem AMD Threads AMD immer schlecht reden musst...

Hübie
2016-07-26, 20:06:45
Kann ja nix für wenn du es im falschen Thread postet (da steht doch noch immer Polaris-based:confused:). Hab mir das auf cb halt durchgelesen, da steht Fiji. Und noch mal: Ein ominöses 10.000$-System daneben gestellt und "Hey seht mal nur 17 fps". :rolleyes:
Ich sehe hier nur den "Slot-Vorteil". Mehr nicht. Liest sich für mich wie: Da wird ein swap-file kreiert und da wird alles hineingeworfen was definiert wird.
Wenn ich mir für 2000 Dollar eine NVMe mit 1 TB und für die verbliebenen 8000 eins, zwei Karten kaufe, dann wird wohl welches System produktiver sein? :|

@Skysnake: Nein. Die Ingeneure sitzen fast ausschließlich an 64 GB WS. Ähnlich wie damals in Sim City hat jeder seinen Abschnitt und alles was drüber ragt, geht partiell in den des nächsten über und wird angezeigt. Der Cluster hat andere Aufgaben. Die wenigsten bei Airbus sehen jemals ein komplettes Flugzeug im Simulator, CAD oder in der BOM.

StefanV
2016-07-26, 20:10:44
Wenn ich mir für 2000 Dollar eine NVMe mit 1 TB und für die verbliebenen 8000 eins, zwei Karten kaufe, dann wird wohl welches System produktiver sein? :|

1. hast du noch keine Ahnung, wie die GraKa mit dem Speicher umgeht.
2. unterschlägst du, dass die CPU auch noch andere Dinge machen könnte und die Priorität der Datentransfers von der GPU mal etwas niedriger sein könnte.
3. Unterschlägst du (mal wieder), dass die 'externe' SSD mehr Energie verbraucht, da hier einige Stufen mehr genutzt werden müssen, die Latenz ist deutlich höher, da der Weg weiter ist.

Ich verstehe einfach nicht, warum du hier so enorm auf dieser Karte rumreitest und sie so nieder machst, obwohl du mal überhaupt gar keine Informationen von dem Gerät hast!!

Bei anderen Karten machst du das ja auch nicht, warum also hier?!

Dass das ganze etwas für einen eher 'engen' Einsatzzweck ist und nicht für jeden gedacht ist, sollte wohl klar sein...

Sorry, aber was bezweckst du mit deinem Auftreten hier!?

Kartenlehrling
2016-07-26, 20:13:34
Die Radeon Pro SSG mit 1 TB Festplatte sieht wie eine R9nano + 2x M.2/SSD aus.

https://pbs.twimg.com/media/CoQn51CUkAIXWFM.jpg
http://cdn.wccftech.com/wp-content/uploads/2015/08/AMD-Radeon-R9-Nano-Graphics-Card_Back-635x424.jpg

Hübie
2016-07-26, 20:14:05
Weil man für 10k so etwas einfach nicht benötigt. Kannst dir ja mal die Latenzen ausrechnen. Zirka halbe Lichtgeschwindigkeit auf ähm 10 oder 30 cm.. Denn auch auf der Karte muss ja ein Treiberstack die Sache ansprechen und managen. Irgendwo muss die Last ja bleiben oder meinst die verfliegt? Also auch der PCI-Switch verbraucht Energie. Das unterschlägst du halt.
Mit dem NVMe Protokoll hat man schon weniger CPU-Zeit die beansprucht wird. Aber ja: Noch haben wir keine Infos dazu. Also noch ein Punkt um das anzuzweifeln.

Pirx
2016-07-26, 20:15:18
1. hast du noch keine Ahnung, wie die GraKa mit dem Speicher umgeht.
2. unterschlägst du, dass die CPU auch noch andere Dinge machen könnte und die Priorität der Datentransfers von der GPU mal etwas niedriger sein könnte.
3. Unterschlägst du (mal wieder), dass die 'externe' SSD mehr Energie verbraucht, da hier einige Stufen mehr genutzt werden müssen, die Latenz ist deutlich höher, da der Weg weiter ist.
...
Er hat überhaupt keine Ahnung, weil es kaum Infos gibt, aber die Karte ist eben potentiell Müll.:lol: Das ist schon ein wirklich hochwertiger Beitrag von Hübie.

Der Preis für das Dev-Kit beträgt 10.000 $. Lesen Hübie.

Hübie
2016-07-26, 20:19:25
Ja und? 10k sind 10k. Ob Dev-Kit oder nicht. Du müsstest diese Investition tätigen und dann noch mal Aufwand für Intergration betreiben. Wenn du der Meinung bist ich hätte keine Ahnung kannst du es gerne für dich behalten, denn wissen tust du es nicht.

Und von Müll rede ich nicht. Einfach nicht nötig. Es wird sich daraus wahrscheinlich kein Markt bilden.

Edit: Ich habe um eine Verschiebung, ab iunos Beitrag zur SSG gebeten.

Achill
2016-07-26, 20:49:59
Wegen den 10k:
- Kompletten Support bei der Integration der Karte ins eigene Produkt / Pipeline.
- 10k stellt sicher, dass man den Support nicht zu bomb und macht gleichzeitig klar, welchen Markt und welche zukünftige Zielgruppe hier bedient werden soll (Anker-Taktik)

JM2C zur Karte:
- Reduzierung der Latzenz um eine Größenordnung ist keine Kleinigkeit sondern geht direkt ein bei Random-Zugriffe (bei Streaming waren auch schon HDDs schnell)
- Daten die auf den embedded Flash liegen müssen nicht über den PCIe-Bus
- Daten die nicht (gesteuert durch die CPU) über den PCIe müssen können von der GPU unabhängig berechnet werden -> AC²
- Oh wir wollen 5 verschiedene Simulationen auf den gleichen Ausgangsdaten durchrechnen -> Wir brauche ein 5 HighEnd-Workstations (wenn überhaupt Vergleichbar) vs Workstation mit 5x RadeonPro SSG

Ich glaube wir könnten die Liste ewig weiter führen...


Immerhin war es ein lauffähiges Produkt sowie erste Demos - und keine Attrappe fürs Auto. ;)

herp_derp
2016-07-26, 21:54:29
Das ist ein ziemlich eindeutiges Indiz. P10 schaut auf der Rückseite ganz anders aus.

Unicous
2016-07-26, 21:57:09
Robert Hallock hat Fiji bereits offiziell bestätigt.

https://twitter.com/Thracks/status/757992332583067648

Hübie
2016-07-26, 21:58:26
Den Slot-Vorteil nannte ich bereits. Und mindestens einmal müssen die Daten ja über den Bus. Wo steht denn das du kompletten Support bei der Integration erhälst? :|
Es ist ziemlich wahrscheinlich dass die während der Präsi eine normale M.2 oder SATA SSD welche über den SATA-PPort und somit DMI2.0/3.0 läuft als Vergleich herangezogen haben. Für mich siehts nach Resteverwertung von Fiji aus.

Und hier mal das statement zu den usecases:
scenarios where you have a large dataset and you are somewhat sensitive to latency

Aus irgendwelchen Gründen...

and want to stay off of the PCIe bus,

Aus irgendwelchen Gründen...

but don't need more than 4-5GB/sec of read bandwidth.


Ich weiß also dass ich nicht mehr will...

So it'll be worth keeping an eye on this to see what developers can do with it.

Oder eben nicht. Wer weiß?

Nische in der Nische die man obendrein auch noch anders (günstiger) lösen könnte. Selbst Terrabyteweise DRAM mit ner RAMDISK wäre kosteneffizienter. Ich sehe da einfach keinen Markt. Wir reden in drei Jahren mal darüber. Mal sehen wer dann :P machen kann.

Edit: Ach mist wieder falscher Thread. Mod bitte verschieben.

Unicous
2016-07-26, 22:21:26
Also du verwendest gerade Ryan Smiths Gedanken die er sich in dem Artikel zu den vorhandenen Informationen bzw. Nachfragen gemacht hat gegen die SSG. Coole Sache. Wie gesagt, Tellerrand.

Er hat übrigens einen use case genannt bzw. ein Szenario. Und der ist eindeutig nischig. Und niemand erwartet von der SSG dass sie den Workstation-Markt revolutioniert. Du behauptest das wäre der einzige use case.

Aber allein der Gedanke, dass du zur Arbeit gehst, die Workstation startest und das Projekt schon im RAID bereit steht und du es nicht erst "laden" musst, weil es im Speicher "residiert" ist doch schon mal eine nette Vorstellung.

iuno
2016-07-26, 22:31:06
@iuno: Ich habe zwei M6000 aus dem Hut gezogen, weil man dann auf unter 9.999 $ kommt und dennoch Geld für SSDs übrig hätte. Eine kann man nehmen und dann meinetwegen noch ne sauteure NVMe SSD dazu pappen. Nach wie vor muss mir mal einer den Vorteil nennen um den Preis zu rechtfetigen.
Und die S9170 hinkt da kein Display-out. Wie sieht's eigentlich bei der SSG mit DP1.4 oder HDMI 2.0a aus?
Die S9170 habe ich mit P100 verglichen, die hat genausowenig Displayausgaenge. Der Vergleich diente aber, wie ich mMn. aber klar deutlich gemacht habe, auch nur dazu, aufzuzeigen dass diese Vergleiche unsinnig sind.

Hübie
2016-07-26, 22:34:03
Hm. Aber ob es so viel schneller ginge als von einer NVMe-PCIE-SSD? Okay ich kenne nur Solidworks und Inventor von der Benutzung her, aber die bieten jedenfalls nicht an, den state in ein swap file zu schieben (also sozusagen einfrieren). Catia bietet so etwas vielleicht, das weiß ich nicht.

Wenn du ein Projekt öffnest kannst du ja gezielt Teile an- und abstellen, was ebenfalls verkürzt. Was richtig, wirklich richtig Performance frisst sind halt Animationen mit physikalisch korrekten Verhalten und simulierten "Stromkreisen" sowie Luft- oder Wasserwiderstand. Während dieser Animation kann man anhalten, editieren und instant weiterlaufen lassen. Dabei werden auch gut Daten hin- und hergeschaufelt, aber selbst das geht einwandfrei, wenn das System nicht impotent ist.

@iuno: Du weißt ja was ich studiere und wenn ich es nicht immer in Relation zu Kosten und return of investment ziehen würde, alternativen einholen würde und nicht recherchieren würde, würde ich das falsche studieren. ;D

iuno
2016-07-26, 22:47:31
Ja, ist ja auch in Ordnung so, aber du weisst ja auch ganz genau dass man P100 nicht einfach beliebig durch 4xHawaii ersetzen kann ;)
Aber alles zur SSG ist wohl endgueltig OT hier.... Oder meint ihr, Raja hat insgeheim schon eine live demo mit Vega gemacht? :eek: :ulol:

Unicous
2016-07-26, 22:59:27
Bei Vega werden die SSDs dann eh direkt über GMI angebunden.:wink:

Skysnake
2016-07-26, 23:05:01
@Skysnake: Nein. Die Ingeneure sitzen fast ausschließlich an 64 GB WS. Ähnlich wie damals in Sim City hat jeder seinen Abschnitt und alles was drüber ragt, geht partiell in den des nächsten über und wird angezeigt. Der Cluster hat andere Aufgaben. Die wenigsten bei Airbus sehen jemals ein komplettes Flugzeug im Simulator, CAD oder in der BOM.
Dafür gibts ja durchaus die normalen CAD Karten mit mehr oder weniger RAM. Es reichen ja nicht ohne Grund mehr als genug Leuten auch die kleinen CAD Karten, oder wie bei mir damals sogar ne iGPU.

Manchmal reicht es aber eben nicht mehr, und da könnte die Karte schon interessant sein. Und ja, das ist natürlich eine Niesche, aber das sind die 24/32 oder was weiß ich wieviel GB Karten für zich tausende von Euro auch im Vergleich zu den kleinen Karten.

Hermelinmaster
2016-07-26, 23:16:38
Also ich habe gestern gelesen, dass es P10 im Vollausbau sein soll. Würde ja auch von der Größe der Karte her hin kommen (480 und 2 M.2 angehängt).
Aber sagte Raja nicht, dass der normale Weg von Massenspeicher über CPU, dann RAM und dann erst GraKa zu lange wäre und sie mit der Lösung schneller und vor allem latenzärmer sind? Das würde doch gegen einen simplen PCIe Switch auf dem Grafikboard sprechen und eher dafür, dass die GPU den separaten Speicher direkt ansprechen kann.

Skysnake
2016-07-27, 00:02:53
Genau die Details sind halt entscheidend. Also ob das Ding eher määäh ist, oder ziemlich cool sein kann.

Hübie
2016-07-27, 00:05:33
Das ist ja dass was ich sage. Die GPU müsste in dem Fall das interne Interface aufteilen, bräuchte eine Logik dahinter und könnte nach außen nicht volle Bandbreite fahren. Ein zweites Interface auf Fiji ist ja ausgeschlossen, da man die shots kennt. Und bei einem PCIE Interface baut man keine Redundanz ein (sind ja letztendlich nur ein paar decoder, Drähte und Flip-Flops etc.). Der Switch ist jedoch bestätigt und hat ja keinerlei Kontrollogik sondern ist einfach ein multiplexer mit Umschalter. Der PLX ist mit 6-7 Watt spezifiziert wenn ich nicht irre. Und in jedem Fall muss die CPU auch etwas übernehmen.

Skysnake
2016-07-27, 00:31:12
Das ist nicht klar, dass die CPU etwas übernehmen muss. Eventuell kann man die DMA Engines missbrauchen. Oder man hat sonst noch irgendwelche Logik integriert. Eventuell lässt sich ja etwas von dem HSA Zeug dafür missbrauchen.

Ich würde da jetzt erstmal wirklich noch kein Urteil darüber fällen. Wir wissen dafür einfach viel zu wenig darüber. Interessant ist es auf jeden Fall, und wenn es "richtig" gemacht ist, kann das schon etwas bringen. Wäre z.B. schon interessant, wenn die Daten auch zwischen Programmstarts noch da liegen würden. Würde sicherlich dem einen oder anderem Bio/Gen-Code ganz gut schmecken. Die sind da ja anscheinen oft ziemlich zerstückelt und müssen Daten immer wieder raus schreiben und neu einlesen. Zumindest habe ich in letzter Zeit so manchen Bericht gelesen, bei dem die Leute riesige Speedups bekommen haben, weil Sie die Daten in den Datenstruckturen im RAM halten, und nicht mehrmals alles rauschreiben und neu einlesen.

Warten wirs doch einfach mal ab, was da in den nächsten 6-9 Monaten passiert.

Hübie
2016-07-27, 00:36:10
Gerne. Mit Chemie und Biologie hab ich noch nie zu tun gehabt und kenne da entsprechend auch überhaupt keine Programme.
Das gezeigt 8k-Video editing ist wie gesagt imo unfair um nicht nackt dazustehen. Warum wohl hält man mit Details hinterm Zaun? Eigentlich nur wenn man was zu verbergen hat (Hallo Jensen).

Rincewind
2016-07-27, 01:39:21
Ich glaube, dass die Leute vom CERN sich über ein solches Teil freuen würden. :)

Langlay
2016-07-27, 03:11:11
Gerne. Mit Chemie und Biologie hab ich noch nie zu tun gehabt und kenne da entsprechend auch überhaupt keine Programme.
Das gezeigt 8k-Video editing ist wie gesagt imo unfair um nicht nackt dazustehen. Warum wohl hält man mit Details hinterm Zaun? Eigentlich nur wenn man was zu verbergen hat (Hallo Jensen).

Yap, man präsentiert irgendwas ohne Not weil man was zu verbergen hat.

Klingt völlig logisch.

mksn7
2016-07-27, 11:25:24
Ich glaube, dass die Leute vom CERN sich über ein solches Teil freuen würden. :)

Kannst du das erklären? Was ist hier der Usecase? Die Experimente produzieren zwar jede Menge Daten, aber die Datenmenge pro Event ist nicht so groß. Es sind halt einfach nur sehr viele Events. Und dafür müssten die Auswertungscodes erstmal OpenCL fähig sein.

Unicous
2016-07-27, 11:52:57
@Dresdenboy Yeah, somehow AMD and I got our wired crossed. I have confirmation it's Fiji. The article has been updated


https://twitter.com/RyanSmithAT/status/758113803514941440

Hübie
2016-07-27, 12:49:34
https://twitter.com/RyanSmithAT/status/758113803514941440

Besser spät als nie. Ich weiß Ryan Smith als Journalist sehr zu schätzen daher war ich gestern noch etwas verwirrt bevor du mir die twitter-Posts verlinkt hast.
Übrigens sagtest du gestern Intel und NV hätten auch so etwas wie die SSG, aber nur ich hab nix gefunden. Kannst mir das mal bitte verlinken oder Namen geben?
@Kartenlehring: Hab's gemeldet. So eine Unterstellung muss ich mir ja nicht bieten lassen.

Unicous
2016-07-27, 13:46:25
Ich sagte dir schon mal, lerne den Konjunktiv und Indikativ zu unterscheiden. Ich schrieb könnten!, nicht haben.

Wie gesagt, einfach mal gewissenhaft lesen und nicht einfach sich zu Dingen äußern die man nicht ordentlich erfasst hat.:rolleyes:

Achill
2016-07-27, 22:08:52
Ich glaube, dass die Leute vom CERN sich über ein solches Teil freuen würden. :)
Kannst du das erklären? Was ist hier der Usecase? Die Experimente produzieren zwar jede Menge Daten, aber die Datenmenge pro Event ist nicht so groß. Es sind halt einfach nur sehr viele Events. Und dafür müssten die Auswertungscodes erstmal OpenCL fähig sein.

*hust* Die "paar Events" erzeugen ein Datenaufkommen von 30 Petabytes: https://home.cern/about/computing ... Bzgl. OpenCL, es wird wohl schon eine Weile mit damit gearbeitet: http://concurrency.web.cern.ch/opencl_physics

Hübie
2016-07-27, 22:27:27
Die 30 Petabytes sind jährlich. Aber nichts desto trotz eine unvorstellbar große Menge.

@Unicous: Warum immer gleich so pampig? Im Zeitdruck passiert so etwas halt mal. Heute geht ja alles wieder etwas ruhiger zu. Und nun überlegen wir doch warum bisher niemand so eine SSG-Geschichte gebaut hat. Wahrscheinlich weil es keinen Markt dafür gibt, bzw. geben wird. Aber folgen wir Skysnake's Vorschlag und warten mal ab.

mksn7
2016-07-28, 11:51:50
Ich weiß wieviele Daten das CERN produziert, ich arbeite da als Summer Student. Die würden sich sicher sehr über neue Speichertechnologien freuen. Aber über eine SSD auf einer GPU? Das Konzept hilft wohl am meisten, wenn aus einer großen Datenmenge relativ unvorhersebar ein bestimmter Teil gebraucht wird, wie beim scrubben von 8K Video, was sie bei der Demo gezeigt haben.

StefanV
2016-07-28, 13:25:01
Richtig, aber genau deswegen sollten wir schlicht einfach mal abwarten und schauen, wie das ganze dann am Ende ausschauen wird und wie die weitere Entwicklung damit ausschaut.
Denkbar wäre ja auch zukünftig ein 3 Stufiges Speicherinterface:
On Chip RAM -> sehr schnell, nicht soo viel.
Slow Ram -> in der Art und Weise alter CAD Carten, einfach die Karte mit Speicher zugepflastert ('gewöhnlicher' DDR4 SDRAM)
und eben dazu noch NV-RAM

Aber schauen wir erst mal, wie die Karte ankommt, wie das ganze implementiert wurde usw...

Hübie
2016-07-28, 13:29:09
Da würde sogar DDR1,2 oder 3 reichen. DAS wäre wirklich mal klasse. Fetten DRAM (1TB oder so) mit ner RAM-Disk und RAID (5 z.B.) und dann halt noch die üblichen VRAM-Mengen. Damit kann man CAD wirklich Beine machen, wenn man nicht über die CPU gehen müsste. Dafür braucht man dann aber ne MMIO Unit die an Windows "vorbei" arbeiten darf / kann / soll.

iuno
2016-07-28, 13:33:14
Ist aber dann wieder fluechtig und nochmal deutlich teurer.
btw: offenbar gibt es aus der PostgreSQL-Ecke Interesse. Die haben auch schon vor Jahren mit OpenCL "gespielt"

Hübie
2016-07-28, 13:34:29
Mit einem RAID was mit einer (NVMe-PCIE-) SSD im Hintergrund abgleicht ginge das ganz gut. Inkrementelles Backup sozusagen (falls der Begriff hier passt).

StefanV
2016-07-28, 13:35:01
möglich vielleicht, aber total sinnlos...
Allein schon aus Verfügbarkeits Gründen....
Und wenn DDR4 genau wie GDDR5 auch ein 'Auto Signalling' besitzt, so dass es das routing noch einmal deutlich vereinfacht, ist das noch ein Grund weniger, das nicht einzusetzen...

Auch bei der Taktfrequenz würde ich jetzt eher in Richtung Low Power gehen denn High Performance, denn dafür ist ja der On Chip HBM Speicher da, der 'Slow RAM' ist ja mehr oder minder nur ein zu groß geratener Cache, der vor dem Systemspeicher sitzt...

Aber, wie erwähnt, sollten wir einfach mal abwarten und Tee rauchen, was da alles kommt...
Theoretisch könnte man auch ganz nette Dinge wie zum Beispiel Hyper Transport over PCIe und ähnliches machen, einen fetten 8 Kanal Sockel bereitet AMD ja auch gerade vor...
bzw 'nen fetten VEGA Grafikprozessor AFAIR kombiniert mit einem 16 Kerner/4 Kanal Speicherinterface. Dieses Konstrukt wäre dann auch nicht soo weit weg davon...

Aber hier einfach mal schauen, wie das ganze in der Praxis ausschaut!
Und das ganze dann auch mit:
"Hm, nette Idee, schauen wir mal, wie es am Ende ausschaut", kommentieren.
Denn es gibt immer irgendwelche Nischen, in denen die dollsten Dinge interessant werden ;)

Kartenlehrling
2016-08-08, 21:18:42
Eigentlich sollte es ein TitanX Pascal Video sein,
aber es zeigt mehr auf das der Fiji-Wein mit der Zeit reift und besser wird.
https://www.youtube.com/watch?v=ZwV91khyoO0
Titan X Pascal 4K vs GTX 1080/ R9 Fury X/ Titan X Maxwell Gaming Benchmarks

Civtam
2016-08-09, 00:53:18
Eigentlich sollte es ein TitanX Pascal Video sein,
aber es zeigt mehr auf das der Fiji-Wein mit der Zeit reift und besser wird.
https://www.youtube.com/watch?v=ZwV91khyoO0
Titan X Pascal 4K vs GTX 1080/ R9 Fury X/ Titan X Maxwell Gaming Benchmarks
Echt beeindruckend, wie Fiji mit 4GB gegen die Maxwelltitan mit 12 GB in 4K gegenhalten kann.

Kartenlehrling
2016-08-09, 08:10:29
Ich wollte mit dem Link ein wenig provozieren :)
man muss natürlich beachten das hier nur mit Stock@Werte geteste wurden und
die TitanX-Maxwell wurden ja von Werk mit Handbremse ausgeliefert, ein leichtes Overclocken würde das Bild schon gleich anderes machen.

dildo4u
2016-08-09, 08:50:00
Man sollte nich nur fps gucken im ersten Game hat die Fury einige Hänger.

Godmode
2016-08-09, 08:57:53
Eigentlich sollte es ein TitanX Pascal Video sein,
aber es zeigt mehr auf das der Fiji-Wein mit der Zeit reift und besser wird.
https://www.youtube.com/watch?v=ZwV91khyoO0
Titan X Pascal 4K vs GTX 1080/ R9 Fury X/ Titan X Maxwell Gaming Benchmarks

Mit DX12 kann die Fury X ihre höhere Rechenleistung ausspielen. Hätte AMD schon zu DX11 Zeiten einen so effizienten Treiber wie NV gehabt, wären wohl ein deutlich mehr Radeons verkauft worden. Die hätten das mal von NV lizenzieren sollen. :biggrin:

Thunder99
2016-08-09, 10:30:22
Mit DX12 kann die Fury X ihre höhere Rechenleistung ausspielen. Hätte AMD schon zu DX11 Zeiten einen so effizienten Treiber wie NV gehabt, wären wohl ein deutlich mehr Radeons verkauft worden. Die hätten das mal von NV lizenzieren sollen. :biggrin:
Ja leider, aber ihre Antwort war lieber Mantle und nun DX12. Gut für alle aber schlecht für ältere Games wo man nicht davon profitiert :(

Man könnte doch nun den Thread schließen da nichts mehr von den Pirate Islands erscheint. Die GPU/SSD Lösung war wohl ein Prototyp mit Fiji welches dann mit Vega finalisiert wird (wenn überhaupt)

OC_Burner
2016-09-10, 20:43:38
Es war mal wieder soweit und dieses mal musste Fiji samt Interposer dran glauben:)

Beim auflegen von GPUs/CPUs mit Chip nach unten auf eine ca 400°C heiße Herdplatte, sprengen sich die Chips nach ca. 20 sec. vom Trägermaterial normalerweise ab. Hier beim Fiji mitsamt Interposer war dies ein wenig anders. Der Interposer zerbrach einfach und haftete weiterhin am Trägermaterial. Der Fiji Chip haftete ebenfalls noch am Interposer. Nach fast der doppelten Zeit als üblich lößten sich auf einmal die HBM-Stacks und die Fiji-GPU. Der Interposer haftete noch halb am Trägermaterial.

https://c6.staticflickr.com/9/8305/28925674133_d58a9ecc99_c.jpg (https://flic.kr/p/L54Dax)
Man sieht deutlich wie der Interposer sich weggewölbt und Risse bekommen hat.
Das Vorne fehlende Stück haftete noch an der Fiji-GPU.

https://c3.staticflickr.com/9/8398/28923322914_d3e04a51a2_c.jpg (https://flic.kr/p/L4RAeh)
Man sieht hier das die HBM-Stacks nicht vollständig abgegangen sind und mindestens noch eine Lage auf dem
Interposer verblieben ist. Desweiteren erkennt man schön die Microbumps.

https://c2.staticflickr.com/9/8028/29548526985_4815983ec3_c.jpg (https://flic.kr/p/M26VBP)
Das Gegenstück zu dem vorangegangenem Bild. Auch hier sieht man wieder die Microbumps.
Scheint die Fläche zwischen genau zwei Stacks zu sein.

https://c5.staticflickr.com/9/8005/29514443756_496533ff1e_c.jpg (https://flic.kr/p/LY6eRW)
Hier die HBM-Stacks links vom Interposer. Zu sehen ist die unterste Lage die im direktem Kontakt mit dem Interposer ist.
Die bunte und größtenteils verdeckte Schicht könnte der Connectionlayer oder sogar der Layer mit den Speicherzellen sein.

https://c4.staticflickr.com/9/8471/28925649643_d52fe25fb9_c.jpg (https://flic.kr/p/L54vTi)
Zu sehen ist Rückseite des abgebrochenen Stücks vom Interposer das noch an der Fiji-GPU haftete.

https://c3.staticflickr.com/9/8043/29439190002_a16cfaffac_c.jpg (https://flic.kr/p/LRrxxq)
Fiji-GPU unbearbeitet

https://c2.staticflickr.com/9/8191/28964311033_db5c726be7_c.jpg (https://flic.kr/p/L8tEyZ)
Fiji Die-Shot mit nicht ganz optimaler Lichtquelle. Hier mussten zwei Leuchtmittel herhalten,
da die größe des Chips es verhinderte komplett zu leuchten. Je größer ein Chip und je kleiner die Lichtquelle,
desto höher ist die Wahrscheinlichkeit ein Chip nicht ganzflächig zum leuchten zu bringen.

https://c5.staticflickr.com/9/8310/28962328444_6e066183ef_c.jpg (https://flic.kr/p/L8ivdq)
Heute extra ein LED-Flächenstrahler besorgt. Ein perspektivisches Bild vom Fiji-Die
mit Schönlicht war dann wie von Zauberhand möglich.

Auf Ebay übrigens eine defekte 970 und 1070 geschossen vielleicht kommt da was nächste Woche.:smile:

Unicous
2016-09-10, 20:55:07
:love2:

Das ist ja Schaltkreis-Porno, ich hoffe nicht, dass das gelöscht wird.:naughty::usex:


Jedenfalls fette Props an dich.(y)

M4xw0lf
2016-09-10, 21:01:01
Geil. Die ersten Bilder tun zwar weh, aber die Dieshots sind stark :up:

Nightspider
2016-09-10, 21:08:31
Saubere Arbeit OC-Burner! (y)
Was nutzt du als Schleifmittel?

OC_Burner
2016-09-10, 21:17:21
3M 268L Microfinishing Film 30µm
3M 662XW Diamond Lapping Film 9µm
3M 661X Diamond Lapping Film 3µm

Glasplatte mit Wasser als Unterlage.

Locuza
2016-09-10, 22:18:49
[Fiji die-shot]

http://i.imgur.com/g7IsB.gif


Auf Ebay übrigens eine defekte 970 und 1070 geschossen vielleicht kommt da was nächste Woche.:smile:
Darauf freuen sich vermutlich viele, nachdem Nvidia glaube ich seit Kepler keine echten die-shots mehr zeigt.
Persönlich würde ich noch Hawaii sehr interessant finden, davon gibt es bis Heute auch keinen die-shot.

N0Thing
2016-09-11, 01:00:30
Wieder einmal coole Sache, OC_Burner! :up:

Was benutzt du als Lichtquelle, um den Die zum leuchten zu bringen?

Skysnake
2016-09-11, 08:45:47
:umassa::love3: @OC_burner

Wirklich klasse Arbeit! Muss man echt den Hut vor ziehen!

Ansonsten kann ich nur noch festhalten, dass der Fiji Shot im Vergleich zu dem von AMD nicht wirklich anders aussieht.

PS: Auf Kepler freue ich mich schon SEHR!

Hübie
2016-09-11, 11:25:10
Kepler? Hat er doch schon längst. :D Oder meinst du Maxwell und Pascal?

Nightspider
2016-09-11, 11:26:59
Das war ein Tippfehler...

OC_Burner
2016-09-11, 13:16:59
Wieder einmal coole Sache, OC_Burner! :up:

Was benutzt du als Lichtquelle, um den Die zum leuchten zu bringen?

Ein oder zwei Ringleuchten (runde Leuchtstoffröhren E27 / 1200lm (https://www.google.de/search?q=Somikon+Energiespar-Fotolampe+f%C3%BCr+NC-1727,+22+Watt&safe=off&biw=1176&bih=571&source=lnms&tbm=isch&sa=X&ved=0ahUKEwikgMuLmIfPAhXCLcAKHT0GDBgQ_AUIBygC)) rings um die Fotobox plaziert oder eine normale LED-Lampe in E27, GU10 etc. Fassung frei um den Chip plaziert. Am besten machen sich LEDs mit milchig trüben Glas zur besseren Lichtstreuung oder aber auch normale Energiesparlampen. Als gut hat sich die "Osram PARATHOM CL A 75 ADV 14.5 W/827 E27 (https://www.google.de/search?q=Osram+PARATHOM+CL+A+75+ADV+14.5+W/827+E27&safe=off&biw=1176&bih=571&source=lnms&tbm=isch&sa=X&ved=0ahUKEwjt7O3QlIfPAhXiIcAKHUpuDvgQ_AUICCgD)" erwiesen. Gestern dann wie gesagt mit einem LED Flächenstrahler (Aufbau-LED-Flächenleuchte 18W 4000K 1400lm (https://www.google.de/?gws_rd=ssl#safe=off&q=1701183407)) probiert und das Ergebniss ist wegen der nicht mehr Punktförmig ausgehenden Lichtstrahlen ein viel besser ausgeleuchteter Chip. Die Farbtemperatur ist im Prinzip egal da man diese später anpassen kann. Die Lampen müssen halt immer im flachen Winkel zum Chip plaziert werden damit die Strukturen schönsten Leuchten. Im ungünstigem Winkel leuchtet dann garnichts, man erkennt dann vielleicht noch Reste vom vorherigem Layer oder sämtliche Haarkratzer. Normales Tages- bzw. Raumlicht läßt die meisten Chips immer ziemlich unspäktakulär aussehen. Infrarot oder UV-Licht bewirkt auch keine sonderbaren Effekte.

Skysnake
2016-09-11, 13:25:25
Äh ja, war ein Tipfehler. Ich meinte natürlich Pascal -.-

Nakai
2016-09-11, 14:40:56
Sieht nach unter 5mm² pro CU aus. Ich komme auf etwa ~4,85mm².

Kartenlehrling
2016-09-16, 22:30:16
http://radeonprorender.com/?sf36055631=1
Radeon ProRender for Maya 2016 Windows and Mac Out Now!

New Pages, New Plugins!

Welcome to the new Radeon ProRender website. We’re celebrating our new pages with a new release: We’re finally releasing Radeon ProRender for Maya on Windows as well as Mac.
Like it’s siblings, Radeon ProRender for 3D Studio Max and Rhino, it’s geared at any artist who’d like to create stunning, physically accurate, and fast renders for free.
All you need is to download Radeon ProRender for Maya 2016, Register it, and get started. We’re even giving away a free material and asset library to go with it!

iuno
2016-09-17, 13:21:45
Wieso hier? Poste das doch in den GPUOpen Thread

AnarchX
2016-10-06, 18:11:29
Bei AMD wird es wohl nochmal heiß/feurig zum Jahresende:
DRACARYS FIJI/SSD P/N:102-D02702-00
https://www.zauba.com/import-DRACARYS-hs-code.html

Nightspider
2016-10-06, 18:28:47
Ist das jetzt diese GPU+SSD Kombination für irgendwelche exotischen Anwendungsgebiete?

y33H@
2016-10-06, 18:49:10
Klingt nach Radeon Pro SSD, japp: http://www.golem.de/news/radeon-pro-ssg-amd-zeigt-profi-karte-mit-ssds-fuer-ein-tbyte-videospeicher-1607-122332.html

Leonidas
2016-10-07, 05:39:43
Damit hatte uns AMD gut aufs Glatteis geführt. Ein teure Lösung mit hoher Nummer - konnte ja nur Vega sein. Wer konnte ahnen, das Alt-Hardware nochmal teuer (wegen der SSD) neu auflegen würde.