PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 [49] 50 51 52 53 54 55 56

reaperrr
2015-07-06, 23:56:07
kaveri bonaire kabini hawaii topaz tonga carrizo
gmc 7.0 7.0 7.0 7.0 8.0 8.0 8.0
ih 2.0 2.0 2.0 2.0 2.4 3.0 3.0
smc 7.0 7.0 7.0 7.0 7.1 7.1 8.0
dce 8.1 8.2 8.3 8.5 N/A 10.0 11.0
gfx 7.1 7.2 7.2 7.3 8.0 8.0 8.0
sdma 2.0 2.0 2.0 2.0 2.4 3.0 3.0
uvd 4.2 4.2 4.2 4.2 N/A 5.0 6.0
vce 2.0 2.0 2.0 2.0 N/A 3.0 3.0


Interessant. Angesichts des Theaters um die bei Fiji fehlende HDMI2.0-Unterstützung dürfte Fiji dann wohl definitiv höchstens dce 10.x haben und somit älter als Carrizo sein.

mczak
2015-07-07, 00:36:45
Interessant. Angesichts des Theaters um die bei Fiji fehlende HDMI2.0-Unterstützung dürfte Fiji dann wohl definitiv höchstens dce 10.x haben und somit älter als Carrizo sein.
Kann schon sein dass das dce 10 ist (sicher nicht älter, wir wissen ja schon dass uvd 6.0 ist).
Ich bin aber noch nicht 100% überzeugt dass Carrizo (dce11) wirklich hdmi 2.0 kann, das tauchte bei den Leaks vor einem Jahr auf seither wurde das aber bei keiner offiziellen Präsentation mehr erwähnt wenn ich nichts verpasst habe... Naja sollte ja demnächst echte Hardware geben dann wird das endgültig geklärt...

Hübie
2015-07-07, 00:42:12
;D Und ich google schon wegen Carrizo und HDMI 2.0. Dachte mir wäre da wieder was entgangen. Denn stehen tuts nirgends :rolleyes:

Complicated
2015-07-07, 13:26:50
@mczak
Interessant. Was ist mit CI- und VI-Chip gemeint? Hast du auch etwas mehr Infos zu den IP-Blöcken (was hinter den Abkürzungen steht) ausser uvd, vce und gfx die recht eindeutig sind?

fondness
2015-07-07, 13:29:30
Passt hier wohl auch:

http://s4.postimg.org/g15whgdel/Sapphire_Radeon_R9_Fury_11247_00_40_G_900x636.jpg (http://postimage.org/) http://s4.postimg.org/3nt2ajnq5/Sapphire_Radeon_R9_Fury_11247_01_40_G_900x635.jpg (http://postimage.org/)

http://s4.postimg.org/oi5esdi3h/Sapphire_Radeon_R9_Fury_backplate_900x428.jpg (http://postimage.org/) http://s4.postimg.org/vwuqkr3z1/Sapphire_Radeon_R9_Fury_TRIXX_900x858.jpg (http://postimage.org/)

http://videocardz.com/57078/exclusive-sapphire-radeon-r9-fury-pictured-specifications-confirmed

iuno
2015-07-07, 13:39:35
@mczak
Interessant. Was ist mit CI- und VI-Chip gemeint? Hast du auch etwas mehr Infos zu den IP-Blöcken (was hinter den Abkürzungen steht) ausser uvd, vce und gfx die recht eindeutig sind?
Caribbean/Volcanic Islands
Zum Rest hat er ja auch schon was geschrieben

anddill
2015-07-07, 14:03:26
Sieht aus als ob die tatsächlich für die gesamte Baureihe (abgesehen von der Dual) die selbe Platine verwenden. Aber 2 1/2 Slot Kühler, oh mann. Sicher nicht so einfach die Chips damit unter 65°C zu halten.
Und was sich schon angedeutet hat, da es die Fiji-Release Treiber nur für 64 Bit Systeme gab steht hier schwarz auf weiß in der Liste:
64 Bit operation system required

Botcruscher
2015-07-07, 14:07:15
Das dürfte ja sehr bedauerlich für die letzten XP32 Nutzer sein.:freak:

maguumo
2015-07-07, 14:10:39
Sieht aus als ob die tatsächlich für die gesamte Baureihe (abgesehen von der Dual) die selbe Platine verwenden.
Sieht für mich eher so aus als ob Sapphire da selbst was gebastelt hat...

fondness
2015-07-07, 14:13:46
Nope, steht sogar in der Beschreibung "original AMD PCB-Design". Finde ich auch sinnvoll, so kann man sich billigen spulenfiependen Chinamüll ersparen und Nachrüstkühler werden einfacher wen alle das gleiche PCB haben.

maguumo
2015-07-07, 14:15:46
Stimmt, hatte die Rückseite der Fury X anders in Erinnerung...

Raff
2015-07-07, 14:18:24
Nope, steht sogar in der Beschreibung "original AMD PCB-Design". Finde ich auch sinnvoll, so kann man sich billigen spulenfiependen Chinamüll ersparen und Nachrüstkühler werden einfacher wen alle das gleiche PCB haben.

Anfangs ist es völlig normal, dass die Hersteller Referenzplatinen nehmen und Eigenbaukühlung draufschnallen. Das war bei den Hawaii-Tri-Xen zunächst genauso. Custom-PCBs folgen immer später. Die Frage ist, ob das bei dieser Runde wegen HBM überhaupt möglich ist.

MfG,
Raff

Unicous
2015-07-07, 14:24:25
Ich wüsste nicht, was daran unmöglich sein sollte. Ich frage mich eher ob es Sinn machen würde.:wink:

Ob sie die Kosten durch andere Supplier z.B. bei den VRMs drücken können oder andere Kleinigkeiten ist eher fraglich. Ich sehe da jetzt nicht auch viel Optimierungsmöglichkeiten in die andere Richtung, solange AMD Fury X an der kurzen Leine hält.

Dural
2015-07-07, 14:40:43
Nope, steht sogar in der Beschreibung "original AMD PCB-Design". Finde ich auch sinnvoll, so kann man sich billigen spulenfiependen Chinamüll ersparen und Nachrüstkühler werden einfacher wen alle das gleiche PCB haben.

Hast du eine Fury X schon mal gehört? :wink:

mczak
2015-07-07, 14:51:56
Caribbean/Volcanic Islands
Zum Rest hat er ja auch schon was geschrieben
Also "CI" ist ja eigentlich Sea Islands (manchmal ist es sogar "cik" im Code). Das ist definitiv eine komische Schreibweise, aber SI war schon vergeben (Southern)... Wenn man GCN 1.0/1.1/1.2 (oder nach AMD v1, v2 ,v3) hat ist das ja Southern/Sea/Volcanic Islands. Was das mit Caribbean und Pirate Islands soll habe ich irgendwie nie begriffen...

Unicous
2015-07-07, 15:08:13
@mczak

Alle 300er ASIC "Rebrands" sind "Carribean Islands" (ob sie von AMD auch so eingeteilt werden *insertshrug.gif.). Fiji und Tonga sind (wie Hawaii) eigentlich "Volcanic Islands", ob sie auch dazu zählen...
Ich weiß gar nicht, wo Pirate Islands eigentlich herkommt es könnte im Zweifelsfall auch Verarsche sein. Soweit ich weiß, gab es von AMD-Seite keinen konkreten Hinweis auf P.I. (könnte mich aber irren) sondern nur das Gerücht, das von Theo Valich gestartet wurde und der ist keine seriöse Quelle.

Ich bin mir auch nicht sicher, ob du die GPUs den jeweiligen "Islands" richtig zuteilst, aber bin gerade zu faul, dass gegenzuchecken.:tongue:

(btw. Sea... klingt im Englischen ähnlich einem C... daher ist "Sea" mMn einfach nur ein Platzhalter für C.I und wahrscheinlich Carribean Islands...könnte aber auch wie bei Comics ein Retcon sein ;) )

mczak
2015-07-07, 15:27:07
Ich bin mir auch nicht sicher, ob du die GPUs den jeweiligen "Islands" richtig zuteilst, aber bin gerade zu faul, dass gegenzuchecken.:tongue:

Der Code lügt nicht, den interessiert die Marketingnamen nicht die Bohne. Sowas wie Rebrands existiert da nicht :smile:. Ich halte das ähnlich, Fantasy Islands Codenamen für Rebrands machen nun mal keinen Sinn (gibt ja immer noch den Produktnamen der anders sein kann).
Hawaii ist aber eindeutig Sea Islands, nicht Vulcanic Islands, ist mir egal ob das Marketing das allenfalls anders sieht, die sollen sich da gefälligst raushalten, die Codenamen haben sich an der technischen Realität zu orientieren. Kommt ja auch keiner auf die Idee gt720m als Kepler zu bezeichnen nur weil der in der GT7xx Serie existiert :-).

marc-05
2015-07-07, 16:12:02
Na da sind wir mal auf die Temperaturen (Lautstärke) gespannt,bei der Fury X wurden die Spawas so 104 Grad warm.
http://www.hardware.fr/medias/photos_news/00/47/IMG0047700.png

Asaraki
2015-07-07, 16:36:45
Na da sind wir mal auf die Temperaturen (Lautstärke) gespannt,bei der Fury X wurden die Spawas so 104 Grad warm.
http://www.hardware.fr/medias/photos_news/00/47/IMG0047700.png

Fiji - Schmilzt im Slot und nicht in der Hand? xD Klingt heiss, aber k.a. davon ^^

Wie warm werden denn die Spawas auf anderen Karten, 290x/980 etc.? Kennst du da vielleicht grad Werte?

Weil dein Bild nicht ging grad mal den Artikel zur Fiji auf hardware.fr angeschaut. Das hatte ich so noch nicht so schön aufgelistet gesehen :
http://www.hardware.fr/getgraphimg.php?id=193&n=1

Sind eigentlich schön durchgängig 8% Steigerung bei 8% mehr Chip+Memtakt. Wo bleibt der Voltageunlock? ^^

Gipsel
2015-07-07, 16:39:18
Fiji - Schmilzt im Slot und nicht in der Hand? xD Klingt heiss, aber k.a. davon ^^

Wie warm werden denn die Spawas auf anderen Karten, 290x/980 etc.? Kennst du da vielleicht grad Werte?100°C sind für Spannungswandler im Normalfall völlig okay. Die laufen auch oft noch bei 120°C oder gar mehr, kommt drauf an, wie die ausgelegt sind (bei höheren Temperaturen können die meist nur noch etwas niedrigere Ströme liefern [derating]). Im Übrigen sehe ich diese IR-Aufnahmen recht kritisch. Die Kalibrierung, um wirklich gute Temperaturen zu erhalten, ist nämlich gar nicht so einfach. Nur draufhalten und ablesen garantiert praktisch falsche Zahlen.

Unicous
2015-07-07, 16:43:14
Ich hatte gelesen, dass die entsprechenden Spawas bei Fiji sogar für 150°C ausgelegt sind...aber das kann ich irgendwie nicht so glauben, denn wie Gipsel sagt ist normalerweise bei 120 °C Schluss.

Das mit den IR-Aufnahmen kann ich so auch nicht so recht glauben und habe da schon die :rolleyes: gerollt.

NVM... gibt schon VRMs MOSFETs die über 175°C gehen.:redface:

HTB|Bladerunner
2015-07-07, 16:47:38
Passt hier wohl auch:

....
http://videocardz.com/57078/exclusive-sapphire-radeon-r9-fury-pictured-specifications-confirmed

"Stream Processors: Up to 3584 unit"

Was kann es denn damit auf sich haben? Vom GPU-Takt und der Bandbreite kennt man das ja bereits, aber nun wird auch die Zahl der SP's zu einer Variablen?

Gipsel
2015-07-07, 16:54:37
Ich hatte gelesen, dass die entsprechenden Spawas bei Fiji sogar für 150°C ausgelegt sind...aber das kann ich irgendwie nicht so glauben, denn wie Gipsel sagt ist normalerweise bei 120 °C Schluss.Wie oben noch reineditiert, sinkt der zulässige Strom oberhalb einer gewissen Temperatur. Das Datenblatt, in das ich mal vor ein paar Jahren reingeschaut hatte, spezifizierte bis 120°C den Maximalstrom und dann linear mit der Temperatur abnehmend immer weniger. Die Maximaltemperatur war mit 140°C angegeben (bei der dann noch der halbe Maximalstrom gezogen werden durfte). Also je nachdem, wie "überdimensioniert" die SpaWas ausgelegt sind, gehen doch relativ hohe Temperaturen. Und daß es Modelle mit bis zu 150°C Maximaltemperatur geben könnte, würde ich jetzt mal nicht ausschließen wollen. Aber da willst Du die auch nicht mehr wirklich betreiben, auch wenn die SpaWas selber es vielleicht könnten.
Das mit den IR-Aufnahmen kann ich so auch nicht so recht glauben und habe da schon die :rolleyes: gerollt.Insbesondere, wenn man auf den Bildern direkt Strukturen mit unterschiedlichen Emissionskoeffizienten erkennt, die eigentlich die selbe bzw. sehr ähnliche Temperatur haben müßten. Im Prinzip muß man jede Oberfläche einzeln kalibrieren, weil z.B. ein Widerstand eine andere Emissionscharakteristik hat als z.B. das PCB, oder die VRMs oder jedes beliebige andere Bauteil (nicht zu reden von Metalloberflächen). Ich bezweifle so ein wenig, daß das wer macht.
Die Alternative wären kleine Sticker mit bekannter Emissionscharakteristik, die man auf die Hotspots klebt und dann nur diese vermißt.

Asaraki
2015-07-07, 16:58:38
Wie oben noch reineditiert, sinkt der zulässige Strom oberhalb einer gewissen Temperatur. Das Datenblatt, in das ich mal vor ein paar Jahren reingeschaut hatte, spezifizierte bis 120°C den Maximalstrom und dann linear mit der Temperatur abnehmend immer weniger. Die Maximaltemperatur war mit 140°C angegeben (bei der dann noch der halbe Maximalstrom gezogen werden durfte). Also je nachdem, wie "überdimensioniert" die SpaWas ausgelegt sind, gehen doch relativ hohe Temperaturen. Und daß es Modelle mit bis zu 150°C Maximaltemperatur geben könnte, würde ich jetzt mal nicht ausschließen wollen. Aber da willst Du die auch nicht mehr wirklich betreiben, auch wenn die SpaWas selber es vielleicht könnten.
Insbesondere, wenn man auf den Bildern direkt Strukturen mit unterschiedlichen Emissionskoeffizienten erkennt, die eigentlich die selbe bzw. sehr ähnliche Temperatur haben müßten. Im Prinzip muß man jede Oberfläche einzeln kalibrieren, weil z.B. ein Widerstand eine andere Emissionscharakteristik hat als z.B. das PCB, oder die VRMs oder jedes beliebige andere Bauteil (nicht zu reden von Metalloberflächen). Ich bezweifle so ein wenig, daß das wer macht.

Danke für die Erklärungen an dich und auch die anderen! Verstehe leider wenig bis nichts von der Materie - wofür mich mein Bruder schon oft genug auslacht - aber spannend ist es auf jeden Fall.

Bezüglich den Messungen, das klingt auch nach sehr viel Aufwand und dann schauen es sich 13 Nerds weltweit genau an. Aber mal angenommen jemand würde es machen, warum interessiert das, solange die Karte keine Probleme bereitet? Einfach aus Neugierde oder kann man daraus etwas schliessen, was man anhand anderer Daten nicht könnte?

"Stream Processors: Up to 3584 unit"

Was kann es denn damit auf sich haben? Vom GPU-Takt und der Bandbreite kennt man das ja bereits, aber nun wird auch die Zahl der SP's zu einer Variablen?

Ins Blaue geraten würde ich sagen, dass sie von AMD noch keine definitiv garantierte Zahl hatten. Mehr werden's kaum plötzlich sein, aber eeeeventuell würde AMD ja doch anders beschneiden. Aber irgendwie strange ^^

Unicous
2015-07-07, 17:01:49
@Gipsel

Insbesondere, wenn man auf den Bildern direkt Strukturen mit unterschiedlichen Emissionskoeffizienten erkennt, die eigentlich die selbe bzw. sehr ähnliche Temperatur haben müßten.

Für mich sah das eher wie ein Falschfarbenbild als eine exakte Messung aus, wollte mich aber nicht zu sehr aus dem Fenster hängen ohne zu wissen womit gemessen wurde.:freak: ( Ich nehme mal an mit einem Pyrometer aus dem Baumarkt:P)

Gipsel
2015-07-07, 17:07:02
Bezüglich den Messungen, das klingt auch nach sehr viel Aufwand und dann schauen es sich 13 Nerds weltweit genau an. Aber mal angenommen jemand würde es machen, warum interessiert das, solange die Karte keine Probleme bereitet? Einfach aus Neugierde oder kann man daraus etwas schliessen, was man anhand anderer Daten nicht könnte?Na klar ist es Aufwand. Was ich eigentlich damit sagen wollte, ist das man vermutlich die konkreten Zahlen und Werte z.B. bei THG in die Tonne treten kann. Die liegen beliebig weit daneben. Bin mal per Zufall drüber gestolpert, daß sie die VRM-Temperatur irgendwo mit einem Temperaturfühler gemessen haben (bei dessen Anbringung man auch jede Menge falsch machen kann, wenn der nicht integriert ist) und dann im Anschluß erklärten, daß man diesen Temperaturfühlerwerten nicht so sehr vertrauen könnte wie ihren IR-Kamera-Bildchen, weil die 40mK (0,04°C) Auflösung hätten. Da weiß man als Physiker gar nicht, wo man anfangen soll :freak:.

Unicous
2015-07-07, 17:13:25
Anscheinend werden u.a. diese MOSFETs verbaut und die sind bis 150°C ausgelegt.

http://www.irf.com/product-info/datasheets/data/irf6894mpbf.pdf

http://images.bit-tech.net/content_images/2015/06/amd-radeon-r9-fury-x-review/furyx-22b.jpg

Asaraki
2015-07-07, 17:16:15
Na klar ist es Aufwand. Was ich eigentlich damit sagen wollte, ist das man vermutlich die konkreten Zahlen und Werte z.B. bei THG in die Tonne treten kann. Die liegen beliebig weit daneben. Bin mal per Zufall drüber gestolpert, daß sie die VRM-Temperatur irgendwo mit einem Temperaturfühler gemessen haben (bei dessen Anbringung man auch jede Menge falsch machen kann, wenn der nicht integriert ist) und dann im Anschluß erklärten, daß man diesen Temperaturfühlerwerten nicht so sehr vertrauen könnte wie ihren IR-Kamera-Bildchen, weil die 40mK (0,04°C) Auflösung hätten. Da weiß man als Physiker gar nicht, wo man anfangen soll :freak:.

Thx! Mit dem letzten Satz kann ich viel anfangen ^^

Ich 'messe' beruflich Software und wenn ich höre, weshalb ja "ihre Messung" genau zeigen würde, dass... da dreht sich mir der Magen um. Falsche Richtung, falscher Ansatz und dann die richtigen Fakten auch noch falsch interpretiert. Da verfehlen manche das ganze Sonnensystem. Bloody brilliant.

maguumo
2015-07-07, 17:24:41
Na klar ist es Aufwand. Was ich eigentlich damit sagen wollte, ist das man vermutlich die konkreten Zahlen und Werte z.B. bei THG in die Tonne treten kann. Die liegen beliebig weit daneben. Bin mal per Zufall drüber gestolpert, daß sie die VRM-Temperatur irgendwo mit einem Temperaturfühler gemessen haben (bei dessen Anbringung man auch jede Menge falsch machen kann, wenn der nicht integriert ist) und dann im Anschluß erklärten, daß man diesen Temperaturfühlerwerten nicht so sehr vertrauen könnte wie ihren IR-Kamera-Bildchen, weil die 40mK (0,04°C) Auflösung hätten. Da weiß man als Physiker gar nicht, wo man anfangen soll :freak:.
Tomshardware hatte mal nen Artikel über ihre Wärmebildaufnahmen. Die verwenden wohl Lack (der normalerweise zur Tropikalisierung dient) mit bekannter Emissionscharakteristik, und das Equipment von Optris erscheint auch hochwertig.

EDIT: Hier ist der Artikel dazu: http://www.tomshardware.de/infrarot-kamera-messungen-grundlagen-emission,testberichte-241701.html

Gipsel
2015-07-07, 17:53:10
Tomshardware hatte mal nen Artikel über ihre Wärmebildaufnahmen. Die verwenden wohl Lack (der normalerweise zur Tropikalisierung dient) mit bekannter Emissionscharakteristik, und das Equipment von Optris erscheint auch hochwertig.

EDIT: Hier ist der Artikel dazu: http://www.tomshardware.de/infrarot-kamera-messungen-grundlagen-emission,testberichte-241701.htmlDie genau benutzte Kamera ist in dem Zusammenhang fast schon egal. Was die da benutzt haben, wußte ich schon. Allerdings hat sich dort bei THG wohl tatsächlich einer mal wirklich Gedanken gemacht. Also Kommando zurück.

Edit:
Das Bild oben von Fury mit den SpaWas stammt allerdings aus einer anderen Quelle, nicht von THG. Keine Ahnung, wie ich in dem Zusammenhang oben auf THG gekommen bin. Daß die für obiges Bild ihre Fury mit komplett mit irgendwas überzogen haben, würde ich ausschließen wollen. Auch ein paar andere Bilder in anderen Artikeln sehen nicht wirklich danach aus. Da treffen alle Kritikpunkte (die auch der Artikel bei THG erwähnt) voll zu.

maguumo
2015-07-07, 18:06:40
Edit:
Das Bild oben von Fury mit den SpaWas stammt allerdings aus einer anderen Quelle, nicht von THG. Keine Ahnung, wie ich in dem Zusammenhang oben auf THG gekommen bin. Daß die ihre Fury mit komplett mit irgendwas überzogen haben, würde ich ausschließen wollen. Auch ein paar andere Bilder in anderen Artikeln sehen nicht wirklich danach aus. Da treffen alle Kritikpunkte (die auch der Artikel bei THG erwähnt) voll zu.

Ich glaube die (THG) kleistern nur das ein von dem sie die maximalen Temperaturen erwarten. Weiß leider nicht mehr wo das stand... Oder sprichst du von dem oben verlinkten Bild?

In ihrem Test zur Fury X hatten sie (THG) die Backplate jedenfalls nicht demontiert, die höchste Temperatur wurde da auf dem PCB direkt am Ende der Backplate nahe des PCIe Slots gemessen...

Loeschzwerg
2015-07-07, 18:09:52
Knapp 90°C Platinentemperatur am Mainboardslot lassen auf einen reichlichen Hunderter an den VRM-Pins schließen.

http://www.tomshardware.de/radeon-r9-fury-x-grafikkarte-fiji-gpu,testberichte-241846-8.html

Tcase liegt vermutlich nochmals etwas höher, aber bis zu den maximalen 150°C ist noch Luft.

Ich kann mir aber vorstellen warum AMD noch keine Spannungserhöhung zulässt.

Screemer
2015-07-07, 18:33:22
Fiji - Schmilzt im Slot und nicht in der Hand? xD Klingt heiss, aber k.a. davon ^^

Wie warm werden denn die Spawas auf anderen Karten, 290x/980 etc.? Kennst du da vielleicht grad Werte?

bei den derzeitigen temperaturen steigt vrm1 meiner 290 auf max 104°C. Die XFX 290 DD Black ist aber auch bei normalen Temperaturen richtig beschissen bei der VRM-Kühlung. Was mich sehr wundert ist, dass trotz wassergekühltem Kupferröhrchen auf den VRMs, solche Temperaturen bei der Fiji zustande kommen.

-/\-CruNcher-/\-
2015-07-07, 18:36:08
Ich kann mir aber vorstellen warum AMD noch keine Spannungserhöhung zulässt.

Burn baby Burn :D

Gipsel
2015-07-07, 18:36:53
Ich glaube die (THG) kleistern nur das ein von dem sie die maximalen Temperaturen erwarten. Weiß leider nicht mehr wo das stand... Oder sprichst du von dem oben verlinkten Bild?Genau. Das mit den angeblich 104°C.
In ihrem Test zur Fury X hatten sie die Backplate jedenfalls nicht demontiert, die höchste Temperatur wurde da auf dem PCB direkt am Ende der Backplate nahe des PCIe Slots gemessen...Gerade mal nachgesehen. Da man dort klar die Sticker auf der Backplate und sogar die Schrift auf den Stickern sieht (die mit sehr geringen Abweichungen die gleiche Temperatur haben sollten wie die Backplate), wurde da sehr wahrscheinlich gar nichts beschichtet (außerdem steht zu vermuten, daß sie die Review-Samples weiterreichen mußten).
Und bei dem Hotspot am PCI-Express-Slot oder auch den Radiator-Bildern kommt übrigens noch ein anderer Effekt zum Tragen, der in dem Artikel bei THG mit der Beschreibung nicht erwähnt wird: Die Abhängigkeit des Emissionskoeffizienten eines Gebildes von dessen Form.
Konkave Objekte scheinen einen größeren Emissionskoeffizienten zu haben, als man nach dem Material erwarten würde. Eine Raumecke sieht auf einem IR-Bild deswegen z.B. etwas heller aus als eine flache Wand identischer Temperatur und identischen Materials (falls es dort keine Wärmebrücke gibt natürlich nur). Der Extremfall ist eine Hohlkugel, in die man durch ein (sehr) kleines Loch schaut. Das ist ein idealer schwarzer Körper (Emissionskoeffizient 1 für alle Wellenlängen), selbst wenn der Hohlraum innen z.B. mit Silber verspiegelt ist.
Aber in geringerem Umfang kann man das auch an Kanten beobachten (weil auch dort das Strahlungsfeld näher am thermischen Gleichgewicht ist, einfach weil Wärmestrahlung von einer Seite der Kante von der anderen Seite absorbiert und reemittiert wird). Ein nettes Bild, in dem man prinzipiell diesen Effekt direkt sieht, gibt es z.B. bei Optris selber:

http://abload.de/img/optris_metallzylinder3xubg.png

Was man da sieht ist ein Metallzylinder mit so einem Sticker einer Kalibrierfolie. Was man aber auch sieht, ist daß die Innenseite des Zylinders deutlich wärmer (also heller) aussieht als die Außenseite. Das ist ein rein geometrischer Effekt aufgrund der Form des Objektes. Das gleiche gilt auch für nach innen gewölbte Kanten. In dem Bild besteht leider der Tisch aus einem anderen Material, so daß man dort nicht auseinanderhalten kann, was von dem hellen Ring unten das andere Material ausmacht und was die Geometrie der Kante selber. Aber an der kleinen Nut oben auf dem Zylinder sieht man das rechts und links jeweils andeutungsweise. Die Vertiefung sieht ebenfalls heller aus. Ebenfalls nur ein Effekt der Form des Objektes. Dies wird um so wichtiger, je weiter das Material vom idealen Strahler mit einem Emissionskoeffizienten von 1 entfernt ist. Für etwas nahe 1, ist es also beinahe zu vernachlässigen, für Material mit niedrigem Emissionskoeffizienten (wie dem Metallzylinder) ist es relativ bedeutsam.

Aber egal, das wird hier zu OT.

marc-05
2015-07-07, 18:41:26
Temperaturen von Hardware.fr bei Fury waren halt noch ohne Backplate Platte .
HT4u/Peter (http://ht4u.net/reviews/2015/amds_furie_radeon_r9_fury_x_im_test/index15.php)kam da auch auf 104 Grad bei der Fuji X

Bei Sapphire Fury ist halt bei der Backplate nur sehr kleine Aussparung ,da kann sich die Hitze schön sammeln.

Wenn Platte für den hintern dann eine mit "Kühllöchern" an den richtigen Stellen (Spawas) wie z.B der MSI R9 290X
http://fs2.directupload.net/images/150707/qql8wfwq.jpg (http://www.directupload.net)



Wie warm werden denn die Spawas auf anderen Karten, 290x/980 etc.? Kennst du da vielleicht grad Werte?
So aus Kopf würde Ich sagen Asus 290X (http://www.hardware.fr/articles/923-7/asus-radeon-r9-290x-directcu-ii-oc-test.html) mit OC (116,7) , und der
Phantom Top-Heizerkörpe (http://www.hardware.fr/focus/49/gainward-gtx-570-560-ti-phantom-test.html)r 560Ti ca.128Grad

Gipsel
2015-07-07, 18:56:59
Temperaturen von Hardware.fr bei Fury waren halt noch ohne Backplate Platte .
HT4u/Peter (http://ht4u.net/reviews/2015/amds_furie_radeon_r9_fury_x_im_test/index15.php)kam da auch auf 104 Grad bei der Fuji XIn deren Bild kann man übrigens schön sehen, daß dort der Standardemissionskoeffizient von 0,95 für alle Punkte angenommen wurde (siehe dem Artikel bei THG). Eine richtige Kalibrierung dürfte nicht erfolgt sein und man hofft schlicht, daß das PCB genau diesen hat (was aber zugegebenermaßen vermutlich nicht soo weit weg ist). Aber Lötpunkte, oder andere Objekte auf dem PCB (oder auch die Halteklammer für den Kühler aus Metall) liegen ewig weit daneben.

Ph0b0ss
2015-07-07, 19:17:47
Ich kann mir aber vorstellen warum AMD noch keine Spannungserhöhung zulässt.

Die Fury X hat mit 1,22V unter Last schon eine sehr hohe Spannung. Bei einer 290x brauchts dafür schon +100mV. Also schon ohne Spannungserhöhung am Limit.

Wenn Platte für den hintern dann eine mit "Kühllöchern" an den richtigen Stellen (Spawas) wie z.B der MSI R9 290X
http://fs2.directupload.net/images/150707/qql8wfwq.jpg (http://www.directupload.net)

Wenn schon Platte für die Rückseite, dann OHNE Löcher und MIT Wärmeleitpads für kritische, heiße Stellen wie Spannungswandler!

(del)
2015-07-07, 19:57:37
Aussage des Produktmanagers eines größeren Boardpartners auf meine diesbezügliche Nachfrage:
Backplates verkaufen sich nun mal besser. Das ist reines Marketing und Tape wäre denen in der Masse bei solchen Karten zu teuer (kostet neben dem Tape eben auch 2 Personen pro Insertion Line in der Endmontage extra).

Zu den Infrarot-Sachen:
Man kann wirklich viel "messen", nur ist das "Bild" dieser ganzen Kameras ja nichts anderers als eine optische Interpretation aus einer Matrix von Bolometern (temperaturabhängige Widerstände). Ist diese Matrix zu klein oder der Ausschnitt zu groß, dann "sieht" man die Werte zweier oder mehrerer Bolometer, die sich dann aus den ganzen Einzelwerten ergeben, was reichlich schrottig wird, da es eine Genauigkeit vortäuscht, die eben gar nicht nicht gegeben ist. Man benötigt schon eine gute Optik und eine hochauflösende Matrix, damit sich die Messwerte des betreffenden Punktes im Idealfall aus den Rückgabewerten eines Bolometers ergeben.

Das mit den Default-Werten von 0.95 für den Emissionsgrad ist auch so eine Sache. Die Platinen werden ja auch ab Werk meist mit einer Art Lack überzogen, nur dass der nie und nimmer 0,95 hat ;) Es liegt etwas darunter, je nach Hersteller. Ich arbeite mit einer im Labor ausgemessenen Charge und alterntiv mit Messtape, das leider nicht wirklich billig ist. Wer kalibrieren lassen kann, sollte notfalls auch mit dünnem, schwarzem Isolierband klarkommen, aber das ist nicht ganz so ideal. Mal einfach so auspacken und draufhalten geht schief. Und Emissionsgarde von Metallen ändern sich gern mit der Temperatur, ungünstig bei Heatpipes und Kühleroberflächen. Da geht ohne Lack oder Tape echt nichts.

Ich habe sogar Folie ausmessen lassen, mit der man ein offenes Gehäuse wieder schließen kann und die "durchscheinend" ist. Wenn man den Transmissionsgrad kennt, klappt das perfekt. Auch schon mal mit 12 Messpunkten :)

-/\-CruNcher-/\-
2015-07-07, 20:27:14
@Gipsel
Bezüglich Format_C seiner Aussage, tut eine Backplate nun aus Physikalischer Sicht bei der Wärmeableitung nutzen oder nicht oder sollte man das eher von Fall zu Fall betrachten ?

Könnte das Spulenfiepen ohne Backplate (generel) vielleicht sogar stärker werden ?

(del)
2015-07-07, 20:34:39
Die Backplate ist für die Kühlung ohne Tape sogar kontraproduktiv. Das lässt sich auch messen, denn im eingebauten Zustand steckt ein Luftpolster ohne Zirkulation zwischen Platine und Plate. Luft ist das Letze, was wärme effiektiv leitet.

Der vorrangige Vorteil einer solchen Plate ist bei schweren Karten die Stabilisierung des PCB, aber das könnte ein solider Frame genau so gut. Auf das Spulenfiepen hat es sicher keinen Einfluss.

maguumo
2015-07-07, 20:35:46
Das mit den Default-Werten von 0.95 für den Emissionsgrad ist auch so eine Sache. Die Platinen werden ja auch ab Werk meist mit einer Art Lack überzogen, nur dass der nie und nimmer 0,95 hat ;) Es liegt etwas darunter, je nach Hersteller. Ich arbeite mit einer im Labor ausgemessenen Charge und alterntiv mit Messtape, das leider nicht wirklich billig ist. Wer kalibrieren lassen kann, sollte notfalls auch mit dünnem, schwarzem Isolierband klarkommen, aber das ist nicht ganz so ideal. Mal einfach so auspacken und draufhalten geht schief. Und Emissionsgarde von Metallen ändern sich gern mit der Temperatur, ungünstig bei Heatpipes und Kühleroberflächen. Da geht ohne Lack oder Tape echt nichts.

Wie genau machst du das denn dann bei den Karten? Komplett lackieren, nur besonders "anfällige" Stellen (Bereich um die VRMs, bei der Titan X z.B. noch den VRAM auf der Rückseite und was es sonst noch geben mag) oder gar nicht?

foenfrisur
2015-07-07, 20:38:39
hat die backplate erst mal wärmeenergie aufgenommen, gibt sie diese leider nicht so einfach wieder ab. da wären kühlrippen sinnvoll.
also kühltechnisch nicht so clever, weil ja eher ein luftstrom verhindert wird.

besser gelöst isses beim arctic cooling hybrid, mit kühlrippen und WL-Pad.
leider nicht unbedingt CF/SLI tauglich.

und spulenfiepen würde wohl auch nur weniger hörbar werden, wenn das ganze luftdicht ist (luftschall). also auch unwichtig.

mfg

edit:
zu spät...

-/\-CruNcher-/\-
2015-07-07, 20:42:45
@Format_C

Hast du bei den AIBs eigentlich generel schonmal bzgl des Spulenfiepens nachgehackt so von wegen par cent mehr investieren pro unit der Qualität halber (bessere tests) oder gar als extra feature anbieten (sowas wie millitary grade components, japan caps ect) ;)

Oder waren die eher total desinteressiert das plötzlich dort verstärkt gereviewed wurde und vor allem berrichtet ?

(del)
2015-07-07, 20:43:57
Wie genau machst du das denn dann bei den Karten? Komplett lackieren, nur besonders "anfällige" Stellen (Bereich um die VRMs, bei der Titan X z.B. noch den VRAM auf der Rückseite und was es sonst noch geben mag) oder gar nicht?
Wenn die Karte bei mir bleibt, brushe ich alles. Falls nicht, dann bleiben mir nur die wichtigsten Stellen. Da wird punktuell lackiert bzw. mit Tape gearbeitet (Kühlkörper). Bei Fury durfte ich eigentlich nichts lackieren, deshalb war der Deckel auch zu. Ehe ich Murks ablese, lasse ich es lieber. Nur am Slot habe ich partiell gebruhst, da sieht es hinterher keiner. Deshalb auch das etwas ungewöhnliche Bild. Tape auf Spannungswandler-Pins funktioniert leider nicht. :)

@Format_C
Hast du bei den AIBs eigentlich generel schonmal bzgl des Spulenfiepens nachgehackt so von wegen par cent mehr investieren pro unit der Qualität halber ;)
Es sind ja nicht nur die Spulen, sondern das Schaltungslayout und die Bestückung als Ganzes. Das Problem sind die Margen im Allgemeinen und die Kosten für solche Spulen im Besonderen. Firmen wie inno3d haben es sogar mit einbetoniertem Zeug probiert -Transportschäden und spätere Risse und Brüche vorprogrammiert. Hier hat schon mal wer darüber geschrieben, dass es sehr viel Aufwand zuzüglich Try & Error bedarf, um eine konkrete Platine zu optimieren. Das Geld (und die Zeit) hat keiner. Leider.

-/\-CruNcher-/\-
2015-07-07, 20:54:24
Mal schauen wie es bei Pascal dann wird mit neuem Fertigungsprozess und ob Nvidia selbst in die Richtung schon von vornerein optimiert und versucht die AIBs dort zu entlasten am Ende profetiert ja jeder :)

Kann einfach nicht glauben das dieses Problem einfach ignoriert wird Kostenbedingt.

Und es gab ja auch durchaus gute Ergebnise in den Reviews und das Preislich ja in dem selben berreich also past das irgendwo nicht.

(del)
2015-07-07, 20:56:14
Wäre schön.

Da man auch in Boardpartnerkreisen R400 auf Q2/2016 kolportiert, wird es wohl ein erneuter Showdown :D Wenn man bei den AIB-eigenen Lösungen die Kühler wieder etwas von der Platine wegbekäme, wären auch wieder mehr Solids möglich. Es gibt auch 970er, die fiepen eher kaum. :)

BTW:
Ich habe mir im EMI-Labor eines großen PSU-OEM mal bissl was angeguckt -Grafikkarten sind echte Störsender. :D Leider ist so etwas nicht für den eigenen Laborgebrauch, aber so ein paar Charts wären sicher der Brüller.

maguumo
2015-07-07, 21:00:54
Wenn die Karte bei mir bleibt, brushe ich alles. Falls nicht, dann bleiben mir nur die wichtigsten Stellen. Da wird punktuell lackiert bzw. mit Tape gearbeitet (Kühlkörper). Bei Fury durfte ich eigentlich nichts lackieren, deshalb war der Deckel auch zu. Ehe ich Murks ablese, lasse ich es lieber. Nur am Slot habe ich partiell gebruhst, da sieht es hinterher keiner. Deshalb auch das etwas ungewöhnliche Bild. Tape auf Spannungswandler-Pins funktioniert leider nicht. :)



Danke für die ganzen Infos. Bin immer wieder erstaunt wie viel Arbeit da rein fließt...

(del)
2015-07-07, 21:01:40
Bin immer wieder erstaunt wie viel Arbeit da rein fließt...Das höre ich von meiner Frau fast jeden Tag :D

Skysnake
2015-07-07, 21:03:27
Anfangs ist es völlig normal, dass die Hersteller Referenzplatinen nehmen und Eigenbaukühlung draufschnallen. Das war bei den Hawaii-Tri-Xen zunächst genauso. Custom-PCBs folgen immer später. Die Frage ist, ob das bei dieser Runde wegen HBM überhaupt möglich ist.

MfG,
Raff
Naja, nicht immer, aber meist kommen Sie später.

Bei Fiji ist aber halt die Frage angebracht, inwieweit sich das überhaupt lohnt. Das PCB sollte relativ simpel sein, daher auch nicht so viel Optimierungspotenzial

Danke für die Erklärungen an dich und auch die anderen! Verstehe leider wenig bis nichts von der Materie - wofür mich mein Bruder schon oft genug auslacht - aber spannend ist es auf jeden Fall.

Bezüglich den Messungen, das klingt auch nach sehr viel Aufwand und dann schauen es sich 13 Nerds weltweit genau an. Aber mal angenommen jemand würde es machen, warum interessiert das, solange die Karte keine Probleme bereitet? Einfach aus Neugierde oder kann man daraus etwas schliessen, was man anhand anderer Daten nicht könnte?

Ins Blaue geraten würde ich sagen, dass sie von AMD noch keine definitiv garantierte Zahl hatten. Mehr werden's kaum plötzlich sein, aber eeeeventuell würde AMD ja doch anders beschneiden. Aber irgendwie strange ^^
Naja, an sich ist es nicht sooooo schwer bzw Aufwändig, wenn man mal einen Prozess etabliert hat, und weiß was man zu tun hat. Problem dabei ist aber, das man die Karten eben z.B. lackieren bzw mit Kreide(?) Spray bearbeiten muss. Das ist halt so eine Sache bei Leihgaben.

In deren Bild kann man übrigens schön sehen, daß dort der Standardemissionskoeffizient von 0,95 für alle Punkte angenommen wurde (siehe dem Artikel bei THG). Eine richtige Kalibrierung dürfte nicht erfolgt sein und man hofft schlicht, daß das PCB genau diesen hat (was aber zugegebenermaßen vermutlich nicht soo weit weg ist). Aber Lötpunkte, oder andere Objekte auf dem PCB (oder auch die Halteklammer für den Kühler aus Metall) liegen ewig weit daneben.
Tja wie heist es so schön

"Wer viel misst misst meist Mist" ;D

Man muss halt echt aufpassen, was man macht, und ja, das dauert dann auch seine Zeit. Nicht Tage, aber >1 Stunde ist da sehr sehr fix vorbei.

Was mich allerdings wundert ist, dass die durchaus Professionellen Kameras die da meist genutzt werden, keine Möglichkeit zur Kalibrierung haben. Wenn man das Ding über nach im Gehäuse lässt, und einen klimatisierten Raum hat, könnte man ja ohne weiteres eine Kalibrierungsmessung machen. Oder überseh ich jetzt gerade etwas fundamentales :confused:

@Format_C
Wo arbeiteste eigentlich, wenn die Frage erlaubt ist?

Bezüglich Störsendern:
Mir hat ein Prof mal erzählt, dass da irgend ein Amt dann bei denen mit nem Antennenwagen vor der Tür stand und ihnen klar gemacht hat, dass Sie ziemlich heftig die Gegend verpesten :ugly: War wohl eine Backplane, die offen betrieben würde. Hat auf jeden Fall für ziemlich große Augen gesorgt, weil die Leute wohl die ganze Sache auch ziemlich kritisch gesehen haben.

-/\-CruNcher-/\-
2015-07-07, 21:05:59
Wäre schön.

Da man auch in Boardpartnerkreisen R400 auf Q2/2016 kolportiert, wird es wohl ein erneuter Showdown :D Wenn man bei den AIB-eigenen Lösungen die Kühler wieder etwas von der Platine wegbekäme, wären auch wieder mehr Solids möglich. Es gibt auch 970er, die fiepen eher kaum. :)

BTW:
Ich habe mir im EMI-Labor eines großen PSU-OEM mal bissl was angeguckt -Grafikkarten sind echte Störsender. :D Leider ist so etwas nicht für den eigenen Laborgebrauch, aber so ein paar Charts wären sicher der Brüller.

Naja meine Galax EXOC (einer der ersten Auswahl nach THG test ;)) fiept zum Glück nur bei wirklich extremer Render Belastung in den normal cases ist sie silent :)
Find die Karte sehr nice für Galaxys erstes (Gamer target Europe Produkt) gegen MSI von der Komplett Balance, jetzt ja schon Langzeittest :)
Mich haben Galaxys Custom Boards schon immer Fasziniert was die zum Teil da in Asien für Freak Karten (PCB) gebastelt haben irre und ich meine jetzt nicht die Gamer target Karten, dann hab ich dein Review gesehen (mit der gerade neu eingeführten Messmethodik deine Reaktion auf Kritik daran und war hin und Weg) ;)

Die Sache mit dem Bios (und angeblicher Spawa überhitzungsproblematik) war aber schon komisch hab glaube immernoch das 1 drauf support nie kontaktiert wegen dem 2ten und sie Läuft immernoch ohne murren ;)

M4xw0lf
2015-07-07, 21:12:35
@Format_C
Wo arbeiteste eigentlich, wenn die Frage erlaubt ist?
Tomshardware, wie langsam jeder mitbekommen haben müsste. :tongue:

(del)
2015-07-07, 21:24:38
Was mich allerdings wundert ist, dass die durchaus Professionellen Kameras die da meist genutzt werden, keine Möglichkeit zur Kalibrierung haben
Definiere professionell ;) Du kalibrierst ja auch nicht die Kamera, sondern weist in der Auswertungssoftware einem Messpunkt oder mehreren den betreffenden Emissionsgrad zu, den man aber kennen muss. Wenn es noch höherwertiger ist, kannst Du zusätzlich auch mit Transmissiongraden arbeiten (wenn man durch dünne PET-Folien muss). Nur muss man als Anwender erst einmal die Basics kennen und dies individuell richtig konfigurieren. Meine Kamera wird turnusmäßig im Labor der Herstellers kalibriert, da gibt es schöne schwarze Strahler dafür.

Ende August mache ich dort mal eine Betriebsbesichtigung als spätere Fotostrecke für die Öffentlichkeit. Auch, um mal etwas Transparenz reinzubringen. Ich finde es gut, wenn auch Kollegen solche Hilfsmittel mittlerweile exzessiv nutzen, da haben wirklich alle was davon. Nur sollte sich wirklich jeder ordentlich schulen lassen und ein wenig Theorie büffeln. Manche Ergebnisse tun echt in den Augen weh. ;)

Skysnake
2015-07-07, 21:31:53
Naja, man sollte doch an sich bei bekannter Temperatur eben den Emmisionskoeffizienten bestimmen können. Quasi eine Schwarzmessung.

Aus dem Strahlungsgesetzt sollte sich dann ja ohne weiteres ableiten lassen, welche Temperatur sich bei veränderter Strahlungskarakteristik ergibt.

Klar, da darf man rein gar nichts bewegen, aber an sich sollte es doch funktionieren, wenn ich eben gerade nichts entscheidendes übersehe.

Raff
2015-07-07, 21:39:17
Naja meine Galax EXOC (einer der ersten Auswahl nach THG test ;)) fiept zum Glück nur bei wirklich extremer Render Belastung in den normal cases ist sie silent :)
Find die Karte sehr nice für Galaxys erstes (Gamer target Europe Produkt) gegen MSI von der Komplett Balance, jetzt ja schon Langzeittest :)
Mich haben Galaxys Custom Boards schon immer Fasziniert was die zum Teil da in Asien für Freak Karten (PCB) gebastelt haben irre und ich meine jetzt nicht die Gamer target Karten, dann hab ich dein Review gesehen (mit der gerade neu eingeführten Messmethodik deine Reaktion auf Kritik daran und war hin und Weg) ;)

Die Sache mit dem Bios (und angeblicher Spawa überhitzungsproblematik) war aber schon komisch hab glaube immernoch das 1 drauf support nie kontaktiert wegen dem 2ten und sie Läuft immernoch ohne murren ;)

Deine Wandler werden halt ziemlich heiß. Dafür ist die Karte nicht übermäßig laut (letzteres hat u. a. PCGH mit dem aktuellen BIOS kritisiert). Das neue BIOS lässt die Lüfter stärker aufdrehen, damit die Karte nicht so schnell hops geht. ;) Die Frage ist, wann es passiert - die Lebenszeit bei dreistelligen Wandlertemperaturen fällt jedenfalls nicht so üppig aus wie bei zweistelligen. Vermutlich reden wir hier von einer Differenz 10 statt 3 Jahre, insofern wayne ... aber alles in allem gibt es bessere Designs.

MfG,
Raff

(del)
2015-07-07, 21:39:54
Naja, man sollte doch an sich bei bekannter Temperatur eben den Emmisionskoeffizienten bestimmen können. Quasi eine Schwarzmessung.
Aus dem Strahlungsgesetzt sollte sich dann ja ohne weiteres ableiten lassen, welche Temperatur sich bei veränderter Strahlungskarakteristik ergibt.
Klar, da darf man rein gar nichts bewegen, aber an sich sollte es doch funktionieren, wenn ich eben gerade nichts entscheidendes übersehe.

Ja, aber kennst Du die Temperatur wirklich? Und was ist bei anderen Temperaturen? Gibts noch einen Temperaturkoeffizienten, oder bleibt der Emissionsgrad bei verschiedenen Temperaturen weitgehend konstant? Ganz so einfach ist es nicht.

-/\-CruNcher-/\-
2015-07-07, 22:06:53
Deine Wandler werden halt ziemlich heiß. Dafür ist die Karte nicht übermäßig laut (letzteres hat u. a. PCGH mit dem aktuellen BIOS kritisiert). Das neue BIOS lässt die Lüfter stärker aufdrehen, damit die Karte nicht so schnell hops geht. ;) Die Frage ist, wann es passiert - die Lebenszeit bei dreistelligen Wandlertemperaturen fällt jedenfalls nicht so üppig aus wie bei zweistelligen. Vermutlich reden wir hier von einer Differenz 10 statt 3 Jahre, insofern wayne ... aber alles in allem gibt es bessere Designs.

MfG,
Raff

Ja MSIs ist eindeutig besser keine Frage das war von Anfang an auch klar ersichtlich aber Galax war weit vor MSI erhältlich und der Preis war auch OK und da es Galax erste Brand Karte war und ich ne Galaxy produzierte Karte schon immer mal haben wollte da vorher nur hauptsächlich MSI, paste das ;)

Was ich an der ganzen Sache halt ein bischen komisch fand anderes Bios nur auf Anfrage beim Galax support, nix auf der Galax Europe Webseite im Support part das war sehr ungewohnt wurde das Spawa Problem doch teils als kritisch von den Reviewern dargestellt ;)

Galaxys Lab SET Demo war natürlich auch nice weit vor den Reviews ja der erste Eindruck auch des Designs ;)

Xr-ByCuML1Y

Nu wissen wir ja warum man die nette Musik gewählt hat für die Demo ;)

Und im Gegensatz zu z.b Palit als super low cost AIB liegen von der eigentlichen Build Quality ja Welten dazwischen ;)

aufkrawall
2015-07-07, 22:20:11
Die MSI 970 ist auch schlecht bei der VRM-Kühlung, da ist nur eine wenige Milimeter dicke Platte drauf. Bei der 980-Variante kommen extra Alu-Blöckchen zum Einsatz.
Bei der Palit JetStream scheinen die VRMs durch den Hauptkühlkörper mitgekühlt werden, zumindest sieht das von außen so aus. Entsprechend mehr Spielraum mit manueller Lüfterkurve hat man mit der.

Skysnake
2015-07-07, 22:34:42
Ja, aber kennst Du die Temperatur wirklich? Und was ist bei anderen Temperaturen? Gibts noch einen Temperaturkoeffizienten, oder bleibt der Emissionsgrad bei verschiedenen Temperaturen weitgehend konstant? Ganz so einfach ist es nicht.
In einem klimatisierten Raum, in dem ein ausgeschalteter PC steht über Nacht, sollte es keine signifikanten Unterschiede geben zwischen PC und Umgebungsluft.

Da muss man eher darauf achten, das man nicht irgendwo Reflektionen von Wärmestrahlung auf spiegelnden Oberflächen hat ;D

Das sollte sich aber durchaus machen Lassen Jalosie runter und eben keiner Kerzen etc brennen lassen. Baumarkstrahler sind vielleicht auch nicht so günstig ;)

Eine eventuell Temperaturabhängigkeit des Emmisionskoeffizienten würde ich getrost unter den Tisch fallen lassen. Man will ja realistisch eh nicht wirklich unter 1°C an Genauigkeit runter. Da sollte man an sich genug Luft haben, um die Unzulänglichkeiten im Fehler zu verstecken.

-/\-CruNcher-/\-
2015-07-07, 22:51:39
Die MSI 970 ist auch schlecht bei der VRM-Kühlung, da ist nur eine wenige Milimeter dicke Platte drauf. Bei der 980-Variante kommen extra Alu-Blöckchen zum Einsatz.
Bei der Palit JetStream scheinen die VRMs durch den Hauptkühlkörper mitgekühlt werden, zumindest sieht das von außen so aus. Entsprechend mehr Spielraum mit manueller Lüfterkurve hat man mit der.

Ja finde das bei MSI sogar kritischer da sie ja unbedingt den Ausgleichstakt zur 980 schaffen wollten ;)

Thunder99
2015-07-07, 23:02:11
Galax Eigendesign sah vielversprechend aus, war aber Schrott im Nachhinein ;) Hatte die Karte da und ehrlich, ab 84°C hat sich die Karte verabschiedet beim OC ohne Spannungserhöhung ;). Die Lüfter waren unter 2k leise, darüber aber ein unangenehmes Lüfterlaufgeräusch (Standard, nichts optimiert wie bei ASUS, EVGA, MSI, Palit, ...)

Fiji dagegen sollte (um nicht OT zu bleiben) durchgängig unkritische Temps haben. Fury non X sowieso bei Sapphire da bei meiner Vapor-X die Dinger nur +/-65°C warm werden :wink:

-/\-CruNcher-/\-
2015-07-07, 23:17:20
OC interessiert mich persönlich generel nicht die Bohne das pre OC war günstig und es ist stabil und am sweetspot ;)
Die Balance ist sehr ordentlich bei MSI ist sie halt anders gewichtet auf die 1500 Mhz hin von der gesammten Konstruktion ;)

Das das Lüfter Heatpipe Design mit MSIs bei ihrem jetzigen 2 Fan Design und weniger Heatpipes nicht mithalten kann ist seit den Reviews bekannt, trotzdem ist es nicht das schlechteste ;)

maguumo
2015-07-07, 23:33:10
und es ist stabil und am sweetspot ;)


Bei weitem nicht. Der Sweet Spot des Chip liegt knapp unter den Stock werten, und die sind schon deutlich unterhalb von allem was die Boardpartner so gebastelt haben.

-/\-CruNcher-/\-
2015-07-07, 23:35:11
sagen wir ich meine einen etwas anderen Sweetspot als wie den des Verbrauchs ;)

(del)
2015-07-08, 06:25:31
OC interessiert mich persönlich generel nicht die Bohne das pre OC war günstig und es ist stabil und am sweetspot ;)
...
Das das Lüfter Heatpipe Design mit MSIs bei ihrem jetzigen 2 Fan Design und weniger Heatpipes nicht mithalten kann ist seit den Reviews bekannt, trotzdem ist es nicht das schlechteste ;)

Dass es Probleme mit dem ersten BIOS geben kann, weil die Temperaturen zu hoch sind, hatte ich mit Ken W. von Galaxys Research & Development lang und breit ausgekaspert, woraus am Ende dann das neue BIOS entstand, das auch nachträglich auf die Pressesamples geflasht wurde. Ich hatte einen Prototypen hier, bevor überhaupt Samples rausgegeben wurden, obwohl zwischenzeitlich sogar schon die MP lief. Deshalb gabs später auch verschiedene Versionen im Handel und die leisen gingen meist ins kühlere und geräuschempfindlichere Europa. ;)

Deine EXOC war aber echt hilfreich, denn es war die einzige Karte, mit der ich sogar den Takt auf das Niveau der Referenzkarte hinbekommen habe. Zusammen mit dem abgesenkten Power Target hätte die Kühlung auch mit den langsamer drehenden Lüftern gerreicht, denn genau dafür war die Karte ursprünglich auch gedacht gewesen. Das bekloppte OC kam erst später dazu :D

Der Sweetspot der Karte liegt bei ca. 125 Watt :)

@Skysnake:
Naja... Das klappt in ungefähr, aber fast nie wirklich. :) Beispiel einer vernickelten Heatpipe aus Kupfer-Komposit (Asus):

http://media.bestofmicro.com/F/6/468402/original/Emmisive-02.jpg http://media.bestofmicro.com/F/G/468412/gallery/Emmisive-03_w_600.jpg

Du siehst, wie weit die Temperaturen im Vergleich zum Tape abdriften. Nur die Temperaturen auf dem Tape sind plausibel, denn 8 Kelvin Unterschied zum Messpunkt mit voreingestelltem (richtigen) Emissiongrad sind geradezu albern. Gerade metallische Oberflächen leiden unter diesen sich ändernen Emissionsgraden extrem. Eine "Kalibrierung" bei Raumtremperatur bringt somit nichts. Und die Lötaugen der Pins sind auch metallisch und spiegeln zudem auch noch. Deshalb ja die Tropikalisierung, der Lack ist seidenmatt und hat einen konstanten Emissionsgrad. :)

Skysnake
2015-07-08, 08:12:05
Na polierte/glatte Metallflächen habe ich ja schon kritisch angesprochen. Die muss man halt ausnehmen. Da kann man ja immer alles mögliche messen, gerade eben auch durch Reflektionen der Umgebung.

(del)
2015-07-08, 08:26:06
Na polierte/glatte Metallflächen habe ich ja schon kritisch angesprochen. Die muss man halt ausnehmen. Da kann man ja immer alles mögliche messen, gerade eben auch durch Reflektionen der Umgebung.
Ich habe Ähnliches auch mit matten, nicht vernickelten Kompositheatpipes gehabt. Wenn man z.B. 22°C im Raum nimmt, den dann ermittelten Emissionsgrad (der diese Temperatur in der Software als Ergebnis auswirft) als Basis für die Messungen beim Erwärmen nimmt, dann stimmt das Endergebnis bei ca. 70-80°C überhaupt nicht mehr (bis zu 10K Delta, je nach Material) Ich hatte vorher ein gutes Infrarotthermometer (das ich immer noch für schnelle Messungen nutze), bei dem ich auch mit variablen Emissionsgraden arbeiten konnte. Gleicher Effekt, deshalb bin ich schon vor 2 Jahren auf das teure Tape umgestiegen. Der Lack ist eine segensreiche Schenkung der Industrie, kam aber später. ;)

Deswegen sehe ich die ganzen tollen Screenshots der Software von Flir & Co. immer mit gewisser Skepsis, denn fast alle lassen Fragen offen. Flir setzt meist 1.0 per default, was kompletter Unfug ist, denn ideal ist in der Praxis schon mal gar nichts :) Selbst in manchen R&D-Abteilungen der Boardpartner muss man erst einmal eine kleine Einführung in die Basics machen, damit dort richtig mit den teuer angeschafften Instrumenten umgegangen wird. Meist werden nämlich viel zu geringe Werte ausgegeben, was die Lüfterkurven in allzu optimistische Bereiche treibt. Außerdem sollte man schon den tatsächlichen Messbereich (Radius) für einen Messpunkt kennen, der je nach Sensor, Objektiv und Abstand auch schon mal einige mm² betragen kann und die Werte einiger Bolometer gemittelt repräsentiert. Wie gesagt: was man in der Software als buntes Bildchen sieht, ist oft NICHT das, was man misst und schon gar nicht das, was wirklich ist. :D

IR-Kameras gaukeln dem Außenstehenden oft eine Genauigkeit vor, die nur dann in ungefähr auch gegeben ist, wenn der Bedienende keinen Fehler macht. Da kann ich die Skepsis Einiger nur zu gut nachvollziehen. Zum teuren Equipment gehört sich auch eine ebensolche Ausbildung, im Notfall wenigsten ein paar Seminare und praktische Übungen mit dem Hersteller. :)

Malabolge
2015-07-08, 08:46:11
Danke für 2 Seiten Temparaturgespräche und 970 - Backplates
Im AMD-Speku-thread

Danke,Danke und Danke :wink::wink::wink: (Ich hoffe 3 reichen )

(del)
2015-07-08, 08:54:55
Danke für 2 Seiten Temparaturgespräche und 970 - Backplates
Im AMD-Speku-thread
Danke,Danke und Danke :wink::wink::wink: (Ich hoffe 3 reichen )

Das Temperaturproblem der Spanungswandler trifft AMD-Grafikkarten mindestens in gleichem Maße und auch deren Design samt der albernen Backplates. Nach 603 Seiten gegenseitigen Glaskugeldrehens wird etwas Praxis doch wohl noch gestattet sein ;)

Aber gern wieder Back 2 Topic: Ich spendiere 200g Trester zum Auslesen von neuen Gerüchten :)
Wie wär's damit: Der Bermuda-Chip wird dreieckig, weil man dann aus einem Wafer die doppelte Anzahl als mit rechteckigen hinbekommt. Außerdem passt die Form besser zum Namen. Die Kühlerproduzenten können zudem die Kosten gewaltig senken, weil eine Schraube weniger zum Befestigen des Kühlkörpers benötigt wird. :P

Mr.Y
2015-07-08, 09:04:28
Wie wär's damit: Der Bermuda-Chip wird dreieckig, weil man dann aus einem Wafer die doppelte Anzahl als mit rechteckigen hinbekommt. Außerdem passt die Form besser zum Namen. :P
Red' doch kein Schmarrn. Wenn du den Wafer dreieckig saegst, dann hat ein Chip ein 4096bit Interface... und der andere keines. Einfach in der Mitte durchsaegen, dann hast du ein Design fuer einen grossen Chip und kannst dann daraus einen Mainstream basteln, der nur halb so gross ist - ohne Entwicklungsaufwand!
(scnr)

BTT:
Ich bin gespannt, ob und in welchem Masse es spaeter custom PCBs der Fury geben wird, denn bisher deuten die Geruechte ja auf ein 1zu1 PCB der Fury X hin und damit koennen etwaige Custom-Wakuehler direkt benutzt werden - oder auch ein Custom-Kuehler einer Fury auf einer Fury X

anddill
2015-07-08, 09:38:20
Wenn ihr schon so einen Blödsinn verzapft dann richtig:
Da die HBM-Speicherinterfaces an den gegenüberliegenden Chipkanten liegen würde bei einem Diagonalschnitt jedes Teilstück ein 2048-Bit Interface haben.

iuno
2015-07-08, 13:42:57
Wo wir schon dabei sind... :ugly: Vielleicht ist das jetzt etwas weit hergeholt, aber sollte man eigentlich UMC auf dem Schirm haben bzgl. späteren AMD Chips?
Auf die Idee kam ich daher:
http://forum.finanzen.net/forum/thread?thread_id=211057&page=142 Im Zuge der Veröffentlichung von Specs zur neuen Grafikkarten-Generation aus Basis von HBM, 2.5D Interposer-Stacking und der sog. FujiXT GPU hat AMD in den Slides dazu auch die Partner-Firmen während dieser 7-Jährigen Entwicklung von HBM bis zur serientauglichen Massenproduktion erwähnt:
Amkor, UMC (United Microelektronics)

Insbesondere letztere Aktie hat es mir angetan und hat für mich eine spekulative Chance, so lange AMD noch dem Markt den Turnaround durch Quartalszahlen beweisen muss (so lange geht hier bergab vergleichbar Solarworld 2014).

JPMorgan hat ein Sell-Rating für UMC veröffentlicht, aber nur vor diesem Hintergrund, dass TSMC seine 2015h2 Umsätze nach unten korrigiert hat.
Meine Spekulation: AMD hat für 2015h2 seine zukünftige GPU-Produktion auf UMC übertragen, zumal UMC direkt an der entwicklung der für die FujiXT notwenidgen Interposer-Substrate beteiligt war.
So hat AMD dann alles aus einer Hand, zumal HBM 2.5D Stacking nicht sooo trivial ist für eine günstige Massenproduktion... TSMC bleibt dann nvidia überlassen (und AMD hat wenger stress mit Industriespionage btw).

Ich halte es für Unsinn, dass AMD in H2 bei UMC fertigen lassen soll. Die haben zwar einen 28 HPM Prozess, aber was für einen Sinn hätte das bei den Kosten der Portierung? Sicherlich macht man sowas nicht wegen Industriespionage :rolleyes:
Dass alles aus einer Hand kommt könnte dagegen ja tatsächlich ein Vorteil sein (Stacking, Interposer und Chip), aber dann würde das ja nur Fiji betreffen und dennoch müsste man auf den Prozess portieren.

Aber wie sieht es mit zukünftigen Chips aus? UMC hat wohl recht spät verlauten lassen, dass sie 20 nm skippen (news vom 29.4.: http://www.eetimes.com/document.asp?doc_id=1326479), bei den anderen war ja schon länger klar, dass man sich auf 14/16 fixiert. Hält es jemand für möglich, dass AMD was in 20 nm bei UMC geplant hatte? AMD hat ja jetzt erst verlauten lassen, dass sie noch einige Designs von 20 auf FinFET (Fertiger oder genaue Fertigung nicht weiter spezifiziert) portieren wollen (http://www.golem.de/news/fertigungsprozess-amd-wechselt-von-20-nm-auf-finfet-technik-1507-115086.html)

edit: weiß nicht, ob das nicht besser in den AI Thread gepasst hätte? :confused:

Unicous
2015-07-08, 14:15:57
Das ist natürlich größtmöglicher Blödsinn und zeigt, dass der Typ einfach komplett inkompetent ist.

UMC überlegt gerade irgendwann in der Zukunft mal einen 14nm Prozess bereitzustellen. Sie behaupten, Ende des Jahres würde es erste tape-outs geben. Das würde schon mal bedeuten erste Chips gäbe es frühestens! im Q1'2017. Realistisch ist das bei UMC nicht, bzw. maximal bei Chips die deutlich unterhalb 100 mm² angesiedelt sind, also typische Einsteiger-Mobilechips wie sie Qualcomm braucht und auch bei UMC herstellen lässt.



Den wichtigsten Teil hast du übrigens vergessen zu zitieren.

Mit den Gewinnen aus den prognostizierten UMC Anteilen werden ich dann zum Jahresende bzw Jahreswechel AMD kaufen :)
:freak:

Da sieht man mal wie die Leute so ticken. Scheiße labern und dann Kohle auf Grund ihrer eigenen dämlichen Spekulationen verballern.

Peter Gräber
2015-07-08, 22:53:40
Die genau benutzte Kamera ist in dem Zusammenhang fast schon egal. Was die da benutzt haben, wußte ich schon. Allerdings hat sich dort bei THG wohl tatsächlich einer mal wirklich Gedanken gemacht. Also Kommando zurück.

Edit:
Das Bild oben von Fury mit den SpaWas stammt allerdings aus einer anderen Quelle, nicht von THG. Keine Ahnung, wie ich in dem Zusammenhang oben auf THG gekommen bin. Daß die für obiges Bild ihre Fury mit komplett mit irgendwas überzogen haben, würde ich ausschließen wollen. Auch ein paar andere Bilder in anderen Artikeln sehen nicht wirklich danach aus. Da treffen alle Kritikpunkte (die auch der Artikel bei THG erwähnt) voll zu.

Also mal langsam, in dem Post, der mir gerade zugetragen wurde, schreibst du vollkommen die Wahrheit. http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10696538&postcount=12040

Dass ich mir der Umstände bewusst bin, ist dir sicherlich klar und natürlich wähle ich die Messpunkte passend. Zudem gleichen wir mittels Dioden-Messung bei unterschiedlichen Materialien ab.

Aber nehmen wir uns lieber die Testumgebung: Offener Teststand, keine Backplate, anliegende 350 Watt Leistungsaufnahme. Gibt es jetzt Sinn für dich? Soweit ich weiß stammen THGs Messungen von Unigine Heaven mit 220 Watt?

Gipsel
2015-07-09, 00:10:05
Also mal langsam, in dem Post, der mir gerade zugetragen wurde, schreibst du vollkommen die Wahrheit. http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10696538&postcount=12040

Dass ich mir der Umstände bewusst bin, ist dir sicherlich klar und natürlich wähle ich die Messpunkte passend. Zudem gleichen wir mittels Dioden-Messung bei unterschiedlichen Materialien ab.Äh, was?
Sorry, falls ich nicht ganz auf dem Laufenden bin, aber seit wann hat HT4U was mit hardware.fr (von denen kam das Bild, auf das ich mich dort bezog) am laufen?

In dem Post, den Du wahrscheinlich meinst (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10696538#post10696538), geht es um ein Bild von Euch, wo klar ersichtlich ist, daß den angegebenen Temperaturen ein Emissionskoeffizient von 0,95 zu Grunde liegt. Kann ja sein, daß Du Dir der Problematik im Prinzip bewußt bist, aber bei den angegebenen Temperaturen in dem Bild von Euch fiel das offenbar unter den Tisch. Wie ihr das ansonsten abgleicht oder die Meßpunkte auswählt, spielt da keine Rolle, denn in das Bild floß dieses Wissen offenbar nicht ein. Wie ich schon schrieb, ein PCB ist vermutlich nicht soo weit weg von dem Emissionskoeffizienten von 0,95, aber genau ist was Anderes ;). In dem Punkt bin ich doch nah an Format_C (Igor Wallossek) (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10696626#post10696626). Daß die PCBs üblicherweise unter 0,95 liegen (was die bei Euch angegebenen Temperaturen als untere Grenze ausweisen würde), halte ich durchaus für plausibel.
Aber ganz unabhängig davon ging es mir dort hauptsächlich um den Eindruck, der von den Bildern für nicht in dem Thema drin steckenden Personen vermittelt wird. Die Farben entsprechen eben mitnichten direkt Temperaturen. Deswegen bezog ich mich ja auch explizit z.B. auf die Halteklammer oder die Lötpunkte, die sicher eine völlig andere Temperatur aufweisen, als man naiv anhand des Bildes annehmen würde.

Duplex
2015-07-09, 00:20:32
UMC hat in der Vergangenheit bereits größere Chips hergestellt, neben TSMC hat UMC für Nvidia G92 Chips mit 289mm² DIE Space hergestellt.

Skysnake
2015-07-09, 00:48:58
UMC hat sich aber aus dem Rennen für leading edge Prozesse verabschiedet, und das nicht erst gestern. Die hinken einfach den anderen großen Auftragsfertigern hinterher.

Dafür machen die für so manchen Analog/Detector Menschen noch den einen oder anderen Extraschuh.

foenfrisur
2015-07-09, 00:52:22
und wie siehts in der gegenwart aus? ;D

mfg

edit: zu spät

Hübie
2015-07-09, 00:55:09
Da hab ich anderes gelesen (http://www.eetimes.com/document.asp?doc_id=1326479). UMC hat nur nicht die Ausbringungsmenge.

Skysnake
2015-07-09, 01:56:40
Nur kann man nodes nicht 1:1 vergleichen über den Namen des Nodes...

Man wird erstmal schauen müssen, was UMC wirklich macht, und vor allem, ab wann Sie es in relevanten Stückzahlen machen.

OT:
Man sollte sich genau anschauen, ob bei den ganzen 1x Nodes EUV verwendet wird. Wenn ja, dann ist es ziemlich klar, warum man 20nm überspringt. Das liegt dann einfach an der EUV Technik, die einem wieder etwas mehr Luft bringt, und wenn man es schon einsetzt, sollte der Sprung sich auch lohnen.

Habe dieses Jahr einen Vortrag von Zeiss mir angehört, die die Optiken machen. Also rein von der Optik her, hat man es wohl inzwischen im Griff Maschinen mit sehr genauen Parametern her zu stellen. Man kümmert sich da aktuell wohl eher schon um den Nachfolger, bei dem man die numerische Apertur durch deutlich größere Spiegel steigert.

Lacke hat man wohl inzwischen auch im Griff, und die Lichtquellen auch. Kann also gut sein, das man daher 20 skipped, einfach weil es keinen Sinn mehr macht.

Aus dem Vortrag ging für mich zwischen den Zeilen aber hervor, das man keine großen Stückzahlen an Steppern erwarten darf, und genau da kommt dann auch das Problem.

Also erstes werden sich Intel und TSMC/Samsung mit den Dingern eindecken, und das wird wohl weit mehr als eine Jahresproduktion sein.

Hübie
2015-07-09, 02:09:19
Im Griff hat man dies schon länger, das Problem ist die Wirtschaftlichkeit und Marktdurchdringung. Zeiss braucht hoch reine Linsen was wiederum die Wahl der Zulieferer einschränkt. Das kann ich jetzt auf zig Baugruppen eines einzelnen Belichtungsapparates anwenden.
Kannst dir ja vorstellen wie lang die Kette insgesamt ist. Würde hier den Rahmen bei weitem sprengen, denn selbst die Materialien der Apparaturen sind nicht 08-15. Da langt dann halt auch jeder zu um die Rente abzuschöpfen.

Edit: Weiß auch gar nicht ob se alle bei ASML Schlange stehen...

Unicous
2015-07-09, 02:15:58
Man weiß so gut wie nichts über den 14nm Prozess von UMC (außer dass er wohl den "14nm" moniker und FinFETs nutzt) und der allwissende Duplex möchte uns erzählen, dass sie vor Äonen mal GPUs für Nvidia hergestellt haben.:freak:

Als ob das irgendeine Bewandtnis im gegebenen Kontext hätte.

Das was man in letzter Zeit als Mantra von UMC hört klingt eher nach: Wir wollen auch was vom Kuchen abhaben, auch wenn die Hochzeit schon längst vorbei ist und unsere Kuchengabel zu groß ist um uns vom verbliebenen Krümel etwas abzuschneiden.

Und auch dann stellen sie eher kleinere Mobile Chips her, z.B. für Qualcomm (28nm). Und auch bei ihrem 14nm FinFET Prozess wird das mMn nicht anders sein. Den S4 410 den sie u.a. herstellen ist wahrscheinlich deutlich unter 100mm² groß im Vergleich zum S4 800, der wohl knapp unterhalb 120mm² liegen soll.

Wir wissen nichts über gate pitch, metal pitch, fin pitch und andere Metriken. Wenn der Prozess am Ende 14nm LPE bzw. 16nmFF hinterherhinkt wird wohl niemand auf die Idee kommen, für den Prozess eine 300+mm² GPU zu designen.:rolleyes:



btw. SMIC bekommt wohl auch noch was vom Kuchen ab...

China's SMIC, Q'comm in 14nm Deal
Huawei, Imec also part of R&D joint venture (http://www.eetimes.com/document.asp?doc_id=1326948)

BRUSSELS – China’s top foundry, Semiconductor Manufacturing International Corp. (SMIC), has forged a joint venture with Huawei, Qualcomm and the Imec research institute to develop its own technology for making 14nm chips. SMIC Advanced Technology R&D hopes to have its homegrown 14nm process in production in a SMIC fab by 2020.

ab 2020 :freak:


"SMIC has been a slow follower...an underdog of UMC that is an underdog to TSMC, and this puts them back in the front line," said Malcolm Penn, chief executive of market watcher Future Horizons. "It's impossible to chase this foundry market, you have to intercept it and this sounds like an intercept strategy to me," he said.

Hübie
2015-07-09, 02:27:45
Bis 2020 wird der Markt als übermäßig anwachsend gewertet, was Investoren lockt. Also wird da jeder irgendwie sein markteing-mäßiges Alleinstellungsmerkmal suchen, schätz ich.
Hatte UMC 2013 nicht auch Spatenstich zu einer neuen Fab oder verwechsel ich das mit Samsung? :|

(del)
2015-07-09, 06:42:33
Zum letzten Mal OT:
Vielleicht sollten wir wirklich einen extra Infrarot-Temperatur-Whatever-Thread aufmachen. Da passt es deutlich besser hin :)

Grafikkarten werden ja ebenfalls meist bereits ab Werk mit einer Lackschicht versehen. Selbst wenn man dessen Emissionsgrad nicht kennt, ist es doch so, dass man bei zu niedrigen realen Werten des Emissionsgrades bei voreingestellten 0.95 eher zu wenig angezeigt bekommt. So gesehen sind die 104 °C, um die es wohl geht, auch nicht zu hoch, sondern eher noch zu niedrig. Wenn sich man selbst mit alternativen Messmitteln überprüft (Messdioden, Tastkopfe) und das Ganze plausibel hinkommt, bin ich bei Peter, es nicht zu übertreiben. Bei diesen Temperaturen hat man zwischen den 0.75 bis 0.85 dieser Lacke am Ende vielleicht nur einen um 2-3 Kelvin zu niedrigen Wert auf der IR Kamera. Aber wie gesagt, nie zu hoch. :)

Meine Einlassung war genereller Art, denn ich sah auch schon ein Bild einer Karte, wo aus purer Unkenntnis so grandios daneben gemessen wurde, dass mit die Augen getränt haben ;)

Skysnake
2015-07-09, 08:28:39
Im Griff hat man dies schon länger, das Problem ist die Wirtschaftlichkeit und Marktdurchdringung. Zeiss braucht hoch reine Linsen was wiederum die Wahl der Zulieferer einschränkt. Das kann ich jetzt auf zig Baugruppen eines einzelnen Belichtungsapparates anwenden.
Kannst dir ja vorstellen wie lang die Kette insgesamt ist. Würde hier den Rahmen bei weitem sprengen, denn selbst die Materialien der Apparaturen sind nicht 08-15. Da langt dann halt auch jeder zu um die Rente abzuschöpfen.

Edit: Weiß auch gar nicht ob se alle bei ASML Schlange stehen...
EUV geht nur noch mit Spiegeln, nicht mit Linsen. Die sind nämlich nicht mehr durchsichtig....

Und die Spiegel werden direkt von Zeiss hergestellt, bzw einer Tochter, weiß das nicht mehr so genau. Die Anforderungen sind auf jeden Fall pervers.

Wie meinte er, übertragen auf Deutschland ist die höchste Unebenheit 1-10m glaub ich waren es. Auf jeden Fall abartig flach.

Da wurden auch Daten von 5 Maschinen gezeigt. Mehr hatten Sie wohl noch nicht produziert, und die 5 Maschinen gingen an 3(?) Hersteller.

Was ich damit sagen will. Wenn Firma XY sagt Sie machen einen zProzess, dann heist das nicht automatisch, dass Sie auch sonderliche Stückzahlen liefern können. Am Ende haben Sie für eine nicht unrelevante Zeit nur 1-2 Maschinen da stehen.

fondness
2015-07-09, 18:06:33
Presseslides zur Fury nonX:
http://videocardz.com/57177/amd-radeon-r9-fury-launches-tomorrow

Loeschzwerg
2015-07-09, 18:25:52
Custom made PCB? Auf voller Länge? Das kann ich irgendwie nicht glauben...

Zumal die angeblich gezeigte Strik Fury exakt so aussieht wie die Strix 390X (bitte genau das PCB betrachten):
http://www.pctekindia.com/assets/img/news/99g.jpg

Edit: Und man sieht da sogar den GDDR5 auf der Strix von der Slide :freak:

Edit2: Die Explosionszeichnung nur Sapphire ist aber interessant. Ziemlich großer Materialaufwand!

Wake
2015-07-09, 18:47:46
Von Guru3D (http://www.guru3d.com/news-story/asus-strix-radeon-r9-fury-surfaces.html):
At this point it looks like only Sapphire and ASUS are to release a Fiji Pro based Fury card, I've talked to Gigabyte and they are not planning this SKU. MSI as well will not release one short term, but internally they are still discussing it.

DVI auf der Asus, alles wird gut! :comfort2: ;)

mironicus
2015-07-09, 18:48:50
Bin gespannt, ob sich die Fury Pro zur Fury XT flashen lässt.

Flusher
2015-07-09, 18:55:38
Bin gespannt, ob sich die Fury Pro zur Fury XT flashen lässt.

Halte ich für unwahrscheinlich - bei einer derart großen DIE wird da sicherlich genug für FijiPro abfallen.

Loeschzwerg
2015-07-09, 18:56:44
Ein möglicher Flash wäre genial :) Edit: Ich halte es nicht für unwahrscheinlich, der 28nm ist hier gereift genug und wenn Sapphbire exakt das Reference Layout verwendet, dann könnte da schon eine Charge mit vollaktiven Fury drauf sein.

Die Aussage mit den Boardpartnern lässt natürlich ordentlich Luft für Spekulationen.

Screemer
2015-07-09, 18:58:49
Custom made PCB? Auf voller Länge? Das kann ich irgendwie nicht glauben...

Zumal die angeblich gezeigte Strik Fury exakt so aussieht wie die Strix 390X (bitte genau das PCB betrachten):
http://www.pctekindia.com/assets/img/news/99g.jpg

Edit: Und man sieht da sogar den GDDR5 auf der Strix von der Slide :freak:

Edit2: Die Explosionszeichnung nur Sapphire ist aber interessant. Ziemlich großer Materialaufwand!
man sieht doch auf dem bild dram chips.

€dit: ich sollte die tabs nicht so lange offen stehen lassen.

StefanV
2015-07-09, 19:25:47
Von Guru3D (http://www.guru3d.com/news-story/asus-strix-radeon-r9-fury-surfaces.html):


DVI auf der Asus, alles wird gut! :comfort2: ;)
...ob es hier 'spezial Deals' seitens nVidia gibt, wie damals bie der Einführung vom K7 analog zu Intel...

Peter Gräber
2015-07-09, 19:54:59
Zum letzten Mal OT:
Grafikkarten werden ja ebenfalls meist bereits ab Werk mit einer Lackschicht versehen. Selbst wenn man dessen Emissionsgrad nicht kennt, ist es doch so, dass man bei zu niedrigen realen Werten des Emissionsgrades bei voreingestellten 0.95 eher zu wenig angezeigt bekommt. So gesehen sind die 104 °C, um die es wohl geht, auch nicht zu hoch, sondern eher noch zu niedrig. Wenn sich man selbst mit alternativen Messmitteln überprüft (Messdioden, Tastkopfe) und das Ganze plausibel hinkommt, bin ich bei Peter, es nicht zu übertreiben. Bei diesen Temperaturen hat man zwischen den 0.75 bis 0.85 dieser Lacke am Ende vielleicht nur einen um 2-3 Kelvin zu niedrigen Wert auf der IR Kamera. Aber wie gesagt, nie zu hoch. :)


Der Abgleich der Temperatur erfolgte natürlich nur an den Chips der Spannungsversorgung mittels externer Messdiode, nicht am PCB. Ich wollte die Wandlertemperaturen haben - mit den Schwankungen daneben kann man (ich) relativ gut leben, wenn ich eben die Wandler-Temps feststellen möchte.

Gipsel: hab den Thread nicht gelesen, nur den Hinweis von einem Leser bekommen auf diesen einen Beitrag von dir. Von daher, sorry für meine Unkenntnis der Zusammenhänge.

-/\-CruNcher-/\-
2015-07-09, 20:17:17
Custom made PCB? Auf voller Länge? Das kann ich irgendwie nicht glauben...

Zumal die angeblich gezeigte Strik Fury exakt so aussieht wie die Strix 390X (bitte genau das PCB betrachten):
http://www.pctekindia.com/assets/img/news/99g.jpg

Edit: Und man sieht da sogar den GDDR5 auf der Strix von der Slide :freak:

Edit2: Die Explosionszeichnung nur Sapphire ist aber interessant. Ziemlich großer Materialaufwand!

Das macht doch absolut sinn wer hätte nicht die Heatpipe erweitert mit dem freigewordenen Platz beim PCB :)

http://cdn.videocardz.com/1/2015/07/Sapphire-Radeon-R9-Fury-TRIX-900x673.jpg

So werden das auch die Nvidia AIBs bei Pascal machen :)


Nicht 3 auch nicht 4 nein 7 :D

7 Heatpipes :D

Timbaloo
2015-07-09, 20:26:43
Von Guru3D (http://www.guru3d.com/news-story/asus-strix-radeon-r9-fury-surfaces.html):
Hmmm, die Gründe warum Gigabyte keine Fury Fiji Pro bringen will und MSI zumindest zögert würden mich schon interessieren...

-/\-CruNcher-/\-
2015-07-09, 20:32:38
Jetzt könnte man wild spekulieren ;)

Sicherlich werden sie aber alle Nano Customs releasen ;)

vielleicht ahnen MSI und die anderen schon das die Pros mehr oder weniger im Lager verschimmeln könnten ;)

Problem was ich sehe das Materialaufwand in keiner relation zu den Effizienz Ergebnissen beim Target Gamer für die AIBs bei AMD momentan steht, da würde ich auch zurückhaltender sein.

Bei der Fury XT macht es ja noch sinn mit der AIO, vor allem wen sie so läuft wie andill seine optimierte ;)

foenfrisur
2015-07-09, 20:41:10
hier gehts doch um spekulatius...
gigabyte wundert micht jetzt nicht, msi schon eher...

vermutlich sehen die da keinen großen gewinn in einer karte, die über luft schwer zu kühlen ist.
und auch die sonstigen werte vielleicht nicht die vielversprechendsten.
schwierige kühlung ->verbrauch, hitze, dazu die genrelle leistung + preis, harte konkurrenz...

da sind vielleicht in summe zu wenige lichtblicke, um die karte gut zu verkaufen?

mfg

Troyan
2015-07-09, 20:44:24
Ja, die Karte macht zwischen der 390X für $429 und Fury X für $649 kaum Sinn.
Erste hat 8GB und wird ca. 15% langsamer sein. Zweite kommt mit Wasserkühlung und ca. 10% mehr Leistung.

Dazwischen liegen die Custom-GTX980 Karten, die +-Fury Niveau haben und für den AIB bessere Margen abwerfen.

Imo hat die GTX980TI einiges bei AMD durcheinander gewürfelt und eine Fury ist irgendwo ein Produkt, dass man bringen muss, aber eigentlich kaum einen Markt dafür hat...

(del)
2015-07-09, 21:12:59
gigabyte wundert micht jetzt nicht, msi schon eher...
Bei GB hat der VGA-Chef persönlich den Daumen gesenkt. So, wie ich Eddie L. kenne, mit genauer vorausgegangener Kalkulation. Bis zur 390X, nicht weiter. Fiji Pro und XT lohnen nicht. Zumal man ja fürs Q2/2016 die R400 kolportiert ;)

fondness
2015-07-09, 21:18:20
Hmmm, die Gründe warum Gigabyte keine Fury Fiji Pro bringen will und MSI zumindest zögert würden mich schon interessieren...

AMD hat ziemlich strickt Anforderungen an den Kühler, nachdem man bei Hawaii von den Herstellerdesigns enttäuscht war. Manche wollen die wohl nicht erfüllen.

Bei GB hat der VGA-Chef persönlich den Daumen gesenkt. So, wie ich Eddie L. kenne, mit genauer vorausgegangener Kalkulation. Bis zur 390X, nicht weiter. Fiji Pro und XT lohnen nicht. Zumal man ja fürs Q2/2016 die R400 kolportiert ;)

Gigabyte hat natürlich eine Fury X im Angebot.
http://geizhals.eu/gigabyte-radeon-r9-fury-x-gv-r9furyx-4gd-b-a1285792.html?hloc=at&hloc=de

N0Thing
2015-07-09, 21:20:21
AMD hat ziemlich strickt Anforderungen an den Kühler.

Das hat leider einen ironischen Beigeschmack.

-/\-CruNcher-/\-
2015-07-09, 21:20:58
jo 5 Heatpipes ist sicher nicht billig bei Nvidia reichen 4 ja meistens aus bei den AIB Designs ;)

Dem MSI Designer wird man sicher erstmal eine Powerpoint Präsentation gefahren haben das hier für 1 Heatpipe mehr so und so viel cent kosten pro unit mehr entstehen bei einer kalkulierten verkaufsprognose von 1%, bei den derzeitigen Review Ergebnisen ;)

fondness
2015-07-09, 21:22:29
Das hat leider einen ironischen Beigeschmack.

Das freut mich für dich.

jo 5 Heatpipes ist sicher nicht billig bei Nvidia reichen 4 ja meistens aus bei den AIB Designs ;)

Es sind 7 Heatpipes bei der Sapphire.

-/\-CruNcher-/\-
2015-07-09, 21:29:42
Stimmt die 2 zusätzlichen kurzen Enterprise Triebwerke hab ich glatt übersehen lol

Thunder99
2015-07-09, 22:11:04
275W müssen halt gut gekühlt werden. Und wenn es leise sein soll geht es nur über Masse oder Wasser. Die leisesten GTX 980Ti Karten haben ja auch mega 3xLüfter Kühler. MSI schafft es gerade noch so mit 2, Respekt vor der Leistung der Ingenieure :wink:

foenfrisur
2015-07-09, 22:18:19
naja, palit schaffts auch mit 2, aber die karte ist da so breit, das sie fast schon quadratisch aussieht. :D

mfg

Nakai
2015-07-09, 22:19:43
275W müssen halt gut gekühlt werden. Und wenn es leise sein soll geht es nur über Masse oder Wasser. Die leisesten GTX 980Ti Karten haben ja auch mega 3xLüfter Kühler. MSI schafft es gerade noch so mit 2, Respekt vor der Leistung der Ingenieure :wink:

Es geht nicht um die TDP, sondern um einen Großteil der Energie auf einem kleinen Fleck bei geringen Temperaturen zu kühlen. Am besten leise.

Hübie
2015-07-10, 00:35:02
naja, palit schaffts auch mit 2, aber die karte ist da so breit, das sie fast schon quadratisch aussieht. :D

mfg

Dann guck dir mal die ASUS an. Da werden manche heulen weil die Karte nicht in deren Sparflammen ..äh Gehäuse passen :freak:

StefanV
2015-07-10, 01:55:08
275W müssen halt gut gekühlt werden. Und wenn es leise sein soll geht es nur über Masse oder Wasser. Die leisesten GTX 980Ti Karten haben ja auch mega 3xLüfter Kühler. MSI schafft es gerade noch so mit 2, Respekt vor der Leistung der Ingenieure :wink:
Naja, das hängt ja von der Oberfläche des Kühlers, des Wärmeübergangs von Chip zu den Heatpipes, der Wärmekapazität der Heatpipes (Faustregel: je weniger biegung, desto weniger Leistungsverlust hat eine Heatpipe) und natürlich auch vom Luftstrom, der über den Kühler fließt.

Das Problem bei den VGA Karten ist schlicht, dass der Platz so sehr beschränkt ist, so dass man hier kaum wirklich gute Kühler ohne Verränkungen verbauen kann...
Und eben auch, dass der Luftdurchsatz dieser 7mm starken Lüfter einfach völlig fürs Klo ist.

Kannst du ja selbst ausprobieren, wenn du bereit bist, dir einen dieser 7mm tiefen Lüfter zu besorgen und den mal auf deinen CPU Kühler schnallst. Und dann vergleichst du den bei 1500rpm mal gegen einen 25mm tiefen Lüfter bei 750-1000rpm (120mm Breite).
Und du wirst vom Stuhl fallen. Bei meinen Tests mit einem Scythe Shuriken hatte ich z.T. 10K bessere Temperaturen mit einem 25mm hohen Lüfter...

Das Blöde ist halt, dass der ATX Format Standard eben nicht auf sehr leistungsfähige Steckarten ausgelegt ist, so dass man hier mit eher suboptimalen Designs irgendwie klar kommen muss...
Und da hast dann die Wahl, ob du jetzt weiter in die Höhe Richtung 3 Slots gehst oder die Länge maximal ausnutzt...

PS: Ich hab hier gerade 3 Gigabyte Grafikkarten (HD7970GHz, 280X und eine GTX 570) sowie eine ASUS GTX 570 Direct CU.
Der Kühler der ASUS Karte ist da durchaus als ziemlich schrottig und mies zu bezeichnen. Auch von der Oberfläche ist eher 'nen ganzes Stück schlechter als die Gigabyte Kühler. Aber hier werden 25mm hohe Lüfter eingesetzt, darum ist diese Karte trotz allem die kühlste und leiseste von dem Haufen...

Daher gehen wohl einige Hersteller den Weg mehr als 2 Slots zu belegen. Und natürlich versucht man so langsam auch die maximale Länge, die spezifiziert sind, auszunutzen...

Und wenn jemand meint, dass sein Gehäuse keine 31,5cm langen Karten aufnehmen kannm, flamt bitte denjenen welcher das Gehäuse verbrochen hat!
Denn die Spec sagt, dass Karten maximal 312mm lang sein dürfen!

Siehe hier:
https://en.wikipedia.org/wiki/Conventional_PCI#Full-height_cards
http://superuser.com/questions/369450/what-does-length-height-and-depth-refer-to-on-a-pci-card

Es ging nur 'ne Zeit lang gut, weil die Karten immer kleiner und kompakter wurden - bis sie dann wieder größer wurden....

aufkrawall
2015-07-10, 02:30:48
Palit und MSI schaffen es, die anderen sind halt nicht gut genug.
Mir rätselhaft, wie dieser Markt so viele Fehler verzeiht.

(del)
2015-07-10, 08:35:15
AMD hat ziemlich strickt Anforderungen an den Kühler, nachdem man bei Hawaii von den Herstellerdesigns enttäuscht war. Manche wollen die wohl nicht erfüllen.
Gigabyte hat natürlich eine Fury X im Angebot.
http://geizhals.eu/gigabyte-radeon-r9-fury-x-gv-r9furyx-4gd-b-a1285792.html?hloc=at&hloc=de

Es ging hier um Eigendesigns und nicht um die verhunzten OEM-Karten der ersten Batch. Ja, man hat genau 100 Stück zugekauft (weil man es nun mal musste) und umgelabelt. Zumal es leider auch die mit den miesen Pumpen sind. Übrigens ist nicht eine aus Deinem Link lieferbar. Und sie wird es auch wohl kaum wieder werden. Aus den geschilderten Gründen: man kann damit nun mal kein Geld verdienen.

AMD hat ziemlich strickt Anforderungen an den Kühler, nachdem man bei Hawaii von den Herstellerdesigns enttäuscht war. Manche wollen die wohl nicht erfüllen.

AMDs rules? So etwas gibt es nicht. Aber, und nur darum ging es ja im Kontext: man wird sicher keine eigene Fury (Fiji Pro) bringen. Für Gigabyte (und einige andere auch) ist dieser Chip wirtschaftlich mit Sicherheit uninteressant. Die Karten sind nicht nur in der Herstellung zu teuer, die aufwändige Entwicklung von Eigendesigns wird sich nämlich kaum amortisieren. Nano mag dann eine andere Geschichte sein, aber da warten wir ja noch etwas. :) Nur große Firmen, wie Sapphire (PC Partner als Haus- und Hof-OEM von AMD) und Asus können sich so etwas überhaupt leisten und genügend absetzen, um bei solch kleinen Margen wenigstens mit einer schwarzen Null rauszukommen. MSI ist einfach nicht groß und vollgestopft genug, um solche Risken einzugehen, Gigabyte erst recht nicht. Selbst HIS als AMD-exklusiver Partner steht da voll auf dem Schlauch, denn die sind im Vergleich zu den ersten zwei Firmen geradezu winzig. Bei MSI könnte ich mir zumindest vorstellen, dass die noch aufspringen, wenn es eine Erfolgstendenz gibt, denn passende Kühler (auch für kurze Karten) sollte man haben. Gigabyte schließe ich nach meinen aktuellen Informationen zu 100% aus.

Heatpipes:
Asus geht neuerdings mit den Heatpipes einen anderen Weg. Ich habe dort im R&D Kühler mit 2x 1cm dicken, zentralen Heatpipes in der Mitte gesehen, die weit über 70% der gesamten Abwärme abführen sollen, die äußeren kleineren Heatpipes sind für den Rest zuständig. Das Problem bei solchen dicken Pipes ist die Undurchlässigkeit des Kompositmatrials im Langzeitbetrieb an den Biegestellen. Aber das Konzept klingt erst einmal schlüssig und Asus meint, es im Griff zu haben. Da bin ich schon gespannt, wie es sich gegen eine Vapor-Chamber schlägt.

tm0975
2015-07-10, 08:58:15
... Zumal man ja fürs Q2/2016 die R400 kolportiert ;)

dann aber bereits in 14/16 nm, oder?!

Botcruscher
2015-07-10, 08:59:46
Die Karten sind nicht nur in der Herstellung zu teuer
Falls du Quellen zu den Kosten hast dann immer her damit. Der Chip dürfte imo doch recht billig sein. Bleiben Interposer und HBM als Unbekannte. NV dürfte sich mit der 980TI und erst recht der normelen 980 ja wieder dumm und dämlich verdienen.

(del)
2015-07-10, 09:02:03
Falls du Quellen zu den Kosten hast dann immer her damit.Das hättest Du sicher gern ;) Ich kenne nur die Gesamtkalkulation samt Prognosen und genau da hat man dann den Stecker gezogen. Außerdem ist noch nichts gelauncht und ich werde einen Teufel tun, hier irgend etwas in die Welt zu streuen. Verfolge doch einfach die Herstellerpalette bei kommender Verfügbarkeit. Das ist Antwort genug. :D

NV dürfte sich mit der 980TI und erst recht der normelen 980 ja wieder dumm und dämlich verdienen.Die Masse machts. Da ist die 970 aktuell die Cash Cow, es gibt für die AIB nichts Besseres :)

Sven77
2015-07-10, 09:11:53
Was ist AIB?

Pirx
2015-07-10, 09:12:37
Das hättest Du sicher gern ;) Ich kenne nur die Gesamtkalkulation samt Prognosen und genau da hat man dann den Stecker gezogen. Außerdem ist noch nichts gelauncht und ich werde einen Teufel tun, hier irgend etwas in die Welt zu streuen. ...
Hast du das nicht gerade getan?:rolleyes:

Botcruscher
2015-07-10, 09:15:43
Schade.:tongue: Das AMD an der Karte nichts verdienen wird war imo zu erwarten. Als HBM-Testobejekt ist er einfach zu teuer. Das Ding wird später bei den Sammlern im Glaskasten liegen. Immerhin sind die nur 4GB damit wirklich kein Problem. Preiskämpfe wird es auch nicht geben. Also in einem Jahr eine ordentliche 14nm Karte kaufen. Mit der 290(X) zum Start hat man echt nichts falsch gemacht. Gleiches dürfte für die kommenden Modelle gelten. Die Karten sind einfach über Jahre wertstabil weil die Technik nicht mehr her gibt.
Hast du das nicht gerade getan?:rolleyes:
Zumindest nichts außerhalb der Erwartungen.

(del)
2015-07-10, 09:27:13
Hast du das nicht gerade getan?:rolleyes:Nö. Dass es sich nicht rechnen wird, kann sich doch jeder mitdenkende Mitteleuropäer an den Fingern abzählen. Mehr würde ich aus vielerlei Gründen sowieso nie in einem Forum posten. Hier gehört so etwas nämlich auch nicht hin :)

Nur zum Verständnis:
Fiji (whatever) ist durchaus interessant, HBM erst recht. Ich finde auch die Karten als solche nicht schlecht, im Gegenteil. Aber es ist leider im Gegenzug auch wieder mal das leidige AMD-Problem, dass man Technologien mit der Brechstange und vor allem viel zu früh etablieren will, anstelle zu überlegen, wie erst mal richtig Kohle reinkommt.

Und man muss den AIB einen echten Anreiz geben, in diesem Spiel mitzuspielen. Sonst bleibt die massenhafte Verbreitung ein Wunschtraum. Nur ist es eben so, dass egal wen man fragt, so etwas wie Euphorie komplett anders aussieht. Und billig ist der Riesen-Chip mit Sicherheit auch nicht. Zumindest nicht am Anfang :D

Die Differenz zwischen Straßenpreis und Herstellkosten (HKP, HKU, nicht zu verwechseln mit Herstellungskosten) ist nicht so groß, wie manche glauben. Außerdem gibt es ja nebenher zusatzlich für den AIB auch noch Gemeinkosten (Verwaltung, Logistik, Marketing, RMA, Rückstellungen, Finanzierung usw.). Dann passt die Spanne zwischen den Gesamtkosten des AIB und dem Erlös aus dem Verkauf an den ersten zahlenden Abnehmer nämlich als Flachmann unter der Tür durch. Den Rest schnappen sich Distri/Zwischen- und Einzelhändler. So etwas funktioniert nur über echte Stückzahlen und nicht solche Kleinserien wir Fiji (bisher).

foenfrisur
2015-07-10, 11:15:05
Was ist AIB?
Steht für add in board.
Sind die Hersteller, die z.b. die GPU, also den Chip von amd kaufen und dann eine graka bauen.

support.amd.com/en-us/kb-articles/Pages/AMDPartnersAIBOESystemBuilder.aspx

Assembler also.

Mfg

r3ptil3
2015-07-10, 11:30:28
Ich verstehe das nicht ganz, eine Fury nonX bei einer UVP von voraussichtlichen 550$ rentiert sich nicht für einige Hersteller?

Habe ich das richtig verstanden? Wie kann das sein?

fondness
2015-07-10, 11:36:37
Schade.:tongue: Das AMD an der Karte nichts verdienen wird war imo zu erwarten. Als HBM-Testobejekt ist er einfach zu teuer. Das Ding wird später bei den Sammlern im Glaskasten liegen. Immerhin sind die nur 4GB damit wirklich kein Problem. Preiskämpfe wird es auch nicht geben. Also in einem Jahr eine ordentliche 14nm Karte kaufen. Mit der 290(X) zum Start hat man echt nichts falsch gemacht. Gleiches dürfte für die kommenden Modelle gelten. Die Karten sind einfach über Jahre wertstabil weil die Technik nicht mehr her gibt.


Er spricht von den Kosten für einen AIB, das hat erstmal gar nichts damit zu tun wie viel AMD an einem verkauften Chip verdient. Wenn der AIB wenig verdient ist eher der Chip im Einkauf sehr teuer.

fondness
2015-07-10, 11:39:04
Es ging hier um Eigendesigns und nicht um die verhunzten OEM-Karten der ersten Batch.

Von der Fury X gibt es keine Eigendesigns, daher war deine Aussage vorher für mich Missverständlich, wonach es keine Gigabyte Fury X Karten geben wird.


AMDs rules? So etwas gibt es nicht.


Klar gibt es die, eben Dinge wie das Temp-Target, welche mit 75°C bei der Leistungsaufnahme nicht unbedingt mit jedem Kühler erfüllt werden kann und deshalb häufig neue Kühlerdesigns erfordert, wo wohl nicht jeder AIB dazu bereit ist.

Botcruscher
2015-07-10, 12:08:40
Er spricht von den Kosten für einen AIB, das hat erstmal gar nichts damit zu tun wie viel AMD an einem verkauften Chip verdient. Wenn der AIB wenig verdient ist eher der Chip im Einkauf sehr teuer.
Bei einem guten Gewinn für AMD wäre aber die Verfügbarkeit deutlich besser. Ein teurer Chip hat seine Gründe.

(del)
2015-07-10, 12:17:53
Von der Fury X gibt es keine Eigendesigns, daher war deine Aussage vorher für mich Missverständlich, wonach es keine Gigabyte Fury X Karten geben wird.
Es ging nie um die Fury X, da hast Du Dich galant verlesen. Es geht um die mit ohne X :)

Klar gibt es die, eben Dinge wie das Temp-Target, welche mit 75°C bei der Leistungsaufnahme nicht unbedingt mit jedem Kühler erfüllt werden kann und deshalb häufig neue Kühlerdesigns erfordert, wo wohl nicht jeder AIB dazu bereit ist.
Das kommentiere ich jetzt nicht, denn Nvidias rules sind wesentlich restriktiver und anders gestrickt. Zu den Temperaturen gibt es ja sicher demnächst mehr, auch von mir. Wann genau, darf ja keiner wissen. ;)

fondness
2015-07-10, 12:26:12
Es ging nie um die Fury X, da hast Du Dich galant verlesen. Es geht um die mit ohne X :)


Es ging um den vor mir zitierten Beitrag aber egal:

Bei GB hat der VGA-Chef persönlich den Daumen gesenkt. So, wie ich Eddie L. kenne, mit genauer vorausgegangener Kalkulation. Bis zur 390X, nicht weiter. Fiji Pro und XT lohnen nicht. Zumal man ja fürs Q2/2016 die R400 kolportiert ;)

Das kommentiere ich jetzt nicht, denn Nvidias rules sind wesentlich restriktiver und anders gestrickt. Zu den Temperaturen gibt es ja sicher demnächst mehr, auch von mir. Wann genau, darf ja keiner wissen. ;)

Sollte nicht so schwer zu erraten sein:
http://sapphirenation.net/theclock/

(del)
2015-07-10, 12:47:51
Bis zur 390X, nicht weiter. Fiji Pro und XT lohnen nicht. Lasses doch einfach im Kontext. Da stand nämlich auch, dass man notgedrungen 100 Stück abgenommen hat, damit aber keinen Cent verdient.

fondness
2015-07-10, 12:50:18
Lasses doch einfach im Kontext. Da stand nämlich auch, dass man notgedrungen 100 Stück abgenommen hat, damit aber keinen Cent verdient.

Das sagtest du erst später, nämlich hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10699845#post10699845

Aber hat sich ja schon geklärt.

BlacKi
2015-07-10, 12:51:41
Sollte nicht so schwer zu erraten sein:
http://sapphirenation.net/theclock/

TY

(del)
2015-07-10, 12:54:18
Da steht allerdings nicht, welche genau. Und genau das ist nun mal Teil des (partiell vorgezogenen) NDA :)
Auch wenn es jeder denkt zu wissen, man schreibt nun mal nicht im Detail drüber, solange der Drops noch nicht rollt.

r3ptil3
2015-07-10, 14:00:46
http://www.computerbase.de/2015-07/sapphire-radeon-r9-fury-tri-x-oc-test/

Fury nonX Review Computerbase.de

(del)
2015-07-10, 14:04:25
http://www.tomshardware.de/sapphire-amd-radeon-r9-fury-tri-x,testberichte-241864.html

Sapphire R9 Fury Tri-X OC :) So viel zum Thema AMDs rules und 75°C. Im Gehäuse knackt man locker die 80°C-Marke.
Im Torture ist die Karte durchs Runtervolten kühler als beim Gaming, verkehrte Welt. ;)

Loeschzwerg
2015-07-10, 14:38:48
Schöner Test Igor :) Die VRM Temps sind "from hell", gerade bei 22°C Umgebungstemperatur.

fondness
2015-07-10, 14:43:35
http://www.tomshardware.de/sapphire-amd-radeon-r9-fury-tri-x,testberichte-241864.html

Sapphire R9 Fury Tri-X OC :) So viel zum Thema AMDs rules und 75°C. Im Gehäuse knackt man locker die 80°C-Marke.
Im Torture ist die Karte durchs Runtervolten kühler als beim Gaming, verkehrte Welt. ;)

Dann nehme ich das natürlich gerne zurück, bin hier offenbar einem Missverständnis aufgesessen.

Frosty
2015-07-10, 15:00:01
bekommt die fiji familie eigentlich noch ende diesen jahres oder anfang nächsten jahres endlich den hbm2 speicher mit mindestens 8gb oder wird erst die nächste radeon generation damit ausgestattet? ich meine gelesen zu haben dass hbm2 wohl noch nicht zur verfügung steht

Ravenhearth
2015-07-10, 15:06:18
Das weiß noch niemand. Aber ich hoffe doch nicht, dass sich AMD auch 2016 noch auf Fiji und Hawaii verlässt.

(del)
2015-07-10, 15:39:08
Dann nehme ich das natürlich gerne zurück, bin hier offenbar einem Missverständnis aufgesessen.

Bei Power Tune zählt die Mischung aus Spannung, tatsächlich fließenden Strömen und Temperaturen. Unter extremer Volllast wird ja spannungsmäßig so kalkuliert, dass man auf die 75°C mehr oder weniger hinkommt. Fließt weniger Strom, darfs auch mal heißer werden. Typische Mischkalkulation. Ab ca. 80°C wird dann aber aber in jedem Fall limitiert. :)

Was übrigens zu Differenzen bei den Resultaten der einzelnen seiten führen kann:
Sapphire hat die Karte noch mal zwischendurch flashen lassen. Unsere US-Karte hatte auch ein anderes BIOS. Somit ist nichts wirklich untereinander vergleichbar. Chaos pur. Und gestern dann zum Hohn noch einen neuen Treiber... Bravo :(

Der Preis ist m.E. etwas überzogen. Man bekommt eine gute, werksübertaktete 980 (deutlich schneller als die Referenzkarte aus den Reviews) ab ca. 530 Euro, da liegt die Sapphire über 100 euro drüber. Das wird aua, weil man dafür fast eine 980 Ti bekommt.

Nightspider
2015-07-10, 16:40:22
Gab es die letzten 3 Wochen eigentlich irgendwo im www nochmal Infos ob tatsächlich noch "HBM2" Speicher im 4.Quartal kommt womit man eine 8GB Fury bauen könnte? Vielleicht von Hynix selber?
Bzw. neue Infos wann dieser in Masse verfügbar sein soll für Nvidia und Co womit man darauf schließen könnte wann die ersten vom Band fallen?

Ravenhearth
2015-07-10, 16:46:57
Es gab iirc eine Grafik, die von Herbst (?) 2014 für HBM1 und Mitte 2016 (?) für HBM2 sprach.

Kartenlehrling
2015-07-10, 17:06:35
,,,,,,,,,,,,,,,,,,,,,,,,,

Nightspider
2015-07-10, 17:11:07
Falscher Thread?

anddill
2015-07-14, 11:08:34
Mir ging grad so die Frage duch den Kopf: Was macht AMD mit Fiji-Modulen bei denen ein HBM-Stack nicht in Ordnung ist?
Nano mit vollem Chip, aber 3GB an 3072 Bit?

dargo
2015-07-14, 11:11:49
3072Bit, 372Bit wären arg wenig. :wink:

maguumo
2015-07-14, 11:33:20
Rein vom HBM her könnte man das SI wohl in 128b Schritten stutzen, bei den aktuellen HBM Stacks wären das dann 128MB die pro gestrichenem Channel wegfallen. Wie das auf Seite des SI aussieht weiß ich nicht...

y33H@
2015-07-14, 11:42:00
Mir ging grad so die Frage duch den Kopf: Was macht AMD mit Fiji-Modulen bei denen ein HBM-Stack nicht in Ordnung ist?Die GPU und die Stacks werden doch am Schluss "gemicrobumpt", wieso sollten dann defekte Stacks drauf sein?

anddill
2015-07-14, 12:40:07
3072Bit, 372Bit wären arg wenig. :wink:
Argh, die 25 Jahre alte Maxdata-Tastatur hier am Männerruheraum-PC hat ne NULL verschluckt. -fixed-

Die GPU und die Stacks werden doch am Schluss "gemicrobumpt", wieso sollten dann defekte Stacks drauf sein?

Weil der Interposer oder die Bumps ein Problem haben. Ein kaputter Kontakt reicht ja.

y33H@
2015-07-14, 12:47:09
Bei den Bumps kann das passieren, das stimmt ... hmmm, wäre in der Tat interessant.

Knuddelbearli
2015-07-14, 12:51:54
und si auf dem Chip kann ja auch mal kaputt sein. wenn dann gibt es da wohl 2 Ausführungen eine mit 3k Bit mit voller Anzahl an Chips und eine ohne ^^

oder am lötet da einfach defekte Chips drauf für die Optik? ^^

Ravenhearth
2015-07-14, 15:05:18
oder am lötet da einfach defekte Chips drauf für die Optik? ^^

Oder damit der Kühler richtig sitzt?

Unicous
2015-07-14, 15:10:40
Ich würde mal behaupten, das könnte man salvagen. Aber. Das wird nicht geschehen. Alle Komponenten werden vorher akribisch auf Defekte überprüft, da müsste schon ordentlich was in die Hose gehen bei der Qualitätssicherung.

anddill
2015-07-14, 15:21:50
Jaaa, AMD und Qualitätssicherung...
Naja, klar sind alle Teile geprüft. Und dann geht was beim Zusammenfügen schief. Dann hat man einen intakten vollen Chip auf einem beschädigten Träger oder mit nicht voll funktionsfähigem RAM. Wir kennen ja nicht die Ausbeute beim Zusammenbau auf dem Interposer. Ist ja immerhin noch eine junge Technik.
Eine Fury X mit 3GB RAM bekäme man nicht verkauft, ist mit 4GB ja schon grenzwertig. Aber im Revier von R9-290/ R9-280 wären 3GB ok. Also taktet man den Fiji soweit runter, setzt ihn auf Spannungsdiät und voila: Fury Nano.

HOT
2015-07-14, 15:35:51
Gut das die damit jetzt die Erfahrungen machen und nicht bei der nächsten Generation. Offenbar läuft das auch wirklich furchtbar schief im Moment:
http://www.gamestar.de/hardware/grafikkarten/amd-radeon-r9-fury/amd_radeon_r9_fury,934,3233515.html
Da gibts offenbar doch massive Probleme bei der Massenproduktion momentan mit den Teilen.
Ich denke dass in Zukunft noch eine Fury LE kommen wird mit 3072 Shadern und 3072 Bit.

Die Nano (gibt kein Fury in dem Namen :D) ist ein Prestigeprojekt - für AMD noch weit wichtiger als die FuryX. Da wird man nur die Crème de la Crème verbauen. Deshalb kommt das Teil auch später. Die müssen bestimmte Anforderungen erfüllen bei extrem niedriger Spannung.

maguumo
2015-07-14, 18:15:32
http://www.gamestar.de/hardware/grafikkarten/amd-radeon-r9-fury/amd_radeon_r9_fury,934,3233515.html

Hardwareluxx schreibt das die Fury fürs erste schlecht lieferbar sein wird, GameStar interpretiert da schlechte Yields rein. Verlässlich sieht anders aus, das kann sich genug andere Gründe haben...

Gabs nicht vor Monaten mal ne Meldung von UMC (?) das die Yields beim aufbringen der Chips auf den Interposer deutlich über 90% liegen? Irgendwas hab ich da in Erinnerung...

Spasstiger
2015-07-14, 18:30:04
Ich denke nicht, dass AMD den Ausschuss mit nur drei funktionierenden Stack für Salvage-Parts einlagert. Der Käufer von Fury, Fury X und Nano bezahlt das ja indirekt mit. Und vermutlich will AMD genauso schnell wie wir auf HBM2 übergehen, damit der einzige Performance-Makel bei 4K-Gaming verschwindet, nämlich potentiell zu wenig VRAM.

ndrs
2015-07-14, 19:02:31
Naja, klar sind alle Teile geprüft. Und dann geht was beim Zusammenfügen schief. Dann hat man einen intakten vollen Chip auf einem beschädigten Träger oder mit nicht voll funktionsfähigem RAM.
Sollte es nicht möglich sein, die Einzelteile dann wieder vom Interposer runterzulöten, neue µBalls draufzupacken und neu zu versuchen? Aber keine Ahnung, wie die Kostenrechnung dazu aussieht.

OBrian
2015-07-14, 22:23:17
Es müßten schon eine ganze Menge gleichartiger Defekte sein, damit sich eine SKU für Salvage-Parts überhaupt lohnt. Außerdem muß man sich überlegen, ob das ein attraktives Produkt ergäbe. Mit nur 3 GB ist das "genug RAM?"-Marketingproblem noch akuter (ob die Menge rein technisch reicht, ist ja völlig irrelevant), außerdem wäre die Bandbreite deutlich kleiner, aber ohne Beschneidung ist ja offenbar auch nichts über (da Übertaktungsergebnisse nur des Kerns schlechte Skalierung zeigen, des RAMs aber sehr gute).

Man erhielte also eine Karte, die höchstens so schnell ist wie Hawaii, wahrscheinlich ähnlich viel verbraucht, aber weniger RAM hat. Wer soll sowas kaufen? Wenn man sie noch billiger anbietet, dann kannibalisiert man bereits Tonga-Verkäufe.

Nee, ich denke, einfach Mülleimer ist am sinnvollsten. Und ich glaube auch nicht, daß es beim Verlöten so irre viel Ausschuß gibt.

Skysnake
2015-07-15, 09:24:33
Täusch dich da mal nicht. Das Zusammenfügen ist nicht ohne!

Du musst ja auch wenige µm genau die Bumbs treffen, und das auf 3 Achsen, also X-Y Ebende und dann Z-Rotation auf der Ebene. Da kann schnell mal was schief gehen.

Der Punkt ist ja vor allem, es gibt eben NICHT! nur Gut<->Kaputt. Es ist gar nicht so einfach überhaupt festzustellen, ob so ein Stack nun Gut oder eben Kaputt ist. Man muss ja messen, und das geht nur sehr schwer. Und man muss definitiv genau messen, da die Verbindungen auch einfach nur schlecht sien können, also Versatz, aber auch Brüche durch Spannungen usw. Da haste immer noch eine Verbindung, die vielleicht sogar ziemlich gut ist, aber du bekommst zu viele Übertragungsfehler wenn du den Chip testest. Eklig ist halt, dass sich derartige Fehler eventuell nach einiger Zeit sehr stark verstärken, weil eben die cracks durch die Temperaturzyklen immer größer werden, bis es halt mal bricht.

Ich habe vor einer Weile mal eine x00 Seiten Doku zu typischen Fehlern bei PCBs gelesen. Das sollte sich eigentlich ziemlich gut auf Packages/Interposer übertragen lassen zu großen Teilen. Ich schau mal, ob ich das noch irgendwo rumliegen habe.

Mir ging grad so die Frage duch den Kopf: Was macht AMD mit Fiji-Modulen bei denen ein HBM-Stack nicht in Ordnung ist?
Nano mit vollem Chip, aber 3GB an 3072 Bit?
Aktuell wahrscheinlich wirklich wegschmeisen. Es wurde ja schon ausgeführt, das man damit aktuell schwer was anfangen kann. Mit HBM2 kann man das dann gut verwerten.

Sollte es nicht möglich sein, die Einzelteile dann wieder vom Interposer runterzulöten, neue µBalls draufzupacken und neu zu versuchen? Aber keine Ahnung, wie die Kostenrechnung dazu aussieht.
Nein, das kannste nicht! Die Bumbs werden mit lithographie hergestellt. Meines Wissens nach auch noch vor dem dicing (zerschneiden des Wafers).

Das lohnt einfach nicht, und ist auch fraglich, ob du überhaupt vernünftige neue Bumbs hinbekommst, ohne das du dafür im Endeffekt mehr bezahlst, als nen kompletten neuen Wafer mit Bumbs.

Die Einzelteile werden natürlich getestet, weil ein einzelner Fehler alles zu Müll entwertet. Es kann aber natürlich dennoch immer etwas beim Packaging passieren.

Das ist halt ziemlich bitter, wenn man 4 HBM stacks, 1 Interposer und 1 Fiji DIE hat, die alle funktionieren, und dann geht was beim Zusammenbau schief.

ndrs
2015-07-15, 13:04:22
Nein, das kannste nicht! Die Bumbs werden mit lithographie hergestellt.
Ah, ok, danke. Das war mir neu.

Unicous
2015-07-15, 13:38:05
Das Pillar Array wird per Lithographie erzeugt, das Solder Cap per Plating. Ich hätte jetzt gedacht, dass man das Solder Cap erneuern kann, aber so weit reingefuchst habe ich mich auch nicht.

http://cdn2.content.compendiumblog.com/uploads/user/af12973f-cd7e-4c45-9491-c37a7fb2af13/b695fa76-90f8-4440-8f9e-b93b9672bed5/Image/7b9d894b776b3d885a7fce09f2b91095/copper_pillar_flip_chip_1_w640.jpeg

Skysnake
2015-07-15, 14:13:25
Du musst das aber sehr genau kontrollieren, wie viel Metall du für den bumb hast, und das killt dich. Du brauchst ja wirklich sehr genaue kontrollierte Bedingungen.

Bezüglich Bumb an sich. Also ich kenne das so, das man nur BGA bumbs, also wirklich riesen Dinger per Plating macht. µbumbs usw sollen aber wohl auch per Litho hergestellt werden. Kommt aber sicherlich auch auf den jeweiligen Anbieter drauf an, wie er wann wo wie was genau umsetzt.

Für die Bumbs von nem Interposer halte ich es aber auf jeden Fall für sehr unwahrscheinlich, das man das nochmal macht. Für normale BGA Sockel von mir aus, aber nicht für µbumbs.

Unicous
2015-07-15, 14:34:38
Ich bin mir ziemlich sicher, das µbumps ausschließlich mit solder caps hergestellt werden.

http://www.chipscalereview.com/legacy/front-content/1213/fig1.jpg

Afaik macht es erst wieder Sinn ab einer bestimmten bump-Größe (also kleiner als 40 µm) direkt Cu auf Cu per Thermal Compression zu bonden. Aber dafür bräuchte man eine präzisere Assembly Line.

Skysnake
2015-07-15, 14:42:52
ok, wir haben aneinander vorbei geredet.

Ich meinte, das man die Bumbs nicht einfach per Maske, die man drüber legt, und dann entsprechend Bp oder what ever drauf macht, sondern das drauf dampfen lässt oder sonst wie, und dann den solder ball an sich eben durch nochmaliges erhitzen herstellt.

Also einfach unterschiedliche Verfahren, wie man den kleinen Popel material herstellt, aus dem dann der bumb wird.

Unicous
2015-07-15, 16:52:34
Ich habe explizit von den Solder Caps gesprochen, die per Electroplating auf die Pillars aufgetragen werden.

Es heißt übrigens bumps. Verstehe auch nicht, was du mit "dampfen" meinst. Mit nochmaligen Erhitzen meinst du den reflow Prozess, oder was?

http://cdn2.content.compendiumblog.com/uploads/user/af12973f-cd7e-4c45-9491-c37a7fb2af13/b695fa76-90f8-4440-8f9e-b93b9672bed5/Image/dce56ae4e06a40f322e39b052e4f0b13/flichip_2_w640.jpeg

Hier gibt es übrigens eine "roadmap" für das Bonding.

http://electroiq.com/insights-from-leading-edge/wp-content/uploads/sites/4/2014/09/208-2.jpg

Skysnake
2015-07-15, 17:50:45
Na irgendwie muss ja das Material auf den Kupferpfosten drauf.... Es gibt zwei grundlegende Verfahren

I.
Du hast ein Lochraster, dass du auflegst und streichst dann eine Lötpaste whot ever drauf, nimmst das Lochraster wieder weg und erhitzt dann eventuell das Ganze dann noch um Balls zu bekommen.

II.
Du machst es im Prinzip wie bei der sonstigen Chipproduktion. Also mit Belichtung und Ätzen ein Negativ herstellen, dass dan aufgefüllt wird, und das eben mittels verdampftem Material.

Damit bekommste aber eben auch keine balls, also erhitzte das in der Regel etwas, damit sich das Material verflüssigt. Das führt dann eben durch die Oberflächenspannung zu den balls.

Das hat nichts, aber auch rein gar nichts mit reflow zu tun.

Guckst du auch einfach mal hier S. 10-12 (http://sus.ziti.uni-heidelberg.de/Lehre/DSTVorlesung06/DST06_12_Packaging.pdf)

Unicous
2015-07-15, 18:35:58
Hääääh?:confused:

Darum geht es doch die ganze Zeit. Die Solder Bumps für die micro bumps können nur per Electroplating also ganz normale Galvanisierung hergestellt werden, da wird afaik nichts be- oder verdampft und am Ende wird das photo resist abgetragen und die passivation layer trocken weg-geätzt (e: bzw. wohl eher Plasmaätzen), wie man es auf auf Seite 12 sieht.

Damit bekommste aber eben auch keine balls, also erhitzte das in der Regel etwas, damit sich das Material verflüssigt. Das führt dann eben durch die Oberflächenspannung zu den balls.

Eben genau das nennt man reflow.:rolleyes:

http://electroiq.com/wp-content/uploads/2013/10/Dow_SOLDERON-SnAg_Void-free-IMC.jpg

fondness
2015-07-17, 11:52:54
Die Nano wurde von Lisa für August bestätigt.

Isen
2015-07-17, 11:56:37
Hoffentlich folgen dann von den Partnern keine verlängerten U-Boote... max 2 Lüfter als OC Version oder sowas.

Botcruscher
2015-07-17, 12:36:38
Die Luftkühler von Fury Pro werden wir ganz sicher wiedersehen.

fondness
2015-07-17, 12:42:08
Ich glaube nicht das bei einer Karte die "Nano" heißt solche langen Luftkühler Sinn machen. Womöglich Ref-Design only aber mal sehen.

Skysnake
2015-07-19, 11:21:16
Hääääh?:confused:

Darum geht es doch die ganze Zeit. Die Solder Bumps für die micro bumps können nur per Electroplating also ganz normale Galvanisierung hergestellt werden, da wird afaik nichts be- oder verdampft und am Ende wird das photo resist abgetragen und die passivation layer trocken weg-geätzt (e: bzw. wohl eher Plasmaätzen), wie man es auf auf Seite 12 sieht.



Eben genau das nennt man reflow.:rolleyes:

http://electroiq.com/wp-content/uploads/2013/10/Dow_SOLDERON-SnAg_Void-free-IMC.jpg
Ja, da hast du Recht. Hatte das mit Reflow wohl offensichtlich durcheinander gebracht. Mir war in dem Moment nicht klar, dass das anschmelzen der Kontakte zu balls auch als reflow bezeichnet wird.

Die grundlegende Aussage, das man da sehr! wahrscheinlich kein rebumping machen kann bleibt davon unberührt. Man bricht ja irgendwelche bumps ab, oder sonst was. Man bekommt also bei einem erneuten reflow (jetzt richtig ;)) also nicht die gleichen bumps hin wie zuvor. Neues Lötmaterial kann auch nicht auftragen. Das wird ja nicht ohne Grund per lithographischen Verfahren gemacht.

Bei irgendwelchen einfachen ICs mit sehr großen Bumps kann man das vielleicht nochmal machen, aber eben nicht beim Interposer oder auch 3D-Stacking. Da ist einfach aus die Maus. Zumindest ist mir noch kein einziger Bericht dazu zu Ohren gekommen, das man solche Verbindungen mehrfach gelötet hat, und zufriedenstellende Ergebnisse erhalten hat.

PS:
Ich glaub ich brauch echt ne Klima @home, bei der Hitze der letzten Tage ist man wohl nicht mehr ganz klar im Kopf und steht teils auf dem Schlauch...:hammer:

Schaffe89
2015-07-19, 22:27:29
Ich glaube nicht das bei einer Karte die "Nano" heißt solche langen Luftkühler Sinn machen. Womöglich Ref-Design only aber mal sehen.

AMD hätte bei der Fury Nano und bei der Fury X auf jeden Fall Customkühler erlauben sollen.
Man kann durch das wegfallende PCB die Kühler deutlich effektiver gestalten.
Eventuell macht das bei späteren Designs Schule und man macht die Karte nicht nur kürzer, damit der Kühler überstehen kann, sondern vielleicht zwischen DVI Anschlüssen und Chip noch eine Aussparung.

Menace
2015-07-19, 22:58:35
Wie sicher ist es, dass Nano kein Custom-Design bekommt?

OBrian
2015-07-20, 00:38:01
Warum sollte sie? Was willst Du als Hersteller denn daran verbessern? Kleiner geht kaum, leiser muß wohl auch nicht (wird wohl so ziemlich der Kühler der 285 (bzw 380) "ITX Compact" von Sapphire sein, und die wurde ja gelobt).
Wenn der Kühler größer wird und/oder die TDP höher wird, dann ist der Vorteil weg und es wird so eine Art Fury ohne X. Außerdem nehme ich an, daß die Chips für die Nano selektiert sind, also teurer für den Kartenhersteller als die normalen wären. Ich sehe da insgesamt nicht so große Marktchancen für Customversionen der Nano.

StefanV
2015-07-20, 01:44:08
Erst mal abwarten, wie die Nano denn nun letztendlich ausschaut...

Da wissen wir ja auch nicht allzu viel drüber, außer dass sie klein wird.
Und dass die angepeilte TDP unter 200W beträgt...

€dit:
hat wohl 'nen anderes PCB
http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/396068-amd-fiji-geruechte-r9-nano-mit-vollem-chip-r9-fury-mit-3-584-shadern-post7536826.html

Nightspider
2015-07-20, 05:56:15
Ob es auch eine Nano mit SingleSlot aber dafür normaler Länge geben wird?
Dürfte sich ja auch sehr gut realisieren lassen mit diesem kurzen PCB.

Menace
2015-07-20, 06:51:51
Warum sollte sie? Was willst Du als Hersteller denn daran verbessern? Kleiner geht kaum, leiser muß wohl auch nicht (wird wohl so ziemlich der Kühler der 285 (bzw 380) "ITX Compact" von Sapphire sein, und die wurde ja gelobt).


Weil AMD oder seine Zulieferer das durchaus einmal verbocken können? :biggrin: Wenn es denn der Kühler vom ITX Compact wird, dann hätte ich wohl kein Problem.

tm0975
2015-07-20, 08:21:53
gibts denn erkenntnisse zu den gründen der schlechten lieferbarkeit von fury? wann ist besserung in sicht? selbst die 390 und 380 sind ja nciht so besonders gut lieferbar.

dargo
2015-07-20, 08:22:28
Ich glaube nicht das bei einer Karte die "Nano" heißt solche langen Luftkühler Sinn machen. Womöglich Ref-Design only aber mal sehen.
Bitte nicht.

30cm oder mehr machen bei der angepeilten TDP der Nano natürlich keinen Sinn. Aber max. 26cm würde ich schon begrüßen. Man stelle sich die Nano mit diesem Kühler vor.
http://geizhals.de/msi-r7-370-gaming-2g-v305-029r-a1282094.html?hloc=de

Das wäre mit 3-4 Heatpipes ein Traum. :)


€dit:
hat wohl 'nen anderes PCB
http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/396068-amd-fiji-geruechte-r9-nano-mit-vollem-chip-r9-fury-mit-3-584-shadern-post7536826.html
Wenn ich es richtig sehe dürften das 4 Phasen bei der Stromversorgung sein oder? PCB ist jedenfalls für 225W ausgelegt.

Edit:
Hmm... für längere Custom-Kühler ist wohl leider auch ein Custom-PCB notwendig. Der 8Pin Stromstecker geht nach hinten und nicht nach oben.

tm0975
2015-07-20, 09:08:02
175 watt tdp sollte die nano haben, gab doch mal ne folie dazu. und leistung in etwa auf dem niveau einer 290x. kann jemand mit ner fury x das mal ausprobieren? welcher chip-takt wäre ca. notwendig und um wieviel reduziert dieser den verbrauch?

Isen
2015-07-20, 09:14:23
Von einer Leistung ähnlich einer 290x war keine Rede.

tm0975
2015-07-20, 09:16:49
The AMD Radeon R9 Nano is faster than Hawaii and we mean the full fat Hawaii chip featured on the Radeon R9 290X.

Read more: http://wccftech.com/amd-radeon-r9-nano-detailed-features-fiji-gpu-175w-tdp-single-8pin-connector-sff-design-faster-hawaii/#ixzz3gPi2RUag

Isen
2015-07-20, 09:19:15
Nano Schneller ALS... nicht wie.

btw das nachträgliche schön schreiben deines Posts macht es auch nicht besser, dass die Aussage quatsch ist.


Zwischen 390x und 980 liegt die Nano.

Botcruscher
2015-07-20, 09:38:59
AMDs verspätete 970OC mit echten 4GB und einem Preis von fast zwei 970.:freak:

Loeschzwerg
2015-07-20, 09:41:19
Wenn ich es richtig sehe dürften das 4 Phasen bei der Stromversorgung sein oder? PCB ist jedenfalls für 225W ausgelegt.

Edit:
Hmm... für längere Custom-Kühler ist wohl leider auch ein Custom-PCB notwendig. Der 8Pin Stromstecker geht nach hinten und nicht nach oben.

Es sind vermutlich 5 Phasen wenn man sich folgendes Bild anschaut und die Kondensatoren auf dem Bild bei PCGH deuten ebenfalls darauf hin:
http://cdn3.wccftech.com/wp-content/uploads/2015/06/AMD-Radeon-R9-Nano_4.jpg

Auf dem Bild erkennt man auch einen einzelnen 8Pin der nach oben weg geht.

Das Bild bzw. das darauf gezeigte PCB könnte natürlich ein Mockup oder von einem internen Prototyp sein.

fondness
2015-07-20, 09:57:49
gibts denn erkenntnisse zu den gründen der schlechten lieferbarkeit von fury? wann ist besserung in sicht? selbst die 390 und 380 sind ja nciht so besonders gut lieferbar.

AMD hat leider traditionell so seine Probleme die Nachfrage richtig einzuschätzen.

dargo
2015-07-20, 10:21:35
175 watt tdp sollte die nano haben, gab doch mal ne folie dazu.
Ich sagte nicht 225W TDP sondern, dass 225W die Stromversorgung hergibt. Das ist ein kleiner Unterschied. ;)

M4xw0lf
2015-07-20, 10:22:05
Die Nano könnte mich eventuell tatsächlich schwach machen... aber nein. So "kurz" vor 14nm nehm ich kein Geld mehr in die Hand.

So "kurz" vor 14nm nehm ich kein Geld mehr in die Hand.
So "kurz" vor 14nm nehm ich kein Geld mehr in die Hand.
So "kurz" vor 14nm nehm ich kein Geld mehr in die Hand.
So "kurz" vor 14nm nehm ich kein Geld mehr in die Hand.
/Autosuggestion

Sunrise
2015-07-20, 10:47:35
Die Nano könnte mich eventuell tatsächlich schwach machen... aber nein. So "kurz" vor 14nm nehm ich kein Geld mehr in die Hand.

So "kurz" vor 14nm nehm ich kein Geld mehr in die Hand.
So "kurz" vor 14nm nehm ich kein Geld mehr in die Hand.
So "kurz" vor 14nm nehm ich kein Geld mehr in die Hand.
So "kurz" vor 14nm nehm ich kein Geld mehr in die Hand.
/Autosuggestion
Wird schwierig:

1) Windows 10 im Anmarsch
2) Winter is coming
3) nano is sexy
4) Warten kann man immer

AMD, shut up and take my money. :D

Will mir ja was Kompaktes bauen und da ist die nano wohl die einzige gescheite Lösung.

fondness
2015-07-20, 10:56:38
Die entscheidende Frage bei der Nano wird sein, ob der Winzkühler tatsächlich die 175W (vermutlich AMD-typisch auch mit Spitzen >200W) leise wegkühler wird können.

M4xw0lf
2015-07-20, 10:59:09
Wird schwierig:

1) Windows 10 im Anmarsch
2) Winter is coming
3) nano is sexy
4) Warten kann man immer

AMD, shut up and take my money. :D

Will mir ja was Kompaktes bauen und da ist die nano wohl die einzige gescheite Lösung.
Schweig stille! :ufinger:
:tongue:

Raff
2015-07-20, 11:01:57
Ihr immer mit eurem 14-nm-Wahnsinn. Das dauert noch eeeewig. Und zum Start werden wir mit an Gewissheit grenzender Wahrscheinlichkeit weder einen High-End-Chip sehen noch wird das billig. Dieses dauernde Warten macht einem das Hier und Jetzt kaputt. ;)

MfG,
Raff

Grestorn
2015-07-20, 11:05:08
Ihr immer mit eurem 14-nm-Wahnsinn. Das dauert noch eeeewig. Und zum Start werden wir mit an Gewissheit grenzender Wahrscheinlichkeit weder einen High-End-Chip sehen noch wird das billig. Dieses dauernde Warten macht einem das Hier und Jetzt kaputt. ;)

So wahr. Wenn es Consumer-Produkte im 14nm Verfahren gibt, die ein gutes Preis/Leistungsverhältnis bieten, kann man sicher schon wieder argumentieren, dass der 7nm Prozess fast vor der Tür steht... Und das Spielchen von vorne beginnen.

tm0975
2015-07-20, 11:17:13
Ich sagte nicht 225W TDP sondern, dass 225W die Stromversorgung hergibt. Das ist ein kleiner Unterschied. ;)

das wissen wir. aber darum ging es nicht. es ging um die kühllösung und deren dimensionierung anhand der msi-karte mit einer tdp von 150 watt.

also ich kaufe mir die nano. kotzgrenze sind aber 500 €. mal sehen wie lange ich dazu warten muß.

NACHTRAG:
und kaum habe ich über die verfügbarkeit genörgelt, ist bei MF ne größere Ladung Sapphire-Fury's aufgeschlagen...

Dural
2015-07-20, 11:23:29
Die Nano ist Sexy bis es an die Geldtasche geht und ich wette schon jetzt das die meisten die hier nach der Nano schreien plötzlich irgend eine Ausrede parat haben werden. :biggrin:

dargo
2015-07-20, 11:40:45
Ihr immer mit eurem 14-nm-Wahnsinn. Das dauert noch eeeewig. Und zum Start werden wir mit an Gewissheit grenzender Wahrscheinlichkeit weder einen High-End-Chip sehen noch wird das billig. Dieses dauernde Warten macht einem das Hier und Jetzt kaputt. ;)

Das Problem ist bloß, dass das hier und jetzt ohne DX12 und mehr Konkurrenz bei den Freesync-Bildschirmen ziemlich langweilig aktuell ist. Zumal so wirkliche Blockbuster ich auch noch nicht sehe bzw. an einer Hand abzählen kann. Die kann ich auch später nachholen. Und dann noch Sommer... kein guter Zeitpunkt für Hardwarekauf. :) Das mit 14nm sehe ich allerdings genauso. Viel Wind um nichts. Erstens kein High-End am Anfang, zweitens schweine teuer.

So wahr. Wenn es Consumer-Produkte im 14nm Verfahren gibt, die ein gutes Preis/Leistungsverhältnis bieten, kann man sicher schon wieder argumentieren, dass der 7nm Prozess fast vor der Tür steht... Und das Spielchen von vorne beginnen.
Richtisch. :tongue:

Botcruscher
2015-07-20, 11:43:36
7nm dürfte noch sehr lange dauern. Selbst 10nm ist weit weg. Ich geb 14nm ungefähr so lange wie 28nm. Irgendwelche Wunder sollte man nicht erwarten.

dargo
2015-07-20, 11:45:03
das wissen wir. aber darum ging es nicht. es ging um die kühllösung und deren dimensionierung anhand der msi-karte mit einer tdp von 150 watt.

Das mit dem Kühler war nur ein Beispiel weil ich weiß wie gut der ist. Ich meine aber speziell die Lüfter. Nimm von mir aus besser den hier.
http://geizhals.de/msi-r9-380-gaming-2g-v314-012r-a1282082.html?hloc=de

Der dürfte 4 HPs haben, ist halt auch 1cm länger.

tm0975
2015-07-20, 12:19:11
diese kühllösung wäre von der kühlleistung her locker geeignet. wahrscheinlich wird es aber erstmal ein referenzdesign geben und erst später im jahr custum designs der hersteller.

M4xw0lf
2015-07-20, 12:26:02
Ihr immer mit eurem 14-nm-Wahnsinn. Das dauert noch eeeewig. Und zum Start werden wir mit an Gewissheit grenzender Wahrscheinlichkeit weder einen High-End-Chip sehen noch wird das billig. Dieses dauernde Warten macht einem das Hier und Jetzt kaputt. ;)

MfG,
Raff
So wahr. Wenn es Consumer-Produkte im 14nm Verfahren gibt, die ein gutes Preis/Leistungsverhältnis bieten, kann man sicher schon wieder argumentieren, dass der 7nm Prozess fast vor der Tür steht... Und das Spielchen von vorne beginnen.
Wenn man wie ich nur alle drei-vier Jahre was kauft, dann ist das Timing ganz entscheidend. Als 7970-day-one Käufer hätte ich zb alles richtig gemacht.

N0Thing
2015-07-20, 14:04:59
Ihr immer mit eurem 14-nm-Wahnsinn. Das dauert noch eeeewig. Und zum Start werden wir mit an Gewissheit grenzender Wahrscheinlichkeit weder einen High-End-Chip sehen noch wird das billig. Dieses dauernde Warten macht einem das Hier und Jetzt kaputt. ;)

MfG,
Raff

Wenn man nicht bei jeder Grafikkartengeneration zuschlägt, sondern nur dann, wenn der Leistungssprung groß genug und Preis dafür klein genug ist, dann ist warten™ zum Ende eines Prozesszyklus nicht verkehrt. Ich würde mich maßlos ärgern, wenn ich jetzt 450€ für 50% mehr Leistung ausgebe und nächstes Jahr dafür vielleicht schon 100% mehr bekommen würde.
Solange ich jetzt noch gut zurecht komme, ohne mir das Hier und Jetzt kaputt zu machen, ist Aufrüsten einfach Luxus. ;)

Thunder99
2015-07-20, 14:15:17
So hab ich effektiv "nur" +160€ (Verkauf der alten Karte und Neukauf meiner jetzigen mit Zwischenstation und Cash Back der 970 :wink:) für meine R9 290 gezahlt was aus Preis/Leistung an sich gut ist. Wirklich brauchen tu ich das aber bis jetzt noch nicht bei meinen derzeitigen Games. Leistungsfordernde sind aber schon geplant :D

Raff
2015-07-20, 14:27:50
Wenn man wie ich nur alle drei-vier Jahre was kauft, dann ist das Timing ganz entscheidend. Als 7970-day-one Käufer hätte ich zb alles richtig gemacht.

Yep, das war der beste Deal der letzten Jahre. Mit etwas OC fluppt noch alles, davon können Nutzer einer GTX 600 nur träumen. Und trotzdem schrumpft AMDs Marktanteil – die bauen einfach zu langlebige Produkte. :ugly:

MfG,
Raff

Flusher
2015-07-20, 15:37:44
Mal an alle die Nano so geil finden die Frage:

Ihr wollt Leistung >= 390X

Ihr wollt TDP <=175 W

Ihr wollt einen Preis <=500 €
---------

All diese Eigenschaften hat doch bereits die GTX 980 die seit Langem auf dem Markt ist? Wieso greift ihr nicht zu der Karte?

M4xw0lf
2015-07-20, 15:40:54
Yep, das war der beste Deal der letzten Jahre. Mit etwas OC fluppt noch alles (...)
MfG,
Raff
Ich hoffe auf das gleiche Spiel mit den ersten 14nm-Produkten. Dazu noch 8GB HBM... :usweet:

Raff
2015-07-20, 15:44:39
All diese Eigenschaften hat doch bereits die GTX 980 die seit Langem auf dem Markt ist? Wieso greift ihr nicht zu der Karte?

Weil's die nicht im ITX-Format gibt?

MfG,
Raff

OBrian
2015-07-20, 15:45:34
So kurzlebig werden die Fiji aber auch nicht sein, die werden sicherlich zuerst alle anderen Marktsegmente mit 14-nm-Chips bedienen, und zwar schön langsam einen Chip nach dem anderen. Glaubt mal nicht, daß es innerhalb des Jahres 2016 einen Ersatz dafür geben wird. Und eine Nano, die extra eine verbesserte Energieeffizienz hat, wird sich sicherlich längere Zeit konkurrenzfähig halten können, die muß man nicht so schnell rausreißen wie eine HD2900XT.

M4xw0lf
2015-07-20, 15:48:59
So kurzlebig werden die Fiji aber auch nicht sein, die werden sicherlich zuerst alle anderen Marktsegmente mit 14-nm-Chips bedienen, und zwar schön langsam einen Chip nach dem anderen. Glaubt mal nicht, daß es innerhalb des Jahres 2016 einen Ersatz dafür geben wird. Und eine Nano, die extra eine verbesserte Energieeffizienz hat, wird sich sicherlich längere Zeit konkurrenzfähig halten können, die muß man nicht so schnell rausreißen wie eine HD2900XT.
Ich denke dagegen, dass Fiji auf 14nm geshrinkt wird und den mittleren Platz einnimmt im GPU Lineup, während das 28nm-Teil schnell verschwindet.

Flusher
2015-07-20, 16:05:38
Weil's die nicht im ITX-Format gibt?

MfG,
Raff

Steht das denn schon fest, das Nano im ITX Format daherkommt?

maguumo
2015-07-20, 16:06:42
Steht das denn schon fest, das Nano im ITX Format daherkommt?

Ja, hast du die Bilder nicht gesehen? Da werben sie doch mit...

fondness
2015-07-20, 16:14:15
Steht das denn schon fest, das Nano im ITX Format daherkommt?

Die Nano unterbietet sogar noch das ITX-Format deutlich, mit nur 15cm ist sie gerade so lange um noch den PCIe-Slot unterzubringen.

http://s17.postimg.org/d3nmpsiz3/AMD_Radeon_R9_Nano_Eyes_On_08.jpg (http://postimage.org/)

dargo
2015-07-20, 16:40:18
Mal an alle die Nano so geil finden die Frage:

Ihr wollt Leistung >= 390X

Ihr wollt TDP <=175 W

Ihr wollt einen Preis <=500 €
---------

All diese Eigenschaften hat doch bereits die GTX 980 die seit Langem auf dem Markt ist? Wieso greift ihr nicht zu der Karte?
Kein Freesync. Und nein, an G-Sync bin ich nicht interessiert.

mironicus
2015-07-20, 16:43:20
Lustig wäre ja, wenn Nano den vollen Chip hätte und man dann versucht, die Karte auf FuryX-Niveau zu übertakten... :)

maximus_hertus
2015-07-20, 16:46:02
Mal an alle die Nano so geil finden die Frage:

Ihr wollt Leistung >= 390X

Ihr wollt TDP <=175 W

Ihr wollt einen Preis <=500 €
---------

All diese Eigenschaften hat doch bereits die GTX 980 die seit Langem auf dem Markt ist? Wieso greift ihr nicht zu der Karte?

Ich blätter mal in der aktuellen PCGH: 8 GTX 980 Karten im Einkaufsführer, eine Karte mit 187W/194W Verbrauch, 5 Stück über 200W. 3 sogar über(!) 240W.

Die meisten Custom GTX 980 Karten (ASUS Strix, MSI Gaming und Co) liegen bei (teils deutlich) oberhalb von 500 Euro.

Frage beantwortet? (Nicht das ich glaube, dass die Nano <500 Euro kostet und eine Performance >GTX 980 hätte)

fondness
2015-07-20, 16:49:15
Lustig wäre ja, wenn Nano den vollen Chip hätte und man dann versucht, die Karte auf FuryX-Niveau zu übertakten... :)

Den vollen Chip wird sie haben, aber das unterbindet man wohl durch die Stromversorgung.

aufkrawall
2015-07-20, 16:49:49
Palit JetStream kostet 500€ und hat 180W TDP.

maximus_hertus
2015-07-20, 16:56:05
Leider finde ich keine Reviews der Jetstream, nur von der Super Jetstream mit 247 bzw. 260W Verbrauch.

HOT
2015-07-20, 17:04:59
So kurzlebig werden die Fiji aber auch nicht sein, die werden sicherlich zuerst alle anderen Marktsegmente mit 14-nm-Chips bedienen, und zwar schön langsam einen Chip nach dem anderen. Glaubt mal nicht, daß es innerhalb des Jahres 2016 einen Ersatz dafür geben wird. Und eine Nano, die extra eine verbesserte Energieeffizienz hat, wird sich sicherlich längere Zeit konkurrenzfähig halten können, die muß man nicht so schnell rausreißen wie eine HD2900XT.
So hab ich auch darüber gedacht. Aber das schwache Frontend macht einen so großen Chip u.U. doch schnell obsolet. Und die Aussage Top -> Down HBM2-Support und Tapeout mehrer Chips in 14nm lässt dann doch ein Lineup wahrscheinlich erscheinen. Ich denke mal, dass die 14nm-Serie hier ganz anders dastehen wird, die spielen einfach in einer anderen Liga und Fiji lässt sich sicherlich kaum noch ins neue Portfolio einbauen. Für unteres Mainstream ist das Ding einfach ungeeignet. Ich denke mal, dass das der Grund ist, warum sich AMD letztendlich gegen eine echte Revision von GCN1 in 28nm entschieden hat und letztendlich neue 28nm-Chips gemieden hat. Man setzt eben alles auf 14nm. Ich glaube auch nicht, dass Fiji so teuer im Design war. Die Produktion ist da viel problematischer - sicherlich auch beim Interposer. Ein weiterer Grund, der gegen eine lange Lebensdauer spricht.
Natürlich könnte man Fiji und Tonga weiterhin für OEMs anbieten im nächsten Jahr. Aber dann wird man die gehoebenen 28nm-Chips sicherlich schnell aussortieren. Bonaire und Oland könnte eine weitere Lebensverlängerung vergönnt sein, da diese Chips vor allem billig sein müssen.

Sunrise
2015-07-20, 17:11:15
Ich hoffe auf das gleiche Spiel mit den ersten 14nm-Produkten. Dazu noch 8GB HBM... :usweet:
Das hört sich zwar alles ganz nett an, aber billig wird das nicht.

Flusher
2015-07-20, 17:29:24
Ja, hast du die Bilder nicht gesehen? Da werben sie doch mit...

Ich hab nur Bilder des PCBs gesehen - nicht der Karte+Kühlkonstruktion

Kein Freesync. Und nein, an G-Sync bin ich nicht interessiert.

Valides Argument

Ich blätter mal in der aktuellen PCGH: 8 GTX 980 Karten im Einkaufsführer, eine Karte mit 187W/194W Verbrauch, 5 Stück über 200W. 3 sogar über(!) 240W.

Die meisten Custom GTX 980 Karten (ASUS Strix, MSI Gaming und Co) liegen bei (teils deutlich) oberhalb von 500 Euro.

Frage beantwortet? (Nicht das ich glaube, dass die Nano <500 Euro kostet und eine Performance >GTX 980 hätte)

Man muss ja auch nicht zu den Modellen greifen, die bis zur Kotzgrenze vom Werk aus übertaktet sind. Die TDP der Referenz liegt nach wie vor bei 165 W.

----

Dann die nächste Frage: Wieviele relevante ITX Gehäuse gibt es aktuell am Markt die keine Full-Size Karte aufnehmen können, in denen eine Fury Nano aber Platz hätte?

Ich frage bewusst etwas provokativ, denn fast alle HTPC Gehäuse die ich in den Fingern hatte, waren so konstruiert, dass eine Grafikkarte mit einer Länge von bis zu 30 cm Platz hatte.

Die üblichen Verdächtigen können das alle:

http://geizhals.de/bitfenix-colossus-m-mini-itx-schwarz-bfc-cli-300-kkls1-rp-a1040396.html?hloc=at&hloc=de
http://geizhals.de/fractal-design-core-500-schwarz-fd-ca-core-500-bk-a1276378.html?hloc=at&hloc=de
http://geizhals.de/corsair-obsidian-series-250d-mit-sichtfenster-cc-9011047-ww-a1047844.html?hloc=at&hloc=de
http://geizhals.de/corsair-graphite-series-380t-schwarz-cc-9011061-ww-a1141613.html?hloc=at&hloc=de

Versteht mich nicht falsch - Fury Nano ist (zumindest auf dem Papier) eine tolle Karte, aber ich kann die Euphorie nicht ganz nachvollziehen, weil es durchaus bereits seit längerem Alternativen gibt.

tm0975
2015-07-20, 17:32:04
Die Nano unterbietet sogar noch das ITX-Format deutlich, mit nur 15cm ist sie gerade so lange um noch den PCIe-Slot unterzubringen.[/URL][/url]

eigentlich gehört das teil in ein gaming-notebook :biggrin::biggrin::biggrin:

Unicous
2015-07-20, 19:08:02
UMC Enters Volume Production for TSV Process Used to Enable AMD's High-Performance Radeon R9 Fury X GPU (http://www.umc.com/English/news/2015/20150720.asp)

United Microelectronics Corporation (NYSE:UMC;TWSE: 2303) ("UMC"), a leading global semiconductor foundry, today announced that it has entered volume production for the Through-Silicon-Via (TSV) technology used on the AMD Radeon™ R9 Fury X, the flagship GPU in the recently announced Radeon™ R 300 Series of graphics cards. The AMD Radeon™ R9 Fury X GPU utilizes UMC's TSV process technology and die-stacking to fuse HBM DRAM with AMD's GPU on a silicon interposer, enabling the GPU to deliver unmatched memory bandwidth of 4096-bit and quadruple the performance-per-watt over the current GDDR5 industry standard.
:confused:

Ist das jetzt eine speziell getunte Produktionsstraße oder ist das einfach nur die Ankündigung dass sie das Zeug eh produzieren?

Ravenhearth
2015-07-20, 21:38:48
Vielleicht bisher nur in extrem geringen Stückzahlen?

ndrs
2015-07-20, 23:27:58
Wieviele relevante ITX Gehäuse gibt es aktuell am Markt die keine Full-Size Karte aufnehmen können, in denen eine Fury Nano aber Platz hätte?
[...]
fast alle HTPC Gehäuse die ich in den Fingern hatte, waren so konstruiert, dass eine Grafikkarte mit einer Länge von bis zu 30 cm Platz hatte.
Also unter allen Gehäusen, in die ein starkes Netzteil passt und eine Dual-Slot-Karte passt (GH-Link mit Filtern (http://geizhals.de/?cat=gehatx&xf=2378_2~534_Mini-ITX~4914_ATX~4914_SFX12V#xf_top)) sind knapp 50% kürzer als 30cm, ergo passt keine 30cm GraKa rein. Und darunter sind einige Exemplare, die ich "relevant" nennen würde.

OBrian
2015-07-21, 04:15:22
@Flusher: Jetzt mach uns nicht das einzige AMD-Produkt, was halbwegs attraktiv ist, auch noch kaputt, wir ham's schon schwer genug ;)

Dural
2015-07-21, 09:53:32
attraktiv? 390X / 980 +/- Leistung wenn überhaupt für sicherlich min. 450.-
ich tippe sogar auf über 500.- wenn da wirklich ein voller Chip drauf ist.

Mit der Karte kann man sicher sehr coole kleine Systeme zusammen basteln, sofern es überhaupt vernünftige Gehäuse auf dem Markt gibt. Grosse Stückzahlen wird es aber sicher nicht geben, da werden wohl die 980 und 390 bevorzugt.

dargo
2015-07-21, 11:43:22
Ich kann den Preis der Nano schlecht einschätzen.

Einerseits würde ich von ca. 500€ ausgehen. Also sowohl vom Preis her als auch der Leistung etwas unter Fury non X. Andererseits wären eventuell auch ca. 450€ denkbar da das PCB/Kühler aufgrund dem geringeren Verbrauch einiges simpler ausfallen. Dagegen sprechen allerdings wieder die 450€ der 390X. Da ist also kein Platz. Wobei letztere wiederum den doppelten Speicher hat. Hmm... :uponder:

Edit:
Ich vergleiche das gerne mit NV. Dort ist die Mini auch je nach Hersteller etwas billiger und nicht unbedingt in der Leistung gedrosselt.
http://geizhals.de/?cat=gra16_512&xf=1439_GTX+970~545_ASUS#xf_top
http://geizhals.de/?cat=gra16_512&xf=1439_GTX+970~545_Gigabyte#xf_top

mironicus
2015-07-21, 11:45:56
Die kostet bestimmt soviel wie die normale Fury, also 600 Euro.

dargo
2015-07-21, 11:52:13
Die 600€ der Fury non X sind eh aktuell zu hoch angesetzt. UVP ist 549$, also sollten es auch hier 550€ Straßenpreise sein. Die schlechte Verfügbarkeit der Karte sorgt nur für den höheren Preis. Da muss man noch etwas abwarten.

Sunrise
2015-07-21, 11:58:47
Das Ding bringt eben das LineUp komplett durcheinander. Einerseits ein voller Chip (was ich aber auch erst glaube, wenn ich es sehe), andererseits voll am Fiji-Sweet Spot oder leicht darunter und dann so ultra-kompakt.

Fury X musste AMD mit dem Rohrstock prügeln, Fury ist der Abfall und die nano zeigt dann plötzlich, wieviele Kunden man hätte theoretisch ansprechen können, man aber scheinbar nicht billig genug produzieren kann um sich den Markt zu nehmen.

Wird dann eben ein Nischenprodukt für alle, die quasi alles damit spielen können auf ultra-kompakter Bauform. Geht besser, aber 500 EUR sind jetzt kein Preis, der heutzutage "annormal" geworden ist, vor allem nicht bei der Leistung.

ilibilly
2015-07-21, 12:07:41
Ich glaubsn keine wunderkarte wer platz hat kann die nano mit einer fury x ebenso emulieren , tdp auf 175watt setzen und gut iss
Perfomrance ähnlich 390x .
Das kriegt man mit einer 980ti und 70% powerlimit auch hin.
Ist halt wirklich nur was für extrem kompakte kästen gedacht.

Asaraki
2015-07-21, 12:16:00
Ich glaubsn keine wunderkarte wer platz hat kann die nano mit einer fury x ebenso emulieren , tdp auf 175watt setzen und gut iss
Perfomrance ähnlich 390x .
Das kriegt man mit einer 980ti und 70% powerlimit auch hin.
Ist halt wirklich nur was für extrem kompakte kästen gedacht.

Leute, es gab bisher (afaik) noch nie eine Karte in dieser Leistungsklasse und diesem Formfaktor. Die ganze Diskussion über Gehäuse ist doch müssig, wenn damit eine neue Option auf den Markt kommt.
Es würde mich nicht wundern, wenn die Nano eine neue ‚Art‘ von Karte einläutet und anschliessend auch entsprechende Gehäuse kommen, ich kann mir da ein paar sehr schöne Gehäuse vorstellen, die ich mir liebend gerne unter den TV stellen würde.

Klar, es gibt schon kleine Gehäuse, in welche man auch die langen Karten stecken kann, aber d.h. nicht, dass dies die optimale Lösung ist. Im Moment brauch ich das Geld noch an anderen Orten, aber nächstes Jahr will ich mir eigentlich einen fähigen Minirechner basteln für das Wohnzimmer, da wäre dann eine (oder zwei? :D) Nano-Nachfolger dann durchaus interessant, da ich auch eine Idee habe für ein Customgehäuse, aber dafür müsste sich erst zeigen, dass es auch in Zukunft Highend in diesem Formfaktor gibt.

Manchmal schaffen neue Dinge auch neue Bedürfnisse!

Botcruscher
2015-07-21, 12:25:12
Für die Bedürfnisse muss dann aber noch jemand bereit sein 600€ zu verbraten. Ein günstiger ITX Collermaster für 32cm Karten ist ab 42€ zu haben. Bei 36cm ist man bei 59€ dabei. Der Markt dürfte am Ende so ergiebig sein wie Leistungsfähige APUs.

Käsetoast
2015-07-21, 12:31:08
Ich glaubsn keine wunderkarte wer platz hat kann die nano mit einer fury x ebenso emulieren , tdp auf 175watt setzen und gut iss
Perfomrance ähnlich 390x .
Ich denke nicht, dass das ähnlich gut hinhaut. Ich denke die Nano wird einfach nur eine stark selektierte Fury machen, d.h. man wird sich da die Chips raussuchen, die auch bei niedrigen Spannungen noch stabil laufen. Daraus resultiert dann eben sowohl das spätere Erscheinungsdatum als auch der hohe Preis (habe nicht mitbekommen, ob es inzwischen schon konrete Zahlen gibt, aber ich denke nicht, dass die Karte ihrer gelieferten Leistung entsprechend bepreist wird). So gesehen denke ich nicht, dass man beim Runterdrehen einer normalen Fury ähnlich gute Erfolge haben wird...

Asaraki
2015-07-21, 12:35:29
Für die Bedürfnisse muss dann aber noch jemand bereit sein 600€ zu verbraten. Ein günstiger ITX Collermaster für 32cm Karten ist ab 42€ zu haben. Bei 36cm ist man bei 59€ dabei. Der Markt dürfte am Ende so ergiebig sein wie Leistungsfähige APUs.

Es geht mir doch nicht um den Preis des Gehäuses. Und dass es dem „typischen 3DCler“ egal ist, ob das Gehäuse ein wenig grösser ist, das wundert ja auch keinen. Ich hab aber „Pläne“ für ein schickes Designgehäuse und da sind kurze Karten einfach besser geeignet, respektive engen das Design weniger ein. Ich sagte ja nicht, dass das ein grosser Markt wird, aber ich sehe da eine Nische und der Markt zeigt ja, dass man in manchen Nischen auch mit wenig Quantität guten Gewinn einfahren kann, gerade wenn man keine Konkurrenz hat.
Und mir ist bei solchen Projekten Geld „relativ“ egal, da spielen 100€ mehr erstmal keine Rolle, wenn ich dafür genau das bekomme, was ich mir vorstelle. Bei mir ist PC immer noch das günstigste der Hobbies, da bezahl ich schnell mal für ein Mikrofon oder eine Software mehr als für eine 980Ti ^^ Ich kauf auch nur alle 5-6 Jahre einen neuen PC und dann wird auch mal geklotzt.

Das heisst nicht, dass mir der Preis egal ist, im Gegenteil, ich bin ein sparsamer Mensch, aber wenn ich was kaufe, dann soll es zu 100% das sein, was ich brauche.

tl;dr : Ich hab grosses Interesse an Karten wie der Nano.

dargo
2015-07-21, 12:40:40
Ich denke nicht, dass das ähnlich gut hinhaut. Ich denke die Nano wird einfach nur eine stark selektierte Fury machen, d.h. man wird sich da die Chips raussuchen, die auch bei niedrigen Spannungen noch stabil laufen. Daraus resultiert dann eben sowohl das spätere Erscheinungsdatum als auch der hohe Preis (habe nicht mitbekommen, ob es inzwischen schon konrete Zahlen gibt, aber ich denke nicht, dass die Karte ihrer gelieferten Leistung entsprechend bepreist wird).
Ich glaube nicht, dass AMD für die Nano selektieren wird. Das ist nur unnötig teuer. Ich denke man wird einfach den maximalen Takt einiges senken (könnte mir hier 850-900Mhz vorstellen). Man sieht schon sehr gut an einer 290X wie deutlich der Stromverbrauch fällt wenn man sie nur mit 850-900Mhz betreibt. Kein Wunder bei Spannungen dann nur um die 1,0V. Der spätere Release der Fury non X und Nano ist ziemlich simpel. Man kann nicht sofort genug GPUs liefern. Und da fängt man logischerweise beim Top Dog an um möglichst viel zu kassieren.

Dawn on Titan
2015-07-21, 12:48:00
Die Nano soll auch noch 175W TDP haben, dass ist 970 Niveau und da gibt es eben schon "mini"-Karten. Da die Nano aber deutlich schneller und moderner ist, dürfte sie für 500 Euro sehr gut zu verkaufen sein.

Das wird der FPS/W König.

tm0975
2015-07-21, 13:25:52
Die Nano ... wird der FPS/W König.

spätestens dann ist perf/watt wieder unwichtig :rolleyes:

die nano wird definitiv ein neues formfaktor-zeitalter einleuten. was bracht denn sonst im gehäuse noch großartig platz?!

Sunrise
2015-07-21, 13:39:33
Es geht mir doch nicht um den Preis des Gehäuses. Und dass es dem „typischen 3DCler“ egal ist, ob das Gehäuse ein wenig grösser ist, das wundert ja auch keinen. Ich hab aber „Pläne“ für ein schickes Designgehäuse und da sind kurze Karten einfach besser geeignet, respektive engen das Design weniger ein. Ich sagte ja nicht, dass das ein grosser Markt wird, aber ich sehe da eine Nische und der Markt zeigt ja, dass man in manchen Nischen auch mit wenig Quantität guten Gewinn einfahren kann, gerade wenn man keine Konkurrenz hat.
Und mir ist bei solchen Projekten Geld „relativ“ egal, da spielen 100€ mehr erstmal keine Rolle, wenn ich dafür genau das bekomme, was ich mir vorstelle. Bei mir ist PC immer noch das günstigste der Hobbies, da bezahl ich schnell mal für ein Mikrofon oder eine Software mehr als für eine 980Ti ^^ Ich kauf auch nur alle 5-6 Jahre einen neuen PC und dann wird auch mal geklotzt.

Das heisst nicht, dass mir der Preis egal ist, im Gegenteil, ich bin ein sparsamer Mensch, aber wenn ich was kaufe, dann soll es zu 100% das sein, was ich brauche.

tl;dr : Ich hab grosses Interesse an Karten wie der Nano.
Falle exakt in die gleiche Käufergruppe. Das war mal stark anders, aber in Zukunft sehe ich keine Gründe mehr, noch deutlich in übermäßige Leistung zu investieren, die nur Nachteile mit sich bringen und dann in Summe auch nochmal deutlich mehr Kosten. Die Technik ist mit HBM und der nano jetzt soweit, dass sich hier etwas ändern kann, sofern der Markt das annimmt (wird sich zeigen). Mit den 5 Jahren bin ich auch immer gut gefahren, insofern ist der Preis auch erstmal zweitrangig.

KingBert
2015-07-21, 13:47:43
die nano wird definitiv ein neues formfaktor-zeitalter einleuten. was bracht denn sonst im gehäuse noch großartig platz?!
Ein total neues "Zeitalter":

http://rog.asus.com/wp-content/uploads/2014/12/GTX970-DCMOC-4GD5_3D-2_1.jpg

Gab es übrigens auch schon mit der GTX670:
https://www.asus.com/Graphics-Cards/GTX670DCMOC2GD5/

w0mbat
2015-07-21, 13:57:54
Ähm, wirklich? Ein Bild mit dieser Auflösung direkt einbinden?

Unicous
2015-07-21, 14:05:51
Ach Dimitry Kingbert, dein Trolling war auch schon mal besser (naja, eigentlich nicht.)

http://s17.postimg.org/d3nmpsiz3/AMD_Radeon_R9_Nano_Eyes_On_08.jpg

Die Nano ist ein ~600mm² Chip inklusive 4GB im sub-mITX Format, denn die anderen PCBs sind eben noch ein paar cm größer wie man aus dieser nicht irreführenden Perspektive erkennen kann.

http://www.overclockers.ua/video/geforce-gtx670-asus-dc-mini/03-big-geforce-gtx670-asus-dc-mini.jpg

Es gab iirc vor Jahren schon mal so kleine PCBs aber das waren dann Einsteigerkarten. Hier geht es um rohe Performance/cm².

Kartenlehrling
2015-07-21, 14:13:18
damals war es schon beeindruckend, gtx670 mit 8pin strom ...
heute ist das die Leistung von einer R9360 und das ist wiederrum halbe Leisung,
wenn man davon ausgeht das die Nano leicht über einer R9390x ist.

Schon damals hatte AMD der Mark an HTPC und itx käufer nicht wirklich beachte,
die HD7790 war da eine wunderbare Karte die man bestimmt noch sparsamer bekommen hätte.

Käsetoast
2015-07-21, 14:13:22
Naja, ich kann schon verstehen wenn da einige Bauchschmerzen bekommen. Jetzt haben wir endlich Grafikkarten, die schon von Herstellerseite aus vernünftige Kühler haben und so gesehen ist der Ausblick auf kleinere Formfaktoren natürlich ein Problem. Ich denke niemand will zu den Zeiten zurück wo da kleine Kreissägen ihren Dienst verrichteten bzw. wo jeder der einen einigermaßen leisen Betrieb (auch unter Last) wollte selber Hand anlegen musste um unter Garantieverlust einen Kühler zu tauschen...

So gesehen hoffe auch ich, dass die Idee von kurzen PCBs und entsprechend kleineren Kühlern nicht die große Schule macht und zum neuen Standard wird. Lieber ausladende Kühlkörper mit schön leisen Lüftern. Ich meine nichts gegen die Option auch kleine leistungsfähige Karten zu haben, aber die Hersteller dürfen da eben keine Option um Kosten zu sparen (an PCB und Kühler) riechen, sonst werden wir da in Punkto leise Grafikkarten ruckzuck um Jahre der Entwicklung hin zu schönen Triple Fan bis Triple Slot Kühlern zurückgeworfen...

KingBert
2015-07-21, 14:21:16
damals war es schon beeindruckend, gtx670 mit 8pin strom ...
heute ist das die Leistung von einer R9360 und das ist wiederrum halbe Leisung,
wenn man davon ausgeht das die Nano leicht über einer R9390x ist.
Das oben gezeigte Bild ist eine GTX970.

Das wird ein Kopf-an-Kopf Rennen mit der FuryNano.

http://www.bit-tech.net/hardware/graphics/2015/01/15/asus-geforce-gtx-970-directcu-mini-review/1

Finde es sehr amüsant, wie schon seit Jahren erhältliche Grafikkarten plötzlich das Ei des Columbus sind, nur weil AMD eine zeigt ;D

InsaneDruid
2015-07-21, 14:25:46
Selbst AMD hat diese Formfaktoren schon lange:

https://www.youtube.com/watch?v=DmGEe6ss7-4

Asaraki
2015-07-21, 15:20:13
Selbst AMD hat diese Formfaktoren schon lange:

https://www.youtube.com/watch?v=DmGEe6ss7-4

Aber nicht in dem Leistungsbereich der Nano....

Drehen wir uns hier im kreis? ^^

Flusher
2015-07-21, 15:32:38
Aber nicht in dem Leistungsbereich der Nano....



Öhm doch - noch bis vor kurzem war die R9 285 die drittschnellste AMD Karte. Fury Nano wird in der 3xx-Serie ebenfalls (voraussichtlich) die drittschnellste AMD Karte sein.

Also rein relativ gesehen hat die R9 285 ITX schon vor einem Jahr das geboten, was die Fury Nano in einem Monat bieten wird.

Elite_Warrior
2015-07-21, 15:51:36
Nur mit dem Unterschied dass die 285 ca. 50%(oder gar mehr) langsamer ist als die 290x, bei der Nano werden wir uns womöglich um die 20% im gegensatz zur Fury X bewegen.

Scheint also für den Formfaktor ziemlich stark zu werden.

tm0975
2015-07-21, 16:12:16
Gab es übrigens auch schon mit der GTX670:
https://www.asus.com/Graphics-Cards/GTX670DCMOC2GD5/

viel zu langsam! wo bleib denn da der spass?! ich rede von 290x oder höher.

Öhm doch - noch bis vor kurzem war die R9 285 die drittschnellste AMD Karte. Fury Nano wird in der 3xx-Serie ebenfalls (voraussichtlich) die drittschnellste AMD Karte sein.

Also rein relativ gesehen hat die R9 285 ITX schon vor einem Jahr das geboten, was die Fury Nano in einem Monat bieten wird.

das meinst du nicht erst, oder? wozu noch benchmarks machen, wir vergeben einfach platzierungen und gut ists. abwägungen von preis und leistung war gestern...

KingBert
2015-07-21, 16:23:00
viel zu langsam! wo bleib denn da der spass?! ich rede von 290x oder höher.
Die im Bild gezeigte Karte ist eine GTX970.