PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 [52] 53 54 55 56

Achill
2015-08-28, 11:53:49
Logisch die Gigabyte lässt nur 180 Watt als maximales TDP Limit zu also grad mal im Bereich des normalen TDP der Nano.Wer mher Bums will kauft halt die Galax Gamer OC.
Erstmal muss man eh Test's der Nano abwarten wie realitisch die 175 TDP sind,Fury X's TDP haut auch nich so wirklich hin viele Games gehen weit über 300 Watt.

Laut Test sind die zwei mini 970 GTX aber deutlich lauter als andere 970 GTX. Die Galax Gamer OC erreicht laut Test 49dB und sogar 50dB unter extremen Lastbedingungen. Damit ist diese fast doppelt so laut wie eine GB 970 GTX Mini.

Die Sapphire Fury Tri-X (http://www.computerbase.de/2015-07/sapphire-radeon-r9-fury-tri-x-oc-test/7/) ist mit 31dB viel leiser. Es kommt jetzt natürlich darauf an, wie es dann bei der Nano aussieht.

Das ganze Bedeutet dann aber auch, dass Vergleiche der Nano mit Karten des Einsatzgebiets passieren sollte. Hier könnte es dann auch sein, dass AMD die aktuell schnellste GPU für diesen Bereich hat. Laut Geizhals (http://geizhals.at/?cat=gra16_512&xf=2612_160~3312_2014~132_2048#xf_top) gibt es in dem Berech nicht wirklich etwas schnelles.

BlacKi
2015-08-28, 11:54:14
Tja... und hier sieht man sehr gut, dass die 970 Mini nach dem Aufwärmen nur 3,4% über den Basistakt boostet. Somit zum Thema gut übertakten.
dieser satz soll mir sagen das die karte nur 3,4% mehr als basistakt zulässt nachdem die maximale betriebstemperatur erreicht ist und somit das thema übertakten hinfällig ist.

und darauf habe ich angespielt. dein satz stimmt halt einfach nicht.

Hier könnte es dann auch sein, dass AMD die aktuell schnellste GPU für diesen Bereich hat. Laut Geizhals (http://geizhals.at/?cat=gra16_512&xf=2612_160~3312_2014~132_2048#xf_top) gibt es in dem Berech nicht wirklich etwas schnelles.

das stimmt! ob man nun aber für 10-20% mehr leistung über das doppelte zahlen will steht auf einem andern blatt. ob eine 1300-1400mhz 970 in 1080p mit einer nano anlegen könnte? beide müssten dann so 175w schlucken und abführen.

Schnoesel
2015-08-28, 11:58:45
Könnt ihr grünen und roten Männchen vielleicht mal aufhören diesen und andere Threads kaputt zu machen? Was interessieren mich eure GTXen, mit wie viel PT man welchen Takt erreicht, ob Kepler jetzt ein Treiberproblem hat oder nicht? Was soll das?

M4xw0lf
2015-08-28, 11:59:53
das stimmt! ob man nun aber für 10-20% mehr leistung über das doppelte zahlen will steht auf einem andern blatt.
Titankäufer sagen: yes

BlacKi
2015-08-28, 12:08:03
Titankäufer sagen: yes
ach, ist die nano das beste produkt auf dem markt und hat wenigstens doppelt soviel speicher? :wink:

M4xw0lf
2015-08-28, 12:12:20
ach, ist die nano das beste produkt auf dem markt und hat wenigstens doppelt soviel speicher? :wink:
Die Titan X ist auch nicht das beste Produkt auf dem Markt, es gibt deutlich schnellere und leisere 980Ti's.
Im Markt für mITX-Karten wird die Nano aber wohl tatsächlich das beste Produkt sein.

tm0975
2015-08-28, 12:15:36
ach, ist die nano das beste produkt auf dem markt und hat wenigstens doppelt soviel speicher? :wink:

beste ja, doppelter speicher nein ;D

aber wen interessiert der speicher? mich interessiert beim auto doch auch nicht die größe des tanks sondern nur die reichweite einer kompletten tankfüllung!!! wenn andere nun mehr sprit benötigen für 1200 km dann ist das deren problem. wenn nvidia nun 12 gb benötigt für die performance einer 4 gb karte ist das ebenfalls nicht mein problem...

BlacKi
2015-08-28, 12:19:23
beste ja, doppelter speicher nein ;D

aber wen interessiert der speicher?
bitte keine autovergleiche wir sind hier im amd fred^^

bei einer 4k karte für 700€ mit 4gb krieg ich übelste bauchschmerzen. es soll aber leute geben die einen starken magen haben.

dargo
2015-08-28, 12:22:02
dieser satz soll mir sagen das die karte nur 3,4% mehr als basistakt zulässt nachdem die maximale betriebstemperatur erreicht ist und somit das thema übertakten hinfällig ist.

und darauf habe ich angespielt. dein satz stimmt halt einfach nicht.

Meine Güte... lese mal den CB Test ausführlich bevor es noch peinlicher wird. Bei der Gigabyte Mini limitiert nicht TT sondern PT!

BlacKi
2015-08-28, 12:26:41
Meine Güte... lese mal den CB Test ausführlich bevor es noch peinlicher wird. Bei der Gigabyte Mini limitiert nicht TT sondern PT!
ich hab nur deinen satz interpretiert, die wahre ursache kenne ich.

Topha
2015-08-28, 12:39:08
Ich frage mich, ob AMD vielleicht noch den einen oder anderen fertig-PC Partner aus dem Hut zaubern wird zur Nano veröffentlichung.
Sie hatten ja bei dem Event, bei dem die Karten alle das erste mal gezeigt wurden auch so ein Sanduhrartiges Gebilde gezeigt.

Falls sie es hinbekommen ein oder zwei interessante Designs zu zeigen, die sich gut im Wohnzimmer neben dem Fernseher machen und Vorteile aus der geringen Größe der Nano ziehen könnte das durchaus ein Verkaufsargument für eine (kleine) eigene Zielgruppe sein, zusätzlich zu denen die dann eigene Wohnzimmer PC's basteln.

Was aus dem verlinkten mini-970 Review rauszulesen war, war nämlich auch, dass die Karten wohl nicht unbedingt kühl und leise laufen, wenn die nano es schafft hier schneller, kühler und "library quiet" zu laufen, dann könnte das doch für den einen oder anderen interessant werden für den bisher die Kompromisse einen Wohnzimmer PC unattraktiv gemacht haben (entweder zu groß, zu laut, zu langsam, zu heiß).

dargo
2015-08-28, 12:43:31
Ich frage mich, ob AMD vielleicht noch den einen oder anderen fertig-PC Partner aus dem Hut zaubern wird zur Nano veröffentlichung.
Sie hatten ja bei dem Event, bei dem die Karten alle das erste mal gezeigt wurden auch so ein Sanduhrartiges Gebilde gezeigt.

Du meinst bestimmt Project Quantum.
http://www.pcworld.com/article/2973970/software-games/exclusive-amds-amazingly-tiny-and-powerful-project-quantum-dissected.html

dildo4u
2015-08-28, 12:46:43
Ich frage mich, ob AMD vielleicht noch den einen oder anderen fertig-PC Partner aus dem Hut zaubern wird zur Nano veröffentlichung.
Sie hatten ja bei dem Event, bei dem die Karten alle das erste mal gezeigt wurden auch so ein Sanduhrartiges Gebilde gezeigt.

Falls sie es hinbekommen ein oder zwei interessante Designs zu zeigen, die sich gut im Wohnzimmer neben dem Fernseher machen und Vorteile aus der geringen Größe der Nano ziehen könnte das durchaus ein Verkaufsargument für eine (kleine) eigene Zielgruppe sein, zusätzlich zu denen die dann eigene Wohnzimmer PC's basteln.

Was aus dem verlinkten mini-970 Review rauszulesen war, war nämlich auch, dass die Karten wohl nicht unbedingt kühl und leise laufen, wenn die nano es schafft hier schneller, kühler und "library quiet" zu laufen, dann könnte das doch für den einen oder anderen interessant werden für den bisher die Kompromisse einen Wohnzimmer PC unattraktiv gemacht haben (entweder zu groß, zu laut, zu langsam, zu heiß).
Das ist das Absurde es wird mit 4k geworben aber als Whonzimmer Karte bräuchte sie HDMI 2.0.Die Karte ist hinten und vorne nicht zu Ende gedacht,eine 4k Karte für den HTPC bräuchte 8GB und HDMI 2.0.

Schnoesel
2015-08-28, 12:52:07
Ich frage mich, ob AMD vielleicht noch den einen oder anderen fertig-PC Partner aus dem Hut zaubern wird zur Nano veröffentlichung.


Bis auf Quantum wird es wohl kein AMD PC geben aber sie zeigen schon was möglich wäre:

http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Videos/R9-Nano-Mini-ITX-Einbau-1169423/

Ob das noch leise ist sei mal dahingestellt. Ich fände es auch nicht schlecht wenn das eine oder andere Hardwaremagazin sich mal an so etwas rantrauen würde, denn wie soll man auf einem offenen Testaufbau oder im BigTower sehen können was die Karte in nem kleinen Gehäuse kann, aber so wie ich das einschätze bekommen wir nur Standardkost bei Release.

BlacKi
2015-08-28, 12:53:36
Was aus dem verlinkten mini-970 Review rauszulesen war, war nämlich auch, dass die Karten wohl nicht unbedingt kühl und leise laufen, wenn die nano es schafft hier schneller, kühler und "library quiet" zu laufen, dann könnte das doch für den einen oder anderen interessant werden für den bisher die Kompromisse einen Wohnzimmer PC unattraktiv gemacht haben (entweder zu groß, zu laut, zu langsam, zu heiß).

temperatur target sind bei der nano 75° ab 85° fängt sie an zu throtteln.

die mini 970 würde im test 66° warm und war leiser als die oc, und mit einer angepassten lüfterkurve kannst du es eigenlich nach deinen wünschen anpassen.

ob die nano wirklich leiser wird stelle ich schwer in frage. 18db leiser als eine 290x mit radiallüfter.

Botcruscher
2015-08-28, 13:01:42
Das ist das Absurde es wird mit 4k geworben aber als Whonzimmer Karte bräuchte sie HDMI 2.0.Die Karte ist hinten und vorne nicht zu Ende gedacht,eine 4k Karte für den HTPC bräuchte 8GB und HDMI 2.0.

Zumindest HDMI 2.0. Ohne läuft am Fernseher nichts.

w0mbat
2015-08-28, 13:25:19
bei einer 4k karte für 700€ mit 4gb krieg ich übelste bauchschmerzen. es soll aber leute geben die einen starken magen haben.

Bei jeder Karte über 500€ die noch allten GDDR hat bekomme ich bauchschmerzen. Klar, dann verbaut man eben 1000GB davon um ein bisschen zu Kompensieren, aber die Ergebnisse sieht man ja. Selbst in 4K sind 4GB HBM oftmals vor 6GB GDDR.

Hübie
2015-08-28, 13:35:59
Hast du dich eigentlich schon in den Staub geworfen und Asche über dein Haupt gestreut?

http://www.pcgameshardware.de/screenshots/original/2015/08/AMD_Radeon_R9_Nano_-_FINAL_-_20-pcgh.jpg

:tongue:

Ne, ich trag das wie ein Mann :tongue:
Finde das Vorgehen halt unlogisch. Man meint ja immer, die wüssten was sie da tun, aber die Zahlen belegen das leider nicht.
Ich war ehrlich gesagt nach dem Launch von Fury X sehr frustriert, weil ich wirklich gern mal wieder AMD wollte. Vor allem technisch ein Highlight. Aber als Konsument möchte ich ja entsprechende Vorteile. Und so ähnlich zeichnet es sich bei Fury Nano ab. Die Kürze ist wie erwähnt erst mal nur ein Checklisten-Featute. So wie damals bei der Vorstellung der Titan. Da konnte man den Monitor übertakten. Heut redet kein Schwein drüber.

Ravenhearth
2015-08-28, 13:43:20
Bei jeder Karte über 500€ die noch allten GDDR hat bekomme ich bauchschmerzen. Klar, dann verbaut man eben 1000GB davon um ein bisschen zu Kompensieren, aber die Ergebnisse sieht man ja. Selbst in 4K sind 4GB HBM oftmals vor 6GB GDDR.

Wat.

Kartenlehrling
2015-08-28, 14:06:37
Das ist das Absurde es wird mit 4k geworben aber als Whonzimmer Karte bräuchte sie HDMI 2.0.Die Karte ist hinten und vorne nicht zu Ende gedacht,eine 4k Karte für den HTPC bräuchte 8GB und HDMI 2.0.

Also mein letzter Stand ist das für HDCP2.2 nicht ein DP1.3 oder HDMI2.0 Ausgang pflicht ist, DP1.2(a) fähige Grafikkarten sind schon in der lage HDCP2.2 geschützte Medien abzuspielen.
Somit kann die Nano 4k-60Hz-HDCP2.2-HDMI2.0-UHD HDR Blu-Ray abspielen, nur das ENDgerät muss HDMI2.0 (HDCP2.2) erkennen und darauf "Antworten".

robbitop
2015-08-28, 14:45:19
Ne, ich trag das wie ein Mann :tongue:
Finde das Vorgehen halt unlogisch. Man meint ja immer, die wüssten was sie da tun, aber die Zahlen belegen das leider nicht.

Geht es dabei um den Streitpunkt "Vollausbau oder nicht?" für die Nano?

Ich finde es eigentlich auch logisch, die Nano mit dem Vollausbau zu bestücken. Benötigt weniger Takt für gleiche Leistung. Takt wird idR wie du weißt ab einem bestimmten Punkt halt ineffzient wegen der erhöhten Spannung.

Vollausbauten mit wenig Leakage (ob es hier einen Zusammenhang gibt, sei mal außen vor gelassen) zu binnen sollte also sinnvoll sein. Ich hätte allerdings auf deutlich weniger Takt getippt. 800 MHz oder so.

Ideal mittels leistungsgeregelte Steuerung des Taktes, welche die Frametimes nicht versaut. :D

Schon Hawaii und Tahitii wurden ja deutlich oberhalb ihres Sweetspots betrieben. Ergebnisse mit 800-900 MHz untertakteten und undervolteten Karten waren massiv besser was Perf./Watt angeht.

Auch die IGPs vom Core-M sind idR niedrig getaktete Vollausbauten der GT2 statt höher getaktete teildeaktivierte.

Hübie
2015-08-28, 16:35:51
Geht es dabei um den Streitpunkt "Vollausbau oder nicht?" für die Nano?

Ich finde es eigentlich auch logisch, die Nano mit dem Vollausbau zu bestücken. Benötigt weniger Takt für gleiche Leistung. Takt wird idR wie du weißt ab einem bestimmten Punkt halt ineffzient wegen der erhöhten Spannung.

Vollausbauten mit wenig Leakage (ob es hier einen Zusammenhang gibt, sei mal außen vor gelassen) zu binnen sollte also sinnvoll sein. Ich hätte allerdings auf deutlich weniger Takt getippt. 800 MHz oder so.

Ideal mittels leistungsgeregelte Steuerung des Taktes, welche die Frametimes nicht versaut. :D

Schon Hawaii und Tahitii wurden ja deutlich oberhalb ihres Sweetspots betrieben. Ergebnisse mit 800-900 MHz untertakteten und undervolteten Karten waren massiv besser was Perf./Watt angeht.

Auch die IGPs vom Core-M sind idR niedrig getaktete Vollausbauten der GT2 statt höher getaktete teildeaktivierte.

Na ja ich hatte dass mit der GTX 780 mal verglichen und da gibt es sehr sparsame Varianten welche öfter eine bessere Prrf pro Watt boten.

ilibilly
2015-08-28, 16:38:54
Also mein letzter Stand ist das für HDCP2.2 nicht ein DP1.3 oder HDMI2.0 Ausgang pflicht ist, DP1.2(a) fähige Grafikkarten sind schon in der lage HDCP2.2 geschützte Medien abzuspielen.
Somit kann die Nano 4k-60Hz-HDCP2.2-HDMI2.0-UHD HDR Blu-Ray abspielen, nur das ENDgerät muss HDMI2.0 (HDCP2.2) erkennen und darauf "Antworten".

Nur zum blurayabspielen braucht man keine Nano,damit sollte man auch 4k gamen können und ohne hdmi 2.0 ist kein 4k60hz möglich nur 30hz ,mag für Blue Rays reichen aber für gamer ,die ja die Performance brauchen, ungenügend.

maguumo
2015-08-28, 16:40:04
Von Powercolor kommt doch bald der DP->HDMI converter der 60Hz packen soll, vielleicht legen sie den ja einfach bei...

Kartenlehrling
2015-08-28, 16:45:21
Nur zum blurayabspielen braucht man keine Nano,damit sollte man auch 4k gamen können und ohne hdmi 2.0 ist kein 4k60hz möglich nur 30hz ,mag für Blue Rays reichen aber für gamer ,die ja die Performance brauchen, ungenügend.

Wer muss es euch eigentlich schreiben das ihr es glaubt?
Die NANO und auch die Furys können 4k-60Hz an einen HDMI2.0 TV/Monitor.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10753639&postcount=12565

Isen
2015-08-28, 17:09:00
Das wird nie geglaubt. Erst wenn das Gesicht nen paar Beulen bekommt :P

Hübie
2015-08-28, 17:21:58
Das geht doch über den Adapter per Displayport oder seh ich das falsch?

Und G-Sync mit 4k gibt's auch nur über Displayport...

Kartenlehrling
2015-08-28, 17:29:39
In einer Wochen sehen wir auf der IFA2015 in Berlin, der erst HDR-TV mit HDMI2.0a.
Dann können die Karten neu gemischt werden und die AMD_Hater können dann wieder mit der Aussage kommen das die Nano nicht voll HDMI2.0a unterstützt.

http://www.virtualmarket.ifa-berlin.de/en/HDMI-Licensing-LLC,c194740

Unicous
2015-08-28, 17:50:04
Von Powercolor kommt doch bald der DP->HDMI converter der 60Hz packen soll, vielleicht legen sie den ja einfach bei...

Club3D meinst du, bzw. es gibt sicherlich mehrere Hersteller, könnte z.B. sein, dass der Adapter einfach ein umgelabelter Bizlink ist, wie Kartenlehrling ja schon verlinkt hatte.

Und leider befürchte ich sind weder AMD noch die Partner so schlau das zu machen. Die Dinger sind im Einkauf auch sicherlich nicht billig.

maguumo
2015-08-28, 17:54:36
Club3D meinst du, bzw. es gibt sicherlich mehrere Hersteller, könnte z.B. sein, dass der Adapter einfach ein umgelabelter Bizlink ist, wie Kartenlehrling ja schon verlinkt hatte.

Und leider befürchte ich sind weder AMD noch die Partner so schlau das zu machen. Die Dinger sind im Einkauf auch sicherlich nicht billig.

Stimmt, Club3D wars. Ich weiß nicht was sowas im Einkauf kosten würde aber du hast vermutlich recht damit das sie den nicht beilegen werden...

Loeschzwerg
2015-08-28, 17:57:22
Ein DP zu DVI Adapter lag zumindest meiner Sapphire Tri-X bei (Marke Bizlink).

Je nach Retail Variante (Full oder Lite) könnte ich mir durchaus vorstellen dass Sapphire der Nano einen entsprechenden DP zu HDMI Adapter beilegt.

@Count: Bei mir steht die Karte auf der Einkaufsliste :D Eine Nano für den Nano Quad @ 2.0GHz.

Unicous
2015-08-28, 17:57:42
Schon alleine weil das Ding (von Club3d zumindest) nicht vor Oktober kaufbar ist.:rolleyes:


Club3D It should become available in mass production end October

https://www.facebook.com/club3d/photos/a.171026459631160.41757.162718280461978/883217031745429/?type=1&comment_id=883706961696436&reply_comment_id=883730385027427&total_comments

Man muss natürlich bedenken, dass die Viecher noch eine Validierungsphase durchlaufen, und die ist wohl gerade erst bei Club3D gestartet.

Kartenlehrling
2015-08-28, 17:58:12
Also bei meiner Sapphire HD7970oc war ein "aktiver" miniDP>HDMI1.4a bei.
Ist ja nicht soo als wenn man diese Adapter wirklich brauch, die 0,5% Nano Käufer die einen HDMI2.0 tauglichen TV haben werden sich die 25€ für diesen Adapter auch leisten können.

Die anderen 99% Nano Käufer brauch das nicht einmal,
man kann vielleicht nach der IFA auch TVs mit DP1.2 kaufen, wie schon der Korea.

Unicous
2015-08-28, 18:06:18
Ihr wisst doch selbst wie teuer solche 08/15 Adapter sind. Und gerade ein neuer Adapter frisch aus der Produktion wird sicherlich keine attraktiven Preise bieten.;)

Ich könnte mir 40+ Euro vorstellen und da könnte ich sogar noch deutlich darunter liegen.

ilibilly
2015-08-28, 18:18:43
Wer muss es euch eigentlich schreiben das ihr es glaubt?
Die NANO und auch die Furys können 4k-60Hz an einen HDMI2.0 TV/Monitor.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10753639&postcount=12565

Also kann sie es doch nicht Out of box ,nur mit Adapter den es nicht zukaufen gibt.
Was es hätte es amd gekostet hdmi 2.0 an Board zu bringen 0,50cent ?
Hier Auszug von heise.de

Überraschenderweise setzt AMD weiterhin auf HDMI 1.4a. 4K-Fernseher kann die Fury X deshalb nur mit 30 Hz ansteuern; mit HDMI 2.0 wären 60 Hz möglich gewesen. Einen plausiblen Grund für den Verzicht auf HDMI 2.0 konnte uns AMD nicht nennen. Nvidias GTX-900-Serie hat bereits HDMI-2.0-Buchsen.

Kriton
2015-08-28, 18:45:24
Auf Effizienz bezogen labert er keinen Scheiß. Das ist auch ein großer Faktor bei ITX-Systemen, da man hier 300 Watt schlecht abführen kann. Mit dem "Checklisten-Feature" stimme ich überein.

Mal abgesehen davon, dass er von Effizienz kein einziges Wort gesagt hat, bin ich überrascht wie man die Effizienz anhand der Slides beurteilen kann. :rolleyes: Ich sehe lediglich eine TDP-Angabe (welche naturgemäß kaum etwas über den tatsächlichen Verbrauch aussagt - ggf. kann man diesen auf Basis vorheriger Werte im Verhältnis "ableiten", aber mehr auch nicht), und die sagt was von 175 Watt. KA warum Du also plötzlich von 300 Watt in diesem Zusammenhang redest.
Du schienst mir schon mal objektiver.

@ all: Die customs könnten nativ HDMI 2.0(a) bieten.

ndrs
2015-08-28, 18:57:04
Ihr wisst doch selbst wie teuer solche 08/15 Adapter sind. Und gerade ein neuer Adapter frisch aus der Produktion wird sicherlich keine attraktiven Preise bieten.;)

Ich könnte mir 40+ Euro vorstellen und da könnte ich sogar noch deutlich darunter liegen.
Dann wäre vielleicht ein Gutschein oder eine Art Payback-Aktion für den Adapter bei vorhandener Nano eine gute Idee für AMD. Dadurch würden sie zumindest frühzeitig darauf aufmerksam machen, dass es eine Lösung geben wird.

Kartenlehrling
2015-08-28, 19:01:33
....

Und hast du einen UltraHD TV mit HDMI2.0 wo du deine Nvidia anschliessen kannst?
Wieviele SLI und Crossfire Brücken liegen verstaubt zu Hause rum?
Die Sachen können nachgekauft werden wenn sie gebraucht werden, der aktiver HDMI2.0 wird ca. 30€ kosten nicht mehr.

mczak
2015-08-28, 19:02:38
Club3D meinst du, bzw. es gibt sicherlich mehrere Hersteller, könnte z.B. sein, dass der Adapter einfach ein umgelabelter Bizlink ist, wie Kartenlehrling ja schon verlinkt hatte.

Mit dem verlinkten Teil geht das jedenfalls mit Sicherheit nicht, steht da ja selbst - maximale Datenrate 6 gigabit/s. Das ist genau so ein pseudo-hdmi 2.0 Teil wie viele Fernseher auch, diese Datenrate war schon bei HDMI 1.3 möglich (auch wenn die meist erst sogenannte hdmi 1.4 Geräte unterstützten). Klar mit Chromasubsampling gehen dann auch 4k/60 Hz...

Kartenlehrling
2015-08-28, 19:11:15
Überraschenderweise setzt AMD Nvidia weiterhin auf HDMI 1.4a.


Nicht Überraschend aber Seltsamweise haben alle neue G-sync Monitor nur HDMI1.4a !!! :cool:


@mczak
Ich glaube nicht das Club3D eine DP1.2>HDMI2.0 Adapter verkauft und damit wirbt wenn er nur mit dem "Nvidia Trick" arbeite,
schliesslich ist ja ein Copyright auf HDMI2.0 mit "strengen" Richtlinien.


Our new CAC-1170, Displayport 1.2 to HDMI 2.0 adapter cable tested on a beautifull LG 4K TV with HDMI 2.0.
In our test system is a R9 285 2GB placed to which we have connected our CAC-1170, DP to HDMI2,0 Adapter Cable and
with the HDMI cable that came with the LG (43UF776V) TV we are running 3840x2160p) 4k @60Hz. Like a charm i might add
„smile“-Emoticon
https://www.facebook.com/club3d/photos/a.171026459631160.41757.162718280461978/883217031745429/?type=1&theater

Unicous
2015-08-28, 19:23:15
@mczak

Das wird im Zweifelsfall pro Channel sein. Denn sonst würde 4096x2160@60Hz erst recht nicht gehen. Und das man bei HDMI gerne beim Chroma Subsampling schummelt dürfte auch klar sein, also kann man von 4:2:2 ausgehen.

Darüber hinaus steht bei Specification: Based on customer's request.


Außerdem ist bei "echtem" 4K eh bei 4:4:2 Schluss. Das sind nämlich schon knapp 18 Gbit/s. Und nur bei UHD geht 4:4:4.

Hübie
2015-08-28, 20:13:07
Mal abgesehen davon, dass er von Effizienz kein einziges Wort gesagt hat, bin ich überrascht wie man die Effizienz anhand der Slides beurteilen kann. :rolleyes: Ich sehe lediglich eine TDP-Angabe (welche naturgemäß kaum etwas über den tatsächlichen Verbrauch aussagt - ggf. kann man diesen auf Basis vorheriger Werte im Verhältnis "ableiten", aber mehr auch nicht), und die sagt was von 175 Watt. KA warum Du also plötzlich von 300 Watt in diesem Zusammenhang redest.
Du schienst mir schon mal objektiver.

@ all: Die customs könnten nativ HDMI 2.0(a) bieten.

Es gab auch Benchmarks in diesem Zusammenhang. Aber klar. Die TDP ist jetzt nur ein von mir angenommener Wert. Die 300 Watt bring ich rein, weil dass Fiji XT (4096 ALUs) bzw. GM200 Niveau ist. Die bekommt man nun mal nicht ordentlich aus Kleinstgehäusen heraus.
Objektiv hin oder her, Effizienz im Sinne Perf/Watt ist doch besonders bei Wohnzimmer PCs wichtig. Mir zumindest. Bevor ich mich jetzt aber argumentativ verrenne: warten wir mal auf die Tests ;)
Edit: Wieso wird eigentlich um das Adapterthema so ein Wirbel gemacht? :|

mczak
2015-08-28, 20:30:52
@mczak
Ich glaube nicht das Club3D eine DP1.2>HDMI2.0 Adapter verkauft und damit wirbt wenn er nur mit dem "Nvidia Trick" arbeite,
schliesslich ist ja ein Copyright auf HDMI2.0 mit "strengen" Richtlinien.

Das bezog sich auf das bizlink Teil, nicht den Club3d Adapter.
edit: wobei vielleicht sind die 6gbit/s tatsächlich pro Kanal, dann würde das gehen. Die sollten an etwas klareren Spezifikationen arbeiten...

ilibilly
2015-08-28, 21:19:45
Und hast du einen UltraHD TV mit HDMI2.0 wo du deine Nvidia anschliessen kannst?
Wieviele SLI und Crossfire Brücken liegen verstaubt zu Hause rum?
Die Sachen können nachgekauft werden wenn sie gebraucht werden, der aktiver HDMI2.0 wird ca. 30€ kosten nicht mehr.

Ja natürlich hab ich einen 4k tv 65" sonst würd ich ned so jammern :)
Hatte zuvor ne r290x die kein 4k 60hz packte,aber ok meine Performancetarget von 60fps hat sie eh nicht gepackt ,von daher musste ein Nachfolger her,hatte die fury x im Auge hätte aber mit 30hz leben müssen,ok das hat sich ja jetzt mit den Adaptern erledigt,der andere Punkt war halt das ich eine gtx 980ti für 606€ bekommen habe,von daher viel diesmal die Wahl auf nvidia.
Bin sicher kein Fanboy,ich kauf halt in erster Linie nach Performance ,und da bot die custom ti 10-15% Mehrleistung und 2gb mehr,das reichte schon,dazu der günstigere Preis.
Kann leicht seine as bei der 16nm es wieder eine amd wird,aber da müssen sie gcn imho besser optimieren ,vielleicht liegst ja an den 64rops warum sie die power bei der fury nicht auf die Straße bekommen.

Skysnake
2015-08-29, 12:07:48
Naja das wird eher wieder ein iPhone Event aber mal ohne Witz: Der MacPro hat ja noch max. 2xTahiti drin, die ja ansonsten mit der 300er Serie abgeschafft wurde (FirePros auch?). Der iMac mit 5k Display könnte in der Hinsicht eigentlich auch einen Fiji vertragen (hat Tonga XT drin). Zeitlich wäre es auch nicht so abwegig für ein Update. :freak:
Durchaus möglich.

Wäre vor allem auch eine sehr gute Erklärung für die allgemein nicht so tolle Verfügbarkeit für AMD, einfach weil Apple ziemlich große Stückzahlen haben will.

Für den Normalkunden wäre es wie schon bei der 285 blöd, aber für AMD sicherlich nicht schlecht.

Schaumer mal, ich bin auf jeden Fall mal auf ein Apple Event gespannt :freak:

Hübie
2015-08-29, 12:33:51
Immer wieder von mir beobachtetes Problem, was sich durch alle Foren zieht: Nennt man die Dinge beim Namen ist man ein Fanboy und/oder nicht objektiv genug. Wobei Objektivität in diesem Kontext auch oft mit "nicht AMD biased genug" verwechselt wird. Ob es schmeckt oder nicht: Maxwell (insbesondere GM200) hat wenig Schwächen und vieles wurde gegenüber Kepler verbessert. Weiterhin fährt AMD nun schon drei Generationen die selbe Fahrrinne Richtung Abgrund. Darüber freue ich mich mit Sicherheit nicht.

Sorry,musste da jetzt einfach mal ne Lanze brechen. Lasst das einfach mal wirken.

Ravenhearth
2015-08-29, 12:38:18
Naja das wird eher wieder ein iPhone Event aber mal ohne Witz: Der MacPro hat ja noch max. 2xTahiti drin, die ja ansonsten mit der 300er Serie abgeschafft wurde (FirePros auch?). Der iMac mit 5k Display könnte in der Hinsicht eigentlich auch einen Fiji vertragen (hat Tonga XT drin). Zeitlich wäre es auch nicht so abwegig für ein Update. :freak:

Ich glaube nicht dran. Zum einen bräuchte AMD für den Mac Pro eine Fiji-basierte Fire Pro (was ist mit DP?), zum anderen hat Fiji nur 4GB VRAM gegenüber den 6GB der Firepro D700. Und für den iMac wären die 175W TDP von Fiji zu viel, Tonga kommt ja nur auf 130W und schon jetzt gibts damit Hitzeprobleme.

Grestorn
2015-08-29, 12:42:20
Immer wieder von mir beobachtetes Problem, was sich durch alle Foren zieht: Nennt man die Dinge beim Namen ist man ein Fanboy und/oder nicht objektiv genug. Wobei Objektivität in diesem Kontext auch oft mit "nicht AMD biased genug" verwechselt wird. Ob es schmeckt oder nicht: Maxwell (insbesondere GM200) hat wenig Schwächen und vieles wurde gegenüber Kepler verbessert. Weiterhin fährt AMD nun schon drei Generationen die selbe Fahrrinne Richtung Abgrund. Darüber freue ich mich mit Sicherheit nicht.

Sorry,musste da jetzt einfach mal ne Lanze brechen. Lasst das einfach mal wirken.

Du grüner Fanboy. Wie widerlich.

;)

iuno
2015-08-29, 13:12:24
Die customs könnten nativ HDMI 2.0(a) bieten.
Und wie? Einen DP->HDMI 2 Adapter aufs PCB bauen? Sollen sie lieber einen Adapter beilegen und gut ist.

Kartenlehrling
2015-08-29, 13:26:07
Wie schon gefühlt 100x geschrieben für 4k@60Hz brauch es kein HDMI2.0.
Intel biete HDMI2.0 auch nur über einen konverterchip der auf dem Mainboard verbaut wird. (http://www.anandtech.com/show/9485/intel-skylake-z170-motherboards-asrock-asus-gigabyte-msi-ecs-evga-supermicro)

iuno
2015-08-29, 13:51:31
Wem soll der Post denn gelten? Er ergibt für mich auch irgendwie keinen Sinn :confused:

Hübie
2015-08-29, 14:00:16
Wie schon gefühlt 100x geschrieben für 4k@60Hz brauch es kein HDMI2.0.
Intel biete HDMI2.0 auch nur über einen konverterchip der auf dem Mainboard verbaut wird. (http://www.anandtech.com/show/9485/intel-skylake-z170-motherboards-asrock-asus-gigabyte-msi-ecs-evga-supermicro)

Der konvertiert DP1.2 zu HDMI 2.0. Was soll dein Beitrag?:confused:

StefanV
2015-08-29, 14:33:54
Immer wieder von mir beobachtetes Problem, was sich durch alle Foren zieht: Nennt man die Dinge beim Namen ist man ein Fanboy und/oder nicht objektiv genug. Wobei Objektivität in diesem Kontext auch oft mit "nicht AMD biased genug" verwechselt wird. Ob es schmeckt oder nicht: Maxwell (insbesondere GM200) hat wenig Schwächen und vieles wurde gegenüber Kepler verbessert. Weiterhin fährt AMD nun schon drei Generationen die selbe Fahrrinne Richtung Abgrund. Darüber freue ich mich mit Sicherheit nicht.

Sorry,musste da jetzt einfach mal ne Lanze brechen. Lasst das einfach mal wirken.
Wie die ganzen Beiträge von dir, wo du dich an Yehas Schreibfehler aufgehängt hast und steif und fest behauptet hast, dass die Fury Nano ja niemals nie nicht auf keinen Fall ein Voller Fiji sein kann?!

Und wenn du denn ach so neutral bist, warum hast du dir nicht 'ne Fiji geholt?!
Und warum versuchst du mit jedem zweiten deiner Postings AMD Chips schlecht zu reden?!

Ich habe von dir schon seit langem nix positives mehr in Richtung AMD gehört.

Sorry, aber bei DEN Beiträgen, die du hier teilweise schreibst, ist das obrige auch nur Steine werfen ausm Glashaus heraus...
Der konvertiert DP1.2 zu HDMI 2.0. Was soll dein Beitrag?:confused:
Ja, und?!
Hat die Grafikkarte damit dann am Ende kein HDMI 2.0?!


Aber stimmt schon, man muss das Salzkörnchen in der AMD Suppe finden...
Die ganzen Fremdkörper in der nVidia Suppe ignoriert man gekonnt...

Warum kann/darf es nicht einfach egal sein, ob das ganze intern oder durch Zusatzchips gelöst wird?!
Nur weil nVidia das hat, muss man bei jeder sich bietenden Gelegenheit diesen Zustand erwähnen, oder wie darf man das verstehen?!

Oh und den beschiss mit der GM204 hast du auch mitbekommen?!
Was sagst du denn bei den Chips dazu, dass HDCP 2.2 nicht mit an Board ist?!

BlacKi
2015-08-29, 14:37:25
hübie lass dich nicht trollen... er versuchts immer wieder. wie du schon geschrieben hast, wenn man sich ne nvidia karte holt, dann ist man nicht neutral und man ist nur neutral wenn man eine amd karte kauft.

Screemer
2015-08-29, 14:53:43
Toll, schon wieder 2 seiten NV Lobpreisung im AMD thread. Danke an die Moderation.

Hübie
2015-08-29, 16:15:42
Wie die ganzen Beiträge von dir, wo du dich an Yehas Schreibfehler aufgehängt hast und steif und fest behauptet hast, dass die Fury Nano ja niemals nie nicht auf keinen Fall ein Voller Fiji sein kann?!

Und wenn du denn ach so neutral bist, warum hast du dir nicht 'ne Fiji geholt?!
Und warum versuchst du mit jedem zweiten deiner Postings AMD Chips schlecht zu reden?!

Ich habe von dir schon seit langem nix positives mehr in Richtung AMD gehört.

Sorry, aber bei DEN Beiträgen, die du hier teilweise schreibst, ist das obrige auch nur Steine werfen ausm Glashaus heraus...

Ja, und?!
Hat die Grafikkarte damit dann am Ende kein HDMI 2.0?!


Aber stimmt schon, man muss das Salzkörnchen in der AMD Suppe finden...
Die ganzen Fremdkörper in der nVidia Suppe ignoriert man gekonnt...

Warum kann/darf es nicht einfach egal sein, ob das ganze intern oder durch Zusatzchips gelöst wird?!
Nur weil nVidia das hat, muss man bei jeder sich bietenden Gelegenheit diesen Zustand erwähnen, oder wie darf man das verstehen?!

Oh und den beschiss mit der GM204 hast du auch mitbekommen?!
Was sagst du denn bei den Chips dazu, dass HDCP 2.2 nicht mit an Board ist?!

Bitte laber keinen Unsinn. Niemals nie sagte ich nicht. Diese Wörter gehören nicht in meinen Wortschatz. Ich hielt es nur für äußerst unlogisch einen vollen Chip mit niedrigem Takt für 550,-€ zu bringen. Daran ändert sich nichts.
Bei mir ist es kein Fiji geworden weil ich es nicht einsehe 700€ zu bezahlen und folgende Abstriche machen müsste:
-Höherer Verbrauch out of the Box
-Geringere Leistung out of the Box
-kein Spielebundel (gibt's da mittlerweile was)
-klappernde Pumpe (war offenbar bei allen Karten der ersten Charge)
-kein 3D Vision mehr (hätte ich teilweise mit tridef abfedern können, aber wackelig und unbestätigt)
-Verzicht auf Gameworks (okay nicht so schlimm in den meisten Fällen)
-weniger OC Potenzial (falls denn die Leistung nicht mehr reicht)
-weniger Flexibilität mit VSR (Skalierung der Performance ist somit nicht so granular)

Reicht dir das? :rolleyes: Ich habe jetzt 744€ inklusive Metal Gear Solid ausgegeben und erhalte 1400 MHz ohne dass ich irgendwas verstelle. Dazu leise und die Möglichkeit der Wahl ob zero fan an oder aus sein soll. Das alles wiegt die Habenseite der Fury nun mal nicht auf - Punkt.

Und zur HDMI 2.0 Diskussion: Wer DP 1.2 auf - egal welcher Karte hat - benötigt kein HDMI 2.0. Mehr wollte ich nicht ausdrücken. Was du da nun wieder subjektiv herauslesen willst und irgendwas von Salzkörnern faselst ist mir schleierhaft. :rolleyes:
Meine Beobachtung ist die, dass du viel zu viel Zeit hier verbringst und dich derbe reinsteigerst.
Ich lobpreise weder nVidia mit deren dreister Abzockmasche noch AMD mit seinen konsequenten Fehlentscheidungen. Also schön ruhig bleiben.

tm0975
2015-08-29, 17:08:13
das will hier niemand wissen. du könntest kurz und klar zum thema "Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015" schreiben oder einfach gar nichts.

aufkrawall
2015-08-29, 17:27:03
Das gilt aber nicht nur für ihn...

iuno
2015-08-29, 17:32:22
Ja, und?!
Hat die Grafikkarte damit dann am Ende kein HDMI 2.0?!
Könntest du mal lesen, worum es ging, bevor du so eine bissige Antwort verfasst? Vor allem da immer zitiert wurde, dürfte das eigentlich nicht so schwer fallen :rolleyes:

das will hier niemand wissen. du könntest kurz und klar zum thema "Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015" schreiben oder einfach gar nichts.
Das ist jetzt auch unfair. Er wurde gefragt und hat geantwortet. Dein Beitrag ist damit auch nicht wertvoller :P

Auf meine Frage ist auch keiner eingegangen. Ich wollte eigentlich wissen, ob es wahrscheinlich ist, dass man einen DP->HDMI2 Konverter direkt aufs PCB baut, z.B. da das PCB ohnehin selbst vom Boardpartner angepasst wird (was ich nicht weiß/einschätzen kann).

BiG OnE
2015-08-29, 17:36:42
das will hier niemand wissen. du könntest kurz und klar zum thema "Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015" schreiben oder einfach gar nichts.
Dann soll StefanV sich aber auch daran halten!

@Topic
Seit ihr euch auch sicher, das dieser Konverter nicht nur HDMI2.0 sondern auch den HDCP 2.2 Kopierschutz beherrscht?

Kartenlehrling
2015-08-29, 17:44:07
Es kann aber auch noch keiner begründen wieso eine Grafikkarte HDMI2.0/HDCP2.2 können sollten.
Es gibts keine Medien um sie abzuspielen,
und selbst HDMI2.0a unterstützen nur >8000€ !!! TV Geräte heute.

HDR nur mit neuen 4K-Fernsehern

Weil die neuen HDR-fähigen Displays die Leuchtdichte anhand von Metadaten im per HDMI 2.0a übermittelten Datenstrom anpassen müssen, benötigen sie eine spezielle Decoder-Hardware. Diese steckt nicht in älteren Geräten und ist für diese auch nicht nachrüstbar. Soll heißen: Von HDMI 2.0a profitieren nur Besitzer ausgewählter, brandneuer TVs wie Samsungs SUHD-Spitzenmodelle aus der 9500er Serie.

Erste Inhalte mit Superkontrasten gibt es aber schon, beispielsweise von Netflix: Dessen Eigenproduktion "Marco Polo" ist bereits in HDR gedreht, ebenso die dritte Staffel von "House of Cards". Bisher war Streaming direkt an Ultra-HD-Fernseher der einzige für HDR vorgesehene Verbreitungsweg. Hinweise auf HDR finden sich aber auch in geleakten Spezifikationen der 4K Blu-ray Disc. Dort soll der HEVC-Codec (H.265) zum Einsatz kommen, der HDR beherrscht.

iuno
2015-08-29, 17:51:22
Ist das jetzt ernst gemeint?
HDMI 2.0 ist zu offensichtlich um darauf einzugehen. HDCP 2.2 wird immerhin wenn man mal UHD BDs sehen will Pflicht und wird dann möglicherweise auch bei Streaming-Diensten eingesetzt. So eine High-End Grafikkarte ist ja nun kein Wegwerfprodukt für wenige Monate.

@BiG OnE: Ich glaube nicht daran, für die DP 1.2 Buchsen wird ja auch keine HDCP 2.2 Fähigkeit angegeben, und daraus würde ein HDMI-Signal ja letztlich erstellt.

Kartenlehrling
2015-08-29, 17:57:33
Welche UHD BD ?

Skysnake
2015-08-29, 17:58:36
Ähm, war es nicht so, dass der GM200 auch kein HDMI 2.0 kann, sondern nur der GM208 oder welcher das nochmal war?

Kartenlehrling
2015-08-29, 18:01:20
Die wollen hier im AMD Thread nur Trollen und ich fall immer darauf rein.

iuno
2015-08-29, 18:06:54
Welche UHD BD ?
So eine High-End Grafikkarte ist ja nun kein Wegwerfprodukt für wenige Monate.
http://www.businesswire.com/news/home/20150512005300/en/Blu-ray-Disc-Association-Completes-Ultra-HD-Blu-ray%E2%84%A2#.VeHXHaNCQWO

@Skysnake: GM200 und GM204 etc. können HDMI 2.0, aber kein HDCP 2.2 - mit der Möglichkeit, eines aktiven Adapters also Gleichstand. Das macht die Gesamtsituation aber nicht besser.

Malabolge
2015-08-29, 18:20:50
Toll, schon wieder 2 seiten NV Lobpreisung im AMD thread. Danke an die Moderation.

Oooch - Jetzt mach Ihnen doch "Operation 3D-Fx" nicht kaputt !
Von AMD alles schon im Vorraus schlecht reden, gehört doch im 3d-Center (Pardon der "Nvidia-Times")
zum "Guten" Ton.


und hier im 3DCenter wird es bis auf diesen Satz auch keine tendentielle Berichterstattung zugunsten von AMD geben
(jeder Hersteller wird hier gleich schlecht behandelt)

Ehrlich Leo - Der war gut !:D

Du grüner Fanboy. Wie widerlich.;)
Selbsterkenntnis ist der Weg zu wahrer Weisheit.
(PS - Jetzt darfts du wieder die "Opferrolle" übernehmen :P)

Bitte laber keinen Unsinn. Niemals nie sagte ich nicht. Diese Wörter gehören nicht in meinen Wortschatz.
Die Ritter die Nie Nie Sagen - Herrlich :biggrin::wink:
Jetzt macht es mir die "Bagage" aber zu einfach


-klappernde Pumpe (war offenbar bei allen Karten der ersten Charge)

Natürlich die Wasserpumpe ! Dafür das DU keine besitzt weisst du aber genau bescheid !
(PS es war ein "Fiepen" oder "Pfeiffen" - Keine KLAPPERN !)



-Verzicht auf Gameworks (okay nicht so schlimm in den meisten Fällen)

OH MEIN GOTT - er hat Jehova gesagt - Steinigt Ihn , oder ist etwa "Weibsvolk" hier ?

Ich nehme mal an mit "DX-12" wird sich Gameworks auch ganz schnell erledigen.

nalye
2015-08-29, 19:29:07
Hier gibt es gleich Karten für beide Fanboyseiten... Macht euren Kleinkrieg gefälligst per PN oder so

Hübie
2015-08-29, 22:49:34
@Malabolge: Das "Niemals nie" ist ein Zitat. Deine Respektlosigkeit zeigt aber schon wohin die Reise geht. Statt sachlicher Diskussion kommen nur lächerliche Antworten ohne zitierbaren Hintergrund.
Und sorry dass ich klappern schrieb. Musste an Phoenix887 seine 980 Ti Hybrid denken, welche klapperte oder klackerte. Das fiepen habe ich weltweit in vielen Foren verfolgt und hier besonders Dank anddill. Das sind nun mal nicht nur für mich Gründe sich gegen einen Fiji zu entscheiden.

Auf meine Frage an Roy Taylor wieso Speicherübertaktung die Ergebnisse verbessert kam einfach gar nichts. Auch die Redaktionen erhielten keine Stellungnahme. Man will offenbar nicht transparent sein.

Screemer
2015-08-29, 23:49:05
Und noch mal eine komplette seite. Schön dass es ein mid bemerkt, aber nichts aussortiert. Ich will hier was neues oder spekulatives zum Thema lesen. Wenn ihr euch über bestehende Produkte echauffieren wollt, dann haltet euch mit sachlichen Kommentaren im entsprechenden review-thread nicht zurück. Hier gehort das nicht hin, verdammt.

Die HDMI 2.0 Thematik sollte zur genüge durchgekaut sein. Ich fasse es noch mal für alle zusammen.

AMD:
- keine native hdmi 2.0 Unterstützung
- somit kein 60hz@4k nativ per hdmi
- per Adapter nachrüstbar
- evtl. Von boardpartnern per zusatzchip umsetzbar
- keine hdcp 2.2 Unterstützung
- dadurch kein Support für entsprechende, noch nicht verfügbare Medien
- evtl. mit dp, adapter oder zusatzchip möglich
- 4k@60hz per dp1.2a möglich
- 4k@60hz auch mit HDMI 1.4 durch Reduzierung der Farbinformationen
- dp 1.2 und 1.3 können hdcp 2.2 supporten, tun es aber nicht zwangsweise

NVIDIA
- Native hdmi 2.0 Unterstützung
- somit 60hz@4k nativ per hdmi 2.0
- keine hdcp 2.2 Unterstützung
- dadurch kein Support für entsprechende, noch nicht verfügbare Medien
- 4k@60hz auch mit HDMI 1.4 durch Reduzierung der Farbinformationen
- 960 unterstützt hdcp 2.2 per dp 1.2 nicht per HDMI

Dp 1.2 und 1.3 können hdcp 2.2 Unterstützung bieten. Es kommt auf die implementation an. Bisher nur für die NV 960 bestätigt. Das Endgerät (receiver, monitor, TV) müssen es auch unterstützen sonst bringt es nichts. Keiner der aktuellen Gsync-Monitore tut das. Der einzige mir bekannte monitor ist ein freesync-gerät (LG 27MU67). Es gibt derzeit nicht mal wirklich viele TV Geräte die das können. Warum hängt ihr euch daran so auf?

https://forums.geforce.com/default/topic/845270/geforce-900-series/gpus-with-hdcp-2-2-support/

Bitte, danke.

Hübie
2015-08-30, 00:48:42
Also so dramatisch find ich das auch nicht, da DP das abfedert. Blöd nur, wenn man noch mal für 20-30 Euro einen Adapter benötigt. Bei Sapphire liegt ja afaik einer bei, aber bei den anderen wohl nicht (durchgängig).

Flusher
2015-08-30, 10:28:03
Ich hab bis dato aber noch nicht gelesen ob der DP Adapter den Sapphire dort beilegt auch ein aktiver Adapter ist der tatsächlich aus DP-->HDMI 2.0 macht.

TheGood
2015-08-30, 10:45:32
Mich würde echt mal interessieren wer die Grafikkarten wirklich für diesen Einsatzzweck nutzt und HDMI 2 braucht ! Da wäre eine Umfrage auf 3dCenter mal ganz gut. Fuer mich ist das mehr als nur absolut irrelevant...

Laut 3dcenters letzten Umfrage benutzen 5 %!!! genau die 4K Auflösung. Von denen wäre jetzt Interessant ob die HDMI2.0 tatsaechlich brauchen.

dildo4u
2015-08-30, 10:54:21
Die Nano ziehlt halt genau auf diese Lücke,die Masse wird die nicht für ein normalen Gameing Dekstop kaufen,wenn man für das selbe Geld eine Karte bekommt wo man nicht so extrem vom Board beschränkt wird was die Leistungsaufnahme angeht.

BlacKi
2015-08-30, 11:35:36
Mich würde echt mal interessieren wer die Grafikkarten wirklich für diesen Einsatzzweck nutzt und HDMI 2 braucht ! Da wäre eine Umfrage auf 3dCenter mal ganz gut. Fuer mich ist das mehr als nur absolut irrelevant...

Laut 3dcenters letzten Umfrage benutzen 5 %!!! genau die 4K Auflösung. Von denen wäre jetzt Interessant ob die HDMI2.0 tatsaechlich brauchen.
was derzeit in nutzung ist, ist doch total uninteressant! wer in 4k60z auf nem tv zocken will der braucht hdmi2.0.

wenn du die frage stellen würdest, wie hoch der anteil der hdmi2 user ist die in 4k auf dem tv zocken ist, dann wäre der anteil sehr hoch.

man müsste eine umfrage starten:

Wer achtet bei einem künftigen TV und Grafikkartenkauf auf die unterstützung von Hdmi 2.0?

Kartenlehrling
2015-08-30, 12:01:00
@dildo4u
Hier wird ein Fass wegen fehlen HDCP2.2 aufgemacht, aber selbst im Geforce Forum kommt man auf keine "grünen" Zweig und genau infos.
Fakt ist, es gibt keine Medien, nicht mal Abspielgeräte für die neuen BD-disc.
Dann wär da nur Netflix, funktioniert es in Deutschland, ist das überhaupt das neue SUHD mit voller Farb und Grauabstufung?

Wer so ein SUHD-TV hat brauch keine Grafikkarte, der Chip im TV macht das schon allein.
Somit wär nur Gaming!! auf dem 8000€ teueren TV und das würde die Nano und Fury können.

Malabolge
2015-08-30, 12:42:58
@Malabolge: Das "Niemals nie" ist ein Zitat. Deine Respektlosigkeit zeigt aber schon wohin die Reise geht.
Statt sachlicher Diskussion kommen nur lächerliche Antworten ohne zitierbaren Hintergrund.
Ach komm schon wo ist "euer" Humor , bei der "steilvorlage" musste ich den einfach bringen.:biggrin:
oder bist du gar der "schwarze Ritter" ?

Allerding das gerade DU von respektlosigkeit schreibts ist schon verwunderlich.
Du bist einer von denen die hier im "Pirate Islands: Bermuda, Fiji, Treasure"-Thread Diskussionen über "Nvidia-Vorteile anstossen.
Immer und Immer wieder, macht doch dafür gefälligst einen "eigenen" Thread auf.


Und sorry dass ich klappern schrieb. Musste an Phoenix887 seine 980 Ti Hybrid denken, welche klapperte oder klackerte.
Das fiepen habe ich weltweit in vielen Foren verfolgt und hier besonders Dank anddill.
Das sind nun mal nicht nur für mich Gründe sich gegen einen Fiji zu entscheiden..

Bezeichnend das jede "negative" Eigenschaft , am Ende doch wieder "AMD" angekreuzt wird.
Irgendwo hat was "geklappert" - Muss AMD gewesen sein. Das ist ja schon fast ein "pawlowscher" Beißreflex !
Und da das "Fiepen" , wie es scheint, inzwischen abgestellt wurde, erstaunt mich deine Härtnigkeit es Immer wieder zu erwähnen.
So viel zum Thema "sachliche Diskussion".

Asaraki
2015-08-30, 12:48:46
Solange das machbar ist, interessiert mich das nicht, ob ich da einen 30-100 euro Adapter brauche. Das ist als ich mich über die Stellplatzkosten für meinen Ferrari aufregen würde. Wichtig ist nur ob es lösbar ist.

samm
2015-08-30, 13:08:02
Momentan ist es bloss so, dass ein Haufen Fahrer von VW Up! bis Phaeton, von denen nur die Polos einen Standplatz haben und alle andern nicht, ein grosses Problem daraus zu machen versuchen, dass dein Ferrari noch keinen Stellplatz hat und was für Kosten für den Stellplatz auf dich zukommen. Ganz egal, was die Ferrari-Fahrer und -Interessenten selbst davon halten.

Ich bin auf innovative Eigenbau-Power-mini-ITX-Builds und hübsche Fertigcomputer mit mächtig Grafikleistung gespannt, die durch die Nano eingeläutet werden :) Mit dem kommenden Node und der allgemeinen Verwendung von HBM 2 wird es so weitergehen, sehr schöne Entwicklung.

Spirou
2015-08-30, 13:15:43
Mich würde echt mal interessieren wer die Grafikkarten wirklich für diesen Einsatzzweck nutzt und HDMI 2 braucht ! Da wäre eine Umfrage auf 3dCenter mal ganz gut. Fuer mich ist das mehr als nur absolut irrelevant...

Laut 3dcenters letzten Umfrage benutzen 5 %!!! genau die 4K Auflösung. Von denen wäre jetzt Interessant ob die HDMI2.0 tatsaechlich brauchen.

Für Passiv-3D ohne Scanlines bei angemessener Bildschirmdiagonale gibt es keine Alternative zu HDMI 2. Darauf warten Tausende schon ewig.

Da dedizierte Monitore auf dem Massenmarkt aussterben, wird DP eine Nischenlösung bleiben. Deswegen kann es kein größeres Versagen geben als Karten der Leistungsklasse oberhalb Tahiti ohne HDMI2 aufzulegen. Was soll man mit denen anfangen: Leistung sinnlos durch Downsampling verbraten, um sich an Zwergbildschirmen die Augen zu verderben und FullHD-Klötzchengrafik zu glätten bis der Arzt kommt?

Asaraki
2015-08-30, 13:33:55
Momentan ist es bloss so, dass ein Haufen Fahrer von VW Up! bis Phaeton, von denen nur die Polos einen Standplatz haben und alle andern nicht, ein grosses Problem daraus zu machen versuchen, dass dein Ferrari noch keinen Stellplatz hat und was für Kosten für den Stellplatz auf dich zukommen. Ganz egal, was die Ferrari-Fahrer und -Interessenten selbst davon halten.

Ich bin auf innovative Eigenbau-Power-mini-ITX-Builds und hübsche Fertigcomputer mit mächtig Grafikleistung gespannt, die durch die Nano eingeläutet werden :) Mit dem kommenden Node und der allgemeinen Verwendung von HBM 2 wird es so weitergehen, sehr schöne Entwicklung.

Das bin ich mir als Ferrarifahrer eh schon gewohnt.
Scnr xD

M4xw0lf
2015-08-31, 17:18:38
War das schon hier irgendwo? Weiterer Batzen an Tonga-Transistoren zugeordnet: "SR-IOV"
http://finance.yahoo.com/news/amd-unveils-worlds-first-hardware-120000844.html

(Verlinkt von Dave Baumann himself: https://forum.beyond3d.com/threads/amd-volcanic-islands-r1100-1200-8-9-series-speculation-rumour-thread.54117/page-142#post-1869093)

tm0975
2015-08-31, 18:30:47
nicht schlecht. so läßt sich teure workstation hardware sinnvoll zentralisieren und virtualisieren. damit wäre man deutlich flexibler in der nutzung, hätte mehr leistung je user und könnte gleichzeitig die abwärme aus den büros fernhalten.

bzgl dx 12:
http://www.pcgameshardware.de/DirectX-12-Software-255525/News/Maxwell-asynchronous-Shader-1169742/

"Laut einem Oxide-Entwickler seien Nvidia-GPUs grundsätzlich nicht in der Lage, asynchrone Shader performant auszuführen. Der Treiber melde zwar eine entsprechende Unterstützung, in der Praxis habe die Aktivierung aber zu einem "absoluten Desaster" performancetechnisch geführt. Nvidia soll deshalb dazu geraten haben, das Feature auf Maxwell, Kepler und Co. zu deaktivieren"

Wie ist das zu bewerten und zu gewichten?

maguumo
2015-08-31, 18:33:28
Schau mal im DX12 Thread vorbei. Ich kenne mich mit dem Kram nicht aus, aber so wie die Leute darüber streiten würde ich einfach mal behaupten: Momentan gar nicht.

Janos
2015-08-31, 21:24:02
HDMI 2a +HDCP 2.2 wegen HDR, vorher kaufe ich keine GK mehr

M4xw0lf
2015-08-31, 23:20:30
Ein paar AMD-Folien zu "Multiuser-GPU" (srsly? ist das der Marketingname, oder hat das noch gar keinen? :freak:): http://www.amd.com/Documents/Multiuser-GPU-Datasheet.pdf

samm
2015-09-01, 00:04:17
Ist wohl kein Marketingname, da es einfach beschreibt, was es ist :ugly:

Blediator16
2015-09-01, 00:16:36
Ein paar AMD-Folien zu "Multiuser-GPU" (srsly? ist das der Marketingname, oder hat das noch gar keinen? :freak:): http://www.amd.com/Documents/Multiuser-GPU-Datasheet.pdf

Klare Ansage. Multiuser GPU einfach verständlich ohne irgendwelche Buzzwörter :cool:

uweskw
2015-09-01, 00:51:16
....."Laut einem Oxide-Entwickler seien Nvidia-GPUs grundsätzlich nicht in der Lage, asynchrone Shader performant auszuführen. Der Treiber melde zwar eine entsprechende Unterstützung, in der Praxis habe die Aktivierung aber zu einem "absoluten Desaster" performancetechnisch geführt. Nvidia soll deshalb dazu geraten haben, das Feature auf Maxwell, Kepler und Co. zu deaktivieren"

Wie ist das zu bewerten und zu gewichten?


Asynchronous Compute ist eines der Haupt-Features von DX12. Nicht mehr, nicht weniger.
Wenn du auf die Nvidia Verfechter hörst , spielt es keine Rolle. Falls alle daran glauben wird es eine "self fulfilling prophecy", weil es wenig genutzt wird.
Falls der tech. Fortschritt siegt, wäre es ein deutlicher Nachteil für NV.

Hat aber nichts hier zu suchen, BTT please!

Technisch und von den Möglichkeiten wird die neue AMD Generation sicherlich von den Erfahrungen mit HBM profitieren und Vorteile gegenüber NV haben.
Ich befürchte aber, dass die NV Bots es wieder einmal schaffen AMD in allen Foren schlecht dastehen zu lassen. INTEL hat das ja schon mehrfach demonstriert. Selbst als AMD CPUs klar besser waren, wurde ständig INTELs ins Rampenlicht gehoben.

greetz
US

Isen
2015-09-01, 02:58:15
Das Gerücht bezüglich HBM ist auch lustig (http://news.mydrivers.com/1/444/444793.htm)... :D

Weiterführende Argumente fehlen da bis auf die Nennung des Patents selbst.

Irgendwas mit, dass AMD ihr 2.5d Packaging Patentiert hat und nvidia nicht dafür blechen will ( Lizenzierung ) und deswegen HBM auf 2017 verschoben hat bzw. der Import Termin.

N0Thing
2015-09-01, 03:12:06
Ist wohl kein Marketingname, da es einfach beschreibt, was es ist :ugly:

Klingt schon nach dem Marketingnamen oder zumindest nach einem Platzhalter, wenn man sich das PDF anschaut. Andererseits: Who cares? Namen sind Schall und Rauch, am Ende heißt es Super Virtual GPU und an der Technik hat sich nichts geändert.

Tamagothi
2015-09-01, 10:47:35
Das Gerücht bezüglich HBM ist auch lustig (http://news.mydrivers.com/1/444/444793.htm)... :D

Weiterführende Argumente fehlen da bis auf die Nennung des Patents selbst.

Irgendwas mit, dass AMD ihr 2.5d Packaging Patentiert hat und nvidia nicht dafür blechen will ( Lizenzierung ) und deswegen HBM auf 2017 verschoben hat bzw. der Import Termin.

:confused: das würde bedeuten es gibt kein HBM bei Nvidia.

Im Pascal Thread wird ja bereits von 32 GB HBM geträumt ;D
Schauen wir mal was kommt.

fondness
2015-09-01, 10:52:41
:confused: das würde bedeuten es gibt kein HBM bei Nvidia.

Im Pascal Thread wird ja bereits von 32 GB HBM geträumt ;D
Schauen wir mal was kommt.

Bevor sie das machen, wird es NV auf einen Rechtsstreit ankommen lassen. Hat ja bei 3dfx damals auch gut funktioniert, die man dann einfach aufkaufen konnte, als der Prozess fast verloren war :D

Leonidas
2015-09-01, 11:00:29
Das Gerücht bezüglich HBM ist auch lustig (http://news.mydrivers.com/1/444/444793.htm)... :D

Weiterführende Argumente fehlen da bis auf die Nennung des Patents selbst.

Irgendwas mit, dass AMD ihr 2.5d Packaging Patentiert hat und nvidia nicht dafür blechen will ( Lizenzierung ) und deswegen HBM auf 2017 verschoben hat bzw. der Import Termin.


Abenteuerliche Spekulation. Am Ende kann das ganze seine Sache des Herstellers des Speichers oder des Trägermaterials sein - und der wird sich von AMD garantiert kein Geschäft vermiesen lassen.

Völlig unwahrscheinlich, daß NV eine Entwicklung startet für eine Sache, wo die Patentlage nicht geklärt ist.

dildo4u
2015-09-01, 11:08:26
Warum sollte NV für das Patent zahlen wenn Samsung den Speicher herstellt?

M4xw0lf
2015-09-01, 11:15:05
Relefant? Irrelefant.

dildo4u
2015-09-01, 11:17:56
Muss Samsung nicht AMD für das Patent bezahlen?

Isen
2015-09-01, 11:36:56
Um den Speicher als solcher selbst geht es ja dort nicht. Sondern um das Packaging.
Naja - abchillen - Lustiges Gerücht halt :)

StefanV
2015-09-01, 12:57:07
Muss Samsung nicht AMD für das Patent bezahlen?
Ja und wie verbinden sie den Speicher mit dem Chip?!
Siemens Luft Leitung?!

Tamagothi
2015-09-01, 13:00:59
Wie man sehen kann kann Apple sich alles patentieren.

Warum sollte AMD das nicht können. Wie, mit was, welches material, usw --> Packaging.

Da hätte Nvidia wenig Chance.

Isen
2015-09-01, 13:08:12
Ist wie mit der Twix Werbung. Beide nutzen das selbe, nur der andere hat das Package (Paketband) :D

https://www.youtube.com/watch?v=7J1VRpfmJ30

Thunder99
2015-09-01, 13:24:48
Sagen wir mal so, vor 8 Jahren begann die Entwicklung und wenn es bis dahin nirgendwo was vergleichbares gegeben hat sowie jemand anderes schneller war könnten Patente von AMD eingereicht und vorhanden sein. Es ist heutzutage in dem harten Geschäft eher fahrlässig was nicht patentieren zu lassen wenn es eine wegweisende Innovation ist :wink:

Dural
2015-09-01, 13:36:10
AMD und NV haben ein Patent abkommen :rolleyes:

Isen
2015-09-01, 13:40:20
könnten Patente von AMD eingereicht und vorhanden sein.

Laut der Aussage auf der Seite dieses hier: http://www.google.com/patents/US8922243

@Dural,

hättest zufällig nen Link für mich, auf die schnelle?

Timbaloo
2015-09-01, 14:02:24
Laut der Aussage auf der Seite dieses hier: http://www.google.com/patents/US8922243
Das ist aber nicht HBM.

Isen
2015-09-01, 14:06:21
Geht ja auch nicht darum.

Timbaloo
2015-09-01, 14:12:53
Dann verstehe ich nicht was das Patent in der Diskussion soll.

maguumo
2015-09-01, 14:15:19
Man kann GPU und HBM even nicht mit Heißkleber verbinden. HBM allein bringt einem gar nichts.

Unicous
2015-09-01, 14:35:12
Wenn überhaupt geht es um eine Fertigungstechnik die erst einmal nichts mit HBM direkt zu tun. Außerdem ist HBM ein JEDEC-Standard. Da Nvidia Mitglied ist bzw. Samsung und SK hynix auch, wird es daran nicht scheitern.

Interessant könnte es aber werden, wenn Nvidia tatsächlich eine Logik(FPGA) in den stack einbauen wollen würde. Aber dennoch glaube ich dass der mydriver-"Artikel" Quatsch ist. Es stellt sich natürlich die Frage wie gut die Google-Übersetzung ist. Da könnte auch etwas ganz anderes drin stehen.:wink:

Und übrigens: Nur weil AMD und Nvidia sich nicht gegenseitig verklagen, heißt das nicht, dass sie auch ein cross licensing agreement haben. Und auch wenn es naheliegt (oder sie zumindest irgendwann einmal eine mündliche Übereinkunft getroffen haben) , muss da nicht jedes Patent das jemals der jeweiligen Seite zugesprochen wurde Teil diese Abkommens sein.

Wenn etwas an dem Gerücht dran ist, dann wird es sich aber sicherlich nicht um gerade diese Patent handeln.

Timbaloo
2015-09-01, 14:35:39
Na dann führ mal aus inwiefern das Patent die Verbindung von HBM und Chip (GPU) via Interposer schützt.

Imho: Das Patent schützt die Verbindung von gestapeltem Speicher in Verbindung mit einem FPGA-Layer. Also das was im Abstract steht.

IANAL.

Unicous
2015-09-01, 14:41:06
AMD hat in der Tat mehrere Patente zu Fertigungstechniken die für HBM nötig sind. Aaaber, die werden natürlich für HBM zur Verfügung gestellt. Und im Zweifel hat AMD dann eine FRAND(fair, reasonable and non-discriminatory)-Lizenz an die JEDEC-Mitglieder vergeben.

StefanV
2015-09-01, 17:08:55
AMD hat in der Tat mehrere Patente zu Fertigungstechniken die für HBM nötig sind. Aaaber, die werden natürlich für HBM zur Verfügung gestellt. Und im Zweifel hat AMD dann eine FRAND(fair, reasonable and non-discriminatory)-Lizenz an die JEDEC-Mitglieder vergeben.
Wobei die Frage ist, ob man letztendlich wirklich Lust hat, das ganze an nVidia zu lizensieren...
Mit allen anderen hätte man wohl kein Problem...

Aber da könnte man zum Beispiel, wenn AMD solche Patente hätte, verlangen, dass sie Gameworks einstampfen und von weiteren Benachteiligungen durch externe Einflüsse absehen...

Aber schauen wir mal, wie sich das ganze weiter entwickelt...

Wäre auf jeden Fall schön, wenn AMD in diesem Falle endlich mal ein paar Exklisivverträge sowie Patente auf die Technologie hat, zusammen mit ihren 'Entwicklungspartnern' versteht sich.

N0Thing
2015-09-01, 17:15:09
Aber da könnte man zum Beispiel, wenn AMD solche Patente hätte, verlangen, dass sie Gameworks einstampfen [...]


Ganz sicher nicht. Entweder Nvidia braucht sich nicht darum zu kümmern, weil die Technik von den Foundries bereit gestellt wird, oder sie werden als JEDEC-Mitglied eine Lizenzgebühr bezahlen wie alle anderen auch, oder eine eigene Lizenzvereinbarung mit AMD treffen, die aber sicher auf einen Geldbetrag hinaus läuft, nicht auf Vorschriften wie und welche Produkte Nvidia anzubieten hat.

Man sollte also hoffen, dass AMD wirklich wichtige Patente hält und dafür auch Geld kassiert. Sonst haben sie jahrelange Vorarbeit geleistet und lassen sich nun bereitwillig die Butter vom Brot nehmen.

Unicous
2015-09-01, 17:20:05
@StefanV

Du brauchst hier keinen FUD zu erzählen. Die Patente für HBM müssen frei verfügbar sein, sonst gäbe es keinen entsprechenden JEDEC-Standard. Das ist die Grundvoraussetzung.

Wie das für einzelne Fertigungstechniken aussieht steht zwar theoretisch auf einem anderen Blatt, aber am Ende müssen sich die Fertiger damit auseinandersetzen und nicht unbedingt Nvidia. AMD kann jedenfalls Nvidia nicht davon abhalten HBM zu nutzen und wollen es auch gar nicht.

Man braucht dem Geschreibsel von mydrivers nicht noch mehr Aufmerksamkeit beimessen. Allein dass sie ein nicht relevantes Patent anführen, zeigt, dass sie keine Ahnung haben.

Tamagothi
2015-09-01, 17:23:30
AMD hat in der Tat mehrere Patente zu Fertigungstechniken die für HBM nötig sind. Aaaber, die werden natürlich für HBM zur Verfügung gestellt. Und im Zweifel hat AMD dann eine FRAND(fair, reasonable and non-discriminatory)-Lizenz an die JEDEC-Mitglieder vergeben.

Wo steht den geschrieben das AMD das verfahren wie man HBM, IP und GPU zusammenfügt an die JEDEC Mitglieder weitergeben muss?

Das hat in erster Linie mit HBM nichts zu tun.

Unicous
2015-09-01, 17:28:41
:facepalm:

Habe keinen Bock mich mit dem FUD-Müll auseinanderzusetzen, daher:

https://www.jedec.org/

tm0975
2015-09-01, 17:32:00
vielleicht wurde das gerücht einfach nur etwas verzerrt wiedergegeben. denkbar wäre doch, dass nvidia natürlich problemlos hbm verbauen kann und das auch sofort, amd aber mit hynix eine vereinbarung hat, wonach hynix bis 2017 ausschließlich amd beliefert.

Unicous
2015-09-01, 17:45:55
Das liegt im Bereich des Möglichen, aber da Samsung ab 2016 auch HBM anbietet wäre das hinfällig.

Das Patent auf dass sie sich beziehen ist auch völlig irrelevant. Es geht um einen DRAM stack (ähnlich HBM ;)) der zusätzlich zum Controller noch eine weitere Logik (z.B. FPGA) integriert hat. Ich schätze mal, die Logik könnte z.B. Aufgaben des Memory Controllers im eigentlichen ASIC übernehmen.

Die einzige Sache bei der ich mir vorstellen könnte, dass Nvidia da eine Lösung nutzen könnte, wäre NVLink. Aber das ist nur so eine Schnapsidee. Ich glaube Nvidia hatte nicht gesagt, wie die Kommunikation zwischen GPUs und CPUs explizit vonstatten geht.

ndrs
2015-09-01, 18:06:14
Das Patent auf dass sie sich beziehen ist auch völlig irrelevant. Es geht um einen DRAM stack (ähnlich HBM ;)) der zusätzlich zum Controller noch eine weitere Logik (z.B. FPGA) integriert hat. Ich schätze mal, die Logik könnte z.B. Aufgaben des Memory Controllers im eigentlichen ASIC übernehmen.
Wurde irgendwann in diesem Jahr AMD nicht mal mit PIM (Processing in Memory) in Verbindung gebracht?

Unicous
2015-09-01, 18:15:44
So wie AMD das dargestellt hat, wird PIM aber über den ohnehin schon vorhandenen Logic Die gelöst.

Es wurde nur in Aussicht gestellt, das man optional noch fixed function logic nutzen könnte.
https://pbs.twimg.com/media/CAQENnHUgAALjwr.png:large

Gibt es eigentlich eine Möglichkeit Twitter Fotos mit den Erweiterungen hinten einzubetten, bin zu doof dafür.... ach klappt ja doch. Komisch. Manchmal gehts, manchmal nicht.

Skysnake
2015-09-01, 18:54:27
Das liegt im Bereich des Möglichen, aber da Samsung ab 2016 auch HBM anbietet wäre das hinfällig.

Das Patent auf dass sie sich beziehen ist auch völlig irrelevant.

Für HBM an sich ja, denn dafür werden alle Patente unter FRAND fallen. Was allerdings nicht bedeutet, das sich AMD nicht Patente gesichert hat, wie man HBM am Besten validiert/testet, um überhaupt sagen zu können, dass das ganze auch innerhalb der Specs funktioniert usw usf.

An sich wären Sie doof, wenn Sie nicht um den Standard drum herum so viel wie möglich versucht haben zu lizensieren, so das man zwar den Speicher an sich relativ einfach nutzen kann, aber um eben alles funktionsfähig zu realisieren dann doch noch etwas extra abdrücken muss, oder es eben umständlicher lösen muss.


Es geht um einen DRAM stack (ähnlich HBM ;)) der zusätzlich zum Controller noch eine weitere Logik (z.B. FPGA) integriert hat. Ich schätze mal, die Logik könnte z.B. Aufgaben des Memory Controllers im eigentlichen ASIC übernehmen.

Kalt, eiskalt... Das ist viel viel viel zu kurz gedacht.


Die einzige Sache bei der ich mir vorstellen könnte, dass Nvidia da eine Lösung nutzen könnte, wäre NVLink. Aber das ist nur so eine Schnapsidee. Ich glaube Nvidia hatte nicht gesagt, wie die Kommunikation zwischen GPUs und CPUs explizit vonstatten geht.
Das eine hat mit dem anderen nichts zu tun.

Ansonsten ist das einfach eine SERDES-Verbindung und gut ist. Das ist vom Prinzip her nichts anderes, als HT oder QPI. Spannend wird sein, wie performant das Ganze am Ende ist. Btw. ich gehe ja noch immer davon aus, dass das im Endeffekt einfach der ccLink von IBM ist, wo Sie PCI-E dafür aufbohren. Also aus der Protokollsicht.

Es müssen ja eh beide Seiten das Unterstützen, und ich glaube nicht, das IBM da irgend so eine nVidia Lösung einsetzen wird. Vor allem braucht das eh noch lange, weil die erste Gen kommt ja eh noch ohne....

nVidia tut da mal wieder so, als ob das voll toll und bald da wäre, aber das dauert noch ewig, und obs dann noch irgendjemand vom Hocker haut, darf bezweifelt werden. nVLink wird sich zum Zeitpunkt des Erscheinend nur noch zwischen ganz cool und Gähn bewegen.

Wurde irgendwann in diesem Jahr AMD nicht mal mit PIM (Processing in Memory) in Verbindung gebracht?
Ja wurden Sie, und die Lösung mit dem FPGA ist halt nur eine von mehreren, genau wie DSPs, GPUs, CPUs usw.

AMD hat einfach mal ALLE Permutationen durchgespielt.... Ich hasse solche PAtente, weil an sich einfach alles abgedeckt wird, und nichts geniales dahinter steckt. Aber gut, alle anderen machen es halt auch genau so. :down::mad:

Unicous
2015-09-01, 18:59:49
:rolleyes:

Skysnake
2015-09-01, 19:02:20
Da brauchste gar nicht :rolleyes: machen.

Die Validierung von Stacked Implementierungen ist alles andere als trivial und der gesamte Themenbereich DFM/DFT usw Gegenstand aktueller Forschung.

Unicous
2015-09-01, 19:03:04
:|

StefanV
2015-09-01, 19:29:08
@StefanV

Du brauchst hier keinen FUD zu erzählen. Die Patente für HBM müssen frei verfügbar sein, sonst gäbe es keinen entsprechenden JEDEC-Standard. Das ist die Grundvoraussetzung.
Und wer spricht hier von HBM?!

Schon mal dran gedacht, dass es hier eventuell eher um die Verbindung von HBM und GPU gehen kann?!
Sprich 'irgendwas', das z.B. den Interposer bzw das zusammenkleben von Interposer, Speicherchips und GPU...

Und wie viele Läden gibt es, die Chip auf 'nem Interposer pappen könnten?!

Unicous
2015-09-01, 19:35:44
Und wie viele Läden gibt es, die Chip auf 'nem Interposer pappen könnten?!

Unzählige. Also konkret z.B. GF+Amkor, Samsung?, UMC+Amkor und natürlich TSMC bei denen Nvidia wohl fertigen lassen wird und die schon seit Ende 2011 für Xilinx einen Chip herstellt, der 4 Dies auf einem Interposer per TSVs verbindet. TSMC hat also dahingehend ausreichend Expertise.:wink:

Skysnake
2015-09-01, 19:57:39
Bist du dir da ganz sicher, dass das wirklich so viele sind, die dies auf ein Substrate stacken können? Und ja das ist eine Fangfrage.

Unicous
2015-09-01, 19:59:57
:rolleyes:

Grestorn
2015-09-01, 20:09:17
Ich finde die Schadenfreude, die einige hier zeigen, weil sie hoffen, dass nVidia evtl. HBM nicht nutzen könnte, weil ihnen vielleicht ein notwendiges Patent fehlt, schon wieder sehr bezeichnend.

Es geht halt nicht um rationale Argumente sondern nur ums Auslösen des eigenen Belohnungszentrums.

Unicous
2015-09-01, 20:13:19
Da muss ich zustimmen. Zumal diese Schadenfreude auf einem nicht einmal annähernd plausiblen, geschweige denn ausformulierten, Gerücht basiert. Vllt. wurde da auch nur ein Forenpost zum Newsartikel promoted.

Pirx
2015-09-01, 20:22:56
Welche Schadenfreude?

Skysnake
2015-09-01, 20:44:45
:rolleyes:
Du bist so unglaublich qualifiziert...

Das TSMC alles macht, ist nicht wirklich sooo klar. Schau dir z.B. das hier mal an: http://www.xilinx.com/innovation/research-labs/keynotes/3-D_Architectures.pdf S.23

Ansonsten ist bei dem ganzen Packaging immer nicht ganz klar, wer denn da was wie wo genau macht. Da kooperieren soweit ich das weiß oft Firmen zusammen, bzw. man ist eben nicht dazu gezwungen Fertigung und Packaging bei einem Hersteller zu betreiben.

Die Packagingverfahren werden sich auch ziemlich sicher unterscheiden, wenn man nicht ein Verfahren lizensiert. Und selbst wenn, die ganzen Firmen machen mehr oder weniger ja nur das, was man Ihnen sagt, das Sie machen sollen.

Klar, TSMC bieten PDKs und Sachen wie ESD Strukturen, die Sie entwickelt haben, aber am Ende muss es eben immer der Kunde implementieren.

Ich glaube zwar nicht, dass nVidia dadurch ihre HBM Produkte später bringt, einfach weil die sicherlich schon lange im Bilde sind, aber das heist ja noch lange nicht, das alles Reibungslos geht.

Schau dir doch einfach mal an, was bei den 3G Netzen usw. mit Qualcom abging, oder aktuelle TSMC<->Samsung. Ich kann mir gut vorstellen, das man bei Speicher Zukünftig ähnliches erleben wird. Dafür sind die Dinge einfach viel zu wichtig, und man wird durch die Randbedingungen in sehr ähnliche Bahnen gebracht, einfach weil man schauen muss, das man das Zeug überhaupt zum laufen bekommt.

Timbaloo
2015-09-01, 20:48:16
Da muss ich zustimmen. Zumal diese Schadenfreude auf einem nicht einmal annähernd plausiblen, geschweige denn ausformulierten, Gerücht basiert. Vllt. wurde da auch nur ein Forenpost zum Newsartikel promoted.
Ack. Alleine die Vorstellung dass sich Hynix darauf einlassen könnte eine Technologie zu entwickeln bei der ein stark kränkelnder Hersteller darüber entscheiden könnte wer/wann/wie ein Hynix-Produkt, ein JEDEC standardisiertes noch dazu, einsetzen darf. Das ist so dermassen absurd es ist nicht mehr feierlich.

Unicous
2015-09-01, 20:50:26
@Skysnake

Bevor ich mit einem :rolleyes: schließe biete ich zur Güte noch an, dass du mal nach "CoWos" googlelst.

:rolleyes:


@Timbaloo

Was hat jetzt SK hynix damit zu tun? Wenn AMD die kompletten Kapazitäten bei hynix aufgekauft und Samsung weiter Däumchen gedreht hätte, würde Nvidia blöd aus der Wäsche gucken. Wäre dann ein dick move gewesen den z.B. Apple des Öfteren durchzieht um die Konkurrenz auszubremsen. btw. Apple wäre sicherlich auch ein Kandidat für das ein oder andere Produkt.

Niemand hat Handhabe über HBM außer der JEDEC. Jedes Mitglied hat Zugriff auf die Spec und kann darauf aufbauend Produkte herstellen (lassen).

Skysnake
2015-09-01, 21:24:12
Brauch ich nicht, da ich es kenne :P

Wenn ich mir das hier S8. (pdf) von Xilinx anschaue, und das hier (http://www.3dincites.com/2015/04/tsmc-2015-technology-symposium-highlights-plans-for-the-coming-year/) zu TSMC, dann sieht das noch nicht wirklich so aus, als ob man wirklich fertig ist bei TSMC. Vor allem sollte man das hier bedenken:


Last, but not at all least, Liao emphasized in great length, the importance of partnerships and a well-functioning ecosystem. TSMC is cooperating with the four big assembly houses (ASE, Amkor, SPIL and STATSChipPAC, which got new owners recently), the suppliers of memory cubes (Samsung, Micron, SK hynix), substrate suppliers (Ibiden, Unimicron) and others.

Das ist finde ich alles bei weitem nicht mehr so klar, wer da wo wie für was zuständig ist, oder eben von nem anderen irgendwas lizensiert, oder auch nicht, sondern komplett auf Eigenentwicklungen setzt.

Die Summen sind ja gigantisch, die die Entwicklungen verschlingen. Da würde es durchaus Sinn machen, wo es nur geht zu kooperieren, um die grundlegende Funktion zu realisieren, und dann eben am Feintuning usw weiter zu arbeiten.

Unicous
2015-09-01, 21:33:46
Es ist so lustig. Du weißt offensichtlich selbst nicht worauf du hinaus willst, aber schreibst dennoch einfach drauf los.

Und dann zitierst du auch noch selektiv.

For the proven CoWoS technology, e.g. at Xilinx, Liao mentioned an impressive yield number: 96%. He also talked about Nvidia’s latest graphics design: 4 HBM memory cubes from SK hynix surround the GPU on an interposer and offer 1TB/sec bandwidth – 3 times the previous design’s bandwidth, at the same power budget.

CoWos ist tried and true. Wie TSMC zum fertigen Package kommt ist völlig unerheblich. Worüber du hier wieder philosphierst, weißt mal wieder nur du.:wink::rolleyes:

HOT
2015-09-01, 21:49:42
Ich finde die Schadenfreude, die einige hier zeigen, weil sie hoffen, dass nVidia evtl. HBM nicht nutzen könnte, weil ihnen vielleicht ein notwendiges Patent fehlt, schon wieder sehr bezeichnend.

Es geht halt nicht um rationale Argumente sondern nur ums Auslösen des eigenen Belohnungszentrums.
Schön das das mal jemandem auffällt. Auf der anderen Seite passiert das nämlich andauernd ;).

Bisher hat NV nichts dementiert. Sicherlich handelt es sich im nicht veröffentlichte Produkte, aber dass der GP100 HBM haben soll ist ja hinlänglich bekannt. Bisher ist aber Schweigen im Walde. Ich bin gespannt, ob es eine Reaktion gibt, wenn sich das Gerücht weiter verselbstständigt.

Unicous
2015-09-01, 21:58:48
Dementieren? Eine Meldung die außer 3DCenter bzw. Leonidas niemanden aus der Reserve lockt? Die lachen mal kurz laut auf und sagen: kein Kommentar.

Grestorn
2015-09-01, 22:06:00
Schön das das mal jemandem auffällt. Auf der anderen Seite passiert das nämlich andauernd ;).Bestreite ich nicht. Nervt ganz genauso.

tm0975
2015-09-01, 22:23:59
Ack. Alleine die Vorstellung dass sich Hynix darauf einlassen könnte eine Technologie zu entwickeln bei der ein stark kränkelnder Hersteller darüber entscheiden könnte wer/wann/wie ein Hynix-Produkt, ein JEDEC standardisiertes noch dazu, einsetzen darf. Das ist so dermassen absurd es ist nicht mehr feierlich.

mit denkverbote oder blokaden braucht man nicht in ein spekulationsforum zu gehen. wenn man so die diversen spekulationsgerücke der vergangenheit sieht, war vieles nicht ganz korrekt aber auch nicht in gänze falsch. und wer sagt denn, dass hynix die nachfrage von amd nach hbm überhaupt befriedigen kann. mMn ist entweder der ram selbst oder das "verdraten" von ram und gpu auf dem interposer die schwachstelle für die verfügbarkeit. und die meldung von hynix, dass sie nun mit der massenproduktion von hbm begonnen haben, ist auch noch nicht besonders alt.

R.I.P.
2015-09-01, 22:35:47
Eine Zusammenfassung/Beurteilung der aktuellen causa DX12: http://thegametechnician.com/2015/08/31/analysis-amds-long-game-realization/
(Weiß noch nicht ob der Text was taugt, fange gerade erst an zu lesen ;) )

€: nö, nichts neues für Leute, die das Geschehen einigermaßen verfolgen.

Zitiere M4xwolf: Sehr interessanter Artikel. Zum Durchlesen

Unicous
2015-09-01, 22:47:54
@tm0975

Ich weiß zwar nicht was Denkvorboden sind aber verwechsele bitte nicht Spekulationen mit Verschwörungstheorien.

Nur weil jemand Piep sagt muss man nicht darum gleich eine Geschichte spinnen die einem gefällt.

Skysnake
2015-09-01, 22:56:06
Es ist so lustig. Du weißt offensichtlich selbst nicht worauf du hinaus willst, aber schreibst dennoch einfach drauf los.

Und dann zitierst du auch noch selektiv.

CoWos ist tried and true. Wie TSMC zum fertigen Package kommt ist völlig unerheblich. Worüber du hier wieder philosphierst, weißt mal wieder nur du.:wink::rolleyes:
Aber wohl noch nicht fertig. Irgendwelche Test-Chips mit Partnern != einem kompletten fertigen Design Flow, bei dem man quasi eine Komplettlösung anbietet.

Das ist auch genau der Punkt auf den ich die ganze Zeit verusche hinzuweisen/hinaus will. DU tust so, als ob ein JEDEC Standard ALLES umfassen würde, was nötig ist, um ein fertiges funktionstüchtiges Produkt zu realisieren. Das ist aber bei weiten nicht so. Die Standards geben ja nur die Randbedingungen vor, wie man das aber realisiert ist die Sache der Unternehmen.... Und da kann man natürlich sich eigene Entwicklungen schützen, siehe mein Hinweis auf DFM/DFT usw usf.

Ich versteh nicht, was daran so kompliziert ist. Das ist total offensichtlich. Und wie ich schon gesagt habe, ist die Schlussfolgerung daraus aber FALSCH! Also das nVidia deswegen kein HBM bringt. Also halt mal den Ball flach, und fang mal an richtig zu lesen, und nicht mit :rolleyes: um dich zu werfen. Damit suggerierst du nur eine mangelnde Lesekompetenz, und bist dazu destruktiv. :P

Also nochmals ganz langsam zum mitschreiben:
Es mag so sein, das man da Patente hat, die wichtig sind, um gewisse nützliche Funktionen zu realisieren, die nVidia gern nützen würde, aber nicht zahlen will. Das bedeutet aber NICHT das
1. die Teil von HBM sind
2. die FRAND wären
3. man sie zwingend braucht
4. es auch nur irgend einen Einfluss auf Pascal gibt

Es wäre nicht das erst mal, das jemand etwas aufgeschnappt hat/gefüttert wurde, es aber nicht versteht und dann sich ne Geschichte draus dreht. Ist ja nicht so, als ob nur AMD an neuen Speicher/Compute Technologien arbeitet. Inmemory Compute ist wahrscheinlich eine der großen zukünftigen Entwicklungen. Da wird es sicherlich auch den einen oder anderen Patentkrieg geben, bzw. Austauschprogramme. Dafür sind die grundlegenden Konzepte einfach zu ähnlich, und die Firmen patentieren was nur geht... (Was btw. aber noch lange nicht heist, dass die Patente auch zu Recht erteilt werden. In dem ganzen Bereich gibt es viele fragwürdige Patente, die so nie erteilt hätten werden dürfen)

tm0975
2015-09-01, 22:58:02
danke, habs korrigiert. ich habe auch nciht gesagt, dass ich daran glaube, sondern lediglich angeregt, darüber zu diskutieren, ob das gerücht evtl. eine halbwahrheit sein könnte und wie diese aussehen könnte. ist ja nciht ganz unmöglich, dass die geschichte dahinter ist, dass hynix vorerst nur amd beliefern kann und nvidia sich hbm von samsung einkauft. kann denn jemand die produktionsmengen von hmb bzw hbm2 abschätzen? eigentlich sollte hbm doch leicht und in ausreichender stückzahl zu produzieren sein, oder?

HOT
2015-09-01, 23:04:28
Dementieren? Eine Meldung die außer 3DCenter bzw. Leonidas niemanden aus der Reserve lockt? Die lachen mal kurz laut auf und sagen: kein Kommentar.
Och jetzt mach hier nicht wieder den Heiligen, der als einziger den völligen Durchblick hat. Es ist schon ganz schön arrogant anzunehmen, dass die einzige Diskussion darüber in diesem Forum stattfindet.

Skysnake
2015-09-01, 23:22:09
danke, habs korrigiert. ich habe auch nciht gesagt, dass ich daran glaube, sondern lediglich angeregt, darüber zu diskutieren, ob das gerücht evtl. eine halbwahrheit sein könnte und wie diese aussehen könnte. ist ja nciht ganz unmöglich, dass die geschichte dahinter ist, dass hynix vorerst nur amd beliefern kann und nvidia sich hbm von samsung einkauft. kann denn jemand die produktionsmengen von hmb bzw hbm2 abschätzen? eigentlich sollte hbm doch leicht und in ausreichender stückzahl zu produzieren sein, oder?
Vergiss es da irgendwelche Aussagen treffen zu wollen. Wenn überhaupt kann man das eventuell über die Speicherbörse in Honkong(?) abschätzen.

Aber ansonsten haste da doch überhaupt keine Chance irgendwelche Einblicke zu erhalten, genau wie bei fast allem was die Branche anbelangt. Man ist nicht ohne Grund ziemlich verschwiegen.

Deswegen sollte man sich auch mit zwingenden Schlussfolgerungen zurückhalten. Es kommt wie es kommen wird.

Unicous
2015-09-01, 23:23:34
Dir ist echt nicht mehr zu helfen, Skysnake. TSMC stellt seit 2011 Interposer in 65nm mit TSVs her auf die 4 Dies mit zigtausenden Verbindungen gepappt werden. Dann zitierst du selbst, dass sie mit Zulieferern zusammenarbeiten aber bezweifelst dass sie soweit sind. The Fuck.:eek:

Ich zitiere auch gerne noch mehr aus dem Artikel, wenn du magst.

He confirmed that chip-on-wafer-on-substrate (CoWoS) technology is production-proven and offers now interposers with up to 32 x 36mm size and fine-pitch routing for high-end multi-die designs, like Xilinx’ FPGAs.

Und wenn dir das nicht reicht:

http://www.chipex.co.il/_Uploads/dbsAttachedFiles/AdvancedHeterogeneousSolutionsforSystemIntegration.pdf

@HOT

Leute die so arrogant sind und in anderen Foren weiterhin behaupten, dass "Arctic Islands" Chips auf jeden Fall bei GF gefertigt werden, traue ich auch nicht über den Weg. ;)

StefanV
2015-09-01, 23:29:28
TSMC stellt seit 2011 Interposer in 65nm mit TSVs her auf die 4 Dies mit zigtausenden Verbindungen gepappt werden.
Ja, und?!
Das is ja auch der leichte Part...
Und wie schauts mitm zusammenkleben aus?!

Weil 'nen Interposer, die Chips dafür sind völlig Nutzlos, wenn du nicht in der Lage bist, das ganze zusammen zu setzen, sollte eigentlich einleuchten, oder?!


Dann zitierst du selbst, dass sie mit Zulieferern zusammenarbeiten aber bezweifelst dass sie soweit sind. The Fuck.:eek:
Richtig, weil Interposer herstellen kann echt jeder halbwegs begabte Fertiger. Da ist echt keine Raketenwissenschaft dabei.

Und wenn du dich ein wenig mit diesem Thema beschäftigt hättest, hättest festgestellt, dass eben genau das nicht das Problem ist sondern die ganzen Sachen zusammen zu kleben...


Ich zitiere auch gerne noch mehr aus dem Artikel, wenn du magst.
Es wäre schön, wenn du aufhören würdest, dich so sehr in den Vordergrund zu stellen und dir anmaßt alles zu wissen.

Es gibt hier einige, die wesentlich näher an der Industrie sind als du es jemals sein wirst...

Aber wie sagt man so schön:
Je weniger man weiß, desto mehr ist man von sich überzeugt.
Je mehr man weiß, desto mehr weiß man, wie wenig man doch weiß...

Unicous
2015-09-01, 23:36:12
:facepalm:

https://lh3.googleusercontent.com/-0gnokHH6HkU/TY3_-Zp4jOI/AAAAAAAAAXs/2A30sJyNpl0/s1600/Xilinx+X+sect.jpg

https://lh3.googleusercontent.com/-VzeYWnrEoQ8/TY4ANO7QXGI/AAAAAAAAAXw/1PPfS1usDEY/s1600/Xilinx+supply+chain.jpg

http://electroiq.com/insights-from-leading-edge/2011/03/iftle-43-imaps-device-packaging-highlights-3dic/

Hat mich zwei Sekunden Google Bildersuche gekostet.:rolleyes:


Außer die ganze Zeit rumzukeifen, trägst du hier gar nichts bei. Da du dir sogar zu fein bist, mal ein wenig zu Recherchieren, prallt deine "Kritik" ;) wie Teflon ab.

Gipsel
2015-09-01, 23:40:26
TSMC stellt seit 2011 Interposer in 65nm mit TSVs her auf die 4 Dies mit zigtausenden Verbindungen gepappt werden. Dann zitierst du selbst, dass sie mit Zulieferern zusammenarbeiten aber bezweifelst dass sie soweit sind.Der Punkt war, daß TSMC durchaus auf Knowhow von Zulieferern bzw. Kollaborationspartnern zurückgreift. Bei den Xilinx-Virtex7-FPGAs sah die Supply-Chain z.B. laut Xilinx selber so aus:
http://abload.de/img/xilinx_supply_chainoup3x.jpg
Das komplette Packaging hat Amkor gemacht.
Das hast Du ja auch selbst gefunden. Aber beachte, daß von TSMC hier nur die Wafer kamen. Das Auseinandersägen, das Bumpen und Stapeln hat alles nicht TSMC sondern eben Amkor gemacht.

Wer davon auf welche Teile eventuell Patente hält, erschließt sich damit noch lange nicht. Klar ist, daß man Interposer und auch HBM auf Interposer fertigen lassen kann. Daß dabei immer alles irgendwo vorhandene Knowhow zum Einsatz kommen kann (oder selbst entwickelt bzw. alternativ eingekauft werden muß), heißt das aber nicht. So gab es damals für Xilinx von TSMC z.B. noch keine Designtools für Interposerlösungen, die mußten die sich anderweitig besorgen. Und so kann das eben auf mehrere Aspekte zutreffen. Und auf mehr wollte Skysnake wohl auch gar nicht hinaus ;).

Unicous
2015-09-01, 23:46:28
@Gipsel

Skysnake wollte darauf hinaus, dass TSMC nicht in der Lage ist irgendetwas zu tun.

Dass es eine supply chain gibt, habe ich überhaupt nicht bestritten und war mir von vornherein klar.

Skysnake hat hier nur FUD verbreitet, man könnte gar nicht wissen ob sie das Ganze überhaupt stemmen könnten, dabei haben sie schon 2013 verkündet dass sie 2014 HBM validieren wollen. Alles im "Internet" zu finden.

Die roadmap in der .pdf die ich gepostet habe, sollte diese Diskussion auch eigentlich beenden.


Das hast Du ja auch selbst gefunden. Aber beachte, daß von TSMC hier nur die Wafer kamen. Das Auseinandersägen, das Bumpen und Stapeln hat alles nicht TSMC sondern eben Amkor gemacht.

Ich sehe das Problem nicht. Das Gleiche macht AMD doch auch?:confused:

UMC Interposer, TSMC ASIC, hynix HBM Stacks, Amkor TSVs und wohl auch Assembly.

Gipsel
2015-09-01, 23:53:50
@Gipsel

Skysnake wollte darauf hinaus, dass TSMC nicht in der Lage ist irgendetwas zu tun.
Das hast dann wohl nur Du gelesen.
Skysnake hat hier nur FUD verbreitet, man könnte gar nicht wissen ob sie das Ganze überhaupt stemmen könnten, dabei haben sie schon 2013 verkündet dass sie 2014 HBM validieren wollen. Alles im "Internet" zu finden.

Die roadmap in der .pdf die ich gepostet habe, sollte diese Diskussion auch eigentlich beenden.Du meinst die Roadmap, laut der TSMC so ziemlich genau jetzt (Mitte 2015) mit der Qualifikation der Integration von HBM in ihre CoWoS-Lösung fertig sein will? Wie war das mit 2013 und 2014? Und funktioniert das jetzt zuverlässig ("95% µbump joint yield", die TSMC nennt, heißt das nämlich noch nicht ;))?

Und daß auch AMD mit Amkor beim Packaging kollaboriert, verhindert ja nicht, daß die Patentgeschichte dort anders aussehen kann. Waren die nicht Entwicklungspartner bei der Geschichte?

Aber egal, ist irgendwie hier im Thread nicht so ganz das Thema, was nV, TSMC oder sonstwer entwickeln oder lizensieren muß, um möglichst reibungslos zu einer HBM2-Lösung zu kommen. :rolleyes:

HOT
2015-09-01, 23:56:14
Na ja so richtig viel gibts auch zu Pirate Islands nicht mehr zu sagen :D. Da kann man nur noch über den Interposer sinnieren.

Wenn das alles so einfach ist, müsste es schon seit Jahren Stacks auf Interposern geben und man hätte sicherlich nicht 10 Jahre Entwicklung gebraucht ;). Aber - hey nein - es gibt EINEN Serienchip mit HBM und Interposer und OH WUNDER er ist von AMD. AMD hat bewiesen, NV muss liefern, so einfach ist das.
So lange ich von NV nichts sehe, was in diese Richtung geht und auch funktioniert ist das für mich ein ganz langer steiniger Weg. In Theorie und Folien gibts viele tolle Sachen, ein praktisches Produkt daraus zu machen ist eine ganz andere Kiste und die Lizenzen alle dafür zu haben ist noch mal was völlig anderes.
Und noch was: Ich glaube daran, dass AI bei GloFo gefertigt werden, weil ich dafür Anhaltspunkte habe, die mich das glauben lassen. Ob das so ist, ist dafür nicht erheblich, das weiss keiner außer den Involvierten. Aber es ist meine verdammte private Meinung und ich werde ganz bestimmt nicht aufhören diese kundzutun, denn es ist auch nicht mehr als das. Aber die Arroganz darüber zu urteilen ist schon bemerkenswert.

Tamagothi
2015-09-02, 00:26:17
Ich poste das mal hier, weil ich von Nv auf jeden Fall nicht ein Full HBM Lineup erwarte. Bei AMD eher unsicher.

http://www.tomshardware.com/news/micron-launches-8gb-gddr5-modules,29974.html

Micron schmeißt also noch nächstes Jahr neuen Gddr5X Speicher mit mehr Bandbreite auf den Markt. Ich glaube kaum, dass sie das entwickelt hätten, wenn nicht einer der Beiden das Zeug verwenden wollte. Ich schätze da sehen wir erstmal den Low Cost Ram da HBM einfach nen gutes Stück teurer sein wird. Könnte mir vorstellen, dass alles unter GP204 kein HBM abkriegen wird.

Das passt doch irgendwie perfekt zum Thema. Aber genug OT zeit fürs Bett.

Screemer
2015-09-02, 00:27:42
Skysnake hat hier nur FUD verbreitet, man könnte gar nicht wissen ob sie das Ganze überhaupt stemmen könnten, dabei haben sie schon 2013 verkündet dass sie 2014 HBM validieren wollen. Alles im "Internet" zu finden.

Das hast aber wohl nur du so aufgefasst. Schön das du schon wieder vollgas im angriffsmodus bist.

Unicous
2015-09-02, 00:28:34
@Gipsel

Die Yieldrate ist wenn ich mich nicht irre etwa genauso "hoch" wie bei GF/Amkor. Ich sehe da keine Probleme oder Grund für einen :wink:. ;)

Sie sind laut eigener Aussage in der Qualifizierungsphase für 8-Hi Stacks oder schon fertig. Sie haben Test Chips mit 2 logic dies und 3 HBM-stacks ich sehe nicht warum sie nicht in der Lage sein sollten nächstes Jahr zu produzieren.

Das war bei GF und Amkor doch nicht anders... nur das am Ende UMC den Zuschlag erhielt.

Warum sollte es da Patentdispute geben, ich verstehe es nicht. Amkor wird doch nicht plötzlich auf AMDs Geheiß die Zusammenarbeit einstellen. ODer wie stellst du dir das vor?:confused:



@Screemer

Wie wäre es wenn du Skysnakes Posts nochmal durchliest.

Ein Zitat gebe ich gerne schon mal auf den Weg.


Wenn ich mir das hier S8. von Xilinx anschaue, und das hier zu TSMC, dann sieht das noch nicht wirklich so aus, als ob man wirklich fertig ist bei TSMC.

Screemer
2015-09-02, 00:42:26
Und wo sind die Massen an chips von TSmc mit mehreren logicdies auf einem ingerposer? Es gibt ein winziges Nischenprodukt, von dem man quasi nichts weiß außer, dass tsmc dazu nur die wafer beisteuert. TSmc macht selber erst mal gar nix. So fasse ich die derzeitige informationslage auf und da bin ich scheinbar nicht alleine. Hau rein, für mich ist hier eod.

Nakai
2015-09-02, 00:44:24
Also ich komme hier gerade rein, habe die Diskussion nicht so wirklich verfolgt, und vermute mich mitten in einem Klugscheisser-Battle. Go Fight! Next Round! Fatality...

...es interessiert glaub ich niemandem.

====================================================================
You shall not pass! Barrier against Klugscheissing! Hier darf nichts darunter!
====================================================================

Das Einzige was mich brennend interessiert ist, wann es endlich 2GB HBMs gibt.
Ich warte den Oktober ab, um dann Hynix Q4 Produktmappe zu sehen. Wahrscheinlich keine 2GB HBM Stacks...naja.

horn 12
2015-09-02, 01:33:49
Wenn es nicht Oktober wird, dann wohl sicher erst nächstes Jahr?
Also kaum vor Spätsommer/ vielleicht gar erst Herbst 2016 mit 8GB "Fury Refresh" , Artic Island, und NV Pascal GPU zu rechnen?

Skysnake
2015-09-02, 08:24:08
Gipsel hat das an sich sehr gut ausgedrückt, und einfach allgemeinverständlich formuliert, was ich sagen wollte. DANKE :up:

Mehr gibt es dazu nicht zu sagen.

Kartenlehrling
2015-09-03, 14:29:31
Anscheinen werden/würden schon einige Nano an die Presse verschickt.

http://www.guru3d.com/news-story/amd-radeon-r9-nano-in-da-house-%28in-house-photos%29.html
AMD Radeon R9 Nano In Da House

Blediator16
2015-09-03, 14:38:24
https://www.youtube.com/watch?v=ofJidWb1CDM

Fury nano Temps. bei einem Metro Test soweit ich weiß.

Botcruscher
2015-09-03, 14:46:33
Chip schön und gut aber die SpaWa...

dargo
2015-09-03, 15:12:06
Chip schön und gut aber die SpaWa...
Suchst du wieder nach dem Haar in der Suppe? Die 100°C heißen Spawas haben bei der MSI GTX 970 Gaming 4G auch keinen gestört.

Botcruscher
2015-09-03, 16:47:56
Heiße SpaWa stören mich generell und solche verallgemeinernde Vergleiche mit Produkt XY wo niemand was gesagt haben soll hängen mir zum Hals raus. Aber das scheint ja hier irgendwie im Trend zu sein. Vor W10 hat angeblich auch keiner Apple oder Google kritisiert. Dabei sah der Extrakühler der Nano zumindest recht gut aus.

aufkrawall
2015-09-03, 16:52:33
Kannst du das rational begründen?
Wenn PCB und VRMs dafür ausgelegt sind, wird das jahrelang problemlos laufen.

dargo
2015-09-03, 16:59:44
Heiße SpaWa stören mich generell...
Und warum? Ist das jetzt eine neue Sportart, wer hat die kühleren Spawas? Reicht nicht mehr "meiner ist länger"? :D

Botcruscher
2015-09-03, 17:05:11
Ausgelegt... Die Faustregel besagt 10°C mehr ist eine Halbierung der Lebenszeit. Dazu wird der Wirkungsgrad noch schlechter. Über die Dinger gehen einige Dutzend Ampere im Millisekundenbereich. Zirpen ist da nur eine Folge...

dargo
2015-09-03, 17:09:26
Ausgelegt... Die Faustregel besagt 10°C mehr ist eine Halbierung der Lebenszeit.
Wie lang ist die durchschnittliche Lebenserwartung einer Grafikkarte im 3DC? 6-12 Monate? :tongue: Und du machst dir darüber Gedanken? tsss Selbst bei 5 Jahre alten Grafikkarten habe ich noch kein einziges Mal von sterbenden Spawas gelesen. Die Prozentzahl dürfte verschwindend gering sein. First-World-Probleme fällt mir dazu nur ein.

Kartenlehrling
2015-09-03, 17:16:55
Vorallem wenn man den gleichen Test mit einer GTX950 vergleich sehe ich da keinen unterschied.


https://www.youtube.com/watch?v=6wAWFU8QdFc
ASUS STRIX - GTX 950 Wärmebildkamera

https://www.youtube.com/watch?v=ofJidWb1CDM
R9 Nano Wärmebildkamera

Das sie einen direkten Kontakt vom Spannungwandler und Heatpipe haben ist doch sehr löblich.
http://www.hwbattle.com/data/editor/1508/f8f9f0ec01df3edf3f8d8d1d68dfb17a_1440637203_5649.png

Tesseract
2015-09-03, 17:20:18
Kannst du das rational begründen?
Wenn PCB und VRMs dafür ausgelegt sind, wird das jahrelang problemlos laufen.

high-end-karten sind generell sehr anfällig auf hitzeverschleiß. ich verwende alle meine karten sehr intensiv (was aus dem hauptsystem fliegt landet landet im HTPC, was aus dem HTPC fliegt landet in irgendeinem anderen system usw.) und betreue sehr viele (gaming-)systeme in meinem bekanntenkreis und sehe eine sehr eindeutige korrelation zwischen der thermischen belastung und der lebenserwartung. egal ob nvidia oder AMD, budget-karten laufen und laufen und laufen und wenn etwas kaputt wird ist das in fast jedem fall der billige lüfter; high-end-karten hingegen sterben ab einem gewissen alter (nach der garantiezeit natürlich) fast alle spontan irgendwann weg.

captain_drink
2015-09-03, 17:22:41
VRMs auf Grafikkarten sind meist bis 120/125 °C, zuweilen gar höher spezifiziert.
Solange alles innerhalb der Spezifikation bleibt, muss man nichts befürchten, erst darüber sinkt die Lebenserwartung signifikant.

Im Übrigen schont man die bereits durch eine bessere Eingangsspannung, i.e. ein Netzteil mit hochwertiger Spannungsregulierung.

Botcruscher
2015-09-03, 17:23:46
Die Relativierungen schon wieder. Was nützt mir der Durchschnitt wenn die Gurke im Sommer und bei schlechter Belüftung noch deutlich wärmer wird? GraKa haben schon heute in der Franzosenstatistik eine sehr hohe Ausfallrate. Dazu wird die Lebenszeit der Hardware auch im 3DC immer länger.
VRMs auf Grafikkarten sind meist bis 120/125 °C, zuweilen gar höher spezifiziert.
Solange alles innerhalb der Spezifikation bleibt, muss man nichts befürchten, erst darüber sinkt die Lebenserwartung signifikant.

Selbst dann können dir Risse im PCB und das tolle bleifreie Lot die Karte zerlegen. Die wenigen Phasen der nano werden schon gut beansprucht werden.

aufkrawall
2015-09-03, 17:29:51
high-end-karten sind generell sehr anfällig auf hitzeverschleiß. ich verwende alle meine karten sehr intensiv (was aus dem hauptsystem fliegt landet landet im HTPC, was aus dem HTPC fliegt landet in irgendeinem anderen system usw.) und betreue sehr viele (gaming-)systeme in meinem bekanntenkreis und sehe eine sehr eindeutige korrelation zwischen der thermischen belastung und der lebenserwartung. egal ob nvidia oder AMD, budget-karten laufen und laufen und laufen und wenn etwas kaputt wird ist das in fast jedem fall der billige lüfter; high-end-karten hingegen sterben ab einem gewissen alter (nach der garantiezeit natürlich) fast alle spontan irgendwann weg.
Die Hawaii-Karten haben ja bald zwei Jahre auf dem Buckel, und bisher scheinen die Referenzdesigns nicht massenhaft ausgefallen zu sein (zumindest nicht wegen den Temps, *hust* Blackscreens *hust*...).
Ich hatte eine 570 mit massig OC und Spannungserhöhung unter Luft, die wurd entsetzlich heiß und hatte alles vollgestunken (hatte das damals auch hier in einem Thread geschildert :D ). Lief nach über einem Jahr aber immer noch völlig stabil und rein äußerlich sahen die Bauteile auf dem PCB auch noch absolut in Ordnung aus.
Ich denke schon, dass es stark auf die verwendeten Bauteile ankommt.
Die VRMs auf den MSI 780 (Ti) Gaming werden auch ordentlich gegrillt, aber die scheinen auch immer noch problemlos zu halten.

y33H@
2015-09-03, 17:37:51
Anscheinen werden/würden schon einige Nano an die Presse verschickt.Kamen im DACH-Raum gestern an.

Tesseract
2015-09-03, 17:38:44
Ich hatte eine 570 mit massig OC und Spannungserhöhugn unter Luft, die wurd entsetzlich heiß und hatte alles vollgestunken (hatte das damals auch hier in einem Thread geschildert :D ). Lief nach über einem Jahr aber immer noch völlig stabil und rein äußerlich sahen die Bauteile auf dem PCB auch noch absolut in Ordnung aus.

ein jahr ist auch nicht viel. von 3x 580 GTX die ich bei mir bzw. einem bekannten eingebaut habe sind bereits zwei spontan im einsatz verreckt und die waren alle von verschiedenen herstellern. in meiner ersatzteilkiste liegen fast ausschließlich midrand-karten weil das die sind die überleben - ist jede generation das gleiche.

captain_drink
2015-09-03, 17:39:39
Ich denke schon, dass es stark auf die verwendeten Bauteile ankommt.

Das ist eben das Problem, da man meistens die genauen Spezifikationen nicht kennt.
Dementsprechend verlässt man sich lieber auf niedrigere Werte, um das Risiko, selbige zu verlassen, minimieren zu können.

Loeschzwerg
2015-09-03, 17:46:05
Selbst dann können dir Risse im PCB und das tolle bleifreie Lot die Karte zerlegen.

Absolut. Bis 100°C ist gerade noch OK, danach geht die Ausfallrate stark nach oben, das kenne ich von den Notebook Ausfallquoten. Die Spanne zwischen Idle und Last ist einfach zu groß.

Während dem AsyncCompute-Test meiner Fury... mit dem Finger will man da nicht mehr auf die Backplate langen und es stinkt ziemlich nach Elektronik.

Wegen mir könnte man die Karten hier gerne großzügiger dimensionieren.

Blediator16
2015-09-03, 18:15:58
Kamen im DACH-Raum gestern an.

Also wenn es die wirklich am 10. zu kaufen gibt, dann haben sie euch ja diesesmal wirklich Zeit gegeben für offizielle Reviews :D

dargo
2015-09-03, 18:18:23
Die Relativierungen schon wieder. Was nützt mir der Durchschnitt wenn die Gurke im Sommer und bei schlechter Belüftung noch deutlich wärmer wird? GraKa haben schon heute in der Franzosenstatistik eine sehr hohe Ausfallrate.
Zeig mir bitte die Statistik die aufzeigt, dass Grafikkarten durch zu warme Spawas ausgefallen sind.

Loeschzwerg
2015-09-03, 18:25:02
Ach... da gibt es doch diese tolle angepasste Gleichung (Namen vergessen, irgendetwas mit A :freak:) zur Zuverlässigkeit im Verhältnis zur Temperatur.

Von 50°C auf 100°C nimmt die Ausfallrate um den Faktor 7 zu und von 100 - 150 nochmals um den ähnlichen Faktor. So in etwa war das.

Edit: Arrhenius Gleichung ^^ Das gute alte Elektrobuch aus der Lehrzeit hat geholfen :D Es kann aber auch jeder mal nach FIT (failure in time) suchen.

dargo
2015-09-03, 18:34:59
Diese Zahlenspiele bringen uns kein Stück weiter. Nur mal als Hinweis... kaum jemand behält die Graka Jahrzehnte, und die max. Temperatur liegt auch nicht dauerhaft an.

Menace
2015-09-03, 18:50:47
Welche max. Temp hatten jetzt die SpaWas? Die Skala sagt ja nur etwas von "highest". Falls weiß = max. Temp = konst, dann wäre es wohl 70°C. Aber ich habe die Befürchtungen das die Farben relativ sind. Habe ich irgendetwas übersehen?

MilesEdgeworth
2015-09-03, 18:52:27
Kennt denn jemand ein typisches Modell eines verbauten Spannungswandlers? Ich wage doch sehr zu bezweifeln, dass das Sonderanfertigungen sind. Solange die im Datenblatt beschriebenen Bedingungen an Temperatur nicht überschritten werden ist diese Diskussion doch eigentlich hinfällig? Diejenigen, die die SpaWas designen werden sich sicherlich etwas gedacht haben - vorläufige Ausfälle sind jedenfalls nichts, das man sich als Zulieferer erlauben kann.

Loeschzwerg
2015-09-03, 18:55:11
Weniger Abwärme im Gehäuse wäre neben der Haltbarkeit der andere Punkt.

Der Punkt bei der Fiji @ Ref.-PCB ist halt die enorme Belastung auf das komplette PCB, bedingt durch die Größe.

Naja, ich werde sehen wie sich meine zukünftige Nano im ITX Gehäuse (FT03) verhält.

Edit: Die Spawas selber (bis 150°C Betriebstemperatur) sind ja nicht das Problem, eher das drumherum.

Isen
2015-09-03, 19:06:01
Wegen SpaWas/VRMs jetzt sone Diskussion? Ernsthaft?
Bei allen Karten die ähnlich hohe Temperaturen bei diesen haben, sind alternative Lösungen auf dem Markt.
Bedient sich doch jeder an diesen denen das anpisst.

aufkrawall
2015-09-03, 19:07:53
Bei der Fury-X gibts keine Alternative.

dargo
2015-09-03, 19:12:09
Weniger Abwärme im Gehäuse wäre neben der Haltbarkeit der andere Punkt.

Löl? :tongue: Die größte Wärmeentwicklung kommt doch nicht von den winzigen Spawakühlern. Das ist doch kaum relevant. Das was dein Gehäuse aufheizt ist der große Grafikkartenkühler + die Backplatten die eher kontraproduktiv sind. Klar... sie stabilisieren das PCB, geben aber auch eine Menge Abwärme ab. Ich habe bis heute nicht verstanden warum die Hersteller die Backplatten nicht vernünftig lochen.
https://static1.caseking.de/media/image/thumbnail/wach-346_wach_346_3g_800x800.jpg

Aus Kostengründen? Stabililätsgründen?

Loeschzwerg
2015-09-03, 19:24:43
Kleinvieh macht auch Mist :deal:

Das mit der Backplate verstehe ich allerdings auch nicht. Teilweise gelocht oder mit Kühlrippen (entsprechender Kontakt zum PCB) sollte schon machbar sein.

Edit: Bei der Sapphire sieht das Blech so aus: https://www.techpowerup.com/reviews/Sapphire/R9_Fury_Tri-X_OC/images/cooler3.jpg

StefanV
2015-09-03, 19:26:40
Weniger Abwärme im Gehäuse wäre neben der Haltbarkeit der andere Punkt.
Hä?!
Ist es nicht eher die Wärmeverlustleistung, die das stärker aufheizt, nicht nur Delta T?!



Der Punkt bei der Fiji @ Ref.-PCB ist halt die enorme Belastung auf das komplette PCB, bedingt durch die Größe.
...was aber bei anderen bisherigen Designs auch nicht anders ist, nur anders verteilt....


Naja, ich werde sehen wie sich meine zukünftige Nano im ITX Gehäuse (FT03) verhält.
Sehr schön :D


Edit: Die Spawas selber (bis 150°C Betriebstemperatur) sind ja nicht das Problem, eher das drumherum.
Welches drumherum?
Die ganzen (pfeifenden) Keramikkondensatoren oder was meinst du?

Blediator16
2015-09-03, 21:02:23
http://www.twitch.tv/amd

Stream startet jeden Moment. Dort gehts wohl um die Nano.

Skysnake
2015-09-03, 21:09:38
danke für den Link :up:

iuno
2015-09-03, 22:06:15
Läuft das schon? Bei mir kommt da nix

Blediator16
2015-09-03, 22:19:42
Schon seit 21 Uhrä :biggrin:

iuno
2015-09-03, 22:34:15
Hm strange ;D gabs denn interessante Infos?

Blediator16
2015-09-03, 22:37:13
http://i.imgur.com/bVml3Lf.jpg (http://imgur.com/bVml3Lf)

Na was wird da mitgekühlt? :rolleyes:

Nano hat übrigends auch einen Bios Schalter.

Unicous
2015-09-03, 22:49:55
Was ist daran neu?:confused:

http://images.bit-tech.net/news_images/2015/08/amd-r9-nano/amd_r9_nano_slides_3-1280x1024.jpg

http://www.bit-tech.net/news/2015/08/27/amd-r9-nano/1

Blediator16
2015-09-03, 22:58:31
Es wurde sich beschwert, dass die Spawas ungekühlt sind.

Botcruscher
2015-09-04, 09:10:47
So entstehen Gerüchte. Am Ende war es wieder jeder.
Dabei sah der Extrakühler der Nano zumindest recht gut aus.

Flusher
2015-09-04, 14:28:32
Bei der Fury-X gibts keine Alternative.

??? Bei der Fury-X sind die SpaWas sogar wassergekühlt, was für eine Alternative wünscht du dir denn da? LN2?

aufkrawall
2015-09-04, 14:57:54
Es schwirrte hier ein Bild mit Infrarot-Messung ohne Deckel rum, wo deutlich wurde, dass die eben alles andere als kühl bleiben.

Loeschzwerg
2015-09-04, 15:02:19
Eigentlich sagen die kurzen Videos von Igor alles.

-/\-CruNcher-/\-
2015-09-04, 16:13:22
haben will haben will *g*

wo bleiben die reviews gegen die GTX 970 OC die sind genau auf diese 75-80 °C in der Kurve getuned, genau wie angenommen.

Und vor allem DSR vs VSR auf beiden gegeneinander :)

Sie sparen 50 Watt im Design mit HBM krass wenn Nvidia HBM nutzt gehen die 50 Watt in die Performance bei Pascal + der finfet schrink gewinn.

Thunder99
2015-09-04, 16:14:25
10.9 ;)

y33H@
2015-09-04, 16:15:02
Das NDA ist das NDA ist das NDA ... kleines geiles Stück! ;D

M4xw0lf
2015-09-04, 16:25:26
... kleines geiles Stück! ;D
Vote for y33h@-autoban vor Graka-Launches :usad:

Palpatin
2015-09-04, 16:27:18
Das Gegenstück zur Nano: http://www.computerbase.de/2015-09/devil-13-dual-core-r9-390-powercolors-dual-grafikkarte-mit-zwei-grenada-gpus/
Vermutlich 4facher Verbrauch gleicher Preis 50%-100% mehr Leistung. :D

-/\-CruNcher-/\-
2015-09-04, 17:02:52
Naja das die sich hier auf die Schulter klopfen mit TFRC find ich ein wenig komisch es war eindeutig Nvidia die den Frame Limiter für Chinas Lan Kaffes als erste eingeführt haben fest im Treiber als Power Saving Marketing und zur Cost reduction für diese Kunden ;)

AMDs solution kam sehr viel später aber gut sie holen langsam auf VSR ist ja nichts anderes auch später als wie Nvidia zumindestens läuft es auf dem Display Controller der Nano bzw allen Furys ja Nativ in 4K somit ist da auch kein wirklicher Nachteil mehr sichtbar ;)

Höhere DSR/VSR Auflößungen sind Wirtschaftlich ja totaler unsinn ;)

y33H@
2015-09-04, 17:27:52
Kannst du dich ab und zu wenigstens ein bisschen verständlich ausdrücken? ;) ;) ;)

Unicous
2015-09-04, 17:31:31
Something, something AMDs Lösungskamm.


anyway

AMD: We are actively promoting HBM and do not collect royalties (http://www.kitguru.net/components/graphic-cards/anton-shilov/amd-we-are-actively-promoting-usage-of-hbm-and-do-not-collect-royalties/)

Advanced Micro Devices is currently the only company to use high-bandwidth memory it co-developed with SK Hynix and other partners. While usage of HBM is clearly a competitive advantage that AMD has over its rivals, the company is encouraging others to use the new memory type and does not intend to collect any royalties for HBM.

Earlier this week a web-site reported that Nvidia will delay adoption of HBM because of royalties demanded by AMD for its HBM-related intellectual property. In particular, it is reported that 2.5D GPU packaging used for the “Fiji” graphics processing unit is covered by AMD’s patents and Nvidia either needs to design its own package or pay licensing fees to its rival. According to AMD, this is not true.

“AMD is not involved in collecting any royalties for HBM,” said Iain Bristow, a spokesman for AMD. “We are actively encouraging widespread adoption of all HBM associated technology on [Radeon R9] Fury products and there is no IP licensing associated.”

Advanced Micro Devices owns a number of patents covering HBM, but as that intellectual property is a part of JEDEC’s JESD235 standard, it has to be licensed to applicants desiring to implement the standard “either without compensation or under reasonable terms and conditions that are free of any unfair discrimination.” Moreover, AMD and Nvidia have a broad cross-licensing agreement, which largely prevents royalty demands.

-/\-CruNcher-/\-
2015-09-04, 17:42:41
Interessant ist der der Performance Unterschied find ich interessant wie er erwähnt das es 60 vs 66 FPS sind ;)

Er deutet ja auch an die Nano kann fast die Komplette Leistung der Fury X fahren bin da echt gespannt es würde ja bedeuten das sie sich teils sogar vor die normale Fury Pro setzen wird.

Blediator16
2015-09-04, 19:26:30
http://www.hardocp.com/news/2015/09/04/breaking_news_nvidia_introduces_its_nano_competitor_nito#.VenUBvm8PRZ

H bekommt auch keine Karte und haben diesen Artikel geschrieben.

Man weiß dann welches Review man am Ende mit einer LKW Ladung Salz anschauen sollte.

Tamagothi
2015-09-04, 19:51:26
Ich Brech weg :ulol:

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=53162&stc=1&d=1441388876

N0Thing
2015-09-04, 20:09:40
Ist jetzt 1. April auf der Südhalbkugel? Der Text von hardocp liest sich ja eher wie eine Parodie als eine ernst gemeinte News.

Blediator16
2015-09-04, 20:11:02
Die machen sich über AMD lustig. Nach dem Motto "einfach kleineres PCB, Takt runter Spannung runter kann jeder" in Verbindung mit dem Preis natürlich.

Unicous
2015-09-04, 20:17:41
Die sind butthurt weil sie kein Exemplar bekommen. Langsam artet es aber mal wieder zu einem AMD'schen facepalm aus.

Tech Report TPU und HardOCP bekommen keine Karten. Bei den letzten Beiden kann ich es verschmerzen, aber Scott Wassons Artikel sind zumindest gut geschrieben und liefern Hintergrundwissen.

Was AMD wider abzieht ist unter aller Sau, aber wie TPU und HardOCP reagieren ist mindestens genauso daneben. Wenn man ein Produkt vorverurteilt muss man sich nicht wundern wenn das nicht gut beim Hersteller ankommt, das soll aber nicht AMDs Verhalten relativieren.

captain_drink
2015-09-04, 20:32:04
If you are going to PAPER launch a card, be ready for some PAPER opinions.

Definitiv butthurt. Umgekehrt kann man natürlich auch nicht viel zu etwas sagen, wenn man kein Sample erhält.

"Paper" schreibt er übrigens wirklich durchgehend all caps.

Blediator16
2015-09-04, 20:35:49
Allerdings weiß man aktuell auch nicht wieso sie keine bekommen.

Knuddelbearli
2015-09-04, 20:42:51
Na wenn sie so einen Dampf ablassen nur weill sie keine bekommen weiss man Zumindest wieso in Zukunft nicht ...

dachte zuerst auch ich habe hier ne News vom 1 April vor mir ...

captain_drink
2015-09-04, 20:48:02
Er ist anscheinend sauer, weil er zwar beim PAPER Launch noch eingeladen wurde, jetzt aber kein Sample bekommen hat.
Ob das unbedingt den Unterschied macht, naja...

Unicous
2015-09-04, 20:50:38
@captain_drink

iirc hatte er sich auch über den Preis ausgelassen (wie TPU jetzt auch). Das kann man gerne beim Fazit am Ende des Reviews machen aber nicht im Vorfeld. Außerdem soll er beim conference call aufgelegt haben.

Dass AMD den Müll mit dem pre-launch macht ist dumm, aber es ist genauso unprofessionell sich darüber zu echauffieren. Zumal es Intel mit Skylake ähnlich abgezogen hat und Nvidia in der Vergangenheit auch schon. War es die Titan Z, bei der sie keine samples verschickt haben?

captain_drink
2015-09-04, 20:54:36
Yep, das war die Z.

horn 12
2015-09-04, 21:45:47
http://wccftech.com/gigabyte-reveals-r9-nano-sff-graphic-card/

Gigabyte Nano mit alternativem Bios?

Kartenlehrling
2015-09-04, 23:14:00
Das man eine 2500€ Karte (titanZ) nicht wie Sahnebonbons verteil ich klar.
ht4u.net bekommt auch nicht immer ein Testexemplar und heult nicht so rum, natürlich ist das ärgerlich.

Blediator16
2015-09-04, 23:19:45
Von der Titan Z gab es nichtmal einen offiziellen Test.

Tamagothi
2015-09-04, 23:45:51
Als würde Nvidia es sich nicht leisten können ein paar TitanZ bereit zu stellen :rolleyes:

iuno
2015-09-04, 23:50:04
http://wccftech.com/gigabyte-reveals-r9-nano-sff-graphic-card/

Gigabyte Nano mit alternativem Bios?
Wie kommst du drauf?
Der schreibt von einem neuen Algorithmus fürs "power throttling" ggü. der Fury X und einem Standardtakt von 1 GHz + (unbekannter) Boost :rolleyes:
"Artikel" lohnt nicht.
Die Infos beziehen sich auch allgemein auf die Nano, nicht auf Gigabyte.

Skysnake
2015-09-05, 01:09:15
Something, something AMDs Lösungskamm.


anyway

AMD: We are actively promoting HBM and do not collect royalties (http://www.kitguru.net/components/graphic-cards/anton-shilov/amd-we-are-actively-promoting-usage-of-hbm-and-do-not-collect-royalties/)
[quote]

Zitat:
Advanced Micro Devices is currently the only company to use high-bandwidth memory it co-developed with SK Hynix and other partners. While usage of HBM is clearly a competitive advantage that AMD has over its rivals, the company is encouraging others to use the new memory type and does not intend to collect any royalties for HBM.
Zitat:
Earlier this week a web-site reported that Nvidia will delay adoption of HBM because of royalties demanded by AMD for its HBM-related intellectual property. In particular, it is reported that 2.5D GPU packaging used for the “Fiji” graphics processing unit is covered by AMD’s patents and Nvidia either needs to design its own package or pay licensing fees to its rival. According to AMD, this is not true.

“AMD is not involved in collecting any royalties for HBM,” said Iain Bristow, a spokesman for AMD. “We are actively encouraging widespread adoption of all HBM associated technology on [Radeon R9] Fury products and there is no IP licensing associated.”

Advanced Micro Devices owns a number of patents covering HBM, but as that intellectual property is a part of JEDEC’s JESD235 standard, it has to be licensed to applicants desiring to implement the standard “either without compensation or under reasonable terms and conditions that are free of any unfair discrimination.” Moreover, AMD and Nvidia have a broad cross-licensing agreement, which largely prevents royalty demands.
[/quote9



Steh ich gerade voll auf dem Schlauch, oder widersprechen sich nicht die beiden fett markierten Teile? :confused:

Also auf der einen Seite meinen Sie, das man gar keine Royalties abführen muss, dann sagen Sie aber wieder, man müsse überwiegend keine, und wenn dann faire...

Also wenn man gar keine zahlen müsste, wäre es auch meinen Augen schon etwas "dumm". FRAND like bekommt man eigentlich immer durch.

dildo4u
2015-09-05, 01:31:01
Das Cross Lizenz abkommen würde das eh überschreiben.Sonst wäre das ja wertlos wenn sie nicht mal Jedec spezifizierte Ram Technologie ohne Gebühren nutzen können.Deshalb gibt's ja so ein abkommen,ohne das könnte keiner von beiden ihre GPU's bauen,vermutlich gleicht sich Heute der Aufbau ihre GPU's mehr als das er sich unterscheidet.

Skysnake
2015-09-05, 01:40:13
da steht aber ausdrücklich "largely" bezüglich dem cross-licensing. Also gibt es durchaus Gebühren.

Wie gesagt, an sich widersprechen sich die beiden Aussagen.

Unicous
2015-09-05, 01:43:12
Ja, stehst du. Da die Patente von AMD essentiell für HBM sind, das wiederum ein JEDEC-Standard ist, werden entweder gar keine Lizenzen fällig oder zu FRAND-Bedingungen. Hatte ich schon erwähnt und Iain Bristow gibt lediglich die offiziellen guide lines der JEDEC wieder.

AMD bzw. Iain Bristow behauptet, sie würden gar keine Lizenzen verlangen, also kann man annehmen, dass HBM lizenzfrei ist. Das sage ich ja die ganze Zeit.

Da Nvidia und AMD (entweder laut dem Autor, oder AMD) eh ein cross-licensing-Abkommen haben, gibt es eh keinen Lizenz-Disput, weil das Abkommen das abdeckt.

Logisch und schlüssig.

edit:

Da steht largely prevents, das Lizenzabkommen schließt im Großen und Ganze jegliche Lizenzforderungen aus . Es könnte natürlich vereinzelt Forderungen geben, ob das wirklich so ist, steht da nicht. Und an sich ist largely prevents auch eindeutig.

StefanV
2015-09-05, 01:57:18
Ja und was ist, wenn das, was AMD aktuell nutzt, gar keine AMD Patente sind sondern die von den Zulieferern kommen und AMD Exklusive Verträge mit denen hat?!

Da steht nur HBM, aber betrifft das auch den Interposer, das Zusammensetzen??

Unicous
2015-09-05, 02:10:34
Ich weiß nicht wie oft ich es noch sagen soll. TSMC arbeitet mit genauso vielen Unternehmen zusammen wie die anderen Foundries auch. Einer ihrer Partner ist sogar Amkor, derselbe Partner mit dem AMD und GF an Stacking, Interposern, TSVs etc. geforscht hat.

Ich habe eine aktuelle .pdf mit einer roadmap von TSMC für 2015 gepostet in der TSMC behauptet, dass für 8-Hi HBM Stacks die Validierung in der zweiten Jahreshälfte abgeschlossen sein soll.

Darüber hinaus stellt Samsung HBM Stacks her. Es gibt also mindestens einen zweiten Fertiger neben SK hynix.

Ich verstehe wirkklich nicht, warum Nvidia Probleme haben sollte Pascal zu fertigen. Ich verstehe es einfach nicht. Warum sollten die Unternehmen TSMC die Partnerschaft aufkündigen und sie davon abhalten eventuelle Fertigungsverfahren zu nutzen, wenn sie jahrelang gut zusammengearbeitet haben. Ist ja nicht so, dass Amkor als Zulieferer finanziell unabhängig wäre und es sich leisten kann da einfach auszusteigen.

Skysnake
2015-09-05, 02:30:54
Something, something AMDs Lösungskamm.


anyway

AMD: We are actively promoting HBM and do not collect royalties (http://www.kitguru.net/components/graphic-cards/anton-shilov/amd-we-are-actively-promoting-usage-of-hbm-and-do-not-collect-royalties/)
Ja, stehst du. Da die Patente von AMD essentiell für HBM sind, das wiederum ein JEDEC-Standard ist, werden entweder gar keine Lizenzen fällig oder zu FRAND-Bedingungen. Hatte ich schon erwähnt und Iain Bristow gibt lediglich die offiziellen guide lines der JEDEC wieder.

Aha udn FRAND Lizenzgebühren sind keine Lizenzgebühren nach der Logik oder was :freak:


AMD bzw. Iain Bristow behauptet, sie würden gar keine Lizenzen verlangen, also kann man annehmen, dass HBM lizenzfrei ist. Das sage ich ja die ganze Zeit.

Da Nvidia und AMD (entweder laut dem Autor, oder AMD) eh ein cross-licensing-Abkommen haben, gibt es eh keinen Lizenz-Disput, weil das Abkommen das abdeckt.

Logisch und schlüssig.

edit:

Da steht largely prevents, das Lizenzabkommen schließt im Großen und Ganze jegliche Lizenzforderungen aus . Es könnte natürlich vereinzelt Forderungen geben, ob das wirklich so ist, steht da nicht. Und an sich ist largely prevents auch eindeutig.
Also wenn es wirklich keine Lizenzgebühren geben würde, dann würde man das nicht so geschwollen hinklatschen, um sich doch die Möglichkeit offen zu lassen, das es welche gibt.

Es reicht ja schon eine Einzige Lizenzgebühr aus, damit es eben nicht mehr stimmt, das es völlig frei ist von Gebühren, und ja da zählen auch FRAND Lizenzbegühren logischerweise dazu. Hier mal 10 Cent, und dort einen Dollar. Das summiert sich verdammt schnell.

Gab es da nicht mal eine Auflistung, nach der die Kosten eines heutigen Smartphones zu >50% aus Lizenzgebühren bestehen?

N0Thing
2015-09-05, 02:52:31
Ja und was ist, wenn das, was AMD aktuell nutzt, gar keine AMD Patente sind sondern die von den Zulieferern kommen und AMD Exklusive Verträge mit denen hat?!

Da steht nur HBM, aber betrifft das auch den Interposer, das Zusammensetzen??

Dann wird Nvidia das schon mit ihren Zulieferer regeln. Nur würde AMD dann kein Geld sehen, sondern die Zulieferer, die keinen Grund haben Nvidia auszuschließen. Die werden dann eben sowohl von AMD wie auch von Nvidia entsprechende Gebühren verlangen. Bei den aktuellen Marktanteilen würde sich ein Zulieferer ja selber ins Knie schießen, wenn er die Patente nur an AMD zur Nutzung frei gibt.


Aha udn FRAND Lizenzgebühren sind keine Lizenzgebühren nach der Logik oder was :freak:


Ne, nach der Logik könnten sie Gebühren nehmen, machen es aber aber nicht.

Unicous
2015-09-05, 03:06:24
Es ist echt traurig mit dir Skysnake.

JEDEC verlangt von seinen Mitgliedern, dass sie ihre Technologien lizenzfrei für die jeweilige Spec/Standard an der sie mitarbeiten zur Verfügung stellen: das ist das vordergründige Ansinnen eines offenen Standards.
Nur in Ausnahmefällen soll es auch die Möglichkeit geben Lizenzen zu nehmen. Und dann ausschließlich zu FRAND-Bedingungen. Wird das nicht erfüllt, wird es kein Standard, bzw. nicht in die Spec aufgenommen. Gibt natürlich immer Arschlöcher wie z.B. Rambus, die denken sie könnten fett absahnen in dem sie auf einmal Patente aus dem Hut zaubern nachdem ein Standard verabschiedet worden ist, aber ich glaube seitdem ist die JEDEC noch einmal deutlich strenger was die Offenlegung von Patenten angeht.


AMD sagt explizit, dass sie keine Lizenzgebühren verlangen und es auch nicht in Betracht ziehen.

Und dennoch zweifelst du die Aussagen an. Was soll man da noch sagen.:confused:

Hübie
2015-09-05, 03:29:45
Ja und was ist, wenn das, was AMD aktuell nutzt, gar keine AMD Patente sind sondern die von den Zulieferern kommen und AMD Exklusive Verträge mit denen hat?!

Da steht nur HBM, aber betrifft das auch den Interposer, das Zusammensetzen??

Mit dir wirds auch nie langweilig, was? :freak: Was soll man da patentieren? Weder AMD noch Amkor oder so haben die Maschinen gebaut bzw. diese Idee entwickelt. IBM macht das auch schon eine ganze Weile in seinen Labors.
AMD ging eine strategische Partnerschaft mit SK Hynix ein, damit die halt sagen können: FIRST! (okay ein wenig mehr steckt schon dahinter:biggrin:).

horn 12
2015-09-05, 09:26:24
FURY von Sapphire gut verfügbar, die OC Version jener Fury ist nur mehr schwach lieferbar
Ebenos die Fury X Karten, kaum Neue kommen rein.
Asus Fury auch kaum lieferbar.

Wird somit alles auf die Nano gesetzt, sprich man will in "hoher Quantität" liefern
und wohl auch dabei am meisten verdienen, wenn der Preis echt bei 650 Euro liegen sollte.
Die Herstellung sollte ja vor 5 bis 6 Wochen drastisch erhöht worden sein, die Fury / Fury X Karten bleiben aber aus!?

Hübie
2015-09-05, 09:30:00
Ohne es zu wissen tippe ich einfach auf suboptimale Yields des Package und geringe, gebuchte Kapazität des Fiji Dies. Die Verfügbarkeit ist ja echt nicht berauschend.

Skysnake
2015-09-05, 10:31:58
Ne, nach der Logik könnten sie Gebühren nehmen, machen es aber aber nicht.
Ja für HBM direkt nehmen Sie keine. Sie nehmen aber für andere Dinge Lizenzgebühren. Die Frage ist, für was.

Es ist echt traurig mit dir Skysnake.

JEDEC verlangt von seinen Mitgliedern, dass sie ihre Technologien lizenzfrei für die jeweilige Spec/Standard an der sie mitarbeiten zur Verfügung stellen: das ist das vordergründige Ansinnen eines offenen Standards.
Nur in Ausnahmefällen soll es auch die Möglichkeit geben Lizenzen zu nehmen. Und dann ausschließlich zu FRAND-Bedingungen. Wird das nicht erfüllt, wird es kein Standard, bzw. nicht in die Spec aufgenommen. Gibt natürlich immer Arschlöcher wie z.B. Rambus, die denken sie könnten fett absahnen in dem sie auf einmal Patente aus dem Hut zaubern nachdem ein Standard verabschiedet worden ist, aber ich glaube seitdem ist die JEDEC noch einmal deutlich strenger was die Offenlegung von Patenten angeht.

Jup, für HBM nehmen Sie keine Gebühren. Wie oben schon gesagt ist aber die verdammt spannende Frage, wie man denn HBM nach Standard definiert. Im Prinzip müsste man den HBM Standard Wort für Wort durchgehen und schauen, wie detailiert das alles geregelt ist.

Ich vermute z.B. sehr stark, das man bezüglich Validierung der fertigen Chips nicht viel im Standard finden wird. Genauso wie man wahrscheinlich wenig dazu finden wird, wie man z.B. durch Redundanzen die Yields hoch bekommt.


AMD sagt explizit, dass sie keine Lizenzgebühren verlangen und es auch nicht in Betracht ziehen.

Für HBM...


Und dennoch zweifelst du die Aussagen an. Was soll man da noch sagen.:confused:
Nein, ich zweifle gar nicht an ihren Aussagen. Ich lese nur genau. Das ist doch genau die gleiche Masche die nVidia immer abzieht. Man sagt A und C, lässt aber einfach mal B weg und die Leute folgern dann A+C->E in Wirklichkeit ist es aber A+B+C->D

Die ganze Formuliererei da stinkt einfach. Sie lügen sicherlich nicht, aber die Wahrheit sagen Sie auch nicht. Vielleicht bin ich da etwas paranoid bei AMD, weil Sie so etwas an sich nicht machen, aber bei BD hat man es gemacht und auch ei Fury bezüglich OC hat man es gemacht... Und ansonsten versucht man in der Branche ständig die Leute so an der Nase herum zu führen.

Kriton
2015-09-05, 11:44:34
Steh ich gerade voll auf dem Schlauch, oder widersprechen sich nicht die beiden fett markierten Teile? :confused:

Also auf der einen Seite meinen Sie, das man gar keine Royalties abführen muss, dann sagen Sie aber wieder, man müsse überwiegend keine, und wenn dann faire...

Also wenn man gar keine zahlen müsste, wäre es auch meinen Augen schon etwas "dumm". FRAND like bekommt man eigentlich immer durch.

Die 2. Aussage ist abstrakt auf JEDEC-Standards bezogen, das ist ja auch kein AMD-Zitat mehr. Da ist also kein Widerspruch.
Die 2. Aussage sagt nur was theoretisch machbar wäre bei JEDEC, die 1. Aussage was man tatsächlich tut (bei HBM).

-/\-CruNcher-/\-
2015-09-05, 12:21:18
Die sind butthurt weil sie kein Exemplar bekommen. Langsam artet es aber mal wieder zu einem AMD'schen facepalm aus.

Tech Report TPU und HardOCP bekommen keine Karten. Bei den letzten Beiden kann ich es verschmerzen, aber Scott Wassons Artikel sind zumindest gut geschrieben und liefern Hintergrundwissen.

Was AMD wider abzieht ist unter aller Sau, aber wie TPU und HardOCP reagieren ist mindestens genauso daneben. Wenn man ein Produkt vorverurteilt muss man sich nicht wundern wenn das nicht gut beim Hersteller ankommt, das soll aber nicht AMDs Verhalten relativieren.

Jep HardOCP kann man vergessen aber Tech Report Scott Wasson war immer fair auch wenn er sehr geschätzt wird von Nvidia raff ich diese Entscheidung AMDs nicht.
Glaube AMD hat Angst das die Vorteile der Nano gegenüber der GTX 970 zu sehr gewichtet werden da die Workloads immernoch sehr Pro Nvidia sind und der Preis die Nano vernichtet gegenüber des relativen Performance Gewinns vor allem in einem 4K@30 FPS locked Szenario.

Das ist jedenfalls genau das was ich selbst herausfinden will, deswegen ist mir der Preis aber auch erstmal Schnuppe ;)

Hoffe THG schaut sich das auch sehr genau an :)

Unicous
2015-09-05, 12:37:24
@Skysnake

Du magst zwar behaupten, du würdest genau lesen, dabei machst du aber nichts anderes als in die Leere zwischen den Zeilen etwas hineinzuinterpretieren um deinen Narrative zu füttern.


One of the core values that JEDEC brings to the industry is the ability to develop standards spanning the breadth of the electronics industry– from components to packaging, test methods, and quality and reliability. JEDEC standards address the needs of all segments of the industry, from device manufacturers to end consumers.

https://www.jedec.org/standards-documents/about-jedec-standards

Nakai
2015-09-05, 14:12:46
Mhh, hast du dir schon die JEDEC Specs für HBM angeguckt?
Also wirklich das Dokument gelesen? JESD235. Ich habs vor mir liegen und da steht Folgendes zu:

One of the core values that JEDEC brings to the industry is the ability to develop standards spanning the breadth of the electronics industry– from components to packaging, test methods, and quality and reliability. JEDEC standards address the needs of all segments of the industry, from device manufacturers to end consumers.

Packaging:
Wird nicht in den HBM-Specs erwähnt bzw. es wird darauf verwiesen, das die es nicht tun.

Test Methods:
Werden nicht definiert, jedenfals nicht, wie man es normalerweise kennt, mit definierten Test Cases etc.

Quality and Reliability:
Wird nicht definiert.

Es wird stattdessen auf Boundary Scan Standard IEEE1500 verwiesen, welcher das genauer definiert. Tatsächlich werden natürlich viele Test Ports im JESD235 definiert. welche größtenteils vendor-spezifisch sind.

Kurz, der gesamte HBM Standard ist ziemlich...mhh...vaage.

StefanV
2015-09-05, 14:27:38
Mit dir wirds auch nie langweilig, was? :freak: Was soll man da patentieren? Weder AMD noch Amkor oder so haben die Maschinen gebaut bzw. diese Idee entwickelt. IBM macht das auch schon eine ganze Weile in seinen Labors.
AMD ging eine strategische Partnerschaft mit SK Hynix ein, damit die halt sagen können: FIRST! (okay ein wenig mehr steckt schon dahinter:biggrin:).
Hast du auch irgendwelche Argumente, die deinen Standpunkt untermauern oder ist das nur Wunschdenken deinerseits?!

WARUM sollte man solche Dinge NICHT schützen?! DAS wäre ja echt dämlich.
Zumal man selbst ja einige Millionen Dollar versenkt und der nächste setzt sich ins gemachte Nest?!

Ja, nee, is klar, Mann...
Das macht man natürlich sofort...
Zumal man auch weiß, dass es dort solche Schmeißfliegen gibt, die wenig bis gar kein Geld in die Entwicklung neuer Dinge investieren...



Aber hier sind wir mal wieder an dem Punkt angelangt, an dem man dir unterstellen muss, dass du AMD flamst und 'den anderen' versuchst zu huldigen...

Nakai über mir hat es ja schon sehr gut erkannt!
Die Spec für HBM beinhaltet eben NICHT Packaging, Testing, Validation...
Also das ganze Zeugs, was WIRKLICH interessant ist...

Oh und wie schaut es eigentlich mit den HBM Speichercontrollern aus?!
Gibts in diesem Bereich vielleicht auch Patente?
Gibts nicht vielleicht auch Patente zur bestimmten Implementationen von HBM?!
Wie eben die Leitungen verlegt werden müssten usw...

Unicous
2015-09-05, 14:31:12
Nakai

Wer sagt denn, dass das in HBM Spec stehen muss?:confused:

Die JEDEC hat mehrere Commitees die sich exakt darum kümmern. Dafür das du Zugriff zu der Spec hast, scheinst du dich irgendwie eher wenig über den Standards Body informiert zu haben.

Da wäre zum Einen das hier (habe ich in wenigen Sekunden gefunden, ich frage mich ob es wirklich so schwer ist mal das Gehirn und Google zu benutzen:eek:):

https://www.jedec.org/standards-documents/results/jep158

3D CHIP STACK WITH THROUGH-SILICON VIAS (TSVS): Identifying, Evaluating and Understanding Reliability Interactions JEP158 Nov 2009

und generell die Commitees die sich darum kümmern

Mechanical (Package Outlines) Standardization JC-11

The committee and its subcommittees generate design guidelines, standardized measuring methods for mechanical features, and standard- or registration-type mechanical outlines for microelectronic packages and assemblies, corresponding socket outlines, mechanical, environmental and ergonomic performance specifications, footprints and land patterns, and development of designators for semiconductor device packages. To accomplish these functions, the committee provides technical support and design recommendations to establish and define parameters that ensure mechanical interchangeability of parts.

https://www.jedec.org/committees/jc-1114-2

Thermal Characterization Techniques for Semiconductor Packages JC-15
Activities within JC-15’s scope include the standardization of thermal characterization techniques, both testing and modeling, for electronic packages, components, and materials for semiconductor devices.
https://www.jedec.org/committees/jc-152-2

Man wird sicherlich noch andere Specs finden die sich im Allgemeinen auf HBM beziehen, weil sie nicht nur für HBM Stacks verwendet werden sondern für alles Mögliche.

Hübie
2015-09-05, 14:45:37
Hast du auch irgendwelche Argumente, die deinen Standpunkt untermauern oder ist das nur Wunschdenken deinerseits?!

WARUM sollte man solche Dinge NICHT schützen?! DAS wäre ja echt dämlich.
Zumal man selbst ja einige Millionen Dollar versenkt und der nächste setzt sich ins gemachte Nest?!

Ja, nee, is klar, Mann...
Das macht man natürlich sofort...
Zumal man auch weiß, dass es dort solche Schmeißfliegen gibt, die wenig bis gar kein Geld in die Entwicklung neuer Dinge investieren...



Aber hier sind wir mal wieder an dem Punkt angelangt, an dem man dir unterstellen muss, dass du AMD flamst und 'den anderen' versuchst zu huldigen...

Nakai über mir hat es ja schon sehr gut erkannt!
Die Spec für HBM beinhaltet eben NICHT Packaging, Testing, Validation...
Also das ganze Zeugs, was WIRKLICH interessant ist...

Oh und wie schaut es eigentlich mit den HBM Speichercontrollern aus?!
Gibts in diesem Bereich vielleicht auch Patente?
Gibts nicht vielleicht auch Patente zur bestimmten Implementationen von HBM?!
Wie eben die Leitungen verlegt werden müssten usw...

Bei dir merkt man einfach dass du Null Ahnung von dem Business hast :rolleyes:
Und an welcher Stelle genau flame ich jetzt AMD? :|X-D Dir ist wirklich nicht zu helfen. Ich hätte auch gern soviel Zeit wie du um mir meine Plastikwelt zu bauen. Es steht dir frei die Patente diesbezüglich zusammen zu suchen (Google is ur friend).
Natürlich nimmt nVidia in deiner Welt eine Technologie die AMD erfunden hat und der Welt zur Verfügung stellt ohne etwas dafür bezahlt zu haben. Ist ja klar...

@Unicous: Samsung hatte eine PM zu DDR4 Stacks herausgebracht, aber zu Graphics habe ich keine im Kopf. Kannst du mir das mal bitte verlinken oder ist es noch nix offizielles?

Unicous
2015-09-05, 14:53:33
Was meinst du mit Samsung? Dass sie HBM herstellen?

Einfach "Samsung HBM" googleln und nicht auf den WTF-Tech Link klicken.:wink:

Samsung fertigt High Bandwidth Memory ab 2016 (http://www.computerbase.de/2015-08/idf-2015-samsung-fertigt-high-bandwidth-memory-ab-2016/)

http://pics.computerbase.de/6/7/3/3/5/4-630.2521133515.jpg

Knuddelbearli
2015-09-05, 15:51:17
kann ein netter Mod die HBM Patent Sache bitte auslagern hat ja eigentlich absolut nix mit dem Thema zu tun

Nakai
2015-09-05, 15:56:55
Nakai

Wer sagt denn, dass das in HBM Spec stehen muss?:confused:



Ich hab bereits IEEE-1500 erwähnt und klar gibt es mehr. Und selbstverständlich steht in den Specs sehr oft drin, dass es durch Vendor-spezifische Erweiterungen definiert wird.

http://grouper.ieee.org/groups/1500/

Man wird sicherlich noch andere Specs finden die sich im Allgemeinen auf HBM beziehen, weil sie nicht nur für HBM Stacks verwendet werden sondern für alles Mögliche.

Ja da gibt es einige...das Problem ist, dass die ganzen Commitees viele Guidelines und Best Practices ausstellen. Das ist auch nicht die Aufgabe von IEEE. Spezifikationen werden durch erweiterte Dokument verständlich gemacht und man gibt Richtlinien aus, wie etwas zu erfüllen ist. Grundsätzlich ist das auch richtig so, denn das muss besser und genauer seitens der Vendors definiert und gemacht werden.

Ich zitiere einfach mal, was alles seitens diesem Dokument (https://www.jedec.org/standards-documents/results/jep158) referenziert wird:

JEP122, Failure Mechanisms and Models for Silicon Semiconductor Devices.
JEP131, Process Failure Modes and Effect Analysis (FMEA).
EP150, Stress-test-Driven Qualification of and Failure Mechanisms Associated with Assembled Solid State Surface-Mount Components.
JEP154, Guideline for Characterizing Solder Bump Electromigration Under Constant Current and Temperature Stress.
JEP156, Chip Package Interaction Understanding, Identification and Evaluation Guideline.
Handbook of 3D Integration, Volume I and II, P. Garrou, C. Bower and P. Ramm, Ed, Wiley-VCH.
JESD22, Reliability Test Methods for Packaged Devices.
JESD47,Stress-Test-Driven Qualification of Integrated Circuits.
JESD74, Early Life Failure Rate Calculation Procedure for Electronic Components. JESD85, Methods for Calculating Failure Rate in Units of FITs.
JESD91, Method for Developing Acceleration Models for Electronic Component Failure Mechanisms.
JESD94, Application Specific Qualification using Knowledge Based Test Methodology.
J-STD-020, Joint IPC/JEDEC Standard for Moisture/Reflow Sensitivity Classification for Nonhermetic Solid State Surface-Mount Devices.
J-STD-033,Joint IPC/JEDEC Standard for Handling, Packing, Shipping and Use of Moisture/Reflow Sensitive Surface-Mount Devices.


Die Dokumente sind teilweise sehr detailiert und teilweise wirklich nur oberflächlich.