PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 [23] 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56

Sunrise
2015-05-12, 13:47:05
Es hatten einige Fiji schon in Ihren Händen. Wenn AMD aber nichts weiter über Fiji Preis gibt, dann ist das zwar super für diejenigen, die das Ding gesehen haben, bringt Ihnen aber nichts, wenn AMD ihnen sonst keine weiteren Daten an die Hand gibt.

Und genau das wird aktuell auch so sein. Tote HW ohne Infos bringt einfach nichts. Was willst du da leaken außer evtl. ein paar Bilder der Karte.

Allerdings ist es auffällig, dass kein AIB Bilder leakt. Entweder kontrolliert AMD hier sehr genau die Kette (Die, Packaging, PCBs) oder aber es kommen alle Karten von AMD bzw. Sapphire oder wie auch immer.

AMD scheint da sehr vorsichtig sein, evtl. stimmen ja die 4GB und man will keinen "Shitstorm" auslösen, weil ich nicht wissen will, wie die Foren abgehen, wenn das wirklich so kommt (ob begründet oder unbegründet, das ist den meisten egal, gemeckert wird immer) sondern direkt mit ein paar Benches gegensteuern. Alles ist möglich.

fondness
2015-05-12, 13:51:02
Das ist nicht der erste Launch von AMD wo es vorab kaum Leaks gibt. Auch über Hawaii wusste man erst Bescheid als er offiziell präsentiert wurde. Das scheint also seit längerer Zeit Firmenkultur zu sein, ich würde da nichts hinein interpretieren.

OBrian
2015-05-12, 13:52:07
Die genaueste Information, die es gibt, ist von Lisa Su höchstselbst, die meinte, die kommenden GPUs würde in einigen Wochen bei einem "Industrie-Event" vorgestellt (wer den genauen Wortlaut raussuchen will: Das kam irgendwo im Q&A am Ende des FAD). Was natürlich vermuten läßt, daß damit die Computex gemeint ist, so viele Events gibt es in den nächsten Wochen ja nicht, und bei mehr als sagen wir mal 8 Wochen redet man ja von Monaten und nicht mehr Wochen. Aber darüber hinaus weiß keiner was. Wenn es Vorinformationen unter NDA für die Presse gibt, dann üblicherweise wenige Tage vorher, nicht wochenlang schon. Wenn z.B. der erste Juni wird, dann würde ich mal ab 25. Mai auf Leaks hoffen, frühestens.


Was jedenfalls optimistisch stimmt, sind die finanziellen Aussichten. Einerseits soll die durchschnittliche Marge von AMD-Produkten insgesamt nach oben gehen, von 32 Richtung 34 %, und das eigentlich nur durch das erneuerte GPU-Portfolio, das läßt also auf hochpreisige Karten schließen, die in größerer Stückzahl umgesetzt werden. Was ja nur passieren kann, wenn sie das Geld auch wert sind. Und Su sagte, sie wollen den GPU-Marktanteil im Bereich der guten Margen erhöhen. Das geht ja auch nur, wenn man ein Produkt zu einem besseren Preis-Leistungs-Verhältnis anbietet als die Konkurrenz - aber da das AMD bisher schon gemacht und dabei Anteile verloren hat, müßte man folgern, daß da noch was erheblich anderes passieren wird, was die Attraktivität deutlich steigert, und das eben mit Preissteigerung statt Preissenkung.

Das spricht eigentlich eher gegen Umbenennungen der uralten Chips. Die gibt es zwar, wie die AMD-Seite schon verkündet, aber das kann ja auf den OEM-Bereich beschränkt bleiben. Ein voller Tonga, der Tahiti-Karten ersetzt, senkt sicherlich die Fertigungskosten etwas, aber das allein kann es ja nicht schon sein. Und von Fiji, sei die Karte noch so toll, wird man sicherlich nicht so extrem viel umsetzen, daß das allein die Gesamtmarge AMDs (wo alle CPUs, APUs, Konsolenchips usw. eingerechnet sind!) nennenswert bewegen kann.

Thunder99
2015-05-12, 13:57:02
Was spricht gegen ein Respin von Hawaii?

OBrian
2015-05-12, 14:11:59
naja, der Umstand, daß der Chip durch Umbenennung nicht attraktiver wird und nicht billiger herzustellen ist (vielleicht etwas bessere Ausbeute als anfangs, aber gleiche Diefläche, gleichaufwendige Platine), damit kann man keine konzernweiten Durchschnittsmargen steigern und gleichzeitig noch Marktanteile dazugewinnen.

Ich würde ja auch eher tippen, daß Hawaii noch erhalten bleibt, aber der alte Pitcairn durch einen billiger herzustellenden Chip (kleiner und mit 128bit SI) ersetzt wird. Der dicke Pitcairn als Brot- und Butter-Karte für 100€ zerrt sicherlich stark an der Marge.

Tja, oder das war einfach Gelaber für die Analysten, hinterher kommt nix bei rum. Weiß man nie.

Ravenhearth
2015-05-12, 14:18:29
Soo teuer dürfte Pitcairn hinsichtlich der Fläche gar nicht sein, dass man da dringend einen kleineren braucht. Das SI ist aber natürlich was anderes.

HOT
2015-05-12, 14:28:51
Denke auch, dass Trinidad kein Rebrand ist, sondern eben ein aktualisierter Pitcairn mit HBM oder 128Bit.
Wenn man Hawaii rebranded, dann müsste man eigentlich auch das Speicherinterface beschneiden und das Teil auch niedriger takten, deshalb seh ich dahingehend eigentlich keine Perspektive, auch der müsste zwingend erneuert werden. Ein Chip ohne DP-Gedöns, mit 256Bit oder HBM und der gleichen Shaderzahl wär sehr wünschenswert. Alternativ könnte es ein Hawaii Respin mit neuen VRMs und 384Bit Speicher tun, das kann aber nur ne Notlösung sein.

OBrian
2015-05-12, 14:39:19
ja, ich weiß auch nicht, wie die das schaffen wollen, mit weiterhin 28-nm-Fertigung und praktisch unveränderter GPU-Architektur. Wo soll es denn herkommen.

aktualisierter Pitcairn mit HBMdas geht ja nun nicht, mit HBM wäre es wohl wirklich was deutlichst anderes als Pitcairn^^ selbst bei gleicher Shaderanzahl.

Aber HBM bietet einfach zuviel Bandbreite. Wenn HBM bei kleineren Chips als Fiji kommt, dann sicherlich erstmal bei was im Hawaii-Bereich. Ein einzelner Stack bringt ja schon über 300GB/s, viel weniger geht ja gar nicht, man kann den RAM sicherlich nicht unendlich niedrig takten. Richtig billig wird HBM auch erst in 14-nm-Fertigung, das ist was für's nächste Jahr.

Diese angesprochene Margensteigerung sollte aber schon die zweite Jahreshälfte betreffen.

Was meinst Du genau mit "Respin"? rein Umbenennung, neue Revision mit einigen abgefeilten Ecken für bessere Energieeffizienz/Taktbarkeit/Ausbeute oder ein überholtes Design mit gleicher Shaderanzahl, aber sonst praktisch neuem Chip (d.h. Energiesparsteuerungen reingebaut, Trueaudio dazu, usw.)?

iuno
2015-05-12, 14:52:08
das geht ja nun nicht, mit HBM wäre es wohl wirklich was deutlichst anderes als Pitcairn^^ selbst bei gleicher Shaderanzahl.

Aber HBM bietet einfach zuviel Bandbreite. Wenn HBM bei kleineren Chips als Fiji kommt, dann sicherlich erstmal bei was im Hawaii-Bereich. Ein einzelner Stack bringt ja schon über 300GB/s, viel weniger geht ja gar nicht, man kann den RAM sicherlich nicht unendlich niedrig takten. Richtig billig wird HBM auch erst in 14-nm-Fertigung, das ist was für's nächste Jahr.
Wie kommst du denn darauf? Ein Stack bringt bei 500 MHz (normal lt. hynix) 128 GB/s. Pitcairn hat etwa 180, zwei Stacks lägen dann bei 256. Dann hat man aber auch nur 2 GiB und keine Option auf 4 GiB.
Ich weiß nicht, ob sich das lohnen kann. Und wie sieht es denn aus, wenn 'Pitcairn' und Fiji HBM haben, Hawaii & Tonga aber nicht?
Andererseits ist Pitcairn halt auch noch GCN 1.0. Sollte man das ohnehin aktualisieren wollen, fehlt als Unbekannte nur noch der Preis von HBM + Interposer ;) Wenn der sich in Grenzen hält, warum soll man dann noch neue Designs mit GDDR5 planen? Fett wäre es natürlich, wenn auch Tonga zusätzlich schon ein HBM Interface an Bord hat, könnte ein paar 'überflüssige' Transistoren erklären. Tonga XT sollte aber imho auch mit 4 GiB kommen. Aber das ist wohl alles eher Wunschdenken meinerseits.

HOT
2015-05-12, 14:56:19
Müsste schon ne neue Rev. von Hawaii sein. Allerdings weiss ich nicht, obs damit wirklich besser würde, mAn ist dieser Chip für seine Verhältnisse schon nah am Maximum des Möglichen.

Wenn man Pitcairn schon neu designt kann der auch mit HBM ausgestattet werden. Stellt sich eher die Frage, wie wirtschaftlich das in der Preisklasse mit dem Interposer ist. 128Bit GDDR5 ist sicherlich deutlich die billigste Lösung, jedoch dürfte sich Trinidad damit nicht von Curacau abheben.

4GB HBM bei Trinidad wär dann die gleiche Option wie 8GB bei Fiji (oder eben nicht ;)).

StefanV
2015-05-12, 15:50:37
Ein Chip ohne DP-Gedöns
...wäre bei AMD sehr wahrscheinlich nicht nennenswert kleiner, da man hier mit 'Mixed Function' Einheiten arbeitet, die nVidia mit Pascal einfüren möchte...

Letztendlich könnte das vielleicht 5% Die Fläche sparen, wenn überhaupt, ev. sogar weniger, da schlicht 2 Einheiten zusammen geschaltet werden.

Ergo: Das ist so tief und fest im Design verankert, dass man da nicht wirklich was dran ändern kann. Man müsste quasi ein neues Frontend basteln, aber das dürft sich dann auch nicht lohnen.

Buttom Line:
Das gerede von einem Chip ohne 'DP Gedöns' ist schlicht Bullshit und bringt wenig bis nix...

M4xw0lf
2015-05-12, 15:51:13
Bottom. ;)

Unicous
2015-05-12, 15:52:33
Bottom? (https://de.wikipedia.org/wiki/Bottom)


Um mal ein wenig das Niveau hier im Thread zu steigern.

M4xw0lf
2015-05-12, 15:54:54
Buttom Line:
Bottom? (https://de.wikipedia.org/wiki/Bottom)
Ja, Bottom. ^^

Dawn on Titan
2015-05-12, 15:59:28
http://www.computerbase.de/2015-05/amd-sieben-radeon-300-grafikkarten-fuer-den-oem-markt-sind-da/

Ihr habt den OEM Markt nicht im Auge...

Und wenn Tonga nun die 380 stellt, dann ist es durchaus denkbar, dass der Rest sich so einteilt

Fiji XT full zwischen 980 und GM200
Fiji pro vor 970 bis ca. 980

Die Frage ist am Ende nur die WCE und wie nah sie Titan kommt. Da NV aber immer auch eine Wasserversion der 980ti bringen kann....

OBrian
2015-05-12, 17:34:53
Wie kommst du denn darauf? schlicht vertan. mea culpa. :(

Knuddelbearli
2015-05-12, 17:39:12
http://www.computerbase.de/2015-05/amd-fiji-mit-hbm-hawaii-profitiert-nur-wenig-von-mehr-bandbreite/

wieso mit einer 290X *seufz*
da hätte eine 295 hingemüsst und Rohleistung zu Speicherbandbreite auf die erwarteten werte von fiji gesetzt.

So bekommt CB dafür nur eine 2- da es nicht wirklich was neues ist und kein Wort über die weit besseren HBM Latenzen verloren wurde

Außerdem wurde da scheinbar nicht drauf geachtet ob bei 3150 eventuell schon die Fehlerkorrektur Geschwindigkeit kostet. Kann da ein 290X Besitzer was zu sagen wie weit geht der Speicher bei AMD normalerweise bevor die Fehlerkorrektur Leistung kostet?

maguumo
2015-05-12, 17:46:14
...und kein Wort über die weit besseren HBM Latenzen verloren wurde...

Ich dachte die Latenzen bleiben (im Vergleich zu GDDR5) so gut wie identisch?

dargo
2015-05-12, 17:58:00
http://www.computerbase.de/2015-05/amd-fiji-mit-hbm-hawaii-profitiert-nur-wenig-von-mehr-bandbreite/

wieso mit einer 290X *seufz*
da hätte eine 295 hingemüsst und Rohleistung zu Speicherbandbreite auf die erwarteten werte von fiji gesetzt.

So bekommt CB dafür nur eine 2- da es nicht wirklich was neues ist und kein Wort über die weit besseren HBM Latenzen verloren wurde

Außerdem wurde da scheinbar nicht drauf geachtet ob bei 3150 eventuell schon die Fehlerkorrektur Geschwindigkeit kostet. Kann da ein 290X Besitzer was zu sagen wie weit geht der Speicher bei AMD normalerweise bevor die Fehlerkorrektur Leistung kostet?
Jetzt mal ehrlich... langsam habe ich das Gefühl wir haben ein Sommerloch. :freak: Was soll dieser Test der CB jetzt genau zeigen? Erstens ist Fiji kein breiterer Hawaii und zweitens müsste man Hawaii XT mindestens auf 1500Mhz GPU übertakten um grob die Abhängigkeit der Speicherbandbreite zu bestimmen. Da das eh nicht geht hat sich die ganze Sache von Anfang an erledigt.

Loeschzwerg
2015-05-12, 18:09:05
und zweitens müsste man Hawaii XT mindestens auf 1500Mhz GPU übertakten um grob die Abhängigkeit der Speicherbandbreite zu bestimmen.

Gibt es eigentlich Tests wo die 290X mit weniger Speichertakt läuft? Mich würde interessieren wann hier die Bandbreite wirklich durchschlägt.

fondness
2015-05-12, 18:12:55
http://www.computerbase.de/2015-05/amd-fiji-mit-hbm-hawaii-profitiert-nur-wenig-von-mehr-bandbreite/

wieso mit einer 290X *seufz*
da hätte eine 295 hingemüsst und Rohleistung zu Speicherbandbreite auf die erwarteten werte von fiji gesetzt.

So bekommt CB dafür nur eine 2- da es nicht wirklich was neues ist und kein Wort über die weit besseren HBM Latenzen verloren wurde

Außerdem wurde da scheinbar nicht drauf geachtet ob bei 3150 eventuell schon die Fehlerkorrektur Geschwindigkeit kostet. Kann da ein 290X Besitzer was zu sagen wie weit geht der Speicher bei AMD normalerweise bevor die Fehlerkorrektur Leistung kostet?

Bandbreitenlimit ohne MSAA testen wollen zeugt nicht gerade von viel Verständnis der Thematik.

Isen
2015-05-12, 18:39:35
Kopf schüttel... der " Test " ...

iuno
2015-05-12, 18:46:05
Ja, der Test ist sinnlos. Aber was mich aufhorchen ließ sind die +37% von Tahiti zu Hawaii bei jeweils 1 GHz in deren Leistungsrating (Spiele!). Das deckt sich mit 2.048 vs. 2.816 SP. War mir bisher so nicht bewusst. Gab es an GCN von Tahiti auf Hawaii mehr Änderungen als von Hawaii zu Tonga?
Hier wird ja immer davon gesprochen, dass lineare Skalierung nicht drin ist

Isen
2015-05-12, 18:52:52
2/3 ca..., iuno.

Nochmal zu diesem " Test " .... mir kommt das echt so vor, als ob man kein Bock hat, sich näher damit zu Beschäftigen ( Recherche ) und nur darauf wartet, vorgefertigte Texte von den jeweiligen Herstellern zu verwenden... das macht unsere Mainstream-Presse auch nicht anders, wenn etwas näher ins Detail geht... furchtbar finde ich das... absolut.

iuno
2015-05-12, 19:06:57
Dass dann laut deren neuen Testverfahren Hawaii taktnormiert tatsächlich knapp 40% vor Tahiti ist, liegt dann an den neueren Spielen?

Pirx
2015-05-12, 19:16:51
Computerbase... was erwartet ihr?
Bei dem Artikel gehts eh nur um Klicks.

Botcruscher
2015-05-12, 19:25:14
Was haltet ihr von der Idee das es kein NDA gibt da niemand außer AMD die Infos hat und selber alle Kanäle (noch einigermaßen) dicht hat?
Dann gibt es wieder nur Gurkenkarten mit Ref. Kühler...

captain_drink
2015-05-12, 19:33:16
@Unicous/DrumDub:
Um meinen finalen Senf zu dem Thema abzugeben:

Ich halte das Gesabbel von Sick et al. ebenfalls für falsch, da es nachgerade absurd ist, in Bezug auf "Sinn machen" von einem 'falschen' Sprachgebrauch zu reden, da diese Wendung offensichtlich nicht ungrammatisch ist und de facto von allen kompetenten Sprechern verstanden wird.

Gleichwohl sehe ich allerdings, dass "machen" zusehendes jede andere semantisch ähnliche bis äquivalente Konstruktion i.V.m. "Sinn" verdrängt und deren Bedeutungen in sich zusammenzieht, was ich schade finde, da das Deutsche diesbezüglich durchaus Mittel bereithält, mit einer Vielfalt an Wörtern verschiedene Bedeutungen auszudrücken (eben besagte "ergeben", "haben" etc.). In diesem Sinn ist es m.E. überflüssig, dem im Englischen sehr umfassend gebrauchten (auch idiomatisch, vgl. "make up so.'s mind") "Sinn machen" dieselbe Funktion im Deutschen zu geben.

Zuletzt noch etwas zu dem Bremer Sprachblog: Auch wenn ich mit dessen Folgerungen überwiegend übereinstimme, so gibt es methodisch zwei Aspekte zu kritisieren: Zum einen wird bei einer (bzw. dieser) lexikologischen Suche nach Vorkommnissen die (Satz-)Semantik außen vorgelassen, welche in diesem Fall gerade dasjenige wäre, was von Interesse ist, da jemand wie z.B. Lessing historisch einen anderen Sprachgebrauch hat; zum anderen sind die Ausführungen zu kognitionswissenschaftlichen Ergebnissen weit umstrittener als angedeutet und werden somit einseitig im Sinne des zu Beweisenden instrumentalisiert. "Sinn" ist zudem keinswegs nur Gegenstand kognitionswissenschaftlicher, sondern auch sprachphilosophischer Arbeiten, die die Autorität der ersteren hinsichtlich dieser Fragen keineswegs akzeptieren würden.

Und zuletzt: "Stop Making Sense" ist ein exzellentes Album!

ndrs
2015-05-12, 19:40:12
Wenn ihr verhindern wollt, dass Uninteressierte den Spoiler öffnen, sollte ihr zumindest drüber schreiben, worum es darin geht, sonst macht ergibt das recht wenig Sinn.
Gibt es eigentlich Tests wo die 290X mit weniger Speichertakt läuft? Mich würde interessieren wann hier die Bandbreite wirklich durchschlägt.
This.
Man hätte den Speichertakt so weit senken sollen, dass das Verhältnis von Rechenleistung zu Bandbreite dem eines fiktiven Fiji mit Hawaiis Speicherinterface entspricht. Von dort aus kann man dann mit dem Speichertakt hochgehen bis es keine nennenswerten Performance-Zuwächse gibt. Dann kann man auch Annahmen treffen, wieviel Bandbreite Fiji tatsächlich braucht.

Hübie
2015-05-12, 19:53:26
Bäh. Vor allem weiß man nicht was die ROPs leisten und wieviele das sind. Also eh eine eher grobe Fingerzeigrichtung. Wir erinnern uns mal ganz kurz an die 48 ROPs im GF110 mit deren Exportschwäche. Was wenn so ein Faktor limitiert (oder eben nicht)? Dann gibt es noch DCC, SRAMs und weiß der Geier.

Da geb ich jetzt erst mal nüx druff =)

iuno
2015-05-12, 20:04:11
heise (http://www.heise.de/newsticker/meldung/4K-Grafikkarten-AMD-Radeon-R9-390-und-390X-Mitte-Juni-Nvidia-GeForce-GTX-980-Ti-zur-Computex-2645039.html) spricht übrigens nicht von der E3, sondern der PC Gaming Show (http://www.pcgamingshow.com/). Ist aber derselbe Zeitraum. Dort ist AMD 'presenting sponsor'

K-putt
2015-05-12, 20:12:20
Sind 'se doch auch auf der E3. Die haben da eine PC Gaming Bühne.

Link (http://www.pcgamingshow.com/)

iuno
2015-05-12, 20:17:41
Was "sind sie auch auf der E3"?
Now, for the first time, the PC platform will have its own event during E3, where the community will be able to celebrate this era with some of the biggest names in PC gaming and see the innovations that lie ahead.

Das macht vielleicht schon einen kleinen Unterschied, als bei der E3 auf einer Bühne kurz die Karte hochzuheben ;)

moonraker
2015-05-12, 20:47:48
So wie ich das verstehe ist das PC-Gaming Event auf der E3.
Damit redet ihr von ein und dem selben Event.

Isen
2015-05-12, 20:56:32
So ist es

@Unicous,

danke

Unicous
2015-05-12, 21:00:34
Um das mal abzuwürgen. Die Show findet im gleichen Zeitraum wie die E3 statt. Der Veranstaltungsort liegt ein paar hundert Meter vom Los Angeles Convention Center entfernt. Ich denke mal nicht, dass das eine offiziell von der ESA gebilligte Veranstaltung ist.

horn 12
2015-05-12, 21:26:41
Dies mit der Vorzeigung der Karte gefällt mir absolut nicht.
Launch MUSS Launch sein,- und nicht 10 bis 14 Tage mal die Karte der Prese zeigen und schauen was die Konkurrenz preisgibt.
Man weiss nur allzugut das Nvidia NICHT die Hand vor dem Mund halten wird,- und dass die Gunst der Stunde absolut gegeben ist um sofort die GTX 980TI hoch anpreist, und dann könnte AMD regieren und den Treiber so wie damals bei der R9 290 nochmals nachjustieren um vor der Konkurrenz zu landen.

Einige ausgewählte Benchmarks wird es zur Computex von AMD eh sicherlich geben, oder aber man versucht dies mit dem, "NICHT Overhead" Treiber geringer aussehen zu lassen, als es Schlussendlich werden könnte.
So ganz überzeugt mich dies nun nicht wirklich!

Dorn
2015-05-12, 22:43:29
Computerbase... was erwartet ihr?
Bei dem Artikel gehts eh nur um Klicks.
Die haben wohl schon das Sommerloch ausgegraben.:freak:

rentex
2015-05-13, 08:08:19
Der CB Artikel ist sinnlos. Da klaubt man, mangels neuen Infos alles zusammen was geht. Es gibt halt nichts bis zum endgültigen Release, ganz einfach.

fondness
2015-05-13, 10:17:10
Angeblich kommt die R9 300 Serie am 18.Juni, die Fiji XT Flagship GPU aber erst bei einem separaten Launch-Event am 24. Juni:
http://benchlife.info/amd-radeon-300-series-would-announce-in-june-18th-and-24th-05112015/

Korvaun
2015-05-13, 14:44:44
Das ganze zieht sich zäher als Kaugummi ;)

Für mich sieht das so aus als ob AMD krampfhaft versucht den Launch so nach wie möglich an Win10-release zu bekommen, DX12 lässt grüßen. Der DX11-Treiber wird wohl nicht mehr großartig weiterentwickelt, und man versucht möglichst die Vorteile von DX12 mitzunehmen. Mantle ist ja auch "tot", zumindest solange bis OGL/Vulkan erscheint. Da Win10 ja "kostenlos" ist eingentlich nicht schlecht gedacht von AMD, nur dauerts halt so etwas länger :)

HOT
2015-05-13, 15:02:45
Das stimmt ja nicht. Die CPU-Performance des DX11 Win10-Treibers hat sich ja offenbar schon deutlich verbessert. Und die alten Windows-Versionen sind irrelevant.

Unicous
2015-05-13, 15:06:48
Und die alten Windows-Versionen sind irrelevant.

Whuuuuuuuuuuuuuuuuuuuuut?:eek:

http://static.rcgroups.net/forums/attachments/4/5/8/3/5/a2535227-133-whut.jpg?

dildo4u
2015-05-13, 15:09:33
Das stimmt ja nicht. Die CPU-Performance des DX11 Win10-Treibers hat sich ja offenbar schon deutlich verbessert. Und die alten Windows-Versionen sind irrelevant.
Nich jeder wird sich ein Beta OS auf den Rechner tun ich würde mal sagen jetzt mir GTA5,Wichter 3 und Projekt Cars wäre ein Win 8.1 Treiber der die CPU entlastet dringender den je.
Das ganze sähe noch viel schlimmer aus wenn die 390 schon raus wäre weil die noch schneller ins CPU Limit laufen würde.

Hübie
2015-05-13, 15:47:45
Mantle is nich tot, sondern heißt anders und fährt eine angepasste Strategie. Von tot is imo keine Rede. Wie oft wir das noch in PC-Spielen sehen werden is ne andere Sache (wahrscheinlich wenig bis gar nicht).

iuno
2015-05-13, 15:56:08
Er hat ja auch gesagt "zumindest solange bis OGL/Vulkan erscheint". Immerhin gab es ein paar Mantle-Spiele, Vulkan-Spiele sind kurzfristig ja wohl nicht zu erwarten? Ist sowieso schade, wäre man etwas früher dran gewesen, hätte man DX12 sicher etwas die Show stehlen können. Aktuell spricht leider keiner mehr von Vulkan, von DX12 aber überall

Arcanoxer
2015-05-13, 15:59:19
Ist sowieso schade, wäre man etwas früher dran gewesen, hätte man DX12 sicher etwas die Show stehlen können. Aktuell spricht leider keiner mehr von Vulkan, von DX12 aber überall
Die typische Microsoft pre-release bullshit PR für Windows.

iuno
2015-05-13, 16:05:18
Ist ja logisch, aber dem hätte man imho nunmal nur mit einer früheren Veröffentlichung entgegenwirken können. Wenn dann Windows 10 + DX12 draußen sind und alle glücklich damit sind, wird es sehr schwer. Ist ja dann nichts anderes, als die Situation zwischen D3D und OpenGL seit jeher!? Aber das ist hier eigentlich OT...

Troyan
2015-05-13, 16:05:43
Er hat ja auch gesagt "zumindest solange bis OGL/Vulkan erscheint". Immerhin gab es ein paar Mantle-Spiele, Vulkan-Spiele sind kurzfristig ja wohl nicht zu erwarten? Ist sowieso schade, wäre man etwas früher dran gewesen, hätte man DX12 sicher etwas die Show stehlen können. Aktuell spricht leider keiner mehr von Vulkan, von DX12 aber überall

Der Zustand von DX12 zur GDC 2014 hat doch alle überrascht - vor allem Khronos. Deswegen hat man hier auch Mantle als Grundlage genommen, um Zeit zu sparen.

Kartenlehrling
2015-05-13, 16:11:41
Deswegen hat man hier auch Mantle als Grundlage genommen, um Zeit zu sparen.

muss du da nicht selbst darüber lachen?

Thunder99
2015-05-13, 16:13:32
Ihr tut so als ob D3D11.x Treiber der letzte Schrott wäre und die kommende Karte damit übelst schlecht performen würde sowie das der D3D12 Treiber + Win10 die Karte um 1000000000000% schneller machen würde. Bleibt mal auf dem Teppich.

War es nicht so, dass in CPU intensiven Spielen bzw CPU Limit es nur was bringt? Und sonst wenig bis gar nicht? Also wenn Witcher 3 eine Grafik-Bombe wird dann wird D3D12/D3D11 reduced Overhead Treiber wohl wenig bringen... (korrigiert mich bitte wenn ich auf dem Holzweg bin)

Unicous
2015-05-13, 16:14:08
@Kartenlehrling

Nein, das meint er alles ernst. Ich frage mich immer noch wer dieser Trojaner eigentlich wirklich ist.:wink:

Troyan
2015-05-13, 16:20:45
muss du da nicht selbst darüber lachen?

GlNext war nicht existent zur GDC2014. Reine Papierankündigung.
DX12 war dagegen real. Treiber von nVidia und Intel existierten und die Softwareumgebung war soweit, dass man Demos präsentieren konnte.

Die Aussage, wäre Vulkan früher gekommen, ist sinnlos, da es eine Reaktion auf Mantle und vor allem DX12 war.

aufkrawall
2015-05-13, 16:23:24
War es nicht so, dass in CPU intensiven Spielen bzw CPU Limit es nur was bringt? Und sonst wenig bis gar nicht? Also wenn Witcher 3 eine Grafik-Bombe wird dann wird D3D12/D3D11 reduced Overhead Treiber wohl wenig bringen... (korrigiert mich bitte wenn ich auf dem Holzweg bin)
OpenWorld und größere Städte, das kann in 1080p schon sehr entscheidend sein.

Nakai
2015-05-13, 16:25:20
@Kartenlehrling

Nein, das meint er alles ernst. Ich frage mich immer noch wer dieser Trojaner eigentlich wirklich ist.:wink:

"Er ist wieder da"?:freak:

Ich werde noch etwas sagen: Wenn der CH-LEak mit 4GB war und da schon vor einer Titan X war, was ist dann mit 8GB(falls es in naher Zukunft kommt?)?
Bei 4K kann etwas mehr Speicher sehr viel bewirken.

Ansonsten zum CB-Test zur R9 290X 8GB/4GB. Was für ein Unfug. Sry, aber da kann man der Presse manchmal echt nur einseitige Berichterstattung vorwerfen.

dildo4u
2015-05-13, 16:25:56
Ihr tut so als ob D3D11.x Treiber der letzte Schrott wäre und die kommende Karte damit übelst schlecht performen würde sowie das der D3D12 Treiber + Win10 die Karte um 1000000000000% schneller machen würde. Bleibt mal auf dem Teppich.

War es nicht so, dass in CPU intensiven Spielen bzw CPU Limit es nur was bringt? Und sonst wenig bis gar nicht? Also wenn Witcher 3 eine Grafik-Bombe wird dann wird D3D12/D3D11 reduced Overhead Treiber wohl wenig bringen... (korrigiert mich bitte wenn ich auf dem Holzweg bin)
Open World Game's sind massiv CPU Limitiert dort hat der Treiber seine Schwächen,Watch-Dogs hat selbst mit neustem Patch und neuen Treiber'n ständig Frametime Spikes auf einer 290 laut dem neuesten PCGH Heft bietet eine 960 mit 4GB das bessere Spieleerlebniss.Das selbe gilt für GTA5 auch dort gabs ein optimieren AMD Treiber aber keine Abhilfe was CPU Last angeht.


At this point, it's no real secret that Nvidia's driver eats up less processor time than the AMD equivalent - something that's crucially important on lower-end PCs with less capable CPUs. This is important. AMD's Radeon R9 270X is an excellent card - almost 40 per cent more powerful in GTA 5 than the GTX 750 Ti in a quad-core system, and only a few pounds more expensive than the 750 Ti when it's on sale. However, on a dual-core Core i3 system, the stutter is extreme and minimum frame-rate isn't just lower than the GTX 750 Ti, it's lower than the R7 260X too. AMD makes some excellent hardware, but until the DX11 driver issue is resolved, we can only recommend Nvidia cards for PCs with lower-end CPUs.

http://www.eurogamer.net/articles/digitalfoundry-2015-the-best-pc-hardware-for-grand-theft-auto-5

Unicous
2015-05-13, 16:36:29
Ansonsten zum CB-Test zur R9 290X 8GB/4GB. Was für ein Unfug. Sry, aber da kann man der Presse manchmal echt nur einseitige Berichterstattung vorwerfen.

Vorrangig würde ich hier einfach nur Inkompetenz unterstellen. Und natürlich clickbait.

Und dass es darum nicht ging kann man mir mit einem Titel wie AMD Fiji mit HBM : Hawaii profitiert nur wenig von mehr Bandbreite wirklich nicht vorgaukeln.

Ich sage es immer gerne wieder. Die Redaktionen regen sich immer gerne über so Seiten wie WTF-Tech u.a. auf, wenn sie NDAs nicht befolgen slides und/oder review veröffentlichen aber verlinken sie doch wenn es darum geht Klicks zu generieren. Und gerne versuchen sie auch selbst solche "Artikel" zu erstellen. Weil es anscheinend erfolgsversprechend ist.

Deswegen finde ich es einfach nur heuchlerisch wenn sie dann in den Foren ihr Leid verkünden. Es gibt keine großen Unterschiede. Nur dass man noch so einen Restfunken an Anstand hat, nicht jeden Fliegenschiss sofort zu posten. Aber auch daran nagt schon der Rost.

dargo
2015-05-13, 16:59:48
Open World Game's sind massiv CPU Limitiert dort hat der Treiber seine Schwächen,Watch-Dogs hat selbst mit neustem Patch und neuen Treiber'n ständig Frametime Spikes auf einer 290...
Das hat eine GTX970 auch. Läuft wie Gülle beim Fahren @Ultra Texturen, selbst von überzeugt.

R.I.P.
2015-05-13, 17:18:49
"Er ist wieder da"?:freak:

Ich werde noch etwas sagen: Wenn der CH-LEak mit 4GB war und da schon vor einer Titan X war, was ist dann mit 8GB(falls es in naher Zukunft kommt?)?
Bei 4K kann etwas mehr Speicher sehr viel bewirken.

Ansonsten zum CB-Test zur R9 290X 8GB/4GB. Was für ein Unfug. Sry, aber da kann man der Presse manchmal echt nur einseitige Berichterstattung vorwerfen.

Laut bitsandchips.it wird Fiji anfänglich (bis Ende des Jahres) nur in 4GB kommen.
http://www.bitsandchips.it/9-hardware/5563-extremetech-la-gpu-fuji-inizialmente-sara-limitata-a-4gb-di-hbm

Thunder99
2015-05-13, 17:28:36
Dann wohl eine technische Limitierung, sofern zutreffend. Hynix kann einfach nicht liefern

iuno
2015-05-13, 17:35:32
Englische Originalquelle: http://www.extremetech.com/gaming/205145-amd-analyst-day-sketches-big-picture-leaves-critical-details-unanswered/2
bzw. der Kommentar: http://www.extremetech.com/gaming/205145-amd-analyst-day-sketches-big-picture-leaves-critical-details-unanswered/2#comment-2012295982


I have shown those slides to a contact in a position to know what AMD is launching this quarter. They have confirmed that Fiji tops out at 4GB, not 8.

Slides are easy to fake, and a huge number of false ones have been making the rounds lately.

Naja, Golem hat sich auch die Echtheit damals bestätigen lassen :P Für mich ist das jetzt keine neue, handfeste Info

dildo4u
2015-05-13, 17:35:54
Das hat eine GTX970 auch. Läuft wie Gülle beim Fahren @Ultra Texturen, selbst von überzeugt.
Das ändert nichts an der AMD Problematik wenn ne billigere NV Karte besser läuft.

Fottemberg
2015-05-13, 17:36:18
Laut bitsandchips.it wird Fiji anfänglich (bis Ende des Jahres) nur in 4GB kommen.
http://www.bitsandchips.it/9-hardware/5563-extremetech-la-gpu-fuji-inizialmente-sara-limitata-a-4gb-di-hbm

I guys! :)
First of all, I'm sorry but I don't know German (even though I love Germany).
I'm here because I have to explain this news. I just reported a rumor of Joel from ExtremeTech ("Fiji will be a 4GB card"). To the contrary, according to my sources, Fiji could sport 8GB of HBM, but the Dual Link interposer is a very expensive technology. So, a 4GB Fiji card could cost 550 euros, and a 8Gb Fiji card 800-900 euros. We will see what AMD is going to do. ;)

dargo
2015-05-13, 18:09:02
Das ändert nichts an der AMD Problematik wenn ne billigere NV Karte besser läuft.
Da läuft gar nichts besser, erzähl mir keine Märchen. Das Game ist einfach kaputt mit maximalen Texturen. Die allgemein höhere Framerate bei NV nützt rein gar nichts wenn es wie blöde spiked.

Nakai
2015-05-13, 18:21:02
I guys! :)
First of all, I'm sorry but I don't know German (even though I love Germany).
I'm here because I have to explain this news. I just reported a rumor of Joel from ExtremeTech ("Fiji will be a 4GB card"). To the contrary, according to my sources, Fiji could sport 8GB of HBM, but the Dual Link interposer is a very expensive technology. So, a 4GB Fiji card could cost 550 euros, and a 8Gb Fiji card 800-900 euros. We will see what AMD is going to do. ;)

Hi Fottemberg. Welcome to the forums.;)

It's no problem, that you don't speak German. I think we are all happy here, to have more english speaking or more international members on board.

In my opinion, that Dual-Link HBM config is just a farce. There's no evidence, that Hynix is capable of manufacturing Dual-Link HBMs. In my opinion, if AMD is able to deliver 8GB of video memory for Fiji, it just should be bigger HBM Stacks(4Gb for each slice). For Dual-Link HBMs, the functional base die should be bigger and more interposer size is required. That should increase overall costs drastically. The most simple and as well the most cost sensitive solution would be 4Gb HBM Dies. Maybe Hynix just don't want to create 4Gb slices, because of limiting foundry capacities or other reasons...

...if it is Dual-Link HBMs, yeah...the costs should be higher, and not by a small margin.

y33H@
2015-05-13, 18:24:57
Naja, Golem hat sich auch die Echtheit damals bestätigen lassen :P Für mich ist das jetzt keine neue, handfeste InfoMein Stand ist nach wie vor, die Slides sind echt. Nur: Wie alt die sind und für wann welches Produkt geplant ist, bleibt unklar. Dual-Link scheint verworfen. 4 GB wird wohl der Standard sein zum Launch und es könnte eine Version mit 8 GB geben im Herbst oder im Frühling (für mehr Geld) wenn HBM v2 fertig ist.

EDIT
AMD hat der Presse bisher in keinem Briefing 4 GB offiziell bestätigt, nur so halbgar und mit der Option auf mehr. Die wissen ganz genau, dass man in 4K oder mit SSAA mit 4 GB im Worst Case der Konkurrenz unterlegen ist - mal schauen, wie es dann in der Realität aussieht.

mironicus
2015-05-13, 18:35:05
8 GB Version könnte auch Dual-Fiji sein, dann passt 800+ Euro. :D

Nakai
2015-05-13, 18:40:50
Also ein richtiger Dual-Fiji sollte 2x8GB haben.

Ich hoffe, ich werde nicht recht behalten, dass Fiji nur 4GB haben wird. Fiji mit 8GB wäre einem Titan X(laut Benches) stark überlegen.

iuno
2015-05-13, 18:47:09
2 x Fiji mit 2 x 4 GiB ist ja noch sinnloser als ein Fiji mit 4 GiB. Wer soll sowas kaufen?
Oder ist schon etwas zu einem neuartiger Interconnect bekannt, der unter CF alles besser machen soll? :freak:

Fottemberg
2015-05-13, 18:51:19
Hi Fottemberg. Welcome to the forums.;)

It's no problem, that you don't speak German. I think we are all happy here, to have more english speaking or more international members on board.

In my opinion, that Dual-Link HBM config is just a farce. There's no evidence, that Hynix is capable of manufacturing Dual-Link HBMs. In my opinion, if AMD is able to deliver 8GB of video memory for Fiji, it just should be bigger HBM Stacks(4Gb for each slice). For Dual-Link HBMs, the functional base die should be bigger and more interposer size is required. That should increase overall costs drastically. The most simple and as well the most cost sensitive solution would be 4Gb HBM Dies. Maybe Hynix just don't want to create 4Gb slices, because of limiting foundry capacities or other reasons...

...if it is Dual-Link HBMs, yeah...the costs should be higher, and not by a small margin.

I don't think it's a farce. Even Hiroshige Goto (likely the best japanese journalist about CPU and GPU technologies) talked about the use of Dual Link Interposer. Also, I tried to read the Hynix patents, but the patents registered by Hynix after 2012 are locked. ;(

R.I.P.
2015-05-13, 18:55:20
Könnte es durch HBM nicht möglich sein,dass durch die hohe Bandbreite einfach schneller nachgeladen werden kann und 4GB HBM eigentlich weniger limitieren?

y33H@
2015-05-13, 18:55:41
Ich hoffe, ich werde nicht recht behalten, dass Fiji nur 4GB haben wird. Fiji mit 8GB wäre einem Titan X(laut Benches) stark überlegen.
Wie viele Spiele profitieren denn in 4K oder 1080p/1440p mit SSAA von 8 statt 4 GB unter der Voraussetzung, dass wir von flüssigen Bildraten sprechen? Selbst wenn wir 30+ ansetzen, sind das nur sehr wenige Titel AFAIK.

Tom's HW hatte das mal mit ner 290X aufgezeigt: http://www.tomshardware.com/reviews/sapphire-vapor-x-r9-290x-8gb,3977-3.html

Abgesehen von den VRAM-Fressern Shadow of Mordor und Tief tut sich da wenig, zumal die 390X hier über 40 fps selbst mit 4 GB schaffen dürfte. Das Plus bei Arma 3 und AC4 halte ich für unrealistisch, da hier 4x MSAA in UHD aktiv ist.

Könnte es durch HBM nicht möglich sein,dass durch die hohe Bandbreite einfach schneller nachgeladen werden kann und 4GB HBM eigentlich mehr entsprechen (und weniger limitieren)?Nein, denn es limitiert der PCIe wenn der VRAM voll ist (die hohe Geschwindigkeit gilt nur für GPU <--> HBM).

aufkrawall
2015-05-13, 19:01:47
Tomshardware hat einfach mit den falschen Spielen getestet. 4GB sind zu wenig für 4k.
Aber Fiji dürfte eh eher zu lahm dafür sein, wie schon Titan X.

Knuddelbearli
2015-05-13, 19:08:03
Könnte es durch HBM nicht möglich sein,dass durch die hohe Bandbreite einfach schneller nachgeladen werden kann und 4GB HBM eigentlich weniger limitieren?

das ist unlogisch. wenn es nachladet holt es sich die Sachen ja aus dem ram, da limitiert PCI-E, oder sogar von der ssd, da limitiert die ssd.

Knuddelbearli
2015-05-13, 19:08:55
Tomshardware hat einfach mit den falschen Spielen getestet. 4GB sind zu wenig für 4k.
Aber Fiji dürfte eh eher zu lahm dafür sein, wie schon Titan X.

HT4U hat einen weit umfangreicheren Parcour dazu und auch nur minimale Vorteile messen können

Thunder99
2015-05-13, 19:16:20
Wenn jetzt "nur" eine 4GB Variante kommt aber sicher eine 8GB folgen wird ist es nicht dramatisch, da ja wie schon geschrieben die Anzahl der Games wo der Mehrspeicher sinnvoll ist sehr überschaubar ist

maguumo
2015-05-13, 19:26:53
Wenn jetzt "nur" eine 4GB Variante kommt aber sicher eine 8GB folgen wird ist es nicht dramatisch, da ja wie schon geschrieben die Anzahl der Games wo der Mehrspeicher sinnvoll ist sehr überschaubar ist

Natürlich ist das dramatisch. Mit 4GB für das Topmodell würde man sich wieder einen Launch eines ansonsten (hoffentlich) einwandfreien Chips versauen. Das wäre meiner Meinung nach deutlich schlimmer als der miserable Hawaii Referenzkühler. Der erste Eindruck ist enorm wichtig, schon für Leute wie uns. Bei weniger technikaffinen Käufern noch viel mehr.

OBrian
2015-05-13, 19:26:58
4 GB sind auch technischer Sicht natürlich einfacher zu machen und daher logischer, aber die Verkaufschancen so einer fetten, teuren Karte gehen doch massiv runter, wenn sie zu wenig RAM hat. Die meisten Leute sind doch konditioniert, die Qualität einer Karte an der RAM-Menge festzumachen. Eine High-End-Karte in der (notwendigen) Preislage auf dem Markt zu bringen und dann nur mit 4 GB auszustatten würde sie sehr unattraktiv machen.

Deswegen phantasiere ich mal: AMD wartet, bis die 8 GB-Version zumindest möglich ist, wenn auch meinetwegen in homöopatischen Dosen. Die 8-GB-Version kann dann an die Redaktionen gehen und als strahlender Held dastehen, gleichzeitig bringen sie die mit 4 GB, dann stellen die Redaktionen fest "naja, eigentlich müssen wir zugeben, daß 4 GB reichen, auch wenn 8 GB sexier wären, aber die 4-GB-Version ist unser Geheimtipp!", und dann verkauft man die 4-GB-Version für 4-500 € wie geschnitten Brot, während die nur schwer herstellbare 8-GB-Version absichtlich so überteuert wird, daß sie auch kaum einer kauft, womit es dann auch keine Nachfrageprobleme gibt.

mironicus
2015-05-13, 19:30:17
Hat AMD nicht Fiji als "besonders geeignet" für VR-Gaming beworben? Bei einer Dual-Karte könnte jede GPU unabhängig voneinander die beiden Bildschirme ansteuern... :)

y33H@
2015-05-13, 19:53:19
Für VR und 4K, ja.

mironicus
2015-05-13, 19:58:54
Jetzt hat Hardwareluxx auch etwas zu dem Nutzen von HBM geschrieben:
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35308-warum-hbm-mehr-als-nur-eine-erhoehung-der-speicherbandbreite-ist.html

Menace
2015-05-13, 19:59:19
Kommt zusammen mit der R390 auch irgendeine VR-Anwendung/Brille etc.? Das wäre wenigstens ein Alleinstellungsmerkmal für kurze Zeit.

maguumo
2015-05-13, 20:04:17
Kommt zusammen mit der R390 auch irgendeine VR-Anwendung/Brille etc.? Das wäre wenigstens ein Alleinstellungsmerkmal für kurze Zeit.


Naja, LiquidVR wurde ja auf der GDC vorgestellt, mit der Occolus. Und über Zusammenarbeit mit dem HTC Projekt gab es zumindest Gerüchte.

aufkrawall
2015-05-13, 20:13:23
HT4U hat einen weit umfangreicheren Parcour dazu und auch nur minimale Vorteile messen können
Wo hat HT4U Frametimes bei 4 vs. 8GB gemessen? Nirgends.

4GB reichen nicht für stockfreies Spielen von GTA V oder AC: U und diversen anderen Spielen in 4k. Punkt.

Dawn on Titan
2015-05-13, 20:15:57
Könnte es durch HBM nicht möglich sein,dass durch die hohe Bandbreite einfach schneller nachgeladen werden kann und 4GB HBM eigentlich weniger limitieren?

Du musst ja vom RAM ins HBM und da limitiert PCIe.

4 GB sind auch technischer Sicht natürlich einfacher zu machen und daher logischer, aber die Verkaufschancen so einer fetten, teuren Karte gehen doch massiv runter, wenn sie zu wenig RAM hat. Die meisten Leute sind doch konditioniert, die Qualität einer Karte an der RAM-Menge festzumachen. Eine High-End-Karte in der (notwendigen) Preislage auf dem Markt zu bringen und dann nur mit 4 GB auszustatten würde sie sehr unattraktiv machen.

Warten wir doch die Preise ab. Was die Karte kostet hängt von ihrer Performance ab. Liegt sie bei 980(GM204) + 15% dann sind 4GB okay und der Preis dürfte gegen 550 Euro gehen. Dazu wird es denke ich die WCE geben, die 8GB hat und knapp unter / knapp auf Titan-Niveau raus kommt für rund 800-900Euro.

Deckt sich doch wunderschön zu den Gerüchten auf NV Seite.

GM200 als GB 980ti
GM204 980 8GB mit leicht mit höherem Takt
GM204 970 7+1GB mit leicht höheren Takt (evtl. auch echten 8GB aber weniger Takterhöhung)

captain_drink
2015-05-13, 20:22:04
HT4U hat einen weit umfangreicheren Parcour dazu und auch nur minimale Vorteile messen können

Ist ja auch völlig egal, solange bei einer 980 Ti 6 GB draufkleben, hat AMD das Nachsehen, Praxisrelevanz hin oder her. Da müsste AMD dann wieder über den Preis kommen, was bislang nicht eben eine Erfolgsstrategie war...

iuno
2015-05-13, 20:29:06
Jetzt hat Hardwareluxx auch etwas zu dem Nutzen von HBM geschrieben:
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35308-warum-hbm-mehr-als-nur-eine-erhoehung-der-speicherbandbreite-ist.html
War nicht hier immer die Rede, HBM würde in Sachen Latenzen nichts bringen? Und spielen die überhaupt eine Rolle beim Gaming?

Hübie
2015-05-13, 20:50:49
:confused: Wer hat denn so etwas behauptet? TSV-HBM bringt vielerlei Vorteile. Einer ist eben mehr commands im gleichen Zeitfenster.

Skysnake
2015-05-13, 21:06:12
I don't think it's a farce. Even Hiroshige Goto (likely the best japanese journalist about CPU and GPU technologies) talked about the use of Dual Link Interposer. Also, I tried to read the Hynix patents, but the patents registered by Hynix after 2012 are locked. ;(
As far i can say, in my opinion, dual link HBM is a mess, because you would need an active interposer. Otherwise, the load you have to drive would roughly double, because you would have an shared wire connection. I am not able to understand how, a simple passiv interposer would be able to do the job, without doubled wire count even on the main SI-Interposer and also on the GPU.

Therefore, from my point of view, it is not very likely, that there have been such an development. It is ugly... It make no sense to spend manpower and money for something like this. It make much more sens to increase the memory capacity per DIE. Even larger DIEs are much better than this Dual-Link stuff.

iuno
2015-05-13, 21:09:38
:confused: Wer hat denn so etwas behauptet? TSV-HBM bringt vielerlei Vorteile. Einer ist eben mehr commands im gleichen Zeitfenster.
z.B.
Bis auf die Latenz stimmt das. Die ändert sich auch bei HBM nicht wesentlich gegenüber allen anderen DRAM-Techniken.

Hübie
2015-05-13, 21:15:59
Ich denke dabei bezieht Gipsel sich auf die Latenz der Datenübertragung. Pro Stack / Zelle stimmt das auch, aber in der Summe kann man durch Interleaving und mehr commands ne Menge gewinnen.

basix
2015-05-13, 21:18:53
z.B.

Gipsel meinte aber folgendes: Wenn du 1x kleines Objekt aus GDDR5 laden willst ist die Latenz ggü. HBM nicht wahnsinnig viel besser, d.h. der absolute Performancegewinn in fps ist gering.

Wenn du etliche Objekte aus GDDR5 laden willst, wirst du mit HBM gewisse Vorteile haben. Ich behaupte aber mal, dass im VRAM eher grosse Blöcke pro einzelnes Objekt belegt sind (z.B. Texturdaten) und sich somit der Latenzvorteil nicht sehr auf die Performance auswirken wird (Latenz war sowieso selten bis nie der limitierende Faktor beim VRAM).

Ich kann mir aber vorstellen, dass mit VR die Latenzgeschichte ein wenig anders gewichtet werden kann.

Edit:
Hübie war schneller ^^

R.I.P.
2015-05-13, 21:30:25
Bei Tomsharware Italy hat ein Senior Writer einen kuriosen tweet gepostet: heute erzählt uns AMD über....kann ich euch erst in einer Woche erzählen...
https://mobile.twitter.com/mdeagostini/status/598429865847758848

maguumo
2015-05-13, 21:40:29
As far i can say, in my opinion, dual link HBM is a mess, because you would need an active interposer. Otherwise, the load you have to drive would roughly double, because you would have an shared wire connection. I am not able to understand how, a simple passiv interposer would be able to do the job, without doubled wire count even on the main SI-Interposer and also on the GPU.

Therefore, from my point of view, it is not very likely, that there have been such an development. It is ugly... It make no sense to spend manpower and money for something like this. It make much more sens to increase the memory capacity per DIE. Even larger DIEs are much better than this Dual-Link stuff.

I don't really understand much about it, but wouldn't it be possible to split the 8 Channels relatively easy over two 4 slice stacks sitting on the same logic layer? According to the JEDEC specification it's even possible to split a channel over multiple slices...

The division of channels among the DRAM dies within a stack is left to the vendor. The example above, with the memory for two channels implemented on each die, is not a required organization. Organizations are permitted where the memory for a single channel is distributed among multiple dies; however, all accesses within a single channel must have the same latency for all accesses. Similarly, vendors may develop products where each memory die can flexibly support 1, 2, or 4 channels – enabling 8-channel configurations with stacks of 2 to 8 dies while keeping all data for a given channel on one die.

horn 12
2015-05-13, 23:17:02
So wie es scheint wurden heute Erste Partner mit ins Boot zu AMD´s Fiji genommen, bzw. den Hersteller-Partnern die Karten "vorgestellt".

r3ptil3
2015-05-13, 23:27:06
So wie es scheint wurden heute Erste Partner mit ins Boot zu AMD´s Fiji genommen, bzw. den Hersteller-Partnern die Karten "vorgestellt".

Was? Sollte sowas nicht schon viel früher stattfinden?

w0mbat
2015-05-13, 23:35:09
So wie es scheint wurden heute Erste Partner mit ins Boot zu AMD´s Fiji genommen, bzw. den Hersteller-Partnern die Karten "vorgestellt".

Das ist schon lange her.

y33H@
2015-05-14, 00:13:37
Bei Tomsharware Italy hat ein Senior Writer einen kuriosen tweet gepostet: heute erzählt uns AMD über....kann ich euch erst in einer Woche erzählen...*gähn* was wird das wohl sein? Tipp: Nicht Fiji selbst.

Fottemberg
2015-05-14, 01:10:47
As far i can say, in my opinion, dual link HBM is a mess, because you would need an active interposer. Otherwise, the load you have to drive would roughly double, because you would have an shared wire connection. I am not able to understand how, a simple passiv interposer would be able to do the job, without doubled wire count even on the main SI-Interposer and also on the GPU.

Therefore, from my point of view, it is not very likely, that there have been such an development. It is ugly... It make no sense to spend manpower and money for something like this. It make much more sens to increase the memory capacity per DIE. Even larger DIEs are much better than this Dual-Link stuff.

From what I know, Dual Link Interposer doesn't double the bandwidth. It allows 2 HBM banks to share the same channel = double capacity and same bandwidth. It's a trick to pass the memory limitation. :)

Fottemberg
2015-05-14, 01:12:19
Bei Tomsharware Italy hat ein Senior Writer einen kuriosen tweet gepostet: heute erzählt uns AMD über....kann ich euch erst in einer Woche erzählen...
https://mobile.twitter.com/mdeagostini/status/598429865847758848

Usually TomsHW.it has not hot news. They translate the hot news from USA site. I think it will be about Carrizo.

Skysnake
2015-05-14, 07:32:21
The division of channels among the DRAM dies within a stack is left to the vendor. The example above, with the memory for two channels implemented on each die, is not a required organization. Organizations are permitted where the memory for a single channel is distributed among multiple dies; however, all accesses within a single channel must have the same latency for all accesses. Similarly, vendors may develop products where each memory die can flexibly support 1, 2, or 4 channels – enabling 8-channel configurations with stacks of 2 to 8 dies while keeping all data for a given channel on one die.
I don't really understand much about it, but wouldn't it be possible to split the 8 Channels relatively easy over two 4 slice stacks sitting on the same logic layer? According to the JEDEC specification it's even possible to split a channel over multiple slices...
They say dies, not slices or stacks. Therefore, there is not really a hint, that it is possible. Such documents are normaly very clear, but without the own reading of the document i am not able to say it definetly.

Have you the document? As far i remember, it was not able to get such documents. If you want, you can contact me per pm.


From what I know, Dual Link Interposer doesn't double the bandwidth. It allows 2 HBM banks to share the same channel = double capacity and same bandwidth. It's a trick to pass the memory limitation. :)
Yeah, but a doubled capacity would mean, that you have to reduce the clock speeds, or you would have to redesign the Outputbuffers. I can't believe, that they overdesigned the outputbuffers by a factor of 2. (Ok, very likely the wires are transmission lines, but even then, you get a hand full of problems.)

It really sounds for me like an ugly solution, and ugly solutions are most of the time not worth to spend time and manpower.

Dawn on Titan
2015-05-14, 08:31:49
From what I know, Dual Link Interposer doesn't double the bandwidth. It allows 2 HBM banks to share the same channel = double capacity and same bandwidth. It's a trick to pass the memory limitation. :)

If you share the channel it reduces the bandwith by half, if you keep it consistent with the way we calculate bandwith for GDDR.

fondness
2015-05-14, 10:38:19
HT4U hat einen weit umfangreicheren Parcour dazu und auch nur minimale Vorteile messen können

4GB reichen dann in 4K, wenn man auf MSAA verzichtet, was durchaus Sinn macht. Allerdings wäre es mir auch zu wenig für die Zukunft.

mironicus
2015-05-14, 10:42:48
Fiji hat doch auch diese interne Kompression wie Maxwell, bringt das was bei Antialiasing?

fondness
2015-05-14, 10:44:55
Es spart Bandbreite aber keinen Speicherplatz.

Pirx
2015-05-14, 10:50:43
2 GB bei der GTX 680/670 waren/sind doch auch supertoll und einen Aufpreis wert:lol:

mironicus
2015-05-14, 11:27:29
Es spart Bandbreite aber keinen Speicherplatz.

Macht es das Antialising denn auch schneller?

fondness
2015-05-14, 11:45:11
Macht es das Antialising denn auch schneller?

Ja klar sofern die Bandbreite limitiert was nicht unwahrscheinlich ist mit MSAA.

mironicus
2015-05-14, 11:56:15
Das ist wieder ein Faktor wo man nicht weiß was am Ende dabei herauskommt. Die Auswirkungen gegenüber der alten Generation sollte aber positiv sein.

R.I.P.
2015-05-14, 12:14:37
Usually TomsHW.it has not hot news. They translate the hot news from USA site. I think it will be about Carrizo.

Thanks :) Great news for me to be honest. Need two nice all-in-ones and I have to admit that I am a little bit allergic to Intel :freak:

@y33H@
Was für dich langweilig ist, muss nicht für alle gelten (as usual :tongue:)

Hübie
2015-05-14, 12:46:20
Ja klar sofern die Bandbreite limitiert was nicht unwahrscheinlich ist mit MSAA.

Siehe mein Post eine Seite vorher. Die Bandbreite hängt am anderen Ende der Pipeline und ist in vielen Fällen nicht der limitierende Faktor.

Dawn on Titan
2015-05-14, 13:02:18
Ja klar sofern die Bandbreite limitiert was nicht unwahrscheinlich ist mit MSAA.

Bei HBM dann schon...

mironicus
2015-05-14, 13:09:43
Yeah! MSAA for free with HBM! :D :D

Fottemberg
2015-05-14, 13:28:53
Yeah, but a doubled capacity would mean, that you have to reduce the clock speeds, or you would have to redesign the Outputbuffers. I can't believe, that they overdesigned the outputbuffers by a factor of 2. (Ok, very likely the wires are transmission lines, but even then, you get a hand full of problems.)

It really sounds for me like an ugly solution, and ugly solutions are most of the time not worth to spend time and manpower.

Here it is a diagram made by me thanks to the few information I have. :wink:

http://s9.postimg.org/muf9crdgv/dlischeme.png

Skysnake
2015-05-14, 13:40:00
That is exactly what i have said. You increase the wire capacity (load), because you have a bus system then, or you need an arbiter, so that you have an numa system. Both is ugly.

Otherwise you have to reduce the connection width to the single stacks. I dont know, if this is possible.

It is also a bit different, to what the people have talked about until now. They have said, that the two HBM stacks are on there own Interposer, but that make no sense, as well as your interpretation.

If you have to increase the amount of memory through more DRAM-DIEs, you can just build 8 high stacks, or build 2x4 high stacks, but not on two Base-Logic DIEs. You would use only one Base-Logic-DIE, not two!

It should be transparent from the logic view, if you have an 8 high stack, or a 2x4 high HBM chip. The only problem is, that the HBM chip have an at least doubled size. In my opinion, this would violate the specifications. Therefore this would be no longer HBM.

Again, toooooooo much to do for too little benefit. If something like this really comes, somebody have to be punished for the waste of money and manpower...

Locuza
2015-05-14, 13:49:20
Just a reminder, that we have this official picture from Hynix:
51916
http://diit.cz/sites/default/files/gtc_2015_hynix_hbm1_hbm_2.jpg

dargo
2015-05-14, 13:56:39
Yeah! MSAA for free with HBM! :D :D
For free ist gar nichts. Der Einbruch könnte aber kleiner ausfallen. Dummerweise ist MSAA außerhalb Forward(+) aber am aussterben.

anddill
2015-05-14, 13:58:09
Es spart Bandbreite aber keinen Speicherplatz.

Solange im RAM kein Kompressor/decompressor integriert ist wirst Du die Daten im Grafikchip komprimieren und so komprimiert speichern und auch wieder laden müssen.
Speicherkompression spart immer Bandbreite und Speicherplatz gleichzeitig.

Grabhopser
2015-05-14, 14:06:50
Solange im RAM kein Kompressor/decompressor integriert ist wirst Du die Daten im Grafikchip komprimieren und so komprimiert speichern und auch wieder laden müssen.
Speicherkompression spart immer Bandbreite und Speicherplatz gleichzeitig.


Nein, da es sich um Verlustfreiehe Kompression handelt weißt du nicht wie groß die komprimierten Daten am ende sind, deshalb muss man den Speicher allokieren, der den unkomprimierten Daten entspricht.

Fottemberg
2015-05-14, 14:09:06
That is exactly what i have said. You increase the wire capacity (load), because you have a bus system then, or you need an arbiter, so that you have an numa system. Both is ugly.

Otherwise you have to reduce the connection width to the single stacks. I dont know, if this is possible.

It is also a bit different, to what the people have talked about until now. They have said, that the two HBM stacks are on there own Interposer, but that make no sense, as well as your interpretation.

If you have to increase the amount of memory through more DRAM-DIEs, you can just build 8 high stacks, or build 2x4 high stacks, but not on two Base-Logic DIEs. You would use only one Base-Logic-DIE, not two!

It should be transparent from the logic view, if you have an 8 high stack, or a 2x4 high HBM chip. The only problem is, that the HBM chip have an at least doubled size. In my opinion, this would violate the specifications. Therefore this would be no longer HBM.

Again, toooooooo much to do for too little benefit. If something like this really comes, somebody have to be punished for the waste of money and manpower...

A 8GB solution with HBM1 is expensive because you have to link the two PHYs of the HBMs, but this doesn't mean that the bandwidth is the half. :)

mironicus
2015-05-14, 14:30:55
Wieviel Fiji-Karten werden wir wohl sehen?

Fiji Pro 4 GB
Fiji XT 4 GB
Fiji XTX 8 GB WCE (mit gleichzeitig mehr Bandbreite als die 4 GB-Version)

Ich bin mir ziemlich sicher, dass man aus einem großen Chip mehr als nur einen einzigen Salvage machen kann. Da könnte AMD von 400-800 Euro alles abdecken mit einem Chip, so von 3072-4096 SPs.

Sunrise
2015-05-14, 14:40:13
Von min. drei sollte man ausgehen können. Der Rest löst sich, wenn wir endlich bzgl. des VRAMs Bescheid wissen. Eventuell will ja auch Apple für nen neuen iMac mit Skylake und nem kleinen Fiji wieder abbeißen, dann hätte AMD noch ein Argument mehr, Fiji in dieser Form zu bringen.

uweskw
2015-05-14, 14:41:24
Wenn eine 4GB Graka unter 4K und MSAA einbricht, wie stelle ich fest ob es an der Speichermenge oder an der Bandbreite liegt?
Maxwell (GTX980) bricht jedenfalls in höheren Auflösungen mit MSAA stärker ein als Keppler (780Ti).

greetz
U.S.

aufkrawall
2015-05-14, 14:43:24
Meine Güte, nach über zehn Jahren hier sind dir Frametimes immer noch kein Begriff?

uweskw
2015-05-14, 14:57:40
Ich weiss was Frametimes sind,:rolleyes: jedoch wie ich hieraus entscheiden kann ob Bandbreite limitiert oder Speichermangel vorliegt ist mir nicht klar.

edit@krawall:
wo hast du einen Framtimevergleich zwischen 780ti und ner 4GB 980er gefunden? Oder hast du deine Glaskugel bemüht?

fondness
2015-05-14, 15:50:38
Nein, da es sich um Verlustfreiehe Kompression handelt weißt du nicht wie groß die komprimierten Daten am ende sind, deshalb muss man den Speicher allokieren, der den unkomprimierten Daten entspricht.

Richtig.

y33H@
2015-05-14, 16:03:45
Daten werden schneller übertragen, belegen aber den gleichen Platz ... AMD erwähnte zuletzt jedoch auch Kompression für im Videospeicher selbst, wollte das aber nicht explizit als Optimierung für HBM bestätigen.

mczak
2015-05-14, 16:59:42
Streng genommen braucht die verlustfreie Kompression sogar etwas mehr Platz. Denn für jeden Block wird noch ein zusätzliches Bit benötigt das sagt ob der Block komprimiert ist oder nicht.
(In der Praxis sind's sogar mehrere Bits denn die Chips beherrschen mehrere Kompressionsraten, also z.B. 1:2, 1:4 - dann braucht es 2 Bits pro Block. Diese Kompressionsinformationen werden in einem separaten Puffer gespeichert, sind natürlich im Vergleich zu den eigentlichen Bilddaten sehr klein.)

Skysnake
2015-05-14, 17:11:42
A 8GB solution with HBM1 is expensive because you have to link the two PHYs of the HBMs, but this doesn't mean that the bandwidth is the half. :)
HMB XY is more a marketing act, than something else. Nobody prohibits, that you use 2Gb DIEs. Therefore, you could build 2GB HBM stacks.

When you link 2 PHYs, you have a completely different connection technology. BUS<->Point-to-Point interconnect. It is much more difficult to build a bus, that can handle high frequencies.

On the other hand you can split the lanes, so that every stack is connected with a lower bandwith, like it have been done with GDDR5. The problem is, that you increase the required size and that the chips/technology have to support it. I don't know, if it is possible to operate on the complete memory only with the half connection width, but it is not important, because there are only two possibilities.

1. it is not possible, than it is not possible to build something like that. End of it...

2. It is possible. In this situation it is not required to put the HMB stacks on an additional interposer.

Therefore, it really make no sense in my eyes. I can only repeat it. Everything say NO. Perhaps i am wrong, but it is really unlikely as far as what i know. Therefore, as long as there are no clear hints for something like that, it make no sense to fudge a story. Yes we are in the speculation thread, but come on guys, it is not intended to tell stories.

y33H@
2015-05-14, 17:47:42
Was für dich langweilig ist, muss nicht für alle gelten (as usual :tongue:)Wer im Thema halbwegs drin ist, dem kann man zu HBM nicht mehr allzu viel erzählen. Ich hatte im Dezember schon nen Überblick (Stacked Memory (http://www.golem.de/news/stacked-memory-lecker-stapelchips-1412-111215.html)), jedoch auch mit HMC etc ... nun ziehen andere nach, so wie Hardwareluxx zB. Aus AMDs Sicht ist's logisch HBM zu zeigen und zu erklären, was u.a. kurz auf dem FAD geschah und dann erst Fiji.

anddill
2015-05-14, 17:55:45
Also bräuchte man nur mitzählen wieviel Daten tatsächlich geschrieben wurden und schon hätte man den durch Kompression gewonnenen Speicherplatz zur Verfügung. Klingt jetzt nicht wirklich kompliziert.

del_4901
2015-05-14, 18:09:11
Also bräuchte man nur mitzählen wieviel Daten tatsächlich geschrieben wurden und schon hätte man den durch Kompression gewonnenen Speicherplatz zur Verfügung. Klingt jetzt nicht wirklich kompliziert.
Man weis nicht wieviel Speicher eventuell gebraucht wird. Ausserdem funktioniert das ganze wie eine art Block-Kompression (NxM Pixel) anstatt der eigentlichen Werte speichert man einfach eine LUT/Formel und die dazugehoerigen Werte/Koeffizienten. Irgendwann passt beides natuerlich auch nicht mehr in den NxM Pixel Block, dann wird einfach dekomprimiert, die Pixel werden als ganzes geschrieben, die LUT/Formel gibs nicht mehr und irgendwo anders wird vermerkt, dass dieses Tile nicht mehr komprimiert ist.

iuno
2015-05-14, 19:45:18
Sorry, ist teils OT aber ich hätte noch eine Verständnisfrage. Um das Thema Interposer ging es glaube ich (wieder mal) vor 1-2 Wochen, hatte dann aber vergessen nachzufragen.
Bei der XBOX One ist ja eSRAM direkt in der APU dabei. Bei Intel gibt es ja Modelle mit Iris Grafik und eDRAM. Der ist aber nicht auf dem Chip, sondern daneben.
Ich frage mich, warum Intel hier nicht auch den Speicher direkt in den Chip gepackt hat (OK, klar, der fasst 4x so viel wie bei der XBOX, aber ist die Größe der einzige Grund?) und worin der Unterschied zwischen Intels Lösung und der Anbindung von HBM liegt. Also zunächst einmal, stimmt meine Annahme überhaupt, dass die Leitungen Iris <-> eDRAM im Substrat verlaufen oder hat Intel auch sowas wie einen Interposer dazwischen? Die Anbindung ist wohl auch 1024 Bit breit, wie bei einem HBM Stack und der Durchsatz beträgt etwa 100 GiB/s. Und warum kann AMD das nicht so machen, sondern braucht einen Interposer? Sind 4096 Leitungen dann schlicht zu viel?

Auch bei dem Bild von einer Pascal-Testplatine hat mich das gewundert
http://scr3.golem.de/screenshots/1503/GTC-2015-Pascal/thumb620/NV-Pascal.jpg
Das sieht gar nicht nach sowas aus:
http://prohardver.hu/dl/cnt/2015-02/115706/atacama.jpg
Liegt es daran, dass das nur ein dämliches Mockup ist oder habe ich irgendwie ganz falsche Vorstellungen?

Hübie
2015-05-14, 20:24:07
Wenn ich noch richtig informiert bin dann können schon Hawaii ROPs beim Export komprimieren. Ist also jetzt kein exklusives Feature von Fiji.
@iuno: Das wird eher kostenschonende Maßnahmen zu verdanken sein als technische Limitierung. Zudem ist es eine recht simple Sache 32 MB eSRAM in die Hierarchie zu implementieren wenn man das mit einer neuen Speichertechnologie vergleicht. Hawaii ist imo schon sehr beeindruckend was das PHY / Interconnect angeht.

Knuddelbearli
2015-05-14, 21:08:18
natürlich kann schon hawaii komprimieren sie wurde nur, deutlich?, verbessert.

Hübie
2015-05-14, 21:12:27
Das vermag ich nicht zu beurteilen da man dies bei Hawaii auch explizit nutzen muss und ich nicht sagen kann welche Spiele(-engines) es nutzen und welche nicht. Man sollte für derlei Dinge Standards festlegen. S3TC ist ja (afaik) auch seit Jahren Bestandteil der D3DAPI, heißt jetzt nur nicht mehr so.

Dunkeltier
2015-05-15, 00:28:00
Mal 'ne Frage. Wenn Fiji wirklich wie Gerüchte vermuten zuerst mit 4 GB kommt, stellt sich dann bei diesen Karten nicht auch das Problem mit den Lagskpikes in Frameverläufen ein? Das wäre dann ja voll die Verarschung, zwar 5 oder 10% schneller als die Titan X aber dafür ein unsauberes Spiele-Erlebnis weil immer aus dem RAM geswappt wird.

y33H@
2015-05-15, 01:12:23
Nicht gesichert - in meinen Augen aber denkbar: AMD soll preislich und von der Performance her in Richtung der Titan X gehen und nennt das Teil nicht R9 390X, sondern anders.

Ich werfe mal 800+ USD und 90 % einer Titan X in den Raum, aber nagelt mich nicht drauf fest.

Hübie
2015-05-15, 01:17:35
Wäre auch meine Einschätzung. Wobei ich dann keine 800 USD dafür investieren würde.

Edit: Wobei Perf/Watt hier sinnvoller wäre...

boxleitnerb
2015-05-15, 06:40:41
Ich schätze AMD wird die X sogar leicht schlagen, weil die Deppen von NV wieder einen zu schwachen Kühler gebaut haben bzw. keinen Über Modus bewerben. Im englisch-sprachigen Web bencht ja niemand die NV-Karten mit TT@max wie hier. Das war echt clever von AMD.

Händisch optimiert sehe ich die X dann aber mindestens gleichauf.

Korvaun
2015-05-15, 07:50:48
10% langsamer als TitanX wäre kein Problem, das Problem ist dass es dann nur noch 15% schneller als 08/15-custom 980er ist. Wenn Die Custom-980er bei ca. 600€ liegen, kann ein solcher 4GB-FiJi eigentlich auch nicht viel mehr kosten. MAXIMAL 700€ in Custom-Versionen für die Fiji, das wäre dann aber schon grenzwertig (der NV-Bonus ist nicht zu verachten).

Sunrise
2015-05-15, 08:05:03
Ich bleibe mal bei meiner Einschätzung vom März mit $799 US für die WCE. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10569841#post10569841)

Wenn nicht mit 8GB, dann mit 4GB, aber so ein Kühler zusätzlich wird ordentlich den Preis nach oben heben. Die Lukü-Version wird etwas günstiger und dann halt noch der Salvage (evtl. sogar zwei).

Dawn on Titan
2015-05-15, 08:06:40
Glaubt doch nicht, dass NV nicht reagiert.

Wir werden dann 980(GM204) Versionen mit 8GB sehen und sicher auch eine 6GB 980ti die beim Powertarget etwas freigiebiger ist als die Titan X. (6GB weniger GDDR5 geben denen da schon Spielraum für die GPU).

Sunrise
2015-05-15, 08:10:22
@Dawn on Titan
Doch, glaub ich schon, steht im Maxwell-Thread.

HOT
2015-05-15, 09:44:59
1.) 8GB GTX980: Dafür gibts ne 6GB 980ti, sowas wirds nicht geben, ist für NV sinnlos
2.) 980ti freigibiger mit dem Powertarget: Wieso? Macht keinen Sinn. Darf ja nicht schneller sein als die Titan logischerweise. Herstellerkarten gibts sicher wieder freie.
3.) 980ti ist kein voller GM200, irgendwo müssen die Salvageparts hin und wo wenn nicht da, bei 600mm² gibts sicher einiges an Salvage.

Dawn on Titan
2015-05-15, 10:30:49
Es gibt halt vieles was NV tun könnte.

Schnoesel
2015-05-15, 11:31:02
799 Dollar können sie jedenfalls nicht verlangen bei nur 4GB. Bei 8GB hingegen schon. Ich muss mir dann auch erstmal ansehen welche Karte am Besten zu meinem Profil passt, da ich meine 4K Pläne für dieses Jahr verschieben musste. Imo gehen sich 4 K und Leistung derzeit nicht aus (das mögen andere anders sehen). Daher benötige ich eine Karte die vor allem in 1440p gut da steht. Unter + 40% lohnt sich ein Aufrüsten eher nicht. Naja wie auch immer in einem Monat sollten wir mehr wissen.

Hübie
2015-05-15, 12:32:40
Es gibt halt vieles was NV tun könnte.

Aber nicht vieles was wirtschaftlich sinnvoll ist ;);)

Gipsel
2015-05-15, 13:30:04
Ich frage mich, warum Intel hier nicht auch den Speicher direkt in den Chip gepackt hat (OK, klar, der fasst 4x so viel wie bei der XBOX, aber ist die Größe der einzige Grund?) und worin der Unterschied zwischen Intels Lösung und der Anbindung von HBM liegt. Also zunächst einmal, stimmt meine Annahme überhaupt, dass die Leitungen Iris <-> eDRAM im Substrat verlaufen oder hat Intel auch sowas wie einen Interposer dazwischen?Ja, das geht über das Substrat ohne Si-Interposer.
http://images.anandtech.com/doci/6993/DSC_0343_575px.jpg
Die Anbindung ist wohl auch 1024 Bit breit, wie bei einem HBM Stack und der Durchsatz beträgt etwa 100 GiB/s. Und warum kann AMD das nicht so machen, sondern braucht einen Interposer? Sind 4096 Leitungen dann schlicht zu viel?Ja, das wird irgendwann zuviel. Außerdem hat man weniger Probleme mit der Signalqualität, kann also im Zweifelsfall noch etwas mehr Strom sparen bzw. alternativ das Interface schneller betreiben oder auch einfacher gestalten.
Auch bei dem Bild von einer Pascal-Testplatine hat mich das gewundert
http://scr3.golem.de/screenshots/1503/GTC-2015-Pascal/thumb620/NV-Pascal.jpg
Das sieht gar nicht nach sowas aus:
http://prohardver.hu/dl/cnt/2015-02/115706/atacama.jpg
Liegt es daran, dass das nur ein dämliches Mockup ist oder habe ich irgendwie ganz falsche Vorstellungen?Das Pascal-Bild zeigt schlicht kein HBM, wie schon damals bemerkt wurde. Für HBM sind im Moment Si-Interposer zwingend erforderlich. Die JEDEC arbeitet allerdings an zukünftigen Spezifikationen, die für kostensensitivere Anwendungen (auf Kosten der Performance bzw. bei einem Mehr an Stromverbrauch) auch Glas-Interposer bzw. sogar organische Interposer (also schlicht über das Substrat) verwenden können.

y33H@
2015-05-15, 14:14:38
Was ist das dann bei Pascal? Einfach ein Dummy?

Unicous
2015-05-15, 14:46:29
Hatten wir das damals nicht besprochen? Entweder mit Schrauben befestigt oder eben wie Gipsel meinte das Substrat als Interposer.
Problem dabei ist nur: das stellen weder TSMC noch andere bislang her. Der Xilinx FPGA z.B wird auch "klassisch" per Interposer gefertigt.

Das was Gipsel da zeigt (Haswell+eDRAM) ist aber irreführend. Das ist ja nicht Konzept des Interposers mit TSV und micro bumps.:wink:

Glas und andere Möglichkeiten sind noch nicht marktreif.

Dawn on Titan
2015-05-15, 15:17:53
Kann aber einfach ne Sache des Packaging sein

Unicous
2015-05-15, 15:33:16
Was willst du mir damit sagen?:confused:

Skysnake
2015-05-15, 16:07:39
Was ist das dann bei Pascal? Einfach ein Dummy?
Gut möglich, wobei ich mir nicht mal sicher bin, ob man das Ding wirklich gezeigt hatte :confused: Also ob es nicht sogar nur eine Rendergrafik ist.

Könnte aber natürlich auch noch aktuell ein Testchip sein, bei dem man GDDR RAM "einfach" drauf packt aufs Package, oder what ever.

Ich würde da jetzt nicht zu viel reininterpretieren, wobei es natürlich auch sein kann, das man tests macht mit organischen Packages statt einem SI-Interposer, aber das ist alles Spekulation.

Ich selbst gehe ja nicht davon aus, dass das Ding funktional ist.

Hatten wir das damals nicht besprochen? Entweder mit Schrauben befestigt oder eben wie Gipsel meinte das Substrat als Interposer.
Problem dabei ist nur: das stellen weder TSMC noch andere bislang her. Der Xilinx FPGA z.B wird auch "klassisch" per Interposer gefertigt.

Das was Gipsel da zeigt (Haswell+eDRAM) ist aber irreführend. Das ist ja nicht Konzept des Interposers mit TSV und micro bumps.:wink:

Glas und andere Möglichkeiten sind noch nicht marktreif.
Naja, bei Glas interposern haste halt das Problem, dass das wirklich nur mit passiven Komponenten geht. Ist quasi die "low" cost Variante :freak:

Die ganze Sache ist auch nirgends eine 0/1 Entscheidung, sondern immer ein Abwägen von unterschiedlichen Anforderungen. Organische Packages haben halt ein schlechteres Signalverhalten für hohe Frequenzen (GHz) und wohl auch deutlich größere Fehlertolleranzen als Glas oder SI Interposer, bei gleichzeitig deutlich größeren Strukturgrößen.

y33H@
2015-05-15, 16:14:51
Für ein Render sieht mir das doch bissi zu echt aus. Aber ja, sicherlich Mockup.

Dawn on Titan
2015-05-15, 16:18:14
Was willst du mir damit sagen?:confused:

Ne, Abdeckung auf dem PCB zur besseren Wärmeableitung z.B.

iuno
2015-05-15, 18:10:26
Das was Gipsel da zeigt (Haswell+eDRAM) ist aber irreführend. Das ist ja nicht Konzept des Interposers mit TSV und micro bumps.:wink:
Das hat er ja gemacht, weil ich explizit danach gefragt habe ;)
Danke für die Aufklärung jedenfalls

Kartenlehrling
2015-05-15, 18:23:11
Gibts eigentlich Infos mit welchen Feature AMD neue Karten kommen könnte?
Nvidia kommt 100% mit verbesserte deferred MSAA, als ob sie nicht genug antialiasing Filter hätten,
aber nochmal 40% Vram einsparen und 70% schnellers Rendering muss beworben werden.

Dann frag man sich wieso sie der TitanX 12gb verpasst haben.

horn 12
2015-05-15, 23:50:47
Launch defintiv R9 390(X) am 24 Juni.

@Newegg
2 Games: GTA 5 sowie DiRt Rally bei R9 290-er Karten zwecks Abverkauf jener!
http://www.fudzilla.com/news/graphics/37764-amd-bundles-gta-5-and-dirt-rally-with-radeon-200-series

-/\-CruNcher-/\-
2015-05-16, 02:26:21
AMD sollte es diesmal lieber richtig machen und die kleinere Karte zumindestens gleichzeitig Launchen und nicht wieder 1 Jahr zu spät :(
Ohne GTX 970 contender laufen sie garantiert wieder vor die Wand.
Irgendwann muss man das doch mal bei AMD begreifen das Nvidia es begriffen hat ;)

woodsdog
2015-05-16, 08:08:18
AMD sollte es diesmal lieber richtig machen und die kleinere Karte zumindestens gleichzeitig Launchen und nicht wieder 1 Jahr zu spät :(
Ohne GTX 970 contender laufen sie garantiert wieder vor die Wand.
Irgendwann muss man das doch mal bei AMD begreifen das Nvidia es begriffen hat ;)

Du faselst einen Quatsch zusammen... Hawaii bzw die Rebrands werden genau das tun (und was sie auch bisher gemacht haben).

horn 12
2015-05-16, 09:00:50
Nun, eine R9 390 4GB HBM und dafür nur die R9 390X und 390X mit AIO
wäre wohl Supoptimal für AMD und jenen würden viele Käufer den Rücken kehren.
Mann muss falls echt 8GB HBM realisiert werden, mindestens 4 und 8 GB veröffentlichen ansonsten werden viele potentielle Käufer AMD den Rücken kehren und zur GTX 980TI / Titan-X greifen.
Zudem wird AMD die R9 390 wohl zwischen GTX 980 und Titan X stellen
die R9 390X knapp an Titan X und die AIO wird wohl zu einer Titan X @1400 aufschließen können.

maximus_hertus
2015-05-16, 09:11:32
Unser täglich horn gib uns heute ;)

Bleib doch mal geschmeidig, es lohnt sich nicht über den Weltuntergang aka AMD zu philosophieren, bevor Daten auf dem Tisch liegen. Mit Daten meine ich echte Daten, kein blabla Fake / Wunsch / sonstwas.

Einfach noch rund 30 mal schlafen und wir sind dann wohl schlauer...

Skysnake
2015-05-16, 09:41:08
Nicht wirklich, AMD hat eh so niedrige Marktanteile, da kann man eigentlich nicht mehr verlieren

mironicus
2015-05-16, 09:58:19
So stelle ich mir das vor:
- Viele warten gespannt auf den Fiji-Launch
- Nach dem Lesen der Reviews: Ernüchterung
- Die nächsten Tage werden mehr Titan X als sonst verkauft (oder 980 Ti)

:D

Spasstiger
2015-05-16, 10:02:27
Ich befürchte, dass der Einsatz von HBM-Speicher bei Fiji keine relevanten Performancevorteile gegenüber GDDR5 an einem 512-Bit-SI bringen wird und sogar den Nachteil höherer Kosten trägt -> daher auch nur 4 GiB im Sinne eines passablen P/L-Verhältnisses.
Sicherlich wird HBM aber dazu beitragen, dass AMD überhaupt noch mehr Rechenleistung auf einer GPU in 28-nm-Fertigung innerhalb der bekannten TDP-Grenzen unterbringen kann. Die gesparte Leistungsaufnahme bei Speicherzugriffen kann direkt für mehr Recheneinheiten genutzt werden.
Mehr als 30% Performancezuwachs gegenüber Hawaii in Gaming-Workloads würden mich bei Fiji überraschen.

Fiji dürfte aber mit großem Abstand die Performancekrone bei Double-Precision-Computing holen. Ich denke nicht, dass AMD an dieser Stelle Kompromisse gegenüber Hawaii eingeht. Wahrscheinlich sehen wir bei den FirePros dann auch 8- und evtl. 16-GiB-HBM-Derivate.

Gipsel
2015-05-16, 11:31:09
AMD könnte es aber auch so ähnlich wie nV mit dem GM200 machen. Hawaii ist mit 2,6 TFlop/s in DP bei den GPUs immer noch klar führend, so daß man Hawaii für die FirePro-Karten weiterlaufen lassen könnte und Fiji nur 1:4 (im Vergleich zu 1:2 relativ billig und damit wäre man übrigens immer noch vor der schnellsten Tesla-Karte von nV und auch im HPC-Bereich ist nicht nur alles DP) oder gar nur 1:16 DP spendiert (geringste Diefläche [evtl. wichtig, um 4 HBM-Stacks auf den Interposer zu bekommen kann das GPU-Die wohl nicht über 500mm² werden, wenn nicht in die Trickkiste gegriffen wird] und spart wohl auch ein paar Prozentpünktchen beim Verbrauch).
Die wirkliche Ablösung bei den FirePros kommt dann erst mit dem nächsten Topmodell mit FinFets, 32GB HBM2 (4 Stacks, 1 TB/s Speicherbandbreite) und dann vermutlich 6+ TFlop/s in DP.

Botcruscher
2015-05-16, 11:40:00
Könnte ist gut. Insgesamt ist die Chip Strategie von AMD schon vor Jahren gescheitert. Die Aufteilung von NV in großen "Midrange" und Highend-Chip war der Todesstoß.

Unicous
2015-05-16, 11:43:20
LOL.;D


Dieser Thread ist echt nur noch ein Witz. Könnte sich 1:1 auch um einen Fußballverein drehen, man muss nur ein paar Begriffe und Namen austauschen. Die steigen doch eh ab. Haben doch schon seit Jahren verloren. Hätten wohl besser in mittelgroße Feldspieler und lange blonde Torwarte investieren sollen.

iuno
2015-05-16, 11:53:31
@Gipsel: Ich dachte, AMD schalte mit GCN bereits zwei FP32 zu einer FP64 Einheit zusammen? Demzufolge kann man hier doch gar nichts mehr einsparen im Gegensatz zu Nvidia

Botcruscher
2015-05-16, 11:55:23
Hätten wohl besser in mittelgroße Feldspieler und lange blonde Torwarte investieren sollen.
Den Erfolg sieht man ja deutlich.

AnarchX
2015-05-16, 11:59:53
AMD könnte es aber auch so ähnlich wie nV mit dem GM200 machen. Hawaii ist mit 2,6 TFlop/s in DP bei den GPUs immer noch klar führend, so daß man Hawaii für die FirePro-Karten weiterlaufen lassen könnte [...]
Zumal man Hawaii wohl auch noch ein 32GiB Upgrade mit den 8Gbit Chips verpassen könnte.

Knuddelbearli
2015-05-16, 12:01:38
@Gipsel: Ich dachte, AMD schalte mit GCN bereits zwei FP32 zu einer FP64 Einheit zusammen? Demzufolge kann man hier doch gar nichts mehr einsparen im Gegensatz zu Nvidia

na das zusammenschließen ist ja nicht gratis sondern kostet auch einiges an Transistoren und Strom.

foenfrisur
2015-05-16, 12:02:37
OT
wenn du hier nicht mehr schreiben willst unicous, gib hier bitte bescheid.
denn dann melde ich mein themen-abo hier ab ;)

lese hier auch nur noch mit, weil "du" (und wenige andere (mich ausgeschlossen)) hier in erster linie noch die fahne hoch hälst.
(danke dafür)

diesen gequirlten spekulatius-dünnpfiff kann ich nicht mehr lesen.
amd könnte, hätte, sollte lieber, dann wäre bestimmt und evtl. alles besser geworden.
ach ja....und vermutlich habe ich ja sowieso recht.

klar ist es hier spekulatius, aber dann bitte mit "nivea" zum eincremen und nicht mit schei**e zum wegwerfen.
/OT

ein "rundes produkt" muss nicht immer das schnellste sein ;)
wenn sonst alles passt, muss auch die 1000€ titan x nicht geschlagen werden.

die erwartungshaltung ist entscheidend. was nützen die sinnlos-erwartungen:
schneller, leiser, kühler, kleiner, sparsamer und dann auch noch günstiger, als die titan x...

genau so wird fiji werden :facepalm: :comfort:

mfg

p.s.
ich liebe die geilen smileys hier :uup:

iuno
2015-05-16, 12:12:50
@Knuddelbearli: Aber wäre das nicht ein größerer Eingriff in die Architektur? Bisher ging man ja davon aus, dass Fiji GCN Stand Tonga entspricht und der hatte nun nicht gerade auffallend weniger Transistoren oder Fläche.
Und was verbraucht da Strom wenn man die DP Funktionalität einfach nicht nutzt? Hawaii hat ja bei der Radeon nur ein SP:DP Verhältnis von 8:1, obwohl es eigentlich und auch bei den FirePros 2:1 ist.

Knuddelbearli
2015-05-16, 12:14:55
naja die kleinen können ja schon immer weniger dp. wenn man sich nichts sparen würde würde amd die ja alle 1:2 bzw 1:3.
Und man macht sicher kein vollkommenes Powergating bei jedem einzelnen Shader also kosten die transistoren natürlich auch Strom auch wenn sie nicht genutzt werden

iuno
2015-05-16, 12:21:05
Das sind nicht nur die kleinen, auch Hawaii hat ja bei der Radeon nur ein SP: DP Verhältnis von 8:1, obwohl es eigentlich ja bei 2:1 liegt und bei den FirePros so genutzt werden kann.

Knuddelbearli
2015-05-16, 12:29:56
1:8 bei den hawaii Radeons ist aber nur eine Software Limitation.
von den kleineren kann aber keine 1:2 auch nicht als Fire

Thunder99
2015-05-16, 13:37:39
Fiji ist überhaupt nicht gescheitert mit 4GB wenn das Produkt entsprechend platziert wird.

Wenn es möglich ist wäre ja so eine Konstellation ja durchaus eine Win/Win Situation von Kunde und AMD:

R9 390 4GB HBM teil deaktiviert -> schneller als GTX970
R9 390x 4GB HBM voll mit "niedrigen" Takt, Luftkühlung -> schneller als GTX980, evt Ti Leistung
R9 xxx 8GB HBM(2) später im Jahr -> Titan X Killer

Und alle Chips preislich attraktiver gesetzt als die entsprechende Konkurrenz, schon hat man ein rundes Produktportfolio

Dawn on Titan
2015-05-16, 13:57:42
Wenn Du mit 500mm² + HBM einen Preiskampf gegen GM204 + GDDR5 führen musst, ist AMD am Arsch. Das Beste was man da hoffen kann ist, dass NV die Preise nicht ändert, nur wenn die das nicht müssen, dann hat AMD auch ein Problem. Alternativ stellt NV eben 8GB Versionen der GM204 SKUs vor.

mironicus
2015-05-16, 14:02:17
Preisschlacht ist doch immer gut. Z.B. GTX 980 fällt auf 400 Euro herab, weil AMD Fiji Pro für 450 Euro verkauft und sie ist schneller. :D :D
Der niedrig getaktete Fiji Pro wird dann der eigentliche Star der neuen GPU-Reihe, ist fast so sparsam wie die GTX 980 dank HBM. :D

Screemer
2015-05-16, 14:06:30
Wenn Du mit 500mm² + HBM einen Preiskampf gegen GM204 + GDDR5 führen musst, ist AMD am Arsch. Das Beste was man da hoffen kann ist, dass NV die Preise nicht ändert, nur wenn die das nicht müssen, dann hat AMD auch ein Problem. Alternativ stellt NV eben 8GB Versionen der GM204 SKUs vor.
Letzteres Werden wir imho nie sehen. Damit würde NV g200 sowohl als Titan als auch als ti obsolet machen.

Korvaun
2015-05-16, 14:25:35
Wenn Fiji trotz der angedachten Rohpower die Leistung nicht "auf die Straße" bekommt, also merklich schneller als eine GTX980 ist, dann hat AMD ein gewaltiges Problem... Dann könnten sie eigentlich gleich den Launch canceln und für dieses Jahr komplett auf rebrands setzen.

GM204 = 400mm2 + GDDR5 gegen Fiji (pro) 550mm2 + HBM ???? Das MUSS reinhauen, sonst macht sich AMD völlig zur Lachnummer in meinen Augen :)

mironicus
2015-05-16, 14:32:16
NVidia verteilt gerade ein paar Briefumschläge mit grünen Scheinchen an Reviewer, damit sie unbedingt Project Cars in den Benchmarkparkour mit aufnehmen... und natürlich noch ein paar andere Spiele die Gameworks verwenden auf die AMD noch nicht seine Treiber optimieren konnte... :D :D

Duplex
2015-05-16, 14:38:59
AMD spart bei der Entwicklung einfach zu viel, seit GCN 1.0 (7970) hat sich bei der Architektur kaum was getan, das größere Frontend bei Hawaii ist nur eine kleinigkeit und keine Rede wert, wann kommt ein neuer Chip der unabhängig von der Fertigung >50% effizienter sein kann? Nvidia ist einfach viel besser als AMD, auch ohne HBM ist Nvidia besser!

y33H@
2015-05-16, 14:54:20
NVidia verteilt gerade ein paar Briefumschläge mit grünen Scheinchen an Reviewer, damit sie unbedingt Project Cars in den Benchmarkparkour mit aufnehmen ... Jeder, der es macht, kriegt so oder so die "Gekauft"-Keule übergezogen :ulol:

Menace
2015-05-16, 14:58:56
Wann war das noch, als nvidia mal die möglichen Benchmarks empfohlen hat und war es nicht pcgh die diesen Vorschlag gefolgt sind? Muss schon lange her sein.

y33H@
2015-05-16, 15:04:40
Kein Hersteller empfiehlt Spiele oder Benchmarks, in den Guides der Karten stehen immer nur Richtwerte drin. Und wenn Nvidia GTA 5 empfehlen WÜRDE, soll man dann eines der populärsten Spiele überhaupt weglassen? Ich meine nein, denn das läuft recht ausgewogen. Project Cars ist was anderes.

Agent117
2015-05-16, 15:05:42
AMD spart bei der Entwicklung einfach zu viel, seit GCN 1.0 (7970) hat sich bei der Architektur kaum was getan, das größere Frontend bei Hawaii ist nur eine kleinigkeit und keine Rede wert, wann kommt ein neuer Chip der unabhängig von der Fertigung >50% effizienter sein kann? Nvidia ist einfach viel besser als AMD, auch ohne HBM ist Nvidia besser!

Lol die Kepler Architektur war ja auch eine Krücke. Da war es schon sinnvoll die Cluster zu ändern von 192 auf 128SPs das hätte selbst meine Oma erkannt.

Eines muss ich dann aber doch nochmal ausgraben: Hätte AMD nicht die Small-Chip Strategie gefahren und gegen GT200 einen 550mm² RV770 mit 1920 SP sowie gegen GF100 einen RV870 mit 2800SP in unter 600mm² gefahren wäre Nvidia in den Jahren 2008 bis 2011 im Gaming Bereich durch AMD vernichtet worden und die Marktanteile sähen heute sehr wahrscheinlich deutlich anders aus. NV war immer an der Grenze des technisch machbaren. AMD hätte noch deutlich größere Chips auflegen können. Die dann geschätzte Leistungsaufnahme von 250W (heute Standart im High-End) hätte man auch schon damals wegkühlen können und darüber hätte sich auch keiner aufgeregt wenn AMD dafür auch 50% schneller ist.

Agent117
2015-05-16, 15:13:46
Wann war das noch, als nvidia mal die möglichen Benchmarks empfohlen hat und war es nicht pcgh die diesen Vorschlag gefolgt sind? Muss schon lange her sein.

Wann weiß ich leider nicht. Ich hatte mal ein Abo der PC-Games so um die Jahre 2007-2009. Was in der PCGH veröffentlicht wurde war meistens weitgehend neutral mit meiner Subjektiven Meinung nach leichten Vorteilen für NV.
Eine zu starke Bevorzugung würde beim "Fachpublikum" der PCGH auch auffallen.
Die PC-Games wird hingegen von Gamern gelesen, von denen die meisten hardwaretechnisch nicht sobewandert sind.
Hier wurde Nvidia deutlich mehr bevorzugt und es ist auch nicht so aufgefallen.
Das ging teils sogar soweit, dass irgendwann in Q4 2008 mal empfohlen wurde, mit dem Aufrüsten auf die kommende Geforce GTX 270 (erschien dann erst 2009 als GTX 275) zu warten, da diese hervorragend mit den gerade erschienenen Nehalems harmonieren würde. Klingt jetzt vlt harmlos aber war in dem Kontext das Artikels schon sehr mies und ich habe mein Abo dann auch gekündigt.

Thunder99
2015-05-16, 15:14:03
Wenn Du mit 500mm² + HBM einen Preiskampf gegen GM204 + GDDR5 führen musst, ist AMD am Arsch. Das Beste was man da hoffen kann ist, dass NV die Preise nicht ändert, nur wenn die das nicht müssen, dann hat AMD auch ein Problem. Alternativ stellt NV eben 8GB Versionen der GM204 SKUs vor.
Stimmt auch wieder, leider :(

Bei AMD sieht man jetzt, das ihre Strategie nicht zum gewünschten Markterfolg verholfen hat. Daher sind sie gezwungen einen großen Chip aufzuerlegen, siehe Hawaii und nun Fiji. Damals vermutete man nicht so negative Auswirkungen. Heute ist man schlauer

y33H@
2015-05-16, 15:15:32
Die PC-Games wird hingegen von Gamern gelesen, von denen die meisten hardwaretechnisch nicht sobewandert sind. Hier wurde Nvidia deutlich mehr bevorzugt und es ist auch nicht so aufgefallen.Lustig, stammt doch der Hardware-Teil der Games von den PCGH-Leuten :rolleyes:

Menace
2015-05-16, 15:23:29
Muss schon lange her gewesen sein, auf jeden Fall gab es ein ziemliches Durcheinander, weil wohl ein "Magazin" sich wirklich an die Vorgaben gehalten hat und anschließend wohl auch zurück gerudert ist, aber welche Zeitschrift bzw. Onlineseite das war kann ich leider nicht mehr sagen. (Das war es leider nicht (http://www.heise.de/newsticker/meldung/Nvidia-mogelt-sich-durch-Grafik-Test-79615.html))

@Agent117: Bei pcgh-Empfehlungen wurde schon häufiger heiß diskutiert. Ich fürchte, je mehr eine Grafikkarte kann, bzw. je unterschiedlicher sie sind, umso schwieriger werden Empfehlungen, da es dann doch auf die individuellen Bedürfnisse ankommt.

R.I.P.
2015-05-16, 16:08:38
Vorstellung der neuen Gen am 24. Juni mit eigenem Event laut einigen ital. Zeitschriften auf Twitter...

Diese Benches schon bekannt? Sorry wenn ja, aber hier wird soviel Mist geschrieben, dass ich die wichtigen Posts übersehe :(

http://www.overclock3d.net/articles/gpu_displays/amd_r9_390x_vs_gtx_980_ti_performance_leak/1

captain_drink
2015-05-16, 16:20:39
http://www.overclock3d.net/articles/gpu_displays/amd_r9_390x_vs_gtx_980_ti_performance_leak/1

Aufgewärmt von einem mehrere Monate alten CH-Artikel.

R.I.P.
2015-05-16, 17:29:58
Danke. Gut zu wissen, dass ich nur ein paar Monate zurückhinke. Prost!

Agent117
2015-05-16, 21:40:25
Lustig, stammt doch der Hardware-Teil der Games von den PCGH-Leuten :rolleyes:

Das stimmt natürlich aber das sind auch nicht immer bloß Kopien der PCGH Artikel und Empfehlungen in Leserbriefen gibt es ja auch noch.
Habe vlt auch biszchen übertrieben aber meiner Meinung nach ist PCGH und vor allem PCG schon mehr grün als rot.

maximus_hertus
2015-05-16, 22:56:34
Muss schon lange her gewesen sein, auf jeden Fall gab es ein ziemliches Durcheinander, weil wohl ein "Magazin" sich wirklich an die Vorgaben gehalten hat und anschließend wohl auch zurück gerudert ist, aber welche Zeitschrift bzw. Onlineseite das war kann ich leider nicht mehr sagen.

Computerbase http://www.computerbase.de/2008-11/test-geforce-180.47-in-fuenf-spielen/

Menace
2015-05-16, 23:13:03
Mea culpa pcgh! Es war mal wieder computerbase. Danke für das Heraussuchen.

Knuddelbearli
2015-05-16, 23:33:31
Wann war das noch, als nvidia mal die möglichen Benchmarks empfohlen hat und war es nicht pcgh die diesen Vorschlag gefolgt sind? Muss schon lange her sein.


war glaube ich damals der 295 Test. Als zufällig alle Seiten ( Cb Luxx PCGH im deutschen raum Toms weiss ich nimmer ) die gleichen Spiele für ein kurzreview hatten und alle ewig lang behaupteten es kam nicht von NV

Schaffe89
2015-05-17, 00:54:46
Computerbase hat sich damals da mit reinziehen lassen und auch andere Webseiten.
Natürlich war sich CB keiner Schuld bewusst und auch im Fazit haben sie so getan, wie wenn sie von nichts wüssten.

R.I.P.
2015-05-17, 08:02:00
Redaktionen bestehen aus Menschen und diese Menschen haben Vorlieben. Ich kenne kenne keine deutsche Zeitschrift, wo man nicht auf den ersten oder zweiten Blick erkennt, welche Hardwarevorlieben der jeweilige Rtikelverfasser hat...

Wirklich lustig, es gibt so wenige Infos trotz baldigem launch der neuen Serie, dass wir über Gott und die Welt lästern müssen...

[MK2]Mythos
2015-05-17, 09:41:04
Die Mods haben wohl längst aufgegeben... :D

Mancko
2015-05-17, 11:28:23
Fiji ist überhaupt nicht gescheitert mit 4GB wenn das Produkt entsprechend platziert wird.

Wenn es möglich ist wäre ja so eine Konstellation ja durchaus eine Win/Win Situation von Kunde und AMD:

R9 390 4GB HBM teil deaktiviert -> schneller als GTX970
R9 390x 4GB HBM voll mit "niedrigen" Takt, Luftkühlung -> schneller als GTX980, evt Ti Leistung
R9 xxx 8GB HBM(2) später im Jahr -> Titan X Killer

Und alle Chips preislich attraktiver gesetzt als die entsprechende Konkurrenz, schon hat man ein rundes Produktportfolio

Bloß nicht. Das was Du hier schreibst wäre sehr schlecht für AMD. Dann wäre wieder nur der Preis das Kriterium. Ganz ehrlich. Mit so einer Strategie werden die baden gehen. Nvidia hat die günstigeren Fertigungskosten mit der 980 und 970 und das größere Bankkonto. AMD muss zwingend dafür sorgen, dass eigene Produkte in erster Linie wegen der Leistung und der Features gekauft werden und nicht wegen dem Preis. Das setzt natürlich entsprechende Produkte vorraus. Alles andere wird scheitern und nicht mehr lange gut gehen.
Nvidia kann seine Preise nach belieben anpassen. GM204 in Form der 980 und 970 ist sensationell günstig herzustellen und wird mit extrem hoher Marge verkauft. Die haben da so viel Spielraum, dass es für AMD m.E. nicht möglich ist dort wirtschaftlich rein über den Preis gegenzuhalten. Und sie haben Monate Vorsprung in denen sie schon wieder an die 300 Mio Dollar Profite gemacht haben.

Das einzige was AMD mittel bis langfristig helfen wird ist das R&D hochzufahren und Produkte primär ihrer Eigenschaften wegen zu verkaufen. Das bedeutet natürlich, dass treue AMD Kunden auch mehr Geld bezahlen müssen. Die Billigstrategie wird scheitern und zwar wegen ganz simpler Marktgesetze.

Thunder99
2015-05-17, 11:39:39
Du magst zwar Recht haben, aber AMD kocht auch nur mit Wasser und wie willst du ein GM204 Konkurrent den aus dem Hut zaubern? AMD wird wahrscheinlich nur Fiji als neuen Chip haben der viel abdecken muss. Hawaii ist zwar recht gut aber bestimmt nicht so viel billiger als Fiji...

Ich lasse mich aber gerne positiv überraschen

dlux
2015-05-17, 11:58:34
http://i.imgur.com/LmJoYLi.jpg
Quelle (http://videocardz.com/55259/sk-hynix-shows-off-hbm1-and-hbm2)

Die Folien scheinen echt zu sein.

4-Hi HBM1 Stack = 16 Gb = 2 GB
8-Hi HBM1 Stack = 32 Gb = 4 GB

Fiji XT könnte mit zwei 8-Hi HBM1 Stacks oder vier 4-Hi HBM1 Stacks ausgeliefert werden, dann hätte die Grafikkarte 8 GB Speicher. Oder spricht etwas dagegen?

Unicous
2015-05-17, 12:02:15
Schon zig mal in dem Thread zu finden und ja sie sind echt und offiziell und außerdem ist der "Artikel" zwei Monate alt.

y33H@
2015-05-17, 12:04:21
Offiziell listet Hynix nur 4-Hi-Stacks mit 2 GBit pro Die.

Thunder99
2015-05-17, 12:10:09
Der Overkill wäre ja Fiji Pro 4GB, XT 8GB und WCS 16GB

Raff
2015-05-17, 12:15:48
Ich fänd's sehr cool. :D Schön differenziert; man könnte genau abwägen, was man braucht und kauft. Und wenn die WCE als Titan-X-Killer konzipiert ist, dann bitte in jeder Hinsicht (auch beim Speicher).

MfG,
Raff

Unicous
2015-05-17, 12:16:13
WCS 16GB

Not gonna happen.

y33H@
2015-05-17, 12:16:15
Die Folien scheinen echt zu sein.Gibt's (in klein) bei Hynix selbst: https://www.skhynix.com/gl/products/graphics/graphics_info.jsp

51951

EDIT
Halbe Kapazität auf dem Bild, meh.

Hübie
2015-05-17, 12:28:13
http://i.imgur.com/LmJoYLi.jpg
Quelle (http://videocardz.com/55259/sk-hynix-shows-off-hbm1-and-hbm2)

Die Folien scheinen echt zu sein.

4-Hi HBM1 Stack = 16 Gb = 2 GB
8-Hi HBM1 Stack = 32 Gb = 4 GB

Fiji XT könnte mit zwei 8-Hi HBM1 Stacks oder vier 4-Hi HBM1 Stacks ausgeliefert werden, dann hätte die Grafikkarte 8 GB Speicher. Oder spricht etwas dagegen?
Schon zig mal in dem Thread zu finden und ja sie sind echt und offiziell und außerdem ist der "Artikel" zwei Monate alt.


Aus diesem Grund bin ich dafür dass die Aktualisierung eines Sammelthreads auch zur Pflicht des Erstellers wird :mad:

Wie oft denn noch?!

Hauptsache jemand kann sagen: FIRST!

Unicous
2015-05-17, 12:29:22
Leute, das hat Hynix auf GTC UND der Cebit gezeigt. Das war vor zwei Monaten. Ob das relevant für Fiji oder generell irgendein Produkt ist, wissen wir nicht, es war nur eine Handbroschüre.

Mancko
2015-05-17, 12:32:12
Du magst zwar Recht haben, aber AMD kocht auch nur mit Wasser und wie willst du ein GM204 Konkurrent den aus dem Hut zaubern? AMD wird wahrscheinlich nur Fiji als neuen Chip haben der viel abdecken muss. Hawaii ist zwar recht gut aber bestimmt nicht so viel billiger als Fiji...

Ich lasse mich aber gerne positiv überraschen

Ich habe ja auch nicht gesagt, dass das von heute auf morgen geht. Die müssen aber definitiv umdenken und das fängt ganz oben beim Management an. Die einzige Option die AMD m.E. hat ist

1) bessere CPUs bauen
2) bessere GPUs bauen

Das Management hat dort m.E. strategisch brutale Fehler in der Vergangenheit begangen. Die haben geglaubt, dass es reicht den GPU Teil auf die CPU zu flanschen und schon haben wir den Markt im Sack. M.E. haben sie diese Rechnung aber ohne die Konkurrenten gemacht. Intel baut brutal effiziente CPUs und Nvidia brutal effiziente GPUs. Dazu kommt, dass Nvidia mehr und mehr dafür sorgt, dass Games Hardware hungrig sind. M.E. hat AMD keine Wahl als sich intern anders aufzustellen. Die APU Einheitsbrei Bemühungen und das vernachlässigen der anderen Bereiche wird scheitern.

MechWOLLIer
2015-05-17, 12:44:43
Mein Gott Leute, warum tun eigentlich immer so verdammt viele so, als wären sie die besten Reviewer der Welt, würden nie einen Fehler machen und andauernd alles richtig machen - wenn sie nur die Gelegenheit dazu hätten. Dummerweise versuchen sie es dann nie.

Und warum wird hier wieder zwei Seiten lang über ein Thema diskutiert, das zig Jahre her ist? Ich selbst kann mich kaum noch dran erinnern. War die Aktion falsch? Natürlich! Aber man war jung, man war naiv, man hat viel mehr an das Gute beim Hersteller geglaubt und halt mehr Fehler gemacht.

Und trotzdem kann ich diesen Monster-Aufschrei heute immer noch nicht verstehen (folgt jetzt der nächste?). Natürlich war die Kommunikation eine Katastrophe, natürlich hätte man viel eher damit rausrücken müssen, von wem der Artikel angeschoben wurde, wie dieser zu Stande gekommen ist und vor allem, was dieser sollte. Dieser sollte eigentlich einfach nur ein Spiele-Benchmarkartikel werden, so wie jede Webseite in heute immer noch dauernd macht und die durchweg sehr beliebt sind. Halt nicht mit einem Spiel, sondern mit fünf. Und das waren jetzt ja auch wahrlich nicht die schlechtesten Spiele, da waren große Hits drin. Und nach dem Test wären die Spiele auch ohne die viele Kritik wieder in der Versenkung der Grafikkarten-Benchmarks verschwunden. Wie gesagt, der Hauptfehler war einfach die Kommunikation. Das hätte so natürlich nicht passieren dürfen.

Unicous
2015-05-17, 12:46:38
Ich hoffe du redest von dem "Fiji@HBM: Der große Äpfel und Orangen-Vergleich 2015" Artikel.

Thunder99
2015-05-17, 12:50:26
Schlecht finde ich den Artikel nicht sondern nur nicht vollständig. Zumal Hawaii an sich ja genug Bandbreite besitzt. Wo es eng wird sieht man an der GTX 980 und evt Ttian X

Raff
2015-05-17, 12:51:46
Mein Gott Leute, warum tun eigentlich immer so verdammt viele so, als wären sie die besten Reviewer der Welt, würden nie einen Fehler machen und andauernd alles richtig machen - wenn sie nur die Gelegenheit dazu hätten. Dummerweise versuchen sie es dann nie.

Hier läuft nun mal die absolute, wenn auch selbsternannte Elite herum. Wir könnten auch alles besser und ausführlicher, wenn nicht immer der Kampf gegen die Zeit wäre – das hat niemand hier auf dem Radar.

MfG,
Raff

Thunder99
2015-05-17, 12:57:15
Dennoch finde ich eure Tests mehr als gut und ihr hebt euch auch immer durch Sondertests von der Masse ab :up: Selbst HT4U ist einzigartig mit ihren Tests und Testmethodik :up:

Das Forum ist aber mehr als kritisch, das stimmt.

Unicous
2015-05-17, 13:02:16
Schlecht finde ich den Artikel nicht sondern nur nicht vollständig. Zumal Hawaii an sich ja genug Bandbreite besitzt. Wo es eng wird sieht man an der GTX 980 und evt Ttian X

Der "Artikel" ist großer bullshit und einfach nur clickbait. Punkt.

Denn wir wissen gar nicht, wie Fiji mit höchstwahrscheinlich IP Level 8 (Tonga) und völlig anderem Speicherinterface auf die höhere Bandbreite reagiert. Allein schon GDDR5 und HBM unterscheiden sich.

dlux
2015-05-17, 13:48:34
Ich habe das wieder rausgekramt wegen dieser ewigen 4GB vs. 8GB Diskussion im Thread. Wenn die Angaben im Flyer stimmen, dann wäre es kein Problem 8GB HBM auf die Grafikkarte zu packen. Ich hätte vielleicht erwähnen sollen, dass der Flyer bereits bekannt ist.

Gibt's (in klein) bei Hynix selbst: https://www.skhynix.com/gl/products/graphics/graphics_info.jsp

51951

EDIT
Halbe Kapazität auf dem Bild, meh.
Also doch 2 Gb pro DIE, wie auch hier (http://www.hotchips.org/wp-content/uploads/hc_archives/hc26/HC26-11-day1-epub/HC26.11-3-Technology-epub/HC26.11.310-HBM-Bandwidth-Kim-Hynix-Hot%20Chips%20HBM%202014%20v7.pdf) zu sehen, und nicht 4 Gb wie im Flyer (http://i.imgur.com/LmJoYLi.jpg) angegeben. Schade. (<- Achtung, die verlinkten Infos sind bereits bekannt)

Unicous
2015-05-17, 14:09:16
Dieses Schaubild ist schon seit Monaten auf der Seite zu sehen, der Flyer hingegen ist von diesem Jahr.

Ändert alles nichts an der Tatsache, dass Hynix zwar ein nettes Schaubild zum Vergleich mit "HBM2" macht, HBM1 aber (offiziell) dennoch nur 4Hi gefertigt wird und man mit 4 Stacks maximal 4 GB herausbekommt.

Leonidas
2015-05-17, 17:53:51
Meine liebste Auflösung wäre immer noch, das AMD uns bewußt über die Fähigkeit zu 8 GB im dunklen läßt, damit wir dann wenn es offiziell wird, allesamt einen riesigen Stein vom Herzen fallen lassen können und in Folge dessen Fiji in den Himmel loben.

Meine Befürchtung ist, das AMD wie immer AMD ist und die 8 GB intern nie zur Diskussion standen, weil irgendwann einer ganz am Anfang entschieden hat, das das so nicht gemacht wird.

Sunrise
2015-05-17, 18:03:30
Meine liebste Auflösung wäre immer noch, das AMD uns bewußt über die Fähigkeit zu 8 GB im dunklen läßt, damit wir dann wenn es offiziell wird, allesamt einen riesigen Stein vom Herzen fallen lassen können und in Folge dessen Fiji in den Himmel loben.

Meine Befürchtung ist, das AMD wie immer AMD ist und die 8 GB intern nie zur Diskussion standen, weil irgendwann einer ganz am Anfang entschieden hat, das das so nicht gemacht wird.
Was schlicht und einfach dann Hynix ist, weil sie aktuell nichts Besseres produzieren können (limitiert bei Fab-Kapazität und Fertigungsprozess). Daher ja diese HBM1 -> HBM2-Geschichte. Ansonsten wäre HBM1 wohl nie überhaupt in Betracht gezogen worden, da auch AMDs zukünftige bzw. NV Pascal und Volta und alle anderen Designs von denen man liest, auf HBM2 aufbauen werden.

Der Si-Interposer den AMD verwenden wird, wird auch so schon groß genug werden müssen, wenn wir von einem >550mm² ASIC ausgehen. Da müsste AMD sich jetzt irgendwas wirklich Geniales einfallen lassen (wird aber wahrscheinlich wieder exorbitant teurer) um diese Limitation mit HBM1 zu umgehen.

Da Fiji aber wahrscheinlich sowieso nur rauskommt, weil man für die 300er Serie wieder ein Führungsdesign benötigt, damit man die 300er Serie gut verkaufen kann, war das eben wichtiger, was auch nachvollziehbar ist. Die 300er Serie ist eigentlich nur Fiji, wenn man mal ehrlich ist. Der Rest interessiert doch niemanden.

Wenn Fiji also wirklich mit 8GB kommen sollte, dann muss AMD hier irgendwie getrickst haben oder Hynix gibt gewisse Infos einfach nicht Preis. Es gibt da nicht viele andere Möglichkeiten mehr. Ansonsten zeigt es eben alles was wir zur Verfügung haben Richtung 4GB.

M4xw0lf
2015-05-17, 18:03:30
Die Hoffnung stirbt zuletzt; AMD war bei den Specs der letzten Karten ja schlussendlich immer am oberen Ende der Spekulationen und des technisch machbaren. Siehe zb. Hawaiis 512bit-SI und 1:2 DP-Rate, oder vorher Tahiti pro/XT mit 3GB Speicher standardmäßig.

Agent117
2015-05-17, 18:40:29
Wenn HBM1 trotz kürzeren und viel einfacheren PCB so viel teurer ist als 512Bit GDR5 und man auf 4Gb beschränkt ist, warum sollte AMD dann HBM1 nutzen?
Der einzige wirkliche Grund für HBM1 ist der geringere Stromverbrauch.
Kleinere Vorteile sind die Platzersparnis durch den Wegfall des GDR5 Interfaces und die sehr hohe Bandbreite, die man aber eigentlich nicht braucht, erst recht nicht, wenn für 4K die 4Gb irgendwann limitieren.

Da AMD HBM1 aber trotzdem nutzt, sind entweder doch 8Gb ohne extremen Aufwand möglich oder aber Fiji provitiert noch anderseitig davon.
Ich hatte irgendwo mal was von einem neuen Cachesystem gelesen, was mit Fiji eingeführt werden soll und was nicht mehr vergleichbar mit den bisherigen Datenaustausch zum Speicherinterface sein soll. Das hörte sich eher nach einen L3-Cache, der weit enger an die CUs gekoppelt ist und nicht bloß Texturen liest oder schreibt. Die Quelle finde ich leider nicht mehr; wurde auch nur in ein paar Nebensätzen erwähnt.
Sowas könnte ich mir schon vorstellen, immerhin arbeitet AMD schon seit dem letzten Jahrzent an HBM mit und Fiji ist ja wohl auch schon längst fertig und verzögert sich angeblich nur wegen Treiberarbeit und nicht HBM, was ja dazu passen würde.

Kartenlehrling
2015-05-17, 19:31:43
Was willst du eigentlich mit 8gb,
wenn selbst Nvidia von 40% vram Einsparung und 70% schneller streaming fürs nächste Jahr schreiben,
das sie uns eine 12gb TitanX präsentieren verstehen ich immer noch nicht, und ja "heute" bekommt man sie auch schon zugemülllt,
das heisst aber nicht das man sie "Morgen" brauch.

Nightspider
2015-05-17, 19:42:31
Also ich will in Games wie Star Citizen 8K Screenshots machen können. :D

Hoffe nur das VSR auch 8K unterstützen wird wie bei Nvidia.

Unicous
2015-05-17, 20:16:50
Meine liebste Auflösung wäre immer noch, das AMD uns bewußt über die Fähigkeit zu 8 GB im dunklen läßt, damit wir dann wenn es offiziell wird, allesamt einen riesigen Stein vom Herzen fallen lassen können und in Folge dessen Fiji in den Himmel loben.

Meine Befürchtung ist, das AMD wie immer AMD ist und die 8 GB intern nie zur Diskussion standen, weil irgendwann einer ganz am Anfang entschieden hat, das das so nicht gemacht wird.

Tut mir leid, aber das ist Unsinn. AMD hat sogar versucht eine 8 GB Hawaii gegen Maxwell zu starten um ein wenig Land zu sehen. Es gibt hier mE nur zwei limitierende Faktoren: Kosten und/oder die Fertigung seitens Hynix.


@Agent117

Bloß weil HBM teurer als GDDR5 ist, heißt das nicht, dass das Endprodukt zwangläufig teurer wird. Es gibt viele Synergieeffekte die durch HBM und Interposer entstehen.

anddill
2015-05-17, 20:20:11
Leo hatte gestern ein Interview auf der Hauptseite verlinkt:

http://techreport.com/news/28284/handicapping-amd-fiji-with-david-kanter

Keine Ahnung wer dieser Kanter ist, aber der war über die Frage ob Fiji mit 4GB oder 8GB HBM kommt echt erstaunt, und hat was von 16GB gefaselt.

y33H@
2015-05-17, 20:25:41
David Kanter ist Real World Tech und Microprocessor Analyst bei Linley. Absoluter Topmann idR.

OBrian
2015-05-17, 20:27:36
der ist auch nur Schreiberling ("Analyst"), auf realworldtech.com. Mag ja Ahnung haben, aber Insider ist er nicht, auch wenn er sicherlich den ein oder anderen kennt. Das Video ist genauso Spekulationsrede wie dieser Thread hier. Trotzdem interessant.

fondness
2015-05-17, 20:30:14
Naja es sagt immerhin er hatte einen Fiji schon in der Hand.

y33H@
2015-05-17, 20:32:46
der ist auch nur Schreiberling ("Analyst"), auf realworldtech.com. Mag ja Ahnung haben, aber Insider ist er nicht, auch wenn er sicherlich den ein oder anderen kennt.Ich glaube du verkennst David, der gehört zum allerengsten Kreis und hat exzellente (CPU-)Kontakte.

Duplex
2015-05-17, 20:44:08
Die 390x hat mit sicherheit 8GB Speicher als Standard, auch Fiji Pro sollte 8GB haben.

5870 1GB
6970 2GB
7970 3GB
290X 4GB

380X 4GB
390 8GB
390X 8GB

Ailuros
2015-05-17, 20:47:49
Ich glaube du verkennst David, der gehört zum allerengsten Kreis und hat exzellente (CPU-)Kontakte.

Nichtdestotrotz behaelt IMHO OBrian die richtige Perspektive. Hoechstinteressant es sich anzuhoeren, aber das war es dann auch.

Menace
2015-05-17, 20:54:47
Geht von 4 GB aus, dann braucht mach auch im Anschluss nicht "fail" brüllen.

y33H@
2015-05-17, 20:55:11
Im Falle von Fiji ist er nicht der richtige Mann.

[MK2]Mythos
2015-05-17, 20:59:50
Geht von 4 GB aus, dann braucht mach auch im Anschluss nicht "fail" brüllen.
4 GB VRAM wären aber so oder so ein fail. :D
Es sei denn Fiji kommt im Preissegment unter 400 Eur, aber daran glaubt wohl niemand hier.

Duplex
2015-05-17, 21:04:47
Ein <600mm² Chip bestückt man 2015 nicht mehr mit 4GB, der hat 100% 8GB als Standard.
Es gibt doch bereits 290x Karten mit 8GB, auch wenn es um HBM geht, 8GB sind zu 100% sicher!

Thunder99
2015-05-17, 21:21:22
Hoffen wirs

Tomahawk
2015-05-17, 21:23:37
Die Preise sind ja mehr oder weniger bekannt (siehe z.B. http://www.heise.de/newsticker/meldung/AMDs-Next-Gen-Grafikkarte-R9-390X-soll-ueber-700-US-Dollar-kosten-2575802.html)

Der Preis von 700 USD für die R9 390 (und 700+ USD für die R9 390X) deutet eher auf 8 GB hin.

[MK2]Mythos
2015-05-17, 21:27:39
Die Preise sind ja mehr oder weniger bekannt (siehe z.B. http://www.heise.de/newsticker/meldung/AMDs-Next-Gen-Grafikkarte-R9-390X-soll-ueber-700-US-Dollar-kosten-2575802.html)

Der Preis von 700 USD deutet eher auf 8 GB hin.

Die optimistischen Preise hatte ich schon wieder ganz vergessen, damit sollte doch eigentlich sicher sein, dass die Karten mind. 8 GB VRAM haben werden. Wem will AMD die Karten sonst andrehen? 4 GB VRAM und 700+Dollar passen nicht zusammen. ;)

Nakai
2015-05-17, 21:51:10
Ich habe das Interview gesehen und muss Kanter leider widersprechen. Im Endeffekt hängt es nicht davon ab, was HBM für Speichergrößen spezifiziert. Er geht ja direkt darauf ein, was möglich ist. Die Frage ist eher, was Hynix o.Ä für Speichergrößen anbietet und danach muss sich AMD richten. Derzeit sind nur 4GB-Versionen im Umlauf gewesen, weil es keine größeren Stacks gibt.

Nochmal, HBM wird seit Ende 2014 bei SKHynix gelistet und zwar 1GB pro Stack. Hynix liefert nur Stacks aus. In der Brochüre von SKHynix sind 4Gb Slices dargestellt und 8Hi-HBM1-Stacks angedeutet. Derzeit bietet SKHynix keine 2GB HBM-Stacks an. Eventuell ab Q3 2015, was die Verzögerung von Fiji nochmal weiter erklären kann. Der Termin stand schon seit Ewigkeiten fest. Afaik schon seit 2014. Eventuell war dies die Planung seitens AMD, dass bis dahin alles fertig ist.

Also warten wir auf Q3 2015 ab, ob Hynix endlich mal 2GB Stacks anbietet.

Da kann Kanter noch so sehr die Stirn runzeln, wenn keine Stacks mit der gewünschten Größe angeboten werden, dann kommt da nix.

Tomahawk
2015-05-17, 21:56:51
Na ja, ich glaube AMD ist bewusst, dass sie keine 4GB-Karte für ca. 850 USD bringen können. Die zuverlässige Preisinformation ist ein sehr deutliches Indiz für 8 GB, allen technischen Argumenten zu trotz.

Nakai
2015-05-17, 22:01:09
Na ja, ich glaube AMD ist bewusst, dass sie keine 4GB-Karte für ca. 850 USD bringen können. Die zuverlässige Preisinformation ist ein sehr deutliches Indiz für 8 GB, allen technischen Argumenten zu trotz.

Dann muss es etwas sein, was entweder offensichtlich(2GB Stacks) oder unoffensichtlich(Dual-Link) gemacht wird.

Mehr Kraft in diese Spekulationen will ich sowieso nicht reinstecken.

€: Ahja, mal gucken, wie NV die Abwärme zwecks HBM gut abführen will. AMD baut eine WaKü drauf. Eventuell sehen wir eine LuKü für kleinere Modelle.

horn 12
2015-05-17, 22:04:03
@Nakai

Muss ja nicht unbedingt OFFIZIELL sein :-)
Der Termin von Fiji steht ja lange fest, (obwohl ich nie genau daran glaubte wollte/ konnte)
und ich rechne dass man Hynics die Zeit eingeräumt hat bis man mindestens halbwegs liefern kann!
8GB HBM muss zum Release der Karte verfügbar sein!

OBrian
2015-05-17, 22:05:22
ja, so muß man das sehen, wenn 8 GB nicht gehen, dann gibt es kein Fiji-Topmodell mit 4 GB, dann gibt es gar nichts, dann wird das um einige Monate verzögert. Mit 4 GB wäre das ein Marketingdesaster, der Preis müßte niedrig angesetzt werden, um sie überhaupt wegzubekommen.

Deswegen gehen ich ja davon aus, daß sie abwarten, bis die ersten homöopathischen Dosen der großen Stack verfügbar sind, und dann eine Handvoll Alibi-Karten damit bauen (möglicherweise dann mit Wakü, um ein paar MHz mehr rauszuquetschen), die sie als Testobjekte verschicken und mit hohem Listenpreis paperlaunchen (tausend Euro oder so, egal, weil es das eh die ersten paar Monate nicht zu kaufen gibt). Eine teildeaktivierte Version mit 4 GB und normalem Kühler kann dann für immer noch ordentliches Geld (500 €?) in größerer Stückzahl verkauft werden, ohne daß diese Karte dann Ansprüche eines Spitzenmodells erfüllen muß.

Das macht man im Marketing immer: Drei Dinge anbieten, wovon das eine billig ist, aber mies ausgestattet und daher unattraktiv, und eins, was alles hat, aber total teuer ist, und dann gibt es noch das eigentlich beabsichtigte Objekt der Werbung, was der Kunde als goldene Mitte mit dem "best bang for the buck" erkennen soll, das geht dann in rauhen Massen weg.

Unicous
2015-05-17, 22:13:52
Derzeit sind nur 4GB-Versionen im Umlauf gewesen, weil es keine größeren Stacks gibt.


Wo? Bis jetzt gibt es keine gesicherten Informationen und jetzt sagst du, es wären 4 GB-Versionen "im Umlauf". Ich hoffe du sprichst nicht von den Sisoftware Einträgen.


Zum Rest. Was Hynix offiziell anbietet ist nebensächlich, sie können auch einen speziellen Deal mit AMD haben. Wäre nicht das erste Mal. Dass sie das Produkt auflisten ist mE auch eine obligatorische Sache um den Aktionären zu zeigen, ja wir haben HBM im Angebot, wir könnten sofort unser Standardprodukt in hoher Stückzahl produzieren lassen. Bis jetzt scheint AMD der einzige Kunde zu sein, sonst scheint sich niemand für "HBM1" zu interessieren. Und dass AMD nicht das Standardprodukt nutzt (1,25 GHz statt 1 GHz), darauf weisen ja die Sisoftwareeinträge hin...solange Sisoftware nicht Mist gemessen hat. Außer AMD hat "übertaktet".:freak:

Einigkeit herrscht jedenfalls nicht. Und stichhaltige Indizien oder gar Beweise gibt es für keine der Möglichkeiten.
Ich warte also erstmal das Q2 ab.:wink:

Ich weiß auch nicht, was ihr mit David Kanter hat. Er spekuliert genauso wie wir auf Basis der zahlreichen Gerüchte und seiner Kontakte innerhalb der Industrie. Da kann er also so oft die Stirn runzeln wie er will.