PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56

blaidd
2015-03-24, 16:31:49
Das ist schon nicht mehr ernstzunehmen was der PCGHLer da blubbert, das interne tool ist verdammt gut aber auch es kann interferenzen erzeugen die sichtbar werden können es gibt nur Outside Analyse die Exakt ist ;)

Zehnmal hintereinander praktisch deckungsgleich auf mehreren verschiedenen Servern und zehnmal hintereinander dann wieder nicht mit einer anderen Karte? Klingt unwahrscheinlich. :rolleyes: Was soll das gewesen sein, ein zeitlich sehr begrenzter Sonnensturm?

EDIT: Fraps zeigt die Ausreißer übrigens auch. Und man kann sie im Spiel direkt SEHEN! - Interferenzen my ass ;)

HPVD
2015-03-25, 07:03:32
vielleicht auch interessant an dieser Stelle für die kommenden AMD DirectX 12 GPUs, da nach mal zusammengefasst:

...bei DirectX 11 und früheren Versionen immer nur ein Prozessor-Kern die GPU ansprechen konnte. ... "Niemand will zugeben: 'Ach übrigens, kennt ihr Multi-Core-CPU? Sie war für eure Spiele nutzlos."

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10566488#post10566488

[edit-etwas abgeschwächt]
=> eigentlich ist damit doch der Sprung auf DirectX 12 genauso wirksam und wichtig wie die reine Steigerung der Rohleistung - hmm ok das OS/die Anwendungen müssen das dann natürlich auch unterstützen/nutzen...
aber wenn
dann müsste man doch mit der neuen GPU-Generation wenn die GPU Rohleistung z.B. +30% bringt und DirectX 12.0 z.B. noch mal +30% bringt als Ergebnis +60% erhalten!!!

Botcruscher
2015-03-25, 10:00:44
Am DX bedingten CPU Limit ala Starswarm vielleicht. Da geht es dann von 10 auf 16fps hoch. Die Masse der Leute dürfte hier mit CPUs der Klasse 2500K aufwärts unterwegs sein. Spiele die den ans Limit treiben haben ganz andere Engpässe als die GPU. Wirklich spürbar dürften gelöste Probleme mit der Grundlast sein. Da wo ein Thread für "alles" zuständig ist. Selbst von Problemkandidaten wie Bugfield würde ich nicht zu viel erwarten. Auf eine generelle Verbesserung der Frametimes wie bei Mantel darf man eher hoffen.

-/\-CruNcher-/\-
2015-03-25, 12:03:08
Zehnmal hintereinander praktisch deckungsgleich auf mehreren verschiedenen Servern und zehnmal hintereinander dann wieder nicht mit einer anderen Karte? Klingt unwahrscheinlich. :rolleyes: Was soll das gewesen sein, ein zeitlich sehr begrenzter Sonnensturm?

EDIT: Fraps zeigt die Ausreißer übrigens auch. Und man kann sie im Spiel direkt SEHEN! - Interferenzen my ass ;)

Sollange ich bei PCGH noch Rivatuner, Fraps und Co als Messmethoden sehe kann ich deren Ergebnisse nicht ernst nehmen was die Betrachtungsweise vor allem von Microstuttering angeht, sie geben lediglich einen netten hinweis Relevanz haben sie dennoch nicht wirklich in diesem Bezug.

Mit DX12 können wir beide nochmal reden.

Schnoesel
2015-03-25, 12:14:09
Und das diese nicht nur messbar sondern auch sichtbar/fühlbar sind wird gekonnt ignoriert? Ist doch lächerlich, das in Frage zu stellen nur weil Nvidia hier offensichtlich mal geschlampt hat beim MP, so wie AMD bei DX11 SP.

-/\-CruNcher-/\-
2015-03-25, 12:17:43
Entschuldige mal dafür bennötigt es einen Blindtest um das festzustellen da überzeugst du mich nicht mit Aussagen von Zig Millionen unterschiedlichen Systemen und Usern, da wäre dann das Ergebnis von PCGH aussagekräftiger auf einer Konfiguration allerdings nicht mit dieser Methodik.

Schaffe89
2015-03-25, 13:09:31
Geh mal an die Frische Luft, das soll helfen.

Gipsel
2015-03-25, 13:42:26
Wie lautet das Thema gleich noch mal? Ich bitte darum, wieder darauf zurückzukommen.

Kartenlehrling
2015-03-25, 14:00:32
Ich muss gerade erschreckend feststellen, das man von 4 Monate auf einer R9290 locker 50-80€ sparen konnte zu heute.
Eine His R9290 IceQ X2 OC, koste wieder 300€ und das auch noch ohne Never Settle Space Spiele.
Ich habe ein ganz mieses Gefühl was den Preise von R9390x und Co. angeht, der Euro ist nichts Wert.

Pirx
2015-03-25, 14:52:38
Es könnte auch z.B. in Rubel bezahlt werden:biggrin:, das würde evtl. sogar kurzzeitig die Grafikkartenpreise sehr positiv ändern.:biggrin:

Isen
2015-03-25, 15:20:05
Bei AMD wird es nen kleinen schock geben, wenn da 100€ mehr, wegen dem euro bezahlt werden müssen.... ( Statt 700 > 800€ ) bei nvidia, wo die preise ohnehin schon leicht höher sind, wird es vielen richtig weh tun - jene sollten eh ihr Hobby überdenken, ist halt nix für die.

rentex
2015-03-25, 15:53:23
Die Angelegenheit mit dem Dollarkurs, wird sich hoffentlich, mit einer zukünftigen Zinserhöhung durch die FED, etwas bessern.
Mein Sys werd ich im Oktober verkaufen, da
können die Erlöse, einen höheren Dollarkurs etwas abfedern...

Gipsel
2015-03-25, 15:58:35
Die Angelegenheit mit dem Dollarkurs, wird sich hoffentlich, mit einer zukünftigen Zinserhöhung durch die FED, etwas bessern.Sicher nicht. Dadurch wird der Dollar noch weiter gestärkt (Zinserhöhungen erhöhen Attraktivität von Dollaranleihen). Die Pläne der EZB dagegen setzen auf die Entwertung des Euros. Wir steuern schnurstracks auf einen 1:1 Kurs zu, mittelfristig wird der Euro vermutlich sogar wieder unter einen Dollar sinken, wenn die EZB so weitermacht.

Datarecovery09
2015-03-25, 16:09:08
Die vorhersehbaren Auswirkungen einer unseligen Währungsunion...

Isen
2015-03-25, 18:12:32
@Gipsel,

Der IWF hat mit Li Keqiang ja schon einiges vor... (http://german.china.org.cn/international/2015-03/24/content_35141851.htm) China will nämlich zum SZR gehören.

SZR berechnet sich ja aus dem Fass: Dollar, Euro, Yen und Britische Pfund.
Wie mir scheint, soll SZR die Reservewährung werden. Für mich heißt das: Der Euro stinkt noch weiter ab. Bis zum Kollaps. Der Schrott funktioniert eh nicht, Patient ist tot und wird künstlich am Leben gehalten, der Dollar wird auch ordentlich nach oben gehen, damit sich alle in den Dollar flüchten und nicht in Gold. Dann kommt TTIP und der Patient ist endgültig tot - freie fahrt für den Dollar, brav das China dann auch bereits mit im Boot ist, wenn er zum SZR gehören will - fehlt dann nur noch der Krieg mit Russland und wir haben die World Wide Währung äh Die Welt der USA natürlich - oder umgekehrt, der Dollar geht hopps und die neue Währung ist bzw. kommt unter der Fuchtel des Amis. Der Dollar ist ja auch nur nen toter Patient mit A-Bombe stütze. New Dollar oder sowas... jedenfalls wird es eine Währung wo die USA, EU, China drin sind.


Cool ist allerdings, dass meine Karte nun um satte 80€ an Wert gewonnen hat... vielleicht lohnt es sich ja doch, auf die kommenden aufzurüsten, wenn ich nur ca 300€ dafür blechen muss - für 40-50% gerne :D

HOT
2015-03-25, 20:21:27
Der Dollar wird auf absehbare Zeit niemals eine Zinserhöhung erhalten. Das wird schon seit Jahren herbeigeredet, passiert ist genau nix, geht auch einfach nicht.

Thunder99
2015-03-25, 20:32:04
Gehen schon aber die trauen der Wirtschaft nicht das die das mitmachen. Schweiz hat es mit ihrer Politik gewagt. Mal schauen ob die Rechnung aufgeht (bissle OT)

Schaffe89
2015-03-25, 21:28:56
Geht nicht, da das Geldsystem am Ende ist.
Und wenn es am Ende ist, dann wird überall eine Niedrigzinspolitik gefahren, so kannst du das System noch am laufen halten.

Also imho jetzt eine Titan zu kaufen, wird keine schlechte Idee sein, weil man dann danach mehr rausbekommt.
Man kann danach zwar nur innerhalb von Europa günstig einkaufen, aber was solls.

Thunder99
2015-03-25, 22:34:38
Wieso soll es am Ende sein? Nur weil paar Staaten fast bankrott sind?

Aber in der Tat sehen die Aussichten schlecht aus für den Europa-Markt für Fiji & Co :(

Meint ihr die Gerüchte stimmen und es passiert noch was im April (Launch)?

Unicous
2015-03-25, 22:58:01
[John Bridgman, AMD]

Remember that GCN versions refer to the GFX block (graphics/shader/compute) but display capabilities like FreeSync are dictated by the display block version, not GFX.

For clarity I am neither confirming nor denying your forecast of GFX block versions.

Falls das mit den Rebrands stimmt, gibt es natürlich noch den Funken Hoffnung(also Hoffnung ist eigentlich das falsche Wort:freak:), dass sie den "display block" vllt. sogar inklusive VCE+UVD und Co. ausgetauscht haben. Aber das macht für mich auch nur wenig Sinn, denn dafür bräuchte man ja dennoch eine neue Maske und hätte dann auch gleich den "GFX block" austauschen können. Ist halt die Frage, wie sich das mit den R&D Kosten verhält.

rentex
2015-03-26, 05:53:24
Die Hersteller werden aber auch nicht, bei ihren Preisen bleiben. Sonst wird der Absatz in Europa noch merklich schrumpfen.

Dawn on Titan
2015-03-26, 06:55:17
Falls das mit den Rebrands stimmt, gibt es natürlich noch den Funken Hoffnung(also Hoffnung ist eigentlich das falsche Wort:freak:), dass sie den "display block" vllt. sogar inklusive VCE+UVD und Co. ausgetauscht haben. Aber das macht für mich auch nur wenig Sinn, denn dafür bräuchte man ja dennoch eine neue Maske und hätte dann auch gleich den "GFX block" austauschen können. Ist halt die Frage, wie sich das mit den R&D Kosten verhält.

Braucht aber keine ganz neues Chip design.

Dimitri Mayakovsky
2015-03-26, 08:44:02
Falls das mit den Rebrands stimmt, gibt es natürlich noch den Funken Hoffnung(also Hoffnung ist eigentlich das falsche Wort:freak:), dass sie den "display block" vllt. sogar inklusive VCE+UVD und Co. ausgetauscht haben.
Dann müsste es neue DeviceIDs geben, der Treiber muss ja die Chips mit den unterschiedlichen Displayblocks unterscheiden können.

Käsetoast
2015-03-26, 08:52:57
Ist halt die Frage, wie sich das mit den R&D Kosten verhält.
Schon, aber hat AMD dann die Hälfte seiner Entwicklungsabteilung entlassen oder was? In dem Zeitraum von dem wir hier sprechen hätte man ja normalerweise fast zweimal das gesamte Angebot überholt. Stattdessen wurde nun nur punktuell mal ein einzelner Chip gebracht, die jeweils auch nicht revolutionär neu waren, sondern lediglich kleine Verbesserungen an der GCN Architektur. Wenn mit der 300er Serie wirklich nur Fiji als Neuerung kommt frage ich mich, was der Großteil der Entwicklungsabteilung gemacht hat, die früher ein ganzes Portfolio an neuen Chips an den Markt gebracht hat mit teils stark überharbeiteter Architektur. Derzeit hat man ja lediglich bei Fiji größere Neuerungen, ansonsten wurde in den letzten drei Jahren nur punktuell was verbessert. Als Laie frage ich mich da schon wo die ganze Manpower hin ist...

M4xw0lf
2015-03-26, 09:54:17
Wenn man die letzten drei Jahre betrachtet, hat Amd nur einen oder zwei Chips weniger gebracht als Nvidia, je nachdem ob man Fiji schon mitzählt oder nicht.

StefanV
2015-03-26, 10:18:59
Der Unterschied ist halt, dass AMD die Chips bringt 'when it's done', dadurch schauts ev. so aus, als ob sie weniger bringen würden...

AnarchX
2015-03-26, 10:26:11
Wenn man die letzten drei Jahre betrachtet, hat Amd nur einen oder zwei Chips weniger gebracht als Nvidia, je nachdem ob man Fiji schon mitzählt oder nicht.

Wobei davon 3 Stück vergleichbares Low-End sind: Oland(384/128), Hainan(320/64), Iceland(384/64?).

Da hat NV das 100-200€ Segment mit GM107 und GM206 etwas anders bearbeitet.

Falls das mit den Rebrands stimmt, gibt es natürlich noch den Funken Hoffnung(also Hoffnung ist eigentlich das falsche Wort:freak:), dass sie den "display block" vllt. sogar inklusive VCE+UVD und Co. ausgetauscht haben. Aber das macht für mich auch nur wenig Sinn, denn dafür bräuchte man ja dennoch eine neue Maske und hätte dann auch gleich den "GFX block" austauschen können. Ist halt die Frage, wie sich das mit den R&D Kosten verhält.
Vielleicht alles auf Software-Ebene, das gab es schon in der Vergangenheit: https://forum.beyond3d.com/threads/amd-radeon-hd-6000m-series-laptop-gpus-launched.50134/#post-1509703

Datarecovery09
2015-03-26, 10:44:16
Dann müsste es neue DeviceIDs geben, der Treiber muss ja die Chips mit den unterschiedlichen Displayblocks unterscheiden können.

Laut einem User im CB-Forum hat AMD seine Geräte-IDs schon immer etwas undurchsichtig vergeben. Aber vor allem haben sie selbst für exakt gleiche Chips zum Teil unterschiedliche Geräte-IDs verwendet. Um den guten Mann (Athlonscout) dazu zu zitieren: "Warum sollte also AMD bei identischen Chips ein und derselben Serie unterschiedliche IDs hernehmen, bei Chips unterschiedlicher Serien aber identische IDs?"

Keine Ahnung, wie ich das einzuordnen habe, aber für mich klingt das momentan eher, als sollte man diese Rebranding-Gerüchte auf Basis der Geräte-IDs mit etwas Vorsicht genießen.
Wäre aber spitze, wenn sich einer der Experten hier mal dazu äußern würde.


Quelle: http://www.computerbase.de/forum/showthread.php?t=1459853&page=7
Post-Nr.: #137

Dimitri Mayakovsky
2015-03-26, 10:55:15
Laut einem User im CB-Forum hat AMD seine Geräte-IDs schon immer etwas undurchsichtig vergeben. Aber vor allem haben sie selbst für exakt gleiche Chips zum Teil unterschiedliche Geräte-IDs verwendet. Um den guten Mann (Athlonscout) dazu zu zitieren: "Warum sollte also AMD bei identischen Chips ein und derselben Serie unterschiedliche IDs hernehmen, bei Chips unterschiedlicher Serien aber identische IDs?"
Nur blöd, dass die von Athlonscout genannten Beispiele exakt passen und es jeweils verschiedene Chipversionen und Speicherbestückungen sind, die eine neue ID erhalten. Die jeweiligen Rebrands laufen dann unter einer neuen SubID.

Hat er ganz gut dadurch getarnt, dass er die Chipbezeichnungen schön chaotisch aufgeschrieben hat ;)

Keine Ahnung, wie ich das einzuordnen habe, aber für mich klingt das momentan eher, als sollte man diese Rebranding-Gerüchte auf Basis der Geräte-IDs mit etwas Vorsicht genießen.
Wäre aber spitze, wenn sich einer der Experten hier mal dazu äußern würde.
Warum sollte AMD einen Treiber mit falschen DeviceIDs veröffentlichen? Warum sollte man neue Chips nur mit einer SubID von alten Chips trennen?

Die von Athlonscout genannten IDs:
AMD6810.1 = "AMD Radeon R9 200 Series"
AMD6810.2 = "AMD Radeon (TM) R7 300 Series"
AMD6811.1 = "AMD Radeon R9 200 Series"
AMD6811.2 = "AMD Radeon (TM) R7 300 Series"
AMD6818.1 = "AMD Radeon HD 7800 Series"
AMD6819.1 = "AMD Radeon HD 7800 Series"
Jeweils verschiedene Chips/Speicherbestückungen, dann mit SubID hoch gezählt die Rebrands.

Datarecovery09
2015-03-26, 11:04:06
Jeweils verschiedene Chips/Speicherbestückungen, dann mit SubID hoch gezählt die Rebrands.


Haben jetzt die R9 370-Einträge auch unterschiedliche Sub-IDs? Und hat AMD überhaupt schon einmal eine Geräte-ID generationenübergreifend verwendet, speziell bei einem Rebrand? Ich weiß es nicht, deshalb frage ich. :redface:

Dimitri Mayakovsky
2015-03-26, 11:11:36
Haben jetzt die R9 370-Einträge auch unterschiedliche Sub-IDs? Und hat AMD überhaupt schon einmal eine Geräte-ID generationenübergreifend verwendet, speziell bei einem Rebrand? Ich weiß es nicht, deshalb frage ich. :redface:
Weiß jetzt nicht wie komplett die Liste ist:

AMD6610.2 = "AMD Radeon(TM) R7 350X" = R7 250 series
AMD6610.3 = "AMD Radeon(TM) R5 340X" = R7 250 series
AMD665F.1 = "AMD Radeon R9 360" = ?
AMD6660.1 = "AMD Radeon(TM) R5 M330" = HD 8600M series
AMD6660.2 = "AMD Radeon(TM) R5 M330"
AMD6660.3 = "AMD Radeon(TM) R5 M330"
AMD6778.8 = "AMD Radeon R5 310" = HD7000 series
AMD6810.2 = "AMD Radeon (TM) R7 300 Series (Engineering Sample - WDDM v2.0)"
AMD6811.2 = "AMD Radeon (TM) R7 300 Series (Engineering Sample - WDDM v2.0)"
AMD6811.1 = "AMD Radeon R9 370" = R9 200 series
Mehr als die Hälfte haben SubID größer 1. Die Chips mit neuer ID können Abwandlungen zu vorher sein und z.B. andere Speicherbestückungen haben. Die Karten der 200er Serie mit 4 statt 2 GB Speicher aber identischem Chip haben auch unterschiedliche IDs.

horn 12
2015-03-26, 13:50:09
AMD will wohl dies schaffen, wo die Titan X nicht ganz glänzen kann
Ultra HD in 60 fps zu liefern.

Gerade dort sollte HBM effektiv helfen die Frameraten nicht absacken zu lassen und "konstant" die 50 bis 60 fps zu liefern.
Gerade bei so einer Neuentwicklung dürfte der Treiber schlussendlich gewaltig rocken!

HOT
2015-03-26, 13:55:11
Das wird schon stimmen mit den Rebrands. Die 340X/350X = Oland = HD86xx
360 = CapVerde = HD87xx
370 = Pitcairn = HD88xx

Da diese Chips offenbar aber schwächer sind als ihre 200er Pendants bleibe ich bei meiner OEM-Only-Theorie. Sie sind vielmehr ein Refresh der HD8000-Serie.

Dawn on Titan
2015-03-26, 13:55:13
Dass die 390X die Titan schlägt ist sicher - und ich meine deutlich schlägt. AMD the choice for 4k Gaming.

M4xw0lf
2015-03-26, 13:57:18
Was für eine Titan X? Mit nichtmal 1,1 GHz? 1,5? 2? ;)

horn 12
2015-03-26, 14:08:26
Nun, eine Titan X mit 1,5 Ghz wird wohl nicht ganz erreichbar sein,- dies ist ebenfalls nur mit Wasserkühlung schaffbar oder mit AC-4 und somit angehenden Kühlertausch verbunden.
In 4K wird wohl dennoch Fiji XT die Nase vornebehalten.

Effe
2015-03-26, 14:36:12
Und morgen scheint 5,6h die Sonne. Diese Vorraussagungen sind doch ziemlich albern. Und wenn es dann 3% weniger sind als "vorhergesagt", sind dann wieder alle enttäuscht. Einfach mal abwarten.

HarryHirsch
2015-03-26, 14:42:07
Dass die 390X die Titan schlägt ist sicher - und ich meine deutlich schlägt. AMD the choice for 4k Gaming.

hat horn deinen acc gekapert? link? wie kommst du zu dieser specu?

HPVD
2015-03-26, 15:51:48
...
=> eigentlich ist damit doch der Sprung auf DirectX 12 genauso wirksam und wichtig wie die reine Steigerung der Rohleistung...

noch mal dazu (nur um die erwartete Rohperformance Steigerungen einordnen zu können):
http://www.computerbase.de/2015-03/3dmark-sieht-directx-12-vor-mantle-und-amd-vor-nvidia/

Dawn on Titan
2015-03-26, 17:25:18
hat horn deinen acc gekapert? link? wie kommst du zu dieser specu?

Ich ziehe ihn nur auf, wobei den Slogan könnte man noch einmal hören... wobei aus der 4 auch ne 5 oder 8 werden könnte.

OBrian
2015-03-26, 17:37:42
naja, ganz daneben ist die Annahme ja nicht, denn Fiji wird dank HBM wohl ein Überangebot an Bandbreite haben, während es bei Titan Xgerade so reicht, bzw. Leistungssteigerung durch OCing durch die Bandbreite eingebremst wird. Also sollte man annehmen können, daß bei größeren Auflösungen Fiji tendenziell besser dasteht als bei niedrigen.

Ob das dann bedeutet, daß sich so der Vorsprung von Fiji ggü. Titan X noch vergrößert oder der Rückstand verkleinert, ist natürlich nicht absehbar.

AffenJack
2015-03-26, 17:50:04
Bei der WCE-Edition sollte man schon ne Steigerung gegenüber Titan X erwarten. Der Bandbreiten und Rohleistungsunterschied wird so massiv sein, dass >10% schon drin sein sollten. Die Frage ist für mich eher, mit wieviel Leistungsaufnahme erkauft man sich dies und wieviel schaffen die luftgekühlten Versionen.

Wenn nur Rebrands unter Fiji kommen, kann ich mir nur nen aggressiven Plan mit 14nm vorstellen. Da würde ich 2 kleinere Chips in 14nm in H2 erwarten.

fondness
2015-03-26, 18:09:12
Bei der WCE-Edition sollte man schon ne Steigerung gegenüber Titan X erwarten. Der Bandbreiten und Rohleistungsunterschied wird so massiv sein, dass >10% schon drin sein sollten. Die Frage ist für mich eher, mit wieviel Leistungsaufnahme erkauft man sich dies und wieviel schaffen die luftgekühlten Versionen.


Eine TITAN X die um >10% schneller sein soll wird dafür allerdings auch überproportional mehr Strom benötigen.


Wenn nur Rebrands unter Fiji kommen, kann ich mir nur nen aggressiven Plan mit 14nm vorstellen. Da würde ich 2 kleinere Chips in 14nm in H2 erwarten.

Denke auch das da relativ bald 14nm Chips kommen, macht wohl jetzt nicht mehr viel Sinn noch zusätzliche 28nm Chips aufzulegen, außer High-End wo man bei 14nm noch länger warten muss.

Ailuros
2015-03-26, 18:13:00
Bei der WCE-Edition sollte man schon ne Steigerung gegenüber Titan X erwarten. Der Bandbreiten und Rohleistungsunterschied wird so massiv sein, dass >10% schon drin sein sollten. Die Frage ist für mich eher, mit wieviel Leistungsaufnahme erkauft man sich dies und wieviel schaffen die luftgekühlten Versionen.

Das letzte etwas mehr als GM200 salvage und das erste etwas mehr als GM200 aber zweistellig war der Unterschied bis jetzt noch nicht.

Wenn nur Rebrands unter Fiji kommen, kann ich mir nur nen aggressiven Plan mit 14nm vorstellen. Da würde ich 2 kleinere Chips in 14nm in H2 erwarten.

Das mit den angeblichen rebrands ist das uebliche Missverstaendnis zwischen jeglichem originalem hint und den Idioten die das Zeug weitertragen. Bleiben wir mal dabei dass es generell etwas Zeit dauern wird - hauptsaechlich aus Kosten-relativen Gruenden - bis HBM in den mainstream oder sogar low end Markt kommt.

Arcanoxer
2015-03-26, 18:18:11
Bei der WCE-Edition sollte man schon ne Steigerung gegenüber Titan X erwarten.Preissteigerung? :freak:

Wenn die R390 für 700€ kommt (quelle heise@cebit) wird die WCE Edition sicherlich nicht unter 1000€ verkauft werden.

iuno
2015-03-26, 18:19:36
etwas OT, aber AMD soll laut mal wieder übernommen werden, diesmal von Samsung: http://www.golem.de/news/hankook-ilbo-samsung-soll-interesse-an-kauf-von-amd-haben-1503-113185.html

Kartenlehrling
2015-03-26, 18:29:19
jaja der Marc von Golem.de der hat auch schon die R9390x , HEHE.

Wir haben den neuen Feature-Test kurz daheim unter Windows 8.1 x64 mit einem Core i7-3770K und einer Radeon R9 390X ausprobiert.
http://www.golem.de/news/benchmark-neue-3dmark-szene-testet-api-overhead-1503-113193.html

Ailuros
2015-03-26, 18:38:41
etwas OT, aber AMD soll laut mal wieder übernommen werden, diesmal von Samsung: http://www.golem.de/news/hankook-ilbo-samsung-soll-interesse-an-kauf-von-amd-haben-1503-113185.html

Es gibt schon seit langem eine relevante Debatte im entsprechenden sub-forum: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=524312&page=70

Preissteigerung? :freak:

Wenn die R390 für 700€ kommt (quelle heise@cebit) wird die WCE Edition sicherlich nicht unter 1000€ verkauft werden.

Der >$700 MSRP soll fuer die Klo-Edition gelten.

derguru
2015-03-26, 18:59:05
jaja der Marc von Golem.de der hat auch schon die R9390x , HEHE.


http://www.golem.de/news/benchmark-neue-3dmark-szene-testet-api-overhead-1503-113193.html
wenn das kein schreibfehler war dauert es wohl doch nicht mehr lange.:biggrin:

y33H@
2015-03-26, 19:08:16
Ich vermute, ich kann 10x behaupten es war ein Tippfehler :ulol:

derguru
2015-03-26, 19:10:51
nicht wirklich.

fondness
2015-03-26, 19:20:14
Ich vermute, ich kann 10x behaupten es war ein Tippfehler :ulol:

Die Frage ist eher ob absichtlich oder nicht, wenn ersteres war es allemal ein kluge Marketingschachzug^^. Das du - selbst wenn du die Karte wirklich hättest - nicht darüber schreiben dürftest sollte klar sein.

Sunrise
2015-03-26, 19:30:27
Ich vermute, ich kann 10x behaupten es war ein Tippfehler :ulol:
Richtig, wir wissen es sowieso besser! :D

Da war der Wunsch wohl Vater des Gedanken.

mironicus
2015-03-26, 19:39:37
Ich vermute, ich kann 10x behaupten es war ein Tippfehler :ulol:

Och komm hör auf! Beim Tippen die 3 anstatt die 2 zu treffen ist faktisch unmöglich, die Tasten liegen vieeeeeel zu weit auseinander! :freak:;D

Knuddelbearli
2015-03-26, 20:13:49
naja wo Fiji herauskomme wird ist ja nun wirklich nicht schwer abzuschätzen.

Titan X ist nicht ganz 40% schneller als 290X max ( ohne runtertakten da WCE )
1100MHz wird spekuliert
4.000Shader ist zu 99,999% sicher
ohne Effizienzsteigerung und der Annahme das Speicherbandbreite bei der 290X kein bisschen limitiert sind wir bei 159% also knapp 15% über Titan.
Jetzt noch bisschen Effizienzsteigerung die man schon bei Tonga gesehen hat und ein bisschen Vorteil durch Bandbreite und man kommt wohl min 20% über Titan X raus.

Selbst unter OC schätze!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! ich Fiji vorne da, vermutlich aufgrund Bandbreitemangels, Titan wie gesehen ab 1350-1400 deutlich schlechter skaliert. sofern Fiji also min ~1300 MHz schafft dürfte Fiji also auch mit OC vorne bleiben.
Und wenn dann noch DP 1:3 oder 1:2 drin ist dann wow ...

Und wehe jemand wagt es den Konjunktiv in meinem Beitrag zu übersehen! :motz::motz::motz::motz::motz::motz::motz::motz::motz::motz::motz::motz:

Hübie
2015-03-26, 21:27:06
Ist heute ein besonderer Tag Knuddelbearli? :|

@Marc: Warst du auf der CeBit? Hab da jemanden beim Kaffee rumlungern gesehen wo ich hätte schwören können dass warst du ;D

OBrian
2015-03-26, 22:28:19
Wie (und ob überhaupt!) OC auf Fiji geht, muß man aber abwarten, diese neuartige Sandwichlösung wird sicherlich ganz anderes Verhalten zeigen als die üblichen FCPGAs, die wir kennen. Denkbar wären z.B. sogar ernsthafte Schäden bei zu starkem OC statt nur der bekannten Notabschaltung ohne Schäden; höherer Chiptakt und damit mehr Abwärme könnte den RAM negativ beeinflussen; vielleicht gibt es unvorhersehbare Timing-Probleme. Möglicherweise bricht auch der ganze Chip superleicht kaputt, wenn man den Kühler abnimmt/wechselt.

Aber hier gibt es sicher genug Leute mit genug Geld und Risikobereitschaft, die das alles mal einfach ausprobieren werden ;D

PHuV
2015-03-26, 22:34:31
Preissteigerung? :freak:

Wenn die R390 für 700€ kommt (quelle heise@cebit) wird die WCE Edition sicherlich nicht unter 1000€ verkauft werden.
Jetzt, wo AMD sieht, wie Nvidia Erfolg mit der Masche hat, werden sie garantiert nachziehen. Sie müssen es, um mal deutlich rentabel zu bleiben und Geld in die leeren Kassen zu bringen. Ich würde es verstehen, wenn die Preise stark anziehen würden. Ohne so einen Kassenschlager wird es eng.

y33H@
2015-03-26, 22:40:59
@Marc: Warst du auf der CeBit? Hab da jemanden beim Kaffee rumlungern gesehen wo ich hätte schwören können dass warst du ;DHannover? Regen? Kalt? Nix Neues? Nö :biggrin:

Knuddelbearli
2015-03-26, 23:31:29
Ist heute ein besonderer Tag Knuddelbearli? :|



Wieso? Kann das von den beiden Lagern nur nicht mehr hören

Das eine Lager das meint Fihi zerstört @ Stock TitanX mit unlockbios
Das andere Lager das Fiji immer klein redet.
Wüsste nicht wo in meiner Rechnung ein Fehler sein sollte.

Alles außer ein 2 stelliger Vorsprung stock @ stock wäre sehr verwundern wenn unsere Infos hier stimmen.

Und Ausrufezeichen waren weill sonst mache Idioten immer das schätze usw überlesen und dann rumschimpfen wieso man sowas wissen will wie man sowas behaupten kann usw ...

y33H@
2015-03-26, 23:44:47
Günstigere 390X mit 4 GB und LuKü sowie teurere 390X mit 8 GB und WaKü hatten wir schon, oder?

iuno
2015-03-26, 23:55:52
ja

Hübie
2015-03-27, 02:40:21
Hannover? Regen? Kalt? Nix Neues? Nö :biggrin:

Na gut dann wars ein double von dir :biggrin:

Wieso? Kann das von den beiden Lagern nur nicht mehr hören

Das eine Lager das meint Fihi zerstört @ Stock TitanX mit unlockbios
Das andere Lager das Fiji immer klein redet.
Wüsste nicht wo in meiner Rechnung ein Fehler sein sollte.

Alles außer ein 2 stelliger Vorsprung stock @ stock wäre sehr verwundern wenn unsere Infos hier stimmen.

Und Ausrufezeichen waren weill sonst mache Idioten immer das schätze usw überlesen und dann rumschimpfen wieso man sowas wissen will wie man sowas behaupten kann usw ...

Vielleicht brauchst du einfach Urlaub? ;) Dachte nach all den Jahren ist man resistent gegen solche Dinge :cool: Was AMD bringt wird gut. Satz beendet.

Günstigere 390X mit 4 GB und LuKü sowie teurere 390X mit 8 GB und WaKü hatten wir schon, oder?

Hm, ja. Macht sogar Sinn. Leider.

Loeschzwerg
2015-03-27, 07:01:33
Nix da, die 4GB bleiben hoffentlich der 390 non X vorbehalten :nono:

horn 12
2015-03-27, 07:27:14
Gegenpart der GTX 980 4GB und zudem +20% Mehrleistung
Aber dafür um die 700 Eureo wäre schon heftig :-(
Hoffe es wird auch 8GB der R9 390 geben.

uweskw
2015-03-27, 07:41:31
Jetzt mal ohne alles wieder durchzulesen:
Auf der Main steht für die x390 DX12.0 und für die GTX980 DX12.1b.
Ist das richtig so?

tm0975
2015-03-27, 08:30:35
Jetzt mal ohne alles wieder durchzulesen:
Auf der Main steht für die x390 DX12.0 und für die GTX980 DX12.1b.
Ist das richtig so?

halte ich für sehr unwahrscheilich. amd war diesbezüglich immer vorreiter.

Quaker
2015-03-27, 08:43:32
Ich hoffe die rebranding Gerüchte bewahrheiten sich nicht und amd bringt für alle Bereiche eine neue Generation raus und nicht nur fur den highend Bereich.

MfG

HOT
2015-03-27, 08:53:26
Günstigere 390X mit 4 GB und LuKü sowie teurere 390X mit 8 GB und WaKü hatten wir schon, oder?
Das ist mit Sicherheit blödsinn. Die 4GB-Varianten werden pur OEM sein, vielleicht noch Salvage. Die x-Varianten sind sicher immer 8GB.

tm0975
2015-03-27, 08:56:23
mMn machen rebrandings zur jetzigen zeit keinen sinn. man testes doch eine neue architektur an einer bewährten fertigung (jetzt), während man eine neue fertigung am besten an einer bewährten architektur nutzt (nachfolgegeneration in 2016). wenn nur rebrandings kommen, wirft das ein sehr schlechtes licht auf das r&d im grafikbereich von amd.

Skysnake
2015-03-27, 09:07:25
nVidia hat es auch sehr lange mehr als ausgiebig betrieben....

Man sollte definitiv NICHT erwarten, dass das gesamte Lineup ersetzt wird durch neue Chips

Sunrise
2015-03-27, 09:13:35
Gegenpart der GTX 980 4GB und zudem +20% Mehrleistung
Aber dafür um die 700 Eureo wäre schon heftig :-(
Hoffe es wird auch 8GB der R9 390 geben.
Erst beschwehrst du dich, dass 700 EUR zu teuer sind, dann willst du auch noch eine 390 8GB. Entscheide dich mal.

@Allgemeinheit:
AMD wird obenrum sicher 8GB bringen, die 4GB-Version(en) sollten dann über der 980 aber unter der kommenden Titan-Salvage positioniert werden. Man braucht nicht nur die Spitze, sondern immer auch eine Karte mit ähnlicher Leistung in einem preissensitiveren Bereich, der NVs Ass im Ärmel dann aussticht. Und gegen eine 6GB 9xx Ti stellt man dann eben am besten auch eine 8GB Fiji, da könnte NV machen, was sie wollen. Ist natürlich die Frage, ob Fiji das alles unter Lukü noch packt. Wenn das aber der Fall ist und AMD nicht Unsummen für HBM, Interposer und Packaging bezahlen muss, sollte das passen.

Ailuros
2015-03-27, 09:45:49
Erst beschwehrst du dich, dass 700 EUR zu teuer sind, dann willst du auch noch eine 390 8GB. Entscheide dich mal.

@Allgemeinheit:
AMD wird obenrum sicher 8GB bringen, die 4GB-Version(en) sollten dann über der 980 aber unter der kommenden Titan-Salvage positioniert werden. Man braucht nicht nur die Spitze, sondern immer auch eine Karte mit ähnlicher Leistung in einem preissensitiveren Bereich, der NVs Ass im Ärmel dann aussticht. Und gegen eine 6GB 9xx Ti stellt man dann eben am besten auch eine 8GB Fiji, da könnte NV machen, was sie wollen. Ist natürlich die Frage, ob Fiji das alles unter Lukü noch packt. Wenn das aber der Fall ist und AMD nicht Unsummen für HBM, Interposer und Packaging bezahlen muss, sollte das passen.

Fiji WCE 8GB =/> $700 MSRP GM204+ ~40%
Fiji 4GB =/>$500 MSRP? GM204+ 20%

Anders kann ich es mir schwer vorstellen; im ersten Fall ist dank der hybriden Kuehlung, 8GB HBM und dem Leistungs-Unterschied der Preis gerechtfertigt.

Sunrise
2015-03-27, 10:04:09
Fiji WCE 8GB =/> $700 MSRP GM204+ ~40%
Fiji 4GB =/>$500 MSRP? GM204+ 20%

Anders kann ich es mir schwer vorstellen; im ersten Fall ist dank der hybriden Kuehlung, 8GB HBM und dem Leistungs-Unterschied der Preis gerechtfertigt.
1. Fiji 390X WCE 8GB HBM - $799
2. Fiji 390X 8GB HBM - $599-$699
3. Fiji 390 4GB HBM - $449-$499

Das würde IMHO genau passen.

NV wird dann die 980 und die 970 im Preis etwas anpassen müssen.

AnarchX
2015-03-27, 10:16:30
Was wohl Bermuda ist? Laut linkedin wurde daran gearbeitet.
Grundsätzlich böte Fiji ja wohl das Potential für eine sehr kompakte Dual-GPU-Karte.

horn 12
2015-03-27, 11:16:13
@Ailuros

Dies würde wohl etwas knapp ausfallen
Dann hätte NV mit GTX 980TI wieder knapp die Nase vorn.

Rechne mit WCE +gute 50%
4 und 8GB Lüftkühlung +35%

Mann wird sich doch nicht nach 1-2 Monaten wieder abservieren lassen...

PHuV
2015-03-27, 11:22:48
1. Fiji 390X WCE 8GB HBM - $799

Dann würde sich der Preis bei uns dank Dollar Kurs um die 800-900 € bewegen.

Dawn on Titan
2015-03-27, 11:25:52
Was man möchte ist nicht immer was man kann.

mironicus
2015-03-27, 11:36:34
Die Preise werden nicht so hoch sein wegen dem Wettbewerb.

PHuV
2015-03-27, 11:45:52
An dem Dollarkurs oder schwachem Euro können AMD und Nvidia auch nichts machen.

fondness
2015-03-27, 11:48:02
Was wohl Bermuda ist? Laut linkedin wurde daran gearbeitet.
Grundsätzlich böte Fiji ja wohl das Potential für eine sehr kompakte Dual-GPU-Karte.

Bermuda ist wohl nur Midrage.

von Richthofen
2015-03-27, 11:58:35
Fiji mit 2 GPUs? 2x 4GB HBM = 8GB
http://www.fudzilla.com/news/graphics/37373-amd-fiji-has-two-gpus

Schnoesel
2015-03-27, 12:07:36
Das passt imo überhaupt nicht zu den bisherigen Gerüchten. Selten so viel Spekulation über eine GPU erlebt, dagegen war Titan X schon Monate im voraus genau so zu erwarten wie es letzendlich gekommen ist.

fondness
2015-03-27, 12:09:47
Das einzige was an dem Artikel halbwegs Sinn macht ist der letzte Absatz:

Oh, one more thing – AMD is already working hard on a next generation High Bandwidth Memory HBM card that is smaller than 20nm. We still don't know which node it will use, or which type of memory (HBM1 or HBM2).

AnarchX
2015-03-27, 12:20:56
Bermuda wurde doch öfters schon als Dual-GPU spekuliert. Aber 8GiB durch zwei GPUs passen nicht zu den Cebit-Folien. Wie könnte der DualLink-Mode für HBM eigentlich aussehen - halbe Bandbreite/Interleaving? Vielleicht muss man für die 8GiB Variante einen weiteren Interposer einsetzen, der die 4 Links in 8 aufteilt?

iuno
2015-03-27, 12:25:53
Fiji mit 2 GPUs? 2x 4GB HBM = 8GB
http://www.fudzilla.com/news/graphics/37373-amd-fiji-has-two-gpus
Das wurde hier ja schon früher spekuliert, dass so eine Karte kommen könnte. Aber dann bestimmt nicht unter dem Namen Fiji. Selbst Vesuvius hat ja einen eigenen Namen bekommen.
Das passt auch nicht zu den Slides (falls echt) mit dem 'dual-link-HBM'.

The slide below clearly implies that you need Affinity multi-GPU rendering in order to reduce latency and increase content quality.
Soweit ich das beurteilen kann, ist diese Interpretation einfach Blödsinn. Man braucht nicht mehrere GPUs, sondern deren Nutzung wird Verbessert – geringere Latenzen und bessere Qualität (als bei AFR?).
Der 'Beweis' ist also imho nichts wert. Letztendlich steht in dem Artikel nichts interessantes oder neues. 2xFiji=Bermuda mit 8 GiB wurde schon seit Ewigkeiten spekuliert. Dass 'Fiji' zwei GPUs, also sowas wie 2xTonga sein soll, darf man ja wohl ausschließen?
Vielleicht hatte es ja Einfluss, dass zunächst von so einem Lineup ausgegangen worden ist:
380X: Fiji
390X: 2xFiji (Bermuda?) + AiO-Wasserkühlung
Das beißt sich aber natürlich einerseits völlig mit den Heise-Infos, andererseits mit den Slides

Bermuda ist wohl nur Midrage.
Wo stand das nochmal? Das war iirc auch nur ein Gerücht. Eine Dual-GPU Lösung (Bermuda?) mit 2x Fiji würde ich für später noch nicht ausschließen...

StefanV
2015-03-27, 12:30:41
Das einzige was an dem Artikel halbwegs Sinn macht ist der letzte Absatz:
Nicht ganz ;)

Auch dass es eine 2 GPU Lösung geben wird, dürfte korrekt sein. Der Rest aber eher sowas wie 'ins falsche Loch bekommen'...

Screemer
2015-03-27, 14:50:00
Das einzige was an dem Artikel halbwegs Sinn macht ist der letzte Absatz:
Der hat immer noch nicht gecheckt, dass es kein hbm1 und 2 gibt. Sondern das das nur die Bezeichnung von hynix für größere stacks ist.

Knuddelbearli
2015-03-27, 15:11:02
An dem Dollarkurs oder schwachem Euro können AMD und Nvidia auch nichts machen.

Naja wobei AMD in Europa tendenziell immer schon die besseren Preise hatte als NV. Aber kA wieso.

Während bei uns zB die 290X deutlich günstiger war als die 780 war es in Amerika kaum ein Unterschied.

Korvaun
2015-03-27, 16:26:11
Also die größte Fiji (390X WCE) wird sicher 800€+ kosten, zumindest solange NV nicht entschieden darauf reagiert (TitanX ordentlich runter im Preis oder 980Ti "salvage GM200 mit 6GB" auf den Markt zu nem guten Preis). Ein leicht beschnittener 4GB-Fiji (390) als kleinste Lösung dagegen kann wohl kaum mehr als 599€ kosten, da 980 die direkte Konkurrenz ist trotz 20%? mehr Leistung seitens Fiji...

horn 12
2015-03-28, 09:23:09
Full Tonga in Anmarsch 2-4 GB

Mit diesen Werten sollte man echt an die R9 290 anschliessen können, vielleicht gar R9 290X erreichen bei OC Versionen mit >1 Ghz!

http://wccftech.com/amd-full-tonga-gpu-2240-stream-processors-packed-35-cus-launch-r300-series/

AnarchX
2015-03-28, 09:29:56
28C = Tonga Pro. Das diese 28C mit 80SPs multipliziert werden ist ein bekannter Fallback bei SiSoft, wenn die AMD-GPU nicht korrekt erkannt wird.

horn 12
2015-03-28, 09:31:26
Also nix neues und Altbekanntes?
Dann bitte ein Mod gleich löschen, will keine Infos mehr verbreiten wenn nicht stimmen!

Nakai
2015-03-28, 14:12:35
Irgendwas ist wieder auf Zauba erschienen...naja.

Ich poste das mal absichtlich nicht, weil es eigentlich nix neues ist.

Nakai
2015-03-28, 17:19:23
Mhh, Fiji als dual GPU ist auch Unsinn. Solange es keine direkte Bestätigung gibt, bleibt Fiji die erste 4GB Hbm Karte. Die videocardz Leaks sind wohl BS, denn andere Aussagen sind deutlich zuverlässiger. Ahja eine Slide wurde in einem völlig anderem Design schon vorher geleakt...netter Fake, aber wohl Fake.

Locuza
2015-03-28, 17:29:37
Die videocardz Leaks sind wohl BS, denn andere Aussagen sind deutlich zuverlässiger.
Welche?

Ahja eine Slide wurde in einem völlig anderem Design schon vorher geleakt
Welcher?

...netter Fake, aber wohl Fake.
Ehh...

Raspo
2015-03-28, 17:47:06
Also kann man feststellen, das über die 300er Serie quasi nichts als gesichert gilt.
Von HBM (?) mal abgesehen, oder sind weitere Dinge absolut safe?

Schräg.

w0mbat
2015-03-28, 17:48:48
Wie Nakai schon sagte, die ganze geleakte Präsentation ist sehr wahrscheinlich ein Fake. Also wissen wir nichts, außer HBM für das Topmodel.

Nakai
2015-03-28, 18:02:35
Welche?

Welcher?


Ehh...

Bin grad unterwegs, aber ein Tag vor den ganzen Leaks wurde eine Beta einer dieser Folien geleakt. Das is IMO ein BS sondersgleichen. Die Infos könnten zwar nicht völlig falsch sein, aber die Folien sind BS.

iuno
2015-03-28, 18:11:39
Die erste der Folien ging angeblich auf Videocardz ein (Bild in einer PDF, nicht abfotografiert), der Rest kam dann angeblich auf deren Anfrage hin vom selben Typ einen Tag später und war dann abfotografiert. Die zunächst einzeln veröffentlichte Folie wurde jedoch nochmal abgeändert.

Was halt verwunderlich war, ist die Bestätigung von einem Boardpartner(?) gegenüber Golem (http://www.golem.de/news/radeon-r9-390x-amds-neue-grafikkarte-tritt-mit-wasserkuehlung-und-8-gbyte-an-1503-113026.html):
Videocardz hat einige Folien einer Präsentation veröffentlicht, die für AMDs Board-Partner gedacht ist und Details über die kommende Radeon R9 390X auflistet. Wir haben uns die Echtheit des Dokuments von einer Quelle bestätigen lassen und können den Preis der Grafikkarte nennen: Dieser liegt bei über 700 US-Dollar
Wobei die Info über den Preis sich ja auch noch mit den Heise-Infos deckt

Sunrise
2015-03-28, 18:52:00
Jeder IHV muss die Boardpartner min. 3 Monate vor der Vorstellung informieren, das Datum der Folien passt genau. AMD will da sicher auch keinen Paperlaunch abliefern und das werden sie wohl auch nicht, weil zumindest Fiji schon seit min. 6 Monaten fertig ist.

Wenn das ein Fake ist, dann ist dieser Fake so verdammt bombenfest gut gemacht, dass ich und wohl auch ein paar andere sowas noch nicht gesehen haben. Und ich rede nicht von der einen Folie, die am Anfang kam, sondern insbesondere von dem Rest, der auch viel mehr ins Detail geht.

Vor allem sind das auch keine völlig wahnwitzigen Angaben, sondern relativ realistische, auch hier sehe ich keinen Fake.

fondness
2015-03-28, 18:55:05
Eins sollte klar sein, selbst wenn die Angaben (teilweise) falsch sind war es kein Fake im klassischen Sinne, sondern dann wurden die Angaben bewusst gestreut. Dazu sieht das ganze zu professionell aus und dazu passt das Datum wann das zeug veröffentlicht wurde einen Tag vor dem TITAN X Launch einfach zu perfekt, als dass das alles Zufall sein soll. Es ist allerdings auch kein Geheimnis das IHVs durchaus auch mal Fehlinfos aus verschiedenster Motivation heraus streuen.

Knuddelbearli
2015-03-28, 19:02:53
Eventuell ja dualgpu über interposer

380 dann nur 1 chip

und nächste Generation dann
470 1 Chip ( 300mm² 14nm 4k shader)
480 2 Chips
490 4 Chips ( mit dann 16.000 Shader XD )

:freak:

basix
2015-03-28, 19:39:57
Eventuell ja dualgpu über interposer

280 dann nur 1 chip

und nächste Generation dann
270 1 Chip ( 300mm² 14nm 4k shader)
280 2 Chips
290 4 Chips ( mit dann 16.000 Shader XD )

:freak:

Zum Glück sind wir im Spekulationsforum, denn nicht nur die Modellbezeichnungen sind an den Haaren herbeigezogen ;D

Aber Nvidia macht evtl. mit ihrem neuen Bus was in die Richtung. Und AMD hatte auf der 4870 X2 so einen ominösen Nebenport, welcher Crossfire verbessern sollte aber allerdings nie benutzt wurde.

OBrian
2015-03-28, 19:42:08
Eins sollte klar sein, selbst wenn die Angaben (teilweise) falsch sind war es kein Fake im klassischen Sinne, sondern dann wurden die Angaben bewusst gestreut. Dazu sieht das ganze zu professionell aus und dazu passt das Datum wann das zeug veröffentlicht wurde einen Tag vor dem TITAN X Launch einfach zu perfekt, als dass das alles Zufall sein soll. Es ist allerdings auch kein Geheimnis das IHVs durchaus auch mal Fehlinfos aus verschiedenster Motivation heraus streuen.
Ich gehe mittlerweile sowieso davon aus, daß alles, was wir hier an neuen Infos oder "Infos" bekommen, entweder absichtlich direkt von AMD gestreute echte oder gefälschte Fakten sind – oder eben völlig haltlos ausgedachte Gedankenspielereinen diverser Spekulationsforeninsassen. Das, was es früher gab, nämlich echte Infos, die durch Kneipenplaudereien oder sonstige Unachtsamkeiten bzw. Indiskretionen eingeweihter Fachleute gegen den Willen des Herstellers nach außen drangen (so daß man fast ein Jahr vorher schon genau wußte, wie das ganze Radeon-Lineup aussehen würde), das gibt es doch praktisch nicht mehr. Da hat AMD ganz offensichtlich nach der Ati-Übernahme relativ schnell diversen Leuten den Hahn abgedreht und alle anderen ausreichend eingeschüchtert, so daß sowas nicht mehr vorkommt.

Auch bei solche Dingen wie Zauba-Listungen oder Meldungen in Benchmarkdatenbanken gehe ich davon aus, daß die genau wissen, daß das da auftauchen wird und auch gefunden wird, und dementsprechend auch mal zumindest die Taktraten, ggf. auch den Auslesestring u.a. zur Verschleierung ändern. Ähnlich wie bei Autos die Erlkönige, die zwar etwas getarnt sind, aber damit besonders auffällig sind und zudem absichtlich an Fotografen vorbeibewegt werden, damit sie in Autozeitungen landen und so schon mal Werbung stattfindet.

Jedenfalls kann AMD so Nvidia-Launches sabotieren (umgekehrt natürlich auch), ohne daß sie hinterher darauf festgenagelt werden können, falls es doch nicht so kommt (weil z.B. aus Ausbeutegründen nochmal der Takt nach unten angepaßt werden muß oder die im Leak angegebene TDP in der Großserie nicht zu halten ist). Offizielle Verlautbarungen unterliegen ja immer gleich dem Aktienrecht, das könnte unangenehm werden, wenn da einer wegen falschen Angaben klagt. Aber bei "Leaks" kann man alles abstreiten.

Knuddelbearli
2015-03-28, 19:55:48
Zum Glück sind wir im Spekulationsforum, denn nicht nur die Modellbezeichnungen sind an den Haaren herbeigezogen ;D

Aber Nvidia macht evtl. mit ihrem neuen Bus was in die Richtung. Und AMD hatte auf der 4870 X2 so einen ominösen Nebenport, welcher Crossfire verbessern sollte aber allerdings nie benutzt wurde.

ähm 3 und 4 natürlich hast recht ^^

tm0975
2015-03-28, 23:39:21
und nächste Generation dann
470 1 Chip ( 300mm² 14nm 4k shader)
480 2 Chips
490 4 Chips ( mit dann 16.000 Shader XD )

:freak:

genau so wird es kommen. vielleicht noch nicht bei der 4xx, aber danach gg schon. das ganze hätte für die gpu entwickler und kartenhersteller sehr viele vorteile. es würde nur noch ein kleiner chip entwickelt und produziert werden und die leistung wird über die menge der verwendeten chips gesteuert. würde auch deutlich weniger lagerbestände bedeuten, da der chip flexibel nutzbar wäre.

Nakai
2015-03-29, 00:04:33
Bin grad unterwegs, aber ein Tag vor den ganzen Leaks wurde eine Beta einer dieser Folien geleakt. Das is IMO ein BS sondersgleichen. Die Infos könnten zwar nicht völlig falsch sein, aber die Folien sind BS.

Es gibt so ein paar Punkte, die mich an die Folien zweifeln lassen:
• dual-link HBM-Stacks sind nirgends irgendwo bekannt gemacht worden.
• alle bisherigen Leaks waren mit einer 4GB Hbm Karte.
• 2GB Stacks mit dual-link sind wohl fetter, also breiter und länger, brauchen wohl mehr Fläche auf dem Interposer. Ich denke ein HBM Package wird dadurch nicht doppelt groß, aber doch etwas größer. Ground-layer sollte eh grosser als die Ramchips sein.
•viel Platz ist sowieso nicht verfügbar.

Falls es doch so kommt, Fijis Performance wurde bisher nur mit 4GB geleakt, 8GB Fiji sollte nochmals etwas davor liegen.

Raff
2015-03-29, 00:19:01
Eventuell ja dualgpu über interposer

380 dann nur 1 chip

und nächste Generation dann
470 1 Chip ( 300mm² 14nm 4k shader)
480 2 Chips
490 4 Chips ( mit dann 16.000 Shader XD )

:freak:

Eine neue V5 6000. Wäre interessant. Kommt aber hoffentlich nicht.

MfG,
Raff

Hübie
2015-03-29, 00:31:29
Seit wann macht Volumen Geschwindigkeit? Die Szenen die jetzt jemand herauskramen will kann er sich dahin stecken wo die Sonne nicht hin scheint. :P

Knuddelbearli
2015-03-29, 15:49:09
Eine neue V5 6000. Wäre interessant. Kommt aber hoffentlich nicht.

MfG,
Raff

Wieso hoffentlich nicht? Auf Dauer wird den Hersteller auch gar nichts mehr anderes übrig bleiben. Natürlich nicht mit AFR und gemeinsamen Speicher.

Finde ich eh komisch. Diese Diskussion gab es seit RV600 bei jeder einzelnen Chipgeneration dieses mal aber, wo doch eh schon Interposer wegen HBM verbaut ist, gibt es sie nicht ^^

Sunrise
2015-03-29, 16:16:31
Wieso hoffentlich nicht? Auf Dauer wird den Hersteller auch gar nichts mehr anderes übrig bleiben. Natürlich nicht mit AFR und gemeinsamen Speicher.

Finde ich eh komisch. Diese Diskussion gab es seit RV600 bei jeder einzelnen Chipgeneration dieses mal aber, wo doch eh schon Interposer wegen HBM verbaut ist, gibt es sie nicht ^^
Das ist in der Tat komisch. Ich gehe zwar nicht davon aus, das Fiji (mit einem Die >600mm2) das bringen wird (das will keiner bezahlen).

Allerdings hat man jetzt bald mit der breitflächigeren Einführung von Interposern und HBM ungeahnte Möglichkeiten.

Ist aber eine Kosten/Nutzen-Frage und vor allem sollte es kühlbar sein. Rein technisch sehe ich da keine Probleme.

Das käme dem Konzept der V5 6000 sogar wieder erstaunlich nahe, nur hat man heutzutage deutlich mehr mit Abwärme auf kleinem Raum zu kämpfen, und selbst die 6000er war da schon aktiv gekühlt pro Chip.

Knuddelbearli
2015-03-29, 16:34:47
naja Abwärme sollte doch nicht das Problem sein oder?

1 Chip 100W für die 470X mit 1100MHz auf 300mm²
2 Chips 175W für die 480X mit 1000MHz auf 2*300=600mm²
4 Chips 300W für die 490X mit 900MHz auf 4*300=1200mm²

zB
Wie immer gilt alle Werte und Namen frei erfunden und dienen nur der Veranschaulichung was ich meine.

vor allem da nach 14/16+nm die Sprünge in der Fertigung wieder deutlich kleiner werden da man 3D Transistoren ja schon hat. Da kann man dann auch Anfangs ohne im alten Prozess bleiben sofern der entsprechend günstiger

Nakai
2015-03-29, 17:02:24
Eine neue V5 6000. Wäre interessant. Kommt aber hoffentlich nicht.

MfG,
Raff

Das wird passieren und wenn AMD weiter so rumkrepiert, wird man diesen Schritt bestimmt in Betracht ziehen. Skalierung per MGPU mit TSV sehe ich als die "Zukunft" an. Der dedizierte GPU-Markt stirbt eh aus, bis 2020 wird dieser größtenteils von den APUs übernommen sein. Es macht keinen Sinn mehr ein ganzes GPU-Portfolio zu halten.

Kriton
2015-03-29, 18:21:54
Noch sehe ich kein Aussterben diskreter Grafikkarten. Dafür gibt es noch zu viele Verrückte Enthusiasten und die Leistungssteigerungen der APUs in allen Ehren, aber in 5 Jahren High-End?

Käsetoast
2015-03-29, 18:35:06
Noch sehe ich kein Aussterben diskreter Grafikkarten. Dafür gibt es noch zu viele Verrückte Enthusiasten und die Leistungssteigerungen der APUs in allen Ehren, aber in 5 Jahren High-End?
Ich denke nicht, dass er den High-End-Bereich meinte, aber mit HBM Speicher könnten APUs ihre größte Krücke loswerden, nämlich das Speicherbandbreitenproblem. Damit würde doch zumindest die 260er Reihe von AMD überflüssig werden und das Integrieren von Chips der 270er Klasse rückt doch in greifbare Nähe. Angenommen wir hätten heute APUs mit der Grafikleistung einer 270X - das sind doch die Regionen mit den höchsten Verkaufszahlen. Ich kann mir daher schon vorstellen, dass bis zum besagten Jahr 2020 auch der Mid-Range Bereich in die APUs gewandert ist und nur noch das was heute 280er und 290er Reihe ist noch eigene Grafikkarten sind. Auch das könnte dann allerdings zu bröckeln beginnen, wenn man vom bisherigen CPU-Konzept abweicht, das ja eigentlich stets bis maximal 140 Watt ausgelegt war. Wenn man hier ein wenig umstrukturiert und sagen wir mal auch vorsieht, dass dort bis 250 Watt verbraten werden können, dann sind eben auch APUs möglich, die aus heutiger Sicht ein Äquivalent der 280er Reihe beinhalten. In Zukunft hätte man dann eben keine CPU und Grafikkarte mehr, sondern nur noch einen Chip für beides. Enthusiasten müssten sich dann eben ein spezielles High-End-Mainboard kaufen, wo noch ein Grafikkartenslot für die High-End-Kaliber vorhanden ist. Generell dürften ja nur wenige PC-Nutzer die Upgradefähigkeiten ihrer Rechner ausgiebig nutzen, weswegen sich nur wenige an dem Umstand CPU & GPU immer nur im Paket zu wechseln stören dürften. Das dürfte dann auch in einem Sprung vorwärts für HSA & Co resultieren...

Ich sehe sowas für die Zukunft zumindest kommen. Mit HBM steht da halt nun ein Gamechanger auf dem Plan, der zunächst den Low-End-Bereich komplett schlucken wird. Wenn man nun bedenkt, dass eine HD7850 vielleicht 120 Watt braucht, dann ist es nicht unrealistisch eine APU mit 120-140 Watt zu bauen, die den reinen Grafik-Stromverbrauch durch das Ersetzen von GDDR5 durch HBM ja schonmal senkt, wodurch genug Raum für eine anständige CPU bliebe, die heutzutage (zumindest wenn wir zu Intel schielen) so im Rahmen von 65 Watt operiert. Damit könnte auch der Mid-Range-Bereich sehr schnell und preislich attraktiv von APUs ersetzt werden. Dann noch die besagten Sockel- und Kühldesignänderungen, die höhere Verbräuche als die bislang üblichen 140 Watt erlauben und schon wäre auch die nächsthöhere Stufe von GPUs in einer APU denkbar. Bis 2020 könnte sich dementsprechend durchaus was tun...

Von daher bleibt nun abzuwarten, wie sich HBM bei Fiji nun schlägt und wie das ganze preislich so aussieht (im Hinblick auf die Integration in APUs)...

Effe
2015-03-29, 19:14:18
Angenommen wir hätten heute APUs mit der Grafikleistung einer 270X
Gibts schon annähernd in der PS4.

Käsetoast
2015-03-29, 19:22:22
Gibts schon annähernd in der PS4.
Stimmt natürlich, aber im gegebenen Kontext geht's ja um den Einsatz in den CPU-Sockeln von ATX-Systemen. Da war bislang halt effektiv bei 140 Watt Ende. Auch damit könnte man in Zukunft aber das Äquivalent einer 270/270X gekühlt bekommen. Einmal spart man halt Strom beim Einsatz von HBM anstatt GDDR und weiterhin muss man ja auch Dinge wie die Spannungswandler (die der CPU Sockel ja schon hat) wieder herausrechnen genau wie andere Kleinigkeiten wie z.B. Strom für die Lüfter. Mag erst mal nach wenig klingen, aber es dürfte sich schon auf eine relevante Summe zusammenläppern, so dass der Verbauch einer heutigen R9 270 nach der Portierung in eine APU durchaus im Machbaren liegen dürfte. Später kann man dann wie erwähnt ja auch höhere Verbräuche erlauben, wodurch dann mehr Spiel nach oben besteht und man zumindest die gesamte Mid-Range-Sparte ersetzen könnte...

Von daher finde ich die Speicherleistung von Fiji im Hinblick auf die Anwendung in APUs sehr interessant bzw. ich persönlich hatte sogar damit gerechnet, dass wir HBM zuerst in APUs sehen, bevor sie tatsächlich auf einer Grafikkarte zum Einsatz kommen. So kann man sich irren... ;)

Nightspider
2015-03-29, 19:30:05
Gab es in letzter Zeit eigentlich mal einen Test zwischen PCI-Express 2.0 und 3.0 ?

Effe
2015-03-29, 19:32:23
Ja, ich verstehe schon. Technisch möglich wäre/ist es jetzt schon. Mit HBM natürlich noch einfacher möglich.
Ich bin gespannt, was AMD für eine zukünftige Sockelstrategie fahren will. Ob zB solche 120-140W APUs möglich sind, bei besserer CPU-Leistung.

Screemer
2015-03-29, 20:42:10
Gab es in letzter Zeit eigentlich mal einen Test zwischen PCI-Express 2.0 und 3.0 ?
vom 19.02.: http://www.guru3d.com/articles-pages/pci-express-scaling-game-performance-analysis-review,1.html

zwar mit einer 980 aber für mich mal von thief abgesehen völlig vernachlässigbar. sogar 1.1 -> 3.0.

mboeller
2015-03-29, 21:05:06
Stimmt natürlich, aber im gegebenen Kontext geht's ja um den Einsatz in den CPU-Sockeln von ATX-Systemen. Da war bislang halt effektiv bei 140 Watt Ende.

und die PS4 verbraucht 150W @ 28nm... mit 16nm sollte es ohne weiteres für bessere CPU-Kerne reichen. Siehe zB. Carrizo

Deine Idee könnte also IMHO schon bald Realität werden.

Nakai
2015-03-30, 00:42:16
Wenn AMD HPC-APUs bringt, sowieso.

Mal was anderes?
http://www.computerbase.de/2015-03/directx-12-im-test-vor-mantle-und-amd-vor-nvidia/

DX12-Treiberprobleme bei NV oder Hardwarelimitierung? Ansonsten wird sich das zwar nie wirklich auf die Game-Performance auswirken, aber falls NV-Hardware weniger Drawcalls annehmen kann, ist das im direkten Bezug mit der Anzahl der ACEs? Hawaii hat 8 ACEs, was hat NV bei GM204 im Gegenzug?

Fiji sollte mindestens 8 ACEs besitzen, ich geher eher von 16+ aus.

€: Ahja Fiji als Dual-Chip-Karte ist absoluter BS. Die der Chip wurde geleakt und mit 500mm²+(nicht mehr als 550mm²) + 4 HBM-Stacks sollte es knapp auf einem (Kalahari-)Interposer passen. Lächerlich was die Gerüchteküche spinnt. Wenn es nur zum 8GB-Stack Infos geben würde...

reaperrr
2015-03-30, 02:36:25
DX12-Treiberprobleme bei NV oder Hardwarelimitierung?
Würde auf DX11-Treiberprobleme bei AMD tippen. Gibt ja mittlerweile genügend Spiele und Benchmarks, die klar zeigen, wie unterlegen AMD's DX11-Treiber bei Multithreading und Overhead allgemein ist. Sprich, möglicherweise kann Hawaii erst mit DX12 überhaupt sein volles Potential ausspielen und hat sich die ganzen 1,5 Jahre unter Wert verkauft.

rentex
2015-03-30, 05:53:56
Man könnte sich den Aufwand mit Monsterkarten sparen, wenn DX12 eingeführt und vernünftig programmiert wird. Es ist machbar.

hasebaer
2015-03-30, 06:23:46
DX12-Treiberprobleme bei NV oder Hardwarelimitierung?

Sicherlich eine Hardwarelimitierung, aber irgendwann kannst du noch so viele Drawcalls haben, kommt trotzdem kein FPS mehr dabei rum, weil dann limitieren wieder ganz andere Sachen.
Und die 980 kommt ja auf 90% der Drawcalls unter DX12, im Vergleich zu einer 290X unter Mantle, also das ist mehr als genug.

horn 12
2015-03-30, 08:06:28
@Nakai

Kann es sein dass es NDA für 8GB HBM Stacks von Hynics gibt, auf Wunsch von AMD zwecks deren Abnahme?

mboeller
2015-03-30, 08:19:40
Man könnte sich den Aufwand mit Monsterkarten sparen, wenn DX12 eingeführt und vernünftig programmiert wird. Es ist machbar.

DX12/Mantle helfen doch vor allem bei der CPU nicht bei der GPU.
Du kannst dir also die sauteure Highend Intel-CPU sparen und dafür eine billige einbauen. Der Unterschied zw. den einzelnen CPUs (egal ob Highend oder nicht) ist beim Vergleich von computerbase nicht wirklich groß, der Unterschied zw. DX11 und DX12/Mantle dafür umso größer.

iuno
2015-03-30, 09:19:03
Ich glaube man darf in die Zahlen noch nicht zu viel hinein interpretieren. Beim ersten Test (war glaube ich von anandtech) war es noch genau anders herum. Und dann muss das erst einmal in mehr FPS umgemünzt werden. DX12 und die Treiber sind denke ich immer noch in einem Stadium, dass sich noch einiges tun kann. Und bis die überwiegende Mehrheit der Spiele DX12 nutzt, spricht bestimmt keiner mehr von Hawaii.
Btw: warum sprecht ihr nur von DX? Ist Vulkan noch nicht in den Köpfen oder habt ihr das schon abgeschrieben? ;-)

Ailuros
2015-03-30, 09:19:39
DX12/Mantle helfen doch vor allem bei der CPU nicht bei der GPU.

Irgendwo her kommen auch die ~10x Mal so viele draw calls von den high end GPUs im test mit einem i7 4770 z.B. gegenueber Intel's iGPU.

Du kannst dir also die sauteure Highend Intel-CPU sparen und dafür eine billige einbauen. Der Unterschied zw. den einzelnen CPUs (egal ob Highend oder nicht) ist beim Vergleich von computerbase nicht wirklich groß, der Unterschied zw. DX11 und DX12/Mantle dafür umso größer.

Es gilt aber auch nur fuer den i7 3960k in dem test. Sonst hat der i7 4770 gegen den i3 4370 schon einen sehenswerten Unterschied in draw calls fuer 290X/980, was auch immer das in echten Spielen der Zukunft heissen moechte.

Hübie
2015-03-30, 09:39:45
Der i3 hat nur zwei Kerne und weniger Takt. Die Differenz ist ziemlich linear. Der 3960X hat ebenfalls deutlich weniger Takt. Hier scheint nVidia auch mehr Probleme zu haben als AMD.

@Nakai: Maxwell hat kein geteiltes Frontend. Der Arbiter verteilt das. Die ACEs in Hawaii sind ja zugeordnet und können wohl Last besser aufteilen.

Sunrise
2015-03-30, 10:12:53
Ich bin gespannt, was AMD für eine zukünftige Sockelstrategie fahren will. Ob zB solche 120-140W APUs möglich sind, bei besserer CPU-Leistung.
AMD hat sowohl HPC als auch Desktop-APUs auf ihren offiziellen Roadmaps.

fondness
2015-03-30, 10:23:20
Ich bin gespannt, was AMD für eine zukünftige Sockelstrategie fahren will. Ob zB solche 120-140W APUs möglich sind, bei besserer CPU-Leistung.

Interessant wären wohl eher 300W APUs mit HBM. Die CPU benötigt eh kaum mehr Die-Space und Leistungsaufnahme, sodass man hier wohl eine ganz nette High-End HSA APU basteln könnte. Aber 2017 steht die eh auch der Roadmap.

captain_drink
2015-03-30, 15:34:16
Gab es in letzter Zeit eigentlich mal einen Test zwischen PCI-Express 2.0 und 3.0 ?

Für die 980, mit deutlichen Unterschieden u.a. bei Ryse: http://www.techpowerup.com/reviews/NVIDIA/GTX_980_PCI-Express_Scaling/

aufkrawall
2015-03-30, 15:41:14
Ryse ist imho fragwürdig, weil es wahrscheinlich immer noch nicht selber die System Timer Resolution auf 1ms setzt, ohne, dass man selber in der Config rumpfuscht.
Bei 4k im totalen GPU-Limit ist dann auch fast nichts mehr vom Vorsprung von 3.0 übrig.

derguru
2015-03-30, 15:51:19
Für die 980, mit deutlichen Unterschieden u.a. bei Ryse: http://www.techpowerup.com/reviews/NVIDIA/GTX_980_PCI-Express_Scaling/
naja, selbst 4x1.1 hält noch gut mit,so gut hätte ich es nicht mal erwartet.(nur 4k werte angeschaut)

aufkrawall
2015-03-30, 15:58:20
Ich seh sonst bei typischen fps nur bei Wolfenstein einen nennenswerten Unterschied. Bei dem Spiel ist natürlich das Texturstreaming als Erklärung naheliegend. Interessant wär, was passiert, wenn man Cuda-Transcode einschaltet, oder ob MT mit PRT sich in der Hinsicht irgendwie anders verhielte als traditionelles Texturing.

horn 12
2015-03-30, 23:35:44
AMD´s Problem, was ich denke Einzug Halten wird.

AMD könnte echt zu langsam releasen, um Ordentlich Profit rauszuschlagen
Jene Insider, welche eine Titan X wollen, haben bereits eine, oder bekommen bis Mitte April locker eine in Ihre Hände und AMD kann somit echt in die Röhre schauen.
Außer AMD ist so knallhart und releast endlich nun in den nächsten 2, maximal 3 Wochen, ansonsten kommt noch das Sommerloch hinzu!!

Jene potentiellen Kunden haben, oder werden zukunftsnah bei der Konkurrenz zuschlagen, denn so eine HammerKarte das alles liegen und stehen lässt wird die R9 390X wohl dann doch nicht werden!
AMD´s Strategie soll mal einer durchblicken :-( Treiber hin oder her...

Coda
2015-03-30, 23:51:24
Ryse ist imho fragwürdig, weil es wahrscheinlich immer noch nicht selber die System Timer Resolution auf 1ms setzt, ohne, dass man selber in der Config rumpfuscht.
Bei 4k im totalen GPU-Limit ist dann auch fast nichts mehr vom Vorsprung von 3.0 übrig.
Das ist nicht fragwuerdig, das liegt am Gras und den Geom Caches. Das wird alles jeden Frame hochgeladen. Kein anderes Spiel ist da so extrem.

aufkrawall
2015-03-31, 00:06:09
Trotzdem wird selbst 2.0 durch die zu niedrige STR ausgebremst sein, wenn die immer noch bei 10ms liegt. Auch unter Windows 8.

Palpatin
2015-03-31, 00:14:37
Jene potentiellen Kunden haben, oder werden zukunftsnah bei der Konkurrenz zuschlagen, denn so eine HammerKarte das alles liegen und stehen lässt wird die R9 390X wohl dann doch nicht werden!
AMD´s Strategie soll mal einer durchblicken :-( Treiber hin oder her...
Naja wenn sie Titan Performance zu Titan Preise (700 für Lukü 800-900 für die WCE) verkaufen wollen, müssen sie das Teil irgendwie mit 8GB bringen, könnt mir vorstellen das es sich genau aus dem Grund nach hinten verschoben hat. Eine 4GB 390X würde ich nicht für 600€ kaufen selbst wenn sie 10% schneller als Titan X wäre. Eine 8GB die Titan X Performance für 700€ liefert wäre ich sofort dabei.

Gipsel
2015-03-31, 00:54:18
Mal was anderes?
http://www.computerbase.de/2015-03/directx-12-im-test-vor-mantle-und-amd-vor-nvidia/

DX12-Treiberprobleme bei NV oder Hardwarelimitierung? Ansonsten wird sich das zwar nie wirklich auf die Game-Performance auswirken, aber falls NV-Hardware weniger Drawcalls annehmen kann, ist das im direkten Bezug mit der Anzahl der ACEs? Hawaii hat 8 ACEs, was hat NV bei GM204 im Gegenzug?ACEs nehmen keine Drawcalls an (nur Aufrufe von Computeshadern), die sind dafür also ziemlich egal.

Ravenhearth
2015-03-31, 01:53:05
Trotzdem wird selbst 2.0 durch die zu niedrige STR ausgebremst sein, wenn die immer noch bei 10ms liegt. Auch unter Windows 8.

Das wurde afaik doch schon lange gefixt. :confused:

Coda
2015-03-31, 02:00:18
Trotzdem wird selbst 2.0 durch die zu niedrige STR ausgebremst sein, wenn die immer noch bei 10ms liegt. Auch unter Windows 8.
Das hat auf die Vergleichbarkeit von 2.0 vs. 3.0 meiner bescheidenen Meinung nach keinen Einfluss. Vielleicht kennst du den Code ja besser :)

AngelDust 32
2015-03-31, 07:50:18
http://www.computerbase.de/2015-03/next-gen-apis-amd-will-neben-der-cpu-auch-die-gpu-auslastung-verbessern/

falls noch nicht verlinkt

weil wir gerade bei ACE's sind

Edit: Etwas ausführlicher

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/34753-asynchronous-shader-sollen-amd-grafikkarten-weiter-beschleunigen.html

Hübie
2015-03-31, 08:38:56
ACEs nehmen keine Drawcalls an (nur Aufrufe von Computeshadern), die sind dafür also ziemlich egal.

Ja gut das macht der command processor. Hat der aber mehr ACEs kann die Queue schneller abgehandelt werden. Ich weiß dass du da mehr Plan hast aber das ist mein Verständnis der Abläufe. Irre ich mich etwa?

Ich habe mal eben etwas nachgelesen wegen in-package und off-package memory und bereits 2012 erreichte man 54% mehr Effizienz ggü. GDDR5 mit 1250 MHz. Die gehen ja teilweise schon bis 2000 was die Bilanz noch mehr verschiebt.
Was es nun mit 8 GB auf sich hat kann man nur spekulieren. Gestern erfuhr ich von einer möglichen Konfiguration die noch keiner bedacht hat. Zwei Dies a 4 GB auf einem Interposer samt Punkt-zu-Punkt-Anbindung. Was mir an der These missfällt ist die schier immense Logik für die Verteilung der Operationen zwischen zwei GPUs. Da bleibt natürlich die Frage ob die GPU selber dann noch command processor und asynchronous compute engine haben oder ob es einen dicken Arbiter und Scheduler off-die bzw. beside-die gibt.
Würde aber mit dem neuen spekulieren MGU-Modus zusammenpassen. Einfach ausgedrückt: der C2Q der Grafikkarten.

Was haltet ihr davon? Pro und Contra bitte :) :)

ps: Ich persönlich halte es für unwahrscheinlich aber auch Treiberprobleme könnten damit zusammenhängen. Es würde also ins Bild passen.

Edit:
http://www.abload.de/thumb/rzauo.jpg (http://www.abload.de/image.php?img=rzauo.jpg)

robbitop
2015-03-31, 08:43:05
So komplex ist das wohl nicht. Apple hat ohne IMGs Hilfe bspw 2x Serie 6XT Cores zusammengetackert. Wie effizient das am Ende ist, steht auf einem anderen Blatt.

Hübie
2015-03-31, 09:07:21
Ich kenne jetzt zwar den core 6xt nicht aber der wird um ein vielfaches einfacher sein. Schwer ist es auf hardwareebene nicht, nein. Aber die Implementierung ist schwierig. Und wie erwähnt die sinnvolle Aufgabenverteilung bei einem neuen rendering mode. Es soll sich nicht um AFR/SFR handeln sondern in der Tat dynamische Lastverteilung. Ich muss da noch mehr drüber grübeln ;D Interessant wäre es alle mal. HBM und 2-die-strategy?

Edit: Okay kenne den doch. Das zu vergleichen ist zwar erlaubt aber ob ich ein bissl Cache und n paar ALUs ranpappe oder zwei Chips verheirate ist n großer Unterschied. Zumindest nach meinem Verständnis.

Ailuros
2015-03-31, 09:23:27
Ich kenne jetzt zwar den core 6xt nicht aber der wird um ein vielfaches einfacher sein. Schwer ist es auf hardwareebene nicht, nein. Aber die Implementierung ist schwierig. Und wie erwähnt die sinnvolle Aufgabenverteilung bei einem neuen rendering mode. Es soll sich nicht um AFR/SFR handeln sondern in der Tat dynamische Lastverteilung. Ich muss da noch mehr drüber grübeln ;D Interessant wäre es alle mal. HBM und 2-die-strategy?

Was genau verstehst Du unter "dynamischer Lastverteilung" ausserhalb von AFR/SFR?

-----------------------------------------

robbi,

Es koennte eine gute Implementierung sein wenn die GPU Frequenz unter 450MHz liegt im A8X wie ich in letzten Tage lese. Auf jeden Fall die Fuellraten-Resultate im Gfxbench deuten bis jetzt auf vergleichbare Frequenzen mit der 6 Plus GPU die auf 533MHz taktet; ausser natuerlich beim letzten begrenzt die Bandbreite und die A8X GPU hat eine um einiges groessere Fuellraten-Effizienz dadurch.

Hübie
2015-03-31, 09:35:14
Das beide GPUs wie eine behandelt wird und nach außen sich auch so meldet. Das verstehe ich darunter. Keine fixe Aufteilung nach bekannten Mustern.
Alternativ könnte man davon ausgehen dass SFR implementiert ist und man sich ja so Scheduling auf dem Interposer spart. Das skaliert wohl bekannt aber mies und macht Effizienz zu Nichte. Was hälst du denn davon?
Bumsthese?

Ailuros
2015-03-31, 09:44:54
Das beide GPUs wie eine behandelt wird und nach außen sich auch so meldet. Das verstehe ich darunter. Keine fixe Aufteilung nach bekannten Mustern.
Das dumme ist halt dass ich mir ausserhalb von SFR bei dynamischer Verteilung nichts anderes vorstellen kann.

Alternativ könnte man davon ausgehen dass SFR implementiert ist und man sich ja so Scheduling auf dem Interposer spart. Das skaliert wohl bekannt aber mies und macht Effizienz zu Nichte. Was hälst du denn davon?

Wenn man es wirklich richtig machen will dann braucht man schon einen scheduler in hw (egal wo) der als Arbeitsverteiler dient. Der primaere Kopfschmerz ist Geometrie in solchen Faellen und IMG hatte bei der vorigen Generation 95% erreicht. Das grooosse "Geheimnis" war dass der Bruecken-chip/scheduler names Hydra schneller taktete als der normale core. Wenn Du darueber nachdenkst macht es auch Sinn dort hoeher zu takten.

Hübie
2015-03-31, 09:48:22
Hm. Dass hatte ich noch gar nicht bedacht. Klar. Damit erschlägt man Latenz im Vorfeld. Ich habe heute einen langen Tag auf Arbeit also kann ich mir in Ruhe Gedanken machen X-D Vielleicht kann ich ein paar Notizen / Skizzen machen wie ich mir das vorstelle.

Ailuros
2015-03-31, 10:04:35
Das heisst jetzt nicht dass dem so ist; nichts gegen on paper Uebungen aber ich hab mich hir im Forum davon ueberreden lassen dass der top dog keine mGPU ist :P

Hübie
2015-03-31, 10:29:05
Ich betrachte einfach nur mal alles, um zu spekulieren :biggrin: Hab ja nun mein System aufgelöst um sehnsüchtig auf die Fiji-Inseln zu fliegen :naughty:

Thunder99
2015-03-31, 11:24:28
Nimm mich mit :naughty:

Aber scheint immer mehr so, das der Name GNC wirklich mehr als zutreffend ist wenn alte Versionen schon Features von übermorgen beherbergen :up:

fondness
2015-03-31, 12:26:33
Nimm mich mit :naughty:

Aber scheint immer mehr so, das der Name GNC wirklich mehr als zutreffend ist wenn alte Versionen schon Features von übermorgen beherbergen :up:

Es ist eher traurig, dass eine Architektur von AMD, die seit 2011 am Markt ist, erst 2015 eine API bekommt welche wesentliche Features von GCN überhaupt nutzen kann. DX11 ist für asynchronous shading leider ungeeignet.

Guter und ausführlicher Artikel hierzu: http://www.anandtech.com/show/9124/amd-dives-deep-on-asynchronous-shading

horn 12
2015-03-31, 13:02:28
Da wird der GTX 980 / Titan X gewaltig in den Arsch getreten werden!
Mit Fiji könnte dies locker 30 bis 40% ausmachen, gehenüber der Titan X Karte.

Blediator16
2015-03-31, 13:17:54
Da wird der GTX 980 / Titan X gewaltig in den Arsch getreten werden!
Mit Fiji könnte dies locker 30 bis 40% ausmachen, gehenüber der Titan X Karte.


Du bist echt hoffnungslos :freak::biggrin:

aufkrawall
2015-03-31, 13:19:09
Das wurde afaik doch schon lange gefixt. :confused:
Es gibt seit einem Patch die Option, das in der Config festzulegen. afair wird immer noch nicht automatisch auf 1ms fixiert.

Das hat auf die Vergleichbarkeit von 2.0 vs. 3.0 meiner bescheidenen Meinung nach keinen Einfluss.
Mag durchaus sein. Falls es mal einen Win X-Benchmark gibt, dürften wir es dann ja wissen.

Hübie
2015-03-31, 13:49:11
Im SFR Mode könnte der VRAM ja zum großen Teil zusammengelegt werden oder wie war das? Wie müsste man denn eine bessere Skalierung in diesem Modus angehen? Einfach den CP schneller Takten reicht da nicht.

robbitop
2015-03-31, 13:53:07
Edit: Okay kenne den doch. Das zu vergleichen ist zwar erlaubt aber ob ich ein bissl Cache und n paar ALUs ranpappe oder zwei Chips verheirate ist n großer Unterschied. Zumindest nach meinem Verständnis.

Du verwechselst da was. Ich meine keine n-Cluster Varianten von Series 6XT sondern den GXA6850 im A8X (iPad Air 2). Da wurden 2x 4Cluster S6XT GPUs zusammengepappt. Und zwar autarke, unveränderte GPUs.
Also nichts mit ALUs und Cache ranpappen.

AFAIK wird das nicht per SFR gemacht und meldet sich nach außen hin wie eine GPU.

HOT
2015-03-31, 14:05:04
Mit entsprechenden Anbindungen und Protokollen kann man doch noch viel weiter gehen als SFR. Über Interposer ließen sich auch mehrere Chips direkt verdraten.

robbitop
2015-03-31, 14:08:42
Ich meine das im Falle von GXA6850 die beiden GPUs über Hydra verschaltet worden sind und somit die Ressourcen von GPU2 an GPU1 gekoppelt sind. Wie es genau funktioniert, weiß ich nicht. Scheint aber zu funktionieren und ist wohl ohne Hilfe von IMG passiert.

del_4901
2015-03-31, 14:14:39
Du verwechselst da was. Ich meine keine n-Cluster Varianten von Series 6XT sondern den GXA6850 im A8X (iPad Air 2). Da wurden 2x 4Cluster S6XT GPUs zusammengepappt. Und zwar autarke, unveränderte GPUs.
Also nichts mit ALUs und Cache ranpappen.

AFAIK wird das nicht per SFR gemacht und meldet sich nach außen hin wie eine GPU.
PowerVR binnt ja auch alles vorneweg und rendert dann einzelne Tiles, da ist das SFR dann keine Kunst mehr.

uweskw
2015-03-31, 14:38:26
PowerVR binnt ja auch alles vorneweg und rendert dann einzelne Tiles, da ist das SFR dann keine Kunst mehr.

Die hatten schon damals mit dem KyroII-Chip tolle Ansätze.

Locuza
2015-03-31, 15:21:08
Es ist eher traurig, dass eine Architektur von AMD, die seit 2011 am Markt ist, erst 2015 eine API bekommt welche wesentliche Features von GCN überhaupt nutzen kann. DX11 ist für asynchronous shading leider ungeeignet.

Guter und ausführlicher Artikel hierzu: http://www.anandtech.com/show/9124/amd-dives-deep-on-asynchronous-shading
Es konnte zum Launch eine ganze Menge nicht genutzt werden.
Jedenfalls aus DX11.0 Sicht gab es keine tiled resources, bindless resources, multi-queue support usw.

Den Anandtech Artikel empfinde ich als Falsch.
Woher kommt die Info, mit Mixed-/Pure-Mode?
Und wieso sollte bei einem Mixed-Mode immer eine compute-engine blockiert sein?
Man erwähnt 32 Queues bei Maxwell Gen 2, aber bei AMD nicht, dass jede ACE in der zweiten Generation 8 Queues verschicken kann und damit theoretisch bis zu 64 bei GPUs mit 8 ACEs.

Das ist ein nennenswerter Unterschied zwischen GCN Gen 1 und GCN Gen 2.

Gaestle
2015-03-31, 15:37:56
Die hatten schon damals mit dem KyroII-Chip tolle Ansätze.

Und KYRO-II war nur eine höher getaktete Version von KYRO.

Der Enkel davon ist Serie5 und der Urenkel 2. Grades dann in etwa das, was Apple jetzt nutzt.

/klugscheiss. ;D


BTW: Was ist eigentlich aus Loewe und mitrax geworden?

Sunrise
2015-03-31, 15:45:16
Es ist eher traurig, dass eine Architektur von AMD, die seit 2011 am Markt ist, erst 2015 eine API bekommt welche wesentliche Features von GCN überhaupt nutzen kann. DX11 ist für asynchronous shading leider ungeeignet.

Guter und ausführlicher Artikel hierzu: http://www.anandtech.com/show/9124/amd-dives-deep-on-asynchronous-shading
Das ist aber auch schon immer bei AMDs Designs so. Es gibt von AMD seit Uhrzeiten immer irgendwas, was brach lag bzw. speziell unterstützt werden (musste). Einerseits pushen sie damit schon weit vorher Dinge, die evtl. mal genutzt werden, andererseits half es ihnen in der Vergangenheit selten weiter, vor allem kostet sowas auch Die-Fläche. Bei GCN ist das wiedermal schön zu sehen. Maxwell ist nicht nur allein deshalb auch deutlich schlagkräftiger pro Transistor.

Sowas wie RV670 bzw. RV770 baut AMD sehr selten.

del_4901
2015-03-31, 15:51:56
Die hatten schon damals mit dem KyroII-Chip tolle Ansätze.
Naja warten wir erst mal ab, wann der erste Chip mit Tessellation von denen erscheint.

robbitop
2015-03-31, 15:58:54
Naja warten wir erst mal ab, wann der erste Chip mit Tessellation von denen erscheint.
Ich dachte Series6 beherrscht schon adaptive Tesselation?

Spätestens Series7 soll es aber unterstützen. http://www.iphonehacks.com/2015/02/imagination-latest-gpu-allow-apple-tv-into-gaming-console.html

Ailuros
2015-03-31, 15:59:47
mitrax.de sollte noch leben, ich hab aber schon seit einer Ewigkeit nicht mehr von Werner gehoert :)

robbi,

Es gibt keinen Hydra im A8X.

--------------------------------------------

Sonst wird die Zukunft schon zeigen wie man mit einer Weiterentwcklung von etwas wie NV-link und low level APIs zu fast linearer Skalierung mit SFR kommen kann. Irgendwann werden wir AFR schon los auf die eine oder andere Art.

Ich dachte Series6 beherrscht schon adaptive Tesselation?

Spätestens Series7 soll es aber unterstützen. http://www.iphonehacks.com/2015/02/imagination-latest-gpu-allow-apple-tv-into-gaming-console.html

Seit wann beinhaltet DX10.0 irgendwelche Tessellation? Die Tessellations-Einheit auf Serie7XT ist optional genauso wie der HPC Pack wenn jemand FP64 haben moechte. Das heisst erstmal dass 7XE auch nur hoechstens DX10.0 ist und ausser irgend jemand lizenziert etwas wofuer man DX11.2 wirklich braucht wird man davon wenig bis gar nichts in Geraeten sehen. ARM hat ueberhaupt keine fixed function Tessellations-Einheit sondern schleusst dass Ganze ueber die compute hw ergo die ALUs. Da es noch eine zusaetzlich Runde durch den Speicher heisst deutet wohl wie "effizient" es ist. Auf direkter Anfrage bei ARM war ihre Begruendung fuer die fehlende ff Einheit dass ihre cores sowieso zu wenig Geometrie bearbeiten koennen um adaptive Tessellation sinnvoll einzusetzen.

So reicht jetzt so viel OT? Es gibt einen dedizierten thread fuer IMG Zeug.

Das ist aber auch schon immer bei AMDs Designs so. Es gibt von AMD seit Uhrzeiten immer irgendwas, was brach lag bzw. speziell unterstützt werden (musste). Einerseits pushen sie damit schon weit vorher Dinge, die evtl. mal genutzt werden, andererseits half es ihnen in der Vergangenheit selten weiter, vor allem kostet sowas auch Die-Fläche. Bei GCN ist das wiedermal schön zu sehen. Maxwell ist nicht nur allein deshalb auch deutlich schlagkräftiger pro Transistor.

Sowas wie RV670 bzw. RV770 baut AMD sehr selten.

Wenn ich bedenke wie begrenzt die resources bei AMD heutzutage sind, ist das was sie noch heute liefern ein wahres Wunder. So etwas geht natuerlich nicht in aller Oeffentlichkeit, aber wenn Du irgend einen Bekannten hast frag sie mal wie viele grosse engineering Talente sie in den letzten Jahren verloren haben. Soooo tragisch gross ist die Effizienz bei Maxwell nun auch wieder nicht. NV hat Maxwell marketing-technisch ausgezeichnet illustriert (ergo untertreibt man stellenweise mit dem Verbrauch) und es werden auch von Herstellern auf Maxwell SKUs nirgends default Frequenzen eingehalten. Es ist nicht so dass es nicht wahr ist, aber der generelle Eindruck ist schon um etwas positiver als es wirklich in Realitaet ist.

AMD kann erstmal mit ihren bisherigen und wohl auch kommenden cores keine so extravagante Frequenzen erreichen wie Maxwell cores. Moegliche Gruende sind groessere Packdichten und vielleicht sogar mit der "nativen" DP Unterstuetzung verbunden unter vielen anderen.

robbitop
2015-03-31, 16:01:11
Ailuros - weißt du zufällig, wie Apple die beiden 4C im A8X koppelt?

Ailuros
2015-03-31, 16:19:30
Ailuros - weißt du zufällig, wie Apple die beiden 4C im A8X koppelt?

Ich hab nur meinen eigenen Laien-Verdacht; schick doch einfach Rys@B3D eine PM, obwohl er wohl sich wohl keiner so leicht ueber Apple's vertrauliches Material aeussern wird.

fondness
2015-03-31, 16:32:51
Es konnte zum Launch eine ganze Menge nicht genutzt werden.
Jedenfalls aus DX11.0 Sicht gab es keine tiled resources, bindless resources, multi-queue support usw.

Den Anandtech Artikel empfinde ich als Falsch.
Woher kommt die Info, mit Mixed-/Pure-Mode?
Und wieso sollte bei einem Mixed-Mode immer eine compute-engine blockiert sein?
Man erwähnt 32 Queues bei Maxwell Gen 2, aber bei AMD nicht, dass jede ACE in der zweiten Generation 8 Queues verschicken kann und damit theoretisch bis zu 64 bei GPUs mit 8 ACEs.

Das ist ein nennenswerter Unterschied zwischen GCN Gen 1 und GCN Gen 2.

Ja die Tablette ist wohl falsch, Tonga und Hawaii schaffen 64 queues und liegen damit noch immer über Maxwellv2, wird ja auch schon unten angemerkt.

Das ist aber auch schon immer bei AMDs Designs so. Es gibt von AMD seit Uhrzeiten immer irgendwas, was brach lag bzw. speziell unterstützt werden (musste). Einerseits pushen sie damit schon weit vorher Dinge, die evtl. mal genutzt werden, andererseits half es ihnen in der Vergangenheit selten weiter, vor allem kostet sowas auch Die-Fläche. Bei GCN ist das wiedermal schön zu sehen. Maxwell ist nicht nur allein deshalb auch deutlich schlagkräftiger pro Transistor.

Bei NV hat sich das nach NV30 eigentlich völlig aufgehört und man liefert nur noch das was unbedingt nötig ist. Macht ja auch Sinn, kaum jemand verwendet Features die nicht breitflächig unterstützt werden, schon gar nicht wenn es nicht mal eine API dafür gibt^^


Sowas wie RV670 bzw. RV770 baut AMD sehr selten.

Selbst diese Chips hatten DX10.1 im Gegensatz zu den NV-Pendants.

robbitop
2015-03-31, 16:39:16
Naja seit NV40. ;) (SM3.0 ggü SM2.0 bei R420)

fondness
2015-03-31, 16:40:40
Naja seit NV40. ;) (SM3.0 ggü SM2.0 bei R420)

Okay ja das war noch eine Folge des NV30 bzw. auf der anderen Seite die Einstellung des R400.

Gaestle
2015-03-31, 16:42:49
mitrax.de sollte noch leben, ich hab aber schon seit einer Ewigkeit nicht mehr von Werner gehoert :)

:up: :)
Das Forum gibt's tatsächlich auch noch (und es läuft noch), letzter Forenpost von 2010 (auf den ersten Blick).

/OT.

Troyan
2015-03-31, 16:44:13
"Liefert was nötig ist"?
Fermi ist die erste Architektur mit vollständiger parallelisierter Geometriepipeline und mehr als 1 Dreieck pro Takt, richtiges hierarchisches Speichersystem mit Unterstützung von C++ und deutlich bessere Compute-Einbindung.

Auch die erste Architekture, die die DX12 API unterstützt.

Auch die erste Single-GPU, die mehr als 300W schluckt.

Tamagothi
2015-03-31, 20:16:56
Hi ich bin neu hier lese aber schon Monate mit. Ich hätte da ne Frage zu der Größe vom Fiji PCB.

Kann man hoffen das durch den Wegfall der umliegenden VRam Chips die länge auf >=250mm fällt?

Gruß

Isen
2015-03-31, 22:04:55
Da musst du auf die Partner Varianten hoffen. Theoretisch solltens kürzer als die 290er werden, wie, steht in den Sternen.

StefanV
2015-03-31, 22:16:55
Hi ich bin neu hier lese aber schon Monate mit. Ich hätte da ne Frage zu der Größe vom Fiji PCB.

Kann man hoffen das durch den Wegfall der umliegenden VRam Chips die länge auf >=250mm fällt?

Gruß
Theoretisch müssts den Chip samt Spannungsregler auf 'nen standard Low Profile PCB bekommen, da du ja quasi NUR noch den Chip, Spannungsregler und die Monitoranschlüsse benötigst.

Die Speicherchips, die ja vorher einen Großteil des Platzes genommen haben, fallen ja weg...

Aber genau kann mans leider noch nicht sagen. Wobei ich ein nacktes PCB auch sehr spannend finde. Eben weil man nur noch GPU, SpaWas und Anschlüsse benötigt...

AnarchX
2015-03-31, 22:42:40
Auf jeden Fall könnte man bei einem nun überstehenden Kühler auch Luft von der PCB-Oberseite ansaugen.

iuno
2015-04-01, 00:34:46
AMD hat übrigens noch sehr subtil Neuigkeiten zur 300er Reihe verraten:

v3dUhep0rBs
edit: Youtube Einbettung geht nicht? dann wenigstens klickbar: https://www.youtube.com/watch?v=v3dUhep0rBs

Die Bitfolge auf den Wagons beinhaltet eine Nachricht. Dekodieren darf das aber jeder selber, um den Spaß nicht zu verderben :tongue:

Ravenhearth
2015-04-01, 00:43:13
v3dUhep0rBs

;)

iuno
2015-04-01, 00:47:54
Danke, war mir nicht klar, sorry :redface:

Ravenhearth
2015-04-01, 00:55:33
Und was bedeutet die Bitfolge nun? :D

del_4901
2015-04-01, 01:00:06
Und was bedeutet die Bitfolge nun? :D
Ist der Release-Zeitpunkt wenn man die Wagen zusammen nimmt und als UTC Bitfolge interpretiert.

Hübie
2015-04-01, 01:20:48
;D Hab auf yt mal etwas Verwirrung gestiftet... scnr

[MK2]Mythos
2015-04-01, 12:17:01
Was für ein Datum war nochmal heute? Ach ja... Der erste April!

iuno
2015-04-01, 13:23:52
Mann, nicht den Spaß verderben :P

stinki
2015-04-01, 13:28:13
Bezüglich Skalierung von GCN und Maxwell habe ich mal eine Tabelle mit Rechenleistung im Vergleich zum 3dcenter Performancewert gemacht:

640 1000 1.280.000 145% 1,13
896 1100 1.971.200 200% 1,01
1280 1050 2.688.000 290% 1,08
1792 918 3.290.112 330% 1,00
1792 933 3.343.872 330% 0,99
2048 1000 4.096.000 380% 0,93
2560 947 4.848.640 460% 0,95
2816 1000 5.632.000 520% 0,92

Die größeren Chips verlieren zwar etwas aber nicht so viel wie von einigen immer behauptet (rechte Spalte).

Ginge man bei Fiji von ähnlicher Skalierung aus z.B. 0,93 und würde den Gerüchten glauben dann käme man auf:
4096 1050 8.601.600 800% 0,93

Wenn man das gleiche für Maxwell macht sieht das so aus:
512 1085 1.111.040 GM107 185% 1,67
640 1085 1.388.800 GM107 210% 1,51
1024 1178 2.412.544 GM206 330% 1,37
1664 1178 3.920.384 GM204 490% 1,25
2048 1216 4.980.736 GM204 570% 1,14
3072 1075 6.604.800 GM200 750% 1,14

Maxwell Chips verlieren mindestens genau so viel wenn nicht noch mehr...

Mandalore
2015-04-01, 14:21:50
Ok und das hält mit DX12, Mantle und Vulkan Einzug bei allen GCN GPUs? Rein von der Theorie klingt es wie ein Mantle 2, nur diesmal für die GPU. Was halten die Pros davon? Marketing-Geblubber oder gewaltiges Potenzial dahinter?

aufkrawall
2015-04-01, 14:36:27
Bei The Tomorrow Children soll es laut den Devs 20% bringen. Vielleicht ist das allerdings schon der Bestwert für das Verhältnis der PS4 ACEs im Vergleich zum Rest der GPU, wenn das eh durchs Cone Tracing exzessiv Compute nutzt.
Wie gesagt: Wenn Thief es mit Mantle schon nutzt, wär es ein absolutes Trauerspiel:
http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-8.html

fondness
2015-04-01, 14:47:22
Du vermischt Kraut und Rüben. Thief läuft mit Mantle deutlich schneller als mit DX, heißt also es bringt was. Das etwas anderes an Thief den AMD-Karten nicht zu liegen scheint hat doch mit ASYNC_COMP nichts zu tun. Sofern man das überhaupt anhand eines kurzen Benchs beurteilen kann.

aufkrawall
2015-04-01, 14:55:38
Du vermischt Kraut und Rüben. Thief läuft mit Mantle deutlich schneller als mit DX, heißt also es bringt was. Das etwas anderes an Thief den AMD-Karten nicht zu liegen scheint hat doch mit ASYNC_COMP nichts zu tun.
tomshardware hat den integrierten Benchmark verwendet, der stark CPU limitiert ist.
Die Performancegewinne durch Mantle dürften so gut wie allein daraus resultieren, und trotz des dann kompletten GPU-Limits scheinen die VCEs (sofern sie dann wirklich genutzt werden) quasi überhaupt gar nichts zu bringen.
Lass deine Hütchenspielertricks stecken, die ziehen nicht mehr.

Das Einzige was sein könnte, ist, dass diese Funktionalität erst später per Patch kam, der auch etwa den VRAM-Bedarf mit Mantle reduziert hat oder Crossfire ermöglichte.
Das wissen wir aber nicht, es gibt keinen Test dazu.

y33H@
2015-04-01, 15:45:30
Thief läuft mit Mantle deutlich schneller als mit DX.Nur im CPU-, nicht im Grafik-Limit.

Nakai
2015-04-01, 16:11:34
Kann es sein, dass Fiji ein DX12-Chip wird? Wenn AMD mit AS eine deutlich höhere Effizienz erreicht, dann wird sich das auf DX12 interessant auswirken. Ich bin wirklich gespannt, was alles noch kommt.

Ich bin mir ziemlich sicher, dass Fiji != GCN1.2 ist. Fiji wird GCN1.3 sein und wohl noch einige Veränderungen mit sich bringen.:)

Sunrise
2015-04-01, 16:18:26
Kann es sein, dass Fiji ein DX12-Chip wird?
Bist du die ganze Zeit von etwas Anderem ausgegangen? Das war doch im Hinblick auf Windows 10, dem Releasezeitpunkt, den Slides und den hints auf diversen Seiten eigentlich schon ausgemachte Sache?!

Locuza
2015-04-01, 16:27:55
Kann es sein, dass Fiji ein DX12-Chip wird? []
Ich bin mir ziemlich sicher, dass Fiji != GCN1.2 ist. Fiji wird GCN1.3 sein und wohl noch einige Veränderungen mit sich bringen.:)
Fermi, GCN und Haswell sind doch schon alles DX12 Chips. :P

Dank Binding-Tier 3 könnte Fiji aber dann mal wirklich das maximale der Spec unterstützen.
Großartige Unterschiede erwarte ich aber nicht vs. Maxwell Gen 2.
Da muss man Glück haben, dass die Xbox One DX12 Ports von Tier 3 Gebrauch machen und andere GPUs einen simpleren Fallback bekommen.

Ich selber denke bisher weiterhin das Fiji GCN Gen 3 / IP v8 nutzen wird.
Genauso wie Tonga und der kommende Carrizo-Chip.

Thunder99
2015-04-01, 16:49:17
Das stimmt nicht. Sie können lediglich Software DX12 aber nicht HW DX12. Das können nur GNC (ab einer bestimmten Version) und dann evt noch Maxwell. Aus Marketing Sicht wird natürlich alles als DX12 fähig beworben :rolleyes:

Locuza
2015-04-01, 16:52:41
Aus meiner Sicht ist jeder Chip der DX12 supporten kann, ein DX12 Chip.
DX12 ist schließlich kein spezifischer Punkt, sondern eine Bandbreite.

aufkrawall
2015-04-01, 17:10:30
Hat sich schon ein Dev dazu geäußerst, was Binding Tier 3 wirklich gegenüber 2 bringen kann?

horn 12
2015-04-07, 14:37:04
Keine Neuigkeiten auf Zauba ?

y33H@
2015-04-07, 14:56:20
Warte einfach bis Ende Mai / Anfang Juni.

Blediator16
2015-04-07, 15:43:44
Er wird noch länger warten und in jedem Thread sich fragen, ob das der beste Zeitpunkt ist eine Karte zu kaufen.

Thunder99
2015-04-07, 16:10:21
Aus meiner Sicht ist jeder Chip der DX12 supporten kann, ein DX12 Chip.
DX12 ist schließlich kein spezifischer Punkt, sondern eine Bandbreite.
Dann lass dich überraschen ;) wenn es um Features geht (nicht um den verringerten CPU Overhead)

MrSchmelzer
2015-04-07, 16:28:01
Er wird noch länger warten und in jedem Thread sich fragen, ob das der beste Zeitpunkt ist eine Karte zu kaufen.

Und während dessen andauernd den derzeitigen Lieferstand der R9-290X
in Italien durchgeben, egal ob das interessiert oder nicht :P :rolleyes: :freak:

horn 12
2015-04-07, 16:57:54
Was wollt Ihr?
Kann nicht dafür dass in Italien die Karten teilweise 10, oder gar mehr Prozent billiger sind!

Halte mich raus, und Erfahrungsberichte gibts Keine mehr von mir!

y33H@
2015-04-07, 17:26:57
Ist es für mich günstiger die Karte wegen 10 Prozent aus Italien zu importieren? ;-)

R.I.P.
2015-04-07, 17:29:06
Was wollt Ihr?
Kann nicht dafür dass in Italien die Karten teilweise 10, oder gar mehr Prozent billiger sind!

Halte mich raus, und Erfahrungsberichte gibts Keine mehr von mir!

Keine Sorge, die sind nur neidisch weil Nvidia dir keine 970er in den Hintern geschoben hat...:freak:

Ich warte eigentlich auch gespannt auf Neuigkeiten, auch weil die 370er Anfangs April hätte released werden sollen (laut Gerücht) und mich die Rebranding Geschichte sehr interessiert :D

http://www.smarteranalyst.com/2015/04/07/company-update-nasdaqamd-advanced-micro-devices-inc-embedded-r-series-apu-powers-samsung-electronics-digital-signage-systems/

http://displaysolutions.samsung.com/products/accessories/317

Wie viel Markt haben diese Dinger? Wäre interessant zu wissen, um welche R6 es sich hierbei handelt :confused:

Nakai
2015-04-07, 17:51:39
Das ist Kaveri. Die R6 Grafik ist die Integrierte.

R.I.P.
2015-04-07, 18:20:35
Das ist Kaveri. Die R6 Grafik ist die Integrierte.

Danke sehr, da habe ich beim schnellen Durchlesen gehörig was falsch verstanden. Hatte von dedizierter GPU gelesen...

Was bei der Höhe des Gehäuses natürlich vollkommen logisch und einfach gewesen wäre...

Nakai
2015-04-07, 21:09:03
Danke sehr, da habe ich beim schnellen Durchlesen gehörig was falsch verstanden. Hatte von dedizierter GPU gelesen...

Was bei der Höhe des Gehäuses natürlich vollkommen logisch und einfach gewesen wäre...

The AMD Embedded RX-425BB APU combines a high performance x86 CPU with an integrated, discrete-class AMD Radeon R6 graphics processing unit (GPU) in a low-power configuration to minimize heat dissipation constraints and meet demanding energy efficiency requirements. The processor utilizes AMD's latest Graphics Core Next (GCN) architecture, created for advanced graphics applications and parallel processing capabilities.

http://www.techpowerup.com/211343/amd-embedded-r-series-apu-powers-samsung-electronics-digital-signage-systems.html

Hier steht was von discrete-class Radeon R6 Graphics. Es wird dennoch eine integrierte sein. R6 steht hierbei für 6 CUs aka 384SPs. Die R7-Kaveri-GPU hat alle CUs.

Unicous
2015-04-07, 21:33:04
Naaajaa. So falsch ist das ja nicht. Was zum Teil in solchen Digital Signage Dingern drinsteckt hat ja schon Gruselfaktor und man wundert sich, dass die Geräte nicht vor Überlastung den Geist aufgeben. Von daher ist discrete class, halt auf Einsteiger-Niveau, ca. 50$, mMn keine Falschaussage, aber natürlich nicht wirklich was wir uns darunter vorstellen.

Gerade im Digital-Signage-Bereich ist das ein Quantensprung aber auch nicht unbedingt billig. Da geht es ja auch um geringe Kosten und Langlebigkeit. Überall wird so ein "potentes System" (im Vergleich zum Markt) jedenfalls nicht genutzt. Wahrscheinlich werden riesige Werbetafeln damit gefüttert.

StefanV
2015-04-07, 21:33:15
Oh, interessant, AMD lernt Marketing Sprech und umschreibt eine integrierte mit 'Discrete Class'...

Unicous
2015-04-07, 21:37:04
Das ist doch alt.:confused: Das verwenden sie schon ewig für ihre APUs.

Seit Brazos/Llano Zeiten schon.

Nakai
2015-04-07, 21:41:46
Naaajaa. So falsch ist das ja nicht. Was zum Teil in solchen Digital Signage Dingern drinsteckt hat ja schon Gruselfaktor und man wundert sich, dass die Geräte nicht vor Überlastung den Geist aufgeben. Von daher ist discrete class, halt auf Einsteiger-Niveau, ca. 50$, mMn keine Falschaussage, aber natürlich nicht wirklich was wir uns darunter vorstellen.

Gerade im Digital-Signage-Bereich ist das ein Quantensprung aber auch nicht unbedingt billig. Da geht es ja auch um geringe Kosten und Langlebigkeit. Überall wird so ein "potentes System" (im Vergleich zum Markt) jedenfalls nicht genutzt. Wahrscheinlich werden riesige Werbetafeln damit gefüttert.

Im Embedded Bereich hatte AMD schon immer ein Fuss in der Türe.

Mir gings auch nur darum, die Verwirrung meines Vorschreibers bzw. die generelle Verwirrung diesbezüglich aufzuklären. Der Ausdruck Discrete-Class ist schon nicht eindeutig, imo.:)

Ansonsten hat das nix mit Fiji zu tun, deswegen BTT!!!!!!;D

€: Ahja, dass keine Infos bzgl R300-Serie aufkommen, liegt daran, dass man wohl wirklich wartet, dass Fiji in die Puschen kommt. Ansonsten Fiji ist wohl GCN1.3 und ein Stück weiter als Tonga, was reinher wegen HBM schon klar sein sollte. Es ist aber wohl mehr dran, als nur das.

y33H@
2015-04-07, 22:11:44
Digital Signage ist AMD übrigens ziemlich stark seit einigen Jahren.

Unicous
2015-04-07, 22:28:09
Ja, im HighEnd Segment.:wink:

Ein SoC Rundumsorglos-Board mit Unterstützung für hohe Auflösungen ist allemal besser als das was z.B. Matrox anbietet.:tongue:

(Fast) 900 Euro.:freak:

http://www.pcking.de/eshop.php?action=article_detail&s_supplier_aid=4555965

Locuza
2015-04-07, 22:55:12
Dann lass dich überraschen ;) wenn es um Features geht (nicht um den verringerten CPU Overhead)
Ich muss mich nicht überraschen lassen, ich weiß was hinter den verschiedenen Feature-Levels steckt.


€: Ahja, dass keine Infos bzgl R300-Serie aufkommen, liegt daran, dass man wohl wirklich wartet, dass Fiji in die Puschen kommt. Ansonsten Fiji ist wohl GCN1.3 und ein Stück weiter als Tonga, was reinher wegen HBM schon klar sein sollte. Es ist aber wohl mehr dran, als nur das.
Wenn es nach den alten "halboffiziellen" Roadmaps geht, verwendet Carrizo Volcanic Islands und damit GCN Gen 3.
Die gleiche major IP wie Tonga und dann auch Fiji.

Falls AMD grundsätzliche Fähigkeiten in eine Klasse packt, würde sich daraus zwangsläufig ergeben das Tonga die gleichen Features hat, wie Fiji und Carrizo.
Wenn nicht, wird es zusätzlich komplizierter.

Im strengsten Fall sieht AMD Front-End und Back-End absolut unabhängig und damit auch Features wie Conservative Rasterization und ROVs.

horn 12
2015-04-07, 23:43:59
Fudzilla mal wieder
Alt Aufgewärmtes, oder doch/ und auch einer der Gründe der Verspätung.

http://www.fudzilla.com/news/graphics/37457-fiji-xt-can-support-hbm2-memory

Nakai
2015-04-08, 00:22:30
Wenn man HBM1 unterstützt sollte man auch HBM2 können. Es gibt ja eigentlich nichts, wie HBM2. Die Speks wurde afaik diesbezüglich einfach erweitert.

ndrs
2015-04-08, 10:27:50
Lediglich die maximale Taktrate wird man potentiell nicht ausfahren können.

Nakai
2015-04-08, 12:43:04
http://www.skhynix.com/products/support/databook.jsp

Databooks von Q2 2015 sind draußen. Keine Spur von Dual-Link-HBMs oder größerem Speichervolumen. ;)

Fiji mit 8GB? Abwarten, aber ich sehe die Leaks als Fakes an.

Hübie
2015-04-08, 12:46:40
Also wieder die dual-Chip These fressen? :|

Unicous
2015-04-08, 12:47:24
Weil es nicht in der offiziellen product map steht ist es automatisch ein fake?:rolleyes:

Botcruscher
2015-04-08, 12:51:08
Dual Link und Co standen in den Folien eh nie drin. Das ist einfach ein Extrabraten zwischen AMD und Hynix.

Nakai
2015-04-08, 12:57:11
Weil es nicht in der offiziellen product map steht ist es automatisch ein fake?:rolleyes:

Es wär mir auch lieber, wenn Fiji 8GB hat, aber jegliche Leaks auf Chiphell waren mit 4GB. Die "geleakten" Slides sind mir extrem suspekt. Wenn AMD dennoch auf diesen Zug aufspringt, soll es mir recht sein. Fiji mit 4GB ist zu wenig.

Unicous
2015-04-08, 13:01:59
Es geht mir einfach darum, dass das Fehlen auf einer offiziellen product map kein Indikator für etwas anderes ist.

Ob die slides fake oder nicht sind, wissen wir weiterhin nicht, außer einiger Leute die Stein und Beil behaupten, geile Quellen zu haben aber die Informationen nicht raushauen.

w0mbat
2015-04-08, 13:12:26
Sie sind fake, das weiß ich. Aber scheint dir ja nicht auszureichen :(

Unicous
2015-04-08, 13:18:43
Ja, genau. Denn du lieferst keine Gegenargumente.

It's a fake zu schreien und einen Datenkristall in die Luft zu halten hilft keinem. Man möchte dann schon Beweise dafür.

Jemandem der andauernd "Wooolf" ruft vertraue ich irgendwann auch nicht mehr.

Ich schließe jetzt mein Buch "Memes und Metaphern für Dummies" wieder.


Edit:

Außerdem steht dein Wort gegen Marc Sauter, der sich das hat bestätigen lassen (bzw. Golem). Nicht, dass es nicht Leute gibt die keine Ahnung haben und dann einfach mal sagen, "Das wird schon so stimmen wenn es im Internet steht", aber du lieferst eben nur heiße Luft. Im Zweifesfall werde ich mein eigenes Urteil darüber in der Schwebe lassen. Ob fake oder nicht. Das kann ich weiterhin nicht beurteilen.

y33H@
2015-04-08, 13:26:31
Ich muss mich wiederum auf die (bis dato sehr gute) Quelle verlassen, denn das PDF selbst habe ich nicht vorliegen.

w0mbat
2015-04-08, 13:32:09
@Unicous: Was für "Gegenargumente"? Es geht um die Frage ob es ein Fake ist oder nicht. Da geht es um ein ja oder nein und nicht um Argumente. Und wo schreie ich denn bitteschön andauernd "Wolf"?

Ich weiß, dass es ein Fake ist. Mehr kann und muss ich dazu nicht sagen.

M4xw0lf
2015-04-08, 13:33:24
@Unicous: Was für "Gegenargumente"? Es geht um die Frage ob es ein Fake ist oder nicht. Da geht es um ein ja oder nein und nicht um Argumente. Und wo schreie ich denn bitteschön andauernd "Wolf"?

Ich weiß, dass es ein Fake ist. Mehr kann und muss ich dazu nicht sagen.
Die Folie kann ja Fake sein aber der Inhalt trotzdem wahr :upara:

Unicous
2015-04-08, 13:39:41
@w0mbat

Ersetze Fake durch Wolf und du siehst was ich meine.:wink:

Wenn du mir sagst es ist fake dann musst du mir doch auch konkret die Ungereimtheiten nennen können, die dich oder deine Quelle dazu veranlassen, das zu behaupten (und ja es ist eine Behauptung, denn nachprüfen kann ich weder das eine noch das andere, außer ich würde bei AMD einbrechen).

Zu sagen, das ist doch eh fake ist bequem und unoriginell.

Wenn du (bzw. deine Quelle) mir jetzt aber konkret sagen könntet, das z.B. Dual-Link HBM totaler Quatsch ist und völlig unmöglich auf Grund der Tatsache, dass Wasser nass ist und Silizium wasserabweisend würde ich sagen, ok das könnte in der Tat so sein(obwohl die Argumentationskette doch sehr schwach wäre:tongue:).

Ich möchte dir gerne glauben, aber ohne konkrete Anhaltspunkte sehe ich dich eigentlich nur "Wolf" rufen.:P

w0mbat
2015-04-08, 15:01:04
Dual-link HBM ist totaler Quatch. Gibt es nicht. Jetzt zufrieden? Ich meine, was soll ich sonst noch sagen, außer dass es ein Fake ist? Kommt nicht von AMD, diese Präsentation hat es nie gegeben.

Wirst du ja sehen.

Unicous
2015-04-08, 15:06:11
Ney, bin ich nicht. Du lieferst keine befriedigende Begründung dafür.

Und ich würde mich niemals so weit aus dem Fenster lehnen, bei fakes und Spekulationen.

Du lieferst nichts und uns bleibt nicht außer abzuwarten. Tolle Sache.

y33H@
2015-04-08, 15:15:35
Vll ist's ja kein "Dual-Link" sondern ein HBM v1.5 als 8-Hi-Stack mit je 2 GBit.

Unicous
2015-04-08, 15:25:11
Das hatten u.a. Gipsel und ich ja als eine Variante angenommen. Aber laut w0mbat ist es ja alles fake. Von daher.:sneak:

Gipsel
2015-04-08, 15:27:07
Ney, bin ich nicht. Du lieferst keine befriedigende Begründung dafür.

Und ich würde mich niemals so weit aus dem Fenster lehnen, bei fakes und Spekulationen.

Du lieferst nichts und uns bleibt nicht außer abzuwarten. Tolle Sache.
Vll ist's ja kein "Dual-Link" sondern ein HBM v1.5 als 8-Hi-Stack mit je 2 GBit.
Die Begründung haben wir hier im Thread (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10558568#post10558568) schon durch. Hynix hat bereits gesagt, daß ihre HBM1-Generation auch 4GBit-Dies (2GB pro Stack mit 4Hi-Stacks) und sogar 8Hi-Stacks (also bis 4GB/Stack, 16GB mit 4 Stacks) umfaßt. Es besteht für AMD also gar nicht die Nötigkeit, da für sehr viel Geld irgendwas selbst zu basteln.

Nakai
2015-04-08, 15:30:47
Die Begründung haben wir hier im Thread schon durch. Hynix hat bereits gesagt, daß ihre HBM1-Generation auch 4GBit-Dies (2GB pro Stack mit 4Hi-Stacks) und sogar 8Hi-Stacks (also bis 4GB/Stack, 16GB mit 4 Stacks) umfaßt. Es besteht für AMD also gar nicht die Nötigkeit, da für sehr viel Geld irgendwas selbst zu basteln.

Das denke ich auch. Ich glaube nicht an das Dual-Link. Möglicherweise ist das nur ein Spaßname für irgendein standard HBM-Verfahren. Derzeit wird aber nichts anderes als 1GB-Stacks bei Hynix gelistet. Mal gucken was da genau kommt.

Ebenso wären diese komische Dual-Link-HBM-Stacks größer als normale Stacks. In Kombination mit einem 500mm2+ wäre das schon seltsam nachteilig. Ich glaube NICHT DARAN!

stinki
2015-04-08, 15:34:24
Wenn Fiji 8GByte RAM bekommen sollte erscheint mir auch ein 8-Hi-Stack mit 2GBit Chips wahrscheinlicher als ein 4-Hi-Stack mit 4GBit Chips. Die 2GBit HBM Chips hat man ja schon entwickelt, 4GBit HBM Chips wären eine komplette Neuentwicklung. Ob so eine Neuentwicklung rechtzeitig für den Fiji Launch überhaupt mit Validierung möglich wäre wage ich zu bezweifeln.
Aber ein 8-Hi-Stack hat bestimmt deutlich mehr Produktionsausschuss als ein 4-Hi-Stack und wäre damit proportional teurer.
Einen Fiji mit "nur" 4GByte RAM würde ich persönlich für meinen neuen UltraHD Monitor nicht kaufen (ich wollte die Karte, wie meine 7970, schon ein paar Jahre nutzen).

Edit:
Sehe gerade dass Gipsel meint Hynix hätte schon einen 4GBit HBM Chip entwickelt...dann wäre das ja mit 4-Hi-Stack kein Problem...

@ Gipsel:
Hast du dazu einen Link???

Sunrise
2015-04-08, 15:39:45
Das denke ich auch. Ich glaube nicht an das Dual-Link. Möglicherweise ist das nur ein Spaßname für irgendein standard HBM-Verfahren. Derzeit wird aber nichts anderes als 1GB-Stacks bei Hynix gelistet. Mal gucken was da genau kommt.

Ebenso wären diese komische Dual-Link-HBM-Stacks größer als normale Stacks. In Kombination mit einem 500mm2+ wäre das schon seltsam nachteilig. Ich glaube NICHT DARAN!
Nochmal:

Um die Kapazität pro Modul zu steigern hast du die Möglichkeit, entweder direkt im kleineren Fertigungsprozess seperate Module mit nativ eben dieser Kapazität pro Modul anzubieten -> die gibt es aber noch nicht!

ODER

Du oder Hynix baut dir aus den aktuell verfügbaren und bereits seit langer Zeit produzierten Modulen eine Zwischenlösung, die zwar nicht alle Vorteile von der neuen "Generation" hat (weil nicht in einem kleineren Fertigungsverfahren und andere Eigenschaften auch nicht identisch sind) aber zumindest das Kapazitätsproblem lösen.

Spätestens bei Arctic Islands wird AMD dann auf die neue Generation setzen (oder man schiebt einen Nachfolger auf Basis der 2. Generation nach), ebenso wie eine erneute Überarbeitung von GCN inklusive Prozess-Shrink.

Die HBM-Module sind winzig und können problemlos passiv gekühlt werden, warum machst du dir über die Größe jetzt Gedanken? Das ist doch vollkommen nebensächlich, wenn die Kühlung eine entsprechende Aussparung hat.

AMD und Hynix feilen an HBM und entsprechenden Karten schon seit Jahren und jetzt warten sie noch bis Juni und bringen dann nur Karten mit maximal 4GB? Das könnt ihr vergessen. Das ergibt vorne und hinten keinen Sinn. Seitdem ich die Folien gesehen habe, und zu 99% überzeugt bin, dass Fiji mit mehr als 4GB kommen wird, hat noch niemand hier nachvollziehbare Argumente dagegen genannt. Noch nicht einer.

Dual-Link heißt wortwörtlich nur soviel wie "zweifach verbunden" Und wenn man zwei HBM-Module aneinander bindet, kann man darunter auch "Dual-Link" verstehen. Das kommt immer auf die Auslegung an.

Gipsel
2015-04-08, 15:40:10
Speicherhersteller machen immer noch half-node Shrinks. Die entwickeln typischerweise auch mehrere Kapazitäten, einfach um eine breitere Produktpalette anzubieten, man benötigt ja eine gewisse Flexibilität (man bietet bei anderen Speichertypen ja auch verschiedene Kapazitäten an und 2GBit-Dies sind heutzutage sehr klein [woanders bietet man die gar nicht mehr an bzw. deklariert 2GBit als EOL und ist schon komplett auf 4GBit und 8GBit umgeschwenkt], 4GBit-Dies bei HBM sind eigentlich überfällig). Und DRAM-Arrays sind extrem einfach zu layouten, das ist also nicht viel Entwicklungsaufwand, wenn der Prozeß läuft. Das kostet nicht so viel mehr als das Maskenset.

Unicous
2015-04-08, 15:40:54
SK hynix hat aber nichts davon gesagt, wann 8Hi Stacks verfügbar sind, denn anscheinend sind sie es weiterhin (offiziell) nicht.

Ich habe das Ganze eher als HBM1 vs. HBM2(+node shrink) aufgefasst und was dann möglich sein wird. Den 8Hi-HBM1 Stack sah ich eher als hypothetische Größe an. Denn auf einem anderen Blatt Papier war dann wieder nur von 4Hi (HBM1 vs. HBM2 u.a.) die Rede.

Dual-Link könnte daher weiterhin eine Notlösung sein um schnellere TTM für 8GB zu ermöglichen. Oder fake sein. Ich sehe das Ganze jedenfalls als sehr plausibel an und wenn dann fast schon als meisterlichen fake, wenn er sich wirklich als solcher herausstellen sollte.

StefanV
2015-04-08, 15:53:56
Oder Hynix listet das ganze nicht, weil sie es nicht liefern können bzw einen Exklusivvertrag mit AMD haben.

DAS wäre ja auch eine Möglichkeit, oder? ;)

Gipsel
2015-04-08, 16:00:06
SK hynix hat aber nichts davon gesagt, wann 8Hi Stacks verfügbar sind, denn anscheinend sind sie es weiterhin (offiziell) nicht.4Hi mit 4GBit wäre vermutlich die billigste und vom Packagin die einfachere Lösung. Warum das auf Roadmaps nicht auftaucht, sondern nur in anderweitigem Präsentationsmaterial, mußt Du vermutlich Hynix selber fragen.

Nakai
2015-04-08, 16:03:25
SK hynix hat aber nichts davon gesagt, wann 8Hi Stacks verfügbar sind, denn anscheinend sind sie es weiterhin (offiziell) nicht.

Ich habe das Ganze eher als HBM1 vs. HBM2(+node shrink) aufgefasst und was dann möglich sein wird. Den 8Hi-HBM1 Stack sah ich eher als hypothetische Größe an. Denn auf einem anderen Blatt Papier war dann wieder nur von 4Hi (HBM1 vs. HBM2 u.a.) die Rede.

Dual-Link könnte daher weiterhin eine Notlösung sein um schnellere TTM für 8GB zu ermöglichen. Oder fake sein. Ich sehe das Ganze jedenfalls als sehr plausibel an und wenn dann fast schon als meisterlichen fake, wenn er sich wirklich als solcher herausstellen sollte.

Ich glaube kaum, dass Videocardz Fotos von der Präsentation bekommen haben.

http://videocardz.com/55124/amd-radeon-r9-390x-wce-could-this-be-real

Das war der erste Beitrag hierzu. Nur soviel, als die News rausgekommen ist, sah die Slide etwas anders aus. ;)

http://videocardz.com/55146/amd-radeon-r9-390x-possible-specifications-and-performance-leaked

Und dann so...abfotographiert...genau. ;)

Etweder Videocardz hat die Slides bekommen und noch schön modifiziert, mit Wasserzeichen und irgendwelche Filtern, dass es toll aussieht.

@Sunrise:
Die Möglichkeiten die du aufzählst sind ja realistisch, nur haben wir keinerlei Bestätigung dafür.

Die HBM-Module sind winzig und können problemlos passiv gekühlt werden, warum machst du dir über die Größe jetzt Gedanken? Das ist doch vollkommen nebensächlich, wenn die Kühlung eine entsprechende Aussparung hat.

Ich mach mir keine Sorgen, um die Größe der Stacks, das würde schon gehen. Ich mach mir eher Gedanken, wieviel Platz auf dem Interposer ist. 500mm²-Die+4Stacks sollte schon den gesamten Platz auf dem Kalahari-Interposer einnehmen. Wenn die Stacks nun Dual-Link sind, ergo zwei Stacks nebeneinander(was der Name suggeriert), dann braucht es mehr Platz. Größere Interposer sind deutlich teurer.

€:
4Hi mit 4GBit wäre vermutlich die billigste und vom Packagin die einfachere Lösung. Warum das auf Roadmaps nicht auftaucht, sondern nur in anderweitigem Präsentationsmaterial, mußt Du vermutlich Hynix selber fragen.

Das kann nur mit einem Vertrag oder Kooperation zwischen AMD und Hynix sein. Derzeit wird es nicht gelistet...weil es für normale Kunden nicht verfügbar ist...naja

Unicous
2015-04-08, 16:06:59
@Gipsel

Wo taucht das auf?

Es gibt afaik nur ein Schaubild von der GTC 2015 wo SK hynix von HBM1 8Hi Stacks spricht und wie sich durch HBM2+ "technology shrink" die Kapazität verdoppelt. Darunter gibt es dann wieder den Vergleich 4Hi vs. 4Hi.

http://imagescdn.tweaktown.com/news/4/4/44132_04_sk-hynix-shows-hbm-2-wafer-nvidias-gtc-2015-event_full.jpg

bzw.

http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2015/gtc2015/gtc2015-skhynix-2.jpg
http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2015/gtc2015/gtc2015-skhynix-3.jpg

Ich finde da wird ein wenig zu viel hinein interpretiert.


@Nakai

Natürlich ist das modifiziert. Die kleinen Symbole im Hintergrund sind zig Mal das VCZ-Logo. So ein Wasserzeichen zu erstellen ist doch keine rocket science. Da gibt es extra Programme für.

Nakai
2015-04-08, 16:12:39
@Unicous:
Danke für die Bilder.

Siehe zweites Bild unter High Density. Guckt mal bei HBM1 bei den 4Hi-Stacks.
Da ist ein 4Hi-Stack mit 4Gb Speichervolumen pro Slice bei 4 Stacks, also 16Gb-Stacks -> 2GB pro Stack.

Bei 4 Stacks sind das 8GB bei HBM1.

Ich glaube, immer mehr, dass die Folien Fake sind. Irgendjemand hat Videocardz was gesteckt und diese haben ihre eigenen Folien erstellt bzw. jemand hat aufgrund von halbgaren Infos diese Folien generiert.

@Unicous: Vom Wasserzeichen sprach ich nicht. Videocardz lieferte erstmal eine Beta zu den Folien(erster Link), wo die Folie einen weissen Hintergrund hatte. Ich kenn die Folien auch ohne Wasserzeichen.^^