PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 [26] 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56

Mandalore
2015-05-21, 14:41:23
Fiji wird nicht mit 4GB kommen. Was ist daran so schwer zu verstehen? Ihr zerreißt euch den Kopf um etwas das eh net passieren wird. Die einzige Möglichkeit wo Fiji mit 4GB kommen würde wäre, dass der Chip schwach ist und 8GB nix bringen würden. Das ist aber auszuschließen....

StefanV
2015-05-21, 14:44:50
Es nervt einfach, dass Leute potenziellen VRAM Mangel schönreden.
So wie die ganzen Verteidiger der GTX680/770 und GTX780, wo das jeweils fehlende Gigabyte VRAM versucht wurde wegzureden??

Oh, wait, das waren ja 'die anderen', never mind...


Egal welcher IHV die GPU baut. HBM ändert am VRAM Mangel auch nichts. Wie auch? Ich finde diese AMD/NV Diskussion einfach nur ätzend, weil es objektiv egal ist. Kann man nicht einfach mal auf rein technischer Basis bleiben?
Und woher weißt du das alles?
Arbeitest du bei AMD oder woher hast du die ganzen Einblicke?!

Sofern das nicht der Fall ist, scheint es mir eher, dass du deine Titan X aufs Blut verteidigst...

WARUM ist es so schwer, einfach mal abzuwarten und zu schauen, was kommt?!
WARUM muss man bei AMD grundsätzlich alles niederprügeln, was auch nur irgendwie kommt...
WARUM muss man bei 'den anderen' grundsätzlich alles in den Himmel loben, was auch nur irgendwie kommt?!

Menace
2015-05-21, 14:45:28
Es nervt einfach, dass Leute potenziellen VRAM Mangel schönreden.
Egal welcher IHV die GPU baut. HBM ändert am VRAM Mangel auch nichts. Wie auch? Ich finde diese AMD/NV Diskussion einfach nur ätzend, weil es objektiv egal ist. Kann man nicht einfach mal auf rein technischer Basis bleiben?

Da lausche ich dann auch gerne kompetenten Leute, wenn sie denn diese Thesen mit Daten unterfüttern können bzw. jetzt schon unterfüttern (vgl. y33H@ Beiträge). Welche Auswirkungen unter welchen Bedingungen ein "VRAM-Mangel" (was schon für ein bewertender Ausdruck :rolleyes: ) dann wirklich hat, wird man dann sehen.

Und irgendwie kann ich es nicht ganz glauben, dass Du die AMD/NV-Diskussionen ätzend findest, da Du sie ja nicht gerade einbremst.

@Timbaloo: Spekulieren ist ok; wenn wenigstens ein wenig Abwechslung reinkäme.

robbitop
2015-05-21, 14:47:27
Es würde schon angedeutet das hier Optimierungen möglich sind.

Es wäre schön, wenn da noch signifikantes Potenzial vorhanden wäre. Es fällt aber schwer daran zu glauben, dass tatsächlich sich noch kein IHV in der Hinsicht schon optimiert hat und man nicht bereits gegen den abnehmenden Grenzertrag kämpfen muss. Also 50-100 % VRAM Rückstand kompensieren kann.

robbitop
2015-05-21, 14:55:50
Da lausche ich dann auch gerne kompetenten Leute, wenn sie denn diese Thesen mit Daten unterfüttern können bzw. jetzt schon unterfüttern (vgl. y33H@ Beiträge). Welche Auswirkungen unter welchen Bedingungen ein "VRAM-Mangel" (was schon für ein bewertender Ausdruck :rolleyes: ) dann wirklich hat, wird man dann sehen.
Ich schätze Marc (und Raff und Karsten und Phil etcpp). Er hat die Möglichkeiten es zu untersuchen. Mir fehlt dazu die GTX980 und die Zeit. Insofern muss ich externe Quellen bemühen. Und die habe ich auch verlinkt. Argumentation ist auch da zu der ich außer "warte ab" kein sinnvolles technisches Gegenargument gelesen habe. Hübie und Fondness haben sich dazu bemüht und auch nicht ganz Unrecht.

Und irgendwie kann ich es nicht ganz glauben, dass Du die AMD/NV-Diskussionen ätzend findest, da Du sie ja nicht gerade einbremst.

Ich verstehe den Sinn nicht, einen IHV vorzuziehen. Ich kritisiere IHV unabhängig. Vor einem halben Jahr habe ich SLI auf's schärfste kritisiert. Da war ich angeblich AMD "Fan" - jetzt kritisiere ich VRAM und dann bin ich NV "Fan". Es ist wirklich Kindergarten. :rolleyes:
Wenn du damit besser schlafen kannst, bin ich für dich was du willst. ;)

@Stefan
Die 680/770 und 780 betraf es genau so.

Menace
2015-05-21, 14:58:43
Es ist wirklich Kindergarten. :rolleyes:
Wenn du damit besser schlafen kannst, bin ich für dich was du willst. ;)

Paradoxon?

Pirx
2015-05-21, 15:02:39
Spekulieren darüber, wieviel VRAM die Karten haben werden gut und schön. Seitenlang die vermuteten Nachteile einer 4 GB Variante einer nicht erschienen Karte zu "erörtern" - nicht mehr schön.

HOT
2015-05-21, 15:16:26
Da gibts nix zu erörtern. 4GB sind jetzt schon locker erriechbar mit verschiedenen Titeln und das wird nicht "besser" werden. Der VRAM Verbrauch wird steigen, das ist doch vollkommen klar.

Thunder99
2015-05-21, 15:19:05
Mit dem Image von AMD stimmt es. Wenn es nicht nachhaltig besser wird bleiben die Marktanteile wo sie sind. Aber daran arbeitet AMD insgesamt schon daran. Nur sieht man die Früchte der Arbeit erst in paar Monaten bzw sogar Jahren.
So wie AMD mit ihrer Politik und Fehlern sowie dem starken Konkurrenten Marktanteile verloren hat, so können sie es auch wieder umdrehen. Nur geht das nicht von heute auf morgen :wink:

Und ich glaube schon daran wenn es möglich ist wird es 8GB geben, ob sie nun heute schon gebraucht werden oder nicht. Und wenn es durch die Konstellation nur 4GB derzeit machbar sind wird eine 8GB Version folgen. In dem Fall sollte der Shit-Storm auf Hynix gehen :D

y33H@
2015-05-21, 15:19:11
Da lausche ich dann auch gerne kompetenten Leute, wenn sie denn diese Thesen mit Daten unterfüttern können bzw. jetzt schon unterfüttern (vgl. y33H@ Beiträge).Wie meinen?

Menace
2015-05-21, 15:22:44
Wie meinen?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10634256&postcount=6237

tam tam
2015-05-21, 15:23:25
Der geringere Platzbedarf ist ja bei Apple Produkten dann gleich wichtiger Designbestandteil, zusätzlich würde es auch erklären warum sich die Vorstellung so lange hinzieht: Erstmal ausreichend produzieren um Apple und den Enthusiasten-Retail Markt zu bedienen, nebenbei noch soviele Restbestände loswerden wie irgend möglich.


Nein, das glaube ich nicht. Eher sehe ich da einen Zusammenhang mit Nvidias Start der neuen Kartengeneration 960/970'er und ihrer GTX-Titan X. Entweder, weil diese Karten sehr schnell sind und die Fiji diesen Vorsprung kaum meßbar überbieten kann und man deswegen auf eine Ersatzlösung zurückgreift, die ansich nur als Notlösung gedacht war, deren Umsetzung aber auch etwas mehr Zeit beansprucht? Oder, was ich eher für wahrscheinlich halte ist, daß der Performance-Vorsprung der Fiji ungewollt zu groß ausfällt und AMD erkannte, daß man sich dadurch ans eigene Bein pinkelt, weil die nun absehbar höhere Gewinnspanne beschnitten wird, weswegen nun etwas überhastet an eine eher abgespeckte Version gebastelt wird, um langfristig mehr aus Fiji rauszuholen(z.B. statt 8GB VRam nur 4GB und niedrigere Taktraten). Ich glaube, diese Möglichkeit wurde hier noch gar nicht erwähnt.

Isen
2015-05-21, 15:31:53
Oder, was ich eher für wahrscheinlich halte ist,

Das hätte man aber auch anders gestalten können, als an der Speichermenge...

Ich tendiere da eher zu: Zu teuer.

tm0975
2015-05-21, 16:17:58
Apple kriegt den vollen Fiji und wir den Verkrüppelten. :-D

:biggrin::biggrin::biggrin:

ich kann das ganze genörgel vorab nicht verstehen. wie teuer war ne 770 mit 2 gb als sie raus kam? wer günstig vram kaufen möchte, kann ja jetzt schon zur 290x 8 gb greifen. für alle, die sich rein für die leistungsfähigkeit interessieren, kann es in 4 wochen eine interessante alternative geben.

basix
2015-05-21, 16:28:40
So, um mal eine etwas sinnvollere Diskussion einzuleiten:

Liegen die Daten im VRAM (GDDR5) unkomprimiert oder komprimiert vor? Falls unkomprimiert, wäre es nicht eine Möglichkeit, die Daten on the fly zu dekomprimieren. Analog wie die Color Compression bei Maxwell. Aber nicht um nur Bandbreite zu sparen, sondern auch gleichzeitig Speicherplatz. Das würde ein wenig mehr Silizium benötigen, ist aber evtl. verkraftbar bei dem eher grossen Fiji.

Falls (teil)komprimiert, gibt es noch bessere Kompressionsverfahren? Die können ja unter Umständen relativ aufwändig sein (und benötigen somit mehr Silizium) aber könnten ebenfalls VRAM einsparen.

Wie schon mehrmals erwähnt ist VRAM-Belegung != benötigter VRAM. Gibt es da Anhaltspunkte, wie gross der Anteil des wirklich benötigten VRAM z.B. bei Shadow of Mordor o.ä. ist?

Snafu
2015-05-21, 16:32:59
AMD will durch Treiberoptimierung den Speicherbedarf senken

CTO Joe Macri zu Arstechnica:
"You're not limited in this world to any number of stacks, but from a capacity point of view, this generation-one HBM, each DRAM is a two-gigabit DRAM, so yeah, if you have four stacks you're limited to four gigabytes. You could build things with more stacks, you could build things with less stacks. Capacity of the frame buffer is just one of our concerns. There are many things you can do to utilise that capacity better. So if you have four stacks you're limited to four [gigabytes], but we don't really view that as a performance limitation from an AMD perspective."

"If you actually look at frame buffers and how efficient they are and how efficient the drivers are at managing capacities across the resolutions, you'll find that there's a lot that can be done. We do not see 4GB as a limitation that would cause performance bottlenecks. We just need to do a better job managing the capacities. We were getting free capacity, because with [GDDR5] in order to get more bandwidth we needed to make the memory system wider, so the capacities were increasing. As engineers, we always focus on where the bottleneck is. If you're getting capacity, you don't put as much effort into better utilising that capacity. 4GB is more than sufficient. We've had to go do a little bit of investment in order to better utilise the frame buffer, but we're not really seeing a frame buffer capacity [problem]. You'll be blown away by how much [capacity] is wasted."

http://arstechnica.com/information-technology/2015/05/the-tech-behind-hbm-why-amds-high-bandwidth-memory-matters/2/

Isen
2015-05-21, 16:33:18
@tm0975,

wenn völlig andere Interposer nötig sein sollten, ist die Kostenfrage, wo genau? Richtig...

@Snafu
Wurde schon paar Seiten zuvor von, Fondness gepostet (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10632723&postcount=6059)... nix neues.

tm0975
2015-05-21, 16:38:01
@tm0975,

wenn völlig andere Interposer nötig sein sollten, ist die Kostenfrage, wo genau? Richtig...

es geht darum, dass es nicht das erste hochpreisige produkt mit durchschnittlicher vram-menge wäre, dass gekauft werden würde.

Isen
2015-05-21, 16:40:11
Bei dir vielleicht.
Zu teuer bezieht sich für AMD oder anders: Nicht Wirtschaftlich. Und nicht, weil einem die Karte zu teuer wäre und diese sich keiner leisten könnte.
Das sollte seit den ganzen Seiten hier aber klar sein, wenn man sie denn lesen würde, was man damit meint.

Topha
2015-05-21, 16:41:39
Oder, was ich eher für wahrscheinlich halte ist, daß der Performance-Vorsprung der Fiji ungewollt zu groß ausfällt und AMD erkannte, daß man sich dadurch ans eigene Bein pinkelt, weil die nun absehbar höhere Gewinnspanne beschnitten wird, weswegen nun etwas überhastet an eine eher abgespeckte Version gebastelt wird, um langfristig mehr aus Fiji rauszuholen(z.B. statt 8GB VRam nur 4GB und niedrigere Taktraten). Ich glaube, diese Möglichkeit wurde hier noch gar nicht erwähnt.


:confused: Was gäbe es Besseres für AMD als ein ungewollt tolles Produkt? Die abgespeckte Version kann man ja immer noch nach 2-3 Monaten bringen, nachdem das ungewollt tolle Produkt für Publicity und Benchmarksiege gesorgt hat. :confused:
Vor allem wenn dann in ca. einem Jahr zumindest planmäßig die nächste Fertigungsstufe anrollt mit der noch (gewollt) tollere Produkte drin sind. Gerade zur veröffentlichung von Titeln wie GTA, Witcher etc. wäre doch die Leistungskrone genau das, was das vor sich hinkränkelnde AMD gerade braucht (gewollt oder nicht ;) )

Lard
2015-05-21, 16:45:09
Liegen die Daten im VRAM (GDDR5) unkomprimiert oder komprimiert vor?
Seit GCN liegen die Texturen komprimiert im VRAM.

Sunrise
2015-05-21, 16:48:43
@Snafu
Wurde schon paar Seiten zuvor von, Fondness gepostet... nix neues.
Man sollte das ehrlich gesagt hier fast schon in den Thread pinnen. Wenn Joe Macri nämlich folgendes schreibt "We've had to go do a little bit of investment in order to better utilise the frame buffer, but we're not really seeing a frame buffer capacity [problem]. You'll be blown away by how much [capacity] is wasted." dann wird das Hand und Fuß haben.

AMD ist so schon bewusst, dass sie zerissen werden, weil einige sich nur an plumpen Zahlen so aufgeilen. Ihnen ist aber auch bewusst, dass sie tatsächlich beweisen müssen, dass egal was sie verbauen werden, vollkommen ausreicht und das nicht sowohl in Benchmarks als auch Real-World-Ergebnissen (beim Spielen) zu Problemen führt.

Und ich kann aktuell nicht erkennen, dass AMD diese möglicherweise temporäre Limitation (bis HBM2 draußen ist) ignoriert. Eher das Gegenteil. Denn dass die Treiber eine Rolle spielen, wurde ja schon vor Monaten (von Ailuros?) geschrieben. Jetzt dürfte auch klar sein, warum, denn AMD scheint hier nochmal neu durchwischen zu müssen.

robbitop
2015-05-21, 16:49:48
Seit GCN liegen die Texturen komprimiert im VRAM.

Texturen liegen immer komprimiert im VRAM. Sonst würde Texturkomprimierung keinen Sinn machen. Du meinst dass diese nun auch in komprimierter Form im Texturcache liegen können.

Framebufferkomprimierung mit Speicherersparnis ist ein Thema, das schon seit 15 Jahren diskutiert wird. Da gibt es einige technische Hürden.

Man sollte das ehrlich gesagt hier fast schon in den Thread pinnen. Wenn Joe Macri nämlich folgendes schreibt "We've had to go do a little bit of investment in order to better utilise the frame buffer, but we're not really seeing a frame buffer capacity [problem]. You'll be blown away by how much [capacity] is wasted." dann wird das Hand und Fuß haben.

AMD ist so schon bewusst, dass sie zerissen werden, weil einige sich nur an plumpen Zahlen so aufgeilen. Ihnen ist aber auch bewusst, dass sie tatsächlich beweisen müssen, dass egal was sie verbauen werden, vollkommen ausreicht und das nicht sowohl in Benchmarks als auch Real-World-Ergebnissen (beim Spielen) zu Problemen führt.

Und ich kann aktuell nicht erkennen, dass AMD diese möglicherweise temporäre Limitation (bis HBM2 draußen ist) ignoriert. Eher das Gegenteil. Denn dass die Treiber eine Rolle spielen, wurde ja schon vor Monaten (von Ailuros?) geschrieben. Jetzt dürfte auch klar sein, warum, denn AMD scheint hier nochmal neu durchwischen zu müssen.
Ich bin ehrlich gespannt, wie viel das bringt und frage mich ob nicht NV dieses Thema (insbesondere im Hinblick auf die 970) schon angegangen ist.

Isen
2015-05-21, 16:57:32
@Sunrise,

klar. Dachte ich mir auch, wo ich mir das am 19. durchgelesen habe.
Bringt nur nix, dass durch die Welt zu bölken, wenn es nicht klappen sollte und die Presse genüsslich darauf herumreitet, dass die 4GB vorne und hinten nicht reichen.

Wenn es aber klappt und Gegenteiliges vermeldet wird, dann kann man das um sich bölken und darauf Plädieren: " Hat AMD doch gesagt, also klappt es auch " ( wäre nebenbei nen Pluspunkt hinsichtlich Vertrauen und Kompetenz - auch so ein Thema in den Foren ;-) )


@robbitop,

vermutlich schon seit Beginn ohne es näher zu nennen, wie sie es anstellen.
Erinnerst dich, ganz am Anfang, wo es hieß das Nvidia zu jedem Spiel extra eine Optimierung für die Karte machen "müsste" damit die auf 3,5GB getackert wird und der Treiber verhindert, mehr zu nehmen, obwohl ja mehr da sind, ss aber schon mit dem älteren Treiber dazu kam?
Scheint ja bisher zu funktionieren... stellt sich die Frage, wie weit man dies ausdehnen kann, ohne das z.B. die Frametimes mies werden oder heftige Nachladeruckler entstehen.

Dawn on Titan
2015-05-21, 17:40:33
Toll von AMD sich jetzt um den Speicherverbrauch zu kümmern. Ist ja nicht so, dass Tonga 2GB damit was anfangen könnte...

M4xw0lf
2015-05-21, 17:45:09
Toll von AMD sich jetzt um den Speicherverbrauch zu kümmern. Ist ja nicht so, dass Tonga 2GB damit was anfangen könnte...
Hä? Hast du nicht exakt den gleichen Kommentar schon irgendwo früher geschrieben? :upara:
Ah, nicht wortwörtlich aber inhaltlich:Was mich so richtig ankotzt sind die versprochenen Speicheroptimierungen. Es es ist ja nicht so, dass Tonga Pro 2GB die nicht schon gestern gebrauchen könnte.;)

tam tam
2015-05-21, 18:02:55
:confused: Was gäbe es Besseres für AMD als ein ungewollt tolles Produkt? Die abgespeckte Version kann man ja immer noch nach 2-3 Monaten bringen, nachdem das ungewollt tolle Produkt für Publicity und Benchmarksiege gesorgt hat. :confused:
Vor allem wenn dann in ca. einem Jahr zumindest planmäßig die nächste Fertigungsstufe anrollt mit der noch (gewollt) tollere Produkte drin sind. Gerade zur veröffentlichung von Titeln wie GTA, Witcher etc. wäre doch die Leistungskrone genau das, was das vor sich hinkränkelnde AMD gerade braucht (gewollt oder nicht ;) )


Wenn es einzig darum geht, den ersten Platz zu erklimmen und sich die Performance-Krone mit ca. 10% Vorsprung zu holen, genügt es, seinen Konkurrenten normal zu überholen. Den Turbo-Knopf da noch zu drücken, ist überflüssig und marktwirtschaftlich kontraproduktiv.

Dawn on Titan
2015-05-21, 18:04:19
Stimmt doch auch. Jetzt wo sie müssen, optimieren sie.

Thunder99
2015-05-21, 18:47:14
irgendwie schon, aber keiner weiß warum sie Tonga auf 2GB begrenzt hatten. Waren die Lager von Thaiti noch so voll? :confused:

Topha
2015-05-21, 19:07:54
Wenn es einzig darum geht, den ersten Platz zu erklimmen und sich die Performance-Krone mit ca. 10% Vorsprung zu holen, genügt es, seinen Konkurrenten normal zu überholen. Den Turbo-Knopf da noch zu drücken, ist überflüssig und marktwirtschaftlich kontraproduktiv.

Ist ja sowieso alles nur Spekulation, aber gerade durch den "AMD Malus" würde denen eine deutlich schneller Karte eigentlich um so mehr nützen.

Was ähnliche Geschwindigkeiten bei meist besserem Preis/Leistungsverhältnis ohne den nVidia Bonus (ob er nun durch Marketing oder Features oder was auch immer zustande gekommen ist sei einmal dahin gestellt, er existiert nunmal) ihnen in den letzten Jahren für Marktanteile gebracht haben sieht man ja, da ist dann immer der Verbrauch zu hoch, der Speicher zu klein, der Lüfter zu laut oder der nächste nVidia Chip um die Ecke:

http://www.3dcenter.org/dateien/abbildungen/Marktanteile-Grafikchips-fuer-Desktop-Grafikkarten-2002-bis-Q4-2014.preview.png

Meiner Meinung nach wären die schön blöd auf einem hypothetischen Killer Produkt wie Du es suggerierst zu sitzen ohne daraus Profit zu schlagen. Gerade angesichts der Tatsache, dass gerade viele gehypte Spiele rauskamen und man nVidia auch die TitanX Parade etwas verregnen hätte können. So spät hat nVidia dann wieder die Möglichkeit mit Pascal Präsentationen abzulenken.

OBrian
2015-05-22, 10:41:55
Aber unabhängig davon, ob Optimierungen im Treiber oder sonstwo dazu führen, daß 4 GB definitiv total ausreichen für alles Denkbare und Undenkbare, wird das trotzdem die Verkäufe hemmen, denn die Leute sind einfach konditioniert darauf, daß eine gute Grafikkarte viele GBs hat. Aus dem Grund hat Nvidia ja auch dieses Gepfusche mit der 970 gemacht, das war ja technisch durchaus einiger Aufwand, rein technsich betrachtet wäre die Ausstattung mit 7 Chips und damit 3,5 GB einfacher und besser gewesen, aber man hatte wohl Angst, daß sich dieses "fehlende" halbe GB schon auf die Verkäufe auswirkt.

irgendwie schon, aber keiner weiß warum sie Tonga auf 2GB begrenzt hatten. Waren die Lager von Thaiti noch so voll? :confused:
muß wohl, war nämlich anscheinend eine kurzfristige Anordnung, denn es gab ja schon geleakte Hersteller-Fotos der Verpackungen von 285 4GB. Auch das zeigt, daß man Verkäufe absichtlich perfekt hemmen kann, indem man einfach RAM wegläßt (ein Tonga mit 4 GB hätte sich auch zu dem etwas höheren Preis sicherlich durchaus verkauft, hat ja einige Features mehr).


Nein, wenn sie jetzt anfangen, mit VRAM sparsam umzugehen und den Leuten zu sagen "VRAM-Menge ist nicht so wichtig", dann wird es Jahre dauern, bis das nicht mehr ganz so inbrünstig geglaubt wird. Aber davon profitieren dann vielleicht Karten der Radeon-R9-600-Generation, Fiji würde jedenfalls untergehen.

Ein 4GB-Fiji, der damit dank diverser Optimierungen nachweislich völlig ausreichend ausgestattet ist, wird für die informierten Leute hier, die die Tests lesen, dann ein super-Schnäppchen, weil er so billig angeboten werden muß wie Hawaii 4 GB jetzt, denn für Otto Normalverbraucher, Lieschen Müller und Average Joe ist das kein Fortschritt und somit einfach eine uninteressante Karte. Die kaufen dann lieber Hawaii mit 8 GB oder eine 980 8 GB, die sind ja schließlich doppelt so gut.

Wie gesagt, zumindest eine papergelaunchte 8-GB-Karte muß es geben, um das Marketingdesaster halbwegs einzudämmen.

Botcruscher
2015-05-22, 11:46:03
4GB reichen definitiv nicht für alles denk und undenkbare. In einer Leistungsklasse wo ich den Speicher auch nutze will ich verdammt noch mal auch was für mein Geld. Speichermenge ist nur im unteren Segment ein Marketinggag. Irgendwelche Softwareoptimierungen sind doch auch nur eine Nebelkerze. Erstens funktionieren die wieder nur zum teil und zweitens ist die Karte mit der Nachfolgegeneration damit erst recht tot.

Labberlippe
2015-05-22, 11:47:48
Hi

Die Frage ist wann sollte AMD dann dein Fiji bringen?
Erst nächstes ja wenn z.B 8 GB HBM möglich wäre?, dann wäre das jammern aber wieder gross.
Die Frage ist was ist jetzt wirklich Sache jetzt können wir nur mal abwarten und dann sehen, dann ist die Frage wenn nur "4GB" ob das überhaupt etwas ausmacht.
Ich bin aber gespannt was gesagt wird wenn nVIDIA auf HBM setzt und die dann die "gleiche" Limitierung haben.
Lustig finde ich das quasi die meisten plötzlich so tun als bo die immer mehr als 4 GB gebraucht haben. :-)
Ich bin gespannt wie das ganze funktioniert und Notfalls kann man ja auf die 8 GB Version warten, die aktuellen Flagschiffe machen sowieso noch ne Weile, aber das ist
bei Kinderelein so, mäh ich will gleich haben, geht es aktuell technisch oder nicht das ist der Punkt, wenn es geht oder ginge würde vermutlich AMD gleich ne 8 GB an den Start bringen.

Also ich warte einfach mal ab und bin gespannt was da jetzt rauskommt.

Gruss Labberlippe

Pirx
2015-05-22, 11:53:14
Nö, die setzen sich ins gemachte Nest und nehmen "HBM2".;)

Dural
2015-05-22, 15:00:40
Das ist bei NV schon Tradition. Seit dem FX Debakel machen die keine frühzeitigen "Versuche" mehr.

Die lassen lieber Vortesten ;) wie so da AMD mitspielt verstehe ich ehrlich gesagt schon seit Jahren nicht mehr. Das kostet ihnen nur Geld und bringen tut es ihnen auch kaum was, ausser das sie sagen können wir waren die ersten, damit lässt sich aber ein Bankkonto nicht füllen. :wink:

Troyan
2015-05-22, 15:02:14
Nö, die setzen sich ins gemachte Nest und nehmen "HBM2".;)

Die sahen eher, dass es vor HBM2 überhaupt kein Sinn machen würde.
Haben ja schon 2013 angekündigt, dass man 2016 Stacked 3D Ram mit bis zu 32GB verwenden werde...

Nakai
2015-05-22, 15:39:20
Das ist bei NV schon Tradition. Seit dem FX Debakel machen die keine frühzeitigen "Versuche" mehr.

Die lassen lieber Vortesten ;) wie so da AMD mitspielt verstehe ich ehrlich gesagt schon seit Jahren nicht mehr. Das kostet ihnen nur Geld und bringen tut es ihnen auch kaum was, ausser das sie sagen können wir waren die ersten, damit lässt sich aber ein Bankkonto nicht füllen. :wink:

ATI ist auch das Unternehmen, dass am meisten für den GPU-Bereich getan hat. GDDRx kam von ATI und war/ist verdammt notwendig. Mit Mantle hat man die erste LowLevel-API präsentiert, die als Basis für nahezu allen anderen zukünftigen LowLevel-APIs dienen wird. Und nein, mit Basis meine ich nicht zwingend Code-Basis, wie man es bei Vulkan sieht, sondern auch Konzeption etc.

Mit HBM pusht nun AMD den nächsten zukünftigen Speicherstandard.

Das Einzige was NV in der letzten Zeit gebracht hat, ist assoziales Verhalten in nahezu allen Bereichen, siehe Gameworks(e.g. Witcher 3), Speicherverkrüppelung(GTX 970) und juristische Belange bezüglich Namensnutzung "GPU".

Aber mal im Ernst, in wenigen Jahren werden dedizierte GPUs sowieso tot sein. Da bin ich sehr gespannt drauf, wie es dann für alle Mitbewerber weiter geht.

BTT:
Wenn AMD nur 4GB HBM liefern kann, gibt es nicht mehr Möglichkeiten, weil Interposer zu klein und keine anderen HBM-Technologien vorliegen. Schade, war aber seit einiger Zeit abzusehen.

Kartenlehrling
2015-05-22, 15:55:29
Es ist einfach Psychologisch perfekt inszeniert von Nvidia eine 12gb TitanX,
wobei 12gb bei 3xSLI und Alternate Frame Rendering (AFR) schon fast zu wenig sind,
wenn sie nicht wie AMD auf Split-Frame-Rendering (SFR) setzten.
Die gtx980-Ti soll laut Frachtbriefe, 6gb haben,
was auf jedenfall beruhigend ist wobei es ja immer noch gddr5 sind.

Dural
2015-05-22, 15:56:28
Das ist eben der Unterschied, der eine Ackert sich ab und der andere baut fette GPU und zieht die Gewinne ein, ist doch überall so :wink:

d2kx
2015-05-22, 15:58:29
http://i.imgur.com/CgPTJGU.png

Unicous
2015-05-22, 16:01:01
3...2...1... and it's gone?

Findet AMD bestimmt nicht so geil, außer es ist eine konzertierte Aktion.

Ganz schön breit. 2 1/2 slots?

fondness
2015-05-22, 16:01:31
Das Ding ist wohl gerade mal so lange das der PCIe-Stecker untergebracht werden kann.

maguumo
2015-05-22, 16:01:42
Sieht auf jeden Fall schick' aus finde ich... Der soll die mal bitte zerlegen, ich will das Package sehen =)

Palpatin
2015-05-22, 16:03:36
Aber unabhängig davon, ob Optimierungen im Treiber oder sonstwo dazu führen, daß 4 GB definitiv total ausreichen für alles Denkbare und Undenkbare, wird das trotzdem die Verkäufe hemmen, denn die Leute sind einfach konditioniert darauf, daß eine gute Grafikkarte viele GBs hat.
Ich frag mich nur warum sich die Speicherkrüppel von NV in den letzten Jahren trozdem so gut verkauft haben. Das geht im Prinzip los mit der 580 und 570 die besser 2gb gehabt hätten, weiter mit der 670/680 die 3gb gebraucht hätten, für die 780 und 780ti wären 4gb optimal gewesen und für die 970/980 wären 6gb optimal gewesen.

Unicous
2015-05-22, 16:04:12
Naja, schick is anders. Aber sagen wir mal so: deutlich ansehnlicher als die vorherigen Designs.:wink:

R.I.P.
2015-05-22, 16:07:05
Ich frag mich nur warum sich die Speicherkrüppel von NV in den letzten Jahren trozdem so gut verkauft haben. Das geht im Prinzip los mit der 580 und 570 die besser 2gb gehabt hätten, weiter mit der 670/680 die 3gb gebraucht hätten, für die 780 und 780ti wären 4gb optimal gewesen und für die 970/980 wären 6gb optimal gewesen.

Na, Nvidia hat sich halt eine braindead Fangemeinde aufgebaut (wie Apple und das ist das einizige positive, das ich denen lasse. Hut ab.)

M4xw0lf
2015-05-22, 16:08:34
3...2...1... and it's gone?

Findet AMD bestimmt nicht so geil, außer es ist eine konzertierte Aktion.

Ganz schön breit. 2 1/2 slots?
https://pbs.twimg.com/media/CFnMqdBWgAE6pcZ.jpg:large
Findest du? Kommt mir wie einfach nur zwei Slots vor.
Das seltsame Siebdingens oben drauf muss weg. Bäh.

Unicous
2015-05-22, 16:11:38
Ja, weiß nicht die Perspektive ist doof und die Blende sieht nach oben hin komisch aus. Könnten auch nur zwei slots sein.:conf2:

M4xw0lf
2015-05-22, 16:13:33
Und ich will jetzt sofort den Kühler da weg haben und Blick auf die inneren Werte! :motz:

Kartenlehrling
2015-05-22, 16:14:03
Dann stimmte das hintergrundbild ... ein HDMI-2.0 und 3x DP1.2a (1.3 DP glaube ich nicht )

https://scontent.cdninstagram.com/hphotos-xfa1/t51.2885-15/e15/11241731_1443793009266469_592339597_n.jpg

Dural
2015-05-22, 16:18:47
Das sind zwei Slots.

Auf jeden fall sieht die Karte doch mal recht schick aus, AMD scheint langsam zu lernen... ;)

Menace
2015-05-22, 16:19:37
Unterscheiden Amerikaner zwischen GPU und Grafikkarte? Ansonsten würde ich nämlich vermuten, dass die GPU ganz gut ist, allerdings der Rest Mängel hätte? :freak:

Auf jeden Fall sehe ich zum ersten mal so etwas wie sinnvolles Marketing bei AMD (indirekt).

dildo4u
2015-05-22, 16:22:01
Dice hat schon öfter neue AMD Karten geteased macht auch Sinn,da sie zusammen Mantle entwickelt haben.

http://www.guru3d.com/news-story/dice-leaks-picture-of-amd-radeon-r9-290x-hawaii-gpu.html

http://wccftech.com/battlefield-4-showcased-pc-powered-amds-world-fastest-radeon-hd-7990-gpu/

Topha
2015-05-22, 16:39:51
Ganz genau wie auf der Folie sieht es nicht aus, und so Schraubgewinde hat nicht mal meine olle 5850 neben HDMI und Displayport :)

fondness
2015-05-22, 16:40:13
Ich frage mich was das Plastik-Ding mit den Löchern für einen Sinn hat. Würde sonst IMO besser aussehen wenn die Karte vollständig aus Metall wäre.

M4xw0lf
2015-05-22, 16:41:24
Ich frage mich was das Plastik-Ding mit den Löchern für einen Sinn hat. Würde sonst IMO besser aussehen wenn die Karte vollständig aus Metall wäre.
Vielleicht ist es eine Art Erlkönig-Version :D

fondness
2015-05-22, 16:41:56
Ganz genau wie auf der Folie sieht es nicht aus, und so Schraubgewinde hat nicht mal meine olle 5850 neben HDMI und Displayport :)

Das sind Schrauben um das Slotblech bzw. womöglich den Kühler dahinter zu befestigen, die Löcher dafür sieht man auch schon auf dem anderen PIC, nur sind dort keine Schrauben drinnen. Das ist der Nachteil wenn man keinen DVI mehr verbaut, man hat nichts mehr um das Slotblech zu befestigen^^

Isen
2015-05-22, 16:43:08
Fullcover, Schrauben von oben nach unten durch verbunden und mit dem Teil befestigt *speku

dargo
2015-05-22, 16:47:34
Ich frage mich was das Plastik-Ding mit den Löchern für einen Sinn hat.
Vielleicht nur eine Art Backplatte? Und Löcher damit kein Wärmestau entsteht.

DinosaurusRex
2015-05-22, 16:55:31
Ich frage mich was das Plastik-Ding mit den Löchern für einen Sinn hat.

https://40.media.tumblr.com/19a05b27166cd2ef4128db96020bf432/tumblr_na6qxntlc51somw7ho3_500.png

Korvaun
2015-05-22, 17:02:41
Fragt sich ob das echte Löcher sind, oder nur "Eindrücke" der besseren Optik wegen. Ist ja wohl die Unterseite der Karte nach der Blende zu urteilen...

captain_drink
2015-05-22, 17:04:44
Vielleicht nur eine Art Backplatte? Und Löcher damit kein Wärmestau entsteht.

Eine Backplate auf der Vorderseite?

http://s2.postimg.org/iogjxo4o9/jags.gif

maguumo
2015-05-22, 17:08:54
Was soll überhaupt dieses Loch hier sein?
http://puu.sh/hWtSf/ea9bbe8047.jpg
Für Schläuche sieht das eher zu klein aus...

del_4901
2015-05-22, 17:10:57
USB :ugly:

Unicous
2015-05-22, 17:11:35
USB :ugly:

Endlich. Wie lange habe ich darauf gewartet.

Kartenlehrling
2015-05-22, 17:11:42
Für Schläuche sieht das eher zu klein aus..

da ist seit Jahre der Biosschalter, wenn er nicht elektrisch ist wie bei Sapphire.

Kartenlehrling
2015-05-22, 17:13:32
Wenn das Teil wirklich so kurz ist können die Schläuche ja nach hinten rausgehen.

Isen
2015-05-22, 17:24:01
mini SP-DIF-Anschluss wahrscheinlich, sieht jedenfalls so aus... und sind die Bios-Schalter nicht immer in der nähe des PCI-E/Bridge?

maguumo
2015-05-22, 17:25:52
Stimmt, an den BIOS Schalter hatte ich nicht gedacht...

Schläuche hinten raus klingt unpraktikabel, selbst wenn die Karte so kurz ist. Die meisten werden den Radiator ja eher an den Exhaust Slot neben dem CPU Kühler zimmern wollen...

mironicus
2015-05-22, 17:31:47
Kein Lüfter auf der GPU. :D

maguumo
2015-05-22, 17:35:11
Kein Lüfter auf der GPU. :D
Wer weiß. Vielleicht 2 oder 3 von den ätzenden Krachmachern hier am der Slotblende gegenüberliegenden Ende?
http://puu.sh/hWvc4/1bf204a2e9.jpg
:freak:

Kartenlehrling
2015-05-22, 17:37:35
http://extreme.pcgameshardware.de/attachments/727259d1396057500-vorurteile-beseitigen-aio-wasserkuehlung-cpu-und-gpu-06.jpg
OBEN ...

http://cdn.overclock.net/4/4d/900x900px-LL-4d8afdb7_lafoto.jpeg
HINTEN raus und UNTEN

http://extreme.pcgameshardware.de/attachments/717544d1392316200-neuer-arctic-cooling-hybrid-ii-ist-angekommen-20140213_192555.jpg
Und natürlich auch VORNE

maguumo
2015-05-22, 17:44:25
Gut, wenn die Schläuche flexibel und lang genug sind wäre das wohl wirklich kein Problem, hätte ich nicht erwartet...

dargo
2015-05-22, 17:48:05
Eine Backplate auf der Vorderseite?

Lol... Denkfehler. Falsch rum gedacht. :D

Dunkeltier
2015-05-22, 18:22:33
https://pbs.twimg.com/media/CFnMqdBWgAE6pcZ.jpg:large
Findest du? Kommt mir wie einfach nur zwei Slots vor.
Das seltsame Siebdingens oben drauf muss weg. Bäh.

An der Slotblende die Lüftungsschlitze...könnte da nicht hinten noch ein kleiner Radiallüfter zusätzlich drin stecken?

fondness
2015-05-22, 18:26:42
An der Slotblende die Lüftungsschlitze...könnte da nicht hinten noch ein kleiner Radiallüfter zusätzlich drin stecken?

Könnte, muss aber nicht. Es macht wohl keinen Sinn auf diese Lüfter Schlitze zu verzichten, egal ob man einen Lüfter verbaut oder nicht.

Dawn on Titan
2015-05-22, 18:37:12
Gekauft!!

Tamagothi
2015-05-22, 18:40:13
Gekauft!!

x 2 ;D

Botcruscher
2015-05-22, 18:53:37
Warum ist die Schrift zum Teil ausgestanzt und was ist das rundes hinter dem Slotblech? Seitliche Belüftung?

Loeschzwerg
2015-05-22, 18:58:06
Warum ist die Schrift zum Teil ausgestanzt und was ist das rundes hinter dem Slotblech? Seitliche Belüftung?

Künstlerische Freiheit und Verschraubung (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10635764#post10635764) des Kühlkörpers oder der Abdeckung.

fondness
2015-05-22, 19:11:37
Das Bild aufgehellt um besser Details zu erkennen:

http://s4.postimg.org/ejwol5ul9/original.jpg (http://postimage.org/)

Isen
2015-05-22, 19:15:27
Der seitliche Schriftzug scheint mit Beleuchtung zu sein....

mironicus
2015-05-22, 19:16:10
Sieht nicht gerade aus wie ein industriell hergestelltes Produkt.

Kartenlehrling
2015-05-22, 19:25:06
Das wird wohl die Erdungskontaktverschrauben sein, wie hier bei gtx78oti,
und da es keine DVI mehr gibt brauch man unten sowieso eine Verschraubung zur stabilität.

http://assets.hardwarezone.com/img/2014/01/Ports-600W_0.jpg

Langlay
2015-05-22, 19:25:45
Warum ist die Schrift zum Teil ausgestanzt

Die Buchstaben sehen nach Kunststoff aus. Ich würde davon ausgehen das der Schriftzug "Radeon" rot leuchtet. Sonst würde man sich wohl die Mühe sparen wenns nich leuchtet.

Hübie
2015-05-22, 19:58:12
USB :ugly:

Gefällt dir das Spielzeug denn? :wink:

|MatMan|
2015-05-22, 21:31:36
x 2 ;D
Die idealen Konsumenten, ungesehen gleich 2 kaufen ;D

Schnitzl
2015-05-22, 21:41:35
http://i.imgur.com/CgPTJGU.png
Die Frage ist: wie kann man das einordnen was der Typ sagt?

Hübie
2015-05-22, 21:47:23
Der Typ? :facepalm:

x-dragon
2015-05-22, 21:52:34
Die Frage ist: wie kann man das einordnen was der Typ sagt? Er freut sich auf jeden Fall das er mit der Karte schon mal "spielen" darf :).

Hier gibts auch noch ein Kommentar von AMD:
https://twitter.com/AMDRadeon/status/601786530735255554

Schnitzl
2015-05-22, 21:57:01
Der Typ? :facepalm:
ach muss man hier jeden in der "Szene" persönlich kennen? :rolleyes:

Unicous
2015-05-22, 22:09:11
Nö, aber man kann sich doch wenigstens die Beschreibung seines Twitter handles anschauen.:wink:

Technical Director on Frostbite at Electronic Arts

Schnitzl
2015-05-22, 22:18:15
Nö, aber man kann sich doch wenigstens die Beschreibung seines Twitter handles anschauen.:wink:
schön, und wie hilft mir das jetzt seine Aussage zu bewerten?
Ich dachte mir hier sind Leute unterwegs die schon viele frühere Aussagen von dem Typ :P gehört/gelesen haben und wissen was danach davon übrig blieb.
Deshalb hab ich es gewagt zu fragen ^^

/edit: zu Zeiten von z.B. CliffyB war ich auch mehr "drin" - aber mit dem Alter ändern sich nun mal die Prioritäten ;)

Unicous
2015-05-22, 22:23:23
Meine Güte, der Typ ist der Hauptarchitekt der Frostbite (3) Engine (z.B. Battlefield 4) und hat u.a. auch Mantle und andere Low Level APIs auf den Weg gebracht bzw. unterstützt.

Er hat auch schon die Hawaii-Ref gezeigt (was er lieber hätte sein lassen, das Ding sieht ja einfach nur Scheiße aus:freak:) und AMD gibt ihm gerne exklusiv Spielzeug und er darf davon anscheinend ungestraft Fotos veröffentlichen.

Er hat jetzt auch keine krassen Aussagen getroffen, er hat lediglich ein Bild von einer Grafikkarte gepostet.

OBrian
2015-05-22, 22:33:45
Fotos von der Karte sind ja auch total informationsfrei. Selbst ob sie bald kommt, ist damit nicht gesagt (daß es so ist, wissen wir ja von woanders her), kann ja auch ein mechanical mockup als Designstudie sein (was auch die Nvidia-ähnlichen Schrauben hinten drin erklären würde^^). Und eigentlich kann in dem geschlossenen Kasten alles sein, man kann nur sagen, daß die Karte wohl einen PCIe x16 Anschluß bekommen wird, was ich jetzt nicht so wahnsinnig überraschend finde.

horn 12
2015-05-22, 22:33:55
Und den Verbauten Speicher verraten.
8GB HBM
WCE Kühlung 16 GB HBM

Also alles im Lot!

M4xw0lf
2015-05-22, 22:37:45
Und den Verbauten Speicher verraten.
8GB HBM
WCE Kühlung 16 GB HBM

Also alles im Lot!
Bitte? Auch außerhalb von Planet horn?

OBrian
2015-05-22, 22:38:27
wo willst Du das denn gelesen haben? hab ich was übersehen?

boxleitnerb
2015-05-22, 22:42:43
Er fantasiert wieder. Horn, bei allem Respekt für dich als Person, kannst du bitte entweder deine Spekulationen als solche kennzeichnen oder einfach mal deine Klappe halten? So oft postest du Spekulationen als Fakten, das ist nichtmal ansatzweise in Ordnung und nervt tierisch. Verhalte dich doch bitte endlich mal anständig und spamme nicht das Forum laufend mit dieser kindischen Kacke voll!
Danke :)

horn 12
2015-05-22, 22:44:39
Bin soooo gespannt auf die Karte dass ich nicht die Klappe halten wollte!
Aber was solls, in 2 Wochen wissens wir eh!

@Box
OK, werde ich machen
Nur soviel, AMD verkackt so eine Karte sicherlich nicht am Speicher!

Unicous
2015-05-22, 22:46:22
horn12 braucht dringend Lithium oder Ritalin, anders kann ich mir diese Kommentare nicht mehr erklären.

Diese ständigen Stimmungsschwankungen und nicht kohärenten Wortmeldungen machen mir echt Angst.

Isen
2015-05-22, 22:49:47
Das GB tourette syndrom :P

OBrian
2015-05-22, 23:24:08
lol, Du meinst, man baut in normalen FUCKING 32 GIGABYTE Sätzen einfach versehentlich irgendwelche unflätigen Speichermengen ein? Das wäre ja mal was. Nur hier klang es so, als hätte der "Typ" das irgendwo nachlesbar gepostet, bei "er hat es verraten" kann ich mir keine mißverständliche Spekulation denken.

Naja, einfach die Restzeit noch locker durch die Hose atmen, oder wie der auf Twitter meinte:

http://fs1.directupload.net/images/150522/9nmefflk.png

[MK2]Mythos
2015-05-23, 00:51:09
Hört auf zu meckern, horn 12 sorgt als einer der wenigsten hier noch für kurze Schmunzler bei mir. :P
Und wie man seine Postings werten muss, dass sollte doch jeder hier mittlerweile wissen.

horn 12
2015-05-23, 00:56:20
Na, wenigstens Einer der es verstanden hat :-)

w0mbat
2015-05-23, 01:31:43
Und jemandem im Speku Forum Spekulationen vorzuwerfen ist auch etwas... seltsam.

Schnitzl
2015-05-23, 04:55:14
Meine Güte, der Typ ist der Hauptarchitekt der Frostbite (3) Engine (z.B. Battlefield 4) und hat u.a. auch Mantle und andere Low Level APIs auf den Weg gebracht bzw. unterstützt.

Er hat auch schon die Hawaii-Ref gezeigt (was er lieber hätte sein lassen, das Ding sieht ja einfach nur Scheiße aus:freak:) und AMD gibt ihm gerne exklusiv Spielzeug und er darf davon anscheinend ungestraft Fotos veröffentlichen.

Er hat jetzt auch keine krassen Aussagen getroffen, er hat lediglich ein Bild von einer Grafikkarte gepostet.
ich lese da "one seriously impressive and sweet GPU. wow & thanks"
Da könnte man schon einiges reindeuten.... :D
Wenn Mr Andersson das bei jeder Karte sagt, wäre es natürlich wieder belanglos.

Skysnake
2015-05-23, 08:14:25
An der Slotblende die Lüftungsschlitze...könnte da nicht hinten noch ein kleiner Radiallüfter zusätzlich drin stecken?
Könnte, aber ich gehe eher nicht davon aus, und hoffe es auch inständige nicht...

Könnte, muss aber nicht. Es macht wohl keinen Sinn auf diese Lüfter Schlitze zu verzichten, egal ob man einen Lüfter verbaut oder nicht.
Naja, es gibt mehrere Gründe dafür, die Schlitze zu haben.

1. Die Slotblenden brauchen weniger Material -> leichter ->Kosteneinsparung, sofern das Ausstanzen nicht teurer ist als das Material an sich, wobei man so auch 0815 Blenden nehmen kann. Blenden ohne Schlitze/Löcher wären wohl Sonderwünsche und damit teurer :freak:

2. Sofern hinten Öffnungen sind, kann man den normalen Airflow im Gehäuse nutzen, um Semipassiv Bauteile zu kühlen.

3. Serverbetreiber wären wohl nicht so begeistert, wenn die Karte ein kompletter Blocker wäre. Das macht den Airflow komplett kaputt. Ich denke daher, das man durch die Karte von hinten nach vorne durchschauen wird können.

Warum ist die Schrift zum Teil ausgestanzt und was ist das rundes hinter dem Slotblech? Seitliche Belüftung?
Nö, das müsste entweder eine Verschraubung sein (am wahrscheinlichsten) oder man hat einen Schalter für eine MAX-OC Einstellung oder was auch immer.

horn 12
2015-05-23, 09:12:46
http://videocardz.com/55561/editorial-how-big-is-fiji

HBM und Interposer

Tamagothi
2015-05-23, 12:49:06
Die Suche hat nichts ergeben also frage ich mal hier die Pros :)

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=51997&stc=1&d=1432377909

Was heißt den das Refresh Single Bank ?

Heißt es jetzt das HBM auch einen kleinen Teil des Speichers einzeln neu Beschreiben kann und GDDR5 nicht? :confused:

Gipsel
2015-05-23, 13:34:46
Die Suche hat nichts ergeben also frage ich mal hier die Pros :)

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=51997&stc=1&d=1432377909

Was heißt den das Refresh Single Bank ?

Heißt es jetzt das HBM auch einen kleinen Teil des Speichers einzeln neu Beschreiben kann und GDDR5 nicht? :confused:Der Refresh hat nichts damit zu tun, welche Bereiche man neu beschreiben kann, DRAM ist kein Flash-Speicher.

DRAM speichert die Information in vielen kleinen Kondensatoren (einer pro Bit). Diese entladen sich langsam mit der Zeit. Damit die Information nicht nach kurzer Zeit verschwindet, wird regelmäßig der Speicher aufgefrischt (refreshed). Während das passiert, ist der Speicherbaustein blockiert, es können keine Daten gelesen oder geschrieben werden. HBM kann jetzt nicht nur den Refresh für einen kompletten Kanal (ein HBM-Stack besteht aus 8 Kanälen) ausführen, sondern für jede Bank darin (es gibt 8 bis 16, je nach Kapazität) einzeln. Dies ermöglicht es dem Speichercontroller besser, die Refreshzyklen in Zeiten zu schieben, in denen sowieso nichts zu tun ist. Es treten also weniger Verzögerungen (wieviel genau, hängt vom Anwendungsfall und den Zugriffsmustern ab) durch die Refreshes auf.

PS:
Die Zugriffsgranularität auf der Folie ist übrigens falsch. Die beträgt auch nur 32Byte (256Bit) genau wie bei GDDR5 (die angegebenen 1024 IO-Pins sind ja in Wirklichkeit acht unabhängige parallele 128bit-Kanäle, woraus sich als Zugriffsgranularität 128Bit I/O x Prefetch 2 = 256Bit = 32Byte ergibt).

Leonidas
2015-05-23, 13:41:49
"Skandal erschüttert das 3DC: Moderator beim Spekulieren im Spekulationsunterforum auf frischer Tat ertappt!"


So kommt mir dieser Thread in letzter Zeit wirklich vor. Aber noch bleibt es harmlos und weitgehend lustig.




Vor einem halben Jahr habe ich SLI auf's schärfste kritisiert. Da war ich angeblich AMD "Fan" - jetzt kritisiere ich VRAM und dann bin ich NV "Fan". Es ist wirklich Kindergarten. :rolleyes:


Willkommen im Club!




Wenn es einzig darum geht, den ersten Platz zu erklimmen und sich die Performance-Krone mit ca. 10% Vorsprung zu holen, genügt es, seinen Konkurrenten normal zu überholen. Den Turbo-Knopf da noch zu drücken, ist überflüssig und marktwirtschaftlich kontraproduktiv.


Regulär stimmt das. Aber in der konkreten Situation ist das egal: Zwischen 28nm und 14nm erwartet uns eine Performance-Verdopplung. Ob da Fiji nun 10% oder 30% vorn liegt, schmälert die 14nm-Generation nicht. Aber es hilft AMD jetzt, um mal wieder Image zu gewinnen und mittelfristig mehr zu verkaufen. Gerade ein bombiger Erfolg ist dabei nützlich, auf einen Gewinn mit 5% Vorsprung reagieren wohl die wenigsten.




Das ist bei NV schon Tradition. Seit dem FX Debakel machen die keine frühzeitigen "Versuche" mehr.


NV war zu Frühzeiten mal technischer Vorreiter in allen Lebenslagen. Haben immer zuerst neue Features rausgebracht und damit den Feature-Krieg begründet. Sind dann aber, nachdem die User nach jahrelangem Nachdenken verstanden haben, daß die neuen Features meist erst in 2-3 Jahren nutzvoll werden, umgeschwenkt auf konservative Designs mit Nutzwert zum jetzigen Zeitpunkt. Geschäftlich sehr clever gelöst das alles.

derF
2015-05-23, 13:47:01
NV war zu Frühzeiten mal technischer Vorreiter in allen Lebenslagen. Haben immer zuerst neue Features rausgebracht und damit den Feature-Krieg begründet. Sind dann aber, nachdem die User nach jahrelangem Nachdenken verstanden haben, daß die neuen Features meist erst in 2-3 Jahren nutzvoll werden, umgeschwenkt auf konservative Designs mit Nutzwert zum jetzigen Zeitpunkt. Geschäftlich sehr clever gelöst das alles.
Als sie mit 32 Bit Farbtiefe und Hardware T&L 3dfx kaputt "gemarketingt" haben? :D Anschließend haben sie vor allem die 3dfx Innovationen im Archiv verrotten lassen (wie echtes SLI, RGSSAA).

Edit: RGSSAA nicht SGSSAA

Hübie
2015-05-23, 13:50:34
PS:
Die Zugriffsgranularität auf der Folie ist übrigens falsch. Die beträgt auch nur 32Byte (256Bit) genau wie bei GDDR5 (die angegebenen 1024 IO-Pins sind ja in Wirklichkeit acht unabhängige parallele 128bit-Kanäle, woraus sich als Zugriffsgranularität 128Bit I/O x Prefetch 2 = 256Bit = 32Byte ergibt).

Glaube da hat das Marketing einfach mit prefetch multipliziert 2* 32 = 64 Byte:biggrin:

Leonidas
2015-05-23, 14:13:31
Als sie mit 32 Bit Farbtiefe und Hardware T&L 3dfx kaputt "gemarketingt" haben? :D Anschließend haben sie vor allem die 3dfx Innovationen im Archiv verrotten lassen (wie echtes SLI, RGSSAA).

Edit: RGSSAA nicht SGSSAA


Ich hab nicht gesagt, daß dies "gut" gewesen wäre. Nur seinerzeit war es marketingtechnisch richtig, die Leute mit neuen Features zu überschütten, weil eben keiner seinerzeit darüber nachdachte, ob das wirklich nutzbar ist. Heutzutage hat sich der Nutzbarkeits-Gedanke durchgesetzt, ergo baut NV konservative Designs für die Jetzt-Zeit. Rein marketingtechnisch 2x richtig gemacht. Ob es gut für die Gamer war/ist, will ich damit gar nicht sagen. Das tendiert eher in Richtung 2x falsch.

mironicus
2015-05-23, 14:33:47
Wenn AMD schlaut ist integrieren sie einen Turbo-Modus in der WCE-Edition der die Kühlleistung auch ausnutzt. Kann ich locker 300 Watt wegkühlen, sollte der Turbo auch bis dahin greifen... :D

Default: 1050 MHz, Turbo 1250 MHz. :D :D

basix
2015-05-23, 14:45:29
Wenn AMD schlaut ist integrieren sie einen Turbo-Modus in der WCE-Edition der die Kühlleistung auch ausnutzt. Kann ich locker 300 Watt wegkühlen, sollte der Turbo auch bis dahin greifen... :D

Default: 1050 MHz, Turbo 1250 MHz. :D :D

1250 MHz * 4096 Shader = 10.24 TFLOPs :biggrin:

Also nur um sagen zu können "We did 10 TFLOPs on Single GPU First" würde ich das aus Marketingsicht machen

uweskw
2015-05-23, 14:46:04
Die werden wohl jetzt schon in allen Redaktionen am 980ti benchen sein...
Hoffentlich gibt es ein paar die sich gut auf 4k, DSR und High-Res einschiessen.

greetz
US

edit. sollte eigentlich in den NV Thread

Unicous
2015-05-23, 18:33:57
btw.

Entweder ist die komische Einbuchtung ein USB-Port oder vllt. sogar

http://assets.hardwarezone.com/img/2013/11/R9_BIOS_Switch-600W.jpg

ein switch?

RainingBlood
2015-05-23, 18:40:44
das wird der altbekannte BIOS Umschalter sein?!

fondness
2015-05-23, 18:41:36
Klar, was sonst? Jede AMD-High-End-Karte hat seit einiger Zeit ein Dual-Bios mit einem solchen Bios-Umschalter.

Unicous
2015-05-23, 18:43:06
Ach jetzt ist es auf einmal common knowledge?

Gestern haben noch alle rumgerätselt und jetzt wissen es auf einmal alle.:rolleyes:

Topha
2015-05-23, 18:44:46
Die würden sich ja wohl kaum mit einem altmodische Typ-A USB Anschluss begnügen, und für Typ-C ist das zu groß.

Damit kann man das Bios auf eine TDP von 1.21 gigawatt schalten, allerdings geht dann die Garantie flöten.

Etwas seriöser: In dem aufgehellten Bild (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10635966&postcount=6331) von fondness kann man eine gewisse asymetrie erkennen, sieht für mich stark nach Schalter aus.

fondness
2015-05-23, 18:48:15
Ach jetzt ist es auf einmal common knowledge?

Gestern haben noch alle rumgerätselt und jetzt wissen es auf einmal alle.:rolleyes:

Das wurde doch auch gestern schon gesagt?! Was würde denn ein USB dort für einen Sinn machen? :ugly:

RainingBlood
2015-05-23, 18:53:32
na, wenn ich mir das Bild so ansehe, dann ist das der Anschluss des integrierten Ladegerätes für das nächste iPhone.. Ich wusste es, dass ich den Aluhelm nicht hätte abnehmen sollen, die haben mir meine Idee für die Apple und Ei Edition geklaut!

Ne, mal im ernst: warum kommt man überhaupt auf die Idee, dass das ein USB Anschluss sein könnte?

Unicous
2015-05-23, 18:54:17
Ah, ok. Kartenlehrling hatte es schon gesagt, habe ich überlesen.


@RainingBlood

Die Idee dahinter (https://de.wikipedia.org/wiki/Witz).

RainingBlood
2015-05-23, 18:56:46
ah, ein Humoranschluss. AMD, die alte Featurehure!

Topha
2015-05-23, 19:02:14
Da AMD ja jetzt auch mit Matrox zusammenarbeitet könnte es natürlich auch sein, dass das ein Anschluss für einen Spezialadapter ist, der den umruchten RSNtm Modus freischaltet über den so um die Jahrtausendwende viel gemunkelt wurde...

Effe
2015-05-23, 19:08:09
Mit dem USB-Anschluss kann man via Stick den Speicher der Karte vergrößern. Also wenn die kolportierten 4GB zu wenig sein sollten.

HarryHirsch
2015-05-23, 19:10:12
nee, das ist eindeutig das comeback der crossfire-brücke

mironicus
2015-05-23, 19:22:25
Schalter für OC-Bios. (1) 400 Watt-Modus für 1300+ MHz. (2) 250 Watt-Modus für 1050 Mhz.

Mortalvision
2015-05-23, 19:48:00
Kann jemand aufgrund der verlötungen auf der Rückseite die Zahl der Speicherchips um die CPU errechnen? Ich komme da auf gefühlte acht...

Menace
2015-05-23, 19:54:42
Weder Schalter noch USB, sondern Dongle-Anschluss um gewisse Features für Spiele dazu/freischalten zu können: Gameswork 2.0.

Gipsel
2015-05-23, 20:04:46
Kann jemand aufgrund der verlötungen auf der Rückseite die Zahl der Speicherchips um die CPU errechnen? Ich komme da auf gefühlte acht...Du meinst beim Vergleichsbild für den BIOS-Schalter, der eine alte Karte zeigt? Bei Fiji wird die Antwort nach der Anzahl der Speicherchips, für die Verlötungen auf dem PCB erkennbar sind, Null lauten. ;)

Herr Doktor Klöbner
2015-05-23, 20:40:41
Ich denke das selbst in diesem Marktsegment die Mehrzahl der Käufer keine Wasserkühlung will, mir persönlich wäre das selbst bei geeigneten Gehäuse und prall gefüllter Brieftasche nicht vermittelbar.

Besser fände ich eine Triple-Fan Luftkühlung, etwa auf dem Niveau der Saphire oder PowerColor R9 290/290X Karten, und einen Takt der die TDP auf R290X Bereiche beschränkt. Da wäre man wohl immer noch 30% schneller als diese und man könnte die Karte mit einen Kampfpreis gegen die GTX 980 stellen, dann stören auch die 4 GB Speicher nicht, ich denke das wäre die bessere Strategie.

mironicus
2015-05-23, 20:52:11
Ich denke das selbst in diesem Marktsegment die Mehrzahl der Käufer keine Wasserkühlung will, mir persönlich wäre das selbst bei geeigneten Gehäuse und prall gefüllter Brieftasche nicht vermittelbar.

Und was spricht dagegen?
- Die Hitze wird direkt aus dem Gehäuse geblasen, sie verteilt sich nicht im Gehäuse
- Platzersparnis und die Möglichkeit einen Highend-PC in ein Minigehäuse zu bauen
- du kannst den Lüfter wechseln (1-2 Lüfter 12 oder 14 cm) und noch besser Einfluss auf die Lautstärke nehmen
- jede Referenzversion war bisher Müll und lauter als Custom-Versionen

Ich würde die Wasserkühlversion der Fiji jederzeit einer luftgekühlten Version vorziehen - bis auf einen Accelero/After Market-Kühler kriegst du den Fiji sicherlich nicht leiser gekühlt.

Elite_Warrior
2015-05-23, 21:29:21
Ich gehöre zu denjenigen die ihre Hardware in ein M-ATX Gehäuse mit Wasserkühlung verpackt haben und mein Urteil lautet: Es ist die Arbeit nicht Wert, lieber größeres Gehäuse und gute Lüfter, das Ergebnis ist ähnlich gut, außer im extremen Last fall. Eine AIO Lösung ist hingegen deutlich einfacher und flotter zu installieren, mit guten Lüfter sicherlich auch eine sehr gute Kombo(denk ich mal). Da hätte ich nicht unbedingt das Bedürfnis eine Fiji in mein Wasserkreislauf unterzubringen.

HTB|Bladerunner
2015-05-23, 21:51:05
Solange die verbaute Pumpe der AIO-Lösung unhörbar ist, würde das Konzept durchaus aufgehen. Dazu müsste die Pumpe aber zumindest im Idle-Betrieb gedrosselt werden. Ich kann mir nicht vorstellen, dass AMD diesen Aufwand betreibt. Begrüßen würde ich es aber um optimistisch zu bleiben. ;)

Grestorn
2015-05-24, 09:09:39
Ein AiO löst nur das Problem, dass die Wärme nicht IM Gehäuse verwirbelt wird, sondern nach außen geführt ist. Dennoch bleibt, dass der Radiator und die Lüfter eher klein dimensioniert sind. Bei einer hohen Leistungsaufnahme kann das nicht unhörbar leise sein.

fondness
2015-05-24, 10:07:51
Ein AiO löst nur das Problem, dass die Wärme nicht IM Gehäuse verwirbelt wird, sondern nach außen geführt ist. Dennoch bleibt, dass der Radiator und die Lüfter eher klein dimensioniert sind. Bei einer hohen Leistungsaufnahme kann das nicht unhörbar leise sein.

Eine 295X2 schluckt ~560W und schafft es dank AiO mit einem Single-Radi diese bei ~70°C und max 4 Sone abzuführen. Solche Werte erreicht man mit einer Lukü nicht mal annähernd, einen 120mm Lüfter kann man eben schlecht an eine Graka montieren. Das die warme Luft aus dem Gehäuse geführt wird ist da noch ein zusätzlicher Vorteil.

Ich denke das selbst in diesem Marktsegment die Mehrzahl der Käufer keine Wasserkühlung will, mir persönlich wäre das selbst bei geeigneten Gehäuse und prall gefüllter Brieftasche nicht vermittelbar.

Besser fände ich eine Triple-Fan Luftkühlung, etwa auf dem Niveau der Saphire oder PowerColor R9 290/290X Karten, und einen Takt der die TDP auf R290X Bereiche beschränkt. Da wäre man wohl immer noch 30% schneller als diese und man könnte die Karte mit einen Kampfpreis gegen die GTX 980 stellen, dann stören auch die 4 GB Speicher nicht, ich denke das wäre die bessere Strategie.


Es ist ohnehin nur eine zusätzliche Optionn. Wird natürlich auch wieder Partnerdesigns geben.

HOT
2015-05-24, 10:18:01
Eine X2 kann nur maximal 450W schlucken, weil sie da dicht macht.

fondness
2015-05-24, 10:20:00
Eine X2 kann nur maximal 450W schlucken, weil sie da dicht macht.

Nope, gibt genug Messwerte welche die Karte alleine messen und bis auf 560W kommen, zB: http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Radeon-R9-295X2-Test-Review-1116145/

Nicht vergessen, die 295X2 taktet sogar höher wie die 290X und die Pumpe und die PCIe-Bridge benötigt auch Strom.

mironicus
2015-05-24, 10:25:46
Ja, und da der Kühler hier nur eine GPU kühlen muss, lässt das auch enorm Übertaktungsspielraum für AMD. Es wäre also fast schon peinlich, wenn zumindest diese Version die Titan X nicht schlagen könnte.

Hübie
2015-05-24, 10:27:02
Versteh irgendwie nicht wieso man sich über eine Kowakü so aufregt. Ich sehe erst mal keine echten Nachteile. Steigert ja sogar die Effizienz.

mironicus
2015-05-24, 10:36:20
Ja, der Chip dürfte auch nie wirklich heiß werden wie unter Luftkühlung.
An AMDs Stelle würde ich Werbekampagnien machen mit Slogans wie "Wasser für das Volk". :D

Dural
2015-05-24, 10:39:37
ein single 120er radi kann auf dauer keine 500watt abführen.

zudem hab ich schon user erfahrungen gelesen die gesagt haben das die karte bei dauer stress runter taktet.

fondness
2015-05-24, 10:41:55
ein single 120er radi kann auf dauer keine 500watt abführen.

zudem hab ich schon user erfahrungen gelesen die gesagt haben das die karte bei dauer stress runter taktet.

Durals Märchenstunde die x-te

Hübie
2015-05-24, 11:03:28
Ja, und da der Kühler hier nur eine GPU kühlen muss, lässt das auch enorm Übertaktungsspielraum für AMD. Es wäre also fast schon peinlich, wenn zumindest diese Version die Titan X nicht schlagen könnte.

Neee. Der muss schon mehr kühlen. Ich sehe keinen Lüfter auf dem PCB und somit werden Spawas sowie RAM wohl mit gekühlt. Dürfte also schon weit ausgenutzt werden. Q=m*c*dt. Das kann man nicht einfach umstoßen. Aber 350-400 Watt traue ich dem Konstrukt erst mal zu. 500 vielleicht bei kühler Luft mit schnellem Durchzug, da hier die Wärmekapazität größer ist. Ist aber imo völlig unnötig.
Es könnte hier jedoch zum ersten Mal in der Geschichte der Highend-GPUs passieren dass man einen leisen Ref-Kühler antrifft :eek:

fondness
2015-05-24, 11:12:37
Das kritische ist vor allem das man die Hitze vom Die weg bekommt, das gelingt mit eine Wakü natürlich perfekt. Dazu kommt das bei einer GPU bereits 80°C als niedrig angesehen werden, was bei CPUs für viele schon viel zu heißt wäre. Das erlaubt natürlich eine enorm effektive Kühlung des Radis, wenn da Luft mit vielleicht 25°C durch einen 70°C Radi durchströmt.

Kartenlehrling
2015-05-24, 11:19:13
Durch die grösse des Chips und das die HBM-Speicher die Hitze besser verteilt bzw. aufnimmt gibt es keine wirkliche "Hotpoints".
Ich freu mich auf die ersten Test.

BlacKi
2015-05-24, 11:38:49
ich sehe auch große vorteile in aio kühlungen von grafikkarten. leider gibts zu wenig auswahl und die sind eigentlich zu teuer. 40€ für etwas blech und nen billigen lüfter + die eigentliche aio. der aufpreis, wenn von werk aus solche modelle angeboten würden, wäre gering. ich schätze komplett 20-30€ aufpreis, das wäre es vielen wohl wert, und ich verstehe nicht warum es das nicht schon gibt.

Flusher
2015-05-24, 11:44:19
Warum ist die Schrift zum Teil ausgestanzt und was ist das rundes hinter dem Slotblech? Seitliche Belüftung?

Die "ausgestanzte" Schrift hatte schon die 295X2

http://geizhals.at/p/9983/1099983/1099983-6.jpg

Sunrise
2015-05-24, 11:45:33
Durch die grösse des Chips und das die HBM-Speicher die Hitze besser verteilt bzw. aufnimmt gibt es keine wirkliche "Hotpoints".
Ich freu mich auf die ersten Test.
Der "Hotpoint" ist aber das komplette Konstrukt auf und direkt neben dem Interposer. Es ist also genau das Gegenteil der Fall. Du hast alles viel dichter beeinander und musst umso mehr darauf achten, dass du nicht zusätzlich noch hotspots im ASIC hast. Insgesamt wird das Abführen der Wärme schwieriger, weil du eine viel kompaktere Angriffsfläche hast.

Das mit der Wakü ist auch genau deshalb nötig, weil wenn AMD wieder recht dicht packt um keine Fläche zu verschenken, dann macht das Design bei vielleicht 950MHz bis 1GHz dicht (Lukü), während du bei deutlich mehr dann eben eine Wakü benötigst. AMD trifft hier also eine Entscheidung für Power-User, mit dem zusätzlichen Vorteil dann auch trotz extrem schneller Frequenz auch noch relativ leise zu bleiben, ohne dass man sich gleich eine Komplett-Wakü anschaffen muss.

Flusher
2015-05-24, 11:57:51
Der "Hotpoint" ist aber das komplette Konstrukt auf und direkt neben dem Interposer. Es ist also genau das Gegenteil der Fall. Du hast alles viel dichter beeinander und musst umso mehr darauf achten, dass du nicht zusätzlich noch hotspots im ASIC hast. Insgesamt wird das Abführen der Wärme schwieriger, weil du eine viel kompaktere Angriffsfläche hast.

Das mit der Wakü ist auch genau deshalb nötig, weil wenn AMD wieder recht dicht packt um keine Fläche zu verschenken, dann macht das Design bei vielleicht 950MHz bis 1GHz dicht (Lukü), während du bei deutlich mehr dann eben eine Wakü benötigst. AMD trifft hier also eine Entscheidung für Power-User, mit dem zusätzlichen Vorteil dann auch trotz extrem schneller Frequenz auch noch relativ leise zu bleiben, ohne dass man sich gleich eine Komplett-Wakü anschaffen muss.

Das glaube ich nicht - der HBM Speicher wird *vermutlich* selbst ungekühlt nicht wärmer als 80 °C - vor allem bei den niedrigen Taktraten.

Und durch die DIE-Größe wird die Temperatur innerhalb der GPU besser verteilt, Hotspots also weniger stark ausgeprägt.

Grestorn
2015-05-24, 12:03:13
Natürlich ist eine Kompakt-WaKü besser als eine reine Luftkühlung im Gehäuse. Da gibt es gar keine Diskussion. Aber Geräuschlos kann sie eigentlich nicht agieren, nicht bei der Radiatorgröße.

M4xw0lf
2015-05-24, 12:11:26
Nee, das wird sicher kein Leisetreter.

YellowDynamite
2015-05-24, 12:27:15
Na wenn die Diskussion im Vorfeld mal nicht nur heiße Luft ist.
:lol:

Schnoesel
2015-05-24, 12:44:46
Geräuschlos braucht das Ding doch gar nicht sein. Es reicht schon wenn es leiser als Titan X ist (das ist nicht schwer) und ein weiteres Debakel wie bei Hawaii ausbleibt.

dargo
2015-05-24, 12:50:44
Das glaube ich nicht - der HBM Speicher wird *vermutlich* selbst ungekühlt nicht wärmer als 80 °C - vor allem bei den niedrigen Taktraten.

War es nicht so, dass HBM Speicher eine geringere thermische Grenze hat? Ich meine irgendwo was von nur 70°C gelesen zu haben. Weiß aber nicht mehr wo. :redface:

Sunrise
2015-05-24, 12:53:23
Und durch die DIE-Größe wird die Temperatur innerhalb der GPU besser verteilt, Hotspots also weniger stark ausgeprägt.
Es sind aber auch bedeutend mehr Einheiten (4096 SPs) verbaut und dem Rest der auch nach oben skaliert werden muss. Wenn die Packdichte also gleich hoch (gleich bleibt), dann verringert das nicht das Risiko von Hotspots, das ist eher dem internen Aufbau geschuldet, hat also eher Designgründe. Zum Beispiel dem SI und der SerDes, die anders verteilt werden. SPs sind ja alleine recht energie-effizient, aber so ein Chip besteht leider nicht nur aus SPs.

Wir haben noch kein HBM-Design von der Thermik (Wärmebildkamera) gesehen, aber es würde mich sehr stark positiv überraschen, wenn die Lukü-Versionen ebenso kompakt wären.

Der Speicher selbst spart sicher etwas ein, da man auf High-End Karten einfach viel mehr Module davon hat und HBM auch mit geringerer Spannung angesteuert wird. Dennoch sitzt alles bedeutend näher beeinander.

Gipsel
2015-05-24, 13:04:19
War es nicht so, dass HBM Speicher eine geringere thermische Grenze hat? Ich meine irgendwo was von nur 70°C gelesen zu haben. Weiß aber nicht mehr wo. :redface:
Nö, sind 85°C (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10553908#post10553908).

Skysnake
2015-05-24, 13:08:45
Der "Hotpoint" ist aber das komplette Konstrukt auf und direkt neben dem Interposer. Es ist also genau das Gegenteil der Fall. Du hast alles viel dichter beeinander und musst umso mehr darauf achten, dass du nicht zusätzlich noch hotspots im ASIC hast. Insgesamt wird das Abführen der Wärme schwieriger, weil du eine viel kompaktere Angriffsfläche hast.

Das mit der Wakü ist auch genau deshalb nötig, weil wenn AMD wieder recht dicht packt um keine Fläche zu verschenken, dann macht das Design bei vielleicht 950MHz bis 1GHz dicht (Lukü), während du bei deutlich mehr dann eben eine Wakü benötigst. AMD trifft hier also eine Entscheidung für Power-User, mit dem zusätzlichen Vorteil dann auch trotz extrem schneller Frequenz auch noch relativ leise zu bleiben, ohne dass man sich gleich eine Komplett-Wakü anschaffen muss.
Eher das Gegenteil. Durch den Interposer und die Massen an Kontakten, wirkt der Interposer wie ein Heatspreader. Du kannst also über das Package mehr Wärme abführen, und auch die HBM stacks, werden wohl eher von GPU-DIE aufgeheizt als andersrum.

fondness
2015-05-24, 13:10:03
85°C liegt aber natürlich trotzdem deutlich niedriger als das was zB der Hawaii-Refrenzkühler erreicht und ein bisschen Knautschzone wird man auch noch lassen müssen. Man wird also Fiji unter 80°C halten müssen, was für Lukü nicht ganz einfach sein könnte. Weiß man eigentlich einen Grund warum der HBM DRAM nicht so heiß werden darf wie andere Siliziumchips?

Kartenlehrling
2015-05-24, 13:21:16
Das hat was mit der Fehlerkorektur und dem Refresh zu tun.

klassischer DRAM-Speicher setzt in vorher definierten Zeiträumen eine Refresh-Operation voraus, welche den Inhalt des Speichers weiterhin nutzbar macht. Üblicherweise erfolgt dies in Zeiträumen von etwa 1 µs. Da während der Refresh-Operation keine anderen Operationen auf dem Speicher ausgeführt werden können, führt dies zu einem Overhead von 5 bis 10 % über der insgesamt zur Verfügung stehenden Speicherbandbreite. Je größer die Speicherkapazität wird, desto größer wird auch der Overhead durch die Refresh-Operationen.

Beim HBM kümmern sich die Controller einer Speicherbank eigenständig um die Refresh-Operationen und müssen diese auch nicht mehr simultan ausführen. Bis auf die Ebene einer einzelnen Speicherzelle herunter wäre ein eigenständiges Verhalten in dieser Hinsicht denkbar, aber nicht immer sinnvoll. Der Single Refresh Bank birgt also noch weiteres Optimierungspotenzial für AMD und NVIDIA bei der Verwaltung des Speichers.

....

Durch eine geringere Speicherspannung sowie weitere Maßnahmen besitzt HBM nicht nur eine geringere Leistungsaufnahme, sondern produziert dementsprechend auch weniger Abwärme. Dazu werden sogenannte Thermal Dummy Bumps verwendet, welche das Abführen von Abwärme aus dem Inneren der Stacks erleichtern.

Die eben erwähnten Refresh-Operationen sind auch abhängig von der Temperatur (je wärmer der Speicher wird, desto häufiger müssen diese ausgeführt werden) und daher unterstützt HBM auch Temperature Compensated Self Refresh. Die Refresh Operationen werden dazu in bestimmten Temperaturbereiche eingeteilt, in denen sie unterschiedlich oft ausgeführt werden. Temperatursensoren im Speicher messen die aktuelle Temperatur und passen die Refresh Operationen dementsprechend an.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/35308-warum-hbm-mehr-als-nur-eine-erhoehung-der-speicherbandbreite-ist.html
Warum HBM mehr als nur eine Erhöhung der Speicherbandbreite ist

Sunrise
2015-05-24, 13:25:58
Durch den Interposer und die Massen an Kontakten, wirkt der Interposer wie ein Heatspreader. Du kannst also über das Package mehr Wärme abführen, und auch die HBM stacks, werden wohl eher von GPU-DIE aufgeheizt als andersrum.
Stimmt, klarer Denkfehler von mir. Der Interposer selbst verbreitert ja quasi die zu kühlende Fläche. Das hieße selbst bei hoher Packdichte wäre das Problem der Kühlung damit in der Tat beträchtlich entschärft.

So langsam beschleicht mich damit das Gefühl, dass AMD damit theoretisch nicht nur deutlich kompaktere Karten bauen kann, sondern auch die TDP der Lukü-Version nicht deutlich mehr wie bei GM200 im maximalen Ausbau werden sollte.

Dennoch wird es nicht gerade leicht, das auf so engem Raum mit Luft zu kühlen. Sowas würde ich vielleicht einem Arctic zutrauen, aber eine Referenz-Lukü müsste schon ziemlich potent sein.

Skysnake
2015-05-24, 13:32:29
HBM ist einfach DRAM bezüglich der Datenspeicherung. Wenn Transistoren heiser werden, dann steigt in der Regel der Leckstrom, was zur Folge hat, dass die 1 schneller kaputt geht, was einen schnelleren Refresh nötigen machen würde usw usf.

Knuddelbearli
2015-05-24, 13:53:33
85°C liegt aber natürlich trotzdem deutlich niedriger als das was zB der Hawaii-Refrenzkühler erreicht und ein bisschen Knautschzone wird man auch noch lassen müssen. Man wird also Fiji unter 80°C halten müssen, was für Lukü nicht ganz einfach sein könnte. Weiß man eigentlich einen Grund warum der HBM DRAM nicht so heiß werden darf wie andere Siliziumchips?


Wieso soll das nicht einfach sein? fast jede Nv CustomKühlung bleibt da deutlich drunter da ab da gedrosselt wird. und deutlich mehr als zB 980 TI wird Fiji kaum verbrauchen

Hübie
2015-05-24, 14:19:40
Es gibt noch keine customs auf GM200. Schätzungsweise kommen einige ans Temperaturlimit ran. Also mit deutlich wäre ich vorsichtiger - zumindest unter der Voraussetzung dass es leise ist / bleibt. Der Kühler auf TX ist schon überfordert, dass muss man mal festhalten. Selbst eine 980 wird sehr nervig. Versteh die Lobpreisungen überhaupt nicht.

Gipsel
2015-05-24, 14:25:47
85°C liegt aber natürlich trotzdem deutlich niedriger als das was zB der Hawaii-Refrenzkühler erreicht und ein bisschen Knautschzone wird man auch noch lassen müssen. Man wird also Fiji unter 80°C halten müssen, was für Lukü nicht ganz einfach sein könnte. Weiß man eigentlich einen Grund warum der HBM DRAM nicht so heiß werden darf wie andere Siliziumchips?Deutlich niedriger? Nö, Tahiti, Hawaii und Konsorten drosseln irgendwo ab 92°-94°C. Die sind aber on-Die gemessen, also wohl Angaben sehr nah an T_j, also Temperatur der Transistoren. Der Kühler selber dürfte ziemlich sicher dabei unter 85°C bleiben (so guten Wärmekontakt bekommt man ohne direktes Verlöten des Kühlers mit dem Die sonst gar nicht hin und die Wärmeleitung durch einen ~100µm dünnen Si-Interposer ist zwar merklich, aber auch nicht übermäßig groß, die Temperatur des RAMs dürfte also von alleine weit genug unter der GPU-Temperatur bleiben). Das ist also aus der Warte gar kein Problem, solange sicher ist, daß das GPU-Die unter 95°C bleibt, hat man keine Probleme mit dem HBM-RAM. Man kann mit einer einzigen ~3x3cm² Kupferkontaktfläche den kompletten Chip inklusive RAM kühlen. Das ist tendenziell einfacher als wenn man noch die ganzen DRAM-Chips mit dem Kühler in Kontakt bringen will.
Zu der Problematik der nötigen, schnelleren Refreshes bei erhöhten Temperaturen wurden ja schon was geschrieben. HBM ist aufgrund der Unterstützung eines temperaturgesteuerten Refreshintervalls prinzipiell eigentlich recht gut auch für höhere Temperaturen geeignet. Und schon die ersten Stacks von Hynix sind ja für 85°C (also völlig normale Temperaturen) freigegeben.

Raff
2015-05-24, 14:26:18
Geräuschlos braucht das Ding doch gar nicht sein. Es reicht schon wenn es leiser als Titan X ist (das ist nicht schwer) und ein weiteres Debakel wie bei Hawaii ausbleibt.

Beides ist verdammt einfach. ;)

MfG,
Raff

dargo
2015-05-24, 14:45:23
Nö, sind 85°C (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10553908#post10553908).
Ah... ok. Dann hatte ich das falsch aufgeschnappt. Ist trotzdem noch relativ niedrig. Jedenfalls bin ich auf die Luküs bei Fiji gespannt. Man wird die Karte dann wohl eher im Bereich von 70-75°C (kleiner Puffer) halten müssen. Oder wie siehst du das?

Deutlich niedriger? Nö, Tahiti, Hawaii und Konsorten drosseln irgendwo ab 92°-94°C. Die sind aber on-Die gemessen, also wohl Angaben sehr nah an T_j, also Temperatur der Transistoren. Der Kühler selber dürfte ziemlich sicher dabei unter 85°C bleiben (so guten Wärmekontakt bekommt man ohne direktes Verlöten des Kühlers mit dem Die sonst gar nicht hin und die Wärmeleitung durch einen ~100µm dünnen Si-Interposer ist zwar merklich, aber auch nicht übermäßig groß, die Temperatur des RAMs dürfte also von alleine weit genug unter der GPU-Temperatur bleiben). Das ist also aus der Warte gar kein Problem, solange sicher ist, daß das GPU-Die unter 95°C bleibt, hat man keine Probleme mit dem HBM-RAM.
Argh... erst weiter scrollen dann fragen. :redface:

Gipsel
2015-05-24, 14:52:24
Ah... ok. Dann hatte ich das falsch aufgeschnappt. Ist trotzdem noch relativ niedrig. Jedenfalls bin ich auf die Luküs bei Fiji gespannt. Man wird die Karte dann wohl eher im Bereich von 70-75°C (kleiner Puffer) halten müssen. Oder wie siehst du das?Ich empfinde 85°C für den RAM nicht als "relativ niedrig" sondern als völlig ausreichend hoch.
Wie schon mal gesagt, GPU auf gut 90°C dürfte nicht reichen, um den HBM über 85°C zu treiben, das ist also safe. Außerdem kannst Du dann das Throttling/Boost auch so basteln, daß auch gethrottelt wird, wenn der RAM die 85°C erreicht. HBM hat ja integrierte Temperatursensoren (um das Refreshintervall temperaturabhängig zu gestalten). Ich sehe da insgesamt überhaupt kein Problem.

mboeller
2015-05-24, 15:39:21
Regulär stimmt das. Aber in der konkreten Situation ist das egal: Zwischen 28nm und 14nm erwartet uns eine Performance-Verdopplung.

IMHO; eher nicht.

Wenn ich das letzte Global-Founderies-Video richtig verstanden habe (die Tabelle ganz am Schluss des Videos) dann können wir mit +40% rechnen bei gleichem Verbrauch und wenn die Kosten nicht aus dem Ruder laufen sollen. Vielleicht sind auch +50% drin wenn man die geringe Kostenreduzierung von 20% aus der Lisa-Su Präsentation mit einrechnet.

...ist sowieso schon mehr als ich persönlich aus den älteren Präsentationen geschlossen hatte.

[MK2]Mythos
2015-05-24, 16:13:32
War es in der Vergangenheit nicht immer so, dass die ersten neuen GPU's mit neuem Prozess Performancesteigerungen im Bereich 30 - 40% brachten und der richtige Hammer dann erst mit deren Refresh kam?

Skysnake
2015-05-24, 16:40:05
Zu der Problematik der nötigen, schnelleren Refreshes bei erhöhten Temperaturen wurden ja schon was geschrieben. HBM ist aufgrund der Unterstützung eines temperaturgesteuerten Refreshintervalls prinzipiell eigentlich recht gut auch für höhere Temperaturen geeignet. Und schon die ersten Stacks von Hynix sind ja für 85°C (also völlig normale Temperaturen) freigegeben.
Wusste ich jetzt auch noch nicht, dass der Refresh temperaturabhängig ist bei HBM. Wieder was gelernt :biggrin:

Ansonsten führen höhere Temperaturen auch zu mehr (thermischen) Rauschen, was die Amplifier zum Auswerten, ob man eine 0 oder 1 hat auch vor Probleme stellt. Effektiv steigt damit die benötigte Spannung, um das sicher auseinander halten zu können.

Hübie
2015-05-24, 17:50:49
Ich habe Tests gesehen in denen bestätigt ist dass HBM / ondie DRAM ca 2°C höhere Temperaturen verursacht. Müsste das PDF noch irgendwo haben. War sehr interessant. Also ein Killer ists somit nicht. Ich kenne die AiO auf der 295X2 jetzt nicht live aber ich lese andererseits zu wenig negatives darüber. So verkehrt kann die also nicht sein.

@Skysnake: Das könnte man vielleicht mit etwas höherem Transiatoraufwand auch ohne höhere Spannung regeln (AND). Hab sowas schon ab und zu als Schaltung gesehen. Keine Ahnung ob man das auch in Chips verwendet.

Edit: Also zwei Einsen ergeben eine 1 am Ausgang. Alles andere invalid (0).

Gipsel
2015-05-24, 17:54:34
Ich habe Tests gesehen in denen bestätigt ist dass HBM / ondie DRAM ca 2°C höhere Temperaturen verursacht. Müsste das PDF noch irgendwo haben. War sehr interessant. Also ein Killer ists somit nicht.Das bestimmt nicht.
Und außerdem, 2°C im Vergleich zu was? Ersetzt man GDDR5 bandbreitengleich durch HBM beim ansonsten gleichen Chip, verbrauchen Chip+HBM zusammengenommen nicht mehr oder sogar etwas weniger als vorher nur der Chip ohne den Speicher (wegen den Ersparnissen bei den PHYs im Chip). Das kann also eigentlich gar kein Problem sein. ;)

Nightspider
2015-05-24, 18:24:16
Den "Vorteil" sehe ich nicht.
Schade.

;D ;D ;D

Hübie
2015-05-24, 19:28:40
Das bestimmt nicht.
Und außerdem, 2°C im Vergleich zu was? Ersetzt man GDDR5 bandbreitengleich durch HBM beim ansonsten gleichen Chip, verbrauchen Chip+HBM zusammengenommen nicht mehr oder sogar etwas weniger als vorher nur der Chip ohne den Speicher (wegen den Ersparnissen bei den PHYs im Chip). Das kann also eigentlich gar kein Problem sein. ;)

Es ging dabei um Grundlagenforschung für on package RAM. Die Kerntemperatur war bei ansonsten gleicher Kühlung nur um 2°C erhöht ggü externem DRAM. Ich suchs gleich noch mal raus ;)

Nightspider
2015-05-24, 19:31:51
Mal eine blöde Frage:

Kann man mit entsprechend gefräster Grundplatte des Wasserkühlers nicht auch die Wärme vom Interposer aufnehmen, statt nur von GPU und HBM Stacks?

Da der Interposer aus Silizium ist sollte man die Wärme doch recht gut abgreifen können und Fiji hätte somit eine deutlich vergrößerte Wärmeabgabefläche.

Hübie
2015-05-24, 19:37:35
Für gewöhnlich steht da nicht viel "über". So wie hier:

www.izm.fraunhofer.de/content/dam/izm/de/images/Abteilungen/High_Density_Interconnect_Wafer_Level_Packaging/Forschungsschwerpunkte/Projekte/gr_Siliziumzwischenträger_592px.jpg
Sorry bin am Handy :D

Nightspider
2015-05-24, 19:44:35
"gewöhnlich"?

Kommt halt darauf an wo die HBM Stacks positioniert sind.
Wenn sie auf jeder Seite 2 davon haben ergeben sich schon ein paar cm² die man kühlen könnte.

Edit:

Mal ganz billig die frei verfügbaren Flächen des Interposers auf die GPU gelegt falls die Anordnung in etwa so aussehen wird und sollten es tatsächlich nur 4 Stacks sein:

http://abload.de/img/khlbareflcheu0uht.png

Das wäre immerhin nochmal die doppelte Fläche wie bei der GPU, auch wenn der Interposer nicht so heiß wäre wie die GPU. Das würde trotzdem noch etliche Watt bedeuten, die man wegkühlen könnte und würde die Stacks nicht so aufheizen.

Sunrise
2015-05-24, 20:06:58
@Nightspider
Wieso blöde Frage? Sollte möglich sein. Kommt halt darauf an, ob du genug Platz hast, aber das sollte die Auflagefläche schon gut vergrößern.

Ist die Frage, wie das jetzt hitzetechnisch aufgeteilt wird, da brächte man erstmal sehr genaue Daten mit Wärmebildkamera.

Was ja auch noch nicht so klar ist, ob AMD da generell noch einen Heatspreader on top verbaut. Mit freiem Zugang zu allem wäre deine Idee aber sicher gut umsetzbar.

Agent117
2015-05-24, 20:07:04
Mal eine blöde Frage:

Kann man mit entsprechend gefräster Grundplatte des Wasserkühlers nicht auch die Wärme vom Interposer aufnehmen, statt nur von GPU und HBM Stacks?

Da der Interposer aus Silizium ist sollte man die Wärme doch recht gut abgreifen können und Fiji hätte somit eine deutlich vergrößerte Wärmeabgabefläche.

Könnte man schon, die Höhendifferenz zwischen Interposer, GPU und HBM Stack müsste nur sehr genau getroffen werden, damit die Grundplatte auf alle bauteile fest aufdrückt. Sowas macht man normalerweise nicht so gerne aber ich sehe da jetzt auch kein Problem, wenn die Genauigkeit hinhaut.

Glaube aber nicht dass das soviel bringt. Klar steht dann meher Fläche zu Verfügung, die Wärme abzugeben, aber ob da auch der mittlere Bereeich der GPU mit den "heißen" Shadern entscheidend von profitiert weiß ich nicht.
Vlt ist hier ja ein Physiker unterwegs und kann was zur Wärmeausbreitung sagen.

Nightspider
2015-05-24, 20:10:29
Wegen der Höhendifferenz könnte man im schlimmsten Fall ja simple Wärmeleitpads wie beim VRAM verwenden. Das wären dann immernoch etliche Watt die man mit den Pads wegkriegt aber ich denke auch das die Fertigung genau genug ist um da auch mit Wärmeleitpaste rangehen zu können, da die Höherendifferenz niedrig genug ist.

Hübie
2015-05-24, 20:43:43
So würde ich das etwa Designen, wenn ich kein Geld verbrennen will:

http://abload.de/img/fiji_package4bu7y.png (http://abload.de/image.php?img=fiji_package4bu7y.png)

Sorry für Quali habs eben hingeklatscht.

Edit: Ich hab jetzt übrigens ~30 Minuten das blöde pdf gesucht, aber es sind sooo viele aufm Rechner. Finde das jetzt nicht und hab keine Lust weiterzusuchen, da der Hexer ruft X-D

Sunrise
2015-05-24, 20:48:16
@Hübie:
Schaut gut aus, ich schließ mich mal an. Die PHYs wären dann schön gleichmäßig verteilt in den Ecken und es wird kaum Platz verschenkt.

Nur solltest du noch die Größenverhältnisse korrigieren, bzw. evtl. aus deinen HBMs jeweils zwei pro Ecke machen (5x7mm pro HBM-Chip). Ansonsten dürfte damit dann dennoch viel Zwischraum frei sein. Sieht halt so oder so komisch aus, wenn einem >550mm^2 Die nur 4 HBMs zur Seite stehen. Die Dinger sind einfach nur winzig im Vergleich.

M4xw0lf
2015-05-24, 20:51:31
Diese GPU wäre nach meiner optischen Pi-mal-Daumen-Schätzung aber deutlich zu klein, damit ist die Sache hinfällig :tongue:

Hübie
2015-05-24, 20:57:38
Daher mein sorry.
Bei der Suche nach dem pdf bin ich übrigens auf etwas interessantes gestoßen was TSV wieder alt aussehen lässt: TCI. Interchip-communication via Induktion / Induktivität. Spart locker 30% Fläche.
Ein weiteres nettes Detail ist dass man ~5% dummy bumps injeziert zur gezielten Wärmeverteilung im Stack. Auch nettes Detail dass mir eben erst auffiel.

So nun geh ich aber nach Velen, sorry Leute ;D

basix
2015-05-24, 22:00:58
Es könnte hier jedoch zum ersten Mal in der Geschichte der Highend-GPUs passieren dass man einen leisen Ref-Kühler antrifft :eek:

HD3870 war leise, HD5870 auch nicht schlecht ;-)

M4xw0lf
2015-05-24, 22:08:47
HD3870 war leise, HD5870 auch nicht schlecht ;-)
Die 3870 war nach keiner Definition high end.

Hübie
2015-05-24, 22:46:26
Erstere war schon zu Release kein Highend, letztere war nicht leise sondern ganz okay. Darüber können wir nun streiten. :P

OBrian
2015-05-24, 23:10:48
Ich würde mich nicht wundern, wenn der ganze Interposer mit seinen diversen aufgebrachten Dies noch eine Schutzhülle bekommt, ein IHS würde sicher einiges an Defekten verhindern. Unter diesem IHS kann man ja alles mit sehr guter WLP oder Lot füllen.

Palpatin
2015-05-24, 23:22:31
Erstere war schon zu Release kein Highend, letztere war nicht leise sondern ganz okay. Darüber können wir nun streiten. :P
Die hier war schon ziemlich leise: http://www.computerbase.de/2013-02/test-nvidia-geforce-gtx-titan/14/

Unicous
2015-05-24, 23:30:48
TCI ist ein Papiertiger. Hört sich sehr nett an, ob es Marktreife erlangt werden wir frühestens in ein paar Jahren erfahren.

Nightspider
2015-05-24, 23:41:44
Ob massig Induktivitäten in einem Chip mit extrem hoher Dichte und extrem hoher Frequenzen so gut sind ist auch die Frage.
Ob die Technik Zukunft hat muss man abwarten. Bei zu hoher Dichte überlagern sich ja die Magnetfelder. Nicht das man am Ende für jeden Pin-Ersatz eine eigene Logik braucht um das Signal zu entziffern. ^^

Hübie
2015-05-25, 00:27:23
TCI ist ein Papiertiger. Hört sich sehr nett an, ob es Marktreife erlangt werden wir frühestens in ein paar Jahren erfahren.

21 unterschiedliche Chips sagen was anderes :P

@Palpatine: Ja, und die Erde is ne Scheibe :rolleyes:

Skysnake
2015-05-25, 07:11:40
Daher mein sorry.
Bei der Suche nach dem pdf bin ich übrigens auf etwas interessantes gestoßen was TSV wieder alt aussehen lässt: TCI. Interchip-communication via Induktion / Induktivität. Spart locker 30% Fläche.
Ein weiteres nettes Detail ist dass man ~5% dummy bumps injeziert zur gezielten Wärmeverteilung im Stack. Auch nettes Detail dass mir eben erst auffiel.

So nun geh ich aber nach Velen, sorry Leute ;D
TCI habe ich mir auch mal kurz angeschaut. Ist durchaus interessant, aber man muss sich eben im klaren sein, das mam da Antennen hat....

Du fängst also nicht nur die gewünschten Signale auf, sondern prinzipiell alles. Auch wirst du das mit einem echten EM-Solver berechnen müssen. Es ist eben nicht egal, was in der Umgebung ist. Schon bei normalen Verbindungen muss man ja bei GHz aufpassen wie Hölle, das man nicht irgend einen bullshit baut und am Ende kein Signal mehr ankommt...

Ich würde mich nicht wundern, wenn der ganze Interposer mit seinen diversen aufgebrachten Dies noch eine Schutzhülle bekommt, ein IHS würde sicher einiges an Defekten verhindern. Unter diesem IHS kann man ja alles mit sehr guter WLP oder Lot füllen.
Ein IHS wäre wohl anzuraten. Die DIEs sollten zwar so manches aushalten, da einfach extrem viele extrem kleine Lötpunkte da sind, und da schon ein ziemlich starker Kontakt da ist, aber zumundest die HBM DIEs sind ja wohl gedünnt, wenn ich mir das so von der Höhe her anschaue. Die sind dann wohl schon etwas empfindlicher.

Die Tolleranzen für die DIEs und das Package sind extrem niedrig. Da sollten an sich nur die Tolleranzen des IHS/Kühlers entscheidend sein. Ich glaube aber nicht, das man sich den Aufwand macht, und da unterschiedliche Höhen macht. Das kostet einfach Geld, und sollte nicht zwingend nötig sein.

21 unterschiedliche Chips sagen was anderes :P

@Palpatine: Ja, und die Erde is ne Scheibe :rolleyes:
Und hatst du gesehen, was das für Chips sind? Also ob das VLSI Chips waren oder nicht

Hast du gesehen, wie die Umgebungsvariablen waren? Also ob das nur in einem EMI-freien Raum getestet wurde, Stromversorgung mittels Batterie/Labornetzteil usw usf?

Die Technik kann durchaus interessant sein, aber meine Erfahrung hat mir gezeigt, dass die Leute gerne abartig wichtige Sachen weglassen, nur damit ihre Entwicklung OWESOME aussieht... Man sollte daher ziemlich kritisch bei solchen Sachen sein. Bei den Elektrotechnikern/Informatikern gibt es eine aus Sicht eines Physikers sehr seltsame Art über seine Ergebnisse zu berichten...

Loeschzwerg
2015-05-25, 11:01:32
So würde ich das etwa Designen, wenn ich kein Geld verbrennen will:

http://abload.de/img/fiji_package4bu7y.png (http://abload.de/image.php?img=fiji_package4bu7y.png)

Sorry für Quali habs eben hingeklatscht.

Edit: Ich hab jetzt übrigens ~30 Minuten das blöde pdf gesucht, aber es sind sooo viele aufm Rechner. Finde das jetzt nicht und hab keine Lust weiterzusuchen, da der Hexer ruft X-D

Ich denke in diesem Fall hat wccftech mal ganz gute Bilder (http://wccftech.com/amd-fiji-die-reconstructed-hbms-huge-gpu-uncovered/) angefertigt.


http://cdn4.wccftech.com/wp-content/uploads/2015/05/AMD-Fiji-Graphics-Processors.jpg
http://cdn.wccftech.com/wp-content/uploads/2015/05/11286625_10153897202717788_737087796_o.jpg

mironicus
2015-05-25, 12:30:58
Da wäre noch Platz für vier weitere HBM-Stacks.... :D

Loeschzwerg
2015-05-25, 12:35:25
Jeder darf Träume haben ;D

fondness
2015-05-25, 12:42:46
Ich denke in diesem Fall hat wccftech mal ganz gute Bilder (http://wccftech.com/amd-fiji-die-reconstructed-hbms-huge-gpu-uncovered/) angefertigt.


http://cdn4.wccftech.com/wp-content/uploads/2015/05/AMD-Fiji-Graphics-Processors.jpg
http://cdn.wccftech.com/wp-content/uploads/2015/05/11286625_10153897202717788_737087796_o.jpg

Die Bilder sind von Videocardz...

Loeschzwerg
2015-05-25, 12:46:14
Die Bilder sind von Videocardz...

Das eine ja, das andere nein. Aber woher ist doch nun auch wirklich drauf geschissen, oder? ;)

Thunder99
2015-05-25, 14:03:18
Mythos;10638451']War es in der Vergangenheit nicht immer so, dass die ersten neuen GPU's mit neuem Prozess Performancesteigerungen im Bereich 30 - 40% brachten und der richtige Hammer dann erst mit deren Refresh kam?
Eher umgekehrt, aber es gibt Ausnahmen.

mironicus
2015-05-25, 14:40:58
Wird Fiji bei Performance pro Watt wohl die bis dato beste AMD-Karte werden, oder (ohne OC)?

Thunder99
2015-05-25, 14:42:00
kommt darauf an wo sie die Karte positionieren wollen ;)

StefanV
2015-05-25, 14:46:58
Notfalls wird man das wohl anpassen müssen.

Schon Hawaii kann sehr effizient sein, wenn man auf 'nen bisserl Performance verzichten möchte.
Leider hat AMD die aber am oberen Ende des technisch möglichen positioniert und nicht im Sweet Spot.

captain_drink
2015-05-25, 14:57:17
Leider hat AMD die aber am oberen Ende des technisch möglichen positioniert und nicht im Sweet Spot.

Ich hoffe mal, dass dieses Mal nicht wieder jemand die Devise "Wir wollen die schnellste GPU der Welt haben" ausgibt.
Der Vorsprung, den sowohl die 7970 Ghz als auch die 290X jeweils hatten, hat im Vergleich zum daraus resultierenden Krach- und Hitzepotenzial nämlich niemanden interessiert.

Hübie
2015-05-25, 15:08:08
@Skysnake: Ein Fall sind gestapelte DRAM die keine TSV nutzen. Klimatisierter Cleanroom. Temperatur müsste ich nachsehen. Die von dir angesprochenen Hürden sind wohl auch dafür verantwortlich wieso es noch lange nicht am Markt ist. Zeigt aber gut wo die Reise hingeht und dass ein neues Produkt auf dem Markt veraltet ist :biggrin:

Dawn on Titan
2015-05-25, 15:22:13
Ich hoffe mal, dass dieses Mal nicht wieder jemand die Devise "Wir wollen die schnellste GPU der Welt haben" ausgibt.
Der Vorsprung, den sowohl die 7970 Ghz als auch die 290X jeweils hatten, hat im Vergleich zum daraus resultierenden Krach- und Hitzepotenzial nämlich niemanden interessiert.

Wir haben ne Refrenz-Wakü-Edition, glaubt einer das macht man für 220W TDP?

mironicus
2015-05-25, 15:31:49
Die Fiji wird die eierlegende Wollmilchsau. Vielleicht sogar mit 0 db-Modus (Lüfter schalten sich beim Idlen ab), siehe das LOL-Bild. Hohe Performance und geringe Lautstärke ohne OC. Powertarget von 300 Watt für den Turbomodus und Fiji kann die Titan X mühelos hinter sich lassen. Und die Karte riegelt vielleicht erst bei 450-500 Watt....?

Wichtiger als Stromverbrauch ist sicherlich die Lautstärke + Leistung. Keine 9 Sone laute Karte die von der Kühlung ausgebremst wird wie die R290x. Dieses Mal macht AMD deutlich mehr richtig.

Raspo
2015-05-25, 15:36:24
Hast Du schon eine Fiji in Aktion gesehen ;-)?
Auf das Bild würde ich null geben.
Sieht nach Fanboy-Arbeit aus.

mironicus
2015-05-25, 15:40:02
Läuft nur die Pumpe (sollte die Karte auch leise regeln können, 5-12 Volt) kann auch ohne irgendeine Lüfteraktivität mehr als 100 Watt passiv gekühlt werden. Und da die GPU sehr groß ist sollte ein 0 rpm Lüftermodus kein Problem darstellen.

dildo4u
2015-05-25, 16:49:49
Die Fiji wird die eierlegende Wollmilchsau. Vielleicht sogar mit 0 db-Modus (Lüfter schalten sich beim Idlen ab), siehe das LOL-Bild. Hohe Performance und geringe Lautstärke ohne OC. Powertarget von 300 Watt für den Turbomodus und Fiji kann die Titan X mühelos hinter sich lassen. Und die Karte riegelt vielleicht erst bei 450-500 Watt....?

Wichtiger als Stromverbrauch ist sicherlich die Lautstärke + Leistung. Keine 9 Sone laute Karte die von der Kühlung ausgebremst wird wie die R290x. Dieses Mal macht AMD deutlich mehr richtig.
Fiji tritt nich gegen Titan X an sondern Custom 980TI.Was TDP Limit's angeht gibt es dort keine Regeln hier eine 980 mit 2X8Pin.

http://www.asus.com/Graphics_Cards/GOLD20THGTX980P4GD5/specifications/

fondness
2015-05-25, 16:53:22
10% Leistung auf oder ab interessiert in Wahrheit kein Schwein (sorry). AMD sollte eine Karte am sweet-spot bringen die dank Wakü sehr leise gekühlt werden kann, wenig Strom verbraucht, und dank HBM schön klein und kompakt ist - smart eben. DANN spielen ein paar Prozent auf oder ab keine Rolle.

Knuddelbearli
2015-05-25, 16:55:21
wenn kein Schwein 10% interessiert wieso hatte AMD dann mit 5870, 6970, 7970 usw immer das nachsehen am Massenmarkt? Die schnellste Karte zu haben färbt nunmal extrem aufs restliche Portfolio ab!

horn 12
2015-05-25, 17:12:30
AMD dies wird schon richten
NV bastelt/ erlaubt schon Wassergekühlte Titan X und ebenso wird die GTX 980TI bei Release bereits mit Custom Kühlern kommen.
Gar eine R9 390 sollte es knapp bis zur Titan-X schaffen können.

Zwischen R9 290 und Titan X liegen vielleicht durchschnittlich gute 45%
Eine R9 390X sollte sich wohl um die Custom Karten der GTX 980TI kümmern.
So groß fällt diesmal der Unterschied nicht aus, Ähnlich R9 290 zu R9 290X

Sunrise
2015-05-25, 17:22:14
wenn kein Schwein 10% interessiert wieso hatte AMD dann mit 5870, 6970, 7970 usw immer das nachsehen am Massenmarkt? Die schnellste Karte zu haben färbt nunmal extrem aufs restliche Portfolio ab!
Die gleichen "Argumente" wie seit ein paar Generationen:

Referenzkühler, Stromverbrauch, Treiber...

Fiji hat einen besseren Kühler -> Check
Fiji hat etwas über GM200-Stromverbrauch mit der Option, deutlich darüber zu gehen -> Check
Fiji bekommt evtl. bessere Treiber -> Wissen wir aber noch nicht, hier scheinen sie aber daran zu arbeiten, auf jedenfall aber sehr guter DX12 und VR-Support -> teilweise schonmal sicher Check

Danach kommt nur noch der Preis und evtl. der VRAM, wegen 10% Leistung die sowieso nirgends für mehr Flüssigkeit entscheidet wird keiner wechseln, da zählt das Gesamtpaket.

Und wenn man NV-affin ist, dann kauft man auch weiterhin NV, selbst wenn sie langsamer wären, ist doch nichts Neues. Dann geilt man sich dann eben an den 12GB VRAM auf und ist super glücklich, jeder eben wie er will.

Blediator16
2015-05-25, 17:30:10
Der nächste Negativpunkt, wenn es stimmen sollte, wird dann eben die 4gb sein.

Knuddelbearli
2015-05-25, 17:30:46
5870 war deutlich leiser als 480 und hat deutlich weniger verbraucht, abgeschwächt galt das auch für 6970 und 7970 erst seit Maxwell bzw 290X ist da NV überlegen.

Und Treiber wirklich? Wann stirbt das Ammenmärchen endlich aus ...

Duplex
2015-05-25, 17:35:31
Nach so einer langen Zeit wäre das eine Enttäuschung von AMD wenn das Top Modell nicht 50-60% schneller als die 290x sein wird. Die R9-290x ist mittlerweile 1 Jahre und 7 Monate alt.

Mit Wasserkühlung nicht schneller als eine 980Ti wäre für mich R600 Reloadet.

GM200 = G80

Fiji = R600

Schnoesel
2015-05-25, 17:39:44
Wusste gar nicht dass Waküs die Grakas generell schneller machen ... :freak:

Noebbie
2015-05-25, 17:41:07
wenn kein Schwein 10% interessiert wieso hatte AMD dann mit 5870, 6970, 7970 usw immer das nachsehen am Massenmarkt? Die schnellste Karte zu haben färbt nunmal extrem aufs restliche Portfolio ab!

Die von die genannten Karte waren Bombe. Erst recht die 5870. Das war damals das non plus Ultra. Selbst die später erschienene 580 konnte da kaum mithalten. Also WTF zu deinem Post!?

-/\-CruNcher-/\-
2015-05-25, 17:42:08
Nach so einer langen Zeit wäre das eine Enttäuschung von AMD wenn das Top Modell nicht 50-60% schneller als die 290x sein wird. Die R9-290x ist mittlerweile 1 Jahre und 7 Monate alt.

Mit Wasserkühlung nicht schneller als eine 980Ti wäre für mich R600 Reloadet.

GM200 = G80

Fiji = R600

GM204=G92

das passt :)

captain_drink
2015-05-25, 17:58:10
wenn kein Schwein 10% interessiert wieso hatte AMD dann mit 5870, 6970, 7970 usw immer das nachsehen am Massenmarkt? Die schnellste Karte zu haben färbt nunmal extrem aufs restliche Portfolio ab!

Es geht um den Releasezeitpunkt. Da waren 5870 und 7970 jeweils klar die schnellsten Karten. 7970 Ghz und 290X auch, allerdings mit den entsprechenden Begleiterscheinungen (Hitze/Leistungsaufnahme).

Gekauft wurden trotzdem die 680/780 Ti, weil das Gesamtprodukt runder war und die Leistungsunterschiede minimal. Hätte man bei der 290X z.B. auf den Ubermode verzichtet, dann hätte man eine Karte mit Titan-Leistung, leisem Betrieb, dem Verbrauch der 280X und sehr gutem OC-Potenzial gehabt, was für den Ersteindruck gewiss förderlicher gewesen wäre.

Tomahawk
2015-05-25, 18:05:47
Bei Prozessoren hat AMD ja ebenfalls mit dem FX-9590 versucht, einen technologischen Rückstand durch einen deutlich höheren Stromverbrauch (inkl. serienmäßigen Wasserkühler) zu kompensieren. Ich könnte mir vorstellen, dass das bei Grafikkarten genauso ist, d.h. der Grund für den Wasserkühler ist einfach nur, dass man sonst nicht an das Leistungsziel kommt.

Schnoesel
2015-05-25, 18:07:43
Eine Ti mit 3GB war nie ein rundes Produkt. Es war abzusehen dass die Rohleistung nicht zum Speicher passt. Nur die Grünen habens nicht geglaubt...


PS: Ähnliches könnte mit Fiji passieren. Man wird genau darauf achten müssen für wen sich 4GB noch lohnen und welcher Preis aufgerufen wird. Aber mal abwarten...

Thunder99
2015-05-25, 18:11:22
Und es hätten dennoch einige gemekert. Wie man es macht ist es scheiße ;)

Nvidia hat ein besseres Image. Deshalb wurden mehrheitlich deren Karten gekauft. Nebenbei hätte ich jetzt durch den Umstand der GTX970 keine R9 290 gekauft hätte ich mich nicht über konkurrenzfähige Alternative erfahren!

Eine AMD ist in vielen Bereichen nicht schlechter als eine nvidia. Die Meinung vieler geht aber in eine andere Richtung... :(

Nightspider
2015-05-25, 18:19:01
AMD dies wird schon richten

Zitierst du jetzt Yoda oder was?

dildo4u
2015-05-25, 18:20:23
Eine Ti mit 3GB war nie ein rundes Produkt. Es war abzusehen dass die Rohleistung nicht zum Speicher passt. Nur die Grünen habens nicht geglaubt...

Ähm Kepler hat ganz andere Probleme wenn man die Witcher 3 und PCars Benches sieht.3GB reichen für 1080p und die Games werden allgemein immer Computelastiger,dadurch können gar keine höheren Auflösungen mehr genutzt werden.

Hier AC Unity was massig VRam frisst sauber mit einer 280X deutliche Drops auf der 285.

https://youtu.be/6yofxbWU1RU

1080p und ca 3GB für den Framebuffer das wird sich nicht großartig ändern da die Konsolen feste Specs haben.

captain_drink
2015-05-25, 18:32:41
1080p und ca 3GB für den Framebuffer das wird sich nicht großartig ändern da die Konsolen feste Specs haben.

Yep, deshalb hatte jeder 2013 noch dieselbe VRAM-Menge wie 2007 im System.:facepalm:

Mancko
2015-05-25, 18:39:54
Bei Prozessoren hat AMD ja ebenfalls mit dem FX-9590 versucht, einen technologischen Rückstand durch einen deutlich höheren Stromverbrauch (inkl. serienmäßigen Wasserkühler) zu kompensieren. Ich könnte mir vorstellen, dass das bei Grafikkarten genauso ist, d.h. der Grund für den Wasserkühler ist einfach nur, dass man sonst nicht an das Leistungsziel kommt.

Das wäre dann aber sehr problematisch. Auf Wasserkühlungen hat AMD kein Monopol, sprich wenn die Konkurrenz auch darauf umsattelt, dann wäre man ja wieder hinten dran. Das wäre m.E. zu wenig und würde nicht reichen um eine Wende herbeizuführen.

OBrian
2015-05-25, 18:42:24
Es werden zunehmend 4K-Monitore in den Markt gedrückt, die müssen doch irgendwie gefüttert werden. Und die Konsolen sind kein Argument, denn die sind von Anfang an schon absichtlich so schwach, daß sich der PC-Markt viel mehr davon abkoppelt als es vor einigen Jahren noch war, wo immer gelabert wurde, PC-Gaming sei tot.

dildo4u
2015-05-25, 18:56:09
Ihr müsst nicht in dieser Realität leben warum muss Chris Roberts Geld von Fans sammeln?Weil kein normaler Publisher extra Kontent für den PC erstellen will.Konsole gibt vor auf welchem Level sich der Kontent die nästen 5 Jahre bewegt,genau so wie es letzte Gen war.GTA5 hat irgendwas in Richtung 45 Einheiten Mio verkauft bevor die PC Version veröffentlicht wurde,daran sieht man wo die Kohle gemacht wird.

Knuddelbearli
2015-05-25, 19:00:43
Die von die genannten Karte waren Bombe. Erst recht die 5870. Das war damals das non plus Ultra. Selbst die später erschienene 580 konnte da kaum mithalten. Also WTF zu deinem Post!?

Tja das sind ja meine Worte, und trotzdem wurde auch damals vor allem NV gekauft

mironicus
2015-05-25, 19:07:27
Es werden zunehmend 4K-Monitore in den Markt gedrückt, die müssen doch irgendwie gefüttert werden.

Ja, und vor allem mit Freesync.
http://geizhals.de/?cat=monlcd19wide&xf=5848_AMD+FreeSync+%28Adaptive-Sync%29~3856_3840#xf_top

Immerhin schon 6 Stück die in den nächsten Wochen ausgeliefert werden, passend zum Fiji-Release. :)

Und wieviel 4K-Displays mit GSync gibt es...?
http://geizhals.de/?cat=monlcd19wide&xf=5848_NVIDIA+G-Sync~3856_3840#xf_top

Ein Acer.... *Schnüff*. X-D

Thunder99
2015-05-25, 20:18:28
Ihr müsst nicht in dieser Realität leben warum muss Chris Roberts Geld von Fans sammeln?Weil kein normaler Publisher extra Kontent für den PC erstellen will.Konsole gibt vor auf welchem Level sich der Kontent die nästen 5 Jahre bewegt,genau so wie es letzte Gen war.GTA5 hat irgendwas in Richtung 45 Einheiten Mio verkauft bevor die PC Version veröffentlicht wurde,daran sieht man wo die Kohle gemacht wird.
GTA5 ist ein schlechter Vergleich. Es kam zuerst auf der Konsole raus und wer kauft sich das Spiel 2x wenn man beide hat?

The Witcher 3 ist da besser und da wird sich zeigen wie das Verhältnis ist.

StefanV
2015-05-25, 20:18:47
Nun, da könnte man jetzt durchaus befürchten, dass alle (oder sehr viele) Monitore, die über DP verfügen und jetzt erscheinen werden, über Freesync verfügen könnten.

Die Frage ist nur, wieviel Aufpreis die Chiphersteller dafür nehmen werden. Für 50cent oder so, wird man das ganz sicher gerne mitnehmen, auch wenns eigentlich niemand wirklich braucht/nutzen möchte...
Ist halt ein Feature, das man auf die Packung schreiben und bewerben kann ;)
Wenns nichts oder wenig kostet, nimmt man sowas IMMER mit.

Hübie
2015-05-25, 21:14:57
Es ist doch völlig normal dass man die Konsumentenrente abschöpft. Das geht irgendwann nicht mehr. Dann kommt halt wieder eine "Innovation".
Schade dass es hier mal wieder den Dampfer HMS Niveau gibt der dabei ist zu sinken :rolleyes:

Ich frage mich übrigens gerade wie groß die Bandbreite von ROPs bisher so war. Afaik waren dass bei Kepler auch 512 GB /s. Bei Fiji müssen Cache / ROPs ja ebenfalls enorm Durchsatzstark sein um Bandbreite auszuschöpfen. Wie ist das aktuell bei Hawaii? Afaik bringt da eine Erhöhung des Taktes wenig bis gar nichts, oder?

Sunrise
2015-05-26, 08:48:48
Es scheint als fußen die Gerüchte bzgl. der Hawaii-Rebrands und der 390 bzw. 390X-Benamung auf folgender Listung, die inzwischen aber wieder verschwunden ist:
https://vip.asus.com/forum/topic.aspx?board_id=9&model=R9390X-DC2-8GD5&SLanguage=en-us

R9390X-DC2-8GD5 (8GB GDDR5)

Es sollen also definitiv überarbeitete, gleich vom Start weg, Custom-8GB Hawaiis diverser AIBs kommen.

Mal gespannt, welche Bezeichnung Fiji bekommen wird (Fiji ist ja eigentlich nur der Codename des Chips), wenn das oben wirklich der Fall ist.

M4xw0lf
2015-05-26, 09:21:14
Es scheint als fußen die Gerüchte bzgl. der Hawaii-Rebrands und der 390 bzw. 390X-Benamung auf folgender Listung, die inzwischen aber wieder verschwunden ist:
https://vip.asus.com/forum/topic.aspx?board_id=9&model=R9390X-DC2-8GD5&SLanguage=en-us

R9390X-DC2-8GD5 (8GB GDDR5)

Es sollen also definitiv überarbeitete, gleich vom Start weg, Custom-8GB Hawaiis diverser AIBs kommen.

Mal gespannt, welche Bezeichnung Fiji bekommen wird (Fiji ist ja eigentlich nur der Codename des Chips), wenn das oben wirklich der Fall ist.
Oh mann, ich war zwei Sekunden von 8GB-Fiji überzeugt, bis ichs gerafft hab :usad:

mironicus
2015-05-26, 09:47:41
Hier gab es schon eine Meldung über die Asus-Karten die kurz aufgetaucht sind:
http://myinforms.com/en-ca/a/13351312-amd-radeon-r9-390x-spotted-without-hbm-in-an-8gb-gddr5-version/
http://wccftech.com/amd-radeon-r9-390x-hawaii-8-gb-gddr5-spotted-radeon-r9-380-tonga-r9-370-pitcairn-rebrands/

Asus R9 390X- DC2-8GD5, Asus STRIX-R9 380-OC-2GD5,Asus STRIX-R9 370-OC-4GD5,Asus STRIX-R7 360X- DC2OC2-2GD5, Asus R7 360-2GD5

R380 hat nur 2 GB? Tonga?

fondness
2015-05-26, 09:56:31
Die wollen wirklich Hawaii default mäßig mit 8GB bringen und Fiji mit 4GB?^^

HOT
2015-05-26, 09:57:45
R9 380 OEM = R9 285
R9 390 OEM = R9 290 mit 8GB
R9 390X OEM = R9 290X mit 8GB

wie oft denn noch

fondness
2015-05-26, 10:03:51
8GB macht bei Hawaii auf jeden Fall Sinn, denn die bekommt man faktisch for free was Stromverbrauch betrifft. Man muss sowieso 16 Speicherbausteine verbauen.

M4xw0lf
2015-05-26, 10:06:16
Die wollen wirklich Hawaii default mäßig mit 8GB bringen und Fiji mit 4GB?^^
Das wäre schon enorm unsinnvoll. Allerdings wird Fiji ja außerhalb des restlichen Portfolios gestellt, und nicht als R9 3xx gebrandet...

basix
2015-05-26, 10:17:04
Das wäre schon enorm unsinnvoll. Allerdings wird Fiji ja außerhalb des restlichen Portfolios gestellt, und nicht als R9 3xx gebrandet...

Evtl. ist Fiji ja gar nicht 1x550mm2 sondern 2x300mm2 und sie pappen 2x4 Stacks dran ;D So à la Tonga x2 ohne GDDR5 Controller (andere Speku: Tonga hat GDDR5 und HBM Interface, dann könnten 300mm2 gut hinkommen). Ist ja auch ihr VR Zugpferd, wo ja immer der Vorteil von Dual-GPUs erwähnt wird und so ;)

Man darf ja wohl noch hoffen :)

Edit: 380 oder Tonga mit 2GB, höre ich da HBM klingeln? ;D

Topha
2015-05-26, 10:23:23
Das wäre schon enorm unsinnvoll. Allerdings wird Fiji ja außerhalb des restlichen Portfolios gestellt, und nicht als R9 3xx gebrandet...

Auch nicht weniger sinnvoll als R9-370 mit 4GB und R9-380 mit 2GB :rolleyes:

Wer oder was entscheidet sowas (falls es stimmt)? Eventuell ist ja Teil des Gameworks Masterplans, die Entscheidungsetage bei AMD zu unterwandern ;D

Flusher
2015-05-26, 11:00:22
Ihr müsst nicht in dieser Realität leben warum muss Chris Roberts Geld von Fans sammeln?Weil kein normaler Publisher extra Kontent für den PC erstellen will.Konsole gibt vor auf welchem Level sich der Kontent die nästen 5 Jahre bewegt,genau so wie es letzte Gen war.GTA5 hat irgendwas in Richtung 45 Einheiten Mio verkauft bevor die PC Version veröffentlicht wurde,daran sieht man wo die Kohle gemacht wird.

http://www.4players.de/4players.php/spielinfonews/PC-CDROM/28862/2149333/Grand_Theft_Auto_5-Verkaufszahlen_der_PC-Version_uebertreffen_Erwartungen.html

Öh ja - PC Gaming ist tot. Klar...

Flusher
2015-05-26, 11:03:40
Ja, und vor allem mit Freesync.
http://geizhals.de/?cat=monlcd19wide&xf=5848_AMD+FreeSync+%28Adaptive-Sync%29~3856_3840#xf_top

Immerhin schon 6 Stück die in den nächsten Wochen ausgeliefert werden, passend zum Fiji-Release. :)

Und wieviel 4K-Displays mit GSync gibt es...?
http://geizhals.de/?cat=monlcd19wide&xf=5848_NVIDIA+G-Sync~3856_3840#xf_top

Ein Acer.... *Schnüff*. X-D

Wer will den ernsthaft mit solchen 60 Hz Gurken zocken? Gibt es überhaupt 4K Monitore mit 120 Hz? Schafft das überhaupt DP oder HDMI?