PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 [25] 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56

HOT
2015-05-20, 00:07:42
Dann bleibt ein Namensfeld übrig. Das macht keinen Sinn. Hawaii muss im Retail 380 sein, das geht nicht anders. Du kannst keine neue Serie downgraden.

Nakai
2015-05-20, 00:22:41
Hawaii wir R9 390X und Fiji "Titan-Slayer". Es wird genauso kommen...;)

Schaffe89
2015-05-20, 00:46:23
Das wäre aber schlechtes Marketing von AMD, da werden sich viele wieder aufregen.

iuno
2015-05-20, 00:59:59
@HOT: verstehe dein Problem nicht. Was soll übrig bleiben? 370 -> Pitcairn (evtl überarbeitet?), 380 -> Tonga, 390 -> Hawaii. Fiji heißt dann z.B. Radeon Zeus o.ä.:P

Screemer
2015-05-20, 01:01:03
Genau Zeus, Schlächter der Titanen ;D

iuno
2015-05-20, 01:03:49
:D

Davon, dass Fiji aus dem 'Nummernschema' rausgenommen wird, haben wir aber vor einiger Zeit (und schon öfter) gesprochen:freak:

basix
2015-05-20, 01:11:24
Genau Zeus, Schlächter der Titanen ;D

Und da es zwölf olypmische Götter gibt sind es auch 12 GByte VRAM :freak:

gedi
2015-05-20, 01:31:20
Ist es eigentlich nicht sche***egal wie das Teil heißt (außer vielleicht "Radeon Bohlen 8GB Pop(po)-Titan WCE-Edition - das wäre mal wirklich komisch)?

chetigol
2015-05-20, 06:44:22
Abgesehen vom Namen, vielleicht wird ja nach AMDs tollen Speicheroptimierungen soetwas wie ein Speicher-Performancerating eingeführt. Zeus 12GB+

Thunder99
2015-05-20, 07:44:15
Hat doch nvidia auch gemacht, gut mit neuer GPU aber dennoch nur minimal schneller als die direkten Vorgänger 780(Ti) vs 980.

Wenn das stimmt und es so kommen wird muss 1. Fiji 8GB haben (was anderes Treiber hin oder her wäre zu übel) und die Reviews müssen es richten und entsprechend Druck machen (wie manche es bei der GTX970 gemacht haben).

3. Theorie: gezielte Falschinformationen von der Konkurrenz

Spasstiger
2015-05-20, 08:21:28
Woher kommt eigentlich der Optimismus bei Einigen, dass Fiji XT eine Titan X schlagen kann. Im günstigsten Fall sehen wir die doppelte Performance einer Radeon R9 285 oder 35% schneller als eine Radeon R9 290X. Aber selbst das würde trotz HBM-Vorteile einen neuen Negativrekord bei der Leistungsaufnahme bedeuten.
Nach den aktuellen Informationen von AMD liefert HBM eine Speicherbandbreite von 35 GB/s pro Watt, der GDDR5-Speicher auf einer R9 290X nur 10,66 GB/s: http://www.computerbase.de/2015-05/radeon-r9-390-x-amd-spricht-ueber-den-hbm-grafikspeicher-von-fiji/. Umgemünzt auf die erwartete Bandbreite von 512 GB/s bei Fiji und die bekannten 320 GB/s der R9 290X betragen die Leistungsaufnahmen des Speichers knapp 15 Watt bei Fiji und 30 Watt bei der R9 290X. Die Ersparnis von 15 Watt reicht sicher nicht, um 4096 SPs statt 2816 SPs bei identischen Taktraten und ähnlicher Leistungsaufnahme zu betreiben. Die Wakü wird wohl kein Gimmick, sondern eher eine Notwendigkeit.

robbitop
2015-05-20, 08:21:31
Witzig - und beim 970er Speicherkrüppel war es angeblich nicht so schlimm.
Es ist eine Frage der Maßstäbe. GM204 ist ein Midrangeprodukt von 2014. Fijii soll aber ein Konkurrenzprodukt zu GM200 - also einem High Endprodukt werden.

Für Midrange sind 3,5...4 GiB ok. Da ist der Preis geringer und die Puste gar nicht ausreichend für 4/5K in den neusten Spielen. Performance und VRAM muss man schon im Kontext sehen.

Nur muss man nicht für die 0,8% 8K Verrückten die eine Diashow mit ihrer Grafikkarte veranstallten in alle Grafikkarten 8 oder 12gb verbauen.
Wenn man mehr haben will sollen die Spiele gefälligst Split-Frame-Rendering (SFR) bei Multi-GPU-Konfigurationen einrichten, dann hat man seine 8gb, 12gb oder gar 16gb.
Fijii = GM200 Konkurrent. Und da kommt man in Performanceregionen, in denen auch VRAM wichtig wird. Mehr als 4 GiB.

SFR spart nicht all zu viel VRAM. Außerdem skaliert es lausig. Je komplexer die Spieleengine ist desto lausiger, weil verdammt viele Daten hin und her geschoben werden müssen.

-> und auch da bist du wieder bei Hätte Hätte. SFR gibt es in der Realität bei quasi keinem relevanten aktuellen Titel der Performance braucht.


Am Ende könnt ihr da rumlamentieren wie ihr wollt. Für ein aktuelles High End Produkt ist 4 GiB VRAM einfach zu wenig. So eine Karte soll auch gern mal 2 Jahre halten. Wenn sie heute schon in den meisten Spielen an der Kotzgrenze ist...

Dawn on Titan
2015-05-20, 08:35:12
Was mich so richtig ankotzt sind die versprochenen Speicheroptimierungen. Es es ist ja nicht so, dass Tonga Pro 2GB die nicht schon gestern gebrauchen könnte.

iuno
2015-05-20, 08:38:01
@Spasstiger: das SI braucht mehr, als der eigentliche Speicher selbst, die 30 Watt kannst du also locker mal verdoppeln. Zudem ist Fiji nicht einfach ein aufgeblasener Hawaii

M4xw0lf
2015-05-20, 08:45:23
Woher kommt eigentlich der Optimismus bei Einigen, dass Fiji XT eine Titan X schlagen kann. Im günstigsten Fall sehen wir die doppelte Performance einer Radeon R9 285 oder 35% schneller als eine Radeon R9 290X.
Nach welcher Mathematik denn das? 4096 SPs macht im Normalfall 2x285+15%, bzw 290X+45%.

robbitop
2015-05-20, 08:46:52
Hawaii wohl R9 390, Fiji bekommt ein TITAN-Äquivalentes-Branding:
http://www.sweclockers.com/nyhet/20510-amd-radeon-fiji-blir-haloprodukt-for-lyxlirare-och-entusiaster
IMO schlau und legitim. Hat NV ja auch gemacht.

M4xw0lf
2015-05-20, 08:47:50
IMO schlau und legitim. Hat NV ja auch gemacht.
Adieu, Hoffnung auf eine Normalisierung der Preise von Highend-Grafikkarten.

Spasstiger
2015-05-20, 08:50:46
Nach welcher Mathematik denn das? 4096 SPs macht im Normalfall 2x285+15%, bzw 290X+45%.
Das würde Taktraten über 1 GHz voraussetzen.

robbitop
2015-05-20, 08:50:59
Es wäre dumm von AMD jetzt wieder die Preise kaputt zu machen. AMD muss jetzt Geld verdienen - sonst gibt es bald keinen Gegenspieler mehr. Und dann wird Innovation in noch kleineren Salamihäppchen für noch höhere Preise verkauft.

M4xw0lf
2015-05-20, 08:53:23
Das würde Taktraten über 1 GHz voraussetzen.
Indeed.

Tarkin
2015-05-20, 08:54:45
Ein äußerst trauriges Schauspiel was hier geboten wird...

Mich KOTZT dieses Gejammere im Vorfeld der Veröffentlichung dermaßen an :mad:

Hauptsache alle machen sich wichtig - Leute IST EUCH FAD? Könnt ihr nicht noch 2 Wochen warten bis AMD die Katze aus dem Sack lässt?????

M4xw0lf
2015-05-20, 08:56:39
Könnt ihr nicht noch 2 Wochen warten bis AMD die Katze aus dem Sack lässt?????
Neien :freak:

Disco_STFU
2015-05-20, 09:01:19
Auf der Computex werden sie doch lediglich GEZEIGT. Von Specs war doch da nie die Rede oder? :tongue::eek:

X.Perry_Mental
2015-05-20, 09:05:06
Woher kommt eigentlich der Optimismus bei Einigen, dass Fiji XT eine Titan X schlagen kann. Im günstigsten Fall sehen wir die doppelte Performance einer Radeon R9 285 oder 35% schneller als eine Radeon R9 290X. Aber selbst das würde trotz HBM-Vorteile einen neuen Negativrekord bei der Leistungsaufnahme bedeuten... [snip]

So wie ich das mirbekommen habe, braucht die R9 M295X im iMac [TongaXT, 4GB] um die 130W. Wenn Fiji jetzt grob ein doppelter Tonga mit weniger Verbrauch durch HBM-Speicher ist, sehe ich da keinen neuen Negativrekord kommen. Es fragt sich doch eher, wie man Fiji positioniert, was dafür an Takt gebraucht wird und wie weit das dann vom Verbrauchs-Optimum entfernt ist.

dargo
2015-05-20, 09:05:08
Ein äußerst trauriges Schauspiel was hier geboten wird...

Mich KOTZT dieses Gejammere im Vorfeld der Veröffentlichung dermaßen an :mad:

Hauptsache alle machen sich wichtig - Leute IST EUCH FAD? Könnt ihr nicht noch 2 Wochen warten bis AMD die Katze aus dem Sack lässt?????
Ich finds auch lustig. :tongue:

Für viele ist Fiji wohl die letzte Hoffnung. Wenn Fiji floppt muss ich mir wohl den Plan mit Freesync @1440p für 2015 von den Backen putzen. Dann heißt es leider bis 2016 warten. :usad:

Grestorn
2015-05-20, 09:06:37
Wenn Fiji floppt muss ich mir wohl den Plan mit Freesync für 2015 von den Backen putzen. Dann heißt es leider bis 2016 warten. :usad:

Manchmal können Prinzipien schon echt frustrierend sein, gell? :)

dargo
2015-05-20, 09:10:46
Manchmal können Prinzipien schon echt frustrierend sein, gell? :)
Ach was... noch ist alles im grünen Bereich. Bei G-Sync gibts eh keinen Monitor der mich überzeugt bisher. Sollte irgendwann ein brauchbarer VA kommen wirds langsam schwierig. Zudem haben wir Sommer vor der Tür. Alles noch easy. ;) Und wenn ich ehrlich bin ist das Jahr 2015 was das Spieleangebot angeht das langweiligste seit langem. Von daher fällt das Warten noch nicht ganz so schwer.

Hübie
2015-05-20, 09:20:39
Wie kommt eigentlich jeder gleich darauf dass bei zu wenig VRAM PCIE-Bandbreite limitiert? Man kann auch einfach neu hochladen. Der Logik zufolge müsste die dann ja IMMER limitieren, da auch beim ersten Laden alles über den PCIE-Bus auf die GPU kommt.
4 GB könnten durchaus konkurrenzfähig sein, nur halte ich die Bandbreite für zu konservativ angesetzt. Ich bin sehr sehr gespannt wie die Yields und vor allem Bins sind. Ich tippe auf 1000 MHz. Plus, Minus 50. Hawaii verbraucht eigentlich deshalb soviel weil ne Menge Daten oft umkopiert und verschoben werden. Das ist, nachdem was ich jetzt so in der ISA gelesen habe, ein sehr guter HPC-Chip der sehr flexibel ist (Lob an die Doku übrigens). Zum Spielen ist man damit aber eher nicht so gut gefahren.

iuno
2015-05-20, 09:48:11
Verstehe nicht, was du meist. Beim ersten Laden bist du im Ladebildschirm, da macht es nichts. Wenn auf Dauer (in einer Szene) mehr als 4 GiB gebraucht werden, muss die Grafikkarte aber immer während dem rendern auf Daten aus dem langsamen Arbeitsspeicher warten

Hübie
2015-05-20, 09:53:05
Bitte? :| Texturen werden gestreamt. Oder meinst du beim Ladebildschirm von The Witcher 3 werden 8 Gigabyte Texturdaten auf Verdacht geladen?

Thunder99
2015-05-20, 09:59:58
Ihr verwechselt da was gewaltig. Es ist ein Unterschied ob die GPU Daten anfordert die im VRAM liegen (da diese vorliegen sollen) oder ob die GPU Daten verlangt die vorliegen sollen es aber nicht sind da der VRAM zu klein ist. Wenn also Daten im voraus in den VRAM geladen werden zum vorhalten ist die Bandbreite mehr als genug von PCI-E

Pirx
2015-05-20, 10:02:10
Die großen Experten vom 3DCenter sind wieder unterwegs:lol:
Natürlich werden jede Menge/möglichst viele Texturen im VRAM gehalten, dazu ist er schließlich da.

Hübie
2015-05-20, 10:02:24
Richtig. Und wenn du swapping in den DRAM unterbindest "umgehst" du das Problem. Alles bis 800 MB kann noch ziemlich verzögerungsfrei angefordert werden.

@Pirx: Macht nur keinen Sinn mehr zu allozieren als vorhanden :P

derF
2015-05-20, 10:07:42
800 MB mit voller PCI-E 3.0 x16 Bandbreite nur zu übertragen dauert schon 50,8 ms. Das ist nicht "ziemlich verzögerungsfrei".

iuno
2015-05-20, 10:14:05
Zumal das dann ja jeden Frame gemacht werden muss, außer man schmeißt was anderes aus dem VRAM, was dann halt im nächsten Schritt wieder langsam kommt. Daher habe ich auch geschrieben "Wenn auf Dauer (in einer Szene) mehr als 4 GiB gebraucht werden". Das ist ja gerade das Problem.
Man sieht doch schon immer, was passiert, wenn zu wenig VRAM da ist. Daher verstehe ich auch nicht, wie du das jetzt schönreden willst. Bei der 970 ist es ja ein ähnliches Problem, nur dass selbst der langsame Teil des Speichers immer noch schneller ist, als vom RAM über PCIe zu schicken (dass bei der 970 nicht beide Speicherpartitionen gleichzeitig angefordert werden können jetzt mal außen vor gelassen) und trotzdem hat sie derbe Einbrüche. Was auch nett anzusehen ist, sind Vergleiche von älteren Karten, die vielleicht gleich viel Rohleistung aber nur halb so viel Speicher haben als andere (meistens hatte ja NV weniger Speicher) und daher in neueren Spielen viel stärker einbrechen.

Ailuros
2015-05-20, 10:15:22
Ein äußerst trauriges Schauspiel was hier geboten wird...

Mich KOTZT dieses Gejammere im Vorfeld der Veröffentlichung dermaßen an :mad:

Hauptsache alle machen sich wichtig - Leute IST EUCH FAD? Könnt ihr nicht noch 2 Wochen warten bis AMD die Katze aus dem Sack lässt?????

Wobei wir wohl auch Deine eigenen rein sachlichen und ernsthaften Beitraege zum Thema vermissen. Ueber etwas zu meckern, nur um etwas zum meckern zu haben und sonst nichts beitragen macht Dich auch nicht unbedingt besser.

fondness,

Ich waere verdammt ueberrascht wenn AMD eine solche brutale Bandbreiten-steigerung hat und der chip mit DP am Ende nichts besonderes liefern kann. Es wuerde auch u.a. heissen dass es womoeglich eine bessere Idee ist Hawaii fuer noch eine Runde fuer HPC zu benutzen.

Bei einem hypothetischen 1:2 ratio fuer FP64 hat Fiji einen ziemlich sehenswerten Vorsprung gegenueber Intel's KNL und NV's Pascal; es waere eine Schande wenn sie dieses mit Absicht uebersehen haben.

Im Gegenfall - wie schon mal erwaehnt - kann mich keiner ueberzeugen dass die Notwendigkeit fuer Bandbreite selbst im high end so schlagartig ueber Nacht in 3D gewachsen ist oder wachsen wird.

Triskaine
2015-05-20, 10:23:02
Bei 4 GiB RAM braucht man keine HPC Ambition zu haben, ein 1:2 DP Ratio wäre dann eine Verschwendung kostbarer Fläche. Ich hoffe AMD hat wirklich bloß Tonga aufgedoppelt, alles andere wäre zuviel Aufwand für einen Notnagel wie Fiji.

Hübie
2015-05-20, 10:23:51
800 MB mit voller PCI-E 3.0 x16 Bandbreite nur zu übertragen dauert schon 50,8 ms. Das ist nicht "ziemlich verzögerungsfrei".

800 MB ist der Pool... Egal lassen wir das! Seht einfach was in ein paar Wochen herauskommt :P

@Ailuros: Mit 4 GB brauchst nicht im HPC ankommen. Meine ein AMD'ler nicht auch dass man sich wieder näher an der Basis (Gamer) bewegen wird mit dem was da kommt? Ich bekomme den Wortlaut nicht mehr hin.

fondness
2015-05-20, 10:24:28
Bei 4 GiB RAM braucht man keine HPC Ambition zu haben, ein 1:2 DP Ratio wäre dann eine Verschwendung kostbarer Fläche. Ich hoffe AMD hat wirklich bloß Tonga aufgedoppelt, alles andere wäre zuviel Aufwand für einen Notnagel wie Fiji.

Gebe es da nicht HBM2, das womöglich schon zum Jahresende bereit steht und bis zu 32GB erlaubt.

derF
2015-05-20, 10:25:09
Was auch nett anzusehen ist, sind Vergleiche von älteren Karten, die vielleicht gleich viel Rohleistung aber nur halb so viel Speicher haben als andere (meistens hatte ja NV weniger Speicher) und daher in neueren Spielen viel stärker einbrechen.
Das war bei einigen Generationen auch der Pixelshader-Leistung geschuldet, wo ATi/AMD etwas besser vorhergesehen hat, dass diese in Zukunft mehr Verwendung finden.

Thunder99
2015-05-20, 10:25:46
Die großen Experten vom 3DCenter sind wieder unterwegs:lol:
Natürlich werden jede Menge/möglichst viele Texturen im VRAM gehalten, dazu ist er schließlich da.
Was soll das??? Du glaubst doch selbst nicht das ALLE!!! Texturen geladen werden? Es werden nur die geladen die gebraucht werden. Es gibt negativ Beispiele wo mehr geladen wird als wirklich benötigt werden (Shadow of Mordor) sowie Witcher 3 wo erstklassig mit dem VRAM Verbrauch umgeht.

Wenn also Spiel X für Szene Y Z Menge gebraucht wird und diese vorhanden ist und dann in B wieder D gebraucht wird aber Y noch dargestellt wird langt die Bandbreite von PCI-E zum nachladen. Wenn aber schon in Szene Y die Menge an VRAM nicht vorhanden ist gibt es Nachladeruckler wie am Beispiel der GTX970. War das so schwer? :confused:

Hübie
2015-05-20, 10:28:26
Wobei man gerade bei Mordor selbst mit 3 GiB gut fährt obwohl ein Titan 5,8 voll ballert. Aber wozu rede ich überhaupt...? PCIE macht doch alles kaputt!! :rolleyes:

Edit: Jetzt kommt jemand bestimmt mit einem Negativbeispiel ^^

Ailuros
2015-05-20, 10:29:11
Gebe es da nicht HBM2, das womöglich schon zum Jahresende bereit steht und bis zu 32GB erlaubt.

Als Hawaii in den desktop kam glaubte auch keiner mehr dass der chip ueber mehr als 1:4 faehig ist. Anders: was im desktop zuerst vorgestellt wird ist ueberhaupt keine Indizie fuer gar nichts.

In jeglichem Gegenfall wo AMD dann auf einen FinFET Prozess gezielt hat fuer einen KNL bzw. Pascal Antwort, besteht dann eher die Moeglichkeit dass sie damit deutlich spaeter als die anderen zwei am Ende ankommt.

Hübie
2015-05-20, 10:31:43
Wenn du wieder 1:2 implementierst ohne ded FP64 brauchst halt wieder viel Register und Cache-Hierachie->Effizienz putt... Glaube irgendwie nicht daran dass Fiji groß auf DP setzt. Ist nur so ein Bauchgefühl (vielleicht muss ich auch einfach nur furzen X-D).

iuno
2015-05-20, 10:40:42
Jetzt wird es doch absurd. Was gibt es denn daran auszusetzen, dass Daten vorgeladen werden, wenn genug freier Speicher da ist? Rein gar nichts. Das machen ja auch die meisten Spiele, daher kann man an der Belegung nicht stupide den Speicherbedarf eines Spiels ablesen. Würde man alles erst zu dem Zeitpunkt wo man es braucht über PCIe schicken, würde gar nichts mehr gehen. Sicher, dass Mordor mit 3 GiB gut läuft, auf max Settings? Ich nicht. Es geht hier auch nicht um durchschnitts-FPS, das Produkt soll auch ordentliche Frametimes liefern und Nachladeruckler versauen das einfach. Aber wie gesagt, warten wir es einfach ab:P

@derF: Man sieht es aber natürlich auch anhand von unterschiedlichem Speicherausbau beim selben Chip :rolleyes:

Ailuros
2015-05-20, 10:42:16
Wenn du wieder 1:2 implementierst ohne ded FP64 brauchst halt wieder viel Register und Cache-Hierachie->Effizienz putt... Glaube irgendwie nicht daran dass Fiji groß auf DP setzt. Ist nur so ein Bauchgefühl (vielleicht muss ich auch einfach nur furzen X-D).

Das Bauchgefuehl ist durchaus gerechtfertigt, eben weil plausible Logik dahinter steckt. Das daemliche danach ist dann wohl eher wozu der ganze HBM Drang schon so "frueh".

fondness
2015-05-20, 10:44:43
Das Bauchgefuehl ist durchaus gerechtfertigt, eben weil plausible Logik dahinter steckt. Das daemliche danach ist dann wohl eher wozu der ganze HBM Drang schon so "frueh".

Weil AMD HBM dringend benötigt und deshalb wo es nur geht pushen muss. Viel weniger bei den GPUs als bei den APUs.

Dural
2015-05-20, 10:51:14
Woher kommt eigentlich der Optimismus bei Einigen, dass Fiji XT eine Titan X schlagen kann. Im günstigsten Fall sehen wir die doppelte Performance einer Radeon R9 285 oder 35% schneller als eine Radeon R9 290X. Aber selbst das würde trotz HBM-Vorteile einen neuen Negativrekord bei der Leistungsaufnahme bedeuten.
Nach den aktuellen Informationen von AMD liefert HBM eine Speicherbandbreite von 35 GB/s pro Watt, der GDDR5-Speicher auf einer R9 290X nur 10,66 GB/s: http://www.computerbase.de/2015-05/radeon-r9-390-x-amd-spricht-ueber-den-hbm-grafikspeicher-von-fiji/. Umgemünzt auf die erwartete Bandbreite von 512 GB/s bei Fiji und die bekannten 320 GB/s der R9 290X betragen die Leistungsaufnahmen des Speichers knapp 15 Watt bei Fiji und 30 Watt bei der R9 290X. Die Ersparnis von 15 Watt reicht sicher nicht, um 4096 SPs statt 2816 SPs bei identischen Taktraten und ähnlicher Leistungsaufnahme zu betreiben. Die Wakü wird wohl kein Gimmick, sondern eher eine Notwendigkeit.

Ich sage es schon seit Monaten, aber offensichtlich können die wenigsten mit dem Taschenrechner umgehen :confused:

Übrigens auch das HBM nicht das Sparwunder sein wird, wie viele Monate lang angepriesen wurde, von den selben User hört man dazu jetzt natürlich nichts mehr. :rolleyes: Die paar Watt Ersparnis werden im nirgend wo verschwinden, bei 28nm doch erst recht. Klar HBM ist der richtige schritt den man machen muss, gerade die 14/16nm GPUs werden sicher froh um die Bandbreite sein.

Was mich aber sehr erstaunt, wie so um alles in der Welt hauen die 1,3V auf den HBM? Das darüber hier noch kein einziges Wort gefallen ist finde ich Bemerkenswert.

Topha
2015-05-20, 10:57:36
AMDs Marketing Team wäre zuzutrauen das Ding Radeon FX zu nennen, da der FX Markenname ja bekannt ist :rolleyes:

Abgesehen davon, dass die fast schon unwahrschinlich wenig Details rauslassen ist für mich ein großes (allerdings auch nur mit marketingtechnischer Begründung) Indiz gegen nur 4GB die Ankündigung der 300er Karten mit 8GB. Das wäre doch sehr unklug die schwächeren Karten ohne große Not mit mehr Speicher zu bestücken als das HighEnd?

robbitop
2015-05-20, 11:01:19
Richtig. Und wenn du swapping in den DRAM unterbindest "umgehst" du das Problem. Alles bis 800 MB kann noch ziemlich verzögerungsfrei angefordert werden.

@Pirx: Macht nur keinen Sinn mehr zu allozieren als vorhanden :P
Wenn man mit 60 fps spielen will, hat man für die Berechnung des gesamten Frames 16 ms Zeit. Da kann man nicht auf Texturen warten. Alles was über den PCIe übertragen wird, kommt auf diese sagen wir mal 16 ms drauf. Zack bricht die Framerate ein.

Engines streamen heute ja schon mehr oder weniger intelligent. Da besteht sicher auch Optimierungspotenzial. Trotzdem blöd, wenn die GPU auf etwas warten muss - und das wird vorkommen. Dann stottert die Framerate.

Dawn on Titan
2015-05-20, 11:01:34
Das Bauchgefuehl ist durchaus gerechtfertigt, eben weil plausible Logik dahinter steckt. Das daemliche danach ist dann wohl eher wozu der ganze HBM Drang schon so "frueh".

Das erklärt sich fast aus ihren eigenen Techday Infos zu HBM. Ihr GDDR Speicherkontroller scheint sehr ineffektiv zu sein und frisst viel Strom. Es kann gut sein, dass man lieber direkt auf HBM ging anstatt den GDDR Speicherkontroller zu verbessern oder zu erneuern.

Sunrise
2015-05-20, 11:02:03
Weil AMD HBM dringend benötigt und deshalb wo es nur geht pushen muss. Viel weniger bei den GPUs als bei den APUs.
Inwiefern bei GPUs weniger als bei APUs? Du meinst wegen des engeren Flaschenhalses der Bandbreite der APUs, oder war das ein Verschreibär?

Das Milchmädchen und DKanter sagen, dass es im aktuellen Stadium etwa 70W für SerDes, Interface und GDDR5 sind und je mehr GDDR5, umso schlimmer wirds.

Jetzt mal noch die Flächenkosten für das fette 512bit SI einrechnen und die nötige Logik dafür und du hast auch sicher eine sehenswerte Ersparnis bei der Fläche.

HBM ist genau das, was AMD jetzt braucht, damit man konkurrenzfähig bleibt und das Risiko was sie jetzt damit eingehen wird sie auch an Erfahrung und insgesamt beim Bau der nächsten GCN-Gen reicher machen.

Zudem hat AMD jetzt mehr Druck auf der Treiberentwicklung, was sicher auch nicht so schlecht ist. Das sind alles Investitionen in die Zukunft.

robbitop
2015-05-20, 11:05:39
Wobei man gerade bei Mordor selbst mit 3 GiB gut fährt obwohl ein Titan 5,8 voll ballert. Aber wozu rede ich überhaupt...? PCIE macht doch alles kaputt!! :rolleyes:

Edit: Jetzt kommt jemand bestimmt mit einem Negativbeispiel ^^
Shadow of Mordor stockt mit Ultra Texturen selbst auf 4 GiB Karten.

Sicher wird nicht immer auch alles gebraucht - ohne Frage. Ohne Streaming wären wir heute sicher bei noch höheren VRAM Bedarfen. Und sicher besteht Optimierungsbedarf. Aber es gibt genug Fälle in der Praxis, wo die Framerate/Frametimes dadurch versaut werden.

Das ist nunmal die Realität. Vieleicht kann AMD seitens des Treibers noch nachbessern - oder vieleicht lachen sie sich gerade kaputt, weil sie uns schön an der Nase herumgeführt haben und sie verbauen entsprechend 6 oder 8 Stacks. :D

Ich finde nur, dass man sich nicht alles schönreden muss. 4 GiB sind für ein High End Produkt einfach in 2015 zu wenig.

fondness
2015-05-20, 11:06:14
Inwiefern bei GPUs weniger als bei APUs? Du meinst wegen des engeren Flaschenhalses der Bandbreite der APUs, oder war das ein Verschreibär?


Richtig, eine High-Performace-APU ist ohne HBM defacto gar nicht realisierbar. Klar bringt es für GPUs auch Vorteile, aber für APUs finde ich es ungleich spannender. CPU-Kerne benötigen mittlerweile kaum Die-Fläche, erst recht nicht in 14nm oder kleiner, da darf man sich dann schön langsam die Frage stellen wozu noch dGPUs mit getrennten Speicherpools. So ein Quad-Zen-Modul liegt inkl. L1/2/3-Cache wohl deutlich <50mm².

uweskw
2015-05-20, 11:09:04
....

Man sieht doch schon immer, was passiert, wenn zu wenig VRAM da ist. Daher verstehe ich auch nicht, wie du das jetzt schönreden willst. Bei der 970 ist es ja ein ähnliches Problem, nur dass selbst der langsame Teil des Speichers immer noch schneller ist, als vom RAM über PCIe zu schicken (dass bei der 970 nicht beide Speicherpartitionen gleichzeitig angefordert werden können jetzt mal außen vor gelassen) und trotzdem hat sie derbe Einbrüche. Was auch nett anzusehen ist, sind Vergleiche von älteren Karten, die vielleicht gleich viel Rohleistung aber nur halb so viel Speicher haben als andere (meistens hatte ja NV weniger Speicher) und daher in neueren Spielen viel stärker einbrechen.

Woran machen wir nun fest ob die Bandbreite oder der Speicher limitiert?
Ist es nicht so, dass in aktuellen spielen bei der 980er eher die Bandbreite limitiert als der Speicher?
Nur weil die Titan 6GB anzeigt, heisst das noch lange nicht, dass die auch wirklich benötigt werden.

Greetz
U.S.

mironicus
2015-05-20, 11:12:33
Ist HBM denn immer auf 4 Stacks limitiert? Was hindert AMD daran mehr als 4 GB zu verbauen? Kann ich dann nur in relativ großen Abständen HBM verbauen (4 GB, 16 GB, 32 GB)?

robbitop
2015-05-20, 11:12:50
Wenn der VRAM limitiert, sieht man das spätestens an sehr ungleichmäßigen Frametimes. Und wenn der wirklich limitiert, ist der Malus auch deutlich höher als etwas zu wenig Bandbreite.

Soweit ich weiß ist Maxwell in soziemlich allen Ausbaustufen bisher sehr gut ausbalanciert was Bandbreite angeht. Die sollte eigentlich nicht großartig limitieren.

Ist HBM denn immer auf 4 Stacks limitiert? Was hindert AMD daran mehr als 4 GB zu verbauen? Kann ich dann nur in relativ großen Abständen HBM verbauen (4 GB, 16 GB, 32 GB)?
Ggf. der Interposer. Aber wer weiß - vielleicht sind es mehr als 4 Stacks.

del_4901
2015-05-20, 11:14:09
Wenn man mit 60 fps spielen will, hat man für die Berechnung des gesamten Frames 16 ms Zeit. Da kann man nicht auf Texturen warten. Alles was über den PCIe übertragen wird, kommt auf diese sagen wir mal 16 ms drauf. Zack bricht die Framerate ein.

Engines streamen heute ja schon mehr oder weniger intelligent. Da besteht sicher auch Optimierungspotenzial. Trotzdem blöd, wenn die GPU auf etwas warten muss - und das wird vorkommen. Dann stottert die Framerate.
Milchmaedchenrechnung, toll ist es nicht, aber es gibt immernoch cache un ddie GPU ist ziehmlich gut im Latency hiding. (Irgendwann ist natuerlich auch damit Schluss)

fondness
2015-05-20, 11:14:33
Ist HBM denn immer auf 4 Stacks limitiert? Was hindert AMD daran mehr als 4 GB zu verbauen? Kann ich dann nur in relativ großen Abständen HBM verbauen (4 GB, 16 GB, 32 GB)?

AMD sagt ja selbst das auch mehr möglich wäre, wenn sie nur 4GB verbauen gehe ich schlicht davon aus, das es zu teuer wäre.

“You’re not limited in this world [die stacking world] to any number of stacks, but from a capacity point of view, this generation-one HBM, each DRAM is a two-gigabit DRAM, so yeah, if you have four stacks you’re limited to four gigabytes. You could build things with more stacks, you could build things with less stacks. Capacity of the frame buffer is just one of our concerns. There are many things you can do to utilise that capacity better. So if you have four stacks you’re limited to four [gigabytes], but we don’t really view that as a performance limitation from an AMD perspective.”

“If you actually look at frame buffers and how efficient they are and how efficient the drivers are at managing capacities across the resolutions, you’ll find that there’s a lot that can be done. We do not see 4GB as a limitation that would cause performance bottlenecks. We just need to do a better job managing the capacities. We were getting free capacity, because with [GDDR5] in order to get more bandwidth we needed to make the memory system wider, so the capacities were increasing. As engineers, we always focus on where the bottleneck is. If you’re getting capacity, you don’t put as much effort into better utilising that capacity. 4GB is more than sufficient. We’ve had to go do a little bit of investment in order to better utilise the frame buffer, but we’re not really seeing a frame buffer capacity [problem]. You’ll be blown away by how much [capacity] is wasted.”

http://arstechnica.co.uk/information-technology/2015/05/the-tech-behind-hbm-why-amds-high-bandwidth-memory-matters/2/

Hätte man mehr als 4Gb würde es allerdings wohl auch keine solche Erklärungen geben.

robbitop
2015-05-20, 11:19:11
Milchmaedchenrechnung, toll ist es nicht, aber es gibt immernoch cache un ddie GPU ist ziehmlich gut im Latency hiding. (Irgendwann ist natuerlich auch damit Schluss)
Eben - deswegen passierts ja auch nicht immer und sofort. Aber auch die beste Hitrate ist nie bei 100 %. Und dann stockt es - und das spielt sich eben schlecht.
Und klar kann man ein bisschen Wartezeit überbrücken - aber gemessen auf die 16 ms in denen alles enthalten ist, kann man auch nicht besonders lange warten, weil der Frame irgendwann fertig sein muss. Im Idealfall fehlt nur wenig und man kann 15,99 ms den Rest des Bildes machen. Dann hat man diese 15,99 ms Zeit, damit es keine Auswirkung auf die Framerate hat. Aber es wird nicht immer der Idealfall sein - und für den PCIe sind 16 ms nicht besonders viel Zeit.

Gibt allein heute schon genug Beispiele, bei denen die Framerate mit 4 GiB stockt. Wenn man heute eine Karte kauft, soll diese dann bitte auch 2 Jahre halten und nicht bei Release schon vom VRAM an der Kotzgrenze sein. Am Ende wäre es gut, wenn AMD bei Fijii mehr als 4 GiB VRAM verbaut.

fondness
2015-05-20, 11:23:49
Gibt allein heute schon genug Beispiele, bei denen die Framerate mit 4 GiB stockt. Wenn man heute eine Karte kauft, soll diese dann bitte auch 2 Jahre halten und nicht bei Release schon vom VRAM an der Kotzgrenze sein. Am Ende wäre es gut, wenn AMD bei Fijii mehr als 4 GiB VRAM verbaut.

Naja, es gibt auch noch heute Leute die kaufen sich eine GTX980 oder gar 970 bzw. 290 und die haben auch "nur" 4GB. Klar Fiji liegt da vielleicht 30-50% höher von der Performace, aber das ist jetzt auch kein Quantensprung. 4GB ist sicher die untere Grenze und gerade als Flagship wo man gerne mit großen Zahlen protzt sehr knapp, aber die 4Gb dürften nur temporär das Maximum darstellen und zumindest für die Salvage-Parts sollte das auch ausreichen.

mironicus
2015-05-20, 11:26:10
Fiji sollte man daher wohl eher als Design-Studie für HBM-Speicher ansehen... nächstes Jahr kommen dann tatsächlich die Karten mit mehr Speicher und verkleinerter Struktur, die sich schon eher lohnen.

horn 12
2015-05-20, 11:32:19
@Ailuros
Wann weisst du über die verbaute Speichermenge: 4GB HBM oder 8GB HBM bei Fiji XT?
Oder bereits so gut wie sicher die momentanen zum Launch verfügbaren "nur" 4GB HBM

uweskw
2015-05-20, 11:33:52
Wenn der VRAM limitiert, sieht man das spätestens an sehr ungleichmäßigen Frametimes. Und wenn der wirklich limitiert, ist der Malus auch deutlich höher als etwas zu wenig Bandbreite.
......



Ich kenne Nachladeruckler aufgrund Speichermangels als richtige Hänger, wo das Bild 0,5 bis 1 sec stehen bleibt. Da braucht es keine Frametime-Auswertung dazu.
Und zum "ausbalancierten Verhältnis": Eine 4GB 980er limitiert in hohen Auflösungen und AA oftmals mehr als als meine olle 3GB 780ti@1250MHz. Wird wohl an der Bandbreite liegen. - Und davon sollte Fiji wohl genug haben!

greetz
US

robbitop
2015-05-20, 11:34:22
Naja, es gibt auch noch heute Leute die kaufen sich eine GTX980 oder gar 970 bzw. 290 und die haben auch "nur" 4GB. Klar Fiji liegt da vielleicht 30-50% höher von der Performace, aber das ist jetzt auch kein Quantensprung. 4GB ist sicher die untere Grenze und gerade als Flagship wo man gerne mit großen Zahlen protzt sehr knapp, aber die 4Gb dürften nur temporär das Maximum darstellen und zumindest für die Salvage-Parts sollte das auch ausreichen.
GM204 =! GM200.

Wenn Fijii sich mit GM200 messen will, kommt man in Regionen, wo man mehr als 4 GiB brauchen wird. Da gebe ich dir Brief und Siegel drauf. Einfach weil du höhere Einstellungen fahren kannst. Eine High End GPU sollte nicht an der Kotzgrenze ausgelegt sein was den VRAM angeht.

Ehrlich - wie kann man rein objektiv überhaupt die Meinung Vertreten, dass 4 GiB für ein High End Produkt in 2015 ausreichend sind? Das ist Schönreden.

Wenn man sich gegen GM204 stellen will - ok. Aber das sollte wohl nicht das Ziel sein.

Ich kenne Nachladeruckler aufgrund Speichermangels als richtige Hänger, wo das Bild 0,5 bis 1 sec stehen bleibt. Da braucht es keine Frametime-Auswertung dazu.
Und zum "ausbalancierten Verhältnis": Eine 4GB 980er limitiert in hohen Auflösungen und AA oftmals mehr als als meine olle 3GB 780ti@1250MHz. Wird wohl an der Bandbreite liegen. - Und davon sollte Fiji wohl genug haben!

greetz
US
Das ist nicht zwangsweise so. Ein hängendes Bild für 500 - 1000 ms klingen IMO nicht nach VRAM sondern nach RAM.
Normalerweise versaut dir zu wenig VRAM die Frametimes oder es kommt zum Stocken. Aber niemals 500-1000 ms.

Timbaloo
2015-05-20, 11:34:41
Für mich (1080p@120Hz) wäre die Karte sicher ganz geil und die 4GB kein Hindernis. Aber preislich darf sie sich mit so wenig Speicher dann halt auch nicht am High-End orientieren.

Auf der einen Seite verstehe ich, dass AMD ein wenig Risiko gehen und HBM früh adaptieren muss, aber wenn sie damit in 1440p nicht klar an GM200 vorbeiziehen war das irgendwie ein Schuss in den Ofen.

[MK2]Mythos
2015-05-20, 11:37:40
Alles schön und gut. Nehmen wir also an, Fiji kann mit seinen (hypothetischen) 4GB VRAM hervorragend umgehen und bei aktuellen Spielen kommt es selbst bei den krassesten Settings nicht zu Performance-Einbrüchen. Zerrissen wird die Grafikkarte in den Medien dann trotzdem und kaufen wird sich das Ding für 700+Eur dann auch wirklich _niemand_. Mir persönlich ist AMD weitaus sympathischer und ich möchte natürlich, dass die NVIDIA/Intel auch die nächsten Jahre noch die Stirn bieten können, aber 4 GB VRAM kauft dir in der Preisklasse, in der Fiji wohl kommen wird, niemand ab. Da greif ich lieber zum Vorgänger mit 8 GB für die Hälte des Preises oder zu etwas aus dem grünen Lager. Und ich denke da bin ich nicht der Einzige.

robbitop
2015-05-20, 11:38:34
So ist es.

Thunder99
2015-05-20, 11:38:44
Dann ist nach deiner Definition alle Karten außer Titan X mit zu wenig VRAM versehen.

Ich sage es langen 4GB in 2015 außer man fährt Settings die 90% der User gar nicht kennen

robbitop
2015-05-20, 11:44:15
Dann ist nach deiner Definition alle Karten außer Titan X mit zu wenig VRAM versehen.

Blödsinn. Es gibt bspw auch 290X / 290 Karten mit 8 GiB VRAM und die alten NV Titans mit 6 GiB.

Neuere Karten wurden ja noch nicht vorgestellt.
12 GiB sind overkill. Aber 6 GiB sollten es schon sein. Mit 8 GiB hat man immerhin noch ein gewisses Polster. 4 GiB sind für eine High End Karte, die mit GM200 konkurrieren will aber zu wenig.

Ich verstehe nicht, was es an diesem einfachen Zusammenhang immer noch zu lamentieren gibt.

Und was "langt" entscheidest nicht du sondern das entscheidet die Spielerealität. Und da gibt es schon heute einige Spiele, bei denen 4 GiB knapp sind. Und wir haben es gerade mal 2015. Eine Neuanschaffung sollte 2 Jahre - also bis 2017 halten. Eine High End Karte sollte den Anspruch haben. Die Reserve ist nicht da.

Wer mit der Einstellung "reicht doch" rangeht, kauft idR kein High End.

Troyan
2015-05-20, 11:47:00
Richtig, 4GB mitte 2016 sind viel zu wenig für eine Karte, die schneller als eine GTX980 ist.

Man sieht doch schon beim GTX970/GTX980 Vergleich, dass selbst 500MB schon erhebliche Auswirkungen haben können.

dargo
2015-05-20, 11:49:37
Wenn Fijii sich mit GM200 messen will, kommt man in Regionen, wo man mehr als 4 GiB brauchen wird. Da gebe ich dir Brief und Siegel drauf. Einfach weil du höhere Einstellungen fahren kannst.
Ähm... selbst eine Titan X schafft keine 60fps durchgehend in Witcher 3 mit Hairworks @1080p. ;) Wartet erstmal paar reine Only-Current-Gen Titel ab. Dann ist es ganz schnell vorbei mir euren hohen Auflösungen. Es sei denn man möchte mit um die 30fps rumkriechen.

mironicus
2015-05-20, 11:52:12
Richtig, 4GB mitte 2016 sind viel zu wenig für eine Karte, die schneller als eine GTX980 ist.

Man sieht doch schon beim GTX970/GTX980 Vergleich, dass selbst 500MB schon erhebliche Auswirkungen haben können.

Das kannst du nicht vergleichen. Hätte die GTX 970 "ehrliche" 3,5 GB dann gäbe es die Probleme nicht. :D

[MK2]Mythos
2015-05-20, 11:53:16
Dann ist nach deiner Definition alle Karten außer Titan X mit zu wenig VRAM versehen.

Ich sage es langen 4GB in 2015 außer man fährt Settings die 90% der User gar nicht kennen

Du sagst, 4 GB reichen 2015. Da stimme ich dir weitestgehend zu. Nur kommt Fiji (mit Glück) im Juni 2015 raus. Ich weiß ja nicht wie oft du dir Grafikkarten in so einer Preisklasse kaufst, aber ich will mit so einer Anschaffung eigentlich mindestens 1 Jahr Ruhe haben und genau das wird nicht der Fall sein. 4GB VRAM reichen nächstes Jahr mit absoluter Sicherheit nicht mehr.

mironicus
2015-05-20, 11:53:21
Ähm... selbst eine Titan X schafft keine 60fps durchgehend in Witcher 3 mit Hairworks @1080p. ;) Wartet erstmal paar reine Only-Current-Gen Titel ab. Dann ist es ganz schnell vorbei mir euren hohen Auflösungen. Es sei denn man möchte mit um die 30fps rumkriechen.

Die Bremsen die NVidia da einbaut sollen dich ja auch ermutigen noch eine weitere Titan X anzuschaffen. ;D

dargo
2015-05-20, 11:55:36
Die Bremsen die NVidia da einbaut sollen dich ja auch ermutigen noch eine weitere Titan X anzuschaffen. ;D
Nein, ohne Hairworks ist die Karte auch nicht so viel schneller. Für 1440p reicht die sicherlich auch nicht durchgehend für 60fps aus, mit ansonsten max. Details.

AngelDust 32
2015-05-20, 11:55:55
Das ist nicht zwangsweise so. Ein hängendes Bild für 500 - 1000 ms klingen IMO nicht nach VRAM sondern nach RAM.
Normalerweise versaut dir zu wenig VRAM die Frametimes oder es kommt zum Stocken. Aber niemals 500-1000 ms.

http://www.computerbase.de/videos/2015-01/gtx-970-vs-gtx-980-the-talos-principle/

Der Hänger müsste ca. bei einer Minute sein
(für mehrere Sekunden Stillstand)

Mit dem Mäusekino getippt

iuno
2015-05-20, 11:56:44
Immerhin bleibt noch VR, nur schade, dass die Endkundenversion der Rift erst nächstes Jahr kommt. Sollte Fiji für VR höhere Frameraten als die TX schaffen, wäre das ein guter Pluspunkt - sofern sowas auch zum Release getestet wird :rolleyes:
Die 25%, die die Rift und iirc auch Vive mehr an Pixel haben als Full-HD ist jetzt nicht die Welt, verglichen mit 4k. Und bei VR sind höhere Bildraten eben wichtiger als sonst

Troyan
2015-05-20, 11:56:57
Das kannst du nicht vergleichen. Hätte die GTX 970 "ehrliche" 3,5 GB dann gäbe es die Probleme nicht. :D

Es sind ehrliche 3,5GB mit 224bit. ;)
Wir reden hier davon, dass eine Karte mit der doppelten Bandbreite nur soviel Speicher hat. Der Einbruch wird wesentlich stärker als auf einer GTX980 sein.

Tarkin
2015-05-20, 12:03:37
Wobei wir wohl auch Deine eigenen rein sachlichen und ernsthaften Beitraege zum Thema vermissen. Ueber etwas zu meckern, nur um etwas zum meckern zu haben und sonst nichts beitragen macht Dich auch nicht unbedingt besser.

Im Gegensatz zu anderen Usern warte ich lieber auf das fertige Produkt und bilde mir erst dann eine Meinung!

Ich wüßte nicht was ich mit dem aktuellen Wissensstand enrnsthaft beitragen könnte - Speku-Threads empfinde ich generell als ziemliche Zeitverschwendung.

Es sei denn man unterlässt alle Bewertungen und Meinungen über Infos aus diversen Quellen - sei es nun offiziell oder inoffizell.

Es regt mich einfach auf, dass ich mich jedesmal erst durch zick sinnlos Postings wühlen muss um an die aktuellen Infos zu kommen.

Solche Speku-Threads sind ein einziger riesiger Müllhaufen.

PS: Und für Foren-Mods sicher auch nicht immer einfach da die Frequenz einfach irre hoch ist... aber bitte, ist nicht mein Bier. Ist nur MEINE Meinung!

HOT
2015-05-20, 12:07:34
Dann musste Spekuthreads verbieten, das ist aber auch sinnlos ;). Einfach nicht aufregen ist die bessere Variante. Kein Posting der Welt wird was an den Tatsachen, die da geschaffen werden, verhindern/ändern.

Um bei den Spekus zu bleiben:
Wenn es eine Sezialkarte gibt, dann die WCE.
Also Fiji = 390/490(X)
und Fiji WCE = "Zeus".

Die werden sich schon die 8GB zusammengetrickst haben. Kann mir das echt nicht anders vorstellen, wenn die OEM-Hawaiis auch mit 8GB erscheinen.
Ich bin immer noch auf dem Standpunkt, dass die Retails nicht mehr 300-Serie heißen, da der Name dank der OEM-Serie "verbrannt" ist, wie bei der Geforce 800 letztes Jahr. Wir werden mit an Sicherheit grenzender Wahrscheinlichkeit im Juni eine 400-Serie sehen.

Blediator16
2015-05-20, 12:15:12
Dann musste Spekuthreads verbieten, das ist aber auch sinnlos ;). Einfach nicht aufregen ist die bessere Variante. Kein Posting der Welt wird was an den Tatsachen, die da geschaffen werden, verhindern/ändern.

Um bei den Spekus zu bleiben:
Wenn es eine Sezialkarte gibt, dann die WCE.
Also Fiji = 390/490(X)
und Fiji WCE = "Zeus".

Spektulation ist das eine rumheulen wie scheisse das Produkt ist ohne Review oder Preis ist einfach nur nervig.

BlacKi
2015-05-20, 12:23:44
Und für Foren-Mods sicher auch nicht immer einfach da die Frequenz einfach irre hoch ist... aber bitte, ist nicht mein Bier. Ist nur MEINE Meinung!

zum letzten punkt-> was machst du dann hier? das wichtigste gibts immer auf der hauptseite.

eigentlich finde ich es noch richtig aufgeräumt wenn man das hier mir CB und PCGH foren vergleicht. nicht umsonst kommen die mods von dort hierher zum diskutieren.

HOT
2015-05-20, 12:24:59
Ha, noch was gefunden:
http://www.notebookcheck.com/AMD-Radeon-R9-M370X.142762.0.html
Offenbar ist der M370X schätzungsweise ein Tobago. GCN1.2(2.0) mit 640 Shadern, Tobago ist dann ein CapVerde Refresh, wie gedacht. Soviel zu Rebrands außerhalb der bisher bekannten OEM-Serie. Leistung wohl überhalb der 750, kein Wunder bei den krass hohen Taktraten im Notebooksegment.

robbitop
2015-05-20, 12:28:56
Ähm... selbst eine Titan X schafft keine 60fps durchgehend in Witcher 3 mit Hairworks @1080p. ;) Wartet erstmal paar reine Only-Current-Gen Titel ab. Dann ist es ganz schnell vorbei mir euren hohen Auflösungen. Es sei denn man möchte mit um die 30fps rumkriechen.
Dank G-Sync brauche ich keine stabilen 60 fps. Laut den Titan X Usern hier im Forum rennt 1440p auf übertakteten TX butterweich. Zumindest mit G-Sync.

Mit ein paar Reglern zurück gehen wohl auch 4K. Sofern man mit Gamepad spielt - das ist für W3 IMO ok - braucht man auch nicht ganz so viele fps wie mit der Maus.

Thunder99
2015-05-20, 12:30:00
Mythos;10632775']Du sagst, 4 GB reichen 2015. Da stimme ich dir weitestgehend zu. Nur kommt Fiji (mit Glück) im Juni 2015 raus. Ich weiß ja nicht wie oft du dir Grafikkarten in so einer Preisklasse kaufst, aber ich will mit so einer Anschaffung eigentlich mindestens 1 Jahr Ruhe haben und genau das wird nicht der Fall sein. 4GB VRAM reichen nächstes Jahr mit absoluter Sicherheit nicht mehr.
Dachte man mit der GTX 680 auch und die kackt ja richtig ab. Aus der Perspektive gebe ich dir recht.

Ein wichtiger Punkt möchte ich dennoch erwähnen. 4GB ist immer noch enorm viel und nicht immer braucht es für eine geniale Optic diese Menge. Siehe Witcher 3. Im letzten Vergleich von CB haben gerade mal 2 Spiele wirklich mehr als 4GB gebraucht bei spielbaren Settings und Frames.

Die Titan X hat auch deshalb 12 GB weil sonst deutlich weniger die Karte kaufen würden.

Und ehrlich. Wer 2 Jahre seine Grafikkarte behält spielt nicht immer mit maximaler Optic. Schon damals versagt früher die Rechenleistung als die Menge an VRAM

Pick
2015-05-20, 12:33:12
Ha, noch was gefunden:
http://www.notebookcheck.com/AMD-Radeon-R9-M370X.142762.0.html
Offenbar ist der M370X schätzungsweise ein Tobago. GCN1.2(2.0) mit 640 Shadern, Tobago ist dann ein CapVerde Refresh, wie gedacht.

Strato XT, cut-down Tonga

M4xw0lf
2015-05-20, 12:39:11
Strato XT, cut-down Tonga
What? Who would take a 350mm² Chip and deactivate two thirds of it?

robbitop
2015-05-20, 12:39:43
Dachte man mit der GTX 680 auch und die kackt ja richtig ab. Aus der Perspektive gebe ich dir recht.

Ein wichtiger Punkt möchte ich dennoch erwähnen. 4GB ist immer noch enorm viel und nicht immer braucht es für eine geniale Optic diese Menge. Siehe Witcher 3. Im letzten Vergleich von CB haben gerade mal 2 Spiele wirklich mehr als 4GB gebraucht bei spielbaren Settings und Frames.

Die Titan X hat auch deshalb 12 GB weil sonst deutlich weniger die Karte kaufen würden.

Und ehrlich. Wer 2 Jahre seine Grafikkarte behält spielt nicht immer mit maximaler Optic. Schon damals versagt früher die Rechenleistung als die Menge an VRAM
Texturdetails kosten idR keine fps sondern "nur" VRAM. Das geht immer.

Eine High End Karte sollte den Anspruch haben, 2 Jahre zu halten. Egal wer schon vorher upgradet. 4 GiB sind für High End in 2015 nicht zeitgemäß.

Alles andere ist Schönreden.

uweskw
2015-05-20, 12:43:24
http://www.computerbase.de/videos/2015-01/gtx-970-vs-gtx-980-the-talos-principle/

Der Hänger müsste ca. bei einer Minute sein
(für mehrere Sekunden Stillstand)

Mit dem Mäusekino getippt

Richtig, genau so kenne ich das wenn VRam limitiert. :wave2:
Übrigens: Vom permanentem Ruckeln her ist die 980er keinen deut besser als die 970. Sieht man auch in den dort verlinkten Frametimes. Aber typisch für unsere Fachmagazine: Die Analyse nicht zu ende gedacht.... Wird mir sogar als Laie klar:freak:

Thunder99
2015-05-20, 12:53:45
Texturdetails kosten idR keine fps sondern "nur" VRAM. Das geht immer.

Eine High End Karte sollte den Anspruch haben, 2 Jahre zu halten. Egal wer schon vorher upgradet. 4 GiB sind für High End in 2015 nicht zeitgemäß.

Alles andere ist Schönreden.
Es geht mir generelnll um den Anspruch der Spiele.

robbitop
2015-05-20, 13:00:05
Ist aber irrelevant für's Produkt. ;)

Grestorn
2015-05-20, 13:17:10
Das ist nicht zwangsweise so. Ein hängendes Bild für 500 - 1000 ms klingen IMO nicht nach VRAM sondern nach RAM.
Normalerweise versaut dir zu wenig VRAM die Frametimes oder es kommt zum Stocken. Aber niemals 500-1000 ms.

Naja... Schon Sean Connery sagte "Sag niemals nie".

In Skyrim + Texturmods und dank der Beschränkung auf 4 GB Texturspeicher (da ENB nur 32bit ist) hat man dort an bestimmten Stellen ständig Texture-Thrashing. Und das geht locker in die Kategorie "mehrere 100ms pro Ruckler". Vielleicht nicht 1000ms, aber auch nicht so weit weg davon.

Und damit Du das nicht missverstehst, im DRAM liegen die Texturen vor, denn ENB spawnt unbegrent weitere 32bit Prozesse, um alle Texturen im Hauptspeicher halten zu können. Nur scheint das die 32-Bit Fassung der direct3d.dll nicht zu interessieren, die flushed die Texturen nämlich immer wieder raus, so bald die Gesamtmenge der Texturen über 4GB/32bit geht. Das kann man wunderbar an der VRAM Speicherauslastung nachvollziehen.

robbitop
2015-05-20, 13:19:05
Naja 100 ms sind ne Größenordnung weniger. ;)

Außerdem ist Skyrim mit all den Mods schon ein gewagter Vergleich - ist halt hart gebastelt alles. :D

horn 12
2015-05-20, 13:20:42
Könnte es nicht auch so schlussendlich kommen:

4GB HBM R9 3(4)90 ebenso der große Bruder R9 3(4)90X
Nur die R9 3(4)90X AIO dann als Titan X Konkurrent die 8GB HBM

Bis auch die HBM 2 verfügbar sein.

derF
2015-05-20, 13:21:32
Spektulation ist das eine rumheulen wie scheisse das Produkt ist ohne Review oder Preis ist einfach nur nervig.
Genau das! :up:

M4xw0lf
2015-05-20, 13:23:54
Könnte es nicht auch so schlussendlich kommen:

4GB HBM R9 3(4)90 ebenso der große Bruder R9 3(4)90X
Nur die R9 3(4)90X AIO dann als Titan X Konkurrent die 8GB HBM

Bis auch die HBM 2 verfügbar sein.
Fiji soll ja offenbar nicht ins normale Namensschema gepresst werden, sondern ein Titan-analoges Branding kriegen.
Radeon Radium? Radeon Zirkonium? Hafnium? :freak:

Pick
2015-05-20, 13:24:16
What? Who would take a 350mm² Chip and deactivate two thirds of it?

Nicht..., ich meine neue chip auf der neuen Tonga architektur :wink:

uweskw
2015-05-20, 13:27:23
Zur 4 oder 8GB Diskussion: Da haben HT4u, (wohl eine der besten Reviewseiten im Netz) im März ein recht klares Statement rausgelassen.

http://ht4u.net/reviews/2015/sapphire_radeon_r9_290x_tri-x_oc_8_gb_test/index49.php

bleibt es abermals bei unserem ursprünglich gezogenen Fazit. Eine Radeon R9 290X mit 8 GByte Hauptspeicher gewinnt gemittelt über alle Vergleiche lediglich einen mageren Prozentpunkt. In einzelnen Applikationen, welche sich der geneigte Interessent anschauen muss, erblickt man dann auch einmal einen Zuwachs von drei Prozent.

und von schlechten Framtimes ist nirgendwo die Rede. HT4u wären Nachladeruckler aufgefallen und sie wären der Sache auf den Grund gegangen.
An die X295 wird Fiji wohl nicht ganz herankommen. Die hat effektiv auch nur 4GB und ich habe bislang keinen Test gefunden in dem die 4GB limitieren. Wenn jemand so einen kennt: Immer her damit.

Mich nervt halt kolossal dieses leere gebashe.. Wo gibt es mal einen fundierten Test der aufzeigt ab wann 4GB vs 8GB wirklich limitiert? Alle wiederholen nur stur das Maketing-Geschwätz...

greetz
US

M4xw0lf
2015-05-20, 13:27:25
Nicht..., ich meine neue chip auf der neuen Tonga architektur :wink:
Ok. Also eher Tonga-Derivat statt "cut down".

Aber es gab doch gar keine Lebenszeichen von weiteren neuen Chips auf Tonga IP-Level, oder hab ich das verpasst?

robbitop
2015-05-20, 13:29:33
Könnte es nicht auch so schlussendlich kommen:

4GB HBM R9 3(4)90 ebenso der große Bruder R9 3(4)90X
Nur die R9 3(4)90X AIO dann als Titan X Konkurrent die 8GB HBM

Bis auch die HBM 2 verfügbar sein.
Oder sie verbauen mehr Stacks. Wer weiß.






--------------


Über ein konkretes Produkt wird nicht "herumgeheult". Es wird eine potenzielle Konfiguration mit 4 GiB VRAM kritisiert. Und das ist objektiv und fachlich korrekt.
Eine potenzielle Konfiguration mit höherer Menge an VRAM wird nicht kritisiert.

Nakai
2015-05-20, 13:33:07
Oder sie verbauen mehr Stacks. Wer weiß.






--------------


Über ein konkretes Produkt wird nicht "herumgeheult". Es wird eine potenzielle Konfiguration mit 4 GiB VRAM kritisiert. Und das ist objektiv und fachlich korrekt.
Eine potenzielle Konfiguration mit höherer Menge an VRAM wird nicht kritisiert.

Die Specs seitens Hbm erlauben pro Stack bis zu 8 channels. Theoretisch wäre es möglich, mehr Stacks zu verbauen, wenn genug Platz da ist. Bei Fiji wird das schwierig.

derF
2015-05-20, 13:33:23
Über ein konkretes Produkt wird nicht "herumgeheult". Es wird eine potenzielle Konfiguration mit 4 GiB VRAM kritisiert. Und das ist objektiv und fachlich korrekt.
Eine potenzielle Konfiguration mit höherer Menge an VRAM wird nicht kritisiert.
Achso? Nur ein Beispiel weil ich da so weinen/lachen musste: Dural (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10631555&postcount=5905)
Er weiß offensichtlich mehr als wir. ;)

Unicous
2015-05-20, 13:33:58
Ihr habt irgendwie schon wieder vergessen, dass man für mehr stacks auch ein größeres/breiteres SI braucht. Einfach mehr stacks verbauen is nich.

Für 6 stacks braucht man entsprechend ein 6144-Bit breites Interface, für 8 Stacks 8192-Bit.

Masmiseim
2015-05-20, 13:43:35
Ihr habt irgendwie schon wieder vergessen, dass man für mehr stacks auch ein größeres/breiteres SI braucht. Einfach mehr stacks verbauen is nich.

Für 6 stacks braucht man entsprechend ein 6144-Bit breites Interface, für 8 Stacks 8192-Bit.

Wirklich? Reicht nicht ein Bit mehr bei den Adressen? ist HBM da so viel anders als GDDR?

Pirx
2015-05-20, 13:43:40
...
Über ein konkretes Produkt wird nicht "herumgeheult". Es wird eine potenzielle Konfiguration mit 4 GiB VRAM kritisiert. Und das ist objektiv und fachlich korrekt.
Eine potenzielle Konfiguration mit höherer Menge an VRAM wird nicht kritisiert.
Nur habe ich sowas in der Penetranz ohne Kenntnis der tatsächlichen Leistungen und Hardwarekonfiguration bisher nur hier erlebt und nicht zum Beispiel bei der GTX 980/780Ti/680...

M4xw0lf
2015-05-20, 13:46:01
Ihr habt irgendwie schon wieder vergessen, dass man für mehr stacks auch ein größeres/breiteres SI braucht. Einfach mehr stacks verbauen is nich.

Für 6 stacks braucht man entsprechend ein 6144-Bit breites Interface, für 8 Stacks 8192-Bit.
Bei 8 Stacks besteht ja wohl immernoch die Möglichkeit, sie auch nur an ein 4096bit SI zu hängen. Wie auch immer das dann gelöst würde.

maguumo
2015-05-20, 13:46:41
Ihr habt irgendwie schon wieder vergessen, dass man für mehr stacks auch ein größeres/breiteres SI braucht. Einfach mehr stacks verbauen is nich.

Für 6 stacks braucht man entsprechend ein 6144-Bit breites Interface, für 8 Stacks 8192-Bit.
Da klinke ich mich nochmal kurz ein weil keiner geantwortet hatte:


Soweit ich das verstanden habe hat man was die Channel betrifft doch relativ viele Freiheiten. Wieso wurde dann eigentlich immer von 4 Stacks mit jeweils 1024DQs (also 8 Channel pro Stack) ausgegangen? Mal angenommen Hynix kann im, für den Fiji Launch, relevanten Zeitraum nur 2Gb Slices anbieten und 8Hi Stacks sind auch noch nicht möglich. Wäre die einfachste Lösung für das Problem nicht einfach 8 Stacks mit jeweils 4 Channels (1 Channel pro Slice, 512DQs pro Stack) zu verbauen? Man bräuchte "nur" einen anderen Interposer, die Änderungen an Logic Layern und Slices dürften machbar sein.

Hört sich für mich zumindest deutlich einfacher als irgendwelches Dual Link Zeugs an, weil man eben nichts neu entwickeln müsste.

[...]

Selbst wenn jetzt doch noch 8Hi Stacks bzw. 4Gb Slices kommen wäre so eine Lösung für den HPC Markt doch sicherlich auch Vorteilhaft.

Falls das hier schon diskutiert wurde, sorry.

http://puu.sh/hMOt1/e1ce66c787.png

Ich verstehe nicht viel davon, also wenn ich da irgendwelche Fehler im Gedankengang habe bitte korrigieren.

ndrs
2015-05-20, 13:49:59
Ihr habt irgendwie schon wieder vergessen, dass man für mehr stacks auch ein größeres/breiteres SI braucht. Einfach mehr stacks verbauen is nich.

Für 6 stacks braucht man entsprechend ein 6144-Bit breites Interface, für 8 Stacks 8192-Bit.
Hieß es nicht, dass jeder Slice aus zwei Channels zu je 128bit besteht, die aber auch zusammengelegt werden können? Dann könnte man je HBM nur 512bit verdrahten (ähnlich dem 16bit-Modus von GDDR5-Chips) und so 8 HBMs an 4096 bit anschließen.

Edit: Ups. Zu lange nicht refreshed.

Thunder99
2015-05-20, 13:50:30
Ihr habt irgendwie schon wieder vergessen, dass man für mehr stacks auch ein größeres/breiteres SI braucht. Einfach mehr stacks verbauen is nich.

Für 6 stacks braucht man entsprechend ein 6144-Bit breites Interface, für 8 Stacks 8192-Bit.
Stimmt, da war was wo man echt daran zweifeln kann ob mehr Stacks überhaupt sinnvoll und machbar sind (kosten-technisch)

@uweskw
kann auf die Schnelle nur den Vergleich von CB anbieten (http://www.computerbase.de/2015-05/grafikkarten-17x-amd-radeon-und-nvidia-geforce-im-vergleich/3/#abschnitt_speicherverbrauch_spiele) wo untersucht wurde ab wann der VRAM wirklich zum Problem wird.

iuno
2015-05-20, 13:54:48
Wirklich? Reicht nicht ein Bit mehr bei den Adressen? ist HBM da so viel anders als GDDR?
Wie soll das sonst bei GDDR gehen? GDDR5 Chip ist mit 32 Bit angebunden, im speziellen Clamshell-Modus kommen zwei Chips an einen 32-Bit Controller, also je Chip 16 Bit. Willst du einen GDDR5 Chip mehr verbauen, brauchst du also am Controller 32 Bit (oder 16) mehr. Bei HBM sind es halt nicht pro Chip 32 Bit sondern pro Stack 1024.

Bei 8 Stacks besteht ja wohl immernoch die Möglichkeit, sie auch nur an ein 4096bit SI zu hängen. Wie auch immer das dann gelöst würde.
Es gibt soweit ich weiß keinen "Clamshell-Modus" bei HBM. Ich könnte mir eher vorstellen, dass man 2x4 Stacks nebeneinander auf ein Logik-die packt (das Basiselement ganz unten am Stack), das deckt sich vielleicht mit den vielleicht-fake-oder-vielleicht-auch-nicht-Folien mit dual-link-interposing aber das ist imho auch schon sehr weit hergeholt. Am einfachsten wäre es natürlich immer noch, Hynix würde 4 Gb Slices liefern können :ugly:

Leonidas
2015-05-20, 13:58:42
Ha, noch was gefunden:
http://www.notebookcheck.com/AMD-Radeon-R9-M370X.142762.0.html
Offenbar ist der M370X schätzungsweise ein Tobago. GCN1.2(2.0) mit 640 Shadern, Tobago ist dann ein CapVerde Refresh, wie gedacht. Soviel zu Rebrands außerhalb der bisher bekannten OEM-Serie. Leistung wohl überhalb der 750, kein Wunder bei den krass hohen Taktraten im Notebooksegment.



Da noch nicht einmal die Anzahl der Shader-Einheiten *sicher* bekannt ist ("man geht von 640 aus"), wäre ich vorsichtig, hier schon etwas herauslesen zu wollen. Schön wäre es trotzdem, wenn AMD mal Cape Verde und Pitcairn ablösen kann.

Nakai
2015-05-20, 13:59:24
Stimmt, da war was wo man echt daran zweifeln kann ob mehr Stacks überhaupt sinnvoll und machbar sind (kosten-technisch)

@uweskw
kann auf die Schnelle nur den Vergleich von CB anbieten (http://www.computerbase.de/2015-05/grafikkarten-17x-amd-radeon-und-nvidia-geforce-im-vergleich/3/#abschnitt_speicherverbrauch_spiele) wo untersucht wurde ab wann der VRAM wirklich zum Problem wird.

Ich hab die Specs vor mir liegen. Channels sind völlig unabhängig voneinander. Es gibt jedoch verdammt viele Möglichkeiten, das Speichervolumen zu skalieren, ebenso die Speicherbandbreite.

Pro Stack können es bis zu 8 Channels sein.
Jeder Channel kann verschiedene Speichergrößen ansprechen. 1, 2, 4 Gb pro Channel. Die Skalierung ist ziemlich interessant. Der Logic/Base-Die ist optional.

maguumo
2015-05-20, 13:59:41
Bei HBM sind es halt nicht pro Chip 32 Bit sondern pro Stack 1024.

Bis zu 1024 DQs, also bis zu 8 Channel. So wie ich die Spezifikation verstehe geht aber auch weniger.

dargo
2015-05-20, 14:05:07
Dank G-Sync brauche ich keine stabilen 60 fps. Laut den Titan X Usern hier im Forum rennt 1440p auf übertakteten TX butterweich. Zumindest mit G-Sync.

Mit ein paar Reglern zurück gehen wohl auch 4K. Sofern man mit Gamepad spielt - das ist für W3 IMO ok - braucht man auch nicht ganz so viele fps wie mit der Maus.
Immer diese Ausreden. ;) Du kennst meinen Standpunkt zu manchen Meinungen hier im Forum was flüssig bedeutet. Und daran wird sich auch nichts ändern. :) Überlege mal wieviele Spieler auf der ganzen Welt eine Titan X und vorallem einen G-Sync Bildschirm haben. Das dürften noch weniger sein als SLI/CF User. In einer Sache stimme ich dir aber zu. Mit G-Sync/Freesync bräuchte ich auch nicht unbedingt durchgehende 60fps. Selbst ohne VRR komme ich bei manchen Games mit 50fps @50Hz noch ganz gut klar. Wie zb. Watch Dogs. Logisch... mit VRR ohne die Inputnachteile von Vsync ist es natürlich noch besser.

Unicous
2015-05-20, 14:10:09
@ndrs

Theoretisch geht das, na klar. Aber warum willst du das im konkreten Fall machen? (SK hynix hat das iirc auch erst für Gen2 vorgesehen.)

Aber irgendwie bin ich gerade verwirrt.

Gipsel und andere haben über mehrere Seiten dargelegt, dass es im Moment einfach nicht anders geht: man kann nur 4 Stacks auf den Interposer unterbringen, es ist einfach kein Platz für sechs oder mehr Chips, wenn auch noch ein 500mm²+ Chip Platz finden soll. Der Interposer ist auf Grund der Beschränkungen bei der Fertigung nur etwas über 832? mm² groß. Mit Versatz

Auf einmal soll es möglich sein, die stacks auf dem Interpsoer zu verdoppeln?

Thunder99
2015-05-20, 14:14:34
Gibts nen Test mit G-Sync und oder Freesync und der Frametime die gemessen wurde?

uweskw
2015-05-20, 14:17:09
Stimmt, da war was wo man echt daran zweifeln kann ob mehr Stacks überhaupt sinnvoll und machbar sind (kosten-technisch)

@uweskw
kann auf die Schnelle nur den Vergleich von CB anbieten (http://www.computerbase.de/2015-05/grafikkarten-17x-amd-radeon-und-nvidia-geforce-im-vergleich/3/#abschnitt_speicherverbrauch_spiele) wo untersucht wurde ab wann der VRAM wirklich zum Problem wird.

Zeigt auch keinen Nutzen von mehr als 4GB auf.
CB kommt heut echt nicht gut weg: Null Aussagekraft, wir sehen nur, dass eine Karte mit mehr Speicher in der gleichen Situation auch mehr Speicher belegt. Auch wenn es offensichtlich nicht nötig ist. Z.B. unter 1920x1080.

greetz
US

robbitop
2015-05-20, 14:17:50
Nur habe ich sowas in der Penetranz ohne Kenntnis der tatsächlichen Leistungen und Hardwarekonfiguration bisher nur hier erlebt und nicht zum Beispiel bei der GTX 980/780Ti/680...
780 Ti ist 2013.
980 ist Midrange - Herbst 2014.

Fijii ist GM200 Konkurrent also High End. Und das Mitte 2015.

Wie oft noch?

----------

Wer sich immer noch fragt, wo es vorkommt, dass 4 GB limitieren: Shadows of Mordor, AC:U und Watchdogs z.B.
Und das wird sicher in den nächsten 2 Jahren nicht weniger.

maguumo
2015-05-20, 14:19:46
@ndrs

Theoretisch geht das, na klar. Aber warum willst du das im konkreten Fall machen? (SK hynix hat das iirc auch erst für Gen2 vorgesehen.)

Aber irgendwie bin ich gerade verwirrt.

Gipsel und andere haben über mehrere Seiten dargelegt, dass es im Moment einfach nicht anders geht: man kann nur 4 Stacks auf den Interposer unterbringen, es ist einfach kein Platz für sechs oder mehr Chips, wenn auch noch ein 500mm²+ Chip Platz finden soll. Der Interposer ist auf Grund der Beschränkungen bei der Fertigung nur etwas über 832? mm² groß. Mit Versatz

Auf einmal soll es möglich sein, die stacks auf dem Interpsoer zu verdoppeln?

Kannst du mal ne grobe Orientierung geben wo im Thread das ungefähr war? Wurde mich interessieren, nur will ich nicht unbedingt 300 Seiten durchsuchen...

robbitop
2015-05-20, 14:19:49
Immer diese Ausreden. ;) Du kennst meinen Standpunkt zu manchen Meinungen hier im Forum was flüssig bedeutet. Und daran wird sich auch nichts ändern. :) Überlege mal wieviele Spieler auf der ganzen Welt eine Titan X und vorallem einen G-Sync Bildschirm haben. Das dürften noch weniger sein als SLI/CF User. In einer Sache stimme ich dir aber zu. Mit G-Sync/Freesync bräuchte ich auch nicht unbedingt durchgehende 60fps. Selbst ohne VRR komme ich bei manchen Games mit 50fps @50Hz noch ganz gut klar. Wie zb. Watch Dogs. Logisch... mit VRR ohne die Inputnachteile von Vsync ist es natürlich noch besser.

Wieso Ausreden? VRR ist bei AMD und NV ein Feature, was man nutzen kann und nach Möglichkeit auch sollte. Wer es nicht hat, hat natürlich Pech. :D
Welche Ansprüche ich an Flüssigkeit hege, weißt du. Da bin ich penibel.

robbitop
2015-05-20, 14:22:55
Gipsel und andere haben über mehrere Seiten dargelegt, dass es im Moment einfach nicht anders geht: man kann nur 4 Stacks auf den Interposer unterbringen, es ist einfach kein Platz für sechs oder mehr Chips, wenn auch noch ein 500mm²+ Chip Platz finden soll. Der Interposer ist auf Grund der Beschränkungen bei der Fertigung nur etwas über 832? mm² groß. Mit Versatz

Auf einmal soll es möglich sein, die stacks auf dem Interpsoer zu verdoppeln?
Wenn es so läuft wie auf AMDs Folie - in der Mitte ein quadratischer Kern und dann an jeder der 4 Ecken ein HBM Stack - dann bliebe zwischen den 4 HBM Stacks Fläche frei. Wenn es natürlich anders ist - also die 4 HBM Stacks im 2x2 Verbund neben dem DIE sitzen ist es natürlich was anderes.

Isen
2015-05-20, 14:27:56
fundierten Test der aufzeigt ab wann 4GB vs 8GB wirklich limitiert? Alle wiederholen nur stur das Maketing-Geschwätz...

greetz
US


Man Spekuliert halt ins Blaue, weil man es mit der Zukunft begründet. Auch Glaskugel genannt. Die eine besser als die andere.

Unicous
2015-05-20, 14:30:15
@robbitop


Das ist eine "künstlerische" Darstellung. Und die ist konsistent mit anderen Darstellungen in der Vergangenheit. Und auch dann würden wohl maximal noch 2 stacks hinpassen.

Die Sache mit den pseudo-channels (also sozusagen clamshell) hat SK hynix erst für HBM2 vorgesehen und auch dann wäre es einfach nur Murks.

btw.

UMC ist schon vor Langem eine Partnerschaft mit GF eingegangen, also eigentlich nicht verwunderlich, aber dennoch hatte man (also ich:redface:) sie nicht auf dem Schirm.

While foundries TSMC and Samsung [see IFTLE 133, "SEMI ISS 2013 Comments from Samsung, GF,Intel and others"] are both offering turnkey solutions, GlobalFoundries and UMC are supporting a partnering ecosystem where they will handle the traditional front-end steps and the "via creation" process and then will hand off the traditional backend steps such as temporary bonding/debonding, grinding, assembly and test to traditional packaging houses such as ASE, Amkor SCP and SPIL.
http://electroiq.com/insights-from-leading-edge/2013/04/iftle-142-globalfoundries-2-5-3d-at-20nm-intel-haswell-gt3-umc-scp-prototype-details/

robbitop
2015-05-20, 14:32:15
IIRC gab es da schon zu o.g. Spielen Messungen seitens PCGH sogar mit Videos, die das Stocken in Shadows of Mordor und Watch Dogs bei Karten mit < 6 GiB zeigten.

Grestorn äußerte sich auch beim Umstieg von GTX980 auf Titan X dazu IIRC. Also Erfahrungen erster Hand. Mit "Spekulation" hat das wenig zu tun.

M4xw0lf
2015-05-20, 14:32:16
Wenn es so läuft wie auf AMDs Folie - in der Mitte ein quadratischer Kern und dann an jeder der 4 Ecken ein HBM Stack - dann bliebe zwischen den 4 HBM Stacks Fläche frei. Wenn es natürlich anders ist - also die 4 HBM Stacks im 2x2 Verbund neben dem DIE sitzen ist es natürlich was anderes.
Die quadratische Anordnung ist flächenmäßig das dämlichste was man machen kann. Im besten Fall bleiben so etwa 500mm² für die GPU übrig. Alle Stacks entlang einer Kante ließen noch an die 600mm² frei. Viel kleiner kann Fiji eigentlich kaum ausfallen...

Unicous
2015-05-20, 14:34:54
Du weißt doch gar nicht, wie AMD die Memory PHYs verteilt hat. Wierum larum, völlig egal.

HOT
2015-05-20, 14:36:15
Da noch nicht einmal die Anzahl der Shader-Einheiten *sicher* bekannt ist ("man geht von 640 aus"), wäre ich vorsichtig, hier schon etwas herauslesen zu wollen. Schön wäre es trotzdem, wenn AMD mal Cape Verde und Pitcairn ablösen kann.
Was soll das denn bitte sonst sein? Ein zu unkenntlichkeit kastrierter Tonga? Sicher nicht. Egal, ob das ein Bonaire oder Cap-Verde-Refresh ist, das wird schon hinhauen.

uweskw
2015-05-20, 14:38:29
....
780 Ti ist 2013.
980 ist Midrange - Herbst 2014.

Fijii ist GM200 Konkurrent also High End. Und das Mitte 2015.

Wie oft noch?
...
.

Hat hier bislang irgendwer den Nachweis dass 8GB aktuell irgendeinen echten Vorteil haben?
Nein, es wird AMD einfach wieder mal im Vornherein schon schlecht geredet.
Als die 980 Ende des Jahres breit verfügbar wurde, wurde Nvidia mit 4GB Rom von allen Seiten in den Himmel gelobt. Und jetzt sage mir keiner 600 Euro sei eine Mainstream Karte:freak:
Dabei wäre es für uns alle gut wenn AMD diesmal ein bisschen neutraler betrachtet würde. Konkurrenz belebt das Geschäft.

Greetz
US

StefanV
2015-05-20, 14:40:07
780 Ti ist 2013.
980 ist Midrange - Herbst 2014.

Fijii ist GM200 Konkurrent also High End. Und das Mitte 2015.
...und natürlich nicht von nVidia, kann/darf also nicht gut sein...

Verstehe nicht, warum die Karte hier gerade so derb schlecht geredet wird, obwohl nicht ein halbwegs brauchbarer Fakt klar ist.
Das einzige, was klar ist, ist, dass NICHTS klar ist...

Warum die Karte niedermachen, bevor sie überhaupt erschienen ist??
Damit man sich die Titan X schön rechtfertigen kann oder warum macht man das??
DAs verstehe ich absolut NICHT!

robbitop
2015-05-20, 14:48:59
....


Hat hier bislang irgendwer den Nachweis dass 8GB aktuell irgendeinen echten Vorteil haben?
Nein, es wird AMD einfach wieder mal im Vornherein schon schlecht geredet.
Als die 980 Ende des Jahres breit verfügbar wurde, wurde Nvidia mit 4GB Rom von allen Seiten in den Himmel gelobt. Und jetzt sage mir keiner 600 Euro sei eine Mainstream Karte:freak:
Dabei wäre es für uns alle gut wenn AMD diesmal ein bisschen neutraler betrachtet würde. Konkurrenz belebt das Geschäft.

Greetz
US

Liest du vorherige Posts überhaupt?
IIRC gab es da schon zu o.g. Spielen Messungen seitens PCGH sogar mit Videos, die das Stocken in Shadows of Mordor und Watch Dogs bei Karten mit < 6 GiB zeigten.

Grestorn äußerte sich auch beim Umstieg von GTX980 auf Titan X dazu IIRC. Also Erfahrungen erster Hand. Mit "Spekulation" hat das wenig zu tun.

Es gibt Messungen und Berichte. Wer ernsthaft glaubt, dass 4 GiB für eine High End Karte in 2015 erscheint angemessen sind, ist eher nicht objektiv. Konkurrenz ist wichtig. Makel schönzureden hilft aber keinem.

Die 980 kam Herbst 2014 und ist ein Midrangeprodukt. Zumindest verglichen mit dem Titan Brand.

Gern kann man sie auch "High End" nennen - dann ist Titan eben "Enthusiast".
Will Fijii ein GM200 Gegenspieler sein, sind 4 GiB zu wenig.

Der VRAM Bedarf wird sich in der Lebensdauer von Fijii sicher nicht verbessern.

Und nein es ist keine Maß, dass 4 GiB heute für 90 % der Spiele ausreicht. Eine Karte, die sich mit GM200 messen will sollte eben nicht nur "meistens völlig ausreichend sein". Es muss ausreichend dimensioniert für die Lebensdauer sein.



@StefanV
:rolleyes:
Ich kritisiere nicht Fijii per se sondern nur eine potenzielle Konfiguration mit 4 GB. Egal welche GPU von welchem IHV. Wer ein GM200 Gegenspieler in 2015 bringen will - der muss sich Kritik gefallen lassen, wenn er nur mit 4 GiB antanzt.
Da kannst du Gift drauf nehmen, dass wenn es wirklich so kommen sollte, das in den meisten Reviews als Negativpunkt auftauchen wird.

Als wenn es in einer technischen Diskussion relevant ist, wer der IHV ist. Für solchen Kinderkram bin ich nicht zu haben.

Dawn on Titan
2015-05-20, 14:50:17
HBM ist nicht GDDR. Einfach mal abwarten was da geht und solange der Speicher schnell angebunden ist, geht da sicher einiges.

robbitop
2015-05-20, 14:53:04
HBM ist nicht GDDR. Einfach mal abwarten was da geht und solange der Speicher schnell angebunden ist, geht da sicher einiges.
HBM hilft auch so viel, wenn der VRAM voll ist. :freak:

maguumo
2015-05-20, 14:58:39
Die Sache mit den pseudo-channels (also sozusagen clamshell) hat SK hynix erst für HBM2 vorgesehen und auch dann wäre es einfach nur Murks.
Was hat denn das beschriebene mit Pseudo Channels zutun? Nur einen Channel für 2Gb Slices zu verwenden sollte auch ohne Pseuochannels möglich sein.

Timbaloo
2015-05-20, 14:59:02
HBM hilft auch so viel, wenn der VRAM voll ist. :freak:
Dank der hohen Bandbreite kann man ihn aber schneller leeren :tongue:

captain_drink
2015-05-20, 15:09:21
Hat hier bislang irgendwer den Nachweis dass 8GB aktuell irgendeinen echten Vorteil haben?

Ob 4 GB dieses, nächstes oder übernächstes Jahr limitieren, ist doch völlig egal. Solange eine 980Ti mit 6 GB in den Regalen steht, wird diese anstelle von Fiji gekauft werden.

Gewinnen kann AMD dann nur mit Fiji Salvage gg. GM204 (4 GB vs. 4 GB), allerdings wiederum nicht finanziell, da Letzterer mutmaßlich deutlich günstiger herzustellen und hinsichtlich des Preises schmerzfreier anzupassen ist.

Unicous
2015-05-20, 15:12:19
Was hat denn das beschriebene mit Pseudo Channels zutun? Nur einen Channel für 2Gb Slices zu verwenden sollte auch ohne Pseuochannels möglich sein.

Weil du damit afaik gleichzeitig die Kapazität halbierst. Ein channel spricht jeweils die Hälfte des slices an, du kannst daher nicht über einen channel den gesamten slice ansprechen. Gipsel möge mich korrigieren, falls ich falsch liege, aber mE geht
es momentan nicht anders. Erst mit pseudo channels dürfte das möglich sein.

siehe Seite 23

http://www.memcon.com/pdfs/proceedings2014/NET104.pdf

Gipsel
2015-05-20, 15:12:39
Aber irgendwie bin ich gerade verwirrt.

Gipsel und andere haben über mehrere Seiten dargelegt, dass es im Moment einfach nicht anders geht: man kann nur 4 Stacks auf den Interposer unterbringen, es ist einfach kein Platz für sechs oder mehr Chips, wenn auch noch ein 500mm²+ Chip Platz finden soll. Der Interposer ist auf Grund der Beschränkungen bei der Fertigung nur etwas über 832? mm² groß.Ich kann mich an eine Diskussion über die optimale Anordnung der HBM-Stacks auf dem Interposer erinnern, also ob man 4 Stacks auf eine Seite packt oder auf beide Seiten verteilt. Meine Meinung war, daß man wohl 4 Stacks auf eine Seite bekommen könnte (wenn man die entsprechend orientiert), AMD aber vermutlich die Stacks auf zwei Seiten des GPU-Dies verteilen wird, da das wahrscheinlich günstiger für das Layout der GPU ist. Die limitiert dann aber die maximale Diegröße der GPU, und um so mehr, wenn man tatsächlich auf beide Seiten 4 Stacks statt nur zwei packen will (da man dann die Stacks höchstwahrscheinlich 90° gedreht orientieren müßte, also mit der kurzen Seite zur GPU zeigend). Aber 6 Stacks (2x2, also auf zwei Seiten je drei) sollten aus Platzgründen genauso gut gehen wie 2x2.

Dawn on Titan
2015-05-20, 15:12:44
Wie wäre es mit 980ti 10GB und 980 8GB...

dildo4u
2015-05-20, 15:15:55
Ob 4 GB dieses, nächstes oder übernächstes Jahr limitieren, ist doch völlig egal. Solange eine 980Ti mit 6 GB in den Regalen steht, wird diese anstelle von Fiji gekauft werden.

Gewinnen kann AMD dann nur mit Fiji Salvage gg. GM204 (4 GB vs. 4 GB), allerdings wiederum nicht finanziell, da Letzterer mutmaßlich deutlich günstiger herzustellen und hinsichtlich des Preises schmerzfreier anzupassen ist.
Jup die 970 hat Vram in den Blickpunkt gebracht daher acht die Masse jetzt mehr den je drauf.Natürlich ist es bei der 390X auch im echten Einsatz deutlich relevanter,da sie für viele Games 4k Tauglich sein wird.Vom Marketing her ist es ne Unlösbare Aufgabe es sei denn die Karte wird zum selbem Preis wie die 980 verkauft.

Gipsel
2015-05-20, 15:16:20
Weil du damit afaik gleichzeitig die Kapazität halbierst. Ein channel spricht jeweils die Hälfte des slices an, du kannst daher nicht über einen channel den gesamten slice ansprechen. Gipsel möge mich korrigieren, falls ich falsch liege, aber mE geht
es momentan nicht anders. Erst mit pseudo channels dürfte das möglich sein.

siehe Seite 23

http://www.memcon.com/pdfs/proceedings2014/NET104.pdfKapiere ich nicht ganz. Pseudochannels teilen die 128Bit Channels von HBM in zwei 64bittige auf. Jeder Kanal (und damit auch jeder Pseudokanal) erstreckt sich nur über ein Die des Stacks. Zumindest typischerweise. Dies ist zwar nicht strikt vorgeschrieben, es ist aber vorgeschrieben, daß innerhalb eines Channels die Latenzen exakt gleich sein müssen, was erheblich schwieriger hinzubekommen ist, wenn man den Speicher eines Channels über mehrere Dies verteilt. Deswegen kann es zwar 8channel-Stacks geben, die nur 2 Speicher-Dies haben, aber wohl keine 8Hi-4-channel-Stacks.

Ob Hynix ihre Speicherdies so flexibel designt, daß sie wahlweise als ein 128Bit-Channel (mit zwei Pseudochannels) oder als 2 Channels pro Die (wie bei den 4Hi-8-channel-Stacks) angesprochen werden können, entzieht sich meiner Kenntnis. Es wäre aber für Hynix sinnvoll, das zu tun (um Flexibilität bei den Speichergrößen zu gewinnen). Und im Übrigen erwähnt die JEDEC selber diese flexible Möglichkeit.

Raspo
2015-05-20, 15:21:03
HBM hilft auch so viel, wenn der VRAM voll ist. :freak:

Oh, Du hast ne Fiji in Aktion gesehen? Erzähl :biggrin:.

Spekulation ist ja schön und gut, aber es im Vorhinein ohne wirklich belastbare Argumente etwas schlecht zu reden ist "uncool".
(wenns hinterher so ist, sagt ja keiner was.)

Und wenn ich mir die Preise der GTX 980 so anschaue könnte man auch anhand des Preises argumentieren, dass sie auch nur wie die GTX "Midrange" ist. Weil sie preislich wahrscheinlich (?) näher an der GTX ist wie an der Titan.

Alles eine Frage der Betrachtung...

Unicous
2015-05-20, 15:25:52
@Gipsel


Jeder Die/slice hat zwei channels. Jeder channel kann zwei pseudo-channels haben. Bei HBM1 hat SK hynix das noch nicht vorgesehen (laut eigener Angabe).

Was passiert also, wenn man einen channel "abschaltet". Das war die Frage die gestellt wurde.

Meiner Meinung nach, ist der Die in zwei Bereiche partioniert, die von jeweils einem channel angesprochen werden. Deaktiviert man nun einen channel, deaktiviert man auch die Partition.

Liege ich da falsch und ein channel kann den gesamten Die ansprechen? Denn davon bin ich die ganze Zeit ausgegangen. Die Illustration zeigt es ja auch.

maguumo
2015-05-20, 15:26:56
Weil du damit afaik gleichzeitig die Kapazität halbierst. Ein channel spricht jeweils die Hälfte des slices an, du kannst daher nicht über einen channel den gesamten slice ansprechen. Gipsel möge mich korrigieren, falls ich falsch liege, aber mE geht
es momentan nicht anders. Erst mit pseudo channels dürfte das möglich sein.

siehe Seite 23

http://www.memcon.com/pdfs/proceedings2014/NET104.pdf

Da bin ich völlig überfragt. Hatte mich lediglich an der JESD235 orientiert. Da wird explizit erwähnt das es möglich ist eine Slice mit 1,2 oder 4 Channels anzusteuern. Pseudochannel werden da nicht erwähnt. Die Seite hatte ich hier als Bild verlinkt.

EDIT: Es gab' doch auch dieses Prospektbild von SK Hynix mit 8 Hi HBM1. Dafür müsste man dann ja auch jede Slice zwangsläufig mit nur einem Channel ansteuern.

uweskw
2015-05-20, 15:35:48
Liest du vorherige Posts überhaupt?
....

Und nein es ist keine Maß, dass 4 GiB heute für 90 % der Spiele ausreicht. Eine Karte, die sich mit GM200 messen will sollte eben nicht nur "meistens völlig ausreichend sein". Es muss ausreichend dimensioniert für die Lebensdauer sein.

......


Natürlich lese ich die, nur habe ich da noch keinen Beleg/Bench gefunden.
90%? Wie kommst du darauf? Eher 99% . Wie gesagt ich kenne keinen bench indem eine 4 Gigabyte AMD vom Speicher limitiert wird. Da haben wir so viele HW-Magazine, aber keines hat das mal wirklich ausgearbeitet.
Ausser H4u. Das Ergebnis habe ich ja velinkt. Nicht gelesen? Oder der bequemlichkeit wegen ignoriert?

Greetz
US

edit:
ich rede natürlich von der Speichermenge. Bandbreite ist ein anderes Thema.

mironicus
2015-05-20, 15:41:50
Vielleicht hat Fiji ja noch einen zweiten HBM-Speichercontroller... :D
2 x 4096 Bit. :D :D

Nakai
2015-05-20, 15:48:30
@Unicous:
Hast du die Jedec Specs vor dir liegen? Ich habs mir letzens mal geholt und ein bisschen durchgeblättert. HBM erlaubt deutlich mehr Variationen, als ich bisher angenommen. In den Specs geht es hauptsächlich, um die Speicherstacks und nicht den Logic-Die. Wenn der Logic-Die bzw. Fiji eine "Dual-Link" Option anbietet mittels PseudoChannels könnte man theoretisch mehr skalieren.

Ahja, ein Channel ist direkt einem Speicherblock zugeordnet. Ein Channel kann also nicht über sich selber hinausadressieren.

@Gipsel:
Ob Hynix ihre Speicherdies so flexibel designt, daß sie wahlweise als ein 128Bit-Channel (mit zwei Pseudochannels) oder als 2 Channels pro Die (wie bei den 4Hi-8-channel-Stacks) angesprochen werden können, entzieht sich meiner Kenntnis. Es wäre aber für Hynix sinnvoll, das zu tun (um Flexibilität bei den Speichergrößen zu gewinnen). Und im Übrigen erwähnt die JEDEC selber diese flexible Möglichkeit

Das frage ich mich auch gerade...

Pirx
2015-05-20, 15:53:20
hatt das mit dem Dual-Link bei Fiji nicht schon irgendwo irgendwer;D behauptet?

derF
2015-05-20, 15:53:22
Und wenn ich mir die Preise der GTX 980 so anschaue könnte man auch anhand des Preises argumentieren, dass sie auch nur wie die GTX "Midrange" ist. Weil sie preislich wahrscheinlich (?) näher an der GTX ist wie an der Titan.

Alles eine Frage der Betrachtung...
Jo, wenn ich da mal auf dieses tolle Exemplar gucke https://geizhals.de/asus-gold20th-gtx980-p-4gd5-20th-anniversary-gold-edition-90yv07j2-m0na00-a1251156.html
Da könnte AMD immer noch Mondpreise ansetzen, auch mit 4 GB... :mad:
Aber da wir von AMD realistischere Preisgestaltung als von nV gewohnt sind, mach ich mir da keine so großen Sorgen.

Unicous
2015-05-20, 15:54:15
@Nakai

Wir hatten doch schon geklärt, dass die Spec deutlich flexibler und zukunftssicherer ist, als das was SK hynix momentan anbietet. Jedenfalls laut den Präsentationen, die im Netz verfügbar sind.

Aber im Endeffekt ist es doch scheiß egal. Auf dem Interposer ist einfach kein Platz für... mehr. 4 stacks dürften momentan das höchste der Gefühle sein.

horn 12
2015-05-20, 15:55:49
@Nakai

Also doch 8GB bei Fiji möglich, sprich realisierbar OHNE extrem großen Aufwand...

X.Perry_Mental
2015-05-20, 15:58:06
Es wäre wohl auch mit gutem Marketing nur schwer vermittelbar, wenn Hawaii als 8GB-Karte verkauft wird - und darüber Fiji als 4K-Lösung mit 4GB auskommen soll bzw. muss.

Sunrise
2015-05-20, 16:00:19
Es wäre wohl auch mit gutem Marketing nur schwer vermittelbar, wenn Hawaii als 8GB-Karte verkauft wird - und darüber Fiji als 4K-Lösung mit 4GB auskommen soll bzw. muss.
1K = 1GB
2K = 2GB
3K = 3GB
4K = 4GB

Passt doch. :P

Ganz im Ernst, im Marketing ist alles möglich, da sollten wir garnicht erst anfangen über "Unmöglichkeiten" zu spekulieren. Und da ich nicht glaube, dass AMD sich darüber garkeine Gedanken gemacht hat, wird eben leider diesem Thema viel zuviel Beachtung geschenkt.

"4GB" sagt genauso viel aus wie "4 TFLOPS". Beides zwischen NV und AMD nicht vergleichbar. Dass mehr prinzipiell mehr Spielraum gäbe, bestreitet hoffentlich niemand.

Nakai
2015-05-20, 16:01:37
@Nakai

Wir hatten doch schon geklärt, dass die Spec deutlich flexibler und zukunftssicherer ist, als das was SK hynix momentan anbietet. Jedenfalls laut den Präsentationen, die im Netz verfügbar sind.

Aber im Endeffekt ist es doch scheiß egal. Auf dem Interposer ist einfach kein Platz für... mehr. 4 stacks dürften momentan das höchste der Gefühle sein.

Die Präsentationen sind imo schon sehr seicht.

Auf einem Kalahari Interposer gibt es nicht viel Platz, ja. Für mehr als 4 Stacks muss eine Seite vergrößert werden. Auf AMDs Folie(künstlerische Darstellung) wird das Package mit einer Größe <70mmx<70mm angegeben. Der Kalahari Interposer ist 26x32mm² groß. Alles steht und fällt mit der Interposergröße.

@Nakai

Also doch 8GB bei Fiji möglich, sprich realisierbar OHNE extrem großen Aufwand...

Am besten wäre es, wenn die Slices 4Gb groß wären...

Es ist realisierbar aber der Aufwand wäre kein bisschen gering.

mironicus
2015-05-20, 16:09:38
Ultimative Lösung für ein mögliches Platzproblem: Auf den 4 Stacks sind nicht 4 RAM-Module, sondern es sind 8 Module auf einem Stack, so hat Fiji dann doch 8 GB. Der HBM-Speicher überragt schon auf den Folien die GPU, dann macht man sie halt noch etwas höher. :D

Sunrise
2015-05-20, 16:10:54
@Nakai:
UMC/Spil liefert für Xilinx wenn ich das richtig in Erinnerung habe problemlos schon länger passive 65nm Si-Interposer mit >750mm² Fläche (glaube es waren irgendwas mit 77xmm²).

Dass das Ganze nicht billig wird, ist klar. Das reicht aber vollkommen aus.

Ich bin allerdings stark überrascht, dass UMC da so weit mit vorne dabei ist, das hatte ich nicht auf dem Radar. Ich hatte mich da zu stark auf GloFo konzentriert.

Unicous
2015-05-20, 16:14:51
@Nakai

Tja. Und wie wir jetzt wissen, lässt AMD den Interposer gar nicht bei GF sondern bei UMC fertigen. Wir sind also so schlau wie zuvor.:freak:

R.I.P.
2015-05-20, 17:23:45
http://www.apple.com/pr/library/2015/05/19Apple-Introduces-15-inch-MacBook-Pro-with-Force-Touch-Trackpad-New-1-999-iMac-with-Retina-5K-Display.html

Neues Macbook Pro 5K Retina Display mit Radeon 370X :)

Thunder99
2015-05-20, 17:46:51
http://www.apple.com/pr/library/2015/05/19Apple-Introduces-15-inch-MacBook-Pro-with-Force-Touch-Trackpad-New-1-999-iMac-with-Retina-5K-Display.html

Neues Macbook Pro 5K Retina Display mit Radeon 370X :)
M370x :wink:

Skysnake
2015-05-20, 19:12:30
Bei 4 GiB RAM braucht man keine HPC Ambition zu haben, ein 1:2 DP Ratio wäre dann eine Verschwendung kostbarer Fläche. Ich hoffe AMD hat wirklich bloß Tonga aufgedoppelt, alles andere wäre zuviel Aufwand für einen Notnagel wie Fiji.
800 MB ist der Pool... Egal lassen wir das! Seht einfach was in ein paar Wochen herauskommt :P

@Ailuros: Mit 4 GB brauchst nicht im HPC ankommen. Meine ein AMD'ler nicht auch dass man sich wieder näher an der Basis (Gamer) bewegen wird mit dem was da kommt? Ich bekomme den Wortlaut nicht mehr hin.
Das ist doch bullshit. Es gibt immer Anwendungfälle, bei denen man sich die Hände reiben wird.

Wenn der Vorteil groß genug ist in einem bereich, dann kann man auch über Unzulänglichkeiten in einem anderen Bereich hinweg sehen. Nicht überall wird VRAM in Massen gebraucht, und RAM-Brandbreite schlägt doch recht oft 1:1 in mehr Rechenleistung durch.

Klar wären 8 oder gar 16GB deutlich besser, weil man sich dann weniger einen Kopf um die Daten machen muss, aber wenn es nur 4GB sind, dann ist das auch kein Genickbruch.

Spasstiger
2015-05-20, 19:53:12
Wenn Fiji voraussichtlich nicht so viel Abwärme produzieren würde, könnte man weitere HBM-Stacks direkt aufs GPU-Die pflanzen.

M4xw0lf
2015-05-20, 19:57:51
Wenn Fiji voraussichtlich nicht so viel Abwärme produzieren würde, könnte man weitere HBM-Stacks direkt aufs GPU-Die pflanzen.
Dafür ist doch technisch noch überhaupt nichts bereit, imho. Das ist ja "echtes" "3d-Stacking", statt dem 2,5d-Stacking, das jetzt erstmal der nächste Evolutionsschritt wird.

Sunrise
2015-05-20, 20:01:52
Wenn Fiji voraussichtlich nicht so viel Abwärme produzieren würde, könnte man weitere HBM-Stacks direkt aufs GPU-Die pflanzen.
Verdammt geile Idee.

Spasstiger
2015-05-20, 20:05:39
Gut, das war auch nur eine Spinnerei. Eine 8-GiB-Variante sehe ich allerdings schon am Horizont für 2015, nämlich die Dual-GPU-Ausführung. Vielleicht präsentiert uns AMD hier dank Interposer, welcher sehr breite Interconnects und kurze Latenze erlaubt, eine Crossfire-lose Dual-GPU-Lösung. D.h. logisch als Einzel-GPU erscheinend. Stellt sich nur die Frage nach der maximalen Interposer-Größe.

Nakai
2015-05-20, 20:15:30
Ja, wenn der Interposer fett genug ist...;D

Es steht und fällt alles mit dem Interposer. Ist er zu klein, sind maximal 4GB möglich. Ist er größer, sind eventuell sogar 8 Stacks drauf verbaut(Pseudo-Channels/Dual-Link).
Wenn Hynix 2GB Stacks anbieten würde, wäre alles kein Problem.

R.I.P.
2015-05-20, 20:18:03
M370x :wink:

Ich sollte wirklich mal lesen lernen..war die Vorfreude...um was handelt es sich bei der m370x wirklich? Obwohl es für Amd gut ist, dass Apple auch im Macbook Pro eine Amd verbaut. Fürs Image und fürs Einkommen :)

Nakai
2015-05-20, 20:31:14
Naja Apple hat nun jegliches NV aus ihrem Produkt-Portfolio geschmissen.
Ein Schelm wer Böses denkt. Dass Apple eher OpenCL supportet ist auch kein Geheimnis und wohl auch ein Grund sein.

YellowDynamite
2015-05-20, 20:59:39
Bzgl. 4GB vs 8GB
Ich hab eine Hawai GPU mit 8GB Vram und spiele mit einer Auflösung von 5040x1050 (Eyefinity) und kann aus Erfahrung behaupten:
In keinem modernen Spiel (GTAV, TW3, DAI, BF4, HdR), unter Verzicht von Kanten Bügel Techniken, füllt sich der Vram auf mehr als 4GB.

Bzgl. Fiji hoffe ich einfach für AMD, dass sie uns mit genügend Vram überraschen, da ich keine Lust auf noch mehr grüne gewordene Fanboys habe.

StefanV
2015-05-20, 21:19:56
Wenn Fiji voraussichtlich nicht so viel Abwärme produzieren würde, könnte man weitere HBM-Stacks direkt aufs GPU-Die pflanzen.
Das dürfte wohl nur bei low end chips mit sehr geringer Abwärme praktikabel sein, nicht aber bei High End Chips.

Es sei denn man packt das GPU Die nach oben und den Speicher dadrunter...

basix
2015-05-20, 21:50:08
Das dürfte wohl nur bei low end chips mit sehr geringer Abwärme praktikabel sein, nicht aber bei High End Chips.

Es sei denn man packt das GPU Die nach oben und den Speicher dadrunter...

Kann man dann noch den benötigten Anpressdruck für dem Kühler anlegen? Oder ist das mechanisch kein Problem?

deekey777
2015-05-20, 22:28:43
Naja Apple hat nun jegliches NV aus ihrem Produkt-Portfolio geschmissen.
Ein Schelm wer Böses denkt. Dass Apple eher OpenCL supportet ist auch kein Geheimnis und wohl auch ein Grund sein.
Auf welchem Stand ist OpenCL auf MacOS?

drkohler
2015-05-20, 22:45:27
Es sei denn man packt das GPU Die nach oben und den Speicher dadrunter...Dir ist aber schon klar, dass Speicherchips locker über 85 Grad heiss werden können? Deine Idee funktioniert vielleicht, wenn man noch ein aktiv gekühltes Kupferteil (müsste ein Interposer sein wegen den hunderten von Supplypins die du nach wie vor brauchst) dazwischen schiebt. Und auch alle die Datenleitungen müsstest du irgendwie durch/neben den Rams vorbeibringen. Also nochmal kurz nachgedacht: Nein, eine ganz blöde Idee.

Screemer
2015-05-20, 22:50:29
ähh?! 3d stacking ist das nächste große ding. wird zwar noch dauern, kommt aber definitiv. in welchem power-envelope das ganze dann allerdings eingesetzt wird ist denke ich noch nicht so ganz durch.

Thunder99
2015-05-20, 23:04:48
Ich sollte wirklich mal lesen lernen..war die Vorfreude...um was handelt es sich bei der m370x wirklich? Obwohl es für Amd gut ist, dass Apple auch im Macbook Pro eine Amd verbaut. Fürs Image und fürs Einkommen :)
http://www.notebookcheck.com/AMD-Radeon-R9-M370X.142762.0.html
Evt ein Refresh mit aktuellem Feature Set von 640 1D Shadern :confused:

Agent117
2015-05-21, 01:09:20
Wird nicht mit True Audio beworben und DX12 ist ein sehr schwammiger Begriff.
Sieht also eher nach Cape Verde aus.

Dieses ganze Updaten der alten Chips (GCN Iteration 1 und 2) steht und fällt im Grunde mit dem Verhältnis der Entwicklungskosten, also "Umdesignen",der dafür notwendigen neuen Maske und den bis zum Launch der 14nm GPUs zu erwartenden Verkaufszahlen.
Wieviel so etwas kostet weiß kaum einer, ich sowieso nicht; hier im Forum weiß es leider auch keiner.
Vom Bauchgefühl her würde ich bis auf Fiji nur auf Rebrands ohne neues Stepping tippen.

Leonidas
2015-05-21, 04:43:36
Gleiches Bauchgefühl.

Hübie
2015-05-21, 08:27:09
Das ist doch bullshit. Es gibt immer Anwendungfälle, bei denen man sich die Hände reiben wird.

Wenn der Vorteil groß genug ist in einem bereich, dann kann man auch über Unzulänglichkeiten in einem anderen Bereich hinweg sehen. Nicht überall wird VRAM in Massen gebraucht, und RAM-Brandbreite schlägt doch recht oft 1:1 in mehr Rechenleistung durch.

Klar wären 8 oder gar 16GB deutlich besser, weil man sich dann weniger einen Kopf um die Daten machen muss, aber wenn es nur 4GB sind, dann ist das auch kein Genickbruch.

Was meinst du mit Bullshit? Meine Aussage? Wir arbeiten mit neuronalen Netzen (deep learning), Image Separation / Recognition, Audio-visuelle Koordination, Prototyping usw. und ich kann dir versichern dass man erfahrungsgemäß heutzutage mit 4 GB nichts mehr anstellen kann.

Skysnake
2015-05-21, 08:51:30
Klar ist mehr RAM besser, aber vor ein paar Jahren hat man sich auch mit 1-2 GB schon getraut die Dinger ein zu setzen. Es gibt halt nicht nur Probleme, die auf riesigen Datensets arbeiten. Schau dir im Prinzip die ganzen BOINC Projekte an, die brauchen alle nicht wirklich viel RAM.

Natürlich gibt es genug Probleme, bei denen man mit 4 GB nicht sonderlich zufrieden ist, aber es gibt eben auch mehr als genug PRobleme, bei denen man auch mit 16GB nicht zufrieden sein wird, usw usf. Daher gibt es halt auch einfach unterschiedliche Systeme ;)

Man muss sich damit halt einschränken, was das Einsatzfeld anbelangt. Ob dann am Ende noch genug übrig bleibt, muss sich erst noch zeigen. Ganz abgesehen davon solltest du wissen, das es genug Probleme gibt, bei denen man komplett an der SI-Bandbreite hängt. Wenn einem die 4GB reichen, dann ist das kein Problem, genau wie in dem Fall, in dem einen auch 16GB überhaupt nicht reichen. Dann muss man ja eh asynchron die Daten hin und her schieben.

Man kann halt in den meisten Fällen nicht an einer einzigen Zahl fest machen, ob etwas gut oder schlecht ist. So einfach ist die Welt leider nicht.

fondness
2015-05-21, 09:17:46
Kleiner Seitenhieb:

“Nvidia creates PowerPoints and talks in advance like they are the wonderful leader of everything,” Macri said derisively. “While they’re talking, we’re working.”

Macri said AMD has been the primary driver of HBM memory in the industry.

“We do internal development with partners, we then take that development to open standards bodies and we open it up to the world,” he said. “This is how Nvidia got GDDR3 and how they got GDDR5. This is what AMD does. We truly believe building islands is not as good as building continents.”

http://www.pcworld.com/article/2922599/amd-talks-up-high-bandwidth-memory-that-will-power-its-next-gpus-pokes-nvidia-too.html

Zu den nur 4GB VRAM:

“This might be a marketing problem,” he said, “but the end user values performance, values form factor and values power consumption.”

M4xw0lf
2015-05-21, 09:30:05
AMD sollte mehr darüber reden und sich schamlos in den Vordergrund stellen. Sonst wird das nie mehr was mit dem Image ;)

Hübie
2015-05-21, 09:33:55
Klar ist mehr RAM besser, aber vor ein paar Jahren hat man sich auch mit 1-2 GB schon getraut die Dinger ein zu setzen. Es gibt halt nicht nur Probleme, die auf riesigen Datensets arbeiten. Schau dir im Prinzip die ganzen BOINC Projekte an, die brauchen alle nicht wirklich viel RAM.

Natürlich gibt es genug Probleme, bei denen man mit 4 GB nicht sonderlich zufrieden ist, aber es gibt eben auch mehr als genug PRobleme, bei denen man auch mit 16GB nicht zufrieden sein wird, usw usf. Daher gibt es halt auch einfach unterschiedliche Systeme ;)

Man muss sich damit halt einschränken, was das Einsatzfeld anbelangt. Ob dann am Ende noch genug übrig bleibt, muss sich erst noch zeigen. Ganz abgesehen davon solltest du wissen, das es genug Probleme gibt, bei denen man komplett an der SI-Bandbreite hängt. Wenn einem die 4GB reichen, dann ist das kein Problem, genau wie in dem Fall, in dem einen auch 16GB überhaupt nicht reichen. Dann muss man ja eh asynchron die Daten hin und her schieben.

Man kann halt in den meisten Fällen nicht an einer einzigen Zahl fest machen, ob etwas gut oder schlecht ist. So einfach ist die Welt leider nicht.

Ich muss gestehen dass ich außerhalb von dem was bei uns erforscht wird nicht sehr viel weiß, aber der Tenor ist immer der Gleiche. Aber ha: Bandbreite is bei kleinen Caches wirklich ein Problem. Kepler verbesserte das zwar aber optimal ists lange nicht. AMD wird vereinzelt eingesetzt aber erfordert immer längere Einarbeitungszeit. Demnächst laufen einige Projekte aus. Da kann man dann mal ein Fazit ziehen was nun effizienter war.

Das die 4GB ein reines Marketing-Problem sein werden wird sich ja schon noch rechtzeitig zeigen. Baugröße ist mir aber z. b. scheiß egal. Schnell, leise und kühl. Das sind meine Anforderungen.

robbitop
2015-05-21, 09:37:59
Oh, Du hast ne Fiji in Aktion gesehen? Erzähl :biggrin:.

Spekulation ist ja schön und gut, aber es im Vorhinein ohne wirklich belastbare Argumente etwas schlecht zu reden ist "uncool".
(wenns hinterher so ist, sagt ja keiner was.)

Und wenn ich mir die Preise der GTX 980 so anschaue könnte man auch anhand des Preises argumentieren, dass sie auch nur wie die GTX "Midrange" ist. Weil sie preislich wahrscheinlich (?) näher an der GTX ist wie an der Titan.

Alles eine Frage der Betrachtung...
Das hat mit HBM und Fijii nichts zu tun. VRAM ist VRAM ist VRAM. Egal wie schnell er ist. Ist er voll und werden Dinge dennoch benötigt, die nicht lokal vorliegen, führt das prinzipbedingt dazu, dass gewartet werden muss. Je mehr Dinge lokal fehlen, desto schlechter kann die GPU die Latenz verstecken und irgendwann haut es die Framerate runter. Und das ungleichmäßig.

Das hat nichts mit Fijii und nichts mit HBM zu tun. Ich kritisiere nicht Fijii. Ich kritisiere generell den hypothetischen Fall 4 GiB auf einer Enthusiast Karte zu verbauen. Und wenn es so kommt, werden das auch die Fachredaktionen so machen. Will sich das hypothetische Produkt mit der Titan X messen, wird das ein Problem. Will sich das hypothetische Produkt mit der 980 messen, ist es kein Problem. Will es sich mit einer GM200-6GB messen - könnte es auch schwierig werden was VRAM angeht.

4 GB sind im Enthusiastsektor in 2015 nicht mehr zeitgemäß. Ich verstehe nicht, warum das schöngeredet werden muss. Das hat nichts mit Spekulation oder sonstigem zu tun.

Natürlich lese ich die, nur habe ich da noch keinen Beleg/Bench gefunden.
90%? Wie kommst du darauf? Eher 99% . Wie gesagt ich kenne keinen bench indem eine 4 Gigabyte AMD vom Speicher limitiert wird. Da haben wir so viele HW-Magazine, aber keines hat das mal wirklich ausgearbeitet.
Ausser H4u. Das Ergebnis habe ich ja velinkt. Nicht gelesen? Oder der bequemlichkeit wegen ignoriert?

Greetz
US

edit:
ich rede natürlich von der Speichermenge. Bandbreite ist ein anderes Thema.
Wie gesagt: erste Hand -> Grestorn + PCGH. Die haben es beide festgestellt. Das genügt mir. Auch ein Blick auf die aktuelle VRAM Belegung bei aktuellsten Spielen zeigt, dass 4 GiB sofern sie noch nicht limitieren jetzt und heute an der Kotzgrenze sind. Empirisch sollte klar sein, dass VRAM Bedarf jedes Jahr steigt. Immer. Das hat die GTX680 und die 780 ti in ihrer Lebenszeit erwischt. Als sie rauskamen hat es nicht limitiert - hinten raus dann aber schon. Beide Produkte waren von Anfang an zu knapp bemessen. Die 7970 und die 290X hingegen hatten das Problem eher weniger.

Eine Karte sollte - insbesondere im Enthusiast Sektor (und die Performance dafür sollte Fijii mit 4096 SPs haben!) zumindest für 2 Jahre nicht durch ihren VRAM begrenzt sein.

M4xw0lf
2015-05-21, 09:43:36
Das hat mit HBM und Fijii nichts zu tun. VRAM ist VRAM ist VRAM. Egal wie schnell er ist. Ist er voll und werden Dinge dennoch benötigt, die nicht lokal vorliegen, führt das prinzipbedingt dazu, dass gewartet werden muss. Je mehr Dinge lokal fehlen, desto schlechter kann die GPU die Latenz verstecken und irgendwann haut es die Framerate runter. Und das ungleichmäßig.

Das hat nichts mit Fijii und nichts mit HBM zu tun. Ich kritisiere nicht Fijii. Ich kritisiere generell den hypothetischen Fall 4 GiB auf einer Enthusiast Karte zu verbauen. Und wenn es so kommt, werden das auch die Fachredaktionen so machen. Will sich das hypothetische Produkt mit der Titan X messen, wird das ein Problem. Will sich das hypothetische Produkt mit der 980 messen, ist es kein Problem. Will es sich mit einer GM200-6GB messen - könnte es auch schwierig werden was VRAM angeht.

4 GB sind im Enthusiastsektor in 2015 nicht mehr zeitgemäß. Ich verstehe nicht, warum das schöngeredet werden muss. Das hat nichts mit Spekulation oder sonstigem zu tun.


Wie gesagt: erste Hand -> Grestorn + PCGH. Die haben es beide festgestellt. Das genügt mir. Auch ein Blick auf die aktuelle VRAM Belegung bei aktuellsten Spielen zeigt, dass 4 GiB sofern sie noch nicht limitieren jetzt und heute an der Kotzgrenze sind. Empirisch sollte klar sein, dass VRAM Bedarf jedes Jahr steigt. Immer. Das hat die GTX680 und die 780 ti in ihrer Lebenszeit erwischt. Als sie rauskamen hat es nicht limitiert - hinten raus dann aber schon. Beide Produkte waren von Anfang an zu knapp bemessen. Die 7970 und die 290X hingegen hatten das Problem eher weniger.

Eine Karte sollte - insbesondere im Enthusiast Sektor (und die Performance dafür sollte Fijii mit 4096 SPs haben!) zumindest für 2 Jahre nicht durch ihren VRAM begrenzt sein.
Stimme völlig zu.

Hübie
2015-05-21, 09:44:19
Beim downsizing der Otto-Motoren gab's auch viele Skeptiker, aber so funktioniert Effizienz nun mal. Und du weißt gar nicht wie groß der Cache wird, geschweige denn welche Hierarchie angewandt wird :P

Also bleib mal locker. Latenzen kannst du mit Caches und breitem Interface gut verstecken. Besonders HBM da mehr commands per cycle möglich sind.

Edit: Und das VRAM-Bedarf stetig steigt ist nicht korrekt.

Edit2: Mit anderen Worten: Wenn AMD es schafft mit 4 GiB das oder mehr zu erreichen wie andere mit 8 GiB ist das Effizienz. Das muss man nicht schön reden, denn Effizienz ist schön.

BlacKi
2015-05-21, 09:48:37
Wenn Fiji voraussichtlich nicht so viel Abwärme produzieren würde, könnte man weitere HBM-Stacks direkt aufs GPU-Die pflanzen.

System Architect Manager (PMTS) of AMD, revealed that the development of first GPU with HBM has been completed.

Developed the world’s first 300W 2.5D discrete GPU SOC using stacked die High Bandwidth Memory and silicon interposer .

übersetzt:

300w!!!:D

robbitop
2015-05-21, 09:52:09
Beim downsizing der Otto-Motoren gab's auch viele Skeptiker, aber so funktioniert Effizienz nun mal. Und du weißt gar nicht wie groß der Cache wird, geschweige denn welche Hierarchie angewandt wird :P

Also bleib mal locker. Latenzen kannst du mit Caches und breitem Interface gut verstecken. Besonders HBM da mehr commands per cycle möglich sind.

Edit: Und das VRAM-Bedarf stetig steigt ist nicht korrekt.

Edit2: Mit anderen Worten: Wenn AMD es schafft mit 4 GiB das oder mehr zu erreichen wie andere mit 8 GiB ist das Effizienz. Das muss man nicht schön reden, denn Effizienz ist schön.
1. Autovergleich = sinnlos
2. Wie willst du eine große Menge an Texturdaten, Assets etc mit Caches abfangen, wenn die lokal einfach nicht vorliegen? Sicher kann man eine gewisse Menge verkraften - gerade Maxwell. Es ist ja nicht so als würden sofort die fps einbrechen. Dann macht die GPU eben andere Dinge. Wenn aber zu viel fehlt und die Wartezeit aufgrund der zu hohen Fehlmenge zu groß wird, kannst du nichts mehr machen.

Das sieht man doch auch auf GK104 und GK110 @3GB. Das ist sicher noch optimierbar. Aber nicht unbegrenzt. Zum Spaß steigern die IHVs die VRAM Menge sicher nicht bei jedem Zyklus.

Die "Latenzen" kannst du dir selber ausrechnen, sobald was über PCIe geschaufelt werden muss und die GPU nichts anderes mehr zu tun hat. Maximal kannst du (Idealfall) 1/wunschfps an Latenz verstecken. In der Zeit kannst du nicht viele Daten schaufeln.


Edit: Und das VRAM-Bedarf stetig steigt ist nicht korrekt.

Edit2: Mit anderen Worten: Wenn AMD es schafft mit 4 GiB das oder mehr zu erreichen wie andere mit 8 GiB ist das Effizienz. Das muss man nicht schön reden, denn Effizienz ist schön.

Ist es doch. Vieleicht nicht linear wie eine Gerade - aber er steigt. Immer. Schau dir die Grafikkartenzyklen bis in die 90er und die VRAM Entwicklung an. Die Auslastung des VRAMs der Spiele ist nahezu antagonistisch. Natürlich leicht verzögert. Aber der Anstieg ist da.

Wenn AMD es schafft, wäre das schön. Aber es fällt mir schwer zu glauben, dass weder AMD noch NV in dem Punkt nicht schon viel Hirnschmalz investiert haben. -> Gesetz des sinkenden Grenzertrags.

Faktor 2 an VRAM durch "Optimierung" kaschieren? IMO fällt das eher in den Bereich schwarze Magie. Lasse mich aber gern überraschen.

mironicus
2015-05-21, 09:57:33
Will sich das hypothetische Produkt mit der Titan X messen, wird das ein Problem. Will sich das hypothetische Produkt mit der 980 messen, ist es kein Problem. Will es sich mit einer GM200-6GB messen - könnte es auch schwierig werden was VRAM angeht.

Ich ahne schlimmes, denn AMD reitet zu sehr auf HBM herum, um von etwas anderem abzulenken. Es ist nur wichtig, was am Ende herauskommt. Ob es einen neuen Speicher gibt oder nicht, ist doch wohl für die meisten völlig egal. Die Ersten in etwas zu sein, davon hat AMD noch nie profitieren können. Andere adaptieren es und machen es dann meistens noch besser.

AMDs Marketing müsste eher mal aufzeigen was HBM für UNS bringt und nicht für sie. :D

Botcruscher
2015-05-21, 09:58:37
Also nur ein Marketingproblem... von AMD - wie neu.
Die Redaktionen werden "unsere" neue 4K optimierte Superkarte am Speicherlimit zerreißen. Selbst in GTA5 komm ich mit meiner 290 OC in 4K locker flockig über die 4GB.
Die Goldene Regel war bei den Grafikkarten immer keine Speicherkrüppel zu kaufen. Garde NV hat in der Richtung immer brachial versagt.

Fiji wird damit maximal für ein paar Ausrüster interessant. Für den Rest sind 4GB zu wenig, 8GB kommen zu spät und 28nm Ende des Jahres nicht mehr zeitgemäß.

BlacKi
2015-05-21, 10:02:10
Beim downsizing der Otto-Motoren gab's auch viele Skeptiker, aber so funktioniert Effizienz nun mal.

das stimmt leider nicht so. es gab mitte der 80er von bmw ein project namens eta welches genau umgekehrt funktionierte. mehr hubraum um sprit zu sparen, und es funtionierte.

alles was downsizing brachte sind kleine drehmomentschwache motoren die anfälliger geworden sind und der spritspareffekt nur auf dem papier zu sehen ist.

kumpel fährt nen renault megane 1,4t mit 140ps und verbraucht sagenhafte 9l.
mein 325e mit 2,7l hubraum hat im schnitt 8l durchgezogen bei 122ps. endlich ist downsizing in den 80ern angekommen.

die siliziumtechnik ist was komplett anderes und lässt sich doch garnicht damit vergleichen

Dural
2015-05-21, 10:05:48
Mittlerweilen bin ich sicher das Fiji Verkaufs-Technisch ein Flopp wird. So wie AMD auf HBM rumreitet und wie toll es ist und wir mal wieder die ersten sind... Wenn man zwischen den Zeilen lesen kann sind das ziemlich eindeutige Aussagen.

mironicus
2015-05-21, 10:06:12
Wenn Spiele vernünftig programmiert werden braucht man nicht viel VRAM (Witcher 3). Die Verbreitung von High-End Karten ist zu gering, da ist 4 GB jetzt die Grenze auch in 1-2 Jahren wird das nicht mehr. Keiner programmiert Spiele um 12 GB VRAM zu füllen. Für Enthusiasten die mit Grafikmods uneffektiv den Speicher der Grafikkarte füllen mal abgesehen. :D

maximus_hertus
2015-05-21, 10:11:31
Das hat die GTX680 und die 780 ti in ihrer Lebenszeit erwischt.


Dennoch haben sich die Karten blenden verkauft, nein, sogar überragender als sich nV das hat träumen lassen. Trotz knappem VRAM (2 GiB wie bei der GTX 680 wurde schon 2 Jahre vorher auf Grafikakrten verbaut, HD 5870 Eyefinity Edition). Darüber hat sich fast keiner "aufgeregt" oder als Minuspunkt aufgezählt.

Trotzdem stimme ich dir zu, dass 4 GiB ein echter Kaufhinderungsgrund sind (für mich, Eyefinity, 6016x1080), gerade bei >500 Euro. Bei der 300-500 Klasse bei entsprechender Performance würde es jedoch passen.

Botcruscher
2015-05-21, 10:12:01
Was zählt ist die Verbreitung der Konsolen. Die 4GB werden ohne wenn und aber auch im Midrange voll gemacht. Mit 2Gb kommt man auch in dem Segment nicht mehr weit.
Bei einer High-End Karte erwarte ich dann auch andere Einstellungen. Das 12GB Show sind ist eine andere Sache. Titan bringt was geht.

Darüber hat sich fast keiner "aufgeregt" oder als Minuspunkt aufgezählt.
Das Forum dürfte voll damit sein. Bei der 780 ist es ganz sicher der Fall. Die 680 hatte als Altprodukt vor der neuen Konsolengen relativ Glück.

Mittlerweilen bin ich sicher das Fiji Verkaufs-Technisch ein Flopp wird. So wie AMD auf HBM rumreitet und wie toll es ist und wir mal wieder die ersten sind... Wenn man zwischen den Zeilen lesen kann sind das ziemlich eindeutige Aussagen.
HBM ist ohne Wenn und Aber die Zukunft. Ein 4GB Fiji ist alleine das Missmanagement von AMD. Angesichts beider AMD Konsolen und damit laaaaaaannnnnnnger Vorwarnzeit wäre es mal wieder extreme Blödheit. Es konnte ja keiner Wissen...

Sven77
2015-05-21, 10:12:25
Wenn Spiele vernünftig programmiert werden braucht man nicht viel VRAM (Witcher 3). Die Verbreitung von High-End Karten ist zu gering, da ist 4 GB jetzt die Grenze auch in 1-2 Jahren wird das nicht mehr. Keiner programmiert Spiele um 12 GB VRAM zu füllen. Für Enthusiasten die mit Grafikmods uneffektiv den Speicher der Grafikkarte füllen mal abgesehen. :D

Der kleinste Nenner sind aber die Konsolen die jetzt schlagartig jede Menge Speicher zum vollmüllen haben. Wenn man natürlich ab sofort auf schlechte Ports verzichtet weil der VRam für hohe Settings nicht ausreicht sind 4Gb kein Problem.
Ich tu mich jedenfalls schwer meine 2,5 Jahre alte Graka gegen eine andere auszutauschen die 2GB weniger VRam hat..

edit: Botcrusher war schneller. Seh ich genauso, im High-End erwarte ich mindesten 6GB, eher 8..

Dawn on Titan
2015-05-21, 10:13:57
Normal nicht, aber wer gibt 800+ für ne Graka um ohne DSR, MSAA oder SSAA zu zocken? Von 4k usw. mal nicht zu reden.

anddill
2015-05-21, 10:16:57
Wir hatten ja weiter oben im Thread schon mal die Diskussion über die Speicherkompression. Da wurde mir erklärt - auch wenn ichs nicht ganz kapiert habe - daß die übliche Kompression der Grafikchips zwar Bandbreite spart, aber keinen Speicherplatz, weil der Chip/Treiber nicht wissen wieviel denn nun wirklich belegt ist und daher vom schlimmsten ausgehen müssen. Nun, wenn man diesen Umstand ändert dann wäre der durch Kompression gewonnenen Platz doch frei, oder?

Hübie
2015-05-21, 10:20:11
Hm. Hab im Kopf nur die letzten Jahre betrachtet. Und da gab es eben keine deutliche Linie nach oben in puncto VRAM-Belegung. Zurück bis in die 90er ist der Trend natürlich eindeutig.
VRAM an sich kannst du nicht kaschieren aber wie du den nutzt. Das meine ich. Bin jedoch kein Programmierer, kann also nur das wieder geben was ich aufschnappe. Da können andere mehr zu sagen.

Blacki: Wusste schon das irgendjemand angekleckert kommt und aus den Tiefen seines Wissens einen Beitrag verfasst der nichts mit dem Thema zu tun hat :rolleyes:

maximus_hertus
2015-05-21, 10:28:14
Ich sehe es kommen, alle schlagen derzeit auf AMD ein und zur E3 kommt dann die WCE Uber 8 GiB Edition, schneller als Titan X, leise, kühl, <300W und wird als Sensationskarte gefeiert ;) Dazu mit 849 USD günstiger als die Titan X.

Zusätzlich ein 4 GiB Salvage, Luftkühlung, <250W, etwas schneller als GTX 980 für 499 USD.


Oder sie vermarkten eine 8 GiB Crossfire Karte als "Single-GPU-8-GiB" dank neuer CF-Verfahren (VR etc).

Sven77
2015-05-21, 10:29:50
Ich sehe es kommen, .

Dürfte ein Fiebertraum sein...

mironicus
2015-05-21, 10:38:05
Ich sehe es kommen

Negatives Gegenbeispiel:
- AMD verwendet die Referenzkühlung der R290 für Fiji (non WCE)
- 300 Watt, 10 Sone laut
- 4 GB Speicher, Redaktionen testen darauf viele Spiele am Limit und zeigen Unterschiede zu Karten mit mehr Speicher auf
- nur 25% schneller als eine R290x (nicht optimierte Treiber zum Release)
- kein OC-Potential
- schneller als GTX 980 in 4K, Titan X bleibt unerreicht
- alle packen sich am Kopf über AMDs größtem Fail der Firmengeschichte

:freak:

Isen
2015-05-21, 10:39:13
Ohh ja, mironicus. Allein die Vorstellung bereitet einigen Nasse Höschen ( anderen gar ein Zeltlager ) :D

Dawn on Titan
2015-05-21, 10:42:49
Es gibt noch ne andere Option. Fiji ist ein HBM Testballon. Man ordnet sich zwischen 980 und Titan ein in der Leistung und verkauft für 800-900 Euro.

Botcruscher
2015-05-21, 10:47:11
800-900€ mit 4GB wird kein Ballon. Das wird eine Stahlkugel. Selbst mit T:X Leistung wäre das Gesamtpaket zu teuer.

Kartenlehrling
2015-05-21, 10:48:01
Normal nicht, aber wer gibt 800+ für ne Graka um ohne DSR, MSAA oder SSAA zu zocken? Von 4k usw. mal nicht zu reden.


Schaut ihr euch gar nicht die Nvidia .pdf (http://on-demand.gputechconf.com/gtc/2015/presentation/S5442-Chris-Wyman.pdf) an?
Ich sehen schon das AMD "Heute" für 4gb HBM verrissen, Nvidia dann umjubelt wird.

Pirx
2015-05-21, 10:51:59
Negatives Gegenbeispiel:
- AMD verwendet die Referenzkühlung der R290 für Fiji (non WCE)
- 300 Watt, 10 Sone laut
- 4 GB Speicher, Redaktionen testen darauf viele Spiele am Limit und zeigen Unterschiede zu Karten mit mehr Speicher auf
- nur 25% schneller als eine R290x (nicht optimierte Treiber zum Release)
- kein OC-Potential
- schneller als GTX 980 in 4K, Titan X bleibt unerreicht
- alle packen sich am Kopf über AMDs größtem Fail der Firmengeschichte

:freak:
1/2 Jahr später verkloppt sie als leises Custom-Design die TX, aber es interessiert keinen mehr:D - "alle" wollen jetzt die TXXX für 1.500 € kaufen

uweskw
2015-05-21, 11:01:01
......
Das sieht man doch auch auf GK104 und GK110 @3GB. Das ist sicher noch optimierbar. Aber nicht unbegrenzt. Zum Spaß steigern die IHVs die VRAM Menge sicher nicht bei jedem Zyklus.

.......



Die IHV´s knallen schon auf Einsteigerkarten bevorzugt 4GB. Ist halt nen Checklistenfature das jeder Depp mit einbeziehen kann. Man könnt es ja irgendwann mal brauchen. Auf ner GT630 oder ner AMD 240??:freak:

Also bisher habe ich immer noch keine vernünftigen Benchmarks gesehen in denen 4GB bei AMD limitieren. Und danach frage ich schon seit ewigkeiten. Auf PCGH finde ich auch nichts aussagekräftiges.
Selbst Tests der R295 als CF, also 4 Hawaji Chips, limitieren nicht durch 4GB.(PCGH, Toms HW, 3DGuru..) Und schlechte Frametimes gibt es massenhaft auch bei NV schon unter 1920x1080



....
Edit2: Mit anderen Worten: Wenn AMD es schafft mit 4 GiB das oder mehr zu erreichen wie andere mit 8 GiB ist das Effizienz. Das muss man nicht schön reden, denn Effizienz ist schön.

Mehr erwartet doch keiner: Fijii wird aber leider schon im Vorfeld überall zerissen weil ihm die ach so unentbehrlichen 8GB fehlen ...man könnts ja mal brauchen... wie bei der GT730:freak::freak:. Das haben die "Profis" übrigens auch bei der GT630 schon empfohlen.

Wahrscheinlich wird die 980Ti mit 6GB eher wegen Speicher oder Bandbreite einbrechen als Fiji mit 4GB. Geht es doch einfach ergebnisoffen an.
Wir tun uns alle keinen Gefallen wenn wir Fiji unbegründet schlechtreden. Wenn Fiji wirklich ein Fail ist können wir alle Konkurenz zu NV schlicht vergessen. Also gebt dem letzten Versuch von AMD wenigstens ne reelle Change. Er könnte auch mit 4GB eine echte alternative zur 980Ti werden. Warten wir es doch einfach ab.

greetz
US

Skysnake
2015-05-21, 11:02:56
Ich muss gestehen dass ich außerhalb von dem was bei uns erforscht wird nicht sehr viel weiß, aber der Tenor ist immer der Gleiche. Aber ha: Bandbreite is bei kleinen Caches wirklich ein Problem. Kepler verbesserte das zwar aber optimal ists lange nicht. AMD wird vereinzelt eingesetzt aber erfordert immer längere Einarbeitungszeit. Demnächst laufen einige Projekte aus. Da kann man dann mal ein Fazit ziehen was nun effizienter war.

VRAM ist wie Hubraum oder hohe Single-Thread-Leistung einfach ein NoBrainer. Man kann damit so manches Problem einfach umgehen. Wenn man es sich aussuchen könnte, hätte man natürlich immer so viel RAM, das immer ALLE! Daten in RAM liegen. Das ist aber entweder auch mit >>4GB nicht möglich, dann muss man sich eh Gedanken machen, oder man muss halt in den sauren Apfel beisen, und sich diese Gedanken machen, wie man die Latenzen versteckt, weil man eben keine 12/16GB hat.

Bei nVidia ist es ja auch nicht wirklich groß abders mit ihrer Dual-GPU Tesla. Da muss man auch immer schauen, was wann wo wie liegt, und hat nicht den kompletten RAM zugreifbar.

Also nochmals, klar wäre es besser, wenn man 8 oder gar 16GB hätte, und für manche werden die 4 GB sicherlich auch ein noGo sein, einfach weil man zu große Datensets hat, die man nicht gut asynchron fahren kann, da die Zugriffsmuster nicht bekannt sind. Das ist aber nur ein Teilbereich aller möglichen Anwendungen. Die Frage ist da eher, wer braucht im Moment ne neue Maschine, und wie sehen die Probleme genau aus, und welche Kompromisse ist man eventuell bereit einzugehen. Auch bzgl. Entwicklungskosten. Das ist dann auch tatsächlich ein potenzielles Problem, da bei solchen Sachen auch immer politische Entscheidungen mit rein spielen bei den Käufern/Entwicklern.

Ob 4GB jetzt das Produkt zum FAIL machen oder nicht, hängt von dem Anwender und den weiteren Produktdaten ab. Klar ist aber, es ist nicht so, dass das nur daran hängt. Mit 8/16GB würde man den Kundenkreis "nur" nochmals vergrößeren.

Das die 4GB ein reines Marketing-Problem sein werden wird sich ja schon noch rechtzeitig zeigen. Baugröße ist mir aber z. b. scheiß egal. Schnell, leise und kühl. Das sind meine Anforderungen.
Naja, Apple wird wohl ziemlich geil drauf sein, und das ist z.B. ein wahrlich wichtiger Kunde ;)

Wenn z.B. Apple einfach das Ding mit HBM will, und ihnen 4GB genug sind erstmal, dann wird das Ding wohl allein wegen einem potenziellen Apple Deal kein finanzieller FAIL.

Beim downsizing der Otto-Motoren gab's auch viele Skeptiker, aber so funktioniert Effizienz nun mal. Und du weißt gar nicht wie groß der Cache wird, geschweige denn welche Hierarchie angewandt wird :P

Also bleib mal locker. Latenzen kannst du mit Caches und breitem Interface gut verstecken. Besonders HBM da mehr commands per cycle möglich sind.

Edit: Und das VRAM-Bedarf stetig steigt ist nicht korrekt.

Edit2: Mit anderen Worten: Wenn AMD es schafft mit 4 GiB das oder mehr zu erreichen wie andere mit 8 GiB ist das Effizienz. Das muss man nicht schön reden, denn Effizienz ist schön.
Naja, man muss sich mal anschauen, wie die Allocationsgrenzen sind für HBM. Bei GDDR5, waren die minimalen Allocationsgrößen relativ groß, wenn ich mich da recht erinnere. Habe das aber nur GANZ dunkel im Hinterkopf, und es macht auch nur bei vielen kleinen Allocations wirklich was aus, was bei mir völlig irrelevant war, daher habe ich mir das auch nie wirklich im Detail angeschaut.

Ein anderer Punkt ist natürlich auch, wie intelligent der SPeichercontroller ist. So wirklich mega performant waren die nämlich meines Wissens bisher nie, wenn man sowohl mit den Programmen auf den RAM lesend&schreibend zugegriffen hat, und noch neue Daten über PCI-E geschrieben hat.

BlacKi
2015-05-21, 11:04:09
Negatives Gegenbeispiel:
- AMD verwendet die Referenzkühlung der R290 für Fiji (non WCE)
- 300 Watt, 10 Sone laut
- 4 GB Speicher, Redaktionen testen darauf viele Spiele am Limit und zeigen Unterschiede zu Karten mit mehr Speicher auf
- nur 35% schneller als eine R290x (nicht optimierte Treiber zum Release)
- kein Gpu OC-Potential
- schneller als GTX 980 in 4K, Titan X bleibt unerreicht

etwas korrigiert, aber endlich in der realität angekommen.

Skysnake
2015-05-21, 11:11:13
Was ich noch vergessen hatt bzgl VRAM.

Man muss auch sehen, das man ja durch bindless textures usw auch RAM-Bedarf einsparen kann. Für zukünftige Spiele könnte sich der statische RAM-Bedarf also durchaus verändern.

Wenns dumm läuft, hat man aber atm nichts davon, da man <=DX11 Spiele zockt, die solche Sachen halt nicht excessiv nutzen und deswegen eben doch mehr RAM brauchen. Das ist dann halt "dumm" gelaufen. Ich glaube aber nicht, das jemand außerhalb von den Studios das wirklich heute abschätzen kann, ob und wenn in welchem Umfang die 4GB zum Problem werden, so lange man nicht hart selbst modded. 8GB wären aber wie schon gesagt auf jeden Fall eine starke Beruhigungspille. Mit 4GB bleibt ein nicht kleiner Funken Unsicherheit, ob das nicht doch zum Problem wird, was so manchen wohl vom Kauf abhalten könnte, so lange der Rest nicht bombastisch ist.

Thunder99
2015-05-21, 11:11:30
etwas korrigiert, aber endlich in der realität angekommen.
Würde es so kommen könnte AMD sofort die Insolvenz beantragen. Und das wissen sie wohl das sie nur durch gute Produkte wieder Chancen haben auf Marktanteile...

Klar sind 4GB im Vergleich zu 8GB nicht verkaufsfördernd aber das hat den Kunden ja öfters nicht soooo interessiert. Wenn sonst das Gesamtpaket passt, die Karte an TitanX ran kommt und dabei deutlich günstiger ist werden wohl die Leute nicht für mehr Speicher deutlich mehr zahlen (wenn sonst die fps stimmen)
Bei der spekulierten GTX980Ti müsste immer Fiji etwas günstiger sein als die nvidia, dann kaufen die Leute auch eher Fiji (Preis/Leistung)

mironicus
2015-05-21, 11:17:24
In 7-8 Wochen sehe ich folgendes:
Die Top 10 der Grafikkarten auf Geizhals: 6-7 Plätze belegt mit GTX 980 Ti Custom Versionen von MSI, Asus... allesamt mit Features die wir von den GTX 970/980-Customs kennen und mögen wie den 0 dB-Modus beim Idlen, hohes OC-Potential und praktisch Titan X-Geschwindigkeit ab 7xx Euro.

Thunder99
2015-05-21, 11:18:43
Wäre nicht verwunderlich bei einem guten Produkt.

So wie in den Top-10 nach dem GTX970 Debakel wieder R9 Grafikkarten vertreten waren (zurecht!)

Dawn on Titan
2015-05-21, 11:22:41
Würde es so kommen könnte AMD sofort die Insolvenz beantragen. Und das wissen sie wohl das sie nur durch gute Produkte wieder Chancen haben auf Marktanteile...

Klar sind 4GB im Vergleich zu 8GB nicht verkaufsfördernd aber das hat den Kunden ja öfters nicht soooo interessiert. Wenn sonst das Gesamtpaket passt, die Karte an TitanX ran kommt und dabei deutlich günstiger ist werden wohl die Leute nicht für mehr Speicher deutlich mehr zahlen (wenn sonst die fps stimmen)
Bei der spekulierten GTX980Ti müsste immer Fiji etwas günstiger sein als die nvidia, dann kaufen die Leute auch eher Fiji (Preis/Leistung)

900 zu 1200 ist was anderes als 200 zu 400. In der Preisklasse würde ich mich im Zweifel dann für die Titan entscheiden.

BlacKi
2015-05-21, 11:29:31
Klar sind 4GB im Vergleich zu 8GB nicht verkaufsfördernd aber das hat den Kunden ja öfters nicht soooo interessiert. Wenn sonst das Gesamtpaket passt, die Karte an TitanX ran kommt und dabei deutlich günstiger ist werden wohl die Leute nicht für mehr Speicher deutlich mehr zahlen (wenn sonst die fps stimmen)
Bei der spekulierten GTX980Ti müsste immer Fiji etwas günstiger sein als die nvidia, dann kaufen die Leute auch eher Fiji (Preis/Leistung)

alter, wenn du in den mediamarkt gehst und siehst du folgende rechner:
2000€ mit einer 4gb grafikkarte (980)
2300€ und da steckt ne 4gb karte drinn, (390x)
daneben einer für 2300 mit 6gb, (980ti)
daneben steht ein rechner für 2600€ mit 12gb (TitanX)

ich glaub der verkäufer würde den mit der 980ti empfehlen, oder gleich die titanx.

Unicous
2015-05-21, 11:41:19
Wieso sollte AMD das 290X Design verwenden? Habt ihr so eine kurze Aufmerksamkeitsspanne.:eek:

AMD hat uns gerade gesagt, was wir eigentlich schon lange wissen. AMD spart durch Nutzung von HBM die Hälfte der Fläche indem sie den kompletten RAM aufs Package bringen. Dadurch sparen sie natürlich auch an Signalweg. Sie müssen weniger VRMs verbauen, das PCB müsste auch deutlich günstiger werden.

Warum also, warum sollten sie das 290X Design verwenden?:rolleyes:

Effe
2015-05-21, 11:45:48
Noch ein paar Noobfragen: Spart man mit HBM Phasen auf dem PCB ein? Und ist HBM immer nur quadratisch erweiterbar? Also 4GB, 8GB oder kann man auch 6GB, 10GB bauen?

Rente
2015-05-21, 11:47:48
Die aktuell von Hynix geführten HBM-Varianten lassen Bestückungen in 1GB-Abstufungen zu.
Es kann also durchaus auch Varianten mit 2, 3, 5 GB usw. geben.

Effe
2015-05-21, 11:54:29
Wenn das technisch möglich ist, dann wären 6GB ja durchaus im Rahmen.

Unicous
2015-05-21, 11:54:53
@Effe

Habe ich doch geschrieben?

Thunder99
2015-05-21, 11:55:28
alter, wenn du in den mediamarkt gehst und siehst du folgende rechner:
2000€ mit einer 4gb grafikkarte (980)
2300€ und da steckt ne 4gb karte drinn, (390x)
daneben einer für 2300 mit 6gb, (980ti)
daneben steht ein rechner für 2600€ mit 12gb (TitanX)

ich glaub der verkäufer würde den mit der 980ti empfehlen, oder gleich die titanx.
Wer nur im MM geht um PC zu kaufen ist nicht mehr zu helfen.

Ich ziele auf die Kunden ab die einzelne Komponente kaufen ;). Komplett PCs sind meistens die größte Verarschung beim Kunden schlecht hin!

Effe
2015-05-21, 11:58:15
@Effe

Habe ich doch geschrieben?
Ja, aber ich wollte es noch genauer wissen. Verschwinden dann die Phasen für den Speicher komplett vom PCB oder bleibt da noch was übrig? Wird Zeit für solche Dinger in freier Wildbahn. :smile:

Komplett PCs sind meistens die größte Verarschung beim Kunden schlecht hin!
Och, mit so einem Intertech Netzteil hat man immer was für Silvester.

BlacKi
2015-05-21, 11:59:32
Wieso sollte AMD das 290X Design verwenden? Habt ihr so eine kurze Aufmerksamkeitsspanne.:eek:

AMD hat uns gerade gesagt, was wir eigentlich schon lange wissen. AMD spart durch Nutzung von HBM die Hälfte der Fläche indem sie den kompletten RAM aufs Package bringen.

Warum also, warum sollten sie das 290X Design verwenden?:rolleyes:

ich hab gelesen man spart 40mm an länge ein, aber die karte frisst mehr strom, also mehr spannungswandler drauf!
http://pics.computerbase.de/6/5/0/0/7/10-1080.2252830201.png

Unicous
2015-05-21, 12:06:33
@Effe

Komplett nicht, nein, es dürften aber deutlich weniger sein.

Das PCB könnte auch weniger Lagen haben.


@BlacKi

Das Konzept von "²" ist dir bekannt?

Was hast du gelesen? Die Karte frisst mehr Strom? Mehr Spannungswandler? The Fuck? Wie soll denn das zusammen gehen.:facepalm:

BlacKi
2015-05-21, 12:06:36
Wer nur im MM geht um PC zu kaufen ist nicht mehr zu helfen.

Ich ziele auf die Kunden ab die einzelne Komponente kaufen ;). Komplett PCs sind meistens die größte Verarschung beim Kunden schlecht hin!

wenn die leute bei amd genauso denken wunderts mich nicht das amd solch einen marktanteil hat.

BlacKi
2015-05-21, 12:14:54
@BlacKi

Das Konzept von "²" ist dir bekannt?

was willst du in den 20mm über dem package hinpacken? vrm?

das wird speziell bei den ersten karten wohl frei bleiben.

300w müssen in niedrigere volt umgewandelt werden. das sind 20% mehr VRM die verbaut werden müssen.

edit: das entfernte bild war quatsch. ich verstehe leider nicht warum vrm eingespart werden können wenn die karte mehr strom braucht als die 290x.

Unicous
2015-05-21, 12:15:57
:facepalm:

Wo bin ich hier eigentlich.

uweskw
2015-05-21, 12:30:31
Wer nur im MM geht um PC zu kaufen ist nicht mehr zu helfen.

Ich ziele auf die Kunden ab die einzelne Komponente kaufen ;). Komplett PCs sind meistens die größte Verarschung beim Kunden schlecht hin!

Na und da haben die meisten die die Kohle für solche Karten haben auch einen Bekannten der sich richtig "auskennt". Der ist schliesslich sogar regelmäßig auf der PCGH-Seite unterwegs. :freak::freak:
Und da hat er gelesen,dass AMD eh ständig Probs mit Treibern hat und 4GB eh zuwenig ist. Fertig. So entstehen Marktverhältnisse.
Manchmal glaube die großen HW-Seiten wissen garnicht wie sehr sie den Markt beeinflussen.

greetz
US

y33H@
2015-05-21, 12:36:51
Ich widme mich auf einer Seite dem Thema, warum 4 GB nicht (zu) wenig sind :P

dildo4u
2015-05-21, 12:45:12
PCGH hat dazu gerade ein Titan X OC Test im Heft Frametime Messungen findet man meistens nur dort.AC Unity und Shadow of Mordor brauchen in 4k mehr als 4GB auch ohne MSAA.

uweskw
2015-05-21, 12:48:30
Die Karte belegt mehr weil mehr Speiche da ist. Macht Windows doch genau so. Heist aber nicht das es nötig wäre.

robbitop
2015-05-21, 12:49:05
Dennoch haben sich die Karten blenden verkauft, nein, sogar überragender als sich nV das hat träumen lassen. Trotz knappem VRAM (2 GiB wie bei der GTX 680 wurde schon 2 Jahre vorher auf Grafikakrten verbaut, HD 5870 Eyefinity Edition). Darüber hat sich fast keiner "aufgeregt" oder als Minuspunkt aufgezählt.

Trotzdem stimme ich dir zu, dass 4 GiB ein echter Kaufhinderungsgrund sind (für mich, Eyefinity, 6016x1080), gerade bei >500 Euro. Bei der 300-500 Klasse bei entsprechender Performance würde es jedoch passen.
NV bekommt alles verkauft. AMD nicht. Das ist die traurige Wahrheit. AMD muss was für ihr Image tun. Da sind am Ende runde Produkte und runde Lösungen wichtig.


Ich hoffe für uns alle und den Markt, dass AMD die Kurve bekommt und insbesondere ihr Treiber und Dev-Rel Budget signifikant aufstocken können und gleichzeitig die HW gut bis sehr gut bleibt.

dildo4u
2015-05-21, 12:51:41
Die Karte belegt mehr weil mehr Speiche da ist. Macht Windows doch genau so. Heist aber nicht das es nötig wäre.
PCGH zeigt dort nicht wie viel Speicher belegt ist sondern das eine 980 deutlich schlechtere Frametimes hat es gibt massig Ausschläge,die Titan X Linie ist deutlich sauberer.Heft 6/2015 Seite 33.

Leonidas
2015-05-21, 12:54:02
Wenn das technisch möglich ist, dann wären 6GB ja durchaus im Rahmen.


Ja, aber das Interface des Chips muss passen. Bei Fiji geht das nicht, da zu 4096bit immer nur 4 oder 8 GB Speicher passen.

StefanV
2015-05-21, 12:57:53
Ja, aber das Interface des Chips muss passen. Bei Fiji geht das nicht, da zu 4096bit immer nur 4 oder 8 GB Speicher passen.
...was aber nicht ausschließt, dass man auch mit 3072 oder 2048bit ebenso arbeiten könnte...

Ev. sind auch irgendwelche Zwischenschritte möglich....

robbitop
2015-05-21, 13:01:25
Die IHV´s knallen schon auf Einsteigerkarten bevorzugt 4GB. Ist halt nen Checklistenfature das jeder Depp mit einbeziehen kann. Man könnt es ja irgendwann mal brauchen. Auf ner GT630 oder ner AMD 240??:freak:

Also bisher habe ich immer noch keine vernünftigen Benchmarks gesehen in denen 4GB bei AMD limitieren. Und danach frage ich schon seit ewigkeiten. Auf PCGH finde ich auch nichts aussagekräftiges.
Selbst Tests der R295 als CF, also 4 Hawaji Chips, limitieren nicht durch 4GB.(PCGH, Toms HW, 3DGuru..) Und schlechte Frametimes gibt es massenhaft auch bei NV schon unter 1920x1080
Da hast du ja intensiv recherchiert. Nach 2 min Suche sofort gefunden:

https://www.youtube.com/watch?v=nKIue1wReqI
Ultra Texturen Shadows of Mordor - 1:42
Karte mit 4 GiB VRAM ruckelt. Und das in 1080p. 1440p und 4K sind nochmal eine andere Geschichte.

https://www.youtube.com/watch?v=okOKH_0E5iU
Watch Dogs - 4 GiB Karte in 4K @4xMSAA. Bekommt richtig auf die Mütze.

Ansonsten Grestorn, den du auch per PN um Bestätigung bitten kannst - ansonsten kannst du auch den Titan X Thread lesen. Auch Godmode hat den gleichen Wechsel durch. Beide bestätigen, dass in höheren Settings (für die ihre 980 SLI Vorgängersystem genug Leistung hatte) schlechter liefen als eine einzige GTX Titan X. Aus VRAM Mangel. Fijii sollte ähnlich viel Leistung oder mehr als TX haben.

Und selbst wenn man diese Extrembeispiele mal sein lässt. Schaue bitte einfach auf die VRAM Auslastung in modernsten Spielen. Die ist häufig bei mir zwischen 6 und 8 GiB. Kann sein, dass davon nicht alles benötigt wird. Aber eine 4 GiB Karte ist zumindest immer häufiger schon ziemlich an der Grenze.
Wenn jetzt eine Karte mit Titan X Performance rauskommt - stelle dir selbst mal die Frage: macht es Sinn, dass die jetzt schon an der Grenze ist? Was ist mit 2016/17?
Wie gesagt: 780/780ti und der 680/770 ist genau das gleiche passiert.

Hübie
2015-05-21, 13:08:02
WD @4k mit MSAA ruckelt und SoM bekam ein Update was das Verhalten verbesserte. Und das mit einer neuen Speichertechnologie zu vergleichen halte ich für zu voreilig.

y33H@
2015-05-21, 13:09:49
PCGH hat dazu gerade ein Titan X OC Test im Heft Frametime Messungen findet man meistens nur dort.AC Unity und Shadow of Mordor brauchen in 4k mehr als 4GB auch ohne MSAA.Jo, in 4K mit 4x TSAA bei Watch Dogs bei 30 fps. Und in 4K+FXAA in Mordor bei etwa 37 fps und in 4K+FXAA in ACU bei 30 fps.

Menace
2015-05-21, 13:12:32
@robbitop: Das nimmt ja schon missionarische Züge an; zumindest für ein Teil, welches noch nicht einmal getestet wurde. Ich vermute auch, dass die 390X eher ein HBM-Test ist, mit einigen Nachteilen (mich stört eher der vermutete hohe Stromverbrauch), aber diese Fail-Kadenzen hier sind ja angsterregend. Somit scheint ja AMDs Untergang besiegelt; mal wieder.

Topha
2015-05-21, 13:45:05
Da Apple hier vermehrt aufkommt: Es ist ohnehin langsam Zeit für den neuen MacPro, und da die ja schon recht stark auf GPGPU setzen und AMD in ihren derzeitigen Produkten nicht abgeneigt zu sein scheinen könnte ich mir eine recht Zeitnahe Ankündigung sowohl der "AMD Radeon FX" als auch des neuen MacPro mit ebendieser vorstellen. Der geringere Platzbedarf ist ja bei Apple Produkten dann gleich wichtiger Designbestandteil, zusätzlich würde es auch erklären warum sich die Vorstellung so lange hinzieht: Erstmal ausreichend produzieren um Apple und den Enthusiasten-Retail Markt zu bedienen, nebenbei noch soviele Restbestände loswerden wie irgend möglich.

mironicus
2015-05-21, 14:05:56
Apple kriegt den vollen Fiji und wir den Verkrüppelten. :-D

Mandalore
2015-05-21, 14:18:35
Wollte Apple nicht dieses Jahr einen 8K iMac vorstellen? Fiji würde da sehr gut reinpassen für die 33 Millionen Pixel;D

fondness
2015-05-21, 14:22:30
Es sollte eine Porno-Edition geben mit 8GB, und wenn sie $2000 kostet, einfach nur damit man was fürs Rampenlicht hat. Gekauft wird ohnehin zu 90% dann die 4GB Version. NV verkauft zurzeit defacto auch keine Karten mit mehr als 4GB mit Ausnahme der $1000-Karte TITAN X.

y33H@
2015-05-21, 14:27:50
Apple kriegt den vollen Fiji und wir den Verkrüppelten.Das wäre denkbar ;D

robbitop
2015-05-21, 14:28:33
@robbitop: Das nimmt ja schon missionarische Züge an; zumindest für ein Teil, welches noch nicht einmal getestet wurde. Ich vermute auch, dass die 390X eher ein HBM-Test ist, mit einigen Nachteilen (mich stört eher der vermutete hohe Stromverbrauch), aber diese Fail-Kadenzen hier sind ja angsterregend. Somit scheint ja AMDs Untergang besiegelt; mal wieder.
Es nervt einfach, dass Leute potenziellen VRAM Mangel schönreden.
Egal welcher IHV die GPU baut. HBM ändert am VRAM Mangel auch nichts. Wie auch? Ich finde diese AMD/NV Diskussion einfach nur ätzend, weil es objektiv egal ist. Kann man nicht einfach mal auf rein technischer Basis bleiben?

Nakai
2015-05-21, 14:30:33
Apple setzt bei professionellen Geräten auf gute OpenCl-Performance. Die liefert NV nicht. Jeder der schon mit NV+OpenCl gearbeitet hat, weiß das. Derzeit ist Cuda im Hpc der Standard. Ich hoffe das ändert sich.

fondness
2015-05-21, 14:30:52
Wenn man auf rein technischer Basis bleiben will sollte man das fertige Produkt abwarten bevor man urteilt.

Pirx
2015-05-21, 14:33:37
Es nervt einfach, dass Leute potenziellen VRAM Mangel schönreden.
Egal welcher IHV die GPU baut. HBM ändert am VRAM Mangel auch nichts. Wie auch? Ich finde diese AMD/NV Diskussion einfach nur ätzend, weil es objektiv egal ist. Kann man nicht einfach mal auf rein technischer Basis bleiben?
Dann führe doch dann deinen Reigen auf, wenn die technische Basis, um die es hier geht, vorgestellt wurde und verfügbar ist.

Timbaloo
2015-05-21, 14:37:21
Liest sich wie eine Meldung auf der-postillion.de:

"Skandal erschüttert das 3DC: Moderator beim Spekulieren im Spekulationsunterforum auf frischer Tat ertappt!"

robbitop
2015-05-21, 14:37:26
Wenn man auf rein technischer Basis bleiben will sollte man das fertige Produkt abwarten bevor man urteilt.
Zum xten Mal. Ich kritisiere nicht Fijii als konkretes Produkt sondern eine hypotetische Konfiguration mit 4 GiB VRAM.

Was soll welcher IHV denn daran ändern? VRAM ist VRAM ist VRAM.

Dann führe doch dann deinen Reigen auf, wenn die technische Basis, um die es hier geht, vorgestellt wurde und verfügbar ist.
Eine technische Diskussion über kommende Produkte ist Sinn des Spekulationsforums. Echte Gegenargumente bis auf ein plumpes "warte ab" gibt es nicht.

fondness
2015-05-21, 14:40:48
Was soll welcher IHV denn daran ändern? VRAM ist VRAM ist VRAM.


Es würde schon angedeutet das hier Optimierungen möglich sind.