PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56

Unicous
2015-02-02, 13:29:57
Wenn man diesem PDF glauben will: http://www.bnppresearch.com/ResearchFiles/31175/Semiconductors-230414.pdf

Siehe Seite 10, dann hat nur Samsung bereits einen fertigen 14nm Finfet-Prozess am Laufen. Sowohl TSMC als auch GF sind noch ein paar Quartale davon entfernt. GF braucht noch am längsten. Allenfalls die Trials laufen bei beiden schon wenn ich das Diagramm richtig lese.

Intel natürlich außen vor.

Finde ich jetzt sehr komisch, dass du den ersten Teil meines Posts zitierst, aber nicht den zweiten?

Von den zeitlichen Abläufen kommt es nicht hin. GF ist gerade mal dabei die Produktion anzufahren, Samsung ist wohl schon seit ein halben Jahr oder so dabei, aber man hört eigentlich nur Negatives oder Widersprüchliches.

Die .pdf wurde glaube ich hier auch schon gepostet.
Und generell sollte man bei diesen Instituten aufpassen.

Sources: Companies; BNP Paribas estimates

Sie schaffen sich gerne einen ausführlichen Überblick über die Industrie, aber wenn es um einzelne Unternehmen geht, wird es schnell sehr nebelig. Besonders bei TSMC kann man sich nicht nicht sicher sein. Denn es sind notorische Lügner bzw. sie verstehen sich einfach gut auf spin doctoring.

Wie so oft ist es schwierig die Industrie-roadmap abzubilden. Intel ist da die einsame Ausnahme.

Das ist der Quote den y33H@ meint


So right now we have more than 1,000 engineers working on ramp up for the FinFET Plus. On the yield learning side, the progress is much better
than our original plan. This is because the 16-nanometer uses similar process to 20 SOC, except for the transistor. And since 20 SOC has been in
mass production with a good yield, our 16 FinFET can leverage the yield learning from 20 SOC and enjoy a good and smooth progress. So we are
happy to say that 16-nanometer has achieved the best technology maturity at the same corresponding stage as compared to all TSMC's previous
nodes.

Ich finde das nicht so eindeutig und es könnte auch simples sping doctoring sein und der werte Dr. Wei hat ja schon ein wenig Probleme mit der englischen Sprache. ;)

y33H@
2015-02-02, 13:53:57
Ich meinte: For the FinFET Plus, we also passed the first stage of the qualification on October 7 and since then entered the risk production.

Unicous
2015-02-02, 14:22:39
Ups. Sry.

Dennoch ändert das nichts an meinem IMHO: TSMC legt sich die "Fakten" so zurecht, damit sie einen positiven spin bekommen. Man kann froh sein, dass GF weiterhin privat ist. Ich könnte mir ähnlichen bullshit aus dieser Richtung auch vorstellen.

Man erinnere sich an die 28nm risk production und wann die ersten Chips (also GPUs) kamen. Ich will jetzt nicht lügen, aber es waren glaube ich mehr als 1 1/2 Jahre. Anfang 2010 sollte die risk production beginnen und wann Tahiti und Co. kamen weiß man ja. Und TSMC hat ja unterschwellig schon zugegeben, dass sie es mit ihrem ersten FinFET Prozess verkackt haben, indem sie mehr CapEx in "10nm" stecken.

Ach Mist. 28HP risk startete wohl doch erst im Q4, anders als angestrebt, im H1. LP war wohl der erste Prozess, aber auch ein halbes Jahr zu spät.

Dennoch kann man TSMC in seinen Aussagen nicht vertrauen. Und auf diesen Aussagen aufbauende Studien natürlich auch nicht.

mboeller
2015-02-02, 16:45:52
Finde ich jetzt sehr komisch, dass du den ersten Teil meines Posts zitierst, aber nicht den zweiten?


Stimmt; ist mir wohl entgangen.

Thunderburne
2015-02-03, 07:58:17
Was meint ihr gibt es ne reale Chance das wir zum Start 8GB Karten sehen werden.
Ich meine so könnte AMD dem GM 200 mit 6GB gleich den Wind aus den Segeln nehmen und man wäre im Highend Bereich deutlich besser aufgestellt.

Ne 4GB Karte im Bezug auf CF will ich mir nicht antun.

Ailuros
2015-02-03, 08:06:28
Fiji klingt mir nicht nach einem GM200 Konkurrenten. Sonst auf Papier sieht 8GB durchaus beindruckend aus, aber wirklich etwas bringen in Echtzeit wird es nicht ausser man ist Architekt und kritzelt die Plaene fuer einen Wolkenkratzer zusammen.

Thunderburne
2015-02-03, 08:13:24
Sehe ich etwas anders 4K kommt immer mehr in Mode .
Meine EX Ti ist schon bei 4Titeln gescheitert unter FHD.
Da die Konsolen so viel RAM an Board haben wird das auch nicht weniger werden .

Ich zocke z.b am Beamer auf 120Zoll und möchte Gerne VSR oder je nach dem was es für Gespann wird DSR nutzen.
Multimonitor ist ja ein weiteres Argument für mehr Speicher.

Sollten die Benchmarks in etwa hinkommen und die neue AMD packt wirklich um die 50% an Leistung drauf hat man gerade bei Multi GPU genug Rohleistung für viel RAM.

Nach heutigen Informationen wird der GM 200 ja auch ca 50% + auf die 980 machen .
Könnte heißen die Karten wären am Ende wohl nicht weit auseinander.

Ich würde z.b einen 6GB GM 200 für 650 Euro einer 500Euro Radeon 4GB vorziehen.
Jedoch würde ich zu einer 8GB Radeon greifen bei um die 500 Euro und den GM 2006GB links liegen lassen.

Da gibt es schon so einige die so denken.

Finde 4GB sind nicht mehr Zeitgemäß für die neue Gen.

Ailuros
2015-02-03, 08:37:55
Sehe ich etwas anders 4K kommt immer mehr in Mode .
Meine EX Ti ist schon bei 4Titeln gescheitert unter FHD.
Da die Konsolen so viel RAM an Board haben wird das auch nicht weniger werden .

Konsolen werden in Zukunft wohl ihre resources besser einsetzen, als eine Tonne Bums-texturen die nur beschissen aussehen wie in Mordor.

Ich zocke z.b am Beamer auf 120Zoll und möchte Gerne VSR oder je nach dem was es für Gespann wird DSR nutzen.
Multimonitor ist ja ein weiteres Argument für mehr Speicher.

Sollten die Benchmarks in etwa hinkommen und die neue AMD packt wirklich um die 50% an Leistung drauf hat man gerade bei Multi GPU genug Rohleistung für viel RAM.

50% im Vergleich zu was?

Nach heutigen Informationen wird der GM 200 ja auch ca 50% + auf die 980 machen .
Könnte heißen die Karten wären am Ende wohl nicht weit auseinander.

Na klar wenn man ueberall sinnlos mit +50% herumschmeisst, dann sollte es klar sein dass man zu solchen Schlussfolgerungen kommt. Fiji ist afaik ein klein bisschen schneller als eine GTX980 und eine volle GM200 basierende SKU muss man schon grosszuegig uebertakten dass man im Durschnitt um 50% ueber der 980 landet.

Thunderburne
2015-02-03, 08:40:14
Die 50 % bei der Radeon waren auf die die 290X gemeint und um die bis ca sind bei mir noch keine festen Werte..
Meine Ti lief mit 1325 MHZ z.b in Watch dogs mit TXAA *2 war der Ofen aus mit 3GB nur nachladerucker wobei ich aber deutlich um die 70FPS in den Average hatte.

RAM ist durch nichts zu ersetzen nur durch noch mehr RAM.

Ja vielleicht gewinnen die Texturen bei den Konsolen noch an Qualität.
Gebe dir da recht mit den Bumstexturen jedoch wird es nicht besser werden für die RAM Usage beim PC.

Ich lass mal mal nen Artikel über Ubischrott und noch nen Verein .
Kurz und knapp die PC User können den Programier Fail über die Hardware kompensieren.

Für mich ist eines klar wenn es kein reines PC Game ist werden die Spiele Hersteller den PC Usern einen Entschuldigung Scheiss entgegen kommen.

aufkrawall
2015-02-03, 08:40:48
Konsolen werden in Zukunft wohl ihre resources besser einsetzen, als eine Tonne Bums-texturen die nur beschissen aussehen wie in Mordor.

Wenn man PRT nutzt und die Abwärtskompatibilität kappt, ist da sicher noch einiges drin.
Ist die Frage, wann man das mal zu sehen bekommen wird.

Ailuros
2015-02-03, 08:50:51
Wenn man PRT nutzt und die Abwärtskompatibilität kappt, ist da sicher noch einiges drin.
Ist die Frage, wann man das mal zu sehen bekommen wird.

Ist zwar OT aber so etwas ensteht wenn man u.a. mit gutem lighting umgehen kann: http://www.siliconstudio.co.jp/nex-gen/en/ ....da kann ich drei Mal auf den unendlichen Texturenbrei pfeifen.

Thunderburne
2015-02-03, 08:56:11
Ist zwar OT aber so etwas ensteht wenn man u.a. mit gutem lighting umgehen kann: http://www.siliconstudio.co.jp/nex-gen/en/ ....da kann ich drei Mal auf den unendlichen Texturenbrei pfeifen.
Ist echt schade wo wir Momentan stehen als Endverbraucher die Games kommen ja nahe zu nur noch im Beta Status heraus finde seit PS4 und XBone One ist es irgendwie noch schlimmer geworden.

Ailuros
2015-02-03, 09:01:33
Die 50 % bei der Radeon waren auf die die 290X gemeint und um die bis ca sind bei mir noch keine festen Werte..
Meine Ti lief mit 1325 MHZ z.b in Watch dogs mit TXAA *2 war der Ofen aus mit 3GB nur nachladerucker wobei ich aber deutlich um die 70FPS in den Average hatte.

Und all dieses Wunder immer noch unter 28nm und bei etwas ueber 100mm2 mehr? :rolleyes:

RAM ist durch nichts zu ersetzen nur durch noch mehr RAM.

Ja nur kann der Speicher wie auch zich andere Faktoren auf einer GPU nicht unendlich sein. Wenn AMD Fiji mit 4GB veroeffentlicht und es haengt von den Herstellern ab ob es 8GB Varianten geben wird, dann riecht es mal wieder danach als ob im letzten Fall selten bis nie ein wahrer Unterschied zu sehen ist.

aufkrawall
2015-02-03, 09:06:46
Ist zwar OT aber so etwas ensteht wenn man u.a. mit gutem lighting umgehen kann: http://www.siliconstudio.co.jp/nex-gen/en/ ....da kann ich drei Mal auf den unendlichen Texturenbrei pfeifen.
AC: U hat gute Texturen und Lighting bei nem angemessenen VRAM-Bedarf, sind schon nicht alle Entwickler dermaßen unfähig diesbezüglich. Gut, ist wieder einiges anderes kaputt...

Wie schnell 3GB obsolet geworden sind, lässt jedenfalls für die Zukunft lehren.
Einige Studios werden auch die 4GB inflationär verschleudern und den Kunden Hakler zumuten.

Thunderburne
2015-02-03, 09:13:26
Und all dieses Wunder immer noch unter 28nm und bei etwas ueber 100mm2 mehr? :rolleyes:



Ja nur kann der Speicher wie auch zich andere Faktoren auf einer GPU nicht unendlich sein. Wenn AMD Fiji mit 4GB veroeffentlicht und es haengt von den Herstellern ab ob es 8GB Varianten geben wird, dann riecht es mal wieder danach als ob im letzten Fall selten bis nie ein wahrer Unterschied zu sehen ist.

Na ja ich sage es mal so Takt berreingt ist die die 980 langsamer wie ne 780 TI die 980 brauch 150- 200 mehr um gleich schnell zu sein ergo war die 980 für mich Stillstand aus Leistungs Sicht.

Nun stehen da noch ca 200 mm2 bei NV zur Verfügung wenn der Chip mehr auf Gaming als auf Cuda ausgelegt ist halte ich persönlich für um die 40% + für realistisch.

Wenn AMD nun auch nen Weg gefunden hat die 28Nm besser zu nutzen wieso den auch nicht um die 40% möglich .

Ich versteifte mich da auch nicht drauf.

Würde ich jetzt z.b ein CF auf bauen würde ich auch nicht mehr zur 4GB Karte sondern zur 8GB Variante greifen .
Da ich mit der Rohleistung der Karten in FHD ne sehr Lange Zeit auskommen würde zumindest wenn man es dan auf FHD runter bricht wo die Leistung reicht kann ich VSR nutzen.

Warte aber halt noch den nächsten Leistungssprung ab.

Ailuros
2015-02-03, 09:20:06
AC: U hat gute Texturen und Lighting bei nem angemessenen VRAM-Bedarf, sind schon nicht alle Entwickler dermaßen unfähig diesbezüglich. Gut, ist wieder einiges anderes kaputt...

Ich hab Assasin's Creed auch nirgends erwaehnt.

Wie schnell 3GB obsolet geworden sind, lässt jedenfalls für die Zukunft lehren. Einige Studios werden auch die 4GB inflationär verschleudern und den Kunden Hakler zumuten.

Obsolet fuer was? Ihr denkt wohl dass jeder Verbraucher dort draussen 500er fuer GPUs auf den Ladentisch legt und alle ploetzlich 4k displays kaufen oder was? Nach meinem Verstaendnis bisher ist Fiji eine performance GPU genauso wie GM204. Mag sein dass eine 980 mit einem Wucherpreis angekommen ist aber es aendert trotzdem nichts daran dass sie nur mit einigen Opfern fuer 4k Aufloesungen geeignet ist. Soll sich doch ein vendor dazu trauen eine 970 bzw. 980 mit einem 8GB framebuffer zu veroeffentlichen. Ob da wirklich nicht andere Resources vor dem Speicher ausgehen bleibt dann abzusehen.

Na ja ich sage es mal so Takt berreingt ist die die 980 langsamer wie ne 780 TI die 980 brauch 150- 200 mehr um gleich schnell zu sein ergo war die 980 für mich Stillstand aus Leistungs Sicht.

Nun stehen da noch ca 200 mm2 bei NV zur Verfügung wenn der Chip mehr auf Gaming als auf Cuda ausgelegt ist halte ich persönlich für um die 40% + für realistisch.

Die 100mm2+ waren fuer Hawaii vs. Fiji gemeint.

Wenn AMD nun auch nen Weg gefunden hat die 28Nm besser zu nutzen wieso den auch nicht um die 40% möglich .

Komischerweise wird es immer weniger.... :P

Thunderburne
2015-02-03, 09:25:09
Preislich ist die 980 ja Highend angesetzt und wenn AMD eine Über 500mm2 GPU bringt weiss ich ja nicht ob man das Performance Chip nenen kann.

Wenn es so ist das die Karte 380 heißt bedeutet es ja nochlange nicht das sie nicht Highend ist so lange nicht noch was schnelleres da ist.

Die HD 7970 war auch eine Highend Karte mit 350mm2 .
Glaube auch das die darauffolgende Karte von AMD nicht mehr im 28Nm Prozess daherkommt so mit sollte die nächste Karte die letzte schnelle Karte in 28Nm werden.

Ailuros
2015-02-03, 09:32:33
Preislich ist die 980 ja Highend angesetzt

Ja und? Du wirst wohl zustande sein und verstehen koennen dass es sich hier nur um pures marketing handelt oder?

... und wenn AMD eine Über 500mm2 GPU bringt weiss ich ja nicht ob man das Performance Chip nenen kann.

Wenn es noch eine Loesung darueber geben wird sicher.

Wenn es so ist das die Karte 380 heißt bedeutet es ja nochlange nicht das sie nicht Highend ist so lange nicht noch was schnelleres da ist.

Gott im Himmel, gaukel Dir doch selber vor was Dir gerade passt. Von mir aus darfst Du sie Pippi Langstrumpf nennen, es aendert sich wirklich nichts dadurch.

Die HD 7970 war auch eine Highend Karte mit 350mm2 .

Es waren 350mm2 auf einem neuem 28nm Prozess wobei dessen Vorgaenger um zwei full nodes groesser hergestellt wurde. Du hast genau das gleiche mit Fiji nur gibt es eben leider nicht den Luxus eines neuen Prozesses. 28nm ist 28nm.

Thunderburne
2015-02-03, 09:32:38
Ich hab Assasin's Creed auch nirgends erwaehnt.



Obsolet fuer was? Ihr denkt wohl dass jeder Verbraucher dort draussen 500er fuer GPUs auf den Ladentisch legt und alle ploetzlich 4k displays kaufen oder was? Nach meinem Verstaendnis bisher ist Fiji eine performance GPU genauso wie GM204. Mag sein dass eine 980 mit einem Wucherpreis angekommen ist aber es aendert trotzdem nichts daran dass sie nur mit einigen Opfern fuer 4k Aufloesungen geeignet ist. Soll sich doch ein vendor dazu trauen eine 970 bzw. 980 mit einem 8GB framebuffer zu veroeffentlichen. Ob da wirklich nicht andere Resources vor dem Speicher ausgehen bleibt dann abzusehen.



Die 100mm2+ waren fuer Hawaii vs. Fiji gemeint.



Komischerweise wird es immer weniger.... :P
Eigentlich habe ich mit den 50% nur das angegeben wovon alle Träumen real sehe ich da auch weniger hatte auch nicht vor Erbsen zu zählen.

Mein Ursprüngliches anliegen liegt in mehr Speicher als nur 4GB .:P


Natürlich bin ich im Stande zu sehen das es Kühe Melken ist was NV da mit den kleinen Chips macht genauso wie AMD .

Jedoch stehlen die Karten zu dem Jeweiligen Zeitpunkt die Speerspitzen da und sind da halt auch vom Preis abzufinden.

Jetzt höre auf zu versuchen mich zu verkackeiern.:smile:

Ailuros
2015-02-03, 09:34:54
Eigentlich habe ich mit den 50% nur das angegeben wovon alle Träumen real sehe ich da auch weniger hatte auch nicht vor Erbsen zu zählen.

Mein Ursprüngliches anliegen liegt in mehr Speicher als nur 4GB .:P

Gut dann werde ich wohl hoffentlich angenehm ueberrascht und alles bisherige stimmt dann doch nicht. Im Gegenfall muessen wohl einige nach dem launch ihre Traumblasen schnell auspusten.

M4xw0lf
2015-02-03, 09:37:54
Wenn es noch eine Loesung darueber geben wird sicher.
Hast du zu diesem 'darüber' eigentlich schonmal was konkreteres gehört? (Abgesehen von den möglicherweise-Bermuda-Leaks... also aus persönlicheren Quellen ;) ).

Dural
2015-02-03, 09:41:00
die 4GB mehr werden aber ziemlich sicher deutlich teurer werden, ob da dann immer noch viele nach 8GB schreien wage ich zu bezweifeln.

ich werde mich dann spontan entscheiden ob es eine mit 4GB geben wird oder nicht. wenn die 8GB Version zeit nah folgen wird aber wahrscheinlich nicht.

Thunderburne
2015-02-03, 09:44:30
die 4GB mehr werden aber ziemlich sicher deutlich teurer werden, ob da dann immer noch viele nach 8GB schreien wage ich zu bezweifeln.

ich werde mich dann spontan entscheiden ob es eine mit 4GB geben wird oder nicht. wenn die 8GB Version zeit nah folgen wird aber wahrscheinlich nicht.
Das wäre schade will nicht zwingend einen GM 200 kaufen.

Ailuros
2015-02-03, 09:45:44
Hast du zu diesem 'darüber' eigentlich schonmal was konkreteres gehört? (Abgesehen von den möglicherweise-Bermuda-Leaks... also aus persönlicheren Quellen ;) ).

ΑΜD hat enthusiast seit R600 nur mit mGPU bedient; warum soll es sich gerade wenn man keinen neuen Prozess zur Hand hat aendern?

dargo
2015-02-03, 09:48:51
die 4GB mehr werden aber ziemlich sicher deutlich teurer werden, ob da dann immer noch viele nach 8GB schreien wage ich zu bezweifeln.

Was verstehst du unter deutlich teurer?
http://geizhals.at/de/msi-r9-290x-gaming-4g-v308-001r-a1047015.html?hloc=at&hloc=de
http://geizhals.at/de/msi-r9-290x-gaming-8g-v308-036r-a1192486.html?hloc=at&hloc=de

aufkrawall
2015-02-03, 09:48:52
Notfalls kann man mit 4GB noch bis Pascal pokern.

@Ail: Du hast imho eine nicht ganz passende Definition dafür, was "ausreichend" ist. Bei höherpreisigen Produkten ist mein Anspruch jedenfalls nicht, dass man mehrere unnötige kleine Ruckler pro Minute hat, die man mit mehr VRAM nicht hätte.
Es ist bei normal zu wenig VRAM natürlich nicht so schlimm wie häufig bei der 970, trotzdem muss das für +400€ nicht sein.
Dass Spiele lange mit 4GB gut spielbar sein werden, bestreitet niemand. Für möglichst smoothe Frametimes sind die 8GB aber definitiv nützlich. Nimm das mal nur Kenntnis und schau dir am besten gleich den VRAM-Bedarf von Dying Light oder CoD: AW in 1080p an.

fondness
2015-02-03, 09:56:48
ΑΜD hat enthusiast seit R600 nur mit mGPU bedient; warum soll es sich gerade wenn man keinen neuen Prozess zur Hand hat aendern?

Fiji nur knapp über der GTX980 und sonst nur Multi-GPU wäre aber schon etwas sehr lame...

aufkrawall
2015-02-03, 09:59:57
Wär dann fast ein reines Effizienz-Update.

Ailuros
2015-02-03, 10:00:54
Notfalls kann man mit 4GB noch bis Pascal pokern.

@Ail: Du hast imho eine nicht ganz passende Definition dafür, was "ausreichend" ist. Bei höherpreisigen Produkten ist mein Anspruch jedenfalls nicht, dass man mehrere unnötige kleine Ruckler pro Minute hat, die man mit mehr VRAM nicht hätte.

Was wohl heisst dass mir bei einer 4GB 770 als Beispiel der groeessere framebuffer gegen einen 2GB 770 den Tag rettet oder?

Ich pass mich dem an was die IHVs entwickeln und halte es nicht fuer moeglich dass diese ihre GPUs in einem Vakuum entwickeln.

Es ist bei normal zu wenig VRAM natürlich nicht so schlimm wie häufig bei der 970, trotzdem muss das für +400€ nicht sein.
Dass Spiele lange mit 4GB gut spielbar sein werden, bestreitet niemand. Für möglichst smoothe Frametimes sind die 8GB aber definitiv nützlich. Nimm das mal nur Kenntnis und schau dir am besten gleich den VRAM-Bedarf von Dying Light oder CoD: AW in 1080p an.

Diesen ramtamtam mit dem angeblichen knappen Speicher hoere ich schon seit den 90-er Jahren. Es ga schon IMMER Wege den framebuffer voll zu bekommen, aber es waeren schon immer beschissene Spiele wo Entwickler ihren code koeniglich abgevoegelt haben und dafeur ist Dying Light eines der besten Beispiele. Ich hab gestern eine 970 live in 4k in dying light gesehen; zwar nicht "supersmooth" aber im guten Ganzen alles andere als unakzeptabel. Das das Spiel bis zu 12GB verbraucht ist wohl nicht rein zufaellig ein bug oder? Wenn man dann schon bugs als Argumente ans Land ziehen muss dann verstehe ich nur darunter dass die Ubertreibungen durch die Jahre nur das bleiben was sie eigentlich sind: Uebertreibungen.

Thunderburne
2015-02-03, 10:17:59
Tja da scheiden sich die Geister der eine brauch 60FPS der andere nur 25 FPS wo erstere dann instand auf Scheisshaus läuft und sich erstmal über geben muss.

Smoothness was für ein in die Breite gefächert Begriff abgewalzt auf den Betrachter der vor Bildschirm hängt.
Wohl möglich auch der Grund warum jeder Schund gekauft wird .
Was mir da so Spontan einfällt z.b als die ersten Tfts kammen mein Cousin rief mich an hier und da super toll als wir dann eine Lanparty gemacht haben war noch Anfang der 90er dachte ich ich traue meinen Augen nicht und fing an an mir selbst zu zweifeln so bald ich im beim Spielen zu schaute dachte ich ich habe 6 Promille intus.

Ailuros
2015-02-03, 10:35:00
Tja da scheiden sich die Geister der eine brauch 60FPS der andere nur 25 FPS wo erstere dann instand auf Scheisshaus läuft und sich erstmal über geben muss.

Mit einer 970/290 muss man je nach Fall auf zumindest 1080p runter auf vollen settings fuer ~60fps. Es wird wohl keiner erwarten dass man 60 fps in 4k in solch einem Spiel mit max settings erreichen kann.

Ailuros
2015-02-03, 10:39:43
Fiji nur knapp über der GTX980 und sonst nur Multi-GPU wäre aber schon etwas sehr lame...

Nehmen wir mal an das Zeug hier stimmt: http://www.chiphell.com/thread-1231917-1-1.html

Welcher Fall ist Dir lieber? Single GPU bei einem realen Verbrauch von ~295W oder mGPU mit solchem Verbrauch?

Thunderburne
2015-02-03, 10:40:26
Mit einer 970/290 muss man je nach Fall auf zumindest 1080p runter auf vollen settings fuer ~60fps. Es wird wohl keiner erwarten dass man 60 fps in 4k in solch einem Spiel mit max settings erreichen kann.
Ich wollte da mit nicht aussagen was ich brauche sonder wie unterschiedlich die Wahrnehmung von Mensch zu Mensch ist.
Ich bin mir genau bewusst was ich mit der und der Hardware erreichen kann und wo ich Probleme bekomme.

Ich gehöre nicht zu denen die fest dran glauben das die nächste Single GPU in 4K max out die 60FPS stemmt man glaubt es kaum aber man liest das Tatsächlich immer wieder in den Foren.:freak:

fondness
2015-02-03, 10:41:30
Nehmen wir mal an das Zeug hier stimmt: http://www.chiphell.com/thread-1231917-1-1.html

Welcher Fall ist Dir lieber? Single GPU bei einem realen Verbrauch von ~295W oder mGPU mit solchem Verbrauch?


Natürlich Single-GPU, warum?

Dural
2015-02-03, 10:42:09
AMD hat seit RV670 die grösse ihrer GPUs ständig erhöht, jetzt müsste schon mal ein 500mm Die kommen, der Zeitpunkt dafür ist auch ideal, da keine neue Fertigung vorhanden ist.


@dargo

rund 100.- bestimmt.

Ailuros
2015-02-03, 10:42:39
Ich wollte da mit nicht aussagen was ich brauche sonder wie unterschiedlich die Wahrnehmung von Mensch zu Mensch ist.
Ich bin mir genau bewusst was ich mit der und der Hardware erreichen kann und wo ich Probleme bekomme.

Dying light braucht dringend erstmal einen patch; dass das Spiel einen ziemlich ueblen memory leak hat ist ja nichts Neues.

aufkrawall
2015-02-03, 10:45:03
Dying light braucht dringend erstmal einen patch; dass das Spiel einen ziemlich ueblen memory leak hat ist ja nichts Neues.
Du leitest da Sachen ab, die wahrscheinlich nicht stimmen.
Viele Spiele nehmen sich mehr VRAM, wenn verfügbar. Den brauchen sie aber nicht unbedingt.
Was nichts mit den letzten 512MB der 970 zu tun hat, bevor du die nächste falsche Verbindung herstellst.

Dying Light sollte ohne das fehlerhafte Gameworks-DoF eigentlich ziemlich rund im GPU-Limit laufen.

Ailuros
2015-02-03, 10:45:18
Natürlich Single-GPU, warum?

Weil die bisherigen Daten auf nichts anderes zu deuten scheinen. Natuerlich gibt es eine unendliche Verwirrung rund um das ganze Thema welches natuerlich absichtlich nach aussen geleakt wird, aber anhand der bisherigen Daten sehe ich nichts anderes dass Sinn machen koennte.

Du leitest da Sachen ab, die wahrscheinlich nicht stimmen.
Viele Spiele nehmen sich mehr VRAM, wenn verfügbar. Den brauchen sie aber nicht unbedingt.

Wenns sie den VRAM nicht brauchen, dann gibt es auch keinen Grund zur Panik. Ob es stimmt oder nicht fuer dying light bleibt abzusehen.

Was nichts mit den letzten 512MB der 970 zu tun hat, bevor du die nächste falsche Verbindung herstellst.

Ganz im Gegenteil ich haette nicht daran gedacht, denn ich waere so frech zu behaupten dass 3.5GB nahe am Durchschnitts-Optimum liegen fuer 13 SMMs/56 ROPs/ 1.8MB L2 cache.

Dying Light sollte ohne das fehlerhafte Gameworks-DoF eigentlich ziemlich rund im GPU-Limit laufen.

Dann bring mir gefaelligst fehlerfreiere Beispiele denn solche Faelle sind nicht wirklich die Regel.

Thunderburne
2015-02-03, 10:45:31
Dying light braucht dringend erstmal einen patch; dass das Spiel einen ziemlich ueblen memory leak hat ist ja nichts Neues.
Einen Patch gab es ja schon der nimmt die Sichtweite raus von 100% auf 50% was die neuen 100% darstellt.
Was für ein fehlfick von den Entwicklern jedoch last es sich über eine CFG wieder richten.;D;D:freak::biggrin:

fondness
2015-02-03, 10:49:15
Weil die bisherigen Daten auf nichts anderes zu deuten scheinen. Natuerlich gibt es eine unendliche Verwirrung rund um das ganze Thema welches natuerlich absichtlich nach aussen geleakt wird, aber anhand der bisherigen Daten sehe ich nichts anderes dass Sinn machen koennte.

Wenn die Werte von Chiphell stimmen würde wäre Fiji ~40% über der GTX980 und nur knapp unter der 295X2.

Ailuros
2015-02-03, 10:50:23
Wenn die Werte von Chiphell stimmen würde wäre Fiji ~40% über der GTX980 und nur knapp unter der 295X2.

Wer sagt dass es sich um Fiji handelt?

fondness
2015-02-03, 10:51:34
Wer sagt dass es sich um Fiji handelt?

Multi GPU langsamer als eine 295X2 macht keine Sinn oder?

Ailuros
2015-02-03, 10:54:10
Multi GPU langsamer als eine 295X2 macht keine Sinn oder?

1. Unter 28nm mit einer 550mm Grenze?
2. Wieviel verbraucht denn eine 295X2?

aufkrawall
2015-02-03, 10:55:21
1. Unter 28nm mit einer 550mm Grenze?

AFR nicht mehr nötig?

Ailuros
2015-02-03, 10:59:46
AFR nicht mehr nötig?

Ach das Maerchen....:rolleyes: Mit DX12 bzw. jedem low level API koennte man AFR loswerden. Die Frage ist ob und wie viele Anpassungen developers machen muessen um ein nahezu optimales load balancing zwischen GPU chips in solchen Faellen zu erreichen?

Der chiphell link ist "the return of the king" betitelt und es wird Bermuda erwaehnt.

M4xw0lf
2015-02-03, 11:00:20
Doppel-Tonga, oder was?

aufkrawall
2015-02-03, 11:01:07
Doppel-Tonga, oder was?
Doppel-Fail. :freak:

Hugo
2015-02-03, 11:01:35
@Ailuros
Ich lese raus, dass Fiji = Hawaii +100mm² groß werden könnte und HBM Speicher nutzt. Performance und Verbrauch leicht über GTX980.
Da liest sich Fiji nicht grade als Heilsbringer für AMD. Mit dem Siliziumaufwand und HBM nur um ein wenig schneller zu sein als GTX980? Fiji ist leider zu spät dran.

Der Herstellungspreis wird sicherlich auch über GM204 liegen oder?
Ist HBM teuerer als GDDR5?
Auch nicht gut bei den Geschäftszahlen von AMD.

Da schiebt NV ne GM204 mit mehr Takt nach und alles ist beim alten..

Ailuros
2015-02-03, 11:02:10
Doppel-Tonga, oder was?

Ich wuerde auf Doppel-Fiji tippen so lange es kein ehlendiger fake ist. Bei nur 73C hypothetischer Temperatur unter 3D koennte so manches nettes OC auf die Beine damit stellen.

M4xw0lf
2015-02-03, 11:04:07
Ich wuerde auf Doppel-Fiji tippen so lange es kein ehlendiger fake ist. Bei nur 73C hypothetischer Temperatur unter 3D koennte so manches nettes OC auf die Beine damit stellen.

Aber wieso sollte das dann langsamer sein als eine 295X2? :uconf:
Oder reden wir hier irgendwo aneinander vorbei?

Ailuros
2015-02-03, 11:11:10
Aber wieso sollte das dann langsamer sein als eine 295X2? :uconf:
Oder reden wir hier irgendwo aneinander vorbei?

Weiss der Geier was es fuer ein Ding ist wenn es eine vergleichbare Temperatur zur 295X2 hat?

***edit: nach den charts vedonnert die 295X2 um ca. 200W mehr. These (ja Vorsicht These und nicht Theorie) = single GPU bei ~190W@3D, mGPU bei 295W.

Hübie
2015-02-03, 11:20:01
Nehmen wir mal an das Zeug hier stimmt: http://www.chiphell.com/thread-1231917-1-1.html

Welcher Fall ist Dir lieber? Single GPU bei einem realen Verbrauch von ~295W oder mGPU mit solchem Verbrauch?

Diese Insel-GPU dort hat das 1,5-fache Perf/W-Verhältnis ggü Hawaii. Also nicht gerade mies, würde ich sagen. Stellt man Maxwell ggü fehlt zwar noch einiges in Punkto Effizienz (~20%), aber hey - wir sind rot - :freak:

Ailuros
2015-02-03, 11:27:52
Diese Insel-GPU dort hat das 1,5-fache Perf/W-Verhältnis ggü Hawaii. Also nicht gerade mies, würde ich sagen. Stellt man Maxwell ggü fehlt zwar noch einiges in Punkto Effizienz (~20%), aber hey - wir sind rot - :freak:

Ich hab in der Zwischenzeit oben editiert. Wenn meine "These" stimmen sollte dann liegt Fiji schon auf Maxwell Nivaeu.

Thunderburne
2015-02-03, 11:30:03
Weiss der Geier was es fuer ein Ding ist wenn es eine vergleichbare Temperatur zur 295X2 hat?

***edit: nach den charts vedonnert die 295X2 um ca. 200W mehr. These (ja Vorsicht These und nicht Theorie) = single GPU bei ~190W@3D, mGPU bei 295W.
Man hat ja bei einer Single GPU andere Temps mit so einer AIO jedoch wenn das Teil hoch taktet und an die 300W wegdrückt auf solch einer die Fläche von über 500mm2 könnten die Temps schon passen.
Da wird dann auch noch zusätzlich die höhere Efezienz begraben liegen.
Mit einem Morpheus konnte man auch die Efezziens steigern bei der 290X glaube um die 25W weniger waren das.
Wenn man dann noch was mit OC holen kann hoffe ich mal auf 2*8Pin Serie.
Wo bei die 290X selbst unter Full Cover Wakkü alles andere als Drehzahl freudig ist.

Dural
2015-02-03, 11:43:30
das ist eine single gpu karte

http://videocardz.com/54727/amd-radeon-r9-300-series-rumors

Ailuros
2015-02-03, 11:55:28
das ist eine single gpu karte

http://videocardz.com/54727/amd-radeon-r9-300-series-rumors

Und die Sammlung aus jeglichem daemlichen Geruecht soll was beweisen? :rolleyes:

Man hat ja bei einer Single GPU andere Temps mit so einer AIO jedoch wenn das Teil hoch taktet und an die 300W wegdrückt auf solch einer die Fläche von über 500mm2 könnten die Temps schon passen.
Da wird dann auch noch zusätzlich die höhere Efezienz begraben liegen.
Mit einem Morpheus konnte man auch die Efezziens steigern bei der 290X glaube um die 25W weniger waren das.
Wenn man dann noch was mit OC holen kann hoffe ich mal auf 2*8Pin Serie.
Wo bei die 290X selbst unter Full Cover Wakkü alles andere als Drehzahl freudig ist.

So und jetzt vergleicht mal graphs: http://wccftech.com/nvidia-gm200-titan-2-amd-fiji-380x-bermuda-390x-benchmarked/

Entweder ist es nur der gleiche leaker der nur Mist erzaehlt oder die ganze Geschichte ist ziemlich auf der gleichen Schiene von Anfang bis zu heute.

HOT
2015-02-03, 12:00:15
das ist eine single gpu karte

http://videocardz.com/54727/amd-radeon-r9-300-series-rumors
Die Rückseite der abgebildeten Karte lässt auf externen GDDR5-Speicher schließen.

M4xw0lf
2015-02-03, 12:09:47
http://cdn.videocardz.com/1/2014/11/Radeon-R9-390-concept.jpg
Das da ist eine erbärmlich vershopte Version der 295X2, sonst gar nix.
Man hat das (wohl authentische) Bild des neuen Covers hergenommen (http://cdn.videocardz.com/1/2014/09/AMD-Radeon-R9-390X-cooling.jpg) und einfach ein BIld von der 295X2 entsprechend zurechtgeschnippelt.

Und die Kartenrückseite mit verpixelten Teilen ist eine 7970, wie videocardz auch selbst schreibt.

fondness
2015-02-03, 12:12:43
Weiss der Geier was es fuer ein Ding ist wenn es eine vergleichbare Temperatur zur 295X2 hat?

***edit: nach den charts vedonnert die 295X2 um ca. 200W mehr. These (ja Vorsicht These und nicht Theorie) = single GPU bei ~190W@3D, mGPU bei 295W.

Anhand der Angaben diverse AMD-Ings, der Die-Size, der verbauten Wakü und des HBM-Speichers würde ich stark von Single-GPU ausgehen.

Ailuros
2015-02-03, 12:25:09
Anhand der Angaben diverse AMD-Ings, der Die-Size, der verbauten Wakü und des HBM-Speichers würde ich stark von Single-GPU ausgehen.

Wenn ich jetzt alle drei chiphell graphs zusammenschmeisse (fake oder nicht) komme ich beim neuesten auf Bermuda. War irgend jemand von AMD so ausdruecklich dass er Bermuda als den ~550mm2 die erwaehnte?

fondness
2015-02-03, 12:49:59
Codenamen kann man schnell verwechseln.

Ravenhearth
2015-02-03, 12:52:57
Es macht sonst auch irgendwie keinen Sinn, dass Fiji mit 64 CUs, über 550mm² und HBM nur leicht über der 980 rauskommt. Diese Performance kann man auch mit 48 CUs und GDDR5 haben. Es sei denn, man muss den Chip auf 800MHz takten, weil man sonst die Effizienz nicht erreicht. Aber das wäre eine Blamage.

MilesEdgeworth
2015-02-03, 13:41:50
Gab es bei Videocardz (ja ich weiß :ugly: ) nicht mal einen Artikel der behauptete, der nächste AMD Chip käme mit etwa 50 CUs? Habe etwas mit 32xx Shadern in Erinnerung. Sollte da etwas dran sein, wäre das doch ein möglicher Fiji. Performance leicht über GTX 980 dürfte auch passen. Bermuda dann als wassergekühltes 64 CU - Monster.

Ailuros
2015-02-03, 13:46:24
Codenamen kann man schnell verwechseln.

Was wohl heisst dass keiner so deutlich war je einen codenamen zu nennen wie ich es in Errinerung habe.

Dural
2015-02-03, 13:47:43
ich spreche auch vom Gehäuse und das ist zu 100% eine single GPU Karte


Irgend welche dual GPU Geschichten ist einfach quatsch, erst recht wenn man bedenkt das unterschiedliche quellen von was grossem sprechen. Selbst AMD Leute sprechen vom 300Watt "Monster" :rolleyes:

Agent117
2015-02-03, 14:09:06
Wenn ich für 700 schon eine 295X2 bekomme, für wieviel könnte AMD dann 2*Fiji@550mm² MGPU + HBM bei weniger Leistung anbieten, ohne dass die Marge verglichen mit der 295X2 deutlich geringer wird?

2* Fiji geht natürlich und kommt auch vielleicht aber dann auch mit deutlich mehr Leistung als 2*Hawaii.

Was den Verbrauch von einem Fiji angeht frage ich mich, woher die Info komme dass er nur wenig mehr als die GTX980 verbrauchen soll?

Nakai
2015-02-03, 14:16:57
Gab es bei Videocardz (ja ich weiß :ugly: ) nicht mal einen Artikel der behauptete, der nächste AMD Chip käme mit etwa 50 CUs? Habe etwas mit 32xx Shadern in Erinnerung. Sollte da etwas dran sein, wäre das doch ein möglicher Fiji. Performance leicht über GTX 980 dürfte auch passen. Bermuda dann als wassergekühltes 64 CU - Monster.

Guck doch selber auf Videocardz, da wird mittlerweile die R9 300-Serie gelistet.

R9 390/X - Fiji
R9 380/X - Hawaii
R9 370/X - Tonga

Süße kleine Photoshop-Bildchen. :D

€: Natürlich schön die Stats verändert bzw. angepasst.


Bermuda als mGPU wäre da irgendwie zu schwach, imo. 60% vor Hawaii spricht entweder für eine stärkere SKU oder 4096SPs mit ~1,2GHz. NV hat den Takt mit Maxwell auch nach oben geschraubt, wieso sollte AMD das nicht schaffen? Ansonsten spricht die Performance von Fiji für 4096SPs und ~0,9GHz.

Bermuda ~ Fiji + ohne TDP-Limit(300W)

Ailuros
2015-02-03, 15:56:26
Wenn ich für 700 schon eine 295X2 bekomme, für wieviel könnte AMD dann 2*Fiji@550mm² MGPU + HBM bei weniger Leistung anbieten, ohne dass die Marge verglichen mit der 295X2 deutlich geringer wird?

2* Fiji geht natürlich und kommt auch vielleicht aber dann auch mit deutlich mehr Leistung als 2*Hawaii.

Was den Verbrauch von einem Fiji angeht frage ich mich, woher die Info komme dass er nur wenig mehr als die GTX980 verbrauchen soll?

Alles chiphell angebliche leaks die nicht unbedingt stimmen muessen aber:

http://wccftech.com/nvidia-gm200-titan-2-amd-fiji-380x-bermuda-390x-benchmarked/

http://cdn3.wccftech.com/wp-content/uploads/2014/12/Nvidia-GM200-TItan-2-AMD-Fiji-.png

Guck doch selber auf Videocardz, da wird mittlerweile die R9 300-Serie gelistet.

R9 390/X - Fiji
R9 380/X - Hawaii
R9 370/X - Tonga

Süße kleine Photoshop-Bildchen. :D

€: Natürlich schön die Stats verändert bzw. angepasst.

LOL :D Spassvogel :P


Bermuda als mGPU wäre da irgendwie zu schwach, imo. 60% vor Hawaii spricht entweder für eine stärkere SKU oder 4096SPs mit ~1,2GHz. NV hat den Takt mit Maxwell auch nach oben geschraubt, wieso sollte AMD das nicht schaffen? Ansonsten spricht die Performance von Fiji für 4096SPs und ~0,9GHz.

Ich sehe es ja ein dass hier etwas nicht stimmt, aber andersrum macht es auch keinen klaren Sinn. Wavey sagte uebrigens nach dem Tahiti launch dass in Zukunft Architekturen eher in die Breite gehen werden.

Bermuda ~ Fiji + ohne TDP-Limit(300W)

Waere die einfache "Loesung", nur seit wann benutzen IHVs andere Codenamen fuer Varianten vom gleichen chip?

Unicous
2015-02-03, 16:01:04
Du hast schon wieder die NAMENLOSEN verlinkt, dich soll der Blitz beim Scheißen treffen.

Ailuros
2015-02-03, 16:14:02
Du hast schon wieder die NAMENLOSEN verlinkt, dich soll der Blitz beim Scheißen treffen.

Blah selbst ein Blitz macht mir nichts mehr aus; kein Scherz ich hatte heute einen mini-Infarkt ergo vorsicht was Du Dir wuenscht, oder besser wuensch Dir's verdammte Lotto zu gewinnen und lass mich leben :P

Wenn ich den originalen chiphell link irgendwo haette, wuerde ich mich auch nicht mit dem Harem in Abu Dhabi beschaeftigen :freak:

Unicous
2015-02-03, 16:28:51
Ohje.:eek: Gute Besserung. Ernähr dich mal gesünder und treib ein bißchen Sport.;)

Thunderburne
2015-02-03, 16:39:06
Oder besser ab und zu gar nicht erst hier im Forum mit lesen ist ja manchmal auch nicht gut fürs Gemüt .:smile:
Werde jetzt auch bald 40 hoffe mal es geht dann nicht zu schnell Berg ab.:freak:

Zum Thema selbst all zu lange dauert es ja nicht mehr und dann sollten auch qualitativ bessere Infos in Umlauf gehen .

y33H@
2015-02-03, 16:52:06
Mein Stand seitens AIB-Meetings etc ist weiterhin Fiji XT 28nm als 390X in Q2 mit 4 GB HBM und up to 300W mit Hybrid-Kühlung und gut ein Drittel vor 290X. Zudem noch Fiji Pro und sonst nichts wirklich Neues ... Grenada soll ein Rebrand von Hawaii werden, ähnlich Pitcairn und Curacao.

iuno
2015-02-03, 17:11:14
Die Rückseite der abgebildeten Karte lässt auf externen GDDR5-Speicher schließen.
Es gibt doch gar keine Bilder!?
turned out to be Radeon HD 7970
Oder wovon sprichst du jetzt

Nakai
2015-02-03, 17:37:41
Ich sehe es ja ein dass hier etwas nicht stimmt, aber andersrum macht es auch keinen klaren Sinn. Wavey sagte uebrigens nach dem Tahiti launch dass in Zukunft Architekturen eher in die Breite gehen werden.


Mhh, in die Breite gehen per Interposer? Wäre ziemlich geil und auch logisch.

Ansonsten ist die Preisdifferenz der verschiedenen Boards auf Zauba sehr interessant. C88 ist ~75.000 INR wert, während alles andere deutlich darunter liegt. Hawaii ist etwa 33.000 INR, dann kommen andere Sachen bei 25.000 INR. Das Einzige was auch ziemlich teuer ist, ist Vesuvius mit über 90.000 INR.

Kann eine SingleGPU-Karte so teuer sein? Wegen HBM? Reinher vom Preis müsste es eine mGPU-Karte sein.

€: Achja, gute Besserung, btw!^^ Lass dir die Trolle nicht so an die Nerven gehen.^^

fondness
2015-02-03, 17:38:48
Mein Stand seitens AIB-Meetings etc ist weiterhin Fiji XT 28nm als 390X in Q2 mit 4 GB HBM und up to 300W mit Hybrid-Kühlung und gut ein Drittel vor 290X. Zudem noch Fiji Pro und sonst nichts wirklich Neues ... Grenada soll ein Rebrand von Hawaii werden, ähnlich Pitcairn und Curacao.

Das wäre zu wenig, in jeder Hinsicht.

M4xw0lf
2015-02-03, 17:42:01
Mein Stand seitens AIB-Meetings etc ist weiterhin Fiji XT 28nm als 390X in Q2 mit 4 GB HBM und up to 300W mit Hybrid-Kühlung und gut ein Drittel vor 290X. Zudem noch Fiji Pro und sonst nichts wirklich Neues ... Grenada soll ein Rebrand von Hawaii werden, ähnlich Pitcairn und Curacao.
Alter wäre das lahm.

Außerdem: Gute Besserung Ailuros.

aufkrawall
2015-02-03, 17:56:48
Alter wäre das lahm.

Auch was die Effizienz beträfe. :eek:

Locuza
2015-02-03, 17:58:47
Mein Stand seitens AIB-Meetings etc ist weiterhin Fiji XT 28nm als 390X in Q2 mit 4 GB HBM und up to 300W mit Hybrid-Kühlung und gut ein Drittel vor 290X. Zudem noch Fiji Pro und sonst nichts wirklich Neues ... Grenada soll ein Rebrand von Hawaii werden, ähnlich Pitcairn und Curacao.
Seit wann so offen mit AIB-Infos? :biggrin:

Wenn das Line-Up dann so aussieht:
390X (Fiji) = IP v8/9 (DX12 Features)
380X (Hawaii) = IP v7 (DX11 Level)
370X (Tonga) = IP v8 (DX12 Features?)

Wäre das wieder ein Haufen Kotze.
Dann hat man 2015 astrein verloren.

Nvidia Quasi-Monopol incoming eghh ;(

MilesEdgeworth
2015-02-03, 20:13:45
@Nakai:
Die Angaben bei Videocardz sind tatsächlich äußerst "interessant". :ugly:

__________________________________________________________________________

Würde jedenfalls mehr oder weniger zu den als "Bermuda" bezeichneten Links passen. Damit wäre aber zumindest das Fiji ES ein Fake... Jedenfalls wäre das sehr enttäuschend.
Waren die genannten AIB Meetings nicht zuletzt im Sommer 2014? Werden derartige Ankündigungen hinter verschlossenen Türen denn schon etwa ein Jahr im Voraus geliefert? :O

iuno
2015-02-04, 01:39:52
Stehen die dort nicht schon länger drin? Die Kommentare sind jedenfalls schon Monate alt und die Daten bringen auch nichts neues. Stammt alles aus dem Gerüchte-roundup was es dort kürzlich gab (und dementsprechend auch den persönlichen Einschätzungen des Autoren; etwa 3,5k SP anstatt 4096)

StefanV
2015-02-04, 09:35:14
Naja, bei AMD wird man sich wohl eher auf 14nm oder so konzentrieren.
Da hoffen wir mal, dass sie dann mit der neuen Fertigung wieder vorn dabei sind...

Aber die 7970er waren schon ganz nett, hat aber AMD nicht wirklich viel genutzt, da viele dennoch nV gekauft haben...

Dural
2015-02-04, 09:39:51
weil die 680 eventuell besser war?

M4xw0lf
2015-02-04, 10:00:32
War sie? Beim Launch knappe 10% schneller (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Test-Geforce-GTX-680-Kepler-GK104-873907/20/), fein... Ohne den Nvidia-Bonus aka "ich warte was Nvidia bringt und kaufe das, egal was es sonst noch gibt" hätte sie niemanden hinter dem Ofen vorgelockt, nachdem die 7970 schon 3 Monate vorher auf dem Markt war.
Mittlerweile zieht sie auch schon rein durch den Speicherausbau standardmäßig den kürzeren gegenüber der 7970/280X.

aufkrawall
2015-02-04, 10:25:54
Mittlerweile war damals aber nicht und bf3 lief lange zeit viel schneller.

fondness
2015-02-04, 10:30:34
Es ist ja schon ziemlich auffällig wie schnell NV Karten fallen lässt sobald ein Nachfolger da ist. Auch die 780Ti hat mittlerweile Mühe mit der 290X.

robbitop
2015-02-04, 10:41:16
IMO ist es realistisch davon auszugehen, dass AMD auch in der neusten GCN Version kaum was an der Effizienz bzw der Leistung pro SP getan wurde. Warum? AMDs R&D Budget ist nicht das höchste. Es gab seit Tahiti kaum nennenswerte Steigerung an Leistung pro SP (wenn man das geöffnete Frontend dort nicht rein rechnet - was auch nichts damit zu tun hat). Also ist es wahrscheinlich, dass Fijii zwar eine neuere GCN Version mit ein paar neuen Features hat - aber kaum pro Takt und SP zulegt.

Bei 100 sqmm mehr, kann man ca. 4096 SPs verbauen. Das resultiert dann in etwa bei 30 % mehr Leistung als Hawaii (wenn man davon ausgeht, dass SPs nicht ganz linear in Leistungssteigerung münden aufgrund anderer Flaschenhälse).

Bei so einer großen GPU erwarte ich auch keine deutlich gesteigerten Frequenzen. Also alles in allem 1/3 mehr Leistung klingt für einen Refresh auf gleichem Prozess bei 25 % mehr Fläche ok.

Aus reiner Bandbreitensicht hätte man HBM dafür allerdings nicht benötigt. Ein 384 - 512 bit GDDR5 SI hätte - insbesondere inkl. der FB Kompression - wohl genügt.

Wer weiß, wann AMD mal einen richtigen Effizienzsprung in ihrer µ-Arch bringt. Ich tippe mal erst in der Generation die auf FinFet kommt (Ice Islands?).

M4xw0lf
2015-02-04, 10:43:39
IMO ist es realistisch davon auszugehen, dass AMD auch in der neusten GCN Version kaum was an der Effizienz bzw der Leistung pro SP getan wurde. Warum? AMDs R&D Budget ist nicht das höchste. Es gab seit Tahiti kaum nennenswerte Steigerung an Leistung pro SP (wenn man das geöffnete Frontend dort nicht rein rechnet - was auch nichts damit zu tun hat). Also ist es wahrscheinlich, dass Fijii zwar eine neuere GCN Version mit ein paar neuen Features hat - aber kaum pro Takt und SP zulegt.

Bei 100 sqmm mehr, kann man ca. 4096 SPs verbauen. Das resultiert dann in etwa bei 30 % mehr Leistung als Hawaii (wenn man davon ausgeht, dass SPs nicht ganz linear in Leistungssteigerung münden aufgrund anderer Flaschenhälse).

Bei so einer großen GPU erwarte ich auch keine deutlich gesteigerten Frequenzen. Also alles in allem 1/3 mehr Leistung klingt für einen Refresh auf gleichem Prozess bei 25 % mehr Fläche ok.

Aus reiner Bandbreitensicht hätte man HBM dafür allerdings nicht benötigt. Ein 384 - 512 bit GDDR5 SI hätte - insbesondere inkl. der FB Kompression - wohl genügt.

Wer weiß, wann AMD mal einen richtigen Effizienzsprung in ihrer µ-Arch bringt. Ich tippe mal erst in der Generation die auf FinFet kommt (Ice Islands?).

30% wäre arg wenig, bei 45% mehr SPs - auch bei "nicht ganz" linearer Skalierung.

fondness
2015-02-04, 10:44:33
Wer weiß, wann AMD mal einen richtigen Effizienzsprung in ihrer µ-Arch bringt. Ich tippe mal erst in der Generation die auf FinFet kommt (Ice Islands?).

Arctic Islands heißt hoffentlich nicht ohne Grund so.^^

robbitop
2015-02-04, 10:45:03
30% wäre arg wenig, bei 45% mehr SPs - auch bei "nicht ganz" linearer Skalierung.

Schau dir an, wie GCN GPUs mit ihrer SP Anzahl skalieren.

http://www.computerbase.de/2014-09/amd-radeon-r9-285-test-benchmarks/5/#diagramm-rating-2560-1600-4xssaa-16xaf

Die 290X liegt gerade mal 20 % 30% vor der 280X und hat fast 40 % mehr Rohleistung. (und das trotz deutlich breiterem Front End)

fondness
2015-02-04, 10:52:30
Schau dir an, wie GCN GPUs mit ihrer SP Anzahl skalieren.

http://www.computerbase.de/2014-09/amd-radeon-r9-285-test-benchmarks/5/#diagramm-rating-2560-1600-4xssaa-16xaf

Die 290X liegt gerade mal 20 % vor der 280X und hat fast 40 % mehr Rohleistung. (und das trotz deutlich breiterem Front End)

Die 290X ohne MAX läuft bei deutlich weniger Takt. Wenn dann musst du schon die MAX als Vergleich nehmen, die läuft wie die 280X mit 1Ghz Takt.

Duplex
2015-02-04, 10:53:48
GCN war Anfangs eine ziemlich interessante Architektur, seit Maxwell ist die Architektur aber deutlich nach hinten geflogen, von AMD kommt leider fast nichts mehr, mal sehen wie lange das so bleibt.

robbitop
2015-02-04, 10:55:34
Die 290X ohne MAX läuft bei deutlich weniger Takt. Wenn dann musst du schon die MAX als Vergleich nehmen, die läuft wie die 280X mit 1Ghz Takt.

Scheiß gebooste und scheiß gethrottele. Nichts kann man heute mehr mal eben vergleichen...

OK - dann sind für Fijii 33 % vermutlich ein Mittelwert, der nicht im absoluten GPU Limit liegt und +45 % im absoluten GPU Limit.

M4xw0lf
2015-02-04, 10:58:06
OK - dann sind für Fijii 33 % vermutlich ein Mittelwert, der nicht im absoluten GPU Limit liegt und +45 % im absoluten GPU Limit.
Es sei denn es gibt weitere Bottlenecks neben der Rechenleistung, so wie Hawaii Tahiti durch bessere Tess-Leistung, Bandbreite usw. manchmal mit deutlich mehr als 37,5% abhängt.

Duplex
2015-02-04, 11:10:07
Wenn Hawaii wirklich weiterhin im Programm bleiben soll und als 380x vermarktet wird, dann gehe ich bei der 390x von 25-30% mehr Performance gegenüber Hawaii aus, also doch nichts beonderes nach so langer Zeit :(

robbitop
2015-02-04, 11:10:12
Den Bottleneck kann man sich leider nicht aussuchen.

M4xw0lf
2015-02-04, 11:27:11
Den Bottleneck kann man sich leider nicht aussuchen.
Ich spreche ja auch von Einzelfällen, wo die eben eintreten.

Thunderburne
2015-02-04, 12:59:20
Scheiß gebooste und scheiß gethrottele. Nichts kann man heute mehr mal eben vergleichen...

OK - dann sind für Fijii 33 % vermutlich ein Mittelwert, der nicht im absoluten GPU Limit liegt und +45 % im absoluten GPU Limit.
Ich sage es dir dieser ganze PT sowie Temperatur limit Scheiss geht einem Tierisch auf die Nüse .
Kumpel hat 2*290 Gaming im Carbide 540 gehabt keine 2Tage und die waren wieder eingepackt.;D
Die oberste Karte ging auf 667 MHZ runter auf Grund der Temps.
So macht das doch keinen Spass.

robbitop
2015-02-04, 13:29:34
Naja IMO macht AFR (SLI/CF) erst mit einer ordentlichen Wakü richtig Spaß. Ansonsten sind 500-600 W auf so engem Raum doch etwas viel... :)

Thunderburne
2015-02-04, 13:48:46
Naja IMO macht AFR (SLI/CF) erst mit einer ordentlichen Wakü richtig Spaß. Ansonsten sind 500-600 W auf so engem Raum doch etwas viel... :)
Sagte ich ich im auch seit Mora 3 habe ich da auch keine Probleme .:smile:

iuno
2015-02-04, 16:45:45
Auf SiSoft gibt es auch noch 3 neue Ergebnisse von heute:
http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffccfddbbadbe6dee8d8eddbfd8fb282a4c1a499a98ffcc1f9&l=en
http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffccfcdabbdae7d5e0d5e0d6e1c7b588b89efb9ea393b5c6fbc3&l=en
http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffcbfed8b9d8e5d6eedbeaccbe83b395f095a898becdf0c8&l=en

tm0975
2015-02-04, 18:38:11
Kumpel hat 2*290 Gaming im Carbide 540 gehabt keine 2Tage und die waren wieder eingepackt.;D
Die oberste Karte ging auf 667 MHZ runter auf Grund der Temps.
So macht das doch keinen Spass.

dann hat er entweder ein modell mit defekter kühlung gehabt oder ein "isolierendes" gehäuse. 3 290 nebeneinander mit 940 mhz bei < 75°C sind 24/7 problemlos möglich. allerdings hat der aufbau auswirkungen auf die zimmertemperatur...

M4xw0lf
2015-02-04, 18:50:22
Auf SiSoft gibt es auch noch 3 neue Ergebnisse von heute:
http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffccfddbbadbe6dee8d8eddbfd8fb282a4c1a499a98ffcc1f9&l=en
http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffccfcdabbdae7d5e0d5e0d6e1c7b588b89efb9ea393b5c6fbc3&l=en
http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffcbfed8b9d8e5d6eedbeaccbe83b395f095a898becdf0c8&l=en
Mhm. Mhm. Und was fangen wir damit an? ^^
4096 SPs und HBM - check. Ansonsten - kp was die Testergebnisse aussagen sollen.

iuno
2015-02-04, 19:33:58
Die helfen uns eigentlich nicht wirklich weiter ;) Ich wollte nur mitteilen, dass heute wieder jemand Ergebnisse hochgeladen hat... da war aber als ich gepostet habe auch noch ein anderer neuer Beitrag, der auf die SiSoft-Datenbank verlinkt hat :confused: daher bin ich erst draufgekommen.

Thunderburne
2015-02-04, 19:56:13
Sieht nach 800 MHZ GPU stock aus und 1000 mit OC.
Oder Silent Mode und Max Mode.

Ailuros
2015-02-04, 20:02:47
Dumme Frage: wuerde AMD etwas davon gewinnen wenn core und Speicher die genau gleiche Frequenz haben wuerden?

ndrs
2015-02-04, 20:17:14
Dumme Frage: wuerde AMD etwas davon gewinnen wenn core und Speicher die genau gleiche Frequenz haben wuerden?
Wurde ja zu Anfangszeiten der Beschleunigerkarten (insbesondere 3dfx) gern gemacht. Ich vermute einfach mal, dass man sich so Pufferspeicher sparen kann, da die Daten Taktsynchron ankommen und damit genau bekannt ist, wann neue Daten vorliegen.
Die Frage wäre dann allerdings, wie es mit den exakten signallaufzeitbedingten Timings aussieht. Allerdings könnten die Wege so kurz sein, dass das keinen Einfluss hat ...
100% sicher bin ich mir natürlich nicht, ob das alles so richtig ist :)

MilesEdgeworth
2015-02-04, 20:26:31
Dazu müssten doch Gipsel oder Skysnake etwas sagen können?

Finde die Informationen aber ziemlich widersprüchlich.. Sollte der Chip tatsächlich mit 800MHz und 4096 CUs kommen, dann wäre die Leistungsaufnahme doch garantiert geringer als bei Hawaii? Für die 800MHz wären schließlich deutlich geringere Spannungen nötig.. Würde gefühlsmäßig mal auf etwa 1V statt 1.2V bei rund 1GHz Chiptakt tippen. Die Breite des Chips steigert die Verlustleistung ja im Vergleich zur Spannung nur geringfügig?

Ailuros
2015-02-04, 20:26:54
Wurde ja zu Anfangszeiten der Beschleunigerkarten (insbesondere 3dfx) gern gemacht. Ich vermute einfach mal, dass man sich so Pufferspeicher sparen kann, da die Daten Taktsynchron ankommen und damit genau bekannt ist, wann neue Daten vorliegen.
Die Frage wäre dann allerdings, wie es mit den exakten signallaufzeitbedingten Timings aussieht. Allerdings könnten die Wege so kurz sein, dass das keinen Einfluss hat ...
100% sicher bin ich mir natürlich nicht, ob das alles so richtig ist :)

So viel war mir schon mehr oder weniger klar; ich haette deutlicher sein sollen. Ich haette fragen sollen ob es in Zusammenhang mit HBM irgendwelche Vorteile haben koennte.

Skysnake
2015-02-04, 21:09:50
Dumme Frage: wuerde AMD etwas davon gewinnen wenn core und Speicher die genau gleiche Frequenz haben wuerden?
Man würde sich den SERDES sparen und könnte mit einfachen Buffern arbeiten.

Zudem könnte man sich die verschiedenen Clockdomains sparen. Also an sich schon nicht schlecht, wenn man es mitnehmen kann.

Man sieht ja auch durchaus, dass der RAM-OC nicht immer wirklich was bringt, einfach weil die Daten wohl nicht immer weitergegeben werden können.

Ailuros
2015-02-04, 21:27:14
Eine design-Entscheidung gleiche Frequenzen fuer core und Speicher zu haben, koennte den Grund einer hypothetischen 800MHz core Frequenz vielleicht erklaeren.

Screemer
2015-02-04, 21:54:41
was passiert dann bei kern-oc? da laufen dann ja caches und ram nicht mehr mit der gleichen frequenz. welchen einfluss kann das haben, wenn das design auf sowas optimiert/ausgelegt ist?

ndrs
2015-02-04, 22:03:29
was passiert dann bei kern-oc? da laufen dann ja caches und ram nicht mehr mit der gleichen frequenz. welchen einfluss kann das haben, wenn das design auf sowas optimiert/ausgelegt ist?
Ganz einfach. Ein separates OC der GPU wird nicht mehr möglich sein. Wenn es nur noch eine Taktdomain gibt, kann man entweder alles übertakten oder nichts.
Das würde übrigens auch bedeuten, dass die Taktraten vom Speicher sich mit dem Boost permanent ändern, was aber nicht schlecht sein sollte.

Botcruscher
2015-02-04, 22:12:17
Mal sehen wie taktfreudig so ein HBM ist.

Thunderburne
2015-02-04, 22:12:28
Für mich sieht es nach einem verdammt durstigen und heißem Chip aus der sich ohne weiteres nicht kühlen lässt bei diesen Taktraten daher vielleicht auch immer wieder die Hinweise auf die AIO.
Momentan spricht nicht wirklich was dafür das es ne richtige Granate wird ok Granate schon aber in einem anderem Sinne.
Spannung wäre jetzt interessant sollte diese recht niedrig ausfallen wäre zumindest noch ordentlich was mit einem FC Kühler und dicken Radis was zu holen jedoch dann auch in Richtung 375W+ was dann auch 2*8Pin erfordern würde.
Aber die 4GB wenn es so bleibt werden mir am Ende wohl ein Strich durch die Rechnung machen die Karte zu kaufen und zu testen.

Bin auf jeden Fall Gespannt wie das Layout ausfällt irgendwie beschleicht mich das Gefühl das das eine 2*8Pin Karte wird.
800MHZ bis 300W ca.75-80°C und 1000MHZ zweites Bios mit bis zu 375W und ca. um die 80-90°C das traue ich AMD echt zu ohne jetzt zu Bashen die 295X war ja auch ne Dicke Überraschung.

Vielleicht kommen daher ja auch die Unterschiedlichen Benchmark Ergebnisse her.
Immerhin wären das von 800 auf 1000 MHZ 25% mehr Takt ergo könnte sich das am Ende mit den um die 50% Mehrleistung Deckeln der Takt kann ja so noch 1 zu 1 skalieren .
Vielleicht versucht man die Karte innerhalb der Specs zu verkaufen von 300W jedoch mit de Obolus für die Übertakter mit 375W was ja an sich ganz nett wäre..so zu sagen mit eingebautem Turbo;D

Sind jetzt mal so ein Paar Gedanken Gänge von mir da zu gewesen.

Ravenhearth
2015-02-04, 22:48:37
Mit 800MHz wird die weit unter 300W bleiben. Aber leider auch weit unter GM200.

OBrian
2015-02-04, 23:20:32
naja, kommt drauf an.

Nehmen wir an, HBM erzeugt bei Verbau der Mindestmenge an RAM mit den aktuell verfügbaren Stacks schon so übertrieben unnötig viel Speicherbandbreite (für eine Zielperformance im Bereich des NV-Flaggschiffs), daß man den RAM niedriger takten kann, um Energie zu sparen. Und nehmen wir weiterhin an, daß aus technsichen Gründen RAM udn Chip synchron getkatet werden müssen (oder das zumindest sinnvoll ist). Dann kann man auch nur einen Chip bauen, der einen niedrigen Takt hat. Um dann auf Performance zu kommen, müssen entsprechend mehr Einheiten verbaut werden.

Bedeutet also einen ziemlich großen Chip, dessen Energieeffizienz allerdings besser sein sollte als bei den aktuellen GPUs mit ziemlich ausgereiztem Takt. Bei Brot- und Butter-Chips wäre das keine gute Entscheidung, weil die Herstellungskosten steigen, aber für das Topmodell wäre das besser, denn das kann man eh für viel Geld verkaufen, da fallen einige Dollar mehr pro Die nicht ins Gewicht.

Ravenhearth
2015-02-04, 23:40:57
Bei den angenommenen 4096 SPs und 800MHz läge die Rohleistung rund 16% über der einer R9 290X (1 GHz), der Stromverbrauch vielleicht um 200W. Das wäre eher das Niveau von GM204.

Nakai
2015-02-05, 01:16:08
Naja mit HBM sollten jegliche Bandbreitenlimitierungen außen vor sein. Mit DCC sowieso. Mit DCC hätte auch ein höher getaktetes 512Bit SI gereicht. Eine Gamerkarte sieht anders aus. Fiji ist ein starker GPGPU-Chip. Wenn das Speichervolumen nicht wäre. Mit HBM Gen2 sind dann auch 16GB drin, bei 8er Stacks sogar 32GB. Ich weiß nicht, inwieweit AMD das einen Vorteil bringt, HBM so früh anzubieten. Womöglich wäre man gegen die Konkurrenz in einigen Bereichen 1 Jahr im Vorteil.

Fiji ist schon ein gutes Stück vor GM204, was für mehr als 800MHz spricht. Wie gesagt, ich vermute, dass AMD auch einen intelligenteren Boost bringt. Derzeit sind zwei Taktraten geleakt(800Mhz und 1Ghz).

Fiji mit 800MHz und Bermuda mit 1GHz wären eine gute Option, sind die Leaks da auch sehr nahe dran. Zwei SKUs wurden nicht wirklich geleakt. Es gibt nur einen 4096SPs Chip. HBM ist anscheinend schweineteuer, siehe Zauba.

€: Das einzige Manko an der Theorie ist, dass man eigentlich nur 16% vor einem Hawaii wäre, betrachtet man Fiji vs Hawaii und nur die Rohleistung(4096SPs; HBM). Man liegt eher 25~30% davor. Oke, Bandbreite wird auch noch ~5% ausmachen. Womöglichen bringen die Frontend-Veränderungen auch was(8fach Frontend incoming), selbst Tonga hatte hier gelegentlich einige Vorteile. Fijis Verbrauch wurde mit ~200W geleakt. Wenn Bermuda ~290W verbrät, wäre das mit einem Taktsprung von 800MHz auf 1000MHz erklärbar? Der Verbrauch wird exponentiell ansteigen. Da wär die Kennlinie mal interessant zu wissen. ~290W sind aber nicht unrealistisch. Fiji als R9 380 und Bermuda als R380X?

Sunrise
2015-02-05, 02:17:03
Fiji als R9 380 und Bermuda als R380X?
Was aus meiner Sicht zumindest relativ unwahrscheinlich ist, dass AMD hier die Kosten für gleich zwei Tape-Outs im High-End/Enthusiast-Bereich aufbringt, das wäre für AMD nicht bezahlbar. Das hatte AnarchX vor etlichen Seiten auch schon erwähnt und ich stimme dem auch zu. Das ergibt also vorne und hinten keinen Sinn, vor allem wenn man sich ansieht, nach welchen Strohhalmen man greifen muss um mit NV zu konkurrieren. Das macht im Prinzip nichtmal NVidia, wenn man mal die GK110/GK180/GK210-Spielchen weglässt.

Wenn AMD _einen_ ~550mm ASIC baut, dann braucht man hier (wie NV auch) mindestens zwei Varianten. Eine ist teildeaktiviert und eine eben voll ausgebaut. Da kann man sich jetzt auch alles Mögliche zusammen spinnen.

NV weiß schon, warum Pascal erst 2016 kommt. AMD will aber früher am Markt sein und muss deshalb Kompromisse eingehen.

Ich würde mich wirklich freuen, einen 8GB (oder mehr) Fiji/Bermuda (was auch immer) zu sehen, aber nach all den Jahren wird man etwas konservativer und liegt dann meist auch richtig.

Deine Einschätzung bzgl. der Namensgebung finde ich daher nichtmal so weit hergeholt. Wie die dann im Endeffekt heißen ist ja eigentlich egal. Damit hätte man dann auch ein Problem weniger. Man könnte bei Fiji mit sagenhafter Effizienz werben und sie dann mit Bermuda voll ausfahren, also technisch das maximal mögliche aus den aktuellen Mitteln und 28nm rausholen, sodass sowohl der High-End-Gamer eine relativ stromsparende Karte bekommt und derjenige, dem das völlig wurscht ist eben Bermuda (der wohl dann auch GM200 gefährlich wird).

Viel mehr Spielraum sehe ich für AMD nicht. Nicht dieses Jahr und nicht auf 28nm.

Ich hatte auch noch überlegt, ob Bermuda eine Dual-Fiji-Karte werden könnte mit irgendwelchen neuen Spielereien.
Also quasi mit viel Phantasie, dass Fiji wirklich nur eine Insel (ein Interposer mit ASIC, RAM, Interconnects) ist, und Bermuda eben aus mehreren Inseln besteht. Also sowas wie damals die Quantum 3D Obsidian2 X-24.

Aber mal ehrlich, dass kann wahrscheinlich weder AMD noch irgendein Käufer bezahlen.

Nightspider
2015-02-05, 02:55:02
AMD würde niemals eine neue HighEnd Karte nach so langer Zeit rausbringen die nur ~20% vor Hawaii liegt.

Alleine HBM pusht sicherlich schon alleine 10%.
Und wenn man den Chip synchron mit HBM takten müsste würde man gar nicht erst HBM verbauen, weil man dann mit GDDR5 der neuesten Sorte schnellere Gesamtleistung hätte.

OBrian
2015-02-05, 06:15:03
HBM bringt viel mehr als 10%. Wie gesagt, einerseits hat man Bandbreite bis zum Abwinken, andererseits wird einiges an Spielraum beim TDP-Budget frei (30 W bestimmt, ggf. auch mehr), den der Chip dann ausfüllen kann. Letztlich ist es ja immer die TDP und der Verkaufspreis, die limitierend wirkt, man könnte auch eine 5000-W-GPU konstruieren, nur wären Platine, Kühlung und Stormversorgung dann problematisch und der Preis dann so astronomisch, daß kaum einer das Ding kauft.

Felixxz2
2015-02-05, 06:19:01
Finde das auch sehr seltsam warum teilweise von einem TDP Monster mit mittelmäßiger Leistung ausgegangen wird, obwohl HBM massiv Strom spart. Der neue Chip müsste deutlich ineffizienter sein als Hawaii, was bei 800-1000Mhz kaum möglivh erscheint. Vielmehr sollte die Effizienz deutlich vor Hawaii liegen.

Ailuros
2015-02-05, 06:45:57
Finde das auch sehr seltsam warum teilweise von einem TDP Monster mit mittelmäßiger Leistung ausgegangen wird, obwohl HBM massiv Strom spart. Der neue Chip müsste deutlich ineffizienter sein als Hawaii, was bei 800-1000Mhz kaum möglivh erscheint. Vielmehr sollte die Effizienz deutlich vor Hawaii liegen.

Es sind die chiphell (angeblichen) leaks die die ganze Verwirrung stiften; noch bloeder alle zwei bisherigen leaks scheinen sich quasi zu decken. Taktraten werden nirgends erwaehnt. Ιm letzten leak zeigt sich die namenlose GPU (womoeglich Bermuda?) um 53.5% schneller als eine 290X bei knapp 2% mehr Stromverbrauch. Der Verbrauch ist zwar nicht gigantisch aber auch nicht das was ich als "maessig" verstehen wuerde fuer eine Loesung die von Grund auf effizienter sein sollte als Hawaii und auch noch HBM dazu so manchen Strom spart bei hohen Bandbreiten. Was verpass ich gerade?

Hübie
2015-02-05, 07:22:41
Es macht aus diversen Gründen keinen Sinn einen Takt für alles zu haben. Schon gar nicht für ALU und Speicher. Wenn die Pipeline "fertig" is schreiben die ROPs in den VRAM und das Frontend lädt erneut Daten. Warum sollen die ALUs jetzt unnötig Energie verbraten? Das kann man auf andere Bereiche (Stichwort Display-Controller) anwenden. Gedankengang also löschen.
Das holen auch eingesparte Puffer samt Kopiervorgang nicht raus.

Ailuros
2015-02-05, 08:03:51
Es macht aus diversen Gründen keinen Sinn einen Takt für alles zu haben. Schon gar nicht für ALU und Speicher. Wenn die Pipeline "fertig" is schreiben die ROPs in den VRAM und das Frontend lädt erneut Daten. Warum sollen die ALUs jetzt unnötig Energie verbraten? Das kann man auf andere Bereiche (Stichwort Display-Controller) anwenden. Gedankengang also löschen.
Das holen auch eingesparte Puffer samt Kopiervorgang nicht raus.

Es war nur eine Frage um einen Grund fuer eine so niedrige Frequenz wie 800MHz zu finden. Zum obrigen wieso jetzt die ALUs anscheinend unnoetig Energie verbraten sollen bei gleichen Frequenzen versteh ich jetzt nicht wirklich. Was verpass ich gerade?

Skysnake
2015-02-05, 08:29:46
Naja mit HBM sollten jegliche Bandbreitenlimitierungen außen vor sein. Mit DCC sowieso. Mit DCC hätte auch ein höher getaktetes 512Bit SI gereicht. Eine Gamerkarte sieht anders aus. Fiji ist ein starker GPGPU-Chip. Wenn das Speichervolumen nicht wäre. Mit HBM Gen2 sind dann auch 16GB drin, bei 8er Stacks sogar 32GB. Ich weiß nicht, inwieweit AMD das einen Vorteil bringt, HBM so früh anzubieten. Womöglich wäre man gegen die Konkurrenz in einigen Bereichen 1 Jahr im Vorteil.

Ja, ich seh das Ding auch eher als GPGPU Bombe. Ich glaub ich nicht so wirklich dran, das HBM bei den FPS sehr viel bringen wird. Bei den MinFPS kann ich mir das schon eher vorstellen. Bei GPGPU könnte man die gewaltige Bandbreite aber voll ausfahren und nVidia teils komplett an die Wand fahren. Es gibt halt sowohl Probleme, die rein am SI hängen, als auch Probleme, die rein an der ALU-Leistung liegen.

Wenn ich mich recht erinnere, waren Quantendynamik Probleme meist Bandbreitenlimitiert. Ich meine mich erinnern zu können, das zu einem Supercomputer mit AMD GPUs was davon gesprochen wurde, das man die hohe SI Bandbreite voll ausnutzen könnte usw usf.

AMD würde niemals eine neue HighEnd Karte nach so langer Zeit rausbringen die nur ~20% vor Hawaii liegt.

Alleine HBM pusht sicherlich schon alleine 10%.
Und wenn man den Chip synchron mit HBM takten müsste würde man gar nicht erst HBM verbauen, weil man dann mit GDDR5 der neuesten Sorte schnellere Gesamtleistung hätte.
Das kann heute doch niemand seriös sagen, wieviel HBM bringt im Vergleich zu ner GDDR5 Lösung. Man hat einfach komplett andere Voraussetzungen und designt daher den Chip auch etwas anders.

Es sind die chiphell (angeblichen) leaks die die ganze Verwirrung stiften; noch bloeder alle zwei bisherigen leaks scheinen sich quasi zu decken. Taktraten werden nirgends erwaehnt. Ιm letzten leak zeigt sich die namenlose GPU (womoeglich Bermuda?) um 53.5% schneller als eine 290X bei knapp 2% mehr Stromverbrauch. Der Verbrauch ist zwar nicht gigantisch aber auch nicht das was ich als "maessig" verstehen wuerde fuer eine Loesung die von Grund auf effizienter sein sollte als Hawaii und auch noch HBM dazu so manchen Strom spart bei hohen Bandbreiten. Was verpass ich gerade?
Naja, ist halt auch die Frage, ob die "Tests" überhaupt die ganzen Stärken aufzeigen können. Ist doch genauso mit den Quad-Channel interfaces bei CPUs. Wenn du keine Anwendung hat, die am SI hängt, dann siehste keine Verbesserung, obwohl es halt auch genug Anwendungen gibt, die bis zu doppelt so schnell laufen können im Vergleich zu nem Dual-Channel. Stichwort Datenbankanwendungen usw. Man muss halt auch immer die richtigen Probleme auswählen, um die Vorteile aufzeigen zu können.

Ailuros
2015-02-05, 08:33:29
Naja, ist halt auch die Frage, ob die "Tests" überhaupt die ganzen Stärken aufzeigen können. Ist doch genauso mit den Quad-Channel interfaces bei CPUs. Wenn du keine Anwendung hat, die am SI hängt, dann siehste keine Verbesserung, obwohl es halt auch genug Anwendungen gibt, die bis zu doppelt so schnell laufen können im Vergleich zu nem Dual-Channel. Stichwort Datenbankanwendungen usw. Man muss halt auch immer die richtigen Probleme auswählen, um die Vorteile aufzeigen zu können.

Es sind angeblich durchschnittliche Resultate von Echzeit-Spielen und nicht irgendwelchen "tests". Wenn Du jetzt glaubst dass es Tag auf Nacht Spiele geben wird die bis zu 600+ GB Bandbreite ploetzlich brauchen dann kannst Du ziemlich lange darauf warten. Schon gar nicht wenn die neuen Konsolen nichtmal annaehernd so viel SoC Bandbreite haben.

fondness
2015-02-05, 08:34:21
Naja mit HBM sollten jegliche Bandbreitenlimitierungen außen vor sein. Mit DCC sowieso. Mit DCC hätte auch ein höher getaktetes 512Bit SI gereicht. Eine Gamerkarte sieht anders aus. Fiji ist ein starker GPGPU-Chip. Wenn das Speichervolumen nicht wäre. Mit HBM Gen2 sind dann auch 16GB drin, bei 8er Stacks sogar 32GB. Ich weiß nicht, inwieweit AMD das einen Vorteil bringt, HBM so früh anzubieten. Womöglich wäre man gegen die Konkurrenz in einigen Bereichen 1 Jahr im Vorteil.

Fiji ist schon ein gutes Stück vor GM204, was für mehr als 800MHz spricht. Wie gesagt, ich vermute, dass AMD auch einen intelligenteren Boost bringt. Derzeit sind zwei Taktraten geleakt(800Mhz und 1Ghz).

Fiji mit 800MHz und Bermuda mit 1GHz wären eine gute Option, sind die Leaks da auch sehr nahe dran. Zwei SKUs wurden nicht wirklich geleakt. Es gibt nur einen 4096SPs Chip. HBM ist anscheinend schweineteuer, siehe Zauba.

€: Das einzige Manko an der Theorie ist, dass man eigentlich nur 16% vor einem Hawaii wäre, betrachtet man Fiji vs Hawaii und nur die Rohleistung(4096SPs; HBM). Man liegt eher 25~30% davor. Oke, Bandbreite wird auch noch ~5% ausmachen. Womöglichen bringen die Frontend-Veränderungen auch was(8fach Frontend incoming), selbst Tonga hatte hier gelegentlich einige Vorteile. Fijis Verbrauch wurde mit ~200W geleakt. Wenn Bermuda ~290W verbrät, wäre das mit einem Taktsprung von 800MHz auf 1000MHz erklärbar? Der Verbrauch wird exponentiell ansteigen. Da wär die Kennlinie mal interessant zu wissen. ~290W sind aber nicht unrealistisch. Fiji als R9 380 und Bermuda als R380X?

Das mit Abstad wahrscheinlichste ist Fiji High-End Single-Chip, Bermuda Dual-GPU. Es macht keinen Sinn für eine GPU zwei Codenamen zu haben, das gab es in der Vergangenheit auch nicht.
Fiji liegt vom Verbrauch wohl ziemlich exakt auf 290X-Niveau laut den geleakten werten, damit ist genau wie bei der 295X2 auch eine Dual-GPU möglich, im Notfall muss man halt mit dem Takt etwas runter.

Das ergibt also vorne und hinten keinen Sinn, vor allem wenn man sich ansieht, nach welchen Strohhalmen man greifen muss um mit NV zu konkurrieren.

Welche Strohhalmen denn genau? Das man eine neue Technik wie HBM, an der man selbst jahrelang mitgearbeitet hat auch verwendet ist für dich also ein Strohhalm? Aber schon klar wenn NV sowas macht ist es der richtige Zeitpunkt , bei AMD ist es ein Strohhalm. Genau wie bei GDDR5 damals auch.

NV hat für Maxwell DP gestrichen, denk mal drüber nach.

Nightspider
2015-02-05, 08:41:05
Zumindest kann man davon ausgehen das HBM in 1080p nicht sooo viel bringt. Zumindest im Vergleich zu 4K oder 5K.

Deswegen gehe ich da mal mit konservativen 10% ran. Ich denke mal in 4K wird Fiji alles andere plattwalzen, auch GM200.

Skysnake
2015-02-05, 08:51:49
Es sind angeblich durchschnittliche Resultate von Echzeit-Spielen und nicht irgendwelchen "tests". Wenn Du jetzt glaubst dass es Tag auf Nacht Spiele geben wird die bis zu 600+ GB Bandbreite ploetzlich brauchen dann kannst Du ziemlich lange darauf warten. Schon gar nicht wenn die neuen Konsolen nichtmal annaehernd so viel SoC Bandbreite haben.
Habe ich irgendwo gesagt, das ich davon ausgehe, das sich das in Bälde ändern wird? Ich glaube nicht ;)

Ich geh da schon davon aus, das bei Games recht viel Potenzial einfach brachliegen wird bei SI. Wie gesagt profitieren wahrscheinlich die MinFPS davon, aber das wars dann auch.

Wenn man aber im GPGPU Bereich nVidia zumindest bei einigen Problemen so richtig wegnatzt, dann dürfte das auch wieder einige Leute die CUDA nutzen zum Nachdenken anregen, und genau das muss AMD an jeder möglichen Stelle schaffen. Der Keim des Zweifels muss in die Köpfe der Leute gepflanzt werden. Das sorgt nämlich dafür, das CUDA eher als Hindernis den als Vorteil betrachtet wird, und genau das muss AMD schaffen, denn dann können Sie auf Augenhöhe mit nVidia konkurrieren, und haben sogar gute Karten in der Hand. So lange aber CUDA in den Köpfen ist, hat AMD schon das Spiel verloren, bevor es anfängt.

Dural
2015-02-05, 09:13:51
Maxwell geht mit der Bandbreite sehr easy um, zb. ist GM204 in 4K schneller als GK110 und bricht sogar weniger stark ein.
Es würde mich sehr überraschen falls GM200 in 4K Probleme bekommen könnte. AMD braucht einfach mehr Bandbreite als NV, jedenfalls derzeit.

Thunderburne
2015-02-05, 09:45:16
Jetzt wird es interessant es wird über Bandbreite in hohen Auflösungen wie 4K diskutiert und die nur 4GB RAM werden dann mal ausgeblendet.
Ich sehe ehr den GM 200 mit 6GB vorne.
Wenn der RAM überflutet wird kann es auch die hohe Bandbreite nicht richten.

Nachladeruckler hat man damals mit 160GBs gehabt und hat sie heute noch mit 336GBs wenn der RAM massiv auslagern muss hat es sich bis heute nicht geändert obwohl doppelt Bandbreite.

ndrs
2015-02-05, 10:09:12
Es macht aus diversen Gründen keinen Sinn einen Takt für alles zu haben. Schon gar nicht für ALU und Speicher. Wenn die Pipeline "fertig" is schreiben die ROPs in den VRAM und das Frontend lädt erneut Daten. Warum sollen die ALUs jetzt unnötig Energie verbraten?
Warum sollte man die anderen Bereiche in dem Fall runtertakten anstatt einfach zu powergaten?

Hübie
2015-02-05, 10:11:58
Wenn man einen Schwingkreis für alles hat dann sind wir uns doch einig das auch überall eine Spannung anliegt oder? Da schwingen keine Lichtphotonen oder Magie X-D Wie gesagt machts aus diversen Gründen keinen Sinn.
800 MHz weil es ein ES ist. Die werden meistens mit 20% weniger geliefert. Ich erinnere mich an einige Intel Haswell CPUs die mit 66% des Taktes liefen und vor allem ne lahme iGPU bekamen. Die Serienversion war dann deutlich flotter. Warum also nicht auch bei AMDs GPU? :smile:

power gating frisst Latenz. Bei 3 von 5 GPU Teilen will ich das nicht in dieser Masse...

Igzorn
2015-02-05, 10:17:41
Maxwell geht mit der Bandbreite sehr easy um..... AMD braucht einfach mehr Bandbreite als NV, jedenfalls derzeit.

Ist das so ? Oder nur eine einschätzung. Wenn meine erinnerungen richtig sind wurde doch von AMD noch vor nvidia eine Kompression zum einsparen der Bandbreite vorgestellt. Wurde hier schon mal versucht ein vergleich zu ziehen ?

Denke nur weil AMD mehr Bandbreite zur verfügung stellt, heisst das nicht, das Pauschal mehr gebraucht wird.
War es in test nicht auch so das Tonga recht unempfindlich war bei Speichertakt anhebung ? Sprich nicht viel Bandbreite benötigt wird ?

Das schließt natürlich alle anderen Chips aus die das nicht können. Aber denke das wäre ein interesanter Vergleich wenn man beide kompressions verfahren mit ein ander vergleichen würde. Leider ist mir kein Artikel diesbezüglich bekannt der darauf eingeht.

Hübie
2015-02-05, 10:20:01
Die Farbkompression im L2$ is ein alter Hut. Weiß gar nicht wer damit anfing. Früher wurde das einfach nicht erwähnt weil man im Marketing andere Dinge schwerer gewichtete.

Ailuros
2015-02-05, 10:37:42
Wenn man aber im GPGPU Bereich nVidia zumindest bei einigen Problemen so richtig wegnatzt, dann dürfte das auch wieder einige Leute die CUDA nutzen zum Nachdenken anregen, und genau das muss AMD an jeder möglichen Stelle schaffen. Der Keim des Zweifels muss in die Köpfe der Leute gepflanzt werden. Das sorgt nämlich dafür, das CUDA eher als Hindernis den als Vorteil betrachtet wird, und genau das muss AMD schaffen, denn dann können Sie auf Augenhöhe mit nVidia konkurrieren, und haben sogar gute Karten in der Hand. So lange aber CUDA in den Köpfen ist, hat AMD schon das Spiel verloren, bevor es anfängt.

Alles was nicht mit DP zu haben wird, wird wohl auch schwer irgendwelchen Vorteil sehen.

Die Farbkompression im L2$ is ein alter Hut. Weiß gar nicht wer damit anfing. Früher wurde das einfach nicht erwähnt weil man im Marketing andere Dinge schwerer gewichtete.

Es ist nicht nur die Farbkompression bei Maxwell; es gab schon Spekulationen ueber etwas aggressiveres on chip tiling aber bestaetigen konnte es bis jetzt keiner.

M4xw0lf
2015-02-05, 10:43:30
Alles was nicht mit DP zu haben wird, wird wohl auch schwer irgendwelchen Vorteil sehen.
+ Dinge, die Bandbreite brauchen. Oder nicht?

Skysnake
2015-02-05, 10:53:43
Wenn man einen Schwingkreis für alles hat dann sind wir uns doch einig das auch überall eine Spannung anliegt oder? Da schwingen keine Lichtphotonen oder Magie X-D Wie gesagt machts aus diversen Gründen keinen Sinn.

Bitte was?
Du hast in der Regel ne PLL, die dir relativ zu nem lowspeed Referenztakt eine Hochfrequenz clock generiert. Die muss natürlich immer laufen, aber alles danach ist völlig egal. Da hängen ja unzählige Buffer dazwischen, die du natürlich abklemmen kannst, um strom zu sparen. Clockgating halt. Da ist die Clock dann auch ziemlich schnell wieder da. Im Optimalfall vielleicht 1-10 Takte. Das ist jetzt nicht wirklich viel. Das Zeug ist ja aber auch nicht wirklich schnell, daher geht das auch einfacher. Mit ner 10/20GHz clock ist das natürlich schwieriger. Da können durchaus auch mal mehr Takte vergehen, bis die Clock wieder soweit stabil ist, das alles ohne Probleme läuft.
(Btw. Hängt natürlich auch davon ab, wieviel man umschalten muss, also wieviele Buffer noch hinten dran hängen. Je mehr, desto länger dauert es halt auch.)

Alles was nicht mit DP zu haben wird, wird wohl auch schwer irgendwelchen Vorteil sehen.

Naja, Datenbankgeraffel könnte auch einen großen Vorteil daraus ziehen.

Also es ist schon ein bischen mehr, aber ja, kein Titschlagargument.

Ailuros
2015-02-05, 10:56:53
+ Dinge, die Bandbreite brauchen. Oder nicht?

Schon aber nicht gleich um so viel mehr.


Also es ist schon ein bischen mehr, aber ja, kein Titschlagargument.

Keine Ahnung was Du so anstellst, aber ich gehe mit solchen weiblichen Organen etwas zaertlicher um :freak:

Skysnake
2015-02-05, 11:02:38
;D

Der war echt gut der Verschreiber.

Hübie
2015-02-05, 11:07:34
Man hat mehrere PLL. Das solltest du wissen. Wenn du eine hast musst du massiv parallelisieren um Signal überall gleich zu haben. Also noch mal: Ein Takt macht aus vielerlei Gründen mit GPUs keinen Sinn. Wenn du den widersprichst, Skysnake, dann bitte mit stichhaltigen Argumenten warum bisher nicht geschehen.

Edit: Und nach den gating wird auch nicht sofort gearbeitet. Also es sind definitiv nicht nur die 10 Takte welche verloren gehen.

Der Verschreiber is der Hit X-D

Skysnake
2015-02-05, 11:41:14
Man muss nicht zwingend mehrere PLLs haben. Es kommt immer darauf an, was du wo wie machen willst. Klar, wenn du für SI und Core unterschiedliche Taktfrequenzen brauchst, wirste auch mehrere PLLs nehmen. Aber aus Spaß nimmste nicht mehrere. Die Dinger sind scheis groß und fressen einiges an Leistung. Schau dir doch mal die Clocktrees von CPUs an. Da werden verdammt große Bereiche von nur einer PLL versorgt. Ich weiß auch gerade nicht, was du mit "parallelisieren" meinst. Den Clocktree? Wenn ja, das ist doch standard, und eben auch nicht ganz trivial.

@Gating:
Dazu habe ich doch schon was gesagt. Es hängt davon ab, was alles noch hinten dran hängt. Bei mir brauch ich z.B. unter 1k clock cycles, bis der Endzustand erreicht ist, und das trotz mehrstufigen Aufbau. Das Clocksignal an sich ist aber schon nach nicht mal 100 Takten da, wenn ich es richtig im Kopf habe. Und das ist nen CML Buffer im Endeffekt. Für nen CMOS Buffer sieht es natürlich noch viel besser aus. Da haste die Clock praktisch sofort wieder da. Ist ja nichts anderes als zwei Inverter hintereinander.

Hübie
2015-02-05, 12:49:40
Wir reden nicht vom einem MCU oder einem Logikgatter sondern GPUs. Da muss man mehrere PLLs nehmen und gut. Ich habe nicht die Zeit und Lust alle Argumente aufzuzählen, aber da du offenbar Erfahrung mit Design hast kennst du einige Regeln. Selbst CPUs haben 6 PLLs.

Sunrise
2015-02-05, 15:01:10
...Welche Strohhalmen denn genau?
Es ging ums limitierte Budget und damit um die Notwendigkeit alles in eine künftige GPU zu pflanzen, was sowohl schon seit Jahren entwickelt als auch noch auf 28nm möglich ist, um mit einem ASIC auf 28nm mit NV konkurrieren zu können.

Die Gänze der Situation ist gemeint, nicht unbedingt die Technologie, die (hatten wir ja schon) AMD nur dann weiterbringt, wenn man nicht irgendwo wieder Abstriche machen muss.

AMD braucht HBM wohl jetzt schon, damit man an NV rankommt. HBM in diesem Stadium noch auf 28nm zu bringen klingt sehr nach Strohhalmen greifen. Ansonsten kam außer Tonga ja praktisch nichts mehr, während NV fröhlich ASIC nach ASIC vorstellt und AMD leider zuschauen muss. Auch wird HBM sicher nicht gerade billig, da muss die Platzierung und die Leistung stimmen, ansonsten kann AMD sich das auch sparen.

Und ja, genau der DP-Teil bei NV fällt auch nur deshalb weg, weil bei Maxwell eine Änderung stattfand. Man hat gemerkt, dass man bei 28nm einfach keinen Platz mehr dafür hat. More to come soon.

Wenn man einen Schritt weiter denkt, könnte AMD mit dieser Technologiebasis wohl relativ unproblematisch (Arctic Islands) einen quasi 14nm-Shrink mit mehr VRAM und anderen Verbesserungen bringen, wo sich dieses Vorhaben dann auszahlt. Man hätte dann auch in etwa wieder mit NV aufgeschlossen, wenn man hier nichts Zentrales vergeigt. Da sprechen wir uns dann aber frühestens H2 2016 wieder.

GloFo 14nm (Arctic Islands) vs. TSMC 16nm (Pascal) wird spannend. Pascal war ja bisher auch größtenteils nur Marketing (HBM, NV-Link, etc.).

Hübie
2015-02-05, 15:47:17
Wobei nVidia doch auf HMC setzt oder wie war das?

Nakai
2015-02-05, 15:49:07
Wobei nVidia doch auf HMC setzt oder wie war das?

AFAIK sollten die auch HBM nutzen wollen.

y33H@
2015-02-05, 16:59:52
Pascal nutzt HBM, Knights Landing HMC.

fondness
2015-02-05, 17:15:25
Und ja, genau der DP-Teil bei NV fällt auch nur deshalb weg, weil bei Maxwell eine Änderung stattfand. Man hat gemerkt, dass man bei 28nm einfach keinen Platz mehr dafür hat. More to come soon.


Und nochmal einen Schritt weiter: Warum glaubst du hatte NV - wie du es nennst - keinen Platz mehr für DP? Vielleicht nicht zufällig weil sie aufgrund von HBM bei AMD alles was sie hatten in mehr Leistung stecken mussten? Und schon wird ein Schuh daraus. Aber wenn NV die DP-Fähigkeit aus ihrer High-End-GPU streichen muss ist das natürlich kein Strohhalm schon klar. Das Rennen um die Leistungskrone wurde zweifellos wieder gestartet, dafür müssen eben überall Kompromisse eingegangen werden. Wer High-End dominiert hat noch immer die besten Chancen um auch das kleinere Zeug los zu werden - selbst wenn es nicht so überzeugt. Das musste AMD in der Vergangenheit mit ihrer small Die Strategie schmerzhaft feststellen.

Locuza
2015-02-05, 17:16:55
Pascal nutzt HBM, Knights Landing HMC.
Genauer, Knights Landing nutzt MCDRAM.

Skysnake
2015-02-05, 17:39:47
Wir reden nicht vom einem MCU oder einem Logikgatter sondern GPUs. Da muss man mehrere PLLs nehmen und gut. Ich habe nicht die Zeit und Lust alle Argumente aufzuzählen, aber da du offenbar Erfahrung mit Design hast kennst du einige Regeln. Selbst CPUs haben 6 PLLs.
Jeder PCI-E Core aus meist 8 Lanes hat ne eigene PLL.... Genau wie die meisten anderen I/O Sachen auch ne eigene PLL haben.

Der eigentliche Prozessor hat aber meist nur eine PLL (eventuell pro Core) Z.B. der Power3 hatte nur eine PLL http://server3.eca.ir/isi/forum/lockrange_of_340-612_MHz.pdf

Es hängt halt immer davon ab, was man machen will. So lange man nicht mit sehr vielen unterschiedlichen Taktfrequenzen arbeiten will machen viele PLLs nicht wirklich Sinn. Du musst die ja auch alle synchen. Wenn du "nur" einige Stufen haben willst, kannste auch "einfach" Clockdivider verwenden. Damit arbeiteste immer noch synchron.

Oder Itanium hatte wohl auch nur eine PLL. (http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=4&cad=rja&uact=8&ved=0CDIQFjAD&url=http%3A%2F%2Fwww.eng.biu.ac.il%2F~wimers%2Ffiles%2Fcourses%2FDigital_VLSI_De sign%2FLecture_Notes%2FClock_Distribution.ppt&ei=h5rTVKTKMYv1Usr2gdgB&usg=AFQjCNFuA2cgSdmPqr22xt8pAs1POyT5gQ)


http://www.google.de/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&uact=8&ved=0CCEQFjAA&url=http%3A%2F%2Fwww.springer.com%2Fcda%2Fcontent%2Fdocument%2Fcda_downloaddocum ent%2F9781441902603-c2.pdf%3FSGWID%3D0-0-45-784906-p173910505&ei=h5rTVKTKMYv1Usr2gdgB&usg=AFQjCNHcqCphOCAwnx5CnDYxPfekkIFg6w
S55ff
2.8.1 Multicore Processor Clock Distribution
A plesiochronous clock distribution involves multiple distribution PODs but with a
nominally identical operating frequency. The 65nm dual core processor described
56 S. Tam
in [45] is an example. Figure 2.64 illustrates this scheme which consists of two domains
for the two cores and the uncore and I/O domain with the interface operating
at the same frequency. The system clock input to the three clock generators (PLLs)
is routed in the package. There are three independent distribution PODs for the cores
and the uncore. A recombinant style distribution for low skew is used in the core
whereas the uncore employs a hybrid spine-grid structure for lower power and simpler
implementation. Data communication between the cores and the uncore is accomplished
via the pipelined deskew logic (PDSL) interfaces operating at the same
frequency. Introducing independent clock domains for the cores permitted a modular
design.
System
Clock
Legend:
Core PLL Uncore I/O
Fig. 2.64. Multidomain clocking in a dual-core processor. Reproduced with permission from
[45],c 2006 IEEE
A mesochronous clock distribution has a single distribution POD while exhibiting
nonconstant delays to the branches. The 80-tile processor design in [65, 66] is
one example of a mesochronous clock distribution. This processor has a single PLL
and therefore a single distribution POD (Fig.2.65). Distributing the global clock to
the respective tiles is achieved using chains of clock buffers embedded within each
tile. The daisy-chaining of the global clock buffers suggests nonequal clock latencies
to each processor tile. The systematic clock skews across the processor tiles
help spread the clock switching power over an entire cycle. Interprocessor-tile communication
is achieved with a skew insensitive FIFO interface [66]. Within each
processor tile, a balanced H-tree is responsible for the distribution and all circuits
2 Modern Clock Distribution Systems 57
within each processor tile operate synchronously. Figure 2.65 (left) shows details of
the distribution scheme. Figure 2.65 (right) shows the relative arrival times of the
clocks at the processor tiles. In a processor design having a large number of processor
cores operating at the same frequency, this clock distribution style has the potential
of reducing the impact of simultaneous switching on the on-chip power delivery
network.
Schau mal noch weiter, da ist auch von nem Dual-Core mit 3 PLLs die Rede. Eine PLL je für Cores und Uncore.

Bei einer CPU macht das auch durchaus Sinn, für die Cores eigene PLLs zu haben, weil die alle sehr unterschiedliche Frequenzen haben können, und man daher eh synchen muss. Bei ner GPU ist das aber nicht so. Da haste für alle ALUs usw den gleichen Takt. Um genau zu sein haste sogar nur zwei Taktraten GPU und SI, von denen alle anderen Taktraten dann abgeleitet werden. Daher würde ich auch nicht mehr als zwei PLLs erwarten (Ok, fürs SI kann es sein, das jeder 32Bit Block seine eigene PLL hat, um den Skew möglichst kein zu halten, aber um IO gings ja nicht).

Hübie
2015-02-05, 17:58:25
Ganz ehrlich: diese Runde braucht AMD einfach nur schneller zu sein und darf nicht über 500€ kosten. Dann bin ich wieder bei den roten Socken.

Oh man Skysnake. Von WAS reden wir HIER?! Komm doch nicht mit allen möglichen Konstellationen. Es zweifelt niemand an deiner Kompetenz...

Malabolge
2015-02-05, 18:13:11
Wollen wir wetten dass NV womoeglich ihre 16FF Kapazitaeten fuer 2015 ueberhaupt nicht benutzen wird?

Wieso 16FF benutzen , reicht doch wenn es in den Specs steht

Isen
2015-02-05, 18:14:36
;D

In der Tat:freak:

horn 12
2015-02-05, 20:21:10
R9 380X Launch verschoben
Soll nun vor GTA V erscheinen, wohl weil die R9 290 weggehen wie Semml nach dem GTX 970 Fiasko! :-) :-)

http://www.hwupgrade.it/forum/showthread.php?t=2429889&page=500

StefanV
2015-02-05, 20:53:14
Gibt es auch den Link in einer Sprache, bei dem man vermuten könnte, dass sehr viele diese verstehen??

Zum Beispiel Englisch oder Deutsch.

Elite_Warrior
2015-02-05, 20:57:52
Er bezieht sich wohl auf dieses Bild

http://cdn2.wccftech.com/wp-content/uploads/2015/02/AMD-putting-the-finishing-touches-on-300-series.jpg

Wie lange hat denn in der Vergangenheit das polieren einer Grafikkarte gedauert? Polieren + Massenproduktion kann wohl etwas dauern oder?

horn 12
2015-02-05, 21:07:56
Wird wohl April werden, also um Ostern rum!
Bis dahin sollten die R9 290(X) Karten alle raus sein.

Skysnake
2015-02-05, 21:09:51
Ich schon. An seiner Lesekompetenz zum Beispiel.:P
Stimmt, wie schlimm, wenn ich auf Hübies Beiträge antworte...

guckst du
Man hat mehrere PLL. Das solltest du wissen. Wenn du eine hast musst du massiv parallelisieren um Signal überall gleich zu haben. Also noch mal: Ein Takt macht aus vielerlei Gründen mit GPUs keinen Sinn. Wenn du den widersprichst, Skysnake, dann bitte mit stichhaltigen Argumenten warum bisher nicht geschehen.

Wir reden nicht vom einem MCU oder einem Logikgatter sondern GPUs. Da muss man mehrere PLLs nehmen und gut. Ich habe nicht die Zeit und Lust alle Argumente aufzuzählen, aber da du offenbar Erfahrung mit Design hast kennst du einige Regeln. Selbst CPUs haben 6 PLLs.
Er hat verneint, das man das mit nur einer PLL macht, und hat ausgerechnet CPUs herangezogen, bei denen man noch am meisten verwendet. Bei GPUs kommste mit weniger aus. I/O und Core braucht halt ne PLL, und das wars, also irgendwas zwischen 1-5 sollten reichen. Wie gesagt, gibt ja sogar CPUs, die nur eine einzelne haben, und bei GPUs musste den gesamten Core Bereich ja nicht unterschiedlich takten, da läuft alles mit der gleichen Frequenz.

Bleibt also noch SI und PCI-E. Und genau das hat er aber in Abrede gestellt, und sorry, mit Clock trees habe ich mich die letzten Monate ziemlich ausführlich beschätigt im Rahmen meiner Dipl-Arbeit. Deswegen wiedersprech ich da auch ganz klar seinen Aussagen. Vor allem wenn man noch so Späße wie resonant clocking betrachten würde.

Unicous
2015-02-05, 21:22:45
Mach doch einfach einen eigenen Thread auf?

Btw.

http://www.fiji.travel/sites/default/files//styles/hero-full/public/Treasure%20Areial%20%28Large%29.JPG?itok=y-GYQmHm

Das ist das Treasure Island Resort, Teil der Fidschi-Inselgruppe.

Ob der Typ uns einfach in die Irre führen will. Ich weiß es nicht.

Hübie
2015-02-05, 23:08:56
Stimmt, wie schlimm, wenn ich auf Hübies Beiträge antworte...

guckst du



Er hat verneint, das man das mit nur einer PLL macht, und hat ausgerechnet CPUs herangezogen, bei denen man noch am meisten verwendet. Bei GPUs kommste mit weniger aus. I/O und Core braucht halt ne PLL, und das wars, also irgendwas zwischen 1-5 sollten reichen. Wie gesagt, gibt ja sogar CPUs, die nur eine einzelne haben, und bei GPUs musste den gesamten Core Bereich ja nicht unterschiedlich takten, da läuft alles mit der gleichen Frequenz.

Bleibt also noch SI und PCI-E. Und genau das hat er aber in Abrede gestellt, und sorry, mit Clock trees habe ich mich die letzten Monate ziemlich ausführlich beschätigt im Rahmen meiner Dipl-Arbeit. Deswegen wiedersprech ich da auch ganz klar seinen Aussagen. Vor allem wenn man noch so Späße wie resonant clocking betrachten würde.

Kepler 6, SB-E 6. Willst du meine Aussage wiederlegen, dass es keinen Sinn macht GPU komplett und Speicher zu synchronisieren? Dann Belege und nicht mit Geschwafel alá hätte, könnte, dürfte, sollte und je nach dem blah blah blah.
Und was meinst du mit "er"? Reden wir nur noch mit anderen über die Themen? Kommst mir etwas verwirrt vor :freak:

Darf man denn schon zum Diplom gratulieren?

Coda
2015-02-06, 00:25:38
Ein PLL erzeugt nur den Referenztakt, die Ausbreitung auf dem Chip erfolgt durch einen Clock-Tree oder -Mesh, das überall die gleiche Latenz hat. Das nennt man eine Clock-Domain.

Ich geh ehrlich gesagt auch nicht davon aus, dass es bei GPUs mehr als einen für den eigentlichen 3D-Bereich gibt.

PCIe und DVI/Displayport brauchen natürlich eine separate Clock.

Ailuros
2015-02-06, 07:03:04
Wieso 16FF benutzen , reicht doch wenn es in den Specs steht

http://www.computerbase.de/2015-02/nvidias-14-nm-chips-auch-von-samsung/

Hat aber SEHR lange gedaeurt bis Du den obrigen Post ausgegraben hast; umso besser da es mit dem obrigen link dann auch bestaetigt hat. Sonst noch eine Frage?

R9 380X Launch verschoben
Soll nun vor GTA V erscheinen, wohl weil die R9 290 weggehen wie Semml nach dem GTX 970 Fiasko! :-) :-)

http://www.hwupgrade.it/forum/showthread.php?t=2429889&page=500

Wie oft muss man noch sagen dass das Zeug fuer Q2 2015 projeziert ist? Wieso zum Teufel soll sich irgend etwas schon wieder verschoben haben?

Wird wohl April werden, also um Ostern rum!
Bis dahin sollten die R9 290(X) Karten alle raus sein.

Ein Quartal hat 3 Monate. Nur zur Erinnerung wenn Du in ein paar Wochen wieder eine "Verspaetung" zu melden haben solltest.

Hübie
2015-02-06, 12:17:19
So habe nun noch mal nachgeschaut: Kepler hat 5 PLL (PCIE, GPC, Rasterizer/ALU/Cache, Diaplaycontroller/-interface und IMC GDDR5) und 12 Clock Domains. Können wir das nun begraben? :rolleyes: Wenn also jemand stichhaltig belegen kann dass es sinnvoll ist alles mit den kolportierten 800 MHz laufen zu lassen dann nur her damit.

y33H@
2015-02-06, 12:31:23
Genauer, Knights Landing nutzt MCDRAM.Was soweit ich weiß HMCs mit von Intel modifiziertem Logic-Layern sind.

Jc6B0EZKUEU

Skysnake
2015-02-06, 18:17:34
So habe nun noch mal nachgeschaut: Kepler hat 5 PLL
Woher haste denn bitte die Info? Mir wäre nicht bekannt, das es irgendwo derartige Detailinfos zu Kepler frei verfügbar gibt.


(PCIE, GPC, Rasterizer/ALU/Cache, Diaplaycontroller/-interface und IMC GDDR5)

Und damit sind wir doch praktisch wieder da, wo ich gesagt habe. PCI-E und SI haben ihre eigene PLL, und der Rest hängt wahrscheinlich an einer.

Warum GPC, zu dem ja Raserizer/ALU/Caches dazu gehören zwei unterschiedliche PLLs haben sollte, ist mir völlig schleierhaft.

Displaycontroller ist aber ein guter Punkt, den hatte ich vergessen.

Damit wären wir aber noch immer bei 5 PLLs, wenn jeweils eine vorhanden wäre, wäre also nett, wenn du deine Quelle mal nennen könntest. Danke schonmal dafür.

Ganz abgesehen davon bestätigst du damit aber genau das was ich gesagt habe (GPC vs ALU... mal ausgenommen). Der Corebereich hat eine PLL, und ansonsten halt der ganze IO-kram eigene, insbesondere halt SI und PCI-E.


und 12 Clock Domains. Können wir das nun begraben? :rolleyes: Wenn also jemand stichhaltig belegen kann dass es sinnvoll ist alles mit den kolportierten 800 MHz laufen zu lassen dann nur her damit.
Wie gesagt, du sparst dir die Synchronisation zwischen unterschiedlichen Taktdomains. Das ist der einzige mögliche Vorteil.

Leonidas
2015-02-06, 18:48:30
R9 380X Launch verschoben
Soll nun vor GTA V erscheinen, wohl weil die R9 290 weggehen wie Semml nach dem GTX 970 Fiasko! :-) :-)

http://www.hwupgrade.it/forum/showthread.php?t=2429889&page=500


Er bezieht sich wohl auf dieses Bild
http://cdn2.wccftech.com/wp-content/uploads/2015/02/AMD-putting-the-finishing-touches-on-300-series.jpg



Interessant, daß man aus dieser FB-Konversation auf die Deutung kommen kann, AMD hätte gesagt, daß noch vor GTA5 was passiert. AMD hat schließlich exakt gar nichts genaues zum Termin gesagt ...

HarryHirsch
2015-02-06, 19:00:36
naja, der komplette verlauf sieht so aus:

http://abload.de/img/cropimageofufg.png (http://abload.de/image.php?img=cropimageofufg.png)

ob man da nu was reindeuten kann, keine ahnung

iuno
2015-02-06, 19:11:18
Was soll man da bitte reindeuten? Es wird ganz klar gesagt, dass es keinen Termin gibt, sonst gar nichts. Darauf, dass der Typ unbedingt vor GTA V Release noch eine Karte haben will, wurde verständlicherweise nichtmal eingegangen.

Golem schreibt (http://www.golem.de/news/grafikschnittstelle-mantle-verdoppelt-den-nutzbaren-videospeicher-bei-crossfire-1502-112199.html), AMD wolle mit der neuen Version des Mantle SDK die Nutzung des VRAM bei Crossfire optimieren (funktioniert wohl auch ab DX12). Das wäre ja dann eventuell ein Argument für eine mögliche Bermuda aka 2xFiji mit '8 GiB'

Hübie
2015-02-06, 19:29:34
Woher haste denn bitte die Info? Mir wäre nicht bekannt, das es irgendwo derartige Detailinfos zu Kepler frei verfügbar gibt.


Und damit sind wir doch praktisch wieder da, wo ich gesagt habe. PCI-E und SI haben ihre eigene PLL, und der Rest hängt wahrscheinlich an einer.

Warum GPC, zu dem ja Raserizer/ALU/Caches dazu gehören zwei unterschiedliche PLLs haben sollte, ist mir völlig schleierhaft.

Displaycontroller ist aber ein guter Punkt, den hatte ich vergessen.

Damit wären wir aber noch immer bei 5 PLLs, wenn jeweils eine vorhanden wäre, wäre also nett, wenn du deine Quelle mal nennen könntest. Danke schonmal dafür.

Ganz abgesehen davon bestätigst du damit aber genau das was ich gesagt habe (GPC vs ALU... mal ausgenommen). Der Corebereich hat eine PLL, und ansonsten halt der ganze IO-kram eigene, insbesondere halt SI und PCI-E.


Wie gesagt, du sparst dir die Synchronisation zwischen unterschiedlichen Taktdomains. Das ist der einzige mögliche Vorteil.

Die Quelle ist natürlich nicht frei zugänglich und kostet die schlappe ~125€. Belassen wir es dabei. 5 PLL, Ende. Langsam nervts... Ich habe von Anfang an nichts gesagt dass nur ALU etc. Ist ja wohl auch logisch dass nicht jeder Teil ne PLL hat. :rolleyes:

Gipsel
2015-02-06, 19:58:05
Jetzt ist hier Schluss mit dem PLL-Kram!
Btw. hat Coda das Wesentliche dazu in knapper Form bereits gesagt (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=10514454#post10514454). Irgendwelche Streits, wie viele PLLs für die verschiedenen IO-Interfaces zuständig sind, helfen uns hier nicht weiter und sind nicht nur abseits der ursprünglichen Frage sondern auch abseits der ursprünglichen Behauptung (@Hübie).

R.I.P.
2015-02-06, 19:59:14
Was soll man da bitte reindeuten? Es wird ganz klar gesagt, dass es keinen Termin gibt, sonst gar nichts. Darauf, dass der Typ unbedingt vor GTA V Release noch eine Karte haben will, wurde verständlicherweise nichtmal eingegangen.

Golem schreibt (http://www.golem.de/news/grafikschnittstelle-mantle-verdoppelt-den-nutzbaren-videospeicher-bei-crossfire-1502-112199.html), AMD wolle mit der neuen Version des Mantle SDK die Nutzung des VRAM optimieren (funktioniert wohl auch ab DX12). Das wäre ja dann eventuell ein Argument für eine mögliche Bermuda aka 2xFiji mit '8 GiB'
Es geht um die Benutzung der Summe des Grafikspeichers beim Verwenden eines Crossfire Gespanns (also 2x 4GB = 8GB zur Nutzung zur Verfügung). Mit Mantle und DX12 und bei entsprechender Programmierung kann dies möglich sein. Einfach genauer googeln,wenn dus brauchst. Damt will man wohl der 4GB HBM "Problematik" entgegenwirken :)

edit:steht doch bei deinem GolemLink! Kann man aus deinem Post jedoch schwer verstehen...

iuno
2015-02-06, 20:01:51
Es geht um die Benutzung der Summe des Grafikspeichers beim Verwenden eines Crossfire Gespanns (also 2x 4GB = 8GB zur Nutzung zur Verfügung). Mit Mantle und DX12 und bei entsprechender Programmierung kann dies möglich sein. Einfach genauer googeln,wenn dus brauchst. Damt will man wohl der 4GB HBM "Problematik" entgegenwirken :)

Das weiß ich doch. Aber das würde dann ja genauso auch für eine Dual-Chip Karte wie die aktuelle 295X2 gelten. Sollte eine Karte mit 2 Chips und 4+4 GiB kommen, könnte man so dennoch mit effektiv nutzbaren 8 GiB werben. Das war mein Gedankengang.
Edit zum edit ;) Stimmt, habe irgendwie die Info verschluckt, dass es um CF geht, so versteht man es natürlich nicht, sorry

Sunrise
2015-02-06, 20:50:05
...Golem schreibt (http://www.golem.de/news/grafikschnittstelle-mantle-verdoppelt-den-nutzbaren-videospeicher-bei-crossfire-1502-112199.html), AMD wolle mit der neuen Version des Mantle SDK die Nutzung des VRAM bei Crossfire optimieren (funktioniert wohl auch ab DX12). Das wäre ja dann eventuell ein Argument für eine mögliche Bermuda aka 2xFiji mit '8 GiB'
Ja, das habe ich ebenso verstanden. Vielleicht wird es ja doch wahr, allerdings kann das nicht billig werden.

Unicous
2015-02-06, 21:14:16
Jetzt lese ich überhaupt erst den Artikel von Golem.

Ich glaube, da hat y33H@ etwas in den falschen Hals bekommen. Das SDK wurden mE nicht "überarbeitet" sondern Mantle konnte das schon von Anfang an. Es wurde doch in zig Vorträgen z.B. von DICE besprochen. Dadurch dass der Entwickler den Memory Pool direkt ansprechen kann, gibt es auch verschiedene Möglichkeiten und Herangehensweisen wie die GPUs den Frame am Ende ausspucken.

Hallock hat das einfach nochmal verdeutlicht und da auch als Beispiel SFR@Civ:BE angesprochen.

Hübie
2015-02-07, 00:30:01
Ja vor allem "das API". :rolleyes:

Unicous
2015-02-07, 00:36:49
Naaaajaaa. Das ist immer das Problem im Deutschen: Das Interface, die Schnittstelle. Aber eigentlich hast du recht.:wink:

y33H@
2015-02-07, 00:57:53
Ich hake bei Robert nach, wäre ärgerlich :usad:

Unicous
2015-02-07, 01:09:29
Das mit "das API"? Ach... Schwamm drüber.

Hübie
2015-02-07, 01:11:39
Hahahaa X-D Dachte ich auch gerade.

y33H@
2015-02-07, 01:12:10
Das mit "das API"? Ach... Schwamm drüber.;D

Leonidas
2015-02-07, 05:35:36
Bei der Frage, ob man zukünftig die vollen 8 GB der 295X2 nutzen kann, kommt IMO immer zuerst der Punkt der Differenz zwischen vorhandener technischer Möglichkeit und deren praktischer Nutzung durch die Spieleentwickler. AMD kann das Teil 1000x mit "8GB" bewerben, selbst wenn es technisch so umsetzbar ist - so lange es nicht in realen Spiele so getan wird, spielt das doch keine große Rolle. Oder?

Nightspider
2015-02-07, 06:10:56
Am Ende wird AMD dann noch verklagt weil man mit 8GB wirbt aber diese nicht in allen Spielen zur Verfügung steht.

Siehe Nvidia-Problematik zur Zeit. Da muss man vorsichtig sein.

Natürlich könnte AMD die Werbung so anpassen das es auf viele Games zutrifft. ("In most games...." ; "Up to....")

tm0975
2015-02-07, 10:44:40
@Nightspider

wenn es technisch möglich wäre, die 8 gb in summe zu verwenden, dann ist es auch ok, das zu bewerben, auch wenn das nicht jedes spiel macht. du verwechselst hier aber 2 dinge. nvidia hat etwas beworden, was technisch nicht möglich ist, z.b. die additive benutzung der 3,5 + 0,5 gb speichers zur erhöhung der bandbreite. real ist das gegenteil der fall. verwechlse also bitte nicht die grundsätzlich korrekte, aber oft zu zimperliche marketingphilosophie von amd mit der "interessanten" sicht von nvidia. zur erinnerung:

http://www.heise.de/newsticker/meldung/Kommentar-Nvidias-schmutzige-Kartentricks-2529523.html

wenn der speicher in summe nutzbar wäre und auch an cf gearbeitet wird hinsichtlich der optimierung für vermeidung von mikrorucklern, dann werden wir bald keine "dicken" gpus mehr sehen. dann reichen mittlere chipgrößen aus und man steckt eben mehrere chips auf eine karte bzw mehrere karten in einen pc.

ich denke, dahin wir dder trend gehen. das wird die fertigungskosten deutlich reduzieren.

blaidd
2015-02-07, 11:57:07
Mantle konnte das schon von Anfang an. Es wurde doch in zig Vorträgen z.B. von DICE besprochen. Dadurch dass der Entwickler den Memory Pool direkt ansprechen kann, gibt es auch verschiedene Möglichkeiten und Herangehensweisen wie die GPUs den Frame am Ende ausspucken.

Da stimme ich voll zu, aber würde das in der Praxis tatsächlich Sinn machen? Auch wenn der Speicher als einziger Pool zur Verfügung stehen würde, müssten doch tatsächlich Daten vom Speicher der einen GPU zur anderen gesendet werden oder hab ich da grad einen Denkaussetzer? Würde das nicht die Latenzen zwischen zwei Frames erhöhen und damit SFR quasi ad absurdum führen?

robbitop
2015-02-07, 13:24:25
Wie soll das eigentlich ohne breites SI zwischen beiden GPUs gehen? Genau deshalb müssen ja alle möglichen Dinge (Texturen, Framebuffer, Geometriebuffer, G-Buffer etc) redundant gehalten werden. Oder soll die API für SFR/Supertiling in etwa vorhersehen können, welche Textur/Geometrie etc die GPU innerhalb der nächsten Zeit braucht? Da müsste man schon ein paar Frames in die Zukunft sehen können, denn es dauert eine Weile 4 GiB zu übertragen.

Hübie
2015-02-07, 13:34:06
Zirka 15 ms bei theoretischen 224GB/s. Mich würde an der Stelle auch interessieren wie SFR diesbezüglich arbeitet :|

robbitop
2015-02-07, 13:46:42
Wieso 224 GB/s? Wenn die Assets von GPU1 auf GPU2 fehlen und kein separetes Interface vorhanden ist, muss der Kram über den PCIe. Und da sind wir bei PCIe 16x 3.0 bei 15,7 GiB/s.

fondness
2015-02-07, 13:49:32
Wie soll das eigentlich ohne breites SI zwischen beiden GPUs gehen? Genau deshalb müssen ja alle möglichen Dinge (Texturen, Framebuffer, Geometriebuffer, G-Buffer etc) redundant gehalten werden. Oder soll die API für SFR/Supertiling in etwa vorhersehen können, welche Textur/Geometrie etc die GPU innerhalb der nächsten Zeit braucht? Da müsste man schon ein paar Frames in die Zukunft sehen können, denn es dauert eine Weile 4 GiB zu übertragen.

Du hast bei Mantle theoretisch sogar die Möglichkeit einzelnen Objekte einer spezifischen GPU zuzuweisen. Natürlich muss der Programmierer dann wissen welche Daten er wo braucht.

Hübie
2015-02-07, 13:52:33
Wieso 224 GB/s? Wenn die Assets von GPU1 auf GPU2 fehlen und kein separetes Interface vorhanden ist, muss der Kram über den PCIe. Und da sind wir bei PCIe 16x 3.0 bei 15,7 GiB/s.

:redface: Brainfart! Vergiss was ich schrieb. Wo gibt's denn Infos zu dem Verfahren? Die CPU müsste ja gezielt an Karte A oder B senden... Also deterministisch.

robbitop
2015-02-07, 13:52:49
Du hast bei Mantle theoretisch sogar die Möglichkeit einzelnen Objekte einer spezifischen GPU zuzuweisen. Natürlich muss der Programmierer dann wissen welche Daten er wo braucht.

Wie soll er das mehrere Frames in der Zukunft wissen? PCIe ist einfach super langsam.

Knuddelbearli
2015-02-07, 14:03:56
eventuell ist das ja endlich ein vorgeschmack auf MultiGPU on Interposer oder zumindest mit fetter Bandbreite zueinander ^^

iuno
2015-02-07, 14:17:26
@robbitop:
Wenn aber das ganze auf einer Dual-Chip Karte mit einem breiten interconnect zwischen den Chips eingesetzt wird (etwas ähnliches wie NVLink), spielt die PCIe Bandbreite keine Rolle. Das ganze hat ja nicht nur mit klassischem Crossfire (mehrere Karten) Relevanz, sondern auch für mGPU. Daher ist es ja auch in diesem Thread interessant, davon ausgehend, Bermuda könnte eine mGPU Lösung sein. Die Vermutung hat Unicous ja schon zuvor eingebracht

Hübie
2015-02-07, 14:25:55
Kannst das auch statisch machen. Oben alles GPU A und unten B. Hast ja Koordinaten (Vektoren). Oder? :D

Knuddelbearli
2015-02-07, 14:34:07
Civ Beyond Earth setzt doch schon auf SFR gibt es dazu keine Analysen/ genaueren Betrachtungen?

Hübie
2015-02-07, 14:38:33
Abseits der Performance und einiger Buzzwords nicht... Leider.

robbitop
2015-02-07, 15:14:00
Ich tippe mal darauf, dass Civ einfach nur Supertiling nutzt. Ohne VRAM Bedarfsreduzierung.

Nakai
2015-02-07, 15:22:34
https://www.zauba.com/import-video-graphic-card-hs-code.html

3. Februar, C76720-Board. 31,461 INR ~ 450€. Preis ist etwa Hawaii-Niveau bzw. leicht darunter. C76 klingt nach Tonga.

Interessant ist eher, dass alle Karten auf dem C88-Board, fast so teuer sind, wie Vesuvius, also Dual-GPU. Entweder ist es eine Dual-GPU oder HBM+Wakü ist schweineteuer.

horn 12
2015-02-07, 15:39:40
Also ein womöglicher Launch der Tonga XT Gpu in absehbarer kurzer Zeit.
Wohl die GTX 970-er Karte zu ärgern.

Zudem sollte wohl Bermuda vielleicht doch eine Dual GPU sein, mit Wasserkühlung
Fiji XT wohl R9 290 plus etwa 30-40%

PS: Bermuda haut dann alles weg was derzeit am Markt ist!

Nakai
2015-02-07, 16:04:01
Naja Tonga ist nun nicht wirklich ein schlechter Chip. Mit allen Einheiten aktiviert und mit eventuell 384Bit SI und sonstigen Verbesserungen ist man schon kein kleines Stück vor einer R9 280X. Tonga Full sollte sich schon zwischen R9 280X und R9 290 einordnen, gegeben es werden Spiele getestet, welche das Frontend ausnutzen.

john carmack
2015-02-07, 20:17:50
Wie schätzt ihr dei Performance von Fiji XT um GM200 im Vergleich ein?

(Wenn Bermuda die DualChip Lösung sein soll - wird dann Fiji AMD´s >500mm2 Chip?)

Duplex
2015-02-07, 20:27:42
GM200 30-50% auf die GTX980 liegt im machbaren Bereich.

Bei Fiji XT "Pirate Islands" müsste man erstmal wissen was man an der Architektur alles verbessern konnte um Aussagen zu treffen.

HarryHirsch
2015-02-07, 20:29:48
was konnte man denn an gm200 verbessern um aussagen zu treffen?

Duplex
2015-02-07, 20:30:47
Bei GM200 kennt man bereits die Maxwell Architektur.

Bei Pirate Islands weiß man nicht ob es noch GCN ist, vielleicht hat man die Architektur radikal verbessert?

Bei GCN hat man seit Hawaii außer das Frontend kaum was verbessert, es muss noch was besseres folgen.

HarryHirsch
2015-02-07, 20:39:14
@duplex

wird gm200 wieder bei gpgpu beschnitten?

Gipsel
2015-02-07, 21:00:18
Bei Pirate Islands weiß man nicht ob es noch GCN ist, vielleicht hat man die Architektur radikal verbessert?

Bei GCN hat man seit Hawaii außer das Frontend kaum was verbessert, es muss noch was besseres folgen.GCN an sich (Shaderarchitektur) ist sehr gut, da würde ich an AMDs Stelle so schnell nicht grundlegend von weggehen. Ein paar kleine Tweaks an den Fähigkeiten hier und da gab es bisher bei jeder GCN-Iteration, das wird auch weiter passieren. Was im Moment fehlt, sind Fortschritte bei der Energieeffizienz und noch weitere Verbesserungen am Frontend.

Duplex
2015-02-07, 21:10:23
Energieeffizienz ist klar, Maxwell hat gezeigt wo die Richtung hingehen muss.
Eine bessere Auslastung der Einheiten bringt meist auch bessere Effizienz.
Was könnte man den am Frontend noch verbessern?

Gipsel
2015-02-07, 21:17:54
Was könnte man den am Frontend noch verbessern?Weiter (und besser) parallelisieren, die Arbeitsverteilung optimieren um Datenbewegungen über den Chip zu minimieren, sowas in die Richtung.

Skysnake
2015-02-07, 21:41:11
GCN an sich (Shaderarchitektur) ist sehr gut, da würde ich an AMDs Stelle so schnell nicht grundlegend von weggehen. Ein paar kleine Tweaks an den Fähigkeiten hier und da gab es bisher bei jeder GCN-Iteration, das wird auch weiter passieren. Was im Moment fehlt, sind Fortschritte bei der Energieeffizienz und noch weitere Verbesserungen am Frontend.
Seh ich genauso.

Pick
2015-02-08, 13:26:48
Ich bin mir sicher, dass der Grenada GPU auf Tonga GCN1.2 Architektur basieren und das ist nicht Hawaii Re-Branding. Warum sagen manche, dass es das Rebranding? Aufgrund ähnlichen Spezifikationen.

Hübie
2015-02-08, 13:37:27
Hawaii wird aber sicherlich auch neu benannt. Vielleicht mit kleinen Optimierungen wie z. B. 5870<->6870. Der Vergleich ist etwas unangemessen aber ich denke jeder weiß was ich meine ;)

ndrs
2015-02-08, 14:33:31
Hawaii wird aber sicherlich auch neu benannt. Vielleicht mit kleinen Optimierungen wie z. B. 5870<->6870. Der Vergleich ist etwas unangemessen aber ich denke jeder weiß was ich meine ;)
RV870 und Barts waren aber zwei vollkommen unterschiedliche Chips. Das würde ich jetzt nicht unbedingt "neu benennen" bezeichnen. Ich denke, es kommt im Endeffekt darauf an, wie schwach der Salvage von Fiji und wie stark Tonga XT werden und wie groß die Lücke dann letztendlich bleibt.

Hübie
2015-02-08, 14:34:35
Mir fiel nichts besseres ein :P

john carmack
2015-02-08, 14:45:31
Mag keiner eine Schätzung abgeben?

"Wie schätzt ihr dei Performance von Fiji XT um GM200 im Vergleich ein?

(Wenn Bermuda die DualChip Lösung sein soll - wird dann Fiji AMD´s >500mm2 Chip?)"

Unicous
2015-02-08, 14:52:57
Hat horny jetzt deinen Account übernommen?

Wie soll man etwas einschätzen, das weiterhin ein Mysterium bleibt?

Pick
2015-02-08, 14:53:44
Tahiti GCN1.0 >> Tonga GCN1.2
Hawaii GCN1.1 >> Grenada GCN 1.2

GCN1.2 - VSR 4K Support, Color Compression, VCE/UVD 4K Support, New 16-bit floating/integer instructions, etc

Rebranding in 2015? LOL

Ailuros
2015-02-08, 14:58:39
http://videocardz.com/54858/amd-radeon-300-series-speculation-395x2-bermuda-390x-fiji-and-380x-grenada

Spekulation hin und her, kann mir mal jemand erklaeren was ein Fiji CE aka 385X genau sein soll und wieso es ueberhaupt keinen Sinn in dem lineup macht? Sonst ich weiss videocardz/whycry blah blah blah....:rolleyes:

fondness
2015-02-08, 15:06:10
Naja mit einem haben sie nicht ganz unrecht, sollte Fiji 50% auf Hawaii drauf legen und Grenada nur ein unbenannter Hawaii sein, dann wäre der Abstand zwischen den beiden Chips ganz schön groß.

horn 12
2015-02-08, 15:11:03
Meine Annahme der R9 290 Ablöse:
Fiji XT = GTX 980 + ca. 35%
Fiji Pro = GTX 980 + gute 20%

Preislich dürfte die Pro Version die 400 Euro nicht ganz erreichen.
Fiji XT wird aber recht Teuer, denke 550+ zu Release.

Unicous
2015-02-08, 15:13:30
@Ailuros

Ähm. Guck doch mal auf die Quelle.:wink:

Ich verstehe nicht was Leonidas da treibt. Hat sich der site traffic in letzter Zeit so stark verringert (oder im Gegenteil erhöht:wink:), dass er so etwas nötig hat?:confused:

Fast jeden Tag kommt so eine News raus, auch wenn es nur einen Codenamen als Neuigkeit gibt. Er macht sich damit zum Handlanger von WTF-Tech WhytheVuckcards und anderen. PCGH hat auch schon wieder eine "news" dazu herausgehauen.

mironicus
2015-02-08, 15:21:38
Die Fiji mit "nur" 4 GB wird preislich sicherlich die GTX 980 angreifen, so dass NVidia die Preise senken muss.

Speku:
R390 (12-15% im Schnitt schneller, 25-30% bei 4K, 380-430 Euro) gegen die GTX 980.
R390x (Vorteil bei 4K, 490-540 Euro) gegen die GTX 980 Ti (Vorteil mehr Speicher, deutlich teurer).

iuno
2015-02-08, 15:25:23
Verstehe auch nicht was das ganze soll. Auch noch schlampig aufgeschrieben? "GCN 1.3, 4096 Shader-Einheiten @ 1024 Bit DDR HBM-Interface, 4 GB HBM-Speicher" :confused: wohl eher 4096 Bit oder etwa nicht?

@fondness: 50% sind ja keinesfalls sicher. Und dann kommt dazwischen sicherlich auch noch eine 380? (Salvage von Fiji).

Spekulation hin und her, kann mir mal jemand erklaeren was ein Fiji CE aka 385X genau sein soll und wieso es ueberhaupt keinen Sinn in dem lineup macht?
Steht da doch, die hat er sich nur ausgedacht, weil er bisher vehement davon ausging, dass 4096 SP für Fiji falsch sind und es max. ~3,5k werden. Jetzt meint er doch, dass die Zahl stimmt, kommt aber zu dem Schluss, dass dann noch ein Lückenfüller her muss und erfindet kurzerhand die 385X :rolleyes:

Does it mean architectural changes? Likely not, but we expect Grenada to be more power efficient, and configured with higher clock speeds.
Grenada soll demnach also exakt Hawaii sein, ohne architektonische Verbesserungen aber mit höherem Takt und höherer Effizienz :confused:

Pick
2015-02-08, 15:27:32
My guess

Grenada XT (GCN 1.2) 512-Bit = 290X +10%
Grenada Pro (GCN 1.2) 512-Bit = 290 +10%

Tahiti (GCN1.0) vs Tonga (GCN1.2) = 10% in games and up to 20% in benchmarks
http://www.hardware.fr/articles/926-24/tonga-vs-tahiti.html

Fiji XT = 290X +60%
Fiji Pro = 290X +40%

Nakai
2015-02-08, 15:41:33
Fiji hat auch diese Frontend-Verbesserungen ggü. Hawaii. IMO wird man mit 4096SPs und nur 800MHz(was auf CH als Fiji ES gesehen wurde), schon 25% vor Hawaii liegen können, eventuell sogar etwas mehr, wenn es kein BAndbreitenlimit gibt. ~30% vor Hawaii ist nicht unrealistisch. Knapp 200W Verbrauch für diesen ist auch nicht unrealistisch. Mit 1GHz und höherem VCore sind 1GHz und 300W schaffbar. 60% gegenüber Hawaii sind also in Usecases, welche Bandbreite und das bessere Frontend gebrauchen können nicht wirklich fragwürdig. Man würde so ziemlich auf GM200-Niveau landen, eventuell ein Stück drüber.

Agent117
2015-02-08, 15:42:31
Dass Grenada ein Hawaii mit implementierten GCN 1.2 Feature Set ist glaube ich kaum. Das wäre ja nochmal deutlich mehr als ein Respin (um die Leistungsuafnahmen etwas zu reduzieren) und würde - wie par Seiten weiter hinten mal kurz diskutiert - schon mind. 10 Mille kosten.
Ein Wechsel auf GF 28nm wäre nochmal teurer.

Entweder gibt es Hawaii nicht mehr oder er wird Rebranded, vlt auch wirklich nur mit 384Bit, für 4K hat man dann ja Fiji.

Bin aber auch der Meinung, dass Hawaii bei ähnlicher Performance und Leistungsaufnahme wie die der R9 290(X) für die 300er Serie unbrauchbar ist und zu den sparsamen, billiger zu produzierenden GTX 970 und 980 insgesamt nur bedingt konkurenzfähig.

Am vernünftigsten fände ich da noch, den etwas niedriger zu takten so ca. 925Mhz und dabei den Vcore zu senken so dass man unter 200Watt kommt. Dass würde sich in den Reviews ganz gut machen und der Leistungsverlust wäre verkraftbar.

mironicus
2015-02-08, 15:43:38
Und mit der möglich vorhandenen Wasserkühlung kann man wohl auch eine ganze Ecke übertakten, nicht zu vergessen.

horn 12
2015-02-08, 15:50:30
@Nakai

Man wird wohl den Fiji Pro Chip mit 3584 und wohl 850 bis 900 Mhz bringen und somit die GTX 980 für 399 bis 449 Dollar stark angreifen können.
Zumal auch in dieser Verion der Fiji Pro etwas stärker als die GTX 980 sein sollte, 10% könnten drinnen sein.
Schlussendlich wäre somit die PRO Variante 30 bis max.35% schneller als R9 290X und ein Umrüsten von R9 290 allemal gegeben.

Kriton
2015-02-08, 16:30:11
[...] und Grenada nur ein unbenannter Hawaii sein, dann wäre der Abstand zwischen den beiden Chips ganz schön groß.

Daran glaube ich nicht. Mit dem Stromverbrauch und der dafür notwendigen Kühlung würden sie in diesem Bereich keinen Blumentopf gewinnen. Und was soll das überhaupt bedeuten: Keine Architekturänderungen, aber bessere Effizienz. Der Prozess war doch auch bei der 290(X) bereits kein Problem mehr, oder? Woher soll die magische Effizienzsteigerung denn dann kommen?

Pick
2015-02-08, 16:32:43
Wenn Sie denken, dass Grenada GPU werden alte GCN 1.1 Architektur haben, sind Sie falsch. Sonst wird es wie folgt aussehen:

old R9 285 (Tonga, GCN 1.2): Delta Colour Compression, Improved tessellation performance, VSR 4K Support, VCE/UVD 4K Decoding Support, other tweaks and improvements
new R9 380 (Grenada, GCN 1.1): not supported, not supported, not supported, not supported, not supported

LOL

Nakai
2015-02-08, 16:45:55
Falls neuer Chip, welcher Hawaii ersetzen sollte:

Staffelung:
- Fiji 4096SPs, 8fach Frontend, HBM
- Grenada 3072SPs(Hawaii Aufbau macht keinerlei Sinn), 4/6 fach Frontend, HBM/GDDR5
- Tonga 2048 SPs, 4fach Frontend, GDDR5 (HBM Support wäre sehr interessant)

Zu Grenada kann ich mir 2816 SPs also 44 CUs nicht vorstellen. 48 CUs sollte nicht soviel mehr Kosten, immerhin wird eine QuadEngine mit CUs vollgemacht.
Mit niedrigerer DP:SP-Rate und GF28-Prozess sollte man eher auf 400mm² runterkommen. Ich weiß immer noch nicht, wieso Tonga so fett ist. Sicherlich brauche einige Verbesserungen zusätzliche Transistoren, aber die höhere Packdichte, sowie kleinere CUs/SPs sollten das locker ausgleichen. In Tonga ist definitiv noch etwas verborgen, sei es ein zusätzliches SI oder größeres SI, oder sogar HBM-PHYs. Zwei Stacks, also 2/4GB könnten mögklich sein. Für Grenada sind dann 3/$ Stacks möglich.

Aber für Grenada erwarte ich Curacao 2.0.

@Horn: Ich weiß nicht, wie Fiji Pro aussieht, aber 4096 - 512 sind sehr gut möglich, wenn man ein 8fach Frontend besitzt.

Käsetoast
2015-02-08, 18:18:01
Ist ein Shrink des nicht ganz so arg anspruchsvollen Tonga auf einen 20nm Prozess eigentlich schon komplett vom Tisch? In gegebener 28nm Form fände ich den Chip eigentlich zu groß um (vor allem preislich) die 270er Nachfolge anzutreten. Auf 20nm geshrinkt sähe das wieder besser aus und es täte dem Stromverbrauch auch gut, wobei die derzeitigen 285 als Produkte der "Resterampe" natürlich weit unter ihren Möglichkeiten agieren konnten was das angeht. Nach wie vor finde ich es aber halt merkwürdig, dass man keinen Tonga im Vollausbau für den Desktop bringt. In meinen Augen spricht das halt dafür, dass man einfach entsprechende Chips für Apple rausbringen musste und die nicht nutzbaren dann eben als 285er verhökert. Das der Vollausbau es ansonsten nicht auf den Markt schafft spricht dann doch dafür, dass da in Zukunft was Anderes / Besseres geplant ist und ein 20nm Shrink wäre da ja eine Option. Bleibt halt die Frage, inwiefern die aktuellen 20nm Prozesse für eine GPU geeignet wären bzw. ob und wie schnell da was Geeignetes am Start wäre in den kommenden Monaten. Wäre natürlich eine gute Strategie die großen und schnellen Chips mit HBM effizienter zu machen, während man bei den kleineren Chips auf einen 20nm Prozess setzt (der für die starken Chips einfach nicht in Frage kommt)...

Agent117
2015-02-08, 18:18:39
Wenn Sie denken, dass Grenada GPU werden alte GCN 1.1 Architektur haben, sind Sie falsch. Sonst wird es wie folgt aussehen:

old R9 285 (Tonga, GCN 1.2): Delta Colour Compression, Improved tessellation performance, VSR 4K Support, VCE/UVD 4K Decoding Support, other tweaks and improvements
new R9 380 (Grenada, GCN 1.1): not supported, not supported, not supported, not supported, not supported

LOL

Das klingt ja sehr bestimmt. Hast du denn eine Quelle dafür, dass Grenada nicht GCN 1.1 wie Hawaii ist.?

Ansonsten zu den Features:
Delta Colour Compression:
Braucht Hawaii nicht, da genügend Bandbreite vorhanden bei 512Bit.
VSR 4K Support:
Soll doch jetzt irgendwann mit einem 2. Omega Treiber über die Shader laufen, hätte sich damit erledigt.
Improved tessellation performance:
Der Unterschied Hawaii vs. Tonga ist bei weitem nicht so groß wie der zu Thaiti.

Also rein von den Features macht es, angesichts der Kosten, meiner Meinung nach keinen Sinn einen neuen Chip mit hawaiimäßiger Performance aufzulegen.

Gründe wären eher eine billigere Produktion bei einer längerer livetime und geringerer Stromverbrauch

Käsetoast
2015-02-08, 18:21:56
Also rein von den Features macht es, angesichts der Kosten, meiner Meinung nach keinen Sinn einen neuen Chip mit hawaiimäßiger Performance aufzulegen.

Gründe wären eher eine billigere Produktion bei einer längerer livetime und geringerer Stromverbrauch
Damit nennst du im Prinzip doch einen Grund - wenn man Hawaii dank Compression dann mit 384 Bit anstatt 512 Bit Speicherinterface bringen kann (und eventuell auch was der GPGPU Performance opfert), kann man einen merkbar kleineren Chip bringen mit geringeren Kosten und höherer Effizienz...

Ravenhearth
2015-02-08, 18:33:57
Ein Chip mit der Performance von Hawaii hätte aber ein Problem mit dem VRAM. 3GB wären zu wenig (und weniger als bei Tonga), aber 6GB mehr als bei Fiji. Optimal wären wohl 4GB für Tonga, 6GB für Grenada und 8GB für Fiji.

Käsetoast
2015-02-08, 18:43:16
Ja, so eine 4, 6, 8 GB Staffelung macht sicherlich Sinn bzw. der höhere Speicher wären dann auch eine der Grundlagen, mit denen man sich gegenüber der 970 und 980 dann positioniert. Ich persönlich sehe bei Fiji auch kein 8 GB Problem in der Hinsicht, als dass das nicht sofort kommen muss. Ich kann mir gut vorstellen, dass man Fiji erst mal mit 4 GB bringt und dann im Q3 oder Anfang Q4 in der 8 GB Version, sobald man da den entsprechenden HBM am Start hat (falls man nicht sowieso schon eine Möglichkeit ergriffen hat Fiji sofort mit 8 GB zu bringen)...

Pick
2015-02-08, 18:52:35
8GB für Fiji.
8192-bit? :freak:;D

Hübie
2015-02-08, 19:32:49
Oh man eine "News" und alle bekomm se Schaum vorm Mund. Betrachtet das mal aus wirtschaftlicher Sicht, dann kommt man glaub ich recht schnell drauf was möglich ist und was weniger / gar nicht.

Agent117
2015-02-08, 20:19:44
Damit nennst du im Prinzip doch einen Grund - wenn man Hawaii dank Compression dann mit 384 Bit anstatt 512 Bit Speicherinterface bringen kann (und eventuell auch was der GPGPU Performance opfert), kann man einen merkbar kleineren Chip bringen mit geringeren Kosten und höherer Effizienz...

Schon alles richtig, aber dann müsste man Hawaii nehmen, die DCC einbauen, sonstige Dinge vlt umlayouten, und dann eine neue Maske bei TSMC oder GF fertigen.
Wie groß der Designtechnische Aufwand ist kann ich leider nicht beurteilen.
Vermutlich macht aber vorallem der finanzielle Aufwand einer neuen Maske sowas heutzutage eher unwirtschaftlich, zumindest dann, wenn man 2016 schon eine neue Generation in 14nm FF bringen will. Den "neuen Hawaii" darauf zu shrinken wäre vmtl nochmal aufwendiger als ein Shrink auf "normale" 20nm.
Ich bleibe deshalb dabei, dass wir wahrscheinlich leider nur ein Rebrand sehen werden.

Man darf allerdings auch mal gut 10 Jahre zurückschauen.
Damals gab es R300, R350 und R360, alle mit nur geringen Änderungen.
Darauf gab es noch R420, R423, R480, R481, R430, alle mit 16 Pixel Pipelines und 256 Bit.
Damals ging es Ati noch besser und die Kosten für solche Neuportierungen waren vermutlich auch um ein Vielfaches geringer.

Ravenhearth
2015-02-09, 01:02:14
8192-bit? :freak:;D

Ich habe gesagt "optimal wäre", sonst nichts.

HPVD
2015-02-09, 07:38:58
GCN 1.2 (Tonga): Delta Colour Compression, Improved tessellation performance, VSR 4K Support, VCE/UVD 4K Decoding Support, other tweaks and improvements

=> gibts passend dazu schon irgendwelche Ideen was mit GCN 1.3 (Fiji) an neuen netten Features kommen können?
- HBM (gehört das zum Feature-set?)
- HDMI 2.0 (gehört ja nicht direkt zum Feature-set...)
- DP 1.3 (gehört ja nicht direkt zum Feature-set...)
- aber was sonst ??

dieser thread war ja noch nicht so ergiebig..
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=553964

mboeller
2015-02-09, 08:11:43
Ich habe gesagt "optimal wäre", sonst nichts.


Persönlich glaube ich nicht, das 8192bit optimal wären. Die ROPs müssten dafür IMHO komplett umgebaut werden und wahrscheinlich brauchst du min. 128 davon um so ein Speicherinterface richtig nutzen zu können.

HOT
2015-02-09, 10:07:36
Grenada und Trinidad werden GloFo-Ports von Hawaii und Pitcairn sein, vllt etwas verändert, oder eben gleich, wie bei Kabini. Denkbar wär beides. Bei Trinidad dürfte es aber dennoch ein Upgrade geben, der Chip muss dringend renoviert werden. Aber auch Grenada würde stark davon profitieren, dass Speicherinterface auf 384Bit zu begrenzen und die DP-Einheiten rauszuschmeißen.
Zudem wird sich mMn Fiji vor allem deshalb so lange verzögern, weil er 8GB HBM haben muss. Mit 4GB kann man keinen Blumentopf gewinnen, damit sind aber offenbar alle Samples ausgestattet. Hier wird man schlicht und ergreifend darauf warten, bis 8GB möglich sind (bei 4096Bit) und entsprechende Chips lieferbar sind. Somit hätte man die gesamte Serie beisammen, also die GloFo-Ports und Fiji mit HBM und kann alles gemeinsam launchen im Mai/Juni.

Nakai
2015-02-09, 13:29:10
Grenada und Trinidad werden GloFo-Ports von Hawaii und Pitcairn sein, vllt etwas verändert, oder eben gleich, wie bei Kabini. Denkbar wär beides. Bei Trinidad dürfte es aber dennoch ein Upgrade geben, der Chip muss dringend renoviert werden. Aber auch Grenada würde stark davon profitieren, dass Speicherinterface auf 384Bit zu begrenzen und die DP-Einheiten rauszuschmeißen.
Zudem wird sich mMn Fiji vor allem deshalb so lange verzögern, weil er 8GB HBM haben muss. Mit 4GB kann man keinen Blumentopf gewinnen, damit sind aber offenbar alle Samples ausgestattet. Hier wird man schlicht und ergreifend darauf warten, bis 8GB möglich sind (bei 4096Bit) und entsprechende Chips lieferbar sind. Somit hätte man die gesamte Serie beisammen, also die GloFo-Ports und Fiji mit HBM und kann alles gemeinsam launchen im Mai/Juni.

Entweder baut Hynix 4Gb HBM Dies oder man baut 8Hi-Stacks. Beides wird eher mit HBM Gen2 angekündigt. 8Hi-Stacks sind dann wieder problematischer mit Kühlung bzw. man muss die Kühlung darauf anpassen. Eventuell ein anderer Heatspreader oder besseres Package. 4Gb-Dies wäre unproblematischer, aber davon sieht man nichts...bis jetzt, und werden eigentlich nur auf der Roadmap unter Gen2 gelistet.

Sunrise
2015-02-09, 13:37:31
Mal davon ab:
Im aktuellen Graphics Databook für Q1/2015 (https://www.skhynix.com/inc/pdfDownload.jsp?path=/datasheet/Databook/databook_q1%272015_graphics.pdf), dass von Hynix jetzt zur Verfügung gestellt wurde, ist weiterhin nur HBM1 gelistet und dieser befindet sich laut unseren Infos in Q1/2015 in Massenproduktion.

Wenn AMD wirklich im Mai/Juni Fiji vorstellen will und aktuell immernoch in der Qual-Phase ist, dann wird das wohl kaum mit HBM2 hinhauen. Schon garnicht mit 8GB HBM2, das wäre nicht bezahlbar.

Manche vergessen hier anscheinend, dass man bei Zauba selbst Fiji XT (größte Ausbaustufe) schon Monate vorher gelistet hatte und wenn die größte Ausbaustufe schon vor Monaten gelistet war, dann wird hier sicherlich kein HBM2 kommen.

Die Produktion der Karten und die Materialien der Boardpartner nicht vergessen, da kann man nochmal gute 3 Monate rechnen.

4Gb-Dies wäre unproblematischer, aber davon sieht man nichts...bis jetzt, und werden eigentlich nur auf der Roadmap unter Gen2 gelistet.
Das wäre noch denkbar. Hynix ist nicht immer synchron mit den tatsächlich verfügbaren Modulen und den Datenblättern, ist bei Samsung auch öfter der Fall. Aber auch das wäre sehr weit hergeholt.

robbitop
2015-02-09, 13:38:43
Ist eine Option mit 2x 4 GiB HBMs nicht möglich?

Pick
2015-02-09, 13:41:02
GCN 1.3/2.0 (Fiji/Bermuda):

- new HBM Memory Controller
- Tiled Architecture (4 Tiles per CU, 1 CU = 4 thread)
- ACE Unit Multi-threaded F32 RISC Processor (ACE F32 = ACE Unit + F32 Processor, 1 F32 = 32 thread)
- 4*512KB L2 or 6*512KB L2
- HDMI 2.0
- DP 1.3
- PCI Express 4.0 (?)

Sunrise
2015-02-09, 13:42:27
Ist eine Option mit 2x 4 GiB HBMs nicht möglich?
Nach meinem Verständnis bräuchte man dann ein 8192bit-Interface um mit allen Modulen kommunizieren zu können.

Bitte korrigieren, wenn das falsch ist.

Nakai
2015-02-09, 13:51:22
Ist eine Option mit 2x 4 GiB HBMs nicht möglich?

Unterstützt HBM 512x/1024x-Modi derzeit? Ich dachte, das kommt erst mit HBMv2. Ansonsten hat man Interposer-Platzprobleme. 4 zusätzliche Stacks wäre nochmal weniger Platz. Derzeit sollte ein Interposer um die 26mmx32mm groß sein, waren jedenfalls die Prototyp-Interposer.

Ein HBM-Stack sollte etwa 42mm² groß sein.

4*42mm² + 550mm² ~ 718mm²(Fiji + 4 Stacks) vgl. 26mmx32mm ~ 832mm² (Kalahari Testinterposer)

Für Fiji mit 4 Stacks wird das schon abartig knapp. Eventuell sehen wir größere Interposer, aber mehr Stacks halte ich für unwahrscheinlich.

fondness
2015-02-09, 14:17:37
Mal davon ab:
Im aktuellen Graphics Databook für Q1/2015 (https://www.skhynix.com/inc/pdfDownload.jsp?path=/datasheet/Databook/databook_q1%272015_graphics.pdf), dass von Hynix jetzt zur Verfügung gestellt wurde, ist weiterhin nur HBM1 gelistet und dieser befindet sich laut unseren Infos in Q1/2015 in Massenproduktion.

Wenn AMD wirklich im Mai/Juni Fiji vorstellen will und aktuell immernoch in der Qual-Phase ist, dann wird das wohl kaum mit HBM2 hinhauen. Schon garnicht mit 8GB HBM2, das wäre nicht bezahlbar.

Manche vergessen hier anscheinend, dass man bei Zauba selbst Fiji XT (größte Ausbaustufe) schon Monate vorher gelistet hatte und wenn die größte Ausbaustufe schon vor Monaten gelistet war, dann wird hier sicherlich kein HBM2 kommen.

Die Produktion der Karten und die Materialien der Boardpartner nicht vergessen, da kann man nochmal gute 3 Monate rechnen.


Das wäre noch denkbar. Hynix ist nicht immer synchron mit den tatsächlich verfügbaren Modulen und den Datenblättern, ist bei Samsung auch öfter der Fall. Aber auch das wäre sehr weit hergeholt.

Es braucht kein HBM2 für 8GB, es braucht auch keine 8192-bit SI, alles was es bräuchte wären 2GB pro Stack. Wann das bereit ist weiß wohl nur Hynix und AMD. Das es früher oder später kommt sollte aber klar sein.

Nach meinem Verständnis bräuchte man dann ein 8192bit-Interface um mit allen Modulen kommunizieren zu können.

Bitte korrigieren, wenn das falsch ist.

Keine Ahnung ob ein Clamshell mode wie bei GDDR5 vorgesehen ist, aber wenn dann wären auch 8GB mit 8 Stacks bei "nur" 4096 bit möglich.

Kurz mal nachgeschaut, es scheint keinen Clamshell mode oder dergleichen zu geben, damit bräuchte es für 8GB ohne 2Gb Stack ein 8192-bit SI.