PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Sonys Playstation 4 kommt mit Pitcairn/HD7800-ähnlicher Grafiklösung


Leonidas
2012-06-10, 09:34:34
Link zur News:
http://www.3dcenter.org/news/sonys-playstation-4-kommt-mit-pitcairnhd7800-aehnlicher-grafikloesung

OBrian
2012-06-10, 10:43:07
Eine single-die-Lösung wäre aber besser und auch auch gar nicht so unrealistisch. Die 2 CPU-Module der Piledriver- oder Steamroller-Generation sind nicht so riesig, und auf Cache kann problemlos verzichtet werden, wenn schneller RAM mit 256 bit (das ist wohl recht wahrscheinlich) angebunden wird, d.h. nicht nur L3-Cache ist überflüssig, auch der L2 wird möglicherweise halbiert. Die diversen Uncore-Bereiche sind ja ebenfalls redundant, außerdem fallen einige Bestandteile wie z.B. PCIe-Links weg, die in der Konsole in dem Umfang sinnlos sind, d.h. die Diegrößen von Pitcairn und Trinity darf man nicht einfach addieren. Ausgehend von einem Pitcairn-Die würde man mit zwei CPU-Modulen zusätzlich schätzungsweise nicht mal auf 300 mm² kommen.

Eine speziell zugeschnittene APU zu bauen wäre auch kein sonderliches Problem. Es geht ja nur um bekannte Blöcke und Schnittstellen, praktisch nichts muß neu erfunden, nur passend dimensioniert werden. Der Mehraufwand rentiert sich, weil die Performance besser ist, das Platinenlayout einfacher und die Kühllösung auch weniger aufwändig sein muß (nur ein Chip, der zu kühlen ist).

Ravenhearth
2012-06-10, 12:46:56
Ist die Leistung eines Zweimodulers auf 3,2 GHz überhaupt ausreichend?

AnarchX
2012-06-10, 13:01:38
Wäre wohl etwas knapp. Mit den IPC-Steigerungen könnte man auf FX-4100/4170-Niveau landen.

Ravenhearth
2012-06-10, 13:21:35
Wäre es nicht möglich, einen Viermoduler einzusetzen, welcher dann aber - wie OBrian es schrieb- ohne L3-Cache und mit der Hälfte an L2-Cache auskommen muss?

Knuddelbearli
2012-06-10, 13:51:52
hätte auch mindestens mit nem 4 Moduler gerechnet, alleine wegen Physik. naja mal abwarten ob die Quelle überhaupt echt ist.

DIE größe alleine sollte nicht so das Problems ein siehe GTX 260 und zu welchem Preis die verkauft wurde. Bis die PS4 in Massenproduktion geht dürfte 28nm auch absolut ausgereift sein.

aufkrawall
2012-06-10, 14:25:57
"...welcher durch Hardware-nahe Programmierung lange Zeit auch mit nominell viel schnelleren PC-Grafikchips mithalten konnte."
Ist das wirklich so, oder wurden nicht einfach nur Grafikdetails eingespart?

Geldmann3
2012-06-10, 14:29:42
Wäre ja nicht gerade die Hammer Hardware. Könnte zwar 1-4 Jahre mit PC Grafik mithalten, weil dann ja auch speziell dafür entwickelt wird, doch Quantensprünge wie bei der PS3 gäbe es nicht. Da bräuchte es schon die doppelte Leistung. Auch mit UHD wird es dann sehr knapp. Die meisten Games werden dann wohl eher in 1080p rauskommen wie heute die meisten in 720p. Selbst 3D in 1080p wird dann oft schon problematisch.

AnarchX
2012-06-10, 14:41:30
"...welcher durch Hardware-nahe Programmierung lange Zeit auch mit nominell viel schnelleren PC-Grafikchips mithalten konnte."
Ist das wirklich so, oder wurden nicht einfach nur Grafikdetails eingespart?
Schlankere APIs und die Möglichkeit gezielter zu optimieren haben die effektive Leistung der Current-Gen-Konsolen doch durchaus erhöht.

Wäre ja nicht gerade die Hammer Hardware. Könnte zwar 1-4 Jahre mit PC Grafik mithalten, weil dann ja auch speziell dafür entwickelt wird, doch Quantensprünge wie bei der PS3 gäbe es nicht.
Das ist eben der Grenzertrag, auch auf dem PC wird die hohe Leistung nicht linear in bessere Grafik umgesetzt.

Aber mit gut 2 TFLOPs GPU-Leistung und wohl >2GiB RAM sollten die Entwickler einiges anfangen können. Die UE4/Lumnios Studio Demos zeigen doch durchaus hübsche Grafik mit einem deutlich realistischeren Beleuchtungsmodell.

Geldmann3
2012-06-10, 14:46:50
Ja, ich denke es ist absolut nicht zu vergleichen mit einem PC mit ähnlicher Hardware. Dennoch würde es den Vorteil mit sich bringen PC näher zu entwickeln. Das hegt die Hoffnung, dass die späteren Konsolen die PC Grafik nicht ganz so runterziehen, wie es die aktuellen tun. Ich glaube ein Crysis2 hätte es ohne die Konsolen so nie gegeben. Das hat doch nur in so Schlauchlevels gespielt, weil man sich erstmal an die Möglichkeiten der Konsolen herantasten musste. Das hatte so gar nicht zu Crysis gepasst. Man hatte eher eine weitgehend offene verkommene Stadt erwartet.

aufkrawall
2012-06-10, 14:58:28
Schlankere APIs und die Möglichkeit gezielter zu optimieren haben die effektive Leistung der Current-Gen-Konsolen doch durchaus erhöht.

Die PS3 mit OpenGL ist ja oftmals ziemlich grottig, sogar im Vergleich zur Xbox 360.
Auch bei der Xbox 360 wird ordentlich an den Details gespart. Zudem ist die Bildrate meist weit unter 60fps und es wird i.d.R. nur in 720p oder noch niedriger gerendert und dann hochskaliert.
Das würd auch alte PC-Krückenhardware mit ähnlicher Leistung hinkriegen, weshalb ich etwas an echten "Optimierungen" zweifle.
Wie sollen die GPU seitig überhaupt aussehen?
Die GPUs sind doch eigentlich völlig vergleichbar mit denen in PCs, also kann man eigentlich nur die Rechenanforderungen runter drehen.

Geldmann3
2012-06-10, 15:14:31
Die GPUs sind doch eigentlich völlig vergleichbar mit denen in PCs, also kann man eigentlich nur die Rechenanforderungen runter drehen.
Doch die Entwickler wissen genau was für eine GPU drin ist, das ist ein großer Vorteil. Man kann Spiele darauf ausrichten. Im Endeffekt sinken dann die Rechenanforderungen bei (scheinbar) gleicher Grafik. Bei Computerspielen wird immer mit Tricks gearbeitet um ein schönes Bild auf den Schirm zu zaubern. Diese Tricks funktionieren besser, wenn man ganz genau weiss auf welcher Hardware sie laufen sollen und man sich auf genau diese einschießen kann.

AnarchX
2012-06-10, 15:17:16
Die PS3 mit OpenGL ist ja oftmals ziemlich grottig, sogar im Vergleich zur Xbox 360.
Auf der PS3 wird kein OpenGL verwendet. OpenGL ES wäre zwar verfügbar, aber das verwendet kein ernsthafter Entwickler.


Auch bei der Xbox 360 wird ordentlich an den Details gespart. Zudem ist die Bildrate meist weit unter 60fps und es wird i.d.R. nur in 720p oder noch niedriger gerendert und dann hochskaliert.
Das würd auch alte PC-Krückenhardware mit ähnlicher Leistung hinkriegen, weshalb ich etwas an echten "Optimierungen" zweifle.
Neben der schwachen HW-Leistung gibt es ja noch andere Fallstricke wie nur 512MiB/2x256MiB Hauptspeicher für GPU und CPU und Streaming von Daten von einem langsamen optischen Laufwerk.


Wie sollen die GPU seitig überhaupt aussehen?
Die GPUs sind doch eigentlich völlig vergleichbar mit denen in PCs, also kann man eigentlich nur die Rechenanforderungen runter drehen.
Xenos mit eDRAM und ein RSX, der von Cell unterstützt wird, sind doch schon deutlich spezieller als PC-GPUs.

Und bei der API kann man sich eben deutlich näher an der HW orientieren und muss sich nicht einem großen Konsens wie bei D3D/OGL unterwerfen. Die XBox API hat wohl schon anleihen von DX10, obwohl Xenos kein D3D9.c vollständig unterstützt.


Wunder sollte man natürlich nicht erwarten, aber ein besseres Resultat als einem ähnlich limitierten/bzw. 500€ teuren PC von 2005/Anfang 2006 sollte man hier wohl schon erzielen können.


Bei den kommenden Konsolen, wo die Engines einen großen Anteil in Computing stecken (siehe UE4), könnte man wieder etwas HW-näher ausführen.

aufkrawall
2012-06-10, 18:26:44
Das überzeugt mich. :redface:

Edit: Frechheit, das mit dem Smiley. *grmpf*

aufkrawall
2012-06-12, 11:53:27
Was ist denn der letzte Stand zur Xbox "720"?
Wird dann doch wohl kaum ein Cayman drin sitzen.

mczak
2012-06-12, 18:15:49
hätte auch mindestens mit nem 4 Moduler gerechnet, alleine wegen Physik. naja mal abwarten ob die Quelle überhaupt echt ist.

Also bei einem "echten" Fusion-Produkt (neuerdings heisst das HSA) brauchst du für Physik sicher nicht mehr CPU-Rechenleistung, das lässt du besser die GPU erledigen.
Ein Pitcairn + 2 Steamroller Module sollte jedenfalls sicher möglich sein ohne allzugrosse Schwierigkeiten in 28nm, wobei ich denke der Chip würde (hauptsächlich aufgrund des sicherlich aufgebohrten Speicherinterfaces) etwas grösser als 300mm².
Wobei beim Speicherinterface frage ich mich schon was es da denn sein soll wenn's unified ist. Ohne zusätzliches edram ist eigentlich selbst 256bit ddr3 zuwenig. Naja vielleicht wird's ja auch ein 400mm² Chip mit 128bit ddr3 aber 64MB L4/edram :-).

Gipsel
2012-06-12, 19:31:35
Also bei einem "echten" Fusion-Produkt (neuerdings heisst das HSA) brauchst du für Physik sicher nicht mehr CPU-Rechenleistung, das lässt du besser die GPU erledigen.
Ein Pitcairn + 2 Steamroller Module sollte jedenfalls sicher möglich sein ohne allzugrosse Schwierigkeiten in 28nm, wobei ich denke der Chip würde (hauptsächlich aufgrund des sicherlich aufgebohrten Speicherinterfaces) etwas grösser als 300mm².
Welches Aufbohren? in den 212mm² von Pitcairn ist doch ein 256Bit GDDR5-Interface schon mit drin und das von der CPU läßt man einfach weg. Zum Pitcairn (minus zwei CUs nach letzten Gerüchten) würden nur die 2 Module und die UNB dazukommen. Das geht sicher in 300mm² (zumal man, wie OBrian oben bereits anmerkte, an den restlichen Schnittstellen wie PCI-Express sparen kann) und man hätte 192GB/s Bandbreite mit GDDR5@1.5GHz. Da bleibt als Frage bloß, ob man bis 2014 4GBit-Module bekommt (momentan gibt es nur 2 GBit-GDDR5-Chips). Oder ...
Wobei beim Speicherinterface frage ich mich schon was es da denn sein soll wenn's unified ist. Ohne zusätzliches edram ist eigentlich selbst 256bit ddr3 zuwenig. Naja vielleicht wird's ja auch ein 400mm² Chip mit 128bit ddr3 aber 64MB L4/edram :-).
XDR2! :D

Und die 64MB eDRAM on Die sind meiner Meinung nach beinahe genau so wahrscheinlich wie ein 2 GB HMC auf einem Interposer mit obszöner Bandbreite + 4 GB DDR3 an einem 128Bit Interface. Soll es Ersteres nicht ab 2014 in Serie geben? Und mit HSA gibt es trotzdem einen einheitlichen Adressraum. Es sieht also wie UMA aus, auch wenn es eher SUMO/SUMA ist (wie auch bei Multiprozessorsystemen mit integrierten Speichercontrollern).

Knuddelbearli
2012-06-12, 20:01:39
Also bei einem "echten" Fusion-Produkt (neuerdings heisst das HSA) brauchst du für Physik sicher nicht mehr CPU-Rechenleistung, das lässt du besser die GPU erledigen.
Ein Pitcairn + 2 Steamroller Module sollte jedenfalls sicher möglich sein ohne allzugrosse Schwierigkeiten in 28nm, wobei ich denke der Chip würde (hauptsächlich aufgrund des sicherlich aufgebohrten Speicherinterfaces) etwas grösser als 300mm².
Wobei beim Speicherinterface frage ich mich schon was es da denn sein soll wenn's unified ist. Ohne zusätzliches edram ist eigentlich selbst 256bit ddr3 zuwenig. Naja vielleicht wird's ja auch ein 400mm² Chip mit 128bit ddr3 aber 64MB L4/edram :-).


GPU Physik kann man für echte gamepgysik aber leider nicht nutzten

gpu physik ist zumindest bisher nur dafür einsetzbar die partikelanzahl zu erhöhen.

und ram wird wohl ( sofern es nur einen Ram und gibt nicht Ram und VRam ) sicher GDDDR5.

Pitcairn würde selbst an 256Bit ( mehr wäre nicht sinnvoll ) mit DDR3 extrem gebremst werden.

Gipsel
2012-06-12, 20:52:08
GPU Physik kann man für echte gamepgysik aber leider nicht nutzten

gpu physik ist zumindest bisher nur dafür einsetzbar die partikelanzahl zu erhöhen.
"Bisher" ist hier das Schlüsselwort. Mit HSA und den unabhängigen Hardware-Queues für Compute-Shader (die ACEs in GCN) wird es dafür tauglich. Lohnt sich aber natürlich nur, falls man viele Objekte hat. Aber das sollte ja irgendwie auch das Ziel sein.

mczak
2012-06-13, 01:54:38
Welches Aufbohren? in den 212mm² von Pitcairn ist doch ein 256Bit GDDR5-Interface schon mit drin und das von der CPU läßt man einfach weg. Zum Pitcairn (minus zwei CUs nach letzten Gerüchten) würden nur die 2 Module und die UNB dazukommen. Das geht sicher in 300mm² (zumal man, wie OBrian oben bereits anmerkte, an den restlichen Schnittstellen wie PCI-Express sparen kann) und man hätte 192GB/s Bandbreite mit GDDR5@1.5GHz. Da bleibt als Frage bloß, ob man bis 2014 4GBit-Module bekommt (momentan gibt es nur 2 GBit-GDDR5-Chips). Oder ...

Ah ja du hast natürlich recht ich habe da mit 2 Speicherinterfaces gerechnet. Da dürften dann in der Tat 300mm² reichen (mit einem 256bit gddr5-interface).
Theoretisch kriegst du ja auch 4GB Speicher problemlos mit 2gbit gddr5 Chips und einem 256bit Interface hin, mithilfe des Clamshell-Modes.


XDR2! :D

Und die 64MB eDRAM on Die sind meiner Meinung nach beinahe genau so wahrscheinlich wie ein 2 GB HMC auf einem Interposer mit obszöner Bandbreite + 4 GB DDR3 an einem 128Bit Interface. Soll es Ersteres nicht ab 2014 in Serie geben? Und mit HSA gibt es trotzdem einen einheitlichen Adressraum. Es sieht also wie UMA aus, auch wenn es eher SUMO/SUMA ist (wie auch bei Multiprozessorsystemen mit integrierten Speichercontrollern).
Hmm ich habe keine Ahnung wie das am Ende aussehen wird. Mir scheint einfach 256bit gddr5 (und dann noch mit 4GB) ist wohl etwas teuer, 256bit ddr3 aber nicht sinnvoll da zu langsam. Da würde sich irgendwie eine Lösung mit lahmen (und spottbilligen) 128bit ddr3 anbieten, die benötigte Bandbreite muss dann halt von woanders her kommen. Die Interposer-Lösung wäre da natürlich auch sehr interessant, wenn die wirklich serienreif ist (im Gegensatz zur Lösung mit edram würde da dann sicher auch ein 64bit ddr3 Interface locker reichen). Hardwaretechnisch ist die Bandbreitenfrage meiner Meinung nach das interessanteste Problem bei den Next-Gen Konsolen.