PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Next-Gen-Konsolen?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39

Deinorius
2012-10-19, 16:39:22
Cell hat noch ganz andere Probleme als ein normaler Multicore. Davon auf Probleme bei den NextGen Konsolen zu schließen ist falsch.


Ja, du hast recht. Die beiden Aussagen gehören getrennt. Meine Aussage bleibt dennoch bestehen. Besser weniger leistungsfähigere Kerne als andersherum.

Du meinst wohl SoCs.


Wäre es möglich, dass Sony und M$ vielleicht den selben Weg gehen wie Nintendo? Also CPU und GPU getrennt, aber auf einem gemeinsamen Trägermaterial?

robbitop
2012-10-19, 16:43:25
Ja, du hast recht. Die beiden Aussagen gehören getrennt. Meine Aussage bleibt dennoch bestehen. Besser weniger leistungsfähigere Kerne als andersherum.
Das sehe ich auch so. Und die Dominanz der Singlethread-dominierenden Intel CPUs untermauert das. Natürlich sind Konsolen eine andere Welt. Zaubern kann aber niemand.

Ailuros
2012-10-19, 18:56:33
Wäre es möglich, dass Sony und M$ vielleicht den selben Weg gehen wie Nintendo? Also CPU und GPU getrennt, aber auf einem gemeinsamen Trägermaterial?

Ich wuerde wohl in dem Fall nicht System On Chip erwaehnen. Es ist ja fast so als ob es den meisten beim Klang eines SoCs schaudert. SoC != small form factor only Material und koennen auch beliebig auf N TDP skalieren. Es gibt sogar insgesamt IMHO mehr Vor- als Nachteile gegen die bisherigen "konventionellen" hw Loesungen, ueberhaupt wenn ein Entwickler "closer to the metal" coden kann.

Deinorius
2012-10-19, 22:07:11
Die großen Vorteile waren dann zumindest Nintendo nicht genug, um das selber so zu machen. Ich sage selber nicht, dass mir das oder das lieber wäre, mir geht es nur darum, was vielleicht eher ausgewählt wird. Ich spekuliere nur.
Und wenn du von SoCs sprichst, spekulierst du, oder... ;)

][immy
2012-10-19, 23:05:42
Bobcat lag ca. 10...20 % in den Benchmarks im Schnitt hinter einem gleichgetakteten K8. Wenn AMDs Aussage mit ~+15 % IPC stimmt, liegt Jaguar ~ auf K8 Level. Auf K10 würde es zusätzlich 20...30 % brauchen (vom K8 aus gesehen).

mit oder ohne neue Extensions (AVX oder was der nun auch alles an bord hat)

robbitop
2012-10-19, 23:50:22
[immy;9509468']mit oder ohne neue Extensions (AVX oder was der nun auch alles an bord hat)
Naja Standard Benches. Denke mal kein AVX. Bisher hat eine neuer FP Instruction Set in Spielen noch nie viel gebracht. Bei Konsolen kann das anders aussehen.

Aber Jaguar und Piledriver haben beide AVX. Insofern gibt es für keinen von beiden dadurch einen Vorteil. Ich gehe davon aus, dass PD gute 30 % mehr IPC als Jaguar hat. Und dazu den doppelten Takt.

Gipsel
2012-10-20, 01:42:59
Aber Jaguar und Piledriver haben beide AVX. Insofern gibt es für keinen von beiden dadurch einen Vorteil. Ich gehe davon aus, dass PD gute 30 % mehr IPC als Jaguar hat. Und dazu den doppelten Takt.Ich glaube, daß das außerhalb von FMA und AVX256 eher auf das Gleiche hinausläuft. Das aber nur von mir als uneducated guess.

Geldmann3
2012-10-20, 04:16:34
Was meint ihr Experten, wie-viel % ist die WiiU leistungsstärker als die PS3?
10%, 20% 100% ?

Ich hoffe ja, dass PS4 und XBox3 (; mit neuer Hammer-Hardware hervorkommen, dass es endlich wieder einen großen Schritt in der Spielegrafik gibt.
Ich denke/hoffe da so in etwa an

8 Bulldozer CPU Kerne @4Ghz oder etwas vergleichbares (Vielleicht mit weniger Takt, um die TDP nicht zu sprengen)
4GB Ram/SharedVRam mit einer Grafiklösung auf dem Niveau der HD 7970.

Nur so, könnte Sony/Microsoft die Augen der Gamer wieder ansatzweise tränen lassen, wie beim Release der PS3 damals.

Und wer jetzt meint, Chips wie die der 7970 wären zu teuer für solch eine Konsole, dazu kann ich nur sagen: Erstens bekommen die Konsolenhersteller das Ganze günstiger durch extreme Massenbestellung und zweitens kann man durchaus mit einem Preis von 400€ aufwärts für die neuen Konsolen rechnen. Immerhin werden PS3 und XBox360 ja auch weiter gepflegt, die neuen Konsolen werden dann halt erst mal das High-End (Konsolen) Produkt.

Auch sollte man nicht davon ausgehen, dass es extrem Nah an PC Hardware entwickelt wird. Die werden schon ihre ganz speziellen Designs haben, wie das fast immer bei den Konsolen der Fall ist. Auch wenn der Chip später vielleicht "nur" das Niveau der 7870 haben sollte, wird grafisch einiges mehr geboten werden, als momentan auf dem PC mit äquivalenter Hardware. Die Spiele werden dann ja auch auf das Design hin optimiert.

robbitop
2012-10-20, 07:13:50
Ich glaube, daß das außerhalb von FMA und AVX256 eher auf das Gleiche hinausläuft. Das aber nur von mir als uneducated guess.
Dann müsste Jaguar aber einen 20 % Sprung nach vorn ggü. Bobcat machen und Steamroller keinen ggü Bulldozer. Oder aber Jaguar müsste die Summe aus beiden Sprüngen machen.
Wenn Jaguar die gleiche IPC erreichen würde, wie Steamroller, gäbe es nur noch wenige Gründe für Steamroller. Klar den Takt und CMT.
Aber es wäre ein Armutszeugnis. Mein Guess liegt auf > 20 % Unterschied so wie es jetzt ist (oder mehr, da Steamroller ja einen ordentlichen IPC Sprung verspricht - Jaguar auch - der ist aber von AMD auf 15 % vorgesehen worden)

AnarchX
2012-10-20, 10:53:05
Könnte man eigentlich Vorteile daraus ziehen, wenn jeweils so ein Jaguar-DC (mit shared L2) enger in die GPU integriert wird. Was vielleicht ein Grund war, sich gegen Non-AMD-IP zu entscheiden, bei der ein solche Integration nicht möglich wäre?

So ein Next-Gen-SoC könnte dann vielleicht aus 4 Clustern bestehen, die jeweils 5 ALU-SIMDs (320SPs), eine Primitive-Pipeline (für ordentlich hohen Geometrie-Durchsatz) und eben dieser Jaguar-Dual-Core enthalten.

Ihm
2012-10-20, 11:25:35
Und wer jetzt meint, Chips wie die der 7970 wären zu teuer für solch eine Konsole, dazu kann ich nur sagen: Erstens bekommen die Konsolenhersteller das Ganze günstiger durch extreme Massenbestellung und zweitens kann man durchaus mit einem Preis von 400€ aufwärts für die neuen Konsolen rechnen.

Und dazu kann ich nur sagen:
Du hast leider überhaupt keine Ahnung, wie sich die Kosten für ein derart breit aufgestelltes Produkt summieren.
Sorry, aber das ist wieder einmal so typisch für Leute, die in ihre Berechnungen nur das miteinschliessen, was sie später physisch in den Händen halten werden.
Ein wenig oberflächlich und zu kurz gedacht, meinst du nicht? :rolleyes:

Nakai
2012-10-20, 12:20:15
Für eine Konsole wäre auch eine heterogene CPU-Konfiguration interessant.
zB.: 4 Jaguarkerne und ein Steamroller-Modul.

Skysnake
2012-10-20, 12:35:08
Sicher nicht....

Man wird einen Teufel tun und 2 CPU-Modelle mischen.

Wenn wird, wie schon gesagt, die GPU stärker in die CPU integriert, und genau das wird denke ich auch passieren. Also ein SoC/APU.

Ich bezweifle das PS4 und XBox720 getrennte CPU und GPU Chips haben werden.

Man wird halt vor allem schauen müssen, welchen Nutzen/Vorteil AMD für ihre APUs daraus ziehen kann. Wenn AMD z.B. FMA3/4 in die Chips mit rein bekommen würde, wäre das wirklich ein Vorteil für die Desktop-Modelle. Man könnte halt endlich mal die Vorteile der ISA-Erweiterung ausnutzen, die Intel nicht hat.

del_4901
2012-10-20, 12:48:34
Für eine Konsole wäre auch eine heterogene GPU-Konfiguration interessant.
zB.: 4 Jaguarkerne und ein Steamroller-Modul.
Bitte nicht, CELL war schon schlimm genug, da muss man nicht noch eins drauf setzen.
Jeh mehr ich drueber nach denke umso mehr kann ich mich mit Jaguar anfreunden, denn die ham wenigstens keine geteilte FPU.

Nakai
2012-10-20, 12:53:12
Also Cell ist bestimmt keine Heterogene CPU, die SPEs kann man kaum als CPUs ansehen.

Man wird einen Teufel tun und 2 CPU-Modelle mischen.

Ich sehe darin aber kein Problem. Im SOC-Bereich wird es ja bereits getan.
Hohe SingleThread-Performance auf den "fetten" Kernen und andere "kleinere" Aufgaben auf die "kleineren" Kerne.
Man müsste natürlich sicherstellen, dass verschiedene CPU-Typen auch miteinander konfigurierbar sind. Das ist natürlich nicht so einfach, aber dennoch möglich sein.

del_4901
2012-10-20, 12:55:23
Also Cell ist bestimmt keine Heterogene CPU, die SPEs kann man kaum als CPUs ansehen. Was ist es denn dann, wenn es keine CPUs sind?

Ich sehe darin aber kein Problem. Im SOC-Bereich wird es ja bereits getan. Hohe SingleThread-Performance auf den "fetten" Kernen und andere "kleinere" Aufgaben auf die "kleineren" Kerne.
Man müsste natürlich sicherstellen, dass verschiedene CPU-Typen auch miteinander konfigurierbar sind. Das ist natürlich nicht so einfach, aber dennoch möglich sein. Das macht man weil man Akku spaaren moechte, das ist bei einer Konsole aber kein Thema. Das waehre viel zu aufwaendig, auch spaeter in der Entwicklung.

Nakai
2012-10-20, 13:02:16
Was ist es denn dann, wenn es keine CPUs sind?

OnDie-CoProzessoren wäre ein passabler Begriff.

Das macht man weil man Akku spaaren moechte, das ist bei einer Konsole aber kein Thema. Das waehre viel zu aufwaendig, auch spaeter in der Entwicklung.

Selbst Konsolen haben ziemlich große Hitzeprobleme. Eine Effizienzsteigerung wäre ziemlich wünschenswert. Wenn man tatsächlich auf einen SOC geht, dann wird die TDP eines solchen SOCs ziemlich hoch sein. Unter 100W sehe ich da keine Möglichkeit, sowohl bei PS4 und Xbox720.

Sicherlich wird so ein Design relativ komplex und auch aufwendig. Eine solche CPU-Konfiguration ist aber dennoch vorteilhaft.

Skysnake
2012-10-20, 13:26:42
Ich sehe darin aber kein Problem. Im SOC-Bereich wird es ja bereits getan.
Hohe SingleThread-Performance auf den "fetten" Kernen und andere "kleinere" Aufgaben auf die "kleineren" Kerne.
Man müsste natürlich sicherstellen, dass verschiedene CPU-Typen auch miteinander konfigurierbar sind. Das ist natürlich nicht so einfach, aber dennoch möglich sein.
Das wird nur im Ultra-low-power/Ultra-Mobile Bereich gemacht, weil es da auf jedes Watt drauf ankommt. Das lohnt bei einer Konsole einfach nicht.

Zumal bei nVidia, wenn ich mich recht erinnere, dieser spezielle Kern eben auch abgeschaltet wird, sobald bischen was los ist. Das Ding ist nur dafür da, damit man Hintergrundprozesse im Standby/Idle effizient handhaben kann. Die Architektur an sich unterscheidet sich da aber nicht grundlegend (ISA). Man ist halt nur schwächer, niedriger getacktet usw. Bei Konsolen hat man eher tendenziell nicht den Anreiz im Standby noch die letzten Watt raus zu kitzeln, weil das Ding halt an und benutzt wird, oder aus und nicht benutzt wird. Eingehende TElefonate usw sind da eher selten :ugly:


Selbst Konsolen haben ziemlich große Hitzeprobleme. Eine Effizienzsteigerung wäre ziemlich wünschenswert. Wenn man tatsächlich auf einen SOC geht, dann wird die TDP eines solchen SOCs ziemlich hoch sein. Unter 100W sehe ich da keine Möglichkeit, sowohl bei PS4 und Xbox720.

Sicherlich wird so ein Design relativ komplex und auch aufwendig. Eine solche CPU-Konfiguration ist aber dennoch vorteilhaft.
Die behebst du aber nicht, indem du noch ne zweite Architektur mit rein holst....

Wenn, macht man sowas wie mit der ARM-trust-zone, was dann aber komplett losgelöst ist voneinander. Das kann ich mir vorstellen, aber nicht die Mischung von 2 Architekturen für die "gleichen" Einsatzzwecke in einer Konsole.

Gipsel
2012-10-20, 13:35:32
Wenn AMD z.B. FMA3/4 in die Chips mit rein bekommen würde, wäre das wirklich ein Vorteil für die Desktop-Modelle. Man könnte halt endlich mal die Vorteile der ISA-Erweiterung ausnutzen, die Intel nicht hat.Jaguar hat kein FMA, nur AVX.

RLZ
2012-10-20, 13:39:56
weil das Ding halt an und benutzt wird, oder aus und nicht benutzt wird.
Das ist schonmal ein Denkfehler.

http://cdn.themis-media.com/media/global/images/library/deriv/98/98206.jpg
Aus dem vor einiger Zeit geleakten MS Dokument.
Always On ist damit nicht unwahrscheinlich.

Die Frage bei der CPU Leistung ist, ob die letzten 30% wirklich relevant sind, wenn die Konkurrenz nicht wesentlich schneller ist.

Locuza
2012-10-20, 13:57:09
Jaguar hat kein FMA, nur AVX.
Deswegen schreibt er wohl, "wenn" ;)

Skysnake
2012-10-20, 14:51:12
So schaut aus :ugly:

Heißt ja nicht, dass die PS4 und XBOX720 ne 1:1 Kopie von Jaguar bekommen. Da könnte eventuell schon FMAx mit rein wandern. Die Konsolen dürften durchaus profitieren.

Ailuros
2012-10-20, 17:13:45
Die großen Vorteile waren dann zumindest Nintendo nicht genug, um das selber so zu machen. Ich sage selber nicht, dass mir das oder das lieber wäre, mir geht es nur darum, was vielleicht eher ausgewählt wird. Ich spekuliere nur.
Und wenn du von SoCs sprichst, spekulierst du, oder... ;)

ROFL :biggrin: PM schon gelesen?

Nebenbei Rory Read vor kurzem:

Our semi-custom APUs already have a number of confidential high-volume design wins in place.

Fuer wen das wohl sein koennte? *gruebel* :rolleyes: Meine Glaskugel sagt mir gerade dass die "Nummer" eine 2 ist, hab ich was gewonnen? ;)

Was meint ihr Experten, wie-viel % ist die WiiU leistungsstärker als die PS3?
10%, 20% 100% ?

Ich hoffe ja, dass PS4 und XBox3 (; mit neuer Hammer-Hardware hervorkommen, dass es endlich wieder einen großen Schritt in der Spielegrafik gibt.
Ich denke/hoffe da so in etwa an

8 Bulldozer CPU Kerne @4Ghz oder etwas vergleichbares (Vielleicht mit weniger Takt, um die TDP nicht zu sprengen)
4GB Ram/SharedVRam mit einer Grafiklösung auf dem Niveau der HD 7970.

Es sind keine Bulldozer Kerne sondern etwas relativ effizienteres. GPU siehe weiter unten.


Und wer jetzt meint, Chips wie die der 7970 wären zu teuer für solch eine Konsole, dazu kann ich nur sagen: Erstens bekommen die Konsolenhersteller das Ganze günstiger durch extreme Massenbestellung und zweitens kann man durchaus mit einem Preis von 400€ aufwärts für die neuen Konsolen rechnen. Immerhin werden PS3 und XBox360 ja auch weiter gepflegt, die neuen Konsolen werden dann halt erst mal das High-End (Konsolen) Produkt.

Es handelt sich um spezial angepasste SoCs fuer Konsolen die nichts direkt gemeinsam haben mit desktop SoCs; vergleichbare characteristics ja aber es ist eben nicht ein A, B oder C SoC der fuer PC/notebooks verkauft oder verkauft werden wird. Dementsprechend ist es eben NICHT ein 7970 chip und schon gar nicht ein SoC GPU block der nur als dieser ueber 200W verbraucht.

IBM ist fuer die Microsoft SoC Entwicklung verantwortlich, wofuer AMD lediglich GPU IP verkauft hat und bei Sony arbeiteteten sie mit AMD eng zusammen fuer den analogen SoC.

Auch sollte man nicht davon ausgehen, dass es extrem Nah an PC Hardware entwickelt wird. Die werden schon ihre ganz speziellen Designs haben, wie das fast immer bei den Konsolen der Fall ist. Auch wenn der Chip später vielleicht "nur" das Niveau der 7870 haben sollte, wird grafisch einiges mehr geboten werden, als momentan auf dem PC mit äquivalenter Hardware. Die Spiele werden dann ja auch auf das Design hin optimiert.

So klingt es schon besser. Ergo kommt direkt danach gleich die Frage welcher AMD SoC momentan 7970 oder sogar 7870 Leistung heutzutage genau anbietet? Waere es der Fall braeuchte AMD ueberhaupt keine standalone GPUs mehr ausser vielleicht fuer Profi-Maerkte.

Naitsabes
2012-10-20, 17:29:48
[...]
IBM ist fuer die Microsoft SoC Entwicklung verantwortlich, wofuer AMD lediglich GPU IP verkauft hat und bei Sony arbeiteteten sie mit AMD eng zusammen fuer den analogen SoC. [...]



Also kein x86 sondern wieder Power in der Box?

Ailuros
2012-10-20, 17:45:16
Also kein x86 sondern wieder Power in der Box?

32nm SOI HKMG, 4 PowerN cores, 4 threads/core afaik. Sony's Idee ist um einiges "konventioneller".

Locuza
2012-10-20, 17:50:28
Heißt konventioneller, dass man keine HSA artiges System zusammenbauen wird, mit einem gemeinsamen Adressraum für beide Processing Units und einem kohärentem Speicher?
Nur paar classic CPU-Cores, GPU und fettes Interface dazwischen?
Das stelle ich mir gerade unter konventionell vor.

Ailuros
2012-10-20, 18:09:59
Keine Ahnung ueber HSA relevantes Zeug, aber HSA generell klingt mir zu jung um es in Projekte zu schaffen die als designs schon einige Zeit fertig sind.

Sonst steht konventioneller fuer einen SoC Design der naeher zu einem PC SoC steht als Microsoft's Loesung.

Felixxz2
2012-10-20, 18:30:16
Sprich Xbox Power PC und Playstation x86?

Gipsel
2012-10-20, 19:16:38
32nm SOI HKMG, 4 PowerN cores, 4 threads/core afaik. Sony's Idee ist um einiges "konventioneller".Wie sicher ist denn die Quelle dafür? Nicht, daß sich das nur jemand aus der "super computer" Bemerkung des oben verlinkten Typens bei neogaf zusammengereimt hat.

Ailuros
2012-10-20, 21:10:08
Wie sicher ist denn die Quelle dafür? Nicht, daß sich das nur jemand aus der "super computer" Bemerkung des oben verlinkten Typens bei neogaf zusammengereimt hat.

Die Info ist uralt und Du brauchst nicht lange raten woher es kommt ;) Den Prozess hat lediglich ein AMD engineer in einem forum indirekt bestaetigt, weil er wohl auch glaubt dass ich nicht weiss wo er arbeitet ;)

AnarchX
2012-10-20, 21:52:44
32nm SOI für die GPU wäre wohl aber eher auf dem Niveau (Stromverbrauch, Packdichte) von 40nm Bulk. Und das 2013/14?

Felixxz2
2012-10-21, 17:48:36
http://www.pcgameshardware.de/Handy-Smartphone-229953/News/Smartphones-schneller-als-Xbox-720-und-PS4-1031069/

So ein Trottel :D

AnarchX
2012-10-21, 17:57:01
Naja, im Text steht nur PS4, was aber wohl entsprechend des Kontext eher ein Schreibfehler ist und PS3 sein sollte.

The game designer said that in two years, portable platforms more powerful than a PS4 may be connecting directly to our televisions

Ailuros
2012-10-21, 18:19:32
Naja, im Text steht nur PS4, was aber wohl entsprechend des Kontext eher ein Schreibfehler ist und PS3 sein sollte.

Kann durchaus sein, es steht aber auch portable platforms im Text was nicht unbedingt smartphones sein muss.

Ab 2013 sind tablets/smartphones +/- auf XBox360 (von der GPU Seite her) Leistungsniveau und es wird eben nicht ein Jahrzehnt dauern bis diese schneller als die naechste Generation von Konsolen werden.

basti333
2012-10-21, 18:24:06
Da der Bedarf am oberen Ende schon seit jahren nicht so stark steigt wie am unteren, ist doch ein permanenter Angleichungsprozess nur die logische konsequenz.

Käsetoast
2012-10-21, 18:39:27
Die Aussage ist aber schon ziemlich bekloppt in Hinsicht auf die Stromverbräuche. Die Fertigungsprozesse werden sich nicht zeitnah so stark verbessern, dass ein mobiles Gerät so viel effizienter sein wird, dass es auf das Leistungsniveau von Konsolen mit einem Verbrauch im dreistelligen Wattbereich kommt...

Von daher eine Aussage, über die man gepflegt schmunzeln kann... :smile:

Ailuros
2012-10-21, 18:43:24
Da der Bedarf am oberen Ende schon seit jahren nicht so stark steigt wie am unteren, ist doch ein permanenter Angleichungsprozess nur die logische konsequenz.

2009/2010 waren smartphones mit >1 GFLOP von den GPU ALUs immer noch "high end". Heute sind wir schon bei knapp ueber 50 GFLOPs und im naechsten Jahr geht es dann ueber 100-200 GFLOPs je nach Fall. GFLOPs stehen natuerlich NICHT fuer die eigentliche Leistungs-steigerung, aber die Skalierungsrate ist trotz allem verdammt aggressiv. Bevor es jemand sagt irgendwann machen die smartphone Hersteller schon halt mit der display Aufloesung auf Handys, aber die zukuenftige Leistung wird eben FUER externe Anschluesse skalieren.

Botcruscher
2012-10-21, 18:49:49
Müssen die Konsolen halt aktuell gehalten werden. Wenn sich die überteuerte Gammelhardware nicht bewegt, brauch man sich über ungewollte Konkurrenz nicht beschweren.

Felixxz2
2012-10-21, 18:52:13
Das sicherlich und der Trend das Smartphone am TV zu betreiben ist auch gegeben. Aber Samrtphones werden nie auch nur entfernt mit Plattformen mithalten können die 100-200W Budget haben und von den FLOP/s aber auch beim Rest in einer völlig anderen Liga spielen.

Ailuros
2012-10-21, 19:27:43
Das sicherlich und der Trend das Smartphone am TV zu betreiben ist auch gegeben. Aber Samrtphones werden nie auch nur entfernt mit Plattformen mithalten können die 100-200W Budget haben und von den FLOP/s aber auch beim Rest in einer völlig anderen Liga spielen.

Wenn 2 Jahre verdammt optimistisch sind, dann ist NIE ebenso verdammt pessimistisch. Die XBox360 wird in etwa 8 Jahre alt sein wenn smartphones mit vergleichbarer Leistung ankommen werden. "Nie" ist das auf jeden Fall nicht und 2005 waren small form factor GPUs gerade noch am Anfang mit PowerVR MBX hauptsaechlich, ergo war damals die Geschichte noch verdammt bescheiden.

Da GFLOPs nichts helfen versuchen wir es mal mit Texel-Fuellraten:

2005 = MBX@50MHz = 50 MTexels/s
2013 = GC6400 = 5336 GTexels/s

Allein in Fuellrate ist es ein Steigerungsfaktor ueber 100x Mal, bei anderen Faktoren wird es noch um zich Male brutaler wie z.B. Dreiecksraten bei 700x Mal so viel. Der absolute Durschnitt ist zwar nie so gross, jedoch bleibt die Skalierungsrate extrem hoch.

Bei welchem Faktor genau sollen die naechster Generation Konsolen im Vergleich zu PS3/Xbox360 genau skalieren im eigentlichen Durchschnitt? Erstens ist der Schritt von standalone Einheiten auf SoCs nicht kostenlos und zweitens kommt es bei den kommenden Konsolen was die hw-Faehigkeiten betrifft fuer die naechsten 7-8 Jahren nach ihrer Veroeffentlichung zum Stillstand. Erzaehl mir jetzt bloss nicht dass 14nm in ~5 Jahren von heute nicht moeglich sein wird, was um zich mehr Einheiten und etwas hoehere Frequenzen erlauben wird ohne den Stromverbrauch besonders zu beinflussen; wenn Du denkst dass fuer den Zeitpunkt eine Fuellrate von >30 GTexels zu viel sein wird, denk nochmal darueber nach. Groesster Kopfschmerz wird mehr als alles andere die SoC Bandbreite sein fuer small form factor, aber wir werden wohl ab 2013 dann schon genauer sehen wohin der Trend genau gehen wird.

AnarchX
2012-10-21, 19:36:12
Da GFLOPs nichts helfen versuchen wir es mal mit Texel-Fuellraten:

2005 = MBX@50MHz = 50 MTexels/s
2013 = GC6400 = 5336 GTexels/s

Hier hat sich aber wohl auch der Stromverbrauch vervielfacht?

Bis Tablets eine Next-Gen-Konsole mit ~2TFLOPs@Low-Level-API einholen, vergeht sicherlich noch einige Zeit, gerade wenn die Sache mit der Fertigung immer kritischer wird.

Aber vom Gameplay-Erlebnis sollten potente Mobilplattformen den Konsolen wohl nicht so weit hinterherlaufen, da objektiv deutliche Grafikverbesserungen ja relativ teuer sind.

AffenJack
2012-10-21, 20:51:52
Ab 2013 sind tablets/smartphones +/- auf XBox360 (von der GPU Seite her) Leistungsniveau und es wird eben nicht ein Jahrzehnt dauern bis diese schneller als die naechste Generation von Konsolen werden.

Viel kürzer wirds auch nicht dauern. Rechnen wir ganz grob mit 100W Verbrauch der Grafikeinheit in den nächsten Konsolen bei 28nm und das man die Leistung je Shrink mit 50% weniger Verbrauch schafft, dann sindwa bei 10 nm bei 12,5W. Mit extrem effizienten Designs könnte das unter Umständen klappen den Stromverbrauch bei der Leistung auf Tabletniveau zu reduzieren, realistischer aber erst beim Sprung auf 7nm. Und in welcher Zeitspanne sindwa da? Bei 10 nm sindwa bei mehr als 7Jahren, bei 7nm eher bei nem Jahrzent.

Du unterschätzt wie AnarchX schon schreibt den Stromverbrauch der Grafikeinheit. Der ist von praktisch nicht vorhanden zu recht grenzwertig in Geräten wie dem Ipad3 gestiegen.

Felixxz2
2012-10-21, 21:57:44
Wenn 2 Jahre verdammt optimistisch sind, dann ist NIE ebenso verdammt pessimistisch. Die XBox360 wird in etwa 8 Jahre alt sein wenn smartphones mit vergleichbarer Leistung ankommen werden. "Nie" ist das auf jeden Fall nicht und 2005 waren small form factor GPUs gerade noch am Anfang mit PowerVR MBX hauptsaechlich, ergo war damals die Geschichte noch verdammt bescheiden.

Da GFLOPs nichts helfen versuchen wir es mal mit Texel-Fuellraten:

2005 = MBX@50MHz = 50 MTexels/s
2013 = GC6400 = 5336 GTexels/s

Allein in Fuellrate ist es ein Steigerungsfaktor ueber 100x Mal, bei anderen Faktoren wird es noch um zich Male brutaler wie z.B. Dreiecksraten bei 700x Mal so viel. Der absolute Durschnitt ist zwar nie so gross, jedoch bleibt die Skalierungsrate extrem hoch.

Bei welchem Faktor genau sollen die naechster Generation Konsolen im Vergleich zu PS3/Xbox360 genau skalieren im eigentlichen Durchschnitt? Erstens ist der Schritt von standalone Einheiten auf SoCs nicht kostenlos und zweitens kommt es bei den kommenden Konsolen was die hw-Faehigkeiten betrifft fuer die naechsten 7-8 Jahren nach ihrer Veroeffentlichung zum Stillstand. Erzaehl mir jetzt bloss nicht dass 14nm in ~5 Jahren von heute nicht moeglich sein wird, was um zich mehr Einheiten und etwas hoehere Frequenzen erlauben wird ohne den Stromverbrauch besonders zu beinflussen; wenn Du denkst dass fuer den Zeitpunkt eine Fuellrate von >30 GTexels zu viel sein wird, denk nochmal darueber nach. Groesster Kopfschmerz wird mehr als alles andere die SoC Bandbreite sein fuer small form factor, aber wir werden wohl ab 2013 dann schon genauer sehen wohin der Trend genau gehen wird.

Ich bezof mich ganz konkret immer auf aktuelle Tablets/Smartphones vs. aktuelle Konsolen. Und da gilt mein nie. Denn das thermische Budget ist extrem begrenzt und wie Affenjack schon vorgerechnet hat kannst du das nicht durch Shrinks ausgleichen. Die neuen Konsolen werden zu 99% mit über 1 TFLOP/s kommen. Ein iPad ist bei 45nm grad bei 50 GFLOP/s. Wenn du jetzt das hochrechnest auf sagen wir mal 10nm (also in vielen Jahren erst) kommst du bei gleichem thermischen Budget auf 800 GFLOP/s (bei optimistisch angenommener Verdopplung der Rechenleistung/Shrink). Somit werden Tablets vielleicht bei 10nm die TFLOP/s Grenze überschreiten (bisl TDP Spielraum hat man denke ich noch).
Wann ist das? Bei Intel 2016, bei den anderen evtl noch bisl später.
Und was ist wenn die nächste Xbox mit 2 TFLOP/s kommt (absolut möglich)?
Und wir reden hier von Tablets, bei Smartphones werden die 1 TFLOP/s evtl. auch erst später geknackt.

Ich möchte keineswegs bestreiten, dass Mobilgeräte eine große (auch technische) Konkurrenz für Konsolen sind und sich zu einem Niveau hin entwickeln werden, wo die Grafik vielen Ansprüchen genügen wird. Dass aber eine Plattform die maximal kleine einstellige Wattzahlen verbrauchen kann nur über Moores Law und den Stillstand bei >100 Watt Konsolen an jene herankommen kann, halte ich für unrealistisch.

Aber wie gesagt, gameplaytechnisch und grafisch werden sich Mobilgeräte auf einem Niveau bewegen, dass vielen (Gelegenheits-) Spielern genügt.

Ailuros
2012-10-22, 07:46:45
Hier hat sich aber wohl auch der Stromverbrauch vervielfacht?

Nicht so brutal wie es sich jeder vorstellen wuerde. MBX war zu seiner Zeit nicht low end sondern eher MBX Lite (sonst haette ich einen kleineren GC zur Hand genommen) und der Unterschied von 130 zu 28nm ist schon gewaltig gross, ebenso wie die Frequenz von 50 auf 667MHz von der Anzahl der Einheiten mal ganz zu schweigen.

Einfacher: das Dell Axim X5x in 2005 war wohl KEIN smartphone; haette ich ein MBX Lite@50MHz zur Hand genommen waeren es 25 MTexels/s gewesen da 1 pixel/2 Takte fuer MBXLite gegen 1 pixel/Takt auf MBX.


Schlechtes Gedaechtnis der Intel 2700G im Dell Axim ist dummerweise ein MBX Lite@75MHz, ergo eigentlich 37.5 MTexels/s.

Bis Tablets eine Next-Gen-Konsole mit ~2TFLOPs@Low-Level-API einholen, vergeht sicherlich noch einige Zeit, gerade wenn die Sache mit der Fertigung immer kritischer wird.

TFLOPs sind verdammt relativ zum unterliegendem Design. Ein 20 cluster Rogue haette die Leistung die Sony haben wollte durchaus sogar ziemlich leicht geschafft und es sind eben keine 2 TFLOPs. Es gibt mehr Faktoren fuer eine Konsolen GPU als FLOPs und diese sind eben keine sterile HPC number-crunchers.

Aber vom Gameplay-Erlebnis sollten potente Mobilplattformen den Konsolen wohl nicht so weit hinterherlaufen, da objektiv deutliche Grafikverbesserungen ja relativ teuer sind.

Es sind auch fundamental verschiedene Welten. Auf einer mobilen Platform wird es wohl schwer >$9 Gelegenheitspielchen in vorhersehbarer Zeit geben eben weil download bandwidth bzw. storage nicht unendlich gross sei kann. Gute Nacht wenn man einem smartphone etliche GB an downloads pro Spiel zutrauen wuerde.

Viel kürzer wirds auch nicht dauern. Rechnen wir ganz grob mit 100W Verbrauch der Grafikeinheit in den nächsten Konsolen bei 28nm und das man die Leistung je Shrink mit 50% weniger Verbrauch schafft, dann sindwa bei 10 nm bei 12,5W. Mit extrem effizienten Designs könnte das unter Umständen klappen den Stromverbrauch bei der Leistung auf Tabletniveau zu reduzieren, realistischer aber erst beim Sprung auf 7nm. Und in welcher Zeitspanne sindwa da? Bei 10 nm sindwa bei mehr als 7Jahren, bei 7nm eher bei nem Jahrzent.

Wenn es ueberhaupt erstmal 28nm wird fuer die Konsolen; denn bei den yields bzw. Kapazitaeten sieht es dafuer eher nach einer Schnappsidee aus, ausser die Dinger kommen zumindest 1 Jahr spaeter auf Regale als original projeziert.

Du unterschätzt wie AnarchX schon schreibt den Stromverbrauch der Grafikeinheit. Der ist von praktisch nicht vorhanden zu recht grenzwertig in Geräten wie dem Ipad3 gestiegen.

Ich hab nirgends tablet Niveau erwaehnt oder mitberechnet. Ein heutiges smartphone mit einem Adreno320 liegt schon heute ca. auf 1/4 der Xenos/C1 GPU Leistung und es ist eben nicht so dass Adreno gar keine Verwandschaft mit Xenos hat eher das grobe Gegenteil.

Das iPad3 ist ein tablet und dazu mit einer mostroes grossen Batterie. Aber wenn es schon sein muss A5X wird unter 45nm Samsung ebenso wie der PS Vita SoC hergestellt (auch Samsung 45nm), die Leistung ist mehr oder weniger vergleichbar und das iPad3 hat dank seiner uebermaessig grossen Batterie sogar fast 2x Mal so hohe Laufzeit als das Vita. Der A5X ist 166mm2 gross und der A6 im iPhone5 96mm2@32nm wobei die CPU um ca. 1.8x schneller ist als im ersten und die GPU um ca. 10% schneller bei um einiges geringerem Stromverbrauch da ein smartphone design.

Ich rede die ganze Zeit von einer komplett neuen Generation (Rogue ab 28nm) wobei diesmal die gesamte Architektur um einiges effizienter gestaltet wurde, um zich Mal hoehere Frequenzen erlaubt, zich Mal hoehere design Latenzen fuer Einheiten-Skalierung und SoC design spezifische Anpassungen die hoehere Bandbreiten u.a. erlauben. Es dauert ca. 4-5 Jahre bis GPU mobile IHVs ihre Architekturen aendern und wir sind gerade bei dem Wendepunkt. Der Gedanke dass etliche dutzend GFLOPs NICHT in ein smartphone passen sollen ist absoluter Bloedsinn; Qualcomm S4 ist dabei in Geraeten zu erscheinen und wer rechnen kann kann mir gerne erklaeren was man von 64SIMDs@=/>400MHz genau an GFLOPs bekommt.

Ich bezof mich ganz konkret immer auf aktuelle Tablets/Smartphones vs. aktuelle Konsolen. Und da gilt mein nie. Denn das thermische Budget ist extrem begrenzt und wie Affenjack schon vorgerechnet hat kannst du das nicht durch Shrinks ausgleichen. Die neuen Konsolen werden zu 99% mit über 1 TFLOP/s kommen. Ein iPad ist bei 45nm grad bei 50 GFLOP/s.

Seit wann hat das iPad3 ploetzlich 50 GFLOPs?

Rechenuebung:

16 ALUs * 8 FLOPs * 0.25GHz = 32 GFLOPs

Wenn Du jetzt die SFUs noch mitrechnen willst die man in seltenen Faellen noch dazu treiben koennte einen zusaetzlichen 9en FLOP zu benutzen bist Du gerade noch bei 36 GFLOPs. Ein tablet design dass schon ueber 6 Monaten verkauft wird sagt mir gar nichts.

Adreno320 wird momentan in smart-phone designs benutzt und hier sind es zumindest 50GFLOPs bei smart-phone power envelopes. Die Mehrzahl der smartphones davon werden mit 2200-3000+mAh Batterien ankommen was wohl unter heavy 3D nicht mehr als 1.5-2 Stunden Spielzeit garantieren werden, aber zu viel sollte man auch von solchen Dingern auch nicht erwarten. Nichtdestominder liegt das Ding theoretisch bei 1/4 der Xenos GPU Leistung und wenn es schon sein muss die Skalierung von Adreno2xx class GPUs hat mit 1 Vec4 ALU/1TMU@200MHz angefangen und ist heute bei 225 mit 8 Vec4 ALUs/2TMUs@420MHz.

Uebrigens werden in ein paar Wochen auch Samsung's 32nm Exynos 5250 smartphones angekuendigt. Wenn Samsung die Ziel-frequenz fuer T604 erreicht hat sind es 72 GFLOPs peak auf smartphone power envelope: http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro25&D=Samsung+GT-B9150&testgroup=gl

Wenn du jetzt das hochrechnest auf sagen wir mal 10nm (also in vielen Jahren erst) kommst du bei gleichem thermischen Budget auf 800 GFLOP/s (bei optimistisch angenommener Verdopplung der Rechenleistung/Shrink). Somit werden Tablets vielleicht bei 10nm die TFLOP/s Grenze überschreiten (bisl TDP Spielraum hat man denke ich noch).
Wann ist das? Bei Intel 2016, bei den anderen evtl noch bisl später.
Und was ist wenn die nächste Xbox mit 2 TFLOP/s kommt (absolut möglich)?
Und wir reden hier von Tablets, bei Smartphones werden die 1 TFLOP/s evtl. auch erst später geknackt.

Ich wiederhole nicht den gleichen Quark etliche Male. Es steht weiter oben schon da warum mit der Wandlung zu neuen SFF GPU Architekturen die Leistung/Effizienz bzw. GFLOP Anzahl in diesen regelrecht explodiert. Wie oben schon erwaehnt SFF GPUs Generation reichen meistens ueber 4-5 Jahre aus (mid life kickers mitberechnet). Jeglicher Sprung pro Generation ist jedesmal bis jetzt uebermaessig gross und es wird dann auch in der Zwischenzeit innerhalb jeglicher Architektur um einiges skaliert.

Ich möchte keineswegs bestreiten, dass Mobilgeräte eine große (auch technische) Konkurrenz für Konsolen sind und sich zu einem Niveau hin entwickeln werden, wo die Grafik vielen Ansprüchen genügen wird. Dass aber eine Plattform die maximal kleine einstellige Wattzahlen verbrauchen kann nur über Moores Law und den Stillstand bei >100 Watt Konsolen an jene herankommen kann, halte ich für unrealistisch.

Aber wie gesagt, gameplaytechnisch und grafisch werden sich Mobilgeräte auf einem Niveau bewegen, dass vielen (Gelegenheits-) Spielern genügt.

Das mit den Gelegenheits-Spielen ist eine zweifellose Tatsache. Aber Du solltest vielleicht doch mal ueberdenken dass FLOPs einfach nur sterile Anzahlen sind die eben nicht die generelle Effizienz einer jeglichen Architektur von sich aus demonstrieren. Aber wenn's schon sein muss und da ich mich offensichtlich hauptsaechlich auf die meistverkaufte Architektur momentan konzentriere, wuerdest Du sagen dass die Antiquitaet an Dreamcast GPU zu hohe Spezifikationen auf Papier hatte fuer ihre Zeit oher eher fundamental zu niedrig im Vergleich zu anderen der Zeit?

Uebrigens nebenbei da API Komplianz auch noch etwas dazufrisst, schwanken die naechster Generation mobilen GPUs zwischen DX10.1 und DX11.1, waehrend die PS3/XBox360 GPUs gerade noch auf DX9.0/SM3.0 Nivaeu sind.

Ailuros
2012-10-22, 07:55:58
Getrennter Post damit es nicht zu verwirrend wird:

Kann durchaus sein dass ich mit dem PowerN core Zeug fuer XBoxNext auf einem ziemlich altem Bein stehe. Ich hatte wohl SAs writeup ueber die Verzoegerung dieser verpasst; bleibt die Frage wenn es sich auch in dieser um einem semi custom AMD SoC handelt, ob man wirklich erwarten sollte dass Microsoft's Loesung fundamental effizienter sein wird als die von Sony.

Gipsel
2012-10-22, 19:24:27
Wo Du gerade SemiAccurate erwähnst, das steht in deren letzten Story (http://semiaccurate.com/2012/10/22/amd-opens-up-a-little-during-the-q3-analyst-call/):
As SemiAccurate has been saying for months now, the next generation XBox is due in the fall of 2013 (http://semiaccurate.com/2012/09/04/microsoft-xbox-next-delay-rumors-abound) should all go well with the foundries. That part is very likely what AMD is referencing when talking about embedded revenue coming in during that time frame. The XBox Next is AMD CPU cores, AMD GPU cores, and mostly AMD everything else. The follow on to the PS3, lets call it the PS4, is also AMD CPU, GPU, and somewhat AMD other. That will be a 2014 product.

Also es stellen sich nur noch die Fragen: Wer benutzt welche Cores (Jaguar- oder Piledriver/Steamroller-Derivat) und wie viele, wird es ein SoC/eine APU, wie groß wird die GPU/der GPU-Teil, wird eDRAM verbaut (wieviel?) oder kommt Irgendwas mit Interposer/stacked DRAM?

][immy
2012-10-22, 19:47:51
mhh.. würde man es denn bei nächsten xbox mit AMD-CPU denn schaffen, das das ding auch abwärtskompatibel bleibt?
die xbox 360 ist ja nicht so extrem low-level api lastig wie die ps3. wäre das für MS machbar wenn sie die CPU architektur so extrem wechseln?

Deinorius
2012-10-22, 20:21:41
Ich würde jetzt mal sagen, selbst wenn es möglich wäre, würde das keine unkritischen Kosten verursachen. Ergo siehe PS2-Kompatibilität auf der PS3.

Gipsel
2012-10-22, 20:22:48
[immy;9513040']mhh.. würde man es denn bei nächsten xbox mit AMD-CPU denn schaffen, das das ding auch abwärtskompatibel bleibt?
die xbox 360 ist ja nicht so extrem low-level api lastig wie die ps3. wäre das für MS machbar wenn sie die CPU architektur so extrem wechseln?
War die XBox360 eigentlich kompatibel mit XBox-Spielen? Und wenn ja, wie? ;)

Edit:
Also für die Neulinge unter uns, die originale XBox hatte eine x86-CPU (Intel Coppermine-Derivat mit 733 MHz, konnte natürlich OoOE). Das ging mit Emulator auch meist irgendwie auf der Triple-Core in-order Power-CPU von IBM. Der Weg zurück zu OoO x86-Kernen sollte für die Emulation von relativ einfachen in-order Kernen nicht übermäßig abträglich sein. Aber vermutlich ist das auch keine Emulation im klassischen Sinne sondern läuft eher über eine Art binary translation/code morphing. Damit sollte es eigentlich kaum Performance-Probleme geben, nur welche mit der Kompatibilität.

Edit2:
Und ähnlich wie 00-Schneider es unten betrachtet, wollte ich mit der Frage durch Verweis auf die Lösung in der Vergangenheit auch andeuten, wie wichtig MS die Kompatibilität nimmt.

00-Schneider
2012-10-22, 20:26:43
War die XBox360 eigentlich kompatibel mit XBox-Spielen? Und wenn ja wie? ;)


Naja, alle Spiele laufen dort nicht drauf, bzw. laufen beschissen.

Außerdem finde ich Abwärtskompatibilität überhaupt nicht wichtig. Was wir davon haben, sehen wir bei der Wii-U und ihrer bescheidenen CPU, da man ja unbedingt eine Broadway-nahe CPU verbauen muss.

Nightspider
2012-10-22, 21:31:03
Was glaubt ihr wann die Nachfolger zum Nintendo 3DS und zu PS Vita erscheinen?

Ob die dort den Zyklus auch auf 6-8 Jahre hochtreiben? :(

Beim 3DS hat Nintendo ja mit das langsamte Verbaut was ging.

Ich hoffe der Nachfolger hat wenigstens die 4 fache Auflösung. (Dann ließen sich auch die alten Spiele gut hochskalieren wegen Kompatibilität)

Auf 5" gibt es ja mittlerweile Full HD Auflösung und der 3DS hat effektiv nur 400*240. :ugly: Selbst mit 3D dürfte wenigstens 720p in 1-2 Jahren kein Problem mehr sein. Das würde ca. der 10 fachen Pixelmenge entsprechen.

Am meisten kotzt mich mit Abstand die Auflösung beim 3DS an. Das Bild sieht einfach scheiße aus.

Edit:

Mir fällt gerade auf, das der 3DS ja erst seit 1,5 Jahren auf dem Markt ist. :ugly: Also wird der wohl noch mind. 3 Jahre aktuell bleiben. Oh gott...und dabei kommt er mir jetzt schon total veraltet vor. xD
Die Verkaufszahlen scheinen zumindest sehr gut zu sein.

Eine 3DS Lite Version wird ja scheinbar nicht erscheinen. Siehe: http://www.hartware.net/news_55108.html

][immy
2012-10-22, 21:36:52
War die XBox360 eigentlich kompatibel mit XBox-Spielen? Und wenn ja, wie? ;)

Edit:
Also für die Neulinge unter uns, die originale XBox hatte eine x86-CPU (Intel Coppermine-Derivat mit 733 MHz, konnte natürlich OoOE). Das ging mit Emulator auch meist irgendwie auf der Triple-Core in-order Power-CPU von IBM. Der Weg zurück zu OoO x86-Kernen sollte für die Emulation von relativ einfachen in-order Kernen nicht übermäßig abträglich sein. Aber vermutlich ist das auch keine Emulation im klassischen Sinne sondern läuft eher über eine Art binary translation/code morphing. Damit sollte es eigentlich kaum Performance-Probleme geben, nur welche mit der Kompatibilität.

Edit2:
Und ähnlich wie 00-Schneider es unten betrachtet, wollte ich mit der Frage durch Verweis auf die Lösung in der Vergangenheit auch andeuten, wie wichtig MS die Kompatibilität nimmt.

naja, die kompatibilität wollte microsoft wenn ich mich recht erinnere zumindest bei den kinect-spielen aufrecht erhalten.
aber ich meinte eher ob das überhaupt möglich wäre. der unterschied zwischen xbox 1 und 360 war gigantisch, bei der jetzigen generation sieht es ja nicht nach einem so giganten schritt aus. hat die aktuelle cpu architektur irgendwelche besonderheiten die ein x86er nicht so schnell erledigen kann? Bei nur 2 GHz wäre ja auch ein ziemlicher taktunterschied dabei.

Ailuros
2012-10-22, 23:56:18
Wo Du gerade SemiAccurate erwähnst, das steht in deren letzten Story (http://semiaccurate.com/2012/10/22/amd-opens-up-a-little-during-the-q3-analyst-call/):


Also es stellen sich nur noch die Fragen: Wer benutzt welche Cores (Jaguar- oder Piledriver/Steamroller-Derivat) und wie viele, wird es ein SoC/eine APU, wie groß wird die GPU/der GPU-Teil, wird eDRAM verbaut (wieviel?) oder kommt Irgendwas mit Interposer/stacked DRAM?

Interposer waere Power7+ gewesen; such mal SA ab und es wird leicht zu sehen sein warum nichts daraus wurde.

Was glaubt ihr wann die Nachfolger zum Nintendo 3DS und zu PS Vita erscheinen?

Ob die dort den Zyklus auch auf 6-8 Jahre hochtreiben? :(

PS Vita keine Ahnung, aber der 3DS Nachfolger kommt vielleicht um einiges frueher als Du erwartest. Sony hat durch ihre zich Abteilungen schon den Luxus relativ kurzfristig zu Alternativen zu greifen sobald es mit handheld Konsolen noch mehr bergab geht. Keine Ahnung was Nintendo wirklich im Hinterkopf hat.

Beim 3DS hat Nintendo ja mit das langsamte Verbaut was ging.

Und PS Vita das genaue Gegenteil; rettet oder sinkt die eine oder andere Loesung die Verkaufszahlen?

Ich hoffe der Nachfolger hat wenigstens die 4 fache Auflösung. (Dann ließen sich auch die alten Spiele gut hochskalieren wegen Kompatibilität)

Auf 5" gibt es ja mittlerweile Full HD Auflösung und der 3DS hat effektiv nur 400*240. :ugly: Selbst mit 3D dürfte wenigstens 720p in 1-2 Jahren kein Problem mehr sein. Das würde ca. der 10 fachen Pixelmenge entsprechen.

Am meisten kotzt mich mit Abstand die Auflösung beim 3DS an. Das Bild sieht einfach scheiße aus.

Kommt drauf an was fuer einen Mist an IP Nintendo sich wieder einfallen laesst.

Edit:

Mir fällt gerade auf, das der 3DS ja erst seit 1,5 Jahren auf dem Markt ist. :ugly: Also wird der wohl noch mind. 3 Jahre aktuell bleiben. Oh gott...und dabei kommt er mir jetzt schon total veraltet vor. xD
Die Verkaufszahlen scheinen zumindest sehr gut zu sein.

Eine 3DS Lite Version wird ja scheinbar nicht erscheinen. Siehe: http://www.hartware.net/news_55108.html

Wenn sie gerade erst IP evaluieren wird es schon um die 2-3 Jahre noch dauern. Wo sollen denn die Verkaufszahlen liegen bis jetzt?

Gipsel
2012-10-23, 00:05:29
[immy;9513203']der unterschied zwischen xbox 1 und 360 war gigantisch, bei der jetzigen generation sieht es ja nicht nach einem so giganten schritt aus. hat die aktuelle cpu architektur irgendwelche besonderheiten die ein x86er nicht so schnell erledigen kann? Bei nur 2 GHz wäre ja auch ein ziemlicher taktunterschied dabei.Das Einzige, was mir einfällt, wäre die optimale Ausnutzung der SIMD-Einheit. Die ist bei Xenon ja gar nicht so langsam, man muß nur guten Code dafür schreiben (bzw. der Compiler guten ausspucken), was wegen der in-order-Architektur etwas härter als bei OoO-CPUs ist (bei einigen Szenarien geht das jedoch schon halbwegs gut). Aber da die XBox720 doch vermutlich für jeden Thread des Xenons (die drei Kerne waren ja jeweils dual threaded) mindestens einen richtigen Kern aufbieten kann, sollte auch dort der theoretische Durchsatz pro Thread höher liegen (und der praktische dann in allen Lebenslagen erst recht). Und bei normalem Integer-Code dürfte jeder halbwegs neuere OoO-Kern (auch ein Jaguar oder sogar schon ein Bobcat, was das angeht) die Xenons um Längen abhängen, das ist also überhaupt kein Problem.

Aber vermutlich kann das jemand, der schon mit der XBox360 gearbeitet hat, besser einschätzen als ich.

Nightspider
2012-10-23, 00:25:16
Wo sollen denn die Verkaufszahlen liegen bis jetzt?

Die aktuellen Zahlen sehen so aus:
http://www.abload.de/img/vgcharts2xazpc.png

Die totalen Zahlen habe ich nicht. Allerdings soll vor allem in der letzten Zeit die Anzahl der verkauften Einheiten gut gestiegen sein. Auch durch die neuen Games und da noch einige gute Titel kommen wird es wohl so gut weiter gehen.

Nintendo will ja den Gewinn maximieren. Ich glaube nicht das man so bald einen 3DS Nachfolgerbringen wird. Leider.

RLZ
2012-10-23, 00:25:25
such mal SA ab und es wird leicht zu sehen sein warum nichts daraus wurde.
Dafür braucht man kein SA.
Eine Amkor Roadmap langt.
http://www.abload.de/img/interposeru0xcr.png

Geplant war irgendwann mal 2013. Das hat sich halt soweit verschoben, dass es uninteressant für die neuen Konsolen ist.

Ailuros
2012-10-23, 01:04:05
Dafür braucht man kein SA.
Eine Amkor Roadmap langt.

Geplant war irgendwann mal 2013. Das hat sich halt soweit verschoben, dass es uninteressant für die neuen Konsolen ist.

Es steht eben im SA writeup drin dass die Abwaerme monstroes auf den Dingern ist, welches wohl auch der eigentliche Grund der Verschiebung ist fuer die spezifischen cores.

Skysnake
2012-10-23, 10:58:48
Von AMD habe ich kürzlich erst ne Folie gesehen, wo man wohl ne APU+DRAM auf einem package hatte. Das könnte ja durchaus die PS4/WiiU/XBox720 sein.

Da hatten Sie sich auch bzgl Interposer usw geäußert. MCM ist halt der Zwischenschritt zu Interposer, und genau so was denke ich werden wir auch bei allen NextGen Konsolen sehen.

RLZ
2012-10-23, 13:42:04
Von AMD habe ich kürzlich erst ne Folie gesehen, wo man wohl ne APU+DRAM auf einem package hatte. Das könnte ja durchaus die PS4/WiiU/XBox720 sein.
Meinst du das hier (http://www.computerbase.de/news/2011-10/amd-gpu-mit-stacked-memory-gesichtet/)?
Das war auch ne Präsentation von Amkor und da geht genau um Logik(APU) + Interposer + Speicher. Sogar das Bild in der Roadmap ist direkt von dem AMD Prototyp.

Skysnake
2012-10-23, 13:56:16
Ne, die meinte ich nicht.

Locuza
2012-10-23, 15:35:28
http://livedoor.blogimg.jp/sag_alt/imgs/9/5/95dd2b6d.jpg
;)

Skysnake
2012-10-23, 17:05:11
YES, genau das meine ich :biggrin:

Sie sehen das ja scheinbar als Vorteil mit dem vertikal STacking, da man sich eben den Interposer spart.

Kann ich mir für die Konsolen von Sony und MS gut vorstellen.

Nightspider
2012-10-24, 18:03:49
Hier nochmal ein paar Verkaufszahlen zu Nintendos 3DS':

http://www.hardwareluxx.de/index.php/news/allgemein/wirtschaft/24186-nintendo-weiterhin-mit-verlusten-hofft-auf-die-wii-u.html

Ailuros
2012-10-24, 18:46:52
Hier nochmal ein paar Verkaufszahlen zu Nintendos 3DS':

http://www.hardwareluxx.de/index.php/news/allgemein/wirtschaft/24186-nintendo-weiterhin-mit-verlusten-hofft-auf-die-wii-u.html

Dass die 3DS Verkaufszahlen beindruckend sind kein Zweifel; aber die generelle Meldung geht ja in eine ganz andere Richtung. Der Verlust hat sich zwar halbiert, ist aber immer noch relativ gross. Sie muessen es wohl bis zum Wii U launch ausbaden.

Deinorius
2012-10-25, 20:32:30
http://www.pcgameshardware.de/Xbox-720-Hardware-232351/News/Xbox-720-Next-Infos-Preis-Release-1031983/

Der Name ist relativ wurscht, aber dass die ersten DevKits mit SandyBridge/GTX570 und dann mit AMD FX/RadeonHD7000 ausgestattet wurden/werden... Müsste die Leistung selbst der ersten DevKits nicht zumindest näher an der Endleistung liegen?

Und dann bezeichnet PCGH SandyBridge als 8 Kern CPU? :ugly:

Coda
2012-10-25, 20:42:28
http://www.legitreviews.com/images/reviews/1871/sandy-bridge-ep-die-shot.jpg

G 80
2012-10-25, 20:53:38
Das ist aber ein Shot von nem EP?

Sicher ganz was günstiges von Intel. ^^


€: ja ganz sicher Sandiger EP (http://pics.computerbase.de/3/9/9/8/7/6.jpg)

Knuddelbearli
2012-10-25, 20:55:22
hmmm gibt es dann ne amd abfrage die im desktop fma und co nur aktiviert wenn ein AMD Prozessor werkelt ? immerhin hat ja amd ne menge investiert um in die konsolen zu kommen^^

=Floi=
2012-10-25, 21:03:32
könnte auch ein dual-sockel-system sein.

was ist denn die always-on funktion?

=Floi=
2012-10-25, 21:06:05
http://www.legitreviews.com/images/reviews/1871/sandy-bridge-ep-die-shot.jpg
kann man nen xeon mit 8 cores auf nem normalem 2011er board betreiben?

edit
die xeons kann man ja nicht bezahlen...

Ailuros
2012-10-25, 21:30:10
http://www.pcgameshardware.de/Xbox-720-Hardware-232351/News/Xbox-720-Next-Infos-Preis-Release-1031983/

Der Name ist relativ wurscht, aber dass die ersten DevKits mit SandyBridge/GTX570 und dann mit AMD FX/RadeonHD7000 ausgestattet wurden/werden... Müsste die Leistung selbst der ersten DevKits nicht zumindest näher an der Endleistung liegen?

Und dann bezeichnet PCGH SandyBridge als 8 Kern CPU? :ugly:

http://www.legitreviews.com/article/1871/1/

The Intel Xeon E5-2600 series CPU contains up to 8 cores plus HyperThreading for a total of 16 threads per processor.

Locuza
2012-10-25, 21:52:44
What we know is that Durango development platform is finally running on AMD hardware, as the company taped out GPU which will be in use for the Xbox Next console. The initial Durango XDK (Xbox Development Kit) featured an 8-core Sandy Bridge processor (SNB-E, LGA2011 on a custom motherboard with embedded memory), 8GB of DDR3 memory and Nvidia Fermi-class graphics (GTX 570). The new kit allegedly comes with 8-core FX processor, and Southern Islands graphics, with the final console allegedly featuring Sea Islands, AMD's second generation 28nm GPU hardware.
Ist noch jemand hier, der das Gefühl hat Scheiße zu lesen oder schwer glaubwürdigem Zeug?
Einige Menschen haben ja scheinbar bestätigt das das Devkit keine Fake-Show ist, jedenfalls das da Intel und Nvidia enthalten ist.
Wollte man das Personal auf 8 Threads schulen? Wollte man mit der Nvidia 570 GTX GCN "emulieren" da man als Progger nicht den Code in clauses schreiben muss, sondern einfacher für 1D-Shader? GCN und Bulldozer waren vielleicht für die ersten Konzepte noch nicht spruchreif. So alt sind die Kits glaube ich dann aber auch nicht.
Was ist dann mit dem 8-Core FX? Machen 4 Module in einer Konsole Sinn? Ich bin vom Jaguar-Gerücht da schon mehr angetan, aus Verbrauchsgründen und Platzgründen .
Ebenfalls soll Sea Islands noch verbaut werden, wenn ich mir anschaue was für Zeug bei der Wiiu reinkommt und welches bei den alten Konsolen, so ist es diesmal schwer zu glauben, dass da Top aktuelle GPU-Technik verbaut wird.
Will jemand vielleicht noch embedded memory beim Mainboard erklären?

Ailuros
2012-10-25, 22:10:48
Nimm doch den Krampf ueber jegliche angebliche GPU nicht ernst. Man kann sicher sein dass es eine GCN GPU sein wird, sonst aber generell auf eine Konsolen Umgebung angepasst. In diesem Fall ist es alles andere als merkwuerdig dass die Konsolen Variante der GPU noch ein paar wenige Aspekte von zukuenftigen refresh GPUs hat wenn nicht gleich ein kleines Schnaeppchen von der wahren naechsten Generation. Nach aussen sieht es stets fuer den einfachen Beobachter nach einem einfach 7xxx Ableger aus; die Realitaet ist eben ein klein bisschen komplizierter.

Knuddelbearli
2012-10-25, 22:24:40
4 niedrig getaktete Vishera module dürften effizienter sein als 8 hochgetaktete jaguare und bringt amd auch im desktop segment weiter

Locuza
2012-10-25, 22:26:14
Ich nehme es nicht ernst, aber ich finde es schlimm wie der IT-Journalismus seit Jahrzehnten alles unreflektiert weiter trägt und pauschal alles abschreibt was möglich ist. Noch wundersamer finde ich es, dass einige Leaks und "Insider-Infos" scheinbar von Leuten kommen, die mal überhaupt keine Ahnung von der Materie haben.

( Jaja ich weiß, you must be new here :tongue: )

Ailuros
2012-10-25, 22:53:10
Ich nehme es nicht ernst, aber ich finde es schlimm wie der IT-Journalismus seit Jahrzehnten alles unreflektiert weiter trägt und pauschal alles abschreibt was möglich ist. Noch wundersamer finde ich es, dass einige Leaks und "Insider-Infos" scheinbar von Leuten kommen, die mal überhaupt keine Ahnung von der Materie haben.

( Jaja ich weiß, you must be new here :tongue: )

Es sind auch meistens keine direkte leaks sondern eher indirekte. Mit Verlaub nichts von dem Quark hat etwas mit ernsthaftem Journalismus zu tun.

Diejenigen die es schafften wirklich gute Artikel im Lauf der Jahre zu schreiben wurden sowieso frueher oder spaeter von IHVs selber aufgenommen. Der angebliche Journalismus Sport ist auch ziemlich miserabel bezahlt, ausser man ist selber der Inhaber einer erfolgreichen Webseite.

PCGH zeigt als Quelle fuer das obrige VR-zone an und der Author ist der liebe alte Theo; muss ich jetzt dieses weiter erlaeutern? :P

Skysnake
2012-10-26, 00:00:36
Das ist aber ein Shot von nem EP?

Sicher ganz was günstiges von Intel. ^^
€: ja ganz sicher Sandiger EP (http://pics.computerbase.de/3/9/9/8/7/6.jpg)
Ja, das ist definitiv ein SB-E DIE-Shot. Das sieht man sofort. Caches in der Mitte, außen die Kerne, alles mit dem Ringbus verbunden, und auf EINER! Seite eben noch das DDR-Interface.
(Ok, eventuell könnte es noch nen IB-E sein, in nem 8 Core DIE, aber der soll ja eher 10 (12?) Cores bekommen, da zeigt man eher kein 8 Core DIE.)

Allein schon die 8 Cores sind SEHR auffällig. Wenn man auf aktuell vorhandenes schaut, dann kommt da nur noch Westmere-EX in Frage, und der sieht halt doch komplett anders aus...

-> Speicherinterface auf ZWEI Seiten, und die Cores in der Mitte getrennt als 6er und 4er Block.

kann man nen xeon mit 8 cores auf nem normalem 2011er board betreiben?

edit
die xeons kann man ja nicht bezahlen...
Willkommen in der Gegenwart. Ich bekomm jetzt im Geschäft grad ne Dual-Sockel SB-E SuperMicro-Kiste für die Entwicklung hingestellt. Ich hab extra gesagt, dass da nur kleine CPUs rein sollen. Kostet trotzdem nen Arsch voll Geld. Aber dann kann wenigstens wieder die High-End SB-E SuperMicro Kiste für ihre normalen Aufgaben genutzt werden :ugly: ~6k€ an CPUs aus dem Produktiveinsatz raus nehmen, um ne Entwicklungskiste zu haben ist keine Dauerlösung...

Nimm doch den Krampf ueber jegliche angebliche GPU nicht ernst. Man kann sicher sein dass es eine GCN GPU sein wird, sonst aber generell auf eine Konsolen Umgebung angepasst. In diesem Fall ist es alles andere als merkwuerdig dass die Konsolen Variante der GPU noch ein paar wenige Aspekte von zukuenftigen refresh GPUs hat wenn nicht gleich ein kleines Schnaeppchen von der wahren naechsten Generation. Nach aussen sieht es stets fuer den einfachen Beobachter nach einem einfach 7xxx Ableger aus; die Realitaet ist eben ein klein bisschen komplizierter.
Dem kann ich nur Zustimmen. Man hat zwar Ähnlichkeiten zu den Desktop-GPU-Architekturen, aber es sind halt immer Versionen mit gewissen Anpassungen.

Gipsel
2012-10-26, 00:47:21
Wollte man das Personal auf 8 Threads schulen?Warum nicht? HT aus, das Ding ein wenig niedriger takten und schon unterscheidet sich das nicht mehr so doll.
Wollte man mit der Nvidia 570 GTX GCN "emulieren" da man als Progger nicht den Code in clauses schreiben muss, sondern einfacher für 1D-Shader?Shader schreibt kein Mensch in Clauses und das hat hat auch noch nie jemand getan (das wäre bei den VLIW-Architekturen auch verdammt schwer). Insbesondere auf der XBox wird das wohl recht nah an HLSL dran sein, was auch normal für Direct3D unter Windows benutzt wird (Coda könnte da vermutlich mehr zu sagen), nur vielleicht mit ein paar hardwarespezifischen Erweiterungen. Die Umsetzung in die Hardware-ISA macht sowieso immer ein Compiler.
HLSL-Code selber sieht für nV- und AMD-Hardware absolut gleich aus (ist hardwareunabhängig). Nur je nachdem, was man wie macht, kann das mal auf AMD gut laufen oder mal auf nV (oder auch auf beiden relativ gleich gut, das schließt sich nicht aus).
4 niedrig getaktete Vishera module dürften effizienter sein als 8 hochgetaktete jaguare und bringt amd auch im desktop segment weiterDas kommt nur darauf an, wie niedrig bzw. hoch man das Powerbudget pro Kern ansetzt. Bei weniger als 5 Watt pro Kern dürften Bulldozer-Kerne Probleme bekommen, noch schneller als ein Jaguar zu sein. Und größer sind BD/PD/SR allemal.

Deinorius
2012-10-26, 01:51:17
http://www.legitreviews.com/images/reviews/1871/sandy-bridge-ep-die-shot.jpg


An eine Server-CPU hätte ich nie gedacht. Wenn die Xbox Next wirklich 8 Kerne haben wird, ok. :freak:

robbitop
2012-10-26, 10:16:57
Wenn dann Steamroller (keine Piledriver) Kerne. Steamroller oder Jaguar. Ich denke, dass 2-4 moderat getaktete Steamrollermodule (< 3 GHz) ohne den ganzen I/O Kram aus dem Vishera vom Verbrauch her moderat sein sollten.
Nehmen wir mal den A10-4600M. Der hat eine TDP von 35 W. Die GPU zieht davon ggf. die Hälfte. Ich denke, bei ~2,5 GHz sollten 10 W pro Modul möglich sein.
Höherer Takt, deutlich höhere IPC - IMO ist Steamroller besser für eine Spielekonsole geeginet als das Low Power Design von Jaguar.

Gipsel
2012-10-26, 13:45:44
Wenn dann Steamroller (keine Piledriver) Kerne. Steamroller oder Jaguar. Ich denke, dass 2-4 moderat getaktete Steamrollermodule (< 3 GHz) ohne den ganzen I/O Kram aus dem Vishera vom Verbrauch her moderat sein sollten.
Nehmen wir mal den A10-4600M. Der hat eine TDP von 35 W. Die GPU zieht davon ggf. die Hälfte. Ich denke, bei ~2,5 GHz sollten 10 W pro Modul möglich sein.
Höherer Takt, deutlich höhere IPC - IMO ist Steamroller besser für eine Spielekonsole geeginet als das Low Power Design von Jaguar.
Die Kabini-APUs werden als Quadcore maximal 25W schlucken (mit vermutlich irgendwas von 1,8 bis 2 GHz), allerdings bereits inklusive der Southbridge. Okay, der GPU-Teil ist kleiner und somit stromsparender. Aber der 35W (ohne Southbridge) A10-4600M läuft ja auch nur mit 2,3 GHz, wenn die GPU ausgelastet wird.
Wie gesagt, schmeiß den GPU-Teil raus, verdoppele die Anzahl der Kerne auf jeweils 8 und man wird arge Probleme haben, mit PD- oder meinetwegen auch SR-Kernen in einem Budget von 30W oder so schneller als Jaguar zu sein. Unterhalb einer gewissen Schwelle skaliert das ziemlich schlecht nach unten. Man muß den Takt einfach zu weit absenken, um noch weiter Strom sparen zu können. Während ~2 GHz bei vielleicht knapp 4W pro Kern vermutlich recht nah am oberen Ende von Jaguars Möglichkeiten liegt, markiert es gleichzeitig auch etwa das absolut untere Ende für die Bulldozer-Derivate. Dort kommen beide in etwa auf die gleiche Leistung (pro Watt und auch in etwa absolut, weil ich von PD/SR eben gerade keine signifikant höhere IPC erwarte [außerhalb von FMA]). Man kann dort also die einfacher und billiger zu fertigendere Variante wählen. Und das ist eindeutig Jaguar. Zum einen durch die deutlich geringere Transistorzahl und Diesize und zum anderen auch durch das praktisch vollsynthetische Layout, was AMD ja schon bei Bobcat hervorgehoben hat (MS würde vermutlich die Rechte an der VHDL-Beschreibung des Chips erwerben, was es z.B. sehr einfach ermöglichen würde, bei einer Fab ihrer Wahl produzieren zu lassen und zukünftige Dieshrinks in Eigenregie durchzuführen, mit einem BD-Derivat geht das sehr wahrscheinlich nicht).

robbitop
2012-10-26, 14:03:24
Die Kabini-APUs werden als Quadcore maximal 25W schlucken (mit vermutlich irgendwas von 1,8 bis 2 GHz), allerdings bereits inklusive der Southbridge. Okay, der GPU-Teil ist kleiner und somit stromsparender. Aber der 35W (ohne Southbridge) A10-4600M läuft ja auch nur mit 2,3 GHz, wenn die GPU ausgelastet wird.
Wie gesagt, schmeiß den GPU-Teil raus, verdoppele die Anzahl der Kerne auf jeweils 8 und man wird arge Probleme haben, mit PD- oder meinetwegen auch SR-Kernen in einem Budget von 30W oder so schneller als Jaguar zu sein. Unterhalb einer gewissen Schwelle skaliert das ziemlich schlecht nach unten. Man muß den Takt einfach zu weit absenken, um noch weiter Strom sparen zu können. Während ~2 GHz bei vielleicht knapp 4W pro Kern vermutlich recht nah am oberen Ende von Jaguars Möglichkeiten liegt, markiert es gleichzeitig auch etwa das absolut untere Ende für die Bulldozer-Derivate. Dort kommen beide in etwa auf die gleiche Leistung (pro Watt und auch in etwa absolut, weil ich von PD/SR eben gerade keine signifikant höhere IPC erwarte [außerhalb von FMA]). Man kann dort also die einfacher und billiger zu fertigendere Variante wählen. Und das ist eindeutig Jaguar. Zum einen durch die deutlich geringere Transistorzahl und Diesize und zum anderen auch durch das praktisch vollsynthetische Layout, was AMD ja schon bei Bobcat hervorgehoben hat (MS würde vermutlich die Rechte an der VHDL-Beschreibung des Chips erwerben, was es z.B. sehr einfach ermöglichen würde, bei einer Fab ihrer Wahl produzieren zu lassen und zukünftige Dieshrinks in Eigenregie durchzuführen, mit einem BD-Derivat geht das sehr wahrscheinlich nicht).

Naja aber mit 4x 2,5 GHz Steamrollermodulen bist du vieleicht 20 W höher in der TDP als mit 8x Jaguar Kernen @ 2,0 GHz. Dafür sollten die Steamrollerkerne deutlich besser in Spielen sein. IPC Vorteil dürfte bei 20...30 % liegen. Und wie du selbst weißt, ist nicht immer alles in Spielen perfekt parallelisierbar. Für delta 20 W erhält man im Endresultet gute 60 % Mehrleistung. Ein guter Deal. Eine Xbox und eine Playstation kann in der Launchversion problemlos >150 W Powerbudget für das Gesamtgerät haben.

Ich kann aber deine Argumentation verstehen und es wäre aus wirtschaftlicher Sicht sicher auch die bessere Wahl. Aus Spielersicht wäre IMO aber ein Steamroller besser.

Eine Pitcairn mit reduzierten Taktraten nimmt sicher auch nochmal gute 80 W. Was sind da im Gesamtsystem schon delta 20 W?

Warum erwartest du eigentlich keine IPC Differenz? Die ist bei Bobcat und Bulldozer/Piledriver auch bei 20...30 %. Jaguar und Steamroller sollen beide +15 % Performance erhalten laut AMD Roadmap.
Wenn da keine signifikante IPC Differenz vorhanden wäre, wäre das Bulldozer Design wirklich fast überflüssig und man könnte ein BD Modul (inkl Nachfolger) zukünftig durch zwei Bobcat Kerne (inkl Nachfolger) ersetzen.

AnarchX
2012-10-26, 14:51:51
Wohl möglich ist wirklich das größte Argument für Jaguar die Synthetisierbarkeit und die einfache Fertigung auf anderen Prozessen. Steamroller könnte da schon mehr auf GFs 28nm Prozess angewiesen sein.

robbitop
2012-10-26, 14:54:51
Aus wirtschaftlicher Sicht, sehe ich das natürlich ebenso.

Gipsel
2012-10-26, 15:14:32
Naja aber mit 4x 2,5 GHz Steamrollermodulen bist du vieleicht 20 W höher in der TDP als mit 8x Jaguar Kernen @ 2,0 GHz. Dafür sollten die Steamrollerkerne deutlich besser in Spielen sein. IPC Vorteil dürfte bei 20...30 % liegen.Den 20-30% Vorteil glaube ich, wenn ich ihn sehe. Und Du muß bedenken, daß Du die gesparten 20W in die GPU investieren kannst, immerhin dürfte es ein halbwegs striktes Gesamtbudget geben. Was bringt mehr?
Und wie du selbst weißt, ist nicht immer alles in Spielen perfekt parallelisierbar. Für delta 20 W erhält man im Endresultet gute 60 % Mehrleistung. Ein guter Deal. Eine Xbox und eine Playstation kann in der Launchversion problemlos >150 W Powerbudget für das Gesamtgerät haben.Ich glaube wie gesagt die deutlich höhere IPC gegenüber Jaguar noch nicht.
Und dann rechne mal mit locker 100W für die GPU, RAM nimmt sich 5-10W, genau wie der Chipsatz, die kleine SSD will auch noch 2-3W und das BD-Laufwerk zieht im Peak sicherlich auch 10W oder so. Da kann man sich von 150W ausgehend (+Wandlerverluste und Netzteileffizienz heißt das aus der Steckdose ~200W max.) schon überlegen, daß man lieber 30W als 50W als Verbrauch für die CPU-Kerne hätte.
Ich kann aber deine Argumentation verstehen und es wäre aus wirtschaftlicher Sicht sicher auch die bessere Wahl. Aus Spielersicht wäre IMO aber ein Steamroller besser.Aus Spielersicht ist es auch besser, wenn die Konsole im Wohnzimmer nicht so vor sich hinlärmt und dazu noch 50€ billiger ist. ;)
Warum erwartest du eigentlich keine IPC Differenz? Die ist bei Bobcat und Bulldozer/Piledriver auch bei 20...30 %. Jaguar und Steamroller sollen beide +15 % Performance erhalten laut AMD Roadmap.Selbst wenn man mal die AMD-Charts nimmt, sagen die deutlich mehr als +15% Performance für Jaguar gegenüber Bobcat. Die Frequenz soll um mehr als 10% steigen (gegenüber den an gleicher Stelle erwähnten 1,7 GHz von Bobcat, Jaguar hat übrigens eine etwas längere Pipeline, eine Stufe ist beim Decoding dazugekommen, eine andere in der FP-Pipeline [ohne Einfluß auf die Latenz]). Die IPC alleine soll zusätzlich um mehr als 15% steigen. Bei mir sind das für die Performance zusammen etwa +30% Steigerung und selbst wenn Bobcat gegenüber BD momentan etwas zurückliegt, dürfte Jaguar diese Lücke schließen. Wieviel Steamroller wirklich bringt, steht da noch eher in den Sternen.

Jaguar wird in einigen Bereichen stärker aufgebohrt als SR. Es gibt nicht nur kleinere Änderungen am Decoder. So verdoppelt sich bei Jaguar die L1 Bandbreite zum Kern, wie auch die FPU-Breite (wo man bei Steamroller ja sogar eher etwas spart). Dazu kommen dann natürlich alle möglichen Kleinigkeiten, wie ein Integer-Divider (ein IDIV dauert bei Bobcat extrem lange, wird dort von der FPU gemacht) und natürlich größere OoO-Resourcen, Puffer usw. sowie bessere Scheduling-Logik, die man bei den Schritten BD->PD->SR akkumuliert ebenfalls dabei hat.

Wieviel die getrennten Decoder bei SR wirklich bringen, wird sich dagegen erst noch zeigen müssen. Wie es aussieht (wenn die Optimierungen für die GNU Compiler korrekt sind [das ist ein wenig unklar, weil die Beschreibung dazu Widersprüche hat, aber der Code ist recht eindeutig]), wird der eine 4fach-Decoder durch zwei 2fache ersetzt (gleiche Decodingbandbreite pro Kern wie bei Bobcat/Jaguar btw. ;)). Das reißt es erstmal nicht wirklich raus. Was da im Endeffekt wirklich verbessert wird, ist daß ein Vector-Decode nicht mehr beide Kerne blockiert, sondern nur noch einen. Und der Durchsatz für Double-Decodes steigt ebenfalls etwas (zumindest wenn beide Kerne eines Moduls arbeiten, für einen Einzelkern bleibt es gleich).
BD/PD kann pro Takt entweder 1-1-1-1 µOps, 2-1-1 µOps ausspucken oder an einem vector-Decode (µCode-ROM) arbeiten (was verhindert, daß im nächsten Takt der andere Kern bedient wird).
Mit Steamroller wird es pro Takt und Kern (nicht mehr pro Modul) entweder 1-1 µOp oder 2-2 µOp alle 2 Takte (Double Decodes blockieren nicht mehr 2 Decoder wie bei BD/PD sondern benötigen einfach 2 Takte, es gehen daher auch 0-1 -> 2-1 in zwei aufeinanderfolgenden Takten). Und Vector-Decodes blockieren wie gesagt nur einen Decoder, der zweite kann ungehindert weitermachen. Alles in allem sieht das mir danach aus, daß hauptsächlich die MT-Performance gesteigert wird. Für den Single-Thread-Fall sinkt offenbar sogar die maximal zur Verfügung stehende Decodierbandbreite!
Wenn da keine signifikante IPC Differenz vorhanden wäre, wäre das Bulldozer Design wirklich fast überflüssig und man könnte ein BD Modul (inkl Nachfolger) zukünftig durch zwei Bobcat Kerne (inkl Nachfolger) ersetzen.Du kannst Jaguar nicht mit 4 GHz takten. Dafür (abgesehen vom L3, ich rede hier nur von den eigentlichen Modulen) geht ein Großteil der Mehrtransistoren und -fläche drauf, nicht für eine höhere IPC.

del_4901
2012-10-26, 15:29:49
Kann mal jemand von euch die FPU von Jaguar (was bedeutet in dem Zusammenhang Double Pumped bei Verwendung von AVX) mit der von Piledriver (2x128bit oder 1x256bit pro Modul) vergleichen?

Coda
2012-10-26, 15:33:15
AVX hat nur halben Durchsatz auf Jaguar, d.h. es ist gleich wie SSE. Man spart nur Instructions wegen 3 operand form usw.

del_4901
2012-10-26, 15:39:21
AVX hat nur halben Durchsatz auf Jaguar, d.h. es ist gleich wie SSE. Man spart nur Instructions wegen 3 operand form usw.
Bedeutet das nicht, dass Jaguar AVX in 2 Takten durchwuergt?
Aber warum steht dann hier: http://www.theregister.co.uk/2012/08/29/amd_jaguar_core_design/

If you double pump the FP unit, you can do one 256-bit AVX vector math instruction per clock. This 128-bit FP and 256-bit AVX processing is as good as a Bulldozer, Piledriver, or Steamroller core in the Opteron server chips can do.
Jaguar hat doch eine 128bit FPU pro Kern, und bei Piledriver muessen sich "2 Kerne" eine 256bit FPU teilen. So macht das Sinn, aber das mit dem "one 256-bit AVX vector math instruction per clock" macht irgendwie keinen.

Gipsel
2012-10-26, 15:43:23
Kann mal jemand von euch die FPU von Jaguar (was bedeutet in dem Zusammenhang Double Pumped bei Verwendung von AVX) mit der von Piledriver (2x128bit oder 1x256bit pro Modul) vergleichen?Jaguar kann halt 1x128Bit ADD + 1x128Bit MUL pro Takt (wie K10). Bei BD/PD/SR wird die FPU im Modul von beiden Kernen ja geteilt. Wenn beide Kerne ausgelastet werden, ist die Fließkommleistung taktnormiert pro Kern bei Bulldozer (4 SP-FLOPs pro Kern) ohne Nutzung von FMA also sogar geringer als bei Jaguar (8 SP-FLOPs pro Kern), nur eben flexibel nutzbar (in allen Kombinationen von Instruktionen, nicht nur mit einem 1:1 Mix von Additionen und Multiplikationen), mit FMA kommt man dann auf das Gleiche (8 FLOPs pro Kern). In der Praxis benötigen natürlich nicht immer beide Kerne gleichzeitig die FPU (und BD hat noch zusätzliche FP-Pipelines in denen der ganze andere Kram [Integer, logische Operationen in den Vektorregistern, Moves] parallel abgearbeitet wird, aber genau da spart Steamroller), dann kann BD aufholen bzw mit AVX256 etwas und mit FMA auch deutlich vorbeiziehen (in einer Konsole mit 4 BD-Modulen würde man also vermutlich sehr fließkommaintensive Threads mit integerlastigen Threads auf einem Modul paaren wollen; das geht aber natürlich nicht immer gut und ist zusätzlicher Aufwand). Jaguar wäre also einfacher und im Mittel von der Performance in etwa in der gleichen Kategorie (wenn man nicht nur FMAs macht).

Gipsel
2012-10-26, 15:50:30
Bedeutet das nicht, dass Jaguar AVX in 2 Takten durchwuergt?
Aber warum steht dann hier: http://www.theregister.co.uk/2012/08/29/amd_jaguar_core_design/

Jaguar hat doch eine 128bit FPU pro Kern, und bei Piledriver muessen sich "2 Kerne" eine 256bit FPU teilen. So macht das Sinn, aber das mit dem "one 256-bit AVX vector math instruction per clock" macht irgendwie keinen.Sowohl ein Jaguar-Kern als auch ein BD-Modul haben zwei 128Bit Fließkommapipelines (mit unterschiedlichen Fähigkeiten).
Die angegebene eine AVX256-Instruktion pro Takt bei Jaguar ist ein Mittelwert, wenn Du einen 1:1 Mix aus Additionen und Multiplikationen hast. Es gibt eine 128Bit Additionspipeline und eine 128Bit Multiplikationspipeline. Beide können parallel arbeiten.
Bei BD gibt es auch nur 2 parallele 128Bit-Fließkommaeinheiten. Die können aber beide FMA (und damit auch 2 ADDs oder 2 MULs). BD bricht intern auch AVX256-Instruktionen auf zwei 128Bit-µOps runter. Die können nur in den beiden Pipes parallel in einem Takt abgearbeitet werden.

robbitop
2012-10-26, 15:57:13
Na dann hoffe ich doch mal ganz stark, dass die Entwickler es gut hinbekommen, auf ~ 8 Kernen alles zu auszulasten. :)
Angenommen, dass man das schafft, welcher Faktor in Punkto Performance läge ein Jaguar SoC (2 GHz, 8 Kerne) in etwa vor Xenos (3,2 GHz, 3C/6T)?

Gipsel
2012-10-26, 16:10:01
Na dann hoffe ich doch mal ganz stark, dass die Entwickler es gut hinbekommen, auf ~ 8 Kernen alles zu auszulasten. :)
Angenommen, dass man das schafft, welcher Faktor in Punkto Performance läge ein Jaguar SoC (2 GHz, 8 Kerne) in etwa vor Xenos (3,2 GHz, 3C/6T)?Das hängt vermutlich extrem stark davon ab, was man macht. Daten nur stur durch die SIMD-Einheiten jagen kann auf den Xenons recht schnell sein (ebenfalls maximal 8 Flops/Takt und Kern), solange der in-order-Charakter und die Latenzen da einem nicht in die Quere kommen. Da landet man also vermutlich im Worst Case unter einem Faktor 2 Speedup gegenüber Xenon. Bei "normalem" Integercode stirbt ein Xenon aber regelrecht im Vergleich, da würde mich auch ein Faktor 10 oder so in einigen Situationen nicht überraschen.

Coda? :rolleyes:

del_4901
2012-10-26, 16:15:43
@Gipsel: Ist es aber nicht etwas blauaeugig FMA (abhaenige instuktionen) mit unabhaenigen ADD+MUL zu vergleichen? Wenn du mich fragst, dann ist FMA viel praxistauglicher.

Gipsel
2012-10-26, 17:12:56
@Gipsel: Ist es aber nicht etwas blauaeugig FMA (abhaenige instuktionen) mit unabhaenigen ADD+MUL zu vergleichen? Wenn du mich fragst, dann ist FMA viel praxistauglicher.Andersrum wird eher ein Schuh draus. FMA kann man nicht immer benutzen, es sei denn man macht nur dot products (und die positiven numerischen Eigenschaften braucht man auf einer Konsole nicht unbedingt, außerdem hat man bei den fraglichen x86er-CPUs Hardwaredivider und -wurzel, so daß man dort keine FMAs für eine korrekte Rundung benötigt [wie bei einigen anderen CPU-Typen]). Wenn ich die Wahl habe zwischen 8 Flops/Takt mit einer FMA -Pipeline und 8 Flops/Takt mit einer MUL- und einer ADD-Pipeline (je 4x single precison, also 128Bit), dann gewinnen meist die MUL+ADD Pipelines. Da kann man nämlich auch MULs und ADDs parallel ausführen, die nichts miteinander zu tun haben (also nicht zu einem FMA zusammengefaßt werden können), während man mit einer FMA Pipe in dem Fall nur einmal MUL oder ADD ausführen kann. Einen klaren Gewinner gibt es allerdings, wenn man eine MUL + eine ADD Pipeline-Kombination gegen 2 FMA-Pipelines stellt, die FMAs sind flexibler (können auch 2x ADD oder 2x MUL) und haben die doppelte Peakleistung. Das hilft Dir aber alles nichts, wenn sich 2 Kerne so eine Einheit teilen (und sie auch gleichzeitig benötigen), wodurch dann eben effektiv nur noch eine FMA-Pipeline pro Kern übrig bleibt.

Skysnake
2012-10-26, 17:45:27
Klar ist es besser in vielen Situationen, aber es ist halt auch wieder extra Aufwand ;)

Bekommt Jaguar abet nicht auch FMA?

Ansonsten bzgl Jaguar<->BD:
Für Jaguar spricht halt das vollsynthetisierte Design. Da lässt sich wohl einiges an Platz einsparen, und gerade mit der eh Synthetisierten GPU kann man auch mal leichter den Prozess wechseln.

Zudem wird Jaguar wohl nach unten hin besser skalieren, wie schon angesprochen wurde.

Es spricht also einiges für Jaguar.

Zudem wird Jaguar wohl billiger zu haben sein für MS als BD. Man kann halt in das eh schon synthetisierte Design viel leichter noch Anpassungen aufnehmen, als dies bei BD der Fall wäre!!!

Ich denke, BD kommt nur, wenn AMD ein sehr attraktives Angebot für die BD-Module gemacht hat, und eventuell auch kleinere Abstriche gemacht hat bei der Marge/Gewinn, um eben BD in die Konsolen zu bringen, damit die APUs von der Softwareentwicklung profitieren.

Aber auch mit Jaguar Kernen wird man davon profitieren. Eventuell will MS auch kein BD, damit man nicht den direkten Vergleich zu den Desktop APUs ziehen kann, gegen die man eventuell nicht so gut mehr aussieht, aber gegen die kleinen APUs auf Jaguar-Basis dann richtig gut dasteht....

Ich erwarte aber eher Jaguar, wenn überhaupt...

Gipsel
2012-10-26, 17:56:06
Bekommt Jaguar abet nicht auch FMA?Nein. Ganz offiziell von AMD so gesagt, nur AVX/SSE4.1/4.2 und die ganzen anderen Erweiterungen sind dabei.

Nochmal so als Zusammenfassung:
2 FMA-Pipes sind deutlich besser als 1 MUL-Pipe + 1 ADD-Pipe sind besser als 1 FMA-Pipe (zumindest meistens).
Mit dem Modulkonzept und der geteilten FPU lassen sich natürlich viele Situationen konstruieren, die nicht so einfach und straightforward zu erfassen sind (und in denen die BD-Konfiguration tendentiell besser abschneidet. Das ist praktisch äquivalent zu dem Performance-Gewinn durch HT bei intel-CPUs, die BD-FPU macht ja praktisch das Gleiche).
Ansonsten bzgl Jaguar<->BD:
Für Jaguar spricht halt das vollsynthetisierte Design. Da lässt sich wohl einiges an Platz einsparen, und gerade mit der eh Synthetisierten GPU kann man auch mal leichter den Prozess wechseln.

Zudem wird Jaguar wohl nach unten hin besser skalieren, wie schon angesprochen wurde.

Es spricht also einiges für Jaguar.

Zudem wird Jaguar wohl billiger zu haben sein für MS als BD. Man kann halt in das eh schon synthetisierte Design viel leichter noch Anpassungen aufnehmen, als dies bei BD der Fall wäre!!!Ganz genau.

Ich denke, BD kommt nur, wenn AMD ein sehr attraktives Angebot für die BD-Module gemacht hat, und eventuell auch kleinere Abstriche gemacht hat bei der Marge/Gewinn, um eben BD in die Konsolen zu bringen, damit die APUs von der Softwareentwicklung profitieren.
Aber auch mit Jaguar Kernen wird man davon profitieren. Eventuell will MS auch kein BD, damit man nicht den direkten Vergleich zu den Desktop APUs ziehen kann, gegen die man eventuell nicht so gut mehr aussieht, aber gegen die kleinen APUs auf Jaguar-Basis dann richtig gut dasteht....

Ich erwarte aber eher Jaguar, wenn überhaupt...MS hat die Shrinks bei der XBox360 wie schon erwähnt in Eigenregie gemacht. Das wäre mit einem Bulldozer-Kern (bzw. einem Derivat) wohl nur mit äußerstem Mehraufwand (oder AMD macht das gegen ein saftiges Entgelt jeweils für MS) möglich. Das ist praktisch die Gegenseite des Arguments für Jaguar, was den Punkt noch verstärkt.

Skysnake
2012-10-26, 19:01:17
Seh ich auch so.

Es gibt eigentlich nur einen Grund, warum man BD-Module verwenden sollte, und der heißt: AMD will das so, um die Desktop-APUs/CPUs zu stärken, weil stärker auf die Architektur hin optimiert wird in Games dank Konsolen.

Ich kann mir aber nicht vorstellen, dass sich das wirklich für AMD rechnet, und sich MS davon überzeugen lässt...

Nichtswisser
2012-10-26, 19:58:59
Machen soviel eher niedrig getaktete Kerne im Vergleich zu weniger höher getakteten bei einer Konsole überhaupt Sinn? Man muss das ganze schließlich auch sinnvoll auf die ganzen Kerne verteilt bekommen und das ist nicht nur sehr aufwendig, wie das Beispiel der Programmierung für die PS3 zeigt, sondern auch ab einem gewissen Punkt von zweifelhaftem nutzen da der Kern welcher für die Synchronisation der anderen Kerne zuständig ist doch meist (immer?) viel höher ausgelastet ist und damit den limitierenden Faktor darstellt. Und je mehr Kerne es zu synchronisieren gilt, des so aufwendiger wird das ganze. Ab einem gewissen Punkt müsste sich der "Gewinn" von zusätzlichen Kernen gar ins negative umschlagen.

Gipsel
2012-10-26, 20:24:42
@Nichtswisser:
Die XBox360 hat auch bereits 6 Threads. 8 Threads wären jetzt nicht so viel mehr. Die PS3 ist dagegen nochmal was ganz Anderes (ist ja im Prinzip nur ein einzelner Kern mit 2 Threads, an den Vektoreinheiten mit einem bißchen lokalem Speicher aber ohne richtigen eigenen Hauptspeicherzugriff als Coprozessoren angeflanscht sind), die SPEs von Cell lassen sich kaum vergleichen. Das SMP bei Xenon oder bei jeder anderen Multicore-CPU ist da vergleichsweise einfacher zu nutzen.

Iterator
2012-10-26, 20:45:54
Bei der PS3 war nicht das Hauptproblem die vielen Kerne, sondern die Asynchrone
Prozessorarchitektur und damit einhergehen anderen Programmiermodell mit den
typischen Vor und Nachteilen. Bei einem Symmetrischen Mehrkernprozessor verteilt
das OS auf dem laufenden System, die Arbeit an seine vorhandenen CPU Kerne, was
auch einer der Vorteile ist. Wenn Dir z. B. beim Cell die PPU stirbt, dann war es das
für die komplette CPU, während eine normale CPU im "gewissen Masse", noch weiter
arbeiten kann.

Natürlich wird man auch mit einem symmetrischen Multicore Prozessor mal den Punkt erreichen,
an dem die Skalierungseffekte geringer werden (je nach Anwendung), da wird auch die
Qualität des Environment, bzw die Entwicklungsumgebung eine Menge mit ausmachen,
da mache ich mir allerdings weniger Gedanken, als um die mangelnde Kreativität, bzw Now How
der Entwickler.

Nichtswisser
2012-10-26, 21:06:44
@Gipsel

Ja, die Xbox hat 6 Threads, aber wie viele werden davon auch wirklich genutzt? Ich hab keine Xbox und programmiere auch keine Spiele und kann daher lediglich Xbox-Portierungen heranziehen, aber die nutzen selten mehr als 2 Threads. Oder ist das nur bei Portierungen auf dem PC so und die nativen Xbox Spiele nutzen mehr? Generell scheint es mir so das Spielentwickler meist Probleme haben mehrere Kerne auch wirklich sinnvoll zu nutzen. Der Perforamce Gewinn zusätzlicher Kerne hält sich da meist im Vergleich mit anderen Gebieten stark in Grenzen.

del_4901
2012-10-26, 21:12:05
@Gipsel

Ja, die Xbox hat 6 Threads, aber wie viele werden davon auch wirklich genutzt? Ich hab keine Xbox und programmiere auch keine Spiele und kann daher lediglich Xbox-Portierungen heranziehen, aber die nutzen selten mehr als 2 Threads. Oder ist das nur bei Portierungen auf dem PC so und die nativen Xbox Spiele nutzen mehr? Generell scheint es mir so das Spielentwickler meist Probleme haben mehrere Kerne auch wirklich sinnvoll zu nutzen.

Aus aktuellen Erfahrungen kann ich dazu sagen dass alle 6 Threads gut ausgelastet werden. Auf dem PC skaliert das ganze manchmal nicht so gut weil das Timing ein anderes ist und sich damit der Workload im Frame unguenstig verschieben kann. Auf der Box ist das kein so grosses Problem, da schiebt man sich das als Entwickler so zurecht wie man es grade braucht.

Andersrum wird eher ein Schuh draus. FMA kann man nicht immer benutzen, es sei denn man macht nur dot products (und die positiven numerischen Eigenschaften braucht man auf einer Konsole nicht unbedingt, außerdem hat man bei den fraglichen x86er-CPUs Hardwaredivider und -wurzel, so daß man dort keine FMAs für eine korrekte Rundung benötigt [wie bei einigen anderen CPU-Typen]). Wenn ich die Wahl habe zwischen 8 Flops/Takt mit einer FMA -Pipeline und 8 Flops/Takt mit einer MUL- und einer ADD-Pipeline (je 4x single precison, also 128Bit), dann gewinnen meist die MUL+ADD Pipelines. Da kann man nämlich auch MULs und ADDs parallel ausführen, die nichts miteinander zu tun haben (also nicht zu einem FMA zusammengefaßt werden können), während man mit einer FMA Pipe in dem Fall nur einmal MUL oder ADD ausführen kann. Einen klaren Gewinner gibt es allerdings, wenn man eine MUL + eine ADD Pipeline-Kombination gegen 2 FMA-Pipelines stellt, die FMAs sind flexibler (können auch 2x ADD oder 2x MUL) und haben die doppelte Peakleistung. Das hilft Dir aber alles nichts, wenn sich 2 Kerne so eine Einheit teilen (und sie auch gleichzeitig benötigen), wodurch dann eben effektiv nur noch eine FMA-Pipeline pro Kern übrig bleibt.
Ich bin direkt vom Piledriver/Jaguar Vergleich ausgegangen. Insofern hat beides sein fuer und wieder. Wenn der Datensatz gross genug ist und der Compiler/Programmierer auch die unabhaenigen MUL & ADD sieht koennte da durchaus der Jaguar besser weg kommen.

Nichtswisser
2012-10-26, 21:15:33
Ah, also lediglich ein weiter Punkt wo sich die Entwickler bei PC Titeln nicht wirklich Mühe geben.

del_4901
2012-10-26, 21:19:00
Ah, also lediglich ein weiter Punkt wo sich die Entwickler bei PC Titeln nicht wirklich Mühe geben.
Das hat nicht mit Muehe geben zu tun, der PC ist einfach viel zu variabel in Konfiguration und Geschwindigkeit und keine feste Plattform wie eine Konsole. Auf dem PC kann man solche simplen Spielchen wie Threads umherschieben einfach nicht machen.

Gipsel
2012-10-26, 21:19:41
Ah, also lediglich ein weiter Punkt wo sich die Entwickler bei PC Titeln nicht wirklich Mühe geben.
Na so einfach ist das nicht. Eine Konsole hat ja exakt definierte Hardware. Auf einem PC muß man von den letzten Single-Cores mit elendig langsamer Grafik bis zum Octacore (oder gar noch mehr Threads) mit 4fach Crossfire-/SLI-Gespann mit allem rechnen. Da funktioniert diese Abstimmung nun mal nicht immer so gut.

Ailuros
2012-10-26, 21:20:59
Ah, also lediglich ein weiter Punkt wo sich die Entwickler bei PC Titeln nicht wirklich Mühe geben.

Ich hab das Gefuehl dass wenn der compiler limitieren sollte dass ein Entwickler auch nicht besonders viel dagegen anrichten kann.

Gipsel
2012-10-26, 21:23:42
Ich hab das Gefuehl dass wenn der compiler limitieren sollte dass ein Entwickler auch nicht besonders viel dagegen anrichten kann.Für das Threading kann der Compiler nur selten was, da ist der Entwickler schon stark in der Verantwortung.

Hallo
2012-10-28, 07:26:35
Mal ne dumme Frage:

Wieso ATI/AMD(sorry) Geschiss?Man sieht ja wie die im PC Markt rumgurken und ich war mal grosser AMD/ATI Fan.

Wieso nicht Intel und NVidia weil schneller,kuehler und problemloser.

Das Argument die Kosten waeren zu hoch glaube ich nicht.Wenn ich zu Intel gehe und sage"hoert mal wir brauchen fuer die naechste 5 Jahre so ca 40-50 Mio. Chips"werden die schon nen guten Preis machen.Auch kann ich die guenstigeren (Preissegment) Intels nehmen da genauso schnell wie vergleichbare AMDs nur ohne Zicken.

Lustig das selbst im japanischen Arcadebereich nur auf Intel und sehr oft auf Nvidia gesetzt wird.
Argh,ist es sooo schwer ein geschlossenes PC System zu entwickeln?Langsam gewinne ich den Eindruck das die sogenannten Konsolenhersteller KEINE Ahnung von Konsolen haben Sony miteingeschlossen(siehe Cell Desaster).Klar mit Marketing-Gehirnwaesche liess sich auch ne PS2 wunderbar verkaufen...

PC Spieler beklagen sich ueber die Annaeherung an Konsolen,pfft..Das wirklich beklagenswerte ist die Annaeherung der Konsolen an PCs mit dem Ergebnis der 30fps Krankheit,zuviel bezahl DLCs und nicht mehr vorhandener Custom HW.Frueher waren beim Erscheinen einer Konsole PCs immer im Nachteil was Spieleperformance betrifft in allen Bereichen.Heute wollen die uns 2014 vielleicht ne 580 goennen,klasse:(

So genug gelaestert,haha!

Botcruscher
2012-10-28, 07:33:22
Intel ist zu teuer. Intel hat es auch nicht nötig mal eben extra was zu bauen. Die werden ihre Chips auch so los. Lizenzen für Herstellung hauen die auch nicht raus. Wozu? Ist doch alles an die eigene Fertigung angepasst. NV hat zum einen nix(SoC) und ist zum anderen auf dem gleichen techlevel. PS In den Arcadekisten ist aber auch nur 0815 Hardware drin. Das stöpselt man zusammen und gut ist.

Hallo
2012-10-28, 07:51:57
Seltsam das ich als Endkunde billiger und besser mit Intel und NVidia wegkomme die Gesamtperformance betrachtet oder wieso haben die meissten Zocker Intel/NVidia unter der Haube?

Mein i7 2600K laeuft kuelschrankmaessig und kann irre uebertaktet werden und meine 570 ist im Idle unhoerbar.

Mag sein das das Gebaren von Intel zickenhafter ist aber man kann mit denen bestimmt reden;)Was werden die neuen Konsolen kosten?Ich bau das fuer weniger Geld als Endkunde mit besserer Performance zusammen,word!Schon allein das Ram-Gezicke nervt.Was kosten 4GB nochmal?

Wegen Arcade,klar 0815 aber halt NV und Intel 0815 mit gutem Grund.Das muss zuverlaessig laufen und vor allem zuverlaessig lieferbar sein was ja nicht gerade AMDs Domaene ist.Und ne High-End Radeon auf der man Spiegeleier braten kann lebt im Arcade Dauerbetrieb net lange.

Ok SoC ist ein Argument,dann trete ich NV/Intel bissl innen Hintern,als ob die das nicht hinbekommen.Selbst ohne SoC gehts gut immer noch besser als massive Fertigungsschwierigkeiten...Ach ich laechel jetzt schon ueber die neue PS/Xbox vor allem freue ich mich auf 30fps Content,juhu!!

Skysnake
2012-10-28, 09:16:29
Hast du irgendein Problem?

Sorry, aber was ich von dir gerade ist folgendes: "Jojojo Bro, was geht ab, die AMD/Ati Säcke habe meine NV/Intel Bros de Auftrag weckgenomme! Alter geht gar nich!"

Sorry, aber was soll das?

Es gibt durchaus driftige Gründe dafür, eine GPU-Architektur von AMD und nicht von nVidia zu verwenden.

AMD hatte in den letzten Jahren, bis zur HD79x0, immer kleinere und stromsparendere Chips als nVidia, und bei der HD79x0 muss man bedenken, dass die einiges an Ballast mit rum schleppt, was GK104 nicht tut. Wenn muss man Pitcaim mit GK104 vergleichen, und da siehts für nVidia auf einmal gar nicht mehr so toll aus. Es sieht zwar noch ok aus, und das ist ein großer Schritt nach vorne für nVidia, aber das wusste man damals halt noch nicht, und vor allem hat AMD/Ati schon länger gezeigt, dass Sie so was können.

Und bzgl Fertigungsproblemen... Also bitte mach dich nicht lächerlich....

Wenn jemand Fertigungsprobleme hat im GPU Bereich, dann nVidia. AMD launched auch meist deutlich früher als nVidia, und verschiebt die GPUs nicht ständig nach hinten. Das ist bei nVidia nämlich inzwishcen echt eine Marotte geworden...

Also bitte geh nochmal in dich, denkt über das gesagt nochmal nach, und dann können wir weiter reden, aber so macht das doch echt keinen Sinn.

gnomi
2012-10-28, 09:17:49
Intel und nvidia hatten wir doch bereits bei der Xbox 1.
Schönes Stück Hardware für seine Zeit, aber die war in der Produktion eben viel zu teuer...

Botcruscher
2012-10-28, 09:19:55
Was willst du den mit deinem Steinzeitargument Zuverlässigkeit? Kommen jetzt wieder alte Geschichten vom K2 oder Pentium 3? Selbst bei den Treibern gibt es keine nennenswerten Unterschiede. Bei NV war nur der OGL und die Programmiererunterstützung besser. Deswegen die ollen Arcadekisten. Bei Konsolen wird das vom Hertseller Zugeschnippelt und der Spieleentwickler sitzt auch viel näher dran.
Was soll auch der Vergleich mit teurer PC Hardware? Konsolen mit der Power von 360/PS3 werden wir nie wieder sehen. Die Anfangsverluste waren viel zu hoch. Das macht keiner mehr mit. Bezahlt wird das ganze mit der unendlich langen Laufzeit der(inzwischen) Gammelhardware. Günstig muss es sein, an Masse herstellbar, möglichst von mehreren Auftragsfertigern und der Verbrauch darf nicht zu hoch sein. Thermi ala GTX570 frist da alleine schon zu viel.

Hallo
2012-10-28, 09:44:37
@Skysnake

Yo ich hab ein Riesenproblem wie ich schon sagte Konsolen lamen heutzutage dermassen das es knallt.Ich bin seit 1986 dabei und besitze JEDE japanische Konsole+jap Games und kann mit Recht sagen es LAMED heut einfach so what?

Ausserdem sagte ich nicht was von wegnehmen sondern stelle einfach die Frage wieso nicht NV/Intel?Wo liegt da das Problem?

Das Intel und NV perfomanter sind begreife selbst ich und wie sieht das Verhaeltniss zwischen NV/Intel und AMD/ATI unter Zockern nochmal aus?

Mich nervt das Rumgegeige dieser sogenannten Konsolenhersteller sehr an und deren Ausreden sind noch laecherlicher Thema Ram und GPU.

Wie gesagt fuer unter 600 Euro bastle ich als Endkunde ne bessere Kiste zusammen als mit dem was die mir 2014 kommen wollen.Nicht zu vergessen das ne 680er zu diesem Zeitpunkt in kleinerer Strukturgroesse gebaut werden kann aussenvorgelassen das dieser Chip natuerlich auf Konsolen customized werden kann ohne "PC-Ballast"

Aber at the end of the day interessiert den Konsolenzocker der nicht Low-Level Programmiererfahrung hat wie alles laeuft.Also Zocker die schon zu Dreamcast Zeiten 60fps mit Hammergrafik gewohnt waren,von alten Arcadehasen ganz zu schweigen...

Ich mag zwar als nicht soo dermassen der HW Tech daherkommen,trotzdem will ich gescheite Performance fuer die HOCHBEZAHLTE Entwickler zustaendig sein sollten,stattdessen nur Ausreden vonwegen 2GB Ram reichen schon,pfft...

OK alles von AMD zu beziehen ist geschickt aber bitte die CPUs stinken gegen Intels ab oder?Vom Uebertakten ganz zu schweigen.Meine alte 2600K kann ich locker unter Luftkuehlung auf 4.5GHz uebertakten,geht das auch mit den AMDs?

Man darf doch mal abkotzen duefren und die Ergebnisse auf Konsolen die Performance betreffend kann man nicht wegdiskutieren,lame halt.

@Botcrusher

Gleiche Performance zwischen ATI und NV.Welche wird heisser?Das meine ich mit Zuverlaessigkeit in Arcadesystemen die mehr aushalten muessen als ein Heim PC.

@gnomi

Ja schade auf dem Ding liefen mehr Games in 60fps als auf der 360 und wer mal ne XBox1 mit 515MB Ram in Arcades in Aktion gesehen hat weiss wie geil diese HW wirklich war:)

Teuer ja,es wird aber auch billiger wenn man entsprechende Stueckzahlen verkauft und DAS heisst Hammergames die sich verkaufen wie warme Semmeln,so einfach.

Puhh,genug gelaestert,haha!Meine Meinung aendert sowieso nix an der Lamerhaftigkeit von Sony und MS,N beansprucht ja sowieso seit SNES die HW-Lameheitskrone,naja bis auf GameCube-sehr feines Ding.

Gipsel
2012-10-28, 10:20:18
Ausserdem sagte ich nicht was von wegnehmen sondern stelle einfach die Frage wieso nicht NV/Intel?Wo liegt da das Problem?Das wurde Dir bereits erklärt.
Mit der XBox1 hat MS das ausprobiert und für schlecht befunden. Intel lizensiert kein CPU-Design sondern will für jede CPU (die natürlich in ihren eigenen Fabs hergestellt werden muß) Kohle sehen. Und zwar immer ziemlich viel, selbst nach einem Shrink (den nur Intel selbst durchführen kann). Da man die CPUs auch nicht von einem Auftragsfertiger produzieren lassen kann (erstens weil das Design auf den Prozeß angepaßt ist und Intel auch das Design nicht in Lizenz herausgibt, man kauft ja praktisch eine BlackBox bei intel), hat Intel MS (oder Sony oder Nintendo) absolut bei den Eiern und wird natürlich Profitmaximierung betreiben, sprich den Konsolenhersteller melken, bis es nicht mehr geht. Genau das ist bei der XBox1 passiert. Das macht MS nicht noch einmal. Und den Punkt kannst Du auch nicht verhandeln. Das ist für intel eine strategische Entscheidung: Die geben ihr Tafelsilber (x86er CPU-Designs) einfach nicht in Lizenz raus.
NVidia hängt ebenfalls der Ruf an, bei geschäftlichen Partnerschaften extrem schwierig zu sein (geht so ein wenig in die Intel-Richtung). Und wenn wir schon über SoCs reden, welche Erfahrung hat nV denn mit HighPerformance SOCs/APUs. Keine! Und wie sollte ein intel-nVidia SoC denn zustande kommen und wo und wie sollte er gefertigt werden? Da eine intel-CPU dabei ist, muß dann der komplette SoC in einer intel-Fab gefertigt werden (wenn man nicht CPU und GPU-Teil auf einem Interposer zusammenpappt, sind aber auch wieder höhere Kosten), was aus oben genannten Gründen schwierig und langfristig sehr teuer ist.

Gäbe es noch eine Alternative? Ja, IBM-CPU mit AMD-Grafik. Beide lizensieren ihre Design und man hat mit der XBoX360 ja relativ gute Erfahrungen gemacht. Da hat MS auch schon mal getestet, wie man in Eigenregie Shrinks durchführt (MS hat sogar AMD-GPU und IBM-CPU auf einem Die als SoC vereinigt, wäre mit intel/nV unmöglich gewesen). Aber wenn man ein Gesamtpaket auch aus einer Hand bekommen kann, sieht das doch erstmal günstiger aus, meinst Du nicht? Und genau deswegen hat AMD auch die Verträge sowohl für die XBoxNext/720 als auch die PS4 bekommen.
Das Intel und NV perfomanter sind begreife selbst ich und wie sieht das Verhaeltniss zwischen NV/Intel und AMD/ATI unter Zockern nochmal aus?Was Du begreifst, muß nicht relevant sein, ja noch nicht mal richtig. Wo ist der SoC von intel oder nV, der schneller ist als Trinity? Wo ist die GPU von nV, die bei gleicher Diegröße schneller ist als Pitcairn oder CapeVerde? Also wenn ich das richtig sehe, hat nV da mit GK107 und GK106 arge Mühe, auch nur einen Gleichstand zu erreichen. Und wenn Du eine oder zwei Generationen zurückgehst (als die wesentlichen Entscheidungen getroffen wurden), dann sieht es heute noch richtig gut für nV aus. Kepler war da noch gar nicht auf dem Schirm und mit Fermi hat man die Konsolenhersteller nicht wirklich vom Hocker gerissen (genauso wenig, wie es ein Larrabee-SoC von intel getan hat).

Windi
2012-10-28, 10:27:03
@Hallo

Die Konsolenhersteller müssen sich nicht heute oder morgen für eine bestimmte Hardware entscheiden, sondern schon vor 2 bis 3 Jahren.
Da lagen ATI und NV eher gleich auf und ATI hatte halt den besseren Deal angeboten.
Der Vorsprung von Intel war damals auch noch nicht so groß. Zum anderen liefert Intel nur fertige Dies aus und verkauft nicht das Design. Wenn man Intel vorschreiben will, das man jedes halbe Jahr 5mio CPUs braucht, mal mehr mal weniger, dann wird das halt sehr teuer. Entweder müsste Intel dann ihre hoch gezüchteten FABs ständig umrüsten oder riesige Mengen auf Halde produzieren. Das können andere viel billiger.

Zum RAM. Der kostet nicht nur in der Herstellung Geld, sondern das befüllen auch. Heute sind die Entwicklungsbudget so hoch, das ein einziger Fehlschlag das Überleben des Studios gefährdet. Ich glaube viele Entwickler sind ins geheim froh darüber, das da durch für alle eine Art Kostenbremse eingeführt wird. Um den RAM voll zu bekommen braucht man halt Content und die Contenterstellung ist nun mal der größte Kostenblock bei der Entwicklung.

HOT
2012-10-28, 10:55:26
Warum AMD/ATI? Ganz einfach, sie liefern alles aus einer Hand und liefern den passenden Software-Support gleich mit dabei. AMD/ATI hat genau das zu bieten, was kein anderer Hersteller so bieten kann, nichtmal Intel - ganz einfach. Und zwar ist das so verlockend, dass sowohl Sony (welche ja immer eigenen Krempel gebastel haben bisher) als auch M$ tatsächlich sogar bereit sind ähnliche Hardware zu liefern, nämlich x64 und GCN über HSA.

del_4901
2012-10-28, 11:05:51
Der Hauptgrund gegen Intel ist einfach das die ihre Designs generell nicht verkaufen. Und der Grund gegen Nvidia ist, dass sogar Mondpreise fuer Ihre "alten" Designs verlangen und dann oben drauf noch sehr restriktive Lizenzbedingungen haben.

Deinorius
2012-10-28, 13:33:13
...nämlich x64...


Macht 64Bit überhaupt Sinn? Ich gehe jetzt davon aus, dass beide Konsolen insgesamt nicht mehr als 4 GB RAM haben werden.

Coda
2012-10-28, 13:50:19
Es gibt auch mit 4GiB schon einige Gründe, warum man 64 bit braucht.

Herr Doktor Klöbner
2012-10-28, 13:54:54
Wie ist eigentlich die Leistung der AMD X86 Prozessoren verglichen mit IBMs aktuellen Prozessoren ? Ist man da in etwa auf Augenhöhe, schließlich ist ja nicht interessant vieviel langsamer man ist verglichen mit Intel, die sind ja wie schon gesagt keine Option, sondern der Vergleich mit IBMs Power PC.

Coda
2012-10-28, 14:09:31
IBM hat derzeit gar kein Design, das man bei einem Auftragsfertiger herstellen könnte. Power7 braucht SOI und eDRAM - das fertigt so nur IBM selbst.

HOT
2012-10-28, 14:14:18
Alles was über 1GB RAM geht braucht eigentlich schon 64Bit um maxmal effizient ausnutzbar zu sein. 2GB RAM ist schon nichtmehr effizent nutzbar und 4GB RAM braucht definitiv in der Praxis 64Bit. Von daher ist für die nächste Generation 64Bit essenziell. 4GB haben beide Konsolen minimum, da bin ich mir ziemlich sicher, denn sonst wird es schwierig die neuen Engines wie UE4 oder CryE3 wirklich voll nutzbar zu machen. Wartet mal ab, was 2013 für den PC kommt, mit Win32 wird man da nicht mehr weit kommen.


Das IBM-Portfolio passt derzeit genau garnicht für effiziente Spiele-CPUs und ein eigenes PPC-Design wollten wohl weder Sony noch M$ bezahlen. Sony ist damit im Prinzip auf die Schnauze gefallen letztes Mal und M$ findet offenbar x86 und GPU-Integration einfach reizvoller. Zudem ist x86 bei aktueller Fertigung mit den aktuellen Befehlssätzen und HSA wahrscheinlich sogar um einiges effizienter. Hinzu kommt noch die Fertigungsproblematik, die bei PPC doch sehr viel teurer werden könnte, denn GloFo und TSMC haben Kapazität und Erfahrung, aber nur mit x86. ARM ist einfach zu langsam, also bleibt nur x86. Für andere ISAs gibts keine effizienten CPU-Designs und vorhandene CPUs (Praxiserfahrung). Bleibt im Endeffekt nur die Frage ob Steamroller oder Jaguar, ich bin da eher für Steamroller, da man dort auf FMA4 und XOP nutzen könnte.

][immy
2012-10-28, 14:14:37
Wie ist eigentlich die Leistung der AMD X86 Prozessoren verglichen mit IBMs aktuellen Prozessoren ? Ist man da in etwa auf Augenhöhe, schließlich ist ja nicht interessant vieviel langsamer man ist verglichen mit Intel, die sind ja wie schon gesagt keine Option, sondern der Vergleich mit IBMs Power PC.

Naja die Xbox 360 CPU war nicht gerade der Renner gegenüber den damaligen AMD k8 cpus. Vermutlich mussten sie daher das ding für die damalige Zeit so hoch Takten.
die Power PC Architektur ist halt nicht gerade der Renner, außer in spezialfällen.
Der Cell ist ja auch nicht grad der Renner außer in spezialfällen. Aber den Konsolen mangelt es aktuell eher seltener an CPU Leistung. Meist ist es der Speicher oder die gpu die vorher schlapp machen.

S940
2012-10-28, 14:22:45
IBM hat derzeit gar kein Design, das man bei einem Auftragsfertiger herstellen könnte. Power7 braucht SOI und eDRAM - das fertigt so nur IBM selbst.Aber irgendwas vom IBM mit eDRAM läuft doch in 32nm bei GF in Malta vom Band ... hast Du vielleicht das Fertigungsabkommen mit GF übersehen:
The chips Globalfoundries is manufacturing for IBM feature embedded dynamic random access memory (eDRAM) technologyhttp://www.eetimes.com/electronics-news/4234192/Globalfoundries--N-Y--kicks-off-production
Off. Pressemeldung: http://www.globalfoundries.com/newsroom/2012/20120109.aspx

Lightning
2012-10-28, 14:44:38
[immy;9521278']Naja die Xbox 360 CPU war nicht gerade der Renner gegenüber den damaligen AMD k8 cpus. Vermutlich mussten sie daher das ding für die damalige Zeit so hoch Takten.

Naja. Das beste was man damals auf dem PC von AMD kriegen konnte war ein 2.4 GHz K9 (Athlon 64 X2). In der Singlethreaded-Leistung sicherlich sehr weit vor Xenon. Aber das war auch eine High End-CPU, zu teuer und zu hohe Leistungsaufnahme für eine Konsole.
Ich denke, Xenon war schon ganz okay für die Zeit.

[immy;9521278']die Power PC Architektur ist halt nicht gerade der Renner, außer in spezialfällen.

PowerPC ist doch nur ein Befehlssatz, das alleine sagt gar nichts über die Leistung aus. Power7 hat mit Xenon z.B. überhaupt nichts am Hut. Auch die Wii-CPU hatte OoOE mit deutlich mehr IPC.

Deinorius
2012-10-28, 16:07:15
Alles was über 1GB RAM geht braucht eigentlich schon 64Bit um maxmal effizient ausnutzbar zu sein. 2GB RAM ist schon nichtmehr effizent nutzbar und 4GB RAM braucht definitiv in der Praxis 64Bit. Von daher ist für die nächste Generation 64Bit essenziell. 4GB haben beide Konsolen minimum, da bin ich mir ziemlich sicher, denn sonst wird es schwierig die neuen Engines wie UE4 oder CryE3 wirklich voll nutzbar zu machen. Wartet mal ab, was 2013 für den PC kommt, mit Win32 wird man da nicht mehr weit kommen.

[...]


Schöne Zusammenfassung. Bei der Frage zu 64Bit habe ich den Fehler gemacht, zu stark mit dem PC verglichen zu haben. Na mal sehen, wie sich dann die Spielelandschaft wirklich ändern wird.

Coda
2012-10-28, 16:20:18
Auf dem PC brauchst du für 4GiB Speicher erst Recht 64 bit.

Exxtreme
2012-10-28, 16:45:12
Macht 64Bit überhaupt Sinn? Ich gehe jetzt davon aus, dass beide Konsolen insgesamt nicht mehr als 4 GB RAM haben werden.
Also ich weiss aus der Praxis, dass man mit 32 Bit schon ab ~1,4 GB so seine Probleme bekommt Speicher anzufordern. Kann sein, dass kein Speicher mehr in der gewünschten Größe verfügbar ist.

Deinorius
2012-10-28, 17:01:36
@Exxtreme
Interessant, gut zu wissen.

Felixxz2
2012-10-28, 18:06:31
Außerdem gibts doch eh keine 32 Bit CPUs die in Frage kommen. Bis auf Atom und ARM ist alles 64 Bit, zumindest in dem Performancebereich.

Coda
2012-10-28, 18:44:42
Atom ist 64 bit.

Felixxz2
2012-10-28, 18:51:49
Aso, ham die das geändert?
Ältere waren doch IIRC noch 32 Bit?

Coda
2012-10-28, 19:28:48
Waren schon immer 64 bit, nur manche hat Intel absichtlich verkrüppelt.

Ailuros
2012-10-28, 19:44:11
Waren schon immer 64 bit, nur manche hat Intel absichtlich verkrüppelt.

Ist zwar verdammt OT, aber es ist fuer Intel schon eine Schande dass sie Haswell nicht frueher fertig hatten. Diese AMD only Masche fuer zuekuenftige Konsolen ist zwar eine Eulogie fuer AMD selber und vielleicht auch fuer Entwickler da sie wohl weniger Unterschiede zwischen Architekturen beruecksichtigen muessen, aber mir waere es trotzdem lieber wenn der Teig etwas anders ueber mehrere IHVs verteilt waere.

Ich lese uebrigens zunehmend in letzter Zeit was fuer ein Vorteil es fuer AMD langfristig bedeuten koennte fuer Konsolen Spiele-Entwicklung (siehe Konsole zu PC ports), aber ich frage mich ernsthaft wie das Ganze ins Bild passen soll mit der insgesamten neuen Strategie von AMD langfristig.

Coda
2012-10-28, 20:07:47
Wieso Haswell? Was hätte Haswell denn für fundamentale Vorteile gegenüber Ivy Bridge in einer Konsole?

Überhaupt gibt es genügend Gründe, warum man sich auf die Spielchen von Intel nicht mehr einlässt.

Skysnake
2012-10-28, 20:30:29
Ist zwar verdammt OT, aber es ist fuer Intel schon eine Schande dass sie Haswell nicht frueher fertig hatten. Diese AMD only Masche fuer zuekuenftige Konsolen ist zwar eine Eulogie fuer AMD selber und vielleicht auch fuer Entwickler da sie wohl weniger Unterschiede zwischen Architekturen beruecksichtigen muessen, aber mir waere es trotzdem lieber wenn der Teig etwas anders ueber mehrere IHVs verteilt waere.

Ich lese uebrigens zunehmend in letzter Zeit was fuer ein Vorteil es fuer AMD langfristig bedeuten koennte fuer Konsolen Spiele-Entwicklung (siehe Konsole zu PC ports), aber ich frage mich ernsthaft wie das Ganze ins Bild passen soll mit der insgesamten neuen Strategie von AMD langfristig.

Naja, dass die APUs eben noch besser abschneiden im Vergleich zu Intel und das man möglichst reine APU-Systema als Zockerkisten absetzen kann.

Damit hat man dann nämlich ein unschlagbares Preis/Leistungsverhältnis, bzw. kann genau das machen was Intel aktuell auch macht. Nicht zwingend arg viel schneller im Schnitt, aber eben bei Games, und damit wander ne Intel in die meisten Gamer-Rechner.

Halt APU==Gamer und CPU==Server und dazwischen mehr oder weniger nichts mehr. Das würde AMD schon ziemlich rein laufen.

Ailuros
2012-10-28, 20:31:58
Wieso Haswell? Was hätte Haswell denn für fundamentale Vorteile gegenüber Ivy Bridge in einer Konsole?

Ich dachte die GPU ist ein weiterer Schritt vorwaerts?

Überhaupt gibt es genügend Gründe, warum man sich auf die Spielchen von Intel nicht mehr einlässt.

*hust* LOL :D stimmt natuerlich auch wieder.

Deinorius
2012-10-28, 20:41:07
Ich dachte die GPU ist ein weiterer Schritt vorwaerts?


Für eine Konsole wäre das immer noch zu viel CPU-Leistung bei zu wenig GPU-Leistung.

Coda
2012-10-28, 20:45:44
Ich dachte die GPU ist ein weiterer Schritt vorwaerts?
Intel-IGP in einer Konsole? Ich muss mal kurz zum Lachen in den Keller, sonst gibt's Beschwerden von den Nachbarn.

Botcruscher
2012-10-28, 20:59:38
Ich behaupte mal dreist, man könnte mit dem Ding auch etwas brauchbares anfangen. Deswegen bleibt das ganze Konstrukt aber trotzdem zu unausgewogen und teuer.

AMD verrennt sich mit den APUs auch irgendwie. Wer Grafik will steckt eine richtige Karte in den Rechner. Wer das macht will auch gleichzeitig fett CPU Leistung bei gutem Stromverbrauch. Im Notebookmarkt steckt man eine gleichwertige GPU zur APU.:freak:
Der Grafikteil wird eh das interessanteste bei den neuen Konsolen.

Ailuros
2012-10-28, 21:01:27
Intel-IGP in einer Konsole? Ich muss mal kurz zum Lachen in den Keller, sonst gibt's Beschwerden von den Nachbarn.

Wie die Haswell GPU wirklich aussehen wird kann ich noch nicht wissen, denn von Papierfranzen hat man meistens nur Indizien. Sonst tut es mir leid sind Eure Reaktionen uebertrieben denn sie koennten durchaus einen SoC einer N Konsolen-Vorraussetzung durchaus anpassen da es ist eben nicht so ist dass Einheiten-Anzahlen starr sind und nicht bis zu einem Punkt skalierbar. Es ist eben nicht so dass XboxNext oder PS4 jeweils herkoemmliche SoCs stecken die heute kaufbar sind.

Es ja so oder so eine nutzlose Debatte, da mit Sicherheit Intel nichts in kommenden Konsolen erreicht hat. Aber es ist auch kein besonderes Geheimnis dass Apple mehr GPU Leistung beantragt hat.

Für eine Konsole wäre das immer noch zu viel CPU-Leistung bei zu wenig GPU-Leistung.

Siehe oben; in solch einem theoretischem Fall kann man ziemlich viel anpassen. Was uebertolles hat denn AMD Grafik-Technologie dass sie von ein paar W pro GPU bis auf 200+W mit der gleichen Architektur von oben nach unten skalieren kann? In smartphones passt das Zeug natuerlich nicht rein, aber dieses gilt auch fuer Haswell und GeForce.

MR2
2012-10-28, 21:15:38
Gameboy Color U vielleicht...

Zum Glück hat Intel nicht überall den Fuß in der Tür.

Coda
2012-10-28, 21:53:58
Wie die Haswell GPU wirklich aussehen wird kann ich noch nicht wissen, denn von Papierfranzen hat man meistens nur Indizien. Sonst tut es mir leid sind Eure Reaktionen uebertrieben denn sie koennten durchaus einen SoC einer N Konsolen-Vorraussetzung durchaus anpassen da es ist eben nicht so ist dass Einheiten-Anzahlen starr sind und nicht bis zu einem Punkt skalierbar. Es ist eben nicht so dass XboxNext oder PS4 jeweils herkoemmliche SoCs stecken die heute kaufbar sind.
Hast du mal den mm²/Performance bei Intel angeschaut was die GPUs angeht? Das ist ultra grausam.

Das Problem ist, dass sie keinen High-Density-Prozess haben wie AMD inzwischen. Sie fertigen die GPUs immer noch mit den CPU-Tools. Das wird niemals die Effizienz von NVIDIA oder AMD erreichen.

Ich glaube nicht, dass sich das mit Haswell ändert, das ist der gleiche 22nm-Prozess wie Ivy Bridge.

Ailuros
2012-10-28, 22:12:16
Hast du mal den mm²/Performance bei Intel angeschaut was die GPUs angeht? Das ist ultra grausam.

Haswell laeuft schon auf einer anderen Schiene; ob dieses jetzt wieder buntes marketing ist oder ob etwas daran liegt kann ich noch nicht wissen.

Das Problem ist, dass sie keinen High-Density-Prozess haben wie AMD inzwischen. Sie fertigen die GPUs immer noch mit den CPU-Tools. Das wird niemals die Effizienz von NVIDIA oder AMD erreichen.

Ich sehe es sogar an ihrem small form factor Zeug; die area pro GPU block ist unendlich gross ohne besonderen Grund und wohl auch der Grund warum sie nie ihren Herstellungsprozess-Vorteil richtig ausspielen konnten.

Ich glaube nicht, dass sich das mit Haswell ändert, das ist der gleiche 22nm-Prozess wie Ivy Bridge.

Tja das dumme ist eben dass im Hintergrund ganz anderes gefluestert wird; wie gesagt nichts konkretes bis man es in Echtzeit sieht, aber ich wach auch nicht morgens auf und tipp hier irgendwelche Schnappsideen herum die mir nur so in den Kopf schiessen.

Coda
2012-10-28, 23:09:33
Gut, kann schon sein, dass Intel für Haswell den 22nm-Prozess in die Richtung anpasst. Ich hätte sowas aber eher für die nächste Node erwartet.

Skysnake
2012-10-29, 08:45:38
Tja das dumme ist eben dass im Hintergrund ganz anderes gefluestert wird; wie gesagt nichts konkretes bis man es in Echtzeit sieht, aber ich wach auch nicht morgens auf und tipp hier irgendwelche Schnappsideen herum die mir nur so in den Kopf schiessen.
Nein? :eek:

;D:biggrin:

HOT
2012-10-29, 12:44:59
Intel muss nicht auchnoch den ganzen Spielemarkt dominieren. Es ist schon ganz gut, dass AMD hier bei Spielen in Zukunft besonders punkten kann.

Ailuros
2012-10-29, 13:33:34
Intel muss nicht auchnoch den ganzen Spielemarkt dominieren. Es ist schon ganz gut, dass AMD hier bei Spielen in Zukunft besonders punkten kann.

Mit dem lowest common denominator dominieren sie mit ihren Volumen so oder so quasi den Markt. Glaub bloss nicht dass Intel bei wichtigen Entscheidungen keine Stimme hat.

HOT
2012-10-29, 13:38:50
Mit dem lowest common denominator dominieren sie mit ihren Volumen so oder so quasi den Markt. Glaub bloss nicht dass Intel bei wichtigen Entscheidungen keine Stimme hat.

Hab ich ja nicht behauptet ;). Um so besser ist es doch, dass AMD die Konsolenhardware stellt.

Wir werden sowieso die Wiedergeburt des PC in Spielen sehen, Intel hat schon weiterhin sein Gewicht, auch bei Spielen. Der große Verlierer könnte in ein paar Jahren höchstens NV sein, weil sowohl Intel als auch AMD ihre Grafik zu stark mit den CPUs verschmelzen könnte.

Gaestle
2012-10-29, 13:40:20
Aber es ist auch kein besonderes Geheimnis dass Apple mehr GPU Leistung beantragt hat.

Bei Wem für Was? :biggrin:

robbitop
2012-10-29, 13:44:52
Bei Intel. Schon seit langem. Eigentlich wollten sie GT3 schon bei Ivy als Exklusiv-GPU. Da hat Intel aber nicht mitgespielt. Apple wollte das Teil vor allem für ihre Notebooks bis 13".

Ailuros
2012-10-29, 13:49:37
Hab ich ja nicht behauptet ;). Um so besser ist es doch, dass AMD die Konsolenhardware stellt.

Ein quasi "Konsolen-Monopol" fuer Konsolen GPUs von einem IHV dass sich zu etwas um einiges bescheideneres umstrukturieren will, hinterlaesst eher ein paar wichtige Fragezeichen die ich selber noch nicht zu beantworten wage. Die Mehrzahl der schon durchgesickerten Entscheidungen klingen mir zumindest nach Bloedsinn, aber ich warte erstmal die diesbezueglichen offiziellen Ankuendigungen seitens AMD ab.

Wir werden sowieso die Wiedergeburt des PC in Spielen sehen, Intel hat schon weiterhin sein Gewicht.

Dass es langfristig mit den neuen Konsolen in der Zukunft etwas lebendiger wird wenn danach einige Ports fuer den PC ankommen will ich nicht bezweifeln. Eine "Wiedergeburt" ist mir aber eine zu optimistische Beschreibung.

Gaestle
2012-10-29, 13:51:55
Bei Intel. Schon seit langem. Eigentlich wollten sie GT3 schon bei Ivy als Exklusiv-GPU. Da hat Intel aber nicht mitgespielt. Apple wollte das Teil vor allem für ihre Notebooks bis 13".

Ah, danke.

Es hätte ja noch andere Möglichkeiten gegeben. Gab's da nicht mal so ein Konsolengerücht mit Apple? Und es geht ja das Gerücht, dass 2014 in etwa die GPU-Power einer 360 im mobilen Sektor ankommen könnte.

Muss hier aber alles nicht (nochmal) durchgekaut werden, die Aussage "Intel für Notebooks" beantwortet ja die Frage. :)

Ailuros
2012-10-29, 13:56:03
Apple wird nie eine waschreine Konsole veroeffentlichen IMHO. Kann sein dass sie es vielleicht ueber AppleTV schleussen oder sonst welches generisches home entertainment Geraet. In solch einem Fall ist es eben indirekte Konkurrenz mit den gleichen billigen Gelegenheitsspielchen wie smart-phones/tablets gegen handheld Konsolen.

Hallo
2012-10-30, 06:53:07
Der Hauptgrund gegen Intel ist einfach das die ihre Designs generell nicht verkaufen. Und der Grund gegen Nvidia ist, dass sogar Mondpreise fuer Ihre "alten" Designs verlangen und dann oben drauf noch sehr restriktive Lizenzbedingungen haben.

Das leuchtet ein,thx.

Danke auch an Gipsel fuer die ausfuerliche Erklaerung in Post #4115:up:

Ihr habt mich ueberzeugt.Dennoch bin ich sehr skeptisch was die Perfomance betreffen wird aber lasse mich gerne eines besseren belehren und hoffe das wir nicht mit 30fps Kram belaestigt werden was definitiv zum grossen Teil an den Spieleentwicklern liegen wird.

Ailuros
2012-10-30, 07:11:21
Und es geht ja das Gerücht, dass 2014 in etwa die GPU-Power einer 360 im mobilen Sektor ankommen könnte.


Tschuldigung hatte ich uebersehen ;) Es ist kein Geruecht sondern eine Taktsache. Die hw bei den kommenden Konsolen wird aber auch um etliche Male schneller sein zu dem Zeitpunkt; es geht eben nicht um die Leistung sondern eher um das Potential eines jeglichen Markts. Konsolen strecken sich ueber ein paar hunderte Millionen Geraete, waehrend sich small form factor eher in der Milliarden Region bewegt. Statistisch werden pro Tag 1Mio mobile Geraete ausgeliefert.

Natuerlich sind es nicht direkt vergleichbare Welten und es spielt wohl auch nicht jeder Spiele auf einem smartphone oder tablet. Aber man braucht keine besondere Glaskugel mehr um einzusehen dass computing sich zunehmend in die mobile Region bewegt und das wird auch langfristig die Richtung sein in die sich ISVs bewegen werden.

tobor
2012-10-30, 18:53:56
[immy;9513040']mhh.. würde man es denn bei nächsten xbox mit AMD-CPU denn schaffen, das das ding auch abwärtskompatibel bleibt?

Ich wäre ja ziemlich sauer, wenn ich Spiele wie Mass Effect und Witcher nicht auf der nächsten Box an und zu mal spielen kann...(und genauso wenig will ich ein zweites Mal dafür abgezockt werden)

Und langweilig ist es auch, wenn jeder die selbe Technologie verwendet.

Hoffe mal,daß sich dieses Gerücht nicht bewahrheitet.

Deinorius
2012-10-30, 19:22:01
Ich würde es weniger Gerücht als Vermutung nennen. Hoffe besser nicht. Bei der PS4 schon mal gar nicht.

Gipsel
2012-10-30, 19:28:53
Ich würde es weniger Gerücht als Vermutung nennen.Dann nenne ich das mal halbwegs sicher. :rolleyes:

Deinorius
2012-10-30, 19:32:03
Das sowieso, ich wollte nur weg von dem "Gerücht".

HOT
2012-10-31, 14:01:28
Kompatibilität zu alten Games ist doch eher unwahrscheinlich bei einer solch anderen Architektur. Dafür wird man dann ne alte XBox behalten müssen. Wer das nicht akzeptiert, kann ja zum PC greifen ;).

Felixxz2
2012-10-31, 21:18:22
Bei der 360 hat man auch x86 auf PowerPC emuliert. Umgekehrt doch acuh möglich, nur ob die nächste Xbox schnell genug ist...keine Ahnung.

Sven77
2012-10-31, 21:22:06
Verstehe dieses Rumreiten auf der Abwärtskompatibilität nicht, die aktuellen Konsolen kosten schon jetzt fast nix mehr, ich geh mal davon aus das die Käufer von Next-Gen sowieso die Current-Gen besitzen. Wofür also das Ganze? Nur das ein Gerät weniger im Wohnzimmer steht?

Ailuros
2012-10-31, 22:00:09
Verstehe dieses Rumreiten auf der Abwärtskompatibilität nicht, die aktuellen Konsolen kosten schon jetzt fast nix mehr, ich geh mal davon aus das die Käufer von Next-Gen sowieso die Current-Gen besitzen. Wofür also das Ganze? Nur das ein Gerät weniger im Wohnzimmer steht?

Falls Du es nicht bemerkt haben solltest, das Thema backwards compatibility ist ein heiss-besuchtes Thema vor jedem Konsolen/Handheld-Konsolen release.

Sven77
2012-10-31, 22:14:32
Das habe ich schon bemerkt, nur kann ich es nicht nachvollziehen..

Deinorius
2012-10-31, 22:20:27
Am schönsten wäre es ja, wenn die Abwärtskompatibilität so funktionieren könnte, wenn Last-Gen Spiele auf den Next-Gen Geräten mit höherer Auflösung und/oder AF/AA laufen könnten. Wäre wirklich ein netter Zusatz. ;)

Aber aufgrund der (mehr oder minder) starken Optimierung der Spiele auf die Konsolen kann man froh sein, wenn überhaupt etwas läuft.

Sven77
2012-10-31, 22:23:28
Am schönsten wäre es ja, wenn die Abwärtskompatibilität so funktionieren könnte, wenn Last-Gen Spiele auf den Next-Gen Geräten mit höherer Auflösung und/oder AF/AA laufen könnten. Wäre wirklich ein netter Zusatz. ;)

Das wäre eine ganz andere Geschichte, würde aber viele "HD-Remakes" obsolet machen und damit wäre eine Kuh zum melken weniger da ;)

Deinorius
2012-10-31, 22:30:58
Auf alle Fälle. Dabei sind HD-Remakes die saubereren Versionen, die nur leider was kosten. Aber die gibt es ja auch erst seit der PS3 und da sehe ich es weniger kritisch, da selbst Laien den Unterschied sehen könn(t)en. Mach ein HD-Remake eines PS360 Spieles und man wird sich fragen, was der Scheiß soll, welcher nur kostet, zumindest, wenn man das Spiel schon vorher hatte. Für all jene, die keine jetzige Konsole hatten, aber an dem Spiel interessiert sind, wäre das immer noch verlockend, aber wie hoch wäre die Zahl der Interessenten?

Sven77
2012-10-31, 22:34:50
Kommt immer drauf an.. die Halo Anniversary ist imho ein gutes Beispiel wie so ein Remake auszusehen hat um überhaupt eine Daseinsberechtigung zu haben. Einfach den alten Rotz ohne neuen Content zu porten sollte mit Boykott abgestraft werden..

Deinorius
2012-10-31, 22:50:53
Reichen Erfolge/Trophäen als neuer Content für dich? :ugly:

Mich würde es mehr ankotzen, wenn der Preis zu hoch wäre. Und alles höher als 30-40 € wäre zu hoch. Auf der anderen Seite:

Ico/Shadow of the Colossus - ab 29 € (ursprünglich rund 40 €?)
Tomb Raider Trilogy - ab 18 € (ursprünglich 30 €)
God of War Collection - ab 31 € (ursprünglich 50 €)

Gute Preise für mehr als nur ein Spiel kann sich sehr wohl sehen lassen, selbst wenn das grafische Upgrade nicht besonders wäre, wobei da God of War noch schlechter abschneidet. Wenn man die Spiele nur einzeln verkaufen würde, dürfte man sich umso mehr aufregen.
Diejenigen, die die Spiele schon besitzen, müssten sich eher fragen, wieso sie die Spiele überhaupt nochmal auf der nächsten Konsole haben wollen.
Zum nochmaligen Spielen? Für die Sammelwut? Also bei Ico/Shadow of Colossus war es beides. :D Und bei Ôkami werde ich auch sündigen. :ugly:

Ailuros
2012-10-31, 23:11:42
Womoeglich irgend ein nostalgia-trip. Mach ich ab und zu beim PC auch aber im besten Fall nur fuer eine map oder so und dann aus damit. Man weiss ja schon wie es weitergeht und von Grafik-Pracht gibt es auch nichts besonderes zu bewundern.

Aber nichts dagegen; es gibt immer noch Leute die fieberhaft uraltes arcade Zeug spielen.

Deinorius
2012-10-31, 23:17:23
Arcade Zeug ist ja wieder was anderes. Die Story eines Spieles kennt man dann ja mittlerweile. Gegen einen Freund kann man immer noch spielen.

Telema
2012-11-01, 19:55:58
Schon gepostet worden? :

http://de.ign.com/news/16421/PS4-Neue-auf-AMD-A10-basierende-Dev-Kits-machen-die-Runde

YfOrU
2012-11-01, 21:07:05
Falls Du es nicht bemerkt haben solltest, das Thema backwards compatibility ist ein heiss-besuchtes Thema vor jedem Konsolen/Handheld-Konsolen release.

Exakt. Allerdings ändert sich das Vertriebsmedium immer mehr Richtung DLC und der erworbene Content wird fest mit dem Nutzerkonto verknüpft.

Hinzu kommen in Zukunft in jedem Fall kürzere Entwicklungszyklen da der Markt für Unterhaltungsgeräte schnelllebiger geworden ist und die Hardware der Konsolen weniger extravagant ausfällt um Kosten zu sparen.

Einen gewissen Zwang zu einer zumindest eingeschränkten Abwärtskompatibilität sehe ich hier mittelfristig durchaus aufkommen - dürfte aber aufgrund der näheren Orientierung an verbreiteten Standards auch leichter umsetzbar sein als in der Vergangenheit.

Deinorius
2012-11-01, 21:44:09
Sofern sowohl Xbox Next und PS4 auf x86 setzen, dürfte es leichter werden. Zu begrüßen wäre es ja.

Felixxz2
2012-11-01, 21:52:50
Schon gepostet worden? :

http://de.ign.com/news/16421/PS4-Neue-auf-AMD-A10-basierende-Dev-Kits-machen-die-Runde

Nichts neues soweit, nur die 8 bzw. 16GB klingen sehr vielversprechend. Würde dann aber wohl einen Split in DDR3 und GDDR5 bedeuten. Letzterer wäre dann noch sehr spannend, aber ein großer System RAM würde auf jeden Fall schon mal einen wahnsinns Push für Sachen wie GTA oder TES bedeuten.

dargo
2012-11-01, 22:01:36
Nichts neues soweit, nur die 8 bzw. 16GB klingen sehr vielversprechend.
Dir ist schon klar, dass es dort um die DEV-Kits angeblich geht?

Felixxz2
2012-11-01, 22:23:13
Ja ist es. Aber ums mal überspitzt zu formulieren: Man baut nicht 16GB in ein Dev Kit und dann 2GB in richtige Konsole. Kurz: Ich nehms als Ausblick darauf dass die Hersteller sich der Problematik von zu wenig RAM (aktuelle Gen) bewusst sind und es dieses Mal besser machen.

Knuddelbearli
2012-11-01, 22:36:38
dev kits hatten bei der letzten generation immer doppelt soviel speicher hiesse also 4 oder 8 GB! *lechz*

wobei Multitaskin sich davon wohl mindestens 1-2 GB schnappen wird

Lightning
2012-11-01, 23:41:09
Kurz: Ich nehms als Ausblick darauf dass die Hersteller sich der Problematik von zu wenig RAM (aktuelle Gen) bewusst sind und es dieses Mal besser machen.

Naja, ich sehe das eher als die übliche Steigerung. Die Xbox hatte 64 MB, die 360 das Achtfache, und die "720" jetzt vermutlich 4 GB, also wieder das Achtfache. Auf dem PC kriegt man heute schon 8 GB quasi hinterhergeschmissen. Und wenn die "720" erst mal ein paar Jahre auf dem Markt ist, werden die 4 GB aus PC-Sicht ähnlich mickrig erscheinen wie heute die 512 MB der 360.
Imo macht das aber nichts, ich sehe die RAM-Größe nicht als den großen Flaschenhals, auch bei der jetzigen Generation nicht.

Deinorius
2012-11-01, 23:48:45
Imo macht das aber nichts, ich sehe die RAM-Größe nicht als den großen Flaschenhals, auch bei der jetzigen Generation nicht.


Sicher nicht das einzige Problem, aber was ist dann bitte der große Flaschenhals?

Tesseract
2012-11-02, 00:42:59
Sicher nicht das einzige Problem, aber was ist dann bitte der große Flaschenhals?
das frage ich mich auch. über den speicher hat man ja schon zum release der konsolen gejammert.

Ronny145
2012-11-02, 00:58:51
das frage ich mich auch. über den speicher hat man ja schon zum release der konsolen gejammert.


Vor allem bei den Devs ist das Gejammer bezüglich Speicher am Größten. Das hat was zu bedeuten. 4GB sollten es schon sein.

Telema
2012-11-02, 01:43:52
Könnte es sich evtl negativ für NV auswirken wenn MS und Sony auf AMD CPU und GPU setzen?

Coda
2012-11-02, 02:54:25
Theoretisch ja, praktisch eher nicht.

S940
2012-11-02, 04:16:31
Könnte es sich evtl negativ für NV auswirken wenn MS und Sony auf AMD CPU und GPU setzen?Höchstens kurz nach dem Launch. Da könnten Spiele 1A auf ATi GPUs optimiert sein und nvidia eventuell noch keine Zeit gehabt haben, den Treiber zu tunen.
Hätte dann den Vorteil, dass man in den ersten Spieletests etwas besser dastünde.

y33H@
2012-11-02, 11:34:41
Die aktuellen Dev-Kits haben nur eine APU, keine zusätzliche dedizierte Karte? Hmmm ...

robbitop
2012-11-02, 12:01:05
Naja die PS4 und die Xbox 3 sollen wohl nur SoCs / APUs bekommen. Vermutlich aber etwas stärkere.

(del676)
2012-11-02, 12:21:46
Freut mich fuer AMD. Aergert mich wenn die Entwicklung der Spielgrafik nun weiterhin stagniert. :(

Lightning
2012-11-02, 12:25:09
Sicher nicht das einzige Problem, aber was ist dann bitte der große Flaschenhals?

Ehrlich gesagt halte ich die Xbox 360 für ein recht ausgewogenes System ohne großen Flaschenhals.

AnarchX
2012-11-02, 12:29:14
Freut mich fuer AMD. Aergert mich wenn die Entwicklung der Spielgrafik nun weiterhin stagniert. :(
Die PC-Ports der Next-Gen-Konsolen dürften deutlich höhere Anforderungerungen haben als Current-Gen. Erst recht wenn weiterhin irgendwo zwischen 720p und 1080p gerendert wird und man am PC auf 4K spielen will.

Ehrlich gesagt halte ich die Xbox 360 für ein recht ausgewogenes System ohne großen Flaschenhals.
Der RAM ist schon etwas knapp, wenn man vergleichbare PC-Systeme mit 2GiB für die CPU und 512MiB VRAM heranzieht.

Lightning
2012-11-02, 12:37:50
Der RAM ist schon etwas knapp, wenn man vergleichbare PC-Systeme mit 2GiB für die CPU und 512MiB VRAM heranzieht.

Das ist eine mögliche Sichtweise. Die andere ist, dass man auf dem PC überdurchschnittlich viel hat (und für die meisten Spiele nicht annähernd so viel braucht). Worauf ich auch hinaus will: Der PC ist nicht der Maßstab, an dem sich Konsolen messen müssen.
Sicher, mehr RAM schadet nie und würde sich bei den aktuellen Konsolen schon sinnvoll einsetzen lassen, das kann man allerdings auch für die Rechenleistung sagen.

Coda
2012-11-02, 13:10:14
Der RAM limitiert bei der Xbox 360 und vor allem PS3 heute massiv. Es ist bei den RAM-Preisen sicher eine gute Strategie, lieber etwas mehr draufzulegen um das Problem nicht mehr zu haben.

y33H@
2012-11-02, 13:31:47
Alleine, dass aus Speichergründen für die PS3 kein Skyrim Dawnguard-DLC kommt ist bitter.

M4xw0lf
2012-11-02, 13:48:37
Ich hatte noch gar nicht mitbekommen, dass es komplett gecancelt wurde. Lol @ Sony.

][immy
2012-11-02, 13:56:50
Das ist eine mögliche Sichtweise. Die andere ist, dass man auf dem PC überdurchschnittlich viel hat (und für die meisten Spiele nicht annähernd so viel braucht). Worauf ich auch hinaus will: Der PC ist nicht der Maßstab, an dem sich Konsolen messen müssen.
Sicher, mehr RAM schadet nie und würde sich bei den aktuellen Konsolen schon sinnvoll einsetzen lassen, das kann man allerdings auch für die Rechenleistung sagen.

beim pc liegt das meist aber eher am 32-bit System, wo bei maximal 2 GB (eher weniger aufgrund von Speicherfragmentierung) normalerweise Schluss ist. gerade wo z.B. noch ein blu-ray oder DVD Laufwerk im Einsatz ist wäre es besser gewesen mehr Speicher zu haben allein um Daten schnell genug nachladen zu können. dann wäre zwar der ein oder andere ladebildschirm mal etwas länger präsent, anschließend könnten aber mehr Inhalte dargestellt werden, weil einfach die speichermenge ausreichend ist.
von höher aufgelösten Texturen etc mal ganz abgesehen.

dildo4u
2012-11-02, 14:30:21
Ich hatte noch gar nicht mitbekommen, dass es komplett gecancelt wurde. Lol @ Sony.
Die arbeiten weiter dran und haben die Unfähigkeit zu 100% auf sich genommen.

http://www.ign.com/articles/2012/10/05/bethesda-skyrim-ps3-dlc-problems-on-us-to-solve

Coda
2012-11-02, 14:40:40
Sure. Unfähigkeit :rolleyes:

Hint: Es ist nicht nur Bethesda, das dieses Problem hat. Und es ist ein großes. Da musst du um Kilobytes kämpfen.

Locuza
2012-11-02, 14:49:21
Da musst du um Kilobytes kämpfen.
Hört sich nach Spaß an. ;D

dildo4u
2012-11-02, 15:00:49
Sure. Unfähigkeit :rolleyes:

Hint: Es ist nicht nur Bethesda, das dieses Problem hat. Und es ist ein großes. Da musst du um Kilobytes kämpfen.
Das ganze basiert immer noch auf der uralten Gamebryo Engine,Rockstar hat das einzig richtige gemacht und extra ne neue Engine für diese Konsolen geschrieben.Die sogar im laufen der Zeit immer mehr kann.Bei GTA5 gibt z.b wieder Flugzeuge,mit Solchen drastischen Anforderungen muss sich Bethesda nich mal beschäftigen.

Coda
2012-11-02, 15:13:33
Das liegt nicht an der Engine. Skyrim ist einfach so riesig und was der Spieler machen kann völlig unvorhersehbar, dass es ein Albtraum ist den Speicher zu managen. Und dann legt die PS3 halt als erstes die Ohren an, mit ihren mickrigen 256MiB RAM.

Locuza
2012-11-02, 15:20:30
Das liegt nicht an der Engine. Skyrim ist einfach so riesig und was der Spieler machen kann völlig unvorhersehbar, dass es ein Albtraum ist den Speicher zu managen. Und dann legt die PS3 halt als erstes die Ohren an, mit ihren mickrigen 256MiB RAM.
Das ist ja bei GTA kein großer Unterschied oder?
Was mich jedenfalls verwundert, ist die Tatsache das man Skyrim auf die PS3 programmiert bekommen hat, beim DLC aber einstecken muss.

Coda
2012-11-02, 15:24:11
GTA hat wesentlich weniger game state als Skyrim.

Was mich jedenfalls verwundert, ist die Tatsache das man Skyrim auf die PS3 programmiert bekommen hat, beim DLC aber einstecken muss.
Bringt das Fass halt zum überlaufen. Wahrscheinlich läuft es 99,9% gut und ab und zu crasht es. Das kann man halt nicht releasen.

megachip800
2012-11-02, 15:45:18
Freut mich fuer AMD. Aergert mich wenn die Entwicklung der Spielgrafik nun weiterhin stagniert. :(

Die schlimmsten Befürchtungen scheinen sich nun zu bewahrheiten die Nextgen Konsolen werden Lowendsysteme werden bei denen primär Surfen, Netflix u. Social Communication im Vordergrund steht
und nicht gute Grafikleistung. Ich bin mal gespannt wie die Spieleentwickler reagieren werden wenn Sony ihnen das Finale Design zeigt und sie auf den Boden der Tatsachen zurückgeholt werden. Insbesondere von denen die im Vorfeld viel Tam Tam um Nextgen gemacht haben mit solchen Aussagen wie "..Sony wird uns
überraschen" oder "..Nextgen wird spektakulär werden" . Die 1080p bei 60 Bilder/s scheinen sich darauf zu
beziehen wenn man von "current Gen" ausgeht bei zukünftigen "next Gen" Spielen die sich von der Grafik
her an moderne Techdemos( Samaritan, Agnis P.) orientieren wäre der A10 Soc maßlos überfordert. Auch
in Sachen Fpu-Leistung kann der Prozessor mit modernen Intelprozessoren oder dem Power7 nicht mithalten. Sollte bei der Ps4 also tatsächlich keine separate GPU zum Einsatz kommen , dann frage ich mich wo da die
Leistung herkommen soll? Das Ding müßte dann mächtigaufgebohrt sein , so das man entweder über eine
große DIE-Fläche geht (400-600mm2) oder per Stacking eine größere Anzahl an Shaderunits/Fpu Einheiten
unterbringt und alles was unter 2 Tflops liegt wäre für eine moderne Konsole die 2013/2014 erscheint mehr als
enttäuschend. Zumal der A10 Soc in der Grundvariante ja nur ein 128 Bit Bus hat was für zukünftige
Anforderungen nun überhaupt nicht ausreicht. Also entweder sind die neuen Gerüchte unvollständig oder
die Ps4 wird wirklich der nicht der Brüller werden weil Sony Kosten sparen will und primär den Casualmarkt
anpeilt. Von 4k Auflösung scheint auch keiner mehr zu sprechen, ich brauche das eh nicht aber das wurde
doch im Vorfeld sehr oft gepuscht. Man mußte also doch zurückrudern....

MR2
2012-11-02, 16:44:01
...

Hint: Es ist nicht nur Bethesda, das dieses Problem hat. Und es ist ein großes. Da musst du um Kilobytes kämpfen.

Erinnert mich an meinen A1200, da kämpft man auch immer um genügend von den 2MB ChipMem zu haben;-)


Ich würde mir keine Gedanken machen, von wegen ohne Extra GPU. Ein A10-5800K ist sicher für ein DevKit von Vorteil, wenn AMD die CPU und GPU stellt.
Letzendlich will man wohl die Konkurrenz täuschen. Gestern war es ne Intel6Kern CPU + GTX570, heute nen A10-5800K, morgen wohl nen 2Moduler mit 7850 Derivat...:biggrin:

Es ist noch 1,5Jahre Zeit, bis dahin wird sich noch viel tun.

Coda
2012-11-02, 16:53:47
Es ist noch 1,5Jahre Zeit, bis dahin wird sich noch viel tun.
Das Design ist zu diesem Zeitpunkt schon längst final.

MR2
2012-11-02, 16:57:15
Da haste natürlich Recht...
Im Januar sollen wohl die finalen Kits verschickt werden, dann wird es interessant.

robbitop
2012-11-02, 17:01:24
Wenn jemand leakt... ;)

Körschgen
2012-11-02, 17:44:33
Könnte die wahrscheinlich schwache Grafiklösung evtl. sogar darauf hindeuten, dass es sich um cloudbasierte Konsolen handeln wird?

Zusammen mit dem Aufkauf Gaikais durch Sony könnte das doch durchaus Sinn ergeben oder?

Die APU wäre dann locker fähig die gestreamten Inhalte darzustellen...

Player18
2012-11-02, 17:49:24
GameStar-Meldung zu den PS4-DevKits (http://www.gamestar.de/hardware/konsolen/sony-playstation-4/sony_playstation_4,481,3006380.html).
Momentan sollen die Entwicklerkits mit einem modifizierten A10-Prozessor am AMD bestückt sein.
[..]
Der Arbeitsspeicher der Entwicklerkits besteht aus 8 bis 16 Gigabyte DDR3-RAM. Ein Blu-ray-Laufwerk ist ebenso integriert wie WLAN und ein HDMI-Port. Als Festspeicher soll ein Laufwerk mit mindestens 256 Gigabyte Kapazität zum Einsatz kommen - ob es sich dabei allerdings um eine SSD oder um eine herkömmliche Festplatte handeln wird, gaben die Softwareentwickler nicht preis.

Körschgen
2012-11-02, 17:55:06
Das habe ich auch gelesen... du meinst also, daraus könne man noch nichts großartig schließen!?

Gipsel
2012-11-02, 18:17:20
Die schlimmsten Befürchtungen scheinen sich nun zu bewahrheiten die Nextgen Konsolen werden Lowendsysteme werden bei denen primär Surfen, Netflix u. Social Communication im Vordergrund steht und nicht gute Grafikleistung. Ich bin mal gespannt wie die Spieleentwickler reagieren werden wenn Sony ihnen das Finale Design zeigt und sie auf den Boden der Tatsachen zurückgeholt werden. Insbesondere von denen die im Vorfeld viel Tam Tam um Nextgen gemacht haben mit solchen Aussagen wie "..Sony wird uns überraschen" oder "..Nextgen wird spektakulär werden" . Die 1080p bei 60 Bilder/s scheinen sich darauf zu beziehen wenn man von "current Gen" ausgeht bei zukünftigen "next Gen" Spielen die sich von der Grafik her an moderne Techdemos( Samaritan, Agnis P.) orientieren wäre der A10 Soc maßlos überfordert. Auch in Sachen Fpu-Leistung kann der Prozessor mit modernen Intelprozessoren oder dem Power7 nicht mithalten. Sollte bei der Ps4 also tatsächlich keine separate GPU zum Einsatz kommen , dann frage ich mich wo da die Leistung herkommen soll? Das Ding müßte dann mächtigaufgebohrt sein , so das man entweder über eine große DIE-Fläche geht (400-600mm2) oder per Stacking eine größere Anzahl an Shaderunits/Fpu Einheiten unterbringt und alles was unter 2 Tflops liegt wäre für eine moderne Konsole die 2013/2014 erscheint mehr als
enttäuschend. Zumal der A10 Soc in der Grundvariante ja nur ein 128 Bit Bus hat was für zukünftige Anforderungen nun überhaupt nicht ausreicht.Selten so viel Unüberlegtes auf einmal gelesen.

Überleg' doch mal, in welcher Strukturgröße werden die Chips der Konsolen gefertigt werden, wenn spätestens Mitte 2013 die Massenproduktion beginnt? Sicherlich nicht in 20nm sondern doch wohl höchstens 28nm. Was für ein Powerbudget steht üblicherweise bei einer Konsole zur Verfügung? Das sind vielleicht 200W. Mehr willst Du Dir gar nicht ins Wohnzimmer stellen. Welche 28nm GPUs bleiben deutlich darunter (die CPU, Speicher, SSD usw. zieht ja auch noch bißchen was)? Dann weißt Du ungefähr welche Region Du grafikleistungstechnisch ansteuern wirst. Kleiner Tipp, in dem Budget erreichst Du Deine 2 TFlop/s ohne größere Probleme und auch schon weit bevor Du vollkommen utopische 600mm² Die-Fläche ansteuerst.

Nimm dazu ein paar platz- und stromsparende Kerne (BD/PD ist vielleicht nicht optimal, um in einem gemeinsamen Diesize- und Powerbudget die maximale Leistung rauszuholen, 8 Jaguar-Kerne nehmen inklusive L2 weniger Platz ein als 4 BD-Kerne und verbrauchen auch wesentlich weniger, ohne L2 sind die 8 Kerne kleiner als ein einziges BD-Modul! Dabei haben die Dinger taktnormiert eine Leistung irgendwo zwischen K8 und K10 und rennen immerhin mit knapp 2GHz) und Du kannst alles zusammen in einen SoC mit <=300mm² packen. Wenn Sony unbedingt BD-Kerne benutzen will, dann werden sie dafür beim Stromverbrauch und der Diegröße bezahlen. Bekommen würden sie dafür eine höhere Singlethread-Leistung, aber in der Summe weniger Threads. Ob sich das lohnt?

Spannender finde ich da bald die Frage nach der Speicheranbindung. Ein Speicherinterface von 256Bit Breite wäre möglich, es würde zumindest den anstehenden Shrink auf 20nm (von 300mm² startend würde man vermutlich bei ~180mm² Diegröße landen) noch nicht wesentlich behindern. Allerdings weiß ich nicht, ob das mittel- bis langfristig die günstigste Lösung wäre (erfordert aufwendigeres Layout für 8x32Bit auf dem Board).
128Bit wäre eine gangbare Möglichkeit, wenn man das mit einem schnellen eDRAM-Pool (64MB?) ausgleichen kann. 8 GBit DDR4 Chips gibt es ja von Micron und Samsung als Validierungsbausteine wohl schon (4 Chips = 4 GB), in 20nm sollen 16 GBit folgen (ermöglicht potentiell 8 GB mit nur 4 Chips, aber das kommt zum Start der Konsolen vielleicht zu spät). DDR3-Chips gibt es maximal mit 8 GBit. Eine Alternative zum eDRAM wäre noch eine stacked RAM/Interposer Lösung, falls das bis dahin zuverlässig funktioniert und nicht Unsummen an Mehrkosten bedeutet. Damit wäre dann ein größerer schneller RAM-Pool als mit eDRAM möglich.

Ein Stacking von Logikchips ist dagegen praktisch ausgeschlossen. Das funktioniert nur im low-power Bereich, aber nicht bei einem 150W Die mit einer Verlustleistung pro Fläche, die an die 1W/mm² heranreichen kann.

Skysnake
2012-11-02, 18:50:35
Denken wir doch mal an die Presentation von AMD vor kurzem.

Man kann in die APUs seine eigene Logik reinpacken. Das wird sicherlich von Sony und MS genutzt.

Entweder in Form von eDRAM oder eben über ein eigenes Speicherinterface für Interposer/Stacked RAM.

Damit hätte man einiges mehr an Bandbreite und würde sich auch schön von den Desktop-APUs absetzen. Könnte mir gut vorstellen, das AMD da ne schöne Summe Geld für bekommt, dass die das nicht in den Desktop-APUs für 1 bis 2 Jahre einsetzen. Dann sollten die schon genug Konsolen abgesetzt haben.

00-Schneider
2012-11-02, 19:37:50
Das Design ist zu diesem Zeitpunkt schon längst final.


Damit meinst du aber nicht die endgültigen Specs, oder? (Taktraten etc.)

Ringwald
2012-11-02, 19:39:38
Das ist ja bei GTA kein großer Unterschied oder?
Was mich jedenfalls verwundert, ist die Tatsache das man Skyrim auf die PS3 programmiert bekommen hat, beim DLC aber einstecken muss.

Bei GTA wird die Mission abgehackt und ist raus, bei Skyrim hingegen veränderst du mit einer fertigen Quest die Zustände der Welt und NPCs und diese werden auch ständig live abgefragt - nichts geht verloren.

Neuer DLC = Mehr RAM verbrauch(+bisl CPU)

Ailuros
2012-11-02, 19:43:54
Damit meinst du aber nicht die endgültigen Specs, oder? (Taktraten etc.)

Beim heutigen Standpunkt wird sich selbst bei Frequenzen nichts mehr besonderes aendern.

thade
2012-11-02, 19:59:56
Das liegt nicht an der Engine. Skyrim ist einfach so riesig und was der Spieler machen kann völlig unvorhersehbar, dass es ein Albtraum ist den Speicher zu managen. Und dann legt die PS3 halt als erstes die Ohren an, mit ihren mickrigen 256MiB RAM.

Sie hat nicht nur 256MB. Weiß das der Superguru Progger etwa nicht. :freak:

Gipsel
2012-11-02, 20:11:43
Sie hat nicht nur 256MB. Weiß das der Superguru Progger etwa nicht. :freak:
Die CPU selber kann nur auf 256 MB zugreifen. Die anderen 256MB sind Grafikspeicher. Die XBox360 hat dagegen 512MB unified. Das ist schon flexibler und im Zweifelsfall eben besser.

robbitop
2012-11-02, 20:21:33
Sieht im Moment bei MS alles ein wenig nach:

- 8x Jaguar
- ~ Pitcairn
- 4 GiB RAM
- 128 bit GDDR5
- breit angebundener eDRAM

- SoC + eDRAM auf einem Package
- ~3xx sqmm SoC
- < 200 W

aus

Eine IMO recht solide und bezahlbare Lösung. Und das wäre zum Glück keine Low Cost Geschichte sondern eher Midrange. (sofern man die 8x Kerne gut auslasten kann)

Locuza
2012-11-02, 20:32:13
Bei GTA wird die Mission abgehackt und ist raus, bei Skyrim hingegen veränderst du mit einer fertigen Quest die Zustände der Welt und NPCs und diese werden auch ständig live abgefragt - nichts geht verloren.

Neuer DLC = Mehr RAM verbrauch(+bisl CPU)
Neuer DLC = Mehr RAM verbrauch, gilt ja dann nur wenn die Umgebung weitgehender verändert wird und noch erweitert und nichts ersetzt.
Bisher durfte ich "nur" lesen, dass Skyrim auf der PS3 ab und zu heftig ruckelt.
Einen ähnlichen Zustand wird man wohl nicht zwei mal liefern wollen.

Ich habe allerdings nicht einmal das Hauptspiel gespielt. :redface:
Deswegen kann ich nichts dazu sagen.

Die CPU selber kann nur auf 256 MB zugreifen. Die anderen 256MB sind Grafikspeicher. Die XBox360 hat dagegen 512MB unified. Das ist schon flexibler und im Zweifelsfall eben besser.
Sie kann ja auch auf den VRAM zugreifen, bloß ist die Bandbreite ja sehr schlecht, weshalb sich die Option ausschließt.

Gipsel
2012-11-02, 20:49:14
Sie kann ja auch auf den VRAM zugreifen, bloß ist die Bandbreite ja sehr schlecht, weshalb sich die Option ausschließt.Deshalb habe ich es nicht erwähnt. Wenn man das macht, ist die Performance sowieso im Eimer. Bei Sachen, wo die Cell SPUs dem RSX bei der Grafik aushelfen müssen, ist es daher besser, den RSX die Daten transferieren zu lassen (habe ich mal irgendwo gehört). Hilft einem bloß nicht so viel, wenn es irgendwas mit der Spiellogik betrifft.

][immy
2012-11-02, 21:06:57
Sieht im Moment bei MS alles ein wenig nach:

- 8x Jaguar
- ~ Pitcairn
- 4 GiB RAM
- 128 bit GDDR5
- breit angebundener eDRAM

- SoC + eDRAM auf einem Package
- ~3xx sqmm SoC
- < 200 W

aus

Eine IMO recht solide und bezahlbare Lösung. Und das wäre zum Glück keine Low Cost Geschichte sondern eher Midrange. (sofern man die 8x Kerne gut auslasten kann)

nunja, ich vermute mal, das wenn sony zuerst mit der ps4 kommt und diese 8gb speicher hat, MS hier noch kurzfristig nachziehen wird. bis dahin sollte auch der speicherpreis noch ein gutes stück gesunken sein.

robbitop
2012-11-02, 21:19:24
[immy;9529156']nunja, ich vermute mal, das wenn sony zuerst mit der ps4 kommt und diese 8gb speicher hat, MS hier noch kurzfristig nachziehen wird. bis dahin sollte auch der speicherpreis noch ein gutes stück gesunken sein.
Schön wär's ja. Aber die Geschichte lehrt uns: Auf Konsolen war RAM schon immer knapp. Ich tippe deshalb auf 4 GiB. ;)

videre
2012-11-02, 21:48:06
Gibt es irgendwo einen PS4 Thread?
Gerade werden ja die Devkits ausgegeben:
http://playnation.de/spiele-news/playstation-4/details-hardware-dev-kits-verschickt-id42166.html
http://www.de.bgr.com/2012/11/01/so-viel-power-steckt-in-der-playstation-4/

Gipsel
2012-11-02, 21:51:03
Gibt es irgendwo einen PS4 Thread?
Gerade werden ja die Devkits ausgegeben:
http://playnation.de/spiele-news/playstation-4/details-hardware-dev-kits-verschickt-id42166.html
http://www.de.bgr.com/2012/11/01/so-viel-power-steckt-in-der-playstation-4/
Keine finalen DevKits und Specs und bei den Meldungen schreiben alle von der gleichen Quelle ab (die noch nicht mal genaue Informationen rausrückt) und erdichten sich den Rest dazu. Der Informationswert ist überschaubar. :rolleyes:

S940
2012-11-02, 22:01:41
Schön wär's ja. Aber die Geschichte lehrt uns: Auf Konsolen war RAM schon immer knapp. Ich tippe deshalb auf 4 GiB. ;)DA gabs doch vor ca. nem Jahr die Meldung, dass die Konsolenentwickler (weiss nicht mehr ob Sony oder MS) meuterten, da der Hersteller nur 2GB vorgesehen hatte, sie aber 4GB haben wollten.
Denke also auch, dass 4GB das Max. sind.

robbitop
2012-11-02, 22:44:39
Erinnert mich an die PSP. Die sollte ursprünglich 16 MiB RAM haben. Bekam dann aber aufgrund des Maulens der Entwickler 32 MiB RAM.

Felixxz2
2012-11-02, 23:21:12
Wärs aber nicht billiger und vor allem schneller auf ein 256 Bit Interface zu setzen und den kompletten RAM damit anzubinden? Vom eDRAM bräuchte man ja auch ne ordentliche Menge, damit er gewinnbringend eingesetzt werden kann und das kostet ja dann auch gut. Komplett auf 256 Bit würde die GPU doch stark profitieren und man könnte sich den eDRAM sparen?

robbitop
2012-11-02, 23:28:32
Wärs aber nicht billiger und vor allem schneller auf ein 256 Bit Interface zu setzen und den kompletten RAM damit anzubinden? Vom eDRAM bräuchte man ja auch ne ordentliche Menge, damit er gewinnbringend eingesetzt werden kann und das kostet ja dann auch gut. Komplett auf 256 Bit würde die GPU doch stark profitieren und man könnte sich den eDRAM sparen?
eDRAM ist gar nicht so teuer. Das ist nur 1x Chip. Und die breite Anbindung ist auf dem Package schön einfach. Signalwege sind kurz und müssen nicht vom Package weg - also kein Einfluss auf's Pin-Out.
Zudem wird das Ding bei jedem Shrink immer billiger. Ein 256 bit Speicherinterface wird nicht billiger. Aus dem Grund wird eDRAM bei Konsolen schon lange immer wieder gern eingesetzt.

Felixxz2
2012-11-02, 23:32:36
Aber Performancetechnisch ist das ja trotzdem nicht das wahre, die Menge an eDRAM wäre stark begrenzt.

robbitop
2012-11-03, 07:39:17
Aber Performancetechnisch ist das ja trotzdem nicht das wahre, die Menge an eDRAM wäre stark begrenzt.
Der Framebuffer liegt im eDRAM. Der Framebuffer hat den bandbreitenhungrigsten und fragmentiertesten Traffic. Und er baucht nicht all zu viel Speicher. Das entlastet den unified RAM sehr sehr gut. Texturen und der übliche Kram liegen dann im Unified RAM. Das macht schon Sinn.

Avalox
2012-11-03, 07:51:50
Könnte die wahrscheinlich schwache Grafiklösung evtl. sogar darauf hindeuten, dass es sich um cloudbasierte Konsolen handeln wird?

Zusammen mit dem Aufkauf Gaikais durch Sony könnte das doch durchaus Sinn ergeben oder?

Die APU wäre dann locker fähig die gestreamten Inhalte darzustellen...


Dazu würde der Prozessor richtig Sinn ergeben.

Weil Gaikai natürlich x86 basierend virtualisiert, PowerPC Anwendungen würden dort gar nicht laufen.
Die neuen x86 Anwendungen des PS3 Nachfolger allerdings schon.

Deinorius
2012-11-03, 07:57:56
Vielleicht würden die experimentell sogar cloudbasierte Spiele anbieten, aber auch dann nur ausnahmsweise. Auf welcher Basis könnte das auch funktionieren? Es gibt ja schließlich noch Kunden in Peripherie, die würde man sonst verlieren.

Im Grunde deutet hier zu diesem Thema nichts auf nichts hin.

Avalox
2012-11-03, 08:35:58
Vielleicht würden die experimentell sogar cloudbasierte Spiele anbieten, aber auch dann nur ausnahmsweise. Auf welcher Basis könnte das auch funktionieren? Es gibt ja schließlich noch Kunden in Peripherie, die würde man sonst verlieren.


Es wäre eine zusätzliche Produktivierung für Länder mit ordentlich ausgebauter Infrastruktur.

In Japan z.B. wäre es dann möglich, die Spiele auf Android Devices zu streamen, bzw. TV Geräte von Hause aus mit Sony Gaikai Client zu verkaufen und dort die selben Spiele anzubieten, die auch per Datenträger in die unerschlossene Provinz geliefert werden.

Auch wären Demos zu Spielen super über Gaikai anzubieten. Kein Download, kein lokaler Speicher. Der User kann einfach alles andaddeln und dann entscheiden, ob er es kauft.

Bei letzteren würde die Grafikqualität nicht mal eine große Rolle spielen und der Stream könnte entsprechend stark komprimiert sein.

robbitop
2012-11-03, 09:01:54
Für Cloudbasierte Spiele braucht man quasi Null Rechenleistung im Client. Da würde ein pupsiger ARM SoC mit Videodecodereinheit ausreichen mit einer TDP von unter einem Watt.

Die jetzigen Infos sehen -Ausnahmen und Experimente jetzt mal außen vor- eher nach herkömmlichen Konsolen aus.

AnarchX
2012-11-03, 09:40:18
Gaikai wurde in letzer Zeit eher mit den Cloud GeForces in Verbindung gebracht.
Aber durchaus denkbar, dass Sony vielleicht auch Server mit PS4-ähnlichen APUs baut und dann PS4-Games als Streamings-Service anbietet. Von der PS3 gab es ja auch eine Rack-Version.

Avalox
2012-11-03, 09:46:12
Für Cloudbasierte Spiele braucht man quasi Null Rechenleistung im Client. Da würde ein pupsiger ARM SoC mit Videodecodereinheit ausreichen mit einer TDP von unter einem Watt.

Die jetzigen Infos sehen -Ausnahmen und Experimente jetzt mal außen vor- eher nach herkömmlichen Konsolen aus.

Es geht ja auch nicht um die Konsole. Sondern um die Spiele für diese Konsole.

Diese sollten doch sinnvoller Weise Crossplattform zur eigenen Virtualiserungsplattform sein. Dann wird die teure subventionierte Konsole eben nicht benötigt, wenn eine vernümftige Anbindung besteht. Die Spiele sind dann nicht auf die Konsole beschränkt. Ein Gerät selbst bei dem Sony zudem ja nur draufzahlt.

AnarchX
2012-11-03, 09:57:14
Im Endeffekt muss es sich rechnen. Bei der stationären Konsole hat man zwar die Subvention (sofern es diesmal eine gibt), während beim Cloud-Streaming-Service die HW-Kosten allein über die Service-Einnahmen bezahlt werden müssen und man zusätzliche Betriebskosten hat.
Zudem fällt bei weniger verkauften Konsolen die Stückkostendegression geringer aus.

Aber nach dem Kauf von Gaikai sollte man diese Möglichkeit nicht ganz ausschließen.

dargo
2012-11-03, 10:55:48
Der Framebuffer liegt im eDRAM. Der Framebuffer hat den bandbreitenhungrigsten und fragmentiertesten Traffic. Und er baucht nicht all zu viel Speicher. Das entlastet den unified RAM sehr sehr gut. Texturen und der übliche Kram liegen dann im Unified RAM. Das macht schon Sinn.
Wieviel Bandbreite bräuchte man mit GDDR5 um den Pitcairn in Verbindung mit eDRAM nicht "verhungern" zu lassen? Kann man das pauschal sagen? Würden 80GB/s @1250Mhz GDDR5 an einem 128Bit SI reichen?

robbitop
2012-11-04, 14:40:09
Das kommt auf Texturauflösung und Geometrie an. Die CPU braucht ja auch noch etwas. Ich gehe aber mal davon aus, dass 128 bit GDDR5 lockerst ausreichen, wenn eDRAM dabei ist.

tobor
2012-11-04, 16:22:41
Kann man mit ausreichend Edram nicht voellig auf GDDR verzichten?

dargo
2012-11-04, 16:29:11
Kann man mit ausreichend Edram nicht voellig auf GDDR verzichten?
What? :| Willst du jetzt 2-4GB eDRAM verbauen? ;D

Knuddelbearli
2012-11-04, 16:30:33
ne sondern ddr verbauen ^^

john carmack
2012-11-04, 21:57:19
Playstation 4 mit bis zu 16 GByte RAM und AMDs A10

http://www.golem.de/news/konsolengeruechte-playstation-4-mit-bis-zu-16-gbyte-ram-und-amds-a10-1211-95480.html

dargo
2012-11-04, 21:59:08
Wie oft soll das noch verlinkt werden? Da schreibt doch jeder von einer Quelle ab. :freak:

Hayab
2012-11-04, 22:29:39
16GB nie im leben.
Lieber wurde der Sonymenagement sich dem Bauch aufschlitzen bevor sie sinnvoll so viel RAM verbauen.

dargo
2012-11-04, 22:51:12
16GB nie im leben.
Lieber wurde der Sonymenagement sich dem Bauch aufschlitzen bevor sie sinnvoll so viel RAM verbauen.
Ach Leute... wer sagt denn, dass 16GB sinnvoll wären? :freak: Erstens sind es Gerüchte und zweitens gehts dort um Dev-Kits. Die Rede war von 8 und 16GB Dev-Kits. In der Konsole werden höchstwahrscheinlich 4GB verbaut.

PS: nur mal so zum Vergleich... eine HD7970 mit 6GB Vram bringt mir auch nichts in Games im Vergleich zu einer mit 3GB. Man kann es mit dem Speicher auch übertreiben.

Tesseract
2012-11-04, 23:24:51
PS: nur mal so zum Vergleich... eine HD7970 mit 6GB Vram bringt mir auch nichts in Games im Vergleich zu einer mit 3GB. Man kann es mit dem Speicher auch übertreiben.

der vergleich hinkt. die 6GB bringen deswegen kaum was weil die spiele tendenziell für den kleinsten gemeinsamen nenner entwickelt werden was texturgrößen etc. angeht. auf einem einheitlichen, geschlossenen system ist das was anderes.
natürlich könnte man 16GB sinnvoll nutzen wenn sie verbaut wären. vor allem ohne, dass sich der verbrauch signifikant steigert.

nicht so viel ram zu verbauen ist ausschließlich eine kostenfrage.

dargo
2012-11-04, 23:38:10
der vergleich hinkt. die 6GB bringen deswegen kaum was weil die spiele tendenziell für den kleinsten gemeinsamen nenner entwickelt werden was texturgrößen etc. angeht.

Unsinn. Mit Maldos Mod @Crysis 2 kriegst du selbst die 3GB nicht voll. Und die besten Texturen nützen dir nichts wenn die Technik und vorallem der Content hinterherhinkt (um mal auf die Ausnutzung von 6GB zu kommen).


natürlich könnte man 16GB sinnvoll nutzen wenn sie verbaut wären.

Ach ja... für was denn? Riesige Spielewelten erfordern auch extreme CPU- und GPU-Leistung. Die nächsten Konsolen sind davon noch weit entfernt als das 16GB sinnvoll wären. Da hängt alles mit zusammen... extreme Spielwelten, unbezahlbarer Content etc.


nicht so viel ram zu verbauen ist ausschließlich eine kostenfrage.
Es ist ein Faktor... ja. Es gilt aber immer noch der Grundsatz - passende Ramgröße zur vorhandenen Rohleistung und kein Overkill.