PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Next-Gen-Konsolen?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 [21] 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39

Exxtreme
2013-01-13, 20:59:58
Falsch. Die Xbox360 kann tatsächlich mehr Exklusivtitel aufbieten als die PS3, 244 zu 207 (Stand Dezember 2012), bzw. mehr Spiele allgemein.

http://en.wikipedia.org/wiki/List_of_PlayStation_3_games
http://en.wikipedia.org/wiki/List_of_Xbox_360_games


Die englische Wikipedia meint was anderes.

RLZ
2013-01-13, 21:08:35
Ob es nun auf der einen oder anderen Seite ein paar mehr Exklusivtitel gibt, ist eigentlich egal. Wichtig ist was bei den Leuten gefühlt rüberkommt.

Microsoft wird es bei der nächsten Generation es richtig schwer haben mich zu überzeugen nochmal eine Konsole von ihnen zu kaufen, weil es bei der aktuellen Generation genau 0 Exklusivtitel gab, die mich überzeugt haben. PS4 könnte dagegen dank Heavy Rain, Journey, etc. ein Blindkauf werden.

=Floi=
2013-01-13, 21:13:41
das wird aber jeder anders sehen. mir gefällt die 360er schon alleine wegen der performance besser. die portierungen auf der ps3 sind ja teilweise der letzte rotz, weil es ruckelt oder verbuggter ist.

Crazy_Bon
2013-01-13, 21:17:41
http://en.wikipedia.org/wiki/List_of_PlayStation_3_games
http://en.wikipedia.org/wiki/List_of_Xbox_360_games


Die englische Wikipedia meint was anderes.
Stimmt, laut Wikipedia ist der Vorsprung für Microsoft noch größer, aber da steht auch This is an incomplete list

xL|Sonic
2013-01-13, 21:42:15
Wenn du dieses betrachtest, dann sind aber PS3 und XBox360 beide Schülerlotsen im Vergleich zur Wii, deren Exklusivtitel sind in Verkaufsbereichen verortet, die ja um Größenordnungen höher liegen.

Man kann gespannt sein, wie das alles weitergeht. Exklusivität ist sicherlich wichtig, aber Portabilität wird auch immer wichtiger.

Anzunehmen ist ja, dass die PS3 noch ein paar Jahre als Lowend Gerät vertickert wird, während die XBox360 vermutlich schnell aus den Läden verschwindet bei einem Nachfolger.

Die PS3 und Nintendo haben halt einen Vorteil. Sie können auf 3 Märkten gut verkaufen. Microsoft hat eigentlich nur Europa und die USA. Amerikanische Unternehmen tun sich traditionell sehr schwer in Japan. Auch Apple spielt dort eine sehr untergeordnete Rolle. Umso mehr ist es beeindruckend, wie stark die Xbox 360 mithält.

Deathcrush
2013-01-13, 21:43:22
Und wie ists mit Gran Turismo?

Halo 3 hat sich 11 Millionen mal verkauft ;), GT5 8 Millionen mal. Man kann es drehen und wenden wie man will, die Exklusivtitel der XBox360 verkaufen sich einfach besser, als die der PS3. Selbst CoD und GTA (also ein Multiplattformt.) verkauft sich auf der XBox besser. Die XBox hat einfach die besseren Zugpferde zu bieten und wenn die neue XBox gleich mit einem Halo oder GoW punkten kann, sieht die neue Playstation kein Land.

Xbox - Kinect Adventures! -19.70
Xbox - Halo 3 -11.71
Xbox - Halo: Reach -9.35
PS3 - Gran Turismo 5 -8.63
Xbox - Halo 4 -7.52
Xbox - Gears of War 2 -6.58
Xbox - Halo 3: ODST -6.12
PS3 - Uncharted 2: Among Thieves -6.08
Xbox - Gears of War -5.98
Xbox - Gears of War 3 -5.73
PS3 - Metal Gear Solid 4: Guns of the Patriots -5.72
PS3 - Uncharted 3: Drake's Deception -5.60
Xbox - Kinect Sports -5.47
Xbox - Forza Motorsport 3 -5.33
Xbox - Fable III -4.88
PS3 - Uncharted: Drake's Fortune -4.52

Werewolf
2013-01-13, 21:50:38
Sind Verkaufszahlen inzwischen ein Synonym für bessere Spiele?

Watson007
2013-01-13, 21:53:13
die PS3 hat ja auch schlicht MEHR Exklusivspiele als die 360. Die müssen die Verkaufszahlen dann halt untereinander aufteilen.

ach, steht ja da oben schon....

Watson007
2013-01-13, 21:58:56
Die PS3 und Nintendo haben halt einen Vorteil. Sie können auf 3 Märkten gut verkaufen. Microsoft hat eigentlich nur Europa und die USA. Amerikanische Unternehmen tun sich traditionell sehr schwer in Japan. Auch Apple spielt dort eine sehr untergeordnete Rolle. Umso mehr ist es beeindruckend, wie stark die Xbox 360 mithält.

Und? umgekehrt ist es doch genauso. Japan-Konsolen werden es in den USA auch immer schwerer haben als ne USA-Konsole. Zwar nicht ganz so ausgeprägt, aber grundsätzlich ist es dort genauso.

Marktführer in den USA wird vermutlich auch immer ne USA-Konsole sein von den Big-Playern, sofern sie nicht zu große Fehler machen....

xL|Sonic
2013-01-13, 22:00:48
Und? umgekehrt ist es doch genauso. Japan-Konsolen werden es in den USA auch immer schwerer haben als ne USA-Konsole. Zwar nicht ganz so ausgeprägt, aber grundsätzlich ist es dort genauso.

Marktführer in den USA wird vermutlich auch immer ne USA-Konsole sein von den Big-Playern, sofern sie nicht zu große Fehler machen....

Es ist aber ein Unterschied ob ein Produkt gar nicht geht oder nur ein wenig schlechter, was ja selbst nicht mal hier gegeben ist :rolleyes:
Oder wie kann es sein, dass eine japanische Konsole in Form von Nintendo Wii sich öfters verkauft als eine amerikanische in Form der Xbox 360? Absoluter Mumpitz ist das was du da sagst.

Gerade vor dem Hintergrund das MS zu Beginn stark die Konsole gepusht hat mit sehr vielen japanischen RPGs.

Watson007
2013-01-13, 22:07:47
wie auch immer, ich werde jedenfalls auch die PS4 kaufen. Mir gefallen die exklusiven Spiele von Sony besser.

Und mir gefällt auch dass die Vorgänger-Konsolen von Sony so lange supported werden. Bei Microsoft war es ja so dass nach Erscheinen der 360 kaum noch neue Spiele für die XBox1 erschienen.

Hoffentlich bleibt Sony bei der MediaPlayer-Geschichte. Soweit ich mitbekommen habe ist die Vita nicht DLNA/UPNP-fähig - was ja auch klar ist, denn sie wollen Filme verkaufen, sie sollen nicht im Haus gestreamt werden. Sprich ich habe etwas die Befürchtung dass die MediaPlayer-Fähigkeiten bei der PS4 eingeschränkt werden und alles auf online ausgerichtet sein wird.

xL|Sonic
2013-01-13, 22:11:36
wie auch immer, ich werde jedenfalls auch die PS4 kaufen. Mir gefallen die exklusiven Spiele besser.

Und mir gefällt auch dass die Vorgänger-Konsolen von Sony so lange supported werden. Bei Microsoft war es ja so dass nach Erscheinen der 360 kaum noch neue Spiele für die XBox1 erschien.

Kann man schlecht miteinander vergleichen. Die Xbox hatte gar nicht die Marktpräsenz und viel geringere Stückzahlen. Im Gegensatz dazu hatte sich die PS2 lange Zeit besser verkauft als die PS3 wegen des sehr günstigen Preises. Da fällt es nicht schwer das Produkt weiter zu unterstützen, was den Markt dominiert und sich besser verkauft als das neue Produkt.
Microsoft musste genauso wie Nintendo einen klaren Cut machen um nach vorne zu gehen, und wie man sieht hat es sich ausgezahlt. Für Sony jedoch nicht. So löblich der lange Support auch war, so tödlich war er auch irgendwie. Schließlich ist man meilenweit vom Erfolg der PS2 entfernt, dem Konzern geht es mittlerweile sehr schlecht...

Die 360 ist mittlerweile auch die deutlich bessere Multimedia Konsole. Wenn man sieht was man damit mittlerweile alles machen kann. Ist leider nur so, dass es mit Content im Vergleich zu den USA leider extrem mau aussieht hier in Deutschland/Europa.

Felixxz2
2013-01-13, 22:25:22
Richtig. Und Masse statt Klasse. ;)

Das entscheidest also du für die Welt? :rolleyes:

=Floi=
2013-01-13, 23:22:12
sony geht es aber nicht nur wegen der ps3 so schlecht.
schaut euch mal die neue slim an. die ist doch echt eine sparversion sondergleichen.

prinz_valium
2013-01-13, 23:40:47
...

Die 360 ist mittlerweile auch die deutlich bessere Multimedia Konsole. Wenn man sieht was man damit mittlerweile alles machen kann. Ist leider nur so, dass es mit Content im Vergleich zu den USA leider extrem mau aussieht hier in Deutschland/Europa.

davon ist auszugehen. man geht ja nicht umsonst von einer xbox 8 aus, die dann im gesamten windows8 ökosystem eingebunden sein soll

Exxtreme
2013-01-13, 23:44:46
sony geht es aber nicht nur wegen der ps3 so schlecht.
schaut euch mal die neue slim an. die ist doch echt eine sparversion sondergleichen.
Die haben glaub 3,3 Milliarden $ abschreiben müssen wegen der PS3. Das ist selbst für einen Konzern wie Sony ein ordentlicher Batzen.

=Floi=
2013-01-14, 00:33:24
http://www.handelsblatt.com/unternehmen/industrie/hoher-verlust-sony-steckt-viel-tiefer-in-der-krise-als-befuerchtet/6490906.html

sicher trägt die konsole auch dazu bei, aber bei denen kriselt es überall.

basti333
2013-01-14, 01:57:18
http://www.handelsblatt.com/unternehmen/industrie/hoher-verlust-sony-steckt-viel-tiefer-in-der-krise-als-befuerchtet/6490906.html

sicher trägt die konsole auch dazu bei, aber bei denen kriselt es überall.

Ja, Sonys glänzende tage sind scheinbar vorbei. Vielleicht ist es für Sony gerade noch die Rettung das MS auch nicht gerade der überflieger ist momentan und auch druck von aktionären bekommt, sonst könnte man in Redmond noch auf die idee kommen Sony mit einer sehr stark subventionierten Xbox 720 den gar aus zu machen im gamesbereich.

YfOrU
2013-01-14, 09:56:33
Ja, Sonys glänzende tage sind scheinbar vorbei. Vielleicht ist es für Sony gerade noch die Rettung das MS auch nicht gerade der überflieger ist momentan und auch druck von aktionären bekommt, sonst könnte man in Redmond noch auf die idee kommen Sony mit einer sehr stark subventionierten Xbox 720 den gar aus zu machen im gamesbereich.

Im Verhältnis zu Sony geht es Microsoft blendend. Wichtig ist hier auch zu sehen das sich Microsoft ohne wirklich große Schmerzen neu ausgerichtet hat und das schaffen die wenigsten Unternehmen in diesem Format.

Bei Microsoft wurde sowohl bezogen auf das Geschäft mit Konsumenten als auch Business Solutions am großen Rad gedreht. Das mag heute noch nicht in allen Bereichen überzeugen aber ist eine Ausgangsposition von der sehr viele Konkurrenten nur träumen können. Natürlich brauchen Windows 8, Windows RT und WP8 noch Feinschliff und die Xbox muss erst noch auf den Markt aber dieses Portfolio ist ein absolutes Alleinstellungsmerkmal. Gleichzeitig wurde mit WinRT als langfristige Ablösung von Win32 die Basis für die Zukunft gelegt. Selbst aus der praktisch vollständigen x86 ISA Abhängigkeit konnte man sich ein Stück lösen und hat damit eine wesentlich höhere Flexibilität um auf Änderungen am Markt zu reagieren. Würde mich zum Beispiel nicht wundern wenn mittelfristig ein OS für NAS auf ARM Basis kommt.

Watson007
2013-01-14, 10:41:13
mich wundert eher dass MS trotzdem nur 3. geworden sind in dieser Generation, soviel Geld wie die zur Verfügung haben...

die hätten jede Menge Geld zur Verfügung gehabt für Marketing-Aktionen, mehr Exklusiv-Spiele....

Sven77
2013-01-14, 10:46:52
Das entscheidest also du für die Welt? :rolleyes:

Typisches Fanboygelaber. Qualitativ und quantitativ unterscheiden sich die Box und die PS3 bei der Spieleauswahl so gut wie gar nicht. Nur ist die Xbox inzwischen ein richtiges Multimediageraet geworden, waehrend die PS immer noch eine Spielkonsole ist mit ein paar kaum nutzbaren Erweiterungen. Wie wichtig das in der Zeit der Smart-TVs ist wird sich noch zeigen.

robbitop
2013-01-14, 11:53:16
Ich empfand es so:

die ersten Jahre (2005 - 2009):

Xbox 360 hatte mehr Exklusivtitel und die grafisch deutlich besseren Multititell



die letzten Jahre (2009- 2013):

Die Entwickler haben die PS3 ausgereizt (und bspw CELL bei der Beleuchtung mithelfen lassen) und die Multititel waren soziemlich vergleichbar mit der PS3.
Die PS3 hat in dieser Zeit mehr Exklusivtitel gehabt.


Ich glaube letzteres lag daran, dass MS gar nicht so viel Studios hat, sondern in der ersten Zeit sehr viel Geld an 3rd Party Studios ausgegeben hat, damit diese Titel nicht auf anderen Plattformen erschienen (z.B. Mass Effect, Gears etc). Als die X360 dann verkaufsmäßig "lief", waren diese Ausgaben in diesem Umfang nicht mehr nötig und man investierte das Geld dann in andere Dinge (Kinect etc.).

Wenn die Situation so bestehen bleibt, wie in den letzten Jahren, wird die PS4 die attraktivere Plattform werden, denn durch die Sony eigenen Studios werden genug Exklusivtitel kommen.

Air Force One
2013-01-14, 11:59:32
Und wie ists mit Gran Turismo?

Seit Forza für viele nicht mehr so der bringer.

Iruwen
2013-01-14, 12:04:17
Typisches Fanboygelaber. Qualitativ und quantitativ unterscheiden sich die Box und die PS3 bei der Spieleauswahl so gut wie gar nicht. Nur ist die Xbox inzwischen ein richtiges Multimediageraet geworden, waehrend die PS immer noch eine Spielkonsole ist mit ein paar kaum nutzbaren Erweiterungen. Wie wichtig das in der Zeit der Smart-TVs ist wird sich noch zeigen.
Tolles Multimediagerät ohne BD-Player :p Ernsthaft, was kann die XBox denn?

Sven77
2013-01-14, 12:06:52
Netflix, Hulu, Sky Go, Lovefilm (HD)...

optische Datentraeger sind so 90er

Iruwen
2013-01-14, 12:15:11
Lovefilm gibts auch auf der PS3 glaub ich, aber ich wage eh zu bezweifeln dass das wichtig ist, zumindest in Europa. Ich kenn viele die die PS3 immer noch als DVD und BD-Player haben. In den USA ist Netflix ja ganz groß iirc. Die meisten die sowas nutzen werden im Heimnetz streamen weil viele eh nicht die Bandbreite für solche Angebote haben, das können ja beide Konsolen.

Sven77
2013-01-14, 12:20:27
Da die USA mit der Hauptabsatzmarkt ist gehe ich jetzt einfach davon aus. Ja, lovefilm gibt es auch auf der PS3, aber so lahm das es fast nicht benutzbar ist und es gibt kein HD.

N0Thing
2013-01-14, 12:43:56
Da die USA mit der Hauptabsatzmarkt ist gehe ich jetzt einfach davon aus. Ja, lovefilm gibt es auch auf der PS3, aber so lahm das es fast nicht benutzbar ist und es gibt kein HD.

Es gibt auf der Xbox 360 echtes HD über Lovefilm? Welche Bandbreite und welche Auflösung wird dort angeboten?

Als Ergänzung, auf der PS3 gibt es neben Lovefilm auch Maxdome-Steams.

Sven77
2013-01-14, 13:09:34
Kann ich nicht sagen, aber es sieht ganz gut aus (verglichen z.B. mit dem Sky Go crap)

N0Thing
2013-01-14, 14:55:39
Auf der PS3 gibt es bei Lovefilm auch HD zur Auswahl, was auch deutlich besser ausschaut als der normale Stream. Aber echtes HD ist das trotzdem nicht. ;)

Iceman346
2013-01-14, 14:58:00
Streaming ist doch in Deutschland sowieso nicht der Rede wert. Abgesehen vom Bandbreitenbedarf welchen viele wahrscheinlich kaum liefern können ist das Angebot, durch das Rechtehickhack, einfach so gering das wir in dem Bereich im Vergleich zu den USA wie ein Entwicklungsland aussehen.

Bis das in Deutschland relevant wird werden noch einige Jahre ins Land ziehen.

Sven77
2013-01-14, 15:01:04
Auf der PS3 gibt es bei Lovefilm auch HD zur Auswahl, was auch deutlich besser ausschaut als der normale Stream. Aber echtes HD ist das trotzdem nicht. ;)

noe

Warum ist HD nicht für die PlayStation®3 verfügbar?

Wir arbeiten daran – die PS3™ spielt bereits Titel in hoher Qualität als die Standard Definiton. Wir werden demnächst HD auch für die PS3 anbieten.

HOT
2013-01-14, 15:36:40
Bei Gamestar werden mal wieder Chinesen-Forum-Gerüchte breitgetreten.

http://www.gamestar.de/hardware/konsolen/microsoft-xbox-720/xbox_720,483,3008394.html

Trotzdem kann man denke ich den 8-Kern-Jaguar als ne sichere Sache bei beiden Konsolen ansehen. Was anderes in 28nm wird AMD nicht fertigbekommen und für Konsolen ist wegen seiner Winzigkeit Jaguar ja auch ganz gut geeignet.

N0Thing
2013-01-14, 17:50:23
noe

Stimmt, mein Fehler. Dort ist die Rede von HQ und nicht HD.

tobor
2013-01-14, 17:58:50
Abwärtskompabilität?
Es gab in dieser Generation jedeMenge guter Titel die ich ab und zu wieder spielen moechte ohne zwei solcher Kisten im Wohnzimmer stehen zu haben.Ausserdem geht die 360 auch mal kaputt und wird nicht ewig hergestellt...

TheCounter
2013-01-14, 19:00:06
Die neue Xbox soll laut allen bisherigen Gerüchten auch Xbox 360 abspielen können. Der letzte Stand der Dinge ist das ca. 80% aller Titel laufen.

Bei der PS4 gehen bisher alle davon aus, dass diese nicht abwärtskompatibel sein wird (bedingt durch CELL).

just4FunTA
2013-01-14, 19:09:46
Die neue Xbox soll laut allen bisherigen Gerüchten auch Xbox 360 abspielen können. Der letzte Stand der Dinge ist das ca. 80% aller Titel laufen.

Bei der PS4 gehen bisher alle davon aus, dass diese nicht abwärtskompatibel sein wird (bedingt durch CELL).

war bei der PS4 nicht ein Gerücht im Umlauf sie würden für die Abwärtskompatibilität auf die Technik von Gaikai (2012 von Sony gekauft) zugreifen? Falls das stimmen sollte könnte man wohl 100% der alten ps1,ps2 und ps3 Spiele den Käufern anbieten.

tobor
2013-01-14, 19:20:24
Die neue Xbox soll laut allen bisherigen Gerüchten auch Xbox 360 abspielen können. Der letzte Stand der Dinge ist das ca. 80% aller Titel laufen.

Bei der PS4 gehen bisher alle davon aus, dass diese nicht abwärtskompatibel sein wird (bedingt durch CELL).
Hoffentlich bezieht sich diese Zahl auf Spiele,die auf Discs
erschienen sind.

Werewolf
2013-01-14, 19:24:04
Das entscheidest also du für die Welt? :rolleyes:

Das liest du heraus. Den Anspruch habe ich gar nicht. Hier entscheidet doch jeder für sich. "Masse statt Klasse" retour. Das nennt man spiegeln. ;)

Der magere AAA-Exklusivcontent der Xbox ist nicht von der Hand zu weisen. Da helfen auch Verkaufszahlen nicht. Da bietet die PS3 rein objektiv einfach viel mehr Titel und Variation.

Ich habe die wichtigsten und für mich besten Titel beider Konsolen, natürlich gibt es Hühnerbrüste wie Sven die gleich aufspringen und Fanboy schreien. Die können gar nicht anders. Klassische Projektion. =)

xL|Sonic
2013-01-14, 20:22:57
mich wundert eher dass MS trotzdem nur 3. geworden sind in dieser Generation, soviel Geld wie die zur Verfügung haben...

die hätten jede Menge Geld zur Verfügung gehabt für Marketing-Aktionen, mehr Exklusiv-Spiele....

Trotzdem "nur" 3.? Erstens haben sie aktuell immer noch mehr Konsolen verkauft und 2. schau dir an, aus welcher Basis die gestartet sind. Sony vom extrem überlegenden Marktführer abgerutscht auf Niveau des letzten Platzes. Wir sprechen hier von mind. einer Verdreifachung der abgesetzten Konsolen (Xbox vs. Xbox 360) im Gegensatz zur Halbierung bei Sony (PS2 vs. PS3). Ja man hat aktuell sogar weniger PS3 abgesetzt als PS1.

Nicht zu vergessen die RRoD Geschichte die mal eben 1,5 Milliarden gekostet hat. Damit hätten sie auch viele andere gute Dinge machen können ;)

Nintendos Wii läuft halt ein wenig außerhalb der Konkurrenz, dank Wiimote.

Watson007
2013-01-14, 20:36:56
so gut wie die PS2 lief konnte Sony auch nur absteigen.

dafür hat sony als erster konkurrent zu nintendo geschafft sich im Handheld-Sektor zu etablieren.

just4FunTA
2013-01-14, 20:40:46
ja das wird bei Nintendo jetzt ja nicht anders sein, wäre schon sehr überraschend wenn die WiiU den Erfolg von der Wii wiederholen könnte.

xL|Sonic
2013-01-14, 20:48:31
so gut wie die PS2 lief konnte Sony auch nur absteigen.

dafür hat sony als erster konkurrent zu nintendo geschafft sich im Handheld-Sektor zu etablieren.

iPod Touch? ;)

Deinorius
2013-01-14, 23:03:52
war bei der PS4 nicht ein Gerücht im Umlauf sie würden für die Abwärtskompatibilität auf die Technik von Gaikai (2012 von Sony gekauft) zugreifen? Falls das stimmen sollte könnte man wohl 100% der alten ps1,ps2 und ps3 Spiele den Käufern anbieten.


PS1-Spiele sind doch auch jetzt kein Problem. Für PS2-Spiele hoffe ich das sehr. Die Leistung könnte ausreichen.

Aber PS3-Spiele? Never! Wie denn? Die müssen den Cell emulieren. Da kannst du ein Gerücht nach dem anderen vorwerfen. Ich glaube das erst, wenn ich es mit eigenen Augen sehe.

Zur Xbox-Kompatibilität: Ob diese einigermaßen möglich wäre, wenn auch M$ zu x86 wechseln würde? Das ist ja noch nicht sicher genug.

MartinB
2013-01-14, 23:18:52
Gaikai ist Cloud-Gaming, bis auf die Latency sollten PS3 Spiele absolut kein Problem sein.

Deinorius
2013-01-14, 23:39:06
Ach... Cloud-Gaming... na mal sehen.

MartinB
2013-01-15, 00:09:01
Wäre definitiv ein schickes Feature. Legt man eine PS3 Disc ein (um den Besitz nachzuweisen) bekommt man das Spiel kostenlos als Streaming-Spiel.

Käufer freut sich über Kompatibilität und Sony macht Werbung für Cloud Gaming

Deinorius
2013-01-15, 00:12:31
DAS wäre wirklich begrüßenswert. Realistisch gesehen... :usad:

TheCounter
2013-01-15, 00:37:18
Der magere AAA-Exklusivcontent der Xbox ist nicht von der Hand zu weisen.

Das ist deine subjektive Meinung.

Ich habe seit langer Zeit beide Konsolen, aber besitze deutlich mehr Exklusivtitel für die Xbox 360. Aus dem einfachen Grund da mir nur einige wenige Exklusivtitel der PS3 zusagen.

Deshalb behaupte ich aber nicht, die PS3 hat zu wenige AAA-Exklusivtitel.

Hallo
2013-01-15, 10:40:19
Marken haben mich nie interessiert,naja bis auf Sega.Wenn geiles Game dann wird Konsole gekauft und somit besitze ich alle jap Konsolen.PS3 gleich am Anfang wegen VF5 und RR7 gekauft und Box aehnlich.

Was ich aber fuer mich rausgestellt hat ist das die PS3 fuer mich viel unatraktiver ist als die Box und das hat unendlich viele Gruende.

Angefangen das PS3 von Grund auf Pads hat die definitiv mehr verzoegern als Box Pads,von den kabelgebundenen ganz zu schweigen.Eigentlich schon ein komplettes K.O. Argument fuer diese Konsole.Ja dann kommt das kein VGA,kein 60Hz Mode ueber Scart (Shoot em Up Fans wissen was ich meine),vieeeel schlechteres Arcade Angebot,Analogtrigger eher ein Witz und fast alle Multis schlechter als Box.Eigentlich besitze ich die PS3 nur wegen den teils wirklich guten Exclusives,der Rest der Geschichte setzt sich als Staub ab auf der tollen PS3.OK online umsonst,bringt mir aber nix wenn ich eh nicht wirklich damit zocke.BluRay ist aber ganz nett wenn mans braucht....

Und ironischerweise ist meine Box (altes Modell) per installierter Games leiser als meine PS3 die bei MotorStorm mal gut aufdreht.Ok ich hab noch die 60GB Version...

Eigentlich braucht MS bei der neuen Box nur die Latenz der Pads noch ein wenig zu verbessern (HW natuerlich auch) und dies auch explizit bewerben und schwupps,alle COD etc. Fans greifen zu.Sony wirds wieder hinbekommen irgendetwas zu vergeigen,oder besser gesagt mehrere etwasse;)

Auch wenn es Wunschdenken ist waere ich dafuer das es einer mal wagen wuerde(Sega?) eine wirklich teure und kompromisslose HW auf den Markt zu bringen ala Neo Geo.Und mit kompromisslos meine ich Arcade Standard wie er frueher mal war.Ich denke da an ein geschlossenes PC System bei dem 4xMSAA und 16xAF @1080p inkl 60fps Pflicht sind,sonst durchgefallen.
Waert ihr bereit entsprechend Geld hinzulegen,so ca. 800+ EU?
Das Neo Geo hat immerhin langer gelebt als die meisten Konsolen ever und das bei Spielepreisen (300EU) die eigentlich irre sind.Dazu kommt das Sega auf eine Spielebibliothek zurueckgreifen kann die MS und S ziemlich lahm dastehen laesst.Fuer entsprechende Arcade Hits wuerde ich locker 150 Steine locker machen,immer noch viel billiger als die originalen Arcade PCBs.

Das was demnaechst kommt stinkt nur so von Kompromissen und steht N in nichts nach.Mein derzeitiger PC ist wahrscheinlich stearker und vor allem billiger als was in nem Jahr kommen soll,traurig aber wahr.

Franconian
2013-01-15, 13:25:33
VGLeaks has released a product roadmap for ORBIS "PlayStation 4" citing the product lifecycle beginning as early as 2011.

Quote:
2011 June/July – PC with Win7 64-bit and a “jailbroken” ATI r9 graphics card
2011 Sept/Oct – PC with Win7 64-bit and a “jailbroken” ATI r10 graphics card
2012 Q1 – disclosure to more developers
2012 E3 – potential unveiling window start
2012 Jul – devkits for engineers writing OS
2012 Q3 – first true hardware prototype devkits
2013 E3 – potential unveiling window end
2013 Q4 – launch
The full article is at the URL posted at the top.


PS4 "Orbis"
- AMD APU Solution (Jaguar/Steamroller), 4 cores, Higher Clock than X720/Durango
- Maybe AMD 8000 series GPU solution
- 2-4GB GDDR5
- Launch Fall 2013/Early 2014

Explanation: PS4 has a higher clock, but less cores and is using an APU solution (CPU & GPU elements combined onto a single chip). The PS4 has less RAM but is using faster GDDR ram, so the overall performance should be a wash.

Xbox 720 "Durango"
- AMD Jaguar 1.6GHZ 8-Core
- AMD 8800/8900 GPU
- 8GB Ram (DDR3?)
- Launch 2013

Explanation: 720 has a lower clock, but more cores. 720 has more but SLOWER RAM. DDR3 RAM is usually good for things like multitasking etc....It is expected to be based on Windows 8 as well.


Note: GDDR ram is more suitable for Graphics Processing (In PS4), and DDR3 is more suitable for OS Tasks (720). It is expected that the 720 may need some sort of ES/ED Ram to compensate. Basically, don't get caught up in the RAM size but the RAM type.

Developers are currently taking receipt of a new PlayStation 4 dev kit, VG247 has been told today, with a final version slated to appear in January. Yes, it’ll have Blu-ray. No, it isn’t being made in Japan.

Multiple sources have confirmed to VG247 today that a new version of the Orbis kit is now shipping to developers, and that it’s housed in a normal PC case.

There are to be four versions of the dev kit, we were told. A previous version was essentially just a graphics card. The version shipping now is a “modified PC,” and the third version, appearing in January, will be close to final spec. A final version will be delivered to developers “next summer”.

Some US developers attended a “disclosure meeting” at Sony’s offices this week, with a further meeting to take place in the coming weeks. The purpose of the meeting is for Sony to tell studios what the machine is designed to do, to detail hardware and to show a set of presentations.

Our source told us that Sony is only calling the machine Orbis, and is not using the words “PlayStation 4″ in these meetings at all.

Orbis, we were told today, is based on the AMD’s A10 APU series. An APU (Accelerated Processing Unit) is a combined CPU and GPU.

PS4′s APU was described today as a “derivative” of existing A10 hardware. The hardware is “based on A10 system and base platform”.

The “ultimate goal” for the hardware, we were told, is for it to be able to run 1080p60 games in 3D with “no problem,” to create a machine that’s powerful enough for “today and tomorrow’s market”.

The dev kits have “either 8Gb or 16Gb of RAM. Deduce from that what you will.”

The hardware is not being made in Japan, it was said.

When asked if PS4 will have an optical drive, specifically Blu-ray, our source responded: “Of course it has.” We’ve been told the hard drive will be 256Gb “as standard,” but it’s not clear if it’ll be a normal HDD or a solid state drive.

We were told that Sony’s aim with Orbis is to avoid problems involved in launching PS3 by creating something “very affordable” but that “isn’t a slouch”.

The machine has WiFi and Ethernet connectivity and HDMI out. Our source said the was “no difference” between PlayStation 3 and Orbis input/output.

The UI, however, has been revamped. It was said today that players will now be able to press the PS button mid-game and travel “anywhere” on the system. An example given was buying DLC from the PS Store mid-game then seamlessly returning to play.

“They’re trying to make it as fluid as possible,” our source said.

We were also told that the machine will be designed to accept system and product updates in the background, and that it’ll “always be standby mode”. When you set the console up, we were told, you’ll be asked if you want to allow background downloads. You can, of course, disallow them.

No details have been given on the pad as yet. Confirmation is expected this month.

Orbis is expected to be announced at an event “just before E3″ next year.

http://www.vg247.com/2013/01/14/ps4-720-ces-yields-tech-details-launch-predictions/

Knuddelbearli
2013-01-15, 13:31:43
und xbox hat sicher nur 4GB 8Gb sind jetzt halt die dev

und ob gddr wirklich n vorteil ist

bessere texturen sieht jeder casual
außer sie kommt wirklich mit 4GB was aber teuer ist

RLZ
2013-01-15, 13:51:07
und xbox hat sicher nur 4GB 8Gb sind jetzt halt die dev
Sichereres Vermuten oder sicheres Wissen?

mboeller
2013-01-15, 13:54:07
und xbox hat sicher nur 4GB 8Gb sind jetzt halt die dev

und ob gddr wirklich n vorteil ist

bessere texturen sieht jeder casual
außer sie kommt wirklich mit 4GB was aber teuer ist


4GB 128bit GDDR5 mit 1500MHz = 96GB/sec Bandbreite

Schon ein "wenig" mehr als nur mit DDR3, oder?

Orbis hört sich an wie ein Kaveri mit GDDR5 Speicherkontroller anstelle eines DDR3 Speicherkontrollers. Wenn jetzt die 512 Shader noch mit >1GHz laufen (die CPU kann ja im Gegenzug mit nur ~3GHz laufen) dann sollten die Leistung doch für 1080p reichen.

Knuddelbearli
2013-01-15, 13:59:25
klar Bandbreite ist höher frage ist aber was man damit anstellt und im worstcase wären es dann 2GB vs 8GB das merkt man sicher eher als die höhere Bandbreite die man bei Konsolen auch noch recht gut kaschieren kann

dargo
2013-01-15, 14:18:42
Diese DDR3 Geschichte ist doch Quatsch. Mal angenommen da wären 8GB DDR3-1600 verbaut. Das sind mickrige 25,6GB/s an einem 128Bit SI. Was will man denn damit? :D Und breiteres SI ist teuer, wobei man hier selbst mit 256Bit nicht weit kommt. Imho werden beiden auf GDDR5 setzen.

fondness
2013-01-15, 14:41:03
Orbis hört sich an wie ein Kaveri mit GDDR5 Speicherkontroller anstelle eines DDR3 Speicherkontrollers. Wenn jetzt die 512 Shader noch mit >1GHz laufen (die CPU kann ja im Gegenzug mit nur ~3GHz laufen) dann sollten die Leistung doch für 1080p reichen.

Kaveri für die PS4 erscheint mir durchaus wahrscheinlich. Es gibt schon länger das Gerücht das Sony sehr spät dran war und deshalb etwas "fertiges" nehmen musste. Da blieb wohl nur noch AMDs Kaveri. 4 Steamroller-Cores und 512 GCN SPs sollte durchaus akzeptable performen. Zumindest CPU-Seitig sollten man damit die 8 Jaguar Cores der Xbox 360 klar ausstechen.

Coda
2013-01-15, 14:48:51
Bleibt nur ein Problem: Streamroller kann man nicht bei TSMC fertigen.

fondness
2013-01-15, 15:01:04
Bleibt nur ein Problem: Streamroller kann man nicht bei TSMC fertigen.

Zumindest wird Kaveri auch in 28nm bulk gefertigt. GF tritt mittlerweile ohnehin als Auftragsfertiger auf.

Coda
2013-01-15, 15:02:14
Aber nicht bei TSMC. Der Vorteil bei Jaguar ist, dass es ein synthetisierbares Design ist, d.h. es ist viel einfacher anzupassen falls man mal shrinken oder die Foundry wechseln muss.

TheCounter
2013-01-15, 15:54:46
und xbox hat sicher nur 4GB 8Gb sind jetzt halt die dev

Das Devkit hat 12GB.

Ist das hier alt? Ist das aus den 2010er Dokumenten?

http://forum.teamxbox.com/showpost.php?p=13867595&postcount=292

Okay ist SEHR alt ;)

Tesseract
2013-01-15, 15:56:55
das klingt ja schon wieder ziemlich nach hardware-paralympics. auf der einen seite stehen 4k-TVs vor der tür, auf der anderen muss man zittern ob die konsolen nächstes jahr überhaupt mit 1080p klarkommen. :rolleyes:

ich bin ja mal gespannt wieviele GPU-cores die dinger am ende wirklich haben werden.

Knuddelbearli
2013-01-15, 15:59:28
12GB Devkit? Asynchon bestücktes Interface? fällt mir schwer zu glauben

TheCounter
2013-01-15, 16:29:23
12GB Devkit?

Das ist der letzte Stand, ja. Einfach mal diesen (http://www.neogaf.com/forum/showthread.php?t=507325) Thread durchlesen.

Karümel
2013-01-15, 16:40:05
Irgendwie kommt es mir so vor als wären die Konsolen doch "stärker" als Anfangs gedacht. Aber, sollten die Konsolen nicht mehr so teuer werden wie die jetzigen zum Release?

just4FunTA
2013-01-15, 16:42:37
nicht so teuer wie die ps3 aber wohl auf dem level der x360 also so 400€ in Europa wahrscheinlich.

mboeller
2013-01-15, 16:51:25
Zumindest CPU-Seitig sollten man damit die 8 Jaguar Cores der Xbox 360 klar ausstechen.

Naja, ich hoffe ja immer noch auf 16 Jaguar-cores. ;)
Es gibt ja immer noch die Gerüchte über 4 PowerPC Cores mit jeweils 4-fach SMT. Das könnten vielleicht in Wirklichkeit 4 sogenannte CM (=compute-modules) mit jeweils 4 Jaguar-cores sein (siehe die Hotchips-Präsentation von AMD) und irgendjemand hat das dann in den falschen Hals bekommen.

Wäre doch nett (und natürlich nicht ganz ernst gemeint):

4 x 4 Jaguar-Cores @ 2,5GHz mit jeweils 2MB L2-Cache also insgesamt so 100-120mm²
dazu noch eine Pitcairn-basierte integrierte GPU (od. GCN2.0) mit 1536 Shadern und 1,2GHz (weils grad so Spaß macht ;) )

8GB GDDR5 mit 256bit Speicherinterface und 1600MHz mit ca. 200GB/sec Bandbreite (in einer späteren Rev. könnte man dann einen Hyper- bzw. Hybrid- Memorycube auf einem InterposerImposter einsetzen)

Das ganze sollte dann nicht mehr als 360-380mm² haben (1 SoC!). Wäre also damit sogar herstellbar.

Und hätte dann fast genau 4 TFlops Leistung (die Jaguar selbst erreichen schon 320GFlops, bei 8 Flops pro Takt und 2,5GHz) und wahrscheinlich so 200-250W Verbrauch.

robbitop
2013-01-15, 17:02:10
Aber nicht bei TSMC. Der Vorteil bei Jaguar ist, dass es ein synthetisierbares Design ist, d.h. es ist viel einfacher anzupassen falls man mal shrinken oder die Foundry wechseln muss.
Gehen tut das schon. Nur halt mit mehr Aufwand. Man muss viel Hand anlegen. Die CPUs aus den Vorgängerkonsolen wurden ja auch von Auftragsfertigern gefertigt und geshrinkt. Und die waren auch nicht so toll synthetisierbar wie Jaguar. Es ist halt nur mehr Aufwand.


Ich kann mir DDR3 zumindest @128 bit nicht vorstellen. Das ist viel zu wenig Bandbreite. eDRAM kann das nicht kompensieren. Zumindest nicht bezahlbar. :D

Ansonsten klingt das alles nicht so unrealistisch und ist auch immer mehr im Rahmen dessen, was schon seit längerem konstant immer wieder an Gerüchten umherschwand: Jaguar für die Xbox und ein Bulldozer (bzw. BD Nachfolger) APU für die Playstation.

Naja, ich hoffe ja immer noch auf 16 Jaguar-cores. ;)
Es gibt ja immer noch die Gerüchte über 4 PowerPC Cores mit jeweils 4-fach SMT. Das könnten vielleicht in Wirklichkeit 4 sogenannte CM (=compute-modules) mit jeweils 4 Jaguar-cores sein (siehe die Hotchips-Präsentation von AMD) und irgendjemand hat das dann in den falschen Hals bekommen.
Ziemlich weit hergeholt aber nett auf jeden Fall.
Aber irgendwann kannst du -insbesondere in Spielen- nicht mehr beliebig weiter parallelisieren. Dann kannst du die vielen Cores vieleicht noch für extreme Gamephysik verbraten (das lässt sich ja gut parallelisieren) - aber der Rest hat Grenzen.



4 x 4 Jaguar-Cores @ 2,5GHz mit jeweils 2MB L2-Cache also insgesamt so 100-120mm²

Wäre super nett. Aber Jaguar ist kein Design, dass für so einen Takt ausgelegt ist. 10 % mehr Takt als bei einem 28 nm Bobcat wäre drin. Das sind vieleicht 2 GHz.


8GB GDDR5 mit 256bit Speicherinterface und 1600MHz mit ca. 200GB/sec Bandbreite (in einer späteren Rev. könnte man dann einen Hyper- bzw. Hybrid- Memorycube auf einem Imposter einsetzen)
Das macht kein Konsolenhersteller, da zu teuer. eDRAM bringt aber auch ziemlich viel und ist billiger (und wird auch mit Shrinks immer billiger - im Gegensatz zu einem 256 bit SI)

Tesseract
2013-01-15, 17:11:30
für was bitte 16 threads? sinnvoller wäre da eher wenige aber dafür thread-starke cores zu verbauen und dafür den rest in die GPU zu buttern.

S940
2013-01-15, 17:26:19
Wäre super nett. Aber Jaguar ist kein Design, dass für so einen Takt ausgelegt ist. 10 % mehr Takt als bei einem 28 nm Bobcat wäre drin. Das sind vieleicht 2 GHz.
Na das gilt nur bei der gleichen TDP. Entsprechend Vcore vorausgesetzt wären 2,5 Ghz sicherlich kein allzu großes Problem.
Frage ist halt, ob man sich das leisten kann/will. Aber Ende werden es doch keine Jaguars ;-)

Finch
2013-01-15, 17:53:50
wo kann ich einen AMD Jaguar leistungstechnisch einordnen? Sicher hoher als einen Brazos, aber wieviel höher?

Gipsel
2013-01-15, 18:00:57
wo kann ich einen AMD Jaguar leistungstechnisch einordnen? Sicher hoher als einen Brazos, aber wieviel höher?
15% mehr Leistung pro Takt, 10+% mehr Takt, 100% mehr Kerne. Was exakt ankommt, hängt wie immer von der Anwendung ab.

Akkarin
2013-01-15, 18:29:47
Gab es nicht Gerüchte über ein Devkit mit 2 Xeons mit jeweils 4C/8T ? Wären dann ja auch 16 Threads.

mboeller
2013-01-16, 08:13:30
Wäre super nett. Aber Jaguar ist kein Design, dass für so einen Takt ausgelegt ist. 10 % mehr Takt als bei einem 28 nm Bobcat wäre drin. Das sind vieleicht 2 GHz.


Das macht kein Konsolenhersteller, da zu teuer. eDRAM bringt aber auch ziemlich viel und ist billiger (und wird auch mit Shrinks immer billiger - im Gegensatz zu einem 256 bit SI)

Jaguar: Naja, STM hat es geschafft einen ARM a9 mit nur 8+ Stages auf 2,5GHz zu prügeln (mit FD-SOI) und ein Jaguar hat 14+ Stages. Da sollten 2,5GHz doch drin sein.


256bit: ich hab mich extra auf 256bit beschränkt, damit es auch noch beim nächsten Prozesswechsel, also mit 20nm/14xm noch hinhaut. Eigentlich wären die 360-380mm² ja groß genug für 384bit.

eDRAM sehe ich persönlich ein wenig kritisch. Der Vorteil ist nur dann groß, wenn man wirklich massiv eDRAM einsetzt. Da müsste dann zumindest der gesamte Z-buffer reinpassen. Also minimum 64MB, besser wären aber 128MB (für die ganzen Zusatzbuffer). Das sind dann mal locker 1 Mrd. Transistoren.

robbitop
2013-01-16, 08:50:57
Na das gilt nur bei der gleichen TDP. Entsprechend Vcore vorausgesetzt wären 2,5 Ghz sicherlich kein allzu großes Problem.
Frage ist halt, ob man sich das leisten kann/will. Aber Ende werden es doch keine Jaguars ;-)
Wenn man auf die TDP keine Acht gibt, bekommt man ihn sicher auf 2,5 GHz. Aber ganz sicher nicht linear. Mit 1 GHz nimmt Tamesh 5 W. Mit 1,7 (?) GHz nimmt er schon 15 W. Jetzt kann man sich überlegen, wie es mit 2,5 GHz aussehen wird. Das skaliert irgendwann einfach super ungünstig.
Und das bei 8x Kernen? Da stimmt einfach Aufwand/Nutzen nicht mehr überein. Es wird überproportional schlecht. Da wäre dann schon ein anderes CPU Design besser oder mehr Kerne oder die TDP in die GPU zu investieren.

Jaguar: Naja, STM hat es geschafft einen ARM a9 mit nur 8+ Stages auf 2,5GHz zu prügeln (mit FD-SOI) und ein Jaguar hat 14+ Stages. Da sollten 2,5GHz doch drin sein.
Unmöglich ist es nicht. Aber die TDP wird super schlecht. Siehe oben. Und ein Jaguar ist zich mal komplexer als ein A9 - und du willst immerhin 8x davon haben. ;)


256bit: ich hab mich extra auf 256bit beschränkt, damit es auch noch beim nächsten Prozesswechsel, also mit 20nm/14xm noch hinhaut. Eigentlich wären die 360-380mm² ja groß genug für 384bit.

Wegen der Padlimitierung meinst du?
Wird keiner machen aus bereits genannten Gründen. Da verwette ich sonstwas drauf.


eDRAM sehe ich persönlich ein wenig kritisch. Der Vorteil ist nur dann groß, wenn man wirklich massiv eDRAM einsetzt. Da müsste dann zumindest der gesamte Z-buffer reinpassen. Also minimum 64MB, besser wären aber 128MB (für die ganzen Zusatzbuffer). Das sind dann mal locker 1 Mrd. Transistoren.
Warum soll das nicht helfen? Die Xbox 360 hat 10 MiB und das hat wunderbar geholfen. Zur Not hat man es mit Tiling gemacht.

1920 x 1080 x 24 Bit x 1 Transistor pro Bit = 49.766.400 Transistoren bzw 5,93 MiB. Wenn man jetzt noch MSAA dazurechnet, sind es dann ~ 200 Mio Transistoren und 24 MiB. Wobei ich langfristiges MSAA eher bezweifle (dank hoher Kosten bei Defered Shader Engines).

eDRAM wäre eh ein extra Chip (extra Prozess) - >64 MiB sollten kostenmäßig kein Problem sein. Nintendo hat bei seiner Billigkonsole bereits 32 MiB. Intels Haswell wird 128 MiB drauf haben. Und durch Shrinks wird es billiger.

Wenn das nicht helfen würde, würden Konsolen nicht schon seit Ewigkeiten eDRAM/1T-SRAM verbauen. Das ist langfristig einfach billiger als ein breites SI.

tobor
2013-01-16, 09:03:03
Diese DDR3 Geschichte ist doch Quatsch. Mal angenommen da wären 8GB DDR3-1600 verbaut. Das sind mickrige 25,6GB/s an einem 128Bit SI. Was will man denn damit? :D Und breiteres SI ist teuer, wobei man hier selbst mit 256Bit nicht weit kommt. Imho werden beiden auf GDDR5 setzen.
Für alles, was eine hohe Bandbreite benötigt, wird ohnehin Edram genutzt,der diesmal in ausreichender Menge verbaut wird.

robbitop
2013-01-16, 09:11:25
Das kann der eDRAM nicht abfangen. Du brauchst den Hauptspeicher für 8x CPUs und für Texturen, Geometrie, Leveldaten, Teile des Framebuffers, Defered Shader Buffer etc. Das geht mit 25 GB/s nicht sinnvoll. Das Ding würde extremst ausgebremst werden.

AnarchX
2013-01-16, 09:29:48
~90GB/s mit 6Gbps GDDR5, der Ende 2013 endgültig Massenware sein wird und auch in 512MiB-Chips vorliegen sollte, dürfte wohl die vernünftige Wahl sein.
Dazu noch eDRAM und man ist wohl effektiv auf dem Niveau einer 120-150GB/s GraKa.

Auf der anderen Seite entsprechen die 128-Bit 1,4Gbps (@2005/2006) der Xbox 360 heute eher 192-Bit 6Gbps/256-Bit 5Gbps.

Skysnake
2013-01-16, 09:39:56
Das kann der eDRAM nicht abfangen. Du brauchst den Hauptspeicher für 8x CPUs und für Texturen, Geometrie, Leveldaten, Teile des Framebuffers, Defered Shader Buffer etc. Das geht mit 25 GB/s nicht sinnvoll. Das Ding würde extremst ausgebremst werden.
Das kannst du so nicht sagen.

Kommt halt immer darauf an, um wieviel du den Datenreuse erhöhen kannst.

Nehmen wir mal die 25GB/s vs 100 GB/s vs 200 GB/s, wobei 200 schon lächerlich hoch gegriffen sind.

Dann musst du jedes Datum nu 4 bzw 8 mal wiederverwenden, um effektiv auf die gleiche Bandbreite zu kommen. Das ist nicht wirklich unbeschreiblich viel. Vor allem nicht, wenn man dran denkt, wie hoch der Datenreuse eh schon bei den GPUs sein muss, um diese vernünftig aus zu lasten...

Dazu kommt noch, das GCN ja durchaus Tricks gelernt hat, um nur die Texturdaten zu lesen, die man auch wirklich braucht. Wenn man das geschickt mit nem 32/64 MB Cache verknüpft, kann man da am Ende durchaus den notwendigen Datenreuse erreichen.

Vor allem aber hat man im Zweifel immer noch die Option offen, den "Cache" nicht als "Cache" zu nutzen, sondern als Shared Memory. Quasi wie der Shared Memory auf GPUs, in den ich expliziet reinschreiben muss. Damit sollte zumindest bei der GPU einiges an Bandbreite gewonnen werden können. Macht zwar die Programmierung aufwändiger, aber bei Konsolen ist das durchaus vertretbar.

Kurz um, was ich sagen will. Deine Aussage ist viel zu leichtfertig getätigt. Wenn man will, kann man das schon machbar machen. Es kommt halt nur drauf an, wie gut sich die realen Anwendungen darauf umbiegen lassen, um die Anforderungen zu erfüllen, bzw. wieviel Mehraufwand es bedeutet.

robbitop
2013-01-16, 09:52:05
Tja das will ich in der Praxis erstmal sehen. :)
Sicherlich gibt es für alles seine Methoden. Doch was machst du wenn das, was du brauchst, doch nicht im Cache ist? Hast du dann inkonsistente Performance?

Skysnake
2013-01-16, 10:07:12
Ja, so wie immer :ugly: Ist ja nicht so, das man heute keine Caches hat :ugly:

Das ist doch kein Argument. Problematisch wirds nur, wenn du ne ganze Zeit lang den gesamten "Cache" flushst. Ansonsten ist das kein Problem. Mit 25 GB/s kannste nen 64 MB Cache ~400 mal pro Sekunde komplett flushen. Selbst mit 60 FPS musst du also nur dafür Sorgen, dass du unter 6 kompletten Flushs pro Frame bleibst.

Das sollte durchaus machbar sein. So groß sind die Workingsizes pro Frame jetzt auch nicht. Vor allem eben nicht, wenn man nur das lädt, was man wirklich braucht.

S940
2013-01-16, 11:30:50
Wenn man auf die TDP keine Acht gibt, bekommt man ihn sicher auf 2,5 GHz. Aber ganz sicher nicht linear. Mit 1 GHz nimmt Tamesh 5 W. Mit 1,7 (?) GHz nimmt er schon 15 W. Jetzt kann man sich überlegen, wie es mit 2,5 GHz aussehen wird. Das skaliert irgendwann einfach super ungünstig.Sicherlich stimmt das, aber das gilt nur, wenn auch der gleiche Prozess wie bei den AMD Chips verwendet wird.

Das muss jetzt nichtmal FD-SOI sein, da reichen auch schon Unterschiede zw. LPM und HPM Prozessen um keine Skalierung zuzulassen.

dargo
2013-01-16, 11:44:02
Wenn man auf die TDP keine Acht gibt, bekommt man ihn sicher auf 2,5 GHz. Aber ganz sicher nicht linear. Mit 1 GHz nimmt Tamesh 5 W. Mit 1,7 (?) GHz nimmt er schon 15 W. Jetzt kann man sich überlegen, wie es mit 2,5 GHz aussehen wird. Das skaliert irgendwann einfach super ungünstig.
Und das bei 8x Kernen? Da stimmt einfach Aufwand/Nutzen nicht mehr überein. Es wird überproportional schlecht. Da wäre dann schon ein anderes CPU Design besser oder mehr Kerne oder die TDP in die GPU zu investieren.

Mal ne ganz wilde Idee... was würde gegen einen Turbo Boost sprechen? Die Taktrate also mit 2-4 Cores automatisch steigern bei einer 8 Core CPU. Gerade beim knappen TDP-Budget würde das doch Sinn machen. Oder meint ihr die Implementierung so einer Funktion ist zu teuer/aufwändig für Konsolen?

AnarchX
2013-01-16, 11:52:16
Wenn, dann aber nur deterministisch, sonst wäre es keine einheitliche Plattform mehr. Denkbar wäre vielleicht auch, dass die Entwickler Kontrolle über die jeweillige Taktrate der Kerne bekommen und sich dann eben für 8x 1,5 oder 4 x 2,5GHz entscheiden können.

robbitop
2013-01-16, 11:52:35
Habe ich auch mal überlegt. Dass zumindest wenige Kerne höher takten. Wäre auch sinnvoll.

Iruwen
2013-01-16, 11:54:29
Ich glaub ein zu niedriger Takt würde den einen oder anderen Entwickler der mit echter multithreaded Entwicklung und den damit verbundenen Kosten und Komplikationen nicht vertraut ist vor echte Probleme stellen. Ich denk da speziell an kleine und Indie Studios. Wie lange hat sich keiner richtig an solche Engines rangetraut obwohl es schon ewig Multicore CPUs gibt?

dargo
2013-01-16, 12:04:58
Denkbar wäre vielleicht auch, dass die Entwickler Kontrolle über die jeweillige Taktrate der Kerne bekommen und sich dann eben für 8x 1,5 oder 4 x 2,5GHz entscheiden können.
Ja, sowas stelle ich mir vor. Wäre vorallem am Anfang der Konsole sehr sinnvoll. Ich kann mir nämlich nur schwer vorstellen, dass gerade am Anfang gleich massig Games kommen die mit 8 Cores was sinnvoll anfangen können.

S940
2013-01-16, 12:20:26
Ja, sowas stelle ich mir vor. Wäre vorallem am Anfang der Konsole sehr sinnvoll. Ich kann mir nämlich nur schwer vorstellen, dass gerade am Anfang gleich massig Games kommen die mit 8 Cores was sinnvoll anfangen können.
"Sollte" mittlerweile eigentlich kein Problem mehr sein. Anfangs bei der XBOX360 wars ja so schlimm, da hat keiner deren 6 Threads genutzt. Aber mittlerweile sollten sich die Entwicklerstudios eigentlich daran "gewöhnt" haben.
Wird sicherlich wieder ein paar schwarze Schafe geben, aber in der Überzahl sollten sie nicht sein. Aber warten wir mal ab ^^

mboeller
2013-01-16, 12:58:04
Das kannst du so nicht sagen.

Kommt halt immer darauf an, um wieviel du den Datenreuse erhöhen kannst.

Nehmen wir mal die 25GB/s vs 100 GB/s vs 200 GB/s, wobei 200 schon lächerlich hoch gegriffen sind.


Du beschreibst sehr schön meine Bedenken gegen eDRAM. :) Es funktioniert nur unter speziellen Bedingungen gut. Wenn es nicht gut funktioniert, dann leidet man unter der geringen externen Bandbreite und hat zudem noch das Problem, das man 2 Speicherbereiche hat.

Ich würde wirklich gerne wissen wie groß der Flächenbedarf für ein 64MB od. 128Mb großes eDRAM ist (mm²) um das dann mit dem Flächenbedarf für ein von 128bit auf 256bit verbreitertes Speicherinterface zu vergleichen.

del_4901
2013-01-16, 13:02:53
...um das dann mit dem Flächenbedarf für ein von 128bit auf 256bit verbreitertes Speicherinterface zu vergleichen.
das geht vor allem zu kosten des Mainboards. Mit eDRAM braucht der Chip intern trotzdem ein breites Interface. Von daher ist der Flaechenvergleich nicht sinvoll. Viel interessanter ist es wieviel Recheneinheiten fuer jedes MB eDRAM drauf gehen wuerden.

robbitop
2013-01-16, 13:13:12
@mboeller
Rechne es dir doch aus:
x MiB * 1024 * 1024 * 8 Bit * 1 Transistor pro Bit = Transistormenge.
Transistormenge * Packdichte = Kerngröße. Die Packdichte suchst du dir je nach Prozess heraus.
Packdichte von TSMC 28 nm liegt bei ~ 9 * 10^-8 mm/Transistor.

64 MiB eDRAM hätten also rund 48 sqmm. 128 MiB entsprechend das Doppelte.
Da die Dinger einen extra Prozess brauchen, werden sie auch separat gefertigt und über das Package angebunden. Kann nicht sehr teuer sein (siehe Nintendo und Intel).

Ab einer gewissen Menge, bekommst du nicht nur den Z-Buffer sondern auch noch Color-Buffer und die Defered Shader Buffer hinein.

Für FullHD + MSAA wird diesen eDRAM aber sicher niemand auslegen. Dann muss ge-tile-t werden. Hat bisher bei allen Konsolen sehr gut geholfen, sofern die Hauptspeicherbandbreite nicht zu mikrig für den Rest ist.

del_4901
2013-01-16, 13:19:35
Da die Dinger einen extra Prozess brauchen, werden sie auch separat gefertigt und über das Package angebunden. Kann nicht sehr teuer sein (siehe Nintendo und Intel).

Nintendo sagt selber, dass der Speicher "on Chip" gefertigt wird.
http://iwataasks.nintendo.com/interviews/#/wiiu/console/0/0

mboeller
2013-01-16, 13:26:09
@mboeller
Rechne es dir doch aus:
x MiB * 1024 * 1024 * 8 Bit * 1 Transistor pro Bit = Transistormenge.
Transistormenge * Packdichte = Kerngröße. Die Packdichte suchst du dir je nach Prozess heraus.
Packdichte von TSMC 28 nm liegt bei ~ 9 * 10^-8 mm/Transistor.

64 MiB eDRAM hätten also rund 48 sqmm. 128 MiB entsprechend das Doppelte.
Da die Dinger einen extra Prozess brauchen, werden sie auch separat gefertigt und über das Package angebunden. Kann nicht sehr teuer sein (siehe Nintendo und Intel).

Ab einer gewissen Menge, bekommst du nicht nur den Z-Buffer sondern auch noch Color-Buffer und die Defered Shader Buffer hinein.

Für FullHD + MSAA wird diesen eDRAM aber sicher niemand auslegen. Dann muss ge-tile-t werden. Hat bisher bei allen Konsolen sehr gut geholfen, sofern die Hauptspeicherbandbreite nicht zu mikrig für den Rest ist.

Bei deiner Version hätte man die Nachteile aller Varianten vereint. Der "eDRAM" würde dann ja extern auf einem InterposerImposter sitzen und dadurch das gleiche Speicherinterface im SoC benötigen wir normaler GDDR5 Speicher. Und ob nun auf dem InterposerImposter GDDR5 sitzt oder ein MemoryCube macht nicht soviel aus. Der Verbrauch ist zwar beim GDDR5 höher aber ansonsten sehe ich hier keinen Vorteil.

mboeller
2013-01-16, 13:26:43
Viel interessanter ist es wieviel Recheneinheiten fuer jedes MB eDRAM drauf gehen wuerden.

Deshalb sehe ich das mit dem eDRAM ja nicht ein. :)

Skysnake
2013-01-16, 13:37:49
Wenn, dann aber nur deterministisch, sonst wäre es keine einheitliche Plattform mehr. Denkbar wäre vielleicht auch, dass die Entwickler Kontrolle über die jeweillige Taktrate der Kerne bekommen und sich dann eben für 8x 1,5 oder 4 x 2,5GHz entscheiden können.
Ja, das wäre durchaus praktikabel für eine Konsole, und würde den sehr stark abweichenden CPU-Anforderungen von modernen Spielen sehr entgegen kommen! Für die Entwickler wäre das nicht all zu schwer, aber dennoch ein cooles Feature, welches einem sehr helfen kann.

Bei deiner Version hätte man die Nachteile aller Varianten vereint. Der "eDRAM" würde dann ja extern auf einem Imposter sitzen und dadurch das gleiche Speicherinterface im SoC benötigen wir normaler GDDR5 Speicher. Und ob nun auf dem Imposter GDDR5 sitzt oder ein MemoryCube macht nicht soviel aus. Der Verbrauch ist zwar beim GDDR5 höher aber ansonsten sehe ich hier keinen Vorteil.
Warum sollte man da das gleiche Interface benötigen?

Du musst ja nicht mal runter vom package, geschweige denn übers MB.

Du bist direkt auf dem Package, oder eventuell sogar per Interposer verbunden. Da solltest du den Aufrisst mit einem GDDR what ever Interface nicht machen müssen.

robbitop
2013-01-16, 13:48:51
Bei deiner Version hätte man die Nachteile aller Varianten vereint. Der "eDRAM" würde dann ja extern auf einem Imposter sitzen und dadurch das gleiche Speicherinterface im SoC benötigen wir normaler GDDR5 Speicher. Und ob nun auf dem Imposter GDDR5 sitzt oder ein MemoryCube macht nicht soviel aus. Der Verbrauch ist zwar beim GDDR5 höher aber ansonsten sehe ich hier keinen Vorteil.
Du meinst Interposer? Welche Nachteile denn? Es sitzt auf dem gleichen Package und muss also nur über dieses verdrahtet werden. Das ging bei der X360 auch wunderbar und brachte hervoragende Resultate. Gleichzeitig spare ich mir ein wesentlich teureres Mainboard und etliche Pins nach außen hin.

Es kann keine schlechte Lösung sein - es hat sich über Konsolengenerationen hinweg als gut erwiesen.

Vorteil bei nicht On Die ist, dass du mehr Platz für Logik hast: CPU, GPU. Das würde ja sonst ziemliche Einschnitte bedeuten.

Ich kann den Artikel über die X360 von Dave Baumann wirklich empfehlen: http://www.beyond3d.com/content/articles/4/
Das war schon eine sehr gut ausbalancierte und leistungsfähige Konsole. Ich wüßte nicht, was jetzt anders sein sollte, was dazu führen würde, dass das bewährte Konzept nun schlecht sein sollte...

Und vergiss Interposer und Memory Cubes. Das wird beides nicht für die 2013 Konsolen massenreif mit hohen Yields und niedrigen Kosten praktisch nutzbar sein. Das ist eher Wunschdenken.

Flusher
2013-01-16, 13:57:03
Passend zur aktuellen Newsmeldung:

Falls tatsächlich Piledriver basierte Lösungen in den Next-Gen Konsolen eingesetzt werden, kann man ja jetzt noch hoffen, dass die Spieleleistung der aktuellen Bulldozer-Architekturen in zukünftigen Konsolenports deutlich steigt.

Ein lustiger und absurder Gedanke, wenn in 2 Jahren die heutigen FX-Prozessoren zukünftige Intel Architekturen wie Broadwell o.ä. in Spielen versägen.

00-Schneider
2013-01-16, 14:03:56
Mehrere Gerüchte sprechen bei der neuen Box übereinstimmend von einer ~1,2TFLOP GPU. Bandbreite von 60GB/s über einen 256er bus + ESRAM. (Was auch immer "ESRAM" sein soll...)

http://forum.beyond3d.com/showpost.php?p=1694356&postcount=18623
http://forum.beyond3d.com/showpost.php?p=1694349&postcount=18617


Was ist davon zu halten?

robbitop
2013-01-16, 14:22:48
256 Bit schätzt jemand, weil Durango auf 60 fps ausgelegt sein soll. Keine wirklich belastbare Schätzung IMO.

Karümel
2013-01-16, 15:59:54
nicht so teuer wie die ps3 aber wohl auf dem level der x360 also so 400€ in Europa wahrscheinlich.

Das habe ich auch schon gelesen, aber bei den ganzen Technischen "Daten/ Spekulationenen" die man so sieht, kommt mir ein Preis von 400 Euro doch relativ niedrig vor. Oder werden die die Konsolen wieder so subventionieren wie damals?

Käsetoast
2013-01-16, 17:47:41
Das habe ich auch schon gelesen, aber bei den ganzen Technischen "Daten/ Spekulationenen" die man so sieht, kommt mir ein Preis von 400 Euro doch relativ niedrig vor. Oder werden die die Konsolen wieder so subventionieren wie damals?
Wieso ein niedriger Preis? Wenn in die Konsole irgendwas in der Dimension einer Pitcairn GPU plus 8-Core Jaguar oder was auch immer mit 4GB Speicher kommt, dann ist das doch nicht so unendlich kostenaufwendig. Eine HD7850 kann man als Endkunde schon für ca. 150 € kaufen und eine CPU in der Leistungsklasse über die man munkelt ist auch kein exorbitantes Stück Hardware. Wenn ich einen PC mit ähnlicher Leistung zusammenbauen wollte, würde ich für GPU, CPU, Ram und Mainboard doch irgendwo bei 300 € landen. Wenn man das jetzt auf einen Anbieter wie Microsoft ummünzt sollte es kein Problem sein, so eine Hardware in eine Konsole samt Festplatte & Co zu quetschen und dabei im 400 € Bereich zu bleiben...

Großartige Gewinne sind da rein vom Konsolenverkauf natürlich nicht drin, aber das ist jenseits von Nintendo ja wohl sowieso nicht die Taktik der Wahl, wobei ich nichtmal sagen könnte, ob Subventionen mit im Spiel sind oder nicht...

Ridcully
2013-01-16, 20:10:52
Völlig Spekulation meinerseits aber das ist ja Thema des Threads:

Zur Lebzeiten der kommenden Konsolengeneration werden Brillen ob als VR oder 3d Anwendung zumindest am Markt erscheinen wenn nicht ihren Durchbruch haben.
Wäre es da nicht sinnvoll eine drahtlose Bildübertragungstechnik in die Konsolen zu integrieren? Mann könnte damit notfalls auch noch einen Klon der Nintendo Technik integrieren. Aber als Zielsetzung wäre eine 3d Brille zwei, drei Jahre nach Konsolenrelaase doch ein wirklicher Knaller. Dies müsste halt jetzt schon vorbereitet werden.

Klingt das für euch plausibel?

just4FunTA
2013-01-16, 20:17:47
das liegt absolut im Rahmen des wahrscheinlichen.

Knuddelbearli
2013-01-17, 04:07:05
ist bei der Xbox in verbindung mit Win8 Phones und Tablet eh sicher geplant

mboeller
2013-01-17, 07:15:33
Du meinst Interposer?

Ja schon. :ubash3:
Da hab ich mir den Namen wohl falsch gemerkt. Schxxxe.

mboeller
2013-01-17, 07:31:27
Es sitzt auf dem gleichen Package und muss also nur über dieses verdrahtet werden. Das ging bei der X360 auch wunderbar und brachte hervoragende Resultate. Gleichzeitig spare ich mir ein wesentlich teureres Mainboard und etliche Pins nach außen hin.


Können wir uns also auf folgendes einigen:

8GB GDDR5 auf einem Interposer anstelle auf dem Mainboard. :)

Beide Vorteile vereint. Großer UMA-Speicher ohne das Mainboard aufzublasen. Ist aus meiner Sicht aber eben kein eDRAM.


Es kann keine schlechte Lösung sein - es hat sich über Konsolengenerationen hinweg als gut erwiesen.


Naja, bei der X360 hat es funktioniert. Die Konsole war aber ursprünglich nur für 640x480 od. 854x480 ausgelegt worden. Das Tiling war eine Notlösung (AFAIR)

Bei der PS2 brauchen wir nicht zu diskutieren. Ohne eDRAM wäre die Konsole einfach nur abgesoffen weil die "GPU" unterirdische Features hatte. Ohne den schnellen eDRAM wären viele Effekte gar nicht möglich gewesen. Hat man bei den ersten Spielen/Demos die nicht von Sony kamen auch sehr schön gesehen.


Vorteil bei nicht On Die ist, dass du mehr Platz für Logik hast: CPU, GPU. Das würde ja sonst ziemliche Einschnitte bedeuten.


sehe ich auch so.


Und vergiss Interposer und Memory Cubes. Das wird beides nicht für die 2013 Konsolen massenreif mit hohen Yields und niedrigen Kosten praktisch nutzbar sein. Das ist eher Wunschdenken.

Für die erste Generation vielleicht, aber für die 2. Generation wären beide Systeme ideal. Wenn also nicht gleich ein Interposer eingesetzt wird, dann eben als Zwischenlösung 256bit - GDDR5 Speicher auf dem Mainboard. Und wenn die Technik serienreif ist dann wird sie eingesetzt um die Kosten zu drücken.

[edit]
Für mich wäre es ziemlich schade, wenn man aus kurzfristigem Kostendenken die "richtige" Lösung 8GB UMA-Speicher mit min. 200GB/sec Bandbreite nicht einsetzt und statt dessen auf "eDRAM" egal ob Interposer oder integriert ausweicht.

Skysnake
2013-01-17, 09:40:52
Was redest du von GDDR5 und eDRAM???

Das sind zwei komplett unterschiedliche Stiefel... GDDR5 ist normaler DRAM mit eben einem bestimmten Interface... eDRAM bezeichnet nur die Lokalisation der DRAMs, aber nicht das Interface...

Und nochmal. Kein Mensch würde auf die Idee kommen, das GDDR5 Interface zu nutzen, wenn du eine Anbindung per Interposer hast... DAS ist einfach schwachsinn.....

mboeller
2013-01-17, 10:26:03
Was redest du von GDDR5 und eDRAM???

Das sind zwei komplett unterschiedliche Stiefel... GDDR5 ist normaler DRAM mit eben einem bestimmten Interface... eDRAM bezeichnet nur die Lokalisation der DRAMs, aber nicht das Interface...

Und nochmal. Kein Mensch würde auf die Idee kommen, das GDDR5 Interface zu nutzen, wenn du eine Anbindung per Interposer hast... DAS ist einfach schwachsinn.....


eDRAM =/ GDDR5 weiß ich doch.....tsssss

Noch einmal:
1. Generation = GDDR5 auf dem Mainboard [ oder aber auf einem MXM, fällt mir gerade ein ]
2. Generation = Interposer + MemoryCube

Das :) beim ersten Satz hast du wohl übersehen. War nicht ganz ernst gemeint mit dem Interposer. Oder denk dir einfach ein MXM-Modul auf dem Mainboard für die erste Generation.

robbitop
2013-01-17, 11:06:23
Ich empfehle dir, den X360 B3D Artikel zu lesen. Das Tiling war keinesfalls eine Notlösung. Es war von Anfang an so vorgesehen. Die Auflösung ist immer eine Frage, wie viel Leistung da ist. Mit weniger Details ginge auch 1080p60. Aber das will keiner sehen. Und sie mussten 8 Jahre überbrücken ohne Hardware. Das geht nicht alles nur durch neue Algorithmen. Da muss man auch an der Auflösung knapsen. Die X360 war eigentlich für 720p gedacht.
Der eDRAM war kein Flaschenhals. Im Gegenteil - die Entwickler behaupten eigentlich alle, dass die Konsole super ausgewogen war. Für höhere Auflösungen (bei gleichen Details) fehlte es nicht hauptsächlich an Bandbreite sondern alles. CPU Leistung, RAM, Rohleistung der GPU etc.

Und das wird bei der nächsten Konsolengeneration wieder so sein. Irgendwann werden Details gegen Auflösung eingetauscht, da es wieder Jahre sein werden, bis es was neues gibt.

Wenn 10 MiB für die letzte Generation reichten, warum sollen dann nicht >= 64 MiB für die nächste Generation reichen? Nochmal: du bekommst den ganzen fragmentierten Framebuffertraffic dort hinein und entlastest den Hauptspeicher massiv.
Dann brauchst du diesen hauptsächlich für die CPUs und Texturen.

256 bit ist sicherlich nicht unmöglich - aber dann verzichtet man sicher auf eDRAM auf dem Package. Ich halte es für weniger wahrscheinlich. Das ist einfach zu teuer für die extrem kostensensitiven Konsolen.

Zum eDRAM in der Historie: Gamecube, Wii, WiiU, PS2. Die PS2 brauchte es zum loopen, um Effekte zu generieren. Aber sicher auch für den Framebuffer. Die Nintendokonsolen haben 1T-SRAM, was praktisch das gleiche ist.

N0Thing
2013-01-17, 11:37:46
Völlig Spekulation meinerseits aber das ist ja Thema des Threads:

Zur Lebzeiten der kommenden Konsolengeneration werden Brillen ob als VR oder 3d Anwendung zumindest am Markt erscheinen wenn nicht ihren Durchbruch haben.
Wäre es da nicht sinnvoll eine drahtlose Bildübertragungstechnik in die Konsolen zu integrieren? Mann könnte damit notfalls auch noch einen Klon der Nintendo Technik integrieren. Aber als Zielsetzung wäre eine 3d Brille zwei, drei Jahre nach Konsolenrelaase doch ein wirklicher Knaller. Dies müsste halt jetzt schon vorbereitet werden.

Klingt das für euch plausibel?

Ich denke nicht, daß die neuen Konsolen schon mit Blick auf Peripherie, die erst in einigen Jahren angeboten werden sollen, konzipiert werden.
Wahrscheinlicher dürfte bei Bedarf ein Addon kommen, daß man extern wie Kinect oder Move an die Konsole anschließt, wenn man so etwas wie eine 3D- oder VR-Brille später als Verkaufszahlen-Kicker anbieten will.

Nakai
2013-01-17, 12:43:15
256 bit ist sicherlich nicht unmöglich - aber dann verzichtet man sicher auf eDRAM auf dem Package. Ich halte es für weniger wahrscheinlich. Das ist einfach zu teuer für die extrem kostensensitiven Konsolen.

Das würde ich nicht sagen. Wird DDR3 verwendet, ist das PinOut sowieso geringer. Wird alles bzw. fast alles in einem SOC gepackt, sollte der DIE etwa 300mm² groß sein. Das wäre weitaus genug DIE-Size um 256Bit DDR3 selbst im nächsten Shrink zu ermöglichen.

Vom Takt her könnte irgendwas zwischen 1600MHz und 2000MHz gut möglich.
Bei 256Bit sind das ~60GB/s.
Bei gut schnellem EDRAM(~1TB/s halte ich für möglich) und einem EDRAM der groß genug ist(32MB+), sollte die Bandbreite die am Ende rauskommt hoch genug sein.

robbitop
2013-01-17, 13:45:27
Die Frage ist, ob 256 Bit DDR3 billiger ist als 128 bit GDDR5. (und es wäre immernoch weniger Bandbreite) So viel weniger Pinout dürfte DDR3 nicht haben als GDDR5. Hat GDDR5 ein paar mehr Masseleitungen?

Knuddelbearli
2013-01-17, 14:06:57
kommt denk ich vor allem auf die speicherkapazität an

8GB GDDR5 dürfte doch ziemlich teuer sein vor allem wenn es recht schneller ist

robbitop
2013-01-17, 14:27:54
Ich meine einen Vergleich schon bei gleicher Kapazität.

john carmack
2013-01-17, 19:20:19
hatten wir das schon??

Nächste Playstation mit 1,84 und Xbox mit 1,23 Teraflops

http://www.golem.de/news/konsolengeruechte-naechste-playstation-mit-1-84-und-xbox-mit-1-23-teraflops-1301-96992.html

dargo
2013-01-17, 19:34:31
Nur 1,23Tflops? Das wäre gerade mal HD7770 Niveau. Hmm... die 1,84Tflops liegen wieder ziemlich nah bei Pitcairn Pro.

Edit:
Was ich aber nicht ganz peile... wie kommt man bei einer A10-APU auf 1,84TFlops? Ich meine in 32nm gibts gerade mal sowas:
http://geizhals.at/de/805214

Meint ihr in 28nm sind 1,84TFlops realistisch?

Silentbob
2013-01-17, 19:38:38
Die sollen einfach die Katze aus dem Sack lassen und die Kisten vorstellen. :mad:

Karümel
2013-01-17, 19:40:18
Die sollen einfach die Katze aus dem Sack lassen und die Kisten vorstellen. :mad:

Bis zur E3 wird das "Spekulieren" wohl noch weitergehen.

Was mich noch interessieren würden. Werden die was an den Gamepads verändern?

Crazy_Bon
2013-01-17, 19:48:20
hatten wir das schon??

Nächste Playstation mit 1,84 und Xbox mit 1,23 Teraflops

http://www.golem.de/news/konsolengeruechte-naechste-playstation-mit-1-84-und-xbox-mit-1-23-teraflops-1301-96992.html
Deckt sich irgendwie mit Current-Gen (Overall Performance), PS3 mit 2 Teraflops, Xbox360 mit 1 Teraflops.

FelixPaul
2013-01-17, 20:38:53
Die sollen einfach die Katze aus dem Sack lassen und die Kisten vorstellen. :mad:

Ob die dann auch die ganzen Hardware-Daten preis geben werden?

TheCounter
2013-01-17, 20:41:06
Auf der GDC solls ja angeblich soweit sein. Wäre ja zumindest schon im März und nicht erst im Juni.

Diese ganzen TF Werte sind doch alle fürn Ar***. Einfach mal abwarten :D

00-Schneider
2013-01-17, 20:59:25
Ob die dann auch die ganzen Hardware-Daten preis geben werden?


Nö. Aber sie werden einige Demos vorstellen, die zeigen werden, was die neuen Konsolen letztendlich können. Daraus lässt sich dann auch grob die Leistungsfähigkeit ableiten.

Richtige und vollständige Specs gibts erst, wenn jemand die fertigen Konsolen aufgeschraubt und reingeschaut hat. :D

john carmack
2013-01-17, 21:22:17
wäre schon cool wenn die spiele so wie die samaritan demo aussehen würden...

...hmmm was mir grad dazu einfällt. Wachsen dann die ansprüche für Hardware von PC´s dann sprunghaft an?

Karümel
2013-01-17, 21:26:05
Wenn ich das richtig weiß hat damals Sony bei der Vorstellung der PS3 nicht auch was an Techdemos gezeigt die bis heute nicht geschafft wurden?
PS3 bringt 2 mal FullHD gleichzeitig auf den Bildschirm Oder sowas in der Art.

kunibätt
2013-01-17, 21:44:59
1.) Ja, klar. Wenn denn überhaupt portiert wird. Zum Glück wird dann ein BD-Laufwerk Mindestvoraussetzung am PC sein - es wird Zeit!

2.) Waren Renderfilmchen die als realtime verkauft wurden.

Lightning
2013-01-17, 22:07:43
Nö.

Würde ich nicht mit Bestimmtheit sagen. Zu PS3 und 360 wurde iirc schon einiges offiziell bekanntgegeben. Das war früher allgemein nicht so unüblich, nur von Nintendo hört man nicht mehr viel, seit sie sich aus dem "Hardware-Rennen" zurückgezogen haben.
Allerdings werden MS und Sony mit den nächsten Konsolen auch nicht mehr so sehr protzen können, sodass man sich jetzt vielleicht auch stärker mit der Bekanntgabe von Hardware-Specs zurückhält. Ein bisschen mehr Infos als zur Wii U erwarte ich aber schon.

Bösewicht
2013-01-17, 22:38:58
Aus dem "Hardware-Rennen" zurückgezogen?
Nintendo hatte sein SNES, Sony braucht nachdem eine Zusammenarbeit mit Nintendo nicht geklappt hat eine eigene Konsole und seitdem glauben einige Sony Fans das Nintendo alles genau so machen müsste wie die Konkurrenz.

Konsolen Subventionieren im großen still finde ich nicht wirklich vorbildhaft :smile:

Nakai
2013-01-17, 23:53:25
Aus dem "Hardware-Rennen" zurückgezogen?
Nintendo hatte sein SNES, Sony braucht nachdem eine Zusammenarbeit mit Nintendo nicht geklappt hat eine eigene Konsole und seitdem glauben einige Sony Fans das Nintendo alles genau so machen müsste wie die Konkurrenz.

Konsolen Subventionieren im großen still finde ich nicht wirklich vorbildhaft :smile:

Abwarten, obs wirklich so kommt.

Die Nintendo Wii U ist für das, was sie liefert, verdammt teuer. Es sind immerhin drei DIEs und noch zusätzliche Chips auf dem Mainboard(ist ja nichts besonderes).
Bei der Xbox720 und PS4 erwarte ich einen SOC zwischen 250 bis 350mm².
Von der Grafikleistung sind beide sehr ähnlich:

Kleine Speku:

Xbox720:
PowerPC (8 - 16 Threads)
768SP GCN1
32 - 64MB EDRAM (500GB/s -1TB/s)
8GB GDDR5/DDR3 256Bit

PS4:
Jaguar | Piledriver | Steamroller (~8 Threads)
1024SP GCN1
512 - 1024MB GDDR5 Siliconinterposer (~200GB/s)
4 - 8 GB GDDR5/DDR3 128Bit

Klar, vieles stammt auch aus der 3DC-News-Speku.
Beide Konsolen nehmen sich nicht viel.
Ich habe viele Vorbehalte einiger Spekus.

TheCounter
2013-01-18, 00:14:43
Der 8-Core Jaguar in der neuen Xbox gilt schon als gesichert.

Lightning
2013-01-18, 00:24:30
Aus dem "Hardware-Rennen" zurückgezogen?
Nintendo hatte sein SNES, Sony braucht nachdem eine Zusammenarbeit mit Nintendo nicht geklappt hat eine eigene Konsole und seitdem glauben einige Sony Fans das Nintendo alles genau so machen müsste wie die Konkurrenz.

Konsolen Subventionieren im großen still finde ich nicht wirklich vorbildhaft :smile:

Das war doch keine wertende Aussage. Fakt ist einfach, dass Nintendo seit der Wii rein von der Hardwareleistung nicht mehr vorne mitspielen will (und folglich auch kein Interesse daran hat, detailliertere Specs zu veröffentlichen). Ob man das gut oder schlecht findet, bleibt jedem selbst überlassen.

Der 8-Core Jaguar in der neuen Xbox gilt schon als gesichert.

Sind imo immer noch Gerüchte und nichts handfestes. Auch wenn ich es für wahrscheinlicher halte als nochmals eine PPC-CPU.

dildo4u
2013-01-18, 00:41:13
MS braucht in jedem Fall was was Ende 2013 ist Masse verfügbar ist,vielleicht setzt man daher auf den Sparcore Jaguar Alternative wäre Piledriver mit 4 Cores.Mit der PS4 reche ich weiter nich vor März 2014 dann aber halt mit Steamroller Kernen,vermutlich beim Cache beschnitten also die SOC Version.

http://www.3dcenter.org/news/neue-amd-roadmap-bestaetigt-amds-cpu-plaene-fuer-2013

Die Roadmap sieht Steamroller leicht nach Jaguar.Ich denke mit na 30-40 Watt CPU hat man genug Dampf,die GPU wird wichtiger und ca 100 Watt nehmen.
Zum Vergleich schon Trinity ist ca so schnell wie ein Phenom 2 mi 4 Cores imo genug für ne GPU auf Level einer 7800.

http://www.computerbase.de/artikel/prozessoren/2012/alle-desktop-trinity-im-cpu-vergleichstest/7/

Gipsel
2013-01-18, 03:11:04
PS4:
Jaguar | Piledriver | Steamroller (~8 Threads)
1024SP GCN1
512 - 1024MB GDDR5 Siliconinterposer (~200GB/s)
4 - 8 GB GDDR5/DDR3 128Bit
Es wurde zwar schon mehrfach erwaehnt, aber dann jetzt nochmal:
Mit stacked DRAM auf einem Interposer wird keine der ueblichen (G)DDR# Anwendung finden. Das macht einfach keinen Sinn. Wenn, dann gibt es HMC (wer weiss, ob das bis dahin einsatzfertig ist) oder eben HBM aka WideIO2, aehnlich wie es bei der PS Vita (nutzt WideIO) zum Einsatz kommt. Und bei zwei Stacks (das war auf dem einen Prototypen zu sehen) mit jeweils 4 DRAM-Dies zu je 4 GBit kommt man auf genau 4 GB, die bei einem moderaten Takt von 750MHz (SDR natuerlich, auf highspeed serielle Verbindungen verzichtet man, das ist ja gerade der Trick bei stacked DRAM auf dem Die bzw. auf einem Interposer, die 750MHz entsprechen genau dem internen DRAM Takt bei GDDR5 mit 6 GT/s) bei der dann vermutlich gewaehlten Anbindung von 256 Bit pro Die (256 Bit ist ebenfalls die interne Busbreite des DRAM-Arrays eines 32Bit GDDR5 Chips, ergibt dann 1024 Bit pro Stack bei 4 Dies pro Stack bzw. fuer die 2 Stacks dann 2048 Bit insgesamt) auf 192GB/s Bandbreite kommen wuerde.

Der Vergleich zu GDDR5 wurde uebrigens nur gezogen, um zu zeigen, dass die genannten Parameter vollkommen ueblich fuer DRAM-Chips sind. Der Unterschied zu einem 32bit 4GBit GDDR5-Chip besteht eigentlich nur darin, dass man den ziemlich strom- und platzfressenden, hochgetakteten IO-Teil weglaesst, und den DRAM direkt mit der internen Breite und dem internen Takt anbindet (was wie gesagt bei einem 6GBit/s 32Bit GDDR5-Device 256Bit bzw. 750MHz sind, der Faktor ergibt sich uebrigens aus dem prefetch-Wert), was ja mit einem Interposer kein Problem ist.

nampad
2013-01-18, 04:16:43
Aus dem "Hardware-Rennen" zurückgezogen?
Nintendo hatte sein SNES, Sony braucht nachdem eine Zusammenarbeit mit Nintendo nicht geklappt hat eine eigene Konsole und seitdem glauben einige Sony Fans das Nintendo alles genau so machen müsste wie die Konkurrenz.

Konsolen Subventionieren im großen still finde ich nicht wirklich vorbildhaft :smile:

Ich bevorzuge als Kunde eindeutig subventionierte Hardware gegenüber veralteter überteuerter Hardware. Als rationaler Konsument kann man das einfach nicht anders sehen.

Bösewicht
2013-01-18, 08:32:02
Ich bevorzuge als Kunde eindeutig subventionierte Hardware gegenüber veralteter überteuerter Hardware. Als rationaler Konsument kann man das einfach nicht anders sehen.
Klar ich doch auch und wer im 3dc ist keine Grafik Hure?
Für aktuelle Hardware ist man aber bei jeder Konsole Falsch aufgehoben... einige hier haben PC´s die schon jetzt 10x so schnell sind wie die kommenden Nextgen Konsolen!

Die WiiU kann ohne Probleme ein Mass Effect3 abspielen, ob man es glaubt oder nicht für die Meisten die nur hin und wieder was Spielen wollen reicht das völlig aus.

robbitop
2013-01-18, 09:50:26
AMD für beide Konsolen ist schon so oft aufgetaucht, dass es halbwegs wahrscheinlich ist. Von PPC redet schon lange keiner mehr. Interposer sind Wunschgedanken IMO.
Die jetzigen Gerüchte sprechen von Jaguar auf der Xbox und einer größeren Fusion APU (Bulldozer und Nachfolger).
Bisher sprechen Gerüchte von der Radeon 8800 Series.
Wenn das eine umgelabelte 7800er ist, kann das alles zwischen 1024 SPs und 1536 SPs bedeuten.

Avalox
2013-01-18, 10:14:20
Ich bevorzuge als Kunde eindeutig subventionierte Hardware gegenüber veralteter überteuerter Hardware. Als rationaler Konsument kann man das einfach nicht anders sehen.

Als irrationaler Konsument vielleicht.

Es ist einfach eine Rechenaufgabe.

Kaufst du mehr Spiele als der Durchschnitt zahlst du bei subventionierter Hardware drauf, kaufst du weniger Spiele als der Durchschnitt zahlen die anderen für Dich.

Iruwen
2013-01-18, 13:00:28
Klingt fair.

dargo
2013-01-18, 13:11:30
Bisher sprechen Gerüchte von der Radeon 8800 Series.
Wenn das eine umgelabelte 7800er ist, kann das alles zwischen 1024 SPs und 1536 SPs bedeuten.
Dann würde das mit den 1,23Tflops bei der nächsten Xbox nicht mehr passen. Wenn ich mich nicht verrechnet habe müsste man den GPU-Takt auf 600Mhz runterdrücken beim Pitcairn Pro @1024SPs um eben auf jene Tflops zu kommen.

Knuddelbearli
2013-01-18, 13:26:23
merh als 800Mhz dürfte man auch nicht sehen

robbitop
2013-01-18, 13:31:30
Naja auf Konsolen hast du eine ganz andere Kühlmöglichkeit. Ich kann mir gut vorstellen, dass die Taktraten nicht vergleichbar sind mit denen von Grafikkarten. Takt kostet oftmals ja richtig Leistungsaufnahme (wegen höherer Vcore).
In Stein sind die 1,23 TFlops/s aber hoffentlich auch nicht.

Nakai
2013-01-18, 14:39:05
Es wurde zwar schon mehrfach erwaehnt, aber dann jetzt nochmal:
Mit stacked DRAM auf einem Interposer wird keine der ueblichen (G)DDR# Anwendung finden. Das macht einfach keinen Sinn. Wenn, dann gibt es HMC (wer weiss, ob das bis dahin einsatzfertig ist) oder eben HBM aka WideIO2, aehnlich wie es bei der PS Vita (nutzt WideIO) zum Einsatz kommt. Und bei zwei Stacks (das war auf dem einen Prototypen zu sehen) mit jeweils 4 DRAM-Dies zu je 4 GBit kommt man auf genau 4 GB, die bei einem moderaten Takt von 750MHz (SDR natuerlich, auf highspeed serielle Verbindungen verzichtet man, das ist ja gerade der Trick bei stacked DRAM auf dem Die bzw. auf einem Interposer, die 750MHz entsprechen genau dem internen DRAM Takt bei GDDR5 mit 6 GT/s) bei der dann vermutlich gewaehlten Anbindung von 256 Bit pro Die (256 Bit ist ebenfalls die interne Busbreite des DRAM-Arrays eines 32Bit GDDR5 Chips, ergibt dann 1024 Bit pro Stack bei 4 Dies pro Stack bzw. fuer die 2 Stacks dann 2048 Bit insgesamt) auf 192GB/s Bandbreite kommen wuerde.

Der Vergleich zu GDDR5 wurde uebrigens nur gezogen, um zu zeigen, dass die genannten Parameter vollkommen ueblich fuer DRAM-Chips sind. Der Unterschied zu einem 32bit 4GBit GDDR5-Chip besteht eigentlich nur darin, dass man den ziemlich strom- und platzfressenden, hochgetakteten IO-Teil weglaesst, und den DRAM direkt mit der internen Breite und dem internen Takt anbindet (was wie gesagt bei einem 6GBit/s 32Bit GDDR5-Device 256Bit bzw. 750MHz sind, der Faktor ergibt sich uebrigens aus dem prefetch-Wert), was ja mit einem Interposer kein Problem ist.

Dann hab ich mit meinen 200GB/s gut geschätzt. Danke für die interessante Aufklärung, hätte ich selbst, wegen mangelndem Wissen, nicht hinbekommen.

AMD für beide Konsolen ist schon so oft aufgetaucht, dass es halbwegs wahrscheinlich ist. Von PPC redet schon lange keiner mehr. Interposer sind Wunschgedanken IMO.
Die jetzigen Gerüchte sprechen von Jaguar auf der Xbox und einer größeren Fusion APU (Bulldozer und Nachfolger).
Bisher sprechen Gerüchte von der Radeon 8800 Series.
Wenn das eine umgelabelte 7800er ist, kann das alles zwischen 1024 SPs und 1536 SPs bedeuten.

Ob ein Interposer kommt, ist pure Spekulation. In Hinsicht auf zukünftige Kostenreduzierungen und Strukturverkleinerungen, sehe ich den Interposer als eher negativ. Man wird wohl eher den RAM direkt draufstacken, ohne Interposer(jedenfalls nicht so wie beim AMD-Prototyp).

Mehr als Pitcairn Pro für den Grafikteil würde ich nicht erwarten. Wenn ein SOC verwendet wird, können eh viele Chipteile zusammengelegt werden(SI, IO, etc). Bei 1024 SPs erwarte ich nicht mehr als 150mm² für den Grafikteil. Wenn Jaguar verwendet wird, würde ich nochmal 60mm² für 8Kerne und 4MB-Cache schätzen(pro Jaguarkern ~ 4mm² für höhere Taktraten). Zusätzliche Southbridge und Northbridgefunktionalitäten und Speicherinterfaces sollten den Chip auf um die 300mm² bringen können. Natürlich ist da auch viel Schätzungstoleranz enthalten.
Stromverbrauch eines solchen SOCs würde ich ~100W einschätzen, damit mit man mit allen Peripheriegeräten auf um die 150W kommt.

robbitop
2013-01-18, 14:50:15
Klingt relativ realistisch. Hauptspeicher wird IMO ganz stink normal auf der Platine sein + ggf. eDRAM auf dem Package.

dargo
2013-01-18, 15:36:42
Dann hab ich mit meinen 200GB/s gut geschätzt.
...
...
...
Mehr als Pitcairn Pro für den Grafikteil würde ich nicht erwarten. Wenn ein SOC verwendet wird, können eh viele Chipteile zusammengelegt werden(SI, IO, etc). Bei 1024 SPs erwarte ich nicht mehr als 150mm² für den Grafikteil.
Wofür sollen dann die im Verhältnis gigantischen 200GB/s genau gut sein? :confused:

Nightspider
2013-01-18, 15:39:11
Bandbreite ist bei hardwarenaher Programmierung ein wichtiger Faktor, wenn man das Maximum an Leistung aus der Hardware holen will.

Finch
2013-01-18, 15:48:02
Bandbreite ist bei hardwarenaher Programmierung ein wichtiger Faktor, wenn man das Maximum an Leistung aus der Hardware holen will.

arme Wii U :freak:

dargo
2013-01-18, 15:55:22
Bandbreite ist bei hardwarenaher Programmierung ein wichtiger Faktor, wenn man das Maximum an Leistung aus der Hardware holen will.
Hä? Das musst du mir jetzt mal genauer erklären.

Nakai
2013-01-18, 16:21:54
Beim Speicher muss man eh immer Wissen wie das gesamte System konzipiert ist. Werden mehrere Speichertypen benutzt(Register, Caches, Hauptspeicher) ist es eh immer notwendig diese Typen gut aufeinander abzustimmen.
Bandbreite ist auch nicht immer notwendig, genauso wie Latenzen desöfteren nicht so wichtig sind.

Es ist einfach nicht trivial, wie L1,L2,L3-Caches, der Hauptspeicher, EDRAM oder dedizierter Grafikspeicher konzipiert ist.
Spielekonsolen sind sowieso eher für Spiele gedacht, weswegen viel Content lokal gelagert werden sollte(alles ist schneller als optische Medien oder HDD).
Wenn dann noch ein UnifiedMemory verwendet wird, ist es sowieso notwendig, dass GPU und CPU relativ große lokale Caches bekommen(evtl sogar im SI). Ein zusätzlicher zweiter oder sogar dritter Speicherbereich können Zugriffsengpässe dramatisch reduziert werden. Hier werden viele statistische Methoden und Analysetools verwendet um solche zu erkennen und zu beheben.
Bei 200GB/s für 1GB RAM kann für vieles verwendet werden. Große Daten, Texturen und eben Daten, welche im lokalen Kontext desöfteren verwendet werden.

Gipsel
2013-01-18, 16:30:07
Ob ein Interposer kommt, ist pure Spekulation. In Hinsicht auf zukünftige Kostenreduzierungen und Strukturverkleinerungen, sehe ich den Interposer als eher negativ. Man wird wohl eher den RAM direkt draufstacken, ohne Interposer(jedenfalls nicht so wie beim AMD-Prototyp).Klingt relativ realistisch. Hauptspeicher wird IMO ganz stink normal auf der Platine sein + ggf. eDRAM auf dem Package.
Das mit dem Interposer ist natuerlich reine Spekulation, da zweifelhaft ist, ob es bis Mitte 2013 (da muß die Massenproduktion ja spätestens starten) breit einsatzfähig ist. Allerdings sollte man da auch einbeziehen, daß passive Interposer und auch DRAM-Stacking bereits verwendet werden, es geht also "nur" um die Kombination und hohe Yields des Ganzen.
In Hinsicht auf zukünftige Kostenreduzierungen und Strukturverkleinerungen hat ein Interposer uebrigens keine negativen Auswirkungen. Bei einem Shrink (sowohl SoC als auch DRAM) kann der Interposer ja auch kleiner ausfallen, er skaliert von den Kosten also mit. Und da man auch Erfahrungen mit der Interposerverarbeitung sammelt, sollten die Ausschußraten über die Zeit auch sinken.
Direktes 3D-Stacking auf dem Die ist eigentlich eher eine Alternative für LowPower-Dies. Bei einem 150W-fressenden 300mm² Die wird die Kühlung des Chips wohl zu stark beeinträchtigt, als daß das groß Sinn ergibt. Denn Interposer sind ja eigentlich spottbillig, da alte, längst abgeschriebene Technologie benutzt werden kann. Als Richtpreis gelten wohl so Waferkosten von nur 1$ pro 100mm² für passive Interposer. Ein 500mm² Interposer kostet also gerade mal 5$, die Kosten für einen 28nm-Wafer sind mehr als 10mal so hoch (und yields geringer). Das bedeutet, daß ein 500mm² Interposer billiger kommt als 64MB eDRAM. Überdies ist ein unified RAM-Pool einfacher zu handhaben als ein extra eDRAM-Speicherbereich und man kann die externe Speicheranbindung komplett sparen und nicht nur etwas abspecken wie mit eDRAM (eventuell sinnvoll wäre allerdings trotzdem ein gemeinsamer L3-Cache für CPU und GPU-Teil ähnlich wie bei intels IGPs, hier könnte man 1T-SRAM [eine Art von eDRAM] zum Einsatz bringen, aber da wird auch eine knallharte Kosten/Nutzen-Rechnung aufgemacht und wer weiß, ob AMD mit ihrem HSA-Kram soweit ist).
Das Problem momentan ist eher noch die Zuverlässigkeit des Assemblings. Aber prinzipiell kann sich 2.5D-Stacking zu einer deutlichen Kostenersparnis entwickeln. Der SoC-Chip ist kleiner und verbraucht weniger Strom (mehr Powerbudget für den Rest!), da die Fläche und Strom fressenden externen highspeed Interfaces für den Speicher wegfallen und durch vergleichsweise kleine und stromsparende breite Anbindungen ersetzt werden (verlassen nie das [Interposer-]Silizium). Für die DRAM-Dies gilt übrigens genau das Gleiche (auf einem DRAM-Die ist heute ziemlich viel für IO-Logik reserviert, der eigentliche DRAM nimmt z.T. weniger als die Hälfte der Fläche ein). Weiterhin kann man wie gesagt komplett auf eine externe Speicheranbindung verzichten (4GB stacked DRAM in 2 Stacks wären eigentlich genug, im Prinzip könnte man das auch noch auf 8 GB in 2 Stacks aufbohren). Lediglich die ganzen Southbridge-Verbindungen (SATA, USB, Netzwerk usw.) müssen noch (außer Stromversorgung) überhaupt den SoC verlassen. Das Board wird also extrem einfach und billig (keine aufwendigen 256Bit GDDR5-Verbindungen z.B.).

Eigentlich sehe ich überall Vorteile. Das einzige Problem daran ist, daß die Konsolen vielleicht ein Jahr zu früh dafür kommen. Aber wenn man die Gerüchte über Fertigungsprobleme hört, vielleicht liegt es ja auch genau daran (und nicht an den Yields für die 28nm Chips selber)? Wer weiß?

fizzo
2013-01-18, 16:43:17
Bis zur E3 wird das "Spekulieren" wohl noch weitergehen.

Was mich noch interessieren würden. Werden die was an den Gamepads verändern?

Passend hiezu:

Verzichtet Sony bei PS4 auf das klassische DualShock Design?

18.01.13 - Sony soll für die PS4 auf das klassische DualShock Design verzichten und den neuen Controller stattdessen mit Touch-Screen und biometrischen Sensoren ausstatten. Das behauptet Computer & Videogames und stützt sich auf eine Quelle innerhalb eines hochrangigen Spiele-Entwickler-Studios.

Diese Quelle soll an einem kommenden Sony-Spiel arbeiten. Sie sagt, dass Sony den Controller mehrfach geändert hat. So ist aktuell die Rede von einem PS4-Controller, der biometrische Sensoren in den Griffen und einen LCD Touch-Screen besitzt.

Sony hat die Meldung nicht kommentiert und keine der Angaben bestätigt

www.gamefront.de

Sony ist ja für seine "kreativität" bekannt ;)

robbitop
2013-01-18, 16:54:39
Das mit dem Interposer ist natuerlich reine Spekulation, da zweifelhaft ist, ob es bis Mitte 2013 (da muß die Massenproduktion ja spätestens starten) breit einsatzfähig ist. Allerdings sollte man da auch einbeziehen, daß passive Interposer und auch DRAM-Stacking bereits verwendet werden, es geht also "nur" um die Kombination und hohe Yields des Ganzen.
In Hinsicht auf zukünftige Kostenreduzierungen und Strukturverkleinerungen hat ein Interposer uebrigens keine negativen Auswirkungen. Bei einem Shrink (sowohl SoC als auch DRAM) kann der Interposer ja auch kleiner ausfallen, er skaliert von den Kosten also mit. Und da man auch Erfahrungen mit der Interposerverarbeitung sammelt, sollten die Ausschußraten über die Zeit auch sinken.
Direktes 3D-Stacking auf dem Die ist eigentlich eher eine Alternative für LowPower-Dies. Bei einem 150W-fressenden 300mm² Die wird die Kühlung des Chips wohl zu stark beeinträchtigt, als daß das groß Sinn ergibt. Denn Interposer sind ja eigentlich spottbillig, da alte, längst abgeschriebene Technologie benutzt werden kann. Als Richtpreis gelten wohl so Waferkosten von nur 1$ pro 100mm² für passive Interposer. Ein 500mm² Interposer kostet also gerade mal 5$, die Kosten für einen 28nm-Wafer sind mehr als 10mal so hoch (und yields geringer). Das bedeutet, daß ein 500mm² Interposer billiger kommt als 64MB eDRAM. Überdies ist ein unified RAM-Pool einfacher zu handhaben als ein extra eDRAM-Speicherbereich und man kann die externe Speicheranbindung komplett sparen und nicht nur etwas abspecken wie mit eDRAM.
Das Problem momentan ist eher noch die Zuverlässigkeit des Assemblings. Aber prinzipiell kann sich 2.5D-Stacking zu einer deutlichen Kostenersparnis entwickeln. Der SoC-Chip ist kleiner und verbraucht weniger Strom (mehr Powerbudget für den Rest!), da die Fläche und Strom fressenden externen highspeed Interfaces für den Speicher wegfallen und durch vergleichsweise kleine und stromsparende breite Anbindungen ersetzt werden (verlassen nie das [Interposer-]Silizium). Für die DRAM-Dies gilt übrigens genau das Gleiche (auf einem DRAM-Die ist heute ziemlich viel für IO-Logik reserviert, der eigentliche DRAM nimmt z.T. weniger als die Hälfte der Fläche ein). Weiterhin kann man wie gesagt komplett auf eine externe Speicheranbindung verzichten (4GB stacked DRAM in 2 Stacks wären eigentlich genug, im Prinzip könnte man das auch noch auf 8 GB in 2 Stacks aufbohren). Lediglich die ganzen Southbridge-Verbindungen (SATA, USB, Netzwerk usw.) müssen noch (außer Stromversorgung) überhaupt den SoC verlassen. Das Board wird also extrem einfach und billig (keine aufwendigen 256Bit GDDR5-Verbindungen z.B.).

Eigentlich sehe ich überall Vorteile. Das einzige Problem daran ist, daß die Konsolen vielleicht ein Jahr zu früh dafür kommen. Aber wenn man die Gerüchte über Fertigungsprobleme hört, vielleicht liegt es ja auch genau daran (und nicht an den Yields für die 28nm Chips selber)? Wer weiß?
Wenn das schon massenproduzierbar ist und es schon Referenzen gäbe, würde ich das auch so optimistisch sehen. Ohne Referenz würde ich so ein System jedoch für eine Konsole nicht einsetzen. Zu großes Risiko, dass viele Dinge doch nicht so eintreten, wie sie sollten.

Großartig verwalten muss man doch bei eDRAM als Framebuffer nichts. Du musst nur zwischen Framebuffer und Rest trennen. Kann ich mir nicht vorstellen, dass das so aufwändig sein sollte.

Außerdem ist es ein reifes, mehrfach eingesetztes Konzept. Überraschungen gibt es dort erstmal keine.
Wenn Konsolen im November auf den Markt gebracht werden sollen, muss die Massenfertigung bald starten und jetzt die Vorbereitungen schon fast abgeschlossen sein.
Da nimmst du garantiert keine Verfahren, bei denen der Ausgang noch nicht zu 100 % klar ist. Diese Verfahren müssen lange vor Massenfertigungsstart verfügbar und positiv evaluiert sein. Massenfertigung braucht in dem Rahmen eben schon eine sehr langfristige Vorbereitung. Insbesondere wenn neue Verfahren und neue HW zum Einsatz kommen sollen.

200 GiB/s ist auch für eDRAM gar kein Problem. Bereits die Xbox 360 hatte eine Bandbreite von 256 GiB/s zwischen Memorycontroller/ROPs und dem eDRAM.

fizzo
2013-01-18, 17:04:50
Da wir gerade beim Kaffeesatzlesen sind:

Next-Gen: Huge Xbox 720 & PS4 Specs Report (http://www.nowgamer.com/news/1769561/nextgen_huge_xbox_720_ps4_specs_report_by_insider.html)

Das nenn ich mal einen Gerüchtesalt..IGN berichtet:

box 720 and PlayStation 4 Secrets Allegedly Leaked to Nvidia by Former AMD Executives (http://uk.ign.com/articles/2013/01/16/next-gen-secrets-allegedly-leaked-to-nvidia-by-former-amd-executives?utm_campaign=ign%20main%20twitter&utm_source=twitter&utm_medium=social)

Mit dem Thema kann man anscheindend ordenlich Klicks generieren :D

dargo
2013-01-18, 17:09:04
@Nakai

Sorry, mein Fehler. Du meintest mit den ~200GB/s einen kleinen Zwischenspeicher. :redface: Das ist natürlich alles im Rahmen.

Da wir gerade beim Kaffeesatzlesen sind:

Next-Gen: Huge Xbox 720 & PS4 Specs Report (http://www.nowgamer.com/news/1769561/nextgen_huge_xbox_720_ps4_specs_report_by_insider.html)

Jetzt sind es plötzlich 3,2Tflops für Sony und 4,2TFlops für MS. ;D Und dann auch noch drei SoCs in einer MS-Konsole. Na dann... CF für Spiele. :uup:

Lightning
2013-01-18, 17:21:47
arme Wii U :freak:

Zu dem Thema gibts übrigens hier einen Artikel: http://www.notenoughshaders.com/2013/01/17/wiiu-memory-story/
Alles natürlich etwas vage, da es kaum gesicherte Infos zur Wii U-Hardware gibt. Es wird aber die These aufgestellt, dass die Speicher-Hierarchie ziemlich ausgewogen abgestimmt sein dürfte.

nampad
2013-01-18, 17:30:50
Als irrationaler Konsument vielleicht.

Es ist einfach eine Rechenaufgabe.

Kaufst du mehr Spiele als der Durchschnitt zahlst du bei subventionierter Hardware drauf, kaufst du weniger Spiele als der Durchschnitt zahlen die anderen für Dich.

So ein Schwachsinn, den du dir wieder irgendwie zusammengereimt hast, damit du Nintendo toll finden kannst. Ja, irgendwo wird man an mir als Kunden verdienen, aber das ist ja wohl in Ordnung und ist auch bei Nintendo so. Auch die verdienen an den Spielen und deren Preise sind mittlerweile mit der Wii U genauso hoch.

Deine "einfache Rechnung" bezieht sich rein darauf, ob der einzelne Kunde sich für den Konsolenhersteller lohnt, aber nicht, welche Konsole sich für den Kunden her lohnt.
Für den Kunden ergibt sich der eigentliche Nutzen ja aus der Unterhaltung, die er mit der Konsole erhält, welche größtenteils von der Software und den Präferenzen dazu abhängt, was schwer zu erfassen ist. Der Nutzen ist hauptsächlich derivativer Natur.
Rein auf die Hardware beschränkt hingegen sollte man als rationaler Konsument möglichst viel Gegenwert für sein Geld erhalten wollen. Hier geht es um den originären Nutzen.

Du bist doch auch immer der erste, der die tolle Grafik mit dem kumulierten Gewinnen der einzelnen Hersteller seit Einstieg ins Konsolengeschäft postest. Was meinste, wieso Nintendo auch in eher mageren Jahren Gewinne einfahren konnte, die von Sony im Vergleich dazu trotz erheblich höherer Verkaufszahlen nicht im gleichen Umfang höher waren?
Begriffe wie Produzentenrente und Konsumentenrente sagen dir was?

Ich werde diesem Thread lieber wieder fern bleiben.

edit: Ah, jetzt kapiere ich wo du mit deiner irrsinnigen Aussage hinwillst. Ändert trotzdem nichts daran. Toll, dann kaufe ich halt auf der subventionierten Konsole mehr Spiele als der Durchschnitt und erwirtschafte so für den Hersteller einen Gewinn. Auf der nicht subventionierten Konsole wäre dieser noch höher, wenn ich mehr Spiele als der Durchschnitt kaufe, merkste selber, oder? Im Endeffekt profitiere ich so oder so von der Subvention, egal ob ich mehr oder weniger Spiele kaufe. Der, der weniger Spiele kauft, profitiert halt mehr davon.

Außerdem sind die Preise und damit auch die Subventionen im Zeitablauf nicht konstant, sodass deine "einfache Rechnung" erst recht nicht aufgeht. Die Subventionen finden meist nur zu Beginn der Generation statt, um die installierte Basis zu erhöhen.
Und wieso irrational, vielleicht bin ich ja ein Kunde, der weniger Spiele kauft...

pittiplatsch
2013-01-18, 18:51:14
Xbox 720 GPU mit 1,2TF aber soll ne 8800er sein, wie geht das denn? ;D

Wenn ich ein SoC habe, und nen vollen 8800er GPU-Kern (weniger Takt für die Konsole)drin hab, bin ich bei 3TF fürs Komplettsystem, so wies ja bei nowgamer für die Ps4 auch mit 3,2TF angegeben ist, das passt.

Dann speck ich die für ne 3er Kombi ab und hau lieber wirklich gleich kleinere 3SoCs rein, halte den TDP ein und komme auf 4,2TF fürs System, plus eben die Features wie nen Raytracing Chip, das wäre sogar machbar für die dort angegebenen 300Watt.

Gab ja auch mal nen Gerücht zu nem 380Watt Netzteil für die Box, und mag Gerücht sein, der nowgamer Bericht ist in sich recht schlüssig.

Oder vg247 hat nur eines der 3SoCs für die Box geleaked, jedes mit 1,2TF macht 3,6 bleibt noch was für die Zusatzchips VTE-Raytracer?

Naja abwarten.

Skysnake
2013-01-18, 19:03:09
...
Eigentlich sehe ich überall Vorteile. Das einzige Problem daran ist, daß die Konsolen vielleicht ein Jahr zu früh dafür kommen. Aber wenn man die Gerüchte über Fertigungsprobleme hört, vielleicht liegt es ja auch genau daran (und nicht an den Yields für die 28nm Chips selber)? Wer weiß?
Sehe ich auch so. Interposer sind schon ne verdammt feine Sache.

Wie du auch schon sagtest, wenn man Interposer richtig verwendet, dann fliegt vom Board fast alles runter, und man kann sich auch unglaublich viel I/O DIE-Size sparen auf den Chips.

Gerade das Board ist dann wirklich spott billig herzustellen. Und nicht nur das! Auch das Package wird viel viel einfacher. Man bindet ja erst den Interposer ans Package an, aber da ist dann ja nicht mehr viel an zu binden, und nach unten zu routen. Das macht schon sehr sehr viel Sachen sehr sehr sehr viel einfacher und auch billiger.

Der Knackpunkt ist halt nur, ob man die Interposer mit den anderen DIEs mit vernünftiger Yields verbinden kann.

RLZ
2013-01-18, 19:25:38
Jetzt sind es plötzlich 3,2Tflops für Sony und 4,2TFlops für MS. ;D Und dann auch noch drei SoCs in einer MS-Konsole. Na dann... CF für Spiele. :uup:
Ich wundere mich, dass jemand nach dem Raytracing Müll noch weiter liest...

dargo
2013-01-18, 20:05:26
Xbox 720 GPU mit 1,2TF aber soll ne 8800er sein, wie geht das denn? ;D

Ganz einfach... indem man den GPU-Takt senkt um die TDP niedrig zu halten. Habs oben schon mit Pitcairn Pro vorgerechnet. Natürlich nur solange die TFlops für die Grafikeinheit gelten.

Ich wundere mich, dass jemand nach dem Raytracing Müll noch weiter liest...
Bissel Unterhaltung kann nicht schaden. :biggrin: Im PC-Lager herrscht momentan eh Langerweile was neue Hardware angeht, da finde ich die Konsolengerüchte wenigstens interessant. Auch wenn manches deutlich übers Ziel hinausschießt. :D

30@Frames
2013-01-18, 20:10:05
Neu?

http://www.eurogamer.net/articles/df-hardware-orbis-unmasked-what-to-expect-from-next-gen-console

Kira
2013-01-18, 20:51:11
Neu?

http://www.eurogamer.net/articles/df-hardware-orbis-unmasked-what-to-expect-from-next-gen-console

heißt das, dass die 4GB besser als die 8GB der Xbox wäre, weil die 4GB "ultra schnell" ist?

anders gefragt: laut aktuellen gerüchten: wer hätte wo die nase vorn?

Karümel
2013-01-18, 21:03:28
Seit einer Woche rotzt irgendwie jeder angeblich Gerüchte raus, ist zwar unterhaltsam aber irgendwie kommt man trotzdem nicht groß weiter. Eine Seite schreibt das, die anderes jenes.

Crazy_Bon
2013-01-18, 21:03:37
Erst mal abwarten, die PS2 hatte zur damaligen Zeit das "Wunder"Rambus, letztendlich mehr Fluch als Segen.

dargo
2013-01-18, 21:07:22
Seit einer Woche rotzt irgendwie jeder angeblich Gerüchte raus, ist zwar unterhaltsam aber irgendwie kommt man trotzdem nicht groß weiter. Eine Seite schreibt das, die anderes jenes.
Es wird sicherlich wieder gezielt viel FUD verbreitet, deshalb die unterschiedlichen "Setups".

TheCounter
2013-01-18, 21:24:54
PS4 Specs sind wohl raus:

http://www.eurogamer.net/articles/df-hardware-orbis-unmasked-what-to-expect-from-next-gen-console


CPU: 8-Core Jaguar @ 1.6 GHz
GPU: 7970M @ 800MHz + 18 CUs
Mem: 4GB GDDR5 / 512MB davon für OS, also 3.5GB für Games.


Fehlt nur noch Durango.

Sven77
2013-01-18, 21:41:21
Sieht imho ganz gut aus.. das Paket für 399Eur und ich bin beim Launch dabei

schreiber
2013-01-18, 21:51:58
und ich geh davon aus, dass es noch nicht mal halb so viel Hardware-power geben wird. ergo schlechter fake.

Sven77
2013-01-18, 21:58:59
und ich geh davon aus, dass es noch nicht mal halb so viel Hardware-power geben wird. ergo schlechter fake.

Dann wären wir bei einer Wii U... das ist das mindeste, sonst können sie sich die Next-Gen sparen

Exxtreme
2013-01-18, 22:21:15
PS4 Specs sind wohl raus:

http://www.eurogamer.net/articles/df-hardware-orbis-unmasked-what-to-expect-from-next-gen-console



Fehlt nur noch Durango.

Klingt realistisch. Auch wenn mehr RAM wünschenswert wäre. ^^

Hugo78
2013-01-18, 22:32:15
Jaguar soll doch nur 15-20% schneller als Bobcat sein oder verpeil ich das grad meilenweit und das Teil ist doppelt so schnell?!
Also wenn ich mir da bspw. Skyrim @ low Detail auf Bobcat @ 1,65GHz aka AMD E-450 anschau, auch mit +20% im Sinn,
als Worstcase für Engines die immernoch nur 2-4 Kerne nutzen können (LINK (http://www.computerbase.de/artikel/komplettsysteme/2012/test-zotac-zbox-nano-xs-ad11-plus/14/)),
dann seh ich grad nicht was man mit acht, so lahmen Kernen in einer "Next Gen" Konsole anno 2013 soll?!

Dann doch lieber ein 2 Modul "Trinity" + 8GB RAM ...

dargo
2013-01-18, 22:35:01
Was war nochmal 18 CUs?

Jaguar soll doch nur 15-20% schneller als Bobcat sein oder verpeil ich das grad meilenweit und das Teil ist doppelt so schnell?!
Also wenn ich mir da bspw. Skyrim @ low Detail auf Bobcat @ 1,65GHz aka AMD E-450 anschau, auch mit +20% im Sinn,
als Worstcase für Engines die immernoch nur 2-4 Kerne nutzen können (LINK (http://www.computerbase.de/artikel/komplettsysteme/2012/test-zotac-zbox-nano-xs-ad11-plus/14/)),
dann seh ich grad nicht was man mit acht, so lahmen Kernen in einer "Next Gen" Konsole anno 2013 soll?!

Das habe ich mir auch bei der niedrigen Frequenz von nur 1,6Ghz gedacht. Da werden zwangsläufig neuere Multicore-Engines herhalten müssen ansonsten sehe ich ziemlich schwarz bei vielen Cores mit wenig Takt. Auf der anderen Seite... wenn man hier und da nur 30fps anpeilt. :uponder:

TheCounter
2013-01-18, 22:38:09
Was war nochmal 18 CUs?

18 Compute Units (1152 Stream Processors)

Standard bei der 7970M sind 20.

http://www.amd.com/us/products/notebook/graphics/7000m/7900m/Pages/radeon-7900m-series.aspx#2

dargo
2013-01-18, 22:42:35
18 Compute Units (1152 Stream Processors)

Standard bei der 7970M sind 20.

http://www.amd.com/us/products/notebook/graphics/7000m/7900m/Pages/radeon-7900m-series.aspx#2
Die 7970M basiert auf Pitcairn XT, nur mit verringertem Takt von 850Mhz, soweit richtig?

TheCounter
2013-01-18, 23:14:52
Ja, also auch Leistungsmäßig einer ~7850 entsprechen.

del_4901
2013-01-18, 23:18:01
Schon irgendwie entaeuschend, was fuer ein Troll da wohl am Werk war.

TheCounter
2013-01-18, 23:22:11
Jetzt bin ich wirklich auf die Durango Specs gespannt.

Eine GCN2 8850/70 wär schon nett :biggrin:

][immy
2013-01-18, 23:25:09
Jaguar soll doch nur 15-20% schneller als Bobcat sein oder verpeil ich das grad meilenweit und das Teil ist doppelt so schnell?!
Also wenn ich mir da bspw. Skyrim @ low Detail auf Bobcat @ 1,65GHz aka AMD E-450 anschau, auch mit +20% im Sinn,
als Worstcase für Engines die immernoch nur 2-4 Kerne nutzen können (LINK (http://www.computerbase.de/artikel/komplettsysteme/2012/test-zotac-zbox-nano-xs-ad11-plus/14/)),
dann seh ich grad nicht was man mit acht, so lahmen Kernen in einer "Next Gen" Konsole anno 2013 soll?!

Dann doch lieber ein 2 Modul "Trinity" + 8GB RAM ...
naja, die xbox 360 cpu wurde damals mit einem 1,3 Ghz A64 verglichen, wenn ich mich recht erinnere. Da Bobcat da schon leistungsfähger sein sollte als ein A64, auf selber frequenz, es sich wohl um jaguar handelt und zudem noch über mehr kerne verfügt sollte die CPU schon ziemlich schlagkräftig sein und mit skyrim ohne probleme umgehen können. das kann cell schließlich auch. die cpu-performance (single-thread) scheint hier also nicht unbedingt so wichtig zu sein.

aber bei all den gerüchten werden die konsolen eh am ende anders aussehen :). immerhin scheinen die verschiedensten dev-kits herum zu schwirren.

TheCounter
2013-01-18, 23:27:26
[immy;9621878']immerhin scheinen die verschiedensten dev-kits herum zu schwirren.

Langsam glaube ich ja, das dies so gewollt ist von Sony/MS damit die verschiedensten Specs ins Netz gelangen.

Wahnsinn was da gerade wieder im NeoGAF/Beyond3D abgeht ;D

del_4901
2013-01-18, 23:28:39
Langsam glaube ich ja, das dies so gewollt ist von Sony/MS damit die verschiedensten Specs ins Netz gelangen.

Wahnsinn was da gerade wieder im NeoGAF/Beyond3D abgeht ;D

verlink mal ein paar interessante Stellen :)

00-Schneider
2013-01-18, 23:29:17
[immy;9621878']aber bei all den gerüchten werden die konsolen eh am ende anders aussehen :). immerhin scheinen die verschiedensten dev-kits herum zu schwirren.


Obwohl der Artikel einem schon suggeriert, dass die Specs final sind, und wohl letztendlich auch mehr als nur Gerüchte sind. Und Leadbetter(Autor) ist nun wirklich ein Fachmann, und kein Dummschwätzer der nur sinnlos irgendetwas von Anderen nachplappert.

TheCounter
2013-01-18, 23:32:52
verlink mal ein paar interessante Stellen :)

Hauptsächlich wird gerade gegen Microsoft gebasht bezüglich der 3GB RAM / 2 Cores nur für das OS (was aber angeblich eine Fehlinfo sein soll) ;)

Hab mir gerade diesen Thread (http://www.neogaf.com/forum/showthread.php?t=508939) durchgelesen, sehr cool :biggrin:

Und dazu noch der entsprechende Thread aus dem Beyond3D:

http://forum.beyond3d.com/showthread.php?t=31379 (so ab Seite 700)

RLZ
2013-01-18, 23:41:19
Und Leadbetter(Autor) ist nun wirklich ein Fachmann, und kein Dummschwätzer der nur sinnlos irgendetwas von Anderen nachplappert.
Wie definiert sich denn ein "Fachmann"? Muss er dafür "Experte" sein?

Nightspider
2013-01-18, 23:45:42
Da werden zwangsläufig neuere Multicore-Engines herhalten müssen ansonsten sehe ich ziemlich schwarz bei vielen Cores mit wenig Takt.

Das nennt man Entwicklung.

Oder dachtest du man verwendet die ganzen alten Engines weiter?
Die meisten alten Engines beherrschen ja noch nicht mal DX11 oder DX10.

Vor 5 jahren ging man sogar davon aus das Konsolen von 2013 16-32 Kerne haben werden.

8 Kerne sind so gesehen sehr wenig im Gegensatz zu dem was man vor vielen Jahren erwartet hat.

Wobei einige neue Engines schon bestens dafür gerüstet sind, wie die Unreal Engine 4, Frostbite Engine 2 und ich glaube auch die CryEngine 3.

Deinorius
2013-01-18, 23:52:05
Jaguar soll doch nur 15-20% schneller als Bobcat sein oder verpeil ich das grad meilenweit und das Teil ist doppelt so schnell?!
Also wenn ich mir da bspw. Skyrim @ low Detail auf Bobcat @ 1,65GHz aka AMD E-450 anschau, auch mit +20% im Sinn,
als Worstcase für Engines die immernoch nur 2-4 Kerne nutzen können (LINK (http://www.computerbase.de/artikel/komplettsysteme/2012/test-zotac-zbox-nano-xs-ad11-plus/14/)),
dann seh ich grad nicht was man mit acht, so lahmen Kernen in einer "Next Gen" Konsole anno 2013 soll?!

Dann doch lieber ein 2 Modul "Trinity" + 8GB RAM ...


Vergleiche es besser mit der Xenon CPU in der Xbox 360. 6 Threads, die Hälfte davon aber über SMT realisiert und laut ][immy entsprechen damit 3 GHz Xenon ungefähr einem Bobcat mit 1,4 GHz (die IPC vom Bobcat ist nur beinahe so hoch wie von einem A64).
Wir kriegen also eine (um 15 %?) höhere IPC, höheren Takt (mal sehen, wieviel) und dazu anstatt von drei echten und 3 unechten Kernen 8 vollwertige Kerne. Dazu noch mehr Cache pro Kern und, wenn ich mich nicht irre, weniger Platzbedarf.

dargo
2013-01-19, 01:18:53
Wobei einige neue Engines schon bestens dafür gerüstet sind, wie die Unreal Engine 4, Frostbite Engine 2 und ich glaube auch die CryEngine 3.
UE4 muss sich erstmal beweisen, dafür ist es zu früh. Inwieweit die Frostbite 2 und CE3 8 Cores unterstützt weiß man auch nicht. Erstere skaliert selbst mit einem Sixcore schon recht schwach (siehe BF3). Zudem lässt sich irgendwann nicht mehr alles perfekt parallelisieren. Aber vielleicht lassen sich 1-2 Cores für andere Aufgaben wie zb. Postprocessing missbrauchen.

AnarchX
2013-01-19, 09:08:01
Für Postprocessing ist wohl die FP-Leistung bei Jaguar eher zu gering.
Aber eine breite und latenzarme Verbindung zur GPU ermöglicht hier vielleicht interessante Berechnungen, wie aufwendige Gameplay-Physik.

Karümel
2013-01-19, 13:13:10
Welche Grafikqualität erwartet ihr eigentlich von den neuen Konsolen zum Relase?

Also sowas wie Crysis 3 in Full HD mit allen Details?
Project Cars mit allen Details
Gemoddetes Skyrim
usw.
Jeweils PC als Vergleich, sprich gleiche Qualität.

gnomi
2013-01-19, 13:23:39
Die neuen Konsolen sollten keine schlechtere Grafik und Bildrate als High End PC's im Jahr 2013 liefern.
Für mich werden Spiele wie Crysis 3 oder auch Metro 2034 auf Full HD mit maximalen Details daher auch in etwa die Vorgabe für Next Gen sein.

dildo4u
2013-01-19, 13:32:08
Welche Grafikqualität erwartet ihr eigentlich von den neuen Konsolen zum Relase?

Also sowas wie Crysis 3 in Full HD mit allen Details?
Project Cars mit allen Details
Gemoddetes Skyrim
usw.
Jeweils PC als Vergleich, sprich gleiche Qualität.
Star Wars 1313 ist ein gutes Beispiel für Launch Games,das basiert noch auf UE3.0 nur mit extrem Aufwändigen Shadern,erst die Jahre danach wird es Games auf Basis der UE 4.0 geben.

http://youtu.be/Gbm7XoTjbx8

Werewolf
2013-01-19, 13:36:30
Die neuen Konsolen sollten keine schlechtere Grafik und Bildrate als High End PC's im Jahr 2013 liefern.
Für mich werden Spiele wie Crysis 3 oder auch Metro 2034 auf Full HD mit maximalen Details daher auch in etwa die Vorgabe für Next Gen sein.

Ich dachte du wärst viel klüger. Wieviel Abwärme bietet so ein High End PC und wieviel davon würde so eine kleine Box tolerieren?

Locuza
2013-01-19, 13:46:17
Ich dachte du wärst viel klüger. Wieviel Abwärme bietet so ein High End PC und wieviel davon würde so eine kleine Box tolerieren?
Und wie groß ist der API Overhead und der Vorteil von low-level-programming?
Wie sieht es eig. damit aus, falls eine HSA mit einem gemeinsamen Adressraum kommt?
Oder sonstige Fortschritte bei der internen Kommunikation zwischen CPU und GPU?

Würde mich arg interessieren, wie viel TFLOPs man zusätzlich bei einem PC braucht, um die Vorteile der Konsolen in dem Fall zu "kaschieren".

dildo4u
2013-01-19, 13:55:55
Ich dachte du wärst viel klüger. Wieviel Abwärme bietet so ein High End PC und wieviel davon würde so eine kleine Box tolerieren?
Der Abstand zwischen MidRange und High End ist nicht so groß zur Zeit ca 30%,(7870 vs 7970)einfacheres AA(FXAA statt MSAA) und 30 statt 60fps.Damit dürfte man zum Anfang sogar noch 1080p anbieten können.

Nakai
2013-01-19, 14:36:41
Ach die Konsolenentwicklung wird langsam öde.
Ich will nen Power7 in der Xbox haben.;D

Ansonsten:
PS4 -> klassischeres Konsolendesign

Xbox720 -> Windows 8-Konsole :(


Durango hat schon sehr viele verschiedene Gerüchte provoziert. Könnte ein Hinweis auf eine starke Egalisierung der Hardware andeuten. MS könnte, dank zusätzlicher Hardwareabstraktion, hier eine hardwareunabhängigen Ansatz liefern. IMO wird man die neue Box nicht nur als Konsole in der Zukunft sehen.
Unterstützung verschiedener Hardwarekonfigurationen leitet einem zum Entschluss, dass die neue Xbox irgendwann ein Hardwareupdate erhält.

Tesseract
2013-01-19, 14:44:54
Und wie groß ist der API Overhead und der Vorteil von low-level-programming?
hängt davon ab was du genau damit machst. aber abgesehen von ein paar konstruierten spezialfällen werden die konsolen sicher nicht an heutige "high-end-systeme" rankommen. dafür fehlt ganz einfach der throughput.
ich würde nicht mal davon ausgehen, dass z.B. ein ungemoddetes skyrim mit maximalsettings flässig laufen würde.

Kira
2013-01-19, 14:48:51
Der Abstand zwischen MidRange und High End ist nicht so groß zur Zeit ca 30%,(7870 vs 7970)einfacheres AA(FXAA statt MSAA) und 30 statt 60fps.Damit dürfte man zum Anfang sogar noch 1080p anbieten können.

du meinst, die meisten Spiele werden wieder nur 720p, damit man mehr Eye-Candy bieten kann?

Was ist denn deine Meinung? Wo liegen deiner Meinung nach die Unterschiede unter den bisher bekannten Specs? Wer hat wo seine Schwächen und insgesamt die Nase vorn? 4GB Ram klingen ja bei der PS4 etwas wenig wenn man es mit 8GB der Xbox vergleicht oder ist das nicht so, weil die 4GB der PS3 schneller sind?

Nightspider
2013-01-19, 14:50:33
Die neuen Konsolen sollten keine schlechtere Grafik und Bildrate als High End PC's im Jahr 2013 liefern.
Für mich werden Spiele wie Crysis 3 oder auch Metro 2034 auf Full HD mit maximalen Details daher auch in etwa die Vorgabe für Next Gen sein.

Die Grafik wird sicherlich wie Crysis 3 aussehen aber die Konsolen schaffen nicht ansatzweise FullHD bei dieser Detaildichte.
Dazu bei geringerer Bildrate, also vllt mit 20-30fps.

Die Konsolen werden bei weitem nicht an HighEnd PCs von 2013 herankommen. Erst recht nicht wenn eine GK110 Grafikkarte oder SLI verbaut sind.

Allerdings werden die Spiele ab 2014 dank starker Optimierung und hardwarenaher Programmierung trotzdem deutlich besser aussehen als Crysis 3, wenn auch bei niedrigerer Auflösung und weniger fps als am PC.

Viele Spiele werden so aussehen wie Watch Dogs:

http://de.ign.com/pictures/articles/16380/236190.jpg

Auf den Konsolen nur eben mit geringerer Auflösung (1280er oder max. 1680er Auflösung) und zähen 25-35fps.

Dazu werden gerade die Texturen in 2 Jahren deutlich besser aussehen als alles was wir bisher kennen und auch nochmal deutlich besser als in Crysis 3.


Unterm Strich wird die Grafik in 2 Jahren bombastisch aussehen von AAA Titeln auch wenn der Sprung nicht so groß wird wie zu Beginn der PS30 Ära.

Aber: Die geringe Auflösung der Konsolen wird viele Details verschlucken. GTA4 war da nur der Anfang der Spiele, die durch höhere Auflösung überproportional viel an optischer Güte gewinnen.
Das gab es früher einfach nicht weil die Detaildichte bei PS2 viel zu niedrig waren.
Aber am PC werden die Spiele dank 2560*1440 und höheren* Auflösungen noch deutlich gewaltiger rüberkommen.

*höhere Auflösung ab 2014/2015

du meinst, die meisten Spiele werden wieder nur 720p, damit man mehr Eye-Candy bieten kann?

Was ist denn deine Meinung? Wo liegen deiner Meinung nach die Unterschiede unter den bisher bekannten Specs? Wer hat wo seine Schwächen und insgesamt die Nase vorn? 4GB Ram klingen ja bei der PS4 etwas wenig wenn man es mit 8GB der Xbox vergleicht oder ist das nicht so, weil die 4GB der PS3 schneller sind?

Ließ dir den Artikel von Heute von Leonidas auf der Hauptseite durch.

Das Top Spiele wahrscheinlich weiterhin nur mit 720p laufen werden bzw. in Einzelfällen vllt auch mit 1680*1050 ist ja nichts Neues.

Denkst du die Spielehersteller werden die ganze neue verfügbare Leistung nur in die Auflösung verpulvern?

Viele Spiele liefen auf der PS3 nur in 1024 oder gar darunter. Für FULL-HD müssten die Entwickler schon teilsweise 70% der Leistung verballern.

dargo
2013-01-19, 14:59:56
Und wie groß ist der API Overhead und der Vorteil von low-level-programming?

Es hieß afaik bei DX11 ca. 100%. Die Frage ist bloß wieviel davon in den ersten Jahren in die Spiele hineinfließt. Auf der einen Seite haben wir neue Hardware, auf der anderen Seite sollte sie relativ vertraut sein da sehr nah am PC. Man... bin ich froh, dass in ca. einem Jahr endlich dieser DX9 Mist stirbt. (y)

Nakai
2013-01-19, 15:00:35
Die Masse hat sich eh an die beschissene Grafik dieser Gen gewöhnt.
Die NextGen hat viele andere nette Gimmicks.

Man wird auf jeden Fall einen netten grafischen Sprung erleben:
- Tesselation (deutlich mehr Geometrie)
- höhere Texturauflösung (dank mehr Speicher und wohl besseren Speichersystem für Streaming)
- GPGPU- oder HSA-Featues

Denkst du die Spielehersteller werden die ganze neue verfügbare Leistung nur in die Auflösung verpulvern?

Da wird eiskalt kalkuliert. Wieviele OPs pro Pixel sind möglich? Wieviele Geometrie? Wieviele Partikel?

kleeBa
2013-01-19, 15:33:17
Ich bin ja mal gespannt was man sich in Sachen Raubmordvergewaltiger-Kopierer Raubmordvergewaltiger-Gebrauchtspielekäufer und Digitalem Vertrieb ausdenkt.....

Locuza
2013-01-19, 15:36:49
hängt davon ab was du genau damit machst. aber abgesehen von ein paar konstruierten spezialfällen werden die konsolen sicher nicht an heutige "high-end-systeme" rankommen. dafür fehlt ganz einfach der throughput.
ich würde nicht mal davon ausgehen, dass z.B. ein ungemoddetes skyrim mit maximalsettings flässig laufen würde.
Spezialfälle wären z.B. ein gemeinsamer Adressraum, wo exsessiv GPGPU betrieben werden könnte? Was beim PC wegem dem Copy-Overhead ersticken würde?
Wären solche Berechnungen auf dem PC überhaupt angemessen lösbar?

Es hieß afaik bei DX11 ca. 100%. Die Frage ist bloß wieviel davon in den ersten Jahren in die Spiele hineinfließt. Auf der einen Seite haben wir neue Hardware, auf der anderen Seite sollte sie relativ vertraut sein da sehr nah am PC. Man... bin ich froh, dass in ca. einem Jahr endlich dieser DX9 Mist stirbt. (y)
Ca. 100% worauf? Brauche ich ich dann eine GPU mit 4TFLOPs, währenddessen auf einer Konsole eine mit 2TFs das gleiche abliefern kann?

Auf die CPU wirkt sich das ja auch aus.
Richard Huddy hat ja ein bisschen Tam-Tam gegen DX mal gemacht.

http://www.bit-tech.net/hardware/graphics/2011/03/16/farewell-to-directx/2

Now the PC software architecture – DirectX – has been kind of bent into shape to try to accommodate more and more of the batch calls in a sneaky kind of way. There are the multi-threaded display lists, which come up in DirectX 11 – that helps, but unsurprisingly it only gives you a factor of two at the very best, from what we've seen. And we also support instancing, which means that if you're going to draw a crate, you can actually draw ten crates just as fast as far as DirectX is concerned.

But it's still very hard to throw tremendous variety into a PC game. If you want each of your draw calls to be a bit different, then you can't get over about 2-3,000 draw calls typically - and certainly a maximum amount of 5,000. Games developers definitely have a need for that. Console games often use 10-20,000 draw calls per frame, and that's an easier way to let the artist's vision shine through.'

dildo4u
2013-01-19, 15:45:06
du meinst, die meisten Spiele werden wieder nur 720p, damit man mehr Eye-Candy bieten kann?

Eher nicht bis jetzt gab es bei den 3D Konsolen immer ne Auflösung's Erhöhung mit jeder Generation,von den Specs her sollten 1080p 2D keine Probleme machen Stereo 3D ist wieder ne andere Geschichte.Bei der PS4 ist in jedem Fall genug schneller ram für gute Texturen und 1080p verbaut,High End PC wird sich dann so ab 2014 Richtung 4K bewegen.

dargo
2013-01-19, 15:54:59
Ca. 100% worauf? Brauche ich ich dann eine GPU mit 4TFLOPs, währenddessen auf einer Konsole eine mit 2TFs das gleiche abliefern kann?

Keine Ahnung. Letzter Stand war afaik hier irgendwas mit Faktor 2 die Rede. Ob sich das auf die GPU- oder CPU-Last bezieht weiß ich nicht. Zudem habe ich dafür auch keinen Beweis in irgendeiner Form gesehen. Von daher lässt sich sowas auch schwer nachvollziehen.

Kira
2013-01-19, 15:55:43
@ nightspider:

hab mir den Artikel nun durchgelesen. Ich frage mich, wieso Sony an dem "billigen" Speicher nun geizt und nicht 6-8GB einbaut? so viel sollte das doch nicht kosten?

dildo4u
2013-01-19, 15:59:18
Getrennter Ram ist Müll siehe PS3 und Sony sind die Spiele wichtiger(Hohe Bandbreite für die GPU) MS das Win 8 auf der Kiste läuft mit alles Apps und Multitap Browser etc.Wii-U zeigt wie schlecht sich DDR3 als Grafikram macht selbst mit Edram als Hilfe.

Locuza
2013-01-19, 16:26:36
[...]Wii-U zeigt wie schlecht sich DDR3 als Grafikram macht selbst mit Edram als Hilfe.
In wie fern genau zeigt sich das?

dildo4u
2013-01-19, 16:35:29
Kein einziger Port hat ne höher Auflösung oder besseres AA.Selbst Call of Duty haben sie nich auf 1280*720p bekommen.

http://www.eurogamer.net/articles/digitalfoundry-black-ops-2-wii-u-face-off

Black Ops 2 on Wii U appears to have much in common with the Xbox 360 version including a native 880x720 resolution with 2x MSAA

Sieben Jahre nach dem 360 Launch schon arm.

Nightspider
2013-01-19, 16:42:40
Eher nicht bis jetzt gab es bei den 3D Konsolen immer ne Auflösung's Erhöhung mit jeder Generation,von den Specs her sollten 1080p 2D keine Probleme machen Stereo 3D ist wieder ne andere Geschichte.Bei der PS4 ist in jedem Fall genug schneller ram für gute Texturen und 1080p verbaut,High End PC wird sich dann so ab 2014 Richtung 4K bewegen.

LOL! Glaubst du doch selbst nicht. ;)

Schau dir den Sprung der Auflösung zur PS3 an, wo manche Spiele nur in 864x720 Auflösung gerendert werden:

Was zuerst ins Auge sticht: Die Rendering-Auflösung. Zu Zeiten von Black Ops (1) gab es noch Unterschiede zwischen der Xbox360 mit 1040x600 bei 2fachem Multi-Sampling Anti-Aliasing (MSAA) und der PS3 mit 960x540. Bei Modern Warfare 3 zeigten beide Versionen die gleiche Auflösung, doch bei Black Ops 2 ist das wieder anders. Hier erreicht die Xbox360 nun eine Auflösung von 880x720 mit 2x MSAA. Was vergleichsweise niedrig erscheint, wird durch eine bedeutende Verbesserung der Grafik in der Bewegung wieder wettgemacht. Treyarch hat bei der Hochskalierung einiges am Algorithmus verbessert, was es laut Eurogamer zu einem der frischesten CoDs auf der Xbox360 macht und sich auf nativen Einstellungen sogar mit der PC-Version messen lässt.

Auf der PS3 ist das Ganze leider nicht ganz so beeindruckend. Während die Pixelauflösung mit 864x720 nur unwesentlich niedriger ausfällt, ist der starke Blur-Effekt, der über das gesamte Bild eingesetzt wird, unmöglich zu übersehen. Es scheint sich hier laut Eurogamer um eine neue Technik von Treyarch zu handeln, die eine Nachbearbeitung des Anti-Aliasing vornimmt und es schwierig macht, eine vorhandene Hardware-MSAA überhaupt zu erkennen. Dadurch gehen viele Details in der Grafik verloren; im Gegenzug ist die Kantenglättung in einigen Szenen definitiv verbessert.

http://callofduty.4players.de/board1-callofdutyseries-de-news-fragen-und-fehler/board23-news-von-unseren-redakteuren-f%C3%BCr-user/70736-call-of-duty-black-ops-2-grafikvergleich-xbox360-vs-ps3-vs-pc/

Selbst 1280*720 (720p) wäre ein Sprung in der Grafik auf der PS4 in AAA Titeln.
Vielleicht versuchen sich noch manche Entwickler an Auflösungen wie 1440*900 (bzw. wie auch immer die genauen 16:9 Pendants heißen würden).

Genauso unrealistisch ²² sind 4K bei der PS5 / Xbox 4.

Falls PS4 und Xbox720 einzelnde Spiele in 3D rendern wird man die Auflösung sicherlich auch dabei reduzieren um die gleichen FPS zu erhalten wie in 2D um ein halbwegs flüssiges Spielerlebnis zu bieten.

Sicherlich wird es ein paar Spiele in FullHD geben aber sicherlich vorwiegend Sport-und Rennspiele.

Locuza
2013-01-19, 16:44:57
Kein einziger Port hat ne höher Auflösung oder besseres AA.Selbst Call of Duty haben sie nich auf 1280*720p bekommen.

http://www.eurogamer.net/articles/digitalfoundry-black-ops-2-wii-u-face-off



Sieben Jahre nach dem 360 Launch schon arm.
Ist es aber nicht gewagt die Ergebnisse nur vom Arbeitsspeicher abzuleiten?

dildo4u
2013-01-19, 16:49:41
LOL! Glaubst du doch selbst nicht. ;)

Schau dir den Sprung der Auflösung zur PS3 an, wo manche Spiele nur in 864x720 Auflösung gerendert werden:



http://callofduty.4players.de/board1-callofdutyseries-de-news-fragen-und-fehler/board23-news-von-unseren-redakteuren-f%C3%BCr-user/70736-call-of-duty-black-ops-2-grafikvergleich-xbox360-vs-ps3-vs-pc/

Selbst 1280*720 (720p) wäre ein Sprung in der Grafik auf der PS4 in AAA Titeln.

Langweiliges Gebasche,die High-End Games,die auf die Konsole zugeschnitten wurden haben 1280*720p(God of War 3,Uncharted1,2,3) GT5 sogar 1280*1080p bei 60fps.

Das neue God of War 720p mit na sehr guten AA Lösung.
http://www.neogaf.com/forum/showpost.php?p=45899562&postcount=236

dildo4u
2013-01-19, 16:51:07
Ist es aber nicht gewagt die Ergebnisse nur vom Arbeitsspeicher abzuleiten?

Nich wirklich das selbe zeigt sich bei den SOC's von AMD und Intel,die sind massiv durch DDR3 Bandbreite limitiert.Intel will das mit 128MB Edram lösen,Wii-U hat wohl nur was im Bereich um 30mb verbaut.

You'll see a version of Haswell with up to 128MB of embedded DRAM, with a lot of bandwidth available between it and the core. Both the CPU and GPU will be able to access this embedded DRAM, although there are obvious implications for graphics.

Overall performance gains should be about 2x for GT3 (presumably with eDRAM) over HD 4000 in a high TDP part. In Ultrabooks those gains will be limited to around 30% max given the strict power limits

http://www.anandtech.com/show/6355/intels-haswell-architecture/12

Locuza
2013-01-19, 16:54:23
Lightning hat dazu einen Artikel verlinkt, wo man ausgeht, dass es nicht so schlimm ist.

Zu dem Thema gibts übrigens hier einen Artikel: http://www.notenoughshaders.com/2013/01/17/wiiu-memory-story/
Alles natürlich etwas vage, da es kaum gesicherte Infos zur Wii U-Hardware gibt. Es wird aber die These aufgestellt, dass die Speicher-Hierarchie ziemlich ausgewogen abgestimmt sein dürfte.

Nightspider
2013-01-19, 17:00:02
Langweiliges Gebasche,die High-End Games,die auf die Konsole zugeschnitten wurden haben 1280*720p(God of War 3,Uncharted1,2,3) GT5 sogar 1280*1080p bei 60fps.

Das neue God of War 720p mit na sehr guten AA Lösung.
http://www.neogaf.com/forum/showpost.php?p=45899562&postcount=236

CoD ist also nicht auf die Konsolen zugeschnitten oder wie?
Oder sind die Entwickler deiner Meinung nach nicht fähig die Leistung aus den Konsolen zu holen?

Glaubst du das wird bei der PS4 und XboxNext besser?

Zumal CoD sicherlich ein schnelleres Spiel ist als Uncharted. God of War kenn ich nicht, noch nie gespielt.

Klar gibts Entwickler die schon abenteuerlich tolle 720p geschafft haben (;D) aber besser wirds bei den neuen Konsolen auch nicht.

Uncharted 4 könnte durchaus in 1080p gerendert werden aber das trifft bestimmt nicht auf schnelle First Person Shooter zu.

Für den Sprung von 1040x600 auf 1080p würde man schon mehr als 3 mal soviel Leistung brauchen. 0,62 vs 2,0 MP

dildo4u
2013-01-19, 17:02:53
Ich hab COD als Beispiel genommen weil das keine Anforderungen hat und selbst mit der mülligsten GPU in 1080p läuft.Das sollte nur zeigen das sich seit 2005 nix getan hat zumindest bei Nintendo.

Knuddelbearli
2013-01-19, 17:08:04
http://www.tweakpc.de/news/26604/xbox-360-nachfolger-mit-blu-ray-laufwerk-nur-fuer-spiele/

wtf ? Blu Ray nur für Spiele nicht für Filme?!? kann doch nicht an den paar €uro scheitern

tobor
2013-01-19, 17:12:17
Ich dachte du wärst viel klüger. Wieviel Abwärme bietet so ein High End PC und wieviel davon würde so eine kleine Box tolerieren?
Klein?
Die jetzigen Versionen nach ein paar Shrinks
vielleicht.Aber man sehe sich mal die erste Xbox oder die ursprüngliche Ps3 an.

dildo4u
2013-01-19, 17:12:28
http://www.tweakpc.de/news/26604/xbox-360-nachfolger-mit-blu-ray-laufwerk-nur-fuer-spiele/

wtf ? Blu Ray nur für Spiele nicht für Filme?!? kann doch nicht an den paar €uro scheitern
MS hätte davon kein Gewinn,die wollen das du über ihren Shop streamst.Man spart in jedem Fall Lizenskosten darum hat es sich Nintendo wohl auch gespart,das Laufwerk basiert dort auch auf Blu Ray Technik.

tobor
2013-01-19, 17:19:26
http://www.tweakpc.de/news/26604/xbox-360-nachfolger-mit-blu-ray-laufwerk-nur-fuer-spiele/

wtf ? Blu Ray nur für Spiele nicht für Filme?!? kann doch nicht an den paar €uro scheitern
Grober Unsinn.Wuerde auch der Zielsetzung Microsofts widersprechen,die
naechste Box zur Multimediazentrale zu machen.

Iterator
2013-01-19, 17:47:08
Grober Unsinn.Wuerde auch der Zielsetzung Microsofts widersprechen,die
naechste Box zur Multimediazentrale zu machen.


So unsinnig wäre es nicht, schließlich verfügt MS per Xbox Live über ein großes
HD (Film) Medien Angebot und das will auch online vertrieben werden.

In letzter Zeit tauchte ja das Gerücht auf, das bei der kommenden Microsoft
Konsole für Spiele ein Blu Ray Medium mit 100 GB eingesetzt werden soll. Könnte
man daraus schon ableiten, das zukünftige Spiele im Preis definitiv steigen werden ?

Crazy_Bon
2013-01-19, 17:52:34
MS hätte davon kein Gewinn,die wollen das du über ihren Shop streamst.Man spart in jedem Fall Lizenskosten darum hat es sich Nintendo wohl auch gespart,das Laufwerk basiert dort auch auf Blu Ray Technik.
Dann müssten sie auch Lovefilm, Sky usw aus dem Marktplatz rauswerfen, in Sachen Musik ebenso, denn sie stehen in Konkurrenz zu den eigenen Angeboten.

dildo4u
2013-01-19, 17:52:43
So unsinnig wäre es nicht, schließlich verfügt MS per Xbox Live über ein großes
HD (Film) Medien Angebot und das will auch online vertrieben werden.

In letzter Zeit tauchte ja das Gerücht auf, das bei der kommenden Microsoft
Konsole für Spiele ein Blu Ray Medium mit 100 GB eingesetzt werden soll. Könnte
man daraus schon ableiten, das zukünftige Spiele im Preis definitiv steigen werden ?
Die werden nich wegen paar Cent für den Rohling teurer sondern wenn wegen Produktionskosten der Spiele.(Jetzt schon bei 30-50Mio+)Und lange nich alle Games werden 100GB benötigen,es werden hauptsächlich 25 oder 50GB Rohlinge genutzt.

Demirug
2013-01-19, 17:57:08
Dann müssten sie auch Lovefilm, Sky usw aus dem Marktplatz rauswerfen, in Sachen Musik ebenso, denn sie stehen in Konkurrenz zu den eigenen Angeboten.

Würde mich nicht wundern wenn Microsoft da eine Umsatzbeteiligung bekommt.

fizzo
2013-01-19, 18:04:04
So unsinnig wäre es nicht, schließlich verfügt MS per Xbox Live über ein großes
HD (Film) Medien Angebot und das will auch online vertrieben werden.

In letzter Zeit tauchte ja das Gerücht auf, das bei der kommenden Microsoft
Konsole für Spiele ein Blu Ray Medium mit 100 GB eingesetzt werden soll. Könnte
man daraus schon ableiten, das zukünftige Spiele im Preis definitiv steigen werden ?

Die Entwicklungskosten könnten IMHO schon ein limitierender Faktor werden - siehe auch:

Dragon Age 3 artist: Xbox 720 tech won't be as "obvious" a leap as Xbox to Xbox 360 (http://www.oxm.co.uk/49319/dragon-age-3-artist-xbox-720-tech-wont-be-as-obvious-a-leap-as-xbox-to-xbox-360/)

dargo
2013-01-19, 18:18:22
Wii-U zeigt wie schlecht sich DDR3 als Grafikram macht selbst mit Edram als Hilfe.
Du weißt aber schon, dass dort der Speicher an 64Bit hängt?

dildo4u
2013-01-19, 18:23:14
Jo weil DDR3 nicht für mehr ausgelegt ist,es ist also egal ob in der nästen Xbox oder sonst wo verbaut wird.Es ist ne Sparlösung wobei die Specs nich Final sein müssen vielleicht stimmt auch die Hälfte nicht.

dargo
2013-01-19, 18:24:51
Jo weil DDR3 nicht für mehr ausgelegt ist...
Hä?

Coda
2013-01-19, 18:32:25
Jo weil DDR3 nicht für mehr ausgelegt ist
:facepalm:

dildo4u
2013-01-19, 18:32:48
Hä?
a 64-bit wide DDR3 module may achieve a transfer rate of up to 64 times the memory clock speed in megabytes per second (MB/s). With data being transferred 64 bits at a time per memory module, DDR3 SDRAM gives a transfer rate of (memory clock rate) × 4 (for bus clock multiplier) × 2 (for data rate) × 64 (number of bits transferred) / 8 (number of bits/byte). Thus with a memory clock frequency of 100 MHz, DDR3 SDRAM gives a maximum transfer rate of 6400 MB/s.

http://en.wikipedia.org/wiki/DDR3_SDRAM

Nach oben kann nur über Dual Channel Einsatz und Takt skaliert werden,Wii-U nutzt DDR3 1600 ohne Dual Channel.Die Xbox 720 kann also vieleicht mit DC auf 24GB/Sec kommen.

dargo
2013-01-19, 18:34:12
Und was spricht jetzt gegen 4-8 (2-1GB) Chips bei MS?

Edit:
So wie ich das sehe hat die Wii U zwei Speicherchips die mit je 32Bit angebunden sind. Sind doch vier Speicherchips, dann wohl mit je 16 Bit Anbindung.
http://www.mynintendo.de/content/attachments/8066d1349994228-cpu-und-gpu.jpg/

Man muss halt bei MS mehr Chips verbauen um höheres SI zu verwirklichen.

Coda
2013-01-19, 18:37:31
Nach oben kann nur über Dual Channel Einsatz und Takt skaliert werden
GDDR5 hat 32 bits pro Chip und normalerweise werden zwei davon an einen Speichercontroller angeschlossen. Eine 256 bit Grafikkarte ist also Quad Channel.

Es gibt exakt NULL Unterschied zu DDR3 in dieser Hinsicht. Wenn man ein breiteres Interface braucht, nimmt man halt mehr Chips.

dildo4u
2013-01-19, 18:39:06
Und was spricht jetzt gegen 4-8 (2-1GB) Chips bei MS?

Kosten alles über Dual Channel dürfte das Board ziemlich aufwendig werden lassen,Intel behält Tripple Channel ja bis Heute den High-End Boards vor.Beim Wii-U wurde sich sogar DC schon gespart scheint also einiges an Ersparniss zu bringen.

Coda
2013-01-19, 18:40:03
Ein 256 Bit DDR3 Interface wäre billig als ein 256 Bit GDDR5 Interface. Einfachere Routing-Regeln, weniger Leitungen und weniger Platz.

Die Wii U hat auch nicht gerade den schnellsten Speicher und im übrigens nur ein Single-Channel-Interface (12,8 GB/s entspricht exakt DDR3-1600 mit 64 bit).

dargo
2013-01-19, 18:40:18
Kosten alles über Dual Channel dürfte das Board ziemlich aufwendig werden lassen,Intel behält Tripple Channel ja bis Heute den High-End Boards vor.
Du kannst das doch nicht mit dem Arbeitsspeicher am PC vergleichen wo die Riegel gesteckt werden. :uhippie: Zudem würde Quad-Channel einem Quadcore @Ivy-Bridge praktisch nichts bringen. Bei X79 sieht das schon etwas anders aus, zumal so ein System nicht gerade nur für Spiele vorgesehen ist. :)

dildo4u
2013-01-19, 18:44:25
Ein 256 Bit DDR3 Interface wäre billig als ein 256 Bit GDDR5 Interface. Einfachere Routing-Regeln, weniger Leitungen und weniger Platz.

Die Wii U hat auch nicht gerade den schnellsten Speicher.
Es scheint billiger zu sein schnellen ram(DDR3 1600) zu nutzen als das Board Dual Channel tauglich zu machen zumindest hat es Nintendo so gemacht.

http://www.anandtech.com/show/6465/nintendo-wii-u-teardown

Coda
2013-01-19, 18:44:57
O rly? Ein Single Channel Interface ist billiger? Thank you Captain Obvious.

Hint: Das ist bei jedem Speichertyp so.
Hint2: Die Xbox wird sicher nicht nur mit 12,8GB/s auf den Markt kommen.

dildo4u
2013-01-19, 18:47:36
Sicher nicht mit Single Channel also was um 24GB/sec plus ne größere Menge Edram.

Coda
2013-01-19, 18:48:41
Ich werde dich zu gegebenem Zeitpunkt an diese Zeilen erinnern.

dildo4u
2013-01-19, 18:50:19
Alles Spekulation wie ich oben geschrieben hab vieleicht ist die Hälfte der Infos nich korrekt.Ich hab mir die nicht ausgedacht.Aber gerade was das Board angeht scheinen die Konsole Entwickler gerne zu sparen,siehe Anbindung des GDDR3 der PS3/360.Selbst Nvidia hat bei ihren 400€ Karten das Interface wieder zurück skaliert um Kosten zu sparen,bei den Midrange Karten ist man wieder auf 192Bit zurückgegangen.

AnarchX
2013-01-19, 19:02:18
GDDR5 wird wohl dieses Jahr nur mit bis zu 4Gbit (512MiB pro Modul) lieferbar sein. Da bräuchte man 16 Chips. DDR3 hingegen ist wohl mit 8Gbit verfügbar, also nur 8 Chips, die man mit dem PCB verbinden muss.

dildo4u
2013-01-19, 19:06:22
GDDR5 wird wohl dieses Jahr nur mit bis zu 4Gbit (512MiB pro Modul) lieferbar sein. Da bräuchte man 16 Chips. DDR3 hingegen ist wohl mit 8Gbit verfügbar, also nur 8 Chips, die man mit dem PCB verbinden muss.
Entweder die PS4 wird wieder teurer oder MS kalkuliert mit einem eingebauten Kinect 2.

Iruwen
2013-01-19, 19:07:42
Langweiliges Gebasche,die High-End Games,die auf die Konsole zugeschnitten wurden haben 1280*720p(God of War 3,Uncharted1,2,3) GT5 sogar 1280*1080p bei 60fps.

Das neue God of War 720p mit na sehr guten AA Lösung.
http://www.neogaf.com/forum/showpost.php?p=45899562&postcount=236

Und dafür wird an anderer Stelle gespart. Bei GT5 wird das AA bei 1080p z.B. von 4xMSAA auf 2xQuincunx reduziert. Das neue GoW ist noch gar nicht raus, die "sehr gute" AA Lösung kann in Bewegung schon wieder ganz anders aussehen. PPAA sieht auf Screenshots immer besser aus. Sofern die nicht eh nachbearbeitet sind.

dildo4u
2013-01-19, 19:14:08
Und dafür wird an anderer Stelle gespart. Bei GT5 wird das AA bei 1080p z.B. von 4xMSAA auf 2xQuincunx reduziert. Das neue GoW ist noch gar nicht raus, die "sehr gute" AA Lösung kann in Bewegung schon wieder ganz anders aussehen. PPAA sieht auf Screenshots immer besser aus. Sofern die nicht eh nachbearbeitet sind.
Sind Ingame aus der Demo.

http://youtu.be/6kzcDEVJuoU

Akkarin
2013-01-19, 19:21:54
Sry fürs OT, aber hat jemand nen guten guide für die AA formen ? Ich hab z.b. noch nie was von Quincunx gehört und kann mir auch nach einen kurzen wikilektüre nicht vorstellen wies aussieht im vergleich zu normalen MSAA.

PrefoX
2013-01-19, 19:30:33
Ich dachte du wärst viel klüger. Wieviel Abwärme bietet so ein High End PC und wieviel davon würde so eine kleine Box tolerieren?
viel klüger wäre es doch mal in die vergangenheit zu gucken. War doch immer so ungefähr.

basti333
2013-01-19, 21:39:50
Ich bin jetzt nicht so in dem Thema drinne, aber sehe ich das richtig das nach derzeitiger Gerüchtelage beide Next-Gen Konsolen ne x86 CPU haben werden?

dildo4u
2013-01-19, 21:50:40
Ja AMD liefert CPU's und GPUs.

del_4901
2013-01-19, 22:39:14
Und wie groß ist der API Overhead und der Vorteil von low-level-programming? Der APi Overhead ist recht gross. Bis zu einer Magnitude auf der CPU und etwa das Doppelte auf der GPU.
Wie sieht es eig. damit aus, falls eine HSA mit einem gemeinsamen Adressraum kommt? Kommt auf den Use-Case an aber da gibt es sicherlich auch was zu hohlen.

dargo
2013-01-19, 22:47:39
Der APi Overhead ist recht gross. Bis zu einer Magnitude auf der CPU und etwa das Doppelte auf der GPU.

Gibt es dazu irgendwelche Beweise? Das interessiert mich jetzt wirklich. Wenn du (als Programmierer?) das so genau weißt wie hast du das getestet? Ich meine Theorie ist das eine, Praxis das andere. Und sprichst du jetzt von der DX9 oder DX11 API?

Gipsel
2013-01-19, 22:51:53
Und sprichst du jetzt von der DX9 oder DX11 API?Ich vermute mal im Vergleich dieser zu den APIs von PS3 und XBox360. Die Verbesserungen von DX11 sollen (irgendwo mal gelesen, kann da keine Quelle anbieten) je nach Situation maximal Faktor 2 (mehr moegliche Drawcalls pro Frame) bringen.

Tesseract
2013-01-19, 23:45:12
Der APi Overhead ist recht gross. Bis zu einer Magnitude auf der CPU und etwa das Doppelte auf der GPU.

welcher API-overhead bei CPUs? :confused:

del_4901
2013-01-19, 23:52:42
welcher API-overhead bei CPUs? :confused: Der Treiber muss mit viel allgemeineren Szenarien umgehen koennen. Nicht umsonst gibt es viele spezielle Game spezifische Optimierungen. Aber auch da ist irgendwann das Ende erreicht.

dargo
2013-01-20, 00:01:25
Ich vermute mal im Vergleich dieser zu den APIs von PS3 und XBox360. Die Verbesserungen von DX11 sollen (irgendwo mal gelesen, kann da keine Quelle anbieten) je nach Situation maximal Faktor 2 (mehr moegliche Drawcalls pro Frame) bringen.
Ich blicke da aber ehrlich gesagt immer noch nicht durch. Nehmen wir mal an es ist Faktor 2 bei den Konsolen. Auf welche Ausgangsbasis bezieht sich das dann? Ich meine, es passiert nicht gerade selten, dass die IHVs hier und da X% mehr Performance aus den Treibern herauskitzeln. Bezieht sich also dieser Faktor 2 auf den Zustand vor oder nach den "Optimierungen" der Treiber? Ich weiß... das Thema ist wohl komplizierter als ich denke. :usad:

PS: das mit den möglichen Drawcalls pro Frame bringt mich auch nicht wirklich weiter. Mir wäre lieber ein Vergleich fps vs. fps. :D