PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Next-Gen-Konsolen?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39

Iruwen
2012-03-16, 10:29:26
Können die da 2013 einfach eine neue GPU reinklatschen? Die fangen doch mindestens ein Jahr vorher mit Entwicklung und Tests an oder nicht?

Coda
2012-03-16, 11:20:23
mich würde es nicht mal wundern, wenn die nur 2gb shared ram bekommt :-/
Mich schon.

Gipsel
2012-03-16, 13:30:01
Eine Konsole mit nur 2 GB RAM im Jahr 2013 wäre auch wirklich ein wenig armselig. So in die Richtung von 4 GB sollten es meiner Meinung nach schon sein.

Deinorius
2012-03-16, 21:07:23
Können die da 2013 einfach eine neue GPU reinklatschen? Die fangen doch mindestens ein Jahr vorher mit Entwicklung und Tests an oder nicht?


Wie kommst du auf die Idee, dass die erst anfangen?

T101
2012-03-16, 21:35:46
Eine Konsole mit nur 2 GB RAM im Jahr 2013 wäre auch wirklich ein wenig armselig. So in die Richtung von 4 GB sollten es meiner Meinung nach schon sein.
512 MB bzw. 2*256 MB waren 2005/2006 auch schon sehr wenig. Ein einfacher Arbeits-PC hatte damals auch schon 1-2 GB Hauptspeicher und ne Mittelklasse Grafikkarte 256 MB Speicher.

Lightning
2012-03-16, 22:50:33
512 MB bzw. 2*256 MB waren 2005/2006 auch schon sehr wenig. Ein einfacher Arbeits-PC hatte damals auch schon 1-2 GB Hauptspeicher und ne Mittelklasse Grafikkarte 256 MB Speicher.

Wenig für PC-, aber nicht für Konsolenverhältnisse. Dass Konsolen weniger RAM haben, ist völlig normal.

AnarchX
2012-03-16, 22:57:05
Wobei der doppelte Speicher bei den Current-Gen-Konsolen nicht unbedingt Verschwendung gewesen wäre.

][immy
2012-03-17, 00:30:31
Wobei der doppelte Speicher bei den Current-Gen-Konsolen nicht unbedingt Verschwendung gewesen wäre.

nunja, damals waren aber die Speicher etwas teurer. In der Xbox 360 waren schließlich (für damalige verhältnisse) recht hochgetaktete Speichermodule drin. Aus heutiger sicher zwar lächerlich, aber damals waren sie schon ziemlich schnell.
Die PS3 war auch so schon teuer genug, da wollte sony sicherlich nicht noch mehr draufzahlen.

Klar mehr Speicher kann häufig schon ausreichen um mehr aus einer Konsole rauszukitzeln, aber es wird letztlich darauf ankommen wie schnell der Speicher werden soll. Je schneller der Speicher desto weniger wird rein kommen.

auß heutiger Sicht würden die z.B. 3Ghz Speicher verbauen (z.B. wie auf dem GTX680) könnte man sich nicht all zu viel Speicher erlauben, weil es wohl die Kosten der Konsole sprengen würde.
Ich würde daher tippen, entweder 2 GB schneller speicher (im 3Ghz Bereich) oder 4 GB langsamerer Speicher (~2 GHz, bzw ungefähr der Stand von heutigen Mainstream Grafikkarten)

An Rambus Bausteinchen glaube ich dabei nicht. Hat zwar auf der PS3 durchaus auch vorteile, aber der Speicher dürfte einfach zu teuer sein und zu wenig mit der Zeit im Preis fallen.

=Floi=
2012-03-17, 00:51:04
es zählt nicht mehr die geschwindigkeit, sondern die masse und alles andere als zwei unterschiedliche ram arten wie beim pc macht auch kein sinn. Man braucht schnellen ram für die grafikkarte und langsamen aber großen für die cpu.
wenn eine aktuelle console 2013+ nicht 8gb ram und 2 gb vram hat, dann haben sie es noch immer nicht kapiert und mit der nächsten gen muß vor allem auch der 64 bit bereicht fallen!

Tesseract
2012-03-17, 02:58:02
eigentlich "braucht" man vram sogar mehr als systemram. das problem ist halt, dass es kaum sinn macht eine karte mit viel vram zu bauen bzw. gigantische texturen einzubauen solange alle anderen karten viel weniger vram haben.
aber in eine geschlossene konsole könnte man quasi endlos vram reinbuttern und hätte immer was davon.

Coda
2012-03-17, 02:59:05
Wenn man eine APU einbaut, dann auch nur einen Speichercontroller.

Lightning
2012-03-17, 08:28:31
Wobei der doppelte Speicher bei den Current-Gen-Konsolen nicht unbedingt Verschwendung gewesen wäre.

Verschwendung an sich natürlich nicht, aber ich finde, man muss das immer aus der Perspektive des Budgets sehen. 360 und PS3 waren ohnehin schon so teuer, dass man lange Zeit rote Zahlen geschrieben hat. Mehr RAM hätte in jedem Fall bedeutet, dafür an anderer Stelle zu sparen, was letztlich auf auf weniger Rechenleistung von CPU und/oder GPU hinausgelaufen wäre.
Ob das nun besser gewesen wäre, ist sicherlich ein Stück weit Geschmackssache, und auch unter Entwicklern werden sich die Meinungen darüber unterscheiden. Ich finde aber, dass gerade die 360 hardwareseitig einen ziemlich vernünftigen, ausgewogenen Kompromiss gefunden hat.

Coda
2012-03-17, 13:05:13
Das einzige was man an der Xbox 360 bemängeln könnte sind die nur 512MiB Speicher. Ansonsten war sie für ihre Zeit wirklich nahezu perfekt.

Iruwen
2012-03-17, 13:49:45
Abgesehen von der Qualität (RoD) und dem übertrieben lauten Laufwerk.

Coda
2012-03-17, 14:20:11
Das hat doch nichts mit der Architektur zu tun.

AnarchX
2012-03-17, 14:22:35
Ob es vielleicht sinnvoller gewesen wäre auf den eDRAM zu verzichten und statt dessen mehr Speicher zu verbauen?

00-Schneider
2012-03-17, 14:24:48
Das einzige was man an der Xbox 360 bemängeln könnte sind die nur 512MiB Speicher. Ansonsten war sie für ihre Zeit wirklich nahezu perfekt.


Dabei wollte MS erst nur 256MiB Speicher verbauen, aber Epic hat dann während der Gears of War Entwicklung gemeint, es wäre viel zu wenig. Daraufhin hat MS nochmal umgedacht, und den dann Speicher verdoppelt. ;D

http://www.qj.net/xbox-360/interviews/gears-of-war-is-responsible-for-360s-512mb-ram.html

---------------------

Ob die größeren Speicherchips letztendlich wirklich eine Milliarde(!) Dollar teuerer waren/sind, kann ich aber nicht beurteilen.

Coda
2012-03-17, 15:27:14
Das ist ja ohnehin eine Milchmädchenrechnung, denn niemand weiß wie gut sich die Xbox 360 gegenüber der PS3 verkauft hätte mit nur 256MiB RAM.

Ich würde behaupten, dann hätten sie sehr viel schlechtere Karten gehabt. Insofern sind sie mit den 512MiB statt 256MiB am Ende sogar mit Gewinn rausgelaufen.

Ob es vielleicht sinnvoller gewesen wäre auf den eDRAM zu verzichten und statt dessen mehr Speicher zu verbauen?
Dann hätte die Bandbreite viel höher ausfallen müssen für die gleiche Leistung.

krötenfresse
2012-03-19, 18:49:31
Das einzige was man an der Xbox 360 bemängeln könnte sind die nur 512MiB Speicher. Ansonsten war sie für ihre Zeit wirklich nahezu perfekt.
ich persönlich fand es viel schlimmer, daß nicht von anfang an eine mindestens 30 gb große hdd eingebaut war, auf die man die spiele installieren kann.

00-Schneider
2012-03-28, 19:07:37
Neues zur "PS4":

http://kotaku.com/5896996/the-next-playstation-is-called-orbis-sources-say-here-are-the-details

Deinorius
2012-03-28, 20:49:13
Ob die Namensänderung irgendwelche Auswirkungen haben könnte... Wäre selber auch nicht dafür über die 3 zu gehen.

Und dass die bei einer AMD x86 CPU überhaupt wegen einer Abwärtskompatibilität von PS3-Spielen überlegen müssen, das kann man selbst mit einer PowerPC-CPU praktisch als unmöglich bezeichnen. :|

Avalox
2012-03-28, 20:56:20
Ob die Namensänderung irgendwelche Auswirkungen haben könnte... Wäre selber auch nicht dafür über die 3 zu gehen.

Und dass die bei einer AMD x86 CPU überhaupt wegen einer Abwärtskompatibilität von PS3-Spielen überlegen müssen, das kann man selbst mit einer PowerPC-CPU praktisch als unmöglich bezeichnen. :|


4 ist in Japan eine Unglückszahl, da will vermutlich jemand auf Nummer sicher gehen.


Na wird die neue Konsole mit Android laufen?

Deinorius
2012-03-28, 21:01:10
Ach ja richtig, das hab ich ja ganz vergessen, dass das eine Unglückszahl ist. :ugly:
Und ich hab mich schon auf die PS9 gefreut... verdammt, auch eine Unglückszahl. :redface:

Na wird die neue Konsole mit Android laufen?


:|

Ringwald
2012-03-28, 21:35:47
Na wird die neue Konsole mit Android laufen?

Nicht wenn Sony darüber nachdenkt VitaOS in Smartphones einzusetzen. (http://www.computerbase.de/news/2012-02/kuenftig-smartphones-auf-basis-von-vita-os/)

Avalox
2012-03-28, 21:50:37
Nicht wenn Sony darüber nachdenkt VitaOS in Smartphones einzusetzen. (http://www.computerbase.de/news/2012-02/kuenftig-smartphones-auf-basis-von-vita-os/)


Sonys GoogleTV Integration wird/kann ja Android Apps auf dem TV zaubern. Ich denke Onlive Client steckt auch drin.
Soll denn in der "nicht Playstation 4" Konsole das alles nicht möglich sein, was der SonyTV von Hause aus kann?

Na mal sehen wie das weitergeht.

Coda
2012-03-29, 00:50:19
Nicht wenn Sony darüber nachdenkt VitaOS in Smartphones einzusetzen. (http://www.computerbase.de/news/2012-02/kuenftig-smartphones-auf-basis-von-vita-os/)
Hat Vita OS nen Linux-Kernel?

sloth9
2012-03-29, 14:41:19
Wow, werden die next-Gen-Kosnsolen leistungsarm.

john carmack
2012-03-29, 16:19:02
Wow, werden die next-Gen-Kosnsolen leistungsarm.

wer sagt das?

looking glass
2012-03-29, 17:09:59
Ich weiß nicht, für mich hört sich das Gerücht zu der PS4 einfach nur nach einer fail sonders gleichen an - ich mein keine Abwärtskompatibilität bedeutet doch entweder die haben für ein Jahr das dickste Releasepaket gebunden, das jemals gemacht wurde, oder sie können viele der alten Titel durch einen neuen Compilerlauf mit einem kombiniertem Quasiemumodus irgendwie überreden, andernfalls sehe ich da eine Totgeburt epischen Ausmaßes auf uns zu rollen.

Da kann die Konsole noch so viel leisten, ohne Spielbasis bei hohem Preis ist sie zum untergehen verdammt.

Und dann auch noch das Gerücht von wegen komplette Accountbindung + DauerOnline, feuchte Träume vielleicht, aber verkaufsfördernd wohl kaum.

robbitop
2012-03-29, 17:25:43
Die Publisher sind stark bemüht, den Gebrauchtmarkt auszulöschen. Beim PC funktioniert das ja schon hervorragend. Und wie Daniel Pachter immer so schön beton - sie werden alles tun, was dazu führt, dass sie noch mehr Geld verdienen.
Für den Kunden dumm - aber das kann gut funktionieren. Leider. Und damit auch die Raubkopiererei einschränken.
Wenn man mit seiner Xbox 3 immer wieder in's Netz muss, um ein Spiel zu aktivieren oder sogar Daueronline ist, kommt man mit dem Flashen einer ixtreme Laufwerksfirmware (wenn es sowas dann geben sollte) gar nicht mehr hinterher.
Das Knacken von DRM hingegen wird ungleich schwieriger.

Das könnte die Spieleumsätze nochmal anheben. Wenn der Verbraucher es akzeptiert.

Jetzt werden wieder einige behaupten "niemals" - die Schwelle sollte aber sehr sehr gering sein. Soziemlich jeder Haushalt hat zu Hause mittlerweile Breitband und ein WLAN. Es ist sehr einfach, ein Gerät per WLAN in das Internet anzubinden. Da sind einfach keine großen Hürden mehr da...

Käsetoast
2012-03-29, 17:53:49
Zur Not bietet man dann halt auch eine telefonische Aktivierung an wie Microsoft es für Windows & Co ja schon seit gut nem Jahrzehnt handhabt. Ich denke, dass man außer bei Nintendo vielleicht mit einer Kontobindung der Spiele zu rechnen hat...

Ich glaube auch nicht, dass sich da jemand großartig dran stören wird - zumindest nicht im großen Stil. Viele werden das vom PC her sowieso schon kennen und da kein großes Problem drin sehen. Ansonsten sehe ich das wie robbitop: Gebrauchtmarkt austrocknen plus Raubkopien erschweren = Höherer möglicher Profit = gute Idee aus Sicht der Publisher...

Persönlich finde ich das wie auch am PC mit Steam & Co nicht sonderlich prickelnd...

looking glass
2012-03-29, 18:10:16
Also erst mal Breitband != Breitband und zweitens sind wir ziemlich entfernt von jeder hätte genug Anschluss für so etwas (damit meine ich nicht nur Bandbreite, sondern auch Stabilität, Traffic und Latenz), vor allem wen man ohne "Brics"staaten im Grunde nicht mehr auskommt und das dürfte bei der nächsten Konsolengeneration der Fall sein, es ist der einzige Wachstumsmarkt.

Zweitens, wen sie im Zuge dessen nicht massiv die Preise senken im kompletten Verwertungszyklus, wird das System gegen die Wand gefahren sein, noch bevor die Konsole break even erreicht hat (gehe davon aus, das die PS4 wie die Xbox 720 erneut subventioniert werden muss, zumindest am Anfang), den genau das ist es, warum es auf dem PC halbwegs funktioniert. Und mal ehrlich, Hand hoch, wer glaubt hier wirklich die würden die Preise senken?

Watson007
2012-03-29, 18:11:03
per Steam kaufe ich nur Billig-Titel... also unter 20 Euro.

bei Konsolentiteln mit 60 Euro Vollpreis... ob sich das da durchsetzen wird?! Ist jedenfalls nochmal was anderes als bei LowBudget-Steam-Titeln...

Crazy_Bon
2012-03-29, 19:10:51
per Steam kaufe ich nur Billig-Titel... also unter 20 Euro.

bei Konsolentiteln mit 60 Euro Vollpreis... ob sich das da durchsetzen wird?! Ist jedenfalls nochmal was anderes als bei LowBudget-Steam-Titeln...
AA oder AAA-Titeln mit LowBugdet-Titeln vergleichen ist wie Äpfeln mit Birnen, wenn schon dann mit XBL oder PSN-Titeln.

Käsetoast
2012-03-29, 19:19:03
Also erst mal Breitband != Breitband und zweitens sind wir ziemlich entfernt von jeder hätte genug Anschluss für so etwas (damit meine ich nicht nur Bandbreite, sondern auch Stabilität, Traffic und Latenz),
Also ständiges Online sein ist doch mit hoher Sicherheit gar nicht das Ziel, sondern nur eine Kontobindung wie bei Steam, wo man sein Spiel einmal auf seinem Konto registriert und gut ist. Dementsprechend ist Stabilität, Traffic & Co doch gar kein Thema...

N0Thing
2012-03-29, 19:21:30
AA oder AAA-Titeln mit LowBugdet-Titeln vergleichen ist wie Äpfeln mit Birnen, wenn schon dann mit XBL oder PSN-Titeln.

Jeder AA oder AAA-Titel wird irgendwann zum low budget Titel. ;)

Crazy_Bon
2012-03-29, 19:44:27
Also Neuerscheinungen gegen LowBuget? Wer alte Konsolenspiele zu horrorenden Preisen bei Real, Karstadt und Co. kauft, der ist selbst schuld.

looking glass
2012-03-29, 21:56:40
Also ständiges Online sein ist doch mit hoher Sicherheit gar nicht das Ziel, sondern nur eine Kontobindung wie bei Steam, wo man sein Spiel einmal auf seinem Konto registriert und gut ist. Dementsprechend ist Stabilität, Traffic & Co doch gar kein Thema...

Wie meinen? Vergessen das man sie 1. als Download beziehen können soll (und das kann man ausweiten, z.B. indem man die Daten Levelweise streamt), 2. es DLCs weiterhin geben wird, 3. wir noch immer im Cloudgedöns hängen (Stichwort wäre also hier das Savegame in der Wolke, was oh Wunder schon praktiziert wird), 4. der Social (damit einher gehend auch die persönlich zugeschnittene Werbung) ebenso wie der Achivementbereich (aka ePenis) weiter forciert wird und 5. man ganz gewiss nicht auf die Dauerprüfung verzichten wird, wen sie den schon mal da ist (einzig und allein wird eine Fehlertoleranz für Verbindungsabbrüche enthalten sein).

Und natürlich ist das ein Thema (sogar DAS Thema) wen man die einzigen Wachstumsmärkte betrachtet.

Käsetoast
2012-03-29, 22:34:03
Eine Dauerverbindung macht dahingehend wenig Sinn, da eben genau die Probleme mit Bandbreite und Verbindungsqualität bestehen wie du sie angesprochen hast. Damit würden die sich deutlich ins eigene Fleisch schneiden und das wird ihnen auch sehr bewusst sein. Da reicht es völlig eine Kontobindung einzuführen. Dauerverbindung ist aufwendig zu machen, schließt gerade auf dem Konsolensektor viele Kunden aus und wurde ja auch im PC Bereich nicht sonderlich gut aufgenommen (Ubisoft rudert ja zunehmends zurück)...

Dementsprechend gab es doch auch in der Meldung von Kotaku (?) ein Update wo explizit eine nötige Dauerverbindung verneint wurde...

Deinorius
2012-03-29, 22:42:04
Wow, werden die next-Gen-Kosnsolen leistungsarm.


Wieso? Wurden schon irgendwelche DIE-Größen genannt, die auf irgendeine Leistungsfähigkeit schließen lassen? Das wichtigste ist das Feature-Set, davon profitieren dann die PC-Spiele. ;)

Ich weiß nicht, für mich hört sich das Gerücht zu der PS4 einfach nur nach einer fail sonders gleichen an - ich mein keine Abwärtskompatibilität bedeutet doch entweder die haben für ein Jahr das dickste Releasepaket gebunden, das jemals gemacht wurde, oder sie können viele der alten Titel durch einen neuen Compilerlauf mit einem kombiniertem Quasiemumodus irgendwie überreden, andernfalls sehe ich da eine Totgeburt epischen Ausmaßes auf uns zu rollen.


Abwärtskompatibilität? Von welcher Abwärtskompatibilität bei der PS4 redest du bitte? Die war schon Geschichte, als man bei Sony verlauten ließ, dass es keinen Cell-Chip in der PS4 geben wird. Da gibt es doch nix weiter zu diskutieren. Das ist Sense... leider. :(

Da kann die Konsole noch so viel leisten, ohne Spielbasis bei hohem Preis ist sie zum untergehen verdammt.
Natürlich war das bei der PS3 vööööööllig anders. Die konnte alle PS2-Spiele rendern und war durchgehend günstig. :|
Die bisherigen Gerüchte deuten immerhin darauf hin, dass man den Preis nicht wieder zu hoch ansetzen will. M$ ist der einzige, der wirkliche Abwärtskompatibilität bieten kann. Wie waren nochmal die Pläne von Nintendo bei der Wii U? Ich kann mich nicht mehr wirklich erinnern.

looking glass
2012-03-29, 22:59:49
Ähhh, ja die erste PS3 Generation hatte PS2 Support, schon vergessen? Dann waren sie so dämlich und haben das komplett gestrichen (was ja die EU Teile betraf) - wie war das noch gleich, wieviel Verlust haben die eingefahren, wie lange durften sie subventionieren? Jaaaaaaaaa das lief ja super.

Btw. lesen und so, was habe ich geschrieben.


Wii U soll Wii können, aber kein GC mehr (was eher am Datenmedium, den an der Prozziarchitektur o.ä. liegt (wie bei den ganz neuen Wiis eben auch, da können die laufwerke nicht mehr mit den kleinen Scheiben umgehen), GC ist ja nicht ausgeschlossen, z.B. über den Store als Image, wen Wii läuft, läuft auch GC). Allerdings nur in nativer Wii Auflösung, nicht wie bei Dolphin, der ja in höheren Auflösungen rendern kann.

Ringwald
2012-03-29, 23:04:58
Die WiiU ist abwärtskompatibel zur Wii aber nicht zu GC Spielen, ich denke die zusätzliche Mechanik für MiniDVDs beim SlotIn Laufwerk ist einfach zu teuer.
Der ein oder andere wird seine WiiU sicherlich ungewollt beim Versuch nen GC Spiel einzulegen seine WiiU schrotten :freak:

edit
Ach jetzt weiß ich warum Nintendo die GC abwärtskompatibel für die laufende Wii gestrichen hat, dass Laufwerk war einfach zu teuer!

TheGoD
2012-03-29, 23:16:28
@Looking Glass
Abwärtskompatibilität wurde überhaupt erst mit der PS2 eingeführt, vorher gab es diese praktisch nicht und die Leute haben dennoch Konsolen gekauft...

sloth9
2012-03-29, 23:18:16
wer sagt das?

AMD-CPU, Bulldozer-basierend=relativ schwach.
Wenn's tatsächlich nen SoC wird, wird auch die GPU max. Mittelklasse sein.
Scheinbar haben die hohen Anfangsverluste der aktuellen Generation dazu geführt, das man nicht nur sturzlangweilige reine PC-08/15-Hardware verbaut (nix Eigenentwicklung, nix Xenos, nix Cell), sondern auch die billigstmögliche.
Ein Kaveri-SoC würde auch Rambus und Co. ausschließen.

Würde man Leistung wollen, würde man eine Intel-CPU mit einem diskreten Grafikchip nach Wahl nehmen. Problem: Intel würde die ja CPU selbst herstellen, und ob dann später eine SoC-Variante (wie sie ja bei X360 u. PS3 erschien) möglich wäre...

Deinorius
2012-03-29, 23:20:59
Ähhh, ja die erste PS3 Generation hatte PS2 Support, schon vergessen?


Ja, indem der PS2-SoC drinnen steckte, CPU, GPU usw. Das wird so nimma geschehen, schon mal gar nicht mit einer Hardware wie der PS3. Wie schon gesagt, der Cell wird nicht drinnen sein. Und selbst wenn man nur den Cell her nehmen würde (indem die restliche Hardware durch die PS4-eigene ersetzt wird), würde dieser die Kosten nicht unerheblich steigern.
Ich fand es zwar schade, dass sie die Abwärtskompatibilität rausgenommen hatten, aber ich hätte es nicht anders getan.

Btw. lesen und so, was habe ich geschrieben.


Hat die PS2-Spielbasis bei der PS3 überhaupt eine nennenswerte Bedeutung gehabt? Hatte sie überhaupt bei der Xbox 360 eine nennenswerte Bedeutung, obwohl diese nicht so schlecht war? Hinsichtlich dem Preis hast du natürlich recht, aber das Gerücht spricht auch nicht für einen hohen Preis.

AMD-CPU, Bulldozer-basierend=relativ schwach.


Das siehst du viel zu sehr aus dem PC-Blickwinkel. Gegenüber den Prozessoren der jetzigen Generation ist der Bulldozer pfeilschnell und benötigt nicht zu viel DIE-Fläche. Einen L3-Cache werden die ja sicher nicht verwenden.
Außerdem wurde rein gar nichts darüber gesagt, ob ein SoC verwendet wird, der auch für den Desktop-Markt vorgesehen ist (was ich sehr stark bezweifle), oder ob die Hardware für die Konsole entwickelt/angepasst wird.

Scheinbar haben die hohen Anfangsverluste der aktuellen Generation dazu geführt, das man nicht nur sturzlangweilige reine PC-08/15-Hardware verbaut (nix Eigenentwicklung, nix Xenos, nix Cell), sondern auch die billigstmögliche.
Wo steht, dass dem so sein wird?

Ein Kaveri-SoC würde auch Rambus und Co. ausschließen.
Und welche direkten Vorteile bringt jetzt Rambus genau?

looking glass
2012-03-29, 23:46:12
Für den Releasezeitraum (die übliche bittere Zeit danach, bis die nächste Ladung Spiele kommt) hatte die PS2 Kompatibilität durchaus eine Bedeutung, danach war sie ein Nostalgiefandetail und genau das kann sich heute eigentlich niemand mehr erlauben nicht zu bedienen. Daher auch meine Anmerkung dazu, ob nicht vielleicht durch pure Rechenkraft und latenten Emuanleihen + neuer Compilerdurchgang nicht doch PS3 auf PS4 in Teilen möglich wäre (in den Teilen die diese Anpassung bezahlen würden), ansonsten könnte ich mir eine Erweitungskarte vorstellen, die man extra kaufen kann, um der PS4 die PS3 Hardware wieder mitzugeben.

Nicht falsch verstehen, wen ich an Abwärtskompatibilität denke, dann nicht unbedingt an alte Medien auf neuer Hardware, viel eher kann ich mir vorstellen das die alten Schinken im App Store zu holen sein werden - was die Wii ja mit den ganzen N64 Teilen und so schon vormacht.

Wer das nicht liefern kann, ist vom Markt weg, die Zeiten sind vorbei, wo die neue Hardwarebasis die alten Spiele vergisst, soviel auch zu "vor PS2 gab es das gar nicht", die Zeiten haben sich geändert - eine neue Nintendo Konsole ohne darauf meine alten Schätzchen irgendwie spielen zu können, käme mir nichts ins Haus (ich habe btw. extra noch eine alte Wii gekauft, mit GC Modus, genau wegen dem GC Modus), das gleiche würde bei mir für eine PS4 gelten (wen ich z.B. FF Fan wäre).

sloth9
2012-03-29, 23:52:30
...

Das siehst du viel zu sehr aus dem PC-Blickwinkel. Gegenüber den Prozessoren der jetzigen Generation ist der Bulldozer pfeilschnell und benötigt nicht zu viel DIE-Fläche. Einen L3-Cache werden die ja sicher nicht verwenden.
Außerdem wurde rein gar nichts darüber gesagt, ob ein SoC verwendet wird, der auch für den Desktop-Markt vorgesehen ist (was ich sehr stark bezweifle), oder ob die Hardware für die Konsole entwickelt/angepasst wird.


Wo steht, dass dem so sein wird?


Und welche direkten Vorteile bringt jetzt Rambus genau?

Ich denke, ein komplettes Spezial-Neu-Design könnte AMD momentan gar nicht stemmen, also wird es ein stinknormaler Kaveri sein.
Bedeutet z.B., das nur ein Speicher-Controller den gesamten SoC versorgen muss. Oder glaubt jemand an ein 600mm²-Monster?




...

Wer das nicht liefern kann, ist vom Markt weg, die Zeiten sind vorbei, wo die neue Hardwarebasis die alten Spiele vergisst, soviel auch zu "vor PS2 gab es das gar nicht", die Zeiten haben sich geändert - eine neue Nintendo Konsole ohne darauf meine alten Schätzchen irgendwie spielen zu können, käme mir nichts ins Haus (ich habe btw. extra noch eine alte Wii gekauft, mit GC Modus, genau wegen dem GC Modus), das gleiche würde bei mir für eine PS4 gelten (wen ich z.B. FF Fan wäre).

Technisch unmöglich, weil momentan viel zu langsam. Man hätte ja mit ner AMD-CPU ne ganz andere ISA (http://de.wikipedia.org/wiki/Befehlssatzarchitektur). Und Erweiterungskarte? wtf?
Da kann man doch gleich die alte Konsole behalten bzw. weiterverkaufen. Emulation ist vllt. für reine PSN-Schätzken möglich, die kaum einen Cell benutzen.
Natürlich wird man die ein oder andere "HD-Variante" von Klassikern rausbringen, ist schließlich leicht verdientes Geld. Neukaufen wird man das alles aber schon müssen.

w0mbat
2012-03-30, 00:03:58
Klar wird es in gewissem Maße ein Customdesign sein. Und AMD könnte mehrere davon "stemmen". Wo lebst du denn?

Drill
2012-03-30, 00:04:24
Für den Releasezeitraum (die übliche bittere Zeit danach, bis die nächste Ladung Spiele kommt) hatte die PS2 Kompatibilität durchaus eine Bedeutung, danach war sie ein Nostalgiefandetail und genau das kann sich heute eigentlich niemand mehr erlauben nicht zu bedienen. Daher auch meine Anmerkung dazu, ob nicht vielleicht durch pure Rechenkraft und latenten Emuanleihen + neuer Compilerdurchgang nicht doch PS3 auf PS4 in Teilen möglich wäre (in den Teilen die diese Anpassung bezahlen würden), ansonsten könnte ich mir eine Erweitungskarte vorstellen, die man extra kaufen kann, um der PS4 die PS3 Hardware wieder mitzugeben.

Nicht falsch verstehen, wen ich an Abwärtskompatibilität denke, dann nicht unbedingt an alte Medien auf neuer Hardware, viel eher kann ich mir vorstellen das die alten Schinken im App Store zu holen sein werden - was die Wii ja mit den ganzen N64 Teilen und so schon vormacht.

Wer das nicht liefern kann, ist vom Markt weg, die Zeiten sind vorbei, wo die neue Hardwarebasis die alten Spiele vergisst, soviel auch zu "vor PS2 gab es das gar nicht", die Zeiten haben sich geändert - eine neue Nintendo Konsole ohne darauf meine alten Schätzchen irgendwie spielen zu können, käme mir nichts ins Haus (ich habe btw. extra noch eine alte Wii gekauft, mit GC Modus, genau wegen dem GC Modus), das gleiche würde bei mir für eine PS4 gelten (wen ich z.B. FF Fan wäre).

und ich glaube das du sowas von falsch liegst.
der anteil der käufer die sich durch fehlende abwärtskompatibilität vom konsolenkauf abhalten lassen würden liegt wahrscheinlich im promillebereich.
man sieht ja jetzt schon wieviele bereit sind wucherpreise für sogenannte HD collections auszugeben. da werden MS und Sony einen teufel tun und sich das geschäfft mit abwärtskompatibilität abzuwürgen.

sloth9
2012-03-30, 00:16:50
Klar wird es in gewissem Maße ein Customdesign sein. Und AMD könnte mehrere davon "stemmen". Wo lebst du denn?

Die müssen erstmal die Bulldozer-Performance auf die Reihe kriegen.
Wenn das Ding erscheint, komme ich auf Deine Aussage zurück.

und ich glaube das du sowas von falsch liegst.
der anteil der käufer die sich durch fehlende abwärtskompatibilität vom konsolenkauf abhalten lassen würden liegt wahrscheinlich im promillebereich.
man sieht ja jetzt schon wieviele bereit sind wucherpreise für sogenannte HD collections auszugeben. da werden MS und Sony einen teufel tun und sich das geschäfft mit abwärtskompatibilität abzuwürgen.

Zumal man imho unterscheiden muss: Kann ich einfach meine alten Spiele einlegen und loszocken? Oder muss ich alles im Store (Nintendo) neukaufen?
Wenn allein die Speicher-Medien nicht passen, kann ich doch meine Spiele-Sammlung eh nicht weiter verwenden.

Deinorius
2012-03-30, 00:18:04
Daher auch meine Anmerkung dazu, ob nicht vielleicht durch pure Rechenkraft und latenten Emuanleihen + neuer Compilerdurchgang nicht doch PS3 auf PS4 in Teilen möglich wäre (in den Teilen die diese Anpassung bezahlen würden), ansonsten könnte ich mir eine Erweitungskarte vorstellen, die man extra kaufen kann, um der PS4 die PS3 Hardware wieder mitzugeben.


Du nimmst die Abwärtskompatibilität IMO zu wichtig. Emulation dürftest du meiner bescheidenen und laienhaften Meinung nach selbst mit einem Intel Xeon Hexa-Core der neuesten Generation nicht mal ansatzweise hinkriegen. Andere ISA und darüber hinaus hatte der Cell 7 aktive SPEs, deren Emulation das Ganze so stark verkompliziert.
Das Problem einer Erweiterungskarte ist grundlegend einmal, wer diese produzieren soll. Da wir anderen eher annehmen, dass der Anteil derjenigen, die so viel auf Abwärtskompatibilität geben, zu gering ist, kaum einer so eine Erweiterungskarte herstellen würde. Und wenn der Markt wirklich soweit groß wäre, dass sich sowas lohnen würde, mal angenommen, das wäre technisch sinnvoll, dann würden es die Konsolen-Hersteller anbeiten.

Ich denke, ein komplettes Spezial-Neu-Design könnte AMD momentan gar nicht stemmen, also wird es ein stinknormaler Kaveri sein.
Bedeutet z.B., das nur ein Speicher-Controller den gesamten SoC versorgen muss. Oder glaubt jemand an ein 600mm²-Monster?


Wie kommst du denn darauf? So ein Blödsinn. Da ein Konsolen-Chip mehrere Jahre durchdacht dienen soll, wäre es völlig sinnfrei, einen SoC auf den Markt zu bringen, der unnötigen Ballast mit sich schleppt.

Coda
2012-03-30, 00:21:07
AMD-CPU, Bulldozer-basierend=relativ schwach.
Muss ja für neuere Revisionen nicht unbedingt gelten.

sloth9
2012-03-30, 00:25:15
Muss ja für neuere Revisionen nicht unbedingt gelten.

Im Vergleich zu Intel schon.
Macht halt nur Sinn, wenn man einen SoC möchte. Und ob da ein Custom-SoC da günstiger als ein 08/15-PC-Design von der Stange...
Schaut man sich die Entwicklung der Konsolen an, gibt es nur einen Trend: weg von Custom zu Standard.
Die Stückkosten von x86 sind einfach nicht zu schlagen. Mit nem Custom-Design macht man sich das wieder kaputt.

Coda
2012-03-30, 00:30:15
Im Vergleich zu Intel schon.
Kann ich deine Glaskugel haben?

Schaut man sich die Entwicklung der Konsolen an, gibt es nur einen Trend: weg von Custom zu Standard.
So wie von Xbox zur Xbox 360?

krötenfresse
2012-03-30, 00:30:30
und ich glaube das du sowas von falsch liegst.
der anteil der käufer die sich durch fehlende abwärtskompatibilität vom konsolenkauf abhalten lassen würden liegt wahrscheinlich im promillebereich.
man sieht ja jetzt schon wieviele bereit sind wucherpreise für sogenannte HD collections auszugeben. da werden MS und Sony einen teufel tun und sich das geschäfft mit abwärtskompatibilität abzuwürgen.
mir wären angepasste versionen mit full-hd, 3d, 60fps und new-play-controll auch deutlich lieber,
als in zukunft noch gears o.w. in niedriger qualität und mit daumen-sticks zu spielen

sloth9
2012-03-30, 00:44:39
Kann ich deine Glaskugel haben?


So wie von Xbox zur Xbox 360?

Nö, is meine.
X 1 -> X360 ist die Ausnahme.
Aber auch hier hatten wir ne PowerPC-Archtektur mit nem Custom-Grafik-Chip von ATi, die aus dem PC-Bereich kommen.
Man schaue sich die alten Dinger, PS1 und vorher; da gab's MIPS oder SuperH. Bei der Grafik haben Sony und Co. viel selber gemacht. Aber genau zu XBox1-Designs geht's wieder hin.

mir wären angepasste versionen mit full-hd, 3d, 60fps und new-play-controll auch deutlich lieber,
als in zukunft noch gears o.w. in niedriger qualität und mit daumen-sticks zu spielen

Letztendlich sind doch aktuelle Serien-Geschichten wie FIFA o. CoD doch jährlich aufgelegte Remakes des Vorgängers. Die soll man sich doch auch schön jährlich neukaufen und nicht die älteren Teile jeweils 3 Jahre lang spielen.

Knuddelbearli
2012-03-30, 03:26:55
Bulldozer ist alles andere als Schwach solange er auch ordentlichen Code zu fressen bekommt.

Nicht umsonst steht er im Server ganz gut da. Und dort ist die Codeoptimierung auch noch nicht ideal.

sloth9
2012-03-30, 03:52:02
Bulldozer ist alles andere als Schwach solange er auch ordentlichen Code zu fressen bekommt.

Nicht umsonst steht er im Server ganz gut da. Und dort ist die Codeoptimierung auch noch nicht ideal.

Und je nach Code ist er manchmal taktbereinigt sogar langsamer als sein Vorgänger, von Intel, gerade auch was Verbrauch angeht, ganz zu schweigen.

Knuddelbearli
2012-03-30, 05:05:23
bei welchem code soll das bitte sein?

unterscheide bitte zwischen code und Programmen

=Floi=
2012-03-30, 06:35:05
Muss ja für neuere Revisionen nicht unbedingt gelten.

Kann ich deine Glaskugel haben?


:facepalm:

Knuddelbearli
2012-03-30, 06:56:52
du denkst also es ist wahrscheinlicher das sich in 3 Generationen keine Verbesserungen auftun ? wo zumindest trinity trotz fehlendem L3 schon bisschen zulegt? ^^

und bei Auslastung auf allen threads ist er knapp gleichauf mit dem I7 2600K und mit Code Optimierungen sind aufgrund von Intels Marktmacht bei AMD deutlich mehr zu holen. Dazu wird sich auch Sony schon was dabei gedacht haben ;-)

LadyWhirlwind
2012-03-30, 08:15:54
Ausserdem dürfte AMD schlicht und einfach billiger sein. Ich geh mal davon aus, dass AMD den Konsolenherstellern satte Preisnachlässe angeboten hat, wenn sie sowohl CPU als auch GPU von AMD verbauen. Bei AMD besteht auch immer die Möglichkeit einen Fusion-Chip zu verbauen. Das würde natürlich die Konsole nochmal billiger machen.

Knuddelbearli
2012-03-30, 08:56:38
nicht wirklich Intel kommt eher nicht in Frage da Intel wenn dann selbst Fertigen möchte. Das den Konsolenhersteller aber nicht in den Kram apsst, was verständlich ist bei der Xbox 1 endetet das ja vor dem Gericht mit Nvidia

Spasstiger
2012-03-30, 09:01:25
Dass Nvidia bei dieser Konsolenrunde möglicherweise leer ausgeht, liegt vielleicht auch an den Fertigungskapazitäten bei TSMC (28 nm). AMD kann die APUs in 32 nm bei GF ohne Engpässe fertigen lassen und mit einer APU hätte man die Baustellen CPU und GPU erschlagen.

Deinorius
2012-03-30, 09:09:07
Intel ist zu bestimmend. Mit denen kann man einen SoC so oder so vergessen. :rolleyes: Aber der Vorteil durch die bessere Fertigung wäre wahrlich nicht zu verachten.

Im Vergleich zu Intel schon.
Macht halt nur Sinn, wenn man einen SoC möchte. Und ob da ein Custom-SoC da günstiger als ein 08/15-PC-Design von der Stange...


Die einzige Konsole, die wirklich jemals 08/15-PC-Design bekam war die Xbox und selbst diese Hardware wurde IIRC nicht 1:1 übernommen. Wenn Sony auch noch eDRAM nehmen würde, wäre deine Theorie erst recht weg vom Tisch.

Schaut man sich die Entwicklung der Konsolen an, gibt es nur einen Trend: weg von Custom zu Standard.


Standard ist schon, wenn man die Grundlage einer PC-GPU hernimmt und für Konsole optimiert. Das wirklich essentielle bei der neuen Orientierung ist viel mehr, dass sich das Design der Konsolen unter den Herstellern nicht mehr zu stark für die Third-Party Spiele unterscheiden. Die Grundlage liegt im PC-Bereich, aber es wird dennoch optimiert, da man mind. 5 Jahre mit der Hardware auskommen muss. Da darf es leicht mehr kosten, sonst würde man überhaupt nicht subventionieren.

Die Stückkosten von x86 sind einfach nicht zu schlagen. Mit nem Custom-Design macht man sich das wieder kaputt.


Solange der Unterschied nicht zu groß ist, werden sie es wagen.

AMD kann die APUs in 32 nm bei GF ohne Engpässe fertigen lassen und mit einer APU hätte man die Baustellen CPU und GPU erschlagen.


Bis dahin wirds wohl schon eher 28 nm sein.

Knuddelbearli
2012-03-30, 09:12:57
die cpu udn gpu wird vermutlich wie bisher weder von gf noch von tsmc gefertigt

robbitop
2012-03-30, 09:30:01
Also erst mal Breitband != Breitband
und zweitens sind wir ziemlich entfernt von jeder hätte genug Anschluss für so etwas (damit meine ich nicht nur Bandbreite, sondern auch Stabilität, Traffic und Latenz), vor allem wen man ohne "Brics"staaten im Grunde nicht mehr auskommt und das dürfte bei der nächsten Konsolengeneration der Fall sein, es ist der einzige Wachstumsmarkt.
Für Aktivierung würde sogar ein analoges Modem reichen. ;)
Und wie gesagt - das funktioniert beim PC Geschäft super. Für die letzten Hinterweltler aus Ukkumukku (die sich einen HDTV und eine Xbox4 leisten können sollen - aber kein Internet haben? :|) - kann man sicher auch telefonisch aktivieren. (oder können die sich auch kein Telefon leisten?)


Zweitens, wen sie im Zuge dessen nicht massiv die Preise senken im kompletten Verwertungszyklus, wird das System gegen die Wand gefahren sein, noch bevor die Konsole break even erreicht hat (gehe davon aus, das die PS4 wie die Xbox 720 erneut subventioniert werden muss, zumindest am Anfang), den genau das ist es, warum es auf dem PC halbwegs funktioniert. Und mal ehrlich, Hand hoch, wer glaubt hier wirklich die würden die Preise senken?
Preise der Spiele oder Preise der Konsole? Preise der Spiele werden ja bezahlt. Sind offenbar OK. Höher werden die wohl nicht. DLCs sorgen für weiteres Geld. Wird offenbar auch bezahlt - also OK.

Konsolen. Die waren zu teuer. Break even kam zu spät. Was meinst du, warum die nächsten Konsolen vermutlich einen SoC drin haben werden statt dedizierte GPU + CPU? Die wollen die Herstellungspreis so senken, dass Subvention entweder gar nicht mehr oder in geringerem Ausmaße nötig sein wird.

AMD-CPU, Bulldozer-basierend=relativ schwach.


Wenn's tatsächlich nen SoC wird, wird auch die GPU max. Mittelklasse sein.
Scheinbar haben die hohen Anfangsverluste der aktuellen Generation dazu geführt, das man nicht nur sturzlangweilige reine PC-08/15-Hardware verbaut (nix Eigenentwicklung, nix Xenos, nix Cell), sondern auch die billigstmögliche.
Ein Kaveri-SoC würde auch Rambus und Co. ausschließen.

Würde man Leistung wollen, würde man eine Intel-CPU mit einem diskreten Grafikchip nach Wahl nehmen. Problem: Intel würde die ja CPU selbst herstellen, und ob dann später eine SoC-Variante (wie sie ja bei X360 u. PS3 erschien) möglich wäre...

Immer diese PC-Relationen...Ein PC ist für Konsolen uneinholbar. Deal with it. Das ist kein Vergleich.
Wenn man sich jetzt CPUs ansieht, die nicht nur von Intel und AMD ansieht, sondern die Gesamtmasse. Dann ist ein Bulldozer eine Rakete.
Schau dir mal die In Order Krücken in der X360 und der PS3 an. Die waren schon zum Launch lahme Krücken. Dagegen ist jede OoO CPU seit einem Jahrzehnt taktbereinigt im PC besser.

Bulldozer hat relativ hohen Takt und viele Kerne. Bei Konsolen kann man auf viele Kerne optimieren und auch für AVX nutzen. Was das bringt, sieht man bei Linuxbenches. Ein Bulldozer Kern anstatt eines POWER Kerns kann für eine Konsole schon recht gut sein.

Und nur "taktbereinigt" interessiert halt nicht. BD ist so ausgelegt, dass er etwas höher taktbar ist als der K10. Das fliest natürlich mit in die Leistung. Auch ist er so designt, dass er keine Singlethread IPC Kanone ist. Aber wenn man ihn parallelisiert gut ausnutzen kann, ist die Leistung ok. Für eine Konsole sogar mehr als OK.

sloth9
2012-03-30, 13:21:14
bei welchem code soll das bitte sein?

unterscheide bitte zwischen code und Programmen

Code, der z.B. die Kerne für den Bulldozer ungünstig auslastet.

Ausserdem dürfte AMD schlicht und einfach billiger sein. Ich geh mal davon aus, dass AMD den Konsolenherstellern satte Preisnachlässe angeboten hat, wenn sie sowohl CPU als auch GPU von AMD verbauen. Bei AMD besteht auch immer die Möglichkeit einen Fusion-Chip zu verbauen. Das würde natürlich die Konsole nochmal billiger machen.

Genau mein reden. Hauptsache billig. Das ein Sandy Bridge (nur die CPU!) schneller und sparsamer wäre, will doch wohl keiner in Frage stellen?

mrt
2012-03-30, 13:36:41
Code, der z.B. die Kerne für den Bulldozer ungünstig auslastet.

Am Desktop geb ich dir ja Recht, aber wir reden von einer Konsole, da wird genau das nicht passieren. BD ist bereits jetzt mit optimierten Code schnell und die kommenden Revisionen werden wohl kaum langsamer... :rolleyes:

dargo
2012-03-30, 14:24:15
BD ist so ausgelegt, dass er etwas höher taktbar ist als der K10. Das fliest natürlich mit in die Leistung. Auch ist er so designt, dass er keine Singlethread IPC Kanone ist. Aber wenn man ihn parallelisiert gut ausnutzen kann, ist die Leistung ok. Für eine Konsole sogar mehr als OK.
Da wäre ich mir nicht so sicher. Gerade bei Spielen, ergo Konsole wäre Singlethread IPC ziemlich wichtig. Spiele lassen sich nicht unendlich multithreaden. Beim Quadcore wird das sicherlich nicht das Problem sein aber wie wird das bsw. mit 8 Cores aussehen? Zudem hat BD eine recht hohe TDP, nicht gerade vorteilhaft für eine Konsole.

Knuddelbearli
2012-03-30, 14:27:56
sofern die xbox ähnlich viele kerne bekommt sind auch 10 stück kein Problem.
Erst jenseits der 20 wirds langsam eng. Aber mit besserer KI und Physik sollte selbst das dann gehen.

dargo
2012-03-30, 14:30:38
sofern die xbox ähnlich viele kerne bekommt sind auch 10 stück kein Problem.
Erst jenseits der 20 wirds langsam eng.
Dazu hätte ich gerne ein paar handfeste Beweise, erzählen kann man viel. ;)

mrt
2012-03-30, 14:40:32
Hängt auch vom Spieledesign ab, der typische Shooter aus den 90igern wird sich kaum parallelisieren lassen.
Ansonsten gibt es fast immer (das gilt nicht nur für Spiele) die Möglichkeit auf andere Algorithmen auszuweichen die gut parallelisierbar sind, aber unter Umständen eine höhere Komplexität (im Sinne des Rechenaufwands) aufweisen. Mit beiden Punkten kannst auch 32 Kerne auslasten, ein Dualcore kann man dann aber knicken (=unpraktikabel am PC).

Knuddelbearli
2012-03-30, 15:01:40
Natürlich müssen die Programmieren dann auch bisschen mitdenken. Bei ner Konsole ist das aber kaum ein Problem. Zumindest solange beide ähnlich viele Kerne haben. Viel geht auch über nen ordentlichen Compiler aber da haben sich ja bisher angeblich weder Sony noch MS mit Ruhm bekleckert ..

sloth9
2012-03-30, 15:03:55
Natürlich müssen die Programmieren dann auch bisschen mitdenken. Bei ner Konsole ist das aber kaum ein Problem. Zumindest solange beide ähnlich viele Kerne haben. Viel geht auch über nen ordentlichen Compiler aber da haben sich ja bisher angeblich weder Sony noch MS mit Ruhm bekleckert ..

Ein bissken Mitdenken? MS keine ordentlichen Compiler? Nen doch mal bessere, abgesehen von Intel? Klingt grad imho sehr nach Halbwissen...

Iruwen
2012-03-30, 15:19:34
An "echtes" Multithreading in Spielen das über beliebig viele Kerne skaliert traut sich doch bis heute keiner richtig ran. Mehr als vielleicht sechs Kerne seh ich da auch zukünftig nicht, außer bei einer massenweise lizensierten Standardengine vielleicht. Da stehen Kosten und Nutzen bei der pro Kern Leistung die aktuell zur Verfügung steht in keinem Verhältnis um den Aufwand zu rechtfertigen.

Knuddelbearli
2012-03-30, 15:47:43
sloth ich meinte mit MS den XBox Compiler nicht den PC Compiler ^^

Coda
2012-03-30, 15:51:43
Natürlich müssen die Programmieren dann auch bisschen mitdenken. Bei ner Konsole ist das aber kaum ein Problem. Zumindest solange beide ähnlich viele Kerne haben. Viel geht auch über nen ordentlichen Compiler aber da haben sich ja bisher angeblich weder Sony noch MS mit Ruhm bekleckert ..
Der VC++ 11 Compiler hat hervorragende statische Analyse und Autovektorisierung. Ich wäre nicht überrascht, wenn der fast mit Intel C++ mithalten könnte.

robbitop
2012-03-30, 15:55:25
Da wäre ich mir nicht so sicher. Gerade bei Spielen, ergo Konsole wäre Singlethread IPC ziemlich wichtig. Spiele lassen sich nicht unendlich multithreaden. Beim Quadcore wird das sicherlich nicht das Problem sein aber wie wird das bsw. mit 8 Cores aussehen? Zudem hat BD eine recht hohe TDP, nicht gerade vorteilhaft für eine Konsole.
Vorsicht. Schau dir bitte die PS3 mit ihrem Cell in Verbindung mit aktuellen Exklusivtiteln an. Natürlich lässt sich nichts beliebig parallelisieren. Aber der Cell hat nur 1x General Purpose In Order Kern. Eine absolute Krücke, die mit generellem Code ca. Athlon 1 @1 GHz Geschwindigkeit erreicht.
Dank hohem Optimierungsgrad und der (wahrscheinlich übelst schwierig auszunutzenden) SPEs werden aber ganz andere Ergebnisse erzielt, als ein Athlon mit 1 GHz es jemals zu leisten vermochte.

Ich gehe ehrlich gesagt von 2 Modulen / 4 Cores aus.

Was die TDP angeht wäre ich ebenfalls vorsichtig. Wir kennen bisher nur die auf Krampf auf Takt hochgeprügelten Serverprozessoren (mit viel Kram, den sie im Desktop nicht brauchen) in einem unreifen 32 nm Prozess.
Piledriver zeigt, wohin die Reise gehen kann. Sicher nicht auf Intel Niveau - aber für Konsolen von Seiten der CPU auf kein schlechtes...

Knuddelbearli
2012-03-30, 15:59:01
2/4? das wäre ja ( auch wenn die Architektur eine komplett andere ist ) ein Rückschritt gegenüber der PS3. und erst recht gegen die 3+HT von der Xbox

Deinorius
2012-03-30, 16:05:08
Da wäre ich mir nicht so sicher. Gerade bei Spielen, ergo Konsole wäre Singlethread IPC ziemlich wichtig. Spiele lassen sich nicht unendlich multithreaden. Beim Quadcore wird das sicherlich nicht das Problem sein aber wie wird das bsw. mit 8 Cores aussehen? Zudem hat BD eine recht hohe TDP, nicht gerade vorteilhaft für eine Konsole.


Wen interessiert hier bitte in einem Konsolen-Thread die TDP vom Bulldozer? :P
Erstens wird wohl weniger der Bulldozer an sich als IP verbaut, genau der Bulldozer, wie er für den Desktop-Markt zu kaufen ist (mit L3-Cache) schon mal gar nicht! Da über die TDP zu sprechen ist lachhaft.
Die PS4 kommt frühestens Ende 2013 raus, da reden wir mind. von der Trinity CPU oder schon eher vom Nachfolger. Trinity für den Desktop kommt immerhin schon dieses Jahr raus.

Ja, Spiele lassen sich nicht unendlich multithreaden, aber 4 Threads sollten heute doch wohl keine großen Probleme mehr darstellen, oder? Bei der deutlich höheren IPC im Gegensatz zur IPC der jetzigen Konsolen, sind 4 Threads geradezu ein Traum. Die Xbox 360 bietet 6 Threads. Mehr als 2 Module dürften bei der IPC und dem jetzigen Wissensstand IMO wenig Sinn machen.

Edit: 2 Bulldozer Module brauchen selber nur etwas über 60 mm². Der Xenon hat nach dem ersten Shrink immer noch 135 mm² gebraucht. Optimierung, ausreichend Takt und vielleicht 28 nm Fertigung sollten wohl genug Leistung und wenig Stromverbrauch liefern für die PS4. Klingt alles ganz gut.

Tesseract
2012-03-30, 16:09:37
An "echtes" Multithreading in Spielen das über beliebig viele Kerne skaliert traut sich doch bis heute keiner richtig ran.

das hat wenig mit "trauen" zu tun sondern eher damit, dass es oft einfach sinnlos ist.
threading erzeugt einen nicht kleinen organisations-overhead. damit eine tätigkeit auf 2 cores schneller ist als auf einem muss diese erst mal signifikante last erzeugen um überhaupt mal den mehraufwand durchs threading (inkl. synchonisation, datenkonsistenz usw.) auszugleichen. das geht in vielen fällen aber nicht bzw. da wo es geht handelt es sich meist sowieso um aufgaben für GPGPU.

Ja, Spiele lassen sich nicht unendlich multithreaden, aber 4 Threads sollten heute doch wohl keine großen Probleme mehr darstellen, oder?

hängt davon ab was du mit "4 threads" meinst. alle cores zu 100% auslasten ist überhaupt kein problem. die frage ist wieviel tatsächliche arbeit (also exkl. overhead) man damit verrichtet - und wenn das auf 4 cores @ 100% kaum mehr als auf einem singlecore ohne threading ist, ist das ganze gerade für eine konsole ziemlich sinnlos.

Deinorius
2012-03-30, 16:24:11
Hängt einfach davon ab, was für die Konsole sinnvoller ist. Wie weit konnte man die 6 Threads der Xbox 360 ausreizen? Es ist ja noch nichtmal sicher, ob es wirklich eine x86 CPU wird. Wenn ja, dann Bulldozer (bzw. Trinity oder Nachfolger) und dann stehen eh nur 1 oder 2 Module, also 2 oder 4 Threads, als Möglichkeit da.

sloth9
2012-03-30, 16:45:54
2/4? das wäre ja ( auch wenn die Architektur eine komplett andere ist ) ein Rückschritt gegenüber der PS3. und erst recht gegen die 3+HT von der Xbox

Wo wäre denn da der Rückschritt? Wird hier immer noch der Cell so positiv betrachtet, obwohl er hochkant für die PS4 rausgeflogen ist? Je mehr Kern(chen) desto besser gilt nicht.

looking glass
2012-03-30, 17:24:12
und ich glaube das du sowas von falsch liegst.
der anteil der käufer die sich durch fehlende abwärtskompatibilität vom konsolenkauf abhalten lassen würden liegt wahrscheinlich im promillebereich.
man sieht ja jetzt schon wieviele bereit sind wucherpreise für sogenannte HD collections auszugeben. da werden MS und Sony einen teufel tun und sich das geschäfft mit abwärtskompatibilität abzuwürgen.

Ich habe schon geschrieben, das Abwärtskompatibilität für mich nicht zwangsläufig die Nutzung der alten Medien bedeutet, sondern durchaus auch der App Store gemeint ist. Diese HD Collections sind bei SD Titeln (also PAL/NTSC) ja auch gar nicht verkehrt, allerdings bezweifle ich, das diese für Titel neueren Datums nötig wären, oder überhaupt Aufwand bedeuteten (auf 1080p sollten die sich alle per INI bringen lassen und besser aufgelöste Texturen sind eh schon vorhanden und müssten nur in ein neuen Release geschnürt werden).

Du nimmst die Abwärtskompatibilität IMO zu wichtig. Emulation dürftest du meiner bescheidenen und laienhaften Meinung nach selbst mit einem Intel Xeon Hexa-Core der neuesten Generation nicht mal ansatzweise hinkriegen. Andere ISA und darüber hinaus hatte der Cell 7 aktive SPEs, deren Emulation das Ganze so stark verkompliziert.
Das Problem einer Erweiterungskarte ist grundlegend einmal, wer diese produzieren soll. Da wir anderen eher annehmen, dass der Anteil derjenigen, die so viel auf Abwärtskompatibilität geben, zu gering ist, kaum einer so eine Erweiterungskarte herstellen würde. Und wenn der Markt wirklich soweit groß wäre, dass sich sowas lohnen würde, mal angenommen, das wäre technisch sinnvoll, dann würden es die Konsolen-Hersteller anbeiten.

Ganz im Gegenteil, Du, vor dir Drill und sicherlich viele andere hier, unterschätzen diesen Bereich des "Nostalgiegamings" über alle Maßen. Es mag kein AAA Bereich sein, aber ein Umsatzbringer den man nicht unterschätzen sollte. Vor allem aber ist es der Bereich, der am weitesten trägt und Zauderer anlockt (im Sinne von, warum sollte ich für EIN Spiel was mich interessiert, eine neue Konsole kaufen, ach guck mal, da gibt es ja auch...; oder auch Mama/Papa die ollen Altdaddler überzeugen eine Konsole für klein Timi zu kaufen).

Btw. lesen, bitte, ich habe ganz klar gemacht, das ich nicht von einer reinen Emulation ausging, das diese nicht drin ist, ist auch mir klar.

Für Aktivierung würde sogar ein analoges Modem reichen. ;)
Und wie gesagt - das funktioniert beim PC Geschäft super. Für die letzten Hinterweltler aus Ukkumukku (die sich einen HDTV und eine Xbox4 leisten können sollen - aber kein Internet haben? :|) - kann man sicher auch telefonisch aktivieren. (oder können die sich auch kein Telefon leisten?)

Ja nee und patchen braucht man nicht, oder eine neue Firmware? Hand hoch wer hier glaubt, es würde mit Onlineaktivierung nicht auch der ZeroDay Patch für Konsolen kommen (zumal das ein schon benutzes Schwarzkopieabsicherungssystem sein kann, wen da Daten auf der disk fehlen, gell)?



Preise der Spiele oder Preise der Konsole? Preise der Spiele werden ja bezahlt. Sind offenbar OK. Höher werden die wohl nicht. DLCs sorgen für weiteres Geld. Wird offenbar auch bezahlt - also OK.

Konsolen. Die waren zu teuer. Break even kam zu spät. Was meinst du, warum die nächsten Konsolen vermutlich einen SoC drin haben werden statt dedizierte GPU + CPU? Die wollen die Herstellungspreis so senken, dass Subvention entweder gar nicht mehr oder in geringerem Ausmaße nötig sein wird.

Preise der Spiele, wer mit solchen Systemen kommt, um den Gebrauchtmarkt zu ficken, muss lieb sein und das bedeutet er muss in allen Verwertungsbereichen mit dem Preis runter (und auch schneller mit mid und budgets antanzen), andernfalls sehe ich nicht, was für eine Konsole sprechen sollte, bis auf Big N hat niemand mehr ein exklusives Lineup zu bieten, das eine Konsole verkaufen könnte.

Blediator16
2012-03-30, 17:47:15
Ganz im Gegenteil, Du, vor dir Drill und sicherlich viele andere hier, unterschätzen diesen Bereich des "Nostalgiegamings" über alle Maßen. Es mag kein AAA Bereich sein, aber ein Umsatzbringer den man nicht unterschätzen sollte. Vor allem aber ist es der Bereich, der am weitesten trägt und Zauderer anlockt (im Sinne von, warum sollte ich für EIN Spiel was mich interessiert, eine neue Konsole kaufen, ach guck mal, da gibt es ja auch...; oder auch Mama/Papa die ollen Altdaddler überzeugen eine Konsole für klein Timi zu kaufen).


Vielleicht wird das in Zukunft durch einen Onlivemäßigen Dienst ersetzt. Wer PSX oder PS3 Spiele spielen will, wird sich diese streamen lassen können.

dargo
2012-03-30, 17:47:56
Erstens wird wohl weniger der Bulldozer an sich als IP verbaut, genau der Bulldozer, wie er für den Desktop-Markt zu kaufen ist (mit L3-Cache) schon mal gar nicht!
Ist es sinnvoll den L3 komplett wegzulassen? Ich weiß nicht wie das beim BD ist aber beim Phenom 2 hat das Weglassen vom L3 @Athlon 2 schon einiges an Leistung gekostet.

30@Frames
2012-03-30, 17:48:24
Es ist also gesichert, dass alle Konsolen auf AMD setzen? Also GPUseitig. Mein eigentliche letzter Gedanke ist, könnte AMD die Situation nicht ausnutzen und irgendwas in der Art wie PhysX oder whatever versuchen den Konsolenhersteller günstig anzudrehen, die dann auch nur auf AMD Karte zufriedenstellend (später dann auch Desktop AMD GPUs) funkt. Dies wäre wie ich finde ein WIN-WIN Situation für AMD und zumindest ein Gedanke den ich hätte. Vielleicht war der auch blöd. :tongue:

looking glass
2012-03-30, 18:29:50
Vielleicht wird das in Zukunft durch einen Onlivemäßigen Dienst ersetzt. Wer PSX oder PS3 Spiele spielen will, wird sich diese streamen lassen können.

Thema hatten wir schon einige male hier, für diese Generation jedenfalls keine Option bei reaktionsstarken Spielen, ganz einfach weil der sich aufaddierende Lag so groß ist, das damit jedwedes Actiongame zu einem Frusterlebnis wird.

Gipsel
2012-03-30, 19:11:38
Ich denke, ein komplettes Spezial-Neu-Design könnte AMD momentan gar nicht stemmen, also wird es ein stinknormaler Kaveri sein.
Bedeutet z.B., das nur ein Speicher-Controller den gesamten SoC versorgen muss. Oder glaubt jemand an ein 600mm²-Monster?Glaubst Du, dies wird ein stinknormales 128Bit DDR3-Interface sein?
Es ist für AMD ein Leichtes, bei den angepeilten Stückzahlen auf Wunsch des Kunden alles zusammenzumixen, was sie da im "Konzernregal" haben und auch noch extra was dafür zu entwickeln.
AMD bastelt seit einiger Zeit alle ihre Chips mit in einer Art Baukastensystem zusammen. Die Schnittstellen zwischen den einzelnen Komponenten sind sozusagen genormt und können bei Bedarf einfacher gegeneinander ausgetauscht werden. So wird eine SoC-Lösung für eine Konsole bestimmt keinen steckbaren RAM haben sondern das direkt auf dem Board verlötet. Das Speicherinterface wird eher so wie auf GPUs aussehen, nicht wie bei CPUs. Sprich, die werden da eine gegenüber Kaveri modifizierte "Northbridge" zwischen den CPU- und GPU-Teil kleben, an dem dann mehr oder weniger das Speicherinterface der diskreten GPUs hängt (was also eine deutlich höhere Speicherbandbreite als bei den PC-APUs ermöglicht, so daß der gemeinsame Speicher eher von Vorteil ist als ein Nachteil) oder im Zweifelsfall auch ein extra entwickeltes XDR2-Interface (eine physische Implementation ist laut Pressemeldung bereits im IBM/GF-Prozeß getestet worden, stünde also im Prinzip zur Verfügung), falls man sich dafür entscheiden würde.

Ich würde beinahe jede Wette eingehen, daß AMD für Sony auch ohne großes Nachdenken die Erfüllung spezifischer Wünsche (spezialisierte Encoder/Decoder, Verschlüsselung für Irgendwas) oder im Zweifelsfall auch was ganz Abstruses wie z.B. einen integrierten ARM-Kern auf dem SoC zusichern würde, falls Sony das verlangt.

Deinorius
2012-03-30, 19:25:25
Ich habe schon geschrieben, das Abwärtskompatibilität für mich nicht zwangsläufig die Nutzung der alten Medien bedeutet, sondern durchaus auch der App Store gemeint ist. Diese HD Collections sind bei SD Titeln (also PAL/NTSC) ja auch gar nicht verkehrt, allerdings bezweifle ich, das diese für Titel neueren Datums nötig wären, oder überhaupt Aufwand bedeuteten (auf 1080p sollten die sich alle per INI bringen lassen und besser aufgelöste Texturen sind eh schon vorhanden und müssten nur in ein neuen Release geschnürt werden).


Das ist keine Abwärtskompatibilität! Die HD Collections wurden an die PS3 angepasst. Ich verstehe jetzt nur nicht, wie du auf geringen Aufwand kommst. Der Aufwand, ein älteres Spiel für eine neuere Konsole anzupassen, mag gerade im Vergleich zu einer vollständigen Entwicklung kein allzu großer Aufwand sein, aber man muss sich immerhin sicher sein, dass das Spiel auch gekauft wird. Ergo gilt das nur für erfolgreiche/populäre Spiele.
Und ich weiß jetzt auch nicht, was du vom App Store willst? Entweder werden die Spiele emuliert, oder an die Konsole angepasst. Da macht es doch keinen Unterschied, ob die Spiele auf einer DVD oder online vorliegen. :|

Ganz im Gegenteil, Du, vor dir Drill und sicherlich viele andere hier, unterschätzen diesen Bereich des "Nostalgiegamings" über alle Maßen. Es mag kein AAA Bereich sein, aber ein Umsatzbringer den man nicht unterschätzen sollte. Vor allem aber ist es der Bereich, der am weitesten trägt und Zauderer anlockt (im Sinne von, warum sollte ich für EIN Spiel was mich interessiert, eine neue Konsole kaufen, ach guck mal, da gibt es ja auch...; oder auch Mama/Papa die ollen Altdaddler überzeugen eine Konsole für klein Timi zu kaufen).


Dein Beispiel spricht eher gegen dich. Wieso sollte man sich wegen alter Spiele überhaupt eine neue Konsole kaufen, wenn diese auch auf der alten laufen? Wenn man sich eine neue Konsole wegen den neuen Spielen kaufen will, dann wird diese doch sowieso gekauft. Dein Argument gilt insofern, dass die Abwärtskompatibilität ein toller Bonus ist, keine Frage. Gilt für mich genauso, aber die Abwärtskompatibilität ist kein kaufentscheidendes Argument.
Entweder bietet die neue Konsole Spiele, welche für diese entwickelt wurden und deren Vorzüge ausreizen, oder man bleibt bei der alten und kann die Spiele auf dieser ohne Probleme weiter spielen.
Würde die neuere Konsole die alten Spiele besser darstellen? Könnte bei der Xbox Next vielleicht sogar geschehen, aber wir reden hier ja von der PS4.
Dein Beispiel mit Mama/Papa ist sogar besonders unlogisch. Altdaddler? Das gilt dann sicher nicht für die Spiele der vorigen Generation. Möglicherweise kann die PS4 eher PS2 Spiele emulieren. Leistung müsste die genug haben. Aber bei dieser Diskussion ging es doch darum, ob die PS4 PS2-Spiele rendern kann.

Btw. lesen, bitte, ich habe ganz klar gemacht, das ich nicht von einer reinen Emulation ausging, das diese nicht drin ist, ist auch mir klar.


Da es derzeit um die PS4 geht, geht es hier nur um die Emulation. Bei der Xbox Next können wir weiterreden, aber bei der PS4 bedeutet Abwärtskompatibiliät nur Emulation oder PS3-Hardware mit einbauen. Für ersteres reicht die Leistung hinten und vorne nicht aus und letzteres ist zu teuer. Abwärtskompatibilität ist nichts anderes.

Ja nee und patchen braucht man nicht, oder eine neue Firmware? Hand hoch wer hier glaubt, es würde mit Onlineaktivierung nicht auch der ZeroDay Patch für Konsolen kommen (zumal das ein schon benutzes Schwarzkopieabsicherungssystem sein kann, wen da Daten auf der disk fehlen, gell)?


Und was hat das jetzt mit der Online-Aktivierung zu tun? Diese Situation haben wir doch jetzt schon. Wer eine PS3 und Xbox 360 hat und kein gescheites Internet, steht auch schlechter da. Ist beim PC auch nicht anders.
Gibts da denn nicht die Möglichkeit, z.B. die Firmware über eine CD/DVD zu aktualisieren?

Ist es sinnvoll den L3 komplett wegzulassen? Ich weiß nicht wie das beim BD ist aber beim Phenom 2 hat das Weglassen vom L3 @Athlon 2 schon einiges an Leistung gekostet.


Das wird sich bei Trinity zeigen. Das bisschen Leistungsverlust dürfte aber geringer sein als die höheren Kosten für den größeren Platzbedarf der vielen zusätzlichen Transistoren. Ich denke da jetzt gerade an den Bulldozer und wieviel DIE-Fläche dieser selbst ohne Module, L3-Cache und MMC benötigt.

Es ist also gesichert, dass alle Konsolen auf AMD setzen? Also GPUseitig.


Sicher im Sinne von schwarz auf weiß ist doch im Grunde gar nix. Bei der Wii U sind die Hersteller sicher genug, M$ hat keinen Grund zu wechseln und bei Sony gehen die Gerüchte alle in dieselbe Richtung. Es ist naheliegender.

Mein eigentliche letzter Gedanke ist, könnte AMD die Situation nicht ausnutzen und irgendwas in der Art wie PhysX oder whatever versuchen den Konsolenhersteller günstig anzudrehen, die dann auch nur auf AMD Karte zufriedenstellend (später dann auch Desktop AMD GPUs) funkt. Dies wäre wie ich finde ein WIN-WIN Situation für AMD und zumindest ein Gedanke den ich hätte. Vielleicht war der auch blöd. :tongue:


Wenn ich mich nicht irre, hat AMD in der Hinsicht nix wirklich mitzureden. Wenn die eine Physik-API anbieten, die auf deren Hardware besonders gut läuft, können sich die Entwickler entweder dafür oder dagegen entscheiden. Einen direkten Einfluss hätte AMD nur dann, wenn sie die Entwickler direkt beeinflussen... oder überreden. ;)

looking glass
2012-03-30, 21:48:53
Es gibt verschiedene Arten etwas altes auf etwas neues laufen zu lassen, das ist doch nun wirklich nicht so schwer zu kapieren. Der Anreiz für Abwärtskompatibilität sinkt, wen man dadurch nur erreicht, das die alten Spiele, die schon im Besitz des Käufers sind, auf der neuen Konsole laufen. Deshalb schliesse ich den App Store ein, den darüber können die alten Teile erneut verkauft werden, über eine Emulösung ist dies einfacher und kostengünstiger, als jedes einzelne Spiel anzupassen (DAS wiederum war der Gedankengang bei PS3 auf PS4 von mir, nämlich eine Chimärenlösung von Compilertechnik (der für den neuen Unterbau übersetzt) + Einbau gewisser Emulationselemente, sodass die Leistung reicht und man nur minimale Anpassungen vornehmen müsste, was die Kosten senkt) - ist das jetzt echte Abwärtskompatibilität, nöö, bekomme ich ein passendes Ergebnis, ja.

Zum anderen, es stehen dann wie viele Geräte herum? Wie lange halten Geräte noch mal, wie lange bekomme ich dafür Zeugs wie Original Controller usw? Mal davon ab, das wir nun ein Anschlußwechsel vollzogen haben, weg von Scart, hin zu HDMI (von S-video und Co. will ich gar nicht anfangen). Selbst Du solltest da irgendwo einen Vorteil oder Grund erkennen.

Und natürlich haben Leute die, z.B. auf PS2 aufgehört haben und mit der PS4 wieder einsteigen könnten, überhaupt keine Gründe sich PS3 Sachen anzusehen, gibt ja überhaupt keine weitergeführten Serien, keine im Hinterkopf gebliebene Titel die man schon immer mal... oder ähnliches - entschuldige, aber es gibt nun wirklich genug offensichtlich dafür sprechendes.

Sven77
2012-03-30, 21:53:08
Abwärtskomptibilität war bei Konsolen noch nie wichtig, wird sie nie sein.. da kann sich looking glass die Finger wund schreiben

looking glass
2012-03-30, 22:24:01
Wir werden sehen, meine Voraussage, wen Sony einzig und allein auf PS4 Spiele setzt, ohne ein Altspielportfolio anbieten zu können (vor allem in der sauren Gurkenzeit nach Konsolenstart), werden sie mit ihrer Konsole unter gehen, den das wird sie im Markt weit, weit zurück werfen, wovon sie sich nicht erholen werden.

Deinorius
2012-03-30, 22:58:16
Es gibt verschiedene Arten etwas altes auf etwas neues laufen zu lassen, das ist doch nun wirklich nicht so schwer zu kapieren.


Tjo und ich habe die zwei Varianten für Abwärtskompatbilität genannt. Wenn du eine andere Definition hast, bitte. Aber die HD Collections haben nichts mit Abwärtskompatibilität zu tun.

Der Anreiz für Abwärtskompatibilität sinkt, wen man dadurch nur erreicht, das die alten Spiele, die schon im Besitz des Käufers sind, auf der neuen Konsole laufen. Deshalb schliesse ich den App Store ein, den darüber können die alten Teile erneut verkauft werden, über eine Emulösung ist dies einfacher und kostengünstiger, als jedes einzelne Spiel anzupassen


Ich schließe daraus, dass du meinen Text nicht richtig gelesen hast. Es ist völlig egal, wo man sich die alten Spiele holt. Es macht von der Abwärtskompatibilität keinen Unterschied, ob du ein altes Spiel von früher hast, auf DVD/BD hast oder digital besitzt.
Das Einzige, was mir jetzt einfällt, wo es ein Problem geben könnte, wäre der Kopierschutz der Hardware, gilt dann aber nur für die alten Version auf DVD/BD.

(DAS wiederum war der Gedankengang bei PS3 auf PS4 von mir, nämlich eine Chimärenlösung von Compilertechnik (der für den neuen Unterbau übersetzt) + Einbau gewisser Emulationselemente, sodass die Leistung reicht und man nur minimale Anpassungen vornehmen müsste, was die Kosten senkt) - ist das jetzt echte Abwärtskompatibilität, nöö, bekomme ich ein passendes Ergebnis, ja.


Und sowas ähnliches hab ich schon damit erwähnt, indem man Teile der PS3-Hardware mit einbaut, wie man es damals bei der PS3 mit PS2-Hardware gemacht hatte.
Kannst sowieso vergessen. Dafür muss man den Cell einbauen und wie schon oft genug erwähnt, kommt der nicht rein. Akzeptier das! Sonst hast nie genug Leistung.

Zum anderen, es stehen dann wie viele Geräte herum? Wie lange halten Geräte noch mal, wie lange bekomme ich dafür Zeugs wie Original Controller usw? Mal davon ab, das wir nun ein Anschlußwechsel vollzogen haben, weg von Scart, hin zu HDMI (von S-video und Co. will ich gar nicht anfangen). Selbst Du solltest da irgendwo einen Vorteil oder Grund erkennen.


Ja, du hast meinen Text entweder nicht gelesen, oder nicht verstanden.

Dein Argument gilt insofern, dass die Abwärtskompatibilität ein toller Bonus ist, keine Frage. Gilt für mich genauso, [...]


Damit das richtig funktioniert, müssen die Hersteller zumindest bei der gleichen ISA bleiben. M$ ist das sogar ein richtiger Vorreiter. Nintendo kann sich das noch leisten, da die Wii leichter emulierbar ist. Nur Sony ist hier noch der schwarze Peter, aber das kann man halt nicht ändern, wenn man (im Nachhinein sagt sich das so leicht) so blöd ist und einen Cell-Chip in eine Konsole einbaut.

Und natürlich haben Leute die, z.B. auf PS2 aufgehört haben und mit der PS4 wieder einsteigen könnten, überhaupt keine Gründe sich PS3 Sachen anzusehen, gibt ja überhaupt keine weitergeführten Serien, keine im Hinterkopf gebliebene Titel die man schon immer mal... oder ähnliches - entschuldige, aber es gibt nun wirklich genug offensichtlich dafür sprechendes.


Natürlich, du hast damit sowieso recht. Aber ohne Cell oder ohne Anpassung für jedes Spiel (wie bei den HD Collections) kannst du es vergessen. Und nur das gilt. Punkt.
Geh zu M$ oder Nintendo, da wirst glücklicher. Aber motz hier nicht rum, wenn es sich nicht ändern lässt (besonders, wenn man auch sagt, dass ein hoher Preis eine Konsole verdammt).

sloth9
2012-03-30, 23:25:37
Wir werden sehen, meine Voraussage, wen Sony einzig und allein auf PS4 Spiele setzt, ohne ein Altspielportfolio anbieten zu können (vor allem in der sauren Gurkenzeit nach Konsolenstart), werden sie mit ihrer Konsole unter gehen, den das wird sie im Markt weit, weit zurück werfen, wovon sie sich nicht erholen werden.

Halte dagegen.

looking glass
2012-03-30, 23:26:38
Und ich habe nie die HD Collections mit Abwärtskompatibilität in Verbindung gebracht, k.A. was Du mir da andichten willst.

Btw. Du verstehst mich immer noch nicht, grob gesagt PS3 Spiel Sourcecode über neuen Compilerlauf fit gemacht für PS4 Hardware (also komplett neue Binaries), da das so einfach nicht sein kann gibt es Softwarehilfestellung an der Front die nicht einfach zu "übersetzen" ist, um die händigen Anpassungen am Code auf ein Minimum zu bringen, nichts mit PS3 Hardware. Das war mein Ansatzpunkt, k.A. ob so etwas überhaupt schon mal in so einer Größenordnung versucht wurde, zumal das ja noch zeitkritische Anwendungen sind die ziemlich auf Hardware optimiert wurden, könnte sich auch als unmöglich heraus stellen.

sloth9
2012-03-30, 23:34:38
Und ich habe nie die HD Collections mit Abwärtskompatibilität in Verbindung gebracht, k.A. was Du mir da andichten willst.

Btw. Du verstehst mich immer noch nicht, grob gesagt PS3 Spiel Sourcecode über neuen Compilerlauf fit gemacht für PS4 Hardware (also komplett neue Binaries), da das so einfach nicht sein kann gibt es Softwarehilfestellung an der Front die nicht einfach zu "übersetzen" ist, um die händigen Anpassungen am Code auf ein Minimum zu bringen, nichts mit PS3 Hardware. Das war mein Ansatzpunkt, k.A. ob so etwas überhaupt schon mal in so einer Größenordnung versucht wurde, zumal das ja noch zeitkritische Anwendungen sind die ziemlich auf Hardware optimiert wurden, könnte sich auch als unmöglich heraus stellen.

Nennt sich HD-Remake. Bissken mehr als "Neukompilieren" dürfte es schon sein.
Hat natürlich nichts mit "Abwärtskompatibilität" zu tun. Der Begriff wird mir hier zu sehr verwässert.
Sprich, wenn ein Programm ohne jegliche Anpassung auf einem neuen OS läuft, ist das neue OS (für dieses Programm) abwärtskompatibel. Bei Closed-Source-Software sehr wichtig, da man nicht einfach notwendige Anpassungen vornehmen kann. Eine Stärke von Windows.

Deinorius
2012-03-31, 01:06:20
Nennt sich HD-Remake. Bissken mehr als "Neukompilieren" dürfte es schon sein.
Hat natürlich nichts mit "Abwärtskompatibilität" zu tun. Der Begriff wird mir hier zu sehr verwässert.


This! This! This! Danke!

robbitop
2012-03-31, 08:45:56
2/4? das wäre ja ( auch wenn die Architektur eine komplett andere ist ) ein Rückschritt gegenüber der PS3. und erst recht gegen die 3+HT von der Xbox
Mehr als 4 Kerne sind sowieso sehr schwer auszuschöpfen. Bei der PS3 haben die SPEs ziemlich viele Aufgaben für den schlappen RSX gemacht (Beleuchtung für defered Shading, Backface culling etc). Cell hat man nie ausgelastet bekommen. Die X360 hatte 3 ziemlich schlappe in ordered Kerne mit SMT. AMD liefert aber vieleicht 4 Kerne (auch wenn man sich FP teilt). Und auch noch 4 Kerne, die pro Kern extrem kurzen Prozess mit den Wischiwaschi In Order Kernen machen.
Mich würde nicht wundern, wenn die IPC von der CPU pro Kern auf Atom Niveau ist. Gar kein Vergleich IMO.


Ja nee und patchen braucht man nicht, oder eine neue Firmware? Hand hoch wer hier glaubt, es würde mit Onlineaktivierung nicht auch der ZeroDay Patch für Konsolen kommen (zumal das ein schon benutzes Schwarzkopieabsicherungssystem sein kann, wen da Daten auf der disk fehlen, gell)?

1. Neue Firmwares liefert man jetzt schon mit einem Spiel mit.
2. meine Xbox 360 läuft offline und ich brauchte noch für kein Spiel einen Patch (obwohl es welche gibt - und ich behaupte mal, die gesamte Exclusivelineup und die größten Multi Kracher durchgespielt zu haben)
3. Patches werden auch heute über WLAN geliefert. Was soll sich mit einer Onlineaktivierungskonsole daran ändern?

Aktivierung und Patches / Firmwares sollte man voneinander thematisch trennen. Ich sehe den Zusammenhang nicht all zu stark. Zumal wie gesagt letzteres schon heute einwandfrei funktioniert.

Iruwen
2012-03-31, 11:11:48
Nennt sich HD-Remake. Bissken mehr als "Neukompilieren" dürfte es schon sein.
Hat natürlich nichts mit "Abwärtskompatibilität" zu tun. Der Begriff wird mir hier zu sehr verwässert.
Sprich, wenn ein Programm ohne jegliche Anpassung auf einem neuen OS läuft, ist das neue OS (für dieses Programm) abwärtskompatibel. Bei Closed-Source-Software sehr wichtig, da man nicht einfach notwendige Anpassungen vornehmen kann. Eine Stärke von Windows.

HD Remakes von populären Titeln kann man halt nochmal teuer verkaufen.

00-Schneider
2012-04-02, 13:12:59
Neues zur "XBOX 720":

http://www.vg247.com/2012/04/02/xbox-720-detailed-blu-ray-inside-always-on-netcon-required/

Käsetoast
2012-04-02, 13:24:02
Ich weiß nicht - Online-Dauerverbindung und dann noch ein angeblicher AFR Nachfolger für zwei GPUs ohne Mikrorucklerprobleme worauf man im PC Sektor schon seit einiger Zeit wartet. Das klingt für mich erstmal nicht sehr glaubwürdig...

robbitop
2012-04-02, 13:38:48
Vor allem 1x Core für OS und 1x für Kinnect. Das wäre sowas von unwirtschaftlich und absolute Verschwendung. Das OS sollte während des Spiels kaum Last erzeugen. Kinect funktioniert ja auch wunderbar mit der X360. Sollte also auch nicht allzuviel Last erzeugen. Die meisten Sachen sind sicherlich eh fest verdrahtet. Es ist also nichts anderes als eine andere Eingabemöglichkeit für die Konsole. Oder läuft das alles in SW?

EL_Mariachi
2012-04-02, 14:42:29
2. meine Xbox 360 läuft offline und ich brauchte noch für kein Spiel einen Patch (obwohl es welche gibt - und ich behaupte mal, die gesamte Exclusivelineup und die größten Multi Kracher durchgespielt zu haben)



mhmm und Demos interessieren Dich nicht? oder das ein oder andere XBLX Arcade Spielchen? Multiplayer interessiert Dich auch nicht?

Ist deine Konsole banned oder welchen Grund hat dein Offline sein? ;)


.

pixelguy
2012-04-02, 14:44:16
Ich könnte mir schon vorstellen, dass das nächste Kinect deutlich mehr Funktionen besitzt bzw. genauer ist und somit auch mehr Rechenleistung erfordert. Das mit dem extra Core für das OS klingt aber in der Tat blödsinnig. Es sei denn, es handelt sich um eine Art Co-Core mit wenig Leistung.

del_4901
2012-04-02, 15:13:06
Ein extra Core fuer das OS macht schon Sinn. Das nimmt ein wenig vom nicht Determinismus aus dem System und macht es den Entwicklern an vielen Stellen einfacher Bugs zu finden. Und was die 2 GPUs angeht, vllt. wird es ja eine Art Fusion APU mit dedizierter GPU, was sehr zu begruessen waehre!

Deinorius
2012-04-02, 15:22:31
Ich weiß nicht - Online-Dauerverbindung und dann noch ein angeblicher AFR Nachfolger für zwei GPUs ohne Mikrorucklerprobleme worauf man im PC Sektor schon seit einiger Zeit wartet. Das klingt für mich erstmal nicht sehr glaubwürdig...


Eine Dauerverbindung IST hoffentlich ein Blödsinn. Wer weiß, ob das nicht einige Kunden verstimmen würde.
Aber AFR wird es nicht sein, es wird sogar extra erwähnt “not CrossFire or SLI”, wobei ich mich auch frage, wieso man SLI erwähnt, wenn nvidia damit nichts zu tun hat.

Wieso fahren alle so auf die Dual-GPU Geschichten ab? :| Im Endeffekt kommt dann die ganze Geschichte raus und AMD hat sich R&D-Kosten gespart, indem sie für alle Konsolen nur eine GPU entwickelt haben. Die einfache Variante kommt in die Wii U und die beiden anderen kriegen die doppelte (oder dreifache) Core-Anzahl spendiert. :freak:

Und was die 2 GPUs angeht, vllt. wird es ja eine Art Fusion APU mit dedizierter GPU, was sehr zu begruessen waehre!


Wieso?! :confused:

robbitop
2012-04-02, 15:30:56
mhmm und Demos interessieren Dich nicht? oder das ein oder andere XBLX Arcade Spielchen? Multiplayer interessiert Dich auch nicht?

Ist deine Konsole banned oder welchen Grund hat dein Offline sein? ;)


.
Meine X360 hat kein WLAN integriert. Ich habe keine Lust auf Kabel ziehen und der WLAN Adapter ist mir zu teuer. Demos brauche ich nicht - ich schaue auf Gametrailes. Wenn ein Spiel sehr gut ist und mich das Videoreview anspricht und der Preis genug gefallen ist, hole ich es mir.

Multiplayer hasse ich auch auf dem PC. Also nein Danke. (kostet zu viel Zeit um gut genug zu werden, damit man konkurrenzfähig ist und dafür ist mir meine Freizeit zu schade) Und den ganzen XBLA Bezahlkram brauche ich nicht.

Früher waren die Konsolen auch offline. Mir reicht das.

Ein extra Core fuer das OS macht schon Sinn. Das nimmt ein wenig vom nicht Determinismus aus dem System und macht es den Entwicklern an vielen Stellen einfacher Bugs zu finden.
Ist der Komfort der Entwickler zum Finden einiger Bugs es wirklich wert, dass man einen (vermutlich!) der komplexen OoO Kerne opfert? Der liegt dann nicht nutzbar für Spieleleistung brach.
Das ist nicht sehr wirtschaftlich oder?


Und was die 2 GPUs angeht, vllt. wird es ja eine Art Fusion APU mit dedizierter GPU, was sehr zu begruessen waehre!
Das wäre möglich (auch wenn bis dato alle Gerüchte auf SoC Konsolen zeigen). Für was würde man dann den GPU Teil der APU nutzen? Physik?
Das erinnert mich ein wenig an Cell. Wäre die Kernfläche nicht besser in General Purpose Kerne investiert? Die sind doch sicher viel einfacher zu nutzen.

lumines
2012-04-02, 16:03:43
Ist der Komfort der Entwickler zum Finden einiger Bugs es wirklich wert, dass man einen (vermutlich!) der komplexen OoO Kerne opfert? Der liegt dann nicht nutzbar für Spieleleistung brach.
Das ist nicht sehr wirtschaftlich oder?

Die Wii hat auch einen kleinen ARM neben der PPC-CPU. Ist also durchaus denkbar.

robbitop
2012-04-02, 16:05:57
Die Wii hat auch einen kleinen ARM neben der PPC-CPU. Ist also durchaus denkbar.
Der ist aber AFAIR zur Verschlüsselung. Ja ein kleiner ARM Kern ist ja auch kein Ding. Der kostet in einem SoC praktisch nichts. Wenn jetzt aber ein Bulldozerkern dafür verschwendet würde, wäre das lachhaft.

Käsetoast
2012-04-02, 17:26:42
Wieso fahren alle so auf die Dual-GPU Geschichten ab? :| Im Endeffekt kommt dann die ganze Geschichte raus und AMD hat sich R&D-Kosten gespart, indem sie für alle Konsolen nur eine GPU entwickelt haben. Die einfache Variante kommt in die Wii U und die beiden anderen kriegen die doppelte (oder dreifache) Core-Anzahl spendiert. :freak:
Also ich würde denken, dass das Gegenteil der Fall ist. Die Konsolen-Chips werden ja nun nicht unglaublich groß werden - da gibt es keinen Grund zwei extra DIEs zu produzieren die dann unter Umständen eine extra Stromversorgung brauchen sowie extra Speicher samt Speicheranbindung und so weiter und so fort. Ich glaube es käme am Ende teurer wenn man den Chip doppelt anlegt (und damit gewisse Elemente in doppelter Ausfertigung braucht) anstatt direkt alles in einem Chip zu machen. Selbst wenn man sagen würde, dass Wii U und XBox Chip dieselbe Basis haben so ist es denke ich keine Ding je nach Anzahl der SPs einen eigenen Chip à la Cape Verde vs. Pitcairn zu machen. Mal abgesehen davon, dass man die R&D Kosten ja bezahlt bekommt ist das ein Chip der jahrelang produziert werden wird und da lohnen sich Multi-GPU-Experimente meiner Meinung nach nicht, zumal es einige ja wohl auch brennend interessieren wird welche Methode da zum Einsatz kommt wenn es schon kein AFR ist und wieso man davon (gerade im PC-Sektor) noch nie was gehört hat...

Nightspider
2012-04-02, 17:34:33
Falls die PS4 erst 2014 erscheint:

Wie stehen die Chancen, das Sony auf Nvidias Kepler umschwenkt?

Knuddelbearli
2012-04-02, 17:39:53
bei der Ps4? gleich 0

AnarchX
2012-04-02, 17:58:10
Momentan sieht es eher nach einem Komplett-Paket von AMD aus.

ngl
2012-04-02, 18:07:00
Dann kauf ichs mir nicht. Mir kommt keine Technik von ATI ins Haus. Lieber Intel und Nvidia!

del_4901
2012-04-02, 18:22:10
Der ist aber AFAIR zur Verschlüsselung. Ja ein kleiner ARM Kern ist ja auch kein Ding. Der kostet in einem SoC praktisch nichts. Wenn jetzt aber ein Bulldozerkern dafür verschwendet würde, wäre das lachhaft.
Das dafuer ein Bulldozerkern verwendet wird ist alles noch Spekulation, ein kleiner ARM/Bobcat wuerde sich dafuer aber sehr gut machen.
M
Das wäre möglich (auch wenn bis dato alle Gerüchte auf SoC Konsolen zeigen). Für was würde man dann den GPU Teil der APU nutzen? Physik?
Das erinnert mich ein wenig an Cell. Wäre die Kernfläche nicht besser in General Purpose Kerne investiert? Die sind doch sicher viel einfacher zu nutzen.
Wenn sowas in einer Konsole kommt, dann werden sich noch viele weitere Einsatzmöglichkeiten dafür finden lassen. Der Bedarf dafür ist gegeben sofern die Engine keine 10 Jahre auf dem Buckel hat.
Die SPUs haben vorallem das Problem, dass man selbst den Speicher managen muss.

Knuddelbearli
2012-04-02, 18:24:16
tja die lieben Fanboys die Geldesel der Monopolisten ^^

krötenfresse
2012-04-02, 18:55:16
Dann kauf ichs mir nicht. Mir kommt keine Technik von ATI ins Haus. Lieber Intel und Nvidia!
da ist so, als würde man scheisse nicht essen wollen, weil einem die farbe nicht gefällt.

der online-zwang und das gerücht, daß gebrauchtspiele unmöglich gemacht werden,
sind ja wohl weitaus gravierendere gründe für einen boykott

Deinorius
2012-04-02, 19:18:15
Also ich würde denken, dass das Gegenteil der Fall ist.[...]


Das ist auch meine Meinung. Eigentlich meinte ich, dass sie nur die IP entwickeln und dann entsprechende SoCs für die jeweiligen Hersteller damit bedienen.

Dann kauf ichs mir nicht. Mir kommt keine Technik von ATI ins Haus. Lieber Intel und Nvidia!


Kannst du das wenigstens begründen? Immerhin musst du dich ja nicht vor etwaigen Treiberproblemen fürchten. X-D

Iruwen
2012-04-02, 20:53:49
Aus Prinzip!

Deinorius
2012-04-02, 22:11:15
Na gut. Bei AMD versteh ich's zwar nicht, aber ich lebe dafür aus Prinzip ohne Apple.

ngl
2012-04-02, 23:53:25
Kannst du das wenigstens begründen? Immerhin musst du dich ja nicht vor etwaigen Treiberproblemen fürchten. X-D

klar. Ich hatte ein AMD 586 200mhz und der ist mir immer abgeschmiert. Dazu so ein dämliches AMD Board. Nie mehr AMD.

Um die 2001 herum hatte ich ne Radeon 32mb SDR. Die Geforce 2 war viel schneller. Ergo nie wieder ATI.

Da lobe ich mir Intel und Nvidia. Mit denen hatte ich seit Windows 2000 noch nie einen Absturz.

Dazu solltet ihr mal die Posts von Lovesuckz lesen. Dann wird klar warum ATI und AMD eigentlich auf den Müll gehören.

Deinorius
2012-04-03, 00:04:58
Dazu solltet ihr mal die Posts von Lovesuckz lesen. Dann wird klar warum ATI und AMD eigentlich auf den Müll gehören.


Du hast den 1. April leider verpasst.

Nakai
2012-04-03, 00:15:32
Dann sollte man sich keine Nextgen-Konsole holen...da is ja alles von AMD bzw. teilweise. Mittlerweile sollte es klar sein, wie Xbox720, PS4 und Wii U aussehen.
AMD is da auf alle Fälle erstmal der große Gewinner, das könnte AMD auch in anderen Gebieten einigermaßen pushen.

Dazu solltet ihr mal die Posts von Lovesuckz lesen. Dann wird klar warum ATI und AMD eigentlich auf den Müll gehören.

Wie erwähnt, dann kauf dir keine NextGen-Konsole, denn da is überall AMD/ATI drin.;)

00-Schneider
2012-04-03, 00:27:34
Wieder Neues zur "PS4":

http://www.vg247.com/2012/04/02/playstation-4-sony-confident-of-pre-xbox-720-release/

][immy
2012-04-03, 00:29:49
Der ist aber AFAIR zur Verschlüsselung. Ja ein kleiner ARM Kern ist ja auch kein Ding. Der kostet in einem SoC praktisch nichts. Wenn jetzt aber ein Bulldozerkern dafür verschwendet würde, wäre das lachhaft.
würde sich das dnen problemlos machen lassen? also ein dual core ARM für OS + Kinect und der große 4core dann für die spiele?

das wäre dann ja quasi 2 cpu architekturen in einem system.

del_4901
2012-04-03, 02:23:12
klar. Ich hatte ein AMD 586 200mhz und der ist mir immer abgeschmiert. Dazu so ein dämliches AMD Board. Nie mehr AMD.

Um die 2001 herum hatte ich ne Radeon 32mb SDR. Die Geforce 2 war viel schneller. Ergo nie wieder ATI.

Da lobe ich mir Intel und Nvidia. Mit denen hatte ich seit Windows 2000 noch nie einen Absturz.

Dazu solltet ihr mal die Posts von Lovesuckz lesen. Dann wird klar warum ATI und AMD eigentlich auf den Müll gehören.
Damals ging es den Meisten nicht anders, man musste schon ein richtiger Crack sein damit der Rechner richtig lief. Ich hatte ein AMD Board mit Intel CPU und Voodoo das lief sogar richtig gut fuer die damalige Zeit.

Screemer
2012-04-03, 02:35:09
Dazu solltet ihr mal die Posts von Lovesuckz lesen. Dann wird klar warum ATI und AMD eigentlich auf den Müll gehören.
das muss in meine sig. schon rein aus nostalgischen gründen.

Lightning
2012-04-03, 08:45:53
Bitte wieder zum Thema zurückkehren. Und fürs nächste Mal: Don't feed the troll. ;)

Deinorius
2012-04-03, 08:55:20
Wieder Neues zur "PS4":


Sony wird DirectX nutzen? Es ist eine Konsole, ist diese Aussage nicht etwas falsch? Sie werden das Featureset benutzen, aber die API?
Folgende Zeilen haben mich dann aber doch etwas geschockt.
We were told today that Crytek was scaling its tech on the assumption that PS4 was going to be using a 24-core Cell processor as opposed to the eight-core unit in PS3. The studio was forced to halt development and start afresh when it was informed PlayStation 4 won’t be using Cell at all.


Srsly?? :| Die Aussage, dass der Cell nicht mehr reinkommt, wurde doch damals von einem Sony-Angestellten (oder wem auch immer) getätigt und Crytek hat ernsthaft geglaubt, es kommt ein 24-SPE Cell in die PS4?? :freak: Diese Leute müssten es doch so oder so besser wissen.

das muss in meine sig. schon rein aus nostalgischen gründen.


Bitte umformatieren, man kann es nicht lesen. :(

robbitop
2012-04-03, 09:10:11
Es wird immer eine Menge FUD erzählt. Manchmal, um Leaks zu suchen, und manchmal, damit sich Leute mit "guten Quellen" in den Vordergrund spielen.

fizzo
2012-04-03, 10:21:53
Next Generation Konsolen: Wunschliste der Spiele-Entwickler

03.04.12 - Einige Spiele-Entwickler wie DICE und Epic Games haben ihre Wünsche hinsichtlich Next Generation Konsolen geäußert.

Tim Sweeney, Gründer von Epic Games

- Spiele und Konsolen sollten soziale Netzwerk stärker unterstützen, z.B. mit Facebook Integration.

- Sweeney hofft, dass sich Spiele auf den neuen Konsolen genau so leicht kaufen und herunterladen lassen wie es derzeit im iOS App Store möglich ist. Er favorisiert generell ein Download-Modell gegenüber herkömmlichen Disc-Versionen.

- Waren die Konsolen vor vielen Jahren nur mit dem Fernseher verbunden und einzig zum spielen da, so kann man heute mit ihnen Updates herunterladen, Filme anschauen oder mit seinen Freunden chatten. Sweeny wünscht sich, dass diese Konzepte beu den neuen Konsolen noch weitergehen werden und sie ein Computer für den Massenmarkt werden.

- Die neuen Konsolen sollten drastisch mehr Rechenleistung haben. Nur so können die Konsolen dem Anspruch gerecht werden, eine High End Spielerfahrung anzubieten. Dieser Leistungsaspekt würde die Systeme schließlich auch von FarmVille unterscheiden, meint Sweeny.

- Außerdem müsste es Spiele mit einer Grafik-Qualität geben, die sich die Leute bislang nicht vorstellen konnten. Ansonsten wird es schwer sein, die neuen Konsole zu verkaufen: Die Hersteller fangen bei einer neuen Konsole wieder bei null an und können mit der installierten Hardware-Basis der alten Konsole nichts anfangen, weshalb man die Spieler mit deutlich besserer Grafik von den neuen Konsolen überzeugen muss.

Carl Jones, Director of Global Business Development bei Crytek

- Jones wünscht sich eine sehr leistungsstarke GPU und dass GPGPU-Effekte (General Purpose Computation on Graphics Processing Unit) möglich sind.

- Die Geschäftsmodelle der Konsolen sollten offener sein, so dass man z.B. Freemium Inhalte anbieten kann. Bei diesem Geschäftsmodell werden Basisdienste kostenlos angeboten, weitere Dienste und Services sind dann allerdings kostenpflichtig. So könnte ein Entwickler sein Spiel kostenlos abgeben und dann für weitere Inhalte Geld verlangen.

Christian Svensson, Senior Vice President bei Capcom

- Die Netzwerke gewinnen nach Svenssons Ansicht mehr an Bedeutung. Hier wünscht er sich besonders, dass Update viel schneller beim Kunden ankommen. Auf diese Weise könnte Capcom seinen Kunden ein besseren Service bieten.

- Svensson will, dass Publisher mehr Kontrolle über die Backend Server haben. Dadurch könnte der Publisher online Dinge ermöglichen, die es bei den heutigen Konsolen noch nicht gibt.

- Die Hardware-Hersteller sollten sich verstärkt am PC- und Smartphone-Markt orientieren, wo die Grenzen zwischen Spiele-Entwicklern und Kunden sehr viel niederiger sind. Die Hersteller sollten sich im Klaren darüber sein, dass sie in Konkurrenz zu diesen beiden Märkten stehen.

David Polfeldt, Managing Director bei Ubisoft Massive

- Die neuen Konsolen sollten sich ähnlicher sein als es heute der Fall ist. So unterscheiden sich PS3 und Xbox 360 immer noch stark, so dass ein Entwickler eigentlich immer zwei völlig verschiedene Spiele machen muss. Deshalb sind die Spiele-Macher heute auch lange mit technischen Aspekten und der Anpassung an die jeweilige Konsole beschäftigt. Viel lieber würde Polfeldt diese Zeit in den Spielspaß oder neue Features stecken.

- Außerdem sollten die Konsolen rund um die Uhr immer mit dem Internet verbunden und "offener" sein, so dass ein Entwickler mehr Eingriffsmöglichkeiten hat: Jetzt stehen vielen Vorhaben und Ideen des Spiele-Entwicklers verschiedene Prozesse des First-Party-Anbieters im Weg, was es beim PC nicht gibt.

Es gibt deshalb bei den aktuellen Konsolen viel Bürokratie, wenn man etwas genehmigt haben will - selbst wenn ein Entwickler nur kleine Dinge verwirklichen will. Auf dem PC werden kleinere Update oder Korrekturen spontan und schnell umgesetzt, so dass es diese Möglichkeit auf den neuen Konsolen auch geben sollte.

Heute können viele Korrekturen in einem Spiel nicht realisiert werden, weil sie mit viel Aufwand und Arbeit verbunden sind.

Karl-Magnus Troedsson, General Manager bei DICE

- Er wünscht sich sehr viel mehr Leistung bei der CPU und GPU, mehr Speicher und eine höhre Busgeschwindigkeit.

- Die Konsolen sollten leicht zu programmieren sein und sich nicht stark von anderen Plattformen unterscheiden.

- Die neuen Systeme sollten bei der Leistungsfähigkeit mit dem PC an vorderster Front stehen und deshalb technisch das Beste bieten, was möglich ist.

www.gamefront.de

Wünsch dir was :D

Coda
2012-04-03, 10:23:47
Srsly?? :| Die Aussage, dass der Cell nicht mehr reinkommt, wurde doch damals von einem Sony-Angestellten (oder wem auch immer) getätigt und Crytek hat ernsthaft geglaubt, es kommt ein 24-SPE Cell in die PS4?? :freak: Diese Leute müssten es doch so oder so besser wissen.
:rolleyes:

Iruwen
2012-04-03, 10:28:35
www.gamefront.de

Wünsch dir was :D

Vielleicht sollte mal lieber jemand die potentiellen Käufer fragen, die Hälfte der Liste steht vermutlich im Gegensatz zu realen Kundeninteressen.
Ich würde mir mehr Spiele mit brauchbarem Couch Coop wünschen.

Iceman346
2012-04-03, 10:36:23
Nochmal zur Abwärtskompatibilität. Was da in der Diskussion imo zu wenig beachtet wurde ist der Weg hin der Konsolenhersteller zur digitalen Distribution. Bereits heute hat fast jeder Spieler auf den aktuellen Konsolen einen entsprechenden Live/PSN Account und darauf auch das eine oder andere Spiel geladen.

Wenn die neuen Konsolen jetzt nicht abwärtskompatibel sind werden diese Spiele quasi wertlos bzw. man zwingt den Kunden dazu das alte Gerät noch im Schrank stehen zu lassen. Andererseits hätte man, wenn Abwärtskompatibilität vorhanden ist, ein großes Portfolio an Titeln welches man Neukunden andrehen könnte.

Dieses Prinzip ist doch Grundlage des Erfolgs von digitaler Distribution auf dem PC. Da hier das Problem der Abwärtskompatibilität bei weitem nicht in dem Umfang besteht wie auf Konsolen gibt es ein unvergleichbar großes Portfolio von Spielen mit denen man immer noch Geld verdienen kann. Seiten wie GoG.com oder die regelmäßigen Steam Sales leben davon.

Ich kann mir nicht vorstellen, dass sich Microsoft und Sony diese Entwicklung auf PC Seite nicht ganz genau angeschaut haben und versuchen werden hier ähnliches zu schaffen. Sony hat es da, wegen der idiotischen Cell Entscheidung, sicherlich schwerer.

Deinorius
2012-04-03, 11:13:54
Eigentlich müsste Sony der Einzige überhaupt sein, der es wirklich schwer hat. Sofern M$ bei PowerPC bleibt, sich die Architektur nicht zu sehr ändert und hauptsächlich die Leistung steigt, dürften sie es am einfachsten haben. Nintendo dürfte es einfach wegen der niedrigen Leistung der Wii selber wenig Probleme kriegen.

pittiplatsch
2012-04-03, 11:17:01
Oh man, am 1.April kam das "Gerücht" auf, Wii-U ist schwächer als Ps360, und jetzt erst wirds verbreitet, damits nicht auffliegt, und es gibt Leute, die sowas glauben.

Haben wohl die verstaubten Produktionsstraßen nochmal angeworfen.

Ich dachte auch erst, hey Wii-U wird n Smartphone. ;D

Lightning
2012-04-03, 11:41:17
Vielleicht sollte mal lieber jemand die potentiellen Käufer fragen, die Hälfte der Liste steht vermutlich im Gegensatz zu realen Kundeninteressen.

Ja. Die Entwickler bzw. Hersteller wünschen sich natürlich das, was für sie am besten ist.
Epic, Crytek und DICE wollen ihre Engines verkaufen bzw. legen legen großes Augenmerk auf die Grafik. Logischerweise möchten sie deshalb, dass die neue Konsolengeneration so stark wie möglich wird, weil das ihre Position stärkt. Ubisoft nennt das hingegen schon nicht mehr so explizit und will dafür z.B. den Online-Zwang, kennt man ja bereits vom PC.
Ein gemeinsamer Wunsch ist, dass sich die Hardware nicht so stark unterscheidet, damit man Kosten beim Entwickeln für mehrere Plattformen spart.

Fragt man First-Party-Enwickler oder kleinere Studios, wird die Wunschliste schon wieder anders aussehen. Ersteren wird eine vergleichbare Hardwarebasis zwischen den Konsolen ziemlich egal sein. Letztere wollen vielleicht gar nicht so viel Hardwareleistung, weil die Entwicklunskosten steigen, wenn man diese ausnutzen will. Alles schon gelesen.

Screemer
2012-04-03, 11:41:37
Srsly?? :| Die Aussage, dass der Cell nicht mehr reinkommt, wurde doch damals von einem Sony-Angestellten (oder wem auch immer) getätigt und Crytek hat ernsthaft geglaubt, es kommt ein 24-SPE Cell in die PS4?? :freak: Diese Leute müssten es doch so oder so besser wissen.
:(
da wäre jetzt der zaunpfahl an coda zu übergeben. wäre wirklich interessant da was dazu zu hören. ahh, da war ja schon was.

Deinorius
2012-04-03, 11:52:59
da wäre jetzt der zaunpfahl an coda zu übergeben. wäre wirklich interessant da was dazu zu hören. ahh, da war ja schon was.


Mehr muss man wohl nicht sagen. :D

dargo
2012-04-03, 12:33:49
Woher kommt eigentlich dieser Sinneswandel? Früher habe ich immer wieder hier gelesen, besser aussehende Spiele wären kaum mehr finanzierbar. Und jetzt schreien diverse Spieleentwickler nach deutlich besserer Hardware. :crazy:

boxleitnerb
2012-04-03, 12:36:10
Deutlich besser als der alte Schrott ist doch kein Sinneswandel. Irgendwo reicht eben Zeug von 2005 nicht mehr aus.

dargo
2012-04-03, 12:54:07
Ich bezog mich eher auf das hier.
- Die neuen Systeme sollten bei der Leistungsfähigkeit mit dem PC an vorderster Front stehen und deshalb technisch das Beste bieten, was möglich ist.
Mal davon abgesehen, dass dies thermisch und bezahlbar für die Masse gar nicht möglich ist.

robbitop
2012-04-03, 13:01:12
Vor allem haben Konsolen ja erstmal Nachholbedarf was Auflösung, FPS und Details angeht. Das meiste der Mehrperformance kann davon aufgefressen werden. Wenn nicht sogar alles.
Dafür muss der Kontent erstmal gar nicht besser werden. Aber vermutlich läuft's wie immer. Auflösung und FPS werden geopfert für ein höheres Grafiklevel. Das ist komerziell nur sinnvoll.

Was wäre es schön, wenn man technisch das Machbare ausreizen würde, wie es damals die X360 tat.

dargo
2012-04-03, 13:08:08
Aber vermutlich läuft's wie immer. Auflösung und FPS werden geopfert für ein höheres Grafiklevel. Das ist komerziell nur sinnvoll.

Das will ich auch stark hoffen. Höhere Auflösung etc. habe ich dann am PC. Was bringt mir das wenn die Konsolen schon in Full-HD rendern? Ok... ich könnte dann natürlich in jedem Spiel Downsampling mit vierfacher Auflösung verwenden. Wesentlich besserer Content ist mir da aber wichtiger. Und ich denke Neukäufer/Umsteiger kann man auch nur damit anlocken und nicht mit Full-HD.

boxleitnerb
2012-04-03, 13:10:47
Ich bezog mich eher auf das hier.

Mal davon abgesehen, dass dies thermisch und bezahlbar für die Masse gar nicht möglich ist.

Das stimmt, das ist Marketinggeblubber. HD6670 und das Beste was möglich ist :freak:

Deinorius
2012-04-03, 13:11:06
Zumal der Unterschied zwischen 720p und 1080p auf einem 3-4m entfernten TV (vielleicht sogar auch unter Verwendung von FXAA/SMAA) sowieso von den meisten Spielern nicht sichtbar sein wird, also wieso sollten sich die Entwickler den Schmarrn mit FullHD auch antun?

HD6670 und das Beste was möglich ist


Gerüchte wie immer.

dargo
2012-04-03, 13:12:59
Zumal der Unterschied zwischen 720p und 1080p auf einem 3-4m entfernten TV (vielleicht sogar auch unter Verwendung von FXAA/SMAA) sowieso von den meisten Spielern nicht sichtbar sein wird, also wieso sollten sich die Entwickler den Schmarrn mit FullHD auch antun?
So sehe ich das auch. Man muss natürlich nicht immer nur 1280x720 nutzen. Hier und da könnte man auch auf zb. 1280x1080 (oder Ähnliches) wie bei GT5 ausweichen.

robbitop
2012-04-03, 13:15:49
Das will ich auch stark hoffen. Höhere Auflösung etc. habe ich dann am PC. Was bringt mir das wenn die Konsolen schon in Full-HD rendern? Ok... ich könnte dann natürlich in jedem Spiel Downsampling mit vierfacher Auflösung verwenden. Wesentlich besserer Content ist mir da aber wichtiger. Und ich denke Neukäufer/Umsteiger kann man auch nur damit anlocken und nicht mit Full-HD.
Du siehst es aber nur aus Sicht des PC Spielers als Nutznießer. ;) Dafür sind Konsolen aber nicht da. Sie sind für Konsolenspieler da. :D
Die Frage ist eben, was die beste Spielerfahrung liefert... ich finde ab einem gewissen Punkt ist eine zu geringe FPS-Rate oder zu geringe Auflösung dann so negativ, dass das Spiel keinen Spaß mehr macht. Siehe GTA 4 auf der Konsole...

Deinorius
2012-04-03, 13:21:53
So sehe ich das auch. Man muss natürlich nicht immer nur 1280x720 nutzen. Hier und da könnte man auch auf zb. 1280x1080 (oder Ähnliches) wie bei GT5 ausweichen.


Könnte man, hängt von den Entwicklern ab. Hauptsache, man setzt diesmal 720p wirklich als Minimum ein. Die Next-Gen Konsolen sollten wirklich keine Auflösungen darunter mehr nutzen, darüber sollte Wahl der Entwickler bleiben.

Der Content und die FPS sollten passen.

robbitop
2012-04-03, 13:28:52
Und bitte MSAA als Minimum. (wobei das wieder keiner macht...)
2-4x MSAA dürften korrekt implementiert nur 10 % Leistung kosten. IMO bringt es aber verdammt viel.

Coda
2012-04-03, 14:37:17
MSAA ist mit Deferred Shading leider etwas teurer.

dargo
2012-04-03, 14:38:41
Du siehst es aber nur aus Sicht des PC Spielers als Nutznießer. ;) Dafür sind Konsolen aber nicht da. Sie sind für Konsolenspieler da. :D

Ich bekenne mich schuldig im Sinne der Anklage. :biggrin:

MSAA ist mit Deferred Shading leider etwas teurer.
Eben.

Ich glaube auch nicht an eine Mindestvoraussetzung @MSAA. Man wird sicherlich auf FXAA, TXAA oder was auch immer zurückgreifen. Ist auch imo nicht verkehrt für Spieler am TV. FXAA mit leichtem Sharpering sieht gar nicht mal schlecht aus bei der üblichen Entfernung zum Bildschirm beim Konsolenspieler. Zumindest besser als mit 1xAA.

Deinorius
2012-04-03, 15:56:56
Und bitte MSAA als Minimum. (wobei das wieder keiner macht...)
2-4x MSAA dürften korrekt implementiert nur 10 % Leistung kosten. IMO bringt es aber verdammt viel.


Dein Wort in Gottes (oder halt M$'s und Sony's) Ohr! Ich glaube aber wenig daran. Ein Mix aus MSAA und FXAA/SMAA fände ich jetzt aber nicht schlecht und wenn es nur 2xMSAA wäre.

krötenfresse
2012-04-04, 17:10:56
Ein Mix aus MSAA und FXAA/SMAA fände ich jetzt aber nicht schlecht und wenn es nur 2xMSAA wäre.
wenn dadurch das geflimmer beseitigt wird, dann ja

Coda
2012-04-04, 17:12:17
Welches "Geflimmer"? Shader?

Tesseract
2012-04-04, 17:19:02
Du siehst es aber nur aus Sicht des PC Spielers als Nutznießer. ;) Dafür sind Konsolen aber nicht da. Sie sind für Konsolenspieler da. :D
Die Frage ist eben, was die beste Spielerfahrung liefert... ich finde ab einem gewissen Punkt ist eine zu geringe FPS-Rate oder zu geringe Auflösung dann so negativ, dass das Spiel keinen Spaß mehr macht. Siehe GTA 4 auf der Konsole...

siehe god of war. die PS3-remakes vom einser und zweier haben volle 1080p mit konstant guter framerate und AA (IIRC) weil sich das locker ausgeht.
der 3er, ein nativer PS3 titel, fährt eine gurkenauflösung, flimmert wie hölle und ruckelt dazu. höherer detailgrad hin oder her, die remakes sahen einfach wesentlich besser aus imho.

00-Schneider
2012-04-04, 17:34:53
der 3er, ein nativer PS3 titel, fährt eine gurkenauflösung, flimmert wie hölle und ruckelt dazu. höherer detailgrad hin oder her, die remakes sahen einfach wesentlich besser aus imho.


Totaler Unsinn. Teil 3 läuft in 720p mit MLAA, da flimmert wenig.

Seit wann ist nativ 720p überhaupt eine "Gurkenauflösung"!? Ist für dich alles unter 1080p Gurke?

Tesseract
2012-04-04, 17:43:21
Totaler Unsinn. Teil 3 läuft in 720p mit MLAA, da flimmert wenig.

da flimmert nicht "wenig". gegen die remakes ist das ganze spiel augenkrebs von anfang bis ende.

Seit wann ist nativ 720p überhaupt eine "Gurkenauflösung"!? Ist für dich alles unter 1080p Gurke?
ja. auf einem 1080p fernseher 720p auszugeben ist eine gurkenauflösung. besonders wenn man direkt davor den vorgänger anders gesehen hat.

Iruwen
2012-04-04, 17:46:14
da flimmert nicht "wenig". gegen die remakes ist das ganze spiel augenkrebs von anfang bis ende.

Absolut, das war auch das erste was mir aufgefallen ist als ich alle drei Teile hintereinander weggespielt hab. Direkt am Anfang wenn man auf Gaia rumturnt flimmert u.a. das Gestrüpp wie sau.

dildo4u
2012-04-04, 17:55:53
God of War 3 Trilogy

http://betav2.gamersyde.com/download_god_of_war_3_trilogy-14649_en.html Immer noch erstaunlich was da aus der PS3 geholt wurde.

Alle Games in HD 60fps Video.Und Teil 3 hat deutlich mehr fps als alle High-End Titel auf 360 und PS3 um 35-40 statt 25-30,noch dazu das beste AA auf PS3.

Laut Tim Moss, dem Director of Technology, hat das Team mit der Sony Technologie-Gruppe in England zusammengearbeitet, um eine Kantenglättungs-Lösung namens MLAA - oder „morphologisches Anti-Aliasing“ - zu erschaffen. Deren Grundlagen sind uns derzeit immer noch unbekannt, aber unter dem Strich ist das Resultat in God of War III einfach phänomenal: Das Aliasing ist nahezu eliminiert und das Sub-Pixel-Jitter, der typischerweise mit dieser Technik zusammenhängt, wurde im Vergleich zu anderen Implementierungen, die wir gesehen haben, massiv reduziert.

http://www.eurogamer.de/articles/the-making-of-god-of-war-iii_2?page=3

Der ganze Artikel ist sehr interesant u.a auch die Video's.Das es mehr flimmert als die alten Games ist normal,selbst BF3 ist auf einer GTX680 nicht flimmerfrei,das hat nichts mit den Konsolen zu tun,sondern damit das komplexer Figuren und Umgebungen wesentlich mehr zum flimmern neigen,ebend weils deutlich mehr bzw kleiner Kanten gibt.Und da oben drauf kommt dann noch das Shader flimmern.

Tesseract
2012-04-04, 18:29:16
wenn das aliasing sogar durch einen 5-10 pixel breiten blurfilter stark sichtbar durchflimmert trifft es die bezeichnung "phänomenal" ziemlich gut. :freak:

dildo4u
2012-04-04, 18:46:36
Wie gesagt alle neuen Games haben das Problem und selbst High-End PC Games wie BF3 setzen auf FXAA.

dargo
2012-04-04, 19:01:42
Zum Glück ist man aber nicht gezwungen diesen Blödsinn bei BF3 zu nutzen. Die FXAA-Implementierung ist nämlich schrecklich umgesetzt.

Nightspider
2012-04-04, 19:13:15
Solch gute Umsetzungen von MLAA und FXAA werden sich mit Sicherheit durchsetzen.
Ich hoffe, das wird auf dem PC wenigstens ordentliches SRAA sehen werden aber dazu müsste die Hersteller genauso viel Feintuning investieren.

30@Frames
2012-04-04, 21:59:49
http://ie.ign.com/articles/2012/04/04/sources-detail-the-playstation-4s-processing-specs
The PlayStation 4, reportedly codenamed Orbis, may utilize AMD's A8-3850 APU and Radeon HD 7670 GPU, sources have told IGN, offering the combined performance of both integrated and discrete graphics processors.

According to the official product specs, the A8-3850 packs a quad-core 2.9GHz processor with an integrated graphics chip. The APU will work in tandem with the system's dedicated GPU, the HD 7670, a DirectX 11-enabled card clocked to 1GHz with up to 1GB of dedicated VRAM.
Neue Gerüchte. Das wäre nicht einmal Mittelklasse aus heutige Sicht.

Exxtreme
2012-04-04, 22:03:08
http://ie.ign.com/articles/2012/04/04/sources-detail-the-playstation-4s-processing-specs

Neue Gerüchte. Das wäre nicht einmal Mittelklasse aus heutige Sicht.
Man sollte sich einfach davon verabschieden, dass die neuen Konsolen auch nur annähernd mit dem PC mithalten können werden.

dargo
2012-04-04, 22:18:17
Na immerhin eine GPU mit DX11 Features. :D Wobei mir eine HD7670 für 2013/14 schon sehr schwach vorkommt. Aber vielleicht lässt sich das in Kombination mit der IGP HD6550D ganz gut nutzen. Allerdings kann ich mir das gerade nicht vorstellen wie das funktionieren soll. :confused: Bestimmte Aufgaben auf die IGP auslagern? CF wird wohl kaum so funktionieren. Und bedeutet dieses Auslagern nicht schon wieder hohe Latenzen?

PS: was kann man sich aber unter der HD7670 vorstellen? Ich kenne nur mindestens HD7750 bis jetzt.

Edit:
Ein Cape Verde mit nur 384 Stream-Prozessoren @1Ghz???

Tesseract
2012-04-04, 22:18:56
Solch gute Umsetzungen von MLAA und FXAA werden sich mit Sicherheit durchsetzen.
Ich hoffe, das wird auf dem PC wenigstens ordentliches SRAA sehen werden aber dazu müsste die Hersteller genauso viel Feintuning investieren.

ich hoffe mal der unsinn stirbt mit dem erscheinen der neuen konsolengenerationen wieder aus. :rolleyes:

Knuddelbearli
2012-04-04, 22:21:52
jap

Bei der letzten Konsole war eine 7900 äquivalent drinnen.

DIE Size hat sich seit damals mehr als verdoppelt und Stromverbrauch fast verdreifacht. Beides kann man in einer Konsole nicht erhöhen gegenüber damals. DIE Size muss sogar noch sinken.

Deinorius
2012-04-04, 22:23:00
Das wäre nicht einmal Mittelklasse aus heutige Sicht.


Wozu auch genau? Ich meine, das ist jetzt nun wirklich nichts Neues, dass die kommenden Konsolen leistungsmäßig im Rückstand sein werden. Da Rumgejammere wäre vor Monaten passender gewesen.
Soll die Grafik passen, hauptsache ohne Flimmern, mit aktuellem Featureset, viel viel RAM und gut ist. Wer mehr will, kann dann am PC mit höherer Auflösung 4xMSAA, SSAA usw. spielen.

basti333
2012-04-04, 22:23:28
Man sollte sich einfach davon verabschieden, dass die neuen Konsolen auch nur annähernd mit dem PC mithalten können werden.

Was im umkehrschluss auch heißen wird das der Trend zu Onboard grafik, CPUs mit weniger leistungsaufnahme etc. auch bei PCs anhalten wird. Einfach weil es für alles außers spielen mehr als ausreichend ist und immer weniger spiele High-end hardware sinnvoll ausreizen bzw. gut mit den billigeren lösungen zurecht kommen. Wird natürlich ein längerfristiger trend sein und nicht von heute auf morgen. Aber sagen wird es dauert noch 1- 2 jahre bis die konsolen auf den markt kommen und die haben dann wieder 5 - 6 jahre lebenszyklus, dann kommt das schon hin. Da wird der markt für dedizierte grafikkarten schrumpfen denke ich.

Ich persönlich sehe auch nicht so den verlust da drinne, mit den neuen konsolen wird die grafikkqualität ja nochmals ansteigen und dann wird man auf einem niveau sein mit dem man gut leben kann ohne das es ständig mehr sein muss.

boxleitnerb
2012-04-04, 22:24:52
http://ie.ign.com/articles/2012/04/04/sources-detail-the-playstation-4s-processing-specs

Neue Gerüchte. Das wäre nicht einmal Mittelklasse aus heutige Sicht.

Juhu, AFR in jeder Konsole. Wie kommt man bitte auf so eine beschissene Idee?

dargo
2012-04-04, 22:29:52
Juhu, AFR in jeder Konsole. Wie kommt man bitte auf so eine beschissene Idee?
Wie soll das denn bei unterschiedlichen GPUs funktionieren? Afaik geht das doch gar nicht. Was ist wenn man bestimmte Aufgaben wie zb. Postprocessing oder was auch immer auf die IGP auslagert? Sozusagen als Unterstützung bzw. Entlastung für die HD7670? Also im Prinzip ein ähnliches Vorgehen wie jetzt mit dem Cell?

Übrigens... grob gerechnet wäre man damit bei ca. 150W TDP.
http://geizhals.at/de/653204
http://geizhals.at/de/736952

Edit:
Ach... jetzt hab ichs kapiert. Die HD7670 soll nur eine umgelabelte HD6670 sein. Also 480 SPs @1Ghz.

30@Frames
2012-04-04, 22:30:07
Man sollte sich einfach davon verabschieden, dass die neuen Konsolen auch nur annähernd mit dem PC mithalten können werden.
Das ist sowieso abzusehen. Mit einer ~ 7770 hätte ich schon gerechnet und rechne dies immer noch.

Exxtreme
2012-04-04, 22:32:35
Das ist sowieso abzusehen. Mit einer ~ 7770 hätte ich schon gerechnet und rechne dies immer noch.
Das liegt an den Produktionskosten und am Stromverbrauch. Noch so eine 840 $-Konsole, die man dann fett subventionieren muss wird Sony nicht nochmal bringen. Die haben 3,3 Mia $ Verluste damit gemacht weil die Subvention nicht aufgegangen ist.

boxleitnerb
2012-04-04, 22:35:19
Wie soll das denn bei unterschiedlichen GPUs funktionieren? Afaik geht das doch gar nicht. Was ist wenn man bestimmte Aufgaben wie zb. Postprocessing oder was auch immer auf die IGP auslagert? Sozusagen als Unterstützung bzw. Entlastung für die HD7670? Also im Prinzip ein ähnliches Vorgehen wie jetzt mit dem Cell?

Übrigens... grob gerechnet wäre man damit bei ca. 150W TDP.
http://geizhals.at/de/653204
http://geizhals.at/de/736952

Kann ja auch ein Trinity sein. Ich glaub jetzt weniger, dass die da unterschiedliche Generationen zusammenpappen. Wäre es nicht viel sinnvoller, eine richtige CPU reinzubauen und dazu eine dedizierte Grafikkarte? Was soll die Krüppellösung, der dann gleich wieder die Bandbreite ausgeht?
Entweder getrennt oder eine APU. Aber so ein Mischmasch, na ich weiß ja nicht.

Ronny145
2012-04-04, 22:35:55
Totaler Unsinn. Teil 3 läuft in 720p mit MLAA, da flimmert wenig.

Seit wann ist nativ 720p überhaupt eine "Gurkenauflösung"!? Ist für dich alles unter 1080p Gurke?

MLAA? Gegen Flimmern hilft das jetzt aber nicht wirklich.

Solch gute Umsetzungen von MLAA und FXAA werden sich mit Sicherheit durchsetzen.
Ich hoffe, das wird auf dem PC wenigstens ordentliches SRAA sehen werden aber dazu müsste die Hersteller genauso viel Feintuning investieren.


Was einige immer mit SRAA wollen.

Zitat Jorge Jimenez:
Off the record, SRAA is too expensive and the results, for what I have seen, are not that great.

Mal sehen ob wir das überhaupt in Finalreife sehen...

http://ie.ign.com/articles/2012/04/04/sources-detail-the-playstation-4s-processing-specs

Neue Gerüchte. Das wäre nicht einmal Mittelklasse aus heutige Sicht.

Bei der CPU hätte ich jetzt auch so meine Sorgen. Die CPU bekommt man doch heute schon in x-beliebiger Simulation klein.

Deinorius
2012-04-04, 22:37:12
Juhu, AFR in jeder Konsole. Wie kommt man bitte auf so eine beschissene Idee?


Ich frage mich eher, wieso man sich nichts kreativeres einfallen lässt, als AppleTV zu vergrößern, ein Laufwerk-Slot einzubauen und dann das Playstation Logo draufzupappen. :freak:
Irgendwelche bestehenden Produkte als Vergleich anzuführen, finde ich auch immer wieder drollig.

dargo
2012-04-04, 22:39:24
Wäre es nicht viel sinnvoller, eine richtige CPU reinzubauen und dazu eine dedizierte Grafikkarte?

Wahrscheinlich ja, aber hey... wir reden hier von Sony. :biggrin:


Was soll die Krüppellösung, der dann gleich wieder die Bandbreite ausgeht?

Naja... mit 1Ghz GDDR5 hätte diese HD7670 64GB/s. Das ist immerhin fast 3x soviel wie die PS3. Die IGP hat ihre eigene Bandbreite (~30GB/s).

Tesseract
2012-04-04, 22:41:14
ich kann damit gerade auch nicht wirklich was anfangen. warum pulvern die so viele resourcen in so einen seltsamen hybriden und halsen sich damit einen haufen probleme mit load balancing usw. auf?
ich meine wenn das ding nur dazu da wäre um z.B. für den 2D/multimediabetrieb strom einzusparen indem man die zweite GPU abschaltet ok, aber das teil macht ja einen guten prozentsatz der gesamtrechenleistung und des verbrauchs aus aus und ist trotzdem so asymmetrisch, dass man beide gesondert behandeln muss.
das hört sich sehr nach Cell 2.0 an irgendwie.
wenn die xbox mit einem SoC oder einer 100%igen trennung von GPU und CPU kommt und mit einem ähnlichen TDP effizienter und leichter auszulasten für entwickler ist sehe ich irgendwie schwarz für die PS4.

30@Frames
2012-04-04, 22:44:38
Das liegt an den Produktionskosten und am Stromverbrauch. Noch so eine 840 $-Konsole, die man dann fett subventionieren muss wird Sony nicht nochmal bringen. Die haben 3,3 Mia $ Verluste damit gemacht weil die Subvention nicht aufgegangen ist.
Irgendwo und irgendwie muss Sony in der Next Gen punkten, wenn teils nicht mit der Grafik, dann mit einer neuen Steuerungskonzept? Ob Sony mit was total neuem kommt? Mit Mote/Move und die ganzen Dinger sind inzwischen ausgelutscht und wird in der nächsten Gen kaum die Anziehungskraft haben wie in dieser. Also mit was möchte Sony die nächste Konsole werben?

Edit: Nicht falsch verstehen. Sony wird und kann nicht die gleiche Kerbe einschlagen wie mit der PS3. Diese Subvention und Verluste sind größtenteils durch den Cell und Blu-ray entstanden. Nur muss Sony ihre nächste Konsole an den Man bringen. Mal sehen wie.

boxleitnerb
2012-04-04, 22:45:24
Wahrscheinlich ja, aber hey... wir reden hier von Sony. :biggrin:

Naja... mit 1Ghz GDDR5 hätte diese HD7670 64GB/s. Das ist immerhin fast 3x soviel wie die PS3. Die IGP hat ihre eigene Bandbreite (~30GB/s).

Ja, die IGP meine ich. WENN die im CF irgendwie zusammenarbeiten würden, muss sich das Gespann ja nach der langsamsten Komponente richten.

Kann doch nicht so schwer oder teuer sein da einen kleinen IBM oder Piledriver reinzubauen (Intel ist wohl zu teuer) und was in der Richtung 7850. Das wäre um Welten sinnvoller als so ein Gemurkse.

Deinorius
2012-04-04, 22:47:10
[...] und mit einem ähnlichen TDP effizienter und leichter auszulasten für entwickler ist sehe ich irgendwie schwarz für die PS4.


Sony hält die Tradition aufrecht. :D

dargo
2012-04-04, 22:49:56
Ja, die IGP meine ich. WENN die im CF irgendwie zusammenarbeiten würden, muss sich das Gespann ja nach der langsamsten Komponente richten.

Und eben deshalb glaube ich nicht an CF.


Kann doch nicht so schwer oder teuer sein da einen kleinen IBM oder Piledriver reinzubauen (Intel ist wohl zu teuer) und was in der Richtig 7850. Das wäre um Welten sinnvoller als so ein Gemurkse.
Die HD7850 hat eine TDP von 130W alleine. Ich glaube das wird (abgesehen vom Preis) der Knackpunkt sein falls Sony insgesamt in Richtung ~150W möchte.

boxleitnerb
2012-04-04, 22:55:04
Zwischen 7770 und 7850 sind gleich 60% in 1080p. 7770 ist einfach zu schwach, wenn die das Ding wieder fast ein Jahrzehnt behalten wollen.

dargo
2012-04-04, 23:00:33
Zwischen 7770 und 7850 sind gleich 60% in 1080p. 7770 ist einfach zu schwach, wenn die das Ding wieder fast ein Jahrzehnt behalten wollen.
Du musst das mal aus einem anderen Blickwinkel betrachten. Zwischen der 7850 und 7770 liegen auch über 60% TDP. OK... bei ersterer müsste man etwas wegen dem doppelten Speicher abziehen. Wenn du dir ein bestimmtes TDP und Preislimit setzen tust muss man Kompromisse eingehen. Zudem ist noch gar nicht bekannt ob 1080p als Renderauflösung überhaupt in jedem Spiel die Mindestvoraussetzung ist. Außerdem... wenn Sony bei einer PS4 bsw. 300$ ohne Subvention bzw. sehr geringer anpeilt muss diese nicht wieder unbedingt ~8 Jahre halten.

PS: beim Endkundenpreis trennen die beiden Grafikkarten auch ~65%. Die Verhältnisse passen also ganz gut.

Edit:
Ganz blöde Idee... könnte man die IGP nicht für Effektphysik-Spielereien missbrauchen? Hat AMD da was ähnliches wie NV @PhysX im Programm?

Gipsel
2012-04-04, 23:03:52
Juhu, AFR in jeder Konsole. Wie kommt man bitte auf so eine beschissene Idee?
Gar nicht, außer man gehört zu irgendwelchen Leuten, die unbedingt Gerüchte in die Welt setzen wollen? :rolleyes:

boxleitnerb
2012-04-04, 23:08:14
Dann klär uns doch mal auf, was der Sinn dahinter sein soll, zwei GPUs zusammenzupappen, statt eine stärkere mit deutlich mehr Bandbreite für sich allein zu nehmen.

Deinorius
2012-04-04, 23:21:28
Zudem ist noch gar nicht bekannt ob 1080p als Renderauflösung überhaupt in jedem Spiel die Mindestvoraussetzung ist.


Ernsthaft? Die Frage hab ich schon mehr als einmal beantwortet.

Dann klär uns doch mal auf, was der Sinn dahinter sein soll, zwei GPUs zusammenzupappen, statt eine stärkere mit deutlich mehr Bandbreite für sich allein zu nehmen.


Wieso sollte er? Er hat dir doch im Grunde zugestimmt. :|

boxleitnerb
2012-04-04, 23:22:56
Ich hab das genaue Gegenteil verstanden, nämlich dass es kein Hybrid-CF gibt und es eine Schnapsidee wäre, das zu vermuten, wie ich es getan habe :)

Deinorius
2012-04-04, 23:26:13
Und genau das meint er auch, kein Hybrid-CF, überhaupt kein CF in irgendeiner Form. Bei vgz247.com stand sogar extra dort, dass es kein CF/SLI (sogar SLI haben die erwähnt!) in der Form sein wird.

Man muss nicht jeden Schmarrn im Internet glauben (besonders, wenn man es mit Produkten vergleicht, die in dem Zusammenhang Blödsinn sind).

dargo
2012-04-04, 23:46:39
Ernsthaft? Die Frage hab ich schon mehr als einmal beantwortet.

Wie meinen?

Deinorius
2012-04-04, 23:50:45
Eine Mindestauflösung von 1080p halte ich für absolut unlogisch, zumal die Entscheidung bei den Entwicklern liegt. Wenn ich mich nicht irre, hatte doch nur M$ eine Mindestauflösung und diese haben sie nach einer Weile entfernt. Keine Ahnung, ob überhaupt eine Mindestauflösung kommen wird, aber wenn liegt diese eher bei 720p und sicher nicht bei 1080p.

Coda
2012-04-05, 00:00:34
Gar nicht, außer man gehört zu irgendwelchen Leuten, die unbedingt Gerüchte in die Welt setzen wollen? :rolleyes:
Mal abgesehen davon, dass niemand auf die Idee kommen würde AFR einzusetzen, wenn man volle Kontrolle über die Hardware hat.

Tesseract
2012-04-05, 00:16:07
Mal abgesehen davon, dass niemand auf die Idee kommen würde AFR einzusetzen, wenn man volle Kontrolle über die Hardware hat.
amd hat volle kontrolle über die hardware und kam auch auf die idee. :D

robbitop
2012-04-05, 08:38:47
1. Sind das nur Gerüchte. Deren Glaubwürdigkeit ist ersteinmal in Zweifel zu ziehen. Der Launch der neuen Konsolen und der Start der Massenproduktion sind noch relativ weit entfernt. In > 1,5 Jahren soll es Gerüchten zu Folge erst losgehen. Vieleicht auch später. Wie wahrscheintlich ist es, dass das Gerücht wahr ist?
2. Wer nimmt dann noch einen Llano wenn er dann auch Trinity oder besser Kaveri haben kann. (bzw Steamrollerkerne) Kaveri (oder einen ähnlichen SoC), kann man dank Verzicht auf SOI auch an vielen anderen Foundries fertigen
3. Wenn es so ähnlich kommt (also APU + GPU) - was absolut ineffizient ist, da man mit Verzicht auf die APU die GPU bei gleicher Größe leistungsfähiger machen kann - dann nutzt man ganz sicher kein AFR.
Man könnte Tiling machen, man könnte jede GPU unterschiedliche Objekte rendern lassen, man könnte die schwache GPU den Z-First Pass und ggf. das Post Processing machen lassen, während die stärkere das eigentliche Rendering übernimmt. Man könnte die APU auch mit Physik füttern (vieleicht auch mehr als nur Effektphysik, denn diese ist ja nicht über ein lahmes PEG Interface angebunden).

Botcruscher
2012-04-05, 09:23:38
Trotzdem bleibt IGP+Graka ineffizient und das Problem Speicherinterface bleibt. Es gibt nur zwei Möglichkeiten. Moderate Leistung mit IGP oder ordentliche Leistung mit Grafikkarte.

megachip800
2012-04-05, 10:24:08
Wahrscheinlich ja, aber hey... wir reden hier von Sony. :biggrin:


Naja... mit 1Ghz GDDR5 hätte diese HD7670 64GB/s. Das ist immerhin fast 3x soviel wie die PS3. Die IGP hat ihre eigene Bandbreite (~30GB/s).

64 Gbyte und 128 Bit SI kann ich mir nicht vorstellen das wäre ja dann schon der erste Flaschenhals , für ein Lebenszyklus von 5-7 Jahren und der Option auch 4K Auflösung zu unterstützen ist das zu wenig ,
selbst Laptop GPUs haben mittlerweile 256 Bit ebenso wie die 6970m in meinem Imac und da kommt Sony 2013 mit einer Konsole dessen GPU-Bus nur 128 Bit breit ist?? Also ich hoffe das Sony entweder einen großen eDram Videopuffer in die GPU integriert oder moderne Anbindungen (Interposer) verwendet um größere Bandbreiten zu erzielen. Es kann doch nicht sein das man von Generation zu Generation bei einer Busbreite
verhaart.

robbitop
2012-04-05, 10:31:43
Busbreite ist teuer, da man sie nicht shrinken kann. Genau deswegen nutzt man bei Konsolen gern eDRAM auf dem Package. Den kann man Shrinken und die OnPackageverbindungen sind bezahlbar. Das federt den fragmentiertesten und bandbreitenintensivsten Verkehr ab - nämlich den Framebuffer (ggf. Buffer für Defered Shading).
Die 256 bit Notebook Grafikkarten sind aber auch erst ab einer gewissen Preisklasse drin. Kein Konsolenrevier (vom Preis).

][immy
2012-04-05, 10:44:24
64 Gbyte und 128 Bit SI kann ich mir nicht vorstellen das wäre ja dann schon der erste Flaschenhals , für ein Lebenszyklus von 5-7 Jahren und der Option auch 4K Auflösung zu unterstützen ist das zu wenig ,
selbst Laptop GPUs haben mittlerweile 256 Bit ebenso wie die 6970m in meinem Imac und da kommt Sony 2013 mit einer Konsole dessen GPU-Bus nur 128 Bit breit ist?? Also ich hoffe das Sony entweder einen großen eDram Videopuffer in die GPU integriert oder moderne Anbindungen (Interposer) verwendet um größere Bandbreiten zu erzielen. Es kann doch nicht sein das man von Generation zu Generation bei einer Busbreite
verhaart.
4k auflösung wirst du bei der nächsten Konsolengeneration vergeblich suchen. Das höchste der gefühle wäre 4k per integrierten scaler (hoffentlich machen das diesmal auhc alle mit dem scaler).

ein 256 bit speicherinterface ware zwar schön, aber wie robbitop schon schrieb, ist das zu teuer.

was die gerüchte der APU + GPU angeht, ist das doch schwer vorstellbar. vermutlich wird es wenn dann eher so sein, das die IGP gegen die GPU ausgetauscht wird und auf einen chip gepresst wird. aber noch eine extra igp mitzuliefern macht keinen sinn.
aber ich kann auch schon nicht glauben, das es x86er Kerne werden sollen. selbst die amd chips sind in einer konsole so eigentlich viel zu teuer. zumindest wenn man sich an etwa $300 bei start halten will.
btw müsste ein intel chip hier viel günstiger sein (wenn intel es selbst zulässt) aufgrund des kleineren chips und den damit verbundenen geringeren fertigungskosten.

pixelguy
2012-04-05, 10:50:00
Wieso gehen eigentlich so viele von einem Startpreis von $300 aus?
Ich wäre mir nicht mal sicher, dass die Wii U diesen Preis halten kann.

Selbst das kleinste iPad kostet $499 und wird gekauft wie verrückt.

Meiner Meinung nach ist (zumindest für MS und Sony) ein Startpreis von ca. $500 realistisch.

@][immy: Oder meintest du die Herstellungskosten? Selbst die werden meiner Meinung nach höher sein.

Deinorius
2012-04-05, 10:53:46
[...] und der Option auch 4K Auflösung zu unterstützen ist das zu wenig ,


Diese Angabe zur 4K Auflösung gilt wohl eher der Ausgabe und nicht beim Rendering. Kein Entwickler wird diese Auflösung wirklich nutzen, selbst wenn die Leistung ausreichen würde (bei kleineren Independent-Spielen z.B.).

selbst Laptop GPUs haben mittlerweile 256 Bit ebenso wie die 6970m in meinem Imac


Und wieviel hats gekostet? :rolleyes:

Es kann doch nicht sein das man von Generation zu Generation bei einer Busbreite verhaart.


Vergleiche das mal im PC-Sektor in der selben Preisregion und dir wird hoffentlich etwas auffallen. Nämlich, dass dort nichts anderes gemacht wird.

Selbst das kleinste iPad kostet $499 und wird gekauft wie verrückt.


Nintendo ist so einiges, aber nicht Apple.

pixelguy
2012-04-05, 11:36:00
Nintendo ist ja auch billiger :)

Ich meinte damit auch nur, dass der Markt einen Preis von 499€ durchaus akzeptieren würde.
Zumindest am Anfang.

][immy
2012-04-05, 11:36:04
@][immy: Oder meintest du die Herstellungskosten? Selbst die werden meiner Meinung nach höher sein.

ich meinte damit, das diesmal wohl niemand im größeren Umfang subventionieren will. Wenn am Ende ein verkaufspreis von $500 rauskommt, dürfte die Hardware allerhöchstens $300 kosten und wäre dann wohl schon zu teuer (Steuern abziehen, versand, der handel will auch verdienen, Entwicklungskosten, Marketing, ... das alles muss mit dem Preis ja auch gedeckt sein).
Wenn wir bei einem Startpreis von $300 landen, dann kannst du dir ja mal ungefähr ausrechnen, wie hoch die Herstellungskosten dann insgesamt sein dürfen.

Zudem, selbst wenn der Startpreis ein wenig erhöht ist und damit die Kosten vielleicht deckt, muss damit gerechnet werden, das der Preis eventuell schnell gesenkt werden muss um die Verkäufe anzukurbeln, bzw. zumindest einen Vorteil gegenüber der Konkurrenz zu haben.

robbitop
2012-04-05, 12:11:14
Ich denke mal, dass Start UVPs zwischem 299 - 399 $ angesetzt werden. Darüber halte ich für unwahrscheinlich.

Wenn ich Sony oder MS wäre und Gewinnabsichten hätte, würde ich mir einen Custom SoC bestellen. Keine Fläche für L3 Cache oder nicht genutztes I/O verschwenden. 2-4 schnelle OoO Cores (also IBM / AMD - Intel fällt raus da zu teuer und keine Fremdfertigung) und eine flächeneffiziente aber "fette" GPU (bezogen auf Trinity oder Llano) in den SoC. Die GPU sollte entschlackt werden mit allem, was die Konsole nicht braucht und vieleicht passen dann 800-1100 SP (AMD) rein. Auf das gleiche Package würde ich eDRAM packen. 20...64 MiB. Dazu ein 128 Bit GDDR5 Interface mit bezahlbarem Speicher.
Das wäre vermutlich in Massen immer noch recht kosteneffizient und trotzdem ein brauchbarer Sprung. Sowas sollte mit ~300 sqmm doch machbar sein. Gefertigt wird beim günstigsten Anbieter, der die Spezifikation erfüllt und liefern kann. 28 nm.

Aber leider bin ich nicht MS und Sony. :(

Coda
2012-04-05, 12:21:48
Die GPU sollte entschlackt werden mit allem, was die Konsole nicht braucht
Was soll das denn so sein? Außer DP, was man sicher weglässt, fällt mir da nichts ein.

megachip800
2012-04-05, 12:36:43
Wo steht geschrieben das die neuen Konsolen von MS und Sony nur 300€ kosten werden?? 490-600€ wird es werden und soll es auch , der Markt bietet genug Spielräume für High End Produkte . Entscheidend ist wie sich die Konsolen längerfristig am Markt etablieren werden und da ist Hardwareleistung gefragt. In
anderen Branchen funktioniert das doch auch , warum soll man sich ausgerechnet hier mit Mittelmäßigkeit zufrieden geben? Der Markt wird sich dann spalten in Lowend und Highend-Konsolen.

Busbreite ist teuer , aber doch nicht mehr so wie 2005 oder 1995? Und 64Gbyte/s sind wirklich nicht viel im Hinblick auf die Anforderungen zukünftiger Nextgen Spiele.

@Deinorius
"Vergleiche das mal im PC-Sektor in der selben Preisregion und dir wird hoffentlich etwas auffallen. Nämlich, dass dort nichts anderes gemacht wird"

Und warum hat es früher deutliche Steigerungen gegeben? Ps1 133Mbyte /s vs Ps2 3.2 Gbyte/s (48Gbyte/s beim Framebuffer 2048Bit) eine deutliche Steigerung. Das man heute bei den Taktfrequenzen an einer Grenze stößt ist nachvollziehbar aber warum beim Bussystem?

Coda
2012-04-05, 12:43:12
amd hat volle kontrolle über die hardware und kam auch auf die idee. :D
Die Software hat auf dem PC keine volle Kontrolle über die Hardware.

dargo
2012-04-05, 12:49:07
64 Gbyte und 128 Bit SI kann ich mir nicht vorstellen das wäre ja dann schon der erste Flaschenhals , für ein Lebenszyklus von 5-7 Jahren und der Option auch 4K Auflösung zu unterstützen ist das zu wenig

Du übersiehst hier einiges. Die 64GB/s sollten nur ein mögliches Beispiel darstellen in Verbindung mit einem 128Bit SI und 1Ghz Speichertakt. Zudem hat die IGP nochmal 30GB/s. Sind als 94GB/s (wobei die IGP sich die Bandbreite mit der CPU teilen muss). Sony könnte aber auch auf die Schnappsidee kommen und der GPU 1,5Ghz Speichertakt spendieren womit man bei der externen Graka schon bei 96GB/s alleine wäre. Und wenn man es auf die Spitze treiben will wären in 1-2 Jahren auch 112GB/s mit 1750Mhz GDDR5 drin. Das alles ist aber totaler Overkill bei einer so schwachen GPU.

Und was willst du mit deiner 4K Auflösung? :| Wir können froh sein wenn ein paar Spiele erscheinen die überhaupt in Full-HD rendern. 4k ist nur theoretischer Natur. Oder man missbraucht das wieder fürs Marketing. 4K hört sich für den Laien ja gut an. ;D


selbst Laptop GPUs haben mittlerweile 256 Bit ebenso wie die 6970m in meinem Imac und da kommt Sony 2013 mit einer Konsole dessen GPU-Bus nur 128 Bit breit ist??
Also ich hoffe das Sony entweder einen großen eDram Videopuffer in die GPU integriert oder moderne Anbindungen (Interposer) verwendet um größere Bandbreiten zu erzielen. Es kann doch nicht sein das man von Generation zu Generation bei einer Busbreite
verhaart.

Die 6970m hat doch auch nur 115GB/s Bandbreite. Ich verstehe nicht warum du dich beim SI so versteifst wo die Bandbreite aus dem SI und dem Speichertakt resultiert.


Und wieviel hats gekostet? :rolleyes:

Das kommt noch dazu. :D

gnomi
2012-04-05, 13:03:58
Die immer länger am Markt bleibenden aktuellen Konsolen lassen für mich auf einiges schließen.

a) man wartet, bis zukünftige Hardware sich auch einigermaßen absetzt und bei akzeptablem technischen Fortschritt bezahlbar ist. (4 facher Speicher, 3 fache CPU Leistung, 6 fache GPU Leistung - so etwas in der Art)
b) man will kein Zuschussgeschäft bei der Hardware und einen vertretbaren Anschaffungspreis von nicht über 400 Euro.
c) der Aufwand hinter dem ganzen Content soll nicht derart explodieren wie in der letzten Generation

Außerdem rechne ich damit, daß wir durchgängig Produktaktivierungen sehen werden.
Im Falle der nächsten XBox kann ich mir auch sehr gut Abwärtskompatibilität und integriertes Kinect 2.0 vorstellen.
Neue Konsolen stelle ich mir quasi wie Midrange PC's von heute vor.
DX 11, 1080P, mehr Speicher, AA & AF. Ältere Sachen laufen dann aufgehübscht mit 60 fps.
Insofern alles im Grunde genommen ziemlich unspektakulär...

Kira
2012-04-05, 13:39:45
Die immer länger am Markt bleibenden aktuellen Konsolen lassen für mich auf einiges schließen.

a) man wartet, bis zukünftige Hardware sich auch einigermaßen absetzt und bei akzeptablem technischen Fortschritt bezahlbar ist. (4 facher Speicher, 3 fache CPU Leistung, 6 fache GPU Leistung - so etwas in der Art)


das wäre doch vollkommen ausreichend? ^^

für jemanden wie mich, der sich nicht so sehr in die Materie begibt, wie ihr... wären einfach 1080p bei allen Spielen Pflicht und wenn die Grafik sich so steigert wie von PS2 auf PS3, dann würde mir das schon fast genügen... ob dafür nun 3 oder 6 fache Leistung benötigt wird... wayne. Wenn man bedenkt, was man aus einer 5 oder 6(?) Jahre alten Konsole rausholen kann, ist das schon erstaunlich.

Watson007
2012-04-05, 13:44:18
Wo steht geschrieben das die neuen Konsolen von MS und Sony nur 300€ kosten werden?? 490-600€ wird es werden und soll es auch , der Markt bietet genug Spielräume für High End Produkte.

490-600 Euro?? unwahrscheinlich, die neuen Konsolen werden schneller rentabel werden müssen, und das bedeutet geringere Verkaufspreise damit entsprechend hohe Stückzahlen bereits zu Beginn generiert werden können.

ich für meinen Teil tippe auf 400-450 Euro Verkaufspreis, maximal aber 499 Euro, wobei das schon das maximal vertretbare wäre - ich tippe aber eher auf 399 Euro.

lasst doch endlich mal von euren Wunschträumen ab, die nächsten Konsolen werden kein Highend mehr sein^^
die PS3 hat zu Beginn 599 Euro gekostet und das ist einer der Gründe das sie länger gebraucht hat um sich durchzusetzen, den Fehler wird Sony sicher nächstes Mal nicht machen.

Deinorius
2012-04-05, 13:53:59
Das wäre vermutlich in Massen immer noch recht kosteneffizient und trotzdem ein brauchbarer Sprung. Sowas sollte mit ~300 sqmm doch machbar sein. Gefertigt wird beim günstigsten Anbieter, der die Spezifikation erfüllt und liefern kann. 28 nm.

Aber leider bin ich nicht MS und Sony. :(


Ich würde sogar sagen, dass man auch eine Größe von bis zu 400 sqmm anstreben könnte. Nicht zu klein, als dass die Leistung zu gering wäre, aber auch nicht zu groß, als dass die Kosten explodieren würden. Vielleicht sogar mit Redundanz.

Aber ansonsten gilt dein letzter Satz. :(

Und warum hat es früher deutliche Steigerungen gegeben? Ps1 133Mbyte /s vs Ps2 3.2 Gbyte/s (48Gbyte/s beim Framebuffer 2048Bit) eine deutliche Steigerung. Das man heute bei den Taktfrequenzen an einer Grenze stößt ist nachvollziehbar aber warum beim Bussystem?


:facepalm:

Oida!

robbitop
2012-04-05, 14:00:46
Was soll das denn so sein? Außer DP, was man sicher weglässt, fällt mir da nichts ein.
Der ganze 2D Kram, der drin ist. Der ganze Kram für Multimonitor. Und vieleicht braucht man nicht alles, was DX11 fordert.

del_4901
2012-04-05, 14:05:38
Der ganze 2D Kram, der drin ist. Der ganze Kram für Multimonitor. Und vieleicht braucht man nicht alles, was DX11 fordert.
Jetzt fang doch nicht an soviel Fläche einzuspaaren, das die doppelte Anzahl von Compute Units platz finden wuerde. Mal abgesehen davon das 2D Gui auch Morgen noch sinnvoll sein kann und Multimon bestimmt the 'Next Big Thing' wird.

AnarchX
2012-04-05, 14:07:43
Gerade für Multi-Monitor und Echtzeit-Encoding/Decoding kann man durchaus interessante Anwendungen entwickeln.
Später nutzt man halt eine Cost-Down-Vita mit schnellerem WLAN als Controller.

robbitop
2012-04-05, 14:08:27
Ich war erstaunt, wie viel C1 ggü. R580 an Transistoren eingespart hat bei gleicher Menge an Ausführungsressourcen. Offenbar kann man bei Konsolen Dinge rausnehmen, die dort nicht benötigt werden. Wie es mit heutigen Designs ist, weiß ich leider nicht.

Gerade für Multi-Monitor und Echtzeit-Encoding/Decoding kann man durchaus interessante Anwendungen entwickeln.
Später nutzt man halt eine Cost-Down-Vita mit schnellerem WLAN als Controller.
Ist in der Tat angekündigt. Aber wird floppen. Ist mal wieder so ein blödes "me too" Feature von Sony. Das hat schon beim Sixaxis nicht geklappt. Die Vita ist halt nicht bei der PS4 dabei - der Tabletcontroller hingegen bei jeder WiiU.

Lightning
2012-04-05, 14:09:08
für jemanden wie mich, der sich nicht so sehr in die Materie begibt, wie ihr... wären einfach 1080p bei allen Spielen Pflicht und wenn die Grafik sich so steigert wie von PS2 auf PS3, dann würde mir das schon fast genügen... ob dafür nun 3 oder 6 fache Leistung benötigt wird... wayne.

Wenn dir ein Sprung wie der zwischen PS2 und PS3 nur fast genügen würde, wirst du vermutlich enttäuscht werden. Das war noch eine Größenordnung über dem 3- bis 6-fachen. So etwas wieder zu erreichen wird sehr schwer, oder zumindest entsprechend (unrealistisch) teuer. Ich würde die Erwartungen daher lieber nicht zu hoch schrauben, wenn man nicht enttäuscht werden will.

Deinorius
2012-04-05, 14:09:33
Mal abgesehen davon das 2D Gui auch Morgen noch sinnvoll sein kann und Multimon bestimmt the 'Next Big Thing' wird.


Ersteres dürfte als 3D GUI peppiger wirken und letzteres... Ähm, stell dir mal vor, der Mainstream-User stellt sich zwei TVs ins Zimmer. Geglückt? Nein? Mir auch nicht. ;)

AnarchX
2012-04-05, 14:10:33
Ich war erstaunt, wie viel C1 ggü. R580 an Transistoren eingespart hat bei gleicher Menge an Ausführungsressourcen. Offenbar kann man bei Konsolen Dinge rausnehmen, die dort nicht benötigt werden. Wie es mit heutigen Designs ist, weiß ich leider nicht.


C1 war aber kein reduzierter R580, sondern eine Weiterentwicklung vom R400, der eben noch nicht alle Features besaß.

Wirklich großes Einsparpotential sollte imo hier nicht geben, zumal man hier unnötige RnD-Kosten erzeugen würde.



Ist in der Tat angekündigt. Aber wird floppen. Ist mal wieder so ein blödes "me too" Feature von Sony. Das hat schon beim Sixaxis nicht geklappt. Die Vita ist halt nicht bei der PS4 dabei - der Tabletcontroller hingegen bei jeder WiiU.
Müsste man halt ein Bundle bieten, bei dem die Vita rechnerisch ~100€ günstiger ist.

robbitop
2012-04-05, 14:53:24
C1 war aber kein reduzierter R580, sondern eine Weiterentwicklung vom R400, der eben noch nicht alle Features besaß.

Als wenn ich das nicht wüßte. Aber von welchem Design stammt R520/580 ab? Vom R400.



Wirklich großes Einsparpotential sollte imo hier nicht geben, zumal man hier unnötige RnD-Kosten erzeugen würde.
Naja auf 80 Mio Einheiten gesehen sind die RnD Kosten sicher vertretbar.



Müsste man halt ein Bundle bieten, bei dem die Vita rechnerisch ~100€ günstiger ist.
Setzt sich nicht durch. War schon immer so. Nur was dabei ist, setzt sich durch. Gehe ich jede Wette drauf ein.

Tesseract
2012-04-05, 14:56:38
Die Software hat auf dem PC keine volle Kontrolle über die Hardware.
über was hat der treiber denn keine kontrolle?

Coda
2012-04-05, 15:06:32
Die Software auf Windows sieht immer nur ein Device. Wenn man die GPUs selbst ansprechen würde wären natürlich wesentlich bessere Resultate möglich als das was der Treiber ohne die Anwendung verändern zu können machen kann.

Was ist daran so schwer zu verstehen?

Als wenn ich das nicht wüßte. Aber von welchem Design stammt R520/580 ab? Vom R400.
Nein, tun sie nicht. R600 stammt vom R400 ab, R520 und R580 gehören noch zur R300-Linie.

Tesseract
2012-04-05, 15:30:29
ich meine nicht die software, die die API verwendet sondern wie der treiber die aufrufe der API auf der hardware verarbeitet.

del_4901
2012-04-05, 15:39:47
ich meine nicht die software, die die API verwendet sondern wie der treiber die aufrufe der API auf der hardware verarbeitet.
Und genau diese zusaetzliche Abstraktion kostet Leistung.

Tesseract
2012-04-05, 15:46:25
Und genau diese zusaetzliche Abstraktion kostet Leistung.
das ist klar. mir ging es eigentlich darum, dass es viele andere möglichkeiten gäbe wie man multi-GPU nutzen könnte abgesehen von AFR - ohne an der API etwas zu ändern.

del_4901
2012-04-05, 15:59:26
das ist klar. mir ging es eigentlich darum, dass es viele andere möglichkeiten gäbe wie man multi-GPU nutzen könnte abgesehen von AFR - ohne an der API etwas zu ändern.
Die API weis aber nichts darüber was die Software grad macht, da sind schon zu viele Informationen verloren gegangen. Der Softwarentwickler weis das schon, und kann sich dementsprechend drauf einstellen.

dildo4u
2012-04-05, 17:18:40
Das Hybridcrossfire macht für ein Dev Kit sinn,genau wie das PS3 Dev Kit ein 6800 SLI hatte um die 7900 zu simulieren.Wenn Sony auf ein AMD SOC setzt wird's ne Trinity Desktop Version sein,die dann auf den Speed des IGP+7670 kommt.

AnarchX
2012-04-05, 17:21:59
Das Endresultat dürfte wohl dann einer HD 7770 entsprechen.

dildo4u
2012-04-05, 17:30:58
Leider steht hier keine Auflösung kein Plan bei welcher single Karte man landet.Aber der Sprung zur PS3 wäre deutlich,(Dirt 3 z.b 82fps 2.7x)da sie wohl kaum mit weniger als 1280*720p testen.

http://www.computerbase.de/artikel/grafikkarten/2011/test-llano-grafikleistung/13/

Macht Sinn wenn man nicht über 350-400$ einsteigen will.Und vorallem nicht mehr stark subventionieren will.

dargo
2012-04-05, 18:39:14
Aber der Sprung zur PS3 wäre deutlich,(Dirt 3 z.b 82fps 2.7x)da sie wohl kaum mit weniger als 1280*720p testen.

http://www.computerbase.de/artikel/grafikkarten/2011/test-llano-grafikleistung/13/

So ein Quervergleich macht gar keinen Sinn (auf den Faktor 2,7 bezogen). Die PC-Version bietet viel höhere Details die natürlich auch Leistung fressen. Da wird viel mehr bei rumkommen als nur Faktor 2,7.

Aber interessant zu sehen, dass so ein CF doch funktioniert. Ich kannte den Link noch gar nicht.

Edit:
Das klingt dann aber doch übel.
AMD setzt beim CrossFire-Modus weiterhin auf Alternate Frame Rendering, kurz AFR. Jedoch wurde AFR für Llano überarbeitet. So rendern nun beide GPUs nicht mehr gleichzeitig an jeweils einem Bild und geben dieses nacheinander an einen Monitor weiter. Stattdessen rendert die GPU im Prozessor weiterhin an einem Bild, die diskrete Grafikkarte aber gleich an drei Bildern! So möchte AMD die integrierte GPU entlasten, vor allem wenn diese mit einer deutlich schnelleren Radeon HD 6670 kombiniert ist. Je nach eingesetzter Grafik kann sich das Verhältnis von 1:3 durchaus auf 1:2 ändern. Das lässt in der Theorie allerdings für Mikroruckler schlimmes erahnen, was wir im übernächsten Abschnitt gesondert prüfen werden.
http://www.computerbase.de/artikel/grafikkarten/2011/test-llano-grafikleistung/14/

Ailuros
2012-04-05, 19:35:11
Nein, tun sie nicht. R600 stammt vom R400 ab, R520 und R580 gehören noch zur R300-Linie.

Eben. Sobald es ATI klar wurde dass der Ur-R400 zu stark eine Gurke fuer desktop gewesen waere, haben sie ihre roadmap ganz anders abgezweigt. Xenos in der XBox360 war zwar IMHO die bestmoegliche GPU dieser Konsolen-Generation aber eine Variante von dem Ding im desktop waere wirklich ziemlich schwach gewesen und R5x0 waren diesbezueglich um einiges weiter vorne. Zwischen non-USC und USC gibt es schon einen gewaltigen Unterschied und R4x0 bzw. R5x0 desktop waren eben NICHT irgendwelche Ur-R400 Ableger mit getrennten Einheiten.

Zwar besteht eine sehr grosse Chance dass Xbox und PS-next mit SoCs ankommen werden, aber dieses sollte auch nicht unbedingt heissen dass es keineswegs spezielle Entwicklungen fuer Konsolen sein werden.

dildo4u
2012-04-05, 19:57:06
So ein Quervergleich macht gar keinen Sinn (auf den Faktor 2,7 bezogen). Die PC-Version bietet viel höhere Details die natürlich auch Leistung fressen. Da wird viel mehr bei rumkommen als nur Faktor 2,7.

Aber interessant zu sehen, dass so ein CF doch funktioniert. Ich kannte den Link noch gar nicht.

Edit:
Das klingt dann aber doch übel.

http://www.computerbase.de/artikel/grafikkarten/2011/test-llano-grafikleistung/14/
Wie gesagt CF wird nur für das Devkit genutzt,wenn die PS4 erscheint sollte eigentlich schon die 3 APU Generation mit GCN Grafik am Start sein.(Kaveri)

1050 GFlops laut AMD,zwischen 7750 und 7770.

http://img850.imageshack.us/img850/5059/kaverislidetualp.png

http://phx.corporate-ir.net/External.File?item=UGFyZW50SUQ9MTI1MTM5fENoaWxkSUQ9LTF8VHlwZT0z&t=1

http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7770-und-hd-7750/#abschnitt_technische_eckdaten

Dürfe hinhauen selbst wenn sich die APU von Januar wieder auf den Sommer 2013 verschiebt,vor November 2013 erwarte ich die PS4 nicht.

dargo
2012-04-05, 20:22:05
Aber warum nimmt man nicht gleich eine HD7770 für das Devkit? Das verstehe ich nicht. Wobei... die Meldung kann natürlich nur ein Gerücht sein und nicht der Tatsachen entsprechen.

dildo4u
2012-04-05, 20:30:43
Aber warum nimmt man nicht gleich eine HD7770 für das Devkit?
Weils die noch nicht so lange wie die erste APU gibt,es gibt oft mehrere Devkit Versionen vor dem Launch also möglich das es noch mal geupdatet wird.Die wissen von den High-End PS3 Game's,das man um 3 Jahre einplanen muss,wenn man von vorne anfängt also z.b nicht einfach ne alte Engine übernimmt.

dargo
2012-04-05, 20:33:49
Ok... das macht Sinn.

Ailuros
2012-04-05, 20:55:54
http://galyonkin.com/2012/04/03/govoryat-chto-ps4-budet-na-cell-i-nvidia-kepler/

Hmmm....sehr komisch :rolleyes:

Blediator16
2012-04-05, 21:22:07
http://galyonkin.com/2012/04/03/govoryat-chto-ps4-budet-na-cell-i-nvidia-kepler/

Hmmm....sehr komisch :rolleyes:

He said that the PS4 will be CPU based on the Cell - perhaps a new version


We were told today that Crytek was scaling its tech on the assumption that PS4 was going to be using a 24-core Cell processor as opposed to the eight-core unit in PS3. The studio was forced to halt development and start afresh when it was informed PlayStation 4 won’t be using Cell at all.

Quelle:http://www.vg247.com/2012/04/02/playstation-4-sony-confident-of-pre-xbox-720-release/#.T3nEBuliYj8.twitter
;D

Ailuros
2012-04-05, 21:34:09
Quelle:http://www.vg247.com/2012/04/02/playstation-4-sony-confident-of-pre-xbox-720-release/#.T3nEBuliYj8.twitter
;D

Dazu brauch ich keine zusaetzliche Quellen; dass dumme ist nur dass Sergey normalerweise sehr gut informiert ist :rolleyes:

C.D.B.
2012-04-06, 10:52:20
Was manche (unwissende) Redakteure für einen Unsinn daherlabern ... mußte bei der Meldung (http://de.nachrichten.yahoo.com/blogs/total-digital/ger%C3%BCchte-um-ps4-sony-und-der-kreis-des-164313481.html) wirklich lachen ... "wegweisend" soll die PS4 also sein! Und das mit Low-Cost-Grafikpower :rolleyes: Aber 4096 x 2160 klingen für den DAU wohl zu geil. ;D

robbitop
2012-04-06, 11:15:16
Nein, tun sie nicht. R600 stammt vom R400 ab, R520 und R580 gehören noch zur R300-Linie.
Das sah Baumann etwas anders. Seine Aussage war, dass einiges vom R400 einfloss. Da gab es mal ein von ihm erstelltes Diagramm.

Aber um so besser das ganze. C1 gehört nicht mehr zur alten Linie und verbraucht trotzdem weniger Transistoren bei gleicher Ausführungsanzahl und höherem Featureset als R580.

Coda
2012-04-06, 11:50:41
Ich war erstaunt, wie viel C1 ggü. R580 an Transistoren eingespart hat bei gleicher Menge an Ausführungsressourcen. Offenbar kann man bei Konsolen Dinge rausnehmen, die dort nicht benötigt werden. Wie es mit heutigen Designs ist, weiß ich leider nicht.
Err, dir ist aber schon klar, dass R580 dedizierte Vertex Shader und ROPs (inkl. Hier-Z etc.) hat und C1 nicht?

dargo
2012-04-06, 12:57:30
Was manche (unwissende) Redakteure für einen Unsinn daherlabern ... mußte bei der Meldung (http://de.nachrichten.yahoo.com/blogs/total-digital/ger%C3%BCchte-um-ps4-sony-und-der-kreis-des-164313481.html) wirklich lachen ... "wegweisend" soll die PS4 also sein! Und das mit Low-Cost-Grafikpower :rolleyes: Aber 4096 x 2160 klingen für den DAU wohl zu geil. ;D
Das ist so geil. ;D
Bilder könnten damit in einer Auflösung von 4096 x 2160 Pixeln angezeigt werden. Das stellt selbst Hochleistungs-HDTV-Geräte in den Schatten.

Bald laufen alle Amok weil die Bildschirme zu wenig hergeben. ;D

Nakai
2012-04-06, 14:08:23
Mhh, die PS4 scheint mittlerweile ziemlich gut skizziert zu sein. Die Frage bleibt aber, um wieviel stärker man zu den AMD Standarddesktopmodellen sein will.

Grafikleistung schätze ich mal auf das Doppelte ein, was AMD als APU für 2013 geplant hat.
Von der Prozessorseite wirds schwieriger, sieht aber stark nach Kaveri aus.

Wie gesagt CF wird nur für das Devkit genutzt,wenn die PS4 erscheint sollte eigentlich schon die 3 APU Generation mit GCN Grafik am Start sein.(Kaveri)

Ist GCN wirklich sicher? Kaveri sollte ja GCN haben.

Falls man auf eine stark verbesserte APU setzt, dann muss man einige Apskete überdenken. Vor allem eine gute Speicheranbindung ist Pflicht. 256Bit sollten es mindestens sein oder man verfolgt den Ansatz mit StackedRAM oder dem SiliconInterposer.

dargo
2012-04-06, 14:12:47
Vor allem eine gute Speicheranbindung ist Pflicht.
Inwiefern? Die Speicheranbindung bzw. die daraus resultierende Bandbreite ist in erster Linie von der geplanten Rohleistung abhängig. Was willst du mit sehr hoher Speicheranbindung bei mickriger Rohleistung?

Coda
2012-04-06, 14:15:41
256Bit sollten es mindestens sein oder man verfolgt den Ansatz mit StackedRAM oder dem SiliconInterposer.
Schon die Xbox 360 hatte eDRAM.

Nakai
2012-04-06, 14:21:28
Inwiefern? Die Speicheranbindung bzw. die daraus resultierende Bandbreite ist in erster Linie von der geplanten Rohleistung abhängig. Was willst du mit sehr hoher Speicheranbindung bei mickriger Rohleistung?


Mhh, ich erwarte zwischen 768 bis 1024SPs. Die HD7770 hat auch nur ein 128Bit SI, aber das teilt man sich nicht mit irgendwelchen CPU-Modulen.

Schon die Xbox 360 hatte eDRAM.

Ich sehe eDRAM nicht so sehr als geeignete Wahl, um die Bandbreite irgendwie zu steigern, an. Bei der ersten Xbox360 war der eDRAM auch extern gelagert, eben weil es rein her von der Fertigung nicht trivial ist(vor allem auch wegen den zusätzlichen Kosten). Ich sehe größere Caches eher als den richtigen Weg an, aber keine APU hatte bis jetzt relativ große Caches. Ka, ob Kaverie da was ändert.

Knuddelbearli
2012-04-06, 14:24:28
wenn ähnlich bei bei Haswell es einen kleinen schnelle Ram direkt auf dem package für den Framebuffer gibt reicht auch 128Bit mit GDDR5

sonst eher nicht