PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Xbox One/Playstation 4: technische Spekulation und Vergleich


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 [28] 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47

Botcruscher
2014-05-02, 10:34:21
Das Marketingneusprech ist ja mal wieder geil. Wir sind auf 1080p@30 weil das so super geil ist= die Gurkenhardware gibt für mehr leider nicht her aber wir machen irgendwie das beste daraus.

THEaaron
2014-05-02, 10:42:20
Mit 1080p30 stellt man halt die Grafik nach vorne. Das ist doch unabhängig von der verfügbaren Leistung.

dildo4u
2014-05-02, 10:44:22
Mit 1080p30 stellt man halt die Grafik nach vorne. Das ist doch unabhängig von der verfügbaren Leistung.
Jup nix anderes hat Crytek mit Crysis gemacht.

Lightning
2014-05-02, 10:52:41
[immy;10198005']schon seltsam das bei Ryse die Argumentation nicht zog. Immerhin machen die jetzt die gleiche Aussage von wegen mehr Qualität statt mehr Frames (bei ryse war es eben die Auflösung).

Wer sagt denn, dass sie hier besser zieht?

[immy;10198005']zugegeben 60fps sind schon recht schwierig zu bewerkstelligen. Vor allem weil man damit cpu und gpu viel stärker belasten muss als bei 30fps.

Achwo. 60 fps bedeutet einfach nur grob den halben Detailgrad, der mit 30 möglich wäre. Die Belastung unterscheidet sich nicht.

[immy;10198005']aber ich hoffe die preview-videos bewahrheiten sich nicht. denn da waren es statische Reflektionen (reflektierte bäume wo keine sind, keine bäume obwohl man durch einen wald fährt, ...) die dann pro abschnitt eingeblendet wurden.

Sicher? Sowas sollte eigentlich seit PS2-Zeiten nicht mehr vorkommen.

Das Marketingneusprech ist ja mal wieder geil. Wir sind auf 1080p@30 weil das so super geil ist= die Gurkenhardware gibt für mehr leider nicht her aber wir machen irgendwie das beste daraus.

Die Entscheidung pro oder contra 60 fps ist doch ziemlich unabhängig von der Hardware. Den Trade-Off wird es immer geben, oder anders gesagt: Wenn die PS4 10x so stark wäre, könnten sie sich trotzdem für 30 fps entscheiden.


Ich würde 60 fps in der Regel auch über Grafik stellen. Gerade in einem Rennspiel. Aber die Leute wollen es wahrscheinlich wirklich nicht anders.

dildo4u
2014-05-02, 10:58:35
Zum Vergleich hier sind Project Cars PS4 Screen's das Game soll mit 1080p 60fps laufen.

http://www.gamersyde.com/pop_images_project_cars-24903-1.html

http://www.pcgames.de/Project-CARS-XboxOne-258051/News/Project-Cars-fuer-PS4-und-Xbox-One-Entwickler-peilen-1080p-und-60-FPS-an-1104963/

][immy
2014-05-02, 11:11:36
Wer sagt denn, dass sie hier besser zieht?

schon mal bei neogaf rein geschaut ;)



Achwo. 60 fps bedeutet einfach nur grob den halben Detailgrad, der mit 30 möglich wäre. Die Belastung unterscheidet sich nicht.

muss ich dazu noch was schreiben? natürlich meine ich damit bei gleichem Detailgrad müsste man mehr Rechenleistung haben weil man die gleichen Berechnungen innerhalb der halben Zeit durchführen müsste, was verständlicherweise nicht geht, solange man nicht einen Großteil der zur Verfügung stehenden Leistung brach liegen lässt. muss man denn hier immer alles bis ins kleinste Detail runterbrechen.



Die Entscheidung pro oder contra 60 fps ist doch ziemlich unabhängig von der Hardware. Den Trade-Off wird es immer geben, oder anders gesagt: Wenn die PS4 10x so stark wäre, könnten sie sich trotzdem für 30 fps entscheiden.


Ich würde 60 fps in der Regel auch über Grafik stellen. Gerade in einem Rennspiel. Aber die Leute wollen es wahrscheinlich wirklich nicht anders.
ist mir schon klar. Ich kann diese Entscheidungen auch verstehen, wobei besonders ein rennspiel möglichst flüssig sein sollte (das würde zumindest ich präferieren). Forza 5 könnte auch um einiges besser aussehen wenn es bei 30fps geblieben wäre. ist halt immer ein tradeoff.



Sicher? Sowas sollte eigentlich seit PS2-Zeiten nicht mehr vorkommen.
Dachte ich bis Anfang des Jahres auch. Naja, ich hoffe es ist nicht der finale stand gewesen http://www.youtube.com/watch?v=MvmCAh0KMTs ab 2:22 sieht man es recht gut. die Reflektion des Bäumchens bleibt und bleibt obwohl das Auto an vielen dingen vorbei fährt.

DinosaurusRex
2014-05-02, 11:44:24
Die vorherrschende Meinung ist doch, dass Ryse der visuell beeindruckendste Launch Title für die neuen Konsolen war, oder nicht? Ich kann dein Strohmann-Argument daher nicht nachvollziehen. Und grundsätzlich wirst du niemals alle zufriedenstellen können, das ist halt so auf Konsolen. Da gibt es eine Version für alle und irgendeiner ist immer am Meckern. Ich bin zum Beispiel ein Gegner von Upscaling, dieser Punkt ist mir sehr wichtig.

Lightning
2014-05-02, 12:02:09
[immy;10198097']schon mal bei neogaf rein geschaut ;)

Ja.

[immy;10198097']muss ich dazu noch was schreiben? natürlich meine ich damit bei gleichem Detailgrad müsste man mehr Rechenleistung haben weil man die gleichen Berechnungen innerhalb der halben Zeit durchführen müsste, was verständlicherweise nicht geht, solange man nicht einen Großteil der zur Verfügung stehenden Leistung brach liegen lässt. muss man denn hier immer alles bis ins kleinste Detail runterbrechen.

Ich hatte deine Aussage so missverstanden, dass mehr fps zu einer höheren Auslastung der Hardware führen.

Ich teile allerdings die Meinung nicht, dass 60 fps schwierig zu erreichen sind. Das gleiche kann man halt für beliebige Framerates sagen.

DinosaurusRex
2014-05-02, 12:08:34
Ich würde ürbigens am liebsten in jedem Spiel 1080p60fps und dazu AA wie in Infamous haben und die Grafik am besten so wie in the Last of Us (dann natürlich alles ohne pre-baked lighting). Wäre das auf den neuen Konsolen möglich?

dildo4u
2014-05-02, 16:11:55
Trailer zum nästen COD

http://www.gamersyde.com/download_call_of_duty_advanced_warfare_reveal_trailer_fr_-32025_en.html

Auflösung auf Xbox One sieht wieder wie 720p aus.

http://a.pomf.se/booozp.png

DinosaurusRex
2014-05-03, 07:07:41
Übrigens auch sehr cool:

Die PS4 hat ja am Mittwoch Firmware 1.7 bekommen. Darin optional enthalten war eine App namens SHAREfactory (ca 1TB groß). Alles was man mit dem Share Button aufnimmt, kann man jetzt anschließend auf der Konsole mit dieser App zusammenschneiden, mit ein paar Effekten versehen und sogar mit passender Musik unterlegen. Also im Prinzip eine PlayStation Version von Sony Vegas.

Und sowas kann man damit machen:

t4lCLTnvo2o

Zusätzlich kann man mit 1.7 auch endlich alle Videos und Screenshots per USB auf einen externen Datenträger transferieren, man muss also nicht mehr den Umweg über Facebook oder Twitter machen.

Ich denke die Entwickler werden dieses Feature lieben.

zappenduster
2014-05-03, 13:19:14
1 TB wie in 1 tera byte? glaub du hast dich da vertan oder

Lost Boy
2014-05-03, 15:03:39
Ich würde 60 fps in der Regel auch über Grafik stellen. Gerade in einem Rennspiel.

Ich möchte an dieser Stelle nochmal an die grandiose PGR Reihe erinnern, vorallem an PGR 2. Für mich gehörten die PGR Spiele zu den besten Arcade Racern überhaupt. Bis auf den ersten Teil liefen alle anderen Teile mit 30fps. Es kommt auf den "Style" des Rennspiels an. Ich erinnere mich auch an das grandiose Burnout 2, was selbst auf der PS2 mit 60fps lief (ausser im Splittscreen Modus) und dazu verdammt gut aussah. Aber das sind zwei völlig unterschiedliche Spielkonzepte.

Bei Driveclub hoffe ich auf eine ähnliche Spielbarkeit wie bei der PGR Reihe. Es sind ja auch einige Schlüsselfiguren wie Ged Talbot (MSR, PGR 1,2,3,4) von Bizarre Creations zu Evolution Studios gewechselt.

In Anbetracht der hervorragenden Spielbarkeit von PGR (2,3,4) und der Tatsache dass ehemalige Leute von Bizarre an Driveclub arbeiten, halte ich dieses ganze gejammer um 30fps vs. 60fps für absolut überflüssig.

Aber die Leute wollen es wahrscheinlich wirklich nicht anders.

Falsch. Es müsste heissen: "Die Entwickler wollen es nicht anders."

PGR 4 von 2007 mit 30fps:

https://www.youtube.com/watch?v=3v9ZEHkzcGY


Außerdem sind konstante 30fps viel besser als 40-60fps + Tearing wie bei GT6. Das war echt ne Katastrophe von der Spielbarkeit teilweise.

Telema
2014-05-03, 15:27:13
Ich möchte an dieser Stelle nochmal an die grandiose PGR Reihe erinnern, vorallem an PGR 2. Für mich gehörten die PGR Spiele zu den besten Arcade Racern überhaupt. Bis auf den ersten Teil liefen alle anderen Teile mit 30fps. Es kommt auf den "Style" des Rennspiels an. Ich erinnere mich auch an das grandiose Burnout 2, was selbst auf der PS2 mit 60fps lief (ausser im Splittscreen Modus) und dazu verdammt gut aussah. Aber das sind zwei völlig unterschiedliche Spielkonzepte.

Bei Driveclub hoffe ich auf eine ähnliche Spielbarkeit wie bei der PGR Reihe. Es sind ja auch einige Schlüsselfiguren wie Ged Talbot (MSR, PGR 1,2,3,4) von Bizarre Creations zu Evolution Studios gewechselt.

In Anbetracht der hervorragenden Spielbarkeit von PGR (2,3,4) und der Tatsache dass ehemalige Leute von Bizarre an Driveclub arbeiten, halte ich dieses ganze gejammer um 30fps vs. 60fps für absolut überflüssig.



Falsch. Es müsste heissen: "Die Entwickler wollen es nicht anders."

PGR 4 von 2007 mit 30fps:

https://www.youtube.com/watch?v=3v9ZEHkzcGY


Außerdem sind konstante 30fps viel besser als 40-60fps + Tearing wie bei GT6. Das war echt ne Katastrophe von der Spielbarkeit teilweise.

Absolut... PGR war grandios und mir viel lieber als GT oder Forza. Da ein paar BC Boys dabei sind, hoffe ich auch auf eine wieder Auferstehung eines PGR Fahrverhalten ;D

DinosaurusRex
2014-05-03, 15:49:27
1 TB wie in 1 tera byte? glaub du hast dich da vertan oder

Oh, da hab ich mich wirklich vertan. 1GB muss es natürlich heißen, sorry. :redface:

Coda
2014-05-03, 15:50:29
Ich teile allerdings die Meinung nicht, dass 60 fps schwierig zu erreichen sind. Das gleiche kann man halt für beliebige Framerates sagen.
Das stimmt so nicht, denn irgendwann limitiert das ganze Verwaltungszeug auf der CPU. Das kann auch schon bei 60Hz ein größeres Problem sein.

DinosaurusRex
2014-05-03, 16:17:09
Das ist vermutlich auch der Grund, warum alle ein dünnere Abstraktionsschicht für den PC gefordert haben, oder? Sonst wäre diese ganze VR-Bewegung rund um Oculus Rift vermutlich von vorneherein zum scheitern verurteilt. Dafür braucht man ja bekanntlich eine möglichst hohe Framerate.

dildo4u
2014-05-03, 16:22:02
Der neue Driveclub Trailer als Download.


http://download899.mediafire.com/pe409zie27tg/xycb278ufc8u1du/DC_REANNOUNCE_GM_102_E_1080HQ.rar

Lightning
2014-05-03, 16:47:33
Ich möchte an dieser Stelle nochmal an die grandiose PGR Reihe erinnern, vorallem an PGR 2. Für mich gehörten die PGR Spiele zu den besten Arcade Racern überhaupt. Bis auf den ersten Teil liefen alle anderen Teile mit 30fps. Es kommt auf den "Style" des Rennspiels an. Ich erinnere mich auch an das grandiose Burnout 2, was selbst auf der PS2 mit 60fps lief (ausser im Splittscreen Modus) und dazu verdammt gut aussah. Aber das sind zwei völlig unterschiedliche Spielkonzepte.

Bei Driveclub hoffe ich auf eine ähnliche Spielbarkeit wie bei der PGR Reihe. Es sind ja auch einige Schlüsselfiguren wie Ged Talbot (MSR, PGR 1,2,3,4) von Bizarre Creations zu Evolution Studios gewechselt.

In Anbetracht der hervorragenden Spielbarkeit von PGR (2,3,4) und der Tatsache dass ehemalige Leute von Bizarre an Driveclub arbeiten, halte ich dieses ganze gejammer um 30fps vs. 60fps für absolut überflüssig.

Hat halt jeder andere Prioritäten.

Ich bin auch niemand, der ein Rennspiel automatisch verschmäht, wenn es nicht mit >30 fps läuft. Aber wenn ich die Wahl zwischen 60 fps oder 30 fps mit besserer Grafik hätte, würde ich immer 60 fps wählen.

Falsch. Es müsste heissen: "Die Entwickler wollen es nicht anders."

Stimmt schon, manche Entwickler wollen es wahrscheinlich auch nicht anders.

Außerdem sind konstante 30fps viel besser als 40-60fps + Tearing wie bei GT6. Das war echt ne Katastrophe von der Spielbarkeit teilweise.

Tearing stört mich persönlich weniger. Dennoch bin ich ganz klar enttäuscht von PD, die GT3 und 4 auf der PS2 liefen viel sauberer.

Das stimmt so nicht, denn irgendwann limitiert das ganze Verwaltungszeug auf der CPU. Das kann auch schon bei 60Hz ein größeres Problem sein.

Okay, aber es kommt halt drauf an, wieviel Verwaltungszeug man haben will. ;) Wie groß die CPU-Last wird, ist ja letztlich wie der grafische Detailgrad durchaus eine Designentscheidung. Oder missverstehe ich dich hier?

Coda
2014-05-04, 00:13:28
Okay, aber es kommt halt drauf an, wieviel Verwaltungszeug man haben will. ;) Wie groß die CPU-Last wird, ist ja letztlich wie der grafische Detailgrad durchaus eine Designentscheidung. Oder missverstehe ich dich hier?
Manche Sachen sind fast fixed cost, egal welche Framerate man anpeilt, z.B. KI. Mit 16ms statt 30ms muss man schon sehr viel besser haushalten im Main-Thread oder Sachen eben parallelisieren. Vor allem wenn man nur 1,6Ghz Jaguar-Kerne hat.

Es ist halt nicht nur so, dass man einfach die Grafik runterdreht und es dann auf einmal mit 60Hz läuft.

Sagen wir zum Beispiel mal du nimmst ein 30-Hz-Xbox-360-Spiel und portierst das so wie es ist auf die PS4, dann wird es wahrscheinlich trotzdem mit 30 FPS laufen, weil die CPU nicht so viel schneller ist, dass der gleiche Code doppelt so schnell läuft. Die GPU langweilt sich dabei natürlich zu tode, selbst wenn man auf 1080p geht.

DinosaurusRex
2014-05-04, 07:54:19
Wird die Situation denn besser werden? Zum Beispiel wenn Cort Stratton super effizienten low-level Code schreibt oder wenn die volle Kanne GPGPU machen?

Lightning
2014-05-04, 10:47:32
Manche Sachen sind fast fixed cost, egal welche Framerate man anpeilt, z.B. KI. Mit 16ms statt 30ms muss man schon sehr viel besser haushalten im Main-Thread oder Sachen eben parallelisieren. Vor allem wenn man nur 1,6Ghz Jaguar-Kerne hat.

Es ist halt nicht nur so, dass man einfach die Grafik runterdreht und es dann auf einmal mit 60Hz läuft.

Sagen wir zum Beispiel mal du nimmst ein 30-Hz-Xbox-360-Spiel und portierst das so wie es ist auf die PS4, dann wird es wahrscheinlich trotzdem mit 30 FPS laufen, weil die CPU nicht so viel schneller ist, dass der gleiche Code doppelt so schnell läuft. Die GPU langweilt sich dabei natürlich zu tode, selbst wenn man auf 1080p geht.

Was ich meinte war eher, dass man dann eben z.B. die KI auch zurückschrauben muss - nicht nur die Grafik.
Wenn man in diesen Dingen allerdings auch eine ordentliche Verbesserung zur letzten Konsolengeneration haben will, verstehe ich deinen Einwand natürlich.

Noch eine Frage zu deinem konkreten PS4 vs 360-Beispiel: Sprichst du hier von einfach portiertem 360-Code, oder ordentlich auf Jaguar optimierten? Oder anders: Wie viel schneller würdest du die PS4/One-CPU in der Spielepraxis gegenüber der 360-CPU etwa einschätzen, wenn der Code für beide ähnlich gut optimiert wird?

DinosaurusRex
2014-05-04, 10:54:12
Also ausgehend von dem was ich in die Posts der Pros hier reininterpretiere, würde ich schätzen, dass die CPUs der neuen Konsolen in etwa vier- bis fünfmal so leistungsfähig sind wie die die CPUs der alten Konsolen.

Lightning
2014-05-04, 11:22:27
Also ausgehend von dem was ich in die Posts der Pros hier reininterpretiere, würde ich schätzen, dass die CPUs der neuen Konsolen in etwa vier- bis fünfmal so leistungsfähig sind wie die die CPUs der alten Konsolen.

Link zu den Aussagen?

Von der Peak-Leistung ist die Sache klar - da spielen alle in der gleichen Liga (~100 GFLOP/s), Cell sogar noch drüber. In der Praxis sollte es für Jaguar natürlich deutlich günstiger aussehen, die Frage ist nur, wie viel.

Geht man beispielsweise davon aus, dass sechs Jaguar-Kerne verfügbar sind, die 3x die IPC von einem Xenon-Core/PPE erreichen. Dann wäre nach meiner vereinfachten Formel "#Kerne * Takt * IPC" die PS4-CPU 3x so schnell wie Xenon. Mehr würde mich ehrlich gesagt wundern (wobei hier etwa der Audio-Overhead und eventuelles GPGPU natürlich nicht einbezogen ist).

DinosaurusRex
2014-05-04, 11:25:27
Also ich ging jetzt von der Brutto-Performance aus, also ohne die Reservierung für das OS zu berücksichtigen. Ich weiß nämlich überhaupt nicht wieviel die alten Konsolen für das OS reservieren.

Coda
2014-05-04, 13:02:48
Was ich meinte war eher, dass man dann eben z.B. die KI auch zurückschrauben muss - nicht nur die Grafik.
Wenn man in diesen Dingen allerdings auch eine ordentliche Verbesserung zur letzten Konsolengeneration haben will, verstehe ich deinen Einwand natürlich.

Noch eine Frage zu deinem konkreten PS4 vs 360-Beispiel: Sprichst du hier von einfach portiertem 360-Code, oder ordentlich auf Jaguar optimierten? Oder anders: Wie viel schneller würdest du die PS4/One-CPU in der Spielepraxis gegenüber der 360-CPU etwa einschätzen, wenn der Code für beide ähnlich gut optimiert wird?
Pro Kern? Ziemlich ähnlich. Die Architektur ist besser, klar, aber die Frequenz ist halt halb so hoch. Bisschen Vorteil wird's schon geben, aber sicher nicht doppelt so schnell.

Wenn man in diesen Dingen allerdings auch eine ordentliche Verbesserung zur letzten Konsolengeneration haben will, verstehe ich deinen Einwand natürlich.
Es geht gerade erstmal nur darum das exakt selbe zu erreichen bei 60 statt 30 FPS. Gleiches Spiel, selbe Auflösung, alles gleich. Selbst das wird nicht notwendigerweise durch die Hardware erschlagen auf den neuen Konsolen. Die Situation gab's soweit ich weiß noch nie.

Iruwen
2014-05-04, 14:48:41
http://www.neogaf.com/forum/showthread.php?t=812566
CoD in 882p auf der One.

robbitop
2014-05-04, 14:52:27
@coda
Aber man hat mehr Kerne. Sollten 6-8 Jaguars @1.6 GHz nicht mind. 2x so schnell sein wie 3x Xenos Kerne @ 3,2 GHz?

Monsta
2014-05-04, 15:29:45
@coda
Aber man hat mehr Kerne. Sollten 6-8 Jaguars @1.6 GHz nicht mind. 2x so schnell sein wie 3x Xenos Kerne @ 3,3 GHz?

Laut Wiki haben Xbox360 77 GFLOPS, die Ps3 260 Single und 100 Floating Point.
Die Ps4 soll auch ca. 100 GFLOPS haben. Hat sich also nicht viel geändert.

dildo4u
2014-05-04, 15:41:28
Die PS3 hat Theoretisch mehr Rechenleistung(Dank den SPE's) praktisch ist ein ganz anderes Ding.


Bei 3,2 GHz Taktrate ergibt sich somit eine theoretische Leistung von 25,6 GFLOPS pro SPU(PS3 hat 7 Aktive SPEs)

http://de.wikipedia.org/wiki/Cell_(Prozessor)#dong

robbitop
2014-05-04, 15:50:15
Laut Wiki haben Xbox360 77 GFLOPS, die Ps3 260 Single und 100 Floating Point.
Die Ps4 soll auch ca. 100 GFLOPS haben. Hat sich also nicht viel geändert.

Stumpf FLOPs zählen kann ich auch. Aber das ist nunmal für eine CPU nicht aussagekräftig.

Lightning
2014-05-04, 16:12:57
Pro Kern? Ziemlich ähnlich. Die Architektur ist besser, klar, aber die Frequenz ist halt halb so hoch. Bisschen Vorteil wird's schon geben, aber sicher nicht doppelt so schnell.


Es geht gerade erstmal nur darum das exakt selbe zu erreichen bei 60 statt 30 FPS. Gleiches Spiel, selbe Auflösung, alles gleich. Selbst das wird nicht notwendigerweise durch die Hardware erschlagen auf den neuen Konsolen. Die Situation gab's soweit ich weiß noch nie.

Irgendwie bin ich immer noch verwirrt. Wie robbitop sagt: Wird das nicht durch das Plus an Kernen erschlagen (sofern man de Code vernünftig parallelisieren kann versteht sich)? Oder meinst du wirklich, dass ein Jaguar-Kern selbst bei gleichem Takt weniger als doppelt so schnell wäre als ein Xenon-Kern?

DinosaurusRex
2014-05-04, 16:14:41
@coda
Aber man hat mehr Kerne. Sollten 6-8 Jaguars @1.6 GHz nicht mind. 2x so schnell sein wie 3x Xenos Kerne @ 3,2 GHz?

Ich hab seinen Post so verstanden, dass er von der Leistung pro Kern sprach. Aber sicher bin ich mir jetzt auch nicht mehr. :confused:

Im B3D Forum hat sebbbi zu diesem Thema auch einen recht umfangreichen Post verfasst. Der ist doch auch ein Dev, oder nicht?


I wouldn't say that [the jump from Xenon to Jaguar isn't that big]. The jump is significant when you take into account the code optimization and maintenance cost.

The PPC in-order CPU bottlenecks have been talked to death, but it's always good to look back to see how the modern CPUs (including Jaguar) make our life much easier.

The 3 biggest time sinks when programming older in-order PPC CPUs:

1. Lack of store forwarding hardware
Store buffer stalls (also known as load-hit-store stalls or LHS stalls) are the biggest pain in the ass when programming a CPU without store forwarding hardware. The stall is caused by the fact that memory writes must be delayed by ~40 cycles (because of buffering & possible branch misses). If the CPU reads a memory location that was just written to, it stalls for up to 40 cycles. These stalls are everywhere. C/C++ compilers are notorious in pushing things to stack and reading the data back from the stack right after that (register spilling, function calls push parameters to stack, read & modify on class variables in loops, etc). Normally you just want to hand optimize the most time critical part of your program (expert programmers are good at this), but LHS stalls effect every single piece of code, so you must teach every singe junior programmer techniques to avoid them... or you are in trouble. LHS stalls are a huge time sink.

Modern CPUs have robust store forwarding hardware. You no longer need to worry about this at all. Result: Lots of saved programmer time.

2. Cache misses and lack of automatic data pre-fetching
The second largest time sink in writing code for older CPUs. Caches have been the most important thing for CPU performance for long long time. If the data you access is not in L2 cache (cache miss), you have to wait for up to 600 cycles. On old in-order CPUs the CPU does nothing during this time (you lose up to 600 instruction slots). Modern out-of-order CPUs can reorder some instructions to hide the memory stalls partially. Modern CPUs also have automatic data cache pre-fetchers that find patterns in your load addresses, and automatically load the cache lines you would likely access before you need them. Unfortunately the old PPC cores didn't have automated data pre-fetching hardware. You had to manually pre-fetch data, even in linear accesses (going through an array for example). Again every programmer must know this, and add the manual cache pre-fetch instructions in their code to avoid the up to 600 cycle stalls.

Modern CPUs have robust fully automatic data prefetching hardware that does better job almost every time than a human, and with no extra coding & maintenance cost. Modern CPUs also have larger caches (Jaguar has 2 MB per 4 core cluster) that are faster (lower load to use latency).

3. Lack of out-of-order execution, register renaming + long pipeline
Long pipeline means that instructions have long latencies. Without register renaming the same register cannot be used if it is already used by some instruction in the pipeline. Without out-of-order execution this results in lots of stalls. The main way to avoid these stalls is to unroll all tight loops. Unfortunately unrolling needs to be often done manually, and this takes time and leads to code that is often hard to maintain and modify.

Modern Intel CPUs (and AMD Jaguar) have relatively short pipelines (and loop caches). All modern CPUs have out-of-order execution and register renaming. On these CPUs, loop unrolling often actually degrades performance instead of improving it (because of extra instruction footprint). So, the choice is clear: Keep the code clean and let the compiler write a proper loop. Save lot of time now, and even more time when you need to modify the existing code.

Answer

Jaguar is a fully modern out-of-order CPU. It has good caches, good pre-fetchers and fantastic branch predictor (that AMD actually adopted later to Steamroller, according to Real World Tech: http://www.realworldtech.com/jaguar/). With Jaguar, coders can focus on optimizing things that actually matter, instead of writing boilerplate "robot" optimizations around the wast code base.

Jaguar pushes though huge majority of the old C/C++ code hand optimized for PPC without a sweat. You can actually remove some of the old optimizations and make it even faster. Obviously in vector processing loops, you need to port the VMX128 intrinsics to AVX (they wouldn't even compile otherwise), but that's less than 1% of the code base. It's not that hard to port really, since AVX instruction set is more robust (mostly it's 1:1 mapping and sometimes a single AVX instruction replaces two VMX128 instructions).

You asked me about the FP execution units. All I can say that I am very happy that the Jag FP/SIMD execution units have super low latency. Most of the important instructions have just one or two cycle latency. That's awesome compared to those old CPUs that had 12+ cycles of latencies for most of the SIMD ALU operations. If you are interested in Jaguar, the AMD 16h Optimization Guide is freely available (download from AMD website). It includes an Excel sheet that list all instruction latencies/throughputs. It's a good read, if you are interested in comparing the Jaguar low level SIMD performance to other architectures.

Quelle (http://forum.beyond3d.com/showpost.php?p=1844642&postcount=6427)

Monsta
2014-05-04, 17:42:52
Stumpf FLOPs zählen kann ich auch. Aber das ist nunmal für eine CPU nicht aussagekräftig.

Was willst Du denn sonst hören? Ja die neuen gehen 3 mal besser wenn man wenig optimiert.?
Rechenleistung wird über FLOPS gemessen.

robbitop
2014-05-04, 17:55:34
Was willst Du denn sonst hören? Ja die neuen gehen 3 mal besser wenn man wenig optimiert.?
Rechenleistung wird über FLOPS gemessen.

Ich will keine Bauchgefühle sondern eine Aussage von jemandem der es weiß. Coda. Der arbeitet professionell mit Jaguarkernen und Xenos und wird es wissen. Aphatier weiss es sicher auch.

Reine Rohleistung ist ziemlich zweitrangig bei CPUs.

Felixxz2
2014-05-04, 23:02:51
Rechenleistung wird über FLOPS gemessen.

Wohl kaum.

Monsta
2014-05-04, 23:11:06
Wohl kaum.

Naja hier steht was anderes.
Die schnellsten Superrechner nach Leistung werden heutzutage halbjährlich in der TOP500-Liste aufgeführt. Als Bewertungsgrundlage dient der Linpack-Benchmark. Die schnellsten Superrechner nach Energieeffizienz bzw. MFLOPS/W werden seit November 2007 in der Green500-Liste geführt.
quelle:
http://de.wikipedia.org/wiki/Supercomputer

Coda
2014-05-05, 00:21:56
Irgendwie bin ich immer noch verwirrt. Wie robbitop sagt: Wird das nicht durch das Plus an Kernen erschlagen (sofern man de Code vernünftig parallelisieren kann versteht sich)? Oder meinst du wirklich, dass ein Jaguar-Kern selbst bei gleichem Takt weniger als doppelt so schnell wäre als ein Xenon-Kern?
Sie haben ja nicht den gleichen Takt.

Felixxz2
2014-05-05, 02:07:15
Naja hier steht was anderes.
Die schnellsten Superrechner nach Leistung werden heutzutage halbjährlich in der TOP500-Liste aufgeführt. Als Bewertungsgrundlage dient der Linpack-Benchmark. Die schnellsten Superrechner nach Energieeffizienz bzw. MFLOPS/W werden seit November 2007 in der Green500-Liste geführt.
quelle:
http://de.wikipedia.org/wiki/Supercomputer

Wenn man theoretische und praktische FLOPs vergleichen will....

robbitop
2014-05-05, 10:53:13
Eventuell ist ein Jaguar mit 1,6 GHz nicht genauso schnell wie ein Xenos Kern mit 3,2 GHz. Immerhin kann man die bösen Penalties die mit in Order Kernen kommen durch optimierten Code stark abschwächen. Außerdem braucht man sicher nicht selten auch mal Vector FP Durchsatz (das kann die in Order CPU auch ohne großen Einbruch liefern). Weiterhin steigert SMT die Auslastung des in Order Kerns sicher nicht unerheblich.

Wenn man jetzt einfach mal annimmt, dass dank dieser Optimierungen immerhin noch +50 % mehr IPC für Jaguar dabei herauskommen (Intel hat beim Atom Umstieg von in Order auf OoO auch in etwa diese Region erziehlt), erreichen 6 Jaguarkerne ca. 50 % mehr CPU Leistung als 3 Xenos Kerne.

Ich kann nur hoffen, dass MS/Sony mittelfristig die 2 weiteren Kerne für die Spiele freigeben.
Mit Puma wären eventuell 2,4 GHz drin gewesen.

Coda
2014-05-05, 11:03:10
Xenon hat nur eine einzige Integer-ALU pro Kern, bitte vergiss das nicht.

robbitop
2014-05-05, 11:19:11
Dann war meine Schätzung doch ein wenig pessimistisch. :)

Avalox
2014-05-05, 13:12:16
Gab es das schon hier?


Eve Valkyrie auf der PS4 mit Morpheus gedaddelt.

http://video.golem.de/games/12933/eve-valkyrie-mit-project-morpheus-auf-ps4-angespielt.html

Lightning
2014-05-05, 15:07:09
Sie haben ja nicht den gleichen Takt.

Klar. Aber dafür hat man ja doppelt so viele.

Was ich daher gern verstehen würde: Wenn ein Jaguar-Kern (trotz Taktunterschied) in der Regel mindestens die gleiche Leistung bringt, warum kann es dann insgesamt (mit 6 vs 3 Kernen) trotzdem schwer werden, auf 60 statt 30 fps zu kommen? Wo hakts?

dildo4u
2014-05-05, 15:18:27
Ist doch logisch die Engine müsste dazu erstmal perfekt skalieren,so ab dem 5 Core scheinen viele Dev's extreme Probleme zu haben.

][immy
2014-05-05, 21:22:47
Klar. Aber dafür hat man ja doppelt so viele.

Was ich daher gern verstehen würde: Wenn ein Jaguar-Kern (trotz Taktunterschied) in der Regel mindestens die gleiche Leistung bringt, warum kann es dann insgesamt (mit 6 vs 3 Kernen) trotzdem schwer werden, auf 60 statt 30 fps zu kommen? Wo hakts?
Ähm, weil man auch mit höheren Anforderungen zurecht kommen muss?
Zudem hängt ja aktuell noch viel an der single thread leistung was ms ja noch “beheben“ will

Karümel
2014-05-05, 21:25:55
Falls das schon mal gesagt wurde, sorry.
Aber wie sieht das eigentlich aus mit, ich sag mal "Micro-rucklern" auf den Konsolen aus?
Also sind die meißtens ja 30FPs immer "gleichmäßig verteilt"?

Knuddelbearli
2014-05-05, 23:38:37
[immy;10202136']Ähm, weil man auch mit höheren Anforderungen zurecht kommen muss?
Zudem hängt ja aktuell noch viel an der single thread leistung was ms ja noch “beheben“ will

weill man 2 möglichkeiten hat

entweder 60 fps oder doppelt soviel cpu leistung für andere Sachen. Bei Konsolenspieler die eh auf 30 fps verdorben sind lohnt sich meistens mehr die andere Sachen. 60fps ist meist nur Marketing für solche die sich von P Spielern beraten lassen, oder sonst vor allem PC Spielen.

Coda
2014-05-05, 23:49:56
Klar. Aber dafür hat man ja doppelt so viele.
Das bringt mir aber nichts, wenn ein bestimmter Thread trotzdem 33ms braucht und die Frames limitiert.

Ich hab das jetzt glaube ich schon drei Mal unterschiedlich erklärt.

DinosaurusRex
2014-05-06, 06:00:04
Achso, das heißt sobald man irgendetwas nicht parallelisiert bekommt, kann man sich die 60fps in die Haare schmieren, ganz gleich wie stark der Rest des Systems ausgelastet ist? Das wäre aber ein nerviger Flaschenhals. Jetzt verstehe ich auch was Slightly Mad (die haben 60fps für Project CARS angekündigt) gemeint hat, als sie vor ein paar Wochen gesagt haben, dass der next-gen Port nur mit aufwendiger Parallelisierung möglich sei, die aber so für die anderen Versionen nicht vorgesehen war.

Aber wären dann vier Steamroller mit 3,2GHz nicht vielleicht doch die bessere Wahl gewesen, oder legt sich diese Problematik, wenn sich die Studios erstmal auf die CPUs eingeschossen haben?

Lightning
2014-05-06, 07:59:14
Das bringt mir aber nichts, wenn ein bestimmter Thread trotzdem 33ms braucht und die Frames limitiert.

Ich hab das jetzt glaube ich schon drei Mal unterschiedlich erklärt.

Dann ist das völlig verständlich (aus der vorhergegangenen Diskussion ging allerdings nicht hervor, dass wir von einem nicht parallelisierbarem Overhead sprachen).

Aber wären dann vier Steamroller mit 3,2GHz nicht vielleicht doch die bessere Wahl gewesen, oder legt sich diese Problematik, wenn sich die Studios erstmal auf die CPUs eingeschossen haben?

Das dürfte aber auch mehr Stromverbrauch bedeutet haben und ist somit nicht vergleichbar.

Die Frage ist eher, ob es wirklich so eine gute Idee war, der CPU so wenig Bedeutung zukommen zu lassen. Ob es eng wird kommt aber natürlich auch auf die Anwendung bzw. die Art von Spiel an.

Trap
2014-05-06, 08:04:36
Dann ist das völlig verständlich (aus der vorhergegangenen Diskussion ging allerdings nicht hervor, dass wir von einem nicht parallelisierbarem Overhead sprachen).
Es muss keine nicht parallelisierbarer Overhead sein, ein bisher nicht parallelisierter reicht.

Je nachdem wo der in der Architektur genau liegt, kann es für den Entwickler extrem schwer sein es zu beheben. Wie zum Beispiel beim PC vor Mantle/DX-Multithreading das Absetzen von GPU-Befehlen.

][immy
2014-05-06, 08:18:45
Achso, das heißt sobald man irgendetwas nicht parallelisiert bekommt, kann man sich die 60fps in die Haare schmieren, ganz gleich wie stark der Rest des Systems ausgelastet ist? Das wäre aber ein nerviger Flaschenhals. Jetzt verstehe ich auch was Slightly Mad (die haben 60fps für Project CARS angekündigt) gemeint hat, als sie vor ein paar Wochen gesagt haben, dass der next-gen Port nur mit aufwendiger Parallelisierung möglich sei, die aber so für die anderen Versionen nicht vorgesehen war.

Aber wären dann vier Steamroller mit 3,2GHz nicht vielleicht doch die bessere Wahl gewesen, oder legt sich diese Problematik, wenn sich die Studios erstmal auf die CPUs eingeschossen haben?
Die API s müssen erst mal lernen vernünftig zu parallelisieren. Daher kann DirectX 12 für die xbone ja theoretisch auch einiges bringen. Vielleicht auch ein Grund warum ms die CPU ein bisschen höher getaktet hat und sagte das diese takterhöhung mehr gebracht hat als eine weitere gpu takterhöhung. Eventuell musste der Takt für forza angehoben werden um stabile 60gps erreichen zu können.
Wenn sie es tatsächlich schaffen den overhead zu reduzieren und auch zu noch parallelisieren sollten 60fps in Zukunft nicht mehr so schwer zu erreichen sein. Zumindest CPU seitig.
Bei der PS4 sollte das auch möglich sein, hab aber keine Ahnung ob die Entwickler das nicht auch manuell machen könnten. Die xbone dürfte hier um einiges restriktiver sein, daher auch das warten auf dx12 bzw wann auch immer ms davon teilweise schon vorher implementiert in der xbone.

DinosaurusRex
2014-05-06, 08:23:19
Das Problem der Xbox One scheint aber nicht die CPU zu sein, siehe CoD 720p60fps, BF4 720p60fps, MGS 720p60fps, ...

][immy
2014-05-06, 08:30:33
Das Problem der Xbox One scheint aber nicht die CPU zu sein, siehe CoD 720p60fps, BF4 720p60fps, MGS 720p60fps, ...
das sind alles Multi-Plattform spiele und besonders COD und BF4 Launch-titel. Zudem hatten sie auf beiden Plattformen teilweise Probleme die 60fps zu halten.


btw. aus dem beyond3d Forum:
Couldn't agree more with that list. Many very important features listed there.

3.10... "ballotAMD" . For the people who don't see it right away (it wasn't mentioned in this article either), this allows you to do efficient inside wave prefix sums (without atomics / serialization). Super useful for many things.

Quote from the OpenGL 5 candidate feature list:


For example, having multiple command processors would allow rendering shadows at the same time as filling G-Buffers or shading the previous frame. Having such drastically different tasks live on the GPU at the same time could make a better usage of the GPU as both tasks will probably have different hardware bottleneck.


Good example of this is shadow map rendering. It is bound by fixed function hardware (ROPs and primitive engines) and uses very small amount of ALUs (simple vertex shader) and very small amount of bandwidth (compressed depth buffer output only, reads size optimized vertices that don't have UVs or tangents). This means that all TMUs and huge majority of the ALUs and bandwidth is just idling around while shadows get rendered. If you for example execute your compute shader based lighting simultaneously to shadow map rendering, you get it practically for free. Funny thing is that if this gets common, we will see games that are throttling more than Furmark, since the current GPU cooling designs just haven't been designed for constant near 100% GPU usage (all units doing productive work all the time).
es geht dabei um dieses Dokument http://www.g-truc.net/doc/Candidate%20features%20for%20OpenGL%205.pdf

klingt jedenfalls nach extrem aufwändigen Optimierung, wie der MS Ingenieur schon sagte "das richtige, zur richtigen Zeit an der richtigen Stelle" (sinngemäß übersetzt). man würde also für die kleinstaufgaben, teile der GPU verwenden die bei der aktuellen Aufgabe nicht verwendet werden würden. ich glaube die neuen Konsolen können noch sehr laut werden, wenn das erst mal genutzt wird.

Mandalore
2014-05-06, 13:58:34
Ich hoffe wirklich, dass die CPU die visuellen Machbarkeiten nicht behindern wird, alles andere wäre einfach nur eine Faust in den Magen.

Hunter93
2014-05-06, 18:44:06
[immy;10202442']Die API s müssen erst mal lernen vernünftig zu parallelisieren. Daher kann DirectX 12 für die xbone ja theoretisch auch einiges bringen.

Sollte das nicht, wie der Draw-Call Overhead auch, allein ein Problem der PC-API sein.
Konsolenentwickler dürften wohl kaum einen so abstrahierten Zugriff auf Multi-Core-Programmierung haben, siehe SPURS auf PS3.

Coda
2014-05-06, 20:21:17
Dann ist das völlig verständlich (aus der vorhergegangenen Diskussion ging allerdings nicht hervor, dass wir von einem nicht parallelisierbarem Overhead sprachen).
Natürlich tut es das. Und ich sagte weiteraus auch OHNE ÄNDERUNGEN. Parallelisierung ist eine Änderung und zwar eine verdammt große.

Mandalore
2014-05-08, 15:09:51
http://www.dualshockers.com/2014/05/07/sony-e3-conference-details-leaked-uncharted-guerrilla-games-media-molecule-and-much-more/


Laut der Quelle von dualshockers, soll Uncharted 4 wirklich spektakulär aussehen und alles in den Schatten stellen. Ich hoffe, dass Sony damit endlich diesen nervenden PC-Gamern einen Riegel vorschiebt;D;D Denn das Ganze geht einen derart auf die Nerven, wie diejenigen die ständig sagen, dass The Last of Us keine Fortsetzung braucht...:facepalm::facepalm:

robbitop
2014-05-08, 15:48:04
Solche Beiträge bringen uns nicht voran. Ich verstehe diese Sinnlosdiskussion sowieso nicht. Jeder nutzt das, was er für richtig hält. Ich frage auch immer gern: warum nicht beides? ;)
Exklusivtitel auf der Konsole und Multititel (und PC Exclusives) am PC.

Was ich viel wichtiger an der Meldung finde - es sind (neben Uncharted) ziemlich viele bekannte Playstation exklusive AAA Franchises in der Mache. :up:

Lightning
2014-05-08, 15:49:29
Natürlich tut es das. Und ich sagte weiteraus auch OHNE ÄNDERUNGEN. Parallelisierung ist eine Änderung und zwar eine verdammt große.

Wir haben offensichtlich aneinander vorbeigeredet, daher auch meine ursprüngliche Nachfrage "Sprichst du hier von einfach portiertem 360-Code, oder ordentlich auf Jaguar optimierten?" (mit "ordentlich optimiert" meinte ich insbesondere auch parallelisiert, eben nicht nur eine einfache Portierung). Egal, genug Meta-Diskussion.

Festzuhalten bleibt für mein Verständnis: Bei Portierungen kann es wegen der CPU aufwändig sein, ein Spiel, dass auf PS360 mit 30 fps lief, mit 60 fps zum Laufen zu kriegen. Das ist natürlich in der Tat ein bisschen traurig, wenn man bedenkt, dass 7/8 Jahre zwischen den Konsolen liegen.
Wenn ein Spiel von Grund auf für PS4/Xbox One entwickelt wird, kann aber durchaus mehr als die doppelte CPU-Leistung rüberkommen.

robbitop
2014-05-08, 15:54:43
Ich tippe immernoch darauf, dass Sony im Verlauf des Lebenszyklus der PS4 weitere RAM und CPU Ressourcen freigeben wird.

Coda
2014-05-08, 16:10:35
Ich nicht.

Mandalore
2014-05-08, 16:20:15
Ich nicht.


Ne Begründung wäre net schlecht:wink:

Ich muss robbitop recht geben. Ich meine, ein Laie kann sehen, dass so ein mageres OS nie im Leben 3,5GB beanspruchen kann. Da hat SONY nur für irgendwelches Zeug zur Sicherheit vorreserviert. Bester Vergleich: Das OS der Xbox One ist deutlich komplexer, besitzt viel viel mehr Multitasking al die PS4 und reserviert meines Wissens nach nur 3GB und auch 2 Kerne. Kannst du mir bitteschön sagen, wo SONY auch nur ansatzweise soviele Ressourcen braucht. Ich meine das OS ist in letzter Minute fertiggestellt worden. Man kann keine Downloads pausieren nur löschen (wie schlecht ist das?!), Multitasking ist eher nicht präsent. Ja, unoptimiert könnte sogar PONG 8GB brauchen:freak:;D. Daher muss SONY da schleunigst was tun. Aber bei der PS3 wars ja der gleiche Fall, und da hatte man viel weniger RAM zur Verfügung. Mit der Zeit wurde ja eine relativ große Menge freigegeben.

Iruwen
2014-05-08, 16:32:14
Bester Vergleich: Das OS der Xbox One ist deutlich komplexer

Inwiefern?

Crazy_Bon
2014-05-08, 16:41:57
Und welches OS? Die XBone hat 3. ;)

DinosaurusRex
2014-05-08, 16:53:53
Neil Druckmann hat ein paar Infos zu The Last of Us Remastered rausgehaun:


The Last of Us PS4's character models 'on par' with PS3 cutscene models
PS4 cinematics currently at 1080p/60fps, creative director confirms, could integrate

The higher resolution character models featured in the PlayStation 4 remaster of The Last of Us will be "on par" with those featured in the PS3 version's cutscenes, creative director Neil Druckmann has told EDGE.

"We brought in all the hi-res models, and then it's on par with what you saw in the cutscenes," Druckmann said, speaking about the upcoming PS4 release with EDGE. "There's an improved lighting model. After that, we started looking across the board; enemies look a little blurry up close, so that was pretty easy. We ramped those up and saw a pretty significant difference.

"Our cinematics are now running at 1080p and 60fps, and that involved rendering them all from scratch," he continued. "It's interesting that now [instead of a technical bottleneck], the bottleneck is 'Can we fit all this on the disc?'"

Druckmann also suggested that Naughty Dog may look to take advantage of the features of the DualShock 4, adding that he wants to "give the option to switch which triggers you use to shoot and which ones you're using to listen and crouch.

"Then there are some ideas of how to use the touchpad that we'll play with and see if it's worth it," he added. "Mostly we don't want to mess with the experience too much, and we don't want to deviate from what made The Last of Us so great."

The Last of Us Remastered launches on PS4 this summer, with multiple retailers dating the game for release in June.

Quelle (http://www.videogamer.com/ps4/the_last_of_us_remastered/news/the_last_of_us_ps4s_character_models_on_par_with_ps3_cutscene_models.html)

Hier mal als Referenz Ellie in einer Cutscene auf der PS3:

http://www.wired.com/images_blogs/gamelife/2013/06/Ellie-rifle.png

Wenn ich richtig informiert bin, setzte Naughty Dog in der ursprünglichen Version von The Last of Us für die Cutscenes auf die achtfache Leistung der PS3.

Ich persönlich freu mich riesig auf das Spiel.

robbitop
2014-05-08, 16:53:59
@ Ressourcen frei machen
Wir werden sehen. Im Zyklus der PS3 hat Sony auch schrittweise am OS gefeilt.
Vielleicht überlässt man auch den Devs irgendwann die Wahl, ob sie die Hintergrundaufnahmefunktion haben wollen oder nicht. Dann sollte doch einiges mehr an CPU Ressourcen zur Verfügung stehen...

dildo4u
2014-05-08, 16:58:38
@ Ressourcen frei machen
Wir werden sehen. Im Zyklus der PS3 hat Sony auch schrittweise am OS gefeilt.
Vielleicht überlässt man auch den Devs irgendwann die Wahl, ob sie die Hintergrundaufnahmefunktion haben wollen oder nicht. Dann sollte doch einiges mehr an CPU Ressourcen zur Verfügung stehen...
Warum sollte das jemand wollen ist Gratis Werbung fürs Game.

Deinorius
2014-05-08, 17:40:52
Ich bezweifle, dass das gehen würde. Es ist eines der PS4 Features. Würden die Devs das deaktivieren, könnte man es für das Spiel nicht wieder reaktivieren.

Iruwen
2014-05-08, 17:44:49
Würden die Devs das deaktivieren, könnte man es für das Spiel nicht wieder reaktivieren.

Wie meinste? robbitop meinte, dass der Spieleentwickler sich aussuchen könnte ob er die Funktion unterstützen möchte oder nicht.
Frisst die denn CPU-Ressourcen, ist das nicht dedizierte Hardware wie bei Shadowplay?

Deinorius
2014-05-08, 17:57:47
Frisst aber RAM. War nicht immer von 1 GB die Rede?
Wenn die Devs es nicht unterstützen, geht es ja nicht. Es wurde doch immer mit dem Share Button beworben. Ich glaube einfach nicht, dass Sony dies zulassen würde.

Gipsel
2014-05-08, 18:22:49
Frisst aber RAM. War nicht immer von 1 GB die Rede?
Wenn die Devs es nicht unterstützen, geht es ja nicht. Es wurde doch immer mit dem Share Button beworben. Ich glaube einfach nicht, dass Sony dies zulassen würde.Wenn die 1GB GDDR5 für die Aufnahmefunktion verbraten, wären die bescheuert. Ein kleiner Puffer okay, aber ansonsten sollte man das auf einen reservierten Bereich der Platte schreiben. Immer mal alle ein oder zwei Sekunden ein oder zwei MB schreiben bringt niemanden um. Mit geringer Priorität das Ganze, also nur, wenn für die Platte sonst kein Zugriff ansteht. Wozu soll denn eigentlich die Southbridge mit dem extra ARM-Prozessor und eigenen 256MB DDR3-RAM den ganzen Kram (Netzwerk- und Festplattenzugriffe) koordinieren?

Felixxz2
2014-05-08, 19:41:08
Vor allem könnte man das verschmerzen, wenn man dafür 1GB mehr RAM für Games hat. Dafür hat man weniger HDD performance, aber das gleichen 1GB RAM locker aus.

DinosaurusRex
2014-05-08, 19:41:29
Sie werden auf jeden Fall Ressourcen für VR benötigen, also für das Motion Tracking von Gesten (bzw. bei PlayStation wird das ja mit der Lightbar realisiert) und eventuell auch für die Augen (wie auf der GDC '14 angekündigt). Allerdings kann man jetzt darüber diskutieren, inwiefern man sowas dauerhaft reservieren müsste. Aus betriebswirtschaftlicher Sicht macht es Sinn, denn Sony verkauft die Kamera für das Tracking mit Profit und wenn man den Devs sagt, "Hey Leute, ihr habt hier übrigens die ganze Zeit noch Ressourcen für die Kamera frei!", dann ist die Chance natürlich auch höher, dass dieses Peripheriezubehör in die Entwicklung eingebunden wird.

In jedem Fall macht es für Sony keinen Sinn, mehr Ressourcen frei zu geben, solange man die Konsole mit der besten Grafik auf dem Markt hat. Bei der PS3 mussten sie Ressourcen freigeben, weil die ganzen Multiplattformspiele auf der Xbox 360 besser aussahen und besser liefen. Jetzt ist die Situation genau umgekehrt. Und eventuell sorgen mehr und bessere OS Features am Ende für den Kunden auch für ein besseres Gesamtpaket.

---

Apropos VR, hier kann man einen Blick auf die Morpheus Unterwasser-Demo werfen:

_WzpLtCw9r0

Deinorius
2014-05-08, 19:45:51
@Gipsel
Wurde das denn nicht diskutiert? Ich meine mich daran zu erinnern. Natürlich wäre es bescheuert, aber vielleicht habe ich das nur falsch mitbekommen. In dem Fall meine Beiträge zu dem Thema ignorieren.
Der ARM mit den 256 MB DDR3 ist doch für den Bereitschaftmodus.

robbitop
2014-05-08, 21:38:31
Warum sollte das jemand wollen ist Gratis Werbung fürs Game.

Ach naja. Lets plays werden auch ohne diese Funktion genug erstellt. Schau dir die unzähligen x360/ps3 angebote auf YT und Twitch an. Es ist nicht so, dass es einen Mangel gäbe.

Gipsel
2014-05-08, 23:16:16
Der ARM mit den 256 MB DDR3 ist doch für den Bereitschaftmodus.Schon, er sitzt halt auf dem gleichen Die wie die Southbridge mit Festplatten- und Netzwerkcontroller. Und angeblich findet z.B. beim Hintergrundupload von Videos (bzw. dem Livestreaming) auch ein Offload des entsprechenden Managements darauf statt. Konkret hat bisher niemand gesagt, was da genau passiert. Aber wenn da irgendwas dran ist, könnten z.B. Teile des 256MB DDR3 auch als Puffer für das Streaming von bzw. zur Festplatte benutzt werden.

Deinorius
2014-05-08, 23:24:46
OK. Macht durchaus Sinn. Wenn man schon das Silizium oben hat, kann man es auch gleich vernünftig nutzen.

DinosaurusRex
2014-05-09, 07:08:14
Hier gibts Vergleiche zwischen Project CARS auf der PS4 und auf dem PC mit max Settings. Leider sind die Szenen nicht identisch, Strecken und Tageszeiten weichen ein wenig voneinander ab:

http://i.imgur.com/ZykVdxn.png
http://i.imgur.com/NdNKjSV.png
http://i.imgur.com/F994Kr1.png
http://i.imgur.com/5Wvdau3.png
http://i.imgur.com/mI9vXFO.png
http://i.imgur.com/oFnq46b.png
http://i.imgur.com/1bM9Elg.png
http://i.imgur.com/dJfHbeW.png
http://i.imgur.com/1B3lvqE.png
http://i.imgur.com/1xrw5d1.png

Die PS4 schlägt sich erstaunlich gut, wenn man bedenkt, dass Slightly Mad 1080p60fps angekündigt hat. Auf dem PC sind die Refklektionen schärfer (wobei sie auch auf dem PC nicht diesen hyperrealistischen Verzerrungseffekt des Lacks wie in Driveclub aufweisen) und bei der Kantenglättung und der Texturfilterung muss sich die Konsole selbstverständlich auch geschlagen geben. Die größten Probleme hatte der Entwickler laut eigener Aussage, ich hab es ja vor ein paar Tagen angesprochen, mit der Parallelisierung für die Jaguars.

Lightning
2014-05-09, 08:30:47
Hier gibts Vergleiche zwischen Project CARS auf der PS4 und auf dem PC mit max Settings. Leider sind die Szenen nicht identisch, Strecken und Tageszeiten weichen ein wenig voneinander ab:

http://i.imgur.com/ZykVdxn.png
http://i.imgur.com/NdNKjSV.png
http://i.imgur.com/F994Kr1.png
http://i.imgur.com/5Wvdau3.png
http://i.imgur.com/mI9vXFO.png
http://i.imgur.com/oFnq46b.png
http://i.imgur.com/1bM9Elg.png
http://i.imgur.com/dJfHbeW.png
http://i.imgur.com/1B3lvqE.png
http://i.imgur.com/1xrw5d1.png

Die PS4 schlägt sich erstaunlich gut, wenn man bedenkt, dass Slightly Mad 1080p60fps angekündigt hat. Auf dem PC sind die Refklektionen schärfer (wobei sie auch auf dem PC nicht diesen hyperrealistischen Verzerrungseffekt des Lacks wie in Driveclub aufweisen) und bei der Kantenglättung und der Texturfilterung muss sich die Konsole selbstverständlich auch geschlagen geben. Die größten Probleme hatte der Entwickler laut eigener Aussage, ich hab es ja vor ein paar Tagen angesprochen, mit der Parallelisierung für die Jaguars.

Ich frage mich, warum heute immer noch ständig totkomprimierte Screenshots rausgehauen werden. ;( Da fällt eine ordentliche Beurteilung echt schwer.

edit: Auf der Seite selber gibts die Screenshots verlustfrei als PNG: http://www.dualshockers.com/2014/05/06/project-cars-ps4-vs-pc-maximum-settings-screenshot-comparison-gorgeous-on-both-platforms/

robbitop
2014-05-09, 10:15:47
Wenn die Videoaufnahme viel CPU/GPU Zeit verschlingt, hat Sony an der falschen Stelle gespart. Eine kleine Lizenz für ein paar läppische Cents und schon bekommst du einen winzigen HW De/Encoder von IMG, der im 100 mW Bereich für 1 sqmm Chipfläche die Videos in Echtzeit komprimiert. Die nötige Schreibrate auf die HDD sinkt dann auch ordentlich ab (je nach Qualität). Wobei ich vermute, dass Sony das bereits machen wird. Ansonsten könnte man die HDD eh vergessen, weil sie nur mit Schreiben beschäftigt ist.

Generell denke ich, dass das ständige Schreiben die arme kleine 2,5" HDD ganz schön runterbremsen wird, wenn sie nebenbei noch Spieledaten lesen können soll. Ich wäre dafür gewesen, das auf nen USB Stick auszulagern, den der User bereitstellen muss. Einen USB Stick hat heute ja eh jeder.

DinosaurusRex
2014-05-09, 13:19:41
Generell denke ich, dass das ständige Schreiben die arme kleine 2,5" HDD ganz schön runterbremsen wird, wenn sie nebenbei noch Spieledaten lesen können soll. Ich wäre dafür gewesen, das auf nen USB Stick auszulagern, den der User bereitstellen muss. Einen USB Stick hat heute ja eh jeder.

Also bisher funktioniert das eigentlich wunderbar. Du legst die Disc ein, wartest kurz 30 Sekunden und kannst dann loszocken. Sobald du einmal im Spiel bist, gibt es keine Ladebildschirme mehr (mMn übrigens mit das beste Feature der neuen Konsolen), im Hintergrund werden ohne das du es merkst die Daten auf die Platte geschaufelt, parallel dazu wird automatisch der neuste Patch runtergeladen und installiert und das System zeichnet dabei trotzdem immer die letzten 15 Minuten Gameplay auf, die du dann mit dem Share Button um die Welt schicken kannst. Und das alles mit der performance-schwächsten 2.5'' HDD auf dem Markt. ;)

Iruwen
2014-05-09, 13:23:58
Das finde ich auch super, würde ich mir auch für Steam wünschen. Am PC fällt mir da gerade nur Diablo 3 ein wo man schon während der Installation loslegen kann.

DinosaurusRex
2014-05-09, 13:28:33
Bei der PS4 kommt das ja in zweierlei Form zum Einsatz: Einmal bei der Disc (dauert ~30 Sek.) und einmal beim Download (Spielstart idR ab 1-2 GB von ~50GB). Dafür müssen die Studios ihre Daten natürlich entsprechend anordnen.

Als Mark Cerny dieses Feature dann einigen 3rd-Parties präsentiert hat, wurde er laut eigenen Aussagen ausgebuht und angefeindet, weil es selbstverständlich zusätzliche Arbeit für den Entwickler bedeutet. Er hat aber nie gesagt, wer ihn ausgebuht hat. Ich glaube das könnte unter Umständen der Grund sein, warum es sowas in Steam noch nicht gibt. Gabe Newell ist ja eher ein Vertreter der laissez-faire Philosophie.

aufkrawall
2014-05-09, 13:31:31
und der Texturfilterung muss sich die Konsole selbstverständlich auch geschlagen geben.
Der PC hat auch bessere Texturen. Warum ist das so? Läuft doch wahrscheinlich auch mit 2GB Karten?

dildo4u
2014-05-09, 13:34:17
Das Game ist nicht Final und an der PS4 Version arbeiten sie erst ein paar Monate PC hingegen mehrere Jahre.Denke deswegen wurde es auch verschoben damit sie genug Zeit haben die Konsolen Versionen zu optimieren.

Crazy_Bon
2014-05-09, 13:39:38
Bin ich hier der einzige, der die PC-Pics schlimm empfindet? Schaut doch mal selbst wo da der DOF anfängt, unmittelbar hinterm Auto, als ob da eine Wand aus Milchglas steht.

DinosaurusRex
2014-05-09, 13:46:36
Also für so ein 2 Mio Multiplattform Kickstarter Projekt kann man da eigentlich nur den Hut ziehen. Ich hab die Beta auf meinem Rechner und die scheinen ihre Ressourcen wirklich sehr effizient auszunutzen. Die haben in den letzten Monaten riesige Schritte nach vorne gemacht. Man muss halt immer im Hinterkopf behalten, in was für einer Gewichtsklasse Project CARS an den Start geht. Das ist nicht vergleichbar mit gigantösen Spielen wie Gran Turismo.

dildo4u
2014-05-09, 13:46:42
Bin ich hier der einzige, der die PC-Pics schlimm empfindet? Schaut doch mal selbst wo da der DOF anfängt, unmittelbar hinterm Auto, als ob da eine Wand aus Milchglas steht.
Kann man abschalten bzw ich glaub den DOF muss man extra dazuschalten hab ihn Ingame noch nicht gesehen.

Video der aktullen Build in 4K.
http://youtu.be/cWedw0CEmkc

Botcruscher
2014-05-09, 13:50:02
Ich tippe mal das es am Zoom liegt. Unschärfe ist halt wie Headbobing. Es sieht scheiße aus und das Hirn versucht es so gut wie möglich zu kompensieren. Da kommen die Entwickler daher und bauen den Mist wieder ein. Immerhin kann man es auf dem PC abschalten.

DinosaurusRex
2014-05-09, 13:51:12
Video der aktullen Build in 4K.
http://youtu.be/cWedw0CEmkc

Die Musik ist der Hammer. Ist das ingame?

dildo4u
2014-05-09, 14:03:14
Die Musik ist dazu gemixt,das Game hat bis jetzt nur Mucke im Menü.

mironicus
2014-05-09, 14:58:15
Video der aktullen Build in 4K.
http://youtu.be/cWedw0CEmkc

4K Videos laufen bei AMD GPUs scheinbar nicht richtig.
Mit Intel Grafik dagegen schon... :freak:

dildo4u
2014-05-09, 15:45:04
4K Videos laufen bei AMD GPUs scheinbar nicht richtig.
Mit Intel Grafik dagegen schon... :freak:
HTML5 oder Flash?

mironicus
2014-05-09, 15:49:54
Flash

aufkrawall
2014-05-09, 16:03:47
HTML5 oder Flash?
Welche Rolle soll es spielen, wie der Stream eingebettet ist?
Der Codec muss nicht zwingend anders sein, auf AMD ist H.264 4k-DXVA einfach schon, seit es unterstützt wird, kaputt.

DinosaurusRex
2014-05-09, 17:11:21
Zwei neue Driveclub Videos, dieses Mal aber Gameplay:

E7Q6BERADcw
KoB8y71lgr0

Eventuell wird das in den kommenden Tagen auch mit höherer Qualität hochgeladen.

---

Oder auch nicht, denn der Betreiber von Gamesryde hat sich auf NeoGAF kurz zu dem Thema geäussert und folgendes gesagt:


Racing games are the worst possible type of footage to compress, since basically each frame is very very much different from the one before, so there is very little the codec can optimize and it comes down to just huge macroblocks just to stay inside the bitrate required for the final video.
As for getting these videos on Gamersyde, this is an exclusive for IGN, so there is absolutely no point in asking. It might be a time exclusive, in that case maybe or maybe not we'll get them, or it's a full exclusive and it will stay on Youtube forever. One way or another, there is no point annoying Sony or Rushy about it.

Quelle (http://www.neogaf.com/forum/showpost.php?p=111259117&postcount=128)

---

Das macht richtig was her:

http://i.minus.com/ibtswRQEhFSNpZ.gif

PrefoX
2014-05-09, 17:28:18
Also für so ein 2 Mio Multiplattform Kickstarter Projekt kann man da eigentlich nur den Hut ziehen. Ich hab die Beta auf meinem Rechner und die scheinen ihre Ressourcen wirklich sehr effizient auszunutzen. Die haben in den letzten Monaten riesige Schritte nach vorne gemacht. Man muss halt immer im Hinterkopf behalten, in was für einer Gewichtsklasse Project CARS an den Start geht. Das ist nicht vergleichbar mit gigantösen Spielen wie Gran Turismo.
ich habe es genau anders empfunden, die Performance ist nicht akzeptabel. Ich kann machen was ich will, es läuft ja nie mit 60fps min.

robbitop
2014-05-09, 21:30:14
Also bisher funktioniert das eigentlich wunderbar. Du legst die Disc ein, wartest kurz 30 Sekunden und kannst dann loszocken. Sobald du einmal im Spiel bist, gibt es keine Ladebildschirme mehr (mMn übrigens mit das beste Feature der neuen Konsolen), im Hintergrund werden ohne das du es merkst die Daten auf die Platte geschaufelt, parallel dazu wird automatisch der neuste Patch runtergeladen und installiert und das System zeichnet dabei trotzdem immer die letzten 15 Minuten Gameplay auf, die du dann mit dem Share Button um die Welt schicken kannst. Und das alles mit der performance-schwächsten 2.5'' HDD auf dem Markt. ;)
Tja vieleicht liegen die letzten 15 min ja im RAM? :D
Wäre einfach, das rauszufinden: PS4 den Stromstecker ziehen und wieder anschalten. Ist das Video noch da, war's nicht im RAM.

DinosaurusRex
2014-05-10, 14:16:32
Watch Dogs wird offensichtlich mit 1080p60fps auf der PS4 laufen, oder die Leute von Sony haben sich hier einfach nur vertippt:

playstation.com (http://www.playstation.com/en-us/games/watch-dogs-ps4?CMP=soc_us__gm_psblog_topbanner_3_4_14)

http://i.imgur.com/ZdkIoQf.png

HotSalsa
2014-05-10, 15:05:15
Watch Dogs wird offensichtlich mit 1080p60fps auf der PS4 laufen, oder die Leute von Sony haben sich hier einfach nur vertippt:

playstation.com (http://www.playstation.com/en-us/games/watch-dogs-ps4?CMP=soc_us__gm_psblog_topbanner_3_4_14)

http://i.imgur.com/ZdkIoQf.png

X1 auf 900p, hat man schon mal was dazu gehört? Release ist ja bald.

THEaaron
2014-05-10, 15:07:05
1080p ist bei der One wohl eher unwahrscheinlich.

Deathcrush
2014-05-10, 15:41:18
Warum? Wenn die PS4 Version wirklich mit 60FPS laufen sollte, was spricht gegen 1080P @30FPS auf der XBox One?

THEaaron
2014-05-10, 15:44:54
Ich geh auch bei der PS4 eher von 30FPS aus. Bei 60FPS erwarte ich eher 30-60FPS wie bei Tomb Raider und Infamous.

Aber ich lasse mich gerne eines besseren belehren.

Lightning
2014-05-10, 15:55:28
Warum? Wenn die PS4 Version wirklich mit 60FPS laufen sollte, was spricht gegen 1080P @30FPS auf der XBox One?

Wäre halt imo etwas schade, weil dann ordentlich CPU-Leistung verpuffen lassen würde.

Aber wie schon gesagt wurde: Besonders konstante 60 fps würde ich von einem Open World-Spiel von Ubisoft jetzt nicht unbedingt erwarten.

dildo4u
2014-05-10, 16:02:37
Das Game ist ganz eindeutig CPU Limitiert daher wird's auf keiner Konsole 60fps geben.

Das Game wurde gerade erst gezeigt und lief nicht mal locked 30.
http://www.neogaf.com/forum/showpost.php?p=111377587&postcount=108


The PlayStation 4 hard drive upgrade guide

http://www.eurogamer.net/articles/digitalfoundry-2014-ps4-hard-drive-upgrade-guide

Dort wurde auch noch mal das Streaming in Trails Fusion getestet.

http://youtu.be/Ij0tdp75t_Y

Atma
2014-05-10, 16:03:25
Wolfenstein: The New Order in 1080p und 60 FPS auf XBox One und PS4 laut Machine Games:

http://www.4players.de/4players.php/spielinfonews/Allgemein/34726/2140558/Wolfenstein_The_New_Order%7CEine_Entscheidung_soll_den_Verlauf_der_Story-Kampagne_entscheidend_veraendern_und_Angaben_zur_Spielzeit.html

Mandalore
2014-05-10, 18:29:21
Warum? Wenn die PS4 Version wirklich mit 60FPS laufen sollte, was spricht gegen 1080P @30FPS auf der XBox One?


Ne das wird net passieren. Sagen wir mal das mit 60 FPS stimmt, Ubisoft ist dann garantiert nicht daran interessiert die Xbox-Kundschaft zu verägern. Daher würde man auf 720p+60FPS gehen um das "gleiche" Spielerlebnis zu liefern.

Crazy_Bon
2014-05-10, 20:31:43
Ich denke das wird so sein wie beim Tomb Raider, da schwirrte auch die 60fps für die PS4-Version rum, was sich nicht ganz bewahrheitete und eher pendelte.

Finch
2014-05-10, 20:40:04
Ach komm das Spiel ist außerhalb von Sequenzen zu 95% bei 60 FPS

THEaaron
2014-05-10, 23:13:50
War es nicht 52fps avg laut der DF Analyse?

][immy
2014-05-11, 00:43:04
Wäre halt imo etwas schade, weil dann ordentlich CPU-Leistung verpuffen lassen würde.

Aber wie schon gesagt wurde: Besonders konstante 60 fps würde ich von einem Open World-Spiel von Ubisoft jetzt nicht unbedingt erwarten.
ja, das ist schade das dort wirklich CPU-Leistung zu verpuffen scheint, wenn es für 60fps geopfert wird. aber das ist nen multi-gen titel. Spielerisch wird das auf seiten der AI und Spielwelt zwischen den Generationen wohl keinen Unterschied geben. Da kann die Leistung wohl ohne Probleme in die Grafik fließen.
Aber 60fps läuft wohl wieder auf 30fps unlocked hinaus.

War es nicht 52fps avg laut der DF Analyse?
jep. In einigen Reviews wurde auch ein 30fps-Lock Schalter gewünscht. Zwar läuft es teilweise richtig flüssig, dann kommen aber wieder die schlecht verteilten Frame verläufe immer wieder dazu.

dildo4u
2014-05-11, 00:51:06
Watch Dogs hat ne aufwendige Windsimulation sowas wird dicke an der CPU ziehen daher auch die hohen PC Anforderungen.

http://youtu.be/947FTmTuICU?t=1m35s

In terms of the simulation, Watch_Dogs' PS4 version will feature a dynamic wind system that factors in ambient weather, moving objects, city topography and other factors, creating detailed maps of air pressure eddies and currents rather than just a blowing in a single direction. This won't just affect environmental flourishes like loose objects, particles and trees, but also dynamically governs ripples and waves on bodies of water

http://www.dealspwn.com/watchdogs-superior-wind-water-simulation-ps4-139766

Das wird auf Last Gen vermutlich völlig fehlen.

][immy
2014-05-11, 11:26:19
Watch Dogs hat ne aufwendige Windsimulation sowas wird dicke an der CPU ziehen daher auch die hohen PC Anforderungen.

http://youtu.be/947FTmTuICU?t=1m35s



http://www.dealspwn.com/watchdogs-superior-wind-water-simulation-ps4-139766

Das wird auf Last Gen vermutlich völlig fehlen.
naja, man hat ja auch ein paar cores mehr. ist und bleibt ein Generations-übergreifendes Spiel und damit wird die Spielewelt im großen und ganzen die gleiche sein. So ein bissel wind macht ja am Spiel selbst nicht viel aus und ist wohl eine ganz gute beschäftigung für die übrigens cores. Hätte mir da her für die next-gen konsolen und den PC eher sowas wie eine lebendigere Welt gewünscht. Aber das werden wir wohl frühestens sehen wenn ein solches Open-world-spiel nur für die current-gen raus kommt (+pc).

dildo4u
2014-05-12, 12:50:13
Child of Light Face off.

http://www.eurogamer.net/articles/digitalfoundry-2014-child-of-light-face-off

Das ist schon der Hammer das die One keine locked 60fps mit der Engine schafft.

http://youtu.be/0MKk8-luD0I

DinosaurusRex
2014-05-12, 13:14:55
Woran liegts? Die PS4 hat ja wohlgemerkt (minimal) weniger CPU Takt zur Verfügung und wir reden hier auch nicht über "bleeding-edge" 3D rendering, sondern über ein 2D-Spiel, bei dem ja fast die gesamte Grafik im Artwork steckt. Irgendwas läuft da mächtig schief.

Oder liegts vllt an Cernys Time-to-Triangle Spuk? Also das die Studios auf der PS4 aufgrund des (angeblich) geringeren Aufwands bei jedem Multiplattformspiel mehr Zeit fürs Fein-Tuning haben?

Botcruscher
2014-05-12, 14:01:00
Gerade bei 1:25 brechen die doch beide ein.

THEaaron
2014-05-12, 14:02:09
Bei mir ist bei 1:25 und +-10 Sekunden die PS4 durchgehend auf 60FPS?

dildo4u
2014-05-12, 14:08:55
Gerade bei 1:25 brechen die doch beide ein.
Nein die PS4 Linie ist blau dargestellt und bleibt bei 60.

Hier zum Vergleich sieht man's besser.
http://youtu.be/aDsfcqWPU34?t=4m39s

Botcruscher
2014-05-12, 14:13:58
Ah ok. Sieht man aber irgendwie auch schlecht. Das Diagramm sollte echt nicht bei 60 abschneiden. Dachte das wäre die Trennlinie.

y33H@
2014-05-12, 14:32:41
Das ist schon der Hammer das die One keine locked 60fps mit der Engine schafft.Laut DF gesupersampelt von 1440p.

Gebrechlichkeit
2014-05-12, 16:19:09
Phil Spencer, We Still Want an XBox Handheld and the Time for One is Right (http://gamerssphere.com/2014/05/12/phil-spencer-still-want-xbox-handheld-time-one-right/)

dildo4u
2014-05-12, 18:29:56
Xbox One: Crytek erklärt den Trick mit dem ESRAM bei Ryse


http://www.pcgameshardware.de/Xbox-One-Konsolen-232351/News/Xbox-One-Crytek-erklaert-den-Trick-mit-dem-ESRAM-bei-Ryse-1120815/

Hoffe wir sehen demnäst Homefront auf der PS4,1080p und das tolle Crytek AA sollten drinn sein.

del_4901
2014-05-12, 19:14:34
Xbox One: Crytek erklärt den Trick mit dem ESRAM bei Ryse


http://www.pcgameshardware.de/Xbox-One-Konsolen-232351/News/Xbox-One-Crytek-erklaert-den-Trick-mit-dem-ESRAM-bei-Ryse-1120815/

Hoffe wir sehen demnäst Homefront auf der PS4,1080p und das tolle Crytek AA sollten drinn sein.Wow..... PCGH beschreibt die Arbeitsweise eines TileBased DFR. Das hatte schon FB2 und UE4 hat es auch.

][immy
2014-05-13, 00:27:36
Watch Dogs hat ne aufwendige Windsimulation sowas wird dicke an der CPU ziehen daher auch die hohen PC Anforderungen.

http://youtu.be/947FTmTuICU?t=1m35s



http://www.dealspwn.com/watchdogs-superior-wind-water-simulation-ps4-139766

Das wird auf Last Gen vermutlich völlig fehlen.
anscheindend ist es doch nicht 60fps auf der PS4. Zumindest wurde es aus der Werbung wieder entfernt


http://www.dualshockers.com/2014/05/12/watch_dogs-on-ps4-sony-quietly-removes-1080p-60-fps-mention-from-official-pre-order-website/
schon erstaunlich, da steht nicht mal mehr 1080p, aber vermutlich wurde das mit den 60fps im Satz einfach gestrichen. Aber da war die Marketingabteilung wohl übereifrig.


btw. das mit dem Child of Light und den nicht immer stabilen FPS dürfte wohl eher ein Port-Problem sein. das ding ist fast ein purer 2D Scroller und die gleiche Engine wie Rayman. In Anbetracht des Preises für das Spiel aber auch nicht verwunderlich, das hier nicht viel Zeit in den Port gesteckt wird. Ist wohl auch eher die Ausnahme, ein ruckeln konnte ich beim Spielen jedenfalls noch nie feststellen. Das Spiel scrolled absolut flüssig.

dildo4u
2014-05-13, 00:36:57
Das Game scheint Aufwendiger als Rayman zu sein,es läuft auf den alten Konsolen nicht mehr mit 1080p.

Mandalore
2014-05-13, 01:07:08
Ich verstehe nicht wieso die Leute seit dieser Gen besessen sind auf 60FPS@Konsolen. Ich ziehe lieber eine schönere Grafik vor als 30->60FPS:rolleyes::tongue: Will man unbedingt 60FPS sollte man auf den PC umsteigen, bei den Konsolen geht so viel verloren...

PrefoX
2014-05-13, 01:29:22
Ich verstehe nicht wieso die Leute seit dieser Gen besessen sind auf 60FPS@Konsolen. Ich ziehe lieber eine schönere Grafik vor als 30->60FPS:rolleyes::tongue: Will man unbedingt 60FPS sollte man auf den PC umsteigen, bei den Konsolen geht so viel verloren...
die konsolen waren doch früher immer dafür bekommt 60fps zu haben, beim PC hats doch öfter geruckelt... die ganzen arcade games waren immer 60fps und fürs Spielgefühl sind 60fps eben deutlich besser. Wer bessere Grafik haben will sollte zum PC greifen, das wär logischer.

Mandalore
2014-05-13, 02:06:11
Ja, 60FPS warens bei den 90er Konsolen Standard. Aber spätestens seit der PS2-Gen (Xbox,GC) ist das nicht mehr der Fall...

grobi
2014-05-13, 05:25:09
Ja, 60FPS warens bei den 90er Konsolen Standard. Aber spätestens seit der PS2-Gen (Xbox,GC) ist das nicht mehr der Fall...


Meinst du Anfang der Neunziger Mitte? Das stimmt so nicht, das meiste schaffte auch da keine 60 FPS.

DinosaurusRex
2014-05-13, 06:35:42
Ich verstehe nicht wieso die Leute seit dieser Gen besessen sind auf 60FPS@Konsolen. Ich ziehe lieber eine schönere Grafik vor als 30->60FPS:rolleyes::tongue: Will man unbedingt 60FPS sollte man auf den PC umsteigen, bei den Konsolen geht so viel verloren...

Das ist alles nur System Wars:

Läuft es auf den Konsolen mit 30fps, kommt die Master Race aus ihren Löchern gekrochen und preist ihre "60fps Version" (eigentlich total beknackt, aber theoretisch natürlich richtig). Läuft es auf der PS4 mit 60fps und auf der X1 mit 30fps, geht der Spott und die Häme von den Zornys aus und bei den Auflösungen ist es selbstverständlich nicht anders. Läuft es auf den Konsolen mit 60fps, argumentiert die Master Race mit 4k und sowas alles. Am wenigsten zu lachen haben derzeit natürlich die Pikas: An denen treten sich selbst die Xbots die Füße ab.

Das ist aber überall so im Leben und teilweise geben sich die Menschen in ihrer Freizeit ja richtig auf die Fresse wegen Dingen, auf die sie eh keinen Einfluss haben. Shit rolls downhill. Ich denke so ein Verhalten ist für viele ein Ventil, um einfach mal Frust abzulassen.

Ja, 60FPS warens bei den 90er Konsolen Standard.

Aber nur in 2D-Spielen.

robbitop
2014-05-13, 09:56:36
Ich kann es langsam nicht mehr hören lesen... :rolleyes:

Eine Spielkonsole ist ein geschlossenes Ökosystem mit einer fest spezifizierten Leistung.
Und völlig egal, wie diese Leistung aussieht: es ist immer ein Kompromiss zwischen Auflösung, Framerate und Details pro Pixel.

Eine PS4 könnte, wenn sie denn den korrekten Anschluss dafür hätte (HDMI 2.0) auch 4K @60 fps liefern. Nur muss man dann eben mit den Details pro Pixel runtergehen.

Es ist immer ein Haushalten mit der Leistung. Egal wie stark ein System ist. Auch einen Triple SLI Titan Black System kann man mit genug Details pro Pixel auch bei FullHD in die Knie zwingen. Kein Problem. Wenn es eine Konsole mit einer solchen HW gäbe und sich Entwickler sehr hohe Details pro Pixel zum Ziel setzen würden, wäre das möglich.

Der Grund warum auf dem PC halt mehr FPS und mehr Auflösung möglich sind, ist einfach. Er ist keine Plattform mit festgelegter HW. Das heißt Spiele werden für eine bestimmte Leistung ausgelegt. Hat der eigene PC mehr Leistung, gibt es mehr von allem.

Die Auswahl, wie der Kompromiss zwischen Bildrate, Auflösung und Details pro Pixel getroffen wird, treffen die Studios.

Denn die meisten empfinden ein Spiel mit hohen Details pro Pixel und 30 fps und ~FullHD (oder leicht darunter) schöner als eines mit niedrigen Details pro Pixel aber dafür doppelter Bildrate.

Doppelte Bildrate bedeutet halb so viel Details. (vereinfacht beschrieben - im Detail ist es komplexer)

Wer höhere Bildraten, höhere Auflösung will, muss sich einen PC kaufen.

Coda
2014-05-13, 10:39:10
Einfach mal Leute zwingen Star Fox auf dem SNES zu spielen, dann werden sie den 60-FPS-Mythos schnell vergessen.

THEaaron
2014-05-13, 11:01:52
Oh ja... Das lief gefühlt mit 15-20fps.

robbitop
2014-05-13, 11:07:20
Wenn die Frames wirklich sauber verteilt auf der Zeitachse liegen (was bei Spielen wirklich keine Selbstverständlichkeit ist!), wirken weniger fps auch flüssiger, als wenn das nicht der Fall wäre.
IIRC war das bspw. bei Crysis 1 der Fall. Dort kam ich mit deutlich weniger fps klar als bei anderen Spielen.

StefanV
2014-05-13, 12:17:36
Zu den fps:
Ich fand, dass sich nichts so flüssig anfühlte wie Schleichfahrt, 3dfx beschleunigt. Moderne spiele laufen irgendwie nicht so rund/flutschen so gut, wie Schleichfahrt auf einer Voodoo Graphics...

Anyway (und jetzt kommt der flame):
Ich bin bei AVM auf diese Seite gestoßen (http://www.avm.de/de/Service/Service-Portale/Service-Portal/News_und_Ausblick/2013/ipv6_xbox.php?portal=FRITZ!Box_7390), in der sie berichten, dass man für die Xbox One keinen IPv6 Anschluss haben darf, wenn man Multiplayer Games zocken darf, weil sich die XB1 nicht an diesen von M$ geschaffenen Teredo Standard hält...

Finch
2014-05-13, 12:21:07
Einfach mal Leute zwingen Star Fox auf dem SNES zu spielen, dann werden sie den 60-FPS-Mythos schnell vergessen.

Das will sich doch keiner mehr antun. Gleiches gilt z.B. für Perfect Dark auf den N64

USS-VOYAGER
2014-05-13, 12:27:39
Wieso bietet man den Leuten nicht einfach an ob sie mit 30 oder 60 fps spielen möchten? Eine einfache Option die man sich aussuchen kann. Entweder 60fps dafür mit verringerten Details oder 30fps mit besserer Grafik.

THEaaron
2014-05-13, 12:32:26
Ich könnte mir vorstellen, dass es vor allem bei Konsolen nicht so einfach ist einfach irgendwo Details runterzudrehen um plötzlich 60FPS zu erreichen. Was ist, wenn die Last auf der CPU einfach so schon zu hoch ist um 60FPS zu erreichen?

Wenn wir von Details sprechen könnte da auch einfach viel GPU Zeugs sein, wo sich die GPU dann langweilt, die CPU aber trotzdem nicht so weit entlastet wird um alle 16ms einen Frame zu erzeugen.

dargo
2014-05-13, 12:35:34
Wenn die Frames wirklich sauber verteilt auf der Zeitachse liegen (was bei Spielen wirklich keine Selbstverständlichkeit ist!), wirken weniger fps auch flüssiger, als wenn das nicht der Fall wäre.
IIRC war das bspw. bei Crysis 1 der Fall. Dort kam ich mit deutlich weniger fps klar als bei anderen Spielen.
Crysis 1 war da ein Sonderfall. Ich weiß nicht wie Crytek das @CE2 gemacht hat aber bsw. schon 30-35fps fühlten sich richtig flüssig an. Keine Spur vom Input-Lag. Crysis 2 @CE3 war dann schon total unspielbar mit solchen niedrigen Frames.

Wieso bietet man den Leuten nicht einfach an ob sie mit 30 oder 60 fps spielen möchten?
Weil fürs Rendering nicht nur die GPU verantwortlich ist.

robbitop
2014-05-13, 13:49:34
Wieso bietet man den Leuten nicht einfach an ob sie mit 30 oder 60 fps spielen möchten? Eine einfache Option die man sich aussuchen kann. Entweder 60fps dafür mit verringerten Details oder 30fps mit besserer Grafik.
Weil der Content, die Engine und die Verteilung der Prozesse für genau ein Ziel ausgerichtet sind. Das ist gerade auf Konsolen alles stark verwoben. Wenn man es richtig gut machen will, kostet das dann an vielen Stellen entweder doppelten Aufwand oder es ist in beiden Betriebspunkten nicht richtig gut.
Coda hat z.B. erklärt, dass das einfache Senken von Details nicht direkt in einer Halbierung der Rechenzeit bspw auf der CPU führt. Also muss man dort vieles umschichten und ändern.

Coda
2014-05-13, 14:10:45
Das will sich doch keiner mehr antun. Gleiches gilt z.B. für Perfect Dark auf den N64
Der Punkt war, dass damals keineswegs alles mit 60 FPS lief.

xL|Sonic
2014-05-13, 15:07:36
Falscher Konsolenhersteller. 60fps Games gab es vornehmlich bei SEGA, vor allem wegen dem Automatenhintergrund.

DinosaurusRex
2014-05-13, 15:43:24
Hier äussert sich Marcin Iwinski von CD Projekt zum Thema Auflösungen:

The Witcher 3 may run slightly better on PS4 than Xbox One (http://www.eurogamer.net/articles/2014-05-13-the-witcher-3-may-run-better-on-ps4-than-xbox-one)

Interessant ist dabei vor allem, dass Sony offensichtlich auf 1080p beharrt, um sich somit PR-technisch von Microsoft absetzen zu können.

We are still working on squeezing the juice out of the consoles and Microsoft are supporting us in this respect," Iwinski told me. "The final effect, whether it's 720p, 1080p - we had the debate in the studio about it and actually asked our tech guys to explain how it works, and they sent me some complicated graphs that 'if I have this size of the screen, and I sit one meter or two meters from it, then I might be able to see the difference'.

It's more of a PR differentiation," he added, "which is very important for Sony right now - and they are using it, obviously - than something that is really meaningful to gamers.

We're definitely working to max out each of the platforms in terms of what we can get, because that's a crucial element of The Witcher. Will there be big differences? Really I don't think so. It's too early to say. If there will be, they will be tiny. It will be more like people talking 'hey, I have this and you have that and this is better'.


Das ist jetzt halt auch wieder so eine Sache: Was möchte ich lieber? Bessere Grafik? Bessere Auflösung? Höhere Framerate? Für mich hört sich das so an, als würde CD-Projekt lieber mehr aus der Grafik rausholen, aber Sony möchte lieber ein 1080p Spiel (vermutlich weil sie wissen, dass die Xbox One daran zu knabbern haben wird). Von 60fps ist in diesem Fall überhaupt keine Rede.

Ich sitze zum Zocken nur etwa anderthalb Meter von meinem 42 Zoll TV entfernt. Der Unterschied zwischen 1:1 Pixel Mapping und Up-Scaling ist mir auf jeden Fall sofort ersichtlich.

DinosaurusRex
2014-05-13, 17:03:14
Microsoft hat gerade die Xbox One ohne Kinect mit einer UVP von $399 angekündigt:

Xbox One - Delivering More Choices for Fans (http://news.xbox.com/2014/05/xbox-delivering-more-choices)


Today, we’re excited to share more ways your feedback is impacting the products we build.

First, beginning on June 9th, in all markets where Xbox One is sold, we will offer Xbox One starting at $399*. This is a new console option that does not include Kinect. For $399, our new Xbox One offering will continue to deliver access to the best blockbuster games like “Titanfall,” “Call of Duty: Ghosts,” “Forza Motorsport 5,” “Dead Rising 3,” and the upcoming “Watch Dogs,” “Destiny” and "Sunset Overdrive." You will also be able to access popular entertainment apps, such as Twitch, YouTube, and Netflix, as well as watch live TV and use OneGuide. Finally, you will continue to be able to use many of the unique features of Xbox One including the ability to get game invites while you watch TV, switch between games and entertainment apps, enjoy Twitch broadcasts, and upload your favorite gaming moments.

Phil
@XboxP3


*Suggested retail price; actual prices will vary by market and retailer. Games sold separately. Some apps, including Netflix, require app-provider provider specific subscriptions and/or additional requirements For more details, go to www.xbox.com.

O_NLK-jEDGc

Damit kommt kurz vor der E3 mal wieder richtig Bewegung in den Markt. :)

robbitop
2014-05-13, 17:05:43
Damit ist Kinect praktisch gestorben... (IMO kein Verlust)

DinosaurusRex
2014-05-13, 17:11:30
Damit ist Kinect praktisch gestorben... (IMO kein Verlust)

Dazu haben sie auch was gesagt:


To be clear, as we introduce this new Xbox One console option, Kinect remains an important part of our vision. Many of you are using Kinect for Xbox One every day. In fact, more than 80 percent of you are actively using Kinect, with an average of 120 voice commands per month on each console. Some of the most popular voice commands include “Xbox On,” “Xbox Broadcast” and “Xbox Record That.” We will continue to offer a premium Xbox One with Kinect bundle to deliver voice and gesture controls, biometric sign-in, instant personalization, instant scanning of QR codes, and enhanced features only available with Kinect in games such as “Kinect Sports Rivals,” “Just Dance 2014,” “Project Spark” and more.

If you buy Xbox One for $399 and later decide you want to have all the experiences Kinect enables, we will also offer a standalone sensor for Xbox One later this fall. We’ll share more details about the standalone Kinect for Xbox One in the coming months.

Blediator16
2014-05-13, 17:14:49
Das lustige an der Sache ist, dass man Kinect sicher nicht brauch für diese Commands von denen er spricht :freak:

Coda
2014-05-13, 17:16:12
Falscher Konsolenhersteller. 60fps Games gab es vornehmlich bei SEGA, vor allem wegen dem Automatenhintergrund.
Toll! Ändert genau was an meiner Aussage? Richtig: Nichts.

DinosaurusRex
2014-05-13, 17:17:40
Microsoft hat ja durchblicken lassen, dass sie intern ebenfalls an einer VR-Lösung entwickeln. Dementsprechend ist Kinect und dessen Weiterentwicklung ja sicherlich sinnvoll. Es ändert sich nur der Anwendungsbereich: Anstatt Augmented Reality macht mann dann eben Virtual Reality.

Lightning
2014-05-13, 17:18:42
Dazu haben sie auch was gesagt:

Der Punkt ist, dass sich jetzt kein Entwickler mehr darauf verlassen kann, dass Kinect beim User vorhanden ist. Sowas führt immer dazu, dass weniger Entwickler entsprechende Features implementieren werden. Es wird damit an Bedeutung verlieren.

Ich finds aber auch vernünftig. Kinect hat den Preis für die Konsole einfach zu weit in die Höhe getrieben. Man hätte gleich eine Version ohne Kinect bringen sollen, um besser mit der PS4 konkurrieren zu können. Vielleicht war man da zu optimistisch und korrigiert den Fehler jetzt besser spät, als nie.

Gipsel
2014-05-13, 17:57:24
Dazu haben sie auch was gesagt:Für durchschnittlich 4 Sprachkommandos am Tag braucht man das wirklich. Und das zählt bei MS schon als "actively used" :freak:. Ich würde bald wetten, daß davon noch ein merklicher Anteil unfreiwillige Sprachkommandos sind, weil offenbar nur 20% das deaktiviert haben. :rolleyes:

drkohler
2014-05-13, 18:11:16
Sehr interessant der Zeitpunkt für die Ankündigung.
Das wäre doch DER Knaller gewesen für die E3. Da hat wohl jemand einen versteckten Hinweis auf die neusten NPD-Zahlen vom Donnerstag bekommen, oder einen Blick auf die PS4/X1 weltweiten Verkaufszahlen geworfen..
Auf jeden Fall grosse Freude bei all den Herstellern (zB Rare) von AAA Kinect-Games. Schon Millionen in die Entwicklung gesteckt und der Markt bricht weg noch bevor die Spiele auf dem Markt sind. Vielleicht hat man auch nur die Lust verloren, Spracherkennung für all die restlichen 999 Sprachen zu entwickeln.

][immy
2014-05-13, 18:15:55
Microsoft hat gerade die Xbox One ohne Kinect mit einer UVP von $399 angekündigt:

Xbox One - Delivering More Choices for Fans (http://news.xbox.com/2014/05/xbox-delivering-more-choices)



http://youtu.be/O_NLK-jEDGc

Damit kommt kurz vor der E3 mal wieder richtig Bewegung in den Markt. :)
outsch, na das ging jetzt doch recht fix. Ist aber ne ziemliche Kampfansage, besonders mit den ganzen xbl live-Änderungen.


Tja nun, das is Kinect nun wirklich so gut wie tot und vor allem ein Alleinstellungsmerkmal futsch. dachte die würden zumindest dieses jahr noch ein wenig dran hängen.
Aber immerhin wird dann nun das UI vielleicht auch wieder ein wenig mehr für Controller optimiert.

dildo4u
2014-05-13, 18:26:42
Ja die Ankündigung Heute ist komisch jetzt sind die Verkaufszahlen bis Juni noch schlechter.Ich hätte die Preissenkung auf den 27.5 vorgezogen so überlässt man Sony den Watch_Dogs Launch ohne Gegenwehr.

Ravenhearth
2014-05-13, 18:33:16
Um die vergleichsweise niedrigen Verkäufe anzukurbeln, killt man Kinect. Hätten sie von mir aus gleich weglassen können, so ist es nämlich eine ziemliche Katastrophe.

xL|Sonic
2014-05-13, 18:40:33
Vielleicht wollen sie kurzfristig noch mal Bewegung rein bringen um dann die XBox Sparte gewinnbringender Abstoßen zu können.

robbitop
2014-05-13, 18:45:12
MS kann dazu sagen, was sie wollen. Sobald HW nicht in jeder verkauften Konsole drin ist, werden Spiele dafür nicht exklusiv gemacht. Zumindest nicht die richtigen AAA Titel. Damit bleibt es bei Casual Rumgehample...

Mandalore
2014-05-13, 18:46:55
Das ist wirklich ein Milliardenschwerer Fehler den Microsoft bei der R&D von der One gemacht hat. Man muss bedenken, dass Kinect II mehr als die Konsole kostet:frown: Lieber hätten sie die Strategie SONYs anwenden sollen. Dann wäre die Xbox One definitiv mit High-End PC-Hardware vergleichbar gewesen.

Finch
2014-05-13, 18:55:53
Das ist wirklich ein Milliardenschwerer Fehler den Microsoft bei der R&D von der One gemacht hat. Man muss bedenken, dass Kinect II mehr als die Konsole kostet:frown: Lieber hätten sie die Strategie SONYs anwenden sollen. Dann wäre die Xbox One definitiv mit High-End PC-Hardware vergleichbar gewesen.

Quatsch

xxxgamerxxx
2014-05-13, 19:00:50
Eine weitere Fehlentscheidung von Microsoft. Darauf kommt es ja jetzt auch nicht mehr drauf an.

Aber Kinect ist aktuell noch weit entfernt, um wirklich intuitiv bedienbar zu sein, was Sprache betrifft. Vielleicht müssen sie noch auf die Baustelle Bing warten. Wobei man bei der Gestensteuerung auch so recht wenig macht und dazu braucht man kein Bing. Ich hatte mir schon lange diverse Windows Apps wie Bing Karten, 3D Städte oder die Reise App mit gutem Gesten Support a la Minority Report erhofft.

Guest83
2014-05-13, 19:07:14
Das lustige an der Sache ist, dass man Kinect sicher nicht brauch für diese Commands von denen er spricht :freak:
Ich fand es immer erstaunlich, wie fast immer nur die Sprachbefehle beworben wurden, wenn es um Kinect ging. Das ist aber eine reine Softwaregeschichte, als Hardware reicht dafür auch ein kleines Mikrofon das man wahrscheinlich für weniger als 50 Cent in jede Konsole hätte verbauen können, da braucht es keine 100 Dollar Kamera.


Microsoft hat ja durchblicken lassen, dass sie intern ebenfalls an einer VR-Lösung entwickeln. Dementsprechend ist Kinect und dessen Weiterentwicklung ja sicherlich sinnvoll. Es ändert sich nur der Anwendungsbereich: Anstatt Augmented Reality macht mann dann eben Virtual Reality.
Kinect kann aber für VR nicht verwendet werden, da die Latenz viel zu hoch ist. Dafür müsste man die Auflösung massiv reduzieren und alle Funktionen zur Tiefenerkennung übergehen. Doch dann hört das Gerät auf Kinect zu sein und ist nur noch eine simple Webcam.

Grundkurs
2014-05-13, 19:28:16
Zu Kinect, mal ne allgemeine Frage an alle: Wer von euch nutzt eigentlich die Google-Sprachsuche wenn er an seinem Notebook sitzt. Damit meine ich dieses Ding hier:
http://www11.pic-upload.de/thumb/13.05.14/5xcx6wc67a4a.png (http://www.pic-upload.de/view-23190470/google.png.html)

Obwohl es hervorragend und zuverlässig funktioniert kenne ich persönlich niemanden der dieses Feature nutzt. In diesem Sinne ist Sprachsteuerung von Computern schon heutzutage breit verfügbar und niemand nutzt es ernsthaft. Ich kann da nur für mich sprechen, aber wenn ich alleine am Rechner sitze habe ich einfach keinen Bock den Monitor anzublaffen. Das lässt sich gewisserweise auch auf die Kinect übertragen: Es ist vielleicht ein nettes Gimmick, aber alles nur kein "Must have"-Feature.
Jetzt ohne die Kinect verkaufen sie die leistungstechnisch schwächere Konsole zum gleichen Preis wie die PS4. Die Xbox One entwickelt sich mehr und mehr zum Flop imho.

drkohler
2014-05-13, 19:54:21
Das ist wirklich ein Milliardenschwerer Fehler den Microsoft bei der R&D von der One gemacht hat. Man muss bedenken, dass Kinect II mehr als die Konsole kostetDas ist natürlich genauso weit daneben wie die $75, die für Kinect2 kolportiert werden. Die Wahrheit dürfte so um die $150 liegen, da sind immerhin drei ASICs drin, wovon zwei (tof-chip und der SoC) Null Redundanz haben. Die Chips werden von Foundries hergestellt mit festen Verträgen. Und Kinect2 ist aus dem Vollen gefräst, keine billig zusammen gelötete Bleche. MS hat sicher mit höheren Verkaufszahlen gerechnet und entsprechende Mengen an Kinect2s in Auftrag gegeben. Da wird jetzt wohl eine Menge auf Halde produziert resp. hohe Strafzahlungen für nicht mehr benötigte Chips könnten anliegen.
Wenn man nur daran denkt, wer von MS in letztet Zeit immer wieder das Mantra "Ohne Kinect geht gar Nichts" vorgebetet hat...

Rizzard
2014-05-13, 20:11:44
Der Preis sinkt von 450€ mit Kinect und Titanfall auf 399€ ohne Kinect und ohne Game.
Na wenn das kein gutes Geschäft für MS ist.

mbee
2014-05-13, 20:11:47
Zu Kinect, mal ne allgemeine Frage an alle: Wer von euch nutzt eigentlich die Google-Sprachsuche wenn er an seinem Notebook sitzt. Damit meine ich dieses Ding hier:
http://www11.pic-upload.de/thumb/13.05.14/5xcx6wc67a4a.png (http://www.pic-upload.de/view-23190470/google.png.html)

Obwohl es hervorragend und zuverlässig funktioniert kenne ich persönlich niemanden der dieses Feature nutzt. In diesem Sinne ist Sprachsteuerung von Computern schon heutzutage breit verfügbar und niemand nutzt es ernsthaft. Ich kann da nur für mich sprechen, aber wenn ich alleine am Rechner sitze habe ich einfach keinen Bock den Monitor anzublaffen. Das lässt sich gewisserweise auch auf die Kinect übertragen: Es ist vielleicht ein nettes Gimmick, aber alles nur kein "Must have"-Feature.
Jetzt ohne die Kinect verkaufen sie die leistungstechnisch schwächere Konsole zum gleichen Preis wie die PS4. Die Xbox One entwickelt sich mehr und mehr zum Flop imho.
IMO gilt hier wie überall: Ein Feature, das andere ersetzen soll, ist nur sinnvoll, wenn es eine bessere Alternative als diese darstellt:
Am PC habe ich die Hände immer an der Tastatur und fast so schnell getippt wie auf's Mikro geklickt und mich dann vorgebeugt und den Suchbegriff gesprochen.
Am iPhone hingegen benutze ich die Sprachsteuerung/SIRI vornehmlich im Auto oder für Erinnerungen:
- Spiele mir alle Titel von Nine Inch Nails
- Sag' meiner Freundin, ich komme eine halbe Stunde später
- Erinnere mich morgen um 8:00 Uhr an das Angebot

So etwas geht alles müheloser und schneller als alternative Bedienkonzepte. Dennoch fristet auch SIRI wohl unter den iPhone ein Schatten-Dasein und diese Möglichkeiten nutzt wohl keiner.

Lightning
2014-05-13, 20:40:24
Der Preis sinkt von 450€ mit Kinect und Titanfall auf 399€ ohne Kinect und ohne Game.
Na wenn das kein gutes Geschäft für MS ist.

Naja, man sollte Angebotspreise nicht mit der UVP vergleichen.

dildo4u
2014-05-13, 20:48:26
Ubisoft bestätigt Xbox One/PS4 Auflösungen und FPS für Watch_Dogs

On new-gen systems the game will run at 900p on PS4 and 792p on Xbox One, at 30 frames-per-second on both consoles.

http://blog.ubi.com/watch-dogs-next-gen-game-resolution-dynamism/

arcanum
2014-05-13, 20:52:22
damit trägt man kinect praktisch zu grabe... so viele fehlentscheidungen.

Lurtz
2014-05-13, 21:04:28
Ubisoft bestätigt Xbox One/PS4 Auflösungen und FPS für Watch_Dogs



http://blog.ubi.com/watch-dogs-next-gen-game-resolution-dynamism/
http://i.imgur.com/ZdkIoQf.png

Das war wohl nichts :ugly:

Coda
2014-05-13, 21:04:36
Die eigentliche Fehlentscheidung war meiner Meinung nach, dass sie im Wii-Wahn meinten, Kinect überhaupt zu bundlen und dafür an anderer Stelle unbedingt sparen mussten.

Hätten sie nicht die idiotische DDR3/eSRAM-Kombi gebaut wäre ja alles kein Problem.

xxxgamerxxx
2014-05-13, 21:05:09
Am PC habe ich die Hände immer an der Tastatur und fast so schnell getippt wie auf's Mikro geklickt und mich dann vorgebeugt und den Suchbegriff gesprochen.


Die Box steht aber im Wohnzimmer und da ist Tastatur denkbar schlecht und unbequem. Sprache ist schon optimal, aber so gut wie bei Siri geht's da eben nicht. Es gibt immer feste Kommandos und aus dem Kontext versteht die Box nichts. Im Wohnzimmer gibt's auch nicht den Peinlichkeit/Geheimfaktor wie in der Öffentlichkeit.

Es ist halt echt viel undurchdacht hingeschludert und viele Aktionen müssten bei Sprache aus dem Kontext gehen und man müsste auch Sprache und Geste gleichwertig supporten. Und das müsste natürlich alles ganz fix ohne große Warte/Ladezeiten gehen.

Meiner Meinung nach müssten in den Mainstream APIs schon Support für Voice/Gesten sein. Standard Controls wie ein Slider müsste schon von Haus aus per Wisch Geste steuerbar sein, wenn er z.B. per Sprache aktiviert wird.
Dann würde sich das auch viel mehr durchsetzen.

Microsoft rühmt sich ja generell nicht mit der Ausführung von Vorhaben. Da sehe ich Kinect jetzt nicht als Schuldigen. Es ist eine Vision mit viel Potential, in der sie aber Null Support/Energie stecken, aber seit Jahren immer nur große Töne spucken.

00-Schneider
2014-05-13, 21:12:38
Ubisoft bestätigt Xbox One/PS4 Auflösungen und FPS für Watch_Dogs


http://i.imgur.com/p2olKuH.png

Die eigentliche Fehlentscheidung war meiner Meinung nach, dass sie im Wii-Wahn meinten, Kinect überhaupt zu bundlen und dafür an anderer Stelle unbedingt sparen mussten.

Hätten sie nicht die idiotische DDR3/eSRAM-Kombi gebaut wäre ja alles kein Problem.


Jein. Die nackte Konsole ohne Kinect und Controller ist in der Herstellung trotzdem noch teurer als die nackte PS4.

Ansonsten sind mir 400€ ohne Kinect noch zu fett, zumal es die Konsole mit Kinect ja in gewissen Bundles(TF-Bundle) letztens noch für 388€ gab, also effektiv für ~350€.

Coda
2014-05-13, 21:16:14
Jein. Die nackte Konsole ohne Kinect und Controller ist in der Herstellung trotzdem noch teurer als die nackte PS4.
Sagt wer?

00-Schneider
2014-05-13, 21:26:55
Sagt wer?


http://www.neogaf.com/forum/showthread.php?t=723016

http://www.techradar.com/news/gaming/consoles/why-xbox-one-is-more-expensive-than-ps4-is-revealed-in-teardown-1202939

http://allthingsd.com/20131126/microsofts-xbox-one-cost-90-more-to-build-than-sonys-ps4-teardown-shows/

Kinect kostet MS "nur" 75$...

drkohler
2014-05-13, 21:42:21
Kinect kostet MS "nur" 75$...Das ist mit Sicherheit falsch wie ich oben schon angedeutet habe.
Aber unter dem Strich war bisher wohl eine "nackte" XBox One billiger herzustellen als eine PS4. Sony musste für die ersten Millionen PS4s sicherlich viel buttern für die gddr5 chips, was wahrscheinlich nicht mit dem teureren SoC (plus teureres Mainboard) ausgeglichen war. Mehr als grob geschätzt $20 zugunsten von Sony dürfte der Unterschied aber in Zukunft nicht sein.

00-Schneider
2014-05-13, 21:45:15
Das ist mit Sicherheit falsch wie ich oben schon angedeutet habe.


Bring gefälligst Quellen und schwafel hier nicht so seicht rum!

prinz_valium
2014-05-13, 22:25:44
Bring gefälligst Quellen und schwafel hier nicht so seicht rum!
http://abload.de/img/xone9glt1.png
http://www.computerbase.de/2013-11/xbox-one-mit-hoeheren-herstellkosten-als-playstation-4/

warum ist ein "stardard vom band und ich funktioniere nur im liegen nicht vertikal" laufwerk 4 dollar teurer als ein extra von sony entworfenes, damit es in das kleine gehäuse der ps4 passt?

warum kostet der zusammenbau 5 dollar mehr für die xbox one, obwohl sie doch so ein billiges undurchdachtes teil mit massig platz und leicht zusammen zu schustern ist.

18 dollar mehr für (elektro mechanik) und andere elektronik?
seriously? ich bin zwar auch der meinung, dass die xbox one hier wohl teurer sein wird. (ddr3 anbindung und auch die ganzen komponenten auf der platine + die wuchtigere und größere kühllösung) aber das soll 18 dollar ausmachen und damit genauso viel, oder besser wenig, wie der ddr3 ram weniger als die 512 Gib gddr5 chips kosten?


das ganze wird zurecht von vielen bezweifelt


edit: 8gb ddr3 ram für 60 dollar scheinen ohnehin sehr hoch gegriffen

das bekomm ich sogar als endkunde in deutschland für 60 euro inklusive 19% umsatzsteuer (und ja das zeug mit 2133 mhz)
http://geizhals.de/?cat=ramddr3&sort=p&xf=2216_DDR3~254_2133~253_8192#xf_top



man kann die auflistungen also gelinde gesagt bullshit nennen

Mandalore
2014-05-13, 23:47:06
Klar Kinect ist nicht bemerkbar und das billigste und das günstigste..:facepalm::facepalm::facepalm:


Kinect ist das mit Abstand teuerste Teil von der One:P

@Finch:Wie wärs mit ner Begründung für dein "Quatsch"?:facepalm:


Wie kann es eigentlich sein, dass der Unterschied zwischen PS4 und One so gering ist? Ich meine laut Entwicklern schauen beide Versionen von den Details her gleich aus. Entweder das war (auch) gelogen, oder hier ruht ne Menge Leistung von der PS4 im Schlaf....

drkohler
2014-05-13, 23:58:33
Bring gefälligst Quellen und schwafel hier nicht so seicht rum!Meine "Quellen" sind 20 Jahre Erfahrung in der Industrie, inkl Leiter des Elektronikpraktikums an der Uni, etc. etc. Dazu "kleine Extras", wie z.B. über die Schulter schauen wie die Elektronikkollegen ein Modul für den Mars Explorer designed und gebaut haben (und das Modul hat auch einwandfrei funktioniert). Kollegen, die in der Halbleiterindustrie arbeite(te)n. Summa summarum ist vielleicht eine Ahnung von Kosten hängen geblieben....
Du willst von mir wirklich Quellen haben, was die Herstellungskosten der ASICs im Kinect2 kosten? Die Zahlen wissen vielleicht zehn Leute, und die werden das nie verraten.
Aber nur mal als Vergleich: Das ursprüngliche Kinect wurde in den Teardowns mit $65 angegeben. Nun zerlege einfach mal ein altes und ein neues Kinect und schau mal, was da Alles vor dir liegt. Man braucht kein Raketenwissenschaftler zu sein, um zu sehen, dass JEDES Bauteil, aber auch wirklich JEDES Bauteil des neuen Kinects teurer ist als das entsprechende alte Bauteil. Und da ist nun auch noch eine ganze Menge neues Material vorhanden. $10 mehr sind daher ganz offensichtlich absoluter Unsinn. Die einzige Aussage von MS selbst war in einem alten Interview mit der Aussage "Kinect ist grob halb so teuer wie die Box" sprach (nein ich habe mir die Quelle nicht notiert damals, weil das vernünftig klang).

Mandalore
2014-05-14, 00:16:17
Meine "Quellen" sind 20 Jahre Erfahrung in der Industrie, inkl Leiter des Elektronikpraktikums an der Uni, etc. etc. Dazu "kleine Extras", wie z.B. über die Schulter schauen wie die Elektronikkollegen ein Modul für den Mars Explorer designed und gebaut haben (und das Modul hat auch einwandfrei funktioniert). Kollegen, die in der Halbleiterindustrie arbeite(te)n. Summa summarum ist vielleicht eine Ahnung von Kosten hängen geblieben....
Du willst von mir wirklich Quellen haben, was die Herstellungskosten der ASICs im Kinect2 kosten? Die Zahlen wissen vielleicht zehn Leute, und die werden das nie verraten.
Aber nur mal als Vergleich: Das ursprüngliche Kinect wurde in den Teardowns mit $65 angegeben. Nun zerlege einfach mal ein altes und ein neues Kinect und schau mal, was da Alles vor dir liegt. Man braucht kein Raketenwissenschaftler zu sein, um zu sehen, dass JEDES Bauteil, aber auch wirklich JEDES Bauteil des neuen Kinects teurer ist als das entsprechende alte Bauteil. Und da ist nun auch noch eine ganze Menge neues Material vorhanden. $10 mehr sind daher ganz offensichtlich absoluter Unsinn. Die einzige Aussage von MS selbst war in einem alten Interview mit der Aussage "Kinect ist grob halb so teuer wie die Box" sprach (nein ich habe mir die Quelle nicht notiert damals, weil das vernünftig klang).

Ok, schön dass du so viele "krasse" Quellen hast. Aber hast du mal darüber nachgedacht, dass R&D Millionen oder Milliarden verschlingt?!?! Mit diesem Akt hat Microsoft das alles sogesehen "weggeworfen". Denn seien wir ehrlich, wie wird sich Kinect denn jetzt noch verkaufen? Keine oder geringe Anbindung davon in Spielen, Voice-Commands sind der vermutliche Kaufpreis von 100-150€ garantiert nicht wert...

drkohler
2014-05-14, 00:23:51
warum kostet der zusammenbau 5 dollar mehr für die xbox one, obwohl sie doch so ein billiges undurchdachtes teil mit massig platz und leicht zusammen zu schustern ist.

18 dollar mehr für (elektro mechanik) und andere elektronik?
das ganze wird zurecht von vielen bezweifelt
edit: 8gb ddr3 ram für 60 dollar scheinen ohnehin sehr hoch gegriffen
man kann die auflistungen also gelinde gesagt bullshit nennenDiese Teardowns werden meist in der Annahme gemacht, dass die Hersteller in etwa +/- Null drauflegen und dann wird rückwärts gerechnet. Meist mit Hilfe von Preisen aus dem Supermarkt. Das geht immer in die Hosen in den Details, aber weill die Ausschläge in beide Richtungen gehen, stimmt es am Schluss einiger Massen. Hier nur ein paar Ideen, die du aufwirfst:
1. Das ddr3 ram dürfte MS etwa $20 kosten. (Das gddr5 schätze ich auf $60 für die erste Lieferung). Das wurde Kistenweise von MS Jahre im Voraus bestellt, Man kann im Internet den Spotmarkt abrufen und da waren die Preise um $2 pro Chip so um 2011.
2. Die Harddisks dürften so um $28 liegen. Auch hier: Kistenweise und Jahre im Voraus bestellt.
3. Die Mainboards machen den grössten Preisunterschied aus. Grösse, Anzahl Stecker, Anzahl Layer und Anzahl VIAs machen den Preis aus. Dazu kommt etwa 1-2c pro plaziertes Bauteil (ohne den Bauteilpreis selbst). Zähl mal die Bauteile auf dem aufgeräumten PS4 Mainboard, und vergleiche dann mal mit dem XBox Mainboard - da kommen dir die Tränen...
4. Das Blu-ray Laufwerk der XBox ist sicher blilligere Qualität, aber Sony spart evtl. an den Royalties (und wahrscheinlich an der Laser-Diode, die kommt ja von einem Sony-Werk).
5. Im Zusammenbaupreis muss auch die Marge der Fabrik enthalten sein. Die arbeiten nicht gratis und mit $14 ist da Nichts zu machen.
Eine Zahl, die in Interviews herumgereicht wird, sind die $3b, welche der SoC Kontrakt zwischen AMD und MS ausmachen soll. Soviel soll AMD verdienen, das sind nicht die Kosten für die Entwicklung des SoC. Wenn man sehr optimistisch Lifetime mit 300M Konsolen rechnet, macht das Alleine schon $10 Kosten pro Konsole aus nur für den SoC...
6. Die Grösse der Konsolen und die Kühlungen spielen keine grosse Rolle, da geht es um Preisunterschiede von $1-$2.
7. Beim Verpacken und Versenden ist auch kein grosser Presiunterschied vorhanden. Man kann schon mehr PS4s als XBoxes in einen 2TU Container reinstellen ($3000 pro Container von China nach NA/Europa) aber das macht nicht so viel aus auf den Endpreis.

drkohler
2014-05-14, 00:42:42
Ok, schön dass du so viele "krasse" Quellen hast. Aber hast du mal darüber nachgedacht, dass R&D Millionen oder Milliarden verschlingt?In den Teardowns sind natürlich nie die "anderen" Kosten enthalten, die der Hersteller wieder hereinholen müsste (R&D, Marketing, Testphasen, Test/Demounits, etc). Da geht es um die reinen Herstellungskosten der "fertigen" Konsole. Danach liegt es an jedem Hersteller, wie er diese anderen Kosten über welchen Zeitraum oder überhaupt wieder hereinholt. (Normaler weise kommt dieses Geld von der jeweils älteren Konsolengeneration). Da sitzt MS natürlich am längsten Hebel den man sich vorstellen kann, die Firma hat Geld wie Heu und die XBox ist sowas wie das Lieblingskind der Leute am Ruder. Sony kann da niemals mithalten, da muss die Konsole in der angespannten Lage von Anfang an soviel Geld wie möglich reinholen.

Es ist klar, dass Microsoft in R&D ganz erheblich mehr investiert hat als Sony. Speziell das Kinect2, da konnte man vor Jahren schon sehen wohin die Reise ging. MS hatte nie PrimeSense kaufen wollen oder in diese Firma investiert, aber rudelweise Firmen aufgekauft die mit tof-chips experimentierten. Und Kinect2 ist wirklich ein geniales Produkt von der Leistung her. Nicht so leistungsfähige tof-Kameras kosteten mehrere tausend Euros noch vor wenigen Jahren..

Wie das Ganze sich jetzt entwickelt wird interessant zu beobachten sein. Mit oder ohne Kinect2, MS Marketing kann Alles zu jeder Zeit erschlagen, was an Widerspruch kommen könnte. Mit Sicherheit wird die XBox One jetzt in NA auf die Ueberholspur wechseln (das Reservoir an X360 Usern ist einfach zu gross im Vergleich zu PS3 Besitzern). Leser mit grosser Humortoleranz können ja ab und zu MisterXmedias Blog lesen. Da sieht man schon jetzt, wohin die Reise geht (zumindest im Kopf mit den vielen Stimmen von mrx).

mboeller
2014-05-14, 07:29:49
Die Box steht aber im Wohnzimmer und da ist Tastatur denkbar schlecht und unbequem. Sprache ist schon optimal, aber so gut wie bei Siri geht's da eben nicht. Es gibt immer feste Kommandos und aus dem Kontext versteht die Box nichts. Im Wohnzimmer gibt's auch nicht den Peinlichkeit/Geheimfaktor wie in der Öffentlichkeit.

Es ist halt echt viel undurchdacht hingeschludert und viele Aktionen müssten bei Sprache aus dem Kontext gehen und man müsste auch Sprache und Geste gleichwertig supporten. Und das müsste natürlich alles ganz fix ohne große Warte/Ladezeiten gehen.


Den shitstorm hätte ich gerne sehen wollen wenn die XBox-One jedes Sprachkommando (und damit praktisch die gesamten Gespräche im Raum) zu einem Server in die USA schicken würde so wie es Siri macht. Das wäre bestimmt Lustig geworden. :)

DinosaurusRex
2014-05-14, 07:44:40
Wer sagt denn, dass sie es nicht tut? ;)

Die Voice Control der Xbox One besitzt eine Memory Funktion und kann dementsprechend lernen, wer wie oft was sagt. Da werden also auf jeden Fall einige Parameter lokal gespeichert und so etwas kann man auch zeitversetzt an die Microsoft Server schicken, beispielsweise wenn irgendein Patch oder Firmware Update ansteht. Microsoft beteuert allerdings, dass alle Daten, die über Kinect ermittelt werden, nicht personalisiert und durch eine Verschlüsselung vor Missbrauch geschützt sind.

Wenn ich komplett paranoid wäre (und ich stehe mit Sicherheit nur ganz kur davor), dann würde ich sogar behaupten, dass die ganze VR-Revolution, die da auf uns zurollt, ein von der USA gesteuertes Überwachnungsprogramm ist. Aber um Codas nerven zu schonen, tue ich das natürlich nicht. :crazy: :D :crazy:

MarcWessels
2014-05-14, 08:26:24
Ubisoft bestätigt Xbox One/PS4 Auflösungen und FPS für Watch_Dogs



http://blog.ubi.com/watch-dogs-next-gen-game-resolution-dynamism/Scheinen ja fähige Leute bei UBI zu arbeiten. Die quetschen alles aus der PS4 raus. :freak:

Finch
2014-05-14, 08:31:36
Besonders wenn man den grafischen Downgrade mit bedenkt...Ich werde es dann wohl auch auf dem PC spielen. (Wenn ich es mir denn kaufe)

xL|Sonic
2014-05-14, 10:08:20
wer spielt denn schon was auf den aktuellen Konsolen an MP Titeln, wenn er einen halbwegs passablen PC hat? Deutlich günstigere Spielepreise, bessere Grafik, kostenloses Onlinegaming.. Win Win ;)

robbitop
2014-05-14, 10:14:58
Scheinen ja fähige Leute bei UBI zu arbeiten. Die quetschen alles aus der PS4 raus. :freak:
Nicht schon wieder... :rolleyes:

Loeschzwerg
2014-05-14, 11:19:34
damit trägt man kinect praktisch zu grabe... so viele fehlentscheidungen.

Hm... war/ist Kinect bei der aktuellen Auswahl an Spielen nicht eh schon Schnee von Gestern?
Man hätte Kinect wesentlich mehr pushen müssen mit Games, aber so war es doch absehbar und dann hätte man die XBone gleich nur mit Kinect als Option anbieten können.

DinosaurusRex
2014-05-14, 14:18:36
Microsoft ist derzeit in Gesprächen mit den Publishern. Es geht darum, ob man die GPU-Reservierung für Kinect jetzt aufhebt oder beibehält:

Microsoft and publishers talking Kinect-less Xbox One performance boost - Eurogamer (http://www.eurogamer.net/articles/2014-05-14-microsoft-and-publishers-mulling-kinect-less-xbox-one-performance-boost)


We are in discussions with our game publishers about what we might do in this space and we will have more to talk about soon.


Xbox One has a conservative 10 per cent time-sliced reservation on the GPU for system processing. This is used both for the GPGPU processing for Kinect and for the rendering of concurrent system content such as snap mode.

Watson007
2014-05-14, 14:34:40
oh mann was für ne Bastelbude, was für ein Gerudere...
Microsoft bekleckert sich da echt nicht gerade mit Ruhm

von dem anfänglichen "lebt damit" ist ja nicht mehr viel übrig geblieben

Botcruscher
2014-05-14, 14:45:22
Ist halt so wenn die Marketingfritzen am Ruder sitzen und groß die Mehrwertdienste der Werbung im Blick haben. Bei der WiiU wollte man wenigstens noch etwas wie Spiele im Blick haben. Dafür konnten man auch von Anfang an nicht den Zweck des Controllers glaubhaft vermitteln. Das Beste ist aber die Freigabe vom Internetexplorer und Skype ohne Gold-Acc. Kann man endlich was jedes Billiggerät kann...

Mandalore
2014-05-14, 15:45:10
Ich denke wir werden die Xbox Next-Gen warscheinlich schon Ende 2015/2016 sehen. Siehe Xbox 1 -> Xbox 360

mbee
2014-05-14, 15:46:01
Das bezweifle ich doch mal ganz stark...

DinosaurusRex
2014-05-14, 15:48:34
Tim Lottes von Epic Games hat ja ohnehin darauf spekuliert, dass die Xbox One mit Vorwärtskompatibilität konzipiert wurde. Alle Xbox One Spiele würden dementsprechend auch auf einer Xbox Two laufen. ;)

robbitop
2014-05-14, 15:48:49
Ich denke wir werden die Xbox Next-Gen warscheinlich schon Ende 2015/2016 sehen. Siehe Xbox 1 -> Xbox 360

Das halte ich für unwahrscheinlich.
Gute 6 Jahre wird der Zyklus schon gehen. Und so schwach ist die Xbox jetzt auch nicht. Mein Gott ein bisschen weniger Auflösung. Wer von den 0815-Normalspielern sieht das schon? Es ist ja keine WiiU.
Es zählt am Ende sowieso nur eines: Content - Content und Content.

Die PS2 war bspw. die schwächste Konsole der vorletzten Gen. Und sie war mit Abstand die erfolgreichste. Die Wii war allerdings eher ein Glücksgriff mit dem Casualmarkt. Das gelingt IMO kein 2. Mal mehr.

Tim Lottes von Epic Games hat ja ohnehin darauf spekuliert, dass die Xbox One mit Vorwärtskompatibilität konzipiert wurde. Alle Xbox One Spiele würden dementsprechend auch auf einer Xbox Two laufen. ;)
Das geht so lange gut, wie man sich strickt an Abstraktionslayers und feste Standards hällt. Sobald hardwarenahe programmiert wird und die Nachfolge-HW diese Spezifika nicht unterstützt, ist es damit vorbei. Ich denke schon, dass man (sofern man es nicht schon tut) hardwarenahe programmieren muss. Der Druck verstärkt sich dort zum Fortschreiten des Lebenszyklus immer mehr, weil man ja grafischen Fortschritt sehen will.

Außerdem ist Backward Compatibility überschätzt. Das bringt ein kleines bisschen was um die Launchzeit zu überbrücken. Danach will der Hersteller ja, dass du die neuen Spiele kaufst.
Und wie man an der PS4/One sehen kann, werden so viele Konsolen gekauft, wie gebaut werden. Also würde jetzt bspw eine Backwardskompatibilität wenig bringen. IMO überschätztes Feature.

DinosaurusRex
2014-05-14, 15:51:47
Die PS2 war bspw. die schwächste Konsole der vorletzten Gen. Und sie war mit Abstand die erfolgreichste. Die Wii war allerdings eher ein Glücksgriff mit dem Casualmarkt. Das gelingt IMO kein 2. Mal mehr.

Vergisst du da nicht jemanden?

http://s2.quickmeme.com/img/1c/1cc871e05b81a02b6cb682cc6eb3f38170ecb9ef558cba3faff965526e2e8b1a.jpg

robbitop
2014-05-14, 15:53:44
Vergisst du da nicht jemanden?

http://s2.quickmeme.com/img/1c/1cc871e05b81a02b6cb682cc6eb3f38170ecb9ef558cba3faff965526e2e8b1a.jpg
Ich kann das Logo nicht erkennen, da es hier nicht angezeigt wird. Meinst du den Sega Dreamcast? Dann hättest du Recht. Allerdings ein wenig unfair, weil diese schon 2 Jahre vor der PS2 kam und zum PS2 Launch kommerziell tot war und für diese Gen praktisch keine Relevanz hatte.

mbee
2014-05-14, 15:55:46
Tim Lottes von Epic Games hat ja ohnehin darauf spekuliert, dass die Xbox One mit Vorwärtskompatibilität konzipiert wurde. Alle Xbox One Spiele würden dementsprechend auch auf einer Xbox Two laufen. ;)
Da es sich ja "fast" um PCs im Konsolengewand handelt, sollte das bei Beibehaltung der Strategie bei den Nachfolgekonsolen auch kein Hexenwerk sein. Trotzdem halte ich viel kürzere Zyklen für sehr unwahrscheinlich: Damit würde man sich IMO den Markt eher kaputt machen.

DinosaurusRex
2014-05-14, 15:56:47
Jup ist Dreamcast. Die PS2 ist aber auch ganze anderhalb Jahre vor der Xbox veröffentlicht worden.

robbitop
2014-05-14, 15:58:19
Sobald man GCN exklusive Sachen nutzt, die die Nachfolge Arch nicht unterstützt, wird es schwierig mit Backwardscompatibility. Auch wäre man auch auf x86-64 CPUs festgenagelt, sobald man dort spezifische Dinge (AVX, SSE etc) nutzt. Ich glaube nicht, dass das so einfach ist, wenn man nicht Leistung verschenken will. Und das ist die Backwardcompatibility IMO nicht wert.

Deinorius
2014-05-14, 16:05:43
Was die Abwärtskompatibilität für Probleme bringen kann, sieht man ja hervorragend an der CPU-Leistung der Wii U. Nein danke. Nie wieder!
Zwar habe ich früher auch geglaubt, wenn die Architektur ähnlich/gleich bleibt, sollte die Abwärtskompatibilität einfacher zu bewerkstelligen sein. Aber dessen bin ich selber nicht mehr sicher, wenn man vollständig auf die Features, Takt- und Busfrequenz und was noch immer achten muss.

DinosaurusRex
2014-05-14, 16:07:45
Sobald man GCN exklusive Sachen nutzt, die die Nachfolge Arch nicht unterstützt, wird es schwierig mit Backwardscompatibility. Auch wäre man auch auf x86-64 CPUs festgenagelt, sobald man dort spezifische Dinge (AVX, SSE etc) nutzt. Ich glaube nicht, dass das so einfach ist, wenn man nicht Leistung verschenken will. Und das ist die Backwardcompatibility IMO nicht wert.

Ich kann ja hier mal verlinken, was er (im Januar 2013) gesagt hat zur Xbox One:


Xbox720

Working here assuming the Eurogamer Article is close to correct. On this platform I'd be concerned with memory bandwidth. Only DDR3 for system/GPU memory pared with 32MB of "ESRAM" sounds troubling....If this GPU is pre-GCN with a serious performance gap to PS4, then this next Xbox will act like a boat anchor, dragging down the min-spec target for cross-platform next-generation games.

My guess is that the real reason for 8GB of memory is because this box is a DVR which actually runs "Windows" (which requires a GB or two or three of "overhead"), but like Windows RT (Windows on ARM) only exposes a non-desktop UI to the user. There are a bunch of reasons they might ditch the real-time console OS, one being that if they don't provide low level access to developers, that it might enable a faster refresh on backwards compatible hardware. In theory the developer just targets the box like it was a special DX11 "PC" with a few extra changes like hints for surfaces which should go in ESRAM, then on the next refresh hardware, all prior games just get better FPS or resolution or AA. Of course if they do that, then it is just another PC, just lower performance, with all the latency baggage, and lack of low level magic which makes 1st party games stand out and sell the platform.

Quelle (http://www.neogaf.com/forum/showthread.php?t=510076[/B)

robbitop
2014-05-14, 16:08:58
Vollständige Abwärtskompatibilität kostet immer. Entweder bildest du die gleiche HW nochmal mit ab (siehe PS1, PS2 und die erste Rev der PS3) oder du emulierst oder du arbeitest mit vielen Abstraktionslayern.

Ersteres funktioniert out of the box am besten, zweiteres am schlechtesten (und erzeugt viel Aufwand) und letzteres kostet halt einiges an Leistung.

Das ist es nicht wert.

@DinosaurusRex

Aber genau das kostet Leistung - bzw erlaubt nicht das volle Ausschöpfen des Potenzials der HW.

DinosaurusRex
2014-05-14, 16:12:52
Das Microsoft bei der Xbox One unter Umständen auf eine dickere Abstraktionsschicht setzt, könnte man blauäugigerweise in einen Tweet von Corinne Yu hineininterpretieren. Die ist nämlich letztes Jahr vom Xbox 1st-Party Studio 343 Industries zu Naughty Dog gewechselt.

http://cdn2.dualshockers.com/wp-content/uploads/2013/11/CorinneYu2.jpg?57efa4

Und auch Microsofts DX12 Gefasel würde dann mehr Sinn ergeben.

robbitop
2014-05-14, 16:18:41
Früher oder später wird man das aber so machen müssen. Noch sind wir am Anfang des Zyklus. Warte mal ein paar Jahre ab.

DinosaurusRex
2014-05-14, 16:25:10
Früher oder später wird man das aber so machen müssen.

Oder eben eine Xbox Two veröffentlichen. ;)

Es deuten halt sehr viele Dinge darauf hin: Die neue Namensgebung ist dazu prädestiniert, der Vertrag mit AMD umfasst bei MS angeblich 3Mrd Dollar, bei Sony nur 1Mrd Dollar, Microsoft weigert sich partout, die Xbox One mit Verlust zu verkaufen (siehe $399 Preis für die neue SKU), dazu erste Sensibilisierungsversuche Microsoft-naher Magazine wie Polygon, die vor einigen Monaten sogar Grafikeinstellungen für Konsolenspiele gefordert haben, also etwas, dass Sony mit seiner pedal-to-the-metal Strategie niemals bieten können wird, dann die Aussagen von Entwicklern und natürlich der viel zu große Leistungsunterschied zwischen PS4 und Xbox One in Multiplattformspielen...

mbee
2014-05-14, 16:30:27
Damit stößt man außer Enthusiasten viele Käufer der ONE ziemlich vor den Kopf: Das ist eben kein PC, sondern man ist es gewohnt, die Kiste eine ganze Zeit lang "zukunftssicher" zu betreiben.
Ich kann's mir auch deshalb nicht vorstellen und hielte das für keine sehr sinnvolle Strategie.
Andererseits ist nach der "Non-Kinect"-Schiene, über die sich auch einige ärgern dürften, anscheinend wirklich so einiges möglich ;)

robbitop
2014-05-14, 16:31:37
Wieso viel zu großer Unterschied? Die Auflösung ist auf der PS4 idR ~ 20 % höher. Das ist angesichts der 25 % höheren Rohleistung nun wirklich keine negative Überraschung. Hinzu kommt, dass angeblich ~10 % der GPU Rechenleistung bisher für Kinect reserviert war. Dafür sieht es noch gut aus.

Ich denke aber, dass die Unterschiede in einem so frühen Stadium noch nicht so groß sind. Die Optimierungen kommen idR vor allem, wenn die HW sehr gut bekannt ist und neue Ansätze erdacht wurden.

Wenn eine Nachfolgerkonsole die gleichen Titel wie die Vorgängerkonsole abspielen soll, dann läuft der Titel auf beiden Konsolen nicht ideal. Normalerweise ist der Kontent perfekt auf einen Betriebspunkt optimiert. Texture, Geometriedetails etc. Ich halte davon wenig.

DinosaurusRex
2014-05-14, 16:40:11
Damit stößt man außer Enthusiasten viele Käufer der ONE ziemlich vor den Kopf

Natürlich. Aber wenn wir diese Spekulationen auf die Spitze treiben wollen und den Leuten bei Microsoft einen brillianten Intellekt unterstellen, dann können wir beispielsweise behaupten, dass die ganzen Fails der letzten 12 Monate einfach nur Stunts nach Drehbuch waren, denn dadurch hat Microsoft das perfekte Alibi, eine Xbox Two "frühzeitig" zu veröffentlichen. Die Ressourcen für so etwas haben sie allemal. ;)

Lightning
2014-05-14, 16:46:22
Wieso viel zu großer Unterschied? Die Auflösung ist auf der PS4 idR ~ 20 % höher. Das ist angesichts der 25 % höheren Rohleistung nun wirklich keine negative Überraschung. Hinzu kommt, dass angeblich ~10 % der GPU Rechenleistung bisher für Kinect reserviert war. Dafür sieht es noch gut aus.

25%? Die PS4-GPU hat doch eher 40-50% mehr, je nachdem, wie das jetzt mit der Reservierung aussieht. Und 20% Auflösungsunterschied..?

Dennoch stimme ich zu, dass das nicht arg entscheidend ist. Wenn MS die attraktiveren Exklusivtitel bringt, kann das Blatt trotzdem noch gewendet werden. Zumindest in den USA, wo es ja ohnehin einigermaßen ausgeglichen ist.

Lurtz
2014-05-14, 16:52:33
25%? Die PS4-GPU hat doch eher 40-50% mehr, je nachdem, wie das jetzt mit der Reservierung aussieht. Und 20% Auflösungsunterschied..?

Dennoch stimme ich zu, dass das nicht arg entscheidend ist. Wenn MS die attraktiveren Exklusivtitel bringt, kann das Blatt trotzdem noch gewendet werden. Zumindest in den USA, wo es ja ohnehin einigermaßen ausgeglichen ist.
Microsoft hat doch vor kurzem noch was gefaselt, dass die Next-Gen-Konsolen sich mehr als 1 Millarde mal verkaufen könnten, da reichen die USA natürlich nicht aus um das zu erreichen.

IC3M@N FX
2014-05-14, 16:53:15
@ DinosaurusRex Und wer soll das Kaufen???
Ich würde es nicht mehr tun egal wie geil die Hardware wäre weil dadurch
erst recht die Kunden verarscht werden. Mit welcher Begründung will man sowas nach 1-2 jahren rausbringen? Weil man ein Umsatzorientiertes Unternehmen ist und immer auf Gewinn hinaus ist, und die Marketingabteilung von Microsoft dann etwas schwafelt wie wir sind es unseren treuen Kunden schuldig eine schnelle Hardware rauszubringen.......

robbitop
2014-05-14, 16:53:28
Ups es waren 40,5 % mehr Rechenleistung. Bei der Auflösung werden ja leider nur die Anzahl der Zeilen und nicht mehr der Spalten angegeben. Bei Watchdogs sind es nun 900p vs 792p. Bei vielen anderen Multititeln sind es 1080p ggü. 900p.

Ich sehe jetzt aber nicht großartig mehr Auflösungsdefizit als durch das Rohleistungsdefizit erklärbar wären.

Botcruscher
2014-05-14, 17:07:49
Technik ist doch kein Problem, da ist man doch bei PC-Hardware angekommen. Der SoC würde ganz klar wieder von AMD kommen. Aktueller Kabini samt ordentlicher Grafik. Abwärtskompatibilität wäre absolut gegeben. Marketing und Co machen das ganze eher unwahrscheinlich. Die Grafik der PS4 reißt es auch nicht raus.

Coda
2014-05-14, 17:11:13
Bis zur nächste Generation dauert es sicher wieder mindestens 5 Jahre. Da kann sich viel ändern. Zum Beispiel dass AMD gar keinen x86-Kern mehr hat. Oder er so lahm ist, dass sich doch ARM oder PowerPC wieder anbietet.

Auch halte ich es für unwahrscheinlich, dass die AMD-GPU-ISA so lange abwärtskompatibel bleibt.

Watson007
2014-05-14, 17:19:56
mir geht das solangsam auf den Sack wie in den Foren die geringe Auflösung von Watch Dogs an den Konsolen festgemacht wird.

man kann doch jede Hardware ausreizen... ich habe den letzten Trailer gesehen und fand ihn okay, nichts herausragendes aber auch nicht so schlecht wie es gemacht wird.

Lightning
2014-05-14, 17:53:45
Ups es waren 40,5 % mehr Rechenleistung. Bei der Auflösung werden ja leider nur die Anzahl der Zeilen und nicht mehr der Spalten angegeben. Bei Watchdogs sind es nun 900p vs 792p. Bei vielen anderen Multititeln sind es 1080p ggü. 900p.

In der Regel sind die Auflösungen aber 16:9, wodurch sich die Spalten ergeben. Und wenn man hier die Rechenleistung mit der Auflösung in Beziehung setzt, würde ich Auflösung immer als Anzahl der Pixel auffassen. Da sind 1080p vs 900p halt 44% mehr.

Ich sehe jetzt aber nicht großartig mehr Auflösungsdefizit als durch das Rohleistungsdefizit erklärbar wären.

Stimmt natürlich auch. Wenn, dann werden sich zusätzliche Unterschiede erst nach einiger Zeit einstellen. Oder bei Multititeln gar nicht, weil sich keiner für die PS4 noch zusätzliche Mühe macht, wenn alleine durch den Leistungsunterschied eh schon bessere Grafik bzw. höhere Auflösung abfällt.

Deinorius
2014-05-14, 19:40:13
Microsoft hat doch vor kurzem noch was gefaselt, dass die Next-Gen-Konsolen sich mehr als 1 Millarde mal verkaufen könnten, da reichen die USA natürlich nicht aus um das zu erreichen.


1 Milliarde??? Und wer soll das bitte kaufen? Nicht mal Apple schafft diese Zahl auch nur annähernd, selbst dann, wenn man mehrere Geräte zusammenrechnet.

Wie kommt man bitte auf 1 Millarde, wenn die Zahl der Menschen, die sich das theoretisch überhaupt leisten könnten, gerade mal so übersteigt und dann muss man auch noch außer Acht lassen, dass bei weitem nicht alle daran interessiert sind, eine Konsole zu kaufen und man nicht immer mit 1 Konsole/Person sondern auch mit 1 Konsole/Haushalt rechnen muss. ;D :ugly:

Lurtz
2014-05-14, 19:59:01
1 Milliarde??? Und wer soll das bitte kaufen? Nicht mal Apple schafft diese Zahl auch nur annähernd, selbst dann, wenn man mehrere Geräte zusammenrechnet.

Wie kommt man bitte auf 1 Millarde, wenn die Zahl der Menschen, die sich das theoretisch überhaupt leisten könnten, gerade mal so übersteigt und dann muss man auch noch außer Acht lassen, dass bei weitem nicht alle daran interessiert sind, eine Konsole zu kaufen und man nicht immer mit 1 Konsole/Person sondern auch mit 1 Konsole/Haushalt rechnen muss. ;D :ugly:
http://www.totalxbox.com/54712/microsoft-aiming-for-100-million-xbox-360s-sold-and-one-billion-next-gen-consoles/

Die denken wahrscheinlich jeder stellt sich eine XBox als TV-Receiver ins Wohnzimmer.

Grundkurs
2014-05-14, 22:34:53
mir geht das solangsam auf den Sack wie in den Foren die geringe Auflösung von Watch Dogs an den Konsolen festgemacht wird.

man kann doch jede Hardware ausreizen... ich habe den letzten Trailer gesehen und fand ihn okay, nichts herausragendes aber auch nicht so schlecht wie es gemacht wird.

Das Ding ist doch dass 1080p im Gaming-Bereich mittlerweile etablierter Standard ist und jetzt kommt ne neue Konsolengeneration raus und es stellt sich raus das sie bei manchen Games nicht mal die 1080p bei 30 fps hinkriegen.
Von QHD oder sogar 4K-Auflösungen braucht man hier gar nicht erst anfangen zu träumen und diese Auflösungen werden sich in der nächsten Zeit etablieren. Deswegen finde ich es durchaus berechtigt dass jetzt viele Leute lange Gesichter ziehen, auch wenn Watch Dogs insgesamt recht ansehnlich aussieht. Für 400 € kriegen die PS4/Xbone Kunden wohl auch die dementsprechende Hardware.

Watson007
2014-05-14, 22:41:40
so ein quatsch - Ubisoft, also der Hersteller von Watchdogs, könnte natürlich auch die Details reduzieren um 1080p hinzukriegen.

man kann JEDE Hardware überlasten, egal wie schnell sie ist. Warum geht das eigentlich nicht in die Köpfe rein?

das ist eine Spielehersteller- und keine Konsolenherstellerfrage.

das_Apo
2014-05-14, 23:02:21
Was die Abwärtskompatibilität für Probleme bringen kann, sieht man ja hervorragend an der CPU-Leistung der Wii U. Nein danke. Nie wieder!
Zwar habe ich früher auch geglaubt, wenn die Architektur ähnlich/gleich bleibt, sollte die Abwärtskompatibilität einfacher zu bewerkstelligen sein. Aber dessen bin ich selber nicht mehr sicher, wenn man vollständig auf die Features, Takt- und Busfrequenz und was noch immer achten muss.

Gibt es bei der WiiU Probleme mit der Abwärtskompatibilität zur Wii? Da ich letztere nie besaß, ziehe ich für irgendwann ggf. den Kauf einer WiiU in Erwägung, um einfach ein paar Titel nachzuholen.

Gynoug MD
2014-05-14, 23:03:29
Nicht schon wieder... :rolleyes:

Er hat doch aber nicht ganz unrecht:
Da werden die Fans mit sehr geil aussehenden (2012) "NextGen-Gameplays" (was mMn auch bewusst die PS4 etc. Fassungen mit einschliesst) geködert und dann
kommt die Realität in Form von N64-like Demos zum Vorschein.

Hoffentlich läuft bei the Devision nicht auch so.

PS: Zur Xone: Nur, wenn MS jetzt ein technisch sehr gutes (meinetwegen auch Sub-1080p) Halo, Gears oder hervorragende Rare-Titel zeigt (und das möglichst bald), reissen sie das Ruder noch herum.
Das bei weitem beste Joypad aller Konsolen braucht endlich Futter!

Rente
2014-05-14, 23:14:56
Ist es eigentlich generell unmöglich, dass Microsoft eine neue Version der APU bei AMD in Auftrag gibt die über mehr ESRAM oder sogar über eine etwas leistungsfähigere GPU verfügt?

Bisher gibt es ja noch nicht viele Spiele, Patchen wäre nachträglich zusätzlich auch noch möglich, es sollte doch theoretisch kein riesiges Problem für die Entwickler darstellen...
So weit ich weiß gab es so etwas in der jüngeren Vergangenheit (<20 Jahre) allerdings auch nur mal beim N64 (Zusatzmodul).

Watson007
2014-05-14, 23:16:41
sehr witzig. Neue Spiele würden dann nicht mehr auf Millionen Original-Konsolen laufen.

Microsoft muss mit der schwächeren Hardware nun halt leben bis zur nächsten Generation.

Lightning
2014-05-14, 23:17:57
Gibt es bei der WiiU Probleme mit der Abwärtskompatibilität zur Wii? Da ich letztere nie besaß, ziehe ich für irgendwann ggf. den Kauf einer WiiU in Erwägung, um einfach ein paar Titel nachzuholen.

Nein, es gibt keine Probleme in dem Sinne. Die Wii U ist 100% abwärtskompatibel, da die Kompatibilität durch Hardwareunterstützung erreicht wird.
Was Deinorius meinte, ist, dass Nintendo die z.T. umstrittene CPU der Wii U eben wegen der Abwärtskompatibilität so gewählt hat. Im Wesentlichen ist das 3x die Wii-CPU mit 70% höherem Takt und größeren Caches.

Rente
2014-05-14, 23:37:36
sehr witzig. Neue Spiele würden dann nicht mehr auf Millionen Original-Konsolen laufen.

Microsoft muss mit der schwächeren Hardware nun halt leben bis zur nächsten Generation.
Gnaaah, aus unerklärlichen Gründen hatte ich ausgeblendet das ja schon 5 Millionen verkauft wurden... :redface:

Da eine Änderung in dem Fall nicht modular passieren würde geht die Wahrscheinlichkeit dadurch natürlich gegen 0.

StefanV
2014-05-15, 00:52:58
Ist es eigentlich generell unmöglich, dass Microsoft eine neue Version der APU bei AMD in Auftrag gibt die über mehr ESRAM oder sogar über eine etwas leistungsfähigere GPU verfügt?
Wenn das Gerät, wo das rein gehen soll, Xbox one heißt, ja.
Wenn das Gerät, wo das rein gehen soll, nicht XBox One heißt, dann nicht.

MarcWessels
2014-05-15, 01:38:35
so ein quatsch - Ubisoft, also der Hersteller von Watchdogs, könnte natürlich auch die Details reduzieren um 1080p hinzukriegen.

man kann JEDE Hardware überlasten, egal wie schnell sie ist. Warum geht das eigentlich nicht in die Köpfe rein?Andere Entwickler hätten u.U. mehr Details bei höherer Auflösung hinbekommen. In der Tat liegt das Problem auf der Softwareentwicklungsseite aber garantiert nicht, weil Watch Dogs ja ach so detailliert wäre, denn das ist es eben nicht.

Neosix
2014-05-15, 01:40:27
Höchstwahrscheinlich sind einfach noch die alten Konsolen schuld. Hätte man schon bei der Engine nicht die alten Schinken berücksichtigen sollen. Wäre wie bei Second Son bestimmt auch 1080p drin.

DinosaurusRex
2014-05-15, 08:14:35
Für solche Fälle hat Sony ja auch seine 1st-party Studios. In drei Wochen ist E3 und selbst wenn viele von Infamous und Killzone begeistert waren, so muss man auch ganz nüchtern bemerken, dass die ganzen SCE Top-Studios (Naughty Dog, Sony Santa Monica, Polyphony Digital, Quantic Dream) bisher noch kein einziges Spiel gezeigt haben. Quantic Dream hat zwar eine Tech Demo gezeigt (The Dark Sorcerer (http://www.youtube.com/watch?v=BqeuHGESZBA)), aber anschließend auch gesagt, dass das derzeit in der Entwicklung befindliche PS4-Spiele diese Tech Demo visuell locker schlagen wird.

Damit verschafft SCE der Konsole halt immer ein passendes Alibi. Killzone sah visuell beeindruckender aus als die 3rd-party Shooter, also denkt der Gamer, dass die Grafik dieser Spiele aufgrund der Kompetenz der Entwickler und nicht aufgrund der Hardware der Konsole so aussieht wie sie aussieht. Oder zum Beispiel wie jetzt bei Watch Dogs, denn auch hier sieht Infamous für viele beeindruckender aus und ob da jetzt ein wenig baked lighting zum Einsatz kommt, interessiert 99% der Spieler sowieso nicht. Dementsprechend wird Ubisoft verantwortlich gemacht und nicht die PS4. Für den Kunden ist das eigentlich ne coole Sache. Ich persönlich kann ja kaum erwarten, was Polyphony Digital aus der PS4 rauskitzeln wird. Vielleicht ja nutzen die sogar irgendwelche krassen hetero-core Sachen für Fahrphysik oder Schadensmodell? Ich glaube John Carmack war es, der PD als das beste Entwicklerteam der Welt bezeichnet hat, weil die fast alles in Assembly coden. Ob das stimmt, keine Ahnung... Einziger Nachteil: PD lässt sich immer unendlich viel Zeit.

---

Was ich ausserdem mal anmerken möchte, weil es in den letzten Monaten regelmäßig aufkam: Im PSN Store sind derzeit Sales. Es wird ja von vielen Leuten immer behauptet, auch immer wieder in diesem Thread, sowas gäbe es nur auf Steam, aber tatsächlich findet das gleiche Spiel auch mehrfach im Jahr in den Stores von Microsoft und Sony statt (bein Nintendo bin ich mir grad nicht sicher). Hier gibts eine Liste der runtergesetzten Spiele: Over 100 deals to choose from in our May Madness promotion (http://blog.eu.playstation.com/2014/05/14/new-playstation-store-discounts-start-today/)

Akkarin
2014-05-15, 08:30:32
The Order 18 irgenwass ?

Edit: außerdem wurde ein PS4 exlusives Miyakazi game (demons/dark souls I) game geteasert (gibt schon ein paar screenshots) und Deep Down gibt es ja auch noch.

DinosaurusRex
2014-05-15, 08:37:30
The Order 1886 von Ready at Dawn meinst du? Was ist damit?

Akkarin
2014-05-15, 08:40:47
Wird doch auch von Santa Monica mit entwickelt ?

DinosaurusRex
2014-05-15, 08:47:14
Ne das wird von Ready at Dawn entwickelt. RaD wurde von ehemaligen Naughty Dog und Blizzard Entwicklern gegründet und ist meines Wissens nach nur ein 2nd-party Studio, steht aber genauso wie Quantic Dream nur ganz kurz davor, ein SCE 1st-party Studio zu werden. Das neue Spiel von Miyakazi, Project Beast, wird zusammen von From Software und vom SCE Japan Studio entwickelt. Das Japan Studio zeichneten sich unter anderem verantwortlich für ICO, Shadow of the Colossus oder Puppeteer. Zusammen mit Capcom Online Games entwickelt Japan Studio derzeit auch Deep Down.

---

Wobei du offensichtlich doch recht zu haben scheinst, denn der Wikipedia Eintrag von SSM listet The Order 1886 auch als SSM Spiel. Allerdings ist die Situation bei SSM immer eine ganz besondere, denn irgendwie scheint das Sonys Feuerwehr zu sein. Die helfen offensichtlich vielen Studios regelmäßig bei technischen Dingen oder Ports aus. Naughty Dog zum Beispiel kümmert sich ja neben der Spieleentwicklung auch darum, die anderen SCE Studios mit Engine Parts für die Konsole zu versorgen. Rushy von Driveclub (Evolution Studios) ist derzeit übrigens auch bei SSM:

http://abload.de/img/rushy_smxxida.png

Keine Ahnung was der da macht, vielleicht gibts technische Probleme bei irgendwas.

Coda
2014-05-15, 09:21:26
lIch glaube John Carmack war es, der PD als das beste Entwicklerteam der Welt bezeichnet hat, weil die fast alles in Assembly coden. Ob das stimmt, keine Ahnung...
Tut es nicht.

DinosaurusRex
2014-05-15, 09:28:56
Okay da hab ich dann wohl Mist erzählt. Vielleicht stammt diese Aussage noch aus PS1 Zeiten oder sowas. :redface:

robbitop
2014-05-15, 09:30:16
Er hat doch aber nicht ganz unrecht:
Da werden die Fans mit sehr geil aussehenden (2012) "NextGen-Gameplays" (was mMn auch bewusst die PS4 etc. Fassungen mit einschliesst) geködert und dann
kommt die Realität in Form von N64-like Demos zum Vorschein.


Die 2012er Demo war auf einem High End PC. Die PS4 ist kein High End PC.

Außerdem ist es doch gang und gebe, dass die Videos und Shots im Vorhinein deutlich besser sind als das finale Produkt. Das ist nicht erst seit gestern so.

Wenn ich mich da an die Videos erinnere, die zum PS3 Launch zu Spielen gezeigt worden sind... Ich meine, dass nicht einmal heutige Spiele so gut aussehen, wie damals die Videos.

Coda
2014-05-15, 09:32:42
Okay da hab ich dann wohl Mist erzählt. Vielleicht stammt diese Aussage noch aus PS1 Zeiten oder sowas. :redface:
Das kann sein. Wäre aber auch schon reichlich merkwürdig.

DinosaurusRex
2014-05-15, 10:56:43
Wenn ich mich da an die Videos erinnere, die zum PS3 Launch zu Spielen gezeigt worden sind... Ich meine, dass nicht einmal heutige Spiele so gut aussehen, wie damals die Videos.

Ich glaube du meinst das hier:

wig-XT8Rbiw

Sowas machen die heute aber nicht mehr, bzw es wird explizit gekennzeichnet, ob es CGI, oder in-engine oder echtes Gameplay ist. ;)

robbitop
2014-05-15, 11:43:42
Naja ganz so extrem macht man es nicht mehr. Aber man sieht oft genug noch höhere Details oder AA, was am Ende dann so nicht kommt. Vor allem wenn es 2 Jahre vor Release ist, wäre ich da sowieso noch misstrauisch.

DinosaurusRex
2014-05-15, 12:03:24
Teilweise versprechen die Studios aber auch Verbesserungen. Ready at Dawn behauptet beispielsweise, dass die finale Version von The Order 1886 die bisher gezeigte Grafik überbieten wird. Inwiefern sie dem Gerecht werden können, muss man dann natürlich beim Release überprüfen.

dildo4u
2014-05-15, 12:05:25
Das wird's imo jetzt nicht mehr geben,da alles Dev die finalen Konsolenspecs haben,wie gesagt Watch-Dogs wurde geplant mit den Annahme,das die Konsolen stärker sind.Das Ergebnis sind jetzt 900p/30fps auf der PS4.Und wie schon letzte Gen PC macht 10-20% der Verkäufe aus,daher macht es wenig Sinn dort für extra Effekte/Kontent zu investieren,es sei denn Nvidia steigt als Partner ein.

DinosaurusRex
2014-05-15, 12:17:11
Ich weiß sowieso nicht was ich von Watch Dogs halten soll. Es ist ein cross-gen Spiel und es wird auf sage und schreibe sechs verschiedenen Plattformen veröffentlicht werden. Das ist ja eigentlich schon irrsinnig. Dazu diese ganzen cross-platform Features für Tablets und Smartphones. Ob man das jetzt als Gradmesser hernehmen sollte? Puh... Ich muss auch ehrlicherweise sagen, dass mich an diesem Spiel überhaupt gar nix reizt, es wirkt im Vergleich zu einem GTA oder einem Infamous unfassbar generisch auf mich. Selbst eine Schaufensterpuppe vermittelt mehr Faszination als der Watch Dogs Protagonist.

robbitop
2014-05-15, 12:26:55
AC4 hat man auch für ähnlich viele Plattformen releast. Dafür lief es ganz gut. IMO war das Spiel auch nicht schlecht.

DinosaurusRex
2014-05-15, 12:53:45
Schlecht war es nicht, aber ich persönlich fand es auch nicht wirklich gut. Aber das ist natürlich auch Geschmackssache. Ich würde mir von Ubisoft wünschen, dass sie die Kreativität und Risikobereitschaft, durch die sich die fantastischen 2D Ubi Art Spiele auszeichnen, zu einem gewissen Grad auch in die AAA-Produktionen mit einbringen könnten.

Mandalore
2014-05-15, 13:39:03
Aber seid mal bitte ehrlich jetzt:

Wenn man sich WD von der E3 2012 anschaut und es mit dem letzten Gameplay vergleicht, dann schaut es doch fast 1:1 aus. Bsp. die Laufanimationen wenn er zur Tür hinausläuft. Ich glaube das Einzige was die Spieler damals so fasziniert hat, war das diese Tankstelle in dieser wirklich beeindruckenden Explosion hochgegangen ist und es dann Partikel geregnet hat. Weil man sieht die gleiche Texturen (diese bekannten Blätter als Beispiel, die 2012 genauso aussahen wie jetzt) oder auch die Gebäude schauen wirklich 1:1 aus. Ich glaube es ist wirklich so, dass es damals nichts vergleichbares gab und da jetzt Games wie InFamous:SS und so draußen sind schaut das Ganze natürlich schlechter aus. Weil wenn man sich beides anschaut, dann kommt man zu dem Schluss dass es damals schon scheiße ausgesehen hat (Oder man hat es damals gemocht und mag es immer noch;D)