PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Next-Gen-Konsolen?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 [19] 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39

robbitop
2012-11-28, 09:12:18
Nö... 2010 heißt beim PC GTX480, also nichts anderes als ~Pitcairn. Und selbst wenn bei Konsole durch direkte Programmierung Faktor 2 erreicht wird wirst du den Unterschied nicht bemerken. Bissel bessere Schatten hier, bissel weniger agressives LOD dort und schon ist Faktor 2 aufgebraucht.
Naaahjaaa. Die 7870 ist eher auf GTX580 Niveau. Außerdem wird idR am PC nicht für Highest End programmiert sondern für Midrangehardware. Highest End HW nutzt man dann um Extra Auflösung und AA nutzen zu können.
2010er Spiele wurden wohl eher für Midrange HW aus 2008/09 gemacht.
Wenn 2013 eine Konsole mit Pitcairn erscheint, werden die Spiele genau dafür gemacht.

Da aber sowieso fast alles von der Konsole auf den PC portiert wird, wird für PC HW sowieso nichts mehr ausgelegt.

AnarchX
2012-11-28, 09:16:27
Der PC wird zum Xbox 3 Launch aber schon Geforce 780/HD 8970 haben mit > 2x Performance und kann dann FullHD fahren usw.
Die Geschichte wird sich immer und immer wiederholen. ;)
Aber wahrscheinlich wird die Leistung der PC-GPUs nicht so schnell mehr wachsen, wie es nach dem PS360-Launch der Fall war, vor allem mit Bezug auf die Preis-Leistung (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9233743#post9233743).

beats
2012-11-28, 09:26:05
Sagt mal, ein Core i3 2120 mit 3,3 GHz und eine Grafikkarte vom Schlage einer AMD Radeon 6870 mit 2GB bis 4GB sollte für die nächste Konsolengeneration einigermaßen potent sein oder? Das würde doch gerade mal 150€ Hardwarekosten mit sich bringen oder? Das Produkt könnte man dann zum WiiU Deluxe Preis verkaufen.

Wieviel schneller wäre das im Vergleich zur jetzigen Generation, z.B. zur Xbox 360?

Sontax
2012-11-28, 09:30:53
wenn man es richtig anstellt (ohne komplett system kauf) kann man auch auf nem midrange pc AA, höhere auflösung usw nutzen. Dazu braucht man kein Highendsystem. Wenn es flüssig läuft macht es kein unterschied ob 60 fps oder 80. das einzige was dann fehlt ist die reserve wenn mal mehr leistung gebraucht wird. aber mal im ernst wer spielt n game mit mehr als 1980x1050 auf einem bildschirm. nen midrange pc hat dann die leistung nich für 2 da brauchts dann highend aber ich denke das wird der kleinste anteil sein überhaupt.

laptop zum zocken. zu teuer dazu die wärme die man abführen muss. da bleib ich beim pc^^

wenns soweit kommt bis die neuen 2014 gpus da sind von nvidia und amd wird die leistung bis dahin um vielleicht max 100% steigen zu den aktuellen gpus. mehr wird da nich viel passieren.

es wird kein umschwenken geben damit mal wieder etwas gemacht wird das den pc mal so richtig fordert, nich die konsolenports auf technik von 2006 die zwar optisch etwas aufgebohrt wird damit es aussieht wie 2010 aber beim genauen hinsehen merkt mans. pc gamer sind nicht mehr so in der überzahl wie früher.

edit: handgelenk mal pi gesagt 2-3x mehr leistung das maximum. technisch dürfte es sicher wieder anders aussehen. und vom preis her und aufnahmeleistung wäre das ok für ne konsole. muss ja nich gleich n i7 sein aber i5 wäre vielleicht je nach dem fast ne bessere wahl.

beats
2012-11-28, 09:32:08
Jeder wird irgendwann erwachsen.

Nightspider
2012-11-28, 09:34:46
Also die IGP wird schon in etwa so schnell sein wie die GPUs in PS360.
Du schaffst aber halt auch nur so geringe FPS Raten von 25-30fps bei low Details.
Die IGP des in 4 Monaten erscheinenden Haswell Prozessors wird locker doppelt so schnell sein.

Zumal du schon seit Ivy Bridge DX11 Vorteile in einigen Spielen haben wirst, welche die Konsolen nicht haben.

Aktuelle Ivy Bridge DualCores dürften von der Grafikleistung sogar auf Wii-U Niveau liegen denke ich. Zwar wird der Wii-U Grafikchip größer und komplexer sein aber hat sicherlich deutlich niedrigere Taktraten.

Zumal:
Wii-U GPU: 40nm
IB-IGP: 22nm

Im Endeffekt wäre eine Wii-U mit Ivy Bridge DualCore von der CPU ca. 3 mal schneller und von der GPU ähnlich.

AnarchX
2012-11-28, 09:45:13
Die Intel HD 4000 liegt etwa auf dem Niveau einer 250GFLOPs VLIW5 Lösung von AMD, die Wii U sollte hier doch noch etwas mehr bieten können. Wenn Nintendo aber natürlich AMD RV7xx gewählt hat, unterliegt man bei der Programmierbarkeit.

Aber wie schon oft gesagt, gibt Intel seine Technologie nicht her bzw. nicht zu sinnvollen Preisen.

robbitop
2012-11-28, 09:47:43
Ja ich frage mich immernoch, warum wir in 2012 noch über Intel in Konsolen diskutieren. Damit ist MS 2001 schon auf die Nase geflogen. Das wird nie wieder passieren.
Konsolenhersteller wollen nur IP kaufen und die Chipherstellung selbst beauftragen. Am besten sind natürlich für schnelle Shrinks und schnelle time-to-market synthetisierbare Designs. Da eignet sich Jaguar und ARM hervorragend dazu.

Nightspider
2012-11-28, 10:12:16
Wir diskutieren ja nicht von Intel in Konsolen sondern sprechen von theoretischen Leistungsvergleichen einer Intel Mainstream CPU mit den Chips einer Konsole. ;)

robbitop
2012-11-28, 10:19:26
Ich meinte eher die andere Fraktion ein paar Seiten zuvor. ;)
Ich bin gespannt, wie sinnvoll sich 8 Kerne nutzen lassen für die Programmierung von Spielen. Ab einer gewissen Anzahl von Kernen, kann man die sicher gut mit Gamephysik beschäftigen. :)

Deinorius
2012-11-28, 10:57:57
Wieso reden hier alle immer nur von 1080p und 720p. Wenn die Entwickler meinen, sie können auch höher gehen, werden sie auch 800p, 900p oder was auch immer nutzen.

Und es wäre wirklich schön, wenn hier einige wirklich damit aufhören würden, wie auf den letzten Seiten eine Intel CPU in eine Konsole herbei zu wünschen.

AnarchX
2012-11-28, 11:00:41
Diese starre Betrachtung ist eh Unsinn, da Konsolen-Spiele zum Teil dynamische Auflösungen verwenden.

Zum Beispiel:
Tekken Tag Tournament 2 = dynamic 720x720 to 1280x720, mostly 1024x720 with 2 characters in-game (with motion blur), max 900x720 with 3 characters, max 800x720 with 4 characters (no AA in-game, 2xAA for character LED background or no-characters-environment-only/rankings view), more often 1280x720 with 2 characters no motion blur
http://forum.beyond3d.com/showthread.php?t=46241

Deinorius
2012-11-28, 11:07:12
Dass Spiele auch dynamische Auflösungen unterstützen, war mir aber dennoch neu. Obwohl es bei Beat'm'Ups wirklich Sinn macht.
Dynamische Auflösungen dürften aber sehr genre-begrenzt sein, bzw. nur selten Sinn machen, aber interessant zu wissen. :)

starfish
2012-11-28, 11:21:16
Dass Spiele auch dynamische Auflösungen unterstützen, war mir aber dennoch neu. Obwohl es bei Beat'm'Ups wirklich Sinn macht.
Dynamische Auflösungen dürften aber sehr genre-begrenzt sein, bzw. nur selten Sinn machen, aber interessant zu wissen. :)

CoD benutzt das auf der PS3 auch.

Lightning
2012-11-28, 11:28:31
Dass Spiele auch dynamische Auflösungen unterstützen, war mir aber dennoch neu. Obwohl es bei Beat'm'Ups wirklich Sinn macht.
Dynamische Auflösungen dürften aber sehr genre-begrenzt sein, bzw. nur selten Sinn machen, aber interessant zu wissen. :)

Besonders bekannt dafür ist noch Wipeout HD (das überwiegend tatsächlich in 1920x1080 läuft).
Es gibt zwar noch ein paar weitere Beispiele (siehe diese Liste (http://forum.beyond3d.com/showthread.php?t=46241)), aber es ist dennoch klar die Ausnahme.

dargo
2012-11-28, 11:53:30
Naaahjaaa. Die 7870 ist eher auf GTX580 Niveau.
Wenn ich von Pitcairn @Konsole ausgehe rechne ich eher mit etwas ähnlichem @HD7850. Eventuell noch etwas kastriert um in die ~100W TDP zu passen.

RLZ
2012-11-28, 12:04:08
CoD benutzt das auf der PS3 auch.
Rage afaik auch.
Bei Spielen, die versuchen eine stabile Framerate zu erreichen, ist es inzwischen relativ häufig.

robbitop
2012-11-28, 14:07:09
Wenn ich von Pitcairn @Konsole ausgehe rechne ich eher mit etwas ähnlichem @HD7850. Eventuell noch etwas kastriert um in die ~100W TDP zu passen.
Da hast du natürlich Recht. Der Rest meiner Argumentatitionkette bleibt dennoch erhalten. ;)

PrefoX
2012-11-28, 14:51:00
Am PC spielen doch alle nur mit hohen Auflösungen und RAM, weil das Detaillevel von den langsamen Konsolen vorgegeben wird. Kommt eine neue Konsolengeneration bspw mit etwas Pitcairnartigem, wird der Detailgrad natürlich hochgeschraubt und dann sind dort weniger Reserven drin.
Der PC wird zum Xbox 3 Launch aber schon Geforce 780/HD 8970 haben mit > 2x Performance und kann dann FullHD fahren usw.
Die Geschichte wird sich immer und immer wiederholen. ;)

Die PC Spiele bis heute sehen ja nur wegen der Konsolen so aus, wie sie aussehen. Die Nextgen Konsolen werden das Detail für alle hochziehen. Davon kannst du ausgehen. Aber die Auflösung wird wohl mittelfristig nicht steigen. Faktor 10x kann man gut und gern in Geometrie und Beleuchtung stecken, so dass es deutlich besser aussieht. (siehe Samaritain etc).

Der PC wird schön davon profitieren, da es erstmalig seit 2005/06 wieder einen deutlichen Detailsprung geben wird und man kann die extra Leistung dann in Auflösung/AA stecken.
dann frag ich mich warum die PC only titel auch nicht wirklich besser aussehen... diablo 3, sc2, gw2... das läuft alles solala auf meinem pc (3770k und 680gtx) und da hat keine konsole gestört...

y33H@
2012-11-28, 14:52:07
Weil das alles Titel sind, die eine möglichst große Käuferschicht erreichen sollen.

robbitop
2012-11-28, 14:54:07
SC2 und Diablo 3 sind jetzt auch keine Spiele, die ein extrem hohes Detail Level erfordern. Isometrische Sicht ahoi. Bei Crysis 1 sah man ja recht gut, was vom Detailgrad möglich ist, wenn man auf ein Spiel auf eine starke Plattform auslegt.

dildo4u
2012-11-28, 14:56:13
Wenn ich von Pitcairn @Konsole ausgehe rechne ich eher mit etwas ähnlichem @HD7850. Eventuell noch etwas kastriert um in die ~100W TDP zu passen.
Es wird keine 7000 Serie sein wenn die Konsole Ende 2013 kommt,AMD wird schon ein leichten Performance per Watt Sprung machen mit der 8000 Serie.
Und es muss nich viel spekuliert werden es gibt doch einige Demos die Zeigen wo man mit der nästen Gen hin will.

http://www.gamersyde.com/download_star_wars_1313_gc_trailer-27999_en.html

http://youtu.be/HdGxUyGc1tg

robbitop
2012-11-28, 15:04:32
Glaube ich kaum. Die HW muss schon vor dem Launch da sein. Die Massenfertigung einer Konsole braucht Monate Vorlauf für die Produktion, weitere Monate vorher für die Validierung und weitere Monate um als finales Devkit für die Entwickler bereit zu stehen.
Wenn das Ding wirklich nächstes Jahr gelauncht wird, gibt es vermutlich schon Devkits mit der HW. Vieleicht noch mit abgesenkten Taktraten o.Ä.
Pitcairn steht auch ziemlich gut da, was Rechenleistung pro Transistor angeht.
Erst ab Tahiti verschlechtert sich das Verhältnis.

Pitcairn bringt bei gleiche GFLOPs Rate sehr sehr ähnliche Ergebnisse wie Kepler (2,5 TFLOPs 7870 vs 660ti - ziemlich gleiche Performance, kleinere GPU). Tahiti hingegen nicht mehr (FrontEnd schmälert Performanceplus ggü. Pitcairn, GPGPU Erweiterungen fressen Transistoren). Die GTX680 braucht weniger Rohleistung und Bandbreite als die 7970 für gleiche Leistung.

kiss
2012-11-28, 15:16:33
Die Xbox Next soll einfach sehr gute Hardware haben. Dafür bezahle ich auch 600 Euro, wenns richtig gut ist.


Quad Core oder größer
AMD 7er oder 8er Serie mit 2 GB Speicher
4 GB Arbeitsspeicher
HDD oder SSD mit 256Gb oder mehr
BluRay Laufwerk
Wlan
Hdmi
OpticalOut


Meiner Meinung nach sollte der neue Controller ähnlich ausssehen wie der jetzige nur mit einem Touchscreen in der mitte. Siehe Anhang
Ein bisschen von WiiU oder Dreamcast klauen und feddich =)

dargo
2012-11-28, 15:22:23
Es wird keine 7000 Serie sein wenn die Konsole Ende 2013 kommt,AMD wird schon ein leichten Performance per Watt Sprung machen mit der 8000 Serie.

Ein 8xxx Abkömling wird da garantiert nicht drin sein wenn die Dinger Ende 2013/Anfang 2014 kommen sollen. Dafür müssten die Dinger 1 Jahr später kommen.

dildo4u
2012-11-28, 15:34:38
Nope die GPU in der Xbox 360 war moderner als was was es 2005 für PC gab.(z.b hatte sie eine Tesselation Einheit) Ich sehe kein Grund warum es keine midrange 8000 Sein soll,wenn die Anfang 2013 für den PC kommt.Vermutlich hat das jetzige Devkit ne 7870,weil sie damit rechnen damit ca auf die Leistung der 8850 kommen.

Rancor
2012-11-28, 15:40:08
dann frag ich mich warum die PC only titel auch nicht wirklich besser aussehen... diablo 3, sc2, gw2... das läuft alles solala auf meinem pc (3770k und 680gtx) und da hat keine konsole gestört...

Lol D3 und SC2 läuft so lala auf deinem PC :eek:? Dann stimmt aber bei dir etwas nicht :wink:

dargo
2012-11-28, 15:42:13
Nope die GPU in der Xbox 360 war moderner als was was es 2005 für PC gab.

R500 war eine parallele Entwicklung. Diese GPU ist in der Form am PC nicht erschienen. Erst R600 war ähnlich aufgebaut.


Ich sehe kein Grund warum es keine midrange 8000 Sein soll,wenn die Anfang 2013 für den PC kommt.
Ich schon, höhere Kosten für einen "Extra-Chip".

dildo4u
2012-11-28, 15:51:55
Hohe Kosten entstehen hauptsächlich wenn die Yield's scheiße sind Ende 2013 dürfte 28nm bei Midrange Chips kaum mehr Probleme machen.

dargo
2012-11-28, 15:55:38
Genau... die Entwicklung von einem parallelen Chip kostet nichts. :freak: Und wen interessieren die Yields eines PC Midrange Chips wenn die Dinger im SoC kommen?

Matrix316
2012-11-28, 15:55:57
dann frag ich mich warum die PC only titel auch nicht wirklich besser aussehen... diablo 3, sc2, gw2... das läuft alles solala auf meinem pc (3770k und 680gtx) und da hat keine konsole gestört...
Ich sag nur mal so Stalker:
http://www.pcgames.de/screenshots/original/2009/05/stalker_add_on_screenshots_00001.jpg
http://www.gbase.ch/uploads/ci/shots/STALKER---Call-of-Pripyat_b_102509.jpg

dildo4u
2012-11-28, 15:57:48
Genau... die Entwicklung von einem parallelen Chip kostet nichts. :freak:
Deshalb gibt's ja das Gerücht das man den Chip kaum ändert,die Entwicklungskosten sollen dadurch eingeschränkt werden.

kunibätt
2012-11-28, 16:05:39
Gibt es von dem Star Wars Titel echte Gameplay Videos jedweder Art?
Weil auf ein drittes Mal Targetrender falle ich nicht mehr rein ;)

robbitop
2012-11-28, 16:41:36
Nope die GPU in der Xbox 360 war moderner als was was es 2005 für PC gab.(z.b hatte sie eine Tesselation Einheit) Ich sehe kein Grund warum es keine midrange 8000 Sein soll,wenn die Anfang 2013 für den PC kommt.Vermutlich hat das jetzige Devkit ne 7870,weil sie damit rechnen damit ca auf die Leistung der 8850 kommen.
Das war eine Ausnahme. R400 wurde für den Desktop 2003 gecancelt und lag quasi in der Schublade. MS wollte was eigenes haben und da entwickelte man das Ding parallel zu den Desktopversionen weiter.
Diesmal hat AMD dazu wohl kaum die Ressourcen und MS scheint etwas Fertiges haben zu wollen, weil's billiger ist, schneller fertig ist und weil die aktuellen Produkte ziemlich gut sind. HD8xxx hätte auch kein höheres Techlevel.

dildo4u
2012-11-28, 16:50:05
Gibt es von dem Star Wars Titel echte Gameplay Videos jedweder Art?
Weil auf ein drittes Mal Targetrender falle ich nicht mehr rein ;)
http://youtu.be/BQyGu4EqZsU?hd=1

xyleph
2012-11-28, 16:58:32
I assume if they are going to use Jaguar it is going to be in a big.LITTLE formation. Which will have them in a configuration where the Jaguar portion will control all of the system, os, etc stuff that generally isn't compute intensive. While the Thebe portion will control all of the gaming, hpc, etc. stuff that is generally compute intensive. Since, each year the performance part of the Playstation Orbis was upgraded it is safe to assume that they are going for an APU with the specs.


First:
A8-3850 + HD 7670
400 VLIW5 + 480 VLIW5 => 880 VLIW5 -> VLIW4 => 704

Second:
A10-5700 + HD-7670
384 VLIW4 + 480 VLIW5 => 864 VLIW4/5 -> VLIW4 => 768

I have heard that the third generation of the test Orbis uses an APU with GCN2.
Unknown APU + HD8770
384 GCN2 + 768 GCN2 -> 1152 GCN2

It is assumed that the APU only has four cores because AMD doesn't plan to increase the core count other than the GPU cores from now on.

Quelle: http://forums.anandtech.com/showpost.php?p=34282049&postcount=191:

Ein 450mm² Chip :eek: :confused:

Ich gehe jetzt mal davon aus, dass die GCN Angaben für die ALUs steht, wären dann also 12CUs bei der dedizierten GPU von Orbis ( PS4 ).

Gipsel
2012-11-28, 17:14:23
Das war eine Ausnahme. R400 wurde für den Desktop 2003 gecancelt und lag quasi in der Schublade. MS wollte was eigenes haben und da entwickelte man das Ding parallel zu den Desktopversionen weiter.
Wobei R500 als Basis des Xenos wohl auch bereits vorher projektiert war. Man hat das bloß als für zu aufwendig bzw. nicht erfolgversprechend genug für den Desktop-Markt eingeschätzt. Für die XBox360 hat MS dann aber offenbar auf das modernere und zukunftsweisene Design gesetzt. Im Nachhinein war es auch durchaus die richtige Entscheidung.
Xenos/C1 bzw. R500 hat mit dem R520 eigentlich nichts zu tun. Der R500 hat lose ein paar Anleihen am R400 genommen, der nie das Licht der Welt erblickt hat (war zu komplex), dafür wurde der einfachere R420 für Die X700/800-Serie entwickelt (konnte nur PS2.0, R400 hätte PS3.0 beherrscht).
ATI hat also eine ambitioniertere Architektur mehr oder weniger parallel intern entwickelt. Die Evolution ging eher so:
R200
|
R300
|
R420 R400 (kam nie raus)
| |
R520 R500/Xenos
|
R600 -> R700 -> R800 (Evergreen) -> R900 (Northern Islands/VLIW4) -> R1000 (GCN, wobei das keine einfache Evolution mehr ist)
Der R420 (und im Prinzip auch R520) waren das Backup-Projekt, falls das ursprüngliche Design sich als zu kompliziert oder nicht erfolgversprechend erweist. Für Xenos hat man dann aber dies genutzt und schlußendlich dann für R600 darauf als Basis zurückgegriffen.
Diesmal hat AMD dazu wohl kaum die Ressourcen und MS scheint etwas Fertiges haben zu wollen, weil's billiger ist, schneller fertig ist und weil die aktuellen Produkte ziemlich gut sind. HD8xxx hätte auch kein höheres Techlevel.Bei der HD8xxx besteht die Möglichkeit einer besseren Integration bei Nutzung von gemeinsamen Speicher (nennen wir es mal HSA-Features), wobei unklar ist, wie viel davon wirklich Änderungen am GPU-Kern erfordern und was auch durch Änderungen am modularen Speichercontroller bzw. der eventuell gemeinsamen Northbridge (bei einer APU/einem SoC) erledigt werden kann. Die geschlossene Softwareumgebung erleichtert die Sache ebenfalls. Inwieweit ein eventuell skaliertes Frontend unter dem HD8xxx/GCN2-Label laufen muß, ist aber unklar, da AMD auch schon bei GCN behauptet, das Frontend wenn nötig weiter skalieren zu können. Und ob das für sagen wir mal 16 CUs überhaupt sinnvoll wäre, wird auch keiner ohne Projektionen für den Workload in ein paar Jahren aus dem Stegreif beantworten können.
Alles in allem wird der Unterschied zwischen GCN (HD7xxx) und GCN2 (HD8xxx, falls nicht sogar erst HD9xxx die GCN2-Bezeichnung verdient) wohl eher graduell, so daß es bei einem Custom-Design eine Interpretationsfrage sein könnte, ob man die HD7000er- oder die HD8000er-Reihe als Grundlage ansieht.

Gipsel
2012-11-28, 17:18:55
Quelle: http://forums.anandtech.com/showpost.php?p=34282049&postcount=191:

Ein 450mm² Chip :eek: :confused:

Ich gehe jetzt mal davon aus, dass die GCN Angaben für die ALUs steht, wären dann also 12CUs bei der dedizierten GPU von Orbis ( PS4 ).
Und wie kommst Du damit auf 450mm²? Und warum soll das glaubwürdig sein? Der Typ widerspricht sich doch selber dort.
Edit: Oder schau mal hier (http://forum.beyond3d.com/showthread.php?p=1674162#post1674162)! ;)
Please don't bring that gunk here, that's utter noise, and the gentleman spewing them would make Perlin quite proud (I've had the dubious pleasure of being expose of some other nonsense from the same source).

xyleph
2012-11-28, 17:51:12
Und wie kommst Du damit auf 450mm²? Und warum soll das glaubwürdig sein? Der Typ widerspricht sich doch selber dort.
Edit: Oder schau mal hier (http://forum.beyond3d.com/showthread.php?p=1674162#post1674162)! ;)


ich sehe selbst gerade, dass sich die Quelle von dem Quote unterscheidet, der unsprünglichen Quote war
Playstation 4 is using Thebe-J which hasn't finished yet nor is it related to the Jaguar or Trinity or Kaveri architectures. The only one that is showing any signs of finalization is Xbox's Kryptos which is a >450 mm² chip. To get back on Thebe-J it was delayed from Trinity side-by-side development to Kaveri side-by-side development.

First:
A8-3850 + HD 7670
400 VLIW5 + 480 VLIW5 => 880 VLIW5 -> VLIW4 => 704

Second:
A10-5700 + HD-7670
384 VLIW4 + 480 VLIW5 => 864 VLIW4/5 -> VLIW4 => 768


I have heard that the third generation of the test Orbis uses an APU with GCN2.
Unknown APU + HD8770
384 GCN2 + 768 GCN2 -> 1152 GCN2

It is assumed that the APU only has four cores because AMD doesn't plan to increase the core count other than the GPU cores from now on.

Dort habe ich dann auch die 450mm² her. Das das ganze natürlich nur ein Gerücht unter vielen ist, ist mir bewusst, aber gerade die Orbis Angaben tendieren in die Richtung älterer Angaben. Kann man also durchaus erwähnen, auch wenn es natürlich streibar ist. Aber danke für den B3D Link dazu.

Gipsel
2012-11-28, 17:57:36
Ach komm', der Typ denkt sich den Mist schlicht aus. Das würde ich nicht ernst nehmen. Der schreibt viel, wenn der Tag lang ist (http://www.evga.com/forums/fb.ashx?m=1660845).

Undertaker
2012-11-28, 18:07:44
1. Du gewinnst durch 720p nicht soviel dass du eine sichtbar bessere Optik erzielst
2. Verspielst du Mehrdetails durch die niedrige Auflösung (einfach mal am PC ausprobiern)
3. Gehst du in Spielen auf 720p runter nur um auf Max anstatt High zu zocken? Wohl eher nicht, siehe Punkt 2.

Das seh ich etwas anders. Ich habe z.B. damals Crysis in 720p statt FullHD gespielt, weil ich dadurch eine höhere Detailstufe aktivieren konnte, was die insgesamt bessere Optik ergab. Ähnliches werden sich auch die Spieleentwickler bei PS3 und 360 gedacht haben, wo die wenigsten Spiele in 1080p laufen. Das könnte bei den Next-Gen-Konsolen genauso sein.

Mit dem PC darfst du sowieso nicht direkt vergleichen. Vom Sofa aus erkennst du auf einem normalen TV Auflösungsunterschiede ohnehin viel weniger.

Felixxz2
2012-11-28, 18:31:23
Die meisten werden aber höhere Auflösungen bevorzugen bzw. die native und Crysis war ein ziemlicher Sonderfall. Auch waren GPU Archs damals noch anders bzw. skalierten anders. Wie ich bereits geschrieben hatte skaliert z.B. eine 7970 nur um +30-40% von 1080p -> 720p.

Die aktuellen Konsolen sind aber Speicher und Rohleistungsmäßig ne ganz andere Nummer. Das skaliert 1080p ganz anders.

Das ist wohl richtig, trotzdem schluckts Details und mit nativem 1080p kann man auch prima werben. Die meisten nicht-Nintendo Konsoleros werden wohl nen Full HD TV haben und ich denke man kann schon einen guten Unterschied feststellen.

Wie gesagt, die Rohleistung steigt um Faktor 10 und da kann man den Leistungsverlust durch 1080p locker in bessere BQ und Werbung investieren. Selbst die Wii U sollte ursprünglich viele 360/PS3 Games in 1080p darstellen (so auch Metro Last Night :freak:). Daraus ist nichts geworden, aber ich denke einfach mal nicht, dass MS und Sony auch so eine komische Hardware hinstellen werden.

dargo
2012-11-28, 18:53:26
Die meisten werden aber höhere Auflösungen bevorzugen bzw. die native und Crysis war ein ziemlicher Sonderfall. Auch waren GPU Archs damals noch anders bzw. skalierten anders. Wie ich bereits geschrieben hatte skaliert z.B. eine 7970 nur um +30-40% von 1080p -> 720p.

Das ist doch Quatsch und dieses Thema hatten wir hier im Forum schon mal. Ich bin mir jetzt nicht ganz sicher ob du das warst aber diese 30-40% kommen mir bekannt vor. Im absoluten GPU-Limit ist 720p zb. in Crysis 2 über 80% schneller als 1080p.

Felixxz2
2012-11-28, 19:11:40
Ja das war ich und das sind werte von CB in Crysis 2 bei maximalen Details. Gipsel hats dir auch in der Theorie erklärt^^
Aber egal, wir haben das ja schonmal durchgekaut.

dargo
2012-11-28, 19:15:45
Ja das war ich und das sind werte von CB in Crysis 2 bei maximalen Details.

Da habe ich dir schon mal gesagt, dass CB spätestens bei 720p im stärkeren CPU-Limit lag. Deshalb schlagen auch nur die 30-40% durch. Wenn du in beiden Fällen völlig im GPU-Limit liegst kommen 80% rum. Ich habe auch dazu Bilder gepostet.


Gipsel hats dir auch in der Theorie erklärt^^

Theorie und Praxis sind nunmal zwei paar Schuhe, wie so oft im Leben. ;)

xyleph
2012-11-28, 19:21:44
Ach komm', der Typ denkt sich den Mist schlicht aus. Das würde ich nicht ernst nehmen. Der schreibt viel, wenn der Tag lang ist (http://www.evga.com/forums/fb.ashx?m=1660845).

Ist mir nur recht, die Stacking Mamory/ Interposer Gerüchte bei PS4 gefallen mir eh besser :cool:

starfish
2012-11-28, 22:48:38
The first Destiny game and its "major downloadable content expansion pack" will be made for the Xbox 360 and the "Xbox 720," according to the contract. The option for a release of the first Destiny game on the PlayStation 3 and Sony's next-generation PlayStation is dated for fall 2014.

Bungie's second Destiny game is contracted to "be compatible with the Xbox 360, Xbox 720 and the Sony PlayStation 4," as well as Windows PCs.

http://www.polygon.com/gaming/2012/5/21/3035138/bungies-next-game-destiny-xbox-360-in-2013

Spricht das dafür, dass der Abstand der Generationen nicht sooo groß sein wird, wie z.B. von Xbox zu Xbox 360?
Ich kann mich nicht erinnern, dass es jemals so ein AAA Spiel auf unterschiedlichen Generationen gab. (Fifa etc. ausgenommen)

dildo4u
2012-11-28, 22:51:55
Doch gab es z.b Splinter Cell Double Agent und Need for Speed: Most Wanted gab's für PS2 und 360,PS3.

nampad
2012-11-28, 23:13:19
The first Destiny game and its "major downloadable content expansion pack" will be made for the Xbox 360 and the "Xbox 720," according to the contract. The option for a release of the first Destiny game on the PlayStation 3 and Sony's next-generation PlayStation is dated for fall 2014.

Bungie's second Destiny game is contracted to "be compatible with the Xbox 360, Xbox 720 and the Sony PlayStation 4," as well as Windows PCs.

http://www.polygon.com/gaming/2012/5/21/3035138/bungies-next-game-destiny-xbox-360-in-2013

Spricht das dafür, dass der Abstand der Generationen nicht sooo groß sein wird, wie z.B. von Xbox zu Xbox 360?
Ich kann mich nicht erinnern, dass es jemals so ein AAA Spiel auf unterschiedlichen Generationen gab. (Fifa etc. ausgenommen)

-Call of Duty 3
-Zelda Twilight Princess :D

Nightspider
2012-11-28, 23:20:29
Dann läuft es auf den alten Konsolen mit reduzierten Details, geringer Auflösung, schlechten Texturen und wenig fps.

Dafür ist es dann eines der ersten AAA-Spiele der Nextgen Konsolen oder sogar DAS ERSTE.

starfish
2012-11-29, 07:24:56
Also in der von euch genannten Liste ist maximal Zelda vergleichbar.
Und Gamecube/Wii waren sich Leistungsseitig doch so ähnlich, dass ich auch das nicht einrechnen würde.

Die andren Spiele sind aber keine AAA bzw potentiellen Systemseller Spiele, so wie Halo z.B.

Das könnte aus meiner Sicht doch dafür sprechen, dass die Publisher, die diesmal extrem weit verbreiteten Spielekonsolen noch weiter unterstützen wollen.

mr coffee
2012-11-29, 07:46:04
Naja, anfangs kann man ja auf den next gen. Konsolen einfach last gen Titel mit den "PC-Texturen und -Details" @1080p/60 bringen (oder was halt die next gen zulässt), und so beides bedienen.

robbitop
2012-11-29, 10:13:31
Natürlich ist die GPU Pixel-Performance linear von der Auflösung abhängig. Sofern also nicht die CPU oder der Geometrieteil der GPU limitiert, sollte es eine lineare Skalierung mit der Auflösung geben.
Wenn ein Spiel am absoluten Limit auf einer geschlossenen Umgebung (Konsole) läuft, sollte der Pixelteil absolut limitieren.

Gipsel
2012-11-29, 10:28:21
Wenn ein Spiel am absoluten Limit auf einer geschlossenen Umgebung (Konsole) läuft, sollte der Pixelteil absolut limitieren.Warum?
Du kannst das Ding genauso gut mit einer hohen Last im Vertex-Space in die Knie zwingen. Schraub die Geometrie-Details hoch, mach die Animationen auf der GPU bzw. verschiebe ein paar Berechnungen aus dem Screenspace in den Vertex-Space (nV hat das mal promoted, weil es damals üblicherweise weniger Vertices als Pixel gab) und schon kannst Du eventuell mit fetter Last vor den Rasterizern und relativ leichten Pixelshadern enden. Ist Tessellation im Spiel, kommen noch die Hull- und Domainshader dazu (auch vor den Rasterizern) und auch das Setup kann ab und zu zu einem Flaschenhals werden. Das hängt alles nur von der Auslegung der Engine und des Contents ab.

Coda
2012-11-29, 10:36:57
Du kannst das Ding genauso gut mit einer hohen Last im Vertex-Space in die Knie zwingen.
Das geht vor allem sehr einfach mit Shadowmaps.

robbitop
2012-11-29, 10:43:06
Warum?
Du kannst das Ding genauso gut mit einer hohen Last im Vertex-Space in die Knie zwingen. Schraub die Geometrie-Details hoch, mach die Animationen auf der GPU bzw. verschiebe ein paar Berechnungen aus dem Screenspace in den Vertex-Space (nV hat das mal promoted, weil es damals üblicherweise weniger Vertices als Pixel gab) und schon kannst Du eventuell mit fetter Last vor den Rasterizern und relativ leichten Pixelshadern enden. Ist Tessellation im Spiel, kommen noch die Hull- und Domainshader dazu (auch vor den Rasterizern) und auch das Setup kann ab und zu zu einem Flaschenhals werden. Das hängt alles nur von der Auslegung der Engine und des Contents ab.
Deswegen schrieb ich ja im Pixellimit. Nicht im Geometrielimit. Also aufwändige Pixelshader und viel zu tun für die TMUs.

Natürlich ist klar, dass eine sehr hohe Geometrielast dieses Limit verschiebt. Bestes Beispiel ist Tahiti IMO. Die Benches von dargo, Raff und Co zeigen ja, wie mächtig das Ding ist, wenn man es im Pixellimit betreibt. (Downsampling, SSAA)

Ich gehe jetzt einfach mal davon aus, dass ein Konsolenentwickler die Flaschenhälse mit entsprechenden Loads schon so austariert, dass alles in Balance ist. Ein Pitcarin oder niedriger hat widerum auch ein wesentlich balancierteres Setup zwischen Geometrielimit und Pixellimit.

AnarchX
2012-11-29, 10:46:33
Wenn man wieder bei ~720p bleibt, wäre also eine (aktuelle) AMD-Architektur eher weniger sinnvoll?
Eher etwas wie ein 768SPs Kepler, der aber die Geometrie/Front-End-Leistung eines GK104 aufweist.

robbitop
2012-11-29, 10:52:02
Wenn man wieder bei ~720p bleibt, wäre also eine (aktuelle) AMD-Architektur eher weniger sinnvoll?
Eher etwas wie ein 768SPs Kepler, der aber die Geometrie/Front-End-Leistung eines GK104 aufweist.
Absolut nicht. Nur Tahiti ist halt etwas unbalanciert. Das lag aber sicher auch daran, dass das Ding für den HPC und Spielermarkt gedacht war und deshalb Kompromisse eingehen musste. Pitcairn und kleiner sind reine Spiele-GPUs und sind viel besser balanciert. Ich denke, dass AMD das so balancieren kann und wird, wie der Konsolenhersteller es möchte. Es ist ja nicht so, dass sie einfach eine fertige GPU dort reinklatschen. Gewisse Anpassungen und Skalierungen der Einheiten wird es schon geben.

AnarchX
2012-11-29, 11:06:08
Wenn man sich anschaut, wo sich ein 768SPs Pitcarin (TMU/ALU-Leistung einer HD 7770) so positioniert, bekommt man schon Zweifel ob die Gamer GPUs von AMD wirklich balanciert sind: http://www.tomshardware.com/reviews/768-shader-pitcairn-review,3196.html
Hier wird meist auch mit 1080p getestet, in 720p wird wahrscheinlich die Limitierung noch stärker in Richtung Front-End/Geomtrie verschoben sein.

dargo
2012-11-29, 11:15:09
Absolut nicht. Nur Tahiti ist halt etwas unbalanciert. Das lag aber sicher auch daran, dass das Ding für den HPC und Spielermarkt gedacht war und deshalb Kompromisse eingehen musste. Pitcairn und kleiner sind reine Spiele-GPUs und sind viel besser balanciert.
Du übertreibst. Tahiti XT ist von den Daten her 48% schneller als Pitcairn XT und es gibt durchaus Spiele wo das voll durchschlägt. Wenns nicht der Fall ist kann es mehrere Ursachen dafür geben... geringes CPU-Limit, Spiel nicht so shaderlastig etc.

Paar Beispiele:
http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7970-ghz-edition/30/
http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7970-ghz-edition/29/
http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7970-ghz-edition/27/

Es wurden allerdings bei CB verschiedene Treiber verwendet, also mit Vorsicht genießen.
http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7970-ghz-edition/15/

Edit:
Man sieht bsw. bei Deus Ex sehr schön, dass in Full-HD 1xAA/1xAF die CPU noch limitiert. Die GTX690 kann sich von der GTX680 nur um 58% absetzen während es in 2560 78% sind (die GTX690 wahrscheinlich selbst hier noch ein kleines CPU-Limit). Auch die HD7970 GE kann sich in Full-HD nur 5% von HD7970 absetzen. Deshalb schlagen bei Tahiti XT vs. Pitcairn XT "nur" 40% durch.

robbitop
2012-11-29, 11:43:07
Man sieht in den Performanceratings sehr schön, dass 7870 bei gleicher Rohleistung wie 660ti auch gleich schnell ist. Die 680 hat deutlich weniger Rohleistung als die 7970 und hat eine ähnliche, wenn nicht höhere Leistung in den Performanceratings.
Die Situation ändert sich erst mit SSAA oder Einzelbeispielen. Aber nicht über die komplette Breite. Das verrät eindeutig eine solche Balancierung.

edit: meine Fresse - Metro 2033 scheint aber eine ganz schöne Pixellast zu erzeugen (relativ zur Geometrielast). Dort zeigt die Tahiti mal ggü der 680 was sie an Mehr-Rohleistung hat. Sonst geht das nämlich total unter.

@AnarchX
Und natürlich beginnt das nicht erst bei Pitcairn. IMO begann das schon bei RV770. Der skalierte nicht linear mit der Rohleistung ggü. RV670. Auch RV870 tat das ggü. RV770 nicht. Usw usf.

dargo
2012-11-29, 11:51:57
Man sieht in den Performanceratings sehr schön, dass 7870 bei gleicher Rohleistung wie 660ti auch gleich schnell ist. Die 680 hat deutlich weniger Rohleistung als die 7970 und hat eine ähnliche, wenn nicht höhere Leistung in den Performanceratings.

Ein Quervergleich der GFLOPs bei AMD und NV hat noch nie wirklich Sinn gemacht. Dafür reicht nur ein Blick etwas zurück bsw. bei GF110 und Cayman XT. ;)
http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-580/2/
http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-6950-1.024-mb/2/

PS: Performanceratings sind für den Anus! Einzelne Spiele betrachten.

Hallo
2012-11-29, 12:52:01
Ist es Trolltum wen ich jetzt sage das N nicht nur traditionell HW maessig rumgeigt,sondern diesmal sich besondere Muehe gemacht hat abzulamen?

Ich weiss nicht was an dieser Konsole gut sein soll die nichtmal 7 Jahre alte HW wirklich uebertrumpfen kann.

Wuensche denen einen recht schnellen Knick und Sega die Eier endlich wieder mal fuer vernuenftiges Gaming zu sorgen in Form von HW.

Ich dachte niemals dies zu sagen,aber MS hat mit der 360 soviel richtig gemacht und Sony hat nur hinterhergegeigt trotz ueber einem Jahr Vorsprung.Alleine schon die Pads welche verzoegern das es knallt kann man doch nicht ernst nehmem...

robbitop
2012-11-29, 13:41:10
Ein Quervergleich der GFLOPs bei AMD und NV hat noch nie wirklich Sinn gemacht. Dafür reicht nur ein Blick etwas zurück bsw. bei GF110 und Cayman XT. ;)

Die waren architekturbedingt ja auch nicht vergleichbar. NVIDIA hat aufgrund der "1D-ALUs" mit hohem Takt ja auch eine höhere Effizienz auf Kosten der Fläche und der TDP gehabt. AMD ging eher auf niedrigere Auslastung und dafür auf mehr Ausführungseinheiten bei gleicher Fläche.

GCN und Kepler hingegen sind gut vergleichbar.

Indiz dafür ist, dass Pitcairn und GK104 aus gleiche GFLOP Rate die gleiche Leistung herausholen. (das war ja zu Fermi / Cayman Zeiten gaaanz anders!)


PS: Performanceratings sind für den Anus! Einzelne Spiele betrachten.
Das stimmt ja. Aber ein Rating zeigt zumindest, wie es im Durchschnitt aussieht. Es sind nur ganz wenige Games, die offenbar eine hoch genuge Pixellast erzeugen, um den Geometrieflaschenhals im Tahiti zu "überbrücken".

dargo
2012-11-29, 15:07:41
GCN und Kepler hingegen sind gut vergleichbar.

Indiz dafür ist, dass Pitcairn und GK104 aus gleiche GFLOP Rate die gleiche Leistung herausholen. (das war ja zu Fermi / Cayman Zeiten gaaanz anders!)

Woher nimmst du die Erkenntnis? Aus den Spielebenchmarks? Das kannst du vergessen. Trotz mehr oder weniger identischen GFLOPs bei HD7870 und GTX660TI gibt es Spiele wo die HD7870 bis zu 30% vorne liegt. Ähnliche Ausbrüche gibt es wieder bei Nvidia in anderen Spielen. Von beiden Herstellern kommen immer wieder Performancetreiber. Da wird es sehr schwer was genaues abzuleiten.

PS: zudem hat eine GTX660TI einen Boostclock, die HD7870 nicht.

robbitop
2012-11-29, 15:10:59
Ausreißer gibt es immer und überall. Im Mittel sind sie aber absolut auf einer Augenhöhe. Und so viel Taktdifferenz ist das nicht. Das kommt zumindest in Spielen ziemlich gut hin, dass sie ähnlich viel aus der Rohleistung herausholen.
AMD hat seit Cayman an Auslastung gewonnen und NVIDIA seit Fermi zu gunsten der Fläche pro ALU abgenommen. Beide trafen sich ziemlich genau in der Mitte.
Sicher gibt es Designbedingt hier und da Abweichungen. Stärken und Schwächen. Im Mittel passt es im Gegensatz zu Fermi-Cayman aber verdammt gut.

Jedenfalls holt Pitcairn verglichen mit Tahiti und gemessen an Kepler wesentlich öfter seine Rechenleistung heraus. Tahiti nur in bestimmten Spielen oder in bestimmten Szenarien. Offensichtlich liegt dort also eine andere Limitierung als die Rohleistung zu Grunde. Alles andere würde sich auch im Mittelwert (i.e. Performanceratings) zeigen.

dargo
2012-11-29, 15:29:27
Jedenfalls holt Pitcairn verglichen mit Tahiti und gemessen an Kepler wesentlich öfter seine Rechenleistung heraus. Tahiti nur in bestimmten Spielen oder in bestimmten Szenarien. Offensichtlich liegt dort also eine andere Limitierung als die Rohleistung zu Grunde. Alles andere würde sich auch im Mittelwert (i.e. Performanceratings) zeigen.
Manchmal denke ich ich rede mit ner Wand. :freak:

Tahiti XT ist von den Daten her 48% schneller als Pitcairn XT und es gibt durchaus Spiele wo das voll durchschlägt. Wenns nicht der Fall ist kann es mehrere Ursachen dafür geben... geringes CPU-Limit, Spiel nicht so shaderlastig etc.

Was ist daran so schwer zu verstehen? Und hör bitte auf mit den blöden Performanceratings auf. Ich sehe in einzelnen Tests von CB an den Ergebnissen sehr wohl CPU-Limits die selbstverständlich ins Rating mit hineinfließen. Wenn ein Tahiti XT 48% mehr Rohleistung hat dann ist es doch glasklar, dass dieser bei gleichen Settings stärker im CPU-Limit liegen kann als Pitcairn XT. Solange du die Benchmarks nicht selbst getätigt hast (denn nur dann kannst du CPU-Limits ausschließen) ist jegliche Ableitung die du hier tätigt sinnlos. Wir haben nun mal noch keinen Ivy Bridge mit ~10Ghz um wirklich auf der sicheren Seite zu sein. Oder alternativ Spiele die deutlich höhere GPU-Last erzeugen.

robbitop
2012-11-29, 15:38:51
Manchmal denke ich ich rede mit ner Wand. :freak:

Ich schlage vor, du mäßigst deinen "Ton".


Was ist daran so schwer zu verstehen? Und hör bitte auf mit den blöden Performanceratings auf. Ich sehe in einzelnen Tests von CB an den Ergebnissen sehr wohl CPU-Limits die selbstverständlich ins Rating mit hineinfließen.
Ich schaue selbstverständlich nur auf Performanceratings mit 2560x1600 @8xMSAA oder SSAA.
Da sollten CPU Limits mit den verwendeten CPUs eine ziemlich untergeordnete Rolle spielen.

Wenn ein Tahiti XT 48% mehr Rohleistung hat dann ist es doch glasklar, dass dieser bei gleichen Settings stärker im CPU-Limit liegen kann als Pitcairn XT. Solange du die Benchmarks nicht selbst getätigt hast (denn nur dann kannst du CPU-Limits ausschließen) ist jegliche Ableitung die du hier tätigt sinnlos.
Siehe oben. Hohe Auflösung und SSAA. Außerdem sehe ich, wie bei allen Karten die FPS massiv niedriger sind bei diesen superhohen Auflösungen +AA als bei den kleineren Auflösungen mit weniger/keinem AA. Bedeutet also kaum bis gar kein CPU Limit.

Bei Tahiti liegt garantiert eine Limitierung vor. Es würde ansonsten definitiv! im Performancerating (super hohe Auflösung + SSAA) erscheinen. Schließlich ist die GTX690 mit gleicher CPU deutlich schneller. (weiteres Indiz)
(Vergleich ggü GK104)

Palpatin
2012-11-29, 15:47:43
Das stimmt ja. Aber ein Rating zeigt zumindest, wie es im Durchschnitt aussieht. Es sind nur ganz wenige Games, die offenbar eine hoch genuge Pixellast erzeugen, um den Geometrieflaschenhals im Tahiti zu "überbrücken".
Gibt auch andere Ratings: http://ht4u.net/reviews/2012/amd_radeon_hd_7970_ghz_edition_tahiti_xt2_test/index41.php , Raiting kann ich halt durch Cherrypicking beliebig manipulieren.

robbitop
2012-11-29, 15:59:11
Wahnsinn wie inkonsistent die Performance ist. In manchen Spielen haut Tahiti GK104 um 20-30 % bei HT4U in maximaler Auflösung/AA weg und in einigen ist es andersherum.

Auffällig ist aber, dass Tahiti eine sehr hohe Pixellast braucht, um zu scheinen. Downsampling/SSAA/sehr hohe Auflösung.

dargo
2012-11-29, 18:48:09
Ich schlage vor, du mäßigst deinen "Ton".

Sorry... aber du ignorierst zum Teil meine Argumente. Sowas bringt mich schon mal auf die Palme.


Ich schaue selbstverständlich nur auf Performanceratings mit 2560x1600 @8xMSAA oder SSAA.
Da sollten CPU Limits mit den verwendeten CPUs eine ziemlich untergeordnete Rolle spielen.

Siehe oben. Hohe Auflösung und SSAA. Außerdem sehe ich, wie bei allen Karten die FPS massiv niedriger sind bei diesen superhohen Auflösungen +AA als bei den kleineren Auflösungen mit weniger/keinem AA. Bedeutet also kaum bis gar kein CPU Limit.

Ok... jetzt weiß ich wenigstens genau was du betrachtest. Aber vorsicht, auch 2560x1600 8xMSAA muss nicht zwangsläufig bedeuten gar kein CPU-Limit! Wenn da beispielsweise noch Frames über 30-40fps rauskommen ist ein gewisses CPU-Limit nicht völlig ausgeschlossen. Hängt natürlich von der CPU-Last in der getesteten Szene ab. Das gleiche gilt für SSAA, wobei hier in der Regel die Frames schon sehr tief sind.


Bei Tahiti liegt garantiert eine Limitierung vor. Es würde ansonsten definitiv! im Performancerating (super hohe Auflösung + SSAA) erscheinen.
Natürlich liegt hier eine Limitierung vor, hat aber nichts mit dem Frontend zu tun. Die gleiche Limitierung gibts nämlich beim Kepler in den Spielen auch. Liegt imo daran (was ich auch schon öfter gesagt habe), dass manche Spiele nicht so shaderlastig sind. Ein Beispiel? Bitte sehr:
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-650-ti/19/

Mit SSAA liegt die HD7970 39% vor der HD7870 (also etwas weniger als die max. möglichen 48%). Jetzt schau dir an wo die GTX680 und wo die GTX660TI liegen. Die beiden trennen 18% obwohl erstere knapp 26% mehr GFLOPs hat. Haben wir jetzt also eine Frontend-Limitierung bei Kepler? :rolleyes: Zumal beides sogar GK104 ist.

Vergleiche jetzt mal den GK106 in Form der GTX660 und den voll ausgefahrenden GK104. Letzterer hat 64% mehr GFLOPs, mit SSAA schlagen aber nur 53% durch. Wieder Frontend-Limit bei Nvidia?

Edit:
Mal ein anderes Beispiel in die andere Richtung.
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-650-ti/29/

Mit SSAA Tahiti XT nur 23% vor Pitcairn XT, also ungefähr die Hälfte des Möglichen. Bei Kepler passiert das selbe... GTX680 nur 13% vor GTX660TI.

Ailuros
2012-11-30, 06:44:52
Wenn Ihr schon sehr hohe Aufloesungen mit SSAA oder 8xMSAA vergleichen wollt dann rechnet anstaendigerweise Faktoren wie ROP Anzahl bzw. Fuellraten und Bandbreite/Speichermengen mit und dieses sogar VOR jeglichen albernen FLOP-Vergleichen zwischen verschiedenen Architekturen. Von mir aus kann jegliche Architektur eine brutale Uebermenge an arithmetischer Effizienz fuer solch einen Fall haben, wenn es nur an einer der oben erwaehnten Faellen irgendwo stockt reicht es fuer den ersten wichtigeren Flaschenhals fuer solch ein case scenario.

robbitop
2012-11-30, 11:43:06
@dargo

welche Limitierung soll sonst vorliegen? Tahiti hat 48 % mehr Rohleistung und auch ähnlich viel mehr Bandbreite als Pitcairn. Da kommt nur noch Frontend und ROPs in Frage. ROPs erscheint mir unwahrscheinlich, da die Dinger soziemlich alles in einem oder einstelliger Anzahl an Takten fertig haben.

Tahiti müsste an sich(CPU Limit ausgeschlossen) deutlich schneller als GK104 sein. Und das ist er (leider) nur in Einzelfällen.

Coda
2012-11-30, 12:08:02
Es gibt auch andere Effekte die da auftreten. Man kann mehr Einheiten nicht immer gleich gut auslasten wie weniger.

S940
2012-11-30, 12:08:24
Ist das hier der "Pixellimit bei AMD, trotzdem schneller als nvidia?" Thread?

PrefoX
2012-11-30, 12:23:10
Weil das alles Titel sind, die eine möglichst große Käuferschicht erreichen sollen.
deswegen laufen die titel beschissen? ;D

y33H@
2012-11-30, 12:55:49
Tun sie das? Nein.

PrefoX
2012-11-30, 13:23:19
Tun sie das? Nein.
äh doch, steht auch in den reviews, wenn viel los ist, bricht die framerate ein. ich scheiss auf average... es hat keine min60 fps. keiner der titel die ich nannte. Diablo 3 ruckelt schon allein durchs nachladen/streaming total ätzend.

und sc2 läuft gut ja?
http://www.pcgameshardware.de/Starcraft-2-Wings-of-Liberty-PC-18348/Tests/Technik-Test-Starcraft-2-mit-14-CPUs-Intel-in-Front-vier-Kerne-nutzlos-einige-Ueberraschungen-766089/

min fps sind total unten... ist zwar älter aber 60 wird man auch dort nicht erreichen. schlechte engine, nutzt nicht genug cores... und da hat auch keine konsole den fortschritt verhindert. dafür das blizz PC only ist, liefern die immer wieder technisch nix dolles ab.

auch gw2 im pvp haste fps drops auf 30 und mein system ist okay.

Locuza
2012-11-30, 22:46:26
Ein paar Gerüchte bzw. angebliche Infos behind the scenes.
PS4= PS Omni
Xbox Name steht noch nicht fest.
Eine Liste möglicher Spiele-Projekte und Steuerungseingaben und die groben Preise die man sich bisher vorstellt.

http://dualpixels.com/2012/11/29/rumor-behind-the-scenes-with-first-party-hardware-and-third-party-softwear-next-gen/

Finch
2012-11-30, 22:54:41
Manche Details sind schon sehr merkwürdig z.b. Sonys Augmented Dingens

Locuza
2012-11-30, 23:03:14
Was gerade eher aufällt sind die zum Teil widersprüchlichen Geschichten.
Es kam ja mal von Charlie? einen Artikel das man Produktionsschwierigkeiten hätte und auf 2014 verschieben müsste, wenn man es nicht schafft das Problem schnell zu beheben.
Der Toronto-Guy meinte bei MS ist alles in Ordnung, aber der Zeitplan bei Sony ist um ein halbes Jahr verschoben.
Jetzt heißt es wieder die Xbox würde später rauskommen.
Jedenfalls ist die Wahrscheinlichkeit wohl gegeben, dass es nur eine neue Konsole 2013 eingeführt wird.

TheCounter
2012-11-30, 23:12:53
Wenn ich schon alleine "built-in kinect" lese... so ein Schwachsinn. Auch bei der neuen Xbox wird Kinect eigenständig bleiben. Oder wollen die das man seine Konsole direkt über/unter dem TV platziert? :ugly:

Kira
2012-12-01, 00:32:22
und das? :S

Microsoft is the most vague out of all of them. It’s slated to be the most powerful out of all the next gen consoles about 4 to 6 times more powerful than Wii U and 2 to 3 times more powerful than Playstation Omni.

dildo4u
2012-12-01, 14:55:19
Agni's Philosophy Realtime Demo läuft mit 60fps auf GTX 680

http://www.neogaf.com/forum/showthread.php?t=502188

Schätze mal da kann man die Konsolen auf eine 7850 eingrenzen,die Final Fantasy Games laufen typisch mit 30fps.Das gute ist das man so wohl 1080p erhalten kann damit man auch was von den ganzen Details hat.

Die Demo.
http://youtu.be/UVX0OUO9ptU

Atma
2012-12-01, 15:20:58
Agni's Philosophy Realtime Demo läuft mit 60fps auf GTX 680

http://www.neogaf.com/forum/showthread.php?t=502188

Schätze mal da kann man die Konsolen auf eine 7850 eingrenzen,die Final Fantasy Games laufen typisch mit 30fps.Das gute ist das man so wohl 1080p erhalten kann damit man auch was von den ganzen Details hat.

Die Demo.
http://youtu.be/UVX0OUO9ptU
60 FPS + 8x MSAA auf einer einzelnen GTX 680. Verdammt beeindruckend (y)

dildo4u
2012-12-01, 15:25:13
Diese Engine wird halt wirklich für die neuen Konsolen gebaut,daher die gute Performance.Die letzten Single Player Final Fantasy Games kamen nie fürn PC.

Atma
2012-12-01, 15:30:40
Diese Engine wird halt wirklich für die neuen Konsolen gebaut,daher die gute Performance.Die letzten Single Player Final Fantasy Games kamen nie fürn PC.
Ist mir bewusst. Final Fantasy 13 musste ich mir auf der 360 "antun" und das war alles andere als spaßig, wenn man sonst PCler ist ;).

Kira
2012-12-01, 21:41:28
kann da was dran sein? dass die xbox 3 x stärker als die ps4 ist?

Werewolf
2012-12-01, 21:56:28
Ja, warum nicht? MS hat mehr Reserven als das fast schiffbrüchige Sony. Sony kann einfach nicht um die Wette powern.

Nightspider
2012-12-01, 22:14:14
kann da was dran sein? dass die xbox 3 x stärker als die ps4 ist?

Kira was ist denn das für eine dumme Frage?

Sony war der Konkurenz noch nie überlegen, was die Hardware betrifft.
Gerade der Grafikchip der 360 war deutlich besser als der Mist in der PS3.
Und dazu war die 360 noch deutlich eher auf dem Markt und billiger als die PS3.

Exxtreme
2012-12-01, 22:39:15
Ja, warum nicht? MS hat mehr Reserven als das fast schiffbrüchige Sony. Sony kann einfach nicht um die Wette powern.
Ist sowieso die Frage ob beide Kontrahenten noch powern werden. Die haben nämlich viele Milliarden $ abschreiben müssen wegen den hochgezüchteten Konsolen.

Demirug
2012-12-01, 22:57:54
Ist sowieso die Frage ob beide Kontrahenten noch powern werden. Die haben nämlich viele Milliarden $ abschreiben müssen wegen den hochgezüchteten Konsolen.

Ich fürchte die nächste Generation wird aus diesem Grund für viel Enttäuschung sorgen und mit einer gewissen Wahrscheinlichkeit auch das Ende des Konsolenzeitalters einläuten.

Finch
2012-12-02, 02:22:05
Und was kommt danach? Das Tablett Zeitalter? Ich hoffe doch inständig nicht.

Nightspider
2012-12-02, 02:40:59
Wohl kaum. Der PC wird auch nie sterben.

Das einzige was sich über die Jahre ändern wird sind die Schnittstellen.

=Floi=
2012-12-02, 04:24:11
Ich fürchte die nächste Generation wird aus diesem Grund für viel Enttäuschung sorgen und mit einer gewissen Wahrscheinlichkeit auch das Ende des Konsolenzeitalters einläuten.

umgedreht kann MS mit der prall gefüllten kasse endgültig an sony vorbeiziehen. bei einem deutlichen plus an leistung wird man erheblich mehr konsolen zu einem höheren preis verkaufen können. man beherrscht den markt und braucht auch keinen preiskampf befürchten, wenn man stärker ist.
ich werfe hier mal apple ins rennen, weil die mit dem iphone auch brutal dominieren.


edit
ich kenne zwar nicht dein internes wissen um die neuen konsolen, aber bei einer reinen vermutung von dir bleibe ich bei meiner these.

Nightspider
2012-12-02, 04:34:34
Der Preis entscheidet doch viel stärker über die Verkaufszahlen als +30% Leistung.
Der 0815 Käufer sieht den Unterschied doch eh nicht und kauft sich das günstigere Produkt.

Herr Doktor Klöbner
2012-12-02, 10:59:46
Was hätte MS von einer deutlich Leistungsfähigeren und damit in der Produktion teureren Konsole ? Nichts.

Schon heute ist es doch so das die Multiplattformtitel, also die allermeisten, auf beiden Konsolen in etwa gleich aussehen. Kein Entwickler nimmt zusätzliches Geld in die Hand um eine deutlich hübschere Version auf der Xbox 720 zu erstellen. Man muß ja da fast schon hoffen, das bei den Multiplattformtiteln die unsägliche Hardwarekrücke Wii U nicht berücksichtigt wird, wenn die mit ihren Limitationen die Grenzen für künftige Spiele vorgibt dann gute Nacht.

Ailuros
2012-12-02, 11:00:05
Wohl kaum. Der PC wird auch nie sterben.

Das einzige was sich über die Jahre ändern wird sind die Schnittstellen.

Wenn sich Schnittstellen aendern, bleibt eben gerade die Frage ob A, B oder C wie wir es heuten kennen "sterben" wird bzw. in welcher Form genau weiterleben wird.

Exxtreme
2012-12-02, 13:34:32
umgedreht kann MS mit der prall gefüllten kasse endgültig an sony vorbeiziehen. bei einem deutlichen plus an leistung wird man erheblich mehr konsolen zu einem höheren preis verkaufen können. man beherrscht den markt und braucht auch keinen preiskampf befürchten, wenn man stärker ist.
ich werfe hier mal apple ins rennen, weil die mit dem iphone auch brutal dominieren.


Ich glaube nicht, dass die nochmal 6 Milliarden(!) $ an Abschreibungen machen wollen nur um Sony eins auszuwischen. Zumal die Hardwarepower ja nur eine Sache ist und nicht unbedingt so relevant. Viel wichtiger sind IMHO die Spiele. Und MS hat halt den Nachteil, dass bei denen fast nichts exklusiv ist.

robbitop
2012-12-02, 14:44:32
Ich glaube nicht, dass die nochmal 6 Milliarden(!) $ an Abschreibungen machen wollen nur um Sony eins auszuwischen. Zumal die Hardwarepower ja nur eine Sache ist und nicht unbedingt so relevant. Viel wichtiger sind IMHO die Spiele. Und MS hat halt den Nachteil, dass bei denen fast nichts exklusiv ist.
Die ersten Jahre hatte die X360 mehr Exklusivtitel als die PS3. MS hat aber irgendwann die Strategie geändert. Exclusives kosten ja auch richtig Geld. Ich bin gespannt, wie das auf der nächsten Runde aussieht. IMO ist die Plattform attraktiver, die mehr und bessere Exclusives hat.

starfish
2012-12-02, 15:03:52
Die ersten Jahre hatte die X360 mehr Exklusivtitel als die PS3. MS hat aber irgendwann die Strategie geändert. Exclusives kosten ja auch richtig Geld. Ich bin gespannt, wie das auf der nächsten Runde aussieht. IMO ist die Plattform attraktiver, die mehr und bessere Exclusives hat.

Aber isoliert auf MS und Sony bezogen.
Sonst wären wir wieder bei Nintendo.

Den über die Qualität der Exklusivtitel braucht man da nicht streiten.

Halt ohne Third Parties...

robbitop
2012-12-02, 15:07:45
Da hast du Recht. Aber Nintendo hatte leider kaum Multititel. Und da waren einige gute dabei. Und deren Exklusivtitel sind alle gut - aber nahezu alle nur in eine Richtung: kindgerecht. Die sind auch sehr gut. Aber hin und wieder will man auch mal ein paar sehr gute nicht kindgerechte Exklusivtitel spielen.

Exxtreme
2012-12-02, 15:56:43
Die ersten Jahre hatte die X360 mehr Exklusivtitel als die PS3. MS hat aber irgendwann die Strategie geändert. Exclusives kosten ja auch richtig Geld. Ich bin gespannt, wie das auf der nächsten Runde aussieht. IMO ist die Plattform attraktiver, die mehr und bessere Exclusives hat.
So richtig exklusiv waren die Teile nie da sie ebenfalls für den PC erschienen sind. Und ja, ich stimme auch hier zu, dass die Anzahl der exklusiven Spiele die Attraktivität erhöht. Aber auch das ist wiederum ein Faktor unter vielen.

Skysnake
2012-12-02, 16:05:11
Da hast du Recht. Aber Nintendo hatte leider kaum Multititel. Und da waren einige gute dabei. Und deren Exklusivtitel sind alle gut - aber nahezu alle nur in eine Richtung: kindgerecht. Die sind auch sehr gut. Aber hin und wieder will man auch mal ein paar sehr gute nicht kindgerechte Exklusivtitel spielen.
Ich würde nicht unbedingt kindgerecht sagen.

Vor allem Frauen werden von den klassischen Nintendo-Games angesprochen. Ich würde es eher als das klassische 8-80 Jahre Spiel nennen :freak:

MarcWessels
2012-12-02, 18:18:17
Was hätte MS von einer deutlich Leistungsfähigeren und damit in der Produktion teureren Konsole ? Nichts.

Schon heute ist es doch so das die Multiplattformtitel, also die allermeisten, auf beiden Konsolen in etwa gleich aussehen.Die Framerate zählt nichts? AA-Level? Auflösung?

Windi
2012-12-02, 18:50:52
Die Framerate zählt nichts? AA-Level? Auflösung?
Natürlich zählt das was!
Aber der Preis zählt halt auch.
Wenn die günstigere Konsole zum Start 200€ weniger kostet, 2 Jahre früher die 199€ Preisgrenze durchbricht und zum Schluss sogar für 99€ "verschenkt" werden kann, dann hat das auch einen gravierenden Einfluss auf die Verkaufszahlen.

MS und Sony werden versuchen, da das richtige Mittelmaß zu treffen. Und auf eine Kostenexplosion, nur um paar Hardcorefans glücklich zu machen, lässt sich wohl keiner der beiden ein.

MarcWessels
2012-12-02, 19:27:48
Ich meinte vordergründig Dr.Klöbners Behauptung, dass die Multis heute auf PS3 und 360 gleich aussähen.

=Floi=
2012-12-02, 20:22:58
ich bleibe dabei. wenn das game dann mit dem pc konkurrieren kann und einfach richtig brutal gut läuft werden es auch die kunden merken und belohnen. heute haben beide konsolen so wenig leistung, dass sich die 360er nicht wirklich brauchbar von der ps3 absetzen kann. die ruckler und low fps werden auch noch zu wenig beachtet.

wenn es richtig vermarktet wird, wird es auch bei den normalen kunden ankommen. ich denke der preis ist für sehr viele (europäer) zweitrangig.

Kira
2012-12-02, 22:12:26
Kira was ist denn das für eine dumme Frage?

Sony war der Konkurenz noch nie überlegen, was die Hardware betrifft.
Gerade der Grafikchip der 360 war deutlich besser als der Mist in der PS3.
Und dazu war die 360 noch deutlich eher auf dem Markt und billiger als die PS3.

Ich sage nur Uncharted 2+3 + GOW3. Welche Spiele auf der X360 sehen besser aus? Laut deiner Aussage, müssten die 360-Spiele also deutlich besser aussehen, weil sie die bessere Grafikkarte hat.

Coda
2012-12-02, 22:47:12
Xenos ist eindeutig schneller als RSX, das kann ich bestätigen. Die PS3-Spiele nutzen mit recht komplexen Methoden Cell um das auszugleichen.

Matrix316
2012-12-02, 22:57:14
Natürlich zählt das was!
Aber der Preis zählt halt auch.
Wenn die günstigere Konsole zum Start 200€ weniger kostet, 2 Jahre früher die 199€ Preisgrenze durchbricht und zum Schluss sogar für 99€ "verschenkt" werden kann, dann hat das auch einen gravierenden Einfluss auf die Verkaufszahlen.

MS und Sony werden versuchen, da das richtige Mittelmaß zu treffen. Und auf eine Kostenexplosion, nur um paar Hardcorefans glücklich zu machen, lässt sich wohl keiner der beiden ein.
Vergiss nicht, wenn die neuen Konsolen kommen, werden die alten immer noch weiter verkauft, oder? Warum muss man die neuen Konsolen auch so billig machen? Klar, früher war ein Super Nintendo oder Mega Drive auch relativ preiswert im Vergleich zu einem normalen Computer, aber damals waren Konsolen noch quasi fast reine 2D Daddelkisten mit Spielen ala Super Mario, Super Shinobi oder Sonic.

Werewolf
2012-12-02, 22:57:46
Ich sage nur Uncharted 2+3 + GOW3. Welche Spiele auf der X360 sehen besser aus? Laut deiner Aussage, müssten die 360-Spiele also deutlich besser aussehen, weil sie die bessere Grafikkarte hat.

Total unlogisch. Noch nie was von Artworks/Design gehört?

Gipsel
2012-12-02, 22:59:17
Xenos ist eindeutig schneller als RSX, das kann ich bestätigen.
Das ist doch hier der NextGen-Thread. Irgendetwas, was Du da bestätigen willst (z.B. die acht 1.6GHz Jaguar-Kerne in Durango, die gerade die Gerüchte-Runde machen)? :wink:

Werewolf
2012-12-02, 22:59:45
Ist APU + diskrete GPU noch ein spannendes Gerücht oder abgehakt?

Gipsel
2012-12-02, 23:02:34
Ist APU + diskrete GPU noch ein spannendes Gerücht oder abgehakt?Ich finde, das wäre nicht wirklich gut überlegt. Aber das muß nicht unbedingt was bedeuten.

Locuza
2012-12-02, 23:30:29
Das ist doch hier der NextGen-Thread. Irgendetwas, was Du da bestätigen willst (z.B. die acht 1.6GHz Jaguar-Kerne in Durango, die gerade die Gerüchte-Runde machen)? :wink:
Sollten es nicht sogar 16-Jaguar Cores werden? :conf:
Wir haben glaube ich alles im Angebot :)

Kira
2012-12-02, 23:37:39
Total unlogisch. Noch nie was von Artworks/Design gehört?

erklärs mir bitte.

Gipsel
2012-12-02, 23:38:56
Sollten es nicht sogar 16-Jaguar Cores werden? :conf:
Wir haben glaube ich alles im Angebot :)
Die 8 gibt es häufiger. 16 wären schon ziemlich fett, selbst mit den mickrigen Jaguars. Aber dann glaube ich die nur 1,6 GHz sofort, einfach aus Stromspargründen. Für den GPU-Teil sollte man meiner Meinung nach mindestens 100W übrig behalten, damit da was Ordentliches bei rumkommt.

Locuza
2012-12-02, 23:56:09
Die 8 gibt es häufiger. 16 wären schon ziemlich fett, selbst mit den mickrigen Jaguars. Aber dann glaube ich die nur 1,6 GHz sofort, einfach aus Stromspargründen. Für den GPU-Teil sollte man meiner Meinung nach mindestens 100W übrig behalten, damit da was Ordentliches bei rumkommt.
4 Jaguar-Kerne wären aber auch ziemlich mickrig.
Und die 8 kam doch nur einmal dran oder?
Die 4 auch nur einmal und woher jemand 4 Jaguar-Compute-Units genommen hat, weiß ich überhaupt nicht mehr.
Das Vöglein ist aber ziemlich fix, falls die 1.6 Ghz sich am Ende bewahrheiten sollten.

YfOrU
2012-12-03, 10:13:49
Was hätte MS von einer deutlich Leistungsfähigeren und damit in der Produktion teureren Konsole ? Nichts.


Eigentlich müsste eher Sony hier mehr liefern um sich wenigstens etwas abgrenzen zu können. Was die Software betrifft hat Microsoft bei der kommenden Generation bezogen auf Integration und Vernetzung einen Vorteil den Sony nicht egalisieren kann. Mit Windows 8 ist Sony sogar gezwungen eine wichtige Teilkomponente des Konkurrenten selbst zu vertreiben. Für Sony wird das meiner Meinung nach diese Runde alles andere als einfach denn bei Microsoft hat man die Vorzüge welche eine an Apple angelehnte Integration im Massenmarkt bringt nicht nur verstanden sondern auch die nötigen Ressourcen um entsprechendes umzusetzen.

tobor
2012-12-03, 10:42:01
Was hätte MS von einer deutlich Leistungsfähigeren und damit in der Produktion teureren Konsole ? Nichts.


Casual ist mit der Wii U besetzt.
Die nächste Xbox würde die Konsole für "Coregamer" sein. Was bleibt das für Sony übrig?

Macht alles,aber nichts richtig gut?

Ich gehe außerdem davon aus, daß Ms die leistungsfähigere Konsole dennoch zu einem vergleichbaren Preis wie Sonys Orbis anbieten wird. Ist eigentlich die Gelegenheit, Sony aus dem Konsolengeschäft zu drängen.(was ich mir nicht wünsche,aber sehr wohl passieren kann)

Matrix316
2012-12-03, 12:07:58
Casual ist mit der Wii U besetzt.
Die nächste Xbox würde die Konsole für "Coregamer" sein. Was bleibt das für Sony übrig?
[...]
Die Coregamer die nicht ins uniforme angepasste einheits Metro Microsoft Universum wollen, gerne mal Blu Rays ansehen und gerne Gran Turismo und Uncharted spielen. :)

So wie du argumentierst, könnte man sich fragen, warum gibt es z.B. Android Tablets, wenn iPads doch für alles ausreichen? Abwechslung und Auswahl ist immer besser für den Markt. Wobei natürlich nicht gut ist, wenn man für Filme oder so unterschiedliche Standards hätte wie Blu Ray und HD-DVD. Aber es wäre halt auch schlecht, wenn nur eine Firma Blu Ray Player anbieten würde. Aber da kommt mir eine geniale Idee: Warum erlaubt Sony nicht, dass auch andere Hersteller wie Samsung, Panasonic, Toshiba oder so die Playstation Hardware anbieten können? Dann würde Sony nicht auf den HW Kosten sitzen bleiben, sondern gibt nur die Hardware vor und die anderen Hersteller können dann ihre eigenen "Playstations" anbieten. Das gab es zwar schonmal so ähnlich mit der 3DO aber zumindest hätte Sony schon eine große Basis an vorhandenen Systemen.

mboeller
2012-12-03, 13:11:50
...eine geniale Idee: Warum erlaubt Sony nicht, dass auch andere Hersteller wie Samsung, Panasonic, Toshiba oder so die Playstation Hardware anbieten können?

Und die Gewinne aus dem Spielevertrieb teilen sie dann auch, oder?

Matrix316
2012-12-03, 13:18:40
Und die Gewinne aus dem Spielevertrieb teilen sie dann auch, oder?

Naja, warum nicht? Sind ja doch glaube ich ein paar Euro die bei jedem Spiel abfließen. ;)

Demirug
2012-12-03, 13:34:26
Naja, warum nicht? Sind ja doch glaube ich ein paar Euro die bei jedem Spiel abfließen. ;)

Wäre aber immer noch ein irrsinniges Geschäftsmodel. Warum sollte sich ein Hersteller auf einen Verlust bei der Hardware (seinem Kerngeschäft) einlassen um dann über einen Zeitraum von mehreren Jahren das Geld vielleicht wieder zu bekommen. Dabei hängt das dann noch von Geschäftsentscheidungen ab auf die der Hardwarehersteller keinen oder nur geringen Einfluss hat.

Da wäre es für Samsung und Co interessanter Game fähige Smart-TVs (und entsprechenden Settop boxen) auf Android Basis zu bauen. Da könnten sie dann durchaus auch noch ihren eigenen Shop aufziehen.

Coda
2012-12-03, 14:18:10
erklärs mir bitte.
Tipp: Viel Einfluss auf die Grafik haben sogennanten Künstler.

iFanatiker
2012-12-03, 14:25:41
Naja, warum nicht? Sind ja doch glaube ich ein paar Euro die bei jedem Spiel abfließen. ;)

Haben wir ja beim 3DO gesehen wie gut es funktioniert. :biggrin:

tobor
2012-12-03, 14:35:32
So wie du argumentierst, könnte man sich fragen, warum gibt es z.B. Android Tablets, wenn iPads doch für alles ausreichen?
Ähm,es gibt eine Menge Gründe für(und gegen) Android und es spricht meines Erachtens völlig andere Nutzer an:
http://www.pcwelt.de/news/Android-vs-iOS-warum-Android-gewinnt-4200387.html

YfOrU
2012-12-03, 15:27:06
Die Coregamer die nicht ins uniforme angepasste einheits Metro Microsoft Universum wollen, gerne mal Blu Rays ansehen und gerne Gran Turismo und Uncharted spielen. :)

Ich frag mich ernsthaft ob es vom wirtschaftlichen Standpunkt überhaupt noch Sinn macht einer zukünftigen Konsole ein BD Laufwerk zu verpassen. Höhere Kosten und der reale Nutzwert wird in der Praxis bezogen auf den Verkaufszeitraum mehrheitlich gegen null tendieren. BD landet mittelfristig zwangsläufig in der Nische. Entsprechendes in einem Produkt für den Massenmarkt halte ich für suboptimal.

Ailuros
2012-12-03, 15:29:25
Wäre aber immer noch ein irrsinniges Geschäftsmodel. Warum sollte sich ein Hersteller auf einen Verlust bei der Hardware (seinem Kerngeschäft) einlassen um dann über einen Zeitraum von mehreren Jahren das Geld vielleicht wieder zu bekommen. Dabei hängt das dann noch von Geschäftsentscheidungen ab auf die der Hardwarehersteller keinen oder nur geringen Einfluss hat.

Da wäre es für Samsung und Co interessanter Game fähige Smart-TVs (und entsprechenden Settop boxen) auf Android Basis zu bauen. Da könnten sie dann durchaus auch noch ihren eigenen Shop aufziehen.

Zumindest ist es beruhigend dass ich nicht der einzige hier bin der an den Trend mit den smartTVs glaubt.

Crazy_Bon
2012-12-03, 15:58:01
Wäre aber immer noch ein irrsinniges Geschäftsmodel. Warum sollte sich ein Hersteller auf einen Verlust bei der Hardware (seinem Kerngeschäft) einlassen um dann über einen Zeitraum von mehreren Jahren das Geld vielleicht wieder zu bekommen. Dabei hängt das dann noch von Geschäftsentscheidungen ab auf die der Hardwarehersteller keinen oder nur geringen Einfluss hat.

Da wäre es für Samsung und Co interessanter Game fähige Smart-TVs (und entsprechenden Settop boxen) auf Android Basis zu bauen. Da könnten sie dann durchaus auch noch ihren eigenen Shop aufziehen.
Durchaus denkbar, aber auch wenig sinnvoll, wenn sich ebenso Tablets und Smartphones drahtlos mit dem TV verbinden lässt.
Im Gegensatz zum den mobilen Geräten behält man einen TV schon einige Jahre, und wenn man bedenkt wie schnell man schon die mangelnde Leistung von Konsolen ankreidete, dann überlebt ein solcher "Gamer-TV" kein Jahr.

YfOrU
2012-12-03, 15:58:51
Zumindest ist es beruhigend dass ich nicht der einzige hier bin der an den Trend mit den smartTVs glaubt.

Daran glauben ja aber es fehlen bisher die richtigen Impulse. Meiner Meinung nach muss erst eine Marke wie Apple ein Gerät welches von A bis Z durchdacht ist (und den Fokus primär voll auf der Smart-Funktion hat) auf den Markt bringen. Alleine schon die Bedienung der meisten (integrierten) Smart-TVs ist in der Praxis eine Katastrophe für sich und genau das darf einfach nicht sein. Die müssen so simpel und intuitiv wie nur möglich funktionieren denn die Zielgruppe ist praktisch jeder.

Könnte dann aber vor allen für Nintendo mittelfristig recht unangenehm werden denn mit ~A15 und halbwegs potenter GPU geht im Casual Bereich sicher was.

fizzo
2012-12-03, 16:19:56
....Könnte dann aber vor allen für Nintendo mittelfristig recht unangenehm werden denn mit ~A15 und halbwegs potenter GPU geht im Casual Bereich sicher was.....

Nintendo hat mit der Wii U sehr viele Smart-Funktionen vorweggenommen:

http://www.gamefront.de/archiv11-2012-gamefront/nintendo-wii-u-how-to.html

Der Controller dient auch als Fernbedienung für den TV. Im Gegesatz zum Airplay von Apple (Ipad/Iphone/AppleTV - habe beides vor Ort) ist die Bedienung lagfrei und fühlt sich wesendlich "direkter" an.

edit: http://www.eurogamer.net/articles/df-hardware-wii-u-gamepad-latency-analysis

mboeller
2012-12-03, 16:25:06
Die müssen so simpel und intuitiv wie nur möglich funktionieren denn die Zielgruppe ist praktisch jeder.


Aber der Formfaktor-Nachteil bleibt IMHO bestehen.
Internet mit dem Fernseher finde ich seltsam. Wieso sollte ich eine Webseite auf einem 2-3m entfernten Fernseher lesen wollen wenn es mit einem Tablet od. Notebook doch wesentlich besser geht. Naja, vielleicht wenn man weitsichtig ist und die Brille nicht aussetzen will....aber ansonsten; ne Danke.

Ailuros
2012-12-03, 16:38:32
Daran glauben ja aber es fehlen bisher die richtigen Impulse. Meiner Meinung nach muss erst eine Marke wie Apple ein Gerät welches von A bis Z durchdacht ist (und den Fokus primär voll auf der Smart-Funktion hat) auf den Markt bringen. Alleine schon die Bedienung der meisten (integrierten) Smart-TVs ist in der Praxis eine Katastrophe für sich und genau das darf einfach nicht sein. Die müssen so simpel und intuitiv wie nur möglich funktionieren denn die Zielgruppe ist praktisch jeder.

Könnte dann aber vor allen für Nintendo mittelfristig recht unangenehm werden denn mit ~A15 und halbwegs potenter GPU geht im Casual Bereich sicher was.

IMHO will Apple erstmal die richtigen grossen Vertraege fuer den Inhalt einer moeglichen smartTV Platform garantieren, bis sie damit erstmal richtig eingreifen. In solch einem Fall ist es zwar eine "Idee" fuer jeglichen Konkurrenten mit konkurrierender hw nachzuladen, aber den eigentlichen Sinn der insgesamten Platform haben sie dann leider wieder verpasst.

Aber der Formfaktor-Nachteil bleibt IMHO bestehen.
Internet mit dem Fernseher finde ich seltsam. Wieso sollte ich eine Webseite auf einem 2-3m entfernten Fernseher lesen wollen wenn es mit einem Tablet od. Notebook doch wesentlich besser geht. Naja, vielleicht wenn man weitsichtig ist und die Brille nicht aussetzen will....aber ansonsten; ne Danke.


Es geht ja im gegebenen Fall nicht streng genommen um browsing sondern eher um ein generelles Heim-entertainment Geraet wo man nach Belieben Filme oder Gelegegenheits-spielchen bei niedrigen Preisen benutzen koennte.

Es gibt auch zwischen einer handheld Konsole und einem tablet keine direkten Parallelen. Du wirst wohl auf einem PS Vita nicht normalerweise browsen und genausowenig spielt jemand eben nicht ein $50 grosses Spiel auf einem tablet. Das erste ist und bleibt eine handheld Spiele-konsole und das zweite ein e-book reader mit erweiterten Faehigkeiten fuer gelegentliches infotainment.

Du wirst wohl ein smartTV Geraet auch nicht als e-book reader benutzen oder?

Windi
2012-12-03, 18:35:22
Daran glauben ja aber es fehlen bisher die richtigen Impulse. Meiner Meinung nach muss erst eine Marke wie Apple ein Gerät welches von A bis Z durchdacht ist (und den Fokus primär voll auf der Smart-Funktion hat) auf den Markt bringen. Alleine schon die Bedienung der meisten (integrierten) Smart-TVs ist in der Praxis eine Katastrophe für sich und genau das darf einfach nicht sein. Die müssen so simpel und intuitiv wie nur möglich funktionieren denn die Zielgruppe ist praktisch jeder.

Könnte dann aber vor allen für Nintendo mittelfristig recht unangenehm werden denn mit ~A15 und halbwegs potenter GPU geht im Casual Bereich sicher was.
Die Hersteller sind momentan einfach unfähig.

Was soll an einem Hybriden aus Tablet und Fernseher so schwer sein?
Prozessor und Speicher eines Tablets kosten um die 50€.
Zur Steuerung nimmt man dann entweder einen Pointer (so etwas wie die WiiMote) oder man lagert die Bedienelemente auf eine Tabletfernbedienung aus. (Per App kann man auch bereits vorhandene Smartphones/Tablets nutzen) Für simple Dinge wie "Radio starten", "ARD starten" oder "RTL starten" reicht auch die heutige Spracherkennung aus.

Die schlafen wirklich alle noch. Und dann kommt plötzlich ein neuer auf den Markt (wie z.B. Apple) und mischt den ganzen Laden auf.


Das ist natürlich auch ein Problem für die Konsolen.
Konsolen sind eine Mischkalkulation aus den Einnahmen verschiedenster Zielgruppen. Wenn Smart-TVs in Zukunft den Casual-Markt aufmischen dann setzt das die Einnahmesituation der Konsolenhersteller unter Druck.

Wenn dann noch Spiele/Anwendungen für den Werbeblock kommen, herrscht Panik in den Chefetagen von ProSieben und RTL.

TheCounter
2012-12-03, 18:36:17
Ich frag mich ernsthaft ob es vom wirtschaftlichen Standpunkt überhaupt noch Sinn macht einer zukünftigen Konsole ein BD Laufwerk zu verpassen.

Wieso nicht? Es wird in absehbarer Zeit keinen Nachfolger der Bluray geben und Bluray Laufwerke werden dir doch schon hinterhergeschmissen.

Ich wäre überrascht, wenn die nächste Xbox kein Bluray Laufwerk hat.

YfOrU
2012-12-03, 18:39:26
Nintendo hat mit der Wii U sehr viele Smart-Funktionen vorweggenommen..


Wenn man sich so überlegt was für Potential hinter dem Konzept der Wii U und dem Controller gesteckt hätte und was daraus wurde dann ist es eher enttäuschend.


Was soll an einem Hybriden aus Tablet und Fernseher so schwer sein?

Das hab ich mich bei Nintendo auch gefragt. Etwas größeres und höher aufgelöstes Panel kombiniert mit längerer Akkulaufzeit und eine konsequentere Umsetzung.

Aber der Formfaktor-Nachteil bleibt IMHO bestehen.
Internet mit dem Fernseher finde ich seltsam. Wieso sollte ich eine Webseite auf einem 2-3m entfernten Fernseher lesen wollen wenn es mit einem Tablet od. Notebook doch wesentlich besser geht. Naja, vielleicht wenn man weitsichtig ist und die Brille nicht aussetzen will....aber ansonsten; ne Danke.

Für kurz auf eBay, Amazon, E-Mail Postfach, Pizza Service etc. genügt es aber durchaus. Würde das auch gelegentlich nutzen wenn mich die URL Eingabe per Zahlenblock/Infrarot nicht in den Wahnsinn treiben würde ;)


IMHO will Apple erstmal die richtigen grossen Vertraege fuer den Inhalt einer moeglichen smartTV Platform garantieren, bis sie damit erstmal richtig eingreifen...

Eben von A - Z. Das ein solches Gerät neben der Qualität der Interaktion vor allen durch die verfügbaren Inhalte definiert wird versteht sich von selbst.
Genaugenommen will dabei auch niemand massig 3rd Party Software installieren um Services wie Netflix etc. nutzen zu können. Alle benötigten Angebote (=Inhalte) sollten möglichst nativ vorhanden sein. Ganz simples Entertainment.

Wieso nicht? Es wird in absehbarer Zeit keinen Nachfolger der Bluray geben und Bluray Laufwerke werden dir doch schon hinterhergeschmissen.

Es wird im privaten Bereich nach BD sehr sicher keine weiteren optischen (Wechsel)Datenträger mehr geben. Die braucht es genaugenommen schon heute nicht mehr zwangsläufig.

MarcWessels
2012-12-03, 19:04:18
Es wird im privaten Bereich nach BD sehr sicher keine weiteren optischen (Wechsel)Datenträger mehr geben.Oh doch. Wie willst Du sonst die Leute mit 4K und 8K-Medien füttern? Sollen die ne Woche warten, bis der Download fertig ist?!

mboeller
2012-12-03, 19:07:44
Für kurz auf eBay, Amazon, E-Mail Postfach, Pizza Service etc. genügt es aber durchaus. Würde das auch gelegentlich nutzen wenn mich die URL Eingabe per Zahlenblock/Infrarot nicht in den Wahnsinn treiben würde ;)



Das gibt es ja schon bzw. bald Z.B:
http://www.engadget.com/2012/12/02/netgear-neotv-prime-gtv100-googletv-fcc/

bzw.: http://www.engadget.com/tag/googletv/

bei LG sogar incl. OnLive

YfOrU
2012-12-03, 19:07:46
Oh doch. Wie willst Du sonst die Leute mit 4K und 8K-Medien füttern? Sollen die ne Woche warten, bis der Download fertig ist?!

Bis das im Massenmarkt real wird und dann verbreitet ist hat jede relevante Kunden-Ansammlung LTE, VDSL oder Cable.

Windi
2012-12-03, 19:45:37
Das gibt es ja schon bzw. bald Z.B:
http://www.engadget.com/2012/12/02/netgear-neotv-prime-gtv100-googletv-fcc/

bzw.: http://www.engadget.com/tag/googletv/

bei LG sogar incl. OnLive
Ein kleiner Schritt in die richtige Richtung, mehr aber auch nicht.

Das ist vor allem eine extrem gepimpte Fernbedienung.
Tastatur und Touch Pad sind schön und gut, aber eine wirklich intuitive Bedienung ist damit kaum möglich.
Das Touch Pad ist auf der Vorderseite und die Tastatur auf der Rückseite.
Beim Touch Pad muss man die Fernbedienung vertikal halten bei der Tastatur horizontal.
Da rotiert man ja die ganze Zeit die Fernbedienung um alle möglichen Achsen, das kann es nicht sein.

Laufen die Google TV Geräte wenigstens schnell und ruckelfrei? Das bekommen die meisten heutigen SmartTVs ja noch nicht mal hin.


@YfOrU
Einen BD Nachfolger wird es mindestens noch brauchen. Nicht jeder wird in Zukunft einen so schnellen Internetzugang haben das es für 8k mit 48fps und 3D reichen wird.
Ein gutes Beispiel ist ja LTE. Um so mehr es sich durchsetzt, um so mehr werden es gleichzeitig nutzen wollen, um so geringer wird die Bandbreite die für jeden einzelnen übrigbleibt.
Bis sich LTE durchgesetzt hat, hat wahrscheinlich sogar schon der letzte ein Smartphone und alle wollen die ganze Zeit surfen und online sein. Da hat man dann mit Glück gerade noch UMTS-Geschwindigkeit.

Ailuros
2012-12-03, 19:52:11
Ich befuerchte dass das OT so langsam zu gross wird, aber fuer smartTVs der weiteren Zukunft wuerde ich eher in Richtung Gesten und voice recognition schielen mit denen zeitlich geforscht wird.

Tesseract
2012-12-03, 19:53:52
Oh doch. Wie willst Du sonst die Leute mit 4K und 8K-Medien füttern? Sollen die ne Woche warten, bis der Download fertig ist?!

mit h265 wird man einen 2h-4k film wohl relativ problemlos auf 20-30GB bringen können ohne wesentlich qualität pro pixel einzubüßen.
wenn die konsolen mal etwas mehr festspeicher haben würden als ersatz für das laufwerk ginge da schon einiges. auch für die meisten internetanschlüsse - zumindest in den entwickelten ländern - ist das kein all zu großes ding mehr.

oids
2012-12-03, 20:02:03
Wo wir gerade von Internetgeschwindigkeit reden-Ich dümpel
hier immer noch mit ner 6000 Flat rum:Höhere Geschwindigkeit? Nicht möglich

Entwicklungsland Deutschland

Windi
2012-12-03, 20:11:01
Ich befuerchte dass das OT so langsam zu gross wird, aber fuer smartTVs der weiteren Zukunft wuerde ich eher in Richtung Gesten und voice recognition schielen mit denen zeitlich geforscht wird.
Ja wir sind ganz schön ins OT abgedriftet.
Aber man muss bedenken, das ein gescheit umgesetztes smartTV-Konzept die Konsolen bedroht, die zu sehr auf den Casual-Markt setzen. Das könnte eine Konsole die hauptsächlich auf eben jenen Markt setzt komplett unrentabel machen und zu einem riesen Flop machen. Wenn man bedenkt, das man jeden Fernseher für unter 100€ mit einem HDMI-Stick zu einem smartTV hochrüsten kann, dann ist die Gefahr auf jeden Fall real.

Demogod
2012-12-03, 20:43:23
Naja weiss nicht.. im TV integriert? Nee das gehört imo in eine separate Box.
Klar man könnte nen Market aufbauen, der weiss welche Spiele noch auf dem aktuellen (das was man zum aktuellen Zeitpunkt zuhause stehen hat) TV performen würden..

Ailuros
2012-12-03, 20:45:28
Naja weiss nicht.. im TV integriert? Nee das gehört imo in eine separate Box.

Weil ein relativ kleiner SoC ein separates Gehaeuse und daher hoehere Herstellungskosten haben muss?

Matrix316
2012-12-03, 21:06:50
Weil ein relativ kleiner SoC ein separates Gehaeuse und daher hoehere Herstellungskosten haben muss?
Einen TV hat man viel länger als eine Settop Box, oder käufst du jedes Jahr einen neuen Fernseher?

Matrix316
2012-12-03, 21:16:29
Wäre aber immer noch ein irrsinniges Geschäftsmodel. Warum sollte sich ein Hersteller auf einen Verlust bei der Hardware (seinem Kerngeschäft) einlassen um dann über einen Zeitraum von mehreren Jahren das Geld vielleicht wieder zu bekommen. Dabei hängt das dann noch von Geschäftsentscheidungen ab auf die der Hardwarehersteller keinen oder nur geringen Einfluss hat.

Da wäre es für Samsung und Co interessanter Game fähige Smart-TVs (und entsprechenden Settop boxen) auf Android Basis zu bauen. Da könnten sie dann durchaus auch noch ihren eigenen Shop aufziehen.
Aber je mehr Hersteller die Hardware fertigen, desto billiger müsste die doch werden, oder? Diese könnten sich auch an den Entwicklungskosten beteiligen. Sony müsste ja nicht alles alleine machen.

Aber die Idee von modularen Konsolen finde ich immer noch am besten. Da könnte man eine Konsole zum aktuellen Stand relativ preiswert rausbringen und dann jährliche Updates für CPU und GPU und RAM fahren. So lange nicht jeder Hersteller sein eigenes süppchen kocht und diese Updates zentral gesteuert werden, wirds auch nicht so kompliziert für den Kunden.

Windi
2012-12-03, 21:17:49
Naja weiss nicht.. im TV integriert? Nee das gehört imo in eine separate Box.
Klar man könnte nen Market aufbauen, der weiss welche Spiele noch auf dem aktuellen (das was man zum aktuellen Zeitpunkt zuhause stehen hat) TV performen würden..
Schon seit einiger Zeit gibt es HDMI-Sticks mit Android 4.0 ab 60€ zu kaufen. Nächstes Jahr wird es wohl noch leistungsstärkere Sticks mit Android 4.2 geben. Android ist momentan noch nicht für die Benutzung am TV optimiert worden, das kann aber noch kommen. Und dann könnte dort ganz plötzlich ein gigantischer Casual-Game Markt entstehen der den etablierten Konsolen die Gewinne kaputt macht.

Windi
2012-12-03, 21:39:37
Aber je mehr Hersteller die Hardware fertigen, desto billiger müsste die doch werden, oder? Diese könnten sich auch an den Entwicklungskosten beteiligen. Sony müsste ja nicht alles alleine machen
Das gilt nur dann, wenn alle Hersteller in Konkurrenz zueinander stehen. Wettbewerb halt. Wenn sie allerdings alle zusammen arbeiten und sich abstimmen müssen, dann hast du keinen richtigen Wettbewerb mehr.
Alle verkaufen eigentlich die selbe Hardware und keiner kann da wirklich etwas dran "optimieren" ohne inkompatibel zu werden. Dadurch reduziert sich nur die produzierte Stückzahl pro Hersteller, bei einem Markt wo die Stückzahl ganz drastisch über die Produktionskosten entscheidet.

Felixxz2
2012-12-03, 22:00:30
Schon seit einiger Zeit gibt es HDMI-Sticks mit Android 4.0 ab 60€ zu kaufen. Nächstes Jahr wird es wohl noch leistungsstärkere Sticks mit Android 4.2 geben. Android ist momentan noch nicht für die Benutzung am TV optimiert worden, das kann aber noch kommen. Und dann könnte dort ganz plötzlich ein gigantischer Casual-Game Markt entstehen der den etablierten Konsolen die Gewinne kaputt macht.

Kurz OT: Kannst du paar Sticks nennen? Hab beim Googlen nichts kaufbares gefunden.

Matrix316
2012-12-03, 22:20:00
Das gilt nur dann, wenn alle Hersteller in Konkurrenz zueinander stehen. Wettbewerb halt. Wenn sie allerdings alle zusammen arbeiten und sich abstimmen müssen, dann hast du keinen richtigen Wettbewerb mehr.
Alle verkaufen eigentlich die selbe Hardware und keiner kann da wirklich etwas dran "optimieren" ohne inkompatibel zu werden. Dadurch reduziert sich nur die produzierte Stückzahl pro Hersteller, bei einem Markt wo die Stückzahl ganz drastisch über die Produktionskosten entscheidet.
Man könnte ja die Hardwarespecs grundsätzlich gleich machen, aber die Hersteller könnten entscheiden:

-wie groß ist die Festplatte?
-Metall oder Plastikgehäuse?
-Toploader, Slot in oder Schublade als Laufwerk?
-Welche Software wird mitgeliefert?
-Wie viele Controller?

Nightspider
2012-12-03, 22:45:36
Vielleicht bringt Sony ja ein 4D-BluRay Update mit bis zu 8 Layern pro BD.
Das könnte man dann mit entsprechendem 4K Support und 4K Fernsehern natürlich toll vermarkten und hätte, was Multimedia-Fähigkeiten angeht, wieder die Nase vorne.

Mit der PS3 war Sony ja auch bestrebt den neuen Standard alias BluRay zu pushen und Massenmarkt tauglich zu machen.

Nachteile dürfte das keine haben und die Laufwerke dürften kaum oder gar nicht teurer werden, da die Technik ja schon vorhanden ist und bisher nur der breite Unterstützung fehlt.

Zumal die Frage bleibt ob 50GB BDs überhaupt für AAAA-NextGen Titel reichen, wenn diese mit vielen Videos, zwischensequenzen, unkomprimiertem Sound und viel höher aufgelösten Texturen erscheinen.

Wahrscheinlich werden ja schon bis zu ~2GB alleine für die Texturen verbraten in den neuen Konsolen, da muss dann auch schon viel Material auf den Scheiben sein. Entsprechend ~10 mal soviel Platzbedarf der Texturen auf den Scheiben. Wobei ich jetzt passen muss bei der Info, wie viel Speicherplatz bisherige, aktuelle AAA Titel, für die Texturen auf den Disks benötigten bzw. belegt haben.

dildo4u
2012-12-03, 22:53:14
50 Gb reicht dicke BF3 PC ist jetzt bei 25GB mit 3 Addons,viel bessre Texturen wirds auch Next Gen nicht geben.Da wir nich mehr als 1GB V-Ram sehen werden,4GB GDDR5 sind imo Träumerei.Für den Rest wird man vermutlich DDR3 oder 4 nutzen.

Nightspider
2012-12-03, 23:04:52
BF3 hat aber nur eine kurze SP Kampagne. Daher kaum Videos und die Levels sind auch nicht gerade groß. Zwar weit aber leer im Vergleich zu Spielen wie GTA oder AC usw usw. wo auch viel abwechslungsreichere Texturen erforderlich sind als in BF3, wo in einer Wüstenmap alles gleich aussieht und alle Gebäude die gleiche Textur haben, übertrieben gesagt. ;)

Bei GTA zB. hast du massig vers. Autos, Werbeplakate, Häuser, Brücken, abertausende Detailobjekte. In BF3 hast du Felsen, Berge, Felsen, Bäume...aber alles in kleiner Auswahl aber großer Masse.

Es gab doch auch schon Spiele für die PS3, die 50GB belegt haben wenn ich mich nicht irre.

Und wie stark der Speicherplatzbedarf von PS2 zu PS3 gestiegen ist haben wir ja auch gesehen. Das war locker Faktor 5, würde ich schätzen.
Gehen wir mal von Faktor 4 aus zur nächsten Gen, weil die ja angeblich nicht so einen großen Sprung machen sollen, trotz viel größerem Zeitabstand (:rolleyes:). Dann wären wir auch bei 100GB.
Selbst wenn man die 360 mit Doublelayer DVDs als Maßstab nimmt ist man dann auch bei Faktor 40GB wobei selbst bei der Xbox360 schon hin und wieder über Platzmangel auf den Scheiben gemeckert wurde.

Es ist nur eine "Theorie" meinerseits aber ich halte das nicht für unwahrscheinlich. Schließlich kommt die PS4 ja wohl erst Ende 2013-1.HJ2014.

Ich glaube eher nicht das wir nur 1GB VRAM sehen werden. Selbst wenn die GPU dedizierten GDDR5 Speicher besitzen sollte werden es sicherlich 1,5-2GB sein. Und falls man komplett auf DDR3 setzt kann man auch bei mind. 4GB totalem RAM rechnen, weil dieser so "pervers" billig. Zumal es gerade mal seit wenigen Monaten 20nm RAM gibt und dieser den Preis 2013 nochmal senken und die Chip-Kapazität nochmals verdoppeln sollte.
Vielleicht sehen wir dann gar DDR4 RAM in den Konsolen. (Bei der Xbox3 sicherlich noch nicht aber vllt bei der PS4, da ich mit der PS4 immer noch ein halbes Jahr nach der Xbox3 rechne).

Auch wenn viele mit max. 4GB RAM rechnen gehe ich davon aus, das die Konsolenhersteller diesmal schlauer sind und auch von den günstigen Preisen profitieren wollen.
Zumal alle Entwickler ja schon bei der letzten Gen über zu wenig Speicher gemeckert hatten. Und damals sah es ganz anders aus mit den RAM Preisen.

Nicht unmöglich wäre es auch, das man sich die Vorteile der SSD zu nutze macht und besseres Texturstreaming erlaubt.

Natürlich alles reine Spekulation meinerseits aber dafür gibt es ja den Thread. Und optimistisch darf man ja wohl sein. :)

dildo4u
2012-12-03, 23:10:36
Das würde halt wie jetzt nur für Sony exklusive Games was bringen,MS pusht ja schon länger Streaming von Video's.Denke nich das die die näste Box 4K Ready machen.

MarcWessels
2012-12-03, 23:54:17
mit h265 wird man einen 2h-4k film wohl relativ problemlos auf 20-30GB bringen können ohne wesentlich qualität pro pixel einzubüßen.*würg* So einen zusammenkomprimierten Mist will niemand auf großer Leinwandbreite sehen.

Bis das im Massenmarkt real wird und dann verbreitet ist hat jede relevante Kunden-Ansammlung LTE, VDSL oder Cable.Weil die Verbreitung von schnellen Anschlüssen ja erfahrungsgemäß so gut klappt. Und selbst ne 64er-Leitung wird schon eng für 1:1-Streaming, 4K, voller Farbauflösung und DCI-Farbraum.

Tesseract
2012-12-03, 23:58:53
*würg* So einen zusammenkomprimierten Mist will niemand auf großer Leinwandbreite sehen.

der "zusammenkomprimierte mist" wär besser als ausnahmslos alles was du momentan abspielen kannst abgesehen echtem film mit >=35mm vielleicht. :rolleyes:

Kira
2012-12-04, 00:46:12
http://www.ps3-talk.de/allgemeines/89415-ps4-koennte-ps-omni-heissen-release-im-september-2013-a.html

paar neue gerüchte...wäre schon traurig, wenn es nicht deutlich besser als eine wii u wäre.

Finch
2012-12-04, 01:06:34
De Gerüchte stammen doch aus der Quelle die schon ein paar Seiten? Vorher gepostet wurde. Darauf würde ich erstmal nichts geben.

Locuza
2012-12-04, 01:17:27
Die Quelle spricht ja selber davon das vieles sehr wage ist oder nur mal so geplant wurde, was ja jederzeit verändert werden kann.
Mal sehen ob sich irgendetwas bewahrheiten soll, jedenfalls hat man praktisch zu fast allem was geschrieben.
Wenn ein weiterer Legacy of Kain Teil auf den Markt kommt, ist mir eh alles egal :tongue:

Ailuros
2012-12-04, 07:57:38
Vom link oben:

Die PS4 / PS Omni wird technisch stärker als die WiiU sein, der Unterschied soll allerdings nicht so signifikant hoch sein wie erwartet.

Es kommt stets darauf an wie hoch genau die Erwartungen in jedem Fall waren/sind. Es wurde hier in diesem thread mehrmals und von mehreren Seiten gewarnt dass man zwar einen gesunden Leistungsprung im Vergleich zu heutigen Konsolen sehen wird, aber man trotz allem nichts weltbewegendes erwarten sollte.

TheCounter
2012-12-04, 11:06:13
mit h265 wird man einen 2h-4k film wohl relativ problemlos auf 20-30GB bringen können ohne wesentlich qualität pro pixel einzubüßen.

Hast du da nicht eine 0 vergessen? Heutige Blurays haben schon locker mal 20GB.

Coda
2012-12-04, 11:11:27
Die sind aber auch H.264 kodiert. Und das oftmals mehr schlecht als recht.

Deinorius
2012-12-04, 11:14:44
Die sind aber auch H.264 kodiert. Und das oftmals mehr schlecht als recht.


Das dürfte aber kein Problem des Codecs bzw. der Komprimierung sein... bei den Bitraten! :ugly: Das Problem liegt da wohl schon eher am Bild, das vor der Komprimierung herangezogen wird. Mich würden Beispiele interessieren.

Iruwen
2012-12-04, 11:15:13
Hast du da nicht eine 0 vergessen? Heutige Blurays haben schon locker mal 20GB.
Pi mal Daumen vierfache Auflösung ergibt Faktor 10? Erstens steigt die Datenmenge nicht linear mit der Auflösung, zweitens ist H.265 effizienter (http://www.golem.de/news/mpeg-hevc-alias-h-265-doppelt-so-effizient-wie-h-264-1208-93883.html) als H.264, drittens sind aktuelle BDs teilweise mau gemastert (wohl nach dem Prinzip "hau raus, haben ja noch Platz"), da könnte man bei vergleichbarer Bildqualität noch sparen. Höhere Qualität kostet ja auch Rechenzeit beim Encoding.

Coda
2012-12-04, 11:16:35
Das dürfte aber kein Problem des Codecs bzw. der Komprimierung sein... bei den Bitraten!
Doch, die Enkoder sind teilweise absolut grauenhaft.

x264 enkodiert lustigerweise wesentlich besser als der ganze kommerzielle Ranz.

AnarchX
2012-12-04, 11:17:24
Hast du da nicht eine 0 vergessen? Heutige Blurays haben schon locker mal 20GB.
Warum sollte der Bitratenbedarf sich verzehnfachen? Eher wird man, sofern das Material nicht zu hochfrequent ist, mit weniger als der 4-fachen Bitrate auskommen, beim Schritt von 2K auf 4K.

Vielleicht wartet Apple gerade auf H.265, um beim Apple-Smart-TV eine vernünftige Qualität über das Internet zu erreichen?

Iruwen
2012-12-04, 11:20:43
x264 enkodiert lustigerweise wesentlich besser als der ganze kommerzielle Ranz.
Die Qualität die manche x264 Rips bei relativ niedriger Bitrate hinbekommen ist erstaunlich. Noch erstaunlicher wäre das Ergebnis wohl wenn man den Encoder mal vergleichsweise über das Ausgangsmaterial jagen dürfte. Oder man encodiert mal testweise ein 1080p Ingamevideo.

robbitop
2012-12-04, 11:20:44
Sie könnten doch sicher auch ein gut konfiguriertes x264 nehmen. Bis h265 da ran kommt, dauert es wohl noch.

Iruwen
2012-12-04, 11:22:21
Sie könnten doch sicher auch ein gut konfiguriertes x264 nehmen
GPL ist böse. Oder so.

00-Schneider
2012-12-04, 11:29:49
Es kommt stets darauf an wie hoch genau die Erwartungen in jedem Fall waren/sind. Es wurde hier in diesem thread mehrmals und von mehreren Seiten gewarnt dass man zwar einen gesunden Leistungsprung im Vergleich zu heutigen Konsolen sehen wird, aber man trotz allem nichts weltbewegendes erwarten sollte.


Hat MS nicht in einem vor langer Zeit geleaktem Paper was von 8x 360-Leistung als Zielperformance für die neue Konsole gesprochen? Das müsste doch von den aktuell vermuteten Specs her locken hinkommen, oder?

Weltbewegendes erwartet hier keiner. Ich verlange mindestens 720p mit AA und AF und minimum 30FPS als Untergrenze, das reicht mir voll und ganz!

Ansonsten finde ich die jetzige Technik schon gut genug um glaubhafte Welten auf den Bildschirm zu zaubern. Obwohl eine bessere Physik in den zukünftigen Games auch nicht schlecht wäre, daran hapert es bei der aktuellen Generation imho noch am Meisten.

Deinorius
2012-12-04, 11:45:42
Doch, die Enkoder sind teilweise absolut grauenhaft.

x264 enkodiert lustigerweise wesentlich besser als der ganze kommerzielle Ranz.


Das ist sowieso klar. Darüber brauchen wir nicht reden. Mit Ausnahme, dass ich es einfach logisch und nicht lustigerweise finde, dass x264 der beste Enkoder ist. ;) Aber die hohen Bitraten müssten das dennoch in den meisten Fällen (sofern wirklich eine hohe Bitrate genutzt wird) ausreichend ausgleichen.

Warum sollte der Bitratenbedarf sich verzehnfachen? Eher wird man, sofern das Material nicht zu hochfrequent ist, mit weniger als der 4-fachen Bitrate auskommen, beim Schritt von 2K auf 4K.

Vielleicht wartet Apple gerade auf H.265, um beim Apple-Smart-TV eine vernünftige Qualität über das Internet zu erreichen?


Ziel ist ja die Verdoppelung der Komprimierbarkeit. Wenn wir davon ausgehen, dann bräuchte ein 4K Film weniger als die doppelte Bitrate. Man bräuchte aber dennoch neuere Laufwerke, die aber an sich nur eine höhere max. Bitrate unterstützen. Ich könnte mir gut vorstellen, dass mit H.265 ein 4K Film auf eine 2-Layer BD raufpasst. Man wird dann wohl umso mehr darauf achten, dass der Platz vernünftig verteilt ist.
Also wohl kein Dutzend Sprachvarianten und Extras eher auf einer zweiten BD. Mit probehalber sparsamen 4,25 MBit/s Audio in 6 Streams (jeweils 2x DTS-HD, Dolby Digital, Audiokommentar). Aus der Luft gegriffen ziehe ich 8 GiB für Extras ab und 1 GiB für den gesamten Overhead.
Bei einem 2 h Film wären das 38,5 Mbit/s nur für den Videostream. Reicht ohne weiteres, solange der Enkoder gut ist und die Komprimierbarkeit wirklich verdoppelt wird.

Und ob das für Apple ausreicht, wenn H.265 möglicherweise im Jänner ratifiziert wird? Einen guten Enkoder braucht man dafür immer noch.

Deinorius
2012-12-04, 11:53:53
Die Qualität die manche x264 Rips bei relativ niedriger Bitrate hinbekommen ist erstaunlich. Noch erstaunlicher wäre das Ergebnis wohl wenn man den Encoder mal vergleichsweise über das Ausgangsmaterial jagen dürfte. Oder man encodiert mal testweise ein 1080p Ingamevideo.


Das wäre wirklich interessant, wieviel sparsamer x264 bei crf 18 (Constant Quality - niedriger als 18 macht optisch keinen Sinn) ohne Filter bei einer Blu-Ray wäre. Ich glaube, ich probiere das mal aus. :D

Sie könnten doch sicher auch ein gut konfiguriertes x264 nehmen. Bis h265 da ran kommt, dauert es wohl noch.


Eine Firma nimmt eine freie Software, die unter der GPL steht und nutzt diese für kommerzielle Zwecke? lol wut? :ulol:

robbitop
2012-12-04, 11:55:55
Ich finde verlustfrei komprimierte Tonspuren sind sowieso eine Verschwendung von Speicherplatz/Bitrate. Für die HD-DVD gab es doch DTS und DD Abkömmlinge mit verlustbehafteter Komprimierung mit dennoch recht hohen Bitraten. So könnte man noch ein wenig sparen.


Eine Firma nimmt eine freie Software, die unter der GPL steht und nutzt diese für kommerzielle Zwecke? lol wut? :ulol:

Ernsthafte Frage: Was spricht dagegen?

THEaaron
2012-12-04, 11:58:48
Nichts. Je nach Unterhmen/Auftrag wird heute auch Open-Source Software im Enterprise Bereich eingesetzt. Da gibts nichts zu lachen.

Matrix316
2012-12-04, 12:02:58
Hat MS nicht in einem vor langer Zeit geleaktem Paper was von 8x 360-Leistung als Zielperformance für die neue Konsole gesprochen? Das müsste doch von den aktuell vermuteten Specs her locken hinkommen, oder?

Weltbewegendes erwartet hier keiner. Ich verlange mindestens 720p mit AA und AF und minimum 30FPS als Untergrenze, das reicht mir voll und ganz!

Ansonsten finde ich die jetzige Technik schon gut genug um glaubhafte Welten auf den Bildschirm zu zaubern. Obwohl eine bessere Physik in den zukünftigen Games auch nicht schlecht wäre, daran hapert es bei der aktuellen Generation imho noch am Meisten.
So anspruchslos? Also ehrlich gesagt erwarte ich eher:

1920x1080 mit AA und AF und minimum 60 FPS, eher 120.

Wobei ich mir das eigentlich schon von der PS3 erwartet habe.

Demirug
2012-12-04, 12:07:19
Nichts. Je nach Unterhmen/Auftrag wird heute auch Open-Source Software im Enterprise Bereich eingesetzt. Da gibts nichts zu lachen.

Open-Source ist ja auch kein Problem. GPL ist aber aufgrund seiner viralen Eigenschaft häufig ein No-Go weil man andere Softwareteile hat die sich nicht mit der GPL vertragen.

THEaaron
2012-12-04, 12:23:31
Ups. Mein Kopf hat statt GPL Open-Source gelesen. X-D

Bei GPL kenn ich auch nur ein sehr großes Projekt. Sonst kommt mir das auch nicht wirklich geläufig vor.

Deinorius
2012-12-04, 12:49:50
Ernsthafte Frage: Was spricht dagegen?


Ich hätte ja absolut nichts dagegen. Im Gegenteil. Alle H.264 Encode-Entwickler könnten einpacken, wenn x264 einen Firmen-Support anbieten würden. Aber mit der GPL stelle ich mir das kompliziert vor, aber das wurde jetzt eh erwähnt.

Ich freue mich schon auf erste Tests "x264 vs. H.265". Das wird spannend. :freak:

robbitop
2012-12-04, 12:52:01
Kömmt ihr GPL etwas ausführen? Warum macht sowas Probleme? Und warum bietet x264 keinen Firmensupport, wenn das so gut ist? Fühlen sich dann die ganzen Indie Entwickler um ihren Aufwand betrogen?

Demirug
2012-12-04, 13:07:47
Das Problem mit GPL ist das man sobald man auch nur eine Stück GPL Code in seinem Programm hat das gesamte Programm unter die GPL stellen muss. Deswegen wird sie ja auch als viral bezeichnet. Gerade bei Software im Audio/Video Bereich ist das aber meist unmöglich weil man dort auch oft Module lizenziert hat bei denen man den Sourcecode entweder gar nicht hat oder nicht veröffentlichen darf.

Ich habe jetzt aber mal nachgeschaut. Für x264 gibt es auch eine kommerzielle Lizenz.

TheCounter
2012-12-04, 14:03:05
1920x1080 mit AA und AF und minimum 60 FPS, eher 120.

Wobei ich mir das eigentlich schon von der PS3 erwartet habe.

Etwas unrealistisch, nicht? Selbst mit aktuellen Highend PC Grakas hast du damit deine Probleme ;)

Damit würde ich eher in der übernächsten Konsolen-Gen rechnen.

Pi mal Daumen vierfache Auflösung ergibt Faktor 10?

Das war doch nicht ernst gemeint, ich wollte "etwas" übertreiben ;)

Trotzdem wage ich sehr stark zu bezweifeln das ein 2h 4k Film bei annehmbarer Qualität nur 20 oder 30GB benötigt (inkl. Tonspuren).

Coda
2012-12-04, 14:06:35
Ups. Mein Kopf hat statt GPL Open-Source gelesen. X-D

Bei GPL kenn ich auch nur ein sehr großes Projekt. Sonst kommt mir das auch nicht wirklich geläufig vor.
Willst du uns verarschen?

Nightspider
2012-12-04, 14:21:30
So anspruchslos? Also ehrlich gesagt erwarte ich eher:

1920x1080 mit AA und AF und minimum 60 FPS, eher 120.

Wobei ich mir das eigentlich schon von der PS3 erwartet habe.

Du hast keine Vorstellung davon wie unrealistisch deine Erwartungen sind oder?

120Hz wirst du nie sehen bei Konsolen. Auch nicht in 10 Jahren.
Der Geschwindigkeitszuwachs stagniert seit Jahren und das wird noch schlimmer.
Kein Konsolero brauch 120Hz. 120fps sind viel zu teuer als das du jemals soviel fps sehen wirst.
Die viel wichtigeren Leistungsfresser sind Grafik und Gameplayelemente.
Die meisten Konsolenspieler sind mit 30-40fps vollkommen zu frieden. 60Hz wird man auch zukunftig ab und an mal sehen aber alles darüber hinaus ist Leistungsverschwendung. Aber genau an der Leistung mangelt es den Konsolen. Auch den neuen.

Glaubst du ernsthaft das die neuen Konsolen Leistung übrig haben werden, bei einem Leistungssprung von Faktor ~8?
Der Sprung zu PS3 und 360 war damals noch viel größer und dennoch rendern diese teilweise nur in 900er Auflösung als weit entfernt von HD und noch viel weiter entfernt von FullHD.

Du kannst froh sein, wenn 2018 die NextNextGen Konsolen FullHD in allen Spielen rendern.

Viel eher wird man noch neue AA Modi sehen, wie sie zuletzt entstanden sind, die wenig Leistung brauchen und das Flimmern stark beseitigen.

Ab einm bestimmten Punkt wird AA halt billiger als die höhere Auflösung.
Eher wird man 1280 oder max. 1680 mit 4xMSAA sehen als viel teureres FullHD.

Knuddelbearli
2012-12-04, 14:26:10
sagen wir wir haben aktuell HD
Full HD würde doppelte Leistung benötigen.
120 FPS würde 4 fache leistung benötigen
und zack würds schon komplett aufgefressen werden was die neuen konsolen schneller sind.
selbst full hd und 60 fps wirds vermutlich nie bei der nextgen geben

Iruwen
2012-12-04, 16:40:32
720p zu echten 1080p sind auch schon Faktor 2,25 und viele Spiele packen nichtmal die 720p sondern gehen, zumindest in der Vertikalen, deutlich runter (bis auf 540). Ich erwarte da was Auflösung und AA angeht auch nicht viel, eher neue (PP)AA-Modi die besser gegen temporal Aliasing helfen. MSAA würde z.B. God of War III wohl auch nicht viel helfen, ich bin immer wieder erschrocken wie das flimmert wenn man am Anfang auf Gaias Rücken rumturnt.

Ailuros
2012-12-04, 16:55:24
Hat MS nicht in einem vor langer Zeit geleaktem Paper was von 8x 360-Leistung als Zielperformance für die neue Konsole gesprochen? Das müsste doch von den aktuell vermuteten Specs her locken hinkommen, oder?

Weltbewegendes erwartet hier keiner. Ich verlange mindestens 720p mit AA und AF und minimum 30FPS als Untergrenze, das reicht mir voll und ganz!

Ansonsten finde ich die jetzige Technik schon gut genug um glaubhafte Welten auf den Bildschirm zu zaubern. Obwohl eine bessere Physik in den zukünftigen Games auch nicht schlecht wäre, daran hapert es bei der aktuellen Generation imho noch am Meisten.

AA bzw. AF ist auf jeder Konsole eher eine Angelegenheit der ISVs bzw. der Entwickler wo und wieso sie jeweils die vorhandenen hw resourcen verteilen wollen. Selbst wenn die hw z.B. nur wenig fuer 4xMSAA einbussen muss (=/<10%) an Leistung wird Dir keiner garantieren koennen dass ein jeglicher Entwickler jeden kleinen Schnipsel an Leistung nicht lieber wo anders investiert; gleiches gilt auch fuer AF. Ich hab zwar persoenlich meine eigenen Meinungsverschiedenheiten zum Thema, aber an der Realitaet laesst sich wenig aendern.

So anspruchslos? Also ehrlich gesagt erwarte ich eher:

1920x1080 mit AA und AF und minimum 60 FPS, eher 120.

Wobei ich mir das eigentlich schon von der PS3 erwartet habe.

Wenn Du Deinen letzten Satz nochmal ueberdenkst, braucht man von ueber zu hohen Erwartungen nichts mehr erwaehnen.

* AA/AF= siehe oben, wobei man multisampling mit den heutigen schmier-modi schon gleich vergessen kann.
* vsync ahoi
* 1080p ist durchaus moeglich haengt aber wie bei AA/AF von dem ab was jeglicher Entwickler genau anstellen willen

Karümel
2012-12-04, 21:10:35
1920x1080 mit AA und AF und minimum 60 FPS

Wobei ich mir das eigentlich schon von der PS3 erwartet habe.

Gab es nicht mal ein Video von der PS3 Vorstellung wo die Sony-Leute das erzählt haben? Also Full-HD usw.?

Wenn die nächste Generation das auch nicht bei jeden Spiel schafft, dann fände ich das ehrlich gesagt doch sehr enttäuschend.

kunibätt
2012-12-04, 22:22:21
Warum denn schaffen? Es ist vielmehr eine Designentscheidung.
Und schaffen würde es die PS3 auch schon - bei entsprechendem Conent eben.

Felixxz2
2012-12-04, 22:41:20
Richtig. Man hätte die aktuellen Konsolen mit bisl Mehrkosten auch 1080p "fähig" machen können. Z.B. bei der 360 32MB eDRAM, 1GB Hauptram und ne bisl dickere GPU (->2900XT) oder mehr Takt und schon wäre das wohl locker gegangen. Nur hätte man dann eben schon größere Mehrkosten gehabt, vor allem auch bzgl. Kühlung.

Aber jetzt sind wir 7 Jahre weiter, die Leistung wird sich verzehnfachen und Speichergröße und Bandbreite werden wohl (hoffentlich) auch kein Problem mehr sein.

Deinorius
2012-12-04, 22:50:52
@Felixxz2
Uhrensohn hat eher davon geredet, dass beide Konsolen grundsätzlich in der Lage sind, 1080p wiederzugeben. Nur sieht dann halt die Grafik noch weniger ansprechend aus.

Felixxz2
2012-12-04, 23:06:06
Jo weiß schon. Ich bezog mich nur darauf dass man mit etwas Mehrkosten zum Start auch bei änhlicher/gleicher grafik 1080p fahren hätte können

Knuddelbearli
2012-12-04, 23:34:56
nein hätten sie nicht. sie hätten dazu fast 3 fache Grafikpower benötigt

AnarchX
2012-12-04, 23:49:02
Zumal die Entwickler die Mehrleistung wohl eher in 720p mit hübscherer Optik investiert hätten, wenn es keine klare Vorgabe gegeben hätte.
Außerdem bräuchte es für 3-mal Xenos wohl locker eine 8800GTX, die selbst Anfang 2007 noch über 400€ lag.

Deinorius
2012-12-05, 00:49:39
Und nicht zu vergessen, dass Sony/M$ auch ohne bessere 1080p-Fähigkeit stark subventionieren mussten.

Thaquanwyn
2012-12-05, 04:01:28
... angesichts der Tatsache, dass ich als PC-Spieler immer mehr mit diversen DRM-Maßnahmen zu kämpfen habe, werde ich möglicherweise doch noch irgendwann auf eine Konsole wechseln!

Mal sehen, was die nächste Generation wirklich zu bieten hat ...

Nightspider
2012-12-05, 04:25:09
Jo weiß schon. Ich bezog mich nur darauf dass man mit etwas Mehrkosten zum Start auch bei änhlicher/gleicher grafik 1080p fahren hätte können

Witz komm raus?

Dir ist schon klar, das 360 und PS3 damals ziemlich am Limit designed wurden?

Die sind so schon oft genug ausgefallen, weil die Kühlung zu schwach war.
Dann hätten beide Hersteller die Konsolen nochmals deutlich größer machen müssen und der Preis wäre am Ende mindestens 50% höher ausgefallen.

Man hätte, wie schon gesagt die knapp 3 fache Leistung benötigt und 32MB eRAM wäre damals extrem teuer gewesen.

Das wäre jenseits jeder Wirtschaftlichkeit gewesen und ist deshalb völliger Schwachsinn.

robbitop
2012-12-05, 08:34:30
Gab es nicht mal ein Video von der PS3 Vorstellung wo die Sony-Leute das erzählt haben? Also Full-HD usw.?

Wenn die nächste Generation das auch nicht bei jeden Spiel schafft, dann fände ich das ehrlich gesagt doch sehr enttäuschend.
Das ist doch eine total bescheuerte Diskussion. Der ISV kann selbst entscheiden, welche Auflösung und welche FPS sein Target sind. Und danach passt er entsprechend den Detailreichtum an.
Lair war z.B. ein FullHD Spiel.

Da eine Konsole ein festes HW Umfeld hat, wird sich daran auch nichts ändern. Egal wieviel Leistung da ist. Da das Ding nicht aufrüstbar ist, wird man immer mittelfristig in Richtung Eye-Candy (Details) anstatt in Richtung Auflösung gehen.
Selbst wenn das Ding eine Quad SLI GK110, 8x Core Haswell @ 5 GHz, 32 GiB RAM, SSD etc hätte wäre das so. Dann dreht man die Details um 1-2 Größenordnungen hoch und zack weg ist die FPS Rate. ;)
Richtig gute Schattenberechnung, richtig gute Physik etc ... das kostet Unmengen an Leistung. Nur leider sind wir schon sehr weit fortgeschritten auf der Kurve des abnehmenden Grenzertrages. Ich wette, dass du auch noch etliche Größenordnungen mehr an Leistung sinnvoll in immer realistischere Darstellung umsetzen kannst. Das wird sich nicht ändern.

Das ist auf dem PC nur anders, weil er aufrüstbar ist und somit immer mehr Leistung haben kann als die Konsole. Das heißt, dass die Detailbasis in gewissen unteren Grenzen fest sitzt (dank Konsolen als Lead Plattform) und man die überschüssige Leistung in Auflösung umsetzen kann.

Knuddelbearli
2012-12-05, 09:24:18
... angesichts der Tatsache, dass ich als PC-Spieler immer mehr mit diversen DRM-Maßnahmen zu kämpfen habe, werde ich möglicherweise doch noch irgendwann auf eine Konsole wechseln!

Mal sehen, was die nächste Generation wirklich zu bieten hat ...

dir ist schon klar das die nächsten konsolen auch ne menge drm mitbekommen? ^^

Ailuros
2012-12-05, 09:41:36
Witz komm raus?

Dir ist schon klar, das 360 und PS3 damals ziemlich am Limit designed wurden?

Die sind so schon oft genug ausgefallen, weil die Kühlung zu schwach war.
Dann hätten beide Hersteller die Konsolen nochmals deutlich größer machen müssen und der Preis wäre am Ende mindestens 50% höher ausgefallen.

Man hätte, wie schon gesagt die knapp 3 fache Leistung benötigt und 32MB eRAM wäre damals extrem teuer gewesen.

Das wäre jenseits jeder Wirtschaftlichkeit gewesen und ist deshalb völliger Schwachsinn.

Dabei geht es wohl nicht NUR um die Wirtschaftlichkeit beim release und in den naechsten paar Jahren danach, sondern auch das Microsoft bzw. SONY voll bewusst ist wie sich die ganze Affaere langfristig entwickeln koennte.

Wenn es irgendwann ab 2014 schaetzungsweise langsame in die smartTV-generische Entertainment Richtung geht, hat erstmal SONY theoretisch kein besonders grosses Problem Strategien dementsprechend anzupassen.

M4xw0lf
2012-12-05, 09:48:51
Sony und MS haben doch beide jahrelang bei der Hardware draufgezahlt, die Wirtschaftlichkeit beim Launch ist (bzw war) also ohnehin nicht gegeben.

Ailuros
2012-12-05, 09:56:43
Sony und MS haben doch beide jahrelang bei der Hardware draufgezahlt, die Wirtschaftlichkeit beim Launch ist (bzw war) also ohnehin nicht gegeben.

Die Mehrzahl vom Umsatz kam stets von den Spielen, was aber nicht heissen sollte dass nach N Zeit die Herstellung der hw durch Prozess-shrinks wie am Anfang mit einem Verlust kam.

Beide brauchten eine Loesung die mit den kleinstmoeglichen Kosten selbst fuer den Anfang fuer jegliche moegliche Aenderung der Zukunft ueberbruecken koennte. Es ist eben NICHT so dass SONY z.B. nach N Jahren einen "PS-Next" SoC nach N prozess-shrinks theoretisch nicht in einem smartTV oder sonst noch was fuer ein Geraet integrieren kann.

Deinorius
2012-12-05, 10:34:18
Es ist eben NICHT so dass SONY z.B. nach N Jahren einen "PS-Next" SoC nach N prozess-shrinks theoretisch nicht in einem smartTV oder sonst noch was fuer ein Geraet integrieren kann.


So was ähnliches gab es von Sony doch schon für die PS2. Es ist möglich, aber interessant. Auf jeden Fall könnte man bei so einem Gerät wirklich darüber nachdenken, das Laufwerk wegzulassen.

Demirug
2012-12-05, 12:55:49
Das ist doch eine total bescheuerte Diskussion. Der ISV kann selbst entscheiden, welche Auflösung und welche FPS sein Target sind. Und danach passt er entsprechend den Detailreichtum an.
Lair war z.B. ein FullHD Spiel.

In Grenzen. Von den Konsolenherstellern bekommt man einen dicken Katalog mit Forderungen. Da stehen auch Auflösungen und FPS Vorgaben drin. Diese ändern sích zwar auch durchaus mit der Zeit und sind manchmal auch verhandelbar. Trotzdem haben die Hersteller schon so ihre Vorstellung was sie sehen wollen.

Coda
2012-12-05, 13:39:09
Lair war z.B. ein FullHD Spiel.
Und Factor 5 war danach Bankrott ;)

Tomi
2012-12-05, 13:42:22
kein Wunder bei einem Grafikblender, der spielerisch grottig war.

robbitop
2012-12-05, 13:48:57
Und Factor 5 war danach Bankrott ;)
Das lag aber sicher nicht am FullHD. ;) (auch wenn es für das Eye Candy kontraproduktiv war)

Badner1972
2012-12-06, 12:44:16
Gibt es was neues bezüglich geplanter DRM-Maßnahmen bei Sony & Microsoft´neuer Konsolen.Es hieß ja mal das ihnen bzw. den Publishern der Gebrauchtmarkt ein riesger Dorn im Auge ist. So etwas wie Kontenbindung,wie es via Steam im PC-Sektor (leider) üblich ist ?

Finch
2012-12-06, 13:53:15
Sowas wird sicher kommen. Steam ist in dieser Hinsicht ein Erfolgsmodell.

YfOrU
2012-12-06, 13:54:47
Gibt es was neues bezüglich geplanter DRM-Maßnahmen bei Sony & Microsoft´neuer Konsolen.Es hieß ja mal das ihnen bzw. den Publishern der Gebrauchtmarkt ein riesger Dorn im Auge ist. So etwas wie Kontenbindung,wie es via Steam im PC-Sektor (leider) üblich ist ?

Das wird bei Konsolen in Zukunft eher noch restriktiver als auf dem PC gehandhabt. Ergo Bindung der Spiele und DLCs an das Anwenderkonto welches wiederum mit der Hardware ID verknüpft wird.
Alles andere wäre eine große Überraschung denn neben dem Gebrauchtmarkt wird so auch Sharing von Accounts unterbunden.

Felixxz2
2012-12-06, 15:45:40
Verknüpfung mit der Hardware ID ist rechtlich nicht möglich. Denn dann kann ich meine Konsole nichtmehr verkaufen, was das EU-Recht aber fordert. Mag das bei Software ohne Datenträger noch eine schwierige Grauzone sein, ist die Rechtslage bei Hardware glasklar. Ergo keine Hardwareverknüpfung.

Accountbindung aber auf alle Fälle.

mr coffee
2012-12-06, 15:52:45
Verknüpfung mit der Hardware ID ist rechtlich nicht möglich.

Ist es nicht so mit der Wii U?

Felixxz2
2012-12-06, 16:14:52
Aua, Nintendo will wohl nicht, dass man das Ding kauft.

Nurnoch die Frage ob man diese Bindung durch einen Anruf/auf der Website auflösen kann, wenn man die Konsole verkaufen möchte. Wenn nicht, dann könnte man dagegen klagen. Kann nicht sein, dass wenn ich z.B. von der Wii U auf eine Wii U Slim umsteigen will (in 2 Jahren), dass ich dann meine ganzen Fortschritte und Online-Einkäufe verliere.

xie
2012-12-06, 16:19:42
Nintendo bietet dann eine Funktion "umziehen" an.

ravage
2012-12-06, 16:41:18
Eben, genau wie jetzt von der Wii auf die Wii U auch schon. IMO konnte man seine Wii Einkäufe auch nicht von einer Wii auf die andere transferieren. Bei der Wii gab es ja noch nicht mal eine eindeutige Nutzer ID sondern nur die Miis die komplett austauschbar waren und nur zur Identifikation mit der gerade spielenden Person genutzt wurden.

Lightning
2012-12-06, 17:08:11
Ist es nicht so mit der Wii U?

Noch, aber Nintendo hat mal angedeutet, das in Zukunft ändern zu wollen: http://www.ign.com/articles/2012/11/19/nintendo-network-id-tied-to-individual-wii-u-consoles

Bei der Wii gab es ja noch nicht mal eine eindeutige Nutzer ID sondern nur die Miis die komplett austauschbar waren und nur zur Identifikation mit der gerade spielenden Person genutzt wurden.

Wie meinen? Bei der Wii gab es eine 16-stellige Zahl zur eindeutigen Identifikation.

Ansonsten hat Nintendo bei der Wii U eigentlich keine weiter befürchteten DRM-Maßnahmen drin, die die bisherigen übersteigen.

Badner1972
2012-12-06, 18:32:27
Mhh also letztendlich wird es wohl darauf hinauslaufen,das alle (Hersteller/Publisher) ein gesteigertes Interesse daran haben,den Markt für Gebrauchtspiele trocken zu legen. Ich hätte kein Problem mit einem Steam Modell,aber nicht solange neue Konsolengames ab 50€ aufwärts kosten und die Qualität dem Preis nicht angemessen ist. Früher waren die Games noch richtig verpackt,hatten ein oft ein tolles Booklet, und man hatte richtig was in der Hand!

bleipumpe
2012-12-06, 21:39:37
Mhh also letztendlich wird es wohl darauf hinauslaufen,das alle (Hersteller/Publisher) ein gesteigertes Interesse daran haben,den Markt für Gebrauchtspiele trocken zu legen. Ich hätte kein Problem mit einem Steam Modell,aber nicht solange neue Konsolengames ab 50€ aufwärts kosten und die Qualität dem Preis nicht angemessen ist. Früher waren die Games noch richtig verpackt,hatten ein oft ein tolles Booklet, und man hatte richtig was in der Hand!
Warte doche in paar Monate mit dem Kauf. Der Preis fällt, die ersten Patches sind raus oder gleich die GotY holen.
Ich habe mir z.B. Sleeping Dogs auf der PS3 für ca 22€ neu gekauft. Das ist in Ordnung.

][immy
2012-12-06, 23:43:47
Warte doche in paar Monate mit dem Kauf. Der Preis fällt, die ersten Patches sind raus oder gleich die GotY holen.
Ich habe mir z.B. Sleeping Dogs auf der PS3 für ca 22€ neu gekauft. Das ist in Ordnung.

Das Problem ist nur, dass es zu vielen Titeln keine GotY, Complete Editions oder sonstiges mit Addons gibt. Zumindest glänzen z.B. die EA Titel hier mit Abwesenheit (Mass Effect 2 & 3 Beispielsweise). Aber auch Ubisoft macht hier z.b. mit Assassins Creed keine gute Figur (oder auch MS mit der Halo reihe). Inzwischen holt man ein Spiel für >50€ und kann gleich noch mal 40-50€ ausgeben, wenn man die Addons haben will, die teilweise auch nur rausgeschnitten zu sein scheinen (z.B. Shadow-Broker addon für ME2). Das ärgerliche daran ist auch, das der Preis für das Hauptspiel zwar sinkt, aber die Addons kosten trotzdem auch nach Jahren noch genauso viel.


Ein ziemlich extremes Beispiel für überteuerte Addons das mir einfällt ist Dragon Age Origins. würde ich mir alle Addons kaufen wäre ich locker noch mal 40€ los. Stattdessen könnte ich mir im Laden aber eine Complete Editions (die es sogar mal gibt) kaufen die es für 20-30€ gibt. Hier gibt es definitiv noch Potential für den Digitalen Vertrieb. Ab einem gewissen Zeitpunkt sollte es besser sein die Addons zu verscherbeln, als das man sie überhaupt nicht verkauft.

Was ich stark befürchte ist, das es auf den neuen Konsolen noch extremer wird. auf der WiiU vielleicht nicht, weil hier der Platz doch recht stark begrenzt ist. Aber die nächste Xbox und PS4 werden wohl diesmal direkt mit "großen" Festplatten (groß für Konsolenverhältnisse) ausgeliefert um den Digitalen Vertrieb auch wirklich ausnutzen zu können. Es würde ja nichts bringen, wenn die Festplatte nach dem Download eines Spiels voll wäre.

Btw. wenn die nächste Xbox tatsächlich einen x86er als Kern haben sollte und intern auf Win8 basieren sollte (MS wollte ja den Win8 Kernel in allen Geräten haben) wie wäre es dann mit Steam im Wohnzimmer.

ravage
2012-12-07, 00:22:15
[...]Wie meinen? Bei der Wii gab es eine 16-stellige Zahl zur eindeutigen Identifikation.[...]
Die Wii ID bezieht sich aber doch auch nur auf die Hardware und nicht auf einen "Spieler Account" in welcher Form auch immer, oder?

Felixxz2
2012-12-07, 00:26:43
Stimmt eigentlich: Wenn die Next Gens auf x86 CPUs und DX11 GPUs basieren, könnte man dann nicht auch Tweaks für normales Windows 8 inkl. PC Spiele basteln?

robbitop
2012-12-07, 07:42:43
[immy;9572615']
Btw. wenn die nächste Xbox tatsächlich einen x86er als Kern haben sollte und intern auf Win8 basieren sollte (MS wollte ja den Win8 Kernel in allen Geräten haben) wie wäre es dann mit Steam im Wohnzimmer.
Das hätte Valve auch schon für die X360/PS3 machen können. Der Aufwand wäre für die kein Problem. Aber MS/Sony lässt sie nicht. Schließlich wollen sie ihre Margen nicht teilen.
Das ist oftmals keine Frage der Machbarkeit. ;)

Stimmt eigentlich: Wenn die Next Gens auf x86 CPUs und DX11 GPUs basieren, könnte man dann nicht auch Tweaks für normales Windows 8 inkl. PC Spiele basteln?
Was meinst du damit?
Die Konsole ist jedenfalls abgeschottet. Die führt nur signierten Code aus. Da ist kein rein- und rauskommen.

Die HW der Konsole muss nichts bedeuten. Die Xbox 1 war einem PC noch ähnlicher als jede andere Konsole. Dennoch gab es z.B. nie einen Emulator oder sonstige Synergieeffekte.
Ich vermute mal, dass die Entwickler es leichter hatten, Multi-Titel für PC/Xbox1 zu schreiben.

del_4901
2012-12-07, 08:02:00
Stimmt eigentlich: Wenn die Next Gens auf x86 CPUs und DX11 GPUs basieren, könnte man dann nicht auch Tweaks für normales Windows 8 inkl. PC Spiele basteln? Nope, feste Platform, unified Memory, Close to Metal, etc.

AnarchX
2012-12-07, 08:57:22
Was könnte man eigentlich daraus für Vorteile erzielen bzw. Computing-Modelle umsetzen, wenn GPU und CPUs mit einigen 100GB/s und extrem niedrigen Latenzen verbunden und auch auf den gleichen >100GB/s schnellen VRAM zugreifen können?
Auf dem Performance/High-End-PC wird man ja mittelfristig nicht über 16GB/s (x16 Gen3) hinauskommen.

Der eDRAM als Ausgleich für die externen 128-Bit bei Xenos und Cell als Shader-Co-Prozessor für RSX, waren ja eher dazu da um die aktuellen Konsolen auf das Niveau eines vernünftigen PCs zu heben. Aber mit einem konsequent umgesetzen SoC könnte man hier wohl die PCs in diesem Merkmal bei weitem übertreffen.
Am nächsten daran kommen könnten höchstens noch AMDs Endkunden-APUs oder Intel iGPU-CPUs. Aber von der theoretischen GPU-Leistung liegen diese wohl eher bei der Hälfte dessen, was Sony/MS in einen Konsolen-SoC anbieten könnten, ebenso größere Einschränkungen bei der externen Bandbreite.
Dazu ist es fraglich ob die APIs auf dem PC in naher Zukunft, das Zusammenspiel ebenso unterstützen würden, wie in einer Close-To-Metal programmierten Konsole, vor allem wenn es noch viele Systeme gibt, wo die GPU eben nur mit 8-16GB/s angebunden ist.

Demirug
2012-12-07, 10:41:20
Nope, feste Platform, unified Memory, Close to Metal, etc.

Im Prinzip ginge es schon. Nur müsste man erst mal das ganze DRM in der Hardware loswerden. Ein neues BIOS einspielen (das erst mal jemand programmieren müsste) und dann noch für die ganze Hardware Windows 8 Treiber schreiben.

Ich vermute mal das sich die Mühe niemand machen wird. Ich könnte mir allerdings vorstellen das recht schnell versucht werden wird einen Konsolenemulator für den PC zu bauen wenn die Hardware wirklich so dicht dran ist.

tobor
2012-12-07, 12:42:20
Gibt es was neues bezüglich geplanter DRM-Maßnahmen bei Sony & Microsoft´neuer Konsolen.Es hieß ja mal das ihnen bzw. den Publishern der Gebrauchtmarkt ein riesger Dorn im Auge ist. So etwas wie Kontenbindung,wie es via Steam im PC-Sektor (leider) üblich ist ?

Problem ist nur,wenn ein einziger Hersteller das nicht mitmacht...(und so einen Vorteil bei den Käufern hat)

Badner1972
2012-12-07, 13:07:54
Mhh letztlich verbindet alle Hersteller das Streben nach Gewinn.Es ist für mich keine Frage das alle Konsolenhersteller DRM in irgendeiner Weise implementieren,eher die die Frage wie wirkt es sich letztlich aus,welche Einschränkungen muß ich als Kunde hinnehmen? Ich glaube daher eher weniger das sich hier jemand als "weißer Ritter" ,sprich ohne drastische DRM-Maßnahmen in den Markt geht,positioniert.Das würde nur ein Marktakteur machen,der sich dadurch einen Wettbewerbsvorteil versprechen würde. Und den seh ich nun auch nicht wirklich.

Lightning
2012-12-07, 13:20:26
Die Wii ID bezieht sich aber doch auch nur auf die Hardware und nicht auf einen "Spieler Account" in welcher Form auch immer, oder?

Ja, war wohl ein Missverständnis.

Mhh letztlich verbindet alle Hersteller das Streben nach Gewinn.Es ist für mich keine Frage das alle Konsolenhersteller DRM in irgendeiner Weise implementieren,eher die die Frage wie wirkt es sich letztlich aus,welche Einschränkungen muß ich als Kunde hinnehmen? Ich glaube daher eher weniger das sich hier jemand als "weißer Ritter" ,sprich ohne drastische DRM-Maßnahmen in den Markt geht,positioniert.Das würde nur ein Marktakteur machen,der sich dadurch einen Wettbewerbsvorteil versprechen würde. Und den seh ich nun auch nicht wirklich.

Nochmal: Nintendo hat seine DRM-Maßnahmen schonmal nicht weiter verschärft. Das heißt, man kann weiterhin seine gekauften Spiele in jede Wii U einlegen und spielen bzw. sie weiterverkaufen; sie sind nicht konkret an eine Konsole/einen Account gebunden. Bei DLCs oder kompletten Spieldownloads sieht es natürlich anders aus, aber das war ja bisher auch schon so.

Das bedeutet nun nicht, dass es bei Sony und MS genau so laufen muss. Aber abwarten würde ich schon noch, bis man den Teufel an die Wand malt.

Badner1972
2012-12-07, 14:56:44
Das bedeutet nun nicht, dass es bei Sony und MS genau so laufen muss. Aber abwarten würde ich schon noch, bis man den Teufel an die Wand malt.[/QUOTE]
Nee ich seh das auch nicht aus persönlichen Gründen so eng,wir haben ja eh keinen Einfluß darauf wie und in welcher Form DRM nun bei den neuen Konsolen kommt..abwarten und Tee trinken :smile: oder ne Runde Schlitten fahren gehen ;D um Spaß zu haben bedarf es nicht zwingend einer Konsole,gleich welchen Typs.
In diesem Sinne :ubeer:

tobor
2012-12-07, 16:01:13
Mhh letztlich verbindet alle Hersteller das Streben nach Gewinn.Es ist für mich keine Frage das alle Konsolenhersteller DRM in irgendeiner Weise implementieren,eher die die Frage wie wirkt es sich letztlich aus,welche Einschränkungen muß ich als Kunde hinnehmen? Ich glaube daher eher weniger das sich hier jemand als "weißer Ritter" ,sprich ohne drastische DRM-Maßnahmen in den Markt geht,positioniert.Das würde nur ein Marktakteur machen,der sich dadurch einen Wettbewerbsvorteil versprechen würde. Und den seh ich nun auch nicht wirklich.
Mehr verkaufte Einheiten als der Konkurrent mit Drm sind ein Wettbewerbsvorteil...

del_4901
2012-12-07, 22:05:42
Im Prinzip ginge es schon. Nur müsste man erst mal das ganze DRM in der Hardware loswerden. Ein neues BIOS einspielen (das erst mal jemand programmieren müsste) und dann noch für die ganze Hardware Windows 8 Treiber schreiben.

Ich vermute mal das sich die Mühe niemand machen wird. Ich könnte mir allerdings vorstellen das recht schnell versucht werden wird einen Konsolenemulator für den PC zu bauen wenn die Hardware wirklich so dicht dran ist.
Den Emu kannste knicken, Unified Memory emuliert man nicht einfach so. Allein der Driver Overhead ist schon viel zu gross, erstmal mind. 2 PC GPU Generationen abwarten.

HarryHirsch
2012-12-07, 22:32:26
geht das nicht eher auf die cpu? dumme frage. ist aber ernst gemeint.

Matrix316
2012-12-07, 22:35:35
Du hast keine Vorstellung davon wie unrealistisch deine Erwartungen sind oder?

120Hz wirst du nie sehen bei Konsolen. Auch nicht in 10 Jahren.
Der Geschwindigkeitszuwachs stagniert seit Jahren und das wird noch schlimmer.
Kein Konsolero brauch 120Hz. 120fps sind viel zu teuer als das du jemals soviel fps sehen wirst.
Die viel wichtigeren Leistungsfresser sind Grafik und Gameplayelemente.
Die meisten Konsolenspieler sind mit 30-40fps vollkommen zu frieden. 60Hz wird man auch zukunftig ab und an mal sehen aber alles darüber hinaus ist Leistungsverschwendung. Aber genau an der Leistung mangelt es den Konsolen. Auch den neuen.

Glaubst du ernsthaft das die neuen Konsolen Leistung übrig haben werden, bei einem Leistungssprung von Faktor ~8?[...]

Das kommt natürlich aufs Spiel an. Aber heutige Mittelklassekarten sind doch wohl um Faktor 8 mindestens schneller als das was damals in XBOX360 und PS3 gepackt wurde, oder? Und RAM ist so billig wie noch nie. Mit 2-4 GB VRAM sollte das kein Problem sein, denn Full HD ist ja jetzt nicht unbedingt das höchste der Gefühle. Am PC gibts ja durchaus noch höhere Auflösungen. Außerdem braucht man bei höherer Auflösung auch nicht so extremes AA wie bei niedrigeren. Das bringt ja auch schon etwas Speed.

del_4901
2012-12-07, 22:49:21
geht das nicht eher auf die cpu? dumme frage. ist aber ernst gemeint. Eine beliebige ISA zu emulieren ist wohl das geringste Problem.

HarryHirsch
2012-12-07, 23:11:04
also hängt alles an den latenzen.
und gddr5 ist sicher zu lahm.

00-Schneider
2012-12-11, 16:20:16
http://semiaccurate.com/2012/12/10/confused-about-xbox-next-and-ps4-code-names/

http://www.vg247.com/2012/12/11/xbox-720-ps4-codenames-revealed-microsofts-oban-chip-detailed-rumour/

Xbox 720 & PS4 codenames revealed, Microsoft’s ‘Oban’ chip still delayed – rumour

Xbox 720, Xbox Next, PS4, the Orbis – whatever you want to call Microsoft and Sony’s next-gen formats – it’s no secret they have internal codenames at their respective companies. Fresh reports have shed light on what those codenames are, where their components are being produced, and what lies under the hood. Get the rumours below.

SemiAccurate reports – via supposedly internal sources – that Microsoft’s next console will run on an AMD chip codenamed ‘Oban’, which was rumoured to go into mass production before the end of 2012. However, the same site also reported onproblems with the chip’s manufacturing with one source calling the component quality ‘painfully low’. The issue is rumoured to have cause production delays.

The site also claims that its inside sources are now referring to Xbox 720 as ‘Kryptos’, rather than the much-touted ‘Durango’ moniker that is apparently used internally at Microsoft.

PS4′s internal codename is ‘Thebes’ claim the site’s sources, and states that AMD is also supplying its base chip. This ties in to what our own sources told us back in October. You can read our full, rather massive report on the issue here.

The report added that the PS4 AMD chip will likely be manufactured at Global Foundries or IBM, and will enter production after Microsoft’s Oban chip. The site suggests PS4 will launch Spring or Autumn 2014. The belated release could be likely, given Sony’s Shuhei Yoshida’s recent comments, in which he deemed it too early to start talking about PS4.

There you go. Now, what do you think? Horse-shit, or plausible? Let us know below.

---------------

PS4 erst Herbst 2014!?

Crazy_Bon
2012-12-12, 00:18:31
Im Prinzip ginge es schon. Nur müsste man erst mal das ganze DRM in der Hardware loswerden. Ein neues BIOS einspielen (das erst mal jemand programmieren müsste) und dann noch für die ganze Hardware Windows 8 Treiber schreiben.

Ich vermute mal das sich die Mühe niemand machen wird. Ich könnte mir allerdings vorstellen das recht schnell versucht werden wird einen Konsolenemulator für den PC zu bauen wenn die Hardware wirklich so dicht dran ist.
Man sieht ja wie erfolgreich die Xbox1 emuliert wurde.. dann dürfte die Xbox720 sicherlich ebenso problemlos sein. :rolleyes:

00-Schneider
2012-12-18, 12:47:52
John Carmack (id): "Viele Next-Gen Spiele laufen mit 30 fps"

18.12.12 - Viele Spiele auf den Next Generation Konsolen werden weiterhin mit nur 30 fps laufen. Das meint John Carmack, Gründer und Technical Director bei id Software, auf Twitter.

"Leider kann ich mehr oder weniger garantieren, dass eine Menge der Next-Gen Spiele immer noch mit 30 fps laufen werden", antwortet Carmack auf die Frage, ob er glaubt, dass viele Spiele auf den neuen Konsolen weiterhin nur 30 fps haben werden.

https://twitter.com/ID_AA_Carmack/statuses/280752127238889473

nampad
2012-12-18, 12:51:49
Ich behaupte mal frech, dass man für diese Vorhersage wohl nicht mal ansatzweiße den Wissensstand von John Carmack benötigt. Den Durchschnittsspieler interessiert das ganze nicht so sehr im Gegensatz zum Eyecandy, für das die Framerate geopfert werden kann.

Sogar bei der Auflösung wäre ich vorsichtig zu behaupten, dass wir mit der PS4/720 durchgehend 1080p sehen werden.

mboeller
2012-12-18, 13:24:50
Was könnte man eigentlich daraus für Vorteile erzielen bzw. Computing-Modelle umsetzen, wenn GPU und CPUs mit einigen 100GB/s und extrem niedrigen Latenzen verbunden und auch auf den gleichen >100GB/s schnellen VRAM zugreifen können?
Auf dem Performance/High-End-PC wird man ja mittelfristig nicht über 16GB/s (x16 Gen3) hinauskommen.


Braucht man dafür wirklich eDRAM?

Ein hypothetischer Kaveri mit 128bit GDDR5-Speicherinterface könnte ja auch schon ~100GB/sec erreichen. Und AMD kann ja GDDR...

Iceman346
2012-12-18, 13:25:35
Ich behaupte mal frech, dass man für diese Vorhersage wohl nicht mal ansatzweiße den Wissensstand von John Carmack benötigt. Den Durchschnittsspieler interessiert das ganze nicht so sehr im Gegensatz zum Eyecandy, für das die Framerate geopfert werden kann.

Sogar bei der Auflösung wäre ich vorsichtig zu behaupten, dass wir mit der PS4/720 durchgehend 1080p sehen werden.

Jop, ich erwarte bei Nextgen Spielen weiterhin größtenteils 720p mit 30 fps mit entsprechend angepasster Grafikqualität. Ein Blurfilter AA ala FXAA/MLAA wird wohl Standard werden und die Anzahl der 1080p Titel deutlich höher liegen als in dieser Generation aber an große Sprünge glaube ich nicht.

Exxtreme
2012-12-18, 13:29:14
also hängt alles an den latenzen.
und gddr5 ist sicher zu lahm.
Nicht Latenzen. Der Punkt ist, unterscheidet sich die emulierte Hardware zu stark dann muss man alles "in Software" nachbilden und das ist lahm. Beispiel: um einen Amiga 500 in Originalgeschwindigkeit zu emulieren brauchte es schon einen 486 mit mindestens 66 MHz. Obwohl der 486er ... keine Ahnung ... geschätzt 20 Mal so schnell war.

Gipsel
2012-12-18, 18:07:35
Achja, falls noch irgendwelche Zweifel bezüglich der verwendeten Grafik-Architektur bestanden, im Rahmen der Vorstellung der HD8000M-Karten, tauchte diese Folie auf:

http://www.techpowerup.com/img/12-12-17/156d.jpg

Man beachte den rechten Teil.

y33H@
2012-12-18, 18:20:07
Das kann sich auch auf Radeon im Allgemeinen und auf die Wii U beziehen. "Consoles" im Plural wegen der 360 und schon wäre der GCN-Gedanke für die PS4 und die nächste Xbox abgehakt ;-)

Black-Scorpion
2012-12-18, 18:24:45
Was hat die Vorstellung der HD8000er nochmal genau mit der 360 und Wii U zu tun?

Coda
2012-12-18, 18:25:29
Kannst du die Folie lesen?

Black-Scorpion
2012-12-18, 18:46:46
Wieso? Weil da steht "die Grafiktechnologie der Wahl für Spielekonsolen"?
Meinst du nicht das sie die 360er und die Wii U beim Namen genannt hätten wenn es sich darauf beziehen würde? Die Folie ist mit Sicherheit erst entstanden als der Deal mit Nintendo abgeschlossen war.