PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Xbox One/Playstation 4: technische Spekulation und Vergleich


Seiten : [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47

AnarchX
2013-06-13, 11:27:19
Diskussionen zu Geschäftsmodell (Services, Preise,...) und Spielen:
Playstation 4 Sammelthread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=542864)
Infos zum Nachfolger zur X360 und PS3 bekannt? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=402552)
Forum Konsolen-Spiele (http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?f=106) (PS4, Xbox One Tags beachten)


Diverse Analysen:
http://www.3dcenter.org/abbildung/rohleistungs-vergleich-xbox-360-one-playstation-3-ps4-wii-u-radeon-hd-7770
http://www.anandtech.com/show/6972/xbox-one-hardware-compared-to-playstation-4
http://www.eurogamer.net/articles/digitalfoundry-sony-details-final-ps4-spec

Leaks bzgl. der Architektur-Umsetzung (wohl aus den DevKits):
http://www.vgleaks.com/ps4-presentation-confirmed-leaks-and-what-can-we-expect-for-e3-2013/
http://www.vgleaks.com/next-xbox-presentation-what-should-we-expect-leaks-rumors-summary/

Innenleben der Xbox One: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9775608#post9775608

Die-Shots:
http://www.chipworks.com/en/technical-competitive-analysis/resources/blog/inside-the-sony-ps4/
http://www.chipworks.com/en/technical-competitive-analysis/resources/blog/inside-the-xbox-one/

dargo
2013-06-13, 11:49:55
Gibts eigentlich Infos zum Verbrauch?

Iruwen
2013-06-13, 11:54:29
Bei der One wohl ca. 15l/100km :freak:

dargo
2013-06-13, 11:58:03
Das geht ja noch. :biggrin:

Finch
2013-06-13, 11:59:18
hab bisher 180w für die PS4 und 100w für die XBone gesehen. Ob das richtig ist, weiß ich nicht. Ich kann die 32MB eDRAM nicht einschätzen.

M4xw0lf
2013-06-13, 12:03:28
Gibts eigentlich Infos zum Verbrauch?
Die APU-Teile dürften für sich genommen im Idle nur ein paar Watt brauchen, im Bereich eines modernen Notebook/Ultrabook. Unter Last sowas im Bereich 100-150W (letzteres ist schon hoch geschätzt, würde ich sagen). Ram und restliches drumrum nicht mit eingerechnet.

Finch
2013-06-13, 12:08:01
die 8GB GDDR5 dürften nochmal 20-30W fressen. DDR3 dürfte da sparsamer sein.

dargo
2013-06-13, 12:09:26
hab bisher 180w für die PS4 und 100w für die XBone gesehen. Ob das richtig ist, weiß ich nicht. Ich kann die 32MB eDRAM nicht einschätzen.
Interessant insofern, dass die PS deutlich kleiner ist. Ob die noch leise dann ist?

Finch
2013-06-13, 12:11:25
hängt vom Kühlsystem ab. Wenn ich sehe das die XBone nur einen normalen Top Flow Kühler hat, ist es verständlich, das die XBone so groß ist.

Ich denke mit einem gewissen Aufwand, kann auch die PS4 leise sein. Heatpipes helfen da imho enorm. Ich mache Später mal eine Grafik, wie ich mir das vorstelle.

M4xw0lf
2013-06-13, 12:13:30
Grafikkarten zeigen, dass leise Kühlung im Bereich von 150-200W noch möglich ist, allerdings ist die deutliche Minderheit der verfügbaren Modelle mit einer Verlustleistung in der Größenordnung wirklich leise.

dargo
2013-06-13, 12:16:53
Grafikkarten zeigen, dass leise Kühlung im Bereich von 150-200W noch möglich ist, allerdings ist die deutliche Minderheit der verfügbaren Modelle mit einer Verlustleistung in der Größenordnung wirklich leise.
Grafikkarten haben aber auch viel mehr Luft zum Atmen in einem Tower. Zudem ist die Kühlfläche zumindest bei vielen Custom-Designs recht groß.

Shink
2013-06-13, 12:19:56
Die APU-Teile dürften für sich genommen im Idle nur ein paar Watt brauchen, im Bereich eines modernen Notebook/Ultrabook. Unter Last sowas im Bereich 100-150W (letzteres ist schon hoch geschätzt, würde ich sagen). Ram und restliches drumrum nicht mit eingerechnet.
Der bisher schnellste Kabini in der PC-Welt (4 Kerne, 2GHz, 600MHz GPU) hat eine TDP von 25 Watt. Ich hätte also mal so ungefähr 50 Watt geschätzt für die 8-Kern-Lösung in den Konsolen...

Finch
2013-06-13, 12:20:14
mich würde viel mehr interessieren, wie groß die Platine der PS4 ist. Spannungsversorgung, APU, RAM und I/O dürften theoretisch weniger platz als ein ITX board brauchen.


@Shink

Aber die beiden laufen mit 8x 1.6 GHz Also eher 40W

DinosaurusRex
2013-06-13, 12:28:17
Mal ne ganz wichtige Wendung für Microsoft:

Anscheinend haben die ja sehr große Probleme mit den Yields und es wurde behauptet, die würden die Takfrequenz des iGP reduzieren.

Amazon Frankreich hat heute E-Mails an alle Vorbesteller der XBox One geschickt und den 31. Dezember 2013 als neuen Releasetermin angegeben.

Hier mal der direkte Link zur Produktseite: http://www.amazon.fr/Microsoft-Console-Xbox-One/dp/B00CO4BDO2/ref=sr_tr_sr_1?ie=UTF8&qid=1371117039&sr=8-1&keywords=xbox%20one&tag=vglnk-fr-c30-21

Wer Amazon kennt, der weiß, dass der 31. Dezember regelmäßig als ein Platzhalter verwendet wird und sich somit unter Umständen eine Releaseverschiebung der neuen XBox auf 2014 für Europa andeutet. Unter umständen könnte Microsoft aber so garantieren, dass die Taktfrequenzen der XBox One unangetastet bleiben.

Deinorius
2013-06-13, 12:38:26
Grafikkarten haben aber auch viel mehr Luft zum Atmen in einem Tower. Zudem ist die Kühlfläche zumindest bei vielen Custom-Designs recht groß.


Mit einer optimalen Kühlkonstruktion sollte das realisierbar sein. Wenn ich die PS4 von hinten betrachte, ist praktisch die gesamte hintere Fläche offen mit Kühlöffnungen. Ich nehme mal an, und hoffe zugleich, dass sich die Sony Ingenieure da was gedacht haben.

Der bisher schnellste Kabini in der PC-Welt (4 Kerne, 2GHz, 600MHz GPU) hat eine TDP von 25 Watt. Ich hätte also mal so ungefähr 50 Watt geschätzt für die 8-Kern-Lösung in den Konsolen...


Etwas schlechte Rechnung. Die 25 W gelten für den gesamten SoC mit CPU, GPU, MC und Chipsatzlogik. Das kannst nicht einfach so zusammenrechnen. Den größten Teil des Verbrauchs macht beim Kabini immer noch der GPU-Teil aus.
Der Grafik-Teil müsste wohl, vorsichtig geschätzt, um die 110 W verbrauchen. 4 Kerne vom Kabini können wohl kaum 10 W verbrauchen, wenn die 1,5 GHz Variante mit niedriger getaktetem Grafik-Teil schon im 15 W TDP-Bereich liegt.
Mit den gesamten 8 GBGDDR5 schätze ich daher grob um die 150-160 W. Vielleicht mehr, ich hoffe weniger, mal sehen. :)

Iruwen
2013-06-13, 12:57:10
Angesichts der PS3 (die erste Fat mit 180W) mach ich mir keine Hoffnungen dass die PS4 besonders leise wird. Die späteren Revisionen hatten dann zwar eine geringere Leistungsaufnahme, aber offenbar auch ein noch billigeres Kühlsystem so dass sich das sonore Rauschen der Fat in ein nerviges Sirren verwandelt hat. Ich hab drei PS3 (2te Gen) durchgetauscht bis ich eine hatte die nicht so nervig war.

dargo
2013-06-13, 13:01:09
Mit einer optimalen Kühlkonstruktion sollte das realisierbar sein. Wenn ich die PS4 von hinten betrachte, ist praktisch die gesamte hintere Fläche offen mit Kühlöffnungen. Ich nehme mal an, und hoffe zugleich, dass sich die Sony Ingenieure da was gedacht haben.

Naja... bei so wenig Volumen der PS4...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9804725&postcount=118

und angeblich 180W stelle ich mir das schwierig vor. Wir werden es bald erfahren.

Deinorius
2013-06-13, 13:13:48
Im direkten Größenvergleich sieht das Ganze ja noch heftiger aus. :eek:

Da das Netzteil intern ist, ein Laufwerk und eine 2,5" HDD ebenfalls eingebaut sind, muss die Kühlkonstruktion gewissermaßen besonders sein. Mit Heatpipes auf einen Großteil der hinteren Fläche angebrachten Kühllammellen und einem Lüfter der für die notwendige Luftzirkulation sorgt, sollte das gehen. Nur meine Meinung.
Aber nachdem Sony so zuvorkommend war, hinsichtlich der Hardware so viel richtig gemacht hat, kann ich mir jetzt schwer vorstellen, dass sie die Kühlung komplett verhunzen. Andererseits könnte selbst bei einer guten Kühlung das Laufwerk alles wieder zunichte machen. :(

Und hinsichtlich der 180 W: Einerseits zweifle ich das noch a bisserl an und zweitens dürften (vielleicht) 30 W auf die GDDR5 gehen, die keine direkte Kühlung bedürfen. Ich habe es ja schon mal erwähnt. Jetzt, da nur ein Chip und keine zwei, die zusammen anfangs größer waren als der jetzige, zu kühlen sind, sollte das auch pro PS4 sprechen.

M4xw0lf
2013-06-13, 13:20:57
Der bisher schnellste Kabini in der PC-Welt (4 Kerne, 2GHz, 600MHz GPU) hat eine TDP von 25 Watt. Ich hätte also mal so ungefähr 50 Watt geschätzt für die 8-Kern-Lösung in den Konsolen...
Eine GPU zwischen HD7850 und HD7870 braucht schon ihre 100W.

Crazy_Bon
2013-06-13, 13:28:21
Auf der E3 wurden ja einige Multiplattformspiele vorgestellt, gibt es schon Aussagen von Spieleentwicklern, die kein Blatt vor dem Mund nehmen?

AnarchX
2013-06-13, 13:28:45
Eine GPU zwischen HD7850 und HD7870 braucht schon ihre 100W.
Mit 800MHz liegt man beim Takt und vielleicht auch Spannung unterhalb der 7850.

Etwas unter 150W sind wohl durchaus denkbar. Mit vernünftigen Kühlkörpern und Lüftern kann man das wohl halbwegs leise abführen.

mboeller
2013-06-13, 14:17:45
Da das Netzteil intern ist, ein Laufwerk und eine 2,5" HDD ebenfalls eingebaut sind, muss die Kühlkonstruktion gewissermaßen besonders sein.

Nicht nur die Internas scheinen was besonderes zu sein, auch das äußere der Konsole folgt klar definierten Regeln; Stichwort goldener Schnitt:

http://forum.beyond3d.com/showpost.php?p=1751811&postcount=2094

Finde ich bemerkenswert.

M4xw0lf
2013-06-13, 14:22:50
Das ist doch ein gaaaaanz alter Hut. Schon in der Antike wurde das beim Bau verwendet ^^

AwesomeSauce
2013-06-13, 14:55:28
Ist denn das interne NT bereits bestätigt?

Deinorius
2013-06-13, 15:12:44
Du brauchst dir nur die PS4 von hinten ansehen und schon hast du deine Antwort.

AwesomeSauce
2013-06-13, 15:45:53
Hier mal ein etwas ausführlicher Grössenvergleich aus dem Gaf:
http://abload.de/img/consolesizesyhukk.jpg

prinz_valium
2013-06-13, 15:48:56
krasse sache, wie klein die ps4 ist

ich sage jetzt mal 100 watt gegen 150 watt beim chip allein
dazu noch 20 bis 30 watt mehr für den ram. und schon passt das spekulierte ja


kühlbar ist das allemale. die frage ist wie leise es sein wird.
hier hat es die xbo eindeutlich leichter mit weniger tdp und größerem gehäuse / kühler
dazu ein externes netzteil, welches den innenraum nicht noch weiter aufheißt.

aber die ps4 ist ja eine spielekonsole und die xbo eine entertainment konsole. die muss ja leiser sein :D


was mir wirklich noch interessiert ist die frage, ob das mit den miesen yields un möglichen taktsenkungen stimmt. ich glaube es noch nicht. jedenfalls nicht die taktsenkung.

Avalox
2013-06-13, 15:55:15
Du brauchst dir nur die PS4 von hinten ansehen und schon hast du deine Antwort.

Die PS4 hat ein internes Netzteil? Ha, ha.

Was denkt sich denn MS bei ihrem Produkt? Kann es sein, dass MS durch den Sony Terminplan dann doch überrascht wurde und nun Halbgares auf den Markt wirft? Es vergeht ja kein Tag, an dem etwas neues hochblubbert.

THEaaron
2013-06-13, 15:59:46
Meiner Meinung nach versucht Microsoft gerade verzweifelt vor Sony zu releasen. Da Sony noch keinen offiziellen Termin genannt hat, steht uns vielleicht noch eine lustige Ankündigung bevor.

Wenn Sony die PS4 wirklich vor der Xbone auf den Markt wirft muss bei Microsoft echt mächtig was schiefgelaufen sein.

Iceman346
2013-06-13, 16:05:55
Wenn man das mal ausrechnet komme ich auf 60% mehr Volumen für die Xbox One im Vergleich zur PS4. Im Anbetracht der Tatsache, dass das PS4 Netzteil intern ist finde ich das schon massiv.

Ich bin echt auf die Kühlung und Lautstärke beider Konsolen gespannt.

Gebrechlichkeit
2013-06-13, 16:12:10
Angeblich gibt es bereits Plaene fuer eine Slim Edition der Playstation 4

PS4 Slim
http://saved.im/mtg5otm2cdcy/untitled.png

Gipsel
2013-06-13, 16:15:28
Angeblich gibt es bereits Plaene fuer eine Slim Edition der Playstation 4

PS4 Slim
http://saved.im/mtg5otm2cdcy/untitled.png
Ja, und 2018 integrieren sie die PS4 vollwerig in die PSVita4. :rolleyes:

Sowas ist doch alles Blödsinn zu diesem Zeitpunkt.

Rolsch
2013-06-13, 16:21:42
Auf der E3 wurden ja einige Multiplattformspiele vorgestellt, gibt es schon Aussagen von Spieleentwicklern, die kein Blatt vor dem Mund nehmen?
Der hier scheint ganz zufrieden zu sein: http://www.golem.de/news/video-interview-cevat-yerli-ueber-roemer-ryse-und-xbox-one-technik-1306-99782.html

dargo
2013-06-13, 16:32:12
Die PS4 hat ein internes Netzteil? Ha, ha.

Was denkt sich denn MS bei ihrem Produkt? Kann es sein, dass MS durch den Sony Terminplan dann doch überrascht wurde und nun Halbgares auf den Markt wirft? Es vergeht ja kein Tag, an dem etwas neues hochblubbert.
Oder einfach MS geht beim Gehäusevolumen auf Nummer sicher und will zudem unbedingt eine möglichst lautlose Konsole ausliefern. Ich würde erstmal alles abwarten. Nicht, dass Sony nachher mit Hitzeproblemen zu kämpfen hat. ;)

Deinorius
2013-06-13, 17:36:41
Na hoffentlich sparen sie nicht bei der Kühlung. Da kann es sich ja auch nur um Cent handeln. Da müssen Heatpipes Pflicht sein.

Nicht, dass sich diesmal alles ändert. Es sind alle mit der PS4 zufrieden und dann kommt statt dem RRoD ein BBoD (Blue Band of Death). ;D

Iruwen
2013-06-13, 17:50:59
Der hier scheint ganz zufrieden zu sein: http://www.golem.de/news/video-interview-cevat-yerli-ueber-roemer-ryse-und-xbox-one-technik-1306-99782.html
Ob die Cervelatwurst was erzählt oder in China fällt ein Sack Reis um :freak:

Gebrechlichkeit
2013-06-13, 19:34:55
Der ist praktisch gezwungen die Box 1 hoch zu loben, at least for another year. Mal schauen was er vorhat, wenn Ryse im Handel ist, was fuer Plaene er hat(Crysis 4?). Die ersten die das Spiel antesten durften, sind leider nicht besonders begeistert. Schaut suppi aus aber, eh....

Ich glaube selbst ein Final Doom´95 hat mehr Phun in der Packung, als all-das was die Schmiede-Crytek-HQ bisher programmiert hat.

Hallo
2013-06-13, 20:04:05
Mal ne ganz wichtige Wendung für Microsoft:

Anscheinend haben die ja sehr große Probleme mit den Yields und es wurde behauptet, die würden die Takfrequenz des iGP reduzieren.

Amazon Frankreich hat heute E-Mails an alle Vorbesteller der XBox One geschickt und den 31. Dezember 2013 als neuen Releasetermin angegeben.

Hier mal der direkte Link zur Produktseite: http://www.amazon.fr/Microsoft-Console-Xbox-One/dp/B00CO4BDO2/ref=sr_tr_sr_1?ie=UTF8&qid=1371117039&sr=8-1&keywords=xbox%20one&tag=vglnk-fr-c30-21

Wer Amazon kennt, der weiß, dass der 31. Dezember regelmäßig als ein Platzhalter verwendet wird und sich somit unter Umständen eine Releaseverschiebung der neuen XBox auf 2014 für Europa andeutet. Unter umständen könnte Microsoft aber so garantieren, dass die Taktfrequenzen der XBox One unangetastet bleiben.

Auf gut Deutsch: entweder pünktlich mit evtl. niedrigeren Taktfrequenzen oder garantiert so wie gedacht aber etwas später in evtl. manchen Ländern.

Goettliche Unterstuetzung hat MS offensichtlich nicht mit deren Konsole:popcorn:

][immy
2013-06-14, 15:03:44
Hier mal ein etwas ausführlicher Grössenvergleich aus dem Gaf:
http://abload.de/img/consolesizesyhukk.jpg
Stellt sich mur wieder die frage, warum ist die Box so verdammt groß gegenüber der ps4?
Allein das Mainboard war riesig für das was drauf sein sollte.
Das sie es nur wegen der Belüftung machen glaube ich kaum, denn es wäre wohl wirtschaftlicher ein kleineres Gehäuse mit besserer Lüftung zu nehmen als umgekehrt. Ein schnelles br-Laufwerk und damit mehr entstehender Hitze braucht man auch noch (wegen der Installationen), Netzteil ist auch extern, also wofür der viele Platz?
leider gibt es auch zur Hardware bisher keine einzige Bestätigung. Eigentlich weis man nur ein paar Details zu den Features, dem Arbeitsspeicher und kinect 2.0

Avalox
2013-06-14, 15:09:28
[immy;9807049']. Ein schnelles br-Laufwerk und damit mehr entstehender Hitze braucht man auch noch (wegen der Installationen), Netzteil ist auch extern, also wofür der viele Platz?

Eine Erklärung wäre, dass das Gehäuse so groß ist um Zeit zu sparen. Wenn das Designteam losrennen soll ohne, dass die genauen Spezifikationen bekannt sind wird eben überall eine Reserve eingeplant. Deshalb ist das Gehäuse so groß und deshalb ist das Mainboard so riesig und leer.

Der viele Platz im Gehäuse ist ja zu nichts gut, selbst der Kühlungsasspekt ist da nicht vorrangig. Man kann auch anscheinend nicht das Gehäuse hochkant stellen, es hat auch kein Display, was für einen Medienplayer ja durchaus interessant wäre. Das macht alles einen etwas kurzen Eindruck.

Jetzt habe ich gestern irgendwo gelesen, dass selbst das Laufwerk in der PS4 besser sein soll, als in der Xbox One. Mal sehen.

Iruwen
2013-06-14, 15:10:33
Man könnte was draufstellen... ach ne, doch nicht.

HajottV
2013-06-14, 15:26:12
Jetzt habe ich gestern irgendwo gelesen, dass selbst das Laufwerk in der PS4 besser sein soll, als in der Xbox One. Mal sehen.

Na und? Die One hat immer noch die bessere... also bei weitem... ganz ohne Frage... ja... hmm... die überlegene... Überwachungsfunktion. :biggrin:

][immy
2013-06-14, 15:32:49
Eine Erklärung wäre, dass das Gehäuse so groß ist um Zeit zu sparen. Wenn das Designteam losrennen soll ohne, dass die genauen Spezifikationen bekannt sind wird eben überall eine Reserve eingeplant. Deshalb ist das Gehäuse so groß und deshalb ist das Mainboard so riesig und leer.

Der viele Platz im Gehäuse ist ja zu nichts gut, selbst der Kühlungsasspekt ist da nicht vorrangig. Man kann auch anscheinend nicht das Gehäuse hochkant stellen, es hat auch kein Display, was für einen Medienplayer ja durchaus interessant wäre. Das macht alles einen etwas kurzen Eindruck.

Jetzt habe ich gestern irgendwo gelesen, dass selbst das Laufwerk in der PS4 besser sein soll, als in der Xbox One. Mal sehen.

das Laufwerk spielt ja keine rolle. Durch den installationszwang machen hier ein paar Minuten auch nichts aus.
Aber ich kann mir nicht vorstellen das sich das Design-Team so verrannt hat.
Was man bei den 50% mehr Leistung der ps4 ja auch nicht vergessen darf, ist das dies bisher eine Milchmädchenrechnung handelt, da über die Taktraten noch nichts bekannt ist. Wenn ich z.b. Den Takt einer 7850 erhöhe geht auch die verlustleistung in eine Region die für Konsolen nicht wirklich zumutbar ist. Das wäre bei einem kleineren Chip einfacher. Letztlich muss der unterschied also nicht so groß sein wie bisher befürchtet.
Was mich auch aufhorchen lässt sind die yield Probleme. Mittlerweile sollte dies unter 28nm eigentlich kein großes Problem sein, es sei denn man hat ein hohes Taktziel. Und man wird bei dem Cache, der einen Großteil der chipfläche ausmachen soll wohl nicht so blöd gewesen sein keine redundanten Bereiche frei zu halten, die man bei bedarf nutzt und ansonsten halt deaktiviert. MS und AMD sollten mittlerweile eigentlich so etwas mit einplanen, wenn man die Termine halten will.

C.D.B.
2013-06-14, 15:33:42
Na und? Die One hat immer noch die bessere... also bei weitem... ganz ohne Frage... ja... hmm... die überlegene... Überwachungsfunktion. :biggrin:

Und nicht die infinite power durch die cloud vergessen! ;)

Wenn sich das mit Laufwerk bewahrheiten sollte, wäre das noch das i-Tüpfelchen auf M$ versagen. :D

Reneeeeeee
2013-06-14, 17:03:51
Kurz Frage:

Die XBox One kann ja Eingangskanäle durchschalten, bis dahin ist alles klar.

Also Receiver auf hdmi 1
player auf hdmi 2
was anderes auf hdmi 3


Das kann die ja alles umschalten, aber die sagen man muss nur seinen Sat-Receiver anschließen und kann dann umschalten zwischen den Kanälen direkt auf der Box! Wie soll das denn gehen? Wie gibt die denn den Befehl an den Receiver zum umschalten?


Der beste Weg um fernzusehen!

Verbinde deinen Kabel- oder Satelliten Receiver mit Xbox One und siehe direkt über deine Konsole Fern. Alle deine Lieblingskanäle und Lieblingssendungen. So musst du nie mehr die Eingangskanäle umschalten, um zwischen Fernsehsendungen, Filmen und Spielen zu wechseln.



Hier sprechen die auch nur von EINGANGSkanälen wo man ja dann theoretisch dann mit der Receiverfernbedienung umschalten muss.

Weiß da einer was näheres zu?

Avalox
2013-06-14, 17:11:56
KWie soll das denn gehen? Wie gibt die denn den Befehl an den Receiver zum umschalten?


HDMI ermöglicht das steuern von Geräten. CEC (https://de.wikipedia.org/wiki/Consumer_Electronics_Control) heißt das Protokoll. Ist schon seit Ewigkeiten vorhanden. Eine ähnliche Funktion gab es sogar schon beim analogen Scart.

Das geht ohne Probleme. Sinn ist es nur eine Fernbedienung zu haben. z.B. TV Fernbedienung kann dann alle Geräte steuern.


Ich bin mal gespannt, ob man den Receiver noch mit der TV Fernbedienung umschalten kann, wenn dieser an der XBox One hängen wird. Wäre doof, wenn das nicht mehr geht.

Rolsch
2013-06-14, 17:14:39
Alternativ geht das via Infrarot. Die Xbox emuliert die Signale der Receiver Fernbedienung.

Reneeeeeee
2013-06-14, 17:21:04
Kannte ich noch nicht.

Danke für die Info. ;)

AwesomeSauce
2013-06-15, 00:15:40
Spielbare XBone Hardware auf der E3 HP-PCs mit Windows 7 und Nvidia GTX Grafikkarte?
http://www.cinemablend.com/images/sections/56733/_1371234242.jpg
https://pbs.twimg.com/media/BMu7UCsCcAAzUtv.jpg:large
http://www.cinemablend.com/images/sections/56733/_1371234074.jpg

:freak:

[dzp]Viper
2013-06-15, 00:25:41
War ja irgendwo klar.. Die XBox One Dinger sind so extrem PC-ähnlich, dass es wohl verdammt einfach ist mit internen Informationen einen performanten Systemnahmen Emulator zu bauen.

EvilTechno
2013-06-15, 00:43:03
Das finde ich sagenhaft. Der Emulator läuft noch vor der Originalhardware. Offensichtlich ist es also durchaus möglich das "Konsolenfeeling" auf einem (Desktop)PC zu haben. Es scheint nur nicht interessant zu sein, weil man das System so wohl nicht 100% sicher für DRM und Marketplace-Bindungen bekäme.

Aber das ist ja alles so bequem, dass es sich super verkaufen wird. "Shut up and take my money" ist absolut kein Scherz mehr.

Coda
2013-06-15, 01:00:55
Das mit dem Windows-PC gilt übrigens nicht für alle gezeigten Spiele. Manche liefen auch auf tatsächlicher Hardware ;)

RLZ
2013-06-15, 01:02:14
Ihr habt Vorstellungen...

Wer soll denn großartig merken, ob er eine PC oder Konsolenversion spielt?
Sony wird das bei Gaikai auch ausnutzen.

DinosaurusRex
2013-06-15, 07:26:23
Das Lustigste an der ganzen Sache ist ja, dass nicht einmal Microsoft Windows 8 nutzt. Die Nvidia Karte ist laut NeoGAF-Usern angeblich eine GTX 7**

Kurios: Thuway, der NeoGAF-Insider, der auch die Yield-Probleme bei der XBox One publik machte, hat diese Situation im Vorfeld angekündigt. Er hat bereits vor Wochen behauptet, dass Microsoft auf der E3 leistungsfähigere Hardware verwenden wird, um die Grafiklücke zu Sony verschwinden zu lassen. Laut NeoGAF Insidern war also nicht nur die ganze Kinect-Präsentation im Mai ein einziger Fake, sondern obendrein auch die Grafik- und Bildqualität der auf der E3 präsentierten XBox One Spiele.


Bei den Abstürzen der PS4 Spiele sah das übrigens so aus:

http://assets.exophase.com/images/2013/06/PS4-Error.jpg


Und hier mal Jonathan Blow im Twitter-Streit mit Michael Wilford wegen der grün lackierten XBox One Hardware:

http://i.imgur.com/E5FgNCC.png


Hier der Grund warum sich Jonathan Blow so aufregt:

http://abload.de/img/jblowlgpxr.png


Jason Connell von Sucker Punch (Sony 1st Party) stimmt ihm zu:

http://abload.de/img/tweet2iaaut.png


Scheint so als würde Sony fair spielen.

Lightning
2013-06-15, 08:22:42
Viper;9807623']War ja irgendwo klar.. Die XBox One Dinger sind so extrem PC-ähnlich, dass es wohl verdammt einfach ist mit internen Informationen einen performanten Systemnahmen Emulator zu bauen.

Das finde ich sagenhaft. Der Emulator läuft noch vor der Originalhardware.

Wie kommt ihr darauf, dass das ein Emulator ist und nicht einfach nativ auf dem PC läuft?

DinosaurusRex
2013-06-15, 08:47:48
Wie kommt ihr darauf, dass das ein Emulator ist und nicht einfach nativ auf dem PC läuft?

Wenn du mal genau hinsiehst...

http://img62.imageshack.us/img62/4417/1jgq.jpg

Lightning
2013-06-15, 08:49:17
Wenn du mal genau hinsiehst...

http://img62.imageshack.us/img62/4417/1jgq.jpg

Dann sehe ich was? Versteh ich nicht.

DinosaurusRex
2013-06-15, 08:50:00
Infinite Power! ;)

MiamiNice
2013-06-15, 09:05:26
Also ich sehe da einen PC ;)

Dalai-lamer
2013-06-15, 09:11:01
Siehst du nicht die cloud ?:)

DinosaurusRex
2013-06-15, 09:11:10
Ist das echt so schwer? Mir ist das sofort ins Auge gesprungen.

Finde den Fehler:

photoshopped by Microsoft
http://www.cinemablend.com/images/sections/56733/_1371234242.jpg

Original
http://img62.imageshack.us/img62/4417/1jgq.jpg

Lightning
2013-06-15, 09:11:17
Natürlich, das ist doch das Thema gerade?

edit: Und was hat das mit einem Emulator zu tun? Sorry, aber hä?

DinosaurusRex
2013-06-15, 09:13:32
Sollte ein Witz sein. Ist offensichtlich nicht gut angekommen! :(

MiamiNice
2013-06-15, 09:15:56
Warum sieht es so aus als wäre auf der CPU kein Lüfter verbaut?

Lightning
2013-06-15, 09:18:35
Sollte ein Witz sein. Ist offensichtlich nicht gut angekommen! :(

Wäre aus meiner Sicht witziger gewesen, wenn du nicht direkt meinen Beitrag zitiert hättest. So nahm ich an, dass mir das auf das Thema bezogen irgendwas sagen soll.

Naja, zurück zum Thema. ;)

DinosaurusRex
2013-06-15, 09:19:34
@ MiamiNice:

Ist eine Corsair AiO-Wasserkühlung. Zum Beispiel sowas hier:

http://www.mindfactory.de/images/product_images/1280/743743_1__44219-1.jpg

MiamiNice
2013-06-15, 09:25:14
Könnte sein. Leider verpixelt das Bild sehr stark beim skalieren. Das Originalbild in voller Auflösung wäre interessant.

Hugo78
2013-06-15, 09:45:44
Der CPU Kühler wird ein Corsair aus der aktuellen "i" Serie sein.

http://geizhals.at/p/861995.jpg
http://geizhals.at/p/861994.jpg

Ganon
2013-06-15, 15:41:15
Ist doch normal, dass da PCs stehen. Als die XBOX360 vorgestellt wurde, standen da PowerMac G5 rum.

Knuddelbearli
2013-06-15, 16:48:28
dann erklär mir mal wie sie mit einer NV karte Dx11.1 am alufen haben ^^

und wenn sie das spiel so stark modden darf man es auch als sicher ansehen das da auch an der Grafik herumgeschraubt wurde

Gebrechlichkeit
2013-06-15, 17:16:15
dann erklär mir mal wie sie mit einer NV karte Dx11.1 am alufen haben ^^

und wenn sie das spiel so stark modden darf man es auch als sicher ansehen das da auch an der Grafik herumgeschraubt wurde

Dann warst Du wahrscheinlich auch bei der Halo 2 e3 2003 Show dabei und hast Dich von der gfx "flashen" lassen ;)

Halo 2 E3 demo was "smoke and mirrors"
http://www.eurogamer.net/articles/bungie-halo-2-e3-demo-was-a-fake

Das ist leider nix neues, wie gut denn nun die Grafik bei der Xbox 1 sein wird oder ob M$ tatsaechlich gezwungen ist die GPU runterzutakten, oder ob nur ein Developer hier den "Magier" mimt... oder oder, auf der Gamescom werden wir schlauer, denn soviel ich weiss kann man auf der Gamescom 2013 die PS4 erstmals antesten.

Und mal kurz OTT:
-Gerade im Gaf Forum gelesen bzw. vom User gepostet, Sony haette eine Premium Bundle der PS4 parat, fuer den Preis einer Box 1, hat da Wer handfeste Info oder ist das alles nur Spekulation ?

Muselbert
2013-06-15, 17:21:01
Dann warst Du wahrscheinlich auch bei der Halo 2 e3 2003 Show dabei und hast Dich von der gfx "flashen" lassen ;)

Halo 2 E3 demo was "smoke and mirrors"
http://www.eurogamer.net/articles/bungie-halo-2-e3-demo-was-a-fake

Das ist leider nix neues, wie gut denn nun die Grafik bei der Xbox 1 sein wird oder ob M$ tatsaechlich gezwungen ist die GPU runterzutakten, oder ob nur ein Developer hier den "Magier" mimt... oder oder, auf der Gamescom werden wir schlauer, denn soviel ich weiss kann man auf der Gamescom 2013 die PS4 erstmals antesten.

Und mal kurz OTT:
-Gerade im Gaf Forum gelesen bzw. vom User gepostet, Sony haette eine Premium Bundle der PS4 parat, fuer den Preis einer Box 1, hat da Wer handfeste Info oder ist das alles nur Spekulation ?

Bei Amazon.com gibts Bundles mit einem Spiel und nem 12 Monate ps+ Abo für 499€. Aber keine Ahnung ob da was anderes gemeint war...

Coda
2013-06-15, 18:20:18
Nur mal so generell, von den allermeisten Konsolenspielen gibt es einen PC-Build. Allein um entwickeln zu können hat man den in der Regel (Editor etc.)

Herr Doktor Klöbner
2013-06-15, 18:23:42
Auf was hätten die auch entwickeln sollen, es muß ja auch eine Art Blindflug sein für Hardware zu entwicklen die noch lange nicht Final ist.

Iruwen
2013-06-15, 19:04:37
Ist doch normal, dass da PCs stehen. Als die XBOX360 vorgestellt wurde, standen da PowerMac G5 rum.

http://www.anandtech.com/show/1686/5

AwesomeSauce
2013-06-15, 19:15:22
Das waren aber offizielle Devkits (mit X360 OS) und nicht einfach off-the-shelf PCs...

Herr Doktor Klöbner
2013-06-15, 19:22:25
Kann man eigentlich abschätzen wie lieferfähig Sony zum Start sein wird ?
Ist es bestätigt, das TSMC die APU fertigt ? Da balgen sich ja einige um die 28nm Kapazitäten, SONY, MS, AMD, NVidia und wohl auch Handygedöns, bei sehr großer Nachfrage könnte das ja ein Engpass sein.

Auch die 512 MB GDDR5 Chips sind ja wohl erst seit kurzem verfügbar, ist da etwas bekannt ob es da Probleme mit der Verfügbarkeit gibt ?

Sony hat wohl einiges an Vorbestellungen zu bedienen http://playfront.de/ps4-sony-korrgiert-absatzzahlen-nach-oben-lieferengpaesse-erwartet-man-raet-zur-vorbestellung/

Das einzige was mich an einer Vorbestellung hindert ist die Frage wie die Kühllösung aussieht, schließlich werden wohl so 150-200 Watt bei einem doch sehr kompakten Gehäuse weggekühlt werden, da stellt sich die Frage nach Lautheit und Zuverlässigkeit, sowas wie bei der ersten Version der XBox 360 wäre ein absolutes No Go.

Knuddelbearli
2013-06-15, 19:35:38
TSMC oder GloFO

UMC, Samsung IBM und Intel kann man ausschließen

Schrotti
2013-06-15, 19:47:01
Also das was ich bei Anandtech bzgl. der PS4 gelesen habe ist eigentlich eindeutig.

Die PS4 ist leistungsfähiger und somit kann MS einpacken.

Iruwen
2013-06-15, 19:51:49
Die Leistung interessiert außer uns paar Techies keinen.

Muselbert
2013-06-15, 20:06:12
Die Leistung interessiert außer uns paar Techies keinen.

Dann eben billiger und kleiner (wichtig für die Frau im Haus :D)

dargo
2013-06-15, 20:23:59
Dann eben billiger und kleiner (wichtig für die Frau im Haus :D)
Nicht wenn sie lauter ist. ;)

SamLombardo
2013-06-15, 20:32:04
Die Leistung interessiert außer uns paar Techies keinen.
Nicht bei Multiplattform. Aber die Exklusivspiele der PS 4 werden grafisch denen der XB1 überlegen sein, ich denke dafür braucht man keine Glaskugel;)

Muselbert
2013-06-15, 20:33:21
Nicht wenn sie lauter ist. ;)

Gibt eben leider noch keinen Lautstärkevergleich :freak: Würde es ähnlich wie bei der Xbone schon Bilder vom Innenleben geben könnte man ja abschätzen wie durchdachtdas Kühlsystem ist, aber so...

Rolsch
2013-06-15, 20:42:14
Nicht bei Multiplattform. Aber die Exklusivspiele der PS 4 werden grafisch denen der XB1 überlegen sein, ich denke dafür braucht man keine Glaskugel;)
Noch weiß keiner was man mit dem latenzarmen ESRAM und den sonstigen Chipfeatures so alles tricksen kann. 1080p@60fps scheint ja bei den Launchtiteln kein Problem zu sein. Gut möglich daß die XBO leiser und sparsamer wird ohne merkbar schlechtere Grafik zu liefern.

w0mbat
2013-06-15, 20:49:05
50% weniger Einheiten, von denen auch noch ein Teil nur für das UI reserviert ist? Und das soll nicht merkbar sein?

Knuddelbearli
2013-06-15, 20:50:15
Rohleistung kann man nur sehr sehr begrenzt mit schnelleren / latenzärmeren Speicher ausgleichen, gerade wo die 8GB restlicher Speicher dafür sehr viel langsamer sind , und auch noch insgesamt weniger RAM zur verfügung steht ( XBOX1 reserviert 3Gb fürs OS PS4 warens glaube ich 1,5GB )

Rolsch
2013-06-15, 20:58:20
Es wird lange dauern bis überhaupt 5GB sinnvoll genutzt werden, bis dahin kann sich noch viel ändern. Jetzt sind erstmal die Programmierer dran zu zeigen was die Kisten drauf haben.

dargo
2013-06-15, 20:59:10
50% weniger Einheiten, von denen auch noch ein Teil nur für das UI reserviert ist? Und das soll nicht merkbar sein?
50% ist gar nichts. Man nehme anstatt 1600x900 2xMSAA 1920x1080 4xMSAA und schon sind deine ~50% aufgebraucht. Das sieht die Masse in der üblichen Entfernung zum TV eh nicht.

moBi
2013-06-15, 21:04:40
Wenns eh keiner(TM) sieht, dann macht Sony halt auch 1600x900 2xMSAA und steckt die 50% in Zeug, das gesehen wird. :eek:

Konami
2013-06-15, 21:24:53
Die Leistung interessiert außer uns paar Techies keinen.
Schmarrn. Die Leute interessieren vielleicht die technischen Details nicht, aber es interessiert sie sehr wohl, wenn ein Spiel auf der eigenen Konsole matschig aussieht und ruckelt, und beim Kumpel mit der Konkurrenzkonsole viel besser läuft.

][immy
2013-06-15, 22:44:21
Wenns eh keiner(TM) sieht, dann macht Sony halt auch 1600x900 2xMSAA und steckt die 50% in Zeug, das gesehen wird. :eek:
Den leistungsunterschied wird man aber für gewöhnlich nicht großartig merken, da die Leistung ruck zuck aufgebraucht ist wenn mal ein bisschen bessere bq genutzt wird. Außerdem würden die 50% nur zutreffen wenn beide GPUs den gleichen Takt hätten. Durch den esran kann die effiziens eventuell auch höher sein, da weniger gewartet werden muss auf Daten die sich in diesem Cache befinden. Es wird wohl nicht alles ausgleichen können, aber wie gesagt, die chips werden näher beieunander listen, ALS von vielen prophezeit wird.
Was die menge des Arbeitsspeichers angeht so hat MS bei der xbox360 schob mal durch iptimierungen mehr Speicher zur Verfügung gestellt. Gut möglich das die 3gb nur anfangs zur Sicherheit vom OS veranschlagt werden ( man weis ja nicht ob eventuell noch Features hinzukommen mit der Zeit). Wenn es so weit kommt das doch mal ein spiel an die 5gb grenze kommt wird sich hier sicher was bewegen. Aber bis dahint hat man halt einen Puffer.

][immy
2013-06-15, 22:52:16
Schmarrn. Die Leute interessieren vielleicht die technischen Details nicht, aber es interessiert sie sehr wohl, wenn ein Spiel auf der eigenen Konsole matschig aussieht und ruckelt, und beim Kumpel mit der Konkurrenzkonsole viel besser läuft.

was soll ds denn. Die meisten werden bei multititeln keinen unterschied sehen, oder er ist schlicht egal. Den wenigsten geht es um Technik. Zudem wird es keinen unterschied wie zwischen PS3 und Wii sein sondern nur ein relativ geringer unterschied.
Den großen unterschied macht aktuell eher das spieleangebot und das Marketing aus.. und hier steht MS naja nicht so gut da.

ndrs
2013-06-15, 22:58:56
Nicht wenn sie lauter ist. ;)
Wer, die Frau? :D

moBi
2013-06-15, 23:16:34
[immy"]Den leistungsunterschied wird man aber für gewöhnlich nicht großartig merken, da die Leistung ruck zuck aufgebraucht ist wenn mal ein bisschen bessere bq genutzt wird.

Achso, dann hat Sony da wohl versagt und unnütz Rechenleistung verbaut. :rolleyes: Ich kann mir nicht vorstellen, dass das keinen Unterschied machen wird. Man könnte die 50% auch einfach in reine Effekt-Physik verballern. Ich bin kein Engine Schreiber, aber bevor die Bandbreite für das Berechnen der Grafik draufgeht, sollte auch etwas Zeit sein, nochmal ein paar tausend Partikel zu simulieren.

Ich denke, das die Meisten HSA komplett unterschätzen. Ich bin eher der Meinung, das die Konsolen jetzt weiter vom PC entfernt sind, als zumindest die XBox 360. Auf unified memory optimierte Programme laufen dann schlicht nicht mehr ohne riesige Abstriche auf PC.

Ganon
2013-06-15, 23:21:58
Auf unified memory optimierte Programme laufen dann schlicht nicht mehr ohne riesige Abstriche auf PC.

Auch die XBOX1 & XBOX360 hatten eine Unified Memory Architecture.

Das ist im Konsolenbereich jetzt nicht so neu. Das N64 hatte das afaik als erste Konsole.

][immy
2013-06-15, 23:31:11
Achso, dann hat Sony da wohl versagt und unnütz Rechenleistung verbaut. :rolleyes: Ich kann mir nicht vorstellen, dass das keinen Unterschied machen wird. Man könnte die 50% auch einfach in reine Effekt-Physik verballern. Ich bin kein Engine Schreiber, aber bevor die Bandbreite für das Berechnen der Grafik draufgeht, sollte auch etwas Zeit sein, nochmal ein paar tausend Partikel zu simulieren.

Ich denke, das die Meisten HSA komplett unterschätzen. Ich bin eher der Meinung, das die Konsolen jetzt weiter vom PC entfernt sind, als zumindest die XBox 360. Auf unified memory optimierte Programme laufen dann schlicht nicht mehr ohne riesige Abstriche auf PC.

das habe ich nicht geschrieben, nur das der unterschied nicht so gigantisch sein wird, wie sich das manche hier vorstellen. Hier schreiben viele als würde MS leistungstechnisch die nächste Wii raus bringen.
Zudem sollte man den esram nicht unterschätzen immerhin kann man darüber auch sehr schnell zwischen cpu/gpu Daten austauschen, wie schon geschrieben auch geringere Wartezeiten etc. Es wird am ende wohl kein all zu dramatischen unterschied ausmachen.

moBi
2013-06-15, 23:54:44
@Ganon

Das mag ja sein, aber GPU und CPU waren bekanntlich nicht zusammengefasst. Ich habe mich wahrscheinlich auch unglücklich ausgedrückt. Irgendwann ist PCI-E am Ende. Code der darauf ausgelegt ist, dass CPU und GPU schnell auf die gleichen Daten zugreifen ist meinem Verständnis nach auf PCs nicht möglich.

@][immy

Die Zeit wird es zeigen. Die 50% Mehrleistung spielen nur dann keine Rolle, falls die Rechenwerke wegen Bandbreitenmangel nicht versorgt werden können. Ich sehe hier den ESRAM nicht als gigantischen Vorteil. Bei heutigen GPUs reicht GDDR5 auch.

Avalox
2013-06-16, 00:10:17
Auch die XBOX1 & XBOX360 hatten eine Unified Memory Architecture.

Das ist im Konsolenbereich jetzt nicht so neu. Das N64 hatte das afaik als erste Konsole.


Ja, aber diese alten Konsolen hatten keine aktuelle GPGPU an der Seite der CPU.

Ganon
2013-06-16, 00:11:06
Das mag ja sein, aber GPU und CPU waren bekanntlich nicht zusammengefasst.

Bei der 360 "Slim" ist es auch ein SoC, das macht das Ganze nicht unbedingt anders. Wo die Dinger nun genau liegen ist auch relativ uninteressant für das Prinzip von UMA. Wie gesagt, das ganze Konzept ist nicht neu.

Code der darauf ausgelegt ist, dass CPU und GPU schnell auf die gleichen Daten zugreifen ist meinem Verständnis nach auf PCs nicht möglich.

Das ist eh alles auf hohem Level abstrahiert. Wenn du sowas programmierst, sagst du zwar "schicke die Daten zum Grafikkspeicher", aber was dann wirklich passiert ist Sache des Treibers. Bei Intel Haswell mit GT3e und den Teilen von AMD ist das dann schlicht ein umbiegen des Zeigers, ohne kopieren. Macht dann 0 Unterschied in der Programmierung.

Auf Konsolen könnte man sich vllt. den einen Befehl sparen, aber das macht's dann im Ende auch nicht mehr.

Ganon
2013-06-16, 00:17:06
Ja, aber diese alten Konsolen hatten keine GPGPU an der Seite der CPU.

Das ist schon richtig. Ich will auch nicht abstreiten, dass UMA vom Vorteil ist für GPGPU, aber es ist auch kein Hexenwerk oder irgendwas was ein PC nicht hat / haben könnte. Immerhin bietet auch Intel mit der Haswell GT3e ähnliches. AMD dann ja auch.

Im Prinzip ging es mir ja mehr darum, zu sagen, dass UMA nichts neues ist und auch im PC demnächst Einzug halten wird, zumindest im Kleinen.

Hayab
2013-06-16, 00:30:38
Wer glaubt, dass es zw. XB1 und PS4 keinen Unterschied in der Grafik gibt ist recht naiv. Sicher wird paar Multitieln geben die Stark an der CPU haengen und bei beiden gleich werden, weil der CPUs Teil gleichstark sind. Allerdings ist die GPU Leistung um fast das doppelte besser bei der PS4, da wird sich MS nicht mit ihren kleinen Zusatzspeicher nicht herauswinseln koennen.;D

][immy
2013-06-16, 09:50:11
Wer glaubt, dass es zw. XB1 und PS4 keinen Unterschied in der Grafik gibt ist recht naiv. Sicher wird paar Multitieln geben die Stark an der CPU haengen und bei beiden gleich werden, weil der CPUs Teil gleichstark sind. Allerdings ist die GPU Leistung um fast das doppelte besser bei der PS4, da wird sich MS nicht mit ihren kleinen Zusatzspeicher nicht herauswinseln koennen.;D

also bitte sind 50% (bei gleichen Takt wohlgemerkt) denn jetzt schon doppelt so viel?
Die x1 ist ja nicht 50% langsamer als die ps4 sondern die ps4 hat evetuell 50% mehr Flops. Ist ein himmelweiter unterschied.

Jules
2013-06-16, 10:33:04
Kommt auch immer drauf an, welchen "Mehrwert" die Entwickler einbauen wollen/können.

Bei Multi-Titeln glaube ich kaum das die hingehen und neuen Content, zusätzliche Shader, komplexere Beleuchtung usw. einbauen, nur weil die PS4 ein gutes Stück performanter ist. Das lohnt sich höchstens mit Zuzahlungen seitens Sony....sozusagen -> exclusive content.

Mehr als Auflösung, BQ und mehr Frames wird es nicht geben, imo......und ich behaupte mal das dem Großteil der Käuferschaft diese Aspekte eher weniger ins Gewicht fallen. Obwohl ich auf Technik achte, wäre es sogar mir schnuppe, solange ich meine Lieblingstitel bekomme.

X1 macht ja schließlich immer noch einen erheblichen Sprung im Gegensatz zum Vorgänger. Von Matschgrafik -wie das hier mal jemand formulierte- kann man doch gar nicht sprechen.

Iruwen
2013-06-16, 11:36:49
Eben.

PS: so langsam geht das Anti MS Getrolle selbst mir auf den Sack wenn man dafür jegliche sachliche Betrachtung über Bord wirft. Nur weils gerade chic (und zugegeben ziemlich einfach) ist gegen MS zu schießen.

dargo
2013-06-16, 11:51:25
PS: so langsam geht das Anti MS Getrolle selbst mir auf den Sack wenn man dafür jegliche sachliche Betrachtung über Bord wirft. Nur weils gerade chic (und zugegeben ziemlich einfach) ist gegen MS zu schießen.
Dito.

Immer wieder lustig zu sehen wie sich einige gegenseitig aufschaukeln.

L233
2013-06-16, 11:53:08
Mehr als Auflösung, BQ und mehr Frames wird es nicht geben, imo......und ich behaupte mal das dem Großteil der Käuferschaft diese Aspekte eher weniger ins Gewicht fallen. Obwohl ich auf Technik achte, wäre es sogar mir schnuppe, solange ich meine Lieblingstitel bekomme.

X1 macht ja schließlich immer noch einen erheblichen Sprung im Gegensatz zum Vorgänger. Von Matschgrafik -wie das hier mal jemand formulierte- kann man doch gar nicht sprechen.

Ja, danke MS, dass ihr bei den Specs tiefgestapelt habt (die Kohle war wohl besser in den 400 Millionen Dollar NFL Deal investiert, wa?), so dass der kleinste gemeinsame Nenner in dieser Generation bzgl. GPU-Rechenleistung und Bandbreite signifikant tiefer liegt, als er sein könnte.

Das Resultat davon wird sein, dass die meisten Titel auf der stärkeren Hardware kaum besser aussehen werden, das ist schon richtig... aber das soll nun ein Argument für Xbone sein? Das ist für mich erst recht ein Grund, dem Laden den Mittelfinger zu zeigen, weil es am Ende nur ein weiterer Aspekt ist, bei dem MS das Gaming zugunsten von irgendwelchem TV TV TV SPORTS SPORTS SPORTS Shit kompromittiert hat, und zwar mit weitreichenden Folgen.

DinosaurusRex
2013-06-16, 12:07:12
Ich stelle da einfach mal eine Gegenbehauptung auf:

Der Unterschied in der Bildqualität (Auflösung, Kantenglättung, Framerate, etc) wird dem DAU viel stärker auffallen als der Unterschied zwischen verschiedenen Rendertechnologien, beispielsweise baked Global Illumination vs realtime Global Illumination.

Jules
2013-06-16, 12:25:23
Ja, danke MS, dass ihr bei den Specs tiefgestapelt habt (die Kohle war wohl besser in den 400 Millionen Dollar NFL Deal investiert, wa?), so dass der kleinste gemeinsame Nenner in dieser Generation bzgl. GPU-Rechenleistung und Bandbreite signifikant tiefer liegt, als er sein könnte.

Was soll uns das jetzt sagen? In jeder Generation gab es bisher Leistungsunterschiede. Wenn man genauer hinschaut, kann man parallelen zur letzten Gen (currentGen) erkennen.

Sony hat damals den Cell (mit IBM&Toshiba) entwickelt und zudem noch einen neuen Datenträger gepusht und das im Grunde auf Kosten der Käufer. Ende des Lieds -> PS3 teurer als die 360. Und die PS3 zog bei Multi-Titel dennoch öfter den kürzeren.....bis auf die vielen "Freaks" in den Foren, hat sich doch niemand für die optischen Unterschiede interessiert.

Das Resultat davon wird sein, dass die meisten Titel auf der stärkeren Hardware kaum besser aussehen werden, das ist schon richtig... aber das soll nun ein Argument für Xbone sein?

Sicher nicht. Aber realistisch gesehen wird die geringere Leistung eben niemanden wirklich abschrecken. Der Großteil wird den Unterschied einfach nicht erkennen oder wie wir vergleichen.

Die grundsätzliche Haltung seitens MS bzgl. der Restriktionen wird da weitaus mehr Gewicht auf die Verkaufszahlen haben. Das ist aber hier nicht das Thema.

Ihm
2013-06-16, 12:26:36
Interessante und dennoch komplett sinnfreie Diskussion.
Wenn Inhalt und Gesamterlebnis gegenüber grafischen Vorteilen derart im Nachteil wären:

Warum kauft sich dann überhaupt noch irgendjemand eine Konsole bzw. ein Konsolenspiel?

Naheliegender wäre dann doch eher ein aktueller Spiele-PC, oder nicht?
Um eure grauen Zellen zu schonen: Nein, wäre es nicht. Und deshalb stellt sich auch selten diese Frage. Es sind verschiedene Ansätze mit verschiedenen Richtungen, die bis hin zu den Spieleentwicklungen selbst reichen.
Von daher ist es unwissend zu glauben, dass die PS4 durch ihren eventuellen grafischen Vorteil (es gibt noch keine Vergleiche, wie auch?) einen direkten und durchschlagenden Vorteil hätte.

Nakai
2013-06-16, 12:26:36
Der Unterschied in der Bildqualität (Auflösung, Kantenglättung, Framerate, etc) wird dem DAU viel stärker auffallen als der Unterschied zwischen verschiedenen Rendertechnologien, beispielsweise baked Global Illumination vs realtime Global Illumination.

Dem Dau wird gar nix auffallen. Dem ist schon kaum etwas zwischen PS3 und Xbox360 aufgefallen, obwohl die Xbox360 der PS3 so ziemlich in jeglicher Beziehung überlegen war. Wahrscheinlich wird die Auflösung und die Details etwas angepasst. Dem DAU wird es nicht so sehr auffallen, der weiß ja nicht mal worauf er gucken muss.


mfg

Herr Doktor Klöbner
2013-06-16, 12:28:33
Wenn die Xbox bei 720P ohne AA und AF bei 30 FPS aus dem letzten Loch pfeift und der gleiche Multiplattformtitel höher aufgelöst flüssig bei der PS4 läuft hat MS ein Problem, auch absolute Laien die sich NULL für Technologie interessieren sehen halt eindeutige optische Vorteile.

Zum Thema MS-Bashing: Jeder Versuch eine sachliche Diskussion mit Pro-MS Argumenten zu führen wird ja von MS mit der nächsten Horror-Meldung sabotiert:

http://www.4players.de/4players.php/spielinfonews/XboxOne/34518/2132892/Xbox_One%7CKein_Zugriff_mehr_auf_Spiele_bei_Sperrung_des_Xbox_Live_Accounts.html

Vermulich erzählen mir jetzt einige das wäre ein ganz normales Geschäftsgebaren.

Botcruscher
2013-06-16, 12:28:59
Die meisten werden eher das DRM richtig bemerken.

Rolsch
2013-06-16, 12:37:16
Die meisten werden eher das DRM richtig bemerken.
Was wohlwollend durch die rosarote Brille betrachtet billigere Spiele zur Folge hätte. Aber das ist eine Entwicklung deren Ergebnisse man wohl erst sehr langfristig sehen wird. Momentan sind kostspielige 59€ geplant. Mal sehen wie Robust die NextGen Dinger gegen die Cracker sind, die Xbox könnte da wegen dem DRM und der Cloudnutzung bessere Karten haben. Wobei eine offene PS4 ja nicht schlecht für Sony wäre, eher für die Publisher.

Botcruscher
2013-06-16, 12:43:33
Deswegen sind die Spiele bei U-Play und Origin so günstig!!! Bei Steam gibt es auch nur zwei Gründe: Sale und Key aus Eng/RUS. PS: Der Kopierschutz von Steam ist quasi null.

L233
2013-06-16, 12:52:15
Was soll uns das jetzt sagen? In jeder Generation gab es bisher Leistungsunterschiede. Wenn man genauer hinschaut, kann man parallelen zur letzten Gen (currentGen) erkennen.
Die Leistungsunterschiede wurden erst in der aktuellen Generation relevant, da die Bedeutung der Multi-Plattform-Titel stark zugenommen hat. Die Hardware ist nicht wirklich gut vergleichbar, aber die Praxis hat gezeigt, dass die Xbox 360 wohl etwas leitungsfähiger ist, oder sich die Leistung zumindest besser ausnutzen lässt.

Das ist aber weit entfernt von der Situation in der nächsten Generation, wo die beiden Konsolen sich technisch sehr ähnlich sind, jedoch eine Plattform über geschätze 50% mehr GPU-Rechenleistung, mind. 100% mehr Speicherbandbreite und wahrscheinlich mind. 20% mehr nutzbares RAM verfügt. Das ist durchaus 'ne Hausnummer und würde grafisch deutlich bessere Multi-Plattform-Games ermöglichen, wenn Xbone nicht der lahme Bremser wäre.

Sicher nicht. Aber realistisch gesehen wird die geringere Leistung eben niemanden wirklich abschrecken. Der Großteil wird den Unterschied einfach nicht erkennen oder wie wir vergleichen.

Der Großteil wird den Unterschied nicht erkennen, weil für den kleinsten gemeinsamen Nenner produziert wird und diesen Umstand können wir MS zuschreiben. Das ist es doch genau, was ich so ärgerlich finde. Statt fast 'ne halbe Milliarde für NFL rauszublasen, was außerhalb von Ami-Land keine Sau interessiert, hätte man das Transistorbudget der GPU etwas erhöhen können. Aber nö, TV TV TV SPORTS SPORTS SPORTS war wichtiger. Und sowas soll man dann als Gamer auch noch mit einem Kauf honorieren?

mironicus
2013-06-16, 12:57:26
Ist die Programmierung der Spiele in der neuen Generation eigentlich jetzt einfacher? Gibt es dann noch überhaupt maschinennahe Optimierung wie sie bei früheren Konsolen genutzt worden ist?

prinz_valium
2013-06-16, 13:00:01
Die meisten werden eher das DRM richtig bemerken.


hehe der spruch ist irgendwie total geil :D

dargo
2013-06-16, 13:13:39
Was soll uns das jetzt sagen? In jeder Generation gab es bisher Leistungsunterschiede. Wenn man genauer hinschaut, kann man parallelen zur letzten Gen (currentGen) erkennen.

Sony hat damals den Cell (mit IBM&Toshiba) entwickelt und zudem noch einen neuen Datenträger gepusht und das im Grunde auf Kosten der Käufer. Ende des Lieds -> PS3 teurer als die 360. Und die PS3 zog bei Multi-Titel dennoch öfter den kürzeren.....bis auf die vielen "Freaks" in den Foren, hat sich doch niemand für die optischen Unterschiede interessiert.

Völlig korrekt!

Aber jetzt machen die Möchtegern-Grafikfetischisten (lol) einen auf dicke Hose. Dabei haben die jahrelang mit minderwertigen Grafik gespielt und komischerweise hat die das nicht gestört. :ulol:

Wenn die Xbox bei 720P ohne AA und AF bei 30 FPS aus dem letzten Loch pfeift und der gleiche Multiplattformtitel höher aufgelöst flüssig bei der PS4 läuft hat MS ein Problem, auch absolute Laien die sich NULL für Technologie interessieren sehen halt eindeutige optische Vorteile.

Schon mal was von Grafikoptionen und der Skalierbarkeit einer Engine X gehört? Wenn eine Plattform dermaßen am Limit läuft dann wählt man halt bsw. die nächst niedrigere Schattenauflösung etc. (es gibt zig Möglichkeiten die nicht direkt ins Auge fallen) und schon passt es. Und nein... das fällt kaum jemandem am TV in der üblichen Entfernung auf. Außer vielleicht einigen Freaks hier die akribisch danach suchen.


Der Großteil wird den Unterschied nicht erkennen, weil für den kleinsten gemeinsamen Nenner produziert wird und diesen Umstand können wir MS zuschreiben. Das ist es doch genau, was ich so ärgerlich finde. Statt fast 'ne halbe Milliarde für NFL rauszublasen, was außerhalb von Ami-Land keine Sau interessiert, hätte man das Transistorbudget der GPU etwas erhöhen können. Aber nö, TV TV TV SPORTS SPORTS SPORTS war wichtiger. Und sowas soll man dann als Gamer auch noch mit einem Kauf honorieren?
Willkommen in der Realität.

Jetzt weiß du wie es mir am PC jahrelang erging wo überwiegend für die Taschenrechner (aktuelle Gen) entwickelt wurde. ;) Nur so schlimm wird es bei der neuen Gen nicht sein, dafür sind 50% gar nichts. Bei einem Faktor 4 aufwärts wäre das was anderes.

Lightning
2013-06-16, 13:28:10
Völlig korrekt!

Aber jetzt machen die Möchtegern-Grafikfetischisten (lol) einen auf dicke Hose. Dabei haben die jahrelang mit minderwertigen Grafik gespielt und komischerweise hat die das nicht gestört. :ulol:

Der PC läuft hier quasi außer Konkurrenz. Es gibt viele Leute, die einfach nur auf der Konsole spielen wollen (manche aus rationalen Gründen, andere nicht, spielt hier aber keine Rolle). Und da ist der Vergleich zwischen den Konsolen eben nicht ganz unwichtig. Dass die 360 im Schnitt bei Multititeln etwas besser abgeschnitten hat, ist durchaus ein Faktor gewesen (obwohl die Unterschiede geringer waren als sie nun zwischen PS4 und Xbox One zu erwarten sind).
Ich stimme zu, dass man diesen einzelnen Punkt nicht überbewerten sollte; aber zusammen damit, dass die PS4 momentan ohnehin schon die besseren Reaktionen bekommt, könnte es ein Baustein für den Erfolg der PS4 werden.

StefanV
2013-06-16, 14:22:51
Hm, ob es irgendwann mal eine 'Class Action Suit' gegen MS geben wird, für deren 'Bedingungen' bei der XBox One??

L233
2013-06-16, 15:06:43
Willkommen in der Realität.

Jetzt weiß du wie es mir am PC jahrelang erging wo überwiegend für die Taschenrechner (aktuelle Gen) entwickelt wurde. ;) Nur so schlimm wird es bei der neuen Gen nicht sein, dafür sind 50% gar nichts. Bei einem Faktor 4 aufwärts wäre das was anderes.
Ähm, ich bin auch in erster Linie PC-Gamer und das macht MicroSofts gimpige SparBox ja doppelt ärgerlich. Der Generationssprung hätte 50% größer ausfallen können.... und darunter werden die PC-Versionen natürlich genauso leiden.

DinosaurusRex
2013-06-16, 15:59:05
Völlig korrekt!

Aber jetzt machen die Möchtegern-Grafikfetischisten (lol) einen auf dicke Hose. Dabei haben die jahrelang mit minderwertigen Grafik gespielt und komischerweise hat die das nicht gestört. :ulol:

Nur damit ich das richtig verstehe:

Weil die Konsoleros nicht auf dem PC spielen wollen, haben sie deiner Meinung nicht das Recht, sich die Next Gen Konsole anhand der Leistungsfähigkeit auszusuchen?

Findest du das nicht ein wenig kindisch?

Ihm
2013-06-16, 16:40:22
Nur damit ich das richtig verstehe:

Weil die Konsoleros nicht auf dem PC spielen wollen, haben sie deiner Meinung nicht das Recht, sich die Next Gen Konsole anhand der Leistungsfähigkeit auszusuchen?

Findest du das nicht ein wenig kindisch?

Eine Entscheidung zwischen den beiden Konsolen wird eher über die Sekundärmerkmale (Controller, Motion-Sensorik, Spiele, DRM etc.) fallen. Ich bezweifle sehr stark, dass man grafisch große Unterschiede feststellen wird.
Hardwaretechnisch sind die beiden Konsolen aufgrund ihrer verwendeten Architektur auf jeden Fall ein Segen für Entwickler und Verbraucher.
Die Spieleentwicklung wird günstiger und schneller und die Spiele plattformunabhängig ziemlich zeitnah verfügbar. Und auch die Ports werden sicherlich besser werden, da die Verwandschaft derart groß ist, dass die Auswahl der Lead-Plattform weniger negative Konsequenzen für die anderen Plattformen mitbringen wird.

Ich rechne mit wirklich positiven Ergebnissen für alle Beteiligten.

prinz_valium
2013-06-16, 16:42:51
Ähm, ich bin auch in erster Linie PC-Gamer und das macht MicroSofts gimpige SparBox ja doppelt ärgerlich. Der Generationssprung hätte 50% größer ausfallen können.... und darunter werden die PC-Versionen natürlich genauso leiden.


du willst jetzt also behaupten, dass diese 50% weniger gpu leistung der xbo
den vorteil für die pc spiele um selbiges bremst? wohl kaum.

8gb ram
8 core cpu
x86 architektur
"gleiche" grafikeinheit


dass die xbo nun 50% weniger gpuleistug, als die ps4 hat, wird KEINERLEI unterschied für den möglichen generationssprung auf dem pc machen :D

][immy
2013-06-16, 17:31:05
<p>du willst jetzt also behaupten, dass diese 50% weniger gpu leistung der xbo</p>
<p>den vorteil für die pc spiele um selbiges bremst? wohl kaum.</p>
<p>&nbsp;</p>
<p>8gb ram</p>
<p>8 core cpu</p>
<p>x86 architektur</p>
<p>&quot;gleiche&quot; grafikeinheit</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>dass die xbo nun 50% weniger gpuleistug, als die ps4 hat, wird KEINERLEI unterschied für den möglichen generationssprung auf dem pc machen <img src="images/3dc/smilies/common/bluebiggrin.gif" border="0" alt="" title=":D" smilieid="247" class="inlineimg" /></p>
<p>&nbsp;</p>
<p>noch mal die ps4 hat vielleicht 50% mehr gpu leistung als die x1. Das sind aber nicht 50% weniger Leistung. Lernt mal Mathematik.</p>

L233
2013-06-16, 17:31:49
[immy;9809244']Lernt mal Mathematik.
Wieso plural?

prinz_valium
2013-06-16, 17:50:06
[immy;9809244']<p></p>
<p>&nbsp;</p>
<p>noch mal die ps4 hat vielleicht 50% mehr gpu leistung als die x1. Das sind aber nicht 50% weniger Leistung. Lernt mal Mathematik.</p>


hast du irgendwo eine rechnung gesehen?
wieso kommst du mit mathematik

aber mein gott dann halt nur für dich

die ps4 hat 50% mehrleistung als die xbo
tschuldigung, dass ich es falsch herum gesagt habe
ich habe / wollte einfach die zahlen von dem posting aufgreifen, auf das ich mich bezogen habe.

hat die xbo halt 33,333333333% weniger gpu leistung als die ps4

DinosaurusRex
2013-06-16, 18:03:15
Hier mal ein Forbes Artikel, der zu der Diskussion auf den letzten Seite passt:

Gamers will see a difference on Day One when they compare third party PS4 games to Xbox One head-to-head

In talking to a developer who wished to remain anonymous, gamers will see a difference on Day One when they compare third party PS4 games to Xbox One head-to-head. The developer told me the PS4 is 40 percent more powerful than Xbox One and games like Call of Duty Ghosts will be noticeably different out of the gate.

In the past, Xbox 360 games looked better out of the gate and over time PS3 games progressively improved to the point where games like The Last of Us and Beyond: Two Souls stand out even against some next gen titles. But if this differentiator holds true, not only will Xbox One games have DRM issues and no rental options and limited used game opportunities, the games won’t look as good as PS4 titles. That sounds like a perfect storm of negativity for the hardcore gamers.
This processing power issue also could be a potential reason behind the latest controversy that has emerged for Microsoft at E3, in which photos were taken of some Xbox One games running on Windows 7 PCs with NVIDIA graphics cards. Sony PS4 developers took to Twitter saying PS4 demos were running on PS4 dev kits. I know playing PS4 games behind closed doors that the PS4 was clearly visible as I played.

Quelle: Forbes (http://www.forbes.com/sites/johngaudiosi/2013/06/15/sony-playstation-4-launch-edition-already-sold-out-at-amazon/)

Botcruscher
2013-06-16, 18:29:53
Als PCler ist es mir eigentlich vollkommen egal auf welcher Dose es noch schlechter aussieht.
Da gibt es zwei ganz wichtige Dinge:
1. endlich keine Matschtexturen mehr
2. jede menge lustigen Konsoleros, die winzige Grafikunterschiede entdecken -> göttliche Flamewars.

PS: http://de.webfail.com/e1fee0a86d7

MarcWessels
2013-06-16, 18:42:27
Ähm, ich bin auch in erster Linie PC-Gamer und das macht MicroSofts gimpige SparBox ja doppelt ärgerlich. Der Generationssprung hätte 50% größer ausfallen können.... und darunter werden die PC-Versionen natürlich genauso leiden.Eigentlich ist der Unterschied doch sogar noch größer. Eine Konsole besteht ja nicht ausschließlich aus GPU.

MarcWessels
2013-06-16, 18:51:59
Und nein... das fällt kaum jemandem am TV in der üblichen Entfernung auf.Wie hoch ist denn die "übliche Entfernung"?

Frozone
2013-06-16, 19:03:41
Wie hoch ist denn die "übliche Entfernung"?
Die meisten Leute sitzen schon zu weit Weg vom TV um überhaupt den Unterschied zw. 720p und 1080p wahrzunehmen.
Viele sitzen 4m Weg bei 32-40"

Muselbert
2013-06-16, 19:04:00
Wie hoch ist denn die "übliche Entfernung"?

Hier im Forum sicherlich niedriger als bei Otto Normalverbraucher. Mein 37" TV steht 2m von mir entfernt. Im Vergleich dazu ist der Fernseher bei meinen Eltern mindestens 4m vom Sofa entfernt. Und aus der Entfernung dürfte es mit den Unterschieden durchaus schwer werden...

dargo
2013-06-16, 19:20:38
Wie hoch ist denn die "übliche Entfernung"?
Zu weit um feine Unterschiede auszumachen.

btw. +50% der PS4...

Worauf beziehen sich die +50% eigentlich genau? Nur auf Shaderleistung? Bekanntermaßen ist Shaderleistung nicht alles.

Eigentlich ist der Unterschied doch sogar noch größer. Eine Konsole besteht ja nicht ausschließlich aus GPU.
Wieso dann größer? Eher als Gesamtpaket kleiner wenn die CPUs identisch sind.

Demirug
2013-06-16, 19:31:00
Wie hoch ist denn die "übliche Entfernung"?

10 Fuß also ~3m. Mit diesem Wert wird bbei der Entwicklung gerechnet.

L233
2013-06-16, 19:31:52
btw. +50% der PS4...

Worauf beziehen sich die +50% eigentlich genau? Nur auf Shaderleistung? Bekanntermaßen ist Shaderleistung nicht alles.
Stimmt, da gibts z.B. auch noch die Bandbreite. Die dürfte bei der PS4 wohl mind. 100% höher sein...

Bzgl. Entfernung:
Ich sitze zurückgelehnt im Sofa ca. 2,5m von meiner 55" Glotze entfernt, was ich als fast optimal empfinde.

Coda
2013-06-16, 19:45:43
50% weniger Einheiten, von denen auch noch ein Teil nur für das UI reserviert ist? Und das soll nicht merkbar sein?
33% weniger, bzw. andersrum 50% mehr. Prozentrechnen für Anfänger.

00-Schneider
2013-06-16, 19:52:40
33% weniger, bzw. andersrum 50% mehr. Prozentrechnen für Anfänger.


Gereizt nach den schlechten Kritiken für Ryse, oder was?

------------------------------------

In Theory: Can next-gen fulfill the 1080p60 dream?

http://www.eurogamer.net/articles/digitalfoundry-in-theory-can-next-gen-console-fulfill-the-1080p60-dream

dargo
2013-06-16, 20:23:41
Stimmt, da gibts z.B. auch noch die Bandbreite. Die dürfte bei der PS4 wohl mind. 100% höher sein...

Ich frage mich gerade was man mit der Bandbreite anstellen will bei nur 50% mehr Shaderleistung? :confused:

Karümel
2013-06-16, 20:40:09
10 Fuß also ~3m. Mit diesem Wert wird bbei der Entwicklung gerechnet.

Was heißt genau "gerechnet", könntest Du das bitte genauer Erklären wie der Abstand berücksichtigt wird, Danke.

Hübie
2013-06-16, 20:40:34
33% weniger, bzw. andersrum 50% mehr. Prozentrechnen für Anfänger.

Mathematisch gesehen gibt es aber keine 101% oder mehr, da in der Mengenlehre 100 immer die Gesamtmenge darstellt. Also korrekterweise muss man klar sagen das die XB1 66% (ALU-)Rohleistung gegenüber der PS4 hat. Aber ich denke das jeder der hier anwesenden weiß was gemeint ist wenn solche Aussagen (50% mehr etc) gemacht werden...

Iruwen
2013-06-16, 20:42:09
Wenn die Xbox bei 720P ohne AA und AF bei 30 FPS aus dem letzten Loch pfeift und der gleiche Multiplattformtitel höher aufgelöst flüssig bei der PS4 läuft hat MS ein Problem, auch absolute Laien die sich NULL für Technologie interessieren sehen halt eindeutige optische Vorteile.
Der breiten Masse ist das völlig egal, ich nehm da einfach meine Freundin als Referenz. Die sieht keinen Unterschied zwischen GoW und GoW 3 und die sieht bei GoW 3 am Anfang auch nix flimmern. Zwischen PS2 Remakes und späten PS3 Games: da issn Unterschied? Sub 720p vs 1080p, war? AA? Hä? Wo flimmert da was? Da fehlt allein schon der direkte Vergleich. Und selbst dann würden sie es wohl nicht sehen.
Nehmt nicht euch oder eure technikaffinen Freunde als Referenz, die spielen kaum eine Rolle in einem Markt von wieviel, >200 Millionen potentiellen Käufern? Das sind die gleichen Leute die finden dass 368MP Handykameras tolle Bilder machen. So schön bunt.

Demirug
2013-06-16, 20:53:16
Was heißt genau "gerechnet", könntest Du das bitte genauer Erklären wie der Abstand berücksichtigt wird, Danke.

gerechnet bedeutet hier "man geht davon aus"

Das hat primär was mit dem UI Design zu tun. Es muss halt alles in diesem Abstand noch gut erkennbar sein.

dargo
2013-06-16, 20:53:42
10 Fuß also ~3m. Mit diesem Wert wird bbei der Entwicklung gerechnet.
Mich würde interessieren auf welche Diagonale ihr euch dabei bezieht.

Karümel
2013-06-16, 20:54:40
gerechnet bedeutet hier "man geht davon aus"

Das hat primär was mit dem UI Design zu tun. Es muss halt alles in diesem Abstand noch gut erkennbar sein.

Ah OK, aber 3 Meter von einem 32 Zoll und 3 Meter von einem 55 Zoll TV sind ja auch schon ein unterschied.

Edit: dargo hatte den gleichen Gedanken.

][immy
2013-06-16, 21:06:08
Ich frage mich gerade was man mit der Bandbreite anstellen will bei nur 50% mehr Shaderleistung? :confused:
zumal man nicht vergessen darf das die bandbreite nur im optimalfall erreichbar ist. real dürfte sie sehr viel geringer sein (gilt natürlich auch für den DDR3 speicher der xbox). hier hat der esram einen recht großen vorteil, weil die bandbreite auch tatsächlich erreicht wird. da er aber doch sehr klein ist, ist er für größere sachen zwar nicht so richtig zu gebrauchen, es dürfte aber schon den ganzen kleinkram vom langsameren ddr3 speicher fern halten (sollte beispielsweise für größere shader-berechnungen optimal sein). so gesehen kann man viele sachen sehr effizient lösen, braucht aber wohl einige optimierungen. so dürfte man besonders mit der shaderleistung (aufgrund geringerer wartezeiten) einiges gut mahcen können, von einem schnelleren austausch zwischen cpu und gpu mal ganz zu schweigen.
ich sag ja nicht das die xbox one schneller wäre, aber sie wird halt nicht so weit zurück liegen wie befürchtet. in nicht optimalen situationen für die bursts (des DDR3/GDDR5 speichers) dürfte die xbox one dank des esram sogar eine hörere bandbreite zur verfügung haben.

was aber die grafik der first-party titel angeht, so wird sicherlich sony immer die oberhand haben. künstlerisch sah es bei ms bisher immer sehr mau aus und hier hat sony halt die studios die es wirklich können. das lag bisher eigentlich nie an überlegener hardware sondern immer am artwork/design.

Hübie
2013-06-16, 21:22:17
Also ich kann mir gut vorstellen das die NexGen Fluch und Segen zu gleich werden. Einerseits kostet es Entwickler in Zukunft weniger Zeit und Geld Spiele zu portieren andererseits können die Spiele auf dem PC so länger zurück halten. Die Preise der kommenden Games werden sicher nicht schön.

Demirug
2013-06-16, 21:32:31
Mich würde interessieren auf welche Diagonale ihr euch dabei bezieht.
Ah OK, aber 3 Meter von einem 32 Zoll und 3 Meter von einem 55 Zoll TV sind ja auch schon ein unterschied.

Edit: dargo hatte den gleichen Gedanken.

Ich mache gerade keine Konsolen/TV Sachen (Strategie Spiele gehen nicht so gut mit den DPad). Die Guides für die aktuelle Generation gingen mal von 32 Zoll aus. Könnte sein das man das inzwischen etwas angehoben hat. Die 32 Zoll sind bei 10 Fuß die Größe bei welcher die meisten bei 480p die Auflösung "sehen".

Für alle die es interesiert hier noch ein paar Schwellen

720p 50 Zoll
1040p 75 Zoll
1440p 100 Zoll

Aus Qualitätsgründen sollte man immer eine Stufe höher sein. Also bis 32 Zoll 720p, bis 50 1040p usw.

Und ja man kann mit entsprechendem Training die Auflösung auch früher "sehen". In der Regel sind es aber eher Artefakte als zu geringe Auflösung die wahrgenommen werden.

L233
2013-06-16, 23:01:06
Ich frage mich gerade was man mit der Bandbreite anstellen will bei nur 50% mehr Shaderleistung? :confused:
Zwei Punkte:
1. Die Xbone mit ihrer Bandbreite auf gehobenem Low-End-Niveau könnte schonmal in einigen Fällen bandbreitenlimitiert sein, zumal sich die GPU die Bandbreite mit der CPU teilen muss. Mehr Bandbreite beseitigt diesen Falschenhals.
2. Nicht benötigte Bandbreite kann man natürlich immer für bandbreitenintensive Dinge verwenden, beispielsweise MSAA.

Die PS4 scheint eine recht ausbalancierte Architektur zu haben. Die GPU entspricht ungefähr einer Radeon 7850, wobei die PS4 wahrscheinlich etwas mehr Speicherbandbreite zur Verfügung hat (wenn die angenommenen Taktraten stimmen). Da die CPU ebenfalls auf den Speicher zugreift, bleibt für die GPU unterm Strich ungefähr das gleiche übrig, wie bei der 7850 Grafikkarte.

Die Xbone GPU hingegen entspricht so ungefähr der Radeon 7770, allerdings mit deutlich weniger Bandbreite als diese, wenn man berücksichtigt, dass die CPU auch etwas davon haben möchte.

Vergleicht man die 7770 mit der 7850 auf dem PC bei 1920x1200, dann hat die 7850 unter Verwendung von 4x MSAA teilweise bereits 60% Leistungsvorsprung. Würgt man die 7770 mit noch weniger Bandbreite ab (wie es die Xbone tut), würde das Bild wohl noch schlechter aussehen....

SamLombardo
2013-06-16, 23:02:26
Wie ist das eigentlich, wenn ich ein natives 1080p Spiel auf einem Bildschirm mit 720p Bildpunkten laufen lasse....habe ich doch gewissermaßen den Effekt von Downsampling, also gutes AA, Eliminieren von flimmern usw. Oder ist da irgendwo ein Denkfehler?

L233
2013-06-16, 23:02:35
[immy;9809558']zumal man nicht vergessen darf das die bandbreite nur im optimalfall erreichbar ist. real dürfte sie sehr viel geringer sein (gilt natürlich auch für den DDR3 speicher der xbox). hier hat der esram einen recht großen vorteil, weil die bandbreite auch tatsächlich erreicht wird.
Hast Du dafür irgend eine Quelle oder zumindest handfeste technische Hintergrundsinformationen... weil das klingt für mich nach ziemlichem Unsinn, zumal das mickrige ESRAM mit ca. 100 GB/s jetzt auch kein Geschwindigkeitswunder ist, schon gar nicht im Vergleich zu den massiven 176 GB/s der PS4. Da helfen auch etwaige Effizienzvorteile nichts mehr...

dargo
2013-06-16, 23:03:41
@L233

Du vergisst in deiner Rechnung den esram.

L233
2013-06-16, 23:13:59
@L233

Du vergisst in deiner Rechnung den esram.
Ja, ich erwarte mir da auch keine Wunder von diesem Winzig-Speicher, zumal der gerademal 50% schneller ist als der Hauptspeicher. Was soll der schon reissen? Ich lasse mich aber gerne von kundiger Seite eines besseren belehren...

Avalox
2013-06-16, 23:15:32
Zwei Punkte:
1. Die Xbone mit ihrer Bandbreite auf gehobenem Low-End-Niveau könnte schonmal in einigen Fällen bandbreitenlimitiert sein,

Natürlich ist die Xbox One bandbreitenlimitiert zum Hauptspeicher, ansonsten hätte sie ja keine 32MB eSRAM bekommen.

Wenn der Entwickler bei Forbes von 40% Mehrleistung der PS4 spricht, dann subsumiert er dieses ja nicht auf die Grafik, sondern aufs gesamte System. Schnellere GPU, schnellerer Speicher, mehr Speicher, und und und. Ich denke wir können mal gespannt sein.
Mehr als ein Drittel Unterschied ist erheblich und auch ohne direkten Vergleich erkennbar.

L233
2013-06-16, 23:25:50
Ich frage mich eh, warum AMD/NV in ihren GPUs kein ESRAM verbauen, wenn diese tolle Voodoo-Lösung es ihnen erlauben würde, billigen DDR3 statt teuren GDDR5 zu verbauen...

][immy
2013-06-16, 23:33:34
Hast Du dafür irgend eine Quelle oder zumindest handfeste technische Hintergrundsinformationen... weil das klingt für mich nach ziemlichem Unsinn, zumal das mickrige ESRAM mit ca. 100 GB/s jetzt auch kein Geschwindigkeitswunder ist, schon gar nicht im Vergleich zu den massiven 176 GB/s der PS4. Da helfen auch etwaige Effizienzvorteile nichts mehr...
informiere dich einfach über die speichertechnologien. DDR bzw. GDDR Speicher erreicht seine höhere Banbreite fast ausschlieslich durch die Bursts. Diese können aber nur in optimalen Fällen voll ausgenutzt werden. Während der esram so etwas nicht kennt und daher die Bandbreite von 100GB auch tatsächlich erreicht wird. und das bei geringerer antwortzeit.
Ergo alles was an Berechnungen klein genug ist und in die 32mb passt kann extrem schnell verarbeitet werden.
Das wird nicht ausreichen um alles auszugleichen, aber halt so manches.

prinz_valium
2013-06-16, 23:39:30
ja eben
und weil der normale seicher bandbreitenlimitiert WÄRE, wenn er denn nur alleine vorhanden WÄRE, hat ms sich gedacht; bauen wir esram ein. ist doch klar. alles andere ist hirnrissig.


das passt schon. und zusammen mit der schwächeren gpu, wird die speicherbandbreite von ram und esram ausreichend sein.


dazu etwas mehr reservierung und das aufwändigere os und forbes trifft es schon ganz gut mit den 40% over all. eben 33% grafik und 7 prozent rest :)
das wird bei fist party durchaus große unterschiede machen können, wenn es nur berechung auf der konsole alleine geht. (ms hat ja noch infitity could power :D). aber bei third party wird es halt so aussehen

ps4 bekommt 1080p und 60hz, xbo dafür aber nur 720p bei 60hz oder eben 1080p bei 30.
oder es gibt unterschiede bei aa und af. aber eben keine komplett anders aussehende spiele.

es wird aber genauso auch folgendes geben. es wird auf beiden konsolen das komplett selbe zu sehen sein, also 1080p und 60hz bei beiden konsolen und es wird erreicht indem auf der einen oder anderen seite mit weniger oder mehr aufwand optimiert wird / werden muss.

für pc spieler mit bq fetisch, wird somit also natürlich die ps4 die interessantere kohle, aber für nen normalen konsolero wird der leistungsunterschied und die dadurch resultierenden bq unterschiede eher vernachlässigbar sein...

Ich frage mich eh, warum AMD/NV in ihren GPUs kein ESRAM verbauen, wenn diese tolle Voodoo-Lösung es ihnen erlauben würde, billigen DDR3 statt teuren GDDR5 zu verbauen...

weil sie daruch keine preisvorteile bei shrinks haben, da es dann schon wieder ganz andere chips mit anderen architektueren sind
weil die chips dadurch viel zu groß würden. weil es bei den kleinen chips nicht so wirklich nötig ist?

L233
2013-06-16, 23:39:55
[immy;9809777']informiere dich einfach über die speichertechnologien. DDR bzw. GDDR Speicher erreicht seine höhere Banbreite fast ausschlieslich durch die Bursts. Diese können aber nur in optimalen Fällen voll ausgenutzt werden. Während der esram so etwas nicht kennt und daher die Bandbreite von 100GB auch tatsächlich erreicht wird. und das bei geringerer antwortzeit.
Ergo alles was an Berechnungen klein genug ist und in die 32mb passt kann extrem schnell verarbeitet werden.
Das wird nicht ausreichen um alles auszugleichen, aber halt so manches.
Nein, sorry, aber das ist mit zu allgemeines Gebrabbel. Keine konkreten Zahlen, keine handfesten Informationen, wie sich das auf die relevanten Use-Cases bei Echtzeit-Grafik auswirkt usw. Mit so Bla-Bla wie "informiere Dich einfach über die Speichertechbnologien" brauchst Du mir nicht zu kommen. Wenn Du nicht einmal ansatzweise quantifizieren kannst, was der Voodoo-ESRAM nun bringen soll, dann spekulierst Du letztendlich auch nur.

MarcWessels
2013-06-16, 23:43:05
Bzgl. Entfernung:
Ich sitze zurückgelehnt im Sofa ca. 2,5m von meiner 55" Glotze entfernt, was ich als fast optimal empfinde.Ich 1.79 Meter von 50", die ich als zu klein empfinde.

prinz_valium
2013-06-16, 23:44:03
Nein, sorry, aber das ist mit zu allgemeines Gebrabbel. Keine konkreten Zahlen, keine handfesten Informationen, wie sich das auf die relevanten Use-Cases bei Echtzeit-Grafik auswirkt usw. Mit so Bla-Bla wie "informiere Dich einfach über die Speichertechbnologien" brauchst Du mir nicht zu kommen. Wenn Du nicht einmal ansatzweise quantifizieren kannst, was der Voodoo-ESRAM nun bringen soll, dann spekulierst Du letztendlich nur.


langsam wirds lächerlich
warum verbaut man cash bei ner cpu? was bringt der müll? kann man doch weglassen, bald gibt es ddr4 speicher ist doch voll schnell.

also echt mal. man muss nichtmal ahung von der sache haben und zu wissen, dass das zeug was bringt. aber klar man baut halt nutzlosen scheiß auf die hälfte der fläche des dies :D

Avalox
2013-06-16, 23:45:56
Ich frage mich eh, warum AMD/NV in ihren GPUs kein ESRAM verbauen, wenn diese tolle Voodoo-Lösung es ihnen erlauben würde, billigen DDR3 statt teuren GDDR5 zu verbauen...

Weshalb sollten sie diese tun? Es ist eine Krücke.
Steht ja jeden frei ordentlichen Speicher zu verwenden. Manche tun es andere nicht.

][immy
2013-06-16, 23:55:27
Nein, sorry, aber das ist mit zu allgemeines Gebrabbel. Keine konkreten Zahlen, keine handfesten Informationen, wie sich das auf die relevanten Use-Cases bei Echtzeit-Grafik auswirkt usw. Mit so Bla-Bla wie "informiere Dich einfach über die Speichertechbnologien" brauchst Du mir nicht zu kommen. Wenn Du nicht einmal ansatzweise quantifizieren kannst, was der Voodoo-ESRAM nun bringen soll, dann spekulierst Du letztendlich auch nur.

Ist zwar ein etwas anderes Szenario, aber um es zu vereinfachen, schau dir mal an wie langsam dein System ohne L2 Cache ist. Dann verstehst du vielleicht was ein schneller Cache ausmachen kann. Stell dir den esram nun einfach als geteilten L3 Cache vor und gehe davon aus das in der grafikberechnung nicht alles nur aus Texturen besteht.

oder schau dir mal die Xbox 360 und ps3 an, wo der edram so einiges ausgemacht hat.

Gipsel
2013-06-17, 00:02:25
[immy;9809558']zumal man nicht vergessen darf das die bandbreite nur im optimalfall erreichbar ist. real dürfte sie sehr viel geringer sein (gilt natürlich auch für den DDR3 speicher der xbox).Warum?
Was bisher typischerweise auf die GPUs losgelassen wurde, kann meist sehr wohl die Bandbreite recht gut nutzen. Ansonsten würden GPUs auch nicht so gut funktionieren.
[immy;9809558']hier hat der esram einen recht großen vorteil, weil die bandbreite auch tatsächlich erreicht wird.Und wodurch soll das erreicht werden? Die niedrige Latenz bringt bei Situationen im Bandbreitenlimit ziemlich wenig. Es hilft bei eher kleinteiligen latenzlimitierten Aufgaben. Aber beim Rendern verantaltet man vermutlich eher selten Pointerchasing. Also es kann in einigen Situationen schon was bringen, aber von einem "recht großen Vorteil" würde ich da abseits von Spezialfällen nicht reden. Der Vorteil dürfte meist eher überschaubar sein. Der eSRAM gleicht in erster Linie das Bandbreitendefizit aus. Die GPU-Caches vermindern vermutlich die Vorteile des eSRAM gegenüber einem gleich schnellen Speicherinterface etwas (bzw. bei der PS4 ist ja das GDDR5-Interface so schnell wie bei XB1 das DDR3+eSRAM zusammen). Und als Entwickler hat man das Problem, daß man ja möglichst das DDR3-Interface und die eSRAM-Bandbreite parallel auslasten muß, wenn Knappheit an Bandbreite herrscht. Man muß sich da also schon recht genau überlegen, wie man das aufteilt, also was man wohin legt. Das spart man sich bei der PS4 komplett womit die Nutzung der Bandbreite einfacher wird und vermutlich oft auch etwas besser (weil das Balancing zwischen DDR3 und eSRAM bei der XB1 selten ganz perfekt ausfallen dürfte).

Daß da nicht wirklich mehr als bei der PS4 gehen dürfte, erkennt man vielleicht auch daran, daß MS in der XB1 auch nur die Hälfte der ROPs gegenüber der PS4 verbaut (16 vs. 32). Aber das könnte vielleicht sogar angesichts der insgesamt schmaleren Hardware ein gerechtfertigter Kompromiß sein. Denn bei Sony werden mit 64Bit-Farbformaten und mit Blending die ROPs vermutlich ab und zu ein wenig brachliegen, da Bandbreite fehlen könnte (siehe Pitcairn vs. Tahiti, beide mit 32 ROPs), was bei nur 16 ROPs wohl eher selten ein Problem sein dürfte (es sei denn, man nutzt den eSRAM nicht). Immerhin hat man wenigstens wie bei Bonaire ein Dual-Frontend (Setup/Raster von 2 Dreiecken bis zu 32 Pixel/Takt) mit den 16 ROPs kombiniert.
[immy;9809558']da er aber doch sehr klein ist, ist er für größere sachen zwar nicht so richtig zu gebrauchen, es dürfte aber schon den ganzen kleinkram vom langsameren ddr3 speicher fern halten (sollte beispielsweise für größere shader-berechnungen optimal sein).Coda möge mich berichtigen, aber ich würde vermuten, die meisten fangen damit an, ihre Rendertargets im eSRAM zu halten, soweit es möglich ist.
Daß es für irgendwelche ausgefalleneren Shadersachen auch gut geeignet sein kann, bleibt davon ja unbenommen. Aber es muß immer auch noch reinpassen. :rolleyes:
[immy;9809558']von einem schnelleren austausch zwischen cpu und gpu mal ganz zu schweigen.Inwiefern gibt es da einen Unterschied zwischen PS4 und XB1?
[immy;9809558']ich sag ja nicht das die xbox one schneller wäre, aber sie wird halt nicht so weit zurück liegen wie befürchtet. in nicht optimalen situationen für die bursts (des DDR3/GDDR5 speichers) dürfte die xbox one dank des esram sogar eine hörere bandbreite zur verfügung haben.Die GPU fetched immer in Einheiten von 64Bytes (Länge einer Cacheline). Das sind von einem Speicherkanal sogar 2 Bursts in Folge, wenn nicht die zwei Kanäle an einem 64Bit-Controller interleaved laufen (dann für beide ein kompletter Burst). Also in der Frage dürfte die eSRAM-Geschichte gar keinen Vorteil haben. Es ist nur die Latenz, die vermutlich kleiner ist.
Und je nachdem, wie der eSRAM genau angesteuert wird, könnte es Vorteile aufgrund geringerer Contention geben (also weniger Konflikte, weil die Anfragen an die Controller nicht gleichverteilt sind).
Wenn z.B. der eSRAM mit 800MHz laufen sollte, dann benötigt der eine Anbindung von 1024 Bit bzw. 128 Byte/Takt für die Bandbreite von 102,4 GB/s. Wie gesagt werden immer 64Byte am Stück angefordert. Wenn man nicht einfach Interleaving wie bei den Speichercontrollern macht (dann gäbe es keinen Vorteil), muß der also mindestens schon mal (pseudo-)multiported mit ein paar Bänken sein, damit man Konflikte (weitgehend) ausschließt. Oder er läuft mit 1,6GHz und einem 64 Byte-Port.

Also zumindest wenn die nicht irgendwas Abgefahrenes basteln und dann z.B. aus einem Shader an den Caches bzw. Write-Combining-Puffern vorbei mit kleinerer Granularität in den eSRAM geschrieben werden kann (geht ziemlich sicher nicht für ROP-Exports, aber vielleicht für RWbuffer oder RWtextures). Aber wetten würde ich darauf nicht, das wäre eine ziemliche Umstellung, die sicher auch noch weitere Änderungen erforderlich machen würde. Außerdem müßte der eSRAM dann bei 64Bit-Granularität 16 Ports besitzen (bei 1,6GHz für den eSRAM noch 8 Ports). Sowas kostet auch Die-Fläche bzw. Stromverbrauch.

Edit:
[immy;9809805']Ist zwar ein etwas anderes Szenario, aber um es zu vereinfachen, schau dir mal an wie langsam dein System ohne L2 Cache ist. Dann verstehst du vielleicht was ein schneller Cache ausmachen kann. Stell dir den esram nun einfach als geteilten L3 Cache vor und gehe davon aus das in der grafikberechnung nicht alles nur aus Texturen besteht.Schlechtes Beispiel. CPU-Caches erhöhen sowohl die Bandbreite und verringern die Latenz. Hier erhöht der eSRAM der XB1 die Bandbreite mitnichten über das Niveau der PS4. Zudem laufen auf CPUs meist relativ latenzsensitive Sachen. GPUs handhaben dagegen meist latenztolerante, durchsatzorientierte Aufgabenstellungen. Hier ist Bandbreite also meist wesentlich wichtiger als Latenz.
[immy;9809805']oder schau dir mal die Xbox 360 und ps3 an, wo der edram so einiges ausgemacht hat.
Latenzvorteile hat es da eher nicht gegeben. Da war es als Vorteil der 360 mit eDRAM gegenüber der PS3 auch die eingesparte Bandbreite für die ROPs, die das Speicherinterface nicht belastet hat. Der eDRAM war ja nur für die ROPs da, die in heutigen GPUs eigene Caches haben, die intern die nötige Bandbreite für MSAA/Blending bereitstellen (wie der 256GB/s eDRAM der XBox360) und zusätzlich Z-Kompression und für MSAA Framebufferkomprimierung unterstützen, um externe Bandbreite zu sparen (was die XB360 nicht konnte, war aber bei der hohen Bandbreite des eDRAM auch nicht nötig). Deswegen kommt ja die XB1 trotz doppelt so vieler ROPs bei 60% höherem Takt (mehr als dreifache Pixelfüllrate) mit weniger als der Hälfte der eDRAM/eSRAM-Bandbreite aus. ;)

Hübie
2013-06-17, 00:10:39
@L233: Anhand von Haswell kannst du dir das in etwa ausmalen was es bringt schnellen Speicher direkt anzubinden. Glaube der 4670HQ hat eDRAM. Ist zwar eine völlig andere Speichertechnologie aber da sieht man ja dass es durchaus einen anständigen Schub geben kann. SRAM hat noch den Vorteil keine refreshes zu brauchen. Voodoo ist das aber immer noch nicht. Sagt ja auch niemand.

L233
2013-06-17, 00:12:18
langsam wirds lächerlich
warum verbaut man cash bei ner cpu? was bringt der müll?
Das eSRAM ist eine Krücke, sonst nichts. Und der Cache-Vergleich ist absolut lächerlich. Das eSRAM ist nie und nimmer als Cache implementiert. Das ist wahrscheinlich ein einfach nur eine Region des physikalischen Adressraumes.

L233
2013-06-17, 00:15:41
@L233: Anhand von Haswell kannst du dir das in etwa ausmalen was es bringt schnellen Speicher direkt anzubinden. Glaube der 4670HQ hat eDRAM. Ist zwar eine völlig andere Speichertechnologie aber da sieht man ja dass es durchaus einen anständigen Schub geben kann. SRAM hat noch den Vorteil keine refreshes zu brauchen. Voodoo ist das aber immer noch nicht. Sagt ja auch niemand.
Auch beim Haswell ist's ne Krücke um fehlende Bandbreite zu kaschieren. Großer Speicherpool mit hoher Bandbreite ist immer noch deutlich besser als großer Speicherpool mit niedriger Bandbreite + kleinen Speicherpool mit etwas höherer Bandbreite.

Und klar bringst's was, sonst würde MS es ja nicht implementieren. Es bleibt jedoch eine Krücke, die den Bandbreitennachteil nie und nimmer voll aufwiegen kann.

Hübie
2013-06-17, 00:18:59
Ja das bestreite ich nicht. Du wolltest lediglich wissen wieviel es bringen könnte. Bei Haswell hat man ja zwei identische GPUs wovon eine eDRAM hat.

L233
2013-06-17, 00:26:00
Ja das bestreite ich nicht. Du wolltest lediglich wissen wieviel es bringen könnte. Bei Haswell hat man ja zwei identische GPUs wovon eine eDRAM hat.
Wobei Haswell über ein 64bit schmales Speicherinterface auf DDR1600 zugreift. Da ist die Bandbreitenbremse noch mal deutlich schärfer als bei der Xbone. Wobei letztere natürlich "Infinite Power" aus der Cloud ziehen kann, also egal.:redface:

][immy
2013-06-17, 00:28:33
<p>Auch beim Haswell ist's ne Krücke um fehlende Bandbreite zu kaschieren. Großer Speicherpool mit hoher Bandbreite ist immer noch deutlich besser als großer Speicherpool mit niedriger Bandbreite + kleinen Speicherpool mit etwas höherer Bandbreite.</p>
<p>&nbsp;</p>
<p>Und klar bringst's was, sonst würde MS es ja nicht implementieren. Es bleibt jedoch eine Krücke, die den Bandbreitennachteil nie und nimmer voll aufwiegen kann.</p>
<p>&nbsp;</p>
<p>hab nie bestritten das es de Krücke ist um günstigeren Speicher zu verwenden, aber das Zeugs hat durchaus auch seine Vorteile, und kann dadurch durchaus auch anderes beschleunigen und dadurch ein wenig Leistung wieder gut machen.</p>
<p>&nbsp;</p>
<p>Letztlich wird sich das ganze aber wohl erst in ein paar Jahren zeigen, wenn nicht mehr die last gen Lead Plattformen sind.</p>
<p>bis dahin werden wir bei Multis wohl nicht selten 1080p60 zu sehen bekommen auf beiden Plattformen. Hier und da vielleicht mit ein paar Details weniger.</p>

Sry für die Tippfehler, leider mobil und der edit-Modus gibt dem ganzen den rest

Gipsel
2013-06-17, 00:32:56
Ja das bestreite ich nicht. Du wolltest lediglich wissen wieviel es bringen könnte. Bei Haswell hat man ja zwei identische GPUs wovon eine eDRAM hat.Und damit eine größere nutzbare Bandbreite. Das macht den Vergleich ungeeignet. Man müßte Haswell GT3e mit eDRAM und Dualchannel DDR3-1600 (25,6GB/s DDR3 + ~50GB/s eDRAM = ~76GB/s Gesamtbandbreite) z.B. mit einem Haswell mit GT3 Grafik ohne eDRAM aber dafür mit Quadchannel DDR3-2400 Speicherinterface (76,8GB/s) vergleichen.

prinz_valium
2013-06-17, 01:14:38
Und klar bringst's was, sonst würde MS es ja nicht implementieren. Es bleibt jedoch eine Krücke, die den Bandbreitennachteil nie und nimmer voll aufwiegen kann.

na da kommen wir der sache ja schon mal näher. denn genau das habe ich ja wohl auch gesagt

trotzdem gibt es absolut keine bisherigen beweise / fakten, dass die xbo zusammen mit ddr3 PLUS esram einen speicherbandbreiten nachteil im gegensatz zur ps4, der sich negativ auswirkt und nicht nur einfach geringer ist. das ist nämlich nur ein langweiliger fakt, der sich so schön an den zahlen ablesen lässt :D

eine gtx 680 hat auch weniger speicherbandbreite als eine 7950 ist das jetzt ein großer nachteile für die 680, wenn es nicht gerade auf ganz spezielle szenarien zu geht? wohl kaum


also die xbo mit ihren 33% weniger grafik"leistung" sowie ddr3 PLUS esram, hat für ihre verhältnisse genug, ausreichend und ordentlich speicherbandbreite.

Coda
2013-06-17, 01:23:55
Wie ist das eigentlich, wenn ich ein natives 1080p Spiel auf einem Bildschirm mit 720p Bildpunkten laufen lasse....habe ich doch gewissermaßen den Effekt von Downsampling, also gutes AA, Eliminieren von flimmern usw. Oder ist da irgendwo ein Denkfehler?
Hast du nicht, das sollte so sein.

Coda möge mich berichtigen, aber ich würde vermuten, die meisten fangen damit an, ihre Rendertargets im eSRAM zu halten, soweit es möglich ist.
Jup, das ist aber auch logisch.

Und natürlich bringt der ESRAM ganz gewaltig was.

Iruwen
2013-06-17, 01:42:26
Wobei simples 1080p auf 720p Downsampling jawohl weder wirklich "gutes" AA ist (im Sinne von effizient) noch Flimmern eliminiert. Schön wärs, dann hätte ich am PC die perfekte Welt.

AwesomeSauce
2013-06-17, 02:13:20
Jup, das ist aber auch logisch.
Bei 1080p müsste der G-Buffer eines Deferred Renderers aber ziemlich kompakt sein, um vollständig in das ESRAM zu passen.

Hallo
2013-06-17, 06:22:43
Wie ist das eigentlich, wenn ich ein natives 1080p Spiel auf einem Bildschirm mit 720p Bildpunkten laufen lasse....habe ich doch gewissermaßen den Effekt von Downsampling, also gutes AA, Eliminieren von flimmern usw. Oder ist da irgendwo ein Denkfehler?

Gute Frage. Ich besitze einen 1366x768 Plasma und kann aus Erfahrung sagen das bei 1080p Zuspielung das Bild feiner wirkt. Ob das an der geringfügig besser ausgenutzten Pixelanzahl (720p/1280x720 zu 1366x768@1080p) liegt weiss ich auch nicht so recht. Der Scaler spielt definitiv mit den RGB Subpixeln herum, muss er auch. Aber ja man könnte evtl. von Downsampling reden.

Müsste ich mal mit kritischem Material ausprobieren ob da auch sowas wie AA rauskommt.
Was aber wohl immer der Fall sein wird ist das der Inputlag steigt da die Glotze mehr berechnen muss. Deshalb spiele ich nur bei Filmen 1080p zu.


@AwesomeSauce

Mal ne nOOb Frage: Ist das Deffered Rendering von dem du sprichst das gleiche Prinzip wie das der alten PowerVR2 aka Dreamcast GPU?

Und wäre Tile Based Rendering wie bei bei der PowerVR heute auch möglich? Und weiterhin, ist Tile Based Rendering und Deferred Rendering zwei Paar Schuhe?

Hab mich mal schlau gemacht und verstand leider nur Bahnhof. Was ich aber weiss das die Tile Geschichte extrem effektiv sein soll was nicht sichtbare Polygone betrifft.

DrMabuse1963
2013-06-17, 07:35:45
Der breiten Masse ist das völlig egal, ich nehm da einfach meine Freundin als Referenz. Die sieht keinen Unterschied zwischen GoW und GoW 3 und die sieht bei GoW 3 am Anfang auch nix flimmern. Zwischen PS2 Remakes und späten PS3 Games: da issn Unterschied? Sub 720p vs 1080p, war? AA? Hä? Wo flimmert da was? Da fehlt allein schon der direkte Vergleich. Und selbst dann würden sie es wohl nicht sehen.
Nehmt nicht euch oder eure technikaffinen Freunde als Referenz, die spielen kaum eine Rolle in einem Markt von wieviel, >200 Millionen potentiellen Käufern? Das sind die gleichen Leute die finden dass 368MP Handykameras tolle Bilder machen. So schön bunt.
+1
Das größere M$ Problem dürfte da der Preis sein , wenn Mutti oder andere Technisch Uninformierte das Teil für Sohnemann zu Weihnachten kaufen wollen und daneben steht die PS4 für 400€ sollte die Entscheidung in den meisten Fällen über das Portemonnaie gemacht werden...

M4xw0lf
2013-06-17, 07:51:11
Und natürlich bringt der ESRAM ganz gewaltig was.
Gegenüber keinem ESRAM, aber gegenüber GDDR5 wie bei der PS4?

L233
2013-06-17, 08:18:08
Der breiten Masse ist das völlig egal, ich nehm da einfach meine Freundin als Referenz. Die sieht keinen Unterschied zwischen GoW und GoW 3 und die sieht bei GoW 3 am Anfang auch nix flimmern.
Und wie viele Games kauft Deine Freundin so im Jahr?

Hier wird mal wieder die Wichtigkeit und Umsatzstärke von Casuals und Gelegenheitsspielern komplett überschätzt. Die Leute, die richtig Geld für dieses Hobby ausgeben, und die somit das Geld in die Kassen spülen, haben nämlich zumeist etwas höhere Ansprüche. Die Leute, die diese Spiele intensiv spielen, bemerken SEHR WOHL grafische Fortschritte bei Sequels usw.

Ich würde den Grafikaspekt nicht unterschätzen. Oder meinst Du, The Last of Us wäre auch überall ausverkauft, wenn es grafisch wie ein HD-Remake eines PS2-Games daherkommen würde? Hätte FF VII so einen Massen-Appeal gehabt ohne spektakuläre Renderfilmchen?

Ich halte dieses "Grafik ist unwichtig, die meisten Leute sehen eh keinen Unterschied, auf dem TV schon gar nicht" Argument in dieser einfachen Form bestenfalls für fragwürdig. Wen interessiert es, ob ein Non-Gamer oder irgend jemand, der über den gesamten Lebenszyklus der Konsole vielleicht mal 2-3 Games kauft (i.e. die meisten Wii-Käufer), einen Unterschied sieht?

Lightning
2013-06-17, 08:30:39
Wobei simples 1080p auf 720p Downsampling jawohl weder wirklich "gutes" AA ist (im Sinne von effizient) noch Flimmern eliminiert. Schön wärs, dann hätte ich am PC die perfekte Welt.

Flimmern eliminieren tut es selbstverständlich nicht, verringern aber schon.

Müsste ich mal mit kritischem Material ausprobieren ob da auch sowas wie AA rauskommt.

Wenn der Scaler nicht totalen Mist baut, ist das natürlich genau das, was hier als Downsampling bezeichnet wird.

Was aber wohl immer der Fall sein wird ist das der Inputlag steigt da die Glotze mehr berechnen muss. Deshalb spiele ich nur bei Filmen 1080p zu.

D.h. du lässt Spiele zentriert ausgeben, mit Rändern an den Seiten?

DinosaurusRex
2013-06-17, 10:54:01
Mal angenommen der Forbes Artikel sagt die Wahrheit und die PS4 hat summa summarum 40% mehr Leistung zur Verfügung.

Wie stehen die Aussichten, dass die PS4 Versionen von 3rd-Party Spielen in den kommenden Jahren keine native 1080p Renderauflösung verwenden werden? Kann man das mehr oder weniger ausschließen oder wird das genauso Enden wie bei PS360?

Iceman346
2013-06-17, 10:59:03
1080p sind 2,25 mal so viele Pixel wie 720p. Die 40% Mehrleistung wiegt das also nicht auf.

Ich gehe davon aus, dass 60fps und 1080p die ersten Opfer sein werden wenn der Detailgrad der Grafik erhöht werden soll und die Leistung nicht mehr reicht.

Frozone
2013-06-17, 11:05:17
Vor allem darf man nicht die XBone vergessen. Wenn die in 1080/30 läuft werden die Spiele nicht auf der PS4 mit 1080/60 laufen, sonder man wird lieber versuchen die Details zu erhöhen, weil das den Leuten ehr auffällt als 60Fps, auch wenn wir es uns anders wünschen.
60fps wird wohl das erste sein was bei den Spielen wegfällt.

DinosaurusRex
2013-06-17, 11:17:16
Zwischen 1920x1080 und 1280x720 gibt es aber ne ganze Menge Spielraum.

Warum sollte man also direkt wieder direkt auf 720p runtergehen? Was würde denn zum Beispiel gegen 1600x900 für die XBox One sprechen?

dargo
2013-06-17, 11:22:11
Zwischen 1920x1080 und 1280x720 gibt es aber ne ganze Menge Spielraum.

Warum sollte man also direkt wieder direkt auf 720p runtergehen? Was würde denn zum Beispiel gegen 1600x900 für die XBox One sprechen?
Normalerweise nichts. Höchstens minderwertige TV-Scaler. Hab aber keine Ahnung wie bsw. 1600x900 im Vergleich zu 1280x720 auf einem Full-HD TV aussieht, nie probiert. Eigentlich sollte es beim guten Scaler besser aussehen.

DinosaurusRex
2013-06-17, 11:22:59
Microsoft behauptet ja selber, sie hätten einen sehr guten Scaler, der sogar mit HD4K TVs fertig wird.

Iceman346
2013-06-17, 11:25:33
Zwischenauflösungen wären natürlich eine Möglichkeit. Da gehe ich von aus das man solche Umsetzungen wo die PS4 volles 1080p hat und die Xbone leicht reduzierte Zeilenauflösung sehe wird.

Aber ich schätze auch 720p Titel werden nicht tot sein diese Generation ;)

Avalox
2013-06-17, 11:32:54
Die PS4 soll sich schon in der Produktion befinden und im September auf eine Million Gerät/Monat hochgefahren sein.

http://www.digitimes.com/news/a20130611PD207.html

DinosaurusRex
2013-06-17, 11:37:15
Na da bin ich mal gespannt, ob die prophezeiten Lieferengpässe wirklich eintreten. ;)

dargo
2013-06-17, 11:40:18
Zwischenauflösungen wären natürlich eine Möglichkeit.
Da fällt mir gerade ein... man könnte auch 1280x1080 anstatt 1600x900 nutzen. Wurde ja auch schon bei GT5 realisiert.

Coda
2013-06-17, 11:41:14
Bei 1080p müsste der G-Buffer eines Deferred Renderers aber ziemlich kompakt sein, um vollständig in das ESRAM zu passen.
Wer sagt, dass er das muss?

DinosaurusRex
2013-06-17, 11:46:23
Wie sieht es denn eigentlich aus mit diesem double frame scanning Zeugs, das Timothy Lottes von Epic Games kurz vor der PS4 Vorstellung vor ein paar Monaten angesprochen hat? Also wo das Spiel dann mit 30FPS gerendert wird, aber durch diesen Scan-Trick und ganz viel Motion Blur dann flüssiger und mit weniger Input-Lag dargestellt werden kann.

Ist das eine realistische Alternative für die Next Gen?

Iceman346
2013-06-17, 11:54:28
Da fällt mir gerade ein... man könnte auch 1280x1080 anstatt 1600x900 nutzen. Wurde ja auch schon bei GT5 realisiert.

Jo, sowas in der Art gibts auch bei Wipeout HD. Das läuft immer in 1080p, regelt aber die horizontale Auflösung runter wenn die Leistung nicht reicht.

Gipsel
2013-06-17, 12:00:43
Wer sagt, dass er das muss?
Ja, man könnte das naiv in zwei Teile splitten, wo dann z.B. 16 Byte/Pixel im eSRAM liegen (das paßt für 1080p gerade so rein) und der Rest eben im DDR3. Aber wie lief das mit dem Tiling bei der XBox360 nochmal, um mit den 10MB auszukommen? Das kann man sicher auch auf die XB1 übertragen.

tobor
2013-06-17, 12:35:22
Na da bin ich mal gespannt, ob die prophezeiten Lieferengpässe wirklich eintreten. ;)
Man würde es dem gebeutelten Sonykonzern wünschen. Verdient hätten sie es.
Gute Hardware zum passablen Preis ohne Gängelungen(Onlinezwang) und Ps+ mit 2 freien Spielen pro Monat statt nur Geld fürs Onlinezocken auszugeben.

Wobei Kinect 2 durchaus das Spielergebnis rein über bessere Grafik hinaus erweitern kann. Aber nicht zu den Bedingungen,die Microsoft Spielern aufnötigen will.

DinosaurusRex
2013-06-17, 12:54:41
Wobei Kinect 2 durchaus das Spielergebnis rein über bessere Grafik hinaus erweitern kann.

Ist dir bei den E3 Shows was aufgefallen? Niemand hat mit Motion Control geworben. Nicht einmal Microsoft, die haben Kinect im Mai nur zur Bedienung des Systems gezeigt. Auf der E3 selbst stand klassisches Gamepad Gameplay im Vordergrund. Sony verzichtet sogar darauf, die PS Eye Kamera mit jeder PS4 mitzuliefern und bietet sie nur als optionales Gimmick an.

Entweder war dieses Motion Control Zeugs wirklich nur ein vorrübergehender Trend, oder die Konsolenhersteller haben den Fokus für diese E3 bewusst auf den Core Gamer, also den potenziellen Eearly Adopter, gelegt.

Iceman346
2013-06-17, 12:57:15
Rare hat schon einen neuen Kinect Sports Titel angekündigt, der Fokus für die E3 lag eindeutig auf Core Titeln.

Ein optionales Kinect 2 mit höherer Auflösung und besserer Latenz wäre imo auch eine super Sache. Als dauerhaftes Anhängsel der Konsole nicht unbedingt.

DinosaurusRex
2013-06-17, 13:09:36
Yup, Microsoft kettet sich mit diesem Kinect-Zwang wirklich einen riesigen Klotz ans Bein. Das ist genauso wie mit der Abwärtskompatibilität der Wii U. Sony muss deutlich weniger Kompromisse eingehen und das schlägt sich dann auch sehr positiv auf das Gesamtpaket PS4 nieder, sei es nun Preis, Rechenleistung oder Systemarchitektur. Sony hat den Vorteil der Flexibilität beim Design der PS4 konsequent ausgespielt.

GBWolf
2013-06-17, 13:22:07
Kinect, Move, die Wii, für Partyspiele ist das auch alles echt super.

Aber beim richtigen spielen, nervt mich schon dass ich z.b. mit dem Dualshock 3 wackeln muss, weil die Taschenlampe in TLOU flackert.....wat soll dat!

prinz_valium
2013-06-17, 13:40:01
Vor allem darf man nicht die XBone vergessen. Wenn die in 1080/30 läuft werden die Spiele nicht auf der PS4 mit 1080/60 laufen, sonder man wird lieber versuchen die Details zu erhöhen, weil das den Leuten ehr auffällt als 60Fps, auch wenn wir es uns anders wünschen.
60fps wird wohl das erste sein was bei den Spielen wegfällt.

und das glaubst du bei AAA titeln?
ich denke nicht

wozu der aufwand? wenn man eben bei der auflösung, fps, aa oder af viel viel leichter die mehrleistung ausnutzen kann? du gehst davon aus, dass die ps4 im gegensatz zur xbo bei third party titeln dann andere und bessere textueren etc bekommt? höchstens in ausnahmefällen imho

tobor
2013-06-17, 13:44:44
Ein optionales Kinect 2 mit höherer Auflösung und besserer Latenz wäre imo auch eine super Sache. Als dauerhaftes Anhängsel der Konsole nicht unbedingt.
Wenns nur optional ist,wird es keiner ausser den First-Party-Entwicklern nutzen.
Das muss schon dabei sein, wenn es wirklich ausgenutzt werden soll.
Zaubersprüche wirklich per Sprachbefehl auslösen können wie in Witcher 3 geplant,sowas ist super und ververbessert das Spielerlebnis.

Frozone
2013-06-17, 13:54:06
und das glaubst du bei AAA titeln?
ich denke nicht

wozu der aufwand? wenn man eben bei der auflösung, fps, aa oder af viel viel leichter die mehrleistung ausnutzen kann? du gehst davon aus, dass die ps4 im gegensatz zur xbo bei third party titeln dann andere und bessere textueren etc bekommt? höchstens in ausnahmefällen imho
OK, wäre für Sony unschön, weil dann keine Unterschiede zur XBone zu sehen sind und für uns schön wenn wir 60fps bekommen :wink:
Aber dann hätte man keine bessere Grafik wie hier sicher bescheinigt wird.

Bei Exlusive Titeln wird dann mehr Content dafür aber 1080/30 kommen. Damit man bessere Grafik zeigen kann.

Botcruscher
2013-06-17, 14:01:39
Zaubersprüche wirklich per Sprachbefehl auslösen können wie in Witcher 3 geplant,sowas ist super und ververbessert das Spielerlebnis.

Viel zu langsam, umständlich und ineffizient. Knopf drücken geht deutlich einfacher und präziser. Sprachsteuerung wird wie der "Datschsgrien" vollkommen überschätzt. //Ausnahme bilden hier maximal die miserablen Menüs auf den Konsolen. Mit Tastatur würde sich das niemand antun.

DrMabuse1963
2013-06-17, 14:11:40
und das glaubst du bei AAA titeln?
ich denke nicht

wozu der aufwand? wenn man eben bei der auflösung, fps, aa oder af viel viel leichter die mehrleistung ausnutzen kann? du gehst davon aus, dass die ps4 im gegensatz zur xbo bei third party titeln dann andere und bessere textueren etc bekommt? höchstens in ausnahmefällen imho

Warum nicht , zumindest bei den Titeln die eh noch für den PC Angepasst werden ? MfG

xxxgamerxxx
2013-06-17, 15:51:40
Knopf drücken geht deutlich einfacher und präziser.

Auf einem Pad? Indem man immer einen Zauber als aktiv wählt? Kenne zwar nicht Witcher, aber so ist es ja bei Skyrim. Da halte ich Sprachsteuerung schon für deutlich angenehmer, wenn man mit einem Befehl aus unzähligen Sprüchen im Repertoire wählen kann.

Und wenn man an die ganzen Quicktime Events denkt, wo man nur stumpfsinnig auf irgend einen Button hauen muss. Würde sich alles wunderbar für Kinect anbieten. Warum den Entwicklern bisher nichts einfällt, ist mir schleierhaft. Mir würden unzählige Anwendungsfälle einfallen. Anstatt in FPS beim Türen aufschweißen blöde im Squad danebenzustehen, könnte man ja selbst den Schweißer schwingen. Auto Crash? Mit der Hand nach einen Gegenstand greifen und die Scheibe einwerfen. Wilde Verfolgungsjagd im Auto? Mit der linken Hand lenken und mit der rechten aus dem Fenster schießen.

Aber man hätte ja wenigstens mal OSDs mit Gestensteuerung implementieren können. Warum da nichts kommt, keine Ahnung. Anscheinend will man den Aufwand bei Multiplattform nicht betreiben.

Herr Doktor Klöbner
2013-06-17, 15:54:20
Ich denke nicht, das man sich für Multiplattformtitel die Mühe macht, bessere Texturen oder mehr Bling Bling für die PS4 zu machen. Aber eine höhere Framerate, AA und AF sollten ohne jeden Mehraufwand drin sein, ein flüssigeres Spielgefühl und bessere Texturenfilterung ist ja auch schon mal was und kostet keinen Cent.

Herr Doktor Klöbner
2013-06-17, 15:55:26
Beim Thema Sprachsteuerung von Zaubern muß ich unwillkürlich an die Dark Sorcerer Techdemo denken...

Muselbert
2013-06-17, 15:56:59
OK, wäre für Sony unschön, weil dann keine Unterschiede zur XBone zu sehen sind und für uns schön wenn wir 60fps bekommen :wink:
Aber dann hätte man keine bessere Grafik wie hier sicher bescheinigt wird.

Bei Exlusive Titeln wird dann mehr Content dafür aber 1080/30 kommen. Damit man bessere Grafik zeigen kann.

Wenn die first party Titel der ps4 besser aussehen wie die der xbone, kann man den fehlenden grafischen Unterschied ja den third party Entwicklern zuschieben ;)

GBWolf
2013-06-17, 16:09:32
Beim Thema Sprachsteuerung von Zaubern muß ich unwillkürlich an die Dark Sorcerer Techdemo denken...


Jo, man sitzt dann ähnlich fluchend Vorm TV auffer Couch und wundert sich, dass Kinect immer was ganz anderes versteht.....:biggrin:

Rolsch
2013-06-17, 16:26:57
Mit dem neuen Kinect müssten doch noch ganz andere Sachen machbar sein. Mir schweben da so Sachen vor wie Kamerasteuerung via kleinster Kopfbewegungen, Zielen mit dem Zeigefinger, Sprachkommandos. Hoffentlich trauen sich die Entwickler neue Pfade zu betreten.

prinz_valium
2013-06-17, 16:46:05
Ich denke nicht, das man sich für Multiplattformtitel die Mühe macht, bessere Texturen oder mehr Bling Bling für die PS4 zu machen. Aber eine höhere Framerate, AA und AF sollten ohne jeden Mehraufwand drin sein, ein flüssigeres Spielgefühl und bessere Texturenfilterung ist ja auch schon mal was und kostet keinen Cent.

ich dachte schon ich währe der einzige mit der these, obwohl sie doch irgendwie so naheliegend ist :)

L233
2013-06-17, 18:36:27
ich dachte schon ich währe der einzige mit der these, obwohl sie doch irgendwie so naheliegend ist :)
Hat hier irgendwer was anderes gesagt?

nagus
2013-06-17, 19:12:50
ms schafft es, immer noch tiefer zu sinken und maximal unsympathisch zu werden! Xbox One: E3-Betrug: Grafik-Leistung wurde vorgetäuscht (http://playnation.de/spiele-news/xbox-one/e3-betrug-grafik-leistung-wurde-vorgetaeuscht-id46695.html)

Nightspider
2013-06-17, 19:15:04
Das wurde früher auch schon so gemacht. Kein Grund rumzuheulen.

Und Betrug ist das schon gar nicht, weil die Grafik auf den Konsolen genauso aussehen wird.

Gebrechlichkeit
2013-06-17, 19:23:09
Nein, nicht vergessen was Bungie auf der e3 2004? mit Halo 2 abgezogen hat.... und ein paar Jahre zuvor mit Halo 1! :)


€dit: Halo 2 PC Grafik > Box 1
http://www.eurogamer.net/articles/bungie-halo-2-e3-demo-was-a-fake

Hayab
2013-06-17, 19:33:58
Mit dem neuen Kinect müssten doch noch ganz andere Sachen machbar sein. Mir schweben da so Sachen vor wie Kamerasteuerung via kleinster Kopfbewegungen, Zielen mit dem Zeigefinger, Sprachkommandos. Hoffentlich trauen sich die Entwickler neue Pfade zu betreten.

Sprachsteuerung gab es schon bei Dangerous Waters Ubootsim im Jahr 2003, es hat eigentlich funktioniert, nur mit der Maus klicken war einfacher und praeziser.
TrackIR gibt es schon ewig bei Flugzeugsimulatoren und hat sich sogar durchgesetzt, aber es ist alles so schwer einzustellen damit es richtig funktioniert. Irgendwie fuer die breite Casualmasse ist das wirklich nichts.

Gipsel
2013-06-17, 19:50:35
ms schafft es, immer noch tiefer zu sinken und maximal unsympathisch zu werden! Xbox One: E3-Betrug: Grafik-Leistung wurde vorgetäuscht (http://playnation.de/spiele-news/xbox-one/e3-betrug-grafik-leistung-wurde-vorgetaeuscht-id46695.html)Gilt aber offenbar nicht für alle. Ryse lief wirklich auf der XB1-Hardware.

Neosix
2013-06-17, 20:06:06
Ryse ist aber auch kein Spiel ;) Sondern n interaktiver Film, zählt also nicht ^^

M4xw0lf
2013-06-17, 20:11:39
Interaktiv? :udevil:

Hallo
2013-06-17, 20:21:37
D.h. du lässt Spiele zentriert ausgeben, mit Rändern an den Seiten?

Nein, meine Kiste beherrscht kein 1:1 Pixelmapping und hat auch keinen VGA Eingang. Egal was zugespielt wird in egal welcher Auflösung bläst die Glotze auf Vollbild. Ursprünglich sogar mit Overscan was ich aber im Service-Menu korrigiert habe. Das Bild schaut bei 720p Zuspielung dennoch wie 1:1 Pixelmapped aus, sprich nativer als ein 720p Signal auf einem 1080p Schirm. Ich hatte richtig Glück damals zu 360/PS3 Zeiten weil die Auflösung gepasst hat, ich Plasma besser finde (Bild/Motion Resolution/Input lag), gross 50" und auch noch im Angebot:) Eigentlich ist es ein Monitor. Und Einbrennen kann man die Dinger aber wenn man richtig damit umgeht ist dies kein Thema selbst bei 12 Stunden Sessions. Ich wundere mich sowieso das PC Enthusiasten nicht auf Plasma Grosschirmen zocken.TV LCDs sind so langsam und schmieren...

Wenn der Scaler nicht totalen Mist baut, ist das natürlich genau das, was hier als Downsampling bezeichnet wird.

Ah ok, denn wie gesagt 1080p sieht bei mir schon noch mal ne Ecke besser aus obwohl garnicht mal so viel mehr Pixel zum Einsatz kommen.
Hinzu kommt wohl noch die Art und Weise wie Plasma Pixel aussehen/aufgebaut sind. Das Bild ist von Haus aus viel natürlicher und "runder" als die "strengen" "eckigen" LCD Pixel. Aliasing stört mich auf meinem PC Monitor (1920x1200) viel mehr als auf meiner 1366x768er Glotze. Und wenn ich wie bei Sonic Racing Transformed noch AA hinzugebe ist das Bild einfach nur phantastisch.

Du musst unbedingt mal PC mässig nen Plasma anspielen, am besten die aktuelle 60er Serie von Panasonic;) Sorry für OT.

Silentbob
2013-06-17, 20:27:00
Na man kann den eingeblendeten Button drücken, oder es einfach sein lasse :ulol: Interaktiver geht es ja fast nicht.

Watson007
2013-06-17, 20:30:06
ähnlich wie damals bei Dragons Lair auf Laserdisc? :D

Iruwen
2013-06-17, 20:54:39
Filme sind auch interaktiv, man kann spulen und pausieren :freak:

Hallo
2013-06-17, 21:01:44
Vor allem darf man nicht die XBone vergessen. Wenn die in 1080/30 läuft werden die Spiele nicht auf der PS4 mit 1080/60 laufen, sonder man wird lieber versuchen die Details zu erhöhen, weil das den Leuten ehr auffällt als 60Fps, auch wenn wir es uns anders wünschen.
60fps wird wohl das erste sein was bei den Spielen wegfällt.

Hmm, da wäre ich mir mal nicht so sicher. Menschen nehmen einen flüssigeren Spielablauf sehr wohl war. Hinzu kommt das Grafik BlingBling altert, 60fps aber immer 60fps bleiben werden. Und darüber hinaus, im Eifer des Gefechts nimmt man Grafikeffekte eh nicht so genau wahr flüssigen Spielablauf und damit niedrigeren Inputlag aber sehr wohl und zwar zu jeder Zeit.

Natürlich drehen die Hersteller gerne an der Bling-Schraube aber die taugen eh meisst nix. Gute Softwarehäuser bauen Games um 60fps herum wenn das Genre es verlangt. Dazu gehören eindeutig Racer, Ego-Shooter und sonstige 3rd Person Action Games. Diese Weissheit existiert schon seit 1993 (3D Polygon) und Ende 70er (2D) in Arcades.

Wenn Sony schlau wäre würden sie 60fps bei bestimmten Games besser bewerben, ich meine es wird auch sonst soviel Mist beworben und der Media Markt Mensch plapperts einfach nach. Ohne Dynamik ist selbst die schönste Grafik einfach nur lame und die ach so tollen scharfen Texturen matschen in Bewegung daher.
Ein sehr gutes Beispiel ist F-Zero GX auf dem GameCube. Dagegen stinken viele heutige Racer derbe ab in so ziemlich allen Belangen. Auf nem CRT ist das Game praktisch ein Rasiermesser.

xxxgamerxxx
2013-06-17, 21:46:52
Natürlich drehen die Hersteller gerne an der Bling-Schraube aber die taugen eh meisst nix. Gute Softwarehäuser bauen Games um 60fps herum wenn das Genre es verlangt. Dazu gehören eindeutig Racer, Ego-Shooter und sonstige 3rd Person Action Games. Diese Weissheit existiert schon seit 1993 (3D Polygon) und Ende 70er (2D) in Arcades.

So gut wie alle AAA Games auf der aktuellen Konsolen Gen sind seit den letzten 8 Jahren immer mit 30FPS gelaufen. Abgesehen von den üblichen Kandidaten wie Forza, GT oder z.B. CoD und ein paar andere wenige Ausnahme.

Hallo
2013-06-17, 21:52:09
Das mag sein, macht die Sache aber nicht besser.

Ich sehe ein grosses Potential 60fps zu pushen. Das währe mal zur Abwechslung ehrlich und sinnvoll. Und in gewissen Zockbereichen schon seit Christus Standard.

Forza Horizon hat bei mir nicht mal ne Minute überlebt. Pech für Turn10 oder wer auch immer diesen Mist verbockt hat...

Die Ausreden gewisser Hersteller zählen für mich nicht. CrazyTaxi (open world), Sonic Adventure2, Ferrari F355, PowerStone1/2, BorderDown, UnderDefeat, VirtuaTennis1/2, VirtuaFigter3, Daytona 2001 etc. Das gabs schon zu Dreamcast Zeiten @ 60fps, noch Fragen;)

Und auf der ersten XBox hat Sega komplett den 60fps Hammer ausgefahren, wer Panzer Dragoon Orta gezockt hat weiss wie kläglich die heutige Situation aussieht. Die 360 war dahingehend ein Rückschritt.

xxxgamerxxx
2013-06-17, 22:01:35
Forza Horizon hat bei mir nicht mal ne Minute überlebt. Pech für Turn10 oder wer auch immer diesen Mist verbockt hat...

Ich fand’s kein Mist, sondern ein richtig gutes Game.

xxxgamerxxx
2013-06-17, 22:03:18
Die 360 war dahingehend ein Rückschritt.

Das war und ist auch noch auf der PS3 ganz genau so.

RoNsOn Xs
2013-06-17, 22:18:35
Ich fragte mich damals schon mit wie vielen FPS Driver auf der PSX so manches Mal lief :freak: Good old Days

Hallo
2013-06-17, 22:29:54
Ich fragte mich damals schon mit wie vielen FPS Driver auf der PSX so manches Mal lief :freak: Good old Days

Wird grad ned schlau aus dem was du sagst aber ich versuche mal dir zu folgen und sage das Namco mit dem gradiosen RidgeRacer4 auf PSX eine Bonus Disc (Japan only) beigelegt hat die RidgeRacer1 im Time Trial (nur ein Gegner) @ 320x480 interlaced @ 60fps vorgeführt hat, auf PS1!

Selbst Polyphony Digital hat im GT1 nen 60er reingequetscht um zu zeigen was geht wenn man die Bling-Schraube etwas zurückdreht.

Gott im Himmel das 30fps noch ein Thema ist ist schon sehr arg lame...

Das war und ist auch noch auf der PS3 ganz genau so.

...und noch viel schlimmer...Die Gen von P360 ist sehr schwach was 60fps betrifft.

RoNsOn Xs
2013-06-17, 22:31:39
Nichts versuchte ich zu sagen, nur das Driver damals eine Qual war. :smile:

Hallo
2013-06-17, 22:44:04
Haha, das stimmt. Das hat so dermassen dahergekackt...ich weiss auch nicht...

Iruwen
2013-06-18, 10:05:30
Das mag sein, macht die Sache aber nicht besser.

Ich sehe ein grosses Potential 60fps zu pushen. Das währe mal zur Abwechslung ehrlich und sinnvoll. Und in gewissen Zockbereichen schon seit Christus Standard.

Forza Horizon hat bei mir nicht mal ne Minute überlebt. Pech für Turn10 oder wer auch immer diesen Mist verbockt hat...

Die Ausreden gewisser Hersteller zählen für mich nicht. CrazyTaxi (open world), Sonic Adventure2, Ferrari F355, PowerStone1/2, BorderDown, UnderDefeat, VirtuaTennis1/2, VirtuaFigter3, Daytona 2001 etc. Das gabs schon zu Dreamcast Zeiten @ 60fps, noch Fragen;)

Und auf der ersten XBox hat Sega komplett den 60fps Hammer ausgefahren, wer Panzer Dragoon Orta gezockt hat weiss wie kläglich die heutige Situation aussieht. Die 360 war dahingehend ein Rückschritt.

Bei Steuerung mit Maus und Tastatur am PC würde ich das sofort unterschreiben, aber bei dem Lag das Konsolen bisher in der gesamten Kette von der Eingang bis zur Ausgabe hatten finde ich die reinen FPS eher unwichtig.

Malvinen
2013-06-18, 14:10:02
Auf gut Deutsch: entweder pünktlich mit evtl. niedrigeren Taktfrequenzen oder garantiert so wie gedacht aber etwas später in evtl. manchen Ländern.

Goettliche Unterstuetzung hat MS offensichtlich nicht mit deren Konsole:popcorn:

Ich bin mir nicht sicher, ob das schon jemand gepostet hat:
http://www.neogaf.com/forum/showthread.php?t=576869
Angeblich sollen alle Demos auf der E3 auf PC gelaufen sein.

prinz_valium
2013-06-18, 14:33:47
Ich bin mir nicht sicher, ob das schon jemand gepostet hat:
http://www.neogaf.com/forum/showthread.php?t=576869
Angeblich sollen alle Demos auf der E3 auf PC gelaufen sein.


erst ca drölfmillionen mal :)
wurde aber schon gesagt, dass das absolut nicht ungewöhnlich ist, sondern normal

ryse soll angeblich aber wirklich auf der xbo hardware gelaufen sein.
der rest halt auf pcs

sony hat ps4 devkits genommen

Gebrechlichkeit
2013-06-18, 14:46:22
Yep, man kann als "Fan" nichts mehr wuenschen,.. der Mourinho is weg und bald M$... bisher ein sehr gutes 2013 Jahr ;)

Malvinen
2013-06-18, 14:47:54
erst ca drölfmillionen mal :)
wurde aber schon gesagt, dass das absolut nicht ungewöhnlich ist, sondern normal

ryse soll angeblich aber wirklich auf der xbo hardware gelaufen sein.
der rest halt auf pcs

sony hat ps4 devkits genommen

Hatte nur die erste Seite im Thread gelesen. :)
3 Seiten später hab ich mir dann selbst eine geklatscht. ;D
Ja Crytek, ehrlich wir schwören. :)

DinosaurusRex
2013-06-18, 15:53:14
Bei Steuerung mit Maus und Tastatur am PC würde ich das sofort unterschreiben, aber bei dem Lag das Konsolen bisher in der gesamten Kette von der Eingang bis zur Ausgabe hatten finde ich die reinen FPS eher unwichtig.

Der Lag hängt offensichtlich auch nicht zwangsweise mit der Framerate zusammen. Laut Richard Leadbetter sind die Entwickler zu einem sehr großen Teil mitverantwortlich für den Input Lag:

"Infinity Ward's last game - Modern Warfare 3 - handed in a best-in-class controller latency of just 50ms. That's the Call of Duty difference, the real key to its immense playability. We ran Battlefield 3 on PC at 60fps and found response was lacking by comparison - 100ms or thereabouts from a button press on the Xbox 360 pad to the resultant action kicking off on-screen." Digital Foundry (http://www.eurogamer.net/articles/digitalfoundry-in-theory-can-next-gen-console-fulfill-the-1080p60-dream)

Selbst bei 60 FPS hat BF3 am PC eine doppelt so hohe Latenz wie Modern Warfare 3.

RaptorFX
2013-06-18, 16:48:52
Ist eigentlich diese Gen (Xbox One, PS4) im Vergleich zur letzten Gen (PS3, Xbox 360) von der Leistung in Abhängigkeit vom Zeitpunkt des Erscheinen stärker? Also verglichen mit dem PC usw. Versteht ihr was ich meine? ISt der Sprung genauso groß wie von PS2->PS3 jetzt beim Fall PS3->PS4?

Noch ne Frage zum Jaguar-Chip:

Sagen wir mal, dieser Jaguar Chip in der PS4 wird richtig gut ausgenutzt, mit welchem Intel-Chip lässt sich dieser vergleichen also von der Leistungsfähigkeit? Wie sieht es hier im Vergleich zum Cell aus?

MfG

AnarchX
2013-06-18, 17:02:46
Die aktuellen Next-Gen-Konsolen sind von den reinen Specs schon deutlich schwächer als, die 2005/2006er-Konsolen im damaligen Kontext. So musste man für eine GPU mit 360-Leistung schon allein gute 400€ bezahlen.
Nun wird es wohl interessant werden, ob das APU-Konzept gegenüber PC mit dem "lahmen" PCIe größe Vorteile bringt und ob sich die Leistungsentwicklung am PC weiter so langsam von statten geht oder noch langsamer wird. Nach 2005/2006 gab es beim PC ja eine deutliche Leistungsexplosion, sowohl bei GPU als auch CPU.

Wenn ein Jaguar-Core nach aktuellen Spekulation grob auf dem Niveau der 360-Cores geschätzt wird, dann ist wohl auch bei guter Auslastung nicht viel mehr als bei einem IVB/HSW Dual-Core mit SMT oder einer 2 Modul AMD CPU zu erwarten. Aber hier kommt es wohl wie gesagt auf die Nutzung des APU-Konzeptes an.

Knuddelbearli
2013-06-18, 17:04:56
nein er ist eher kleiner liegt an verschiedenen Sachen
Konsolen werden im Gegensatz zu früher nicht mehr mit Verlust verkauft
SoC ( bringt zwar auch zusätzliche Leistung aber 2 Dies mit je 200mm² sind sicher günstiger als 1 mit 300mm² )
Dx 7 auf 9c waren gigantische Unterschiede. 9c auf 11 ist zwar auch ein großer schritt aber bei weitem nicht so groß
x86 ist eine architektur die auch mit absolut unoptimierten code gut umgehen kann. dazu komt noch das es Out of Order ist. man kann also bei weitem nicht soviel durch optimierung rausholen


Das ist jetzt meien Sicht ob alles so stimmt kA bin da nicht der Oberexperte das wissen andere hier sicher besser und die mögen mich berichtigen

Edit:

@AnarchX

er meinte doch PS2 gegenüber PS3 und PS3 gegenüber PS4 und nicht PS3 gegen PC und PS4 gegen PC ?!? oder hab ich ihn falsch verstanden?

Pennywise
2013-06-18, 17:18:08
Muss ja nix bedeuten :D aber Greenmangaming haben ne Umfrage gemacht Xbox1 oder PS4 - PS steht momentan bei 89%
Denke das wird ein Desaster für Microsoft, können die höchstens durch einen identischen Preis zur PS4 noch glätten. Dass die PS4 stärker ist, hab ich letztens sogar in den RTLII News gehört, ich denke Microsoft hat ein echtes Problem.

Lightning
2013-06-18, 17:18:41
Ist eigentlich diese Gen (Xbox One, PS4) im Vergleich zur letzten Gen (PS3, Xbox 360) von der Leistung in Abhängigkeit vom Zeitpunkt des Erscheinen stärker? Also verglichen mit dem PC usw. Versteht ihr was ich meine? ISt der Sprung genauso groß wie von PS2->PS3 jetzt beim Fall PS3->PS4?

Teilweise ja, größtenteils nein.

Was die RAM-Größe angeht auf jeden Fall, selbst abzüglich dessen, was fürs Betriebssystem reserviert ist. Wir sprechen hier immerhin von einem Faktor 16.

Die GPU-Leistung ist im Fall PS3 vs PS4 auch ordenltich angestiegen, da kann man auch locker von einer Verzehnfachung reden. Bei 360 vs Xbox One ist der Unterschied nicht ganz so groß, da die GPU der 360 damals sehr stark war und die der Xbox One wie bekannt etwas schwach.
Beim Featureset sind die Unterschiede natürlich nicht mehr so stark wie beim letzten Generationswechsel; flexibler klar, aber an sich sind programmierbare Shader halt nichts neues mehr.
Und im Vergleich zum PC sind die GPUs definitiv schwächer als die 360-GPU im damaligen Kontext.

Bei der CPU ist der Zuwachs noch geringer. Die CPU-Entwicklung ging in den letzten Jahren zwar generell nicht mehr so schnell vorran, aber damals waren die CPUs von 360 und PS3 zumindest in Teilbereichen High-End. Das kann man von Jaguar nicht behaupten.

Noch ne Frage zum Jaguar-Chip:

Sagen wir mal, dieser Jaguar Chip in der PS4 wird richtig gut ausgenutzt, mit welchem Intel-Chip lässt sich dieser vergleichen also von der Leistungsfähigkeit? Wie sieht es hier im Vergleich zum Cell aus?

Wenn man es unbedingt mit Intel vergleichen will, dann wäre das vielleicht grob mit einem Core i5 @ 2 GHz. Die sind von der Leistung pro Takt halt wirklich massiv überlegen; wenn SIMD ins Spiel kommt wirds noch schlimmer.

DinosaurusRex
2013-06-18, 17:33:44
Man muss aber auch klar hervorheben, dass der Stromverbrauch der Desktop-Grafikkarten in den letzten Jahren regelrecht explodiert ist. Konsolen sind mit ihren kleinen Gehäusen bei der TDP sehr stark eingeschränkt, bei der letzten Generation wurden ja teilweise schon Grenzen überschritten (RROD). Ich denke der größere Unterschied bei der Rohleistung ist unter anderem auch diesem Umstand geschuldet.

dargo
2013-06-18, 17:51:47
Man muss aber auch klar hervorheben, dass der Stromverbrauch der Desktop-Grafikkarten in den letzten Jahren regelrecht explodiert ist.
Jein.

Bis Geforce GTX480/580 war es schon langsam grenzwertig. Mit Kepler ist die Verbrauchtendenz wieder fallend. Würde man Kepler die gleiche TDP erlauben wären wir bei der GPU-Leistung schon etwas weiter.

Coda
2013-06-18, 17:54:55
ryse soll angeblich aber wirklich auf der xbo hardware gelaufen sein.
Nicht nur Ryse. Übrigens war der Anteil der gezeigten Spiele, die auf PC liefen bei der PS4 auch nicht viel anders.

Es gibt ja wirklich viel, worauf man bei der Xbox One rumhacken kann, aber das gehört nicht dazu :)

Finch
2013-06-18, 18:17:35
Es gibt ja wirklich viel, worauf man bei der Xbox One rumhacken kann, aber das gehört nicht dazu :)

Na dann schieß mal los, also so aus Entwicklersicht.

DinosaurusRex
2013-06-18, 18:49:01
Habt ihr das hier schon gesehen?

Sony zeigt wie man die PS4 benutzt (polychrone Menschen werden voll auf ihre Kosten kommen):

nqH4-TieBK4

Knuddelbearli
2013-06-18, 19:01:43
so! zeigt man die Vorteile einer (teil)vernetzten Konsole ...

GBWolf
2013-06-18, 19:09:16
Gut das man damit auch in Ruhe offline spielen kann. Horror ...