PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Neue XBox (XBox One X / Project Scorpio) im November 2017


Seiten : [1] 2 3 4 5 6 7

dildo4u
2016-05-25, 17:18:25
Kleinere Xbox kommt dieses Jahr und ein schnelleres Modell 2017,alle XBox Games sollen auch für den PC kommen

Developer sources have told us that Microsoft’s new mandate is to release future games–including the flagship Halo series–on both platforms.

http://kotaku.com/sources-smaller-xbox-one-coming-this-year-more-powerf-1778634446


3DC: Daten, Fakten, Vermutungen zu Scorpio (http://www.3dcenter.org/news/microsoft-kuendigt-den-xbox-one-nachfolger-scorpio-fuer-weihnachten-2017)

Kartenlehrling
2016-05-25, 17:36:13
...,alle XBox Games sollen auch für den PC kommen.

Windows 10 App-Store,
solange die Spiele nicht bei Steam und Co. auch installiertbar sind ist dieses Aussage nichts Wert.

xxxgamerxxx
2016-05-25, 18:11:53
Andere Quellen sprechen von zwei Streaming Clients. Einmal ne Art Chromecast mit der Möglichkeit, Spiele von einer Xbox One auf einen zweiten Bildschirm zu streamen. Als zweites soll angeblich eine Xbox TV Box kommen.

xxxgamerxxx
2016-05-25, 18:14:31
Windows 10 App-Store,
solange die Spiele nicht bei Steam und Co. auch installiertbar sind ist dieses Aussage nichts Wert.

Wieso sollten Xbox First Parties zu Steam kommen? Ist doch unlogisch. Dann zahlt Microsoft für die eigenen Spiele die Steam Steuer. Den Rest bekommt man ja eh über Steam.

xxxgamerxxx
2016-05-25, 21:22:54
Ein weiteres Gerücht sagt, dass das Xbox Dashboard optional für den PC kommen soll. Damit würde Microsoft dann den Weg ebnen, dass OEMs Wohnzimmer taugliche Windows 10 PCs anbieten.

EL_Mariachi
2016-05-25, 21:30:24
Andere Quellen sprechen von zwei Streaming Clients. Einmal ne Art Chromecast mit der Möglichkeit, Spiele von einer Xbox One auf einen zweiten Bildschirm zu streamen. Als zweites soll angeblich eine Xbox TV Box kommen.

das geht ja heute schon...

.

xxxgamerxxx
2016-05-25, 21:44:08
das geht ja heute schon...

.

Nö, das geht nur auf einen Windows 10 PC. Du könntest einen der wenigen HDMI Compute Sticks mit Windows 10 kaufen und dann mit BT Mouse/Tastatur die Xbox One App starten. Bequem ist aber was anderes.

deekey777
2016-05-25, 23:06:48
Nö, das geht nur auf einen Windows 10 PC. Du könntest einen der wenigen HDMI Compute Sticks mit Windows 10 kaufen und dann mit BT Mouse/Tastatur die Xbox One App starten. Bequem ist aber was anderes.
Hinzu kommt, dass an den PC ein Xbox One Controller angeschlossen sein muss, sonst funktioniert das Streaming nicht.

Microsoft braucht unbedingt eine eigene Box a la Apple TV. Man kann zwar heute auf die Xbox One mit der Filme-App streamen, nicht aber die im Windows Store gekauften Inhalte. :ucrazy:

xxxgamerxxx
2016-05-25, 23:27:02
Microsoft braucht unbedingt eine eigene Box a la Apple TV. Man kann zwar heute auf die Xbox One mit der Filme-App streamen, nicht aber die im Windows Store gekauften Inhalte. :ucrazy:

Wenn du Medien über die Microsoft Filme & TV App (ehemals Xbox Video) gekauft hast, kannst du die auf Xbox und PC anschauen über die App anschauen. Ich habe zumindest keine Probleme damit sie zu streamen. Du kannst sie sogar herunterladen.

Ich weiß nicht so richtig, wie das über den Store funktioniert, aber das sind m.E. andere Angebote als die in-app Käufe.

EL_Mariachi
2016-05-26, 00:06:58
na gut ja ok... ein Stück weit gehts aber schon... mit Einschränkungen halt :D

.

Bl@de
2016-05-26, 08:53:24
Ein weiteres Gerücht sagt, dass das Xbox Dashboard optional für den PC kommen soll. Damit würde Microsoft dann den Weg ebnen, dass OEMs Wohnzimmer taugliche Windows 10 PCs anbieten.

Wäre ein weiterer Schritt. Xbox Dashboard als Konkurrent zu Steam Big Picture. Der Store hat noch nen weiten Weg. Aber wer weiß, vll. kriegen wir irgendwann auch Win32 Spiele und es wird eine brauchbare Alternative^^ Ich glaub es zwar weniger bei Microsoft, aber wer weiß.

deekey777
2016-05-26, 09:35:13
Wenn du Medien über die Microsoft Filme & TV App (ehemals Xbox Video) gekauft hast, kannst du die auf Xbox und PC anschauen über die App anschauen. Ich habe zumindest keine Probleme damit sie zu streamen. Du kannst sie sogar herunterladen.

Ich weiß nicht so richtig, wie das über den Store funktioniert, aber das sind m.E. andere Angebote als die in-app Käufe.
Ich will sie nicht herunterladen, ich will sie von meinem PC auf der Xbox One abspielen. Dass man sie auch auf die Xbox One streamen kann, ist mir bewusst, aber warum soll ich mir das antun?

Apple TV: Ich starte auf dem PC iTunes und kann alle Inhalte der Mediathek auf Apple TV abspielen, die gesamte Steuerung erfolgt über Apple TV. Warum Microsoft das nicht schafft, ist mir ein Rätsel.

Bereits bei Windows 8 war es mir unklar, warum man das moderne Menü nicht mit dem Controller steuern kann, die Apps starten und mit dem Controller bedienen.

xxxgamerxxx
2016-05-26, 11:01:57
M.E. konnte man bei 8.1 über die Charmsbar auf die Xbox abspielen. Wie und ob das bei Windows 10 genau ist, hab ich bisher nie probiert.

dargo
2016-05-27, 08:42:05
und XB2:
4 Zen-Kerne (80mm²) + 2,5k Shader (Vega-Architektur, 230mm²) (wahrscheinlich auf einem Die für die Konsole) @14LPP mit 16GB HBM
Da hat wohl jemand feuchte Träume. ;)

16GB HBM Ende 2017 in einer Konsole ist völlig ausgeschlossen, das würde die Kosten absolut sprengen. Es wird garantiert GDDR5X werden. An der GTX1080 sieht man, dass bereits mit dem langsamsten GDDR5X 320GB/s an einem 256Bit SI erreicht werden können. Bis Ende 2017 wird es auch die schnelleren Chips geben womit Regionen von ~400GB/s an so einem schmalen SI möglich sind.

Kartenlehrling
2016-05-27, 09:10:36
Muss eigentlich Microsoft aus programm technischer Sicht beim 2017 Chip auch ein eSRAM verbauen?

Windi
2016-05-27, 09:44:35
Könnte wirklich ein interessantes Jahr werden.
Die PS4 wird vielleicht nur etwas höher getaktet und einige Einheiten multipliziert. Oder es werden tatsächlich neuere Architekturen von AMD eingesetzt, was allerdings die Abwärtskompatibilität erschweren könnte.

Die neue Xbox bekommt wohl ganz sicher ein größeres Update.
Nur wie sieht es beim Speicher aus?
DDR -> GDDRx / HBM (noch zu teuer?)
8GB -> 8GB/12GB/16GB
ESRAM -> ??? (bleibt die auch ohne noch abwärtskompatibel?)
500GB Festplatte -> 1TB / 2TB
Um einen möglichen größeren Hauptspeicher überhaupt noch schnell genug befüllen zu können: HDD -> SSD (Allerdings, ist eine 1TB SSD nicht noch zu teuer?)

Wird wirklich interessant! Vor allem, wie sie das mit der Abwärtskompatibilität hinbekommen wollen. Die Konsolen sind schließlich erst zweieinhalb Jahre alt, da kann man eigentlich nichts bringen was nicht kompatibel ist. Oder es werden für alle alten Spiele einzelne Patches nachgeliefert und hat eine Sorge weniger. Ist halt nur die Frage, ob man wirklich alle Entwickler vertraglich dazu zwingen kann.

deekey777
2016-05-27, 09:46:49
Aus dem anderen Thread:
Muss eigentlich Microsoft aus programm technischer Sicht beim 2017 Chip auch ein eSRAM verbauen?

Nein, wenn die Bandbreite stimmt (200 GB/s). Ja, wenn es beim DDR3 und 128-bit-SI bleibt.

dargo
2016-05-27, 10:56:49
Windows 10 App-Store,
solange die Spiele nicht bei Steam und Co. auch installiertbar sind ist dieses Aussage nichts Wert.
Was ein Blödsinn. Die Spiele sind am PC spielbar, unter welchen Voraussetzungen ist zweitrangig.

Knuddelbearli
2016-05-27, 10:58:41
Denke eSRAM wird bleiben müssen da sonst alle alten Spiele erst neu angepasst werden müssen. Wurde schon damals gesagt das sich MS damit vermutlich ein Ei gelegt hat.

iuno
2016-05-27, 11:07:18
Nein, ich sehe das auch wie deekey schon sagt.
Der ESRAM hat keine aussergewoehnlich hohe Bandbreite, iirc ist das so auf dem Niveau des Hauptspeichers bei der PS4. Wenn die neue XBox auch diese Bandbreite bekommt, gibt es keinen Grund fuer diesen eSRAM mehr.
Zumal der wahrscheinlich sowieso in kaum einem Multiplattformtitel explizit benutzt wird ;D

deekey777
2016-05-27, 11:09:17
Denke eSRAM wird bleiben müssen da sonst alle alten Spiele erst neu angepasst werden müssen. Wurde schon damals gesagt das sich MS damit vermutlich ein Ei gelegt hat.
Warum? Spiele werden doch gar nicht wissen, ob da eSRAM tatsächlich vorhanden ist oder nicht.

Gipsel
2016-05-27, 11:26:27
Nein, ich sehe das auch wie deekey schon sagt.
Der ESRAM hat keine aussergewoehnlich hohe Bandbreite, iirc ist das so auf dem Niveau des Hauptspeichers bei der PS4. Wenn die neue XBox auch diese Bandbreite bekommt, gibt es keinen Grund fuer diesen eSRAM mehr.
Zumal der wahrscheinlich sowieso in kaum einem Multiplattformtitel explizit benutzt wird ;DDie Latenz dürfte niedriger sein als die von DRAM. Bei Spielen, die sich irgendwie darauf verlassen, könnte der Wechsel zu einer reinen DRAM-Lösung eventuell in diesen Fällen zu Performanceeinbußen führen. Wobei man da vermutlich etwas kreativ werden müßte, um entsprechende Fälle in der realen Welt (und nichts Synthetisches), zu finden. Auch, weil es ja ein paar MB Cache gibt, wodurch Einiges abgefangen werden kann.
Warum? Spiele werden doch gar nicht wissen, ob da eSRAM tatsächlich vorhanden ist oder nicht.Nun, bei der XBox wird irgendein Speicherbereich explizit entweder im DRAM oder im eSRAM alloziert. Solange also die Speicherverwaltung das weiterhin unterstützt, sieht es für das Spiel aus, als gäbe es immer noch zwei getrennte Speicherbereiche, auch wenn beispielsweise praktisch die Performance identisch wäre. Im Prinzip könnte man das aber als Hint benutzen, auf welche Weise welche Art von Kohärenz sichergestellt wird (das unterscheidet sich ja klassischerweise zwischen CPU und GPU), was dann gegebenenfalls auch Auswirkung auf die Performance hätte. Das hat es bei der PS4 trotz gemeinsamen Speicherpool (wo man aber auch festlegen muß, welche Art von Kohärenz man gerne hätte) ja auch.

iuno
2016-05-27, 11:38:12
Letzteres sehe ich ja nun weniger als Problem. Man kann das ja weiterhin in der API explizit so nutzen, auf der X1 kommt es dann halt auch wirklich in den ESRAM, auf der neuen eben nicht (oder z.B. in einen reservierten Bereich, warum auch immer das Sinn machen koennte ;D ). Da muesste MS halt ihre Software darauf anpassen.

Gipsel
2016-05-27, 11:41:26
Letzteres sehe ich ja nun weniger als Problem. Man kann das ja weiterhin in der API explizit so nutzen, auf der X1 kommt es dann halt auch wirklich in den ESRAM, auf der neuen eben nicht (oder z.B. in einen reservierten Bereich, warum auch immer das Sinn machen koennte ;D ). Da muesste MS halt ihre Software darauf anpassen.
Habe ich doch auch gesagt. ;)

Windi
2016-05-27, 12:00:55
Ist halt wirklich die Frage, wie groß die Unterschiede bei der Latenz sind.

Wenn ein Zugriff auf den GDDRx vieleicht doppelt so lange dauert wie auf den ESRAM, dann könnten darauf optimierte Spiele regelrecht zusammenbrechen. Im schlimmsten Fall, muss die Routine dann doppelt so lange auf eine Antwort warten und würde in der Zeit den ganzen Kern blockieren.

Keine Ahnung ob wir hier Experten haben, die das wissen und gleichzeitig darüber auch reden dürfen (NDA).

dr_AllCOM3
2016-05-27, 12:03:33
Was hat die Xbox dann bitte fuer eine GPU, wenn die 4K packen soll?

00-Schneider
2016-05-27, 12:05:05
Was hat die Xbox dann bitte fuer eine GPU, wenn die 4K packen soll?


Soll sie das überhaupt? ;)

][immy
2016-05-27, 12:08:00
Die Latenz dürfte niedriger sein als die von DRAM. Bei Spielen, die sich irgendwie darauf verlassen, könnte der Wechsel zu einer reinen DRAM-Lösung eventuell in diesen Fällen zu Performanceeinbußen führen. Wobei man da vermutlich etwas kreativ werden müßte, um entsprechende Fälle in der realen Welt (und nichts Synthetisches), zu finden. Auch, weil es ja ein paar MB Cache gibt, wodurch Einiges abgefangen werden kann.
Nun, bei der XBox wird irgendein Speicherbereich explizit entweder im DRAM oder im eSRAM alloziert. Solange also die Speicherverwaltung das weiterhin unterstützt, sieht es für das Spiel aus, als gäbe es immer noch zwei getrennte Speicherbereiche, auch wenn beispielsweise praktisch die Performance identisch wäre. Im Prinzip könnte man das aber als Hint benutzen, auf welche Weise welche Art von Kohärenz sichergestellt wird (das unterscheidet sich ja klassischerweise zwischen CPU und GPU), was dann gegebenenfalls auch Auswirkung auf die Performance hätte. Das hat es bei der PS4 trotz gemeinsamen Speicherpool (wo man aber auch festlegen muß, welche Art von Kohärenz man gerne hätte) ja auch.

Ich würde auch weiterhind rauf tippen das die nächste xbox am SRAM festhalten wird. Und wenn es nur für die kompatiblität ist. Der SRAM bietet enorme Bandbreite und viele Tricks die auf der xbox one verwendet werden, würden GDDR5 zugrunde richten (Tricks die sich drarauf berüfen das es sich um sram handelt und lesen & schreiben gleichzeitig möglich ist). Könnte aber durchaus sein das der sram pool nicht vergrößert wird, denke aber das hier dank der Verkleinerung noch ein wenig was draufgepackt wird. Durch höhere Taktfrequenzen würde gleichzeitig auch die Bandbreite effektiv erhöht werden und sram ist nunmal sehr simpler speicher, der sich relativ einfach fertigen und verkleinern lässt.
Ich würde aber trotzdem nicht auf GDDR5 oder GDDR5x tippen. "normaler" DDR4 würde hier wohl vollkommen ausreichen. Vor allem sinken die Kosten von DDR4 derzeit immer weiter. Dafür könnte man dann vielleicht das Speicherinterface von 256 bit weiter verbreitern.

Ich bin nach wie vor ein Fan von 2 Speicherpools. So stören Berechnungen die nichts mit der CPU zu tun haben nicht die Hauptspeicherzugriffe (auf die ohnehin schon mehrere Prozessoren zugreifen). Ich weiß zwar auch das SRAM im vergleich zu DRAM sehr teuer ist, aber SRAM hat durchaus seine Vorteile. Man könnte natürlich auch auf einen HBM Speicherpool setzen, dann müsste aber die Bandbreite gegenüber dem SRAM speicher auch sehr viel höher sein, also so hoch, das auch kleinst-Zugriffe (lesen & schreiben gleichzeitig) nicht die Bandbreite einbrechen lassen. Ich frage mich aber ob ein DRAM speicher an einem 2048Bit speicherinterface es dann schafft mit SRAM (ebenfalls an einem 2048 Bit Speicherinterface) zu konkurrieren. DRAM hätte sicherlich den Vorteil das man dann einfach sehr viel mehr speicher hätte. Die Bandbreite je 512KB Einheit (in solche ist der xbox one sram ja aufgetreilt) wäre aber immens kleiner.

Was hat die Xbox dann bitte fuer eine GPU, wenn die 4K packen soll?
glaube kaum das sie das bis auf einige Ausnahmen machen soll. Es ist eine Konsole. Spätestens nach 2 Jahren ist man eh wieder bei 1080p, bzw. durch Occulus vielleicht ein wenig darüber.
4k wird frühestens was für die übernächste Generation und dürfte erst mal nur ein gimmik sein.
Film-wiedergabe in 4k ist vielleicht was anderes, das ginge aber jetzt auch schon.


Achja, sollte Zen nicht auch einen 3rd Level Cache haben? Hier könnte man eventuell den SRAM der xbox one drüber "simulieren" indem im Abwärtskompatiblen modus dieser exklusiv für die GPU genutzt wird und im neuen Modus geteilt. Bei der xbone hat die CPU ja theoretisch auch "direkten" zugriff auf dem sram, soll nur nicht genutzt werden.

deekey777
2016-05-27, 13:28:34
...
Nun, bei der XBox wird irgendein Speicherbereich explizit entweder im DRAM oder im eSRAM alloziert. Solange also die Speicherverwaltung das weiterhin unterstützt, sieht es für das Spiel aus, als gäbe es immer noch zwei getrennte Speicherbereiche, auch wenn beispielsweise praktisch die Performance identisch wäre. Im Prinzip könnte man das aber als Hint benutzen, auf welche Weise welche Art von Kohärenz sichergestellt wird (das unterscheidet sich ja klassischerweise zwischen CPU und GPU), was dann gegebenenfalls auch Auswirkung auf die Performance hätte. Das hat es bei der PS4 trotz gemeinsamen Speicherpool (wo man aber auch festlegen muß, welche Art von Kohärenz man gerne hätte) ja auch.


Die Xbox360 bzw. ihr Xenos/C1 verfügt über eDRAM von 10 MB, die auf dem "Daughter-Die" zusammen mit den ROPs liegen, der wiederum mit dem Mutter-Die mit 32 GB/s verbunden ist. Das hat die Xbox One nicht und trotzdem laufen die Xbox360-Spiele auf der Xbox One über die Abwärtkompatibilität.

Was ich meinte:
Sollte die vermeintliche Superduper-Xbox Two über kein eSRAM verfügen, dann werden die originalen X1-Spiele "getäuscht", sie würden eSRAM nutzen (das meintest du, oder?). Neue Spiele für beide Generationen würden entsprechende Codeanpassungen haben (wenn X1, dann eSRAM, sonst normal).

][immy
2016-05-27, 14:00:53
Die Xbox360 bzw. ihr Xenos/C1 verfügt über eDRAM von 10 MB, die auf dem "Daughter-Die" zusammen mit den ROPs liegen, der wiederum mit dem Mutter-Die mit 32 GB/s verbunden ist. Das hat die Xbox One nicht und trotzdem laufen die Xbox360-Spiele auf der Xbox One über die Abwärtkompatibilität.

Was ich meinte:
Sollte die vermeintliche Superduper-Xbox Two über kein eSRAM verfügen, dann werden die originalen X1-Spiele "getäuscht", sie würden eSRAM nutzen (das meintest du, oder?). Neue Spiele für beide Generationen würden entsprechende Codeanpassungen haben (wenn X1, dann eSRAM, sonst normal).
was hindert dich daran den dram der xbox 360 über den sram laufen zu lassen?umgekehrt wird es schwieriger, aber so herum ist es eigentlich recht simpel.

deekey777
2016-05-27, 14:56:39
[immy;11046377']was hindert dich daran den dram der xbox 360 über den sram laufen zu lassen? umgekehrt wird es schwieriger, aber so herum ist es eigentlich recht simpel.
Mich hindert nichts; wie das Microsoft genau gelöst hat, weiß nur MS. Die Spiele laufen in einer virtueller Xbox360-Umgebung auf der Xbox One, sprich das Spiel verhält sich genauso wie auf der Xbox360. Wie das auf der Hardwareebene gelöst ist, finde ich nichts. Nicht unerwähnt bleiben darf, dass die Bandbreite zum eDRAM der Xbox360 deutlich höher ist als zum eSRAM der Xbox One. Trotzdem laufen die Xbox360-Spiele bis auf einige Ausreißer besser bzw. stabiler als auf dem Original (problematisch sind Szenen, in denen es auf der Xbox360 die Xenon-CPU abverlangt wurde, da sinkt die Framerate auf der One spürbar).

Denkbar wäre:

1. Microsoft motzt die GPU-Leistung auf, aber es bleibt bei eSRAM, mit dem Nachteile der Speicherbandbreite gemindert werden. Vorteil wäre, dass man nur ein Spiel entwickelt, das auf der Xbox Two eben in höherer Auflösung, mit mehr Effekten usw. läuft.

2. Microsoft motzt die GPU-Leistung auf und erhöht die gesamte Bandbreite, wie es Sony bei der PS4 gemacht hat, auf eSRAM wird verzichtet. Es werden dann eine Art "Multigenerationentitel", die jeweilige Optimierungen haben. Oder die faulen Entwickler bekommen die Möglichkeit, dass auf der Xbox Two ein Bereich des Speichers sich für eSRAM ausgibt. Problem sind dann die Latenzen. Entwickler, die eh eSRAM auf der One nicht nutzen (sofern es die überhaupt gibt), ist das sowas von egal, sie werden sich darüber eher freuen.

prinz_valium
2016-05-27, 15:26:57
wie ist die Latenz von hbm im vergleich zu gddr(x)?
die frage, ob man sich für hbm oder gddr entscheidet, wird aber vermutlich auch sehr stark von der leistungsaufnahme abhängen.

eine Konsole mit 300+ watt wird man in der heutigen zeit einfach nicht vermarkten können, egal wie leistungsstark

deekey777
2016-05-27, 15:38:22
Warum sollte man überhaupt auf HBM setzen? Weil das so "in" ist?

Gipsel
2016-05-27, 15:39:09
[immy;11046229']Ich würde auch weiterhind rauf tippen das die nächste xbox am SRAM festhalten wird. Und wenn es nur für die kompatiblität ist. Der SRAM bietet enorme Bandbreite"Enorm" würde ich was Anderes nennen. Hätte die XBox One 64+MB eDRAM mit >512GB/s (z.B. in Richtung von 1 TB/s) gehabt, okay, das wäre eine Hausnummer gewesen. Aber die lächerlichen 32MB (wo es z.B. verdammt eng wird, einen G-Buffer reinzuquetschen) lohnen für die lächerlichen ~110GB/s (mit simultanem Lesen und Schreiben ein wenig mehr) den Aufwand kaum. Und da es SRAM ist und kein eDRAM (wofür man einen passenden Prozeß braucht, das geht also nicht mit jeder Foundry und die kleineren Strukturgrößen kommen im Schnitt deutlich später, wenn überhaupt), nimmt es trotzdem noch merklich Platz ein. MS hat sich damals wohl früh dafür entschieden, weil sie meinten nur mit (langsamem) DDR3 auf die anvisierten 8GB zu kommen.
[immy;11046229']und viele Tricks die auf der xbox one verwendet werden, würden GDDR5 zugrunde richten (Tricks die sich drarauf berüfen das es sich um sram handelt und lesen & schreiben gleichzeitig möglich ist).Das geht mit DRAM im Prinzip auch, weil die einzelnen Kanäle unabhängig voneinander sind (ein Kanal kann lesen, ein anderer von woanders lesen und der nächste noch mal woanders hin schreiben). Es kommt halt insgesamt nicht mehr Bandbreite rum wie bei der XB1, wo man ein wenig mit dem Interface getrickst hat (zwei unidirektionale statt einem bidirektionalen, es ist sozusagen pseudo-dual-ported SRAM mit einem Lese- und einem Schreibport). In der gleichen SRAM-Bank kann man aber bei der XB1 natürlich nicht gleichzeitig lesen und schreiben, das geht nur in verschiedenen.
[immy;11046229']Ich bin nach wie vor ein Fan von 2 Speicherpools. So stören Berechnungen die nichts mit der CPU zu tun haben nicht die Hauptspeicherzugriffe (auf die ohnehin schon mehrere Prozessoren zugreifen).Nun, Du sagst ja selber, daß auf den Speicher sowieso schon mehrere CPU-Kerne zugreifen. Und auch von der GPU-Seite laufen immer mehrere Zugriffe parallel. Im Prinzip ist ja jede CU so eine Art Kern. Gerade auf einer GPU laufen immer eine Unmenge Zugriffe parallel. Hier liegt es am Speichercontroller, eine möglichst optimale Ordnung der Zugriffe zu erreichen, um die Performance zu maximieren. Das hier die Anforderungen eventuell etwas divergieren (z.B. Maximierung der Bandbreite vs. Minimierung der Latenz) liegt in der Natur der Sache. Niemand sagt, daß der Speichercontroller bestimmten Requests nicht in irgend einer Art und Weise Vorrang einräumen kann. Am Ende des Tages überwiegen bei einem gemeinsamen Speicherpool meiner Meinung nach die Vorteile. Und der Aufwand für ein wirklich ordentliches Speicherinterface ist vermutlich auch geringer als für ein fast genau so ordentliches plus noch ein zweites mit geringerer Bandbreite.
[immy;11046229']Ich weiß zwar auch das SRAM im vergleich zu DRAM sehr teuer ist, aber SRAM hat durchaus seine Vorteile. Man könnte natürlich auch auf einen HBM Speicherpool setzen, dann müsste aber die Bandbreite gegenüber dem SRAM speicher auch sehr viel höher sein,Wäre es doch automatisch. Wie gesagt ist der SRAM der XB1 nicht gerade ein Sprinter.
[immy;11046229']also so hoch, das auch kleinst-Zugriffe (lesen & schreiben gleichzeitig) nicht die Bandbreite einbrechen lassen.Die Zugriffsgranularität des SRAMs der XB1 beträgt afaik ebenfalls 64Byte. Auch da bricht bei vielen "Kleinstzugriffen" die Bandbreite irgendwann ein.
Nehmen wir mal als Gegenbeispiel zwei Stacks HBM2 (mit Pseudo-Channel-Support). Da hat man dann effektiv 32 unabhängige DRAM-Kanäle und eine Gesamtbandbreite von (bis zu) 512GB/s. Das schlägt ein 76GB/s DDR3 Interface mit einem separaten 32MB eSRAM mit theoretisch zwischen 109-196GB/s Bandbreite zu jeder Tag- und Nachtzeit bei der Performance und Flexibilität. Selbst wenn MS zu DDR4 mit 150GB/s + eSRAM mit 200-400GB/s Bandbreite gehen würde, wäre die HBM2-Lösung wohl in den meisten Fällen immer noch mehr oder weniger deutlich im Vorteil.
[immy;11046229']Ich frage mich aber ob ein DRAM speicher an einem 2048Bit speicherinterface es dann schafft mit SRAM (ebenfalls an einem 2048 Bit Speicherinterface) zu konkurrieren.Hätte MS sowas in der XB1 eingebaut, wäre es eine Überlegung wert. Allein, das haben sie nicht. Es gibt nur ein 512Bit-Interface zum eSRAM.

Aber ganz allgemein, wenn es um eSRAM vs. eDRAM (also on Die mit potentiell sehr breiter Anbindung) geht, gibt es ein Crossover bei einer bestimmten (prozeßabhängigen) Größe, ab der eDRAM sogar leicht höhere Performance aufweisen kann die gleiche Menge SRAM. Wenn wir also über 128MB oder gar mehr so reden, verliert SRAM so ein wenig seinen Vorteil (gibt ein paar Veröffentlichungen von IBM dazu, die mal eDRAM als LLC propagiert haben).

=============================

Die Xbox360 bzw. ihr Xenos/C1 verfügt über eDRAM von 10 MB, die auf dem "Daughter-Die" zusammen mit den ROPs liegen, der wiederum mit dem Mutter-Die mit 32 GB/s verbunden ist. Das hat die Xbox One nicht und trotzdem laufen die Xbox360-Spiele auf der Xbox One über die Abwärtkompatibilität.:confused:
Ohne eine ordentliche Überarbeitung läuft da eher gar nichts, es gibt keine Abwärtskompatibilität.
Edit: Also nativ in der Hardware.
Emuliert kannst Du das ganze Geraffel mit dem eDRAM der XB360 komplett ignorieren, da es sowieso nur implizit von den ROPs genutzt wurde. Man alloziert auf der XB1 den Framebuffer im eSRAM und das war es.
Auf der PS4 würde man es einfach in den Hauptspeicher packen und es wäre immer noch schneller als es auf der XB360 je war. Das ist halt nicht performancekritisch. Die Bandbreite des eDRAM der XB360 wird von der Bandbreite in den ROP-Caches heutiger GPUs mehrfach geschlagen. Pro ROP ist die Bandbreite pro Takt der ROP-Caches identisch zu dem des eDRAM bei der XB360 (aus gutem Grund ;)).

prinz_valium
2016-05-27, 15:48:32
Warum sollte man überhaupt auf HBM setzen? Weil das so "in" ist?

nein.
weil es weniger verbraucht und mehr Bandbreite bietet
und weil man damit schon für die nächste gen auf die selbe Speicher Technologie setzt. (bei vorwärts und rückwärts Kompatibilität nicht das verkehrteste) irgendwann muss man diese Änderung vornehmen. die frage ist nur zu welchem Zeitpunkt es wirtschaftlich und technologisch am sinnvollsten ist.

][immy
2016-05-27, 15:54:44
Mich hindert nichts; wie das Microsoft genau gelöst hat, weiß nur MS. Die Spiele laufen in einer virtueller Xbox360-Umgebung auf der Xbox One, sprich das Spiel verhält sich genauso wie auf der Xbox360. Wie das auf der Hardwareebene gelöst ist, finde ich nichts. Nicht unerwähnt bleiben darf, dass die Bandbreite zum eDRAM der Xbox360 deutlich höher ist als zum eSRAM der Xbox One. Trotzdem laufen die Xbox360-Spiele bis auf einige Ausreißer besser bzw. stabiler als auf dem Original (problematisch sind Szenen, in denen es auf der Xbox360 die Xenon-CPU abverlangt wurde, da sinkt die Framerate auf der One spürbar).

Denkbar wäre:

1. Microsoft motzt die GPU-Leistung auf, aber es bleibt bei eSRAM, mit dem Nachteile der Speicherbandbreite gemindert werden. Vorteil wäre, dass man nur ein Spiel entwickelt, das auf der Xbox Two eben in höherer Auflösung, mit mehr Effekten usw. läuft.

2. Microsoft motzt die GPU-Leistung auf und erhöht die gesamte Bandbreite, wie es Sony bei der PS4 gemacht hat, auf eSRAM wird verzichtet. Es werden dann eine Art "Multigenerationentitel", die jeweilige Optimierungen haben. Oder die faulen Entwickler bekommen die Möglichkeit, dass auf der Xbox Two ein Bereich des Speichers sich für eSRAM ausgibt. Problem sind dann die Latenzen. Entwickler, die eh eSRAM auf der One nicht nutzen (sofern es die überhaupt gibt), ist das sowas von egal, sie werden sich darüber eher freuen.
Bandbreiten von sram und dram sind nicht direkt miteinander vergleichbar. Zumal MS den Entwicklern selbst nur ein wenig der Bandbreite gegeben hat und das meiste "intern" reserviert war. Dram verliert bei jedem switch zwischen lesen uns schreiben effektiv an bandbreite (@gipsel, das meinte ich auch vorhin damit). D.h. hier kann man massiv einsparen. Zudem hat die GPU der xbox one (gegenüber der xbox 360) größere caches, also wirst du hier auch nicht all zu viel Bandbreite verlieren wenn die ROPS aktiv werden sollen. Also so herum ist es eigentlich "relativ" simpel den dram zu emulieren.
Und die 32GB die am ende für die Entwickler übrig blieben, kannst du locker noch über den Hauptspeicher abzwacken, wenn es da eng werden sollte.

@gipsel
es ist mir schon klar, das ein hochgezüchtete dram durchaus auch extreme Bandbreite bieten kann, diese kann aber einbrechen. sram ist hier durchaus einfacher kalkulierbar, aber natürlich ziemlich winzig. Aber für eine direkte abwärstskompatibilität sehe ich derzeit keinen anderen weg als über einen zusätzlichen sram zu gehen. kann natürlich auch am ende sein das man einfach zur Kompensation alles mit der höheren Geschwindigkeit der restlichen Komponenten ausgleicht, so das die "verspäteten" zugriffe auf den "simulierten" sram dann nicht mehr so ins Gewicht fallen.

Gipsel
2016-05-27, 16:05:58
wie ist die Latenz von hbm im vergleich zu gddr(x)?Praktisch identisch. Zumindest was die "unloaded latency" angeht.
Durch die größere Menge an unabhängigen Kanälen und die allgemein größere Bandbreite können aber mehr Speicherrequests parallel bedient werden, was eben unter Last Vorteile zeigt.

prinz_valium
2016-05-27, 16:15:28
Praktisch identisch. Zumindest was die "unloaded latency" angeht.
Durch die größere Menge an unabhängigen Kanälen und die allgemein größere Bandbreite können aber mehr Speicherrequests parallel bedient werden, was eben unter Last Vorteile zeigt.

okay danke für die info. dachte weil die chips mit auf dem die untergebracht sind, könnte man da vllt noch einiges and Latenz einsparen und Vorteile von es oder edram gleich mit bekommen.
aber das wäre dann wohl zu schön um wahr zu sein.

Gipsel
2016-05-27, 16:18:15
[immy;11046557']@gipsel
es ist mir schon klar, das ein hochgezüchtete dram durchaus auch extreme Bandbreite bieten kann, diese kann aber einbrechen.Wenn Du etwas mehr Aufwand beim Controller treibst (kann man ja locker durch die Flächenersparnis, insbesondere bei on-Die eDRAM), wird das beliebig unwahrscheinlich. Du benötigst bloß eine Unmenge an parallel arbeitenden Kanälen, auf die eben unabhängig voneinander zugegriffen werden kann. Und dann wird für große Arrays auch die Latenz konkurrenzfähig mit SRAM (weil SRAM mit größeren Arrays immer langsamer wird). Genau das hat IBM damals propagiert.
Man benötigt nur sehr selten alles gleichzeitig: Zugriff auf quasi zufällige Adressen, das Ganze auf großen Speichermengen (also größer als letzte Cachestufe) und dann noch sehr hohe Bandbreite. Nur wenn alle drei Bedingungen gleichzeitig erfüllt ist, hat SRAM wirklich mal Vorteile. Mit ein paar MB Cache fängt man allerdings schon das Meiste ab. Mit einem vernünftigen Kombination von Cache und (DRAM-)Speicher wird ein reiner SRAM-Speicherpool also zumeist größtenteils überflüssig, wenn man nicht extreme oder sehr spezielle Anforderungen irgendwo hat.

][immy
2016-05-27, 16:28:37
Hätte MS sowas in der XB1 eingebaut, wäre es eine Überlegung wert. Allein, das haben sie nicht. Es gibt nur ein 512Bit-Interface zum eSRAM.


hier muss ich dich leider ein wenig korrigieren

"ESRAM has four memory controllers and each lane is 256-bit making up a total of 1024 bits and that in each direction.
Es ist ein 2048 Bit Speicherinterface (1024 Bit lesen und 1024 bit schreiben). Verpackt in 512KB blöcke die separat angesteuert werden kann. Und für diese kleine Größe ist die Bandbreite enorm.
Da sich jeder 512KB block einzeln ansteuern lässt, wäre der kleinste zugriff auch 32bit breit.

Wenn Du etwas mehr Aufwand beim Controller treibst (kann man ja locker durch die Flächenersparnis, insbesondere bei on-Die eDRAM), wird das beliebig unwahrscheinlich. Du benötigst bloß eine Unmenge an parallel arbeitenden Kanälen, auf die eben unabhängig voneinander zugegriffen werden kann. Und dann wird für große Arrays auch die Latenz konkurrenzfähig mit SRAM (weil SRAM mit größeren Arrays immer langsamer wird). Genau das hat IBM damals propagiert.
Man benötigt nur sehr selten alles gleichzeitig: Zugriff auf quasi zufällige Adressen, das Ganze auf großen Speichermengen (also größer als letzte Cachestufe) und dann noch sehr hohe Bandbreite. Nur wenn alle drei Bedingungen gleichzeitig erfüllt ist, hat SRAM wirklich mal Vorteile. Mit ein paar MB Cache fängt man allerdings schon das Meiste ab. Mit einem vernünftigen Kombination von Cache und (DRAM-)Speicher wird ein reiner SRAM-Speicherpool also zumeist größtenteils überflüssig, wenn man nicht extreme oder sehr spezielle Anforderungen irgendwo hat.
Ich bezweifle aber nach wie vor stark das es sich so leicht emulieren lässt. Es geht halt alles auch um die Abwärtskompatibilität und was sich da Entwickler für tricks haben einfallen lassen um die Vorteile des kleinen Speichers zu nutzen. Aber wie schon erwähnt, wenn der Rest des system einfach früher mit den Berechnungen fertig ist, wäre auch wieder mehr zeit verfügbar um auf den Speicherinhalt zu warten und es würde nicht weiter ins Gewicht fallen.



Nun eventuell mal zurück zum Thema.
Auf welchen Preis könnte MS mit einer ~6TF Konsole mit der 16nm Fertigung kommen?

Wenn man bedenkt, das vermutlich die CPU höher getakten wird, ein andere Speicher verbaut wird und die GPU vergrößert wird, ist der Preis von aktuell 350€ noch haltbar oder tendiert es doch wieder Richtung 500€?
Es soll ja laut dem Gerücht ende des Jahres ein kleinere xbox one geben. Vermutlich wird die dann auch wieder mit 300€ zuschlagen, da Festplatten-Platz auch in der Vergangenheit bei Konsolen immer extrem viel mehr kostete.

Gipsel
2016-05-27, 17:16:30
[immy;11046593']hier muss ich dich leider ein wenig korrigieren

Es ist ein 2048 Bit Speicherinterface (1024 Bit lesen und 1024 bit schreiben). Verpackt in 512KB blöcke die separat angesteuert werden kann. Und für diese kleine Größe ist die Bandbreite enorm.
Da sich jeder 512KB block einzeln ansteuern lässt, wäre der kleinste zugriff auch 32bit breit.Okay, war aus der Erinnerung. Das Interface ist doppelt so breit, wie ich geschrieben habe, läuft aber im Ausgleich nur mit halbem Takt :wink: (genauer mit GPU-Takt, die von mir genannten Bandbreiten kommen also schon hin). Und es gibt insgesamt vier 8MB-Slices (passend zu den vier Sätzen an Schreib- und Leseports) und jeder davon ist in 8 Bänke unterteilt, auf die unabhängig zugegriffen werden kann (bei gleichzeitigem Schreib- und Lesezugriff kommt es also zur Kollision, wenn es in den gleichen MB geht [nicht 512kB], und die Zugriffsgranularität ist mindestens 32Byte, vermutlich aber sogar 64Byte [Cachelinegröße], nicht 32bit [geht schon wegen der 256Bit-Interfaces nicht, das ist das untere Limit]).
http://images.eurogamer.net/2013/articles//a/1/6/1/2/9/1/9/33.png/EG11/resize/600x-1/quality/90/format/jpg
Und <200GB/s Bandbreite ist für SRAM nun alles Andere als eine enorme Bandbreite. Und die läßt sich ja nur erreichen, wenn man parallel auf exakt 8 verschiedene 1MB-Bereiche zugreift, auf vier davon lesend, auf vier davon schreibend, wobei sich die noch jeweils passend auf die vier 8MB-Slices aufteilen müssen, weswegen eben praktisch meist nicht wirklich viel mehr als 100GB/s rumkommen. Bei Zugriff auf einen einzelnen 1MB-Abschnitt beträgt die Bandbreite gerade mal 27GB/s (oder wie meintest Du das, daß die Bandbreite für so ein kleines SRAM-Array beträchtlich wäre?). Da ginge viel mehr, wenn man das wollte. Nur mal so zur Einordnung, bei AMD-GPUs hat jeder L2-Slice (je nach GPU entweder 64kB oder 128kB) eine 512Bit-Anbindung, und bei Hawaii gibt es 16 davon (insgesamt 8192Bit, also 1kB/Takt Bandbreite, bei 1GHz ist das also 1TB/s [64GB/s pro Slice], und Caches sind komplizierter vom Zugriff her).
[immy;11046593']Ich bezweifle aber nach wie vor stark das es sich so leicht emulieren lässt. Es geht halt alles auch um die Abwärtskompatibilität und was sich da Entwickler für tricks haben einfallen lassen um die Vorteile des kleinen Speichers zu nutzen. Aber wie schon erwähnt, wenn der Rest des system einfach früher mit den Berechnungen fertig ist, wäre auch wieder mehr zeit verfügbar um auf den Speicherinhalt zu warten und es würde nicht weiter ins Gewicht fallen.Genau. Und da der eSRAM nun nicht übermäßig schnell ist, schlägst Du das Problem z.B. einfach mit einem 200+GB/s Speichersystem inklusive Framebufferkompression, doppelt so viel Cache und doppelt so vielen ROPs (die ja integrierte Caches haben und wohl zu 90% der eSRAM-Zugriffe auf der XB1 verantwortlich sind) tot. Das dürfte wohl für 99+% der Fälle locker ausreichen.

deekey777
2016-06-13, 21:03:39
Sie kommt: http://www.heise.de/newsticker/meldung/Ende-2017-kommt-die-Mega-XBox-Scorpio-4K-Gaming-mit-60-fps-6-TFlops-und-320-GByte-s-3237178.html

][immy
2016-06-13, 21:09:17
Wenn wir davon ausgehen, das auch diese Konsole wie die PS4 Neo wieder die 500€ Preismarke erreichen/überschreiten wird, glaubt ihr dann das Sie auch etwas ähnlich dramatisches wie mit der GPU ebenfalls mit der CPU machen werden?
Was würde hier mehr sinn ergeben (abgesehen das bisher nicht viel von Zen bekannt ist). deutlich höhrer Takt, oder noch mehr Kerne bei ~2-2,2Ghz?

edit:
oh sehe grad "nur" 8 Kerne :)

prinz_valium
2016-06-13, 21:43:50
[immy;11066229']Wenn wir davon ausgehen, das auch diese Konsole wie die PS4 Neo wieder die 500€ Preismarke erreichen/überschreiten wird, glaubt ihr dann das Sie auch etwas ähnlich dramatisches wie mit der GPU ebenfalls mit der CPU machen werden?
Was würde hier mehr sinn ergeben (abgesehen das bisher nicht viel von Zen bekannt ist). deutlich höhrer Takt, oder noch mehr Kerne bei ~2-2,2Ghz?

edit:
oh sehe grad "nur" 8 Kerne :)

8 zen cores - keine chance, dass man wieder auf eine schwache jaguar cpu oder sonst was setzt
ich denke das ist ziemlich okay. vllt können die ja auch HT und man hat so 16 threads


preis wird mit Sicherheit bei 499 liegen
selbst die olle one hat sich zu dem preis 3 Millionen mal verkauft in 2 Monaten. und für alle, denen das zu viel ist, gibt es zu der zeit dann die One S für 199

Kartenlehrling
2016-06-13, 22:45:15
Sie zeigen aber verdammt viel vom innenleben der Box.

Felixxz2
2016-06-13, 23:51:22
Xbox Scorpio kommt mit 6TFLOP/s und 320GB/s. Polaris, Vega oder irgendwas ganz eigenes? Evtl. P10 Vollausbau mit GDDR5X? Um meine Speku von vor paar Seiten wieder auszugraben :D

Wixi
2016-06-13, 23:56:36
Microsoft widerspricht sich, mal sagen Sie im Video/Trailer 6TFLOP's für den Soc, mal 6TFLOP/s GPU-Power...Ich schätze sie meinen 6TFLOPS inkl. die 8 CPU Kerne.

Sunrise
2016-06-13, 23:57:46
Xbox Scorpio kommt mit 6TFLOP/s und 320GB/s. Polaris, Vega oder irgendwas ganz eigenes? Evtl. P10 Vollausbau mit GDDR5X? Um meine Speku von vor paar Seiten wieder auszugraben :D
Wie oft soll man es noch erklären? Es ist ein Custom-SoC und außerdem der falsche Thread.

iuno
2016-06-14, 00:03:47
8 Zen Kerne waeren doch imho voellig OP fuer die GPU, wenn das Teil auf 6 TFLOPs kommt. Grafikleistung ist immer noch deutlich wichtiger und aktuell braucht man quasi fuer kein Spiel annaehernd einen aktuellen Intel Core mit 8 Kernen, um es auf "Konsolenniveau" spielen zu koennen. Ausser die Kerne sind sehr langsam getaktet, aber das ergibt doch auch keinen Sinn, zumal der SoC wohl ohnehin schon sehr gross wird.

Ende 2017 haette ich ehrlich gesagt auch mit HBM gerechnet. Unfassbar wie langsam der sich verbreitet, muss ja auch dann laut deren Prognosen immer noch schweineteuer sein. Hatte wohl sehr optimistisch gehofft, Konsolen, Notebooks bekommen da mal langsam APUs mit HBM... :rolleyes:

prinz_valium
2016-06-14, 00:22:16
8 Zen Kerne waeren doch imho voellig OP fuer die GPU, wenn das Teil auf 6 TFLOPs kommt. Grafikleistung ist immer noch deutlich wichtiger und aktuell braucht man quasi fuer kein Spiel annaehernd einen aktuellen Intel Core mit 8 Kernen, um es auf "Konsolenniveau" spielen zu koennen. Ausser die Kerne sind sehr langsam getaktet, aber das ergibt doch auch keinen Sinn, zumal der SoC wohl ohnehin schon sehr gross wird.

Ende 2017 haette ich ehrlich gesagt auch mit HBM gerechnet. Unfassbar wie langsam der sich verbreitet, muss ja auch dann laut deren Prognosen immer noch schweineteuer sein. Hatte wohl sehr optimistisch gehofft, Konsolen, Notebooks bekommen da mal langsam APUs mit HBM... :rolleyes:

wie kommst du darauf?
die gpu wird eine abgespeckte vega 10 oder aufgebohrte polaris 10
dazu muss man 90fps flüssig für vr liefern können.
die zen cores werden dank tpd limitierung auch nicht mit 4ghz laufen
also nein. zen cores sind alles andere als zu viel.

außerdem hoffe ich, dass wir endlich mal fortschritte bei ki und sonstigen dingen machen. gaming ist nicht nur grafik. machine learning und intelligence ist ja in anderen Bereich voll im trend. sowas hätte ich dann in einer kleinen form gerne auch bei games.

bertramfx
2016-06-14, 07:49:23
Sehr interessant. Viele Xone Spiele nuzten Dynamic Resolution um 60fps zu erreichen (Halo 5, Doom etc). Die Scorpio dürfte mit mehr Power konstant 1080p erreichen. Auch Quantum Break, das gerne unter 30fps fällt dürfte wenigstens stabile 30fps erreichen. Eventuell wird sogar backward compatibility zur X360 übernommen. Dann dürfte sogar Hoffnung bestehen, Gears of War 2,3 und Judgement Day im Splitscreen Co-op bei 30 fps zu spielen - auf der Xone ist dass noch eine ziemlich Ruckelorgie.

Wie bei Konsolen üblich, ist die Nachfolgegeneration die bessere Plattform für Last-gen Spiele. Diesmal könnte aber die Notwendigkeit für remastered Versionen entfallen.

deekey777
2016-06-14, 08:10:19
GoW-Spiele laufen im Kompatibilitätsmodus, nur die UE ist ein echtes X1-Spiel. Darum ruckelt es, wenn die CPU gefordert wird (3x3,2 GHz PPC plus HTT in der Xbox360 gegen 8x1,75 Jaguar-GHz der Xbox One).

8 Zen Kerne waeren doch imho voellig OP fuer die GPU, wenn das Teil auf 6 TFLOPs kommt. Grafikleistung ist immer noch deutlich wichtiger und aktuell braucht man quasi fuer kein Spiel annaehernd einen aktuellen Intel Core mit 8 Kernen, um es auf "Konsolenniveau" spielen zu koennen. Ausser die Kerne sind sehr langsam getaktet, aber das ergibt doch auch keinen Sinn, zumal der SoC wohl ohnehin schon sehr gross wird.

Ende 2017 haette ich ehrlich gesagt auch mit HBM gerechnet. Unfassbar wie langsam der sich verbreitet, muss ja auch dann laut deren Prognosen immer noch schweineteuer sein. Hatte wohl sehr optimistisch gehofft, Konsolen, Notebooks bekommen da mal langsam APUs mit HBM... :rolleyes:

Du weißt doch, es werden Zen-Lite-Kerne sein.

r3ptil3
2016-06-14, 08:52:45
Das einzige was mir dabei in den Sinn kommt ist, dass 6 Tflops dieses Jahr fast schon zum Mainstream werden und die Scorpio kommt dabei nicht Ende 2016 sondern Ende 2017.

deekey777
2016-06-14, 08:59:04
Das einzige was mir dabei in den Sinn kommt ist, dass 6 Tflops dieses Jahr fast schon zum Mainstream werden und die Scorpio kommt dabei nicht Ende 2016 sondern Ende 2017.

Ja, so sieht es aus, aber das ist völlig in Ordnung. Anders als die PS4 war die Xbox One doch etwas schwach auf der Brust; der Spung ist wirklich sehr groß, viel größer als bei der vermeintlichen PS4-Neo. Die kommende RX 480 wird zeigen, in welche Richtung die Leistung der Scorpio gehen wird.

Es gibt aktuell keine Aussagen zu den Spielen, nur, dass schon ab August die Entwickler gebeten werden, ihre Spiele für die Xbox One/-S und Scorpio zu entwickeln. Aber was heißt das?

Korvaun
2016-06-14, 10:01:51
Alle Engines die "dynamic resolution" beherrschen können die Scorpio dann sofort gut ausnutzen. Entweder werden die fps auf 60 festgelegt und die Auflösung steigt dann nur mäßig bzw. geht seltener unter 1080p, oder es bleibt bei 30fps lock und die Auflösung geht halt in Richtung 4K. Das wäre die einfachste Variante für Entwickler. Mehr Aufwand würde dann bedeuten besseres AA, bessere Texturen, bessere/mehr Shader, etc...

Aber bei grob 4facher Leistung sollte da ein wirklich sofort *sichtbarer* Qualitätsgewinn immer drin sein...

Nightspider
2016-06-14, 10:58:41
Die Xbox One hat 68,3 GB/s und die Xbox Scorpio 320 GB/s.
Dank Vega Architektur dürfte die effektive Bandbreite locker gegen 640 GB/s gehen.

Dennoch frage ich mich warum man Ende 2017 nicht auf HBM setzt. 16GB HBM2 sollten Ende 2017 doch locker drin sein und man hätte ~1024 GB/s.

deekey777
2016-06-14, 11:01:35
HBM/HBM 2 liegt ja überall auf der Straße und kostet nichts.

iuno
2016-06-14, 11:46:27
Hätte auch gerne HBM gesehen, zugegebenermaßen zu dem Zeitpunkt auch erwartet. Das verbreitet sich wirklich gähnend langsam... Oder MS trollt mit dem Modell ;)

deekey777
2016-06-14, 11:51:34
Hätte auch gerne HBM gesehen, zugegebenermaßen zu dem Zeitpunkt auch erwartet. Das verbreitet sich wirklich gähnend langsam... Oder MS trollt mit dem Modell ;)

Microsoft will mit der Konsole doch Geld verdienen, oder? Auch Ende 2017 wird es wohl nur solche Grafikkarten mit (viel) HBM geben, die so teuer wie die Scorpio sind. Die Konsole besteht aber nicht nur aus Hardware, sondern aus zig Lizenzen für jeden so kleinen Mist.

HOT
2016-06-14, 11:57:13
Sie zeigen aber verdammt viel vom innenleben der Box.
Wenn das überhaupt repräsentativ ist, sind das 384Bit 7Gbps GDDR5 (mit etwas abgesprecktem Takt kommt man auf 320GB/sec) - mit ziemlicher Sicherheit 12GB davon. Damit wäre der eDRAM auch Geschichte - man braucht den Platz eher für mehr CUs.
Das Teil hat sicherlich wie gesagt Vega-IP (wahrscheinlich modifiziert) und ein Zen-Modul (= 4 Zen-Kerne). Ich glaub nicht, dass man die CPU modifiziert, das wär einfach zu teuer. Mehr Kerne macht für ne Konsole keinen Sinn, das Teil hat dann ja schon 8 Threads. Und die CPU ist definitiv auch so schnell genug für alle bisherigen XB1-Titel mit Jaguar-Optimierung und auch die Emulation der alten XB-Titel wird besser laufen. Der SoC hat dann in 14nm so ca. 300-320mm² würd ich schätzen, was auch sehr gut zu 384Bit passt.

Avalox
2016-06-14, 11:58:11
Gab es schon mal solch einen vergleichbar langen Vorstellungszeitraum für eine Konsole?

Die neue XBox one P(?) soll im Winter 2017 auf den Markt kommen und wir haben jetzt Frühling 2016.

Was reitet Microsoft solch eine Ankündigung jetzt zu machen?

Die One S kommt doch schon vorher auf den Markt?

megachip800
2016-06-14, 12:02:59
Dann wird der Abstand zum Spielepc noch groesser werden. 320gbyte/s sind zu wenig fuer
6 Tflops und ne ZenCPU (wenn eine drin ist) gelinde gesagt laecherlich noch nicht
mal doppelt so schnell wie die Bandbreite der Ps4 (2x 176gbytte= 352gbyte), Effizienz hin oder her wenn die GPU kein seperaten Framebuffer hat wird die GPU Leistung bei CPU Zugriffe genauso abkacken wie bei der PS4.

iuno
2016-06-14, 12:07:33
Was reitet Microsoft solch eine Ankündigung jetzt zu machen?
Vielleicht hatten sie einfach schlechte/falsche Infos und dachten, Sony stellt die Neo offiziell vor.

Vielleicht wollen sie aber auch ein Statement setzen, dass die Konsole weiterhin eine andere Prioritaet hat als normale PCs, nachdem es jetzt offenbar keinen einzigen Titel mehr exklusiv fuer XBox geben soll

deekey777
2016-06-14, 12:07:52
Panikreaktion auf die Neo-Spekulationen.

Es ist schon irgendwie amüsant:

Spencer macht eine unvorsichtige Äußerung, die so interpretiert wurde, dass es eine aufrüstbare Xbox geben wird; er hat versucht das klarzustellen, aber keiner kaufte ihm das ab. Später kamen die vermeintlichen Insiderinfos, dass es eine PS4K geben wird, die dann von dem Insider des Insiders bestätigt wurden. Und es wurden gar vermeintliche Spezifikationen bzw. Vorgaben und Reaktionen auf die PS4K gepostet, die ab sofort Neo heißt. Microsoft schwieg, aber in letzten Wochen kamen die Gerüchte, dass MS 2017 nicht kleckert, sondern klotzt. Erste Infos zu Scorlio und Helix kamen. Gestern kam die Bestätigung.

Im August kommt die S, die gar etwas stärker als die One sein soll. Und Ende 2017 kommt die Scorpio, die viel leistungsfähiger sein wird.

HOT
2016-06-14, 12:15:01
Die S muss ja ebenfalls einen neuen SoC haben. Ein Shrink auf 20SoC?

mboeller
2016-06-14, 12:21:41
Gab es schon mal solch einen vergleichbar langen Vorstellungszeitraum für eine Konsole?

Die neue XBox one P(?) soll im Winter 2017 auf den Markt kommen und wir haben jetzt Frühling 2016.

Was reitet Microsoft solch eine Ankündigung jetzt zu machen?

Die One S kommt doch schon vorher auf den Markt?


IMHO machen das doch alle so. Wenn die Gegenwart "Shit" ist verspricht man die goldene Zukunft. Das hat zB. Mediatek mit dem X30 genauso gemacht. Die X20/25 sehen anscheinend kein Land gegen den SD820 ... also bringt man den X30 ins Spiel bzw. stellt ihn jetzt vor obwohl der SoC erst Anfang 2017 kommt.

Die XBox One ist halt im Vergleich zur PS4 "nicht so erfolgreich" ergo verspricht man die goldene Zukunft irgendwann in 1,5 Jahren.

Kartenlehrling
2016-06-14, 12:52:47
XBoneS ist erste mal da um ihr Monopol ein Geräte für alle Wohnzimmer Medien zu "behalten" und weiter zu führen,
in USA sind schon mehr 4K TV verteilt als bei uns, bei uns kann zwar jeder zweite mit den Begriffe 4k und UHD was anfangen,
aber gerademal 3,5Mio TV sind in Deutschand verkauft, in Amerika erwarte man das 1/3 der Haushalte bis 2019 ein 4k TV hat.
Schliesslich kann sich jeder an die XBone präsentation erinnern .... TV, TV, TV ...Sport ! (https://www.youtube.com/watch?v=KbWgUO-Rqcw)

Dural
2016-06-14, 13:41:08
Ich frage mich nur wie sie 6TF und eine CPU + Chipsatz + 384Bit GDDR5 mit einem vernünftigen verbrauch hinbekommen wollen.

Ende 2017 könnte auch schon 10nm sein, in 16nm dürfte man da sehr nahe an die 200Watt kommen.

ChaosTM
2016-06-14, 13:54:19
Die fette PS3 hat auch an die 200 Watt gezogen, das sollte nicht das Problem sein. Die frühe Ankündigung hingegen ist höchst seltsam..

][immy
2016-06-14, 14:12:56
Ich finde es auch hier wieder seltsam das der Speicher nicht erhöht wird. Zwar ist die Bandbreite gesteigert worden, aber 8GB im Jahre 2017 ... wenn man hier etwas mehr machen will als nur 4k Auflösung sondern auch mal die Texturqualität etc, das ist es doch wie bei der PS4 neo, es dürfte nicht genügend Speicher vorhanden sein. Eventuell gibt MS hier ja auch noch mehr Speicher von den 8GB frei, so das dann am ende 5,5-6GB zur Verfügung stehen. Aber bei 4k + ordentlichen Texturen ist das heutzutage schon ein wenig, wenig.

][immy
2016-06-14, 14:15:41
Gab es schon mal solch einen vergleichbar langen Vorstellungszeitraum für eine Konsole?

Die neue XBox one P(?) soll im Winter 2017 auf den Markt kommen und wir haben jetzt Frühling 2016.

Was reitet Microsoft solch eine Ankündigung jetzt zu machen?

Die One S kommt doch schon vorher auf den Markt?
eventuell um die Luft aus der PS4k raus zu lassen, die wohl auch nächstes Jahr erscheint. Sony hier ein wenig druck machen kann wohl nicht schaden.
Abgesehen davon, die Leaks haben eh schon alles vorher verraten. Eigentlich sind die Pressekonferenzen inzwischen extrem langweilig. Alles hat man ein paar Tage vorher schon lesen/sehen können durch irgendwelche Leaks.

dildo4u
2016-06-14, 14:18:43
Ich frage mich nur wie sie 6TF und eine CPU + Chipsatz + 384Bit GDDR5 mit einem vernünftigen verbrauch hinbekommen wollen.

Ende 2017 könnte auch schon 10nm sein, in 16nm dürfte man da sehr nahe an die 200Watt kommen.
6 Tflops für den ganzen SOC laut dem Video könnte also sein das "nur" eine 480 drin ist aber halt mit GDDR5X damit die CPU noch genug Bandbreite hat.Mit Jaguar CPU in 14nm sollte man deutlich unter 200 Watt bleiben

https://youtu.be/F1dRgWpGePs?t=1m

Gipsel
2016-06-14, 14:20:29
[immy;11067042']Ich finde es auch hier wieder seltsam das der Speicher nicht erhöht wird. Zwar ist die Bandbreite gesteigert worden, aber 8GB im Jahre 2017.8GB an einem 384Bit-Interface werden schwierig (wohl eher 12GB). Also sollte das Renderbildchen überhaupt dem Zustand in anderthalb Jahren entsprechen. Ich wäre also noch vorsichtig mit solchen Einschätzungen.

=============================

Ich frage mich nur wie sie 6TF und eine CPU + Chipsatz + 384Bit GDDR5 mit einem vernünftigen verbrauch hinbekommen wollen.Ganz einfach: Man nehme ein paar mehr CUs als bei der RX480, takte die etwas geringer, genau wie den Speicher (wo man eine low-power-Variante mit weniger Spannung verbaut) und packe wieder 8 low-Power-Kerne dazu. Dann bekommt man das Alles zusammen auch locker in 150W unter.

iuno
2016-06-14, 14:25:25
Das ist ja ein custom-SoC, der so sonst nirgends gebaut wird. Von der Planung bis zur moeglichen Massenproduktion wird es doch in nicht viel kuerzer als diesen Zeitraum von knapp 1,5 Jahren brauchen oder doch?
Ich denke schon, dass die sich da ziemlich sicher sind, wie das Ding aussehen soll. Wenn es am Ende keine 12 Speicherchips sind wuerde ich das eher als bewusste Taeuschung sehen.

][immy
2016-06-14, 14:28:50
8GB an einem 384Bit-Interface werden schwierig (wohl eher 12GB). Also sollte das Renderbildchen überhaupt dem Zustand in anderthalb Jahren entsprechen. Ich wäre also noch vorsichtig mit solchen Einschätzungen.

Dachte eigentlich die hätten da irgendwas von 8GB RAM gesagt bei der Vorstellung, aber hatte ich vielleicht auch nur falsch im Kopf.

Dural
2016-06-14, 14:29:38
Da wird der SoC einfach noch mal grösser ;) wobei 150Watt schon sehr grosszügig sind, wenn man bedenkt das Polaris alleine soviel hat.

Zudem habe ich zweifel ob da wirklich solche Low CPUs wie bei der XOne drin sind, macht bei so viel Leistung doch auch nicht mehr viel Sinn.

Gipsel
2016-06-14, 14:32:15
Ich denke schon, dass die sich da ziemlich sicher sind, wie das Ding aussehen soll. Wenn es am Ende keine 12 Speicherchips sind wuerde ich das eher als bewusste Taeuschung sehen.Das ist durchaus möglich. Oder das Bild zeigt sowas wie ein frühes DevKit (die haben durchaus mal abweichende Specs und hier vielleicht sogar getrennte CPU und GPU [Hawaii würde grob hinkommen mit knapp 6 TFlop/s und 384Bit], also im Prinzip schlicht ein PC mit AMD-CPU und Grafikkarte mit anderem OS), mit dem die Entwickler schon mal die höhere Performance austesten können. Klingt vielleicht etwas weit hergeholt, würde ich aber nicht für unmöglich halten.

Gipsel
2016-06-14, 14:41:17
Da wird der SoC einfach noch mal grösser ;)Schau Dir die Takte der X1 oder auch PS4 an. Die 853MHz bzw. gar nur 800MHz (und 1,75 bzw. 1,6GHz für die CPU-Kerne) sind da auch längst nicht das Ende der Fahnenstange. Die hat man auch gewählt, um eine bestimmte Leistung in einem bestimmten Powerbudget hinzubekommen und dafür ein etwas größeres Die in Kauf genommen. Kühlung und hitzebedingte Ausfälle kosten nämlich auch Geld, nicht nur das Die. ;)
wobei 150Watt schon sehr grosszügig sind, wenn man bedenkt das Polaris alleine soviel hat.Nein. :rolleyes:
Zudem habe ich zweifel ob da wirklich solche Low CPUs wie bei der XOne drin sind, macht bei so viel Leistung doch auch nicht mehr viel Sinn.Ist doch völlig egal. Wenn die nicht geshrinkte Puma-Kerne bei ähnlichem Verbrauch wie in der X1 auf knapp 3 GHz jagen wollen, packen die eben 8 relativ niedrig getaktete Zen-Kerne rein (da Zen aber für höheren Takt als Jaguar/Puma ausgelegt ist, dürften das auch bestimmt locker 3 GHz sein). Die verbrauchen bei relativ niedrigem Takt auch dann in 14nm nicht mehr als die 8 Jaguar-Kerne, haben aber ein deutlich höhere Leistung. Das bekommt man schon hin, falls man will.

Sunrise
2016-06-14, 14:42:45
Gab es schon mal solch einen vergleichbar langen Vorstellungszeitraum für eine Konsole?

Die neue XBox one P(?) soll im Winter 2017 auf den Markt kommen und wir haben jetzt Frühling 2016.

Was reitet Microsoft solch eine Ankündigung jetzt zu machen?
Im Internet redete ausnahmslos jeder über die PS4 NEO und um Sony. Das ist Marketing-technisch ungut für MS, weil zusätzliche Werbung für SONY. Jede Presse ist gute Presse. Zudem lag man ja bei den Verkäufen bzw. der allgemeinen Wahrnehmung immer hinter SONY, auch aufgrund der schlechteren HW (interessiert den Endkunde nicht, dennoch weiß es fast jeder).

Insofern hat MS hier dagegen gesteuert und Fakten gebracht und das ist auch aus Sicht der Transparenz zu begrüßen. Denn egal ob oder ob nicht, wir wissen es nun.

Dural
2016-06-14, 14:44:17
wie gross sind die Die bei den aktuellen Konsolen? ich weis es gerade nicht auswendig :rolleyes:

iuno
2016-06-14, 14:45:55
~350 mm²
The Xbox One die is 363 square millimeters, up from the PS4’s 348 sq mm.
http://www.extremetech.com/gaming/171735-xbox-one-apu-reverse-engineered-reveals-sram-as-the-reason-for-small-gpu
(allerdings haben sie im PS4 Artikel von 328 sqmm geschrieben: http://www.extremetech.com/extreme/171375-reverse-engineered-ps4-apu-reveals-the-consoles-real-cpu-and-gpu-specs)

Gipsel
2016-06-14, 14:47:49
wie gross sind die Die bei den aktuellen Konsolen? ich weis es gerade nicht auswendig :rolleyes:
XB1 ist 363mm², PS4 348mm².

Edit:
(allerdings haben sie im PS4 Artikel von 328 sqmm geschrieben: http://www.extremetech.com/extreme/171375-reverse-engineered-ps4-apu-reveals-the-consoles-real-cpu-and-gpu-specs)Chipworks selber schreiben 363mm² (http://www.chipworks.com/about-chipworks/overview/blog/inside-xbox-one) und 348mm² (http://www.chipworks.com/about-chipworks/overview/blog/look-sony%E2%80%99s-playstation-4-core-processor), und denen vertraue ich da eher. Die haben die SoCs immerhin auch bis auf Transistorlevel abgetragen und schicke Fotos gemacht.

deekey777
2016-06-14, 14:49:39
wie gross sind die Die bei den aktuellen Konsolen? ich weis es gerade nicht auswendig :rolleyes:
um 350 mm²

Das ist ja ein custom-SoC, der so sonst nirgends gebaut wird. Von der Planung bis zur moeglichen Massenproduktion wird es doch in nicht viel kuerzer als diesen Zeitraum von knapp 1,5 Jahren brauchen oder doch?
Ich denke schon, dass die sich da ziemlich sicher sind, wie das Ding aussehen soll. Wenn es am Ende keine 12 Speicherchips sind wuerde ich das eher als bewusste Taeuschung sehen.
Was wäre es doch für ein herrlicher Shitstorm, wenn das Ding mit HBM2 kommt. Da fühlt man sich richtig verarscht.
:ulol:

prinz_valium
2016-06-14, 14:49:49
edit: nvm lol

iuno
2016-06-14, 14:58:11
Chipworks selber schreiben 363mm² (http://www.chipworks.com/about-chipworks/overview/blog/inside-xbox-one) und 348mm² (http://www.chipworks.com/about-chipworks/overview/blog/look-sony%E2%80%99s-playstation-4-core-processor), und denen vertraue ich da eher.
Klar, dachte nur irgendwie, dass deren Berichte nicht oeffentlich zugaenglich sind :ugly:
Was wäre es doch für ein herrlicher Shitstorm, wenn das Ding mit HBM2 kommt. Da fühlt man sich richtig verarscht.
:ulol:
Wieso soll das einen Shitstorm geben?

Gipsel
2016-06-14, 15:00:54
Klar, dachte nur irgendwie, dass deren Berichte nicht oeffentlich zugaenglich sind :ugly:Die detaillierten (wo es sehr hochaufgelöste Dieshots gibt und die z.B. auch genau den Aufbau einer SRAM-Zelle oder sogar einzelner Transistoren analysieren) sind es auch nicht. Dafür wollen die ordentlich Kohle sehen. Der Blog ist ja nur so ein wenig zum Anfüttern da.

Nightspider
2016-06-14, 15:14:16
Zen und Vega sind effizienter als Jaguar und Polaris.

Und keiner sagt das die Zen Kerne mit 3Ghz laufen müssten. 8 Zen Kerne mit 2,5Ghz und SMT wären schon massiv schneller als die Jaguar Kerne in der Xbox One.

deekey777
2016-06-14, 15:15:58
Zen und Vega sind effizienter als Jaguar und Polaris.

Und keiner sagt das die Zen Kerne mit 3Ghz laufen müssten. 8 Zen Kerne mit 2,5Ghz und SMT wären schon massiv schneller als die Jaguar Kerne in der Xbox One.
Klar doch.

Und jetzt als Einwand:
Die Jaguar-Kerne nehmen etwa 20% der Die-Fläche in Anspruch, wie viel Die-Fläche nehmen dann 8 Zen-Kerne weg?

Nightspider
2016-06-14, 15:23:01
In 14nm? Ich schätze mal 25-30%.

iuno
2016-06-14, 15:23:45
Wie viel das anteilsmaessig ist, wird keiner genau schaetzen koennen. Um trotzdem mal was in die Runde zu werfen, nenne ich grob 40 mm² fuer einen Zen cluster mit 4C inkl $, basierend auf dem SR die shot.
Ich halte da 8 Zen Kerne doch fuer sehr unwahrscheinlich. Zumal dann imho die Balance auch einfach nicht passt.

][immy
2016-06-14, 15:24:03
Klar doch.

Und jetzt als Einwand:
Die Jaguar-Kerne nehmen etwa 20% der Die-Fläche in Anspruch, wie viel Die-Fläche nehmen dann 8 Zen-Kerne weg?
vermutlich prozentual weniger, da die GPU größer ist :P

natürlich dürfte Zen ein wenig größer sein als Jaguar (zumindest wenn es stimmt das Zen effizienter/schneller arbeitet als Jaguar). Ich erwarte bei der CPU aber auch einen deutlichen Zuwachs. Nicht weil es die Spiele jetzt unbedingt bräuchten, sondern eher, da MS nach wie vor ein Mediencenter haben möchte. Eine "Windows 10 Machine", wenn man denn so will. Zudem soll auch VR unterstützt werden, wo vermutlich auch mehr CPU Leistung dankend entgegen genommen werden dürfte. Aber insgesamt wird sicherlich der CPU-Anteil am Chip sinken.
Ich würde mal bei der GPU drauf tippen, das diese Breiter wird als eine Desktop-GPU mit ähnlicher Leistung (abgesehen vom Shrink auf 14nm), denn in der Konsole wird man sicherlich nichts hochgetaktetes haben wollen, sondern wohl eher etwas, was nach Möglichkeit im power-limit bleibt und nicht all zu viel Hitze erzeugt. Also würde ich auf etwas breiteres als Polaris tippen (bei dem, was bisher so von dem chip bekannt ist).
100 Watt für die CPU allein wird man auch nicht nehmen können, daher bleibt eigentlich nur eine mobile-variante.

deekey777
2016-06-14, 15:33:07
Ich hätte "absolut" schreiben sollen. ;D
Aber (vorausgesetzt) das ESRAM wegfällt?

Im Ernst: Hauptsache ist, dass verstanden wurde, was ich meine. Die tatsächliche Die-Größe der Polaris 10 wird spätestens am 29.06.2016 bekannt, da wird man sich was aus den Fingern saugen können.

Auf der anderen Seite:
Wenn die Scorpio wie auch die Neo mindestens 499,00 US-Dollar kosten wird, kann man sich auch große Chips leisten.

Wixi
2016-06-14, 15:48:53
Ich schätze sie müssen Jaguar-Kerne nehmen allein wegen der BC, oder?

iuno
2016-06-14, 15:52:42
Mit absoluten Werten wird es auch nicht besser :P
ESRAM faellt imho weg, braucht und will keiner. Die Flaeche wird man aber fuer CUs brauchen. UVD/VCE wachsen mit neuen Features auch, das ist nicht wahnsinnig viel aber doch spuerbar. Speichercontroller wachsen deutlich und lassen sich kaum shrinken. Die GPU waechst sicher auch durch die neue IP. Ich sehe da einfach keinen Platz fuer 8 Zen Kerne.

@Wixi: Ich denke nicht. Das wird ein runderneuertes Design, mehr und viel schnellerer Speicher, kein ESRAM und viel mehr Rechenleistung. Das ganze geht sowieso schon sehr stark in Richtung PC.

prinz_valium
2016-06-14, 15:57:48
Ich schätze sie müssen Jaguar-Kerne nehmen allein wegen der BC, oder?

warum sollte das der fall sein?
müssen sie auch gnc.1.0 nehmen wegen bc? wohl kaum


die gpu wird eine andere sein und auch die cpu
die frage ist eher puma (also jaguar Nachfolger) oder zen
aber jaguar wird man im leben nicht wieder verwenden

deekey777
2016-06-14, 15:58:44
Durango ist GCN 1.1 (vielleicht auch mehr).

prinz_valium
2016-06-14, 16:02:13
Durango ist GCN 1.1 (vielleicht auch mehr).

joa war mir nicht genau bewusst welche version die xbox one nun genau ist
aber es geht auch nur um die Veranschaulichung

die scorpio wird gnc 1.3

deekey777
2016-06-14, 16:11:56
Sollte es bei x86 bleiben (davon ist wohl auszugehen), dann ist die Abwärtskompatibilität und auch Vorwärtskompatibilität keine so große Hürde.

Tamagothi
2016-06-14, 17:57:06
Bei 6 Tflops kann oder besser gesagt muss Zen ran. Die Jaguar Kerne bremsen doch jetzt schon Teilweise.

Sven77
2016-06-14, 17:59:36
Viel interessanter wird der Preis.. 6Tflops werden auch 2017 nicht billig sein.

dargo
2016-06-14, 18:05:24
Viel interessanter wird der Preis.. 6Tflops werden auch 2017 nicht billig sein.
:confused:

Die kosten doch Mitte 2016 schon ab 199$. Bei 8GB halt 30-40$ mehr.

Herr Doktor Klöbner
2016-06-14, 18:11:23
Klar ist das nur ein Renderbildchen, aber wenn man nicht absichtlich die Leute mit 12 Ram Chips verwirren will ist das ein 384 Bit SI mit 12 GB moderat getaktetes GDDR5 Ram. Ob so etwas wirklich Sinn macht ? Ich denke GDDR5x sollte Ende 2017 bezahlbarer Standard sein.

prinz_valium
2016-06-14, 18:57:03
ich denke es wird darum gehen, was weniger storm verbraucht
daran wird man sich orientieren, ob 256 und gddr5x oder 384 und gddr5

Knuddelbearli
2016-06-14, 19:14:36
8 Zen Kerne waeren doch imho voellig OP fuer die GPU, wenn das Teil auf 6 TFLOPs kommt. Grafikleistung ist immer noch deutlich wichtiger und aktuell braucht man quasi fuer kein Spiel annaehernd einen aktuellen Intel Core mit 8 Kernen, um es auf "Konsolenniveau" spielen zu koennen.


Nicht wenns auch frü VR sein soll da will man ja nicht 25-35 fps sondern 80-100 und das absolut stabil.

megachip800
2016-06-14, 21:13:50
Der ist gut hier:

http://www.chip.de/news/Xbox-One-Scorpio-enthuellt-Hier-kommt-der-PlayStation-Killer_95351908.html

"Zudem soll Scorpio durchgehend 60 fps und "vollkommen unkomprimierte Pixel" liefern, wobei es sich laut Microsoft um eine bis dato unerreichte Qualität handeln soll."

:freak:

Sven77
2016-06-14, 21:15:59
:confused:

Die kosten doch Mitte 2016 schon ab 199$. Bei 8GB halt 30-40$ mehr.

Und die steckst du von der Stange in ne Konsole?

Gipsel
2016-06-14, 21:28:31
Der ist gut hier:

http://www.chip.de/news/Xbox-One-Scorpio-enthuellt-Hier-kommt-der-PlayStation-Killer_95351908.html

"Zudem soll Scorpio durchgehend 60 fps und "vollkommen unkomprimierte Pixel" liefern, wobei es sich laut Microsoft um eine bis dato unerreichte Qualität handeln soll."

:freak:Noch viel mehr :freak:: Das ist ein direktes Zitat von MS, die haben das tatsächlich so gesagt ("completely uncompressed pixels"). Und nicht in einem Live-Statement von irgendeinem Hansel, nein, in dem auf Hochglanz polierten Einspielfilm dazu. ;D

Troyan
2016-06-14, 21:40:53
Ist doch, oder? Statt 720p-900p auf 1080p komprimiert, gibt es nun 1080p unkomprimiert. :D

][immy
2016-06-14, 21:49:48
Ist doch, oder? Statt 720p-900p auf 1080p komprimiert, gibt es nun 1080p unkomprimiert. :D
ne du musst es anders rum sehen, von 1080p auf 900p runter komprimiert ;)

naja... keine Ahnung was die sonst meinen wollen. Auf jeden fall darf man sich wohl auf schöne 1080p freuen wenn man keinen neuen Fernseher hat :)
Wobei Grafik zumindest aus meiner Sicht mir immer unwichtiger wird. Seit der xbox360/ps3 ist die Grafik allgemein auf einem hohen Niveau. Zumindest hoch genug das man nicht immer erahnen muss, was dargestellt werden soll.

ChaosTM
2016-06-14, 22:32:58
4K mit 60FPS bei lediglich 6 Tflops UND völlig unkomprimierte Pixels. Die Gamingrevolution startet 2017 !

Sven77
2016-06-14, 22:44:52
Endlich keine komprimierten Pixel mehr.. wtf.. ist das der Gerfrierbrand der Neuzeit?

Crazy_Bon
2016-06-14, 22:56:43
Hmm... erhöhen komprimierte Pixel sogar die Auflösung? Ihr wisst ja, dann passt doch mehr rein. ;)

][immy
2016-06-14, 23:20:14
4K mit 60FPS bei lediglich 6 Tflops UND völlig unkomprimierte Pixels. Die Gamingrevolution startet 2017 !
oh, da fällt mir ein, meinten die vielleicht mit der Komprimierung die Streaming-Möglichkeiten? Neuer Codec usw. Ohne Qualitätsverlust ... sowas in der Art.

grad mal bei beyond3d (https://forum.beyond3d.com/threads/playstation-4k-codename-neo-technical-analysis.57817/page-11)raus gefischt

Polaris is GCN 4.0. AMD already did some changes to GCN 3.0 (Tonga/Fiji) that broke direct backwards compatibility to GCN 1.0 and 2.0. Read this document: http://amd-dev.wpengine.netdna-cdn..../07/AMD_GCN3_Instruction_Set_Architecture.pdf. It has a list of deprecated shader instructions among other breaking changes. So you'd at least need to patch the shader microcode at runtime if it contains these instructions. Polaris hopefully also has front end changes to catch up with Nvidia (at least there are lots of rumors about this). It might not be trivial to patch everything at runtime. But we have seen (last gen) PPC code translated automatically to x86 in the past with pretty good results (and last gen VLIW shader code translated to scalar architectures), so this shouldn't be a roadblock by any means.

kann da für einen von beiden eine Rolle spielen, was die Abwärtskompatibilität angeht?

megachip800
2016-06-15, 05:58:04
http://www.gameinformer.com/b/news/archive/2016/06/14/there-wouldnt-be-a-frame-rate-difference-between-xbox-one-and-scorpio-says-microsofts-shannon-lofits.aspx

. Loftis says that developers will continue to choose frame rate to fit their gameplay design, and that might not be unlocked or even 60 frames per second. We asked specifically whether there will be different frame rates for the same game running on Xbox One and Scorpio. "" Loftis explains. "You don't necessarily want to create two different mechanics for two different configurations."



ups das hoert sich schon anders an :(

deekey777
2016-06-15, 09:34:51
http://www.gameinformer.com/b/news/archive/2016/06/14/there-wouldnt-be-a-frame-rate-difference-between-xbox-one-and-scorpio-says-microsofts-shannon-lofits.aspx

. Loftis says that developers will continue to choose frame rate to fit their gameplay design, and that might not be unlocked or even 60 frames per second. We asked specifically whether there will be different frame rates for the same game running on Xbox One and Scorpio. "" Loftis explains. "You don't necessarily want to create two different mechanics for two different configurations."



ups das hoert sich schon anders an :(
Das sind die gleichen Meinungen, wie vor Monaten, als die Spekulationen zur PS4-Neo kamen.

[immy;11067869']...

grad mal bei beyond3d (https://forum.beyond3d.com/threads/playstation-4k-codename-neo-technical-analysis.57817/page-11)raus gefischt


kann da für einen von beiden eine Rolle spielen, was die Abwärtskompatibilität angeht?
Fängt dramatisch an, aber am Ende ist es doch nicht so dramatisch.

HOT
2016-06-15, 10:15:21
Erstens haben die sicherlich beide 12GB RAM an 384Bit und zweitens braucht man keine 8 Zen-Kerne, 4 reichen, die haben doch 8 Threads.

deekey777
2016-06-15, 11:51:50
Erstens haben die sicherlich beide 12GB RAM an 384Bit und zweitens braucht man keine 8 Zen-Kerne, 4 reichen, die haben doch 8 Threads.
Die PS4Neo hat 8 Zen-Lite-Kerne, http://vrworld.com/2016/05/11/amd-confirms-sony-playstation-neo-based-zen-polaris/ :P
;D

4 Zen-Kerne mit SMT = "8 Zen-Kerne Lite" (so kann man die Spekulation hinbiegen).

Es ist ja eine Diskussion seit zig Seiten, welche CPU-Kerne verwendet werden. Am Ende entscheidet sich das ganze, was am schnellsten miteinander auf einen Die packen lässt und was das ganze dann in der Herstellung kostet.

dargo
2016-06-15, 12:11:35
Und die steckst du von der Stange in ne Konsole?
Denk mal ein wenig nach. Ich habe nicht gesagt die neue Konsole wird ~250$ kosten.

Erstens haben die sicherlich beide 12GB RAM an 384Bit und zweitens braucht man keine 8 Zen-Kerne, 4 reichen, die haben doch 8 Threads.
Und das erkennst du woran? An dem Renderfilmchen? Wenn die ~320GB/s stimmen braucht man dafür kein 384Bit SI. Das geht auch problemlos mit 256Bit und GDDR5X. Dürfte einiges günstiger werden. Es wären auch 192Bit mit GDDR5X denkbar wenn man tatsächlich 12GB Ram braucht.

deekey777
2016-06-15, 12:27:02
Denk mal ein wenig nach. Ich habe nicht gesagt die neue Konsole wird ~250$ kosten..
Was ist der Zusammenhang zwischen einer Desktop-Grafikkarte und einer deutlich komplizierten Konsolen-APU, dass alle paar Seiten auf die RX 480 hingewiesen wird?

dargo
2016-06-15, 12:29:55
Ein SoC ist deutlich komplizierter? :uconf3: Denk mal nach warum in neueren Konsolen nur noch SoCs verbaut werden.

deekey777
2016-06-15, 12:53:18
Ein SoC ist deutlich komplizierter? :uconf3: Denk mal nach warum in neueren Konsolen nur noch SoCs verbaut werden.
Alles klar, bis dann.

HOT
2016-06-15, 13:28:40
Die PS4Neo hat 8 Zen-Lite-Kerne, http://vrworld.com/2016/05/11/amd-confirms-sony-playstation-neo-based-zen-polaris/ :P
;D

4 Zen-Kerne mit SMT = "8 Zen-Kerne Lite" (so kann man die Spekulation hinbiegen).

Es ist ja eine Diskussion seit zig Seiten, welche CPU-Kerne verwendet werden. Am Ende entscheidet sich das ganze, was am schnellsten miteinander auf einen Die packen lässt und was das ganze dann in der Herstellung kostet.
Das weiss ich auch, die Scorpio hat aber sicher Zen.

deekey777
2016-06-15, 14:04:05
Das weiss ich auch, die Scorpio hat aber sicher Zen.
Wobei MS anscheinend von 8 Kernen gesprochen haben will, http://www.eurogamer.de/articles/2016-06-15-e3-2016-technik-analyse-xbox-project-scorpio-digital-foundry

(Ich habe den Trailer noch nicht geschaut)

HOT
2016-06-15, 17:02:51
Jup er sagt 8 CPU-Cores im Video. Natürlich kann er auch Threads meinen, aber es spricht doch eher für echte Kerne. Kann natürlich doch wieder Jaguar werden, oder aber eben doch Zen. Wenn es 8 Zen Kerne sind, ist das Ding echt ein feuchter Entwicklertraum.

Die Rendergrafik zeigt sehr eindeutig 12 RAM-Bausteine, ich glaube nicht, dass man sich das so ausgedacht hat und es ist eben auch sehr sehr plausibel bei der Bandbreite, denn auch Ende 2017 wird 12 GB 7Gbps GDDR5 das beste Kosten/Nutzenverhältnis von allen Speicher-Technologien haben.

Knuddelbearli
2016-06-15, 17:29:17
Für Scorpio kommt ihmo eigentlich nur Zen in frage ( bzw zu 99,999999999999999% sicher )

Rincewind
2016-06-16, 01:15:44
Hach! Das wäre doch ne tolle Konsole, 8x Zen + 480 + 12 GB. In eine solche Kombination kann man sich glatt verlieben. :-)

Foobar2001
2016-06-16, 01:23:51
Für Scorpio kommt ihmo eigentlich nur Zen in frage ( bzw zu 99,999999999999999% sicher )
Sie haben acht Kerne angekuendigt. Acht Zen Kerne sind meiner Meinung nach zu gross fuer einen SoC mit 6 TFLOP/s GPU-Leistung.

Gibt eigentlich nur zwei Moeglichkeiten mit Zen. Entweder sie meinen vier Kerne und acht Threads mit SMT oder es ist eine dedizierte GPU.

Nightspider
2016-06-16, 04:32:27
So groß sind Zen Kerne in 14nm nun auch nicht. Alleine durch den fehlenden SRAM wird man ja schon einiges an Platz sparen.
Und Ende 2017 kann AMD auch einen größeren ~450mm² SoC fertigen.

Klar braucht Zen mehr Platz aber Zen ist auch viel effizienter und gleichzeitig schneller. Ende 2017 nicht auf Zen zu setzen wäre ein Fehler. Gerade da man für VR Anwendungen auch viel CPU Leistung benötigt, wenn man die ~90fps halten will.

Nur nochmal zur Erinnerung wie viel Platz für den SRAM verschwendet wurde:

http://images.anandtech.com/doci/7546/diecomparison.jpg

Isen
2016-06-16, 04:42:04
Aber dann könnte man nicht nochmal eine neue Konsole bringen die so einen fetten Kaufanreizenden Sprung punkto Leistung bieten würde, wie die ende 2017 bieten werden :D
Die machen glatt 2020/21 wieder ne neue

Nightspider
2016-06-16, 05:00:32
Ich mein klar, MS könnte die Jaguar Kerne auch einfach 50% höher takten. Das wäre auch schon was.
Theoretisch könnte MS auch eine 2+6 oder 4+4 Kombination anbieten. 2 Zen Kerne + 6 Jaguar Kerne würden locker für einen guten Sprung ausreichen und latenzkritische VR Games wären befriedigt.
Wenn 2020 aber die NextGen kommt wird man wohl eh schon auf 7nm setzen, da dann 10nm wohl wirklich ein zu geringer Sprung wäre. Allerdings wären das dann schon wieder 6-7 Jahre zwischen PS4 und PS5.

Foobar2001
2016-06-16, 05:27:42
Eine 6 TFLOP/s GPU braucht nach Milchmaedchenrechnung allein schon 2.5x den Platz der Xbox-One-GPU in 16FF. Naja, vielleicht bisschen weniger weil hoeherer Takt.

Gipsel
2016-06-16, 07:39:29
Eine 6 TFLOP/s GPU braucht nach Milchmaedchenrechnung allein schon 2.5x den Platz der Xbox-One-GPU in 16FF. Naja, vielleicht bisschen weniger weil hoeherer Takt.Du meinst also nicht wesentlich mehr, als die PS4-GPU in 28nm gebraucht hat?
Also, man nutze den vorher durch SRAM belegten Platz (+65%?), verdoppele grob wegen 28=>14 und ziehe den Takt noch ein wenig hoch (853MHz => 1100MHz? wären +29%). Macht dann 1,65*2*1,29 = 4,3fache Rohleistung oder 5,6 TFlop/s. Gut genug für das Milchmädchen.

Du kannst natürlich auch von der PS4 ausgehen (der SOC ist ja sogar etwas kleiner als der der XB1). Statt 20 CUs haust Du mit 14nm beinahe flächenneutral 40 CUs drauf, 2 oder 4 wieder als Salvage (oder Du gibst minimal Fläche zu und hast 40 nutzbare). Dann wieder 40 CUs*64*2 * 1,1GHz = 5,6 TFlop/s.

Wie auch immer, ich denke nicht, daß Ende 2017 ein SoC mit knapp 400mm² in 14nm noch ein größeres Problem darstellen sollte.

deekey777
2016-06-16, 09:35:45
Die Frage ist doch, was so ein Ding in der Herstellung kosten wird.

Nebenbei: Wenn es wirklich Zen-Kerne sein sollen, wo wirde man die APU dann fertigen lassen? Die Katzen-Kerne wurden und werden bisher bei Drittfertigern hergestellt, die leistungsstarken CPUs stellen beide Hersteller in Eigenregie her, es wäre somit ein Novum, wenn TSMC eine Zen-APU für die Scorio herstellt.

Ich hab's:

Kyle sieht den Untergang von AMD nah, jetzt fühlt er sich auch bestätigt (http://hardocp.com/news/2016/06/15/amd_exposes_more_weakness_at_e3/#.V2JW4zVMjz8): AMD Exposes More Weakness At E3 (http://seekingalpha.com/article/3982213-amd-exposes-weakness-e3)


At E3, AMD showed more cheap Polaris-based GPUs, but nothing for notebooks.

The low performance and price of AMD's Polaris chips indicate continuing process problems at Global Foundries.

Microsoft's Xbox One announcement also indicates that chips combining Zen and Polaris won't be available until late 2017.


Es gab ja Spekulationen, dass AMD Zen-APUs mit 16 CUs bringen wird (oder bezogen sie sich auf BR?), und habe da meine Probleme daran zu glaube, dass solche starken APUs (selbst wenn es bei acht CUs bleibt) für 100 EUR hinterhergeschmissen werden. Die Scorio wird mehr als das Doppelte an CUs haben und deutlich teurer als die gewöhnlichen Zen-APUs. Selbst wenn die Scorpio teurer wird als die Xbox One S, darf sie nicht zu teuer werden, weil die Käufer einer Konsole sich an die günstigen Preise gewöhnt haben.

Ravenhearth
2016-06-16, 10:16:42
Seit wann ist GloFo kein Drittfertiger? Zumal die auch schon APUs mit Katzen-Kernen fertigen.

prinz_valium
2016-06-16, 10:24:20
Phil spencer hat im giant bomb interview gesagt, dass die an der console noch extra was für vr geändert haben z.b im bezug auf Bandbreite. und mit Sicherheit auch an der cpu

für 4k gaming hätte eine starke 6tp gpu gereicht. aber für vr und andere Sachen muss der rest auch stimmen

deekey777
2016-06-16, 10:30:27
Seit wann ist GloFo kein Drittfertiger? Zumal die auch schon APUs mit Katzen-Kernen fertigen.
Du weißt doch genau, wie ich das meinte.

Xbox boss Phil Spencer: the big interview (http://www.eurogamer.net/articles/2016-06-15-xbox-boss-phil-spencer-the-big-interview)
We could have done a new update this year. We actually looked at it. We went all the way to, we had the spec in front of us, should we ship something that's less than Scorpio this year, but in truth you can't do a true 4K console this year. And I just didn't think anything between what is effectively a 1080p console and the 4K console, like, from a consumer television standpoint there's nothing in the middle. So let's go focus on 4K and next year was the right year to do that.

dildo4u
2016-06-16, 13:51:59
Phil Spencer Talks About Project Scorpio & Xbox One S

https://youtu.be/eCFig7lGyEs

Hallo
2016-06-16, 14:35:48
BlaBlaBlahh... (Nicht du, das Vid). Wie wäre es mit 1080p/16AF/4xAA und 60fps durchgehend??
4K...Jupp mit 4AF und 45fps kommt richtig gut.

Auflösung ist nichts ohne max. AF und alles unter 60fps ist n Witz.

Kartenlehrling
2016-06-16, 14:47:47
Da die alten 1080p und selbst teilweise UHD TV keine HDR Unterstützung haben ist die Aussage das diese wenig bis gar nicht von der Scorpio profitieren sehr glaubwürdig,
somit wär nur 1080p/60fps als Ziel und selbst das sehen einige Käufer überhaupt nicht.
Ein Grafikaufwertung ausser HDR wird es "erstmal" nicht geben, aber darüber zu diskutieren was in 2? Jahre präsentiert wird ist müssig.

Die XBoneS soll ja auch keine "Leistungs" Vorzüge bringen, aber da werden wir die ersten Test ja bald sehen Ende August ist schneller da.

Hallo
2016-06-16, 15:32:58
Wie HDR geht hat Far Cry 1 bewiesen. Tone Mapping heisst das Stichwort. Wirklich echtes HDR würde bedeuten das es dich blendet wie in der Realität. Und Tone Mapping sind deine Pupillen. Nicht sehr angenehm.

Und ja COD Käufer sind 60fps gewohnt auch wenn sie nicht wissen was das ist...aber gib denen ein COD in 45fps, das werden die merken.

Wie gesagt, 60fps solten Standard sein weil es die Spielbarkeit enorm verbessert.

ilibilly
2016-06-16, 16:01:08
Ich würds begrüssen wenn sie eine 60fps option einbauen , und meinetwegen dynamische auflösung ,lieber 60fps@1440p als 30@4k
Wenn das mit der zen cpu stimmt dürften 60fps nur noch gpu limitert sein.

prinz_valium
2016-06-16, 16:05:01
BlaBlaBlahh... (Nicht du, das Vid). Wie wäre es mit 1080p/16AF/4xAA und 60fps durchgehend??
4K...Jupp mit 4AF und 45fps kommt richtig gut.

Auflösung ist nichts ohne max. AF und alles unter 60fps ist n Witz.

balablabla
nicht das video, sondern du
dann kauf deine spiele halt am pc und stell deine Grafik Einstellungen nach deiner persönlichen Präferenz ein


als ob die masse 60fps, 4xAA und 16AF als das wichtigste empfindet. für die geht es um grafik bling bling. außerdem ist das sowieso sache der devs. die setzen ihre targets. und das wird eher 4k30fps und für multiplayer dann halt 60

blaidd
2016-06-16, 16:26:15
Eine leistungsfähigere Konsole ist sicher interessant.... auch für PC-Nutzer, weil es dann wohl Optimierungen und Anpassungen für potentere Hardware geben wird.

Aber ich verstehe Microsoft's Politik einfach nicht. Auf mich wirkt das alles wie ein total planloses Herumgeeier.

Sie kündigen neben "Exklusiv"-Spielen nun auch für den PC (was einige Besitzer der Xbox One wahrscheinlich etwas anfrisst) eine (leicht verbesserte) Xbox One S an und im gleichen Zuge die Scorpio - wer zum Geier soll den die S kaufen, wenn rund anderthalb Jahren später eine deutlich leistungsfähigere Microsoft-Konsole erscheint und das auch noch deutlich kommuniziert wird.

Es würde dann doch viel mehr Sinn ergeben, statt zur Xbox One S zur PS4 Neo zu greifen und später dann zu Scorpio. Dann muss man sich nicht mit den lahmen Kisten herumschlagen, sondern hat die schnelleren Varianten und kann außerdem auf alle (Konsolen-)Exklusivtitel zugreifen - ohne dafür wahrscheinlich deutlich mehr ausgeben zu müssen als für Xbox One S und später dann Scorpio...

Will mir nicht in den Kopf - echt eine seltsame Art, nach Kunden zu fischen.

y33H@
2016-06-16, 16:29:26
Die Xbox One S für 1080p oder upscalt für 4k-HDR-Games uuund für 4K-HDR-Filme, die weitaus teurere Scorpio für natives 4K-HDR samt passendem Fernseher.

blaidd
2016-06-16, 16:32:27
Und warum kaufst du nicht die PS4 Neo? Jedenfalls, wenn du schon eine Xbox One hast...

Ich hab einige Bekannte, die sich treu(-doof ;) ) jede neue Fassung "ihrer" Konsole gekauft haben, aber die One S ist durch die Ankündigung Scorpio doch nur für Neukäufer interessant. Und selbst was die betrifft: Nachdem, was Sony an Exklusiv-Titeln auf der E3 gezeigt hat und man bei denen mit der Neo eine wahrscheinlich knapp doppelt so leistungsfähige Konsole bekommen könne, warum zu Microsoft gehen? Vor allem, wenn die Xbox-Spiele dann auch noch auf dem PC rauskommen...

Auf mich wirkt das Ganze halt reichlich undurchdacht. Aber hey, vielleicht sehe ich das einfach vom falschen Standpunkt aus...

Ravenhearth
2016-06-16, 17:01:44
Sehe ich ähnlich. Die Scorpio erscheint zwar schon relativ kurz nach der Neo (wohl 6-9 Monate), aber Sony hat imho die besseren Exclusives und die XBox-Titel erscheinen größtenteils eh auf PC. Für mich ist und bleibt die Xbox uninteressant.

Kartenlehrling
2016-06-16, 17:06:36
Selbst das 4k für TV wird in Deutschland/Europa nicht ziehen,
da werden die meinsten auch zur PS4k greifen um an ein "Billigen" UHD-HDR Bluray/Netflix Player zu kommen.

Foobar2001
2016-06-16, 17:08:36
BlaBlaBlahh... (Nicht du, das Vid). Wie wäre es mit 1080p/16AF/4xAA und 60fps durchgehend??
4K...Jupp mit 4AF und 45fps kommt richtig gut.

Auflösung ist nichts ohne max. AF und alles unter 60fps ist n Witz.
4x und 16x AF sehen in aller Regel fast gleich aus. Das meiste vom Bild hat keine so große Verzerrung. Die Rechenleistung kann man besser verwenden.

Dorn
2016-06-16, 17:43:45
Selbst das 4k für TV wird in Deutschland/Europa nicht ziehen,
da werden die meinsten auch zur PS4k greifen um an ein "Billigen" UHD-HDR Bluray/Netflix Player zu kommen.
Genau so wird es auch kommen und nur wissen wir das schon nur Microsoft mal wieder nicht.

Spencer muss wohl so ein Müll von sich geben damit die x one noch Käufer findet.

Wir merken uns bitte alle Scorpio wird 1080p gamern nichts bringen!

Aus 4players
Project Scorpio" richtet sich eindeutig an Besitzer von 4K-Fernsehgeräten, sagte Xbox-Chef Phil Spencer gegenüber Eurogamer. Auf die Frage, warum sich Käufer für die Xbox One S (Slim-Variante der Xbox One) und nicht für "Project Scorpio" (sechs TFLOPS-Version der Xbox One) entscheiden sollten, stellte Spencer eine Gegenfrage in Hinblick auf das heimische Fernsehgerät. Der Interviewer sagte, dass er ein HD-TV-Gerät (1080p) hätte und darauf entgegnete Spencer: "Dann solltest Du diese Box [Xbox One S] kaufen, denn Scorpio wird Dir rein gar nichts bringen. Scorpio ist als 4K-Konsole ausgelegt und wenn Du keinen 4K-Fernseher hast, wirst Du den Vorteil, den wir konzipiert haben, nicht erleben können." Natürlich könnte man auch vorher zuschlagen, aber die "verbesserte Performance" würde sich nur in Zusammenspiel mit einem 4K-TV zeigen, meinte er weiter.

Hallo
2016-06-16, 18:09:01
Marketing hoch drei!

Hochskaliert ist nicht nativ. Selbst wenn die One 1080p in 60fps schaffen würde, was sie nicht tut, AF und AA lassma mal weg müsste die Scorpio mindestens die vierfache Rechenleistung bieten was sie nicht tut. Kleines ein mal eins.

Der Spencer hat wahrscheinlich niemals gezockt und hat keinen Plan wovon er redet. Newsflash;)

Wie war das nochmal mit Kinect??

Es gibt einen Grund wieso deutscher Maschinenbau so geschätzt wird, weil dort nicht gepfuscht und gelabert wird sondern mit Tatsachen geklotzt wird.

][immy
2016-06-16, 18:09:45
Genau so wird es auch kommen und nur wissen wir das schon nur Microsoft mal wieder nicht.

Spencer muss wohl so ein Müll von sich geben damit die x one noch Käufer findet.

Wir merken uns bitte alle Scorpio wird 1080p gamern nichts bringen!

Aus 4players
Project Scorpio" richtet sich eindeutig an Besitzer von 4K-Fernsehgeräten, sagte Xbox-Chef Phil Spencer gegenüber Eurogamer. Auf die Frage, warum sich Käufer für die Xbox One S (Slim-Variante der Xbox One) und nicht für "Project Scorpio" (sechs TFLOPS-Version der Xbox One) entscheiden sollten, stellte Spencer eine Gegenfrage in Hinblick auf das heimische Fernsehgerät. Der Interviewer sagte, dass er ein HD-TV-Gerät (1080p) hätte und darauf entgegnete Spencer: "Dann solltest Du diese Box [Xbox One S] kaufen, denn Scorpio wird Dir rein gar nichts bringen. Scorpio ist als 4K-Konsole ausgelegt und wenn Du keinen 4K-Fernseher hast, wirst Du den Vorteil, den wir konzipiert haben, nicht erleben können." Natürlich könnte man auch vorher zuschlagen, aber die "verbesserte Performance" würde sich nur in Zusammenspiel mit einem 4K-TV zeigen, meinte er weiter.

Mhh... was ist mit Downsampling. Sollte auch auf 1080p schön aussehen.

Ravenhearth
2016-06-16, 18:18:47
Marketing hoch drei!

Hochskaliert ist nicht nativ. Selbst wenn die One 1080p in 60fps schaffen würde, was sie nicht tut, AF und AA lassma mal weg müsste die Scorpio mindestens die vierfache Rechenleistung bieten was sie nicht tut. Kleines ein mal eins.


Kannst du nicht rechnen? Selbst mir nur 5,6TFLOPs für die Scorpio-GPU wäre es ggü der 1,3TFLOPs der One die 4,3-fache Rechenleistung. 4K bei 60fps schafft sie trotzdem nicht, das stimmt. Aber für 30fps sollte es reichen.

Außerdem sind deine Forderungen utopisch. Du willst eine Konsole, die 4K mit 60fps und gutem AA/AF schafft? Dann kauf dir den kommenden GP102 für über 1000€. Have fun.

Snafu
2016-06-16, 18:21:59
Selbst wenn die One 1080p in 60fps schaffen würde, was sie nicht tut, AF und AA lassma mal weg müsste die Scorpio mindestens die vierfache Rechenleistung brauchen was sie nicht tut. Kleines ein mal eins.



Es gibt 1080p/60fps Spiele auf der Xbox One.
6/1.23 = 4.8. Das ist wohl mehr als das vierfache. Kleines eins mal eins.

Sitzen 6 ;)


Wir merken uns bitte alle Scorpio wird 1080p gamern nichts bringen!


Laut Phil Spencer steht es den Entwicklern frei was sie mit der Leistung der Scorpio machen wollen.


https://youtu.be/eCFig7lGyEs?t=380

Jeff Gerstmann: "If they just want to have a 1K (1080p) frame buffer, and then, you know, upres to 4K, to take advantage of and use that power in different ways..."

Phil Spencer: "Yeah, we will absolutely be open to that. I mean we're going to talk more specifics of Project Scorpio, so we'll get into more of the details, but I think creative freedom in how you want to use the power of the box is something that I always support. I mean, I came from first party as you know, so putting the right tools in the hands of the creators, the best creators, is our job as the platform. One thing though that we should make sure everyone understands, every game that comes out in the Xbox One family will run on the original Xbox One, Xbox One S, and Scorpio, so we had some questions if there are going to be Scorpio exclusive games. No, the line of games you get to play is the same, regardless of [one you own]."

y33H@
2016-06-16, 18:27:32
[...]Ich sage ja nicht, dass ich Microsofts Produktpolitik für clever halte, aber aus deren Sicht ist sie das wohl. Mich freut vor allem, dass viel mehr Zeug nun auch für den PC kommt :biggrin:

Für PS4-exklusives Zeug (Robinson The Journey!) nehme ich halt eine über's WE mit :cool:

Linmoum
2016-06-16, 18:59:49
Was hat denn CS bitteschön mit Konsolenspielen zu tun? Ganz anderes Terrain. 30fps sind für die meisten Spiele vollkommen ausreichend. Wer mehr will, kauft sich halt einen High-End-PC. 4k60 auf Konsole ist die nächsten paar Jahre utopisch.
Wegen letzterem ist es auch einfach Schwachsinn, jetzt bei der Scorpio die ganze Zeit von 4K zu schwadronieren. Weiß auch nicht, was Spencer dazu bewegt.

30FPS und 60FPS sind ein himmelweiterr Unterschied und jetzt direkt von... keine Ahnung, die Xbox hat ja mal 720p, mal 900p, dann mal 1080p, hier und da mal 60FPS, bei vielen Spielen immer noch nur 30fps... direkt auf 4K und 30FPS zu gehen wäre halt einfach nur selten dämlich.

Auch wenn's 'ne Konsole ist, das hindert einen trotzdem nicht daran, auch dort mal konstant die 60FPS zu etablieren. Das wäre mit der Scorpio in FullHD nicht einmal ansatzweise ein Problem und eine deutliche bessere Lösung, als auf Konsolen direkt mit dem 4K-Murks anzufangen.

Gipsel
2016-06-16, 19:23:48
Bitte bleibt beim Thema!

prinz_valium
2016-06-16, 19:30:36
Selbst das 4k für TV wird in Deutschland/Europa nicht ziehen,
da werden die meinsten auch zur PS4k greifen um an ein "Billigen" UHD-HDR Bluray/Netflix Player zu kommen.

die xbox one s wird der deutlich günstigere UHD-HDR player sein
die neo wird es nicht für $299 geben und dazu noch (deutlich) später kommen - je nach dem, ob ende 2016 oder Anfang 2017 nun stimmt

Marketing hoch drei!

Hochskaliert ist nicht nativ. Selbst wenn die One 1080p in 60fps schaffen würde, was sie nicht tut, AF und AA lassma mal weg müsste die Scorpio mindestens die vierfache Rechenleistung bieten was sie nicht tut. Kleines ein mal eins.

was?
xbox one - 1.32 tflops
xbox scorpio - 6 tflops

das ist fach die 5 fache Leistung

iuno
2016-06-16, 19:34:56
Bekommt die S denn ein UHD BD LW?
Davon weiss ich nichts

Ravenhearth
2016-06-16, 19:40:24
Ja.

Kartenlehrling
2016-06-16, 19:47:53
Schlanker, schmaler, schärfer

Die neue Xbox One S wird vorgestellt. Spiele das beste Programm an Spielen, einschließlich der Xbox 360 Klassiker, mit einer Konsole, die um 40 % kompakter ist.
Erlebe noch intensivere, leuchtende Farben in Spielen und Videos mit HDR. Streame 4K-Video von Netflix und Amazon Video,
und genieße UHD Blu-Ray-Filme in atemberaubendem 4K Ultra-HD. Dann hole dir den verbesserten Komfort und
Haptik des neuen Xbox Wireless Controller mit texturierter Grip-Fläche und Bluetooth.1


Xbox One S 2TB Launch Edition Konsole
Veröffentlichungsdatum: nicht angekündigt

399,99 € inkl. MwSt.
https://www.microsoftstore.com/store/msde/de_DE/pdp/productID.3404861300/pgm.96550300?WT.mc_id=xboxcom_e32016


Laut Microsoft hat die "alte" XBone selbst schon 2x Laufwerks Hardwareupdates bekommen.

prinz_valium
2016-06-16, 19:52:15
https://www.microsoftstore.com/store/msde/de_DE/pdp/productID.3404861300/pgm.96550300?WT.mc_id=xboxcom_e32016


Laut Microsoft hat die "alte" XBone selbst schon 2x Laufwerks Hardwareupdates bekommen.

ja für das 2tb Modell, welches als einzige variante übrigens mit standfuß für 19.99 inklusive kommt
das 500gb Modell kostet nur 299€

http://geizhals.de/microsoft-xbox-one-s-500gb-a1458093.html
ist in Deutschland nur noch nicht gelistet

robbitop
2016-06-16, 21:01:18
4x und 16x AF sehen in aller Regel fast gleich aus. Das meiste vom Bild hat keine so große Verzerrung. Die Rechenleistung kann man besser verwenden.
Was nicht stärker verzerrt ist, bekommt auch nur entsprechend viele Samples. Line of Anisotropy.

Rechenleistung (wenn man nicht von fixed function spricht) kostet es streng genommen nicht, da via TMUs gefiltet wird.
Je nach dem wie viel Arithmetik anliegt, ist das kein Bottleneck.

Foobar2001
2016-06-16, 21:55:17
Was nicht stärker verzerrt ist, bekommt auch nur entsprechend viele Samples. Line of Anisotropy.
O'rly :rolleyes:

Rechenleistung (wenn man nicht von fixed function spricht) kostet es streng genommen nicht, da via TMUs gefiltet wird.
Je nach dem wie viel Arithmetik anliegt, ist das kein Bottleneck.
Deshalb produziert ja auch jeder Benchmark in dem man 16x AF statt 4xAF verwendet genau die gleiche Framerate.

Leute. Bitte einmal nachdenken bevor man schreibt.

Bevor hier wild mit "Ich seh das aber!!!11" rumgeheult wird, macht doch einfach mal paar Vergleichs-Screenshots in irgend einem neueren AAA-Spiel, was nicht gerade der Extremfall von einem Rennspiel ist. Die Unterschiede sind absolut minimal und ja, es kostet Framerate. Kein AF zu 2x/4x AF ist ein massiver Unterschied, danach nimmt der Vorteil immer weiter ab fuer die Kosten.

Selbst wenn ich 6 TFLOP/s haette wuerde ich nicht 16xAF verwenden fuer jede Textur. Ist einfach sinnlos.

Screemer
2016-06-16, 22:03:47
Deshalb produziert ja auch jeder Benchmark in dem man 16x AF statt 4xAF verwendet genau die gleiche Framerate.

Leute. Bitte einmal nachdenken bevor man schreibt.

Das solltest du dir mal zu Herzen nehmen. Denn du hast sein Post nicht verstanden. Lies es noch einmal.


Selbst wenn ich 6 TFLOP/s haette wuerde ich nicht 16xAF verwenden fuer jede Textur. Ist einfach sinnlos.

Genau das hat er geschrieben...

robbitop
2016-06-16, 22:31:53
O'rly :rolleyes:

Ya'rly. :P :D


Deshalb produziert ja auch jeder Benchmark in dem man 16x AF statt 4xAF verwendet genau die gleiche Framerate.
Das habe ich nie gesagt oder auch angedeutet. Es kostet schlicht Filterrate, keine Rechenleistung. Ist eine andere Komponente limitierend (was heutzutage nicht unüblich ist), kostet es entsprechend wenig.



Selbst wenn ich 6 TFLOP/s haette wuerde ich nicht 16xAF verwenden fuer jede Textur. Ist einfach sinnlos.
AF kostet keine (ALU bedingte) Rechenleistung. Zumal es doch, selbst aktiviert, nicht auf jede Textur angewendet wird.

Foobar2001
2016-06-16, 22:51:17
Es kostet Rechenleistung weil du die ALUs blockst. Und egal was du meinst, das passiert fast immer mit 16xAF. Sonst waere es kostenlos, was es *offensichtlich* nicht ist. Und ja, es ist parallel und ein anderer Port, bla bla. Es blockt trotzdem irgendwann.

Und ich weiss wie GPUs funktionieren. Brauchst du mir nicht erklaeren.

robbitop
2016-06-16, 23:15:12
Warum blockierst du ALUs? Das ist seit G80 (mit dem Ende der letzten Ausläufern von CineFX) nicht mehr der Fall, dass TEX Operationen ALU Operationen blockieren.

Du könntest deinen "Ton" gern etwas normalisieren. Arroganz steht niemandem.

ilibilly
2016-06-16, 23:44:32
Wenn man die one specs der gpu einfach mit 5 multipliziert kommt man bei 3840 shader raus,könnte doch passen dafür etwas nidrigerer takt und schon passt auch die tdp.
Full dann 4096 shader wie vega 10 ,aber halt um die 900mhz.
Polaris ist da wohl etwas zu schwach auf der brust um bei nidrigen taktraten auf 6tflops zu kommen.
Da dreht ms in sachen leistung den spiess rum,ps4 ist ja ca 50% schneller und scorpio ist dann eben auch 50% schneller als die ps4k Neo wenn die 4tflop da stimmen.
Bei der ps4k neo kommts mit ner nidrig getakteten polaris schon eher hin .

reaperrr
2016-06-17, 02:11:39
AF kostet keine (ALU bedingte) Rechenleistung. Zumal es doch, selbst aktiviert, nicht auf jede Textur angewendet wird.
Bei AMD stimmt das seit der 5000er Generation nicht ganz.
AMD hat seitdem keine dedizierten Texture Sampling SFUs mehr sondern macht das über ALUs, anders als Nvidia, die weiterhin SFUs dafür haben.
Vermutlich auch der Grund, warum 16xAF bei AMD generell mehr Leistung kostet als bei Nvidia.

Foobar2001
2016-06-17, 02:13:08
Warum blockierst du ALUs? Das ist seit G80 (mit dem Ende der letzten Ausläufern von CineFX) nicht mehr der Fall, dass TEX Operationen ALU Operationen blockieren.
Wenn eine ALU-Operation eine Abhaenigkeit hat auf eine Texture-Instruction blockt es natuerlich irgendwann, wenn die TMU nicht fertig wird.

-/\-CruNcher-/\-
2016-06-17, 02:27:54
4x und 16x AF sehen in aller Regel fast gleich aus. Das meiste vom Bild hat keine so große Verzerrung. Die Rechenleistung kann man besser verwenden.

4 und 8

zeigen meistens doch noch unterschiede die durchaus erfassbar sind aber ich geb dir recht die unterschiede zu 16 sind meist absolut nicht mehr erfassbar.

][immy
2016-06-17, 07:03:40
Interessant wäre vielleicht die Frage, was nach Scropio kommt.
Also wenn Scorpio schon 6TF hat (und sich einfach mal an den Flops aufhängt), und dies die 4,5-fache Steigerung zur xbox one ist (GPU-Seitig), was kommt dann danach.
An >24TF für eine Konsole glaube ich nach dem aktuellen Stand der Technik eher nicht. So viele Shrinks kommen da nicht mehr, oder ist dann endgültig Cloud angesagt?

Sunrise
2016-06-17, 11:40:05
[immy;11070264']Interessant wäre vielleicht die Frage, was nach Scropio kommt.
Also wenn Scorpio schon 6TF hat (und sich einfach mal an den Flops aufhängt), und dies die 4,5-fache Steigerung zur xbox one ist (GPU-Seitig), was kommt dann danach.
An >24TF für eine Konsole glaube ich nach dem aktuellen Stand der Technik eher nicht. So viele Shrinks kommen da nicht mehr, oder ist dann endgültig Cloud angesagt?
Danach kommt Multi-Chip Navi oder ein Nachfolger, das wird aber noch dauern. Damit wäre die 2-3fache Leistung möglich. Es ist ausschließlich der Preis das Problem.

Gipsel
2016-06-17, 12:08:59
Bei AMD stimmt das seit der 5000er Generation nicht ganz.
AMD hat seitdem keine dedizierten Texture Sampling SFUs mehr sondern macht das über ALUs, anders als Nvidia, die weiterhin SFUs dafür haben.
Vermutlich auch der Grund, warum 16xAF bei AMD generell mehr Leistung kostet als bei Nvidia.Sorry, das ist komplett falsch. Seit den 5000er hat man keine dedizierten Attribut-Interpolatoren mehr, das ist aber was völlig anderes. Die Texturfilterung passiert natürlich entkoppelt von den ALUs in den TMUs (und nVs SFUs haben mit Texture Sampling auch nix am Hut, die "special function units" führen unter Anderem sowas aus wie Divisionen, Wurzeln und so ein Kram [und bei G80/Fermi auch die Attribut-Interpolationen]).

===================

Wenn eine ALU-Operation eine Abhaenigkeit hat auf eine Texture-Instruction blockt es natuerlich irgendwann, wenn die TMU nicht fertig wird.Und wenn man ganz viel ins Render Target schreibt, ist man entweder ROP- oder bandbreitenlimitiert. Und wenn man viel von ganz unterschiedlichen Stellen aus einer Textur liest ist man ebenfalls bandbreitenlimitiert. Und wenn man ganz ganz viele kleine Dreiecke rendern will, ist man Setup-limitiert.
Das hat aber Alles nicht viel damit zu tun, ob die TMUs von den ALUs entkoppelt laufen. Die TMUs können mehr oder weniger unabhängig von den ALUs agieren und die ALUs können jederzeit eine andere Wavefront ausführen (bei der alle Daten da sind). Das war früher ganz anders, da hat immer Alles gleich gestallt, bis die TMU fertig war. Das passiert heute (schon seit einiger Zeit) nicht mehr, ist aber vermutlich immer noch das, was man damit assoziiert, wenn man davon spricht, TEX-Instruktionen würden die ALUs blockieren.

Was wahr ist (und wir vermutlich alle meinen), ist daß egal wie viele CUs mit welchem Takt man jetzt nun verbaut, man eine bestimmtes Verhältnis von ALU zu TEX Instruktionen nicht überschreiten sollte, weil sonst eben die Limitierung durch die TEX-Instruktionen zuschlägt. Und dieses Verhältnis ist eben davon abhängig, wie aufwändig die Filterung ist (weil der Durchsatz geringer wird, wenn die TMUs mehr Samples verrechnen müssen).
Jetzt hängt es allerdings davon ab, wie genau man eine z.B. auf 6TFlop/s aufgebohrte GPU (mit identischem ALU:TEX-Verhältnis) nutzen will. Nutzt man die gestiegene Rechenleistung dafür, irgendwelche "besseren" Algorithmen mit mehr Rechenoperationen aber identischer (oder zumindest weniger stark gestiegener) Anzahl von Speicherzugriffen zu implementieren, dann kann man natürlich auch eventuell einen höheren AF-Grad ohne wesentliche Performanceeinschränkungen zulassen. Tut man das nicht, skaliert sozusagen nur Alles, ändert sich an den relativen Kosten des AFs natürlich auch nichts.

Foobar2001
2016-06-17, 16:56:32
Du hast so eben zwei riesige Paragrahen geschrieben ohne mir was neues mitzuteilen. AF reduziert trotzdem die verfügbare Rechenleistung in der Praxis. Sonst wäre es nicht langsamer. Ob indirekt oder nicht ist mir in dieser Diskussion gerade völlig egal.

Fakt bleibt, 16xAF ist oft ziemliche Verschwendung, wenn 4xAF fast gleich aussieht.

Gipsel
2016-06-17, 17:19:01
Du hast so eben zwei riesige Paragrahen geschrieben ohne mir was neues mitzuteilen.Das kann ich mir denken. Sinn und Zweck war es auch eher, die vermutliche Ursache des vermeintlichen Widerspruchs zu benennen, denn wie ich schrieb, glaube ich nicht, daß Robbitop und Du Euch im Grunde uneins seid. ;)

Gynoug MD
2016-06-20, 03:16:39
Wie evtl. hier schon erwähnt, halte ich die jetzt angekündigten Konsolen-Refreshes nicht nur für überflüssig (sie sind lediglich eine Nachbesserung, um endlich endlich jederzeit natives 1080p/60 zu ermöglichen und es auf Marketing-4k "aufzupumpen", weil die derzeitige Hardware XO/PS4 schneller als gedacht an ihre Grenzen gestoßen ist), sondern auch für den Konsolen-Markt als solches für gefährlich,
weil sie die Definition als jahrelange Hardware-Update freie Komfortzocker-Zone zerstören.

Besser wäre es gewesen, die heutige Hardware noch einige Jahre durchzuziehen, um dann wirklich einen Sprung zu machen.
Die halbgare Update-Suppe erinnert fatal an Atari etc., hoffentlich für Sony, Microsoft und besonders Nintendo ohne Crash.

Hübie
2016-06-20, 06:16:19
Du hast so eben zwei riesige Paragrahen geschrieben ohne mir was neues mitzuteilen. AF reduziert trotzdem die verfügbare Rechenleistung in der Praxis. Sonst wäre es nicht langsamer. Ob indirekt oder nicht ist mir in dieser Diskussion gerade völlig egal.

Fakt bleibt, 16xAF ist oft ziemliche Verschwendung, wenn 4xAF fast gleich aussieht.

Dem stimme ich nicht zu. Immer mehr Spiele setzen auf eine offene Welt und dann sieht man den Unterschied definitiv. Recht hast du insofern, als dass man es auf Konsolen nicht pro forma auf 16 fache Filterung setzen sollte.
Schau aber mal auf Geforce.com vorbei und betrachte deren Benchmarks mit AF. Da sind es, wenn überhaupt, 1 fps Unterschied. Also nicht mal der Rede wert. Wie das auf Radeons ist weiß ich ebenso wenig wie das Verhalten auf kleineren GPUs. Deine generalisierte Aussage ist jedenfalls so nicht korrekt und dein Auftreten hier ebenfalls negativ. Schalt doch einfach mal n Gang runter und liefere Beweise statt Worte.
Ich teste das auch gerne mal selber. ;)

IceKillFX57
2016-06-20, 09:58:01
Also bei igpus, zumindest meines 4790K kostet es extrem viel Leistung.
Bei der R9 R390 und 980ti hingegen nichts.
Man muss hier aber ingame und Treiber vergleichen.

Gipsel
2016-06-20, 11:26:12
Leute, das läßt sich so allgemein nicht sagen! Soviel könnte langsam mal bei jedem ankommen. Es hängt zum einen von der Architektur der GPU ab (also wie viele Textureinheiten relativ zu dem ganzen anderen Kram verbaut sind) und dann natürlich auf den Shadercode, also wieviele Speicher-/Texturzugriffe denn relativ zu Rechenoperationen benötigt werden. Und dies ist auch nicht immer konstant, sondern kann sich je nachdem, was gerade gerechnet wird, stark unterscheiden. Ein Spiel hat ja deutlich mehr als nur ein einziges Shaderprogramm.

Falls eine Architektur relativ zur Rechenleistung mehr Texturleistung besitzt, kann man tendenziell höheres AF fahren bzw. generell Shader mit mehr Speicherzugriffen, bevor die Leistung merklich abnimmt. Hat eine andere Architektur tendenziell weniger Texturleistung bei gleicher Rechenleistung, bemerkt man den Leistungseinbruch mit AF früher. Und schneidet man die Shader speziell auf eine gewisse Architektur zu, landet man vermutlich oft relativ nahe am Sweetspot, also das sowohl Rechen- als auch Texturleistung möglichst effizient genutzt werden (man will ja nichts verschwenden und oft kann man sich mit einem Speicherzugriff Rechenoperationen ersparen oder statt einem Speicherzugriff ein bißchen mehr rumrechnen, um zu einem ähnlichen Ergebnis zu kommen; sowas tuned man natürlich, um die Performance zu maximieren). Und dann kostet AF ziemlich sofort Leistung.

Die Frage wäre, in welche Richtung entwickelt sich das in Zukunft, wenn man also z.B. 6 TFlop/s und eine proportional gesteigerte Texturleistung zur Verfügung hat. Investiert man das genau so wie bisher, so daß die Balance sich nicht ändert oder wird man tendentiell Texturleistung übrig haben, die man ins AF stecken kann? Was gibt den größeren Effekt auf die Optik?

Hübie
2016-06-20, 12:44:45
Kannst mir gerne das Gegenteil beweisen, aber auf dem GM200 konnte ich noch nicht feststellen dass es über den Messtoleranzbereich hinaus ging. Clever wäre, für den Fall dass es merklich Leistung kostet, ein Algorithmus der dynamisch zwischen den Stufen hin und her schaltet. In ganz seltenen Fällen lässt sich 12xAF anwählen was für Open World ein guter Kompromiß ist, denn ggü 16xAF kann man so gut wie keinen Unterschied feststellen. Also wären 4x bis 12x im Dynamikbereich ideal für Spiele wie Tomb Raider, The Witcher 3 oder gar Star Citizen. Oft wird ja die Landschaft mit Gras etc verdeckt so dass weitläufig gefilterte Bodentexturen nicht unbedingt notwendig sind.
Es kostet jedoch in vielen Fällen zu wenig Leistung um es zu thematisieren wie es scheint. In zwei Wochen hätte ich sogar Zeit dem einmal nachzugehen. :)

Edit: Ach was ich eigentlich Fragen wollte: Welche GPU ist denn jetzt in Scorpio? Grenada hat 6 TFLOPs aber laut heiss und nicht sehr effizient. P10 wird auf gleichem Leistungsniveau eingeordnet. Meint ihr man hat irgendwie ein MCM zusammengebaut wo 8xJaguar und 1xP10 drauf ist? Die 6 TFLOPs gelten ja wahrscheinlich systemweit oder?:confused:

Gebrechlichkeit
2016-06-20, 12:58:26
Edit: Ach was ich eigentlich Fragen wollte: Welche GPU ist denn jetzt in Scorpio? Grenada hat 6 TFLOPs aber ....

Das weiss nicht einmal Microsoft, selbst Rare hat keine Ahnung was M$ da abzieht.

What is Xbox Project Scorpio, exactly? Er, it seems even game developers don’t know… (http://www.gamesradar.com/what-is-xbox-project-scorpio-exactly-er-it-seems-even-game-developers-dont-know/)

Apparently one of Microsoft’s major first-party studios knows nothing about it. Who are they explaining this thing to? Anyone? Let’s try some third-parties. They’re often a bit looser (Analysing E3 2016: Microsoft – If you can’t win, change the rules)of lip.

y33H@
2016-06-20, 13:01:58
Wieso denkst du in dedizierten GPUs? Die Frage ist einzig, welche Architektur und wie viele Compute Units denn Microsoft in ihrem SoC haben will. Die 6 Teraflops gelten rein für die Grafikeinheit.

Hübie
2016-06-20, 13:10:03
Kostenstrukturen. Ein fertig designter Chip braucht keine Anpassungen bei Front- und Backend sowie dem Interconnect. Wieviel CUs hat der aktuelle SoC?

iuno
2016-06-20, 13:16:16
CPU+dGPU ergibt keinen Sinn, alleine schon weil man sicher den gemeinsamen Speicherpool will (und braucht)
Die 28 nm APU hat 14, 12 aktive CUs.

00-Schneider
2016-06-20, 13:16:54
Meint ihr man hat irgendwie ein MCM zusammengebaut wo 8xJaguar und 1xP10 drauf ist? Die 6 TFLOPs gelten ja wahrscheinlich systemweit oder?:confused:


Jaguar wird es zu 99% nicht werden. ;)

Wenn Scorpio Ende 2017 kommt, kann man wohl von Vega bei der GPU ausgehen.

Gipsel
2016-06-20, 14:45:13
Kannst mir gerne das Gegenteil beweisen, aber auf dem GM200 konnte ich noch nicht feststellen dass es über den Messtoleranzbereich hinaus ging.NV GPUs haben tendentiell mehr Texturleistung im Verhältnis zur Rechenleistung als AMD-GPUs oder auch Intel IGPs. Konsolenentwickler haben nicht das Problem, auf einer großen Bandbreite an Hardware performant unterwegs sein zu müssen. Es gibt also in dem Sinne weniger Kompromisse bzw. ein klareres Target zur Optimierung.
Clever wäre, für den Fall dass es merklich Leistung kostet, ein Algorithmus der dynamisch zwischen den Stufen hin und her schaltet.AF ist per Prinzip adaptiv in Abhängigkeit vom Grad der Anisotropie. Es werden immer nur viele Samples wie nötig genommen (und gibt eben nur ein Cap bei einem gewissen Grad)
Edit: Ach was ich eigentlich Fragen wollte: Welche GPU ist denn jetzt in Scorpio? Grenada hat 6 TFLOPs aber laut heiss und nicht sehr effizient. P10 wird auf gleichem Leistungsniveau eingeordnet. Meint ihr man hat irgendwie ein MCM zusammengebaut wo 8xJaguar und 1xP10 drauf ist? Die 6 TFLOPs gelten ja wahrscheinlich systemweit oder?:confused:Alles Anderes als ein SoC wäre eine Überraschung. Man könnte sicher eine Interposer-Lösung samt HBM entwerfen. Aber ob das preismäßig schon im Jahre konkurrenzfähig wäre, bleibt zu bezweifeln. Und ein wenig spricht ja auch das Renderbildchen mit den 12 Speicherchips dagegen, auch wenn man das vielleicht nicht überbewerten sollte.

Hübie
2016-06-20, 21:15:38
Jaguar wird es zu 99% nicht werden. ;)

Wenn Scorpio Ende 2017 kommt, kann man wohl von Vega bei der GPU ausgehen.

Wie? Erst Ende 2017? Ok. Dann kein Jaguar. Mir fiel nach abschicken des Beitrages aber auch ein, dass Zen vor der Tür steht.

@Gipsel: Renderbild? :confused: Sorry, is an mir vorbei gegangen. Bin eigentlich nur hier rein, weil ich wissen wollte welche GPU verbaut wird. :D

Edit: Ach ja und wie viel die anistropische Filterung auf GCN kostet weiß ich natürlich nicht aus dem Stand und google spuckt nichts brauchbares aus.

Könnte es nicht auch sein dass Scorpio ziemlich exakt ein P10 mit weniger Takt ist, wo dann die CPU addiert wird um auf die kolportierten 6 TFLOPs zu kommen?:redface:

drkohler
2016-06-20, 21:34:59
Könnte es nicht auch sein dass Scorpio ziemlich exakt ein P10 mit weniger Takt ist, wo dann die CPU addiert wird um auf die kolportierten 6 TFLOPs zu kommen?:redface:Es kann genauso gut sein, dass MS selber nicht weiss, was sie haben (werden).
Da die PS4 Neo schon so gut wie in den Startlöchern steht, mussten sie einfach selber etwas präsentieren - das natürlich werbetechnisch viel besser sein musste. Weil die AMD480X gpu um die 5TFlop bringt, bot sich da die runde 6 als bessere Zahl an...

dargo
2016-06-20, 23:02:06
@Gipsel: Renderbild? :confused: Sorry, is an mir vorbei gegangen.
http://www.pcgameshardware.de/Xbox-One-Konsolen-232351/News/Scorpio-Microsoft-verwirrt-mit-Aussagen-zu-exklusiven-Spielen-1198644/

Hübie
2016-06-21, 02:46:24
Es kann genauso gut sein, dass MS selber nicht weiss, was sie haben (werden).
Da die PS4 Neo schon so gut wie in den Startlöchern steht, mussten sie einfach selber etwas präsentieren - das natürlich werbetechnisch viel besser sein musste. Weil die AMD480X gpu um die 5TFlop bringt, bot sich da die runde 6 als bessere Zahl an...

Ja deswegen meine Idee mit sagen wir 4,5 TFLOPs GPU (P10) und 1,5 TFLOPs CPU (Zen). Beides noch nicht da und beides darf man vielleicht auch noch so nicht präsentieren. Ich ging allerdings auch davon aus, dass diese Version noch dieses Jahr kommt. Sony machts ja vor.

http://www.pcgameshardware.de/Xbox-One-Konsolen-232351/News/Scorpio-Microsoft-verwirrt-mit-Aussagen-zu-exklusiven-Spielen-1198644/

Danke :up: 12 Chips. Hm. Aktuell sind es 16. Also breiteres Interface und weniger RAM? :| Oder breiter & mehr.

Foobar2001
2016-06-21, 03:00:18
Wenn es 12 Chips und ein 384 bit Interface sind kann man wohl von 12GB GDDR5 ausgehen.

Hübie
2016-06-21, 03:11:47
Die können auch frech sein und 6 GB GDDR5X dran pappen, mit der Argumentation der Effizienz und den Kosten.
Aber OK. Glauben wir mal an das gute im Unternehmen Microsoft. :D

Foobar2001
2016-06-21, 20:53:59
Weniger RAM als eine Xbox One sind ja wohl ausgeschlossen.

dargo
2016-06-21, 21:06:10
Die können auch frech sein und 6 GB GDDR5X dran pappen, mit der Argumentation der Effizienz und den Kosten.

Eher 12GB GDDR5X am 192Bit SI. 12-14Gbps sollte es bis dahin geben.

prinz_valium
2016-06-21, 21:06:37
ich könnte mir sogar 24gb ram vorstellen.
dann geht resume vllt demnächst auch mit 2 spielen und nicht nur einem spiel und apps

toll wäre auch wenn die xbox scorpio 2 spiele simulan wiedergeben kann. eins wird auf windows 10 gestreamt und ein anderes kann dein kind direkt auf der Konsole zocken
all sowas wären Sachen, die ich mir für die Zukunft wünsche.

das ganze wäre dann natürlich nur bei non 4k oder vr spielen möglich.
eben normalen xbox one games

drkohler
2016-06-21, 22:49:18
Eher 12GB GDDR5X am 192Bit SI. 12-14Gbps sollte es bis dahin geben.Das wäre dann Clamshell Mode (16bit pro chip) und da müsste dann das Renderbild 6 Chips oben zeigen (und 6 Chips unten wegen identischen Leitungslängen, wie bei der 16 Chip PS4) und nicht 12 Chips, 2 davon sogar "über Eck".

deekey777
2016-06-22, 10:11:47
Jetzt mal ehrlich: 12 GB für 4K?

Das OS wird seinen Platz beanspruchen, das Spiel selbst auch, hinzu kommt die Grafik. 12 GB sind zwar mehr als 50% (absolut) im Vergleich zur Xbox One/S, aber ich glaub irgendwie, dass die Spiele auf der Scorpio wirklich nur in höherer Auflösung kaufen werden, aber nicht viel hübscher sein werden als auf der Xbox One/S.

Sunrise
2016-06-22, 11:31:58
Jetzt mal ehrlich: 12 GB für 4K?

Das OS wird seinen Platz beanspruchen, das Spiel selbst auch, hinzu kommt die Grafik. 12 GB sind zwar mehr als 50% (absolut) im Vergleich zur Xbox One/S, aber ich glaub irgendwie, dass die Spiele auf der Scorpio wirklich nur in höherer Auflösung kaufen werden, aber nicht viel hübscher sein werden als auf der Xbox One/S.
Das sollte völlig ausreichen, selbst nach Abzug des systemrelevanten Speichers von sagen wir mal 3GB (Xbox One). Da bleiben satte 9GB übrig. Da das eine Konsole ist, kann man hier mit den Ressourcen sowieso sehr dynamisch umgehen, weil man immer genau weiß was man hat, sofern MS da nichts weiter einschränken wird.

Siehe:
http://www.gamestar.de/hardware/grafikkarten/nvidia-geforce-gtx-980-ti/test/nvidia_geforce_gtx_980_ti,922,3086256,4.html (4K VRAM-Auslastung)

In 4K wird auch der Bedarf an AA geringer, wenn die Engine ordentlich programmiert ist. Ich sehe da garkein Problem.

Kartenlehrling
2016-06-22, 11:33:22
Während Microsofts E3-Präsentation wurde bekannt, dass Forza Horizon 3 und Gears of War 4 mit HDR Unterstützung kommen -
kein Zweifel, die erste von vielen Spiele auf der neuesten Konsole Revision die die erweiterten Dynamikbereich nutzen.

zur info :)

Gebrechlichkeit
2016-06-22, 15:01:26
zur info :)

Dat bringt dir nix, wenn dein TV kein HDR beherrscht. Auf diese Software Loesung kann man verzichten, wird z.B ja seit Jahren beim MPC HC via Shaders "angeboten" 16-235 to 0-255 SDHD .. schaut grauenhaft aus (zu dunkel) auf 6+2bit / 8Bit Panele. Braucht man fuer hardware HDR nicht ein 10bit oder gar 12bit Panel? um die volle Pracht geniessen zu koennen?


:lol: at 24gb Systemspeicher ... naja wenigstens kann man jetzt Dead Rising 3 mit locked 30fps auf der XB1 S spielen ;)

deekey777
2016-06-22, 15:25:42
Das sollte völlig ausreichen, selbst nach Abzug des systemrelevanten Speichers von sagen wir mal 3GB (Xbox One). Da bleiben satte 9GB übrig. Da das eine Konsole ist, kann man hier mit den Ressourcen sowieso sehr dynamisch umgehen, weil man immer genau weiß was man hat, sofern MS da nichts weiter einschränken wird.

Siehe:
http://www.gamestar.de/hardware/grafikkarten/nvidia-geforce-gtx-980-ti/test/nvidia_geforce_gtx_980_ti,922,3086256,4.html (4K VRAM-Auslastung)

In 4K wird auch der Bedarf an AA geringer, wenn die Engine ordentlich programmiert ist. Ich sehe da garkein Problem.


Ja, nein, doch.


zur info :)
Und was genau bringt diese Info?

Ph03n!X
2016-06-26, 15:59:34
Ich warte noch gerne das eine Jahr auf die Konsole. Fernseher ist bereits HDR und 4K fähig. Und das jetzt Spiele auch auf PC gehen sollen finde Ich super.

00-Schneider
2016-06-27, 20:35:17
Doom's lead graphics programmer thinks 4K isn't a good use of Xbox Scorpio's power

https://abload.de/img/doom1huqbr.png

Rente
2016-06-27, 20:36:54
Solche Aussagen ohne Angabe einer genauen Panelgröße und Sitzabstand sind einfach sinnlos, das sollte Sousa eigentlich auch wissen...
Mir würde der Schritt auf 1440p aber auch reichen, wenn sie dann die 30 FPS in Spielen halten die vorher in 1080p mit 30 FPS (oder weniger) liefen.

Lurtz
2016-06-27, 22:01:19
Wenn schon nur über die "edges" diskutiert wird, hat man 4k echt verstanden. In welchem Jahr leben die, 2005?

Aber natürlich wird 4k noch auf absehbare Zeit dem PC vorenthalten bleiben.

00-Schneider
2016-06-27, 22:15:41
Aber natürlich wird 4k noch auf absehbare Zeit dem PC vorenthalten bleiben.


Jep, aber auch nur mit NASA-Rechnern(Spaß!), niedrigen Detailstufen und mieser Framerate.

Lurtz
2016-06-27, 22:59:33
Komisch dass Garden Warfare 2 mit meiner 350€-Grafikkarte problemlos in hoch bis ultra (also über Konsolensettings) mit Freesync problemlos spielbar läuft. Muss Magie sein ;)

Lightning
2016-06-28, 08:43:02
Solche Aussagen ohne Angabe einer genauen Panelgröße und Sitzabstand sind einfach sinnlos, das sollte Sousa eigentlich auch wissen...
Mir würde der Schritt auf 1440p aber auch reichen, wenn sie dann die 30 FPS in Spielen halten die vorher in 1080p mit 30 FPS (oder weniger) liefen.

Ist doch klar, dass er damit nicht jeden einzelnen Spieler meint, sondern den Durchschnitt. Und der durchschnittliche Konsolenspieler sitzt im Verhältnis zur Bildgröße nunmal weiter weg, das war schon immer so, und wird vermutlich auf absehbare Zeit auch so bleiben.

Ich finde, er hat völlig recht. Es gibt so viele Grafik-Aspekte, die man verbessern kann, und Auflösung ist da aus meiner Sicht lange nicht an erster Stelle, erst recht nicht bei einer Konsole. Heißt nicht, dass man nicht auch in vernünftige BQ investieren sollte (im Gegenteil), aber 4K ist da einfach kein effizientes Mittel.

Auf der anderen Seite ist eine höhere Auflösung für die Entwickler natürlich eine sehr einfache Methode, um die überschüssige Leistung im Vergleich zur Xbox One zu nutzen. Nicht jeder Entwickler wird da den Aufwand leisten können/wollen, um stattdessen etwa neue Grafikfeatures zu implementieren.

Herr Doktor Klöbner
2016-06-28, 11:05:21
Ziel sollte sein 1080p 60 fps @ sehr hoch-ultra

4K mit 30 fps mittlere Details wäre kompletter Quatsch, zumal der Marktanteil von 4K Fernsehern auch in den nächsten Jahren überschaubar bleibt.

deekey777
2016-06-28, 11:18:21
Man bereitet die potentiellen Scorpio darauf vor, dass die Spiele bei 1080 bleiben, dann aber eben mit 4x MSAA. Oder vielleicht 1440p, aber kein 2160p, weil der Aufwand sehr hoch ist, ein Spiel zu bringen, das auf der Xbox One/S in 1080@30Hz und auf der Scorpio in 4K@30Hz läuft, ohne dass es einen Nutzen gibt.

Vielleicht versuchen die Entwickler schon jetzt zu rebellieren, damit MS nicht auf dumme Ideen kommt wie natives 4K.

][immy
2016-06-28, 13:15:54
Ist doch klar, dass er damit nicht jeden einzelnen Spieler meint, sondern den Durchschnitt. Und der durchschnittliche Konsolenspieler sitzt im Verhältnis zur Bildgröße nunmal weiter weg, das war schon immer so, und wird vermutlich auf absehbare Zeit auch so bleiben.

Ich finde, er hat völlig recht. Es gibt so viele Grafik-Aspekte, die man verbessern kann, und Auflösung ist da aus meiner Sicht lange nicht an erster Stelle, erst recht nicht bei einer Konsole. Heißt nicht, dass man nicht auch in vernünftige BQ investieren sollte (im Gegenteil), aber 4K ist da einfach kein effizientes Mittel.

Auf der anderen Seite ist eine höhere Auflösung für die Entwickler natürlich eine sehr einfache Methode, um die überschüssige Leistung im Vergleich zur Xbox One zu nutzen. Nicht jeder Entwickler wird da den Aufwand leisten können/wollen, um stattdessen etwa neue Grafikfeatures zu implementieren.
Naja, das kann sich vielleicht nicht jeder Entwickler leisten, das stimmt wohl, aber die wenigsten Sachen sind xbox one only, d.h. hier kann man einfach mal die settings erhöhen, wenn es auch einen PC oder PS4 Port gibt. Aber 4k ist natürlich das einfachste um mal eben die Grafik ein wenig aufzuhübschen.
Das habe ich in der Vergangenheit schon über 1080p geschrieben. Von 720p zu 1080p ist der Auflösungsunterschied eigentlich nicht so gigantisch was den Qualitätsunterschied aus macht. Es ist der Inhalt der den Unterschied macht. Sieht man auch sehr schön an Battlefront. Klar die Weitsicht ist besser und genauer, aber selbst in 720p ist die Qualität des gezeigten erstaunlich. Auch Nintendo beweißt häufig, das man keine tollen Grafikfeatures haben muss um ein schönes Spiel zu machen.
Pixel-Kanten sind ein pureres Luxusproblem und machen Spiele nicht schlechter.

Aber seltsamerweise ließt man im Internet auch Aussagen von genau solchen Leuten, die bei dem unterschied von xbox one zur PS4 immer von den Vorteilen einer nativen Auflösung geschwärmt haben nun das genaue Gegenteil. Seltsam wie sich die Ansichten doch ändern können.

Die Frage wäre natürlich nachher auch, was besser aussieht beim Hochskalieren. 1080p + AA oder 1440p + etwas weniger AA. 1080p lässt sich herrlich einfach hochskalieren auf 4k, bei 1440p könnte das Bild etwas unschärfer wirken.

Crazy_Bon
2016-06-28, 16:17:35
Sousa hat doch recht, Spiele auf eine native 4k-Auflösung aufzublasen ist reine Ressourceverschwendung. Wichtiger ist es doch eine saubere Bildausgabe abzuliefern bei einer rockstabilen Framerate.
Letztendlich bleibt es doch den Entwicklern überlassen inwiefern sie die Rohleistung nutzen wollen. Scorpio kann ermöglichen, daß sie nicht dauernd auf die Grafik/Featuresbremse treten müssen.

Disco_STFU
2016-06-28, 16:39:26
Wieso wirft man dann aber mit dem Buzzword 4k um sich. Nachher sind wieder alle enttäuischt wenn es "nur" 1080p@60@maxed out sind...

Ja ok PS4 Neo und so.... ach ach...

00-Schneider
2016-06-28, 17:55:22
Wieso wirft man dann aber mit dem Buzzword 4k um sich. Nachher sind wieder alle enttäuischt wenn es "nur" 1080p@60@maxed out sind...


Weil es halt ein auch nur Buzzword ist, pures Marketing. Bei 4K denken die Leute = 4x bessere Grafik. Ist halt ein einfacher Indikator. Für jeden einfach verständlich.

Mit vollen 4K wird definitiv kein AAA-Game auf Scorpio laufen. Bei 360 hatte man auch erst die Vorgabe ausgegeben 720p mit 4xMSAA. Die Realität ist bekannt.

Jupiter
2016-06-28, 20:02:09
Der Abstand ist sehr wichtig. Ich finde es stets belustigend wenn Konsolenspieler in 3 Meter Entfernung vor einen 55 Zoll sitzen und dann von Grafik reden. Da gehen schon die meisten sichbaren Details verloren. Polygon-, Effekt- und Texturauflösung können nur sehr wenig bis gar nicht beurteilt werden. UHD wäre in der Tat eine Ressourcenverschwendung. Die meisten Konsolenspieler sehen nicht einmal einen Unterschied zwischen 720p und 1080p.

Nur die Wenigsten haben einen korrekten Abstand. Wichtiger als eine neue Konsole wäre es, sich mal einen anständigen Fernseher zu kaufen. Nicht immer den billigen Elektro-Schrott. Gleiches gilt für PC Monitore. Manche kaufen sich einen PC für 1400 Euro und sitzen dann vor einen minderwertigen Bild. Dann lieber weniger in den PC und mehr in die Bildqualität investieren.

00-Schneider
2016-09-25, 22:25:49
No AMD Zen Core for Project Scorpio; New Semi-custom SoCs Coming in 2018

AMD is set to launch new semi-custom SoCs using Zen core in 2018, which means Microsoft’s upcoming Project Scorpio console won’t be powered by AMD’s next-gen architecture, but the existing Jaguar / Puma CPU.


http://digiworthy.com/2016/09/11/amd-zen-custom-socs-project-scorpio/

-----------------

:facepalm:

MadManniMan
2016-09-25, 23:40:46
Das war doch zu erwarten, oder nicht?

TheAntitheist
2016-09-26, 02:47:14
sonst hätte das wirklich komplett den Rahmen gesprengt, war zu erwarten.

krötenfresse
2016-09-26, 08:47:49
spielt das nicht auch für die abwärtskompatibilität eine große rolle?

ich meine, sony hat bei der pro ja auch nicht allzuviel verändert. sind ja sogar bei nur 8 jaguar kernen geblieben.

ilibilly
2016-09-26, 12:48:53
Naja cpu power reicht jetzt schon für 30fps 1080p aus ,target dürfte 4k@30fps ,da reicht der jaguar auch evtl bissl optimiert.
Bisher hing alles an der gpu und genau da legen sie ordentlich zu,abwr spätestens 3 jahre darauf wenn ps5 und xbox two erscheinen dürfte zen und hbm interessant werden.

deekey777
2016-09-26, 16:56:03
spielt das nicht auch für die abwärtskompatibilität eine große rolle?

ich meine, sony hat bei der pro ja auch nicht allzuviel verändert. sind ja sogar bei nur 8 jaguar kernen geblieben.
Sony hat den Takt hochgejagt. Und es würde mich nicht wundern, wenn sie noch mehr CPU-Takt gewollt haben, aber die Katzenarchitektur keinen höheren Takt (sinnvoll) zulässt.

Ravenhearth
2016-09-26, 20:05:41
Wenn sich die Scorpio von der PS4 Pro nur dadurch unterscheidet, dass sie >40% mehr Grafikleistung, etwa ähnlich mehr Bandbreite und insgesamt 12GB RAM hat, und somit einfach in höheren Auflösungen rendert, dann darf die imho nicht mehr als 499€ kosten. Durchgängig 4K wird die Scorpio sicher auch nicht schaffen.

krötenfresse
2016-09-26, 20:27:55
wie kommst du auf 12gb ram? wurde das bestätigt?

Rente
2016-09-26, 20:30:53
Ist denn wirklich nichts anderes als Jaguar denkbar? Was ist mit Puma- oder Excavator-Varianten?
Zu teuer für Microsoft bzw. zu viel Aufwand für AMD die Architektur auf 8 Kerne zu erweitern?

Laut gedacht: AMD sprach im April von 3 "design wins". Aus meiner Sicht ist einer davon die PS4 Pro, einer die One S und Scorpio wäre dann die 3. Variante (die NX wird ja wohl eher Nvidia-lastig).
Wobei die Rechnung von AMD mit der PS4 Slim nicht so ganz aufgeht, es ist auch kein reiner Shrink...

Irgendwie ergibt der Kommentar von damals keinen Sinn mehr. Entweder es gab Planänderungen die in dieser Aussage gar nicht beinhaltet waren, oder es steht doch noch ein "design win" an den wir gar nicht kennen.

Edit: Ok, der Kommentar macht es etwas klarer (wenn die Interpretation stimmt): https://forum.beyond3d.com/posts/1943481/

Ravenhearth
2016-09-26, 20:38:32
wie kommst du auf 12gb ram? wurde das bestätigt?

Im von Microsoft gezeigten Rendering waren 12 GDDR5-Chips zu sehen, also 384 Bit. Damit sind bei GDDR5 nur 6 oder 12GB möglich und man wird ja wohl kaum weniger verbauen als bei der One. Bei GDDR5X wären auch 9GB drin, aber das dürfte es auch nicht sein, dann bräuchte man keine 384 bit.

krötenfresse
2016-09-26, 20:48:01
Im von Microsoft gezeigten Rendering waren 12 GDDR5-Chips zu sehen, also 384 Bit.
woher weisst du, dass es gddr5-chips sind?
und darf man dem gezeigten rendering tatsächlich glauben schenken?

Nightspider
2016-09-26, 20:57:31
12 oder 16GB Ende 2017 sind nur logisch.

Viele vergessen hier das die Scorpio nicht nur für Ports in nativem 4K da ist sondern auch für Games die so nicht auf der Xbox One laufen und somit grundsätzlich höhere Anforderungen an RAM, CPU und Bandbreite stellen werden.

Rente
2016-09-26, 20:57:53
Mir war etwas langweilig: Die von 00-Schneider gepostete Seite (http://digiworthy.com/2016/09/11/amd-zen-custom-socs-project-scorpio/) hat keinerlei Verweis auf eine überprüfbare Quelle. Darüber hinaus findet sich diese Interpretation nur auf einer weiteren Webseite die hauptsächlich Clickbait betreibt.
Der Artikel hat aus meiner Sicht somit keinerlei tieferen Wert, außer das die Möglichkeit in den Raum gestellt wird, dass Scorpio zu früh für ZEN kommt.

D.h.: ZEN ist noch nicht aus Scorpio raus.

robbitop
2016-09-26, 21:04:26
No AMD Zen Core for Project Scorpio; New Semi-custom SoCs Coming in 2018




http://digiworthy.com/2016/09/11/amd-zen-custom-socs-project-scorpio/

-----------------

:facepalm:
Ohne binärkompatiblen Kern starten die bisherigen Spiele nicht. Es ist naiv zu glauben, dass man GPU und CPU einfach austauschen könnte, wenn man bedenkt, wie Konsolenspiele programmiert werden. Wenn da schon irgendwelche Latenzen nicht ganz stimmen bekommt man schon Probleme. Das ist kein PC mit vielen Abstraktionsschichten.

Du brauchst eine binärkompatible GPU und CPU. Insofern wäre ich auch mit der GCN Iteration eher pessimistisch...

krötenfresse
2016-09-26, 21:06:02
12 oder 16GB Ende 2017 sind nur logisch.

Viele vergessen hier das die Scorpio nicht nur für Ports in nativem 4K da ist sondern auch für Games die so nicht auf der Xbox One laufen und somit grundsätzlich höhere Anforderungen an RAM, CPU und Bandbreite stellen werden.
wurde das von m$ gesagt?
und wie sollen 12gb statt 8gb einen deutlich sichtbaren unterschied bringen?

Ravenhearth
2016-09-26, 21:06:29
woher weisst du, dass es gddr5-chips sind?
und darf man dem gezeigten rendering tatsächlich glauben schenken?

MS selber nennt eine Bandbreite von 320 GB/s. Das passt nur zu GDDR5 (oder GDDR5X bei 256 bit). Und ja, das Rendering stammt direkt von Microsoft, etwas zuverlässigeres haben wir aktuell nicht.


12 oder 16GB Ende 2017 sind nur logisch.

Viele vergessen hier das die Scorpio nicht nur für Ports in nativem 4K da ist sondern auch für Games die so nicht auf der Xbox One laufen und somit grundsätzlich höhere Anforderungen an RAM, CPU und Bandbreite stellen werden.

Sollten nicht alle Scorpio-Spiele auch für Xbox One erscheinen? Oder verwechsle ich das grad?


wurde das von m$ gesagt?
und wie sollen 12gb statt 8gb einen deutlich sichtbaren unterschied bringen?

Texturen bspw, die Auflösung macht nicht sooo viel aus.

Rente
2016-09-26, 21:09:21
Ohne binärkompatiblen Kern starten die bisherigen Spiele nicht. Es ist naiv zu glauben, dass man GPU und CPU einfach austauschen könnte, wenn man bedenkt, wie Konsolenspiele programmiert werden. Wenn da schon irgendwelche Latenzen nicht ganz stimmen bekommt man schon Probleme. Das ist kein PC mit vielen Abstraktionsschichten.

Du brauchst eine binärkompatible GPU und CPU. Insofern wäre ich auch mit der GCN Iteration eher pessimistisch...
Hast du die Rückwärtskompatibilitätsthematik irgendwie verpasst? Microsoft schafft es alte 360-Spiele (die eine komplett andere Architektur hatte) auf der One spielbar zu machen, aber sie schaffen es nicht es auf der Scorpio (die auch x86 und GCN ist) ähnlich zu lösen?
Sollten sie sich so entscheiden, werden sie sicherlich auf diese Technik zurück greifen. Es beträfe sowieso nur alte Spiele, neue XBOX-Anywhere-Titel bekommen direkt Scorpio-Anpassungen (laut Microsoft).

Nightspider
2016-09-26, 21:17:36
wurde das von m$ gesagt?
und wie sollen 12gb statt 8gb einen deutlich sichtbaren unterschied bringen?

Wer bitte redet denn hier von einem sichtbaren Unterschied?
Mal davon abgesehen das mehr Speicher einen sichtbaren Unterschied ermöglicht, ermöglich er größere und komplexere Spielwelten.



Sollten nicht alle Scorpio-Spiele auch für Xbox One erscheinen? Oder verwechsle ich das grad?

Das gilt glaube nur für die PS4 Pro. Allerdings lese ich auch nicht jede Konsolen-News.

Jedenfalls kommt die Scorpio erst ein ganzes Jahr nach der PS4 Pro und ist viel schneller als die Xbox One. Alles andere würde mich jetzt wundern.

Rente
2016-09-26, 21:21:23
[...]
Sollten nicht alle Scorpio-Spiele auch für Xbox One erscheinen? Oder verwechsle ich das grad?
[...]
So haben sie es beworben. Jedes (Microsoft-) Spiel auf jeder Plattform, d.h. One, Scorpio und Win10.

krötenfresse
2016-09-26, 21:48:20
MS selber nennt eine Bandbreite von 320 GB/s. Das passt nur zu GDDR5 (oder GDDR5X bei 256 bit).
also werden sie definitiv nicht auf die idee kommen, bei ddr3 zu bleiben (eventuell mehr davon) und hohe bandbreite durch erweiterung des es-ram zu erzeugen?

xyleph
2016-09-26, 22:08:45
Ist denn wirklich nichts anderes als Jaguar denkbar? Was ist mit Puma-

Puma ist ja praktisch Jaguar, nur mit höheren Takt. Bei der PS4 Pro heißen die Kerne Tiger, weil wieder höherer Takt und 16nm. Kann bei Scopio dann auch Lion heißen, ist am Ende aber trotzdem Jaguar in einen neuen Verfahren mit höheren Takt.
Jedenfalls, sollte Scorpio "Jaguar" bekommen.

N0Thing
2016-09-26, 22:47:20
Hast du die Rückwärtskompatibilitätsthematik irgendwie verpasst? Microsoft schafft es alte 360-Spiele (die eine komplett andere Architektur hatte) auf der One spielbar zu machen, aber sie schaffen es nicht es auf der Scorpio (die auch x86 und GCN ist) ähnlich zu lösen?
Sollten sie sich so entscheiden, werden sie sicherlich auf diese Technik zurück greifen. Es beträfe sowieso nur alte Spiele, neue XBOX-Anywhere-Titel bekommen direkt Scorpio-Anpassungen (laut Microsoft).

Es ist schon ein Unterschied, ob man die Ressourcen einer neuen Generation dafür verwendet, um ausgesuchte alte Spiel zu portieren, oder ob Spiele einer Generation weiterhin kompatibel mit einer Neuauflage bleiben. Da hilft es, wenn sich an der Architektur möglichst wenig ändert. Eine Zen- oder Bulldozer-CPU war bisher immer eher Wunsch als Gerücht.

Dass neuere Titel mit Blick auf Scorpio entwickelt werden, ist nur natürlich.

deekey777
2016-09-26, 23:19:41
Hast du die Rückwärtskompatibilitätsthematik irgendwie verpasst? Microsoft schafft es alte 360-Spiele (die eine komplett andere Architektur hatte) auf der One spielbar zu machen, aber sie schaffen es nicht es auf der Scorpio (die auch x86 und GCN ist) ähnlich zu lösen?
Sollten sie sich so entscheiden, werden sie sicherlich auf diese Technik zurück greifen. Es beträfe sowieso nur alte Spiele, neue XBOX-Anywhere-Titel bekommen direkt Scorpio-Anpassungen (laut Microsoft).

Es ist gerade nicht so, dass die X360-Spiele perfekt auf der Xbox One laufen. Spiele wie CoD-Teile fühlen sich auf der Xbox One wohl, dagegen ist zB Halo Reach nahezu unspielbar (auch die R6V-Teile). Und niemand will erleben, dass ein Halo 5 auf der Xbox One besser läuft als auf Scorpio.

Martin K.
2016-09-27, 07:34:23
Meiner Meinung nach kann sich M$ Project Scorpio sparen. Der Zug im Konsolenkampf gegen Sony ist abgefahren. Scorpio wird die Xbox kaum pushen.

Generell könnte M$ eine komplett neue Generation einführen. Warum nicht 2018 eine komplett neue Xbox? Was spricht dagegen?

Nintendo läutet die neue Generation im März 2017 ein. Keiner will aufgewärmten Kaffee...verstehe Sony und M$ einfach nicht...

][immy
2016-09-27, 08:04:16
Es ist gerade nicht so, dass die X360-Spiele perfekt auf der Xbox One laufen. Spiele wie CoD-Teile fühlen sich auf der Xbox One wohl, dagegen ist zB Halo Reach nahezu unspielbar (auch die R6V-Teile). Und niemand will erleben, dass ein Halo 5 auf der Xbox One besser läuft als auf Scorpio.
du weißt aber schon, das hier das Problem ist, das die Power-CPU mit 3,2 GHz takt "emuliert" werden muss und das bei Scorpio zumindest die Architektur die gleiche ist, oder?
Was die Abstraktion betrifft, reden wir hier eigentlich immernoch von x86er Windows10 Spielen (mehr oder minder). Und nach wie vor ist ein API layer dazwischen, wenn auch ein sehr viel dünnerer als früher üblich. Ich glaube nicht das man hier ein Problem bekommen würde. Bei der PS4 hätte ich das schon eher gedacht, da sony ja meist tiefere Zugriffe auf die Hardware zulässt.
Wir reden hier aber von einer komplett virtualisierten Umgebung. Da kann die CPU-zeit relativ dynamisch zugewiesen werden.
Da die meisten Spiele irgendein fps limit haben, dürfte es auch gar nicht so schlimm aussehen, wenn man die volle CPU/GPU-Leistung zur Verfügung steht. Ist ja quasi wie am PC.
Und das einige Dinge die vorher fixed-function waren nun über Shader oder sonst was gelöst werden, dürfte auch nicht das riesige Problem sein, dafür steht ja "einfach" mehr Hardware zur Verfügung.

Interessant wird, ob MS auch für bestehende, eigene Spiele einen 4k Patch nachliefern wird.

Zu der Diskussion ob 12GB Ram oder nicht, wurde seitens MS schon mal gesagt, das es keinen Sinn macht, die GPU und CPU zu vergrößern aber den Speicher beizubehalten. Das wird definitiv mehr werden.
Die Frage wird, ob man auch den esram noch beibehalten wird. Würde die Kompatibilität einfacher machen. Von der Geschwindigkeit her, kann er auch nicht schaden, nur die Kosten würde er erhöhen.

robbitop
2016-09-27, 08:12:49
Hast du die Rückwärtskompatibilitätsthematik irgendwie verpasst? Microsoft schafft es alte 360-Spiele (die eine komplett andere Architektur hatte) auf der One spielbar zu machen, aber sie schaffen es nicht es auf der Scorpio (die auch x86 und GCN ist) ähnlich zu lösen?
Sollten sie sich so entscheiden, werden sie sicherlich auf diese Technik zurück greifen. Es beträfe sowieso nur alte Spiele, neue XBOX-Anywhere-Titel bekommen direkt Scorpio-Anpassungen (laut Microsoft).

Das ist Emulation. Das benötigt massiv mehr Arbeit (Spiele laufen nicht out of the Box) und man benötigt massiv mehr Leistung für ein meist mittelmäßiges Ergebnis. Ich kann mir nicht vorstellen, dass das der Anspruch für Scorpio sein soll.

krötenfresse
2016-09-27, 13:16:10
[immy;11168195']
Die Frage wird, ob man auch den esram noch beibehalten wird. Würde die Kompatibilität einfacher machen. Von der Geschwindigkeit her, kann er auch nicht schaden, nur die Kosten würde er erhöhen.
steht denn fest, dass m$ auf gddr5 oder gddr5x setzen wird? haben sie das gesagt?
falls sie bei ddr3 bleiben, brauchen sie den esram sowieso. den könnte man ja auch erweitern.

iuno
2016-09-27, 13:54:05
Sie haben das Bandbreitenziel von mind. 320 GB/s genannt, das impliziert den Weggang von DDR3.

Hübie
2016-09-27, 14:51:43
So eine Konsole hätte man 2013 bringen sollen :D

][immy
2016-09-27, 17:07:24
steht denn fest, dass m$ auf gddr5 oder gddr5x setzen wird? haben sie das gesagt?
falls sie bei ddr3 bleiben, brauchen sie den esram sowieso. den könnte man ja auch erweitern.
Mit DDR3 kommst du nicht weit (das interface war für DDR3 ja schon ungewöhnlich breit). Den esram zu erweitern hätte zwar was, wäre aber verdammt teuer. Daher tippe ich eher drauf das der weg fällt. Um ein wenig Speicherbandbreite zu schonen könnte ich mir aber vorstellen, das ein ondie-speicher noch dazu kommt, z.B. um die rops oder so auslasten zu können. Hier würde sich aber wohl edram anbieten, da günstiger. Zudem könnte man dann locker mehr anbieten mit höhrerer theoretischer Bandbreite.
Allerdings wird es wie auf dem Bild wohl "einfach" durch 12 GDDR5 chips gelöst die an einem 384 bit speicherinterface hängen.
"Normaler" DDR4 wäre eventuell auch noch eine option, allerdings dürfte die Bandbreite da hart am limit liegen und damit teuer werden.
Der Hauptspeicher ist wohl die Komponente die sich hinterher bei shrinks noch am einfachsten austauschen lässt. Hier kann man dann relativ munter auf neue Technologien setzen ohne starke Brüche zu befürchten, wenn man mindestens die zugesicherte Bandbreite anbieten kann.
Aber erst mal dürfte es teuer werden mit 12 chips.

krötenfresse
2016-09-27, 18:28:53
[immy;11168792']Den esram zu erweitern hätte zwar was, wäre aber verdammt teuer.
warum hat m$ dann überhaupt erst auf esram und ddr3 gesetzt?

iuno
2016-09-27, 18:31:28
Das versteht keiner :P
Vielleicht dachten sie in der Phase auch noch, dass sie mehr Einfluss haben. So wie es aussieht hat ja keiner Bock mit der Extrawurst zu hantieren, bei Multiplattformtiteln eh nicht.

][immy
2016-09-27, 18:50:30
warum hat m$ dann überhaupt erst auf esram und ddr3 gesetzt?

Weil nicht absehbar war das 8gb gddr5 klappen werden. Sony hatte glück das die größeren chips fertig wurden. Die ps4 hätte ansonsten 4gb gehabt.

Locuza
2016-09-27, 18:54:04
Spekulativ wegen 8 GB Hauptspeicher.
GDDR5 mit größere Kapazitäten war zu der Zeit noch relativ frisch, entsprechend war es vielleicht etwas zu risikoreich für MS damit zu planen.
MSI hat bezüglich der MSI Radeon 290X Lightning von einem GDDR5 Engpass gesprochen, teilweise auch wegen der PS4:
http://www.pcgameshardware.de/screenshots/667x500/2014/03/MSI_Radeon_R9_290X_Lightning_Praesentation_2-pcgh.png
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/MSI-Radeon-R9-290X-Lightning-vorgestellt-1111942/