PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware-Spezifikationen zur Xbox Scarlett sprechen von Navi 21 ...


Leonidas
2019-08-12, 17:34:37
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-hardware-spezifikationen-zur-xbox-scarlett-sprechen-von-navi-21-grafikloesung-m

Brillus
2019-08-12, 17:59:22
Nur noch ein weiter Punkt warum es eher ein auf Navi21 basierend ist. Wenn es für den Chip speziel wäre würde der Navi21 eintrag im Linuxtreiber keinen Sinn machen.

Gast
2019-08-12, 18:22:12
Dann macht euch schon mal auf eine Enttäuschung gespannt, wenn die Werte nicht eingehalten werden.

Die 5700XT verbraucht bei Igor schon ~220 Watt. Wenn man dann zu den 40CUs noch 12 dazupackt (immerhin +30%), kommt man mit dem 275 Watt Netzteil aber garantiert nicht mehr hin. Auch wenn ein niedrigerer Takt natürlich einen Teil des Problems wieder auffängt.

Aber zusammen mit CPU, Blu-Ray Laufwerk, SSD, dem üppigem (V)RAM, dem Mainboard etc. halte ich das für ausgeschlossen.

Auch würde ich nicht mehr als 16GB (V)RAM erwarten.

Die Leistung braucht es aber auch gar nicht um UHD zu befeuern.
Eine 5700XT dürfte bei hardwarenaher Programmierung eine gute Grundlage für die nächsten Jahre stellen. Upscaling von 1800p, VRS, und ähnliche Tricks dürften auch ohne große optische Einbußen die 60fps zu einem machbaren Ziel werden lassen. Zumindest wenn man aktuelle Tests zurate zieht und mal von den zweithöchsten Einstellungen ausgeht und nicht alle Regler ohne Sinn und Verstand auf Anschlag ballert.

Wolfenstein Youngblood z.B. kann die 60fps in nativem 4k auf der 5700XT fast halten.

pipin
2019-08-12, 18:48:32
Also imo war Anubis der Codename des Socs der Xbox One. Schreit irgendwie nach Fake.
Komachi war derselben Meinung. ;)

blaidd
2019-08-12, 19:52:57
Das wäre tatsächlich eine ganze Ecke stärker, als ich für gut umsetzbar (Preis, Kühlung/Geräuschkulisse) gehalten hätte... womit ich nicht sagen will, dass ich die News für unrealistisch halte, bin nur leicht überrascht (ich hätte eher so mit RX 5700 + ein wenig - Leistung gerechnet, vielleicht 150 - 160 Watt für den Grafikchip. Das würde im Grunde auch für 4K/60 ausgereichen, notfalls mit ein bisschen Upscaling)

Bezgl Codenamen: Vielleicht gibt's aber ja auch direkt 2 Varianten von der Xbox. Das halte ich jedenfalls für nicht vollkommen irrealistisch... Gab's da nicht auch mal irgendein Gerücht darüber? Ich selbst hab darüber nur mal nachgesponnen.
Aber wenn's leistungsmäßig tatsächlich so eintreffen würde, wäre das natürlich auch ganz cool. Dann könnten die kommenden Spiele wirklich einen recht beträchtlichen Sprung machen...

Gast
2019-08-12, 19:59:58
Grundsätzlich sind diese Hardware-Daten nicht überraschend, sondern wurden in dieser Form bereits erwartet. Offen waren zuletzt eigentlich nur die Leistungsfähigkeit der Grafiklösung, Speicherinterface sowie Speichermenge und letztlich die Frage, ob es wieder ein monolitischer Ansatz sein soll oder ob AMD hier doch sein Chiplet-Verfahren nutzt. Letzterer These kann man wohl eine Absage erteilen, denn die Nennung des "Anubis"-SoCs mit seiner Chipfläche von 393mm² räumt alle anderen Möglichkeiten vom Tisch.
Ich verstehe nicht so ganz, weshalb einzig auf Grund der Chipfläche hier die Chiplet-Variante vom Tisch sein soll.

Wenn man die Flächen von 5700 XT, IO Die und einem Chiplet zusammen zählt landet man zwar bei 450 mm², was zwar mehr, aber nicht viel mehr ist.
Zudem ist es ja durchaus möglich, dass bei so einer Variante bei dem GPU Teil Fläche wegfällt und zudem könnte ja auch ein angepasstes IO Die zum Einsatz kommen.

iamthebear
2019-08-12, 21:12:12
52 Shader Cluster wäre fast auf Radeon VII Niveau. Ich bezweifle einmal sehr stark, dass sich diese Daten auf 339mm² unterbringen lassen. Weiters würde das auf einen Verkaufspreis jenseits der 1000 Euro hinaus laufen. Ich glaube nicht, dass der Markt das hergibt.

Dorn
2019-08-12, 21:55:02
Also wenn das so für 500 Euro kosten sollte dann Hut ab, teurer kann man eine Konsole eigentlich nicht mehr machen.

Aber dank der neuen MS Gaming Strategie habe ich schon eine XBOX in meinem PC^^.

Gast
2019-08-12, 22:05:45
Ich denke auch, dass die Angaben zu hoch gegriffen sind. Der Verkaufspreis der Konsole wäre entweder so hoch, das es die Käufer abschreckt oder dermaßen subventioniert, dass Microsoft lange braucht um in die Gewinnzone zu kommen. Letzterem Szenario hatten eigentlich sowohl Sony als auch Microsoft eine Absage erteilt.

Auch mit 7nm+ wird es schwer die Leistung hoch zu halten ohne den Bedarf elektrischer Leistung durch die Decke gehen zu lassen.
Mein letzter Kenntnisstand war, das zwar eine 8-Kern CPU (Zen2) verbaut wird, aber nur mit 2.4 Ghz getaktet wird.
Damit würde aber eine GPU mit 3328 Shadern ständig am CPU-Limit hängen.

Mich würde mal interessieren wie denn die 52 Cluster ins bisherige Konzept der RDNA GPU passt. Bisher 5 Workgroups pro Shader Array und 8 Arrays. Nächste Stufe wäre 8 WG in 10 SA, also 50 insgesamt. Aber wie sollen das 52 werden?

morbidmorgis
2019-08-12, 22:07:50
Edit: Hat sich erledigt (kann man seine eigenen Beiträge nicht irgendwie löschen?).

basix
2019-08-12, 22:09:37
@ Vorredner:
Nicht zu viel ins Netzteil hineininterpretieren. Die Ur-PS4 hatte ein 250W Power Supply und verbrauchte trotzdem "nur" 130-140W in Games ;)

drkohler
2019-08-12, 23:38:10
@ Vorredner:
Nicht zu viel ins Netzteil hineininterpretieren. Die Ur-PS4 hatte ein 250W Power Supply und verbrauchte trotzdem "nur" 130-140W in Games ;)
Da gibt es nicht viel hinein zu interpretieren.
Bei der beschriebenen Hardware kann ich nur viel Glück wünschen mit einem 275W Netzteil...

Gast
2019-08-13, 00:22:03
Das hört sich einerseits zu realistisch an um es komplett zu ignorieren.
Andererseits sind einige Punkte dabei die dann doch stark nach Fake schreien.

Einmal sind das die 1TB PCIe4 SSD.
Auch wenn SSD-Preise noch immer im Fallen sind, wäre der Preis dafür viel zu hoch, noch dazu wo wir wissen, was PCIe4 bei X570 an Kostensteigerung verursacht.

Auch wenn es nicht unmöglich ist, dass bis zum Release der Konsole entsprechende SSDs tatsächlich günstig genug wären, hört es sich sehr unwahrscheinlich an schon in der Planungsphase auf einen derartigen Preisverfall zu wetten.

Ich gehe initial von maximal 512GB für die SSD aus, und eine weitere HDD für den Massenspeicher.

Wobei natürlich im Späteren Verlauf eine 1TB Konsole nicht unwahrscheinlich erscheint, und sollten die SSDs bis zum erscheinen tatsächlich günstig genug sein, dass man vielleicht sogar mit 1TB startet, aber dass man das heute schon plant ist wie gesagt sehr unwahrscheinlich.

Wobei es natürlich Developer Kits mit entsprechender Ausstattung schon geben könnte.

Dass man die ganze Hardware in 400mm² reinbekommt wirkt auch schon etwas unwahrscheinlich, alleine ein Zen2 Chiplet + Navi 10 kommt schon irgendwo in die Richtung 330mm².

Da soll dann noch die Raytracing-Hardware und eine doch deutliche Erhöhung der CUs rein passen? IO können wir einigermaßen vernachlässigen, da das Speicherinterface ja schon im GPU-Part drinnen ist, trotzdem soll dieses auch nochmal 50% größer sein und ein bisschen IO für USB, Ethernet etc. muss durchaus noch rein.

Aber wie gesagt ist das an der Schwelle die noch nicht von Beginn an komplett unrealistisch erscheint.

Was das aber ganz klar als Fake entlarvt ist das Netzteil mit 275W.

Alleine mit der GPU-Erweiterung zu Navi 10 würde man in diese Regionen vorstoßen. Dazu kommen noch mal ~65W von der CPU, und komplett gratis sind Mainboard und die ganze Peripherie auch nicht.

Würde man von 275W durchschnittlichen Verbrauch sprechen würde ich es vielleicht gerade noch durchgehen lassen, vielleicht macht AMD wirklich derartige Fortschritte, wobei bei der CPU eigentlich Zen2 bestätigt ist und damit kaum Spielraum ist, und das damit höchstens mit einer Verbesserung von RDNA erreichbar wäre.

Aber bei 275W durchschnittlichen Verbrauch liefert man das niemals mit einem 275W Netzteil aus sondern kalkuliert entsprechende Reserven ein.

Bei Konsolen will man in der Regel auch eine garantierte Rechenleistung, und lässt diese nicht durch irgendwelche Boost-Mechanismen bestimmen, wie man beispielsweise auch schön an der Switch sieht, die ja deutlich unter dem Potential des Tegra-X1 taktet, dafür diesen Takt aber garantiert immer halten kann. Daher ist es auch extrem unwahrscheinlich, dass man per Powerlimit diese 275W immer einhält und damit auch mit einem 275W Netzteil auskommt.

urbi
2019-08-13, 01:15:51
Naja selbst ein Ryzen 3900x läuft ja zur Not mit unter 10W (https://www.youtube.com/watch?v=y9-jI1ivlfk). Ein 3700x hat nur ein Chiplet, ergo könnte er vielleicht sogar noch besser laufen. Der Prozessor soll nach den Angaben oben ja auch nur mit 3,6Ghz takten.
Die RX 5700 hat bei Spielen im Schnitt einen Verbrauch von 176W (Quelle: Computerbase).

275W halte ich daher nicht für ganz unrealistisch. Pack halt noch den Ram und eine SSD hinzu und rechne etwas Puffer ein - dann bleiben doch wahrscheinlich trotzdem noch ~70-80W für die CPU.

drkohler
2019-08-13, 02:28:53
[URL="https://www.youtube.com/watch?v=y9-jI1ivlfk"]
275W halte ich daher nicht für ganz unrealistisch. Pack halt noch den Ram und eine SSD hinzu und rechne etwas Puffer ein - dann bleiben doch wahrscheinlich trotzdem noch ~70-80W für die CPU.Naja, die RX hat 40CUs, nicht 52 (oder sogar 56 wie bei manchen "Quellen" geträumt). Da ist auch keine Raytracing Hardware drin. Da ist auch keine Tensilica Soundhardware drin. Da ist auch wesentlich weniger Ram drauf. Das summiert sich dann doch.

Leonidas
2019-08-13, 05:19:10
Also imo war Anubis der Codename des Socs der Xbox One.


Das ist der große Nachteil dieses Gerüchts, wie ich jetzt realisiere. Es gibt zwar wenige Quellen hierzu (Anubis = Xbox One), aber jene sind älteren Datums, damit in diesem Fall relevanter. Wenn Anubis wirklich der Codename des Xbox One SoCs ist, wäre diese Namensverwendung für eine weitere Konsole doch arg kurios. Chance auf Fake demzufolge gestiegen - auch wenn es mir nicht in den Kopf will, wieso ein Faker einen solch einfachen Fehler machen sollte.

X.Perry_Mental
2019-08-13, 08:14:05
Das ist der große Nachteil dieses Gerüchts, wie ich jetzt realisiere. Es gibt zwar wenige Quellen hierzu (Anubis = Xbox One), aber jene sind älteren Datums, damit in diesem Fall relevanter. Wenn Anubis wirklich der Codename des Xbox One SoCs ist, wäre diese Namensverwendung für eine weitere Konsole doch arg kurios. Chance auf Fake demzufolge gestiegen - auch wenn es mir nicht in den Kopf will, wieso ein Faker einen solch einfachen Fehler machen sollte.

Oder Microsoft nennt seine Entwicklerplattform grundsätzlich Anubis, ähnlich wie bei Debian der Unstable-Zweig immer Sid heißt.

Korvaun
2019-08-13, 10:23:09
Das Problem is die XOneX, die ja schon 6TF Rechenleistung hat. Weniger als 10TF sollte die Nachfolgegenaration nicht haben, sonst würde es ja eher eine XOneX v2.0 sein (mit wesentlich besserer CPU aber nur sehr mäßig mehr GPU Power). Selbst 6 auf 10TF wäre nicht berauschend und würde keinen allzu großen Grafiksprung ermöglichen, es wäre dann zumindest 4K für alles ordentlich machbar.

275W sollten locker reichen, 7nm+ Fertigung und Taktraten näher am Sweetspot als bei PC-Hardware und fertig...

Gast
2019-08-13, 11:32:46
Selbst eine 5700 non XT lutscht bei vergleichbaren Taktraten 185W Longterm aus der Dose , von kurzzeit Spikes bis über 350W ganz zu schweigen.

https://www.igorslab.media/wp-content/uploads/2019/07/13-Gaming-Power-Consumption-Zoom.png

Wie das mit 30% mehr Shadern und dem Takt mit einem 275W NT an dem noch CPU SSD und Rest Geraffel hängen gehen soll muss ich nicht verstehen.

Die Daten sofern wahr lassen auf einen Preispunkt von 1k€ oder sogar mehr schließen was PC und Konsole nicht nur bei der Arch näher zusammen rücken lässt.

Gast
2019-08-13, 11:32:47
Mich würde mal interessieren wie denn die 52 Cluster ins bisherige Konzept der RDNA GPU passt. Bisher 5 Workgroups pro Shader Array und 8 Arrays. Nächste Stufe wäre 8 WG in 10 SA, also 50 insgesamt. Aber wie sollen das 52 werden?

Ich zitiere mich mal selbst und korrigiere den vorletzten Satz: Nächste Stufe wären 5 WG in 10 SA, also 50 insgesamt.

Reicht aber nicht. 11 SA wären 55 Cluster und davon werden 3 deaktiviert? Oder 12 SA, also 60 Cluster und 8 deaktiviert?
Das alles macht den Grafikteil noch größer und teurer.

Wenn 10 TFlops Rohleistung anvisiert sind und die 5700XT schon bei 9 TFlops liegt und die CPU nochmal ca. 360 GFlops beisteuert, dann müsste der bisherige Grafikchip mit einem Hauch mehr Takt völlig reichen. Wozu dann noch einen fetteren Chip konstruieren.

Die Raytracing-Effekte sollen "nur" realistischere Licht- und Schattenberechnung ermöglichen, hieß es mal. Ich glaube nicht, das in so kurzer Zeit ein Chip mit voller RT Unterstützung aus dem Hut gezaubert wird.
Diese RT-Effekte lassen sich gut über die bisherigen Shader berechnen.

Gast
2019-08-13, 14:55:02
Naja selbst ein Ryzen 3900x läuft ja zur Not mit unter 10W (https://www.youtube.com/watch?v=y9-jI1ivlfk). Ein 3700x hat nur ein Chiplet, ergo könnte er vielleicht sogar noch besser laufen. Der Prozessor soll nach den Angaben oben ja auch nur mit 3,6Ghz takten.
Die RX 5700 hat bei Spielen im Schnitt einen Verbrauch von 176W (Quelle: Computerbase).

Ein 3700X hat 3,6GHz Basetakt bei 65W TDP, passt also ziemlich genau.
Mit 10W läuft der 3900X sicher nicht unter Last mit 3,6GHz.



275W halte ich daher nicht für ganz unrealistisch. Pack halt noch den Ram und eine SSD hinzu und rechne etwas Puffer ein - dann bleiben doch wahrscheinlich trotzdem noch ~70-80W für die CPU.

275W Realverbrauch ist jetzt nicht ganz unrealistisch, gerade bei Spielen ist die CPU oft gar nicht ausgelastet, könnte also real in den meisten Fällen durchaus auch um die 30W auskommen.
Sagen wir mal 225W für die GPU und den Rest für die Peripherie und man könnte durchaus auf 275W Realverbrauch kommen.

Nur wird man bei 275W Realverbrauch und den Komponenten, die bei Volllast durchaus entsprechend mehr brauchen können mindestens ein 400W Netzteil verbauen.

Xergon
2019-08-14, 01:04:42
Diese ganze Watt-Diskussion ist doch absurd, bei Laptops bekommt man es doch auch hin eine 2080 + eine Acht-Kern CPU stabil mit 250-300 Watt zu betreiben. Klar, CPU und GPU werden dann evtl. bei Lastspitzen runtergeregelt, aber solange die Regelung nicht Temperatur-basiert passiert, ist dieses Verhalten doch für die Spieleentwickler reproduzierbar.

Es macht auch Sinn 56 statt 40 CUs zu verwenden - eben weil die Taktrate der GPU bei gleicher Leistung dann näher am Effizienzmaximum liegen kann, der Chip also für die gleiche Leistung weniger Strom benötigt.

Mr.Smith
2019-08-14, 05:28:52
7nm+ oder gar 5nm, sweetspot für cpu und gpu und schon passt das in max. 300W
3jahre hardware verkauf subventioniert und schon passen die Preise

zumindest hatte ich das mal zur ps5 gehört

dr.denton
2019-08-14, 08:54:13
Das Problem is die XOneX, die ja schon 6TF Rechenleistung hat. [...]

Von der theoretischen Leistung würde ich mal nicht ausgehen - selbst in einer Konsole dürfte die Optimierung nicht weit genug gehen, um aus dem Polaris in einer XB alles raus zu holen?

Gast
2019-08-14, 12:49:51
Diese ganze Watt-Diskussion ist doch absurd, bei Laptops bekommt man es doch auch hin eine 2080 + eine Acht-Kern CPU stabil mit 250-300 Watt zu betreiben.

Aber nur mit deutlich reduzierten Taktraten.

Klar, CPU und GPU werden dann evtl. bei Lastspitzen runtergeregelt, aber solange die Regelung nicht Temperatur-basiert passiert, ist dieses Verhalten doch für die Spieleentwickler reproduzierbar.

Selbst wenn die Kühlung ausreichend ist um nicht im Temperaturlimit zu landen bedeutet eine höhere Temperatur immer einen höheren Verbrauch und damit im Powerlimit auch einen niedrigeren Takt. Zusätzlich steigt mit der Temperatur die benötigte Spannung um Stabil zu bleiben, was wiederum den Verbrauch erhöht. Schön zu sehen beispielsweise bei Grafikkarten die mit 40° unter Wasser dann doch merklich höher Takten können als mit 70° unter Luft, auch ohne dass man die Limits noch in irgendeiner Weise anpasst.

Da die Umgebung in der die Konsolen betrieben werden nicht vorhersehbar ist, wäre damit die effektive Leistung auch nicht vorhersehbar.



Es macht auch Sinn 56 statt 40 CUs zu verwenden - eben weil die Taktrate der GPU bei gleicher Leistung dann näher am Effizienzmaximum liegen kann, der Chip also für die gleiche Leistung weniger Strom benötigt.

Macht sicher Sinn, man könnte damit durchaus bei um die 200W nur für die GPU landen.

Was eben keinen Sinn macht ist ein Netzteil komplett ohne Reserven zu verbauen.

Kopf@Tisch
2019-08-14, 21:43:04
Klar, der Scarlett Xbox Chip bekommt nen eigenen Linuxtreibereintrag!?

Gast
2019-08-15, 00:15:24
Das Problem is die XOneX, die ja schon 6TF Rechenleistung hat. Weniger als 10TF sollte die Nachfolgegenaration nicht haben, sonst würde es ja eher eine XOneX v2.0 sein (mit wesentlich besserer CPU aber nur sehr mäßig mehr GPU Power).

GCN braucht locker 50% mehr theoretische Shaderleistung für die gleiche Performance wie RDNA.

10TF RDNA sollten also durchaus ausreichend sein.