PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Current Generation-Konsolen: Playstation 5 & Xbox Series S/X (Lockhart/Anaconda)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84

Troyan
2018-04-01, 11:50:37
Lmao, klar der Marky. Raytracing ist einfacher und schneller als die ganzen Rasterizing Hacks, die heute verwendet werden. Kleine Studios werden es lieben, weil es die Entwicklungen vorallem kostengünstiger gestalten wird.

DinosaurusRex
2018-04-01, 11:54:29
Kleine Studios werden es hassen, weil du die ganzen Engines umbauen musst. Aber da wir mittlerweile den Zeitpunkt erreicht haben, dass AAA Games auch auf Smartphones erscheinen (siehe Fortnite) macht Foveated Sinn und mit Foveated macht auch Raytracing Sinn und das Konzept vom Hybrid Raytracing besteht ja auch schon seit nem halben Jahrzehnt. Und dank Machine Learning macht Foveated auch abseits von HMDs Sinn.

Hübie
2018-04-01, 12:04:28
Was heißt "Foveated"? :uponder: Der Übersetzer spuckt narbig / grubig aus. X-D

DinosaurusRex
2018-04-01, 12:06:45
Das heißt in diesem Kontext, dass du nur den Fokuspunkt des Users mit maximaler Qualität renderst und die Bildinhalte, die sich in seinem peripheren Sichtfeld befinden, mit niedriger Qualität.

Troyan
2018-04-01, 12:08:29
Keine Engines werden umgebaut. Raytracing wird über die API implementiert. Kleine Studios implementieren heute schon keine aufwendigeren Effekte, weil dies Aufwand, Wissen und Geld benötigt. Raytracing macht es für sie einfacher und portabler.

RLZ
2018-04-01, 14:13:34
Bei den Demos waren es doch auch hybride Ansätze oder? Brauchte man da nicht 4xgv100?
Ja. Die UE4 Demo hatte sogar den Großteil der Beleuchtung gebacken und lief auf 4 Voltas um die 30fps für FullHD zu erreichen

Hübie
2018-04-01, 14:18:39
Das heißt in diesem Kontext, dass du nur den Fokuspunkt des Users mit maximaler Qualität renderst und die Bildinhalte, die sich in seinem peripheren Sichtfeld befinden, mit niedriger Qualität.

Also so etwas wie Multi-Res Shading (https://www.geforce.com/whats-new/articles/shadow-warrior-2-nvidia-multi-res-shading). Der Begriff Foveated war mir halt neu.

iuno
2018-04-01, 14:32:41
Kommt von der Fovea centralis, der Stelle auf der Netzhaut, wo man am schaerfsten sieht. Ich finde die Technik allerdings nicht besonders prickelnd. Das macht meinetwegen bei VR Sinn, wo man die Performance sonst nicht hinbekommt, sowieso durch die Optik andere Gegebenheiten und keine Zuschauer hat. Aber sonst schaut doch gerade auf der Konsole auch mal ein Sitznachbar mit auf den Fernseher, und Streaming ist auch wichtig geworden. Da faende ich es nicht besonders toll als Zuschauer nur auf so eine kleine Flaeche beschraenkt zu sein und sonst halt nur Matsch zu bekommen.

Bei den Demos waren es doch auch hybride Ansätze oder? Brauchte man da nicht 4xgv100?
Die hat auch keine HW Tracer. Als Gegenbeispiel laufen diese Beispiele mit 60 FPS auf einem Smartphone-SoC: https://www.youtube.com/watch?v=rjvaxcM4g7c
Habe also immer noch keinen Grund gehoert, warum man darauf verzichten sollte.

Hübie
2018-04-01, 14:38:23
Ah, dank dir. Wieder etwas gelernt. :up: Ich selber hab es noch nie in Aktion gesehen, sondern kenne es halt nur von den Vergleichsbildern auf Geforce.com (siehe mein Link). Daher kann ich nicht sagen ob es gut oder schlecht ist. Man hat zumindest hier bei Shadow Warrior 2 die Wahl von aus, mittel bis aggressiv, was positiv anzumerken ist. Die Freiheit der Wahl ist immer eine gute Option.

Das von dir verlinkte Video habe ich damals schon (glaub im IMG-Tech-Thread) gesehen und fand es beeindruckend, auch wenn es nicht konstant mit 60 fps läuft. Die 4 GV100 brauchte man in dem Falle für mehrere rpp (2? 4?). Wurde im Video von der GTC erklärt. Es kann auch mit einer @24fps und 1 rpp laufen. Das ist also noch nicht marktfähig, aber wir wissen ja dass aller Anfang schwer ist. :smile: Die Entwicklung an sich erachte ich als positives Signal und ist sicher auch für die NextGen höchst interessant.

RLZ
2018-04-01, 14:54:16
Habe also immer noch keinen Grund gehoert, warum man darauf verzichten sollte.
Für viele Strahlen braucht man ein Shading für das entstehende Fragment. Da trägt die Raytracing HW dann garnichts mehr dazu bei.
Die 4 GV100 brauchte man in dem Falle für mehrere rpp (2? 4?). Wurde im Video von der GTC erklärt.
Mal ausführlich:
JAKXySYfLWo

basix
2018-04-01, 15:14:12
Zu Raytracing:
[immy;11662131']In 640*480?
Du weißt schon was für hardware da verwendet wurde, oder? Und das grad mal für 1080p. Sowas quetscht man in den nächsten Jahren in keine konsole. Selbst spezialisierte rt hardware packt das nicht.

Nope. Einfach nope.

Lmao, klar der Marky. Raytracing ist einfacher und schneller als die ganzen Rasterizing Hacks, die heute verwendet werden. Kleine Studios werden es lieben, weil es die Entwicklungen vorallem kostengünstiger gestalten wird.

Ich sehe einfach einen grossen Vorteil: Gute Beleuchtungsqualität, ohne viel "Arbeitsaufwand" reinzustecken. Das ist auch für die Spiele-Studios ein gewichtiger Punkt. Was es halt braucht, ist leistungsfähige HW.

Wenn ich nun sehe, dass durch Tensor-Cores und andere "Spezialeinheiten" eine um Faktor 10-20 höhere Energieffizienz erreicht wird und man dies dann noch sinnvoll für Raytraycing nutzen kann, wieso nicht? Die Frage ist, wie viel man dazu im Verhältnis von einer "normalen" GPU braucht, also TMUs, Shader (FP32 + FP16) usw. Zudem könnte man die Tensor-Cores oder was auch immer ja auch für andere Sachen verwenden. Vielleicht Haar- und Fellsimulation? TressFX läuft auf FP16 nämlich doppelt so schnell wie in FP32 (ob Matrizen Operationen sich für das eignen, lasse ich mal aussen vor, es geht nur ums Prinzip der Mehrfachnutzung). In den min. 2 Jahren bis zur nächsten Konsolengeneration wird man sicher noch gut was dazulernen, was die beste Kombination von RT mit herkömmlicher Rasterisierung ist. Ausserdem: Raytracing skaliert meines Wissens nach praktisch perfekt linear mit der Anzahl Strahlen. Mit Multi-Res Shading oder Checkerboard hätte man heute schon Werkzeuge, um die Arbeitslast so zu optimieren. Zudem kann man das für den PC dann ebenfalls gut nach oben skalieren, wenn man mehr Leistung hat.

Und wieso "müssen": Müssen muss man gar nichts. Konsolen bieten Entertainment und keine Lebenswichtigen Funktionen. Doch die Konsolen werden 2020-2021 aufschlagen und dann bis 2027-2030 der neue Status Quo sein. Da wäre es erstens schade und zweitens ungünstig, wenn auf dem PC z.B. 2-3 Jahre nach dem Konsolen-Release RT auf dem PC ein neuer Standard würde und die Konsolen dies nicht wirklich gut können. Viel Spass bei Multiplattform Titeln. Da alle grossen Engine-Player dabei sind und dies für M$ aufgrund DX12 vs. Xbox ein Zusatzhebel gegenüber der Playstation ist, erwarte ich sehr stark, dass die neue XBox RT unterstützen wird. Das wird Sony vermutlich dann ebenfalls "müssen", um technologisch nicht hinterherzuhinken (siehe XBox One vs. PS4 Diskussionen bei Release, wie schlecht die XBox doch ist, viel weniger TFLOPs etc. - ja, neben Kinect).

mboeller
2018-04-04, 08:07:57
https://semiaccurate.com/2018/04/03/semiacccurate-gets-playstation-5next-details/


So now it is time for the Playstation 5/Next or whatever Sony ends up calling it. We once again have real technical info on it, and two possible launch dates, one more solid than the other. You might want to hold off on that XBox One X if you plan on buying it in the next few months, Sony has quite a beast in the wings. Enjoy

Note: The following is for professional and student level subscribers.

pixelguy
2018-04-04, 08:44:00
Kommt da jemand an den Rest des Beitrages ran?

urpils
2018-04-04, 08:59:43
8-core AMD Zen Kerne
AMD Navi-basierend (was auch immer das heißt).
dieses Jahr extrem unwahrscheinlich - realistisch aber wohl tatsächlich Ende nächsten Jahres. (Teaser beim PSX, Reveal nächstes Jahr zur E3, Veröffentlichungen evtl. schon ende 2019). mehr steht nicht drin ;)

pixelguy
2018-04-04, 10:04:11
Ah, danke! Und das soll jetzt so "quite a beast" sein?

robbitop
2018-04-04, 10:35:38
Im Vergleich zur Xbone X schon.

Rancor
2018-04-04, 10:41:44
Alleine CPU seitig ist das schon ein gewaltiger Unterschied und da liegt ja atm auch das Problem der Konsolen.
Die Bulldozer Jaguar Cores sind einfach scheißen langsam.. trotz LL zugriff. Daher sehen wir meistens auch nur 30 FPS

robbitop
2018-04-04, 10:44:14
Die aktuellen Konsolen haben Jaguar Kerne (oder Derivate/leichte Weiterentwicklungen dieser). Bulldozer (oder dessen Derivate) sind dort nicht verbaut.

Rancor
2018-04-04, 11:10:26
Die aktuellen Konsolen haben Jaguar Kerne (oder Derivate/leichte Weiterentwicklungen dieser). Bulldozer (oder dessen Derivate) sind dort nicht verbaut.

Habs korrigiert. Ändert aber ja nichts an der Aussage ;)

pixelguy
2018-04-04, 13:06:49
Kann man von den Aussagen ungefähr eine potenzielle Leistung ableiten? Ich werde da nicht schlau draus...

urpils
2018-04-04, 20:17:53
Kann man von den Aussagen ungefähr eine potenzielle Leistung ableiten? Ich werde da nicht schlau draus...

Nein

basix
2018-04-04, 20:34:42
Was man in etwa ableiten kann bei 2019 Release: 7nm Version 1, somit 2-3x so viel Platz wie bei einer PS4 Pro. Also ca. doppelte Raven Ridge CPU Leistung. Dann 4-6k Shader mit etwa 1.2-1.5 GHz Takt. Wahrscheinlich etwa 15 TFLOPs. Ein Biest ja verglichen mit heutigen Desktop Massstäben, aber nicht so ein riesen Sprung zur PS4 Pro. Offen sind Spezialsachen wie Beschleunigung neuronaler Netzwerke etc.

Zumindest meine Glaskugel sieht das etwa so :D

Sardaukar.nsn
2018-04-04, 21:26:25
Interessant wird durch HDMI 2.1 und VRR (variable refresh rate) das Ende von 30 oder 60fps. Full HD mit bis zu 120fps kann ich mir gut vorstellen.

N0Thing
2018-04-05, 00:55:59
Dank VRR sicher eher 30-60 als über 60.

pixelguy
2018-04-05, 08:51:37
Was man in etwa ableiten kann bei 2019 Release: 7nm Version 1, somit 2-3x so viel Platz wie bei einer PS4 Pro. Also ca. doppelte Raven Ridge CPU Leistung. Dann 4-6k Shader mit etwa 1.2-1.5 GHz Takt. Wahrscheinlich etwa 15 TFLOPs. Ein Biest ja verglichen mit heutigen Desktop Massstäben, aber nicht so ein riesen Sprung zur PS4 Pro. Offen sind Spezialsachen wie Beschleunigung neuronaler Netzwerke etc.

Zumindest meine Glaskugel sieht das etwa so :D
Das wäre ja zur normalen PS4 schon ein sehr guter Sprung...

HotSalsa
2018-04-05, 10:27:43
Interessant wird durch HDMI 2.1 und VRR (variable refresh rate) das Ende von 30 oder 60fps. Full HD mit bis zu 120fps kann ich mir gut vorstellen.

VRR kommt jetzt schon mit der Xbox und den neuen Samsung TV s. Ob das so nen game changer wird, na ja :rolleyes:
Eventuell ist das was für Spiele, welche eine unlocked framerate bieten - also nicht immer 60 fps schaffen aber dank VRR bekommt man halt so viel fps wie gerade geht.

Warum nicht aber endlich mal Hardware für vernünftige Physik integriert wird ist mir ein Rätsel - und sei es erstmal nur Effekt Physik. Wünschenswert wäre zB auch, dass ein(e) (pysikalisch annähernd korrekt) eingestürztes Haus oder Mauer dann auch mit den den Trümmern so liegen bleibt im Spiel und nicht einfach 5 Sek. später verschwindet. Das würde die Immersion entsprechend erhöhen.

MS könnte zB die API Direct PhysX direkt in Direct X integrieren.

robbitop
2018-04-05, 17:59:04
Physik wäre mit einer APU relativ problemlos möglich. Kohärenter Speicherzugriff auf die gleichen Adressen mit gpu/cpu ist gegeben und geringe Latenz dabei auch. Die Partikeleffekte in Second Son sind schon compute beschleunigt und das war einer der ersten ps4 titel. Kostet halt leider Rechenleistung der GPU. Ist dann immer die Frage beim Entwickler ob er deshalb Leistung von der Grafikpipeline abzwacken möchte oder nicht. Wird zukünftig nicht anders sein.

gravitationsfeld
2018-04-05, 19:58:10
Kohärenten Zugriff gibt's nur für Onion, nicht für Garlic. Onion ist über Faktor 10 langsamer. Man kann Garlic zurücklesen, aber dann muss der CPU-Cache aus sein und die GPU muss alle Caches flushen (GCN kann keine range flushes).

Ist natürlich besser als am PC, aber so magisch ist es auch nicht. Der Hauptvorteil von UMA ist das man Speicher flexibel zuweißen kann und das man kein DMA-Staging braucht.

Platos
2018-04-05, 20:59:24
Wie sieht es eigentlich mit VRR bei den Samsung TVs aus ? Ist das dann quasi Free Sync ? Wenn ja, Free Sync 2 ? Und dafür bräuchte man dann ne AMD Grafikkarte ?

Wäre natürlich nicht gerade das Verbreitungsargument. Zum Glück wird es sich wenigstens durch Xbox ONE X und PS-Nachfolger verbreiten.

Tesseract
2018-04-05, 21:10:36
7nm Version 1, somit 2-3x so viel Platz wie bei einer PS4 Pro. Also ca. doppelte Raven Ridge CPU Leistung. Dann 4-6k Shader mit etwa 1.2-1.5 GHz Takt. Wahrscheinlich etwa 15 TFLOPs.

und der preis dann bei 800-1000€? :freak:

Blediator16
2018-04-05, 21:24:55
Wie sieht es eigentlich mit VRR bei den Samsung TVs aus ? Ist das dann quasi Free Sync ? Wenn ja, Free Sync 2 ? Und dafür bräuchte man dann ne AMD Grafikkarte ?

Wäre natürlich nicht gerade das Verbreitungsargument. Zum Glück wird es sich wenigstens durch Xbox ONE X und PS-Nachfolger verbreiten.

Ich denke mal da wird der offene Standard genommen und ein Eigenname draufgeklatsch...SmoothSync :freak:

basix
2018-04-05, 21:33:31
und der preis dann bei 800-1000€? :freak:

Lieber was gescheites als was lahmes :D

Im Ernst, auch wenn die APU doppelt so teuer sein sollte in der Herstellung wie bei der PS4 zu Release (ca. 100$), wäre ein Preisbereich von 500-600$ immer noch realistisch. Wenn sie so früh kommen sollte, wieso nicht. Wenn sie alle PS4 Spiele in 4k wiedergeben kann, dann würde das noch mehr Sinn machen. Falls Single-Chip, wird max. 300-350mm2 drinliegen. Anhand von TSMC und GloFo Präsentationen ist die Skalierung zwischen 7nm und 14nm eben Faktor 2-3, das selbe bei der Energieeffizienz. Somit wird der Chip etwa ähnlich gross sein, wie bei der PS4 (Pro) und XBox One (X). Also alles im Rahmen des machbaren. Sich auf den 399$ Preispunkt zu fixieren empfinde ich als falsch.

Ansonsten wird das 499$ Preisschild wahrscheinlich die magische obere Grenze sein.

Tesseract
2018-04-05, 23:10:10
relative chipgröße zum vorgänger ist egal, entscheidend sind die kosten pro transistor und die gehen seit 40nm kaum noch nach unten. ein chip wie du ihn beschreibst würde in einem eingefahrenen 7nm-prozess ohne kinderkrankheiten wohl so um die $250-350 kosten.

DinosaurusRex
2018-04-06, 07:15:48
Rohleistung ist gar nicht so wichtig. Die ist am Ende eh nur für Dinge gut, die von 99% der Zielgruppe nicht wahrgenommen werden. Solange die Architektur des Systems was aufm Kasten hat, ist doch alles gut.

Ich meine guckt euch mal The Order, Uncharted 4,Gran Turismo, Horizon, God of War und die anderen Exclusives an. Die prügeln den Chip bis ans Limit und sehen unfassbar aus. Gibt in dieser Gen kaum einen Multiplat, der mit den Exclusives mithalten kann. Ich finde das sehr auffällig. Zeigt halt wunderbar, welchen Stellenwert der Entwicklungsprozess im Vergleich zur Hardware hat.

spotz
2018-04-06, 07:44:27
relative chipgröße zum vorgänger ist egal, entscheidend sind die kosten pro transistor und die gehen seit 40nm kaum noch nach unten. ein chip wie du ihn beschreibst würde in einem eingefahrenen 7nm-prozess ohne kinderkrankheiten wohl so um die $250-350 kosten.
Bist du dir da sicher mit den gleichbleibenden Kosten pro Transistor? Ich habe da meine Zweifel, denn dann wären Produkte in kleineren Fertigungsverfahren kaum zu verkaufen bzw unwirtschaftlich. Seit der 40nm Fertigung stieg die Anzahl der Transistoren um den Faktor 5, aber nicht die Preise.

Lurtz
2018-04-06, 10:00:25
Rohleistung ist gar nicht so wichtig. Die ist am Ende eh nur für Dinge gut, die von 99% der Zielgruppe nicht wahrgenommen werden. Solange die Architektur des Systems was aufm Kasten hat, ist doch alles gut.

Ich meine guckt euch mal The Order, Uncharted 4,Gran Turismo, Horizon, God of War und die anderen Exclusives an. Die prügeln den Chip bis ans Limit und sehen unfassbar aus. Gibt in dieser Gen kaum einen Multiplat, der mit den Exclusives mithalten kann. Ich finde das sehr auffällig. Zeigt halt wunderbar, welchen Stellenwert der Entwicklungsprozess im Vergleich zur Hardware hat.
Da ist eben nicht alles gut, siehe PS3-Gen, wo die meisten Drittentwickler das System niemals ausreizen konnten und man regelmäßig fps unter 30 hatte.

Aus Kundensicht finde ich das beschissen. Ich möchte unfassbar gut aussehend in möglichst vielen Titeln, nicht in ein paar Leuchtturmprojekten, denen Sony Geld in den Arsch bläst.

Tesseract
2018-04-06, 11:55:46
Bist du dir da sicher mit den gleichbleibenden Kosten pro Transistor? Ich habe da meine Zweifel, denn dann wären Produkte in kleineren Fertigungsverfahren kaum zu verkaufen bzw unwirtschaftlich. Seit der 40nm Fertigung stieg die Anzahl der Transistoren um den Faktor 5, aber nicht die Preise.

ich habe keine insiderinfos über die genauen kosten, aber das liest man zumindest seit jahren ständig und die zahlen gehen auch in diese richtung.

hier ein paar einführungspreise diverser karten (nicht nur chips):
40nm:
*470: ~9,1 mio.T/$
*480: ~6,4 mio.T/$
580: ~6 mio.T/$

28nm:
680: ~7 mio.T/$
*780: ~10,9 mio.T/$
780Ti: ~10 mio.T/$
Titan: ~7 mio.T/$
980: ~9,4 mio.T/$
*980Ti: ~12 mio.T/$
Titan X: ~8 mio.T/$

16nm:
1080: ~12 mio.T/$
*1080Ti ~17 mio.T/$
Titan Xp: ~10 mio.T/$

*) salvage chip; deaktivierte transistoren mitgezählt. der "tatsächliche" wert liegt darunter.

Ravenhearth
2018-04-06, 13:50:50
relative chipgröße zum vorgänger ist egal, entscheidend sind die kosten pro transistor und die gehen seit 40nm kaum noch nach unten. ein chip wie du ihn beschreibst würde in einem eingefahrenen 7nm-prozess ohne kinderkrankheiten wohl so um die $250-350 kosten.
What? Wie kommst du auf so einen exorbitanten Preis? Raven Ridge ist über 200mm² groß und kostet in der Herstellung in 14nm ca. $25 wenn ich mich richtig erinnere, und wird in leicht abgespeckter Form für 90€ verkauft. Natürlich wird 7nm teurer sein, aber selbst bei den doppelten Kosten wären wir für einen Chip in Raven Ridge-Größe dann nur bei $50, und das ist imo schon zu hoch angesetzt. Mit ~350mm² sinds dann wie viel? Unter $100 auf jeden Fall. Klar, dann würden noch ein paar zusätzliche Kosten hinzu kommen und AMD will auch noch etwas Gewinn machen, aber auf $250-350 kommt man trotzdem bei weitem nicht.

DinosaurusRex
2018-04-06, 14:31:26
Man darf nicht vergessen, dass die Konsolenhersteller den Halbleiterherstellern viele Milliarden für R&D, Prototyping, etc zahlen. Dieses Geld wird dann später über Spiele und Abos wieder eingefahren. Auf dem PC hast du das nicht, da wälzen die Halbleiterhersteller diese Kosten auf den Endverbraucher ab.

Tesseract
2018-04-06, 15:28:48
Raven Ridge ist über 200mm² groß und kostet in der Herstellung in 14nm ca. $25 wenn ich mich richtig erinnere
wo kommt diese zahl her? wenn das die kosten von 14nm wären würde AMD fast ihr komplettes produktlineup mit mehreren hundert prozent gewinnspanne verkaufen.

Man darf nicht vergessen, dass die Konsolenhersteller den Halbleiterherstellern viele Milliarden für R&D, Prototyping, etc zahlen. Dieses Geld wird dann später über Spiele und Abos wieder eingefahren. Auf dem PC hast du das nicht, da wälzen die Halbleiterhersteller diese Kosten auf den Endverbraucher ab.

die prozesse kommen seit jahren von samsung und wenn die konsolenhersteller tatsächlich eine engere zusammenarbeit hätten als andere kunden (quelle?) ist das trotzdem teil der kosten.

DinosaurusRex
2018-04-06, 15:50:26
die prozesse kommen seit jahren von samsung und wenn die konsolenhersteller tatsächlich eine engere zusammenarbeit hätten als andere kunden (quelle?) ist das trotzdem teil der kosten.

Es geht nicht um den Fertigungsprozess, sondern um das Chipdesign. Ein SoC mit 256 Bit SI und mehr als 4TFLOPS fällt nicht einfach vom Himmel und Samsung hat es sich mit Sicherheit nicht ausgedacht. Als ob die Konsolenhersteller immer das Erstbeste nehmen würden. Die werden sicher viele potentielle Kandidaten durchspielen, bis sie sich am Ende für einen entscheiden. Und das kostet sehr viel Geld. Du hast ja auch viele verschiedene Unternehmen, die du unter einen Hut bringen musst und einen brutalen Zeitplan. Und mit Sicherheit werden die auch mit Prototypen von Nvidia und Intel gearbeitet haben und die musst du auch bezahlen. Die PS4 hat dahingehend mehr als 1 Milliarde Dollar verschlungen, bevor sie überhaupt veröffentlicht wurde. Bei der X1 mit dem ESRAM waren es angeblich sogar 3 Milliarden.

Tesseract
2018-04-06, 16:12:02
die chips wurden im auftrag von sony/microsoft von amd entwickelt und beruhen zu großen teilen auf technologie die vom pc-markt finanziert wurde. mit glofo & co. hat das überhaupt nix zu tun und selbstverständlich werden da nicht mehrere designs durchprobiert bis einem irgendwas gefällt. die auftraggeber sagen amd was sie in etwa haben wollen (verhältnis der units, speicheranbindung, detail-customizations usw.) und AMD designt den chip aus ihrerem IP-baukasten. wenn es im detail probleme gibt werden halt ein paar revisionen durchlaufen aber die ändern am grundlegenden design kaum was.

Und mit Sicherheit werden die auch mit Prototypen von Nvidia und Intel gearbeitet haben und die musst du auch bezahlen.

nein, mit sicherheit nicht. sie werden einleitende gespräche geführt haben die in einer sackgasse geendet haben und das wars. weder intel noch nvidia haben die nötige IP um eine derartige APU zu bauen. intel fehlt eine brauchbare GPU, nvidia eine brauchbare CPU und beide haben ihre preise wohl sowieso zu hoch angesetzt.

Troyan
2018-04-06, 16:16:03
nVidia kann locker die SoCs bauen. Deren Xavier unterstützt sogar NVLink. Es ist einzig eine Frage des Geldes gewesen.

Wobei dies jetzt auch nicht mehr gilt. ARM ist schnell und selbst Standard-ARM Ware reicht vollkommen aus, wie man an der Switch sieht. Dort bremst ja nicht die CPU sondern die GPU.

Tesseract
2018-04-06, 16:22:24
nVidia kann locker die SoCs bauen.

2012-2013 rum war das völlig unrealistisch. schon jaguar war als gedachter laptop-tablet-mischling grenzwertig langsam und die switch ist im prinzip ein handheld.

DinosaurusRex
2018-04-06, 16:59:13
die chips wurden im auftrag von sony/microsoft von amd entwickelt und beruhen zu großen teilen auf technologie die vom pc-markt finanziert wurde. mit glofo & co. hat das überhaupt nix zu tun und selbstverständlich werden da nicht mehrere designs durchprobiert bis einem irgendwas gefällt. die auftraggeber sagen amd was sie in etwa haben wollen (verhältnis der units, speicheranbindung, detail-customizations usw.) und AMD designt den chip aus ihrerem IP-baukasten. wenn es im detail probleme gibt werden halt ein paar revisionen durchlaufen aber die ändern am grundlegenden design kaum was.



nein, mit sicherheit nicht. sie werden einleitende gespräche geführt haben die in einer sackgasse geendet haben und das wars. weder intel noch nvidia haben die nötige IP um eine derartige APU zu bauen. intel fehlt eine brauchbare GPU, nvidia eine brauchbare CPU und beide haben ihre preise wohl sowieso zu hoch angesetzt.

Alle drei, AMD, Intel und Nvidia, haben die Technologie, um eine APU zu bauen. Und alle drei bauen schon seit Jahren APUs. Die Kennzahlen hochzuschrauben ist mit Sicherheit kein Problem, denn das ist eine reine Frage des Absatzmarktes. Außer vielleicht im Falle der Intel GPU. Die bleibt kacke im Vergleich zu AMD und Nvidia. In der letzten Gen wurden in den Shrinks sogar IBMs PowerPC mit der GPU aufs Die gequetscht. Und die Konsolenhersteller hätten theoretisch auch bei Qualcomm anfragen können.

Zumal du das ganze Prozedere ziemlich lächerlich darstellst. Immer wieder und wieder dieses Narrativ, dass Sony und Microsoft zu einem Chiphersteller gehen, als wäre es ein Baumarkt, und sich dann auf dilettantischste Art und Weise einen "Gewollt-aber-nicht-gekonnt"-PC zusammenstecken. Aber mal ein wenig geistige Flexibilität beweisen und auf die Idee zu kommen, dass Konsolenhersteller unter Umständen Entwicklungen anstoßen könnten, die prägen, welche Richtung PC Hardware einschlägt, das kommt dir nicht in den Sinn.

pixelguy
2018-04-06, 17:10:53
Als die ersten Gerüchte bzgl. der PS5 DevKits rauskamen, wurde ja von "VR Goodies" gesprochen, welche direkt in Hardware gegossen sein.

Was kann man sich denn darunter vorstellen? Welche VR-Features könnte man durch Hardware extra beschleunigen?

DinosaurusRex
2018-04-06, 17:14:02
Ein 5G Modem ist so sicher wie das Amen in der Kirche. Denn das brauchst du für kabelloses VR. Und es ermöglicht Cloud Gaming mit ultraniedriger Latenz. Damit schlägst du also zwei Fliegen mit einer Klappe.

Ich halte aber nach wie vor nicht viel von VR für Endverbraucher. Selbst im B2B-Bereich wird es von AR an die Wand gespielt. Es ist und bleibt eine lahme Nerd-Technologie. AR ist die vielfach interessantere Technologie. Denn damit kannst du richtig coole lokale Multiplayer Konzepte konzipieren. Du gibst zB jeder Person im Raum eine AR Brille und die werden alle via 5G versorgt. 5G ist entscheidend, denn nur so kannst du viel Rechenleistung an viele Leute schicken und keine Kabel etc sind im Weg. Da steckt so unendlich viel Potenzial drin. Ich denke das wird einen Effekt haben wie die Wii. Das wird jeder spielen wollen. Und zusammen mit Cloud Gaming wird das noch krasser, denn dann kannst du das unterwegs machen. Und Ray Tracing wird für AR sowieso essentiell, alleine um die Präzision der Darstellung zu steigern.

pixelguy
2018-04-06, 17:50:05
Aber du kannst mit AR halt nicht in fremde Welten "eintauchen"... Du bist immer in deinem Wohnzimmer ;-)

DinosaurusRex
2018-04-06, 17:57:00
Du bist immer in deinem Wohnzimmer ;-)

Eben nicht. Gibt ja heute schon einige coole AR Apps für Smartphones. Die laufen aber auf der Hardware des Smartphones. Mit 5G kannst du den Spaß über die Cloud boosten.

Ich persönlich bin ja der Meinung, dass je fotorealistischer Videospiele werden, desto sinnloser werden sie auch. Fotorealismus im Gaming wird sich selbst abschaffen, weil es bei den Menschen irgendwann einen Hallo-Wach-Effekt hervorrufen wird. Das wird etwas abschreckendes haben, im Stile von Matrix. Bei vielen ist ja jetzt bei VR so (bei mir persönlich ja auch). Deswegen glaube ich auch nicht, dass sich VR jemals durchsetzen wird.

Je stärker die Rechenleistung ansteigt, desto abstrakter wird die Grafik werden. Und die Verschmelzung von fantastischer Abstraktion und Realität (->AR) wird ein ganz wundervollen Charme haben. Best of both worlds, sozusagen.

gravitationsfeld
2018-04-06, 18:40:55
Als die ersten Gerüchte bzgl. der PS5 DevKits rauskamen, wurde ja von "VR Goodies" gesprochen, welche direkt in Hardware gegossen sein.

Was kann man sich denn darunter vorstellen? Welche VR-Features könnte man durch Hardware extra beschleunigen?
Der ganze Artikel ist Bullshit.

spotz
2018-04-06, 19:57:35
ich habe keine insiderinfos über die genauen kosten, aber das liest man zumindest seit jahren ständig und die zahlen gehen auch in diese richtung.

hier ein paar einführungspreise diverser karten (nicht nur chips):
40nm:
(...)
580: ~6 mio.T/$
(...)

Der 1050 Ti hat grob genauso viele Transistoren (~3,3 Mrd) wie die 580. Wenn die Kosten pro Transistor gleich bleiben, frage ich mich wie eine 1050 Ti dann nur rund ein Drittel einer 580 kosten kann.

Tesseract
2018-04-06, 23:30:52
Alle drei, AMD, Intel und Nvidia, haben die Technologie, um eine APU zu bauen.
keine konkurrenzfähigen. intel's GPU ist erbärmlich was performance/watt und performance/fläche angeht und nvidia hatte damals und im prinzip auch heute noch keine wirklich konkurrenzfähige CPU. schon octa-jaguar ist ist ein kompromiss weil bulldozer so ein käse war. hätte AMD damals etwas wie zen oder zumindest etwas vergleichbares zu haswell gehabt hätten sie ohne mit der wimper zu zucken natürlich das genommen. was hätte nvidia bieten sollen? 16 ARM-kerne und viel spaß beim parallelisieren?

Immer wieder und wieder dieses Narrativ, dass Sony und Microsoft zu einem Chiphersteller gehen, als wäre es ein Baumarkt, und sich dann auf dilettantischste Art und Weise einen "Gewollt-aber-nicht-gekonnt"-PC zusammenstecken. Aber mal ein wenig geistige Flexibilität beweisen und auf die Idee zu kommen, dass Konsolenhersteller unter Umständen Entwicklungen anstoßen könnten, die prägen, welche Richtung PC Hardware einschlägt, das kommt dir nicht in den Sinn.

keine ahnung was du da schon wieder für verschwörungstheorien raus liest, aber die chips sind beide GCN+jaguar mit ein paar customizations und ja, das on-chip-scratchpad der xbone kann man durchaus als dilettantisch bezeichnen. sony hat imho nicht wirklich was falsch gemacht aber viel mehr als AMD's standard-IP ist es halt auch nicht.

Der 1050 Ti hat grob genauso viele Transistoren (~3,3 Mrd) wie die 580. Wenn die Kosten pro Transistor gleich bleiben, frage ich mich wie eine 1050 Ti dann nur rund ein Drittel einer 580 kosten kann.

das sind ganz andere kartenklassen. eine 1050Ti braucht einen bruchteil der spannungsversorgung, der kühlung, hat ein simpleres PCB, viel weniger speicherchips usw. ich habe bewusst die jeweiligen klassen-nachfolger aufgelistet.

reaperrr
2018-04-07, 00:44:30
Der 1050 Ti hat grob genauso viele Transistoren (~3,3 Mrd) wie die 580. Wenn die Kosten pro Transistor gleich bleiben, frage ich mich wie eine 1050 Ti dann nur rund ein Drittel einer 580 kosten kann.
Sehr grob, Polaris10 hat nämlich 5,7 Mrd...:freak: :wink:

spotz
2018-04-07, 03:34:17
reaperrr da liegt wohl ein kleines Missverständnis vor. Mit einer 580 in 40nm Fertigung war eine Geforce 580 des Jahres 2010 gemeint und keine aktuelle Radeon 580. ;)

das sind ganz andere kartenklassen. eine 1050Ti braucht einen bruchteil der spannungsversorgung, der kühlung, hat ein simpleres PCB, viel weniger speicherchips usw. ich habe bewusst die jeweiligen klassen-nachfolger aufgelistet.
Na gut, dann bleibe ich bei deinen Zahlen.
40nm:
580: ~6 mio.T/$

16nm:
1080: ~12 mio.T/$
*1080Ti ~17 mio.T/$
*) salvage chip; deaktivierte transistoren mitgezählt. der "tatsächliche" wert liegt darunter.

Demnach haben sich Nvidias Preise pro Transistor halbiert oder gar gedrittelt. Auch wenn die 1080Ti nur Salvage ist, wird sie wahrscheinlich wesentlich öfter verkauft als die Titan, bei der kalkulatorisch auch noch weitere Leistungen für professionelle Software Anwendungen enthalten sind.

Bei CPUs habe ich einen ähnlichen Eindruck. Ein i7-870 in 45nm mit 4 Kernen und ohne Grafik wurde von Intel zum gleichen Preis angeboten wie ein i7-8700 mit 6 Kernen und Grafik. Obwohl die Menge an Transistoren wohl deutlich (dreifach?) höher liegt.

Ich bin kein Experte, aber deine These der gleichbleibenden Kosten pro Transistor seit der 40nm Fertigung widerspricht meiner Wahrnehmung der Preisentwicklung bei CPUs, GPUs und auch bei Speicherchips.

Aus kaufmännischer Sicht kann ich mir vorstellen, dass die Kosten der ersten Serienproduktion in neuen Fabriken sehr hoch sind. Zuletzt las ich das neue Fabriken für 12 oder 16 Milliarden Dollar gebaut wurden. Das sind enorme Summen, die die Kosten pro Chip nach oben treiben - vor allem wenn die Stückzahlen zu Beginn noch gering sind (Ausbeute, Bestellungen). Aber wenn sich die anfänglichen Investitionskosten erstmal amortisiert haben, sollten die Produktionskosten pro Transistor deutlich niedriger sein. Sprich die Kosten pro Transistor sind eher variabel und nicht fix.
Wenn dem nicht so wäre, dann wäre es unwirtschaftlich in neue Fabriken zu investieren bzw für Chipdesigner es unsinnig Chips in neuen Fertigungsprozessen zu bestellen oder größere Chips zu designen. Wenn Nvidia für eine neue GPU mit 30 Milliarden Transistoren in 7nm das zehnfache bezahlen würde wie bei einem GTX 580 mit 3 Milliarden Transistoren in 40 nm, dann müssten Karten mit dem neuen, größeren Chip ja mehrere tausend Euro kosten. Das könnte sich kaum ein Käufer leisten und dann würde es auch niemals ein solch unverkäufliches Produkt geben und damit auch kaum Aufträge für Fabriken mit kleineren Fertigungsverfahren, die dann mangels Auslastung auch keiner bauen würde.

So verstehe ich auch bspw die 3DC Artikel zu Turing wenn dort Abwägungen/Überlegungen zum finanziellen Aspekt der Fertigungsverfahren angestellt werden. Sinngemäß wird da der 12nm Fertigung zu gute gehalten, dass sie jetzt günstig sei, aber in Zukunft kaum günstiger werde (weil Investitionskosten weitgehend amortisiert), während die 10nm Fertigung jetzt zwar teurer sei, aber im Laufe der Zeit noch wesentlich günstiger wird (weil Investitionskosten noch mitten im Prozess der Amortisierung sind).

RLZ
2018-04-07, 03:55:18
Ich bin kein Experte, aber deine These der gleichbleibenden Kosten pro Transistor seit der 40nm Fertigung widerspricht meiner Wahrnehmung der Preisentwicklung bei CPUs, GPUs und auch bei Speicherchips.
Da gehen die Aussagen von Analysten und Herstellern auseinander.
Intels Aussage letztes Jahr war klar...
http://www.kitguru.net/wp-content/uploads/2017/03/Screen-Shot-2017-03-31-at-17.36.06.png

Dann gibt es noch ein paar alte Slides von Nvidia, die eine Weltuntergangsstimmung gezeichnet haben, aber Nvidia Vorhersagen über längere Zeiträume sind notorisch schlecht. Macht dann aber nicht viel aus, da sie recht agil in der Entwicklung sind.

DinosaurusRex
2018-04-07, 08:22:34
Ja und berücksichtigt ihr den Dark Silicon-Effekt? Navi ist die erste GPU von AMD, die systematisch dagegen vorgeht.

Troyan
2018-04-07, 10:02:20
2012-2013 rum war das völlig unrealistisch. schon jaguar war als gedachter laptop-tablet-mischling grenzwertig langsam und die switch ist im prinzip ein handheld.

Ja, Ende 2013 als Release-Termin war genau an dem kritischen Punkt, wo man "nichts" hatte und gleichzeitig "kurz" vor etwas stand. Aber die Konsolenhersteller haben sich mit GCN1.1 ja auch selbst ein Ei ins Nest gelegt, an dem sie selbst heute noch drunter leiden.

Aber ab 2014 sieht man, dass dank ARM heute jeder einen "Konsolen-SoC" produzieren könnte. Selbst Tegra X1 mit 4 ARM15 Kernen ist in der Lage Spiele wie Wolfenstein 2 mit einem sehr ähnlichen Geometrie-Niveau darzustellen: https://www.youtube.com/watch?time_continue=95&v=s2O9j-B-TzE

Sony und Microsoft sollten sich wirklich fragen, ob man nicht wieder mehr in die Hardware investieren sollte.

AffenJack
2018-04-07, 10:10:28
Da gehen die Aussagen von Analysten und Herstellern auseinander.
Intels Aussage letztes Jahr war klar...
http://www.kitguru.net/wp-content/uploads/2017/03/Screen-Shot-2017-03-31-at-17.36.06.png

Dann gibt es noch ein paar alte Slides von Nvidia, die eine Weltuntergangsstimmung gezeichnet haben, aber Nvidia Vorhersagen über längere Zeiträume sind notorisch schlecht. Macht dann aber nicht viel aus, da sie recht agil in der Entwicklung sind.

Intels Entwicklung sieht nur so gut aus, weil sie die Entwicklungskosten der Nodes ausklammern, die auch immer teurer werden. Bei den Foundries müssen diese natürlich gezahlt werden. Ich würde mich eher daran halten.

http://i.imgur.com/eezbRGE.jpg

Sowie an GFs eigene Folien die sagen, dass 7nm Transistoren 30% weniger als 14nm kosten. Bei gleichbleibenden Kosten müssen also die Dies deutlich kleiner werden.

pixeljetstream
2018-04-07, 12:27:39
Als die ersten Gerüchte bzgl. der PS5 DevKits rauskamen, wurde ja von "VR Goodies" gesprochen, welche direkt in Hardware gegossen sein.

Was kann man sich denn darunter vorstellen? Welche VR-Features könnte man durch Hardware extra beschleunigen?

Unabhängig von Gerüchten:

Die Hardware kann sowas wie high priority Kontexte, das heißt der asynchrone time warp (wenn man unter die Ziel Hz fällt) kann anderes rendern unterbrechen so dass man garantiert bei Ziel Hz die Ausgabe einhalten kann und dann ein interpoliertes Bild berechnet und abschickt.

Nvidia's single pass stereo erlaubt z.b die Geometriedaten nur einmal in der Pipeline zu haben. Instancing oder andere Lösungen würden alle Vertex Outputs duplizieren, während hier nur ein float für die Stereo separation hinzukommt. Die on-chip Geometrybeschreibung fällt also kleiner aus. Je weniger Daten desto flotter.

Das andere sind Verfahren die versuchen die Pixellast in der Peripherie zu reduzieren. Es gibt da multi resolution oder Verzerrungen etc. Auch hier kann die Hardware direkter helfen.

Last but not least helfen generische Feature die die virtuelle Texturierung verbessern weil man so shading wiederverwenden könnte (das hilft aber dann grundsätzlich auch jenseits von VR).

All diese Optimierung sind praktisch für VR werden langfristig aber auch für Standard Rendering immer mehr Bedeutung bekommen weil durch die hohen Details und Pixellast es immer wichtiger wird sparsamer zu sein, da brute force eine Verschwendung ist.

megachip800
2018-04-08, 15:46:28
Es geht nicht um den Fertigungsprozess, sondern um das Chipdesign. Ein SoC mit 256 Bit SI und mehr als 4TFLOPS fällt nicht einfach vom Himmel und Samsung hat es sich mit Sicherheit nicht ausgedacht. Als ob die Konsolenhersteller immer das Erstbeste nehmen würden. Die werden sicher viele potentielle Kandidaten durchspielen, bis sie sich am Ende für einen entscheiden. Und das kostet sehr viel Geld. Du hast ja auch viele verschiedene Unternehmen, die du unter einen Hut bringen musst und einen brutalen Zeitplan. Und mit Sicherheit werden die auch mit Prototypen von Nvidia und Intel gearbeitet haben und die musst du auch bezahlen. Die PS4 hat dahingehend mehr als 1 Milliarde Dollar verschlungen, bevor sie überhaupt veröffentlicht wurde. Bei der X1 mit dem ESRAM waren es angeblich sogar 3 Milliarden.

Sorry aber eine Ps5 mit einem 256bit SI wäre für ende 2020/19 völlig veraltet speziell wenn es Uma-anbindung ist und man sich dann noch die Bandbreite mit der Cpu teilen muss. Eine Navi Gpu könnte ihr Potenzial unter solchen bedingungen nicht voll ausschöpfen von flüssigen VR ganz zu schweigen. Ich erwarte bei der Ps5 Zen , Navi , Hbm o. Gddr6 mit mind 512 bit. ,
16-32 Gbyte Ram , ein schnelles effizientes OS, Grafikeffekte jenseits von DiretX und OpenGL.

Was ist eigentlich mit den klassischen Konsolenfeatures wie Plug and Play und kurze Ladezeiten?? Da haben die Konsolenhersteller nichts anzubieten an neue Datenmedien....150 Gbyte Downloads ...das wäre nicht meins...sorry ich arbeite im Schichtdienst ..

PSXRacer
2018-04-08, 16:20:22
downloads laufen doch auch im standby das wird in Zukunft sicherlich nicht gestrichen das feature. Dann gibt es noch die Möglichkeit das Spiel schon zu spielen obwohl man noch nicht das gesamte Spiel runtergeladen hat und die internetleitungen werden sicherlich auch nicht langsamer.

gravitationsfeld
2018-04-09, 00:13:05
Ja und berücksichtigt ihr den Dark Silicon-Effekt? Navi ist die erste GPU von AMD, die systematisch dagegen vorgeht.
Gibt's da eine Quelle dazu? Ich bezweifle es nicht, wäre aber an Details interessiert.

RLZ
2018-04-09, 00:38:29
Intels Entwicklung sieht nur so gut aus, weil sie die Entwicklungskosten der Nodes ausklammern, die auch immer teurer werden.
Ist imo auch sinnvoll, die auszuklammern, da sich die Entwicklungskosten über die komplette Laufzeit verteilen und diese ja auch immer länger wird.

pixelguy
2018-04-10, 23:33:47
"PS5 Leak Looks Totally Fake, But You Be the Judge"
https://www.psu.com/news/ps5-leak-looks-totally-fake-but-you-be-the-judge/


100% backwards compatible with PS4 games
Fully compatible with PS VR and PlayStation Move offering a improved VR experience
CPU: AMD Zen 8 cores – single-chip custom processor
GPU: 14.20 TFLOPS, AMD Navi-based graphics engine
Memory: 32GB GDDR6 technology
Storage – 1TB SSD


naja.... :D

amdfanuwe
2018-04-11, 08:58:13
AMD sollte sich mit MS und Sony zusammensetzen und eine Open Gaming Platform entwickeln.
8 Zen Cores, gute VR Navi GPU, 16GB Ram, 256GB SSD, ein paar USB Ports.
Wenn ich wahlweise Playstation, XBox, Nintendo, SteamOs, Win10, Linux etc Booten kann, ist das Ding gekauft.

Neosix
2018-04-11, 11:07:01
Hahaha, was hast du geraucht? Das wird in 100 Jahren nicht passieren, weil genau keiner davon was hätte...

Fragman
2018-04-14, 09:35:17
vielleicht wurde das hier ja schon beantwortet, aber wieviel cpu kerne, echte kerne, koennten die spieleentwickler denn ausnutzen, wenn sie wollten?
wieviel prozent vom finalen spiel haengt dabei von der cpu leistung ab?

mir persoenlich kommt selbst ein ryzen 8core + smt etwas wenig vor fuer ende 2020.
ich denke mal man wird 4k durchweg haben wollen. dafuer reicht doch heute keine vega64 oder gtx ti aus, wenn man wieder besseren content dazurechnet. im besonderen natuerlich einzelne effekte ueber rt zu loesen, duerfte einiges mehr an leistung fuer 4k verlangen. und ich glaube, das kann man als gesetzt ansehen bei ms und direktx.

ohne in grabenkaempfe zu enden, aber amd hat doch aktuell nichts zu bieten. wir wissen ueber navi bisher nicht viel, aber was wir wissen laesst das ganze nicht positiver erscheinen. daher, wurde hier ja schon gesagt, vielleicht arbeitet amd aktuell an einem reinen konsolendesign fuer die naechste gen. aber da muesste es doch leaks geben, zumindest die richtung muesste man mittlerweile kennen.
ich hoffe zumindest nur, das nvidia nicht auch noch anfaengt die konsolen zu bedienen. aber von nv weiss man, das die leistung da waere, schon mit turing. ich erwaehne das nur aus dem grund, weil ich hier "navi" in den posts lese. ;)

N0Thing
2018-04-14, 09:58:17
Es gibt jetzt schon 4K auf den Konsolen. Natürlich mit den üblichen Abstrichen bei den Details und der Bildrate, aber das wäre auch bei einer Konsole mit Intel CPU und Nvidia GPU nicht anders, solange die Konsole keine 1000€ kosten soll.
DXR kommt für die nächste Konsolengeneration meiner Meinung nach zu spät, um Verwendung zu finden.

Botcruscher
2018-04-14, 09:59:56
8C16T ist mehr als genug im Vergleich zur aktuellen Gurke. Trotz neuer Fertigung limitiert da eh der Verbrauch. Wenn Navi das Polaris Gegenstück in aktueller Fertigung ist, kann auch da die Leistung schon abgeschätzt werden.

fondness
2018-04-14, 11:36:53
vielleicht wurde das hier ja schon beantwortet, aber wieviel cpu kerne, echte kerne, koennten die spieleentwickler denn ausnutzen, wenn sie wollten?
wieviel prozent vom finalen spiel haengt dabei von der cpu leistung ab?

mir persoenlich kommt selbst ein ryzen 8core + smt etwas wenig vor fuer ende 2020.
ich denke mal man wird 4k durchweg haben wollen. dafuer reicht doch heute keine vega64 oder gtx ti aus, wenn man wieder besseren content dazurechnet. im besonderen natuerlich einzelne effekte ueber rt zu loesen, duerfte einiges mehr an leistung fuer 4k verlangen. und ich glaube, das kann man als gesetzt ansehen bei ms und direktx.

ohne in grabenkaempfe zu enden, aber amd hat doch aktuell nichts zu bieten. wir wissen ueber navi bisher nicht viel, aber was wir wissen laesst das ganze nicht positiver erscheinen. daher, wurde hier ja schon gesagt, vielleicht arbeitet amd aktuell an einem reinen konsolendesign fuer die naechste gen. aber da muesste es doch leaks geben, zumindest die richtung muesste man mittlerweile kennen.
ich hoffe zumindest nur, das nvidia nicht auch noch anfaengt die konsolen zu bedienen. aber von nv weiss man, das die leistung da waere, schon mit turing. ich erwaehne das nur aus dem grund, weil ich hier "navi" in den posts lese. ;)

Ryzen 8C16T bei konservativen 3Ghz wäre Minimum eine 3-4x höhere CPU-Leistung. Einen solchen Sprung wird man bei der GPU-Leistung nicht mal erreichen im Vergleich zu PS4Pro/Xbox One X. Von daher ist das mehr als genug. Und Nvidia hat keine konkurrenzfähige CPU, von daher ist diese Diskussion völlig überflüssig.

Deinorius
2018-04-14, 17:10:00
Ach, so viele Träumer hier. :D

16 GB RAM halte ich für das Minimum. 24 GB sind vielleicht möglich, aber unwahrscheinlicher. 32 GB? Da müssen die Preise schon extrem sinken.

Bei der Anzahl der Cores frage ich mich viel mehr, ob diese nicht vielleicht sogar sinken könnte. 8C/16T mag in 7 nm zwar nicht so viel Platz brauchen, aber die bessere Frage ist doch, ob 12 Threads nicht genauso gut verwendet werden könnten. Der Preis muss stimmen und 6C/12T mit Zen sind immer noch ein Vielfaches von 8C mit Jaguar.

Ich hoffe, es entsteht nicht schon wieder eine "ARM vs. x86 in Konsolen" Diskussion.

Akkarin
2018-04-14, 18:29:52
Selbst 4C/8T@3GHz würde 1.4-2 fache multicore Leistung bei 2.5-3 facherer single core leistung bedeuten.

Ich denke was genau verbaut wird kommt auch stark drauf an was AMD liefern kann. Wenn Zen2 mit 2x6 Clustern kommt, wird Sony und MS wohl eher auf eine 6 core Lösung zurück greifen als 12 cores einzubauen oder einen custom 2x4-core Cluster bauen zu lassen.

Daredevil
2018-04-14, 18:33:57
Man kann heute doch mit einer WestmereEP CPU Kartoffel von 2010 alle Games problemlos zocken, solange genug Threads vorhanden sind und 60fps das Target ist.
Viel wichtiger ist doch, die 4k60fps zu halten, da sollte man lieber die GPU fokussieren.

drkohler
2018-04-15, 00:12:05
Bei der Anzahl der Cores frage ich mich viel mehr, ob diese nicht vielleicht sogar sinken könnte. 8C/16T mag in 7 nm zwar nicht so viel Platz brauchen, aber die bessere Frage ist doch, ob 12 Threads nicht genauso gut verwendet werden könnten. Der Preis muss stimmen und 6C/12T mit Zen sind immer noch ein Vielfaches von 8C mit Jaguar.
Ich sehe einen custom Ryzen 2600 (kein L3, weniger Takt, echter 6Kerner. nicht zwei Module mit dem nötigen Cacheverwaltungsgedröhns) als möglichen Nachfolger. Stromverbrauch und Preis müssen einfach passen, und da sind schon $50 für die cpu viel zu viel. Wer dann von $299 8c/16t Ryzens in Konsolen träumt, viel Glück.

Deinorius
2018-04-15, 01:07:28
In diese Richtung denke ich auch, gerade auch beim L3. Für Spiele definitiv hilfreich, macht die Konsole aber nur teurer. Sollen das die Entwickler umbiegen.
Irgendwas um/über 3 GHz sollte in 7 nm locker drin sein.

Die CCX Bauweise mit 6C könnte so kommen, falls AMD für Zen 2 wirklich einen 12C für Mainstream plant.

Es sollte doch auch möglich sein, dem OS zu sagen: Hey, nur jene Threads verwenden, die nicht logisch vorhanden sind. Die anderen sind für Spiele reserviert.

Nightspider
2018-04-15, 01:31:04
32 GB? Da müssen die Preise schon extrem sinken.

Die Preise werden extrem sinken. Gründe wurden hier schon oft genug genannt.

Deinorius
2018-04-15, 01:45:19
Sicher werden sie sinken und ich weiß auch warum. Aber wird es ausreichend sein?

Nightspider
2018-04-15, 01:52:57
Logisch. Eher würde man den Release verzögern als 16-24GB Grüppelspeicher zu verbauen.

Und der Release ist weit genug entfernt. Dazu bekommen Sony und MS Speicher günstiger als vom wir vom Händler.

gravitationsfeld
2018-04-15, 07:54:31
Alles unter 32GB waere einfach brutal lachhaft.

yamamoto_dc
2018-04-15, 09:26:03
Die Tugend von Konsolen war eigentlich immer mit wenig Speicher auszukommen, Speicher ist teuer. Wieso jetzt weniger als 32GB brutal lachhaft sein sollen kann ich nicht nachvollziehen. Ich gehe maximal von 16GB aus, vielleicht bleibt es sogar bei 8GB. Mehr Speicher macht die Konsole nicht schneller, solange der Speicher nicht limitiert.

basix
2018-04-15, 10:11:49
8GB Speicher limitiert ja jetzt schon ;) Siehe die zum Teil vermatschten Texturen auf Konsolen. 32 GB werden es meiner Meinung nach mindestens werden. Nur schon wenn man grössere und belebtere Welten will, braucht es mehr Speicher. Es stellt sich höchstens die Frage, ob alles HBM wird oder z.B. die Hälfte auch DDR4. Nicht alle Daten benötigen eine so grosse Bandbreite.

Was allerdings viel wichiger werden wird, da man endlich eine stärkere CPU hat: Streaming. So kann man gut Speicherbedarf reduzieren.

][immy
2018-04-15, 10:32:37
Die Tugend von Konsolen war eigentlich immer mit wenig Speicher auszukommen, Speicher ist teuer. Wieso jetzt weniger als 32GB brutal lachhaft sein sollen kann ich nicht nachvollziehen. Ich gehe maximal von 16GB aus, vielleicht bleibt es sogar bei 8GB. Mehr Speicher macht die Konsole nicht schneller, solange der Speicher nicht limitiert.

Sehe ich auch so. Mehr wirklich erheblich mehr speicher, wozu?

@basix
Und welche vermatschten texturen? Wenn was vermatscht ist hat das weniger mit dem speicher als viel mehr der bandbreite und filterung zu tun.
Und speicher ist nun mal teuer. Maximal sehe ich da eine verdopplung, aber mehr ist für eine konsole auch nicht nötig. Mehr ist zwar immer toll, aber letztlich gerechtfertigt das nicht die kosten.

Was hat die cpu großartig mit streaming zu tun. Da limitiert fast immer die platte wenn nicht noch was großartig dekomprimiert werden muss.

Karümel
2018-04-15, 11:46:52
Wie ist das eigentlich mit dem Speicher.
Wen Sony jetzt z.B. beschließt, die PS5 bekommt Menge X an Speicher.
Den müssen die ja irgendwo zukaufen, sprich Verträge müssen verhandelt werden.
Laufen solche Verträge eigentlich über einen längeren Zeitraum, oder werden die alle 6 Monate neu verhandelt?
Bei den zur Zeit hohen Speicherpreisen wäre viel RAM ja ein ordentlicher Preistreiber.

basix
2018-04-15, 14:07:24
[immy;11672485']Sehe ich auch so. Mehr wirklich erheblich mehr speicher, wozu?

@basix
Und welche vermatschten texturen? Wenn was vermatscht ist hat das weniger mit dem speicher als viel mehr der bandbreite und filterung zu tun.
Und speicher ist nun mal teuer. Maximal sehe ich da eine verdopplung, aber mehr ist für eine konsole auch nicht nötig. Mehr ist zwar immer toll, aber letztlich gerechtfertigt das nicht die kosten.

Was hat die cpu großartig mit streaming zu tun. Da limitiert fast immer die platte wenn nicht noch was großartig dekomprimiert werden muss.

Es gab mal eine Präsentation (glaube zu BF1), wo glaube ich gerade mal 3GB für "Grafik" zur Verfügung stand. Der Rest war Animationen, Sound und alles andere. Dass man hier nicht mit High-Res Texturen aufwarten kann ist wohl jedem klar. Und "nötig" ist mal gar nicht, eine Konsole ist immer noch ein Unterhaltungsmedium ;) Wenn man aber einen genug grossen Sprung zur Vorgängergeneration schaffen will, müssen auch entsprechend die Specs erhöht werden. Falls man natürlich einen entpsrechenden Sprung ohne mehr Speicher hinbekommt, dann sehr gerne. Mehr mit weniger leisten ist immer das Beste. Daran glaube ich aber nicht.

Zum Streaming: Da hast du einen guten Punkt angesprochen. Ein SSD Puffer wäre ebenfalls sehr hilfreich, um gewisse Sachen gecached vorhaltbar zu haben. Das wäre aber wieder ein anderer Punkt. So, Streaming belastet grundsätzlich die CPU. Sieh dir mal neuere Spiele an und wundere dich darüber, dass 4C CPUs nicht mehr mitkommen aufgrund immer wieder auftretenden rucklern usw. Sehr oft ist es das Streaming das hängt / die CPU überfordert. Und ausserdem ist es praktisch perfekt parallelisierbar zum restlichen Spielgeschehen. Und da du Kompression angesprochen hast sowie wenig Speicher: Geringe HDD Datenrate führt zu hoher Kompression (es muss eigentlich immer dekomprimiert werden) = Schnelle CPU von Vorteil; Geringe Speichermenge führt zu viel Streaming und Datenmanagement = Schnelle CPU von Vorteil. Das hängt am Schluss alles zusammen. Hat man viel vom einen, kann man an einem anderen Ort etwas sparen. Am Schluss entscheidet die Balance zwischen Kosten / Performance / Energieverbrauch / Entwicklungsfreundlichkeit.

drkohler
2018-04-15, 15:04:32
Wie ist das eigentlich mit dem Speicher.
Wen Sony jetzt z.B. beschließt, die PS5 bekommt Menge X an Speicher.
Den müssen die ja irgendwo zukaufen, sprich Verträge müssen verhandelt werden.
Laufen solche Verträge eigentlich über einen längeren Zeitraum, oder werden die alle 6 Monate neu verhandelt?
Bei den zur Zeit hohen Speicherpreisen wäre viel RAM ja ein ordentlicher Preistreiber.Bei Massenfertigung ist die Regel einfach: Je früher und mehr, desto billiger. Früher heisst hier Jahre, nicht Monate. Vor Jahren habe ich in einem Halbleiterforum mal gelesen, dass der Speicher für die X360 drei Jahre vor Produktionsbeginn bestellt wurde. War vielleicht ein besonders günstiger Zeitpunkt, aber der Zeitrahmen ist nicht ungewöhnlich wenn man früh weiss, was man will. (Technisch ist es so, dass es am Billigsten wird, wenn eine Halbleiterfabrik eine Produktionslinie voll auslasten kann über das ganze Jahr mit einem einzigen Produkt. Die Zahl bei Speicherchips weiss ich nicht mehr, irgendwas zwischen 30-50 mio chips?)

Was klar ist: Wenn die PS5/XBox2 noch 2019 erscheinen soll, dann sind jetzt alle Bestandteile bestellt und die Produktions-Orte/-Zeitpunkte/-Monatsmengen reserviert. Das ist auch der grosse Knackpunkt für Sony/MS: Es gelten die heutigen Preise und nicht die Billig(er)preise, die vielleicht in >2020 gültig sind. Die Kunst von Sony/MS wird es also sein, den Launch der neuen Konsolen solange wie nur möglich zu verzögern, ohne dass die Kunden zu meutern beginnen. Ausser man geht zum Verlustmodell zurück und subventioniert wieder heftig die Hardware (was ich nicht für wahrscheinlich halte).

Deinorius
2018-04-15, 15:36:11
Logisch. Eher würde man den Release verzögern als 16-24GB Grüppelspeicher zu verbauen.

Alles unter 32GB waere einfach brutal lachhaft.


Verschieben wäre zwar kein allzu großes Problem, da Microsoft auch nicht so schnell sind neue bringen würde, aber es kommt immer noch auf den Leute an. "In Kombination, was macht noch Sinn, oder ist schon unnötiger Overkill in Relation zum Preis!"
Betrachtet das aus Sicht des PCs. Wieviel haben wir derzeit maximal im üblichen Rahmen? 24-27 GB total [b]im High-End Bereich[/]! Und mehr Rohleistung, als es derzeit im High-End Bereich gibt, werden die kommenden Konsolen niemals haben. Natürlich könnte man dennoch mehr RAM geben, aber nur wenn wenn die Kosten eine zweitrangige Rolle spielen würden. Ein kleiner Scherz meinerseits.
Betrachtet das auch in einer anderen Relation. Spiele nutzen derzeit 5 GB, der Rest wird die das OS benötigt. Wenn wir davon ausgehen und hoffen, dass das in Zukunft gleich bleibt, steigt die RAM-Verfügbarkeit von 5 auf 13, sollten es 16 werden. Eine Steigerung von 260 %, immerhin.

Und der Release ist weit genug entfernt. Dazu bekommen Sony und MS Speicher günstiger als vom wir vom Händler.

Ja, und der Vergleich muss auch mit den ausgehandelten Preisen für die PS4/Pro gezogen werden.

Akkarin
2018-04-15, 15:43:52
Gefühlt behindern die 8 GB RAM die derzeitigen Konsolen auch deutlich weniger als die 512MB der PS360 gen.

IC3M@N FX
2018-04-15, 15:52:48
Gefühlt behindern die 8 GB RAM die derzeitigen Konsolen auch deutlich weniger als die 512MB der PS360 gen.

Ja und nein das Problem ist einfach das von den 8 GB nur noch 5-5,5 GB übrig bleiben, das Verhältnis stimmt einfach nicht.
3GB für das OS in einer Konsole ist einfach viel zuviel und das ist allein dieses Drecks Backround Aufnahme geschuldet!
Für Twitch/Youtube Honks PewDiePie/Ninja ich verstehe bis heute nicht wie man sich stundenlang diese Videos anschauen kann wo einer den ganzen tag labert und Fortnite spielt....

basix
2018-04-15, 16:26:56
Deswegen wären z.B. 24 + 8 oder 32 + 8 GB eine gute Idee. 4GB DDR4 für OS, 4GB DDR4 für Sound und anderes nicht Bandbreitenkritisches, 24-32GB für den Rest. Nimmt man 3-4GB als Basis, was heutige Spiele GDDR5 benötigen, wäre das 6-10x mehr Speicher für Spiele. Auf dem Papier ist es für die ganze Konsole nur 4-5x mehr.

gravitationsfeld
2018-04-15, 16:57:02
Ja, die komischen Video-Buffer in billigen Speicher und gut ist. Macht die PS4 Pro ja auch schon so.

Fuer heutige Render-Technik "reichen" die ~5GB so mit biegen und brechen. Es ist immer noch ein Kampf, glaubt mir.

Das Problem, das ich sehe mit weniger als 32GB ist, dass wenn man die Leistung von einer Next-Gen-GPU ausnutzen will, man eigentlich volumetrische Datenstrukturen benutzen will (Voxel Octrees, Raytracing-Beschleungigung etc.). Die sind leider sehr speicherhungrig.

Wenn die Konsolen nicht einen groesseren Sprung an RAM machen, dann haben wir halt fuer die naechsten 5 Jahre wieder PBR mit Screenspace-Reflektionen, SSAO und prebaked Lighting, aber halt in hoeherer Aufloesung. Bisschen bessere Texturen usw. Wenn man einen Unterschied sehen will, brauchen wir meiner Meinung nach andere Rendering-Verfahren.

basix
2018-04-15, 18:13:39
Wie sieht das eigentlich mit Voxel aus? Es gab da ja vor kurzem folgendes Video dazu. Da spricht man von einer drastischen Reduzierung der Datenmenge (O-Ton "MP3 von Voxel-Rendering")
http://www.pcgameshardware.de/Spiele-Thema-239104/Videos/Voxel-Engine-Atomontage-Video-zeigt-aktuelle-Techdemo-Szenen-1254232/

Und gleich noch eine technische Frage dazu: Bei Ray Tracing steigt der Aufwand ja nur logarithmisch mit der Anzahl Polygone. Ist das auf Voxel übertragbar oder spielen dann nur die Oberflächen-Voxels eine Rolle? Andererseits könnte mit Voxels ja so Sachen wie Subsurface Scattering wesentlich eleganter gelöst werden (dünne Voxelschicht als Haut, welch für Rays halbwegs durchlässig sind), oder irre ich mich da?

Edit:
Noch eine ander Idee. Fertig trainierte AI-Netzwerke sind extrem speicheroptimiert im Verhältnis zum Output. Könnte man damit nicht z.B. eben für Voxel oder was auch immer die Datenmenge redduzieren?

Demogod
2018-04-15, 19:07:11
Weil es ja hier verschiedene Theorien gibt: was sagt Ihr Dev Pros denn zu 2 Speicherpools.. wie wahrscheinlich ist das denn überhaupt? MS hat diese (2 Pools) mit der X ja abgesägt (eDram seit der 360) also wie wahrscheinlich ist es denn, dass es diese wieder geben wird (auch der Managementaufwand ist ja bestimmt nicht zu vernachlässigen.. obwohl mit dem HBCC.. kann der sowas evtl gut? Aber auch PCB Designkosten spielen ja in die Gesamtkalkulation mit hinein). Und wie aufwändig könnte sowas für AMD sein? HBM2 Preise droppen ja scheinbar allzu schlecht (auf das Pferd hat AMD ja afaik voll gesetzt), so dass jetzt wieder Überlegungen zu GDDR6 Midrange GPUs kommen.. Wie sieht es bei einer APU aus? No Prob dank HBCC?

basix
2018-04-15, 19:48:02
Ich bin keiner von den Pros, versuche es aber trotzdem: Von Pools gibt es verschiedenen Definitionen. Ein Pool ist beispielsweise ein Speicheradressraum. Da spielt es eigentlich keine Rolle, wie fraktioniert der Speicher physisch ist. Was aber wichtig ist, dass die Software mit unterschiedlichen Speichergeschwindigkeiten umzugehen weiss (nUMA). Das ist das, was du mit Managementaufwand beschreibst. Ein eDRAM halte ich nach dem "Fiasko" der Xbox One für sehr unwahrscheinlich. Wenn dann gibt es zwei verschieden schnelle RAM-Bereiche.

Bei der PS4 Pro gibt es ja schon einen lagsamen RAM mit 1GB für unkritische Sachen (https://www.polygon.com/2016/10/21/13358416/ps4-pro-extra-ram-memory). Diesen Gedanken weiterzuspinnen ist eigentlich logisch. Die Frage ist: OS exklusiv oder nicht? OS exklusiv wäre von der Integration her vermutlich relativ einfach. Mit HBCC hätte man eine schöne HW Lösung für sowas (soweit ich das beurteilen kann). Die Frage ist: Ist das nötig? Bei Konsolen haben die Entwickler den Speicher eh gut im Griff. Ich weiss nicht, ob HBCC so viel helfen würde. Bringt es aber massive Einsparungen beim Entwicklungsuafwand, wäre es ein anders Thema.

das_Apo
2018-04-15, 21:55:35
Digital Foundry hat ein Video dazu gemacht, was ihres Erachtens machbar ist für eine PS5:
https://www.youtube.com/watch?v=5ixSVQwLaZw


Ist die Vega-Architektur wirklich auf max. 64 CUs begrenzt?

Deinorius
2018-04-16, 00:45:17
Nicht begrenzt in dem Sinne, dass dort eine Blockade existiert, sondern, dass mehr CUs nicht ausreichend Leistung in Relation zum Mehraufwand an Silizium liefern können.
Und das ist auch nicht das größte Problem von Vera.

robbitop
2018-04-16, 07:55:04
Ich stimme DF zu. GDDR6 macht aus PL Sicht Sinn. Auch Zen mit 8C, auch Vega oder Navi mit ~64 CUs (brutto). Das passt für 7nm und für das Zeitfenster gut. Auch passt es zu den typischen 300-360sqmm. Speicherpreise müssten natürlich noch etwas runter.

IC3M@N FX
2018-04-16, 20:58:13
Ich stimme DF zu. GDDR6 macht aus PL Sicht Sinn. Auch Zen mit 8C, auch Vega oder Navi mit ~64 CUs (brutto). Das passt für 7nm und für das Zeitfenster gut. Auch passt es zu den typischen 300-360sqmm. Speicherpreise müssten natürlich noch etwas runter.

Die Aussagen sind in großen ganzen die selben was die Mehrheit auch schon hier im Thread diskutiert haben in den letzten 30-40 Seiten.

Zen 8C+SMT GDDR6 Speicher voraussichtlich leicht modifizierte Navi GPU mit 12-16 Teraflops.
Ich tippe aber auf 24GB GDDR6 + 4GB DDR4 RAM ähnlicher Aufbau wie bei der PS4 Pro wo 8GB GDDR5 + 1GB DDR3 Speicher verbaut wurden.
Ich würde sogar soweit gehen das die nur 2 TB als normale Festplatte verbauen mit integrierten 64GB Flash Speicher.

Wobei ich mir eine zusätzliche billige Quadcore ARM SoC (A53/A55) wünschen würde für alle Hintergrundaufgaben damit die Leistung nicht von der Haupt CPU abgezweigt wird.

][immy
2018-04-17, 08:26:41
Die Aussagen sind in großen ganzen die selben was die Mehrheit auch schon hier im Thread diskutiert haben in den letzten 30-40 Seiten.

Zen 8C+SMT GDDR6 Speicher voraussichtlich leicht modifizierte Navi GPU mit 12-16 Teraflops.
Ich tippe aber auf 24GB GDDR6 + 4GB DDR4 RAM ähnlicher Aufbau wie bei der PS4 Pro wo 8GB GDDR5 + 1GB DDR3 Speicher verbaut wurden.
Ich würde sogar soweit gehen das die nur 2 TB als normale Festplatte verbauen mit integrierten 64GB Flash Speicher.

Wobei ich mir eine zusätzliche billige Quadcore ARM SoC (A53/A55) wünschen würde für alle Hintergrundaufgaben damit die Leistung nicht von der Haupt CPU abgezweigt wird.
du weißt aber schon das die PS4 schon über 512 MB DDR3 (oder waren es 256 MB) Speicher verfügte. Dieser wurde eingesetzt um im Standby-modus ein wenig stromsparender zu operieren. In der PS4 Pro hat man diesen halt vergrößert und schiebt dort teile der APPs hin, damit man noch ein wenig "normalen" Hauptspeicher frei bekommt. Zwar ist das ein interessantes Konstrukt, ich kann mir aber kaum vorstellen, das dies wirklich günstig war, eher aus der Not geboren um zusammen mit dem ARM core den Verbrauch im Standby zu drücken. Mit GDDR6 dürfte der Stromverbrauch wohl noch ein wenig sinken, weshalb das dann nicht mehr notwendig sein dürfte. Spart dann auch einige Interfaces. Und wirklich was gebracht hat es nicht wirklich. Denn die aktuellen Konsolen sind im Online-Standby alles andere als Stromsparend, trotz all dem.

AffenJack
2018-04-17, 13:58:58
Wenn die Konsolen nicht einen groesseren Sprung an RAM machen, dann haben wir halt fuer die naechsten 5 Jahre wieder PBR mit Screenspace-Reflektionen, SSAO und prebaked Lighting, aber halt in hoeherer Aufloesung. Bisschen bessere Texturen usw. Wenn man einen Unterschied sehen will, brauchen wir meiner Meinung nach andere Rendering-Verfahren.

Wird das mit dem Unterschied nicht sowieso ein großes Problem werden bei der nächsten Gen? PS3 zu PS4 war 10x Gflops bei etwa 2x Auflösung. PS4 zu PS5 ist realistisch eher 6-7x Steigerung bei aber 4x Auflösung (Vorrausgesetzt Release 2019/2020 wie die Gerüchte gerade). Bzw von der PS4Pro grob 3x. Für nativ 4k bleibt da sowieso keine Power übrig, aber um für normalos wirkliche visuelle Unterschiede zu haben im Vergleich zu einer Pro wirds auch verdammt schwierig oder wird das mit neueren Methoden deutlich einfacher trotz einer begrenzten Steigerung der TFlops?
Da erwarte ich mir von der ~4 fach höheren CPU Power deutlich mehr Einfluss.

Korvaun
2018-04-17, 14:09:37
Ich erwarte nicht mehr als 16GB, aber auch nicht weniger da ja die XOneX aktuell schon 12 GB hat...

16GB GDDR6 bzw. HBM sind aktuell unbezahlbar für preiswerte Consumer-Anwendungen, bis 2020 sollte sich das ändern, aber auch nicht so dramatisch das gleich 24/32GB davon benutzt werden.

Korvaun
2018-04-17, 14:20:28
Wird das mit dem Unterschied nicht sowieso ein großes Problem werden bei der nächsten Gen? PS3 zu PS4 war 10x Gflops bei etwa 2x Auflösung. PS4 zu PS5 ist realistisch eher 6-7x Steigerung bei aber 4x Auflösung (Vorrausgesetzt Release 2019/2020 wie die Gerüchte gerade). Bzw von der PS4Pro grob 3x. Für nativ 4k bleibt da sowieso keine Power übrig, aber um für normalos wirkliche visuelle Unterschiede zu haben im Vergleich zu einer Pro wirds auch verdammt schwierig oder wird das mit neueren Methoden deutlich einfacher trotz einer begrenzten Steigerung der TFlops?
Da erwarte ich mir von der ~4 fach höheren CPU Power deutlich mehr Einfluss.

PS4Pro hat ja hardwaregestütztes Checkerboard-Rendering. Wenn das optimiert wird und gut implementiert wird von Engines dann sieht man da nicht wirklich einen Unterschied zu "nativ 4K" während des spielens. PS5 sollte dann noch genügend Power haben für bessere Grafik und nicht nur einfach mehr Auflösung...

AffenJack
2018-04-17, 15:44:17
PS4Pro hat ja hardwaregestütztes Checkerboard-Rendering. Wenn das optimiert wird und gut implementiert wird von Engines dann sieht man da nicht wirklich einen Unterschied zu "nativ 4K" während des spielens. PS5 sollte dann noch genügend Power haben für bessere Grafik und nicht nur einfach mehr Auflösung...

Da hat Gravitationsfeld schon einiges zu geposted und das klang alles andere als toll. Daher bin ich dabei eher skeptisch. Aber welches Verfahren auch immer, ich halte 4k nativ auch erstmal nicht für nötig. Trotzdem wird der Leistungsunterschied diese Gen eher gering werden, falls die neue Gen in 1, 2 Jahren kommen soll.

gravitationsfeld
2018-04-17, 17:30:53
PS4Pro hat ja hardwaregestütztes Checkerboard-Rendering. Wenn das optimiert wird und gut implementiert wird von Engines dann sieht man da nicht wirklich einen Unterschied zu "nativ 4K" während des spielens. PS5 sollte dann noch genügend Power haben für bessere Grafik und nicht nur einfach mehr Auflösung...
Checkerboard ist haesslich, hat Artefakte und ist intrusiv. Das war ein Marketing-Push von Sony, nicht mehr. Tot.

robbitop
2018-04-17, 17:51:07
@speichermenge
Not macht bekanntlich erfinderisch. Konsolen litten bis dato immer unter Speichermangel. Dafür dass die ps360 so wenig RAM hatten (und auch die ps2) haben die ne Menge rausgeholt. Oder auch was Spieleentwickler damals aus cga/ega rausgeholt haben (zB Loom). Das gleiche gilt auch für cpu und gpu Leistung. Wenn von allem genug da ist, wird weniger getrickst, mehr Abstraktionslayer genutzt (gibt sicher auch Ausnahmen) und das OS mit social media features und videostreaming vollgestopft...
Gerade bei der ps2 was da mit 32mb ram gemacht hat... Idr lagen PCs (ggü Konsolen) jahrzehnte lang (was die RAM Menge angeht) viel weiter vorn als heute.

Nur mal als Denkanschlag... :)

][immy
2018-04-17, 18:12:14
PS4Pro hat ja hardwaregestütztes Checkerboard-Rendering. Wenn das optimiert wird und gut implementiert wird von Engines dann sieht man da nicht wirklich einen Unterschied zu "nativ 4K" während des spielens. PS5 sollte dann noch genügend Power haben für bessere Grafik und nicht nur einfach mehr Auflösung...
Es hat schon seine Gründe warum manche entwickler darauf verzichten. Ist schließlich nach wie vor temporales AA mit all seinen vor und nachteilen. Sieht nur wirklich hübsch auf screenshots aus ohne das sich die Kamera bewegt. Je größer der Bildschirm desto eher fallen die nachteile ins auge.

gravitationsfeld
2018-04-17, 19:38:26
@speichermenge
Not macht bekanntlich erfinderisch. Konsolen litten bis dato immer unter Speichermangel. Dafür dass die ps360 so wenig RAM hatten (und auch die ps2) haben die ne Menge rausgeholt. Oder auch was Spieleentwickler damals aus cga/ega rausgeholt haben (zB Loom). Das gleiche gilt auch für cpu und gpu Leistung. Wenn von allem genug da ist, wird weniger getrickst, mehr Abstraktionslayer genutzt (gibt sicher auch Ausnahmen) und das OS mit social media features und videostreaming vollgestopft...
Gerade bei der ps2 was da mit 32mb ram gemacht hat... Idr lagen PCs (ggü Konsolen) jahrzehnte lang (was die RAM Menge angeht) viel weiter vorn als heute.

Nur mal als Denkanschlag... :)
Nur mal so als Denkanschlag: Bisher hat jede neue Konsolengeneration Faktor 8-16 mehr RAM gehabt.

Hübie
2018-04-17, 20:06:21
Denkanstoß meinst du. :D Es waren übrigens immer 8-64 mal soviel. Daher ist dein Argument aus der Perspektive valide. Nur stellt sich bei 32 GB (G)DDR6 oder meinetwegen auch GDDR5 die Frage nach der Wirtschaftlichkeit. Speicherpreise werden sich 2019 aller Voraussicht nach zwar entspannen, aber nicht so gravierend, das man für die gleiche Investition das doppelte erhält. Als DRAM so extrem billig war, haben die Hersteller keine Gewinne damit eingefahren.
Ich würde eher vermuten, dass man sich einiger Kniffe bedient (z.B. wie HBCC den VRAM und einen NVRAM nutzt) oder sich wieder der eDRAM-Lösung widmet. 16-24 GB GDDR6 RAM, 16 GB NVRAM/FlashMem und ein kleiner DDR5 (~1-2 GB) würde ich aktuell als realistischer einschätzen.
Ich erwarte dieses Mal aber keine HDDs mehr. Der Zug sollte doch endlich abgefahren sein.

Rente
2018-04-17, 20:16:08
SSDs in relevanten Größen (> 1TB) sind für Konsolen nach wie vor viel zu teuer, selbst wenn die Hersteller größere Rabatte bekommen würden. Als Cache denkbar, für mehr aber IMHO nicht.

Hübie
2018-04-17, 20:19:41
Also Faktor 7-8 wird das 2020 wohl noch sein, das stimmt, aber eine reine HDD Lösung würde ein extremes Nadelöhr bilden. Immerhin ginge da der gesamte I/O Kram drüber.

Crazy_Bon
2018-04-17, 20:19:51
Nur mal so als Denkanschlag: Bisher hat jede neue Konsolengeneration Faktor 8-16 mehr RAM gehabt.
Die großen Sprünge waren auch kein Hexenwerk, da die Konsolen in ihren Anfängen sehr spartanisch, verglichen mit PCs lächerlich wenig mit RAM ausgestattet waren.
PCs hatten in den 90er beim Arbeitsspeicher auch sehr große Sprünge, aber die sehr steile Kurve ist nun auch nicht mehr zu verzeichnen.

robbitop
2018-04-17, 20:21:25
Nur mal so als Denkanschlag: Bisher hat jede neue Konsolengeneration Faktor 8-16 mehr RAM gehabt.

Die Zeiten von Moores Law sind aber immer mehr und mehr vorbei. Shrinks dauern länger, werden aufwändiger und teurer. Größere Abschreibungen durch größere Investitionen. Das Gesetz des sinkenden Grenzertrags schlägt immer mehr zu. Alle 5 Jahre eine Größenordnung mehr Speicher und Leistung war in den 90ern und 2000ern noch normal. Heute nunmal ungleich teurer bzw zT nicht umsetzbar.

Blöd ist es dennoch :(

robbitop
2018-04-17, 20:27:14
Also Faktor 7-8 wird das 2020 wohl noch sein, das stimmt, aber eine reine HDD Lösung würde ein extremes Nadelöhr bilden. Immerhin ginge da der gesamte I/O Kram drüber.

Reine ssd wäre vermutlich zu teuer. Caching hingegen denkbar. Hilft ungemein (siehe intel srt), ist billiger und wird auch bereits auf der xbonex so umgesetzt.
Ob eine hdd in der Praxis wirklich ein Nadelör wird, ist die Frage. Bei gutem Streaming ist das selbst auf dem PC @4K und großem Openworld und riesigen Texturen und Meshes unproblematisch. Wenn ssds das Minimum wären, gilt für dann erscheinende Engines wahrscheinlich wieder das „Not macht erfinderisch“ bzw „keine Not macht nicht erfinderisch“ Argument. :)

basix
2018-04-17, 21:07:39
@ Speichermenge:
Erstens war der Sprung von PS3 auf PS4 sehr gross (64x) und zweitens ist seit ca. 2010 bei der Lithographie Moore's Law am Ende. 8x wäre deshalb sehr schön, ich erwarte eher was um 4x rum. Bei der PS3 hatten gegen Ende des Zyklus PCs 4-8GB im Vergleich zu 256MB, heute sind es 8GB zu 24GB (CPU + GPU). Ich wäre mit 32 GB zufrieden, aber ich bin ja kein Spieleentwickler.

gravitationsfeld
2018-04-17, 23:49:15
Die Zeiten von Moores Law sind aber immer mehr und mehr vorbei. Shrinks dauern länger, werden aufwändiger und teurer. Größere Abschreibungen durch größere Investitionen. Das Gesetz des sinkenden Grenzertrags schlägt immer mehr zu. Alle 5 Jahre eine Größenordnung mehr Speicher und Leistung war in den 90ern und 2000ern noch normal. Heute nunmal ungleich teurer bzw zT nicht umsetzbar.

Blöd ist es dennoch :(
Moore's Law mag langsamer werden, aber das Speicherpreise *steigen* hat nichts mit der Technologie zu tun. Das ist einfach nur Markt-Dynamik und ein Oligopol.

Wir haben eine absurde Preistreiberei im Moment, die wird auch wieder aufhoeren wenn durch die hohen Preise die Firmen grosse Fabriken bauen. Schweinezyklus.

Inzwischen ist es fast ein Faktor drei seit 2016, was hat das bitte mit Die-Shrinks, abnehmendem Grenzertrag und Moore's Law zu tun? Die Fertigungskosten fuer die gleiche Menge gehen nur nach unten, sonst wuerde man die Die-Shrinks einfach bleiben lassen. Das ist eine Blase und sie wird platzen.

Nightspider
2018-04-18, 00:32:18
Betrachtet das aus Sicht des PCs. Wieviel haben wir derzeit maximal im üblichen Rahmen? 24-27 GB total [b]im High-End Bereich[/]! Und mehr Rohleistung, als es derzeit im High-End Bereich gibt, werden die kommenden Konsolen niemals haben.

Wenn die PS5 rauskommt haben wir in HighEnd Gaming PCs 32-64GB RAM, dank viel geringerer Speicherpreise als es derzeit der Fall ist.

Wenn die Preise nicht gestiegen wären hätte ich jetzt schon lange 32GB drin.

IceKillFX57
2018-04-18, 01:26:58
Ah wer weiß, eventuell ist es auch besser so...ich habe einen i7-4790K mit 32GB DDR3....eine Menge Holz aber da die CPU veraltet ist und DDR3 im Grunde eingestellt da DDR4 da ist und irgendwann DDR5 kommt?.....

Ich hoffe das der 4790K noch ein paar Järchen 60FPS+ bereit stellen wird.
Assassin's Creed Origin lastet die CPU schon krass aus....Frage mich wie das die Konsolen gebacken bekommen.

Hübie
2018-04-18, 04:01:52
Moore's Law mag langsamer werden, aber das Speicherpreise *steigen* hat nichts mit der Technologie zu tun. Das ist einfach nur Markt-Dynamik und ein Oligopol.

Wir haben eine absurde Preistreiberei im Moment, die wird auch wieder aufhoeren wenn durch die hohen Preise die Firmen grosse Fabriken bauen. Schweinezyklus.

Inzwischen ist es fast ein Faktor drei seit 2016, was hat das bitte mit Die-Shrinks, abnehmendem Grenzertrag und Moore's Law zu tun? Die Fertigungskosten fuer die gleiche Menge gehen nur nach unten, sonst wuerde man die Die-Shrinks einfach bleiben lassen. Das ist eine Blase und sie wird platzen.

Die Hersteller propagieren schon seit langem, dass die Kosten pro Transistor steigen und eine Speicherzelle besteht nun mal aus diesen Dingern (plus Kondensatoren etc., aber das weißt du selber ;)). Es hat also sehr wohl etwas mit der verwendeten Technologie zu tun und wie robbitop schon richtig erwähnt hohe Abschreibungen durch hohe Investitionskosten. Die Kette ist lang. Angefangen bei Carl Zeiss Optics die mehr Geld für ihre Geräte verlangen, über ASML, bis hin zu Chroma und wer da noch so mit drin steckt. Gewissermaßen hast du Recht da es in einige Oligopole im Technologie-Sektor gibt, wenn man eben top notch, bleeding edge und das Neueste vom Neuen will. Aber auch die haben höhere Kosten durch aufwändigere Prozesstechniken.
Letztendlich sind Gründe / Ursachen für Preise auch wenig relevant, da dieser Faktor den größten Einfluss darauf haben wird, was wir in der Nextgen sehen werden. Von Material, Komponenten bis Vermarktung sind die Kosten das A und O.

Rampage 2
2018-04-18, 04:47:16
Wenn die PS5 rauskommt haben wir in HighEnd Gaming PCs 32-64GB RAM, dank viel geringerer Speicherpreise als es derzeit der Fall ist.

Wenn die Preise nicht gestiegen wären hätte ich jetzt schon lange 32GB drin.

Ich frage mich eher, ob es während der Lebenszeit einer PS5/Pro (2019/20 - 2026/27) überhaupt Spiele geben wird, die mehr als 32GB RAM brauchen oder nutzen werden...

Das Ganze hängt zu einem erheblichen Teil auch von PC-Spielen ab - selbst auf dem PC ist die Anzahl der Spiele, die mehr als 16GB RAM (nicht VRAM;)) brauchen, noch überschaubar. Für die nächsten 5-7 Jahre dürften 32GB System-RAM absolut ausreichend für 99% der PC-Spiele sein. Zusammen mit dem VRAM einer HighEnd-GPU (8-16GB) sind das immerhin satte 40-48GB Gesamt-RAM und das sollte schon eine ganze Weile ausreichen;D

Deswegen meine Prognose: 32GB DDR4-RAM + 8-16GB VRAM (GDDR6 oder HBM3) oder das exakte Gegenteil - also 32GB GDDR6/HBM3-RAM + 4-8GB DDR4-RAM. In beiden Varianten würde dann HBCC zum Einsatz kommen. Denkbar halte ich auch wieder eDRAM-Spielereien wie bei der PS2/XB360 zusätzlich zum Main-RAM:)

R2

gravitationsfeld
2018-04-18, 07:05:54
Die Hersteller propagieren schon seit langem, dass die Kosten pro Transistor steigen und eine Speicherzelle besteht nun mal aus diesen Dingern (plus Kondensatoren etc., aber das weißt du selber ;)).
Nein, DRAM besteht aus Kondensatoren. Ganz anderer Prozess. Und wie gesagt, wenn der alte Prozess billig waere, dann wuerde man dabei bleiben.

Die Kosten fuer die gleiche Menge steigen nicht wegen der Fertigung. Das ist absurd.

Ich frage mich eher, ob es während der Lebenszeit einer PS5/Pro (2019/20 - 2026/27) überhaupt Spiele geben wird, die mehr als 32GB RAM brauchen oder nutzen werden...
Willst du mich verarschen? Ich hab es noch nie gehoert, dass irgend ein Konsolen-Spiel mal nicht den RAM gefuellt haette. Und das gilt selbst fuer Launch-Titel. 32GB vollbekommen ist ein Kinderspiel.

Ihr denkt alle viel zu sehr im Jetzt. Wollt ihr einen Grafiksprung sehen ja, oder nein? Ja, das haengt nicht nur an den FLOPs sondern auch an der Speichermenge.

robbitop
2018-04-18, 07:14:27
Moore's Law mag langsamer werden, aber das Speicherpreise *steigen* hat nichts mit der Technologie zu tun. Das ist einfach nur Markt-Dynamik und ein Oligopol.

Wir haben eine absurde Preistreiberei im Moment, die wird auch wieder aufhoeren wenn durch die hohen Preise die Firmen grosse Fabriken bauen. Schweinezyklus.

Inzwischen ist es fast ein Faktor drei seit 2016, was hat das bitte mit Die-Shrinks, abnehmendem Grenzertrag und Moore's Law zu tun? Die Fertigungskosten fuer die gleiche Menge gehen nur nach unten, sonst wuerde man die Die-Shrinks einfach bleiben lassen. Das ist eine Blase und sie wird platzen.

Ja da hast du Recht. Die von dir beschriebene Blase überlagert sich aber dennoch mit dem von mir beschriebenen Sachverhalt.

robbitop
2018-04-18, 07:16:38
@ Speichermenge:
Erstens war der Sprung von PS3 auf PS4 sehr gross (64x) und zweitens ist seit ca. 2010 bei der Lithographie Moore's Law am Ende. 8x wäre deshalb sehr schön, ich erwarte eher was um 4x rum. Bei der PS3 hatten gegen Ende des Zyklus PCs 4-8GB im Vergleich zu 256MB, heute sind es 8GB zu 24GB (CPU + GPU). Ich wäre mit 32 GB zufrieden, aber ich bin ja kein Spieleentwickler.

PS3 hatte 2x 256mb (vram + ram) = 512 mib
PS4 hatte 8 gb

Ich zähle da nur Faktor 16

Hübie
2018-04-18, 07:17:26
Das stellt keiner in Frage. Von mir aus 1 TB RAM. Es muss jedoch die gewünschte Preis-Absatz-Funktion erfüllen bzw. für den Endkunden bezahlbar sein.
Und sorry wegen der Konfusion im Kopf habe ich an eine SRAM-Zelle gedacht. :rolleyes: DRAM hat natürlich mehr Kondensatoren. Counter und Arbiter haben Transistoren.

pixeljetstream
2018-04-18, 07:18:56
eDram ist imo doof, lieber mehr L2 etc.

GV100 hat 6 Mb L2, 84 x 128 Kb L1, 84 x 256 Kb Register... Also ca. 37 Mb on-chip...

VooDoo7mx
2018-04-18, 10:54:00
Also wenn ich hier einige Beiträge lese, leiden doch einige Leute unter kompletten Realitätsverlust.

Eine Spekulative PS5 die Ende 2019 für $400 auf den markt kommt, mit Abmessungen und Stromverbrauch wie die originale PS4 oder PS4 Pro wird weder zig GB an RAM, HBM, SSD oder ne 16 TFlop GPU haben.

Wenn man die aktuelle Entwicklung von Komponentenpreisen sich anschaut, sind die in letzter Zeit enorm angestiegen und werden auch in Zukunft nicht großartig günstiger werden.
Neue Halbleiter Fertigungstechnologien sorgen nicht mehr dafür, dass die Chip Preise sinken, sondern eher dass die Kosten exponentiell immer steigen. Die DRAM Preise steigen in letzer Zeit auch nur an und die Prognose für nächstes Jahr sieht auch nicht besser aus. Neue Speichertechnologien sind auch erst einmal enorm teuer. GDDR6 wird auch erst mal richtig teuer sein. Auch die Preise für Flash Speicher stagnieren in letzter Zeit und so lange eine 128GB SSD so viel kostet wie eine 1TB HDD werden wir auch keine SSDs in der nächsten Konsole sehen. Wie kann man eigentlich nur auf so einen Schwachsinn kommen?

Deswegen meine Einschätzung:

AMD custom APU 8x Zen2 ~3GHz 7nm 300-350mm²
AMD GCN Gen 5 oder Gen 6 GPU ~ 10 TFlop
12-16GB GDDR5 oder GDDR6 256-384Bit SI
1-2GB DDR3 oder DDR4 langsamer Buffer Speicher
1-2TB 2,5" HDD

Und selbst mit diesen relativ konservativ geschätzten Daten wird es eigentlich fast unmöglich $400 Preis zu halten, selbst $500 sind da schon knapp.
Die XBox One X hat deutlich weniger Leistung und da zahlt Microsoft $500 noch drauf.

Fragman
2018-04-18, 11:18:55
ich glaub bevor man sowas mit nur 10 tflop released, wartet man einfach noch 2 jahre laenger bis sich die komponentenpreise entspannt haben. das waere ja nichtmal eine verdoppelung der grafikleistung. :confused:

Daredevil
2018-04-18, 11:31:10
Nicht, dass du unrecht hast, aber was erwartet uns denn in nächster Zeit?
4k 60fps bekommt eine OneX schon heute oft ( nicht immer! ) hin, mehr große Hürden, die eine neue GPU Generation aktuell nehmen muss, gibt es ja nicht. Freesync und HDR wäre noch nett und für VR mangelt es eher gerade an CPU Power in einer Konsole. ( Wenn man hohe FPS raushauen möchte ).
Oder was gibt es für Hürden in nächster Zeit?

robbitop
2018-04-18, 11:55:11
Ich tippe auf 24-32 gb. 64 CUs und 1200-1500 MHz. Also ~10-12 tflops.
Die mArch wird sicherlich mit Navi (sofern man diese einsetzt) etwas mehr rohleistungsnormierte Leistung haben. Die Zen Kerne in Verbindung mit dem größeren Ram werden sicherlich einen nicht unwesentlichen Vorteil bieten.
Ggf bleibt man bei hochskaliertem (also nicht nativem) 4K. Dann hätte man als Baseline immerhin Faktor ~10 Grafikleistung, ~ 4 CPU Leistung und Ram. Viel mehr sehe ich für ~400€ in 2020 nicht.

@Konsole sollte man damit dank hw näherer Optimierung und besseren Compilern damit auf gp102/gt104 Level sein. Das ist schon ziemlich gut für den Systempreis.

Ggf kommt ein paar Jahre später dann wieder ein Pro/X Modell.

Bei MS erweckt es im Moment ja den Eindruck dass man gar keine harten Generationssprünge mehr haben will...

VooDoo7mx
2018-04-18, 11:57:45
ich glaub bevor man sowas mit nur 10 tflop released, wartet man einfach noch 2 jahre laenger bis sich die komponentenpreise entspannt haben. das waere ja nichtmal eine verdoppelung der grafikleistung. :confused:

Ich weiß jetzt nicht was für eine Schule du besucht hast, aber wenn eine PS4 hat eine Rechenleistung von 1,8TFlop da hat eine spekulierte PS5 mit spekulierten 10 Tflops die 5,5fache Rechenleistung.

Nicht, dass du unrecht hast, aber was erwartet uns denn in nächster Zeit?
4k 60fps bekommt eine OneX schon heute oft ( nicht immer! ) hin, mehr große Hürden, die eine neue GPU Generation aktuell nehmen muss, gibt es ja nicht. Freesync und HDR wäre noch nett und für VR mangelt es eher gerade an CPU Power in einer Konsole. ( Wenn man hohe FPS raushauen möchte ).
Oder was gibt es für Hürden in nächster Zeit?

Also die X-Box One hat in den seltensten Fällen 60fps auch die volle UHD Auflösung wird nur selten erreicht. Die meisten Spiele laufen in sub UHD mit dynamischer Auflösung, mit (im Vergleich zum PC) reduzierten Details und 30 fps.
Die nächste Konsolengeneration wird jetzt optisch keinen riesigen Sprung machen. AAA Produktionen sind jetzt schon enorm teuer und der Markt stagniert bzw wächst nur sehr langsam.
Die zusätzliche Rechenleistungen wird eher in höhere Auflösungen, bessere Details und 60fps investiert. Auch könnte ich mir bei Sony vorstellen, dass sie ein Next gen PSVR mit einer höheren Auflösung launchen.

Fragman
2018-04-18, 12:00:23
Ich weiß jetzt nicht was für eine Schule du besucht hast, aber wenn eine PS4 hat eine Rechenleistung von 1,8TFlop da hat eine spekulierte PS5 mit spekulierten 10 Tflops die 5,5fache Rechenleistung.


aehm....
http://www.pcgameshardware.de/Xbox-One-X-Konsolen-264559/Specials/Scorpio-gegen-PS4-Pro-Spezifikationen-Vergleich-1225157/

basix
2018-04-18, 12:30:02
Man sollte schon fairerweise die Ur-PS4 und XBox One als Hauptvergleich heranziehen. Die PS4 Pro und XBox One X dient nur als Referenz wie weit man von 4k oder 4k/60 weg ist.

Aber mit den letztgenannten hat sich Sony und MS das Problem geschaffen, dass es eben nochmals deutlich mehr als die Pro Versionen werden sollte, um eine sichtbare Differenz auszumachen. 15-20 TFLOPs sollten es schon sein, das wäre 3-4x mehr. Mit 7nm EUV sollte das schon drin liegen (somit gegen Ende 2020 Release, vorher sicher nicht). 7nm zu 7nm EUV sind nochmals +30% Flächenscaling und die wird man mitnehmen wollen. Ausserdem wird dann Navi schon sehr reif sein oder gar die Next-Gen GPU-Architektur von AMD, welche vermutlich Anfang 2020 aufschlagen sollte.

Edit: Mal ein paar Überlegungen dazu

7nm EUV zu 16nm TSMC: ca. 3-4x höhere Energieeffizienz, ca. 3x höhere Packdichte.
16nm TSMC = ca. 14nm GloFo
8C Zen (2x CCX) = 88mm2 @ 14nm --> 25-30mm2 @ 7nm ("Zen Lite")
Vega 11 / 704 SP (Raven Ridge) = ca. 60mm2 @ 14nm --> ca. 175mm2 @ 7nm @ 6144 SP
PS4 Pro: Ca. 75-80% Flächenanteil sind CPU + GPU
PS5 mit selbem Anteil CPU + GPU wie PS4 Pro: 200mm2 * 1.33 = 270mm2
Somit wäre sogar noch was Platz frei für einen AI-Coprocessor, 12C anstatt 8C oder what ever (PS4 Pro = 325mm2)
Vega 64 = 200W ASIC Power --> 4x bessere Energieffizienz durch Prozess sowie effizienteren Betriebspunkt / niedrigeren Takt --> 100W für 2x Rohleistung = 20TFLOPs @ 100W


Für mich sieht das ziemlich realistisch und machbar aus.

tobor
2018-04-18, 13:00:47
Gerade wegen der immer geringeren Sprünge aufgrund von Shrinks wäre "Special Sauce",die Gpu und Cpu entlastet ja recht wahrscheinlich. Aichips wie
in Smartphones wären da ja durchaus naheliegend.

pixelguy
2018-04-18, 13:10:28
Was soll denn eigentlich immer dieses 60fps/4k Gerede?

Das ist doch eine reine Design-Entscheidung der Entwickler und auf der Pro/X auch nur so verbreitet weil man mit denen halt nix anderes machen kann.

Wenn ein Entwickler ein 4k/60fps Game bauen will, kann er es tun. Ansonsten werden es eben wieder 1080p/30fps weils besser aussieht.

Solange da Sony/MS keine Pflicht draus machen, verstehe ich diese Forderung nicht. Die Devs können mit der Power doch machen was sie wollen.

Daredevil
2018-04-18, 13:17:17
Das ist aber nun einmal die Entwicklung.
Gaming Monitore haben 144/240hz, Smartphones haben 120hz, Fernseher haben 100hz, Smartphones nehmen 4k mit 60fps auf Kinofilme laufen mit 48fps, Freesync/Gsync macht kleine FPS erträglicher... ein geringerer Input Lag ( Je höher die FPS, desto kleiner der Input Lag ) ist für manche Gamer ( Zielgruppe Konsole ) eben auch wichtig, wie für manche 4k.
Das beste ist also beides. :D ( Oder die Optionen in Games, die man ja jetzt schon hat. )

Aber 4k60fps ist nun einmal momentan bei Konsolen der Goldstandard.
Eine Nextgen kann sich nicht mit 4k30fps brüsten.... 30fps kannste Zelda auf der Switch geben, aber der Next Gen? Ich weiß ja nicht so recht.

VooDoo7mx
2018-04-18, 13:54:34
aehm....
http://www.pcgameshardware.de/Xbox-One-X-Konsolen-264559/Specials/Scorpio-gegen-PS4-Pro-Spezifikationen-Vergleich-1225157/

Ich schreibe von PS4 auf PS5 und du kommst mit XBox One X.
Finde den Fehler.

Man sollte schon fairerweise die Ur-PS4 und XBox One als Hauptvergleich heranziehen. Die PS4 Pro und XBox One X dient nur als Referenz wie weit man von 4k oder 4k/60 weg ist.

Aber mit den letztgenannten hat sich Sony und MS das Problem geschaffen, dass es eben nochmals deutlich mehr als die Pro Versionen werden sollte, um eine sichtbare Differenz auszumachen. 15-20 TFLOPs sollten es schon sein, das wäre 3-4x mehr. Mit 7nm EUV sollte das schon drin liegen (somit gegen Ende 2020 Release, vorher sicher nicht). 7nm zu 7nm EUV sind nochmals +30% Flächenscaling und die wird man mitnehmen wollen. Ausserdem wird dann Navi schon sehr reif sein oder gar die Next-Gen GPU-Architektur von AMD, welche vermutlich Anfang 2020 aufschlagen sollte.

Edit: Mal ein paar Überlegungen dazu

7nm EUV zu 16nm TSMC: ca. 3-4x höhere Energieeffizienz, ca. 3x höhere Packdichte.
16nm TSMC = ca. 14nm GloFo
8C Zen (2x CCX) = 88mm2 @ 14nm --> 25-30mm2 @ 7nm ("Zen Lite")
Vega 11 / 704 SP (Raven Ridge) = ca. 60mm2 @ 14nm --> ca. 175mm2 @ 7nm @ 6144 SP
PS4 Pro: Ca. 75-80% Flächenanteil sind CPU + GPU
PS5 mit selbem Anteil CPU + GPU wie PS4 Pro: 200mm2 * 1.33 = 270mm2
Somit wäre sogar noch was Platz frei für einen AI-Coprocessor, 12C anstatt 8C oder what ever (PS4 Pro = 325mm2)
Vega 64 = 200W ASIC Power --> 4x bessere Energieffizienz durch Prozess sowie effizienteren Betriebspunkt / niedrigeren Takt --> 100W für 2x Rohleistung = 20TFLOPs @ 100W


Für mich sieht das ziemlich realistisch und machbar aus.

Wow da ist so viel allein schon faktisch falsch + Bullshit³ Prognosen, ich hab jetzt echt keinen Bock das alles zu korrigieren. :usad:

Nur eine Sache: Vega 10 basiert auf der aktuellen AMD µArch hat 64CU /4096 Shader und ist fast 500mm² und spart durch den HBM Speicher sogar Chipfläche für das Speicherinterface. Wie soll jetzt ein Chip der nochmal 50% mehr Recheneinheiten hat von 500mm² auf 175mm² zu schrumpfen. Wie vernebelt muss eigentlich der eigene geist sein, um so einen Bullshit zusammen zu rechnen?

xyleph
2018-04-18, 15:18:52
Hmm, naja, Radeon Äquivalent der PS4 GPU war 212mm^2. Auf der PS4 APU-DIE dann 88mm^2

Fragman
2018-04-18, 15:46:13
Ich schreibe von PS4 auf PS5 und du kommst mit XBox One X.
Finde den Fehler.


ich weiss nicht was du hier mit der ps4 willst da die pro die aktuelle konsole ist.
glaubst du wirklich, das sony ein konsole launchen wird, anfang 2020, die gerade mal 60 prozent schneller ist als die pro?
also wo laege der sinn eines solchen releases?

mr coffee
2018-04-18, 15:59:08
ich weiss nicht was du hier mit der ps4 willst da die pro die aktuelle konsole ist.
glaubst du wirklich, das sony ein konsole launchen wird, anfang 2020, die gerade mal 60 prozent schneller ist als die pro?
also wo laege der sinn eines solchen releases?

Aber für die normale PS4 wird entwickelt, das macht einen Unterschied.
Die PS4Pro kannst du dann mit der PS5Pro vergleichen, welche meiner Meinung nach dann die Leistung haben wird um den gemachten Grafiksprung eben konsistenter und durchgängiger/höher zu liefern (bzgl. FPS und Auflösung).

basix
2018-04-18, 16:10:30
Wow da ist so viel allein schon faktisch falsch + Bullshit³ Prognosen, ich hab jetzt echt keinen Bock das alles zu korrigieren. :usad:

Danke für die qualifizierte Antwort und Aufklärung über meine Unwissenheit :D

Schaue dir die GPUs und Die Shots von PS4, PS4 Pro, Vega 10 und Raven Ridge an. Und dann fang mal selbst an zu rechnen. Alle meine Referenzwerte kannst du nachmessen oder aus Präsentationen von AMD klauben. Und die 704 Shader + ein wenig Beigemüse sind Vega und sind 60mm2 auf RR. Aber nur bitte sagen "Nein, nein, nein, das kann nicht sein!" ;)

Ausserdem: Die Skalierungsfaktoren sind offizielle Infos von GloFo und TSMC. Was besseres haben wir nicht. Ist es 2.5x anstatt 3x sind es halt 20% Fehler, so what...330mm2 sind immer noch machbar. Es geht nur um die generelle Stossrichtung und das 20 TFLOPs und somit für die Differenzierung von der PS4 Pro eine genug grosse Lücke im Bereich des Möglichen liegt, nicht mehr, nicht weniger.

Fragman
2018-04-18, 16:21:49
Aber für die normale PS4 wird entwickelt, das macht einen Unterschied.


bei 4k und selektivem raytracingansatz muessen wir von der pro ausgehen, denn die ist fuer beides ja schon zu schwach. und auch 10tflop wuerde daran nicht so viel aendern.

robbitop
2018-04-18, 16:45:50
Wenn überhaupt schon viel RT bei den nextgen Konsolen zum Einsatz kommt. Ich zweifle da noch...

Fragman
2018-04-18, 17:13:34
Wenn überhaupt schon viel RT bei den nextgen Konsolen zum Einsatz kommt. Ich zweifle da noch...

wenn nicht, ist die tech tot fuer die naechsten 7 jahre und ausser spielerei bleibt nichts davon uebrig. die implementierung wuerde sich ja kein dev antun. wiederspraeche auch dem, was nv bisher gezeigt hat, im besonderen in deren video der selektiven effekte. die leistung dafuer waere ja da. mal von dx abgesehen, ms macht doch sowas nicht, wenn die naechsten konsolen das nicht auch liefern koennten. sag ich jetzt mal. :D

Botcruscher
2018-04-18, 17:21:34
Ich würde RT im Moment eher als Baustelle sehen wo NV/AMD nutzlos überschüssige Leistung rein kippen können. Seht her, die neu Gen ist 5X schneller und erreicht 20fps...

drkohler
2018-04-18, 18:30:25
Danke für die qualifizierte Antwort und Aufklärung über meine Unwissenheit :D
Naja, war ein bisschen brutal angesagt, aber deine Zahlen sind tatsächlich extrem überoptimistisch. Gerade das Shrinken von gddr interfaces dürfte ganz erheblich weniger einbringen als das "naive" runterrechnen mit nm.

Dazu kommt, das AMD ganz extrem leiden wird mit Leckströmen. AMDs Designphilosophie ist seit Langem "Möglichst viele Transistoren auf möglichst kleinen Raum reinpacken", und da werden sie mit immer kleineren Strukturgrössen immer heftiger an die Wand fahren punkto Leckströmen. (Das ist meine "naive Vorhersage", aber ich kann mich noch schwach an die QM-Lektionen "Schrödingergleichung: Elektronen in einem Potentialwall/an einem Potentialsprung" erinnern, und wie die Wellenfunktion aussieht, und was daraus wird wenn der Wall/Sprung immer dünner und kleiner wird).

gravitationsfeld
2018-04-18, 18:48:37
Diese Effekte sind AMD-Ingenieuren natuerlich komplett unbekannt :rolleyes:

Nightspider
2018-04-18, 19:08:33
Ich frage mich eher, ob es während der Lebenszeit einer PS5/Pro (2019/20 - 2026/27) überhaupt Spiele geben wird, die mehr als 32GB RAM brauchen oder nutzen werden...

Das Ganze hängt zu einem erheblichen Teil auch von PC-Spielen ab - selbst auf dem PC ist die Anzahl der Spiele, die mehr als 16GB RAM (nicht VRAM;)) brauchen, noch überschaubar. Für die nächsten 5-7 Jahre dürften 32GB System-RAM absolut ausreichend für 99% der PC-Spiele sein. Zusammen mit dem VRAM einer HighEnd-GPU (8-16GB) sind das immerhin satte 40-48GB Gesamt-RAM und das sollte schon eine ganze Weile ausreichen;D

Quatsch, es ist genau andersherum. Die Vorraussetzungen der PC-Spiele hängen stark von der Konsolenhardware ab.

Hättest du 2011/2012 gedacht das die 8GB der PS4 so schnell voll sein würden? Offenbar nicht. Es ist aber so und für eine Evolution bei den Games wird auch deutlich mehr Speicher benötigt.

GTA5 lief mit Müllgrafik auch auf 512GB RAM der Xbox360 aber auf der PS4 werden auch die 8GB voll ausgereizt und dafür benötigt man nicht mal wirklich neue Games, das schaffte sogar die optimierte Portierung die PS4 Hardware auszulasten.

PS5 würde 32GB RAM locker ausreizen, zumal davon eh knapp ein Drittel für die GPU drauf geht.

Locuza
2018-04-18, 19:30:18
[...]
Dazu kommt, das AMD ganz extrem leiden wird mit Leckströmen. AMDs Designphilosophie ist seit Langem "Möglichst viele Transistoren auf möglichst kleinen Raum reinpacken", und da werden sie mit immer kleineren Strukturgrössen immer heftiger an die Wand fahren punkto Leckströmen.[...]
Es ist aber wohl eine Weile her, dass du bei AMD und Nvidia trans/mm² verglichen hast oder? ;)
Bei Polaris/Vega vs. Pascal gibt es aktuell kaum einen Unterschied bei der Dichte.
P10 hat ~10% mehr Transistoren pro mm², beim GP102 vs. Vega10 ist es schon ausgeglichen und beim GP107 hat Nvidia mehr Transistoren pro mm², als ein P11.

basix
2018-04-18, 20:29:12
Naja, war ein bisschen brutal angesagt, aber deine Zahlen sind tatsächlich extrem überoptimistisch. Gerade das Shrinken von gddr interfaces dürfte ganz erheblich weniger einbringen als das "naive" runterrechnen mit nm.

Dazu kommt, das AMD ganz extrem leiden wird mit Leckströmen. AMDs Designphilosophie ist seit Langem "Möglichst viele Transistoren auf möglichst kleinen Raum reinpacken", und da werden sie mit immer kleineren Strukturgrössen immer heftiger an die Wand fahren punkto Leckströmen. (Das ist meine "naive Vorhersage", aber ich kann mich noch schwach an die QM-Lektionen "Schrödingergleichung: Elektronen in einem Potentialwall/an einem Potentialsprung" erinnern, und wie die Wellenfunktion aussieht, und was daraus wird wenn der Wall/Sprung immer dünner und kleiner wird).

Ja, ich bin optimistisch. Ist doch nichts falsches daran ;) Ich sage nicht, dass es so kommen wird, aber meiner Meinung nach liegt es im Bereich des Möglichen anhand der Daten die verfügbar sind. Was ist so schwer daran zu begreifen? Wenn das in Augen anderer Luftschlösser sind, dann soll es so sein. Doch dann sollte man wenigstens mit eingermassen plausiblen Gegenargumenten aufwarten (das bezieht sich nicht auf dich). Ansonsten kann man mich nicht überzeugen. Und Schrödinger, Tunneleffekte, Maxwellgleichungen und Elektromigration usw. sagen mir auch was (bin E-Ing von Beruf und interessiere mich schon seit Jahren hobbymässig für Mikrochips und allgemein für Physik). Ich habe sogar irgendwo ein animiertes Python-Skript mit der Visualisierung des Tunneleffektes irgendwo rumfliegen :) Und wie gravitationsfeld sagte, AMD hat garantiert sehr fähige Ingenieure, die sicher besser als wir hier Bescheid wissen. Selbiges gilt für die Foundries, von welchen einige der relevanten Zahlen kommen.

Ich kann auch eine Gegenfrage stellen: Packt AMD mit 7nm dichter als bei 16nm in Relation zum Shrink (wenn sie ja heute schon dicht packen sollten)? Weil wenn nicht, sollte die Energieeffizienz im eben offiziell verlautbarten Masse steigen (ja, Pressemitteilungen sind immer ein wenig geschönt). Sonst wäre die ganze Angabe von wegen 7nm ist energiesparender völlig ad absurdum geführt.
Und zum Shrinken von GDDR-Interfaces: Dazu habe ich nichts gesagt, ich gehe ja vom selben Anteil an der Chipfläche für den Rest ausserhalb von CPU + GPU aus. Da die Chipfläche nur unwesentlich sinkt, shrinkt sich das SI-Interface eben nicht zwingend oder nur in geringem Masse. Wenn man HBM verwenden würde shrinkt es dann aber doch, aber nicht aufgrund der Lithographie, sondern aufgrund der Technologie.

Hübie
2018-04-18, 21:30:29
Also wenn ich hier einige Beiträge lese, leiden doch einige Leute unter kompletten Realitätsverlust.

Eine Spekulative PS5 die Ende 2019 für $400 auf den markt kommt, mit Abmessungen und Stromverbrauch wie die originale PS4 oder PS4 Pro wird weder zig GB an RAM, HBM, SSD oder ne 16 TFlop GPU haben.

Wenn man die aktuelle Entwicklung von Komponentenpreisen sich anschaut, sind die in letzter Zeit enorm angestiegen und werden auch in Zukunft nicht großartig günstiger werden.
Neue Halbleiter Fertigungstechnologien sorgen nicht mehr dafür, dass die Chip Preise sinken, sondern eher dass die Kosten exponentiell immer steigen. Die DRAM Preise steigen in letzer Zeit auch nur an und die Prognose für nächstes Jahr sieht auch nicht besser aus. Neue Speichertechnologien sind auch erst einmal enorm teuer. GDDR6 wird auch erst mal richtig teuer sein. Auch die Preise für Flash Speicher stagnieren in letzter Zeit und so lange eine 128GB SSD so viel kostet wie eine 1TB HDD werden wir auch keine SSDs in der nächsten Konsole sehen. Wie kann man eigentlich nur auf so einen Schwachsinn kommen?

Deswegen meine Einschätzung:

AMD custom APU 8x Zen2 ~3GHz 7nm 300-350mm²
AMD GCN Gen 5 oder Gen 6 GPU ~ 10 TFlop
12-16GB GDDR5 oder GDDR6 256-384Bit SI
1-2GB DDR3 oder DDR4 langsamer Buffer Speicher
1-2TB 2,5" HDD

Und selbst mit diesen relativ konservativ geschätzten Daten wird es eigentlich fast unmöglich $400 Preis zu halten, selbst $500 sind da schon knapp.
Die XBox One X hat deutlich weniger Leistung und da zahlt Microsoft $500 noch drauf.

Mir war nicht bewusst, dass du die Korrektheit gepachtet hast und der Rest Schwachsinn ist. Mal so nebenbei: Was meinst du wird in den nächsten zwei Jahren an Produktionskapazität hinzukommen, wie wird die Nachfrage steigen und was denkst du zahlt ein Abnehmer von flash memory an eine foundry pro GB gegenüber einer HDD? Faktor acht ganz sicher nicht. Dann lass es ne 64 oder 128 GB SSD sein wo der Großteil als Cache genutzt wird (siehe digital foundry Video auf yt wo eine SSHD nach 3-5 mal Datenaufruf die Ladezeit deutlich absanken). Die next gen werden flash oder nv memory haben, dessen bin ich mir sicher.

robbitop
2018-04-18, 22:58:01
So viel ssd braucht man für anständiges Caching nicht. Da greift relativ schnell das Gesetz des abnehmenden Grenzertrags. Ein paar GB wären schon hilfreich. Xbox One X hat 8 gb für die wesentlichen Daten des OS und etwas Cache. 64-128 gb sind mE nicht notwendig. 16...32 gb wären schon ok.

Nightspider
2018-04-19, 00:18:16
Ich frage mich wie sinnvoll eine Art Level 2 RAM bestehend aus Xpoint Speicher wäre.

~10x höhere Datendichte als RAM und schnell genug um einige wichtige Daten bereitzustellen.

Nur ist der Preis von Xpoint selbst 2020 sicherlich noch zu hoch und von einem einzigen Anbieter will man sicherlich auch nicht sowas kaufen, da man sich zu abhängig machen würde.

32GB GDDR6 + 256GB Xpoint

Wäre interessant ob das rein theoretisch etwas bringen würde, wenn die Entwickler die Speicherverwaltung frei programmieren könnten.

Hübie
2018-04-19, 01:07:15
Na sagen wir 64 GB Flash wovon 28 für OS+swapfile und 36 GB als Cache fungieren. Klingt doch gar nicht abwegig. Man kann im Grunde auch alles dazwischen nehmen (48, 56, 72, 80 oder 96 GB) - ist auch völlig Wurscht. So etwas nicht zu verbauen kann man sich imo 2020 nicht mehr leisten.

@Nightspider: X-Point ist ja NV Memory. Die Idee hatten wir schon. So lange das transparent für Anwendungen gibt, wirkt das auch nicht abschreckend auf Entwickler wie z.B. eDRAM. Ob man NVM und GDDR6 kombinieren sollte ist dabei viel schwieriger zu beantworten, da die Relation etwa wie HDD<->FDD ist... X-Point, im speziellen, "raubt" doch auch PCIE Lanes oder? Das wäre ziemlich lahm im Vergleich und wie steht's um Granularität?

robbitop
2018-04-19, 08:51:59
Xpoint ist auch sehr preiswert...

AffenJack
2018-04-19, 10:09:51
Xpoint ist auch sehr preiswert...

Ach ist nur passend zu den anderen Traumvorstellungen hier im Thread.

basix
2018-04-19, 10:24:46
Ach ist nur passend zu den anderen Traumvorstellungen hier im Thread.

Etwas plakativ: Ohne Träume kein Fortschritt.

Entweder man geht mit 7nm schon ziemlich in die vollen, oder kann es sein lassen und man wartet auf 5nm. Mann muss sich von der PS4 Pro und XBone X genug weit distanzieren, sonst kann der Kunde ja die eben genannten Konsolen kaufen. Dass die Konsole dann vielleicht 499$ anstatt 399$ kostet sehe ich nicht als ein No-Go an. Und mit 100$ kann man bei solchen Systemen sehr viel anfangen. 3DX-Point halte ich für einmal auch für Overkill und für den Anwendungszweck / Streaming wahrscheinlich auch nicht viel schneller als normaler Flash, ausser Intel will unbedingt mit Kampfpreisen in das Geschäft der Konsolen einsteigen. Dass Intel aber Marge spendiert passt nicht gerade zur Firmenpolitik.

AffenJack
2018-04-19, 10:59:26
Nur laufen die Vorstellungen, wie zb bei dir, auf eine 600-700$ Konsole hinaus. Sony hat schon bei den 599$ der PS3 gesehen, dass es nicht so super läuft und das 399$ einfach der Sweetspot sind.

robbitop
2018-04-19, 11:10:26
Ja die neuen Konsolen haben gezeigt, dass der Preispunkt passt. Die Xbox 360 war zu ihrer Zeit einem High End PC ebenbürtig. Die PS4 nur einem Mittelklasse PC. Dafür haben die Hersteller nicht draufgezahlt und die Preise von Anfang an OK. Die Verteuerung pro sqmm Silizium und die immer langsamer kommenden Shrinks machen es eher schlechter.

Wenn 2020 eine Konsole für 399€ kommen soll, muss man die Erwartungen etwas managen.

Hübie
2018-04-19, 12:12:31
Xpoint ist auch sehr preiswert...

Ich sagte ja eingangs nicht explizit x-point, da Intel only und teuer.

basix
2018-04-19, 12:38:49
Nur laufen die Vorstellungen, wie zb bei dir, auf eine 600-700$ Konsole hinaus. Sony hat schon bei den 599$ der PS3 gesehen, dass es nicht so super läuft und das 399$ einfach der Sweetspot sind.

Beim zweiten Teil stimme ich dir voll und ganz zu. Beim ersten bin ich nicht ganz deiner Meinung.

Ja, man wird vermutlich mehr bezahlen müssen. Aber 700$ würden in faktisch fast verdoppelten Herstellkosten münden. Der Chip wird ein wenig teurer sein bei gleicher Fläche, der Speicher rein aufgrund der Menge. Ein Flash Cache mit z.B. 64GB kommt noch oben drauf. Alles andere der Konsole wird sich im gleichen Kostenrahmen bewegen. Das heisst, die 100$ stehen zu 100% für teurere GPU und Speicher / Flash zur Verfügung. Genau die Komponenten welche die Leistungsfähigkeit ausmachen. Bei der PS4 waren APU + GDDR5 ca. 180$. Also kann man im Gesamtpaket für diese Komponenten ca. +50% mehr ausgeben, was ziemlich viel ist. Da der grössere Teil vermutlich auf den Speicher fallen wird, sieht es doch gar nicht schlecht aus für 32 GB (würde mindestens eine Halbierung der $/GB benötigen, was 7-8 Jahre nach Release der PS4 wohl drin liegen sollte). 64GB Flash werden Sony / MS keine 20$ kosten wenn man eine 500GB SSD Retail für 170$ verkauft (860 Evo). QLC Flash, welcher Ende 2018 aufschlagen soll, noch gar nicht eingerechnet.

xyleph
2018-04-19, 14:44:58
und die immer langsamer kommenden Shrinks machen es eher schlechter.



Ließt man immer wieder, aber ist das wirklich der Fall? Wenn man ein paar Vergleiche Heranzieht:
-1999: 180nm
- 2004: 90nm
- 2008: 45nm
- 2012: 22nm
- 2014: 14nm

Sieht in den letzten 19 Jahren relativ konstant aus. Habe jetzt beabsichtigt immer die Reduzierung um 50% und Intel als Basis genommen (in dem Falle linear und nicht zum Quadrat gedacht).

Heute überspringt man vielleicht häufiger einen neuen Technologieknoten, aber der Sprung zum nächsten ist in der Regel nicht länger.

Ravenhearth
2018-04-19, 15:35:42
Dann musst du aber 10nm nehmen und nicht 14nm, letzterer gehört zur Reihe 130nm - 65nm - 32nm - 14nm... Zwischen 22nm und 10nm liegen dann schon 6 Jahre, falls Cannon Lake dieses Jahr kommt.

Oder man überspringt einfach mal gar nichts:

Ende 2007/Anfang 2008: 45nm
Anfang 2010: 32nm
April 2012: 22nm
Ende 2014/Anfang 2015: 14nm
H2 2018: 10nm

AffenJack
2018-04-19, 15:41:59
Beim zweiten Teil stimme ich dir voll und ganz zu. Beim ersten bin ich nicht ganz deiner Meinung.

Ja, man wird vermutlich mehr bezahlen müssen. Aber 700$ würden in faktisch fast verdoppelten Herstellkosten münden. Der Chip wird ein wenig teurer sein bei gleicher Fläche, der Speicher rein aufgrund der Menge. Ein Flash Cache mit z.B. 64GB kommt noch oben drauf. Alles andere der Konsole wird sich im gleichen Kostenrahmen bewegen. Das heisst, die 100$ stehen zu 100% für teurere GPU und Speicher / Flash zur Verfügung. Genau die Komponenten welche die Leistungsfähigkeit ausmachen. Bei der PS4 waren APU + GDDR5 ca. 180$. Also kann man im Gesamtpaket für diese Komponenten ca. +50% mehr ausgeben, was ziemlich viel ist. Da der grössere Teil vermutlich auf den Speicher fallen wird, sieht es doch gar nicht schlecht aus für 32 GB (würde mindestens eine Halbierung der $/GB benötigen, was 7-8 Jahre nach Release der PS4 wohl drin liegen sollte). 64GB Flash werden Sony / MS keine 20$ kosten wenn man eine 500GB SSD Retail für 170$ verkauft (860 Evo). QLC Flash, welcher Ende 2018 aufschlagen soll, noch gar nicht eingerechnet.

Dein Chip würde bei gleicher Größe schon eher 50% teurer sein, als der vorherige bei den öffentlichen Prozessangeben. Außerdem ist deine Rechnung schon arg optimistisch, da du nur vom Shadercore von Raven Ridge ausgehst. Nur gehört da durchaus noch einiges anderes zur GPU. Gehe ich mal von Vega10 aus, dann lande ich schon bei 3facher Packdichte und 4k Shadern bei deiner Größe für die GPU, was für mich deutlich realistischer klingt. Chips werden pro Shader mit jeder Gen eher größer, da neue Features hinzu kommen, auch wenn man vielleicht nicht alles von Vega10 braucht.

Deine Wattangaben sind noch viel optimistischer als der Rest. Du glaubst an 3-4 fache Perf/W, das ist eher illusorisch. Bei 16nm/14nm waren die Marketingangaben der Foundries genauso schön und 16FF+ sollte die 3fache Perf/W von 28nm. Haben wir das bei Polaris oder Pascal? Nope, bei 2x ist eher Ende. Mehr als 2,5x Perf/W würde ich für 7nm nicht erwarten, der Rest ist einfach Marketing der Foundries, welches nur in Spezialfällen zutrifft.

xyleph
2018-04-19, 15:42:24
Dann musst du aber 10nm nehmen und nicht 14nm, letzterer gehört zur Reihe 130nm - 65nm - 32nm - 14nm... Zwischen 22nm und 10nm liegen dann schon 6 Jahre, falls Cannon Lake dieses Jahr kommt.

10mn wollte ich noch nicht nehmen, da kein Intel-Produkt davon existiert (wohl aber mobile Chips).
Wenn es dieses Jahr bei Intel noch zu einem 10nm Produkt kommt, ist eigentlich alles i.O.. Sind dann zwar 6 Jahre, dafür aber auch von 22nm zu 10nm, entsprechend mehr als die Hälfte.

Tesseract
2018-04-19, 15:51:31
dafür aber auch von 22nm zu 10nm, entsprechend mehr als die Hälfte.

du darfst die namen nicht so genau nehmen, die sind mehr marketing als realität. in der realität war der sprung 180->90 eher größer als der von 22->10, zumindest bei chips die einen flächenmäßig großen anteil an caches haben.

xyleph
2018-04-19, 16:04:53
du darfst die namen nicht so genau nehmen, die sind mehr marketing als realität. in der realität war der sprung 180->90 eher größer als der von 22->10, zumindest bei chips die einen flächenmäßig großen anteil an caches haben.

Jo, das habe ich auch schon einmal gelesen. Müsste man mal die Anzahl der Transistoren im Verhältnis zur DIE-Größe betrachten.

Was man ebenfalls in Betracht ziehen muss, ist die Steigerung der Leistungsaufnahme, mit der in Vergangenheit eine erhöhte Leistung erkauft wurde.
Die Generation PS One und N64 war bei einen Verbrauch von ~ 8 Watt.
Die Generation PS2, Gamecube und Xbox war schon bei 23 (Cube) - 64 Watt (XBox).
Die Generation PS360 war dann bei 170 - 180. Dort hat sich auch die aktuelle Generation eingependelt und dort wird sich wahrscheinlich auch die nächste Generation bewegen.

Man Stelle sich vor, man würde die Leistungsaufnahmen verdoppeln bis verdreifachen, wie in der Vergangenheit.

TheAntitheist
2018-04-19, 16:20:18
@ Speichermenge:
Erstens war der Sprung von PS3 auf PS4 sehr gross (64x) und zweitens ist seit ca. 2010 bei der Lithographie Moore's Law am Ende. 8x wäre deshalb sehr schön, ich erwarte eher was um 4x rum. Bei der PS3 hatten gegen Ende des Zyklus PCs 4-8GB im Vergleich zu 256MB, heute sind es 8GB zu 24GB (CPU + GPU). Ich wäre mit 32 GB zufrieden, aber ich bin ja kein Spieleentwickler.
die PS3 hatte auch 512MB, das zu 8GB sind auch "nur" das 16x und nicht das 64 fache wie du behauptest.

Dazu sollte man auch einkalkulieren das jene Generation besonders lang lief, es also normalerweise auf 4GB hinaus gelaufen wäre, was dann wiederum dem normalen Wert von 8x entsprochen hätte.

basix
2018-04-20, 00:45:41
die PS3 hatte auch 512MB, das zu 8GB sind auch "nur" das 16x und nicht das 64 fache wie du behauptest.

Dazu sollte man auch einkalkulieren das jene Generation besonders lang lief, es also normalerweise auf 4GB hinaus gelaufen wäre, was dann wiederum dem normalen Wert von 8x entsprochen hätte.

Waren es nicht 256MB? Aber ja, dann wäre 32x richtig gewesen...mea culpa

Dein Chip würde bei gleicher Größe schon eher 50% teurer sein, als der vorherige bei den öffentlichen Prozessangeben. Außerdem ist deine Rechnung schon arg optimistisch, da du nur vom Shadercore von Raven Ridge ausgehst. Nur gehört da durchaus noch einiges anderes zur GPU. Gehe ich mal von Vega10 aus, dann lande ich schon bei 3facher Packdichte und 4k Shadern bei deiner Größe für die GPU, was für mich deutlich realistischer klingt. Chips werden pro Shader mit jeder Gen eher größer, da neue Features hinzu kommen, auch wenn man vielleicht nicht alles von Vega10 braucht.

Nicht komplett, aber TMUs usw. sind schon auch dabei. Was fehlt sind Display Engine etc. Bei einem PS4 Pro Die Shot siehst du, dass ein extrem grosser Anteil CUs usw. sind. Siehe Bild im Anhang. Bei Vega komme ich auf ca. 80% Flächen-Anteil für die gesamte GPU ohne HBM, HBCC und Display-Engine. Das beinhaltet CUs, Power Mangement, L2, Async Compute, Rasterizer usw. und somit alles was irgendiwe mit den CUs skalieren sollte (SI mal aussen vorgelassen). Damit komme ich auf 130mm2 bei Skalierungsfaktor 3x. Die komplette GPU solltest du nicht nehmen, da für den Vergleich ja SI usw. ausgeklammert werden sollte (da wissen wir eh nicht ob GDDR6 oder HBM). 6k Shader wäre dann 200mm2 anstatt der 170mm2. Fällt das Flächenverhältnis ähnlich wie bei der PS4 Pro aus (ca. 70% der Gesamtfläche, habe nochmals nachgemessen) wäre eine potentielle PS5 Pro ca. 300mm2 oder ein bisschen grösser (Zen wird grösser als die kleinen Jaguar Kerne sein) und das klingt für mich realistisch. 4k Shader wären sicher günstiger zu fertigen, aber dann hat man maximal 3x TFLOPs im Vergleich zu einer PS4 Pro und dazu müsste man schon 2/3 mehr Takt aufbieten. Vielleicht sind wir ja eh auf dem Holzweg und man wird erst mit 5nm was sehen. Dann haben dann ja wohl 6-8k Shader mehr als genug Platz ;)

Hier gibt es übrigens astreine Die Shots von Vega 10:
https://www.flickr.com/photos/130561288@N04/40482186211/

Und ausserdem, wenn es 50% Mehrkosten für den Chip sind, dann bleiben trotzdem noch 50% für den Speicher übrig. Gerade mal 2x geringere GB/$ in 7 Jahren ist eigentlich lächerlich gering und wird in Realität ab Herstellerpreis vermutlich stärker gesunken sein. Vielleicht nicht zum heutigen Datum, aber für so Grossaufträge gelten eh andere Regeln.

Deine Wattangaben sind noch viel optimistischer als der Rest. Du glaubst an 3-4 fache Perf/W, das ist eher illusorisch. Bei 16nm/14nm waren die Marketingangaben der Foundries genauso schön und 16FF+ sollte die 3fache Perf/W von 28nm. Haben wir das bei Polaris oder Pascal? Nope, bei 2x ist eher Ende. Mehr als 2,5x Perf/W würde ich für 7nm nicht erwarten, der Rest ist einfach Marketing der Foundries, welches nur in Spezialfällen zutrifft.

Optimistisch definitiv. Aber mit 6k Shadern und tiefem Takt eher zu erreichen als mit 4k Shadern und hohem Takt. Aber wieso ich trotzdem an der Energieffizenzsteigerung festhalte: Vega 10 wird an der Kotzgrenze betrieben. Undervolting kann bis zu 50% Energieffizienz bringen. Raven Ridge zeigt, dass Vega auch sehr effizient sein kann (afaik gemessen 1 TFLOPs @ 15W TDP für die ganze APU). Damit kommt man wieder in den von mir spekulierten Wert von 3-4x Verbesserung. Klar, das wäre eine hohe Verbesserung, aber im Bereich des möglichen scheint es zu liegen.

So, ich klinke mich mal aus dem Thema aus. Es wurde schon genug auf dem Thema rumgeritten. Höchstens eine Wette mache ich noch. Möge die akkuratere Speku gewinnen :D

][immy
2018-04-20, 14:20:46
Also wenn ich mir so die Benchmark-Ergebnisse der neusten Zen+ Prozessoren anschaue bekomme ich das Gefühl als wenn wir doch wieder 2 Speicherinterfaces in den nächsten Konsolen haben werden. Einfach aus dem Grund das geringere Latenzen beim Speicher den Ryzen Prozessoren doch recht viel bringt. Wenn man dann mit der GPU um die Zugriffe streiten müsste könnte es ziemlich schnell ziemlich langsam werden. Die Jaguar-Kerne sind ja noch nicht so extrem fordernd aber da Zen durchaus schlagkräftiger werden dürfte, dürften die Speicherzugriffe zunehmen trotz L3 Caches. Würde allerdings einiges kosten 2 Speicherinterfaces unter zu bringen. Eine alternative wäre dann natürlich ein wenig HBM Speicher für die GPU damit diese nicht so häufig an den Hauptspeicher muss. Das Problem dürfte allerdings immer wieder sein, das die Kosten dadurch nicht grad sinken werden.

robbitop
2018-04-20, 14:31:40
Auf der Konsole lässt sich damit sicherlich nesser leben, da nur eine Plattform auf die man optimieren muss. Da wird man so lange tunen bis die Cachehitrate passt. Ich gehe von einem Speicherpool aus.

Karümel
2018-04-22, 10:11:51
Wenn Mircosoft ihr "Play Anywhere" Programm in der nächsten Konsolengeneration fortführen wird (wovon ich ausgehe), ist es dann nicht logisch/ sinnvoll das die Konsole so nah wie möglich an einem PC ist?
Geringerer Aufwand für die Entwickler, oder ist das inzwischen kein so großer Aufwand mehr?

megachip800
2018-04-22, 11:01:45
http://www.playm.de/2018/04/ps5-6-398455/

" Im Wortlaut heißt es: "Da Sony und Microsoft mit der PS4 Pro und Xbox One X die Produktlinie erweitert haben, sehen wir möglicherweise eine kontinuierliche Weiterentwicklung der Produktreihe und keine komplett neuen Boxen und Architekturen. Wir können sehen, dass beide eine ähnlichen Formel folgen, die Apple mit Mobiltelefonen zum Einsatz bringt."

Ja ne ist klar keine echte Neuentwicklung mehr weil die "Entwickler" kein Bock haben auf eine neue Architektur , wohin das führt sieht man ja schon bei der Xbox one X , Tearing und Ruckeln trotz stärkerer Hardware gepaart mit Installations und Updateterror. Da bin ich raus da kann man auch auf dem PC umsteigen.....man stelle sich vor das bei der Entwicklung von Spielen für die PS5 die dann 7 Jahre Ps4 mitberücksichtigt werden muss das sich alles nur noch um 100 prozentige abwärts und vorwärts Kompatibeltät dreht , egal ob dann die Grafik Kagge aussieht oder wir dann wieder irgendwelche Scheinerklärungen hören müssen warum es diesmal wieder nicht mit konstant 60 fps geklappt hat unsw.. FP64 , Tensorcores und HBm brauch dann auch keiner weil die alte Hardware der Ps4 ja soviel besser war .....

Dazu passt ja die Meldung:

http://www.playm.de/2018/04/ps5-5-398091/


"17. April 2018 um 09:53 Uhr: Einem aktuellen Bericht zufolge ist Sonys Mark Cerny auch im Fall der PlayStation 5 mit Publishern und Entwicklern in Kontakt getreten, um deren Wünsche und Vorstellungen in Erfahrung zu bringen. Ähnliche Vorbereitungen gab es schon bei der Entwicklung der PlayStation 4. Wann die PS5 in den Handel kommen wird, ist weiterhin unklar."

Auf deren Wünsche und Vorstellungen kann ich getrost verzichten wenn solche Vorderungen wie die obige dort einzug halten..was ist mit den Bedürfnissen und Wünsche des Endkunden ? die erfahren überhaupt keine Berücksichtigungen. Nach dem Motto friss oder stirb, 399€ finden wir so toll , kein Plug and Play mehr stattdessen permanentes Updaten und Installieren , veraltete Technik verkaufen und den Leuten das Geld aus der Tasche ziehen mit Microtransactions und blödsinningen DLCs .....Low Level Api wollen die Entwickler auch nicht mehr weil auf High Level zu programmieren viel einfacher ist , play Anywhere du verstehen??

NEIN DANKE:mad::P

][immy
2018-04-22, 11:14:34
http://www.playm.de/2018/04/ps5-6-398455/

" Im Wortlaut heißt es: "Da Sony und Microsoft mit der PS4 Pro und Xbox One X die Produktlinie erweitert haben, sehen wir möglicherweise eine kontinuierliche Weiterentwicklung der Produktreihe und keine komplett neuen Boxen und Architekturen. Wir können sehen, dass beide eine ähnlichen Formel folgen, die Apple mit Mobiltelefonen zum Einsatz bringt."

Ja ne ist klar keine echte Neuentwicklung mehr weil die "Entwickler" kein Bock haben auf eine neue Architektur , wohin das führt sieht man ja schon bei der Xbox one X , Tearing und Ruckeln trotz stärkerer Hardware gepaart mit Installations und Updateterror. Da bin ich raus da kann man auch auf dem PC umsteigen.....man stelle sich vor das bei der Entwicklung von Spielen für die PS5 die dann 7 Jahre Ps4 mitberücksichtigt werden muss das sich alles nur noch um 100 prozentige abwärts und vorwärts Kompatibeltät dreht , egal ob dann die Grafik Kagge aussieht oder wir dann wieder irgendwelche Scheinerklärungen hören müssen warum es diesmal wieder nicht mit konstant 60 fps geklappt hat unsw.. FP64 , Tensorcores und HBm brauch dann auch keiner weil die alte Hardware der Ps4 ja soviel besser war .....

Dazu passt ja die Meldung:

http://www.playm.de/2018/04/ps5-5-398091/


"17. April 2018 um 09:53 Uhr: Einem aktuellen Bericht zufolge ist Sonys Mark Cerny auch im Fall der PlayStation 5 mit Publishern und Entwicklern in Kontakt getreten, um deren Wünsche und Vorstellungen in Erfahrung zu bringen. Ähnliche Vorbereitungen gab es schon bei der Entwicklung der PlayStation 4. Wann die PS5 in den Handel kommen wird, ist weiterhin unklar."

Auf deren Wünsche und Vorstellungen kann ich getrost verzichten wenn solche Vorderungen wie die obige dort einzug halten..was ist mit den Bedürfnissen und Wünsche des Endkunden ? die erfahren überhaupt keine Berücksichtigungen. Nach dem Motto friss oder stirb, 399€ finden wir so toll , kein Plug and Play mehr stattdessen permanentes Updaten und Installieren , veraltete Technik verkaufen und den Leuten das Geld aus der Tasche ziehen mit Microtransactions und blödsinningen DLCs .....Low Level Api wollen die Entwickler auch nicht mehr weil auf High Level zu programmieren viel einfacher ist , play Anywhere du verstehen??

NEIN DANKE:mad::P
Verstehe dein problem nicht. Bleib einfach beim pc und sei glücklich. Überteuert ist die konsolenhardware nicht. Außer vielleicht die switch.

Neue technologien erhalten doch auch iterativ viel schneller einzug, da die userbase dann größer ist, ist das risiko eines flops auch viel geringer.
Low level ist auch so eine wache. Das klappt bei teilen ganz gut allerdings sind spiele inzwischen so komplex das es nicht mehr umsetzbar ist.
Und glaubst du wirklich mit stärkerer konsolenhardware würde ruckeln und tearing etc verschwinden?
Dann würde man einfach die stärkere hardware ausnutzen und die gleichen Probleme hätte man wieder. Und den preis dafür will auch niemand zahlen.

Windi
2018-04-22, 11:47:47
Entscheidend ist halt wann die neuen Konsolen kommen.

2019 beginnt erst die 7nm Produktion und ist noch sehr teurer.
Sehr wichtig ist beim Preis aber auch der Schweinezyklus. Und genau bei dem haben wir momentan eine ganz besondere Situation.
Früher gab es nur die ganz normale Weiterentwicklung der Technik und das Wachstum des Marktes. Dadurch hatte man mal ein etwas zu niedriges oder erhöhtes Angebot.
In den letzten Jahren ist die Nachfrage allerdings regelrecht explodiert. Und zwar nicht durch ein natürliches Wachstum des PC-Marktes, sondern weil immer neue Kunden hinzu gekommen sind. Zum einen benötigt man für die SoCs von Smartphones und Tablets gigantische Produktionskapazitäten, zum anderen wird immer mehr automatisiert was wiederum Chips benötigt. Sei es nun in der Industrie oder im Privat-Bereich. Seien es nun smarte Glühbirnen oder intelligente Lautsprecher mit Spracherkennung.
Und für all diese Bereiche braucht man nicht nur SoCs, sondern meist auch noch etwas DRAM und Flachspeicher. Pro Gerät ist das nicht viel, aber es sind verdammt viele Geräte.
Und dazu kommt noch der Trend, die Festplatte durch eine SSD auszutauschen, was wiederum gigantische Mengen Flachspeicher benötigt.

Die Nachfrage ist einfach explodiert und die Hersteller haben gezögert ihre Kapazitäten stark zu erweitern. Erst vor kurzem, als die Chinesen ankündigten massiv in diesen Markt einsteigen zu wollen, sind die Hersteller aufgewacht und wollen wieder ordentlich investieren um ihre Marktanteile zu verteidigen. Eine größere Entspannung kann man aber wohl erst nach 2020 erwarten.

Bei den neuen Konsolen hängt halt alles davon ab, wann sie kommen und ob man es schafft Preisnachlässe zu verhandeln (was durchaus möglich ist da sich das Angebot in Zukunft deutlich erhöhen wird)

megachip800
2018-04-22, 12:52:28
[immy;11678014']Verstehe dein problem nicht. Bleib einfach beim pc und sei glücklich. Überteuert ist die konsolenhardware nicht. Außer vielleicht die switch.

Neue technologien erhalten doch auch iterativ viel schneller einzug, da die userbase dann größer ist, ist das risiko eines flops auch viel geringer.
Low level ist auch so eine wache. Das klappt bei teilen ganz gut allerdings sind spiele inzwischen so komplex das es nicht mehr umsetzbar ist.
Und glaubst du wirklich mit stärkerer konsolenhardware würde ruckeln und tearing etc verschwinden?
Dann würde man einfach die stärkere hardware ausnutzen und die gleichen Probleme hätte man wieder. Und den preis dafür will auch niemand zahlen.

Ich habe kein Problem mit einem hohen Preis eher mit einem zu kleinen Preis und man sich damit zu sehr einschränkt (Technik/Fortschritt) .

Und warum ruckeln Spiele überhaupt? Früher ja da war die Hardware der Konsolen arg beschränkt. Aber heute? Heute werden doch Funktionen genutzt um die Prozessoren nicht zu überlasten wie zB. Checkerboarding , Tiling , Deffered Rendering , dynamische Auflösung diverse LOD Verfahren , Kompression , und für CPU Aufgaben kann man auch eine Prioliste erstelllen damit diese nicht zu schnell ausgelastet ist und man Resourcen für andere Dinge übrig hat . Also warum ruckeln dann trotzdem die Spiele wenn man all diese Hilfsmittel zur Verfügung hat??irgendetwas stimmt da nicht.....

Und Tearing ist definitiv ein Phänomen des HD Zeitalters das es zu PAL Zeiten (SD) nicht gab , ich kenne kein Spiel auf Ps1 oder Dreamcast das Tearingprobleme hatte. Das deutet doch auf eine grundsätzliche Schwäche der Hardwarearchitektur hin oder schlechte Librarys , andere digitale Medien wie Blurayplayer , Digicams , digitale Filmprojektoren , Fieldrecorder etc. haben auch kein Tearingprobleme.

Spiele kosten heute in der Entwicklung 2 u. 3 stellige Millionensummen wenn trotz eines so hohen Budgets die technische Darbietung so schlecht ist , dann muss das hinterfragt werden , und das hat nichts mit meinen überzogenen Ansprüchen zu tun.

x-force
2018-04-22, 13:15:11
Ich habe kein Problem mit einem hohen Preis eher mit einem zu kleinen Preis und man sich damit zu sehr einschränkt (Technik/Fortschritt) .

Und warum ruckeln Spiele überhaupt? Früher ja da war die Hardware der Konsolen arg beschränkt. Aber heute? Heute werden doch Funktionen genutzt um die Prozessoren nicht zu überlasten wie zB. Checkerboarding , Tiling , Deffered Rendering , dynamische Auflösung diverse LOD Verfahren , Kompression , und für CPU Aufgaben kann man auch eine Prioliste erstelllen damit diese nicht zu schnell ausgelastet ist und man Resourcen für andere Dinge übrig hat . Also warum ruckeln dann trotzdem die Spiele wenn man all diese Hilfsmittel zur Verfügung hat??irgendetwas stimmt da nicht.....

Und Tearing ist definitiv ein Phänomen des HD Zeitalters das es zu PAL Zeiten (SD) nicht gab , ich kenne kein Spiel auf Ps1 oder Dreamcast das Tearingprobleme hatte. Das deutet doch auf eine grundsätzliche Schwäche der Hardwarearchitektur hin oder schlechte Librarys , andere digitale Medien wie Blurayplayer , Digicams , digitale Filmprojektoren , Fieldrecorder etc. haben auch kein Tearingprobleme.


selten so einen mist gelesen :freak:

spiele ruckeln, weil die entwickler nicht wollen, daß sie ruckelfrei laufen und dafür lieber mit ein paar effekten mehr blenden.

tearing hat nichts mit der auflösung zu tun, sondern kommt durch rendering ohne vsync. das ist eine entscheidung keine notwendigkeit.

][immy
2018-04-22, 16:24:14
Ich habe kein Problem mit einem hohen Preis eher mit einem zu kleinen Preis und man sich damit zu sehr einschränkt (Technik/Fortschritt) .

Und warum ruckeln Spiele überhaupt? Früher ja da war die Hardware der Konsolen arg beschränkt. Aber heute? Heute werden doch Funktionen genutzt um die Prozessoren nicht zu überlasten wie zB. Checkerboarding , Tiling , Deffered Rendering , dynamische Auflösung diverse LOD Verfahren , Kompression , und für CPU Aufgaben kann man auch eine Prioliste erstelllen damit diese nicht zu schnell ausgelastet ist und man Resourcen für andere Dinge übrig hat . Also warum ruckeln dann trotzdem die Spiele wenn man all diese Hilfsmittel zur Verfügung hat??irgendetwas stimmt da nicht.....

Und Tearing ist definitiv ein Phänomen des HD Zeitalters das es zu PAL Zeiten (SD) nicht gab , ich kenne kein Spiel auf Ps1 oder Dreamcast das Tearingprobleme hatte. Das deutet doch auf eine grundsätzliche Schwäche der Hardwarearchitektur hin oder schlechte Librarys , andere digitale Medien wie Blurayplayer , Digicams , digitale Filmprojektoren , Fieldrecorder etc. haben auch kein Tearingprobleme.

Spiele kosten heute in der Entwicklung 2 u. 3 stellige Millionensummen wenn trotz eines so hohen Budgets die technische Darbietung so schlecht ist , dann muss das hinterfragt werden , und das hat nichts mit meinen überzogenen Ansprüchen zu tun.
Ich gehe gar nicht erst auf alles ein. Tearing ist kein neues problem sonder gab es eigentlich schon immer. Zudem sind viele spiele auf mehreren plattformen und viel zu komplex um es für alle fälle zu optimieren.
Die sachen fallen heute nur eher auf weil z.b. Digital foundry die spiele überhaupt analysiert. "früher" gab es auch massig spiele die mit unter 20fps liefen. Da ist tearing etc vorprogrammiert.
Nur weil man jetzt mehr daten hat sowas zu identifizieren heißt es noch lange nicht das es häufiger passiert. Ganz im gegenteil, es gibt viel weniger 20 fps spiele auf konsolen als früher.

Korvaun
2018-04-22, 16:53:44
Es wird aus heutiger Sicht NIE WIEDER eine neue Konsolengeneration geben die auf komplett neue Architektur setzt und nicht abwärtskompatibel ist (ok, bei Nintendo kann man sich da nicht 100% sicher sein). Das ist heute viel zu teuer und bringt keinerlei sinnvollen Vorteil, die Zeiten sind einfach vorbei, die Technik ist zu ausgereift für sowas. Die Herstellungsprozesse der Chips werden zu langsam besser und zu schnell teurer. Konsolen werden solange sie noch existieren weiter den Weg von PS4/4Pro bzw. XOne/OneX gehen.

Auch werden die Leistungssprünge nicht mehr so drastisch ausfallen wie noch zwischen PS1/2/3/4 Generationen. Auch nicht mehr sinnvoll machbar. CPU/GPU werden sich an der verfügbaren Hardware von nV/AMD/Intel orientieren. Speicher wird auch nur noch maßvoll steigen, sicher keine 8x oder nochmehr. 16GB in der PS5 in 2020 gut machbar und bezahlbar, mehr nur mit viel Phantasie...

Wem das nicht passt der kann entweder auf PC umsatteln oder Nintendos "Spielzeugkonsölchen" kaufen, alternativ komplett nen anderes Hobby suchen ;)

p.s. Softwareseitig sieht es genauso aus. Kein großer Multiplat-Hersteller will heute nochmal ne neue Konsole bei der er komplett von vorne anfangen muss zu entwickeln und zu optimieren. Insbesondere in Zeiten wo die großen Konzerne dazu übergehen eine hausinterne Engine zu pflegen die alle eigenen Studios benutzen...

gnomi
2018-04-23, 10:05:12
Jo, sehr gute Analyse.
Es geht alles in Richtung PC Upgrade.
Die Firmen in so einem Mainstream Bereich wie Konsole oder Smartphone probieren außerdem, jede Entwicklung besser zu vermarkten, damit der Kunde auch früher für weniger wechselt. ;)
Wir sehen also schnell eine PS5, aber natürlich weniger einen 600 Euro PS3 Alleingang.
Man könnte das Gerät ehrlicherweise wahrscheinlich auch PS4 Ultra nennen, nur kauft es dann niemand so recht außer Fans. (erinnert mich an Serien wie Street Fighter ;D )
Dennoch hat das auch alles was für sich. Die Geräte bieten solide Technik zu einem weit erschwinglicherem Preis.
Man kann jederzeit einsteigen und alles läuft.
Richtung natives 4k plus HDR mit 30 fps sieht auf der Xbox One X ja auch schon super aus. Es ist kein High End PC Niveau, aber für 500 Euro ein enorm guter Deal. (vor allem, weil auch so viele Menschen neue Fernseher kaufen, die dann im Budget Bereich auch kein Vermögen kosten)

SpielerZwei
2018-04-23, 16:11:46
In Wirklichkeit geht es doch darum dass es in Zukunft bei den Konsolen ähnlich laufen wird wie schon auf dem PC. Abo Service, Spieleflatrate. Die Hardware kaufst Du rellativ günstig - man könnte schjon von mieten sprechen. Das wichtigste: die digitale Spiele Library muss erhalten bleiben.ich habe zb. Zu PS3 Zeiten Spiele digital gekauft die es auch auf der PS4 gibt. Kann ich sie auf der PS4 spielen? NOPE! Aber eben da wird die Reise hingehen. Längerfristig wirds dann streaming ;)...

DinosaurusRex
2018-04-24, 05:39:09
In Wirklichkeit geht es doch darum dass es in Zukunft bei den Konsolen ähnlich laufen wird wie schon auf dem PC.

PC Gaming ist dank Valve zu 99% nur noch Free2Play Multiplayer mit Lootbox Gambling

msilver
2018-04-24, 06:26:57
ne, viele zocken immer noch titel die man kaufen muss. cod, bf, pubg etc, wenn wir es schon mal auf den multiplayer runter rechnen wollen.

es wird immer titel geben die man kaufen muss oder per abo zockt.

Fragman
2018-04-24, 08:12:03
PC Gaming ist dank Valve zu 99% nur noch Free2Play Multiplayer mit Lootbox Gambling

wenn uns die letzten jahre eins gezeigt haben, dann, das das alles nur eine mode ist, die nicht lang anhaelt. wow, lol und jetzt king of the hill (wieso heisst das eigentlich battle royal, das prinzip ist uralt). nebenher kommen trotzdem andere spiele raus die auch gezockt werden.

][immy
2018-04-24, 10:19:58
PC Gaming ist dank Valve zu 99% nur noch Free2Play Multiplayer mit Lootbox Gambling

Es gibt daneben noch einen recht gesunden Spiele markt. Ändert zwar nichts daran das Lootboxen inzwischen in vielen Spielen drin sind, aber F2P macht nicht 99% aus. Ist wohl eher dein Gefühl das dich zu dieser Aussage getrieben hat.
F2P ist einfach ein "neue" Möglichkeit mit Spielen Geld zu verdienen. Die Chancen dort Pleite zu gehen sind aber ähnlich groß wie mit einem Spiel das ganz normal verkauft wird.
Ich persönlich brauche den PC aber nur noch für RTS spiele & Gothic, alles andere -> Konsole. Der PC ist für mich daher ziemlich tot (da im RTS Bereich kaum noch gutes was erscheint), der Markt verhält sich da aber vollkommen anders.

HOT
2018-04-24, 10:42:38
Ich habe kein Problem mit einem hohen Preis eher mit einem zu kleinen Preis und man sich damit zu sehr einschränkt (Technik/Fortschritt) .

Und warum ruckeln Spiele überhaupt? Früher ja da war die Hardware der Konsolen arg beschränkt. Aber heute? Heute werden doch Funktionen genutzt um die Prozessoren nicht zu überlasten wie zB. Checkerboarding , Tiling , Deffered Rendering , dynamische Auflösung diverse LOD Verfahren , Kompression , und für CPU Aufgaben kann man auch eine Prioliste erstelllen damit diese nicht zu schnell ausgelastet ist und man Resourcen für andere Dinge übrig hat . Also warum ruckeln dann trotzdem die Spiele wenn man all diese Hilfsmittel zur Verfügung hat??irgendetwas stimmt da nicht.....

Und Tearing ist definitiv ein Phänomen des HD Zeitalters das es zu PAL Zeiten (SD) nicht gab , ich kenne kein Spiel auf Ps1 oder Dreamcast das Tearingprobleme hatte. Das deutet doch auf eine grundsätzliche Schwäche der Hardwarearchitektur hin oder schlechte Librarys , andere digitale Medien wie Blurayplayer , Digicams , digitale Filmprojektoren , Fieldrecorder etc. haben auch kein Tearingprobleme.

Spiele kosten heute in der Entwicklung 2 u. 3 stellige Millionensummen wenn trotz eines so hohen Budgets die technische Darbietung so schlecht ist , dann muss das hinterfragt werden , und das hat nichts mit meinen überzogenen Ansprüchen zu tun.


Was ich mich dabei immer frage ist, wie man sich das überhaupt immer so vorstellt. Damals gab es mehrere Prozessorarchitekturen, mehrere Hersteller, mehrere GPU-IPs und auch deren Hersteller... heute sind die PPC herausgefallen, weil die gar keine PC-tauglichen Architekturen mehr machen, was früher bei Konsolenherstellern sehr beliebt war (warum auch immer), Grafik-IPs dieser Leistungsklasse wird noch schwieriger, die sind schon sein GC und XBox in den Händen von AMD/ATI und NV. Es gibt also, wenn die Kosten nicht ausufern sollen, heutzutage ebenfalls nur diese 2 Möglichkeiten für einen Konsolenhersteller und da ist die semi-Custom-Sparte von AMD von den Kosten her einfach nicht zu schlagen. Hinzu kam, dass Intel AMD die semi-Custom-Deals eben nicht streitig machen kann, man als Konsolenhersteller also über einen Umweg also direkt an x86-CPUs kommt, ohne sich mit Intel auseinandersetzen zu müssen.

Das sind die Gründe, warum die Konsolen sind wie sie sind und warum sich das auch nicht mehr ändern wird auf absehbare Zeit. Und was liegt da näher als die Konsolen zu PCisieren, da man ja auch immer mehr Online-Inhalt anbieten muss. Für leistungsfähige Konsolen hat NV einfach keine passende CPU, Intel keine passende GPU. Für Nintendos quasi-Handheld ist Tegra hingegen gut geeignet, hier hat AMD mit dem Cancel von K12 nichts im Angebot.
Und so geht das weiter, NV wird weiterhin ARM-Kerne bauen und AMD wird Zen2 konsolentauglich machen.

Ganon
2018-04-24, 11:15:01
heute sind die PPC herausgefallen, weil die gar keine PC-tauglichen Architekturen mehr machen, was früher bei Konsolenherstellern sehr beliebt war (warum auch immer)

CPU-Architekturen in Konsolen waren sehr variabel. PowerPC war nur die letzte Variante davon. Ansonsten:

GameBoy: Z80
GameBoy Advance, Nintendo (3)DS: ARM
Saturn, Dreamcast: SuperH
N64, PS1, PS2: MIPS
MD: 68K
XBOX1: x86

"nur" GC/Wii, WiiU und XBOX360/PS3 hatten eine PowerPC CPU, wobei man bei der PS3 etwas über den PowerPC Fokus diskutieren kann. Cell war etwas mehr als "ein PPC-Prozessor".

Die Frage nach dem "Warum?" ist eigentlich recht einfach: Vor XBOX360/PS3 gab es in den CPU-Generationen kaum taugliche x86 CPUs für den Einsatzzweck. Da waren alternative CPU-Architekturen noch konkurrenzfähig oder sogar überlegen. z.B. XBOX1 x86-CPU 733Mhz: 1,4 GFLOPS, GameCube ppc-CPU 485Mhz: 1,9 GFLOPS

Bei der XBOX360 hatte man ja schon diskutiert (bzw. sich gewundert), warum MS sich da für die PowerPC Architektur entschieden hatte. Vermutlich war es billiger für MS oder erlaubte mehr Kontrolle.

Zukünftig kommt es auch darauf an, wie sich der Markt entwickelt. Kann auch sein, dass wir noch mal in irgend eine "General Purpose"-Sackgasse/Stau rennen und alternative Architekturen hier wieder interessanter werden. In naher Zukunft aber sicherlich nicht. Dazu ist noch viel zu viel Raum da, da die aktuellen Konsolen ja CPU-technisch auch eher in die LowEnd Kiste greifen.

Tesseract
2018-04-24, 12:04:08
king of the hill (wieso heisst das eigentlich battle royal, das prinzip ist uralt)

weil das zwei unterschiedliche spielprinzipien sind:
battle royal ist last man standing in einem mittelgroßen areal (z.B. einer insel) in dem verschiedene strategien wie jagen oder verstecken möglich sind, benannt nach dem japanischen film (und populär gemacht durch hunger games).
king of the hill ist alle gegen einen der versucht einen räumlich relativ kleines areal oder anderes objektiv - meistens auf zeit - zu halten, benannt nach dem kinderspiel. in KotH muss es immer eine form von "king" geben mit dem ziel dem king seinen titel abzunehmen, in BR ist das in der regel nicht so.

in der vergangenheit wurden vereinzelt spielmodi die näher an BR liegen als KotH bezeichnet, ist aber eigentlich unpassend.

HOT
2018-04-24, 12:09:28
Ganon
Bei der XB360 war x86 ja nicht, Intel war sicherlich viel zu teuer, und ARM war noch lange nicht soweit. Da blieb nur PPC. Und das in den 90ern Kraut und Rüben war, ist natürlich klar.

][immy
2018-04-24, 12:50:30
Ganon
Bei der XB360 war x86 ja nicht, Intel war sicherlich viel zu teuer, und ARM war noch lange nicht soweit. Da blieb nur PPC. Und das in den 90ern Kraut und Rüben war, ist natürlich klar.
Via wäre auch noch da gewesen ....
da man eh CPU & GPU von verschiedenen hatte, naja.
Allerdings produziert Via heute noch sehr stromsparende x86er CPUs, aber keine Ahnung ob die sich jemals bei solchen "Ausschreibungen" beteiligt haben.

Gebrechlichkeit
2018-04-24, 12:53:02
wenn uns die letzten jahre eins gezeigt haben, dann, das das alles nur eine mode ist, die nicht lang anhaelt.

Wut? Nur eine Mode? Haelt nicht lange an? Der PC Markt leidet darunter seit ca. 2008. F2P Boom... China hat glaube ich alleine €20bn damit erwirtschaftet ... und es ist kein Ende in Sicht.

Der PC wie zu 2000 "Gezeiten" ...wird es nicht mehr geben. Indieueberflutung, free to play ueberall und dazu halt noch der inexistente AAA Markt (PC).

Ohne Consolen gaebe es keinen traditionellen Spielemarkt mehr. Der PC ist schon lange nichr mehr lukrativ was die AAA Games angeht (bis auf die 3 ausnahmen). Alles F2P, microtransaction, dlc etc.etc ..

sulak
2018-04-24, 12:59:03
In den 90ern ging alles über die CPU, die ersten echten GPUs kamen ja erst ~1996 auf den PC Markt. Auch die Shader gabs damals noch nicht, also musste man CPUs nutzen, die dem Bedarf von Spielen gerecht wurden.

Heute brauch es eben die dickste GPU die es gibt, und für 30FPS genügen die alten JaguarX86-CPUs (spart auch am Wattage Budget).
Die ganzen neuen Rendertechniken, da hat in den 90ern keiner was von vermutet.

Fragman
2018-04-24, 13:48:14
Wut? Nur eine Mode? Haelt nicht lange an? Der PC Markt leidet darunter seit ca. 2008. F2P Boom... China hat glaube ich alleine €20bn damit erwirtschaftet ... und es ist kein Ende in Sicht.

Der PC wie zu 2000 "Gezeiten" ...wird es nicht mehr geben. Indieueberflutung, free to play ueberall und dazu halt noch der inexistente AAA Markt (PC).

Ohne Consolen gaebe es keinen traditionellen Spielemarkt mehr. Der PC ist schon lange nichr mehr lukrativ was die AAA Games angeht (bis auf die 3 ausnahmen). Alles F2P, microtransaction, dlc etc.etc ..

mit mode meinte ich eher die wellen an spielen die dann "alle" auf einmal spielen, nicht free to play an sich.
aus meiner sicht, ich zocke halt kaum noch, aktuell borderlands 2 und das wars. lol und aktuell battle royal haben mich nie interessiert.
was die spielevielfalt angeht, find ich die aktuelle entwicklung aber gut auch dank der indiewelle. die besetzen halt die nischen, die die grossen nicht mehr besetzen wollen. daher bin ich nicht sicher ob es heut soviel schlechter ist als um 2000 rum.

@Tesseract:
musste da mehr an quake und ut denken.
da gings doch bei king of the hill mehr darum der beste (einzige) zu sein am ende, oder? das aktuelle bietet mehr optionen, das ist richtig. der faszination kann ich trotzdem nicht folgen. ;)

Gebrechlichkeit
2018-04-25, 10:09:51
daher bin ich nicht sicher ob es heut soviel schlechter ist als um 2000 rum.


100% schlechter. Die Tendenz geht in Richtung "milk the cow" ... und es gibt kein Ridge Racer ergo = #~|~·@ Generation :biggrin:

Ich liebe Type 4, aber .. das zocke ich ungern ein XXmal. Warum werden die Games nicht portiert und aufgehuebscht? Onimusha in 4K?! ... Bloodborne, GT Sport, U4, W3 etc. hin oder her, im Vergleich zur PS2 ... kommen aktuell bei mir nur noch 1st Party Games ins Haus. Es gibt nicht einmal ein verf@##|~| neues Toyko Extreme ... FU Genki! Das online mit Clubs duerfte gut ankommen....

Fragman
2018-04-25, 12:01:32
100% schlechter. Die Tendenz geht in Richtung "milk the cow" ...

ich mach das einfach nicht mit-->problem solved. :D

HOT
2018-04-25, 12:05:56
[immy;11679493']Via wäre auch noch da gewesen ....
da man eh CPU & GPU von verschiedenen hatte, naja.
Allerdings produziert Via heute noch sehr stromsparende x86er CPUs, aber keine Ahnung ob die sich jemals bei solchen "Ausschreibungen" beteiligt haben.
Das war nicht möglich, da niemand außer Intel x86-Lizenzen vergeben kann. Damals gab es noch kein semi-Custom und Fremdproduktion war für x86 eben ausgeschlossen. VIA bzw. Konzernmutter Formosa musste sich durch den x86-Djungel auch durchklagen und Klagen von Intel widerstehen, um überhaupt x86er für den "Eigenbedarf" produzieren zu dürfen. AMD musste (!) 80% der x86er in-house produzieren, da wär sowas wie die Abspaltung der Fertigung gar nicht möglich gewesen. Erst der Deal zwischen AMD und Intel nach dem Kartellprozess ermöglichte überhaupt semi-Custom-Modelle und Produktion bei Fremdfertigern und damit x86er in Konsolen.

Ganon
2018-05-19, 10:52:36
Ein Mitarbeiter aus dem Sony Playstation Compiler Team reicht anscheinend LLVM-Compiler Patches für die Architektur "zenver1" ein.

https://www.phoronix.com/scan.php?page=news_item&px=Sony-LLVM-Ryzen-Improvements

Ryzen APU in der PS5? Vielleicht sogar noch Zen 1?

Loeschzwerg
2018-05-19, 15:26:47
Zen 2 ist mMn zu spät dran für die Konsolen. Die Optimierungen von Zen "1" zu Zen "1+" dürften sich dagegen recht leicht umsetzen lassen.

StefanV
2018-05-19, 15:54:12
Ryzen APU in der PS5? Vielleicht sogar noch Zen 1?
Ja, wahrscheinlich. Die müssen das ganze schon jetzt evaluieren, wenns in 2 Jahren fertig sein soll.
Das heißt die Spec wird fertig sein, was die Grafik (leider) auf VEGA limitiert...

Die Frage ist, ob das für 8 Cores reichen wird oder ob man sich mit 4 + SMT zufrieden geben wird.
Aber ich denke, dass man bei 8 bleiben wird. Wenn die PS5 auf den Markt kommt, sollte 7nm laufen.
Da man ja bei der ursprünglichen PS4 auch einen 350mm² Chip nutzte, lässt das also noch sehr viel Spielraum für eine GPU.

Persönlich würde ich auf etwa 2,5GHz tippen, was aber schon eine enorme Steigerung zur aktuellen PS4 ist.
Bei dem Grafikchip müsste das doch für 'nen ~3k Shader VEGA etwas eng werden, oder??

Ich meine, in 2020 wird man ja wohl mit 7nm Fertigung planen, da sollte doch was schönes drin sein, oder?

Crazy_Bon
2018-05-19, 15:57:08
Zen2 steht doch erst für 2019 auf der Roadmap und eher wird eine neue Konsolengeneration eh nicht erscheinen. Der Jaguar auch erst ab Mitte 2013 produktziert und und die Konsolen erschienen im November 2013.

Loeschzwerg
2018-05-19, 16:03:42
Zum Start der Entwicklung dürfte das Zen2 Design wahrscheinlich noch nicht fertig gewesen sein (Jan/Feb diesen Jahres hieß es dass das Design von Zen2 fertig ist). Ich denke es bleibt bei Zen+ (was aber auch ausreicht).

Aber ich denke, dass man bei 8 bleiben wird.

Hinsichtlich Kompatibilität gehe ich ebenfalls davon aus.

iuno
2018-05-19, 16:09:42
Ist doch eh schon ein echt dickes Upgrade von Jaguar auf Zen1. Ich hoffe nur, dass es bei 8 Kernen bleibt.
Aber wenn das Design schon fertig ist wird es wohl leider nichts mit Hardware-tracern :usad:

aufkrawall
2018-05-19, 16:20:33
Auf den Konsolen sollte man immerhin aus Zen1 das Maximale durch optimale RAM-Timings herausholen können.
Bez. RT hätte ich noch Hoffnung wegen der Flexibilität von AMDs Custom-Sparte.

StefanV
2018-05-19, 18:32:16
Die Frage ist aber, welchen Speicher man verwenden wird...
Bleibt man bei GDDR-SDRAM?? Und wenn ja, bleibt man bei 256bit oder geht man auf 384bit?
Oder haut man richtig aufn Topf und nutzt HBM??

Da wir von 2020 sprechen, wären 16GiB HBM möglich...
An 32GiB glaube ich nicht...

Iterator
2018-05-20, 05:46:33
Microsoft sucht ja schon seid geraumer Zeit einen Electrical Engineer DRAM Memory Lead, per Stellenanzeige für das Xbox Hardware Dev. Team (https://careers.microsoft.com/us/en/job/419789/Sr-Electrical-Engineer-DRAM-Memory-Lead-XBOX).


We are seeking a qualified candidate for a Senior Engineer to lead the DRAM solutions for the Xbox console hardware development team. DRAM solutions include DDR3, GDDR5, GDDR6 and future DRAM technologies.



Jetzt könnte man wie Du es schon getan hattest, spekulieren auf was sie in der nächsten Konsole setzten werden. Von mir aus "billigeren" GDDR6 (als HBM2). Aber dafür darf es dann ruhig etwas mehr sein. :biggrin:

iuno
2018-05-21, 13:09:43
Mir kam der Gedanke, dass MS ja eigentlich auch die Moeglichkeit haette, Semi-Customs kuenftig in ihren anderen Produkten einzusetzen, die sie inzwischen haben. Insbesondere das Surface AiO z.B. Oder direkt eine Slim zum Launch mitbringen, die weniger Recheneinheiten hat, aber dafuer auch billiger ist und deren SoC z.B. auch noch im Notebook eingesetzt werden koennte. Falls man auf HBM setzt, wuerde das den Preis durch hoeheres Volumen noch weiter druecken, da man auf diese Weise auch salvage Chips verbauen koennte, sowieso. Und beim Topmodell koennte man dafuer vielleicht voll hinlangen, anstatt genrell CUs zu deaktivieren.
Was haltet ihr davon? Ich finde es schon etwas seltsam, dass bei Konsolen keine salvage gibt und die Surface-Familie ist ja in den letzten Jahren nur gewachsen.

pixelguy
2018-05-22, 17:41:23
Jetzt ist von 2021 die Rede: https://www.computerbase.de/2018-05/playstation-5-release-2021/

gravitationsfeld
2018-05-22, 17:56:52
Die Frage ist aber, welchen Speicher man verwenden wird...
Bleibt man bei GDDR-SDRAM?? Und wenn ja, bleibt man bei 256bit oder geht man auf 384bit?
Oder haut man richtig aufn Topf und nutzt HBM??

Da wir von 2020 sprechen, wären 16GiB HBM möglich...
An 32GiB glaube ich nicht...
Alles unter 32GB ist laecherlich.

StefanV
2018-05-22, 18:21:26
Alles unter 32GB ist laecherlich.
Hm, in 2-3 Jahren denke ich, dass du Recht hast.
Ich bin da zu sehr vom aktuellen Zustand ausgegangen...

gravitationsfeld
2018-05-22, 18:30:10
Die Verzoergung ist wahrscheinlich sogar mit auf die RAM-Situation zurueckzufuehren, habe ich ja schon diverse Male ausgefuehrt. Neue Konsolen raus zu bringen mit unter 32GiB RAM ergibt null Sinn. Eigentlich ist sogar 32 zu wenig.

HOT
2018-05-22, 19:36:53
Ich denke eher, die sind auf HBM aus. Die Konsolen dürften ja kaum vor Ende 2020 zu erwarten sein, bis dahin dürfte sich die Preissituation auch für HBM entspannen. Ich denke, es wäre Wahnsinn eine neue Konsole ohne HBM zu bauen aus Platz und Perf/W-Sicht.

Nightspider
2018-05-22, 19:49:20
Könnten mehrere Dinge sein. RAM, NAND, ausgereifter 7nm Prozess, günstigerer HBM2/3 Speicher oder GDDR6.

Die PS4 Pro hält ja noch super durch und MS wird so schnell keinen Nachfolger bringen. Sony könnte halbwegs gut durchhalten.

Wäre nur schade für die Gamer die sich modernere Games wünschen.

00-Schneider
2018-05-22, 19:55:47
Was sind die Vorteile von HBM-RAM ggü. GDDR-RAM?

prinz_valium
2018-05-22, 20:13:28
Die Verzoergung ist wahrscheinlich sogar mit auf die RAM-Situation zurueckzufuehren, habe ich ja schon diverse Male ausgefuehrt. Neue Konsolen raus zu bringen mit unter 32GiB RAM ergibt null Sinn. Eigentlich ist sogar 32 zu wenig.
;D

Ram ist schon lange nicht mehr der größte Flaschenhals bei Gaming und Konsolen.
32 ist mehr als genug für die nächste Generation in 2020 +/-1

Nightspider
2018-05-22, 20:22:27
Was sind die Vorteile von HBM-RAM ggü. GDDR-RAM?

Geringerer Strom-und Platzbedarf als GDDR6, glaube auch minimal geringere Latenzen.

;D

Ram ist schon lange nicht mehr der größte Flaschenhals bei Gaming und Konsolen.
32 ist mehr als genug für die nächste Generation in 2020 +/-1

Er ist Spiele-Entwickler und ganz vorne dabei, was tech betrifft. Ich würde ihm glauben an deiner Stelle.

StefanV
2018-05-22, 21:17:05
Was sind die Vorteile von HBM-RAM ggü. GDDR-RAM?
Höhere Transferraten bei niedrigerem Stromverbrauch, nur ein Bruchteil von dem GDDR Platzverbrauch.


Schau mal hier, wie viel Platz GDDR-5 SDRAM bei der PS4 verbraucht (https://www.ifixit.com/Teardown/PlayStation+4+Teardown/19493), hier die Pro (https://www.ifixit.com/Teardown/PlayStation+4+Pro+Teardown/72946), hier die XBox one X (https://www.gamersnexus.net/guides/3115-xbox-one-x-tear-down-modularity-is-impressive).

Kurz:
das PCB nimmt etwa 1/4 vom Platz ein, ev. gar weniger.

Du kannst also enorm Platz sparen, die Konsole deutlich kompakter gestallten (wenn du nicht durch (opt.) Laufwerke und so limitiert wirst).

Und genau DAS ist die größte Frage, IMO, ob man bei der nächsten Generation auch auf opt. Laufwerke setzen wird oder auf Flash...

Pro: Opt. Laufwerk nimmt ~1/3 vom Platz ein.
Con: opt. Disc sind relativ billig...

Loeschzwerg
2018-05-23, 06:54:17
Arg viel kleiner wird es nicht werden, wenn man bei der TDP Klasse einer PS4 / XBone bleibt.

Ob HBM oder GDDR ist eine reine Kosten / Nutzen-Frage.

Daredevil
2018-05-23, 07:27:26
Ein Intel NUC kann ja mittlerweile auch sehr klein sein und sehr viel leisten.
Wieso also nicht auch auf Konsolen adaptieren, wenn man es mit HBM hinbekommen kann?

Wär ich zwar kein Fan von, weil man es mit größer immer leiser machen kann, aber möglich ist des dennoch.
Eine kleinere Kühlung und kleinere Platine/Gehäuse/Netzteil bedeuten ja auch Kosteneinsparungen.

Loeschzwerg
2018-05-23, 08:34:37
Viele empfinden die PS4 schon als zu laut. Insofern erwarte ich nicht dass die Systeme großartig kleiner werden, denn hier müssten die Hersteller in aufwändigere Kühlung investieren, welche wiederum die Kosten treiben. Vorausgesetzt natürlich man bleibt bei der gewohnten Leistungsdichte.

Bei der Menge an benötigten Konsolen frage ich mich zudem ob genügend HBM Kapazitäten bzw. beim Assembly des Packages vorhanden sind. Engpässe oder Kostentreiber auf dieser Seite wollen die Herren Sony / MS sicher nicht.

Daredevil
2018-05-23, 08:38:20
Zudem wäre die Größe auch bestimmt sehr kostspielig.
Die OneX kommt ja schon mit 12GB daher, aber wer weiß, was in xxx Jahren so sein wird. ^^

IC3M@N FX
2018-05-23, 09:53:54
Meiner Meinung nach ist 32GB sehr unwahrscheinlich, die RAM Preise steigen und steigen.
Ich denke eher 24GB GDDR6 RAM, selbst auf dem PC wird 8-16GB
DDR4 momentan nicht wirklich ausgelastet.
Das wird sich auch bis 2019/20 nicht wirklich ändern sondern mehr in Richtung 16GB gehen als Standart.
Der RAM Verbrauch im GPU Bereich bei Spielen ist im durchschnitt bei 4,5-6GB.
Wenn die GPU von der Leistung her nicht limitiert, und sich die Entwickler sich nicht dumm anstellen und optimieren in 4K bleibt es in diesen Bereich.
Wir reden jetzt nicht von Ultra Settings in 4K + Highres Mods, klar es wird immer das ein oder andere Spiel geben das einfach mehr will.
Diese Titel kann man aber mit der Hand abzählen.

Platos
2018-05-23, 10:28:44
Bei der Konsole ist der Speicher Grafikspeicher und Arbeitsspeicher zusammen. Wie viel mal muss man das noch anmerken ^^.

8GB ist jetzt schon standart und 8GB Ram wird jetzt schon aufgebraucht. Also 16GB pfeifft jetzt schon aus dem letzten Loch. Das wird sich in 3 Jahren natürlich nach oben verschieben. Und in 3 Jahren sind Speicherpreise auch sicher nicht mehr das Problem.

Edit: Wann gab es bei der PS4 bzw. PS4 Pro die ersten Leaks (also keine Wunsch-Gerüchte) von der Hardwareseite her gesehen? Also wie viel or dem tatsächlichen Release?

xyleph
2018-05-23, 17:37:20
Ca. im März 2012, das waren ziemlich konkrete Hardwareinfos von SemiAccurate, wenn ich mich nicht irre, kann auch Kotaku gewesen sein.
Jedenfalls so pie Maul Daumen 20 Monate vor Release.

Platos
2018-05-23, 19:41:23
Ok, danke. Dann kann man wohl frühestens Sommer 2019 mit Leaks rechnen. Mal sehen was daraus wird. ich hoffe auf 64GB speicher und mehr als 8 Kerne

Käsetoast
2018-05-24, 11:14:58
Naja ich würde aber auch mal die Frage stellen inwiefern mehr Speicher auch einen sichtbaren Vorteil liefert. Würde man wirklich so viel Unterschied sehen wenn man 24 anstatt 8 GB hätte? Oder vielleicht stelle ich die Frage besser so: Ist das Geld da wirklich gut angelegt? Wären 16 GB die durch HBM dann aber sehr schnell angebunden sind nicht die bessere Wahl und man investiert das Geld lieber in eine stärkere GPU? Ich denke bei der kommenden Generation wird 4k ein großes Thema sein und da braucht man in erster Linie mehr Dampf unter der Haube als mehr Speicher um auf dem Fernseher dann auch ein besseres Bild zu kriegen. 32 GB Speicher wäre schon ein Kostenpunkt wo ich nicht weiß ob man durch vergrößerte Texturauflösung jetzt einen sooo großen Unterschied sehen würde. Selbst bei aktuellen PC Spielen fällt es mir schon schwer einen Unterschied zwischen High und Ultra Qualität zu sehen wo oft die Texturauflösung ein Stück steigt...

Ich sehe da eher 16, vielleicht 24 GB Speicher für die nächste Generation mit falls bis dahin preislich möglich schnellem HBM Speicher (was eben auch schnelles Nachladen in den Speicher ermöglicht). Mehr Speicher dürfte nur marginale Verbesserungen in der visuellen Qualität bringen und so ist es besser das Geld in einen potenteren Grafikchip zu investieren. Eine Rüstung mit guter Raytracing Spiegelung macht mehr her als zu sagen "Guck mal - die Textur von dem Stein auf dem Boden ist jetzt was schärfer!". Ich denke mit 16 GB Speicher hat man was Texturen angeht einen ausreichenden Sprung bzw vielleicht legt man noch 4-8 GB drauf für das Betriebssystem & Co so dass Spiele tatsächlich 16 GB Speicher haben. 32 GB oder gar mehr halte ich da für eine nicht effiziente Nutzung des Budgets. Mehr Speicher wird das optische Endergebnis jetzt nicht auf ungeahnte Höhen heben. Klar - es sollte schon mehr Speicher werden aber wir sind jetzt an einem Punkt wo mehr Auflösung von Texturen keine gigantischen Sprünge in der visuellen Qualität mehr bringt. Ich sehe rohe Rechenkraft gerade im Hinblick auf 4k als wichtiger an und mit Dingen wie etwa Rüstungen oder Böden von Thronsälen die spiegeln erzeugt man viel eher einen wow Effekt bei Spielern als wenn man irgendwo 4096x4096 anstatt 2048x2048 Texturen für kleine Detailelemente benutzen kann...

Fragman
2018-05-24, 12:07:45
hbm ist doch aktuell tot bei allem unter midrange und selbst bei midrange hat amd probleme die kosten in den griff zu bekommen. bevor das problem nicht geloest ist, wird doch keiner hbm einsetzen wollen?

Käsetoast
2018-05-24, 12:14:02
Da ist halt die Frage, ob sich das in den nächsten 2-3 Jahren ändert. Die Preise, mit denen AMD ursprünglich kalkuliert hatte, waren ja noch ganz andere und eventuell erreicht man in den kommenden Jahren dann endlich dieses Niveau...

Aber klar - mit GDDR fährt man wahrscheinlich sicherer, wobei auch da für die 6er Generation noch irgendwas schieflaufen kann. Ich kann mir aber vorstellen, dass HBM in Konsolen schon richtig Sinn machen könnte gerade wo man da ständig Sachen aus und in den Speicher schaufelt, um aus der gegebenen Speichermenge das Optimum rauszuholen...

amdfanuwe
2018-05-24, 12:44:45
Denkt auch mal an die AR bzw. VR Fähigkeiten der nächsten Konsolen.
Vielleicht kommt da eher was zum auf den Rücken schnallen.

Termin 2021 ist klar, die erste 7nm Generation nächstes Jahr ist noch zu teuer.
2021 dürfte dann die günstigere 2te 7nm Generation mit EUV Massentauglich sein.

Da dürfte es dann auf ZEN 3 Kerne hinauslaufen. 8Kerne/16Threads scheinen mir plausibel da es günstig sein muß. Bis 2021 ist AMD schon beim Navi Nachfolger, bisher noch ohne Namen und mit Next Gen bezeichnet. Wer weiß, was da drin steckt. Sicherlich für 4k schnell genug. Eventuell mit Ray Tracing und KI unterstützung.
Ob es wieder ein monolitischer Chip, eine APU wird? Könnte mir genauso vorstellen, dass AMD etwas wie Intels MCM Kaby Lake-G bringt. Oder was von der Stange, eine mobile NG GPU mit 16GB HBM + herkömmlicher CPU.

Für HBM wird aktuell erst die Produktion hochgefahren https://news.samsung.com/global/samsung-starts-producing-8-gigabyte-high-bandwidth-memory-2-with-highest-data-transmission-speed
zudem setzen auch Intel und Xilinx HBM ein.
Der größte Vorteil ist halt der geringere Platzverbrauch von HBM.
In 2 Jahren könnte es eher sein, dass GDDR 6 teurer als HBM ist, wenn diese nur noch von Nvidia eingestzt werden.

IC3M@N FX
2018-05-24, 13:23:29
Ich hab das schon PS4 Spiele Thread gepostet aber hier gehört es eher hin, ich finde diesen gedankengang interessant da es viele Vorteile mit sich bringt.

Was spricht eigentlich dagegen die Playstation 5 Modular aufzubauen im Gehäuse in zwei Teile:

Einmal das Hub also das Gehäuse z.b mit UHD Bluray Laufwerk, Festplatte (austauschbar) WLAN/LAN Modul mit Antennen im Gehäuse, USB Schnittstellen und diverse Elektronik, Sensoren eventuell auch Netzteil dient als I/O Hub. Alleine diese Komponenten machen 30-40% des Konsolenpreises aus und benötigen sicherlich nicht viel Bandbreite von der Schnittstelle zum Motherboard.

Einmal das Core Modul mit Motherboard CPU/GPU APU, diverse Chips, Arbeitsspeicher, eventuell Netzteil, HDMI usw. es würde dann wie ein Rack/Modul per PCI Express/USB 3.X ähnliches oder eine vergleichbare Schnittstelle eigens von Sony verbunden oder angedockt.

Damit würde man sehr viel kosten sparen und könnte nach 3-4 Jahren nach dem Release einen Evolution Kit raus bringen einer art PS5 Pro Rack/Modul.
Die Kunden brauchten dann nur noch das Kit zu kaufen anstatt die komplette verbesserte Konsole.
Es wäre für alle beteiligten viel günstiger und man würde den Kundenkreis stärker erweitern.
Wer dann aufrüsten will kann das dann tun und hat immer die Option das er es auch kann ohne gleich die komplette Konsole neu zu kaufen.
Ich hab mal eine primitive Skizze gemacht wie ich es mir so vorstelle.

Grau: PS5 Hub Schwarz: Core Modul und eigentliche Konsole

https://preview.ibb.co/dESmrT/ps5.png (https://ibb.co/mqhako)

Wichtig ist das der Evolution-Kit Architekturtechnisch komplatibel ist mit der Day One Edition.
Den Lebenszyklus der gesamt Konsole könnte man auf 9-10 Jahre setzen.
Zum Beispiel die Konsole kostet 400-450€, die Module dann 200-300€ wenn sie rauskommen. Sony sollte maximal 1-2 Module in zeitlichen Abständen planen, damit es keine allzu starke fragmentierung entsteht.

1.) Hauptkonsole Day One Modul 2020/21
2.) Pro Modul 2023/24
3.) Pro Modul V2 2026/27

Ich finde die Idee eigentlich sehr gut und inspiriert von der Nintendo Switch, man gibt den Kunden eine gewisse Nachhaltigkeit und Zukunft was die Plattform angeht.
Der Kunde hat nicht das Gefühl etwas 2 mal zu kaufen wenn er mehr Leistung haben will da das Grundgerüst vorhanden ist.

pixelguy
2018-05-24, 13:40:58
Interessant, aber ich denke das wird alles für den Endkunden zu kompliziert und unübersichtlich.

Ich fände es gut, wenn die Dinge wie das Bluray Laufwerk extern anbieten und nicht mehr fest verbauen... Ich habe nur ein Spiel auf Disc und auch nur, weil es im Bundle dabei war. Und als Player nutze ich es auch nicht...

Entweder die verkaufen eine Version mit Disc/kleiner HD und eine ohne Disc/große HD oder sie senken den Preis der Konsole dadurch für viele mit ausreichend Netz.

IC3M@N FX
2018-05-24, 13:58:58
Interessant, aber ich denke das wird alles für den Endkunden zu kompliziert und unübersichtlich.

Ich fände es gut, wenn die Dinge wie das Bluray Laufwerk extern anbieten und nicht mehr fest verbauen... Ich habe nur ein Spiel auf Disc und auch nur, weil es im Bundle dabei war. Und als Player nutze ich es auch nicht...

Entweder die verkaufen eine Version mit Disc/kleiner HD und eine ohne Disc/große HD oder sie senken den Preis der Konsole dadurch für viele mit ausreichend Netz.

Finde ich nicht man beschreibt die Module einfach bei seinem namen:
PS5
PS5 Pro
PS5 Extended

Wichtig ist das man sie mit genügend zeitlichen Abständen Released das man Missverständnisse ausschließen kann beim Endkunden.
Auf keinen Fall sollte man komplizierte Begriffe nehmen oder nichts sagend wie Modul A,B,C gegenüber dem Endkunden Otto.

Käsetoast
2018-05-24, 14:31:24
Drei Module in einer Generation halte ich für zu viel Fragmentierung des Zielmarktes zumal es dem Kunden nur schwer zu vermitteln sein wird. Man behalte im Hinterkopf, dass viele nichtmal den Unterschied zwischen Wii und Wii U begriffen haben. Da wären drei Module, die alle irgendwie Playstation 5 heißen absoluter Overkill. Auch ist es denke ich für die Spielehersteller ein Problem ihre Spiele für drei unterschiedliche Plattformen zu testen / auszulegen...

Ansonsten glaube ich aber nicht, dass sich dieser modulare Ansatz wirklich lohnt. Im Endeffekt separierst du nur das optische Laufwerk, die Festplatte und vielleicht noch das Netzteil (wobei das möchte man ja vielleicht nachträglich an eine höhere / niedrigere Leistungsaufnahme anpassen) von der eigentlichen Hardware im Sinne von CPU, Mainboard, GPU & Co. Ich denke da würde es mehr Sinn machen wie erwähnt einfach Dinge wie das optische Laufwerk optional zu machen und man stöpselt das an. Das wäre auch entwicklungstechnisch wesentlich einfacher zu machen als den eigentlichen "Rechner" inklusive evtl. Netzteil woanders dranzustöpseln. Dinge sie eSATA gibt es schließlich schon lange und darüber blu Ray Laufwerk und SSD anzuschließen wäre recht simpel. Außerdem musst du es so sehen: Wenn du die SSD mitnehmen könntest, könntest du "deine Konsole" zu einem Freund mitnehmen bzw. falls ein Hardwareschaden (RRoD etc.) auftritt brauchst du nix neu installieren / einrichten, weil du dann einfach deine SSD an eine neue, reparierte Hardware anstöpselst. DAS fände ich wesentlich komfortabler als irgendein komisches modulares System, wo du den eigentlichen Rechner irgendwo anstöpselst. Außerdem hätte ein modulares optisches Laufwerk (das in Tagen des Internets viele nicht mehr bräuchten) auch den Vorteil, dass du die eigentliche Konsole günstiger verkaufen kannst und ich denke das ist ein viel größerer Vorteil als dein Konstrukt es jemals wäre...

Meiner Meinung nach das Pferd von der falschen Seite aufgesattelt wobei das jetzt härter klingt als es ist - die Idee ist eigentlich ja quasi identisch, nur das es sich im Endeffekt darum dreht die bisherige Playstation der Laufwerke zu entledigen und diese über eSATA & Co anschließbar zu machen. Anstatt die eigentliche Hardware modular zu machen lieber alles was an den Grundrechner drangestöpselt wird modular machen. So kannst du dir dann eine PS5 Pro kaufen, die ohne Laufwerke daher kommt und damit günstiger ist, du stöpselst deine Laufwerke dran und kannst direkt loslegen ohne groß was neu einrichten zu müssen (ggf. wird automatisch ein entsprechendes Update gezogen)...

Allerdings glaube ich nicht, dass sowas kommen wird. Das wird noch schlimmer wie bei Nintendo Geräten, wo kein Netzteil mehr beiliegt. Da wird es viele enttäuschte Gesichter geben wenn die Kids die Konsole auspacken und loslegen wollen und dann feststellen, dass ihnen dazu aber noch was fehlt. Das dürfte den Kunden auch nur schwer zu verklickern sein. Eltern wollen ins Geschäft gehen, PS5 kaufen und fertig. Die werden nicht wissen, dass man dafür nun 2 Komponenten braucht die separat gekauft werden müssen...

amdfanuwe
2018-05-24, 22:03:22
In 3 Jahren braucht es keine BlueRay mehr, wird eh nur noch gestreamt.
Intern eine 512GB M2 SSD reicht für die ersten 2 Spiele, wer nicht in der Cloud speichern möchte legt sich noch eine externe 4 TB USB HD zu.

pixelguy
2018-05-24, 22:23:35
Es gibt aber auch Gebiete, in denen es auch in 3 Jahren nicht genug Bandbreite für so etwas gibt.

IC3M@N FX
2018-05-25, 06:56:19
Es gibt aber auch Gebiete, in denen es auch in 3 Jahren nicht genug Bandbreite für so etwas gibt.

Kann ich bestätigen ich wohne in Frankfurt am Main in der Innenstadt ich hab gerade mal eine 50 Mbit Leitung.
Die Zeit der Streaming Konsole ist es noch nicht, erst in 10-15 Jahren vielleicht. Dann bin auch wieder zu alt fürs Zoggen und dann ist es auch mir egal was danach passiert :freak:

StefanV
2018-05-25, 08:58:36
Wie es ausschaut, wurde Sony beim nachdenken über einen Nachfolger von der PSP und Vita erwischt:
https://hypebeast.com/2018/5/sony-portable-gaming-playstation-5

Ganon
2018-05-25, 09:05:03
Ich vermute du meinst Sony und nicht Nintendo. Aber ja. Sony hat schon immer Nintendo nachgemacht und "alles mal 2" genommen. Eine Schultertaste bei Nintendo, zwei bei Sony. Ein Analog-Stick bei Nintendo, zwei bei Sony. Ein Rumble Motor bei Nintendo, zwei bei Sony. Eine Wiimote bei Nintendo, zwei bei Sony. :D

Würde mich also echt nicht wundern, wenn Sony jetzt auch das Switch Dock Konzept nachbaut und hier und da für einen höheren Preis noch mehr dran klatscht. Es ist halt nur die Frage, ob sie das Konzept auch ordentlich und sinnvoll durchziehen und nicht nur sagen können: "Schau, wir haben auch sowas".

Crazy_Bon
2018-05-25, 09:31:40
Da kann man aber auch glatt sagen, daß Nintendo nur halbe Sachen machte und dennoch damit erfolgreich war.

edit: Die PS Vita ist ein wirklich tolles Handheld, hat aber von Sony selbst zu wenig Zuwendung bekommen, da ihr Hauptaugenmerk auf die PS4 lag. Sie haben zu Gunsten der PS4 die Vita verhungern lassen, es ist einfach nichts mehr nennenswertes dafür erschienen und das haben alle so akzeptiert. Wozu eine neue Handheldkonsole? Damit sie nach einem Jahr Support wieder was in den Hintern treten können?

THEaaron
2018-05-25, 09:51:59
Die Vita hat eigentlich kein schlechtes Lineup. Der größte Kritikpunkt meiner Meinung nach waren die Preise für die Speicherkarten. Das geht auf keine Kuhhaut was die dafür haben wollten.

Ganon
2018-05-25, 10:14:52
Da kann man aber auch glatt sagen, daß Nintendo nur halbe Sachen machte und dennoch damit erfolgreich war.

Ist unabhängig voneinander. Immerhin hat jetzt jeder Controller mehrere Motoren, Analog-Sticks und Schulter-Tasten. Aber bei den Motion Controls hat Nintendo einfach das solidere, "durchgezogene" Konzept. Bei Sony war das nur ein "Schau mal, haben wir auch, benutzen wir nur nicht". Auch die doppelten Analog-Sticks waren damals bei der PS1 oft total nutzlos. "Hauptsache doppelt". Es zeigte sich bei vielen Spielen, dass die Entwickler keine Ahnung hatten, was sie damit eigentlich anfangen sollen.

Das ist halt auch der Grund warum Sony meiner Meinung nach bei "Innovation" eher hinten dran hängt. Sie probieren selten was frisches neues aus, sondern bauen das nach was bei anderen erfolgreich war. Sie vergessen nur, es dann auch zu unterstützen. Unterstützen heißt hier auch: Den Entwicklern zeigen was möglich ist.

Gebrechlichkeit
2018-05-25, 11:27:24
Würde mich also echt nicht wundern, wenn Sony jetzt auch das Switch Dock Konzept nachbaut und hier und da für einen höheren Preis noch mehr dran klatscht.

Naja .. wenigstesn wuerde die Sony Variante dann mehr als bloss eine simple Schleife fuer das Signal sein/bieten. #€80 Platikschrott... Sony hat wohl alles bei nintendo abgekupfert, vom analog Sticks bis hin zur motion controls. Dachte diese Narrative waere laengst passé. :wink:

StefanV
2018-05-25, 11:34:06
Naja, das interessante ist, dass sie diesmal die gleiche Architektur verwenden könnten und z.B. einen 4 Kerner für die mobile Version verwenden (k/a, 1GHz oder 1,5GHz) mit 'ner kleinen 4CU GPU.
Das sollte man in 5-15W hin bekommen.

Ganon
2018-05-25, 11:38:17
Naja .. wenigstesn wuerde die Sony Variante dann mehr als bloss eine simple Schleife fuer das Signal sein/bieten. #€80 Platikschrott...

HDMI-Kabel, Netzteil und USB3-Hub ist da aber auch mit bei. Ist also nicht nur eine "simple Schleife". Günstig natürlich nicht, aber was meinst du wie teuer ein Dock mit extra Verarbeitungs-Hardware wäre ;) Wird man ja vielleicht bei Sony dann sehen.

EL_Mariachi
2018-05-25, 11:57:05
Die Vita hat eigentlich kein schlechtes Lineup. Der größte Kritikpunkt meiner Meinung nach waren die Preise für die Speicherkarten. Das geht auf keine Kuhhaut was die dafür haben wollten.

das ist korrekt... hier macht nintendo im Vergleich alles richtig...
(SD bzw. Micro SD 4 the win)

Ich hab mir die PS Vita zwar auch gekauft, habe aber nur 2 8GB Speicherkarten.
Aktuell kostet eine 32 GB Vita Karte immer noch ca. 70 Euro...

Nuja .. die wollen mein Geld halt nicht! :)

.

StefanV
2018-05-27, 23:53:53
Glaubt ihr, die PS5 wird 'ne 4 Core CPU mit SMT haben und wird man damit PS4 Spiele auch spielen können???

Nightspider
2018-05-27, 23:59:59
Nein und ja.

Korvaun
2018-05-28, 11:44:24
PS5 soll ja erst 2020/2021 kommen. Da ist dann sicher ein 7nm-chip drin mit 8 Zen Kernen + SMT und ner ordentlichen Grafiklösung auf NAVI-Basis. 16GB HBM2 oder GDDR6, je nach Sonys Wünschen...

Und PS4 Spiele laufen dann natürlich auch auf der PS5, außer Sony sperrt das per Software um noch mehr Kohle zu verdienen mir remastered Zeug u.ä.

Dino-Fossil
2018-05-28, 11:48:22
Man könnte, falls Zen2 mit größeren CCX kommt auch relativ leicht sowas machen wie 12 Kerne ohne HT...

Nightspider
2018-05-28, 11:50:39
lol, Ende 2019 könnte man schon mit 7nm 8-12 Zen Kerne verbauen.

Ab Ende 2020 gibts 5nm. 2021 könnte man dann 16 Kerne und mehr verbauen.

aufkrawall
2018-05-28, 11:54:27
Man könnte, falls Zen2 mit größeren CCX kommt auch relativ leicht sowas machen wie 12 Kerne ohne HT...
SMT braucht doch kaum Fläche. Es macht keinen Sinn, das wegzulassen.

dargo
2018-05-28, 12:01:11
Sehe ich auch so.

Ich tippe mal bei der PS5 auf 6C/12T bis 8C/16T @7nm. 2C/4T davon fürs OS und das ganze Multimediazeugs reserviert, Rest für Spiele frei verwendbar.

Käsetoast
2018-05-28, 12:09:50
Was Kerne angeht kann ich mir durchaus vorstellen, dass es bei 8 bleiben könnte. Gegenüber den Jaguar Cores wären vollwertige Zen2 Kerne bei 3+ GHz Takt schon ein gewaltiger Sprung nach vorne. Das könnte für die kommenden Konsolen sogar schon reichen als CPU Upgrade. Die Frage ist nämlich inwiefern die Entwickler acht Kerne bzw. mehr als acht codetechnisch auch ausgelastet kriegen. Ich glaube selbst heute gibt es da noch einige stark belastete Cores und einige, die noch viel Luft nach oben haben und nur zum Teil ausgelastet werden. Da macht es wahrscheinlich mehr Sinn mehr Takt und Cache für nach wie vor 8 Kerne aufzuwenden zusammen mit eben der aufwendigeren Zen Architektur mit höhere IPC gegenüber den recht einfachen CATS Cores anstatt mehr Kerne draufzuballern. Durch 4k dürfte sowieso die GPU Seite der Konsolen den größten Bedarf nach Leistungssteigerung haben...

Ggf. könnte man eine PS5 Pro später mit 12 Kernen nachschieben wo zusätzliche Berechungen dann eben auf den Zusatzkernen ausgeführt werden können, wobei ich nicht weiß ob es so klug wäre innerhalb einer Generation die Anzahl an Kernen zu ändern...

Nightspider
2018-05-28, 12:12:20
Sehe ich auch so.

Ich tippe mal bei der PS5 auf 6C/12T bis 8C/16T @7nm. 2C/4T davon fürs OS und das ganze Multimediazeugs reserviert, Rest für Spiele frei verwendbar.

2 fette Zen+ oder Zen 2 Kerne für Multimedia? Ganze 25% der CPU Rechenleistung? what? xD

Eher werde ich Papst