PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Next-Gen-Konsolen?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 [24] 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39

Hayab
2013-02-02, 03:41:46
8GB waeren echt erfreulich, damit endlich der Texturmatsch aus den Multiplattformtiteln verschwindet. Dank Tessalation, LOD Sichtweiteverschiebung, Shader und Partikeleffekten, kann man dann auf dem PC mehr Dreiecke auf dem Bildschirm zaubern, wenn man die passende Hardware dazu hat.

TheCounter
2013-02-02, 08:39:41
Das lese ich zum ersten Mal. Quelle?

http://lmgtfy.com/?q=ps4+2gb

AffenJack
2013-02-02, 09:35:38
Deine "Quelle" zeigt doch schon was fürn Blödsinn das ist. Die 2 gb entspringen alten Spekulationen, wo aber auch 4 Steamroller Kerne drin sein sollten. Die hamse bestimmt auch nur mal so weggezaubert und dafür 8 Jaguarkerne reingebaut.

AnarchX
2013-02-02, 10:16:27
Naja, wären -8- GB GDDR5 nicht etwas arg teuer?

Mit wohl $150 allein für die Speicherchips müsste man da wohl schon rechnen. Dazu käme noch ein komplexes, anfälliges PCB, wo man 16 bzw. gar 32 Speicherchip verlöten muss. Langfristig dürften die Preise und die Chipmenge natürlich auch ein vernünftiges Maß sinken.

Crazy_Bon
2013-02-02, 10:32:00
Zählen die 8GB nicht eher zu den Dev-Kits? Man sollte die Specs nicht durcheinander bringen.

robbitop
2013-02-02, 12:33:19
So teuer ist GDDR5?? Dann ist klar, warum MS und Nintendo lieber DDR3 nutzen und mit eDRAM kombinieren.

dargo
2013-02-02, 12:42:10
So teuer ist GDDR5?? Dann ist klar, warum MS und Nintendo lieber DDR3 nutzen und mit eDRAM kombinieren.
Was heißt denn so teuer? Hier ist die Rede von gigantischen 8GB GDDR5. Wenn ich das als groben Anhaltspunkt nehmen darf:
http://geizhals.at/de/?cat=gra16_512&xf=1440_HD+7970+GHz+Edition~545_Sapphire#xf_top

trennen die beiden Karten ca. 135€. Und der Unterschied sind nur 3GB. Natürlich müsste man noch Steuern etc. abziehen. Zudem weiß man nicht ob die 6GB Version zusätzlich einen Aufschlag X bekommen hat weil 6GB was tolles ist. ;)

AnarchX
2013-02-02, 12:45:24
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9183751#post9183751
Über $100 dürfte es wohl auf jeden Fall für 8GiB sein, erst recht wenn man nur 16 Chips verlöten will und auf die wohl erst 2013 lieferbaren 4Gbit Chips zurückgreift.

Generell wäre wohl auch 8GiB mit durchgängig >170GB/s schon ziemliche Verschwendung für eine 1,8 TFLOPs GPU und 8 Jaguar-Kerne. Da wäre wohl eher eine >>200GB/s Lösung auf 1-2GiB + 128-Bit DDR3 zu bevorzugen.

Aber technisch machbar und halbwegs bezahlbar wird wohl eine 4GiB GDDR5 Lösung sein, die dank moderner Streaming-Mechanismen schon ein sehr deutlich Sprung sind.

dildo4u
2013-02-02, 12:47:55
Ich hätte lieber 4GB dafür ne kleine SSD.Die Blu Ray wird immer noch vergleichbar Langsam sein hab kein Bock mehr auf sichtbares Streaming.

dargo
2013-02-02, 12:48:47
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9183751#post9183751

Boah... ich habe ewig diese Tabelle gesucht und du kommst jetzt erst damit. :ubash2:

RLZ
2013-02-02, 13:56:14
Ich hätte lieber 4GB dafür ne kleine SSD.Die Blu Ray wird immer noch vergleichbar Langsam sein hab kein Bock mehr auf sichtbares Streaming.
:up:

00-Schneider
2013-02-02, 14:06:11
http://lmgtfy.com/?q=ps4+2gb


Das ist keine Quelle, sondern nur dummes Geschwätz. Glaubst du alles was die Spasten im Neogaf schreiben oder was? ;D

mboeller
2013-02-02, 14:28:37
Ich hätte lieber 4GB dafür ne kleine SSD.Die Blu Ray wird immer noch vergleichbar Langsam sein hab kein Bock mehr auf sichtbares Streaming.

sehe ich wie RLZ: :up:

die PS4 soll ja eine 500GB HDD erhalten....laut Gerüchten. ;)

Wenn man jetzt statt einer normalen HDD eine Hybrid-HDD mit ca. 32GB SSD-Cache einsetzen würde sollte sowas doch reichen, oder?

Spasstiger
2013-02-02, 16:21:58
Eine Cache-SSD ohne HDD könnte schon reichen, um sich viele Lesevorgänge vom optischen Medium zu sparen. Man spielt ja üblicherweise über einen gewissen Zeitraum immer dieselben Spiele.
Und 64 bis 128 GB Flash-Speicher wären mittlerweile bei den Fertigungskosten für eine neue Top-Konsole (Verkaufspreis ~400€) im Rahmen, zumal die Flash-Speicher-Preise in regelmäßigen Abständen sinken. Bis zum Weihnachtsgeschäft (2013) wird man schätzungsweise bei 30 Cent pro Gigabyte angelangt sein (TLC-NAND, 16-20 nm).

Herr Doktor Klöbner
2013-02-02, 16:40:55
Eine SSD passt gewiss nicht ins Budget, eine 500 Gigabyte HD und die grundsätzliche Option alle Spiele komplett auf die HD zu installieren reicht doch aus und kostet fast nichts.

Spasstiger
2013-02-02, 17:03:40
Was ist Ende 2013 an einer HDD günstiger als einer 128-GB-SSD? Bei der Xbox 360 hatte die HDD zum Release auch 10% der Fertigungskosten ausgemacht, was ungefähr 50$ entspricht: http://www.pcpro.co.uk/news/80708/isuppli-reckoning-the-xbox-bill-of-materials.
Und für 50$ sollte es Ende 2013 schon 128 GB Flash-Speicher (TLC-NAND) geben. Der Flash-Controller sitzt möglicherweise schon in der CPU.
Vorteil des Flash-Speichers: Er wird über die Jahre immer günstiger. Eine HDD ist mechanisch viel aufwändiger und hat dadurch gewisse Fixkosten. Flash-Speicher zählte auch bei der letzten Generation schon zur Basisausstattung, während HDDs den teureren Varianten vorbehalten blieben. So wird das imo auch bei der nächsten Generation sein. Der Unterschied zur vorigen Generation ist aber, dass mittlerweile Flash-Speicher-Kapazitäten bezahlbar sind, die eine Nutzung als Cache-Speicher für Spiele sinnvoll machen.
P.S.: Natürlich wären dann nicht die ganzen 128 GB Cache-Speicher. Ein Teil davon würde dem Nutzer als regulärer Speicher für Downloads, Installationen, etc. zur Verfügung stehen. Der andere Teil beschleunigt das Laden von Spielen, die auf dem optischen Medium oder der optionalen HDD untergebracht sind. Eine Aufteilung 80 GB Userspeicher und 40 GB Cache-Speicher wäre z.B. denkbar, die restlichen 8 GB sind fürs Wear Levelling.

dildo4u
2013-02-02, 17:13:59
Die Spiele werden gerade bei Sony riesig werden,daher denke ich eher das man ein Hybrid nutzen wird vermutlich 32GB Flash+ Notebook Platte.

robbitop
2013-02-02, 18:23:11
Eine SSD passt ganz sicher nicht in's super knappe Budget. Vieleicht Flashspeicher für das OS. Vieleicht sinds auch ein paar einzelne GB. Aber sicher nichts zwei oder dreistelliges.
Mit 8 GiB RAM sollte Streaming doch auch deutlich entspannter sein als in den wirklich dauerklammen 512 MiB.

Spasstiger
2013-02-02, 18:28:28
Gibt es denn Gerüchte zu den angepeilten Fertigungskosten? Bei der XBox 360 waren es zum Release - wie oben verlinkt - über 500 US-$.

TheCounter
2013-02-02, 21:30:18
Das ist keine Quelle, sondern nur dummes Geschwätz. Glaubst du alles was die Spasten im Neogaf schreiben oder was? ;D

In den ersten Prototypen sollen jedenfalls 2GB verbaut gewesen sein. Devs haben Sony aber geraten auf 4GB zu erhöhen.

Dummes Geschwätz sind die geleakten Specs alle, auch die 4GB oder 8 Core CPU. Sind halt nur Spekulationen.

VGLeaks will kommende Woche mehr Infos über die Xbox 3 GPU veröffentlichen, da bin ich mal gespannt :ucoffee:

Gipsel
2013-02-02, 22:48:18
In den ersten Prototypen sollen jedenfalls 2GB verbaut gewesen sein.In den ersten Prototypen (egal ob Durango oder Orbis) gab es sicher keinen gemeinsamen Speicher sondern getrennten VRAM und normalen Arbeitsspeicher (das sind üblicherweise nur Rechner mit grob der gleichen Architektur [hier also ein PC] mit ungefähr ähnlichen Features bzw. Performance und einem modifizierten OS). 2GB VRAM klingen z.B. überaus plausibel (hat doch praktisch jede Performance-GraKa, die man in so ein Alpha-Kit reinstecken könnte). Wer weiß, was da genau genannt wurde und in welcher Beziehung das zum finalen Design steht. Die allerersten DevKits können durchaus deutlich anders aussehen, spätere Versionen nähern sich dann der finalen Hardware an.

Deinorius
2013-02-02, 22:52:35
Mit diesen neuen Infos kann ich schon eher verstehen, wieso 8 GB DDR3 vs. 4 GB GDDR5 (wenn es der Wahrheit nahe kommt). Getrennter Speicher wird es trotz allem nicht werden. Wenn man schon einen SoC hernimmt, wird man das so wohl nicht machen.
Und wenn doch, wäre der getrennte RAM wohl kaum fifty-fifty getrennt.

krötenfresse
2013-02-03, 00:29:29
wieso warten die nicht einfach und bringen dann ein jahr später ihre konsolen mit ddr4 oder gddr6 raus?

ich versteh nicht, warum die jetzt kurz vor nem technologiewechsel ihre konsolen raushauen müssen,
die dann auch noch locker 10 jahre mit technologie am markt bleiben, die kurz nach release schon veraltet ist.

dildo4u
2013-02-03, 00:35:25
Weil die Konsolen schon 2 Jahre zu spät sind und genau diese zwei Jahre geht's stetig Berg abwärts mit den Videospielverkäufen.Noch dazu wir diese neue Tech meist zu überhöten Preisen eingeführt ,man müsste also noch länger warten bis das alles für 400€ verkauft werden kann.Zumindest Sony kann es sich nicht mehr leisten pro Konsole 200€ Miese zu machen.

Skysnake
2013-02-03, 00:38:05
wieso warten die nicht einfach und bringen dann ein jahr später ihre konsolen mit ddr4 oder gddr6 raus?

ich versteh nicht, warum die jetzt kurz vor nem technologiewechsel ihre konsolen raushauen müssen,
die dann auch noch locker 10 jahre mit technologie am markt bleiben, die kurz nach release schon veraltet ist.
Du willst nicht wirklich die Preise dafür zahlen...

Zudem sind die Steigerungen bei DDR4 jetzt nicht wirklich berauschend, und von GDDR6 wüsste ich nichts näheres, das man da was in absehbarer Zeit sieht. Da könnte man gleich auf Hybrid-Memory-Cube warten. Da würde dann wenigstens gleich wirklich ein guter Performancesprung drin sein.

dildo4u
2013-02-03, 00:47:29
Es gibt noch ne Alternative zu GDDR5,es gibt Hinweise das die PS4 2.5D Stacking nutz.(DDR3 an einem 512Bit Interface)

http://i.imgur.com/PhW5Kfq.jpg

http://www.neogaf.com/forum/showpost.php?p=46919547&postcount=7754

S940
2013-02-03, 01:20:35
Es gibt noch ne Alternative zu GDDR5,es gibt Hinweise das die PS4 2.5D Stacking nutzen.(DDR3 an einem 512Bit Interface)
Wieviel Chips bräuchte man da für 4 GB? Reichen die 2 abgebildeten, wenn man TSVs dafür benützen würde?
Billig wird das dann aber doch auch nicht, oder?

Screemer
2013-02-03, 01:42:40
die speicherchips werden in dem fall gestapelt. stacking eben. cpu/gpu sind dann ein extra die. rechts oben sieht man das. die einzelnen schichten rechts sind quasi der ram und links (compute) der soc. wie viele zellen man mit der aktuellen technik übereinander bringt kann ich dir nicht sagen.

hier mal ne erklärung: http://www.bit-tech.net/hardware/memory/2007/12/17/the_secrets_of_pc_memory_part_2/6. in dem fall werden eh through-silicon-vias zum einsatz kommen und dann eben auf den interposer geführt. ist nicht hmc ein ähnlicher ansatz? ist sowas schon serienreif? das wäre ja wie rambus in der ps2 ;)

Gipsel
2013-02-03, 04:07:25
Es gibt noch ne Alternative zu GDDR5,es gibt Hinweise das die PS4 2.5D Stacking nutz.(DDR3 an einem 512Bit Interface)Stacking auf einem Interposer wird sicherlich kein DDR3 benutzen. wäre doch voll die Verschwendung für das highsped-Interface sowohl auf dem RAM-Die als auch auf dem SoC-Die. Wahrscheinlicher wäre HBM.
Wieviel Chips bräuchte man da für 4 GB? Reichen die 2 abgebildeten, wenn man TSVs dafür benützen würde?Genau wie abgebildet zwei Stacks mit je vier 4GBit DRAM-Dies. Mit HBM bei 750 MHz ergibt das insgesamt eine 2048Bit Anbindung mit 192 GB/s.
wie viele zellen man mit der aktuellen technik übereinander bringt kann ich dir nicht sagen.Vier bis acht.
in dem fall werden eh through-silicon-vias zum einsatz kommen und dann eben auf den interposer geführt. ist nicht hmc ein ähnlicher ansatz? ist sowas schon serienreif? das wäre ja wie rambus in der ps2 ;)Vermutlich eher HBM. HMC soll zwar auch einen Ableger für den Einsatz im Nahbereich spendiert bekommen, aber erstmal soll das auf Speichermodule kommen. Für den Einsatz auf einem Interposer ist HBM geeigneter und für diesen Einsatzzweck näher an der Serienreife. Die PSVita bindet ihren einzelnen gestackten RAM-Chip offenbar mit WideIO an (benutzt aber keine TSVs). HBM erweitert die Busbreite und hebt die Frequenzen an. Das wäre im Prinzip bereits spruchreif. Die Frage ist nur, wie serienreif die Fertigung mit den TSVs ist. Völlig unmöglich ist es nicht, da die Prototypen ja bereits seit ein bis 2 Jahren durch die Gegend geistern. Man arbeitet also daran. Und Xilinx fertigt seine HighEnd-FPGAs bereits seit einiger Zeit mit Interposern (und TSVs). Aber das sind Hochpreisprodukte. Ob man DRAM-Stacking und Interposer bezahlbar in den nächsten paar Monaten zusammen bekommt, hmm. Und das muß ja bereits jetzt entschieden sein. Wäre schon ein ziemliches Risiko.

Wenn man darauf setzt und es klappt: Hut ab! Das wird langfristig wahrscheinlich sogar die billigste Lösung. Wenn man darauf setzt und es klappt nicht, zahlt man entweder höllisch drauf oder kann nicht liefern. Die sichere (aber auch langweiligere) Alternative wäre eine klassische Speicheranbindung.

Hayab
2013-02-03, 04:23:36
Das kommt vielleicht in spaeteren Hardwareversionen. Ich glaube nicht, dass die auf solche neue in der PC Welt nicht getestete Technik gleich bei Launch Konsolen vewenden werden. Moeglich ist aber auch, dass AMD mit der Technik den entscheidenen Kostensenkfaktor fuer die Hardwareingenuere geliefert hat.

SSD wird es mit grosser Wahrscheinlichkeit nicht geben. Bei der Anbindung von Externen Speicher wurde bei Konsolen schon immer gespart. Einen Chip mit der Qualitaet von einer Southbridge werden die bestimmt nicht installieren. Da mach auch eine SSD mit ihren schnellen Datentransfer wenig Sinn. Dazu muss alles doppelt und dreifach gegen Hacks abgesichert sein.

Deinorius
2013-02-03, 09:30:37
Zumindest nicht ganz unmöglich wäre eine Hybrid-HDD. Gegen ein bisschen SSD für das Zwischenspeichern spricht nur der etwas höhere Preis. Ob es das wert ist, wird Sony entscheiden.

Windi
2013-02-03, 10:10:26
Selbst die Wii U hat bis zu 32GB Speicher.
Die Wii und die neuere Xbox360 haben auch schon lange etwas Flashspeicher integriert.
Bei einer Konsole die über ein Jahr nach der Wii U erscheint und wohl einen höheren Verkaufspreis hat, sollten 32GB Flashspeicher eigentlich kein Problem darstellen.

Skysnake
2013-02-03, 10:27:55
Die Frage ist nur, wie serienreif die Fertigung mit den TSVs ist. Völlig unmöglich ist es nicht, da die Prototypen ja bereits seit ein bis 2 Jahren durch die Gegend geistern. Man arbeitet also daran. Und Xilinx fertigt seine HighEnd-FPGAs bereits seit einiger Zeit mit Interposern (und TSVs). Aber das sind Hochpreisprodukte. Ob man DRAM-Stacking und Interposer bezahlbar in den nächsten paar Monaten zusammen bekommt, hmm. Und das muß ja bereits jetzt entschieden sein. Wäre schon ein ziemliches Risiko.

Also "Serienreif" sollte TSV schon seit einem Jahr sein. Seit da "verkauft" Xilinx ja Produkte damit. Du kannst ja aber mal versuchen so ein "Produkt" zu kaufen ;)

Das Problem scheint echt zu sein, das es halt keiner einsetzt, und weils keiner einsetzt, kann man auch keine Erfahrung sammeln, oder kaum, womit sich auch kaum was tut usw usw...

In Anbetracht dessen, was die Konsolen leisten müssen, und auch dessen, wie lange Sie am Markt sein werden, kann ich mir nicht vorstellen, dass Sie komplett auf diese Technik verzichten werden. Das kann ich mir nicht vorstellen. Eventuell lässt sich das raus schieben ja auch damit erklären, das man den Prozess einfach noch hat reifen lassen.


Wenn man darauf setzt und es klappt: Hut ab! Das wird langfristig wahrscheinlich sogar die billigste Lösung. Wenn man darauf setzt und es klappt nicht, zahlt man entweder höllisch drauf oder kann nicht liefern. Die sichere (aber auch langweiligere) Alternative wäre eine klassische Speicheranbindung.
Seh ich auch so.

Selbst die Wii U hat bis zu 32GB Speicher.
Die Wii und die neuere Xbox360 haben auch schon lange etwas Flashspeicher integriert.
Bei einer Konsole die über ein Jahr nach der Wii U erscheint und wohl einen höheren Verkaufspreis hat, sollten 32GB Flashspeicher eigentlich kein Problem darstellen.
Flash != Flash nur so.

Da wird man nicht so teuren Flash wie in ner SSD verbauen, vor allem nicht mit so hochwertigen Controllern.

Ich könnte mir aber durchaus vorstellen, das man den Flash entweder direkt mit aufs Pakage nimmt (eher nicht), oder den Controller direkt in den SOC integriert. Da würde man sich gleich nochmal einiges sparen.

Windi
2013-02-03, 11:51:37
Flash != Flash nur so.

Da wird man nicht so teuren Flash wie in ner SSD verbauen, vor allem nicht mit so hochwertigen Controllern.

Naja, fast überall wird doch mittlererweile MLC-NOR-Flashspeicher verwendet. Egal ob USB-Sticks oder SSDs. Alles andere sind doch eher Spezialfälle. Der größte Unterschied ist eher der Fertigungsprozess.
Laut Geizhals kosten 32GB 10€-30€. In einem Jahr wohl nur noch die Hälfte.
Für einen gescheiten Controllern muss man sich halt eine gescheite IP einkaufen und dann im SoC integrieren.

Das ist dann vielleicht nicht ganz so schnell wie die neuste Intel SSD, aber dennoch deutlich schneller als jede normale Festplatte. Und je nach Größe auch noch billiger.

krötenfresse
2013-02-03, 13:16:40
wieso warten die nicht einfach und bringen dann ein jahr später ihre konsolen mit ddr4 oder gddr6 raus?

ich versteh nicht, warum die jetzt kurz vor nem technologiewechsel ihre konsolen raushauen müssen,
die dann auch noch locker 10 jahre mit technologie am markt bleiben, die kurz nach release schon veraltet ist.
Du willst nicht wirklich die Preise dafür zahlen...
und ddr4 wäre nächstes jahr teurer als gddr5 jetzt kostet?

Wieviel Chips bräuchte man da für 4 GB? Reichen die 2 abgebildeten, wenn man TSVs dafür benützen würde?
Genau wie abgebildet zwei Stacks mit je vier 4GBit DRAM-Dies. Mit HBM bei 750 MHz ergibt das insgesamt eine 2048Bit Anbindung mit 192 GB/s.
warum denn gleich 4gb?
wär es nicht günstiger es bei z.b. 1gb zu belassen und dann extern 4gb oder 8gb ddr3 zu verwenden?

][immy
2013-02-03, 13:33:53
Selbst die Wii U hat bis zu 32GB Speicher.
Die Wii und die neuere Xbox360 haben auch schon lange etwas Flashspeicher integriert.
Bei einer Konsole die über ein Jahr nach der Wii U erscheint und wohl einen höheren Verkaufspreis hat, sollten 32GB Flashspeicher eigentlich kein Problem darstellen.
einfach mal dran denken, der Flash-Speicher in der xbox 360, Wii, WiiU ist alles andere als performant. viel mehr als ein verbauter USB-Stick isses nicht. Von den kosten daher gut überschaubar. Eventuell wird ein solcher Speicher wieder in die konsolen direkt eingebaut weil z.B. MS nicht wieder wegen einem Firmware-Update Speicherkarten verschenken will. eventuell dann noch für ein paar savegames platz um ein basis-modell auf den markt zu bringen. aber da man ja besonders bei games on demand/arcade weiterkommen will, wird es wohl eine "normale" festplatte sein. ist nach wie vor günstiger als alles andere und es passt ne menge drauf.

was mich ein wenig überrascht ist die frühe vorstellung der PS4. Ich dachte die wollten das nicht vor MS vorstellen. Nunja, vielleicht isses ja nur eine ankündigung des release termins und eine kleine Vorstellung ohne irgendwelche specs zu nennen. Quasi das konsolen-design und so sieht die tech-demo aus die darauf läuft.

D4ve
2013-02-03, 14:58:18
[immy;9640388']was mich ein wenig überrascht ist die frühe vorstellung der PS4. Ich dachte die wollten das nicht vor MS vorstellen. Nunja, vielleicht isses ja nur eine ankündigung des release termins und eine kleine Vorstellung ohne irgendwelche specs zu nennen. Quasi das konsolen-design und so sieht die tech-demo aus die darauf läuft.

Könnte ein reiner Paper-Launch sein um die WiiU unter Druck zu setzen und der neuen X-Box die ja gerüchteweise(!) vor der PS4 kommen soll zuvor zu kommen. Mit einer Uncharted-4-Tech-Demo könnten sie mein Budget schonmal blocken ;)
Vielleicht plant Sony ja auch schon ein paar Events auf der GDC im März und will vorab schonmal den Massen zeigen, was demnächst kommt.

Gipsel
2013-02-03, 15:03:55
warum denn gleich 4gb?
wär es nicht günstiger es bei z.b. 1gb zu belassen und dann extern 4gb oder 8gb ddr3 zu verwenden?
Weil es mit 4GB langfristig billiger wird. Die gestackten Speicherchips werden immer billiger (später kann man dann vielleicht auf Stacks mit zwei 8 GBit-Chips gehen bzw. nur noch zwei einzelnen 16 GBit-Chips). Und man spart das externe Interface komplett. Das spart Diesize am SoC, die Anzahl der externen Pins am Package nimmt dramatisch ab und das Board wird extrem einfach und billig (praktisch werden nur noch USB und SATA rausgeführt).
4GB wären also die konsequente Lösung. Mit gestackten 1 GB verschenkt man die potentiellen Ersparnisse, hat aber trotzdem die Kosten und Risiken zu tragen (oder man stackt wie bei der PSVita nur einen einzelnen Ram-Chip ohne TSVs und ohne Interposer, das könnte aber Kühlungsprobleme verursachen bzw. mindert den Takt).

Skysnake
2013-02-03, 15:30:03
Seh ich auch so.

Du hast allerdings noch den HMDI/Grafik Ausgang vergessen in deiner Aufzählunge ;)

Es ist aber wirklich sehr sehr sehr wenig, was da noch aufs Board kommt, was die Kosten wirklich extrem drücken kann. Man braucht da auch auf dem Board fast keine Widerstände, Kondensatoren usw. mehr, da man fast alles in den Chip integrieren kann.

S940
2013-02-03, 15:34:21
Zitat von S940 http://www.forum-3dcenter.org/vbulletin/images/3dc/insanedruid/buttons/viewpost.gif (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9640156#post9640156)
Wieviel Chips bräuchte man da für 4 GB? Reichen die 2 abgebildeten, wenn man TSVs dafür benützen würde?
Genau wie abgebildet zwei Stacks mit je vier 4GBit DRAM-Dies. Mit HBM bei 750 MHz ergibt das insgesamt eine 2048Bit Anbindung mit 192 GB/s.
Zitat von Screemer http://www.forum-3dcenter.org/vbulletin/images/3dc/insanedruid/buttons/viewpost.gif (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9640168#post9640168)
wie viele zellen man mit der aktuellen technik übereinander bringt kann ich dir nicht sagen.

Vier bis acht.

Das heißt es wäre nichtmal so unwahrscheinlich, dass Sony so spät am Ende der Planungs/Prototypenphase doch noch schnell die RAM Pläne von 4GB auf 8GB erweitern könnte, oder? Nach Deiner Info wären ja noch 4 Zusatzlagen drin, damit wäre man dann ja auf 8GB.

Sieht alles irgendwie recht praktisch aus :)

del_4901
2013-02-03, 15:44:16
Vielleicht kommt der Interposer auch erst mit einem refresh. Wenn man klassische Speicherchips verwendet, dann hat man die bessere Time to Market und funktionale Sicherheit, zahlt dafuer anfangs beim Mainboard drauf. Oder man klebt die Chips wie schon bei RSX mit auf das Package.

][immy
2013-02-03, 16:31:21
Mal ne andere frage. 4k wird wohl kein Thema bei der neuen Generation werden, aber könnten die das überhaupt mittels upscaling schaffen? HDMI ist doch noch gar nicht für diese informationsmengen ausgelegt. Oder gab ich da was verpasst?

Finch
2013-02-03, 16:42:58
[immy;9640556']Mal ne andere frage. 4k wird wohl kein Thema bei der neuen Generation werden, aber könnten die das überhaupt mittels upscaling schaffen? HDMI ist doch noch gar nicht für diese informationsmengen ausgelegt. Oder gab ich da was verpasst?

Vll. wird schon HDMI 2.0 verwendet, das sollte 4K erlauben.

AnarchX
2013-02-03, 16:44:17
4K/30Hz sind mit HDMI möglich. Abseits von Spielen könnte wohl 4K durchaus Unterstützung erfahren.

][immy
2013-02-03, 16:52:44
Vll. wird schon HDMI 2.0 verwendet, das sollte 4K erlauben.
das aktuellste was ich grad gefunden gab ist 1.4a. Aber das dann nur mit 30Hz.
Ninja bis das Thema aktuell wird bringt man dann wohl nen refresh mit aktuellem Ausgang.

Gipsel
2013-02-03, 17:52:31
Das heißt es wäre nichtmal so unwahrscheinlich, dass Sony so spät am Ende der Planungs/Prototypenphase doch noch schnell die RAM Pläne von 4GB auf 8GB erweitern könnte, oder? Nach Deiner Info wären ja noch 4 Zusatzlagen drin, damit wäre man dann ja auf 8GB.Man könnte auch auf 8 GBit/Die gehen. Das macht das Assembling billiger. Kommt halt drauf an, was die DRAM-Hersteller so planen.

Gipsel
2013-02-03, 18:04:15
Vielleicht kommt der Interposer auch erst mit einem refresh. Wenn man klassische Speicherchips verwendet, dann hat man die bessere Time to Market und funktionale Sicherheit, zahlt dafuer anfangs beim Mainboard drauf. Oder man klebt die Chips wie schon bei RSX mit auf das Package.Das wäre ein gangbarer Kompromiß. Die Stacking-Geschichte sieht halt im Moment doch ziemlich riskant aus. Kommt das erst später, muß man dann aber eine neue Revision des SoC mit einem entsprechend angepaßten (an den stacked HBM-DRAM, das wird übrigens auch von der JEDEC normiert) Speichercontroller nachschieben und schon heute Vorsorge treffen, daß sich die RAM-Timings dadurch nicht wesentlich ändern (sonst könnte das ein k.o.-Kriterium sein, weil sich die Performance ändert [erhöht]). Eventuell würde man das mit dem Shrink auf 20nm irgendwann 2014/2015 kombinieren.

Edit:
Die oben von mir angegebenen 192 GB/s für 2 Stacks (2x 1024bit Anbindung @750 MHz) sind übrigens unter den Specs von HBM. Das sollen zwar wirklich 1024 Bit pro Stack sein, allerdings soll jeder Stack zwischen 128 und 256 GB/s liefern können soll (statt nur 96 GB/s wie bei den von mir vorgeschlagenen 750MHz SDR [was ein simples Scaling von WideIO wäre, was 512Bit@200 sowie @266 MHz SDR definiert]). Die zielen also höchstwahrscheinlich auf 500 bis 1000 MHz und DDR signaling. Leider kann man die Specs von HBM auf der JEDEC-Seite noch nicht einsehen.

del_4901
2013-02-03, 18:12:52
Das wäre ein gangbarer Kompromiß. Die Stacking-Geschichte sieht halt im Moment doch ziemlich riskant aus. Kommt das erst später, muß man dann aber eine neue Revision des SoC mit einem entsprechend angepaßten (an den stacked HBM-DRAM, das wird übrigens auch von der JEDEC normiert) Speichercontroller nachschieben und schon heute Vorsorge treffen, daß sich die RAM-Timings dadurch nicht wesentlich ändern (sonst könnte das ein k.o.-Kriterium sein, weil sich die Performance ändert [erhöht]). Eventuell würde man das mit dem Shrink auf 20nm irgendwann 2014/2015 kombinieren.Solche Probleme hatte man schon bei der Xbox SLIM. Das hat man auch nachtraeglich geloest bekommen indem man kuenstlich gedrosselt hat. Man wird dann auch bestimmt nicht das Interface und den Speichercontroller anfassen, sondern bei dem bleiben was man hat.

S940
2013-02-03, 18:29:50
Das wäre ein gangbarer Kompromiß. Die Stacking-Geschichte sieht halt im Moment doch ziemlich riskant aus. Kommt das erst später, muß man dann aber eine neue Revision des SoC mit einem entsprechend angepaßten (an den stacked HBM-DRAM, das wird übrigens auch von der JEDEC normiert) Speichercontroller nachschieben und schon heute Vorsorge treffen, daß sich die RAM-Timings dadurch nicht wesentlich ändern (sonst könnte das ein k.o.-Kriterium sein, weil sich die Performance ändert [erhöht]). Eventuell würde man das mit dem Shrink auf 20nm irgendwann 2014/2015 kombinieren.Naja, aber dann würde doch die Platine urteuer werden, wenn man 512bit über den SoC aufs Mainboard führen müsste. Da wär nicht viel gewonnen, außer des geringeren Risikos. Oder halt nur 256bit, aber ... mhmmm...

Gipsel
2013-02-03, 18:54:32
Naja, aber dann würde doch die Platine urteuer werden, wenn man 512bit über den SoC aufs Mainboard führen müsste. Da wär nicht viel gewonnen, außer des geringeren Risikos. Oder halt nur 256bit, aber ... mhmmm...Das wäre jetzt 256 Bit GDDR5, später 1024 Bit (single stack) oder 2048 Bit (zwei Stacks) HBM. Bandbreite bleibt gleich, um die RAM-Timings muß man sich halt kümmern (wie AlphaTier schon sagte, notfalls künstlich Verzögerungen einbauen; hat MS bei den neueren SoC-Versionen der XBox360 auch gemacht).

auch @AlphaTier:
Dafür muß der Controller aber angefaßt werden, weil ein GDDR5-Controller eben nicht mit stacked DRAM kompatibel ist (und mit gestacktem GDDR5 auf einem Interposer beraubt man sich mindestens der Hälfte der Vorteile, abgesehen davon, daß das nirgends spezifiziert ist, also eine Sonderanfertigung wäre). Die JEDEC spezifiziert ja nicht umsonst HBM. Stacking von irgendwelchen GDDR5-Dies macht eben nicht wirklich Sinn.

Dies spricht eigentlich gegen eine spätere "Nachrüstung" von stacked RAM. Oder man schätzt ein, daß man die Timing-Unterschiede und das andere Handling durch einen anderen Speichercontroller irgendwie hingebogen bekommt.

Botcruscher
2013-02-03, 19:28:18
Wenn das alles so günstig, super und einfach wäre, hätte AMD/NV lange Grafikkarten damit. PS: Und Intel-IGPs erst recht.

TheCounter
2013-02-03, 19:49:34
Playstation 4 rendert Spiele mit 240FPS (http://www.japantimes.co.jp/news/2013/02/04/business/sony-expected-to-beef-up-playstation-4-to-keep-consoles-in-the-game/#.UQ6xJWcudaS):

Sony’s new console will feature graphics chips developed by Advanced Micro Devices Inc. and processors capable of rendering games at 240 frames per second, Pachter said. Current-generation games typically render at 30 or 60 frames per second. As with past model changes, Sony will continue to produce and sell the almost 7-year-old PlayStation 3.

Pachter :ulol3:

Werewolf
2013-02-03, 19:56:42
Was hat der Kasper Pachter hier zu suchen?

Gipsel
2013-02-03, 20:08:31
Wenn das alles so günstig, super und einfach wäre, hätte AMD/NV lange Grafikkarten damit. PS: Und Intel-IGPs erst recht.Nicht umsonst schrieb ich ja, daß es werden wird, nicht, daß es wäre. ;)
Übrigens, intel plant für Haswells IGP optional stacked DRAM (GT3e für die Mobilvariante).

Demirug
2013-02-03, 21:27:18
Playstation 4 rendert Spiele mit 240FPS (http://www.japantimes.co.jp/news/2013/02/04/business/sony-expected-to-beef-up-playstation-4-to-keep-consoles-in-the-game/#.UQ6xJWcudaS):



Pachter :ulol3:

Er versteht halt immer nur die hälfte der technischen Details die man im so zusteckt. Die 240 FPS werden für einen speziellen 4 Speiler Modus benötigt. Es ist aber wohl noch völlig unklar in wie weit dieser zum Start überhaupt zur Verfügung steht. Die Entwickler zweifeln wohl etwas an der Nachfrage für diesen Modus bei den Spielern.

Karümel
2013-02-03, 21:34:29
Er versteht halt immer nur die hälfte der technischen Details die man im so zusteckt. Die 240 FPS werden für einen speziellen 4 Speiler Modus benötigt.

Also GT6 mit 4 Spielern an einem 4K-TV mit je 60FPS pro Spieler? :freak:

xL|Sonic
2013-02-03, 21:46:06
Und Giant Enemy Crabs ;D

Demirug
2013-02-03, 21:51:26
Also GT6 mit 4 Spielern an einem 4K-TV mit je 60FPS pro Spieler? :freak:

4K TVs haben ja außer Sony noch andere im Angebot. Premium Peripherie ist das Zauberword.

Iterator
2013-02-03, 22:05:31
4K TVs haben ja außer Sony noch andere im Angebot. Premium Peripherie ist das Zauberword.

4K in einer Konsole die für die Massen ausgelegt ist, momentan für eine kleine Oberschicht die sich als Early Adopter einen 4K TV gönnen/leisten können ?

dildo4u
2013-02-03, 22:12:56
Natürlich wird Sony für Filme 4K supporten,die haben erst auf der CES angekündigt,das sie die ersten sind die 4K Filme anbieten werden.
Die PS4 ist sogar ideal da fast alle Konsolen ans Netz angeschlossen werden und es erstmal kein Disc Format geben wird.

Demirug
2013-02-03, 22:22:32
Natürlich wird Sony für Filme 4K supporten,die haben erst auf der CES angekündigt,das sie die ersten sind die 4K Filme anbieten werden.
Die PS4 ist sogar ideal da fast alle Konsolen ans Netz angeschlossen werden und es erstmal kein Disc Format geben wird.

Das würde dann aber auch mit 4K TVs von anderen Herstellern gehen und ein TV fällt bei einer Konsole nicht unbedingt in die Gruppe der Peripherie

Deinorius
2013-02-03, 23:17:12
Also GT6 mit 4 Spielern an einem 4K-TV mit je 60FPS pro Spieler? :freak:


Also, abgesehen von 4K, braucht man die Auflösung pro Spieler doch nur vierteln. Damit bleibt die Gesamt-Auflösung gleich und fertig. Wird das, neben dem Herabsetzen von Grafik-Details, nicht so gehandhabt?

Skysnake
2013-02-03, 23:20:02
Nicht umsonst schrieb ich ja, daß es werden wird, nicht, daß es wäre. ;)
Übrigens, intel plant für Haswells IGP optional stacked DRAM (GT3e für die Mobilvariante).
Du warst mal wieder schneller :tongue:

Knuddelbearli
2013-02-03, 23:23:31
240 FPS mit speziellen shutter brillen wo dann jeder mit 60fps nur sein bild sieht
hatte das nicht irgend ein Hersteller als techdemo gezeigt mit 2 Spielern ?

nur welcher fernseher macht echte 240 fps mit ^^

Gipsel
2013-02-03, 23:35:19
240 FPS mit speziellen shutter brillen wo dann jeder mit 60fps nur sein bild sieht
hatte das nicht irgend ein Hersteller als techdemo gezeigt mit 2 Spielern ?

nur welcher fernseher macht echte 240 fps mit ^^
Ohne Shutterbrille natürlich. Der Fernseher zeigt in unterschiedlichen Blickrichtungen unterschiedliche Bilder. Gleiche Technik wie bei 3D ohne Brille. Der Fernseher erkennt, wo wer sitzt und paßt die Winkel entsprechend an. Gibt das erste Modell (von Toshiba) seit kurzem auch hier (für >7k€) zu kaufen (in Japan wohl schon länger). Auf Messen hat man das sogar schon für bis zu 4 Personen gleichzeitig in 3D gesehen bzw. jeder hatte ein anderes Programm (d.h. bis zu 8 unabhängige Bilder?). Okay, die Technik ist noch nicht wirklich reif für die PrimeTime. Aber die Konsolen sollen ja ein paar Jahre länger leben, nicht?

Oder 4fach Splitscreen. ;)

Botcruscher
2013-02-04, 09:32:04
Übrigens, intel plant für Haswells IGP optional stacked DRAM (GT3e für die Mobilvariante).
Die auf Q3 verschoben wurde und dann irgendwann kommt. Aber warten wir mal ab.
Oder 4fach Splitscreen. ;)
Ein Kellerfeature mit unendlich großer Zielgruppe. Da lohnt sich der Verzicht um die 240fps umzusetzen alle mal.:freak:

MartinB
2013-02-04, 10:18:33
4K halte ich aktuell noch für unrealistisch. Es gibt erst seit wenigen Tagen einen Übertragungsstandard (Displayport wenn ich mich recht erinnere) der das unterstützt. Spiele werden bei FullHD bleiben. Später könnte ich mir aber ein Refresh mit einer 4K Unterstützung für Filme vorstellen.

Naitsabes
2013-02-04, 10:57:09
wieso nicht auch für Spiele? wird doch eh nur mit 720p oder so gerendert und der scaler übernimmt den Rest...

Silentbob
2013-02-04, 11:16:08
wieso nicht auch für Spiele? wird doch eh nur mit 720p oder so gerendert und der scaler übernimmt den Rest...

720p aufblasen auf 4k? Schaut sicher gut aus ;D

TheCounter
2013-02-04, 11:16:55
Hier neue Diagramme zur Durango GPU. Gibt leider keine weiteren Infos dazu bis jetzt:

http://i.imgur.com/wNCIVdY.jpg
http://i.imgur.com/M0VAvIc.jpg
http://i.imgur.com/ywK4JMp.jpg

http://www.neogaf.com/forum/showthread.php?t=509269&page=147

Von VGLeaks gibts heute noch infos zur GPU und Kotaku arbeitet auch an einem Artikel.

Undertaker
2013-02-04, 11:18:01
720p aufblasen auf 4k? Schaut sicher gut aus ;D

Durch den abnehmenden (optisch sichtbaren) Ertrag steigender Auflösungen sollte das noch immer recht ordentlich aussehen. Wie viele Millionen in Deutschland schauen wohl noch Analog-TV auf ihrem neuen Flachbildfernseher... ;)

robbitop
2013-02-04, 11:48:23
Also Durango 768 SPs (12 CUs), 256 Bit DDR3, 32 MiB eDRAM (ESRAM). Bei 1,23 TF/s kommen rund 800 MHz für die GPU heraus.
Ich hoffe, dass bei der PS4 die 18 CUs wirklich für Grafikberechnungen nutzbar sind. Bei Multititeln sollte sie ggf. mehr FPS oder höhere Details/Auflösung bieten können.

Es klingt alles mittlerweile sehr konkludent, so dass es mit wachsender Wahrscheinlichkeit auch diese HW werden wird.
Das Schlimme ist, dass wir offenbar bereits jetzt vor der Vorstellung der PS4/Xbox3 mehr über diese wissen als über die vor Monaten vorgestellte WiiU. X-D

AnarchX
2013-02-04, 12:15:30
Im NeoGAF-Forum will man wohl ein Röntgenbild/Präparatbild des Wii-U-GPU-Chips kaufen.

Aber 12 CUs für Durango sind schon relativ vernünftig, wohl hoffentlich auch kombiniert mit einem Dual-Front-End, sodass der Geometrie-/Tessellationsdurchsatz nicht leidet.

Skysnake
2013-02-04, 13:06:35
Also 512kB L2 Cache sind nicht schlecht :up:

robbitop
2013-02-04, 13:12:41
Also 512kB L2 Cache sind nicht schlecht :up:
Welche Auswirkungen hat das für 3D Beschleunigung? Etw. weniger fragmentierten Zugriff auf den Framebuffer?

Mr.Magic
2013-02-04, 13:14:56
Wie viele Millionen in Deutschland schauen wohl noch Analog-TV auf ihrem neuen Flachbildfernseher... ;)

Müssten so ziemlich genau 0 sein, da AFAIR seit 2009 nicht mehr analog gesendet wird.

AnarchX
2013-02-04, 13:17:32
Müssten so ziemlich genau 0 sein, da AFAIR seit 2009 nicht mehr analog gesendet wird.
Kabel-TV (mit Reanalogisierung) nicht vergessen. ;)

Welche Auswirkungen hat das für 3D Beschleunigung? Etw. weniger fragmentierten Zugriff auf den Framebuffer?
Dürfte den IMC entlasten, bei Cape Verde hat man auch 512KiB verbaut.

fondness
2013-02-04, 13:17:57
Welche Auswirkungen hat das für 3D Beschleunigung? Etw. weniger fragmentierten Zugriff auf den Framebuffer?

Vor allem die Compute-Leistung wird dadurch wie bei allen GCN-GPUs verhältnismäßig hoch sein. Für das reine Rendering dürften sich die Auswirkungen in Grenzen halten.

Gipsel
2013-02-04, 13:30:07
Hier neue Diagramme zur Durango GPU. Gibt leider keine weiteren Infos dazu bis jetzt:

http://i.imgur.com/wNCIVdY.jpg
http://i.imgur.com/M0VAvIc.jpg
http://i.imgur.com/ywK4JMp.jpg

http://www.neogaf.com/forum/showthread.php?t=509269&page=147

Von VGLeaks gibts heute noch infos zur GPU und Kotaku arbeitet auch an einem Artikel.
Ist doch einfach nur ein verdrehtes GCN-Diagramm. :rolleyes:

Undertaker
2013-02-04, 13:31:00
Müssten so ziemlich genau 0 sein, da AFAIR seit 2009 nicht mehr analog gesendet wird.

Knapp 50% der Deutschen empfangen TV per Kabel, wo nach wie vor auch analog übertragen wird. DVB-C kostet bei vielen Kabelanbietern Aufpreis oder aber den Kunden fehlt der passende Receiver. Dürften also viele Millionen Menschen betreffen. ;) Sry für OT.

Vor allem die Compute-Leistung wird dadurch wie bei allen GCN-GPUs verhältnismäßig hoch sein. Für das reine Rendering dürften sich die Auswirkungen in Grenzen halten.

Für eine Konsole dürfte dieser Vorteil allerdings wenig entscheidend gewesen sein...

Skysnake
2013-02-04, 13:35:20
Welche Auswirkungen hat das für 3D Beschleunigung? Etw. weniger fragmentierten Zugriff auf den Framebuffer?
Viel allgemeiner. Es ist halt ein Cache, und Caches cachen ;)

Je größer der Cache, desto größer die Wahrscheinlichkeit, dass das Problem in den Cache passt, und damit der Datenreuse ansteigt, was dann wiederum das SI entlastet.

RLZ
2013-02-04, 13:42:44
Für eine Konsole dürfte dieser Vorteil allerdings wenig entscheidend gewesen sein...
Ich denke schon.
Der Compute Anteil steigt sogar im Rendering rapide an.

Gipsel
2013-02-04, 14:24:13
Welche Auswirkungen hat das für 3D Beschleunigung? Etw. weniger fragmentierten Zugriff auf den Framebuffer?Der Schreibzugriff auf den Framebuffer (auch Blending) läuft komplett am L2 vorbei. Die ROPs haben eigene spezialisierte Caches für Framebuffertiles (die hat man beim Xenos noch gespart, da hat alles der eDRAM gemacht), sogar getrennt nach Z und Color. Es werden immer nur komplette Tiles (typischerweise 16x16 Pixel oder gar 32x32?) in die ROP-Caches geladen und auch wieder in den VRAM geschrieben (wobei auch die Dekompression bzw. Kompression stattfindet, in den ROP-Caches stehen die Daten unkomprimiert). Es werden also immer mindestens 1kB an Daten (bei 32Bit pro Pixel, kein AA) am Stück gelesen oder geschrieben, eventuell sogar mindestens 4 kB. Der Speicherzugriff ist also praktisch kaum fragmentiert (weswegen man mit Radeons auch extrem nah [>95%] an das theoretische Bandbreitenlimit bei Füllratentests kommt). Macht man die ROP-Caches groß genug (so daß sie deutlich mehr Tiles gleichzeitig halten können), kann man nicht nur die Bandbreitenausnutzung verbessern, sondern auch die nötige Bandbreite verringern (wenn im Extremfall jede Kachel nur einmal in den VRAM geschrieben werden muß und nicht wegen Overdraw noch mal geladen und wieder geschrieben werden muß). Über die genaue Größe der Color- und Z-Caches schweigt sich AMD allerdings aus.

Der L2 ist für den ganzen anderen Kram zuständig, für die Exports an die ROPs gibt es wie gesagt einen Bypass.

Skysnake
2013-02-04, 15:19:49
Wobei es bei AMD ja auch den Fast und Slow Path gibt :ugly:

Die ganze Speicherverwaltung/hirachie ist nicht wirklich trivial. Das mit dem Bypass wusste ich z.B. jetzt auch nicht :ugly:

del_4901
2013-02-04, 15:44:40
Wo hat Gipsel nur immer seine informationen her? :ugly:

dildo4u
2013-02-04, 15:46:56
Xbox 3 GPU

http://i.imgur.com/8BmZs7f.png

http://www.vgleaks.com/durango-gpu/

Finch
2013-02-04, 16:03:42
GCN 1 oder 2?

Locuza
2013-02-04, 16:08:01
GCN 1 oder 2?
Wenn man den Unterschied wüsste zwischen den beiden könnte man es 100% sagen, aber da ich bisher keinen Unterschied erkenne bei den Daten wohl GCN1.
Vielleicht könnte Gipsel die Tabelle mit seiner Tabelle im Kopf abgleichen, vielleicht weicht etwas von den bekannten GCN-Konfigurationspecs ab.

Zusammenfassend ist das ein Pitcairn mit weniger CUs.
Wichtige Info ist, dass es ein "Dual-Front-End" haben wird, wobei man auch auf eins wie bei CV hätte spekulieren können.
Edit: Und nur 16 ROPs.

Über Custom-Zeug wurde nichts berichtet und über die Data-Movement-Engines leider auch nicht.
Aber schön das sie GCN neu gemalt haben und seitenweise erklärt.

dargo
2013-02-04, 16:11:19
Was soll dieses Dual-Front-End eigentlich bei Pitcairn bringen? Zumal der noch kastriert ist?

pittiplatsch
2013-02-04, 16:26:01
Das sind die Specs?

Ich mein die Ps4 reisst von der Rohpower auch keine Bäume aus, aber Konsolenhardware ist immernoch anders zu bewerten, abgestimmte Komponenten und Einhardwareproggrammierung.


Aber das was MS hier anbietet, ist einfach nur erbärmlich, die driften immer mehr in Richtung Nintendo, nur mit dem Unterschied, das Nintendo ihre Legend-Games hat, und MS hat Halo das wars.

Sony hat viele IPs und Studios, jetzt wieder die stärkere Hardware, nur diesmal eine sehr entwicklerfreundliche Hardware, und sie kommen nahezu zeitgleich auf den Markt.

MS wird Probleme bekommen, mit Kinect und Illumiroom und dem ganzen hypertasking Socialquark, den ich überall um die Ohren gehauen bekomme, werden sie bei ihrer Hauptklientel, den Zockern nicht ankommen, da werden Viele zu Sony oder dem PC wechseln.

Noch dazu wird auch Sony sein OS für die Ps4 erweitern und nach und nach auch Gimmicks anbieten, aber sie bleiben bei ihren Leisten, und verprellen die Zocker nicht, das haben sie aus dem anfänglichen Ps3-Schwierigkeiten, mit der Verzögerung und dem zu hohen Preis gelernt.

MS begibt sich in gefährliches Fahrwasser, und das bei dem Budget und nach 8 Jahren, einfach erbärmlich. ;D

robbitop
2013-02-04, 16:35:42
Dass die heutigen Konsolen SoCs haben werden (und damit die maximale Leistung begrenzt ist) war doch schon lange klar. Das wurde in diesem Thread seit hunderten Seiten auch einige Male durchgekaut und erklärt. Die PS4 liegt in einer ähnlichen Größenordnung der Leistung. Sie hat 50 % Rechenleistung mehr in der GPU dafür aber nur 50 % des RAMs. Das liegt schon noch in der gleichen Größenordnung. Analog zu den alten Konsolen.

Letztenendes sind die Konsolen doch ein wenig stärker geworden, als wir noch vor einem Jahr vermuteten. Für SoCs echt nett! Es ist aber wirklich nicht mehr großartig speziell. Es ist Hardware von der Stange. Aber die ist IMO schon in Ordnung.

Mehr Rechenleistung geht natürlich immer. Völlig klar. Die Entwickler haben diese HW Basis und sie werden damit genau so zurecht kommen, wie mit jeder Vorgängerbasis.

Dass Leute wie Megachip und Co. enttäuscht sind, war lange abzusehen... ;)

Finzanzieller Erfolg hat mit der Leistungsfähigkeit der HW nicht unbedingt so viel zu tun.

Gipsel
2013-02-04, 16:42:28
Wo hat Gipsel nur immer seine informationen her? :ugly:Das ist doch altbekannt. Man mußte sich nur mal durch die R600- und die Stream-SDK Dokus wühlen. Bei den ROPs hat sich seitdem ja nicht mehr soo viel geändert. ;)

Achja, vgleaks zitieren offenbar ziemlich direkt aus den Unterlagen für die Devs. Woher ich das weiß? Ganz einfach, einige Passagen hat jemand hier im Thread beinahe wörtlich genau so wiedergegeben (die Sache mit der Größe der komprimierten Rendertargets ;)).

Insofern kann man den Beschreibungen wohl halbwegs vertrauen, auch wenn die Grafiken z.T. ein wenig unausgegoren wirken und es scheinbar kleinere Widersprüche zur früheren Darstellung von GCN gibt.

Und zu diesem Punkt
Macht man die ROP-Caches groß genug (so daß sie deutlich mehr Tiles gleichzeitig halten können), kann man nicht nur die Bandbreitenausnutzung verbessern, sondern auch die nötige Bandbreite verringern (wenn im Extremfall jede Kachel nur einmal in den VRAM geschrieben werden muß und nicht wegen Overdraw noch mal geladen und wieder geschrieben werden muß). Über die genaue Größe der Color- und Z-Caches schweigt sich AMD allerdings aus.
gab es lustigerweise auch gleich noch was:
Both the DB (depth backend) and the CB (color backend) have substantial caches on die, and all depth and color operations are performed locally in the caches. Access to these caches is faster than access to ESRAM. For this reason, the peak GPU pixel rate can be larger than what raw memory throughput would indicate. The caches are not large enough, however, to fit entire render targets. Therefore, rendering that is localized to a particular area of the screen is more efficient than scattered rendering.
Achja, die ROPs können offiziell 64Bit/Pixel Formate Fullspeed, nur Bandbreite beschränkt hier. Gab da ja mal eine Diskussion drüber.

dildo4u
2013-02-04, 16:42:38
Hier noch was zu GDDR5 in der PS4,es kommen wohl grad Chip's in den Markt wodurch eine 8GB Konfig billiger werden könnte als vorher.

http://www.abload.de/img/databook_2q2012_all.p7hkki.jpg

http://www.neogaf.com/forum/showpost.php?p=46312657&postcount=6108

Juice
2013-02-04, 16:47:43
Das sind die Specs?

Ich mein die Ps4 reisst von der Rohpower auch keine Bäume aus, aber Konsolenhardware ist immernoch anders zu bewerten, abgestimmte Komponenten und Einhardwareproggrammierung.


Aber das was MS hier anbietet, ist einfach nur erbärmlich, die driften immer mehr in Richtung Nintendo, nur mit dem Unterschied, das Nintendo ihre Legend-Games hat, und MS hat Halo das wars.

Sony hat viele IPs und Studios, jetzt wieder die stärkere Hardware, nur diesmal eine sehr entwicklerfreundliche Hardware, und sie kommen nahezu zeitgleich auf den Markt.

MS wird Probleme bekommen, mit Kinect und Illumiroom und dem ganzen hypertasking Socialquark, den ich überall um die Ohren gehauen bekomme, werden sie bei ihrer Hauptklientel, den Zockern nicht ankommen, da werden Viele zu Sony oder dem PC wechseln.

Noch dazu wird auch Sony sein OS für die Ps4 erweitern und nach und nach auch Gimmicks anbieten, aber sie bleiben bei ihren Leisten, und verprellen die Zocker nicht, das haben sie aus dem anfänglichen Ps3-Schwierigkeiten, mit der Verzögerung und dem zu hohen Preis gelernt.

MS begibt sich in gefährliches Fahrwasser, und das bei dem Budget und nach 8 Jahren, einfach erbärmlich. ;D

Eins sollte man mal festhalten: Seit mehreren Generationen sind die Konsolen erfolgreicher, deren Hardware theoretisch unterlegen ist in der Leistung. Und Sony macht damit den selben Fehler nochmal!

Gipsel
2013-02-04, 16:49:16
Hier noch was zu GDDR5 in der PS4,es kommen wohl grad Chip's in den Markt wodurch eine 8GB Konfig billiger werden könnte als vorher.

http://www.abload.de/img/databook_2q2012_all.p7hkki.jpg

http://www.neogaf.com/forum/showpost.php?p=46312657&postcount=6108
Damit werden die 4GB GDDR5 bezahlbar (8 Chips). Für 8GB würde man immer noch 16 Chips im Clamshell-Modus benötigen. Das bekommen vielleicht die DevKits.

fondness
2013-02-04, 16:49:53
Hier noch was zu GDDR5 in der PS4,es kommen wohl grad Chip's in den Markt wodurch eine 8GB Konfig billiger werden könnte als vorher.

http://www.abload.de/img/databook_2q2012_all.p7hkki.jpg

http://www.neogaf.com/forum/showpost.php?p=46312657&postcount=6108

Damit könnte man 4GB mit 8 Speicherbausteinen realisieren. Die Frage bleibt allerdings ob sich der doppelt so große Speicher der Xbox langfristig nicht mehr auszahlt. Der einzige Nachteil den MS hat ist das langfristig relativ teure SI. Dafür hat DDR3 auch eine sehr viel bessere Latenz was sich positiv auf die CPU-Leistung auswirken sollte und DDR3 ist spottbillig. Weiß man wie breit das SI bei der PS wird? Wenn auch 256-bit dann hätte man wenigstens einen Bandbreitenvorteil.

robbitop
2013-02-04, 16:52:25
MS Lösung 256 Bit DDR3 + ESRAM empfinde ich als gelungener, da die gleiche Bandbreite dabei herauskommt und man doppelt so viel RAM hat. Das könnte sich zum Ende des Lebenszykluses als sehr nützlich erweisen. Dafür opfert man allerdings Chipfläche und büßt Rechenleistung ein. Am Ende kommt es vermutlich auf ein recht änhliches Ergebnis heraus bei beiden. Der eine hat etwas schärfere Texturen, der andere etw. höhere Auflösung (Multititel).

Dural
2013-02-04, 17:02:49
128 Bit
16 ROPs

;D

schöne neue konsolen welt :wink:

Tesseract
2013-02-04, 17:16:22
Eins sollte man mal festhalten: Seit mehreren Generationen sind die Konsolen erfolgreicher, deren Hardware theoretisch unterlegen ist in der Leistung. Und Sony macht damit den selben Fehler nochmal!

cum hoc ergo propter hoc (http://de.wikipedia.org/wiki/Cum_hoc_ergo_propter_hoc)

auf den erfolg der konsolen haben mehrere faktoren einen einfluß, die größten sind image/werbung (xbox in den USA), spiele-IPs (ps3 hauptsächlich in japan, wii bei der zielgruppe casuals) und preis (wii), wobei der preis nur indirekt mit der potenz der hardware zusammen hängt und auch stark davon wieviel direkt (günstigerer preis) und indirekt (abo-systeme) subventioniert wird.

Karümel
2013-02-04, 17:19:11
Das sind die Specs?


Gibt es nicht das Gerücht das zwei verschieden neue Xboxen geben soll. Evtl. sind das dann ja die Werte für die schwächere Version?

dildo4u
2013-02-04, 17:21:00
Gibt es nicht das Gerücht das zwei verschieden neue Xboxen geben soll. Evtl. sind das dann ja die Werte für die schwächere Version?
Sowas wird nie geben ein gibt eine Konfig auf die Optimal optimiert wird,das ist ein großer Vorteil einer Konsole.

Sven77
2013-02-04, 17:25:56
Bei dem Gerücht ging es um eine SetTop-Box für Microsoft Live und die entsprechenden Apps (Hulu, Netflix usw.)

Karümel
2013-02-04, 21:01:28
Also irgendwie gehen die "Leaks" in Sachen Liestung der Konsolen immer weiter runter?
Stimmt die Aussage von John Carmack bzgl. 720P und 30 FPS dann doch wohl?

dildo4u
2013-02-04, 21:16:34
Also irgendwie gehen die "Leaks" in Sachen Liestung der Konsolen immer weiter runter?
Stimmt die Aussage von John Carmack bzgl. 720P und 30 FPS dann doch wohl?
Wie hoch die Auflösung und die FPS sind hängt wie auch diese Generation vom Entwickler ab und was er zeigen will.GT5 läuft mit 1280*1080@60fps,Uncharted 720p 30fps.

Karümel
2013-02-04, 21:24:28
Wie hoch die Auflösung und die FPS sind hängt wie auch diese Generation vom Entwickler ab und was er zeigen will.GT5 läuft mit 1280*1080@60fps,Uncharted 720p 30fps.

Ja stimmt, aber für die Mehrzahl der Spiele könnte das denn wirklich stimmen.
Hatte das schinmal geschrieben, bei der PS3 Präsentation hatte Sony (glaube ich zumindest) was von FullHD, 60FPs auf zwei Bildschirmen erzählt, dazu ein GT5 Rendervideo. Und selbst das wird bei der kommenden Generation kaum bis garnicht zu sehen sein.

Sven77
2013-02-04, 21:27:29
Also Orbis scheint genug Dampf zu haben um 1080p stemmen zu können, auch mit 60fps.. zumindest wenn man von aktuellen Spielen wie Crysis3 und/oder BF3 ausgeht

Knuddelbearli
2013-02-04, 21:29:11
nur was merkt der normale user eher

1080p und 60 fps oder doch eher 720p 30fps und dafür viel mehr super tolle filter überblend effekte usw :-/ ^^

aufkrawall
2013-02-04, 21:30:04
Den Konsolennutzer stört das doch nicht.
Pissfilter sind toll!

TheCounter
2013-02-04, 21:30:40
GT5 läuft mit 1280*1080@60fps,Uncharted 720p 30fps.

Nicht zu vergessen Forza Horizon 720p @ 30FPS + 4xMSAA + FXAA.

Bin sehr gespannt was ND, SM, 343i, Turn10 etc. alles aus den neuen Konsolen rausholen.

Also Orbis scheint genug Dampf zu haben um 1080p stemmen zu können, auch mit 60fps.. zumindest wenn man von aktuellen Spielen wie Crysis3 und/oder BF3 ausgeht

Crysis 3 in 1080p @ 60FPS? Vielleicht mit "low" als Grafikstufe.

Nicht mal ne GTX 680 schafft 60FPS @ 1080p (ohne AA!).

dildo4u
2013-02-04, 21:31:45
Ja stimmt, aber für die Mehrzahl der Spiele könnte das denn wirklich stimmen.
Hatte das schinmal geschrieben, bei der PS3 Präsentation hatte Sony (glaube ich zumindest) was von FullHD, 60FPs auf zwei Bildschirmen erzählt, dazu ein GT5 Rendervideo. Und selbst das wird bei der kommenden Generation kaum bis garnicht zu sehen sein.

Die Bandbreite und Ram Menge machen 1080p diesmal einfacher,bei der 360 musste schon ab 720p und 4XMSAA das Bild Teilen,weil der Framebuffer zu klein ist.

Xbox 360 (2005): the GPU contains an embedded 10 MiB framebuffer; this is not sufficient to hold the raster for an entire 1280×720 image with 4× anti-aliasing, so a tiling solution is superimposed.

http://en.wikipedia.org/wiki/Tiled_rendering

Die neue Xbox soll nun 32mb für den Framebuffer haben was für 1080p reicht ohne das man Tiling nutzen müsste.Die PS4 soll wie eine Moderne GPU mehrerer GB GDDR5 haben.

dargo
2013-02-04, 21:58:43
Pissfilter sind toll!
Ich liebe diese Bezeichnung. ;D Sie trifft aber perfekt zu auf das oftmals vermurkste Postprocessing.

RLZ
2013-02-04, 22:09:36
Zwischen 720p und 1080p gibt es noch einige Möglichkeiten für andere Auflösungen. Bisher haben sich die Entwickler auch eher selten an die normalen Auflösungsstufen gehalten.

Finch
2013-02-04, 22:39:06
1600x900 sollte zb ganz gut klappen.

Tesseract
2013-02-04, 22:46:20
Ich liebe diese Bezeichnung. ;D Sie trifft aber perfekt zu auf das oftmals vermurkste Postprocessing.

ja, ganz besonders die kombination geringe auflösung + unschärfe + post-AA + upscaling ist toll. da werden erst artefakte erzeugt, dann verwischt damit sie noch größer werden und damit sie das post-AA nicht mehr findet und dann aufgeblasen. da fühlt man sich in PAL-zeiten zurückversetzt. :freak:

dargo
2013-02-04, 22:54:23
ja, ganz besonders die kombination geringe auflösung + unschärfe + post-AA + upscaling ist toll. da werden erst artefakte erzeugt, dann verwischt damit sie noch größer werden und damit sie das post-AA nicht mehr findet und dann aufgeblasen. da fühlt man sich in PAL-zeiten zurückversetzt. :freak:
Ganz genau... aber hey es ist HD. 111elf :ulol:

Juice
2013-02-05, 03:05:01
cum hoc ergo propter hoc (http://de.wikipedia.org/wiki/Cum_hoc_ergo_propter_hoc)

auf den erfolg der konsolen haben mehrere faktoren einen einfluß, die größten sind image/werbung (xbox in den USA), spiele-IPs (ps3 hauptsächlich in japan, wii bei der zielgruppe casuals) und preis (wii), wobei der preis nur indirekt mit der potenz der hardware zusammen hängt und auch stark davon wieviel direkt (günstigerer preis) und indirekt (abo-systeme) subventioniert wird.

Ich habe nie behauptet, dass es da einen logischen Zusammenhang gibt. Obwohl man schon in die Richtung argumentieren könnte, habe jetzt aber keine Lust hier so eine Diskussion anzufangen.

mboeller
2013-02-05, 08:23:39
Die neue Xbox soll nun 32mb für den Framebuffer haben was für 1080p reicht ohne das man Tiling nutzen müsste.

Wenn du 4x MSAA meinst, dann lautet die Antwort IMO nein.

Backbuffer und Z-buffer sind beide AFAIK 4x so groß mit MSAA:

Also 2x [ 1920 x 1080 x 32bit x 4(MSAA)] = 2 x 31,64 MB....

Der Frontbuffer kommt dann noch dazu.

wenn du nur 2xMSAA gemeint hast, tja dann reicht es gerade so (ohne Frontbuffer).


Übrigens, die Secret Sauce der XBox 720 ist: tata....Talisman. ;D

ach ja, schade das die neuen Konsolen das hier nicht unterstützen:
http://en.wikipedia.org/wiki/Adaptive_Scalable_Texture_Compression

del_4901
2013-02-05, 08:48:14
Der Frontbuffer kommt dann noch dazu.

Nope, den kann man sich auch im normalen Speicher halten. Das war der X360 auch schon so.

robbitop
2013-02-05, 08:59:18
Bei defered Shading kommt noch zumindest noch der G-Buffer hinzu. Den lagert man sicher auch auf den normalen Speicher aus.


Mich würde interessieren, was Tiling so kostet. Es sind doch eigentlich nur die Randbereiche der Tiles bei denen die Geometrie redundant berechnet werden muss. Und soo viele Tiles sind es am Ende auch nicht, dass das so wichtig ist. Oder?

Gipsel
2013-02-05, 11:44:04
Es sind doch eigentlich nur die Randbereiche der Tiles bei denen die Geometrie redundant berechnet werden muss. Und soo viele Tiles sind es am Ende auch nicht, dass das so wichtig ist. Oder?Wenn man vorher genau wüßte, was in welchem Tile liegt ...

robbitop
2013-02-05, 11:48:02
Also muss man für jedes Tile die Geometrie komplett redundant berechnen? Bzw einmal berechnen und aus einem Puffer auslesen?

mboeller
2013-02-05, 12:31:48
Also muss man für jedes Tile die Geometrie komplett redundant berechnen? Bzw einmal berechnen und aus einem Puffer auslesen?


aus meiner Laien-Sicht: Nur das Triangle-Setup muss pro Tile ausgeführt werden. Die "fertigen" Geometrie-Daten musst du aber im RAM "zwischenlagern"

Coda
2013-02-05, 12:37:20
Man kann natürlich auch grobes Objekt-Culling machen um Zeug außerhalb eines Tiles auszuschließen.

robbitop
2013-02-05, 12:52:02
Ist Tiling denn wirklich "teuer"? Oder hält es sich in Grenzen?

Skysnake
2013-02-05, 13:02:23
Kommt drauf an. Du kannst immer Extrembeispiele konstruieren, wo es nichts oder extrem viel kostet.

Was am Ende eher zutrifft hängt halt stark vom Spiel und der Implementierung ab.

robbitop
2013-02-05, 13:45:19
Ich habe gefürchtet, dass man das nicht generalisieren kann.

Lost Boy
2013-02-05, 14:46:24
http://www.youtube.com/watch?v=xFXYr0IP4fU

Wenn die ganzen Specs final sind (gehen wir einfach mal davon aus...), kann man davon ausgehen dass wir sowas wie in dem Video auf der nächsten Konsolengeneration nicht zu sehen bekommen? Mir persönlich reicht eigentlich 720p mit guter bis sehr guter Bildqualität...

€:

Oder das hier: http://www.youtube.com/watch?annotation_id=annotation_503788&feature=iv&src_vid=xFXYr0IP4fU&v=nB_-Hi-CpOw

Silentbob
2013-02-05, 15:18:44
http://www.youtube.com/watch?v=xFXYr0IP4fU

Wenn die ganzen Specs final sind (gehen wir einfach mal davon aus...), kann man davon ausgehen dass wir sowas wie in dem Video auf der nächsten Konsolengeneration nicht zu sehen bekommen? Mir persönlich reicht eigentlich 720p mit guter bis sehr guter Bildqualität...

€:

Oder das hier: http://www.youtube.com/watch?annotation_id=annotation_503788&feature=iv&src_vid=xFXYr0IP4fU&v=nB_-Hi-CpOw

Also im 1. Video sehe ich nichts was nicht möglich sein soll. Und das 2. Video entstammt einem PC Titel von 2007. :rolleyes:

Finch
2013-02-05, 15:20:59
Du sagst es, 2007!

Nightspider
2013-02-05, 15:25:50
Leute, lernt endlich mal zu unterscheiden, das ein Video von einem selbstgebastelten Mod mit einer hochwertigen Engine aus 2007 nicht mit einem Spiel aus 2007 gleich zu setzen ist.

Unreal Engine und CryEngine sind so umfangreich, das man damit auch noch 2020 jeden PC in die Knie zwingen könnte, wenn man will.

Also erzählt mir nicht, dass das Szenen aus einem Spiel von 2007 sind. Denn ich kenne diese Selfmade Maps und Mods die 10 mal soviel Leistung fressen wie das normale Spiel.

john carmack
2013-02-05, 15:32:25
http://www.youtube.com/watch?v=xFXYr0IP4fU

Wenn die ganzen Specs final sind (gehen wir einfach mal davon aus...), kann man davon ausgehen dass wir sowas wie in dem Video auf der nächsten Konsolengeneration nicht zu sehen bekommen? Mir persönlich reicht eigentlich 720p mit guter bis sehr guter Bildqualität...

€:

Oder das hier: http://www.youtube.com/watch?annotation_id=annotation_503788&feature=iv&src_vid=xFXYr0IP4fU&v=nB_-Hi-CpOw




Ich geh ja immer noch davon aus das die Spiele wie die Samaritan Demo aussehen werden. (hoffentlich)

Nightspider
2013-02-05, 16:33:45
Ich geh ja immer noch davon aus das die Spiele wie die Samaritan Demo aussehen werden. (hoffentlich)

Das was die Hälfte der Begeisterung der Samaritan Demo ausmacht ist der extrem teure Content und die Detailfülle, die unverhältnis mäßig teuer war und so wahrscheinlich noch nicht in der kommenden Spiele-Generation vorzufinden sein wird.
Alleine um eine Figur so detailliert zu erschaffen dauert es Wochen. Wenn ein ganzes Spiel so detailliert aussehen sollte, würde das Budget wahrscheinlich 3 mal so hoch ausfallen wie bisher.

Von der Rechenleistung könnte so eine Grafik durchaus in 720p realisierbar sein, wenn auch nicht mit 100% dem gleichen Detailgrad. (Wenn ich mich richtig erinnere wurde ja alleine die komplette dritte Grafikkarte nur für Physikberechnungen, wie den Rauch und den Regen benutzt).

Die Texturen werden wohl auf jeden Fall so gut werden wie in der Samaritan Demo, wenn nicht sogar besser.

dildo4u
2013-02-05, 17:37:02
Wenn du 4x MSAA meinst, dann lautet die Antwort IMO nein.

Backbuffer und Z-buffer sind beide AFAIK 4x so groß mit MSAA:

Also 2x [ 1920 x 1080 x 32bit x 4(MSAA)] = 2 x 31,64 MB....

Der Frontbuffer kommt dann noch dazu.

wenn du nur 2xMSAA gemeint hast, tja dann reicht es gerade so (ohne Frontbuffer).

[/url]
Ich meinte 1080p hab nix von MSAA geschrieben,1080p alleine wäre schon ein Segen.Oben drauf kommt auf Konsole eh höstens noch ein Post AA Lösung,die werden ja auch recht gut siehe das SMAA von Crytek.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9635095&postcount=1262

robbitop
2013-02-06, 08:46:07
Das was die Hälfte der Begeisterung der Samaritan Demo ausmacht ist der extrem teure Content und die Detailfülle, die unverhältnis mäßig teuer war und so wahrscheinlich noch nicht in der kommenden Spiele-Generation vorzufinden sein wird.
Wurde die Samarithan Demo nicht von einer Hand voll Leuten kreiert? So teuer kann das dann nicht gewesen sein. ;)

Käsetoast
2013-02-06, 10:05:47
Wurde die Samarithan Demo nicht von einer Hand voll Leuten kreiert? So teuer kann das dann nicht gewesen sein. ;)
Zumal die Detailfülle jetzt nicht so unglaublich hoch war. Die ganzen Charaktere etc. werden ja sowieso mit ZBrush & Co auf einem Detailniveau das renderwürdig ist erstellt. Wenn das auf Normal Maps runtergebrochen wird, geht davon natürlich viel flöten, so dass man schon durch "einfaches" Relief- statt Normal-Mapping viel gewinnen kann...

Das Einzige was beim Content meiner Meinung nach sichtlich heraussticht sind Sachen wie die Gesichtsanimationen, wobei man auch hier mit den richtigen Tools keinen unglaublich hohen Zeitaufwand hätte. Ob die UE diese Tools hat ist dann die andere Frage, aber ich denke irgendwas werden die Entwickler da schon ausgetüftelt haben... :wink:

Wenn die neuen Konsolen es schaffen echtes Displacement Mapping sowie ein wenig Tesselation im größeren Stil auf die Straße zu bringen, dürften Qualitäten ähnlich wie in der Samaritan Demo durchaus drin sein und sind auch im Sinne des Arbeitsaufwands nicht unrealistisch...

xL|Sonic
2013-02-06, 10:17:48
Also wenn die Spiele auf und später über dem Level von Watch Dogs ist, wäre das schon mal ein guter Anfang.

Crazy_Bon
2013-02-06, 10:25:30
Das Einzige was beim Content meiner Meinung nach sichtlich heraussticht sind Sachen wie die Gesichtsanimationen, wobei man auch hier mit den richtigen Tools keinen unglaublich hohen Zeitaufwand hätte.
Wirklich gute und vor allem realistische Gesichtsanimationen sind durchaus schwieriger als restliche Animationen des Körpers. Einerseits hängt das von den vielen Muskeln im Gesicht ab, andererseits "lesen" wir Gesichter. Emotionen, Gesten, Gefühle müssen daher sehr überzeugend und vor allem natürlich rüberkommen, da hat auch noch selbst Hollywood ihre Probleme. Es als "einfach" anzustempeln, klingt einwenig zu voreilig.

Skysnake
2013-02-06, 10:27:48
Zumal die Detailfülle jetzt nicht so unglaublich hoch war. Die ganzen Charaktere etc. werden ja sowieso mit ZBrush & Co auf einem Detailniveau das renderwürdig ist erstellt. Wenn das auf Normal Maps runtergebrochen wird, geht davon natürlich viel flöten, so dass man schon durch "einfaches" Relief- statt Normal-Mapping viel gewinnen kann...

Das Einzige was beim Content meiner Meinung nach sichtlich heraussticht sind Sachen wie die Gesichtsanimationen, wobei man auch hier mit den richtigen Tools keinen unglaublich hohen Zeitaufwand hätte. Ob die UE diese Tools hat ist dann die andere Frage, aber ich denke irgendwas werden die Entwickler da schon ausgetüftelt haben... :wink:

Wenn die neuen Konsolen es schaffen echtes Displacement Mapping sowie ein wenig Tesselation im größeren Stil auf die Straße zu bringen, dürften Qualitäten ähnlich wie in der Samaritan Demo durchaus drin sein und sind auch im Sinne des Arbeitsaufwands nicht unrealistisch...
Du sprichst genau das richtige an!

Die Entwicklertools sind einfach unglaublich wichtig bei solchen Engines. Schaut euch doch nur mal Bäume an... Früher war das echt nen Akt, bis man schöne Bäume hatte. Heute wirft man den Algorithmus an und hat ganze Wälder dastehen...

Genau so siehts auch mit Bewegungsanimationen aus. Früher wurde das von Hand gemacht, heute wird "einfach" eine Person während der Bewegung gescannt. Das ist VIEL billiger, wenn man die gleiche Qualität hat.

Genau das Gleiche bei Gesichtsanimationen.

Und mit ganzen Figuren wird es so langsam auch gemacht. Man macht ein Kostüm für die Person und scannt Sie dann komplett ein. Oder man baut halt ein kleines Modell und scannt es dann ein. Das können viele Leute deutlich schneller als am PC etwas zu entwerfen, und vor allem hat man die typischen Materialerscheinungen, also z.B. wie porös oder rau etwas ist direkt mit dabei. Die Texturen kann man auch recht leicht extrahieren usw usw.

Hat man doch schon an dieser Demo mit der Robotertuse gesehen. Die wurde auch eingescannt.

Und überlegt mal, wie viele Alltagsgegenstände in Spielen auftreten.

Autos->scannbar
Fahrrad->scannbar
Häuser->scannbar
Kaffeemaschine->scannbar

usw usw usw

Das reduziert halt echt massiv den Aufwand, und wenn man erst mal sich einmalig eine große Bibliothek mit Objekten angelegt hat, dann kann man die auch immer und immer und immer wieder verwenden!

Vor allem, wenn man es gleich richtig macht, und nicht wie bisher immer nur das macht, was gerade nötig ist, kann man das auch noch in einigen Jahren verwenden. Man muss halt nur mit genug Auflösung/Detailgrad einscannen. Sind die Dateien eben sehr groß. Scheis drauf. Runterrechnen muss man es eh, man müsste aber nur einmalig die Sachen einscannen.

robbitop
2013-02-06, 10:28:32
Wirklich gute und vor allem realistische Gesichtsanimationen sind durchaus schwieriger als restliche Animationen des Körpers. Einerseits hängt das von den vielen Muskeln im Gesicht ab, andererseits "lesen" wir Gesichter. Emotionen, Gesten, Gefühle müssen daher sehr überzeugend und vor allem natürlich rüberkommen, da hat auch noch selbst Hollywood ihre Probleme. Es als "einfach" anzustempeln, klingt einwenig zu voreilig.

Naja Gesichtsanimationen sind heute aber schon ziemlich einfach zu erstellen. Das Know How ist bereits aufgebaut und vorhanden (was nicht heißt, dass es nicht noch besser geht und daran geforscht wird). Es gibt fertige Tools dafür. Du musst lediglich mit Schauspielern ein Motion Capturing machen. Das ist halt je nach Ausmaß des Kontents teuer. Aber das reine Erstellen ist nicht schlimm. Da gab es mal eine Gametrailers Episode, bei der sie das gezeigt und getestet haben. Das Ergebnis sah sehr gut aus und war auch ziemlich fix fertig.

Coda
2013-02-06, 11:17:55
Naja Gesichtsanimationen sind heute aber schon ziemlich einfach zu erstellen.
Du hast gar keine Ahnung wie sehr du daneben liegst mit dieser Aussage.

Ja, wenn man einmal ein Rig hat, dann geht es relativ fix. Das dauert aber Ewigkeiten. Und die Daten muss man dann trotzdem nach dem MoCap nochmal überarbeiten.

robbitop
2013-02-06, 11:23:04
Du hast gar keine Ahnung wie sehr du daneben liegst mit dieser Aussage.

Ja, wenn man einmal ein Rig hat, dann geht es relativ fix. Das dauert aber Ewigkeiten. Und die Daten muss man dann trotzdem nach dem MoCap nochmal überarbeiten.
Genau das habe ich damit gemeint. Wenn man das Tool schon hat, geht es fix. Wenn man es selbst entwickeln muss - und alle Tools dahinter - ist es klar, dass das teuer und aufwändig wird. Wenn man es aber erstmal hat und nur noch benutzen muss, eben nicht mehr.

Es gibt auch einige Firmen, die das alles schon haben und die man nur noch beauftragen muss. Größere Studios haben vermutlich ihr eigenes.

Coda
2013-02-06, 11:27:26
Nein, du hast mich falsch verstanden. Man braucht ein Rig in (beispielsweise) Maya pro Face. Das ist nicht einmal entwickelt und dann benutzt man es beliebig weiter. Da müssen jedes Mal Blend Shapes/Wrinklemaps/Bone Influences aufgesetzt werden und dann diese Parameter zu den MoCap-Input-Daten gemappt werden.

Das dauert Monate, wenn man Next-Gen-Qualität erreichen will.

Ob das jetzt Outsourcing macht oder es intern erstellt wird ändert ja nichts am Aufwand.

robbitop
2013-02-06, 11:57:14
Also in der GT Episode haben sie die Moderatoren gecaptured und am gleichen Tag hatten sie das 3D Modell mit den Animationen der Aufnahme fertig.

Sven77
2013-02-06, 12:02:22
Also in der GT Episode haben sie die Moderatoren gecaptured und am gleichen Tag hatten sie das 3D Modell mit den Animationen der Aufnahme fertig.

Link.. ich hab nur Erfahrung mit MoCap im Filmbereich, aber selten bis nie sind MoCap-Daten ohne Ueberarbeitung benutzbar..

Coda
2013-02-06, 12:06:36
Also in der GT Episode haben sie die Moderatoren gecaptured und am gleichen Tag hatten sie das 3D Modell mit den Animationen der Aufnahme fertig.
Die Qualität kannst du vergessen.

robbitop
2013-02-06, 12:07:40
@Sven
Ich such jetzt garantiert nicht in den tausenden GTTV Episoden die letzten Jahre durch.
Vieleicht haben sie da auch was überarbeitet - aber es schien sich in Grenzen zu halten. War offenbar am gleichen Tag fertig.

Sven77
2013-02-06, 12:10:05
Die Qualität kannst du vergessen.

Denke ich auch, fuer Sendung mit der Maus zur Praesentation wirds reichen aber fuer ne Abnahme?
Selbst bei aktuellen Vicon Systemen hat man soviele Fehler drin, die man zwar filtern kann, das Ergebnis ist dann aber wieder meeh. Also muss man von Hand hin und Kurven bearbeiten..

Skysnake
2013-02-06, 12:32:26
Ähm reder ihr vom animieren eines modellierten Gesichts?

Wenn ja, klar das man da vieles anpassen muss.

Wenn man aber das Gesicht verwendet, das man auch aufzeichnet, also praktisch die Geometrie 1:1 verwendet, dann sollte man da eigentlich nicht mehr anpassen müssen. Man hat ja alle Bewegungspunkte + Gittermodell fertig.

Da gehts dann ja nur noch darum die Datenflut zu bändigen.

Für die Animation von nem X beliebigen Gesicht geht das natürlich nicht.

robbitop
2013-02-06, 13:08:36
Warum sollte man dann noch Gesichter modellieren, wenn man auch welche aufnehmen kann und das dann viel schneller geht?

TheCounter
2013-02-06, 13:11:02
World Exclusive: Durango’s Move Engines

http://www.vgleaks.com/world-exclusive-durangos-move-engines/

The Durango GPU includes a number of fixed-function accelerators. Move engines are one of them.

Durango hardware has four move engines for fast direct memory access (DMA)

This accelerators are truly fixed-function, in the sense that their algorithms are embedded in hardware. They can usually be considered black boxes with no intermediate results that are visible to software. When used for their designed purpose, however, they can offload work from the rest of the system and obtain useful results at minimal cost.

The following figure shows the Durango move engines and their sub-components.

http://img717.imageshack.us/img717/736/002ef6273e6c40dea177c9b.png

The four move engines all have a common baseline ability to move memory in any combination of the following ways:

From main RAM or from ESRAM
To main RAM or to ESRAM
From linear or tiled memory format
To linear or tiled memory format
From a sub-rectangle of a texture
To a sub-rectangle of a texture
From a sub-box of a 3D texture
To a sub-box of a 3D texture

The move engines can also be used to set an area of memory to a constant value.

megachip800
2013-02-06, 13:18:25
reichen die 32MB für deferred Rendering Techniken?

Auf Beyond3D gibt es infos, das man bei deferred Rendering mit 28byte pro pixel rechnen muss. Bei 1080p wären das 56MB. Oder ist es "einfach" wieder Tiling zu benutzen, so wie bei der X360?

Die Spieleentwickler hassen Tiling damit hat Microsoft die Sache wieder unötig verkompliziert.

00-Schneider
2013-02-06, 13:27:32
"Studios working with the next-gen Xbox are currently being forced to work with only approved development libraries, while Sony is encouraging coders to get closer to the metal of its box. Furthermore, the operating system overhead of Microsoft’s next console is more oppressive than Sony’s equivalent, giving the PlayStation-badged unit another advantage."

http://www.edge-online.com/news/the-next-xbox-always-online-no-second-hand-games-50gb-blu-ray-discs-and-new-kinect/

robbitop
2013-02-06, 13:28:30
Die Spieleentwickler hassen Tiling damit hat Microsoft die Sache wieder unötig verkompliziert.
Quelle?

Wirklich kompliziert aus HW Sicht sind eher die bisherigen Playstations. Die X360 war eine sehr balancierte (und zu ihrer Zeit starke) Konsole.
Tiling war nur notwendig wenn mehr als 720p ohne MSAA drin sein sollte.

Skysnake
2013-02-06, 13:30:27
4 DMA Engines?

Die aktuellen GPUs haben doch normal nur 2 oder nicht?

Sven77
2013-02-06, 13:43:23
Warum sollte man dann noch Gesichter modellieren, wenn man auch welche aufnehmen kann und das dann viel schneller geht?

Wie aufnehmen? Scannen? Gamecharacter-pipelines sehen eigentlich immer gleich aus..

megachip800
2013-02-06, 13:51:57
Details wollen auch hübsch mit Texturen überzogen werden. Und am Speicher für dieses mangelt es doch den Konsolen.

Die schlechte Texturdarstellung bei den aktuellen Spielsystemen ist nicht in erster Linie das Resultat eines zu
kleinen Speichers sondern das Ergebnis einer zu schmalen Busbandbreite sowie einer schlechten Texturverarbeitung der Gpus , die unfähigkeit unkomprimierte Texturen mit voller Farbbrillianz darzustellen.
Mich stört nicht die niedrige Auflösung sondern dieser farblich ausgebleichte , überkomprimierte wie milchige Look der Texturen die in einer langweiligen , wenig abwechslungsreichen Farbumgebung eingehüllt sind , Kompressionsartefakte die aussehen wie der Ham Modus beim Amiga. Die Texturen sind nicht farbecht und
die schlechte wie unprofessionelle Pallettierung seitens den Spieleentwickler gibt der ganzen Sache noch den
Rest. Ich hoffe das in Zukunft auf Texturkompression komplett verzichtet wird und die Spiele mit einer
abwechslungsreichen Pallettierung aufwarten , ich kann diesen beschissenen Look aktueller Spiele nicht mehr
sehen.

del_4901
2013-02-06, 13:55:13
World Exclusive: Durango’s Move Engines

http://www.vgleaks.com/world-exclusive-durangos-move-engines/
WOW, das haette man nun wirklich nicht in Compute implementieren koennen ... :facepalm:.
Und das bei dem speed: 25.6 GB/s ... laecherlich!

Skysnake
2013-02-06, 14:11:35
Dir ist aber schon klar, dass du dadurch parallelität gewinnst?

Das ist echt praktisch.

robbitop
2013-02-06, 14:35:47
Ich hoffe das in Zukunft auf Texturkompression komplett verzichtet wird
:freak: Wie sinnvoll...

del_4901
2013-02-06, 14:41:02
Dir ist aber schon klar, dass du dadurch parallelität gewinnst?

Das ist echt praktisch.
Das kann man auch bei Compute gewinnen.

Nightspider
2013-02-06, 14:43:03
Wurde die Samarithan Demo nicht von einer Hand voll Leuten kreiert? So teuer kann das dann nicht gewesen sein. ;)
Zumal die Detailfülle jetzt nicht so unglaublich hoch war.

:rolleyes:

Siehe:

Tim Sweeney, Berater von Epic Games, glaubt, dass die Entwicklungskosten für Games der nächsten Konsolengeneration auf das Doppelte ansteigen werden.

Während einer Präsentation auf dem Montreal International Game Summit erwähnte Sweeney riesige Kosten bei der Entwicklung der “Samaritan“-Tech-Demoversion der Unreal-3-Engine. Mit einer Mannschaft von 30 Leuten dauerte es vier Monate, um die Arbeiten an der Demoversion zu beenden. In anderen Worten: viel zu lange für eine drei Minuten lange Testversion.

Sweeney sagte hierzu gegenüber der Webseite „Gamasutra“: „Als wir die Kosten der Samaritan-Produktion auf ein gesamtes Spiel hochgerechnet haben, waren wir besorgt, drei-, vier- oder sogar fünffache Entwicklungskosten für Spiele der nächsten Generation in Kauf nehmen zu müssen. Natürlich war das nicht akzeptabel.“

Die hohen Produktionskosten des “Samaritan”-Demos haben dazu geführt, dass das Unternehmen die Inhalte des Games und die Produktionswerkzeuge anpassten. Epic Games hat die Anzahl der Entwickler erhöht, die an der Unreal-Engine-4 arbeiten. Durch eine weitere Tech-Demoversion („Elemental“) glaubt Sweeney bewiesen zu haben, dass sich die Investitionen in die Werkzeuge ausgezahlt haben. Er nannte keine genaueren Zahlen, sagte aber, dass die Entwicklung mit „sehr schnellem Tempo“ vonstatten geht.

Abschließend erklärte Sweeney: „Die Kosten werden sich immer weiter nach oben bewegen. Wir hoffen, dass die Entwicklungskosten für ein Spiel der nächsten Generation im Vergleich zu einem Game auf den gegenwärtigen Konsolengenerationen nicht mehr als das Doppelte betragen werden.“

robbitop
2013-02-06, 15:04:29
Quelle? Ich hatte das komplett anders in Erinnerung. Falls es stimmt: nevermind.

megachip800
2013-02-06, 15:10:26
:freak: Wie sinnvoll...

Ja wo ist das Problem??? Moderne Gpus werden in Zukunft mehrere hunderte Gybte/ s an Daten verarbeiten können wozu brauche ich da noch Kompression/Dekompression? Und du kannst mir nicht erzählen das
man problemlos hochauflösende wie bildschirmfüllende Texturen effektiv noch dekomprimieren kann , das würde der Gpu zu viel Rechenleistung kosten und erhöht die Latenz innerhalb der Grafikverarbeitung.
Texturkompression arbeitet nur mit relativ kleinen Texturen effektiv und wurde damals eingesetzt wo Videospeicher/Bandbreite knapp war wie zum Beispiel beim Dreamcast , da war das noch sinnvoll gewesen nicht aber heute. Je größer die interne und externe Busbandbreite der Gpus , je größer der Texturcache desto weniger besteht der Zwang auf Kompression zurückzugreifen.

robbitop
2013-02-06, 15:14:46
Ja wo ist das Problem??? Moderne Gpus werden in Zukunft mehrere hunderte Gybte/ s an Daten verarbeiten können wozu brauche ich da noch Kompression/Dekompression? Und du kannst mir nicht erzählen das
man problemlos hochauflösende wie bildschirmfüllende Texturen effektiv noch dekomprimieren kann , das würde der Gpu zu viel Rechenleistung kosten und erhöht die Latenz innerhalb der Grafikverarbeitung.
Texturkompression arbeitet nur mit relativ kleinen Texturen effektiv und wurde damals eingesetzt wo Videospeicher/Bandbreite knapp war wie zum Beispiel beim Dreamcast , da war das noch sinnvoll gewesen nicht aber heute. Je größer die interne und externe Busbandbreite der Gpus , je größer der Texturcache desto weniger besteht der Zwang auf Kompression zurückzugreifen.
Texturkomprimierung ist genauso sinnvoll wie Videokomprimierung oder Audiokomprimierung. Bei entsprechender Größe, merkst du, auch verlustbehaftet, keinen Unterschied. Sparst aber Größenordnungen an Speicher und Bandbreite. Unkomprimierte Texturen: Das wäre sinnfrei.

Full HD Videos wären ohne Komprimierung heute zu Hause nicht möglich. Die Bilder, die jeder Mensch mit seiner Kamera schießt, wären 10x so groß. (das macht bspw nur Sinn, wenn die Bilder nochmal professionell nachbearbeitet werden sollen) Wir hätten mit heutiger High End HW ohne Texturkomprimierung vieleicht das Level von vor einem halben Jahrzehnt. Entschuldige - aber du liegst falsch.

Was du meinst, ist schlechter Kontent, zu hoher Kompressionsgrad oder eine zu niedrige Auflösung.

del_4901
2013-02-06, 15:19:20
Und du kannst mir nicht erzählen das man problemlos hochauflösende wie bildschirmfüllende Texturen effektiv noch dekomprimieren kann , das würde der Gpu zu viel Rechenleistung kosten und erhöht die Latenz innerhalb der Grafikverarbeitung.
:facepalm: Die Textur-Block-DeKompression ist in Hardware gegossen und kostet genau nichts auf der GPU. Was man dafuer an Bandbreite spaart ist enorm und bringt ordentlich speed.

Coda
2013-02-06, 15:21:17
zlib kannst du nicht in compute machen.

Und so ein Jaguar-Core schafft vielleicht wenn man Glück hat so 100MB/s zlib.

fizzo
2013-02-06, 15:22:45
Neue Details zur Xbox 720 von der EDGE: 50GB Blu-ray, keine Gebrauchtspiele und immer online

06.02.13 - Die britische EDGE hat ein paar Infos zur Xbox 720 (Durango) von Microsoft veröffentlicht. Keine der Angaben wurden von Microsoft bestätigt. Sie stammen laut EDGE von Personan, die Zugang zum Xbox 360-Nachfolger haben und mit den technischen Daten vertraut sind.

- Die nächste Xbox benötigt eine Internet-Verbindung, um zu funktionieren.

- Die Spiele werden auf 50GB Blu-ray Discs angeboten. Sie sollen vermutlich einen Aktivierungs-Code besitzen, der sich nur einmal vom Erstbesitzer des Spiels verwenden lässt. Damit will Microsoft den Gebrauchthandel ausschalten, weil das Spiel für einen Gebrauchtkäufer dadurch wertlos ist.

- AMD 8-Kern x64 1.6GHz CPU

- D3D11.x 800MHz GPU

- 8GB DDR3 RAM

- Eine neue Kinect-Bewegungssteuerung wird zeitgleich mit der Konsole ausgeliefert.



www.gamefront.de

Hoffe das ist mal eine Fehlinfo :ugly:

robbitop
2013-02-06, 15:33:37
Das ist jetzt die Chance für Sony, genau das Gegenteil zu machen: also Gebrauchtspiele weiterhin zuzulassen. Damit könnten sie, wenn sie es gut vermarkten, MS ordentlich das Wasser abgraben.

Oder sie machen einen auf Absprache und ziehen mit.

Deinorius
2013-02-06, 15:37:01
Selbst wenn M$ Gebrauchtspiele wirklich verbietet, müsste dafür die Internetverbindung wirklich ohne Ende bestehen? Es ist mir klar, dass es dadurch natürlich deutlich vereinfacht wird, aber gäbe es nicht auch eine Alternative?

@robbitop
Wäre sehr amüsant die Auswirkungen desse beobachten zu dürfen. Wenn dadurch M$ verliert und Sony deutlich besser dastünde, wäre das an sich ein deutliches Zeichen für die Publisher.

Diese Seite war mal wieder obskur... amüsant...

Skysnake
2013-02-06, 15:39:35
Das kann man auch bei Comute gewinnen.
Du menist wohl Compute.

Du vergisst dabei aber den Overhead des aufsetztens, UND du belegst dabei eben auch die entsprechenden ALUs usw. Das ist keine zusätzliche Paralelität...

Skysnake
2013-02-06, 15:41:58
Das ist jetzt die Chance für Sony, genau das Gegenteil zu machen: also Gebrauchtspiele weiterhin zuzulassen. Damit könnten sie, wenn sie es gut vermarkten, MS ordentlich das Wasser abgraben.

Oder sie machen einen auf Absprache und ziehen mit.
Die werden das selbst liebend gern mit machen...

Das wird genau wie bei den Öl-Multis laufen... Gutes beobachten des Marktes und dann ohne! direkte Absprache sich eben doch "Absprechen" nur halt durch schlüssiges Handeln, was beiden nutzt...

Selbst wenn M$ Gebrauchtspiele wirklich verbietet, müsste dafür die Internetverbindung wirklich ohne Ende bestehen? Es ist mir klar, dass es dadurch natürlich deutlich vereinfacht wird, aber gäbe es nicht auch eine Alternative?

@robbitop
Wäre sehr amüsant die Auswirkungen desse beobachten zu dürfen. Wenn dadurch M$ verliert und Sony deutlich besser dastünde, wäre das an sich ein deutliches Zeichen für die Publisher.

Diese Seite war mal wieder obskur... amüsant...
Das ist einfach DRECK!

Ich hoffe wirklich, dass die EU da mal noch weiter dagegen schießt, und den ganzen Software-Publishern mal dick eins auf die Lippe gibt....

Genau wie MS mit ihren OEM-Versionen!

robbitop
2013-02-06, 15:47:22
Naja die Frage ist, ob der Effekt des Zugewinns von Käufern der anderen Konsole die Mehreinnahmen durch das Verhindern des Gebrauchtspielemarktes nicht übertrifft. Laut Pachter soll der Gebrauchtspielemarkt jetzt gar nicht sooo viel Umsätze kosten. Er schätzte IIRC auf 5 %.
Wenn du dafür aber schön MS öffentlich bloßstellen kannst und denen richtig Käufer abluchsen kannst, könnte sich das rechnen. Naja - den Publishern von Multi-Titeln wäre es wohl egal ob Sony oder MS. Hauptsache keinen Gebrauchtspielemarkt...

megachip800
2013-02-06, 15:51:20
Texturkomprimierung ist genauso sinnvoll wie Videokomprimierung oder Audiokomprimierung. Bei entsprechender Größe, merkst du, auch verlustbehaftet, keinen Unterschied. Sparst aber Größenordnungen an Speicher und Bandbreite. Unkomprimierte Texturen: Das wäre sinnfrei.

Full HD Videos wären ohne Komprimierung heute zu Hause nicht möglich. Die Bilder, die jeder Mensch mit seiner Kamera schießt, wären 10x so groß. (das macht bspw nur Sinn, wenn die Bilder nochmal professionell nachbearbeitet werden sollen) Wir hätten mit heutiger High End HW ohne Texturkomprimierung vieleicht das Level von vor einem halben Jahrzehnt. Entschuldige - aber du liegst falsch.

Was du meinst, ist schlechter Kontent, zu hoher Kompressionsgrad oder eine zu niedrige Auflösung.

Dein Vergleich hinkt. Die Busbandbreite und Geschwindigkeit einer Gpu ist um Welten höher als die Lesegeschwindigkeit einer Bluray oder Dvd. 15 mbyte/s zu 200 gbyte/s hallo?? Zum anderen arbeitet die
Texturkompression in den Gpus nicht so effektiv wie das Kompressionsverfahren bei einem Blurayfilm , das gleiche gilt für die jpg Konvertierung bei Aperture von Raw Bildern. Mit steigender Texturauflösung, Farbtiefe und Texturgröße tendiert der nutzen der Texturdekompression in den Gpus gegen Null.

Coda
2013-02-06, 15:54:38
Du hast keine Ahnung von was du redest megachip. Sorry, is so.

Kein DXT zu verwenden ist absurd und würde die Performance sehr wohl beeinträchtigen.

robbitop
2013-02-06, 16:00:39
Dein Vergleich hinkt. Die Busbandbreite und Geschwindigkeit einer Gpu ist um Welten höher als die Lesegeschwindigkeit einer Bluray oder Dvd. 15 mbyte/s zu 200 gbyte/s hallo?? Zum anderen arbeitet die
Texturkompression in den Gpus nicht so effektiv wie das Kompressionsverfahren bei einem Blurayfilm , das gleiche gilt für die jpg Konvertierung bei Aperture von Raw Bildern. Mit steigender Texturauflösung, Farbtiefe und Texturgröße tendiert der nutzen der Texturdekompression in den Gpus gegen Null.
Das sind Analogien. Was meinst du, was heutige Texturen eines Levels schon in komprimierter Form kosten. Einige Gigabyte im VRAM. Du bräuchtest unkomprimiert die ~10 Fache Menge VRAM. Das gleiche gilt für Bandbreite. Texturen nehmen einen nicht unbeträchtlichen Anteil der Bandbreite heutiger GPUs in beschlag. Du musst die ja ständig in die Caches laden. Und das für ettliche Objekte ettliche Male pro Bild. Bei guter Komprimierung siehst du da außerdem keine Unterschiede...

Ich empfehle wirklich wenigstens ein paar Grundlagenartikel zum Thema 3D Rendering und ggf. Komprimierung zu lesen. Es macht sonst wirklich keinen Sinn darüber zu diskutieren.

megachip800
2013-02-06, 16:10:45
Du hast keine Ahnung von was du redest megachip. Sorry, is so.

Kein DXT zu verwenden ist absurd und würde die Performance sehr wohl beeinträchtigen.

Dann müssen die Hersteller ebend bessere Grafiksysteme bauen mit größeren Bandbreiten etc. , das ist also nicht mein Problem wenn die Hersteller bei der Technik sparen oder vor der Technik kapitulieren. Gesezt den Fall das Ps4 und Co. noch einen Nachfolger bekommen könnte eine neue Konsole im Jahre 2018 theoretisch
16 - 24 Gbyte Ram haben, glaubst du wirklich das man da mit Kompression arbeiten muß? Zeig mir mal ein Beweis das das Dxt Format bei hochauflösenden großen Texturen mit 24 bit Farbtiefe genauso effektiv arbeitet
wie niedrig aufgelöste Texturen mit nur 8 Bit. Ich kann das nicht glauben....

del_4901
2013-02-06, 16:15:54
Du vergisst dabei aber den Overhead des aufsetztens, UND du belegst dabei eben auch die entsprechenden ALUs usw. Das ist keine zusätzliche Paralelität...
Welchen Overhead, oder anders gefragt: Was soll bei async Compute mehr kosten als bei async DMA move?
Es ist ja nicht so als wuerden viele ALUs einfach Daeumchen drehen, waehrend der normalen Grafik-Arbeit. Besonders beim Depth Prepass oder Shadowmap Rendering.
zlib kannst du nicht in compute machen.

Und so ein Jaguar-Core schafft vielleicht wenn man Glück hat so 100MB/s zlib.
Das ist nur LZ77 und auch nur @200MB/s mit den move engines. Und jetzt nenn mir bitte nochmal nen Grund warum das nicht auch mit Compute gehen sollte? LZ77 ist "sliding window" mit Huffmancode und das laesst sich bestimmt irgendwie auf eine fold-operation abbilden.

Zeig mir mal ein Beweis das das Dxt Format bei hochauflösenden großen Texturen mit 24 bit Farbtiefe genauso effektiv arbeitet
wie niedrig aufgelöste Texturen mit nur 8 Bit. Ich kann das nicht glauben....Zeig du mir erstmal einen einzigen Use-Case wo man 24bit pro Channel in games braucht. (HDR in Games != HDR in der Photographie)

robbitop
2013-02-06, 16:23:12
Dann müssen die Hersteller ebend bessere Grafiksysteme bauen mit größeren Bandbreiten etc. , das ist also nicht mein Problem wenn die Hersteller bei der Technik sparen oder vor der Technik kapitulieren. Gesezt den Fall das Ps4 und Co. noch einen Nachfolger bekommen könnte eine neue Konsole im Jahre 2018 theoretisch
16 - 24 Gbyte Ram haben, glaubst du wirklich das man da mit Kompression arbeiten muß? Zeig mir mal ein Beweis das das Dxt Format bei hochauflösenden großen Texturen mit 24 bit Farbtiefe genauso effektiv arbeitet
wie niedrig aufgelöste Texturen mit nur 8 Bit. Ich kann das nicht glauben....
Warum soll man denn Texturkomprimierung aufgeben, wenn es keine Nachteile dadurch gibt? Das ist wie Video und Audiokomprimierung aufzugeben. Lieber investierst du die gesparte Bandbreite / VRAM und löst die Texturen höher auf. Dann hast du mit immer noch weniger Bandbreiten / VRAM Bedarf deutlich schönere Ergebnisse als unkomprimiert.
Sichtbare Komprimierungsartefakte hast du doch nur, wenn du es übertreiben solltest. DXT ist standartisiert - also kann dort auch nicht übertrieben werden.

RLZ
2013-02-06, 16:24:06
Zeig mir mal ein Beweis das das Dxt Format bei hochauflösenden großen Texturen mit 24 bit Farbtiefe genauso effektiv arbeitet
wie niedrig aufgelöste Texturen mit nur 8 Bit. Ich kann das nicht glauben....
Wenn du auch nur annähernd die Funktionweise und den Unterschied zwischen Image- und Texturecompression verstanden hättest, würdest du keinen Beweis verlangen.

Coda
2013-02-06, 16:35:21
Das ist nur LZ77 und auch nur @200MB/s mit den move engines. Und jetzt nenn mir bitte nochmal nen Grund warum das nicht auch mit Compute gehen sollte? LZ77 ist "sliding window" mit Huffmancode und das laesst sich bestimmt irgendwie auf eine fold-operation abbilden.
Wie willst du Huffman bitte parallelisieren? Du musst Bit für Bit anschauen, weil du keine Offsets vorher weißt.

mironicus
2013-02-06, 16:36:32
Wie schnell ist ein Jaguar-Core? Etwas schneller ein Bobcat-Core?

robbitop
2013-02-06, 16:39:16
Angeblich 15 % schneller bei gleichem Takt. Die FPU wurde allerdings doppelt so breit ausgelegt. Da dürfte dann doch ein Stück mehr gehen, wenn es sehr FP lastig wird.

Coda
2013-02-06, 16:39:55
Dann müssen die Hersteller ebend bessere Grafiksysteme bauen mit größeren Bandbreiten etc.
Nein müssen sie nicht. Es ist immer besser 6x höher aufgelöste Texturen für die gleiche Bandbreite mit sonst praktisch nicht wahrnehmbarer Verschlechterung der Qualität zu bekommen.

Wie schnell ist ein Jaguar-Core? Etwas schneller ein Bobcat-Core?
~20% mehr Durchsatz bei selbem Takt iirc.

megachip800
2013-02-06, 16:48:08
Ich empfehle wirklich wenigstens ein paar Grundlagenartikel zum Thema 3D Rendering und ggf. Komprimierung zu lesen. Es macht sonst wirklich keinen Sinn darüber zu diskutieren.

Das habe ich gemacht ich habe aber auch gegenteilige Meinungen gehört und stehe der ganzen
Kompressionsgechichte deshalb skeptisch gegenüber. Meine Aussagen waren auch mehr auf die Zukunft
projeziert wenn wir mal Bandbreiten im Tbyte Bereich haben werden. Und die Recheneinheit in den Gpus
die für die Dekompression von den Texturen zuständig ist ist zu klein um die nötige Qualität einer CGI
Optik zu gwährleisten das kann doch nun wirklich keiner leugnen.

pest
2013-02-06, 16:51:28
Wie willst du Huffman bitte parallelisieren? Du musst Bit für Bit anschauen, weil du keine Offsets vorher weißt.

es gibt Versuche LZ77 als Compute Anwendung zu verwenden. BWT Verfahren (mit begrenzter Ordnung) arbeiten z.B. Hervorragend auf einer GPU.

LZ77 als Dekodiervorgang an sich ist ja nur move/rep, das lässt sich gut parallelisieren wenn man erst einmal die Codes kennt.

Ich frage mich allerdings welche Texturkompression LZ77 benutzt?

dildo4u
2013-02-06, 16:51:50
Die werden das selbst liebend gern mit machen...

Das wird genau wie bei den Öl-Multis laufen... Gutes beobachten des Marktes und dann ohne! direkte Absprache sich eben doch "Absprechen" nur halt durch schlüssiges Handeln, was beiden nutzt...


Das ist einfach DRECK!

Ich hoffe wirklich, dass die EU da mal noch weiter dagegen schießt, und den ganzen Software-Publishern mal dick eins auf die Lippe gibt....

Genau wie MS mit ihren OEM-Versionen!
Die PCler haben es doch schon lange gefressen,siehe Origin oder Steam.Von der EU wird da nicht viel kommen.

Skysnake
2013-02-06, 16:52:19
Dann müssen die Hersteller ebend bessere Grafiksysteme bauen mit größeren Bandbreiten etc. , das ist also nicht mein Problem wenn die Hersteller bei der Technik sparen oder vor der Technik kapitulieren. Gesezt den Fall das Ps4 und Co. noch einen Nachfolger bekommen könnte eine neue Konsole im Jahre 2018 theoretisch
16 - 24 Gbyte Ram haben, glaubst du wirklich das man da mit Kompression arbeiten muß? Zeig mir mal ein Beweis das das Dxt Format bei hochauflösenden großen Texturen mit 24 bit Farbtiefe genauso effektiv arbeitet
wie niedrig aufgelöste Texturen mit nur 8 Bit. Ich kann das nicht glauben....
Komm lass gut sein...

Sorry, aber du hast absolut keine Ahnung, und fängst mit irgendwelchen Hirngespinsten an, als ob man einfach mal so GB mehr Ram, geschweige denn xGB/s mehr Bandbreite erhalten könnte -_-

Auf die Einsparungen durch Komrimierung, die man nicht sieht (oder ist die eventuell sogar verlustfrei?) zu verzichten, einfach weil es halt "c00ler" ist, darauf zu verzichten ist halt einfach dumm wie Stroh...

Welchen Overhead, oder anders gefragt: Was soll bei async Compute mehr kosten als bei async DMA move?
Es ist ja nicht so als wuerden viele ALUs einfach Daeumchen drehen, waehrend der normalen Grafik-Arbeit. Besonders beim Depth Prepass oder Shadowmap Rendering.

Immer wenn du nen Compute-Task aufsetzt, hast du den gesamten Overhead aus der Initialisierung eines neuen Task. Du musst das also auf die Hardware mappen usw usw. Aufm PC sind das einige Millisekunden. Das kann man bei weitem nicht vernachlässigen!

Zudem hast du immer ganze CUs die abgestellt werden für so einen Transfer, und während des Transfers ideln Sie halt auch noch zum großteil...

Die DMA-Enginges zu verwenden macht schon sehr großen Sinn. Der Overhead wird da auch viel viel kleiner ausfallen, und man pfuscht sich nicht in die normale Abarbeitung von Tasks rein. Das kann schnell mal 10% und mehr kosten...

Coda
2013-02-06, 16:54:06
es gibt Versuche LZ77 als Compute Anwendung zu verwenden. BWT Verfahren (mit begrenzter Ordnung) arbeiten z.B. Hervorragend auf einer GPU.

LZ77 als Dekodiervorgang an sich ist ja nur move/rep, das lässt sich gut parallelisieren wenn man erst einmal die Codes kennt.

Ich frage mich allerdings welche Texturkompression LZ77 benutzt?
Es geht aber nicht um LZ77 sondern Huffman?

Skysnake
2013-02-06, 16:54:13
Die PCler haben es doch schon lange gefressen,siehe Origin oder Steam.Von der EU wird da nicht viel kommen.
Wie lange hatten es die "PCler" bei MS "gefressen" bis es anders kam?:rolleyes:

Hier setzt so langsam erst ein echtes Problembewusstsein ein!

megachip800
2013-02-06, 16:58:00
Nein müssen sie nicht. Es ist immer besser 6x höher aufgelöste Texturen für die gleiche Bandbreite mit sonst praktisch nicht wahrnehmbarer Verschlechterung der Qualität zu bekommen.


~20% mehr Durchsatz bei selbem Takt iirc.

Die Hersteller sind verpflichtet technische Innovationen auf den Markt zu bringen ansonsten würde ich dort
kein Geld mehr investieren. Der Hersteller muß für den Kunden da sein und nicht umgekehrt. Ich bin Hobbymusiker und zeichne meine Musik mit 24Bit und 96khz auf würden die Hersteller ihre Aufnahmesysteme
auf Mp3 umstellen da würde ich ja auf die Barrikaden gehen. Aber es ist interessant wie hier die Inkompetenz
der IT Industrie von einigen hier im Forum gedeckt wird und man die arrogante Haltung der Hersteller versucht
noch zu rechtfertigen.

del_4901
2013-02-06, 17:02:22
Es geht aber nicht um LZ77 sondern Huffman?
Die Move Engines koennen nur LZ77, Huffman kommt bei DEFLATE zum Einsatz, dabei hatte ich mich vertan.
Immer wenn du nen Compute-Task aufsetzt, hast du den gesamten Overhead aus der Initialisierung eines neuen Task. Du musst das also auf die Hardware mappen usw usw. Aufm PC sind das einige Millisekunden. Das kann man bei weitem nicht vernachlässigen!
Die DMA-Enginges zu verwenden macht schon sehr großen Sinn. Der Overhead wird da auch viel viel kleiner ausfallen, und man pfuscht sich nicht in die normale Abarbeitung von Tasks rein. Das kann schnell mal 10% und mehr kosten... Auf einer Console mit Unified Memory ist der Overhead Vernachlaessigbar klein.

Zudem hast du immer ganze CUs die abgestellt werden für so einen Transfer, und während des Transfers ideln Sie halt auch noch zum großteil...
Die CUs ideln auch bei normaler Grafikarbeit, daher kann man da schon einfach mal nen Compute Task zwischen-schieben, die HW kuemmert sich dann schon um das balancing.

Coda
2013-02-06, 17:03:28
PM.

robbitop
2013-02-06, 17:05:46
Das habe ich gemacht ich habe aber auch gegenteilige Meinungen gehört und stehe der ganzen
Kompressionsgechichte deshalb skeptisch gegenüber. Meine Aussagen waren auch mehr auf die Zukunft
projeziert wenn wir mal Bandbreiten im Tbyte Bereich haben werden. Und die Recheneinheit in den Gpus
die für die Dekompression von den Texturen zuständig ist ist zu klein um die nötige Qualität einer CGI
Optik zu gwährleisten das kann doch nun wirklich keiner leugnen.
Eben doch. Der sichtbare Qualitätsgewinn ist nahe 0. Du musst aber VRAM und Bandbreite massiv investieren. Die wirst du immer - auch in Zukunft - eher in höhere Auflösung investieren und dadurch ein besseres Gesamtergebnis erhalten.

Wenn du dich ausreichend eingelesen hättest, wäre dir das intuitiv klar.

Tesseract
2013-02-06, 17:06:30
Die Hersteller sind verpflichtet technische Innovationen auf den Markt zu bringen ansonsten würde ich dort
kein Geld mehr investieren. Der Hersteller muß für den Kunden da sein und nicht umgekehrt. Ich bin Hobbymusiker und zeichne meine Musik mit 24Bit und 96khz auf würden die Hersteller ihre Aufnahmesysteme
auf Mp3 umstellen da würde ich ja auf die Barrikaden gehen. Aber es ist interessant wie hier die Inkompetenz
der IT Industrie von einigen hier im Forum gedeckt wird und man die arrogante Haltung der Hersteller versucht
noch zu rechtfertigen.

du verstehst einfach nicht worum es geht. wenn die alternative zu komprimierten 96kHz unkomprimierte 16kHz sind ist die komprimierte variante in 99% der fälle schlicht besser.
die absolute bandbreite bzw. der absolute speicherplatz ist dafür irrelevant. wenn du die verzehnfachst um die daten unkomprimiert verarbeiten zu können kannst mit kompression halt die auflösung verzehnfachen und das ergebnis bleibt nach wie vor besser mit kompression.

pest
2013-02-06, 17:09:46
Es geht aber nicht um LZ77 sondern Huffman?

geht schon irgendwie (http://u.cs.biu.ac.il/~wiseman/dcc.pdf)

robbitop
2013-02-06, 17:10:33
Außerdem ist Musikaufnahme (zur Archivierung und ggf. Bearbeitung) was anderes als die Distribution. Ab ~250 kbit/s bei modernen Codecs hört kein Mensch mehr einen Unterschied bei 2 Kanal. Aber das führt hier alles zu weit.
Sieh einfach ein, dass das eine fixe Idee ist und sei bereit dazu zu lernen.

TheCounter
2013-02-06, 17:17:05
Hoffe das ist mal eine Fehlinfo :ugly:

Keine der neuen Konsolen wird auf einen Online-Zwang setzen. Das kann man nicht mit einem PC Vergleichen.

Man würde eine viel zu große Kundenschicht außen vor lassen.

Zu den Gebrauchtspielen:

Na dann leihe ich einem guten Freund eben meinen Account, dann kann er es auch zocken. Problem gelöst.

mbee
2013-02-06, 17:23:19
Äh, es geht um's Verkaufen von Gebrauchtspielen, was damit unterbunden werden soll, nicht darum, dass man einen Kumpel mal spielen lässt. Einem Wildfremden wirst Du wohl kaum Deinen Account leihen...;)

TheCounter
2013-02-06, 17:25:20
Nunja, ob ich nun einen Freund zocken lasse oder das Spiel verkaufe, beides bedeutet keinen Gewinn für die Publisher/Entwickler ;)

Wüsste nicht wann ich jemals ein Spiel weiterverkauft hätte. Allerhöchstens mal welche verschenkt.

Deinorius
2013-02-06, 17:27:54
Außerdem könntet ihr in dem Fall möglicherweise erst gar nicht zur gleichen Zeit spielen. Könnte ein Hindernis sein. ;)

mbee
2013-02-06, 17:29:25
Nunja, ob ich nun einen Freund zocken lasse oder das Spiel verkaufe, beides bedeutet keinen Gewinn für die Publisher/Entwickler ;)
Ist aber ein blödsinniges Argument, da es hier um den "Gebrauchtmarkt" von Spielen geht, der damit trocken gelegt werden soll. Da geht's um ganz andere Summen als bei einem Account-Sharing...

Wüsste nicht wann ich jemals ein Spiel weiterverkauft hätte. Allerhöchstens mal welche verschenkt.
Es gibt Leute, die behalten kaum ein Spiel, da darfst Du nicht von Dir ausgehen ;)

Es gibt ja auch genug Ketten, die gebrauchte Spiele beim Kauf von neuen Spielen in Zahlung nehmen und die Gebrauchten wieder weiterverkaufen.

Aus Verbrauchersicht ist das ganze eben eine Riesensauerei. Ich hoffe auch, dass da die EU mal im Rahmen des Verbraucherschutzes drauf aufmerksam wird.

TheCounter
2013-02-06, 17:36:42
Es gibt Leute, die behalten kaum ein Spiel, da darfst Du nicht von Dir ausgehen ;)

Stimmt wohl ;)

Aus Verbrauchersicht ist das ganze eben eine Riesensauerei. Ich hoffe auch, dass da die EU mal im Rahmen des Verbraucherschutzes drauf aufmerksam wird.

In der EU gibt es doch bereits ein Gesetz gegen die "Unterbindung eines weiterverkaufs gebrauchter Software" oder nicht?

mbee
2013-02-06, 17:44:54
Ist halt die Frage, ob Spiele darunter fallen würden. Ich bin da allerdings nicht ganz up-to-date, was das angeht. Die Geschichten mit dem "Online-Pass" bei so einigen Konsolenspielen dürften ja eigentlich auch darunterfallen, da dieser ja nicht weitergegeben werden kann.

ndrs
2013-02-06, 17:53:02
Keine der neuen Konsolen wird auf einen Online-Zwang setzen.
Da wär ich mir nicht so sicher.

Na dann leihe ich einem guten Freund eben meinen Account, dann kann er es auch zocken. Problem gelöst.
Was machst du aber, wenn dein Account an die ID deiner Konsole gebunden ist?

TheCounter
2013-02-06, 17:58:58
Da wär ich mir nicht so sicher.

Begründung?

Was machst du aber, wenn dein Account an die ID deiner Konsole gebunden ist?

Sehr unwahrscheinlich. Somit würden alle Spiele weg sein, würde meine Konsole kaputt gehen oder ich mir eine neue kaufen.

Das wäre so, als würde man PC Spiele an die Hardware binden ;)

Ein Dev von Twisted Pixel (1st Party MS Studio) hat sich übrigens dazu geäußert:

I think it's a bit suspicious that a stack of negative Xbox rumors "leak" two weeks before the PS announce. I also like The X-Files.

https://twitter.com/deliciousbees/status/299186799656443905

Sehr lustig das ganze, mittlerweile :D

ndrs
2013-02-06, 18:45:12
Begründung?
Nur meine Meinung

Sehr unwahrscheinlich. Somit würden alle Spiele weg sein, würde meine Konsole kaputt gehen oder ich mir eine neue kaufen.

Bei der Wii U wurde es zumindest für das Nintendo Network so gelöst:
http://www.pcgames.de/Wii-U-Konsolen-233619/News/Wii-U-Accounts-an-Konsolen-gebunden-1036299/
Und wenn was is, kannst du ja immernoch den Support anrufen. So ein Defekt passiert ja nicht ständig. Dann gibt's halt die ersten drei Ummeldungen umproblematisch. Was danach kommt, wer weiß ...

Skysnake
2013-02-06, 19:29:36
Die Move Engines koennen nur LZ77, Huffman kommt bei DEFLATE zum Einsatz, dabei hatte ich mich vertan.
Auf einer Console mit Unified Memory ist der Overhead Vernachlaessigbar klein.

Der Overhead ist da erstmal in der gleichen Größenordnung, egal ob du jetzt Unified hast oder nicht. Entscheidend ist, ob der Speicher gewapped werden kann oder nicht.


Die CUs ideln auch bei normaler Grafikarbeit, daher kann man da schon einfach mal nen Compute Task zwischen-schieben, die HW kuemmert sich dann schon um das balancing.
Da kannst du aber nicht so einfach was dazwischen schieben. Zudem werden eben wieder ressourcen gebunden durch das Aufsetzen des jobs.

Mach dir da wirklich keine Sorge. Gerade für kleinere Transfers kann so was sehr sehr sehr nützlich sein. Es sagt ja auch niemand, das man es nur so macht. ;)

Keine der neuen Konsolen wird auf einen Online-Zwang setzen. Das kann man nicht mit einem PC Vergleichen.

Man würde eine viel zu große Kundenschicht außen vor lassen.

Zu den Gebrauchtspielen:

Na dann leihe ich einem guten Freund eben meinen Account, dann kann er es auch zocken. Problem gelöst.
Es wurde zwar inwzsichen schon gesagt, aber bei den ganzen Gerüchten in die Richtung, war immer davon die Rede, das man es an die jeweilige Konsole (mit) bindet. Du hast also keine Chance, das einfach auf einer anderen zu zocken.

del_4901
2013-02-06, 19:48:41
Der Overhead ist da erstmal in der gleichen Größenordnung, egal ob du jetzt Unified hast oder nicht. Entscheidend ist, ob der Speicher gewapped werden kann oder nicht. Nein, denn ich muss keine Kopie in den GPU speicher schieben? Und dann bleibt nur die GPU zu anzustubsen und los gehts. Weniger muss ich bei nem DMA Transfer auch nicht machen.

TheCounter
2013-02-06, 19:51:42
Es wurde zwar inwzsichen schon gesagt, aber bei den ganzen Gerüchten in die Richtung, war immer davon die Rede, das man es an die jeweilige Konsole (mit) bindet. Du hast also keine Chance, das einfach auf einer anderen zu zocken.

Solange bis das System wieder geknackt ist ;)

Glaube aber wie gesagt nicht daran das so was kommen wird.

Skysnake
2013-02-06, 19:51:47
Nein, denn ich muss keine Kopie in den GPU speicher schieben? Und dann bleibt nur die GPU zu anzustubsen und los gehts. Weniger muss ich bei nem DMA Transfer auch nicht machen.
Und jetzt rate mal, was am Ende dann wirklich in Hardware abläuft :ugly:

Du musst die Daten noch immer transferieren, und das machen eben nicht die ALUs selbst, sondern die Controller. Der DMA Controller ist da ja nur der elegante weg, das ohne großen Overhead und Ressourcenbelegung zu machen.

Und zu dem "Kopie" Wenn du aus dem einen RAM in den anderen was schieben willst, muss ja erstmal geprüft werden, ob da auch wirklich was frei ist, es sei denn du hast eben den Speicher gepinned. Ansonsten kennst du die physikalischen Adressen ja nicht! Und den Unterschied sollte man wirklich nicht unterschätzen. Der ist gewaltig.

Ich versteh wirklich nicht, was dein Problem an nem DMA-Controller extra ist, wenn man nicht die volle Bandbreite realisiert bekommt. Man muss es ja nicht nutzen, aber kann es. Da ist doch absolut nichts negatives dran.

Wenns einem rein läuft nutzt man es, wenn nicht, dann nicht.

del_4901
2013-02-06, 19:59:19
Und jetzt rate mal, was am Ende dann wirklich in Hardware abläuft :ugly:
Die GPU holt sich den Commandbuffer bindet die Resourcen setzt Konstanten sowie den Shader und scheduled dann den ComputeJob, dann liegt es am Scheduler die zu Verfuegung stehenden Ressourcen effektiv zu nutzen. Am Ende wird noch ein Label geschrieben und fertig ist der Lack. Die CPU ist bei der Sache fein raus.
Du musst die Daten noch immer transferieren, und das machen eben nicht die ALUs selbst, sondern die Controller. Der DMA Controller ist da ja nur der elegante weg, das ohne großen Overhead und Ressourcenbelegung zu machen. Und zu dem "Kopie" Wenn du aus dem einen RAM in den anderen was schieben willst, muss ja erstmal geprüft werden, ob da auch wirklich was frei ist, es sei denn du hast eben den Speicher gepinned. Ansonsten kennst du die physikalischen Adressen ja nicht! Und den Unterschied sollte man wirklich nicht unterschätzen. Der ist gewaltig.Unified Memory, da muss man nichts transferieren oder pinnen. Man muss nur die Synchronisierung selber machen, aber das musst du auch bei nem DMA transfer. Evtl. muss man noch ein Offset im GPU Adressraum ausrechnen und den Commandbuffer damit patchen, das wars dann aber auch schon mit der Komplexitaet.

Karümel
2013-02-06, 20:06:12
Glaube aber wie gesagt nicht daran das so was kommen wird.

Denke sowas wie Steam oder Origin kommt, also eher Accountgebunden.

@TheCounter, müßtest Du nicht hier was ein Update machen?

Skysnake
2013-02-06, 20:14:56
Die GPU holt sich den Commandbuffer bindet die Resourcen setzt Konstanten sowie den Shader und scheduled dann den ComputeJob, dann liegt es am Scheduler die zu Verfuegung stehenden Ressourcen effektiv zu nutzen. Am Ende wird noch ein Label geschrieben und fertig ist der Lack. Die CPU ist bei der Sache fein raus.
Unified Memory, da muss man nichts transferieren oder pinnen. Man muss nur die Synchronisierung selber machen, aber das musst du auch bei nem DMA transfer. Evtl. muss man noch ein Offset im GPU Adressraum ausrechnen und den Commandbuffer damit patchen, das wars dann aber auch schon mit der Komplexitaet.
Ja, und während dieser Popelaufgaben belege ich immer gleich mindestens ne ganze CU...
Und wenn ich nicht mal pinned Memmory hab, summiert sich das ganz schön

Wie gesagt, für kleine Dinge ist es praktisch, das direkt über nen DMA-Controller zu lösen.

Also nochmal, was hast du dagegen, eine Möglichkeit für mehr Parallelität?

del_4901
2013-02-06, 20:26:54
Wie gesagt, für kleine Dinge ist es praktisch, das direkt über nen DMA-Controller zu lösen. Also nochmal, was hast du dagegen, eine Möglichkeit für mehr Parallelität? Fuer kleine Sachen vllt. unter der Praemisse, dass man dafuer keinen/wenig wertvollen Die-Space opfern muss.

Ringwald
2013-02-06, 21:51:28
"Studios working with the next-gen Xbox are currently being forced to work with only approved development libraries, while Sony is encouraging coders to get closer to the metal of its box. Furthermore, the operating system overhead of Microsoft’s next console is more oppressive than Sony’s equivalent, giving the PlayStation-badged unit another advantage."

http://www.edge-online.com/news/the-next-xbox-always-online-no-second-hand-games-50gb-blu-ray-discs-and-new-kinect/

Ziemlich schlau von MS, so muss man die Konsole bei neuen shrinks nicht mehr künstlich drosseln oder kann sogar neue und vor allen Dingen billigere SoC oder ganz andere Hardware benutzen.

TheCounter
2013-02-06, 23:03:07
Denke sowas wie Steam oder Origin kommt, also eher Accountgebunden.

Wenn etwas kommt, dann allerhöchstens sowas ja. Sony hat ja auch schon länger Pläne für so etwas in der Art.

@TheCounter, müßtest Du nicht hier was ein Update machen?

Versteh nicht genau was du meinst?

del_4901
2013-02-06, 23:36:39
Ziemlich schlau von MS, so muss man die Konsole bei neuen shrinks nicht mehr künstlich drosseln oder kann sogar neue und vor allen Dingen billigere SoC oder ganz andere Hardware benutzen.
Wie kommst du denn jetzt darauf?

Ringwald
2013-02-07, 09:17:46
Wie kommst du denn jetzt darauf?

Laut Zitat: "being forced to work with only approved development libraries,".

Ich deutet das mal auf eine eingeführte Abstraktionsebene hin um somit Kompatibilität zu zukünftiger Hardware zu bewahren.

del_4901
2013-02-07, 09:35:24
Laut Zitat: "being forced to work with only approved development libraries,".

Ich deutet das mal auf eine eingeführte Abstraktionsebene hin um somit Kompatibilität zu zukünftiger Hardware zu bewahren.
Und wie soll das funktionieren? Duerfen dann alle 2 Jahre die Teams Ihre games neu compilieren und alle timing relevanten erst jetzt auftretenden synchronisierungs-bugs beheben? Wird das mit im Publisher Vertrag verankert oder wer ist dann dafuer zustaendig? Oder bekommt MS den code und behebt dann alle Probleme selber?

Skysnake
2013-02-07, 10:07:16
Fuer kleine Sachen vllt. unter der Praemisse, dass man dafuer keinen/wenig wertvollen Die-Space opfern muss.
Bis ~10 MB oder eventuell auch ~100MB, wird das wohl dennoch schneller sein, und solche Transfers sind gar nicht so unselten.

Und wie soll das funktionieren? Duerfen dann alle 2 Jahre die Teams Ihre games neu compilieren und alle timing relevanten erst jetzt auftretenden synchronisierungs-bugs beheben? Wird das mit im Publisher Vertrag verankert oder wer ist dann dafuer zustaendig? Oder bekommt MS den code und die behebt dann alle Probleme selber?
Warum sollte es da zu Problemen kommen, außer in absoluten Ausnahmefällen?

Der Witz an Libarys ist doch, das man sich um deren Inhalt im Allgemeinen nicht kümmern muss, sondern Sie als Balckbox verwendet, und eben die entsprechenden Änderungen eben auch nicht von mir gedebuggt werden müssen.

Neu compilieren musst du das auch nicht zwingend. Ich stell mir das eher wie dynamik linked Libarys vor. Da ist es auch erstmal scheis egal, was denn nun wirklich in der drin ist. Kennen wir ja schon heute von Windows zur Genüge. Daher ist neucompilieren nicht notwendig in so einem Fall.

Coda
2013-02-07, 11:34:11
Ich seh schon, große Produktions-Erfahrung durch die Bank hier.

Matrix316
2013-02-07, 12:25:34
Nunja, ob ich nun einen Freund zocken lasse oder das Spiel verkaufe, beides bedeutet keinen Gewinn für die Publisher/Entwickler ;)

Wüsste nicht wann ich jemals ein Spiel weiterverkauft hätte. Allerhöchstens mal welche verschenkt.
Aber gerade das war bislang ein Vorteil der Konsolen. Wenn ich bis zu 70 Euro für ein solches Spiel ausgebe, dann will ich auch das Recht haben, es weiterzuverkaufen. Was ist wenn du z.B. deine X-Box 720 loswerden willst um zur PS4 zu wechseln? Oder soll man seinen Account dann gleich mit verkaufen? Geht das rechtlich überhaupt?

RLZ
2013-02-07, 12:56:46
Ich seh schon, große Produktions-Erfahrung durch die Bank hier.
Einfach die Diskussion laufen lassen und :popcorn:.
Hier erfährt man einiges, wenn auch nicht über die Konsolen.

Nakai
2013-02-07, 13:11:03
Neu compilieren musst du das auch nicht zwingend. Ich stell mir das eher wie dynamik linked Libarys vor. Da ist es auch erstmal scheis egal, was denn nun wirklich in der drin ist. Kennen wir ja schon heute von Windows zur Genüge. Daher ist neucompilieren nicht notwendig in so einem Fall.

MS hat ja eine Präsentation erstellt, welche genau auf diesen Punkt geht. Man will hardwareunabhängiger werden. Wie das genau geschieht ist ein interessanter Punkt. MS hat ja mit .Net schon Erfahrungen für hardwareunabhängigere Entwicklung gesammelt. Ich sehe darin, jedoch einige Probleme für Konsolen. Zumal man hier eher ein System haben will, das einfach läuft und nicht während der Ausführung irgendwelche DLLs nachlädt oder JIT-Compiling durchführt. Da würde ich erstmal abwarten, wie MS das löst.

Ansonsten könnte ich mir mehrere Xboxen vorstellen, welche bestimmte Features nicht besitzen. Vor allem wird wohl MS die Xbox als Wohnzimmer-Rechner einführen. Ergo es müssen nicht immer die vollen Hardwarefähigkeiten benutzbar sein.

Skysnake
2013-02-07, 13:20:12
Da wirst du nichts während der Laufzeit nachladen. Das läuft wenn, dann wie jetzt auch durch zentral verteilte Updates und aus die Maus.

Man muss ja nur an die Sprungadresse entsprechend die richtige Routine packen und das wars dann auch.

Ist halt für den Entwickler eine Stufe weiter weg von der Hardware. Das heist aber nicht, das man nicht dennoch lowlvl von Hand programmieren kann, wenn man es will, und natürlich auch nicht, das es nicht SEHR viele API-Funktionen gibt, die eben sehr spezialisiert Sachen machen.

Wenn man ne fertige Gameengine nutzt, ist es ja noch weiter weg, und es bringt die Studios nicht um.

MS würde sich damit halt sehr viel Verantwortung aufladen, aber eben auch den Studios durchaus gut helfen.

Crazy_Bon
2013-02-07, 13:24:30
Das könnte auch bedeuten, daß MS bei zukünftigen Shrinks die Geschwindigkeit nicht mehr künstlich drosseln muss, sondern von Revision zu Revision an Tempo zulegen kann, ohne das die Timings aus dem Takt kommen. Auch soll die Auflösung der neuen Xbox soll variabel sein, wie auf dem PC, eine schnellere Revision könnte eine höhere Auflösung stabilere FPS bieten.

Eigentlich genau das, was sich PCler von Konsolen wünschen, daß sie mit dem Stand/Geschwindigkeit der Technik schritthalten. Ich bin gespannt was uns MS präsentieren wird.

Nakai
2013-02-07, 13:34:42
MS würde sich damit halt sehr viel Verantwortung aufladen, aber eben auch den Studios durchaus gut helfen.

Naja, MS traue ich das zu.

Das könnte auch bedeuten, daß MS bei zukünftigen Shrinks die Geschwindigkeit nicht mehr künstlich drosseln muss, sondern von Revision zu Revision an Tempo zulegen kann, ohne das die Timings aus dem Takt kommen. Auch soll die Auflösung der neuen Xbox soll variabel sein, wie auf dem PC, eine schnellere Revision könnte eine höhere Auflösung stabilere FPS bieten.

Es könnte eher eine neue Version mit besserer und stärkerer Hardware geben. Höhere Auflösung kann grundsätzlich immer gut Skalieren. Von HD auf FullHD sind es Faktor 2,25. Mehr Speicher kann gut in besseren Texturen investiert werden. Im Grunde bleibt die Anpassung an den Entwicklern hängen. Außer MS macht eine Anforderungsliste je nach Revision der Konsole.

Ich würde da erst abwarten...

Deinorius
2013-02-07, 13:38:48
Wäre es möglich, dass die neuen Konsolen auch mehrere, oder zumindest zwei Taktstufen beherrschen würden? Abseits von abschaltbaren CPU-Cores und einem Playback-Modus, wo großteils natürlich nur die Decode IP laufen muss.
Ich kenne von der PS3 die diversen kleinen Spiele, die man runterladen kann und grafisch jetzt nicht unbedingt anspruchsvoll sind (und auch nicht müssen). Da wäre es doch Verschwendung, wenn die Konsolen dennoch weiterhin mit vollem Takt laufen würden.

Das könnte auch bedeuten, daß MS bei zukünftigen Shrinks die Geschwindigkeit nicht mehr künstlich drosseln muss, sondern von Revision zu Revision an Tempo zulegen kann, ohne das die Timings aus dem Takt kommen. Auch soll die Auflösung der neuen Xbox soll variabel sein, wie auf dem PC, eine schnellere Revision könnte eine höhere Auflösung stabilere FPS bieten.


Das würde doch nur dann gehen, wenn man nicht mehr per low-level programmieren würde, sonst müsste man diese Spiele ja auch berücksichtigen.

Skysnake
2013-02-07, 13:49:42
Also die Technik wird ziemlich sicher unterschiedliche Taktstufen haben. Das ist ja in den JaguarCores schon alles integriert. Es stellt sich eben nur die Frage, ob man das auch wirklich nutzen will oder nicht.

Ich kanns mir aber gar nicht vorstellen, das man es nicht nutzt.

Ich hatte ja schon mal angedeutet, das es auch durchaus interessant sein kann für Entwickler eventuell ganze CPU-Cores ab zu schalten, und die verlbeibenden Cores dafür um X% höher zu takten. Das wäre mit den heutigen Designs ohne weiteres möglich.

Das ist aber einfach eine Designentscheidung, die man irgendwann mal treffen muss. Und wir wissen ja, welche Leute leider oft am Ende solche Entscheidungen dann treffen...

Deinorius
2013-02-07, 13:57:34
Ja, das Core-abschalten für höhere Taktraten wäre wirklich nützlich! Ich weiß, dass es möglich wäre, aber mal sehen. Vielleicht bewerben sie es ja sogar als grüne Konsole. :ugly:

del_4901
2013-02-07, 15:25:23
Bis ~10 MB oder eventuell auch ~100MB, wird das wohl dennoch schneller sein, und solche Transfers sind gar nicht so unselten.Bei den Groessen ist die GPU definitiv schneller. Das ist doch nicht mehr klein. Ein Blit mit der DMA Engine wuerde grob 0.5ms bis 4ms in Anspruch nehmen. WTF! Klein sind so 100 Vertices.

Also die Technik wird ziemlich sicher unterschiedliche Taktstufen haben. Das ist ja in den JaguarCores schon alles integriert. Es stellt sich eben nur die Frage, ob man das auch wirklich nutzen will oder nicht.

Ich kanns mir aber gar nicht vorstellen, das man es nicht nutzt.

Ich hatte ja schon mal angedeutet, das es auch durchaus interessant sein kann für Entwickler eventuell ganze CPU-Cores ab zu schalten, und die verlbeibenden Cores dafür um X% höher zu takten. Das wäre mit den heutigen Designs ohne weiteres möglich.

Das ist aber einfach eine Designentscheidung, die man irgendwann mal treffen muss. Und wir wissen ja, welche Leute leider oft am Ende solche Entscheidungen dann treffen......In dem Fall die Spieleentwickler und die wollen sowas nicht, die haben schon schlechte Erfahrungen gemacht mit Bugs wo dann einfach mal der Chip in den Schlafmodus gegangen ist nicht weil es so geplant war, sondern weil einer der OS Entwickler es vertrottelt hat. Und dann versuchst du wochenlang den Fehler bei dir zu suchen... nein Danke!

Ich seh schon, große Produktions-Erfahrung durch die Bank hier.
Oh ja, lass und lieber unsere PM diskussion aufwaermen oder ein Forum fuer Auserwaehlte aufsetzen?

mironicus
2013-02-07, 15:34:23
Wie sieht es aus mit einer möglichen Abwärtskompatibilität der neuen Konsolen? Ist da was bekannt?

Deinorius
2013-02-07, 15:34:32
Ich selber habe es mir eigentlich nicht so vorgestellt, wie es bei den üblichen Smartphone/Tablet-SoCs bzw. PC/Notebook Prozessoren gelöst ist. Ich wundere mich überhaupt, dass du das vergleichst, sofern ich mich nicht irre.

Die Entwickler entscheiden am besten selber, was sie wollen und im Menü (Playback usw.) herrschen andere Bedingungen. Das sollte in einer Konsole besser funktionieren. Ich finde es immer wieder seltsam, dass meine PS3 entweder gleich viel oder sogar weniger als mein TV verdient. :|

Wie sieht es aus mit einer möglichen Abwärtskompatibilität der neuen Konsolen? Ist da was bekannt?


Bei der PS3 kannst du es 100 %ig vergessen. Das ist schon lange sicher genug. Da müssten die Spiele neu kompiliert werden.
Zur Xbox kann derzeit keiner etwas sicheres sagen.

Karümel
2013-02-07, 16:23:27
Versteh nicht genau was du meinst?

Arfgh,, sorry hate das hier vergessen einzufügen;

"Euer Hifi-/Heimkinosystem *Pix* - " Da Du ja einen neuen Tv hast.

xxxgamerxxx
2013-02-07, 19:42:41
Zumal man hier eher ein System haben will, das einfach läuft und nicht während der Ausführung irgendwelche DLLs nachlädt oder JIT-Compiling durchführt. Da würde ich erstmal abwarten, wie MS das löst.

Mit großer Wahrscheinlichkeit durch MDIL, wenn das denn bei der NextGen Konsole geplant ist. Bei Windows Phone 8 ist das schon so. Wenn du da in .NET entwickelst und das dann im Windows Store einreicht, wird das CIL (ehemals MSIL) in MDIL in der MS Cloud kompiliert. Das ist ein quasi beinahe natives Image. Beim Download wird auf dem Gerät danach der Rest zum endgültigen nativen Image zusammengebaut. Das soll nur 1/5 von NGEN kosten.

Ob das auch bei AAA Spielen zum Einsatz kommt oder ob das da nicht praktikabel ist, weiß ich nicht. Kann mir aber sehr gut vorstellen, dass das bei 90% der Apps und Spiele zum Einsatz kommt. Vor allem, weil man ja bestimmte Apps auf allen zukünftigen Plattformen anbieten will.

00-Schneider
2013-02-07, 22:58:05
Wie sieht es aus mit einer möglichen Abwärtskompatibilität der neuen Konsolen? Ist da was bekannt?


Angeblich wird das bei der PS4 durch Gaikai gewährleistet, also Streaming.

Bei der nächsten XBOX sollen Gerüchten zufolge bis jetzt 80% aller 360-Spieler laufen.

pixelguy
2013-02-07, 23:40:17
Woher kommen diese Gerüchte? Und wie stellt MS wie Kompatibilität trotz Wechsel von PPC auf x86 sicher?

Silentbob
2013-02-08, 07:51:41
Woher kommen diese Gerüchte? Und wie stellt MS wie Kompatibilität trotz Wechsel von PPC auf x86 sicher?

Wahrscheinlich Secret Sauce :)

robbitop
2013-02-08, 08:25:33
Die X360 konnte ja auch Xbox 1 Spiele emulieren. Damals ja der Wechsel x86 -> PPC. Die X360 ist keine so komplizierte Konsole (von der HW). Vieleicht ist da Emulation drin.

MartinB
2013-02-08, 08:31:10
Bei der PS4 wird vermutlich Gaikai dahinter stecken. Bei der Xbox720 glaube ich persönlich nicht an eine Abwärtskompitabilität.

robbitop
2013-02-08, 08:50:17
Ich finde als Kunde die Gaikai Lösung etwas blöd - sofern man die bereits besessenen Spiele dann wieder neu erwerben müsste. Damit hat das keinen wirklichen Mehrwert.

AnarchX
2013-02-08, 08:57:51
Da müsste man aber wohl Gaikai-Server mit PS3-HW ausstatten, damit die nativen Titel (ohne PC-Port) darauf laufen. Oder denkt man Emulation mit deutlich stärkerer Server-HW?

Silentbob
2013-02-08, 08:58:15
Ich finde als Kunde die Gaikai Lösung etwas blöd - sofern man die bereits besessenen Spiele dann wieder neu erwerben müsste. Damit hat das keinen wirklichen Mehrwert.

Evtl. reicht es die Original BR einzulegen und der Rest wird über Gaikai erledigt? Hmmm...

Spannend ist es auch wie es mit den bereits erworbenen PSN Spielen ablaufen wird, ich nehme an das man seinen Account mit auf die neue Konsole nehmen kann. Da wäre es schon sinnvoll wenn man die bereits mit dem Konto verknüpften Spiele auch weiter nutzen könnte.

robbitop
2013-02-08, 08:59:36
Naja wenn man sie weiterbenutzen könnte, wäre das natürlich toll!

][immy
2013-02-08, 10:37:17
Naja wenn man sie weiterbenutzen könnte, wäre das natürlich toll!

naja, wenn es gestreamt wird, nein danke.
Die Grafik geht ja vielleicht noch, aber der Ton. Also bisher war der Ton immer wahnsinnig schlecht komprimiert. Vom Input Lag mal ganz abgesehen. Es gibt ja schließlich nicht nur langsame PS3 Spiele.

robbitop
2013-02-08, 10:52:43
Das glaube ich. Ich vermute ähnliches - habe es aber noch nie probiert.

Demirug
2013-02-08, 12:19:06
Ich bin da skeptisch. So ein Service verursacht ja laufenden Kosten. Das ist eine ganz andere Dimension wie einmalig durch Hardware die kompatibilität zu erreichen. Ich denke mal da hat bei Sony jemand analysiert in wie weit abwärtskompatibilität überhaupt ein Argument ist. Man hat ja von der PS3 einiges an Daten gesammelt.

Crazy_Bon
2013-02-08, 12:44:49
Möglich wäre Gaikai doch als Bezahldienst, so wie z.Zt. Vollversionen mit PS+. Im Gegenzug würden sie eine Palette an zahlreichen Spielen anbieten.

Silentbob
2013-02-08, 13:04:12
Was für eine Bandbreite benötigt so ein Streamingdienst? Da wird ja nicht vorgepuffert wie bei einem VoD Film?

Iruwen
2013-02-08, 13:23:12
Mindestens 3mbps, besser 5mbps für 30FPS iirc.