PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Current Generation-Konsolen: Playstation 5 & Xbox Series S/X (Lockhart/Anaconda)


Seiten : [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84

tobor
2013-06-23, 19:46:34
Cloud bleibt meiner Meinung nach ein Hype(genauso wie Tablet und Handygaming) und ich gehe davon aus, dass es auch Spielkonsolen nach der Ps4, Xbone etc. geben wird.
Eigentlich dürfte es,aufgrund der moderaten Hardware der neuen Konsolen recht leicht sein, nächste Generation wieder einen Sprung von mindestens 10x zu machen. Die Xbox One als untere Messlatte,wann dürfte die Leistung von 12 Terraflop für den Mainstreamkarten machbar sein?
Wie wird sich die Speicherbandbreite entwickeln?(nächste Generation dürfte Edram wohl überflüssig sein, möglicherweise auch GDDR-Speicher?)

basti333
2013-06-23, 20:12:37
Cloud bleibt meiner Meinung nach ein Hype(genauso wie Tablet und Handygaming)

Made my day;D:freak:

Nightspider
2013-06-23, 20:15:28
Da die nächste Generation wahrscheinlich erst in 6-10 Jahren kommt, wird der Hybrid Memory Cube schon lange Standard sein. Damit dürfte die Speicherbandbreite überhaupt kein limitierender Faktor mehr sein. Speicherbandbreite wird im Überfluss vorhanden sein.

Ebenfalls gibt es dann wahrscheinlich MRAM, PRAM und weitere nichtflüchtige RAM-Technologien, die deutlich schneller sind und die Daten beim Ausschalten nicht verlieren.
Somit gibt es keine "Bootzeiten" bzw. man könnte ein Spiel pausieren, die Konsole vom Strom nehmen und später genau da weitermachen, wo man aufgehört hat.

Wahrscheinlich wird dann jede Konsole keine HDDs mehr, sondern SSDs auf Basis der Memristor Technologie besitzen. Das heißt: deutlich höhere Datendichte bei viel höherer Geschwindigkeit
und viel höherer Lebensdauer.

Das eigentliche Problem der nächsten Generation wird die Geschwindigkeit sein, da der Sprung von PS4 zu PS5 noch geringer ausfallen wird als von PS3 zu PS4.

Denn im Erscheinungszeitraum der PS5 / Xbox4 wird man im Bereich zwischen ~2 und 5nm sein. Und dort ist man eben schon im kritischen Bereich, was Kosteneffizienz und Vorteile angeht.
Wie schon an TSMCs 20nm Prozess zu sehen ist, sinken die Sprünge bei der Effizienz von Leistung zu Energieverbrauch, die Leckströme sinken weniger und die Taktraten steigen schon lange nicht mehr so stark wie vor etlichen Jahren.

Mit anderen Worten: wir haben wahrscheinlich die umgekehrten Probleme wie zu Zeiten von PS360: zu "wenig" Leistung aber bei weitem ausreichend Bandbreite, RAM und Festspeicher.

Genau deswegen sehe ich die Zukunft des Cloud-Computung besser als Andere hier im Forum.


Zu Eingabemöglichkeiten:
Natürlich wird so etwas wie Kinect 2 das Minimum darstellen, viel billiger und viel präziser sein und damit vielleicht erstmal "authentische" Steuerung mehr Handbewegung ermöglichen.
Vielleicht kann man dann per Future-Kinect sein Körper in 3D einscannen und selbst in einem Spiel rumlaufen mit 1:1 Optik des eigenen Ichs.

4K und OLED TVs werden dann auch Standard sein. Allerdings sehe ich bei Konsole keinen großen Sinn bei Auflösungen jenseits von 2560*1440 und glaube, das es kaum native 4K Games geben wird und man die Leistung woanders sinnvoller investieren wird.

Multiplayer Games dürften locker riesige Welten füllen mit >128 Spielern pro Welt. Massenschlachten wie ein Battlefield mit 256 Spielern auf riesigen Maps könnten Alltag sein, wo man selbst mit Jet / Flugzeug paar Minuten benötigt, von einem Ende bis zum Anderen, was dynamischeres Gameplay zur Folge hätte.

Herr Doktor Klöbner
2013-06-23, 20:35:47
Vielleicht läuft es aber auch ganz anders:

Schon heute verdienen einige Spielefirmen sich mit Handy/Tablet Casual-Gedöns die goldene Nase, während Firmen die auf 50 Mio teure AAA Titel setzen rote Zahlen schreiben, ich denke richtig Geld gescheffelt wird in diesem Bereich nicht.

Eventuell ist das die Zukunft des Spielens: Riesige Spielewelten die mit teurem Content gefüllt werden müssen und auf teurer spezieller Hardware laufen rechnen sich einfach nicht, Zombies vs. Plants 17 auf dem Smart TV mit 2D Grafik die ein Handy SOC mit 50 Milliwatt stemmt ist die Spielezukunft.

Hoffen will ich das nicht, aber ich sehe da schon einen gewissen Trend. Wer von den AAA Publishern schreibt dennn noch konstant schöne schwarze Zahlen ?

deLuxX`
2013-06-23, 20:42:15
Um mal so richtig zu spekulieren:
Vielleicht ist es im Bereich der Rechengeschwindigkeit so, dass man vom jetzigen Stand nicht einfach linear oder degressiv extrapolieren kann. So könnte es möglich sein mit einer neuen Technologie plötzlich ein vielfaches an Rechenleistung zur Verfügung zu haben.

Wobei ich irgendwie (Bauchgefühl) nicht davon ausgehe, dass es im Bereich der CPUs und GPUs plötzlich drastische Sprünge geben wird.

Nightspider
2013-06-23, 20:51:32
Vielleicht läuft es aber auch ganz anders:

Schon heute verdienen einige Spielefirmen sich mit Handy/Tablet Casual-Gedöns die goldene Nase, während Firmen die auf 50 Mio teure AAA Titel setzen rote Zahlen schreiben, ich denke richtig Geld gescheffelt wird in diesem Bereich nicht.
...

Ich sehe das aber auch, das diese Casual-Games immer mehr Zocker in der weltweiten Bevölkerung hervorbringen.
Heute gibt es mehr weibliche Zocker denn je! Und wenn jetzt wirklich alle Kinder/Jugendlichen dank Smartphones mit Games in Berührung kommen werden sich später auch immer mehr von Denen eine richtige Konsole mit AAA Spielen kaufen.

Um mal so richtig zu spekulieren:
Vielleicht ist es im Bereich der Rechengeschwindigkeit so, dass man vom jetzigen Stand nicht einfach linear oder degressiv extrapolieren kann. So könnte es möglich sein mit einer neuen Technologie plötzlich ein vielfaches an Rechenleistung zur Verfügung zu haben.

Wobei ich irgendwie (Bauchgefühl) nicht davon ausgehe, dass es im Bereich der CPUs und GPUs plötzlich drastische Sprünge geben wird.

Diese Technologiesprünge im großen Stil werden kommen, nur sicher nicht innerhalb der nächsten 6-10 Jahre.

Gerade von Kohlenstoffnanoröhrchen und vielleicht Chips aus künstlichen Diamanten verspreche ich mir viel. Generell werden die Chips ja immer dreidimensionaler und vielleicht steckt der RAM dann schon im SoC mit drin.
Dann hätte man wirklich fast alles in einem dicken Chip gestapelt und mit TSVs verbunden. (Trough Silicon Vias)
Die kurzen Verbindungswege und hohen Bandbreiten ergeben kurze Latenzen und ein weiteres Plus aber dies wird keine riesigen Sprünge in der Leistung geben, da fehlt die Rohpower.

Gerade bei der GPU Power wird man eher ins Stocken geraten. Denn da geht es nur um Einheiten Anzahl (Fläche) und Energieeffizienz. Und gerade bei Letzterer stagniert die Entwicklung von Fertigungsprozess zu Fertigungsprozess.

Und ob die FinFETs über die nächsten 10 Jahre viel retten (ausgleichen) können, bezweifle ich fast.

tobor
2013-06-24, 09:35:51
Das eigentliche Problem der nächsten Generation wird die Geschwindigkeit sein, da der Sprung von PS4 zu PS5 noch geringer ausfallen wird als von PS3 zu PS4.

Also mindestens 12 Terraflop sollten in 6-10 Jahren doch drin sind,also eine Verzehnfachung der Rohleistung von Xbox One. Hinzu kommt dann wiederum Verbesserung bei der Architektur.
Ich sehe es ja eher so,gerade doch den jetzt sehr moderaten Sprung bei der Rechenleistung wird es in 5-8 Jahren sehr einfach sein, Apus einzubauen, die deutlich leistungsstärker als die der jetzigen Konsolen sind.
http://news.techeye.net/hardware/nvidia-supercomputer-building-blocks-revealed
18 Teraflops Dp in Jahre 2018. Für Supercomputer, aber Gpus mit 18 Teraflops Single Presicion in diesem Jahr sollte dann doch auch keine allzu große Herausforderung sein?

Psychopat
2013-06-24, 20:20:41
Als interessierter bebobachter des Rifts sehe ich die nächste Konsolengeneration eher in eine andere Richtung gehen. Und zwar explizit auf Virtual Reality ausgerichtet. Das wird das Feature sein, womit man sich dann von der vorherigen Generation absetzen kann.

Die Hardware wird dann entsprechend auf die Anforderungen von VR ausgerichtet sein. Was man bei VR nicht genug haben kann sind Pixel, mehr als 4k pro Augo sind nach ersten Tests mit dem Rift und Hochrechnungen immer noch sinnvoll und sichtbar.
Bei VR sehe ich wirklich einen großen Vorteil, den Konsolen gegenüber dem PC haben können. Eine Konsole kann man von vorne bis hinten auf niedrige Latenz trimmen. Auch könnte man die Hardware entsprechend auslegen, um mehrere Helme an einer Konsole zu betreiben.

Ob eine reine VR Konsole kommen wird ist nur eine Frage der Zeit. Und der erste der es macht wird ähnlich der ersten Wii die Konkurrenz alt aussehen lassen.

TheCounter
2013-06-24, 21:28:25
Bei VR sehe ich wirklich einen großen Vorteil, den Konsolen gegenüber dem PC haben können. Eine Konsole kann man von vorne bis hinten auf niedrige Latenz trimmen. Auch könnte man die Hardware entsprechend auslegen, um mehrere Helme an einer Konsole zu betreiben.

Mit welcher Hardware willst du soetwas realisieren?

4k oder 8k benötigt immense Rechenleistung, von der wir sogar auf dem PC noch etliche Jahre entfernt sind.

Und dann noch mehrere VRs pro Konsole?

L233
2013-06-24, 23:13:51
4K und OLED TVs werden dann auch Standard sein.
Ich würde jetzt nicht unbedingt drauf wetten, dass 4k OLEDs in 6-10 Jahren Massenware mit einem sehr hohen Grad an Marktdurchdringung sind.

Auch sonst würde ich nicht auf irgendwelche abgedrehten Zukunftstechnologien und sonstigen Space-Age-Crap wie "Hybrid Memory Cube", Memristor oder MRAM setzen, ich sehe da eher evolutionäre Babyschritte, wie auch schon in der Vergangenheit.

Vor 10 Jahren hatten wir den Athlon 64 mit 1,6 GHz. Heute haben die Konsolen quasi das gleiche in 8-facher Parallelausführung.
Vor 10 Jahren hatten wir Pixelshader 3.0, heute haben wir Pixelshader 5.0 (DX11 vs DX9c).
Vor 10 Jahren hatten wir 128bit DDR Bandbreite zum Arbeitsspeicher und 256bit GDDR3 zum Grafikspeicher, heute hat die Xbox One 256bit DDR3 zum Arbeits-/Grafikspeicher.
Vor 10 Jahren hatten wir mechanische HDDs mit 200GB Speicherkapazität in 3,5", heute stecken in den Konsolen mechanische HDDs mit 500GB in 2,5".

Du bist viel zu optimistisch, was die Technologiesprünge angeht.

Psychopat
2013-06-25, 01:17:08
Mit welcher Hardware willst du soetwas realisieren?

4k oder 8k benötigt immense Rechenleistung, von der wir sogar auf dem PC noch etliche Jahre entfernt sind.

Und dann noch mehrere VRs pro Konsole?

Grafik ist gut parallelisierbar. Wenn man einen Chip extra für eine so hohe Auflösung auslegt, sollte das in der nächsten Generation schon machbar sein. Es kommt ja auch darauf an, welche Inhalte man wiedergeben will.
Für einenen zweiten VR Helm könnte man einfach einen zweiten Grafikchip verbauen.

Nightspider
2013-06-25, 03:07:03
Ich würde jetzt nicht unbedingt drauf wetten, dass 4k OLEDs in 6-10 Jahren Massenware mit einem sehr hohen Grad an Marktdurchdringung sind.

Von Marktdurchdringung redet hier ja auch keiner. Was glaubst du wieviel % sogar heute noch global noch vor SD-Röhrenfernsehern sitzen?

w0mbat
2013-06-25, 03:28:59
Ich würde jetzt nicht unbedingt drauf wetten, dass 4k OLEDs in 6-10 Jahren Massenware mit einem sehr hohen Grad an Marktdurchdringung sind.

Auch sonst würde ich nicht auf irgendwelche abgedrehten Zukunftstechnologien und sonstigen Space-Age-Crap wie "Hybrid Memory Cube", Memristor oder MRAM setzen, ich sehe da eher evolutionäre Babyschritte, wie auch schon in der Vergangenheit.

Vor 10 Jahren hatten wir den Athlon 64 mit 1,6 GHz. Heute haben die Konsolen quasi das gleiche in 8-facher Parallelausführung.
Vor 10 Jahren hatten Pixelshader 3.0, heute haben wir Pixelshader 5.0 (DX11 vs DX9c).
Vor 10 Jahren hatten wir 128bit DDR Bandbreite zum Arbeitsspeicher und 256bit GDDR3 zum Grafikspeicher, heute hat die Xbox One 256bit DDR3 zum Arbeits-/Grafikspeicher.
Vor 10 Jahren hatten wir mechanische HDDs mit 200GB Speicherkapazität in 3,5", heute stecken in den Konsolen mechanische HDDs mit 500GB in 2,5".

Du bist viel zu optimistisch, was die Technologiesprünge angeht.

Hm, vor 10 Jahren, also 2003, gab es IIRC noch keinen Pixel Shader 3.0. Und auch 200GB Festplatten waren nicht die Norm, bzw. für den normalen User nicht bezahlbar (Standard war so 60-80GB).

Ist eher vergelichbar mit ner 1TB SSD oder ähnlichem.

L233
2013-06-25, 06:58:31
Von Marktdurchdringung redet hier ja auch keiner. Was glaubst du wieviel % sogar heute noch global noch vor SD-Röhrenfernsehern sitzen?
Du hast das Wort "Standard" verwendet.... wenns keiner hat, wird's auch kaum der Standard sein.

L233
2013-06-25, 07:10:29
Hm, vor 10 Jahren, also 2003, gab es IIRC noch keinen Pixel Shader 3.0.
Ja, stimmt, kam erst Mitte 2004... also 9,5 Jahre vor Einführung der neuen Konsolengenetartion im kommenden November. Das ändert jetzt aber nichts an meiner Grundaussage.

Und auch 200GB Festplatten waren nicht die Norm, bzw. für den normalen User nicht bezahlbar (Standard war so 60-80GB).
Da liegst Du falsch. 200GB gabs Anfang/Mitte 2003 für um die $200 rum und 250GB war auch schon verfügbar. Gegen Endes des Jahren gings bereits Richtung $160. Billig war das sicher nicht, aber durchaus bezahlbar und der aktuelle Stand der Technik damals. Von "Norm" redet ja auch übrigens keiner. HDDs mit SATA-Interface wurden IIRC auch bereits Ende 2003 eingeführt, also selbst da hat sich nicht viel verändert...

TheCounter
2013-06-25, 09:58:16
Grafik ist gut parallelisierbar. Wenn man einen Chip extra für eine so hohe Auflösung auslegt, sollte das in der nächsten Generation schon machbar sein. Es kommt ja auch darauf an, welche Inhalte man wiedergeben will.
Für einenen zweiten VR Helm könnte man einfach einen zweiten Grafikchip verbauen.

Wer soll so ein 1000EUR Monster kaufen?

Schau dir doch mal die neuen Konsolen an und was da an (alter) Hardware drin steckt. Das wird in der nächsten Generation nicht anders, eher noch "schlimmer".

Wir können schon froh sein, wenn in der nächsten Gen 4k als Auflösung für Spiele eingeführt wird, woran ich aber noch stark zweifle.

robbitop
2013-06-25, 10:20:03
Grafik ist gut parallelisierbar. Wenn man einen Chip extra für eine so hohe Auflösung auslegt, sollte das in der nächsten Generation schon machbar sein.
Wie willst du einen Chip "extra für hohe Auflösungen auslegen"? Auflösungssteigerung spricht keine wirklichen Bottlenecks an. Man muss alles steigern. Rechenleistung, Texturfüllrate, Bandbreite, damits auch gut aussieht: Dreiecksleistung. Alles.
Bedeutet n x so viel Auflösung braucht ~ n x so viele Transistoren oder 1/n so viel Frames oder 1/n so viel Details.

disap.ed
2013-06-25, 10:58:42
Wer soll so ein 1000EUR Monster kaufen?

Schau dir doch mal die neuen Konsolen an und was da an (alter) Hardware drin steckt. Das wird in der nächsten Generation nicht anders, eher noch "schlimmer".

Wir können schon froh sein, wenn in der nächsten Gen 4k als Auflösung für Spiele eingeführt wird, woran ich aber noch stark zweifle.

Davon gehe ich auch aus, vor allem die nächste Nintendo-Konsole wird sich wohl wieder sehr stark an der Leistung von PS4/XBone anlehnen, dann natürlich auf einem kleineren Prozess (14nm?) und damit verbundener geringer Größe / Leistungsaufnahme. Die Nachfolger von PS4/XBone sehe ich maximal auf einem 10nm-Prozess, bei allen dreien bin ich wirklich gespannt welche Architekturen sie verwenden werden. Sind mehr CPU-Kerne für Spiele noch zielführend?

Edit:
Mit AMD's Eintritt in die ARM-Welt frage ich mich, ob das nicht eine Möglichkeit wäre, Nintendo scheint ja darauf aus zu sein für Handheld und Heimkonsole die selbe Architektur einzusetzen, um die ganzen Engines etc. standardisieren zu können.
Wäre ein Cortex A57 (bzw. eine A53 big.LITTLE Kombination) mit GCN-basierter Grafik nicht eine Möglichkeit (zB mit 4 oder gar nur 2 cores im 3DS-Nachfolger und 8 cores für den WiiU-Nachfolger)?
Oder wird Nintendo IBM treu bleiben damit sie die aktuelle Infrastruktur weiterverwenden können?

dr_AllCOM3
2013-06-25, 11:02:35
Vielleicht wird die naechste Generation eher ein Tablet mit Controller und Drahtlos-HDMI.

TheCounter
2013-06-25, 11:29:41
Vielleicht wird die naechste Generation eher ein Tablet mit Controller und Drahtlos-HDMI.

Unwahrscheinlich. Es wird auch weiterhin ganz normale Konsolen geben, so wie es weiterhin auch Desktop-PCs geben wird.

Nur weil der Mobile Markt (momentan) boomt, bedeutet das nicht gleich das aus der "Heimgeräte".

Zumal solche Tablets viel zu wenig Leistung haben (bezüglich Drahtlos-HDMI zu HDTV @ >= 1080p).

Ailuros
2013-06-25, 11:36:58
Ich bin zu faul mir ueberhaupt etwas von diesem thread durchzulesen. Es sind nichtmal die kommenden Konsolen auf Regalen (wobei u.a. die Reaktion der Verbraucher FUER diese eine sehr wichtige Rolle fuer die folgende Generation spielen wird...) und wir wollen schon ueber die uebernaechste Generation spekulieren?

Es wagt sich selbst ein hw engineer selten ueber ein halbes Jahrzehnt hinaus zu spekulieren, ergo wundert mich mal wieder der Zweck dieses threads. Sonst entschuldigt die "absurde" Unterbrechung und macht gerne weiter :rolleyes:

disap.ed
2013-06-25, 11:47:29
Ich bin schon so weit dass mir das Spekulieren über die kommenden Konsolen mehr Spaß macht als die Spiele an sich :)

Deinorius
2013-06-25, 12:18:26
Ich warte erstmal ab, wie sich die Grafik bei der jetzt kommenden Generation entwickeln wird. Wenn diese so ähnlich wie bei der Techdemo The Dark Sorcerer (http://www.youtube.com/watch?v=BqeuHGESZBA) wird (ohne dabei nur zu einem interaktiven Film zu verkommen), sehe ich persönlich für das "traditionelle" Gaming den Schwellenwert des absteigenden Grenzertrages in Sachen Grafik erreicht.

TheGoD
2013-06-25, 14:52:37
Mit welcher Hardware willst du soetwas realisieren?Wie wäre es mit der aktuellen? Warum sollte heutige Hardware nicht in der Lage sein "4k" UHD zu rendern? Natürlich wird es nicht möglich sein die gleiche Grafikqualität wie bei einem Spiel zu erreichen, dass für die Nutzung am Monitor / 1080p opimiert ist. Muss es dies denn? Ich würde durchaus einige Abstriche akzeptieren für die krasse Imersion, die ein High-Res Oculus Rift bietet.

UHD ist gerade mal die vierfache Auflösung als FullHD. Das ist durchaus zu stemmen.

Schau dir als Beispiel mal den Leistungsunterschied zwischen aktuellen PC's und der PS360 auf der einen Seite und der Xbone/PS4 auf der anderen Seite an. Die alte Konsolengeneration ist um den Fatkor 10 - 20 langsamer als aktuelle Spiele-Grafikkarten, entsprechend wäre es ohne Probleme möglich deren Titel (bei gleicher Grafikeinstellungen) in UHD@60hz zu rendern. Eine Titan hat knapp die dreifache Leistung einer Xbone, spätestens mit SLI könnten wäre auch diese schnell genug.

Finch
2013-06-25, 15:39:43
Doch welchen nutzen bringt dir UHD? Zum einen bringt AA vergleichbare Qualität zu geringeren Performanceverlusten und gleichzeitig ist es ungewiss, wie hoch die Verbreitung von UHD in 7 Jahren sein wird.
Der Sprung von SH zu FHD war spürbar und selbst da kenne ich viele die kaum einen unterschied merken. Wenn ich da an meine Eltern denke. Die sitzen 5-6 Meter vom 42" TV entfernt, die sehen nichts mehr. Hauptsache der TV ist schön flach und schön.

Ich denke die zukünftige Performance sollte lieber in 1080p/60fps gesteckt werden.

Edit: Schnapszahl Post :D

TheGoD
2013-06-25, 15:50:44
Doch welchen nutzen bringt dir UHD? Guten Morgen, es ging um einen möglichen Oculus Rift mit der Auflösung^^
Schnapszahl Post :DGratuliere :-)
BTW, mir fällt gerade auf das ich meinen tausendsten verpeilt habe...

Finch
2013-06-25, 16:04:17
Guten Morgen, es ging um einen möglichen Oculus Rift mit der Auflösung^^
Gratuliere :-)
BTW, mir fällt gerade auf das ich meinen tausendsten verpeilt habe...


ach sry, hab nur UHD gelesen und losgetippt. Mea Culpa. :)

TheCounter
2013-06-25, 16:38:15
Wie wäre es mit der aktuellen? Warum sollte heutige Hardware nicht in der Lage sein "4k" UHD zu rendern? Natürlich wird es nicht möglich sein die gleiche Grafikqualität wie bei einem Spiel zu erreichen, dass für die Nutzung am Monitor / 1080p opimiert ist.

http://www.pcper.com/reviews/Graphics-Cards/Frame-Rating-High-End-GPUs-Benchmarked-4K-Resolutions

Da musst du die Details schon extrem runterschrauben um 4k @ 60FPS zu erreichen.

Noch zu beachten, hier werden GPUs verwendet die deutlich Leistungsfähiger sind als die der kommenden Konsolen Generation.

Distroia
2013-06-25, 16:38:43
Auch sonst würde ich nicht auf irgendwelche abgedrehten Zukunftstechnologien und sonstigen Space-Age-Crap wie "Hybrid Memory Cube", Memristor oder MRAM setzen, ich sehe da eher evolutionäre Babyschritte, wie auch schon in der Vergangenheit.

Ähm ...
(http://www.extremetech.com/computing/152465-microns-320gbsec-hybrid-memory-cube-comes-to-market-in-2013-threatens-to-finally-kill-ddr-sdram)

L233
2013-06-25, 17:11:49
Ähm ...
(http://www.extremetech.com/computing/152465-microns-320gbsec-hybrid-memory-cube-comes-to-market-in-2013-threatens-to-finally-kill-ddr-sdram)
Jaja, und beim Memristor & Co. werden auch alle Jahre wieder kommerzielle Massenmarktanwendungen in den nächsten 12-24 Monaten prophezeit.

Ich glaubs, wenn ich's kaufen kann.

tobor
2013-06-25, 17:19:01
Doch welchen nutzen bringt dir UHD?

Im Wohnzimmer absolut garnichts. Sogar die meisten Kinos haben doch noch 2k ,was etwas über 1080 p ist. Was soll man da mit 4k im Wohnzimmer?

Akkarin
2013-06-25, 17:25:22
Memresistoren wurden erst 2006 gefunden und 2010 zum ersten mal mit siliziumoxid hergestellt. Davon zu sprechen dass seit "jahren" eine kommerzielle massenmarkanwendung innherhalb kurzer zeit Prophezeit wird ist etwas übertrieben. Wie lange es wirklich dauert bis sie Markreif werden weiß niemand, aber dass es in 8 jahren soweit sein kann ist durchaus nicht unwahrscheinlich.


Aber du Vergleichst ja auch low-end mit high-end um zu verkünden dass es keinen Fortschritt gibt...

L233
2013-06-25, 17:32:48
Aber du Vergleichst ja auch low-end mit high-end um zu verkünden dass es keinen Fortschritt gibt...
Blödsinn, ich verkünde nicht, dass es keine Fortschritt gibt, ich zweifle nur daran, dass in den nächsten 6-10 Jahren gleich ein ganzes Bündel disruptiver Technologien marktreif werden und ihren Weg in die nächste Konsolengeneration finden werden. Die Hardware der kommenden Konsolengeneration bietet nichts, was nicht vor 10 Jahren bereits absehbar war. Und über die Performance einer Jaguar-Core würde sich wahrscheinlich ein Clawhammer von 2003 schieflachen...

robbitop
2013-06-25, 17:35:04
Memory Cube, Stacking etc sind Dinge, die kommen werden. Aber sie sind schon lange in der Presse und es wird immer wieder verschoben. Erinnert mich an OLED. Dort hieß es ja schon vor einem Jahrzehnt, dass die Technologie in den Startlöchern steht.
Bevor sowas in Konsolen erscheint, wird es vorher ersteinmal viele Massenanwendungen geben. Vorher wird man das Risiko nicht eingehen. Da gehen ja relativ hohe Stückzahlen heraus und dementsprechend muss das ganze sehr robust und wirtschaftlich laufen. Für Konsolen nimmt man selten den "neusten Schrei". ;)

Akkarin
2013-06-25, 17:36:17
Hab mich da eher auf das Athlon 64 vs. Jaguar und 200Gb vs 500GB bezogen.

Distroia
2013-06-25, 17:39:23
Jaja, und beim Memristor & Co. werden auch alle Jahre wieder kommerzielle Massenmarktanwendungen in den nächsten 12-24 Monaten prophezeit.

Ich glaubs, wenn ich's kaufen kann.

Hinter dem Hybrid Memory Cube steht ein Konsortion bestehend aus einigen der größten Player in der Speicherherstellung. Da geht es nicht um irgendwelche Startup-Unternehmen, die ihre Technologien zu bewerben, deren Entwicklung noch in den Kinderschuhen stecken. Diese Firmen kommen nicht mit irgendwelchen haltlosen Versprechungen an - immerhin haben sie einen Ruf zu verlieren und Andere haben den HMC schon fest eingeplant. Es gibt offizielle Spezifikationen und auch schon lauffähiges Silizium.

Nightspider
2013-06-25, 18:33:18
Jaja, und beim Memristor & Co. werden auch alle Jahre wieder kommerzielle Massenmarktanwendungen in den nächsten 12-24 Monaten prophezeit.

Ich glaubs, wenn ich's kaufen kann.

Memristoren sind auch nicht mehr weit entfernt, wie es scheint:

http://www.pcwelt.de/ratgeber/Die_neuen_Speicherchips_mit_Gedaechtnis-Memristoren-7964590.html

Ob der Artikel aber totaler Blödsinn ist, weiß ich nicht. Auf jeden Fall scheint es generell nicht schlecht um Memristoren zu stehen.

Und MRAM wird auch schon in Masse produziert, wenn gleich auch nur in Form von kleineren Chips.

L233
2013-06-25, 18:38:08
http://www.f2bb.com/images/smileys/boring.gif Nochmal: Ich glaub's, wenn ich's kaufen kann.

Ich bin da einfach immer etwas skeptisch... kann sich noch jemand an Kram wie SED, PALC oder LASERTV erinnern? Display-Technologien, die angeblich alle kurz vor der Markteinführung standen... bis heute gibts da nichts zu kaufen.

c0re
2013-06-25, 19:02:55
Das eigentliche Problem der nächsten Generation wird die Geschwindigkeit sein, da der Sprung von PS4 zu PS5 noch geringer ausfallen wird als von PS3 zu PS4.

Bei dem Rest stimme ich zu, aber hier nicht. Schon jetzt gibt's Karten die doppelt so schnell wie die einer PS4. Siehe Titan.
In puncto Grafikleistung gibt's seit Jahren subjektiv* so große Performance Sprünge, da kommen die CPU's nicht mehr mit.

*bedeutet: Man merkt in der Praxis (= ausschließlich auf Games bezogen) die Leistungsgewinne wesentlich mehr als bei den CPUs.

Nightspider
2013-06-25, 19:14:45
Bei dem Rest stimme ich zu, aber hier nicht. Schon jetzt gibt's Karten die doppelt so schnell wie die einer PS4. Siehe Titan.
In puncto Grafikleistung gibt's seit Jahren subjektiv* so große Performance Sprünge, da kommen die CPU's nicht mehr mit.

*bedeutet: Man merkt in der Praxis (= ausschließlich auf Games bezogen) die Leistungsgewinne wesentlich mehr als bei den CPUs.

Das es Grafikkarten mit Chips gibt, die alleine so groß sind wie das komplette SoC einer Konsole, ist Grund genug warum das für nächste Generation ein Contra-Argument gilt. Erst recht in Verbindung mit den Preisen der aktuellen Grafikkarten, die bis vor einem Monat höher waren als jemals zuvor.

Die Zeitspanne zwischen einzelnen Prozesschritten vergrößert sich und die Zugewinne durch neue Fertigungsverfahren werden immer geringer. Gerade was den Stromverbrauch angeht.

Der Sprung von PS3 auf PS4 ist kleiner als von PS2 auf PS3. Und der Sprung von PS4 auf PS5 wird noch geringer ausfallen, falls die PS5 auch ca. 7-8 Jahre nach der PS4 erscheint.

Aktuell gibt es die größten Fortschritte bei den Speichertechnologien und in den nächsten Jahren ist keine grundlegend bessere Technologie für den CPU/GPU Markt angekündigt.
Also hängt dort alles von der IPC Power und dem Fertigungsprozess ab. Und letzterer verspricht nunmal geringere Taktsprünge und deutlich kleinere Sprünge in der Energieeffizienz.
Das können IPC-Steigerungen nie und nimmer auffangen.

Die Leistungssprünge müssen(!) kleiner werden.

L233
2013-06-25, 19:15:16
Bei dem Rest stimme ich zu, aber hier nicht. Schon jetzt gibt's Karten die doppelt so schnell wie die einer PS4. Siehe Titan.
In puncto Grafikleistung gibt's seit Jahren subjektiv* so große Performance Sprünge, da kommen die CPU's nicht mehr mit.

Man sollte nicht vergessen, dass die CPU in den neuen Konsolen überraschend schwachbrüstig ist. So'n 4-Core Kabini bringt eine Rechenleistung, für die sich jeder Dual-Core Sempron von for 5 Jahren in Grund und Boden schämen würde. In dem Bereich wurde diesmal sehr tief gestapelt, da halte ich enorme Sprünge bei der nächsten Generation für sehr wahrscheinlich, solange nicht wieder eine gescheiterte Tablet-CPU im Ausverkauf verbaut wird.

del_4901
2013-06-25, 19:18:54
Warum sollte heutige Hardware nicht in der Lage sein "4k" UHD zu rendern?Die caches sind zu klein, das haut dann auf einmal richtig rein.

mboeller
2013-06-25, 20:16:29
Jaja, und beim Memristor & Co. werden auch alle Jahre wieder kommerzielle Massenmarktanwendungen in den nächsten 12-24 Monaten prophezeit.

Ich glaubs, wenn ich's kaufen kann.


Meinst du das hier:

http://www.heise.de/newsticker/meldung/Memristoren-von-SK-Hynix-wohl-fruehestens-2015-1896701.html

L233
2013-06-25, 20:39:18
Meinst du das hier:

http://www.heise.de/newsticker/meldung/Memristoren-von-SK-Hynix-wohl-fruehestens-2015-1896701.html
Ach, 2015 ist's jetzt.... :rolleyes: Wer bietet mehr?

Ja, das meine ich.

Akkarin
2013-06-25, 21:29:40
Nochmal, Memrisistoren sind gerade einmal ein paar jahre alt. Es gab bisher eine (1) verschiebung um 2 Jahre. Selbst wenn du nochmals 2 jahre drauf packst bis du bei 2017, also 2 Jahre vor der frühesten "next-next" gen console. Ihr macht so als ob ihr seit 10 Jahren höhrt "in 2 jahren ist es soweit" wenn es die Technologie vor 10 jahren nicht mal gab.

L233
2013-06-25, 21:39:17
Nochmal, Memrisistoren sind gerade einmal ein paar jahre alt. Es gab bisher eine (1) verschiebung um 2 Jahre. Selbst wenn du nochmals 2 jahre drauf packst bis du bei 2017, also 2 Jahre vor der frühesten "next-next" gen console. Ihr macht so als ob ihr seit 10 Jahren höhrt "in 2 jahren ist es soweit" wenn es die Technologie vor 10 jahren nicht mal gab.
Oh, OK. 2017 ist jetzt geboten. Sonst noch wer? Bietet jemand 2018?

Aber mal ernsthaft:
Es ist einfach ein genereller Trend bei brandneuen Technologien, dass die Zeit zur Marktreife oftmals zu viel zu optimistisch geschätzt wird... es können jederzeit unvorhergesehen technische Probleme auftreten, oder die Massenfertigung ist nicht wirtschaftlich oder oder oder. Oftmals verschwinden Technologien wieder in der Versenkung, bevor sie es überhaupt zur Marktreife schaffen. Ich warte immer noch auf die SED-Bildschirme...

Akkarin
2013-06-25, 22:02:25
Hast du den post gelesen ? Ich hab nur gesagt das selbst wenn man die verschiebung verdoppelt es noch mehr als rechtzeitig kommen würde. Die teile wurden 2006 gefunden, 2008 gabs die ersten schlaltungen und 2010 wurde das ganze mit siliziumdioxid gebaut. Damals wurde 2013 gesagt, jetzt hieß es dann 2015. Klar kann es zu verschiebungen kommen, aber die "next-next" gen kommt frühestens 2019. Ich denke man kann durchaus optimistisch sein das es bis dahin bereits Massenfertigungen gibt. Es gab bisher eine (!!!) verschiebung um 2 jahre. Das 2017 sollte nur verdeutlichen wie viele verschiebungen es geben kann damit es noch rechtzeitig kommt. Geht man von etwas späteren Konsolen oder davonm das die konsolen es sehr früh einsetzen könnte man nochmal 2
Jahre drauf packen. Das sind keine Verzögerungen die stattfinden werden, sondern könnten.

SED gibs ja u.a. nicht wegen LCDs. Das ist so als würdest du in 10 Jahren kommen 'ätsch, es gibt doch keine memristoren" wenn bis dahin jeder PRAM nutzt.

L233
2013-06-25, 22:21:24
Irgendwie macht es keinen Sinn mehr, Dir zu antworten. Mein Standpunkt ist einfach, dass ich auf irgendwelche Verfügbarkeitsprojektionen bei neuen Technologien nichts gebe. Ich glaube erst dann an die Marktfähigkeit von Technologien, wenn es entsprechende Produkte am Markt gibt. Das ganze Blabla wer nun wann wie oft was verschoben hat, interessiert mich übrigens nicht die Bohne. Du has ja wiederholt darauf hingeweisen, dass die Dinger erst 2006 gefunden wurden. Was übrigens eher gegen eine baldige Verfügbarkeit spricht, aber ok...

Nightspider
2013-06-26, 02:06:07
Irgendwie macht es keinen Sinn mehr, Dir zu antworten. Mein Standpunkt ist einfach, dass ich auf irgendwelche Verfügbarkeitsprojektionen bei neuen Technologien nichts gebe.

Ja das hast du mehrmals und es ist nicht in jeder Hinsicht sinnvoll, weil einige Technologien definitiv fertig sein werden, in 6-10 Jahren.

Und jetzt zurück zum Thema.

Bis auf deine Antwort an Core waren die restlichen 6 Postings von dir bisher schrott und am Thema vorbei.

L233
2013-06-26, 06:40:22
Bis auf deine Antwort an Core waren die restlichen 6 Postings von dir bisher schrott und am Thema vorbei.
Ja, lieber irgend einen abgehobenen Hirnschiss von 4K UHD OLED Multil-Occulus-RIFT 3D-Bodyscan VR basierend auf Cloud Computing und gestackter Memristor-Technologie in 6 Jahren zusammenfantasieren.

Nightspider
2013-06-26, 06:42:32
Ja, lieber irgend einen abgehobenen Hirnschiss von 4K UHD OLED Dual-Occulus-RIFT-VR basierend auf gestackter Memristor-Technologie in 6 Jahren zusammenfantasieren.
:facepalm:
Lass es einfach und troll dich aus dem Thread.

Iruwen
2013-06-26, 09:17:37
Ich bookmarke mir den Thread und komm dann drauf zurück wenn sich rausstellt dass L233 recht hatte, wovon ich mal schwer ausgehe.

tobor
2013-06-26, 09:30:39
Die Hardware der kommenden Konsolengeneration bietet nichts, was nicht vor 10 Jahren bereits absehbar war. Und über die Performance einer Jaguar-Core würde sich wahrscheinlich ein Clawhammer von 2003 schieflachen...
Apus waren schon vor 10 Jahren absehbar(inklusive gemeinsamen Adressraums und Grafikprefetching?)
Die Bedeutung der Cpu für Spiele ist generell gesunken.
Nicht auszuschließen, dass irgendwann Arms verbaut werden.

robbitop
2013-06-26, 10:15:30
Die caches sind zu klein, das haut dann auf einmal richtig rein.
Ändert sich denn großartig etwas bei einer reinen Steigerung der Auflösung? (angenommen Textur- und Geometriedetail bleiben gleich)
Welche Caches sind da bei heutigen GPUs zu klein?

tobor
2013-06-26, 17:21:12
Mal ne andere Frage: Nachdem die Wii U wohl ein Flop ist,wenn sie nicht gerade eine Wende wie der 3ds einlegt. Ob Nintendo wieder halbwegs leistungsfähige in ihre nächste Hardware einbauen?

drexsack
2013-06-26, 17:32:14
Mal ne andere Frage: Nachdem die Wii U wohl ein Flop ist,wenn sie nicht gerade eine Wende wie der 3ds einlegt. Ob Nintendo wieder halbwegs leistungsfähige in ihre nächste Hardware einbauen?

Ich hoffe ja, dass sie nach den beiden Wii-Debakeln die Hardware aufgeben und ihre wenigen triple A-Reihen bei MS und Sony und von mir aus auch auf dem PC releasen. Dann sehen die Spiele endlich mal gut aus, lassen sich vernünftig steuern und man muss nicht für ein paar Spiele einen extra Staubfänger im Wohnzimmer stehen haben.

Knuddelbearli
2013-06-26, 17:55:26
was für ein wii Debakel? oO

drexsack
2013-06-26, 18:18:08
Ich meine diesen zwei Staubfänger, die sich zwar halbwegs verkaufen, aber von niemanden ernsthaft zum spielen genutzt werden und kontinuierlich weniger Unterstützung und Spiele erhalten. Hier im Forum gibts aber natürlich jede Menge leidenschaftliche Wii-Gamer, dass ist mir schon bewusst.

Coda
2013-06-26, 18:53:01
Sega hat die Hardware aufgegeben und danach ging's auch mit der Software bergab weil sie keine Hardware mehr damit pushen mussten.

Ich weiß nicht ob das so eine gute Idee wäre.

Knuddelbearli
2013-06-26, 19:14:24
also Wii war finanziell ein voller Erfolg weiss echt nicht was da ein Debakel sein soll, ja es wurden weniger Spiele also bei MS und Sony pro Konsole verkauft aber nicht sehr viel weniger, außerdem kann das Nintendo egal sein da sie selbst mit der konsole alleine nen hübschen gewinn machen

Hallo
2013-06-27, 00:38:09
Sega hat die Hardware aufgegeben und danach ging's auch mit der Software bergab weil sie keine Hardware mehr damit pushen mussten.

Ich weiß nicht ob das so eine gute Idee wäre.

Das hast du teilweise Recht mit dem Pushen. Aber andererseits war das LineUp bei der ersten XBox grandios. Um wieder auf die Beine zu kommen mussten die wohl soviele mässige Titel raushauen sowie die Anzahl der internen Studios drastisch verringern.
Aber besser so als das sie ganz verschwunden wären denn ab und zu kommen dann doch noch wirklich gute Titel raus wie z.B. das kommende PSO2.

tobor
2013-06-27, 09:34:17
also Wii war finanziell ein voller Erfolg weiss echt nicht was da ein Debakel sein soll, ja es wurden weniger Spiele also bei MS und Sony pro Konsole verkauft aber nicht sehr viel weniger, außerdem kann das Nintendo egal sein da sie selbst mit der konsole alleine nen hübschen gewinn machen

Mit der Wii U machen sie angeblich Verlust,wobei man sich fragt,wie das gehen soll bei der Hardware. Und was den Touchscreen betrifft,selbst 100 Euro(Ladenpreis...) Billigware ist besser,und die haben auch noch Socs,Ram und Speicher verbaut.

Coda
2013-06-27, 11:29:29
Und über die Performance einer Jaguar-Core würde sich wahrscheinlich ein Clawhammer von 2003 schieflachen...
Ich geh davon aus, dass die Jaguar schon schneller sind oder zumindest vergleichbar. Dafür brauchen sie auch einen Bruchteil des Stroms und der Die-Fläche. Blödsinniger Vergleich.

Und Speicher näher am Die (in welcher Form auch immer) wirst du in den nächsten 6 Jahren definitiv sehen. Das steht auf mehreren Roadmaps und ist auch nötig um überhaupt noch die Performance skalieren zu können. Hat Intel doch sogar schon in Produktion mit Crystalwell.

mboeller
2013-06-27, 12:17:30
Also wenn man über wirklich große Performance-Sprünge was erfahren will, dann kann man mal nach ZettaFlops googeln.

Da findet man dann so Ideen wie PIM (processing in memory); reverse logic etc...

www.zettaflops.org/PES/3-AdvArch-Kogge.pdf*
www.zettaflops.org/PES/5-Reversible-Frank.pdf*

Das sind alles keine neuen Ideen, aber schön langsam ist das "stupide" shrinkage am Ende. Deshalb kommen solche Sachen wieder stärker in den Fokus.

noch so ein ungelegtes Ei:
http://www.sciencedaily.com/releases/2013/06/130621121015.htm

Knuddelbearli
2013-06-27, 19:13:48
Mit der Wii U machen sie angeblich Verlust,wobei man sich fragt,wie das gehen soll bei der Hardware. Und was den Touchscreen betrifft,selbst 100 Euro(Ladenpreis...) Billigware ist besser,und die haben auch noch Socs,Ram und Speicher verbaut.


na wiiU ist bei hardware minimal Verlustgeschäft ( wenn man wirklich alles inkl Marketing F+E usw mitrechnet ) aber er Sprache ja davon das beide ein Fail waren.

L233
2013-06-27, 19:49:55
Ich geh davon aus, dass die Jaguar schon schneller sind oder zumindest vergleichbar. Dafür brauchen sie auch einen Bruchteil des Stroms und der Die-Fläche. Blödsinniger Vergleich.
Ich rede rein von der Performance, nicht von Die-Fläche und Energieverbrauch.

Hier hast Du einen Single-Core Lima (Athlon64 Shrink + DDR2 u. SSE3) gegen einen Dual-Core Bobcat. Beide mit 1,6 GHz. Lass Jaguar Takt für Takt 15% schneller sein als Bobcat...
http://www.anandtech.com/bench/Product/328?vs=115

Warum man da nicht irgendwas auf Llano-Basis gebastelt hat... schade.

Knuddelbearli
2013-06-27, 20:09:37
weill Llano selbst mit dicken Abspeckungen immer noch doppelt so groß wäre und 3W APUs sowieso nicht machbar?

um in solche Verbrauchsbereiche zu kommen muss man den ganzen Chip / Architektur darauf auslegen

Nightspider
2013-06-27, 22:54:12
Ich rede rein von der Performance, nicht von Die-Fläche und Energieverbrauch.

Hier hast Du einen Single-Core Lima (Athlon64 Shrink + DDR2 u. SSE3) gegen einen Dual-Core Bobcat. Beide mit 1,6 GHz. Lass Jaguar Takt für Takt 15% schneller sein als Bobcat...
http://www.anandtech.com/bench/Product/328?vs=115

Warum man da nicht irgendwas auf Llano-Basis gebastelt hat... schade.

Du wiederholst dich. Coda ist klar was du meinst. Und genau deswegen ist dein Vergleich für die Tonne.

Die Gründe für deine Frage wurden doch schon zickfach geliefert. Zu groß und zu stromhungrig.
Stell dir vor aber das spielt nicht nur bei Smartphones eine Rolle. Zudem sind die AMD CPU-Kerne billig.
Die GPU spielt eine viel größere Rolle. Wenn man hätte mehr Leistung einbauen wollen, hätte man wahrscheinlich erst die GPU noch weiter vergrößert.
Wichtige Die-Fläche für die CPU, anstatt für die GPU, zu opfern wäre das Dümmste, was MS und Sony hätten machen können.

L233
2013-06-28, 00:36:30
Du wiederholst dich. Coda ist klar was du meinst. Und genau deswegen ist dein Vergleich für die Tonne.
Was für ein Vergleich??? Es war lediglich die Feststellung, dass die CPU-Performance die Low-End-Klasse darstellt und bereits vor 10 Jahren als lahm gegolten hätte. Coda hingegen hat behauptet, dass so eine Jaguar Core schneller wäre. Darauf habe ich geantwortet.

Die Gründe für deine Frage wurden doch schon zickfach geliefert. Zu groß und zu stromhungrig.

Pure Spekulation. Ein paar Quadratmillimeter mehr Die und ein paar Watt mehr Strom hätten die Sau auch nicht fett gemacht. Genausogut kann man spekulieren, dass das Produkt mit Jaguar-Cores eben in der erwünschten Form bereits existiert hat und sich kostengünstig hat anpassen lassen, während Llano einen größeren Umbau und damit höhere Entwicklungskosten erfordert hätte.

Stell dir vor aber das spielt nicht nur bei Smartphones eine Rolle. Zudem sind die AMD CPU-Kerne billig.

Ja, ne, ist klar. Weil bei einer stationären Konsole auch 30 Watt hoch oder runter großartig eine Rolle spielen.

Die GPU spielt eine viel größere Rolle. Wenn man hätte mehr Leistung einbauen wollen, hätte man wahrscheinlich erst die GPU noch weiter vergrößert. Wichtige Die-Fläche für die CPU, anstatt für die GPU, zu opfern wäre das Dümmste, was MS und Sony hätten machen können.


Komisch wie nun plötzlich die CPU kleingeredet wird. Letzte Generation hat man sich noch mit Triple-Cores, 7-fach SPEs und sonstigem CPU-Brimborium gegenseitig übertroffen, heutzutage solls nun plötzlich alles scheissegal sein.

Das mag zutreffen, wenn man davon ausgeht, dass auch in der nächsten Generation 95% der Konsolengames aus Gummiband-Racern, Korridor-Shootern und dem Rennen durch statische Theme-Park-Kulissen bestehen. Wenn man sich aber überlegt, was mit 8GB RAM so möglich wäre, dann fragt man sich schon, ob eine CPU mit dermaßen schwacher single-threaded Performance so geil ist.

Außerdem hat MS schon massiv GPU-Fläche für das eSRAM geopfert. Deiner Argumentation nach müsste dann natürlich auch entsprechend der Umkehrschluss gelten und MS wäre besser damit bedient gewesen, ein paar CPU-Cores abzuhacken anstatt die GPU zu kastrieren.

Nightspider
2013-06-28, 00:53:17
Du schreibst so viel Quatsch das ich nicht mal Lust habe darauf einzugehen. :rolleyes:

L233
2013-06-28, 07:09:11
Du schreibst so viel Quatsch das ich nicht mal Lust habe darauf einzugehen. :rolleyes:
Schau Dir doch mal einen Mobile Phenom II P960 an. Der hat 45nm Strukturgröße, 1,8GHz und 4 Cores eine TDP von 25W. Jetzt Shrink den auf 28nm und takte auf 1,6 GHz runter...

... und Du Vollprofi willst mir hier allen ernstes erzählen, dass der Energieverbrauch 8 solcher Cores (zusammen wahrscheinlich deutlich unter <20W) ein großartiges Problem für eine stationäre Konsole wäre? Erklär mir das mal, oh großer Meister.

Angesichts Deiner kompletten argumentativen Substanzlosigkeit und Deinem infantilen Gepflaume gegen mich persönlich, finde ich es wirklich erstaunlich, wie voll Du hier Dein Maul nimmst, wenn es darum geht, mir wiederholt zu unterstellen, dass ich Quatsch posten oder trollen würden. Das ist schon frech.

tobor
2013-06-28, 09:33:48
Komisch wie nun plötzlich die CPU kleingeredet wird. Letzte Generation hat man sich noch mit Triple-Cores, 7-fach SPEs und sonstigem CPU-Brimborium gegenseitig übertroffen, heutzutage solls nun plötzlich alles scheissegal sein.

Eben.Sowohl Sony, dass früher wesentlich stärker auf Cpu-Leistung gesetzt hatte, als auch Microsoft habe sich für den Jaguar entschieden. Warum wohl?
Weil viele Sachen, die früher von der Gpu übernommen worden sind, heutzutage effektiver von der Gpu "gestemmt" werden können. Sogar manche Ai-Algorithmen.

robbitop
2013-06-28, 10:13:38
K10 kostet deutlich mehr Transistoren als Jaguar. Außerdem bringen Shrinks nicht all zu viel Reduktion in Punkto Leistungsaufnahme. Das ist viel stärker designabhängig als du denkst.
Schau dir Llano in 32 nm an. Der wurde weder sparsamer noch besser taktbarer als Deneb oder Thuban.
28 nm ist ein ganz anderer Prozess. Gate Last statt Gate First, Bulk statt PD-SOI. Da muss man das Design schon massiv umstricken, damit das geht.
Jaguar war, was Leistung/W und Leistung/Transistor betrifft, deutlich besser als K10.

K10 ist sicherlich nochmal ein 10-20 % schneller. Dafür ist der Kern aber auch viel größer. Um das zu kompensieren baust du halt mehr Jaguar Kerne ein. 8x K10 Kerne.

Ein K10 Core ist in 45 nm 15,3 sqmm groß, bobcat in in 40 nm Prozess 4,6 sqmm. Jaguar hat 3,1 sqmm in 28 nm.

Jetzt normieren wir auf 28 nm:
K10 = ~ 6 sqmm
Jaguar = 3,1 sqmm
Bobcat = ~2,3 sqmm

Allerdings sind das schon perfekte Shrinks - die es ja gar nicht gibt. AFAIK sind wir bei ~ 70 % pro Shrink. Also landet K10 realistisch eher bei 8...8,5 sqmm.

Du kannst also auf gleicher Fläche 2...3x so viele Jaguar Kerne unterbringen, wie K10s. Auch die Leistungsaufnahme ist geringer. Die Alternative zu 8x Jaguar wären 4x K10 @ < 2 GHz gewesen. Ist doch klar, was man nimmt.

Außerdem ist Jaguar bereits so designt, dass er extrem flexibel ist, was Fertigungsprozesse angeht. Lies dir da mal die Infos von AMD dazu durch. Einen K10 von Gate First + SOI auf einen Gate Last + Bulk nonHP Prozess umzustricken wäre extremst aufwändig und deutlich teurer gewesen.

Für die Fläche und Leistungsaufnahme der 8x Jaguar Kerne war einfach nichts Besseres am Markt verfügbar. Insbesondere, wenn du einen SoC haben willst.
Außerdem macht es Sinn, möglichst viel Kernfläche für die GPU auszugeben. Diese hat wesentlich größeren Einfluss für das Spielerlebnis. Insbesondere, wenn du einen SoC mit HSA Fähigkeiten hast. Das gibt völlig neue Möglichkeiten, da man erstmalig auch Dinge sehr einfach und latenzarm an die GPU übergeben kann. GCN ist dafür geeignet, man hat den gleichen Speicherpool und man ist latenzarm und bandbreitenstark miteinander verbunden.

IMO ist der SoC in der PS4 für seine Größe, Preis und Leistungsaufnahme so gut, wie es eben möglich war für den Zeitraum.

Coda
2013-06-28, 11:17:51
Ich rede rein von der Performance, nicht von Die-Fläche und Energieverbrauch.

Hier hast Du einen Single-Core Lima (Athlon64 Shrink + DDR2 u. SSE3) gegen einen Dual-Core Bobcat. Beide mit 1,6 GHz. Lass Jaguar Takt für Takt 15% schneller sein als Bobcat...
http://www.anandtech.com/bench/Product/328?vs=115

Warum man da nicht irgendwas auf Llano-Basis gebastelt hat... schade.
Das der E-350 dabei aber deutlich weniger Speicherbandbreite und nur die Hälfte der SSE-Bandberite hat unterschlägst du (was mit Jaguar behoben wurde). Und das Software nicht immer 100% skaliert mit zwei Cores auch.

Jaguar ist schneller bei 1,6Ghz als der 2650e. Das garantiere ich dir. Die 15% sind viel zu wenig. Ein A4-5000 (Jaguar 1,5 Ghz) zerlegt einen E2-2000 (Bobcat 1,75 Ghz) um 25%. Taktnormalisiert sind das fast 50%.

Unterschätzt das Jaguarchen nicht. Das Ding hat für die Größe ordentlich Zähne.

S940
2013-06-28, 11:30:30
Hier hast Du einen Single-Core Lima (Athlon64 Shrink + DDR2 u. SSE3) gegen einen Dual-Core Bobcat. Beide mit 1,6 GHz. Lass Jaguar Takt für Takt 15% schneller sein als Bobcat...
http://www.anandtech.com/bench/Product/328?vs=115

Das bei Anandtech sind größtenteils FPU-Benches. Da musst Du wg. den verdoppelten FPU-Resourcen bei Jaguar schon mehr als +15% draufrechnen, grob würde ich mit +50% rechnen, ne Verdopplung wird man nur selten erreichen.

Dann ist da auch noch AVX-Support, was im Vergleich zum K8 auch noch SSSE3/SSE4.1/2 bedeutet. Nutzlos in Deinem Legagcy-Benchvergleich, da es dort sicherlich nicht genutzt werden würde, aber in ner Spielekonsole, die nicht abwärtskompatibel sein muss, wird das ganz sicher noch ein paar FPS mehr rausholen.
(Nebenbei: Gibts irgendwo AVX/nonAVX-Benches zu Grid2, habe gerade ~10 min. gesucht und nix gefunden, PCGH hat nur GPU-Tests online).

Edit: Zu lange gesucht ^^

Locuza
2013-06-28, 11:44:14
Hat AVX bei einer 128-Bit Pipeline nennenswerte Performancevorteile gegenüber SSE?

y33H@
2013-06-28, 12:13:29
(Nebenbei: Gibts irgendwo AVX/nonAVX-Benches zu Grid2, habe gerade ~10 min. gesucht und nix gefunden, PCGH hat nur GPU-Tests online).Wollte ich machen, geht aber nicht. Bei ner AVX-enabled CPU nimmt Grid 2 immer die AVX.exe, keine Chance.

Ronny145
2013-06-28, 12:23:41
Schau dir Llano in 32 nm an. Der wurde weder sparsamer noch besser taktbarer als Deneb oder Thuban.



Llano war die erste CPU von AMD auf 32nm noch vor dem ersten Bulldozer, lief damals grottig. Llano hatte eine fette GPU an der Backe, möglicherweise war die Integration nicht optimal. Deswegen schwer zu vergleichen mit Deneb und Thuban, die keine GPU an der Backe hatten.

Coda
2013-06-28, 12:59:42
Hat AVX bei einer 128-Bit Pipeline nennenswerte Performancevorteile gegenüber SSE?
3 operand encoding macht den code bissel kürzer und man hat effektiv mehr Register. Kommt aber auf die CPU an ob es was bringt.

robbitop
2013-06-28, 13:56:46
Llano war die erste CPU von AMD auf 32nm noch vor dem ersten Bulldozer, lief damals grottig. Llano hatte eine fette GPU an der Backe, möglicherweise war die Integration nicht optimal. Deswegen schwer zu vergleichen mit Deneb und Thuban, die keine GPU an der Backe hatten.
Da gibt es noch andere Beispiele. AMDs Shrink von 90 nm auf 65 nm z.B.
Und der Gewinn durch Shrinks nimmt immer mehr ab...

L233
2013-06-28, 14:10:23
K10 kostet deutlich mehr Transistoren als Jaguar. Außerdem bringen Shrinks nicht all zu viel Reduktion in Punkto Leistungsaufnahme. Das ist viel stärker designabhängig als du denkst.
Schau dir Llano in 32 nm an. Der wurde weder sparsamer noch besser taktbarer als Deneb oder Thuban.
Die Spezifikationen legen aber anderes nahe. So ist die TDP eines 2,5 GHz Deneb ca. 50% höher als die eines gleichgetakteten Llanos, wobei natürlich noch dazu kommt, dass beim Llano mit dieser deutlich niedrigeren TDP noch
- eine 400 SP Grafikeinheit
- eine volle Northbridge
- eine Turbomodus bis 2,8 GHz
realisiert wurden.

K10 ist sicherlich nochmal ein 10-20 % schneller. Dafür ist der Kern aber auch viel größer. Um das zu kompensieren baust du halt mehr Jaguar Kerne ein. 8x K10 Kerne.

Also meiner Meinung nach sind Deine 10-20% massiv zu tief gestapelt, ich würde eher schätzen, dass das Richtung 50% geht. Bobcat hatte grottige Performance, Jaguar weitet bestimmte Falschenhälse. Ein Performancewunder ist das Ding deswegen noch lange nicht. Dass eine Jaguar-Core bis zu 90% an einen Husky rankommen würde, halte ich für eine äußerst fragwürdige Schätzung, die sich bestenfalls in einigen Spezialfällen bewahrheiten könnte. Wir reden hier von einem Chip, der ursprünglich für Tablets konzipiert war.

Laut Anand's Archtektur-Artikel taxiert AMD selbst die IPC-Vberesserung gegenüber Bobcat mit 15% (später wird dann mal 22% erwähnt) (http://www.anandtech.com/show/6976/amds-jaguar-architecture-the-cpu-powering-xbox-one-playstation-4-kabini-temash/2). Ich habe bisher nichts gesehen, was einen höheren Performance-Gewinn nahelegen würde, wenn man sich isoliert die CPU-Leistung anschaut.

Du kannst also auf gleicher Fläche 2...3x so viele Jaguar Kerne unterbringen, wie K10s. Auch die Leistungsaufnahme ist geringer. Die Alternative zu 8x Jaguar wären 4x K10 @ < 2 GHz gewesen. Ist doch klar, was man nimmt.
Nein, es ist nicht klar, was man nehmen würde, weil die Wahlmöglichkeit nicht zwangsläufig binär sein muss. Warum nicht z.B. 6x Husky? Massiv mehr Leistung bei einigen wenigen Quadratmillimeter mehr Die-Fläche, insbesondere unter Berücksichtung der Skalierungsproblematiken bei vielen Cores?

Und den Punkt Leistungsaufnahme finde, wie gesagt, nicht überzeugend. Der Formfaktor hat keine Tablet-CPU nötig, wird reden hier ja nicht von einem 130W CPU-Monster, sondern von irgendwas, das eher Richtung 20-25W gehen würde.

Ich denke, hinter der Entscheidung stehen gänzlich andere Gründe, nämlich...

Außerdem ist Jaguar bereits so designt, dass er extrem flexibel ist, was Fertigungsprozesse angeht. Lies dir da mal die Infos von AMD dazu durch. Einen K10 von Gate First + SOI auf einen Gate Last + Bulk nonHP Prozess umzustricken wäre extremst aufwändig und deutlich teurer gewesen.
Und genau das ist meiner Meinung nach der Grund für Jaguar. Ich habe das ja in einem Posting weiter oben schon mal angedeutet (also das, was Nightspider als "Quatsch" bezeichnet hat).

Jaguar existierte als flexibles, HSA-fähiges Bauelement für einen Konsolen-SOC auf dem aktuellen Fertigungs-Node und war damit günstig und einfach zu implementieren. Die Verwendung eines Husky-Cores hätte einen deutlich größeren Designaufwand nach sich gezogen, zumal das Ding ja noch nicht HSA-fähig war.

DAS ist meiner Meinung nach der Ausschlag gebende Grund, warum die CPU-seite diesmal dermaßen low-endig ausgefallen ist... und nicht etwa ein paar läppische Watt weniger Leistungsaufnahme oder ein paar gesparte Quadratmillimeter Silizium.

L233
2013-06-28, 14:17:05
Die 15% sind viel zu wenig. Ein A4-5000 (Jaguar 1,5 Ghz) zerlegt einen E2-2000 (Bobcat 1,75 Ghz) um 25%. Taktnormalisiert sind das fast 50%.
Wir reden aber schon über CPU-Performance, also keine Miteinbeziehung von GPU-Faktoren und unter Berücksichtigung der 2 zusätzlichen Cores? Versteh ich Dich richtig, dass Jaguar 50% höhere single-threaded IPC hat im Vergleich zu Bobcat? Gibt's dafür eine Quelle?

robbitop
2013-06-28, 15:04:13
Die Spezifikationen legen aber anderes nahe. So ist die TDP eines 2,5 GHz Deneb ca. 50% höher als die eines gleichgetakteten Llanos, wobei natürlich noch dazu kommt, dass beim Llano mit dieser deutlich niedrigeren TDP noch
- eine 400 SP Grafikeinheit
- eine volle Northbridge
- eine Turbomodus bis 2,8 GHz
realisiert wurden.
Um zu schauen, wo die Limits liegen, insbesondere für diesen SoC schaut man besser im unteren Bereich. 35 W ist das Minimum für Llano. Da gingen bei 4 Kernen 1,5 Ghz (2,4 GHz im Turbo - vermutlich wenn die IPG nichts zieht und vermutlich nicht über alle Kerne) - bei Phenom 2 Mobile mit 4 Kernen und 35 W gingen 2,2 GHz.

Gehen wir mal beim Turbo davon aus, dass die IGP (320 SPs) quasi aus ist, haben wir am unteren Design Limit (was auch am ehesten in so einen SoC passen würde) vergleichbare Ergebnisse.

Das nimmt sich nicht so viel. Shrinks bringen immer weniger. Das ist von 32 nm auf 28 nm noch schlimmer. Insbesondere da kein SOI da ist, könnte es sogar eher schlechter werden.

Wenn man jetzt die Taktraten hochjubelt im Desktop, ist es auch klar, dass man nachher unverhältnismäßige TDP Steigerungen hat.

Quellen:
http://de.wikipedia.org/wiki/AMD_Phenom_II_(Mobil)
http://de.wikipedia.org/wiki/AMD_Fusion#Llano


Also meiner Meinung nach sind Deine 10-20% massiv zu tief gestapelt, ich würde eher schätzen, dass das Richtung 50% geht. Bobcat hatte grottige Performance, Jaguar weitet bestimmte Falschenhälse. Ein Performancewunder ist das Ding deswegen noch lange nicht. Dass eine Jaguar-Core bis zu 80-90% an einen Husky rankommen würde, halte ich für eine äußerst fragwürdige Schätzung, die sich bestenfalls in einigen Spezialfällen bewahrheiten könnte. Wir reden hier von einem Chip, der ursprünglich für Tablets konzipiert war.
Bobcat hatte nur einen Speicherkanal und nur eine 64 Bit FPU. Das kostet im Extremfall 50 % Leistung (in SIMD limitierten Fällen).

Hinzu kommt, dass du für eine Konsolenentwicklung auf die Stärken des Designs optimieren kannst. Du kannst vollen Nutzen aus AVX ziehen, du kannst voll parallelisieren, du kannst den Code für die Pipeline optimieren.

Coda und Alphatier sind hauptberufliche Entwickler mit Zugriff auf diese Plattformen. Wenn die dir sagen, dass ein Jaguar mit 1,6 GHz schneller ist als ein K8 mit 1,6 GHz, dann kannst du das schon glauben. K10 ist je nach Benchmark ~20 % bei normiertem Takt schneller als ein K8.

Mit PC Benchmarks hat das eben wenig zu tun, da diese auf unoptimiertem Code laufen. Dort ist Jaguar vieleicht etwas schwächer als im Konsolenumfeld.



Laut Anand's Archtektur-Artikel taxiert AMD selbst die IPC-Vberesserung gegenüber Bobcat mit 15% (später wird dann mal 22% erwähnt) (http://www.anandtech.com/show/6976/amds-jaguar-architecture-the-cpu-powering-xbox-one-playstation-4-kabini-temash/2). Ich habe bisher nichts gesehen, was einen höheren Performance-Gewinn nahelegen würde, wenn man sich isoliert die CPU-Leistung anschaut.
Die 15 % kommen bei Generellem Code ohne FPU/SIMD Limit rüber.
Wenn du aber FPU/SIMD limitiert bist, hast du doppelt so hohe Durchsätze bei Jaguar.


Nein, es ist nicht klar, was man nehmen würde, weil die Wahlmöglichkeit nicht zwangsläufig binär sein muss. Warum nicht z.B. 6x Husky? Massiv mehr Leistung bei einigen wenigen Quadratmillimeter mehr Die-Fläche, insbesondere unter Berücksichtung der Skalierungsproblematiken bei vielen Cores?
6x Husky wären auf 28 nm inkl. realistischem Skalierungsfaktor 6x 8,5 sqmm groß. Also ~ 50 sqmm. Auf 50 sqmm bekäme man 16x Jaguarkerne hin statt 6x Husky. 8 Jaguarkerne sind 25 sqmm groß. Man spart also 25 sqmm, die man in die GPU investieren kann, oder Geld sparen kann.
Das macht bei einer hohen zweistelligen Millionenzahl von SoCs schon ziemlich viel aus.

Zu sagen, "ach die paar sqmm", ist in der Massenfertigung nunmal Unsinn.


Und den Punkt Leistungsaufnahme finde, wie gesagt, nicht überzeugend. Der Formfaktor hat keine Tablet-CPU nötig, wird reden hier ja nicht von einem 130W CPU-Monster, sondern von irgendwas, das eher Richtung 20-25W gehen würde.
Im SoC muss aber alles unterkommen. Grafik und CPU. Alles was du in die CPU verfeuerst, bekommt die Grafik nicht.
Jaguar leistet mehr pro Watt. Insbesondere im Konsolenumfeld, wo man sogar einen Cell ausgelastet bekommt.
Warum also einen K10 nehmen?

Ich denke, hinter der Entscheidung stehen gänzlich andere Gründe, nämlich...


Und genau das ist meiner Meinung nach der Grund für Jaguar. Ich habe das ja in einem Posting weiter oben schon mal angedeutet (also das, was Nightspider als "Quatsch" bezeichnet hat).

Jaguar existierte als flexibles, HSA-fähiges Bauelement für einen Konsolen-SOC auf dem aktuellen Fertigungs-Node und war damit günstig und einfach zu implementieren. Die Verwendung eines Husky-Cores hätte einen deutlich größeren Designaufwand nach sich gezogen, zumal das Ding ja noch nicht HSA-fähig war.

DAS ist meiner Meinung nach der Ausschlag gebende Grund, warum die CPU-seite diesmal dermaßen low-endig ausgefallen ist... und nicht etwa ein paar läpptische Watt weniger Leistungsaufnahme oder ein paar gesparte Quadratmillimeter Silizium.
Das war auch ein Grund. Aber nicht der Einzige. Stell dich nicht stur. Wir haben hier, wie eingangs beschrieben, 2 Vollzeitentwickler bei großen Konsolenstudios. Wenn du nicht mal denen glaubst, ist eine Diskussion vollkommen sinnfrei.

PC und Konsole sind nicht vergleichbar. In einem PC Umfeld hätte die PS3 von Anfang an nichtmal einen Bruchteil dessen umsetzen können, was sie im Konsolenumfeld konnte. Im PC hast du "dummen" General Purpose Code ohne großartige Optimierung der jeweiligen CPU und mit nur mäßiger Parallelisierung.
Im Konsolenumfeld kann man offenbar sogar die Stalls eines RSX (G70 Derivat) verhindern und einen Cell mit seinen unflexiblen 7 SPEs auslasten.
Im PC wären in Order CPUs untergegangen. Dir stallt ständig die Pipeline. In jedem Spiele-Benchmark wäre das Ding eine Größenordnung schlechter gewesen als ein Core 2. Mit optimiertem Code hingegen bekommst du die CPU deutlich näher an eine OoO CPU heran - sparst aber Transistoren und Leistung. Man verschiebt die Arbeit von in HW gegossenen Dingen eben auf die SW Entwickler.

Das ist nicht vergleichbar.

Im PC hingegen hast du Recht. Dort sind IPC starke, hochtaktende wenige CPUs deutlich von Vorteil. In einer Konsole hast du aber eine TDP und Kostenbeschränkung. Also musst du zusehen, wie du da das Maximum raushholst. Das geht dann nur mit unkomplexerer HW, deren Nadelöhre du mit Software umschiffen musst.

Gipsel
2013-06-28, 16:24:08
Wir reden aber schon über CPU-Performance, also keine Miteinbeziehung von GPU-Faktoren und unter Berücksichtigung der 2 zusätzlichen Cores? Versteh ich Dich richtig, dass Jaguar 50% höhere single-threaded IPC hat im Vergleich zu Bobcat? Gibt's dafür eine Quelle?Ich denke mal, Coda hat da Erfahrung aus erster Hand, wie sich ein Jaguar-Kern in dem für ihn interessantem Aufgabengebiet schlägt. Solange ordentlich SSE/AVX zum Einsatz kommt (da ist Jaguar doppelt so schnell), dürfte das schon hinkommen, selbst wenn bei skalarem Code der Vorsprung eher nur an den von AMD angeführten 15% kratzt.

Nightspider
2013-06-28, 20:11:03
Es wäre nicht schlecht wenn wir nach der Erklärungsstunde für L233 wieder zum Thema zurückkommen würden.

Und genau das ist meiner Meinung nach der Grund für Jaguar. Ich habe das ja in einem Posting weiter oben schon mal angedeutet (also das, was Nightspider als "Quatsch" bezeichnet hat).
:facepalm:
Du hast ja nicht mal verstanden auf was sich meine Aussage bezog und das wird auch nicht besser indem du mir unterstellst die einzig richtige Überlegung deiner gesamten Posts von mehreren Seiten als falsch zu betiteln.

Komisch wie nun plötzlich die CPU kleingeredet wird. Letzte Generation hat man sich noch mit Triple-Cores, 7-fach SPEs und sonstigem CPU-Brimborium gegenseitig übertroffen, heutzutage solls nun plötzlich alles scheissegal sein.

Weil du scheinbar nicht verstehst, das die aktuellen GPU Architekturen deutlich mehr CPU Leistung übernehmen können als früher, zu Zeiten der Entwicklung von PS3 und 360, und das die GPU dabei sogar noch effizienter vor geht.

Und das "Quatsch" bezog sich auf die sich immer wiederholenden bescheuerten Vergleiche zwischen Desktop und Konsolen Leistung.

Gerade mit solchen Aussagen hast du dich ja genug lächerlich gemacht:
Es war lediglich die Feststellung, dass die CPU-Performance die Low-End-Klasse darstellt und bereits vor 10 Jahren als lahm gegolten hätte.

Angesichts Deiner kompletten argumentativen Substanzlosigkeit und Deinem infantilen Gepflaume gegen mich persönlich, finde ich es wirklich erstaunlich, wie voll Du hier Dein Maul nimmst, wenn es darum geht, mir wiederholt zu unterstellen, dass ich Quatsch posten oder trollen würden. Das ist schon frech.
Wenn hier jemand dumm rumgetrollt hat ja dann wohl eher du mit solchen Posts:
Ach, 2015 ist's jetzt.... :rolleyes: Wer bietet mehr?
Ja, das meine ich.
Oh, OK. 2017 ist jetzt geboten. Sonst noch wer? Bietet jemand 2018?
Ja, lieber irgend einen abgehobenen Hirnschiss von 4K UHD OLED Multil-Occulus-RIFT 3D-Bodyscan VR basierend auf Cloud Computing und gestackter Memristor-Technologie in 6 Jahren zusammenfantasieren.
4K gibt es ja auch noch nicht zu kaufen und OLEDs gibt es ja auch nicht schon seit Jahren zwischen 4 und 7 Zoll, während alleine dieses Jahr die mit Abstand zwei größten OLED Fabriken die Massenproduktion aufnehmen und ab nächster Woche drei 55 Zoll OLED TVs bereits in einem Land zu kaufen sind. Ist auch sehr unrealistisch in 6-10 Jahren.
Und das du nicht begreifst das wir von einem 6-10 Jahreszeitraum sprechen, spricht ja auch schon für deine geistige Aufnahmefähigkeit. :rolleyes:
Gerade diese Aussage von dir hat ja schon auf den ersten Seiten gezeigt das eine Dikussion mit dir überflüssig ist:
Mein Standpunkt ist einfach, dass ich auf irgendwelche Verfügbarkeitsprojektionen bei neuen Technologien nichts gebe.

Und genau DAMIT hättest du dich schon längst aus einem Spekulationsthread verabschiedenen sollen!
Für deine restliche Diskussion wärst du im PS4 Thread besser aufgehoben.

robbitop
2013-06-28, 23:09:01
Es wäre nicht schlecht wenn wir nach der Erklärungsstunde für L233 wieder zum Thema zurückkommen würden.


Meine Güte, Nightspider. Komm mal ein wenig runter. ;) IMO brauchst du L233 nicht so zur Schnecke machen. Außerdem wissen nichtmal Sony, MS und Nintendo heute, wie die nächste Generation aussehen wird. Dieser Thread ist deshalb sowieso sinnfrei, da stark verfrüht. Es gibt sowieso nichts sinnvolles zum Thema beizutragen. Warum nicht ein paar Erklärungen abseits? Zumal diese auch noch relativ interessant sind.

Wenn es jetzt ein super spannendes Thema wäre, würde ich dir ja zustimmen, aber so...

c0re
2013-06-29, 00:55:28
Man sollte nicht vergessen, dass die CPU in den neuen Konsolen überraschend schwachbrüstig ist. So'n 4-Core Kabini bringt eine Rechenleistung, für die sich jeder Dual-Core Sempron von for 5 Jahren in Grund und Boden schämen würde. In dem Bereich wurde diesmal sehr tief gestapelt, da halte ich enorme Sprünge bei der nächsten Generation für sehr wahrscheinlich, solange nicht wieder eine gescheiterte Tablet-CPU im Ausverkauf verbaut wird.

Reicht ja.
So wie ein E6600 mit Werkskühlung @ 3,5 Ghz (mit 560ti und 6gig ram) bf3 @Ultra in 1440p fl+ssig darstellen kann (ok, kein 32 vs 32...)
Die Zeiten wo CPUs fast! so relevant für's Zocken waren wie Grakas sind Jahre vorbei.

L233
2013-06-29, 12:52:07
Und genau DAMIT hättest du dich schon längst aus einem Spekulationsthread verabschiedenen sollen!
"Spekulation" ist was anderes, als wild irgendwelche angekündigten Technologien zu einer neuen Konsole zusammenzufantasieren. Mein Argument ist schlichtweg, das die im November kommenden Konsolen nichts bieten, was nicht vor 10 Jahren schon grundsätzlich in sehr ähnlicher Form existiert hätte (ganz zu schweigen von vor 7 Jahren, als die letzte Generation released wurde). Wir bekommen im November das Endresultat einer relativ unspektakulären evolutionären Entwicklung vorgesetzt - und ich sehen keinen Grund, zu erwarten, dass es in 6-7 Jahren bei der PS5 oder der XBOX NONE anders aussehen wird. In den Konsolen wird sich nichts finden, was nicht bereits einige Jahre vor Release breite Massenmarktverwendung gefunden hat, wenn nicht gerade irgendwer wieder irgend ein neues Format pushen will.

Das war mein Punkt, und wenn Du hier davon schwadronierst, dass ich "bescheuerten Vergleiche zwischen Desktop und Konsolen Leistung" aufstellen würde, dann bist Du mit diesem simplen Argument offenbar intellektuell überfordert, denn darum ging es nie.

Ansonsten werde ich auf Dein Shitgeposte nicht mehr weiter antworten. Irgendwie sehe ich den Sinn darin nicht, mich weiter von Dir persönlich Flamen zu lassen. Hast Du nichts besseres zu tun?

Nightspider
2013-06-29, 22:02:49
Ich weiß ja nicht ob du Ahnung hast wie Hybrid Memory Cube, Occulus Rift, Memristoren und UHD Display funktionieren aber da ist nichts abgehobenes dahinter und hinter UHD und Occulus Rift stecken absolut keine neuen Technologien. UHD ist eine normale Weitgerentwicklung und bei Occulus Rift wurden von ein paar Bastlern bestehende Technologien einfach zusammengefügt und verbessert. Genauso ist die Technologie hinter dem Hybrid Memory Cube absolut nichts Neues. Nur die Ausführung ist schwierig in der Massenproduktion. Chips stapeln tut man schon seit Jahrzehnten. Beim Hybrid Memory Cube werden nur noch zusätzliche Datenleitungen per Trough Silicon Vias realisiert. Einfach erklärt "bohrt" man Löcher und füllt diese mit Kupfer und schafft damit senkrechte Datenleitungen zu erzeugen.
Und die Funktionsweise des Memristor wurde 1971 defininiert. Jetzt hat man es geschafft diese zu produzieren. Diese lassen sich als Speicherchips leicht in Größe und Fertigungsprozess skalieren.

Ganz zu schweigen das einige der aufzählten Technologien quasi schon jetzt greifbar nah sind, ist eine Einstellung dazu lächerlich, das diese Hirngespinste selbst in 6-10 Jahre noch nicht verfügbar sein sollen. Selbst bei OLEDs kann man mittlerweile definitiv davon ausgehen, das sie in 6-10 Jahren Standardmäßig in neuen Geräten verbaut werden.

Hier werden nicht wild irgendwelche angekündigten Technologien zusammenfantasiert. Diese Technologien sind zum Teil schon heut verfügbar und unterm Strich kommt es dann in 6-10 Jahren eh nur auf den Preis bzw. die Leistung von Konkurrenztechnologien an.

Wenn du dann mit Jahreszahlen rumtrollst und dich über solche Zukunftsaussichten lächerlich machst, dann brauchst du dich nicht wundern wenn man zurücktrollt.

Abgesehen davon, waren Techniken wie Kinect, Wii-Motrion Control und Display im Controller vor 10 Jahren garantiert _nicht_ absehbar für neue Konsolen. Denn vor 10 Jahren gab es kaum Beschleunigungssensoren bzw. wenn dann nur zu extrem hohen Preisen in teuren Branchen. (Automobilbranche)
Hätte Nintendo nicht 2006 die Fuchtelsteuerung auf den Markt gebracht, hätten wir vielleicht sogar heute noch kein Kinect und Co bei dieser Generation.

dargo
2013-06-29, 23:12:46
Die Zeiten wo CPUs fast! so relevant für's Zocken waren wie Grakas sind Jahre vorbei.
*hust* ;D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9825279&postcount=547

Nightspider
2013-06-29, 23:15:13
*hust* ;D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9825279&postcount=547

:facepalm:
Genau darum geht es ja.

Du verstehst schon, das man diese CPU-lastigen Berechnungen aus deiner Messung alle auf die DX11 GPUs auslagern kann und dies bisher nur noch nicht der Fall ist, weil Crysis 3 auch für PS3 und Xbox360 programmiert wurde?

dargo
2013-06-29, 23:21:42
:facepalm:
Genau darum geht es ja.

Du verstehst schon, das man diese CPU-lastigen Berechnungen aus deiner Messung alle auf die DX11 GPUs auslagern kann und dies bisher nur noch nicht der Fall ist, weil Crysis 3 auch für PS3 und Xbox360 programmiert wurde?
Crysis 3 @PC hat aber fast gar nichts mehr mit Crysis 3 @Konsole gemeinsam. Dieses extreme CPU-Limit beim dichten Gras gibts nur weil man es sich beim PC dank deutlich potenterer Hardware erlauben kann! Wenn man die Objektdetails von sehr hoch auf Mittel stellt erhöht sich die Framerate bei mir um ca. 50+% (logisch, die Grasdichte nimmt pro m² ab) wodurch man aus dem starken CPU-Limit wieder raus ist. Also was soll dieser Quervergleich zur Konsole jetzt genau bringen solange die Details nicht 1:1 vorhanden sind?

PS: ich finds sogar richtig gut, dass Crytek die CPU-Cores für Multithreading beim Gras voll ausnutzt. Gibt nichts schlimmeres als nicht ausgelastete Hardware. Was bringt mir das falls diese Last auf die GPU ausgelagert wird? Noch mehr Last auf GPU-Seite und die CPU-Cores langweilen sich.

Nightspider
2013-06-29, 23:26:05
Logisch. Bisher gibt es kaum bzw. gar keine Physikauslagerung auf die GPU.
Die Mühe hätte sich bisher auch nur für den PC nicht gelohnt, der eh schnell genug war.

Das wird zukünftig aber eben genau andersherum laufen. Die Konsolen liegen quasi schon über DX11.2 Standard und werden überall die Computer-Shader von DX11 nutzen, so gut es geht.
Es ist viel effizienter und somit wird die Bedeutung der CPU im Verhältnis zur GPU viel geringer. ;)

Das ganze Physikzeugs wird auch durch den gemeinsamen Speicherpool der neuen Konsolen deutlich effizienter. Man kann viel einfacher zwischen CPU und GPU-Belastung switchen und die extrem hohe Bandbreite wird auch einige Vorteile bringen.

Solche Berechnungen wie die Grassimulation aus Crysis 3 werden wahrscheinlich ein Klacks für die neuen Konsolen und nichts Besonderes in AAA Titeln werden.

dargo
2013-06-29, 23:33:21
Solche Berechnungen wie die Grassimulation aus Crysis 3 werden wahrscheinlich ein Klacks für die neuen Konsolen und nichts Besonderes in AAA Titeln werden.
Nochmal... diese enorme Grasdichte @VH in Crysis 3 hat Crytek beim PC nur implementiert weil man es sich auf dieser Plattform erlauben kann. Ich hab sogar da meine Zweifel, dass die Konsolenversion überhaupt die Grasdichte @Low beim PC nutzt. Hier kann sicherlich Coda mehr verraten. Mein Lynnfield ist bereits fast 4 Jahre alt. Da ist es kein Wunder, dass die CPU an ihre Grenzen stößt. Für einen ~4Ghz i7 Haswell ist das auch ein Klacks. Und wenn ich da erst an einen Ivy-E oder Haswell-E mit 6C/12T denke erst recht.

Nightspider
2013-06-29, 23:38:00
Nochmal... du vergleichst mit Xbox360 und PS3. Hier geht es um PS5 und Xbox 4.

Selbst PS4 und Xbone sind wahrscheinlich effektiv schneller sein als dein PC, dank der hardwarenahen Programmierung. Ohne zu wissen was du für eine Grafikkiarte hast kann man sagen, das neue DX11 Only Games mit mit GPU beschleunigter Physik dein PC weit hinter sich lassen werden, selbst mit ""schwacher"" PS4 Hardware.

dargo
2013-06-29, 23:41:02
Lass erstmal die ersten Spiele für die Next-Gen erscheinen. Dann können wir sehen was die Konsolen können. Nicht, dass nachher die Enttäuschung groß ist. ;)

Botcruscher
2013-06-29, 23:48:52
Um die Grafik mach ich mir da am wenigsten Sorgen.

Iruwen
2013-06-30, 02:08:38
Selbst PS4 und Xbone sind wahrscheinlich effektiv schneller sein als dein PC, dank der hardwarenahen Programmierung. Ohne zu wissen was du für eine Grafikkiarte hast kann man sagen, das neue DX11 Only Games mit mit GPU beschleunigter Physik dein PC weit hinter sich lassen werden, selbst mit ""schwacher"" PS4 Hardware.
Ich glaub du träumst dir da was zusammen.

Nightspider
2013-06-30, 02:36:58
Inwiefern?
Schau dir halt das Video zu The Devision an und vergleiche das mit den Spielen, die im 1. Jahr für PS3 und Xbox360 erschienen sind.
Gerade durch durch die Fähigkeiten von >DX11.2 und dem gemeinsamen Speicherpool könnte der Vorteil durch hardwarenahe Programmierung noch stärker zu Gunsten der PS4 ausfallen.
Ein PC mit Lynnefield und GTX760 dürfte klar langsamer sein, was die effekte Leistung angeht.

L233
2013-06-30, 06:02:38
Ich glaub du träumst dir da was zusammen.
Das ist allgemeines Problem bei dem Typen.

Gerade durch durch die Fähigkeiten von >DX11.2 und dem gemeinsamen Speicherpool könnte der Vorteil durch hardwarenahe Programmierung noch stärker zu Gunsten der PS4 ausfallen.
Ein PC mit Lynnefield und GTX760 dürfte klar langsamer sein, was die effekte Leistung angeht.
Kannst Du den Vorteil in irgend einer Form auch nur grob quantifizieren oder ziehst Du Dir den Lynnefield/GTX760 Vergleich einfach nur aus dem Arsch?

Nightspider
2013-06-30, 06:37:02
Was ist das für eine dumme Frage?
Kannst du grob quantifizieren, wieviel % die AVX Register einer CPU bringen? Wieviel das Shader Model 5.0 gebracht hat? Oder wieviel der eDRAM der Wii-U gebracht hat?
Das kann niemand quantifizieren weil es individuell vom Szenario abweicht und weil diese, je nach Fall entweder riesige Unterschiede bringen oder sogar gar keinen.

Das könnten dir nichtmal Spieleentwickler sagen, die gerade dabei sind für die PS4 zu programmieren. Klar ist nur das es große Vorteile bringen wird. Das die GPU bei Physikberechnungen deutlich effizienter und schneller zu Werke geht als die CPU ist nun keine Sensationsnachricht und wenn du die letzten Jahre aktiv bei solchen Entwicklungen mitgelesen und zB. Aussagen mancher Programmierer zu den Vorteilen gelesen hättest, dann hättest du jetzt auch grob eine Ahnung davon, was für große Vorteile es bringen wird.

Und das hardwarenahe Programmierung einen großes Performanceplus im Vergleich zur gleichen PC Hardware bringt ist ein alter Hut und seit je her bekannt. Falls du davon noch nichts wusstest: auf nimmer Wiedersehen! K thx bye.

Hallo
2013-06-30, 06:40:47
Mal ne noobige Frage: Ist es nicht so das die Vorteile der PS4 wie GPU+CPU auf einem Die, der gemeinsame relativ grosse GDDR5 Speicher sowie hardwarenahe Programmierung die höhere Rawpower eines guten (nicht Titan High-End) PCs ausgleichen könnte?

Vor allem HW nahes Programmieren und Optimieren dürfte der grösste Vorteil sein. Sicherlich sehen die einzelnen Komponenten schwach aus zu nem potenten PC aber alles zusammen ergibt dann eine runde Sache. Auch darf nicht vergessen werden das Windows nochmal ne Ecke schluckt, das gibt's bei PS4 nicht.

Wer kann sich noch an die erste XBox erinnern? Um an die Performance dieses Systems mit GF3, 64MB unified und lahmen Celeron@733 MHz mit einem PC ranzukommen musste der PC schon um einiges dicker sein. RallySportsChallenge war damals mein Vergleich.

Nightspider
2013-06-30, 06:44:23
Bei der PS4 kann man grob von einer GTX680 Leistung ausgehen, was man so ließt. Falls der gemeinsame GDDR5 RAM sowie die >DX11.2 Fähigkeiten viel bringen sogar mehr.

Hallo
2013-06-30, 07:07:50
Puhh das wäre aber gar nicht schlecht. Aber abseits der reinen Performance wüsche ich mir Vorgaben wie 1080p@60fps an die Studios zumindest bei Shootern, Racern und Action Games. Das nervt beim PC nämlich sehr, die instabilen Frameraten. Grid2 z.B ist eine Katastrophe.

Al-CAlifAX
2013-06-30, 07:56:53
Puhh das wäre aber gar nicht schlecht. Aber abseits der reinen Performance wüsche ich mir Vorgaben wie 1080p@60fps an die Studios zumindest bei Shootern, Racern und Action Games. Das nervt beim PC nämlich sehr, die instabilen Frameraten. Grid2 z.B ist eine Katastrophe.

aber auch nur bei den spielem. weil man bei vielen genres die framerate nur dann merkt wenn sie unter 30 fällt. das ist mir ne super quali und stabile 35+ frames lieber. die niedrigen frames sind vor allem bei sidescroll spürbar, daher wird ja auch viel durch blur kaschiert. aber nem heavy rain sind 60 frames blödsinn. selbst bei nem god of war ist es selten spürbar. spannend wird es bei den mmo shootern und racern werden. bei mmos waren mir selbst 60fps zu wenig ;)

Al-CAlifAX
2013-06-30, 08:01:45
Bei der PS4 kann man grob von einer GTX680 Leistung ausgehen, was man so ließt. Falls der gemeinsame GDDR5 RAM sowie die >DX11.2 Fähigkeiten viel bringen sogar mehr.

macht aber der jaguar wieder zunichte. daher wird auf gpgpu programmierung gesetzt was ein teil der gpu für cpu aufgaben wegnimmt. was aber dank der dann sehr kurzen laufwege und des wegfallenden flaschenhalses wie beim pc ordentlich abgehen dürfte. wer aber ne gtx770+ und nen i7 3.2+ mit 16gb hauptspeicher und 4gb videospeicher hat, kann locker ps4 games darstellen es liegt an den entwicklern/puplishern ob sie das wollen das der pc mithalten kann.

Nightspider
2013-06-30, 08:05:52
@dargo+L233 :dieser Post ist auch für euch nochmal interessant:

Ich glaub du träumst dir da was zusammen.

Um nochmal auf deinen blöden* Kommentar einzugehen:
*(Sorry, auch wenn hier mehrfach unfreundlich rüberkomme aber so ist es!)

Speicherbandbreite:
Lynnfield: ~20GB/s
PS4: ~180GB/s

Rechenleistung:
Lynnfield: ~~120 GFLOPs
PS4-GPU: ~2000 GLFOPs

Was glaubst du, welcher Chip wohl effektiver bei der Physikberechnung vorgeht?

Die Geschwindigkeit der GPU wird hauptsächlich durch den hohen Grad an Parallelität der Rechenoperationen des Grafikprozessors erreicht. Da kann eine normale CPU gar nicht gegen anstinken.
Und die GPGPU Fähigkeiten lassen sich nicht nur für Physikberechnungen sondern für sehr viel andere Aufgaben nutzen, die früher von der CPU berechnet wurden.

Dazu kommen weitere DX11 Vorteile wie Tessellation Verringerte Leistung beim Wechseln der Renderstates, verringerter CPU-Overhead. Schon 2011 gab es erste Spiele, die dank DX11 Modus bei gleicher Optik bis zu 35% schneller liefen, wie Total War Shogun 2.

macht aber der jaguar wieder zunichte. daher wird auf gpgpu programmierung gesetzt was ein teil der gpu für cpu aufgaben wegnimmt.

Das ist vollkommen korrekt. Wobei "zunichte" in dem Fall etwas übertrieben ist. Und weil die GPU dabei eben effizienter vorgeht, kann man an der CPU sparen.

Das ist genau das, was L233 nicht verstehen wollte.

L233
2013-06-30, 08:45:39
Um zu schauen, wo die Limits liegen, insbesondere für diesen SoC schaut man besser im unteren Bereich. 35 W ist das Minimum für Llano. Da gingen bei 4 Kernen 1,5 Ghz (2,4 GHz im Turbo - vermutlich wenn die IPG nichts zieht und vermutlich nicht über alle Kerne) - bei Phenom 2 Mobile mit 4 Kernen und 35 W gingen 2,2 GHz.
Mit der selben TDP bekommst Du zudem Llano mit vollbestückter 400SP GPU und 1,6GHz oder Llano mit 2,1 GHz und 240SPs. So unterhaltsam die Spec-Rechnerei auch ist, kommen wir doch zum Ausgangsargument zurück: Mit angepassten Husky Cores (SSE4.2, AVX) und einem Shrink wären wir in einem TDP-Bereich, der für den Konsolenformfaktor eher unproblematisch wäre. Richtig oder falsch?

Bobcat hatte nur einen Speicherkanal und nur eine 64 Bit FPU. Das kostet im Extremfall 50 % Leistung (in SIMD limitierten Fällen).
Hinzu kommt, dass du für eine Konsolenentwicklung auf die Stärken des Designs optimieren kannst. Du kannst vollen Nutzen aus AVX ziehen, du kannst voll parallelisieren, du kannst den Code für die Pipeline optimieren.
Das ist sicher alles richtig, aber wie ausschlaggebend ist SIMD-Code für die generelle Performance in Games in Bezug auf CPU-Arbeitslasten? Es ist ja schön und gut, dass Jaguar in dem Bereich von der Performance her nicht ganz so sehr suckt, aber das bedeutet nicht, dass die General Purpose Performance nicht zum Falschenhals werden kann.

Coda und Alphatier sind hauptberufliche Entwickler mit Zugriff auf diese Plattformen. Wenn die dir sagen, dass ein Jaguar mit 1,6 GHz schneller ist als ein K8 mit 1,6 GHz, dann kannst du das schon glauben. K10 ist je nach Benchmark ~20 % bei normiertem Takt schneller als ein K8.
Ich glaube niemandem einfach irgend etwas. Ich möchte Wissen, woher diese Erkenntnis kommt. Wenn Coda game-relevanten Code unter vergleichbaren Bedingungen gebenchmarkt hat, dann kann ich das akzeptieren. Wenn er das einfach aus dem Bauch heraus behauptet, dann nicht. Warum? Weil es mir in diesem Fall schwer fallen würde, zu akzeptieren, dass AMD es mit Jaguar geschafft hat, die gleiche oder mehr Performance auf weniger als 50% der Die Size zu realisieren (wenn man mal Deine Zahlen zugrunde legt).


Die 15 % kommen bei Generellem Code ohne FPU/SIMD Limit rüber.
Wenn du aber FPU/SIMD limitiert bist, hast du doppelt so hohe Durchsätze bei Jaguar.
Ich kann nicht beurteilen, inwieweit Game-Code am SIMD-Limit kratzt. Hätte gerne mehr Informationen hierzu. SIMD-Extensions sind ja auch im PC-Bereich nichts neues, und ich gehe davon aus, dass diese auch ausgiebig in Games genutzt werden. Trotztdem bleibt die General Purpose Leistung entscheidend. Bei der Konsole sollen nun fundamental anders geartet Arbeitslasten anfallen?


6x Husky wären auf 28 nm inkl. realistischem Skalierungsfaktor 6x 8,5 sqmm groß. Also ~ 50 sqmm. Auf 50 sqmm bekäme man 16x Jaguarkerne hin statt 6x Husky. 8 Jaguarkerne sind 25 sqmm groß. Man spart also 25 sqmm, die man in die GPU investieren kann, oder Geld sparen kann.
Das macht bei einer hohen zweistelligen Millionenzahl von SoCs schon ziemlich viel aus.

Zu sagen, "ach die paar sqmm", ist in der Massenfertigung nunmal Unsinn.
Das Argument hängt jetzt natürlich zu einem nicht unerheblichen Teil daran, ob Deine Behauptungen zum Skalierungsfaktor korrekt sind. Das kann ich nicht beurteilen.

Und klar kann man auf eindrucksvolle Zahlen kommen, wenn man die zusätzlichen Kosten auf eine Produktlebensdauer von einer knappen Dekade hochrechet und mit zig Millionen Einheiten multipliziert. Mit der Denke kann man natürlich absolut jede Sparmaßnahme schönrechnen. Interessanter wäre aber vielleicht, um wie viele Promille sich die BOM einer Konsole erhöht, insbesondere wenn man bedenkt, dass es über die Lebensdauer zu Shrinks kommt und eventuell zu einer Umstellung der Produktion auf 450mm Wafer.

Das war auch ein Grund. Aber nicht der Einzige. Stell dich nicht stur. Wir haben hier, wie eingangs beschrieben, 2 Vollzeitentwickler bei großen Konsolenstudios. Wenn du nicht mal denen glaubst, ist eine Diskussion vollkommen sinnfrei.
Seit wann hat man als Code-Knecht bei einem Entwicklungsstudio tieferen Einblick in die Entscheidungsfindung beim Konsolenhersteller? Außerdem:
https://de.wikipedia.org/wiki/Argumentum_ad_verecundiam

Ich bin einfach durch logisches Denken zu der Erkenntnis gekommen, dass VERFÜGBARKEIT der Hauptgrund war, warum zu Jaguar gegriffen wurde. Die Hersteller wollten schlichtweg Entwicklungskosten sparen. Machen wir mal ein kleines Gedankenspiel:

Sony/MS kommen zu AMD und statt Jaguar hätten sie eine Lösung mit 6 Cores und 20W mehr Verbrauch und etwas gößerer Die Size vorgesetzt bekommen. Alles andere ist gleich.

Denkst Du, dass MS/Sony
a) das Ding trotzdem kaufen würden oder
b) abwinken würden und selbst entwickeln oder bei Intel was ohne HSA für teurer einkaufen würden

Ist Szenario a) oder b) Deiner Meinung nach wahrscheinlicher? Meiner Meinung nach ganz klar a), und damit ist Verfügbarkeit ganz klar _der_ ausschlaggebende Grund und nicht einfach nur "auch ein Grund".

Die Alternativen wären entweder das zu nehmen, was verfügbar ist, oder selbst ein paar hundert Millionen auf eine Eigenentwicklung zu verblasen. Die Wahl zwischen wenig Verbrauch und etwas mehr Verbrauch hat sich also in Ermangelung realistischer Alternativen gar nicht erst gestellt. Klingt logisch, oder?

Im PC hingegen hast du Recht. Dort sind IPC starke, hochtaktende wenige CPUs deutlich von Vorteil. In einer Konsole hast du aber eine TDP und Kostenbeschränkung. Also musst du zusehen, wie du da das Maximum raushholst. Das geht dann nur mit unkomplexerer HW, deren Nadelöhre du mit Software umschiffen musst.
Meinst Du, dass CELL jemals in irgend einer Form kostengünstig war, besonders wenn man die Entwicklungskosten miteinbezieht? Von der Transistorzahl her war das Ding fast so schwer wie ein Kentsfield QuadCore... und mit letzterem hätte man vielleicht nicht bis ins Jahr 2013 warten müssen, bis es Spiele mit der visuellen Qualität vom Schlage eines The Last Of Us zu sehen gibt. Hat ja wirklich toll funktioniert, diese unkomplexe Hardware, deren Nadelöhre man mit Software umschiffen muss...

Außerdem hast Du eine recht enge Sicht auf Kosten. Das Konsolenbusiness besteht nicht nur aus Hardware und wenn man ein wenig Kosten bei der Hardware spart, aber dafür auf der Softwareseite des Businesses massiv höhere Entwicklungskosten anfallen, dann ist damit gar nichts gewonnen. Wenn man sich überlegt, wie viele tausend Mannjahre bei den vielen Entwicklern verschwendet wurden, um mit den Unzulänglichkeiten der PS3 fertig zu werden...

Es wird schon seinen Grund haben, warum die Konsolenhersteller von ihrem hohen Insellösungs-Ross runtergekommen sind und jetzt lieber PC-Low/Mid-Range-Komponenten einkaufen.

L233
2013-06-30, 09:08:54
Was ist das für eine dumme Frage?
Kannst du grob quantifizieren, wieviel % die AVX Register einer CPU bringen? Wieviel das Shader Model 5.0 gebracht hat? Oder wieviel der eDRAM der Wii-U gebracht hat?
Das ist keine "dumme Frage". Ich will wissen, auf welcher Faktengrundlage Du die Behauptung aufstellst, dass ein PC mit Lynnfield und GTX760 "klar langsamer" sein sollte als eine PS4.

Dumm sind hier nur Deine komplett aus dem Arsch gezogenen Behauptungen und der Umstand, dass Du sofort aggressiv wirst, wenn man es wagt, da mal nachzuhaken.

Das die GPU bei Physikberechnungen deutlich effizienter und schneller zu Werke geht als die CPU ist nun keine Sensationsnachricht und wenn du die letzten Jahre aktiv bei solchen Entwicklungen mitgelesen und zB. Aussagen mancher Programmierer zu den Vorteilen gelesen hättest, dann hättest du jetzt auch grob eine Ahnung davon, was für große Vorteile es bringen wird.
Ach, und ein PC hat keine GPU?

Physikberechnungen sind übrigens eng umrissene Probleme mit wohldefinierten Algorithmen, die sich, ähnlich wie 3D-Rendering, hervorragend parallelisieren lassen. Dann hörts aber auch schon auf. Anderer Gamecode sollte sich deutlich schwerer in sinnvoller Art und Weise auf die GPU auslagern lassen.

Und das hardwarenahe Programmierung einen großes Performanceplus im Vergleich zur gleichen PC Hardware bringt ist ein alter Hut und seit je her bekannt.
Dass man auf einer geschlossenen Plattform die Ressourcen besser ausnutzen kann, ist klar. Ob das genug ist, den massiven Performance-Unterschied zwischen einem 1.6 GHz Jaguar einem einem 2.93 GHz Lynnfield auszugleichen, ist allerdings mehr als fragwürdig.

Falls du davon noch nichts wusstest: auf nimmer Wiedersehen! K thx bye.
:facepalm: Kindisch...

Bei der PS4 kann man grob von einer GTX680 Leistung ausgehen, was man so ließt. Falls der gemeinsame GDDR5 RAM sowie die >DX11.2 Fähigkeiten viel bringen sogar mehr.
Mit solchen Aussagen lehnst Du Dich sehr weit aus dem Fenster, um es mal höflich zu formulieren. Wo hast Du das denn gelesen? Der Effizienzvorteil der Konsole müsste in diesem Fall nämlich, je nach Spiel und Auflösung, ein 50-100% Mehr an Performance bringen. Eigentlich noch deutlich mehr, wenn Teile der GPU-Rechenleistung für Dinge draufgehen, die beim PC von der CPU berechnet werden...

Und noch ein kleiner Nachtrag:
Kannst Du vielleicht mal konsistent in Deinen Argumenten bleiben? Auf der einen Seite wird gesagt, dass eine leistungfähigere und etwas größere CPU dazu geführt hätte, dass man die GPU hätte verkleiner müssen und dass das total schlimm gewesen wäre. Auf der andere Seite wiederrum argumentierst Du, dass man eben diese fehlende CPU-Leistung dadurch wettmacht, in dem man die gewonnene GPU-Rechenleistung gleich wieder lustig für Aufgaben verbrät, die traditionell von der CPU berechnet werden...

Nightspider
2013-06-30, 09:30:47
Das ist keine "dumme Frage". Ich will wissen, auf welcher Faktengrundlage Du die Behauptung aufstellst, dass eine PC mit Lynnfield und GTX760 "klar langsamer" sein sollte als eine PS4.

Dann frage nicht so blöd nach einer Quantifizierung. Woher ich meine Einschätzung habe, habe ich auch schon mehrfach hier gepostet. Aus Interviews von Spieleentwicklern und diversen Foren bzw. Aussagen von Entwicklern/Programmierern, teilweise auch hier aus dem Forum.
Wenn ich mich nicht irre, hat selbst Leonidas dies mal in einer News formuliert. Wenn nicht, war es irgend eine andere bekannt Website.

Dumm sind hier nur Deine komplett aus dem Arsch gezogenen Behauptungen und der Umstand, dass Du sofort aggressiv wirst, wenn man es wagt, da mal nachzuhaken.

Nur weil du von etwas keine Ahnung hat zieht sich nicht gleich jeder Tatsachen aus dem Arsch, wenn er mehr Durchblick hat als du.

Ach, und ein PC hat keine GPU?

Das es bei dem Beitrag um Crysis 3 ging hast du noch nicht begriffen oder? Die derzeitigen Spiele sind alle durch die Bank weg nicht auf GPGPU ausgelegt.

Nochmal für dich ganz langsam: es kommt erst in der Z U K U N F T.
Also mit PS4 und Xbone.


Dass man auf einer geschlossenen Plattform die Ressourcen besser ausnutzen kann, ist klar. Ob das genug ist, den massive Performance-Unterschied zwischen einem 1.6 GHz Jaguar einem einem 2.93 GHz Lynnfield auszugleichen, ist allerdings mehr als fragwürdig.

Klar ist eine PS4 von der CPU Performance langsamer aber da die CPU bei den Spielen der nächsten Generation eine geringere Rolle spielt, ist das egal und unterm Strich wird die PS4 wahrscheinlich dank starker GPU+Unified Memory+hoher Speicherbandbreite knapp schneller sein. Zudem wurde die PS4 GPU auch leicht mit zusätzlichen Einheiten gepimpt, die auch etwas bringen dürften, wenn die Programmierer die Software darauf anpassen.

Abgesehen davon hat die PS4 eh noch mehr (VRAM) und geht dabei sogar noch effizienter mit dem Speicher um als dies beim PC der Fall ist.


Mit solchen Aussagen lehnst Du Dich sehr weit aus dem Fenster, um es mal höflich zu formulieren. Wo hast Du das denn gelesen? Der Effizienzvorteil der Konsole müsste in diesem Fall nämlich, je nach Spiel und Auflösung, ein 50-100% Mehr an Performance bringen. Eigentlich noch deutlich mehr, wenn Teile der GPU-Rechenleistung für Dinge draufgehen, die beim PC von der CPU berechnet werden...

50% ist schon das äußerste Minimum. Das hättest du mehrmals lesen können, wenn du quer durch die Foren die Einschätzung einiger Leute ließt, die sich auch mit der Materie auskennen.
Unterm Strich ist die Physikleistung der CPU nicht mal so hoch, als das du da viel von der GPU Power abziehen musst.
Wie ich bereits sagte, hat die GPU der PS4 die theoretisch ca. 15 fache Leistung eines Lynnfield. Wenn du dann noch davon ausgehst, das in Dargos Fall maximal 50% der CPU Leistung für Physik drauf gegangen ist, wären das vielleicht 3-5% GPU Last auf der PS4, bei gleichen Physikberechnungen.


:facepalm: Kindisch...

Im Ernst: Wenn du nicht mal weißt, das der Unterschied der hardwarenahen Programmierung so groß (50-100%) sein kann, hast du einiges verschlafen.
Da brauchst du mir nicht unterstellen das ich mir was aus dem Arsch ziehe, wenn du scheinbar selbst zu wenig informiert bist.

Edit:


http://www.3dcenter.org/news/microsoft-stellt-die-xbox-one-fuer-eine-auslieferung-ende-2013-vor
... ...
Nachteilig ist allerdings, daß damit ein für die NextGen-Konsolen nochmals niedrigerer Ansatzpunkt gewählt wurde – auch die Grafiklösung der Sony PS4 ist schließlich kein Überflieger, sondern im PC-Maßstab nur unteres Performance-Segment. Die Spiele-Programmierer werden sich wahrscheinlich – gerade da PS4 und Xbox One Hardware-technisch so ähnlich sind – an der Hardware der Xbox One orientieren, da alles, was dann darauf läuft, auf der PS4 höchstwahrscheinlich genauso gut läuft. Sicherlich stellt es einen Unterschied dar, wenn ein Konsolen-Programmierer sich an der Hardware der Radeon HD 7770 ausrichtet – da kann man dann viel mehr herausholen als auf dem PC, üblicherweise rechnet man grob mit dem Doppelten. Trotzdem ist der Ansatzpunkt reichlich niedrig gewählt, wird auf den NextGen-Konsolen somit wohl kaum ein Spiel erscheinen, was schnelle PC-Hardware irgendwie in Schwierigkeiten bringen könnte.
... ...

Ich werde nicht müde zu betonen, das sowas schon seit je her, seit Jahren(!), immer wiederholt wird. Auch wenn das jetzt noch mehr nach Arschloch klingt, gehe ich immer davon aus, das Leute, die einen auf Experte machen und das nicht wissen keine Ahnung haben.

Viel machen da alleine schon die kurzen Latenzen aus.
Abgesehen davon ist übrigens immer noch nicht abzusehen, ob nicht auch die CPU in irgendwelchen Situationen von der viel höheren Bandbreite profitiert.

MasterElwood
2013-06-30, 09:54:00
Ja, lieber irgend einen abgehobenen Hirnschiss von 4K UHD OLED Multil-Occulus-RIFT 3D-Bodyscan VR basierend auf Cloud Computing und gestackter Memristor-Technologie in 6 Jahren zusammenfantasieren.

Du meinst das klingt unrealistischer als Kinect 2 technik vor 6 Jahren ? :tongue:

L233
2013-06-30, 09:58:38
@Nightspider

Ah, ok. Also doch nur eine Meinung, die Du dir ohne harte Fakten auf Grundlage von auch nicht belegten Schätzungen irgendwelcher vermeintlicher Autoriäten in Web-Foren zusammengeklaubt hast.

Und auf dieser Grundlage stellst Du Dich hier hin und behauptest steif und fest, dass die PS4-GPU effektiv die GPU-Performance einer GTX680 erreichen sollte und bezichtigst jeden, der das in Frage stellt, der Dummheit und der Blödheit.

Sorry, ich nehme Dich nicht mehr weiter ernst.


Viel machen da alleine schon die kurzen Latenzen aus.
Zitat Coda: "Latenz ist für Rendering in aller Regel völlig egal."

Abgesehen davon ist übrigens immer noch nicht abzusehen, ob nicht auch die CPU in irgendwelchen Situationen von der viel höheren Bandbreite profitiert.
Wann war eine halbwegs aktuelle PC-CPU bei Games das letzte mal bandbreitenlimitiert?

L233
2013-06-30, 10:03:18
Du meinst das klingt unrealistischer als Kinect 2 technik vor 6 Jahren ? :tongue:
Dazu kann ich nichts sagen, weil ich nicht weiss, wie der Stand der optischen Bewegungserkennung vor 6 Jahren war. Nur weil's in Games nicht genutzt wurde, bedeutet das ja nicht, dass die Technologie nicht schon in irgend einer Form existiert hätte.

MasterElwood
2013-06-30, 10:07:27
"Spekulation" ist was anderes, als wild irgendwelche angekündigten Technologien zu einer neuen Konsole zusammenzufantasieren. Mein Argument ist schlichtweg, das die im November kommenden Konsolen nichts bieten, was nicht vor 10 Jahren schon grundsätzlich in sehr ähnlicher Form existiert hätte (ganz zu schweigen von vor 7 Jahren, als die letzte Generation released wurde).

Kinect? Kinect 2?

MasterElwood
2013-06-30, 10:09:42
Dazu kann ich nichts sagen, weil ich nicht weiss, wie der Stand der optischen Bewegungserkennung vor 6 Jahren war. Nur weil's in Games nicht genutzt wurde, bedeutet das ja nicht, dass die Technologie nicht schon in irgend einer Form existiert hätte.

Das ist ja nicht die Frage. Die Frage ist: Hatts die Masse gewusst...

Was in irgend einem Labor top secret entwickelt wird zählt nicht. Weil das könnte ja jetzt auch sein und keiner weiss es...

L233
2013-06-30, 10:10:40
Kinect? Kinect 2?
Ja und bei Nintendo gabs den Power Glove und das LaserScope mit Sprachbefehlen und für DDR gabs 'ne Hüpfmatte . Zusammengenommen ergibt das von den Funktionen her ein Primitiv-Kinect.

Naja, und dass ich hier nicht von irgendwelche Input-Gimmicks rede, sollte doch wohl klar sein.

Das ist ja nicht die Frage. Die Frage ist: Hatts die Masse gewusst...

Was in irgend einem Labor top secret entwickelt wird zählt nicht. Weil das könnte ja jetzt auch sein und keiner weiss es...
Keine Ahnung, was Du mir damit sagen willst bzw. was das zur Sache tut.

Nightspider
2013-06-30, 10:11:42
Ah, ok. Also doch nur eine Meinung, die Du dir ohne harte Fakten auf Grundlage von auch nicht belegten Schätzungen irgendwelcher vermeintlicher Autoriäten in Web-Foren zusammengeklaubt hast.

Zusammengeklaut? Sorry aber bei solchen dummschwätzer-Kommentaren brauchst du dich nicht wundern, wenn meine Posts an Dummschwätzer wie dich aggressiver klingen als an normale User.

Muss ein Entwickler, der viel mehr Ahnung als du hat, dir auch alles mit Zahlen nachweisen? ;D
Ich bin Spieler und kenne die genauen optischen Unterschiede sowie Vergleichswerte von FPS. Dafür entwickelt man auch ein Gefühl nach über 10 Jahren als Gamer und Hardwareenthusiast. Und damit beschäftigen tu ich mich auch schon seit 10 Jahren. Zudem bin ich angehender Ingenieur und habe ein gutes Gefühl von Technik und Hardware und verbringe wahrscheinlich viel mehr Zeit in den Technikforen als du.

Davon kannst du scheinbar nur träumen und wenn du selbst DAFÜR einen nachweis brauchst, verzieh dich einfach und hör auf hier so blöd zu trollen.

Dich konnte man hier ja schon ab Seite 1 nicht ernst nehmen. :rolleyes:

Sorry@Mods&Co aber bei so einem Clown reißt einem echt jeder Geduldsfaden.


Zitat Coda: "Latenz ist für Rendering in aller Regel völlig egal."


Wer redet denn nur von Rendering? Du schneidest dir auch gern alle Aussagen so zurecht, wie es dir passt oder?


Wann war eine halbwegs aktuelle PC-CPU bei Games das letzte mal bandbreitenlimitiert?

Deswegen schreibe ich ja auch "nicht abzusehen...OB..." Das schließt ebenfalls ein "vielleicht gar nicht".

Muss ich dir jetzt noch Deutsch beibringen?

dargo
2013-06-30, 10:12:48
Schau dir halt das Video zu The Devision an und vergleiche das mit den Spielen, die im 1. Jahr für PS3 und Xbox360 erschienen sind.
Gerade durch durch die Fähigkeiten von >DX11.2 und dem gemeinsamen Speicherpool könnte der Vorteil durch hardwarenahe Programmierung noch stärker zu Gunsten der PS4 ausfallen.

Eine XBox360 hatte auch gemeinsamen Speicher. Wo ist als der Unterschied zu einer PS4 in dieser Beziehung bis auf die Tatsache, dass der Durchsatz gestiegen ist?

L233
2013-06-30, 10:19:20
Zusammengeklaut? Sorry aber bei solchen dummschwätzer-Kommentaren brauchst du dich nicht wundern, wenn meine Posts an Dummschwätzer wie dich aggressiver klingen als an normale User.
Geklaubt. Lern lesen.

Muss ein Entwickler, der viel mehr Ahnung als du hat, dir auch alles mit Zahlen nachweisen? ;D

Er muss zumindest darlegen, wie er zu dieser Erkenntnis gekommen ist. Sonst:
https://de.wikipedia.org/wiki/Argumentum_ad_verecundiam

Und damit beschäftigen tu ich mich auch schon seit 10 Jahren.
Und ich seit mehr als 20 Jahren (erster PC war ein 486-DX-33, erster Selbstbau ein Pentium 90). Habe ich jetzt automatisch mehr recht als Du?

Dafür entwickelt man auch ein Gefühl nach über 10 Jahren als Gamer und Hardwareenthusiast. Und damit beschäftigen tu ich mich auch schon seit 10 Jahren.

Davon kannst du scheinbar nur träumen und wenn du selbst DAFÜR einen nachweis brauchst, verzieh dich einfach und hör auf hier so blöd zu trollen.

;D Ich kann nicht mehr.... ;D Du bist so lächerlich.

Sorry@Mods&Co aber bei so einem Clown reißt einem echt jeder Geduldsfaden.
Clown? Ich habe in der Vergangenheit bereits für weniger eine Verwarnung bekommen, nur mal so.

Nightspider
2013-06-30, 10:20:41
Und auf dieser Grundlage stellst Du Dich hier hin und behauptest steif und fest, dass die PS4-GPU effektiv die GPU-Performance einer GTX680 erreichen sollte und bezichtigst jeden, der das in Frage stellt, der Dummheit und der Blödheit.

Nein, das tue ich nicht.
Nur wenn du behauptest, das der Unterschied >viel< kleiner ist.

Eine XBox360 hatte auch gemeinsamen Speicher. Wo ist als der Unterschied zu einer PS4 in dieser Beziehung bis auf die Tatsache, dass der Durchsatz gestiegen ist?

Nirgends. Abgesehen davon, das die Xbox360 zu ihrem Release schon zu wenig Speicher für beides (CPU und GPU) hatte. ;)

Mehr dem Vorteil zugunsten der PS4 meinte ich im Vergleich zu früher (PS3 vs PC).


Und ich seit mehr als 20 Jahren (erster PC war ein 486-DX-33, erster Selbstbau ein Pentium 90). Habe ich jetzt automatisch mehr recht als Du?


Wenn dein PC sonst nur rumsteht und du dich in den letzten 20 Jahren nicht extrem viel mit Hardware beschäftigt hast - nein!

Mein Onkel hat auch so ein PC wie du im Keller stehen und hat sicherlich überhaupt keine Ahnung von aktuellen PCs.


Clown? Ich habe in der Vergangenheit bereits für weniger eine Verwarnung bekommen, nur mal so.

Hast du deshalb gelernt, möglichst provokativ zu schreiben, während du dich selbst immer schön unschuldig darstellst und nur rumtrollst?

Dich haben ja auch nicht gerade wenige schon in desem Thread korrigiert, ist dir das noch nicht aufgefallen?

dargo
2013-06-30, 10:21:13
Was ist das für eine dumme Frage?
Kannst du grob quantifizieren, wieviel % die AVX Register einer CPU bringen? Wieviel das Shader Model 5.0 gebracht hat? Oder wieviel der eDRAM der Wii-U gebracht hat?
Das kann niemand quantifizieren weil es individuell vom Szenario abweicht und weil diese, je nach Fall entweder riesige Unterschiede bringen oder sogar gar keinen.

Das könnten dir nichtmal Spieleentwickler sagen, die gerade dabei sind für die PS4 zu programmieren. Klar ist nur das es große Vorteile bringen wird.
Klar ist nur, dass es Vorteile bringen kann. Wie groß die sind kann niemand so wirklich sagen. Rein theoretisch ist bsw. DDR3-2400 bei gleichen Timings auch 80% schneller als DDR3-1333. Was davon mit einer Intel-CPU in der Praxis übrig bleibt wissen wir alle. Es sind erstmal nur nackte Zahlen sonst nichts.

MasterElwood
2013-06-30, 10:25:33
Keine Ahnung, was Du mir damit sagen willst bzw. was das zur Sache tut.

Ich will damit sagen das von der VORSTELLUNG einer neuen Technologie (nicht Entwicklung, sondern der Vorstellung der Öffentlichkeit) bis zur Markteinführung eine Zeit unter 6 Jahren nicht unrealistisch ist.

Also ist es auch möglich, das die next next gen Konsolen Technik an Bord haben werden, die Heute noch praktisch unbekannt ist.

Nightspider
2013-06-30, 10:29:04
Klar ist nur, dass es Vorteile bringen kann. Wie groß die sind kann niemand so wirklich sagen. Rein theoretisch ist bsw. DDR3-2400 bei gleichen Timings auch 80% schneller als DDR3-1333. Was davon mit einer Intel-CPU in der Praxis übrig bleibt wissen wir alle. Es sind erstmal nur nackte Zahlen sonst nichts.

Ja klar aber die CPUs hängen ja auch nicht im entferntesten an der Speicherbandbreite.

dargo
2013-06-30, 10:29:26
Speicherbandbreite:
Lynnfield: ~20GB/s
PS4: ~180GB/s

Rechenleistung:
Lynnfield: ~~120 GFLOPs
PS4-GPU: ~2000 GLFOPs

Cool... jetzt kommen theoretische Zahlen ins Spiel. ;D

PS4-GPU = 1,76TFLOPS
HD7970 @1050Mhz = 4,30TFLOPS
Grafikkarte 2014 = 6,xxTFLOPS???

L233
2013-06-30, 10:34:34
Das kann niemand quantifizieren weil es individuell vom Szenario abweicht und weil diese, je nach Fall entweder riesige Unterschiede bringen oder sogar gar keinen.

Das könnten dir nichtmal Spieleentwickler sagen, die gerade dabei sind für die PS4 zu programmieren.
Da stimme ich Dir sogar vollkommen zu. Und deshalb find ich es auch so lachhaft, dass Du Dich hier hinstellst, und Dir anmaßt, solche Aussagen zu treffen zu könnnen wie:
"Ein PC mit Lynnefield und GTX760 dürfte klar langsamer sein"
und
"Bei der PS4 kann man grob von einer GTX680 Leistung ausgehen"

L233
2013-06-30, 10:35:24
Ich will damit sagen das von der VORSTELLUNG einer neuen Technologie (nicht Entwicklung, sondern der Vorstellung der Öffentlichkeit) bis zur Markteinführung eine Zeit unter 6 Jahren nicht unrealistisch ist.

Also ist es auch möglich, das die next next gen Konsolen Technik an Bord haben werden, die Heute noch praktisch unbekannt ist.
Es geht aber nicht um den Bekanntheitsgrad, sondern um den Reifegrad der Technik.

Nightspider
2013-06-30, 10:35:53
;D Ich kann nicht mehr.... ;D Du bist so lächerlich.

Wenn es deinem Selbstwertgefühl hilft, lach ruhig.

Selbst wenn du von einigen Zahlen und Werten von Hardware Ahnung hast macht dich das noch lange nicht zu einem Experten von dem, was am Ende an Leistung herauskommt.

Spielst du denn Games? Konsole? PC? Hast du überhaupt ein Gefühl eines Vergleichs zwischen PC und Konsolenhardware?

PS4-GPU = 1,76TFLOPS
HD7970 @1050Mhz = 4,30TFLOPS
Grafikkarte 2014 = 6,xxTFLOPS???

Okay es waren keine 2TFLOPs aber es ging mich auch nur um das grobe Verhältnis von CPU zu GPU Power. Zum Lynnfield hatte ich nicht mal auf die Schnelle GLFOP Zahlen gefunden, bzw. viele Verschiedene.

Und um einen PC Vergleich geht es hier ja nicht.

dargo
2013-06-30, 10:40:17
Muss ein Entwickler, der viel mehr Ahnung als du hat, dir auch alles mit Zahlen nachweisen? ;D

Ich bitte darum. Interessant ist nur wieviele fps auf dem Bildschirm kommen und nicht wo was auf dem Wege dorthin wie stark limitiert.

Und es wäre nett wenn du deinen Ton anpassen würdest!

Ja klar aber die CPUs hängen ja auch nicht im entferntesten an der Speicherbandbreite.
Ja moment... ist das jetzt gut oder schlecht im Vergleich zur PS4? :D Oder anders gefragt... was würden einem Haswell sagen wir mal 176GB/s Bandbreite in einer Spieleumgebung genau bringen?

Edit:
Ach übrigens... die Vergleiche mit Lynnfield kannst du dir sparen. Diese CPU ist bereits über 4 Jahre alt wenn die PS4 das Licht der Welt erblickt. Ich habe diese Crysis 3 Szene bei mir mal nachgestellt:
http://www.pcgameshardware.de/Crysis-3-PC-235317/Tests/Crysis-3-CPU-Test-1068140/

Ein i7 Haswell @4Ghz erreicht dort doppelt so hohe Frames (+100%) als mein 3,7Ghz Lynnfield.

L233
2013-06-30, 10:50:34
Selbst wenn du von einigen Zahlen und Werten von Hardware Ahnung hast macht dich das noch lange nicht zu einem Experten von dem, was am Ende an Leistung herauskommt.
Ich habe nie behauptet, ein Experte zu sein. Du musst ja wirklich verzweifelt sein, wenn Du mir jetzt schon irgend welchen Unsinn in den Mund legen musst.

Spielst du denn Games? Konsole? PC? Hast du überhaupt ein Gefühl eines Vergleichs zwischen PC und Konsolenhardware?
Ich spiele Games auf PC und Konsole (und in der Vergangenheit auf Homecomputern) seit mehr 23 Jahren und baue mir seit fast 20 Jahren meine PCs selbst zusammen. Ich lese täglich Hardware-News-Seiten und Artikel. Es ist mein Hobby, in das ich viel Geld und Zeit investiere.

Aber im Gegensatz zu Dir nehme ich nicht für mich in Anspruch, dass meine Argumente deswegen automatisch mehr Gewicht hätten. Ein Argument steht und fällt für sich selbst. Zu erwarten, dass der Diskussionspartner den eigenen Standpunkt akzeptiert, nur weil man meint, mehr Ahnung zu haben, ist kindisch. Das Argument und die Fakten zählen, sonst nichts.

Nightspider
2013-06-30, 10:51:50
Da stimme ich Dir sogar vollkommen zu. Und deshalb find ich es auch so lachhaft, dass Du Dich hier hinstellst, und Dir anmaßt, solche Aussagen zu treffen zu könnnen wie:
"Ein PC mit Lynnefield und GTX760 dürfte klar langsamer sein"
und
"Bei der PS4 kann man grob von einer GTX680 Leistung ausgehen"

Meinungsfreiheit? Schon mal davon gehört? Das ist meine Einschätzung bzw. Prognose.

Schwachsinnig finde ich es nur, wenn du meinst das die Konsolen nicht wenigstens 50% effizienter laufen können.

Ja moment... ist das jetzt gut oder schlecht im Vergleich zur PS4? :D Oder anders gefragt... was würden einem Haswell sagen wir mal 176GB/s Bandbreite in einer Spieleumgebung genau bringen?

Es spielt keine Rolle, wurde schon oft genug gesagt.

L233
2013-06-30, 10:59:23
Ja moment... ist das jetzt gut oder schlecht im Vergleich zur PS4? :D Oder anders gefragt... was würden einem Haswell sagen wir mal 176GB/s Bandbreite in einer Spieleumgebung genau bringen?
Ach, lass es sein. Der dreht und wendet es, wie es gerade passt. Oben schreibt er, dass die zusätzliche Bandbreite der CPU-Leistung zugute kommen könnte, ein paar Postings später heißt es dann (übrigens völlig korrekt), dass die CPU-Leistung heutzutage nicht an der Speicherbandbreite hängt.

An einer Stelle wird behauptet, dass eine leistungsfähigere CPU auf Kosten der GPU-Leistung gehen könnte und dass das ein schlechter Tausch wäre. Irgendwann später wird dann aber überschwänglich davon geredet, was man nicht alles auf die GPU auslagern könnte, um den Leistungsnachteil der CPU wieder wettzumachen.

Dann werden noch GFLOPS und Bandbreiten gegenüber gestellt, wie es gerade passt... ZOMG! 1,8 GPU-TFLOPs vs 0,2 CPU-TFLOPS!111eins

Meinungsfreiheit? Schon mal davon gehört? Das ist meine Einschätzung bzw. Prognose.
Watt willst Du? Man darf Deine Aussagen nicht anzweifeln, weil sie Deine persönliche Meinung sind?

dargo
2013-06-30, 11:01:00
Es spielt keine Rolle, wurde schon oft genug gesagt.
Ja moment... du preist hier doch die Bandbreite der PS4 so hoch an im Vergleich zu der Bandbreite zwischen Arbeitsspeicher und CPU am PC. Jetzt spielt das wieder keine Rolle? Habe ich da was missverstanden?

Nightspider
2013-06-30, 11:01:52
Ich habe nie behauptet, ein Experte zu sein.

Was gibt dir sonst Anlass, allen Anderen nicht zu trauen, die keine Zahlen vorlegen und kompetente Leute, wie Leonidas als unsichere Quellen abzustempeln?

Der Besserwisser-Charakterzug?

IZu erwarten, dass der Diskussionspartner den eigenen Standpunkt akzeptiert, nur weil man meint, mehr Ahnung zu haben, ist kindisch. Das Argument und die Fakten zählen, sonst nichts.

Komisch, das hat sich auf den ersten beiden Seiten bei dir aber noch gaaaaanz anders angehört.

Denn du scheinst ja auf Roadmaps, Prognosen sicherer Produkte nichts zu geben.
Du hast dein Standpunkt ja schon immer vorher wie du selbst geschrieben hast:

Mein Standpunkt ist einfach, dass ich auf irgendwelche Verfügbarkeitsprojektionen bei neuen Technologien nichts gebe...

Nightspider
2013-06-30, 11:09:34
Ja moment... du preist hier doch die Bandbreite der PS4 so hoch an im Vergleich zu der Bandbreite zwischen Arbeitsspeicher und CPU am PC. Jetzt spielt das wieder keine Rolle? Habe ich da was missverstanden?

Dir ist schon aufgefallen, das sich der Vergleich auf die GPU bezog und damit eine hohe Bedeutung für die GPGPU Fähigkeiten des Grafikchips hat?

Es ging um die Leistung zur Berechnung von Physik, was bei der PS4 mit ziemlicher Sicherheit primär die GPU erledigen wird.

Das hat rein gar nichts mit der Bandbreite von der CPU zu tun, wenn diese nicht die nötige Rechenpower für parallele Rechenaufgaben (Physikberechnungen) hat.

Ich empfehle dir die Diskussion, wenn dann im kompletten durchzulesen und fang bitte nicht auch noch an zu trollen, thx.
Hier noch ein Artikel dazu:

http://de.wikipedia.org/wiki/General_Purpose_Computation_on_Graphics_Processing_Unit

dargo
2013-06-30, 11:21:58
Es ging um die Leistung zur Berechnung von Physik, was bei der PS4 mit ziemlicher Sicherheit primär die GPU erledigen wird.

Ja und? Dann fehlen xFLOPS fürs Rendering.


Das hat rein gar nichts mit der Bandbreite von der CPU zu tun, wenn diese nicht die nötige Rechenpower für parallele Rechenaufgaben (Physikberechnungen) hat.

Wer sagt das?

Nightspider
2013-06-30, 11:29:40
Ja und? Dann fehlen xFLOPS fürs Rendering.


Nö wieso? Man hat doch gerade für GPGPU mehr Wert auf die GPU als auf die CPU gelegt. Deswegen ist das Leistungsverhältnis zwischen CPU und GPU von der letzten Generation zur neuen auch viel stärker zu Gunsten der GPU ausgefallen.
Das wurde jetzt in diesem Thread bestimmte schon 5 mal erwähnt.


Wer sagt das?

Je mehr parallele Berechnungen ausgeführt werden sollen, desto mehr Bandbreite benötigt man. Schafft die CPU nur einen kleinen Teil von den Physikberechnungen, die eine GPU schaffen würde, benötigt die CPU natürlich auch nur einen Bruchteil der Bandbreite der GPU.

Oder anders: Die Bandbreite von Haswell ist schnell genug für die Berechnungen, die Haswell ausführen kann.
Die Bandbreite von Haswell (ohne eDRAM) ist aber selbst zu klein für die IGP.
Denn bei Physikberechnungen würde die IGP wohl auch am Bandbreitenlimit hängen, wie beim Rendering.

dargo
2013-06-30, 11:42:34
Nö wieso? Man hat doch gerade für GPGPU mehr Wert auf die GPU als auf die CPU gelegt. Deswegen ist das Leistungsverhältnis zwischen CPU und GPU von der letzten Generation zur neuen auch viel stärker zu Gunsten der GPU ausgefallen.
Das wurde jetzt in diesem Thread bestimmte schon 5 mal erwähnt.

Achso... dann ist also die Leistung der PS4-GPU unendlich. ;D Sorry, aber du bist mir zu sehr PS4-biased momentan. :)

L233
2013-06-30, 11:44:43
Was gibt dir sonst Anlass, allen Anderen nicht zu trauen, die keine Zahlen vorlegen und kompetente Leute, wie Leonidas als unsichere Quellen abzustempeln?
Nein, ich nehme nur keine Pauschal-Aussagen in Foren oder in Blogs für bare Münze, völlig egal, wer sie trifft. Selbst der angesehenste Professor muss seine Thesen mit Argumenten und Fakten unterfüttern. Mit Vertrauen hat das nichts zu tun, das ist einfach nur ein Grundanspruch.

Es kommt auch auf die Art der Behauptung an. Wenn ein Entwickler, desses täglich Brot die Grafikprogrammierung ist, sagt, dass Latenzen beim 3D-Rendering kaum eine Rolle spielen, dann bin ich geneigt, ihn beim Wort zu nehmen.

Wenn er allerdings eine Einschätzung gibt, wie es sich bei mit Performance von zwei unterschiedlichen Hardwarearchitekturen mit teils massiv unterschiedlichen Spezifikationen und Parametern verhält, dann möchte ich wissen, WORAUF diese Einschätzungen basieren. Einfach nur "Entwickler sein" ist dafür nämlich nicht Nachweis genug.

Denn du scheinst ja auf Roadmaps, Prognosen sicherer Produkte nichts zu geben.
Du hast dein Standpunkt ja schon immer vorher wie du selbst geschrieben hast:
Roadmaps im High-Tech-Bereich überleben selten ihren eigenen Planungshorizont und sagen im übrigen nichts darüber aus, ob das Produkt letztendlich auch am Markt bestehen kann bzw. überhaupt dazu geeignet ist, in bestimmten Produktklassen zur Anwendung zu kommen.

Wenn der Hybrid Memory Cube bereits heute als neues Produkt im Nischen-Bereich existieren würde und wir konkrete Fahrpläne für Process Shrinks hätten und massemarkttaugliche Preise bereits absehbar wären, dann könnte man durchaus darauf spekulieren, dass diese Technologie in dem Nachfolger der PS4 zum Einsatz kommen könnte.

Aber das Ding existiert zur Zeit nur als Laborprototyp und als Papierspezifikation mit noch offen Fragen bzgl. der Massenfertigung und damit der Kosten der Fertigung.

Zudem sehen die aktuellen Fahrpläne vor, dass Ende 2014 erst einmal DDR4 und Ende 2015 GDDR6 als Speichertechnologien eingeführt werden. Damit hatten die beiden Vorgängertechnologien eine je Lebensdauer von 7 Jahren, was sicherlich auch als Anhaltspunkt für DDR4/GDDR6 dienen kann, weil die Halbleiterindustrie nicht von Heute auf Morgen mal kurz ihre gesamte Investitions- und Produktplanung auf den Kopf stellen wird.

Deshalb halte ich eine Implementation von HMC in der nächsten Konsolengeneration in ca. 7 Jahren für eher unwahrscheinlich.

Zufrieden?

dilated
2013-06-30, 11:46:57
ich erwarte keine wunder von den neuen Konsolen

fullhd und ordentliche fps (selbst daran zweifle ich)

Nightspider
2013-06-30, 11:53:08
Achso... dann ist also die Leistung der PS4-GPU unendlich. ;D Sorry, aber du bist mir zu sehr PS4-biased momentan. :)
Wieso? :|
Du ziehst die Leistung, die für Physikberechnungen benötigt werden, von der Renderleistung ab. Fertig.
Die GPU schafft, wenn man nach den GLOP Zahlen geht, spielend die Physik mitzuberechnen und keine großen Einbußen im Rendering hinnehmen zu müssen. Das könnten im Falle von Crysis 3 vielleicht nur 5-10% der GPU Leistung sein, die benötigt werden.

Wie effizient es am Ende wirklich wird, muss man erst sehen. Das kann man, wie bereits auch mehrfach gesagt, jetzt einfach noch nicht absehen.
Die GFLOP Zahlen zwischen CPU und GPU geben jedenfalls einen Anhaltspunkt.

dargo
2013-06-30, 11:59:55
Wie effizient es am Ende wirklich wird, muss man erst sehen. Das kann man, wie bereits auch mehrfach gesagt, jetzt einfach noch nicht absehen.

Aha... dann würde ich vorschlagen einfach Games von 2014/2015 abzuwarten bevor du wieder mit wilden Zahlen rumhantierst.

Nightspider
2013-06-30, 12:05:03
So wild finde ich GLOP Zahlen jetzt nicht.
Und die GPUs in diversen Supercomputern werden bestimmt auch nicht verbaut, weil sie die Ergebnisse mit hundertfachem Antialiaising ausgeben sollen. ;)

Was man mit GPU Beschleinigung machen kann sieht man ja auch schön bei iOS oder als die Grafikkarten fähig waren Videos in 1080p ruckelfrei zu encodieren, wo man sonst 3Ghz CPUs dafür benötigt hätte.

Das GPUs jetzt deutlich mehr Rechenpower als CPUs haben ist keine Hexerei, sondern eine Tatsache. ;)

L233
2013-06-30, 12:12:36
Und die GPUs in diversen Supercomputern werden bestimmt auch nicht verbaut, weil sie die Ergebnisse mit hundertfachem Antialiaising ausgeben sollen. ;)
Inwiefern die Fähigkeit zum stark parallelisierten Number-Crunching außerhalb von 3D-Rendering und Physik in Games überhaupt eine Rolle spielen wird, bleibt abzuwarten.

Das GPUs jetzt deutlich mehr Rechenpower als CPUs haben ist keine Hexerei, sondern eine Tatsache. ;)
Das kann man so pauschal nicht sagen. Bei hochgradig parallelisierbaren Aufgaben mag das zutreffen, aber sobald das nicht gegeben ist, rennt jede moderne CPU Kreise um jedes GPGPU-Rig - vermute ich einfach mal. Sonst hätten wir schon vor Jahren die CPUs durch GPUs ersetzt....

robbitop
2013-06-30, 12:23:12
Also wenn man sich anschaut, was sogar mit der winzigen Rechenleistung der ersten Ageia Karten möglich war, sollte schon mit einem kleinen Teil der Rechenleistung der GPU recht Sehenswertes schaffen. Das kostet natürlich ein wenig Rechenleistung, die nicht mehr für das Rendering verwendet werden kann. Die Frage, die sich stellt, ist, ob die Effekte gewonnen aus der schöneren Physik es nicht vieleicht wert sind?

Ich erwarte, selbst bei den 1st Party Exclusives, keine ernsthafte Ausnutzung von HSA bis frühestens zu ihrem 2. Titel für die PS4/Xbone.

Man schaue, wie sich die Spielegrafik in der Current Gen entwickelt hat. Erst 3-4 Jahre nach dem Launch der Current Gen, kamen Spiele auf den grafischen Höhepunkt. Wenn man dabei die PS3 und the last of us inkludiert - sogar noch viel später. Wobei es für Nextgen nicht mehr so schwer sein wird, alles herauszuholen. Allerdings vermute ich, dass eine volle Ausnutzung der Möglichkeiten, die HSA bietet, auch nicht so einfach sein wird.

Ersteinmal wird alles etwas schicker als auf der current gen.

L233
2013-06-30, 12:47:02
Also wenn man sich anschaut, was sogar mit der winzigen Rechenleistung der ersten Ageia Karten möglich war, sollte schon mit einem kleinen Teil der Rechenleistung der GPU recht Sehenswertes schaffen. Das kostet natürlich ein wenig Rechenleistung, die nicht mehr für das Rendering verwendet werden kann. Die Frage, die sich stellt, ist, ob die Effekte gewonnen aus der schöneren Physik es nicht vieleicht wert sind?
Also wenn PhysX als Anhaltspunkt gelten darf, dann frisst aufwändige Physik (z.B. Borderlands 2 auf "high") selbst auf High-End-Karten ordentlich Leistung und den visuellen Effekt finde ich dann doch eher subtil...

Wie das aussehen würde, wenn man wirklich umfangreich Physik in einer Szene modelliert (also nicht nur Partikelfeuerwerk und Cloth Simulation), wäre sicherlich interessant zu erfahren... ebenso, ob die Xbone/PS4-GPUs leistungstechnisch dazu in der Lage wären.

Generell stellt sich doch die Frage, ob man bei sowas wie der Xbone überhaupt noch großartig etwas von der GPU-Rechenpower abzwacken möchte. Im Multiplattform-Zeitalter bedeutet das dann schlimmstenfalls, dass GPGPU-Nutzung bei den meisten Games eine sehr untergeordnete Rolle spielen könnte.

Und wie es mit anderen Aufgaben bei GPGPU aussieht, ist ja noch komplett offen. Nvidia hat zwar einige Demos für AI-Routinen gezeigt, aber der Sinn hat sich AFAIK noch niemandem erschlossen. Mal abgesehen davon, dass sich bei AI sicherlich vieles nicht sinnvoll parallelisieren lässt, sollte sich sowas zudem leichter auf zusätzliche CPU-Cores auslagern lassen, die meist eh nur Däumchen drehen... bevor man da nun anfängt, neben Rendering und Physik nun auch noch AI-Routinen auf der GPU zu loadbalancen.

Ich erwarte, selbst bei den 1st Party Exclusives, keine ernsthafte Ausnutzung von HSA bis frühestens zu ihrem 2. Titel für die PS4/Xbone.

Hieß es nicht vor kurzem, dass momentan die PS4-APIs HSA noch nicht "können"?

dargo
2013-06-30, 12:53:52
Man schaue, wie sich die Spielegrafik in der Current Gen entwickelt hat. Erst 3-4 Jahre nach dem Launch der Current Gen, kamen Spiele auf den grafischen Höhepunkt. Wenn man dabei die PS3 und the last of us inkludiert - sogar noch viel später.
Ich frage mich ernsthaft jedes mal was die Leute in the last of us sehen?
http://www.youtube.com/watch?v=lfL-Xvzs8yU

Technisch ist das unterer Durchschnitt. Das Spiel lebt nur vom Content. Wobei man hier von einem Spiel gar nicht mehr sprechen kann. Es ist ein interaktiver Film. Von den 17 Minuten bewegt man den Controller wohl geschätzt eine Minute? :ulol: Und das Gameplay ist ja besonders anspruchsvoll. ;D Da schiebe ich lieber einen Bluray-Film in Bombastgrafik in den Player. ;)

Coda
2013-06-30, 12:57:03
Der Anfang von Last of Us hat aber auch echt schlechte Assets. Da musste man wohl fertig werden. Wird später besser.

L233
2013-06-30, 13:12:44
Ich frage mich ernsthaft jedes mal was die Leute in the last of us sehen?
http://www.youtube.com/watch?v=lfL-Xvzs8yU

Technisch ist das unterer Durchschnitt. Das Spiel lebt nur vom Content. Wobei man hier von einem Spiel gar nicht mehr sprechen kann. Es ist ein interaktiver Film. Von den 17 Minuten bewegt man den Controller wohl geschätzt eine Minute? :ulol: Und das Gameplay ist ja besonders anspruchsvoll. ;D Da schiebe ich lieber einen Bluray-Film in Bombastgrafik in den Player. ;)
Naja, ich spiele das Ding gerade und bin eigentlich in erster Linie PC-Gamer und dem Konsolenbashing bin ich auch nicht unbedingt abgeneigt ;). Mich stören einige Sachen enorm:
- klaustrophobisches FOV auf meinem 55" TV
- <=30 FPS kotzen mich bei jedem Kameraschwenk an (bin da wegen Motion Sickness sensibel)
- teilweise matschen die Texturen schon 2 Meter vor Joel
- Flimmer flimmer flimmer

Also quasi der Kram, von dem Konsoleros gerne behaupten, dass man ihn auf dem großen TV eh nicht sieht. Ja, ne, is klar... *hust*BULLSHIT*hust*.

Aber das Spiel sieht im großen und ganzen fantastisch aus. Dank geschlossener Plattform und Korridor-Design konnten die Entwickler die Artwork-Assets optimal einsetzen, um den bestmöglichen visuellen Effekt zu erreichen. Das mag an einigen Stellen weniger gut funktionieren als an anderen, aber das Gesamtbild ist verdammt stark. Hier wurden Artwork und Technik sehr gut aufeinander abgestimmt, die Animationen tun das übrige.

Spielerisch ist die erste halbe Stunde sehr cutscene-lastig, aber das Verhältnis verschiebt sich doch sehr schnell. Es ist kein interaktiver Film, sondern ein schlauchiges Survival-Horror-Action-Adventure mit viel Schleicherei und überraschend runder Spielmechanik.

del_4901
2013-06-30, 13:19:52
Ja und? Dann fehlen xFLOPS fürs Rendering.
Rendering hat eh nicht immer volle occupancy.

L233
2013-06-30, 13:27:35
Rendering hat eh nicht immer volle occupancy.
Besteht der Zustand dauerhaft genug, dass es sinnvoll wäre x FLOPS permanent für GPGPU-Tasks vorzuhalten, oder alternativ, wie aufwändig/kompliziert gestaltet sich das Load Balancing? Werden in der Praxis bereits andere Berechnungen außer Physik auf die GPU ausgelagert?

del_4901
2013-06-30, 14:40:22
Besteht der Zustand dauerhaft genug, dass es sinnvoll wäre x FLOPS permanent für GPGPU-Tasks vorzuhalten, oder alternativ, wie aufwändig/kompliziert gestaltet sich das Load Balancing? Werden in der Praxis bereits andere Berechnungen außer Physik auf die GPU ausgelagert?
In der Praxis steht das Ding da, und Alle sind auf einmal wieder blutige Anfaenger.

McDaniel-77
2013-06-30, 14:46:56
An die Träumer!

Träumt weiter, die neue PS4 oder die XB1 sind kaum besser als ihre Vorgänger, obwohl knapp ein Jahrzehnt dazwischenliegt. Die Spiele ruckeln auf der PS41. Die Wii U schafft "nur" 720p mit 60 fps, ich glaube jedenfalls nicht, dass Mario Kart 8 in FullHD läuft, dazu sieht es zu gut aus.
Die nächste Generation wird wie die letzte und vorletzte werden. Wäre Nintendo mit dem DS nicht gewesen, kein Touchscreen! Wäre Nintendo mit der Wii nicht gewesen, keine Motion-Control! Ohne 3DS kein 3D. Technisch weiter entwickelt hat sich seit Crysis 2007 nichts mehr.

Dirt II setzte 2009 ein Zeichen. Technisch wird sich nicht viel tun. Höhere Auflösungen bringen kein besseres Spielerlebnis, die Spielewelten sind nicht mal annähernd realistisch. Das stört mich vor allem bei Spielen, welch auf realistische Optik wertlegen. Schwachsinnige Physik bzw. keine, statische Spielewelt, dumme KI, Copy & Paste Models usw.

BF4 hat mich richtig enttäuscht, so einen sinnfreien und unlogischen Spielablauf und Levelaufbau hat man lange nicht gesehen. Far Cry 3 fand ich sehr gut, endlich wieder ein Spiel auf Crysis Niveau.

Es wird einfach zu kompliziert und zu teuer realistische virtuelle Welten aufzubauen. Spiele wie Watch Dogs werden als spielbarer Film designt, das ist nicht schlecht. Technologie alleine macht jedenfalls keinen Spielspaß.

Ich erwarte einfach, dass Spiele flüssig laufen und nicht abruckeln. Um in FullHD 60 fps bei fetter Grafik zu erzeugen, braucht man einfach einen starken PC. Konsolen mit integriertem Grafikprozessor und lahmer CPU schaffen das nicht. Daher sollten die Hersteller lieber mehr in Exklusivtitel investieren, damit die jeweilige Hardware auch optimal fürs Spiel ausgenutzt werden kann. Multiplattform macht den Markt kaputt und blockiert Innovationen und den technischen Fortschritt.

MfG

McDaniel-77

Iruwen
2013-06-30, 15:21:54
BF4 hat mich richtig enttäuscht, so einen sinnfreien und unlogischen Spielablauf und Levelaufbau hat man lange nicht gesehen.
Du hast BF4?

just4FunTA
2013-06-30, 15:38:30
Naja, ich spiele das Ding gerade und bin eigentlich in erster Linie PC-Gamer und dem Konsolenbashing bin ich auch nicht unbedingt abgeneigt ;). Mich stören einige Sachen enorm:
- klaustrophobisches FOV auf meinem 55" TV
- <=30 FPS kotzen mich bei jedem Kameraschwenk an (bin da wegen Motion Sickness sensibel)
- teilweise matschen die Texturen schon 2 Meter vor Joel
- Flimmer flimmer flimmer

Also quasi der Kram, von dem Konsoleros gerne behaupten, dass man ihn auf dem großen TV eh nicht sieht. Ja, ne, is klar... *hust*BULLSHIT*hust*.



Kaschiert wird an der Konsole + TV eigentlich nur fehlendes AA durch die im Normallfall weitere Entfernung zum TV als zum Computermonitor am FOV kann die Entfernung logischerweise nichts kaschieren..

Wie weit sitzt du den weg vom TV?

@McDaniel-77

Die WiiU wird technisch zur Lastgen gezählt, die bringt ja ähnlich viel Power wie die x360 und PS3.

Duplex
2013-06-30, 15:38:38
Die nächsten Konsolen werden bestimmt in 16nm gefertigt, beim GPU Part kann man mehr als doppelte GPU Performance als "PS4" ausgehen, DDR4 4000MHz gibt es dann auch schon. Beim CPU Part wird man bestimmt wieder auf 8 Kerne setzen, 16nm ist dann die 4. Generation (40 > 28 > 20 > 16), ich rechne mit 30% mehr IPC als Jaguar bei der Next Generation Konsole "PS5", davor wird erstmal der Jaguar Nachfolger in 20nm 15% drauflegen.

L233
2013-06-30, 15:45:21
Kaschiert wird an der Konsole + TV eigentlich nur fehlendes AA durch die im Normallfall weitere Entfernung zum TV als zum Computermonitor am FOV kann die Entfernung logischerweise nichts kaschieren..

Wie weit sitzt du den weg vom TV?
Ca. 2,2m von 55-Zoller entfernt.

RLZ
2013-06-30, 18:14:20
am FOV kann die Entfernung logischerweise nichts kaschieren..
:uconf2:

just4FunTA
2013-06-30, 18:24:18
:uconf2:

Der fov wert im Spiel ist ja fest also zB 70 wenn du dich weiter weg setzt bleibt der wert ja trotzdem bei 70 du siehst ja nur mehr von der Umgebung um deinen TV rum.


@l233

Das ist ja doch noch relativ nah für ein 55"TV da siehst du natürlich alle Feinheiten. Wer natürlich weit weg im Sofa hockt übersieht leicht den einen oder anderen Makel.

RLZ
2013-06-30, 18:28:10
Der fov wert im Spiel ist ja fest also zB 70 wenn du dich weiter weg setzt bleibt der wert ja trotzdem bei 70 du siehst ja nur mehr von der Umgebung um deinen TV rum.
Achso.
Dachte das sollte Kritik am dem niedrigeren FOV auf den Konsolen sein.
Würde man den FOV noch abstandsbezogen korrekt ändern (wäre ja mit Kinect prinzipiell möglich), würden wohl viele mit großem Sitzabstand anfangen zu weinen. :biggrin:

mboeller
2013-06-30, 19:37:26
Wieso? :|
Du ziehst die Leistung, die für Physikberechnungen benötigt werden, von der Renderleistung ab. Fertig.
Die GPU schafft, wenn man nach den GLOP Zahlen geht, spielend die Physik mitzuberechnen und keine großen Einbußen im Rendering hinnehmen zu müssen. Das könnten im Falle von Crysis 3 vielleicht nur 5-10% der GPU Leistung sein, die benötigt werden.


Nö, es sollten imho (theoretisch) min. 12,5% sein da die PS4 GPU 8 ACE hat. Bei einer HD7970 sollten es aber min. 50% sein, da sie nur 2 ACE hat (soweit ich weiß).

Wie die 8 ACE aber mit den 18 CUs zusammenspielen und ob es dadurch nicht noch einen zusätzlichen Verschnitt gibt....keine Ahnung. Gipsel? Coda?

+ irgendwie vergesst ihr alle, das die Jaguar in der XBone und der PS4 auch noch ca. 100 GFlops FP-Leistung haben. Das sollte man nicht verachten.

Gipsel
2013-06-30, 21:37:30
Nö, es sollten imho (theoretisch) min. 12,5% sein da die PS4 GPU 8 ACE hat. Bei einer HD7970 sollten es aber min. 50% sein, da sie nur 2 ACE hat (soweit ich weiß).

Wie die 8 ACE aber mit den 18 CUs zusammenspielen und ob es dadurch nicht noch einen zusätzlichen Verschnitt gibt....keine Ahnung. Gipsel? Coda?Das funktioniert nicht so, wie Du denkst. Eine ACE klaut sich nicht immer ein Achtel der Rechenleistung oder bei den diskreten GCN-GPUs (die bisherigen haben 2 ACEs) gar die Hälfte. Das läuft deutlich dynamischer. Wenn man einen Compute-Job absetzt, der nur 5% der zur Verfügung stehenden Rechenleistung benötigt, dann besteht keine Notwendigkeit, mehr als 5% in Beschlag zu nehmen. Im Prinzip können Compute-Jobs mit Render-Jobs friedlich koexistieren. Und wenn gerade ein Drawcall läuft, der nur ein paar tausend Pixel rendert, kann der die 18CUs gar nicht voll auslasten, da liegt also notgedrungen Rechenleistung brach, die man abzweigen kann, ohne daß das Rendering leidet.
Genauso gut kann aber auch ein einziger Job aus einer einzigen der insgesamt 64 Queues in den 8 ACEs die komplette GPU in Beschlag nehmen, wenn gerade nichts Anderes zu tun ist (und der Dev keine Einschränkungen auf ein gewisses Maximum vorgenommen hat, was vermutlich auf der PS4 geht). Aber wie AlphaTier schon ganz treffend anmerkte, grau ist alle Theorie. Die Devs müssen sich erstmal mit den Möglichkeiten vertraut machen soweit sie überhaupt schon zugänglich sind (irgendwo wurde ja mal gesagt, daß z.B. die HSA-Features der PS4 softwaremäßig noch gar nicht komplett unterstützt werden, k.A. wie es bei der XB1 aussieht).

Rancor
2013-06-30, 23:01:15
Ich frage mich ernsthaft jedes mal was die Leute in the last of us sehen?
http://www.youtube.com/watch?v=lfL-Xvzs8yU

Technisch ist das unterer Durchschnitt. Das Spiel lebt nur vom Content. Wobei man hier von einem Spiel gar nicht mehr sprechen kann. Es ist ein interaktiver Film. Von den 17 Minuten bewegt man den Controller wohl geschätzt eine Minute? :ulol: Und das Gameplay ist ja besonders anspruchsvoll. ;D Da schiebe ich lieber einen Bluray-Film in Bombastgrafik in den Player. ;)

Man merkt das du das Spiel nicht gespielt hast. Es ist in keinster Weise ein interaktiver Film... lediglich der Anfang, das Intro ist so..

Iruwen
2013-06-30, 23:45:58
Anspruchsvoll oder innovativ ist es trotzdem nicht. Aber der Spielethread ist um die Ecke.

mboeller
2013-07-01, 08:44:31
Das funktioniert nicht so, wie Du denkst. Eine ACE klaut sich nicht immer ein Achtel der Rechenleistung oder bei den diskreten GCN-GPUs (die bisherigen haben 2 ACEs) gar die Hälfte. Das läuft deutlich dynamischer. Wenn man einen Compute-Job absetzt, der nur 5% der zur Verfügung stehenden Rechenleistung benötigt, dann besteht keine Notwendigkeit, mehr als 5% in Beschlag zu nehmen. Im Prinzip können Compute-Jobs mit Render-Jobs friedlich koexistieren. Und wenn gerade ein Drawcall läuft, der nur ein paar tausend Pixel rendert, kann der die 18CUs gar nicht voll auslasten, da liegt also notgedrungen Rechenleistung brach, die man abzweigen kann, ohne daß das Rendering leidet.
Genauso gut kann aber auch ein einziger Job aus einer einzigen der insgesamt 64 Queues in den 8 ACEs die komplette GPU in Beschlag nehmen, wenn gerade nichts Anderes zu tun ist (und der Dev keine Einschränkungen auf ein gewisses Maximum vorgenommen hat, was vermutlich auf der PS4 geht). Aber wie AlphaTier schon ganz treffend anmerkte, grau ist alle Theorie. Die Devs müssen sich erstmal mit den Möglichkeiten vertraut machen soweit sie überhaupt schon zugänglich sind (irgendwo wurde ja mal gesagt, daß z.B. die HSA-Features der PS4 softwaremäßig noch gar nicht komplett unterstützt werden, k.A. wie es bei der XB1 aussieht).

Ah, Danke!

Ich dachte das System ist wesentlich starrer.

tobor
2013-07-02, 09:35:27
Um mal wieder zurück zum Thema zu kommen: Was für eine Leistung(Teraflop/zukünftige Architekturen sind ja nicht vorhersehbar) werden Mittelklasse Gpus in circa 5 Jahren haben? Wenn Nvidia davon ausgeht, eine 20 Teraflop Dual-Precision Karte im Jahr 2018 bauen zu können(natürlich für High Performance Computing), dürften 12 Teraflop Single Presision kein allzu hoch gestecktes Ziel sein,oder? Könnte Double Precison eigentlich je relevant für Spiele werden?

Nightspider
2013-07-02, 09:52:48
In 5 Jahren?
Mit Glück sind bis dahin 3 Shrinks durch(wohl eher nicht). 20nm kommen in ein paar Monaten, mit etwas Glück sind 2 weitere Shrinks in 4 Jahren durch. Wird aber knapp. Innerhalb von 6 Jahren wären aber sicherlich 3 Shrinks durch.

Das heißt es ist maximal die 6 8fache Leistung wie heute drin.
Aber auch nur wenn die neuen Architekturen den kleineren Gewinn durch neue Fertigungsprozesse komplett auffangen können und jede Generation die doppelte Leistung bieten wird.

Im Moment sieht es danah aus, als würde der Strombedarf pro Leistungsklasse mittelfristig weiter steigen.
Das würde bedeuten, das eine PS5 mit gleichem Strombedarf wie bei der PS4 noch kleinere Chips verbaut hätte, weil die Transistordichte viel höher wäre als heute aber der Strombedarf pro Fläche damit auch zugenommen hätte.

Schon mit 20nm werden wir wohl erst mal mehr Strom pro Fläche verheizen, da die Effizienz nur 20% besser wird (*laut TSMC).
Nvidia hat zwar einen großen Sprung in der Effizienz angekündigt aber ob man damit auf annähernd 100% bessere Effizienz im Vergleich zur aktuellen Generation kommt, lässt sich bezweifeln.

Ich hoffe nur das AMD bei GPUs nicht das gleiche Schicksal erleidet, wie bei den CPUs.
Denn schond ie HD7000-Serie braucht mehr Strom als die Nvidias Kepler-Serie bei gleicher Leistung.
Nicht das es in 5 Jahren so aussieht wie heute zwischen Intel und AMD bei den CPUs, das AMD deutlich bei der Effizienz hinterher hinkt, was bei Konsolen eben auch nicht unbedeutend ist.
(Dies könnte ein weiterer Faktor für einen NOCH kleineren Leistungssprung von PS4 zu PS5 sein.)

robbitop
2013-07-02, 09:54:30
In 5 Jahren werden ca. 2-3 Shrinks kommen. Mit jedem Shrink geht eine Verdopplung der Rechenleistung einher. Wir sollten also bei 16-32 TFLOPs/s dann liegen.


Das heißt es ist maximal die 6fache Leistung wie heute drin.
Wieso 6 fache? 2^3 = 8. ;)

Akkarin
2013-07-02, 12:30:58
Ich hoffe nur das AMD bei GPUs nicht das gleiche Schicksal erleidet, wie bei den CPUs.
Denn schond ie HD7000-Serie braucht mehr Strom als die Nvidias Kepler-Serie bei gleicher Leistung.
Nicht das es in 5 Jahren so aussieht wie heute zwischen Intel und AMD bei den CPUs, das AMD deutlich bei der Effizienz hinterher hinkt, was bei Konsolen eben auch nicht unbedeutend ist.

Pitcairn gegen GK106 sieht doch ziemlich gut aus. Das Tahiti strom frisst würde ich nicht unbedingt auf architektur inhärente probleme schieben.

robbitop
2013-07-02, 23:30:12
Tabiti frisst IMO so viel Strom, weil er hoch takten muss, um konkurrenzfähig zu sein. Etliche Flaschenhälse bremsen den Chip, so dass er hohe Taktraten braucht.

Hohe Taktraten erfordern ab einem gewissen Punkt unverschämt hohe Spannung und damit unverschämt viel Leistungsaufnahme.

GK110 macht vieles richtg. Breites Design mit kaum Flaschenhälsen. Das kann mit einem Basistakt von gemächlichen 8xx MHz laufen und temperaturabhängig mal hochboosten.

IMO ist selbst bei 28 nm für AMD noch Luft. Gute > 100 sqmm sind noch an Reserve vorhanden. Genug um Flaschenhälse zu beseitigen und den Chip breiter zu machen. Dann kann man mit etw niedrigerem Takt ggf. die Perf/W sicher deutlich steigern.

Pitcairn ist da ausgewogener und zeigt, wie gut GCN in Punkto perf/W dastehen kann.

Tesseract
2013-07-03, 01:06:10
Könnte Double Precison eigentlich je relevant für Spiele werden?
davon würde ich nicht ausgehen. zumindest nicht in absehbarer zeit.

Knuddelbearli
2013-07-03, 04:29:43
naja amd übertriebt aber ebenso wie bei den cpus auch bei den gpus mit den Spannungen, bei der ghz vor allem bei der Turbospannung

Nightspider
2013-07-03, 07:17:15
Wieso 6 fache? 2^3 = 8. ;)

Oh, natürlich. Wie bin ich auf 6 gekommen? Vielleicht wegen 6 Jahre. Ich war wohl noch nicht ganz wach gestern morgen.:usad:

Deinorius
2013-07-03, 15:31:35
davon würde ich nicht ausgehen. zumindest nicht in absehbarer zeit.


Wofür könnten Spiele jemals DP brauchen?

M4xw0lf
2013-07-03, 16:29:14
Wäre z-fighting nicht so ein Fall, den man mit höherer Präzision bekämpfen könnte?

fondness
2013-07-03, 16:33:45
Tabiti frisst IMO so viel Strom, weil er hoch takten muss, um konkurrenzfähig zu sein. Etliche Flaschenhälse bremsen den Chip, so dass er hohe Taktraten braucht.

Tahiti benötigt fast die doppelte Transistorenanzahl von Pitcain. Es zeigt sich wie teuer die HPC-Features sind, deshalb auch der hohe Stromverbauch. Tahiti taktet nicht wirklich höher als andere AMD GPUs.

Es zeigt sich aber auch das bei einem Apple-to-Apple Vergleich CGN kaum mehr Strom schluckt als die Kepler Architektur und dabei sogar mit weniger Die-Fläche auskommt. Allerdings skaliert die Architektur immer schlechter je breiter die Chips werden.


IMO ist selbst bei 28 nm für AMD noch Luft. Gute > 100 sqmm sind noch an Reserve vorhanden. Genug um Flaschenhälse zu beseitigen und den Chip breiter zu machen. Dann kann man mit etw niedrigerem Takt ggf. die Perf/W sicher deutlich steigern.


Tahiti hat 365mm², GK110 550mm², da wäre also noch genug Luft. Die Frage ist ob, und inwieweit man diese ausnutzen will.

Knuddelbearli
2013-07-03, 17:33:15
naja auch die 7870 ghz braucht deutlich mehr Leistung als die normale 7870. GCN bzw 28nm scheint da schon recht nahe an der kotzgrenze zu sein

Gipsel
2013-07-03, 17:35:37
naja auch die 7870 ghz braucht deutlich mehr Leistung als die normale 7870.:|
Die 7870 GHz Edition ist die normale 7870.
Oder verwechselst Du das mit Tahiti LE, auch vermarktet als 7870 Boost Edition?

Knuddelbearli
2013-07-03, 18:24:59
hmm war das nicht die 7870 wo nachträglich noch eine schnellere Version kam? War das dann die 7750? ansonsten gilt das selbe natürlich auch für die 7970 GHz, der geringe mehrtakt bringt eine extrem höhere Lreistungsaufnahme

Akkarin
2013-07-03, 18:32:00
Es gab ne 7750 900 Mhz edition. Allerdings verbraucht diese afaik auch ~so viel wie die 650, von daher würde ich eher sagen das die 900 Mhz normal bis Leicht überdurchnittlich und die 7750 sehr gut im Stromverbrauch ist.

edit: Vom 3DCenter index: http://www.3dcenter.org/dateien/abbildungen/Grafikkarten-Performance-Spieleverbrauch-Index-Mai-2013.png

bis Tahiti sieht es ziemch ordentlich aus. Und selbst die 7950 liegt noch ganz gut.

tobor
2013-07-11, 12:11:41
Die derzeitigen Spielekisten verbrauchen ja weniger als ihre Vorgänger beim Release. Der Stromverbrauch könnte in Zukunft wieder angehoben werden.

samm
2013-07-11, 21:58:31
Der Stromverbrauch könnte in Zukunft wieder angehoben werden.Nein.

Nightspider
2013-07-11, 22:12:27
Doch.

Knuddelbearli
2013-07-12, 05:04:09
vielleicht

:biggrin:

robbitop
2013-07-12, 10:45:19
Können kann man alles. Aber ich vermute, Sony/MS haben jetzt einen Sweetspot gefunden. Der SoC ist sogar schon ohne Shrink bezahlbar, wie auch der Rest der Konsole. Mehr Leistung = mehr Leistungsaufnahme = teurere Konsole. Da haben sich Sony/MS beim letzten Zyklus die Finger verbrannt.
Ich tippe darauf, dass es in dieser Größenordnung bleiben wird.

Mich würde es btw. nicht wundern, wenn eine der Next-Nextgen Konsole mit ARM Kernen laufen wird. Natürlich nicht mit SFF ARMs sondern einem Custom ARM Kern, der bezüglich Takt, Leistungsaufnahme und IPC in der Region liegt, in der sie liegen muss. NV ist ja mit Denver bspw. an so etwas dran.
(Wobei die SFF Cores auch sehr schnell an Takt und IPC dazugewinnen - in 5 Jahren gibt es sicher ARM Cores "von der Stange" mit höherer IPC als Jaguar und höherem Takt).

Nightspider
2013-07-12, 11:35:47
Der SoC macht nur einen gewissen Teil der Kosten für die Konsole aus.
Gehäuse,Controller,RAM,Laufwerk,Festplatte sind alles fixe Kosten, welche die Leistung nicht ansatzweise so maßgeblich beeinflussen wie der SoC.

Wie groß ist der SoC von der PS4? 400mm²?
Damit sollten die Kosten pro Chip unter 200 Euro Euro liegen.
Würde man 100 Euro nur für den SoC drauflegen, so das die Konsole mit 500 Euro immer noch billiger wäre als die PS3 zu Beginn, dann könnte man schon eine deutlich potentere GPU verbauen, die mind. 50% vielleicht sogar Richtung 100% schneller wäre.

Das Sony und vielleicht auch wieder MS sich bei der nächsten Generation mehr um Leistung bemühen liegt durchaus im bereich das Möglichen.
500 Euro für eine HighEnd Core-Gamer Konsole sind zum Release nicht überteuert,wenn man sich anschaut wie teuer die PS3 damals war. Dabei hat seit 2006 das Geld sogar noch an Wert verloren.

Und die paar Watt Unterschied dürften keine große Rolle spielen.

Sicher freut es Sony und MS mehr wenn man auch mit günstigen Konsolen viel Geld machen kann aber von einem Sweet-Spot würde ich niemals reden, nach den wenigen Konsolengenerationen.

Wäre die Wii durch ihre Fuchtelsteuerung nicht so verdammt erfolgreich gewesen, hätten Sony und MS garantiert wieder 600 Euro Konsolen gebastelt.

Da Nintendo aber (im Vergleich) zur Wii mit der Wii-U dermaßen auf die Fresse fliegt und MS überall schlechtgeredet wird, halte ich es durchaus für möglich das wir in 1-2 Generationen wieder 500-600 Euro Konsolen sehen werden.

Und einen Sweetspot gibt es einfach nicht. Das hängt viel zu stark von dynamischen Faktoren ab und kurzfristigen Trends wie der Fuchtelsteuerung. Wäre die Wii-U wieder ein maßloser Erfolg gewesen, hättest du sagen können der Sweetspot liegt bei 250 Euro. Jetzt wo die PS4 mit Abstand das Rennen zu machen scheint, liegt der Sweetspot plötzlich bei 400 Euro?
Und wo war er bei der PS2? Bei 900DM und damit Inflationsbereinigt sicherlich auch irgendwo bei 500 Euro.

Hallo
2013-07-12, 11:39:49
Wäre es möglich CPU/GPU (SoC) und GDDRx Ram zu stacken?

Dann hätte man weniger Aufwand des Mainboardlayouts (SI) und könnte alles viel homogener und höher (?) takten.

Ich erinnere mich noch an i486 DX50 Zeiten wo tatsächlich die CPU genauso schnell taktete wie das Mainboard, alles lief mit 50 MHz.

Mein Gedanke ist Flaschenhälse zu eliminieren damit das System "rund" läuft.

Nur so ein Noob Gedanke...

Nightspider
2013-07-12, 11:47:02
Klar wird in Zukunft gestacked aber höhere Taktraten wird es dadurch sicherlich nicht geben. Schließlich musst du die Wärme aus einem Sandwich abführen, was schwieriger ist als wenn alle Toastscheiben und Beläge nebeneinander liegen würden.
Das bringt einen riesigen Sprung in der Bandbreite und Latenzvorteile aber es könnte die Shrinks schwieriger machen, weil du die TSVs jedes Mal neu anpassen und das Chipdesign darauf anpassen müsstest.

Hallo
2013-07-12, 11:52:30
Ja die Abwärme. Ich dachte mir den CPU/GPU Teil ganz oben und den Ram unten da er doch weniger Abwärme produziert. Und darüber hinaus muss dann endlich mal in eine gute Kühlkonstruktion investiert werden. Notfalls wird halt ein Peltier Element draufgespannt und gut, vor allem LEISE ists;)

Die Kühlung der ersten XBox360 Revision kann man ja nicht wirklich als Kühlung bezeichnen und dennoch lief das irgendwie wenn auch ohrenbetäubend.

Edit:
Ja mit den Shrinks könnte es schwieriger werden. Aber auch das kann man lösen, zumindest hat man ein gutes Ausgangsprodukt.

Edit2:

Man kann zur Kühlung auch das ganze Gehäuse nehmen und als Kühlkörper gestalten welcher mit x Heatpipes an die entsprechenden Wärmeverursacher verbunden werden.

Nightspider
2013-07-12, 11:57:47
Ich glaube das wäre schwieriger zu verdrahten, da du von der GPU+CPU ja sicherlich um die 1000 Kontakte zum Mainboard herstellen musst und diese allte per TSV extra nach unten abführen müsstest. Dann würden Datenkanäle vom RAM nach oben zur Logik gehen und von der Logik wieder durch den RAM bis zum Motherboard.
Peltierelemente kannst du vergessen.
Kühlungen sind ja jetzt schon durch Heatpipes und Vaporchambers sehr ausgefeilt und werden stetig besser. Man könnte ja sogar schon im Gehäuse der Xbox One eine riesige Kühlkonstruktion verbauen.

Hallo
2013-07-12, 12:04:49
Oops ich meinte Unified GDDRx Ram, also CPU/GPU/Main Ram/Graphics Ram in einem. Dann würden sich doch die Anschlusspins zum MB in Grenzen halten oder? Alles spielt sich im "Würfel" ab. Bissl I/O und Sound "ext." und gut ist. Obwohl, I/O und Sound gleich mit in den Würfel,haha. Noobige Phantasien ich weiss;)

Edit:

Ah, du meinst die Durchleitung der Datenkanäle innerhalb des Würfels wären zu viel/aufwändig, richtig?
Aber was Kühlungstechnologie betrifft gibt's für mich keine Ausreden mehr. Es geht nicht das ne Konsole wie die alte 360 so durch die Gegend röhrt vor allem am Anfang wo das LW noch mitlief dachte ich das kann doch nicht real sein.

Shink
2013-07-12, 13:55:00
Mich würde es btw. nicht wundern, wenn eine der Next-Nextgen Konsole mit ARM Kernen laufen wird.
Ehrlich gesagt wundert es mich ja jetzt schon, dass sie nicht auf ARM setzen. So ein 2,xGHz 8-Kern A15 "von der Stange" wäre jetzt auch kein Performance-Untergang gewesen gegenüber dem AMD...

Wäre es möglich CPU/GPU (SoC) und GDDRx Ram zu stacken?
Klar wäre es möglich. Noch wäre es wohl kaum sinnvoll.

Iruwen
2013-07-12, 13:57:19
Coda meinte wir unterschätzen den CPU-Part iirc, ich denk mal schon dass da noch Luft ist.

robbitop
2013-07-12, 13:59:33
Ehrlich gesagt wundert es mich ja jetzt schon, dass sie nicht auf ARM setzen. So ein 2,xGHz 8-Kern A15 "von der Stange" wäre jetzt auch kein Performance-Untergang gewesen gegenüber dem AMD...


Klar wäre es möglich. Noch wäre es wohl kaum sinnvoll.
Naja noch sind die Dinger zu schwach. Gerade erst A15 kommt an die IPC vom in order Atom heran. Bobcat hatte bei Singlethread bis zu 60 % mehr IPC. Jaguar packt je nach Fall 15 % oben drauf. Jaguar hätte man, wenn man gewollt hätte, auch auf 2 GHz takten können in den Konsolen.

Jaguar ist schon die deutlich bessere CPU für eine Konsole als heutige ARM Kerne. Aber man kann basierend auf dem ARM Instruction Set natürlich beliebige CPUs designen. Ansonsten werden die SFF Dinger sicherlich in ein paar Jahren auch schneller werden. Nur müssen diese halt extrem auf ihre Leistungsaufnahme achten. Deshalb kann man viele IPC steigernde Dinge erst nach und nach bringen, da diese richtig Transistoren kosten und damit auch Leistungsaufnahme.

Coda
2013-07-12, 14:40:50
Wäre z-fighting nicht so ein Fall, den man mit höherer Präzision bekämpfen könnte?
Das ist mit float schon mehr als erschlagen.

Für Positionen wäre es bei einer bestimmten Weltgröße vielleicht interessant.

Jaguar packt je nach Fall 15 % oben drauf.
Mehr.

robbitop
2013-07-12, 14:43:21
Mehr.
Bei FP SIMD Limitierung auch deutlich mehr, ja. :)

Coda
2013-07-12, 14:43:48
Nein, auch so mehr.

Gipsel
2013-07-12, 15:26:50
Ehrlich gesagt wundert es mich ja jetzt schon, dass sie nicht auf ARM setzen. So ein 2,xGHz 8-Kern A15 "von der Stange" wäre jetzt auch kein Performance-Untergang gewesen gegenüber dem AMD...Und wären vom Stromverbrauch auch nicht mehr so weit drunter gewesen ;). Und die Jaguar-Kerne sind doch praktisch auch "von der Stange". Verbinde das noch damit, daß keiner in dem gewünschten Zeitrahmen mit der erforderlichen Sicherheit einen SoC auf ARM-Basis mit entsprechend performanter Grafik basteln wollte oder konnte. Außerdem sollte man nicht vergessen, daß ein A15 weiterhin ein 32bit Prozessor ist, der (noch nicht verfügbare) A57 ist die 64Bit-Variante. Und schon sieht die ARM-Option für die XB1 und PS4 nicht mehr so verlockend aus bzw. hat sie sich erst gar nicht gestellt. Auch nV selbst hat sich offenbar nicht zugetraut, ihre selbstentwickelten (bzw. sind sie ja noch dabei) 64Bit-ARM-Kerne mit Kepler-Grafik als SoC ins Rennen um die Konsolendeals zu werfen. Anders läßt sich ihre Aussage ("wir wollten ja gar nicht" oder so ähnlich) kaum interpretieren. ;)

Knuddelbearli
2013-07-12, 15:29:53
Ehrlich gesagt wundert es mich ja jetzt schon, dass sie nicht auf ARM setzen. So ein 2,xGHz 8-Kern A15 "von der Stange" wäre jetzt auch kein Performance-Untergang gewesen gegenüber dem AMD...


Klar wäre es möglich. Noch wäre es wohl kaum sinnvoll.

mit 3,5GB ram dann? ;-)
und mit AVX und co dürfte eine Jaguar IPC mäßig schon ordentlich vor einem A15 sein

robbitop
2013-07-12, 15:59:32
Nein, auch so mehr.
Cool - dann hat AMD wohl untertrieben.

Gibt es schon detailierte Jaguar Reviews, wo die IPC taktnormiert mit Vorgängern verglichen wird?

Gipsel
2013-07-12, 16:26:17
und mit AVX und co dürfte eine Jaguar IPC mäßig schon ordentlich vor einem A15 seinEin A15 hat zwar Neon, was eine 128Bit SIMD-Erweiterung ist, die nicht ganz FMA(4), aber immerhin Multiply-Accumulate kann (R=R+A*B). Aber der Durchsatz für floating-Point-Operationen entspricht einer 64Bit-Einheit (mit 128Bit Operanden nur alle 2 Takte eine Instruktion, double precision geht mit Neon übrigens gar nicht). Das ist im Peak Bobcat-Niveau, praktisch eher weniger (Bobcat hat zwei getrennte Pipelines statt nur einer, dafür versteht Neon auch mit 64Bit-Operanden umzugehen [zwei packed floats in einem Register wie das selige 3DNow!, deswegen vielleicht manchmal weniger Verschnitt, aber das sollte kaum eine Rolle spielen]).

Zero-11
2013-07-13, 22:25:24
An die Träumer!

Träumt weiter, die neue PS4 oder die XB1 sind kaum besser als ihre Vorgänger, obwohl knapp ein Jahrzehnt dazwischenliegt. Die Spiele ruckeln auf der PS41.

-512MB Ram auf 8.192MB Ram
-400 Gigaflops auf 1,84 Teraflops
-8 lahme Kerne damit die Entwickler gezwungen sind auf eben diese hohe Anzahl zu Programmieren. Unterstützt von der Grafikeinheit (APU)

Plus En- und Dekodier Zusatzchips

Soviel dazu :cool:

tobor
2013-07-15, 12:13:07
-512MB Ram auf 8.192MB Ram
-400 Gigaflops auf 1,84 Teraflops
-8 lahme Kerne damit die Entwickler gezwungen sind auf eben diese hohe Anzahl zu Programmieren. Unterstützt von der Grafikeinheit (APU)

Plus En- und Dekodier Zusatzchips

Soviel dazu :cool:

Mit Jaguar Cpu eingerechnet dürften es doch circa 2 Teraflop sein?
Außerdem haben beide Konsolen dezidierte Soundchips, was den Prozessor erheblich entlasten dürfte(30 Prozent sollen in der 360 dafür verwendet worden sein).

robbitop
2013-07-15, 12:49:51
Auf so einen Unfug lohnt es sich gar nicht zu antworten. :D

Coda
2013-07-15, 13:42:10
(30 Prozent sollen in der 360 dafür verwendet worden sein).
Das ist mit Verlaub völliger Blödsinn.

tobor
2013-07-15, 13:55:24
Das ist mit Verlaub völliger Blödsinn.
Ok,es wurde im beyond 3d Forum behauptet,dass Sound circa einen Kern der 360 ausgelastet haben soll.

RLZ
2013-07-15, 14:05:19
Ok,es wurde im beyond 3d Forum behauptet,dass Sound circa einen Kern der 360 ausgelastet haben soll.
Man muss nicht alles glauben, was dort geschrieben wird. ;)
Dort laufen genauso viele Pseudoinsider und "Experten" rum wie in jedem anderen Forum (inklusive 3DCenter).

Lightning
2013-07-15, 14:08:41
Ok,es wurde im beyond 3d Forum behauptet,dass Sound circa einen Kern der 360 ausgelastet haben soll.

Das kommt sicher aufs Spiel an. Nur, weil ein Entwickler das vielleicht so gemacht hat, heißt das nicht, dass es die Regel ist. Zudem: Sicher, dass von einem ganzen Kern die Rede war oder nur von einem Thread?

Ich weiß aber auch nicht, ob man sich zu viel vom dedizierten Soundchip versprechen sollte. Laut Cerny ist er in der PS4 hauptsächlich für Kompression/Dekompression zuständig, sonstige Berechnungen müssen halt weiterhin von CPU oder GPU übernommen werden (Quelle (http://www.gamechup.com/mark-cerny-ps4-contains-a-dedicated-audio-processing-chip/)).

pittiplatsch
2013-07-20, 22:50:39
Die Debatte selbst hat doch Mark Cerny selbst beendet, die Ps4 ist für eine Konsole, das Beste, was es je gab, Punkt, und sie ist laut Devs durch ihr HUMA-RAm Design, und aufs Metall Programmierung, einfach nur High End, was die Devs bestätigen, also is die Sache klar, THE Console für 399,- is the Ps4, Punkt. ;D

Durch die extrem leichte Proggung, wird es Spiele hageln, von schlecht bis Atom, aber dieses Teil ist einfach der Sieger, der NextGen. Ende. ;D

Iruwen
2013-07-21, 18:46:55
Nur doof dass das es hier um Spekulationen zur übernächsten Generation geht.

OBrian
2013-07-21, 23:21:56
So weit kann wohl noch keiner denken.

Dabei wäre es relativ einfach, wenn man sagt "Mainstream-Niveau in x Jahren". Problem dabei ist nur, wie gut wird die Hardware in einigen Jahren sein? Aktuell gibt es ja wirklich null Weiterentwicklung, weder bei CPUs noch bei GPUs, also könnte man pessimistisch antworten "in zehn Jahren sind PS4 und XBox One noch topaktuell".

Ich schätze mal, weder Sony noch Microsoft haben dafür bereits ernsthafte Pläne. Die jetzt neue Generation ist ja auch eine Reaktion auf die zu teure Hardware der bisherigen Modelle, also wird man auch hier abwarten, wie sich diese Generation schlägt, bevor man überhaupt anfängt, über Nachfolger nachzudenken.

Knuddelbearli
2013-07-21, 23:25:55
keine weitereintwicklung bei GPU?
gibt immer noch alle 2,5 jahre ca doppelte leistung, nur das P/L kann nicht ganz mithalten

bei CPU sieht es dagegen wirklich mau aus+ 20% über die letzten 2,5 jahre mit OC sogar stagnation ...

Allerdings hat uns Intel da ja wenig zu interessieren ist ja AMD verbaut und dort hat man von Bobcat auf Jaguar auch +120% in 2 Jahren geschafft

tobor
2013-07-28, 21:07:32
Nvidia und Nintendo nächste Generation? Denkbar mit 64 bit Arm Kernen. Angenommen die Wiiu floppt weiterhin und Nintendo setzt nächste Generation mal auf Technik, die zumindest mithalten kann wie zuletzt der Gamecube. Und Nvidia möchte wieder im Konsolengeschäft präsent sein und macht Nintendo ein gutes Angebot(Arm-Soc).

Felixxz2
2013-07-28, 22:24:23
Viell. gehn ja alle auf 64 Bit ARM? AMD bringt die ja auch.

disap.ed
2013-07-29, 08:19:45
Da Nintendo ja offenbar seine Handheld- und Heimkonsolen-Architekturen und -Tools vereinheitlichen will, erscheint mir das auch als sinnvollste Wahl.
3DS-Nachfolger mit 2+2 big.LITTLE Cortex-A53/-A57, WiiU-Nachfolger mit 4+4 (oder 8 A57-Cores).
Zusammen mit einer GCN2-basierten Grafiklösung @20nm wäre das denke ich ziemlich konkurrenzfähig.
Rückwärtskompabilität wäre dann zwar nicht mehr gegeben, aber es ist ohnehin fraglich ob Nintendo bei der Nachfolgegeneration beim Gamepad mit Touchscreen bleibt.

Deinorius
2013-07-30, 20:25:11
Viell. gehn ja alle auf 64 Bit ARM? AMD bringt die ja auch.


Bei den Handhelds ist das ja praktisch schon gegeben (mit Ausnahme von 64bit, falls das überhaupt in der Zukunft überhaupt relevant sein wird - dafür müsste der gesamte RAM auf mind. 4 GB steigen). Aber wo ist der wirklich Vorteil bei den Standkonsolen? Wenn die bei AMD bleiben, können die weiterhin x86 nehmen und dabei sogar abwärtskompatibel bleiben.
Um wirklich auf ARM umschwenken zu wollen, müsste es bis dahin wirklich konkurrenzfähige CPUs geben, die einen Jaguar deutlich übertreffen und das müssen die erstmal beweisen.
Der einzige jetzt schon für die Zukunft ersichtliche Vorteil ist, nicht nur auf AMD angewiesen sein zu müssen, also auch auf nvidia wechseln zu können. Aber das war's auch schon wieder, oder gibt es noch einen Hersteller, der leistungsfähige GPUs entwickelt? :|

mboeller
2013-07-30, 22:58:53
Technologie für die übernächste Generation:

3d-cmos-memristor-circuits (http://nextbigfuture.com/2013/07/3d-cmos-memristor-circuits.html)


If Successful, 3D Hybrids Can Achieve…..
• Unprecedented memory density
– Footprint of a nano‐device is 4F nano 2/K, for K vertically integrated crossbar layers
– Potentially up to 10^14 bits on a single 1‐cm^2 chip
• Enormous memory bandwidth
– Potentially up to 10^18 bits/second/cm2
• At manageable power dissipation
• With abundant redundancy for yield/reliability

robbitop
2013-07-31, 08:19:38
Ich sehe kein Problem für einen ARM Kern soziemlich jede IPC anzupeilen, die gefordert wird. Man muss ihn halt dafür designen. ARM ist ja nur eine ISA.
Hat NV nicht einen schnellereren ARM Custom Core (Denver) in Entwicklung? Das könnte für die nächste Konsolengeneration auch relevant werden. Es müssen ja nicht unbedingt SFF ARM Kerne werden.

Deinorius
2013-07-31, 12:14:21
Ich sehe kein Problem für einen ARM Kern soziemlich jede IPC anzupeilen, die gefordert wird. Man muss ihn halt dafür designen. ARM ist ja nur eine ISA.


Natürlich dürfte das kein Problem darstellen. Darum geht es mir aber auch nicht. Wenn jetzt eine ARM CPU IP rauskommt, die von der IPC und dem Verbrauch mit Jaguar ungefähr gleichzieht, gäbe es IMO nur einen Grund, diesen einzusetzen, nämlich auch einen Grafikchip von nvidia nutzen zu können. Gäbe es einen anderen?
Wenn die IPC merklich besser und billiger wird, OK, sind ja gut Argumente. Aber billiger als AMD zu sein, ist eine Herausforderung. ;)
Ich zweifle derzeit, lasse mich aber gerne überraschen. Mir wäre es jedoch lieber, wenn die bei x86 bleiben und dabei eine Abwärtskompatibilität möglich wird, die keine Nachteile mit sich bringt, wie es jetzt gerade bei der Wii U so stark in Erscheinung trat.

robbitop
2013-07-31, 12:35:37
Zumal auch AMD nicht stehenbleibt. Nach Jaguar kommen andere Kerne, die die IPC weiter steigern werden.

Deinorius
2013-07-31, 13:36:10
Das kommt noch hinzu.

Avalox
2013-07-31, 13:51:43
Zumal auch AMD nicht stehenbleibt. Nach Jaguar kommen andere Kerne, die die IPC weiter steigern werden.


Wann kommt denn eigentlich der 16 Core ARM A57 Opteron von AMD? Das war doch absehbar, irgendwann Anfang nächsten Jahres denke ich.

Die CPU Leistung gesamt wurde von AMD ja sehr hoch angesetzt.

Iruwen
2013-07-31, 14:33:31
http://www.nintendo.co.jp/ir/pdf/2013/130731e.pdf
Ob Nintendo (bei denen ist ja Next-Next-Gen irgendwie sowieso erst Next-Gen :D) zukünftig überhaupt noch eine Rolle spielt wenn das so weitergeht? Die Verkaufszahlen sind ja lächerlich.

mironicus
2013-07-31, 14:37:11
Die müssen nur ein neues Zelda, Super Mario oder Mario Cart veröffentlichen und schon ist alles wieder in Ordnung. :D

robbitop
2013-07-31, 15:39:07
Die Wii U schwächelt aus dem gleichen Grund, warum die Wii zuletzt schwächelte: Content.
Es gibt kaum sehr guten Exklusiv-Content auf den Heimkonsolen die letzten Jahre. Da müssen einfach ein paar richtig starke Nintendo Blockbuster kommen. Und IMO sollte Nintendo ein paar 3rd Partys bezahlen, erstklassige Exclusives für die Wii-U zu bringen. Am besten sollte alles wirklichen Vorteil aus der Tabletlösung ziehen. Dann kommen auch die Verkaufszahlen wieder auf einen grünen Zweig.

Lord_X
2013-07-31, 16:14:02
Nintendo sollte sich als reiner Software Hersteller aufstellen und ihre Games auf der PS4/One herausbringen. Das Gemezel als Hardwarehersteller können sie Sony und MS überlassen ;)

Hallo
2013-07-31, 16:59:11
Davor friert die Hölle zu. N könnte doch als reiner Softwarehersteller seinen Kontrollwahn garnicht ausleben. Dazu kommt noch das N in der Vergangenheit praktisch immer auch an der HW verdient hat, und das nicht zu knapp.

Ich würde es schade finden wenn N verschwinden würde aber irgendwie haben die es auch verdient derzeit so schwach da zu stehen. Wenn man HW seitig schon kränkelt dann bitte mit Software trumpfen. Und statt den 100en Marioaufguss wären ein paar neue Spielemarken nicht schlecht. Zumindest wäre es schön wieder ein neues Pilotwings, Wave Race und F-Zero zu sehen.

Ich versteh N einfach nicht mehr.

Lord_X
2013-07-31, 19:42:52
Ich versteh N einfach nicht mehr.
Irgendwo habe ich mal gelesen, dass sie (Nintendo) den Aufwand für eine HD Version der Spiele ziemlich unterschätzt hatten. Das zieht sich vermutlich jetzt durch die ganze Entwicklung der Games.

Crazy_Bon
2013-07-31, 20:06:25
Ehrlich gesagt, daß klingt für mich nicht anders als wie nach einer faule Ausrede. Nintendo ist DER Softwareproduzent für ihre eigenen Konsolen und nun sind sie überrascht, welche Arbeit dahinter steckt?
Hätten sie einfach mal bei ihren besten Freunden wie SEGA nachgefragt, die ja die ganzen Mario-SpinOffs und sonst noch für sämtliche Konsolen und PC proggen.

Lord_X
2013-07-31, 20:14:00
Nintendo ist DER Softwareproduzent für ihre eigenen Konsolen und nun sind sie überrascht, welche Arbeit dahinter steckt?
Naja alle anderen haben den Sprung bei PS2 auf PS3 gemacht. Da kann ich mich an grosses Gejammer erinnern, wie viel Geld das kostet und Zeit braucht. Nintendo macht den Schritt (etwas kleiner) halt erst jetzt.

ongbaq
2013-07-31, 20:24:05
Ein was gutes hat so ein Generationssprung immer, die alte wird einem nach geschmissen siehe Xbox 360 150€ (http://amzn.to/17iQys0) bist du dabei. Da meine ausgedient (zu Laut) hat und altes Modell ist werde ich mir ein Upgrade leisten.

Iruwen
2013-08-01, 00:18:34
Exactly How Bad is the Nintendo Situation?
Today’s financial results reveal Wii U sales below even the most pessimistic expectations. But should we be worried about Nintendo? (http://www.ign.com/articles/2013/07/31/exactly-how-bad-is-the-nintendo-situation)

Screemer
2013-08-01, 00:21:36
es fehlen einfach die ganzen ninti ips. da is nix was mich jetzt zum kaufen anregen würde, was ich woanders nicht bekomme. sollte sich im herbst hoffentlich ändern.

robbitop
2013-08-01, 09:25:05
Nintendo sollte sich als reiner Software Hersteller aufstellen und ihre Games auf der PS4/One herausbringen. Das Gemezel als Hardwarehersteller können sie Sony und MS überlassen ;)
Dann endet man so wie Sega. In der Bedeutungslosigkeit. Nintendo verdiente bis dato sogar Geld mit ihren Konsolen. Auch haben sie für ihre Spiele immer 100 % selbst eingestrichen. Wenn du auf Fremdkonsolen verkaufst, musst du den Gewinn teilen.

Nintendo war einfach in ihrer Contentplanung und in ihrem Budget für 3rd Party Content nicht schlau genug. (und IMO hätte man den SoC auch noch mit wenig Mitteln deutlich stärker machen können)

Nintendo hat so viele geniale Marken. Leute anstellen, sehr gute Studios beauftragen ect. Immer her mit den Marken. Bspw. das letzte Metroid kam ja auch von einem anderen Studio. Und das war am Ende sehr gut. Jetzt muss viel guter Kontent her. Im Prinzip müsste man das jetzt aufbauen und klotzen.

Lightning
2013-08-01, 10:51:40
es fehlen einfach die ganzen ninti ips. da is nix was mich jetzt zum kaufen anregen würde, was ich woanders nicht bekomme. sollte sich im herbst hoffentlich ändern.

Naja, es gibt NSMB:U, der Nachfolger zu dem Spiel, das sich 27 Mio. mal auf der Wii verkauft hat, jetzt gibt es Pikmin, und zum Ende des Jahres das nächste 3D-Mario. Die Wii hatte im ersten Jahr weniger davon. Sicher könnte das Lineup besser sein, aber es ist imo nicht so viel schlechter als bei anderen Konsolenstarts. Die Gründe für das Versagen sind vielschichtiger (Steuerungskonzept, Vermarktung, Hardware, etc.). Auch ein tolles Zelda wird das Konsole vermutlich nicht davor retten, auf Gamecube-Niveau zurückzufallen (und selbst das ist zum aktuellen Zeitpunkt ja noch optimistisch).

Nintendo hat so viele geniale Marken. Leute anstellen, sehr gute Studios beauftragen ect. Immer her mit den Marken. Bspw. das letzte Metroid kam ja auch von einem anderen Studio. Und das war am Ende sehr gut. Jetzt muss viel guter Kontent her. Im Prinzip müsste man das jetzt aufbauen und klotzen.

Äh, das letzte Metroid war vergleichsweise ein Flop und hat deutlich schlechtere Wertungen kassiert als die Teile davor.
Aber ja, man muss unbedingt Geld in die Hand nehmen und klotzen. Hätte man schon viel eher machen sollen, Nintendo hätte die Mittel dazu gehabt.

Aber bei aller Schwarzmalerei sollte man nicht vergessen: Nintendo lebt nicht nur von der Wii U. Der 3DS läuft immer noch erstaunlich gut, die Vita ist dagegen ein Witz.

robbitop
2013-08-01, 10:58:39
Nintendo hat bei den letzten Quartalszahlen sogar einen schmalen Gewinn gehabt und hat noch ziemlich viel Cash Reserven. IMO beschreibt es The Final Bosman auf Gametrailers aber relativ gut. Nintendo benimmt sich wie ein Zirkuselefant und fällt willkürlich merkwürdige Entscheidungen, die in den letzten Jahren wirklich negative Auswirkungen hatten.
Blöd, dass niemand die offensichtlich richtigen Entscheidungen trifft. Japaner sind halt manchmal komisch...

just4FunTA
2013-08-01, 23:16:22
Nintendo hat bei den letzten Quartalszahlen sogar einen schmalen Gewinn gehabt und hat noch ziemlich viel Cash Reserven. IMO beschreibt es The Final Bosman auf Gametrailers aber relativ gut. Nintendo benimmt sich wie ein Zirkuselefant und fällt willkürlich merkwürdige Entscheidungen, die in den letzten Jahren wirklich negative Auswirkungen hatten.
Blöd, dass niemand die offensichtlich richtigen Entscheidungen trifft. Japaner sind halt manchmal komisch...

so einfach ist das ja auch nicht immer die "richtige" Entscheidung zu fällen. Vor der Veröffentlichung der Wii hätten auch 99% der Leute gesagt das Ding floppt und dann so ein riesenerfolg einfach wahnsinn.

robbitop
2013-08-02, 09:22:56
Ja zusätzlich zu den offensichtlich richtigen Entscheidungen gibt es auch manchmal unoffensichtlich richtige Entscheidungen.
Was sie im Moment tun, ist nicht von beidem. Es sind offensichtlich falsche Entscheidungen. IMO.

tobor
2013-08-02, 09:41:12
Gibts eigentlich Chancen für Ibm-Cpus,wieder Bestandteil einer Spielkonsole zu werden(abgesehen von der Wiiu setzten ja jetzt sowohl Sony als auch Microsoft auf X86)?
Die können ja auch Bestandteil eines Socs sein.(Amd und Ibm haben doch für spätere 360 Versionen einen gebaut,dass wäre wohl nicht wirklich ein Problem).

Knuddelbearli
2013-08-02, 10:13:14
Nein da es mehr als nur um den SOC geht.

Lord_X
2013-08-02, 14:57:35
Dann endet man so wie Sega.
Nicht wirklich! Bei dem Crap was Sega für die PS3 veröffentlich hat, wundert mich das nicht! Dies mit den Top Marken von Nintendo zu vergleichen ist echt witzig! Wo sind die Sega's ach so tollen Spiele? Kein neues Virtual Fighter, Sega Rally oder gar ein Shenmue wurde in den letzten 3-4 Jahren veröffentlicht... aber so Crap wie Iron Man oder das X. Sonic! Das lockt doch keinen mehr vor die Konsole.

robbitop
2013-08-03, 10:42:13
Es wäre ohne Nintendo Konsole einfach nicht das gleiche. Und weniger an Software würden sie auch verdienen. Solange sie die HW nicht mit Verlust verkaufen, ist alles iO.

Matad0r
2013-09-01, 20:10:42
Irgend ne gute/revolutionäre Idee von denen muss auf jeden Fall kommen, sonst wird das bei weitem nichts gutes mehr... und nur mit Remakes kriegen die auch keine hohen Verkaufszahlen.

tobor
2013-09-05, 10:57:01
Es wäre ohne Nintendo Konsole einfach nicht das gleiche. Und weniger an Software würden sie auch verdienen. Solange sie die HW nicht mit Verlust verkaufen, ist alles iO.
Das machen sie zur Zeit bei der Wii U, was bei der Hardware schon ein "Kunststück" ist...

robbitop
2013-09-05, 11:36:18
Link?

Deinorius
2013-09-05, 11:59:10
Solange der Preis der Wii U in der Zwischenzeit nicht gesunken ist, verdienen sie noch ein klein wenig daran (deren eigene Aussage), aber die Preissenkung wurde ja schon angekündigt.

robbitop
2013-09-05, 12:03:31
Das Problem der WiiU ist nicht ihr Preis. Das hat ja auch der Nintendo CEO bereits öffentlich gesagt (war in einer der letzten Pach Attack Episioden/Final Bosman). Das Problem ist das Lineup. Das ist einfach schrecklich dünn. Analog dazu die PS Vita. Man muss halt einmal richtig Geld in die Hand nehmen und richtig Spiele rausblasen (die 3rd Parties Exclusives mit Geld abkaufen). Dann kommen die Verkaufszahlen von allein und es wird ein Selbstläufer.

tobor
2014-08-12, 11:15:13
Double Precision für Physikberechnungen?
http://www.heise.de/newsticker/meldung/GDC-Die-Zukunft-der-Spiel-Physik-2290436.html

Käsetoast
2014-08-12, 11:36:18
Das Problem der WiiU ist nicht ihr Preis. Das hat ja auch der Nintendo CEO bereits öffentlich gesagt (war in einer der letzten Pach Attack Episioden/Final Bosman).
Wobei man da auch anderer Meinung sein kann. Ist halt ein Problem, wenn man Hardware auf dem Level der XBox360 hat, die gerne für 99 € im Angebot ist (und wo man argumentieren kann, dass die Festplatte den mageren 32GB Speicher der Wii U überlegen ist). Dann kommt das Hauptproblem: Das Tablet. Nintendo hatte da ja sogar mal den Preis angedeutet und das waren ziemlich heftige Preise wenn man daran denkt, dass man als Endkunde schon für 99 € Tablets mit richtigem SoC und Steuerelementen bekommt und eben nicht nur ein Tablet, das quasi als "Funkempfänger" dient. So gesehen sollte die Wii U eigentlich für 199 € über die Ladentheke gehen, aber mit 299 € ist das schon eine ganze Ecke mehr. Das Tablet scheint für das was es leistet schlichtweg überteuert zu sein...

Es bleibt zu hoffen, dass Nintendo zeitnah einen Wii U Ersatz plant, der dann endlich auch ordentliche Hardware aufweist. Ist halt extrem schade, dass Nintendo ein derartiger Sparfuchs ist was das angeht. Mit ner netten Cape Verde GPU wäre man immer noch recht günstig und stromsparend gewesen und wäre letztendlich gar nicht mal so weit von der XBox One entfernt gewesen. Hauptproblem ist aber eher die CPU, wo man leider lieber nichts ändern wollte und einfach mal drei Wii CPUs mit ein Bisschen mehr Cache eingesetzt hat. Architektur von gestern, IPC von gestern, Taktraten von gestern - da hätten sie für die Kompatibilität lieber den einen Mini-Kern neben einem vernünftigen, aktuellen IBM-4-Kerner gesetzt. Oder was ich sowieso als erstrebenswerter ansehe: Man macht die Abwärtskompatibilität optional ähnlich wie Sony es bei der PS3 gehandhabt hat: Wer das will kauft die teurere Premium Variante wo es so einen Chip gibt. Die Standard-Variante hat das halt nicht und ist günstiger. Ähnlich darf Nintendo es auch gerne mit ihrer zukünftigen Konsole handhaben: Eine Version kriegt die Wii U CPU mit an Bord (eine aktuelle GCN GPU sollte ja weitgehend mit der VLIW5 GPU der Wii U kompatibel sein bzw. dafür zu sorgen sollte kein Ding der Unmöglichkeit sein) und die Andere nicht. Das Tablet dann wie das Wii Fit Board optional machen und gut ist - letztendlich wurde das Tablet ja selbst von Nintendo nur seltenst sinnvoll genutzt, so dass man das wie das Wii Fit Board optional machen kann...

tobor
2014-09-25, 10:31:50
Würde es für die Next-Gen-Konsolen Sinn machen,bei der Auflösung auf 4k zu gehen? Oder sollten sie bei 1080p bleiben(bzw. diese Auflösung dann auch bei allen Spielen erreichen)?

RLZ
2014-09-25, 10:55:55
Würde es für die Next-Gen-Konsolen Sinn machen,bei der Auflösung auf 4k zu gehen? Oder sollten sie bei 1080p bleiben(bzw. diese Auflösung dann auch bei allen Spielen erreichen)?
Es ist ja nicht so, dass eine Konsole eine fest verdrahtete Auflösung hätte.
Wobei 4K auch für die nächste Generation nur für grafisch wenig anspruchsvolle Anwendungen in Frage kommt.