PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wii U - Hardware-Spekulation


Seiten : 1 2 3 4 5 6 7 [8] 9 10 11

AnarchX
2012-09-21, 16:45:07
Der Customer Service gibt Details über die unter NDA-stehende HW eines Großkunden bekannt? ;)

Lightning
2012-09-21, 16:50:46
Na dann will ich mal auflösen:


Die CPU wird ausreichend stark sein, hinzu kommt die Entlastung durch den DSP-Chip, aber es gibt 32MB eDRam, 2GB GDDR5 (die mit der Zeit nahezu genutzt werden können) und eine GPGPU.

Zur CPU gibt es mal wieder ein Interview, in dem es leider nicht so rosig klingt: http://www.eurogamer.net/articles/2012-09-21-a-chat-about-the-power-of-the-wii-u-with-the-developer-of-a-wii-u-launch-title
Dass es eDRAM geben wird halte ich für wahrscheinlich. Ob es wirklich 32 MB sind sollte man imo abwarten. Und dass die 2 GB RAM GDDR5 sind, ist ebenfalls sehr spekulativ.
GPGPU-Unterstützung versteht sich ohnehin von selbst, das kann jede anständige GPU seit vielen Jahren, auch die der 360.

Und die ist eine Custom-Variante dieser GPU hier:

http://www.ign.com/boards/threads/co...rue.452674508/



Ich bin nicht überzeugt davon, dass das kein Fake ist. Im Gegenteil wäre es schon recht seltsam, sollte der AMD-Support so antworten.

AnarchX
2012-09-21, 16:58:59
Zumal E6760 im Endeffekt nur eine Turks GPU mit GDDR5 auf dem gleichen Package ist. Für ein Konsolen-Design beim man wohl den Speicher shared nutzen will und noch andere Ergänzungen benötigt, ist diese GPU allein wohl kaum zu gebrauchen.

Die große Frage bleibt, auf welchem Prozess die GPU basieren wird. Der Platzbedarf der GPU bei der Llano APU mit 32nm SOI war ähnlich hoch wie bei 40nm Bulk. Wenn da Nintendo auf antiquierte 45nm SOI setzen würde, wäre man im Bereich von 55nm Bulk, wodurch wohl mehr als 320SPs schnell den Die ziemlich groß werden lassen würden.

Screemer
2012-09-21, 17:15:25
das mit der gpu ist auch schon alter tobak: http://www.nintengen.com/2012/07/speculation-wii-us-gpu-based-on-amd.html

wäre zwar schön aber ich glaub nicht dran.

Coda
2012-09-21, 20:40:28
Andererseits fand ich die DX10-GPU-Geschichte schon immer komisch. Ein Chip einer neueren Generation sollte DX11 und mehr Effizienz bei gleicher Fläche bieten können.

Mal abwarten.

dildo4u
2012-09-21, 20:44:08
Ja 45nm war wohl nur die CPU,viele gingen wegen des geringen Leistungsanspruchs von einem SOC aus.

pittiplatsch
2012-09-21, 22:34:32
@Lightning

Oh man, nochmal, die CPU ist in bisherigen numerischen Flops leicht schwächer, ok, 360-CPU 115GFlops, Cell (theoretisch 218GFlops, aber die SPUs mussten GPU-Aufgaben erfüllen).

Lass die CPU 70GFlops haben, der DSP-Chip übernimmt komplett den Sound, es gibt GPGPU, 32MB eDRAM, 2GB GDDR5 Unified-RAM, und eine , (und das ist meine persönliche Erkenntnis) Dual-GPU e6760, die selbst mit leicht runtergetakteter Taktfrequenz den GPU-Teraflop knackt, ist eine richtige Überraschung.

Im Klarterxt DX11-Shader5-Equivalent, spielt in einer Liga mit Ps720, auch wenn die den Xbox-Cube-Part übernehmen, bleibt Wii-U hierbei, die Ps2 dieser Hemisphäre. :D

Coda
2012-09-21, 23:10:36
Es gibt mit an Sicherheit grenzender Wahrscheinlichkeit keine Dual-GPU. Das ist ein Hoax.

Lightning
2012-09-21, 23:18:18
[...]

Solange du Spekulationen als Fakten darstellst, hat eine weitere Diskussion leider keinen Sinn.

Deinorius
2012-09-21, 23:42:39
[...] und eine , (und das ist meine persönliche Erkenntnis) Dual-GPU e6760, die selbst mit leicht runtergetakteter Taktfrequenz den GPU-Teraflop knackt, ist eine richtige Überraschung.


Bitte nicht schon wieder den Dual-GPU Schmarrn! Wieso kommt der Sch*** immer wieder auf. :facepalm:

Und dass der diesmal sogar bei der Wii U anstatt der PS4/Xbox Next auftaucht, macht es um keinen Deut besser. :ugly: Darüber hinaus hat die E6760 eine TDP von 35 W. Viel mehr wird nicht gehen können und rein von der Leistung her sicher keine doppelte Auslegung mit 960 Shadern.

StefanV
2012-09-22, 00:17:23
Ich stimme meinen Vorrednern zu.

Diese Dual GPU Geschichte ist einfach kompletter Unsinn. Warum sollte man das machen? Insbesondere da es ja noch schnellere Dies im Portifolio von AMD gibt?! Wenn man mehr Leistung gern hätte, würde man dann nicht einfach 'nen größeren Chip nehmen statt 2 kleine irgendwo hin zu klatschen?

Zumal der Platz in einer Konsole ja auch nicht so reichhaltig ist...

dildo4u
2012-09-22, 00:25:00
Kleiner Größenvergleich,wirklich winzig die Konsole,frag mich warrum man sich freiwillig so beschränkt was TDP angeht.

http://www.abload.de/img/wiiudefinitiva_5633219nkwk.jpg

http://www.abload.de/img/wiiudefinitiva_563371tojlc.jpg

Coda
2012-09-22, 00:54:13
Oh wow.

Deinorius
2012-09-22, 02:25:50
Ich wundere mich schon über die Größe seit ich diese das erste Mal bei der E3 Präsentation gesehen habe. Es hätte keinem geschadet, wenn die Konsole zumindest a bisserl höher wäre. Ich hatte schon vermutet, dass das Aussehen noch nicht endgültig wäre.

Wird wohl das erste Mal sein, dass ein Controller fast so groß sein wird wie dessen Konsole. :ulol:

THEaaron
2012-09-22, 02:38:08
Nice. Die nächste Revision ist dann die Wii U in Nintendo DS Größe. :ulol:

Lightning
2012-09-22, 08:11:44
Kleiner Größenvergleich,wirklich winzig die Konsole,frag mich warrum man sich freiwillig so beschränkt was TDP angeht.

Allerdings etwas größer als die Wii:

http://i.imgur.com/vaZnY.jpg

Neben dem riesigen Controller wirkt es natürlich besonders klein. :D

MartinB
2012-09-22, 17:39:40
Wii U’s slow CPU “a challenge” for one launch developer

That underwhelming CPU is giving one Wii U launch developer some trouble. During the Tokyo Game Show, Eurogamer sat down with Warriors Orochi 3 Hyper producer Akihiro Suzuki, who says that the Wii U’s CPU tends to have some issues when there are multiple characters on screen, which is pretty much always the case when playing a Dynasty Warriors game. “One of the weaknesses of the Wii U compared to PS3 and Xbox 360 is the CPU power is a little bit less,” Suzuki said. “So for games in the Warriors series, including Dynasty Warriors and Warriors Orochi, when you have a lot of enemies coming at you at once, the performance tends to be affected because of the CPU.”

http://www.slashgear.com/wii-us-slow-cpu-a-challenge-for-one-launch-developer-21248895/

Langsamer als PS360, definitiv zu langsam wenn die neue Generation kommt.

fizzo
2012-09-22, 17:52:25
Langsamer als PS360, definitiv zu langsam wenn die neue Generation kommt.

Wenn, dann betrifft das wohl "nur" die CPU...bitte immer komplett zitieren:

Suzuki followed up by saying that dealing with those performance issues can be “a challenge,” but did also point out that as far as sheer
graphics power is concerned, the Wii U has the 360 and PS3 beat. Not only does the Wii U feature what is believed to be a custom AMD 7 series GPU, but it’s been confirmed to house 1GB of RAM that is dedicated to games, which is twice the amount the 360 and PS3 can boast. This means games which are more GPU-intensive will shine on Wii U, while those that require some significant CPU power risk falling flat.

weiter zur CPU:

It’s important to keep in mind that as time goes on, developers will figure out how to squeeze the most power out of the Wii U’s CPU. All you need to do is look at this generation to see that much is true – compare titles like The Last of Us or Uncharted 3 to games that launched at the beginning of the generation, and you’ll surely notice a sizable boost in overall quality. It seems safe to assume that we can expect a similar progression with games on Wii U, so this is just probably one of those launch hurdles that most developers have to deal with. Check our story timeline below for more on the Wii U!

Lassen wir mal den Studios einwenig Einarbeitungszeit.....

Spasstiger
2012-09-22, 18:09:14
Eventuell hat sich ja Nintendo von AMD bequatschen lassen, dass man auf der GPU tausende Charaktere mit KI rendern kann und deshalb auf eine stärkere CPU verzichtet: http://developer.amd.com/RESOURCES/DOCUMENTATION/SAMPLES/DEMOS/pages/froblins.aspx. ;)

tobor
2012-09-22, 18:34:45
Bezüglich Ki: Sind Gpus da so deutlich schlechter als Cpus?
http://www.computerbase.de/news/2009-04/video-cuda-berechnet-ki-von-1.024-flugzeugen/

MartinB
2012-09-22, 18:48:39
Wenn, dann betrifft das wohl "nur" die CPU...bitte immer komplett zitieren:



weiter zur CPU:



Lassen wir mal den Studios einwenig Einarbeitungszeit.....

Aus meinen Zitat geht hervor dass es sich um die CPU handelt. Nicht ohne Grund habe ich die Überschrift mit reingenommen...


Ich denke vorallem wenn neue Spiele massiv auf KI und Physikberechnungen setzen werden, dann wird die WiiU es schwer haben.

][immy
2012-09-22, 20:09:59
Eventuell hat sich ja Nintendo von AMD bequatschen lassen, dass man auf der GPU tausende Charaktere mit KI rendern kann und deshalb auf eine stärkere CPU verzichtet: http://developer.amd.com/RESOURCES/DOCUMENTATION/SAMPLES/DEMOS/pages/froblins.aspx. ;)
das sollte das mit AMD zu tun haben? Auch die würden es garantiert nicht gerne sehen, wenn deren Chip-design nicht zur geltung kommen kann weil die CPU zu schwach ist. aber ich schätze mal um den grafikchip auszureitzen wird es nicht wirklich gehen, muss man halt auf ein wenig physik & so nen "quatsch" (was halt nintendo als solchen bezeichnen würde) verzichten.

Ringwald
2012-09-23, 10:09:52
Derzeit sieht es ja mit dem Gamepad so aus:
1 Gamepad(s): 480p@60FPS
2 Gamepad(s): 480p@30FPs

Wäre dann ein Betrieb von 4 Gamepads bei einer interlaced (480i@30FPS) Auflösung möglich?

Crazy_Bon
2012-09-23, 10:26:53
Microsofts Konsolen hatten auch immer eine schwächere CPU als die Sony, konnten aber Dank eines besseren GPU ihren Nachteil wett machen, wieso soll es nun bei der WiiU nicht anders sein? Ich meine, die CPU mag zwar sogar leicht schwächer als die von ihren Mitbewerbern zu sein, aber in Sachen GPU scheint sie deutlich vorraus zu sein, solange keine Xbox720&PS4 auf dem Markt kommen. Dennoch drückt Nintendo (traditionell) auf die Kostenbremse, denn es hätte eine noch bessere CPU und GPU sein können, aber das Tablet ist schon teuer genug.

AnarchX
2012-09-23, 10:39:54
Für reine CPU-Aufgaben war die 360 mit Xenon schon ziemlich gut aufgestellt. Eher war es der Fall, dass RSX in der PS3 die Unterstützung von Cell für das Rendering benötigte.

Eventuell hat sich ja Nintendo von AMD bequatschen lassen, dass man auf der GPU tausende Charaktere mit KI rendern kann und deshalb auf eine stärkere CPU verzichtet: http://developer.amd.com/RESOURCES/DOCUMENTATION/SAMPLES/DEMOS/pages/froblins.aspx. ;)
Wobei man da wohl aber eine TFLOPs (VLIW5) GPU benötigt, um eine vernünftige Basis zu haben.

dildo4u
2012-09-23, 10:55:21
Ich find's erstaunlich wie lange die CPUs in der 360/PS3 mithalten.Wenn die IPC beim Wii-U nicht Richtung Intel geht,was unwahrscheinlich ist,könnte ich mir schon vorstellen,das es bei 1.6Ghz Probleme gibt.Vieleicht liegt die CPU eher so auf Level der kleinsten out of order AMD's alla Brazos,(Nur halt 3 Kerne)der Verbauch müsste auch ca dort liegen.IBM wird auch nicht zaubern können,wenn sie auf 15-20 Watt beschränkt sind.

Deinorius
2012-09-23, 11:06:02
Wäre dann ein Betrieb von 4 Gamepads bei einer interlaced (480i@30FPS) Auflösung möglich?


Um Gottes Willen, dann bräuchte das Tablet auch noch einen Deinterlacer.

dildo4u
2012-09-23, 11:09:31
Derzeit sieht es ja mit dem Gamepad so aus:
1 Gamepad(s): 480p@60FPS
2 Gamepad(s): 480p@30FPs

Wäre dann ein Betrieb von 4 Gamepads bei einer interlaced (480i@30FPS) Auflösung möglich?
Selbst 2 wird nur für Minispiel und 3D Kämpfer was taugen,Heute wird fast gar nix mehr auf 60fps ausgelegt.Nur dann hat man genug Performance über für 2 Tabs@30.

Botcruscher
2012-09-23, 11:46:12
Ich find's erstaunlich wie lange die CPUs in der 360/PS3 mithalten. Die halten nicht mit, die halten auf. Entwickelt wird für den kleinsten gemeinsamen Nenner. An heutigem Texturenmatsch und lowpoly ist nix aufregend.

MartinB
2012-09-23, 11:49:37
Und die Texturen haben genau was mit der CPU zu tun?

dildo4u
2012-09-23, 12:00:16
Nix PC ist auch kein Thema hier einige bashen nur gerne Konsolen.

john carmack
2012-09-23, 13:25:24
a bissal mehr hätts scho sei könne!

...man ist die Konsole winzig :)

Aber Nintendo hat schon recht... Es wäre wohl schwachsinn sich mit Sony und MS anzulegen.

Die Wii hatte sich doch recht gut verkauft wenn ich das richtig in erinnerung habe.

Never change a running system

Screemer
2012-09-23, 21:11:33
Dürfte die meistverkaufte der letzten Generation sein, wenn man sie denn dazu zählen mag ;-)

thade
2012-09-24, 18:09:11
Doch die meisten Spiele wurden auf PS360 verkauft. Es gibt keinen richtigen Gewinner dieser Gen.

fizzo
2012-09-24, 19:33:34
Doch die meisten Spiele wurden auf PS360 verkauft. Es gibt keinen richtigen Gewinner dieser Gen.

Hast du dazu eine Quelle? Auf der Wii wurden bis zum 30. Juni d.J. 826 Mio Spiele (ohne Downloadtitel) (http://www.nintendo.co.jp/ir/pdf/2012/120725e.pdf) verkauft. Oder summierst du die PS3 sowie die 360 Softwareverkäufe?

edit: Offiziell wurden laut Sony bis Ende März d.J. 595 Mio PS3 Spiele (http://www.scei.co.jp/corporate/data/bizdataps3soft_sale_e.html) abgesetzt.
edit2: Zur Xbox konnte ich leider nichts aktuelles finden

@ topic: WiiU is capable of DX 11 graphics (http://gamingbolt.com/wiiu-is-capable-of-dx-11-graphics-is-obviously-better-than-the-ps3-and-xbox-360#8GuCpZtwKm5q5HZ4.99)

Bösewicht
2012-09-24, 21:20:45
Bestimmt kommt wieder das Argument Wii Sports und Wii Play abgezogen und schon ist die Wii letzter.

The Wii U won’t run Direct X11 because the API is owned by Microsoft and there’s no way Nintendo will license that. However, the Wii U is capable of Direct X11 equivalent graphics using different APIs like Unity 4.
Read more at http://gamingbolt.com/wiiu-is-capable-of-dx-11-graphics-is-obviously-better-than-the-ps3-and-xbox-360#0356k0DOdm3xZps6.99
Das Klingt schon interessant!

dildo4u
2012-09-24, 21:41:51
Unity 4 ist keine API.Vermutlich wird ne Abwandlung von Open GL genutzt.

del_4901
2012-09-24, 21:42:08
The Wii U won’t run Direct X11 because the API is owned by Microsoft and there’s no way Nintendo will license that. However, the Wii U is capable of Direct X11 equivalent graphics using different APIs like Unity 4.
Read more at http://gamingbolt.com/wiiu-is-capable-of-dx-11-graphics-is-obviously-better-than-the-ps3-and-xbox-360#0356k0DOdm3xZps6.99
Das Klingt schon interessant!
Das ist Marketing-BlaBla, natuerlich kann man Effekte damit erreichen die auf dem PC nur mit DX11 sinnvoll eingesetzt werden. Die Frage ist nur zu welchen Kosten?

Avalox
2012-09-25, 01:14:31
Doch die meisten Spiele wurden auf PS360 verkauft. Es gibt keinen richtigen Gewinner dieser Gen.

Ne. Die Wii ist nicht nur die meistverkaufte Konsole der alten Generation mit Abstand. Es wurden auch mit Abstand die meisten Spiele für die Wii verkauft und es wurde auch mit extremen Abstand das erfolgreichste Spiel dieser Generation für die Wii verkauft. Es waren sogar die 7 erfolgreichsten Spiele. Absolute Megaseller. Ich denke es gibt für die XBox360 oder auch PS3 dagegen nicht ein einziges Spiel welches überhaupt an die 20 Millionen Grenze verkaufter Exemplare heran gekommen ist. Die Ergebnisse der alten Generation sehen schon sehr eindeutig aus.

dildo4u
2012-09-25, 01:35:11
Ich denke es gibt für die XBox360 oder auch PS3 dagegen nicht ein einziges Spiel welches überhaupt an die 20 Millionen Grenze verkaufter Exemplare heran gekommen ist. Die Ergebnisse der alten Generation sehen schon sehr eindeutig aus.
Modern Warfare 2,COD Black Ops und GTA4 kommen auf 20Mio.GTA5 und Black Ops 2 könnten dazukommen.Thrid Party's fahren dort wesentlich besser meisten gibts eine 360 Version und ein miesen PS3 Port,minimaler Aufwand maximaler Gewinn praktisch die selbe Zielplattform.

http://www.gamestar.de/spiele/call-of-duty-modern-warfare-2/news/call_of_duty_modern_warfare_2,44634,2315676.html

http://www.gamespot.com/news/call-of-duty-black-ops-sells-20-million-analyst-6312133

http://www.gamestar.de/spiele/grand-theft-auto-4/news/take_two_interactive,44318,2321520.html

Wii war ein Witz dagegen und hätte niemals die ganze Industrie am laufen gehalten,da hat zu 90% Nintendo das Geld gemacht.Die Zahlen werden aber immer ungenauer,da besonders auf der 360 und PS3 viel digital verkauft wird.EA bietet z.b viele große Retailgames im PSN an z.b BF3,Mass Effect,Fifa etc.

Avalox
2012-09-25, 01:49:58
Modern Warfare 2,COD Black Ops und GTA4 kommen auf 20Mio.GTA5 und Black Ops 2 könnten dazukommen.

ne. Dass sind ja Crossplattform Spiele, mit Crossplattform Aufwand. Also die zusammen gezählten Verkäufe aller übrigen alten Konsolen. Das meinte ich nicht.

Hier meinte ich Verkäufe für eine Zielplattform. Dort haben Wii Spiele mit riesigen Abstand alles deklassiert, was auch nur entfernt auf anderen Konsolen verkauft werden konnte.

Die bestverkauften Wii Spiele sind auch nebenbei deutlich besser auf der Wii verkauft worden, als die best verkauften Spiele der restlichen Konsolen nach Plattformen zusammen gezählt.
Die Wii steht dort als Plattform für eine ganz anderer Klasse. Das auch und erst Recht natürlich unter dem wirtschaftlichen Gesichtspunkt.

Die Wii ist dort übrigens keine Einmalerscheinung von Nintendo, denn diese Position mit den Spieleverkäufen ist ausschliesslich mit Nintendo Konsolen besetzt. Irgend etwas scheinen sie immer wieder richtig zu machen.

Was auch immer Nintendo treibt. Was Nintendo dort letztendlich mit der WiiU anstrebt dürfte klar sein.

Telema
2012-09-25, 02:00:08
Wie dildo4u schon schrieb waren das aber zu über 90% Nintendo eigene Games. Die third´s haben kein gutes Geschäft am Wii gemacht und deshalb sehr unwürdige Umsetzungen gezeigt.

Avalox
2012-09-25, 02:06:00
Wie dildo4u schon schrieb waren das aber zu über 90% Nintendo eigene Games. Die third´s haben kein gutes Geschäft am Wii gemacht und deshalb sehr unwürdige Umsetzungen gezeigt.

ja. Aber das ist doch ein Vorteil des Nintendo Konzepts.

Natürlich würde dieses gerne auch ein Sony oder Microsoft so machen, es sind schliesslich auch Spielepublisher, aber sie können es nicht.

Das was man dort vorgeführt bekommen hat ist der Erfolg von Nintendo auf der gesamten Wertschöpfungskette.

dildo4u
2012-09-25, 02:08:53
Davon hatte aber fast nur Nintendo was,hat man z.b als User Interresse an den anderen großen Hardcore Serien hatte man mit dem Wii Pech gehabt.Die Ports der HD Games waren häufig Schrott oder nicht vorhanden,weil die Power nicht reichte.Das Problem war das dann hinten raus kaum noch an gute Wii Software kam,(Schlecht für den 'User)weil Thrid Party kein Geld machten.Daher jetzt der Umschwung von Nintendo alles was geht an 360/PS3 Port für Wii-U mitzunehmen,damit Nintendo nicht wieder alleine für die Spieleversorgung sorgen muss.

Avalox
2012-09-25, 02:11:46
Davon hatte aber fast nur Nintendo was,

Na ich weiß nicht. Der Spieler hat sicherlich auch was davon, sonst hätte er es nicht gekauft.

Letztendlich kann der Spieler nur ein Spiel zur selben Zeit spielen. Ob es nun Super Mario Galaxy ist oder Battlefield 3 ist ja dem Unterhaltungsaspekt egal. Letztendlich zählt doch nur, wo der Spieler sein Geld gelassen hat. Im Fall von Super Mario Galaxy war es halt gleich zwei mal bei Nintendo, das ist eben Wertschöpfung.

StefanV
2012-09-25, 02:20:25
Davon hatte aber fast nur Nintendo was,hat man z.b als User Interresse an den anderen großen Hardcore Serien hatte man mit dem Wii Pech gehabt.Die Ports der HD Games waren häufig Schrott oder nicht vorhanden,weil die Power nicht reichte.Das Problem war das dann hinten raus kaum noch an gute Wii Software kam,(Schlecht für den 'User)weil Thrid Party kein Geld machten.Daher jetzt der Umschwung von Nintendo alles was geht an 360/PS3 Port für Wii-U mitzunehmen,damit Nintendo nicht wieder alleine für die Spieleversorgung sorgen muss.
Ja, aber ist jetzt die Frage, ob man Nintendo die Schuld in die Schuhe schieben sollte oder eher den anderen, die es nicht gebacken bekommen haben, die Wii halbwegs brauchbar auszunutzen? Siehe Dirt3 - ist das wirklich Nintendos Schuld, dass es so ist, wie es ist? Oder ist nicht der '3rd Party Dingsda' Schuld dran, dass es so grottig wurde??

Bösewicht
2012-09-25, 03:16:50
Das hat doch nichts damit zutun wer nun die meisten Spiele verkauft hat!
Ob die Spiele jetzt von Nintendo oder von Rockstar sind Spielt doch keine Rolle.

Screemer
2012-09-25, 16:03:30
Doch die meisten Spiele wurden auf PS360 verkauft. Es gibt keinen richtigen Gewinner dieser Gen.
sorry für die späte antwort. meine aussage war auf die hardware verkaufszahlen bezogen. bei den softwareverkäufen muss man bedenken, dass ninty wohl die gebundelten spiele (Wii Sports) mit einberechnet, was die zahlen wieder relativiert. overall gesehen liegt ninty für eine einzellne plattform aber trotz dem weit vorne.

zu den dx11 gerüchten dürfte wohl klar sein, dass wie bei der wii gx zum einsatz kommen dürfte. natürlich runderneuert und wie gehabt an ogl angelehnt.

thade
2012-09-26, 17:26:07
Eben auf der Wii verkaufen 3rd Party nix, überhaupt nix. Das Ding ist praktisch tot...

Deswegen gibts auch kaum Spiele für das Drecksteil. Meine Wii habe ich mir nur für Mario Galaxy 1/2 und den Zeldas gekauft, ansonsten wirf das Teil auf die Müllhalde.

Außerdem wen interessieren Wii Sports und Resort? Die waren schon drin bei jeder Wii. Super Software-VKZ...

Labberlippe
2012-09-29, 09:30:30
Hi

@thade

und genau wegen Zelda und Co hast Du Dir dieses "Drecksteil" gekauft welches Dich ja sonst nicht interresiert hätte. (inkl. div. Titel an Spiele)

Das Problem war gerade am Anfang das Nintendo div. Spiele verniedlichen hat lassen, nur damit diese überhaupt erst auf der Konsole gebracht werden durften.
Das war mit ein Hauptgrund warum es so wenig Umsetzungen auf den Nintendo Konsolen gegeben hat.
So strange ist Nintendo anscheinend nicht mehr drauf und jetzt liegt es an den Herstellern auch die Ports vernünftig für die neuen Konsolen um zu setzen.

Gruss Labberlippe

Ringwald
2012-09-29, 15:29:16
Hört auf so zu tun als ob es keine gute Software für die Wii gab, das ist BS!
Die WiiU steht vor der Tür und ich habe noch eine lange Liste an Wii Spielen die ich durch haben möchte.

MR2
2012-09-29, 22:16:27
http://wiiudaily.com/wii-u-cpu/

Steht das eigentlich fest? Weil ich hier vor einigen Seiten etwas von lahmer CPU las...

Käsetoast
2012-09-29, 23:30:54
Nein, in Stein gemeißelt ist da noch nix. Allerdings klang die Aussage von Seiten der Entwickler, dass es eine Art 3-Kern Wii CPU wäre jetzt nicht vollkommen unrealistisch, weswegen uns durchaus eben nur so eine CPU erwarten könnte anstatt einer modernen 4-Kern Power7 CPU...

lumines
2012-09-29, 23:35:01
Das Problem war gerade am Anfang das Nintendo div. Spiele verniedlichen hat lassen, nur damit diese überhaupt erst auf der Konsole gebracht werden durften.

Hast du dafür irgendwelche Belege? Nintendos Design ist historisch so gewachsen, aber sonst fällt mir kein Beispiel ein, wo Nintendo irgendwelche Spiele hat „verniedlichen“ lassen. Ganz im Gegenteil, Rares Golden Eye und Perfect Dark waren hier afaik lange Zeit indiziert und das war sogar ein In-House-Entwicklerstudio.

Labberlippe
2012-09-30, 19:21:09
Hast du dafür irgendwelche Belege? Nintendos Design ist historisch so gewachsen, aber sonst fällt mir kein Beispiel ein, wo Nintendo irgendwelche Spiele hat „verniedlichen“ lassen. Ganz im Gegenteil, Rares Golden Eye und Perfect Dark waren hier afaik lange Zeit indiziert und das war sogar ein In-House-Entwicklerstudio.


Hi

Ist schon ein weilchen her das ich dies gelesen habe.
Gerade bei NES und SNEs wurden spiele so abgändert damit diese zugelassen wurden.

Ab N64 wurde das ganze wie Du schon erwähntest besser schon ein bischen besser.

So ist mir das im Kopf geblieben.
Aber in welcher Zeitschrift ich das damals gelesen habe kann ich Dir leider auch nicht mehr genau sagen.


Gruss Labberlippe

00-Schneider
2012-09-30, 19:32:29
http://wiiudaily.com/wii-u-cpu/

Steht das eigentlich fest? Weil ich hier vor einigen Seiten etwas von lahmer CPU las...


wiiudaily.com ist eine reine Fanboyseite. Informationsgehalt ist dort 0.

Power7 ist total unrealistisch, und wurde meines Wissens auch schon dementiert.

siehe: http://hothardware.com/News/IBM-Confirms-WII-U-Utilizes-PowerBased-CPU-Not-Power-7/

Käsetoast
2012-09-30, 20:16:54
Ist schon ein weilchen her das ich dies gelesen habe.
Gerade bei NES und SNEs wurden spiele so abgändert damit diese zugelassen wurden.
Dem muss ich eigentlich widersprechen. Ich wüsste spontan nur von Mortal Kombat, wo die Nintendo Version kein Blut hatte. Dieses Vorgehen hat man aber schon bei Mortal Kombat 2 wieder verworfen, wo das Blut dann wieder spritzte. Auch ansonsten gibt's auf den Konsolen NES und SNES genug Titel mit hoher Altersfreigabe - eine generelle Ausrichtung auf eine bestimmte Altersgruppe im Bezug auf die gesamte Konsole gab's daher nicht wirklich. Natürlich waren die Nintendo Eigenproduktionen schon "jugendfreundlich" ausgelegt...

G 80
2012-09-30, 20:51:29
Wolfenstein (http://www.gametrailers.com/videos/x2yxpi/screwattack-s-video-game-vault-video-game-vault--wolfenstein-3d) auf Nintendo? ;D

Es waren über die Jahre ein paar Versionen dabei aber nicht genug für eine große Hexenjagd.

Käsetoast
2012-10-06, 00:28:18
Wolfenstein (http://www.gametrailers.com/videos/x2yxpi/screwattack-s-video-game-vault-video-game-vault--wolfenstein-3d) auf Nintendo? ;D

Es waren über die Jahre ein paar Versionen dabei aber nicht genug für eine große Hexenjagd.
Dafür gab's ja auch die Wolfenstein-Bibelversion und wenn die nicht brutal war, dann weiß ich auch nicht... ;D

http://blog.jewish-dating.de/wp-content/uploads/2007/08/Noah%27s_Ark_3D_SNES_gameplay.png

Crazy_Bon
2012-10-06, 01:19:11
Hi

Ist schon ein weilchen her das ich dies gelesen habe.
Gerade bei NES und SNEs wurden spiele so abgändert damit diese zugelassen wurden.

Ab N64 wurde das ganze wie Du schon erwähntest besser schon ein bischen besser.

So ist mir das im Kopf geblieben.
Aber in welcher Zeitschrift ich das damals gelesen habe kann ich Dir leider auch nicht mehr genau sagen.


Gruss Labberlippe
Da war Nintendo auch nicht alleine, auf SEGAs Konsolen wurde auch zensiert, z.B. Final Fight auf Sega/MegaCD.
http://ogdb.eu/index.php?section=game&gameid=5667

In heutiger Sicht war die Zensur lächerlich, spiegelt aber auch das prüde Amerika wider.

Lightning
2012-10-11, 08:57:59
Iwata Asks (Interview) zur Wii U (http://iwataasks.nintendo.com/interviews/#/wiiu/console/0/0)

Darin gibt es auch erste Bilder zum Innenleben:

http://iwataasks.nintendo.com/_ui/images/wiiu/main-console/slide002.jpg

http://iwataasks.nintendo.com/_ui/images/wiiu/main-console/slide003.jpg

Skysnake
2012-10-11, 09:09:03
Was sehen wir denn da so?

Beim MCM wohl nen SOC + DRAM oder?

Beim Board:
Power
MCM
SD Slot? Oder wie das auch immer heißt für die Nintendo DS Games.
4 RAM Bausteine -> 128 Bit Interface (?)

Das Board ist auf jeden Fall SEHR aufgeräumt. Da ist wirklich sehr wenig drin. Gut man sieht die andere Seite nicht, aber die wird sicherlich nicht vollgeknallt sein wie blöd. Das sollte wohl recht günstig zu produzieren sein.


Was mich wundert, man sieht gar kein HDMI Stecker oder sonst was :ugly:

Ringwald
2012-10-11, 09:14:53
Also ich sehe den HDMI Stecker, und nein das ist links ein normales SD Kartenslot.

Frucht-Tiger
2012-10-11, 09:15:22
Eins fehlt noch, das kleine ist die CPU
http://iwataasks.nintendo.com/_ui/images/wiiu/main-console/slide004.jpg

disap.ed
2012-10-11, 09:20:18
EDIT: Ninja'd :)

Schaut wieder nach einem sehr "sauberen" Design aus.

AnarchX
2012-10-11, 09:47:59
4 RAM Bausteine -> 256 Bit Interface (?)

Mehr als 32-Bit Chips gibt es nicht, also maximal 128-Bit, was am wahrscheinlichsten ist.

Beide Chips werden wohl unterschiedliche Fertigungsprozesse habe, ansonsten hätte man wohl die CPU mit dieser lächerlichen Größe nicht seperat gefertigt.
Interessant ist wohl der Durchsatz der Verbindung beider Dies.

disap.ed
2012-10-11, 10:16:05
CPU ist von IBM gefertigt (45nm laut letztjähriger E3-Info), GPU von Renesas (könnte alles sein, auch 28nm)

Coda
2012-10-11, 10:58:36
Renesas? Wtf? :D

Skysnake
2012-10-11, 11:09:50
Mehr als 32-Bit Chips gibt es nicht, also maximal 128-Bit, was am wahrscheinlichsten ist.

Beide Chips werden wohl unterschiedliche Fertigungsprozesse habe, ansonsten hätte man wohl die CPU mit dieser lächerlichen Größe nicht seperat gefertigt.
Interessant ist wohl der Durchsatz der Verbindung beider Dies.
Äh ja natürlich :ugly:

Steffko
2012-10-11, 11:24:04
Kann man anhand des Bildes die Größe von GPU und CPU schätzen? Grob kennen wir ja die Größe der WiiU und damit auch etwa die Größe des Boards.

Bringt natürlich bei der GPU nicht so viel, weil der Fertigungsprozess nicht mal bekannt ist glaub ich :freak:

Coda
2012-10-11, 11:25:20
Eins kann ich dir verraten: Es ist kein Power7 :tongue:

disap.ed
2012-10-11, 11:31:28
Renesas? Wtf? :D

Warum wtf?

Ailuros
2012-10-11, 11:32:02
Renesas? Wtf? :D

;D:freak:

disap.ed
2012-10-11, 11:35:43
Renesas? Wtf? :D
Äh ja natürlich :ugly:
;D:freak:

Aha...

MR2
2012-10-11, 11:39:57
Microcontroller von denen sind ja bekannt, aber die gpu aus ihrer Fertigung?
Hoffentlich ist die Wii U leise.:-)

Auch mal interessant, Interview über trine2 Entwicklung der Wii u Version
http://www.gamestrust.de/casual/news,trine-2-ps3-xbox-360-koennten-nicht-wii-u-grafik-mithalten,id22223.html

disap.ed
2012-10-11, 11:44:19
Nun, NEC hat auch die GPU für Gamecube/Wii gefertigt und deren Chipsparte ist auch in Renesas aufgegangen AFAIK.

Steffko
2012-10-11, 11:47:05
Eins kann ich dir verraten: Es ist kein Power7 :tongue:

Nur was ist es denn dann? :D

Hier hat sich jemand die Mühe gemacht mit den mm²:

http://www.neogaf.com/forum/showpost.php?p=43077509&postcount=6254

Er kommt auf ~30mm² für die CPU und ~160-170mm² für die GPU.

disap.ed
2012-10-11, 11:51:11
Zuvor hatte noch jemand 40mm² für 32MB eDRAM ausgerechnet @28nm, die reine GPU wäre dann wohl ungefähr im Bereich eines Cape Verde (wenn er denn in 28nm gefertigt ist) von der Die Size her, was wohl besser wäre als man erwarten konnte.

Lightning
2012-10-11, 11:56:35
Nur was ist es denn dann? :D

Hier hat sich jemand die Mühe gemacht mit den mm²:

http://www.neogaf.com/forum/showpost.php?p=43077509&postcount=6254

Er kommt auf ~30mm² für die CPU und ~160-170mm² für die GPU.

Mist, hatte ich auch gerade versucht. :freak: Kam aber auf etwas kleinere Werte (144mm^2 und 22mm^2).

Jedenfalls wirklich klein, die CPU, und das @ 45nm. Großartig mehr als Xenon wird das Ding kaum leisten können, nehme ich an.

disap.ed
2012-10-11, 12:01:32
Also nach einer kurzen Google-Recherce gehe ich nicht davon aus, dass der Chip in 28nm gefertigt wird, da Renesas offenbar keine Fab dafür hat.

Sie sind zwar hier dabei

GLOBALFOUNDRIES is driving the global standard for new technologies such as High-k Metal Gate (HKMG) with several co-development partners including IBM, Renesas, STMicroelectronics, Samsung, and Toshiba.

aber wohl nur als Entwicklungspartner.

Dürfte also ein 40nm Chip sein und damit ungefährt auf Turks-Niveau liegen (480 SPs/ 8 ROPS / 24 TMUs).

][immy
2012-10-11, 12:35:59
Mist, hatte ich auch gerade versucht. :freak: Kam aber auf etwas kleinere Werte (144mm^2 und 22mm^2).

Jedenfalls wirklich klein, die CPU, und das @ 45nm. Großartig mehr als Xenon wird das Ding kaum leisten können, nehme ich an.
du vergisst dabei aber das der xenon ursprünglich ein 90nm Design war. Der Chip selbst konnte ja intern nicht mehr verbessert werden aus kompatibilitätsgründen.
aber so wie es aussieht ist es ne kopie der xbox 360 architektur mit schwächerer CPU und besser Grafikeinheit und mehr ram.

Coda
2012-10-11, 13:27:25
Ich geh stark davon aus, dass die Kerne immer noch auf dem PowerPC-750CXe-Architektur des Gamecubes basiert.

Also nicht die In-Order-Kerne der Xbox 360.

Deinorius
2012-10-11, 13:40:16
Die müssen doch irgendwie auf PowerPC-750CXe basieren, wenn sie Abwärtskompatibilität liefern wollen, aber sicher deutlich aufgebohrt.

Ist aber schon krass, wie klein die CPU zur GPU ist. :ugly:

Frage: Dieser orange und gelbe Stecker ist Stromanschluss und analoges Anschlusskabel bzw. umgekehrt, oder?

Ringwald
2012-10-11, 13:52:29
Orange ist Sensorleiste.

nampad
2012-10-11, 13:54:17
Der rote (orange) Stecker dürfte für die Sensorleiste der Wiimotes herhalten. Der schwarze Stecker darunter sollte dann die analoge Bild und Tonausgabe sein. So ist es bei der Wii.

Gipsel
2012-10-11, 14:00:50
Renesas könnte für die Integration des eDRAMs auf dem GPU-Die verantwortlich sein. Die haben in dieser Frage bei der Entwicklung in der 28nm Plattform-Allianz von IBM, GF & Co eine wichtige Rolle gespielt (Stichwort LIC eDRAM = "Logic IP compatible eDRAM", läßt sich also mit dem normalen 28nm Logik-Prozeß fertigen).

Lightning
2012-10-11, 14:05:46
[immy;9497432']du vergisst dabei aber das der xenon ursprünglich ein 90nm Design war. Der Chip selbst konnte ja intern nicht mehr verbessert werden aus kompatibilitätsgründen.
aber so wie es aussieht ist es ne kopie der xbox 360 architektur mit schwächerer CPU und besser Grafikeinheit und mehr ram.

Wo vergesse ich was? Der ursprüngliche Xenon war auch bedeutend größer (sieht man hier (http://www.anandtech.com/show/1865/4)). Mehr als viermal so groß auf jeden Fall, wies aussieht.
Natürlich ist die size nicht alles, aber einen Anhaltspunkt gibt es schon. Und wird wissen ja auch, dass die TDP ziemlich niedrig sein muss, und dass die Taktrate niedriger ist als bei Xenon.

Die Ähnlichkeiten zur 360-Architektur sehe ich jetzt nicht so. Wie gesagt wird die CPU OoOE haben und den bisherigen Gerüchten nach auf Broadway bzw. PowerPC-750CXe basieren. Die GPU dürfte sich auch nicht mehr so viel gemein haben. Und MCM war ebenfalls kein Thema.


Die müssen doch irgendwie auf PowerPC-750CXe basieren, wenn sie Abwärtskompatibilität liefern wollen, aber sicher deutlich aufgebohrt.

Zur Abwärtskompatibilität gibts im Interview ja ein bisschen Blabla:


Shiota
Actually, a lot of the CPU and GPU designers this time have been working with us since development of Wii—which is a plus. They really like our products.

Iwata
Especially since the Wii U had to be backwards compatible with Wii.

Shiota
Yes. The designers were already incredibly familiar with the Wii, so without getting hung up on the two machines' completely different structures, they came up with ideas we would never have thought of. There were times when you would usually just incorporate both the Wii U and Wii circuits, like 1+1. But instead of just adding like that, they adjusted the new parts added to Wii U so they could be used for Wii as well.

Iwata
And that made the semiconductor smaller.

Shiota
Right. What's more, power consumption fell. That was an idea that only designers familiar with Wii could have put forth. We were able to make such a small semiconductor because so much wisdom bubbled up!

Deinorius
2012-10-11, 14:30:34
[...]und dass die Taktrate niedriger ist als bei Xenon.


Sofern die Gerüchte stimmen, dafür aber mit Out-of-Order.

dildo4u
2012-10-11, 14:30:50
Zumindest haben sie die richtige Idee GPU deutlich wichtiger als CPU hoffe Sony übernimmt das.

Deinorius
2012-10-11, 14:35:35
Naja, der Cell wird ja eh nimma eingebaut, also auf dem richtigen Weg sind sie so oder so. :D

dildo4u
2012-10-11, 14:41:36
Deine Meinung gibt massig Games wo Cell der grottigen Nvidia GPU helfen musste.Neues Cell Modelle wäre imo gut vorallem wenn man seine alten PS3 Games weiter zocken möchte,die Software Emulation wird ne extreme Hürde werden,wenn sie X86 CPUs verwenden.

Lightning
2012-10-11, 14:52:37
Neues Cell Modelle wäre imo gut vorallem wenn man seine alten PS3 Games weiter zocken möchte,die Software Emulation wird ne extreme Hürde werden,wenn sie X86 CPUs verwenden.

Ich würde sogar sagen, dass Software-Emulation praktisch unmöglich wäre. Wahrscheinlich wird es daher keine AK geben. Oder wenn, dann nur für ausgewählte Spiele, die man High Level emuliert.

Deinorius
2012-10-11, 14:52:48
Deine Meinung gibt massig Games


Mit einem Beistrich oder Doppelpunkt wäre der Satz leichter verständlich, aber das nur nebenbei.
Wenn Sony eine gescheite GPU einbaut, dann brauchen sie keinen Cell, welcher der GPU aushilft, deine Meinung. Software Emulation habe ich schon lange zuvor aufgegeben. Ohne Cell können wir es erst recht vergessen (selbst mit viel Aufwand dürfte das IMHO nicht möglich werden). Damit z.B. Uncharted oder Heavy Rain selbst mit Cell laufen könnte, müssten sie wohl einige Einschnitte eingehen und damit die Leistung minimieren, oder die Konsole verteuern.

Ailuros
2012-10-11, 15:07:20
Nun, NEC hat auch die GPU für Gamecube/Wii gefertigt und deren Chipsparte ist auch in Renesas aufgegangen AFAIK.

NEC hatte auch den eDRAM Tochter-die fuer die Xenos GPU gefertigt. Haettest Du von Anfang an klar erwaehnt dass Renesas die AMD GPU herstellt haette es keine "WTF" Reaktionen gegeben :freak:

Renesas war zuerst ein merger aus Hitachi und Mitsubishi und NEC kam vor kurzer Zeit noch dazu.

Deine Meinung gibt massig Games wo Cell der grottigen Nvidia GPU helfen musste.Neues Cell Modelle wäre imo gut vorallem wenn man seine alten PS3 Games weiter zocken möchte,die Software Emulation wird ne extreme Hürde werden,wenn sie X86 CPUs verwenden.

Und was haettest Du genau erwartet? Dass NV auch einen eDRAM Tochter-die auf die GPU gesteckt haette oder was? NV hat ihren PS3 GPU Design eben so gut wie moeglich dem Cell angepasst; alles andere waere redundant gewesen. Cell war verdammt teuer und deshalb war es auch fuer Sony auch nicht so absurd fuer eine billigere GPU zu opten als die Konkurrenz.

del_4901
2012-10-11, 15:18:02
NV hat ihren PS3 GPU Design eben so gut wie moeglich dem Cell angepasst.Die ham gar nichts angepasst.
Nur Geld wollen sie immer haben fuer jede kleine Aenderung.

Ailuros
2012-10-11, 20:03:57
Die ham gar nichts angepasst.
Nur Geld wollen sie immer haben fuer jede kleine Aenderung.

Grob vereinfacht ein "G70 Geruest" mit 8 anstatt 16 ROPs wie im G70 und einem 128bit bus anstatt 256bit im G70, mit ein paar Unterschieden in ein paar Stellen im RSX. Trotz allem hat RSX etwas mehr Transistoren als G70 obwohl er die halbe Busbreite und die halbe Anzahl an ROPs hat. Wie die Transistoren-Anzahl zwischen G70 und RSX fast gleich geblieben ist musst Du mir erstmal erklaeren und auch wieso SONY und NV engineers an dem Ding fast 2 Jahre herumfummelten um RSX und Cell anstaendig zu verbinden damit das erste erstmal resourcen mit dem zweiten teilen kann.

Dass Xenos aka C1 der intelligentere und effizientere design von den beiden ist sollte klar sein. Sonst hatte eben NV keinen stornierten desktop design herumliegen und musste sich um auch Zeit zu sparen auf existierende designs begrenzen. RSX hat knapp ueber 300Mio Transistoren waehrend Xenos 232Mio fuer die GPU hat und 150Mio fuer den tochter die (davon werden 80Mio fuer das eDRAM Modul eingeschaetzt und 70Mio fuer memory controller bzw. FSAA Logik und ROPs. Am Ende sind beide chips was Logik betrifft genauso gross nur eben RSX verdammt ineffizient und G80 war zum Zeitpunkt der Lizenzierung eben noch nicht fertig.

Der Unsinn dass Konsolen GPU designs stets irgend ein einfacher desktop Ableger sind und nur so einfach reingesteckt wird duerfte nach all den Jahren so langsam sterben. Auch Xenos war keine einfache R400 Variante sondern eine langjaehrige Spezialentwicklung auf den Fundamenten des stornierten Ur-R400.

Nebenbei ist selbst die GPU IP im PS Vita eine Spezial-anpassung nach Sony's Wuenschen, deshalb heisst die GPU auch SGX543MP4+ weil u.a. SGX544 noch nicht fertig war aber es waere vielleicht trotz allem zu Anpassungen gekommen.

Coda
2012-10-11, 20:09:56
Naja, es gibt ein direktes Interconnect zwischen RSX und Cell mit Rambus-IP. Das zu integrieren ist schon nicht ganz trivial. Daher kommt auch die Transistor-Zahl.

RSX war wohl eh Plan B. Soweit ich weiß hatte Sony zunächst vor ein Larrabee-Konzept mit Cell zu machen.

Ringwald
2012-10-11, 20:15:36
http://img203.imageshack.us/img203/8863/slide011.jpg

Ist der Schild dafür da um die Gamepad Funk Einheit und den Soundchip zu schützen?

Ailuros
2012-10-11, 20:25:06
Naja, es gibt ein direktes Interconnect zwischen RSX und Cell mit Rambus-IP. Das zu integrieren ist schon nicht ganz trivial. Daher kommt auch die Transistor-Zahl.

RSX war wohl eh Plan B. Soweit ich weiß hatte Sony zunächst vor ein Larrabee-Konzept mit Cell zu machen.

***edit: sorry ich hab's falsch verstanden. Stimmt schon so. Sony glaubte dummerweise dass Cell als jack of all trades ausreichen wird.

Kann sein dass es auch ein paar kleine Unterschiede in der RSX hw gibt, denn Wavey sagte mal glaube ich bei B3D dass ein paar kleinere Ideen von der naechsten Generation schon in den RSX gesteckt wurden. Keine Ahnung ob es stimmt, da muesste man einen Entwickler fragen....:D

del_4901
2012-10-11, 21:55:16
Grob vereinfacht ein "G70 Geruest" mit 8 anstatt 16 ROPs wie im G70 und einem 128bit bus anstatt 256bit im G70, mit ein paar Unterschieden in ein paar Stellen im RSX. Trotz allem hat RSX etwas mehr Transistoren als G70 obwohl er die halbe Busbreite und die halbe Anzahl an ROPs hat.Wo hast du denn das her?

Wie die Transistoren-Anzahl zwischen G70 und RSX fast gleich geblieben ist musst Du mir erstmal erklaeren
Die Transistoren sind vllt. gleich weil es der gleiche Chip ist?

und auch wieso SONY und NV engineers an dem Ding fast 2 Jahre herumfummelten um RSX und Cell anstaendig zu verbinden damit das erste erstmal resourcen mit dem zweiten teilen kann.Da hat wirklich jemand rumgefriemelt.

Naja, es gibt ein direktes Interconnect zwischen RSX und Cell mit Rambus-IP. Das zu integrieren ist schon nicht ganz trivial. Daher kommt auch die Transistor-Zahl. Die paar Transistoren machen das Kraut nicht fett.

Ailuros
2012-10-12, 00:57:02
Wo hast du denn das her?

Ich lass mich gerne eines besseren belehren. Dass RSX 16 ROPs bzw. einen 256bit haben soll waere mir total neu nach all den Jahren.

Die Transistoren sind vllt. gleich weil es der gleiche Chip ist?

Gibt es vielleicht etwas konkreteres mich versuchen zu ueberzeugen?

Da hat wirklich jemand rumgefriemelt.

Die paar Transistoren machen das Kraut nicht fett.

Schoen fang mal von Anfang an oben an und dann sehen wir weiter. Denn die Busbreite ist so oder so relativ zu der Anzahl der ROPs und weder 8 ROPs noch ein doppelt so breiter Bus ist umsonst. Und es sind dann eben nicht nur ein paar Transistoren.

***edit: http://www.ps3devwiki.com/wiki/RSX

AnarchX
2012-10-12, 11:07:59
Wenn man von ~150mm² 40nm für GPU + eDRAM ausgeht, dann sind es wohl nicht mehr als 320-400SPs VLIW5. Bei B3D gibt es Gerüchte zu einem Takt knapp unter 600MHz. Also wohl irgendwo um die 400GFLOPs.

Nakai
2012-10-12, 11:34:38
http://img203.imageshack.us/img203/8863/slide011.jpg

Ist der Schild dafür da um die Gamepad Funk Einheit und den Soundchip zu schützen?

Huch was ist das denn?!
Bedeckt das den ganzen Kühlkörper?
Wahrscheinlich ist auf der Seite ne Öffnung, wo der Lüfter durchbläst, sonst würde das keinen Sinn machen.

Iwata Asks (Interview) zur Wii U (http://iwataasks.nintendo.com/interviews/#/wiiu/console/0/0)

Darin gibt es auch erste Bilder zum Innenleben:

http://iwataasks.nintendo.com/_ui/images/wiiu/main-console/slide002.jpg

http://iwataasks.nintendo.com/_ui/images/wiiu/main-console/slide003.jpg

Naja, dann wirds ein verbesserte Wii-, GC-CPU sein, jedenfalls bei der Größe.
Mich würden die internen Verbesserungen interessieren. SMT? Takt? x-fach-Skalar? Cache? etc...

Die CPU könnte trotz der niedrigen Fläche ganz nett sein.

Wenn man von ~150mm² 40nm für GPU + eDRAM ausgeht, dann sind es wohl nicht mehr als 320-400SPs VLIW5. Bei B3D gibt es Gerüchte zu einem Takt knapp unter 600MHz. Also wohl irgendwo um die 400GFLOPs.


Welcher Techlevel? DX10.1 oder schon DX11?
Letzteres würde sich schon stark von der PS360 abheben. Ansonsten wäre es eine ganz nette GPU aka LastGen.

Ansonsten bleibt die Wii U wohl eine sehr gut ausgeglichene Konsole, welche wohl an der eigenen Rohleistung scheitert.
War leider bei jeglicher Nintendokonsole der letzten Jahre so...

Ailuros
2012-10-12, 11:58:12
Ansonsten bleibt die Wii U wohl eine sehr gut ausgeglichene Konsole, welche wohl an der eigenen Rohleistung scheitert.
War leider bei jeglicher Nintendokonsole der letzten Jahre so...

Nintendo sollte nicht wundern wenn durch die Lebenszeit des Wii U irgend ein smartTV mit vergleichbarer Leistung antanzt. Natuerlich kein direkter Vergleich aber man sieht in der Zwischenzeit ziemlich schoen wie toll sich handheld Konsolen heutzutage verkaufen mit all den smartphones/tablets und billigen Gelegenheits-spielchen.

Nakai
2012-10-12, 12:37:52
Nintendo sollte nicht wundern wenn durch die Lebenszeit des Wii U irgend ein smartTV mit vergleichbarer Leistung antanzt. Natuerlich kein direkter Vergleich aber man sieht in der Zwischenzeit ziemlich schoen wie toll sich handheld Konsolen heutzutage verkaufen mit all den smartphones/tablets und billigen Gelegenheits-spielchen.

Ja, das denke ich auch.
CPU-technisch sollten schon viele SOCs stärker sein(maximal natürlich; T3, S4, Apple A6).
GPU-technisch erwarte ich da 2013 SOCs, welche die Leistung der Wii U in Schatten stellt.
NovaThor L9600 und Exynos 5250(Mali t604) sollten mit der Wii U schon gut vergleichbar sein.

Ailuros
2012-10-12, 13:10:52
Ja, das denke ich auch.
CPU-technisch sollten schon viele SOCs stärker sein(maximal natürlich; T3, S4, Apple A6).
GPU-technisch erwarte ich da 2013 SOCs, welche die Leistung der Wii U in Schatten stellt.
NovaThor L9600 und Exynos 5250(Mali t604) sollten mit der Wii U schon gut vergleichbar sein.

Nicht unbedingt; Novathor A9600 liegt bei >210 GFLOPs und Exynos 5250 bei 72 GFLOPs von den jeweiligen GPUs. Wenn dann eher 2014/2015 und man sollte auch nicht vergessen dass Konsolen designs den low level API Vorteil haben.

pittiplatsch
2012-10-13, 21:29:12
@AnarchX

Bezüglich der GPU kann ich dir widersprechen, sie wird in 28nm gefertigt, wenn mein Informant die Wahrheit sagt, mehr sag ich jetzt besser nicht. ;D

grobi
2012-10-13, 21:33:26
@AnarchX

Bezüglich der GPU kann ich dir widersprechen, sie wird in 28nm gefertigt, wenn mein Informant die Wahrheit sagt, mehr sag ich jetzt besser nicht. ;D


Das andere was du erzählt hast war ja auch Humbug........:rolleyes:

Deinorius
2012-10-13, 21:43:44
wenn mein Informant die Wahrheit sagt


Und wieso sollte man diesem Glauben schenken?

pittiplatsch
2012-10-14, 00:26:33
Ich sags mal so, ich arbeite in Frankfurt am Main, und er auch. ;D

Nightspider
2012-10-14, 02:25:34
Wurde das Bild hier schon gepostet:

http://www.ingame.de/files/2012/10/Wii-U-Jede-Menge-Hardware-Fakten-im-Interview-enth%C3%BCllt.jpg

Sieht schon lustig aus, wieviel Platz das Laufwerk prozentual einnimmt.
Meiner Meinung nach hätte BigN lieber einen Radiallüfter wie bei Grafikkarten und einen anders geformten Kühler mehmen sollen. Am besten aus Kupfer damit man die Taktraten noch etwas nach oben treiben kann.^^

Steckt der Arbeitsspeicher nun eigentlich auch mit auf dem MCM Modul?

Ich geh mal davon aus, das der Speicher die 2 Chips links oberhalb des MCM Moduls sind:

http://purenintendo.com/wp-content/uploads/2012/10/slide004.jpeg

Deinorius
2012-10-14, 02:47:26
Meiner Meinung nach hätte NV lieber [...]


Seit wann arbeitet nvidia bei der WiiU mit? ^^
RAM ist nicht auf dem MCM Module. Bis jetzt kann man 4 RAMs erkennen, die anderen beiden kannst du auf den Bilder, die schon gepostet wurden, sehen.

Nightspider
2012-10-14, 02:50:01
Nintendo meinte ich natürlich. Es ist schon spät. :usad:

Crazy_Bon
2012-10-14, 02:55:21
Sieht schon lustig aus, wieviel Platz das Laufwerk prozentual einnimmt.
Meiner Meinung nach hätte NV lieber einen Radiallüfter wie bei Grafikkarten und einen anders geformten Kühler mehmen sollen. Am besten aus Kupfer damit man die Taktraten noch etwas nach oben treiben kann.^^
Man muss bedenken, daß die Konsole nicht zu sehr heiss werden darf. Nintendo hat nun einmal den Image Konsolen für Kinder zu produzieren und in genauso welche Händen darf sie keinen Schaden anrichten (ausgenommen WiiMotes ;)). Schlimmstenfall wird sie so eingeengt und unbedacht in einem Regal oder zwischen anderen Gegenständen untergebracht, so daß ein Hitzestau vorprogrammiert wäre. Auch selbst habe ab und zu eine leere Spielehülle auf der Wii abgelegt, da aber die Wii nicht sonderlich warm wird, war das zu keiner Zeit ein Problem. Bei einer "heissen" Konsole hätte es nach einer langen Spieldauer problematisch werden können, auch schon so litten die Xbox360 und PS3 an Hitzeproblemen.

Nintendo wird wohl nie ihre Konsolen an den Grenzen des Machbaren führen, sie schalten lieber einen Gang (oder Takt) zurück und beschreiten den sicheren Weg. Kein HighEnd, aber Konsolen für die Masse, der Erfolg gibt ihnen Recht.

pittiplatsch
2012-10-14, 10:22:45
Hab mir das Bilder von der Platine mal genau angesehen, von 28nm ausgehend und mit Radeon Bildern verglichen.

Das sieht mir nach der Radeon 7000M Serie aus, da Wii-U im max. 75 Watt verbraucht, kommen die 7770M oder die 7870M (liegen um die 55Watt) in Frage, mal sehn ob ich richtig liege, wenn sies denn endlich verraten oder das Teil zerlegt wird, nach dem Launch.

Aber ich bin guter Dinge. ;D

Deinorius
2012-10-14, 10:43:09
Alter...
Wie kann man nur Konsolenhardware mit mobiler vergleichen, wenn es auch noch billig sein muss. :facepalm:

Gipsel
2012-10-14, 11:06:14
Vor allem, da auf dem GPU-Die wohl noch 32MB(?) eDRAM integriert sind. Das ist einfach kein AMD Standard-Modell, auch wenn von den Shadern her vielleicht eine große Ähnlichkeit zu irgendeiner Generation besteht. Aber eine GPU ist eben mehr als nur das, insbesondere eine Konsolen-GPU, die auch noch als Northbridge für die CPU funktioniert (beeinhaltet den Speichercontroller, d.h. die CPU greift über die GPU auf den Speicher zu) und vermutlich noch weitere Chipsatzaufgaben übernimmt.

Nakai
2012-10-14, 11:12:50
Vor allem, da auf dem GPU-Die wohl noch 32MB(?) eDRAM integriert sind. Das ist einfach kein AMD Standard-Modell, auch wenn von den Shadern her vielleicht eine große Ähnlichkeit zu irgendeiner Generation besteht. Aber eine GPU ist eben mehr als nur das, insbesondere eine Konsolen-GPU, die auch noch als Northbridge für die CPU funktioniert (beeinhaltet den Speichercontroller, d.h. die CPU greift über die GPU auf den Speicher zu) und vermutlich noch weitere Chipsatzaufgaben übernimmt.

Die Position der GPU auf dem MCM zeigt das auch schön.
Doch die Größe der CPU bereitet mir etwas Sorge. Evtl. wurde da viel in die GPU gewandert.;)
So oder so, hätte man noch sehr viel Platz auf der CPU-Seite gehabt. Wieso hat man da nicht mehr investiert?
Warscheinlich wollte Nintendo kein Subventionsgeschäft, ergo die Konsole wird gleich profitabel verkauft.

AnarchX
2012-10-14, 11:29:27
28nm wäre natürlich nett, aber ist wohl auch bitter nötig um bei ~150mm² neben >16MiB eDRAM noch genügend GPU-HW unterzubringen.


So oder so, hätte man noch sehr viel Platz auf der CPU-Seite gehabt. Wieso hat man da nicht mehr investiert?
Warscheinlich wollte Nintendo kein Subventionsgeschäft, ergo die Konsole wird gleich profitabel verkauft.
In der Tat seltsam. Ob nun ~30 oder 60mm² @ 45nm dürften wohl keine $10 ausmachen, aber im Bezug auf die CPU-Leistung locker 50%.

Nakai
2012-10-14, 13:30:47
In der Tat seltsam. Ob nun ~30 oder 60mm² @ 45nm dürften wohl keine $10 ausmachen, aber im Bezug auf die CPU-Leistung locker 50%.

Meine einzige Erklärung dafür ist, dass die Entwickler bei Nintendo ein bestimmtes Performanceziel mit dem kleinen Die bereits erreicht haben.
Nintendo ist nicht sonderlich performanceorientiert, ala "wir wollen ein höchst mögliches Leistungslevel", sondern eher " wir wollen ein bestimmtes billiges Leistungslevel". Nintendo ist da ziemlich egoistisch, die Entwickler sollten sich nach dem Konsolen-IHV richten und keine Einflussnahme haben, hauptsache Indoor-Entwickler sollten ihren Support haben.

€: Die Wii U wird wieder ein völliges zweischneidiges Schwert. Performancetechnisch werden PS720 der Wii U locker den Rang ablaufen. Nintendo kann nur hoffen mir dem einen Jahr Vorsprung bereits eine nette Nutzerbasis einzurichten um später gegen die PS720 nicht unterzugehen. Entwickler für letzteres können für drei Plattformen entwickeln: PC, PS4, Xbox720.
Die Wii U wird (bestenfalls)das gleiche Schicksal wie der Wii ereilen.

€2: Die Original Xbox360-CPU(90nm) war 168mm² groß. In 45nm wäre die Diesize bestenfalls 42mm² groß(optimale quadratische Skalierung). Die Wii U CPU misst etwa 30mm^2. Dass da einige Entwickler etwas enttäuscht von der CPU-Performance sind, sollte nun klar sein. Wenn das Ding ne höhere IPC hat, hat man diesen Vorteil dank niedrigem Takt vollständig zunichte gemacht. In welchem Prozess ist die CPU der Wii U nochmal gebaut?

00-Schneider
2012-10-14, 14:26:20
In welchem Prozess ist die CPU der Wii U nochmal gebaut?


45nm.

(Angeblich)

Lightning
2012-10-14, 14:35:00
(Angeblich)

Laut offizieller Pressemitteilung (http://www-03.ibm.com/press/us/en/pressrelease/34683.wss) von IBM. Da sollte schon was dran sein.
Man könnte sich höchstens noch an die kleine Hoffnung klammern, dass die CPU seit 2011 doch nochmal überarbeitet wurde. Darauf deutet aber nichts hin.

Coda
2012-10-14, 14:57:53
Bei der CPU-Größe bei 45nm ist das wohl auch billiger als auf 32nm zu gehen.

Nightspider
2012-10-14, 16:06:09
Aber die CPU sieht so winzig aus...passen da überhaupt mehr als 3 Kerne rein?

Nakai
2012-10-14, 16:10:13
Aber die CPU sieht so winzig aus...passen da überhaupt mehr als 3 Kerne rein?


Klaro! Die Kerne sind dann echt nicht groß. Mehr als 5mm²(wenn überhaupt) pro Kern würd ich nicht schätzen. Es müssen ja noch Cache und sonstiges IO- und Intercomzeug rein.

dildo4u
2012-10-14, 19:58:16
Aber die CPU sieht so winzig aus...passen da überhaupt mehr als 3 Kerne rein?
Natürlich was für ne Frage,denk mal an Atom,ARM etc. die sind kleiner.(Nur die CPU Kerne)

AnarchX
2012-10-14, 20:28:36
Nur die "Mengen an eDRAM" in der CPU werden wohl im Endeffekt 1-3MiB sein.

Beim Die-Size Budget liegt man wohl ähnlich wie bei der Wii: http://techon.nikkeibp.co.jp/english/NEWS_EN/20061127/124495/
... nur das eDRAM und GPU nun auf einem Die sind.

pittiplatsch
2012-10-14, 22:37:59
@Deinorius

Es geht Nintendo darum, mit wenig Stromverbrauch, die maximalmögliche Leistung zu gewinnen, ohne das sie diesmal von Xbox3 und Ps4 abgehängt werden können , in dem Maße, wies beim Wii der Fall war, und hier ist die Mobileserie der HD7000er wie geschaffen für.

Und von teuer kann man bei einer Millionenabnahme ein und desselben GPU-Chips keine Rede mehr sein, du bist kein Kaufmann oder?

Nun ich schon, und deshalb sage ich dir, das Geld ist hier kein Problem. ;D

Deinorius
2012-10-14, 22:41:57
Es geht Nintendo darum, mit wenig Stromverbrauch, die maximalmögliche Leistung zu gewinnen,[...]


Und die Kosten sind also völlig egal, oder wie? :freak:
Anscheinend hast du weniger Ahnung, als du glaubst. Frage dich lieber was den Unterschied zwischen einem AMD Zacate mit 18 W TDP und einem Core i3/5/7 mit 17 W TDP ausmacht, was IMO ein ziemlich guter Vergleich sein dürfte.

Ailuros
2012-10-14, 22:45:45
@Deinorius

Es geht Nintendo darum, mit wenig Stromverbrauch, die maximalmögliche Leistung zu gewinnen, ohne das sie diesmal von Xbox3 und Ps4 abgehängt werden können , in dem Maße, wies beim Wii der Fall war, und hier ist die Mobileserie der HD7000er wie geschaffen für.

Vielleicht hilft es den eDRAM Faktor mitzuberechnen?

Und von teuer kann man bei einer Millionenabnahme ein und desselben GPU-Chips keine Rede mehr sein, du bist kein Kaufmann oder?

Nun ich schon, und deshalb sage ich dir, das Geld ist hier kein Problem. ;D

Im Netz kann jeder behaupten was er will. Was jeder hier beruflich macht, interessiert keinen und aendert auch nicht die Logik oder das Gewicht einer jeglichen Aussage.

pittiplatsch
2012-10-14, 22:47:23
Entschuldige aber bei Millionenabnahme eines Chipauftrages bewegen wir uns bei 40 bis 50 Dollar pro Stück, also wie ich bereits sagte, das ist nicht das Thema, die hätten auch mehr gehn können für nen Videorecordercase, wollten sie aber nicht, sondern smart bleiben und trotzdem Power, was geil ist. ;D

Kommt noch die CPU, der RAM und eDRam hinzu, zusammen max. 60 bis 70 Dollar pro Konsole, mit Ausnahme des Laufwerks ~15 bis 20 Dollar, die anderen Dinge bewegen sich im einstelligen Bereich, ich sag das ganze Ding kostet bis zum Händler 220 bis 240 Dollar, kleine Gewinnmarge für N und noch kleinere für den Händler, gut er machts über Bundles mit Garantien und den Scheiss, kanns abschreiben und macht über die Ausfallversicherung so oder so Gewinn, mmh maybe.

Aber da läufts auch über die Spiele selbst, ~60 Euro/Dollar, Realkosten bis zum Regal 25 Euro/Dollar, alles klar! ;D

Dennoch kein schlechter Deal für den Käufer, er bekommt ein DX11-Equivalent mit smartem Gehäuse, Pad und gutem Onlinesystem für lau, da fährt er mit Apple deutlich schlechter, aber 100pro. ;D

MR2
2012-10-15, 00:03:48
Zum jetzigen Zeitpunkt die schnellste Konsole, aber technisch nicht so weit von der nächsten Konsolengeneration entfernt. So 50 - 60% der technischen Möglichkeiten der Konsole sollen ja bei den Launch-Titeln erst ausgenutzt werden. Wenn sie den Spagat schaffen wäre das eine tolle Sache. Ich habe eine Xbox360 Elite geschenkt bekommen.. Die ist so laut, wie man mit dem Ding spielen kann ist mir ein Rätsel. So wird das wohl auch wieder sein. Die erste Generation von ps4 und xbox720 sind sicher viel zu laut.
Zum ersten Mal seit dem Cd32 kaufe ich mir wieder eine Konsole, das wird die Wii U.

Wii U: Ubisoft lobt Technik des Tablet-Controllers
http://www.videogameszone.de/Wii-U-Hardware-233619/News/Wii-U-Ubisoft-lobt-Tablet-Technik-1030155/

Skysnake
2012-10-16, 11:31:11
Klaro! Die Kerne sind dann echt nicht groß. Mehr als 5mm²(wenn überhaupt) pro Kern würd ich nicht schätzen. Es müssen ja noch Cache und sonstiges IO- und Intercomzeug rein.
Das ist halt die Frage, wieviel I/O da drauf ist.

Der RAM-Controller ist ja scheinbar nur in der GPU, und für die Kommunikation zwischen CPU und GPU brauchts keine großen Treiber. Das bekommste SEHR platzsparend unter.

Die effektiv nutzbare Fläche kann also durchaus deutlich größer sein als bei PS3/XBOX360. Da sind es ja glaube ich wirklich getrennte Packages. Man braucht also größere Treiber usw.

Alles aber schwer ein zu schätzen. Man wird wohl einfach schauen müssen, was da kommt. Zudem sollte wohl klar sein, dass sich die Entwickler mehr gewünscht hätten.. :rolleyes: Mehr bedeutet immer, das man "fauler" sein kann beim programmieren, weil man eben nicht so sehr aufpassen muss um ein gewisses Performanceziel zu erreichen...

Weniger als bei PS3 und X360 glaube ich aber wird es nicht werden. Nur halt "anders" zu nutzen. Wie bei jeder Konsole halt. Klar dass die da Meckern...

Ich seh als größten Vorteil für Nintendo halt, dass Sie das Ding wohl mit + verkaufen werden, für >=1 Jahr, eventuell sogar 2 Jahre die stärkste Konsole am Markt haben werden, und eben viel billiger sein werden als die PS4 und XBOX720, wenn diese erscheinen.

Man muss ja auch bedenken, das je nachdem Nintendo auch schon wieder 3-5 Jahre, nach dem Start der PS4/XBOX720 eine neue Konsole bringen kann, einfach weil man mit der auch wieder + machen wird beim Verkauf. Man hat also nicht sooo den Druck, die Konsole möglichst lange am Markt zu halten wie Microsoft und Sony. Da wird der Abstand dann halt auch wieder sehr schnell sehr klein.

starfish
2012-11-02, 11:33:35
Madden 13 lacks the CPU-intensive Infinity physics system that made such a big impact in the 360 and PS3 versions...

... Speaking with producer Yuri Bialoskursky... ..., I learned this is largely the result of the game's incomprehensibly short development cycle. The team began experimenting with prototypes this past February, and didn't formally begin production until April.

So while it isn't feature identical with this year's other versions, EA Tiburon did manage between April and October to build a visually comparable game of football that has some new ideas for the Wii U controller, supports Connected Career mode, basic online multiplayer, Gridiron Club, and offers Total Control Passing. Madden 13 is a paradox, missing some things but still ready for certification in roughly the same amount of time it takes to make an iPhone game.

http://www.ign.com/articles/2012/10/31/making-madden-for-wii-u-in-six-months

Skysnake
2012-11-02, 13:05:11
Und was soll uns das sagen?

Der Aufwand um für die WiiU ein Spiel zu erstellen ist "lächerlich" gering?

Lightning
2012-11-05, 17:02:13
Bei notenoughshaders.com (http://www.notenoughshaders.com/2012/11/03/shinen-mega-interview-harnessing-the-wii-u-power/) gibt es ein Interview mit einem Entwickler von "Nano Assault Neo".
Viel ins Detail geht es leider nicht, ganz interessant ist aber dennoch u.a. diese Aussage:

"The performance problem of hardware nowadays is not clock speed but ram latency. Fortunately Nintendo took great efforts to ensure developers can really work around that typical bottleneck on Wii U. They put a lot of thought on how CPU, GPU, caches and memory controllers work together to amplify your code speed."

Felixxz2
2012-11-05, 17:42:14
Wurde schonmal gepostet, dass die Wii U laut einem Nintendo Typen 2GB RAM hat?

http://videos.pcgameshardware.de/hdvideo/11736/Wii-U-erstes-HandsOn-plus-Interview-mit-Nintendo

thade
2012-11-05, 17:46:09
Wurde schonmal gepostet, dass die Wii U laut einem Nintendo Typen 2GB RAM hat?

http://videos.pcgameshardware.de/hdvideo/11736/Wii-U-erstes-HandsOn-plus-Interview-mit-Nintendo

Ja 1GB für Spiele, 1GB für den "Rest".

Hoffentlich wird mit der Zeit mehr Ram für Spiele freigegeben, wenn es denn praktikabel ist. :)

Locuza
2012-11-08, 18:53:37
The power is strong with this one:
http://assets1.ignimgs.com/2012/11/08/wiiusystem-21jpg-5a7cdd_640w.jpg

Die Controller in der Übersicht:
http://assets2.ignimgs.com/2012/11/08/wiiusystem-18jpg-5a7cdc_640w.jpg

MartinB
2012-11-08, 19:07:40
Ich finde es immer wieder erstaunlich wie dreist der Pro Controller doch kopiert wurde.

Locuza
2012-11-08, 19:11:16
Ich finde es immer wieder erstaunlich wie dreist der Pro Controller doch kopiert wurde.
Die Form durchaus, aber die Mechanik ist ja anders angeordnet.
Aber wenn wir uns wegen der Form kloppen wollen, wieso besuchen wir nicht einen Apple-Thread? ;)

Coda
2012-11-08, 19:15:42
Ich finde es immer wieder erstaunlich wie dreist der Pro Controller doch kopiert wurde.
Gibt ja auch unendlich Möglichkeiten einen handfreundlichen Controller zu bauen.

Skysnake
2012-11-08, 20:49:33
Und vor allem, wer sagt, dass dafür keine Lizenz vorhanden ist? :rolleyes:

Tomi
2012-11-09, 09:12:47
Gibt ja auch unendlich Möglichkeiten einen handfreundlichen Controller zu bauen.
Durchaus ;). Schaut man sich die Geschichte der Controller an, gibts da eine Menge unterschiedliches Design. Ergonomie hat da allerdings selten eine Rolle gespielt, das stimmt schon. MS hat aber wohl mit seinem XBox Controller sowas wie den heiligen Gral gefunden. Für mich jedenfalls der beste den ich je in Händen gehalten habe. Von mir aus können andere das gern kopieren.

AnarchX
2012-11-18, 10:37:50
http://forum.beyond3d.com/showpost.php?p=1680114&postcount=3188

Nur 64-Bit Bandbreite für den 2GiB-DDR3-Speicherpool? Laut den Speicherspecs wohl irgendwo zwischen 13 und 17GB/s.

Lightning
2012-11-18, 11:14:09
Schade, hätte mit einem 128-Bit-Bus gerechnet.

Bandbreitenvergleich:
360: 22.4 GB/s
PS3: 25.6 GB/s (XDR), 22.4 GB/s (GDDR3)

Wird interessant, wie groß und schnell der eDRAM ist.

00-Schneider
2012-11-18, 11:57:17
Was bedeutet das für die Gesamtperformance des Systems? Längere Ladezeiten, schlechteres Streaming?

Knuddelbearli
2012-11-18, 11:59:28
kommt auf den edram an

AnarchX
2012-11-18, 12:04:35
Was bedeutet das für die Gesamtperformance des Systems? Längere Ladezeiten, schlechteres Streaming?
13GB/s+ sind trotzdem noch Welten mehr als die Geschwindigkeit von ROM oder SSD, insofern ist hier eher die Größe wohl vorteilhafter. Langfristig wird man wohl sicherlich mehr als 1GiB für Spiele freigeben.

Generell ist die Idee eines günstigen, großen Speicherpools mit trotzdem relativ hoher Geschwindigkeit nicht verkehrt, solang eben die GPU genügend Bandbreite erhält. Fragt sich nur was bei ~160mm² an eDRAM integrierbar ist.

xyleph
2012-11-18, 12:41:34
Klar ist die Idee nicht verkehrt, trotzdem wirkt es selbst gegenüber den sieben Jahre alten Konsolen doch ernüchternd, wenn selbst die Hauptbandbreite um gut ein Viertel geringer ist, und überhaupt ist es ernüchternd dass man es auf diese Weise mit den alten Konsolen vergleichen muss. Für mich schwer vorstellbar, dass der eDRAM noch die Wunder vollbringen kann um ansatzweise in die Bereiche der Nachfolgerkonsolen von Sony und MS zu kommen. Und da fangen die Probleme an.

Skysnake
2012-11-18, 12:53:16
13GB/s+ sind trotzdem noch Welten mehr als die Geschwindigkeit von ROM oder SSD, insofern ist hier eher die Größe wohl vorteilhafter. Langfristig wird man wohl sicherlich mehr als 1GiB für Spiele freigeben.

Generell ist die Idee eines günstigen, großen Speicherpools mit trotzdem relativ hoher Geschwindigkeit nicht verkehrt, solang eben die GPU genügend Bandbreite erhält. Fragt sich nur was bei ~160mm² an eDRAM integrierbar ist.
Was hat denn bitte nen ROM oder ne SSD mit dem Hauptspeicher zu tun? :freak:

Das sind doch zwei völlig verschiedene paar Schuhe...

Die Bandbreite ist schon ziemlich niedrig. Ich hätte da schon mit mehr gerechnet. Zwar kann der eDRAM noch einiges raus reisen, aber der so doch lieber etwas üppiger ausfallen.

Gipsel
2012-11-18, 12:56:01
Was hat denn bitte nen ROM oder ne SSD mit dem Hauptspeicher zu tun? :freak:Genau! Schau mal, worauf AnarchX geantwortet hat. ;)

Lightning
2012-11-18, 12:59:47
Klar ist die Idee nicht verkehrt, trotzdem wirkt es selbst gegenüber den sieben Jahre alten Konsolen doch ernüchternd, wenn selbst die Hauptbandbreite um gut ein Viertel geringer ist, und überhaupt ist es ernüchternd dass man es auf diese Weise mit den alten Konsolen vergleichen muss. Für mich schwer vorstellbar, dass der eDRAM noch die Wunder vollbringen kann um ansatzweise in die Bereiche der Nachfolgerkonsolen von Sony und MS zu kommen. Und da fangen die Probleme an.

Nintendo will auch gar nicht ernsthaft mit Sony und MS konkurrieren, was die Hardwareleistung angeht. Hat Iwata selbst mal in einem Interview gesagt, dass es Nintendo egal ist, was Sony und MS in 2013 (oder 2014) diesbezüglich bringen.

xyleph
2012-11-18, 13:20:34
Nintendo will auch gar nicht ernsthaft mit Sony und MS konkurrieren, was die Hardwareleistung angeht. Hat Iwata selbst mal in einem Interview gesagt, dass es Nintendo egal ist, was Sony und MS in 2013 (oder 2014) diesbezüglich bringen.

Gleichzeitig versicherte er einen weiterführenden 3rd Party Support. Wird schwer, wenn WiiU jetzt schon bei Bandbreite und CPU gegenüber der PS3 und der 360 kränkelt.

Skysnake
2012-11-18, 14:12:40
Genau! Schau mal, worauf AnarchX geantwortet hat. ;)
Die Antwort passt aber nicht zur Frage :ugly:

Die Frage ist nämlich nonsens...

Ladezeiten werden von der HDD/SSD und eben der CPU bestimmt, die X Vorarbeiten/Initialisierungen durchführen muss. Da ist die Bandbreiten vom RAM ziemlich fürn Poppes.

Gipsel
2012-11-18, 14:34:31
Ladezeiten werden von der HDD/SSD und eben der CPU bestimmt, die X Vorarbeiten/Initialisierungen durchführen muss. Da ist die Bandbreiten vom RAM ziemlich fürn Poppes.Und genau das hat er gesagt (RAM ist so viel schneller als das Laufwerk, daß es keine Rolle spielt) mit dem Zusatz, daß mehr RAM da vielleicht etwas hilft (weil mehr dort drin gehalten werden kann und nicht ständig irgendwas nachgeladen werden muß), aber nicht schnellerer RAM. ;)

Felixxz2
2012-11-18, 15:39:36
Aber selbst mit einem großen eDRAM dürfte das doch bremsend wirken auf die GPU. Selbst ein iPad hat 128 Bit :freak:.

Ich halte die geringe Hardwarepower aber immernoch für einen kapitalen Fehler.
Vielleicht ist es Nintendo egal, ob die anderen schneller sind. Den Entwicklern und dem Markt aber nicht und wschl werden wir wieder die Situation sehen, dass große AAA Titel nicht für Wii U kommen, weil die Hardware zu schwach ist. Und das kann nicht Nintendos Ziel sein, zumindest nicht heutzutage. Kein Single Konsolero der kein dezidierter Nintendo-Franchise Fan mit Vorgeschichte ist, wird sich eine Konsole ohne CoD, Battlefield, AC oder GTA kaufen. Und diese Titel werden nicht mehr für Wii U kommen, sobald die Franchise auf Xbox 3/PS4 angekommen ist.

G 80
2012-11-18, 16:05:26
Dein Wort in Gottes Ohr.

Ich habe immer noch diese Panik vor nem Lemming-Run und dem daraus folgenden "kleinsten gemeinsamen Nenner mit modernem Feature Set". :udown:

Lightning
2012-11-18, 16:45:27
Aber selbst mit einem großen eDRAM dürfte das doch bremsend wirken auf die GPU. Selbst ein iPad hat 128 Bit :freak:.

Mit 128 bit und dafür ohne eDRAM wäre es wahrscheinlich auch nicht billiger gekommen. Die werden sich schon was dabei gedacht haben.

Ich halte die geringe Hardwarepower aber immernoch für einen kapitalen Fehler.
Vielleicht ist es Nintendo egal, ob die anderen schneller sind. Den Entwicklern und dem Markt aber nicht und wschl werden wir wieder die Situation sehen, dass große AAA Titel nicht für Wii U kommen, weil die Hardware zu schwach ist. Und das kann nicht Nintendos Ziel sein, zumindest nicht heutzutage. Kein Single Konsolero der kein dezidierter Nintendo-Franchise Fan mit Vorgeschichte ist, wird sich eine Konsole ohne CoD, Battlefield, AC oder GTA kaufen. Und diese Titel werden nicht mehr für Wii U kommen, sobald die Franchise auf Xbox 3/PS4 angekommen ist.

Bei der Wii hat es doch auch funktioniert.
Das Knackpunkt ist imo viel weniger die Hardwareleistung als die Frage, ob das neue Pad bei den Kunden ankommt wie erwünscht. Wenn ja, dann halte ich es für gut möglich, dass man die Konkurrenz ein weiteres Mal übertrumpft. Anderenfalls wird man zurückfallen.

PS: CoD gab es bisher immer für Wii.

Felixxz2
2012-11-18, 20:16:37
Mit 128 bit und dafür ohne eDRAM wäre es wahrscheinlich auch nicht billiger gekommen. Die werden sich schon was dabei gedacht haben.

Das ist halt der Punkt. Preis steht vor allem anderen und nicht Preis/Leistung. Ich kann mir nicht vorstellen, dass das System an der Bandbreite voll ausgefahren werden kann oder seh ich das falsch?


Bei der Wii hat es doch auch funktioniert.
Das Knackpunkt ist imo viel weniger die Hardwareleistung als die Frage, ob das neue Pad bei den Kunden ankommt wie erwünscht. Wenn ja, dann halte ich es für gut möglich, dass man die Konkurrenz ein weiteres Mal übertrumpft. Anderenfalls wird man zurückfallen.

PS: CoD gab es bisher immer für Wii.

Die Wii als ganzes hat nicht wirklich funktioniert. Wo ist denn Nintendo heute? Nach nem anfägnlichen Hype ist das ganze total zusammengebrochen, weil der Casualmarkt gesättigt war und die Leute zu wenig Spiele gekauft haben. Man hat am Anfang viel verkauft und viel verdient, sich aber keine solide Basis aufgebaut. Eben weil man hauptsächlich an Casuals verkauft hat. Und ob dieses jetzt in den Laden für ne Wii U rennen halte ich für sehr fraglich, denn an hat ja schon ne Wii. Vor allem spricht die Wii die Hauptläuferschicht für Konsolen (14-30 jährige Männer) nicht wirklich an, weil eben alle bekannten 3 Party Spiele fehlen. Und dieses Schicksal sehe ich für die Wii U auch, einfach wegen der schlechten Hardware.

Ich verstehe Nintendo da auch nicht. Man hätte doch auch eine Wii/Wii U mit aktueller Hardware UND Wii Mote/Tablet basteln können. Dann hätte man die Casuals UND die Hardcore Gamer mitnehmen können und hätte eine stabile Kundschaft die vor allem Geld durch Spielekäufe reinbringt.

Aber gut, mir ist Nintendo eig wurst, nur schade um die schönen Spieleserien. Man hat das ganze ein bisl zum Kinderkram umgebaut bzw. die Zeichen der Zeit verschlafen.

Lightning
2012-11-18, 21:06:48
Das ist halt der Punkt. Preis steht vor allem anderen und nicht Preis/Leistung. Ich kann mir nicht vorstellen, dass das System an der Bandbreite voll ausgefahren werden kann oder seh ich das falsch?

Was ich sagen wollte: eDRAM ist teuer. Das hätte man sich schenken (oder kleiner auslegen) können, und zum selben Preis den DDR3 breiter anbinden können. Man hat sich sicher nicht mit Absicht für eine andere Lösung entschieden, um sich einen Flaschenhals zu schaffen, sondern weil man der Meinung war, dass es (für den Einsatzbereich der Konsole) effizienter ist.

Die Wii als ganzes hat nicht wirklich funktioniert. Wo ist denn Nintendo heute? Nach nem anfägnlichen Hype ist das ganze total zusammengebrochen, weil der Casualmarkt gesättigt war und die Leute zu wenig Spiele gekauft haben. Man hat am Anfang viel verkauft und viel verdient, sich aber keine solide Basis aufgebaut. Eben weil man hauptsächlich an Casuals verkauft hat.

Bitte? Die Wii war ein fantastischer Erfolg für Nintendo. Man hat vier Jahre lang (das kann man nicht mehr als anfänglichen Hype bezeichnen) die Konkurrenz dominiert, und dabei an jeder verkauften Konsole verdient. Die Wii hat sich bis heute über viermal so oft verkauft wie die Vorgängerkonsole.

Ich verstehe Nintendo da auch nicht. Man hätte doch auch eine Wii/Wii U mit aktueller Hardware UND Wii Mote/Tablet basteln können. Dann hätte man die Casuals UND die Hardcore Gamer mitnehmen können und hätte eine stabile Kundschaft die vor allem Geld durch Spielekäufe reinbringt.

Hätte man nicht, weil es den Preis weiter nach oben getrieben hätte.
Und zudem: Schau dir an, wie es damals dem Gamecube ergangen ist. Der war technisch voll konkurrenzfähig, ist aber dennoch beinahe geflopt. Daraus hat Nintendo eben seine Lehren gezogen und den Schwerpunkt verlagert.

mr coffee
2012-11-18, 21:08:02
Ich kann Nintendo in dem Bereich auch nicht ganz verstehen. Man hat doch viel zeitlichen Vorsprung gegenüber Microsoft / Sony. D.h., man hätte den VKP auf 399.- setzen können und auf 349.- runter gehen können, sobald die Konkurrenz am Markt ist. Für die Differenz hätte man einen besseren Touchscreen implementieren können und die Konsole eindeutig schneller als die aktuellen Konsolen machen können. Das hätte auch die Core-Gamer richtig geil gemacht.
So ist es irgendwie nichts halbes und nichts ganzes, irgendwie halbherzig.

del_4901
2012-11-18, 22:00:18
Was ich sagen wollte: eDRAM ist teuer. Das hätte man sich schenken (oder kleiner auslegen) können, und zum selben Preis den DDR3 breiter anbinden können.
Ueber die Laufzeit der Konsole wird eDRAM wieder billiger. Die Kosten fuer das DDR3 Interface bleiben auf dem status quo. Und meiner Erfahrung nach denke ich auch nicht das ein breiteres Interface schneller waehre als eDRAM.

Skysnake
2012-11-18, 22:03:40
Vor allem ist die Bandbreite, die der eDRAM zur Verfügung stellt ein vielfaches von dem, was man per DDR/GDDR machen kann.

Man hat halt nur recht wenig davon. Da man auf Konsolen aber eh hardwarenäher programmiert, und eben nur EINE Hardware hat, kann man sich darum auch recht effizient kümmern.

Die Frage ist halt wirklich nur, wie groß ist der eDRAM.

PS:
Heute ist ja Verkaufsstart in den USA. Sollte es da nicht mal fixe specs geben?

starfish
2012-11-18, 22:36:40
Man hört doch immer wieder, grad aus der Ubisoft Ecke, dass sie, vor allem mit der Größe des Arbeitsspeichers, sehr zufrieden sind.

Also kann ich mir schon vorstellen, das sie grade mit dem eDRAM doch was richtig gemacht haben müssen.
Bisher wurde, wenn dann, über die CPU gejammert.

Felixxz2
2012-11-19, 00:14:52
@Lightning

Ja sie war ein großer Erfolg. Aber eben kein Langfristiger. Und jetzt ist Nintendo schon wieder in der Klemme, genauso wie 2006.


Auf Eurogamer hab ich gelesen, dass 32MB eDRAM drin sind. Weiß nicht obs stimmt, aber das ist doch eher recht wenig.

Deinorius
2012-11-19, 00:22:05
Das ist für das Leistungsniveau eher viel, die Xbox 360 hat im Vergleich nur 10 MB. Sofern diese Menge wirklich stimmt.

Felixxz2
2012-11-19, 00:30:16
Die 360 hat aber auch ein 128 Bit DDR Interface. Die WiiU gurkt irgendwo bei iPad Bandbreiten rum. Ich hab jetzt keine genaue Ahnung über VRAM Aufteilung und die geforderte Bandbreite der Elemtente, habe aber meine Zweifel ob es reicht 32MB so zu beschleunigen und den Rest absaufen zu lassen.

Skysnake
2012-11-19, 00:33:34
@Lightning

Ja sie war ein großer Erfolg. Aber eben kein Langfristiger. Und jetzt ist Nintendo schon wieder in der Klemme, genauso wie 2006.


Auf Eurogamer hab ich gelesen, dass 32MB eDRAM drin sind. Weiß nicht obs stimmt, aber das ist doch eher recht wenig.
WHAT? :ugly:

32MB ist ne GANZE Menge...

Sorry, aber erst bischen informieren, bevor man so was los lässt. Das ist mehr, als nen Bulldozer oder SB-E als L3 Cache hat. Selbst nen Power7 hat nur maximal 32MB eDRAM bei 8 Cores. Erst der Power7+ hat dann bis zu 10MB/Core, was bei bis zu 10 Cores eben bis zu 80MB eDRAM ausmacht. Aber das ist nen ganz anderes Kaliber, als der Chip der WiiU.

Btw. Warum klingt das so arg nach Power7?

Felixxz2
2012-11-19, 00:36:32
Der eDRAM bezieht sich auf GPU, nicht CPU.

There will be comparisons with Microsoft's Xbox 360 integrated CPU/GPU which shows more balance in terms of die area between the two major components, but it's worth pointing out that Nintendo appears to have integrated its 32MB of eDRAM into the graphics core itself, while it remains a daughter die on the 360.

Skysnake
2012-11-19, 00:54:46
Und wo ist da jetzt der Unterschied? Die Aufgabe ist die Gleiche... Man will Cacheingeffekte ausnutzen/generieren. Ob das jetzt ne "CPU" oder ne "GPU" ist, ist den Daten bzw. dem Interface ziemlich scheis egal.

Es geht nur ums Prinzip...

Und da sind 32MB eDRAM schon ziemlich fett. Man muss nur schauen, wie sich die ganze Sache durch die Engines bewerkstelligen lässt. Kann leider nicht abschätzen, wieviel Daten ne GPU für so 5-50 Frames im Schnitt braucht. Also unterschiedliche Daten.

Btw. wenn GCN in der WiiU drin ist, dann hat man ja noch den Vorteil des teilweisen Ladens von Texturen. Das würde die effektive Nutzung des eDRAMs auch deutlich vereinfachen. Je nachdem müsste sich der Egine-Programmierer doch gar nicht darum kümmern oder?

del_4901
2012-11-19, 01:15:43
Und wo ist da jetzt der Unterschied? Die Aufgabe ist die Gleiche... Man will Cacheingeffekte ausnutzen/generieren. Ob das jetzt ne "CPU" oder ne "GPU" ist, ist den Daten bzw. dem Interface ziemlich scheis egal.

Es geht nur ums Prinzip...

Und da sind 32MB eDRAM schon ziemlich fett. Man muss nur schauen, wie sich die ganze Sache durch die Engines bewerkstelligen lässt. Kann leider nicht abschätzen, wieviel Daten ne GPU für so 5-50 Frames im Schnitt braucht. Also unterschiedliche Daten.

Btw. wenn GCN in der WiiU drin ist, dann hat man ja noch den Vorteil des teilweisen Ladens von Texturen. Das würde die effektive Nutzung des eDRAMs auch deutlich vereinfachen. Je nachdem müsste sich der Egine-Programmierer doch gar nicht darum kümmern oder?
Ich denke nicht das der eDRAM als Cache verwendet wird. Er wird wohl immernoch manuel verwaltet werden. Was meinst du mit teilweisen laden von Texturen? Megatexture like Optimierungen? Soweit ich weis ist bei dem ganzen GPU virtual memory kram auch noch viel Handarbeit zu leisten. Aber alles in allem sind 32MB schon recht viel und man kann als Entwickler sehr zufrieden damit sein.

Felixxz2
2012-11-19, 01:16:25
@Skysnake
Normalerweise schon aber durch die geringe Bandbreite des normalen RAMs wird der eDRAM doch komplett für GPU Aufgaben gebraucht.

Skysnake
2012-11-19, 01:25:37
Ich denke nicht das der eDRAM als Cache verwendet wird. Er wird wohl immernoch manuel verwaltet werden. Was meinst du mit teilweisen laden von Texturen? Megatexture like Optimierungen? Soweit ich weis ist bei dem ganzen GPU virtual memory kram auch noch viel Handarbeit zu leisten. Aber alles in allem sind 32MB schon recht viel und man kann als Entwickler sehr zufrieden damit sein.
Bei der GCN Grafik-Demo/Vorstellung wurde doch erzählt, das man (automatisch? zumindest meine ich mich daran zu errinnern) nur Texturteile lädt, anstelle der gesamten Textur.

Ich meine das hier: http://www.anandtech.com/show/5261/amd-radeon-hd-7970-review/6

Bei 64kB Tiles, hat man bei 32 MB theoretisch 512 tiles Das ist schon nicht schlecht. Damit kann man die Bandbreitenanforderung an den Speicher der GPU schon massiv nach unten drücken.

@Skysnake
Normalerweise schon aber durch die geringe Bandbreite des normalen RAMs wird der eDRAM doch komplett für GPU Aufgaben gebraucht.
Dafür ist er auch da...

del_4901
2012-11-19, 01:26:09
@Skysnake
Normalerweise schon aber durch die geringe Bandbreite des normalen RAMs wird der eDRAM doch komplett für GPU Aufgaben gebraucht.
Aber das ist doch gut, dann qualmt die GPU wenigstens ordentlich wenn der eDRAM saturiert. Ich denke das der eDRAM eh nur GPU exclusiv ist.

PS: Wenn Nintendo/AMD den eDRAM in den Chip integriert hat dann spaaren sich den Speicher fuer die earlyZ rejection und etwas Logik, weil sie so direkt aus dem Depthbuffer lesen koennen. In diesem Fall wird der eDRAM schon recht schnell und "latenzarm" sein.

del_4901
2012-11-19, 01:33:55
Bei der GCN Grafik-Demo/Vorstellung wurde doch erzählt, das man (automatisch? zumindest meine ich mich daran zu errinnern) nur Texturteile lädt, anstelle der gesamten Textur.

Ich meine das hier: http://www.anandtech.com/show/5261/amd-radeon-hd-7970-review/6

Bei 64kB Tiles, hat man bei 32 MB theoretisch 512 tiles Das ist schon nicht schlecht. Damit kann man die Bandbreitenanforderung an den Speicher der GPU schon massiv nach unten drücken.
Ja PRT ist eine Optimierung fuer Megatexture, anstatt sich die Indirektionstabellen mit Hilfstexturen und dependent texture reads nachzubauen bekommt man mit GCN zugriff auf die internen Abbildungstabellen fuer den virtuellen Adressraum. Damit wird der ganze Kram "Hardware beschleunigt" was wo zu liegen hat muss man aber immernoch selber angeben.
der eDRAM wird wohl zu grossen Teilen (oder ausschlieslich) fuer den Framebuffer genutzt werden, da sind die Bandbreitenanforderungen am hoechsten. Bei texture reads kann man zwar auch vom eDRAM profitieren (Postprocessing!!!) aber das sind die Bandbreitenanforderungen meisst nicht so wild und "normales sampling" kann auch gut durch die texture caches beschleunigt werden.

dildo4u
2012-11-19, 04:06:28
Anandtech Wii U Tweardown

http://www.abload.de/img/wii_u_power2dpav.png

http://i.imgur.com/XxkDL.png

http://www.neogaf.com/forum/showthread.php?t=500424

Krass wenig Verbrauch war wohl wichtiger als Performance.

Deinorius
2012-11-19, 05:13:11
Krass wenig Verbrauch war wohl wichtiger als Performance.


Hast du das Gehäuse noch nicht gesehen? Außerdem ist das ein CPU-Benchmark. Dass es so ungefähr aussehen wird, war schon beim Blick auf das Package mit den DIEs ersichtlich. Und trotz allem sieht man daraus nicht hervor, wieviele Kerne die CPU hat.
Ein Benchmark für die GPU wäre deutlich interessanter.

Edit:
Und wenn ich das richtig lese...

There are four 4Gb (512MB) Hynix DDR3-800 devices surrounding the Wii U's MCM (Multi Chip Module).


Es war ständig die Rede von 2 GB, dass viele wohl davon ausgegangen sind und jetzt DAS! :eek:
Darüber hinaus macht Anand den Fehler, die DIE-Size auf einen RV740 zu schätzen, weil er den eDRAM Teil nicht mit eingerechnet.

dargo
2012-11-19, 07:09:28
Die 360 hat aber auch ein 128 Bit DDR Interface.
Und? Trotzdem nur 30% mehr Bandbreite.

Anandtech Wii U Tweardown

http://www.abload.de/img/wii_u_power2dpav.png

http://i.imgur.com/XxkDL.png

http://www.neogaf.com/forum/showthread.php?t=500424

Krass wenig Verbrauch war wohl wichtiger als Performance.
Ui... das ist in der Tat verdammt wenig.

Hast du das Gehäuse noch nicht gesehen? Außerdem ist das ein CPU-Benchmark. Dass es so ungefähr aussehen wird, war schon beim Blick auf das Package mit den DIEs ersichtlich.
Also ich sehe da auch den Stromverbrauch beim Spielen. Die TDP wird natürlich höher liegen.


Edit:
Und wenn ich das richtig lese...

Ok... also doch nur 12,8GB/s Bandbreite.
http://www.neogaf.com/forum/showpost.php?p=44468558&postcount=1

Dann hat die Box 75% mehr.

mr coffee
2012-11-19, 07:15:20
Es war ständig die Rede von 2 GB, dass viele wohl davon ausgegangen sind und jetzt DAS! :eek:


Das sind doch auch 2GB (4*4GBit/8), oder worauf willst du hinaus?

mboeller
2012-11-19, 08:37:02
32 MB = 1920 x 1080 x 32bit x 4fach MSAA - Z-Buffer

starfish
2012-11-19, 08:49:29
Man hört doch immer wieder, grad aus der Ubisoft Ecke, dass sie, vor allem mit der Größe des Arbeitsspeichers, sehr zufrieden sind.

Also kann ich mir schon vorstellen, das sie grade mit dem eDRAM doch was richtig gemacht haben müssen.
Bisher wurde, wenn dann, über die CPU gejammert.
32 MB = 1920 x 1080 x 32bit x 4fach MSAA - Z-Buffer

Und das benutzen Nintendo und die 3rd Parties aktuell nicht, weil es etwas Aufwand bedeutet?

Grade für Nintendo ist das doch komisch, wenn es so wäre.

Lightning
2012-11-19, 08:54:36
Daher denke ich auch, dass der eDRAM flexibler benutzbar ist als nur für den Framebuffer.

Gipsel
2012-11-19, 08:56:32
32 MB = 1920 x 1080 x 32bit x 4fach MSAA - Z-Buffer
Vielleicht nutzen sie ja anders als noch Xenos framebuffer compression (jede neuere GPU kann das)? Nachteil wäre, daß die genaue Größe vom Inhalt abhängt und nicht konstant ist, aber man spart einen Großteil des zusätzlichen Speichers für die MSAA-Samples.

AnarchX
2012-11-19, 10:30:12
Die Bandbreite der GPU ist jedoch ein Schlag ins Gesicht und ich denke nicht, dass wir noch die Ultra Grafikperlen erleben werden.

Zwischen dem 12,8GB/s DDR3 und der GPU wird höchstwahrscheinlich noch ein eDRAM sitzen, welche die effektive Bandbreite für die GPU deutlich steigert.

Aber im Endeffekt sollte man kein wirklich deutlich besseres Grafik-Niveau als bei PS360 erwarten. Teilweise könnte der größere Speicher vielleicht für bessere Texturen und mehr Content-Vielfalt sorgen.

Rancor
2012-11-19, 10:36:44
Theoretisch müsste die GPU, selbst wenn es nur ein R740 (Radeon 4750, )Derivat ist (was an sich schon lächerlich ist ^^ ), wesentlich schneller sein als die GPUs in PS360.

AnarchX
2012-11-19, 10:44:19
RV740 also 640SPs, könnte schon etwas zu viel sein. Immerhin sind es nur ~160mm², wo bei (wahrscheinlich) 40nm wohl knapp ~60mm² für den spekulierten 32MiB eDRAM benötigt werden. Weiterhin sind da noch einige andere Dinge integriert, sodass man wohl bei <=400SPs herauskommt. Im Endeffekt bleibt ein eher übersichtlicher Geschwindigkeitsvorteil, der momentan vielleicht auch durch eine schlechtere API/fehlende Erfahrung nicht ausgespielt werden kann.

Generell wirkt es so, dass man sich zu sehr an einem Leistungsziel orientiert hat und die Preis-Leistung augeblendet hat, erst recht wenn man sich die lächerliche 33mm² CPU anschaut, wo eine Verdopplung wohl keine $10 kostet.

Rancor
2012-11-19, 10:48:58
... erst recht wenn man sich die lächerliche 33mm² CPU anschaut, wo eine Verdopplung wohl keine $10 kostet.

Die im wesentlichen der XBOX360 ( IBM POWER 7 mit 3 Kernen@3GHZ )CPU gleichen soll und das im Jahr 2012 :freak:.

Ich verstehe es nicht...

Locuza
2012-11-19, 10:54:04
Die im wesentlichen der XBOX360 ( IBM POWER 7 mit 3 Kernen@3GHZ )CPU gleichen soll und das im Jahr 2012 :freak:.

Xenon hat nichts mit Power 7 zu tun und ähnlich ist die Wiiu CPU der Xbox 360 auch nicht.

Jedenfalls sollten mit etwas Glück in der Woche noch mehr Details ans Tageslicht kommen. Dann können wir das System besser bewerten.

AnarchX
2012-11-19, 10:55:48
Die im wesentlichen der XBOX360 ( IBM POWER 7 mit 3 Kernen@3GHZ )CPU gleichen soll und das im Jahr 2012 :freak:.

Xenon (http://en.wikipedia.org/wiki/Xenon_%28processor%29)basiert nicht auf Power7, sondern auf einer modifizierten In-Order-Power-Architektur, die als Steuercore für Cell entwurfen wurde.

Bei der Wii U vermutet man einen Multi-Core-Broadway (http://en.wikipedia.org/wiki/Broadway_%28microprocessor%29)mit ein paar Features aus neueren Architekturen. Gerüchte deuten darauf hin, dass die Leistung wohl nicht ganz Xenon erreicht, weswegen Nintendo auch so mit GPGPU wirbt.


Jedenfalls sollten mit etwas Glück in der Woche noch mehr Details ans Tageslicht kommen. Dann können wir das System besser bewerten.

Hoffentlich erstellt ChipWorks oder eine ähnliche Firma ein paar Die-Shots, damit würde sich wohl schon einiges erkennen lassen.

Rancor
2012-11-19, 11:07:44
Xenon hat nichts mit Power 7 zu tun und ähnlich ist die Wiiu CPU der Xbox 360 auch nicht.

Jedenfalls sollten mit etwas Glück in der Woche noch mehr Details ans Tageslicht kommen. Dann können wir das System besser bewerten.

Hmm hier steht was anderes.
http://wiiudaily.com/wii-u-system-specs/

mboeller
2012-11-19, 11:16:10
Anandtech Wii U Tweardown

http://www.abload.de/img/wii_u_power2dpav.png

http://i.imgur.com/XxkDL.png

http://www.neogaf.com/forum/showthread.php?t=500424

Krass wenig Verbrauch war wohl wichtiger als Performance.


Ist ja auch kein Wunder. Hast du dir mal angeschaut wie winzig die CPU ist:

http://wiiu-spiele.com/detaillierte-wii-u-hardware-informationen-bilder-bei-iwata-asks-3847/ [Bilder ganz unten auf der Seite]

Es würde mich nicht wundern, wenn die CPU nur mit 16bit angebunden ist.

AnarchX
2012-11-19, 11:20:38
Der Sunspider Benchmark ist nichtssagend.


Es würde mich nicht wundern, wenn die CPU nur mit 16bit angebunden ist.
Auf dem Package kann man schon um einiges höhere Frequenzen verwenden. Vielleicht 32-Bit 1,6GHz für 6,4GB/s und eben 1,6GHz CPU-Takt.

Locuza
2012-11-19, 11:22:14
Hmm hier steht was anderes.
http://wiiudaily.com/wii-u-system-specs/
Liest du da auch so oft wie ich: "Laut Gerüchten"?

Die Tabelle enthält die gleichen Daten, die schon seit einem halben Jahr rumpoltern.
Wie kann man überhaupt von Ähnlichkeit sprechen, wenn man
A) In-Order vs. Out-of-Order hat
B) Gar nicht weiß, was genau für eine Custom-Lösung da auf uns trifft
C) Und sowieso keine gesicherten Daten hat und das auch so angibt?

Nun ich gebe zu, 3 Kerne sind eine 100% übereinstimmende Ähnlichkeit, so grob betrachtet.
Das ist einfach altes Zeug und überall merkt man an, dass man da gar keine genaue Ahnung hat, sondern mehr oder weniger im Dunkeln stochert und paar Daten schon stimmen, aber der Großteil einfach geraten scheint.

Botcruscher
2012-11-19, 11:24:46
Angesichts der Preise für die derzeitigen AMD-APUs ist die Leistung für 2012 ein schlechter Witz. Die Bewegungssteuerung als Verkaufsargument der alten Wii entfällt auch. Dagegen gibt es ein sinnbefreites Tablet als Controller.
Mal sehen ob es die Software raus reisen kann. Man darf mehr als skeptisch sein.

Rancor
2012-11-19, 11:25:09
In dem Artikel steht, das die GPU auf der HD7xxx Reihe basieren soll. Mittleweile ist alles dabei, HD4xxx, HD5xxx und HD7xxx. ^^ DIe 6er Reihe fehlt noch.
Jemand eine Ahnung warum Nintendo so zurückhaltend mit den Daten ist? Wenn doch ehh kein Wert auf Performance legt, sondern eher auf Effizienz, dann steht man doch gut da.

@Locuza

Ja leß ich auch. Ich finde das alles sehr verwirrend.

Locuza
2012-11-19, 11:27:13
In dem Artikel steht, das die GPU auf der HD7xxx Reihe basieren soll. Mittleweile ist alles dabei, HD4xxx, HD5xxx und HD7xxx. ^^ DIe 6er Reihe fehlt noch
Da scheinen die "Verantwortlichen" vielleicht mit der Bezeichnung RV7xx und HD 7000 nicht so richtig klar gekommen zu sein.
GCN schließt sich aber aus.

dildo4u
2012-11-19, 16:46:35
Theoretisch müsste die GPU, selbst wenn es nur ein R740 (Radeon 4750, )Derivat ist (was an sich schon lächerlich ist ^^ ), wesentlich schneller sein als die GPUs in PS360.
Nicht vergessen manche Games rendern zwei verschiedene Ansichten,(z.b Nintendoland)was bei der 360/PS3 nich der Fall ist.

Digital Foundry Wii-U Review

http://www.eurogamer.net/articles/df-hardware-nintendo-wii-u-review

Es wird die nästen Tage mehrere Vergleichsartikel der Wii-U Port's geben.

krötenfresse
2012-11-19, 18:36:34
[STRIKE]

Ok... also doch nur 12,8GB/s Bandbreite.
http://www.neogaf.com/forum/showpost.php?p=44468558&postcount=1

Dann hat die Box 75% mehr.
kommst du jetzt auf 12,8 gb/s, weil nur 1gb von den 2gb für grafik genutzt werden, oder warum sind es nicht 25,6 gb/s?

AnarchX
2012-11-19, 18:40:36
Auch wenn nur 1GiB für die Spiele verfügbar sind, werden wohl trotzdem alle Speicherkanäle und somit die volle Bandbreite genutzt. Das sind aber eben nur 4x 16-Bit @ 800MHz = 12,8GB/s.

Wenn Nintendo beide Speicherbereiche "hart" getrennt hat, würden wir nur über 6,4GB/s reden. :freak: Aber wer weiß, bei den anderen Designentscheidungen... :uponder:

Gipsel
2012-11-19, 18:43:22
kommst du jetzt auf 12,9 gb/s, weil nur 1gb von den 2 gb für grafik genutzt werden, oder warum sind es nicht 25,6 gb/s?Nein. In PC-Sprech ist es ein Single Channel DDR3-1600 Speicherinterface. Und das hat nun mal nur 12,8 GB/s Bandbreite.

kunibätt
2012-11-19, 22:40:38
Die opfern tatsächlich stets die hälfte des verbauten Speichers fürs "OS" ?
Ansonsten: Lol. Oder : Habe nichts erwartet und wurde trotzdem enttäuscht ;D
Noch besser: Speicher wahlweise 8 oder 32 GB. Yeay !

Finch
2012-11-19, 22:45:16
Ist schon was genaueres über die CPU bekannt? Wirklich nur 3 Broadway kerne?

Gipsel
2012-11-20, 00:01:51
Ist schon was genaueres über die CPU bekannt? Wirklich nur 3 Broadway kerne?Nichts Genaues. Auf jeden Fall mehr Takt sowie mehr Cache und vielleicht ein paar kleinere Verbesserungen.

starfish
2012-11-20, 09:05:15
Bezüglich des JavaScript Benchmarks gestern:

Bezüglich der Performance verzeichnete man ein im Vergleich zu aktuellen Smartphones und Tablets erstaunlich schlechtes Ergebnis im JavaScript-Benchmark SunSpider. Dies sei allerdings vermutlich darauf zurückzuführen, dass der Wii-U-Browser eine ältere Version des WebKit nutzt, so Anandtech.
http://www.computerbase.de/news/2012-11/bilder-zeigen-das-innere-von-nintendos-wii-u/

Lightning
2012-11-20, 09:45:03
Bezüglich des JavaScript Benchmarks gestern:

Bezüglich der Performance verzeichnete man ein im Vergleich zu aktuellen Smartphones und Tablets erstaunlich schlechtes Ergebnis im JavaScript-Benchmark SunSpider. Dies sei allerdings vermutlich darauf zurückzuführen, dass der Wii-U-Browser eine ältere Version des WebKit nutzt, so Anandtech.
http://www.computerbase.de/news/2012-11/bilder-zeigen-das-innere-von-nintendos-wii-u/

Egal wie lahm die Wii U ist, solcherlei Probleme sind mit Sicherheit softwareseitig, wenn Smartphones bessere Werte erzielen. Das OS soll ja auch recht träge sein. Andere berichten über Abstürze der Konsole..

Ist natürlich keine Entschuldigung. Wirkt wie ein überhasteter Release, obwohl ja eigentlich genug Zeit gewesen sein sollte (es sei denn die Hardware hatte sich relativ kurzfristig nochmal deutlich geändert). Jedenfalls nicht das, was ich von Nintendo erwartet hätte.

Skysnake
2012-11-20, 11:31:48
Jup auf jeden Fall...

Kann man sich eigentlich gar nicht vorstellen, das man ne Konsole so auf den Markt bringt...

Ringwald
2012-11-20, 12:05:01
Ist schon bekannt ob die WiiU auch ein ARM Kern wie die Wii hat?

Nightspider
2012-11-20, 12:37:46
Es ist einfach ein großes Armutszeugnis das Nintendo es bei jeder Generation nicht hinbekommt mit fertiger Software aufzuwarten.

Beim 3DS war das Gleiche. Am Anfang gab es nur Versprechungen...Updates fürs Freundschaftsystem, Videos, Browser kommen später und waren dann nur halbgar umgesetzt.
Es gibt nicht mal eine YouTube 3D App oder etwas Ähnliches..

Und nun bei der Wii-U erleben wir wieder, was Nintendo alles für Versprechungen macht und später nachliefern will.

Nintendo soll sich gefälligst fähige OS Programmierer Teams besorgen und sich nur auf die Spiele-Entwicklung kümmern.
Selbst da hängen sie immer nur hinterher.

Bei der Vorstellung vom 3DS gab es Videos zu Luigis Mansion 2 und 2 Jahre nach dem Release ist es immer noch nicht auf dem Markt. Einfach nur traurig.

robbitop
2012-11-20, 12:51:57
Es ist als wenn Nintendo ignorant den verändernden Markt verschläft. Geld und und Können hätten sie sicher genug, anständige HW zu liefern und ein an den Markt angepasstes System zu liefern. Sie scheinen zu hoffen, dass sie sich nicht dem Markt anpassen sondern umgekehrt. Letzteres verspricht natürlich, wenn es funktioniert, die größten Erfolge (siehe den Wii oder Apples Erfolge im letzten Jahrzehnt).
IMO wäre ein Mittelweg vieleicht am besten gewesen... Im Moment sieht es so aus, als wenn ihre Produkte floppen würden.
Selbst die Presse interessiert sich kaum für die WiiU.

Ganon
2012-11-20, 12:59:10
Ist schon bekannt ob die WiiU auch ein ARM Kern wie die Wii hat?

Die Wii hat keinen ARM-Kern.

del_4901
2012-11-20, 13:01:53
Die Wii hat keinen ARM-Kern.
Doch da war einer drauf fuer security Sachen (codename Starlet).

][immy
2012-11-20, 17:38:25
Ich weiß die wurde grad mal gelaunched, aber gibt es schon irgendwas was über multiplayer-spiele, welche nicht im Wohnzimmer stattfinden? habe dazu aktuell noch nichts gefunden. Zombie U scheint hier auch nur ein multiplayer-gimmik zu haben, außer es sitzen alle vor dem gleichen Fernseher.

Gerade in der Disziplin habe ich einiges schon beim Launch erhofft, weil Nintendo damals (letzten beiden E3s) noch gesagt hat, das sie ein vergleichbares, besseres Netzwerk haben werden als sony/ms. hier habe ich bisher nichts von gesehen und seitdem eigentlich auch nichts mehr von gehört.

das die Hardware schwach wird wusste man ja vorher schon. mit ein wenig glück rückt die wii U dann erst mal ein wenig näher an aktuelle PC spiele heran (eventuell mittlere statt niedrige Details).

dildo4u
2012-11-20, 17:46:37
Von Nintendo selber gibt's nix in die Richtung,Black Ops 2 soll aber gut funzen Online.Sind halt kaum Leute Online zur Zeit,die meisten werden weiter auf Xbox 360 und PS3 zocken.

http://kotaku.com/5962012/560-people-are-paying-black-ops-ii-online-on-the-wii-u-right-now

Wii U 'Has A Horrible, Slow CPU' Says Metro Last Light Dev

http://www.nowgamer.com/news/1687689/wii_u_has_a_horrible_slow_cpu_says_metro_last_light_dev.html

][immy
2012-11-20, 18:05:23
Von Nintendo selber gibt's nix in die Richtung,Black Ops 2 soll aber gut funzen Online.Sind halt kaum Leute Online zur Zeit,die meisten werden weiter auf Xbox 360 und PS3 zocken.

http://kotaku.com/5962012/560-people-are-paying-black-ops-ii-online-on-the-wii-u-right-now

Wii U 'Has A Horrible, Slow CPU' Says Metro Last Light Dev

http://www.nowgamer.com/news/1687689/wii_u_has_a_horrible_slow_cpu_says_metro_last_light_dev.html

dann wird es wohl nie was mit 32+-spieler multiplayer spielen auf Konsolen. naja eventuell auf next-gen Konsolen.

xyleph
2012-11-20, 18:12:53
Wii U 'Has A Horrible, Slow CPU' Says Metro Last Light Dev

http://www.nowgamer.com/news/1687689/wii_u_has_a_horrible_slow_cpu_says_metro_last_light_dev.html

Üble Geschichte. Wenn es jetzt gegenüber den aktuellen Konsolen so aussieht, stellt ich mir die Frage, inwieweit Nintendo voraus geplant hat, gerade wenn sie mit Aussagen um die Ecke kamen, dass die Hardware auch für zukünftigen 3rd Party Support steht.

Finch
2012-11-20, 18:22:23
Von Nintendo selber gibt's nix in die Richtung,Black Ops 2 soll aber gut funzen Online.Sind halt kaum Leute Online zur Zeit,die meisten werden weiter auf Xbox 360 und PS3 zocken.

http://kotaku.com/5962012/560-people-are-paying-black-ops-ii-online-on-the-wii-u-right-now

Wii U 'Has A Horrible, Slow CPU' Says Metro Last Light Dev

http://www.nowgamer.com/news/1687689/wii_u_has_a_horrible_slow_cpu_says_metro_last_light_dev.html


Dann sollte man mal warten, bis (wenn überhaupt) sich mal mehr Spieler im Nintendo Netz tummeln.

Lightning
2012-11-20, 18:26:13
Da fragt man sich ja fast, ob der Typ von Gearbox es damals ironisch meinte, als er im Bezug auf die Wii U von einem "really great processor" sprach. ;)

Naja, mal abwarten, irgendwann werden schon noch mal ein paar handfeste Details zur Hardware durchsickern.

Üble Geschichte. Wenn es jetzt gegenüber den aktuellen Konsolen so aussieht, stellt ich mir die Frage, inwieweit Nintendo voraus geplant hat, gerade wenn sie mit Aussagen um die Ecke kamen, dass die Hardware auch für zukünftigen 3rd Party Support steht.

Wenn sie das so gesagt haben (vielleicht falsch interpretiert/übersetzt?), war es halt das übliche Marketing-Blabla.

Finch
2012-11-20, 18:28:04
Da fragt man sich ja fast, ob der Typ von Gearbox es damals ironisch meinte, als er im Bezug auf die Wii U von einem "really great processor" sprach. ;)

Naja, mal abwarten, irgendwann werden schon noch mal ein paar handfeste Details zur Hardware durchsickern.



Wenn sie das so gesagt haben (vielleicht falsch interpretiert/übersetzt?), war es halt das übliche Marketing-Blabla.


Ich hoffe fix auf ein paar gute Die Shots. Damit dürften unsere Experten einiges herauslesen können.

Fireblade
2012-11-20, 18:33:40
Mittlerweile dürfte damit auch klar sein, warum sich Nintendo mit den Hardware Specs so bedeckt gehalten hat. Allein die RAM-Geschichte wäre ja schon ziemlich schlechte PR gewesen .. jetzt auch noch die CPU ..

Versteh nicht ganz, warum sie nicht ein paar Dollar mehr in ne bessere CPU investiert haben. Ich mein niemanden interessiert es ob die Wii U 35 Watt oder 50 Watt verbraucht.
Da hätte man ruhig etwas "Effizienz" für mehr Leistung opfern können.

Gipsel
2012-11-20, 18:35:12
Hmm, also schlimmer als Cell kann es ja eigentlich kaum sein. Statt einem single Core in-order PowerPC-Kern mit 2 Threads (+ den schwer zu handhabenden SPEs) in der PS3 hat die Wii U drei out-of-order PowerPC-Kerne. Also von der Programmierbarkeit stelle ich mir das deutlich einfacher vor. Und so niedrig kann der Takt kaum sein, als das einer der Wii-U-Kerne bei "normalem" Integercode nicht in etwa das Gleiche schafft wie einer der Xenon-Kerne bzw. die Cell-PPU. Wo man vermutlich Nachteile hat, ist bei halbwegs gut optimiertem SIMD-Code auf Xenon/XBox360 oder eben der Durchsatz bei Nutzung der SPEs in der PS3 (was aber eben nicht immer so einfach ist und auch oft an Grenzen stößt). Aber solange man nicht mal was Konkretes über die Wii U CPU hört (Takt, SIMD-Fähigkeiten), kann man das kaum richtig einschätzen.

Nightspider
2012-11-20, 18:37:56
Wieso in die CPU? Eher in den Kühler. Alleine durch die Taktrate hat Nintendo schon extrem Leistung verschenkt.

Wenn die CPU wirklich mit unter 2 Ghz taktet ist das armselig. Gerade in 32 bzw. 28nm.
Man hätte alleine schon durch den Fertigungsprozess und die dadurch höheren möglichen Taktraten Vorteile im Gegensatz zu PS3 und 360 gehabt aber man verschenkt diese Vorteile einfach für geringen Stromverbrauch und ein kleines Gehäuse.
Nintendo ist einfach nur dämlich in meinen Augen als Core Gamer.

Ob Nintendo wieder soviel Erfolg hat wie mit der Wii bezweifel ich.
Und wenn Nintendo mit der Low-End Strategie aufs Maul fällt ist mir das auch egal.

Ich bin schon vom 3DS oft genervt genug und bereue, das ich mir selbigen gekauft habe.

Screemer
2012-11-20, 18:44:17
Das hört sich eher so an als hatten die vor Ewigkeiten mal eines der frühen devkits, aber schon damals beschlossen es sein zu lassen.

Finch
2012-11-20, 18:44:17
Ich bin schon vom 3DS oft genervt genug und bereue, das ich mir selbigen gekauft habe.

Huch, warst du nicht anfangs begeistert vom 3DS?

labecula
2012-11-20, 18:56:19
[immy;9551884']dann wird es wohl nie was mit 32+-spieler multiplayer spielen auf Konsolen. naja eventuell auf next-gen Konsolen.

Es kommt ja auch immer auf die Kunst des Programmierens an. Wo andere denken die CPU hat keine Power, holen andere da weswentlich mehr raus. Wenn ein Entwickler so etwas sagt, heißt das noch lange nicht das er von der Materie etwas versteht. Und bTw: Metro 2033 ist heutzutage immer noch ein PC Hardware Killer... mich wudnert das nicht, dass die motzen.

dargo
2012-11-20, 19:16:45
Und bTw: Metro 2033 ist heutzutage immer noch ein PC Hardware Killer...
Nö... erst recht nicht mit den Konsolendetails @DX9 und der mickrigen Auflösung.

del_4901
2012-11-20, 19:19:09
Es kommt ja auch immer auf die Kunst des Programmierens an. Wo andere denken die CPU hat keine Power, holen andere da weswentlich mehr raus. Auf einer ueber 10 Jahre alten Architektur zu "spielen" hat aber schon was von Dissonanzen und Expressionismus. Wenn man das toll findet, dann nur im Absinthrausch. ;-)

30@Frames
2012-11-20, 19:51:50
Hmm, also schlimmer als Cell kann es ja eigentlich kaum sein. Statt einem single Core in-order PowerPC-Kern mit 2 Threads (+ den schwer zu handhabenden SPEs) in der PS3 hat die Wii U drei out-of-order PowerPC-Kerne. Also von der Programmierbarkeit stelle ich mir das deutlich einfacher vor. Und so niedrig kann der Takt kaum sein, als das einer der Wii-U-Kerne bei "normalem" Integercode nicht in etwa das Gleiche schafft wie einer der Xenon-Kerne bzw. die Cell-PPU. Wo man vermutlich Nachteile hat, ist bei halbwegs gut optimiertem SIMD-Code auf Xenon/XBox360 oder eben der Durchsatz bei Nutzung der SPEs in der PS3 (was aber eben nicht immer so einfach ist und auch oft an Grenzen stößt). Aber solange man nicht mal was Konkretes über die Wii U CPU hört (Takt, SIMD-Fähigkeiten), kann man das kaum richtig einschätzen.
Es ist immer noch ein gut 30mm² Chip in 45nm Verfahren, nach meines Wissen. Auch wenn ein Cell oder Xenon schon Antik sind, dürfte die WiiU CPU nicht viel mehr als Luft besitzen.


CVG
Sources said graphical quality "won't be a problem" on Nintendo's new console, but a drop in CPU horsepower compared to 360 and PS3 could see Wii U lag behind in areas such as complicated physics and AI.
"Assumptions that Wii U games will look like 'up rezzed' current-gen titles with better textures aren't quite right. They'll look just as good, but not better," one developer told CVG. "You shouldn't expect anything special from a graphics point of view," they added.

A second source working on a big name franchise said GPU and RAM power "won't be a problem" on the new console but, again, claimed Wii U struggles to match PS3 and 360 in processing power.

"We're still working on dev machines but there have definitely been some issues [in porting PS3/360 games]," our source said. "It's not actually a problem getting things up and running because the architecture is pretty conventional, but there are constraints with stuff like physics and AI processing because the hardware isn't quite as capable."

The same source concluded, bluntly: "I suppose you don't need sophisticated physics to make a Mario game."

YfOrU
2012-11-20, 20:32:34
Sehr seltsam was Nintendo da gemacht hat. Wenn ich mir anschaue das es komplette Nettops mit Celeron 867 und HDD bereits für 250€ gibt ist das nicht ganz nachvollziehbar.

IMHO wäre eine andere Ausrichtung des Gamepads interessanter gewesen. Praktisch als reiner Streamingclient welcher im Zusammenspiel mit der Konsole bei etwas gesteigerter Reichweite mehr einem Tab ähnelt.
Spielen, Surfen, Mailen, Musik und Videos in der ganzen Wohnung. Dafür hätte es aber neben einer längeren Akkulaufzeit vor allen auch ein etwas größeres und höher aufgelöstes Panel benötigt. Kostet im 6-7 Zoll Format keine 150€ und wäre man mit etwas mehr Rechenleistung auch für 399 losgeworden.

Nightspider
2012-11-20, 20:37:29
Huch, warst du nicht anfangs begeistert vom 3DS?

Von der Hardware selbst war ich nie begeistert und genervt bin ich manchmal vom 3D Effekt, wenn ich nur kurz was am 3DS mache und ihn mir nicht im richtigen Winkel vor die Nase halte.

Am schlimmsten ist ja die Displayauflösung im Vergleich zu Smartphones.
Alles total verpixelt usw.

Klar machen ein paar Spiele sehr viel Spaß, gerade die Remakes aus den 90gern aber die hätten lieber den 3D Effekt weglassen sollen und ein Display mit doppelt so hoher Auflösung verbauen sollen.

Deinorius
2012-11-20, 20:39:16
Es ist immer noch ein gut 30mm² Chip in 45nm Verfahren, nach meines Wissen. Auch wenn ein Cell oder Xenon schon Antik sind, dürfte die WiiU CPU nicht viel mehr als Luft besitzen.


Die Xenon CPU würde darüber hinaus selbst bei optimaler Skalierung in 45 nm immer noch 42 mm2 groß sein. Das kann man zwar auch nicht direkt vergleichen, aber es sagt genug aus.

Finch
2012-11-20, 20:42:56
mich wunderts, das Nintendo nicht gleich auf 32nm gesetzt hat.

krötenfresse
2012-11-20, 20:54:29
Man hätte alleine schon durch den Fertigungsprozess und die dadurch höheren möglichen Taktraten Vorteile im Gegensatz zu PS3 und 360 gehabt aber man verschenkt diese Vorteile einfach für geringen Stromverbrauch und ein kleines Gehäuse.
Nintendo ist einfach nur dämlich in meinen Augen als Core Gamer.

danke :uclap:

sollte der schwerpunkt der wii-u nicht auf online- und mmo-gaming liegen
und wie ist das mit einer sehr schwachen cpu vereinbar?
Und wenn Nintendo mit der Low-End Strategie aufs Maul fällt ist mir das auch egal.verdient hätten sie es.

ich hoffe nur, daß niemand daraus ableitet, daß sich ausgefallene controller-designs nicht lohnen.
grade das finde ich nämlich gut :)

Deinorius
2012-11-20, 21:01:02
mich wunderts, das Nintendo nicht gleich auf 32nm gesetzt hat.


Und mit welchen Kapazitäten hätte das zu diesem Zeitpunkt funktionieren sollen? Bedenke, dass die Produktion schon früher bereit sein musste!

Gipsel
2012-11-20, 21:18:38
Es ist immer noch ein gut 30mm² Chip in 45nm Verfahren, nach meines Wissen. Auch wenn ein Cell oder Xenon schon Antik sind, dürfte die WiiU CPU nicht viel mehr als Luft besitzen.Habe ich ja auch nicht gesagt. Aber es wurde ja behauptet, daß die Wii U CPU zu wenig Power besitzt, um XBox360- bzw. PS3-Spiele zu portieren. Und dafür würde ich gerne noch ein paar härtere Daten zur CPU erfahren, bevor ich das uneingeschränkt glaube.

So habe ich ja bereits gesagt, in welchen Bereichen die Wii U CPU Nachteile haben könnte (z.B. gut optimierter SIMD-Code auf Xenon bzw. Nutzung der SPEs bei Cell; dürfte vermutlich auf die angesprochenen Physikberechnungen zutreffen). Eventuell hat hier Nintendo wirklich die zu sparsame Version gewählt. So hätte IBM sicher (wenn man ihnen genug Geld rüberschiebt) eine CPU bauen können, die binärkompatibel zur alten Broadway-CPU ist (damit Wii-Spiele einfach zum Laufen zu bekommen sind), die aber z.B. einen erweiterten Befehlssatz mit 128Bit (wie Xenon und die Cell PPU, die beiden unterscheiden sich allerdings etwas, aber egal) statt nur 64Bit Vektoreinheit (wie Broadway) bietet, also im Prinzip VMX-Support in den Broadway transplantieren (bei Nutzung der alten 64Bit SIMD-Befehle liegt halt die Hälfte brach). Dann würde man auch be solchem Code pro Takt gleichauf zum Xenon liegen (und OoO kompensiert ein wenig den Taktunterschied). Hierzu hätte ich wie gesagt gerne mal härtere Fakten als nur irgendwelche schwammigen Aussagen.
Eventuell hat Nintendo hier tatsächlich gedacht, sie rufen einmal laut "GPGPU" und alle Devs lassen z.B. ihren Physikkram auf der GPU laufen, wodurch sie sich SIMD-Leistung der CPU sparen können. Für einen vermutlich gar nicht mal so kleinen Teil der auf den SPEs des Cell laufenden Code könnte das prinzipiell vermutlich sogar klappen (bei Xenon wird es schon erheblich schwieriger). Aber das setzt natürlich wieder mehrere Dinge voraus, deren Erfüllung im Moment doch zweifelhaft ist. So hätte man vermutlich mindestens ein Evergreen-Design als Basis für die GPU nehmen sollen (was es genau ist, wissen wir ja noch nicht) und Nintendo muß das natürlich auch irgendwie vernünftig in ihre API einbauen. Bei der momentan doch eher unfertig wirkenden Software seitens Nintendo, würde es mich nicht schockieren (obwohl es in dem Fall eigentlich schon schockierend wäre), falls das nicht funktioniert bzw. es nicht gut nutzbar ist, so daß die Entwickler das links liegen lassen.

Eine andere Möglichkeit wäre noch, daß die CPU zu schmalbandig am Speicher (also über die GPU/Northbridge) hängt. Die Bandbreite ist ja insgesamt schon nicht gerade übermäßig hoch, aber wenn z.B. die Verbindung von der CPU zur GPU nur 2-3 GB/s oder irgend so ewas wäre, stranguliert man damit die CPU natürlich auch. Wir haben ja auch immer noch keine wirklich verläßliche Auskunft darüber, wieviel eDRAM in der CPU (vermutlich nur 2 MB Cache oder so) und wieviel in der GPU steckt (häufigste Vermutung 32MB) und ob z.B. die CPU auch direkt auf den eDRAM im GPU-Chip zugreifen kann oder nicht.

Edit:
Wieso in die CPU? Eher in den Kühler. Alleine durch die Taktrate hat Nintendo schon extrem Leistung verschenkt.

Wenn die CPU wirklich mit unter 2 Ghz taktet ist das armselig. Gerade in 32 bzw. 28nm.
Man hätte alleine schon durch den Fertigungsprozess und die dadurch höheren möglichen Taktraten Vorteile im Gegensatz zu PS3 und 360 gehabt aber man verschenkt diese Vorteile einfach für geringen Stromverbrauch und ein kleines Gehäuse.Dir ist aber schon klar, daß sich die CPU-Architekturen von Xenon bzw. der PPU von Cell grundlegend von einem Broadway (vermutlich Grundlage der Wii U CPU) unterscheiden? Und unterschiedliche Architekturen lassen sich nunmal unterschiedlich takten. Selbst wenn Nintendo einer Verdreifachung oder so des Stromverbrauchs der CPU in Kauf genommen hätte, wäre wohl kaum mehr als 50% mehr Takt rausgekommen (wenn überhaupt). Bobcat taktet z.B. in 40nm auch mit maximal 1,7 GHz und der Nachfolger Jaguar kommt in 28nm vermutlich auch nicht wesentlich über 2 GHz (Takt zum Lauch wahrscheinlich <= 2 GHz). Sicher hätte Nintendo vermutlich eine performantere Lösung als de jetzige finden können, aber das am Takt festzumachen ist Blödsinn.
Was sagst Du, falls in der Wii U irgendein Broadway-Nachfolger mit 1,5 GHz steckt (irgendeiner der Devs soll doch einfach mal sagen, was Sache ist) und in der nächsten XBox oder der PS4 stecken mit einem mal ebenfalls lediglich dual issue Kerne mit vielleicht 1,8 oder 2,0 GHz?

krötenfresse
2012-11-20, 21:34:18
Edit:
Dir ist aber schon klar, daß sich die CPU-Architekturen von Xenon bzw. der PPU von Cell grundlegend von einem Broadway (vermutlich Grundlage der Wii U CPU) unterscheiden? Und unterschiedliche Architekturen lassen sich nunmal unterschiedlich takten. Selbst wenn Nintendo einer Verdreifachung oder so des Stromverbrauchs der CPU in Kauf genommen hätte, wäre wohl kaum mehr als 50% mehr Takt rausgekommen (wenn überhaupt). Bobcat taktet z.B. in 40nm auch mit maximal 1,7 GHz und der Nachfolger Jaguar kommt in 28nm vermutlich auch nicht wesentlich über 2 GHz (Takt zum Lauch wahrscheinlich <= 2 GHz). Sicher hätte Nintendo vermutlich eine performantere Lösung als de jetzige finden können, aber das am Takt festzumachen ist Blödsinn.
ich hatte die n8spinne eher so verstanden, daß man gleich eine cpu ähnlich der der 360 hätte verwenden können und die dann halt höher takten.
dann wären ja auch umsetzungen von der 360 kein problem.

Gipsel
2012-11-20, 21:42:48
ich hatte die n8spinne eher so verstanden, daß man gleich eine cpu ähnlich der der 360 hätte verwenden können und die dann halt höher takten.
dann wären ja auch umsetzungen von der 360 kein problem.
Xenon ist bei General Purpose Code oft ziemlich grottig und Cell noch mehr (halt nur Single Core ohne die SPEs). Beides sind ziemlich einfache in-order Kerne (sind fast identisch, Xenon ist vereinfacht gesagt eine triple core PPU vom Cell ohne die SPEs, die SIMD-Einheit wurde noch leicht modifiziert), die über den Takt eine recht hohe Peak-Leistung haben, von der aber oft auch nicht unbedingt so viel rüberkommt. Ein bißchen aufgebretzelter Broadway bei knapp 2 GHz könnte da eigentlich locker konkurrenzfähig sein. Die Frage ist eben, was hat IBM im Auftrag Nintendos da noch dran gedreht? Falls praktisch nichts, dann sieht es halt in einigen (aber nicht in allen) Bereichen tatsächlich etwas mau aus. Genauso falls der Takt nicht bei knapp 2 GHz liegen sollte sondern nur sehr knapp über 1 GHz. Aber sowas sagt einem ja Keiner. :rolleyes:

starfish
2012-11-20, 21:44:24
Könnte es sein, dass die Wii-U evtl. von der PS4 profitieren könnte?

Denn hier heißt es ja auch, dass die neue CPU nicht an die (Roh-) Leistung von Cell heran kommen soll und vor allem, dass die alte Dev. Station der PS4 quasi nur eine Grafikkarte war.

D.h. diese Verlagerung der Tasks auf die GPU bei der PS4 auch dazu führt, dass die Wii-U GPU für mehr Tasks genutzt wird.

Finch
2012-11-20, 21:52:31
Könnte es sein, dass die Wii-U evtl. von der PS4 profitieren könnte?

Denn hier heißt es ja auch, dass die neue CPU nicht an die (Roh-) Leistung von Cell heran kommen soll und vor allem, dass die alte Dev. Station der PS4 quasi nur eine Grafikkarte war.

D.h. diese Verlagerung der Tasks auf die GPU bei der PS4 auch dazu führt, dass die Wii-U GPU für mehr Tasks genutzt wird.

Die PS4 Devkits besitzen einen AMD Quadcore auf A10 Basis. Der dürfte massiv mehr nutzbare Leistung haben. Das dürfte es eher noch viel schwerer für die Wii U machen.

Leider noch ohne GCN in der Grafikeinheit.

Gipsel
2012-11-20, 22:09:55
Alles angeblich. Genau wie die ersten XBoxNext-Devkits angeblich zwei Quadcore-Xeons und eine nV-GPU drin hatten, bevor man auf eine AMD CPU/GPU-Kombination umgesattelt hat. Was sagt uns das?

dildo4u
2012-11-20, 22:12:37
Sind halt Dev Kits,möglich das z.b jetzt noch ne extra GPU dabei ist was 2014 als SOC verkauft wird.

Finch
2012-11-20, 22:17:02
Es sollte auch nur eine Richtung aufzeigen. Ich denke nicht das die CPU Leistung sinken wird.

Locuza
2012-11-20, 22:42:41
Eine Anekdote zur Hardwareausstattung: X-D
http://www.abload.de/img/ibmwinkaufqsu5i.jpg

del_4901
2012-11-21, 00:22:05
Dann würde man auch be solchem Code pro Takt gleichauf zum Xenon liegen (und OoO kompensiert ein wenig den Taktunterschied). Hierzu hätte ich wie gesagt gerne mal härtere Fakten als nur irgendwelche schwammigen Aussagen.
Ich lese das fette ja immer wieder und auch aus anderen Quellen hoert man aehnliches. Zum einen hat man vor knapp unter 10 Jahren noch genau das Gegenteil behauptet... feste Plattform da ist InOrder viel besser, da die Programmierer eh alles von "Hand" optimieren. Letzteres wird in der Realitaet auch ziehmlich haeufig gemacht, mit Erfolg. Die modernen profiling Tools machen es einem auch wirklich leicht. Auf der anderen Seite ist man jetzt an dem Punkt wo alle "Hotspots" wegoptimiert sind und der Code ueberall gleich "schlecht" laeuft. Und Promt schreien alle wieder nach OutOfOrder als heiligen Gral. Ich geh da auch mit, allerdings finde ich das die mittlerweile Konsolen-Spiele so gut optimiert ist das selbst OOO da nicht mehr so viel rausholt. Schon gar nicht wenn beide zu vergleichenden Kerne 10 Jahre auf dem Buckel haben. Ganz ehrlich wenn die WiiU CPU nicht deutlich mehr als die haelfte des Taktes von Xenon hat, dann sehe ich schwarz. Selbst 2Ghz finde ich viel zu wenig fuer einen Gekko Ableger. Nicht zu vergleichen mit modernen Jaguar/Atom/PowerPC A2/etc.. Kernen.

Screemer
2012-11-21, 00:51:13
was sagt eigentlich der fakt aus, dass der stacksmash hack nicht gefixed wurde? die keys waren doch in hardware implementiert? die wii u kann mit einem exploit im wii mode noch immer unsegnierten homebrew code ausführen. ob allerdings noch mehr exploits der wii funktionieren ist wohl noch nicht durch. -> http://www.youtube.com/watch?feature=player_embedded&v=5RBQG8As7Rs

Gipsel
2012-11-21, 00:54:53
Ich lese das fette ja immer wieder und auch aus anderen Quellen hoert man aehnliches. Zum einen hat man vor knapp unter 10 Jahren noch genau das Gegenteil behauptet... feste Plattform da ist InOrder viel besser, da die Programmierer eh alles von "Hand" optimieren. Letzteres wird in der Realitaet auch ziehmlich haeufig gemacht, mit Erfolg. Die modernen profiling Tools machen es einem auch wirklich leicht. Auf der anderen Seite ist man jetzt an dem Punkt wo alle "Hotspots" wegoptimiert sind und der Code ueberall gleich "schlecht" laeuft. Und Promt schreien alle wieder nach OutOfOrder als heiligen Gral. Ich geh da auch mit, allerdings finde ich das die mittlerweile Konsolen-Spiele so gut optimiert ist das selbst OOO da nicht mehr so viel rausholt. Schon gar nicht wenn beide zu vergleichenden Kerne 10 Jahre auf dem Buckel haben. Ganz ehrlich wenn die WiiU CPU nicht deutlich mehr als die haelfte des Taktes von Xenon hat, dann sehe ich schwarz. Selbst 2Ghz finde ich viel zu wenig fuer einen Gekko Ableger. Nicht zu vergleichen mit modernen Jaguar/Atom/PowerPC A2/etc.. Kernen.Bei Datenabhängigkeiten (allgemein alles mit variablen Latenzen) kannst Du mit einer in order Architektur gar nicht perfekt optimieren. Die aufzulösenden Abhängigkeiten ergeben sich ja im Zweifelsfall erst dynamisch zur Laufzeit, nicht bereits statisch zur Compilezeit. GPUs mogeln sich da rum, in dem sie die ALUs mit Threads überschwemmen, aber bei CPUs ist das ja schwer möglich.

Sei es wie es sei, Du wirst sicherlich nicht abstreiten, daß eine CPU, die auf in-order-execution beschränkt ist, nie schneller sein wird (sondern höchstens gleich schnell und im Normalfall eben langsamer) als eine sehr ähnliche CPU, deren einziger Unterschied die Fähigkeit zur OoOE ist. Den Fall haben wir hier ganz klar nicht, trotzdem ist OoOE eine CPU-Feature, welches die Leistung steigert (insbesondere bei irregulären bzw. schwer/nicht vorhersagbaren Datenzugriffsmustern [decision trees und ein paar C++-Konstrukte kommen mir da spontan in den Sinn] oder bei Verwendung von Instruktionen mit variablen Latenzen).

Edit:
Was macht einen Jaguar (dual issue out of order) oder auch Atom (dual issue in order! [aber x86 ist da etwas besser dran als die RISCy PowerPCs]) eigentlich so viel besser als einen Gekko/Broadway-Ableger bei ähnlichem Takt?

Edit2: Gerade gesehen, daß Broadway angeblich 2,31 DMIPS/MHz machen soll. Die Angabe findet man ja häufig bei ARM CPUs. Das ist so knapp Cortex A9-Region, was immer uns das jetzt auch sagen soll (ist angeblich mehr als der Original-Athlon oder auch ein Atom).

del_4901
2012-11-21, 01:02:39
Die aufzulösenden Abhängigkeiten ergeben sich ja im Zweifelsfall erst dynamisch zur Laufzeit, nicht bereits statisch zur Compilezeit.Deswegen schaut man mit einem Profiler auch dynamisch zur Laufzeit wo der Schuh genau drueckt. Perfekt bekommt man es praktisch nie hin, aber gut genug optimiert das eine InOrder CPU nicht so viel "leiden" muss. Ich streite es auch nicht ab das OOO schneller ist als InOrder, aber der Gekko ist 10 Jahre alt, damals warn die OOO CPUs nicht so doll. Ich bezweifle ernsthaft das in der WiiU was moderneres drin steckt. Und bei den damaligen Verhaeltnissen mit 2Ghz OOO gegen 3,2Ghz InOrder plus "Handoptimierung" tendiere ich immernoch fuer letzteres.

Was macht einen Jaguar (dual issue out of order) oder auch Atom (dual issue in order! [aber x86 ist da etwas besser dran als die RISCy PowerPCs]) eigentlich so viel besser als einen Gekko/Broadway-Ableger bei ähnlichem Takt?Bessere Spungvorhersage (bottle neck number one on OOO CPUs), mehr Register/groesserer ROB, groessere Caches, evtl. bessere Superskalarität? etc. aber da hast du mehr Kompetenz als ich, und dir faellt bestimmt noch mehr ein.

Edit2: Gerade gesehen, daß Broadway angeblich 2,31 DMIPS/MHz machen soll. Die Angabe findet man ja häufig bei ARM CPUs. Das ist so knapp Cortex A9-Region, was immer uns das jetzt auch sagen soll (ist angeblich mehr als der Original-Athlon oder auch ein Atom).
Wie kommst du auf 2,31? Ich finde nur was von ~1.800DMIPS fuer Broadway und komme somit auf glatt 2. Xenon hat gesammt 19.200 DMIPS und kommt somit auch auf 2. Sagen wird uns das warscheinlich niks, da viel zu synthetisch und praxisfern.

Gipsel
2012-11-21, 02:04:22
Deswegen schaut man mit einem Profiler auch dynamisch zur Laufzeit wo der Schuh genau drueckt.Das klappt bloß bei den von mir genannten Fällen nicht so recht. ;)
Bessere Spungvorhersage (bottle neck number one on OOO CPUs),Wie macht das eigentlich eine in-order-CPU? Wenn die ohne Sprungvorhersage und ohne spekulative Ausführung daherkommt und einfach stalled, dann bricht die mit branchy Code aber sowas von ein. Und wenn die das an Board hat, hat sie das gleiche Problem, daß das immer noch gut funktionieren muß.
mehr Register/groesserer ROB, groessere Caches,Geschenkt. Das könnte IBM bei der Gelegenheit auch alles ein wenig erweitern. Passiert ja auch praktisch jedes Jahr bei x86er-CPUs. Und die ersten kleinen Schritte bringen ja bekanntlich am meisten. Wie schon mal gesagt, hängt das ein wenig davon ab, was Nintendo den IBM-Fritzen als Wunschliste vorgelegt hat und wieviel Kohle die zu zahlen bereit waren.
evtl. bessere Superskalarität?Broadway ist genau wie Jaguar 2 fach superskalar. Er besitzt ebenfalls 2 Integer-ALUs, allerdings nur eine AGU/LS-Einheit, und auch nur eine FPU-Pipeline (kann allerdings Multiply-Add). Hier hätte man z.B. mit einer zweiten FPU-Pipeline oder (vermutlich einfacher) der Erweiterung auf 128Bit durchaus etwas tun können. Die Pipeline ist übrigens verdammt kurz (deswegen auch der relativ niedrige Takt, aber dafür kostet eine etwas schlechtere Sprungvorhersage auch nicht soo viel), nur 3 Takte Latenz für ein Multiply-Add (SP, DP braucht 4). Aber das anders auszulegen, da würde man wohl eher gleich einen anderen Prozessor als Basis nehmen. Solange die ISA (PowerPC mit einer 64Bit SIMD-Erweiterung [nennt IBM paired singles]) stabil bleibt, dürfte eine andere Implementation an der generellen Kompatibilität zu Wii-Spielen nicht so viel ändern.

Gipsel
2012-11-21, 02:10:53
Wie kommst du auf 2,31? Ich finde nur was von ~1.800DMIPS fuer Broadway und komme somit auf glatt 2.Na dann sind es doch sogar ~2,5 DMIPS/MHz (Broadway läuft doch angeblich nur mit 729MHz) und damit identisch zu einem Cortex A9. :D
Ich hatte das von Gekko unter der Annahme, daß Broadway das Gleiche macht.

Aber Du hast vollkommen recht, ich halte von diesen DMIPS auch nicht viel. Vollkommen praxisfern und läßt in-order CPUs im Vergleich zu gut aussehen. ;)

Edit:
Übrigens bin ich grade über eine Doku zu Broadway gestolpert (kenn' das Zeug doch auch nicht), der OoO-Krams da drin scheint ziemlich limitiert zu sein (na besser als nichts :freak:). Da bleibt zu hoffen, daß Nintendo bei IBM eine ordentlich modernisierte Implementation der ISA geordert hat. Denn knapp 2 GHz dürften bei der relativ kurzen Pipeline auch extrem eng werden.

Skysnake
2012-11-21, 02:16:52
Weis man eigentlich inzwischen, was der dritte kleine DIE auf dem Package ist?

Wie groß wäre denn die CPU der Wii in 32nm? Wäre es möglich, das man 2 CPUs verbaut, die eben abhängig vom Modi verwendet werden?

Die Sache mit dem Wii-Hack ist schon seltsam.