PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wii U - Hardware-Spekulation


Seiten : [1] 2 3 4 5 6 7 8 9 10 11

AnarchX
2011-06-07, 21:13:12
http://i.imgur.com/rtewj.jpg

Launches: 2012
Size: Approximately 1.8 inches tall, 6.8 inches wide and 10.5 inches long.
New Controller: The new controller incorporates a 6.2-inch, 16:9 touch screen and traditional button
controls, including two analog Circle Pads. This combination removes the traditional
barriers between games, players and the TV by creating a second window into the
video game world. The rechargeable controller includes a Power button, Home
button, +Control Pad, A/B/X/Y buttons, L/R buttons and ZL/ZR buttons. It includes a
built-in accelerometer and gyroscope, rumble feature, camera, a microphone, stereo
speakers, a sensor strip and a stylus.
Other Controls: Up to four Wii Remote™ (or Wii Remote Plus) controllers can be connected at once.
The new console supports all Wii™ controllers and input devices, including the
Nunchuk™ controller, Classic Controller™, Classic Controller Pro™ and Wii Balance
Board™.
Media: A single self-loading media bay will play 12-centimeter proprietary high-density
optical discs for the new console, as well as 12-centimeter Wii optical discs.
Video Output: Supports 1080p, 1080i, 720p, 480p and 480i. Compatible cables include HDMI,
component, S-video and composite.
Audio Output: Uses AV Multi Out connector. Six-channel PCM linear output through HDMI.
Storage: The console will have internal flash memory, as well as the option to expand its
memory using either an SD memory card or an external USB hard disk drive.
CPU: IBM Power®-based multi-core microprocessor.
Other: Four USB 2.0 connector slots are included. The new console is backward compatible
with Wii games and Wii accessories.

IBM tells us that within the Wii U there's a 45nm custom chip with "a lot" of embedded DRAM. It's a silicon on insulator design and packs the same processor technology found in Watson, the supercomputer that bested a couple of meatbags on Jeopardy awhile back. Unfortunately, IBM wouldn't give us the chip's clock speeds, but if it's good enough to smoke Ken Jennings on national TV, we imagine it'll do alright against its competition from Sony and Microsoft.

http://www.engadget.com/2011/06/07/ibm-puts-watsons-brains-in-nintendo-wii-u/

Watson wird auf Clustern mit Power 7 CPUs ausgeführt: http://en.wikipedia.org/wiki/POWER7

LOS ANGELES, CA--(Marketwire - Jun 7, 2011) - Today at E3, AMD (NYSE: AMD) announced its support for Nintendo's newly-announced Wii U™ system, as a new way to enjoy HD console gaming entertainment. The custom AMD Radeon™ HD GPU reflects the best characteristics of AMD's graphics technology solutions: high-definition graphics support; rich multimedia acceleration and playback; and multiple display support. As an industry leader, AMD has supplied the game console market with graphics expertise and ongoing support for more than 10 years.
http://www.marketwire.com/press-release/amd-nintendo-join-forces-creating-new-way-enjoy-console-gaming-entertainment-nyse-amd-1523972.htm

Controller wohl mit 854 x 480 Pixel: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8777404#post8777404

eDRAM als CPU-Cache:
IBM's embedded dynamic random access memory (test chip shown here) will help deliver a thrilling new game experience to Nintendo fans. The new memory technology, a key element of the new Power microprocessor that IBM is building for the Nintendo Wii U console, can triple the amount of memory contained on a single chip, making for extreme game play.
http://www-03.ibm.com/press/us/en/photo/34681.wss

IBM plans to produce millions of chips for Nintendo featuring IBM Silicon on Insulator (SOI) technology at 45 nanometers (45 billionths of a meter). The custom-designed chips will be made at IBM's state-of-the-art 300mm semiconductor development and manufacturing facility in East Fishkill, N.Y.
http://www-03.ibm.com/press/us/en/pressrelease/34683.wss

Screemer
2011-06-07, 21:19:30
also doch out-of-order und nicht wie vor ein paar seiten spekuliert in-order. wer hatte noch argumentiert, dass bei power7 basis keine 3 cores unwahrscheinlich sind? bin mal gespannt was es nun wirklich wird und welche gpu-ip und welches featureset nun kommt. die demo sah jetzt nicht so übermäßig aus.

Deinorius
2011-06-07, 21:19:33
Ob selbst das Äußere von den Dimensionen her überhaupt final ist? Die Konsole wurde bei der Pressekonferenz praktisch gar nicht gezeigt und auch dann nur mit der Lupe zu sehen.

Käsetoast
2011-06-07, 21:20:22
Ich bin auch mal gespannt, was Nintendo da für optische Medien nutzen will. Gibt's denn da überhaupt was, das jenseits von Blu-Ray genutzt werden könnte? Ich glaube nicht, dass Nintendo da was eigenes entwickelt hat und die Gamecube Taktik einer kleinen Blu-Ray ist wegen der 12cm Discs ja wohl nicht der Fall - an die Wiedergeburt der HD-DVD will ich auch nicht so recht glauben, wobei das natürlich eine Möglichkeit wäre...

Screemer
2011-06-07, 21:21:46
blaue diode wie bei bluray, aber mit spezifischer daten-struktur. so wie schon bei der wiidisc im vergleich zur dvd. kann mir gar nix anderes vorstellen. bluray-lizenz werden sie definitiv keine erwerben wollen.

DeadMeat
2011-06-07, 21:55:18
Ich glaub mittlerweile auch kaum das auch nur eines von den gezeigten Third Spielen auf der Wii U Hardware lief. Vor allem bei BF3 hat man gesehen das es der bekannte Trailer ist.
Da ist gar nix Final, außer der Controller :>

urbi
2011-06-07, 21:58:57
blaue diode wie bei bluray, aber mit spezifischer daten-struktur. so wie schon bei der wiidisc im vergleich zur dvd. kann mir gar nix anderes vorstellen. bluray-lizenz werden sie definitiv keine erwerben wollen.

Ist denke ich nach wie vor auch relativ schlau. Blu Ray Player hat quasi jeder, ein Kaufargument wird es jedenfalls wohl nicht mehr sein in Zeiten wo man Markengeräte für 100€ bekommt!

An sonsten war ich erst sehr skeptisch während der Präsentation. Inzwischen glaube ich ich könnte mich sehr damit anfreunden:
1. Wii Kompatibilität wird wahrscheinlich an Board sein, hoffentlich auch mit höherer Auflösung dann
2. Ich hoffe, dass der neue Controller wirklich für die allermeisten Spiele optional bleibt! Er sieht nice aus, aber vom Spielerischen her ist er eigentlich "bloß" ein Classic Controller Pro mit Touchscreen - ob das in hektischen Spielen überhaupt Vorteile hat? Ich denke eher nicht. Ich finde, dass die Spiele je nach Auslegung den CCP, die Wiimote oder eben den Wii U Controller nutzen und unterstützen sollten und dass der Wii U Controller mehr ein Gadget für einen Spieler ist als für Multiplayer. Einen Mario Galaxy 2 Nachfolger (der "Wii U"-Mario wird wohl eher was ganz anderes, ich weiß) mit dem Wii U Controller zu steuern kann ich mir z.B. nicht so gut vorstellen. Für's surfen und im Haus "unterwegs" spielen (wie ein Ipad halt) eignet er sich da sicher schon eher!
3. Zu guter Letzt würde ich mir wirklich, wirklich wünschen, dass Nintendo zum Release gleich auch eine schwarze Version bringt. Die Wii habe ich mir u.A. deswegen nicht zum Release geholt, weil ich weiß absolut nicht ab kann. Es passt halt einfach zu gar nichts bei mir und sieht irgendwie wie ein Fremdkörper aus, ich hatte daher auch schon gehofft, dass nach der neuen Xbox, den schwarzen IPhones und den farbigen Wiis diese Ära zuende geht. :frown:

Ganon
2011-06-07, 21:59:29
Da ist gar nix Final, außer der Controller :>

Also wenn das Teil in nicht mal mehr einem Jahr auf den Markt kommen soll, dann sollte die Hardware aber schon so gut wie Final sein. ;)

DeadMeat
2011-06-07, 22:02:30
Also wenn das Teil in nicht mal mehr einem Jahr auf den Markt kommen soll, dann sollte die Hardware aber schon so gut wie Final sein. ;)

So wie die sich weigern specs rauszurücken...hm ka klar die Teile stehen sicher fest, aber evtl Taktraten usw. Die haben ja nichtmal den hersteller der Grafik genannt.

Ganon
2011-06-07, 22:06:43
Haben sie bei der Wii auch nicht...

DeadMeat
2011-06-07, 22:11:35
Stimmt wohl , aber die tatsache das außer ein paar "schnell" zusammen gebauten Techdemos noch gar nichts zusehen war zeigt nicht gerade das sie schon fertig sind.

Ganon
2011-06-07, 22:22:58
also doch out-of-order und nicht wie vor ein paar seiten spekuliert in-order. wer hatte noch argumentiert, dass bei power7 basis keine 3 cores unwahrscheinlich sind?

Naja, die Anzahl der Cores ist ja noch gar nicht bekannt.

Aber ich kann mir echt nicht vorstellen, dass dort ein POWER7-Derivat drinnen ist. Aber lassen wir uns einfach mal überraschen xD

dargo
2011-06-07, 22:28:38
Also doch nix mit 32nm? War wohl doch noch etwas zu früh.

Käsetoast
2011-06-07, 23:00:39
blaue diode wie bei bluray, aber mit spezifischer daten-struktur. so wie schon bei der wiidisc im vergleich zur dvd. kann mir gar nix anderes vorstellen. bluray-lizenz werden sie definitiv keine erwerben wollen.
Ist es denn wirklich günstiger sich ein eigenes Format zurechtzuschustern und sich eigene Rohlinge pressen zu lassen, anstatt einfach Blu-Ray (also ohne Codec für Filme etc.) zu lizensieren und die billige Massenware zu nutzen? Oder ist das eine ganz einfache Geschichte und gibt es auch Beispiele für andere Unternehmen die genau sowas machen?

Also doch nix mit 32nm? War wohl doch noch etwas zu früh.
Ich finde das generell etwas merkwürdig. Das klingt für mich datenmäßig wie eine Konsole, die dieses Jahr hätte erscheinen sollen. Ich meine es hat doch handfeste Vorteile die feineren Strukturen zu nutzen und die Verfügbarkeit der neuen Verfahren im nächsten Jahr ist doch eine recht sichere Sache...

Ganon
2011-06-07, 23:14:21
Ist es denn wirklich günstiger sich ein eigenes Format zurechtzuschustern und sich eigene Rohlinge pressen zu lassen

Ist doch relativ egal was die Presswerke da auf die Scheibe pressen...

Ich finde das generell etwas merkwürdig. Das klingt für mich datenmäßig wie eine Konsole, die dieses Jahr hätte erscheinen sollen.

Wenn IBM keine CPU in 32nm anbietet, kann Nintendo da relativ wenig machen. Und wie schon gesagt, wenn das Ding in nicht mal mehr einem Jahr auf dem Markt sein soll, dann kann man da nicht mehr so viel am Design machen. Das Ding muss dann ziemlich bald in die Massenproduktion gehen...

Screemer
2011-06-07, 23:16:33
Ist es denn wirklich günstiger sich ein eigenes Format zurechtzuschustern und sich eigene Rohlinge pressen zu lassen, anstatt einfach Blu-Ray (also ohne Codec für Filme etc.) zu lizensieren und die billige Massenware zu nutzen? Oder ist das eine ganz einfache Geschichte und gibt es auch Beispiele für andere Unternehmen die genau sowas machen?
technisch sind die dinger eh die gleichen. nur die datenstruktur auf der disk ist anders. ich tip mal auf ne weiterentwicklung der nintendo optical disc (http://en.wikipedia.org/wiki/Nintendo_optical_disc) in zusammenarbeit mit panasonic (mitglied der bluray disk assotiation), wie schon bei den vorgängern. vielleicht dieses mal auch mit ner möglichkeit die bca-daten auszulesen. ich glaube wichtigstes kriterium, neben den gesparten kosten für die bd-lizenz, ist das anfängliche erschweren von kopien.

dargo
2011-06-07, 23:17:04
Den Shrink auf 32nm kann man 2013 immer noch vollziehen. Warum gibts aber keine Daten zur GPU? Und genaue Daten zur CPU fehlen auch irgendwie. :confused:

Finch
2011-06-07, 23:20:40
Ist doch relativ egal was die Presswerke da auf die Scheibe pressen...



Wenn IBM keine CPU in 32nm anbietet, kann Nintendo da relativ wenig machen. Und wie schon gesagt, wenn das Ding in nicht mal mehr einem Jahr auf dem Markt sein soll, dann kann man da nicht mehr so viel am Design machen. Das Ding muss dann ziemlich bald in die Massenproduktion gehen...

"Woher hast du das"in nicht mal mehr einem Jahr..."?

][immy
2011-06-07, 23:27:25
Den Shrink auf 32nm kann man 2013 immer noch vollziehen. Warum gibts aber keine Daten zur GPU? Und genaue Daten zur CPU fehlen auch irgendwie. :confused:

allzu wuchtig kann der ja nicht sein bei dem kleinen gehäuse. die xbox 360 ist zwar inzwischen relativ leise, aber immernoch größer (allein die Kühlkörper scheinen ja schon größer zu sein als dieses Wii gehäuse ... bzw. mein CPU Kühler ist ja schon um einiges höher).

die GPU kann also auch nicht besonders anspruchsvoll sein. Nun hier kann ich mir wirklich nur eine GPU in der Größenordnung von Laptops vorstellen (aufgrund der möglichen Kühlung). Das ist zwar schon einiges mehr als die xbox360/ps3 GPU kann (bei halbwegs aktuellen chips), aber so wirklich mehr wird damit wohl kaum möglich sein.

Ganon
2011-06-07, 23:30:02
"Woher hast du das"in nicht mal mehr einem Jahr..."?

Erst mal nur reine Vermutung. Aber 2012 hat ja Nintendo geschrieben. Ob jetzt nun 1 Jahr oder etwas mehr, macht's dann nicht mehr fett.

Wenn man wild irgendwas frisches aus den Werken in die Konsole stopft, kann es schon gewaltig schief gehen. Siehe die hohe Defektrate der XBOX360 zu Anfang.

Und wenn man jetzt vom POWER7 ausgeht, dann ist der nunmal 45nm. Und solange IBM da nix dran ändert, bleibt das auch so. Die-Shrinks müsste Nintendo dann speziell "bestellen", wenn es soweit ist... das ist ja nicht wie bei Intel oder AMD wo es "sowieso auf den Markt kommt"... darum ist ja auch die Wii noch auf 90nm.

Ausbeute usw. ist dann ein weiteres Thema...

Käsetoast
2011-06-07, 23:37:55
Ist doch relativ egal was die Presswerke da auf die Scheibe pressen...
Ich meinte die müssen sich dann doch eigene Rohlinge irgendwo produzieren lassen. Zumindest denke ich mir mal, dass die Blu-Ray Rohlinge auch irgendwo an Blu-Ray gebunden sind oder irre ich mich da?

dargo
2011-06-07, 23:43:53
Und wenn man jetzt vom POWER7 ausgeht, dann ist der nunmal 45nm.
Woher kommt diese Info mit dem Power7 Prozessor? Das Ding ist laut Wiki stolze 567mm² fett. Ist das nicht ein bissel zu groß für diese Konsole?

Ganon
2011-06-07, 23:46:40
Woher kommt diese Info mit dem Power7 Prozessor? Das Ding ist laut Wiki stolze 567mm² fett. Ist das nicht ein bissel zu groß für diese Konsole?

Lies den ersten Beitrag des Themas einfach mal bis zum Ende? ;)

Ganon
2011-06-07, 23:49:09
Ich meinte die müssen sich dann doch eigene Rohlinge irgendwo produzieren lassen.

Naja, es bleibt ein Stück Plastik mit einer Reflexionsschicht. So kompliziert ist das jetzt nicht ^^ Selbst wenn die Produktion jetzt ein paar Cent mehr kostet als wenn man was vom Standard nimmt, rechnet sich das an gesparten Lizenzkosten sicherlich. Ich weiß ja nicht wie viel Sony für Bluray-Technologie verlangt...

dargo
2011-06-07, 23:51:24
Lies den ersten Beitrag des Themas einfach mal bis zum Ende? ;)
Dadurch wirds auch nicht heller bei mir. :D Hab da so einige Probleme mit englisch. Klär mich auf.

DeadMeat
2011-06-07, 23:51:52
IBM tells us that within the Wii U there's a 45nm custom chip with "a lot" of embedded DRAM. It's a silicon on insulator design and packs the same processor technology found in Watson,

verbreiten die engadget leute.

AnarchX
2011-06-07, 23:54:53
2 Cores/8 Threads @ 3,5GHz und 8MiB eDRAM wäre wohl keine schlechte Basis für die Wii U.

Und nun ist auch die AMD GPU sicher:
LOS ANGELES, CA--(Marketwire - Jun 7, 2011) - Today at E3, AMD (NYSE: AMD) announced its support for Nintendo's newly-announced Wii U™ system, as a new way to enjoy HD console gaming entertainment. The custom AMD Radeon™ HD GPU reflects the best characteristics of AMD's graphics technology solutions: high-definition graphics support; rich multimedia acceleration and playback; and multiple display support. As an industry leader, AMD has supplied the game console market with graphics expertise and ongoing support for more than 10 years.
http://www.marketwire.com/press-release/amd-nintendo-join-forces-creating-new-way-enjoy-console-gaming-entertainment-nyse-amd-1523972.htm

fdk
2011-06-07, 23:59:29
Nur wieviele von den "Artverwandten" CPUs bei Watson werkeln schreiben sie nicht ;) - 2880 Stück sinds. Es wundert mich ein wenig das kein bd unterstützt wird. Ich hätte gedacht die zusätzlichen Lizenzkosten würden sich durch gesteigerten WAF (Schatz wir brauchen keinen bd-Player kaufen) wieder lohnen. VA da in der Zielgruppe sehr viele in den nächsten 2 Jahren auf bd aufspringen werden.

Abgesehen davon wird die absolute #1 auf der Featureliste für 50% der Käufer die Farbe sein. Weiß -> "man sieht den Staub nicht so". :facepalm:

Ganon
2011-06-07, 23:59:38
Dadurch wirds auch nicht heller bei mir. :D Hab da so einige Probleme mit englisch. Klär mich auf.

Das musst du schon sagen, dass du kein Englisch kannst ;)

Aaaaalso, IBM sagt nur, dass die WiiU CPU auf "der gleichen Technologie basiert, wie die Technik im Watson-Cluster". Und im Watson-Cluster sind POWER7 verbaut.

Daher das POWER7-Argument ;) Es ist zwar unwahrscheinlich, dass dort ein normaler POWER7 drinnen ist, aber spannend bleibt es trotzdem.

dargo
2011-06-08, 00:01:56
Aaaaalso, IBM sagt nur, dass die WiiU CPU auf "der gleichen Technologie basiert, wie die Technik im Watson-Cluster". Und im Watson-Cluster sind POWER7 verbaut.

Daher das POWER7-Argument ;) Es ist zwar unwahrscheinlich, dass dort ein normaler POWER7 drinnen ist, aber spannend bleibt es trotzdem.
Danke. Ich nutze zwar oft den Googleübersetzer, der taugt aber oftmals nicht wirklich.

Ganon
2011-06-08, 00:02:17
Ich schätze mal, dass Bluray auch ein politisches Problem ist... weil Sony würde an jeder verkauften Konsole mitverdienen (afaik, bin mir jetzt unsicher).

zustand
2011-06-08, 00:06:25
Mark Rein war heute wohl auf seiner ersten Pressekonferenz von Nintendo.

At my first ever Nintendo E3 press event. Should be fun! (http://img.ly/4Onl)

Die Techdemo stammt anscheinend von Epic. Passt hier denke ich am besten rein, auch wenn es weniger informativ ist.

Gipsel
2011-06-08, 00:38:12
2 Cores/8 Threads @ 3,5GHz und 8MiB eDRAM wäre wohl keine schlechte Basis für die Wii U.
Hmm, 8MB fällt bei mir nicht in die Kategorie "'a lot' of embedded DRAM". Da paßt ja kaum der Framebuffer rein. Übrigens hat IBMs Power7 schon in 45nm 32MB eDRAM als Cache gehabt (als 8 Kerner). In 32nm und mit nur 2 Kernen könnte die Menge auch bei einer Konsole schon fast passen. Aber 16MB werden es m.M. mindestens, solange die eDRAM-Geschichte keine Ente ist.

Ganon
2011-06-08, 00:40:23
Was willst du denn mit dem Framebuffer in der CPU? o_O

RLZ
2011-06-08, 00:43:23
In 32nm und mit nur 2 Kernen könnte die Menge auch bei einer Konsole schon fast passen.
Die Wii U kommt aber laut IBM (http://www-03.ibm.com/press/us/en/pressrelease/34683.wss) mit 45nm Chip. Über 32nm braucht man da kaum zu spekulieren.

dargo
2011-06-08, 00:44:10
Was willst du denn mit dem Framebuffer in der CPU? o_O
Wollte ich auch grad fragen. :D

Gipsel
2011-06-08, 00:58:08
Was willst du denn mit dem Framebuffer in der CPU? o_O
Was willst Du mit "a lot of" eDRAM als L3 in einer CPU für eine Konsole?

Ein 2 Kerner Power7 ohne L3, dafür einer ~100mm² GPU (da dürfte was junipermäßiges sehr gut reinpassen) mit 16MB eDRAM dürfte so ganz überschlägig irgendwo <250mm² sein. CPUs mit einem Die in der Größe werden Dir von AMD für <100€ hinterhergeworfen. Und ich würde stark drauf tippen, daß der eDRAM in so einer Konfiguration der GPU mehr bringt als der CPU.

Ich weiß, daß im Eingangsbeitrag was von 45nm steht. Aber ich halte das nicht für sonderlich glaubhaft für etwas, das 2012 startet. Vielleicht sind ja nur die Dev-Kits mit den 45nm Teilen ausgestattet?

AMD hat GPUs in 32nm SOI entwickelt, IBM hat das Know How der Fertigung von eDRAM on Die zusammen mit Logik, Power7 wurde von IBM auch unabhängig davon auf 32nm portiert (Power7+ soll Ende 2011 kommen, eben auch in 32nm SOI mit eDRAM). Was spricht also dagegen?

Ganon
2011-06-08, 01:08:39
Warum sprichst du jetzt auf einmal von dem eDRAM in der GPU? Das ist doch jetzt wieder was völlig anderes. Da seit der PS2 jede Konsole eDRAM in der GPU hatte (OK, bei der XBOX1 bin ich mir jetzt nicht sicher), dürfte auch die WiiU eDRAM in der GPU haben. ;) Und zur GPU kann man momentan echt nicht mal spekulieren, da man dort nur weiß "Radeon HD basiert"...

Es geht doch hier nur schlicht um L3-Cache in der CPU. Und sowas ist immer sinnvoll (zumal der POWER7 nur 256kb L2-Cache vorsieht). Da packt man ja nicht mal eben iwas rein, sondern das macht die CPU schon von alleine. Es dient schlicht der Geschwindigkeitssteigerung und gerade bei Multicore ist das sinnvoll, nicht ständig auf den Arbeitsspeicher zugreifen zu müssen. Da muss nix spezielles komplett reinpassen, oder sonst was. ;)

Weiß jetzt nicht, warum du bei den CPU-Spekulationen jetzt die GPU mit reinmischst... die sind doch unabhängig voneinander. Und wenn IBM in einer Pressemitteilung sagt, dass sie das Teil für die Wii U in 45nm fertigen, dann kannst du das schon glauben ;)

Gipsel
2011-06-08, 01:32:10
Warum sprichst du jetzt auf einmal von dem eDRAM in der GPU? Das ist doch jetzt wieder was völlig anderes.
Weißt Du, wie die 45nm Version der XBox360 aufgebaut ist? Praktisch wie Llano, nur, daß da 3 Power-Kerne und eben die alte ATI Xenos-Architektur drinstecken. Alles auf einem Die. Nur der eDRAM befindet sich noch auf einem Extra-Chip, der übrigens von den physischen Dimensionen her ziemlich mickrig ist. 16MB in 32nm kann man auch locker in die "APU" integrieren, wenn man die Fertigung beherrscht ;).
Da seit der PS2 jede Konsole eDRAM in der GPU hatte [..]In der GPU? Nein. Siehe XBox360, off-Die eDRAM, nicht on-Die. Und PS3 gleich überhaupt nicht.
Es geht doch hier nur schlicht um L3-Cache in der CPU.Siehst Du, das zweifle ich gerade an. ;)
Es dient schlicht der Geschwindigkeitssteigerung und gerade bei Multicore ist das sinnvoll, nicht ständig auf den Arbeitsspeicher zugreifen zu müssen. Da muss nix spezielles komplett reinpassen, oder sonst was. ;)Bei eDRAM für eine GPU kann es schon sinnvoll sein, wenn der Frame-/Z-Buffer da komplett reinpaßt. Für einen CPU-Cache spielt das natürlich keine Rolle.

del_4901
2011-06-08, 01:38:11
Bei eDRAM für eine GPU kann es schon sinnvoll sein, wenn der Frame-/Z-Buffer da komplett reinpaßt. Für einen CPU-Cache spielt das natürlich keine Rolle.
Tiled Rendering auf der X360 ist nicht so viel langsamer wie normal, ATi hat da viel Know How reingesteckt. Deswegen spielt die Groesse eigentlich eher eine untergeordnette Rolle. Sie sollte nur "rund" sein, und 16MB ist mehr als genug. Mehr ist zwar immer besser, aber nur wenn es die Kosten nicht sprengt.

Coda
2011-06-08, 01:41:07
Tiled Rendering auf der X360 ist nicht so viel langsamer wie normal, ATi hat da viel Know How reingesteckt.
Hö? Das muss man doch manuell in Software machen dachte ich.

Coda
2011-06-08, 01:43:03
Alsaaaalso, IBM sagt nur, dass die WiiU CPU auf "der gleichen Technologie basiert, wie die Technik im Watson-Cluster". Und im Watson-Cluster sind POWER7 verbaut.
Pff. Das kann auch einfach POWER heißen, sonst nichts. Auf sowas geb ich schon lange nichts mehr.

del_4901
2011-06-08, 01:44:04
Hö? Das muss man doch manuell in Software machen dachte ich.
Man muss ihr nur sagen das man Tiled rendern moechte, den Rest macht die API.

Coda
2011-06-08, 01:46:46
Das ist doch dann eher Microsofts Know-How. Und jetzt auch nichts was ich als unfassbar fortschrittlich bezeichnen würde.

del_4901
2011-06-08, 01:52:53
Das ist doch dann eher Microsofts Know-How. Und jetzt auch nichts was ich als unfassbar fortschrittlich bezeichnen würde.
Der Chip muss es trotzdem koennen. Das ist kein 0815 Grafikchip fuer den PC. Das ist eine spezielle Konsolenanfertigung.
Hier ist ein Baustein zu finden: http://www.beyond3d.com/content/articles/4/5.
Der Hierarchical Z buffer sitzt direkt in dem Chip selbst, das hat man bei keiner PC GPU.
Und was das Tiled Rendering betrifft, so steht da auch grob das wichtigste.

Gipsel
2011-06-08, 01:57:42
Tiled Rendering auf der X360 ist nicht so viel langsamer wie normal, ATi hat da viel Know How reingesteckt. Deswegen spielt die Groesse eigentlich eher eine untergeordnette Rolle. Sie sollte nur "rund" sein, und 16MB ist mehr als genug. Mehr ist zwar immer besser, aber nur wenn es die Kosten nicht sprengt.
Nur dürfte das Tiling kaum universell gut gehen. Man kann man sich auch Sachen ausdenken, wo das nicht ganz so gut klappt (die GPUs werden immer programmierbarer, und es werden auch mal Engines von anderen Plattformen portiert, bei denen das Tiling dann ineffizient ist). Kurz, es ist schon bequemer, wenn man möglichst viel drinhalten kann. Und die Kosten sind bei 16 MB (sogar bei 32MB) in 32nm recht überschaubar. eDRAM ist nunmal höllisch kompakt, wenn man es mit SRAM vergleicht. Mensch, die Wii hat sogar 24MB 1T-SRAM (ähnelt in vielen Aspekten eDRAM, Einige benutzen das auch synonym) in 90nm für den Hollywood dabei (ist auch ein MCM). Und 32nm ist etwa Faktor 8 kompakter.

Coda
2011-06-08, 02:03:42
Der Chip muss es trotzdem koennen.
Was muss er da können? Das ist imho eine reine Software-Geschichte.

Der Hierarchical Z buffer sitzt direkt in dem Chip selbst, das hat man bei keiner PC GPU.
Und was das Tiled Rendering betrifft, so steht da auch grob das wichtigste.
Hier-Z steckt in den ROPs wie bei den PC-Chips auch. Nothing spectacular. Hat auch nix mit dem Tiled-Rendering zu tun.

megachip800
2011-06-08, 02:04:49
Bin ziemlich entäuscht von der Wii U Präsentation. Der GRafikchip ist primär für Multiscreenausgabe ausgelegt
auf Kosten der Performance und Shaderleistung, das hatte man nämlich verschwiegen. Zelda hatte kaum AA
und das ist schon mal ein schlechtes Zeichen. Die Grafikperformance scheint unter einer 6970M zu liegen ,
schwache Leistung für eine Konsole die 2012 erscheinen soll und von aktuellen Gaming-Laptops in die Tasche gesteckt wird.

45nm und die kompakte Bauform des Gehäuses sprechen gegen einen großen Leistungssprung gegenüber den jetzigen Konsolen.

del_4901
2011-06-08, 02:05:51
Nur dürfte das Tiling kaum universell gut gehen. Man kann man sich auch Sachen ausdenken, wo das nicht ganz so gut klappt (die GPUs werden immer programmierbarer, und es werden auch mal Engines von anderen Plattformen portiert, bei denen das Tiling dann ineffizient ist). Kurz, es ist schon bequemer, wenn man möglichst viel drinhalten kann. Und die Kosten sind bei 16 MB (sogar bei 32MB) in 32nm recht überschaubar. eDRAM ist nunmal höllisch kompakt, wenn man es mit SRAM vergleicht. Mensch, die Wii hat sogar 24MB 1T-SRAM (ähnelt in vielen Aspekten eDRAM, Einige benutzen das auch synonym) in 90nm für den Hollywood dabei (ist auch ein MCM). Und 32nm ist etwa Faktor 8 kompakter.
Sicherlich ist es bequem, aber die Lage ist nicht so duesster wie viele denken. Und solange man nur Rendern moechte ist ein effizientes Tiling wirklich das geringste Problem.

Coda
2011-06-08, 02:06:53
Das hat auch keiner behauptet. Ich sage nur, dass da nix besonderes dahintersteckt.

Wenn man beim PC bei der Rendertarget-Size limitiert wäre, könnte man exakt das gleiche machen. Die Crytek-Engines machen das ja z.B. auch um riesige Screenshots zu produzieren.

Vor allem ist das ohne Änderung an der Engine ohnehin ineffizient. Man will ja zumindest das Culling auf das jeweilige Rendertarget anpassen.

del_4901
2011-06-08, 02:11:25
Hier-Z steckt in den ROPs wie bei den PC-Chips auch. Nothing spectacular. Hat auch nix mit dem Tiled-Rendering zu tun.
Nein wie beyond3d schon schreibt hat der Chip echten Speicher deswegen heisst es auch Hierarchical Z buffer. Und mithilfe dieser Informationen wird auch bestimmt in welchen Tile ein Objekt liegt.
Die ROP selbst liegen im eDRAM und der ganze Teil wird fuer early rejection etc. gar nicht angefasst.
Das hat auch keiner behauptet. Ich sage nur, dass da nix besonderes dahintersteckt.
Wenn man beim PC bei der Rendertarget-Size limitiert wäre, könnte man exakt das gleiche machen. Die Crytek-Engines machen das ja z.B. auch um riesige Screenshots zu produzieren.
Vor allem ist das ohne Änderung an der Engine ohnehin ineffizient. Man will ja zumindest das Culling auf das jeweilige Rendertarget anpassen. Large Screenshoots haben damit nichts zu tun, und genau so funktioniert es eben nicht! Das Culling macht der Chip selbst. Der braucht nur seinen Z Prepass, dann funtioniert das Tiled Rendering (fast) ganz von allein.

Gipsel
2011-06-08, 02:15:44
Sicherlich ist es bequem, aber die Lage ist nicht so duesster wie viele denken. Und solange man nur Rendern moechte ist ein effizientes Tiling wirklich das geringste Problem.
Ein Beispiel:
Wenn Du nicht vorher weißt, wo Deine Objekte auf dem Schirm landen werden, verbietet sich alles mit aufwendigen Vertex-/Domain-/Geometry-Shadern (um mal DX11-Terminologie zu verwenden). Das muß man nämlich im Zweifelsfall für jedes Tile im Frame wiederholen.

del_4901
2011-06-08, 02:18:37
Ein Beispiel:
Wenn Du nicht vorher weißt, wo Deine Objekte auf dem Schirm landen werden, verbietet sich alles mit aufwendigen Vertex-/Domain-/Geometry-Shadern (um mal DX11-Terminologie zu verwenden). Das muß man nämlich im Zweifelsfall für jedes Tile im Frame wiederholen.
Nope, man kann einfach den Command solange neu queuen bis dar richtige Tile dran ist. In einer Unified Shader Architektur ist das kein Problem.

Gipsel
2011-06-08, 02:18:47
Nein wie beyond3d schon schreibt hat der Chip echten Speicher deswegen heisst es auch Hierarchical Z buffer.
:confused:
As with ATI's current desktop parts, Xenos features a Hierarchical Z buffer.Da hat Coda vollkommen recht, das machen die normalen GPUs ganz genauso.

Spasstiger
2011-06-08, 02:20:05
Besitzt der Controller eigentlich eigene 3D-fähige Hardware oder werden "nur" Videodaten per Funk an den Controller übertragen? Ich finde das eine recht spannende Sache und wenn es eine drahtlose Videoübertragung ist, würden mich Details zur Implementierung interessieren.

Auf jeden Fall könnte Nintendo mit der Wii U erreichen, dass sich Augmented Reality auch im Wohnzimmer etabliert und in Zukunft aus Spielen nicht mehr wegzudenken ist. Anfangen wird es sicherlich mit einfachen Suchspielen, wo man sich physikalisch in eine andere Position vor dem Fernseher begeben muss, um auf dem Controllerdisplay eine andere Perspektive auf das Geschehen zu erhalten und dadurch sonst nicht sichtbare Objekte zu erhaschen.

del_4901
2011-06-08, 02:22:50
:confused:
Da hat Coda vollkommen recht, das machen die normalen GPUs ganz genauso.
Nope, auf den PC Grafikkarten kaehme es wegen der hohen Aufloesungen und AA zu Problemen mit der Groesse die Box muss nur maximal 1080p mir 4xAA koennen, deswegen hat man das ganze in den Chip verfrachten koennen.

Coda
2011-06-08, 02:24:02
He was?

Natürlich haben Desktop-Radeons einen Hier-Z für's komplette Bild. Das ist kein On-Chip-Speicher.

del_4901
2011-06-08, 02:26:04
He was?

Natürlich haben Desktop-Radeons einen Hier-Z für's komplette Bild. Das ist kein On-Chip-Speicher.
Auf den Desktop wiederspreche ich dir da auch nicht.

Coda
2011-06-08, 02:28:56
Sorry, aber ich versteh nicht was du willst. So wie sich der Artikel liest wird beim Z-First-Pass für jedes Command gespeichert ob es für ein Tile sichtbar ist. Und man kann es dadurch wenn man die Tiles rendert noch schneller verwerfen, als wenn man die einzelnen Tris cullt.

Das braucht minimal Hardware - wenn überhaupt. Kann auch gut sein dass sie das über "memexport" machen. Mit D3D10+-Hardware am PC würde das mit Stream-Out sicher auch irgendwie gehen.

Und nein, Hier-Z steckt nicht in Xenos, sondern im ROP-Teil.

del_4901
2011-06-08, 02:33:30
Sorry, aber ich versteh nicht was du willst. So wie sich der Artikel liest wird beim Z-First-Pass für jedes Command gespeichert ob es für ein Tile sichtbar ist und man kann es dadurch wenn man die Tiles rendert noch schneller verwerfen, als wenn man die einzelnen Tris cullt.

Das braucht minimal Hardware - wenn überhaupt. Kann auch gut sein dass sie das über "memexport" machen. Mit D3D10+-Hardware am PC würde das mit Stream-Out sicher auch irgendwie gehen.

Und nein, Hier-Z steckt nicht in Xenos, sondern im ROP-Teil.

Because the Hierarchical Z Buffer exists on chip the checking operation is very fast and can also reject numerous pixel groups in a single cycle.
EOD

Coda
2011-06-08, 02:39:09
Mit "the chip" ist wohl der eDRAM gemeint.

Und selbst wenn das nicht der Fall wäre (es wäre z.B. vorstellbar das die groben Hier-Z-Stufen vorgehalten werden), würde das nichts an der Funktionsweise ändern, die auch am PC vorhanden ist.

Your point is? Ernsthaft, ich interessiere mich brennend für jede Spezialhardware, die du da vorhanden siehst. Aber so wie sich der Beyond3D-Artikel liest, ist es eben das Command-Buffer-Tagging beim Z-First-Pass. Das ist keine große Geschichte und das meiste (oder alles, je nach Implementierung) wäre dann immer noch Software.

Nightspider
2011-06-08, 02:39:28
Wurde erwähnt, ob der Wii U Controller ein Headphone Ausgang besitzt? Ich hoffe doch.

Kenne mich mit IBM überhaupt nicht aus aber wird nich auch IBM früher oder später, also Ende 2011 oder Anfang 2012 auf 32nm wechseln?

Selbst wenn in den ersten Monaten die Kosten höher ausfallen würde Nintendo früher oder später massiv sparen bzw. mehr Leistung rausholen können. Denn dann würde vllt nur ein Fertigungsprozess zwischen der Wii-U und der PS4/Xbox"3" liegen.

Gipsel
2011-06-08, 02:52:04
EOD
Überhaupt nicht. Hierarchical-Z hat mit dem XBox360-Tiles und Z-Only erstmal nix zu tun (außer das ein Z-only prepass ohne einen early-Z-Test ziemlich sinnlos wäre). Hierarchical-Z funktioniert bei Xenos und PC-Radeons identisch.
Das ist dazu gedacht, die nötige Z-Buffer-Bandbreite zu reduzieren, indem der Z-Buffer praktisch in (mehreren) reduzierten Auflösungen vorgehalten wird, wo für dann für mehrere benachbarte Pixel zusammengefaßt der minimale und maximale Z-Wert gespeichert wird. Liegt ein Dreieck komplett außerhalb dieses Bereichs, müssen die Z-Werte der einzelnen Pixel nicht gelesen werden, da es entweder komplett sichtbar oder komplett verdeckt ist. Man kann das also oft schon anhand der reduzierten Auflösungen feststellen, die in einem extra Puffer gecached werden, auch bei Desktop-GPUs. Diese Hierarchical-Z-Buffer werden immer möglichst aktuell gehalten, spätestens beim Schreiben in den Framebuffer updaten die ROPs das Ganze.

Jetzt ist EOD.

Gipsel
2011-06-08, 02:57:51
Und nein, Hier-Z steckt nicht in Xenos, sondern im ROP-Teil.Kommt drauf an, wie man es sieht ;). Die ROPs updaten es, aber die Rastereinheiten nutzen diese Information für einen early-z-Test (gleich nach dem Scanline Converter beim Zusammenstellen der Wavefronts für die Pixelshader).

Nightspider
2011-06-08, 03:08:46
Oh, mir ist gerade erst aufgefallen, das beim neuen Controller nur 2 flache Analog Sticks daherkommen.
Was haltet ihr davon?

Also ich fand den Analog Stick beim 3DS nicht ganz so "gemütlich" wie den Nunchuck Stick.

DeadMeat
2011-06-08, 03:14:49
Ich find beide Arten ganz ok, kommt am Ende darauf an wie die oberfläche aussieht. Ich kann mir vorstellen das die flachen weniger verschleißen.

Coda
2011-06-08, 04:22:57
Kommt drauf an, wie man es sieht ;). Die ROPs updaten es, aber die Rastereinheiten nutzen diese Information für einen early-z-Test (gleich nach dem Scanline Converter beim Zusammenstellen der Wavefronts für die Pixelshader).
Müssen wir uns immer an Details aufhalten :usad:

DeadMeat
2011-06-08, 05:31:59
Falls noch nicht bekannt: Engadget meint unter berufung eines Nintendo Mitarbeiters das die Disc 25gb groß sein kann.

=Floi=
2011-06-08, 05:55:44
die disc ist eh egal und lustig finde ich das mit dem eignene format auch. die wii hatte wohl den schlechtesten kopierschutz und die meisten RK.

Hübie
2011-06-08, 07:43:36
Hm. Also grafisch wird es ja nicht spektakulär werden. Ich frage mich da auch, wieviel (Funk-)Bandbreite allein durch die Nunchucks plus den neuen Controller gefressen wird.
Aber an sich stelle ich es mir sehr cool vor in Alien Colonial Marines mit der Knarre rumzurennen und die per Bewegung dort hinzulenken wo ich sie haben will - andererseits kommt mir der Begriff inpuglag in den Sinn ;)
Die GPU wird vermutlich eine modifizierte Variante vom Cayman oder Cypress sein, denn ich denke nicht das AMD eine völlig neue Architektur entwirft. Andere Möglichkeit wäre eine frühere Variante des souther island zu implementieren.
Wie gesagt mache ich mir aber grafisch wenig Hoffnung ;)

Ganon
2011-06-08, 09:02:41
Alles auf einem Die.

Wenn man davon ausgeht, dass die Architektur von der WiiU ein SoC ist. Davon hab ich bis jetzt aber noch nichts gelesen. ;)

Ich gehe weiterhin davon aus, dass CPU und GPU bei der Wii U komplett getrennt sind.

Von daher haben auch die eDRAMs der beiden Chips auch nix miteinander zu tun...

Für einen CPU-Cache spielt das natürlich keine Rolle.

Von nix anderem rede ich doch. Du hast doch die GPU ins Spiel gebracht ;)

Ganon
2011-06-08, 09:03:54
Pff. Das kann auch einfach POWER heißen, sonst nichts. Auf sowas geb ich schon lange nichts mehr.

Jo, schon klar. Macht aber trotzdem Spaß darüber nachzugrübeln :D

fizzo
2011-06-08, 09:27:08
Wii U Japanese Garden Tech Demo - abgefilmte, lange Version (http://www.youtube.com/watch?v=6OHUwDShrD4&feature=player_embedded)

Finch
2011-06-08, 09:36:38
da gibt es bei youtube viel bessere Versionen.

dargo
2011-06-08, 10:28:23
Die Grafikperformance scheint unter einer 6970M zu liegen ,
schwache Leistung für eine Konsole die 2012 erscheinen soll und von aktuellen Gaming-Laptops in die Tasche gesteckt wird.

Was soll denn dieser Vergleich wieder? Schon mal geschaut was diese Gaming-Laptops kosten? Würde Nintendo bei deren Konsole um die 1000€ anpeilen wäre da auch viel mehr drin.

robbitop
2011-06-08, 10:58:24
Selbst ein RV770 oder ein Juniper (RV840?) würde die PS3 und die X360 derbe verhauen. Wenn die Wii U, einen vollen RV770 an Board hätte, wäre das IMO absolut ok!
Mich überzeugt das neue Controllerkonzept und hinzu kommt endlich ausreichende 3D Leistung, bessere Dev Rel und eine bessere Online Plattform.
Gegen eine PS4 / Xbox 3 hätte die Wii U von der reinen HW bestimmt keine Chance - aber offenbar dauert es noch eine ganze Weile bis Sony und MS launchen - und bis dahin kann man bei Multititeln endlich dabei sein.

AnarchX
2011-06-08, 11:02:50
Selbst ein RV770 oder ein Juniper (RV840?) würde die PS3 und die X360 derbe verhauen. Wenn die Wii U, einen vollen RV770 an Board hätte, wäre das IMO absolut ok!

Fraglich ob das bei dem Formfaktor selbst mit 28nm in das Energiekonzept passt.

Bei B3D meint man id Software hätte sich geäußert, dass die GPU RV770 Fähigkeiten oder darüber hat, aber weniger ALUs.

dargo
2011-06-08, 11:19:09
Bei B3D meint man id Software hätte sich geäußert, dass die GPU RV770 Fähigkeiten oder darüber hat, aber weniger ALUs.
Der kleinste RV770 (HD4830) hat ja 640 Stream-Prozessoren. Also noch weniger als diese GPU?

AnarchX
2011-06-08, 11:21:09
Der kleinste RV770 (HD4830) hat ja 640 Stream-Prozessoren. Also noch weniger als diese GPU?
Wenn man mindestens auf XBox 360 Niveau liegen will, sollten es >=240SPs sein.

dargo
2011-06-08, 11:25:54
Wenn man mindestens auf XBox 360 Niveau liegen will, sollten es >=240SPs sein.
Aber was will man dann mit einem 256Bit SI und GDDR5? Das wäre doch totaler Overkill. Obwohl das auch wieder nur Gerüchte waren. :uponder: GDDR5 @800Mhz an einem 128Bit SI würden schon eher passen.

Edit:
Die vermuteten ~1400Glops waren dann aber völlig utopisch.

robbitop
2011-06-08, 11:25:57
Hier steht was von 28 nm in der Auslieferungsversion und einen 40 nm Prototyp:

http://fudzilla.com/graphics/item/23000-new-nintendo-wii-u-has-amd-radeon

fondness
2011-06-08, 11:30:19
Hier steht was von 28 nm in der Auslieferungsversion und einen 40 nm Prototyp:

http://fudzilla.com/graphics/item/23000-new-nintendo-wii-u-has-amd-radeon

Das finde ich auch erwähnenswert:
According to our insiders we also learned that AMD might have won all consoles this time around, Sony included. You may recall that Nvidia made some pretty nice deals when Sony cae calling, but this will most likely cost Nvidia a next generation console deal with Sony.

Alle CPUs von IBM, alle GPUs von AMD, die Konsolen nähern sich wohl immer weiter an.

zustand
2011-06-08, 12:42:01
Das hat doch Ailuros auch schon vor ein paar Tagen verkündet. Bleibt die Frage, ob es eine zusätzliche Bestätigung ist.

Ailuros
2011-06-08, 13:32:19
Nintendo Wii kommt frueher als die anderen beiden Konsolen, deshalb ist es auch kein Wunder dass wir dafuer schon jetzt Ankuendigungen sehen. Ich bezweifle dass die anderen beiden schon etwas zementiert haben, obwohl ich wirklich vom Hocker fallen wuerde falls Microsoft nicht auch AMD GPU IP waehlen wird. SONY ist entweder ein Eigendesign (Gott hilf) oder etwas von AMD.

Gipsel
2011-06-08, 13:41:53
Hier steht was von 28 nm in der Auslieferungsversion und einen 40 nm Prototyp:

http://fudzilla.com/graphics/item/23000-new-nintendo-wii-u-has-amd-radeon
Wenn die CPUs von IBM kommen und wirklich was neueres sein sollten (also Power7 Derivat), dann wird der Kram wohl kaum von TSMC gefertigt werden, selbst GF ist fraglich (die haben wenig Erfahrung mit eDRAM). Der wahrscheinlichste Fertiger wäre m.M. dann IBM selber, weswegen eigentlich nur 45nm SOI (was ich für unwahrscheinlich für die Release-Version halte) oder eben 32nm SOI.

Und wie schon mal gefragt, was spricht gegen einen SoC wie bei der XBox360 (der auch von GF/IBM gefertigt wird)? Die höhere Integrationsdichte der GPU bei 28nm bulk? Läuft das 2012 schon zuverlässig genug für die benötigten Kapazitäten? Wozu benötigt man dann die angeblich "große Menge" an eDRAM? Für einen L3-Cache bei einer Konsole ist das ziemlich Overkill, wenn man das mal mit 'nem für Server gedachten Power7 vergleicht (der 32MB eDRAM hat).

Undertaker
2011-06-08, 13:49:41
Was soll denn dieser Vergleich wieder? Schon mal geschaut was diese Gaming-Laptops kosten? Würde Nintendo bei deren Konsole um die 1000€ anpeilen wäre da auch viel mehr drin.

Nicht nur das, auch der Verbrauch einer HD6970M (100W?) sprengt jegliches Verbrauchsbudget, dass Nintendo im Auge haben dürfte.

fondness
2011-06-08, 13:53:56
Nicht nur das, auch der Verbrauch einer HD6970M (100W?) sprengt jegliches Verbrauchsbudget, dass Nintendo im Auge haben dürfte.

75W, das ist nur ein abgespeckter und niedrig getakteter Barts. Also so viel wäre das nicht für eine Konsole, wo die GPU durchaus den Löwenanteil verbrauchen darf.

urbi
2011-06-08, 15:16:17
Nintendo hat da aber einen anderen Anspruch als die anderen. Bei 75W für die Grafik könnte man ja auf 120 bis 150W insgesamt kommen. Das wäre soviel wie Sony und MS mit den ersten Refreshs ihrer akutellen Konsolen hatten (die neuesten Modelle sind AFAIK sparsamer).

Für Nintendo liegt die grenze mutmaßlich deutlich niedriger. Ich vermute man strebt deutlich unter 100W an. Selbst das ist gemessen an den unter 20W der Wii schon viel.

Nightspider
2011-06-08, 15:20:06
Am Ende ist es nur ein sehr schneller Power PC 7 DualCore, der so schnell ist wie die 3 Kerne in der 360.

Käsetoast
2011-06-08, 15:34:58
Wobei ich auch der Meinung bin, dass die CPU Leistung für eine Konsole jetzt nicht sooo wichtig sind. Ich meine Konsolen sind ja nun nicht dafür berüchtigt, dass dort großartige RTS Schlachten ablaufen wo mit Pathfinding & Co unzähliger Einheiten die CPU zum Flaschenhals wird und für ein wenig Physikberechnung brauche ich keinen Sechskerner mit ner 125W TDP oder sowas...

Natürlich sollte man die CPU auch nicht völlig unterdimensioniert anlegen. Was man jetzt bei der Wii U sinnvollerweise als minimale Leistung die man doch bitte erwarten kann ansetzen sollte (und ob die IBM CPU das erfüllt), darüber lässt sich jetzt vortrefflich streiten...

Mehrkern CPU mit ein paar neuen Details finde ich aber bisher ganz zufriedenstellend. Auch sicherlich besser als sich ein Monster à la Cell einzuverleiben, wo dann große Teile vor sich hin idlen und Hersteller die Möglichkeit entdecken MLAA von der CPU berechnen zu lassen... :wink:

AnarchX
2011-06-08, 16:26:20
Am Ende ist es nur ein sehr schneller Power PC 7 DualCore, der so schnell ist wie die 3 Kerne in der 360.

Xenon PPE:
1 integer unit
1 floating-point unit
1 branch unit
1 load-store unit
2 VMX-128 units
http://arstechnica.com/old/content/2005/06/xbox360-2.ars/4

Power7 Core:
2 integer units
2 load-store units
4 double-precision floating-point units
1 branch unit
1 condition register unit
1 vector unit
1 decimal floating-point unit
http://arstechnica.com/hardware/news/2009/09/ibms-8-core-power7-twice-the-muscle-half-the-transistors.ars

Zusammen mit der OOE dürfte ein Dual-Core Power7 wohl an Xenon vorbeiziehen.

Deinorius
2011-06-08, 16:29:36
Auch mit niedrigerer Taktfrequenz?

Nightspider
2011-06-08, 16:37:53
Zusammen mit der OOE dürfte ein Dual-Core Power7 wohl an Xenon vorbeiziehen.

Joar davon wäre ich auch ausgegangen, auch wenn der Power7 DualCore nur wenig (~30%) schneller wäre.

Was für Taktraten erreicht ein Power7 bei 45nm und wieviel wären wohl erst bei 32nm drin?

Coda
2011-06-08, 16:52:24
Auch mit niedrigerer Taktfrequenz?
Ein POWER7-Kern braucht wohl nichtmal die Hälfte des Taktes um an einem der Xbox-360-Kerne vorbeizuziehen.

Nightspider
2011-06-08, 16:55:45
Okay laut Wikipedia liegt die Maximaltraktrate des Power7 Prozessors bei 4,1 Ghz. Mit 32nm wären 4,5Ghz oder mehr drin.

AnarchX
2011-06-08, 17:03:15
Mal etwas zu den Verbrauchswerten und Leistung eines Power7:

>A few configs:
>710 Express 3.55Ghz 8 core at full utilization is 240W
>730 Express 3.55Ghz 16 core at full utilization is 370W
>
>Going by the difference in wattage between the 2, the 3.55Ghz 8 core chip uses
>approx. 130W (not sure how accurate this way of measuring is though), which amazingly
>is the same as the TDP of a 6 core 3.33Ghz Westmere-EP chip.
>
>Westmere-EP (Xeon 5680) 3.33Ghz int/fp_rate ~190/128
>POWER7 3.55Ghz int/fp_rate 289/248
http://www.realworldtech.com/beta/forums/index.cfm?action=detail&id=112181&threadid=112083&roomid=2

Coda
2011-06-08, 17:20:51
Die Rechnung ist ja wohl total Banane.

pixelguy
2011-06-08, 17:51:51
Nintendo Wii kommt frueher als die anderen beiden Konsolen, deshalb ist es auch kein Wunder dass wir dafuer schon jetzt Ankuendigungen sehen. Ich bezweifle dass die anderen beiden schon etwas zementiert haben, obwohl ich wirklich vom Hocker fallen wuerde falls Microsoft nicht auch AMD GPU IP waehlen wird. SONY ist entweder ein Eigendesign (Gott hilf) oder etwas von AMD.
Was spricht denn gegen eine GPU von nVidia?

Hayab
2011-06-08, 18:51:57
Ausser dem Touchscreen Controller wird die restliche Hardware eine Kruecke sein. Alleine die Hardware die, die Bilder von GPU zu dem Controller schickt wird teuer und ich bin mir sicher dass Nintendo keine 1000 Dollar als VK anpeilt.
Natuerlich kann es auch sein, dass der Touchscreen Controller als extra Hardware angeboten wird, dann sieht die Sache anders aus.

AnarchX
2011-06-08, 18:57:34
Ausser dem Touchscreen Controller wird die restliche Hardware eine Kruecke sein. Alleine die Hardware die, die Bilder von GPU zu dem Controller schickt wird teuer und ich bin mir sicher dass Nintendo keine 1000 Dollar als VK anpeilt.
1080p auf 25m mit Wänden dazwischen kann man schon für 150€ übertragen: http://geizhals.at/deutschland/a636283.html

Die Nintendo-Lösung wird da schon deutlich eingeschränkter (~540p, ~10m, ein Raum) sein und entsprechend kostengünstiger.


Natuerlich kann es auch sein, dass der Touchscreen Controller als extra Hardware angeboten wird, dann sieht die Sache anders aus.
Momentan sieht es danach aus, dass der Controller nur mit der Konsole erhältlich ist und maximal ein Touchscreen-Controller pro Konsole möglich ist.

Screemer
2011-06-08, 18:59:20
wireless hdmi bzw. wireless display oder was vergleichbares dürft das ganze nicht merklich teurer machen.

Nightspider
2011-06-08, 19:00:44
Ich hab irgendwo gelesen, das man 2 Gamepads mit Display an die Wii U anschließen kann.

Woher hast du die 540p?

In den Videos wurde ja eher gesagt, dass das Bild scharf sein soll, wenn ich nix falsch verstanden habe.

Drill
2011-06-08, 19:05:07
Ich hab irgendwo gelesen, das man 2 Gamepads mit Display an die Wii U anschließen kann.

Woher hast du die 540p?

In den Videos wurde ja eher gesagt, dass das Bild scharf sein soll, wenn ich nix falsch verstanden habe.

und warum sollten 540p auf 6'' nicht scharf sein?

AnarchX
2011-06-08, 19:05:52
Ich hab irgendwo gelesen, das man 2 Gamepads mit Display an die Wii U anschließen kann.
Quelle?


Woher hast du die 540p?

In den Videos wurde ja eher gesagt, dass das Bild scharf sein soll, wenn ich nix falsch verstanden habe.
http://youtu.be/hTkCIJGTe_U?t=1m5s
Above PSP, below Iphone 4.

LovesuckZ
2011-06-08, 19:08:47
Ein Controller PRO Konsole? Wie lolig ist das denn?

Nightspider
2011-06-08, 19:12:27
Quelle?


http://youtu.be/hTkCIJGTe_U?t=1m5s
Above PSP, below Iphone 4.

Ja und? Der redet von DPI. DPI unter iPhone 4 kann immernoch 720p auf 6,2" sein.
Das iPhone 4 hat immerhin 960 × 640 auf 3,5".

Von den neuen Controllern mit Touchscreen lassen sich übrigens maximal zwei gleichzeitig betreiben, wobei es den Controller nach aktuellem Stand nicht einzeln zu kaufen geben wird.

http://www.computerbase.de/news/consumer-electronics/konsolen/nintendo/2011/juni/erste-informationen-zur-wii-u-hardware/

DeadMeat
2011-06-08, 19:26:24
Ein Controller PRO Konsole? Wie lolig ist das denn?

Gerüchte sagen 2 Tablet Controller+mehrere Remotes.
Es gibt ene Demo mit einem Tablet +4 Remotes gleichzeitig.

Man darf das nicht falsch verstehen der TabletController wird genau so Standardeingabegerät wie Remote/Classic Controller. Je nach Spiel und Anforderungen.

Nightspider
2011-06-08, 19:33:31
Mal ne verrückte Idee:

Wenn die Wii U tatsächlich überall FullHD rendert könnte man beim Umschalten zum Controller doch Anti Aliaising oder gar SSAA hinzuschalten. Dann würde man das Bild auf dem Controller Screen deutlich aufwerten und spart Bandbreite beim streamen. Genug Rechenleistung könnte die Wii U ja haben.

xyleph
2011-06-08, 19:48:58
Nach Beyond3D wird die Zelda Demo in 720p ohne AA gerendet und nur auf 1080p skaliert. Das ist ja schonmal ein guter Anfang für eine selbstablaufende Techdemo in einen Raum.

Nightspider
2011-06-08, 19:52:28
Muss ja noch nix heißen, wenn die Hardware noch nicht final ist. Vielleicht sollen alle Entwickler mit dem DEV Kit erstmal für 720p proggen und die Finale Hardware wird die zusätzliche Leistung benötigen, um alle Spiele final in FullHD zu rendern.

Grey
2011-06-08, 20:05:56
25GB CD

http://www.gamasutra.com/view/news/35118/Wii_U_Will_Have_AMD_Radeon_HD_IBM_Power_Microprocessors_And_25_GB_Discs.php
http://kotaku.com/5809701/wii-u-discs-will-be-25gb-in-size

urbi
2011-06-08, 21:56:48
Wurden die Specs hier schon wiederlegt? http://sickr.files.wordpress.com/2011/05/projectcafe_specs.jpg

Angeblich ist die Wii U ja aber nicht GC-Kompatibel.

Die "Grafikkarte" würde aber passen, wenn man mal davon ausgeht, dass einige Developer wirklich schon seit 2009 Prototypen haben.

Nightspider
2011-06-08, 21:59:24
Apropos Abwärtskompatibilität. Die soll ja zur Wii gegeben sein. Wird man die Wii Hardware als Mini-SOC in die Wii-U einpflanzen? Per Software wäre dies zumindest um einiges schwieriger.

Und warum sollten dann keine GC Spiele darauf laufen, wenn die Wii-Hardware nur eine "hochgetaktete" GC Hardware war?

looking glass
2011-06-08, 22:00:36
Wen sie Wii kompatibel wäre, wäre sie auch GC kompatibel, einzig und allein am schlucken von 8cm Discs könnte es dann scheitern und mal ehrlich wer sieht was Dolphin kann (und das ohne Originaleinblick in die specs), bezweiflet irgendwie, das sie kein 100% passenden emu bauen könnten - der Vorteil wäre damit sogar, sie wären wohl billiger in Hardwareherstellung und könnten den noch extra verkaufen und wer kein Bock auf Scheiben hat, könnte dann bei denen wohl auch noch die Spiele als DL kaufen. Damit hätte man auch die saure Gurkenzeit bei Release sehr schön umgangen.

urbi
2011-06-08, 22:04:29
Nein! Angeblich gibt es keine GC-Anschlüsse für Controller und Speicherkarten. Daran kann es dann nämlich auch scheitern.

Im Übrigen hatte die Wii doch AFAIK keinen eingebauten GC sondern einfach nur wieder Chips von IBM und AMD, sodass GC-Spiele darauf liefen. Evtl. ist es ja bei der Wii U ähnlich?

Ganon
2011-06-08, 22:17:45
Nein, die Wii hatte 1:1 die gleiche Technik wie GC und musste sich nur runtertakten. That's it. Dass die WiiU keine GC-Spiele abspielen können wird, liegt wohl daran, dass die Anschlüsse fehlen. Außerdem will man sich wohl, aufgrund einer wahrscheinlichen Emulation, den Aufwand dafür sparen. Man müsste nämlich zusätzlich den GC-Controller und die Speicherkarten dazu emulieren.

Wii-Emulation dürfte das kleinste Problem sein. Die Wii ist relativ simpel. SingleCore-PowerPC-CPU, kaum Features im Grafikchip, keine besondere Hardware sonst. Darum ist auch der Dolphin-Emulator schon so weit fortgeschritten.

Das die Wii-Spiele nativ auf der WiiU laufen halte ich für sehr sehr sehr sehr sehr sehr sehr unwahrscheinlich. Folgende Gründe sprechen imo dagegen:

a) Die WiiU wäre schon jetzt vor Release gehackt (unpatchbare Soft-Mods für Wii verfügbar)
b) Wii-Spiele laufen direkt auf der Hardware. Man kann den Spielen somit nicht im Nachhinein sagen, dass sie plötzlich einen HDMI-Ausgang unterstützen, 1080p darstellen und auf ein 3Ghz Prozessor laufen sollen.

Nightspider
2011-06-08, 22:17:52
Im Übrigen hatte die Wii doch AFAIK keinen eingebauten GC sondern einfach nur wieder Chips von IBM und AMD, sodass GC-Spiele darauf liefen. Evtl. ist es ja bei der Wii U ähnlich?

Zum 1.: ja, davon reden wir ja und zum 2.: NEIN!

urbi
2011-06-08, 22:21:33
Danke.

Das mit 1080P/Upscaling bei Wii-Games geht ja angeblich auch gar nicht. 480P maximal. :(
Würde aber wohl an der Problematik mit dem HDMI nichts ändern, es sei denn man müsste die Wii U zusätzlich per Komponentenkabel/RGB/AV-Scart anschließen. ;D

Lightning
2011-06-08, 22:29:05
Im Übrigen hatte die Wii doch AFAIK keinen eingebauten GC sondern einfach nur wieder Chips von IBM und AMD, sodass GC-Spiele darauf liefen. Evtl. ist es ja bei der Wii U ähnlich?

Es waren nicht einfach nur Chips von IBM und AMD, sondern auch die gleichen Archtitekturen, der gleiche Speicher. Die ganze Hardware hat einen fallback-Modus, in dem sie sich exakt wie ein Gamecube verhält - deswegen läuft beim Start eines GC-Spiels auch nicht mehr das Wii-OS im Hintergrund. Man muss die ganze Konsole resetten, will man das Spiel wechseln oder ins Hauptmenü zurück.
So etwas wird mit der neuen Hardware der Wii U nicht mehr möglich sein.

Emulation wäre eine Möglichkeit. Damit lässt sich ein gutes Ergebnis erzielen, eine wirklich 100% kompatible und korrekte Emulation halte ich aber für Utopie.
Die Entwicklung des Emulators kostet aber natürlich auch Zeit und Geld. Möglich, dass man sich diesen Aufwand spart und für das Geld stattdessen doch noch zumindest einen Teil der Wii-Hardware verbaut.

looking glass
2011-06-08, 22:34:12
Das wäre aber äußerst dämlich, dann haben sie nämlich wieder die saure Gurkenzeit nach Release, bis die ersten Third Partys kommen - mag sein das die Hardware kein Fallback besitzt, aber auf einem Emu können sie nicht verzichten, ohne das ihnen ins Gemächt getreten wird (zumal wie gesagt Dolphin zeigt, was und wie es geht).

urbi
2011-06-08, 22:35:04
Oha, dass mit dem GC wusste ich gar nicht (AFAIK habe ich noch nie ein GC-Spiel auf der Wii gespielt obwohl ich beides da habe).

Wie sind Spiele für moderne Konsolen überhaupt programmiert? Die Zeiten von Assembler sind ja wohl hoffentlich(?) seit 10 Jahren vorbei. :D

Irgendwie kann ich mir einfach nicht vorstellen, dass Nintendo keinen Emulator hinbekommen sollte. Zumindest wenn es stimmt, dass Spiele schon auf Darstellung in höherer Auflösung optimiert wurden wird man doch auch diesbezüglich Vorsorge treffen können...

looking glass
2011-06-08, 22:40:39
Jein, manches ist ziemlich hardwarenah, immer noch, z.B. bekommt man mit Dolphin keine Musik bei bestimmten GC Spielen zu hören,weil die die Ausgabe mit direkten Hardwareaufrufen ohne zwischengeschaltete API geproggt haben, aber seit Wii ist mir dahingehend nichts bekannt, dürfte zwar alles sehr optimiert sein auf die Hardware, aber mit Assembler und direktem ansprechen, ich glaube das ist echt vorbei.

urbi
2011-06-08, 22:42:51
Vielleicht deutet vermeintliche Fehlen der GC-Kompatibilität ja dann auf eine reine Wii-Emulationslösung hin, die schlicht und einfach problemloser umzusetzen war.

Lightning
2011-06-08, 22:59:53
Irgendwie kann ich mir einfach nicht vorstellen, dass Nintendo keinen Emulator hinbekommen sollte.

Natürlich kriegt man einen brauchbaren Emulator hin, wenn man es will. Das läuft dann halt, wie es bei Sony lief oder bei MS läuft: Es wird eine Kompatibilitätsliste geben. Die bekanntesten Spiele würden perfekt laufen (potentiell auch mit höherer Auflösung, kostet aber wieder zusätzlichen Aufwand), viele Spiele würden gut aber mit kleineren Mängeln laufen (beispielsweise gelegentliche Soundknackser, Schattenfehler oder Ruckler), manche würden gar nicht laufen.

Ganon
2011-06-08, 23:09:36
deswegen läuft beim Start eines GC-Spiels auch nicht mehr das Wii-OS im Hintergrund.

Bei Wii-Spielen auch nicht. Die Spiele liefern den ganzen Kram drum herum, der wie das Wii-OS aussieht, direkt mit.

Hayab
2011-06-08, 23:35:31
1080p auf 25m mit Wänden dazwischen kann man schon für 150€ übertragen: http://geizhals.at/deutschland/a636283.html

Die Nintendo-Lösung wird da schon deutlich eingeschränkter (~540p, ~10m, ein Raum) sein und entsprechend kostengünstiger.


Momentan sieht es danach aus, dass der Controller nur mit der Konsole erhältlich ist und maximal ein Touchscreen-Controller pro Konsole möglich ist.

Die Uebertragung alleine ist ja schon teuer, man muss aber das bild noch irgendwie darstellen koennen. Dafuer brauch man eine CPU und ein wenig Speicher. Sowie die LCD Displayhardware + Touchpaneloberflaeche irgendwelche Lagesensoren, Analogsticks sollen auch drin sein.

Ich bezweifle ob so ein Conrtoller mit weniger als 200 Doller zu herrstellen ist. Fuer 200 Dollar mehr koennte man schon eine potentere GPU oder 2GB RAM extra einbauen. Stattdessen legt Nintento viel Manpower in irgendwelche sinfreie Gadgets.

fizzo
2011-06-09, 00:21:03
Ich bezweifle ob so ein Conrtoller mit weniger als 200 Doller zu herrstellen ist. Fuer 200 Dollar mehr koennte man schon eine potentere GPU oder 2GB RAM extra einbauen. Stattdessen legt Nintento viel Manpower in irgendwelche sinfreie Gadgets.

Laut Iwata wird die Wii U preislich über $ 250 inkl. Controller angesiedelt sein. Da Nintendo Hardwaresubventationen hasst wie der Teufel das Weihwasser, so kann ich deinen angedachten Einstandspreis für die Eingabeeinheit nicht nachvollziehen. Was dieses 'sinfreises Gadget' betrifft, so wird das mehr Bewegung in die Spieleindustrie als aller RAM dieser Welt ;)

Hübie
2011-06-09, 06:57:11
Ich vermute doch eher dass das reine Bild komprimiert übertragen wird. Da brauchts keine CPU o.ä. im Controller. Ist ein bissl wie cloud-computing.
Oder habe ich dich nun falsch verstanden Hayab?

Aquaschaf
2011-06-09, 07:41:57
Ich vermute doch eher dass das reine Bild komprimiert übertragen wird. Da brauchts keine CPU o.ä. im Controller.

Das Bild müsste z.B. dekomprimiert werden.

Ich bezweifle ob so ein Conrtoller mit weniger als 200 Doller zu herrstellen ist. Fuer 200 Dollar mehr koennte man schon eine potentere GPU oder 2GB RAM extra einbauen. Stattdessen legt Nintento viel Manpower in irgendwelche sinfreie Gadgets.

Eine schnellere CPU und/oder mehr RAM ermöglichen keine prinzipiell anderen Spiele, der Controller wiederum ist ein Alleinstellungsmerkmal.

robbitop
2011-06-09, 08:28:52
Wenn ihn nicht wieder jemand kopiert...

Hübie
2011-06-09, 08:30:06
Das Bild müsste z.B. dekomprimiert werden.


Bei der Auflösung brauchts nur komprimiert zu werden. Downscaling ist ja schon eine Form der Kompression :wink:

robbitop
2011-06-09, 09:02:38
Um das Signal über Funk zu übertragen muss es (vermutlich verlustbehaftet) komprimiert werden. Ein TFT Panel hingegen kennt nur RGB für jedes einzelne Pixel - also muss der Videostream natürlich im Controller dekomprimiert werden. Das wird aber ein dedizierter ASIC in Echtzeit machen.
IMO sehr beeindruckend, was sie mit dem neuen Controller machen. Ich kann nur empfehlen, sämtliche Demo-Videos auf gametrailers zu sehen, um sich die Möglichkeiten und Ideen mit dem Controller anzusehen. Es wird vermutlich noch viel mehr Ideen über die Nutzung in den nächsten Jahren geben!

AnarchX
2011-06-09, 09:12:25
Um das Signal über Funk zu übertragen muss es (vermutlich verlustbehaftet) komprimiert werden. Ein TFT Panel hingegen kennt nur RGB für jedes einzelne Pixel - also muss der Videostream natürlich im Controller dekomprimiert werden. Das wird aber ein dedizierter ASIC in Echtzeit machen.

Oder eben ein WHDI-ähnliches System bei dem nicht komprimiert wird, sondern kodiert, sodass Bitfehler nicht auffallen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8711453#post8711453

1080p wird und eine Übertragung auf 30m mit Wänden dazwischen wird Nintendo wie gesagt nicht benötigen.

Hoffentlich wird es in Zukunft möglich sein, mehr als einen/zwei Tablet-Controller pro Konsole zu nutzen. Vielleicht gibt es später auch eine Plus Version mit eigenem SoC, die autarke Funktionen bzw. Casual-Games erlaubt.

urbi
2011-06-09, 09:18:22
Danke.

Das mit 1080P/Upscaling bei Wii-Games geht ja angeblich auch gar nicht. 480P maximal. :(
Würde aber wohl an der Problematik mit dem HDMI nichts ändern, es sei denn man müsste die Wii U zusätzlich per Komponentenkabel/RGB/AV-Scart anschließen. ;D

Kurzes Update bezüglich der Anschlüsse:

Hinter der Klappe vorne sind ein SD-Kartenslot und zwei USB-Anschlüsse.
Auf der Rückseite befindet sich ein HDMI-Anschluss, weitere zwei USB-Anschlüsse, der Stromanschluss, der Anschluss für die Sensorbar und ein Video Out à la Wii

Haben sie es sich so leicht gemacht? :freak:

FlashBFE
2011-06-09, 10:41:49
Was ich etwas Besorgnis erregend finde, ist das zunehmende Controller-Kuddelmuddel.
Da hat man nun ein bis zwei Tablets pro Konsole und braucht für viele Spiele auch noch eine gewisse Anzahl von Wii-Remotes und Nunchuks, bei manchen auch noch das "Surfbrett".

Hallo? Soll ich mir erst für teuer Geld den ganzen Krempel zulegen und einen Schrank damit füllen, während das nächste Spiel dann nur noch einen der vielen Controller braucht?

So richtig durchdacht scheint das für mich nicht. Kinect wirkt da irgendwie viel eleganter. Aber vielleicht wirds auch viel harmloser als ich denke und die meisten Spiele werde das ganze Geraffel dann doch nicht unterstützen.

urbi
2011-06-09, 11:00:59
Ich vermute, dass der Wii U der Wii U Controller und ein Wii-Controller beiliegen werden. Damit ist man dann völlig ausreichend ausgestattet:
Der Wii U Controller ist ja im Prinzip nichts anderes als ein Classic Controller Pro mit Touchscreen. Der reicht für jedes 0815 Konsolenspiel (damit meine ich Gamepad-Ports von Xbox 360 und PS3 Games). Die Wii Remote reicht wie bei der Wii für Wii- oder Wii-ähnliche Spiele aus!
Der MP soll ja stets so zugeschnitten sein, dass man nur einen Wii U Controller braucht. Ergo hat man bestenfalls out of the Box schon genug Controller für zwei Spieler. Wenn man ein Spiel hat, dass den Wii U Controller nicht unterstützt braucht man halt eine zusätzliche Wii Remote. Wenn man ein Spiel hat das einen Classic Controller Pro für den zweiten Spieler voraussetzt braucht man halt einen CCP.

Ich denke es geht preislich.

IMO ist der Wii U Controller aber einfach ein nettes Extra. Ich gehe davon aus, dass man theoretisch die Mehrzahl der Spiele mit Wii-Controllern (Wii Remote + CCP) zocken können wird! Nintendo's Wii-Steuerungskonzept war eigentlich nach wie vor State of Art, man brauchte aber was neues und so hat man den Wii U Controller erfunden... :D

Deinorius
2011-06-09, 11:09:49
@urbi
IMO würde diese Dikussion wohl besser in den anderen Wii-Thread passen.
Ich selber bin der Meinung, dass man nur den Wii U Controller beilegen wird. Der kostet auch so schon genug, als dass man jetzt auch noch unnötig den Preis der Konsole hochtreiben müsste. Immerhin haben viele Wii-Käufer auch so schon eine Wiimote.

Zur News von Computerbase (http://www.computerbase.de/news/consumer-electronics/konsolen/nintendo/2011/juni/erste-informationen-zur-wii-u-hardware/) steht, dass die GPU Multimedia-Beschleunigung bieten wird.
Ich nehme mal an, man wollte für die vorgerenderten Videos auf der Wii U lieber effizientere Hardware verwenden, eine andere Erklärung kann ich mir grad schwer vorstellen. Außer Nintendo möchte die neue Konsole auch als Multimedia-Player anbieten. :eek: (mit DivX Ultra Spezifierung :uup: )

AnarchX
2011-06-09, 11:13:51
Netflix oder ähnliches mit 1080p wäre wohl durchaus relevant. Mit der Radeon HD wird wohl mindestens auch ein UVD 2.0 verbaut werden.

Interessant wird sein, ob man wenigstens für die Medien-Wiedergabe 3D-Unterstützung mitbringt.
Vielleicht gibt es später noch ein Upgrade in Form einer Wii U 3D, die dann einen Controller mit autostereoskopischem Display besitzt. Die HW wird etwa schneller für den 3D-Overhead, während die Wii U Classic weiter in 2D rendert.

urbi
2011-06-09, 11:20:10
@Deinorius: Wollte nur kurz was dazu schreiben, dass der Kern des Threads woanders liegt ist mir aber klar. :)

@AnarchX: Wenn diese Kamera im Controller wirklich auf Gesichtserkennung optimiert ist könnte es ja auch sein, dass man sie für Head-Tracking (http://www.youtube.com/watch?v=Jd3-eiid-Uw) verwendet. Solches 3D auf dem kleinen Bildschirm sollte kein Problem sein.

Deinorius
2011-06-09, 12:57:47
@AnarchX: Wenn diese Kamera im Controller wirklich auf Gesichtserkennung optimiert ist könnte es ja auch sein, dass man sie für Head-Tracking (http://www.youtube.com/watch?v=Jd3-eiid-Uw) verwendet. Solches 3D auf dem kleinen Bildschirm sollte kein Problem sein.


So eine Funktion wird mehr oder weniger zwischen Wii U Controller und TV eh gemacht. Dazu richtiges Head Tracking wäre ja genial. :D

Screemer
2011-06-09, 14:48:26
gabs doch schon am dsi: http://www.youtube.com/watch?v=h5QSclrIdlE. ich fand das ziemlich cool hätte mir für den 3ds besser gefallen als kopfweh-autosteroskopie. das kann ich mir am wii-u controller auch recht gut vorstellen. solid snake um die ecke spähen usw.

AnarchX
2011-06-09, 16:25:06
Fudzilla Spekulation:
The Wii U as suspected will be an HD capable console offering resolutions from 480i to 1080p. It is powered by an AMD/ATI R700 series GPU at 32nm with 1GB of video memory that has been customized for Nintendo’s use in the Wii U. We estimate that the GPU will be clocked between 750 MHz to 825MHz. As for the CPU, the Wii U will be using a 32nm quad-core IBM Power CPU.
http://www.fudzilla.com/games/item/23012-wii-u-hardware-not-a-surprise

dargo
2011-06-09, 16:34:34
Ich blick bald nicht mehr durch, jeder spekuliert was anderes. :freak:
Gibts überhaupt schon einen festen Release-Termin oder heißt es erstmal nur 2012? Im zweiten Fall wären nämlich Q3/Q4 auch möglich wodurch die Chance das ganze in 32nm releasen zu können natürlich steigen würde.

fizzo
2011-06-09, 16:37:30
Gibts überhaupt schon einen festen Release-Termin oder heißt es erstmal nur 2012? Im zweiten Fall wären nämlich Q3/Q4 auch möglich wodurch die Chance das ganze in 32nm releasen zu können natürlich steigen würde.

Der Releastermin ist zwischen 01.04.2012 und 31.12.2012. Ich Tippe mal auf Ende Q3.

AnarchX
2011-06-09, 16:38:02
Das Geschäftsjahr 2012 beginnt bei Nintendo erst im April. Damit wird wohl 32nm für die finale CPU denkbar und sofern es kein SoC ist 28nm für die GPU.

dargo
2011-06-09, 16:40:19
Der Releastermin ist zwischen 01.04.2012 und 31.12.2012. Ich Tippe mal auf Ende Q3.
Ah... ok. So sieht die Sache natürlich ganz anders aus. Früher hieß es ja Ende 2011 soll die Produktion anlaufen und Anfang 2012 Release.

Nightspider
2011-06-09, 16:43:00
Für 3.Q 2012 wäre es aber schon schade nicht auch 28nm bei der GPU zu sehen.
Dann hätten die gleich nen DX11 Derivat nehmen können.

Daher tippe ich noch eher auf 2.Q 2012

dargo
2011-06-09, 16:46:36
Das Geschäftsjahr 2012 beginnt bei Nintendo erst im April. Damit wird wohl 32nm für die finale CPU denkbar und sofern es kein SoC ist 28nm für die GPU.
Jupp, so würde ich es auch sehen. Wenn die Konsole wirklich erst Q3 kommen sollte dürften 28nm kein Problem mehr sein, selbst bei anfänglichen Anlaufschwierigkeiten. Zumal das Transitorbudget vom RV700 im Vergleich zu aktuellen High-End GPUs fast schon winzig ist.

YfOrU
2011-06-09, 19:12:34
Da IBM genauso wie AMD mit SOI produziert kann man eigentlich davon ausgehen das CPU und GPU auf einem Chip vereint sind.
Bei AMD musste man sowieso das GPU Design für die APUs (SOI) anpassen und somit dürfte der Aufwand recht gering sein (hinzu kommt das IBM die gleichen SOI Prozesse wie GF nutzt). -> Also wohl 32nm SOI

Hübie
2011-06-09, 20:18:02
Öhm. Afaik wird die CPU aber im Bundesstaat New York gefertigt während die GPU irgendwo bei TSMC/GF gefertigt wird (wo auch immer die dann sind ;D)..

LG Hübie

Deinorius
2011-06-09, 20:38:43
Wie viele Monate sollte die gesamte Hardware in Voraus produziert werden, um einem weltweiten Launch gerecht zu werden? Mind. 3-5 Monate?

Wenn wir jetzt annehmen, dass die Konsole nicht gleich Anfang nächsten Jahres erscheint, wäre es doch wurscht, wo derzeit etwas produziert wird, weil es womöglich nocht nicht die finale Hardware ist?

Ailuros
2011-06-09, 23:54:00
http://www.xbitlabs.com/news/multimedia/display/20110608235423_Nintendo_Admits_It_Demonstrated_PlayStation_3_Xbox_360_Games_to_D emo_the_Wii_U.html

Keine Ahnung ob es schon gepostet wurde, aber Nintendo darf sich wohl auch einen Holzschrauben-Moment reservieren....

Finch
2011-06-09, 23:59:04
Dürfte auch schon hier öfters gepostet worden sein. Was meinst du mit Holzschrauben-Moment?

Ailuros
2011-06-10, 00:09:38
Dürfte auch schon hier öfters gepostet worden sein. Was meinst du mit Holzschrauben-Moment?

Verkorkste Uebersetzung von "woodscrew-moment" welches sich auf Jensen's erste Fermi Praesentation fuer die Presse betraf.

DeadMeat
2011-06-10, 00:26:18
Ich hab ein video gesehen wo das neue Ghostreacon inkls Tablet Controller angetestet wurde, also muss ja trotzdem soweit funktionieren.

Nightspider
2011-06-10, 00:31:20
Und zelda ließ sich schließlich auch damit steuern, wie es einige Messe-Besucher im Video gezeigt haben.

G 80
2011-06-10, 00:42:58
Sorry aber da tut ihr NV unrecht wenn dieser Satz zutrifft:

>>>>Instead, it was rendered either on Microsoft Xbox 360 or Sony PlayStation 3.

bzw.:

Absolutely, [the footage was from PS3 and Xbox 360] because we are talking a year away from when the system is going to launch. [...] I


Also falls das stimmt ist das nochmal _WESENTLICH_ schlimmer. NV hattes zumindest nicht nötig ihre DX 11 und sonnstigen Demos auf ner ATI laufen zu lassen. :upicard:

Hübie
2011-06-10, 01:27:05
:facepalm: Das ist echt etwas peinlich. Dann lieber nix zeigen und das Publikum warten lassen...

Grey
2011-06-10, 01:36:50
Das verlinkte Video, auf dem die Aussage angeblich basiert, existiert bei GT nicht mehr. Gibt es das noch irgendwo zu sehen?

Coda
2011-06-10, 02:13:53
Ergibt ja irgendwie keinen Sinn. Wenn man schon bescheißt, dann kann man auch gleich einen PC nehmen.

Nightspider
2011-06-10, 02:22:47
Ich versteh die Aufregung auch nicht.

Wenn nen Speielentwickler nen neues Spiel vorführt, dann meistens auch nur ein-zwei Videos am Anfang wo eben auch nicht dabei steht von welcher Plattform, ob nun PS3 oder 360.

Und da die Wii U Hardware noch nicht Final ist, gibts davon eh noch keine fertigen Spiele.

Und erst recht wenn die finalen Spiele auf der Wii U sogar besser aussehen sollen, ist der Aufregung völlig unberechtigt.

ravage
2011-06-10, 10:13:14
Soweit ich mich erinnern kann (korrigiert mich, ich hab grad keinen Zugriff auf die Videos) waren das ja auch keine richtigen Spielszenen sondern Ausschnitte aus Trailern. Und trailer werden auch nur einmal auf einer Hardware (wohl meist auf PC) erstellt und dann sowohl für PC/PS3/xbox präsentiert.

00-Schneider
2011-06-10, 12:02:31
Kein Upscaling von Wii/GC-Games auf Wii-U!

http://www.1up.com/news/wii-games-wont-look-nicer-wii-u

AnarchX
2011-06-10, 12:39:43
Vielleicht gibt es wenigstens eine Art MLAA, welches als Post-Filter keine Auswirkung auf die Emulation hat.

lumines
2011-06-10, 12:45:57
Werden die Spiele überhaupt emuliert? Wahrscheinlich wird man doch einfach nur die relevanten Chips der Wii einbauen, hat man ja bisher immer so gemacht.

Finch
2011-06-10, 12:48:28
Emulation sollte günstiger sein

Coda
2011-06-10, 12:49:27
Kein Upscaling von Wii/GC-Games auf Wii-U!

http://www.1up.com/news/wii-games-wont-look-nicer-wii-u
Das bestärkt meine Vermutung, das sie wohl zur Emulation einfach eine komplette geshrinkte Wii-GPU verbauen (evtl. auch CPU).

Das dürfte von der Größe sowieso nicht mehr der Rede wert sein in 28nm.

fizzo
2011-06-10, 12:53:59
Auflösung des Wii U Controllers wohl 854 x 480 Pixel

10.06.11 - Die Bildschirmauflösung des Wii U Controllers soll schätzungsweise bei 854 x 480 Pixel liegen, wie Golgotron herausgefunden haben will. Dazu hat die Seite u.a. einzelne Pixel auf Hires-Fotos von Wii U Software gezählt.

Nintendo hat die Bildschirmauflösung des Controllers bislang noch nicht offiziell bekanntgegeben.

----------------------------------------------------------------------

Wii U unterstützt derzeit nur einen Wii U Controller

10.06.11 - Die Wii U unterstützt lediglich einen einzigen Wii U Controller pro Konsole. Das bestätigt Shigeru Miyamoto von Nintendo.

Der Grund liegt wohl in der Leistungsfähigkeit der Konsole: Die Grafik im Wii U Controller wird komplett von der Wii U Konsole berechnet und drahtlos zum Controller gesendet; der Controller besitzt weder Prozessor noch Grafik-Hardware und berechnet daher nichts.

Wenn das der Fall ist, dann könnten mehrere Wii U Controller die Konsole in die Knie zwingen, da sie so viele Daten nicht berechnen kann.




www.gamefront.de

Finch
2011-06-10, 12:55:38
Das bestärkt meine Vermutung, das sie wohl zur Emulation einfach eine komplette geshrinkte Wii-GPU verbauen (evtl. auch CPU).

Das dürfte von der Größe sowieso nicht mehr der Rede wert sein in 28nm.


Dann sollten aber auch GC spiele einfach funktionieren Immerhin sind Wii und GC quasi identisch.

(ach wenn Controller und MC nicht mehr benutzbar sind)

Coda
2011-06-10, 13:21:57
Nö, da müsste auch das Laufwerk mitspielen.

AnarchX
2011-06-10, 15:29:15
Nochmal bezüglich Fertigung:
IBM plans to produce millions of chips for Nintendo featuring IBM Silicon on Insulator (SOI) technology at 45 nanometers (45 billionths of a meter).
http://www-03.ibm.com/press/us/en/pressrelease/34683.wss

Natürlich kann man Pläne auch ändern, aber vorerst sieht es wohl nach 45nm SOI aus. Da dürfte gegenüber 40nm Bulk wohl der Platzbedarf der GPU um einiges höher sein oder man verwendet in der ersten Revision getrennte Chips.

Coda
2011-06-10, 16:50:11
45nm IBM SOI hat keinen größeren Platzbedarf als TSMC 40nm.

AffenJack
2011-06-10, 17:25:56
Wie kommst du darauf? Sram-Zellengröße, sowie Gate-Pitch sprechen gegen deine Aussage. Da ist TSMC 40nm bei beiden deutlich kleiner als IBM SOI und eigentlich sind das doch die noch am ehesten vergleichbaren Parameter oder nicht?

Finch
2011-06-10, 17:30:45
vll ne bessere "Packdichte"?
Ich dachte aber das TSMC schon mit 40nm eine hohe packdichte erreicht hat.

Nightspider
2011-06-10, 17:37:41
Was nur an Stromersparnix, Taktzuwachs, Packdichte, Cache größe usw. mit Intels 22nm Fertigung möglich wäre *träum*

Aber so ein Deal würde Nintendo wohl schon einige Millionen kosten, zumal IBM seine CPUs nicht bei Inten fertigen würde. Dennoch hätte (was nie passieren wird) Nintendo damit sogar eine Fertigung die selbst bei der PS4/720 kaum besser sein wird.

Ein schöner Gedanke.^^

Coda
2011-06-10, 20:33:24
Wie kommst du darauf? Sram-Zellengröße, sowie Gate-Pitch sprechen gegen deine Aussage.
Ja? Dann hatte ich das falsch in Erinnerung. Ich dachte TSMC trickst da ziemlich.

AffenJack
2011-06-10, 20:48:06
Also zumindest die Veröffentlichten Daten sehen gut aus, siehe:
http://www.realworldtech.com/page.cfm?ArticleID=RWT072109003617&p=11
TSMC 45nm ist der 40nm Prozess.

AnarchX
2011-06-10, 22:12:30
Dass der Llano IGP mit 32nm SOI wohl kaum kleiner ist als der 40nm Redwood gibt schon einen guten Anhaltspunkt, dass 45nm SOI wohl doch mehr Fläche benötigt als 40nm.

dildo4u
2011-06-11, 14:11:35
Digital Foundry vs. E3: Nintendo

http://www.eurogamer.net/articles/digitalfoundry-vs-e3-nintendo

Alle Demo's liefen mit 720p no AA es wird jetzt auf was im Bereich 4670 als GPU getippt um Kosten zu sparen mit GDDR 3 Ram.

"At this point we're speculating, but our guess is that Wii U's RAM is based on GDDR3 or DDR3 - far more cost efficient than the top-end GDDR5 and the hitherto non-existent DDR4. In terms of the make-up of AMD's custom Radeon GPU, we reckon it probably has more in common with the Radeon HD 4650/4670 as opposed to anything more exotic. The 320 stream processors on those chips would have more than enough power to support 360 and PS3 level visuals, especially in a closed-box system.

Ich schätze mal Nintendo wird den Auftrag an AMD gegeben haben bring uns auf selbe Level und das so günstig und mit zu wenig Abwärme wie möglich.Das Gehäuse der Konsole lässt ja kaum eine Kühlung einer größeren GPU zu vorallem wenn das Ding nich super laut werden soll.

AnarchX
2011-06-11, 14:18:46
Wohl eher DDR3, mit fast 2Gbps und einer langen Verfügbarkeit bietet sich das wohl an.

Bei einem SoC ist es vielleicht ein SI > 128-Bit, der Power7 hat ja 2x 256-Bit.

megachip800
2011-06-11, 14:48:37
Digital Foundry vs. E3: Nintendo

http://www.eurogamer.net/articles/digitalfoundry-vs-e3-nintendo

Alle Demo's liefen mit 720p no AA es wird jetzt auf was im Bereich 4670 als GPU getippt um Kosten zu sparen mit GDDR 3 Ram.



Ich schätze mal Nintendo wird den Auftrag an AMD gegeben haben bring uns auf selbe Level und das so günstig und mit zu wenig Abwärme wie möglich.Das Gehäuse der Konsole lässt ja kaum eine Kühlung einer größeren GPU zu vorallem wenn das Ding nich super laut werden soll.

Ziemlich entäuschend die Specs wenn das stimmt.

Nintendo Wii U = NO R&D = Uninteresting repacked stuff

Dural
2011-06-11, 14:55:28
toll eine konsole die 2012 kommt die schon jetzt seit 2 jahren komplett veraltet ist :rolleyes:

schöne neue konsole welt :freak:

gruntzmaker
2011-06-11, 15:21:34
Digital Foundry vs. E3: Nintendo

http://www.eurogamer.net/articles/digitalfoundry-vs-e3-nintendo

Alle Demo's liefen mit 720p no AA es wird jetzt auf was im Bereich 4670 als GPU getippt um Kosten zu sparen mit GDDR 3 Ram.



Ich schätze mal Nintendo wird den Auftrag an AMD gegeben haben bring uns auf selbe Level und das so günstig und mit zu wenig Abwärme wie möglich.Das Gehäuse der Konsole lässt ja kaum eine Kühlung einer größeren GPU zu vorallem wenn das Ding nich super laut werden soll.

Wenns Nintendo nur stark genug verbockt, ist eine PS3 / Xbox 360 mit ausgereifter Optimierung sogar noch stärker.

Aber vielleicht packen die ja jetzt dafür mal ordentlich Grafikram auf dieses "Geschoss", dann gibts zur polygonarmen Grafik wenigstens ein paar ordentliche Texturen dazu.

Das ist mal echtes Next-Gen, da läufts einen vor Freude kalt den Rücken runter :D.

Coda
2011-06-11, 16:09:35
Was soll Nintendo da bitte "stark genug verbocken"?

Mit AMD-Grafik und Power-CPUs können sie nicht im Leben so viel falsch machen mit heutiger Technologie, das PS3 und Xbox 360 immer noch schneller wären.

megachip800
2011-06-11, 16:24:57
Die ersten Launchtitel scheinen nicht so gut auszusehen wie die ersten Titel von der Xbox 360.

wii u (Killerfreaks from outer Space)

http://img802.imageshack.us/img802/3425/301003.jpg

Xbox 360 (kameo)

http://img263.imageshack.us/img263/7931/f00007464a93fe93aeda1.jpg

Also entweder haben sich die Programmierer dämlich angestellt oder irgendetwas
stimmt hier nicht. Ich meine selbst wenn die Hardware noch nicht fertig ist müßte das besser aussehen. Ich bin mal gespannt wie die ersten Titel nächstes jahr beim Launch aussehen werden....

dargo
2011-06-11, 16:30:11
Was ist denn bitte an dem Bild der 360 schöner? :| Und ist dir eigentlich aufgefallen, dass das obere Bild totkomprimiert ist? Toller Vergleich...

Ganon
2011-06-11, 16:32:24
Naja, Kameo kannst du schlecht als Vergleich nehmen. Kameo befand sich seit dem GameCube in Entwicklung, über die XBOX und kam dann erst auf XBOX360 ;)

Jetzt anhand von Screenshots die Konsolen vergleichen ist imo etwas unsinnig ;)

Brillus
2011-06-11, 18:05:02
Was ist denn bitte an dem Bild der 360 schöner? :| Und ist dir eigentlich aufgefallen, dass das obere Bild totkomprimiert ist? Toller Vergleich...

Und dazu noch "early Version" vs Finale Version.

Und auserdem wo ich das untere Bild gesehen ahbe(bevor ich text gelesen ahbe und es nohc für in Wii U Titel hielt) dachte ich nur "was für ne scheiße Alaising inc". Vote for 1. Bild viel besser.

gruntzmaker
2011-06-11, 20:33:15
Und dazu noch "early Version" vs Finale Version.

Und auserdem wo ich das untere Bild gesehen ahbe(bevor ich text gelesen ahbe und es nohc für in Wii U Titel hielt) dachte ich nur "was für ne scheiße Alaising inc". Vote for 1. Bild viel besser.

Naja Bild Nummer 1 würde ich schon heute auf PS3 und Xbox 360 erwarten und dann wärs immer noch keine tolle Grafik.

Es ist nun einfach ne verbesserte Wii - Grafik für die Tonne, der Controller muss es rausreissen. Diese Wii U lässt das Elend halt nur in höherer Auflösung stattfinden.

Coda
2011-06-11, 21:35:14
Was für ein BS.

G.A.S.T.
2011-06-11, 21:49:31
Was für ein BS.
Ich denke, er meinte, dass Wii U das "Elend" von PS3 & 360 in höherer Auflösung (1080p) stattfinden lassen wird.

sHenker
2011-06-11, 22:17:31
Digital Foundry vs. E3: Nintendo

http://www.eurogamer.net/articles/digitalfoundry-vs-e3-nintendo

Alle Demo's liefen mit 720p no AA es wird jetzt auf was im Bereich 4670 als GPU getippt um Kosten zu sparen mit GDDR 3 Ram.


Wenn Nin beim WiiU mit ner 4670 antanzt wird das der mit abstand größte Konsolenfail evar. Am Ende laufen die Ports noch schlechter als auf PS3/xbox2 und die nächsten Konsolen die vor der Haustür stehen werden die WiiU extrem alt aussehen lassen.
RV770 minimum, ansonsten werden se übel auffe schnauze fallen.

Coda
2011-06-11, 22:18:49
Ich denke, er meinte, dass Wii U das "Elend" von PS3 & 360 in höherer Auflösung (1080p) stattfinden lassen wird.
Das ist aber wenn dann nicht durch die Hardware bedingt.

Wenn Nin beim WiiU mit ner 4670 antanzt wird das der mit abstand größte Konsolenfail evar. Am Ende laufen die Ports noch schlechter als auf PS3/xbox2 und die nächsten Konsolen die vor der Haustür stehen werden die WiiU extrem alt aussehen lassen.
RV770 minimum, ansonsten werden se übel auffe schnauze fallen.
Halte es bitte mit Nuhr. Selbst eine 4670 ist weitaus leistungsstärker als die Xbox-360-GPU.

fondness
2011-06-11, 22:56:41
Halte es bitte mit Nuhr. Selbst eine 4670 ist weitaus leistungsstärker als die Xbox-360-GPU.

Klar, für 7 Jahr Zeitunterschied wäre der Unterschied trotzdem nicht gerade berauschend:

Xenos ALUs: 48 Vec4+1 USC DX9c+
RV730 ALUs: 64 Vec1+1+1+1+1 USC DX10.1

Nintendo verfolgt aber auch eine völlig andere Strategie, vermutlich will man mit der Leistungsaufnahme deutlich unter 100W bleiben und auch bei Preis wie schon bei der Wii entsprechend niedrig starten.

Coda
2011-06-11, 23:17:42
Du vergisst den höheren Takt und die doppelte Anzahl an Textureinheiten.

AnarchX
2011-06-11, 23:29:21
Das 40SPs SIMD Design wird man wohl eher nicht verbauen, die 32 TMUs waren für RV730 nicht wirklich von Nutzen.

Aber DX10+ kostet halt einiges an Transitoren, Xenos liegt wohl ohne den eDRAM unter 300 Mio. Das reicht gerade mal für RV810/RV710.

Wenn der Preis keine Rolle spielen würde, dann gäbe mit 24W TDP einen 800SPs Juniper @ 500MHz, in Form der 5830M.

sHenker
2011-06-12, 00:54:10
Halte es bitte mit Nuhr. Selbst eine 4670 ist weitaus leistungsstärker als die Xbox-360-GPU.

Hat dem gc bei ps2 ports auch nicht viel gebracht...
Ich habe halt starke bedenken, dass sich irgendjemand großartig von der besseren Grafik der WiiU zum kauf überzeugen lässt (wenn der zelda trailer schon nahe an max Leistung ist wird nahezu jeder xbox2/ps3 besitzer auf die nachfolger warten) und am Ende, bei geringen Einsatz der Entwickler, durchaus langsamere ports trotz stärkerer HW rauskommen.

Coda
2011-06-12, 00:58:21
Hat dem gc bei ps2 ports auch nicht viel gebracht...
Eine Gamecube ist von der PS2 viel weiter entfernt, als alles was an moderner Hardware existiert von der Xbox 360.

sHenker
2011-06-12, 01:06:46
Eine Gamecube ist von der PS2 viel weiter entfernt, als alles was an moderner Hardware existiert von der Xbox 360.

Vkz von 20 mio in 5 Jahren machen plötzlich ne ganze menge sachen realistisch...

G 80
2011-06-12, 01:27:30
Also werden die wahrscheinlich das Verbauen, was seit mehr als 2 Jahren in NBs als untere-Mittelklasse-Karten steckt?:freak::

Mobiler RV730?
128 Bit SI
1 GB GDDR 3 (villeicht auch nur 512? und DDR 3?)
Takt?

http://www.abload.de/thumb/wiiugpuap8t.png (http://www.abload.de/image.php?img=wiiugpuap8t.png)

Takt: 700/900 - soll ja nicht zuviel Strom verbrauchen.
TDP des ganzen MXM Moduls unter 55 nm 35 W. Unter <=40 nm könnten den 20 W realer Verbrauch drinnensein.

Na prost Mahlzeit. Generell Gesprochen: Über 4xAF säuft das Ding trotz 5 Millionen Bildverschlechterungs-Optimierungen und Cheat-AI auf Anschlag gnadenlos ab; da ist im Verlgiech zu 16x Cheat-AF 4xMSAA noch günstiger. AA geht bis 2xMSAA gut, 4xMSAA kostet schon erheblich.

Von 1080p konnt ihr euch damit aber schonmal Verabschieden; va wenn diese Tablet-Bildschirm-Controller auch mit separaten Material gefüttert werden sollen.

Imho (wenn das alles mit RV 730 so zutrifft) könnt ihr mit 720P + 2-4xAA rechnen und es gibt paar/bessere Effekte, die vielleicht sonnst nur auf den PC DX 10/+ Versionen zu finden wären.

Coda
2011-06-12, 01:41:40
Eine Konsole ist kein PC. Du kannst die Leistung nicht anhand von PC-Benchmarks ermitteln.

G 80
2011-06-12, 01:57:12
Nein, das habe ich auch nicht. Aber nur weil es in einer Konsole eingebaut wird und auf D3D APi verzichtet wird, verdoppelt sich zB Bandbreite auch nciht.
Ich habe allerdings paar persönliche Erfahrungen wie zB mit dem AF eingestreut, denn ich glaube selbst down to metall werden wir kein perfektes beinahe gratis G80 16xAF sehen ......
Umgekehrt sind die 8 Rops gar nicht sooooooo schlecht dabei bei biszu 2xAA - das sollte ebenfalls nicht unerwähnt bleiben, den zuvor hats mal geheisen 720p + no AA weil sonnst zu unperformant .....


Gerade von Leuten mit Ahnung wie dir hatte ich gehoft zu höhren was man mit solchen hypothetischen HW Eckteilen an Leistung erwarten kann.

16x AF? Kein Problem weil ......
128 Bit SI - No Way, Entweder nimmt Nintendo GDDR 5 oder ein 256 Bit SI weil unter 32 nm ......

so was in der Art ......

Und unter Imho habe ich nicht die aktuelle Leistung von dem PC Ablegen wiedergegeben, sondern was _ich_ von einer Konsolenversion erwarten wrüde ....


Ausgeäumt hallte ich trotzdem (sollte RV730-Ableger kommen) den Mythos von 16x nurbischenschlecht-AF + 1080p + ControllerResx2 + 3D + 2-4MSAA von dem hier scheinbar einige geträumt haben, oder siehst du das dann als möglich?

sHenker
2011-06-12, 02:13:25
Gerade von Leuten mit Ahnung wie dir hatte ich gehoft zu höhren was man mit solchen hypothetischen HW Eckteilen an Leistung erwarten kann.

Naja, das Gerücht kam ja auf wegen diesem Artikel hier:http://www.eurogamer.net/articles/digitalfoundry-vs-e3-nintendo

Da haben sich nen paar Leute das Zelda Demo reingezogen(mit nicht schlechtem Rufe), die Pixel gezählt und sind am Ende auf den Schluss gekommen, dass das ne 4670 locker packt. Also wenn du wissen willst was grafisch zu erwarten wäre, einfach gameplayvideos von Zelda-Demo guggn:tongue:

Ihm
2011-06-12, 08:18:27
Die Hardware wird definitiv schlechter als bei der PS4 oder der XBox3/720 sein.
Das war bei der Wii zwar genau so, doch ist ein Vergleich meiner Meinung nach nicht mehr möglich.
Wir sind uns hoffentlich alle einig, dass die Wii aus teils Nintendo-typischen und teils aus innovativen Gründen so erfolgreich war:

1. Zielgruppe -> grösste Verbreitung bei Spielern unter 18 Jahren.
2. Titel -> ergibt sich auch aus der Zielgruppe und dem Konzept.
3. Controller -> einzigartig beim Release mit extern betrachtet hohem Spassfaktor.
4. Preis -> guter Einstiegspreis und Gewinnbereich schnell nach Release erreicht.

Heutige Situation:
Sowohl Sony als auch Microsoft haben controllertechnisch in Punkto Dimensionserweiterung nachgezogen. Microsoft ist hier sogar noch ein ganzes Stück weiter gegangen. Ein Teil der Nintendo-Zielgruppe wird nun ganz offen von Sony und Microsoft angepeilt. Das Problem: ich halte es eher für realistisch, dass Sony und Microsoft dem Konkurrenten Nintendo Zielgruppen abgraben, als umgekehrt. Hier müssen sich aber die Beiden dann besonders in Sachen Preis und Image etwas überlegen.

Für die nächste Konsolengeneration sehe ich gerade tatsächlich ein etwas anderes Bild, als vielleicht von einigen erwartet:

Die Wii U soll 2012 erscheinen und wird wohl weniger "Aha"-Effekte an Bord haben, als die Wii. Die Grafik wird zur Konkurrenz eher nachziehen, als sie übertreffen. Mit Grafikargumenten kann bei Nintendo aber sowieso nicht punkten, da deren Konzept die Grafik nicht als Eckpfeiler hat. Bei der Wii U befürchte ich dieses mal jedoch, dass Nintendo das Ganze ein wenig zu viel auf die leichte Schulter nimmt. In Zeiten von deutlich gestiegenen FullHD-Fernsehern und wie oben schon besprochen besser ausgestatteten Konkurrenten, könnte Nintendos Konzept langsam an die Grenzen der Kundenakzeptanz stossen.

Die PS4 wird wohl ein kleineres Update erfahren, als es sich viele PS-Anhänger wünschen würden. Sonys finanzielle Entwicklung der letzten Jahre ist daran sicherlich nicht ganz unbeteiligt. Auch von offizieller Seite konnte man schon vorsichtige Aussagen hören, dass die Entwicklungskosten deutlich unter denen der PS3 liegen würden. Begründung von Sony dafür ist, dass die Kosten der PS3 erst sehr spät wieder eingefahren worden sind. Inoffiziell könnte man aber auch davon ausgehen, dass bei einer aufgebohrten Variante der PS3 logischerweise weniger Entwicklungskosten für das letztendliche Gesamtpaket anfallen, als damals bei der PS3, welche von Grund auf eine neue Plattform darstellte.
Stellt sich nur noch die Frage, ob kritische Kunden die Ereignisse der letzen Wochen bis dahin schon verdrängt haben. Oder es kurz vor der Einführung der PS4 nicht demonstrativ noch eins auf die Mütze gibt.
Nur wann ist "dahin"? Ich glaube die PS4 wird als letztes erscheinen.

Die Xbox3/720/wie auch immer, hat meiner Meinung nach das grösste Potenzial grössere Sprünge zu machen.
Man hat bei Microsoft einfach nicht das Gefühl als würde man hier auf die Bremse treten. Geld und Wille sind da, um sich mit der nächsten Generation von der Konkurrenz deutlich abzusetzen. Man kann von der mitunter besten Hardware ausgehen, die diese Konsolengeneration zu bieten haben wird.
Es sind sogar Kapazitäten da, um komplett Cloud-basiert zu arbeiten und BluRay weiterhin zu ignorieren. Vor allem in Zeiten deutlich gesunkener BR-Player-Preisen muss die Frage erlaubt sein, wer ausser Sony ein derart hohes Interesse haben müsste, dass BluRay in einer Konsole integriert ist?
Und auch beim Release sehe ich den XBox 360 Nachfolger ganz vorne dabei.
Wahrscheinlich wird dieser kurz nach oder relativ zeitgleich mit der Wii U erscheinen.

Meine Prognose:
Wenn Microsoft seine Hausaufgaben gemacht hat, dann können sie ihre Verzweigungen und Ressourcen komplett ausspielen. Sollte Kinect mitunter zum Aufhänger des Nachfolgers werden, was einen deutlich höheren Support von Seiten der Drittentwickler voraussetzt, dann könnte hier ein Wii-Effekt eintreten. Ich halte Kinect für die Xbox360 sowieso nur für einen Beta-Test der Plattform, welcher mit dem Nachfolger der aktuellen Konsole seinen wirklichen Marktstart feiern wird.
Als Verlierer sehe ich aktuell Sony. Ich werde einfach nicht das Gefühl los, dass die PS4 im Vergleich zu den Vorgängern zum Ladenhüter wird.

=Floi=
2011-06-12, 09:20:07
und wenn die wii 2 floppt, dann haben ms und sony doch recht behalten. warten wir mal die 720er und die ps4 ab.
mit erheblich besserer grafik werden die anderen zwei ebenfalls boden gut machen und auch bei der wii wird es nicht ewig so weitergehen.
die wii käuferschicht ist auch so anders, dass diese eben nicht so leicht zu einem 300€ nachfolger greifen wird und man vom nachfolger auch nicht so leicht so viele modelle absetzen können wird, weil in den augen der kunden es keine neue konsole braucht.
da gilt: "warum neuen tv, dvd player, neue konsole, wenn es die alte eh noch tut?"


also mich hat die neue wii bisher nicht überzeugt. das neue bedienelement finde ich total fucked up und unhadlich.

fondness
2011-06-12, 11:06:17
Wenn der Preis keine Rolle spielen würde, dann gäbe mit 24W TDP einen 800SPs Juniper @ 500MHz, in Form der 5830M.

Juniper wäre einfach prädestiniert für ein Konsolen-Design. Auch nach 20 Monaten am Markt gibt es keinen effizienteren Chip was Leistung/Watt und Leistung/mm² betrifft. Dazu wäre auch das Tech-Level auf dem aktuellen Stand und die Leistung durchaus als hoch einzustufen.

gruntzmaker
2011-06-12, 13:31:22
Die Hardware wird definitiv schlechter als bei der PS4 oder der XBox3/720 sein.
Das war bei der Wii zwar genau so, doch ist ein Vergleich meiner Meinung nach nicht mehr möglich.
Wir sind uns hoffentlich alle einig, dass die Wii aus teils Nintendo-typischen und teils aus innovativen Gründen so erfolgreich war:

1. Zielgruppe -> grösste Verbreitung bei Spielern unter 18 Jahren.
2. Titel -> ergibt sich auch aus der Zielgruppe und dem Konzept.
3. Controller -> einzigartig beim Release mit extern betrachtet hohem Spassfaktor.
4. Preis -> guter Einstiegspreis und Gewinnbereich schnell nach Release erreicht.



http://www.wiitalk.co.uk/forums/wii-general-discussion/14866-demographics.html

Die Wii hat relativ gesehen genauso viele Anhänger unter 20 Jahren wie PS3 und Xbox 360. Bei 40-50+ aber sieht man den entscheidenen Unterschied.

Salopp gesagt ist die Wii was für Kinder und jung gebliebene 40er und 50er. Die perfekte Familienkonsole also...


Heutige Situation:
Sowohl Sony als auch Microsoft haben controllertechnisch in Punkto Dimensionserweiterung nachgezogen. Microsoft ist hier sogar noch ein ganzes Stück weiter gegangen. Ein Teil der Nintendo-Zielgruppe wird nun ganz offen von Sony und Microsoft angepeilt. Das Problem: ich halte es eher für realistisch, dass Sony und Microsoft dem Konkurrenten Nintendo Zielgruppen abgraben, als umgekehrt. Hier müssen sich aber die Beiden dann besonders in Sachen Preis und Image etwas überlegen.

Für die nächste Konsolengeneration sehe ich gerade tatsächlich ein etwas anderes Bild, als vielleicht von einigen erwartet:

Die Wii U soll 2012 erscheinen und wird wohl weniger "Aha"-Effekte an Bord haben, als die Wii. Die Grafik wird zur Konkurrenz eher nachziehen, als sie übertreffen. Mit Grafikargumenten kann bei Nintendo aber sowieso nicht punkten, da deren Konzept die Grafik nicht als Eckpfeiler hat. Bei der Wii U befürchte ich dieses mal jedoch, dass Nintendo das Ganze ein wenig zu viel auf die leichte Schulter nimmt. In Zeiten von deutlich gestiegenen FullHD-Fernsehern und wie oben schon besprochen besser ausgestatteten Konkurrenten, könnte Nintendos Konzept langsam an die Grenzen der Kundenakzeptanz stossen.

Die PS4 wird wohl ein kleineres Update erfahren, als es sich viele PS-Anhänger wünschen würden. Sonys finanzielle Entwicklung der letzten Jahre ist daran sicherlich nicht ganz unbeteiligt. Auch von offizieller Seite konnte man schon vorsichtige Aussagen hören, dass die Entwicklungskosten deutlich unter denen der PS3 liegen würden. Begründung von Sony dafür ist, dass die Kosten der PS3 erst sehr spät wieder eingefahren worden sind. Inoffiziell könnte man aber auch davon ausgehen, dass bei einer aufgebohrten Variante der PS3 logischerweise weniger Entwicklungskosten für das letztendliche Gesamtpaket anfallen, als damals bei der PS3, welche von Grund auf eine neue Plattform darstellte.
Stellt sich nur noch die Frage, ob kritische Kunden die Ereignisse der letzen Wochen bis dahin schon verdrängt haben. Oder es kurz vor der Einführung der PS4 nicht demonstrativ noch eins auf die Mütze gibt.
Nur wann ist "dahin"? Ich glaube die PS4 wird als letztes erscheinen.

Die Xbox3/720/wie auch immer, hat meiner Meinung nach das grösste Potenzial grössere Sprünge zu machen.
Man hat bei Microsoft einfach nicht das Gefühl als würde man hier auf die Bremse treten. Geld und Wille sind da, um sich mit der nächsten Generation von der Konkurrenz deutlich abzusetzen. Man kann von der mitunter besten Hardware ausgehen, die diese Konsolengeneration zu bieten haben wird.
Es sind sogar Kapazitäten da, um komplett Cloud-basiert zu arbeiten und BluRay weiterhin zu ignorieren. Vor allem in Zeiten deutlich gesunkener BR-Player-Preisen muss die Frage erlaubt sein, wer ausser Sony ein derart hohes Interesse haben müsste, dass BluRay in einer Konsole integriert ist?
Und auch beim Release sehe ich den XBox 360 Nachfolger ganz vorne dabei.
Wahrscheinlich wird dieser kurz nach oder relativ zeitgleich mit der Wii U erscheinen.

Meine Prognose:
Wenn Microsoft seine Hausaufgaben gemacht hat, dann können sie ihre Verzweigungen und Ressourcen komplett ausspielen. Sollte Kinect mitunter zum Aufhänger des Nachfolgers werden, was einen deutlich höheren Support von Seiten der Drittentwickler voraussetzt, dann könnte hier ein Wii-Effekt eintreten. Ich halte Kinect für die Xbox360 sowieso nur für einen Beta-Test der Plattform, welcher mit dem Nachfolger der aktuellen Konsole seinen wirklichen Marktstart feiern wird.
Als Verlierer sehe ich aktuell Sony. Ich werde einfach nicht das Gefühl los, dass die PS4 im Vergleich zu den Vorgängern zum Ladenhüter wird.

Kinect legt langsam Fahrt auf, Spiele wie Mass Effect 3 sind ein Anfang, ich persönlich würde mit dem Kauf aber zB warten, bis es mehr als nur ein kurzes Aufbäumen sein kann, Kinect ist nämlich alles nur nicht billig.

Bei der Wii U befürchte ich dieses mal jedoch, dass Nintendo das Ganze ein wenig zu viel auf die leichte Schulter nimmt. In Zeiten von deutlich gestiegenen FullHD-Fernsehern und wie oben schon besprochen besser ausgestatteten Konkurrenten, könnte Nintendos Konzept langsam an die Grenzen der Kundenakzeptanz stossen.

Für mich ist die Wii U nur eine Reaktion auf Move und Kinect, alleine daran, dass man gerade mal ein wenig besser sein will als die Konkurrenz sieht man das. Das hätte 1-2 Jahre nach dem 360er Launch klappen können, aber nicht jetzt.
Wohlgemerkt: Die 360er gibts seit Anfang 2007 und ist bereits 4 Jahre alt!

Dem Konzept muss man aber Lob aussprechen, mit richtig starker Hardware hätte man MS und Sony so brutal übers Knie legen können, mit ner 4670er kann sich gerade Sony nochmal mit einem blauen Auge davonstehlen (und weiter an ihrem Cell arbeiten...).

Skusi
2011-06-12, 14:05:36
Die 360 gibt es seit Dez.2005.;)

Coda
2011-06-12, 14:07:55
Hier werden auch schon wieder Spekulationen als Fakten verkauft. Eigentlich ist doch gar nichts über die GPU bekannt.

Die erste Spekulation war RV770, was auf 800SPs hindeutet, nicht 320. Das wäre schon ein ordentlicher Leistungsschub ggü. Xenos (ca. 5x)

urbi
2011-06-12, 14:36:12
Wenn MS und Sony schon relativ bald neue Konsolen bringen könnte ich mir vorstellen, das die kaum leistungsstärker als die Wii sind: Sowohl Sony als auch MS haben zumindest in der Anfangsphase der jetztigen Generation hoffentlich gelernt, dass Leistung um jeden Preis auch ein Nachteil sein kann: Sony hat lange bei jeder PS3 draufgezahlt und zunächst sehr schleppende Verkäufe, MS hatte insbesondere mit der Kühlung und RRODs zu kämpfen.
Nintendo hat mit der Wii von Anfang an Gewinn mit jeder Konsole eingefahren und an der Hardware seit Erscheinen auch keine größeren Änderungen vorgenommen.

Coda
2011-06-12, 14:40:47
Angeblich wollen Microsoft und Sony so schnell keine neue Hardware bringen. Gerade deshalb finde ich es auch spannend, das Nintendo da vielleicht etwas Druck ausübt.


Nintendo hat mit der Wii von Anfang an Gewinn mit jeder Konsole eingefahren und an der Hardware seit Erscheinen auch keine größeren Änderungen vorgenommen.
Wie auch. Die CPU ist ja so auch ungeshrinkt fast nur Stecknadelkopf groß X-D

urbi
2011-06-12, 15:02:22
Ja, schon klar. Die Wii hat wirklich ziemlich vorsintflutliche Technik, zumindest größtenteils (Controller lasse ich mal raus, das System halte ich noch immer für sehr ordentlich).
Aber ich denke das kann man Nintendo durchaus auch zugute halten.

dargo
2011-06-12, 16:25:38
Hier werden auch schon wieder Spekulationen als Fakten verkauft. Eigentlich ist doch gar nichts über die GPU bekannt.

Die erste Spekulation war RV770, was auf 800SPs hindeutet, nicht 320. Das wäre schon ein ordentlicher Leistungsschub ggü. Xenos (ca. 5x)
Afaik war die erste Spekulation die R700-Reihe. Das kann von RV710 bis RV790 alles sein.

Black-Scorpion
2011-06-12, 18:48:26
also mich hat die neue wii bisher nicht überzeugt. das neue bedienelement finde ich total fucked up und unhadlich.
Und wie spielt sie sich so?

Deine Aussage ist einfach nur albern hoch3. Du hast noch nichts gesehen aber moserst rum als ob das Ding seit Wochen auf dem Markt wäre.

G.A.S.T.
2011-06-13, 10:04:53
also mich hat die neue wii bisher nicht überzeugt. das neue bedienelement finde ich total fucked up und unhandlich
Und wie spielt sie sich so?

Deine Aussage ist einfach nur albern hoch3. Du hast noch nichts gesehen aber moserst rum als ob das Ding seit Wochen auf dem Markt wäre.
Warum hat der neue Controller nicht unter den Seiten (jeweils) eine Wulst zum greifen, wie alle anderen Controller auch?

Die Wiimote ist ja unten auch nicht einfach flach wie eine Fernbedienung, sondern rund. Warum?
Damit man vernünftig greifen und lange zeit angenehm zocken kann.


Wieso nicht bei dem neuen Controller? Weil es unbedingt wie ein Tablet aussehen soll?

Sisaya
2011-06-13, 12:19:22
flach wie ein Tablet ist der Controller jetzt nicht, vor allem unten nicht
http://images.vg247.com/current//2011/06/2132450421_full.jpg

bloody`
2011-06-13, 12:49:03
Warum hat der neue Controller nicht unter den Seiten (jeweils) eine Wulst zum greifen, wie alle anderen Controller auch?

Die Wiimote ist ja unten auch nicht einfach flach wie eine Fernbedienung, sondern rund. Warum?
Damit man vernünftig greifen und lange zeit angenehm zocken kann.


Wieso nicht bei dem neuen Controller? Weil es unbedingt wie ein Tablet aussehen soll?


Sowas in der Art wie ne Wulst hat er doch ;)

http://cdn.games.hdblog.it/wp-content/gallery/nintendo-wii-u-e3-2011/nintendo-wii-u-controller-back1.jpg

gruntzmaker
2011-06-13, 13:06:00
Sowas in der Art wie ne Wulst hat er doch ;)

http://cdn.games.hdblog.it/wp-content/gallery/nintendo-wii-u-e3-2011/nintendo-wii-u-controller-back1.jpg

Es dauert sicher nicht mehr lange und Nintendo wird die Wulst™ als Feature anpreisen, damit am Ende keiner sagen kann, es wäre alles von Apple geklaut ;).

Sieht doch ergonomisch aus...

fizzo
2011-06-13, 13:16:12
Es dauert sicher nicht mehr lange und Nintendo wird die Wulst™ als Feature anpreisen, damit am Ende keiner sagen kann, es wäre alles von Apple geklaut ;).

Sieht doch ergonomisch aus...

Ha, da wären auch noch die Stero-Boxen, der Stylus, zwei analog Pads und unzählinge Knöpfe - eine Eierlegendewollmilchsau™ sozusagen ;)

fondness
2011-06-13, 13:21:50
Es dauert sicher nicht mehr lange und Nintendo wird die Wulst™ als Feature anpreisen, damit am Ende keiner sagen kann, es wäre alles von Apple geklaut ;).

Sieht doch ergonomisch aus...

Es macht auch keinen Sinn einen Controller flach wie eine Flunder zu machen, der soll schließlich gut in der Hand liegen.

DeadMeat
2011-06-13, 16:15:41
Die "hands-on" Berichte sagen so ziehmlich alle das gleiche: er liegt sau gut in der Hand.

zustand
2011-06-13, 20:38:13
http://www.gustavhalling.com/2011/06/08/wiiu-thoughts-nintendos-new-console/

Im Eintrag und in den Kommentaren stehen einige vage Anmerkungen, so richtig schlau werde ich daraus aber auch nicht.

Dann gibts noch die folgende News.

http://www.industrygamers.com/news/wii-u-is-actually-50-more-powerful-than-ps3---report/

gruntzmaker
2011-06-13, 21:00:36
http://www.gustavhalling.com/2011/06/08/wiiu-thoughts-nintendos-new-console/

Im Eintrag und in den Kommentaren stehen einige vage Anmerkungen, so richtig schlau werde ich daraus aber auch nicht.

Dann gibts noch die folgende News.

http://www.industrygamers.com/news/wii-u-is-actually-50-more-powerful-than-ps3---report/


Didn't say it wouldn't compete with current gen.

But I know how much RAM the WiiU has and I have an idea of how much "we" developers would like to see in the next Xbox and PS4, and they differ a lot.

Still, the WiiU will be the most powerful console out there when it's released, BY FAR!
But I wonder for how long...
Nintendo cant go and compete with MS and Sony i think because they want to keep their console cheaper as with the Wii.
BUT, I might also be wrong and this is Nintendos real hunt after the hardcore MS and Sony players.

And I agree with the controller, it looks amazing, but I dont see you playing BF3 on it (switching like they did in the rpg they showed) but maybe have the minimap up with chat support etc, that would be awesome!

The future will tell =)

Also vielleicht doch Juniper?

zustand
2011-06-13, 21:18:14
Nein, ich denke das RV700-Tech Gerücht wird zumindest im Moment stimmen.

Es gibt hier (http://game.watch.impress.co.jp/docs/series/3dcg/20110611_452478.html) noch einen anderen Artikel der unter anderem hier (http://forum.beyond3d.com/showpost.php?p=1559591&postcount=1220) verlinkt wurde. Der Artikel scheint aber auch reine Spekulation zu sein und bleibt auch bei Custom RV700.

sHenker
2011-06-13, 22:28:36
Sterne Agee analyst Arvind Bhatia commented today, "Some of the developers we spoke to indicated to us that the console will have 50% more processing power compared to the PlayStation 3 or Xbox 360. This is yet to be confirmed by Nintendo."

Ist die 4650 also quasi "confirmed".

:facepalm:

G.A.S.T.
2011-06-14, 04:51:39
guten morgen :smile:

Wenn sich die 50% nur auf die pure Rechenleistung bezieht,
wie viel schneller wäre dieser Chip dann insgesamt dank höherer Effizienz?

Black-Scorpion
2011-06-14, 09:28:40
Ist die 4650 also quasi "confirmed".

:facepalm:
Keine Ahnung was du immer willst.
Da steht Entwickler haben angedeutet und sonst nichts. Außerdem steht im zweiten Satz das Nintendo noch nichts bestätigt hat. Heißt also nichts weiter wie "Wir wissen genauso viel wie vorher".

Deinorius
2011-06-14, 15:24:23
Ist die 4650 also quasi "confirmed".

:facepalm:


Es stellt sich überhaupt die Frage, ob Nintendo selbst die genauen Spezifikationen weiß. Vielleicht testen die noch rum.

ROXY
2011-06-15, 06:55:08
das wii u gamepad kann videotelefonie und hat einen webbrowser.
fehlt nur noch ein wii u abspielport für usb medien und schon hast du alles in einem gerät.

300€ und das ding geht weg wie warme semmeln :D

Aquaschaf
2011-06-15, 07:49:16
Vielleicht testen die noch rum.

1 Jahr vor Release sicher nicht mehr.

Ailuros
2011-06-15, 08:07:35
1 Jahr vor Release sicher nicht mehr.

Genau. Jegliche hw muesste schon beim sampling sein, damit man auch genug Zeit hat zu reagieren falls irgend etwas schief laufen sollte.

pittiplatsch
2011-06-15, 12:55:14
Achja IGN und ihre Spekulationen mal wieder, diesmal mit nem "Interview" von Michel Ancel, der gerademal über nen Alphakit verfügen dürfte, er sagte: "Im Moment hat WiiU ca. 50% Mehrleistung gegenüber der Ps3", er sagte nicht 360, was darauf schließen lässt, das er den Cellprozessor meinte, und das wär ne Hausmarke.

Dann haben sie wahrscheinlich nen Quadcore Power6 und nen R770 in den Devkits, was durch den Triplecore Power7 und die modifizierte GPU (plus neuere Shader und Tessellatoren) im finalen Devkit ersetzt werden dürfte, da kommt also noch ne Schippe an Hardwarepower oben drauf.

Mein persönlicher Spekulationstipp, Gesamtsystem mit GPU und RAM, ca 4-5mal Ps3, und das mit sehr effizienter Architektur, dürfte Ps360 in Grund und Boden rendern. :D

LadyWhirlwind
2011-06-15, 14:53:15
@Pittiplatsch:
die nächste Xbox soll wohl nicht mehr allzulange auf sich warten lassen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8786449#post8786449

mein grösstes bedenken beim Controller ist: wenn ich auf den Screen im Controller schauen will, seh ich nicht was auf dem Bildschirm passiert, vorallem in Situationen/Games wo man konstant aufpassen muss nicht unbedingt optimal oder? Und in Games wo man Zeit hätte wegzugucken lassen sich auch andere UI-Lösungen finden (die dann auch auf anderen Plattformen funktionieren).

Deinorius
2011-06-15, 16:47:35
Genau. Jegliche hw muesste schon beim sampling sein, damit man auch genug Zeit hat zu reagieren falls irgend etwas schief laufen sollte.


Gilt das auch für die Taktfrequenzen? Ich meinte ja nicht, dass sie mit komplett allem rumtesten, sondern dass die finalen Spezifikationen noch nicht in Stein gehauen sind.

fizzo
2011-06-16, 09:15:31
Gilt das auch für die Taktfrequenzen? Ich meinte ja nicht, dass sie mit komplett allem rumtesten, sondern dass die finalen Spezifikationen noch nicht in Stein gehauen sind.

Passend hiezu: Developers Working With ‘Underclocked’ Wii U Hardware (http://kotaku.com/5812391/report-developers-working-with-underclocked-wii-u-hardware)

xyleph
2011-06-16, 10:47:45
Achja IGN und ihre Spekulationen mal wieder, diesmal mit nem "Interview" von Michel Ancel, der gerademal über nen Alphakit verfügen dürfte, er sagte: "Im Moment hat WiiU ca. 50% Mehrleistung gegenüber der Ps3", er sagte nicht 360, was darauf schließen lässt, das er den Cellprozessor meinte, und das wär ne Hausmarke.

Dann haben sie wahrscheinlich nen Quadcore Power6 und nen R770 in den Devkits, was durch den Triplecore Power7 und die modifizierte GPU (plus neuere Shader und Tessellatoren) im finalen Devkit ersetzt werden dürfte, da kommt also noch ne Schippe an Hardwarepower oben drauf.

Mein persönlicher Spekulationstipp, Gesamtsystem mit GPU und RAM, ca 4-5mal Ps3, und das mit sehr effizienter Architektur, dürfte Ps360 in Grund und Boden rendern. :D

Rein von deinen Aussagen her spekulierst du mehr, als jemand der an der Quelle sitzt. Ob Alpha-, Beta oder sonstwas-Kit bleibt sich bei der veranschlagten Hardware ziemlich egal, ist nicht so als wenn Nintendo darauf angewiesen wäre, in die Alpha Kits Chips zu bauen, welche nur um die Hälfte stärker sind sind als PS3 und 360, weil es ganz einfach schon weit schnellere Chips gibt, welche man verwenden könnte wenn man es daruf anlegt sich weit von dieser 50%+ Marke zu entfernen.
Die Aussage über die 50% Mehrleistung kommt ürigens nicht von Ancel, Acel sagte dass WiiU für ihn keine NexGen ist. Ein BF3 Dev wiederum sagte, dass WiiU ein wenig stärker ist als PS3 und 360, und die Quelle für die 50% Mehrleistung ist wieder eine andere. Alle aktuellen Aussagen decken sich übrigens mit den ersten Gerüchten über die WIIU Hardware, welche besagten. dass der Wii Nachfolger stärker als die beiden aktuellen Konsolen wird, sich aber weiterhin auf den technischen Level bewegt.
Nicht zu vergessen, dass es auf der E3 nur selbstablaufene Techdemos in 720P ohne AA gab. Auch hier, wollte man da viel mehr, hätte man auh schon mehr gezeigt.
Bisher verdichten sich alle Angaben um den Bereich, dass WIIU ein kleines Update der aktuellen Konsolen wird, und wenn sich Angaben über einen längeren Zeitraum aus verschiedenen Quellen, mit verschiedenen aber gleichbedeutenen Aussagen, stark ähneln, sind diese auch meist korrekt.
Jedenfalls mehr, als die Spekulation einiger User mit der freien Interpretation vager Hardwareangaben :wink:

pittiplatsch
2011-06-16, 14:45:06
Die Aussagen variieren aber deutlich, mal signifikant stärker, mal auf Augenhöhe mit den Current Gen Konsolen, das riecht schwer nach Devkits.

Desweiteren haben IBM und AMD glasklar bestätigt, das die finalen Chips noch in der Endfertigung sind, ergo kann kein Entwickler die finalen Specs schon kennen, wenn die Hersteller sich noch bedeckt halten.

Das Ancel das sagte, kann auch bedeuten, das er den Controller an sich meinte und er sich nichtmal auf die Hardware einließ.

Solange kein finales Datenblatt vorliegt, ist Alles reine Spekulation, und ist nach Oben und Unten offen, well see! :D

gruntzmaker
2011-06-16, 16:31:03
http://www.joystiq.com/2011/06/14/wii-u-graphics-chip-outed-as-last-gen-radeon-which-is-still-pre?icid=sphere_blogsmith_inpage_engadget

Nun isses mehr Richtung Juniper, aber immer noch ne 770er. Hätte ja schlimmer kommen können.

Drill
2011-06-16, 16:50:14
Desweiteren haben IBM und AMD glasklar bestätigt, das die finalen Chips noch in der Endfertigung sind, ergo kann kein Entwickler die finalen Specs schon kennen, wenn die Hersteller sich noch bedeckt halten.


das haben sie nicht.
hör doch endlich auf jedesmal diese nicht getätigten aussagen hier zu posten.

zustand
2011-06-16, 17:05:16
http://www.joystiq.com/2011/06/14/wii-u-graphics-chip-outed-as-last-gen-radeon-which-is-still-pre?icid=sphere_blogsmith_inpage_engadget

Nun isses mehr Richtung Juniper, aber immer noch ne 770er. Hätte ja schlimmer kommen können.

Das ist eine Spekulation vom GameWatch die mittlerweile als Insiderinformation verkauft wird. Ich denke mit einer GPU von der Größe einer 4650 wird man schon relativ nah dran liegen.

dargo
2011-06-16, 17:33:30
http://www.joystiq.com/2011/06/14/wii-u-graphics-chip-outed-as-last-gen-radeon-which-is-still-pre?icid=sphere_blogsmith_inpage_engadget

Nun isses mehr Richtung Juniper, aber immer noch ne 770er. Hätte ja schlimmer kommen können.
Und wo steht das was zum Juniper? :confused:

G 80
2011-06-16, 19:12:06
Das wichtigste geht imho unter: Nintendo wird die Konsole erstens:

1. Kaum/nicht subventionieren.
2. Der Controller ist sauteuer.

Gerade das zweite ist wichtig, das N ja verkündet hat, nur einen /Konsole auszuliefern und erstmal darauf abzielt auch nur den 1 in Spielen zu nutzen.

Also WO soll da noch das Budget für Schlachtschiff-HW in der Konsole sein.

Wie gesagt es ist echt nicht schwer den PS-Box Leistungslvl für kleines Geld zu erreichen .... es ist sogar so das man so dicht an der Mindestpreisschwelle ist, das geringfügig mehr Investitionen sogar (kurzfristig) zu überproportionalen Performancezuwachs führen, aber irgendwann ist dann das Budget ausgeschöpft.

Was die underclocked HW angeht: Schonmal gesehn, dass zB GPU-OC einen GPU-Neukauf ersetzt? Eine Finale Version wird _vielleicht_ 50% Takt drauflegen, aber wenns vorher nur mit 10 fps läuft hilft das auch nix. Höchstens versuchen die anner Alpha rumzubasteln ums grad halt flüssig zu bekommen um mit finalen Kitts und ersten ausgelieferten Konsolen sowie weiteren rumspielen und optimieren, ein fertiges finales Game zu erhalten.

Nightspider
2011-06-16, 21:15:33
Ich glaube den meisten ist bewusst, das Nintendo nicht subventioniert.
Und genau darüber ärgern sich wahrscheinlich die meisten. (Ich auch ein wenig)
Sony schafft es ja auch Gewinne einzufahren und MS auch. Die Spiele sind schon scheiß teuer genug und wären die Konsolen selbst billiger, würden viele vllt auch mehr Spiele kaufen, da sie die Konsolen eher besitzen.

G.A.S.T.
2011-06-16, 21:40:27
Ich glaube den meisten ist bewusst, das Nintendo nicht subventioniert.
Und genau darüber ärgern sich wahrscheinlich die meisten. (Ich auch ein wenig)
Sony schafft es ja auch Gewinne einzufahren und MS auch. Die Spiele sind schon scheiß teuer genug und wären die Konsolen selbst billiger, würden viele vllt auch mehr Spiele kaufen, da sie die Konsolen eher besitzen.
Es würde schon genügen, wenn N nicht versucht, an der Hardware selbst zu verdienen.

Konsolen werden wegen der Software gekauft. Die Konsolen-Hardware ist nur ein notwendiges Übel.

Ganon
2011-06-17, 10:29:40
Naja, dass sie das bei der Wii gemacht haben, ist verständlich. Nach den finanziellen Gratwanderungen N64 und GameCube brauchte Nintendo halt mal wieder Geld.

Beim 3DS sieht Nintendo aber schon, das ein hoher Preis sich ziemlich negativ auf die Verkäufe auswirkt. Die PS3 verkauft sich auch erst seit der letzten Preissenkung "wie erwartet"...

Von daher denke ich mal, dass Nintendo noch am Überlegen ist, wie man nun die Sache behandelt.

G.A.S.T.
2011-06-17, 18:03:39
Wii U graphics chip outed as last-gen RadeonFalls diese Meldung stimmt, frage ich mich: Warum nur?

Leistung knapp über 360 Niveau ergibt ja Sinn. Aber warum die alte ATI-Generation mit Shader 4.1 ?

00-Schneider
2011-06-17, 18:24:56
Vielleicht sind Shader 5 GPUs bei gleicher Leistung und Stromverbrauch teurer!?

LadyWhirlwind
2011-06-17, 19:37:07
Falls diese Meldung stimmt, frage ich mich: Warum nur?

Leistung knapp über 360 Niveau ergibt ja Sinn. Aber warum die alte ATI-Generation mit Shader 4.1 ?

Gehen die damit nicht das Risiko ein, dass neuere Spiele in Zukunft von der PS4, Xbox3 nicht auf die WiiU portiert werden, weil man zuviel neu programmieren müsste? bzw. würden die Spiele dann nicht auf der WiiU schlechter aussehen als bei der Konkurenz?

AffenJack
2011-06-17, 20:36:32
Wozu sollte man DX11 Features unterstützen, dafür wird die Generation zu langsam und Xbox3 und PS4 werden auch nicht verhindern, dass die Spiele nicht auf der WiiU kommen. Ich erwarte von ihr Xbox360 Grafik bei 1080p und das reicht für sogut wie alle Spieler aus. Etwas mehr Ram dazu und schon isses top.
Man kommt diesmal bestimmt min. 1Jahr vor der Xbox3 und 2Jahre oder so vor der PS4, das ist ne gute Verbesserung gegenüber der Wii und der Ottonormalverbraucher kann die Grafikunterschiede zu besserer Grafik eh kaum mehr sehen.
Xbox3 und PS4 werden eh bis 2015 alleine schon wegen dem hohen Preis (Wenn neue Konsolen jetzt schon kommen braucht man den um die Kosten nicht explodieren zu lassen, da man nur mit "High-End" Hardware nen sichtbaren Unterschied zu den alten Konsolen hinkriegt) keine große Rolle spielen, es wird alles auf den alten Konsolen rauskommen und dann auch auf der Wii. Und wenn die anderen 2015 mal ab und zu exklusive Spiele kriegen ists für Nintendo auch nicht schlimm, da die WiiU schon fast ihre halbe Lebensdauer hinter sich hat.

Coda
2011-06-17, 20:42:01
Wozu sollte man DX11 Features unterstützen, dafür wird die Generation zu langsam
Features machen Dinge schneller, nicht langsamer. Das kapieren offenbar immer noch einige nicht.