PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wii U - Hardware-Spekulation


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11

Gipsel
2012-11-21, 02:47:42
Weis man eigentlich inzwischen, was der dritte kleine DIE auf dem Package ist?Wir wissen es nicht.
Wie groß wäre denn die CPU der Wii in 32nm? Wäre es möglich, das man 2 CPUs verbaut, die eben abhängig vom Modi verwendet werden?Rechnerisch wären es bei idealem Scaling ~2,4 mm². Aber natürlich hoffnungslos padlimitiert. Schon der Shrink von Gekko (43mm² in 180nm, Gamecube) zu Broadway (18,9mm² in 90nm, Wii) zeigte eine deutlich schlechtere Skalierung als erwartet. Aber irgendwo müssen die Daten ja noch rein und raus.

Und ja, möglich wäre es schon, 2 Chip-Versionen zu verbauen (wobei der meiste Aufwand der Wii in der GPU bzw. den dort insgesamt verbauten 27MB 1T-SRAM lag, 3 MB auf dem GPU-Die und 24MB auf einem extra Die, nicht in der schon damals mickrigen CPU). Die ersten PS3-Versionen haben für die Kompatibilität mit alten Spielen ja praktisch auch eine komplette Kopie einer PS2 enthalten (später hat man darauf verzichtet).

Screemer
2012-11-21, 03:28:31
broadway war ja seiner zeit schon nicht wirklich groß:

http://pop.4-bit.jp/images/uploads/2011/12/Wii_Hollywood.jpg
links Hollywood und 1t-sram, recht broadway
beide in 90nm soi

so müsste das pinout gewesen sein:
http://i.ebayimg.com/08/!ByROU1Q!2k~$%28KGrHqQOKkYEwP0DegrIBMQ-tQ3tjQ~~_3.JPG

was mir grad auffällt ist, dass auf dem mcm des hollywood auch noch ein kleiner die links unten sitzt.

AnarchX
2012-11-21, 10:10:22
Vielleicht sind es wirklich nur 3 geshrinkte Broadway/Power750CL Cores, die knapp über 1GHz laufen und per FSB verbunden sind. Der eDRAM könnte ähnlich wie bei Power7 als L3-Cache genutzt werden, der aber in diesem Fall nicht shared wäre. Hier (http://www.vgleaks.com/world-premiere-wii-u-specs/)gab es Gerüchte zu einer 0,5+0,5+2MiB-Konfiguration, wenn auch es L2-Cache bezeichnet wurde.

Hier spekuliert man auf Basis der Package-Beschriftung 1,226GHz Takt: http://gimmegimmegames.com/2012/11/rumor-wii-u-cpu-clocked-at-1-22ghz/
edit: Unsinn, beim PCPer Package ist eine 1229 vermerkt: http://www.pcper.com/reviews/General-Tech/NIntendo-Wii-U-Teardown-Photos-and-Video

disap.ed
2012-11-21, 10:21:28
Edit:
Übrigens bin ich grade über eine Doku zu Broadway gestolpert (kenn' das Zeug doch auch nicht), der OoO-Krams da drin scheint ziemlich limitiert zu sein (na besser als nichts :freak:). Da bleibt zu hoffen, daß Nintendo bei IBM eine ordentlich modernisierte Implementation der ISA geordert hat. Denn knapp 2 GHz dürften bei der relativ kurzen Pipeline auch extrem eng werden.

Bin mir aufgrund der Geilheit Nintendos auf gerade Multiplikatoren ziemlich sicher, dass die CPU mit 1,6GHZ läuft, RAM ist ja mit 800 MHz bestätigt, 2,4GHz gibt das Design (und das power budget) wohl nicht her.

AnarchX
2012-11-21, 10:25:49
Der RAM ist mit 800MHz spezfiziert. Aber er könnte wohl auch irgendwo zwischen 666MHz und 800MHz takten.

Rancor
2012-11-21, 11:15:17
Das ist alles so lächerlich....:mad: Ein bischen mehr Dampf wäre doch drinne gewesen. :/

Coda
2012-11-21, 11:24:14
Wie macht das eigentlich eine in-order-CPU? Wenn die ohne Sprungvorhersage und ohne spekulative Ausführung daherkommt und einfach stalled, dann bricht die mit branchy Code aber sowas von ein. Und wenn die das an Board hat, hat sie das gleiche Problem, daß das immer noch gut funktionieren muß.
In-Order verbietet ja noch lange keine Spekulation. Man hat halt einen Retire-Buffer, wenn man falsch gesprungen ist wirft man den Weg und fängt neu an.

john carmack
2012-11-21, 12:38:31
Das ist alles so lächerlich....:mad: Ein bischen mehr Dampf wäre doch drinne gewesen. :/

bestimmt sogar... du musst aber bedenken das der TabletController schon rund 100$ oder gar 100€ kostet. das lässt kaum spielraum für die Hardwrae der eigentlichen Konsole.

Es sei denn die WiiU wird von anfang an für 400€ oder mehr verkauft. Und so wird es nicht sein!

OBrian
2012-11-21, 12:47:02
Man darf nicht vergessen, daß die vorherigen Nintendos auch eher magere Hardwareausstattung hatten, damit aber günstig waren und sich folglich gut verkauft haben. Dagegen hatten die XBox und die PS immer mit dem hohen Preis zu kämpfen, die Verkäufe waren nicht so wie gewünscht, trotz relativ hoher Leistung. Viele Kunden sind also offensichtlich nicht bereit, so viel Geld dafür zu bezahlen. Den Preis dann so weit zu senken, daß sie verkauft werden, hat den Firmen ordentlich Verluste bereitet. Nintendo hat es mit seinen absichtlich kleiner dimensionierten Geräten einfach besser geschafft, den Markt zu bedienen und damit noch Geld zu verdienen.

nampad
2012-11-21, 13:14:54
bestimmt sogar... du musst aber bedenken das der TabletController schon rund 100$ oder gar 100€ kostet. das lässt kaum spielraum für die Hardwrae der eigentlichen Konsole.

Es sei denn die WiiU wird von anfang an für 400€ oder mehr verkauft. Und so wird es nicht sein!

Das ich nicht lache. Das Gamepad kostet nie im Leben $100 in der Herstellung. Zu dem Preis gibt es schon billige Chinatablets mit SoC, RAM, Flashspeicher, kapazitivem Touchscreen und wohl auch stärkerem Akku. Teils sind die Dinger noch günstiger.

Auch wenn der Funkchip und der NFC Chip ($5) den Preis steigern, dürfte das Ding mehr als günstig herstellbar sein.

YfOrU
2012-11-21, 13:21:02
bestimmt sogar... du musst aber bedenken das der TabletController schon rund 100$ oder gar 100€ kostet. das lässt kaum spielraum für die Hardwrae der eigentlichen Konsole.

Wenn der Controller 100$ in der Produktion kostet ist was ordentlich schief gelaufen. Zieh von den Herstellungskosten eines 7 Zoll Tabs ungefähr 2/3 des für Flash, SoC und Ram aufgewendeten Betrages ab. Das kostet dann 100$ und wäre kombiniert mit ein paar zusätzlichen Eingabefunktionen für Spiele (Tasten und Kreuz links und rechts im Querformat) eine richtig tolle Sache gewesen. Eine Wii U hätte so im Heimgebrauch durchaus ein separates Tab ersetzen können. Dazu noch einen PC Client um erworbene Medien wie Musik und Videos abseits der Konsole(Fernseher) und dem interaktiven Streamingclient(Controller) auch hier verfügbar zu haben. Fertig ist ein nettes kleines aber trotzdem potentes Ökosystem für den Einsatz zuhause.

Warum der eigentlich hervorragende Grundgedanke welcher hinter dem Controller steht bereits im Ansatz vermurkst wurde verstehe ich nicht. Die Konsole hätte nichts anderes als der Host für alle Dienste sein müssen welche je nach Bedarf entweder auf dem Controller oder am Fernseher ausgeben werden.


Es sei denn die WiiU wird von anfang an für 400€ oder mehr verkauft. Und so wird es nicht sein!

Etwas wie ein modifizierter 2C Llano mit 400SP wäre bezogen auf die Preise von heutigen Nettops im Format einer Konsole vermutlich schon möglich gewesen. Trinity ist dafür noch zu frisch aber Llano Samples gab es schon vor Ewigkeiten.

Gipsel
2012-11-21, 13:37:02
In-Order verbietet ja noch lange keine Spekulation. Man hat halt einen Retire-Buffer, wenn man falsch gesprungen ist wirft man den Weg und fängt neu an.Das war auch eher eine rhetorische Frage. Ich sagte ja, falls eine in-order-CPU keine Sprungvorhersage und keine spekulative Ausführung beherrscht, kostet es ordentlich Performance. Falls sie es aber beherrscht, muß es ebenso gut funktionieren. Die Güte der Sprungvorhersage ist also kein ausschließliches Problem einer OoO-CPU. Darauf wollte ich hinaus.

john carmack
2012-11-21, 14:44:17
wer sagt denn was von 100$ Produktionskosten?

dildo4u
2012-11-21, 14:53:01
wer sagt denn was von 100$ Produktionskosten?
Was soll's du sonst meinen das Pad kann man nicht einzeln kaufen.

iFanatiker
2012-11-21, 14:56:17
Weis man eigentlich inzwischen, was der dritte kleine DIE auf dem Package ist?

Könnte es der Sound DSP sein vielleicht?

nampad
2012-11-21, 15:15:24
Was soll's du sonst meinen das Pad kann man nicht einzeln kaufen.

Und außerdem steht auch schon der Preis des Gamepads fest, welcher sich deutlich über $100 bewegt, nämlich 13,440 yen. Und auch wenn das gemeint ist, wäre die Argumentation mehr als dämlich. Aber die Diskussion habe ich hier ja schon mit wem geführt.

Rancor
2012-11-21, 15:32:27
LOL! Ich lese grade auf der 3DC Mainpage, das der Speicher nur mit 32bit angebunden ist. WTF? Nintendo?, was stimmt denn mit euch nicht ;/

AnarchX
2012-11-21, 15:34:37
Nein, das ist ein Fehler von Leo. Wobei man spekulieren könnte, dass Nintendo zwei exklusive Speicherpools verwendet und es dann wirklich nur 1GiB@32-Bit für Spiel sind. :ulol:

dildo4u
2012-11-21, 15:35:50
Der erste direkt Vergleich mit 360 und PS3.

Face-Off: Mass Effect 3 Special Edition on Wii U

http://www.eurogamer.net/articles/digitalfoundry-mass-effect-3-wii-u-face-off

Laut dem Artikel killt MSAA und hohe Schattenauflösung Performance der Wii-U wegen dem kleinen eDRAM.Auflösung bei ME3 ist 720p mit FXAA,Performance ist schlechter als auf 360.

del_4901
2012-11-21, 15:44:30
Das klappt bloß bei den von mir genannten Fällen nicht so recht. ;) Bei den variablen Instruktionen weiss ich jetzt gar nicht ob mir sowas bei einer Konsole jehmals ueber den weg gelaufen ist. Wenn das Datenlayout schlecht ist, dann muss man es einfach umbauen (DOD). Zum beispiel decission Trees in ein Array auslegen und dann einfach mehr prefetchen, bzw. beide branches prefetchen. (Muss man nur aufpassen irgendwo gibs auch ein prefetch limit, deswegen ist es auch wichtig das alles schoen nah beieinander liegt)
Generell optimiert man auch nur das was im Game auch vorkommt. Fuer die Verifikation hat man normalerweise auch entsprechende automatisierte performance Tests. Mach das mit genug Programmierern ueber einen laengeren Zeitraum und es bleibt nur noch Kleinkram uebrig, wo man dann nur noch die Engine "neuschreiben" kann.
Das war auch eher eine rhetorische Frage. Ich sagte ja, falls eine in-order-CPU keine Sprungvorhersage und keine spekulative Ausführung beherrscht, kostet es ordentlich Performance. Falls sie es aber beherrscht, muß es ebenso gut funktionieren. Die Güte der Sprungvorhersage ist also kein ausschließliches Problem einer OoO-CPU. Darauf wollte ich hinaus. Ich wollte eigentlich darauf hinaus, das man Gekko nicht gerade mit der Pro-Mhz-Leistung eines 10 Jahre moderneren Jaguar vergleichen sollte.
Na dann sind es doch sogar ~2,5 DMIPS/MHz (Broadway läuft doch angeblich nur mit 729MHz) und damit identisch zu einem Cortex A9. :DWas hab ich da blos zusammengerechnet ... naja war schon spaet. :)
was mir grad auffällt ist, dass auf dem mcm des hollywood auch noch ein kleiner die links unten sitzt.Das wird wohl der Security ARM Kern sein

dargo
2012-11-21, 15:54:28
Der erste direkt Vergleich mit 360 und PS3.

Face-Off: Mass Effect 3 Special Edition on Wii U

http://www.eurogamer.net/articles/digitalfoundry-mass-effect-3-wii-u-face-off

Also in dem Video 360 vs. Wii U sehe ich ehrlich gesagt keinen Unterschied. Das einzige was mir negativ ins Auge fällt ist der verhunzte Kontrast bei der 360. Da saufen viele Details in schwarz ab. Das kann die Wii U besser, oder war der TV einfach nur bei der 360 falsch eingestellt? Keine Ahnung wie sie das Bild abgreifen.

Was sich aber Sony da leistet ist echt nicht mehr feierlich. Ich finde es unglaublich was man den Spielern zumutet. Bei der PS3 läuft der Spieler immer wieder mit ~20fps rum und die Framerate bricht bis zu 14fps ein. :facepalm:


Laut dem Artikel killt MSAA und hohe Schattenauflösung Performance der Wii-U wegen dem kleinen eDRAM.Auflösung bei ME3 ist 720p mit FXAA,Performance ist schlechter als auf 360.
Das verstehe ich nicht. Ich dachte der eDRAM ist 3x größer bei der Wii U. Oder sind diese Angaben wieder falsch?

Nightspider
2012-11-21, 15:56:09
Ich glaub hier und da flimmerte die Wii-U ein bisschen weniger.
Entweder anderer AA Modus oder minimal höhere Auflösung, wenn ich mich nicht irre.

starfish
2012-11-21, 15:57:49
Der erste direkt Vergleich mit 360 und PS3.

Face-Off: Mass Effect 3 Special Edition on Wii U

http://www.eurogamer.net/articles/digitalfoundry-mass-effect-3-wii-u-face-off

Laut dem Artikel killt MSAA und hohe Schattenauflösung Performance der Wii-U wegen dem kleinen eDRAM.Auflösung bei ME3 ist 720p mit FXAA,Performance ist schlechter als auf 360.

Kanns grad nicht lesen, aber meinst du mit dem Satz, dass die Qualität der Schatten plus Kantenglättung auf der Wii-U höher als auf der Xbox ist, aber die Framerate niedriger?

dargo
2012-11-21, 16:01:39
Ich glaub hier und da flimmerte die Wii-U ein bisschen weniger.

Kam mir auch so vor.

Edit:
Wenn ich berücksichtige wie lange die Spieleentwickler mit der Xbox360 und PS3 schon hantieren finde ich das Ergebnis gar nicht so schlecht bei der Wii U. Vorallem im Vergleich zu Sony performt die Wii U Version scheinbar deutlich besser.

Skysnake
2012-11-21, 16:01:40
Der erste direkt Vergleich mit 360 und PS3.

Face-Off: Mass Effect 3 Special Edition on Wii U

http://www.eurogamer.net/articles/digitalfoundry-mass-effect-3-wii-u-face-off

Laut dem Artikel killt MSAA und hohe Schattenauflösung Performance der Wii-U wegen dem kleinen eDRAM.Auflösung bei ME3 ist 720p mit FXAA,Performance ist schlechter als auf 360.
Also nach dem was ich da so gesehen habe, sieht die PS3 performancetechnisch dagegen ja ziemlich mau aus :ugly:

Nur die X360 ist etwas besser, hat dafür aber immer wieder diese fiesen Framedrops drin. Keine Ahnung, ob man das als Ruckler wahrnehmen wird.

Die Sache mit dem Route zeichnen für die Team.KI ist aber echt ne nette Idee

dildo4u
2012-11-21, 16:03:57
Kanns grad nicht lesen, aber meinst du mit dem Satz, dass die Qualität der Schatten plus Kantenglättung auf der Wii-U höher als auf der Xbox ist, aber die Framerate niedriger?

Nein sorry das hat sich nicht auf das Game bezogen,sondern sie gehen allgemein davon aus,das dort gespart werden muss weil der Hauptspeicher so langsam ist und in den eDram nicht alles passt.
Also MSAA wird vermutlich nie genutzt und die Schatten werden häufig schlechter aussehen.

To mitigate the issue, the Wii U has 32MB of ultra-fast onboard eDRAM integrated into the AMD graphics core and the new hardware almost certainly renders out directly from that. We're not yet clear on how texture fetching works on the new console but conceivably the challenge becomes a matter of importing assets from the main RAM into the GPU eDRAM in an orderly fashion and keeping them contained in that space before exporting the whole framebuffer to the video output. Shadowmaps take up a lot of space which may explain why they have apparently been downscaled on Arkham City. This ties in with why we've yet to see any Wii U title with multi-sampling anti-aliasing - each pass would take up valuable eDRAM.

Zum Vergleich Intel will wohl bei ihren neuen SOC bis zu 128mb eDram,nutzen damit eben bis 1080p mit MSAA keine Probleme auftreten.

Gipsel
2012-11-21, 16:44:15
Bei den variablen Instruktionen weiss ich jetzt gar nicht ob mir sowas bei einer Konsole jehmals ueber den weg gelaufen ist.Das mit den variablen Latenzen war ja die Verallgemeinerung. Das trifft für normale ALU-Operationen aber meist nur etwas unüblichere Befehle (z.B. Division, da kann die Latenz abhängig von den konkreten Werten sein [das läuft ja iterativ, wenn die geforderte Genauigkeit erreicht ist, gibt es zum Teil early exits]). Aber ganz einfach ist jeder Speicherzugriff mit variabler Latenz behaftet. Das kannst Du z.B. wie von Dir beschrieben, versuchen zu minimieren. Aber das hat natürlich auch Grenzen.
Ich wollte eigentlich darauf hinaus, das man Gekko nicht gerade mit der Pro-Mhz-Leistung eines 10 Jahre moderneren Jaguar vergleichen sollte.Ich hatte ja ein Post später geschrieben, daß ich über eine Doku zu Broadway gestolpert bin. Und die Fähigkeiten nehmen sich dann ehrlich gesagt wirklich relativ bescheiden aus. Aber das Problem ist ja, daß wir ja noch gar nicht mal wissen, ob es wirklich nur höher getakteter TripleCore Broadway ist, oder ob IBM nicht doch noch an ein paar mehr Schrauben gedreht hat. Die relativ geringe Diegröße spricht jetzt nicht unbedingt für ein sehr performantes Design, aber etwas mehr ist es ja schon geworden.
Ich habe die Zahlen ja schon mal genannt, Gekko in 180nm maß 43mm², Broadway in 90nm noch 18,9mm². Es lag also vermutlich bereits eine Padlimitierung vor (IO-Bereich schrumpft nicht). Mit ein paar recht wackligen Annahmen könnte man daraus schlußfolgern, daß der eigentliche Broadway-Kern inklusive den 256kB L2 lediglich ~8mm² in 90nm maß (die restlichen 10,9mm² waren IO-Bereich). Ein Triplecore davon in 45 nm wären also nur 6mm² groß (plus IO-Bereich, nehmen wir dafür mal wieder ~10-12mm² an, kommt man erst auf die Hälfte der tatsächlichen Diegröße)! Okay, ein bißchen Glue für das SMP braucht es noch und vermutlich sind die Caches ein wenig größer geworden. Aber im Prinzip hätte man noch die Reserve gehabt, am Kern was zu drehen. Hat sich Nintendo wirklich darauf beschränkt, bei IBM die Fläche mit Cache aufzufüllen, wäre das tatsächlich etwas armselig. Aber hmm, auch mit einer 50mm² CPU wären die wohl nicht gestorben und das haben sie auch nicht gemacht.

Nur mal so als Vergleich, wie groß wäre eigentlich ein DualCore-Bobcat (ähnliche Ausführungsresourcen wie Broadway mit besserer OoOE und längerer Pipeline) ohne die GPU und ohne das 64Bit-Speicherinterface und die Displayausgänge (das fehlt bei der Wii U ja auch) in 40nm? Die beiden Kerne belegen mitsamt den jeweils 512kB L2 zusammen gerade mal 15-16mm². Dann noch ein wenig Northbridge bzw. SMP Glue, das PCI-Express-Interface (als Platzhalter der Verbindung zur GPU mitsamt dem dort befindlichen Speichercontroller wie bei der Wii U) nimmt unter 5mm² ein und man landet sehr wahrscheinlich sogar unter 30mm². Es ist also nicht so, daß man in das zugegeben kleine Diesize-Budget überhaupt keinen halbwegs akzeptablen Kern quetschen könnte. Jaguar ist ja prozeßbereinigt auch nur ~25% größer als Bobcat (also der eigentliche Kern ohne L2 Cache, sind 4,6mm² bei Bobcat in 40nm und 2,9 mm² bei Jaguar in 28nm, und das mit 128Bit SIMD-Einheiten statt nur 64Bit wie bei Bobcat), ein Jaguar mitsamt L2 würde in 40nm vermutlich auch nur ~9mm² messen (und ein DualCore davon würde ohne Grafik usw. auch auf ein Die in der Größe der Wii U CPU passen).
Moral von der Geschicht': Es wäre nicht ausgeschlossen gewesen, daß Nintendo bei IBM ein deutlich generalüberholtes Modell ordert, was von der Performance durchaus in Schlagdistanz zu moderneren low-power-CPUs (wie Jaguar) gelangt, ohne das die Diesize wesentlich größer hätte sein müssen, als sie es jetzt ist. Für die Kompatibilität mit Wii-Spielen ist ja die ISA entscheidend, nicht wie schnell eine CPU diese abarbeitet. Aber nur die Caches zu vergrößern (ohne zu wissen, ob es tatsächlich das ist, womit sie die Diesize füllen) ist natürlich billiger für die Entwicklungskosten, die man an IBM überweisen muß. :rolleyes:

del_4901
2012-11-21, 16:54:48
Das kannst Du z.B. wie von Dir beschrieben, versuchen zu minimieren. Aber das hat natürlich auch Grenzen.
Ja klar, selbst Manpower hat irgendwann seine Grenzen.
Für die Kompatibilität mit Wii-Spielen ist ja die ISA entscheidend, nicht wie schnell eine CPU diese abarbeitet. Aber nur die Caches zu vergrößern (ohne zu wissen, ob es tatsächlich das ist, womit sie die Diesize füllen) ist natürlich billiger für die Entwicklungskosten, die man an IBM überweisen muß. :rolleyes: Nicht ganz, erinnere dich an den shrink der X360 IBM hatte grosse Probleme damit das alles auf dem SoC wirklich die gleiche Laufzeit hat. Die haben sogar extra noch Kram eingebaut der den Chip kuenstlich verlangsamt. In Zeiten der MultiCore Konsolen sind die Games naemlich voller Deadlocks und Raceconditions, die waehrend der Entwicklung nie gefunden wurden, da sie einfach nie oder viel zu selten aufgetreten sind.

Gipsel
2012-11-21, 17:02:43
Ja klar, selbst Manpower hat irgendwann seine Grenzen.Und nicht alles geht mit Manpower, es gibt auch prinzipielle Grenzen.
Nicht ganz, erinnere dich an den shrink der X360 IBM hatte grosse Probleme damit das alles auf dem SoC wirklich die gleiche Laufzeit hat. Die haben sogar extra noch Kram eingebaut der den Chip kuenstlich verlangsamt. In Zeiten der MultiCore Konsolen sind die Games naemlich voller Deadlocks und Raceconditions, die waehrend der Entwicklung nie gefunden wurden, da sie einfach nie oder viel zu selten aufgetreten sind.
Nur ist bei Wii-Games nichts mit multi Core. ;)

Bei MS ging es darum, daß man eine bestehende Konfiguration shrinken bzw. in einen SoC wandeln wollte und das Verhalten absolut identisch bleiben sollte. Das ist hier nicht unbedingt nötig. In den allermeisten Fällen bewirkt eine Änderung des CPU-Speeds nicht viel. Und für die eventuellen Einzelfälle gibt es eben einen kleinen Patch von Nintendo. Eine sehr gute Kompatibilität wird normalerweise auch durch reine ISA-Kompatibilität gewährleistet.

del_4901
2012-11-21, 17:08:42
Nur ist bei Wii-Games nichts mit multi Core. ;)
Vorsicht, denn die Engines sind schon in der MultiCoreAera geboren.
Das ist hier nicht unbedingt nötig. In den allermeisten Fällen bewirkt eine Änderung des CPU-Speeds nicht viel. Und für die eventuellen Einzelfälle gibt es eben einen kleinen Patch von Nintendo. Eine sehr gute Kompatibilität wird normalerweise auch durch reine ISA-Kompatibilität gewährleistet. Vllt. gibt es den Code nicht mehr oder war nie zur Hand? ;) oder die ehemaligen Enwickler/Publisher haben keinen Bock zu patchen. So ein Patch ist zwar moeglich aber auch mit einigem Aufwand verbunden.

Keine Ahnung was die sich dabei gedacht haben... warscheinlich nicht viel... hoffentlich war das Nintendos letzte Konsole!
Vllt. war der Plan ja langfristig die Konsole in den Controller zu shinken :ugly:

Ravenhearth
2012-11-21, 17:13:31
Users are bricking their own Wii U consoles - Firmware update is too slow, so users turn it off (http://www.fudzilla.com/home/item/29521-users-are-bricking-their-own-wii-u-consoles):freak:

Mal eine Frage: Wie hoch ist die derzeit spekulierte/angenommene Performance der Wii U-CPU in etwa im Vergleich mit ARM-Chips, zB. einem Quadcore A9 (wie Tegra 3) oder einem Dual-A15 (Exynos 5250)?

Nightspider
2012-11-21, 17:17:13
Zum Vergleich Intel will wohl bei ihren neuen SOC bis zu 128mb eDram,nutzen damit eben bis 1080p mit MSAA keine Probleme auftreten.

Von was für einem SoC sprichst du? Von der nächste Atom-Genertation, welche 2014 kommt?

AnarchX
2012-11-21, 17:20:10
Von was für einem SoC sprichst du? Von der nächste Atom-Genertation, welche 2014 kommt?
Haswell GT3.



Mal eine Frage: Wie hoch ist die derzeit spekulierte/angenommene Performance der Wii U-CPU in etwa im Vergleich mit ARM-Chips, zB. einem Quadcore A9 (wie Tegra 3) oder einem Dual-A15 (Exynos 5250)?
Wahrscheinlich im vergleichbare Bereich.

Gipsel
2012-11-21, 17:34:41
Vorsicht, denn die Engines sind schon in der MultiCoreAera geboren.
Deadlocks bzw. Race Conditions, die sich auf einem Broadway in Wohlgefallen auflösen, es aber auf der Wii U-CPU im SingleCore-Modus nicht tun, dürften eigentlich üble Bugs sein, bei denen auch bei der Wii der korrekte Ablauf nicht sicher ist, oder? Ehrliche Frage.
Vllt. gibt es den Code nicht mehr oder war nie zur Hand? ;) oder die ehemaligen Enwickler/Publisher haben keinen Bock zu patchen. So ein Patch ist zwar moeglich aber auch mit einigem Aufwand verbunden.Ich dachte der wichtigste Entwickler für die Wii war Nintendo selber? Sony und MS haben zwischenzeitlich (mit erheblichem Supportaufwand, inzwischen ist das nicht mehr so wichtig) sogar eine halbwegs funktionierende Kompatibilität über reine Software-Lösungen (Emulation) hinbekommen. Mit dem gleichen Befehlssatz sollte man 99% der Kompatibilitätsprobleme eigentlich erschlagen haben (und Synchronisationsprobleme dürften bei einem SingleCore-System wie gesagt auch überschaubar sein).
Ich kenne kein Spiel, was sich mit einem mal verabschiedet, wenn die CPU ein paar hundert MHz höher taktet, der Speichertakt geändert wird oder die Festplatte schneller oder langsamer Daten liefert. Sowas sind Ausnahmefälle.

del_4901
2012-11-21, 17:37:48
Deadlocks bzw. Race Conditions, die sich auf einem Broadway in Wohlgefallen auflösen, es aber auf der Wii U-CPU im SingleCore-Modus nicht tun, dürften eigentlich üble Bugs sein, bei denen auch bei der Wii der korrekte Ablauf nicht sicher ist, oder? Ehrliche Frage. Mhm, jetzt wo du so fragst... eigentlich schon :ugly:
Ich kenne kein Spiel, was sich mit einem mal verabschiedet, wenn die CPU ein paar hundert MHz höher taktet, der Speichertakt geändert wird oder die Festplatte schneller oder langsamer Daten liefert. Sowas sind Ausnahmefälle.
In dem speziellen Fall der X360 wird es wohl um die CPU - GPU synchronisation gegangen sein... Das ist doch so neu fuer uns Entwickler :ugly:

fdk
2012-11-21, 17:39:10
Das Ding ist im Prinzip ein Smartphone/Tablet ohne 3g/4g, dafür mit billigst-display nebst Akku & einer aufgebohrten GPU.
So sieht dann auch das PCB im Vergleich aus (Anzahl der Bauteile). Im Gegensatz zu Nintendo schaffen es google/Apple aber mittlerweile ihre UI ruckelfrei und ohne störende Ladezeiten darzustellen (8-12 Sekunden fürs laden des Menü, wtf).

http://i.imgur.com/UXI4B.jpg

http://i.imgur.com/TTrbf.jpg

Nightspider
2012-11-21, 17:49:42
Von der Leistung her ist die Wii-U schon um ein vielfaches schneller als derzeitige HighEnd Smartphones.

Aber das man sich bei OS-Geschwindigkeit und GPU Beschleunigung nicht an Smartphones und Tablets orientiert ist traurig.

Die OS Geschwindigkeit ist ja schon beim Nintendo 3DS zum heulen.
Echt traurig was Nintendo softwareseitig abliefert. Wenn die nur Spiele programmieren können sollen sie sich halt gute externe Teams zum Programmieren des OS ranholen.

Das man dann zum Release erstmal ein 1GB großes Firmware Update laden muss ist auch ein Armutszeugnis.

Skysnake
2012-11-21, 18:20:29
Das Ding ist im Prinzip ein Smartphone/Tablet ohne 3g/4g, dafür mit billigst-display nebst Akku & einer aufgebohrten GPU.
So sieht dann auch das PCB im Vergleich aus (Anzahl der Bauteile). Im Gegensatz zu Nintendo schaffen es google/Apple aber mittlerweile ihre UI ruckelfrei und ohne störende Ladezeiten darzustellen (8-12 Sekunden fürs laden des Menü, wtf).

http://i.imgur.com/UXI4B.jpg

http://i.imgur.com/TTrbf.jpg
Was ist denn das für ne Schwachsinnsaussage...

Anzahl der Bauteile auf nem PCB mit der Qualität eines Produkts gleich zu setzen :facepalm:

Das kann auch einfach nur ein (sehr) gutes Design sein. Normal strebt man so was eh immer an.

Nach deiner Logik müsste dann ja so was hier der letzte Dreck sein, oh wait ist ja absolut TOP :rolleyes:

Coda
2012-11-21, 18:32:45
Users are bricking their own Wii U consoles - Firmware update is too slow, so users turn it off (http://www.fudzilla.com/home/item/29521-users-are-bricking-their-own-wii-u-consoles):freak:
Nicht atomarer Update-Prozess? Srsly? 2012?

Hahahahahahahahahahaha :ulol:

Leonidas
2012-11-21, 18:42:50
LOL! Ich lese grade auf der 3DC Mainpage, das der Speicher nur mit 32bit angebunden ist. WTF? Nintendo?, was stimmt denn mit euch nicht ;/


War ein Fehler, der inzwischen gefixt ist. Es sind 64 Bit DDR.

Skysnake
2012-11-21, 18:47:24
Nicht atomarer Update-Prozess? Srsly? 2012?

Hahahahahahahahahahaha :ulol:
Naja, manchmal gehts nicht anders, aber bei ner Konsole schon ziemlich doof.

Player18
2012-11-21, 20:34:21
Laut Metro hersteller aber sehr aufwenig spiele zu programmieren, Metro wo 2013 raus kommt Ende oder Anfang März kommt nicht auf Wii U raus.

Felixxz2
2012-11-21, 21:30:26
Das ist irgendwie noch peinlicher als die Wii. Wär ja ungefähr so, als hätte man damals keine Xbox 1/PS2 Titel auf die Wii umsetzen können :freak:

Was die sich dabei nur gedacht haben.....und dann kommen nächstes Jahr Xbox/PS mit Samaritan Grafik, aber die Kunden sollen natürlich die Wii U kaufen ;D

AnarchX
2012-11-21, 21:35:57
Das ist irgendwie noch peinlicher als die Wii. Wär ja ungefähr so, als hätte man damals keine Xbox 1/PS2 Titel auf die Wii umsetzen können :freak:

Das konnte man auch teilweise nicht. Alles was programmierbare Shader benötigte (NV2A in der XBox hatte diese) konnte man auf den Texture-Combinern (TEV) der Wii nur sehr schwer nachbilden. Im Falle der PS2 könnte man die hohe Geometrie-Leistung nennen, die man nicht auf der Wii fand.

Felixxz2
2012-11-21, 21:41:03
Das konnte man auch teilweise nicht. Alles was programmierbare Shader benötigte (NV2A in der XBox hatte diese) konnte man auf den Texture-Combinern (TEV) der Wii nur sehr schwer nachbilden. Im Falle der PS2 könnte man die hohe Geometrie-Leistung nennen, die man nicht auf der Wii fand.

Aber das hätte doch nicht dazu geführt, dass man komplette Spiele nicht bringen kann oder?

labecula
2012-11-21, 21:43:57
Laut Metro hersteller aber sehr aufwenig spiele zu programmieren, Metro wo 2013 raus kommt Ende oder Anfang März kommt nicht auf Wii U raus.

Ein Satz fürs´ Geschichtsbuch... grausig...

Ringwald
2012-11-21, 22:09:24
Doch da war einer drauf fuer security Sachen (codename Starlet).

Ich meine der Starlet war nicht für Security sondern auch für I/O und Standby bzw. WiiConnect24 zuständig. Wäre natürlich interessant ob er noch dabei ist und für welche Zwecke er diesmal benutzt wird.

@Topic
Das System belegt 5GB, das alles kann nicht alleine für OS und eine handvoll Apps sein.
Könnte es sein, dass Nintendo diese Reserven in Zukunft als Swap Partition benutzen möchte? Wäre der verbaute Samsung eMMC überhaupt schnell genug dafür?

Rancor
2012-11-21, 22:12:40
War ein Fehler, der inzwischen gefixt ist. Es sind 64 Bit DDR.

Das macht die Sache auch nicht viel besser. Es ist einfach absolut lächerlich was Nintendo hier an Hardware abliefert.

Felixxz2
2012-11-21, 22:17:55
@Topic
Das System belegt 5GB, das kann alles nicht für OS und eine Handvoll Apps sein.
Könnte es sein, dass Nintendo diese Reserven in Zukunft als Swap Partition benutzen möchte? Wäre der verbaute Samsung eMMC überhaupt schnell genug dafür?

Schneller als das optische Laufwerk wschl schon. Siehe Xbox 360, bei der wurden auch 7GB abgezwackt, u.a. als Zwischenspeicher fürs DVD Laufwerk.

del_4901
2012-11-21, 22:18:26
Wäre natürlich interessant ob er noch dabei ist und für welche Zwecke er diesmal benutzt wird. Irgendein kleiner Chip ist auch auf dem Package der Wii U (oben links).
http://www.3dcenter.org/dateien/abbildungen/Nintendo-Wii-U-Chips.jpg

Felixxz2
2012-11-21, 22:24:18
Bei Anand wurde ja geschrieben, dass das der eDRAM sei. Kommt mir aber ein wenig klein vor bzw. die GPU wäre ohne integrierten eDRAM ja sehr groß bzw. ungewähnlich schnell.

Skysnake
2012-11-21, 22:28:07
das ist garantiert nicht der eDRAM

del_4901
2012-11-21, 22:28:24
Bei Anand wurde ja geschrieben, dass das der eDRAM sei. Kommt mir aber ein wenig klein vor bzw. die GPU wäre ohne integrierten eDRAM ja sehr groß bzw. ungewähnlich schnell.
Wenn dann ist es die CPU :lol: und der mittelgrosse Die ist der eDRAM :) ... aber dann waehre die GPU zu gross fuer das was sie leistet. Nene, das ist der Security/IO Processor der schon bei der Wii und GC dabei war.

Nightspider
2012-11-21, 22:41:06
Mal im Ernst? Wieviel Pinks passen auf so eine winzig kleine Chipfläche? 4? 9 ? 12 ?

labecula
2012-11-21, 22:50:38
Das macht die Sache auch nicht viel besser. Es ist einfach absolut lächerlich was Nintendo hier an Hardware abliefert.

Ich sehe nur was hinten auskommt. Und bis auf einen Titel können mich alle überzeugen. Da bekanntlich während der Lebenszeit einer Konsole noch mehr drinne ist, käme es mir nicht in den Sinn sich über technsiche Unzulänglichkeiten aufzuregen. Es ist eine Wii, also perse keine NextGen. Und das Einzige was mich auf das Gerät neugierig macht ist der neue Controller. Späenstens mit 720 und ps3 ist die WiiU obsolet. Aber bis dahin wird sie mir ordentlich Spielspaß bringen, da bin ich mir sicher. Wem diemUnzulänglichkeiten der Hardware gegen den Strich gehen, kann die WiiU ja überspringen, mit den PS360 Gurken weiterspielen und dann direkt auf die Nachfolger setzen. Ich kann dieses Gejammer nicht immer nachvollziehen... Man kann die Stirn drüber runzeln, aber das wars auch schon.

Und ja, die angebliche CPU Die wird keine sein, da ist ja jeder Cortex A15 mit vier Kernen größer. CPU und GPU werden gesamt im großen Die sein. Werden wir spätestens dann sehen, wenn entsprechende Leute die Dinger auffräsen und unter Rastermikro begutachten.

Rancor
2012-11-21, 23:07:32
Ich sehe nur was hinten auskommt. Und bis auf einen Titel können mich alle überzeugen. Da bekanntlich während der Lebenszeit einer Konsole noch mehr drinne ist, käme es mir nicht in den Sinn sich über technsiche Unzulänglichkeiten aufzuregen. Es ist eine Wii, also perse keine NextGen. Und das Einzige was mich auf das Gerät neugierig macht ist der neue Controller. Späenstens mit 720 und ps3 ist die WiiU obsolet. Aber bis dahin wird sie mir ordentlich Spielspaß bringen, da bin ich mir sicher. Wem diemUnzulänglichkeiten der Hardware gegen den Strich gehen, kann die WiiU ja überspringen, mit den PS360 Gurken weiterspielen und dann direkt auf die Nachfolger setzen. Ich kann dieses Gejammer nicht immer nachvollziehen... Man kann die Stirn drüber runzeln, aber das wars auch schon.

Und ja, die angebliche CPU Die wird keine sein, da ist ja jeder Cortex A15 mit vier Kernen größer. CPU und GPU werden gesamt im großen Die sein. Werden wir spätestens dann sehen, wenn entsprechende Leute die Dinger auffräsen und unter Rastermikro begutachten.

Es geht darum, das mit vllt 10 - 15$ einfach wesentlich mehr drinne gewesen
wäre. Es ist schon klar, das im Laufe der Zeit, die Devs mit der Hardware immer besser umgehen können, das ist aber nicht der Punkt.

Der Unterschied zur PS4 und 720 hätte aber nicht so groß ausfallen müssen. ( Wenn man davon ausgeht das Konsolen wesentlich mehr Leistung haben als die jetzigen )
1080p und 60FPS bei gleicher Detailqualität wie ps360 wäre richtiger gewesen. So gurkt man wieder bei 720p und 30 fps rum, wie 7 Jahre alte Konsolen. Es ist einfach überhaupt nicht nachvollziehbar.
Zumal das Gameplay auf den jetztigen Konsolen schon furchtbar ist. Sieht ME3 auf PS3 oder ACIII, GTA iV und co auf Kosolen. Es ruckelt und zuckelt, teils weit unter 20FPS.
Man darf auch von Nintendo erwarten, das sowas 2012 nicht mehr vorkommt.

Dann kommt noch der Preis. Warum soll ich 359€ für eine Kosole zahlen, die nicht mal siginifikant mehr Leistung bringt, als 7 Jahre alte Hardware?
Wegen dem Tablet Controller, wo nach 3-5 Stunden der lächerlich kleine Akku leer ist?

Das Konzept passt diesmal einfach nicht.
Zelda, Metroit und Mario sind die einzigen Gründen die für die WIIU sprechen.

Ich habe einfach mehr erwartet, als das.

Steffko
2012-11-21, 23:13:19
Aber das hätte doch nicht dazu geführt, dass man komplette Spiele nicht bringen kann oder?


Das gleiche dürfte wohl für WiiU / PS3/X360 gelten. Die WiiU hat viel mehr Speicher zur Verfügung, dazu ne Menge eDRAM (also im Verhältnis) und ne ordentliche GPU, das sollte mit entsprechender Arbeit dann schon ermöglichen alles was auf X360/PS3 läuft auch auf diese Konsole zu bringen.

Edit: Dafür spricht ja auch, dass ja alle möglichen Multiplattformtitel auf der WiiU erschienen sind und ja laufen. Einige mit Schwächen gegenüber den anderen Konsolenversionen, aber das dürfte dann auch darauf zurückzuführen sein, dass der ein oder andere Port doch recht schnell/lieblos durchgeführt wurde.

dildo4u
2012-11-21, 23:16:45
Das gleiche dürfte wohl für WiiU / PS3/X360 gelten. Die WiiU hat viel mehr Speicher zur Verfügung, dazu ne Menge eDRAM (also im Verhältnis) und ne ordentliche GPU, das sollte mit entsprechender Arbeit dann schon ermöglichen alles was auf X360/PS3 läuft auch auf diese Konsole zu bringen.

Edit: Dafür spricht ja auch, dass ja alle möglichen Multiplattformtitel auf der WiiU erschienen sind und ja laufen. Einige mit Schwächen gegenüber den anderen Konsolenversionen, aber das dürfte dann auch darauf zurückzuführen sein, dass der ein oder andere Port doch recht schnell/lieblos durchgeführt wurde.
Ist halt Ende 2012 und zu spät,das wäre 2010 noch brauchbar gewesen.So hat Wii-U ne Laufzeit von 1-2 Jahren was Multititel angeht bis alle großen Serien auf PS4/720 laufen.

Steffko
2012-11-21, 23:21:04
Ist halt Ende 2012 und zu spät,das wäre 2010 noch brauchbar gewesen.So hat Wii-U ne Laufzeit von 1-2 Jahren was Multititel angeht bis alle großen Serien auf PS4/720 laufen.


So weit würde ich da jetzt nicht gehen. Wenn die Gerüchte stimmen, kommt eine der beiden anderen Konsolen (tendenziell wohl die von MS) ~Ende 2013, die andere erst irgendwann 2014. Das gibt Nintendo schon mal knapp 2 Jahre, bis die Konkurrenz überhaupt komplett auf dem Markt ist. Dazu werden die klassischen Multititel (CoD, Madden, Fifa, NFS etc. etc.) sicherlich auch über Jahre noch für PS3/X360 kommen - und damit eben auch für WiiU.

Ob das jetzt alles unterm Strich so furchtbar sinnvoll ist, sei mal dahingestellt. Ich hätte es auch lieber gesehen, wenn das Ding deutlich mehr Power gehabt hätte. Aber zumindest ich für meinen Teil hatte auch mit der Wii meinen Spaß und fürs Pixel zählen hab ich meinen PC :D

Screemer
2012-11-21, 23:23:57
Ich meine der Starlet war nicht für Security sondern auch für I/O und Standby bzw. WiiConnect24 zuständig. Wäre natürlich interessant ob er noch dabei ist und für welche Zwecke er diesmal benutzt wird.
Aes, boot initialisierung, etc... http://wiibrew.org/wiki/Hardware/Starlet

labecula
2012-11-21, 23:25:42
Der Preis geht voll in Ordnung. Wäre da leistungsfähigere Hardware drinne, dann kämen wir mit 350 Euro nicht mehr hin. Und eine WiiU für den Startpreis der damaligen PS3 ist absolut inakzeptabel. Und ich wette das die kommende Xbox und PS4 ebenfalls in der Region um 500-600 Euro liegen werden. Und da hörts dann bei mir auf. Die WiiU ist ein tolles 2 Jahres Gadget zum Mitnahmepreis. Bei den kommenden NextGens werde ich passen und erst zuschlagen, wenn die bei unter 350 Euro liegen.

dildo4u
2012-11-21, 23:31:33
Warum sollte die Xbox3,PS4 mehr kosten als die 360 zum Launch?Es gibt kein Blu Ray Aufpreis mher und es muss keine Cell Entwicklung bezahlt werden.Die nutzen diesmal den Entwicklungsaufwand,den sich AMD schon längst gemacht hat um die SOC's mit der besten Grafik zu bauen.Ne 28nm APU mit GCN Grafik,die um die 150 Watt saugt(4XWii-U) zerstört Wii-U,mehr als 400$ werden sie dafür nich nehmen.

Screemer
2012-11-21, 23:50:20
Nene, das ist der Security/IO Processor der schon bei der Wii und GC dabei war.

der kleine chip auf dem mcm des hollywood in der wii ist ein seeprom (http://wiibrew.org/wiki/Hardware/SEEPROM):

http://wiibrew.org/w/images/thumb/c/ce/Wii_eep_10x.jpg/180px-Wii_eep_10x.jpg

http://wiibrew.org/w/images/a/aa/Wii_hw_diagram.png

der arm-kern war damals schon von amd in den gpu-part von hollywood integriert worden.

Skysnake
2012-11-21, 23:59:29
Also praktisch keine Logik?

Wäre dann aber schon relativ gesehen gewaltig das kleine Ding :ugly:

labecula
2012-11-22, 00:22:48
Warum sollte die Xbox3,PS4 mehr kosten als die 360 zum Launch?Es gibt kein Blu Ray Aufpreis mher und es muss keine Cell Entwicklung bezahlt werden.Die nutzen diesmal den Entwicklungsaufwand,den sich AMD schon längst gemacht hat um die SOC's mit der besten Grafik zu bauen.Ne 28nm APU mit GCN Grafik,die um die 150 Watt saugt(4XWii-U) zerstört Wii-U,mehr als 400$ werden sie dafür nich nehmen.


Mit 400 Euro für Ps4 oder Xbox720 wirst nicht auskommen, träum weiter! Schon garnicht Sony. die PS3 hat damals auch kapp 600 bei Release gekostet und so wirds wieder kommen. Unter 500 wird auf keinen Fall was laufen.

dildo4u
2012-11-22, 00:25:46
Mit 400 Euro für Ps4 oder Xbox720 wirst nicht auskommen, träum weiter! Schon garnicht Sony. die PS3 hat damals auch kapp 600 bei Release gekostet und so wirds wieder kommen. Unter 500 wird auf keinen Fall was laufen.
Ich hab doch geschrieben warum sie 600€ gekostet hat und warum das diesmal nicht der Fall sein wird.Die PS3 hat sich erst ab 400€ halbwegs gut verkauft Sony kann sich so ein Start nich noch mal leisten.Die haben diese Generation so lange hingezogen,das der Sprung massiv sein wird auch wenn man "nur" 400$ nimmt.

labecula
2012-11-22, 00:30:20
Ich hab doch geschrieben warum sie 600€ gekostet hat und warum das diesmal nicht der Fall sein wird.Die PS3 hat sich erst ab 400€ halbwegs gut verkauft Sony kann sich so ein Start nich noch mal leisten.Die haben diese Generation so lange hingezogen,das der Sprung massiv sein wird auch wenn man "nur" 400$ nimmt.

Jupp, aber es ist Sony!!!! Die haben in der Vergangenheit noch nie aus ihren Fehlern gelernt. Schlichtweg weil sie ihre Fehler noch nie als solche erkennen wollten. Wir sprechen uns, wenn die PS4 für 590.- auf den Mark kommt...

dildo4u
2012-11-22, 00:34:09
Wie du meinst bleibt immer noch MS,ne heutige 150€ GPU z.b AMD 7850 ist 6 mal so schnell wie die in der Xbox 360.2013 wirds noch mal schneller für den Preis wenn die 8000 Serie kommt.Da bleibt noch massig Budget für den Rest.

McDaniel-77
2012-11-22, 02:38:53
Einige Fehler in dem Bericht:

1. Die Wii U besitzt 4 (vier) DDR3 Speicherchips, jeder dieser Chips hat eine Bandbreite von 12,8 GB/s, d.h. die Speicherbandbreite der Wii U ist insegesamt mit 51,2 GB/s mehr als doppelt so hoch, wie bei der PS360. Sollte also für ordentliche Grafik ausreichen.

2. Die CPU-Fläche der XBox360 beträgt beim 90 nm Modell 176 mm², durch die 45 nm Technologie schrumpft so ein Chip auf 1/4 der Fläche, d.h. die CPU wäre in 45 nm Strukturbreite auch nur 44 mm² groß. Da die Wii U CPU von der Technik her wohl 5 Jahre in der Zukunft der XBox360 CPU liegt, sollte eine geringere Die-Fläche von 33 nm², also 25% kleiner, wie die Xenon CPU im entsprechenden Maßstab, nicht zwangläufig dramatisch schwächer sein. Die GPU der Wii U überkompensiert das leicht.

3. Die CPU der Wii U hat nichts mit einer PC CPU zu tun, die Wii U ist eine Spielkonsole, der Hauptprozessor ist kein x86 sonderen eine IBM PowerPC Architektur, laut Nintendo.

4. Die CPU der alten Wii ist nur 18,9 mm² groß und das bei 90 nm Strukturbreite. In 45 nm Strukturbreite wäre der Wii Broadway Prozessor nur 4,7 mm² groß. Der Wii U Hauptprozesser ist 7-mal größer, als noch bei der alten Wii!

McDaniel-77

Finch
2012-11-22, 02:50:52
Einige Fehler in dem Bericht:

1. Die Wii U besitzt 4 (vier) DDR3 Speicherchips, jeder dieser Chips hat eine Bandbreite von 12,8 GB/s, d.h. die Speicherbandbreite der Wii U ist insegesamt mit 51,2 GB/s mehr als doppelt so hoch, wie bei der PS360. Sollte also für ordentliche Grafik ausreichen.

2. Die CPU-Fläche der XBox360 beträgt beim 90 nm Modell 176 mm², durch die 45 nm Technologie schrumpft so ein Chip auf 1/4 der Fläche, d.h. die CPU wäre in 45 nm Strukturbreite auch nur 44 mm² groß. Da die Wii U CPU von der Technik her wohl 5 Jahre in der Zukunft der XBox360 CPU liegt, sollte eine geringere Die-Fläche von 33 nm², also 25% kleiner, wie die Xenon CPU im entsprechenden Maßstab, nicht zwangläufig dramatisch schwächer sein. Die GPU der Wii U überkompensiert das leicht.

3. Die CPU der Wii U hat nichts mit einer PC CPU zu tun, die Wii U ist eine Spielkonsole, der Hauptprozessor ist kein x86 sonderen eine IBM PowerPC Architektur, laut Nintendo.

4. Die CPU der alten Wii ist nur 18,9 mm² groß und das bei 90 nm Strukturbreite. In 45 nm Strukturbreite wäre der Wii Broadway Prozessor nur 4,7 mm² groß. Der Wii U Hauptprozesser ist 7-mal größer, als noch bei der alten Wii!

McDaniel-77

1. Ich denke, unsere Spezies wissen hier wovon sie reden.

2. Man kann nicht 1 zu 1 verkleinern

3. Das ist bekannt, ändert aber nichts an der Gesamtsituation wenn es sich um einen Power750 Handelt.

4. Wieder, du kannst nicht 1 zu 1 runterrechnen.

och McD, kannst du die Kritik an deinem geliebten Nintendo nicht ertragen?

Husch Husch zurück zum Gamezone oder Computerbase Forum, dort wirst du sicher vermisst ;)

dargo
2012-11-22, 07:16:28
Einige Fehler in dem Bericht:

1. Die Wii U besitzt 4 (vier) DDR3 Speicherchips, jeder dieser Chips hat eine Bandbreite von 12,8 GB/s, d.h. die Speicherbandbreite der Wii U ist insegesamt mit 51,2 GB/s mehr als doppelt so hoch, wie bei der PS360. Sollte also für ordentliche Grafik ausreichen.


Jeder Speicherchip ist dann mit 64Bit angebunden? Glaube ich nicht. Aber vielleicht stimmt dann die alte News von 3DC mit der 32Bit Anbindung. 25,6GB/s würde dann schon eher passen. Was ich mich die ganze Zeit frage... kann die GPU auf die kompletten 2GB zugreifen? Oder nur auf 1GB und das andere GB für die CPU quasi reserviert? Weil dann wären wir wieder bei den 12,8GB @GPU.

AnarchX
2012-11-22, 07:36:41
Einige Fehler in dem Bericht:

1. Die Wii U besitzt 4 (vier) DDR3 Speicherchips, jeder dieser Chips hat eine Bandbreite von 12,8 GB/s, d.h. die Speicherbandbreite der Wii U ist insegesamt mit 51,2 GB/s mehr als doppelt so hoch, wie bei der PS360. Sollte also für ordentliche Grafik ausreichen.

Jeder Speicherchip ist dann mit 64Bit angebunden? Glaube ich nicht. Aber vielleicht stimmt dann die alte News von 3DC mit der 32Bit Anbindung. 25,6GB/s würde dann schon eher passen. Was ich mich die ganze Zeit frage... kann die GPU auf die kompletten 2GB zugreifen? Oder nur auf 1GB und das andere GB für die CPU quasi reserviert? Weil dann wären wir wieder bei den 12,8GB @GPU.

Es sind Speicherchips mit 16-Bit Interfaces, die pro Datenpin 1,6Gbps übertragen. Also eben nur 3,2GB/s. Das es 4 Stück davon sind: 12,8GB/s insgesamt. Theoretisch könnte aber der Takt auch etwas unter 800MHz liegen, denn das ist nur die Spezifikation.

Mehr Off-Die-Bandbreite existiert in der Wii U nicht.

(Für die 51,2GB/s bräuchte es übrigens ein 256-Bit Interface und mindestens 8 GDDR3 32-Bit Chips (größere Interfaces gibt es nicht) und man könnte bei einer solchen Bandbreite auf eDRAM verzichten.)



2. Die CPU-Fläche der XBox360 beträgt beim 90 nm Modell 176 mm², durch die 45 nm Technologie schrumpft so ein Chip auf 1/4 der Fläche, d.h. die CPU wäre in 45 nm Strukturbreite auch nur 44 mm² groß. Da die Wii U CPU von der Technik her wohl 5 Jahre in der Zukunft der XBox360 CPU liegt, sollte eine geringere Die-Fläche von 33 nm², also 25% kleiner, wie die Xenon CPU im entsprechenden Maßstab, nicht zwangläufig dramatisch schwächer sein. Die GPU der Wii U überkompensiert das leicht.
Shrinken ist nicht immer linear. Ebenso wäre wie gesagt Power750 keine CPU-Architektur 5 Jahre nach Xenon, sondern 5 Jahre davor.
GPGPU, erst recht auf einem RV7xx, kann nicht wirklich viel CPU-Leistung kompensieren.


3. Die CPU der Wii U hat nichts mit einer PC CPU zu tun, die Wii U ist eine Spielkonsole, der Hauptprozessor ist kein x86 sonderen eine IBM PowerPC Architektur, laut Nintendo.
PowerPC macht aus einer lahmen Architektur keine schnelle CPU.


4. Die CPU der alten Wii ist nur 18,9 mm² groß und das bei 90 nm Strukturbreite. In 45 nm Strukturbreite wäre der Wii Broadway Prozessor nur 4,7 mm² groß. Der Wii U Hauptprozesser ist 7-mal größer, als noch bei der alten Wii!

IBM spricht von Lots of eDRAM, der hier vielleicht zum Auffüllen der Chipfläche genutzt wurde.

Insgesamt liegt die Wii U von der Leistung irgendwo in der Konsolen-Generation von 2005/2006 und muss sich Kritik gefallen lassen, dass hier gewisse Entscheidung wohl eindeutig ohne Berücksichtigung der Preis-Leistung gefallen sind.

dargo
2012-11-22, 08:00:12
Es sind Speicherchips mit 16-Bit Interfaces, die pro Datenpin 1,6Gbps übertragen. Also eben nur 3,2GB/s. Das es 4 Stück davon sind: 12,8GB/s insgesamt. Theoretisch könnte aber der Takt auch etwas unter 800MHz liegen, denn das ist nur die Spezifikation.

Ok... aber noch mal die Frage zum Verständnis. Ausgehend von 800Mhz... kann die GPU auf die vollen 2GB zugreifen oder nur auf 1GB? Im zweiten Fall stände der GPU sogar nur die halbe Bandbreite von 12,8Gb/s zur Verfügung. :freak: Aber wahrscheinlich werden dann alle 4 Chips trotz nur 1GB angesprochen um die volle Bandbreite zu nutzen. Alles andere wäre zu ineffizient oder?

Rancor
2012-11-22, 08:07:06
Ok... aber noch mal die Frage zum Verständnis. Ausgehend von 800Mhz... kann die GPU auf die vollen 2GB zugreifen oder nur auf 1GB? Im zweiten Fall stände der GPU sogar nur die halbe Bandbreite von 12,8Gb/s zur Verfügung. :freak: Aber wahrscheinlich werden dann alle 4 Chips trotz nur 1GB angesprochen um die volle Bandbreite zu nutzen. Alles andere wäre zu ineffizient oder?

Es würde mich mittlerweile nicht mehr wundern, wenn dann tatsächlich nur die halbe Bandbreite zur Verfügung steht.

AnarchX
2012-11-22, 08:14:29
Ok... aber noch mal die Frage zum Verständnis. Ausgehend von 800Mhz... kann die GPU auf die vollen 2GB zugreifen oder nur auf 1GB? Im zweiten Fall stände der GPU sogar nur die halbe Bandbreite von 12,8Gb/s zur Verfügung. :freak: Aber wahrscheinlich werden dann alle 4 Chips trotz nur 1GB angesprochen um die volle Bandbreite zu nutzen. Alles andere wäre zu ineffizient oder?
Es würde mich mittlerweile nicht mehr wundern, wenn dann tatsächlich nur die halbe Bandbreite zur Verfügung steht.

In der GPU(dem größeren Chip) wird sich wohl das 64-Bit Interface befinden. Fragt sich natürlich, wie breit die Anbindung zwischen dem Speicherkontroller und der eigentlichen GPU ist. Sinnvollerweise, sollte die GPU auf die vollen 64-Bit zugreifen können. (Als Gegenbeispiel wären hier IGP-Chipsätze zu nennen, die trotz DC (2x64-Bit), den IGP nur mit 64-Bit angebunden hatten.)
Auch wenn der Speicherpool für Spiele nur 1GiB groß ist, sollte er sinnvollerweise auf alle 4 Chips verteilt sein, sodass die volle Bandbreite genutzt werden kann.

Die CPU (der kleinere Chip) ist dann über ein weiteres Interface (FSB, Hypertransport, ...) an den größere GPU-Die angebunden, dieses Interface könnte langsamer oder schneller sein, als die 12,8GB/s.

dargo
2012-11-22, 08:34:08
Auch wenn der Speicherpool für Spiele nur 1GiB groß ist, sollte er sinnvollerweise auf alle 4 Chips verteilt sein, sodass die volle Bandbreite genutzt werden kann.

Ja... genau das meine ich. Alles andere würde keinen Sinn ergeben. Zumal dann auch die CPU nur die halbe Bandbreite zur Verfügung hätte.

tobor
2012-11-22, 09:05:38
Ist halt Ende 2012 und zu spät,das wäre 2010 noch brauchbar gewesen.So hat Wii-U ne Laufzeit von 1-2 Jahren was Multititel angeht bis alle großen Serien auf PS4/720 laufen.

Ich würde eher von 3-4 Jahren ausgehen,da ich davon ausgehe, dass auch die Ps3 und Xbox 360 nach dem Erscheinen ihrer Nachfolger weiter Multititel erhalten werden. Schlicht und ergreifend,weil beide zusammen 140 Millionen mal verkauft wurden(niemand wird das vernachlässigen) und die Basis für die neuen Konsolen noch nicht groß genug sein wird.(in 1-2 Jahren)

robbitop
2012-11-22, 09:25:04
Ich gehe davon aus, dass Multi-Titel für die WiiU erscheinen werden. Sie ist im Gegensatz zur Wii, was Featureset, Devkit, Arbeitsspeicher und Leistung deutlich näher dran als es die Wii war.
Die Nextgen Konsolen von MS und Sony werden sicher deutlich schneller sein. Aber nicht mehr um den Faktor 10. Auch beim Arbeitsspeicher war es ja beinahe Faktor 10. Und das GPU Featureset war super veraltet auf der Wii. Mit >= DX10.1 ist es ja nicht mehr so weit entfernt.
Sofern sich die WiiU gut verkauft, werden die Multititel dort schon erschneinen. Nur halt nicht so hübsch wie auf den Nextgen-Konsolen von Sony und MS.

Neon3D
2012-11-22, 10:22:29
nintendo hatte eigentlich immer sehr bescheidene konsolenhardware, die aber extrem effizient nutzbar ist. natürlich erschreckt die hardware im ersten moment, aber ich denke das die optische leistung von x360&ps3 auf alle fälle erreicht wird bzw. teilweise übertroffen wird. bei multikonsolentiteln die nun nachträglich auf die wii u portiert werden wird es aber sicherlich ein paar ausnahmen geben, bei neuen titeln, die erst noch erscheinen werden jedoch nicht.

Steffko
2012-11-22, 10:56:47
Man muss eben auch mal sehen, dass die Konsole gerade aktuell auf den Markt kommt. Das dabei dann schon die meisten Ports (für die sicherlich nicht all zu viel Zeit übrig war) grob auf dem Niveau X360/PS3 sind, sollte doch m.E. zeigen, dass mit ein wenig Optimierung mehr drin sein muss.

nampad
2012-11-22, 10:59:12
Von Nintendo selber gibt's nix in die Richtung,Black Ops 2 soll aber gut funzen Online.Sind halt kaum Leute Online zur Zeit,die meisten werden weiter auf Xbox 360 und PS3 zocken.

http://kotaku.com/5962012/560-people-are-paying-black-ops-ii-online-on-the-wii-u-right-now

Wii U 'Has A Horrible, Slow CPU' Says Metro Last Light Dev

4A führt den Kommentar weiter aus:
Yesterday Eurogamer spoke with THQ's Huw Beynon, who works full time as a representative of 4A Games and Metro, to expand on Shishkovtsov's comment.

“I think there was one comment made by Oles the programmer - the guy who built the engine,” he said.

“It's a very CPU intensive game. I think it's been verified by plenty of other sources, including your own Digital Foundry guys, that the CPU on Wii U on the face of it isn't as fast as some of the other consoles out there. Lots of developers are finding ways to get around that because of other interesting parts of the platform(...)
http://www.eurogamer.net/articles/2012-11-22-thq-clarifies-wii-u-horrible-slow-cpu-claim-but-developer-concern-remains

Außerdem äußert sich ein DICE Entwickler zu dem Kommentar folgend:
http://www.abload.de/img/dicewiiuf1qdg.png
http://www.nowgamer.com/news/1687689/wii_u_has_a_horrible_slow_cpu_says_metro_last_light_dev.html

[immy;9551884']dann wird es wohl nie was mit 32+-spieler multiplayer spielen auf Konsolen. naja eventuell auf next-gen Konsolen.

Komisch, dass ich dann schon im Januar 2010 ein FPS (MAG) mit 256 Spielern auf der PS3 gespielt habe. Im November 2008 gab es dann noch Resistance 2 mit 60 Spielern.

So weit würde ich da jetzt nicht gehen. Wenn die Gerüchte stimmen, kommt eine der beiden anderen Konsolen (tendenziell wohl die von MS) ~Ende 2013, die andere erst irgendwann 2014. Das gibt Nintendo schon mal knapp 2 Jahre, bis die Konkurrenz überhaupt komplett auf dem Markt ist. Dazu werden die klassischen Multititel (CoD, Madden, Fifa, NFS etc. etc.) sicherlich auch über Jahre noch für PS3/X360 kommen - und damit eben auch für WiiU.


Ja, Sportspiele und solche Sachen wie NFS werden sicherlich noch kommen, da diese sowieso auf jede Plattform gebracht werden. dildo meint denke ich wohl eher AAA Multiplattformtitel. Schon bei CoD wäre ich schon sehr vorsichtig zu behaupten, dass es über mehrere Jahre kommt.

Lightning
2012-11-22, 10:59:33
nintendo hatte eigentlich immer sehr bescheidene konsolenhardware, die aber extrem effizient nutzbar ist. natürlich erschreckt die hardware im ersten moment, aber ich denke das die optische leistung von x360&ps3 auf alle fälle erreicht wird bzw. teilweise übertroffen wird. bei multikonsolentiteln die nun nachträglich auf die wii u portiert werden wird es aber sicherlich ein paar ausnahmen geben, bei neuen titeln, die erst noch erscheinen werden jedoch nicht.

Es ging um die Multitel der nächsten Konsolengeneration von MS und Sony, nicht um PS3 und 360.
Ich sehe das da etwas pessimistischer als robbitop. Sicher, gerade einfachere, lineare Spiele wie COD werden wahrscheinlich kein so großes Hindernis darstellen (COD gabs ja bislang sogar auf der Wii). Aber ein Next Gen GTA oder Elder Scrolls? Kann ich mir nicht recht vorstellen.

Unabhängig der Hardwareleistung gilt imo: Wenn es bezüglich der 3rd-Party-Titel bei der Wii U nicht innerhalb der ersten 1-2 Jahre besser läuft als damals bei der Wii, werden die Hersteller so und so überlegen, ob sich Portierungen überhaupt lohnen.

edit:
Man muss eben auch mal sehen, dass die Konsole gerade aktuell auf den Markt kommt. Das dabei dann schon die meisten Ports (für die sicherlich nicht all zu viel Zeit übrig war) grob auf dem Niveau X360/PS3 sind, sollte doch m.E. zeigen, dass mit ein wenig Optimierung mehr drin sein muss.

Denke ich auch. So pessimistisch, dass die Wii U tatsächlich insgesamt schwächer als PS3 und 360 ist, würde ich momentan nicht sein.

dargo
2012-11-22, 11:13:57
Man muss eben auch mal sehen, dass die Konsole gerade aktuell auf den Markt kommt. Das dabei dann schon die meisten Ports (für die sicherlich nicht all zu viel Zeit übrig war) grob auf dem Niveau X360/PS3 sind, sollte doch m.E. zeigen, dass mit ein wenig Optimierung mehr drin sein muss.
Man sieht doch schon in dem Vergleich, dass trotz wenig Erfahrung mit der Hardware die Wii U Version von ME3 deutlich besser performt als bei der PS3. :freak: Die PS3 Version ist aber auch die reinste Katastrophe.

Steffko
2012-11-22, 12:00:20
Ja, Sportspiele und solche Sachen wie NFS werden sicherlich noch kommen, da diese sowieso auf jede Plattform gebracht werden. dildo meint denke ich wohl eher AAA Multiplattformtitel. Schon bei CoD wäre ich schon sehr vorsichtig zu behaupten, dass es über mehrere Jahre kommt.


CoD kam auch für die Wii über Jahre, warum sollte man da WiiU (einen gewissen kommerziellen Erfolg vorausgesetzt) nicht unterstützen?

nampad
2012-11-22, 12:13:08
Ja haste dir mal die Wii Ports angesehen?
Außerdem erschien Modern Warfare 1 erst ganze zwei Jahre später. Modern Warfare 2 erschien überhaupt nicht. So überragend war die Unterstützung der Wii mit CoD auch nicht.

kunibätt
2012-11-22, 12:15:22
Sollen sie doch machen, ist auch ihr gutes Recht.
Ich stell mir das aber eklig vor, wenn hauptsächlich die CPU bremst- und zwar gewaltig. Ich will nicht wissen, was da noch für "Perlen" zum Vorschein kommen werden - zum Glück krieg ich das eh nicht mit :)
Einen Vorteil für PC-User hats allerdings: Vielleicht kommt noch vor Jahresende der passende Emulator. Wii lässt grüßen XD

Lightning
2012-11-22, 12:19:47
Ich stell mir das aber eklig vor, wenn hauptsächlich die CPU bremst- und zwar gewaltig.

Ob sie "gewaltig" bremst sei mal dahingestellt. Ich bin nach wie vor noch auf echte Daten gespannt.

Einen Vorteil für PC-User hats allerdings: Vielleicht kommt noch vor Jahresende der passende Emulator. Wii lässt grüßen XD

Wii ließ sich nur so schnell emulieren, weil sie dem Gamecube so ähnlich und der Emulator entsprechend schon jahrelang in Entwicklung war. Hinzu kommt, dass man oft immer noch eine flotte CPU braucht, um Wii-Spiele gut zu emulieren.
Ich würde nicht damit rechnen, dass wir schnell einen brauchbaren Wii U-Emulator sehen werden.

kunibätt
2012-11-22, 12:38:40
Wenn (tm) da ein Tripple-Gekko ohne große Änderungen drin steckt, sehe ich da jedenfalls Potenzial. Aber es stimmt, die Rechenleistung würde dafür momentan wohl nicht langen. Käme immer noch früher als ein PS3-Emu :freak:

dildo4u
2012-11-22, 12:45:18
Man sieht doch schon in dem Vergleich, dass trotz wenig Erfahrung mit der Hardware die Wii U Version von ME3 deutlich besser performt als bei der PS3. :freak: Die PS3 Version ist aber auch die reinste Katastrophe.
Es gib demnächst sicherlich noch ein Batman AC vergleich(Auch UE 3.0),der PS3 Port ist dort wesentlich besser vorallem wird dort die CPU mehr belastet.(Openworld,massig Gegner aufeinmal)Dort sollte Wii-U richtig Probleme bekommen,ME 3 hat eigentlich keine großen Anforderungen wie man auch an den PC fps raten sieht.Meiner Meinung nach kann man leichter die Optik verschlechtern und die GPU entlasten,als wenn nich genug CPU Power da ist,da muss man am Gameplay einsparen Playercount,Physik etc.

Steffko
2012-11-22, 13:10:22
Ja haste dir mal die Wii Ports angesehen?
Außerdem erschien Modern Warfare 1 (das erste richtige Next Gen CoD) erst ganze zwei Jahre später. Modern Warfare 2 erschien überhaupt nicht. So überragend war die Unterstützung der Wii mit CoD auch nicht.


Ob überragend oder nicht, fast alle CoDs (eben mit Ausnahme von Modern Warfare 2) sind für die Wii rausgekommen. Dementsprechend wie gesagt die Frage: warum sollte das bei der WiiU anders sein?

dargo
2012-11-22, 13:12:19
Meiner Meinung nach kann man leichter die Optik verschlechtern und die GPU entlasten,als wenn nich genug CPU Power da ist,da muss man am Gameplay einsparen Playercount,Physik etc.
Warum tat dies Sony bei ME3 dann nicht?

dildo4u
2012-11-22, 13:15:10
Warum tat dies Sony bei ME3 dann nicht?
Weil Sony natürlich nicht jeden PS3 Port selber entwickelt.Die PS3 Games die direkt von Sony kommen haben kaum solche Probleme.

dargo
2012-11-22, 13:18:25
Weil Sony natürlich nicht jeden PS3 Port selber entwickelt.Die PS3 Games die direkt von Sony kommen haben kaum solche Probleme.
Dann eben die Spieleentwickler. Es kann doch nicht sein, dass Sony ein Spiel @~20fps absegnet. Oder haben die nichts zu sagen?

N0Thing
2012-11-22, 13:19:30
Ihnen ist ein 20fps Port wohl lieber als gar kein Port.

dildo4u
2012-11-22, 13:28:06
Dann eben die Spieleentwickler. Es kann doch nicht sein, dass Sony ein Spiel @~20fps absegnet. Oder haben die nichts zu sagen?
Die nehmen die Kohle lieber mit genau wie es bei einigen 360 und Wii-U Port's der fall ist.Keine Plattform hat ne Vorschrift es muss mit 30fps laufen auch Microsoft nicht.

Hier ist ein derbes Beispiel.

Minute 16

http://www.youtube.com/watch?v=qA6TV9SQZn4&feature=share&list=UUmeds0MLhjfkjD_5acPnFlQ


AC3 drop's auf 20 auch auf der 360.

Video ganz unten ab 3:50.
http://www.eurogamer.net/articles/digitalfoundry-assassins-creed-3-face-off

dargo
2012-11-22, 13:34:22
Unfassbar was man den Leuten zumutet. Aber Hauptsache die Konsolen können noch superduper Grafik für ihr Alter darstellen. :uup:

robbitop
2012-11-22, 13:45:56
Nintendos Hardwarewahl ist schon immer ein wenig seltsam gewesen.
Ich habe mal grob überschlagen, was in einem 250 sqmm großen SoC im 28 nm Prozess möglich wäre:
~640 SP GCN, entsprechender I/O, 8x Jaguarkerne mit 2 MiB L2 Cache und 32 MiB 1T-eDRAM. (gerade der Grafikteil kostet richtig, die Jaguarkerne sind schweinebillig was Fläche angeht) Das Ding würde mit < 100 W TDP laufen. Je nach Frequenzen. 2 oder besser 4 GiB vom inzwischen spottbilligem DDR3 RAM mit 32 bit pro Baustein.
Das wäre insgesamt sicher nicht wesentlich teurer, als was Nintendo jetzt verbaut. Vieleicht ein paar $. Aber man hätte eine wesentlich schlagkräftigere Basis gehabt und hätte wohl weniger Anschluss auf die kommende Konkurrenz verloren.

dildo4u
2012-11-22, 13:47:43
Unfassbar was man den Leuten zumutet. Aber Hauptsache die Konsolen können noch superduper Grafik für ihr Alter darstellen. :uup:
Die selbe Verarsche gibt's auch am PC würde gerne mal sehen wie z.b der NFS:MW Port auf der Minimum Config(Core 2 Duo 2.4Ghz) läuft. *g*
Ehrlich wäre minimum 3GHz Quad um 30fps zu halten.

Stimmt das eigentlich?

"Based on rough calculations, the Wii U CPU occupies the same amount of silicon - and so has a roughly similar amount number of transistors - as a single Xbox 360 core (update: plus the L2 cache) in the Xenon tri-core processor. Transistor count alone can't be used to judge 'power' as such (though that's what Moore's Law is based on) but it's safe to say there'd need to be a huge amount of efficiency gains to produce anything like the same amount of processing power as the 360 with that silicon budget."

http://www.eurogamer.net/articles/2012-11-22-thq-clarifies-wii-u-horrible-slow-cpu-claim-but-developer-concern-remains

Werewolf
2012-11-22, 14:33:17
THQ clarifies Wii U "horrible, slow" CPU claim, but developer concern remains

http://www.eurogamer.net/articles/2012-11-22-thq-clarifies-wii-u-horrible-slow-cpu-claim-but-developer-concern-remains

disap.ed
2012-11-22, 14:45:40
Nintendos Hardwarewahl ist schon immer ein wenig seltsam gewesen.
Ich habe mal grob überschlagen, was in einem 250 sqmm großen SoC im 28 nm Prozess möglich wäre:
~640 SP GCN, entsprechender I/O, 8x Jaguarkerne mit 2 MiB L2 Cache und 32 MiB 1T-eDRAM. (gerade der Grafikteil kostet richtig, die Jaguarkerne sind schweinebillig was Fläche angeht) Das Ding würde mit < 100 W TDP laufen. Je nach Frequenzen. 2 oder besser 4 GiB vom inzwischen spottbilligem DDR3 RAM mit 32 bit pro Baustein.
Das wäre insgesamt sicher nicht wesentlich teurer, als was Nintendo jetzt verbaut. Vieleicht ein paar $. Aber man hätte eine wesentlich schlagkräftigere Basis gehabt und hätte wohl weniger Anschluss auf die kommende Konkurrenz verloren.

Habe gar nicht gewusst, dass es schon Jaguar-Prozessoren gibt... ;)

Verstehe schon wie du es meinst, aber weder die Jaguar-Cores noch die 28nm-Fertigung sind wohl weit genug, damit Nintendo sie einsetzen würde.
Aber mit der PS4 bzw. XB720 wirst du ja wohl etwas in der Richtung bekommen, sogar mit wesentlich potenterem GPU-Teil.

Und nein, ich finde es nicht gut, wie sehr sie hier vor allem an der CPU gespart haben (aber auch an RAM-BW), beides hätte zumindest ebenbürtig sein sollen um wirklich problemlos porten zu können, mit der wesentlich potenteren GPU wäre dann einiges möglich gewesen.

Deinorius
2012-11-22, 17:34:51
Wirklich sauer bin ich eigentlich nur wegen der miesen CPU. Hinsichtlich GPU mit eDRAM und besonders hinsichtlich RAM bin ich zufrieden genug. Sie wollten eine kompakte Konsole, die haben sie.

Aber diese miese CPU... Drei völlig neue Kerne hätten wohl kaum mehr Platz benötigt, vom Stromverbrauch brauchen wir nicht reden. Für die Abwärtskompatibilität hätte man doch einen Broadway dazu panschen können. Der Rest der Konsole ist ja auch gänzlich neu!
Wie groß wäre ein Broadway in 45 nm innerhalb anderer Kerne? 5-6 mm²? :| Im Wii-Modus wäre der Broadway aktiv, der Rest deaktiviert. Im Wii U-Modus vice versa.

Steffko
2012-11-22, 18:11:25
Die selbe Verarsche gibt's auch am PC würde gerne mal sehen wie z.b der NFS:MW Port auf der Minimum Config(Core 2 Duo 2.4Ghz) läuft. *g*
Ehrlich wäre minimum 3GHz Quad um 30fps zu halten.

Stimmt das eigentlich?



http://www.eurogamer.net/articles/2012-11-22-thq-clarifies-wii-u-horrible-slow-cpu-claim-but-developer-concern-remains


Kann ich mir nur schwer vorstellen. Die Xbox 360 CPU hat 165 Mio. Transis in ursprünglich 90nm, ergibt vielleicht so 130mm²? Zweifach geschrinkt ist die gesamte CPU kaum größer, als die WiiU CPU (~40mm², wenn man einrechnet, dass das ein oder andere nicht 1 zu 1 zu verkleinern ist?).

deekey777
2012-11-22, 18:35:05
Wii U 'Has A Horrible, Slow CPU' Says Metro Last Light Dev

http://www.nowgamer.com/news/1687689/wii_u_has_a_horrible_slow_cpu_says_metro_last_light_dev.html
Sind das die gleichen Entwickler, die 2003 die R300-Generation wegen des eingeschränkten SM 2 kritisierten und die GeforceFX-Familie wegen 2.a als die nützlichere GPU für STALKER lobpriesen? Oder sind sie bei GSC geblieben?

dildo4u
2012-11-23, 13:27:42
Black Ops 2 fps Analyse Wii-U mit den niedrigsten FPS.

http://www.lensoftruth.com/heads-up-call-of-duty-black-ops-ii-analysis-wii-ups3xbox-360/

del_4901
2012-11-23, 13:31:53
Black Ops 2 fps Analyse Wii-U mit den niedrigsten FPS.

http://www.lensoftruth.com/heads-up-call-of-duty-black-ops-ii-analysis-wii-ups3xbox-360/
das ist aber auch 720p vs 1080p allerdings denke ich schon dass man bei der WiiU ziehmlich schnell der renderthread schlapp macht. Von daher koennten auch dort die drops her kommen.

starfish
2012-11-23, 13:36:02
das ist aber auch 720p vs 1080p allerdings denke ich schon dass man bei der WiiU...

Erstens das und Zweitens:

Conclusion: As you can see in the Analysis videos the Wii U holds its own in terms of performance. Although, the Xbox 360 and PlayStation 3 versions have an overall slight advantage with frame rate, the Wii U has absolutely Zero screen tearing and a respective frame rate. Lastly, With all the speculation out there about the overall power of the Wii U, we’re actually really impressed with the Wii U thus far. Considering that developers have had over seven years to grasp the Xbox 360 and PlayStation 3 hardware we were expecting a lot worse outcome.

dildo4u
2012-11-23, 13:40:03
das ist aber auch 720p vs 1080p allerdings denke ich schon dass man bei der WiiU ziehmlich schnell der renderthread schlapp macht. Von daher koennten auch dort die drops her kommen.
Natürlich läuft es weiter in 720p wie jedes Wii-U 3D game bisher.Besser gesagt in dem Fall sub HD wie auf den anderen Konsolen.


http://forum.beyond3d.com/showpost.php?p=1681179&postcount=1843

http://forum.beyond3d.com/showpost.php?p=1681184&postcount=1844

starfish
2012-11-23, 13:45:06
Natürlich läuft es weiter in 720p wie jedes Wii-U 3D game bisher.Besser gesagt in dem Fall sub HD wie auf den anderen Konsolen.


http://forum.beyond3d.com/showpost.php?p=1681179&postcount=1843

http://forum.beyond3d.com/showpost.php?p=1681184&postcount=1844

Hast du da evtl. eine Quelle dazu?
Ich find aktuell nix zur Renderauflösung auf der Wii-U.

dildo4u
2012-11-23, 13:48:19
Hast du da evtl. eine Quelle dazu?
Ich find aktuell nix zur Renderauflösung auf der Wii-U.

Nur das Bilder sind aber eindeutig pixliger Match wie überall.
http://www.lensoftruth.com/head2head-call-of-duty-black-ops-ii-screenshot-comparison-wii-ups3xbox-360/2/

Bilder 1 und 5,16,18,19 Sind Video's und mit mehr AA gerendert Rest ist Echtzeit.

nampad
2012-11-23, 13:49:16
Wurde doch schon lange offiziell bestätigt, dass Black Ops 2 auf der Wii U nicht in 1080p läuft. Keine Ahnung, wieso das so viele noch denken.
http://gotgame.com/2012/10/12/activision-says-wii-u-version-of-black-ops-2-not-natively-1080p/

starfish
2012-11-23, 13:50:08
Nur das Bilder sind aber eindeutig pixliger Match wie überall.
http://www.lensoftruth.com/head2head-call-of-duty-black-ops-ii-screenshot-comparison-wii-ups3xbox-360/2/

Also ist davon auszugehen, dass die Wii-U die gleiche Renderauflösung auf den TV bringt wie die andren Konsolen.
Eine wirkliche Zahl gibts aber noch nicht.

Denn anscheinend gabs ja auch schon vor Black Ops 2 Unterschiede zwischen PS3 und Xbox 360 in der Renderauflösung. Wenngleich diese jetzt auch egalisiert wurden, bei Black Ops 2.

dargo
2012-11-23, 14:17:49
Black Ops 2 fps Analyse Wii-U mit den niedrigsten FPS.

http://www.lensoftruth.com/heads-up-call-of-duty-black-ops-ii-analysis-wii-ups3xbox-360/
Und von den durchgehenden 60 fps @CoD hat man sich auch schon länger verabschiedet. ;)

dildo4u
2012-11-23, 14:22:19
Im SP ja der MP hält 60,deshalb auch die winzigen Maps.Im MP sind konstante FPS natürlich deutlich wichtiger.

dargo
2012-11-23, 14:25:00
Nur das Bilder sind aber eindeutig pixliger Match wie überall.
http://www.lensoftruth.com/head2head-call-of-duty-black-ops-ii-screenshot-comparison-wii-ups3xbox-360/2/

Bilder 1 und 5,16,18,19 Sind Video's und mit mehr AA gerendert Rest ist Echtzeit.
Boah... was ist denn hier schon wieder bei der Xbox360 mit dem Kontrast und den Farben los? Da säuft ja schon wieder alles in schwarz ab. Ist das ein grundsätzliches Xbox360 Problem?

Edit:
Auch kommt mir die Wii U Version schärfer vor.
http://www.lensoftruth.com/wp-content/gallery/h2hssc_blackop2_wiiu/h2h_lens_zoom_04.jpg

Bei der Box sieht das aus als wenn da so ne Art Blurfilter drüber liegt.

AnarchX
2012-11-23, 14:32:27
Boah... was ist denn hier schon wieder bei der Xbox360 mit dem Kontrast und den Farben los? Da säuft ja schon wieder alles in schwarz ab. Ist das ein grundsätzliches Xbox360 Problem?


Nein, die Wii U gibt kein full range RGB aus. Insofern ist das Bild der Xbox360 korrekt.

However, there is some unwelcome news - specifically that the HDMI output is locked to limited-range RGB only, with footage from all games we've captured thus far revealing absolutely no information in the 0-16 or 235-255 areas. Many digital displays - PC monitors in particular - don't operate correctly with limited-range RGB, giving washed out colours principally defined by blacks being more grey-like in nature.
http://www.eurogamer.net/articles/df-hardware-nintendo-wii-u-review

nampad
2012-11-23, 14:39:29
Boah... was ist denn hier schon wieder bei der Xbox360 mit dem Kontrast und den Farben los? Da säuft ja schon wieder alles in schwarz ab. Ist das ein grundsätzliches Xbox360 Problem?

Edit:
Auch kommt mir die Wii U Version schärfer vor.
http://www.lensoftruth.com/wp-content/gallery/h2hssc_blackop2_wiiu/h2h_lens_zoom_04.jpg

Bei der Box sieht das aus als wenn da so ne Art Blurfilter drüber liegt.


Die 360 hat grundsätzlich ein Problem damit. Sieht man an allen Vergleichen mit der PS3. Da heißt es aus dem 360 Lager immer nur bei der PS3 ist alles zu blass/verwaschen hinsichtlich der Farben :)
Hier auch ein Artikel bezüglich des Kontrastes: http://www.eurogamer.net/articles/digitalfoundry-vs-hdmi?page=3
Quite why this happens is something we were uncertain about before a kindly developer clued us in. From what we've learned this week, it appears that this ramping up of the gamma is actually deliberate on Microsoft's part. The actual reason it is in place on the Xbox 360 is because Microsoft believe that it looks better on the average TV. Bearing in mind the breadth of displays available and how they are typically so badly calibrated when you buy them (brightness and contrast are often ramped up in order to make them stand out on the shop floor), we can't help but think that this is a call that the developer should make.

Hatte irgendwann auch mal einen Artikel von einem Entwickler hinsichtlich der Farbkorrektheit auf der 360 gelesen, nur finde ich den nicht wieder.

dargo
2012-11-23, 14:40:07
Nein, die Wii U gibt kein full range RGB aus. Insofern ist das Bild der Xbox360 korrekt.

Also wenn das Bild der Box korrekt ausgegeben wird ist der Kontrast bzw. Gamma vom Spiel für den Anus.

Crazy_Bon
2012-11-23, 15:50:01
Boah... was ist denn hier schon wieder bei der Xbox360 mit dem Kontrast und den Farben los? Da säuft ja schon wieder alles in schwarz ab. Ist das ein grundsätzliches Xbox360 Problem?

Edit:
Auch kommt mir die Wii U Version schärfer vor.
http://www.lensoftruth.com/wp-content/gallery/h2hssc_blackop2_wiiu/h2h_lens_zoom_04.jpg

Bei der Box sieht das aus als wenn da so ne Art Blurfilter drüber liegt.
Verwechselt du etwa die Xbox mit den PS3-Bildern? Ich finde gerade von der Xbox schauen die Screens schärfer aus und haben einen besseren Kontrast.

Das hier z.B.:
http://www.lensoftruth.com/wp-content/gallery/h2ha_blackop2_wiiu/image2.jpg

dargo
2012-11-23, 16:00:10
Verwechselt du etwa die Xbox mit den PS3-Bildern? Ich finde gerade von der Xbox schauen die Screens schärfer aus und haben einen besseren Kontrast.

Das hier z.B.:
http://www.lensoftruth.com/wp-content/gallery/h2ha_blackop2_wiiu/image2.jpg
Lol... ich glaube so langsam die besagte Seite weiß gar nicht mehr welches Bild zu welcher Konsole gehört. :freak:

In deinem Beispiel sieht natürlich das rechte Bild deutlich besser aus. Kontrast ist völlig in Ordnung und auch die Auflösung ist höher. In deinem Beispiel säuft bei der PS3 wieder alles in schwarz ab. :crazy:

00-Schneider
2012-11-23, 19:50:47
Hast du da evtl. eine Quelle dazu?
Ich find aktuell nix zur Renderauflösung auf der Wii-U.


Morgen kommt die komplette Analyse von DF:

http://i.imgur.com/YJqSB.png

-----------------

Ich gehe von 880x720p, wie bei 360-Version aus. Die PS3-Version ist da dynamisch, und geht bis auf 832x624p runter.

dargo
2012-11-23, 20:04:14
Ich gehe von 880x720p, wie bei 360-Version aus. Die PS3-Version ist da dynamisch, und geht bis auf 832x624p runter.
OMG... :freak:

dildo4u
2012-11-23, 20:05:32
Dargo das ist nix Black Ops 1 hatte Vita Auflösung auf der PS3.

starfish
2012-11-23, 20:21:15
OMG... :freak:

Ist das "p" hier überhaupt noch gerechtfertigt?

Ich mein, rendern die nicht nur zeilenweiße pro "Halbbild"?
Oder halt richtig Halbbilder (Oben/Unten)?

Oder skalieren die das dann auf die Breite hoch?

Denn das Verhältniss zum 16:9 stimmt ja überhaupt nicht.

Deinorius
2012-11-23, 20:24:18
Würde ich glatt als clever bezeichnen. Die vertikale Auflösung ist sowieso wichtiger! Können Spiele überhaupt interlaced gerenderd werden? Das bringt doch überhaupt keine Vorteile mit sich.

dargo
2012-11-23, 20:28:23
Würde ich glatt als clever bezeichnen.
Das fällt dann unter die Rubrik "Optimierungen". :D

Deinorius
2012-11-24, 02:05:44
Sowieso. ;)

G 80
2012-11-24, 09:17:13
:uwoot:

Was hat man doch Diablo 2 Lod für immernoch nur 800x600 kritisiert; das ist ja mehr als ne Dekade später noch aktuell - sogar die Frameraten liegen in einem ähnlichen Bereich. :ulol4:

Gouvernator
2012-11-24, 09:32:37
Nein, die Wii U gibt kein full range RGB aus. Insofern ist das Bild der Xbox360 korrekt.


http://www.eurogamer.net/articles/df-hardware-nintendo-wii-u-review
Das ist der letzte Nagel in den Sarg für WiiU... Die OLED Displays ob nun LG oder die Zeiss Brille sehen schrecklich aus ohne full range RGB. Bei den alten Displays merkt man das nicht so sehr weil sie alle sind mehr grau wie schwarz, so richtiges schwarz kennt von denen keiner. Aber ein OLED ist hier voll drauf angewiesen das die Quelle schwarz liefern kann damit schwarz auch dargestellt wird.

nampad
2012-11-24, 09:42:19
Ich dachte die Consumer Geräte sind sowieso auf Limited Range ausgelegt und wenn man auf Full Range umstellt bekommt man Black Crush?

grobi
2012-11-24, 09:47:58
Das ist der letzte Nagel in den Sarg für WiiU... Die OLED Displays ob nun LG oder die Zeiss Brille sehen schrecklich aus ohne full range RGB. Bei den alten Displays merkt man das nicht so sehr weil sie alle sind mehr grau wie schwarz, so richtiges schwarz kennt von denen keiner. Aber ein OLED ist hier voll drauf angewiesen das die Quelle schwarz liefern kann damit schwarz auch dargestellt wird.


Was für eine Übertreibung deinerseits. Genau davon wird der Erfolg der Wii U abhängen. :freak:


mfg grobi

dargo
2012-11-24, 09:49:59
Das ist der letzte Nagel in den Sarg für WiiU... Die OLED Displays ob nun LG oder die Zeiss Brille sehen schrecklich aus ohne full range RGB.
Jo... weil die Wii U Käufer sich sicherlich einen 55" OLED für 8.000€(?) ins Wohnzimmer stellen. :freak: Bis OLED ein Preisniveau für diese Käuferschicht erreicht hast du schon mindestens einen Nachfolger der Wii U. ;)

Lightning
2012-11-24, 10:39:50
Ich dachte die Consumer Geräte sind sowieso auf Limited Range ausgelegt und wenn man auf Full Range umstellt bekommt man Black Crush?

Meinst du jetzt TVs im Allgemeinen? Also bei meinem Toshiba, der recht günstig war, kann man zwischen Full und Limited Range wählen (sowie auch automatisch erkennen lassen). Zum Black Crush sollte es deswegen also nie kommen.

starfish
2012-11-24, 12:52:17
Morgen kommt die komplette Analyse von DF:

http://i.imgur.com/YJqSB.png

-----------------

Ich gehe von 880x720p, wie bei 360-Version aus. Die PS3-Version ist da dynamisch, und geht bis auf 832x624p runter.

Danke dir, bin schon ganz gespannt.

dildo4u
2012-11-24, 13:46:09
Face-Off: Call of Duty: Black Ops 2 on Wii U

The COD experience fails to impress on Nintendo's new hardware.

http://www.eurogamer.net/articles/digitalfoundry-black-ops-2-wii-u-face-off

FPS schlechter als PS3 wenn unter Stress.

00-Schneider
2012-11-24, 13:55:27
http://www.eurogamer.net/articles/digitalfoundry-black-ops-2-wii-u-face-off


Optisch mit der 360-Version gleichzusetzen und damit besser als die PS3-Version. Framerate deutlich schlechter als 360/PS3:

"It's clear that plenty of characters and full-screen transparencies are particular Achilles Heels for the Wii U, a state of affairs that persists in further clips later on."

"The Xbox 360's performance continues to dominate, but the gap does close a little here with PlayStation 3. Unfortunately, the opposite is true with Wii U, which struggles palpably in any scene where a lot of characters are in the area, or when taxing effects work is at play."

-------------------------------------

Warum geht bei der WiiU nicht mehr bei der Auflösung? Wenn man nur die Auflösung erhöht, müsste das doch auch nur die GPU belasten, oder? Gerade die soll doch besser als bei PS3/360 sein!?

AnarchX
2012-11-24, 13:58:41
Warum geht bei der WiiU nicht mehr bei der Auflösung? Wenn man nur die Auflösung erhöht, müsste das doch auch nur die GPU belasten, oder? Gerade die soll doch besser als bei PS3/360 sein!?
Der Framebuffer muss in den 32MiB eDRAM passen, wenn er zu groß wird, hat die Wii U kaum mehr als 1/2 der Bandbreite der PS360. Insofern kann man wohl die überschüssige Rechenleistung nur in Postfilter-Effekte mit wenig Speicherbedarf investieren.

dildo4u
2012-11-24, 13:58:55
Ich hoffe die machen bald Batman und AC3 die dürften wesentlich CPU lastiger sein.

grobi
2012-11-24, 14:19:44
Ist ja einer der ersten Ports mit der Xbox360 als Lead-Plattform. Da geht im laufe der Zeit bestimmt mehr.


mfg grobi

MarcWessels
2012-11-25, 02:16:31
Das ist der letzte Nagel in den Sarg für WiiU... Die OLED Displays ob nun LG oder die Zeiss Brille sehen schrecklich aus ohne full range RGB. Bei den alten Displays merkt man das nicht so sehr weil sie alle sind mehr grau wie schwarz, so richtiges schwarz kennt von denen keiner. Aber ein OLED ist hier voll drauf angewiesen das die Quelle schwarz liefern kann damit schwarz auch dargestellt wird.Du schreibst mal wieder nur uninformierten Quark, wenn es um Technisches geht. :rolleyes:

Die MLL eines Displays hat nichts aber auch überhaupt nichts damit zu tun, ob die Quelle 16-235 oder 0-255 ist!

Natürlich wäre 0-255-Support schöner, da man dann nunmal mehr Graustufen hat, was man zwar auf vielen TVs nicht ausnutzen kann, auf manchen anderen, wie z.B. LG-Plasmas aber schon.

nampad
2012-11-25, 05:03:59
Ach die DF Vergleiche sind doch was schönes. Was haben wir hier nicht monatelang über die Leistung der Wii U spekuliert und man schaue sich mal an, was sie liefert.
Natürlich sind es nun oft schnelle Ports auf neue Hardware. Aber wenn man bedenkt, dass gegen 7 Jahre alter Hardware getestet wird, kann das wirklich nur im geringen Umfang entschuldigen. Kommt der Wii U Port ncht vo Treyarch selber? Die waren es ja schließlich auch, die CoD so auf der Wii unterstützt haben. IW hat damals kaum Interesse an der Nintendo Konsole gezeigt.

Meinst du jetzt TVs im Allgemeinen? Also bei meinem Toshiba, der recht günstig war, kann man zwischen Full und Limited Range wählen (sowie auch automatisch erkennen lassen). Zum Black Crush sollte es deswegen also nie kommen.

Ja, ich meine TVs im Allgemeinen. Ich weiß noch als die PS3 per FW Update die Option bekommen hat. Damals haben viele einfach auf Full Range umgestellt, hört sic ja auch besser sein. Nur sollen damals viele TVs dies übrhaupt nicht unterstützt haben und daher ist das Schwarz abgesoffen (Ausgabe auf Full Range, TV unterstützt nur Limited Range).

Hab damals auch das Problem mit meinem Fernseher gehabt. Aber gut, das ist ja nun auch eine Weile her und auf dem TV Markt kann sich durchaus was getan haben.

Gouvernator
2012-11-25, 08:30:57
Du schreibst mal wieder nur uninformierten Quark, wenn es um Technisches geht. :rolleyes:

Die MLL eines Displays hat nichts aber auch überhaupt nichts damit zu tun, ob die Quelle 16-235 oder 0-255 ist!

Natürlich wäre 0-255-Support schöner, da man dann nunmal mehr Graustufen hat, was man zwar auf vielen TVs nicht ausnutzen kann, auf manchen anderen, wie z.B. LG-Plasmas aber schon.
Es geht mir nicht um Graustufen sondern um black crush den ich brauche. Wenn Grau zu schnell aufhört, hast du rein gar nix von Monitoren die schwarz auch schwarz darstellen können.

AnarchX
2012-11-25, 09:59:00
Face-Off: Call of Duty: Black Ops 2 on Wii U



http://www.eurogamer.net/articles/digitalfoundry-black-ops-2-wii-u-face-off

FPS schlechter als PS3 wenn unter Stress.
http://www.youtube.com/watch?v=1Dg31wLLDpc&t=2m6s
"Call of Duty looks dramatically better on Wii U" :ulol:

Lightning
2012-11-25, 10:13:57
http://www.youtube.com/watch?v=1Dg31wLLDpc&t=2m6s
"Call of Duty looks dramatically better on Wii U" :ulol:

Das ist echt mal eine dreiste Lüge. Oder er weiß es wirklich nicht besser, was ebenso peinlich wäre. Bisher fand ich Reggie gar nicht so unsympathisch..

AnarchX
2012-11-25, 10:18:36
Es besteht wohl durchaus noch Raum für Interpretationen, vielleicht meint er die verwaschene, ungepatchte PS3-Version.
Aber man sollte sich wohl wirklich nicht hinstellen und behaupten, dass man dramatisch besser als die Current-Gen ist.

gnomi
2012-11-25, 12:06:12
Ich hingegen finde den ähnlich unsympathisch wie alle anderen in solchen Funktionen. :wink:
Unabhängig ob nun wahr oder falsch, diese Typen repräsentieren milliardenschwere Konzerne und geben nur Äußerungen im eigenen Interesse ab.
Die offizielle Produktbeschreibung zu lesen, könnte oftmals gar ehrlicher sein...

gnomi
2012-11-25, 12:20:47
Warum geht bei der WiiU nicht mehr bei der Auflösung? Wenn man nur die Auflösung erhöht, müsste das doch auch nur die GPU belasten, oder? Gerade die soll doch besser als bei PS3/360 sein!?

Falls deutlich mehr GPU Power vorhanden ist, muss die auch erst einmal sinnvoll freigelegt werden.
Eventuell liegen die Vorteile eher in einer moderneren Architektur, und nicht so sehr bei der reinen Rohleistung.
Und auch GPU lastigere Effekte und höhere Auflösungen mit schöneren Texturtapeten dürften niemals einseitig nur die Grafikkarte fordern.
Multiplattformumsetzungen gegen die hoch optimierten PS3 & Xbox 360 Konsolen bei Titeln, wo auch noch die besten Studios dransaßen, sind sehr wahrscheinlich das Worst Case Szenario.
Und fehlende CPU Power ist schon das Problem schlecht hin.
Die gelobten 60 fps bei COD erreicht strenggenommen ja nicht einmal die Xbox 360 beständig.
Was wird erst sein, wenn Sony und Microsoft zugunsten der neuen Geräte die älteren zunehmend aufgeben und ehrgeiziger an besseren Spielwelten und KI's arbeiten.
Dann sind Umsetzungen für WiiU wieder ähnlich unspektakulär wie ein COD auf Wii.

dildo4u
2012-11-25, 12:22:50
Reggie hat Glück das sich die Xbox diesmal so gut verkauft hat,zusammen mit der PS3 ist die installieren Basis bei 150Mio und es wird noch lange Abwärts Ports Richtung 360/PS3 und Wii-U geben.Hoher Preis der Xbox 3,PS4 werden verhindern das sich diese Systeme schnell verbreiten und man wird dort lange nur mit PC Versionen abgespeist.Schätze ab 2015 sieht man die ersten Thrid Party Games,die nur für diese Konsolen gebaut wurden.Wir wissen ja schon das BF4 runterskaliert zur 360/PS3,das näste COD wird vermutlich auch so gehandhabt.

AnarchX
2012-11-25, 12:31:45
Zumal in den nächsten 2-3 Jahren auch die portablen Geräte in den Leistungsbereich der PS360U aufsteigen und sich damit wohl eine >300 Mio Geräte Basis entstehen könnte für bestimmte Titel.

Nintendo muss dann eben einen vernünftigen preislichen Abstand zu diese Geräten schaffen und mit ein paar wirklich guten Exklusiv-Titeln locken.

Rancor
2012-11-26, 10:47:07
Nintendo muss einfach nur mal gescheite Hardware releasen, dann gäbe es diese Problematik einfach nicht.

Nightspider
2012-11-27, 03:24:28
Angeblich ist die GPU der Wii-U doch deutlich schneller als die GPUs der alten Konsolen.

Ich verstehe nicht warum dann nicht wenigstens Nintendo selbst etwas mit der Optik bei Pikmin oder Mario protzt.
Selbst diese Spiele sehen total kantig aus. Nix da von wegen FullHD.

x-force
2012-11-27, 07:29:17
Hoher Preis der Xbox 3,PS4 werden verhindern das sich diese Systeme schnell verbreiten und man wird dort lange nur mit PC Versionen abgespeist.

hoher preis für ein max midrange system? niemals... die zeiten, daß irgendwelche affen sich eine völlig überteuerte konsole für 700euro kaufen sind vorbei ;)

auch das argument blurayplayer, das hauptargument für den mondpreis der ps3 damals, zieht heute nicht mehr.

gnomi
2012-11-27, 09:21:21
400 Euro Konsolen sollten allerdings ab Ende 2013 für Sony und Microsoft möglich sein. (wobei ich sogar mit 2014 rechne)
Ohne teuren Tablet Controller und mit nun 8 Jahren+ technischem Fortschritt, müsste eine deutliche Steigerung möglich sein. (6-8x)

gnomi
2012-11-27, 09:27:50
Angeblich ist die GPU der Wii-U doch deutlich schneller als die GPUs der alten Konsolen.

Ich verstehe nicht warum dann nicht wenigstens Nintendo selbst etwas mit der Optik bei Pikmin oder Mario protzt.
Selbst diese Spiele sehen total kantig aus. Nix da von wegen FullHD.

Ganz ehrlich- ich glaube nicht, dass die technische Präsentation mittlerweile der Schwerpunkt der Nintendo Teams ist.
Außerhalb von Zelda Twilight Princess habe ich in dieser Richtung kaum ambitionierte Titel in dieser Generation gesehen.
Bei der Wii ist ein Prince of Persia, Red Steel 2, Conduit 2 oder Goldeneye außerhalb von Metroid 3 und Donkey Kong Returns noch das grafisch spannendste.
Auch früher waren eher Studios wie Rare, Factor 5 und Retro für die Vorzeigetitel verantwortlich.

Tomi
2012-11-27, 09:52:11
Ohne teuren Tablet Controller und mit nun 8 Jahren+ technischem Fortschritt, müsste eine deutliche Steigerung möglich sein. (6-8x)
In Sachen Controller befürchte ich aber bei MS und Sony, dass sie irgendwas Revolutionäres (und damit teureres als ein Stück Plastik) bringen wollen. Beide haben mit KINECT und MOVE den Grundstein gelegt für Hampe-und Fuchteleien ohne herkömmlichen Controller und das wird denk ich leider bei der nächsten Generation ausgebaut werden.

labecula
2012-11-27, 09:54:56
400 Euro Konsolen sollten allerdings ab Ende 2013 für Sony und Microsoft möglich sein. (wobei ich sogar mit 2014 rechne)
Ohne teuren Tablet Controller und mit nun 8 Jahren+ technischem Fortschritt, müsste eine deutliche Steigerung möglich sein. (6-8x)

400,- Euro ist reines Wunschdenken. Unter 500,- Wirst keine NextGen bekommen. M$ und $ony sind kein Wohltätigkeitsverein. Sie sind und müssen auf Gewinnmaximierung ausgelegt sein. Gerade Sony wird es sich nicht leisten können, die PS4 zu günstig anzubieten. Zu deren allgemein bekannter Arroganz was den Europäischen Markt angeht, kommt der Druck der Aktionäre. Denn Sony geht es nicht wirklich gut.

Tomi
2012-11-27, 10:01:26
Die PS3 war damals auch oder vor allem wegen dem BD Laufwerk so schweineteuer. Mit einem DVD Laufwerk hätte sie vielleicht für 100-150 Euro weniger verkauft werden können und es wäre vielleicht sogar noch was bei Sony pro Gerät hängengeblieben. Diesmal wirds kein teures Laufwerk geben, da geht ja der Trend sogar komplett weg davon. Aber reines Streaming wirds auch nicht geben, dazu fehlt die Infrastruktur weltweit, zumindest eine die die notwendigen Massen erreicht. Bliebe also Geld für potente CPU-und GPU Power oder für ein ggf. neues teures Steuerungskonzept.

nampad
2012-11-27, 10:10:07
400,- Euro ist reines Wunschdenken. Unter 500,- Wirst keine NextGen bekommen. M$ und $ony sind kein Wohltätigkeitsverein. Sie sind und müssen auf Gewinnmaximierung ausgelegt sein. Gerade Sony wird es sich nicht leisten können, die PS4 zu günstig anzubieten. Zu deren allgemein bekannter Arroganz was den Europäischen Markt angeht, kommt der Druck der Aktionäre. Denn Sony geht es nicht wirklich gut.

500 wäre fatal für die Verkaufszahlen, dass sollten alle Verantwortlichen bei Sony und Microsoft wissen. Und gerade Sony hat nach den ganzen Misserfolgen so einiges an Demut hinzugewonnen. Finde es aber lustig, dass du gerade nur bei Sony die Arroganz bezüglich Europa herausstellst, Nintendo und Microsoft sind da nicht besser.
Aber wieso soll ich ernsthaft mit jemandem diskutieren, der hier $ony und M$ schreibt? Die beiden "Wohltätigkeitsvereine" haben immerhin ihre letzten Geräte alle subventioniert, was man von Nintendo nicht gerade behaupten kann. 3DS für 250...lol


hoher preis für ein max midrange system? niemals... die zeiten, daß irgendwelche affen sich eine völlig überteuerte konsole für 700euro kaufen sind vorbei ;)

auch das argument blurayplayer, das hauptargument für den mondpreis der ps3 damals, zieht heute nicht mehr.

Ich stimme dir zu, dass der Preis viel zu hoch war, aber

1. Die PS3 hat 599 gekostet.
2. Hat Sony die Konsole damals trotzdem subventioniert, was heißt also überteuert? Du erwähnst selbst Bluray als Hauptargument, da solltest du wissen, wie teuer vergleichbare Player damals waren.

gnomi
2012-11-27, 10:15:01
In Sachen Controller befürchte ich aber bei MS und Sony, dass sie irgendwas Revolutionäres (und damit teureres als ein Stück Plastik) bringen wollen. Beide haben mit KINECT und MOVE den Grundstein gelegt für Hampe-und Fuchteleien ohne herkömmlichen Controller und das wird denk ich leider bei der nächsten Generation ausgebaut werden.

So stark sind aber weder Kinect noch Move eingeschlagen.
Von daher rechne ich damit, dass beides weiterhin optional bleiben wird.
Eventuell gibt es eine Family Entertainment SKU oder so was.

400,- Euro ist reines Wunschdenken. Unter 500,- Wirst keine NextGen bekommen. M$ und $ony sind kein Wohltätigkeitsverein. Sie sind und müssen auf Gewinnmaximierung ausgelegt sein. Gerade Sony wird es sich nicht leisten können, die PS4 zu günstig anzubieten. Zu deren allgemein bekannter Arroganz was den Europäischen Markt angeht, kommt der Druck der Aktionäre. Denn Sony geht es nicht wirklich gut.

Mal abwarten. Die 360 Premium gab es ja für 399 zum Launch.
Ich rechne bei Microsoft mit einigen SKU's, die alles abdecken. (350-500 Euro schätzungsweise)
Sony muss gegenüber PS3 und Vita diesmal auf jeden Fall kleinere Brötchen backen und mit dem Preis runter.
Die PS3 war überambitioniert und softwareseitig zu Beginn unfertig.

labecula
2012-11-27, 10:15:09
Die PS3 war damals auch oder vor allem wegen dem BD Laufwerk so schweineteuer. Mit einem DVD Laufwerk hätte sie vielleicht für 100-150 Euro weniger verkauft werden können und es wäre vielleicht sogar noch was bei Sony pro Gerät hängengeblieben. Diesmal wirds kein teures Laufwerk geben, da geht ja der Trend sogar komplett weg davon. Aber reines Streaming wirds auch nicht geben, dazu fehlt die Infrastruktur weltweit, zumindest eine die die notwendigen Massen erreicht. Bliebe also Geld für potente CPU-und GPU Power oder für ein ggf. neues teures Steuerungskonzept.

Das ist richtig. Das heißt aber nicht, dass ein Konzern sein produkt nur deshalb günstiger gestaltet, weil ein Bauteil plötzlich ebenfalls günstiger wird. Diesen Fehlschluss Deinerseits sieht man deutlich am Preis der aktuellen PS3 "SlimSlim"... Würde man die Materialkosten damals und heute gegenüberstellen, dürfte das Ding vielleicht noch 150,- Euro kosten. Tut es aber nicht... Warum? Eben... Gewinnmaximierung.

nampad
2012-11-27, 10:18:47
Dein Vergleich mit der PS3 Superslim hat einen großen Fehler. Wir befinden uns am Ende der Konsolengeneration, bei der nun die Gewinne eingefahren werden sollen.

Am Anfang einer Konsolengeneration geht es den Konsolenherstellern erst mal darum eine große installierte Basis zu erreichen. Daher werden die Geräte auch anfangs bevorzugt subventioniert. Wird die kritische Masse nicht erreicht, wird das Gerät so oder so ein Flop. Es muss ein selbsttragender Penetrationsprozess eingeleitet werden (Stichworte: Netzeffekte, Loss Leader).

Die einzigen, die es sich bisher leisten konnten (bzw. arrogant genug waren ;)) auf Subventionen zu verzichten, waren Nintendo. Aber seitdem man mit dem 3DS Preis so dermaßen auf die Fresse gefallen ist, hat sich das auch geändert.

fizzo
2012-11-27, 10:41:28
...Am Anfang einer Konsolengeneration geht es den Konsolenherstellern erst mal darum eine große installierte Basis zu erreichen. Daher werden die Geräte auch anfangs bevorzugt subventioniert. Wird die kritische Masse nicht erreicht, wird das Gerät so oder so ein Flop. Es muss ein selbsttragender Penetrationsprozess eingeleitet werden (Stichworte: Netzeffekte, Loss Leader).


Das kann ich so unterschreiben, nur sehe ich bei Sony bzw. der PS4 nicht gerade viel Spielraum bezüglich einer größeren Subvention:

Rating-Agentur stuft Sony auf "Ramsch"-Niveau ab

22.11.12 - Fitch Ratings hat die langfristigen Bonitätsnoten der Sony Corp. auf "Ramsch"-Niveau abgestuft. In der Begründung verweist Fitch auf den Nachfrageeinbruch im Fernsehgeschäft. Sony hat derzeit mit Rekordverlusten zu kämpfen.

Das langfristige Rating von Sony fällt um drei Stufen auf "BB-”, teilt Fitch mit. Das sind drei Stufen unter dem Qualitätsbereichs "Investment Grade"; der Ausblick für das Rating ist negativ.

Sony wird mit einem stärkeren Yen und der sich verschlechternden Wirtschaftslage in Japan und dem Ausland zu kämpfen haben, erklärt Fitch: Sony leidet unter einer schwächeren Nachfrage und dem zunehmenden Wettbewerb mit Samsung Electronics Co. und Apple Inc.

"Eine bedeutsame Erholung wird langsam vonstattengehen, angesichts des Verlusts der technologischen Marktführerschaft bei wichtigen Produkten", kommentiert Fitch Sonys Situation.

Ergo wird sich dies auch auf die Leistungsfähigkeit der Konsole niederrschlagen. MS will sicher auch keine zweites ROD-Desaster mehr erleben. Zumindest finaziell sind sie potenter aufgestellt, wenn auch Win8 alles andere als ein Hit ist.

nampad
2012-11-27, 10:58:40
War ja klar, dass einer mit der Ratingabwertung kommen muss. Nur heißt das nicht, dass Sony keinen finanziellen Spielraum hat. Man hat erst letztens Olympus Anteile für $644 Millionen gekauft und auch Gakai für $380 Millionen. Letztes Jahr dann der Ericsson Buyout (€ 1,05 Milliarden).

Der Videospielemarkt wurde von Hirai selbst als einer der Säulen des Unternehmens bezeichnet. Konsolidierungen werden daher eher verstärkt in anderen Gschäftsfeldern stattfinden.
Und ohne Investitionen kann man auch nichts erwirtschaften. Bevor man dann mit einer halbgaren Lösung für die PS4 ankommt, kann man es auch gleich lassen.

starfish
2012-11-27, 12:56:37
War ja klar, dass einer mit der Ratingabwertung kommen muss. Nur heißt das nicht, dass Sony keinen finanziellen Spielraum hat. Man hat erst letztens Olympus Anteile für $644 Millionen gekauft und auch Gakai für $380 Millionen. Letztes Jahr dann der Ericsson Buyout (€ 1,05 Milliarden).

Der Videospielemarkt wurde von Hirai selbst als einer der Säulen des Unternehmens bezeichnet. Konsolidierungen werden daher eher verstärkt in anderen Gschäftsfeldern stattfinden.
Und ohne Investitionen kann man auch nichts erwirtschaften. Bevor man dann mit einer halbgaren Lösung für die PS4 ankommt, kann man es auch gleich lassen.

http://www.ign.com/articles/2012/11/27/has-the-longest-console-generation-damaged-gaming

IGN macht sich aber auch schon Gedanken in der Hinsicht.
Scheint also doch was drann zu sein.

Felixxz2
2012-11-27, 15:38:28
So stark sind aber weder Kinect noch Move eingeschlagen.


>20 Millionen Kinects sind kein Erfolg :freak:

MR2
2012-11-27, 15:56:10
Die Computer Bild hat die WiiU getestet. Mal was lustiges zum lesen an diesem dunklen Dienstag. Vor Allem die Hardware Daten...Ich trau mich aber nicht zu verlinken;D

Nightspider
2012-11-27, 16:26:03
Wie bist du denn auf diese Unterschicht-Website gekommen? :D

dildo4u
2012-11-27, 16:28:19
Face-Off: Batman: Arkham City Armored Edition on Wii U

http://www.eurogamer.net/articles/digitalfoundry-batman-arkham-city-wii-u-face-off

FXAA ist neu FPS in den Kämpfen wesentlich schlechter als PS3/360.

GBWolf
2012-11-27, 16:32:39
Face-Off: Batman: Arkham City Armored Edition on Wii U

http://www.eurogamer.net/articles/digitalfoundry-batman-arkham-city-wii-u-face-off

FXAA ist neu FPS in den Kämpfen wesentlich schlechter als PS3/360.


Ach du Schande.

GBWolf
2012-11-27, 16:33:38
>20 Millionen Kinects sind kein Erfolg :freak:


Jo Kinect, ist imho das einzige mit Zukunft von allen Konzepten. Und funktioniert auch am besten. Hatte sowohl Wii mote, Move als auch Kinect.

Nightspider
2012-11-27, 17:21:48
Ach du Schande.

Die WU Version hat schärfere Texturen und hat nicht so harte Kanten.
So pixelig wie bei 360 find ich in der Hinsicht schlechter.

Natürlich traurig, das man bei der modernen GPU und der geringen Auflösung kein richtiges MSAA integriert hat.

Phantom1
2012-11-27, 17:29:10
Jo Kinect, ist imho das einzige mit Zukunft von allen Konzepten. Und funktioniert auch am besten. Hatte sowohl Wii mote, Move als auch Kinect.
das sieht warscheinlich jeder etwas anders ^^
ich sehe kinect ganz hinten (zu träge bzw langsam und unpräzise) und die wiimote auf platz 1 kurz gefolgt von move.

nampad
2012-11-27, 18:21:12
Die WU Version hat schärfere Texturen und hat nicht so harte Kanten.
So pixelig wie bei 360 find ich in der Hinsicht schlechter.

Natürlich traurig, das man bei der modernen GPU und der geringen Auflösung kein richtiges MSAA integriert hat.

Digital Foundry erwähnt nichts von schärferen Texturen. Einzig das FXAA kommt also hinzu, dafür bedeutend schlechtere Performance.

And that cuts both ways too - the changes we saw in the E3 media assets don't appear to have made it into the final game, so the rejigged LODs which brought out additional detail in some areas (and cutbacks in others) are gone - what we have here is pretty much the standard Arkham City experience.

The only real exception comes in the form of the addition of NVIDIA's FXAA post-processing technology. The original console versions of Arkham City operated at native 720p with no anti-aliasing employed at all so we might expect a welcome bump in image quality from the addition of the AA tech on Wii U. However, the arrival of FXAA is something of a double-edged sword. On the one hand, high contrast edges are smoothed significantly - a welcome addition. Unfortunately, on the flipside, the additional blurring detracts from the quality of the artwork, with specular highlights in particular dulled significantly.

Wenn ich das richtig sehe steht es damit momentan 3:0 für die Xbox 360.

Marty98
2012-11-27, 18:25:40
Wieso wird da von NVIDIA's FXAA gesprochen? Die GPU ist doch von AMD.

Coda
2012-11-27, 18:46:45
FXAA funktioniert auch auf AMD GPUs.

Lightning
2012-11-27, 18:46:56
Wieso wird da von NVIDIA's FXAA gesprochen? Die GPU ist doch von AMD.

Weil FXAA von Nvidia entwickelt wurde.

Ringwald
2012-11-29, 13:26:22
Die 3 CPU Kerne laufen genau auf 1,243125GHz und die GPU mit 549,999755MHz :freak: Ein neuer ARM Kern ist auch mit dabei, könnte sogar ein dualcore sein.

quelle (https://twitter.com/marcan42)

Lightning
2012-11-29, 13:38:42
Die 3 CPU Kerne laufen genau auf 1,243125GHz und die GPU mit 549,999755MHz :freak: Ein neuer ARM Kern ist auch mit dabei, könnte sogar ein dualcore sein.

quelle (https://twitter.com/marcan42)

Endlich mal wieder was handfestes. Ist ungefähr was zu erwarten war, wobei ich auf etwa 1.5 GHz gehofft hatte.
Verständlich, dass sich manche Entwickler über die CPU beschweren, aber allzu schlecht sollte es im Vergleich zu 360 und PS3 auch nicht sein, schätze ich (wenn auch sicher nicht besser).

Gipsel
2012-11-29, 13:44:54
Na falls die 1,24 GHz stimmen sollten und tatsächlich außer den Cachegrößen nichts an der CPU geschraubt wurde, wäre das schon irgendwie enttäuschend. Ein bißchen was Besseres hätte Nintendo nun auch nicht umgebracht (VMX-SIMD-Erweiterung dranpappen oder auch eine modernere Implementation der ISA nehmen, die mit ein oder zwei Pipelinestufen mehr die 2 GHz angreift), aber vermutlich wollten die IBM wirklich nur eine Minimalsumme für die sehr spärliche Entwicklung überweisen.

Felixxz2
2012-11-29, 14:02:07
Autsch. Gerade in Sachen FLOP/s dürfte man da meilenweit unter einer 360 liegen. Keine Ahnung wie die Int-IPC der beiden so aussieht, aber auch müsste Xenon schneller sein und das ein gutes Stück.

Verständlich, dass sich die Metro Entwickler aufregen.

Lightning
2012-11-29, 14:03:07
Ein bißchen was Besseres hätte Nintendo nun auch nicht umgebracht (VMX-SIMD-Erweiterung dranpappen[...])

Zumindest darauf kann man ja noch hoffen, geht aus der Quelle ja nicht hervor.

Gipsel
2012-11-29, 14:07:23
Autsch. Gerade in Sachen FLOP/s dürfte man da meilenweit unter einer 360 liegen. Keine Ahnung wie die Int-IPC der beiden so aussieht, aber auch müsste Xenon schneller sein und das ein gutes Stück.

Verständlich, dass sich die Metro Entwickler aufregen.
IPC dürfte bei der Wii U schon etwas höher liegen. Aber mit nur 1,24 vs. 3,2 GHz ist das dann absolut gesehen auch nicht mehr so viel wert. Und für einige Sachen stört das Fehlen einer vergleichbaren SIMD-Erweiterung (VMX) dann auch ganz schön.

robbitop
2012-11-29, 14:36:47
Naja den in-Order-Malus könnte bei Xenos durch SMT und optimierten Code ziemlich ausgeglichen sein. Doppelter Takt, kein SIMD. Die Wii-U CPU ist also deutlich schwächer. Ach Nintendo. Jedes Mal das gleiche. Bei mobilen Spielekonsolen und bei richtigen...

Botcruscher
2012-11-29, 14:41:55
... deutlich schwächer als der Uraltmüll von Vorgestern. PS: Wenn die GPU nicht wäre, würden bald die Mobilgeräte vorbei ziehen...

Lightning
2012-11-29, 14:49:40
Naja den in-Order-Malus könnte bei Xenos durch SMT und optimierten Code ziemlich ausgeglichen sein. Doppelter Takt, kein SIMD. Die Wii-U CPU ist also deutlich schwächer.

Doppelter Takt im Vergleich zu was? Im Vergleich zur Broadway sind es nur 71% mehr Takt, und Xenon hat nochmal 256% mehr..

Allerdings: So schlimm kann es eigentlich nicht sein, wenn man sich die ersten Ports anschaut. Die laufen zwar etwas schlechter, aber nicht wirklich substantiell. Ein bisschen Optimierungspotential könnte es auch noch geben, da die Hardware ja neu ist.

robbitop
2012-11-29, 14:56:20
Doppelter Takt im Vergleich zu was? Im Vergleich zur Broadway sind es nur 71% mehr Takt, und Xenon hat nochmal 256% mehr..

Allerdings: So schlimm kann es eigentlich nicht sein, wenn man sich die ersten Ports anschaut. Die laufen zwar etwas schlechter, aber nicht wirklich substantiell. Ein bisschen Optimierungspotential könnte es auch noch geben, da die Hardware ja neu ist.
Xenos hat > doppelten Takt ggü der WiiU CPU. Das Ding ist ein relativ simples 2-issue OOO-Design. Da ist jetzt nicht so die IPC zu holen. Ich nehme mal an irgendwas in Richtung P6.
Das gleichst du mit SMT soziemlich aus. Voraussetzung ist, dass man die 6 Threads auf Xenos sinnvoll nutzen kann. Wenn nicht, sinkt der Vorteil von Xenos natürlich.
Aber im worst case (bestmögliche Ausnutzung von Xenos) sieht es böse für die WiiU aus. Deutlich weniger Takt, ähnliche Multithread IPC (SMT kompensiert in-order), kein SIMD. Alter Schwede. Blöde Entscheidung.
Kompatibilität hätte man locker mit einem alten Kern aus der Wii gewährleisten können. Der hätte in modernen Fertigungsverfahren kaum Fläche gekostet.
Das Ding ist halt wieder typisch Nintendo. Nur schlimm, dass diesmal zumindest die CPU schwächer ist als die jetzt auslaufende Generation...
Wii hatte wenigstens HW, die stärker als die komplette Last-Gen war.

Nakai
2012-11-29, 14:57:08
Es ist mal wieder unfassbar, was für ein langsamen Zeug Nintendo mal wieder auf den Markt schmeißt. Nur weil die internen Softwareentwickler bei Nintendo keine Leistung von der Hardware erfordern, gilt das nicht für den Rest der Branche. Jap, bei Nintendo sind wirklich die falschen Leute am Werk.

Da kann man sich doch als Nintendo-Käufer in den Arsch kneifen, sobald die Konkurrenz auf den Markt schlägt.
Die Relation zwischen Wii zu Xbox360 und PS3 kann man wohl genauso zur Wii U umsetzen.
Multiplattformtitel auf Wii U, Xbox720 und PS4 kann man vergessen, bei einer solchen unterirdischen Leistung.

Lightning
2012-11-29, 15:04:02
Xenos hat > doppelten Takt ggü der WiiU CPU.

Genau das schrieb ich doch. ;) Wusste nur nicht genau, worauf du dich jetzt beziehst.

Das Ding ist ein relativ simples 2-issue OOO-Design. Da ist jetzt nicht so die IPC zu holen. Ich nehme mal an irgendwas in Richtung P6.
Das gleichst du mit SMT soziemlich aus. Voraussetzung ist, dass man die 6 Threads auf Xenos sinnvoll nutzen kann. Wenn nicht, sinkt der Vorteil von Xenos natürlich.
Aber im worst case (bestmögliche Ausnutzung von Xenos) sieht es böse für die WiiU aus. Deutlich weniger Takt, ähnliche Multithread IPC (SMT kompensiert in-order), kein SIMD. Alter Schwede. Blöde Entscheidung.

Glaube ich gern. Wobei eben die Frage ist, wie gut man Xenon in der Realität wirklich ausgelastet kriegt, wenn die Vorteile in den bisherigen Multititeln gar nicht so groß sind.

Ansonsten hätte ich es natürlich auch lieber gesehen, wenn Nintendo eine moderne CPU gewählt und zusätzlich nochmal die alte Wii HW verbaut hätte. Wirklich eine fragwürdige Entscheidung, soweit ich das beurteilen kann.


edit:
"Da kann man sich doch als Käufer in den Arsch kneifen, sobald die Konkurrenz auf den Markt schlägt. "

Nintendo Slogan seit 1996 ;)

Naja. Die Nintendo-Designs vor der Wii hatten zwar auch alle ihre speziellen Schwächen, aber die Rechenleistung war schon immer ungefähr auf dem Niveau der Konkurrenz, teilweise auch drüber. Das hat sich erst mit der Wii geändert.

kunibätt
2012-11-29, 15:04:32
"Da kann man sich doch als Käufer in den Arsch kneifen, sobald die Konkurrenz auf den Markt schlägt. "

Nintendo Slogan seit 1996 ;)

robbitop
2012-11-29, 15:20:17
Ich meine, dass einige unserer 3DC-Jungs (die Konsolenentwickler sind), geschrieben haben, dass sich Xenos mit 6 Threads ganz gut auslasten ließen.

Gipsel
2012-11-29, 15:49:29
Ich meine, dass einige unserer 3DC-Jungs (die Konsolenentwickler sind), geschrieben haben, dass sich Xenos mit 6 Threads ganz gut auslasten ließen.
Bezog sich das nicht hauptsächlich auf die Verteilung auf 6 Threads inklusive datenintensivem "Number-Crunching"?

Schnappe sich mal einer die SPEC-Suite und kompiliere die für Xenon und Wii U und dann vergleichen wir mal mit einem PC. :D
Oder wir nehmen sowas wie den Sunspider-Benchmark als Maß für die (single-threaded) Integer-Leistungsfähigkeit (ist allerdings stark vom Browser und OS abhängig).

Edit:
Habe mal spaßenshalber gesucht, eine PS3 erreicht dort etwa 12% der Geschwindigkeit eines Core Duo T2600 (2.16GHz), der ist also 8 Mal so schnell. :freak:
Und weil Xenon praktisch nur aus drei der PS3-PPU-Kernen besteht (zumindest für Integer), der Test aber Single-threaded ist und die auch auf dem gleichen Takt laufen, hat man schon mal ungefähr einen Anhaltspunkt.

Edit2:
Der Browser war allerdings uralt (IE7), mit neueren Browsern nähert sich der Abstand eher fast Faktor 100 :freak: (das kann nicht nur die CPU sein, da spielt der olle PS3-Browser auich mit rein). Die Wii U erreicht dort in etwa 10% der Geschwindigkeit eine Core2 Duo E8400 (3GHz).

robbitop
2012-11-29, 15:53:41
Bezog sich das nicht hauptsächlich auf die Verteilung auf 6 Threads inklusive datenintensivem "Number-Crunching"?

Schnappe sich mal einer die SPEC-Suite und kompiliere die für Xenon und Wii U und dann vergleichen wir mal mit einem PC. :D
Nein IIRC war es Alphatier/Coda im Zusammenhang mit Spielen.

mboeller
2012-11-29, 15:54:56
Glaube ich gern. Wobei eben die Frage ist, wie gut man Xenon in der Realität wirklich ausgelastet kriegt, wenn die Vorteile in den bisherigen Multititeln gar nicht so groß sind.


imho falscher Vergleich. Die PS3 hat nur 1 Kern mit SMT. Dagegen sollten die 3 WiiU Kerne nicht mal so schlecht aussehen. Die SPE's sollen die Entwickler ja durch GPGPU ersetzen.

dildo4u
2012-11-29, 16:10:40
imho falscher Vergleich. Die PS3 hat nur 1 Kern mit SMT. Dagegen sollten die 3 WiiU Kerne nicht mal so schlecht aussehen. Die SPE's sollen die Entwickler ja durch GPGPU ersetzen.
Die Arbeit speziell zu optimieren macht sich kaum einer siehe PS3 Ports,die 360 wird für die ganzen Port's die Grundlage sein wie es schon die letzten 6 Jahre der Fall war.Davon ab ist die GPU nicht so viel besser das man 2 Bildschirme und dann noch massig GPGPU betreiben kann.Wenn man PhysX als Beispiel nimmt braucht man schon was um 1TFlop(GTX560Ti) damit es sich lohnt auf die GPU auszulagern,wenn auch noch gleichzeitig die Grafik gerendert werden soll.

Benches ganz unten.
http://www.pcgameshardware.de/Borderlands-2-PC-234034/Tests/Borderlands-2-Physx-Test-1026921/

Ringwald
2012-11-29, 17:48:11
1,3Ghz sind gemessen aber unter welchen Umständen, System Menü, Spiel, Browser? Möglich das die WiiU nur unter Spiele voll taktet aber im System Menü nicht. Jemand mit Twitter Account sollte mal marcan fragen.

dildo4u
2012-11-29, 18:18:51
Wird sich vermutlich nicht unterscheiden,der Stromverbrauch wurde schon gemessen Last und im Menü Unterscheiden sich um 2 Watt.

http://www.anandtech.com/show/6465/nintendo-wii-u-teardown

=Floi=
2012-11-29, 18:29:37
warum hat man dort die kleine cpu extra gehalten und nicht wie bei microsoft einen soc gebaut?

dildo4u
2012-11-29, 19:00:37
warum hat man dort die kleine cpu extra gehalten und nicht wie bei microsoft einen soc gebaut?
IBM fertigt in Masse nur 45nm,die GPU musste aber 40nm sein.

Lightning
2012-11-29, 19:07:30
http://i.imgur.com/jk88f.gif

Demnach keine neuen SIMD-Einheiten, nur ein Thread pro Kern, und die Taktrate stimmt schon so. Ich denke mal, der Typ ist glaubwürdig.

Coda
2012-11-29, 19:10:07
Nur blöd, dass die Xbox-360-CPU überhaupt nichts mit einem P4 zu tun hat.

Lightning
2012-11-29, 19:11:58
Nur blöd, dass die Xbox-360-CPU überhaupt nichts mit einem P4 zu tun hat.

Verstehe ich auch nicht ganz. Vielleicht meint er die lange Pipelinie (die ja per se nichts schlechtes sein muss)? Wieviele Stufen hat so ein PPE denn?

Ganon
2012-11-29, 19:13:40
Ach Nintendo. Jedes Mal das gleiche. Bei mobilen Spielekonsolen und bei richtigen...

Nicht zu vergessen, dass es auch jedes mal das Gleiche ist, dass die Leute hier im Forum sich selbst die Erwartungen so dermaßen hochschaukeln, dass man einfach nur enttäuscht sein kann, danach ;-)

Ich meine, nach der Wii und dem 3DS... war da eine leistungsfähige Hardware erwartet hat, hat einfach keinen Realitätssinn mehr. Sry, aber naja... ist so. ;)

Eine Konsole mit der Wunschleistung vieler hier und der gleichen Größe, wäre nix anderes als ein Heißluftföhn. Von daher wird das hier genauso laufen wie bei der Wii. Wer die Nintendo-Spiele spielen will, kauft sie sich und wer das nicht will, tut das eben nicht.

=Floi=
2012-11-29, 19:34:14
so etwas langsames hätte aber wohl niemand erwartet. bald ist ein iphone schneller als die wiiu...
gerade auch, weil es in den letzten jahren einen dermaßen großen wertverfall bei der hardware gegeben hat wünscht man sich einfach mehr und endlich mal den sprung zu brauchbarer hardware, welche einfach zeitgemäße konsolengrafik bietet und keinen 800x600er gewurschtel...

AnarchX
2012-11-29, 19:35:36
Verstehe ich auch nicht ganz. Vielleicht meint er die lange Pipelinie (die ja per se nichts schlechtes sein muss)? Wieviele Stufen hat so ein PPE denn?
Wohl eher der Bezug: hoher Takt, wenig IPC. Aber wenn der Power 750 nicht deutlich getunt wurde, dann stellt sich die Frage, ob man hier überhaupt mehr IPC hat. Ein Xenos ähnlicher Atom schafft es ja auch schon auf Pentium II IPC, wo man den Power 750 teilweise sieht.

Nicht zu vergessen, dass es auch jedes mal das Gleiche ist, dass die Leute hier im Forum sich selbst die Erwartungen so dermaßen hochschaukeln, dass man einfach nur enttäuscht sein kann, danach

Nintendo hat mit dem 3rd-Party-Support geworben, dass man hier die PS360 zum Teil unterbietet hat man nicht erwartet.

Ganon
2012-11-29, 20:04:17
so etwas langsames hätte aber wohl niemand erwartet. bald ist ein iphone schneller als die wiiu...

Echt nicht? Ich schon. Als die Wii rauskam war auch alles andere auf der Welt schneller. Und im Vergleich zur Wii ist der Sprung schon recht groß (im Gegensatz zu GC->Wii). Von daher... zur Erinnerung: Die Wii hat nicht mal typische Vertex/PixelShader. Nur etwas, was "nah dran ist", aber nicht wirklich ist.

Und ob jetzt CPU x in Gerät y schneller ist... wayne. Wie ich sagte, der der Nintendo-Spiele spielen will, der kauft sich so ein Ding und gut ist.

Man braucht da jetzt auch nicht allzu scheinheilig zu tun. Viele hier haben eine XBOX und eine PS (und dann noch einen Spiele-PC), obwohl beide (bzw. drei) meistens die gleichen Spiele bekommen. Da tut die Kombi [XBOX|PS] und WiiU jetzt auch nichts dramatisch dran ändern. Ich persönlich habe eine XBOX360 und eine Wii und fühle mich außer ein paar PS3-Spielen "abgedeckt". Abgedeckter, als mich die Kombi XBOX PS3 machen würde, meiner Meinung nach.

Der Wunschgedanke "eine Konsole für alle Spiele" ist eh hinfällig, da jede Konsole ihre exklusiven Titel hat. Von daher verstehe ich persönlich das große gejammere hier nicht. Es entgeht hier ja niemandem ein "3rd-Party Spiel", nur weil die WiiU eine schwache Hardware hat, denn er hat ja noch eine XBOX360, PS3 oder einen PC und wird sich wahrscheinlich auch deren Nachfolger kaufen.

Exxtreme
2012-11-29, 20:22:05
http://www.gamersglobal.de/news/61801/usa-xbox-360-schlaegt-wiiu-in-der-black-friday-woche

Tja, das Ding muss sich im Endeffekt dann doch mit den bestehenden Konsolen messen. Und den Vergleich kann es kaum gewinnen. Ich rechne damit, dass die Preise für die Nintendo-Konsole recht schnell fallen werden.

Ganon
2012-11-29, 20:27:53
Tja, das Ding muss sich im Endeffekt dann doch mit den bestehenden Konsolen messen.

Da würde ich aber warten, bis es nicht gerade eine "ausverkaufte" Launch-Woche ist.

Ganon
2012-11-29, 20:35:25
Wenn ich so einen "Grafikfetisch" hätte, wie die meisten hier, würde mich ja der große Erfolg der XBOX360 ja momentan eher mehr beunruhigen als die schwache Hardware der WiiU, im Bezug auf "zukünftige Spiele bekommen ein höheres Tech-Level". ;)

Finch
2012-11-29, 20:55:02
Wenn ich so einen "Grafikfetisch" hätte, wie die meisten hier, würde mich ja der große Erfolg der XBOX360 ja momentan eher mehr beunruhigen als die schwache Hardware der WiiU, im Bezug auf "zukünftige Spiele bekommen ein höheres Tech-Level". ;)

Ein Techlevel das genau wo angewendet werden soll? Dann wenn die PS4 und die X720 DX11.(1) haben und leistungstechnisch in einer ganz anderen Welt spielen?

Ganon
2012-11-29, 21:01:19
Ein Techlevel das genau wo angewendet werden soll? Dann wenn die PS4 und die X720 DX11.(1) haben und leistungstechnisch in einer ganz anderen Welt spielen?

>Wenn< sie es denn tun... ist ja auch noch alles Vermutung wie bei der WiiU damals.

Aber wenn die XBOX360 eine derart hohe Verbreitung hat, dann kann es ebenso passieren, dass das Techlevel ebenso noch auf XBOX360 Niveau bleibt, wegen der größeren Basis und die Nachfolger nur "seichte" Upgrades bekommen. (zumindest eine gewisse Zeit lang)

Spieleentwicklung wird nicht billiger, darf man ja auch nicht vergessen.

kunibätt
2012-11-29, 21:07:08
Dass viele (alle?) Spiele auf der 360 aber besser aussehen, hast du aber mitbekommen, oder ?

Ganon
2012-11-29, 21:16:12
Dass viele (alle?) Spiele auf der 360 aber besser aussehen, hast du aber mitbekommen, oder ?

Äh, ja, und, Kontext?

starfish
2012-11-29, 21:23:21
>Wenn< sie es denn tun... ist ja auch noch alles Vermutung wie bei der WiiU damals.

Aber wenn die XBOX360 eine derart hohe Verbreitung hat, dann kann es ebenso passieren, dass das Techlevel ebenso noch auf XBOX360 Niveau bleibt, wegen der größeren Basis und die Nachfolger nur "seichte" Upgrades bekommen. (zumindest eine gewisse Zeit lang)

Spieleentwicklung wird nicht billiger, darf man ja auch nicht vergessen.

Siehe das neue Bungie Spiel Destiny.

Felixxz2
2012-11-29, 21:23:38
Der Punkt ist doch, dass man nicht ne Konsole rausbringen kann die in der Praxis langsamer ist als 7 Jahre alte Konsolen. Die Wii damals war wie schon erwähnt schneller als PS2/GC/Xbox. Die Wii U ist es aber nicht und schafft es nichtmal gegen 2005er Hardware. Das ist einfach nur peinlich und würgt den 3rd Party Support für Current Gen ja schon ab (Metro...). Wie sollen denn jemals Games gleichzeitig für Wii U und Xbox 720/PS4 rauskommen? Völlig unmöglich, wenn schon ne 360 CPU schneller als die Wii U ist und die 720 wird diese Leistung nochmals drastisch steigern.

dildo4u
2012-11-29, 21:34:34
>Wenn< sie es denn tun... ist ja auch noch alles Vermutung wie bei der WiiU damals.

Aber wenn die XBOX360 eine derart hohe Verbreitung hat, dann kann es ebenso passieren, dass das Techlevel ebenso noch auf XBOX360 Niveau bleibt, wegen der größeren Basis und die Nachfolger nur "seichte" Upgrades bekommen. (zumindest eine gewisse Zeit lang)

Spieleentwicklung wird nicht billiger, darf man ja auch nicht vergessen.
Es werden schon Games/Engine's Entwickelt,die nich mehr für 360 kommen paar wurden schon gezeigt.(Star Wars 1313,oder die Luminus Engine Demo)
Und das sind Thrid Partys.MS und Sony werden zum Launch natürlich weitere Exklusive Games haben,die nur für die neuen Konsolen kommen.Da müssen und werden sie liefern,da wie beim Wii-U kaum jemand ne Konsole für Ports kaufen wird.

Ganon
2012-11-29, 21:35:00
Naja, sooooo viel schneller war die Wii jetzt aber auch nicht. Zumindest sind die grafischen Unterschiede zwischen XBOX1, GC und Wii recht klein. Wundert ja auch nicht, sind ja nur ~250Mhz CPU mehr bzw. ~60Mhz mehr GPU (im Vergleich zum GameCube) und ein bisschen mehr Speicher. Und das Feature-Set war sogar deutlich kleiner im Vergleich zur XBOX1 (keine typischen Shader).

Also ich würde den Punkt "besiegt aktuelle Generation nicht" jetzt nicht so also "ist noch nie passiert" hervorheben.

Lightning
2012-11-29, 21:35:21
Der Punkt ist doch, dass man nicht ne Konsole rausbringen kann die in der Praxis langsamer ist als 7 Jahre alte Konsolen. Die Wii damals war wie schon erwähnt schneller als PS2/GC/Xbox. Die Wii U ist es aber nicht und schafft es nichtmal gegen 2005er Hardware.

Schneller als PS2 und GC war die Wii schon, aber als die Xbox? Imo nur bedingt. Waren auf jedenfall alle in "Reichweite".
Einen kleinen Vorteil hat die Wii U gegenüber der Wii: Man ist dieses Mal mindestens ein Jahr früher rausgekommen als die Konkurrenz. Die Wii kam ja ein Jahr später als die 360.

Das ist einfach nur peinlich und würgt den 3rd Party Support für Current Gen ja schon ab (Metro...). Wie sollen denn jemals Games gleichzeitig für Wii U und Xbox 720/PS4 rauskommen? Völlig unmöglich, wenn schon ne 360 CPU schneller als die Wii U ist und die 720 wird diese Leistung nochmals drastisch steigern.

Die CPU-Leistung wird aber wahrscheinlich nicht mehr in dem Maße ansteigen wie beim vorigen Generationswechsel, und GPU-seitig ist man wenigstens seitens des Featuresets nicht mehr ganz so weit abgeschlagen.
Ich gebe dir natürlich dennoch recht: Portierungen werden wieder sehr schwer; vielleicht nicht ganz so sehr wie bei der Wii, aber dennoch genug, sodass viele Entwickler dadurch abgeschreckt werden.

Nightspider
2012-11-29, 21:39:11
Digital Foundry erwähnt nichts von schärferen Texturen. Einzig das FXAA kommt also hinzu, dafür bedeutend schlechtere Performance.
Wenn ich das richtig sehe steht es damit momentan 3:0 für die Xbox 360.

Guckst du Bilder von der Seite:

Wii-U:
http://images.eurogamer.net/2012/articles//a/1/5/3/1/2/6/0/wiiu_001.png
360:
http://images.eurogamer.net/2012/articles//a/1/5/3/1/2/6/0/360_001.png

Zumindest sind die 2 Plakete mit dem "We want you!" Typen auf der 360 total unscharf.

Felixxz2
2012-11-29, 21:41:22
Schneller als PS2 und GC war die Wii schon, aber als die Xbox? Imo nur bedingt. Waren auf jedenfall alle in "Reichweite".
Einen kleinen Vorteil hat die Wii U gegenüber der Wii: Man ist dieses Mal mindestens ein Jahr früher rausgekommen als die Konkurrenz. Die Wii kam ja ein Jahr später als die 360.


Stimmt Xbox hatte programmierbare Shader, Wii nicht.


Die CPU-Leistung wird aber wahrscheinlich nicht mehr in dem Maße ansteigen wie beim vorigen Generationswechsel, und GPU-seitig ist man wenigstens seitens des Featuresets nicht mehr ganz so weit abgeschlagen.
Ich gebe dir natürlich dennoch recht: Portierungen werden wieder sehr schwer; vielleicht nicht ganz so sehr wie bei der Wii, aber dennoch genug, dass viele Entwickler dadurch abgeschreckt werden.

Klar steigt CPU Leistung nicht wie GPU Leistung, aber wenn man von den oft zitierten 8 Jaguars ausgeht und die bei 2-2,5GHz, dann kannst du die Wii U voll in die Tonne haun. Selbst bei keinem/wenig Multithreading wird man bei >2x Leistung rauskommen und wenn man die Jaguars wirklich nutzt fürs Gameplay, dann kann man Wii U Ports komplett vergessen. Das wird dann wohl auch nicht mehr mit mehr Aufwand zu lösen sein.

Lightning
2012-11-29, 21:45:33
Guckst du Bilder von der Seite:

Wii-U:
http://images.eurogamer.net/2012/articles//a/1/5/3/1/2/6/0/wiiu_001.png
360:
http://images.eurogamer.net/2012/articles//a/1/5/3/1/2/6/0/360_001.png

Zumindest sind die 2 Plakete mit dem "We want you!" Typen auf der 360 total unscharf.

Vielleicht ist da gerade das Streaming auf der 360 nicht hintergekommen (wobei ich da eigentlich auch negatives von der Wii U-Version gelesen habe, aber das Verhalten kann halt einfach unterschiedlich sein). Würde ich jetzt jedenfalls nicht so viel drauf geben.

Stimmt Xbox hatte programmierbare Shader, Wii nicht.

Einerseits das, andererseits war der 733 MHz Coppermine auch nicht so übel.

Klar steigt CPU Leistung nicht wie GPU Leistung, aber wenn man von den oft zitierten 8 Jaguars ausgeht und die bei 2-2,5GHz, dann kannst du die Wii U voll in die Tonne haun. Selbst bei keinem/wenig Multithreading wird man bei >2x Leistung rauskommen und wenn man die Jaguars wirklich nutzt fürs Gameplay, dann kann man Wii U Ports komplett vergessen. Das wird dann wohl auch nicht mehr mit mehr Aufwand zu lösen sein.

Stimmt alles, aber ich sagte ja nur, dass der Abstand zwischen Wii und PS360 wahrscheinlich noch etwas größer war.

Gipsel
2012-11-29, 21:45:49
Klar steigt CPU Leistung nicht wie GPU Leistung, aber wenn man von den oft zitierten 8 Jaguars ausgeht und die bei 2-2,5GHz,Rechne mal lieber mit <2 GHz (1,6+x GHz). 2 GHz wäre vermutlich wirklich das höchste der Gefühle mit Jaguar.

Felixxz2
2012-11-29, 21:50:58
Guckst du Bilder von der Seite:

Wii-U:
http://images.eurogamer.net/2012/articles//a/1/5/3/1/2/6/0/wiiu_001.png
360:
http://images.eurogamer.net/2012/articles//a/1/5/3/1/2/6/0/360_001.png

Zumindest sind die 2 Plakete mit dem "We want you!" Typen auf der 360 total unscharf.

Bis auf FXAA seh ich da nix.


@Lightning
Kann gut sein, aber der Abstand Wii U <-> NextGen wird denke ich unüberwindbar.

@Gipsel
Ok, wäre dann aber ja trotzdem noch weit schneller als die Wii U. Wie steht denn ein Jaguar wschl so in Sachen IPC zu Espresso?

dildo4u
2012-11-29, 21:51:31
Die AMDs APU sind schon Heute schweine billig,gibt kein Grund nicht Trinity zu nehmen.Es ist viel logischer 2 Module zu haben als 8 Kerne wo man wieder Probleme hat die auszulasten.Unter 28nm sollte man weit über 3.5Ghz kommen selbst wenn man sich auf 50-60 Watt beschränkt.

Der 5700 ist schon in 32nm bei 3.4Ghz und 65Watt und das mit GPU.
http://www.computerbase.de/artikel/prozessoren/2012/alle-desktop-trinity-im-cpu-vergleichstest/2/

Nightspider
2012-11-29, 21:59:03
Bis auf FXAA seh ich da nix.


Brille. Fielmann.
http://www.abload.de/img/wiiu36067za9.jpg

dildo4u
2012-11-29, 22:01:18
Das Streaming spinnt noch nie ein UE 3.0 Game gezockt?

krötenfresse
2012-11-29, 22:02:38
Die CPU-Leistung wird aber wahrscheinlich nicht mehr in dem Maße ansteigen wie beim vorigen Generationswechsel
wenn die wii-u tatsächlich selbst der jetztigen gen bei der cpu-leistung hinterherhinkt, dann genügt der abstand völlig.

Nightspider
2012-11-29, 22:02:38
Das Streaming spinnt noch nie ein UE 3.0 Game gezockt?


Auf Konsole noch nie - nein.

Also sind das einfach Bugs und hat nichts mit der Leistung zu tun? Oo

dildo4u
2012-11-29, 22:07:34
Doch langsamer Speicher könnte ein Grund sein warum es streaming Probleme auf Wii-U gibt,bei der 360 ist es das langsame Laufwerk was bei Wii-U laut Nintendo schneller sein soll.

Ganon
2012-11-29, 22:07:58
Auf Konsole noch nie - nein.

Also sind das einfach Bugs und hat nichts mit der Leistung zu tun? Oo

Das sind keine Bugs, sondern die Konsole schafft es schlicht nicht die Daten schnell genug nachzuladen und somit kommt erst mal eine matschige Variante zum Einsatz, die dann On-the-fly ausgetauscht wird. Das hat man auf Konsole in so gut wie jedem UE3-Spiel. (auf der XBOX sogar, wenn man das Spiel auf Festplatte installiert hat)

Felixxz2
2012-11-29, 22:08:09
Das gibts selbst am PC diese Streaming Probleme. Abe rguck dir mal Mass Effect 1 auf ner Xbox an. Neuer Raum heißt immer erstmal 10 sek warten bis auch die Texturen da sind :freak:

dildo4u
2012-11-29, 22:09:03
wenn die wii-u tatsächlich selbst der jetztigen gen bei der cpu-leistung hinterherhinkt, dann genügt der abstand völlig.
Nich zu vergessen wenn es wirklich ne AMD CPU wird,kann jedes Game AVX Optimierungen nutzen man muss nich wie am PC drauf achten Fallbacks für alte CPU's zu haben.

starfish
2012-11-29, 22:11:28
Das gibts selbst am PC diese Streaming Probleme. Abe rguck dir mal Mass Effect 1 auf ner Xbox an. Neuer Raum heißt immer erstmal 10 sek warten bis auch die Texturen da sind :freak:

Dishonored.
Extrem das Problem auf der Xbox.

Ganon
2012-11-29, 22:17:52
Dishonored.
Extrem das Problem auf der Xbox.

Das ist übrigens auch der Grund, warum mir Wii-Spiele (grafisch) deutlich besser gefallen, als die XBOX360 und Co. Spiele. Skyward Sword, Mario Galaxy, Metroid und Co. mögen nun echt nicht "realistisch" aussehen oder gar "scharf", aber man hat diese verdammte Streaming scheiße nicht. Alles ist da stimmig.

In fast jedem "gut aussehenden" Spiel hat man das. Du gehst in einen Raum und stehst vor Matsch auf N64-Niveau, der dann nach und nach besser wird. Das zerstört, zumindest bei mir, jegliches Spielgefühl. Mass Effect ist da ganz schlimm, Gears of War ebenso. Die Empfehlung die man mir gegeben hatte, war die Spiele nicht auf 720p zu spielen :ugly:

Aber ich stehe mit der Meinung schon alleine da, ich weiß. ;)

Felixxz2
2012-11-29, 22:18:34
Hab ich noch nicht gezockt, aber kenne die Ausmaße dieses "Features" :freak:

Ganon
2012-11-29, 22:25:32
Wer es nicht kennt:

GoW
http://www.youtube.com/watch?v=pDUkgxNkCBk

ME
http://www.youtube.com/watch?v=PTkbvZpsOfA

So sieht "Next Gen" aus :ugly:

krötenfresse
2012-11-29, 22:27:19
so etwas langsames hätte aber wohl niemand erwartet. bald ist ein iphone schneller als die wiiu...
Echt nicht? Ich schon. Als die Wii rauskam war auch alles andere auf der Welt schneller. Und im Vergleich zur Wii ist der Sprung schon recht groß (im Gegensatz zu GC->Wii). Von daher... zur Erinnerung: Die Wii hat nicht mal typische Vertex/PixelShader. Nur etwas, was "nah dran ist", aber nicht wirklich ist.

die erste wii war aber auch keine richtige neuentwicklung von der konsolen-hardware her, sondern ein hochgezüchteter gamecube.

diesmal ist es aber eine neue hardware und da bringt man etwas, was deutlich schwächer ist als 7 jahre alte konkurrenz?

dildo4u
2012-11-29, 22:30:02
Wer es nicht kennt:

GoW
http://www.youtube.com/watch?v=pDUkgxNkCBk

ME
http://www.youtube.com/watch?v=PTkbvZpsOfA

So sieht "Next Gen" aus :ugly:
Das Problem kann man lösen in dem Mann eine Textur Installation zulässt BF3 nutzt das auf 360 und PS3.Das wird auf 360 leider selten genutzt,weil viele Konsolen ohne große Platte verkauft werden.Weil jede PS3 ne Festplatte oder mindesten ne 12GB SSD hat,nutzen dort viele Entwickler Teilinstallationen um das zu umgehen.

Ganon
2012-11-29, 22:30:22
diesmal ist es aber eine neue hardware und da bringt man etwas, was deutlich schwächer ist als 7 jahre alte konkurrenz?

So wie ich das lese ist das die gleiche CPU wie in der Wii (PPC 750), nur mit 3 Kernen, statt einem und doppeltem Takt. Und die GPU ist wohl auch nur im Techlevel gestiegen, da die Wii ja nicht emuliert wird.

Also so viel Abweichung kann es da nicht geben.

Ringwald
2012-11-29, 22:31:25
Am schlimmsten war GTA4 wo es sogar das Gameplay geschadet hat.
http://www.youtube.com/watch?v=TFFx39bgPWk

Ganon
2012-11-29, 22:32:16
Das Problem kann man lösen in dem Mann eine Textur Installation zulässt BF3 nutzt das auf 360 und PS3.

Aber auch wenn man die Spiele auf Festplatte installiert, halbiert sich die Ladezeit vllt., aber immernoch deutlich sichtbar (ich habe aufgrund des ohrenbetäubenden Laufwerks alle Spiele nur installiert gespielt).

Aber sei es drum, woran es liegt, vorhanden ist das Problem.

Gipsel
2012-11-29, 22:40:01
Die AMDs APU sind schon Heute schweine billig,gibt kein Grund nicht Trinity zu nehmen.Es ist viel logischer 2 Module zu haben als 8 Kerne wo man wieder Probleme hat die auszulasten.
Und wie werden jetzt auf der XBox360 6 Threads ausgelastet? 8 Kerne wären da wohl kaum eine große Herausforderung.

Und Du verwechselst da was mit den Preisen für heutige AMD-APUs. Die niedrigen Preise drücken auf die Marge und den Gewinn bei AMD. Die Kosten für die Produktion der Konsolen APUs/SoCs drücken aber auf die Marge von MS und Sony, nicht mehr der von AMD. AMD bekommt sehr wahrscheinlich eine Einmalsumme für die Entwicklung und dann noch eine (relativ niedrige, ~10$?) Lizenzgebühr für jeden verkauften Chip bzw. Konsole. Die kaufen keine Chips von AMD sondern lizensieren ein Design. Produktion und die Kosten dafür liegen in der Verantwortung von MS/Sony. Die werden also schon sehr stark auf die Größen Performance/Fläche und Performance/Watt schauen (alles was die CPU mehr verbraucht, muß man bei der GPU kürzen, da die zusammen wohl ein festes Powerbudget haben [~150W?]), um das geeignete Design auszuwählen.

dildo4u
2012-11-29, 22:49:52
Aber auch wenn man die Spiele auf Festplatte installiert, halbiert sich die Ladezeit vllt., aber immernoch deutlich sichtbar (ich habe aufgrund des ohrenbetäubenden Laufwerks alle Spiele nur installiert gespielt).

Aber sei es drum, woran es liegt, vorhanden ist das Problem.
Die Engine ist das Problem nicht die Hardware,selbst am PC gabs öfter Probleme mit UE 3.0 Games.Es kann gelöst werden siehe BF3.

http://www.eurogamer.net/articles/digitalfoundry-face-off-battlefield-3?page=3

Wenn Nintendo solche Installationen nich bald zulässt hat man vermutlich wieder das Nachsehen was das Streaming angeht.Leider scheint Third Party alle Möglichkeiten zu geben wieder nich ganz oben auf Nintendos Liste zu stehen.

Und wie werden jetzt auf der XBox360 6 Threads ausgelastet? 8 Kerne wären da wohl kaum eine große Herausforderung.

Wer sagt das oft 6 Thread's genutzt werden?Das ist extrem selten,die PC Ports zeigen das eigentlich immer wieder.

Gipsel
2012-11-29, 23:57:56
Wer sagt das oft 6 Thread's genutzt werden?Das ist extrem selten,die PC Ports zeigen das eigentlich immer wieder.
Also die Spieleentwickler hier im Forum sagen, daß gehe sehr gut mit Xenon und haben auch Gründe dafür genannt, warum das beim PC anders ist (kurz: keine geschlossene Plattform und deswegen keine gezielte Tuningmöglichkeit auf die Geschwindigkeit und Anzahl der Threads).

dargo
2012-11-30, 00:01:43
Wer es nicht kennt:

GoW
http://www.youtube.com/watch?v=pDUkgxNkCBk

ME
http://www.youtube.com/watch?v=PTkbvZpsOfA

So sieht "Next Gen" aus :ugly:
Lol... das ist mir auch neu. :D

Screemer
2012-11-30, 01:14:32
und da ham sich die leute über rage aufgeregt?!

dargo
2012-11-30, 01:40:44
und da ham sich die leute über rage aufgeregt?!
Naja... ich habe mich am PC über Rage aufgeregt. Denn sowas ist mir noch in keinem Spiel untergekommen. Von den Konsoleros kam afaik keine Kritik diesbezüglich. ;)

Nightspider
2012-11-30, 04:11:32
Ich wusste bisher auch noch nicht, wie grauenvoll die PS360 in diversen Spielen nachladen.
Jetzt stehen die beiden Konsolen bei mir noch schlechter im Licht als schon zuvor. :ugly:

Jetzt frage ich mich aber auch, warum Nintendo nicht einfach in jede Wii-U eine 250GB Platte für 20 Euro verbaut hat. Damit könnte man in jedem Wii-U Spiel viel auf die Festplatte auslagern, wodurch man mehr Speed und eine gringere Geräuschemission hätte.

Lightning
2012-11-30, 09:03:16
Jetzt frage ich mich aber auch, warum Nintendo nicht einfach in jede Wii-U eine 250GB Platte für 20 Euro verbaut hat. Damit könnte man in jedem Wii-U Spiel viel auf die Festplatte auslagern, wodurch man mehr Speed und eine gringere Geräuschemission hätte.

Es ist bekannt, dass mehrere GB des internen Flash-Speichers fürs System reserviert sind. Vielleicht zum Teil genau für diesen Zweck? Könnte ja reichen.

Ansonsten gilt dieses Streaming-Verhalten auf PS360 natürlich nur für manche Spiele, die UE3 scheint sich da in der Tat besonders hervorzutun. Hatte ich auch schon in manchen älteren PC-Versionen beobachten können (UT3, ME1, Last Remnant).

Ringwald
2012-11-30, 09:21:07
Vermute der freie Platz dient als schnelle(?) Swap Partition, aber bringt das was?

Deinorius
2012-11-30, 09:21:35
Jetzt frage ich mich aber auch, warum Nintendo nicht einfach in jede Wii-U eine 250GB Platte für 20 Euro verbaut hat. Damit könnte man in jedem Wii-U Spiel viel auf die Festplatte auslagern, wodurch man mehr Speed und eine gringere Geräuschemission hätte.


Die wollten nicht mal läppische 10-20 $ für eine (deutlich) bessere CPU aufwenden und du fragst wegen einer HDD. :freak:

gnomi
2012-11-30, 09:36:23
Dieses Reinladen nach dem Ladevorgang bei der UE 3 gab es erstmals sogar schon in Unreal Championship 2. (UE2.X)
Hier stört es nur nicht, weil "Press Start to Continue" erst kam, nachdem die besseren Texturen geladen waren. (Flyby durch die Map ging aber eben schon ein paar Sekunden früher)
Das liegt definitiv an deren Streaming System. (die waren auch so mit die ersten mit so was und haben auch deshalb viele Lizenzen verkauft)
Auf schnellen PC Systemen mit SSD oder in optimierten Spielen (wenn an den Einstellungen mal was gedreht wird und die Spiele installiert sind) ist das nicht sonderlich auffällig.
Die WiiU kann dafür nichts.
Gespannt bin ich jedoch, ob Epic diese Eigenart mit der nächsten Engine Fassung abgeschafft bekommt.