PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wii U - Hardware-Spekulation


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11

Spasstiger
2012-11-30, 09:39:14
und da ham sich die leute über rage aufgeregt?!
Tjo, Rage kann man am PC wenigstens so hintweaken, dass es nicht nervt. Bin eigentlich ziemlich überrascht, was Rage aus meinem Notebook an guter Grafik bei spielbaren Frameraten rauskitzelt.
Auf der Wii U sollte man angesichts der üppigen Speicherausstattung auch erwarten können, dass Texturen in angemessener Zeit dargestellt werden, vor allem bei einem Non-Open-World-Spiel. Bei UT3 am PC beobachtet man das Nachladen von Texturen nur kurz direkt nach dem Laden eines Levels. Und dafür reicht schon eine 256-MiB-Grafikkarte.

robbitop
2012-11-30, 10:37:43
so etwas langsames hätte aber wohl niemand erwartet. bald ist ein iphone schneller als die wiiu...
gerade auch, weil es in den letzten jahren einen dermaßen großen wertverfall bei der hardware gegeben hat wünscht man sich einfach mehr und endlich mal den sprung zu brauchbarer hardware, welche einfach zeitgemäße konsolengrafik bietet und keinen 800x600er gewurschtel...
Die CPU im iPhone könnte sogar fast schneller sein. Die GPU wohl aber nicht.
Und genau das finde ich wirklich enttäuschend. Leistungsfähige HW habe ich nicht erwartet. Aber zumindest leicht über dem Niveau der jetzigen Konsolen.

tobor
2012-11-30, 11:16:25
Ein Techlevel das genau wo angewendet werden soll? Dann wenn die PS4 und die X720 DX11.(1) haben und leistungstechnisch in einer ganz anderen Welt spielen?

Microsoft und Sony haben zusammen circa 140 Millionen Einheiten der gegenwärtigen Konsolen verkauft. Kein Spielentwickler mit Verstand wird diesen Markt vernachlässigen,auch nach dem Start der neuen Konsolen nicht. Wenns "schlimm" kommt,werden die Ps4 und die nächste Xbox ein bis zwei Jahre dasselbe bekommen wie Pc-Versionen heute. Aufgehübschte Ports mit besseren Texturen,Af und Antialiasing.

Telema
2012-11-30, 16:24:15
Microsoft und Sony haben zusammen circa 140 Millionen Einheiten der gegenwärtigen Konsolen verkauft. Kein Spielentwickler mit Verstand wird diesen Markt vernachlässigen,auch nach dem Start der neuen Konsolen nicht. Wenns "schlimm" kommt,werden die Ps4 und die nächste Xbox ein bis zwei Jahre dasselbe bekommen wie Pc-Versionen heute. Aufgehübschte Ports mit besseren Texturen,Af und Antialiasing.

Das ist doch Quark....das wäre das erste mal das sowas eintreten würde. Als PS 3 und die 360 raus kamen, waren die meisten Spiele auf der 360 Entwickelt und wird auf PS2 runter gebrochen. Die Wii Version war evtl noch ein technischer Poer von der PS2 und gut wars.

Nakai
2012-11-30, 16:42:47
Die CPU im iPhone könnte sogar fast schneller sein. Die GPU wohl aber nicht.
Und genau das finde ich wirklich enttäuschend. Leistungsfähige HW habe ich nicht erwartet. Aber zumindest leicht über dem Niveau der jetzigen Konsolen.

Nintendo hätte sich nen netten SOC basteln können. Ich meine, dass es wirklich genug Firmen gibt, die da Nintendo unter die Arme helfen hätten können.
Cortex A9 Quadcore, SGX554MP8 und OnDie-EDRAM sollten möglich gewesen sein.
Aber Nintendo entscheidet sich für nen anderen Weg, für den schlechteren Weg.
Ich frag mich manchmal, wer bei Nintendo für solche Entscheidungen verantwortlich ist.

Skysnake
2012-11-30, 17:01:15
Und? Ja Sie hätten vieles anders/besser(?) machen können, aber ist es falsch gewesen was Sie gemacht haben?

Wenn man sich anschaut, dass die WiiU in den USA ausverkauft ist, und Nintendo fast schon mit dem Verkauf der Konsole allein Gewinn macht, dann kanns eigentlich gar nicht so schlecht gewesen sein, was Sie gemacht haben.

Ihr Geld werden Sie machen, das steht recht sicher fest.

Und ich habe noch immer die Hoffnung, das eben 2-3 Jahre nach dem Start der PS4 bereits ein Refresh der WiiU kommt, der die Konsole dannn wieder auf den Stand der PS4 usw hieft.

Nakai
2012-11-30, 17:36:39
Und? Ja Sie hätten vieles anders/besser(?) machen können, aber ist es falsch gewesen was Sie gemacht haben?

Die Frage ist eher, was haben sie richtig gemacht?

Wenn man sich anschaut, dass die WiiU in den USA ausverkauft ist, und Nintendo fast schon mit dem Verkauf der Konsole allein Gewinn macht, dann kanns eigentlich gar nicht so schlecht gewesen sein, was Sie gemacht haben.

Das ist auch verständlich. Der Launch war dennoch schlechter, als der, der Wii.
Nintendo hat die Fehler, welche man mit dem GC und dem N64 gemacht hat, nicht vergessen. Die Hardware muss praktisch immer profitabel verkauft werden.
Ich frage mich eher, wie man mit dieser billigen und veralteten Hardware, erst mit einem Spiel profitabel ist.

Ihr Geld werden Sie machen, das steht recht sicher fest.

Abwarten. Nintendo ist unfassbar von den Hardwareverkäufen abhängig. Noch mögen sie profitabel sein. Brechen die Verkäufe ein, dann ist Nintendo sehr schnell in der Verlustzone. Aber ich gebe dir recht, in den nächsten 2 Jahren sehe ich kein finanzielles Problem bei Nintendo. Erst wenn die Konkurrenz Gas gibt, dann könnte die Wii U ins Hintertreffen kommen.

Und ich habe noch immer die Hoffnung, das eben 2-3 Jahre nach dem Start der PS4 bereits ein Refresh der WiiU kommt, der die Konsole dannn wieder auf den Stand der PS4 usw hieft.

Das ist nicht unwahrscheinlich. Nintendo hat das schon bei ihren Handhelden gemacht. Siehe Nintendo DSi.
Nur muss Nintendo es schaffen die alte Kundschaft nicht zu vergraulen. Ich könnte mit vorstellen, dass die Mehrperformance eines Wii U Refresh eher nicht wirklich benutzt wird.

Ich bin da seeehr skeptisch, was die Wii U betrifft. Man kann sich nicht mehr so sehr von der Konkurrenz abheben.

Finch
2012-11-30, 17:40:57
vergiss bitte nicht das die 450k in den USA nichts aussagt. Geringe Mengen in den Ausverkauf zu bringen ist nicht die Kunst. Das erste Quartal bzw. das erste Jahr ist da viel interessanter.

Wenn man sieht das jeweils mehr PS3 und mehr Xbox360 Konsolen über den Ladentisch gegangen sind, dann ist das schon traurig. Sicher es wäre mehr gewesen, wenn es mehr gegeben hätte, aber es gab nun mal nicht mehr.

Telema
2012-11-30, 17:46:44
Die Frage ist eher, was haben sie richtig gemacht?



Das ist auch verständlich. Der Launch war dennoch schlechter, als der, der Wii.
Nintendo hat die Fehler, welche man mit dem GC und dem N64 gemacht hat, nicht vergessen. Die Hardware muss praktisch immer profitabel verkauft werden.
Ich frage mich eher, wie man mit dieser billigen und veralteten Hardware, erst mit einem Spiel profitabel ist.



Abwarten. Nintendo ist unfassbar von den Hardwareverkäufen abhängig. Noch mögen sie profitabel sein. Brechen die Verkäufe ein, dann ist Nintendo sehr schnell in der Verlustzone. Aber ich gebe dir recht, in den nächsten 2 Jahren sehe ich kein finanzielles Problem bei Nintendo. Erst wenn die Konkurrenz Gas gibt, dann könnte die Wii U ins Hintertreffen kommen.



Das ist nicht unwahrscheinlich. Nintendo hat das schon bei ihren Handhelden gemacht. Siehe Nintendo DSi.
Nur muss Nintendo es schaffen die alte Kundschaft nicht zu vergraulen. Ich könnte mit vorstellen, dass die Mehrperformance eines Wii U Refresh eher nicht wirklich benutzt wird.

Ich bin da seeehr skeptisch, was die Wii U betrifft. Man kann sich nicht mehr so sehr von der Konkurrenz abheben.


Der DSI war aber nur optisch überarbeitet. Technisch wars der gleiche.

Daher glaub ich kaum das es in 2-3 Jahren eine technisch bessere Version geben wird.

Steffko
2012-11-30, 17:54:53
Der DSi war technisch schon überarbeitet, hatte stärkeren Prozzi, mehr Arbeitsspeicher und noch en bissal anderen Krimskrams. Nur wurde das Zeuch nicht so genutzt, wie Nakai/Skysnake das meinen, nämlich gerade nicht für Spiele, sondern für das Betriebssystem, DSi Ware etc.

Eine technisch aufgebohrte Wii U in 2, 3 Jahren halte ich ehrlich gesagt für ausgeschlossen. Man fängt dann wieder bei 0 Usern an und das kann man sich eigentlich nicht leisten. Im Endeffekt geht Nintendo ja die Wette ein, dass das Gamepad mit dem Screen mehr Nutzer ziehen wird, als die entsprechende Kohle in stärkere Hardware zu stecken. Bei Wii und der Wiimote hatten sie dahingehend recht. Ob das wieder so sein wird, werden wir die nächsten paar Jahre ja feststellen.

Skysnake
2012-11-30, 18:04:08
Ich sagte 2-3 Jahre NACH PS4 Start... Das sind von heute an 3-4 Jahre. Das ist ne ganzes Stück an Zeit.

Zudem, welches Problem hat Nintendo mit "vergraulter" Kundschaft, wenn eh keiner mehr, oder zumindest viel zu wenige, die Spiele noch kaufen?

Zudem kann man die WiiU eben dann immer noch parallel weiter laufen lassen wie aktuell mit der Wii(Mini). Man hat dann halt praktisch 2 Konsolen auf derm Markt.

Zudem tut man sich eben VIEL einfacher, neue Hardware auf den Markt zu werfen, wenn man dafür nicht in die Tasche greifen muss.

Von daher ist Nintendo schon in einer komfortablen Positione. Sie können auf den Markt reagieren, MS und Sony müssen versuchen den Markt zu lenken, weil Sie es sich eben icht leisten können Konsolen so auf den Markt zu hauen, wie es der will. Die Kuh muss gemolken werden!

Steffko
2012-11-30, 18:11:23
Ich sehe da keinerlei Vorteile. Man hat in relativ kurzer Zeit schon wieder enorme R&D Ausgaben, muss sich überlegen, ob man die alte Konsole absägt (das heißt, dass die Einnahmen aus der Richtung nahezu komplett wegfallen und man sie so schnell gar nicht durch die Einnahmen der neuen Konsole ersetzen kann) oder parallel unterstützt, was auch ordentlich in die Hose gehen kann.
Der Extremfall, dass von heute ab in 3 oder 4 Jahren kaum noch jemand Wii U Hard- und Software kauft, ist sehr unwahrscheinlich und insofern darauf das eigene Szenario aufzubauen m.E. etwas zweifelhaft.

N0Thing
2012-11-30, 19:24:38
Wenn man sieht das jeweils mehr PS3 und mehr Xbox360 Konsolen über den Ladentisch gegangen sind, dann ist das schon traurig. Sicher es wäre mehr gewesen, wenn es mehr gegeben hätte, aber es gab nun mal nicht mehr.

Das ist doch vollkommen normal. Zum Start der Xbox360 oder der PS3 wurden auch noch mehr Einheiten der PS2 abgesetzt.
Ich denke aber auch, daß man die Zahlen des Quartals oder der ersten 6 Monate abwarten sollte, jetzt müssen auch erst einmal alle Vertriebswege bedient werden.

Finch
2012-11-30, 19:31:41
Das stimmt natürlich. Trotzdem denke ich nicht, das die Wii U da eine so große Basis aufbauen wird.

Exxtreme
2012-11-30, 21:06:56
http://www.gamersglobal.de/news/61894/sony-gibt-black-friday-verkaufszahlen-bekannt


Die olle PS3 hat sich am Black-Friday auch besser verkauft als der Wiiu. Sieht wohl nicht so gut aus.

dildo4u
2012-11-30, 21:15:00
Sony hatte gute Bundels 4 Games+ Konsole für 199$.Ist aber nicht das normale Angebot,die neue Slim wurde dort sogar teurer.Interresant für Wii-U wirds erst 2013 wenn es keine Liefereinschränkung mehr gibt.Bis jetzt ist nur Wii besser gestartet als Wii-U,vermutlich weil die Hardware sehr einfach überall herzustellen war.360 und PS3 haben zum Launch deutlich weniger abgesetzt aber wie gesagt auch dort war die Menge begrenzt.

Heimatsuchender
2012-11-30, 22:00:56
Sony hatte gute Bundels 4 Games+ Konsole für 199$.Ist aber nicht das normale Angebot,die neue Slim wurde dort sogar teurer.Interresant für Wii-U wirds erst 2013 wenn es keine Liefereinschränkung mehr gibt.Bis jetzt ist nur Wii besser gestartet als Wii-U,vermutlich weil die Hardware sehr einfach überall herzustellen war.360 und PS3 haben zum Launch deutlich weniger abgesetzt aber wie gesagt auch dort war die Menge begrenzt.


Was für eine Liefereinschränkung? Hier bei uns ist die Wii U in Massen verfügbar.
Ich war heute nachmittag in zwei Saturn und einem MediaMarkt (ein Freund sucht einen neuen Fernseher). In allen Märkten war jede Variante der Wii U massig vorhanden.


tobife

Lightning
2012-11-30, 22:04:11
Was für eine Liefereinschränkung? Hier bei uns ist die Wii U in Massen verfügbar.
Ich war heute nachmittag in zwei Saturn und einem MediaMarkt (ein Freund sucht einen neuen Fernseher). In allen Märkten war jede Variante der Wii U massig vorhanden.


tobife

Es ging um die US-Zahlen, da war/ist die Wii U ausverkauft.

Heimatsuchender
2012-11-30, 22:18:05
Es ging um die US-Zahlen, da war/ist die Wii U ausverkauft.


Also künstliche Verknappung? Scheint ja der neue Werbe-Gag zu sein.


tobife

N0Thing
2012-12-01, 03:42:03
Oder im Konsolenland USA ist die Nachfrage nach der Wii U größer als in Deutschland. Werbung für die Wii U gibt es hierzulande auch nicht, zumindest habe ich bisher noch keine TV-/Radio-/Print-/Plakat-Werbung bemerkt.

Lightning
2012-12-01, 08:42:08
Oder im Konsolenland USA ist die Nachfrage nach der Wii U größer als in Deutschland. Werbung für die Wii U gibt es hierzulande auch nicht, zumindest habe ich bisher noch keine TV-/Radio-/Print-/Plakat-Werbung bemerkt.

Eine Fernsehwerbung habe ich mal gesehen. Bei der Wii kam es mir aber definitiv mehr vor. Vielleicht fahren die das noch bis Weihnachten hoch.

robbitop
2012-12-01, 08:46:42
Und? Ja Sie hätten vieles anders/besser(?) machen können, aber ist es falsch gewesen was Sie gemacht haben?

Wenn man sich anschaut, dass die WiiU in den USA ausverkauft ist, und Nintendo fast schon mit dem Verkauf der Konsole allein Gewinn macht, dann kanns eigentlich gar nicht so schlecht gewesen sein, was Sie gemacht haben.

Ihr Geld werden Sie machen, das steht recht sicher fest.

Und ich habe noch immer die Hoffnung, das eben 2-3 Jahre nach dem Start der PS4 bereits ein Refresh der WiiU kommt, der die Konsole dannn wieder auf den Stand der PS4 usw hieft.
Naja das sagt gar nichts. Wenn das Angebot super klein ist, wird es von jeder Nachfrage gefressen. Nintendo hatte ja nicht viele Konsolen auf Lager. Ein paar Millionen werden auf jeden Fall gekauft. Das ist keine Kunst. Die Frage ist, wie sich das langfristig auswirkt. Nächstes Jahr kommen die neuen Konsolen und es könnte sein, dass wenn keine Multi Titel (oder nur wenige) für die Wii kommen, dass die Verkaufszahlen schlechter aussehen. Die Wii hat sich die letzten 2 Jahre schleppend verkauft. Es waren einfach kaum Titel da. Und das muss doch nicht sein.

@Nakai
Der SoC den du beschreibst, ist auch viel zu schwach. 4 Jaguar Kerne (oder was anderes kleines modernes), 640 sp GCN hätten gereicht um Multis auch für die nächste Generation zu ermöglichen. Die jetzige CPU könnte das massiv erschweren. Über die GPU wissen wir bisher noch wenig. Es sieht aber auch sehr lasch aus bisher.

Ich habe keinesfalls mit einer starken Konsole gerechnet. Aber doch wenigstens 2-3x so "schnell" wie die alten Gurken aus 2005.

pittiplatsch
2012-12-01, 10:56:31
Und das kannst du beurteilen, ohne Kenntnis der technischen Daten der GPGPU und des eDRam?

Ich hörte bezüglich dieser Kombi bisher nur sehr gute Kommentare von den Devs, wäre nur mal schön wenn sich einer mal dranmachen würde, die teile zu röntgen, damit endlich Klarheit herrscht. :D

xyleph
2012-12-01, 11:30:37
Technische Daten "der" GPGPU :confused:
Das Ding ist schonmal kein GCN, sondern irgendwann um der 4***/5***, baucht man also keine Wunder erwarten, erst recht bei dem Takt von 500MHz.

AnarchX
2012-12-01, 11:41:34
Bei 150mm² @ 40nm inkl. eDRAM schränkt sich die GPU-Leistung in der Tat ein.
Wahrscheinlich wohl 320-400SPs/16-20TMUs/8-16 ROPs. Da ergibt sich ein Rohleistungsvorteil von vielleicht 30-50% gegenüber der 360. Mit den Vorteilen von VLIW5 gegenüber Vec4+1 und einer wohl höheren Filtergeschwindigkeit für modernen Formate, kann man in Einzelfällen vielleicht auch mal in Richtung 100% Mehrleistung kommen. Im Schnitt bleiben da vielleicht 50%, wenn das SDK und der Optimierungsgrad das PS360-Niveau erreicht hat.
Und wenn man auf dem Tablet nicht nur simple UIs anzeigen will, dann ist für den TV wohl kaum mehr Leistung vorhanden, als bei PS360.

mboeller
2012-12-01, 13:16:53
Bei 150mm² @ 40nm inkl. eDRAM schränkt sich die GPU-Leistung in der Tat ein.
Wahrscheinlich wohl 320-400SPs/16-20TMUs/8-16 ROPs.

Oh Mann...

jetzt muss ich doch mal meinen Senf dazu geben.


Wenn Nintendo das Verbrauchslimit ein wenig höher angesetzt hätte (mit besserer Kühlung wäre es dann doch nicht lauter geworden) hätte man vielleicht sowas machen können:

Startpunkt: AMD Trinity A10-5700

Änderungen:
- 800 - 900MHz GPU Teil (das Optimum wären aber 1GHz)
- CPU @ 3,2GHz oder gar nur 2,4GHz
- GDDR5-Speicherkontroller mit 2-4 GB 800MHz GDDR5 (=51,2GB/sec)

sollte mit 65-75W max. Verbrauch machbar sein. Die einzige Unbekannte wäre IMHO ob ein Trinity überhaupt was mit den >50GB/sec anfangen kann.

Nakai
2012-12-01, 13:31:16
@Nakai
Der SoC den du beschreibst, ist auch viel zu schwach. 4 Jaguar Kerne (oder was anderes kleines modernes), 640 sp GCN hätten gereicht um Multis auch für die nächste Generation zu ermöglichen. Die jetzige CPU könnte das massiv erschweren. Über die GPU wissen wir bisher noch wenig. Es sieht aber auch sehr lasch aus bisher.

Ich habe keinesfalls mit einer starken Konsole gerechnet. Aber doch wenigstens 2-3x so "schnell" wie die alten Gurken aus 2005.

Das ist wahr. Jedoch wollte ich keine Hardware beschreiben, die für Multis der nächsten Gen kompatibel ist. IMO ist das, was Nintendo zusammengebaut hat, relativ ineffizient.

Man hätte etwas mehr investieren können und schon wär ein höherer Techlevel und ein gutes Stück Mehrperformance drin gewesen.

robbitop
2012-12-01, 13:43:50
Und das kannst du beurteilen, ohne Kenntnis der technischen Daten der GPGPU und des eDRam?

Ich hörte bezüglich dieser Kombi bisher nur sehr gute Kommentare von den Devs, wäre nur mal schön wenn sich einer mal dranmachen würde, die teile zu röntgen, damit endlich Klarheit herrscht. :D
Es sind doch genug Randparameter bekannt, um das sinnvoll abzuschätzen. ;)

Steffko
2012-12-01, 14:11:42
Bei 150mm² @ 40nm inkl. eDRAM schränkt sich die GPU-Leistung in der Tat ein.
Wahrscheinlich wohl 320-400SPs/16-20TMUs/8-16 ROPs. Da ergibt sich ein Rohleistungsvorteil von vielleicht 30-50% gegenüber der 360. Mit den Vorteilen von VLIW5 gegenüber Vec4+1 und einer wohl höheren Filtergeschwindigkeit für modernen Formate, kann man in Einzelfällen vielleicht auch mal in Richtung 100% Mehrleistung kommen. Im Schnitt bleiben da vielleicht 50%, wenn das SDK und der Optimierungsgrad das PS360-Niveau erreicht hat.
Und wenn man auf dem Tablet nicht nur simple UIs anzeigen will, dann ist für den TV wohl kaum mehr Leistung vorhanden, als bei PS360.


Wie groß schätzt du denn den eDRAM ein? Die WiiU GPU ist ~156mm² groß (inkl. eDRAM natürlich), RV740 137mm² mit 640SPs, 16 ROPs und 32 TMUs. Ich komme da beim besten Willen nicht auf die Möglichkeit, dass es 320SPs sein könnten oder schätze ich den eDRAM viel zu klein ein? Um auf 320SPs zu kommen, müsste der nicht eDRAM Teil der GPU doch ~80mm² groß sein. Eventuell sogar kleiner, wenn ein, zwei Sachen (GDDR5 Speicherinterface?) wegfallen. Nur können die 32MB eDRAM doch unmöglich ~80mm² belegen oder etwa doch?

robbitop
2012-12-01, 15:38:55
Naja im GPU Die kommen ja noch I/O, Speicherinterface, Chipsatz, Sound etc unter. Das sitzt beim PC alles ja extra auf dem Mainboard.

Coda
2012-12-01, 15:39:27
I/O, Speicherinterface und Chipsatz ist auch beim PC alles auf der CPU.

robbitop
2012-12-01, 15:46:22
Ja ich mein aber das Zeug was beim PC auf dem Mainboard sitzt. Sound, Schnittstellen etc pp.

Steffko
2012-12-01, 16:25:43
Ah okay, Sound sitzt auf der GPU? Das wusste ich nicht. Wie viel muss man für das Zeuch alles ungefähr rechnen?

Telema
2012-12-01, 16:53:54
Soweit ich gelesen hab kommt doch der Sound von einem extra Chip?...oder nicht?

Naitsabes
2012-12-01, 17:23:16
Ist ein im Die intergrierter DSP.

Steffko
2012-12-01, 17:23:36
Das dachte ich eigentlich auch.

Edit: Oha, heißt also doch auf dem GPU Die?

Locuza
2012-12-01, 23:00:56
Der eDRAM-Die war doch 80mm² groß bei 90nm.
Also plus Back-End.

Bei 40nm wären das ja ungefähr um die 15-20mm²?
Jetzt halt die Frage wie groß war der Anteil des Back-Ends auf dem die, wie viel von den 80mm² ist nur der eDRAM.
Wir haben jetzt wohl 32mb vs. 10mb eDRAM.
Hat man in den letzten Jahren da die Packdichte irgendwie erhöhen können oder ist sie grob die gleiche?
Ansonsten beträgt es für 32mb ungefähr 40mm²?

Gipsel
2012-12-03, 17:57:22
Der eDRAM-Die war doch 80mm² groß bei 90nm.
Also plus Back-End.

Bei 40nm wären das ja ungefähr um die 15-20mm²?
Jetzt halt die Frage wie groß war der Anteil des Back-Ends auf dem die, wie viel von den 80mm² ist nur der eDRAM.
Wir haben jetzt wohl 32mb vs. 10mb eDRAM.
Hat man in den letzten Jahren da die Packdichte irgendwie erhöhen können oder ist sie grob die gleiche?
Ansonsten beträgt es für 32mb ungefähr 40mm²?
Der Anteil der eDRAM-Arrays am Tochter-Die mit den ROPs war wohl nur knapp 60%. Hier mal ein Dieshot:

http://www.abload.de/img/xbox360_edramwdpuh.png

Außen das Interface, in der Mitte die ROPs. Und bisher skalierte eDRAM ganz gut mit der Prozeßgröße (d.h. ziemlich ideal). Aber es kann natürlich Unterschiede je nach Prozeß und Fab geben (einige Fabs bezeichnen 1T-SRAM als eDRAM, ist im Prinzip ja auch fast das Gleiche [benutzen auch eDRAM-Speicherzellen], aber halt mit SRAM-Interface statt DRAM-Interface und damit flächenmäßig oft minimal ungünstiger). Aber die ~40mm² für 32MB sind erstmal kein schlechter Tipp (könnte sogar ein bißchen weniger sein).

Nakai
2012-12-03, 18:14:04
Okay die viel schwierigere Frage bleibt dann. Wie groß ist der Rest im GPU-Die?

Ich würde sagen, dass die GPU etwa auf 50% des Chips kommt. Den Rest teilen sich EDRAM, IO, SI, etc.
Bei etwa 75mm² in 40nm kann man echt nicht viel erwarten. Ich gehe mal von 320SPs und 16TMUs aus. Mehr kann ich mir beim besten Willen nicht vorstellen.
Es ist echt eine Schande, wie wenig Motivation Nintendo bei der Gestaltung ihrer Hardware hat.

mboeller
2012-12-03, 19:14:09
Eigentlich beweisen sie doch eine sehr hohe Motivation bei ihrer Hardware!
Sie legen ihr Hauptaugenmerk aber leider nicht auf die Leistung sondern auf die Kosten.

Für mich ist der 64bit Bus ein sehr deutliches Zeichen dafür, da man die sowieso schon ziemlich kleine GPU mit einem 128bit Bus aufgrund der breiten Speicheranbindung nicht mehr weiter schrumpfen könnte.

G 80
2012-12-04, 10:25:20
320 SP Vliw 5 und wie sind wieder beim mobilen 4650 Ableger, interessanterweise auch mit den Erwarteten 500(-600) Mhz.

Die bisher genannten 75 mm² passen auch gut zum 55nm 140-150 mm² RV 730-Ausgangschip.

ED-Ram ist gut und passt, aber nichtmal die zus. 5 mm² für ein 128 Bit SI ist mal wieder typsich und traurig, reiht sich aber perfekt zum Rest ein.

Skysnake
2012-12-04, 13:06:23
Das breitere SI bedeutet aber nicht nur Kosten beim DIE, sondern auch beim Package und auf dem PCB und dann natürlich auch die zusätzlichen speicherchips. Zieht halt nen Rattenschwanz hinterher, und wenn man sieht, das aufgrund des recht großen eDRAMs das Ganze nicht bringt, weil die GPU zu schwach ist, kann man sich das auch sparen.

AnarchX
2012-12-04, 13:09:22
Spätestens mit einem 28nm Shrink des GPU-Dies würde es wohl knapp mit 128-Bit werden.
Fraglich ob die CPU jemals geshrinkt bzw. integriert wird.

robbitop
2012-12-04, 13:11:20
Das wäre immerhin ein R600/RV670 mit weniger Takt. Das könnte Faktor ~1,5 schneller sein als C1.

Nakai
2012-12-04, 13:34:34
Naja ich erwarte von der GPU in der Wii U schon etwas mehr Möglichkeiten, als wie beim C1.

Man sollte nicht viel erwarten. Die Wii U bleibt auf PS360-Niveau. Der einzige Vorteil den die Wii U hat, und welcher auch sichtbar ist, ist der große EDRAM und der große Hauptspeicher von 2GB.


mfg

robbitop
2012-12-04, 13:50:12
Naja ich erwarte von der GPU in der Wii U schon etwas mehr Möglichkeiten als wie beim C1.
1. Fixed. ;)
2. DX10.1 statt ~DX9.0c SM3 - da gehen gewisse Dinge effizienter und sicher auch schöner.



Man sollte nicht viel erwarten. Die Wii U bleibt auf PS360-Niveau. Der einzige Vorteil den die Wii U hat, und welcher auch sichtbar ist, ist der große EDRAM und der große Hauptspeicher von 2GB.


Im Moment ist es ja nur 1 GB RAM für Spiele. Da wird später vieleicht auch etwas mehr gehen. Schönere Texturen wären möglich. Der eDRAM (EDRAM ist was anderes) muss die fehlende Bandbreite nach außen kompensieren. Da muss wohl der ganze Framebuffer in einem Stück draufpassen, damit nur noch Texturen über das schmale SI müssen.

Die CPU ist sogar deutlichst langsamer als PS360. Insgesamt kann die WiiU Plattform Multititel für die alte Generation mitnehmen (was sicher noch 1-2 Jahre nach Launch der neuen Konsolen der Fall sein wird). Sie wird hübsche Exklusivtitel bekommen. Und vieleicht kann man, dank halbwegs größerem RAM und besserem GPU Techlevel, Multititel der nächsten Generation mit ganz viel Mühe und hohem BQ Verlust noch darauf porten. Das hängt von den Verkaufszahlen der WiiU ab.

Ganz so schlimm wird die Portierung für WiiU nicht sein, wie es zu Wii Zeiten war - wo man nichtmal die gleiche Engine wie für die X360 Spiele nutzen konnte.

Könnte aber auch sein, dass UE4-Titel dann auf die UE3 geportet werden müssen. Die Frage ist, ob das nicht in extrem viel Arbeit ausartet.

Nakai
2012-12-04, 14:31:09
1. Fixed. ;)
2. DX10.1 statt ~DX9.0c SM3 - da gehen gewisse Dinge effizienter und sicher auch schöner.



1. Thx
2. Xbox360 sollte kein vollständiges SM3 unterstützen, imo. Vom Featureset wird kein ganzes SM3 unterstützt, dafür sollte aber Xenos auch Features haben, die über SM3 hinausgehen.

Im Moment ist es ja nur 1 GB RAM für Spiele. Da wird später vieleicht auch etwas mehr gehen. Schönere Texturen wären möglich. Der eDRAM (EDRAM ist was anderes) muss die fehlende Bandbreite nach außen kompensieren. Da muss wohl der ganze Framebuffer in einem Stück draufpassen, damit nur noch Texturen über das schmale SI müssen.

Ob das bei 1GB bleibt? Irgendwann könnten die restlichen oder ein Teil davon für Spiele aktiviert werden.
Außerdem sollten bei der Xbox360 und der PS3 auch ein Teil des RAMs, wegen OS wegfallen. Das sind aber nicht soviel, wie bei der Wii U.

Bei Nintendo denk ich mir manchmal, dass sie keine Lust haben Multiplattformtitel zu unterstützen.

G 80
2012-12-04, 14:38:23
und wenn man sieht, das aufgrund des recht großen eDRAMs das Ganze nicht bringt, weil die GPU zu schwach ist, kann man sich das auch sparen.

Hm? Wo sieht man das? Wäre ja nicht so das es ein (selbst theoretisches) Modell mit E-Dram UND breiterem SI gibt.

Afaik ist so das das 64 Bit SI in der GPU 12,8 GB/S zu Verfügung stellt (bei 800 Mhz natürlich) und 32 MB edram - mit unbekannten Gesamtspeed.

Es weis nichtmal einer ob die 32 MB edram NUR im GPU Die ist, aber auf jedenfall wird ein Teil des Pools auch von der CPU genutzt.

Ohne letztendliche Zahlen kann ich nur Erfahrungswerte nutzen und dann wären die 12,8 GB/s + FB edram wirklich sehr ordentlich, fast schon Luxus; - für die GPU alleine. :freak:

Noch dazu wenn ich mir ansehe was für eine völlig neue (im Vergleich zur Wii) CPU da drinnnsteckt, wird Nintendo keine Kosten gescheut haben den alten RV 730 modernisieren zu lassen, damit er mit der Bandbreite effizienter umgeht. ;D
Außerdem wird dann auch der EDRam ohne Rücksicht auf Kosten Bandbreite liefern?

Ich gehe bei der Wii von der letzten Krücke aus bis das Gegenteil bewiesen ist. Bei der GPU scheine ich richtig gelegen zu haben mit meinen Befürchtungen, ram war zu erwarten und die CPU hat sogar mich unterwältigt.:wink:

Allerhöchstens könnte ich mir denke die lahme CPU und das nichtmehr in dem Ausmaß nötige Streaming sorgen für eine Entlastung ...

AnarchX
2012-12-04, 14:42:18
1. Thx
2. Xbox360 sollte kein vollständiges SM3 unterstützen, imo. Vom Featureset wird kein ganzes SM3 unterstützt, dafür sollte aber Xenos auch Features haben, die über SM3 hinausgehen.

Die ROPs konnten wohl kein FP16-Blending für HDR, aber das hatte nichts mit dem Shadermodel 3.0 zu tun, sondern wurde einfach nur bei NV40 entsprechend mit implementiert.

Wenn die Entwicklung entsprechend gereift ist auf der Wii U sollte sie optisch wohl durchaus PS360 entsprechend übertreffen können, Problem nur das man auf den anderen Konsolen "~2TFLOPs-Grafik" zu sehen bekommt, die das ganze wohl dann etwas abwerten.

robbitop
2012-12-04, 15:08:37
2. Xbox360 sollte kein vollständiges SM3 unterstützen, imo. Vom Featureset wird kein ganzes SM3 unterstützt, dafür sollte aber Xenos auch Features haben, die über SM3 hinausgehen.
IIRC war das Featureset jetzt nicht genau konform zu einer spezifischen DX Version, da konsolenspezifisch. Aber soll zwischen SM3 und DX10 gelegen haben. Geometry Shader fehlen, sicherlich einige Fähigkeiten in den ALUs etc.



Ob das bei 1GB bleibt? Irgendwann könnten die restlichen oder ein Teil davon für Spiele aktiviert werden.
Außerdem sollten bei der Xbox360 und der PS3 auch ein Teil des RAMs, wegen OS wegfallen. Das sind aber nicht soviel, wie bei der Wii U.

Bei Nintendo denk ich mir manchmal, dass sie keine Lust haben Multiplattformtitel zu unterstützen.
Soweit ich weiß, soll man ja ständig aus dem Spiel heraus-tabben können, um zu surfen oder sonstwas zu tun. Also muss man Speicher für OS und sämtliche Apps noch freihalten. Sonst muss ausgelagert werden. Das würde zu Wartezeiten und unsmoothem Verhalten führen.

dildo4u
2012-12-04, 15:12:02
Face-Off: Trine 2 on Wii U

http://www.eurogamer.net/articles/digitalfoundry-trine-2-face-off

Die CPU spielt hier keine große Rolle und es wurde endlich mal das mehr an Speicher genutzt.

Nakai
2012-12-04, 15:27:24
Soweit ich weiß, soll man ja ständig aus dem Spiel heraus-tabben können, um zu surfen oder sonstwas zu tun. Also muss man Speicher für OS und sämtliche Apps noch freihalten. Sonst muss ausgelagert werden. Das würde zu Wartezeiten und unsmoothem Verhalten führen.

Stimmt, das ist ein Argument.:)

Die CPU spielt hier keine große Rolle und es wurde endlich mal das mehr an Speicher genutzt.

Nett, höhere Auflösung und bessere Texturen. Ansonsten wurde nicht viel geändert.

Gipsel
2012-12-04, 15:51:15
Xbox360 sollte kein vollständiges SM3 unterstützen, imo. Vom Featureset wird kein ganzes SM3 unterstützt, dafür sollte aber Xenos auch Features haben, die über SM3 hinausgehen.Letzterer Teil auf jeden Fall. Aber vom Zeitpunkt der Entwicklung würde es mich doch sehr wundern, wenn da irgendwas (Wesentliches) von SM3 fehlen sollte. Die Auskunft von Dave Baumann war mal, daß es zwar nicht genau in eine DX-Kategorie fällt, allerdings schon ein gutes Stückchen von DX10 (also SM4.0) mit drinsteckt. Das ist ja gegenüber dem R520 (der SM3 unterstützt) das modernere Design gewesen. Auch Entwickler haben immer den Xenos im Vergleich zum RSX der PS3 gelobt. Und der unterstützte als Ableger des G71 ebenfalls alle Features des SM3.

Aber vielleicht erhellen uns hier noch ja die Leute, die Erfahrung mit der Grafikprogrammierung auf der XBox360 haben?

Edit:
Der TechReport (http://techreport.com/review/8342/details-of-ati-xbox-360-gpu-unveiled) hat ein paar Zitate von ATIs Bob Feldstein, Vice President of Engineering von damals anzubieten:
These shaders execute a new unified instruction set that incorporates instructions for both vertex and pixel operations. In fact, Feldstein called it a "very general purpose instruction set" with some of the same roots as the DirectX instruction set. Necessarily, the shader language that developers will use to program these shader units will be distinct from the shader models currently used in DirectX 9, including Shader Model 3.0. Feldstein described it as "beyond 3.0." This new shader language allows for programs to contain an "infinite" number of instructions with features such as branching, looping, indirect branching, and predicated indirect.

Gipsel
2012-12-04, 16:02:20
Das wäre immerhin ein R600/RV670 mit weniger Takt. Das könnte Faktor ~1,5 schneller sein als C1.
Dann hätten wir +65% ALU-Leistung (effektiv etwas mehr, da flexibleres VLIW5 statt Vec4+1), aber nur +10% Textur-Leistung (und vermutlich auch nur +10% mehr ROP-Leistung, weil N wahrscheinlich nur 8 verbauen läßt, die haben ja dem Eindruck nach an jeder Ecke gespart).

krötenfresse
2012-12-04, 23:12:46
Bei Nintendo denk ich mir manchmal, dass sie keine Lust haben Multiplattformtitel zu unterstützen.
das denke ich nicht...










:biggrin:
bei nintendo denke ich eher, daß sie multiplattformtitel absichtlich behindern wollen. zumindest, seitdem das mit der schwachen cpu bekannt ist

Ronny145
2012-12-06, 17:07:49
Face-Off: Trine 2 on Wii U

http://www.eurogamer.net/articles/digitalfoundry-trine-2-face-off

Die CPU spielt hier keine große Rolle und es wurde endlich mal das mehr an Speicher genutzt.


Gamma Bug in der Wii U Version, soll aber im nächsten Patch behoben sein.

dildo4u
2012-12-07, 12:57:06
Face-Off: Assassin's Creed 3 on Wii U

http://www.eurogamer.net/articles/digitalfoundry-assassins-creed-3-wii-u-face-off

Assassin's Creed 3: Wii U vs. Xbox 360 vs. PS3 Gameplay Frame-Rate Test

http://www.youtube.com/watch?v=7wTbxWxkThc&feature=share&list=UU9PBzalIcEQCsiIkq36PyUA&hd=1

Ubisoft scheint Wii-U schon besser am laufen zu haben,aber wie auf den anderen Konsolen sind die FPS Raten echt ein Witz.Da wurde weit über die Möglichkeiten geplant wie bei FC3.Sieht nich gut aus für die Zukunft.

Crazy_Bon
2012-12-07, 17:14:11
Ich sage es mal so, wenn eine "Next-Gen" Konsole schon zu Anfang gewisse Schwächen aufweist, dann wird diese Probleme ihre ganzen Lebenszyklus verfolgen und ist nur durch sehr intensive Optimierungen und spezifische Anpassungen auszugleichen.
Ich denke es bleibt fast Nintendo allleine vorbehalten das Optimum aus der Konsole herauszukitzeln, und die Innovation ist der integrierte Touchscreen im Controller. Aber die Konkurrenz schläft nicht, denn Microsoft kontert mit SmartGlass, doch die Interaktion/Spieleauswahl ist noch sehr begrenzt und keine wirkliche Bereicherung.

Tomi
2012-12-07, 20:47:02
[Assassin's Creed 3: Wii U vs. Xbox 360 vs. PS3 Gameplay Frame-Rate Test

http://www.youtube.com/watch?v=7wTbxWxkThc&feature=share&list=UU9PBzalIcEQCsiIkq36PyUA&hd=1

Ubisoft scheint Wii-U schon besser am laufen zu haben,.
4Players will auf WiiU den schlechtesten Assassins gesehen haben.

http://www.4players.de/4players.php/dispbericht/Wii_U/Test/29807/78672/0/Assassins_Creed_III.html

00-Schneider
2012-12-07, 23:45:35
4Players will auf WiiU den schlechtesten Assassins gesehen haben.


Eurogamer behauptet doch auch nichts Anderes?

cR@b
2012-12-09, 15:08:14
Ist die Frage nur ob schlechte Portierung oder Hardware tatsächlich nicht ausreichend. Nicht jedes Spiel ist CPU Limiert. und ab höheren Auflösungen erst recht nicht.

dildo4u
2012-12-09, 21:20:28
Näste Pleite Face-Off: Darksiders 2 on Wii U



http://www.eurogamer.net/articles/digitalfoundry-darksiders-2-on-wii-u-face-off

starfish
2012-12-09, 22:12:11
Ist die Frage nur ob schlechte Portierung oder Hardware tatsächlich nicht ausreichend. Nicht jedes Spiel ist CPU Limiert. und ab höheren Auflösungen erst recht nicht.

Siehe Trine 2.

Aber die Sache ist recht einfach, dort wo die CPU ins Spiel kommt, ist die Hardware einfach nicht gut genug um die Xbox und öfters auch die PS3 einholen zu können.

Wäre es eigentlich möglich, dass Nintendo den CPU Takt noch erhöht?
Klar, hängt hauptsächlich an dem Netzteil und der Kühlung.
Aber Nintendo hat beim SNES (über Umwege) und beim N64 ja auch schon die Hardware verbessert.
Auch bei der PSP ging Sony den Weg, den Takt hochzusetzen.

Die Frage ist auch, ob eine Erhöhung des CPU Takts überhaupt was bringt.

Steffko
2012-12-09, 23:37:09
Siehe Trine 2.

Aber die Sache ist recht einfach, dort wo die CPU ins Spiel kommt, ist die Hardware einfach nicht gut genug um die Xbox und öfters auch die PS3 einholen zu können.

Wäre es eigentlich möglich, dass Nintendo den CPU Takt noch erhöht?
Klar, hängt hauptsächlich an dem Netzteil und der Kühlung.
Aber Nintendo hat beim SNES (über Umwege) und beim N64 ja auch schon die Hardware verbessert.
Auch bei der PSP ging Sony den Weg, den Takt hochzusetzen.

Die Frage ist auch, ob eine Erhöhung des CPU Takts überhaupt was bringt.

Na ganz SO einfach ist die Sache ja dann doch nicht. Die PS3 hat ja auch eine wesentlich stärkere CPU, als die X360 und andersrum eine schwächere GPU und dennoch finden (gute) Entwickler einen Weg da drumherum.
Imo wird ähnliches auch bei Wii U passieren. Die GPU samt den 32MB eDRAM dürfte dann doch so viel leistungsfähiger, als die Äquivalente bei X360/PS3 sein, dass man etwaige Defizite bei der CPU mehr als ausgleichen kann.

Tomi
2012-12-10, 06:56:20
Eurogamer behauptet doch auch nichts Anderes?
Hast mich erwischt ;)

Ich hatte den Artikel zunächst nicht gelesen, das Fazit von "dildo4u"

"Ubisoft scheint Wii-U schon besser am laufen zu haben,."

klang nach "AC3 auf WiiU gleichwertig mit PS3/360". Allerdings im Nachhinein betrachtet meint er wohl, dass wenn ein WiiU Multi-Plattformer ca. 80% der Leistung der PS3/360 erreicht, man schon von "gut im Griff haben" reden kann ;)

ZipKaffee
2012-12-10, 07:40:29
Ich sehe garkeine Unterschiede bei den ganzen vergleich Videos trotz 720p. Assassin's Creed 3 hat auf dem Pc leicht geruckelt, das konnte ich fest stellen^^.

y33H@
2012-12-10, 09:50:52
Wenn es auf dem PC leicht ruckelt, dann ist Konsole unspielbar ;-)

Deathcrush
2012-12-10, 14:31:39
Näste Pleite Face-Off: Darksiders 2 on Wii U



http://www.eurogamer.net/articles/digitalfoundry-darksiders-2-on-wii-u-face-off

Denk mal an den PS3 Release zurück, wie grauenhaft die Spiele für die PS3 umgesetzt wurden ;) Ich bin mir sicher, das es noch besser werden, vor allem wenn die Hersteller mal die GPGPU besser nutzen werden und somit die fehlende CPU Leistung zu ersetzen.

Finch
2012-12-10, 14:38:30
Nur das der PS3 Release einige Jahre in der Vergangenheit liegt und die Architektur der PS3 sicher nicht vergleichbar mit der Wii U ist.

Die Wii U ist einfach zu wenig, zu spät.

RoNsOn Xs
2012-12-10, 14:40:14
Aber Nintendo hat beim SNES (über Umwege) und beim N64 ja auch schon die Hardware verbessert.
hast du dazu infos?

Finch
2012-12-10, 14:57:46
zu Trine 2 oder dem N64 und SNES?

RoNsOn Xs
2012-12-10, 15:05:11
Oops, quote verbessert.

Screemer
2012-12-10, 15:05:16
zum n64 gabs das expansionpack (http://de.wikipedia.org/wiki/Expansion_Pak)mit rumble und extra speicher. war z.b. für zelda: majora's mask und donkey kong 64 zwingend nötig, für andere spiele optional. beim snes gabs die super fx-chips (http://de.wikipedia.org/wiki/Super_FX), die einige berechungen übernahmen. starfox-fx wäre da als beispiel zu nennen.

Deathcrush
2012-12-10, 15:50:15
Nur das der PS3 Release einige Jahre in der Vergangenheit liegt und die Architektur der PS3 sicher nicht vergleichbar mit der Wii U ist.

Die Wii U ist einfach zu wenig, zu spät.

Es ging mir eher darum, das man auf der PS3 auch erst umdenken musste, da die Hardware anders ist als bei der XBox360. Daher sahen Multiplattformtitel deutlich schlechter aus, als auf der XBox360, teils sogar dramatisch. Gleiches sehen wir gerade bei der WIIu. Und ich denke, wenn die Entwickler die Hardware in Griff haben, das die Titel mind. ebenbürtig aussehen werden, wenn nicht sogar besser. (dank des höheren Speichers z.B. bessere Texturen) Ich denke mehr wollte Nintendo auch nicht erreichen als eine gleichwertige Konsole (aus grafischer Sicht)

dildo4u
2012-12-10, 15:55:34
Denk mal an den PS3 Release zurück, wie grauenhaft die Spiele für die PS3 umgesetzt wurden ;) Ich bin mir sicher, das es noch besser werden, vor allem wenn die Hersteller mal die GPGPU besser nutzen werden und somit die fehlende CPU Leistung zu ersetzen.
Was in 2-3 Jahren ist juckt kein mehr,da gibt's schon lange die PS4 und die näste Xbox.Dann werden für die alten Konsolen und Wii-U ein paar Sportspiele noch umgesetzt und das wars dann,das selbe was mit der PS2 ab 2008 passiert ist und das obwohl die Hardwarebasis gigantisch war.GPGPU kannste knicken,die GPU ist zu schwach um neben der Grafik sich damit zu beschäftigen,alle Games laufen in 720p ohne MSAA,oder wie Call of Duty reduzieren die Auflösung um MSAA zu ermöglichen.

Das Ziel von Wii-U war grad so ranzukommen dafür aber effektiver zu sein.

Wii U blitzes PS3 and 360 as the "greenest" console Uses less than half power during gameplay.

http://www.eurogamer.net/articles/digitalfoundry-wii-u-is-the-green-console

RoNsOn Xs
2012-12-10, 15:57:23
zum n64 gabs das expansionpack (http://de.wikipedia.org/wiki/Expansion_Pak)mit rumble und extra speicher. war z.b. für zelda: majora's mask und donkey kong 64 zwingend nötig, für andere spiele optional. beim snes gabs die super fx-chips (http://de.wikipedia.org/wiki/Super_FX), die einige berechungen übernahmen. starfox-fx wäre da als beispiel zu nennen.
danke :smile:

Deathcrush
2012-12-10, 16:10:05
Was in 2-3 Jahren ist juckt kein mehr,da gibt's schon lange die PS4 und die näste Xbox.Dann werden für die alten Konsolen und Wii-U ein paar Sportspiele noch umgesetzt und das wars dann

Vielleicht hat die Konsole in 2-3 Jahren genug eigene Spiele um auf Ports nicht angewiesen zu sein ;) Man sollte Nintendo nicht unterschätzen, siehe Wii. Und wenn man grafisch die XBox360 mit Exklusivtiteln leicht überholen und das Pad perfekt in die Spiele einbinden kann, bin ich mir sicher, das sie wieder als Sieger hervorgehen wird. Und noch weiss keiner wie gut die Hardware der Konkurrenz werden wird.

dildo4u
2012-12-10, 16:14:00
Nintendo hat nicht die Masse an Team's um das alleine zu stemmen siehe Wii,die letzten Jahren waren dort ein Witz was guten Spieleoutput anging.

Deathcrush
2012-12-10, 16:16:52
Deshalb angelt man sich ja jetzt andere Hersteller bzw Spiele, siehe Bayonetta 2

dildo4u
2012-12-10, 16:22:43
Werden nur wenige machen wenn sie nur auf einer Konsole verkaufen können.Games wie Skyrim,GTA5 sind so nicht finanzierbar.

Steffko
2012-12-10, 16:34:38
Nintendo hat nicht die Masse an Team's um das alleine zu stemmen siehe Wii,die letzten Jahren waren dort ein Witz was guten Spieleoutput anging.


Na offensichtlich haben sie das ja schon größtenteils alleine stemmen können, oder wie erklärst du dir den großen Erfolg der Wii?

Ringwald
2012-12-10, 17:49:16
Was in 2-3 Jahren ist juckt kein mehr,da gibt's schon lange die PS4 und die näste Xbox.Dann werden für die alten Konsolen und Wii-U ein paar Sportspiele noch umgesetzt und das wars dann,das selbe was mit der PS2 ab 2008 passiert ist und das obwohl die Hardwarebasis gigantisch war.GPGPU kannste knicken,die GPU ist zu schwach um neben der Grafik sich damit zu beschäftigen,alle Games laufen in 720p ohne MSAA,oder wie Call of Duty reduzieren die Auflösung um MSAA zu ermöglichen.

Das Ziel von Wii-U war grad so ranzukommen dafür aber effektiver zu sein.

Wii U blitzes PS3 and 360 as the "greenest" console Uses less than half power during gameplay.

http://www.eurogamer.net/articles/digitalfoundry-wii-u-is-the-green-console

Du sagst die WiiU steht zur PS720 wie die PS2 zu PS3?
Davon wäre ich nicht so überzeugt, die PS360 Nachfolger werden vielleicht schneller sein aber vom "Tech Level" werden die sich nicht von der WiiU absetzten können.

AnarchX
2012-12-10, 17:55:42
Davon wäre ich nicht so überzeugt, die PS360 Nachfolger werden vielleicht schneller sein aber vom "Tech Level" werden die sich nicht von der WiiU absetzten können.
Sicherlich wird der Unterschied nicht so groß, wie der Sprung von Wii/PS2 ohne programmierbare Shader, auf PS360 mit DX9+.
Aber eine vollwertige DX11-Architektur (statt der spekulierten 10.1 RV7xx GPU in der Wii U) und eine direkte Verbindung zu den Prozessoren in einem SoC sind schon nicht unerhebliche Vorteile.

dildo4u
2012-12-10, 18:05:11
Du sagst die WiiU steht zur PS720 wie die PS2 zu PS3?
Davon wäre ich nicht so überzeugt, die PS360 Nachfolger werden vielleicht schneller sein aber vom "Tech Level" werden die sich nicht von der WiiU absetzten können.
Natürlich kann man DX11 only Games entwickeln die unmöglich auf Wii-U sind.Versuch einfach mal ein Tesselation Bench wie Heaven 3.0 auf einer 25 Watt DX11 GPU laufen zu lassen.Die Bringt dir um 10fps,und nur wenn man Tesselation massiv einsetzt wird sich die Optik deutlich von den alten Konsolen unterscheiden.Die GPU ist schon jetzt mit Call of Duty überfordert(Sub 1280*720p Auflösung) an Tesselation ist imo nicht zu denken.Davon ab rechne ich aber auch damit,das viele Open World Games so gebaut werden,das die um die 2GB Ram brauchen.Die wird Wii-U niemlas haben da das OS riesig ist.Hier und da kann man vielleicht was Optimieren paar MB sparen aber das wird kaum genug sein,das OS läuft jetzt schon grottig genug obwohl es ständig massig Speicher belegt.

Deathcrush
2012-12-10, 18:36:20
Die GPU ist schon jetzt mit Call of Duty überfordert

Du scheinst ja sehr viel mehr zu wissen als alle anderen, wie schon damals bei der PS3 ;D

grobi
2012-12-10, 19:04:02
Es ging mir eher darum, das man auf der PS3 auch erst umdenken musste, da die Hardware anders ist als bei der XBox360. Daher sahen Multiplattformtitel deutlich schlechter aus, als auf der XBox360, teils sogar dramatisch. Gleiches sehen wir gerade bei der WIIu. Und ich denke, wenn die Entwickler die Hardware in Griff haben, das die Titel mind. ebenbürtig aussehen werden, wenn nicht sogar besser. (dank des höheren Speichers z.B. bessere Texturen) Ich denke mehr wollte Nintendo auch nicht erreichen als eine gleichwertige Konsole (aus grafischer Sicht)


Die PS3 hat bis heute Nachteile in Bezug auf ihren Gegner. Sie hat nur den Vorteil der besseren Exklusivtitel.

Deathcrush
2012-12-10, 19:08:17
Die PS3 hat bis heute Nachteile in Bezug auf ihren Gegner. Sie hat nur den Vorteil der besseren Exklusivtitel.

Aber die Nachteile sind nicht mehr so gravierend wie z.B. bei The Darkness 1 ;)

MartinB
2012-12-10, 19:16:39
Dass die Hardware der Wii U schwach ist, steht ja außer Frage. Was ich eher bedenklich sehe ist der Einsatz des Tablets. Praktisch in allen Reviews von Crossplattform-Titeln wird bemängelt dass das Tablet nur Gimickhaft eingesetzt wird und kaum Mehrwert bietet.

Abseits der Nintendo-Spiele wie Mario oder Zelda, sehe ich daher für die Wii U schwarz.

Botcruscher
2012-12-10, 19:31:43
Was soll man den auch tolles mit dem Ding machen?! Neben dem unnützen Map/Inventar Umsetzungen kommt da nicht viel. Mir würde nur ein Spiel einfallen: Bei AvP als Bewegungsmelder.

Deathcrush
2012-12-10, 19:54:40
Ein bischen mehr Fantasie bitte, spiele mal Fifa oder ZombiU im MP. Ich finde, damit kann man geniale Sachen umsetzen.

Deathcrush
2012-12-10, 20:15:59
Gibt es schon objektive Testberichte zu ME 3? Das was ich bisher gelesen habe, so soll sie sich die Wii U zwischen der Xbox360 und der PS3 einreihen.

EDIT

Habe was gefunden und schau einer an, so schlecht ist die Wii nun doch nicht ;)

http://www.eurogamer.net/articles/digitalfoundry-mass-effect-3-wii-u-face-off

dildo4u
2012-12-10, 20:34:58
Jo weil der PS3 port Müll ist liegt auch nicht unbedingt an der Engine,Batman AC läuft ohne Probleme.

ME3

http://www.eurogamer.net/articles/digitalfoundry-mass-effect-3-wii-u-face-off

Batman

http://www.eurogamer.net/articles/digitalfoundry-batman-arkham-city-wii-u-face-off

Sobald viele Gegner auf dem Screen sind stirbt die FPS Rate wie bei Darksiders 2.

Das Problem für Wii-U ist man kann die CPU nicht entlasten,bei der PS3 kann man wenn nötig die Auflösung reduzieren statt MSAA FXAA nutzen etc.

Deathcrush
2012-12-10, 20:42:22
Woher willst du wissen, ob man die CPU entlasten kann oder nicht, die Konsole ist gerade mal auf den Markt kommen und die Ports sind sicher alles andere als ausgereift, aber sicher, kommt was für die PS3 ist es schlecht Portiert, du bist mir echt so einer ;D

dildo4u
2012-12-10, 20:45:05
Natürlich ist es schlecht Portiert die Auflösung wurde bei der PS3 nich reduziert,hätte man sie reduziert wären die fps sicherlich besser.Die erste Vorgabe bei solchen Ports sollten immer stabile 30fps sein.

Deathcrush
2012-12-10, 21:45:32
Naja warten wir mal ab, die ersten Hersteller haben ja schon ne recht grosse "Klappe" und lässt hoffen

http://www.gamestar.de/spiele/aliens-colonial-marines/news/aliens_colonial_marines,44290,2568178.html

Über die Spezifikation dürfe er wegen der Geheimhaltungspflicht nichts sagen, allerdings verspricht er, dass Aliens: Colonial Marines auf der Wii U besser aussehen wird als auf der Xbox 360 und PlayStation 3.

»Warum? Wegen der deutlich moderneren Technik.« so die Begründung. Die Wii U beinhalte moderne Komponenten und sei somit standardmäßig einfach deutlich leistungsstärker als die in die Jahre gekommenen Microsoft- und Sony-Konsolen.

00-Schneider
2012-12-10, 22:21:32
Naja warten wir mal ab, die ersten Hersteller haben ja schon ne recht grosse "Klappe" und lässt hoffen

http://www.gamestar.de/spiele/aliens-colonial-marines/news/aliens_colonial_marines,44290,2568178.html

Über die Spezifikation dürfe er wegen der Geheimhaltungspflicht nichts sagen, allerdings verspricht er, dass Aliens: Colonial Marines auf der Wii U besser aussehen wird als auf der Xbox 360 und PlayStation 3.

»Warum? Wegen der deutlich moderneren Technik.« so die Begründung. Die Wii U beinhalte moderne Komponenten und sei somit standardmäßig einfach deutlich leistungsstärker als die in die Jahre gekommenen Microsoft- und Sony-Konsolen.


Alles nur PR-Gelaber.

Die WiiU-Version entsteht nicht bei Gearbox, sondern wird zu einem kleinen Entwicklerstudio ausgelagert, das hauptsächlich Ports macht:

http://demiurgestudios.com/games/aliens-colonial-marines/

Ich glaube kaum, dass sie sich die Mühe machen die WiiU-Version gegenüber den Hauptplattformen PS3 und 360 aufzuhübschen. Wird ein 08/15 Port werden.

Deathcrush
2012-12-11, 12:38:51
Warum sollte es große mühe machen es aufzuhübschen, wenn z.B. schon bessere Texturen von der PC Version vorliegen und man diese dank mehr Speicher auch für die WiiU nutzen kann.

Deathcrush
2012-12-15, 21:24:03
Ninja Gaiden 3 Vergleich

http://www.eurogamer.net/articles/digitalfoundry-ninja-gaiden-3-on-wii-u-face-off

grobi
2012-12-15, 23:15:24
Ninja Gaiden 3 Vergleich

http://www.eurogamer.net/articles/digitalfoundry-ninja-gaiden-3-on-wii-u-face-off


Das ist ja soweit OK mit den FPS aber die CPU-Last scheint nicht so hoch zu sein.

Skysnake
2012-12-16, 09:10:44
Und das willst du woher wissen?

Sieht für mich eher nach nem vernünftigen Port für die WiiU aus. Man liegt mit den Frames +/- auf dem gleichen Niveau wie die anderen Konsolen, hat aber nicht so verwaschene Texturen wie die XBox und etwas stimmigere Beleuchtung/Fernsicht als die PS3.

Deathcrush
2012-12-16, 10:16:13
Und wenn ich es recht in Erinnerung habe wurde die KI auch überarbeitetet bzw verbessert. Bessere Texturen, leicht bessere Beleuchtung .... was will man mehr von einer Konsole die nur 35W benötigt?

dargo
2012-12-16, 11:02:39
Ninja Gaiden 3 Vergleich

http://www.eurogamer.net/articles/digitalfoundry-ninja-gaiden-3-on-wii-u-face-off
Urgh... die Bodentextur flimmert aber auf der WiiU schon extrem im ersten Video ab 1:18. Soll ja eine "Stärke" von Cayman/Barts sein. :tongue: Wobei bestimmte Bereiche bei der PS3 auch flimmern, nur eben nicht ganz so stark.

AnarchX
2012-12-16, 11:10:07
Flimmern im AF ist wohl das geringste Problem auf den Konsolen. :ulol:

Schade, dass es noch keine Die-Shots gibt. Ob Nintendo hier wohl die entsprechenden Anbieter für Zurückhaltung bezahlt hat?

dargo
2012-12-16, 11:14:08
Flimmern im AF ist wohl das geringste Problem auf den Konsolen. :ulol:

Ich weiß... :tongue: Da flimmert so viel im Bild, da kommt es auf eine flimmerde Bodentextur auch nicht mehr drauf an. :freak:

Deathcrush
2012-12-16, 12:02:01
Flimmern im AF ist wohl das geringste Problem auf den Konsolen. :ulol:

Ich wusste gar nicht, das die WiiU als Highend Konsole verkauft wird. Hast du mal eine entsprechenden Link wo man sowas nachlesen kann?

grobi
2012-12-16, 13:27:28
Und das willst du woher wissen?

Sieht für mich eher nach nem vernünftigen Port für die WiiU aus. Man liegt mit den Frames +/- auf dem gleichen Niveau wie die anderen Konsolen, hat aber nicht so verwaschene Texturen wie die XBox und etwas stimmigere Beleuchtung/Fernsicht als die PS3.


Naja es wird ja nicht mit vielen Objekten interagiert. Ist ja kein shooter sondern eine art Prügelspiel mit nicht allzuvielen Gegnermassen.


mfg grobi

Felixxz2
2012-12-16, 13:47:18
Urgh... die Bodentextur flimmert aber auf der WiiU schon extrem im ersten Video ab 1:18. Soll ja eine "Stärke" von Cayman/Barts sein. :tongue: Wobei bestimmte Bereiche bei der PS3 auch flimmern, nur eben nicht ganz so stark.

Barts/Cayman haben keine schlechtere Filterung als vorherige AMD/ATi GPUs und sicherlich eine bessere als Xenos/RSX.

=Floi=
2012-12-16, 16:05:44
warum nur verbauen die eine so schlechte cpu?
die ist doch mit am günstigsten...

das ist ja echt unbegreiflich.

Ronny145
2012-12-16, 16:23:31
Barts/Cayman haben keine schlechtere Filterung als vorherige AMD/ATi GPUs und sicherlich eine bessere als Xenos/RSX.


Barts/Cayman haben haben stärker geflimmert als die vorherigen. R520/R580 hatte die deutlich bessere Filterqualität.

Felixxz2
2012-12-16, 17:01:27
Barts/Cayman haben haben stärker geflimmert als die vorherigen. R520/R580 hatte die deutlich bessere Filterqualität.

Nö. Die Filterqualität bei höchster AI Stufe war schon beim R600 besser als auf R5xx Karten und spätere Generationen wiederum besser als auf R600. Die Qualität auf Cypress und Cayman ist genau gleich, nur die Standardtreibereinstellungen hatten sich verändert. Wenn man beide Karten auf höchste Qualität einstellte erhielt man ein gleiches Ergebnis.

Ronny145
2012-12-16, 17:07:47
Nö. Die Filterqualität bei höchster AI Stufe war schon beim R600 besser als auf R5xx Karten und spätere Generationen wiederum besser als auf R600. Die Qualität auf Cypress und Cayman ist genau gleich, nur die Standardtreibereinstellungen hatten sich verändert. Wenn man beide Karten auf höchste Qualität einstellte erhielt man ein gleiches Ergebnis.


Das ist falsch. R520/R580 boten die bessere Filterqualität als sämtliche Nachfolger. Erst GCN spielt auf Augenhöhe wenn man so will. R600 war allerdings auch noch besser als alles was danach kam, bis GCN. Cypress hatte den Banding Bug, flimmerte dafür um einiges weniger als es Cayman/Barts tat. Das als genau gleich zu bezeichnen ist leider falsch.

Käsetoast
2012-12-16, 17:15:26
Mit den Desktop Chips zu vergleichen ist eine ziemlich müßige Angelegenheit. Was das Flimmern angeht war das sowieso kein den jeweiligen Chip betreffender Aspekt, sondern lediglich ein Bug in der Umsetzung. Wenn man in die Richtung diskutieren will, muss man also lediglich die Frage stellen, ob der Chip der Wii U was das angeht fehlerbereinigt wurde oder nicht...

Was die CPU Problematik der bisherigen Ports angeht stellt sich halt die Frage, inwiefern der Code wirklich optimiert wurde. Wenn ich mir ansehe was EA da so mit ihren Ports angestellt habe gehe ich davon aus, dass in dem Punkt nur ein minimaler Aufwand betrieben wurde. Solange rumdoktern bis es auf der Wii U ausführbar ist, auch wenn man dabei den Flaschenhälsen der Architektur in die Karten spielt...

Felixxz2
2012-12-16, 17:27:24
Das ist falsch. R520/R580 boten die bessere Filterqualität als sämtliche Nachfolger. Erst GCN spielt auf Augenhöhe wenn man so will. R600 war allerdings auch noch besser als alles was danach kam, bis GCN. Cypress hatte den Banding Bug, flimmerte dafür um einiges weniger als es Cayman/Barts tat. Das als genau gleich zu bezeichnen ist leider falsch.

Ich beziehe mich hier auf die Tests von CB und die sagen eben dass es eine konstante Weiterentwicklung gab und Cayman bei gleichen Treibersettings genausogut wie Cypress filterte. Hast du denn Tests die deine Aussagen belegen?

Ronny145
2012-12-16, 17:42:36
Ich beziehe mich hier auf die Tests von CB und die sagen eben dass es eine konstante Weiterentwicklung gab und Cayman bei gleichen Treibersettings genausogut wie Cypress filterte. Hast du denn Tests die deine Aussagen belegen?


Wir sind hier im 3dcenter. Es gibt entsprechende Threads, wo du alles nachlesen kannst. Es gab unzählige Diskussionen darüber mit vielen Videos und screenshots.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=494193&highlight=filtertester
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=482069&highlight=filtertester

Felixxz2
2012-12-16, 17:59:33
Aso und dann darf man nicht andere Internetquellen zitieren? o.0

Ich werd mir das bei Gelegenheit mal zu Gemüte führen. Dass aber ein R5xx besser sein soll als ein Cypress, das hab ich wirklich noch nirgends gelesen.

Ronny145
2012-12-16, 18:01:55
Aso und dann darf man nicht andere Internetquellen zitieren? o.0

Du findest auch auf CB die Bestätigung.


Ich werd mir das bei Gelegenheit mal zu Gemüte führen. Dass aber ein R5xx besser sein soll als ein Cypress, das hab ich wirklich noch nirgends gelesen.

Falls Unklarheiten bestehen, empfiehlt sich die Nachfrage im Thread. Das wird dir jeder bestätigen können.

AnarchX
2012-12-16, 18:42:45
Ich wusste gar nicht, das die WiiU als Highend Konsole verkauft wird. Hast du mal eine entsprechenden Link wo man sowas nachlesen kann?
Was hat AF mit High-End zu tun? Selbst lahme Intel-IGPs liefern mittlerweile vernünftiges AF.

Aber im Endeffekt werden solche Mängel wohl eher nur einen kleinen Teil der Konsolenkäufer auffallen.

Deathcrush
2012-12-16, 20:59:22
Wenn du schreibst Zitat "Flimmern im AF ist wohl das geringste Problem auf den Konsolen.", dann gehe ich davon aus, das du auch andere schwächen meinst und daruf bezog sich auch mein Posting

00-Schneider
2012-12-19, 12:45:18
http://yfrog.com/scaled/landing/610/mu6fj.png

Hacker haben angeblich schon vollen Zugriff auf den Kernel. Damit ist die WiiU genauso offen, wie es die Wii jetzt schon ist. :lol:

Drei(!) Wochen hats gedauert, gratz Nintendo für dieses ausgeklügelte Sicherheitssystem! :daumen:

-----------------------

Region Lock wurde mit dem Hack schon umgangen, sehr gut!

quelle: https://twitter.com/fail0verflow

Gouvernator
2012-12-19, 13:43:27
Wenn sie es schaffen den Controller-Tablet für Windows zu hacken damit man auf alles per 5Ghz Wlan Zugriff hat... allein dafür werde ich WiiU kaufen.

Coda
2012-12-19, 14:26:37
damit man auf alles per 5Ghz Wlan Zugriff hat
Ist es wirklich gesichert, dass das 802.11n ist?

Ich kann mir das bei der geringen Latenz des Bildes absolut nicht vorstellen. Soweit ich weiß gibt es zwei Antennen, ich vermute stark, dass das Bild-Signal ein proprietäres Funk-Protokoll verwendet.

AnarchX
2012-12-19, 14:34:37
Broadcom BCM43362KUB6 802.11n Wireless Module—the same one used in the Roku 2 XS
http://www.ifixit.com/Teardown/Nintendo+Wii+U+Teardown/11796/2

Zusammen mit einem integrierten Fixed-Function-Video-Encoder ergibt sich wohl die niedrige Latenz.

Jim
2012-12-19, 14:55:38
Bei "Iwata Asks" hiess es, Nintendo hätte mit Broadcom ein neues Verfahren entwickelt, um extrem kleine Bildschnipsel komprimiert per WLAN mit möglichst geringer Latenz zu übertragen. Einer der Chips ist dafür verantwortlich.

Iwata: How did you design the system? You had to carry out a series of actions, compressing the Wii U images, sending them wirelessly as radio waves, receiving and decompressing them on the Wii U GamePad, and then displaying them– and all without any noticeable delay!

Ito: Generally, for a video compression/decompression system, compression will take place after a single-frame of image data has been put into the IC [integrated circuit]. Then it is sent wirelessly and decompressed at receiving end. The image is sent to the LCD monitor after decompression is finished.

But since that method would cause latency, this time, we thought of a way to take one image and break it down into pieces of smaller images. We thought that maybe we could reduce the amount of delay in sending one screen if we dealt in those smaller images from output from the Wii U console GPU on through compression, wireless transfer, and display on the LCD monitor.

Botcruscher
2012-12-19, 17:47:15
Warum soll die Latenz ein Problem sein? Die sollte bei max 1 bis 3ms liegen. Stellt sich maximal die Frage nach der Bandbreite.

Felixxz2
2012-12-19, 18:35:44
WLAN n 5GHz halt.

G 80
2012-12-19, 23:43:05
Genau das sagt halt realtiv wenig - also irgendwas zwischen 54 und 600 Mbit - je nach MCS bleiben dann schlimmstenfalls ~7Mbit. :freak:

(wenn ich alles noch richtig im Kopf habe ;))

pr0g4m1ng
2012-12-20, 00:18:54
http://yfrog.com/scaled/landing/610/mu6fj.png

Hacker haben angeblich schon vollen Zugriff auf den Kernel. Damit ist die WiiU genauso offen, wie es die Wii jetzt schon ist. :lol:

Drei(!) Wochen hats gedauert, gratz Nintendo für dieses ausgeklügelte Sicherheitssystem! :daumen:

-----------------------

Region Lock wurde mit dem Hack schon umgangen, sehr gut!

quelle: https://twitter.com/fail0verflow

Das ist wahrscheinlich der Preis der Abwärtskompatibilität. Da Nintendo ja aber die Konsolen nicht subventioniert sind Raubkopierer kein so großes Problem wie bei Sony und MS.

AnarchX
2012-12-20, 08:21:47
Genau das sagt halt realtiv wenig - also irgendwas zwischen 54 und 600 Mbit - je nach MCS bleiben dann schlimmstenfalls ~7Mbit. :freak:

Für 480p @ H.264 nicht so wenig. Zumal einige Reviews auf dem Pad durchaus Kompressionsartefakte festgestellt haben.

nampad
2012-12-20, 08:32:13
Nächste Runde bei Digital Foundry, Tekken Tag Tournament 2:

Tekken Tag Tournament 2 makes its way to a new home a few months after appearing on the PS3 and 360, and by and large Namco has done a decent job porting the game over to Nintendo's new console while adding a slew of extra content to entertain dedicated fans and new players alike. Visually, bar the loss of some interactive snow and some flowers limited to two stages, the game closely mirrors that of the other versions, with the use of a lower-precision blur effect that only the most eagle-eyed of gamers will spot during play. On some stages we see the Wii U command a brief image quality advantage where the game stays running in native 720p for longer during less intense battle scenes between two characters with the cool blur effect enabled, but this aspect of the engine varies from scene to scene on all versions to some degree.

On the matter of performance, the slightly less stable frame-rate will only be an issue for the most seasoned of players who will be more sensitive to the timing of moves and combos in the game - but for most players, the game remains fluid and fun to play at all times. The range of control options available - from the Pro Controller to some of the various Wii Arcade sticks - also has more dedicated fans covered. This is a nice bonus, considering that the standard GamePad is a bit too large and unwieldy for playing this kind of game.

In the end, there's nothing really wrong with the Wii U Edition of Tekken Tag Tournament 2, although players wanting the best visual experience (by a very small margin) and most stable online gameplay would do better to look towards the PS3 and 360 versions of the game. If you already own one of the other versions of the game there's little point in picking up the Wii U release, but if you haven't made a purchase yet - and own Nintendo's new machine - Tekken Tag Tournament 2 remains an excellent fighting game that's well worth the investment. It's just a shame that publishers insist on charging full price for titles on the Wii U that are available at significant discounts on the other consoles, which makes a 360 or PS3 purchase the way to go.
http://www.eurogamer.net/articles/digitalfoundry-tekken-tag-tournament-2-on-wii-u-face-off


Das ist wahrscheinlich der Preis der Abwärtskompatibilität. Da Nintendo ja aber die Konsolen nicht subventioniert sind Raubkopierer kein so großes Problem wie bei Sony und MS.

1. Die ersten PS3 Modelle waren auch abwärtskompatibel, trotzdem hat es ewig gedauert bis zum ersten nennenswerten Hack. Der 3DS ist auch noch sicher (nur DS Roms abspielbar). Wie es ausschaut geht der Hack klar über den Wii Modus mit Wii Exploits hinaus.
Wenn man sich die Aussagen der ganzen Hacker mal durchliest, dann lehnen die sich ziemlich weit aus dem Fenster und machen sich geradezu lustig über das Sicherheitskonzept der Wii U.

2. Laut Nintendo wird die Konsole subventioniert, wenn auch nur im geringem Umfang.

Steffko
2012-12-20, 10:52:19
Ob die Hacker da wirklich schon so weit sind, wie die angeben, ist ja immernoch die Frage. Davon abgesehen hat Nintendo dieses Mal natürlich die Möglichkeit mit Firmware Updates dagegen zu halten.
In Sachen Abwärtskompatibilität war ja bisher immer die Vermutung, dass der Wii Modus eben wegen der Sicherheit so "abgeschottet" ist, also nicht als Einfallstor zum Hacken der Wii U dienen soll. Wäre es dennoch über diesen Weg gegangen, wäre das natürlich ein ordentlich Flop ;D

Jim
2012-12-20, 11:53:48
Für 480p @ H.264 nicht so wenig. Zumal einige Reviews auf dem Pad durchaus Kompressionsartefakte festgestellt haben.
Je schlechter der Empfang, desto stärker die Artefakte. Normalerweise kann man aber kaum Artefakte feststellen.

Tomi
2012-12-20, 11:57:33
Davon abgesehen hat Nintendo dieses Mal natürlich die Möglichkeit mit Firmware Updates dagegen zu halten.

Wenn die Konsole nicht online ist, nützt das nichts. Siehe Sony. Da spielt sich auch kein Kopiezocker ne aktuelle OFW drauf bzw. lassen sich die Updates blockieren (das ging auch schon bei der Wii, wenn Offline Spiele das verlangten). Es wird drauf ankommen, wie das Sicherheitskonzept von Nintendo gestaltet ist und ob die Hacker wie bei Sony auf jede Anpassung reagieren können. In erster Linie liefe das dann über die Spiele, die eine bestimmte OFW voraussetzen. Bei Sony ist da Polen offen.

Skysnake
2012-12-20, 13:37:16
Oder Nintendo scheist halt auf den immensen Aufwand, um Tage/Wochen gegen Hacker bestehen zu können, und sieht es ein, das es so was einfach immer geben wird, aber eben auch immer mehr als genug Leute, die ein gutes Produkt kaufen.

Steffko
2012-12-20, 14:17:10
Wenn die Konsole nicht online ist, nützt das nichts. Siehe Sony. Da spielt sich auch kein Kopiezocker ne aktuelle OFW drauf bzw. lassen sich die Updates blockieren (das ging auch schon bei der Wii, wenn Offline Spiele das verlangten). Es wird drauf ankommen, wie das Sicherheitskonzept von Nintendo gestaltet ist und ob die Hacker wie bei Sony auf jede Anpassung reagieren können. In erster Linie liefe das dann über die Spiele, die eine bestimmte OFW voraussetzen. Bei Sony ist da Polen offen.


Ich kenne mich zugegebenermaßen nicht sonderlich großartig mit der Sache aus, aber solange Nintendo nicht total dämlich ist gehe ich doch fest davon aus, dass man für neue Spiele schlicht regelmäßig die neueste Firmware mit auf die Disc packen wird, die automatisch installiert wird bzw. eben ohne diese Installation (falls man diese irgendwie blockiert) nicht startet.
M.E. funktioniert das ja auch beim 3DS schon so. Wobei dort ja offensichtlich das Sicherheitskonzept aus irgend einem Grund insgesamt wesentlich effektiver, als bei der Wii U zu sein scheint. Immerhin ist das Teil schon seit fast 2 Jahren auf dem Markt und anscheinend immer noch nicht geknackt.


@Skysnake Ich denke, dass es schon ein "sowohl als auch" ist. Sprich Nintendo wird nicht jede winzige Lücke dichtmachen wollen/können. Sie werden aber sicherstellen wollen, dass es zu unkomfortabel oder aufwändig ist, eine Konsole zu hacken und dann auch dauerhaft aktuelle Spiele damit spielen zu können.

Finch
2012-12-20, 15:00:50
man darf aber nicht vergessen das dieser Umstand dafür sorgen wird, dass die Wii U für 3rd PArty Entwickler noch uninteressanter wird.

Screemer
2012-12-20, 15:21:17
die ps2 hätte dann für 3rd parties auch recht schnell unattraktiv werden müssen. es hängt immer von der marktsituation ab.

Finch
2012-12-20, 15:32:03
die ps2 hätte dann für 3rd parties auch recht schnell unattraktiv werden müssen. es hängt immer von der marktsituation ab.

Die PS2 hatte, genau wie du sagst, eine ganz andere Marktsituation. Sie war verbreitet, die Dreamcast schon weg vom Fenster. Ausserdem war der Umbau einer PS2 noch eine größere Hürde als ein einfacher Softwareflash.

Die Wii U hat 130 Millionen Konkurrenz Konsolen vor der Haustür stehen. Das ist etwas, was sich Nintendo nicht leisten kann.

john carmack
2012-12-20, 15:49:09
den Thread hier könnte man schließen wie ich finde.

ist doch alles offiziell, oder?

Gipsel
2012-12-20, 16:15:45
den Thread hier könnte man schließen wie ich finde.

ist doch alles offiziell, oder?
Was steckt denn offiziell in der Wii U? :wink:

Steffko
2012-12-20, 16:39:45
den Thread hier könnte man schließen wie ich finde.

ist doch alles offiziell, oder?


Ganz im Gegenteil: afaik ist es z.B. nach wie vor vollkommen unklar, wie viele Streamprozessoren die GPU nun hat.


Edit:

man darf aber nicht vergessen das dieser Umstand dafür sorgen wird, dass die Wii U für 3rd PArty Entwickler noch uninteressanter wird.

Das ist momentan m.E. noch vollkommen unklar. Man weiß ja gerade nicht, wie aufwändig die Sache ist, inwiefern Nintendo mit Firmware Updates gegen die Sache vorgehen kann etc.

Coda
2012-12-20, 17:19:37
den Thread hier könnte man schließen wie ich finde.

ist doch alles offiziell, oder?
Man weiß immer noch nicht genau wie die CPU aufgebaut ist etc.

ZipKaffee
2012-12-20, 17:41:41
Man weiß immer noch nicht genau wie die CPU aufgebaut ist etc.

Genau und ich will endlich mehr fundierte Infos. :frown:

Lightning
2012-12-20, 19:00:18
Warum sickert da eigentlich aus Entwicklerkreisen nichts durch? Auch wenn offiziell vielleicht keiner darüber sprechen darf, sind Leaks doch eigentlich nicht immer so selten.

del_4901
2012-12-20, 19:31:50
Warum sickert da eigentlich aus Entwicklerkreisen nichts durch? Auch wenn offiziell vielleicht keiner darüber sprechen darf, sind Leaks doch eigentlich nicht immer so selten.Man moechte ja bestimmt im Kreis der Eingeweihten bleiben, ausserdem gibt es noch sowas wie die Entwickler Ehre. Bei der Reinigungskraft hat man weitaus bessere Chancen was "rauszupressen". :ugly:
Und dann gibt es auch viele die einfach aus Spass oder ganz bewust Falschinformationen unter das Volk streuen, hier ist es bestimmt nicht ganz einfach rauszubekommen was wahr ist und was nicht.

Finch
2012-12-20, 20:49:59
Das ist momentan m.E. noch vollkommen unklar. Man weiß ja gerade nicht, wie aufwändig die Sache ist, inwiefern Nintendo mit Firmware Updates gegen die Sache vorgehen kann etc.

So wie die Wii auch nach und nach sicherer wurde? :freak:

Ronny145
2012-12-25, 22:52:07
http://nintendoeverything.com/108560/wii-u-eshop-charts-121712/
http://nintendoeverything.com/109161/wii-u-eshop-charts-122412/


Das grafisch schönste (den Gamma Bug ausgeklammert) Wii U Spiel scheint sich gut zu verkaufen. Das gibt Hoffnung auf einen Nachfolger.

Finch
2012-12-26, 00:37:19
Trine ist also das grafische Aushängeschild?

Ronny145
2012-12-26, 00:40:32
Ich sehe keins was mich mehr vom Hocker reißen (würde). Die PC Version sieht natürlich weitaus besser aus.

Cubitus
2012-12-26, 01:47:21
http://nintendoeverything.com/108560/wii-u-eshop-charts-121712/
http://nintendoeverything.com/109161/wii-u-eshop-charts-122412/


Das grafisch schönste (den Gamma Bug ausgeklammert) Wii U Spiel scheint sich gut zu verkaufen. Das gibt Hoffnung auf einen Nachfolger.
Ach schade das man Trine2 nicht in 3D (das sieht auf dem PC wirklich mega geil aus) spielen kann!

Trine2 in 3D + der tollen Steurung der Wii U, das wäre was Feines :)

esqe
2012-12-26, 02:34:34
Trine ist also das grafische Aushängeschild?

Welches Spiel vermittelt denn am besten, das ein gutes Spiel keine Über-Hardware braucht?

Glückwunsch, Nintendo!

Hallo
2012-12-28, 02:36:46
Ich sehe keins was mich mehr vom Hocker reißen (würde). Die PC Version sieht natürlich weitaus besser aus.

Weitaus ist ein wenig uebertrieben wenn du Trine2 meinst.Der groesste Unterschied ist aufm PC kann man es mit 60fps laufen lassen.Und selbst mit AA/AF siehts nicht dramatisch besser aus als auf 360 was ja ungefaehr mit U gleichzusetzen ist.Habs selber im direkten A/B Vergleich ausgetestet auf nem 50"er.

Die Framerate ist natuerlich besser, wenn du darunter dramatisch besser verstehst bin ich ok damit.Als Standbild nicht wirklich.

Ronny145
2012-12-28, 12:04:49
Weitaus ist ein wenig uebertrieben wenn du Trine2 meinst.Der groesste Unterschied ist aufm PC kann man es mit 60fps laufen lassen.Und selbst mit AA/AF siehts nicht dramatisch besser aus als auf 360 was ja ungefaehr mit U gleichzusetzen ist.Habs selber im direkten A/B Vergleich ausgetestet auf nem 50"er.

Die Framerate ist natuerlich besser, wenn du darunter dramatisch besser verstehst bin ich ok damit.Als Standbild nicht wirklich.


Downsampling alleine macht schon einen ziemlich großen Unterschied aus. Die Wii U hat nur FXAA, zudem läuft das nur in 720p. Xbox360 wäre noch schlimmer, die Auflösung kann sich dynamisch verringern wenn die Leistung nicht reicht.

Nightspider
2012-12-28, 20:29:01
Ich frage mich wie hoch die Chancen stehen, das man von der Wii-U innerhalb der nächsten 2 Jahre einen Refresh bringt bei dem möglicherweise das Bild des Controllers weniger komprimiert wird (dank besserer Funkübertragung o.ä.).

Potential für einen Hardware Shrink ist ja genug da, da die alte WiiU Hardware ja nur in 45nm gefertigt wird. 2014 gäbe es schon 22nm bzw. den 28nm in billig.

Selbst mit dem alten 28nm Prozess würde BigN locker 50% Chipfläche sparen.

Gegen ein besseres Display hätte ich auch nix. Durch die ganzen HighEnd Smartphones sind die Augen verwöhnt. Gerade wo jetzt die ersten Smartphones mit FullHD bei 5Zoll auf den Markt kommen.

Aber die Auflösung kann Nintendo ja nicht erhöhen. Nur den Kontrast verbessern und das Bild weniger komprimieren.

Zumindest muss Nintendo innerhalb der nächsten 2 Jahre DEFINITIV den Preis senken, wenn man Sony und MS gegenübertreten will.

Wenn IGZO Displays in 2 Jahren Massenware sind kann man diese auch in den Controller einbauen um den Stromverbrauch zu senken und besseren Kontrast/Blickwinkelstabilität zu erreichen.


Ist es möglich das Nintendo später den Übertragungschip auf den neuen Wlan "ac" Standard upgradet um die Kompressionartefakte zu vermeiden?


Send by ipad

dildo4u
2012-12-28, 20:35:32
Die werden nix am Streaming verbessern weil das was du ansprichst nicht mal 1% der User auffallen wird.Es geht nur darum so billig wie möglich zu werden um Konkurrenzfähig zu sein,zur Zeit ist die Konsole einfach viel zu teuer für Gebotene.Die Verkaufszahlen sahen in der EU schon um Weihnachten düster aus,das wird Anfang 2013 nur schlechter.

Die Woche vor Weihnachten kein Mario U in den UK/EU Charts.
http://www.neogaf.com/forum/showthread.php?t=505382

Shrinks sind nicht unbedingt immer billiger,da nur wenige Fabriken in 28nm herstellen können nehmen die auch mehr Geld.

Naitsabes
2012-12-28, 20:36:27
Naja, es ist Nintendo - das heißt, das neue Gamepad muss auch mit alten WiiUs funktionieren etc.

Deswegen glaube ich, dass an der Übertragung nichts verändert wird (müsste ja auch bezahlt werden...^^). Da wird man eher ein neues/besseres Panel verbauen (aber weiterhin resistiv und ohne Multitouch...) und einen stärkeren Akku.

Deathcrush
2012-12-28, 21:54:20
Die werden nix am Streaming verbessern weil das was du ansprichst nicht mal 1% der User auffallen wird.Es geht nur darum so billig wie möglich zu werden um Konkurrenzfähig zu sein,zur Zeit ist die Konsole einfach viel zu teuer für Gebotene.Die Verkaufszahlen sahen in der EU schon um Weihnachten düster aus,das wird Anfang 2013 nur schlechter.


Wie gut das deine Prognosen bisher immer falsch waren, das hattest du ja schon damals mit der PS3 wunderbar bewiesen ;D

dildo4u
2012-12-28, 22:17:26
Hat alles nur länger gedauert bis es eingetroffen ist,Wii ist schon Jahre irrelevant für intensiv User und die PS3 wird wie die PS2 insgesamt 10 Jahre relevant bleiben und neue Hardcore Games bekommen.(Lustigerweise auch dank der schwachen Wii-U Hardware) Wenn man sieht wie viele PS2's nach 2006 noch verkauft wurden kann man auch locker noch Wii bei den Verkaufszhalen einholen.
Durch die länge des Softwaresupport's kann man auch mehr Software absetzen auch wenn die besten Wii Jahre deutlich besser als die besten PS3 Jahre waren.Die Generation mit 360,PS3 und Wii-U zusammengerechnet ist einfach zu lukrativ um dort die nästen Jahre den Softwaresupport zu kappen.

Deathcrush
2012-12-28, 23:17:45
Hat alles nur länger gedauert bis es eingetroffen ist

Nö, selbst dann nicht. Und du hast ja damals schon behauptet, das die PS3 nach einem Jahr das rennen machen wird ;) Bei dir ist immer sehr viel heiße Luft im Spiel.

http://www.golem.de/news/sony-und-microsoft-ps3-und-xbox-360-bei-jeweils-70-millionen-exemplaren-1211-95750.html

krötenfresse
2012-12-31, 12:52:14
wie sieht das nun mit der cpu der wii-u aus? falls sie wirklich so schwach ist, wie einige vermuten, können dann bereits für die 360 erschienene titel nicht so einfach für die wii-u umgesetzt werden?
und wie sieht das bei neu in der entwicklung befindlichen titeln aus?

Finch
2012-12-31, 13:02:32
wie sieht das nun mit der cpu der wii-u aus? falls sie wirklich so schwach ist, wie einige vermuten, können dann bereits für die 360 erschienene titel nicht so einfach für die wii-u umgesetzt werden?
und wie sieht das bei neu in der entwicklung befindlichen titeln aus?

Aufgrund der abwärtskompatibilität dürfte es sich noch immer um einen leicht aufgebohrten Power750 handeln.

Ist jetzt nicht der Hammer, aber die 35w fordern ihren Tribut. Einige X360 Titel dürften Probleme machen. Aber für ein 720p Zelda dürfte es reichen. Ich hatte bisher nicht den Anschein, dass Nintendo Titel viel CPU Power bräuchten.

krötenfresse
2012-12-31, 13:29:09
Aufgrund der abwärtskompatibilität dürfte es sich noch immer um einen leicht aufgebohrten Power750 handeln.

Ist jetzt nicht der Hammer, aber die 35w fordern ihren Tribut. Einige X360 Titel dürften Probleme machen. Aber für ein 720p Zelda dürfte es reichen. Ich hatte bisher nicht den Anschein, dass Nintendo Titel viel CPU Power bräuchten.
es geht mir bei meiner frage nur um die multiplattform-titel. wenn man jetzt die entwicklung eines solchen auch für die wii-u plant, kann es trotzdem probleme wegen stark unterschiedlicher hardware im vergleich zu den andern konsolen geben?

Finch
2012-12-31, 13:34:54
Sicher. Der Prozessor dürfte unter den dreien der schwächste sein. Das wird Auswirkungen auf third Party Titel haben. Das Resultat wird eher, dass die Multikonsolentitel einfach nicht auf der Wii U erscheinen werden.
Erste Tendenzen dahingehend sind ja schon zu sehen.

Die Konsole steht unter keinem guten Stern.

MartinB
2012-12-31, 13:36:19
Natürlich. Es wird genauso laufen wie bei PS360 und Wii. Für die schwächere Konsole kommen eigene abgespeckte Versionen raus oder eben komplett eigene Titel mit dem gleichen Namen, wie z.B.:

https://www.youtube.com/watch?v=Nyz5EGy8dro

Deathcrush
2012-12-31, 13:50:55
Sicher. Der Prozessor dürfte unter den dreien der schwächste sein. Das wird Auswirkungen auf third Party Titel haben. Das Resultat wird eher, dass die Multikonsolentitel einfach nicht auf der Wii U erscheinen werden.


Das hat aber nichts mit der Hardware zu tun, siehe dazu auch Mass Effect 3 was ja auch ordentlich portiert wurde und sogar teilweise besser rennt als die PS3 Version, sondern eher damit wie verbreitet die Konsole ist. Und die Verkaufszahlen der WiiU sind derzeit besser, als z.B. die PS3 bei derrem release

Xbox 360 - 65.000 Verkäufe/Tag
Wii U - 61.000 Verkäufe/Tag
Playstation 3 - 22.000 Verkäufe/Tag

Die WiiU mag sicher nicht den gleichen Erfolg haben wie die Wii, aber dennoch wird sie sich sehr gut verkaufen, dessen bin ich mir sicher.


P.S. Und keiner weiss inwieweit die CPU von der GPGPU und dem eigenen Soundprozessor entlastet werden kann ;-) Alles nur Spekulationen. Und Taktraten sind nicht alles, siehe dazu den Pentium 4 ;-)

Finch
2012-12-31, 14:02:23
Das jetzt die Verkäufe noch gut laufen, ist klar. Aber wie sieht es in einem Jahr aus? Die Konsole wird nie ein großer Renner.

Die Entlastung durch GPGPU verlangt aber wieder einen besonderen Aufwand.

Aber wir beiden sind in unseren Standpunkten sowieso sehr gegensätzig. ;)


De Zeit wird zeigen, welche Einschätzung näher an der Wahrheit liegen wird.

Ich werde auf den X360 Nachfolger warten.

Deathcrush
2012-12-31, 14:07:45
Das jetzt die Verkäufe noch gut laufen, ist klar. Aber wie sieht es in einem Jahr aus?

Abwarten, wenn erst einmal Zelda, Metroid Prime, Mario Kart und Mario 3D erscheinen, werden die Karten neu gemischt ;) An die Wii wird sie sicher nicht anknüpfen können, da bin ich mir ziemlich sicher, aber ein Flop erwarte ich nicht.


Die Entlastung durch GPGPU verlangt aber wieder einen besonderen Aufwand.


Ist bei der PS3 nicht anders und wenn die Hardwarebasis stimmt, also die verkauften Einheiten der Konsole, spricht auch nichts gegen einen Port auf die WiiU.

Finch
2012-12-31, 14:13:01
Abwarten, wenn erst einmal Zelda, Metroid Prime, Mario Kart und Mario 3D erscheinen, werden die Karten neu gemischt ;) An die Wii wird sie sicher nicht anknüpfen können, da bin ich mir ziemlich sicher, aber ein Flop erwarte ich nicht.



Ist bei der PS3 nicht anders und wenn die Hardwarebasis stimmt, also die verkauften Einheiten der Konsole, spricht auch nichts gegen einen Port auf die WiiU.

Es spricht insofern etwas gegen die Wii U, das es sich um einen erneuten Aufwand handelt, für eine derzeit nicht relevante Hardwarebasis, geschweige denn Kunden. Viele Wii U Käufer interessieren sch auch nicht für die neusten Multititel

MartinB
2012-12-31, 14:14:07
Die Titel sind ja noch nichtmal angekündigt. Sobald Halo 5, Forza 5, GTR6, Little Big Planet 3 oder Uncharted 4 erscheinen sieht die WiiU kein Land mehr ;).

Die Wii hatte den Vorteil erheblich günstiger zu sein, aber die WiiU ist für das gebotene teuer und wird kaum günstiger werden (denn der Tablet Controller kostet schon ne Menge).

Und auf GPGPU zu hoffen um die veraltete CPU zu entlasten ist auch sehr gewagt.

Deathcrush
2012-12-31, 14:25:50
Die Titel sind ja noch nichtmal angekündigt. Sobald Halo 5, Forza 5, GTR6, Little Big Planet 3 oder Uncharted 4 erscheinen sieht die WiiU kein Land mehr ;).


Noch sind ja nicht einmal die neuen Konsolen angekündigt ;) Wer weiss wann sie überhaupt erscheinen, welche Hardwarebasis sie besitzen ....... usw. Und wenn die PS4 sich genauso schleppend verkauft wie die PS3, dann hat die WiiU noch eine menge Zeit. Zu dem kann man in 2 Jahren den Preis der WiiU sicher herabsetzen und somit die Konsole noch mal pushen. Ausserdem erscheinen ja sicher noch Spiele wie Zelda, Metroid Prime, Mario Kart und Mario 3D, die die Konsole genauso pushen wie Uncharted 4 oder Forza.

Btw Mario Kart für die Wii hat sich laut VGA Charts 33 Millionen mal verkauft ;)



Und auf GPGPU zu hoffen um die veraltete CPU zu entlasten ist auch sehr gewagt.

Warum? Auf dem PC macht man doch nichts anderes. Und was die CPU kann oder nicht kann, wirst auch du nicht wissen. Alles reine Spekulationen.

MartinB
2012-12-31, 14:28:01
Das ist für deine Argumentationskette aber völlig egal. Die WiiU wird sich gut verkaufen, weil es später Platform Seller geben wird? Ach was.

Die WiiU ist technisch bereits veraltet. Ich will im Jahre 2013 keine Grafik mehr die es vor 7 Jahren bereits auf der Xbox360 und vor 6 Jahren auf der PS3 gab. Wenn die WiiU wieder genauso lange auf dem Markt bleibt wie die Wii, dann kann man endlich im Jahre 2019 Zelda mit 720p zocken, bzw mit einer miserablen Auflösung und kaputtkomprimierten Farben auf einem resistiven Tablet.


Das Konzept der Wii war gut und hatte eine definierte Zielgruppe. Die WiiU ist im Vergleich eine Konsole ohne Identität. Das Argument des "asymmetrischen Spielens" ergibt sich nur aus der Tatsache dass die WiiU zu langsam und zu teuer wäre für zwei Tablet Controller.

Deathcrush
2012-12-31, 14:39:02
Wer sagt denn, das die Grafik auf den Stand der PS3 und XBox360 bleiben wird?

http://www.youtube.com/watch?v=Shch7LNkVXw

Zu dem ist die Aussage "wie vor 6-7 Jahren" sehr gewagt, denn heutige Spiele sehen ja auch besser aus als wie vor 6-7 Jahren und die WiiU kann diese ja auch darstellen ;) (ME3, AC3...)

Spasstiger
2012-12-31, 14:58:24
Wer sagt denn, das die Grafik auf den Stand der PS3 und XBox360 bleiben wird?

http://www.youtube.com/watch?v=Shch7LNkVXw
Das Video beweist nur, dass die Wii U Current-Gen-fähig ist. Highlights sehe ich in dieser Techdemo nicht. Das Sehenswerteste ist imo noch das Subsurface Scattering von dem Fisch am Ende, der Rest ist Standardkost. Was die Beleuchtung angeht, sind mehrere aktuelle Spiele schon ein bis zwei Schritte weiter (z.B. Crysis 2 mit Global Illumination).

Deathcrush
2012-12-31, 16:21:09
Ich finde schon das sich die Grafik unterscheidet zur XBox360/PS3

http://www.youtube.com/watch?v=arHNcSMXaBk&

mr coffee
2012-12-31, 16:51:01
Ja, wenn's denn mal so aussieht, dann schon. Das muss die WiiU aber noch zeigen, kaufbar ist noch nichts was annähernd wie die Zelda Demo aussieht.

Deathcrush
2012-12-31, 16:53:55
Da gebe ich dir recht, aber welche Konsole hat schon von Anfang an ihr ganzes Potential gezeigt?

Steffko
2012-12-31, 17:13:23
Die Titel sind ja noch nichtmal angekündigt. Sobald Halo 5, Forza 5, GTR6, Little Big Planet 3 oder Uncharted 4 erscheinen sieht die WiiU kein Land mehr ;).

Die Wii hatte den Vorteil erheblich günstiger zu sein, aber die WiiU ist für das gebotene teuer und wird kaum günstiger werden (denn der Tablet Controller kostet schon ne Menge).

Und auf GPGPU zu hoffen um die veraltete CPU zu entlasten ist auch sehr gewagt.


Glaskugel anyone? Klar wird die Konsole günstiger werden! Nintendo dürfte es auch klar sein, dass 299 bzw. im eigentlichen Sinne 349€ (die Basic Variante wird wohl von vielen, ob zu recht oder zu unrecht sei mal dahingestellt, als "Tard Pack" gesehen) gerade für einen großen Teil der Nintendo Kundschaft zu viel ist. Ich gehöre zwar zu den Erstkäufern und würde mich dementsprechend auch irgendwo ärgern, aber dennoch gehe ich ehrlich gesagt fest davon aus, dass die Konsole spätestens im Herbst 2013 ne erste Preissenkung bekommen wird.
Und dann muss man sich da auch keine Illusionen machen: wenn X720/PS4 auf dem Markt sind wird die Wii U, wie schon die Wii, die günstigste Konsole der Generation sein - und das wahrscheinlich ziemlich deutlich.


Edit: In Sachen Potenzial, wenn man sich bspw. mal ein Super Mario Galaxy anschaut und das mit dem Durchschnittslaunchtitel der Wii vergleicht sollte doch klar sein, dass auch bei Wii U noch (wahrscheinlich viel) Luft nach oben ist.

MartinB
2013-01-01, 13:11:21
Glaskugel anyone? Klar wird die Konsole günstiger werden! Nintendo dürfte es auch klar sein, dass 299 bzw. im eigentlichen Sinne 349€ (die Basic Variante wird wohl von vielen, ob zu recht oder zu unrecht sei mal dahingestellt, als "Tard Pack" gesehen) gerade für einen großen Teil der Nintendo Kundschaft zu viel ist. Ich gehöre zwar zu den Erstkäufern und würde mich dementsprechend auch irgendwo ärgern, aber dennoch gehe ich ehrlich gesagt fest davon aus, dass die Konsole spätestens im Herbst 2013 ne erste Preissenkung bekommen wird.
Und dann muss man sich da auch keine Illusionen machen: wenn X720/PS4 auf dem Markt sind wird die Wii U, wie schon die Wii, die günstigste Konsole der Generation sein - und das wahrscheinlich ziemlich deutlich.


Edit: In Sachen Potenzial, wenn man sich bspw. mal ein Super Mario Galaxy anschaut und das mit dem Durchschnittslaunchtitel der Wii vergleicht sollte doch klar sein, dass auch bei Wii U noch (wahrscheinlich viel) Luft nach oben ist.

Glaskugel anyone? ;)

Die Wii U wird im Vergleich zur Hardwareleistung immer teurer bleiben müssen, denn der Tablet-Controller dirigiert den Preis. Die Konsole an sich könnte durch DIE-Shrinks günstiger werden, oder Nintendo stellt irgendwann auf einen anderen SOC um, aber der Controller wird immer da bleiben. Ein extra Touchscreen kostet eben nunmal mehr Geld als nur ein Stück Plastik und ein paar Knöpfe.

=Floi=
2013-01-01, 13:28:25
848x480 @ 6,2 zoll. kein multitouch. das teil ist genau so billig wie der rest der konsole.
preise für displays sinken auch mit der zeit. (man dürfte jetzt schon sehr nahe an den reinen material/produktionskosten sein)

Steffko
2013-01-01, 13:39:17
Glaskugel anyone? ;)

Die Wii U wird im Vergleich zur Hardwareleistung immer teurer bleiben müssen, denn der Tablet-Controller dirigiert den Preis. Die Konsole an sich könnte durch DIE-Shrinks günstiger werden, oder Nintendo stellt irgendwann auf einen anderen SOC um, aber der Controller wird immer da bleiben. Ein extra Touchscreen kostet eben nunmal mehr Geld als nur ein Stück Plastik und ein paar Knöpfe.

:biggrin:


Die Konsole wird im Verhältnis zur Hardwareleistung teurer bleiben, das ist vermutlich richtig. Absolut gesehen wird sie aber günstiger sein, als die direkten Konkurrenten - genauso wie das schon (größtenteils) bei der Wii lief. Und wie viel den Markt da die Grafik interessiert hat, haben wir ja gesehen.

Nintendo wird bei den ersten paar Millionen Konsolen wohl auch ordentlich R&D mit bei den Kosten reinschieben.

Finch
2013-01-01, 14:32:25
Dumm nur, das die direkte Konkurenz erstmal X360 und PS3 heißen;)

disap.ed
2013-01-02, 07:56:47
Ich bin schon auf die Verkaufszahlen gespannt, am 21. ist laut GAF Investorenmeeting. Gerade in Europa dürfte es ja wirklich schlecht laufen mit den Verkäufen, ich denke wir sehen hier noch vor Ostern eine erste Preissenkung.

Zavvi in England hatte ja gerade eben eine £225 Aktion für die Premium, selbst damit hat es 3 Tage gedauert bis die angeboteten 500 Stück verkauft waren.

Also über 279€ sollte die Premium nicht kosten, langfristig sollten es 249€ sein.
Das wäre IMO ein vertretbarer Preis, Spiele sollten dann inzwischen auch mehr verfügbar sein. Basic sollte man auslaufen lassen oder stattdessen eine weiße 32GB ohne den ganzen Ständer-Krempel bringen.

Rancor
2013-01-02, 16:30:42
Ich bin schon auf die Verkaufszahlen gespannt, am 21. ist laut GAF Investorenmeeting. Gerade in Europa dürfte es ja wirklich schlecht laufen mit den Verkäufen, ich denke wir sehen hier noch vor Ostern eine erste Preissenkung.

Zavvi in England hatte ja gerade eben eine £225 Aktion für die Premium, selbst damit hat es 3 Tage gedauert bis die angeboteten 500 Stück verkauft waren.

Also über 279€ sollte die Premium nicht kosten, langfristig sollten es 249€ sein.
Das wäre IMO ein vertretbarer Preis, Spiele sollten dann inzwischen auch mehr verfügbar sein. Basic sollte man auslaufen lassen oder stattdessen eine weiße 32GB ohne den ganzen Ständer-Krempel bringen.

Das liegt imho auch an den nicht vorhanden Systemsellern.
Es ist völlig unverständlich, wieso es zu Release einer Nintendokonsole kein Metroid, Zelda oder 3D Mario gibt. Das ist doch das eigentliche Problem.
Ein 2D Mario, was im Prinzip nur ein abklatsch der DS und WII Versionen ist, haut niemanden so richtig vom Hocker.

Über die Leistungsfähigkeit lässt sich nur spekulieren. Zelda Demo Grafik dürfen wir erwarten, an mehr glaub ich nicht, lasse mich aber gerne eines besseren belehren.

Von den jetzigen Ports auf die Leistungsfähigkeit zu schließen, ist aber auch mehr als fragwürdig.

Deathcrush
2013-01-02, 16:45:27
Ein 2D Mario, was im Prinzip nur ein abklatsch der DS und WII Versionen ist, haut niemanden so richtig vom Hocker.


Das 2D Mario hat sich auf der Wii 26 Millionen mal verkauft, Mario Galaxy nur 10 Millionen mal ;-), also völlig verständlich wieso man ein Mario 2D released und das möglichst zeitnah zum Release der Konsole

Und so schlecht sind die Verkaufszahlen gar nicht, sogar deutlich besser als die PS3 beim Verkaufsstart.

Felixxz2
2013-01-02, 20:29:37
Der Verkaufsstart der PS3 ist aber auch wirklich kein Maßstab für nen guten Launch. Das Ding hat 600€ gekostet....und sich entsprechend Verkauft.

Rancor
2013-01-02, 20:47:04
Das 2D Mario hat sich auf der Wii 26 Millionen mal verkauft, Mario Galaxy nur 10 Millionen mal ;-), also völlig verständlich wieso man ein Mario 2D released und das möglichst zeitnah zum Release der Konsole

Und so schlecht sind die Verkaufszahlen gar nicht, sogar deutlich besser als die PS3 beim Verkaufsstart.

Das Problem an einem 2D Mario ist, das es davon mittlerweile zuviele Versionen gibt, die alle noch recht aktuell sind.

Ein HD Zelda, anstatt Skyward Sword, wäre zum Release richtig gewesen, zumal man 2011 schon die Zelda demo zeigte.

Nintendo will nach eigenen Aussagen Coregamer wieder ansprechen. Ihr eigenes Software Lineup spricht nicht dafür

Skysnake
2013-01-02, 23:42:28
Und du glaubst, dass das die Leute interessiert, ob es schon das drölf Millionste Mario ist?

Es ist Mario. Das ist für die meisten schon Grund genug es zu kaufen.

MR2
2013-01-04, 15:42:18
Bitte löschen

Locuza
2013-02-04, 18:35:10
Es gibt coole Infos von chipwork. ;)

http://www.chipworks.com/blog/technologyblog/2013/02/04/looking-at-the-wii-u-graphics-processor/

Wiiu GPU dieshot:
http://www.chipworks.com/blog/technologyblog/files/2013/02/C10234F5_Poly_b.jpg

Nakai
2013-02-04, 19:34:01
Mhh, schnell mal nen RV770-Dieshot angeguckt und Vergleiche gezogen.

Wii U hat anscheinend 160SPs und 8 TMUs(Zwei SIMDs, je 4 TMUs). Mittig, rechts neben dem EDRAM, sieht ziemlich nach zwei RV7xx-SIMDs aus. Die TMU-Blöcke liegen anscheinend oben drüber.

Da ich keine Ahnung von Chipdesigns hab, alles nur Speku. Dennoch schwirren diese Zahlen schon länger in der Luft.


mfg

AnarchX
2013-02-04, 19:52:17
Da werden wohl eher 4 SIMDs sein, die etwas kompakter designt sind, wie in den RV8xx-GPUs.

Interessant auch ist dieser zusätzliche eDRAM(?)-Block, vielleicht der CPU-L3-Cache?

Locuza
2013-02-04, 20:28:10
Es sieht nach verdammt wenig aus?
Aber ich steig gerade in die Zählerei gar nicht ein.

44902
44903

Gipsel
2013-02-04, 22:38:18
Da werden wohl eher 4 SIMDs sein, die etwas kompakter designt sind, wie in den RV8xx-GPUs.Ja, sehe ich auch so. 320 SPs, 16 TMUs. LDS kann ich nirgendwo erblicken. Das mag aber auch an dem recht irregulären gequetschten Layout liegen (keiner der 4 TMU-Blöcke sieht aus wie der ander und daß die zwei Hälften des SIMDs nicht in einer Reihe stehen, sondern versetzt angeordnet sind, sehe ich auch zum ersten Mal). GPUs sind sonst wegen der regulären Strukturen einfacher zu deuten.

Locuza
2013-02-05, 00:03:47
Chipworks hat selber noch etwas erklärt:

44907

Und hier der Neogaf-Thread, woher alles kommt:
http://www.neogaf.com/forum/showthread.php?t=511628

Wichtige Infos herausgegriffen:


- The die is exactly 11.88 x 12.33mm (146.48mm²)

- The large orange block on the left is the 32MB of eDRAM (MEM1). Up: It's 40.72mm², and takes up 27.8% of the die. Judging by Chipworks comments above, and the densities Renesas offers for 40nm eDRAM, it is very likely at this point that the MEM1 pool of eDRAM operates with a bandwidth of 70.4GB/s.

- The smaller orange block above it seems to be about 3MB of eDRAM (Up: It's 4.25mm²).

- The lower left units are a high-bandwidth interface such as a SERDES or MIPI. These are used to give very high bandwidth over relatively few wires, so it's likely that this is used to communicate with something elsewhere on the motherboard, possibly a chip handling compression and transfer of video to the gamepad.

- All the small dark orange/black blocks you see over the GPU part of the die are SRAM blocks. The number and formation of them should give us clues as to what part of the chip does what.

Nightspider
2013-02-05, 00:27:47
Sagt bescheid, wenn ihr neue Schlussfolgerungen zur theoretisch nutzbaren Leistung bei guter Programmierung ziehen könnt. (Im Vergleich zur Xbox360 und PS3)

Nakai
2013-02-05, 01:40:17
Ja, sehe ich auch so. 320 SPs, 16 TMUs. LDS kann ich nirgendwo erblicken. Das mag aber auch an dem recht irregulären gequetschten Layout liegen (keiner der 4 TMU-Blöcke sieht aus wie der ander und daß die zwei Hälften des SIMDs nicht in einer Reihe stehen, sondern versetzt angeordnet sind, sehe ich auch zum ersten Mal). GPUs sind sonst wegen der regulären Strukturen einfacher zu deuten.

Mhh, hätt ich ähnlich gedeutet.
Dennoch kann ich nicht sehen, wie man auf 320SPs kommt. Die Strukturen sind sehr ähnlich zum RV770. Ich sehe, wenn ich den RV770-Dieshot zur Rate ziehe, nur 160SPs und 8 TMUs. Außer die haben pro Block nun das Doppelte verbaut...wenn das so einfach nur möglich ist.

Gipsel
2013-02-05, 01:59:43
Mhh, hätt ich ähnlich gedeutet.
Dennoch kann ich nicht sehen, wie man auf 320SPs kommt. Die Strukturen sind sehr ähnlich zum RV770. Ich sehe, wenn ich den RV770-Dieshot zur Rate ziehe, nur 160SPs und 8 TMUs. Außer die haben pro Block nun das Doppelte verbaut...wenn das so einfach nur möglich ist.
Vergleiche mal mit den neueren Layouts von Llano, Trinity oder Brazos. ;)

Außerdem kommt das von der Größe besser hin. Jeder Block ist nur minimal kleiner als einer vom RV770 (~1.5 mm² vs. ~1.65mm²). Dazwischen liegt aber ein Fullnodeshrink und fehlendes double precision. Außerdem sind die 40nm inwischen ein 4 Jahre alter, sehr ausgereifter Prozeß und zudem die Zielfrequenz mit 550MHz sehr niedrig. Da bekommt man schon ein verdammt dichtes Layout hin. Will sagen: Ja na klar ist in jedem Block das Doppelte drin.

robbitop
2013-02-05, 08:43:50
Das geht ja fast noch von der GPU Leistung. Bisherige Ergebnisse in Multi-Titel ließen eher auf 160 SP schließen (da keine höheren Auflösungen als bei der PS360 erreicht wurden). Mit 320 SP sollte gut 2x X360 Renderleistung drin sein. Vieleicht etwas mehr.
Durango / Orbis GPUs sind Faktor ~4-5 schneller. Dazu DX11 Featureset statt DX10.1. 2-4x so viel RAM. Und ein ähnlicher Faktor für die CPU. Multititel werden auf der WiiU sicher nicht unmöglich. Aber schon schwieriger. Aber IMO einfacher als X360 - Wii.

Skysnake
2013-02-05, 09:06:02
Chipworks hat selber noch etwas erklärt:

44907

Und hier der Neogaf-Thread, woher alles kommt:
http://www.neogaf.com/forum/showthread.php?t=511628

Wichtige Infos herausgegriffen:
Passt soweit. Ich wundere mich allerdings über die zwei Arten an eDRAM :confused:

Ich hab die möglichen sinnvollen größen für zBuffer usw usw nicht im Kopf, aber so was würde mir jetzt eigentlich nur spontan in den Kopf kommen.

Das High-Speed-Interface wird wohl für die Anbindung der CPU da sein. Ich teile da aber die Einschätzung, dass das wohl SerDes sind. Ansonsten würde mir nicht wirklich einfallen, was man da noch anschließen könnte. Naja, außer vielleicht die Video-Übertragung aufs Pad, was hier ja auch rudimentär angesprochen wird. Die Verbindung wäre dann aber wohl wirklich sehr schnell, wobei ich mich dann fragen muss, warum man dann die Verarbeitung nicht glich auf dem DIE gemacht hat, und nur noch das Signal raus gehauen hat...

Also so ganz schlüssig ist mir das noch nicht. SerDes sind im Vergleich nicht wirklich klein.

Ja, sehe ich auch so. 320 SPs, 16 TMUs. LDS kann ich nirgendwo erblicken. Das mag aber auch an dem recht irregulären gequetschten Layout liegen (keiner der 4 TMU-Blöcke sieht aus wie der ander und daß die zwei Hälften des SIMDs nicht in einer Reihe stehen, sondern versetzt angeordnet sind, sehe ich auch zum ersten Mal). GPUs sind sonst wegen der regulären Strukturen einfacher zu deuten.
Naja, das ist mal nen echtes vollsynthetisiertes Design :ugly:

Da sieht man leider nicht mehr wirklich etwas :(

Was bisher noch nicht angesprochen wurde. Was denkst du ist der Block links neben dem kleineren eDRAM Block? Sieht auch wie RAM aus.

del_4901
2013-02-05, 09:11:10
Was bisher noch nicht angesprochen wurde. Was denkst du ist der Block links neben dem kleineren eDRAM Block? Sieht auch wie RAM aus.Die beiden Bloecke koennten einfach nur L1 und L2 Cache sein.

Coda
2013-02-05, 11:14:17
Die Hälfte der GPU ist Cache. Klar. Und der eDRAM ist im Substrat.

Gipsel
2013-02-05, 12:02:30
Aber da wir jetzt sehen, daß 32MB eDRAM in 40nm nur ~40mm² einnehmen (laß es mit Controller und Anbindung 50mm² sein). In 28nm (Durango) sollte man die ganze eDRAM/1T-SRAM Geschichte in ~25mm² oder sogar darunter unterbringen können.
Hmm, schade daß Durango nicht etwas aggressiver ausgelegt wurde, 64MB hätten wohl auch noch draufgepaßt. Aber vielleicht sehen wir ja bei irgendwelchen zukünftigen GPUs oder APUs große Caches auf eDRAM-Basis? Hat ja immerhin etwa einen knappen Faktor 4 Dichtevorteil. Lohnt sich natürlich nicht für Registerfiles/L1 oder relativ kleine Caches. Aber wenn man irgendwo einen 32MB+ Cache dranklatschen will, vielleicht schon eher. Muß man natürlich mit den Herstellungskosten abwägen. Da habe ich keine Ahnung, ob eDRAM den Prozeß durch zusätzliche Schritte deutlich teurer macht.

mboeller
2013-02-05, 12:26:39
Aber da wir jetzt sehen, daß 32MB eDRAM in 40nm nur ~40mm² einnehmen (laß es mit Controller und Anbindung 50mm² sein). In 28nm (Durango) sollte man die ganze eDRAM/1T-SRAM Geschichte in ~25mm² oder sogar darunter unterbringen können.


Hat TSMC einen 28nm eDRAM-Prozess?

mboeller
2013-02-05, 12:27:39
Passt soweit. Ich wundere mich allerdings über die zwei Arten an eDRAM :confused:


Vielleicht ist das der eDRAM für das Controller-Tablet?

robbitop
2013-02-05, 12:42:48
Hat TSMC einen 28nm eDRAM-Prozess?
TSMC hat 1T-SRAM. Das ist quasi das gleiche wie eDRAM. Und genau das wurde bei Durango offenbar verwendet.

Naitsabes
2013-02-05, 12:43:38
oder es sind die 3 mb vram der wii (nicht u!) gpu?

Skysnake
2013-02-05, 13:10:02
Könnte sein, wobei das schon sehr seltsam wäre. Für ne 1:1 Darstellung der Hardware aber eventuell nötig, da der 32MB eDRAM eben langsamer ist

robbitop
2013-02-05, 13:48:19
L3 Cache für die CPU ggf?

del_4901
2013-02-05, 13:51:38
Die Hälfte der GPU ist Cache. Klar. Und der eDRAM ist im Substrat.
Bevor du rumtrollst, nochmal kurz ueberlegen: Ich meine das Achtel in der oberen linken Ecke.

Skysnake
2013-02-05, 14:41:05
L3 Cache für die CPU ggf?
Macht absolut keinen Sinn. Nicht unmöglich, aber ich kanns mir absolut nicht vorstellen... Das müsste es schon SEHR gute Gründe dafür geben, und mir fallen genau 0 ein :freak:

robbitop
2013-02-05, 15:22:28
Naja - wäre es nicht schneller als kein L3 Cache? Die Seite spricht ja noch von einem High Speed Interface. Wenn's auf dem gleichen Package ist..?

Skysnake
2013-02-05, 15:33:08
Schon mal drüber nachgedacht, wie sehr du das Interface damit verstopfen würdest?

Du musst ja auch noch die Daten zwischen CPU und GPU austauschen...

Nen L3 der CPU bei der GPU macht 0 Sinn. Damit entlastest du nämlich nicht mal das Interface zwischen CPU und GPU, sondern nur das DDR-Interface. Das macht einfach 0 Sinn. Wenn packst du das direkt mit zur CPU. Die ist eh klein, und du müllst das Interface zwischen CPU und GPU nicht voll...

Coda
2013-02-05, 15:34:12
Bevor du rumtrollst, nochmal kurz ueberlegen: Ich meine das Achtel in der oberen linken Ecke.
Verlesen, hast recht ;)

Gipsel
2013-02-05, 16:12:43
Die beiden Bloecke koennten einfach nur L1 und L2 Cache sein.
Ich meine das Achtel in der oberen linken Ecke.L1 und L2 für was? Die L1-Caches der GPU sind logischerweise in den TMUs (die SRAM-Blöcke sieht man ja). Und wenn ich mich nicht verzählt habe (und die Zuordnung der SIMDs paßt), sind das übrigens genau 1 MB SRAM da oben links (80+48 = 128 Blöcke, die jeweils doppelt so groß sind, wie ein 4kB Block in den SIMDs).

Edit:
Im kleinen eDRAM-Bereich gibt es eine komische Anzahl an parallelen Blöcken innerhalb rechten Spalte des Arrays (18 statt 16 wie überall anders). Sieht ein wenig danach aus, als wenn das ECC-geschützt wäre. WTF?!?

Skysnake
2013-02-05, 16:58:53
Wo?

Zeichne das mal bitte ein, ich hab keine Ahnung, was du gerade meinst.

Gipsel
2013-02-05, 17:23:47
Wo?

Zeichne das mal bitte ein, ich hab keine Ahnung, was du gerade meinst.
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=44912&stc=1&d=1360081350

Der hellgrün umrahmte Teil ist 16 Blöcke hoch, aber 18 breit (statt 16 wie die anderen).

Skysnake
2013-02-05, 17:47:38
Das wird sicherlich kein ECC sein. Das packt man jeweils immer direkt zu den Daten mit dazu. Ansonsten wäre die Ansteuerung ja bescheuert zu lösen.

Nur mal so als kleine Betrachtung nebenbei. Wenn das wirklich 1 bzw 3 MB eDRAM ist, und man den Speicher gleichmäßig auf die Kästchen verteilt, wobei man von 16*16*16 ausgeht, also die 2 zusätzlichen Reihen vernachlässigt bei der rechten Spalte, dann kommt man auf 256 bzw 768 Byte je Kästchen.

Also jeweils 3 Cachelines rein, wenn man von 128Byte ausgeht, bzw 6 bei 64Byte Cachelines. Das passt also ziemlich gut zusammen. Check.

Wenn man jetzt von ECC ausgeht, hätten wir auf 8 Bits Daten insgesamt einen Bedarf von 12 Bits. Das bedeutet bei den insgesamt 1 bzw 3 MB brüchten wir 1,5 bzw 4,5 MB an Ressourcen zum speichern. Eben 50% mehr, wenn wir von 4 zusätzlichen Bits ausgehen. Bei 8/10 Bit Coding wären es nur noch 25%, das ist dann aber kein ECC mehr meines Wissens nach, da man nur noch Fehler erkennen kann, aber nicht mehr korrigieren, außer vielleicht 1 Bit Fehler, müsste man nochmal nachschauen, dafür bin ich jetzt aber zu faul ;D

Auf jeden Fall reichen die 128 zusätzliche Blöcke auf die 4096 Blöcke nie und nimmer aus, wenn man das aufteilen will, was ja wie gesagt gar keinen Sinn macht.

Wenn man sich aber mal anschaut, dass die 128 Blöcke eben genau 3,125% betragen, dann kann man sehr leicht auf die Idee kommen, das als Redundanz zu deuten ;)

PS: Woher hast du denn die hoch aufgelöste Version? :ugly:

Oder ist das nur hochgescaled?

habs gefunden :up:

Skysnake
2013-02-05, 18:13:56
So dann schauen wir uns mal den großen Bereich analog dazu an.

Da haben wir 32 16*8 und 48 16*16 Blöcke. Das macht alternativ 64 16*16 (große) Blöcke oder insgesamt 16384 kleine Blöcke.

Wenn wir jetzt (unrealistisch) die gleiche Datendichte pro kleinem Block annehmen wie oben, also 256 bzw 768 Byte/kleinem Block, dann kommen wir auf 4 bzw 12 MB -> jeder kleine Block hält mehr Daten (:rolleyes: wie verwunderlich :rolleyes:)

Jetzt ist halt die Frage, wieviel genau... Wenn wir davon ausgehen, das wir alle Blöcke brauchen, kommen wir genau auf 3072 Byte/kleinem Block.

Das hört sich für mich zwar als möglich an, interessanter wird es aber, wenn wir 4096 Byte je Block annehmen. Das ist auch eine schöne binäre Zahl und lässt sich daher schön ansteuern (btw würde ich bei den kleinen eDRAM Block auch so sehen, wenn das wirklich 3 MB sind, und dann entsprechen eben 1024 Byte/kleinem Block nehmen, womit dann die Redundanz höher wäre)

Also weiter im Text.

Wenn wir die 4096Byte/kleinem block als gegeben annehmen, dann brauchen wir für 32MB insgesamt 8192 Blöcke, was genau der Hälfte der real verfügbaren entspricht. Das wäre zu viel Redundanz.

Bei 2048 Byte/Block wären wir bei den vollen 16384 Blöcken, also 0 Redundanz klingt auch nicht wirklich realistisch.

Wenn Redundanz verbaut ist, ist wohl eher davon aus zu gehen, dass Sie hier innerhalb der Blöcke selbst verbaut wurde, und nicht durch extra Blöcke.

Gipsel
2013-02-05, 19:38:38
Das wird sicherlich kein ECC sein. Das packt man jeweils immer direkt zu den Daten mit dazu. Ansonsten wäre die Ansteuerung ja bescheuert zu lösen.Die ECC-Daten zu checken ist Aufgabe des Controllers. Und wenn ich das richtig sehe, ist ein Controller immer für 3 normale und den einen breiteren Block zuständig. Das paßt schon so. Denke mal an DRAM-Riegel mit ECC. Da sind auch z.B. 9 statt 8 Standard-RAM-Bausteine verlötet und den ganzen ECC-Kram handhabt der Speichercontroller in der CPU. Die räumliche Separation ist eigentlich sogar gut. So kann ein Fehler-Event nicht die Daten und die zugehörigen Korrekturbits gleichzeitig ausknocken.

Nur mal so als kleine Betrachtung nebenbei. Wenn das wirklich 1 bzw 3 MB eDRAM ist, und man den Speicher gleichmäßig auf die Kästchen verteilt, wobei man von 16*16*16 ausgeht, also die 2 zusätzlichen Reihen vernachlässigt bei der rechten Spalte, dann kommt man auf 256 bzw 768 Byte je Kästchen.Also 1 MB ist zu klein (im Vergleich zum SRAM und auch dem großen 32MB Array). Und wenn Standardmacros genommen werden (wo typischerweise Zweierpotenzen drin sind) fallen 3 MB raus (dafür müßte irgendwo eine durch 3 teilbare Anzahl auftauchen). Werden also vermutlich 2 MB plus die paar Extrabits sein. Der kleine eDRAM-Bereich zeigt also im Gesamtbild eine deutlich niedrigere Dichte als der große 32MB Bereich. Aber das ist vermutlich der Preis des deutlich größeren Overheads durch die vielen kleinen Bänke.

Wenn man jetzt von ECC ausgeht, hätten wir auf 8 Bits Daten insgesamt einen Bedarf von 12 Bits. Das bedeutet bei den insgesamt 1 bzw 3 MB brüchten wir 1,5 bzw 4,5 MB an Ressourcen zum speichern. Eben 50% mehr, wenn wir von 4 zusätzlichen Bits ausgehen. Bei 8/10 Bit Coding wären es nur noch 25%, das ist dann aber kein ECC mehr meines Wissens nach, da man nur noch Fehler erkennen kann, aber nicht mehr korrigieren, außer vielleicht 1 Bit Fehler, müsste man nochmal nachschauen, dafür bin ich jetzt aber zu faul ;D

Auf jeden Fall reichen die 128 zusätzliche Blöcke auf die 4096 Blöcke nie und nimmer aus, wenn man das aufteilen will, was ja wie gesagt gar keinen Sinn macht.Es kommt drauf an, wie groß Deine Blöcke sind, auf die Du minimal zugreifst (und über die dann der ECC-Code laufen muß). Man kann ECC mit 2 Bit pro 16 Bit aufziehen, oder auch mit 2 Bit pro 32 Bit, alles kein Problem. Hier haben wir an jedem Controller 66 Spalten hängen, wovon recht wahrscheinlich nur 64 eigentliche Nutzdaten sind. Wie die beiden Zusatzbits pro 64Bit-Quadwort benutzt werden, kann zumindest ich nur spekulieren.

Wenn man sich aber mal anschaut, dass die 128 Blöcke eben genau 3,125% betragen, dann kann man sehr leicht auf die Idee kommen, das als Redundanz zu deuten ;)Man schützt also das kleine 2MB-Array per Redundanz, das große 32MB-Array bleibt aber vollkommen so, wie es ist? Unwahrscheinlich. Wenn man dort in jeden Block ein oder zwei Datenlinien mehr reinbastelt ("integrierte" Redundanz), warum nicht beim kleinen auch?

Edit:
Bei B3D hatte jemand die Idee, daß beim großen eDRAM-Pool die Redundanz vielleicht so gelöst wird, daß nicht die vollen 32MB zur Verfügung stehen, sondern nur 31,5 oder sowas in der Art (um auf den gleichen Prozentsatz wie beim kleinen Array zu kommen, würde man allerdings auf 31 MB runtergehen müssen [was immer noch 32,5 Millionen Bytes wären :rolleyes:]).
Aber insgesamt kommen mir die 3% Redundanz für so extrem einfache Strukturen wie RAM etwas viel vor. Wenn man so viel benötigen würde, dürfte von der Logik her kaum ein Die laufen. :rolleyes:

===================================

Edit2:
Aber was zu einem anderen Thema. Ich habe mir nochmal das Layout der SIMDs angesehen und mit Brazos verglichen. Ein wenig mysteriös ist das schon. Die erste Möglichkeit ist, daß alles noch mal 10-15% dichter gepackt ist (aus schon dargestellten Gründen nicht unmöglich), ein dann doch recht eigenwilliges Layout der SIMDs benutzt wird und der eDRAM nicht sonderlich dicht ausfällt. Die zweite Möglichkeit traue ich mich kaum zu erwähnen. Die wäre nämlich, daß es sich um ein 55nm Die handelt. Dann wäre man doch wieder bei nur 160 SPs (keine Ahnung ob 8 oder 16 TMUs). Das Layout der SIMDs mit den Registerbänken paßt ehrlich gesagt dazu meiner Meinung besser.
Edit3:
Gerade hat jemand bei B3D den Kommentar eines Mitarbeiters von ChipWorks gepostet (http://forum.beyond3d.com/showthread.php?p=1702872#post1702872), der sagt, es wäre 40nm TSMC. Okay, wäre das also vom Tisch. Allerdings meint er auch, daß es ein wirklich Custom-Design ist und nicht nur GPU-IP von AMD lizensiert (er meinte, dann wären auf dem Die entsprechende Markierungen). Kann es mir zwar kaum vorstellen, daß Nintendo sich was völlig Eigenes designen läßt und Ähnlichkeiten mit den Radeons nur Zufall sind, aber eventuell gibt es doch ein oder zwei größere Abweichungen von den bekannten VLIW-Architekturen.

Skysnake
2013-02-05, 21:37:14
Die ECC-Daten zu checken ist Aufgabe des Controllers. Und wenn ich das richtig sehe, ist ein Controller immer für 3 normale und den einen breiteren Block zuständig. Das paßt schon so. Denke mal an DRAM-Riegel mit ECC. Da sind auch z.B. 9 statt 8 Standard-RAM-Bausteine verlötet und den ganzen ECC-Kram handhabt der Speichercontroller in der CPU. Die räumliche Separation ist eigentlich sogar gut. So kann ein Fehler-Event nicht die Daten und die zugehörigen Korrekturbits gleichzeitig ausknocken.

RAM-Riegel != eDRAM

Bei RAM machst du die Kopfstände mit dem zusätzlichen Chip ja nur, weil die Dinger so arsch langsam sind, und du eben parallel drauf zugreifst. Zudem musst du eben keinen extra ECC-DDRx Chip produzieren, sondern einfach nur einen zusätzlichen dazu packen. Das hat rein wirtschaftliche Gründe. Bei den Zugriffen auf Caches, orgranisierst du das ja aber ganz anders. Da hast du deine Signalleitungen, um die entsprechende Cacheline aus zu lesen. Da wäre es fatal energetisch fatal, wenn man das verteilen würde, dann müsste man ja unmengen an Adresspfaden immer ansprechen. Das wäre ziemlich ungünstig.


Also 1 MB ist zu klein (im Vergleich zum SRAM und auch dem großen 32MB Array). Und wenn Standardmacros genommen werden (wo typischerweise Zweierpotenzen drin sind) fallen 3 MB raus (dafür müßte irgendwo eine durch 3 teilbare Anzahl auftauchen).

Die 3 sind nicht auf meinem Mist gewachsen...

Ich würde am ehesten zu 4MB tendieren. Das wären dann auch 8 Cachelines, bzw 1kB eben. Das passt sehr sehr gut.


Werden also vermutlich 2 MB plus die paar Extrabits sein. Der kleine eDRAM-Bereich zeigt also im Gesamtbild eine deutlich niedrigere Dichte als der große 32MB Bereich. Aber das ist vermutlich der Preis des deutlich größeren Overheads durch die vielen kleinen Bänke.

Wie schon gesagt, eher 4. Die Assoziativität ist halt sicherlich auch höher


Es kommt drauf an, wie groß Deine Blöcke sind, auf die Du minimal zugreifst (und über die dann der ECC-Code laufen muß). Man kann ECC mit 2 Bit pro 16 Bit aufziehen, oder auch mit 2 Bit pro 32 Bit, alles kein Problem. Hier haben wir an jedem Controller 66 Spalten hängen, wovon recht wahrscheinlich nur 64 eigentliche Nutzdaten sind. Wie die beiden Zusatzbits pro 64Bit-Quadwort benutzt werden, kann zumindest ich nur spekulieren.

Also wenn ich mich jetzt nicht GANZ arg täusche, dann ist 8/12 Bit das minimale Coding bzgl der Hamming-Codes um ECC zu haben. Also ErrorCORRECTIONCode. Bei dem was du meinst, hat man nur noch Parity Bits, wo man sagen kann, dass die Daten richtig oder eben falsch sind. Bis zu 2 Bits dürften da eventuell sogar flippen, aber du kannst nicht mehr sagen, welches Bit falsch ist, und selbst wenn, bekommst du nicht mehr raus, welches Bit es ist.

Ich bin jetzt in Hammingcodes wirklich nicht mehr drin, aber 8/12 ist, soweit ich mich erinnern kann wirklich das Minimum.


Man schützt also das kleine 2MB-Array per Redundanz, das große 32MB-Array bleibt aber vollkommen so, wie es ist? Unwahrscheinlich. Wenn man dort in jeden Block ein oder zwei Datenlinien mehr reinbastelt ("integrierte" Redundanz), warum nicht beim kleinen auch?

Frag mich nicht. Wie gesagt, eventuell hat man auch 50% Redundanz drauf :ugly: Wobei ich das nicht glauben kann. Alternativ steckt beim großen eben die Redundanz in den kleinen Blöcken direkt mit drin, weil man eben nicht gleich ganze Dinger abschalten kann/muss. Die Latenzen lassen es eventuell zu, das man einzelne Bits umlegt usw usw.

Die Sache mit dem ECC ist auf jeden Fall SEHR SEHR SEHR unwahrscheinlich. Dafür brüchte man eben 8/12 und nicht 16/18

Kann ja aber gern jemand schauen, ob es nicht doch einen HammingCode gibt, der entsprechend zulässt, zumindest EinBit Fehler zu korrigieren.

EDIT:
Für ne 64 Bit Cacheline brüchte man btw 6 zusätzliche Bits und für 128 Bit Cachelines 7 Bits.

Ist doch nicht ganz so gewesen, wie ich mich erinnert habe. Passt aber eben auch nicht.

Coda
2013-02-05, 22:10:47
Im kleinen eDRAM-Bereich gibt es eine komische Anzahl an parallelen Blöcken innerhalb rechten Spalte des Arrays (18 statt 16 wie überall anders). Sieht ein wenig danach aus, als wenn das ECC-geschützt wäre. WTF?!?
ECC kann auch zur Yield-Erhöhung dienen.

Was ich überhaupt nicht kapiere ist, warum es zwei verschiedene eDRAM-Sorten geben soll.

Skysnake
2013-02-05, 22:29:19
Ich verstehs auch absolut nicht...

Gipsel
2013-02-05, 23:33:11
RAM-Riegel != eDRAM

Bei RAM machst du die Kopfstände mit dem zusätzlichen Chip ja nur, weil die Dinger so arsch langsam sind, und du eben parallel drauf zugreifst.Auch oder gerade bei eDRAM liest Du viele Bitlines parallel aus. Selbst ein einzelner 32bit GDDR5 Chip liest intern immer 256Bits parallel. Aber das stimmt schon, man will, daß die zumindest in einer Bank liegen.
Die 3 sind nicht auf meinem Mist gewachsen... Was der erste Chipworks-Kommentar gesagt hat, würde ich nicht zu ernst nehmen.
Ich würde am ehesten zu 4MB tendieren. Das wären dann auch 8 Cachelines, bzw 1kB eben. Das passt sehr sehr gut. Du rechnest mit 128Byte Cachelines? Egal.
Wenn man mal das ganze Interface-Zeugs wegläßt, dann ist das große Array (rein das Array wie gesagt) flächenmäßig fast 13 mal so groß wie das kleine. Das ist also nicht so weit weg, vom Faktor 16, der 32/16=2MB bedeuten würde. Betrachtet man die deutlich kleineren Bänke (=mehr Overhead auch innerhalb des Arrays), sind die 2 MB praktisch sicher.
Also wenn ich mich jetzt nicht GANZ arg täusche, dann ist 8/12 Bit das minimale Coding bzgl der Hamming-Codes um ECC zu haben.Minimal ist 3/1 ;). Aber das setzt man ja wohl kaum ein.

Um mit den 2 Bits pro 64 Bit (das ist ja erstmal nur statistisch zu sehen) wirklich Fehlerkorrektur betreiben zu können, muß man auf Blockgröße 512 gehen (512Bit = 64 Byte). Wäre dann also ein 528/512 Code, also 16 Bit ECC-Daten pro 64 Byte Line. Achja, viele CPUs und auch AMD-Grafikkarten benutzen 64Byte Cachelines, weil Du die angesprochen hast. Aber wer weiß, ob die da wirklich einen Hamming-Code einsetzen oder irgendwas Anderes mit machen.
Also wie gesagt, gehen tut das schon. Man kann einen beliebig kleinen Overhead für die ECC-Bits bekommen, wenn man nur die Blockgröße groß genug macht (was dann aber ziemlich schnell unbequem wird, man muß den Kram ja auch ausrechnen). Unter 0,1% Overhead kommt man z.B. mit einem 16399/16384 Hamming-Code, aber da hat man schon 2kB Blockgröße (eigentlich reichen 15 Prüfbits für knapp 32k Datenbits) :freak:.

Daran sieht man auch, daß man oben für 64Byte streng genommen die 16 Bit gar nicht benötigt (10 Bit würden reichen). Das liegt nur daran, daß 8 Bit (4x2) gerade nicht für 256 Bit (4x64) Nutzdaten reichen (sondern nur für 247Bit) und ich die 66/64 Relation einhalten wollte. Man hat also genügend Platz für ein oder mehr zusätzliche Paritybits für Doppelbitfehler.

Achja, ganz allgemein: Für die Korrektur von 1 Bit-Fehlern mit einem Hamming-Code reichen genau p Prüfbits für maximal 2^p-p-1 Datenbits. Und Doppelbitfehler erkennt man mit einem zusätzlichen Prüfbit. Damit kommt man dann auf die 72/64 Relation bei ECC-DRAM-Modulen.

Steffko
2013-02-05, 23:46:28
ECC kann auch zur Yield-Erhöhung dienen.

Was ich überhaupt nicht kapiere ist, warum es zwei verschiedene eDRAM-Sorten geben soll.

Ist nicht die gängigste Theorie dafür, dass der kleinere eDRAM die Wii Abwärtskompatibilität vereinfacht? Die Wii hatte 3MB "schnellen" Speicher als Framebuffer (?), dazu 24MB 1T-SRAM und 64MB GDDR3 RAM. Wegen unterschiedlicher Latenzen, Bandbreiten usw. dürfte das vielleicht die einfachste Möglichkeit gewesen sein? Die 4MB des kleineren eDRAM sind der "Ersatz" für die 3MB Framebuffer der Wii, die 24MB 1T-SRAM kann man mit dem 32MB eDRAM ersetzen und die 64MB GDDR3 RAM laufen über den DDR3 Hauptspeicher.

Skysnake
2013-02-06, 00:06:52
Auch oder gerade bei eDRAM liest Du viele Bitlines parallel aus. Selbst ein einzelner 32bit GDDR5 Chip liest intern immer 256Bits parallel. Aber das stimmt schon, man will, daß die zumindest in einer Bank liegen.
Klar liest man so viel parallel, eben weil die Dinger langsam sind, wie ich schon gesagt hab. Deswegen nutzt man ja auch prefetch und liest gleich alles, damit falls man noch was braucht, eben gleich alles dabei ist. ;)

Bei nem Cache sieht das ja gleich anders aus. Da kann man direkt ganze Cachelines lesen.


Was der erste Chipworks-Kommentar gesagt hat, würde ich nicht zu ernst nehmen.
Du rechnest mit 128Byte Cachelines? Egal.

Ich hab mit 64 und 128er gerechnet. Nur am Ende hab ich die 64er vergessen zu erwähnen.


Wenn man mal das ganze Interface-Zeugs wegläßt, dann ist das große Array (rein das Array wie gesagt) flächenmäßig fast 13 mal so groß wie das kleine. Das ist also nicht so weit weg, vom Faktor 16, der 32/16=2MB bedeuten würde. Betrachtet man die deutlich kleineren Bänke (=mehr Overhead auch innerhalb des Arrays), sind die 2 MB praktisch sicher.
Minimal ist 3/1 ;). Aber das setzt man ja wohl kaum ein.

Jo, das hört sich deutlich vernünftiger an :up:
Ich bin jetzt mal davon ausgegangen, das derjenige zumindest ein "bischen" Ahnung hat von dem was er redet :ugly:


Um mit den 2 Bits pro 64 Bit (das ist ja erstmal nur statistisch zu sehen) wirklich Fehlerkorrektur betreiben zu können, muß man auf Blockgröße 512 gehen (512Bit = 64 Byte). Wäre dann also ein 528/512 Code, also 16 Bit ECC-Daten pro 64 Byte Line. Achja, viele CPUs und auch AMD-Grafikkarten benutzen 64Byte Cachelines, weil Du die angesprochen hast. Aber wer weiß, ob die da wirklich einen Hamming-Code einsetzen oder irgendwas Anderes mit machen.

Öhm... das funktioniert so nicht. Du brauchst schon alle 2^x Bits ein Parity Bit, sonst kannst du nur sagen, das es überhaupt einen Fehler gibt, aber nicht mehr wo er denn überhaupt auftritt, geschweige denn ihn auch noch zu korrigieren.

Und Hemmingcodes nutzt du schon wenn du ECC machen willst. Sie sind einfach Optimal für das Problem. Als bzgl dem Informationsgehalt. Deswegen sind die ja auch so wichtig ;D


Also wie gesagt, gehen tut das schon. Man kann einen beliebig kleinen Overhead für die ECC-Bits bekommen, wenn man nur die Blockgröße groß genug macht (was dann aber ziemlich schnell unbequem wird, man muß den Kram ja auch ausrechnen). Unter 0,1% Overhead kommt man z.B. mit einem 16399/16384 Hamming-Code, aber da hat man schon 2kB Blockgröße (eigentlich reichen 15 Prüfbits für knapp 32k Datenbits) :freak:.

Ja, aber das musst du dann im zweifelsfall KOMPLETT lesen UND ausrechnen :ugly:

Das willst du nicht wirklich :ugly:


Daran sieht man auch, daß man oben für 64Byte streng genommen die 16 Bit gar nicht benötigt (10 Bit würden reichen). Das liegt nur daran, daß 8 Bit (4x2) gerade nicht für 256 Bit (4x64) Nutzdaten reichen (sondern nur für 247Bit) und ich die 66/64 Relation einhalten wollte. Man hat also genügend Platz für ein oder mehr zusätzliche Paritybits für Doppelbitfehler.
[quote]
kann sein, es ist spät, und ich komm grad nicht mehr ganz mit :(

Für 64 Byte brauch ich doch um 1 Bitfehler korrigieren und 2 Bitfehler erkennen zu können, 9 Bit. Ich seh da nicht, wo das aufgehen soll, oder meinst du, das man so stark auf zusätzliche Paritybits setzt?

[quote]
Achja, ganz allgemein: Für die Korrektur von 1 Bit-Fehlern mit einem Hamming-Code reichen genau p Prüfbits für maximal 2^p-p-1 Datenbits. Und Doppelbitfehler erkennt man mit einem zusätzlichen Prüfbit. Damit kommt man dann auf die 72/64 Relation bei ECC-DRAM-Modulen.
Meinst du jetzt 64 Byte?

Sorry, da komm ich grad nicht mit.

Ich kanns mir nur nicht vorstellen, dass die da wirklich das so gelöst haben. Wäre schon seltsam.

Coda
2013-02-06, 00:26:55
Ist nicht die gängigste Theorie dafür, dass der kleinere eDRAM die Wii Abwärtskompatibilität vereinfacht? Die Wii hatte 3MB "schnellen" Speicher als Framebuffer (?), dazu 24MB 1T-SRAM und 64MB GDDR3 RAM. Wegen unterschiedlicher Latenzen, Bandbreiten usw. dürfte das vielleicht die einfachste Möglichkeit gewesen sein? Die 4MB des kleineren eDRAM sind der "Ersatz" für die 3MB Framebuffer der Wii, die 24MB 1T-SRAM kann man mit dem 32MB eDRAM ersetzen und die 64MB GDDR3 RAM laufen über den DDR3 Hauptspeicher.
Das kann sehr gut sein, danke.

Ich vermutete ohnehin, dass sie die Wii-GPU komplett repliziert haben. Das Ding ist von der Architektur so anders als die neue, dass das kaum anders geht.

Locuza
2013-02-06, 00:32:02
Eurogamer spekuliert auch dazu:

The additional banks of memory could well be there for Wii compatibility, and could account for the 1MB texture and 2MB framebuffer. Indeed, the entire Wii GPU could be on there, to ensure full backwards compatibility.

http://www.eurogamer.net/articles/df-hardware-wii-u-graphics-power-finally-revealed

Héctor Martín twittert auch häufig sehr interessante Sachen:
https://twitter.com/marcan42

Da schreibt er alles auf, wie groß die ganzen Caches sind, wie der Wii-Modus funktioniert, was geshared wird usw.
Das beantwortet glaube ich einige Fragen der Experten.

mboeller
2013-02-06, 07:31:15
Hi;

was spricht eigentlich dagegen, die 3MB eDRAM auch als Frame- und Z-Buffer für den Gamepad Controller zu benutzen?

Screemer
2013-02-06, 13:51:14
mercans aussage:
The 2MB MEM0/EFB (framebuffer in Wii mode) is used as fast general purpose RAM in Wii U mode. Dunno about the 1MB SRAM (Wii texture cache)

dildo4u
2013-02-08, 16:41:13
Neues Face off Sonic All Star Racing

http://www.eurogamer.net/articles/digitalfoundry-sonic-all-star-racing-transformed-face-off

lol Verkehrte Welt nur die PS3 hat echtes 720p.

00-Schneider
2013-02-08, 17:04:22
lol Verkehrte Welt nur die PS3 hat echtes 720p.


Dafür aber auch die schlechteste Performance! ;)

][immy
2013-02-08, 18:10:30
Dafür aber auch die schlechteste Performance! ;)

und das ist wieder so ein titel wo ich mich frage wo die Performance eigentlich hin verschwindet. Physik-Berechnung, .. ok, aber der Rest?

AnarchX
2013-02-15, 09:41:12
Die-Shot der CPU: http://www.neogaf.com/forum/showthread.php?t=513471

starfish
2013-02-15, 20:32:36
Die-Shot der CPU: http://www.neogaf.com/forum/showthread.php?t=513471

Ich verstehe zugegeben grad sehr wenig davon, aber wenn ich mir den Thread so durchlese steht da, dass die CPU schneller als die der Xbox360 ist?

Lightning
2013-02-15, 21:03:10
Ich verstehe zugegeben grad sehr wenig davon, aber wenn ich mir den Thread so durchlese steht da, dass die CPU schneller als die der Xbox360 ist?

Viele Leute im neogaf haben wenig Ahnung, wovon sie schreiben. Man muss da vorsichtig sein.

Klar ist, dass sie sich vom Konzept relativ deutlich unterscheiden. Wahrscheinlich finden sich für beide CPUs Fälle, in denen sie schneller sind als die jeweils andere. Xenon hat definitiv den deutlich höheren theoretischen Durchsatz, dafür schmeckt ihm vermutlich "branchy integer code" nicht so gut.
Was jetzt heutzutage in Spielen wirklich die größeren Vorteile bringt, können wahrscheinlich nur Spieleentwickler beantworten. Ob sich hier einer konkret darüber äußern will/darf..?

Hunter93
2013-02-16, 08:31:03
Mal eine doofe Frage: Der mutmaßliche 3 MB große Cache ist anscheinend vollständig in der CPU-Die untergebracht. Größentechnisch bzw. was die verschlungene Anzahl an Transistoren betrifft, sollte das doch nur schlecht möglich sein.

1 CPU Core + 1 MB L2-Cache der 360 sind (gemäß Richard Leadbetter (http://www.eurogamer.net/articles/2012-11-22-thq-clarifies-wii-u-horrible-slow-cpu-claim-but-developer-concern-remains)) grob rechnerisch in etwa so groß wie die gesamte Wii U CPU - bei je 45 nm. Und 1 MB L2-Cache fallen dabei keineswegs klein aus (siehe Xenon-CPU-Die (http://embedded.eecs.berkeley.edu/mescal/maw/XenonDiePhoto.jpg)).

Wie bringt es Nintendo also mit weit weniger Transistorenbudget auf die wesentliche höhere Packdichte an Speicher?
Darf man davon ausgehen, dass es umgekehrt dem Cache qualitativ an Geschwindigkeit (Bandbreite/Latenz) mangelt oder wie sonst kommt der Unterschied zustande?
(L1-Cache nimmt im Verhältnis zur Speichergröße augenscheinlich auch weit mehr Fläche ein als L2- bzw. gar L3-Cache, oder täuscht das?)

disap.ed
2013-02-16, 11:20:22
Die WiiU-CPU verwendet eDRAM statt SRAM für den L2-Cache.

Lightning
2013-02-17, 12:37:59
Hab die Beiträge zu den Verkaufszahlen mal in den allgemeinen Wii U-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=535785&page=35) geschoben..

Hunter93
2013-02-18, 17:50:00
Die WiiU-CPU verwendet eDRAM statt SRAM für den L2-Cache.

Also ist immerhin doch etwas von POWER7 übrig geblieben. :biggrin:

Anderes Thema: Need for Speed erlaubt auf Wii U wohl eine bessere Optik.
http://www.youtube.com/watch?feature=player_embedded&v=jmZ-I0TexFY
http://www.eurogamer.net/articles/digitalfoundry-need-for-speed-most-wanted-wii-u-behind-the-scenes

nampad
2013-03-24, 13:54:40
Alter schalter..... Du hörst auch nicht zu oder?

Also nochmals langsam zum mitschreiben...


Die WiiU wird schneller sein als XBox360 und PS3.
Die WiiU wird es ziemlich einfach machen Sachen von der XBox360 oder PS3 zu portieren
Die WiiU kommt DIESEN! Winter, und die neue XBox(8) frühestens nächstes Jahr, die PS4 wohl erst im übernächsten Jahr vor Weihnachten jeweils.


So und was lernen wir daraus, insbesondere Punkt 3?

RICHTIG, alle Spiele, die von jetzt an bis mindestens zum Erscheinen der XBox(8) veröffentlich werden, sind ohne Probleme auf die WiiU zu protieren, und werden da auch wohl kaum schlechter aussehen. Davon kann man wirklich ausgehen, weil sich kaum ein Publisher für so wenig Aufwand einen kompletten Markt durch die Lappen gehen lässt...

So und was ist wenn die XBox(8) da ist?
Wird da etwa kein Spiel mehr für die PS3 kommen, weil die ja dann so "OLOLOLOL fucking schlecht" ist?

Das kannste knicken. Die Spiele werden auch für die PS3 kommen, und damit auch für die WiiU, weil eben der Aufwand minimal ist...

Erst wenn auch die PS4 da ist, und sowohl XBox(8), als auch PS4 ein Vielfaches der Leistung der WiiU haben, wirds Problematisch für die Hersteller, weil Sie dann eben für die WiiU stark abspecken müssen, wobei schein HDReady statt FullHD einem da ziemlich viel Spielraum bieten sollte.

Also, man wird wohl mindestens 1 Jahr einen sehr guten 3d-Party-Support haben, eher sogar 2 Jahre. Das sind 1 bzw. 2 Jahre mehr, als man auf der Wii hatte....

Also was gibts daran jetzt wieder ständig rum zu kacken?

Wenn man euch zuhört, könnte man denken MS und Sony hätten ihre neuen Konsolen schon angekündigt, und die würden +/- eine Woche mit der WiiU zusammen erscheinen.....

DEM IST ABER NICHT SO!

Das sind minimum ein Jahr unterschied, wahrscheinlich eher sogar zwei Jahre....

Das ist ne verdammt lange Zeit....

Das ist 1/3 der Lebensdauer der Wii.... Nur mal so am Rande....

http://www.vinceposcente.com/Portals/127861/images/eat%20crow.jpg :D

IC3M@N FX
2013-03-30, 15:12:57
Mal ne frage ich kenn mich bei den Konsolen nicht so aus aber ich hab mir jetzt mal den Thread bissi durchgelesen.
Die Konsole verbraucht so zwischen 35-40 Watt unter Last kann Nintendo nicht später ein Firmware Update rausholen um die CPU anstatt 1.24 Ghz auf 1,6 bis 1,8 Ghz zu takten und die GPU um 100 Mhz plus. Das Board und das Netzteil müssen das doch aushalten können und die Kühlung der Konsole mußte es doch auch reichen oder? Ich kenne mich da nicht so aus deswegen frag ich bei Xbox 360 und PS3 war es ja so das die damals von den Komponenten her und den damaligen Herstellungs verfahren nahe am Limit gebaut wurden, und dadurch auch schnell heiß wurden. Erst mit den Die Shrinks haben die Konsolen weniger verbraucht und wurden auch Kühler und billiger.

Finch
2013-03-30, 15:19:59
Du willst also das die Konsolen mit unterschiedlichen Taktraten laufen? Was meinst du das was das für ein Chaos bringt. Für was sollen die Entwickler dann entwickeln? FÜr die 1.25 GHz oder die 1.8 GHz? Was ist bei denen die das Update nicht fahren und auf einmal Probleme bekommen das Spiel zu Spielen?

Die Kühlung und Stromversorgung dürfte größtenteils auf das gegebene Ausgelegt sein. Die WII U hat jetzt nicht gerade die größte Kühlung.

Ich denke diesen Gedanken kannst du schnell verwerfen.

IC3M@N FX
2013-03-30, 15:36:30
Über die Fragmentierung der unterschiedlichen Taktraten würde ich mir keine gedanken machen. Entweder wird das Online automatisch durch ein Firmware Update gemacht oder von Spiel XY ist die Firmware drinne die Automatisch überspielt wird da sie obligatorisch für das Spiel ist.
Was mir mehr gedanken macht ist wäre es machbar die Komponeten so zu belasten.

Lightning
2013-03-30, 15:37:48
Mal ne frage ich kenn mich bei den Konsolen nicht so aus aber ich hab mir jetzt mal den Thread bissi durchgelesen.
Die Konsole verbraucht so zwischen 35-40 Watt unter Last kann Nintendo nicht später ein Firmware Update rausholen um die CPU anstatt 1.24 Ghz auf 1,6 bis 1,8 Ghz zu takten und die GPU um 100 Mhz plus.

Und aus welchem Grund sollte man das jetzt nachträglich machen bzw. warum sollte man es nicht gleich von Anfang an so gemacht haben?

dildo4u
2013-03-30, 15:38:17
Die Chips sind nicht für den Takt ausgelegt ist wie am PC manche könnte es packen andere nicht daher ist das ganze(Per Firmware) ein Wunschtraum.

IC3M@N FX
2013-03-30, 16:18:38
Ist ja nur Spekulativ von mir aber warum nicht? Die meisten Geräte halten mehr aus selbst jedes GUTE! Android Phone kannst du mittlerweile um 200-300 Mhz übertakten ohne Stablitätsprobleme es sei den es sind richtige China billigeimer die von den verwendenten Komponenten schlecht sind.
Ich geh mal davon aus das Nintendo einen gewissen Qualitätstandart hat
von den verwendeten Komponenten.

Zur warum die es dann nicht von Anfang an gemacht haben wenns möglich wäre?

Vielleicht weil sie sich verschätzt haben und an den Devs vorbei entwickelt haben und merken Das Wii Prinzip Billig, Casual ohne Subvention geht nicht auf. Um die Devs ein bisschen rühiger zu stimmen also Schadenbegrenzung (mehr 3d Party entwickler) durch die Takterhöhung das wenigstens 10-15% über PS360 ist von der Leistung her. PS4 grafik wirste nicht bekommen aber vielleicht annähernd dann aber ohne AA.

Finch
2013-03-30, 16:30:09
Die 10-15% dürften jetzt schon vorhanden sein. Sei es wegen der 320SP oder wegen der 2GBRam. ( enn auch sehr langsame 2GB)

Eine leicht besserer Performance wird auch nicht für einen verkaufsschub sorgen. Es fehlt einfach an guten spielen(jetzt) und an ambitionierten Projekten. Der Teufelskreis der Wii U ist derzeit einfach sehr mächtig.

IC3M@N FX
2013-03-30, 16:41:04
Abgesehen davon wenn man sich das Lineup der Spiele anschaut nach fast 4-5 Monaten sind es immer die gleichen Batman, CoD... Mass Effect 3 usw. Wenn ich diese Games Spielen will kauf ich mir keine Wii U sondern PS360 oder Monster Hunter 3 (ein Port mit extras... Super! Daumen Hoch -.- exklusive Games wie Zombie U sucht man vergeblich wenn nicht sind es immer die selben Mario Games. Als ich mir damals das Gamecube gekauft hab war es wegen Eternal Darkness, Metroid Prime, Starfox Adventures, Resident Evil Remake/Zero Zelda Wind Waker.
Ich hab mir die Wii U vorgestern geholt Premium für 160€ ich bereue es zwar nicht weil es recht günstig war aber das Spiele Lineup ist mies....

Knuddelbearli
2013-03-30, 16:50:23
die konsole muss in alaska gleichgut laufen wie in Kenia, und das auch noch in 3 Jahren bei 24/7 Leistung oder schlechtem Stromnetz
deshlab hat man dann eben den spielraum, oder glaubst du die verschenken einfach so leistung?

Air Force One
2013-04-02, 23:50:26
Die PSP hat sich damals auch bei einigen Spielen übertaktet. Das waren dann statt 222MHz dann 333MHz. Mit Mods (unoffiziel) waren wohl 466MHz drin.
Wobei der Chip wohl zwar mit 222MHz getaktet aber für 333MHz gebaut wurde. Einige Spiele stellten dann auf den max. Takt um. Ist jetzt nicht direkt ok...

robbitop
2013-04-03, 09:44:58
Das ist, wie du selbst andeutest, kein passender Vergleich. Der SoC der PSP ist auf 333 MHz gebinnt worden. Nur aus Gründen der Akkulaufzeit hat man anfänglich nur 222 MHz freigegeben. Die PSP 2000 brachte durch einen Shrink und UMD Cache Besserung. Spätere Spiele nutzten dann die vollen 333 MHz. Die PSP-1000 hat da aber vermutlich dann an der Akkulaufzeit gelitten. Das hat dann aber keinen mehr interessiert. ;)