PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nintendo Switch (NX) - Custom-Tegra - technische Spekulation


Seiten : 1 [2] 3 4 5 6

ilibilly
2016-10-30, 08:43:28
Zeit ist geld und das ist doch meistens der grund warum games in der "betaphase " auf den markt kommen,dann erscheinen halt multigames 2 monate später auf der switch wenn die wichtigsten patches raus sind.ich glaub sowieso das es nicht wie bei ps4,one und pc läuft ,das da alle games drauf released werden.
Am ende wirds wie die Wiiu eine konsole für fast only Nintendo games,sicherlich gibts am anfang viel unterstützung aber das dürfte sich legen wenn die verkäufe nicht passen.

Gumril
2016-10-30, 09:22:39
Also das mit den Patches usw wird doch wohl wie bei der WiiU und 3ds gelöst werden, interner Speicher und wenn der voll wird hat man ja noch einen SD-Karten Slot gehen ja 128GB Karten rein.
Aber ich denke auch das nur am Anfang große Thirdpartytitel kommen werden danach nur noch Nintendo.
Und bei Nintendotitel gibt es ja recht wenig Patches, ich glaube Hyrule Warriors hat recht viele bekommen aber das ist ja auch nicht direkt von Nintendo.

Loeschzwerg
2016-10-30, 10:51:38
"Einfach" komplett auf dynamische Auflösung setzen. Der Dev bestimmt dann die FPS und wenn das Tablet aus dem Dock gezogen wird, dann werden die Frequenzen gesenkt und die Auflösung folgt dem einfach, um die FPS zu halten.

Muss dann natürlich erstmal in die Engine implementiert werden.

So Spielereien wie Multi-Res Shading gibt es ja auch noch. Also ich kann mir schon vorstellen dass da NV entsprechend mit Entwicklertools punkten kann.

deekey777
2016-11-11, 18:36:34
Die Nvidia-Aktie hat heute einen sehr großen Sprung gemacht.

=Floi=
2016-11-11, 18:37:45
aber nicht wegen der gurkenkonsole...

Troyan
2016-11-11, 19:04:23
Jedenfalls freut sich nVidia auf die Switch:

And over the next – as you know, the Nintendo architecture and the company tends to stick with an architecture for a very long time. And so we've worked with them now for almost two years. Several hundred engineering years have gone into the development of this incredible game console. I really believe when everybody sees it and enjoy it, they're going be amazed by it. It's really like nothing they've ever played with before. And of course, the brand, their franchise and their game content is incredible.
http://seekingalpha.com/article/4022322-nvidia-nvda-q3-2017-results-earnings-call-transcript?page=13

Kartenlehrling
2016-11-11, 19:21:15
Ich bin auf die Umsetzung auch gespannt,
ich hätte ein streaming System auf Mobils wie es die PS Vita mit dem Remote Play auf ca. 15km besser gefunden.

deekey777
2016-11-11, 20:22:15
aber nicht wegen der gurkenkonsole...
Dieter Nuhr.

AffenJack
2016-11-11, 20:34:34
aber nicht wegen der gurkenkonsole...

Größtenteils nicht, aber es sieht so aus, als wenn ein kleiner Anteil auch der Switch zuzuschreiben ist. Schaut man aufs Tegra Segment, dann sind 50-60 Mio$ wahrscheinlich vom Switch Ramp.

Lurtz
2016-11-12, 13:23:05
Jedenfalls freut sich nVidia auf die Switch:

http://seekingalpha.com/article/4022322-nvidia-nvda-q3-2017-results-earnings-call-transcript?page=13
Man darf gespannt sein. Beim Ökosystem hat Nintendo jede Hilfe nötig.

IC3M@N FX
2016-11-24, 08:35:26
Es kam das Gerücht von einem Foxcon Mitarbeiter das die Switch ein 1080p Multitouch Display und nur 4 GB RAM hat. Die Batterie soll eine Laufzeit von 3 1/2- 4 Std haben, die Display Helligkeit soll auch nicht recht hoch sein, also für draußen wäre es zu dunkel. Wenn das stimmt ist das wirklich mager, zwar ist das Diplay wirklich vollkommen in Ordnung zumindest die Auflösung. Der Arbeitsspeicher macht mir aber sorgen es kann ruhig bisschen mehr sein. Man sollte Minimum 6GB RAM verbauen alles andere wäre wirklich kein Fortschritt....... Die Kluft wird größer wenn noch mehr RAM zur verfügung steht für Spiele bei PS4/Xbox One durch Firmware updates.
Portierungen von PS4/Xbox One bei nur 4 GB RAM wird sicher wirklich schwierig, vorallem wenn nur 2-3 GB nur für Spiele frei wären......

xyleph
2016-11-24, 10:03:31
Alles in Allen klingt das Gerücht realistisch, auch mit den veranschlagten Taktraten von GPU und CPU.

Botcruscher
2016-11-24, 10:28:31
Portierungen von PS4/Xbox One bei nur 4 GB RAM wird sicher wirklich schwierig, vorallem wenn nur 2-3 GB nur für Spiele frei wären......

Da wird eh nix mal eben portiert. Durch die großen Unterschiede muss direkt Entwickelt werden.

robbitop
2016-11-24, 15:17:43
Mehr als 4 GiB hätte ich von Nintendo kaum erwartet. Dann müssen sie einfach ein schlankes OS ohne Social Media / Streaming / Multitasking Funktionen machen. Dann stehen sicher > 3,5 GiB für das Spiel zur Verfügung.
Reduzierung des Speicherbedarfs ist idR auch kein so großes Problem: Auflösung, Details der Assets runterschrauben, zur Not gibt es ein paar mehr Ladescreens.

Auch hat der Switch einen Vorteil. Er kann direkt vom Cadrige die Assets laden. Damit ist sicherlich aggressiveres Streamen möglich - so dass weniger RAM belegt wird.

=Floi=
2016-11-24, 15:55:16
Es kam das Gerücht von einem Foxcon Mitarbeiter das die Switch ein 1080p Multitouch Display und nur 4 GB RAM hat. Die Batterie soll eine Laufzeit von 3 1/2- 4 Std haben, die Display Helligkeit soll auch nicht recht hoch sein, also für draußen wäre es zu dunkel. Wenn das stimmt ist das wirklich mager, zwar ist das Diplay wirklich vollkommen in Ordnung zumindest die Auflösung. Der Arbeitsspeicher macht mir aber sorgen es kann ruhig bisschen mehr sein. Man sollte Minimum 6GB RAM verbauen alles andere wäre wirklich kein Fortschritt....... Die Kluft wird größer wenn noch mehr RAM zur verfügung steht für Spiele bei PS4/Xbox One durch Firmware updates.
Portierungen von PS4/Xbox One bei nur 4 GB RAM wird sicher wirklich schwierig, vorallem wenn nur 2-3 GB nur für Spiele frei wären......


die games welche auf dem chip laufen werden dürften sicherlich nicht so viel ram benötigen!

Fusion_Power
2016-11-24, 16:45:49
Ich wette die holen spieletechnisch auch aus 4GB RAM mehr raus als die meißten PC Games mit 8GB. ;)

robbitop
2016-11-24, 16:58:34
Also ich sehe das mit der Leistung jetzt nicht so kritisch. Spiele lassen sich -das kennen wir vom PC- sicherlich über grob 1 Größenordnung an Leistung skalieren.
Der Ultra High End PC läuft mit 4K, Ultra Details, 60fps (GP102) und der Low End PC läuft mit Geforce 950/750 (oder schlimmer) mit 720p @30 fps, low details.
Soetwas kann ich mir für Konsolen auch vorstellen. Skorpio wäre das Pendant zum High End PC und Switch eben das Pendant zum Low End.

Solange das Featureset der GPU vergleichbar ist und die Leistung in der gleichen Größenordnung, bekommt man das Spiel schon hinskaliert.

Allein die Auflösungsreduktion bringt ~Faktor 9 an weniger Rohleistungsbedarf der GPU. Framerate und Details jeweils auch nochmal grob Faktor 2. Skorpio hat IIRC 6 TFLOP/s. NX kommt sicherlich auf ~ 1 TFLOP/s.

xyleph
2016-11-24, 17:49:23
Also ich sehe das mit der Leistung jetzt nicht so kritisch. Spiele lassen sich -das kennen wir vom PC- sicherlich über grob 1 Größenordnung an Leistung skalieren.
Der Ultra High End PC läuft mit 4K, Ultra Details, 60fps (GP102) und der Low End PC läuft mit Geforce 950/750 (oder schlimmer) mit 720p @30 fps, low details.
Soetwas kann ich mir für Konsolen auch vorstellen. Skorpio wäre das Pendant zum High End PC und Switch eben das Pendant zum Low End.

Solange das Featureset der GPU vergleichbar ist und die Leistung in der gleichen Größenordnung, bekommt man das Spiel schon hinskaliert.

Allein die Auflösungsreduktion bringt ~Faktor 9 an weniger Rohleistungsbedarf der GPU. Framerate und Details jeweils auch nochmal grob Faktor 2. Skorpio hat IIRC 6 TFLOP/s. NX kommt sicherlich auf ~ 1 TFLOP/s.

420 GFLOPS (32bit) nach den Gerüchten.
1TFLOPS bei 32bit ist bei Switch absolut auszuschließen, das liefert Parker nicht einmal bei seinen 1,5 GHz.

robbitop
2016-11-24, 19:40:58
Die Gerüchte kenne ich nicht. Wenigstens 512 GFLOP/s sollten es IMO schon im stationären Betrieb sein (256 SPs bei 1 GHz). Allerdings kann man für vieles auch FP16 nutzen. Der Durchsatz für FP16 liegt damit bei 1 TFLOP/s.

Letztenenedes lägen aber auch 420 GFLOP/s noch in dem Bereich der Skalierung wenn 4K @60 fps @Ultra Details das oberste Ende darstellt und 720p @30 gps @low details das unterste Ende darstellt.

Entropy
2016-11-24, 20:11:33
Allein die Auflösungsreduktion bringt ~Faktor 9 an weniger Rohleistungsbedarf der GPU. Framerate und Details jeweils auch nochmal grob Faktor 2. Skorpio hat IIRC 6 TFLOP/s. NX kommt sicherlich auf ~ 1 TFLOP/s.
6TFlops sind in etwa RX480, die Konkurenz von Nvidia ist eine 1060 mit 4.4TFlops.
Die ursprungs XBox hat >1/5 der Leistung, auf Nvida bezogen wäre es in etwa 880GFlops für 1080p auf XBox Niveau.</Milchmädchenrechnung>

Das Problem dürfte eher CPU und RAM sein. Ein kurzer Blick auf die letzte Vulkan-Erweiterung von Nvidia zeigt wie sie gedenken das zu umgehen.

robbitop
2016-11-24, 20:23:52
Das Argument der besseren Ausnutzung pro FLOP zieht bei Konsolen nicht. Dank Low Level kann aus GCN praktisch fast ähnlich viel pro FLOP herausgeholt werden wie aus Pascal.
Schaue dir Doom @Vulcan an. Rohleistungsnormiert steht Polaris dort nahezu vergleichbar mit Pascal.
Dank Umgehung des bei AMD limitierenden Shadercompilers.

Ailuros
2016-11-25, 07:45:31
Das Argument der besseren Ausnutzung pro FLOP zieht bei Konsolen nicht. Dank Low Level kann aus GCN praktisch fast ähnlich viel pro FLOP herausgeholt werden wie aus Pascal.

Jein. Wenn sich ein Entwickler (im idealen Fall mit sehr gutem Verstaendnis der unterliegenden hw) fuer den einen oder anderen Fall nicht hinsetzt um die pipeline utilization so gut wie moeglich zu maximaliseren, geht gar nichts automatisch. Mir ist zwar schon klar dass Du diesem bewusst bist, aber wenn dem durchschnittlichen Leser nicht immer.

Anders wie gut bzw. schlecht Switch abschlagen wird, haengt primaer davon ab wie viel NV es unterstuetzen wird. Nach Hintergrund-Geruechten hat Nintendo ziemlich viel im Vertrag vorrausgesetzt, ergo sieht es generell gut fuer seine Zukunft aus. NV hat u.a. ein dediziertes API fuer Switch geliefert.

Schaue dir Doom @Vulcan an. Rohleistungsnormiert steht Polaris dort nahezu vergleichbar mit Pascal.

Ein Fall reicht schwer es als Regel anzusehen. Wenn ich die jeweiligen TFLOPs aufs Papier kritzle und eine 470/4GB mit einer 1060/3GB vergleiche, reicht der relativ kleine Vorsprung in Doom-Vulkan der ersten wirklich aus den theoretischen TFLOP Unterschied zwischen den beiden gut zu machen? Wenn ich mich nicht irre liegt der Unterschied in 1440p Ultra mit TSAA bei 7% (97 vs. 90 fps) gegen einen max. theoretischen TFLOP Unterschied von 20%.

Dank Umgehung des bei AMD limitierenden Shadercompilers.

Ob hier wirklich der compiler primaer limitiert ist ein anderes Kapitel.

Die Gerüchte kenne ich nicht. Wenigstens 512 GFLOP/s sollten es IMO schon im stationären Betrieb sein (256 SPs bei 1 GHz). Allerdings kann man für vieles auch FP16 nutzen. Der Durchsatz für FP16 liegt damit bei 1 TFLOP/s.

Auch hier: optimieren die Entwickler nicht fuer FP16 von Anfang an wird hier wenig bis gar nichts an Gewinn herauskommen.

DinosaurusRex
2016-11-25, 08:27:44
Anders wie gut bzw. schlecht Switch abschlagen wird, haengt primaer davon ab wie viel NV es unterstuetzen wird. Nach Hintergrund-Geruechten hat Nintendo ziemlich viel im Vertrag vorrausgesetzt, ergo sieht es generell gut fuer seine Zukunft aus. NV hat u.a. ein dediziertes API fuer Switch geliefert.


Nvidia sind die Stakeholder aber seit jeher scheißegal. Nvidia achtet nur auf die Bedürfnisse der Nvidia-Aktionäre. Sony, Microsoft, Apple etc, es ist alles andere als ein Zufall, dass die nicht mehr mit Nvidia zusammenarbeiten.

Was viele nicht verstehen: Shareholder Value (wovon die Aktionäre profitieren) ist kurzfristig und flüchtig. Stakeholder Value (wovon Kunden und Geschäftspartner profitieren) ist ein nachhaltiger Wert.

Genau dieses Detail wird immer wieder ignoriert, wenn man die Geschäftsergebnisse von AMD und Nvidia vergleicht. Nvidia ist in erster Linie in Märkten erfolgreich, die auf kurz oder lang einbrechen werden.

Nintendo ist der letzte Big Player in der Gaming-Branche, den Nvidia noch nicht verprellt hat. Aber so wie Huang drauf ist, wird er das auch noch schaffen.

Bei einer Zusammenarbeit mit Nvidia hat immer nur Nvidia profitiert, aber nie der Systeminhaber. Die erfolgreichen Systeme der letzten zehn, fünfzehn Jahre (Xbox360, PS4, Apple Computer) hatten allesamt AMD GPUs. Zufall?

Solange AMDs Partner erfolgreich sind, wird auch AMD erfolgreich sein. Das ist ein nachhaltiger Wert und wir reden hier über Milliardenaufträge. Nvidias Marketing besteht in erster Linie aus FUD-Kampagnen und dabei machen sie auch vor potentiellen Geschäftspartnern keinen halt, wie die jüngere Vergangenheit gezeigt hat.

Hallo
2016-11-25, 08:38:52
Sehr interessant.

Hatte NV nicht schon MS bei der OG Box verprellt mit halbschmalen Bedingungen?

Finds gut das AMD die beiden grossen (wieder mal) abbekommen hat. Obwohl ich AMD Karten ned so mag wegen Treiber und Lautstärke.

Also kurz, NV ist auf schnelle Kohle aus. Dumm nur das man bei Konsolen langfristig denken muss. Ebenfalls weiss ich nicht ob NV Ahnung hat wen sie (evtl.?) ans Bein pullern wollen ;) N hat Erfahrung mit Knebelverträgen...

Ailuros
2016-11-25, 08:47:33
Nvidia sind die Stakeholder aber seit jeher scheißegal. Nvidia achtet nur auf die Bedürfnisse der Nvidia-Aktionäre. Sony, Microsoft, Apple etc, es ist alles andere als ein Zufall, dass die nicht mehr mit Nvidia zusammenarbeiten.

Was viele nicht verstehen: Shareholder Value (wovon die Aktionäre profitieren) ist kurzfristig und flüchtig. Stakeholder Value (wovon Kunden und Geschäftspartner profitieren) ist ein nachhaltiger Wert.

Genau dieses Detail wird immer wieder ignoriert, wenn man die Geschäftsergebnisse von AMD und Nvidia vergleicht. Nvidia ist in erster Linie in Märkten erfolgreich, die auf kurz oder lang einbrechen werden.

Nintendo ist der letzte Big Player in der Gaming-Branche, den Nvidia noch nicht verprellt hat. Aber so wie Huang drauf ist, wird er das auch noch schaffen.

Bei einer Zusammenarbeit mit Nvidia hat immer nur Nvidia profitiert, aber nie der Systeminhaber. Die erfolgreichen Systeme der letzten zehn, fünfzehn Jahre (Xbox360, PS4, Apple Computer) hatten allesamt AMD GPUs. Zufall?

Solange AMDs Partner erfolgreich sind, wird auch AMD erfolgreich sein. Das ist ein nachhaltiger Wert und wir reden hier über Milliardenaufträge. Nvidias Marketing besteht in erster Linie aus FUD-Kampagnen und dabei machen sie auch vor potentiellen Geschäftspartnern keinen halt, wie die jüngere Vergangenheit gezeigt hat.

Mein voriger Post hat ueberhaupt nichts mit rot vs. gruen, noch irgendwelche kunterbunte Konspirations-thesen zu tun. Ich kann es zwar verstehen dass fuer viele AMD oder sonst welcher IHV der Allerheilige sein soll, aber es hat wenig bis gar nichts mit der Vereinbarung zwischen NV und NINTENDO zu tun. Wenn NV in der Zukunft ihre angeblichen vertraeglichen Verpflichtungen nicht einhalten wird, koennen wir nochmal darueber reden. Sonst weigere ich mich einen kleinen Anteil meines generell sachlichen Posts durch jegliche fanboy Fleischmuehle ziehen zu lassen.

robbitop
2016-11-25, 09:03:17
@Ail

http://www.pcgameshardware.de/Doom-2016-Spiel-56369/Specials/Vulkan-Benchmarks-Frametimes-1202711/
GTX 1060 vs RX480 @4K Vulkan. Normiere ich auf arithmetische Leistung, liegt Pascal nur noch 11 % vorn. Das ist zwar nicht ganz gleichwertig - aber nahezu, wenn man auf den sonstigen Unterschied schaut.

Doom ist leider das einzige Beispiel auf dem PC, weil kaum jemand für einen Nischenhersteller (AMD -> 20-30 % Marketshare) in einem Nischenmarkt (PC - 10...20% des Gesamtumsatzes ggü Konsolen) sich diese Mühe macht.

Doom ist ein Sonderfall. Id hat sich Tiago Sousa und Axel Gneiting geholt und sie hatten das Ziel, alles auf dem PC herauszuholen, was möglich ist. Bei Konsolen - zumindest bei 1st Party Games, gehe ich davon aus, dass alles herausgeholt wird, was möglich ist. Auch FP16 Funktionalität.
Dass AMDs Shadercompiler einer der großen Bottlenecks ist, stand auf einer Folie von id auf einer Präsentation. Es ist schon erstaunlich, was sich aus GCN herausholen lässt, wenn man selbst Hand anlegt.

Letztenendes ist NVs GPU robuster und sorgt mittels HW für eine gute Auslastung. Das ist ein Vorteil. Auch ist es sicher gut für Nintendo, dass NV die API liefert. Da hat sich Nintendo schon lange nicht mehr mit Ruhm bekleckert.

IMO ist die HW und die Voraussetzungen für die Switch nicht so schlecht, wie sie gemacht wird. Es hängt am Ende davon ab, wie gut die Masse dieses Konzept findet. Die Entwicklerstudios werden schon liefern, wenn sie sich gut verkauft.

DinosaurusRex
2016-11-25, 09:10:38
aber es hat wenig bis gar nichts mit der Vereinbarung zwischen NV und NINTENDO zu tun.

Genau darum geht es in meinem Post auch. Du redest von der Zusammenarbeit zwischen Nintendo und Nvidia und ich hab das mit Blick auf die Zusammenarbeit anderer Unternehmen mit Nvidia kommentiert.

Diesen Fanboy-Quatsch hast du ganz alleine in diesen Thread geschleppt und zwar durch deine Reaktion auf meinen Post.

robbitop
2016-11-25, 09:29:48
Update: jetzt habe ich das neue Gerücht auch gelesen. Ein A73 CPU Kern (gute Wahl) und Pascal @921 MHz

http://www.pcgameshardware.de/Nintendo-Switch-Konsolen-260784/News/Leak-mit-vielen-technischen-Details-1214260/

Wenn es sich bewahrheiten sollte:
Schonmal gut, dass man nicht einfach einen X1 Kern von 2015 verbaut. Es scheint, wie von mir vermutet, ein Custom SoC zu sein. Denn der proklamierte X2 hatte A57+Denver.

Es ist zwar anzunehmen, dass 256 SPs verbaut sind - das wäre aber keine Steigerung ggü X1. Im Gegenteil: X1 taktet mit 1 GHz und Pascals IPC stieg mWn nicht signfikant ggü Maxwell. Da der angegebene Takt mit 921 MHz auch nicht so besonders hoch ist (obwohl das Pascals Stärke ist), sehe ich einen Hoffnungsschimmer für 384 SPs. Alternativ gehen die Taktraten im stationären Betrieb etwas höher.

Ailuros
2016-11-25, 10:05:00
@Ail

http://www.pcgameshardware.de/Doom-2016-Spiel-56369/Specials/Vulkan-Benchmarks-Frametimes-1202711/
GTX 1060 vs RX480 @4K Vulkan. Normiere ich auf arithmetische Leistung, liegt Pascal nur noch 11 % vorn. Das ist zwar nicht ganz gleichwertig - aber nahezu, wenn man auf den sonstigen Unterschied schaut.

Mit den Vulkan "adjusted" Resultaten oder?

Doom ist leider das einzige Beispiel auf dem PC, weil kaum jemand für einen Nischenhersteller (AMD -> 20-30 % Marketshare) in einem Nischenmarkt (PC - 10...20% des Gesamtumsatzes ggü Konsolen) sich diese Mühe macht.

Mein Punkt war eher dass es stets davon abhaengt wie ein ISV entwickelt und fuer was er genau optimiert. Im einen Fall kann design Entscheidung Architektur A besser und im anderen Fall Architektur B besser schmecken.


Dass AMDs Shadercompiler einer der großen Bottlenecks ist, stand auf einer Folie von id auf einer Präsentation. Es ist schon erstaunlich, was sich aus GCN herausholen lässt, wenn man selbst Hand anlegt.

Lese ich zum ersten Mal; falls dem so sein sollte koennen sie stets eine dritte Firma dafuer beauftragen falls sie die resources dafuer nicht investieren wollen. Machen viele im ULP SoC Markt obwohl es wenig bekannt ist; QCOM z.B.

Letztenendes ist NVs GPU robuster und sorgt mittels HW für eine gute Auslastung. Das ist ein Vorteil. Auch ist es sicher gut für Nintendo, dass NV die API liefert. Da hat sich Nintendo schon lange nicht mehr mit Ruhm bekleckert.

IMO ist die HW und die Voraussetzungen für die Switch nicht so schlecht, wie sie gemacht wird. Es hängt am Ende davon ab, wie gut die Masse dieses Konzept findet. Die Entwicklerstudios werden schon liefern, wenn sie sich gut verkauft.

Eigentlich ist sie besser als ich erwartet haette wenn es sich um eine Parker custom Abwandlung handeln sollte. Ich hab stets konservativ nicht mehr als Erista bzw. 20SoC aus Kostengruenden erwartet.

Update: jetzt habe ich das neue Gerücht auch gelesen. Ein A73 CPU Kern (gute Wahl) und Pascal @921 MHz

http://www.pcgameshardware.de/Ninten...tails-1214260/

Wenn es sich bewahrheiten sollte:
Schonmal gut, dass man nicht einfach einen X1 Kern von 2015 verbaut. Es scheint, wie von mir vermutet, ein Custom SoC zu sein. Denn der proklamierte X2 hatte A57+Denver.

Also weniger als einen A73 quad wuerde ich nicht erwarten. Im Idealfall mit einem A53 quad cluster.

Es ist zwar anzunehmen, dass 256 SPs verbaut sind - das wäre aber keine Steigerung ggü X1. Im Gegenteil: X1 taktet mit 1 GHz und Pascals IPC stieg mWn nicht signfikant ggü Maxwell. Da der angegebene Takt mit 921 MHz auch nicht so besonders hoch ist (obwohl das Pascals Stärke ist), sehe ich einen Hoffnungsschimmer für 384 SPs. Alternativ gehen die Taktraten im stationären Betrieb etwas höher.

Die Parker GPU hat nur zwei cluster. Bei 921MHz im mobilen Modus ist die Frequenz schon verdammt hoch und es riecht auch ziemlich nach 16FF+. Die X1 GPU im Pixel C taktet uebrigens bei 850MHz. Die 1GHz Frequenz ist nur fuer das Android TV-Ding@steckdose.

xyleph
2016-11-25, 10:16:10
Die Parker GPU hat nur zwei cluster. Bei 921MHz im mobilen Modus ist die Frequenz schon verdammt hoch und es riecht auch ziemlich nach 16FF+. Die X1 GPU im Pixel C taktet uebrigens bei 850MHz. Die 1GHz Frequenz ist nur fuer das Android TV-Ding@steckdose.

Beim Pixel C handelt es sich aber auch um Erista in 20nm, der ist mit einen Takt bis zu 1GHz angegeben, da kommt man mit 850 schon recht nahe ran.
Parker geht auf bis zu 1,5GHz, da ist man mit 921 MHz recht weit entfernt. Schätze aber auch, dass es aus Gründen der Hitzeentwicklung und des Verbrauchs der Fall ist.

Ailuros
2016-11-25, 10:33:39
Beim Pixel C handelt es sich aber auch um Erista in 20nm, der ist mit einen Takt bis zu 1GHz angegeben, da kommt man mit 850 schon recht nahe ran.

Es sind schon 25% weniger GPU Takt im Pixel C in Echtzeit: https://gfxbench.com/compare.jsp?benchmark=gfx40&did1=28156617&os1=Android&api1=gl&hwtype1=GPU&hwname1=NVIDIA%28R%29+Tegra%28R%29+X1&D2=NVIDIA+Shield+Android+TV
Parker geht auf bis zu 1,5GHz, da ist man mit 921 MHz recht weit entfernt. Schätze aber auch, dass es aus Gründen der Hitzeentwicklung und des Verbrauchs der Fall ist.

Kann es nicht sein dass das Ding im Dock um sagen wir mal =/>20% noch mal hoeher taktet um auch die hoehere Aufloesung besser zu unterstuetzen?

Sunrise
2016-11-25, 10:39:02
...Parker geht auf bis zu 1,5GHz, da ist man mit 921 MHz recht weit entfernt. Schätze aber auch, dass es aus Gründen der Hitzeentwicklung und des Verbrauchs der Fall ist.
Wohl eher aus Verbrauchsgründen, da sollte aber im Dock doch noch etwas mehr Spielraum sein.

xyleph
2016-11-25, 10:42:01
Es sind schon 25% weniger GPU Takt im Pixel C in Echtzeit: https://gfxbench.com/compare.jsp?benchmark=gfx40&did1=28156617&os1=Android&api1=gl&hwtype1=GPU&hwname1=NVIDIA%28R%29+Tegra%28R%29+X1&D2=NVIDIA+Shield+Android+TV

Ich wollte nur darauf hinaus, dass die Differenz von 850 MHz zu 1000 MHz bei Erista geringer ist als von 921 MHz zu 1500 MHz bei Parker. Klingt trivial und logisch, kam bei deinem Post aber falsch rüber :-)


Kann es nicht sein dass das Ding im Dock um sagen wir mal =/>20% noch mal hoeher taktet um auch die hoehere Aufloesung besser zu unterstuetzen?

Das war bisher auch meine Vorstellung, stelle es mir jedenfalls nicht als ingenieurmäßige Meisterleistung vor, dass der Lüfter im Netzbetrieb ein wenig aufdreht und entsprechend höhere mehr Takte möglich sind.
Bisher sprechen die Gerüchte aber dagegen.

Wohl eher aus Verbrauchsgründen, da sollte aber im Dock doch noch etwas mehr Spielraum sein.

Naja, "nur" ist so eine Sache. Die Wärmeentwickung in einen mobilen Gerät ist nichts triviales, dass mal als Nebensächlichkeit abtut.

robbitop
2016-11-25, 10:54:45
In Bezug auf A53. Ich weiß nicht, ob asymetrisches SMP wirklich sinnvoll für die Spieleentwicklung ist. Die LITTLE CPUs sind ja eigentlich für Backgroundtasks (Notifications, Downloads im Hintergrund, Updates etc) gedacht. Für Spiele hingegen macht es (insbesondere für Ports) nur komplizierter, zwei Arten von CPUs zu versorgen. Ein A73 Quadcore Cluster würde mMn mehr Sinn machen. A73 ist ja eher ein Nachfolger von A12/17 als von A15/57/72 - also sehr schlank und sparsam (2 issue) statt breit (3-4 issue) und hungrig. Und dennoch ist er ein klein wenig schneller als A72. Der relativ niedrige Takt (< 2 GHz) sieht auch danach aus als könnte man @16FF+ gut 4x von denen verwenden.

Man muss bedenken, dass Xbone und Ps4 für die Spiele gut 6 Kerne zur Verfügung haben. Wenn man hier nur mit 2 Kernen oder asymetrischem SMP antanzt, kann es noch komplizierter für Ports werden. Andererseits gibt es sicher Tasks die nicht so leistungshungrig sind. Die ISA der CPUs ist immerhin kompatibel (ARM v8).

Naitsabes
2016-11-25, 11:15:28
Zwei/vier A35 oder A53 für das OS und vier A73 für die Spiele. Das wäre meine Idee.

robbitop
2016-11-25, 11:20:54
A35 sind eigentlich die besseren Littlekerne als A53. Sie sind eher ein Nachfolger der noch sehr sparsamen, schlanken A7 Kerne. A53 ist Perf/W deutlich schlechter. Sind nämlich für Littlekerne eigentlich recht hungrig. Aber reine Performance ist für einen in Order Kern gigantisch gut. In etwa Krait Niveau!
Für Backgroundtasks wäre A35 eigentlich ideal. Für Hauptanwendung meiner Meinung nach aber zu langsam.

Für Switch hielte ich 4x A73 für die Spiele und einen Cluster A35 für Hintergrundanwendungen für ideal, sofern asynchrones SMP für Spiele nicht infrage käme.

starfish
2016-11-25, 11:44:22
Update: jetzt habe ich das neue Gerücht auch gelesen. Ein A73 CPU Kern (gute Wahl) und Pascal @921 MHz

http://www.pcgameshardware.de/Nintendo-Switch-Konsolen-260784/News/Leak-mit-vielen-technischen-Details-1214260/

Wenn es sich bewahrheiten sollte:
Schonmal gut, dass man nicht einfach einen X1 Kern von 2015 verbaut. Es scheint, wie von mir vermutet, ein Custom SoC zu sein. Denn der proklamierte X2 hatte A57+Denver.

Es ist zwar anzunehmen, dass 256 SPs verbaut sind - das wäre aber keine Steigerung ggü X1. Im Gegenteil: X1 taktet mit 1 GHz und Pascals IPC stieg mWn nicht signfikant ggü Maxwell. Da der angegebene Takt mit 921 MHz auch nicht so besonders hoch ist (obwohl das Pascals Stärke ist), sehe ich einen Hoffnungsschimmer für 384 SPs. Alternativ gehen die Taktraten im stationären Betrieb etwas höher.


Laut diesem Link hat die normal kaufbare Version kein Wlan?

robbitop
2016-11-25, 11:50:20
Ich kann mir nicht vorstellen, dass kein WLAN vorhanden ist.

xyleph
2016-11-25, 11:55:53
Laut diesem Link hat die normal kaufbare Version kein Wlan?

Das sagt die Originalquelle nicht. Da ist nur die Rede davon, dass die DevKit Version "2*Wifi" hat.

starfish
2016-11-25, 12:19:45
Das sagt die Originalquelle nicht. Da ist nur die Rede davon, dass die DevKit Version "2*Wifi" hat.

Danke.
Ich hatte das auch für einen Fehler der deutschen Quelle gehalten.

Hallo
2016-11-26, 22:09:17
Sind die shoulder buttons eigentlich analog?

Entropy
2016-11-28, 12:47:12
Schaue dir Doom @Vulcan an. Rohleistungsnormiert steht Polaris dort nahezu vergleichbar mit Pascal.
Wenn ich das richtig verstanden habe, gibt es viele Optimierungen, wie z.B. Shader Intrinsics die nur auf AMD eingeschaltet sind, obwohl diese auch auf Nvidia verfügbar sind. (Vermutlich weil diese von der Konsolenversion kommen.)
Damit wird der Vergleich alles andere als Objektiv. Unter OpenGL hatten beide die gleichen Bedingungen, aber bei Vulkan? Wieviel schneller wäre Doom wenn PS4 und XBox One Maxwells gehabt hätten deren Shader auf Vulkan portiert worden wären? -> Kristalkugel


Dank Umgehung des bei AMD limitierenden Shadercompilers.
Ich glaube nicht, dass die 30% einzig auf den Shadercompiler zuzuschieben sind. In anderen Benchmarks wie LUX oder Bitcoin dominiert GCN.
Ich führe NVidias bessere Effizienz darauf zurück, dass sie die GPUs zielgerichteter auf Spiele optimiert haben, 3 Beispiele:
- in Benchmarks hat selbst Kepler effizientere Color Compression als RX480 (Ich finde den Link auf die schnelle nicht, hat jemand anderes den zur Hand?)
- Nvidia GPUs haben super schnelle "Constant Caches" während GCN an Shaderconstants stallen kann (und rein logisch passiert das am meisten beim Shaderstart, es gibt also wenig Wege wie hier Latenz versteckt werden kann).
- Nvidia hat scheinbar Tile Based Rasterization verbaut um die Effizienz zu steigern: http://www.realworldtech.com/tile-based-rasterization-nvidia-gpus/




Das Argument der besseren Ausnutzung pro FLOP zieht bei Konsolen nicht. Dank Low Level kann aus GCN praktisch fast ähnlich viel pro FLOP herausgeholt werden wie aus Pascal.
Ich denke die Effizienz auf Nvidias Seite ergibt sich nicht einzig und allein aufgrund eines besseren Shadercompilers. Nvidia hat scheinbar viel in spezialisierte Hardware investiert um die Auslastung der Rechenwerke zu optimieren.

Zu deduzieren, dass "Konsolenoptimierungen" nur auf AMD möglich wären würde bedeuten, dass Nvidia jeden "Workload" antizipiert hat und die perfekte GPU baute.
Eigentlich bedeutet spezialisierte Hardware immer, dass man mehr optimieren kann, aber auch viel mehr Zeit investieren muss. Ohne optimierungen sollte spezialisierte Hardware oft versagen (weil sie auf besondere Gegebenheiten aufbaut die oft aus trivialen Gründen nicht gegeben sein können).

Foobar2001
2016-11-29, 03:48:00
Die Shader-Intrinsics die von Doom verwendet werden sind GCN spezifisch. NVIDIA hat keine Skalareinheit, nur SIMDs. Es sind alle Optimierungen gemacht worden die fuer beide Platformen moeglich waren. Auf dem PC verwendet Doom zum Beispiel extra fuer nVIDIA UBOs statt SSBOs fuer die Cluster-Daten, weil die NVIDIA-Chips sonst massiv abkacken (sieht man sehr einfach in RenderDoc).

Mal abgesehen davon, dass NVIDIA keine einzige Vulkan-GLSL-Extension anbietet (nein, VK_NV_glsl_shader ist was anderes).

- Nvidia GPUs haben super schnelle "Constant Caches" während GCN an Shaderconstants stallen kann (und rein logisch passiert das am meisten beim Shaderstart, es gibt also wenig Wege wie hier Latenz versteckt werden kann).
GCN hat selbstverstaendlich auch einen K$ der vom L2 gebackt wird und Konstanten koennen vorgeladen koennen vor dem Programm-Start. So wie bei NVIDIA auch. Uebrigens gehen alle skalaren Ladeoperationen durch den K$ bei GCN, bei NVIDIA geht das *ausschliesslich* mit UBOs, die 64KiB Groessen-Limits haben, was ultra nervig ist.

Der Shader-Compiler ist tatsaechlich eine groessere Baustelle bei AMD und sie verlieren dadurch einiges an Performance. Verwendet zum Beispiel oft viel zu viele Register. Ich kann dir aus Erfahrung sagen, dass die Konsolen ihre GCN-Chips tatsaechlich wesentlich besser auslasten.

Tile rendering Optimierungen, die Triangle-Pipeline und Color-Compression sind tatsaechlich Dinge, die bei NVIDIA besser funktionieren. Keine Frage. Auch braucht NVIDIA keine manuelle Dekompression von Render-Targets etc. Das GCN aber irgendwie eine schlechtere Architektur ist kann ich so nicht sagen, Asynchronous Compute ist immer noch Lichtjahre besser als bei Pascal und die Recheneinheiten sind extrem flexibel bei AMD. NVIDIA hat immer noch extrem niedrige Limits was Resourcen angeht.

Lurtz
2016-11-29, 09:43:49
Der Shader-Compiler ist tatsaechlich eine groessere Baustelle bei AMD und sie verlieren dadurch einiges an Performance. Verwendet zum Beispiel oft viel zu viele Register. Ich kann dir aus Erfahrung sagen, dass die Konsolen ihre GCN-Chips tatsaechlich wesentlich besser auslasten.

Tile rendering Optimierungen, die Triangle-Pipeline und Color-Compression sind tatsaechlich Dinge, die bei NVIDIA besser funktionieren. Keine Frage. Auch braucht NVIDIA keine manuelle Dekompression von Render-Targets etc. Das GCN aber irgendwie eine schlechtere Architektur ist kann ich so nicht sagen, Asynchronous Compute ist immer noch Lichtjahre besser als bei Pascal und die Recheneinheiten sind extrem flexibel bei AMD. NVIDIA hat immer noch extrem niedrige Limits was Resourcen angeht.
Es ist mir als Laie rätselhaft wieso man sowas nach fünf Jahren GCN und Konsolenhardware immer noch nicht besser hinbekommt. Man verbläst doch jedes Jahr unglaubliche Beträge in nicht optimale Hardware, sowas muss doch mit genügend Geld in Software zu lösen sein...

StefanV
2016-11-29, 10:19:32
Du brauchst dafür erst einmal Ressourcen, die du dafür einsetzen kannst und da schaut es bei AMD momentan nicht so gut aus.

Wenn dich das stört, musst du mehr AMD kaufen (lassen) ;)

Nightspider
2016-11-29, 10:33:22
AMD hat die Anzahl ihrer Software-Ingenieure schon massiv aufgestockt und plant dort auch deutliche Verbesserungen.

Entropy
2016-11-29, 16:04:05
Die Shader-Intrinsics die von Doom verwendet werden sind GCN spezifisch.Genau das wollte ich implizieren als ich sagte, dass sie die die Konsolenversion einfach rüberportierten. Es ist schon existierender Code, wieso nicht verwenden?
NVIDIA hat keine Skalareinheit, nur SIMDs. Das ist ein Implementierungsdetail der Hardware, Ballot-Intrinsics gab es bei Cuda Jahre bevor andere aufschlossen. Der Sinn ist
-Koheränz bei bedingten Sprüngen
-redundantes Laden von Daten reduzieren
-manchmal auch im die Zahl der Register zu reduzieren.
Das funktioniert auch ohne Skalarregister.

Auf dem PC verwendet Doom zum Beispiel extra fuer nVIDIA UBOs statt SSBOs fuer die Cluster-Daten, weil die NVIDIA-Chips sonst massiv abkacken (sieht man sehr einfach in RenderDoc).
Wundert mich nicht, die wissen, dass ohne die spezialisierten "Constant Memory" die Nvidia GPUs vermutlich nicht viel effizienter als GCN sind. Sowas kleines kann 30% kosten. (Bei Cuda macht es jedenfalls viel aus, vielleicht sind es nur 10% bei Spielen)


Mal abgesehen davon, dass NVIDIA keine einzige Vulkan-GLSL-Extension anbietet (nein, VK_NV_glsl_shader ist was anderes).
Auch für den Fall dass ich micht jetzt in den Dreck setze, aber sind das nicht genau dieselben Intrinsics die Doom später für AMD-Shader eingebaut hat?
https://developer.nvidia.com/reading-between-threads-shader-intrinsics




GCN hat selbstverstaendlich auch einen K$ der vom L2 gebackt wird und Konstanten koennen vorgeladen koennen vor dem Programm-Start.
Konstanten Caches pro Shader Prozessor haben natürlich beide, leider betiteln die meisten das "Constant Memory" von Nvidia auch als "Cache", es ist aber natürlich etwas anderes.
AMD: K$->L2->RAM
Nvidia: K$->"Constant Memory"


So wie bei NVIDIA auch. Uebrigens gehen alle skalaren Ladeoperationen durch den K$ bei GCN, bei NVIDIA geht das *ausschliesslich* mit UBOs,
Der Unterschied ist, dass
1. bei Nvidia alle Konstanten, trotz Cachemiss, aus dem "Constant Memory" mit wenigen Takten Latenz zur Verfügung stehen (beim Broadcast), also faktisch als ob du 16384 Read-Only-Register dazu hättest. Bei AMD hast du erst einmal einen Cachemiss ins L2 oder RAM, falls viel Druck auf den Caches ist, wird jede neue Wavefront wieder einen Cachemiss haben und du als Entiwickler kannst wenig machen. Bei Nvidia hast du die Wahl.
2. Verwendest du eine Konstante mehrmals, ist Neuladen bei Nvidia kein Problem. Bei GCN darfst du dir aussuchen, ob du diese zu 99% der Zeit nutzlose Konstante immer im Register mitschleifst, oder ob du später vermutlich den Cachemiss bezahlst.

die 64KiB Groessen-Limits haben, was ultra nervig ist.
Mein Wunsch an Nvidia ist auch immer das auf 256KB oder mehr zu erweitern. Den AMD-Weg kannst du immer gehen mit L1->L2->RAM, bedenke nur, wenn dir die 64KB nicht reichen, rotierst du auch beim K$ und die Chancen sind leider auch gut, dass du im L2 einen miss hast. Dann musst du anfangen Register für Konstanten zu verschwenden. Wenn du dir das anschaust:
http://amd-dev.wpengine.netdna-cdn.com/wordpress/media/2014/05/gcn_vgpr_table.png
kannst du dich nur an den Kopf fassen. (Nicht gegen GCN gemeint, sondern nur dass Konstanten, Sampler usw. in Register gelargert werden und du dann auch noch dafür verantwortlich bist wenig davon zu nutzen wenn du ":)" willst)
Bei Nvidia waren bis Kepler 64 Register das maximale Limit und du kommst mit 16 oft sehr gut aus, weil du nicht brachliegende Daten mitschleifst. (Viele benutzen auch nur die 32Bit Cuda Runtime, weil die Shader nur 32 Bit Pointer verwenden).




Der Shader-Compiler ist tatsaechlich eine groessere Baustelle bei AMD und sie verlieren dadurch einiges an Performance.
Ich kenne die Qualität des Compilers nicht genau, aber kann mir vorstellen, dass er aufgrund der GCN Architektur sehr viel mehr verwalten und abwegen muss. Bei Nvidia liegt das auf den Schultern der Entwickler.

Verwendet zum Beispiel oft viel zu viele Register. Ich kann dir aus Erfahrung sagen, dass die Konsolen ihre GCN-Chips tatsaechlich wesentlich besser auslasten.
Ich kann dir aus Erfahrung sagen, dass Konsolensoftware ihre GPUs (Nvidia, PowerVR, SGI, usw.) immer besser auslastet, das ist einer der Vorteile von Spezialisierung und mein Eingangsargument zu robbitop, dass das auch bei Nintendos Switch eher wahrscheinlich als unwahrscheinlich ist.


Tile rendering Optimierungen, die Triangle-Pipeline und Color-Compression sind tatsaechlich Dinge, die bei NVIDIA besser funktionieren. Keine Frage. Auch braucht NVIDIA keine manuelle Dekompression von Render-Targets etc. Ist das NDA? :)

Das GCN aber irgendwie eine schlechtere Architektur ist kann ich so nicht sagen, Asynchronous Compute ist immer noch Lichtjahre besser als bei Pascal und die Recheneinheiten sind extrem flexibel bei AMD. NVIDIA hat immer noch extrem niedrige Limits was Resourcen angeht.
Es ist ein anderer Ansatz, das hast du vermutlich schon in der vorherigen Konsolengeneration erlebt. Deswegen sprach ich auch nicht von "schlecht" sondern besser auf manchen Workload angepasst. GCN geht bei Luxmark und Bitcoin-Crunching extrem ab (eine 7870 ist schneller als Titan-Kepler, widerlegt ein grundsätzliches "schlecht").
Und nutzt du die Spezialisierungen von Nvidia nicht aus, hast du vermutlich dieselbe pro-Flop Leistung, bei GCN hast du dann aber mehr Hardware-Flop/Transistor -> Fexibilität gewinnt.

Deswegen denke ich, dass wir hier nicht AMD-Flop vs Nvidia-Flop bei Nintendo Shield vergleichen können.
- Vielleicht läuft die GPU 1:1 wie GCN bei manchen Workloads und XBox One ist entsprechend 150% schneller (1.3TFlops vs 0.5TFlops).
- Vielleicht bildet sich der Durchschnitt vom PC auf Konsolen ab und Switch wird dann mit Milchmädchenrechnung 30% hinter XBox One liegen. <-- meine Kristalkugel ist dafür
- Vielleicht gibt es mit der Spezialhardware auch Potential wie bei der PS3 und trotz weniger "Flop" und weniger Bandbreite werden Spiele 1:1 aussehen.

Foobar2001
2016-11-29, 17:06:44
Das ist ein Implementierungsdetail der Hardware, Ballot-Intrinsics gab es bei Cuda Jahre bevor andere aufschlossen. Der Sinn ist
-Koheränz bei bedingten Sprüngen
-redundantes Laden von Daten reduzieren
-manchmal auch im die Zahl der Register zu reduzieren.
Das funktioniert auch ohne Skalarregister.
Nein, das ist kein Implementierungsdetail. Auf GCN kann man uniforme Berechnungen von den SIMD-Einheiten nehmen und stattdessen skalar ausfuehren.

http://advances.realtimerendering.com/s2016/Siggraph2016_idTech6.pdf Seite 33 ff.

Mein Wunsch an Nvidia ist auch immer das auf 256KB oder mehr zu erweitern. Den AMD-Weg kannst du immer gehen mit L1->L2->RAM, bedenke nur, wenn dir die 64KB nicht reichen, rotierst du auch beim K$ und die Chancen sind leider auch gut, dass du im L2 einen miss hast. Dann musst du anfangen Register für Konstanten zu verschwenden.
256 KiB sind *viel zu wenig*. Und sobald du uniforme Daten durch SSBOs laedst bei NVIDIA bricht dir die Performance ein. Und zwar nicht nur ein bisschen, sondern so richtig.

Und den AMD-Weg kannst du eben nicht immer gehen, weil es keine Skalareinheit gibt. Alle Nicht-UBO-Loads werden von der HW als divergent angesehen und sind entsprechend lahm.

Ich kenne die Qualität des Compilers nicht genau, aber kann mir vorstellen, dass er aufgrund der GCN Architektur sehr viel mehr verwalten und abwegen muss. Bei Nvidia liegt das auf den Schultern der Entwickler.
Ich seh das genau andersrum. Bei NVIDIA muss der Compiler Scheduling-Hints fuer die Hardware einfuegen fuer Dual-Issue. GCN ist unglaublich simpel und hat keine Instruction to Instruction Hazards. Das einzige Problem ist, dass uniforme Berechnungen erkannt werden sollten um sie auf die Skalar-Einheit auszulagern.

Auch für den Fall dass ich micht jetzt in den Dreck setze, aber sind das nicht genau dieselben Intrinsics die Doom später für AMD-Shader eingebaut hat?
https://developer.nvidia.com/reading-between-threads-shader-intrinsics
Nein. Doom benutzt kein Ballot und kein Swizzle, sondern macht Skalarisierung mit readFirstLane (Daten fuer jedes Licht werden nur einmal pro Cluster geladen damit, Loads sind Skalar und nicht mehr Vektor). Es gibt kein Aequivalent dazu auf NVIDIA-Hardware, ausser dass die Constant-Buffer-Hardware vermutlich selber sowas macht.

Ist das NDA? :)
Kann man in Vulkan ohne weiteres experimentell nachstellen. Wenn man auf AMD die Image-Layout-Transitions vergisst gibt es bunten Tobak, bei NVIDIA passiert nie irgend was. Ich bin mir ziemlich sicher, dass sie das auch mal irgendwo aufgeschrieben haben.

TheAntitheist
2016-11-29, 19:22:09
Bei einer Zusammenarbeit mit Nvidia hat immer nur Nvidia profitiert, aber nie der Systeminhaber. Die erfolgreichen Systeme der letzten zehn, fünfzehn Jahre (Xbox360, PS4, Apple Computer) hatten allesamt AMD GPUs. Zufall?

Solange AMDs Partner erfolgreich sind, wird auch AMD erfolgreich sein. Das ist ein nachhaltiger Wert und wir reden hier über Milliardenaufträge. Nvidias Marketing besteht in erster Linie aus FUD-Kampagnen und dabei machen sie auch vor potentiellen Geschäftspartnern keinen halt, wie die jüngere Vergangenheit gezeigt hat.
ja stimmt mal wieder einiges nicht was du da abläst, steckt einfach immer zuviel Glaube bei dir drin... PS3 hatte ja keine Nvidia GPU und war gaaar nicht erfolgreich...

mczak
2016-11-29, 21:41:12
Kann man in Vulkan ohne weiteres experimentell nachstellen. Wenn man auf AMD die Image-Layout-Transitions vergisst gibt es bunten Tobak, bei NVIDIA passiert nie irgend was. Ich bin mir ziemlich sicher, dass sie das auch mal irgendwo aufgeschrieben haben.
Kann man auch im Open-Source Treiber sehen.
Wobei jetzt bei FBC das funktionieren sollte, zumindest manchmal (also RTs direkt als Textur verwenden ohne Dekompression) (die Transition brauchst du vermutlich trotzdem schon nur um die Kohärenz der ROP-Daten sicherzustellen). So wie ich das sehe geht das aber bei Z-Daten wie auch bei jedwelchen MSAA-RTs nach wie vor nicht. Das ist aber alles ein alter Hut, und ich vermute hängt damit zusammen dass die ROP-Caches nach wie vor nicht Teil der normalen Cache-Hierarchie sind (die Daten werden also beim Lesen/Schreiben in die ROP-Caches dekomprimiert/komprimiert), was ja bekanntlich bei Nvidia seit Fermi der Fall ist. Ich vermute ja bei jeder neuen GCN-Revision dass AMD das ändert (scheint mir ein völlig sinnloser Bandbreitenfresser zu sein - da komprimiert man extra um Bandbreite zu sparen und braucht dann einen extra Durchlauf der nichts tut als die ganzen komprimierten Daten zu lesen und unkomprimiert wieder zu schreiben...), aber bisher lag ich jedesmal daneben...

Foobar2001
2016-11-29, 21:46:12
Neuere GCN-Revisionen koennen teilweise komprimierte Daten in den TMUs lesen. Es kommt auf den Chip an.

=Floi=
2016-11-30, 01:15:06
das dürfte der switch ja dann einen großen vorteil bringen!

Foobar2001
2016-11-30, 03:22:07
Eins noch:
Wenn du dir das anschaust:
http://amd-dev.wpengine.netdna-cdn.com/wordpress/media/2014/05/gcn_vgpr_table.png
kannst du dich nur an den Kopf fassen. (Nicht gegen GCN gemeint, sondern nur dass Konstanten, Sampler usw. in Register gelargert werden und du dann auch noch dafür verantwortlich bist wenig davon zu nutzen wenn du ":)" willst)
Sampler und Konstanten sind SGPR-Register, nicht VGPRs. Das Occupancy-Problem hat NVIDIA exakt gleich und es muss immer alles in Vektor-Register, was den Druck weit einfacher erhoeht bei GCN.

SGPR-Register sind eigentlich immer ausreichend vorhanden, ich hatte noch nie einen Shader der nicht VGPR limitiert war.

Entropy
2016-11-30, 10:11:32
Nein, das ist kein Implementierungsdetail. Auf GCN kann man uniforme Berechnungen von den SIMD-Einheiten nehmen und stattdessen skalar ausfuehren.

http://advances.realtimerendering.com/s2016/Siggraph2016_idTech6.pdf Seite 33 ff.
Worauf es dort ankommt scheint "Leveraging Access Patterns" zu sein, damit du "Coherent branching" bekommst. Das hätten sie auch auf Nvidia implementieren können, das ist eine gängige Optimierung bei Cuda.

Kannst du bitte ein Beispiel nennen was ohne skalare Register, also auf Nvidia, nicht ginge? Vielleicht übersehe ich etwas.



256 KiB sind *viel zu wenig*. Und sobald du uniforme Daten durch SSBOs laedst bei NVIDIA bricht dir die Performance ein. Und zwar nicht nur ein bisschen, sondern so richtig.Im schlimsten Fall sehe ich 30% Verlust womit ich dann auf die per-Flop Leistung von GCN komme. Was genau ist "so richtig"?


Und den AMD-Weg kannst du eben nicht immer gehen, weil es keine Skalareinheit gibt. Alle Nicht-UBO-Loads werden von der HW als divergent angesehen und sind entsprechend lahm.Bei SSBO (was bei Cuda+OpenCL wohl nur ein array buffer ist) bist du nur am Speicher limitiert. GCN und Nvidia sind dort gleich langsam falls du GPUs mit derselben Bandbreite und ALU-Anzahl vergleichst, obwohl Nvidia besseres "Coalescing" hat (>=Kepler). Eine 1060 würde dann natürlich nicht mehr konkurenzfähig zu einer 480 sein.


Ich seh das genau andersrum. Bei NVIDIA muss der Compiler Scheduling-Hints fuer die Hardware einfuegen fuer Dual-Issue. GCN ist unglaublich simpel und hat keine Instruction to Instruction Hazards.
Das ist relativ einfach aufzulösen und deterministisch (Graphentheorie). Ob weniger Register oder weniger Loads besser sind ist dem Compiler hingegen nicht bekannt.



Das einzige Problem ist, dass uniforme Berechnungen erkannt werden sollten um sie auf die Skalar-Einheit auszulagern.Das hat mich neugierig gemacht, ich habe mir mal die GCN Dokumentation zu Skalar-Einheiten genauer durchgelesen:
Die Skalar-Einheiten können nicht viel berechnen, sie sind hauptsächlich für Sprünge und Adressenberechnungen mittels Integer-ALU zuständig.

Ich hab mir Doom noch nicht mit RenderDoc angesehen, aber der Presentation nach sehe ich nicht was zusätzlich zur Kohärenz gemacht wird. Ist da wirklich soviel?


Nein. Doom benutzt kein Ballot und kein Swizzle, sondern macht Skalarisierung mit readFirstLane (Daten fuer jedes Licht werden nur einmal pro Cluster geladen damit, Loads sind Skalar und nicht mehr Vektor). Es gibt kein Aequivalent dazu auf NVIDIA-Hardware, ausser dass die Constant-Buffer-Hardware vermutlich selber sowas macht.
ja, kohärentes Lesen macht schon die Hardware (nicht nur bei Konstanten, "Coalescing" gibt es sogar bei "Global Memory" https://devblogs.nvidia.com/parallelforall/how-access-global-memory-efficiently-cuda-c-kernels/ )

Sowas wie bei Doom kannst du dennoch auch per Hand implementieren um Kohärenz zu erzwingen indem du mit "threadIdx.x" in den Buffer indizierst. Du kannst dann die Intrinsics nutzen um innerhalb der Lanes zu indizieren, du tauscht n-Skalar-Leseoperationen(GCN) gegen eine kohärente Vector-Leseoperation bei Nvidia. Damit sparst du natürlich keine Vektorregister bei Nvidia.

Entropy
2016-11-30, 10:34:20
Das Occupancy-Problem hat NVIDIA exakt gleich und es muss immer alles in Vektor-Register, was den Druck weit einfacher erhoeht bei GCN.Das kann nicht ganz gleich sein, denn die Nvidia GPUs hatten eine lange Zeit nicht mehr als 64 Register pro Shader-Thread, erst GK110 hat das auf 255 gesteigert. GCN hat 128 und scheinbar kommen die Entwickler in diese Regionen.


SGPR-Register sind eigentlich immer ausreichend vorhanden, ich hatte noch nie einen Shader der nicht VGPR limitiert war.Ich glaube das letzte mal wo Spiele auf Nvidia Register limitiert waren, war NV30 (weswegen alle mit 'Halfs' um sich worfen). Bei Cuda Kernels fange ich an mir sorgen zu machen, wenn 32 Register benutzt werden.

Bei OpenCL sind die "Binary Blobs" von Kernels bei Nvidia PTX-ASCII, falls das bei OpenGL auch so ist, sollte es möglich sein die Registeranzahl von Doom rauszufinden.

Foobar2001
2016-11-30, 15:30:04
Worauf es dort ankommt scheint "Leveraging Access Patterns" zu sein, damit du "Coherent branching" bekommst. Das hätten sie auch auf Nvidia implementieren können, das ist eine gängige Optimierung bei Cuda.

Kannst du bitte ein Beispiel nennen was ohne skalare Register, also auf Nvidia, nicht ginge? Vielleicht übersehe ich etwas.
AMD hat eine skalare Einheit auf einem *anderen Port*. Du kannst Berechnungen komplett offloaden die uniform sind. NVIDIA hat nur SIMDs. Alles was bei NVIDIA laeuft, laeuft immer auf allen 32 Threads eines Warps (minus Maskierung). Das Problem hat AMD nicht. Es gibt einen komplett anderen Teil der CU die 64 bit Integer-Operationen, Loads, Stores etc. unabhaengig und parallel durchfuehrt ohne die SIMDs dafuer benutzen zu muessen.

Und nein, es geht nicht um coherent Branching, es werden die Leseoperationen skalar ausgefuehrt. Wenn eine Wavefront nur ein oder zwei Lichter benutzt dann wird eben nur ein oder zwei Lichter durch die Skalareinheit geladen. Bei NVIDIA gibt es das nicht, alle Loads sind immer Vektor (Egal ob UBOs oder SSBOs). Dafuer wurden die Intrinsics bei GCN eingesetzt und es bringt ungefaehr 10%. Diese Optimierung ist nicht anwendbar auf NVIDIA-GPUs, weil sie diese Hardware schlicht nicht haben.

Im schlimsten Fall sehe ich 30% Verlust womit ich dann auf die per-Flop Leistung von GCN komme. Was genau ist "so richtig"?
30% im Haupt-Lighting-Pass ist *so richtig* viel. NVIDIA waere durch die Bahn langsamer als AMD in Doom ohne diese Optimierung.

Das ist relativ einfach aufzulösen und deterministisch (Graphentheorie). Ob weniger Register oder weniger Loads besser sind ist dem Compiler hingegen nicht bekannt.
Trotzdem ist GCN einfacher fuer den Compiler. Deine Aussage war das exakte Gegenteil. Und das ist moeglicherweise Graph-Coloring und NP komplett.

Bei OpenCL sind die "Binary Blobs" von Kernels bei Nvidia PTX-ASCII, falls das bei OpenGL auch so ist, sollte es möglich sein die Registeranzahl von Doom rauszufinden.
PTX ist eine Intermediate Representation, das hat ueberhaupt nichts mit dem schlussendlichen Maschinencode zu tun.

Und das NVIDIA keine Probleme mit Occupancy hat ist laecherlich. Natuerlich haben sie exakt die gleichen Probleme. Der Compiler ist vielleicht besser wodurch Shader im Durchschnitt nicht so schnell ins Limit kommen, aber die Hardware funktioniert exakt gleich. Das Registerfile ist endlich, wenn man zu viele Regs benutzt sinkt die Occupancy und schlussendlich wird in LDS/Speicher gespillt.

Die GCN-Grafik, die du verlinkst ist eins zu eins auf NVIDIA uebertragbar. Das Kepler bei 64 regs pro Programm Schluss macht und dadurch nicht bis zu einer Occupancy 1 sinken kann macht das Problem nur noch schlimmer.

Mandalore
2016-12-05, 14:21:52
Wie steht die CPU gegenüber dem Jaguar einer PS4 (Pro) dar?


Wie schaut es bei der GPU ggü der PS4-GPU?



Es gibt ja auch Gerüchte, dass Nintendo 2000 Stück von einer Art "Pro"-Version hat fertigen lassen, die an der Leistung von der PS4 Pro heranreichen sollen laut dem Leaker (kann man bei Reddit sehen)

Was denkt ihr, plant Nintendo eine Art Switch normal für sagen wir 249- 299 $

und ne Pro Variante für 349 -399 $?

Kartenlehrling
2016-12-05, 14:49:03
Zwei Switch Version wird es nie geben, und schon gar nicht für 350€

Mein Tip ist immer noch, das sich Nintendo an Nvidia gebunden hat, ein Planung von 20 Jahre?
Da kann nur ein Gesammtsystem mit Cloud und Streaming gemeint sein, alle 6 Jahre ein Modell update mit Sicherheit nicht.
50 Spiele biete Nvidia mit ihrem NOW jetzt schon an, aber 120€/Jahr sind zuviel.

Aber Nintendo wird es mit "kostenlose" Internetanschluss für 120€ im Jahr anbieten, dann sieht es schon ganz anders aus.
Amazon biete sowas für ihren Lesetabel ja auch schon seit Jahren an, auch wenn da nicht das Datenvolum sprengt wie Gaming und Streaming.

Sunrise
2016-12-05, 15:08:03
...Es gibt ja auch Gerüchte, dass Nintendo 2000 Stück von einer Art "Pro"-Version hat fertigen lassen, die an der Leistung von der PS4 Pro heranreichen sollen laut dem Leaker (kann man bei Reddit sehen)

Was denkt ihr, plant Nintendo eine Art Switch normal für sagen wir 249- 299 $

und ne Pro Variante für 349 -399 $?
Das kannst du gleich wieder vergessen. Am besten auch gleich den "Leaker", der solche Äußerungen von sich gibt.

xyleph
2016-12-05, 15:57:21
Wie steht die CPU gegenüber dem Jaguar einer PS4 (Pro) dar?


Wie schaut es bei der GPU ggü der PS4-GPU?



Es gibt ja auch Gerüchte, dass Nintendo 2000 Stück von einer Art "Pro"-Version hat fertigen lassen, die an der Leistung von der PS4 Pro heranreichen sollen laut dem Leaker (kann man bei Reddit sehen)

Was denkt ihr, plant Nintendo eine Art Switch normal für sagen wir 249- 299 $

und ne Pro Variante für 349 -399 $?

Diese Pro-Version soll das Devkit sein so steht es auch im Reddit. Dazu steht dort nicht, dass diese Pro Version an die PS4 Leistung heran reicht, sondern dass der Chip so groß ist, dass wenn er nur eine GPU wäre, stärker als die PS4 pro wäre. Das ist auch eher eine ziemlich unglückliche Aussage.


Was die GPU Leistung angeht: Da der Tegra X1 in einem 10 Zoll Pixel C von Google schon runtergetaktet ist, gehe ich davon aus, dass er in einem 6 Zoll Gerät nicht seinen Takt ausspielen wird, auch nicht wenn es Parker ist. Wird meines Erachtens also >750 GFLOPS bei Parker, <500GFLOPS bei Erista.

Was die CPU angeht, schätze ich schon einmal, dass es keine Denver 2 Kerne sein werden. Irgendwelche ARMs halt, wahrscheinlich als Quad, vielleicht vier A57, wäre dann auf dem Niveau des Pixel C, was ja nicht schlecht wäre. Vielleicht auch nur vier A53, oder vier A72/73. Wissen am Ende nur die Eingeweihten, ebenfalls wie sie sich in der Praxis gegenüber den Kätzchen schlagen.

Gipsel
2016-12-05, 17:43:38
Das kann nicht ganz gleich sein, denn die Nvidia GPUs hatten eine lange Zeit nicht mehr als 64 Register pro Shader-Thread, erst GK110 hat das auf 255 gesteigert. GCN hat 128 und scheinbar kommen die Entwickler in diese Regionen.GCN konnte schon immer 256 Vektorregister pro Thread adressieren (schränkt halt die occupancy ein). Und zusätzlich noch 102 Skalarregister pro Wavefront (plus ein paar implizit genutzte wie den VCC und sowas). Die Skalarregister schränken die Occupancy viel seltener ein, da man mehr als 48 davon nutzen muß, bevor die Anzahl der Wavefronts pro SIMD überhaupt sinkt (bei 48 Skalarregistern pro Wavefront passen immer noch 10 Wavefronts/SIMD bzw. 40 Wavefronts auf eine CU, wenn wenige Vektorregister und LDS genutzt wird). Selbst 100 benutzte Skalarregister erlauben noch (mindestens) 20 Wavefronts pro CU.
Und neuere GCN-Iterationen erlauben sogar volle Occupancy bei 80 Skalarregistern pro Wavefront (das Skalarregisterfile wurde ab GCN v3 vergrößert [von 2kB auf auf 3,2kB pro SIMD, also von 8kB auf 12,8kB pro CU]). Das limitiert also praktisch nie (selbst die maximale von der ISA erlaubte Anzahl von Skalarregistern ermöglicht noch 7 Wavefronts pro SIMD, also 28 Wavefronts pro CU).
Und prinzipiell gibt es keinen Grund, warum man mit GCN mehr Vektorregister benötigen würde als bei nV, eher im Gegenteil, wie Foobar schon schilderte. Man kann halt einige Sachen von den Vektorregistern in die Skalarregister verlagern (und darauf auch z.B. für Adressberechnungen/bestimmte Branches mit der Skalar-ALU parallel zu den Vektor-ALUs rumrechnen).
Ich glaube das letzte mal wo Spiele auf Nvidia Register limitiert waren, war NV30 (weswegen alle mit 'Halfs' um sich worfen). Bei Cuda Kernels fange ich an mir sorgen zu machen, wenn 32 Register benutzt werden.Weil dann die Occupancy limitiert wird und die Performance sinken kann? Das wiederspricht ja wohl der Aussage, daß die Registeranzahl nie limitiert, oder? Damals hat man gerne mit halfs gerechnet, weil die NV30 ALUs mit floats langsam waren (http://alt.3dcenter.org/artikel/cinefx/index.php). ;)

mboeller
2016-12-09, 13:23:07
http://newatlas.com/nintendo-switch-super-mario-run-jimmy-fallon/46865/

min 4:50

Ravenhearth
2016-12-19, 14:00:28
Laut eurogamer (http://www.eurogamer.net/articles/digitalfoundry-2016-nintendo-switch-spec-analysis) finale Taktraten auf 1020 MHz für CPU und 307,2 MHz (undocked) bzw. 768 MHz (docked) für GPU. Eh.

=Floi=
2016-12-19, 14:07:14
macht voll sinn, wenn jedes handy und das shield tablet wesentlich höhere taktraten haben.
was für ne bescheuerte news...

Ravenhearth
2016-12-19, 14:09:20
Erstmal lesen vielleicht?

And while some questions surround the leaked specs above, any element of doubt surrounding these CPU and GPU clocks can be seemingly be discounted. Documentation supplied to developers along with the table above ends with this stark message: "The information in this table is the final specification for the combinations of performance configurations and performance modes that applications will be able to use at launch."

dildo4u
2016-12-19, 14:11:40
Die Meisten haben ihre Handy auch nicht über Stunden unter voller CPU und GPU Last.Und genau das ist das Einsatziel von Switch.Die Taktraten machen komplett Sinn wenn man mehr als 3 Stunden Akkulaufzeit rausholen will.

00-Schneider
2016-12-19, 14:36:04
Von wie viel TF reden wir hier im Docked-Mode? Genug um zumindest die Games von Nintendo in 1080p zu rendern?

Troyan
2016-12-19, 14:36:40
Google Pixel C läuft mit 850Mhz ohne Lüfter für mehr als 2h. 768Mhz für den stationären Betrieb ist einfach nur sinnlos. Und 340Mhz lächerlich.

Gut, es kann sein, dass der Custom-Tegra-Chip doppelt soviele Einheiten besitzt, aber 150Gflops im mobilen Betrieb ist einfach nur eine ausgedachte Angabe.

Ravenhearth
2016-12-19, 14:42:16
Von wie viel TF reden wir hier im Docked-Mode? Genug um zumindest die Games von Nintendo in 1080p zu rendern?

~393 GFLOPs bei FP32.


Google Pixel C läuft mit 850Mhz ohne Lüfter für mehr als 2h. 768Mhz für den stationären Betrieb ist einfach nur sinnlos. Und 340Mhz lächerlich.

Gut, es kann sein, dass der Custom-Tegra-Chip doppelt soviele Einheiten besitzt, aber 150Gflops im mobilen Betrieb ist einfach nur eine ausgedachte Angabe.

Finde das nicht unrealistisch, wenn Nintendo 5-6 Stunden Akkulaufzeit oder so haben möchte.

Kartenlehrling
2016-12-19, 14:52:00
Heute wird Seasons of Heaven Nintendo Switch Full-Trailer präsentiert,
der Vorgemack aufs Video wurde nur in 720p gezeigt, was ein schlechtes Zeichen ist.

Rancor
2016-12-19, 15:14:41
Ich ahne wirklich böses.

Troyan
2016-12-19, 15:20:37
Finde das nicht unrealistisch, wenn Nintendo 5-6 Stunden Akkulaufzeit oder so haben möchte.

Ich hätte mir wenigsten Xbox360/PS3 Leistung gewünscht. Das zwei Jahre alte nVidia Shield Tablet mit 28nm Tegra K1 Chipsatz läuft rund 2h mit 850Mhz bzw. 326GFLOPs.

16nm/20nm und Maxwell sollte hier für eine Verdopplung der Leistung pro W sorgen.

nVidia gibt für Parker bei 768Gflops 10W an. 140Gflops sind einfach lächerlich gering dagegen...

fondness
2016-12-19, 15:34:54
Das ist genau das, was viele schon lange gesagt haben. Eine Konsole für die Spiele zugeschnitten werden, muss eine reproduzierbare Leistung liefern und zwar unter Dauerlast. Vergleiche mit Smartphones oder Shield, wo der Takt ständig schwankt oder eine aktive Kühlung vorhanden ist, führen hier zu nichts. Außerdem bringt ein Handheld nichts, dem nach spätestens 2h der Akku ausgeht oder das wegen eines zu großen Akkus zu schwer oder zu teuer wird.

Wenn in den Specs steht, dass das die finalen Spezifikationen sind, gibt es da auch keinen Grund, daran zu zweifeln. Nintendo wird sich das schon sehr gut überlegt haben.

AffenJack
2016-12-19, 16:20:16
Da bestreitet Nintendo wohl ihren alten Low Cost Hardware Weg. Die Taktraten passen auch zu den letzten Gerüchten die von Maxwell Derivat sprachen. Es wird einfach ein 20nm Chip sein und man nimmt nicht den riesigen Vorteil von Finfetprozessen mit. Ansonsten würde man deutlich höher takten. Ich hatte wirklich auf etwas mehr gehofft. Man muss ja nicht unbedingt mit Xbox und PS4 konkurieren, aber deutlich mehr als Wii U hatte ich mir schon erhofft. So ist man bei den Gflops ja nur geradeso überlegen und auch wenn Maxwell deutlich Leistungsfähiger pro Gflop ist als die Wii U, durch 1080p wird ja die gesamte Leistungssteigerung aufgefressen.
Man könnte einzig hoffen, dass es doch mehr als 2 Cluster sind, aber ich hege da meine Zweifel wenn man sich alleine schon die CPU-Clocks anschaut.

THEaaron
2016-12-19, 16:23:46
Die Vita kam Ende 2011 und liefert ca 50gflops. ;D

robbitop
2016-12-19, 17:19:59
Schade, dass man so einen alten SoC für ein Gerät für 2017 nehmen musste. 16FF+ wäre zeitgemäß. In Kombination mit A73 (deutlich schmalereres Design als A15/57/72 - ca A72 IPC aber deutlich energieeffizienter) und Pascal hätte man bei gleicher Leistungsaufnahme sicher nichmal gut +50% mehr Leistung abrufen können.

HOT
2016-12-19, 17:22:34
So wie es aussieht, würde das Teil nicht mal als Gameboy NX taugen...
Mit einem halbwegs aktuellen SoC von Qualcomm oder so wär man sicher billiger und besser gefahren.

robbitop
2016-12-19, 17:29:09
Nächstes Jahr hätte man sogar schon den Snapdragon 835 in10LPE haben können. Schade, dass man die Chance nicht genutzt hat, einen aktuellen SoC zu nutzen. Dieses Produkt wäre so auch schon vor 18 Monaten möglich gewesen.

Ravenhearth
2016-12-19, 17:34:10
Ist halt Nintendo. :freak:

tobor
2016-12-19, 18:09:47
Sollten sich die Gerüchte bewahrheiten, hoffe ich,dass das Ding genauso floppt wie die
Wiuu.

Ailuros
2016-12-19, 18:10:17
Die Vita kam Ende 2011 und liefert ca 50gflops. ;D

SGX543+MP4@200MHz
4* (4*9) * 0.2 GHz = 28.8 GFLOPs

Wobei ich den "9ten" FLOP dazugerechnet habe, obwohl es Bloedsinn ist den SFU MUL mitzuberechnen, denn man muss ziemlich heftig turnen um je auf 9 FLOPs/clock/SIMD lane zu kommen: https://en.wikipedia.org/wiki/PowerVR

Sei froh wenn's ueber 20 GFLOPs sind mit dem low level API mitberechnet. Da es sich aber um Vec4 gegen skalare ALUs handelt, kann die Switch GPU sogar mehr als nur 10x Mal schneller werden als die Vita GPU mit nur 157 GFLOPs. Man sieht's auch bei Rogue gegen SGX Vergleichen: https://gfxbench.com/result.jsp?benchmark=gfx40&test=547&order=score&base=gpu&os-check-Android_gl=0&os-check-custom_gl=0&os-check-Linux_gl=0&os-check-OS_X_gl=0&os-check-OS_X_metal=0&os-check-Windows_dx=0&os-check-Windows_gl=0&ff-check-desktop=0

Da bestreitet Nintendo wohl ihren alten Low Cost Hardware Weg. Die Taktraten passen auch zu den letzten Gerüchten die von Maxwell Derivat sprachen. Es wird einfach ein 20nm Chip sein und man nimmt nicht den riesigen Vorteil von Finfetprozessen mit. Ansonsten würde man deutlich höher takten. Ich hatte wirklich auf etwas mehr gehofft. Man muss ja nicht unbedingt mit Xbox und PS4 konkurieren, aber deutlich mehr als Wii U hatte ich mir schon erhofft. So ist man bei den Gflops ja nur geradeso überlegen und auch wenn Maxwell deutlich Leistungsfähiger pro Gflop ist als die Wii U, durch 1080p wird ja die gesamte Leistungssteigerung aufgefressen.
Man könnte einzig hoffen, dass es doch mehr als 2 Cluster sind, aber ich hege da meine Zweifel wenn man sich alleine schon die CPU-Clocks anschaut.

Meine Hintegrund-Infos waren stets komischerweise auf 20SoC fixiert, obwohl ich es bis heute nicht bestaetigen konnte. Ich weiss ehrlich nicht warum jemand je glaubte dass sich bei NINTENDO etwas fundamental geaendert hat.

xyleph
2016-12-19, 18:38:01
SGX543+MP4@200MHz
4* (4*9) * 0.2 GHz = 28.8 GFLOPs

Wobei ich den "9ten" FLOP dazugerechnet habe, obwohl es Bloedsinn ist den SFU MUL mitzuberechnen, denn man muss ziemlich heftig turnen um je auf 9 FLOPs/clock/SIMD lane zu kommen: https://en.wikipedia.org/wiki/PowerVR

Sei froh wenn's ueber 20 GFLOPs sind mit dem low level API mitberechnet. Da es sich aber um Vec4 gegen skalare ALUs handelt, kann die Switch GPU sogar mehr als nur 10x Mal schneller werden als die Vita GPU mit nur 157 GFLOPs. Man sieht's auch bei Rogue gegen SGX Vergleichen: https://gfxbench.com/result.jsp?benchmark=gfx40&test=547&order=score&base=gpu&os-check-Android_gl=0&os-check-custom_gl=0&os-check-Linux_gl=0&os-check-OS_X_gl=0&os-check-OS_X_metal=0&os-check-Windows_dx=0&os-check-Windows_gl=0&ff-check-desktop=0


Wäre mit PowerVR etwas vergleichbares bei gleichem Watt-Budget drin gewesen gegen Erista?
Vita hatte durchaus beeindruckendes gezeigt, für einen HH von 2011.

Ailuros
2016-12-19, 18:42:58
Wäre mit PowerVR etwas vergleichbares bei gleichem Watt-Budget drin gewesen gegen Erista?
Vita hatte durchaus beeindruckendes gezeigt, für einen HH von 2011.

Ja aber damit haette Nintendo nur GPU IP in der Hand und wer haette den restlichen SoC entwickelt? Der Switch SoC ist afaik ein custom SoC den NV hauptsaechlich fuer bzw. mit Nintendo entwickelt hat, zusammen mit einem custom low level API fuer Switch.

Troyan
2016-12-19, 19:21:34
Wenigsten gibt es Vulkan: https://www.khronos.org/conformance/adopters/conformant-products#vulkan

fondness
2016-12-19, 19:22:57
Also offensichtlich nichts mit custom low level API fuer Switch!?

xyleph
2016-12-19, 19:25:30
Ja aber damit haette Nintendo nur GPU IP in der Hand und wer haette den restlichen SoC entwickelt? Der Switch SoC ist afaik ein custom SoC den NV hauptsaechlich fuer bzw. mit Nintendo entwickelt hat, zusammen mit einem custom low level API fuer Switch.

Das ist natürlich ein Punkt. Hatte mich allgemein nur interessiert, ob IMG in der Hinsicht konkurrenzfähig zu nVidia wäre, was Perf/Watt angeht. Spiele wie Uncharted und Wipeout auf Vita fand ich sehr beeindruckend für einen Handheld anno 2012.


@Switch-Specs

Mit den Daten war es dann dann auch für Multiports, jedenfalls für welche die die PS4One Hardware fordern.

Kartenlehrling
2016-12-19, 19:28:48
Vielleicht plaudert das Studio aus dem Nähkästchen, 720p im Video und Unreal 4 Engine wissen wir nun schon :)

https://www.youtube.com/watch?v=ExCavQVzNrc
Official "Trailer" Seasons of Heaven for Nintendo Switch

Blediator16
2016-12-19, 19:45:02
Vielleicht plaudert das Studio aus dem Nähkästchen, 720p im Video und Unreal 4 Engine wissen wir nun schon :)

https://www.youtube.com/watch?v=ExCavQVzNrc
Official "Trailer" Seasons of Heaven for Nintendo Switch

Das ist PC Material :rolleyes:

To those asking about the Seasons of Heaven trailer, it's PC footage. Devs are in line for a Switch dev kit but they do not have one atm.

https://twitter.com/LaurakBuzz/status/810896657437048832

Gebrechlichkeit
2016-12-19, 19:55:06
Sollten sich die Gerüchte bewahrheiten, hoffe ich,dass das Ding genauso floppt wie die
Wiuu.

Hallo?! Good´ol "Drive By" .. ;

Ich frage mich eher ob Nintendo OHNE 100% 3rd Party Support die naechsten 5 Jahren ueberleben kann?! Alte Spiele von 2011 interessiert kein Eber mehr, ... angenommen das Teil ist zu schwach und Spiele werden erst ein paar Monate nach der PS4/XB1 fuer die NX veroeffentlicht, muss Nintendo wieder auf ihre IPs zurueckgreifen und dank dieser sich ueber Wasser halten (wie mit der Wii U). Egal ob sich das Ding gut verkauft oder nicht, wenn man auf Grund der "schwachen Hardware" fuer ein 2017 Produkt, das Spiel so dermassen anpassen muss, werden wohl auf Dauer nur wenige sich das leisten koennen (sprich bloss ein neues NBA Live, Fifa jedes Jahr). Ich brauch kein FiFA Dreck auf der NX, nur Nintendo typische Spiele (wie mit der Wii U), aber ob sich das auf Dauer rentiert ...

720p ist schon krass schlecht, mein Quintrix Pana Ende 90er hatte schon 768px1024!

Troyan
2016-12-19, 19:58:24
Warum sollte es keinen "Third-Party-Support" geben? Der Unterschied zwischen Switch Docked und Xbone One ist genauso groß wie zwischen Playstation 4 Pro und Xbox One.

Die Spiele kommen also einfach mit dynamischer Auflösung und weniger Details.

Blediator16
2016-12-19, 20:12:12
Warum sollte es keinen "Third-Party-Support" geben? Der Unterschied zwischen Switch Docked und Xbone One ist genauso groß wie zwischen Playstation 4 Pro und Xbox One.

Die Spiele kommen also einfach mit dynamischer Auflösung und weniger Details.

Genau das wollen Devs. Neue Konsole eigene "spezial API" und noch mehr Komplexität.

Troyan
2016-12-19, 20:14:39
Spiele lassen sich auf Switch genauso einfach portieren wie auf den PC.

xyleph
2016-12-19, 20:33:49
Spiele lassen sich auf Switch genauso einfach portieren wie auf den PC.

Bei den Specs von Switch werden größere Titel definitiv nicht einfach zu portieren sein.

Gebrechlichkeit
2016-12-19, 20:40:17
Spiele lassen sich auf Switch genauso einfach portieren wie auf den PC.

So einfach ist das mit Sicherheit nicht (sobald der L2/L3 Cache kleiner ist, die Api, die Tools/SDK, CPU/GPU Takt, vram, bandbreite etc. viele Faktoren). Es basiert ja auf Nvidia´s Shield (welches wohl wie Blei in den Regalen rumlag, dumm wie Nintendo ist haben die sich wohl die erste Gen Nvidia Shield andrehen lassen und verkaufen diese nun als NX. Keine Ahnung wie gut oder schlecht die Shields waren/sind, aber wie gesagt : "Wer zockt noch Skyrim?" Wird mit der NX 2.0 wieder mit Skyrim Footage geworben? C´mon .. die haben soviel Kohle wie Sony und Co. sparen aber wieder an der Hardware, verkaufen aber diese wie Apple fuer eine neue Lunge und Niere.)

Wenn der Preis stimmt, nicht mehr als €199 (250 waere ich noch bereit auszugeben, 1080p sollte es aber schon schaffen ... 720p auf 4K hochsakliert im Jahre 2017?!).

Troyan
2016-12-19, 21:09:04
Bei den Specs von Switch werden größere Titel definitiv nicht einfach zu portieren sein.

Fifa 17, WWE 2K17 und Rise of the Tomb Raider sind drei Beispiele, wo auch die Xbox 360 beglückt wurde.

Und im Gegensatz zur Xbox 360 unterstützt die Switch das selbe Featureset und die Cards unterstützen mindesten 16GB gegenüber 4GB DVDs.

Foobar2001
2016-12-19, 21:23:39
Spiele lassen sich auf Switch genauso einfach portieren wie auf den PC.
Deine Faktenlage dazu ist sehr duenn. Alleine ARM bei der CPU ergibt so manche Quaelereien.

Troyan
2016-12-19, 21:30:15
Kann man bezweifeln, wenn vor 10 Jahren PowerPC, Cell und x84 nebeneinander existieren konnten.

Davon abgesehen sollte jede moderne Engine (Grafik, Physik, AI etc.) eine ARM-Unterstützung besitzen.

HOT
2016-12-19, 21:36:01
Schon die XB1 ist echt schlecht. Für sowas lahmes musst du gesondert entwickeln, da führt kein Weg dran vorbei. Sicherlich gibt es noch Titel, bei denen das geht, aber das ist doch keine Basis - und schau dir mal an wie die aussehen auf der alten Hardware... Das Teil wird mMn brutal floppen und dann entwickelt niemand mehr dafür irgendwas.

Und wenn ich mir die Daten so ansehe, könnte das eher ein Standard-Tegra mit custom-Taktraten sein. Wie gesagt, der Preis ist entscheidend.

Kartenlehrling
2016-12-19, 21:43:36
Ich glaube immer noch das die Lederjacke ihnen einen Traum verkauft hat,
schliesslich haben sie von 20 Jahre Planung gesprochen,
davon sind erst zwei Jahre um und der Traum ist eine Wolke.

http://www.legitreviews.com/wp-content/uploads/2014/04/nvidia-shield-deck-2.jpg

Gipsel
2016-12-19, 21:57:24
Kann man bezweifeln, wenn vor 10 Jahren PowerPC, Cell und x84 nebeneinander existieren konnten.

Davon abgesehen sollte jede moderne Engine (Grafik, Physik, AI etc.) eine ARM-Unterstützung besitzen.Ich denke mal, Foobar spielt auf weak vs. strong memory ordering an. ARM weak, x86 strong. Spielt bei bestimmten Multithread-Geschichten schon eine Rolle.
Nette Beschreibung aus einem alten Blog dazu (https://bartoszmilewski.com/2008/11/05/who-ordered-memory-fences-on-an-x86/):
Multiprocessors with relaxed memory models [ARM!!!] can be very confusing. Writes can be seen out of order, reads can be speculative and return values from the future–what a mess! In order to impose some kind of consistency you have to use memory fences, and there are several kinds of them.

The x86 seems to be an oasis in the perilous landscape of relaxed memory multicores. The Intel x86 memory model, detailed in Intel 64 Architecture Memory Ordering White Paper and the AMD spec, AMD64 Architecture Programmer’s Manual, list a lot of memory ordering guarantees, among them:
Loads are not reordered with other loads.
Stores are not reordered with other stores.
Stores are not reordered with older loads.
In a multiprocessor system, memory ordering obeys causality (memory ordering respects transitive visibility).
In a multiprocessor system, stores to the same location have a total order.
In a multiprocessor system, locked instructions have a total order.
Loads and stores are not reordered with locked instructions.
Das Ganze macht es bei ARM natürlich nicht unmöglich (auch die Power-PC-Cores der X360 hatten afaik ein relaxed memory model), aber es kann schon ein gewisser Mehraufwand sein, das korrekt hinzubekommen.

Rancor
2016-12-19, 22:06:29
Ich weiss nicht... Sollte sich das Bewahrheiten wäre das einfach nur extrem lächerlich und Nintendo hat wirklich nichts gelernt aus dem U Debakel.

Ich hatte bisher jede Nintendokonsole, aber schon bei der WII U hat mich die geringe Leistung mitunter schon immer stärker gestört.
Nochmal mache ich das nicht mit. Das Zelda wird für die U gekauft, die Switch kann bleiben wo Sie ist.
Den Kappes mache ich nicht mehr mit. Man muss ja keine High End Maschine bringen, aber wenigsten XBOX One Niveau im Dock hätte man schon erwarten dürfen.

153 GFLOPs im Jahr 2017.... ja ne ist klar Kalle :ulol4:

cR@b
2016-12-19, 22:58:12
Und dennoch sehen die Nintendo eigenen Titel gut auf der Wii U aus und performen ebenso noch recht sauber. Ob Pikmin 3, NSMB, SM3DW, MK8 uvm. sind mit der Hardware doch gelungen und im Verhältnis zur Wii fast schon ein Quantensprung.

Zumindest Zelda BOTW scheint auf der Switch flüssiger als auf der Wii U und eben wieder den gewissen Schritt zu bringen, der für Nintendo eigene Games ausreicht. Die eierlegende Wollmilchsau wird auch die Switch nicht werden und Multiplattform Titel werden weiterhin auf dem PC gezockt. Trotzdem glaube ich, dass uns die Switch noch überraschen wird. Mal abwarten... ich bin optimistisch!

xyleph
2016-12-19, 23:06:26
Ich denke mal, Foobar spielt auf weak vs. strong memory ordering an. ARM weak, x86 strong. Spielt bei bestimmten Multithread-Geschichten schon eine Rolle.
Nette Beschreibung aus einem alten Blog dazu (https://bartoszmilewski.com/2008/11/05/who-ordered-memory-fences-on-an-x86/):

Das Ganze macht es bei ARM natürlich nicht unmöglich (auch die Power-PC-Cores der X360 hatten afaik ein relaxed memory model), aber es kann schon ein gewisser Mehraufwand sein, das korrekt hinzubekommen.

Hinzu wird noch der Leistungsunterschied kommen. Die CPU der Switch soll mit 1020 MHz takten, welcher ARM ist nicht bekannt, man könnte aber von einen A57 oder A53 Quad ausgehen. Da portet man bestimmt nicht einfach mal so von den sieben/acht Kätzchen runter.
Kommt natürlich auf das Spiel an, aber wenn man auf PS4One schon häufig am CPU Limit hängt.

THEaaron
2016-12-19, 23:07:17
SGX543+MP4@200MHz
4* (4*9) * 0.2 GHz = 28.8 GFLOPs

Wobei ich den "9ten" FLOP dazugerechnet habe, obwohl es Bloedsinn ist den SFU MUL mitzuberechnen, denn man muss ziemlich heftig turnen um je auf 9 FLOPs/clock/SIMD lane zu kommen: https://en.wikipedia.org/wiki/PowerVR


Ok. Ich hab mich auf diese Quelle verlassen.

http://kyokojap.myweb.hinet.net/gpu_gflops/

Foobar2001
2016-12-20, 01:28:32
Kann man bezweifeln, wenn vor 10 Jahren PowerPC, Cell und x84 nebeneinander existieren konnten.

Davon abgesehen sollte jede moderne Engine (Grafik, Physik, AI etc.) eine ARM-Unterstützung besitzen.
Codebases erodieren und x86 hat ein weitaus strikteres Speichermodell. Es waren jetzt schon drei Jahre in denen alle ihren alten Code rausgeschmissen haben und sich nicht mehr darum kuemmern mussten.

153 GFLOPs im Jahr 2017.... ja ne ist klar Kalle :ulol4:
Ich bezweifle, dass der Switch-SOC ein gewoehnlicher Maxwell X1 ist. Da koennten z.B. vier SMM verbaut sein statt nur zwei. 153 GFLOPs ist klar zu wenig, selbst im Mobil-Modus. Das sollte jedem einleuchten.

Nightspider
2016-12-20, 01:33:23
Ich hatte ja erst überlegt aber wenn die Switch wirklich so lahm wird können sie die behalten.

So langsamen Crap kauf ich mir nie wieder.

Foobar2001
2016-12-20, 01:37:34
Die FLOP-Werte sind reine Spekulation.

Gipsel
2016-12-20, 02:06:55
Ich bezweifle, dass der Switch-SOC ein gewoehnlicher Maxwell X1 ist. Da koennten z.B. vier SMM verbaut sein statt nur zwei. 153 GFLOPs ist klar zu wenig, selbst im Mobil-Modus. Das sollte jedem einleuchten.Bei der Wii U hat man auch noch lange überlegt, ob es 320 SPs sind. Am Ende waren es doch nur 160 VLIW5 SPs in 40nm (ein Jahr nach Launch von GCN in 28nm) kombiniert mit dem gleichen uralt IBM Core aus dem Gamecube (halt nur drei davon, Die Size war 27mm² in einem 45nm Prozeß oder sowas in der Gegend :freak:). Aus der Sicht würde es fast (positiv) überraschen, falls die Switch mehr verbaut hat, als jetzt als Spec durch die Gegend geistert.

Rancor
2016-12-20, 08:17:28
Bei der Wii U hat man auch noch lange überlegt, ob es 320 SPs sind. Am Ende waren es doch nur 160 VLIW5 SPs in 40nm (ein Jahr nach Launch von GCN in 28nm) kombiniert mit dem gleichen uralt IBM Core aus dem Gamecube (halt nur drei davon, Die Size war 27mm² in einem 45nm Prozeß oder sowas in der Gegend :freak:). Aus der Sicht würde es fast (positiv) überraschen, falls die Switch mehr verbaut hat, als jetzt als Spec durch die Gegend geistert.

This..

Und genau deshalb gehe ich davon aus das die schlimmsten "Leaks" auch der Wahrheit entsprechen. ( Hoffe es aber nicht ^^ )
Ich bin irgendwie wirklich mehr als enttäsucht und auch ein bischen sauer auf Nintendo.
Ich habe gestern nochmal die WiiU ausgepackt und das flimmern kann ich echt nur noch schwer ertragen. Dafür müssten die Spiele schon außergewöhnlich sein ( Zelda,Metroid, Pokemon )

Locuza
2016-12-20, 08:37:01
Bei der Wii U hat man auch noch lange überlegt, ob es 320 SPs sind. Am Ende waren es doch nur 160 VLIW5 SPs in 40nm [...]
Ich kann bis Heute nicht richtig nachvollziehen, wieso man von 160 SPs ausgeht, anstatt 320?

Rancor
2016-12-20, 08:41:54
Ich kann bis Heute nicht richtig nachvollziehen, wieso man von 160 SPs ausgeht, anstatt 320?

Wie meinen ? :confused:

Locuza
2016-12-20, 09:01:08
Bei Llano hat AMD glaube ich 40 SPs pro Cluster gepackt, früher waren es 20.
Bei der Wiiu war die Spekulation offen, ob es 40 sind (320 insgesamt) oder nur 20 (160).
Ich würde gerne irgendetwas Handfestes haben, wieso es *definitiv* nur 160 sind und keine 320.
Geleakte docs, Entwickleraussagen, irgendein simpler Test, something.

Gipsel
2016-12-20, 09:40:24
Auf gewisse sinnlose Rants können wir hier im Thread gerne verzichten.

Rancor
2016-12-20, 09:41:52
https://de.wikipedia.org/wiki/AMD_Latte

Stimm laut Wiki müsste die U GPU 320 SPs haben. Aber ich war auch fest der Meinung das es nur 160 SPs sind ^^

Edit:

Damals war das auch schon nicht ganz klar

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=509174&highlight=WII&page=126

Foobar2001
2016-12-20, 09:45:24
Wikipedia schreibt 320, ich kannte das Geruecht auch nicht?

Hallo
2016-12-20, 09:50:12
Wikipedia schreibt 320, ich kannte das Geruecht auch nicht?

??? Erläutere bitte.

lumines
2016-12-20, 10:06:34
Mich würden extrem niedrige Taktraten im mobilen Betrieb jetzt überhaupt nicht überraschen. Nintendo will vermutlich eine lange Akkulaufzeit und ein kühles Gerät. Die Prioritäten liegen da etwas anders als z.B. bei Android-Tablets. Da ist Throtteln und ein heißes Gerät an der Tagesordnung, wenn man es fordert. Was auch in Ordnung ist, weil solche Tablets gefühlte 90% der Zeit nicht auf Volllast laufen. Bei einem Handheld sieht das etwas anders aus.

Nintendo operiert sowieso in einem eigenen Paralleluniversum. Man schaue sich z.B. den 3DS XL an. Nach den Maßstäben hier im Forum ist das Ding absoluter Schrott, aber die Leute kaufen ihn trotzdem. Die Spiele stimmen, das Spielgefühl auch. Das Ding spricht die Leute sehr stark auf einer emotionalen Ebene an, noch viel stärker als stationäre Konsolen. Einen Handheld kann man immer bei sich führen. Die Spiele sind auf Cartridges gespeichert, die man physisch austauschen muss. Das ist mühsehlig, birgt aber auch eine gewisse Nostalgie. Zusätzlich werden mobile Geräte seit dem ersten iPhone stark fetischisiert. Davon profitiert auch Nintendo.

Wer problemlos von einem Smartphone-Display mit >400 PPI zum 3DS XL mit seinen faustdicken Pixeln wechseln kann und dabei Spaß hat, der wird auch die niedrigen Taktraten bei der Switch verschmerzen können. Das können hier vielleicht viele im Forum nicht nachvollziehen, aber so sieht die Realität eben aus. Für den Erfolg der Switch spielen die Taktraten einfach überhaupt keine Rolle. Davon abgesehen wurden in der Vergangenheit schon größere Verrenkungen unternommen, um Spiele auf Nintendos Plattformen zu portieren. Mit Vulkan ist Nintendo näher an den anderen Plattformen als je zuvor.

Gipsel
2016-12-20, 10:53:56
Wikipedia schreibt 320, ich kannte das Geruecht auch nicht?Bei B3D wurden damals ausführlich Dieshots der Wii U (es gibt ganz gute) mit denen von Llano und Bobcat verglichen. Die Schlußfolgerung waren meiner Erinnerung nach 160SPs. In Anbetracht des anderen Prozesses (ein auf eDRAM optimierter 40nm Prozeß von Renesas im Gegensatz z.B. zu TSMCs 40nm Logikprozeß bei Bobcat) wäre es sehr überraschend, wenn die Packdichte mal locker 40-50% höher geworden wäre trotz der vermutlich zusätzlich enthaltenen Kompatibilitätsfeatures. Das geht eher in die andere Richtung (TSMC höhere Dichte) und somit kommen nur 160SPs raus. Die etwas modernere Architektur und die 32MB eDRAM (die X1 hat auch nicht mehr eSRAM :rolleyes:) helfen der Performance im Vergleich zur X360 halbwegs.

DinosaurusRex
2016-12-20, 14:37:41
In fünf Jahren ist Nintendo nur noch ein Apple 1st-party Studio. Oder Hersteller für McDonalds Happy Meal Spielzeug.

Gebrechlichkeit
2016-12-20, 16:53:27
Hat Nintendo den Zug verpasst? Wer von den "freshen" Kiddies kennt Samus? ueberhaupt noch oder Link bzw. Zelda. Der Vorteil von Sony ist genau das fehlen eines Maskoettchens bzw. die Assoziation dessen. Sony zieht ihr Ding durch und entweder mag man die oder nicht. Keiner kauft sich eine PS Console wegen Bushido Blade oder Parappa :tongue:

Wenn die kleinen von heute und die 15j. keine Lust auf ein Mario/Zelda/Metroid (danke PC+F2P) haben, noch sich damit auskennen ... hat Nintendo auf Dauer ein weit aus groesseres Problem (Image Brand Recognition). Nintendo ist zwar nicht Sega, die hatten einfach keine Kohle mehr .. aber wie lange kann sich Nintendo das noch leisten? Wir haben wahrscheinlich mit 50 keine Lust mehr auf das x-igste Mario mehr, wenn die neue Gen. keine "Empathie" fuer Nintendo/IPs hat, wozu sich eine Nintendo "Console" kaufen?

Und sorry, aber 300mhz im Portable Mode (das Teil ist groesser als die Vita! Keiner nimmt die einfach so mit, die Vita war ja (fuer mich) zu klobig) sind einfach too low, X1? mit 256 Core at 300mhz, ob hier Spiele nicht gar unter 720p fallen werden? Wie schon gesagt, hat Nvidia Nintendo das "alte Shield" aufschwatzen lassen/koennen ... Nintendo ist darauf reingefallen und jetzt hat man den Salat.

Das alte Shield hat in der 16Gb Variante $199 gekostet und mit 500GB? $299.... wehe das Teil kostet mehr als €199!

je7-Ot4zyf0

Schnoesel
2016-12-20, 17:39:21
Zumal ja das neue Nvidia Shield wahrscheinlich Pascal bekommt:

https://www.computerbase.de/2016-12/nvidia-shield-2-neue-konsole-ces/

Also imo hat man sich übern Tisch ziehen lassen.

DinosaurusRex
2016-12-20, 17:55:49
Was soll das neue Shield bezwecken? Der Vorgänger war ein Riesenflop. Die fahren der eigenen Kundschaft völlig grundlos in die Parade. Ich wette bei Nintendo kochen sie vor Wut. Nvidia verarscht alles und jeden. Mit denen macht doch kein Schwein mehr Geschäfte.

Rancor
2016-12-20, 17:58:35
Könnte mir auch durchaus vorstellen das Nvidia Nintendo echt abgezogen hat. Nintendo scheint einfach keine Ahnung von Hardware zu haben. Das ist wirklich kurios.

xyleph
2016-12-20, 18:10:06
Hat Nintendo den Zug verpasst? Wer von den "freshen" Kiddies kennt Samus? ueberhaupt noch oder Link bzw. Zelda. Der Vorteil von Sony ist genau das fehlen eines Maskoettchens bzw. die Assoziation dessen. Sony zieht ihr Ding durch und entweder mag man die oder nicht. Keiner kauft sich eine PS Console wegen Bushido Blade oder Parappa :tongue:

Wenn die kleinen von heute und die 15j. keine Lust auf ein Mario/Zelda/Metroid (danke PC+F2P) haben, noch sich damit auskennen ... hat Nintendo auf Dauer ein weit aus groesseres Problem (Image Brand Recognition). Nintendo ist zwar nicht Sega, die hatten einfach keine Kohle mehr .. aber wie lange kann sich Nintendo das noch leisten? Wir haben wahrscheinlich mit 50 keine Lust mehr auf das x-igste Mario mehr, wenn die neue Gen. keine "Empathie" fuer Nintendo/IPs hat, wozu sich eine Nintendo "Console" kaufen?

Und sorry, aber 300mhz im Portable Mode (das Teil ist groesser als die Vita! Keiner nimmt die einfach so mit, die Vita war ja (fuer mich) zu klobig) sind einfach too low, X1? mit 256 Core at 300mhz, ob hier Spiele nicht gar unter 720p fallen werden? Wie schon gesagt, hat Nvidia Nintendo das "alte Shield" aufschwatzen lassen/koennen ... Nintendo ist darauf reingefallen und jetzt hat man den Salat.

Das alte Shield hat in der 16Gb Variante $199 gekostet und mit 500GB? $299.... wehe das Teil kostet mehr als €199!

http://youtu.be/je7-Ot4zyf0

Kann man ja nur hoffen, dass einige Titel da wirklich nur schlchte Ports sind und nicht dass Doom 3 eine besondere Ausnahme eines speziellen Falles ist. Resi 5 und MG Rising performen auf Shield TV ja auch schlechter als auf PS360.
Wenn man bedenkt, dass Shield TV nach bisherigen Erkentnissen einiges mehr an GPU und CPU Saft hat, würde Switch im mobilen Modus sonst gar gegen PS360 abkacken :freak:

fizzo
2016-12-20, 18:17:34
Könnte mir auch durchaus vorstellen das Nvidia Nintendo echt abgezogen hat. Nintendo scheint einfach keine Ahnung von Hardware zu haben. Das ist wirklich kurios.

Du kennst das Anforderungsprofil von Nintendo bzgl. des SoC`s? Wie wurde Dieser adaptiert? Mit welchen Kosten budgetiert wurde? Leistung alleine ist für einen solchen Deal nur einer von vielen Faktoren. Bein Nintendo erfahrungsgemäß nicht primär. Für eine Abschließende Beurteilung ist es IMHO noch zu früh!

iuno
2016-12-20, 18:17:54
Vielleicht hat Nvidia den alten Krempel an Nintendo verschenkt und darf dafuer auch switch games auf ihrem shield laufen lassen :ulol:

Gilt es denn als sicher, dass Switch 1:1 den Tegra X1 vom alten Shield bekommt?

Blediator16
2016-12-20, 18:37:44
Vielleicht hat Nvidia den alten Krempel an Nintendo verschenkt und darf dafuer auch switch games auf ihrem shield laufen lassen :ulol:

Gilt es denn als sicher, dass Switch 1:1 den Tegra X1 vom alten Shield bekommt?
Sie hätten dann erheblich mehr Kohle machen können, wenn sie für alle Plattformen ihre Spiele machen und das HW Geschäft ganz sein lassen.

fizzo
2016-12-20, 18:40:45
Vielleicht hat Nvidia den alten Krempel an Nintendo verschenkt und darf dafuer auch switch games auf ihrem shield laufen lassen :ulol:

Gilt es denn als sicher, dass Switch 1:1 den Tegra X1 vom alten Shield bekommt?

nein

Der Switch SoC ist afaik ein custom SoC den NV hauptsaechlich fuer bzw. mit Nintendo entwickelt hat, zusammen mit einem custom low level API fuer Switch.

iuno
2016-12-20, 18:41:45
Nicht wenn Nvidia den Krempel finanziert ;p
Ist die Sache mit GRID-Anbindung eigentlich inzwischen vom Tisch oder noch denkbar?

xyleph
2016-12-20, 19:05:22
Nicht wenn Nvidia den Krempel finanziert ;p
Ist die Sache mit GRID-Anbindung eigentlich inzwischen vom Tisch oder noch denkbar?

Ich sehe dafür überhaupt gar keine Chance.

Botcruscher
2016-12-20, 20:19:28
Könnte mir auch durchaus vorstellen das Nvidia Nintendo echt abgezogen hat. Nintendo scheint einfach keine Ahnung von Hardware zu haben. Das ist wirklich kurios.

Nintendo fährt exakt auf der eigenen Strategie. Die Billighardware ist kein plötzlicher Unfall. Im Gegensatz zu NV hat Nintendo ein Softwareangebot. Die eigentlich Frage ist ob die angepeilte Zielgruppe erstens existiert und zweitens neben dem Handy noch ein Gerät mitschleppt.

Eigentlich wäre in einem Spieleforum mal eine Umfrage dazu angebracht. Switch wie Shield 2 werden imo grandios scheitern. Beide Produkte besitzen keinen vernünftigen Einsatzzweck. Zwischen SPhone und stationärer Anlage existiert einfach nichts.

4Fighting
2016-12-20, 20:39:17
Eigentlich wäre in einem Spieleforum mal eine Umfrage dazu angebracht. Switch wie Shield 2 werden imo grandios scheitern.

Nunja, beim Shield 2 sehe ich schon einen Einsatzzweck als Convenience-Wohnzimmer Gerät für Streaming, Youtube und Retrospieler (Emulatoren ahoi):)

Beim Switch hast Du ja noch ein portables Gerät im Vergleich zum Shield 2 und gerade das braucht imo heutzutage kein Mensch mehr bei der Masse an Spielen sowie portablen Endgeräten für unterwegs - außerdem wer klappt in der Straßenbahn/U-Bahn/S-Bahn den Bildschirm aus und zockt dann:freak:?

Screemer
2016-12-20, 21:00:21
wer klappt was wo aus? bei der switch? das ist n tablet mit andockbaren kontrolern. was willst du da klappen?

€dit: ach du meinst den stand. warum sollte man den nutzen, wenn man den controller einfach an den bildschirm docken kann. der stand ist vielleicht mal was für den flieger oder ne längere bahnfahrt.

Lurtz
2016-12-20, 22:37:55
Nintendo operiert sowieso in einem eigenen Paralleluniversum. Man schaue sich z.B. den 3DS XL an. Nach den Maßstäben hier im Forum ist das Ding absoluter Schrott, aber die Leute kaufen ihn trotzdem. Die Spiele stimmen, das Spielgefühl auch. Das Ding spricht die Leute sehr stark auf einer emotionalen Ebene an, noch viel stärker als stationäre Konsolen. Einen Handheld kann man immer bei sich führen. Die Spiele sind auf Cartridges gespeichert, die man physisch austauschen muss. Das ist mühsehlig, birgt aber auch eine gewisse Nostalgie. Zusätzlich werden mobile Geräte seit dem ersten iPhone stark fetischisiert. Davon profitiert auch Nintendo.
Die Frage ist, wie weit man das nochmal wiederholen kann. Letztendlich war der 3DS nochmal sehr erfolgreich, lief zum Start aber wirklich mies, da war schon eine gewisse Ermüdung festzustellen.
Nintendo musste da großen Softwareaufwand betreiben.

Ob das bei der Switch mit ihrem Hybridkonzept nochmal funktioniert, halte ich nicht für sicher.

DinosaurusRex
2016-12-21, 09:42:42
Ob das bei der Switch mit ihrem Hybridkonzept nochmal funktioniert, halte ich nicht für sicher.

Das Hybridkonzept halte ich für absolut richtig und es wird auch nicht lange dauern, dann werden high-end Smartphones ebenfalls auf diesen Zug aufspringen.

Ich sehe eher das Problem, dass Nintendo einfach wieder minderwertige Hardware verbaut. Man muss sich vor Augen halten, dass die meisten Mobile-Geräte iPhones sind. Mittlerweile läuft jedes Kind mit sowas rum. Und die iPhones vermitteln nunmal eine hohe Wertigkeit. Sie sehen toll aus, taugen als Lifestyle Accessoire, haben fantastische Displays und richtig schnelle Prozessoren. Dagegen wirken die Geräte von Nintendo wie VTech Baby Computer.

Ich finde die Konkurrenz im mobilen Bereich ist mittlerweile viel zu krass, zu hochwertig und leistungsfähig, als das man mit dieser Billigheimer-Plastikbomber-Taktik irgendeinen Blumentopf gewinnen kann.

Ich würde mir von Nintendo ein Switch mit der Qualität und Wertigkeit eines iPhones wünschen, aber dann halt zu einem wesentlich günstigerem Preis. Und wenn man sich die Gewinnspanne von Apple vor Augen hält, sollte das durchaus drin sein.

fizzo
2016-12-21, 10:55:31
@ DinosaurusRex

IMHO spiegelt deine selektive Wahrnehmung nicht die Realtität wieder. Man muss sich vor Augen halten, dass die meisten Mobile-Geräte iPhones sind. Mittlerweile läuft jedes Kind mit sowas rum. :ugly:

Die Switch ist auch nicht als Handheld konzipiert, sondern als Hybrid. SPhons sind für ernsthaftes Gameing schlicht weg nicht geeignet. Sprichwort Thermal Throttling (https://www.mobiledroid.co.uk/blog/thermal-throttling-which-socs-are-worst/), Akkulaufzeit und natürlich ganz zu Schweigen von den Steuerungsmöglichkeiten. Bitte nicht Äpfel mit Brinen vergleichen.

Kartenlehrling
2016-12-21, 11:29:06
Es gibt ja das Video wo am Ende die "Frau" ihre Switch nach draussen nimmt, (https://cnet3.cbsistatic.com/img/YzCvT19ngZuCycBR6rzvNYAtxIY=/1600x900/2016/10/20/ec5f1176-83b7-4821-8ca2-e1a49273aa66/screen-shot-2016-10-20-at-10-07-34-am.png)
da sind mit Trinkbecher gute Verhältnisse zu sehen, die Switch ist für die Hosentasche oder Jacke zu grosse.

Keiner nimmt dieses Monster mal soo mit.

Ailuros
2016-12-21, 12:02:10
Ok. Ich hab mich auf diese Quelle verlassen.

http://kyokojap.myweb.hinet.net/gpu_gflops/

Wenn die GPU Frequenz je auf 400MHz gewesen waere sicher. Die eigentliche Frequenz ist bei maximal 200MHz und nicht mehr und der link ist alles anderes als eine "Quelle" sondern eine Sammlung von spekulativen Daten (hauptsaechlich von wikipedia abgeschreiben) sonst haette der Author auch eine Frequenz bzw. GFLOPs fuer die A10 GPU als Beispiel. Du darfst Wetten eingehen dass die Frequenz bei der Vita GPU mit Sicherheit auf 200MHz liegt

Mancko
2016-12-21, 12:44:37
Könnte mir auch durchaus vorstellen das Nvidia Nintendo echt abgezogen hat. Nintendo scheint einfach keine Ahnung von Hardware zu haben. Das ist wirklich kurios.

Ich würde eher sagen, dass Pascal Tegra für Ninentdo zu spät gekommen ist. Anders als bei Shield braucht Nintendo große Mengen und das rechtzeitig im Vorfeld samt Kits für die Entwickler. Vielleicht haben sie ja Tegra X1 auf 14nm Samsung gebraucht von 28nm. Das wäre ja auch schon eine Steigerung die aber vermutlich fast 1:1 in niedrigere Leistungsaufnahme mündet.
Nicht vergessen, dass Switch ein anderer Use Case ist als Shield. Shield muss nicht mitgenommen werden kann und aktiv mit Lüfter gekühlt werden.

Ailuros
2016-12-21, 16:44:38
Ich würde eher sagen, dass Pascal Tegra für Ninentdo zu spät gekommen ist.

Kann man durchaus so stehen lassen. Konsolen-hw sieht stets relativ veraltet aus im Vergleich zu dem was sonst (beim launch der jeweiligen Konsole) in anderen Maerkten erhaeltlich ist, eben weil solche Abmachungen/Vertraege Jahre vor dem launch des Geraets abgeschlossen werden.


Anders als bei Shield braucht Nintendo große Mengen und das rechtzeitig im Vorfeld samt Kits für die Entwickler. Vielleicht haben sie ja Tegra X1 auf 14nm Samsung gebraucht von 28nm. Das wäre ja auch schon eine Steigerung die aber vermutlich fast 1:1 in niedrigere Leistungsaufnahme mündet.
Nicht vergessen, dass Switch ein anderer Use Case ist als Shield. Shield muss nicht mitgenommen werden kann und aktiv mit Lüfter gekühlt werden.

X1 wird auf 20SoC TSMC hergestellt und nicht 28nm. Womoeglich ein Tippfehler, macht aber im Grund keinen fundamentalen Unterschied da der Stromverbrauch nicht sehenswert besser ist zwischen 28 und 20SoC TSMC. Wir halten es ja lediglich nur am wahrscheinlichsten dass der Switch SoC womoeglich unter 20SoC hergestellt wird, wissen tut es noch keiner. Falls dem aber so ist, dann war es eine klare Kosten-relative design-Entscheidung seitens Nintendo, denn 16FF+ waere auch um ein paar Mal teurer gewesen mit allen Herstellungs- bzw Tools und co. Kosten.

Ich kann auch wirklich nicht "jegliche" Enttaeschung bezueglich der Switch hw verstehen. Im Vergleich zu Nintendo's vorigem handheld ist Switch genau um vieviel schneller? Wenn ich nur GFLOPs auf Papier lege sind es irgendwo 70x Mal mehr fuer die GPU alleine im Vergleich zum 3DS und wenn man auch noch die zusaetzliche 2*FP16 Faehigkeiten dazurechnet um einiges mehr. Irgendwo wird das Publikum wohl einsehen muessen dass jeglicher Hersteller und ueberhaupt NINTENDO eine sehr spezifische Vorstellung von spezifischen Konstanten fuer ihre hardware hat.

Der Erfolg oder Misserfolg von Switch haengt auch nicht wirklich (nur) von der hw selber ab. Bei einem (unerwuenschten) Misserfolg heisst es einfach dass weniger Bock fuer handhelds haben und sich stattdessen auf einem smartphone oder tablet fuer mobile Spielchen begnuegen.

Kartenlehrling
2016-12-21, 17:35:21
...die zusaetzliche 2*FP16 Faehigkeiten dazurechnet um einiges mehr.

Und wie rechnend sich das in einem Spiel aus, gibts da schon zb. vergleichsdemos?

DinosaurusRex
2016-12-21, 17:41:26
Das Nintendo traditionsgemäß ein Haufen voller Geizkragen ist, steht außer Zweifel.

Was ich allerdings bemerkenswert finde ist, dass Nvidia genau dann, als ein negatives Gerücht über die Leistungsfähigkeit der Switch an die Oberfläche sickert, ein eigenes Gerät vorstellt, das zum einen in Konkurrenz zum Gerät des Kunden steht und darüber hinaus auch noch ein schlechtes Licht auf die Designentscheidung dieses Kunden wirft.

Mir kann niemand erzählen, dass das purer Zufall ist. Tatsächlich erinnert es an die Geschichte mit dem RSX und der anschließenden Präsentation der GF8000er Chips.

00-Schneider
2016-12-21, 17:42:12
Wenn ich nur GFLOPs auf Papier lege sind es irgendwo 70x Mal mehr fuer die GPU alleine im Vergleich zum 3DS und wenn man auch noch die zusaetzliche 2*FP16 Faehigkeiten dazurechnet um einiges mehr.


Nur sagt Nintendo selber, dass Switch in erster Linie eine Heimkonsole ist, also muss man sie eher mit der WiiU vergleichen. Und da ist der Leistungssprung enttäuschend.

Ailuros
2016-12-21, 17:44:16
Und wie rechnend sich das in einem Spiel aus, gibts da schon zb. vergleichsdemos?

Haengt streng von den developers ab und wie gut sie fuer FP16 OPs optimieren. Wenn ja koennte so manches an zusaetzlicher Effizienz herauskommen, jetzt mal wild geschaetzt im Idealfall +50% und selbst das klingt verdammt grosszuegig.

Das Nintendo traditionsgemäß ein Haufen voller Geizkragen ist, steht außer Zweifel.

Was ich allerdings bemerkenswert finde ist, dass Nvidia genau dann, als ein negatives Gerücht über die Leistungsfähigkeit der Switch an die Oberfläche sickert, ein eigenes Gerät vorstellt, das zum einen in Konkurrenz zum Gerät des Kunden steht und darüber hinaus auch noch ein schlechtes Licht auf die Designentscheidung dieses Kunden wirft.

Welches Geraet hat NVIDIA genau vorgestellt dass mit dem Switch konkurrieren soll? Falls Du Shield Android TV meinen solltest, ist es eine set top box@steroids die im Mai 2015 veroeffentlicht wurde.

Mir kann niemand erzählen, dass das purer Zufall ist. Tatsächlich erinnert es an die Geschichte mit dem RSX und der anschließenden Präsentation der GF8000er Chips.

Welche Geschichte genau mit RSX? Kann es rein zufaellig sein dass als SONY den Vertrag mit NVIDIA abgeschlossen hatte NV nichtmal in der Naehe eines tape outs eines jeglichen G80 lag?

RSX wurde zuerst in 2005 erwaehnt https://en.wikipedia.org/wiki/RSX_'Reality_Synthesizer' wobei der chip eine Mischung aus G70 & NV47 war und seit 2002 unter Entwicklung lag. Der erste G80 chip kam mit der GTX8800 im November 2006 an und war 4 Jahre davor im besten Fall nur ein Kreide-tafel Design in 2002.

Beim launch des Swift wird es sehenswert schnellere smartphone SoCs zum kaufen geben und dieses ist auch keine besondere Ueberraschung. Auch ATI's eigener desktop R580 chip war um einiges leistungsfaehiger als die XBox360 GPU.

Nur sagt Nintendo selber, dass Switch in erster Linie eine Heimkonsole ist, also muss man sie eher mit der WiiU vergleichen. Und da ist der Leistungssprung enttäuschend.

Von mir aus koennen die Trottel in jeglichem Marketing-Department das Ding sogar als Kuechenmaschine vermarkten. Ein Geraet dass im mobilen small form factor ohne aktiven Luefter operiert gehoert in die ULP SoC Kategorie und hat ueberhaupt nichts mit den grossen Konsolen zu tun. Was fuer eine Batterie-Groesse wuerde ich genau brauchen um eine WiiU heute theoretisch ohne Stromstecker zu benutzten und wie viele Minuten wuerde das Ding bei welcher lahmarschigen Leistung genau aushalten? Denn wenn man eine WiiU hypothetisch auf nur 5-10W maximal begrenzen wuerde, wuerde es wohl auch nicht mehr so toll am Ende aussehen. Ich fress einen Schokoladen-besen wenn die WiiU GPU mehr als 50 GFLOPs schaffen wuerde bei maximalem 5W Verbrauch.

=Floi=
2016-12-22, 02:28:34
Und da ist der Leistungssprung enttäuschend.

bisher gibt es noch keine fakten, wie schnell der chip wirklich sein wird. auf dem einen bild sieht man auch einen schlitz für den lüfter.

Ailuros
2016-12-22, 07:07:54
bisher gibt es noch keine fakten, wie schnell der chip wirklich sein wird. auf dem einen bild sieht man auch einen schlitz für den lüfter.

Bei 768MHz (im Dock) ungefaehr 77% der Shield Android TV Leistung und die letzte ist schon seit langem bekannt. Mit low level API und diversen Optimierungen laesst sich schon noch etwas herausholen, aber die Spezifikationen liegen genau dort wo heute ein jeglicher ULP SoC auf Batterie fuer laengere Zeit aushalten wuerde. Beim Pixel C laeuft die GPU bei maximal 850MHz. Wenn man das Ding durch die 30 loops von Manhattan 3.1 jagt, dann ist die durchschnittliche Leistung schnell um 50% geringer welches einer maximalen Frequenz von 425 entsprechen wuerde: https://gfxbench.com/device.jsp?benchmark=gfx40&os=Android&api=gl&cpu-arch=ARM&hwtype=GPU&hwname=NVIDIA(R)%20Tegra(R)%20X1&did=28156617&D=Google%20Pixel%20C

Die X1 ist alles anderes als ein Unbekannter. Natuerlich taktet die GPU im Switch in allen Situationen nur bei 1+GHz, waehrend es im Pixel C bei 1.9GHz taktet. So lange aber die Switch Spiele rein GPU bound sein werden, duerfte es auch kein Problem sein.

Sonst eine gute Lektuere zum Thema "enttaeuschende Specs": http://venturebeat.com/2016/12/14/nintendo-switch-specs-less-powerful-than-playstation-4/

][immy
2016-12-22, 07:25:40
Haengt streng von den developers ab und wie gut sie fuer FP16 OPs optimieren. Wenn ja koennte so manches an zusaetzlicher Effizienz herauskommen, jetzt mal wild geschaetzt im Idealfall +50% und selbst das klingt verdammt grosszuegig.



Welches Geraet hat NVIDIA genau vorgestellt dass mit dem Switch konkurrieren soll? Falls Du Shield Android TV meinen solltest, ist es eine set top box@steroids die im Mai 2015 veroeffentlicht wurde.



Welche Geschichte genau mit RSX? Kann es rein zufaellig sein dass als SONY den Vertrag mit NVIDIA abgeschlossen hatte NV nichtmal in der Naehe eines tape outs eines jeglichen G80 lag?

RSX wurde zuerst in 2005 erwaehnt https://en.wikipedia.org/wiki/RSX_'Reality_Synthesizer' wobei der chip eine Mischung aus G70 & NV47 war und seit 2002 unter Entwicklung lag. Der erste G80 chip kam mit der GTX8800 im November 2006 an und war 4 Jahre davor im besten Fall nur ein Kreide-tafel Design in 2002.

Beim launch des Swift wird es sehenswert schnellere smartphone SoCs zum kaufen geben und dieses ist auch keine besondere Ueberraschung. Auch ATI's eigener desktop R580 chip war um einiges leistungsfaehiger als die XBox360 GPU.



Von mir aus koennen die Trottel in jeglichem Marketing-Department das Ding sogar als Kuechenmaschine vermarkten. Ein Geraet dass im mobilen small form factor ohne aktiven Luefter operiert gehoert in die ULP SoC Kategorie und hat ueberhaupt nichts mit den grossen Konsolen zu tun. Was fuer eine Batterie-Groesse wuerde ich genau brauchen um eine WiiU heute theoretisch ohne Stromstecker zu benutzten und wie viele Minuten wuerde das Ding bei welcher lahmarschigen Leistung genau aushalten? Denn wenn man eine WiiU hypothetisch auf nur 5-10W maximal begrenzen wuerde, wuerde es wohl auch nicht mehr so toll am Ende aussehen. Ich fress einen Schokoladen-besen wenn die WiiU GPU mehr als 50 GFLOPs schaffen wuerde bei maximalem 5W Verbrauch.
Nun, die wiiu wurde soweit ich weiß auch nie einem shrink unterzogen. Da konnte durchaus noch einiges gehen. Aber ein wunderwerk war sie halt nie, aber mit aktueller technik sollte man sie durchaus auf 10w runter bekommen können.

Ailuros
2016-12-22, 07:41:16
[immy;11243995']Nun, die wiiu wurde soweit ich weiß auch nie einem shrink unterzogen. Da konnte durchaus noch einiges gehen. Aber ein wunderwerk war sie halt nie, aber mit aktueller technik sollte man sie durchaus auf 10w runter bekommen können.

Mich wuerde es wundern wenn es ueberhaupt einen Konsolen SoC giebt der keinen shrink erhaelt. Dass heisst aber wiederrum auch nicht dass sich die Spezifikationen aendern, welches auch wiederrum heisst dass man eher in die area bzw. Herstellungskosten gewinnt.

Wenn ein sturer shrink ploetzlich fast um 4x Mal den Stromverbrauch reduzieren wuerde, waeren GPU Hersteller ziemlich bloed wenn sie ihren low end Kaese nicht fuer einige Zeit durch shrinks ziehen wuerden. Und Nintendo waere noch bloeder gewesen wenn die WiiU SoC so weit runtergehen wuerde mit einem shrink es nicht gleich wieder zu benutzen und Unsummen in Kosten zu sparen.

starfish
2016-12-22, 08:24:46
Mich wuerde es wundern wenn es ueberhaupt einen Konsolen SoC giebt der keinen shrink erhaelt. Dass heisst aber wiederrum auch nicht dass sich die Spezifikationen aendern, welches auch wiederrum heisst dass man eher in die area bzw. Herstellungskosten gewinnt.

Wenn ein sturer shrink ploetzlich fast um 4x Mal den Stromverbrauch reduzieren wuerde, waeren GPU Hersteller ziemlich bloed wenn sie ihren low end Kaese nicht fuer einige Zeit durch shrinks ziehen wuerden. Und Nintendo waere noch bloeder gewesen wenn die WiiU SoC so weit runtergehen wuerde mit einem shrink es nicht gleich wieder zu benutzen und Unsummen in Kosten zu sparen.

Die Entscheidung für Nvidia scheint auch mit der deutlichen Vereinfachung der Entwicklertools durch das Einbeziehen von eben Nvidia einherzugehen.
Denn die scheinen bei der Wii-U ein Graus gewesen zu sein.

][immy
2016-12-22, 08:32:04
Mich wuerde es wundern wenn es ueberhaupt einen Konsolen SoC giebt der keinen shrink erhaelt. Dass heisst aber wiederrum auch nicht dass sich die Spezifikationen aendern, welches auch wiederrum heisst dass man eher in die area bzw. Herstellungskosten gewinnt.

Wenn ein sturer shrink ploetzlich fast um 4x Mal den Stromverbrauch reduzieren wuerde, waeren GPU Hersteller ziemlich bloed wenn sie ihren low end Kaese nicht fuer einige Zeit durch shrinks ziehen wuerden. Und Nintendo waere noch bloeder gewesen wenn die WiiU SoC so weit runtergehen wuerde mit einem shrink es nicht gleich wieder zu benutzen und Unsummen in Kosten zu sparen.
Die WiiU GPU wird immer noch im 45nm Verfahren gefertigt. Der Verbrauch der Konsolen beim Spielen liegt bei ~35W.
Hier könnte sehr wohl einiges eingespart werden durch aktuellere Produkte (Speicher, Soc, flash, ...). Das Problem dürfte aber eher sein, das eine neue Fertigung sich nicht sofort rentiert und der WiiU der Absatz für einen Shrink einfach fehlt. Besonders das 16nm Verfahren ist ja recht kostenintensiv. Auch das Laufwerk dürfte einiges an Leistung ziehen. Bei der xbox one kann das durchaus mal seine 15w ausmachen. Das würde ja bei einer mobilen Variante wegfallen. Flash-Karten sind da einiges energie-sparender.
Allerdings ist die WiiU zu einem Zeitpunkt gekommen zu der es schon das 28nm Verfahren problemlos gegeben hätte. Das Problem scheint einfach zu sein, das Nintendo zu lange braucht um etwas auf die Straße zu bringen. Könnte mir gut vorstellen, das die Hardware für die Switch von Nintendo schon seit 3 Jahren relativ fix ist ... zumindest verhalten sie sich immer so.

DinosaurusRex
2016-12-22, 11:32:55
Mich wuerde es wundern wenn es ueberhaupt einen Konsolen SoC giebt der keinen shrink erhaelt.

Tatsächlich gab es bei der PS3 immer wieder Gerüchte, dass Nvidia einen Shrink immer wieder verhindert hat, was Sony letztendlich noch mehr Geld gekostet hat.

Aber das sind wie gesagt nur Gerüchte gewesen und ob das stimmt kannst du sicher besser beurteilen als ich.

Mayhem
2016-12-22, 17:29:36
Solange die CPU Leistung passt (größtes Prob der Wii U), kann man Rendering skalieren (dynamische Auflösung, Checkerboard, FPS, Shaderquality, etc.). Glaube auch nicht, dass bei den Taktraten Pascal in 16nm viel effizienter als Maxwell in 20nm ist. Speziell wenn man bei den Verbräuchen die anderen Komponenten relativiert.

Ailuros
2016-12-22, 17:31:29
[immy;11244020']
Allerdings ist die WiiU zu einem Zeitpunkt gekommen zu der es schon das 28nm Verfahren problemlos gegeben hätte. Das Problem scheint einfach zu sein, das Nintendo zu lange braucht um etwas auf die Straße zu bringen. Könnte mir gut vorstellen, das die Hardware für die Switch von Nintendo schon seit 3 Jahren relativ fix ist ... zumindest verhalten sie sich immer so.

Es ist eben NICHT vendor spezifisch. Es wird KEINE Konsole in relativ kurzer Zeit entwickelt und es dauert in allen Faellen etliche Jahre vom ersten Kreidetafel-design bis ein Geraet (egal ob handheld oder Konsole) auf die Regale kommt. Die 3 Jahre sind eine logische Schaetzung nur wuerde jeglicher anderer Hersteller fuer solch ein Geraet auch nicht weniger Zeit brauchen.

Tatsächlich gab es bei der PS3 immer wieder Gerüchte, dass Nvidia einen Shrink immer wieder verhindert hat, was Sony letztendlich noch mehr Geld gekostet hat.

Aber das sind wie gesagt nur Gerüchte gewesen und ob das stimmt kannst du sicher besser beurteilen als ich.

Nicht wirklich. Was aber stimmt an Geruechten ist dass Sony anfangs fuer die PS3 einfach nichts von ATI haben wollte weil sie schon mit M$ im Bett lagen. NV hat dieses auch grandios ausgenutzt und kassierte konstant leicht hoehere royalties als ATI fuer die C1 GPU IP, obwohl die letztere natuerlich ein um einiges balanciertere Loesung war. Das damalige Gefluester sprach von $4 vs. $5.

Troyan
2016-12-22, 17:37:19
Solange die CPU Leistung passt (größtes Prob der Wii U), kann man Rendering skalieren (dynamische Auflösung, Checkerboard, FPS, Shaderquality, etc.). Glaube auch nicht, dass bei den Taktraten Pascal in 16nm viel effizienter als Maxwell in 20nm ist. Speziell wenn man bei den Verbräuchen die anderen Komponenten relativiert.

Doch, das ist Pascal. Pascal lässt sich fast 50% höher takten durch 16nm und Architekturanpassungen. Bei selber Taktung zu Maxwell ist Pascal deutlich effizienter.

Ailuros
2016-12-22, 17:41:40
Doch, das ist Pascal. Pascal lässt sich fast 50% höher takten durch 16nm und Architekturanpassungen. Bei selber Taktung zu Maxwell ist Pascal deutlich effizienter.

Wie gross in Prozenten ist denn bei Dir genau "deutlich"?

Mayhem
2016-12-22, 17:59:16
Doch, das ist Pascal. Pascal lässt sich fast 50% höher takten durch 16nm und Architekturanpassungen. Bei selber Taktung zu Maxwell ist Pascal deutlich effizienter.

Mit "bei den Taktraten" meinte ich die 340Mhz im portable mode. Da wird Maxwell schon sehr sehr wenig verbauchen. Da bringt dann der Sprung durch Pascal nicht viel mehr in Relation mit den anderen Verbrauchern.

Troyan
2016-12-22, 18:02:34
Mit "bei den Taktraten" meinte ich die 340Mhz im portable mode. Da wird Maxwell schon sehr sehr wenig verbauchen. Da bringt dann der Sprung durch Pascal nicht viel mehr in Relation mit den anderen Verbrauchern.

Parker mit Pascal läuft auf 1500Mhz mit 10W. Erista (Tegra X1) läuft mit 1000Mhz und 10W.

Alleine die Taktreduzierung um 33% reduziert den Verbrauch der GPU um 33%. Kombiniere das mit einer geringeren Spannung und du erreichst wohl bis zu 50% Stromeinsparnis gegenüber Maxwell bei gleicher Taktung.

/edit: Du könntest also beim selben Verbrauch zu Maxwell ca. 50% Mehrleistung anbieten. Ich finde dies schon beachtlich und "viel".

Ailuros
2016-12-22, 18:23:23
Parker mit Pascal läuft auf 1500Mhz mit 10W. Erista (Tegra X1) läuft mit 1000Mhz und 10W.

Keine der beiden laeuft nur mit 10W ausserhalb Deiner Phantasie. Du darfst aber gerne eine offizielle technische Beschreibung von NV liefern die deses auch bestaetigt.

Mit "bei den Taktraten" meinte ich die 340Mhz im portable mode. Da wird Maxwell schon sehr sehr wenig verbauchen. Da bringt dann der Sprung durch Pascal nicht viel mehr in Relation mit den anderen Verbrauchern.

Um es auf eine logische Basis zu bringen: wenn Switch im mobile modus bei 307, 340 oder mehr MHz taktet ist es stets und einfach genau die Frequenz wo die GPU ausserhalb der Steckdose im Swift praktisch NIE throtteln wird.

Sunrise
2016-12-22, 18:34:43
Kann man durchaus so stehen lassen. Konsolen-hw sieht stets relativ veraltet aus im Vergleich zu dem was sonst (beim launch der jeweiligen Konsole) in anderen Maerkten erhaeltlich ist, eben weil solche Abmachungen/Vertraege Jahre vor dem launch des Geraets abgeschlossen..
Seitdem AMD IP und KnowHow zur Fertigung extern verkauft, gilt das eigentlich nichtmehr. Vega- und Polaris-IP und sogar spezielle Anpassungen, immer jeweils auf der neuesten Fertigungstechnologie. Das ist eher das Gegenteil. Nintendo hat aber andere Zielgruppen und andere Designziele im Sinn gehabt, da stand möglichst wenig Stromverbrauch im Vordergrund.

Die Konsolen von heute sind eigentlich nur noch ein Verbund aus IP, die sowieso schon in den Hauptprodukten zu finden ist, nur noch sehr wenig ist da custom.

Ailuros
2016-12-22, 18:41:37
Seitdem AMD IP und KnowHow zur Fertigung extern verkauft, gilt das eigentlich nichtmehr. Vega- und Polaris-IP und sogar spezielle Anpassungen, immer jeweils auf der neuesten Fertigungstechnologie. Das ist eher das Gegenteil. Nintendo hat aber andere Zielgruppen und andere Designziele im Sinn gehabt, da stand möglichst wenig Stromverbrauch im Vordergrund.

Die Konsolen von heute sind eigentlich nur noch ein Verbund aus IP, die sowieso schon in den Hauptprodukten zu finden ist, nur noch sehr wenig ist da custom.

AMD nennt sie semi custom aus gutem Grund. Stromverbrauch und SW Erfahrung fuer Switch sonst haetten sie auch jeglichen 0815 fernoestlichen Hersteller beauftragen koennen mit ARM oder sonst welches IP.

Mandalore
2016-12-22, 18:46:30
Ailuros spekulierst du auch, oder hast du Wissen, welches du nicht preisgeben kannst (vor allem in Bezug auf Pascal vs. Maxwell)?


Anyways, Mochizuki vom WSJ hat ein paar interessante Details (welcher glaubwürdig ist im Gegensatz zu den ganzen anderen Twitter-Pros...)


https://twitter.com/mochi_wsj


WQHD oder 1080p (als 1080p zu 720p)

Ailuros
2016-12-22, 18:58:57
Anyways, Mochizuki vom WSJ hat ein paar interessante Details (welcher glaubwürdig ist im Gegensatz zu den ganzen anderen Twitter-Pros...)


https://twitter.com/mochi_wsj


WQHD oder 1080p (als 1080p zu 720p)

Es wird noch fuer einige Zeit diverse Fetzen geben fuer Switch bis zum launch des Geraetes.

xyleph
2016-12-22, 19:14:06
Um es auf eine logische Basis zu bringen: wenn Switch im mobile modus bei 307, 340 oder mehr MHz taktet ist es stets und einfach genau die Frequenz wo die GPU ausserhalb der Steckdose im Swift praktisch NIE throtteln wird.

Wenn man sich mit CPU-Z mal die Temperaturentwicklung anschaut, sobald ein Smartphone für wenige Minuten nur ein wenig gefordert wird, klingen die veranschlagten Takte bei Switch für ein 6 Zoll Gerät auch mehr als verständlich.

Gestern mal mit einen Snapdragon 820 (Fertigung 14nm) Gerät ein wenig getestet. Im Normalzustand lagen die CPU Kerne bei ~ 300 MHz, GPU Takt liegt bei 214 MHz, wird aber keine Auslastung angezeigt.
Ein wenig am Gerät Rumspielen (Surfen, YT etc) für vielleicht zwei Minuten und die CPU ging auf ~700 MHz, aber die Temperaturentwickung gleich auf 40 - 50°C. Dabei war das Gerät noch nicht einmal gefordert und der Zeitraum war extrem kurz.

Ailuros
2016-12-22, 19:17:40
Wenn man sich mit CPU-Z mal die Temperaturentwicklung anschaut, sobald ein Smartphone für wenige Minuten nur ein wenig gefordert wird, klingen die veranschlagten Takte bei Switch für ein 6 Zoll Gerät auch mehr als verständlich.

Gestern mal mit einen Snapdragon 820 (Fertigung 14nm) Gerät ein wenig getestet. Im Normalzustand lagen die CPU Kerne bei ~ 300 MHz, GPU Takt liegt bei 214 MHz, wird aber keine Auslastung angezeigt.
Ein wenig am Gerät Rumspielen (Surfen, YT etc) für vielleicht zwei Minuten und die CPU ging auf ~700 MHz, aber die Temperaturentwickung gleich auf 40 - 50°C. Dabei war das Gerät noch nicht einmal gefordert und der Zeitraum war extrem kurz.

Damit ich mich nicht wiederhole: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11243991&postcount=396

Tablets sind uebrigens mit dem Verbrauch und DVFS um einiges grosszuegiger als smartphones.

Entropy
2016-12-22, 20:00:05
Gestern mal mit einen Snapdragon 820 (Fertigung 14nm) Gerät ein wenig getestet. Im Normalzustand lagen die CPU Kerne bei ~ 300 MHz, GPU Takt liegt bei 214 MHz, wird aber keine Auslastung angezeigt.
Ein wenig am Gerät Rumspielen (Surfen, YT etc) für vielleicht zwei Minuten und die CPU ging auf ~700 MHz, aber die Temperaturentwickung gleich auf 40 - 50°C. Dabei war das Gerät noch nicht einmal gefordert und der Zeitraum war extrem kurz.
Mein 810 (20nm) taktet auch im Idle auf einem Core 300MHz, 3 weiteren sind komplett angehalten. Bei Last geht der Takt auf bis zu 2.2GHz glaube ich. Wenn ich aber die CPU voll auslaste, z.B. Bitcoin mining, geht der Takt nach kurzer Zeit auf 1.2GHz runter (bei einem Thread/Core). Bei 2 oder 4 threads Pendelt die Frequenz um 1GHz und das Handy heizt die Schreibtischplatte auf.

Thermik bekommt Nintendo vermutlich hin, aber Akkulaufzeit war schon bei PSVita und PSP was limitierte, Nintendo wird dasselbe Problem haben. Verglichen mit NDS (Nearest-Filter, 6144 Poly-Limit) oder 3DS ist es dennoch endlich mal normale Hardware.

xyleph
2016-12-22, 20:16:53
Damit ich mich nicht wiederhole: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11243991&postcount=396

Tablets sind uebrigens mit dem Verbrauch und DVFS um einiges grosszuegiger als smartphones.

An den Post sollte meiner auch erst ursprünglich gehen. Und klar haben Tablets noch andere Möglichkeiten, mein Versuch galt aber nur wenigen Minuten, nicht Stunden, wie es ein Switch schaffen muss. Dabei ist ein 6 Zoll Switch halt auch kein 10 Zoll Pixel C.

Dass Switch im mobilen Modus in den Takten läuft wie es läuft, ist also nachvollziehbar. Was es jetzt noch mit dem customisation weiß ich nicht, stelle mir jetzt aber auch nichts weltbewegendes vor. Also nichts, dass es statt 256 CUDAs nun 384 od 512 werden, oder dass es nun ein vollwertiger Hexa- oder Octa-Core wird.
Aber N war immer ein großer Fan von eDRAM bei ihren mobilen Geräten, da ist vielleicht Platz wenn man einen A57/ A53 Cluster rausgeschmissen hat.

Blediator16
2016-12-22, 21:28:20
Ailuros spekulierst du auch, oder hast du Wissen, welches du nicht preisgeben kannst (vor allem in Bezug auf Pascal vs. Maxwell)?


Anyways, Mochizuki vom WSJ hat ein paar interessante Details (welcher glaubwürdig ist im Gegensatz zu den ganzen anderen Twitter-Pros...)


https://twitter.com/mochi_wsj


WQHD oder 1080p (als 1080p zu 720p)

Ace Yasuda: patent filings show Nintendo Switch's architecture good for open-world games. End!

Was :freak: Wären alle anderen Architekturen nicht so toll für open world Spiele?

xyleph
2016-12-22, 21:47:57
Joar, wenn man sich das neue Zelda anschaut, hätte man es da schon einsetzen sollen.

Foobar2001
2016-12-23, 00:06:29
Was :freak: Wären alle anderen Architekturen nicht so toll für open world Spiele?
Ist natuerliche hanebuechener Unsinn, vor allem in Anbetracht von angeblich 4GB RAM.

Das einzige was man sich vorstellen koennte ist weniger Latenz fuer Streaming von den Game-Cartridges.

=Floi=
2016-12-23, 17:50:05
ich frage mich aber dann auch, warum mein shield tablet überhaupt ein bild ausgibt, wenn es so viel strom braucht.

mir sind 8-10" für 2-3 std bei guter grafik lieber wie 10 std@ anno 2000


die hätten einfach zwei getrennte consolen bringen sollen. DS neu und bei der stationären konsole endlich mal richtig power.

pixeljetstream
2016-12-23, 18:34:49
ich glaube nicht dass die richtig power brauchen, so kann man die direkte konkurrenz mit sony/ms umgehen, die man meiner Meinung nach eh verlieren würde. Das IP an Spielen erlaubt es ihnen auch mit ihrer typischen Grafik nicht die Brecherhardware zu brauchen um ästhetisch zu überzeugen. Mario muss ja nicht in einer Unchartered ähnlichen Welt rummhüpfen, dafür gibts den Titel ja schon ;)

In der Hardware also relativ einfach/günstig zu bleiben ist denke ich kein Problem. Ob das Konzept in portabler Tabletgröße an sich aufgeht wird man sehen.

Foobar2001
2016-12-23, 18:49:15
4GB RAM waeren aber ein tragischer Fehler.

sulak
2016-12-23, 23:09:36
4GB, davon 3.2 nutzbar, reicht doch für ein Handheld. Die beiden dicken haben für alles auch nur 5.5GB zur Verfügung und Switch wird eine Detailstufe darunter im Docked-Mode fahren. Dazu frisst es auch etwas weniger Speicher auf den Cartridges und niemand kommt auf die Idee unkomprimierte Texturen reinzuklatschen.

Interessanter ist, wie viele Kerne hat der "Custom" und welcher Bauart. Die Hoffnung stirbt bekanntlich zuletzt, ein Quad A72/A73 wäre schon nice. KA wie Modular Tegra gebaut ist und ob die CPU einfach getauscht werden kann. Design kam schließlich Q1/Q2 2015 raus und erste Phones Ende 2015.
Vielleicht ist der Custom Anteil auch homöopatisch...

][immy
2016-12-23, 23:48:33
4GB, davon 3.2 nutzbar, reicht doch für ein Handheld. Die beiden dicken haben für alles auch nur 5.5GB zur Verfügung und Switch wird eine Detailstufe darunter im Docked-Mode fahren. Dazu frisst es auch etwas weniger Speicher auf den Cartridges und niemand kommt auf die Idee unkomprimierte Texturen reinzuklatschen.

Interessanter ist, wie viele Kerne hat der "Custom" und welcher Bauart. Die Hoffnung stirbt bekanntlich zuletzt, ein Quad A72/A73 wäre schon nice. KA wie Modular Tegra gebaut ist und ob die CPU einfach getauscht werden kann. Design kam schließlich Q1/Q2 2015 raus und erste Phones Ende 2015.
Vielleicht ist der Custom Anteil auch homöopatisch...
Die wiiu hat 1gb von 2 für spiele. Die ps4 und xb1 5gb und die ps4pro 5,5
Ich sehe da nicht das nintendo plötzlich mit nur 800mb auskommen sollte.

IC3M@N FX
2016-12-24, 00:29:09
Ich hoffe die Nintendo Switch hat mindestens 6GB GDDR5 RAM. Alles was drunter ist, ist meiner Meinung nicht mehr zeitgemäß Kompression hin oder her.....

Naitsabes
2016-12-24, 01:26:17
Gddr5 ist ausgeschlossen.
Lpddr3 oder Lpddr4 stehen zur Auswahl, denke ich (ohne mich über den MC von Tegra informiert zu haben).

Gefühlt sollten bei Maxwell 64bit Lpddr4 ausreichen. Vielleicht die Caches etwas vergrößern, 4*A53 und 2SMM dabei und fertig.

Korvaun
2016-12-24, 08:13:01
Tja, begeistert bin ich wirklich nicht von den Specs sollten sie denn stimmen. Stationär ist das eher eine WiiU 2.0 als eine XB1/PS4. Und das im Jahr 2017... brrr... ;)

Wenn ich die Switch als reine Mobilkonsole betrachte sehen die Specs schon besser aus, insbesondere da das ganze dann nur auch 6" gerendert wird. Da kann man schon extrem Rechenleistung sparen (auch AF/AA), feine Details insbesondere Richtung "Spielhorizont" kann man komplett weglassen (bzw. super agressives LOD machen), sieht eh keiner auf dem Briefmarkenscreen.

DinosaurusRex
2016-12-24, 13:03:55
Die PS Vita hatte hatte 2011 bereits ein SoC mit fünf übereinander gestapelten Dies, inklusive 512MB RAM und 128MB VRAM. Die Bandbreite betrug dabei 12,8Gb/s, was dem Vierfachen des damals handelsüblichen LPDDR2 RAM entsprochen hat.

Vielleicht lässt sich Nintendo in diese Richtung auch irgendwas cooles einfallen.

tobor
2016-12-24, 14:27:36
Etwas off topic: Wie viel wuerde es kosten, das Tablet telefoniefaehig zu machen? Hatte der K1 nicht Lte?

Naitsabes
2016-12-24, 14:29:35
Nur der 4i hatte eine Modem integriert.

DinosaurusRex
2016-12-25, 12:12:14
https://abload.de/img/newzoo_gaming_breakdogzsbz.png

Smartphones haben dieses Jahr mit Riesenschritten den PC eingeholt. Nächstes Jahr werden sie vermutlich die Heimkonsolen als umsatzstärkste Plattform ablösen.

Handhelds machen nur 2% des gesamten Markts aus. Soviel zum Thema "Smartphoness sind nicht zum Zocken geeignet und man muss die Switch Hardware im Handheld-Kontext bewerten".

Ich wette Switch wird Nintendo das Genick brechen.

Ravenhearth
2016-12-25, 13:21:06
Smartphones haben dieses Jahr mit Riesenschritten den PC eingeholt. Nächstes Jahr werden sie vermutlich die Heimkonsolen als umsatzstärkste Plattform ablösen.

Handhelds machen nur 2% des gesamten Markts aus. Soviel zum Thema "Smartphoness sind nicht zum Zocken geeignet und man muss die Switch Hardware im Handheld-Kontext bewerten".

Ich wette Switch wird Nintendo das Genick brechen.

Das ist doch größtenteils nur Mist mit In-App-Käufen und so ein Scheiß. Das würde ich nicht ernsthaft als "Zocken" bezeichnen. Und sowas kommt auch nicht für die Switch. Vor allem hat Kram wie Candy Crush jetzt auch nicht gerade die fordernste Grafik, da es auf möglichst vielen Geräten laufen muss. Grafisch anspruchsvolle Spiele lassen den Akku sehr schnell leer laufen, vom Throttling ganz zu schweigen. Die Switch muss bei 3D wesentlich länger durchhalten.

Troyan
2016-12-25, 14:06:06
Ich habe mir gerade im Google Play Riptide GP Renegade gekauft. Und beim Spielen habe ich erst realisiert, wie die Switch für solche Konzepte die perfekte Plattform ist. Grafisch vollkommen in Ordnung macht es einfach nur Spaß. Und mit der Switch - im Gegensatz zu PS4, Xbox One und PC - überall spielbar.

Gameplay auf Shield Tablet: https://www.youtube.com/watch?v=inuHdFMwpIQ

Das wichtigste für Nintendo ist, dass die Spiele unterhaltsam sind. Grafisch kann man ruhig 10 Jahre zurückliegen. Eine Vielzahl der heutigen Spielen ist gameplaymäßig ja auch dort stehen geblieben.

Gebrechlichkeit
2016-12-25, 14:49:15
Das wichtigste für Nintendo ist, dass die Spiele unterhaltsam sind. Grafisch kann man ruhig 10 Jahre zurückliegen. Eine Vielzahl der heutigen Spielen ist gameplaymäßig ja auch dort stehen geblieben. Bei der Grafik und Gameplay, duerfen Spiele dann aber auch bloss €5 kosten. Wir reden hier von €30 bis 60 Titel, das von dir verlinkte Video/Spiel ist davon weit entfernt (Inhaltlich, Gameplay, Spiellaenge). Warum eine neue Console ankuendigen, wenn man bereits eine im Jahre 2004? (Wii) schon hatte die besseres vorzuzeigen vermochte. Move forward, not backward (http://www.popularmechanics.com/science/a13218/why-does-time-move-forward-instead-of-backward-anyway-17463359/) ;)

http://i.imgur.com/qIVuLy6.png
https://en.wikipedia.org/wiki/Online_gaming_in_China

Handhelds
Nur 2bill. "gross", bei knapp 70?mill. 3DS und Vitas. Kauft den keiner von den 3DS/Vita Besitzer ueberhaupt noch irgendwelchec Spiele fuer ihr Handheld?! 2bill durch 70mill. Handhelds €30 pro Kopf (#cheapmath). War der Markt vor 5/10 Jahren groesser oder hat sich seit dem DS nicht grosses veraendert und der stagniert vor sich hin? Finde leider nichts zum Thema aus dem Jahr 2000 - 2006

http://www.phonearena.com/news/Nintendo-claims-the-iPhone-killed-the-handheld-game-console_id29533
http://www.geek.com/games/ati-gains-ground-in-handheld-3d-gaming-market-558436/

Troyan
2016-12-25, 15:15:59
Bei der Grafik und Gameplay, duerfen Spiele dann aber auch bloss €5 kosten. Wir reden hier von €30 bis 60 Titel, das von dir verlinkte Video/Spiel ist davon weit entfernt (Inhaltlich, Gameplay, Spiellaenge). Warum eine neue Console ankuendigen, wenn man bereits eine im Jahre 2004? (Wii) schon hatte die besseres vorzuzeigen vermochte. Move forward, not backward (http://www.popularmechanics.com/science/a13218/why-does-time-move-forward-instead-of-backward-anyway-17463359/) ;)

Das ist ein sinnloses Argument in einer Zeit, wo selbst neue(!) Konsolen veraltet sind und PC-Hardware im Vergleich spottbillig und trotzdem nicht die "Leadplatform" darstellt.

Dieses Spiel ist ein Beispiel. Es wird auf jeder Spieleplattform verkauft.
Der grafische Abstand zwischen PS4 und One ist deutlich geringer als bei AAA-Spielen. Das Argument also, die Grafik wäre viel besser, zählt daher kaum.

Am Ende ist wichtig, viel zeit man investiert hat. 5h für 9,99€ sind eben viel besser als 5h für 60€.

fondness
2016-12-25, 15:47:01
Man kann sich alles schön reden. Ich würde einiges darauf wetten, dass die Switch floppen wird. Den virtuellen Kecks zahle ich gerne, sollte ich mir irren. Vor allem warum sollte man solche Spiele nicht auch auf der PS4/Xbox spielen können? Ich hatte noch nie das Bedürfnis verspürt, meine Spielekonsole irgendwohin mitnehmen zu müssen. In dieser Beziehung kann man mit einem Smartphone ohnehin nicht konkurrieren.

tobor
2016-12-25, 16:30:35
[URL]

Smartphones haben dieses Jahr mit Riesenschritten den PC eingeholt. Nächstes Jahr werden sie vermutlich die Heimkonsolen als umsatzstärkste Plattform ablösen.

Handhelds machen nur 2% des gesamten Markts aus. Soviel zum Thema "Smartphoness sind nicht zum Zocken geeignet und man muss die Switch Hardware im Handheld-Kontext bewerten".


Fremiummuell wie Candy Crush kann man damit zocken oder rundenbasierte Spiele. Fuer alles weitere ist ein Tatschbildschirm nicht geeignet. Weswegen auch keinerlei hochwertige
Spiele fuer Smartphones kommen, die es mit Titeln fuer Konsolen und Handhelds aufnehmen koennen.

DinosaurusRex
2016-12-25, 17:45:50
Fuer alles weitere ist ein Tatschbildschirm nicht geeignet.

Bluetooth Controller -> Smartphone -> Dockingstation -> TV

Das ist die Zukunft des Gamings. Und darauf würde ich sogar richtig viel Geld wetten. Smartphones sind einfach das bessere Konzept. Es gibt nichts, das Smartphones aufhalten wird. In ein paar Jahren werden sie der kleinste gemeinsame Nenner für AAA Gaming sein. Und Smartphones werden Vulkan zum Durchbruch verhelfen.

robbitop
2016-12-25, 18:18:09
Smartphones für AAA-Games? Die Welt geht vor die Hunde.

DinosaurusRex
2016-12-25, 18:23:20
Die Smartphones werden dank Streaming selbstverständlich irgendwann leistungsfähiger sein als jeder ultra-high-end Gaming PC, der nicht auf Streaming zurück greift.

LTE hat jetzt schon so gute Pings wie VDSL. Da geht noch richtig was in den nächsten Jahren. In zwei Jahren kommt 5G mit angeblich fünfmal niedrigerer Latenz bei zehnfach niedrigerem Stromverbrauch. Idealerweise wird Mobilfunk die Festnetzanschlüsse komplett ablösen.

robbitop
2016-12-25, 18:29:42
Streaming für AAA Games? Die Welt geht vor die Hunde.

DinosaurusRex
2016-12-25, 18:37:47
Du hörst dich ja fast schon an wie Hallo ;)

Ich glaube Streaming wird das Zeitalter des asynchronen Multiplayers einläuten. Alle haben das prinzipiell gleiche Gerät, lediglich die Peripherie unterscheidet sich je nach Standort.

Stell dir mal vor du machst ein Warcraft 4. Die Zocker zuhause spielen es über die Dockingstation wie ein WoW und die Zocker unterwegs spielen es wie ein RTS. Natürlich alles zeitgleich online und auf dem selben Server. Das wäre doch fantastisch.

robbitop
2016-12-25, 18:44:12
Naja. Selbst im Heimnetzwerk (Steam Inhomestreaming NV Gamestream) fügt zusätzliche 58 ms für En-/Decoding hinzu. Dazu Komprimierubgsartefakte. Selbst bei Gigabit-LAN und h265 (Gamestream).
Selbst wenn die Rechenzentren perfekt verteilt sind, kommen locker 2x 25 ms Inputlag dazu (Input hinschicken, Bild zurück). Man kommt also Systembedingt nicht unter 100 ms zusätzlichem Inputlag.

Die meisten Spiele haben bereits durch die Engine bereits 50-60 ms Inputlag - CS Source liegt immerhin bei 25 ms.

Ich sehe da einfach kein Potenzial, welches diese Latenz signifikant senken könnte. Zumindest nicht mittelfristig.

Fürs Gamepad und Casualgaming sicher grenzwertig aber ggf noch ok - aber für "ernsthaftes Spielen"? In der Welt möchte ich nicht leben.

144 Hz GSync mit einer Gesamtlatzenz von 20-50 ms ist der Ist-Stand...

DinosaurusRex
2016-12-25, 18:47:32
Gibt genug schlaue Köpfe in der Branche und die bezahlst du dann, dass die dafür eine Lösung finden. Irgendwer hat immer eine Lösung. Ist alles nur eine Frage der Zeit.

Kartenlehrling
2016-12-25, 18:55:36
Das ist auch so ein Punkt den wir überhaupt noch nicht wissen, wie die Console zb. unterwegs ins internet geht,
kostenfrei Wlan Spots, monatliches Festpreis oder gar mit einem Mobilnetzchip.
Wenn sie nur mit Game-cartridge und den wenigen Freespots wo man sich vielleicht sogar ein Virus einfängt unterwegs ist, finde ich es nicht so prickelnd.

DinosaurusRex
2016-12-25, 18:56:19
Alleine mit besseren Monitoren lässt sich da richtig viel Latenz einsparen. Oder auch beim Controller. Zumal man ja gar nicht weiß, wie viel lokal in der gfx pipe draufgeht, das dann über Streaming einfach vielfach aufwendiger und schneller auf einem Server berechnet werden könnte.

Es gibt Menschen auf dieser Erde, die lösen wesentlich komplexere Probleme. Ich habe gelesen, dass demnächst die erste Kopftransplantation durchgeführt wird.

robbitop
2016-12-25, 18:57:20
Latenz zum Rechenzentrum ist durch pure Physik nicht schneller möglich. De/Encoding geht vieleicht noch was. Aber NV hat hier irre viel Know How reingesteckt für GRID. Der Fakt, dass mehrere Ansätze hier ähnliche Latenzen haben besagt, dass die low hanging fruits weg sind. Ab dem Punkt (Gesetz des sinkenden Grenzertrag) kostet jedes Prozent Verbesserung exponentiell mehr Aufwand.
Bandbreite bringt hier viel, weil man weniger Referenzframes nutzen kann. Aber hier ist man bei den 58ms im Gigabit LAN.

Ich sehe hier mittelfristig keine signifikante Verbesserung. Egal "ob kluge Leute dafür bezahlt werden". Das allein löst Probleme, die prinzipbedingte Engpässe aufweisen nicht. Ist für mich für eine Fachdiskussion jedenfalls kein Argument.

IMO ist streaming ähnlich wie VR. Viele glauben/glaubten, dass es die Zukunft ist. Bisher ist es ein Rohrkrepierer.

DinosaurusRex
2016-12-25, 19:04:05
Ich habe das in diesem Forum schonmal gesagt: Das Militär schaltet Mobilfunkfrequenzen für die Zivilbevölkerung erst dann frei, wenn sie selber einen zehnjährigen technologischen Vorsprung haben. Die Frequenzen gehen dann für viele Milliarden an private Unternehmen.

Du kannst (theoretisch) schon heute über LTE mit einem genau so niedrigen Ping Counterstrike spielen, wie es ein anderer mit seinem VDSL Festnetzanschluss tut. Das ist der Status Quo. Der nächste Schritt wird für große Augen sorgen.

Glaubt ihr die steuern milliardenteure Drohnen von der anderen Seite des Planeten mit Lag?

Nightspider
2016-12-25, 19:43:25
Zumindest gibt es da noch einiges an Potential bei Gaming über Funktechnik weil Funkwellen sich schneller ausbreiten als Licht in der Glasfaser.

Durch Gas gefüllte oder mit Vakuum versehene (Hohl-) Lichtwellenleiter ließe sich zumindest die Übertragungsgeschwindigkeit. (Latenz) um ein Drittel.

Und wer weiß wie weit die Quantenphysik in 10 Jahren ist. Da hieß es doch mal das sich mit Quantenzuständen Bits ohne Verzögerung von einem Punkt auf die andere Seite der Erde übertragen ließen.

robbitop
2016-12-25, 19:45:15
@Dino
VDSL ist schnell und deutlich schneller geht eben kaum noch wegen der Geschwindigkeit der Elektronen im elektrischen Leiter und der entsprechenden Verteiler. Und bereits das ist IMO immernoch zu langsam. Irgendwelche Spekulation mit dem Argument "schlaue Leute" und supertoller Militärtechnik ist zu schwammig für eine sinnvolle Diskussion. Gegen die Physik kann beides nichts ausrichten. Entfernung ist für laufzeitkritische Sachen immer schlecht.

edit: ok Funk wäre schneller. Hier ist jedoch Bandbreite sicher ein Engpass. Gerade latenzkritisches Videostreaming braucht viel Bandbreite. In Gegenden mit hoher Bevölkerungsdichte wird das sicher schnell zu einem Kapazitätsproblem. Zumal es sicher eine sehr teure Lösung für hohes Datenaufkommen ist.

Auch kommt ein Großteil der Latenz einfach aus den Verteilerknoten. Da hilft Funk auch nicht.


Gut genug für die Casuals wirds sicher. Aber für echte ernsthafte Spieler eher nicht.
Am Ende kann man da nur etwas gegen tun, wenn man das Netz der Rechenzentren in dem die Spiele laufen super engmaschig macht. Aber ob es dann noch finanziell interessant ist?

IMO ist es ein Rohrkrepierer.

DinosaurusRex
2016-12-25, 19:49:03
Gegen die Physik kann beides nichts ausrichten.

Die Unterhaltungselektronik hinkt dem know how der Physik um mehr als 100 Jahre hinterher.

Möglich ist vieles, aber erst wenn es Geld abwirft, wird es auch für den Massenmarkt umgesetzt.

Nightspider
2016-12-25, 19:51:01
Bei VDSL hast du aber auch nur auf den letzten Metern Kupfer. >90% des Weges sind doch fast immer Glasfaser, welches den Ping um 30% erhöht.

robbitop
2016-12-25, 19:54:00
@Dino
Vom theoretischen Lösungsansatz bis zur technischen Umsetzung in der Masse, die bezahlbar ist, vergeht bei nahezu jedem technischen Prinzip viel Zeit. Hier müsste die gesamte Netzinfeastruktur völlig umgekrempelt werden. Und das flächendeckend - ansonsten können viele Menschen nicht am Spiel teilhaben. Das sind IMO keine mittelfristigen Zeiträume über die wir da reden.

robbitop
2016-12-25, 19:55:02
Bei VDSL hast du aber auch nur auf den letzten Metern Kupfer. >90% des Weges sind doch fast immer Glasfaser, welches den Ping um 30% erhöht.

Der größte Teil des Pings kommt gar nicht unbedingt aus dem Leiter sondern aus der Verteillogik / Knoten.

DinosaurusRex
2016-12-25, 19:56:18
Tja aber gerade Mobilfunk ist rein zufälligerweise für die Militärs dieser Erde essentiell. Glaub mir, da wird brutal viel investiert und das schon seit fast 100 Jahren.

Ohne den Kalten Krieg hätten wir Smartphones vermutlich erst zwanzig, dreißig Jahre später bekommen. Oder im schlimmsten Fall wären wir niemals geboren worden.

robbitop
2016-12-25, 20:00:40
Ich hoffe jedenfalls nicht, dass es mal kommen wird. Und glaube ehrlich gesagt nicht, dass sich das zumindest mittelfristig durchsetzen wird.

DinosaurusRex
2016-12-25, 20:04:38
Apple und Alphabet haben brutal viele Finanzreserven angesammelt. Die warten auf 5G und dann drehen die Sony, Nintendo und Microsoft durch den Fleischwolf.

Ich bin so gespannt, was der Cerny als nächstes macht...

robbitop
2016-12-25, 20:08:27
Naja das haben schon viele behauptet. FB investiert Mrd Euro in VR. Und es ist bis dato ein Flop. Trotz Pornoindustrie (btw die Welt geht vor die Hunde...).

Geld allein entscheidet nicht über den Erfolg sondern wie gut ein Produkt vom (Imo nicht immer vorhersehbaren) Consumer angenommen wird.
Völlig sinnloser, irrsinniger Unsinn wie Snapchat ist auf einmal von der Hit und Mrd Dollar wert. Absolute Luftblasen mMn. Hat keiner kommen sehen. Davon gibts genug Bsp. Geld kauft keinen geplanten Markterfolg.

DinosaurusRex
2016-12-25, 20:11:19
Weil Zuckerberg ein dummer Lucker ist. Der kriegt seine Quittung noch. Ich habe bisher noch keinen einzigen klugen Satz von diesem Menschen gehört.

tobor
2016-12-25, 20:19:38
Bluetooth Controller -> Smartphone -> Dockingstation -> TV

Das ist die Zukunft des Gamings. Und darauf würde ich sogar richtig viel Geld wetten. Smartphones sind einfach das bessere Konzept. Es gibt nichts, das Smartphones aufhalten wird. In ein paar Jahren werden sie der kleinste gemeinsame Nenner für AAA Gaming sein. Und Smartphones werden Vulkan zum Durchbruch verhelfen.
Ich wette dagegen . Smartphonegamer sind nicht bereit, viel Geld fuer ein einziges Spiel
auszugeben.
Ein Spiel wie Gta kann man nicht mit 1-5 Euro pro Kopie finanzieren.
Hinzu kommt eine viel zu hohe Latenz fuer Multiplayergames. Auch 5g wird daran nichts aendern.

=Floi=
2016-12-25, 20:29:06
Gibt genug schlaue Köpfe in der Branche und die bezahlst du dann, dass die dafür eine Lösung finden. Irgendwer hat immer eine Lösung. Ist alles nur eine Frage der Zeit.

das wird auch in 10 jahren nichts, weil es auch zu sehr schwankt (rechenzentrum verdient kein geld oder ist zu klein) und die rechenzentren kosten auch geld.
selbst eine 1060er kann problemlos ein overwatch darstellen! Es geht eher weiter in richtung dezentrales gaming. Streaming willst du auch gar nicht bezahlen und das mit LTE ist auch nur ein witz, wenn das volumen noch richtig geld kostet!

deine posts sind absolut an der realität vorbei.

edit
es gibt auch wlan für handys und tablets.

ich möchte auch anmerken, dass auch jetzt schon auf mobilen geräten eine wahnsinns grafik möglich ist!

Botcruscher
2016-12-25, 20:36:03
Die Smartphones werden dank Streaming selbstverständlich irgendwann leistungsfähiger sein als jeder ultra-high-end Gaming PC, der nicht auf Streaming zurück greift.

Nimm weniger davon. PC und Server benutzen immer die gleiche Technologie. Der Rest der Antwort ist reine Betriebswirtschaft.

LTE hat jetzt schon so gute Pings wie VDSL. Da geht noch richtig was in den nächsten Jahren. In zwei Jahren kommt 5G mit angeblich fünfmal niedrigerer Latenz bei zehnfach niedrigerem Stromverbrauch. Idealerweise wird Mobilfunk die Festnetzanschlüsse komplett ablösen.

Und in dem shared Medium übertragen wird dann 2xUHD@160Hz für das mobile HMD durch Wände...

Gebrechlichkeit
2016-12-25, 20:51:24
Die Smartphones werden dank Streaming selbstverständlich irgendwann leistungsfähiger sein als jeder ultra-high-end Gaming PC, der nicht auf Streaming zurück greift.


Der PC wird zunehmend staerker, neue Komponenten werden hergestellt/verkauft. Auch die Console erfaehrt selbiges; .. Smartphones werden nie den AAA Spielemarkt erobern, dafuer haben die momentan

a) viel zu wenig Leistung
b) alle Spiele sind noch "untouch" reif, ein Dark Souls 5 auf´em Iphone 9?!
c) werden auch in Zukunft zu wenig Power haben (Batterie Autonomie)
d) die 3 big Player muessten komplett ihr Bizniz umstellen. Microsoft als der neueste "Telefonanbieter"?! "Sign up here, get free a windowsphone and play all the latest and greatest xbox titles!"
e) Super Mario Run ist doch irgenwie ein Praezedenzfall . In Zukunft nurnoch "autorun" Spiele mit Mario?!
f) momentan streaming nicht 150% lagfrei ist ..

Eher friert die Erde ein :biggrin:

DinosaurusRex
2016-12-25, 22:16:41
deine posts sind absolut an der realität vorbei.

Das kommt dir nur so vor, weil dein Geist nicht agil genug für die heutige Zeit ist.

Ihr setzt Maßstäbe von heute für die Technologien von morgen an. Und ihr kommt euch dabei auch noch schlau vor.

Aber wie sagte schon Steve Jobs: Der Konsument weiß nicht, was er überhaupt haben will.

Nimm weniger davon. PC und Server benutzen immer die gleiche Technologie.

Jaja und früher sagte man auch, dass x86 niemals nicht in Videospielkonsolen verwendet werden wird, weil es sofort gecrackt würde.

Merkste was?

Botcruscher
2016-12-25, 23:10:46
X86 wollten maximal die Konsoleros nicht weil viel zu normal. Je komplexer die Programmierung und Architektur umso mehr konnte ja ausgenutzt werden... Der PC als offene Plattform hat schlicht alles andere weggefickt. Was anderes als X86 und Arm für mobil wird da so bald nicht wieder kommen.

Einfach die Vergangenheit hochrechnen war noch die der Weg für die Zukunft. Es existiert schlicht kein Grund warum eine Technologie nur auf Server beschränkt sein soll. Streaming ist Marketingbullshit von Firmen um ihre miese Hardware schön zu reden. Nach MS ist jetzt Nintendo dran. Die ganze Technologie wird in den Punkten Betriebswirtschaft, Latenz und Datenmenge immer scheitern.
Die Switch werden dieses mal nicht mal die Gelegenheitsspieler mit WiiFit retten. Der nächste Schritt von Nintendo wird unweigerlich der Vertrieb auf weiteren Plattformen.


Eher friert die Erde ein :biggrin:

Das sind alles kenne echten Hemmnisse. Mobil wird anders gespielt weil Zeit, Umgebung, Ein/Ausgabe es nicht anders zulassen. Bis zur Hirnschnittstelle dauert es noch etwas...

sulak
2016-12-25, 23:25:46
Das kommt dir nur so vor, weil dein Geist nicht agil genug für die heutige Zeit ist.

Jaja und früher sagte man auch, dass x86 niemals nicht in Videospielkonsolen verwendet werden wird, weil es sofort gecrackt würde.

Merkste was?

Wat? Lese nochmal was du geschrieben hast, morgen, wenn du nüchtern bist.

Ein Beispiel fürs "kracken von Spielen: ür die PS1 gab es eine richtige Raubkopie Invasion aufm Schulhof, als jeder PC Brenner die CDs auslesen/schreiben konnte.

Und asynchrones Multiplayer, sind wir wieder in den 90ern als Multiplayer Spielstände per Email übermittelt werden...
Das ist quark, und "RTS" ist ein Genre was total in die Nieche abrutscht und sicher nicht am Tablet/Phone gespielt wird.
Streaming bei Spielen wird ungefähr wie 3D am Fernseher einfach sich wieder in Luft auflösen, weil der Markt zu klein ist und es technisch einfach Quark ist.
5G Mobilfunk, will gar nicht wissen was die 500MB Volumen da kosten...

fizzo
2016-12-26, 10:13:31
Die Switch werden dieses mal nicht mal die Gelegenheitsspieler mit WiiFit retten. Der nächste Schritt von Nintendo wird unweigerlich der Vertrieb auf weiteren Plattformen.

Nintendo ist bekannt seine Hardware kostenneutral oder ggf. mit geringen Gewinn zu verkaufen. Darum auch diese pfennigfuchserei bei den Komponenten/Lizensen. Jetzt können sie mit der Switch, Vulkan sei dank, Spiele auch günstig für den Mobilmarkt zu adaptieren. Natürlich als abgespeckte Variante. Durch die große Bibliothek an IP`s schlummert bei Nintendo da signifikates Potential. IMHO stehen die Vorzeichen derzeit wesendlich besser aus als noch bei dem WiiU Releas.

Botcruscher
2016-12-26, 10:24:30
Was genau soll besser sein?

Die Switch hat schlicht noch mehr Probleme als die WiiU. Größter Fehler war die mangelnde Leistung und darauffolgend Portierbarkeit anderer Titel. Die ganze Plattform ist für Drittentwickler einfach nur tot. Das die Hardware nicht subventioniert wird ist da zweitrangig. Das geschlossene Ökosystem konkurriert dazu mit dem Mobilmarkt.

Kartenlehrling
2016-12-26, 11:15:52
Vorallem werden wird sehr früh auch Technische Vergleiche ziehen können, zum Switch Release wird es eine Handvoll Spiele geben die in dem PS4/XBone Qualitätsvergleiche tretten müssen.
Vielleicht sehen wir auch ein KINGDOM HEARTS III, schliesslich ist es auf Unreal Engine 4 programiert die von Nvidia und N-Switch supporte bekommen,
und schliesslich sind wir im fünfzehnte Jahr von Kingdom Hearts 2017.
Dann kann man immer noch sagen das die N-Switch in der Schlagrange bleibt.

24.01.2017 wird man einen Vorgeschmack von der technische Umsetzung von KH-III sehen können, in Form von KINGDOM HEARTS HD 2.8 FINAL CHAPTER PROLOGUE [PS4]. (https://www.youtube.com/watch?v=tNsMosau3G4)
Wenn Nintendo es nicht schaft wenigsten diese Spiele umzusetzten sehe ich für den westlichen Markt das gleiche Schicksal wie für die WiiU.

https://www.youtube.com/watch?v=WCMRiZx78Jk
Dragon Quest XI

https://www.youtube.com/watch?v=jrME3Tzbfjo
Yooka-Laylee - E3 2016 Trailer | PS4

Argo Zero
2016-12-26, 11:56:03
Was genau soll besser sein?

Die Switch hat schlicht noch mehr Probleme als die WiiU. Größter Fehler war die mangelnde Leistung und darauffolgend Portierbarkeit anderer Titel. Die ganze Plattform ist für Drittentwickler einfach nur tot. Das die Hardware nicht subventioniert wird ist da zweitrangig. Das geschlossene Ökosystem konkurriert dazu mit dem Mobilmarkt.

Wie erklärst du dir die Spiele-Vielfalt für den DS? Es ist ein geschlossenes Ökosystem und hat total veraltete HW.
Trotzdem ist es imo aktuell nach wie vor die beste Konsole, unabhängig ob stationär oder portabel. So viel Spielzeit hatte ich zuletzt mit dem N64.

Screemer
2016-12-26, 12:02:47
Wesentlich breitere zielgruppe. Die ganzen kiga zwischen 5 und 15 werden von ihren eltern sicherlich nicht durch die babies mit ner switch ausgestelattet. Von der dimension der mob. Switch mal abgesehen. Die wird mit controller mal locker 2 mal so groß wie ein 3ds. 3d als neuheit und systemseller beim einstuegspreis und spätere reduktion des preises und kompatibles gerätes ohne 3d funktionen zu noch günstigerem preis. Zum release 2011 waren smarphones und spiele dafür noch nicht an dwm punkte wo sie heute sind und auch die verbreitung von potenter hardware niedrig im vergleichen zu heute. Das führte zu ne riesigen installationsbasis. Was die attraktivität für devs und publisher ausmacht. Dazu kommt wohl noch geringerer akkulaufzeit der switch und zu guter letzte wohl ein höherer preis. Das sind alles gewichtige punkte im handheld markt. Der ds hat da quasi überall den sweetspot getroffen.

Kartenlehrling
2016-12-26, 12:17:38
Würden sie einer neue DS Version mit share screen tv bringen wären wohl schon viele Nintendo Jünger glücklich.
So ein Wlan Enfänger am TV hätte gereicht und eine neue DS (klappmodell), dann bräuchte man auch keine XL version.

Die Ur-DS wurde ja auch 180 Millionen Verkauft, das hatte nichmal der Gameboy geschaft.

Lurtz
2016-12-26, 12:23:18
Weil Zuckerberg ein dummer Lucker ist. Der kriegt seine Quittung noch. Ich habe bisher noch keinen einzigen klugen Satz von diesem Menschen gehört.
Was auch immer deine persönlichen Probleme mit Zuckerberg in diesem Thread zu suchen haben.

Wie erklärst du dir die Spiele-Vielfalt für den DS? Es ist ein geschlossenes Ökosystem und hat total veraltete HW.
Trotzdem ist es imo aktuell nach wie vor die beste Konsole, unabhängig ob stationär oder portabel. So viel Spielzeit hatte ich zuletzt mit dem N64.
Klar ist der DS erfolgreich. Verglichen mit anderen Videospielmärkten sind Handhelds dennoch fast schon Nischen mittlerweile. Bring ein vollwertiges Pokemon aufs Smartphone, niemand braucht mehr einen DS.

Und wie gesagt, Nintendo muss erstmal beweisen, dass sie nochmal einen Erfolg wie den DS/3DS wiederholen können mit einem Handheld/Hybrid.

fizzo
2016-12-26, 14:06:37
Was genau soll besser sein?

Die Switch hat schlicht noch mehr Probleme als die WiiU. Größter Fehler war die mangelnde Leistung und darauffolgend Portierbarkeit anderer Titel. Die ganze Plattform ist für Drittentwickler einfach nur tot. Das die Hardware nicht subventioniert wird ist da zweitrangig. Das geschlossene Ökosystem konkurriert dazu mit dem Mobilmarkt.

Gerade bzgl. ersterem hat sich Nintendo Gedanken gemacht und sich NV ins Boot geholt. Die U4 Engine läuft schon mal ganz ordenlich auf der Switch: U4 Elemental Demo (https://www.youtube.com/watch?v=5xWgVHOGEjA) - link (http://www.neogaf.com/forum/showthread.php?t=1327012).

So usually in game. ini files 1 is low settings, 2 is medium, 3 is high and 4 is ultra.

And for AA and AF "1" is usually 2x AA or AF, "2" is 4x and so on and so forth.

Looks like docked mode will be 1080p medium settings on PC and handheld will be 720p low settings on PC.

This is a rough example. Just adds perspective.

Seit neustem konkuriert Nintendo nicht nur mit dem Mobilmarkt, sondern entwickelt auch Spiele hierfür. Gerade da wird sich IMHO Vulkan positiv auswirken und ggf. auch Ressourcen sparen. Eventuell bekommt die Switch ja auch "Ports" von Mobilgames...die Türen stehen jedenfalls offen - weiter als bei jeglicher Nintendokonsole zuvor.

tobor
2016-12-26, 15:14:12
X86 wollten maximal die Konsoleros nicht weil viel zu normal.
Das ist nicht richtig. Auch ein Teil von Sonys Spielentwicklern war gegen X86.

starfish
2016-12-26, 16:30:52
Gerade bzgl. ersterem hat sich Nintendo Gedanken gemacht und sich NV ins Boot geholt. Die U4 Engine läuft schon mal ganz ordenlich auf der Switch: U4 Elemental Demo (https://www.youtube.com/watch?v=5xWgVHOGEjA) - link (http://www.neogaf.com/forum/showthread.php?t=1327012).



Seit neustem konkuriert Nintendo nicht nur mit dem Mobilmarkt, sondern entwickelt auch Spiele hierfür. Gerade da wird sich IMHO Vulkan positiv auswirken und ggf. auch Ressourcen sparen. Eventuell bekommt die Switch ja auch "Ports" von Mobilgames...die Türen stehen jedenfalls offen - weiter als bei jeglicher Nintendokonsole zuvor.

Die Unreal Engine Preset Einstellungen sind zur Beruteilung der Switch Leistungsfashigkeit vollkommen wertlos.

Siehe hier:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11244540&postcount=1412

Höchstens liesen sich zwei Dinge (evtl.) daraus ableiten:
-Die Leistungsunterschiede zwischen Docked und Mobile. (ca 33%)
-Die Switch erzwingt keinen Auflösungsunterschied zwischen Docked und Mobile.

fizzo
2016-12-27, 10:21:58
Bin schon auf den 13. Jan. gespannt - mal neue Gerüchte inzwischen:

According to the leak, the upcoming Nintendo gaming console will sport a more efficient Pascal GPU architecture from NVIDIA. A few weeks after its announcement, it was reported that the Nintendo Switch will carry a Maxwell-based GPU. However, the change to Pascal architecture is a step up to the right direction as the chip features better performance and improved energy efficiency. The GPU is paired with 4GB of RAM and an A73 ARM processor.

The Pascal GPU is capable of performing 500 billion floating point calculations per second, or 500 GFLOPS. While this is not totally impressive, for a portable device running on batteries, this still is a major feat.

link (http://www.thebitbag.com/nintendo-switch-hardware-specs-leaked/215586)

starfish
2016-12-27, 11:55:44
Bin schon auf den 13. Jan. gespannt - mal neue Gerüchte inzwischen:



link (http://www.thebitbag.com/nintendo-switch-hardware-specs-leaked/215586)

Wieso sollte es jetzt doch Pascal sein?
Wäre das nicht reichlich spät?

tm0975
2016-12-27, 12:25:33
mir ist der vorteil gegenüber handy bzw. tablet noch nicht ganz klar. ist das schon mal erörtert worden? ne konsole fürs wohnzimmer leuchtet mir ja noch ein. aber eine mobile?

Windi
2016-12-27, 12:53:52
Es ist halt ein Handheld.

Wer gerne actionlastige und schnelle Spiele spielt, der möchte kaum auf echte Knöpfe verzichten.

Ich spiele mobil aber auch eher langsame oder sogar rundenbasierte Spiele. Da ist ein großer Touchscreen häufig besser, als alle möglichen Knöpfe. Für mich ist die Switch also nichts. (Leider)
Und fürs Wohnzimmer ist er mir einfach zu teuer. Für 270€ bekommt man woanders wesentlich mehr.

Ich wünsch Nintendo viel Glück, sie werden es auch bauchen.
Keine Ahnung wie groß der Handheldmarkt in Zukunft noch sein wird, aber viele der erfolgreichsten DS/3DS Spiele könnte man problemlos auf dem Smartphone/Tablet bringen. Nintendo hat nur den Vorteil, das sie die wertvollsten Marken unter ihrer Kontrolle haben.

Kartenlehrling
2016-12-27, 13:11:58
golem hatte gestern ein schönen Beitrag zum GPD Win für 430€ gemacht,
ich hoffe Sony bringt nochmal ein Sony Ericsson Xperia PLAY auf dem Markt.

Ein kompletter PC mit Windows 10 und Gamecontroller in Form einer tragbaren Spielkonsole?
Das klingt zu gut, um wahr zu sein. Doch der GPD Win ist ein erstaunliches Stück Technik.
http://www.golem.de/news/gpd-win-im-test-crysis-in-der-hosentasche-1612-125080.html

Digidi
2016-12-27, 13:58:48
Nintendo wird in Zukunft sein Geld im Mobilen Sektor verdienen. Zeigt ja auch der Relase von Mario Run auf dem IPhone und Pokemon Go.

Nintendo hat sich weniger um die Hardware als viel mehr um Spieleinhalte gekümmert. Nicht jeder braucht schöne Grafik. Aber viele wollen eine Tolle Story und Gameplay und genau da ist Nintendos stärke.

Das Nintendo deshalb eine Konsole auf Mobiler Basis entwickelt ist da nur sehr konsequent.

P.s. In eigener Sache:
Ich hoffe nie das sich Streaming Spiele durchsetzten. Das Potential ist da, aber wir werden dann ganz schön blechen dürfen. Dann kommen bestimmt Modelle wie im Monat 200 Euro bezahlen dafür darfst du dann 5 Spiele steramen und wir werden noch mehr ausgebeutet.

Lurtz
2016-12-27, 14:02:34
Pokemon und Marion Run glänzen vor allem mit Downloadzahlen, das muss man erstmal in Gewinn konvertieren (nach der Strafsteuer an Apple und Google).

Ich vermute mit einem 3DS-Pokemon hat man deutlich mehr Geld verdient.

Digidi
2016-12-27, 14:28:51
Mario Run wurde gut 50 Millionen mal gekauft. Bring das mal mit einer Konsole hin, in sehr kurzer Zeit. Die verdienen daran wahrscheinlich mehr als an den Konsolenspielen.

tm0975
2016-12-27, 14:33:07
Mario Run wurde gut 50 Millionen mal gekauft. Bring das mal mit einer Konsolo hin. In sehr kurzer Zeit. Die verdienen daran wahrscheinlich mehr als an den Konsolenspielen.

das zeigt mir nur eins. niemand braucht die konsole. es wird (jetzt schon) alles aufs handy/tablet gteladen. sehr schade. die wii fand ich super. das hätte man einfach technisch aktualisieren sollen.

prinz_valium
2016-12-27, 14:44:59
Mario Run wurde gut 50 Millionen mal gekauft. Bring das mal mit einer Konsole hin, in sehr kurzer Zeit. Die verdienen daran wahrscheinlich mehr als an den Konsolenspielen.

das spiel wurde 50 millionen mal herunter gelanden
davon dann je nach schätzung haben zwischen 4 und 8 % der nutzer das spiel gekauft

nintendo hat also zwischen $13.9 und $27,8 Millionen erwirtschaftet mit dem spiel
GTA5 ist bei knapp 3 Milliarden dollar, also gute das 100 bis 200 fache

Argo Zero
2016-12-27, 14:46:58
Mario Run wurde gut 50 Millionen mal gekauft. Bring das mal mit einer Konsole hin, in sehr kurzer Zeit. Die verdienen daran wahrscheinlich mehr als an den Konsolenspielen.

Wo hast du diese Zahl her :confused:
Umsatz liegt z.Z. schätzungsweise zwischen 12 und 15 Mio $.

Windi
2016-12-27, 15:20:41
Also beim Nintendo 3DS sieht es nach VGChartz anscheinend so aus.
http://www.vgchartz.com/platform/42/nintendo-3ds/

Verkaufte Spiele mit über 1 Millionen Exemplaren:
2015 - 7 Stück
2016 - 2 Stück

Die besten Verkaufszahlen hatte Pokemon mit 7.14mio
Pokemon dominiert einfach alles.
Aber gerade Pokemon könnte man einfach für Smartphones und Tablets bringen. Für das Spiel brauch man einfach keine Hardware Tasten und aufwendige 3D-Grafik.

Da sehen die Zahlen von Mario Run gar nicht mehr so schlecht aus. Ja, man erreicht vielleicht nicht die Pokemon-Liga, aber der Rest verkauft sich auf dem 3DS auch nicht viel besser.
Daneben muss man beachten, das es bis jetzt nur für iOS erschienen ist und die Verkäufe auch noch nicht am Ende sind.
Auch sollten die Entwicklungskosten geringer sein, als bei 40€ Titlen und man kann häufiger einen Nachfolger bringen, wenn das Spiel nur 10€ kostet.

prinz_valium
2016-12-27, 16:40:46
Also beim Nintendo 3DS sieht es nach VGChartz anscheinend so aus.
http://www.vgchartz.com/platform/42/nintendo-3ds/



die zahlen dort sind mehr als schlecht und estimates basierend auf ganz miesen modellen ohne wirkliche POS daten


nintendo gibt doch alles an. also mal etwas mühe machen und eine gescheite quelle raussuchen:
https://www.nintendo.co.jp/ir/en/sales/hard_soft/index.html
https://www.nintendo.co.jp/ir/en/sales/software/3ds.html

Digidi
2016-12-27, 20:45:53
Wo hast du diese Zahl her :confused:
Umsatz liegt z.Z. schätzungsweise zwischen 12 und 15 Mio $.

https://curved.de/news/super-mario-run-nintendo-feiert-50-millionen-downloads-mit-ingame-extras-444638

Von welchem Umsatz redest du ?

Wenn du vom Jahresumsatz redest sind 12 Millionen sehr sehr wenig. Ich glaube da eher an 100 Millionen. Bei Nintendo als Jahresumsatz eher 1 Milliarden Euro.

Laut Wikipedia setzt Nintendo gut 4 Milliarden um.
https://de.wikipedia.org/wiki/Nintendo

@Prinz_valium
Wenn man das Spiel runter laden will muss man es auch erst kaufen??? Das heißt die 50 Millionen wurden wirklich verkauft. Leider habe ich zurzeit kein IPhone/Pad da um das zu testen.

=Floi=
2016-12-27, 21:09:21
du bist auf dem holzweg. man kann es kostenlos laden und die ersten 3 level spielen. wer mehr will muss es kaufen. es sind nur 50mio downloads und die bewertung im shop ist auch mies. angeschaut und weggelegt.
im forum hier gibt es auch fast keinen der es gekauft hat.

die haben null an dem system verstanden. mit werbung und langzeitbindung würden die damit richtig viel geld verdienen.
wenn die mario maker mobile gebracht hätten, dann könnten die pro neuem levl werbung schalten oder 10ct verlangen. ohne mobile zwang und mit 100mio aktiven kunden!

Digidi
2016-12-27, 21:30:50
@Floi

Ok du hast recht. Da bin ich wohl einem Irrtum aufgesessen.

Na ja ich finde es ja gut das Nintendo sich eben nicht so auf den Werbemüll und Free to Play einlässt. Warum sind den die Kritiken so schlecht? Was wird denn am meisten bemängelt?

Heimatsuchender
2016-12-27, 23:05:21
@Floi

Ok du hast recht. Da bin ich wohl einem Irrtum aufgesessen.

Na ja ich finde es ja gut das Nintendo sich eben nicht so auf den Werbemüll und Free to Play einlässt. Warum sind den die Kritiken so schlecht? Was wird denn am meisten bemängelt?


Die meisten bemängeln, dass es was kostet. Der Preis ist da schon zweitrangig.

Zum Xperia Play: Interessante Idee, scheiterte seinerzeit aber.
Zum GDP Win: Auch interessant. Nur nicht erhältlich.



tobife

Kartenlehrling
2016-12-27, 23:27:45
Zum GDP Win: Auch interessant. Nur nicht erhältlich.

155 Artikel sofort lieferbar

https://www.dragonbox.de/de/475-gpd-win-gpd-win-4260416650442.html
Der GPD Win ist ein vollwertiger x86-Mini-PC mit Windows 10 - 435€

Hier haben sie über 150 Stück noch auf dem Lager, kosten halt 100€ mehr,
dafür fallen keine weitere Auslands-gebühren an.

Digidi
2016-12-27, 23:40:40
Die meisten bemängeln, dass es was kostet. Der Preis ist da schon zweitrangig.

tobife

Ist jetzt nicht dein Ernst? Will die Wellt denn alles Umsonst. 10 Euro für ein gutes Spiel auf dem Handy sind genau richtig. Mir geht diese Geiz ist Geil Mentalität auf den Sack. Wie viel kostet Mario nochmal auf dem 3ds bestimmt mehr als 10 Euro. Hinzu kommt das es keine In APP Käufe gibt und es Werbefrei ist.

Heimatsuchender
2016-12-27, 23:44:57
Wird jetzt zu Off Topic. Aber: Schau dir die Bewertungen im AppStore an.


tobife

=Floi=
2016-12-28, 00:27:12
spiel es erstmal selbst...

Leonidas
2016-12-28, 05:10:53
Ob Maxwell mit 0,4TFlops oder Pascal mit 0,5TFlops ist doch - bis auf die Akkulaufzeit bei entsprechender Fertigung - Jacke wie Hose. Die Architekturen unterscheiden sich nicht wirklich - und die Pascal-Fähigkeit zu wirklich hohen Taktraten wird Nintendo ja sowieso nicht ausnutzen.

prinz_valium
2016-12-28, 13:36:24
@Prinz_valium
Wenn man das Spiel runter laden will muss man es auch erst kaufen??? Das heißt die 50 Millionen wurden wirklich verkauft. Leider habe ich zurzeit kein IPhone/Pad da um das zu testen.

nein, muss man eben nicht. das spiel ist ein kostenloser download
so wie quasi fast jedes mobile game.
einzig minecraft ist ein pay2play spiel, welches erfolgreich ist (hat sich gut 40 millionen mal verkauft bisher. in china wird 2017 eine free2play version von minecraft rausgebaucht)
mario run ist free2start


und das hier ist nintendos umsatz:
http://www.statista.com/graphic/1/216622/net-sales-of-nintendo-since-2008.jpg

robbitop
2016-12-31, 12:25:08
Wenn das stimmt, hält der Akku beim Spielen nur 3h durch.
http://www.golem.de/news/nintendo-switch-drei-stunden-mobilnutzung-und-32-gbyte-interner-speicher-1612-125315.html

Und dann muss der SoC so brutal niedrig getaktet werden? IMO keine gute Entscheidung dieser SoC.

Weiterhin soll wohl kein Red Dead Redemption 2, Mass Effect Andromeda und Overwatch kommen. Schade. Überrascht aber aufgrund der Specs nicht.