PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Next-Gen-Konsolen?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 [30] 31 32 33 34 35 36 37 38 39

xyleph
2013-03-23, 13:13:39
Iwo - der eine kleine PPC vom Wii. Der ist verschnwindend klein auf 28 nm. Der hätte quasi "gratis" in den SoC gepasst.



Die Fertigung erfolgt aber in 45nm, und es sind bei WiiU 3 Kerne mit einen größeren Cache. Zusammen pie mal Daumen ein Drittel so groß wie Xenon.

Finch
2013-03-23, 13:40:58
Die Fertigung erfolgt aber in 45nm, und es sind bei WiiU 3 Kerne mit einen größeren Cache. Zusammen pie mal Daumen ein Drittel so groß wie Xenon.

Und was willst du damit jetzt sagen?

Knuddelbearli
2013-03-23, 13:53:54
Die Fertigung erfolgt aber in 45nm, und es sind bei WiiU 3 Kerne mit einen größeren Cache. Zusammen pie mal Daumen ein Drittel so groß wie Xenon.


aber nicht wenn man nur 1 Kern verbaut rein für die WII spiele

xyleph
2013-03-23, 13:58:51
Und was willst du damit jetzt sagen?

Mea culpa, hatte den Post ein wenig falsch verstanden. Allgemein wurde ich sagen dass Nintendo durchaus mit der AK im Hinterkopf den alten Gekko weiterverwurstet hat, dazu natürlich noch Kostenersparnis, da man eine CPU Lizenz und ein Design schon hatte, sowie seine Bibliotheken nicht neu ausrichten musste. Eine unbedingt kluge Entscheidung war das wohl eher nicht.

Nakai
2013-03-23, 15:28:31
Das Nintendo-Hardwarebashing mag ja wieder ein Trend sein, in letzter Zeit. In diesem Fall ist es angebracht. Die Konsole kann sich nur mit einem interessanten Speichersystem brüsten, der Rest ist veraltet und lahm.

Tony Gradius
2013-03-23, 17:20:40
Das Nintendo-Hardwarebashing mag ja wieder ein Trend sein, in letzter Zeit. In diesem Fall ist es angebracht. Die Konsole kann sich nur mit einem interessanten Speichersystem brüsten, der Rest ist veraltet und lahm.
Ich habe hier eher den Eindruck, die Nintendofanbois verteidigen das Ding wider jede Vernunft bis aufs Blut.

Botcruscher
2013-03-23, 17:51:47
So wird es auch sein. Zumindest die fehlende Leistung in Kombination mit schlechter Multiplattformportierung ist ein gigantischer Fehler. Damit hätte man wenigstens genug Titel im Programm.

KiBa
2013-03-23, 17:57:29
Also mal ehrlich, wer will diese "Core-Games" auf ner Wii spielen? Ich auf jeden Fall warte, bis hochwertige Multiplayer/Party Spiele draußen sind, die das asynchrone Spielkonzept auch mal richtig ausnutzen. Bisher waren die Wii-Spiele eine gute Ergänzung zu den "richtigen" Spielen, die ich lieber am PC zocke. Also meiner Meinung nach hat Nintendo ein Software-Problem, mit der Hardware ist alles in Ordnung.

Finch
2013-03-23, 18:12:08
Also mal ehrlich, wer will diese "Core-Games" auf ner Wii spielen? Ich auf jeden Fall warte, bis hochwertige Multiplayer/Party Spiele draußen sind, die das asynchrone Spielkonzept auch mal richtig ausnutzen. Bisher waren die Wii-Spiele eine gute Ergänzung zu den "richtigen" Spielen, die ich lieber am PC zocke. Also meiner Meinung nach hat Nintendo ein Software-Problem, mit der Hardware ist alles in Ordnung.

Das mag für dich gelten, aber es gibt genug die auch die Konsolenexclusives von Sony und MS mitnehmen wollen und bei der Wii einfach nichts finden.

Nach all den Jahren finde ich bei der Wii nur eine handvoll Spiele die mich interessieren. Ich sie jedoch nicht Spiele, weil ich entweder keine Lust auf die Steuerung habe oder ich keine Lust habe einen Classic Controller zu kaufen oder ich mit der Grafik einfach nicht mehr zurecht komme.

Doch im Gegensatz zur Wii, gibt es bei der Wii U nichtmal die tollen Nintendo Exclusiven Spiele. Nintendoland? wen juckts, Super Mario bla bla bla ist doch nur ein HD ausgabe des Wii Spiels.
Interessanter weise ist das neue Luigis Mansion auf dem 3DS sehr interessant. Warum gibt es sowas nicht auf der Wii U? Irgendwie scheint bei der Wii U nichts zu passen. Es macht mich regelrecht wütend, dass die Wii U so schwach ist und ab Winter nichts mehr zu melden hat. Beim N64 und Cube war man wenigstens noch zum teil auf der Höhe der Zeit.

Ach ich höre lieber auch, ich rede mich nur in Rage.

Iruwen
2013-03-23, 20:53:44
Ich würde mir schon mal wieder eine Nintendo Konsole kaufen, auch nur wegen der Exklusivtitel. Wenn die sich mal auf ihre Wurzeln besinnen würden, aber seit dem N64 gings bergab. Techlevel ist mir relativ wurscht, dafür sind die anderen beiden großen Konsolen zuständig. Ich hab hier noch ein SNES nur für Secret of Mana stehen.

Matrix316
2013-03-23, 21:10:31
Also ich fand die Mischung auf dem N64 eigentlich OK. Einerseits Mario und Zelda, andererseits Goldeneye und Turok.

Iruwen
2013-03-23, 21:18:21
Mein ich auch, doof formuliert: nach dem N64 gings bergab :D Der Cube war schon irgendwie meh.

Finch
2013-03-23, 22:56:39
Ich würde mir schon mal wieder eine Nintendo Konsole kaufen, auch nur wegen der Exklusivtitel. Wenn die sich mal auf ihre Wurzeln besinnen würden, aber seit dem N64 gings bergab. Techlevel ist mir relativ wurscht, dafür sind die anderen beiden großen Konsolen zuständig. Ich hab hier noch ein SNES nur für Secret of Mana stehen.

Ich hätte lieber wieder ein SNES. Also Nintendo exclusives und einen breiten 3rd Party Support. Und ich verstehe auch nicht warum Nintendo beim techlevel sparen sollte. Das ist doch pure Resignation, das suchen nach Lichtblicken.

Ich sehe das jedenfalls nicht ein.

KiBa
2013-03-24, 00:48:04
Mmh, so unterschiedlich können die Anforderungen sein. Für mich war/ist Wii gleichbedeutend mit Multiplayer- und Partyspiele. Der zigste Marioaufguß reizt mich überhaupt nicht, es sei denn, es sind frische Ideen drinn und es ist Mehrspielertauglich. Grafik ist da absolut unbedeutend, von mir aus hätte nur das Tablet, das 25Gb Laufwerk und der HDMI Ausgang neu sein müssen. Der Rest kann ruhig Gamecube-Technik sein... :D

Hallo
2013-03-24, 07:56:49
Ich hätte lieber wieder ein SNES. Also Nintendo exclusives und einen breiten 3rd Party Support. Und ich verstehe auch nicht warum Nintendo beim techlevel sparen sollte. Das ist doch pure Resignation, das suchen nach Lichtblicken.

Ich sehe das jedenfalls nicht ein.

Genau genommen hat N immer irgendwie gespart oder zumindest sehr enge Flaschenhälse eingebaut.Die 2,xx MHz des SNES hatten keine Chance gegen die 7,1 des MegaDrives.N64 hatte wohl extreme Probleme/Ineffizienz was das SI betraf.GC war wirklich fix aber hatte keine programmierbaren Shader und Wii war nix weiter als ein doppelter Cube.Und die U hechelt verzweifelt der 360/P3 hinterher mit dem "Zusatzbonus" das diese Konsole keinen Charakter hat sprich garnicht weiss welche Zielgruppe sie eigentlich ansprechen will.

Darüber hinaus,vielleicht der wichtigste Punkt in dem Nintendo versagt hat sind ihre eigenen Titel.Millionen Zelda Versionen,Mario ausgelutscht bis zum Erbrechen...Wo ist eigentlich WaveRace geblieben oder ein Pilotwings oder gar ein F-Zero?Oder Noch besser,mal ein neues Franchise?N ist schon lange nicht mehr so innovativ wie sies mal waren und das kriegen die nun zu spüren.

Herr Doktor Klöbner
2013-03-24, 09:09:25
Ich denke die Wii hat den Spielemarkt in eine Sackgasse geführt.

Zunächst war die Wii extrem erfolgreich, da Menschen die vorher nie auf die Idee gekommen wären ein Videospiel zu spielen plötzlich auf dem Fuchteltrip waren, leider hat dieser Erfolg dem Casual-Wahn alle Schleussentore geöffnet, mit großen Auswirkungen auf den Spielemarkt, die Coregamer waren auf einmal nicht mehr die Hauptzielgruppe, aber jetzt erweisst sich das als Irrweg.

Schon zu Zeiten, als die Wii sich glänzend verkaufte, war eines auffällig:

Die extrem niedrige Zahl der Spiele die im Schnitt pro Konsole verkauft wurden, das ist seit dem lägendären Atari VCS wohl der absolute Negativrekord, typische Wii Käufer entstauben das Gerät alle 6 Monate wenn bei der Party die 1 Promille Grenze erreicht ist und spielen Wii Sports, dann wird das Gerät wieder eingemottet.

Und jetzt haben sich die Spielregeln erneut geändert: Casual Games finden heute auf dem Tablet oder Smartphone statt und dürfen nichts oder wenig kosten, das Gros der 120 Millionen Wii Käufer spielt heute auf dem Smartphone Dinge, die wir eigentlich aus SNES Zeiten kennen.

Als Zielgruppe für eine stationäre Konsole bleiben wieder die selben wie schon zu 8 Bit Zeiten: Die Core-Gamer, die auf alternative unpräzise Fuchtelsteuerkonzepte scheissen und keine Lust auf Social Media Gedöns haben, die stattdessen eine möglichst leistungsfähige Hardware wollen, damit die Spiele endlich mal ein anderes technisches Level erreichen.

Dementsprechend liegt die Wii U wie Blei in den Regalen, ich sehe das mit einer gewissen Schadenfreude denn die Wii hat dem Spielemarkt aus Sicht des Core-Gamers nicht gut getan.

Nach dem was an Informationen durchgesickert ist hat MS sich auch vom Erfolg der Wii blenden lassen und voll auf Kinect2 gesetzt mit der vollen Social Media Dröhnung bei einer insgesamt sehr bescheidenen Hardware, wie es aussieht 1/3 der Speicherbandbreite der PS4, 2/3 der Grafikleistung sofern der eDRAM keine Wunderdinge bewirkt, was ich sehr bezweifle.

Ich denke Sony hat als einziger Hersteller im Moment erkannt, wohin die Reise geht, den kleinen Casual Snack für zwischendurch gibts für lau oder kleines Geld im App-Store, wer 60,- für ein Spiel abdrücken soll erwartet eine leistungsfähige Hardware die offline ganz konventionell mit einer gut angepassten Gamepadsteuerung dieses nicht DRM verseuchte Spiel stemmt.

Wer das liefern kann ist der Sieger in dieser Generation.

ZipKaffee
2013-03-24, 09:24:10
@Doktor Klöbner, du hast es auf dem Punkt gebracht. Ich bin gespannt ob es nach der WiiU noch eine Konsole von Nintendo gibt außer Handheld. Vielleicht können wir in ein paar Jahren alle Zelda und Co. auf einer PS spielen.

EDIT: Die Konsole kostet ja nur noch 200 Euro, krass.

Gunslinger
2013-03-24, 10:48:18
Nintendo hatte zu Zeiten des Wii Booms einen höheren Marktwert als Toyota. Unglaublich wie rasch Nintendo von negativen Entwicklungen eingeholt wurde.

Crazy_Bon
2013-03-24, 11:01:16
Nichts ist so vergänglich wie Elektronik, Apple wird auch mal fallen, irgendwann (bald).

drexsack
2013-03-24, 11:04:36
Ich wünsche mir ja, das Nintendo den gleichen Weg wie SEGA geht. Konsolen einstellen, und stattdessen bitte ihre AAA Titel für andere Konsolen raus bringen. In zeitgemäßer Grafik und ohne pseudo-revolutionäre Steuerung. Einfach gute Spiele, fertig. Handheld können sie von mir aus laufen lassen, das tangiert mich eh nicht. Ich spiel von Zeit zu Zeit auch noch an meinem SNES, das bringt einfach Spaß. Aber für die (imo) 5 guten Spiele pro Generation kauf ich mir doch keine Wii..

Herr Doktor Klöbner
2013-03-24, 11:06:54
Bei Nintendo kann ich mir gut vorstellen, das die in absehbarer Zeit die Waffen strecken und den Weg von Sega gehen und sich aus dem Hardware-Gechäft zurückziehen und Publisher für die verbleibenden Systeme werden.

Aber die Wii U ist schon ein sehr verkorkstes Stück Hardware, ich habe echt keine Ahnung was sie sich dabei gedacht haben, wer heute überleben will muß bei den Multiplattform-Titeln dabei sein, aktuell herscht hier komplettes Desinteresse bei PS3/XBox Entwicklern, die nächste Generation von Sony und MS ist völlig außer Reichweite so das Multiplattform Titel schon technisch nicht möglich sind. In den nächsten 1-2 Jahren schätze ich mal schmeißt Nintendo das Handtuch als Konsolenhersteller.

Lightning
2013-03-24, 11:21:58
Bei Nintendo kann ich mir gut vorstellen, das die in absehbarer Zeit die Waffen strecken und den Weg von Sega gehen und sich aus dem Hardware-Gechäft zurückziehen und Publisher für die verbleibenden Systeme werden.

Und warum sollten sie das nötig haben? Weil sie jetzt mal wieder eine Konsole haben, die nicht gut läuft? N64 und Gamecube haben sie auch überlebt. Aktuell dürften sie ziemlich große Rücklagen haben, und der 3DS läuft eigentlich auch erstaunlich gut angesichts der Smartphone- und Tablet-Konkurrenz. Sehr viel besser als die Vita sowieso. Die Situation ist absolut nicht mit Sega vergleichbar.
Ich denke, Nintendo kann selbst noch eine schlechte laufende Nachfolgerkonsole der Wii U überleben. Für die nächsten 5+ Jahre sehe ich jedenfalls keine Gefahr.

Aber die Wii U ist schon ein sehr verkorkstes Stück Hardware[...]

Auch wenn man das so sieht: Was hat die aktuelle Flaute an Multititeln mit der Hardware zu tun?

Iruwen
2013-03-24, 12:01:25
Solange Nintendo nicht parallel auch zu so einem Arschlochladen mutiert wie SEGA sich als Publisher zeigt...

Steffko
2013-03-24, 12:03:37
Genau genommen hat N immer irgendwie gespart oder zumindest sehr enge Flaschenhälse eingebaut.Die 2,xx MHz des SNES hatten keine Chance gegen die 7,1 des MegaDrives.N64 hatte wohl extreme Probleme/Ineffizienz was das SI betraf.GC war wirklich fix aber hatte keine programmierbaren Shader und Wii war nix weiter als ein doppelter Cube.Und die U hechelt verzweifelt der 360/P3 hinterher mit dem "Zusatzbonus" das diese Konsole keinen Charakter hat sprich garnicht weiss welche Zielgruppe sie eigentlich ansprechen will.

Darüber hinaus,vielleicht der wichtigste Punkt in dem Nintendo versagt hat sind ihre eigenen Titel.Millionen Zelda Versionen,Mario ausgelutscht bis zum Erbrechen...Wo ist eigentlich WaveRace geblieben oder ein Pilotwings oder gar ein F-Zero?Oder Noch besser,mal ein neues Franchise?N ist schon lange nicht mehr so innovativ wie sies mal waren und das kriegen die nun zu spüren.


Wo genau soll Nintendo da versagt haben? Bei der Qualität sicher nicht. Die großen Nintendo Serien (Mario, Mario Kart, Zelda etc.) sahnen regelmäßig absolute Top Wertungen ab. Bei den Verkaufszahlen sicher auch nicht. Die großen Nintendo Serien verkaufen sich besser, als fast alles andere auf dem Markt.



Schon zu Zeiten, als die Wii sich glänzend verkaufte, war eines auffällig:

Die extrem niedrige Zahl der Spiele die im Schnitt pro Konsole verkauft wurden, das ist seit dem lägendären Atari VCS wohl der absolute Negativrekord, typische Wii Käufer entstauben das Gerät alle 6 Monate wenn bei der Party die 1 Promille Grenze erreicht ist und spielen Wii Sports, dann wird das Gerät wieder eingemottet.


... Kann man denn diese Theorie nicht endlich mal begraben? Es ist schlichtweg komplett falsch. Pro Konsole wurden bei der Wii biser knapp 9 Spiele verkauft, was ganz stinknormal ist. Nicht so gut wie bei der Xbox 360 (die liegt bei ~10,5, die PS3 afaik bei ~9,5), aber auch nicht schlecht. Es ist insbesondere in keiner Weise ein Negativrekord. Es gibt locker ein Dutzend Konsolen/Handhelds (inkl. N64, SNES und NES), die das unterbieten.

Iruwen
2013-03-24, 12:17:07
Und das obwohl bei der Wii das Raubkopieren so einfach ist. "Kopier mir mal eben deine Externe".

Crazy_Bon
2013-03-24, 12:55:21
3 Spiele kann man eh bei der Wii in der generierten Statistik abziehen, WiiSports, WiiPlay und WiiSports Resort, die entweder mit einer Peripherie oder gleich fest mit der Konsole als Bundle verkauft wurden.

Steffko
2013-03-24, 14:16:16
3 Spiele kann man eh bei der Wii in der generierten Statistik abziehen, WiiSports, WiiPlay und WiiSports Resort, die entweder mit einer Peripherie oder gleich fest mit der Konsole als Bundle verkauft wurden.

Und dann ziehst du die gleiche Anzahl an Spielen bei X360 und PS3 auch ab (ja, man höre und staune, auch dort gibt es Bundles :eek: ) und schon bist du wieder genau am gleichen Punkt wie vorher.

drexsack
2013-03-24, 14:27:23
Und dann ziehst du die gleiche Anzahl an Spielen bei X360 und PS3 auch ab (ja, man höre und staune, auch dort gibt es Bundles :eek: ) und schon bist du wieder genau am gleichen Punkt wie vorher.

Jup, aber deutlich seltener und nicht als Standard-Kaufoption. Konnte man die Wii überhaupt ohne Wii Sports kaufen?

Finch
2013-03-24, 14:34:19
Und dann ziehst du die gleiche Anzahl an Spielen bei X360 und PS3 auch ab (ja, man höre und staune, auch dort gibt es Bundles :eek: ) und schon bist du wieder genau am gleichen Punkt wie vorher.
Ich glaube man sollte schon unterscheiden zwischen einem Bundle das seit dem Release bei JEDER Konsole dabei ist oder mini Bundles die hier und da mal auftauchen.

Ich hatte mit meiner Wii damals: Wii Sports, Wii Play, Zelda, COD3, Red Stell und noch 1-2 die mit nicht mehr einfallen.

Eigentlich habe ich nur Zelda gespielt. Zelda hat auch Spaß gemacht, auch wenn die Grafik einfach weh getan hat. Der Rest wurde nur angespielt und nie wieder angepackt. Genau wie Zelda nach dem ersten mal durchspielen. Der Rest der gespielten Spile wurden in der Videothek ausgeliehen. Die Qualität der Spiele (mit Ausnahme einiger Nintendo Spiele) war einfach nicht so wirklich prickelnd.
In meinem gesamten Bekanntenkreis hatte ich sogar die meisten Wii Spiele. Sonst wurde die Wii mit 1 - 2 Partyspielen bestückt und das war es dann auch schon.

Ich frage die Tage mal meine Eltern, wann sie das letzte mal ihre Wii angemacht haben. Denke das war 2007/2008. Seit dem die beiden jeweils ein iPad haben, wird damit gespielt oder auf den PC / Notebook ausgewichen um ein wenig Anno Spielen zu können.

Jup, aber deutlich seltener und nicht als Standard-Kaufoption. Konnte man die Wii überhaupt ohne Wii Sports kaufen?

nur in Japan.

Steffko
2013-03-24, 14:35:26
Jup, aber deutlich seltener und nicht als Standard-Kaufoption. Konnte man die Wii überhaupt ohne Wii Sports kaufen?


Die Rechnung macht so einfach wenig Sinn. Wii Sports ist ja einer der größten Kaufgründe für diese Konsole gewesen. Insofern ist es ziemlich sinnlos gerade dieses Spiel von der Tie Ratio "abzuziehen". Wenn Nintendo jetzt jede Konsole mit irgend einem Schrott, den man niemals einzeln kaufen würde, gebundlet hätte, wäre das ein Punkt. Aber dem ist halt nicht so. Ähnliches gilt für Wii Sports Resort und Wii Play. Die waren natürlich mit Hardware gebundlet, nur wurde dafür eben auch ein Aufpreis verlangt. Warum soll ich das dann nicht mitrechnen? Ziehen wir bei der Xbox 360 dann auch die ganzen Kinect Spiele ab, die mit Kinect Hardware gekauft wurden? Selbiges bei der PS3 mit Move?

Zu Beginn konnte man die Wii afaik in der Tat nicht ohne Wii Sports kaufen, später gab es ja dann verschiedene Bundles und afaik auch die "nackte" Konsole (in Japan gab es seit Release die Konsole ohne Software).

Edit: Um die Rechnung nochmal anders aufzudröseln: Wäre die Wii OHNE Sports gekommen, hätte die auch entsprechend weniger gekostet und die Leute hätten sich Software dafür gekauft (in dem Fall sogar zwingend kaufen müssen, weil ja nun mal kein Spiel dabei gewesen wäre) und das wäre dann auch wieder zu einem guten Teil Wii Sports gewesen.


@Finch Du kannst da deine Eltern gerne fragen, nur was bringt uns das? Es ist Fakt, dass pro Konsole ~8,5 Spiele verkauft wurden. Ob der Durchschnittskäufer diese gekauft, 10 Minuten angespielt und dann in der Wüste vergraben hat, ist natürlich nicht sicher, aber doch recht unwahrscheinlich.

Finch
2013-03-24, 14:49:30
Ist gut Steffko, die Wii ist eine tolle Konsole und sowieso hat Nintendo alles richtig gemacht.
Wii Sports ist Qualitätssoftware oberster Güte und nicht nur eine Wii Mote Demo...

Ziehen wir bei der Xbox 360 dann auch die ganzen Kinect Spiele ab, die mit Kinect Hardware gekauft wurden? Selbiges bei der PS3 mit Move?

ja bitte!

Steffko
2013-03-24, 15:10:16
Ist gut Steffko, die Wii ist eine tolle Konsole und sowieso hat Nintendo alles richtig gemacht.
Wii Sports ist Qualitätssoftware oberster Güte und nicht nur eine Wii Mote Demo...



ja bitte!



Was soll der Unsinn jetzt? Wo sage ich sowas? Ich sage ganz einfach, dass die Aussage auf der Wii sei wenig Software (angeblich sogar rekordverdächtig wenig!) pro Konsole verkauft worden falsch ist. Und das ist Fakt. Da ist keine Meinung dabei, null. Es ist Fakt, dass ~8,5 Spiele pro Konsole verkauft wurden, lässt sich für jeden jederzeit in Nintendos Geschäftsberichten nachlesen.
Und die Tatsache, dass Nintendo praktisch im Alleingang durch Wii Sports Millionen und Abermillionen Konsolen verkauft hat (immerhin über Jahre hinweg für ~250€ das Stück) zeigt doch, dass diese Software von extrem vielen Kunden geschätzt wurde.

Finch
2013-03-24, 15:20:53
für mich ist es eher Fakt, das Sports einfach dabei ist, ob man es haben will oder nicht. Ob diese Software von den Kunden geschätzt wurde steht auf einem anderen Blatt, die dazugehörigen Zahlen musst du mir erstmal liefern. Gleiches gilt für Wii Play. Es war hier günstiger ein Wii Play mit Wii Mote zu bekommen als ein Wii Mote ohne Wii Play zu besorgen. Da ist doch klar das es mitgezählt wird.
Das würde ich an Nintendos Stelle doch genau so machen. Imho zeigt das eher eine Beschönigung der Zahlen. Davon abgesehen geht es mir garnicht um die Zahl selber sondern eher um die Art der Spiele die eingerechnet werden. Barbies Ponyhof und Zumba Tanzzeug zähle ich einfach nicht als ernst zunehmende Spiele.

Dazu gehört aber auch der Kinect und Move Only Müll. Differenzierte Zahlen und ein Median ohne Bundlespiele wären interessant.

Zusätzlich, wie wurden die Zahlen erhoben? Retail only?

Steffko
2013-03-24, 15:33:07
für mich ist es eher Fakt, das Sports einfach dabei ist, ob man es haben will oder nicht. Ob diese Software von den Kunden geschätzt wurde steht auf einem anderen Blatt, die dazugehörigen Zahlen musst du mir erstmal liefern. Gleiches gilt für Wii Play. Es war hier günstiger ein Wii Play mit Wii Mote zu bekommen als ein Wii Mote ohne Wii Play zu besorgen. Da ist doch klar das es mitgezählt wird.
Das würde ich an Nintendos Stelle doch genau so machen. Imho zeigt das eher eine Beschönigung der Zahlen. Davon abgesehen geht es mir garnicht um die Zahl selber sondern eher um die Art der Spiele die eingerechnet werden. Barbies Ponyhof und Zumba Tanzzeug zähle ich einfach nicht als ernst zunehmende Spiele.

Dazu gehört aber auch der Kinect und Move Only Müll. Differenzierte Zahlen und ein Median ohne Bundlespiele wären interessant.

Zusätzlich, wie wurden die Zahlen erhoben? Retail only?


Schau die dir Softwareverkaufszahlen von Wii Sports aus Japan an.

In Sachen Wii Play: Die Wii Remote mit Wii Play war natürlich NICHT günstiger, als ohne. Der Aufpreis betrug etwa 10€.

Und warum soll ein Wii Sports oder ein Barbies Ponyhof nicht zählen? Wer definiert was zu zählen hat? Wenns nach mir geht hat CoD nicht zu zählen, darf ich das jetzt bei den Tie Ratios von X360 und PS3 abziehen? Natürlich nicht, ist ja ein "echtes" Videospiel :freak:
Ich wollte hier ja gerade keine fundamentale Debatte führen (u.A. auch weil solche Debatten über Coregamer, Casualgamer und was noch alles an supertollen Begriffen die letzten Jahre rausgekramt wurde, schon genug geführt wurden), sondern einfach nur ganz banal und einfach anhand der Zahlen aufzeigen, was Sache ist.
Wir können das ganze jetzt natürlich ewig weit aufzwirbeln, in dem wir bei der Wii die Hälfte nicht mitzählen (Wii Sports nicht, weil es gebundlet war, Wii Play nicht, weils kaum was gekostet hat, Wii Sports Resort nicht, weil es zum Teil gebundlet war, Just Dance nicht, weil man tanzt, Barbie nicht, weil Barbie kein Videospiel ist......), aber ich bezweifle, dass wir damit der "ultimativen Wahrheit" näher kommen. Menschen haben 250€ in die Konsole gesteckt, nur um mit diesem dapperten Controller Tennis oder Golf spielen zu können. Millionen und Abermillionen. Das reicht wohl, um die Bedeutung von Wii Sports klarzumachen. In der Zeit von Launch Ende 2006 bis sagen wir mal grob Mitte/Ende 2008 war dieses Spiel der größte System Seller überhaupt - mit Abstand und über alle Plattformen gerechnet. CoD oder GTA waren ein Fliegenschiss dagegen.

Edit: Afaik sind das ausschließlich Retailspiele, jedenfall sagt Nintendo im Geschäftsbericht, dass die Zahlen die Virtual Console und WiiWare nicht enthalten.

2phil4u
2013-03-24, 16:32:33
Könnte AMD eigentlich nicht mal selbst eine Konsole entwickeln ?
Man nehme 2 der schnellsten 8-Kerner und ein Crossfiregespann aus 2 der schnellsten AMD-Karten und nimmt das mal als Mindestanforderung.
Spieleproggramierer könnten mit der Konstellation Spiele entwickeln und in etwa 3 Jahren dürfte das ganze als APU mit stacked Memory schon locker mit 200 Watt auskommen in 14nm.

Natürlich dann mit weniger Transistoren, aber viel besserer Bandbreite und performanterer Grafikkarte pro Transistor.

Intel könnte es natürlich auch machen, sie hätten das Geld und wenn sie jetzt wie geplant bei jedem Tick und jedem Tock die Grafikleistung 2.5 xen und dann bei der Konsole nochmal 5xen, dann wäre das schon sehr nah dran an Photorealismus.

Knuddelbearli
2013-03-24, 16:39:04
und wer soll so ein 1400€ system kaufen? ^^

G 80
2013-03-24, 16:51:46
Willst du Trollen? Die Sätze ergeben tw nicht den geringsten Sinn.

14nm in 3 Jahren, von wem bitte?


.... und wenn du ein reiskorn auf ein Schabrett legst und das ......... dann wäre man recht dicht an der Lösung des Welthungerproblems.


Ansonnsten klar könnte AMD ne Konsole bauen, da sie ohnehin kritische Teile für die 3 kommenden liefern ist das kein Problem, warum AMD das allerdings wollen sollte ...?

Das ganze liest sich echt als wären da Schlagwörter in ne Sloganizer Website getippt worden ....

Herr Doktor Klöbner
2013-03-24, 17:07:19
Ich frage mich auch, warum sich Sony und co. hochbezahlte Ingenieure leisten anstatt das geballte Know-How der Hardware-Nerd Foren zu nutzen.

Mein Vorschlag: Intel Itanium 12 Kerner, 3 Geforce Titan im Triple SLI, 64 GB Ram, 1 Terabyte SSD, 4K 3D HFR fähiger Blu-Ray Nachfolger mit mindestens 500 GB Speicherplatz, das Ganze hat einen mit Flüssigmetall gefüllten Kühlkreislauf und wird mit Gedanken gesteuert.

Nightspider
2013-03-24, 17:11:47
14nm in 3 Jahren, von wem bitte?

Intel produziert am nächstem Jahr in 14nm.
TSMC fängt im kommenden Jahr mit 20nm an.

Also dürfte TSMC in 3 Jahren bei 14 bzw 12nm sein.

Knuddelbearli
2013-03-24, 17:39:59
in TSMCs träumen vielleicht ^^

Botcruscher
2013-03-24, 17:43:14
Ich frage mich auch, warum sich Sony und co. hochbezahlte Ingenieure leisten anstatt das geballte Know-How der Hardware-Nerd Foren zu nutzen.

Lass ihn doch träumen. Imo wird die Luft für "Brotkasten" Konsolen eh sehr, sehr dünn. Die Verbreitung von vorkonfigurierten Betriebssystemen+Shop gräbt denen das Wasser ab. Der Markt wird in Billig -> Tablet/Handy und Leistung -> DAU-PC ala Steambox aufgespalten. Günstige 0815 PC-Komponenten samt BS von der Stange oder wahlweise erweiterbar.

Knuddelbearli
2013-03-24, 18:26:25
Intel produziert am nächstem Jahr in 14nm.
TSMC fängt im kommenden Jahr mit 20nm an.

Also dürfte TSMC in 3 Jahren bei 14 bzw 12nm sein.

28nm Refresh kommt Q4 2013
20nm also frühestens Q4 2014
20nm hat damit ziemlich genau 3 Jahre gedauert
also würde ich echtes 14nm ( nicht so ein 14XM wie bei GloFo ) nicht vor Q4 2017 erwarten
2018 erwarte ich bei Intel 7nm ( 2 Jahre 14nm, 3 Jahre 10nm )

man sieht Intels Vorsprung wird immer größer ...

Nightspider
2013-03-24, 18:48:54
Ich rede vom Fertigungsprozess. Unabhängig von der Ausbeute und er Anzahl der Wafer, die eh abhängig davon ist, wie stark sich die Konkurenz bei den Wafern einkauft.

20nm ist bei TSMC nach wie vor für Anfang 2014 vorgesehen. Ob es am Anfang nur kleine SoC-Chips für Smartphones sind, die vom Band laufen ist eine andere Frage.

G 80
2013-03-24, 19:07:05
Amd auf nem Intel-Prozess. :rolleyes: Dann also statt wann, wohl eher nie. :freak:

TSMC träumt höchstens davon, mehr aber nicht.
Und irgendwelche Miniatur Socs? Grade war noch die Rede von 200 W-Soc Untümen im guten 3-stelligen-mm²-Bereich. :rolleyes:

Nehmen wir doch gleich irgendwelche Ram Chips oder noch besser reine SRam Prototypen Zellen.
Wenns dannach geht bringt mir doch mal meinen nach einem Jahr immer noch nicht zugestellten C-Nanoröhrchen-IBM-Prozi vorbei .......

Knuddelbearli
2013-03-24, 19:25:22
das ich mal mit G80 einer Meinung bin ... ^^

2phil4u
2013-03-24, 19:48:08
Die von mir genannte Hardware soll ja nicht verbaut werden, sondern das Leistungsniveau festlegen.
Schaut mal bei Nvidia, was die für Leistungsprognosen für die übernächste Generation geben.
Da dürften 2 Karten im Crossfiremodus mit jetzigem Ram doch in 3-5 Jahren locker in einer 150 Watt Karte unterzubringen sein.
Mit CPU wären es dann vielleicht 250 Watt, eher weniger und das ist doch nicht utopisch.
Warum sollen die den 14 nm Prozess nicht hinbekommen bis in 3 Jahren, zumindest Globalfoundrys sieht den im Jahr 2015 reif.
Intel könne ja jetzt schon.

Knuddelbearli
2013-03-24, 20:38:31
GloFo sieht bis dahin 14XM das was ganz anderes

und auch das vermutliche rstmal nur für Ram und co

und die konsolen werde heuer verkauft nicht irgendwann in 4-5 jahren ...

G 80
2013-03-24, 23:23:43
Außerdem sagt TSMC selber das von 28 auf 20 nm mit *0,75 beim Stromverbrauch zu rechnen ist. 16 nm ist aber nur etwa 1/3 kleiner. Entweder richtig viel Secret Sauce oder ich seh nicht wie das Strom/Wärme-Budget gehen soll.


Abropos Intel.

1. Intel stimmt ab auf ..... Intel. Nicht auf Internationale Kundschaften aka viele.
2. Ach, dann dann schau dir mal (Haswell außen vor, das weis noch keiner fix) die Intel-Grafikkerne seit Clarksdale an: Groß und Saufen. Wenn nichtmal Intel einen Prozess mal eben so raushaut/anpasst der (ist ja nicht der erste Versuch) für eine CPU/GPU Combi beiderseitig Ideal ist ..... ganz zu schweigen wenns auch noch ein echter SoC ist ....



Die Leistungsprojektionen nenn bitte mal. Das kann alles sein, theoretische Flops, DP-Flops, Spielelestung - was genau. So ist das völlig undifferenziert.

Nebenbei *hust* Thermi, *hust* 32 nm Croc, oder:

http://media.bestofmicro.com/nvidia-kepler-maxwell,I-Y-262474-13.jpg

Oh, auf den 20 nm Maxwell, der auch noch (auch mal völlig undifferenziert :freak: ) 3x so schnell ist, freue ich mich dieses Jahr schon.

robbitop
2013-03-25, 11:08:39
Darum ging es mir doch gar nicht. Die Wii U bekommt oft nichtmal PS3-/360-Ports, obwohl die Hardware dafür problemlos reichen würde. Sprich: Es wird so und so (meist) nicht portiert, egal wie groß der Abstand zur PS4 ist.
Das liegt einfach an der installed Base. Wenn nicht genug Geräte verkauft sind, ist der Markt nicht groß genug und dann lohnt es sich nicht. Das machen die Studios nur, wenn Nintendo das subventionieren würde.
Nintendo muss also um jeden Preis deutlich mehr Konsolen verkaufen. Das bedeutet Preis reduzieren (subventionieren) und ordentliche Titel (vor allem aus eigenen Studios) raushauen. Vieleicht muss man sich auch, wie MS es zu Beginn machte, ein paar 3rd Party Exclusives Titel einkaufen. Nintendo hat noch erhebliche Reserven. Besser sie jetzt sinnvoll investieren um wieder in die Gewinnzone zu kommen als nach und nach auszuhungern.

Überzeugen tut man immer über Content.

Finch
2013-03-25, 12:08:48
Amen. Jetzt müsste Nintendo endlich aufwachen.

RLZ
2013-03-25, 12:19:55
Oh, auf den 20 nm Maxwell, der auch noch (auch mal völlig undifferenziert :freak: ) 3x so schnell ist, freue ich mich dieses Jahr schon.
Von 3 mal so schnell steht da nirgends was. ;)

HOT
2013-03-25, 12:54:43
TSMC möchte ja schnell auf 16nm FinFET runter und geben dafür sogar den Halfnode-Vorteil auf. Auch GloFo hat ja mit 14xm, welcher ja ein 20nm-Prozess mit 14nm-FinFETs ist, seinen Kompromisskandidaten in der Pipeline um möglichst kostengünstig und schnell lukrative Aufträge zu bekommen.

Intel hat den Vorteil, dass die enorm steigenden Kosten sich bei der Menge gefertigter Prozessoren dennoch rechnet, bei den anderen Fertigern jedoch kaum. Die leben eher vom "Kleinzeug" und low-Power-Prozessen und brauchen hier entsprechende Mengen über einen gewissen Zeitraum um überhaupt die Kosten zu decken. Intel steuert hier auf ein Fertigungsmonopol für leistungsfähige Prozessoren zu - erste 14nm-FinFET-Produkte nächstes Jahr und 10nm 2016. Die ersten 16nm FinFET TSMC-Produkte sind kaum vor 2016 zu erwarten, gleiches gilt für 14xm. Im Gegensatz zu Intels Prozessen sind das aber vor allem LP-Prozesse.

S940
2013-03-25, 13:14:28
Intel hat den Vorteil, dass die enorm steigenden Kosten sich bei der Menge gefertigter Prozessoren dennoch rechnet,
Das ist mittlerweile auch Geschichte, Intel gehts wie AMD, sie haben zuviel FABs und das normale PC-Geschäft geht stärker zurück, als geplant.
Deswegen müssen sie als Fremdfertiger anfangen, gibt doch schon Berichte/Gerüchte, dass Apple bei Intel ARM-Chips fertigen lassen wird.

Mal schauen wie/ob der OoO-Atom-Kern (Codenamenmerken hab ich jetzt aufgegeben ^^), einschlägt, eventuell können sie sich damit noch ne Scheibe vom Mobilmarkt abschneiden, die Kurve kratzen und die Fabs mit Atoms selber auslasten, auch wenn so ein Atom-Die ziemlich klein ist ^^

G 80
2013-03-25, 14:09:15
Von 3 mal so schnell steht da nirgends was. ;)

Darum gehts ja! *seufz* :wink:

Um dieses undiffenzierte und va ungreifbaren "NVs Leistungsprognosen für die übernächste Gerneration: Welche Projektionen, von wo, wie aktuell und va für was für Steigerungen in welchem Bereich genau (http://www.youtube.com/watch?v=WEzrBRe3d1c&#t=51).

Darum auch die Roadmap zu Flops/W bevor das Ministerium für Wahrheit NV da ein bissl rumgerückt hat, va in Hinsicht auf TSMC 16 nm kommt so sicher "pünktlich" wie 32 und 22 nm von TSMC gesehen.

Es würde mich nicht wundern wenn was ähnliches die "Basis" für die Soc-Projektion ist mit der das ganze anfing ....

Skysnake
2013-03-25, 14:12:26
Naja, Altera baut auf jeden fall ihre FPGAs bei Intel.

=Floi=
2013-03-25, 15:52:27
einschlägt, eventuell können sie sich damit noch ne Scheibe vom Mobilmarkt abschneiden, die Kurve kratzen und die Fabs mit Atoms selber auslasten, auch wenn so ein Atom-Die ziemlich klein ist ^^

intel hat beim ersten atom sage und schreibe ~2500 dice aus einem wafer bekommen. preis war auch um die 5$ imho.

=Floi=
2013-03-25, 15:56:54
Darum gehts ja! *seufz* :wink:

Um dieses undiffenzierte und va ungreifbaren "NVs Leistungsprognosen für die übernächste Gerneration: Welche Projektionen, von wo, wie aktuell und va für was für Steigerungen in welchem Bereich genau (http://www.youtube.com/watch?v=WEzrBRe3d1c&#t=51).

Darum auch die Roadmap zu Flops/W bevor das Ministerium für Wahrheit NV da ein bissl rumgerückt hat, va in Hinsicht auf TSMC 16 nm kommt so sicher "pünktlich" wie 32 und 22 nm von TSMC gesehen.

Es würde mich nicht wundern wenn was ähnliches die "Basis" für die Soc-Projektion ist mit der das ganze anfing ....


da steht DP/watt und nicht performance in crysis! das ist ein ganz gewaltiger unterschied. perf p/w könnte man auch mit einer multichipkarte und langsam getakteten 4 chips steigern.

G 80
2013-03-25, 16:09:48
Jetzt frage ich mich schon langsam ob ich hier ein rießen Schild schwenken muss und euch einfach nur zusätzlich über eure Boxen anschreien sollte. :mad:

LEST/LIES!

GENAU DAS SCHREIBE ICH JETZT SCHON ZUM XTEN MAL. :freak:

Obs jetzt DP oder nur SP Flops pro Watt ist, war nicht das wesentliche am Beispiel ......


Falls es noch jemand IMMERNOCH nicht verstanden hat: Die Grafik war um zu zeigen das ich auch schnell irgend ne unpassende Projektion greifen kann und da irgend eine Leistungsprojektionen draus dichten kann.

Der an denn das gerichtet hat schreibt eh nichts mehr, daher ist das wohl erledigt.

Nicht erledigt ist das IHR LESEN LESEN UND DENKEN SOLLT.


Danke.

PrefoX
2013-03-25, 20:38:23
also warst du das mit dem schild hier? ;D
http://wwwut.files.wordpress.com/2012/09/wut.jpg?w=450&h=370

G 80
2013-03-26, 06:46:05
Ja, so in etwa hätte das wohl ausgesehen. ;D :lol:

(ich seh grad den gibts hier) in S-Form: :ulol3:


:biggrin::wink:


/OT. :wink:

Iruwen
2013-03-26, 09:19:59
Warum produziert Intel eigentlich selbst keinen Flash (mehr), die haben damals an Micron verkauft iirc? Ist das nicht noch ein lukratives Geschäft?
/e: ach ne vergesstet, Intel steckt ja bei IMFT wieder drin.

dildo4u
2013-03-27, 23:02:50
Activision R&D Real-time Character Demo

http://youtu.be/l6R6N4Vy0nE

Fragt sich wie das Ingame gehen soll.wenn laut NV 2TFlop nur für den Kopf braucht naja mal sehen.

Weitere Screens

http://www.abload.de/img/lauren-04ckrwv.jpg

http://www.abload.de/img/lauren-03y9ph3.jpg

http://www.abload.de/img/lauren-02l4oqu.jpg

http://www.abload.de/img/lauren-01a8qw0.jpg

mr coffee
2013-03-28, 00:20:33
http://youtu.be/l6R6N4Vy0nE

Fragt sich wie das Ingame gehen soll.wenn laut NV 2TFlop nur für den Kopf braucht naja mal sehen.


WAHNSINN schaut der Kopf fantastisch aus! Der absolute Hammer. Bis auf den schwarzen Mund-Innenraum perfekt. Vielleicht klappt's ja ingame in einer ähnlichen Qualität wenn man in Naheinstellung praktisch nur den Kopf sieht.

Körschgen
2013-03-28, 01:14:26
Für interaktive Filme wie Heavy Rain sehe ich ganz gute Chancen für so eine Quali. Aber wer produziert sowas schon auf dem PC?

Die Präsentation von Quantic Dream auf der PS4-Pressekonferenz schlug ja in eine (qualitativ schlechtere) ähnliche Kerbe.

Quantic Dream => Heavy Rain... Klingelt's? ;)

Na ja, würde mir ähnliches jedenfalls auch mal am PC wünschen, damit (zumindest die _verblendeten_) Konsoleros nicht mehr behaupten, dass es dort viel bessere Grafik gäbe!

RLZ
2013-03-28, 10:40:43
Die Laune von Paul Debevec dürfte momentan sehr gut sein. Überall zeigt man sein Zeugs. :)

Wie praxistauglich Lightstage für mehr wie Gesichter ist, muss man wohl noch abwarten.

http://www.youtube.com/watch?v=Siqye16DR4o

Skysnake
2013-03-28, 10:46:59
Ja, das Ding ist schon cool, aber die ganzen anderen Dinger auch.

Wird uns auf jeden Fall einen großen Schritt nach vorne bringen.

Sven77
2013-03-28, 11:17:07
70 Bones nur für das Gesicht.. das ist schon heftig

Silentbob
2013-03-28, 11:19:34
Realismus ist ja schön, grafischer Fortschritt auch, aber möchte man in z.B. einem Shooter auf solch "echt" aussehende Menschen schiessen?

Sven77
2013-03-28, 11:20:12
Realismus ist ja schön, grafischer Fortschritt auch, aber möchte man in z.B. einem Shooter auf solch "echt" aussehende Menschen schiessen?

JA! :D

Coda
2013-03-28, 11:24:22
70 Bones nur für das Gesicht.. das ist schon heftig
Da hatte Psycho in C3 mehr.

dargo
2013-03-28, 11:25:03
Realismus ist ja schön, grafischer Fortschritt auch, aber möchte man in z.B. einem Shooter auf solch "echt" aussehende Menschen schiessen?
Warum denn nicht? Jeder von uns denke ich ist erwachsen genug um eine virtuelle von der realen Welt unterscheiden zu können.

Sven77
2013-03-28, 11:25:49
@Coda
Da ich da nicht so die Ahnung habe.. wieviel Joints besitzt so eine aktueller Realtime-Character? Gibt es verschiedene Character für Cutscenes (Close-Up vom Gesicht) und Gameplay?

Silentbob
2013-03-28, 11:29:53
Warum denn nicht? Jeder von uns denke ich ist erwachsen genug um eine virtuelle von der realen Welt unterscheiden zu können.


Die Frage ist ob das manche noch können. Man stelle sich Oculus Rift + Soldier of Fortune Reboot mit der Optik vor. :eek:

;D

dargo
2013-03-28, 11:40:37
Die Frage ist ob das manche noch können. Man stelle sich Oculus Rift + Soldier of Fortune Reboot mit der Optik vor. :eek:

;D
Man muss nicht jede extreme Gewaltdarstellung konsumieren, ist wie bei Horrorfilmen. Wer es nicht mag oder nicht ertragen kann schaut auch keine entsprechenden Filme.

Iruwen
2013-03-28, 11:42:17
Warum denn nicht? Jeder von uns denke ich ist erwachsen genug um eine virtuelle von der realen Welt unterscheiden zu können.
USK disapproves. Ich seh schon nochmal einen deutlichen Unterschied zwischen einem gewalttätigen Film in dem der Protagonist, meinetwegen sogar in Egoperspektive, Menschen erschießt, oder einem Spiel in dem ich selbst den Abzug betätige. Je realistischer, desto stärker die Abstumpfung. Allerdings seh ich eher die Spieleindustrie in der Verantwortung darauf zu achten, dass das nicht in Gewaltverherrlichung und "Töten zum Spaß" ausartet sondern den Spieler in realistischen Szenarien regelmäßig vor ein moralisches Dilemma stellt (siehe Spec Ops).

Deinorius
2013-03-28, 12:16:51
Realismus ist ja schön, grafischer Fortschritt auch, aber möchte man in z.B. einem Shooter auf solch "echt" aussehende Menschen schiessen?


Och, mit den richtigen Subjekten höchst gerne. :ulol:

Problematischer ist da viel mehr, wie gut oder schlecht die Spiele selber werden, bzw. wieviel diese dann kosten sollen.

Gebrechlichkeit
2013-03-28, 12:17:56
Realismus ist ja schön, grafischer Fortschritt auch, aber möchte man in z.B. einem Shooter auf solch "echt" aussehende Menschen schiessen?

Solange man zwischen Real Life-Graphics und Computer-Graphics unterscheiden kann, dann Ja! Ein Half Life 3 at 2560 by 1080p, dat muss ich noch in diesem Leben erleben/spielen duerfen :)

tobor
2013-03-28, 12:43:43
Na ja, würde mir ähnliches jedenfalls auch mal am PC wünschen, damit (zumindest die _verblendeten_) Konsoleros nicht mehr behaupten, dass es dort viel bessere Grafik gäbe!

Die Kosten für die Modellierung von so was sind ein viel größeres Problem als die technische Machbarkeit...

del_4901
2013-03-28, 14:33:58
@Coda
Da ich da nicht so die Ahnung habe.. wieviel Joints besitzt so eine aktueller Realtime-Character? Gibt es verschiedene Character für Cutscenes (Close-Up vom Gesicht) und Gameplay?
~200
Bei close-ups tauscht man auch gerne einfach nur den Kopf auf.

john carmack
2013-03-28, 15:07:33
Beim Entwicklertreffen in San Francisco hat ein Ingenieur von Sony das technische Innenleben der Playstation 4 erklärt.

http://www.golem.de/news/playstation-4-wie-geschmiert-1303-98430.html

Matrix316
2013-03-28, 15:48:51
Ich hab mal überlegt, dass es zwar super ist, dass man auf 8 GB GDDR5 setzt, aber was bringt es, wenn GPU und CPU nicht die Rohpower haben um diesen überhaupt auszureizen?

Iruwen
2013-03-28, 15:50:48
Hochauflösendere Texturen belasten die GPU doch schonmal nicht nennenswert?

Nightspider
2013-03-28, 15:52:42
Ich hab mal überlegt, dass es zwar super ist, dass man auf 8 GB GDDR5 setzt, aber was bringt es, wenn GPU und CPU nicht die Rohpower haben um diesen überhaupt auszureizen?

Ich erspar dir jetzt mal eine Gesichtspalme und weise dich darauf hin, das man durch mehr (und vor allem schnelleren) Speicher auch CPU Leistung spart und viel flexibler in der Programmierung vor gehen kann.
Zuviel Speicher gibt es nicht. Erst recht nicht für Texturen.

Speicher ""ausreizen"" gibt es schon mal gar nicht. Zumindest nicht so lange der RAM kleiner ist als der Datenträger. ;)

Hübie
2013-03-28, 16:19:59
Erzähl das mal den Programmierern ;D Ich hoffe aber dass es sich mit den kommenden Generationen der Entertainmentsysteme ändern wird. Ich meine noch nie gesehen zu haben das meine popeligen 8 GB beim Zocken (auch nur ansatzweise) voll waren.

Matrix316
2013-03-28, 16:43:52
Also das heißt eine GeForce GT 630 mit 4GB ist schneller als eine GTX 680 mit 2 GB, weil sie mehr RAM hat? Hmmmm...:uponder:

Ein Spiel besteht nicht nur aus Texturen...

grobi
2013-03-28, 16:59:36
Also das heißt eine GeForce GT 630 mit 4GB ist schneller als eine GTX 680 mit 2 GB, weil sie mehr RAM hat? Hmmmm...:uponder:

Ein Spiel besteht nicht nur aus Texturen...

Schonmal daran gedacht das die CPU und die GPU den gleichen Speicher nutzten und es dadurch eine Performancesteigerung gibt und die etwas direktere Programmierung nicht zum Nachteil der neuen Konsolen ist?

mfg grobi

Knuddelbearli
2013-03-28, 17:07:32
Also das heißt eine GeForce GT 630 mit 4GB ist schneller als eine GTX 680 mit 2 GB, weil sie mehr RAM hat? Hmmmm...:uponder:

Ein Spiel besteht nicht nur aus Texturen...


nö aber ein Spiel das auf eine gtx 680 mit 4 GB programmiert wird !kann! durch bessere Texturen deutlich besser aussehen als auf einer mit 2GB.

Am Ende liegt es aber immer noch am Programmierer.

N0Thing
2013-03-28, 17:07:37
Also das heißt eine GeForce GT 630 mit 4GB ist schneller als eine GTX 680 mit 2 GB, weil sie mehr RAM hat? Hmmmm...:uponder:

Ein Spiel besteht nicht nur aus Texturen...

Eine GTX 680 4Gb ist auch nur dann schneller als eine GTX 680 2GB wenn der Speicher voll ist. Und genau das ist das entscheidende Kriterium: Auch in 5 Jahren werden die neuen Konsolen von der Speichermenge her gegenüber den dann aktuellen Mainstream-PCs noch ganz gut dastehen. ;)

Matrix316
2013-03-28, 17:14:59
nö aber ein Spiel das auf eine gtx 680 mit 4 GB programmiert wird !kann! durch bessere Texturen deutlich besser aussehen als auf einer mit 2GB.

Am Ende liegt es aber immer noch am Programmierer.
Ja, aber das will ich auch garnicht bestreiten.

Allerdings liegt die PS4 GPU eben nicht auf Niveau einer GTX680, sondern schon ein Stückchen drunter, oder? Und die CPU hat zwar 8 Kerne, aber was für welche! :freak:

Selbst wenn der Speicher limitiert, wird eine GTX680 sehr allerhöchst wahrscheinlich immer noch mehr FPS liefern, als eine langsamere Karte mit mehr RAM.

Deinorius
2013-03-28, 17:16:40
Erzähl das mal den Programmierern ;D Ich hoffe aber dass es sich mit den kommenden Generationen der Entertainmentsysteme ändern wird. Ich meine noch nie gesehen zu haben das meine popeligen 8 GB beim Zocken (auch nur ansatzweise) voll waren.


Wollen wir ernsthaft einen PC-Konsolen Vergleich machen? :|

ndrs
2013-03-28, 17:22:26
Ja, aber das will ich auch garnicht bestreiten.

Allerdings liegt die PS4 GPU eben nicht auf Niveau einer GTX680, sondern schon ein Stückchen drunter, oder? Und die CPU hat zwar 8 Kerne, aber was für welche! :freak:

Selbst wenn der Speicher limitiert, wird eine GTX680 sehr allerhöchst wahrscheinlich immer noch mehr FPS liefern, als eine langsamere Karte mit mehr RAM.
Mehr RAM geht immer und hat keinerlei Nachteile. Für eine dickere GPU müsste deutlich mehr Wärme abgeführt werden und eine Konsole in Desktop-Tower-Größe verkauft sich wohl schlecht. Der Verbrauch der Speicherchips ist vernachlässigbar.
Oder anders ausgedrückt: Bei RAM limitieren nur die Kosten bei der APU zusätzlich Spannungsversorgung und Kühlung.
Was du gegen die Jaguarkerne hast, versteh ich sowieso nicht. Die sind absolut ausreichend.

Nightspider
2013-03-28, 17:25:30
Also das heißt eine GeForce GT 630 mit 4GB ist schneller als eine GTX 680 mit 2 GB, weil sie mehr RAM hat? Hmmmm...:uponder:

Ein Spiel besteht nicht nur aus Texturen...

Nein, das heißt es nicht. :rolleyes:

Und niemand spricht von einer langsameren GPU mit mehr VRAM.
Ich weiß auch nicht wo das Problem bei dir liegt? So schwer ist das doch nicht zu verstehen.

CPU und GPU standen schon lange fest. Den Speicher konnte man nachträglich noch vergrößern. (verdoppeln)
Und bei der letzten Generation haben sich alle Entwickler über zu wenig Speicher beschwert.

Und außerdem machen neue, extrem scharfe Texturen optisch unter anderem den größten Unterschied.

Vergiss bitte auch nicht, dass das Spiel selbst auch Zwischenspeicher braucht. Sowas wie Ladezeiten von früher kennst du noch oder?
Größere Welten brauchen mehr Speicher. Erst recht wenn man keine Ladezeiten haben will.

Mehr (V)RAM ist nie, absolut nie, verkehrt.*

*in einem gewissen Rahmen.
Selbst 16GB könnten die Entwickler sicherlich noch nutzen. Bei 32GB könnte ich es mir selbst schon schwer vorstellen, ob das noch sinnvoll wäre.

Knuddelbearli
2013-03-28, 17:28:43
auch mit einer 4gb 650 kann man potentiell die deutlich bessere Optik hin zaubern als mit einer 2gb 650

selbst die aktuellen konsolen würden bildtechnisch von mehr ram ordentlich profitieren und die sind auf IGP Niveau

und gerade bei den alten konsolengeht es nicht mehr nur um die grafik sondern auch das der speicher nichtmal wirklich reicht um ordentliche open world level zu bauen

Matrix316
2013-03-28, 17:43:36
Ich beschwer mich nicht über die 8 GB, sondern eher, dass jeder die PS4 hypt wegen dem vielen Speicher, aber vergisst, dass dahinter eher nur (heutige) Mittelklasse Hardware ist.

von wegen

Die PS 4 verbindet Hardware der nächsten Generation mit Netzwerkangeboten der nächsten Generation. Es ist eine leistungsfähige Spielekonsole mit innovativen Eingabemöglichkeiten mit niedriger Latenz, die zum zentralen Unterhaltungsgerät im Wohnzimmer werden soll.

:rolleyes:

Knuddelbearli
2013-03-28, 17:58:04
es ist immerhin 11.1 was nichtmal alle GPU hersteller anbieten :biggrin:

und wenn es dann noch GCN 1.1 oder gar 2.0 ist ist es ja sogar erst die nächst Generation :tongue:

dildo4u
2013-03-28, 18:10:26
Ist nunmal ein Fakt das es solche APU's erstmal nicht für den PC geben wird.Dauert vermutlich noch zwei Generationen,da AMD 22/20nm braucht um 2Tflop der PS4 unter 100Watt zu bekommen.Liegt auch daran das AMD am Desktop nicht Jaguar mit der schnellsten GPU kombinieren wird sondern Steamroller.

Kaveri soll 2014 erstmal die 1Tflop nehmen.

http://www.tomshardware.de/Trinity-Kaveri-APU,news-247672.html

Wie gesagt wurde gearde erst auf 2014 verschoben,dieses Jahr gibts nur ein Refrech von Trinity.
http://www.3dcenter.org/news/amds-kaveri-apu-kommt-mit-gddr5-oder-ddr4-speichercontroller

Crazy_Bon
2013-03-28, 23:17:21
Ich beschwer mich nicht über die 8 GB, sondern eher, dass jeder die PS4 hypt wegen dem vielen Speicher, aber vergisst, dass dahinter eher nur (heutige) Mittelklasse Hardware ist.

Für PC-Verhältnisse ja, dennoch wird die Leistung nicht 1:1 vergleichbar sein. Leistung wird auf dem PC mit gnadenlosem Overkill erzeugt, nicht mit Effizienz, daher wird noch viel Luft nach Oben in den NextGen stecken.
Wenn man schon seit langem über die Krüppelhardware der PS360 jammert, dann ist es schier unglaublich welche Grafik das Spiel Metal Gear Solid 5 : The Phantom Pain auf dem Bildschirm zaubert.
http://www.youtube.com/watch?v=pRSZy12EOSs

dildo4u
2013-03-29, 01:28:44
DF: Inside PlayStation 4


"Compute" architecture

What was intriguing was new data on how the PlayStation 4's 18-compute-unit AMD graphics core is utilized. Norden talked about "extremely carefully balanced" Compute architecture that allows GPU processing for tasks that usually run on the CPU. Sometimes, employing the massive parallelization of the graphics hardware better suits specific processing tasks.

"The point of Compute is to be able to take non-graphics code, run it on the GPU and get that data back," he said. "So DSP algorithms... post-processing, anything that's not necessarily graphics-based you can really accelerate with Compute. Compute also has access to the full amount of unified memory."

"The cool thing about Compute on PlayStation 4 is that it runs completely simultaneous with graphics," Norden enthused. "So traditionally with OpenCL or other languages you have to suspend graphics to get good Compute performance. On PS4 you don't, it runs simultaneous with graphics. We've architected the system to take full advantage of Compute at the same time as graphics because we know that everyone wants maximum graphics performance."

Leaked developer documentation suggests that 14 of the PS4's compute units are dedicated to rendering, with four allocated to Compute functions. The reveal of the hardware last month suggested otherwise, with all 18 operating in an apparently "unified" manner. However, running Compute and rendering simultaneously does suggest that each area has its own bespoke resources. It'll be interesting to see what solution Sony eventually takes here.

Low-level access and the "wrapper" graphics API

In terms of rendering, there was some interesting news. Norden pointed out one of the principal weaknesses of DirectX 11 and OpenGL - they need to service a vast array of different hardware. The advantage of PlayStation 4 is that it's a fixed hardware platform, meaning that the specifics of the tech can be addressed directly. (It's worth pointing out at this point that the next-gen Xbox has hardware-specific extensions on top of the standard DX11 API.)

"We can significantly enhance performance by bypassing a lot of the artificial DirectX limitations and bottlenecks that are imposed so DirectX can work across a wide range of hardware," he revealed.

The development environment is designed to be flexible enough to get code up and running quickly, but offering the option for the more adventurous developers to get more out of the platform. To that end, PlayStation 4 has two rendering APIs.

"One of them is the absolute low-level API, you're talking directly to the hardware. It's used to draw the static RAM buffers and feed them directly to the GPU," Norden shared. "It's much, much lower level than you're used to with DirectX or OpenGL but it's not quite at the driver level. It's very similar if you've programmed PS3 or PS Vita, very similar to those graphics libraries."

But on top of that Sony is also providing what it terms a "wrapper API" that more closely resembles the standard PC rendering APIs. "The key is that it doesn't sacrifice the efficiency of the low-level API. It's actually a wrapper on top of the low-level API that does a lot of the mundane tasks that you don't want to have to do over and over."

The cool thing about the wrapper API is that while its task is to simplify development, Sony actually provides the source code for it so if there's anything that developers don't get on with, they can adapt it themselves to better suit their project.

GDDR5 Ram

The PlayStation 4's monstrous memory set-up was also touched upon briefly in the presentation.

"The cool thing about GDDR5 is that it's extremely fast. There's crazy high bandwidth. We have 176GB/s of total bandwidth across the system. This is from GPU, CPU everything... It's a fully unified address space, unified memory. Everything can access everything," Norden said. "If you're coming from PS3 you're used to the split memory architecture, you can't quite use all of it, the speeds are really wacky on some of it. We don't have that. It's eight gigs, it's there, it's easy."

We have heard that the bandwidth levels of certain components vary though. While the GPU has full access to 176GB/s, one source tells us that the CPU is more constrained at around 20GB/s - still pretty good at around two-thirds the level of bandwidth available to Intel's Ivy Bridge. However, depending on how you interpret what Chris Norden said, you could either view PS4 as having unified bandwidth levels across all components or simply that 176GB/s is the maximum level of bandwidth across the entire system. For what it's worth, leaked Durango white papers also seem to suggest that the CPU there has lower levels of bandwidth than its graphics core - and there are many, many similarities between the two next-gen consoles.

http://www.eurogamer.net/articles/digitalfoundry-inside-playstation-4

Wird das Wechsel von Compute zu Grafikberechnung in näster Zeit am PC eleganter gelöst oder lässt das DX11 nicht zu?

Coda
2013-03-29, 01:39:48
Zuviel Speicher gibt es nicht. Erst recht nicht für Texturen.
Bin ich anderer Meinung. Der Bildschirm hat nur 2 MPixel in 1080p. Das heißt 1-2GiB für Texturen sollte eigentlich genügen mit ordentlichem Streaming.

Vor allem muss man das ganze ja auch von der Platte kratzen mit <100MB/s.

G 80
2013-03-29, 04:39:53
Um das nicht in den falschen Hals zu kriegen:

Du wärst eher für 4 statt 8 GB in der PS 4?

MarcWessels
2013-03-29, 06:51:11
USK disapproves. Ich seh schon nochmal einen deutlichen Unterschied zwischen einem gewalttätigen Film in dem der Protagonist, meinetwegen sogar in Egoperspektive, Menschen erschießt, oder einem Spiel in dem ich selbst den Abzug betätige. Je realistischer, desto stärker die Abstumpfung.Nein. Filme sind schädlicher, gerade weil Du nichts gegen die Morde und Folterungen tun kannst.

Nicht auf Prof. Pfeiffer und seinen Bruder im Geiste, Manfred Spitzer, hören, wenn es um die angeblich schädlichen Auswirkungen von Computerspielen geht. :wink:

robbitop
2013-03-29, 07:22:08
:rolleyes: Es gibt noch andere Sachen als Texturen. Wenn 8 GiB nicht sinnvoll wären, hätte Sony es nie getan und die Devs wären nicht so erregt. Das Gegenteil zu behaupten ist BS.

Ailuros
2013-03-29, 08:12:45
:rolleyes: Es gibt noch andere Sachen als Texturen. Wenn 8 GiB nicht sinnvoll wären, hätte Sony es nie getan und die Devs wären nicht so erregt. Das Gegenteil zu behaupten ist BS.

Von dildo's quote bzw. link oben:

Compute also has access to the full amount of unified memory.

Was ich von dem link oben nicht schnalle (oder ich brauch einen zweiten Kaffee um aufzuwachen...) ist folgendes:

"The cool thing about Compute on PlayStation 4 is that it runs completely simultaneous with graphics," Norden enthused. "So traditionally with OpenCL or other languages you have to suspend graphics to get good Compute performance. On PS4 you don't, it runs simultaneous with graphics. We've architected the system to take full advantage of Compute at the same time as graphics because we know that everyone wants maximum graphics performance."

Leaked developer documentation suggests that 14 of the PS4's compute units are dedicated to rendering, with four allocated to Compute functions. The reveal of the hardware last month suggested otherwise, with all 18 operating in an apparently "unified" manner. However, running Compute and rendering simultaneously does suggest that each area has its own bespoke resources. It'll be interesting to see what solution Sony eventually takes here.

Die GPU hat 18 CUs die compute und 3D gleichzeitig bearbeiten koennen; so weit so gut. Ich hoffe nur dass es keine Andeutung sein soll dass die hw FLOPs von 18 CUs gleichzeitig zu nochmal den gleichen FLOPs von 18 CUs fuer 3D sein soll. Bei 800MHz sind es wohl 1.8 TFLOPs fuer compute und 3D und eben nicht 1.8/compute und 1.8/3D.

Locuza
2013-03-29, 08:33:53
Vielleicht doch noch einen zweiten Kaffee?
Er hat nur gemeint das Compute-Workload und GFX-Workload parallel ablaufen können, was ja dank den ACEs realisiert wird, ohne den jeweils anderen Workload pausieren zu müssen.
Die CUs wollte er damit nicht verdoppeln.

Skysnake
2013-03-29, 09:04:52
So habe ich es auch verstanden.

Ailuros
2013-03-29, 09:19:00
Vielleicht doch noch einen zweiten Kaffee?
Er hat nur gemeint das Compute-Workload und GFX-Workload parallel ablaufen können, was ja dank den ACEs realisiert wird, ohne den jeweils anderen Workload pausieren zu müssen.
Die CUs wollte er damit nicht verdoppeln.

Und wieso wird es ausdruecklich betont als ob die Konsole hier etwas besonderes errreichen soll? Kann man auf einer herkoemmlichen heutigen desktop GPU nicht auch compute und 3D parallel bearbeiten?

Hallo
2013-03-29, 09:38:56
Hurra, endlich bringt Sony wieder eine Konsole die man auch ernsthaft spielen kann.

Damit meine ich die verkürzte Latenz der Pads. Der Rest hört sich auch sehr ordentlich an. Jetzt müssen die nur noch runter von ihrem DRM Trip, sprich den Softwareherstellern das erst garnicht zu ermöglichen bei Retail Games, dann sehe ich keine Probleme wieso sie nicht einschlagen sollte:)

Bin mal gespannt wie MS das kontern will. IMO haben die wirklich schlechte Chancen, aber warten wirs mal ab.

Nein. Filme sind schädlicher, gerade weil Du nichts gegen die Morde und Folterungen tun kannst.


Gewalt ist nunmal Gewalt.Ob interaktiv (Games) oder passiv (Filme) . Und zuviel Konsum stumpft nunmal ab. Ich hab das an mir beobachten können als ich das erste mal GTA3 gezockt habe, ich war schockiert. Nicht unbedingt vom Realismusgrad der Grafik sondern viel mehr von der Interaktion der Umgebung. Später hat mir das dann nichts mehr ausgemacht.

Aber Sachen wie die Flughafenszene in Modern Warfare 2 fand ich einfach nur geschmacklos und ich beendete diese Mission mit gesenktem virtuellen Haupt, furchtbar wie Leid anderer "Menschen" zelebriert wird.

Möchte nicht der Moralapostel sein, aber muss das wirklich sein? Wozu?
Natürlich geht es in Ego-Shootern ums ballern und auch mir macht es Spass, aber um des Zockenswillen um die Competition. Deshalb begrüsse ich es sehr wenn Hersteller gewisse Grenzen nicht überschreiten. Oder Games so gestalten das ein gewisser Humor erhalten bleibt und man es mit guten Gewissen als lustig, situationkomisch empfinden kann.

Ein neues Serious Sam wäre mal wieder angebracht, da hätte man obendrein noch ordentlich was zu lachen:)

Skysnake
2013-03-29, 09:47:32
Und wieso wird es ausdruecklich betont als ob die Konsole hier etwas besonderes errreichen soll? Kann man auf einer herkoemmlichen heutigen desktop GPU nicht auch compute und 3D parallel bearbeiten?
Meines Wissens nach geht/ging das bei nVidia bis HyperQ nicht sonderlich gut.

fondness
2013-03-29, 09:53:12
DF: Inside PlayStation 4



http://www.eurogamer.net/articles/digitalfoundry-inside-playstation-4

Wird das Wechsel von Compute zu Grafikberechnung in näster Zeit am PC eleganter gelöst oder lässt das DX11 nicht zu?

Was genau soll da eleganter gelöst werden? In den PS4 steckt eine stinkt normale GCN-GPU, nichts was dort beschrieben wird könnten die Desktop-AMD-GPUs nicht auch. Der große Vorteil der PS4 ist eben das SoC-Design mit dem Unified-Speicher. Die Daten vom RAM in den VRAM der GPU zu kopieren kostet häufig viel zu viel Zeit und macht deshalb erst ab einer gewissen Problemgröße Sinn. Dieses Problem existiert bei einem SoC schlicht nicht, ich kann immer die Einheiten nehmen, welche das konkrete Problem schneller lösen kann. Deshalb gehört den SoCs auch die Zukunft, der Vorteil des selben Speichers mit den niedrigen Latenzen kannst du mit noch so einer schnellen dezidierten GPU nicht gut machen. Wenn Entwickler diese Vorteile konsequent ausnutzen siehtst du mit einer dezidierten GPU nur noch eine Diashow.

Ailuros
2013-03-29, 09:55:26
Meines Wissens nach geht/ging das bei nVidia bis HyperQ nicht sonderlich gut.

Und was hat NVIDIA genau in einem Next-Gen-Konsolen thread verloren? :biggrin: :P

Skysnake
2013-03-29, 09:56:51
Weil Sie in den alten Konsolen mit drin steckten, und Sie eben auch noch das PC-Gameing machen, was als Referenz dient :P

Ailuros
2013-03-29, 10:01:20
Weil Sie in den alten Konsolen mit drin steckten, und Sie eben auch noch das PC-Gameing machen, was als Referenz dient :P

Dein Spitznahme ist nicht rein zufaellig Theo Valich oder? :freak: Ja der alberne DX9 RSX ist durchaus Vergleichsmaterial zu den heutigen DX11.1 GPUs :rolleyes:

Locuza
2013-03-29, 10:03:28
Und wieso wird es ausdruecklich betont als ob die Konsole hier etwas besonderes errreichen soll? Kann man auf einer herkoemmlichen heutigen desktop GPU nicht auch compute und 3D parallel bearbeiten?
Da müsste man Gipsel für ausführlichere Details fragen, aber meines Wissens her ist das auf einer Desktop GPU bisher nicht möglich.

Soweit ich das ganze Prinzip verstanden habe, erstellt der Command-Processor eine Arbeitsschlange die jeglichen Code beinhalten kann, sei es für das Rendering oder für das Computing.
Kommt Computing-Code zum Einsatz müssen die Grafik-Workloads solange warten, bis es fertig berechnet wurde.
Ich habe aber keine Ahnung, wie dynamisch das abläuft und wie der Codemix dann genau vom Command-Processor an die Shader-Arrays verteilt wird.

Die ACEs können allerdings unabhängig davon Work-Groups für Compute-Shader erstellen, womit es getrennte Queues bei der Code-Ausführung gibt.
Somit würde es keine Pausen oder Konflikte geben.

Nvidia hat bei HyperQ paar Folien zu der Auslastung der ALUs gezeigt, wenn es mehrere Kommandoschlangen gibt:
http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/News/Nvidia-Tesla-K20-GK110-Hyper-Q-1020669/

Bei Nvidia soll das aber automatisch ablaufen, solange man das neuste CUDA-Framework installiert hat.
Ich habe auch hier keine Ahnung, ob es dort Beschränkungen gibt und ob Nvidia damit jetzt meint das es wirklich vollautomatisch abläuft und wenn ja, gilt das auch für Spiele?

Die ACEs bei GCN müssen aber extra programmiert werden, wobei es hier allerdings bisher keine API gibt, um sie direkt programmieren zu können.
Eine OpgenGL Extension soll es geben, die nicht so richtig funktioniert oder mit kleinerem Funktionsumfang.
Da AMD bei C.I. die ACEs mächtig aufpumpt, kann man wohl davon ausgehen das OpenCL wenigstens bald die Möglichkeit bekommen sollte die ACEs ansprechen zu können.

Was genau soll da eleganter gelöst werden? In den PS4 steckt eine stinkt normale GCN-GPU, nichts was dort beschrieben wird könnten die Desktop-AMD-GPUs nicht auch.
Stimmt nicht ganz, die PS4 wird GCN2 haben oder wenigstens beinahe das gleiche.
8 ACEs bzw. 8 Compute-Pipelines.
Das Prinzip wurde weiter oben ja so halbwegs erklärt.
Und am PC gibt es für Entwickler bisher keine Möglichkeiten die 2 ACEs bei GCN anzusprechen, womit die Möglichkeiten brach liegen und man hier auch von totem Silizium sprechen kann.

Als PC-Dev hat man hier leider die A-Karte.
Ohne gemeinsamen Standard und ohne leichten Zugriff kann man es vergessen sich Gedanken über eine Implantation zu machen, wenn dabei nur die wenigsten profitieren könnten.

Edit: Vielleicht ist es aber auch möglich, dass AMD in Zukunft diesen Prozess auch automatisieren kann. Es macht den Anschein, als ob das bei Nvidia auch so ablaufen wird.

Ailuros
2013-03-29, 10:21:06
Ich tappe ungern in Felder ueber die ich mir nicht sicher bin aber wenn compute und 3D nicht parallel ablaufen koennen auf GPUs wuerde ich liebend gerne wissen wie compute calls in 3D Spielen genau integriert wurden.

Locuza
2013-03-29, 10:26:28
Kurz die SuFu benützt:

Auch in Spielen überlappt sich die Ausführung der verschiedenen Shadertypen während eines Drawcalls, da laufen also auch verschiedene "Programme" gleichzeitig. Man konnte sie bisher allerdings nur über eine Queue füttern. Mit GCN kamen dann die ACEs dazu (die 2 aktive [gleichzeitig abgearbeitete] Queues für Compute [neben dem Command Processor für Grafik] mitbrachten), bei C.I. wird das offenbar kräftig ausgebaut (8x8=64 Queues, davon 8 gleichzeitg aktiv [senden also Wavefronts an das Shaderarray], GK110 kann 32 Queues, davon offenbar maximal 16 aktiv). Dabei können über eine Queue bei GCN durchaus auch parallel ablaufende Kernel abgesetzt werden, sie dürfen dann nur keine Abhängigkeiten voneinander aufweisen (der Grafik-Command Processor kann das auch bei Abhängigkeiten machen, da die verschiedenen Pipelinestages genau definierte Abhängigkeiten haben).

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9658313#post9658313


Hier noch etwas über die ACEs und HyperQ
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9652732#post9652732

Vielleicht wird man ja leicht schlauer davon.

Deinorius
2013-03-29, 10:39:13
Was genau soll da eleganter gelöst werden? In den PS4 steckt eine stinkt normale GCN-GPU, nichts was dort beschrieben wird könnten die Desktop-AMD-GPUs nicht auch.


Ganz so stinknormal ist es nun auch wieder nicht, wenn sich allzu sehr. Allein die früher erwähnten Sony Technologien, dürften etwas geändert haben. Wie weit das auch die GPU betrifft...

|MatMan|
2013-03-29, 12:04:52
Leaked developer documentation suggests that 14 of the PS4's compute units are dedicated to rendering, with four allocated to Compute functions. The reveal of the hardware last month suggested otherwise, with all 18 operating in an apparently "unified" manner. However, running Compute and rendering simultaneously does suggest that each area has its own bespoke resources. It'll be interesting to see what solution Sony eventually takes here.
Man könnte daraus auch lesen, dass die einfach 2 "standard" Kabini APUs verbaut haben. Hat nicht eine Kabini APU 2 CUs? Macht also zusammen 4. Bleiben noch 14 für die extra GPU. Und schon hätte man 4 "richtig" unabhängige CUs für Compute. :eek:

Ich glaub aber ehrlich gesagt nicht daran, war evtl. beim DevKit so...

Locuza
2013-03-29, 12:10:12
Too much fantasy.

fizzo
2013-03-29, 12:11:22
So richtig fix ist noch nix ;)

DICE: "Niemand kennt die finalen Hardware-Daten von PS4/Xbox 720"

28.03.13 - Im Moment kennt kein Entwicklungs-Studio oder Drittanbieter die finalen Hardware-Daten von PS4 und Xbox 720. Das sagt Patrick Bach, Executive Producer beim Battlefield-Macher DICE.

"Ich weiß nicht, ob irgendjemand überhaupt die Next-Gen Hardware schon hat - ehrlich. Es gibt zwar verschiedene Versionen, aber hat irgendjemand schon die finale Hardware?", fragt Bach. Er kennt auch nicht die finalen technischen Daten der neuen Konsolen.

Es existieren zwar Alpha Hardware und damit auch technische Spezifikationen, doch was sich am Ende tatsächlich in den Konsolen befinden wird, ist auch für ihn völllig unklar.

S940
2013-03-29, 12:15:56
Man könnte daraus auch lesen, dass die einfach 2 "standard" Kabini APUs verbaut haben. Hat nicht eine Kabini APU 2 CUs? Macht also zusammen 4.
Unwahrscheinlich. Das ganze ist ein eigener SoC. Das weiss man sicher, steht im PS4-Infopdf. Wenn man dann schon Hand anlegt, um nen eigenständigen Chip zu entwerfen, dann sollte man auch gleich sauber in CPU- und GPU-Part trennen. Ein bisschen GPU hier und dort macht keinen Sinn und würde das Design nur verkomplizieren.
Die Rede ist außerdem ja auch von CUs und nicht vom kompletten Front-End, das wär bei nem Kabini ja auch jeweils dabei, mit der extra GPU der PS4 hätte man dann insgesamt 3 :freak:

So richtig fix ist noch nix ;)
ICh weiss ja nicht in welcher Höhle der Dice-Chef die letzten Wochen war, aber die PS4-Daten wurden veröffentlicht ...

dildo4u
2013-03-29, 12:33:44
Takt könnte noch nicht entschieden sein aber es ist normal das sie jetzt noch keine Finalen Dev Kit's haben,schätze mal der Chip wird er in Menge im Sommer gefertigt.(Ca 3 Monate vor Release)

Coda
2013-03-29, 13:09:54
Um das nicht in den falschen Hals zu kriegen:

Du wärst eher für 4 statt 8 GB in der PS 4?
Nö, aber 8 statt 4 werden für Texturen keinen Unterschied machen.

Skysnake
2013-03-29, 13:27:55
Dein Spitznahme ist nicht rein zufaellig Theo Valich oder? :freak: Ja der alberne DX9 RSX ist durchaus Vergleichsmaterial zu den heutigen DX11.1 GPUs :rolleyes:
Nein ist er nicht, aber wie andere auch schon versucht haben zu erklären, ist das schon etwas "neues" vor allem halt für Konsolen, und für APUs/SOCs meines Wissens nach komplett neu.

Mit der HD5800 wurden meines Wissens nach ja erstmal die ACEs eingeführt, und die 5870 hatte 2 Stück davon. Das machte es erstmals möglich, das man unabhängige Programme voneinander theoretisch ausführen konnte.

Wie das Real dann gehandhabt wurde steht wieder auf einem ganz anderen Blatt. Man hat/te ja weiterhin nur eine Queue pro GPU, in die man die Kernels reinpackt.

Das ist schon alles nicht so einfach wie man meinen könnte. Ich hab mich expliziet damit auch nie auseinander gesetzt, da man normal eh so große Probleme startet, das man die GPU komplett auslastet. Bei allem anderem braucht man mit der CPU meist nicht länger, als allein der Datentransfer braucht, und damit außerhalb von SOCs fürn Arsch.

Bei Fermi hatte man nur eine Queue, da ging es bei nVidia also gar nicht. Erst HyperQ in GK110 macht das bei nVidia möglich, und bei AMD ist die Frage, ob man es wirklich nutzen kann. Das muss wenn der Treiber regeln, weil der Programmierer keine Chance hat, mehrere Queues zu nutzen, außer halt für async DMA. Ist aber alles schon wieder sehr sehr sehr speziell, und dann sicherlich in OpenCL/OpenGL wiederum komplett anders als in DX Y.

Da sollte man mal Gipsel noch fragen, ob er dazu noch was genaueres weiß, wie es denn jetzt letzten Endes für den Programmierer wirklich nutzbar implementiert ist.

PS:
Ailuros, du darst nicht den Fehler machen, und "Programme/Kernels" mit branches usw. mit komplett komplett unterschiedlichen Programmen/Kernels zu verwechseln, die parallel zueinander laufen. Das ist einfach nen himmelweiter Unterschied!

Locuza
2013-03-29, 13:34:08
Mit der HD5800 wurden meines Wissens nach ja erstmal die ACEs eingeführt, und die 5870 hatte 2 Stück davon. Das machte es erstmals möglich, das man unabhängige Programme voneinander theoretisch ausführen konnte.

Auch noch einen Kaffee? :wink:
Eingeführt wurde das ganze mit GCN.
Die ganze GCN Flotte hat 2 ACEs.

krötenfresse
2013-03-29, 13:39:47
Kaveri soll 2014 erstmal die 1Tflop nehmen.

http://www.tomshardware.de/Trinity-Kaveri-APU,news-247672.html

Wie gesagt wurde gearde erst auf 2014 verschoben,dieses Jahr gibts nur ein Refrech von Trinity.
http://www.3dcenter.org/news/amds-kaveri-apu-kommt-mit-gddr5-oder-ddr4-speichercontrollervon der leistung her wäre dieser chip doch schon fast auf dem niveau der nächsten xbox.

wieso bauen die dann nicht auch gleich 32 mb des internen speichers ein, den die nächste xbox haben soll?

Coda
2013-03-29, 13:43:38
wieso bauen die dann nicht auch gleich 32 mb des internen speichers ein, den die nächste xbox haben soll?
Weil es auf dem PC keine API für sowas gibt.

Skysnake
2013-03-29, 13:44:42
Auch noch einen Kaffee? :wink:
Eingeführt wurde das ganze mit GCN.
Die ganze GCN Flotte hat 2 ACEs.
Ok, war nicht die HD5800er Serie, sondern die HD6900er Serie, die die parallele Ausführung von mehreren unterschiedlichen Kernels erlaubte: http://4.bp.blogspot.com/_-sHn_EC2R2k/TSH0xsyOtpI/AAAAAAAAAXk/SUxgBTlu9ho/s640/Slide_05.jpg

Das meinte ich halt.

krötenfresse
2013-03-29, 14:02:35
Weil es auf dem PC keine API für sowas gibt.
wenn ich dich richtig verstanden habe, dann müsste microsoft es auch softwareseitig in windows 8 unterstützen?

nun ja, amd entwickelt ja eine apu für eine konsole von microsoft. da könnten die ja dann was drehen.

oder liege ich jetzt völlig falsch?

Coda
2013-03-29, 14:12:05
Könnten sie, wird aber nicht passieren.

Es gibt auch gute Gründe es sein zu lassen, weil man dann wieder auf bestimmte GPUs gezielt optimieren muss, also genau das Gegenteil von dem was man mit DirectX erreichen will.

Sony hat es richtig gemacht. Ein großer, schneller Speicherraum.

krötenfresse
2013-03-29, 14:56:56
Es gibt auch gute Gründe es sein zu lassen, weil man dann wieder auf bestimmte GPUs gezielt optimieren muss, also genau das Gegenteil von dem was man mit DirectX erreichen will.

zukünftige spiele werden ja höchstwahrscheinlich primär für zukünftige konsolen entwickelt. also im fall der durango für eine amd-apu mit 32 mb e-sram (wenn die gerüchte stimmen).

wenn man also in apu für den pc auch diese 32 mb e-sram verwendet (und nicht etwa mal 32 mb, mal 64 oder noch mehr),
dann dürfte das mit der optimierung doch kein problem sein, oder?

PatkIllA
2013-03-29, 15:31:45
zukünftige spiele werden ja höchstwahrscheinlich primär für zukünftige konsolen entwickelt. also im fall der durango für eine amd-apu mit 32 mb e-sram (wenn die gerüchte stimmen).

wenn man also in apu für den pc auch diese 32 mb e-sram verwendet (und nicht etwa mal 32 mb, mal 64 oder noch mehr),
dann dürfte das mit der optimierung doch kein problem sein, oder?Dann musst du auch damit leben, dass die Entwickler genau eine Detailstufe und Zielauflösung für die Hardware vorgeben.

Wann kommen denn jetzt definitive Details zur neuen XBox? Solangsam müsste MS doch mal nachziehen.

=Floi=
2013-03-29, 15:41:21
Wann kommen denn jetzt definitive Details zur neuen XBox? Solangsam müsste MS doch mal nachziehen.

je länger sie warten, desto mehr kann es werden. eventuell ziehen sie doch noch nach/gleich. 2TF FTW :freak:

PatkIllA
2013-03-29, 15:44:46
je länger sie warten, desto mehr kann es werden. eventuell ziehen sie doch noch nach/gleich. 2TF FTW :freak:
Sowas wie ne Menge GDDR5 als Hauptspeicher vs. normaler Speicher mit EDRAM werden die ja wohl nicht mehr ändern können.
Ein bisschen Takt bei den Komponenten oder vielleicht doch 8 GiB statt nur 4 sollte aber noch drin sein.

Nightspider
2013-03-29, 15:45:42
Nö, aber 8 statt 4 werden für Texturen keinen Unterschied machen.

Zu sagen, das es keinen Unterschied machen wird ist doch etwas übertrieben.
Man wird die zusätzlichen 4GB nicht nur für Spieledaten nutzen.
Vielleicht ist der Schritt zu klein um überall höher aufgelöste Texturen zu verwenden aber erstens kann man mehr unterschiedliche Texturen im VRAM speichern und damit eine größere Texturvielfalt erzeugen und zweitens könnten Entwickler einzelne Texturen höher aufgelöst zwischen speichern, zB. von Gesichtern, Kleidung, Fahrzeugen oder was eben im Fokus liegt.


Wenn du mir sagen würdest, das die PS4 mit 8GB die gleichen Texturen haben wird wie die Xbox720, die vorraussichtlich nur 4GB haben wird, würde ich sagen du erzählst Mist. ;)
Aber das werden wir erst in 1-2 Jahren sehen und spätestens dann, wenn die Entwickler wieder versuchen das Maximum aus der Hardware zu kitzeln.

Deinorius
2013-03-29, 18:19:27
Weil es auf dem PC keine API für sowas gibt.


Und was ist dann der Unterschied zu dem eDRAM, den Intel bei legen will?

Ein bisschen Takt bei den Komponenten oder vielleicht doch 8 GiB statt nur 4 sollte aber noch drin sein.


Den Gerüchten nach hat die Xbox Next sowieso 8 GB DDR3. Bei der PS4 wurden 4 GB spekuliert.

del_4901
2013-03-29, 18:22:09
Und was ist dann der Unterschied zu dem eDRAM, den Intel bei legen will? Entweder landen die ersten Surfaces die implizit mit drin. Oder Intel liefert nen APi Wrapper fuer DX oder ne GL Extension. Das wird doch bei den Stereo Sachen schon gemacht.

Deinorius
2013-03-29, 19:25:29
Und warum sollte das nicht auch bei AMD funktionieren? :|

del_4901
2013-03-29, 19:30:45
Und warum sollte das nicht auch bei AMD funktionieren? :|
Das musst du Coda fragen und nicht mich.

][immy
2013-03-29, 20:06:33
Sowas wie ne Menge GDDR5 als Hauptspeicher vs. normaler Speicher mit EDRAM werden die ja wohl nicht mehr ändern können.
Ein bisschen Takt bei den Komponenten oder vielleicht doch 8 GiB statt nur 4 sollte aber noch drin sein.

nunja, es sollte wohl kaum ein Problem sein den hauptspeicher gegen schnelleren zu tauschen. da die CPU wohl recht gleich wird sollte es zumindest vom speichercontroller das gleiche bleiben (amd will die dinger ja sogar offiziell anbieten). einzig die kosten würden dadurch enorm gesteigert werden. Dank des ED-Ram könnte man aber eventuell einfach "langsameren" gddr5 nehmen um am ende auf die gleiche gesamtbandbreite zu kommen.

die frage ist aber eigentlich nur. sind die neuen Konsolen aktuell schon in Produktion oder nicht. wenn sie schon in Produktion sind ist alles "zu spät". zudem gibt es bisher über die xbox nur gerüchte und nicht ein hauch davon wurde von MS bisher bestätigt. immernoch gut möglich das man "falsche" gerüchte gestreut oder zumindest nicht dementiert hat, damit sich sony in Sicherheit wiegt oder halt vorprescht. Bei der xbox ist aktuell eigentlich noch alles möglich. das einzige was bisher wirklich als gesichert gelten kann ist wohl das CPU + GPU von AMD stammen, alles anderen sind unbestätigte gerüchte oder specs die schon jahre alt sind.

wie die PS4 aussieht weiß man ja nun, einzig die taktraten können sich hier noch ein wenig verändern. Wobei ich mir bei der speichermenge der PS4 auch nicht mehr so sicher bin nach den letzten Kommentaren von sony. aber ich denke mal von 4GB Ram für spiele können wir bei der nächsten Generation wohl ausgehen. Das mit der Speichermenge sehe ich aktuell ein wenig kritischer weil sony hier mit den letzten aussagen ein wenig zurückrudert und betont das es nicht um die Größe sondern um die Geschwindigkeit geht. klingt für mich so als ist man bei den 8GB nicht so ganz sicher. besonders weil die kosten für speicher seit deren aussage explodiert sind. Naja vielleicht nicht explodiert aber spürbar teurer geworden sind.

Finch
2013-03-29, 20:12:55
Ich denke die 8gb werden bleiben. Den Shitstorm im Falle eine Rückzuges würde ich nicht erleben wollen.

Coda
2013-03-29, 20:37:15
Zu sagen, das es keinen Unterschied machen wird ist doch etwas übertrieben.
Glaub's halt nicht. Mir wurscht.

Wenn du mir sagen würdest, das die PS4 mit 8GB die gleichen Texturen haben wird wie die Xbox720, die vorraussichtlich nur 4GB haben wird, würde ich sagen du erzählst Mist. ;)
Du hast mich nicht verstanden. Der Bildschirm hat nur 2 MPixel und man braucht SOWIESO Streaming um es solche Datenmengen überhaupt laden zu können.

Das heißt die Datenmenge die deine Textureauflösung limitiert ist ein Faktor von dem was du maximal in einem Screen darstellen willst. C3 hat einen Texture Streaming Pool auf dem PC von maximal 640MB und der läuft praktisch nie voll. Und erzähl mir nicht, da wäre was matschig. Rage verwendet sogar nur eine einzige 4k x 4k Textur im Speicher und 8k x 8k würde mit der Technik sehr wahrscheinlich für jegliches Szenario reichen das man auf der Disk noch speichern kann.

Was dich da in Zukunft limitieren wird ist viel eher I/O.

Skysnake
2013-03-30, 10:10:44
Und warum sollte man nicht mehrere Games im Speicher halten? Die Ladezeiten wären absolut geil, nämlich faktisch nicht vorhanden, und in der Zwischenzeit kann man den Rest nachladen.

Also z.B. 8GB davon
1x1GB für OS/Media/Socialmist usw.
4x1GB für rudimentäre Gamedaten, um ein Spiel sofort starten zu können
1x3GB für erweiterte Gamedaten

Damit hätte ein Game maximal 4GB zur Verfügung.

Aber ich seh selbst 6GB für ein Game nicht als DAS riesen Problem an. Wenn wir von 100MB/s ausgehen, dann sind das 60s gesamt Ladezeit, wobei man sicherlich nach 1GB bereits anfangen kann mit Spielen. Den Rest kann man ja durchaus erst während dem Spielen nachladen. Ich stelle mir das aber schon SEHR viel komfortabler vor, die Daten einmalig am Anfang rein zu laden, und mich dann NULL mehr darum kümmern zu müssen, als das mir das ständig rein pfuscht.

Ailuros
2013-03-30, 10:47:42
PS:
Ailuros, du darst nicht den Fehler machen, und "Programme/Kernels" mit branches usw. mit komplett komplett unterschiedlichen Programmen/Kernels zu verwechseln, die parallel zueinander laufen. Das ist einfach nen himmelweiter Unterschied!

Ich mach gar keinen Fehler; Konsolen-GPU-designs sind in ihrer brutalen Mehrzahl angepasste designs die meistens an X Architektur nach aussen aussehen, sich aber trotz allem ein paar Faehigkeiten der nachfolgenden Generation leihen.

Der eigentliche Punkt hier war und ist dass AMD hier eben NICHTS in die GPU Bloecke der SoCs integriert hat welches nicht in der Zwischenzeit auf desktop GPUs bzw. SoCs erscheinen wird. In der Mehrzahl sind es Anspielungen auf HSA relevantes Zeug mal ganz grob vereinfacht.


Was dich da in Zukunft limitieren wird ist viel eher I/O.

Ich wuenschte ich wuerde in letzter Zeit etwas anderes von Entwicklern lesen :wink:

Man muss es halt zich Male lesen als Beobachter bis es endlich sitzt ;)

dildo4u
2013-03-30, 11:46:05
NV mit Leistungseinschätzung der 720.

http://www.abload.de/img/003woc3t.jpg

http://www.4gamer.net/games/209/G020984/20130330001/

Fragt sich ob sie Konkrete Infos haben oder auch nur Spekulieren.

Finch
2013-03-30, 11:54:24
Spekulation + Marketing. NVIDIA muss doch irgendwie die Titan hervorheben ;)

dildo4u
2013-03-30, 12:05:59
Wobei im Neogaf angesprochenen wurde das sie ja das PhysX SDK für die 720 anpassen müssen also müssten sie schon infos haben.

Crazy_Bon
2013-03-30, 12:08:03
Ich frage mich was wieder der Vergleich zu Konsolen von Nvidia soll, sie kommen mir wie ein beleidiges Kind vor, weil kein einziger Konsolenhersteller ihnen den Zuschlag gab, ausser Tegra3+ für Ouya.

Ehrlich gesagt macht dieses Geplänkel für mich Nvidia unattaktriver als sie schon sind.
Vielleicht wollen sie sie nur noch Hardware für Konsolenhasser herstellen, keine Ahnung was sie mit diesem kindischen Getue provozieren wollen.

Botcruscher
2013-03-30, 12:13:27
Wobei im Neogaf angesprochenen wurde das sie ja das PhysX SDK für die 720 anpassen müssen also müssten sie schon infos haben.

Da gibt es die seit Jahren überfällige brauchbare Unterstützung von Mehrkerncpus.

dildo4u
2013-03-30, 12:28:42
Da gibt es die seit Jahren überfällige brauchbare Unterstützung von Mehrkerncpus.
Für die Next-Gen Konsolen braucht's ne GPU Beschleunigung,zumindest wenn sie mit Havok konkurrieren wollen.

http://youtu.be/QnKNliV7gwU

Daher brauchen sie Infos zu allen Systemen.Aber dein Beitrag sollte bestimmt wieder ein Bash gegen NV sein oder so naja egal wie immer nix zum Thema beigetragen.

Botcruscher
2013-03-30, 12:33:22
An der bescheidenen Situation sind sie mehr als selber schuld. Wenn eine vernünftige Umsetzung jetzt auf AMD Hardware kommt ist das schon mehr als Ironie. Bash bei so viel Marketingheißluft ist völlig unnötig. Hoffentlich bleiben wir von solchen Umsetzungen wie bei BL2 verschont.

Skysnake
2013-03-30, 12:36:38
Ich mach gar keinen Fehler; Konsolen-GPU-designs sind in ihrer brutalen Mehrzahl angepasste designs die meistens an X Architektur nach aussen aussehen, sich aber trotz allem ein paar Faehigkeiten der nachfolgenden Generation leihen.

Der eigentliche Punkt hier war und ist dass AMD hier eben NICHTS in die GPU Bloecke der SoCs integriert hat welches nicht in der Zwischenzeit auf desktop GPUs bzw. SoCs erscheinen wird. In der Mehrzahl sind es Anspielungen auf HSA relevantes Zeug mal ganz grob vereinfacht.

GPUs ja, das ist nichts "Neues" mehr, aber auch noch nicht wirklich alt. Bei SOCs ist es meines Wissens nach aber das 1. mal, dass das geht. Also von daher schon neu.


Ich wuenschte ich wuerde in letzter Zeit etwas anderes von Entwicklern lesen :wink:

Man muss es halt zich Male lesen als Beobachter bis es endlich sitzt ;)
Das ist aber nicht erst seid heute so :ugly:

Das weiß man schon seid >10 Jahren, bzw man hat schon sehr lange damit zu kämpfen. Deswegen hat man ja die ganzen Cachedesigns entwickelt. Zugegeben, früher wars eher ein Problem der CPUs, und eher weniger der GPUs. Seid GPGPU aber auch definitiv ein großes Problem bei GPUs, das mit jeder Generation größer wird.

Die Speicherperformance skaliert im Vergleich zur ALU-Leistung einfach sehr sehr sehr beschissen, und das schon sehr sehr sehr lange. In Zukunft wird es noch größer werden. Von PCI/AGP/PCI-E fangen wir lieber erst gar nicht an ;)

Wird wirklich Zeit, das in absehbarer Zeit wirklich große SOCs kommen, bzw. eher ClusterOnChip.

Ich frage mich was wieder der Vergleich zu Konsolen von Nvidia soll, sie kommen mir wie ein beleidiges Kind vor, weil kein einziger Konsolenhersteller ihnen den Zuschlag gab, ausser Tegra3+ für Ouya.

Ehrlich gesagt macht dieses Geplänkel für mich Nvidia unattaktriver als sie schon sind.
Vielleicht wollen sie sie nur noch Hardware für Konsolenhasser herstellen, keine Ahnung was sie mit diesem kindischen Getue provozieren wollen.
Aufmerksamkeit, was sonst?

del_4901
2013-03-30, 13:06:37
Für die Next-Gen Konsolen braucht's ne GPU Beschleunigung,zumindest wenn sie mit Havok konkurrieren wollen.

http://youtu.be/QnKNliV7gwU

Das ist mit grossem Abstand die schlechteste Demo der ganzen Praesentation.
Partikel die in der Luft haengen bleiben, das wuerde ich nichtmal meinen Kollegen zeigen, so peinlich waehre mir das.

Skysnake
2013-03-30, 13:19:25
Ich seh jetzt nichts in der Luft rumhängen :confused:

Atma
2013-03-30, 13:22:07
Bei der Folie ist klar auch Marketing dabei, doch dass ein aktuelles 7 Milliarden Transistoren Monster schneller als PS4 & Co. ist, dürfte sicher nicht zu hoch gegriffen sein. Warum jetzt wieder gegen NV gehatet wird, ist mir ehrlich gesagt unverständlich.

DinosaurusRex
2013-03-30, 13:34:58
Das ist mit grossem Abstand die schlechteste Demo der ganzen Praesentation.
Partikel die in der Luft haengen bleiben, das wuerde ich nichtmal meinen Kollegen zeigen, so peinlich waehre mir das.

Es kommt aber auch immer auf den Kontext an.

Diese Demo richtet sich offensichtlich nicht an Fachleute, sondern an ein Laienpublikum und in so einem Fall ist Effekthascherei (viel blaue Teile = PS4 ganz viel toll) dann auch das Mittel der Wahl. Diese Shows werden eben nicht von Ingenieuren und Programmierern produziert, sondern zum großen Teil von Schreibtischtätern aus der Werbebranche.

Ich denke all jene, die sich wirklich intensiv mit der Computing Leistung der PS4 auseinandersetzen müssen und wollen, machen das sachgerecht und nicht in dem sie sich einen 20 Sekunden Clip anschauen.

dildo4u
2013-03-30, 13:44:08
Neues Interview mit Cerney zum PS4 SOC/API's


Cerney: The GPGPU for us is a feature that is of utmost importance. For that purpose, we’ve customized the existing technologies in many ways.

Just as an example…when the CPU and GPU exchange information in a generic PC, the CPU inputs information, and the GPU needs to read the information and clear the cache, initially. When returning the results, the GPU needs to clear the cache, then return the result to the CPU. We’ve created a cache bypass. The GPU can return the result using this bypass directly. By using this design, we can send data directly from the main memory to the GPU shader core. Essentially, we can bypass the GPU L1 and L2 cache. Of course, this isn’t just for data read, but also for write. Because of this, we have an extremely high bandwidth of 10GB/sec.

Also, we’ve also added a little tag to the L2 cache. We call this the VOLATILE tag. We are able to control data in the cache based on whether the data is marked with VOLATILE or not. If this tag is used, this data can be written directly to the memory. As a result, the entirety of the cache can be used efficiently for graphics processing.

This function allows for harmonization of graphics processing and computing, and allows for efficient function of both. Essentially “Harmony” in Japanese. We’re trying to replicate the SPU Runtime System (SPURS) of the PS3 by heavily customizing the cache and bus. SPURS is designed to virtualize and independently manage SPU resources. For the PS4 hardware, the GPU can also be used in an analogous manner as x86-64 to use resources at various levels. This idea has 8 pipes and each pipe(?) has 8 computation queues. Each queue can execute things such as physics computation middle ware, and other prioprietarily designed workflows. This, while simultaneously handling graphics processing.

This type of functionality isn’t used widely in the launch titles. However, I expect this to be used widely in many games throughout the life of the console and see this becoming an extremely important feature.

Cerney: In the next few years, we’ll also be supporting a different approach

We have our own shader APIs, but in the future, we’ll provide functions which will allow deeper access to the hardware level and it will be possible to directly control hardware using the shader APIs. As a mid-term target, in addition to common PC APIs such as OpenGL and DirectX, we’ll provide full access to our hardware.

Regarding the CPU, we can use well known hardware, and regarding the GPU, as developers devote time to it, new possibilities which weren’t possible before will open up.

The properties of CPU and GPU are quite difference, so in the current stage, if you were to use an unified architecture such as HSA, it will be difficult to efficiently use the CPU and GPU. However, once the CPU and GPU are able to use the same APIs, development efficiency should increase exponentially. This will be rather huge. Thus, we expect to see this as somewhat of a long-term goal.



http://www.neogaf.com/forum/showthread.php?t=532077

Später soll der Zugriff noch direkter werden dadurch wollen sie wohl wie bei der PS3 größere Steigerungen im späteren Verlauf erzeugen.

Coda
2013-03-30, 13:47:18
Wenn wir von 100MB/s ausgehen, dann sind das 60s gesamt Ladezeit, wobei man sicherlich nach 1GB bereits anfangen kann mit Spielen.
Genau, denn man hat keinerlei Seek-Times, die Ladezeit besteht aus reinem I/O und das < in meinem Post ignoriert man schön. Träum weiter.

2-3 Minuten sind realistisch. Und mit 60s würdest du nichtmal für die Xbox 360 die Zertifizierung kommen.

Telema
2013-03-30, 14:17:28
Neues Interview mit Cerney zum PS4 SOC/API's



http://www.neogaf.com/forum/showthread.php?t=532077

Später soll der Zugriff noch direkter werden dadurch wollen sie wohl wie bei der PS3 größere Steigerungen im späteren Verlauf erzeugen.

Also darauf bin ich echt gespannt, wenn die Entwickler anfangen die HW direkt ansprechen. Wird zwar auch nur Sony machen...aber wenn man sieht was die aus der PS3 rausholen mit all ihren Problemen und Flaschenhälsen

Coda
2013-03-30, 14:20:59
Also darauf bin ich echt gespannt, wenn die Entwickler anfangen die HW direkt ansprechen. Wird zwar auch nur Sony machen...aber wenn man sieht was die aus der PS3 rausholen mit all ihren Problemen und Flaschenhälsen
Das war schon auf Playstation 1-3 nicht anders. Keine Neuigkeiten, bitte gehen sie weiter.

dargo
2013-03-30, 14:37:35
Ich frage mich was wieder der Vergleich zu Konsolen von Nvidia soll, sie kommen mir wie ein beleidiges Kind vor, weil kein einziger Konsolenhersteller ihnen den Zuschlag gab, ausser Tegra3+ für Ouya.

Ehrlich gesagt macht dieses Geplänkel für mich Nvidia unattaktriver als sie schon sind.
Vielleicht wollen sie sie nur noch Hardware für Konsolenhasser herstellen, keine Ahnung was sie mit diesem kindischen Getue provozieren wollen.
Du interpretierst da viel mehr hinein als es der Fall ist. Was glaubst du was los ist wenn Sony die Werbetrommel losläßt von wegen wieviel besser die sind als Microsoft oder sogar Nintendo. ;)


Später soll der Zugriff noch direkter werden dadurch wollen sie wohl wie bei der PS3 größere Steigerungen im späteren Verlauf erzeugen.
Also nichts Neues. :D

Ich stelle mir das gerade auf dem Desktop vor. Das liest sich so als wenn ich jetzt eine Grafikkarte kaufe aber erst in paar Jahren den "Hornytreiber" dafür bekomme. :biggrin:

Coda
2013-03-30, 14:50:22
Ich stelle mir das gerade auf dem Desktop vor. Das liest sich so als wenn ich jetzt eine Grafikkarte kaufe aber erst in paar Jahren den "Hornytreiber" dafür bekomme. :biggrin:
Das ist auch tatsächlich so. Teste mal eine GTX 480 mit den Launch-Treibern.

Skysnake
2013-03-30, 14:54:03
Genau, denn man hat keinerlei Seek-Times, die Ladezeit besteht aus reinem I/O und das < in meinem Post ignoriert man schön. Träum weiter.

2-3 Minuten sind realistisch. Und mit 60s würdest du nichtmal für die Xbox 360 die Zertifizierung kommen.
Und das mit dem 1GB und somit ~10sec für den reinen Datentransfer überlesen wir mal :tongue:

Mir ist auch klar, das es deutlich mehr als 10sec sind, weil man ja erstmal einiges entpacken analysieren usw usw muss, aber man kann ja auch den Kanzen introbildschirm usw nutzen, um fleisig Daten rauf zu hauen, und wenn man eben nen kleines Mark mit LRU macht, für ~1GB, oder was man eben braucht, dann ist das kein Problem.

Du weißt doch ganz genau, wo man überall tricksen kann, um Daten rüber zu schaufeln, ohne das es der User merkt. Schönes elendiges Intro, dann noch ne kleine Verzögerung beim laden/bestätigen des Menüs und dann nen kleiner Ladebalken beim eigentlichen Starten des Savegames. Und schon haste ~1 Minute zusammen, ohne das es den Nutzer massiv stört.

del_4901
2013-03-30, 14:54:36
Ich seh jetzt nichts in der Luft rumhängen :confused:
Nimm mal die Verblendungsbrille ab, die verzerrt nur die Wahrnehmung. Ein paar der Partikel bleiben einfach haengen, und einige davon sogar mitten in der Luft.

Coda
2013-03-30, 14:56:10
Und das mit dem 1GB und somit ~10sec für den reinen Datentransfer überlesen wir mal :tongue:

Mir ist auch klar, das es deutlich mehr als 10sec sind, weil man ja erstmal einiges entpacken analysieren usw usw muss, aber man kann ja auch den Kanzen introbildschirm usw nutzen, um fleisig Daten rauf zu hauen, und wenn man eben nen kleines Mark mit LRU macht, für ~1GB, oder was man eben braucht, dann ist das kein Problem.

Du weißt doch ganz genau, wo man überall tricksen kann, um Daten rüber zu schaufeln, ohne das es der User merkt. Schönes elendiges Intro, dann noch ne kleine Verzögerung beim laden/bestätigen des Menüs und dann nen kleiner Ladebalken beim eigentlichen Starten des Savegames. Und schon haste ~1 Minute zusammen, ohne das es den Nutzer massiv stört.
Du irrst dich. Gewaltig.

Hab keine Lust mit dir da jetzt weiterzudiskutieren. Entweder du nimmst meine Erfahrung und Einschätzung aus reeller Produktion an oder du lässt es bleiben. Mir hängen diese Kindereien mit dir echt zum Hals raus.

Skysnake
2013-03-30, 14:57:15
Dann zeig doch mal bitte nen Screen, wo du genau meinst, ich hab jetzt wirklich keine gesehen.

Deswegen frag ich ja, manchmal sieht man ja den Wald vor lauter Bäumen nicht.

Keine Ahnung was das mit "Verblendungsbrille" zu tun hat....

del_4901
2013-03-30, 15:04:22
Hier sieht man es besser: https://www.youtube.com/watch?v=zPnwmsTokso
Da hat wieder einer nicht gewusst was NaNs und Denorms sind.

Finch
2013-03-30, 15:05:41
Dann zeig doch mal bitte nen Screen, wo du genau meinst, ich hab jetzt wirklich keine gesehen.

Deswegen frag ich ja, manchmal sieht man ja den Wald vor lauter Bäumen nicht.

Keine Ahnung was das mit "Verblendungsbrille" zu tun hat....

Ich habe ein wenig gebraucht um was zu finden. In der dritten Einstellung hängen ein paar "Partikel" an der Wand, in der Mitte des Bildes, über dem Eisengitter.

Hab gerade nur mein 8" iPad zur Hand und kann deswegen nicht genauer nachschauen.

dargo
2013-03-30, 17:16:44
Das ist auch tatsächlich so. Teste mal eine GTX 480 mit den Launch-Treibern.
Schon klar, dass es hier und da kleine Verbesserungen gibt (wenn in einem Spiel X nicht gerade ein riesen Patzer passiert ist). Bei dildo liest sich das so als wenn da gleich Faktor 2-3 bei rumkommen würde, bei der PS4. Oder ich habs falsch interpretiert.

Locuza
2013-03-30, 17:27:37
Schon klar, dass es hier und da kleine Verbesserungen gibt (wenn in einem Spiel X nicht gerade ein riesen Patzer passiert ist). Bei dildo liest sich das so als wenn da gleich Faktor 2-3 bei rumkommen würde, bei der PS4. Oder ich habs falsch interpretiert.
Sollte doch auch so sein.
Eine Konsole im Laufe ihres Lebens sollte Faktor 2 mehr Leistung bei gleicher Hardware aufbringen können, als ein normaler PC.
Wobei die PS4 ja auch ihre speziellen Implementierungen hat.
Sagen wir mal einfach HSA und ein spezieller FCL, auch wenn das vielleicht im Detail falsch ist.

Coda
2013-03-30, 18:22:13
Schon klar, dass es hier und da kleine Verbesserungen gibt (wenn in einem Spiel X nicht gerade ein riesen Patzer passiert ist). Bei dildo liest sich das so als wenn da gleich Faktor 2-3 bei rumkommen würde, bei der PS4. Oder ich habs falsch interpretiert.
Der Faktor ist wohl geringer, ja.

Locuza
2013-03-30, 18:49:19
Coda erwartest du eig. Umsetzungsprobleme von PS4 Spielen auf den PC?
Was eben die Feinheiten angeht, wie gemeinsamer Adressraum, GPGPU usw.?

Coda
2013-03-30, 18:51:45
Nach der PS3 kann es nur aufwärts gehen ;)

mironicus
2013-03-30, 18:53:31
Wenn man die eingebaute GPU auch mit in diesen Faktor einbezieht, sollte die PS4 theoretisch stärker sein als ein Quadcore-PC mit einer Radeon 7970.

Knuddelbearli
2013-03-30, 19:19:02
Nach der PS3 kann es nur aufwärts gehen ;)


naja alles was es auf der ps3 gab und auf den px geportet wurde gabs auch auf Xbox, dein Satz hinkt also ^^

dargo
2013-03-30, 19:22:21
Nach der PS3 kann es nur aufwärts gehen ;)
Puh... dann bin ich schon mal erleichtert. Also bleiben uns miese Ports von Anfang an erspart. =)

Naitsabes
2013-03-30, 20:50:30
wenn es nicht so aufwendig ist, dann erreicht man mit weniger Kapital das bisher als ausreichend geltende :-P

Deinorius
2013-03-30, 21:33:46
Puh... dann bin ich schon mal erleichtert. Also bleiben uns miese Ports von Anfang an erspart. =)


Der Gewinn muss maximiert werden, also solltest du dich nicht zu sehr vorfreuen.
Schlimmer gehts immer. Die Entwicklungskosten als Ganzes steigen so oder so. Da kann das Portierungsbudget leicht davon aufgefressen werden. :(

Das musst du Coda fragen und nicht mich.


Wenn er denn mal drauf eingehen würde... :rolleyes:

Skysnake
2013-03-31, 00:02:17
Der Gewinn muss maximiert werden, also solltest du dich nicht zu sehr vorfreuen.

Das auf jeden Fall.

Schlimmer gehts immer. Die Entwicklungskosten als Ganzes steigen so oder so. Da kann das Portierungsbudget leicht davon aufgefressen werden. :(

Naja, das wird sich noch zeigen müssen, inwieweit die Entwicklungskosten steigen. Das sie steigen werden denke ich auch, aber ich hoffe/denke nicht so stark, wie man meinen könnte. Durch die Digitalisierung von realen Objekten/Personen kann man schon einiges Rationalisieren. Vor allem wenn sich das mal eingespielt hat, und die Tools wirklich gereift sind, kann man hoffentlich so manches automatisieren.

Aktuell siehts ja bzgl Engines auch ganz gut aus. So mancher Entwickler zeigt sehr vielversprechende Ansätze. Das lässt auf eine große Konkurrenz zwischen den Herstellern von Engines hoffen.

@Havok-Video:
Also ich seh vor allem Probleme mit den Seilen, wo die Kollisionsabfrage wohl etwas zu grob ausgefallen ist, aber so wirklich massive Fehler, von wegen mitten in der Luft hängen, seh ich noch immer keine. Das Dach hinter den Seilen sieht aber wirklich komisch aus. Da sieht es so aus, als ob die Partikel zu nah wären, aber wirklich sicher kann man das mit der eingeschränkten Perspektive finde ich nicht sagen.

@Coda:
Heute mit dem falschen Fuß aufgestanden?
Ich hoffe du bestreitest nicht, das man mit mehr RAM sich manche Sachen einfach einfacher machen kann, und eben auch mal etwas "schlampiger" arbeiten kann. Für was soll ich mir nen riesen Kopf drum machen, wieviel Speicher ich verbrauch, wenn ich den eh nie ausgelastet bekomme?
Sorry, ich versteh dich da wirklich nicht. Ist ja nicht so, das man gezwungen wird, das aufs verrecken dann auch aus zu nutzen. Wenn man dich aber so hört, könnte man gerade meinen, dass das dann erwartet wird.

Deinorius
2013-03-31, 01:12:36
Naja, das wird sich noch zeigen müssen, inwieweit die Entwicklungskosten steigen. Das sie steigen werden denke ich auch, aber ich hoffe/denke nicht so stark, wie man meinen könnte. Durch die Digitalisierung von realen Objekten/Personen kann man schon einiges Rationalisieren. Vor allem wenn sich das mal eingespielt hat, und die Tools wirklich gereift sind, kann man hoffentlich so manches automatisieren.


Darauf hoffe ich selber sehr. Z.B. für diverse Geh-/Laufanimationen dürfte es doch nicht nötig sein, ständig neue Aufnahmen zu machen. Da müssten ein paar Dutzend ausreichen. ;)

Skysnake
2013-03-31, 03:07:26
Würde ich jetzt nicht zwingend bejahen. Je nachdem kann sich das schon unterscheiden, vor allem gibts da ja auch sehr viele Variationen. Leute mit Protesen, Leute mit einem verkürztem Bein, der 100m Sprinter oder der 400kg Mensch :ugly:

Am Ende ist es aber auch gar kein problem, wenn man das jeweils neu macht, wenn eben die Aufarbeitung der Daten "nur" Rechenzeit braucht, aber nicht wirklich Manpower, außer für die Aufnahmen an sich. Richtig teuer wirds ja, wenn sich jemand hin setzt, und anfängt dran rum zu fummeln, damits brauchbar aussieht. Da gehen einfach so schnell so unglaublich viele Stunden drauf :(

Wenn man sich die Aufnahmen in dieser Lichtkuppel anschaut, dann dauert so ne Aufnahme ja nur einige Sekunden bis Minuten. Der Aufbau ist halt aufwändig, aber wenn man da dann mal an einem oder zwei Tagen, 20 oder 30 Leute durchjagt, dann sollte sich der Aufwand auch reduzieren lassen. Der Knackpunkt ist halt echt "nur", wieviel Handarbeit nötig ist.

MartinB
2013-03-31, 13:06:06
Motion Capture Aufnahmen sind aber keineswegs direkt für Spiele geeignet. Diese Aufnahmen müssen erst mühsam nachbearbeitet werden.

Skysnake
2013-03-31, 13:08:43
Das ist ja der springende Punkt ;)

Wenn man so was in dem Ausmaß einsetzen will, wie es derzeit den Anschein hat, dann muss/sollten sich die Tools eben auch weiterentwickeln, und vieles automatisch machen. Wenn nen PC eine Woche dran rechnet, dann ist das noch immer viel viel viel billiger, als wenn nen Design-Artist da nen paar Stunden dran rum macht.

Coda
2013-03-31, 17:40:50
Puh... dann bin ich schon mal erleichtert. Also bleiben uns miese Ports von Anfang an erspart. =)
Das hab ich nicht gesagt.

Iruwen
2013-03-31, 19:42:03
Nein. Filme sind schädlicher, gerade weil Du nichts gegen die Morde und Folterungen tun kannst.

Nicht auf Prof. Pfeiffer und seinen Bruder im Geiste, Manfred Spitzer, hören, wenn es um die angeblich schädlichen Auswirkungen von Computerspielen geht. :wink:

Ist das auch irgendwie mit belastbaren Studien belegbar? Wäre ja schön wenn es so wäre.

dargo
2013-03-31, 19:44:55
Das hab ich nicht gesagt.
Ätsch... na dann bleibt es spannend.

Hallo
2013-04-01, 13:22:56
Bei der Folie ist klar auch Marketing dabei, doch dass ein aktuelles 7 Milliarden Transistoren Monster schneller als PS4 & Co. ist, dürfte sicher nicht zu hoch gegriffen sein. Warum jetzt wieder gegen NV gehatet wird, ist mir ehrlich gesagt unverständlich.

Bei der Folie ist reine Phantasie dabei. Abgesehen von der theoritischen, auch mit Sicherheit einigermassen korrekten, Rechengeschwindigkeit, lässt NV auch gerne aussenvor das die hier eine 1000 Euro Graka mit einem 400-500 Euro Komplettsystem vergleichen. Dazu kommt das man eine Konsole selbstverstänlich low level handlen kann;) Davon ab, wieviel kommen denn in den Genuss ihrer (NVs) Monsterkarte?

NV ist beleidigt weil sie den Hals nicht vollbekommen haben, nun hamse nix mehr und AMD freut sich über potentiell mehr als weit über 100 Mio in Zukunft verkauften GPUs wenn man alle drei Konsolen zusammenrechnet.

Trotzdem das AMD finaziell schlechter dasteht als NV rechnets sich wohl doch, sehr unkluger Zug von NV. Und ich habe schon immer NV GPUs den ATI/AMDs vorgezogen (auf PC, bei Konsole ists mir egal) . Bin also kein NV Basher/Hater.

Das alles sollte natürlich kein Grund sein NV zu haten, aaaber hat nicht NV mit Haten angefangen und dann glauben die doch nicht etwa das Konolenjünger das auch noch sympathisch finden? Und ne Tesla für den Preis macht die auch nicht freundlicher...

Atma
2013-04-01, 13:32:59
Bei der Folie ist reine Phantasie dabei. Abgesehen von der theoritischen, auch mit Sicherheit einigermassen korrekten, Rechengeschwindigkeit, lässt NV auch gerne aussenvor das die hier eine 1000 Euro Graka mit einem 400-500 Euro Komplettsystem vergleichen.
Nichts anderes hab ich geschrieben ... 7 Milliarden Transistoren Monster vs. kleiner Konsole.

NV ist beleidigt weil sie den Hals nicht vollbekommen haben, nun hamse nix mehr und AMD freut sich über potentiel mehr als weit über 100 Mio in Zukunft verkauften GPUs wenn man alle drei Konsolen zusammenrechnet.
Natürlich :rolleyes:. Wenn man sich das zusammenspinnt, behauptet man so was natürlich auch. Man könnte es jedoch auch mal realistisch sehen und der Aussage von NV Glauben schenken, dass sich der Deal nicht gelohnt hätte. Nach zwei Konsolengenerationen wird NV beurteilen können, ob es sich rechnet. Außerdem wurde schon weit vor der Präsentation der PS4 von mehreren Seiten gesagt, dass die kommenden Konsolen bereits zum Release dem PC hinterherhinken werden. Nun zeigt NV eine Folie die das noch mal verdeutlicht und schon werden sie hingestellt, als würden sie den Hals nicht vollkriegen und das eingeschnappte kleine Kind spielen, dem man sein Loli weggenommen hat. Einfach nur verblendetes gehate, mehr ist das nicht.

Hallo
2013-04-01, 13:40:06
Für AMD lohnt es sich wohl doch? Und AMD/ATI hat auch schon beim GameCube sowie der 360 die GPUs geliefert und Erfahrung gesammelt. AMD hat sich einfach mit "weniger" "Hals voll" zufriedengegeben;) Mit Hals voll meine ich einfach das die Gewinnmarge für NV offensichtlich nicht hoch genug wäre, sagen sie doch selbst. Bescheidenheit ist anders, meinste nicht?

Edit: Ok ich habe die SoC Geschichte und die damit vrbundenen Vorteile vergessen...

Und wenn es sich angeblich garnicht gelohnt hat, wieso die Querschüsse gegen die neuen Konsolen? Getroffene Hunde bellen nunmal. Wie gesagt bin kein NV Hasser, in meinen PC kommt nix anderes rein. Aber so wie die sich grad aufführen, ich bitte dich:freak:

Edit: Nochmal die Folie ist lächerlich, dann können die gleich nen Supercoputer antreten lassen und sagen wie toll schneller der ist.

1000 Euro GK gegen 4-500 Euro Komplettsystem low level programmierbar. Da hinkt doch der Vergleich gewaltig;)

schreiber
2013-04-01, 13:49:13
Ändert nichts daran, dass der Abstand bei der vorigen Konsolengeneration nicht so groß war und die verbaute GPU fast High End war. Jetzt ist das Ding schon bei Release veraltet und kommt nicht mal an eine midrange Karte(bezogen auf Tansistorcount und Größe) wie die 680er ran.
Aber bei Grafik sehe ich das kleinste Problem der Konsolen. Die gewachsene Konkurrenz sollte Kopfschmerzen machen. Smartphones, Tablets, Notebooks, CPUs mit guten integrierten Grafiklösungen usw.
Da darf man gespannt sein, wie sich der Zockermarkt in Zukunft aufteilt.

Atma
2013-04-01, 13:51:16
Für AMD lohnt es sich wohl doch? Und AMD/ATI hat auch schon beim GameCube sowie der 360 die GPUs geliefert und Erfahrung gesammelt. AMD hat sich einfach mit "weniger" "Hals voll" zufriedengegeben;) Mit Hals voll meine ich einfach das die Gewinnmarge für NV offensichtlich nicht hoch genug wäre, sagen sie doch selbst. Bescheidenheit ist anders, meinste nicht?

Und wenn es sich angeblich garnicht gelohnt hat, wieso die Querschüsse gegen die neuen Konsolen? Getroffene Hunde bellen nunmal. Wie gesagt bin kein NV Hasser, in meinen PC kommt nix anderes rein. Aber so wie die sich grad aufführen, ich bitte dich:freak:

Edit: Nochmal die Folie ist lächerlich, dann können die gleich nen Supercoputer antreten lassen und sagen wie toll schneller der ist.

1000 Euro GK gegen 4-500 Euro Komplettsystem low level programmierbar. Da hinkt doch der Vergleich gewaltig;)
Nvidia ist nun mal in der Position entscheiden zu können, ob sich ein Deal lohnt oder nicht. Schon mal die Zahlen von AMD von Q4 2012 (http://www.computerbase.de/news/2013-01/amd-mit-32-prozent-weniger-umsatz-und-473-mio.-verlust/) gesehen? Für AMD geht es ums nackte Überleben. Da ist es logisch, dass sie nach jedem Halm greifen, den sie zu fassen kriegen. Das hat absolut nichts mit getroffenen Hunden zu tun.

NV steht auch ohne Konsolen sehr gut da.

Hallo
2013-04-01, 13:55:57
@schreiber
Ich hoffe du meinst mit PC High End nicht die astronomische "Vaporware" Tesla? Wie der Vergleich zur 680 ist weiss ich nicht, kann sein das die um einiges schneller ist. Aber bedenke die Konsolenhersteller wollen Gewinn machen und Sony hat bestimmt nicht vor wieder mit einer 600 Euro Kiste anzutreten um dann jahrelang kräftig draufzuzahlen.

Ich finde Sonys Konzept endlich wieder Coregamermässig geil. Dazu gehört weit mehr als nur eine schnelle GPU. Natürlich hätte ich mir auch über mind. eine 680 gefreut, keine Frage, und ich würde das auch bezahlen, aber dazu sind viele einfach nicht bereit.

Im Arcadebereich ist man schon vor vielen Jahren den Weg gegangen nicht mehr mit unbezahlbarem proprietären High End anzutreten sondern billige PC Bauweise aber mit für die Aufsteller sehr intelligenten Konzepten und klassischer Optimierung. Und siehe da die Taito TypeX2 HW erfreut sich grösster Beliebtheit unter den Arcadeherstellern. Da laufen die Games wenigstens alle mit gelockten 60fps.


NV steht auch ohne Konsolen sehr gut da.
Das hört sich aber gerade nicht so an seitens NV, zumindest wären sie auch gerne mit von der Partie gewesen, halt nach ihren Vorstellungen welche zu deren Leidwesen nicht die Vortellungen der Konsolenhersteller war. Sony steht im übrigen als ganzes Unternehmen auch nicht gerade finanziell gut da und kann es sich sehr wohl erlauben NVs "helfende" Hand auszuschlagen, die müssen das sogar. Das bessere Angebot gewinnt-Marktwirtschaft.

Wie dem auch sei, die Würfel sind gefallen. Allen noch einen entspannten Ostermontag:)

Knuddelbearli
2013-04-01, 13:59:04
Ändert nichts daran, dass der Abstand bei der vorigen Konsolengeneration nicht so groß war und die verbaute GPU fast High End war. Jetzt ist das Ding schon bei Release veraltet und kommt nicht mal an eine midrange Karte(bezogen auf Tansistorcount und Größe) wie die 680er ran.
Aber bei Grafik sehe ich das kleinste Problem der Konsolen. Die gewachsene Konkurrenz sollte Kopfschmerzen machen. Smartphones, Tablets, Notebooks, CPUs mit guten integrierten Grafiklösungen usw.
Da darf man gespannt sein, wie sich der Zockermarkt in Zukunft aufteilt.

damals haben gpus aber auch maximal 100-150W verbraucht ^^

und waren ca 200-300mm ² groß

außerdem waren damals die kostend er kosnolen eher 700-800€ diesesmal sind es aber 400-500€ da sie nicht mehr mit großem verlust verkaufen wollen

Windi
2013-04-01, 14:02:36
AMD hat sich die Konsolen-Deals an Land gezogen, weil sie eine SoC-Lösung liefern konnten. Bei einem SoC können CPU und GPU besser zusammen arbeiten und ist damit etwas schneller. Außerdem ist ein SoC langfristig billiger für eine Konsole.

Hätte sich NV die Deals holen wollen, hätten sie zum einen eine 2Chip Lösung anbieten können (GPU von NV, CPU von jemand anderem). Die erhöhten Fertigungskosten im Vergleich zu einem SoC hätten sie aber gleich wieder von ihrem Gewinn abziehen können.
Oder sie hätten selbst an einem SoC arbeiten können. Dafür hätten sie selbst einen Prozessor auf ARM-Basis entwickeln müssen, der mit einem X86-Prozessor mithalten kann. Das hätte natürlich unglaubliche Summen gekostet und auch keinen Erfolg garantiert, da sich NV in dem Bereich noch nicht so gut auskennt.

Atma
2013-04-01, 14:05:26
@schreiberDas hört sich aber gerade nicht so an seitens NV, zumindest wären sie auch gerne mit von der Partie gewesen, halt nach ihren Vorstellungen welche zu deren Leidwesen nicht die Vortellungen der Konsolenhersteller war.
Wie oft denn noch? Es wurde weit vor der Präsentation der PS4 gesagt, dass die neuen Konsolen dem PC bereits zum Release hinterherhinken werden. NV nun als schlechte Verlierer hinzustellen ist totaler Blödsinn.

Wie man in eine einzige Folie so viel hineininterpretieren kann, ist mir einfach nur schleierhaft.

Hallo
2013-04-01, 14:23:00
Ok ich lass mich nomml hinreissen. Tesla gegen PS4 zu vergleichen und das allgemeine gebashe seitens NV gegen die PS4 soll ich wie verstehen? Bitte hilf mir.

Und ja ne Tesla oder meinetwegen eine 680 ist schneller das habe ich nie bestritten. Aber wie um Himmelswillen soll Sony das in 400 Euro verpacken? Da sieht man wieviel Ahnung NV von Konsolen hat. Ausserdem kann ich mir gut vorstellen das MS z.B. seit dem XBox1 Debakel wenig Lust auf NVs Forderungen hat/hätte;) Die sind schon mit der 360 gut gefahren mit AMD.

Und das was Windi angesprochen hat von wegen SoC ist auch ein sehr sehr wichtiger Aspekt. Ich habe sicherlich keine Lust mehr auf ne röhrende Konsole wie anfangs die 360. Eine Konsole muss leise, klein und vor allem bezahlbar sein. Das NV da nicht ins Schema passt ist bestimmt nicht meine Schuld, so what.

Konsolen sind nunmal keine PCs. Sollen sie auch nicht, denn dafür gibts ja PCs um sich High End mässig auszutoben:wink:

Und glaub mir der Sprung von current gen auf next gen wird spürbar genug sein, das muss nunmal reichen. Du siehst das viel zu sehr vom Standpunkt eines PC Gamers. ich könnte jetzt auch anfangen wie "scheisse" PC ist weil es nicht möglich ist für alle User die gleiche Performance zu erhalten, von kontanten 60fps ganz zu schweigen. Wäre aber Blödsinn weil einfach zwei verschiedene Welten.

Windi
2013-04-01, 14:34:08
@Hallo
Das NV solche Marketing-Folien veröffentlicht ist doch ganz normal.
Das haben die schon immer gemacht und natürlich ist deren Produkt dabei das Schnellste. (ist schließlich Marketing)

Interessant ist doch eher, wie hoch sie die Leistung der Xbox720 im Vergleich zur PS4 einschätzen. Wenn ich das mit dem logarithmischen Maßstab richtig ablese, dann erwartet NV das die Xbox720 halb so schnell wie die PS4 sein wird.
(Keine Ahnung wie NV zu dieser Einschätzung kommt oder ob diese nun richtig ist)

Exxtreme
2013-04-01, 14:34:32
Ändert nichts daran, dass der Abstand bei der vorigen Konsolengeneration nicht so groß war und die verbaute GPU fast High End war. Jetzt ist das Ding schon bei Release veraltet und kommt nicht mal an eine midrange Karte(bezogen auf Tansistorcount und Größe) wie die 680er ran.


Ja, mit dem Unterschied, dass die letzte Konsolengeneration nicht profitabel zu produzieren war. Und als ich die Zahlen gesehen habe, dass MS und Sony Milliardenabschreibungen machen mussten da war es mir klar, dass das die letzten hochgezüchteten Konsolen sein werden. Und ich behielt recht.

Blediator16
2013-04-01, 14:37:46
Wenn NV sagt denen sind die Konsolendeals scheissegal, weils eh nichts zu gewinnen gibt, dann müssten sie bei Tegra mehr ranklotzen und ihre T3s nicht verramschen, weil sie nur durch billigheimer Chips den Nexus deal bekommen und nun verloren haben, weil billig nicht mehr zieht.

Hallo
2013-04-01, 14:42:52
@windi

Klar sind Folien immer Marketing und das machen alle Hersteller so. Nur was soll die PS4 in dieser Folie, was wollen die einem damit sagen;) Seit wann vergleicht man High End GKs mit Konsolen?

720 und PS4 allerdings wird ein sehr interessanter und vor allem berechtigter Vergleich, da stimme ich dir vollstens zu. Bin auch sehr gespannt obwohl ich mich schon entschieden habe. Diesmal wird Sony mein Favorit. Mir ist egal welcher Hersteller, Hauptsache er befriedigt meine Bedürfnisse. Auch wenn ich mir bei der current beide Konsolen gekauft habe (sowie die letzten 25 Jahre auch) scheint mir MS diesmal sehr schlecht dazustehen. Und damit meine ich nicht unbedingt die Technik. DRM und Kinect Zwang find ich nicht so prickelnd.

Ich hoffe schwer das Sony einen nicht ständig filmen will, sonst haben die bei mir auch verloren. Wie soll ich denn dann noch nackisch zocken können,haha!

Edit: Ich gönne AMD das sie endlich mal wieder auf die Beine kommen denn das holt NV von ihrem hohen Ross runter und der PC Consumer profitiert davon auch noch. NV hat einfach verschlafen und nicht mitbekommen das der Trend (ausser PC ?) nunmal in Richtung stromsparend bei gleichzeitig guter Performance geht. Die haben sich verrant und die Tesla ist der beste Beweis dafür.

Windi
2013-04-01, 14:44:37
Wenn NV sagt denen sind die Konsolendeals scheissegal, weils eh nichts zu gewinnen gibt, dann müssten sie bei Tegra mehr ranklotzen und ihre T3s nicht verramschen, weil sie nur durch billigheimer Chips den Nexus deal bekommen und nun verloren haben, weil billig nicht mehr zieht.
Was soll NV denn machen?
Gegen Giganten wie Qualcomm und Samsung haben sie genau solche Chancen, wie VIA gegen Intel und AMD hat.


Seit wann vergleicht man High End GKs mit Konsolen?
Seit dem es Marketing gibt?! In der Werbung waren die Leute schon immer sehr kreativ und Sinn hat es häufig auch nicht gemacht.

DinosaurusRex
2013-04-01, 15:02:57
Ja, mit dem Unterschied, dass die letzte Konsolengeneration nicht profitabel zu produzieren war. Und als ich die Zahlen gesehen habe, dass MS und Sony Milliardenabschreibungen machen mussten da war es mir klar, dass das die letzten hochgezüchteten Konsolen sein werden. Und ich behielt recht.

Ich denke das ist ein Trugschluss.

Im Falle der PS3 sollte man deutlich hervorheben, dass das BluRay Laufwerk für den größten Teil der Kosten verantwortlich war und das hatte überhaupt gar keinen Einfluss auf die Rechenleistung der Konsole. Die Cell BE und der XDR-RAM waren ebenfalls extrem teuer und heute wissen wird, dass es totale Fehlinvestitionen gewesen sind. Die Konsole wurde dadurch nicht wirklich konkurrenzfähiger. Der Nvidia RSX war für eine GPU aus dem Jahr 2006 und vor allem im Vergleich zum ATi Xenos auch ein ziemlicher Flop.

Ich sehe das ganz anders als du. Die hohen Kosten für die PS3 sind aufgrund der vielen Fehlentscheidungen und dem katastrophalen Missmanagment von Sony Computer Entertainment entstanden und nicht aufgrund der hohen Leistungsfähigkeit der Konsole. Die PS3 war ein Blender. Ich sehe daher sehr gute Chancen, dass die PS4 trotz der viel niedrigeren Produktionskosten leistungsfähiger sein wird, als es die sehr teuer zu produzierende PS3 zu ihrer Zeit war.

Hallo
2013-04-01, 15:07:20
@windi
Haha, stimmt und schön formuliert. Hoffe NV kann sich von ihrem "Marketing" nen Keks kaufen;D

@DinosaurusRex
Jupp das sehe ich genauso. PS3 war damals schon Müll, wenn ich das mal so sagen darf. Selbst Sony hat eingestanden das diese Konsole vorn und hinten nicht gepasst hat. Ihnen musste damals sogar kräftig in den Hintern getreten werden damit die in ihre laggy Pads die DualShock Funktion nachträglich einbauen, das war mal ne Farce.
Mit der PS4 zeigen die offensichtlich (?) das sie alles besser gemacht haben.

Aber man soll den Tag nicht vor dem Abend loben.

Exxtreme
2013-04-01, 16:02:12
Ich denke das ist ein Trugschluss.

Im Falle der PS3 sollte man deutlich hervorheben, dass das BluRay Laufwerk für den größten Teil der Kosten verantwortlich war und das hatte überhaupt gar keinen Einfluss auf die Rechenleistung der Konsole. Die Cell BE und der XDR-RAM waren ebenfalls extrem teuer und heute wissen wird, dass es totale Fehlinvestitionen gewesen sind. Die Konsole wurde dadurch nicht wirklich konkurrenzfähiger. Der Nvidia RSX war für eine GPU aus dem Jahr 2006 und vor allem im Vergleich zum ATi Xenos auch ein ziemlicher Flop.

Ich sehe das ganz anders als du. Die hohen Kosten für die PS3 sind aufgrund der vielen Fehlentscheidungen und dem katastrophalen Missmanagment von Sony Computer Entertainment entstanden und nicht aufgrund der hohen Leistungsfähigkeit der Konsole. Die PS3 war ein Blender. Ich sehe daher sehr gute Chancen, dass die PS4 trotz der viel niedrigeren Produktionskosten leistungsfähiger sein wird, als es die sehr teuer zu produzierende PS3 zu ihrer Zeit war.
Selbst ohne das BR-Laufwerk wäre Sony fett in die Miesen gerutscht. Das BR-Laufwerk alleine ist auch keine Erklärung dafür. Denn Microsoft hatte keins und musste über 7 Milliarden $ Miesen abschreiben. Alleine für den RROD gingen 2 Milliarden $ drauf. Von daher bleibe ich dabei, die Hardware an sich war grundsätzlich zu teuer und das BR-Laufwerk nur ein Kostenfaktor unter Vielen.

Deinorius
2013-04-01, 16:12:02
Ich hoffe schwer das Sony einen nicht ständig filmen will, sonst haben die bei mir auch verloren. Wie soll ich denn dann noch nackisch zocken können,haha!


Wenn die das wirklich tun würden, dann würden sie von der Öffentlichkeit und besonders von den Behörden so kräftig einen auf den Deckel kriegen, das kannst du dir gar nicht vorstellen. ;)

Ich denke das ist ein Trugschluss.

Im Falle der PS3 sollte man deutlich hervorheben, dass das BluRay Laufwerk für den größten Teil der Kosten verantwortlich war und das hatte überhaupt gar keinen Einfluss auf die Rechenleistung der Konsole. Die Cell BE und der XDR-RAM waren ebenfalls extrem teuer und heute wissen wird, dass es totale Fehlinvestitionen gewesen sind. Die Konsole wurde dadurch nicht wirklich konkurrenzfähiger. Der Nvidia RSX war für eine GPU aus dem Jahr 2006 und vor allem im Vergleich zum ATi Xenos auch ein ziemlicher Flop.


Das stimmt nur teilweise. Natürlich war das Blu-Ray Laufwerk ein Preistreiber, der schlimmste, aber nicht der einzige! Der Cell war auch nicht billig und der RSX war von nvidia, per se also schon teuer. :ugly:
Darüber hinaus vergisst du, dass die Xbox 360 auch für Sony sehr teuer kam und das lag nicht nur an den vielen RROD und der dadurch verlängerten Garantie.

Beschweren sollte man sich über das BD Laufwerk nicht, immerhin ist der große Platz vonnöten. Die Investitionen sind wieder drin und mittlerweile bietet jede Next-Gen Konsole mind. 25 GB Medien (ich zähle die Wii U auch mal dazu :P). Der Soc der PS4 ist bis zu 300 mm² (es würde mich wundern, wenn der größer wäre) groß, was im Vergleich zu jeweils rund 250 mm² für CPU und GPU in der PS3 um einiges kleiner ist!

Hallo
2013-04-01, 16:25:36
Naja MS will ja Kinect immer dranne haben. Und das die Kamera nicht bei Bedarf von denen ohne das Mitwissen des Users aktiviert werden kann glaubt aber auch nur ein Naivling. Ich traue denen keinen mm übern Weg wenns um sowas geht. Womöglich ist die sogar offiziell immer aktiv? Bzw. es wird dann immer ein Grund mit in den Games eingebaut sein um herumzufuchteln, die finden schon noch einen Weg;)

Das ist doch der feuchte Traum vom Billy: DRM, Onlinezwang und volle biometrische Erfassung des Gamers inkl. Spracherkennung. Fehlt noch der Fingerabdrucksensor und ne Analsonde, haha! 40-50 Mio. detailierte Profile hmmm, damit lässt sich einiges anfangen.

Nee, ohne mich Billy Boy :down:

Deinorius
2013-04-01, 16:52:48
Ohne Mitwissen des Users würde das irgendjemand herausfinden und der Shitstorm wird die nächste Apokalypse! ;)
Offiziell ist das unmöglich, wenn du nicht gleich annimmst, dass sie Millionen für Lobbyisten ausgeben, damit die entsprechenden Gesetze gerade in den EU-Staaten geändert werden. Wie stellst du dir das bitte vor? :confused:

prinz_valium
2013-04-01, 17:37:38
dann kleb die kamera halt ab, wobei ich sowas immer "lächerlich" finde, wenn ich leute mit laptops und abgeklebter webcam sehe. paranoia und so.

Demogod
2013-04-01, 17:40:54
Najo verstehen kann ichs schon. Vor allem wenn ich in Afghanistan in ner Höhle sitzen würde (per Satellitenuplink Netz) um dann heimlich CoD Alquaeda Ops Online zu zocken und dann kommt 2 Stunden später die Amerikanische Armee.. das wars dann mit heimlich. Und das nur wegen der Kamera-... äh da ist jetzt irgendwo nen logikfehler in meinen Sätzen aber kein Bock den rauszufischen ;D

fondness
2013-04-01, 17:49:47
AMD hat sich die Konsolen-Deals an Land gezogen, weil sie eine SoC-Lösung liefern konnten. Bei einem SoC können CPU und GPU besser zusammen arbeiten und ist damit etwas schneller. Außerdem ist ein SoC langfristig billiger für eine Konsole.

Hätte sich NV die Deals holen wollen, hätten sie zum einen eine 2Chip Lösung anbieten können (GPU von NV, CPU von jemand anderem). Die erhöhten Fertigungskosten im Vergleich zu einem SoC hätten sie aber gleich wieder von ihrem Gewinn abziehen können.
Oder sie hätten selbst an einem SoC arbeiten können. Dafür hätten sie selbst einen Prozessor auf ARM-Basis entwickeln müssen, der mit einem X86-Prozessor mithalten kann. Das hätte natürlich unglaubliche Summen gekostet und auch keinen Erfolg garantiert, da sich NV in dem Bereich noch nicht so gut auskennt.

This! Sony und MS wollten aus verständlichen Gründen einen SoC. AMD hatte sowohl GPU als auch CPU fertig in der Schublade liegen und musste diese nur noch in einem Design zusammen fügen. Das NV da preislich nicht mit halten kann sollte klar sein. Immerhin hätten sie eine CPU entwickeln müssen. Der ARM A15 ist nicht mal 64-bit fähig und zu langsam gegen AMDs Jaguar. NV hätte ihre custom ARM-Cores einfach früher fertig bekommen müssen wenn sie bei dieser Konsolengeneration mitmischen hätten wollen. Da das nicht so war, war es klar das sie keine Rolle spielen.

Die Vergleiche der GFLOPs des PS3-SoCs mit der Titan-GPU sind dabei mehr als lächerlich. Titan ist >500mm² groß nur für die GPU, des PS3 SoC insgesamt vielleicht 300mm². Aber gibt dem Titan-Teil mal CPU-Code zu fressen und schaue zu wie die Leistung ist. ;D

Hallo
2013-04-01, 20:01:26
dann kleb die kamera halt ab, wobei ich sowas immer "lächerlich" finde, wenn ich leute mit laptops und abgeklebter webcam sehe. paranoia und so.

Ich weiss nicht mehr genau in welchem Zusammenhang aber gab es neulich nicht den Aufschrei das bei Facebook o.ä. genau das passiert ist? Danach klebten alle ihre Kamera ab :freak:

Und mit abkleben ist nicht wenn bei der Initiation der Konsole der User erkannt werden muss.

@Deinorius
Und wie willste rausfinden wenn MS das Ding an hat bzw. unbemerkt Daten gesendet werden? Bei einem geschlossenem System eher schwierig, oder?

Das ist keine Paranoia sondern gesunder Menschenverstand zumal es ein BIG Business ist heutzutage mit Kundenprofilen zu handeln.

Edit: Und selbst wenn die Cam nur aktiv ist wenn sie "gebraucht" wird, wie gesagt die lassen sich genug Gründe einfallen das die laufen muss.

Wer sich Unternehmen wie MS blindlinks anvertraut ist selber schuld. Mein Vertrauen haben die und viele andere sicherlich nicht. Vertrauen muss verdient werden, ich sehe da recht wenig im Zusammenhang mit MS.

Ich hatte schon immer eine Aversie wenn eine Kamera gegen mich gerichtet ist, egal ob an oder aus. Das wird sich auch nicht ändern.

Najo verstehen kann ichs schon. Vor allem wenn ich in Afghanistan in ner Höhle sitzen würde (per Satellitenuplink Netz) um dann heimlich CoD Alquaeda Ops Online zu zocken und dann kommt 2 Stunden später die Amerikanische Armee.. das wars dann mit heimlich. Und das nur wegen der Kamera-... äh da ist jetzt irgendwo nen logikfehler in meinen Sätzen aber kein Bock den rauszufischen ;D

Das ist einfach eine Verletzung der Privatsphäre.
Fragen wir doch mal Billy Boy ob er sich ne Kamera in sein Haus installieren lässt damit jeder ihn potentiell beobachten kann, schliesslich hat er doch nichts zu verbergen;) Sorry dein Vergleich zieht nicht.

Finch
2013-04-01, 20:16:33
@ Hallo, du ignorierst immer noch vollkommen, dass sobald herauskommt das MS oder Sony insgeheim Bilder machen, eine Prozesslawine los getreten wird, die gigantische Ausmaße annehmen würde.

Denkst du sowas bleibt geheim?

dargo
2013-04-01, 20:33:47
Bei der Folie ist reine Phantasie dabei. Abgesehen von der theoritischen, auch mit Sicherheit einigermassen korrekten, Rechengeschwindigkeit, lässt NV auch gerne aussenvor das die hier eine 1000 Euro Graka mit einem 400-500 Euro Komplettsystem vergleichen.
Einerseits hast du nicht ganz unrecht aber wo kann ich heute die PS4 für den von dir genannten Preis kaufen? :D Bis die PS4 sich langsam verbreitet kriegst du diese GPU-Leistung der Titan (eventuell minimal weniger) sicherlich schon für den halben Preis. ;)

ngl
2013-04-01, 20:51:40
@ Hallo, du ignorierst immer noch vollkommen, dass sobald herauskommt das MS oder Sony insgeheim Bilder machen, eine Prozesslawine los getreten wird, die gigantische Ausmaße annehmen würde.

Denkst du sowas bleibt geheim?

So sieht es aus. In einigen US Staaten wäre das sogar genau genommen Einbruch. Unmöglich das so etwas bei den ganzen Mitarbeitern nicht heraus kommt.

Außerdem: Was sollten die Hersteller mit Bildern der Konsole anstellen?

Knuddelbearli
2013-04-01, 22:54:50
So sieht es aus. In einigen US Staaten wäre das sogar genau genommen Einbruch.

Darf ich dann Bill Gates abknallen? ^^

Schaffe89
2013-04-01, 23:43:19
Man kann denk ich nicht nur stur die Flops vergleichen.
Man hat ja auch CPU und GPU auf einem einzigen Chip, heißt Latenzen fallen schonmal.
Außerdem ist der Stromverbrauch das größte Hindernis einen großen Chip in die PS3 zu pressen.

Sven77
2013-04-02, 00:16:03
NV steht auch ohne Konsolen sehr gut da.

Mag im Moment so zu wirken, sie fahren aber Vollgas auf einen Abgrund zu.. oder warum sollten sie sonst verzweifelt in Märkten Fuß fassen wollen die momentan nicht wirklich profitabel erscheinen.. mit dedizierten GPUs kann man bald kein Geld mehr machen

aufkrawall
2013-04-02, 00:18:54
Besser kein Geld machen als aktiv Geld vernichten.

Sven77
2013-04-02, 00:36:07
Sie vernichten ja Geld in den anderen Bereichen, wenn T4 nicht einschlägt wirds schnell dunkel

Skysnake
2013-04-02, 00:41:19
T4 wird definitiv nicht "einschlagen" außer auf ihrem Konto, aber das mit nem großen "Minus" und keinem "Plus".

Erst mit T4i und T5 kann man auf das erste! "Plus" hoffen.

aufkrawall
2013-04-02, 00:48:44
In der Branche sind für viele Unternehmen "Durststrecken" nichts ungewöhnliches.
Mal sehen, ob die Konsolen AMD aus ihrem Dauersiechtum holen könne. So prall sind die Margen ja nicht, bei den Preisen, die sie nehmen. ;)

Skysnake
2013-04-02, 01:05:45
Echt du kennst die Preise, die AMD für die Konsolen bekommt?:eek:

Dann sag uns doch bitte wieviel AMD bekommt, und am Besten noch, wie hoch für Sie die Kosten waren...

Besser als das Dauerminus von Tegra wirds wohl allemal sein...

aufkrawall
2013-04-02, 01:17:47
Echt du kennst die Preise, die AMD für die Konsolen bekommt?:eek:

Dann sag uns doch bitte wieviel AMD bekommt, und am Besten noch, wie hoch für Sie die Kosten waren...

Nein, das ist mein Geheimnis. :tongue:
Na, wenn du behauptest, das würde sich richtig lohnen.., wir werden ja sehen.

Deinorius
2013-04-02, 01:31:52
Und mit abkleben ist nicht wenn bei der Initiation der Konsole der User erkannt werden muss.


Wieso? Wird die Konsole mit der Kamera verkauft? Ist mir jetzt irgendwie entgangen. Ich kann mich hier irren, aber ich erinnere mich jetzt einfach nicht.

@Deinorius
Und wie willste rausfinden wenn MS das Ding an hat bzw. unbemerkt Daten gesendet werden? Bei einem geschlossenem System eher schwierig, oder?


Bis jetzt hat man immer Wege gefunden, um z.B. Kopierschutzmechanismen auszuhebeln, Informationen auszuforschen usw. HDCP kann mittlerweile umgangen werden. Wieso sollten da die Informationen, die von einer Konsole ausgehen und ins Internet ausgeschickt werden würden, so viel anders sein?
Entweder es werden direkt Videos/Bilder ausgeschickt und das würde man eher herausfinden, weil dadurch der Datentransfer merklich steigen würde. Würden die Daten der Kamera direkt auf der Konsole verarbeitet werden, würde das Rechenleistung kosten. Na Prost Mahlzeit. Innerhalb eines Spieles sollte die Konsole und die Kamera mit dem Spiel beschäftigt sein. Ob sich das wirklich lohnt?

Das ist keine Paranoia sondern gesunder Menschenverstand zumal es ein BIG Business ist heutzutage mit Kundenprofilen zu handeln.


Erstens, mit Kundenprofilen zu handeln ist was anderes, als Kunden auszuforschen! Die Daten, die Facebook von uns an andere verkaufen kann/könnte, wurden von uns freiwillig (wie auch immer) herausgegeben. Ich will das natürlich nicht gutheißen und möchte auch keine gesetzlichen Grenzen aufweisen. Aber das müsste auch einem Laien wie mir auffallen, dass hier ein gewaltiger Unterschied vorliegt.
Zur Paranoia: Naja, ein jeder paranoider Mensch wird selber glauben, dass er geistig gesund ist. :freak:
Trotz allem baut mein Glaube darauf, dass die Kamera nicht (zu sehr) missbraucht wird, im Grunde ja auf (leicht) paranoide Menschen, die das Ganze überprüfen, damit sie sicher sein können, dass dem nicht so ist, wie sie glauben, dass es ist.

Kurzum Hallo, ich hoffe auf dich! :ulol:

Wer sich Unternehmen wie MS blindlinks anvertraut ist selber schuld. Mein Vertrauen haben die und viele andere sicherlich nicht. Vertrauen muss verdient werden, ich sehe da recht wenig im Zusammenhang mit MS.


Natürlich sollte man keinem großen Konzern blindlings vertrauen. Nichts spricht gegen eine gesunde Skepsis. Es ist jedoch ein Unterschied, wie man sich damit selber konfrontiert.

Ich hatte schon immer eine Aversie wenn eine Kamera gegen mich gerichtet ist, egal ob an oder aus. Das wird sich auch nicht ändern.


Man könnte jetzt sagen, du fürchtest, deine Seele würde gestohlen werden. Man kann es immer übertreiben.

Außerdem ist der Stromverbrauch das größte Hindernis einen großen Chip in die PS3 zu pressen.


Nein, es sind die Herstellungs- und Entwicklungskosten, die direkt den Verkaufspreis der Konsole beeinflussen. Der Stromverbrauch ist relativ wurscht, die Wärmeentwicklung ist da schon schlimmer, aber auch nicht zu extrem.
Man könnte auch eine PS4-APU bauen, deren GPU um die Hälfte größer ist und auch die Jaguar Kerne höher getaket sind. Der Stromverbrauch wäre nicht so viel höher und die Wärme könnte man mit einer Heatpipe-Kühlung in Verbindung mit einem Luftkanal, der von einem Lüfter mit Frischluft versorgt wird, abführen. Kostet natürlich nochmal mehr, aber ohne weiteres realisierbar.

Schaffe89
2013-04-02, 04:51:34
Ich meinte ja explizit den Titan, eine untertaktete GTX 680 wäre natürlich auch gegenagen, mit so ~100 Wat Verbrauch, wäre dann halt auch nicht viel schneller wie die jetzige verbaute.

Der Stromverbrauch ist relativ wurscht, die Wärmeentwicklung ist da schon schlimmer, aber auch nicht zu extrem.

Meine ich im prinzip auch, dann als Symptom^^

Ailuros
2013-04-02, 16:52:02
Nein, das ist mein Geheimnis. :tongue:

Der Satz kommt einen Tag zu spaet.

Na, wenn du behauptest, das würde sich richtig lohnen.., wir werden ja sehen.

IP deals lohnen sich nie wirklich fuer einen fabless IHV wie AMD oder NVIDIA von der finanziellen Perspektive. Die Margen sind gering aber es ist ab einem Punkt sicherer und reiner Gewinn und in dem Fall geht es eben NICHT nur um den Umsatz sondern um die eigentliche Existenz im Konsolen-Markt. Null Marktanteil fuer den groessten GPU IHV ist eben nicht gerade berauschend.

Aber wer NV aktiv unterstuetzen will kann durchaus ein paar Project Shield Dinger vorbestellen damit es nicht zum totalen Flop wird.

Skysnake
2013-04-02, 18:12:48
Eben, und man erhofft sich bei AMD sicherlich auch, dass die Dominanz auf die eine oder andere Weise auch auf die anderen GPU-Märkte abfärbt. Vor allem natürlich auf die APUs.

Ich kann mir schon gut die AMD-Werbung vorstellen. "Packen sich sich die PS4/XBox720 in ihren Laptop!" bla bla bla

fondness
2013-04-02, 18:16:00
IP deals lohnen sich nie wirklich fuer einen fabless IHV wie AMD oder NVIDIA von der finanziellen Perspektive.

AMD verkauft nicht bloß die IP, sondern fertig produzierte Chips.

Ailuros
2013-04-02, 18:20:41
AMD verkauft nicht bloß die IP, sondern fertig produzierte Chips.

Ist die Herstellung auf Auftrag von AMD?

fondness
2013-04-02, 18:29:32
Ist die Herstellung auf Auftrag von AMD?

“Our base assumption (in line with our Japan colleagues) is 2.5 million PlayStation 4 units and 2.3 million Xbox Next “Durango” units [are to be] shipped in Q4 2013,” said Shawn Webster, a analyst with Macquarie Equities Research, in a note to clients, reports Tech Trader Daily blog.

The analysts estimate that AMD will charge on average $60 per system-on-chip for PS4 and Xbox “Durango”, which will bring the company at least $288 million in revenue this year. Previously AMD only received royalties from game console platform owners for using chips with their technologies; starting from next-generation of consoles, AMD will sell chips to its partners. The improved earnings from console business will be shown as a major victory of AMD’s current management.

“We estimate that average selling prices for the company‘s game console business are roughly $60 due to its premium specifications. As a result, we are adding roughly $96 million of Sony/Xbox console chip revenue for AMD in Q3 2013 and $228 million in Q4 2013, and raising our CY13 and CY14 revenue estimates,” said Mr. Webster.

http://www.xbitlabs.com/news/multimedia/display/20130319235900_Sales_of_PlayStation_4_Xbox_Next_to_Hit_Around_5_Million_in_Total _in_2013.html

Passt auch zu den Aussagen von Rory Read das man 20% des Umsatzen mit den Konsolen-Deals erzeugen will.

aufkrawall
2013-04-02, 18:31:27
und in dem Fall geht es eben NICHT nur um den Umsatz sondern um die eigentliche Existenz im Konsolen-Markt. Null Marktanteil fuer den groessten GPU IHV ist eben nicht gerade berauschend.

Nur was bringt das AMD bzw. schadet es Nvidia?
Gut, damit ist eine Insolvenz AMDs hoffentlich vom Tisch ("too big too fail"?).


Aber wer NV aktiv unterstuetzen will kann durchaus ein paar Project Shield Dinger vorbestellen damit es nicht zum totalen Flop wird.
Mich interessiert letztlich eigentlich nur, ob die NV-Desktopkarten wieder billiger werden. Dafür können die gerne mal etwas auf die Fresse fallen.
Nur warum sollte das wegen der Konsolendeals passieren? War die PS3 so wichtig für NV?

Ailuros
2013-04-02, 18:56:55
http://www.xbitlabs.com/news/multimedia/display/20130319235900_Sales_of_PlayStation_4_Xbox_Next_to_Hit_Around_5_Million_in_Total _in_2013.html

Passt auch zu den Aussagen von Rory Read das man 20% des Umsatzen mit den Konsolen-Deals erzeugen will.

Danke. War auch eine ehrliche Frage. Und hier hat aber auch wiederrum xbitlabds recht:

From many points of view, selling embedded custom APUs to Sony and Microsoft has a lot of advantages for AMD since it will naturally get more profit by selling chips than by getting license fees. On the other hand, the profit margin of such eAPUs will likely be rather low. Moreover, AMD will have to handle all the manufacturing and logistics issues, which may not be too comfortable for a company with limited resources.

Nur was bringt das AMD bzw. schadet es Nvidia?

100% Markanteil fuer den einen, 0% fuer den anderen. Der Konsolen-Markt ist NOCH nicht ein unwichtiger Nieschen-Markt und die einzige wahre Hoffnung die PC sales wirklich antreiben koennen sind indirekt Konsolen.

Nebenbei werden ISVs fuer Konsolen-Spiele auf einer einzigen Architektur entwickeln und dabei muss sich AMD auch nicht besonders anstrengen. Es ist eher NVIDIA die diesmal hinter den Hintern von Entwicklern rennen muessen, eben weil es die PS3 Balance nicht mehr geben wird. Und hier kommt dann auch das wichtigere Dilemma langfristig: gehen alle DevRel Resourcen in die Richtung oder muss ein guter Anteil dieser sich wohl doch auf Tegras konzentrieren? Die eine Welt ist eben nicht parallelisierbar mit den anderen; Du wirst eventuell Konsolen-Ports fuer PCs sehen aber eben NICHT eine parallele Entwicklung oder ports von einer Konsole und/oder PC auf ein tablet bzw. smartphone. Fuer's letztere sind es Eigen-Entwicklungen eben angepasst an den <10W bis zu ~1W TDPs wo sich solche Geraete bewegen.

Gut, damit ist eine Insolvenz AMDs hoffentlich vom Tisch ("too big too fail"?).

*Schulterzuck*

Mich interessiert letztlich eigentlich nur, ob die NV-Desktopkarten wieder billiger werden. Dafür können die gerne mal etwas auf die Fresse fallen.
Nur warum sollte das wegen der Konsolendeals passieren? War die PS3 so wichtig für NV?

Da musst Du NV fragen wie lange und wie intensiv sie ihre Geldgier noch planen zu erhalten. Das ist auch im groesseren Bild genauso nebenwichtig wie alles andere.

Nochmal NV verkauft ihre GPUs bei hohen Preisen welches aber auch geringere Volumen eventuell bedeutet. Waehrend sich auf der einen Seite das Volumen reduziert, steigen Volumen eben nicht mit gleicher Geschwindigkeit fuer NV im SFF mobile bzw. fuer Tegra an. Das einzige was NV braucht ist genug Glueck dass die Luecke zwischendrin einfach nicht zu gross wird. DevRel resourcen werden aber zwangsmaessig eher in Richtung Tegra gehen muessen.

DinosaurusRex
2013-04-04, 09:03:46
Nikkey hat ein Interview (http://techon.nikkeibp.co.jp/english/NEWS_EN/20130401/274313/?P=2) mit Mark Cerny geführt. Die PS4 wird demnach 16 4Gbit GDDR5 Chips verbaut haben. Cerny hat auch ein paar Hinweise zu den Besonderheiten der PS4 Hardware gegeben:

As for the "supercharged" parts, or the parts that SCE extended, he said, "There are many, but four of them are representative." They are
(1) a structure that realizes high-speed data transmission between the CPU and GPU,
(2) a structure that reduces the number of times that data is written back from the cache memory in the GPU,
(3) a structure that enables to set priorities in multiple layers in regard to arithmetic and graphics processing and
(4) a function to make the CPU take over the preprocessing to be conducted by the GPU.


PC Watch Japan (http://pc.watch.impress.co.jp/docs/column/kaigai/20130329_593760.html) hat ebenfalls einen Artikel zur PS4 mit ein paar Folien veröffentlicht:

http://i.imgur.com/GIZpuAu.jpg

http://i.imgur.com/aSjsYgR.jpg

http://i.imgur.com/Xf4SJtp.jpg

http://i.imgur.com/UuT2b7D.jpg

http://pc.watch.impress.co.jp/img/pcw/docs/593/760/16.jpg

http://i.imgur.com/fRFiTqn.jpg

starfish
2013-04-05, 10:07:56
More Details on Always-Online Xbox Revealed

Speaking to Kotaku, an unspecified source stated, "If the connection is interrupted then after a period of time -- currently three minutes, if I remember correctly -- the game/app is suspended and the network troubleshooter started."



http://www.ign.com/articles/2013/04/04/more-details-on-always-online-xbox-revealed

DinosaurusRex
2013-04-05, 13:23:37
Adam Orth, Creative Director der Microsoft Studios, hat sich auch zu dem Thema geäußert:

I want every Device to be "always on". (http://www.neogaf.com/forum/showthread.php?t=534951)

Deutlicher gehts nicht... ;)

mdf/markus
2013-04-05, 13:27:04
http://i.imgur.com/OEY5yp8.jpg

Ich glaube, dass Adam da einige Dinge im nachhinein bereuen wird. :D

Iruwen
2013-04-05, 13:30:42
http://i.imgur.com/deQuQpm.png

Well, that escalated quickly...

robbitop
2013-04-05, 13:37:31
Ich finde es unmöglich, wenn man aufgrund technischer Probleme oder simpler Nicht-Verfügbarkeit sein legal erworbenes Lizenzprodukt (das Spiel!) nicht nutzen kann.
Nicht nur auf die Xbox bezogen sondern generell. Was ist bei einem Internetausfall, wenn der Router streikt oder man bspw mit dem Laptop unterwegs ist? Im Zug ist es sehr schwierig mit 3G, im Ausland oft zu teuer... Dann kann man sein Recht nicht nutzen. Super. IMO gehören solche Produkte mit einem Nichtkauf bestraft.

Nakai
2013-04-05, 13:52:25
Ich finde es unmöglich, wenn man aufgrund technischer Probleme oder simpler Nicht-Verfügbarkeit sein legal erworbenes Lizenzprodukt (das Spiel!) nicht nutzen kann.
Nicht nur auf die Xbox bezogen sondern generell. Was ist bei einem Internetausfall, wenn der Router streikt oder man bspw mit dem Laptop unterwegs ist? Im Zug ist es sehr schwierig mit 3G, im Ausland oft zu teuer... Dann kann man sein Recht nicht nutzen. Super. IMO gehören solche Produkte mit einem Nichtkauf bestraft.

Tja, ich denke das wird ein Grund sein, wieso MS diesmal auf die Fresse fliegen wird. So gut die Xbox360 auch war, die Xbox720 schaut derzeit nur nach einem Haufen Crap aus. Aber hier mal abwarten.

Nightspider
2013-04-05, 13:52:35
Hey Leute gibts die Trailer der PS4 Spiele auch in 1080p irgendwo zum Download?
Kennt jemand eine gute Seite?

Blediator16
2013-04-05, 13:55:01
Sollte die Xbox wirklich always on sein, dann haben sie das Rennen für diese Gen verloren 100%.

robbitop
2013-04-05, 13:57:36
Es kommt drauf an, was Sony macht. Sony kann entweder die Chance nutzen und damit werben "wir machen das nicht" - oder sie nutzen die Chance und machen mit und sagen "die anderen machen es ja auch". Letzteres kann eventuell besser ausgehen, weil man somit ja RK ausschließen kann.

Ich hoffe aber auch auf erste Möglichkeit. Dann wäre die PS4 bei mir sofort gekauft.

dildo4u
2013-04-05, 13:59:53
Hey Leute gibts die Trailer der PS4 Spiele auch in 1080p irgendwo zum Download?
Kennt jemand eine gute Seite?
http://www.gamersyde.com/download_deep_down_trailer-29609_en.html

http://www.gamersyde.com/download_killzone_shadow_fall_trailer_fixed_-29591_en.html

http://www.gamersyde.com/download_infamous_second_son_announcement_trailer-29587_en.html

http://www.gamersyde.com/download_driveclub_teaser-29590_en.html

MartinB
2013-04-05, 14:23:40
Verstehe nicht warum Leute hier ein Problem mit "Always On" haben. Damit ist ja nicht DRM sondern MediaStreaming im Hintergrund gemeint.

DinosaurusRex
2013-04-05, 14:27:54
Laut Kotaku wirst du ohne Internetverbindung keine Spiele spielen können.

Auch immer wieder toll:

http://i.imgur.com/rixjoS6.jpg

PrefoX
2013-04-05, 14:28:47
Verstehe nicht warum Leute hier ein Problem mit "Always On" haben. Damit ist ja nicht DRM sondern MediaStreaming im Hintergrund gemeint.
nach 3 min dc geht das spiel nicht mehr, steht doch da?

Iruwen
2013-04-05, 14:30:28
Sollte die Xbox wirklich always on sein, dann haben sie das Rennen für diese Gen verloren 100%.
Ich glaub den meisten Leuten die jetzt eine Box haben und Live nutzen ist das total egal.

PrefoX
2013-04-05, 15:00:56
Ich glaub den meisten Leuten die jetzt eine Box haben und Live nutzen ist das total egal.
ich glaube da liegst du komplett falsch. gibt genug beispiele das auch casuals sich nicht alles gefallen lassen.

Gouvernator
2013-04-05, 15:14:00
Ich glaub den meisten Leuten die jetzt eine Box haben und Live nutzen ist das total egal.
Dann check this mal out. =)
http://www.youtube.com/watch?v=cW28VSmXnCo&feature=player_embedded#!

DinosaurusRex
2013-04-05, 15:21:38
Das ist so genial:

http://i.minus.com/iFFi2CtuwpUD6.gif

;D;D;D

Blediator16
2013-04-05, 15:23:10
Dann check this mal out. =)
http://www.youtube.com/watch?v=cW28VSmXnCo&feature=player_embedded#!

Er spielt nur einen Charakter.