PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Fat-Cores vs Many-Cores (bzgl. Next-Gen-Konsolen)


Zergra
2012-01-04, 20:14:35
naja mit 22nm wäre es dann halt möglich ohne den takt gegenüber den 6ern zu massiv zu beschneiden.

4 Kerne im Mainstream sieht man frühestens 1014. Intel meinte zumindest man das mit Haswell weiterhin 4 Kerne Mainstream bleibt.

Naja da hast du wohl recht.. und wozu mehr Cores? die werden dann wohl eh noch net gebraucht... aber das wird sich erst nächtest Jahr entscheiden denn wenn mehr Programme/Spiele mehr als 4 Kerne unterstützen dann wird Intel das ändern... auch wenn sie dann nur SMT weiterverteileN :P

Knuddelbearli
2012-01-04, 20:26:03
Naja da hast du wohl recht.. und wozu mehr Cores? die werden dann wohl eh noch net gebraucht... aber das wird sich erst nächtest Jahr entscheiden denn wenn mehr Programme/Spiele mehr als 4 Kerne unterstützen dann wird Intel das ändern... auch wenn sie dann nur SMT weiterverteileN :P


wenn man so denkt hat man aber ein henne ei problem, je früher es mehr kerne im mainstream gibt desto früher wird dafür programmiert.

Zergra
2012-01-04, 20:28:42
wenn man so denkt hat man aber ein henne ei problem, je früher es mehr kerne im mainstream gibt desto früher wird dafür programmiert.

Naja hat man ja beim AMD gesehen :D mal schauen wie lange es da dauert bis auch mehr Kerne CPU´s von Intel kommen... naja aber das Könnten sie ja mit SMT ausgleich :D:D:D also vllt.hat das ja den schub gebracht

aber zurück zum Thema

Nightspider
2012-01-04, 22:26:42
wenn man so denkt hat man aber ein henne ei problem, je früher es mehr kerne im mainstream gibt desto früher wird dafür programmiert.

Die neue Konsolengeneration wird genügend Kerne mitbringen um die Multicore Programmierung in Schwung zu bringen.

Coda
2012-01-04, 23:05:20
Die Xbox 360 hat 3 (6 logische) Kerne und die PS3 1 (2 logische) Kerne + 6 SPUs.

Ich denke nicht, dass es wesentlich mehr wird für Next-Gen. Nicht so, dass es einen Unterschied im Programmieransatz machen würde.

del_4901
2012-01-05, 00:55:34
Die Xbox 360 hat 3 (6 logische) Kerne und die PS3 1 (2 logische) Kerne + 6 SPUs.

Ich denke nicht, dass es wesentlich mehr wird für Next-Gen. Nicht so, dass es einen Unterschied im Programmieransatz machen würde.
Challenge accepted. Ich sage/hoffe 16+ Wer bietet mehr?

Nightspider
2012-01-05, 00:58:59
16+ echt oder logische Kerne?

Also ich rechne mit 6-12 echten Kernen für 2013 und 16 falls es 2014 wird.
Logische Kerne wirds wohl 12-32 geben.

Ronny145
2012-01-05, 01:11:48
Ich biete 64 Kerne :freak: Bietet jemand mehr?

Neosix
2012-01-05, 01:17:35
Ihr spinnt beide ^^

http://www.abload.de/img/tvfx-08kj1at.jpg

Ich sehe es wie Coda, es wird bestimmt nicht sonderlich mehr werden.
Mein Tipp Quadcore 4 Kerne, wahrscheinlich wie bei der Xbox360 mit 2 Befehlen parallel pro Kern, also wäre logisch 8.

ps. bevor einer feuchte Augen kriegt, Spiele gehören sicher nicht zu den "95%" ;) Und sind eher schwer zu parallelisieren.

Nightspider
2012-01-05, 01:24:35
4 Cores? Und wo wäre da der Sprung nach 6 Jahren?

IPC+50% (geschätzt zur aktuellen PowerCore Architektur von IBM) und Cores + 33%? Wäre bissl schwach.
Schau dir mal an, wie extrem der Sprung bei den CPUs von PS2->PS3 und Xbox1->360 war. Faktor >>10

PS: Was ist das für ein schwachsinniges Diagramm? Klar nimmt die Effizienz ab. Aber nach dem Diagramm müssten Supercomputer ja schon überflüssig sein mit ihren 100.000 Kernen.

Bei guter Programmierung stehen mit 16 Kernen immernoch locker über 3,5 mal soviel Leistung zur Verfügung wie mit 4 Kernen.

Ronny145
2012-01-05, 01:27:37
Mal ernsthaft: 4-6 starke Kerne sind genug, alles andere sollte in die GPU investiert werden, weitaus sinnvoller. Es gibt doch immer wieder Interviews von Spielentwicklern die predigen, wie schwer sich eine Spielengine parallelisieren lässt - eben nur begrenzt sinnvoll. Atom oder Bulldozer Kernleistung mit zig Kernen kann nicht zielführend sein. Bei einigen kommt es manchmal so rüber als wenn Haswell nicht schnell genug für Spiele wäre. Haswell müsste sich ganz schön zurückentwickeln wenn dem so wäre.

Neosix
2012-01-05, 01:30:21
Du hast es selbst gesagt, Supercomputer werden mit Code gefüttert der beinah zu 100% parallelisiert werden kann.

Spiele gehören nicht zu dieser Kategorie und sind Lichtjahre davon entfernt. Vor paar Jahren hieß es noch Pi mal Daumen 50% Ich bin gnädig lass es heute 75% sein. Bessere Compiler und Streaming bringen schon ordentlich was. Du siehst trotzdem durch noch mehr als 8 gewinnst du praktisch gar nichts. Es wäre also Blödsinn auf Teufel komm raus mehr Kerne also nötig für Spiele einzubauen. Lieber mehr Effizienz.

ps. das Diagramm ist nicht Schwachsinn...

Nightspider
2012-01-05, 01:35:00
Klar wäre es schwieriger die potentielle Leistung zu nutzen. Aber die Programmierer werden besser.
Außerdem muss die Hardware wieder 6 Jahre reichen. Da wird ein Faktor 2 schnell limitieren.
Schließlich sollen die Spiele nicht nur grafisch sondern auch spielerisch Fortschritte machen.
Alleine Physikberechnung lassen sich perfekt parallelisieren. PhysX nutzt auch ganze 4 Kerne. Ist ja nicht so, das es nicht genug Möglichkeiten gäbe, das Spiel in mehr Threads zu spalten.
Nur das Timing wird schwieriger aber Entwickler müssen sich mit der Hardware weiterentwickeln. Oder glaubst du wir haben noch in 30 Jahren nur 8 Kerne?

Über die Taktrate lässt sich kaum noch etwas herausholen.

Neosix
2012-01-05, 01:39:36
Ich weiß nicht was in 30 Jahren sein wird, ich sehe aber für den Heimbereich noch für Jahre in die Zukunft keinen Bedarf an mehr als 4 Kernen abseits der Video-/Schnittbearbeitung. Intel sieht es wohl ähnlich, die kennen das Diagramm ja auch...

ps. vor core 2 hieß es auch, man sei bei der Effizienz am Ende aber irgend wie geht es trotzdem weiter...

Nightspider
2012-01-05, 01:51:56
Es gibt Games die skalieren schon jetzt fast linear mit 6 Kernen. Ich seh nicht das geringste Problem bei 8 Kernen. Und 16 Kerne werden auch kein Beinbruch.

Das Intel im Mainstream Bereich und ausschließlich da nur 4 Kerne anbietet hat einen ganz anderen Grund und das ist der, der Gewinnmaximierung.

Was heißt bei dir Heimbereich? Im Moment gibt es aufgrund der alten Konsole keine Games die mehr als 4 Kerne zwingend benötigen. Wenn die neuen Konsolen aber mit 8, 12 oder 16 Kernen sieht die Situation im Heimbereich wieder ganz anders aus.

Knuddelbearli
2012-01-05, 02:07:48
2 stellig wird die echte Kernanzahl sicher nicht, tippe auf mindestens 6 allerhöchsten 10.

Frage ist obs vielleicht 4fach HT gibt. Games die sich wirklich gut Parallelisieren lassen können der CPU dann das letzte bisschen abverlangen ( 99% Auslastung je Kern ) anderen Spiele nutzen nur 1 Thread je Kern und erreichen damit ~70% ( normales HT wäre 90% )

das gibts ja glaube ich schon bei IBM Server CPUs mir fällt nur gerade der richtige Name dafür nicht ein.

Ronny145
2012-01-05, 02:10:07
Wo liegt eigentlich das TDP Fenster der CPUs von PS3/Xbox 360? Ivy Bridge 4/8 Xeon mit 3,6/4,0 Ghz ohne IGP liegt bei 69 Watt TDP.

Nightspider
2012-01-05, 02:12:53
Wo liegt eigentlich das TDP Fenster der CPUs von PS3/Xbox 360? Ivy Bridge 4/8 Xeon mit 3,6/4,0 Ghz ohne IGP liegt bei 69 Watt TDP.

Man wird wohl auf jeden Fall IBM Power Core CPUs verbauen die in 32nm gefertigt werden.

Knuddelbearli
2012-01-05, 02:13:22
Gesamt TDP dürfte wohl bei max 240W liegen CPU wohl 1/3 davon, eher weniger.

Für bessere Grafik wird das meiste TDP Budget in die Grafik wandern, und alles über 250W wird einfach nicht mehr akzeptabel produzierbar sein ohne Föhnlautsärke oder PC größe.

Zergra
2012-01-05, 06:00:01
Ähmmm ja das ist das FALSCHE Thema hier..... wer braucht schon Konsolen also -> Hop in den anderen Thread :D

PS: seid ihr von AMD´s Bulldozer so überzeugt das ihr umbedingt mehr kerne haben wollt?

del_4901
2012-01-05, 09:38:08
Ihr spinnt beide ^^

http://www.abload.de/img/tvfx-08kj1at.jpg

Ich sehe es wie Coda, es wird bestimmt nicht sonderlich mehr werden.
Mein Tipp Quadcore 4 Kerne, wahrscheinlich wie bei der Xbox360 mit 2 Befehlen parallel pro Kern, also wäre logisch 8.

ps. bevor einer feuchte Augen kriegt, Spiele gehören sicher nicht zu den "95%" ;) Und sind eher schwer zu parallelisieren.
Es ist ganz gut zu wissen, dass es Amdahls Law gibt. Aber fuerchten muss man es noch lange nicht. Wir befinden uns grad in einer Interessanten Zeit wo man zwangslaeufig umdenken muss. Ein echter Many-Core wuerde das etwas beschleunigen. Das wuerde den Spielen und Software im allgemeinen echt gutes tun.

Skysnake
2012-01-05, 11:32:20
Definitiv.

Zumal Fat-Cores werden eben auch immer ineffizienter je größer Sie werden, und die Dinger sind schon verdammt fett...

Zudem ist Amdahl ziemlich oberflächlich. Daher gibts ja auch Gustafsons law noch ;) Superskalarität ROCKT!

Undertaker
2012-01-05, 12:55:29
Ich sehe das etwas kritischer. Momentan fährt Intel mit der aktuellen Strategie optimal, sowohl was Performance, Performance/Watt und Performance/mm² betrifft. Auch wenn sich die Parallelisierung der Software weiter verbessern wird ist das ein Prozess, dessen Geschwindigkeit eher ab- als zunimmt. Für perfekt parallelisierbare Aufgaben gibt es zudem GPUs.

Nicht vergessen sollte man abseits der Softwareproblematik auch die Hardware nicht. In einem Manycore dürfte allein der Platzbedarf für schnelle Kommuikationswege und die Verwaltung der Kerne immens sein.

del_4901
2012-01-05, 13:17:52
Ich sehe das etwas kritischer. Momentan fährt Intel mit der aktuellen Strategie optimal, sowohl was Performance, Performance/Watt und Performance/mm² betrifft. Auch wenn sich die Parallelisierung der Software weiter verbessern wird ist das ein Prozess, dessen Geschwindigkeit eher ab- als zunimmt. Für perfekt parallelisierbare Aufgaben gibt es zudem GPUs.Die Geschwindigkeit im relativen Vergleich zu heutigen Loesungen ist nicht so relevant, da wir uns noch in einer Phase befinden wo wir die Problemstellungen beliebig komplexer gestallten koennen, muessen und wollen. Allein durch STM wird man ca. 30% Verlust in der Geschwindigkeit einfahren, selbst mit Hardware Unterstuetzung wird man das wohl nur selten unter 10% druecken koennen. Dafuer gewinnt man mit der einfacheren Parallelisierbarkeit wo man diese Verluste locker wieder einhohlen kann und wird. Ich bin ein Freund von homogenen Architekturen, und auch wenn ich nicht damit rechne, waehre ich keinesfalls ungluecklich wenn GPUs aussterben wuerden.

Nicht vergessen sollte man abseits der Softwareproblematik auch die Hardware nicht. In einem Manycore dürfte allein der Platzbedarf für schnelle Kommuikationswege und die Verwaltung der Kerne immens sein. Dann muss man NUMA & EDGE Ansaetze fahren.

Skysnake
2012-01-05, 16:00:06
Ähm... NUMA IST Standard. Was soll sich da ändern?

Du meinst wohl eher, das man die Caches NUMA like aufbauen muss. Da geb ich dir recht, gibt es aber auch schon in einzelnen Implementierungen. (Btw. sollte SB nicht dies durch den Ringbus trivialerweise haben auf LLC Ebene??)

Und AlphaTier, ich hoffe doch nicht wirklich, dass du diese Hoffnung wirklich hast. GPUs sind viel Effizienter als CPUs. Denk an den Strom. GPUs werden wir nicht mehr los, und das ist auch gut so. Also zumindest das Konzept nicht. Auf lange Sicht wird wohl eher der FPGA auch noch mit Einzug halten müssen und das dann alles auf einen schönen SoC. So sehen wohl die Chips der Zukunft aus, auch wenn die Zukunft noch 1-2 Jahrzehnte weg ist.

@Undertaker:
Was die Kommunikation anbelangt, ist das nicht zwingend. Man muss halt mit gewissen Absprichen dann leben können, bzw. wir haben ja noch shrinks, und danach Chips stapeln, und danach noch onchipfibre. etc. etc. Also über die Kommunikation würde ich mir nicht soooo die Gedanken machen. Du darfst halt nur nicht die gleichen Anforderungen wie bei nem Dual oder Quad-Core haben an nen 512 core oder mehr. Das musste dann mit heutigen Clustern vergleichen, und da die gleichen Bandbreiten zu realisieren ist on chip ein Klacks.

Coda
2012-01-05, 20:12:42
PS: Was ist das für ein schwachsinniges Diagramm? Klar nimmt die Effizienz ab. Aber nach dem Diagramm müssten Supercomputer ja schon überflüssig sein mit ihren 100.000 Kernen.
Nix schwachsinnig. Das ist Amdahl's Law.

Und ja, genau deshalb ist ein Supercomputer auch nicht für beliebige Dinge zu gebrauchen.

Challenge accepted. Ich sage/hoffe 16+ Wer bietet mehr?
Schön wäre es natürlich.

Nightspider
2012-01-05, 20:55:34
Nix schwachsinnig. Das ist Amdahl's Law.

Und ja, genau deshalb ist ein Supercomputer auch nicht für beliebige Dinge zu gebrauchen.



Ich geb zu, ich hab das Diagramm am Anfang nicht richtig analysiert und hielt die blau-rote Fläche für den zu erwartenden Leistungszuwachs.

Aber wie man im Diagramm sieht, steigt die Leistung massiv bei guter Programmierung.
Und bei dieser wird sich eben noch vieles tun. Von daher dürften wir so schnell keine Probleme mit mehr Kernen bekommen.

Probleme sehe ich da erst ab ~64 Kernen. Bis dahin wird es aber ohne Zweifel schon harte Arbeit für die Programmierer aber anders lässt sich ja kaum die Leistung weiter massiv steigern.

Coda
2012-01-07, 09:49:12
Und bei dieser wird sich eben noch vieles tun.
Kannst du beurteilen genau warum?

Botcruscher
2012-01-07, 10:46:27
Bei Spielen geht es doch im großen und ganzen nur um IPC und ordentlich Durchsatz. 6 bis 8 Kerne reichen völlig für den Zweck einer Konsole.

Knuddelbearli
2012-01-07, 10:57:54
naja denke den meisten hier geht es auch eher um die Vorreiterrolle, mehr Kerne ist auch P/W effektiver als dicke Kerne oder hohe Frequenzen.
Und die neuen Konsolen müssen wohl so bis 2021 ( 8 jahre ) halten. und in 6-8 Jahren sollte schon mehr als 6-8 Kerne ordentlich genutzt werden.

Aquaschaf
2012-01-07, 12:53:04
Aber wie man im Diagramm sieht, steigt die Leistung massiv bei guter Programmierung.
Und bei dieser wird sich eben noch vieles tun. Von daher dürften wir so schnell keine Probleme mit mehr Kernen bekommen.

Das ist nichts was sich prinzipiell mit "guter Programmierung" lösen lässt, darüber sagt das Diagramm auch nichts aus. Es hängt davon ab wie gut die zu lösenden Probleme parallelisierbar sind.

Ein frei erfundenes Beispiel dafür was das bei einem Spiel bedeuten könnte: mit 64 Kernen kannst du dann eine Reihe schicker Grafik-Effekte darstellen für die die Leistung heute noch nicht reicht (parallelisierbar), aber die AI wird nicht viel besser sein als mit 4 Kernen (schlecht parallelisierbar).

Frucht-Tiger
2012-01-07, 13:06:55
Und bitte ersetzt gleich noch "gute Programmierung" durch "teurer Programmierung", denn nichts anderes bedeutet es mehr Probleme zu parallelisieren. Dazu braucht es keine mystischen Skillz bei den Programmieren, es kostet einfach nur mehr Geld. Eine Konsole mit einer komplizierteren Architektur würde also nur dazu führen, dass noch weniger interessante Spiele rauskommen. Lieber noch ne Fortsetzung...

del_4901
2012-01-07, 13:24:34
Wiso teuer? Weil es C++ aehnlichen Sprachen endlich das Genick brechen wuerde? 90% der Programmierer auf der Strasse sitzen wuerde weil sie nicht in der Lage sind sich autodidaktisch weiter zu entwickeln? Und die restlichen 10% exorbitante Gehaelter verlangen?

del_4901
2012-01-07, 13:31:01
Ein frei erfundenes Beispiel dafür was das bei einem Spiel bedeuten könnte: mit 64 Kernen kannst du dann eine Reihe schicker Grafik-Effekte darstellen für die die Leistung heute noch nicht reicht (parallelisierbar), aber die AI wird nicht viel besser sein als mit 4 Kernen (schlecht parallelisierbar).
Bei der Ai hat man dann einfach mehr echte Agents und weniger dumme Zombies. Bei Spielen gibt es echt vieles was von einem Many Core profitieren kann. Der schlecht parallelisierbare Teil laeuft dann eben auf einem Core, braucht genausolange wie heute aber das ist egal. Ich will ja nicht das die Probleme von heute schneller drauf laufen. (Bei Amdahl ist die Problemstellung konstant) Ich will neue viel schwierigere und mehr Probleme loesen!

grobi
2012-01-07, 14:02:13
Bei der Ai hat man dann einfach mehr echte Agents und weniger dumme Zombies. Bei Spielen gibt es echt vieles was von einem Many Core profitieren kann. Der schlecht parallelisierbare Teil laeuft dann eben auf einem Core, braucht genausolange wie heute aber das ist egal. Ich will ja nicht das die Probleme von heute schneller drauf laufen. (Bei Amdahl ist die Problemstellung konstant) Ich will neue viel schwierigere und mehr Probleme loesen!

Was bist du von Beruf? Ich frage deswegen weil ich gerne Wissen möchte ob du dich damit auskennst oder nur ins blaue hineinplapperst.

mfg grobi

del_4901
2012-01-07, 14:40:03
Was bist du von Beruf? Ich frage deswegen weil ich gerne Wissen möchte ob du dich damit auskennst oder nur ins blaue hineinplapperst.

mfg grobi
Wo jemand arbeitet oder was er dort macht verhindert nicht dass auch dieser Jemand dummes Zeug plappern kann. Von daher wird dir die Antwort auf deine Frage nicht wirklich hilfreich sein: Ich bin Informatiker mit Hochschulabschluss und hab auch schon einige Jaehrchen Berufserfahrung. :-)

Frucht-Tiger
2012-01-07, 15:17:12
Wiso teuer? Weil es C++ aehnlichen Sprachen endlich das Genick brechen wuerde? 90% der Programmierer auf der Strasse sitzen wuerde weil sie nicht in der Lage sind sich autodidaktisch weiter zu entwickeln? Und die restlichen 10% exorbitante Gehaelter verlangen?

Die Frage hast du dir doch selbst im nächsten Satz beantwortet, überlege dir doch mal was es kosten würde die Programmierer auf andere Sprachen/Konzepte umzuschulen + neue Frameworks, Tooling etc. einzukaufen(die muss es dann natürlich auch erstmal geben). Dazu kommt noch die erhöhte Komplexität durch Race-Conditions, Dead-Locks etc., die Probleme damit verschwinden nicht, nur weil neue Sprachen es einfacher machen damit umzugehen.

Wenn du deine Jahre Berufserfahrung nicht gerade an der Uni oder am Frauenhofer abgegammelt hast, wirst du das doch täglich in der Praxis erleben. Geh doch mal zu deinem Chef am Montag und schlag vor den ganzen Legacy-Code wegzuschmeißen um nochmal von vorne anzufangen. Am besten in der Sprache XYZ, die von den 20 Programmieren in der Firma nur von zwei beherrscht wird.

Coda
2012-01-07, 15:19:50
Dazu kommt noch die erhöhte Komplexität durch Race-Conditions, Dead-Locks etc., die Probleme damit verschwinden nicht, nur weil neue Sprachen es einfacher machen damit umzugehen.
Nuja, es gibt da schon Ansätze (Actor Modell, komplett funktional) wo diese Probleme prinzipiell ausgeschlossen sind.

Aber im Prinzip gebe ich dir recht. Es wird schwer werden von C++ wegzukommen.

Skysnake
2012-01-07, 15:33:06
Muss man aber auch nicht zwingend. Mutex etc. zu verwenden ist nicht wirklich schwer. Überhaupt auch solche Probleme zu erkennen ist nicht schwer, wenn man sich über die Hardware, die man verwendet im klaren ist. DA haperts allerdings oft... Ist aber eigentlich kein Problem, weil es nur wenige Prinzipien gibt, die man halt verinnerlichen muss. Naja und dann muss man eben Konsequent sein und sich wirklich immer an die Vorgaben/Regeln halten, auch wenn es manchmal lästig erscheint.

Man braucht halt eine andere Art von Programmierer, das wird sich in den nächsten 20 Jahren aber schon ändern. Die reinen single Thread programmierer werden immer weniger werden, bzw. durch die Ausbildung bekommt man den anderen Teil halt auch mit als Grundlage.

Zu der ganzen Sache mit der Parallelisierbarkeit:

Ich kanns mir kaum vorstellen, das da nicht 90%+ parallelisierbar ist. Jede Schleife enthält verdammt viel Potenzial für Parallelisierung, und gerade KI ist eigentlich SEHR gut parallelisierbar. Man kann nämlich jede Einheit/Individuum parallel abarbeiten wenn man will. Zudem kann man auch für eine Einheit/Individuum "einfach" mehrere Varianten der KI durchrechnen. Parallele Wefindung, Entscheidungssprozesse, was ist besser, in Deckung gehen oder schießen etc. etc. etc. das lässt sich alles parallelisieren.

Was halt stimmt ist, das es eben aufwendiger wird, wenn man parallel programmiert. Aber heute WIRD ja schon parallel programmiert, und ob ich jetzt auf 2 oder auf 20 Kernen was schreib ist, wenn ich gleich von Anfang an richtig an die Sache ran gehe, auch kein zu großes Problem mehr.

Frucht-Tiger
2012-01-07, 15:35:06
Nuja, es gibt da schon Ansätze (Actor Modell, komplett funktional) wo diese Probleme prinzipiell ausgeschlossen sind.

Aber im Prinzip gebe ich dir recht. Es wird schwer werden von C++ wegzukommen.

Aus Neugierde habe ich mal eben bei Scala in den Issues nach Deadlocks gesucht - immerhin 21 Bugs in den letzten 3 Jahren. Und es bleibt in der Verantwortung des Programmieres das Actor Modell auch effizient anzuwenden, und natürlich mit Tests zu garantieren, dass es sich in jeder erdenklichen Situation auch korrekt verhält. Das ist schlicht nicht trivial, den Preis musst du einfach zahlen.

Nightspider
2012-01-07, 15:42:04
Kannst du beurteilen genau warum?

Wie du weißt stecke ich selbst noch in den Kinderschuhen bei der Programmierung aber es ist eine Tatsache das sich die meisten Programmierer Anfangs schwer taten überhaupt etwas ordentliches mit DualCore CPUs anfangen zu können.

Es hat nicht umsonst Jahre gedauert, bis DualCores 100%ig skaliert haben.
Zumal die Entwicklungssoftware mit angepasst werden wurde und auch zukünftig wird.

Auch wird mit der neuen Konsolengeneration ein Entwicklungsstudio nach dem anderen verstärkt begreifen, was man mit den ganzen Kernen anfangen kann:

-Balistik
-Fahrzeugphysik (Reifendruck,Reifenspuren,Windrichtung,Trägheitsverhalten)
-Wetterphysik (realistische Regentropfen, Kleidungssimulation, Pfützenphysik, Feuersimulation)
-Sound (Frostbite Engine 2 macht da nur den Anfang: Hallsimulation, Distanzabhängige Soundmodifikation, Soundüberlagerungen (Interferenzen der Schallwellen) und deutliche erhöhte Anzahl an Audioquellen)
-KI-Berechnung (man beachte wie stark die Anzahl der Protagonisten von zB. PS2 auf PS3 gestiegen ist (Stichwort Assassins Creed & GTA4))

Alleine die Physik lässt sich massiv parallelisieren, zumal viel Effektphysik und zB. Wettersimulation weitestgehend Timing unabhängig ablaufen können.

del_4901
2012-01-07, 15:59:10
Aber im Prinzip gebe ich dir recht. Es wird schwer werden von C++ wegzukommen.
Mal davon abgesehen das einige Engines schon neugeschrieben wurden/werden so geht der Trend doch in eine Richtung wo man die beste Sprache fuer ein bestimmtes Problem waehlen kann. Damit ist es ueberhaupt nicht mehr Notwenig alles wegzuschmeissen und bei 0 anzufangen. Man kann schoen incrementell das ganze High Level Zeugs in funtionale, data driven, actor und event Systeme integrieren (am besten mit Spachunterstuetzung). C++ wird dann ein Dasein fristen wie inline asm und da ist es auch ganz gut aufgehoben.

Die Frage hast du dir doch selbst im nächsten Satz beantwortet, überlege dir doch mal was es kosten würde die Programmierer auf andere Sprachen/Konzepte umzuschulen + neue Frameworks, Tooling etc. einzukaufen(die muss es dann natürlich auch erstmal geben). Dazu kommt noch die erhöhte Komplexität durch Race-Conditions, Dead-Locks etc., die Probleme damit verschwinden nicht, nur weil neue Sprachen es einfacher machen damit umzugehen.

STM verhindert Deadlocks und Raceconditions sehr zuverlaessig. Dafuer bekommt man andere Probleme die sich mit Sprachfeatures oder einem guten Compiler loesen lassen. Die ganze Parallelisierung sollte viel mehr auf High-Level Ebene geloest werden (Skeletons) Das gibt C++ einfach nicht her.

Wenn du deine Jahre Berufserfahrung nicht gerade an der Uni oder am Frauenhofer abgegammelt hast, wirst du das doch täglich in der Praxis erleben. Geh doch mal zu deinem Chef am Montag und schlag vor den ganzen Legacy-Code wegzuschmeißen um nochmal von vorne anzufangen. Am besten in der Sprache XYZ, die von den 20 Programmieren in der Firma nur von zwei beherrscht wird.Den Vorschlag bekommt er von mir nicht, da es unoetig ist so an die Sache ranzugehen.

Aquaschaf
2012-01-07, 16:24:12
Bei der Ai hat man dann einfach mehr echte Agents und weniger dumme Zombies. Bei Spielen gibt es echt vieles was von einem Many Core profitieren kann. Der schlecht parallelisierbare Teil laeuft dann eben auf einem Core, braucht genausolange wie heute aber das ist egal. Ich will ja nicht das die Probleme von heute schneller drauf laufen. (Bei Amdahl ist die Problemstellung konstant) Ich will neue viel schwierigere und mehr Probleme loesen!

Ja, ich meinte das auch nicht so negativ. Ich sehe Amdahl's Law auch eher als Einladung an sich eben bei den parallelisierbaren Sachen auszutoben, und größere Probleme zu lösen.

Nakai
2012-01-07, 17:04:58
Ich hab letzens gehört, dass die Wii U 3 Kerne haben wird. Keine Ahnung obs stimmt. Falls ein angepasster Power7 benutzt wird, dann könnten es bis zu 12 logische Kerne sein(falls 4fach SMT hier eingesetzt wird).

Coda
2012-01-07, 18:03:13
STM verhindert Deadlocks und Raceconditions sehr zuverlaessig.
Skaliert aber auch völlig grottig.

del_4901
2012-01-07, 18:06:32
Skaliert aber auch völlig grottig.
Haswell bekommt HTM und der PowerPC A2 hat es schon. Damit sond die groessten Probleme mit Transactional Memory vom Tisch. Wenn der Programmierer dann nicht vorsaetzlich Rollbacks forciert skaliert das sehr gut.

Coda
2012-01-07, 18:12:53
Haswell bekommt HTM
Wuz? Das ist mir neu.

Seh trotzdem das Problem mit C++ nicht. Das könnte man bspw. schön in Klassen packen, deren Isntanzen im Scope erzeugt und zerstört werden.

del_4901
2012-01-07, 18:23:57
Wuz? Das ist mir neu.

Seh trotzdem das Problem mit C++ nicht. Das könnte man bspw. schön in Klassen packen, deren Isntanzen im Scope erzeugt und zerstört werden.
http://www.heise.de/ct/artikel/Prozessorgefluester-1387842.html
Natuerlich kann man alles in C++ nachbauen. Aber die Compilerunterstuetzung ist mangelhaft und die Sprachunterstuetzung nicht vorhanden, der Code aeusserst haesslich zu warten. Da hat Clik Plus noch am meissten Aussicht auf Erfolg.

Coda
2012-01-07, 18:27:04
Baut man halt was ein. Ist ja nicht so, als wäre die Sprache endgültig.

Ich glaub einfach nicht, dass sich was radikal anderes durchsetzen kann. Es gibt viel zu viele Leute, die an das C++-Modell gewöhnt sind.

del_4901
2012-01-07, 18:39:31
Baut man halt was ein. Ist ja nicht so, als wäre die Sprache endgültig.

Ich glaub einfach nicht, dass sich was radikal anderes durchsetzen kann. Es gibt viel zu viele Leute, die an das C++-Modell gewöhnt sind.
Das kann man machen, aber bei all den Uneindeutigkeiten und Hacks der C++ Compiler wird das ein eher schwieriges unterfangen. Ich halte es sogar fuer unmoeglich dass der Compiler bestimmte Abhaenigkeiten erkennen und aufloesen kann um mit Atomics und STM sicher umgehen zu koennen.

Coda
2012-01-07, 21:27:16
Mach mal nen Beispiel.

Papers gehen auch ;)

ChaosTM
2012-01-07, 21:36:20
Wer will wieviele Kerne?!
Die nächste Konsolen-Generation wird kaum mehr als 4(8) haben.
Mehr macht einfach keinen Sinn.
Der Flaschenhals ist immer noch die Grafik(karte).

del_4901
2012-01-07, 22:14:22
Mach mal nen Beispiel.

Papers gehen auch ;)
Wenn der Compiler Fehler erkennen soll, dann muss er ja wissen welche Daten kollidieren koennen.
Da man C++ unmoeglich mit strictness nachruesten kann, kann man keine alias analyse auf den Daten machen, da man den internen State nicht kennt. Defacto muesste man alle transaktionen absichern und zur Laufzeit pruefen, und ab dem Punkt wird es einfach zu langsam, dass es sich nicht lohnt.

Coda
2012-01-07, 22:17:18
Mit strict aliasing sollte das durchaus gehen. Es wäre eh mal an der Zeit (auch aus Performancegründen) Software dementsprechend zu schreiben.

del_4901
2012-01-07, 22:39:41
Mit strict aliasing sollte das durchaus gehen. Es wäre eh mal an der Zeit (auch aus Performancegründen) Software dementsprechend zu schreiben.
Damit kann der Compiler rausfinden welche Daten NICHT aliasen und das auch nur in einem begrenzten Scope. Das was man braucht um parallelisierungs Fehler zu finden ist das gegenteil: Daten die aliasen und das am besten noch im gesamten Scope des Programms.

Coda
2012-01-07, 22:44:58
Und in welcher Sprache lässt sich das auflösen? Haskell?

Nightspider
2012-01-07, 22:46:37
Wer will wieviele Kerne?!
Die nächste Konsolen-Generation wird kaum mehr als 4(8) haben.
Mehr macht einfach keinen Sinn.
Der Flaschenhals ist immer noch die Grafik(karte).
Glaubst du die nächsten Generationen haben die selbe Grafikleistung wie die Alten?

Glaubst du man kann mehr CPU Leistung nicht gebrauchen?

Kennst du das Wort "Fortschritt"?

Und dir ist auch nicht bekannt, das bestimmte Grafikeffekt auf die CPUs der Konsolen ausgelagert wurde?

del_4901
2012-01-07, 22:58:03
Und in welcher Sprache lässt sich das auflösen? Haskell?
Ja Haskell, allerdings ist der Syntax so scary das ich wohl Ocaml vorziehen wuerde.

Coda
2012-01-07, 22:59:49
Aber OCaml ist doch auch nicht pur funktional, oder täusch ich mich gerade? Das ist doch im wesentlichen das selbe wie F#.

Ich mag Haskell eigentlich btw. Is nich so als wäre ich da nich dabei ;)

del_4901
2012-01-07, 23:54:22
Aber OCaml ist doch auch nicht pur funktional, oder täusch ich mich gerade? Das ist doch im wesentlichen das selbe wie F#.

Ich mag Haskell eigentlich btw. Is nich so als wäre ich da nich dabei ;)
F# ist noch ein bisel schwieriger weil du ja intern andere .net Sprachen aufrufen kannst wo der compiler den State nicht vorhersagen kann. Aber solang man pure functional bleibt kann der Compiler das entdecken. Mutabe State muss naemlich extra gekennzeichnet werden, ab dem Punkt ist der Programmierer wieder dafuer verantwortlich.

ChaosTM
2012-01-08, 00:17:15
Glaubst du die nächsten Generationen haben die selbe Grafikleistung wie die Alten?

Glaubst du man kann mehr CPU Leistung nicht gebrauchen?

Kennst du das Wort "Fortschritt"?

Und dir ist auch nicht bekannt, das bestimmte Grafikeffekt auf die CPUs der Konsolen ausgelagert wurde?

Ich kenne die derzeitige Lage im PC Bereich.
Fortschritt hat nichts mit mehr Kernen zu tun.

Die nächste Konsolengeneration wird höchstens die selbe Grafik-Leistung erreichen, wie derzeitige HighEnd PC`s (SLI/Crossfire) ..

Warum sollte man Grafikeffekte auf die CPU auslagern, wenn das die GPU locker übernehmen kann?
4 (8) Kerne sind da mehr als genug .
Mehr macht einfach keinen Sinn!

Und 250 Watt sind die Obergrenze für ein vernünftiges System...

Nightspider
2012-01-08, 00:43:03
Die derzeitige CPU Situation ist nur deshalb so, weil die alten Konsolen den Ton angeben.
Sobald die neuen Konsolen kommen, wird man am PC auch wieder mehr Kerne kaufen bzw. haben wollen.

Die Games laufen auf Konsolen in geringeren Auflösungen, weniger AA und kaum AF.
Zudem sind die Games auf Konsolen deutlich hardwarenaher d.h.: effizienter programmiert.

Sollte langsam mal jedem klar sein, das mit den neuen Konsolen wieder ein großer Sprung kommt in der Grafik, auch wenn dieser prozentual nicht so groß wird von PS2 zu PS3.

Zergra
2012-01-08, 00:47:48
Naja klar aber mehr als 4 Kerne sollte ein Konsole nicht bekommen... denn irgentwann wäre der PReis wieder zu hoch..... da solltest du nicht zuviel hoffe... vllt. schaffen die ja endlich mal auf der Konsole Bilder zu Reproduzieren die man sich anschauen kann und nicht dieses Geflimmer....

Felixxz2
2012-01-08, 01:26:40
Es wird wohl ziemlich sicher ein 6 Kerner mit SMT und 3,5 GHz. 4 kerne sind deutlich zu wenig, wenn man animmt, dass nicht nur die Grafik sondern auch KI und Physik einen deutlichen Sprung machen. Und die kann man eben gut paralellisieren.

Bin aber grundsätzlich dafür, dass CPUs immer in IPC statt in Kerne investieren sollen.

Denn:

1.ist das energiesparender
2.kommt die Leistung sofort auf die Straße, man benötigt keine aufwendige oder gar unmögliche MC Programmierung.

Hat natürlich den Nachteil eines enormen R&D Aufwands, den sich AMD natürlich liebend gerne schenkt da teuer.
Von Intel und IBM erwarte ich aber schon gute Steigerungen in dem Bereich, vor allem Haswell sollte schon wieder 15-20% mehr IPC haben.



Frage ist obs vielleicht 4fach HT gibt. Games die sich wirklich gut Parallelisieren lassen können der CPU dann das letzte bisschen abverlangen ( 99% Auslastung je Kern ) anderen Spiele nutzen nur 1 Thread je Kern und erreichen damit ~70% ( normales HT wäre 90% )

das gibts ja glaube ich schon bei IBM Server CPUs mir fällt nur gerade der richtige Name dafür nicht ein.

Jap von IBM gibts Server CPUs mit 4x SMT. Allerdings müsste dazu die CPU der Konsolen auch 4xSuperskalar auf ALU Ebene sein, was aktuell nichtmal ein Sandy-Bridge liefert, weil es eben recht groß ist.
Ob das kommt ist ungewiss, allerdings käme mir ein 3xSK Prozessor mit 2xSMT oder 3xSMT praxistauglicher vor. Eine Frage ist auch ob man dieses Mal OoO einbaut oder man weiterhin auf IO setzt.

ChaosTM
2012-01-08, 01:29:02
Die derzeitige CPU Situation ist nur deshalb so, weil die alten Konsolen den Ton angeben.
Sobald die neuen Konsolen kommen, wird man am PC auch wieder mehr Kerne kaufen bzw. haben wollen.

Die Games laufen auf Konsolen in geringeren Auflösungen, weniger AA und kaum AF.
Zudem sind die Games auf Konsolen deutlich hardwarenaher d.h.: effizienter programmiert.

Sollte langsam mal jedem klar sein, das mit den neuen Konsolen wieder ein großer Sprung kommt in der Grafik, auch wenn dieser prozentual nicht so groß wird von PS2 zu PS3.

Es wird keinen Sprung geben - nicht einmal einen kleinen...
Zukünftige Konsolen-Spiele werden bestenfalls so ausschauen, wie sie der PC derzeit schon bietet.
Mehr ist derzeit, mit vernünftigem Aufwand, einfach nicht möglich.

Für einen wirklichen Quantensprung wäre die 100-fache Rechenleistung nötig.

Nightspider
2012-01-08, 01:35:32
Naja klar aber mehr als 4 Kerne sollte ein Konsole nicht bekommen... denn irgentwann wäre der PReis wieder zu hoch..... da solltest du nicht zuviel hoffe... vllt. schaffen die ja endlich mal auf der Konsole Bilder zu Reproduzieren die man sich anschauen kann und nicht dieses Geflimmer....

..."Sollte"..."nicht"...."bekommen"...???

Bitte? :freak: Damit der PC besser bleibt? ;D

4 Kerne zu teuer? Ich bitte dich...

Als die 360 schon 3 Kerne hatte, hatten viele noch nichtmal 2 Kerne auf dem PC.
Das Ding soll 6 Jahre halten - nicht 6 Wochen.

Fortschritt auslassen, weil du es willst oder wie? Was ist denn das für eine Logik?

Glaubst du irgendjemand will ne PS4 unbedeutend schneller ist als eine PS3?



Es wird keine Sprung geben - nicht einmal einen kleinen...


:facepalm:


Zukünftige Konsolen-Spiele werden bestenfalls so ausschauen, wie sie der PC derzeit schon bietet.

Merkst du noch, was für einen Quatsch du schreibst? 99% der PC Games sehen so aus wie auf der Konsole, nur mir höherer Auflösung, AF+AA.

BF3, Batman AC usw. sind da eher Ausnahmen. Vor allem wenn du die letzten 6 Jahre anschaust und das Trauerspiel was dort vorhanden war.

Die Grafik kann man mit mehr Leistung mit Leichtigkeit verbessern. Die Spieleprogrammierer betteln schon förmlich um mehr Leistung und du schreibst so einen Quatsch zusammen.

Für einen wirklichen Quantensprung wäre die 100-fache Rechenleistung nötig.


Was ist bei dir ein Quantensprung? Dir ist klar, wie klein Quanten sind? ;D

Für BF3 bei selber Auflösung und ohne AF,AA auch 100mal mehr Leistung nötig, nichtmal 50 mal und nichtmal 10 mal soviel wie bei den alten Konsolengames.

Skysnake
2012-01-08, 01:38:23
Denn:

1.ist das energiesparender


Das stimmt so nicht. Mehr IPC kann auch Energieineffizienter sein, als die gleiche Performance mit "vielen dummen" Cores zu erreichen.

Schau dir einfach mal die Energieffizienz von CPUs und GPUs an. Dann siehste, das Fat Cores nicht immer toll sind ;)

Nightspider
2012-01-08, 01:40:24
Verwechselt IPC Leistung (Architektur abhängig) bitte nicht mit der Diskussion, das mehr Kerne effizienter sind als (schwierig zu erreichende) höhere Taktraten.

ChaosTM
2012-01-08, 01:48:03
Umgangssprachlich wird heute oft von einem Quantensprung gesprochen, wenn von einem großen oder ungewöhnlichen Fortschritt die Rede ist oder um eine plötzliche Änderung oder eine neue Stufe einer Entwicklung zu bezeichnen, z. B. wenn es sich um kompromisslose oder sofortige Zustands- oder Paradigmenwechsel handelt.

Got It ?

Und da helfen auch 10 Picard`s nichts..

Genauso wenig wie mehr Kerne.

Für eine wirklich sichtbar bessere Grafik fehlt derzeit einfach die Rechenleistung.

Coda
2012-01-08, 01:57:13
Ich glaube du unterliegst da einem Trugschluss.

Derzeit bremst die derzeitige Grafikleistung und Speicheraustattung der Konsolen das Artwork und alles andere aus - und damit auch das was wir am PC zu sehen bekommen.

Mit 10x mehr Rechenleistung lassen sich deutlich bessere Ergebnisse erzielen. Die Frage ist eher, ob wir die auch bekommen.

ChaosTM
2012-01-08, 02:18:17
Ich glaube du unterliegst da einem Trugschluss.

Derzeit bremst die derzeitige Grafikleistung und Speicheraustattung der Konsolen das Artwork und alles andere aus - und damit auch das was wir am PC zu sehen bekommen.

Mit 10x mehr Rechenleistung lassen sich deutlich bessere Ergebnisse erzielen. Die Frage ist eher, ob wir die auch bekommen.

Auf den Konsolen selbst wird man sicher eine Unterschied sehen, keine Frage!
Aber im Vergleich zu einem heutigen PC mit zb.: GTA4 + High-Res Texturen + Enhancer usw., wird der Unterschied nahe Null sein..

Felixxz2
2012-01-08, 02:31:31
Auf den Konsolen selbst wird man sicher eine Unterschied sehen, keine Frage!
Aber im Vergleich zu einem heutigen PC mit zb.: GTA4 + High-Res Texturen + Enhancer usw., wird der Unterschied nahe Null sein..

So ein Unsinn. Schau dir doch mal bitte den Sprung Xbox 1 -> Xbox 360 an. Das waren Welten. Konnte ein Far Cry oder Doom mit Mods von 2005/2006 einem Oblivion, Gears of War, etc. das Wasser reichen? Sicher nicht.

Ein GTA4 mit Mods mag vielleicht schön sein, aber die Xbox 720 wird Sachen wie Samaritan bringen. Und da kacken leider auch GTA mit Mods, BF3 oder Crysis 2 mit Mods ab. Es wird nicht nur ein leichtes Update werden, sondern eine Next Gen halt, mit massiv mehr Polygonen/Tesselation, neuen Texturauflösungsstandards, deutlich mehr Shaderffekten und hoffentlich auch besserer KI/Physik.

Laut einem Entwicklerkommentar aus dem Wii U Thread wird schon die Wii U Metro Last Night nativ in 1080p und mit höheren Details als 360/PS3 darstellen. Und die Wii U ist wie die alte Wii technisch weit hinter Xbox/Playstation zurück.

Nightspider
2012-01-08, 02:32:09
So ein Quatsch.

Selbst GTA4 Enhancer wird deutlich schlechter aussehen. Selbst mit Texturpack, wovon ich nichtmal eins kenne für GTA4.

Die Mods polieren nur die Beleuchtung, Reflexionen und Texturen auf.

GTA "6" wird viel mehr Objekte in der Welt haben, mit denen man interagieren kann. Die Fahrzeug physik wird sicherlich weiter verbessert. Genauso wie die Schadensmodelle. Genauso wie eine Beleuchtung, wie sie derzeit in BF3 vorhanden ist, in allen zukünftigen Konsolengames vorhanden sein wird. Das erreichst du mit keiner Mod der Welt.
Ganz zu schweigen von besserer Wettersimulation. Deutlich höherem Polygoncount, wodurch einfach ALLES deutlich runder und besser aussehen wird.

Und deutlich mehr wird sich zerstören lassen und mehr Dinge werden liegen bleiben. Es wird deutlich mehr und lebensechtere KIs geben in einem GTA"6" und auch in vielen anderen Games werden die ganzen von mir genannten Dinge vorhanden sein.

Felixxz2
2012-01-08, 02:38:23
Leider kommt GTA 5 noch auf den alten Konsolen. Mit ganz neuer Technik und ein bisschen später als jetzt, wäre es wohl der Launch-Kracher für die Konsolen gewesen, denn GTA ist ja auch eher ein Konsolenspiel. Man hätte super ein Bundle auflegen können, da hätten M$ und Sony bestimmt nochn bisl Geld gesteckt.

Und GTA 6 braucht dann wieder 4 Jahre ;(
Sch**ß Rockstar :D

Knuddelbearli
2012-01-08, 02:48:12
wen die Konsolen erscheinen werden sie sicher nur auf PC Niveau sein, dazu ist der Verbrauchvorteil ( High end PC Verbraucht heute gut 600W ) einfach zu enorm, aber Konsolen entwickeln sich auch trotz gleicher Hardware weiter. Schau dir die ersten PS3 spiele an und vergleich die mit zB BF3.

Wegen dem Verbrauchvorteil wird die Grafik auch nicht mehr solche Sprünge sehen wie früher. als die PS3 erschien hat sie gleichviel bis mehr verbraucht als ein damals aktueller PC. die Ps4 wird aber nur 1/3 eines heutigen High End PCs verbrauchen. Dazu kommt noch das es sicher keine 700€ Konsole mehr geben wird und sich die Konsolen recht schnell selber tragen sollen.

ChaosTM
2012-01-08, 02:53:18
Es wird immer schwieriger, wirklich deutliche Sprünge bezüglich der Grafikqualität zu sehen.
Der Aufwand steigt derzeit nicht mehr linear, wie noch bis vor ein paar Jahren, sondern exponentiell..
Next Step.: Uncanny Valley

edit.: http://en.wikipedia.org/wiki/Uncanny_valley

Felixxz2
2012-01-08, 02:59:37
In welchem Universum verbraucht ein High End PC 600W? MultiGPU vergleicht man nicht mit Konsolen. Ein High End PC mit übertaktetem 2600K und 7970 verbraucht laut CB 315W.

Für Konsolen sind maximal 200-250W drin, durch die effizientere CPU (RISC) ohne OC, keine 3,5" Festplatte und die Netzteileffizienz muss man nurnoch die GPU leicht untertakten und man hats.

Und mal ehrlich, eine Konsole mit starker PowerPC CPU und (UC) 7970 zersägt euch JEDE Grafik. Da sind Samaritan ähnliche Geschichten durchaus drin.

Es wird immer schwieriger, wirklich deutliche Sprünge bezüglich der Grafikqualität zu sehen.
Der Aufwand steigt derzeit nicht mehr linear, wie noch bis vor ein paar Jahren, sondern exponentiell..


Ein BF3 schaut bis auf die Texturauflösung besser aus als ein Crysis und läuft schneller. Und wenn man sich den Großteil der Spiele anschaut, ist die Grafikqualität doch auch außerhalb der High End Games deutlich gestiegen. Woher hast du die Annahme dass der Aufwand exponentiell steigt?

Nightspider
2012-01-08, 05:25:12
Die effizientere, da hardwarenahe, Programmierung hebt den Vorteil des Stromverbrauchs eines PCs nicht nur komplett auf sondern wirkt noch stärker als dieser.
Zumal du keine SLI Systeme mit Konsolenvergleichen kannst, da die Mainstream PCs nur ein Bruchteil der Leistung eines HighEnd SLI Systems haben.

Da musst du schon die Konsolen mit Mainstream Hardware beim PC vergleichen.

Alleine Tessellation wird die Grafik auf den nächsten Konsolentiteln merklich anheben, wenn es richtig verwendet wird.

Knuddelbearli
2012-01-08, 05:42:48
dachte da eher an einen single gpu pc aber mit ordentlich oc und da erreicht man durchaus die 600W ( Schukostecker seitig ) mit allem drum und dran.
PS3 war damals Leitungsmäßig gleich auf mit der Top Hardware, dieses mal wird das nicht so sein. GPU wird eher was vom schlage einer 7870 oder GTS 760 sein. Und auch Hardware nahes Programmieren braucht seine Zeit wie gesagt Vergleich die ersten PS3 Titel mit aktuellen vom Schlage eine BF3

Felixxz2
2012-01-08, 21:01:32
dachte da eher an einen single gpu pc aber mit ordentlich oc und da erreicht man durchaus die 600W ( Schukostecker seitig ) mit allem drum und dran.
PS3 war damals Leitungsmäßig gleich auf mit der Top Hardware, dieses mal wird das nicht so sein. GPU wird eher was vom schlage einer 7870 oder GTS 760 sein. Und auch Hardware nahes Programmieren braucht seine Zeit wie gesagt Vergleich die ersten PS3 Titel mit aktuellen vom Schlage eine BF3

Wieso vergleichst du eine Konsole, deren Hardware UC ist, mit einem PC mit Extrem OC? :confused:

Außerdem....nein 600W erreichst du mit normaler Kühlung nicht. Das sind dann ja fast 450W auf der GPU :crazy2:
Ich glaub nichtmal ne Wakü GTX 580 mit 1GHz zieht so viel.

Verstehe nicht warum du sowas mit ner Konsole vergleichst. Mit ner Konsole kann man nur einen High End PC mit 1 CPU und 1 GPU und ohne OC vergleichen. Alles andere ist völlig unpassend. In dem Fall wäre das aktuell ein 2600K und eine 7970.

Tiamat
2012-01-09, 16:35:27
Wenn sie noch dieses Jahr erscheinen, tippe ich auf 8-Core Xbox 720 mit 2-4 GB Ram. Takt > 4 Ghz(IBM CPU). Sony hat angekündigt, sich bei der CPU dieses Mal kein Bein auszureißen. Außerdem haben sich viele Devs ein einfacheres Programmiermodell gewünscht. Ein Tip abzugeben ist hier schwierig.

=Floi=
2012-01-09, 16:41:19
wenn die wieder nur 4gb ram verbauen sollten, dann haben sie es immer noch nicht kapiert.
unter 8gb geht nichts und 16gb wären wirklich genial. damit kann man so viel rechenleistug und streaming puffern.

edit
wo ist die diskussion zu den fat cores?
ich denke intel wird auch zukünftig sehr viel fettere cores verbauen und die ipc noch steigern. nie war platz für logik auf dem DIE so günstig wie heute. intel könnte auch den schritt zum 2fachen SMT wagen. Die idee hinter SMT war genial und in der praxis funktioniert es auch wunderbar. der erfolg (in benchmarks) gibt intel auch recht.