PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Next-Gen-Konsolen?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 [28] 29 30 31 32 33 34 35 36 37 38 39

Windi
2013-02-26, 21:17:03
Huch, wo ist den der Hersteller gewechselt worden?
Sh**!

Stimmt, keine Ahnung wie ich auf den Trip gekommen bin.
Kommen natürlich beide von ATI/AMD.

TheCounter
2013-02-26, 21:45:21
PS4 CPU @ 2GHz:

http://ps4daily.com/2013/02/playstation-4-cpu-runs-at-2-ghz-rumor/

Matrix316
2013-02-26, 21:54:34
WOW 2 GHz. Das ist ja ganz schön viel. ;) Kann man nicht einfach einen FX8350 mit 4 GHz einbauen? Kosten Retail gerade mal 170 Euro!!!1elf =)

TheCounter
2013-02-26, 21:59:42
Kann man nicht einfach einen FX8350 mit 4 GHz einbauen?

Könnte man. Aber aufgrund des massiv höheren Stromverbrauchs sowie Temperatur würde sich das nicht mehr rentieren ;)

dildo4u
2013-02-26, 22:08:33
WOW 2 GHz. Das ist ja ganz schön viel. ;) Kann man nicht einfach einen FX8350 mit 4 GHz einbauen? Kosten Retail gerade mal 170 Euro!!!1elf =)
Die GPU liefert viel mehr Flops pro Watt,daher verbaut man Netbook Cores+stärkere GPU und verschiebt Simulation von Partikel,Zerstörung,Haare,Kleidung etc auf die GPU.Auf dem PC bist du durch den PCi-E Bus auf 16Gb zwischen GPU und CPU beschränkt,daher eigenen sich Konsolen SOC besser als deine High End Mühle dafür.(PS4 hat 176GB/sec zwischen CPU und GPU)

Felixxz2
2013-02-26, 23:05:29
Hö, waren 176 GB/s nich die Bandbreite zum RAM? CPU udn GPU sind doch auf einem Die? Gibts da schon Daten zur Bandbreite?

Hayab
2013-02-27, 00:45:05
Naja, wenn irgendwelche Data in Speicher liegt, bekommt der CPU nur soviel wie sein Speichercontroller hergibt, solange der nicht aus Terminators rechter Hand gefertigt wird, kann die CPU ganz sicher nicht die 176G des Speicherbanbreite nutzen. :D

Felixxz2
2013-02-27, 02:05:40
Nein nein. Das ganze ist ja ne APU, CPU und GPU sind auf einem Chip mit EINEM SI (wenn ich das ganze richtig verstanden habe). Somit kann CPU UND GPU mit den vollen 176GB auf den Speicher zugreifen. Dildo sprach aber von der Bandbreite zwischen CPU und GPU und die ist ja Chipintern und mWn noch nicht bekannt. Wird aber vermutlich auch bei >100GB/s liegen.

Tesseract
2013-02-27, 02:17:47
Dildo sprach aber von der Bandbreite zwischen CPU und GPU und die ist ja Chipintern und mWn noch nicht bekannt.
die frage ist eher was zwichen GPU und CPU überhaupt übertragen werden soll wenn es sowieso einen gemeinsamen adressraum gibt. viel mehr als ein paar interrupts und steuerdaten wird das ja wohl nicht sein.

Felixxz2
2013-02-27, 02:24:48
Jaja es ging, ja garnicht darum ob das viel oder wenig ist, sondern woher Dildo die 176GB zwischen GPU und CPU hat oder ob sich das einfach auf Austausch durch den RAM bezieht, was aber bei ner APU ja garnicht notwendig ist.

Übertragen könnte man hier eben GPU-Physik. Vielleicht sogar Gameplayrelevant, das dürfte doch gehn bei ner APU oder?

dildo4u
2013-02-27, 02:27:05
Die Daten müssen ja im Ram zwischengelagert werden,der Cache auf der CPU ist doch viel zu klein.

Felixxz2
2013-02-27, 02:34:49
Achso so meinen. Ja das stimmt wohl.

Ist denn jetzt eig Gameplayphysik per GPGPU auf ner APU möglich?

y33H@
2013-02-27, 09:25:26
die frage ist eher was zwichen GPU und CPU überhaupt übertragen werden soll wenn es sowieso einen gemeinsamen adressraum gibt.Würde mich wundern, wenn der PS4-SoC einen gemeinsamen Adressraum bietet, das sollte ja erst mit Kaveri kommen.

Ist denn jetzt eig Gameplayphysik per GPGPU auf ner APU möglich?Generell ist Gameplay-Physik schon lange auf einer GPU möglich, nur nutzt es halt keiner.

Locuza
2013-02-27, 09:42:43
Würde mich wundern, wenn der PS4-SoC einen gemeinsamen Adressraum bietet, das sollte ja erst mit Kaveri kommen.

Generell ist Gameplay-Physik schon lange auf einer GPU möglich, nur nutzt es halt keiner.
1. Kaveri als Produkt wäre ursprünglich ja ungefähr um die selbe Zeit herausgekommen.
Okay die PS4 hat da mehr Vorausplanung und Testphasen gebraucht, aber die Konzepte und Technologie sollte ja AMD schon damals in Planung bzw. schon im Köcher gehabt haben.
Das dort 8 ACEs verbaut werden bzw. C.I. lässt schon so eine gewisse Tendenz abzeichnen, dass es vielleicht sein könnte.
Die Frage ist ob GPGPU auch Sinn machen würde, wenn das ganze System "nur" auf Trinity-Level wäre?

2. Und wir alle wissen, wieso man es die letzten Jahre nicht umgesetzt hat.
Bei deinem Beitrag liest es sich ja fast schon so, wie die haben bloß keine Lust gehabt. ;)

3. AMD to sell a cut down version of Sony's Playstation 4 APU

Auszug:
AMD told The INQUIRER that the APU used is a custom A-series part that has a mix of AMD and Sony technology.

However John Taylor, head of marketing for AMD's Global Business Units, said that a version of the same chip without Sony's technology will be available for consumers later this year.

Taylor told The INQUIRER that the AMD branded APU chip will not have the same number of cores or the same computing capability as Sony's part.

He said, "Everything that Sony has shared in that single chip is AMD [intellectual property], but we have not built an APU quite like that for anyone else in the market. It is by far the most powerful APU we have built to date, it leverages [intellectual property] that you will find in our A-series APUs later this year, our new generation of APUs but none that will quite be to that level of sheer number of cores, sheer number of teraflops."

http://www.theinquirer.net/inquirer/news/2250802/amd-to-sell-a-cut-down-version-of-sonys-playstation-4-apu

robbitop
2013-02-27, 11:17:40
WOW 2 GHz. Das ist ja ganz schön viel. ;) Kann man nicht einfach einen FX8350 mit 4 GHz einbauen? Kosten Retail gerade mal 170 Euro!!!1elf =)


Mhh, das IBM-Gerücht wieder. ;)

Und ja, ich glaube, dass wir was von IBM bekommen werden. Jaguar hin oder her, 4 x Power7 wäre schon ein heftiger Overkill.
4x Core i7 Haswell mit 4 GHz wären ein heftiger Overkill!!!111

Letztenendes ist es doch eine Frage des Gesamtergebnisses. Du hast ein limitiertes TDP Budget (aufgrund des Formfaktors) und ein limitiertes monetäres Budget und ein limitiertes Transistorbudget.

Nun musst du entscheiden, welche Teile vom SoC-Kuchen welche Komponenten bekommen. Baust du 4x Power 7 Kerne ein, bleibt weniger von den o.g. Budgets für die GPU.
Ob das für das Gesamtergebnis (Grafik) förderlich wäre? Ich denke nicht.
Insbesondere nicht in heutigen Zeiten, in denen Compute aufblüht und schon einiges an Rechenlast abnehmen kann. In Zeiten, in denen Programmierer (zumindest auf statischer HW) so weit sind und viele Kerne gleichzeitig nutzen können.

8x Jaguar + Rest der Fläche GCN ist ein verdammt gutes Setup, um obiges Budget auszureizen und die maximale Bildqualität herauszuholen.
In der 2. Spielegeneration werden Entwickler die Compute- und Mehrkernressourcen sicherlich spätestens sehr gut ausnutzen können. Und aufgrund der Übung mit den 6 Threads der X360 sollten sie auch bereits jetzt mit vielen Threads zur Steigerung der Leistung umgehen können.

Man sollte davon absehen, Komponenten isoliert - also außerhalb des Gesamtsystems - zu betrachten.

Eine fette CPU kostet dich im Endeffekt richtig Rechenleistung bei der GPU und umgekehrt. Ein guter Kompromiss ist das Ziel.

S940
2013-02-27, 12:26:00
PS4 CPU @ 2GHz:

http://ps4daily.com/2013/02/playstation-4-cpu-runs-at-2-ghz-rumor/
Na dann hoffen wir mal, dass die Info im Gegensatz zu der hier stimmt:
GlobalFoundries is co-owned by AMD. :freak:

@Locuza (http://www.forum-3dcenter.org/vbulletin/member.php?u=29267):
Na das wird der Kabini/Temash Chip werden, was sonst. Nur heiße Luft.

Locuza
2013-02-27, 12:51:17
Das würde ich aber nicht unbedingt als later this year beschreiben, sondern eher Kaveri.
Vielleicht gibt es ja auch eine fettere APU mit Jaguar-Kernen und mehr GCN-Cores?

Ach, man viel immer so gern mehr hinein interpretieren, als da steht.

S940
2013-02-27, 12:56:02
Wieso? "Later this year" heißt doch nur "später im Jahr" ... was soll er sonst sagen, Kabini ist ja noch nicht draußen.

Meinst Du vielleicht "late this year"? Das ist der gleiche Unterschied wie im Deutschen zw. "spät" und "später".

"Später im Jahr" kann alles zw. morgen und Silvester sein, "spät im Jahr" würde ich mal grob auf Dezember festlegen, vielleicht noch November wenn man möchte.

Locuza
2013-02-27, 13:05:54
Bei Kabini hätte ich eher soon gesagt.
Later this year kann natürlich vieles bedeuten, ich hätte diesen Term aber eher benutzt, wenn es wirklich noch einige Zeit dauern würde.

Knuddelbearli
2013-02-27, 13:28:41
8x jaguar + HD 7700 wäre als zweit PC sofort gekauft ^^

oder selbe formal als steckkarte für server wäre sicher auch recht interessant

Finch
2013-02-27, 13:32:23
8x jaguar + HD 7700 wäre als zweit PC sofort gekauft ^^

oder selbe formal als steckkarte für server wäre sicher auch recht interessant


Das wäre dann ja eine Xbox720.

Deinorius
2013-02-27, 14:28:20
8x jaguar + HD 7700 wäre als zweit PC sofort gekauft ^^


Die Steckkarte für Server mal ausgenommen, was willst du mit den zusätzlichen 4 Jaguar Kernen?
Sonst kann ich dir absolut zustimmen. ;)

LadyWhirlwind
2013-02-27, 14:50:53
Das die Abwärtskompatibilität mit Hilfe von Gaikai eine gute Alternative ist bezweifle ich hingegen auch. Damit das funktioniert müsste Sony weltweit dutzende Serverfarmen mit alter PS3-Hardware + Encoder aufbauen. Das wäre eine gigantische Investitionssumme, die man irgendwie wieder rein holen müsste. Ohne eine hohe monatliche Gebühr oder eine Bezahlung pro Spielstunde wäre das kaum möglich.

Gabs nicht sowas wie ne Playstation Network Goldmitgliedschaft?

Die Frage ist, wieviel es pro Monat kosten würde. Ich kann mir gut vorstellen das so manche 10 Euro pro Monat bezahlen um ihre alten PS3 spiele weiterhin verwenden zu können. Ausserdem bezweifle ich das es soviel kosten würde. Die meisten dürften ja erstmal ihre alte PS3 behalten. Insbesondere wenn das Spielen von PS3 Games auf der PS4 10 Euro pro Monat kostet.

Nakai
2013-02-27, 15:05:35
Nun musst du entscheiden, welche Teile vom SoC-Kuchen welche Komponenten bekommen. Baust du 4x Power 7 Kerne ein, bleibt weniger von den o.g. Budgets für die GPU.

Passt doch super zu den spekulierten 768SPs.;)

S940
2013-02-27, 15:28:31
Bei Kabini hätte ich eher soon gesagt.
Later this year kann natürlich vieles bedeuten, ich hätte diesen Term aber eher benutzt, wenn es wirklich noch einige Zeit dauern würde.
Ne "soon" wäre Richland, der soll laut tschechischen Infos ja Mitte März kommen. Aber Kabini erst im Mai, also ~3 Monate, da ists noch lange hin. "Later" ist schon ok.

Knuddelbearli
2013-02-27, 15:55:15
Die Steckkarte für Server mal ausgenommen, was willst du mit den zusätzlichen 4 Jaguar Kernen?
Sonst kann ich dir absolut zustimmen. ;)

4 mal eve jedes eve 2 thread passt doch ^^

und wär halt auch ideal für die steambox sobald die PS4 / xbox 720 ne weile draußen ist

pixelguy
2013-02-27, 16:40:36
Mal ne dumme Laienfrage: Wäre es nicht möglich, dass die CPU und GPU der Xbox 360 auf einem kleinen SoC als Kinect 2 Steuerung dienen und nebenbei die alten Spiele abspielen kann (dann ohne Kinect 2)? Oder wäre dieser SoC noch zu teuer, zu groß o.ä.?

Deinorius
2013-02-27, 17:25:35
Das wäre zu viel Hardware nur für Kinect und nebenbei Abwärtskompatibilität, welches die Hersteller abseits von Streaming gar nicht beachten wollen.

Hallo
2013-02-27, 17:29:18
Frage:Heisst das CPU und GPU sind auf einem Die oder zwei Stück in einem Package?Ersteres wäre doch sehr gewagt was den Yield betrifft.

Und in wiefern ist GDDR5 für die CPU ungünstiger?

Ansonstem begrüsse ich sehr das Sony wieder richtig zockermässig abgehen will und vor allem sollen die Pads fix werden,endlich.Was aber MS da so alles plant kann nur in die Hose gehen so mit Kinect Überwachung und vor allem den mittelmässigen Specs.

Deinorius
2013-02-27, 17:44:27
Hat doch Sony selber bestätigt. One-Chip. Warum sollte das den Yield großartig betreffen. Der Chip wird ziemlich wahrscheinlich keine 300 sqmm groß werden. IMO werden es ganz bestimmt keine 300.

GDDR5 ist insofern ungünstiger für die CPU, weil die Latenzen sehr hoch sind, damit man bei GDDR allgemein die Bandbreite hoch prügeln kann.

Lightning
2013-02-27, 18:14:07
GDDR5 ist insofern ungünstiger für die CPU, weil die Latenzen sehr hoch sind, damit man bei GDDR allgemein die Bandbreite hoch prügeln kann.

Laut Gipsel dürfte der Unterschied so groß nicht sein: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9665034&highlight=latenz#post9665034

Hallo
2013-02-27, 18:20:40
Hat doch Sony selber bestätigt. One-Chip. Warum sollte das den Yield großartig betreffen. Der Chip wird ziemlich wahrscheinlich keine 300 sqmm groß werden. IMO werden es ganz bestimmt keine 300..

Ok.

DDR5 ist insofern ungünstiger für die CPU, weil die Latenzen sehr hoch sind, damit man bei GDDR allgemein die Bandbreite hoch prügeln kann.

Jupp hab ich auch schon gehört mit den Latenzen,aber dennoch ist doch der Durchsatz auf ner Graka viel höher als bei DDR*wunder*

Ah,CPU will wenig Latenz statt Bandbreite,richtig?Bzw,kann die Bandbreite nicht richtig nutzen wie ne GPU.

Gipsel
2013-02-27, 18:23:06
Laut Gipsel dürfte der Unterschied so groß nicht sein: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9665034&highlight=latenz#post9665034
Ja. Mal als Beispiel (http://html.alldatasheet.com/html-pdf/333515/HYNIX/H5GQ1H24AFR-R0C/814/5/H5GQ1H24AFR-R0C.html), die Latenzen sind ja spezifiziert und kann man nachschlagen. Man erkennt, daß der GDDR5-DRAM eigentlich keine höheren Latenzen als DDR3 hat. Wie auch, die Speicherzellen sind die gleichen und nur das Interface ist etwas anders.

Edit:
Ein typisches DDR3-2133 Modul hat z.B. Latenzen von 11-11-11-30 (CAS-RCD-RP-RAS). In Nanosekunden sind das 10,3 - 10,3 - 10,3 - 28,1. Die oben verlinkten GDDR5-Bausteine haben jetzt zwar z.B. eine CAS-Latenz von 17, aber durch die 1,5GHz Takt sind die minimal spezifizierten Timings für den 6.0 GBps Betrieb (bei 5.5GBps sind CL 16 erlaubt, bei 5.0 CL15, bei 4.5 CL13 und bei 4.0 GBps schließlich CL12, ins ns bleibt es immer sehr ähnlich) dann ebenfalls in Nanosekunden ausgedrückt 11,3 - 10 - 12 - 28. Wie gesagt, vollkommen vergleichbar zu üblichem DDR3.

Windi
2013-02-27, 18:44:14
Gabs nicht sowas wie ne Playstation Network Goldmitgliedschaft?

Die Frage ist, wieviel es pro Monat kosten würde. Ich kann mir gut vorstellen das so manche 10 Euro pro Monat bezahlen um ihre alten PS3 spiele weiterhin verwenden zu können. Ausserdem bezweifle ich das es soviel kosten würde. Die meisten dürften ja erstmal ihre alte PS3 behalten. Insbesondere wenn das Spielen von PS3 Games auf der PS4 10 Euro pro Monat kostet.

Man muss sich einfach mal die Kosten ganz genau ansehen.
Eine abgespeckte PS3 ohne Laufwerk und Festplatte, dafür aber mit encoder-Hardware, dürfte locker im Bereich von 100€ liegen. Dazu kommen noch die Kosten für Gebäude, Klimaanlage, Service und Strom, das könnte noch mal 100€ kosten.

Ein weiteres Problem ist, das die Server nahe beim Konsumenten stehen müssen damit die Latenzen nicht zu weit ansteigen. Das heißt, das man nicht einfach ein großes Rechenzentrum aufbauen kann, das dann die ganze Welt versorgen kann. Durch die Zeitverschiebung wäre so ein Rechenzentrum sogar einigermaßen gleichmäßig ausgelastet. Nein, man muss leider mehrere kleine Serverparks aufbauen, die dann vielleicht 4 Stunden am Tag ausgelastet sind und den Rest des Tages vor sich hin dümpeln.

Wenn ich mir die Gebühren von MMOs ansehe wie z.B. WoW dann liegen die bei 10-15€ monatlich. Im Vergleich zu einer Text basierten Internetseite ist dort die benötigte Rechenleistung relativ hoch, im Vergleich zu einer PS3 aber eher gering.
Für einen Dienst, der die alten PS3-Spiele online zu Verfügung stellt, glaube ich nicht so recht an monatliche Kosten von unter 20€.

PrefoX
2013-02-27, 18:52:28
Wenn ich mir die Gebühren von MMOs ansehe wie z.B. WoW dann liegen die bei 10-15€ monatlich. Im Vergleich zu einer Text basierten Internetseite ist dort die benötigte Rechenleistung relativ hoch, im Vergleich zu einer PS3 aber eher gering.
Für einen Dienst, der die alten PS3-Spiele online zu Verfügung stellt, glaube ich nicht so recht an monatliche Kosten von unter 20€.
Die kosten beim MMO sind eher das personal, sprich GMs... die server verursachen doch nicht wirklich solch horrende kosten. Und als ob jemand gaikai 24/7 nutzen würde ;D

Windi
2013-02-27, 19:29:43
Die kosten beim MMO sind eher das personal, sprich GMs... die server verursachen doch nicht wirklich solch horrende kosten. Und als ob jemand gaikai 24/7 nutzen würde ;D
Die Kosten für zwei Dutzend Serverfarmen mit Spezialhardware sind aber nochmals deutlich höher. Ganz egal ob man nun die alte PS3 in die PS4 oder in die Serverfarmen einbaut, beides muss bezahlt werden. Wenn man sie in die PS4 einbaut, dann wird sie halt teurer, Wenn man sie in Serverfarmen verbaut, dann wird Sony halt eine entsprechende Gebühr verlangen.

Ob jemand 24/7 spielt ist ja eigentlich egal. Sony müsste die Server eh so auslegen, das sie für die Peakzeiten (später Nachmittag) ausreichend sind. Wenn jetzt jemand nachts spielt, wenn eh nichts los ist, dann wird das niemanden stören.

Deinorius
2013-02-27, 19:30:48
Laut Gipsel dürfte der Unterschied so groß nicht sein: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9665034&highlight=latenz#post9665034


Jo, is eh ollas ghupft wie ghatscht. ;)
Dank an Gipsel, dass er das ausgerechnet hat. Ich war zu faul. ^^

Zum Thema Streaming hoffe ich zumindest, dass PlayStation Plus Mitglieder ein Schmankerl bekommen.

PrefoX
2013-02-27, 20:23:48
Die Kosten für zwei Dutzend Serverfarmen mit Spezialhardware sind aber nochmals deutlich höher. Ganz egal ob man nun die alte PS3 in die PS4 oder in die Serverfarmen einbaut, beides muss bezahlt werden. Wenn man sie in die PS4 einbaut, dann wird sie halt teurer, Wenn man sie in Serverfarmen verbaut, dann wird Sony halt eine entsprechende Gebühr verlangen.

Ob jemand 24/7 spielt ist ja eigentlich egal. Sony müsste die Server eh so auslegen, das sie für die Peakzeiten (später Nachmittag) ausreichend sind. Wenn jetzt jemand nachts spielt, wenn eh nichts los ist, dann wird das niemanden stören.
du sagst es, es muss nur der peak "bezahlt" werden.

beim MMO mit zig tausenden servern, brauchste auch tausende GMs, ich glaube das macht schon viel aus. von den 13€ die man da zahlt gehen mit sicherheit 5 für die drauf.

Windi
2013-02-27, 21:02:46
du sagst es, es muss nur der peak "bezahlt" werden.
Es müsste nur der Peak bezahlt werden, wenn Sony ganz normale Server nutzen könnte. Dann könnte man bei Amazon oder irgend einem anderen Cloud-Anbieter sich die nötige Rechenleistung stundenweise hinzukaufen.

Sony braucht allerdings eigene Server mit Spezialhardware. Die werden nach dem Peak dimensioniert und laufen dann den ganzen Tag durch. Sony muss hier den ganzen Tag bezahlen und nicht nur den Peak, ganz egal ob sich die Server 3/4 der Zeit langweilen.

robbitop
2013-02-28, 08:28:31
Passt doch super zu den spekulierten 768SPs.;)
Nicht wirklich. Die Jaguarkerne sind massiv kleiner und stromsparender als Power7. Außerdem hat die Xbox 3 32 MiB eDRAM. Allein dafür geht ein Großteil der CU-Differenz drauf.

THEaaron
2013-02-28, 09:38:56
Es müsste nur der Peak bezahlt werden, wenn Sony ganz normale Server nutzen könnte. Dann könnte man bei Amazon oder irgend einem anderen Cloud-Anbieter sich die nötige Rechenleistung stundenweise hinzukaufen.

Sony braucht allerdings eigene Server mit Spezialhardware. Die werden nach dem Peak dimensioniert und laufen dann den ganzen Tag durch. Sony muss hier den ganzen Tag bezahlen und nicht nur den Peak, ganz egal ob sich die Server 3/4 der Zeit langweilen.

Ich glaube kaum das die Server ohne Last komplett durchlaufen. Heutzutage sollten da doch Lösungen möglich sein die onDemand arbeiten.

Hallo
2013-02-28, 09:54:02
Huch neueste Aussage von Sony deutet darauf hin das wohl doch Gebrauchtspiele unterbunden werden könnten,zumindest sollen die Publisher entscheiden...oje:(

Der Schuss könnte,nein sollte nach hinten losgehen.Am besten wir stiften MS und S gleich unsere Seele damit die armen Manager nicht am Hungertuch nagen müssen.

Statt die Konsolen zu hacken sollte sich mal jemand an deren Server ranmachen als Warnschuss.Es ist unglaublich welche Formen die Gier annehmen kann.

Gouvernator
2013-02-28, 10:28:58
Huch neueste Aussage von Sony deutet darauf hin das wohl doch Gebrauchtspiele unterbunden werden könnten,zumindest sollen die Publisher entscheiden...oje:(

Der Schuss könnte,nein sollte nach hinten losgehen.Am besten wir stiften MS und S gleich unsere Seele damit die armen Manager nicht am Hungertuch nagen müssen.

Statt die Konsolen zu hacken sollte sich mal jemand an deren Server ranmachen als Warnschuss.Es ist unglaublich welche Formen die Gier annehmen kann.
Das muss ja nicht unbedingt Gier sein. Das sind auch wahrscheinlich Kontrollfreaks. Wenn sie Games per Code an eine Konsole binden tun sie das nicht nur wegen Profit. Sondern um zu zeigen welche Macht SIE besitzen und was für Abschaum DU bist, wenn sie dir erlaubt haben ihr Spiel zu kaufen (oder auch nicht). Damit kann man überall Embargos durchsetzen oder z.B. Ländercodes wenn ein Game mit einem XX Code an einer XY Konsole registriert werden soll.

Hallo
2013-02-28, 10:32:39
Ja das mit dem Abschaum drängt sich mir auch auf,dennoch GIER.

Nur weil man es nicht schafft mit guter Dienstleistung und Quali zu überzeugen schwingen die jetzt diese Keule.Das kann nicht gutgehen und sollte boykottiert werden.Sony ist nicht in der Position so arrogant aufzutreten zu können.Aber sollen sie ruhig...

Bovor ich als alter Konsolenzocker 600 Steine hinlege für DRM-Sklaverei hole ich mir dafür ne Graka und hab Ruhe,mehr oder weniger.

Oh lieber Gott,bitte mach das Sega wieder...so gehts wirklich nicht,danke!

Sven77
2013-02-28, 10:36:29
Koennen die VT-ler bitte wieder in die UFO und Weltuntergangsthreads verschwinden bitte?

Gouvernator
2013-02-28, 10:37:49
Kontrollfreaks und Gier gehen eh meist Hand in Hand. Ich bin mir sicher sie haben noch den feuchten Traum der Musikindustrie in dem wir ihre Musik/Spiel nach Nutzung/Nutzdauer bezahlen sollen, nach dem wir es im Laden bereits gekauft haben...
Das kommt wohl erst mit NextGen... aber wer weiß.

EDIT.
Ups, Sony ist ja noch dazu ein Musikkonzern.

Tomi
2013-02-28, 10:38:36
Huch neueste Aussage von Sony deutet darauf hin das wohl doch Gebrauchtspiele unterbunden werden könnten,zumindest sollen die Publisher entscheiden...oje:(


War doch zu erwarten. Rumgeeier seit Wochen. Man windet sich und klar, man wird wohl wirklich abwarten was MS macht. Die haben aber genau so Interesse an Gebrauchtspielsperren. Bei Sony ahnt man schon wie hässlich so eine Sperre wäre, aber wenns MS auch macht, kann man es beruhigt auch einführen. Kohle fürs Onlinezocken wird man scheinbar auch bei Sony künftig abdrücken müssen..da hat man sich auch schon MS angepasst :D

Hallo
2013-02-28, 10:38:57
@Sven77
Ähm,was hat das mit UFOs zu tun?Ausserdem ist diese Meldung zwecks Bindung hier im 3DC verlinkt.
Wo liegt nun dein Problem?Ist es falsch diese Praktik kritisieren zu dürfen?

Kontrollfreaks und Gier gehen eh meist Hand in Hand. Ich bin mir sicher sie haben noch den feuchten Traum der Musikindustrie in dem wir ihre Musik/Spiel nach Nutzung/Nutzdauer bezahlen sollen, nach dem wir es im Laden bereits gekauft haben...
Das kommt wohl erst mit NextGen... aber wer weiß.

Ach das geht noch besser.Da ja die Vermutung besteht das MS ihre Spiele ebenfalls binden mit Kinect Zwang KÖNNTEN die auch auf die Idee kommen bei Film Streams auch nur die User schauen zu lassen die bezahlt haben.Wilde Theorie aber bei Geldgier geht ALLES.

Sven77
2013-02-28, 10:45:41
@Sven77
Ähm,was hat das mit UFOs zu tun?Ausserdem ist diese Meldung zwecks Bindung hier im 3DC verlinkt.
Wo liegt nun dein Problem?Ist es falsch diese Praktik kritisieren zu dürfen?


Die Interpretation deinerseits ist totaler Bloedsinn.. weil den Publishern freigestellt wird ob sie ihre Spiele auf Disc oder im PSN mit Bindung an den Account anbieten folgerst du automatisch daraus die gewollte Ausduennung des Gebrauchttmarkts? Dann las dir mal was husten, das ist jetzt schon exakt so.. Spiele im PSN Store werden an den Account gebunden, Disc-Spiele nicht. So wird das auch bleiben imho, und so interpretiere ich die letzten Aussagen.

Gouvernator
2013-02-28, 10:47:41
Ach das geht noch besser.Da ja die Vermutung besteht das MS ihre Spiele ebenfalls binden mit Kinect Zwang KÖNNTEN die auch auf die Idee kommen bei Film Streams auch nur die User schauen zu lassen die bezahlt haben.Wilde Theorie aber bei Geldgier geht ALLES.
Scheiße. :eek: Kinect beobachtet dich auch noch. Nicht der Code wird an eine Konsole gebunden sondern deine Fresse an Konsole und das Game.

Tomi
2013-02-28, 10:49:20
Na ja..dann verkaufste das Spiel halt bei Ebay mit nem 3D Scan deines Gesichtes ;D

Hallo
2013-02-28, 10:55:07
Scheiße. :eek: Kinect beobachtet dich auch noch. Nicht der Code wird an eine Konsole gebunden sondern deine Fresse an Konsole und das Game.
Natürlich was glaubst du denn.

Es gibt sogar Leute die mitbekommen haben das sie ihre Cam am Notebook besser abkleben sollten weil definitiv die Möglichkeit besteht gefilmt zu werden,oh my gosh wie kann sowas nur sein.

Kinect muss wohl an sein damit man seine Spiele Disc installieren kann/muss.Wenn die völlig durchdrehen dürfte sogar nur noch meine Feige spielen.Brave new world.

@Svenn77

Hab doch schon gesgt das in der Meldung stand die Entwickler dürfen sichs aussuchen.Und was glaubst du wofür die BigPlayer sich entscheiden werden?
EA ich hör dir trapsen.

Das Downloadgames gebunden sind hab ich auch schon mitbekommen:wink:

Hier gehts aber nicht um 10 Euro Games sondern um Discs die 60+ kosten werden,grosser Unterschied.

Na ja..dann verkaufste das Spiel halt bei Ebay mit nem 3D Scan deines Gesichtes ;D

Haha,aber bitte fairerweise über XLive,wir wollen doch nicht die Gewinne schmälern.

Sven77
2013-02-28, 11:00:11
Die Aussage steht das man Spiele gebraucht verkaufen kann.. das letzte Kommentar bezieht sich darauf das es Publishern frei steht ob sie ihre Spiele ueber Disc oder ueber PSN vertreiben. EA macht ja inzwischen beides. BF3 kann ich als Disc oder im PSN kaufen.

Bovor ich als alter Konsolenzocker 600 Steine hinlege für DRM-Sklaverei hole ich mir dafür ne Graka und hab Ruhe,mehr oder weniger.

:ugly: kauf dir doch ne Grafikkarte und freu dich auf den Riesengebrauchtmarkt fuer PC-Spiele ;D;D;D

Es gibt sogar Leute die mitbekommen haben das sie ihre Cam am Notebook besser abkleben sollten weil definitiv die Möglichkeit besteht gefilmt zu werden,oh my gosh wie kann sowas nur sein.

Einfach den Alufolienhut tiefer ins Gesicht ziehen

Fireblade
2013-02-28, 11:01:31
Es gibt sogar Leute die mitbekommen haben das sie ihre Cam am Notebook besser abkleben sollten weil definitiv die Möglichkeit besteht gefilmt zu werden,oh my gosh wie kann sowas nur sein.


Jo, hab gelesen dass Frauen, die nackt ihre neuen Kinect Spiele spielen, direkt 20% Rabatt von EA bekommen. Brave New World.

Um mal wieder zum eigentlichen Topic zu kommen:
Laut neuem VGLeaks hat Durango nen Stock Jaguar.
In letzter Zeit gingen ja die Gerüchte um, dass Microsoft den irgendwie erweitert hätte, oder dass ein IBM Prozessor drin ist.
Wenn Microsoft nicht bald irgendein Ass aus dem Ärmel zieht, ist die PS4 von der Rohleistung her um einiges stärker. Anscheinend vertraut Microsoft auf Kinect 2.0 und ihre Multimedia Features.
Bin ja gespannt, was sie da in Europa anbieten. Kann mir nicht vostellen, dass sie Verträge mit jedem großen Kabelanbieter Europas haben. Und auch Netflix und Konsorten sind hier nicht so verbreitet.

Hallo
2013-02-28, 11:05:14
@Sven77
Da magst du in gewisser Weise Recht haben.Aber die Games sind billiger,sehen besser aus und ich muss mir keine Kamera vor die Nase stellen:wink:

Naja und Computer haben noch so einige andere Vorteile die Konsolen nicht bieten,gamingtechnisch:whisper:

Nur Köpfe im Sand wollen nicht wahrhaben was so alles möglich ist.Hacker machen sich in hochgesichterten Umgebungen breit und MS kommt nicht auf die Idee Profile,jetzt mit Bild und Ton anzufertigen,wo lebst du eigentlich,Traumblase 12.

Frozone
2013-02-28, 11:08:43
@Sven77
Da magst du in gewisser Weise Recht haben.Aber die Games sind billiger,sehen besser aus und ich muss mir keine Kamera vor die Nase stellen:wink:
Du hast schon mitbekommen das Online und Kamera freiwillig sind und nicht zwang sind!

Hallo
2013-02-28, 11:11:00
Meine letzte Info ist Kinect muss an der Konsole dranne sein,Games müssen installiert werden und werden gebunden sein

Wenn sich dies geändert hat begrüsse ich das natürlich.Linky?

Sven77
2013-02-28, 11:11:42
Naja und Computer haben noch so einige andere Vorteile die Konsolen nicht bieten,gamingtechnisch:whisper:

Bringt mir nichts wenn die Haelfte der Titel dich ich spielen will Konsolenexklusiv sind.. ansonsten siehe Frozone

Fireblade
2013-02-28, 11:13:41
Meine letzte Info ist Kinect muss an der Konsole dranne sein,Games müssen installiert werden und werden gebunden sein

Wenn sich dies geändert hat begrüsse ich das natürlich.Linky?

Das sind alles "Insider"-Gerüchte. Zumal sich sowas wie always-online von heute auf morgen ändern kann. Ist ja nicht wie Hardware, wo man ewig Vorlaufzeit braucht. Vielleicht wars mal geplant, aber jetzt wo Sony gezeigt hat, dass sie z.B. always online nicht einführen, wird Microsoft bestimmt nicht damit anfangen.

Hallo
2013-02-28, 11:14:19
@Sven77
Das ist wahr.Aber selbst ein Forza5 oder Uncharted4 wird mich nicht überreden können mir DRM Ketten aufzubürden WENN dies wirklich so aussehen wird.

Schade aber ich lasse mich doch nicht benutzen.Reicht denen mein Geld für die Games und HW nicht?

@Fireblade

Nun DRM Gerüchte gabs ja schon in der Vergangenheit nur diesmal könnten die es wirklich in einer für mich und viele andere untragbaren Form "lösen".

Gouvernator
2013-02-28, 11:15:01
Du hast schon mitbekommen das Online und Kamera freiwillig sind und nicht zwang sind!
Noch nicht. Denkt an den feuchten Traum... des Musik-, Film- und Spielkonzerns. Sie verkaufen jetzt schon Games als Einzellizenz deswegen auch Gebrauchtspiel-Sperre. Nächster Schritt Movies - jeder "Schwarzseher" im Raum der seine "Lizenz" nicht bezahlt hat kriegt die Blu-Ray nicht zu sehen.
Die Infrastruktur dafür legen sie jetzt mit Gebrauchtspielen.

Crazy_Bon
2013-02-28, 11:18:18
@Sven77
Das ist wahr.Aber selbst ein Forza4 oder Uncharted4 wird mich nicht überreden können mir DRM Ketten aufzubürden WENN dies wirklich so aussehen wird.

Schade aber ich lasse mich doch nicht benutzen.Reicht denen mein Geld für die Games und HW nicht?

Aber wie Lemminge die Spiele über Steam kaufen, gebunden am Account und wenn Valve lustig ist, könnten sie einem alles entziehen, schliesslich haben die Spiele einem nie wirklich gehört.

Sven77
2013-02-28, 11:21:43
Aber wie Lemminge die Spiele über Steam kaufen, gebunden am Account und wenn Valve lustig ist, könnten sie einem alles entziehen, schliesslich haben die Spiele einem nie wirklich gehört.


Aber da sind sie doch soooo guenstig!!!111

Koennen wir die Thematik bitte wieder in Richtung Technik lenken.. die Diskussionen sind muessig, MS hat noch keinerlei Aussage gemacht und Sony hat bestaetigt das Gebrauchtspiele moeglich sind. Wenn BF4 ein reiner Downloadtitel wird schiesst sich EA doch selbst in den den Fuss

Finch
2013-02-28, 11:22:34
@ Gouvernator und hallo

Könnt ihr beiden euch mal aus eurer Verschwörungstheorien-Welt lösen und das Thema wieder auf das wesentliche zurückführen?

Hallo
2013-02-28, 11:23:53
@Sven77
Das Thema heisst NextGenKonsolen und nicht Technik der NGK,thx.

@Finch

Meine Aussagen beruhen nunmal auf Statements über die man spekulieren darf genauso wie hier über deren Technik spekuliert wird.Was hat die mit VT zu tun?Das hat eher mit Geschäftsgebaren und Geld zu tun und da spassen solche Unternehmen eher wenig.

Denkst du MS würde es ablehenen wenn alle freiwillig sich komplett offenbaren würden?Sicher nicht.Und du hast auch mitbekommen das Profile für teuer Geld gehandelt werden damit man noch mehr Geld verdient,VT?Eher Realität.

Gouvernator
2013-02-28, 11:25:09
@ Gouvernator und hallo

Könnt ihr beiden euch mal aus eurer Verschwörungstheorien-Welt lösen und das Thema wieder auf das wesentliche zurückführen?
Was? bad PR for Sony?
Stellt euch vor VW würde nachdenken das der nächste Golf nur über Lizenzzahlung an VW weiterverkauft werden darf ob überhaupt...

Finch
2013-02-28, 11:25:18
Es heißt aber auch nicht: Sony und ms spionieren und durch Kameras aus...

Sven77
2013-02-28, 11:27:24
Kann hier mal ein Mod aufraeumen bitte!

Hallo
2013-02-28, 11:33:54
Es heißt aber auch nicht: Sony und ms spionieren und durch Kameras aus...

Die Möglichkeit besteht rein technisch.Und Profile sind Geld wert,richtig?

Nun kann man 1+1 zusammenzählen was möglich WÄRE...ich aber nicht hoffe das es wahr wird.ich habe nur Sorge das ich diesmal aussteigen werde wenn die mir blöd kommen wollen.

Ich gebe gerne gutes Geld aus für Games und HW.Aber ich will nicht das Gefühl haben an der kurzen Leine gehalten zu werden,wer will das schon?

Technik und Konzept der PS4 gefallen mir sehr,auch die grössere Indie-Unterstützung und vielleicht mehr Arcade Download und vor allem kürzere Latenzen der Pads.

Aber bitte Sony,bitte macht dies nicht kaputt mit solchen verbraucherunfreundlichen Eskapaden.Wer so pleite ist sollte nicht den Wald anzünden,ansonsten verbrennt er selber dabei,gerechtfertigt.

Die wenigsten wissen vielleicht das die meissten PS3 Games Code-Free sind?Sogar bei MS gibt es ne gute Stange Japan Discs die auch hier laufen.Spiele die hier nie erschienen sind,Spiele für die der geneigte Importzocker auch mal gut über 100 Euro ausgibt.

Finch
2013-02-28, 11:36:41
Wenn die Infos von VGleaks stimmen und der Jaguar auch im Durango verbaut ist. Dann müssen die 32MB EDRAM irgendwie dafür sorgen, das die GPU beschleunigt wird. Ich wüsste nicht wie MS sonst an die PS4 herankommen will.

Ich kann mir jedoch nicht denken das die 32MB die Differenz zwischen den beiden Grafiklösungen nichtig machen wird.

Ich bin gespannt ob sich diese Gerüchte alle bewahrheiten werden.

Hallo
2013-02-28, 11:46:18
Und was wird derzeit für ne GPU in der 720 gehandelt?

DDR3 zieht ja nicht gerade die Wurst vom Teller.

Und reichen der eDRAM für 1080p mit anständig AA und Frameraten über 30 sprich 60 wirklich aus?

][immy
2013-02-28, 11:46:49
Wenn die Infos von VGleaks stimmen und der Jaguar auch im Durango verbaut ist. Dann müssen die 32MB EDRAM irgendwie dafür sorgen, das die GPU beschleunigt wird. Ich wüsste nicht wie MS sonst an die PS4 herankommen will.

Ich kann mir jedoch nicht denken das die 32MB die Differenz zwischen den beiden Grafiklösungen nichtig machen wird.

Ich bin gespannt ob sich diese Gerüchte alle bewahrheiten werden.
nunja, aktuell sind ja alles nur gerüchte um die xbox 720, aber die 360 hatte schon nur die halbe Bandbreite gegenüber der ps3 und trotzdem war sie dank des kleinen edram teils gleich auf.


Und reichen der eDRAM für 1080p mit anständig AA und Frameraten über 30 sprich 60 wirklich aus?
einfache Rechnung, auch ohne Kompression, ja.

Fireblade
2013-02-28, 11:48:04
Dann müssen die 32MB EDRAM irgendwie dafür sorgen, das die GPU beschleunigt wird. Ich wüsste nicht wie MS sonst an die PS4 herankommen will.

Ich kann mir jedoch nicht denken das die 32MB die Differenz zwischen den beiden Grafiklösungen nichtig machen wird.


Wenn es bei den geleakten Daten bleibt, gibt es eigentlich keince Chance dass Durango den Unterschied in Leistung wettmachen kann.

1.2TF GPU gegen 1.8TF GPU
8GB DDR +32MB EDRAM @ 68GB/s + 102GB/s vs 8GB GDDR5 @ 176GB/s

Vermutung: Microsoft bietet (insbesondere in den USA) die Konsole unglaublich günstig an durch Vertragsbindung, z.B. durch Kabelanbieter oder Pay-TV. Das würde zu ihrer "das Wohzimmer erobern" Strategie passen. Kinect ist dann die glorifizierte Fernbedienung für die Apps.

Hallo
2013-02-28, 11:51:33
Hab auch das Gefühl MS will nen HTPC verbreiten und schaut garnicht sosehr auf Technik/Grafik wie Sony.

Wenn die Casuals siegen siegt MS,wenn es doch noch genügend echte Zocker gibt wird Sony siegen.

[immy;9674189']
einfache Rechnung, auch ohne Kompression, ja.
Ok,danke.

Finch
2013-02-28, 11:55:28
Und was wird derzeit für ne GPU in der 720 gehandelt?

DDR3 zieht ja nicht gerade die Wurst vom Teller.

Und reichen der eDRAM für 1080p mit anständig AA und Frameraten über 30 sprich 60 wirklich aus?
768 SP, also 12 CU bei ~100GB Bandbreite.

Hallo
2013-02-28, 11:59:55
Hmm,mit was für ner Desktop Karte könnte man dies vergleichen?

Die Daten sagen mir wenig bis auf die 100GB/s,welche nach meinem Verständniss eher konservativ sind.
Das man aus nem geschlossenem System mehr rausholt ist natürlich klar.

Fireblade
2013-02-28, 12:01:40
Durango AMD 7770, PS4 ungefähr 7850 dürfte es ganz gut beschreiben.

AnarchX
2013-02-28, 12:03:35
Denkbar dass aber Durango auch ein Dual-Front-End und 32 ROPs hat.

Hallo
2013-02-28, 12:04:37
Durango AMD 7770, PS4 ungefähr 7850 dürfte es ganz gut beschreiben.

Thx:up:

Finch
2013-02-28, 12:05:14
Hmm,mit was für ner Desktop Karte könnte man dies vergleichen?

Die Daten sagen mir wenig bis auf die 100GB/s,welche nach meinem Verständniss eher konservativ sind.
Das man aus nem geschlossenem System mehr rausholt ist natürlich klar.
Die PS4 hat 384 mehr SPs. 768 <> 1152

Denkbar dass aber Durango auch ein Dual-Front-End und 32 ROPs hat.

Ich hoffe doch stak, das MS irgendwie aufholt. Als Multikonsolero will ich 2 gleichstarke Konsolen.

Fireblade
2013-02-28, 12:07:37
Denkbar dass aber Durango auch ein Dual-Front-End und 32 ROPs hat.

Wären 32 ROPs bei der restlichen Hardwareleistung von Durango nicht overkill? Denke selbst die PS4 wird kaum alle 32 ausreizen können.

Hallo
2013-02-28, 12:09:16
Sony scheint wirklich auf die Tube drücken zu wollen,nur bitte kein DRM Unfug,dann gekauft am ersten Tag.

Finch
2013-02-28, 12:13:25
Sony scheint wirklich auf die Tube drücken zu wollen,nur bitte kein DRM Unfug,dann gekauft am ersten Tag.


DRM wird auf die eine oder andere Art kommen. Das war um Teil für vieles auch schon in der letzten Generation vorhanden.

Hallo
2013-02-28, 12:33:19
Aber in dem Moment wo eine Kamera zwingend auf mich gerichtet ist bin ich definitiv raus.Ein bisschchen Selbstachtung möchte ich mir schon noch schützen und MS oder S haben in meinem privaten Leben nix zu suchen.

Finch
2013-02-28, 12:34:53
Du bist schon sehr paranoid... Was meinst du welche Klagewelle auf Sony und MS zu kommenwürde wenn sie sowas machen würden. Sowas lässt sich auch nicht verheimlichen.

LadyWhirlwind
2013-02-28, 12:38:09
Vermutung: Microsoft bietet (insbesondere in den USA) die Konsole unglaublich günstig an durch Vertragsbindung, z.B. durch Kabelanbieter oder Pay-TV. Das würde zu ihrer "das Wohzimmer erobern" Strategie passen. Kinect ist dann die glorifizierte Fernbedienung für die Apps.

Es wird so aussehen:

App-Station mit Party-Unterhaltungsgames:

Apple TV xxx: $99

Casual-Konsole:
Ninendo-Wii U: $299

Next-Gen Konsole für ehemalige Core-Gamer, anspruchsvollere Casual-Gamer und Core-Gamer mit kleinem Budget, Entertainment-Station Familien-Konsole:
Xbox 720 inkl. Kintet: ca. $399

Für Core-Gamer und anspruchsvolle Casual-Gamer mit grossem Budget:
PS4: ca. $499

Jede Knosole wird ihre eigene Ziel-Gruppe und Preisklasse haben.

Hallo
2013-02-28, 12:43:23
Du bist schon sehr paranoid... Was meinst du welche Klagewelle auf Sony und MS zu kommenwürde wenn sie sowas machen würden. Sowas lässt sich auch nicht verheimlichen.

Naja versuchen kann mans mal.Was hat FaceBook nicht schon alles durchgezogen und wie desilusioniert waren die "armen" Nutzer dann was zu einem deutlichen Rückgang der Nutzer fürte.

Immer vor Augen halten,wenns um die grosse Kontrolle/Macht/Geld geht wird alles versucht,alles.

MS und S und viele andere BigPlayer sind definitiv keine Menschenfreunde.

Lieber ein bisschen paranoid auch wenn manchmal unangebracht als blindes Vertrauen und evtl. Enttäuschung bzw. kaltes Erwachen:wink:

Da gabs mal einen riesen Artikel im Spiegel vor etlichen Jahren das der BND,wenn er will,das Mic aller Handys selbst im ausgeschalteten Zustand aktivieren kann,überascht?Sollteste aber nicht sein.

So und ne Kinect Kamera die evtl. immer an sein muss...MS wäre doch doof sich diese Info/Geldquelle entgehen zu lassen,oder?
Jemand der Win8 verbrochen hat traue ich alles zu,sogar nen BlueScreen auf der 720 hahaha!

Fireblade
2013-02-28, 12:45:47
Also Sony hat definitiv gesagt, dass die PS4 generell NICHT always-online ist und auch die Kamera generell NICHT immer angeschlossen sein muss. Aber es wird sicherlich einzelne Spielegeben , wo das nicht gilt. Always-online bei MMOs oder Kamerapflicht bei Move Spielen z.B.

Zu Microsofts Plan gibt es nur Gerüchte.

Sven77
2013-02-28, 12:48:03
Lieber ein bisschen paranoid ...

Zustimmung, aber dir wuerde ich vorschlagen mal prof. Hilfe aufzusuchen. Ernsthaft..

Hallo
2013-02-28, 12:56:38
Ach Mensch du,muss das sein?Hab keine Lust mich mit dir zu streiten,please:smile:

Wir sollten mal ne Runde Nordschleife Forza4 machen,na?

Sven77
2013-02-28, 12:59:13
Ach Mensch du,muss das sein?Hab keine Lust mich mit dir zu streiten,please:smile:

Wir sollten mal ne Runde Nordschleife Forza4 machen,na?

Xbox verkauft..

Mal was anderes. Im Neogaf gibt es Geruechte das Epic keine Gears of War Teile mehr machen wird, GoW:Judgement haben sie ja schon an das gekaufte Studio People can fly abgetreten. Ausser Halo und Forza gibts ja dann eigentlich keine exklusiven Franchises mehr die Gewicht haben, oder.. imho schon ein wenig mau

Fireblade
2013-02-28, 13:11:05
Ausser Halo und Forza gibts ja dann eigentlich keine exklusiven Franchises mehr die Gewicht haben, oder.. imho schon ein wenig mau

Fable .. aber die IP haben sie ja auch durch Kinect verheizt

Hallo
2013-02-28, 13:28:24
Eben,die Exclusives werden immer rarer und Multi hab ich auf meiner 570er mit 2600K bestimmt ganauso gut im Griff,wenn nicht besser.

Wenn Sega was bringen würde,ja dann hätten wir Exclusives um drin schwimmen zu können.Vielleicht warten die auch nur bis sich S Und MS gegenseitig kaputtmachen,schau ma mal.

Sven77
2013-02-28, 13:32:49
Eben,die Exclusives werden immer rarer

Bei Sony nicht.. die haben genug Studios

Tomi
2013-02-28, 13:44:22
Xbox verkauft..

Ausser Halo und Forza gibts ja dann eigentlich keine exklusiven Franchises mehr die Gewicht haben,
Die Gerüchteküche meldet heute, dass MS mit EA für die kommende XBox einen nicht näher bekannten Exklusivdeal habe.

Deinorius
2013-02-28, 13:49:03
Wenn die Casuals siegen siegt MS,wenn es doch noch genügend echte Zocker gibt wird Sony siegen.


Was soll dieses Gerede von Siegen und Verlieren? Das kann den Unternehmen im Grunde egal sein, solange sie genug Gewinn machen.
Und das muss sich erstmal abzeichnen.

Sven77
2013-02-28, 13:50:20
Die Gerüchteküche meldet heute, dass MS mit EA für die kommende XBox einen nicht näher bekannten Exklusivdeal habe.

Oha.. bitte nicht Battlefield.. :eek:

Hallo
2013-02-28, 13:52:15
Bei Sony nicht.. die haben genug Studios

God of War? hmmm ok wenn man Tearing und Ruckelei weglässt.Schon Bayonetta auf Xse gezockt?Besser;)
GT?NÖ hab mein besseres Forza.
Uncharted,gut supi.
Gears,auch supi.
Halo?hmmm gut aber seit Teil1(BESCHTE) immer schlechter geworden mit Zielgruppe 1-3 Jährige wenn ich mir die InGameDialoge so anhöre,grausam.

Und weiter?

Wie gesagt wenn Sega wieder würde dann würde das Wort Exclusives wieder seine alte Bedeutung zurückgewinnen aber mit ner Handvoll DRM Spiele können die mich nicht in Ketten legen;)

Nö sag ich mal und spare einen haufen Geld.

Was soll dieses Gerede von Siegen und Verlieren? Das kann den Unternehmen im Grunde egal sein, solange sie genug Gewinn machen.
Und das muss sich erstmal abzeichnen.
Na dann halt:Besser,erfolgreicher,monetarisch(nicht ganz unwichtig) besser als der Konkurrent,besser so:)

dildo4u
2013-02-28, 14:19:59
Sony setzt keine Online Verbindung voraus zum zocken bzw "aktiveren" der Games,das System ist also schon mal freier als Steam,Origin und co was MS macht wird man sehen.

PrefoX
2013-02-28, 14:30:18
Oha.. bitte nicht Battlefield.. :eek:
BF4 wurde ja schon für die PS4 angekündigt, freu mich trotzdem nicht auf teil 4 nach diesem dritten Teil :mad:

Fireblade
2013-02-28, 14:35:55
God of War? hmmm ok wenn man Tearing und Ruckelei weglässt.Schon Bayonetta auf Xse gezockt?Besser;)


Also wenn man bei God of War eine Sache nicht kritisieren kann, dann die Bildqualität.

Hallo
2013-02-28, 15:54:27
Nunja als Standbild ists killer.
In Bewegung erreicht es nie volle 60fps ohne Tearing/Ruckeln.

Sven77
2013-02-28, 16:10:50
BF4 wurde ja schon für die PS4 angekündigt,

Oh tatsaechlich, gestern. Puh, nochmal durchatmen.. wahrscheinlich gibts dann die Sims exklusiv auf der Xbox :ugly:

Hayab
2013-02-28, 16:44:05
IMHO MS kann noch grafisch noch aufschliessen wenn ihr System mehr ROPs hat. Die frage ist, wie stark steigt dadurch das TDP?

Locuza
2013-02-28, 17:37:25
IMHO MS kann noch grafisch noch aufschliessen wenn ihr System mehr ROPs hat. Die frage ist, wie stark steigt dadurch das TDP?
Wenn die Leaks stimmen, dann hat die Xbox Next 768 ALUs, 16 ROPs und 48 TMUs.
Wäre jetzt auch arg Phantasiereich da überproportional viele ROPs sich zu erdenken.

dildo4u
2013-02-28, 17:39:45
Oh tatsaechlich, gestern. Puh, nochmal durchatmen.. wahrscheinlich gibts dann die Sims exklusiv auf der Xbox :ugly:
Natürlich kommt es für PS4,BF3 hat sich auf der PS3 am besten verkauft.

Herr Doktor Klöbner
2013-02-28, 20:27:16
Hallo,

auf PC-Games Hardware kommt gerade die Meldung, das die Jaguar Kerne der PS4 mit 2,0 statt wie bisher erwartet 1,6 Ghz laufen sollen.

http://www.pcgameshardware.de/PlayStation-4-Konsolen-220102/News/Playstation-4-Jaguar-2-0-GHz-1058114/

Wäre natürlich sehr nett, 25% mehr Takt. Wenn das stimmt, wäre es interessant zu wissen ob das auch für die XBox 720 gilt, oder ob das ebenfalls zu Sonys Strategie gehört die technisch bessere Konsole in dieser Generation zu haben.

Karümel
2013-02-28, 22:47:35
Was ja auch zur Zeit als "Gerücht" öfters zu lesen ist (hat zwar nicht direkt mit den Konsolen ansich zu tun).

Werden die Spiele für die kommenden Konsolen nochmals teurer? Angeblich bis zu 80Euro? Falls ja werden die PC Spiele im Preis nachziehen?

mbee
2013-02-28, 22:53:53
Moment, ich schau mal in meine Glaskugel....ich sehe.....nichts...funktioniert wohl heute nicht, das Ding ;)

TheCounter
2013-02-28, 22:58:08
Durango CPU Overview:

http://www.vgleaks.com/durango-cpu-overview/

Gipsel
2013-02-28, 23:19:06
Durango CPU Overview:

http://www.vgleaks.com/durango-cpu-overview/
Halt zwei normale Jaguar-Module zusammengeflickt. Und das noch nicht mal besonders schnell. Die Latenz zum Snoopen des anderen Moduls (um Kohärenz zu gewährleisten) ist ziemlich hoch. Dürfte bei der PS4 aber genauso sein.

TheCounter
2013-03-01, 08:18:13
Laut den Gerüchten gibt es also bisher keinerlei Modifikationen an der Hardware. Lediglich der "eSRAM" ist "speziell".

Passt aber irgendwie nicht so zu MS einfach nur "stock" Hardware zu nehmen (nach der 360). Schade irgendwie.

robbitop
2013-03-01, 08:23:19
Zu Sony passt es noch weniger... ;)
Aber es macht eindeutig Sinn. Sony hat am Ende dafür - wie beim letzten Mal - die teurere BOM und damit vermutlich auch die teurere Konsole.

dargo
2013-03-01, 08:44:21
Mal was anderes. Im Neogaf gibt es Geruechte das Epic keine Gears of War Teile mehr machen wird, GoW:Judgement haben sie ja schon an das gekaufte Studio People can fly abgetreten. Ausser Halo und Forza gibts ja dann eigentlich keine exklusiven Franchises mehr die Gewicht haben, oder.. imho schon ein wenig mau
Man sollte sich langsam dran gewöhnen, dass Multiplattform die Zukunft ist. Kein Wunder bei den immer steigenden Produktionskosten. Mit Multi grast man eine viel höhere Zielgruppe ab.

Bei Sony nicht.. die haben genug Studios
Fragt sich nur wie lange noch?

Halt zwei normale Jaguar-Module zusammengeflickt. Und das noch nicht mal besonders schnell. Die Latenz zum Snoopen des anderen Moduls (um Kohärenz zu gewährleisten) ist ziemlich hoch. Dürfte bei der PS4 aber genauso sein.
Verstehe ich das richtig? Der L2 Cache ist nicht shared?

Locuza
2013-03-01, 09:16:04
Verstehe ich das richtig? Der L2 Cache ist nicht shared?
Nein, 2 MB für 4 Cores für ein Modul ja, die restlichen 2MB vom anderem Modul muss man mit einer höheren Latenz ansteuern.
Es ist halt kein nativer 8 Kerner, sondern zwei 4 Kerner zusammengepappt.

Bzw. ja doch, "bloß" mit einer deutlich höheren Latenz.
Wäre das aber bei einem nativen 8 Kerner auch nicht prinzipiell anders?
Bei Bulldozer hat doch jedes Modul auch seinen lokalen L3-Cache mit mehr Bandbreite und besseren Latenzen?

Sven77
2013-03-01, 09:36:01
Man sollte sich langsam dran gewöhnen, dass Multiplattform die Zukunft ist. Kein Wunder bei den immer steigenden Produktionskosten. Mit Multi grast man eine viel höhere Zielgruppe ab.

Aehm nein.. GoW gehoert ja weiter MS, d.h. es wird weiterhin Gears Teile geben.
Die Exklusiven sind auch ohne Multi grosse Verkaufsschlager, Halo haut ja richtig rein ohne ein Multititel zu sein. Warum sollte ich mir eine Playstation kaufen wenn es Uncharted, God of War und Gran Turismo auch auf dem PC/Xbox gibt. Respektive gilt das natuerlich auch wenn ich Halo spielen will. Exclusives sind die Zugpferde der Konsolen, MS hat fuer Halo extra ein neues Studio aus dem Boden gestampft, Sony hat erst kuerzlich Sucker Punch gekauft (Infamous).

robbitop
2013-03-01, 09:41:44
Natürlich wird es weiterhin Exclusives geben. Jeder benötigt System-Seller. Verkaufte System sind dann widerum der potenzielle Markt für neue Spiele, um daran Gewinn zu machen. Insofern macht es sogar Sinn, diesen Effekt zu (teil-)subventionieren.

THEaaron
2013-03-01, 11:00:52
Man muss sich ja auch nur mal Verkaufszahlen starken Exklusivtiteln angucken. GT5, Uncharted, Halo, Forza, God of War und was weiß ich nicht alles erzielen alle auf einer Konsole Verkäufe von mehreren Millionen Einheiten.

Frozone
2013-03-01, 11:31:29
Man muss sich ja auch nur mal Verkaufszahlen starken Exklusivtiteln angucken. GT5, Uncharted, Halo, Forza, God of War und was weiß ich nicht alles erzielen alle auf einer Konsole Verkäufe von mehreren Millionen Einheiten.
Aber die meist verkauften sind mit Abstand Multi's.
COD, FIFA usw.
Und bei denen war in der diesjährigen Generation vor allem am Anfang die XBOX Version besser, weswegen sich in meinem Freundeskreis viele die XBOX geholt haben (Günstiger und bessere Grafik).
Ich hatte trotzdem die PS3 wegen einiger Multis. Aber nicht immer von einem speziellem Forum auf die Allgemeinheit schliessen.

THEaaron
2013-03-01, 11:39:06
Mir geht es vor allem darum, dass es bei so einer Zahl (GT5 8mio~ ?) mehr als lohnenswert für Sony/MS ist auf Exklusivstudios zu setzen.

robbitop
2013-03-01, 11:40:58
Es genügt ja schon, wenn die Titel mit +/- 0 laufen. Bessere Systemseller und Werbeträger gibt es ja kaum.

Knuddelbearli
2013-03-01, 11:41:26
da scheinbar GPGPU auf den Konsolen ganz schön gepusht werden soll, wäre es möglich das sich Thaiti CUs auf den Chips befinden ? Nur Thaiti ist seinen NV Konkurenten bei GPGPU massiv überlegen

robbitop
2013-03-01, 11:58:33
Für das Compute in den Spielen wird man zumindest FP64 sicher eher seltener brauchen. Ich kann mir nicht vorstellen, dass man dort unnötig viele Transistoren hineinbuttert.

dargo
2013-03-01, 12:04:32
Nein, 2 MB für 4 Cores für ein Modul ja, die restlichen 2MB vom anderem Modul muss man mit einer höheren Latenz ansteuern.

Ja... so meinte ich es auch. Ich dachte zuerst bloß alle 8 Kerne könnten auf den insgesamt 4MB L2 zugreifen. Der Zeichnung nach ist dem wohl nicht so. Bzw. schon aber zum Teil über das CCI. Wieviel langsamer ist eigentlich dieses CCI im Vergleich zum L2 Cache Interface?

Mir geht es vor allem darum, dass es bei so einer Zahl (GT5 8mio~ ?) mehr als lohnenswert für Sony/MS ist auf Exklusivstudios zu setzen.
Ich sag auch nicht, dass Exklusives komplett von der Bildfläche verschwinden. Womit soll man dann neue Konsolen schmackhaft machen? Einzelfälle wird es immer geben (müssen).

robbitop
2013-03-01, 12:09:59
Letztenendes ist das auch ein wenig ähnlich zum LLC beim Core i. Der Core i7 hat 8 MiB L3 Cache. Jeder Kern kann aber auch nur richtig schnell auf seinen eigenen 2 MiB Block zugreifen. Will er auf den LLC Block von einem anderen Kern muss er über ein Interface mit dem anderen Core kommunizieren - auf Kosten der Latenzen.
IMO ist die Cachewahl recht ausgewogen. Es sind schließlich auch "nur" kleine Low Power Kerne.

dargo
2013-03-01, 12:26:37
falscher inhalt

Knuddelbearli
2013-03-01, 12:42:02
Für das Compute in den Spielen wird man zumindest FP64 sicher eher seltener brauchen. Ich kann mir nicht vorstellen, dass man dort unnötig viele Transistoren hineinbuttert.


Die Alternative, wenn man nicht schlechte DirectCompute Performance will, wäre ein komplett eigenes Design und daran glaube ich eher nicht

robbitop
2013-03-01, 12:57:28
Naja FP64 braucht man für die seltensten Fälle für Compute. Die Frage ist, ob unabhängig davon die Pitcairn CUs so schlecht für FP32 Computefälle sind. Die Caches sind sicher etwas kleiner.

Iruwen
2013-03-01, 13:18:46
beim MMO mit zig tausenden servern, brauchste auch tausende GMs, ich glaube das macht schon viel aus. von den 13€ die man da zahlt gehen mit sicherheit 5 für die drauf.

Wo gibts denn noch GMs? Bei WoW afaik nicht mehr, bei GW2 von Anfang an nicht. GW2 hatte letztes Jahr zwei Millionen Spieler iirc, ANet hat ca. 300 Mitarbeiter.

ndrs
2013-03-01, 13:32:48
Wieviel langsamer ist eigentlich dieses CCI im Vergleich zum L2 Cache Interface?
Steht doch in dem geposteten Link. Hier nochmal:http://www.vgleaks.com/durango-cpu-overview/
Remote L2: 100 Clocks
Local L2: 17 Clocks

Gipsel
2013-03-01, 13:58:09
da scheinbar GPGPU auf den Konsolen ganz schön gepusht werden soll, wäre es möglich das sich Thaiti CUs auf den Chips befinden ? Nur Thaiti ist seinen NV Konkurenten bei GPGPU massiv überlegen
Die Alternative, wenn man nicht schlechte DirectCompute Performance will, wäre ein komplett eigenes Design und daran glaube ich eher nicht
Naja FP64 braucht man für die seltensten Fälle für Compute. Die Frage ist, ob unabhängig davon die Pitcairn CUs so schlecht für FP32 Computefälle sind. Die Caches sind sicher etwas kleiner.
Die Pitcairn CUs sind exakt genau so schnell, solange kein DP verwendet wird. Sieht man auch in allen gängigen Compute-Benches an. Das skaliert typischweise wunderbar mit der Anzahl der CUs bzw. Speicherbandbreite.

Der einzige Cache, der bei Pitcairn etwas kleiner ist, ist der L2. Da gibt es eben nur 8x64=512kB statt 12x64=768kB, weil das mit der Breite des Speicherinterfaces skaliert. In den CUs besitzen beide exakt gleich viele Register, einen exakt gleich großen L1-Cache und einen exakt gleich großen LDS. Sie unterstützen auch bedie den exakt gleichen Befehlssatz. Der einzige Unterschied ist, daß Tahiti ECC kann und DP schneller ist, das war's.

Wenn man wirklich Erbsenzählerei betreiben will, hat Pitcairn relativ gesehen sogar minimal mehr Instruktions- und skalaren Datencache (L2 eigentlich auch). Bei Tahiti teilen sich immer 4 CUs 16kB skalaren Datencache sowie 32kB Instruktionscache. Bei Pitcairn gibt es jetzt nicht 5 Gruppen zu je 4 CUs, sondern 2 Gruppen zu 4 CUs und 4 Gruppen zu je 3 CUs. Auch die Gruppen mit nur 3 CUs können auf die vollen 16kB L1sD-Cache und 32kB L1I-Cache zurückgreifen. Pitcairn ist ein verdoppelter CapeVerde, die Aufteilung in die Gruppen sieht dort genau so aus.

lastshady
2013-03-01, 20:48:27
Gibts eigentlich niemanden der von der Leistung der ps4 entäuscht ist?
Ich habe mehr Leistung erwartet
-Stromverbrauch und Größere des Gerätes is mir "egal".
Anscheinend bin ich der einzige.

Bis auf wenige exclusive titel seh ich grad kein grund ne konsole zu holen.
Die gleichen spiele spiele ich aufm pc mit mehr details?

ngl
2013-03-01, 20:57:51
Die nächste Generation ist auch nicht dazu da PC Spieler zur Konsole zur konvertieren. Warum solltest du das tun? Bei einem Einführungspreis von 500-600$/€ kann jeder PC Spieler für die gleiche Summe seinen Rechner gleichwertig aufrüsten und spart dann über die Zeit 25-35€ pro gekauftem Spiel.

Enttäuscht von der Leistung sind einige. Nur gibt es keinerlei Alternativen. Eine bessere Hardware bedeutet Konsolenpreise von 700-1000,- wer kauft sich dann noch eine? Oder halt massive Subventionierung, sodass man über Jahre Verluste einfährt.

Mit den PS4 Specs ist auf 1080p genug Leistung um einen ordentlichen Schub in der Grafik zu gewährleisten. Was Storytelling und Gameplay angeht, so hat man schon seit der PS1 nicht wirklich das Problem in der Hardware, sondern bei den Studios und Publishern.

Konami
2013-03-01, 20:58:22
Gibts eigentlich niemanden der von der Leistung der ps4 entäuscht ist?
Ich habe mehr Leistung erwartet
-Stromverbrauch und Größere des Gerätes is mir "egal".
Anscheinend bin ich der einzige.

Bis auf wenige exclusive titel seh ich grad kein grund ne konsole zu holen.
Die gleichen spiele spiele ich aufm pc mit mehr details?
Wenn man das Thema und die aufgekommenen Gerüchte verfolgt hat, dann waren jegliche Erwartungen schon längst auf Sparflamme, es konnte also nur positive Überraschungen geben. ;)

Für die engen Grenzen bei TDP und Herstellungskosten sind die Daten der PS4 jedenfalls schwer in Ordnung.

lastshady
2013-03-01, 21:09:11
hmm Ich hatte Erwartet dass die ps4 schon vor der wm 4k ready sein würde.Wie bei der ps3 mit dem full hd tv's
So wird man ja bald 4k tv's haben aber keine 4k spiele.

Vielleicht sind ja Hardware updates für die kommende Zeit geplant.
oder die ps5 könnte schneller kommen als erwartet.

robbitop
2013-03-01, 21:13:28
:| Nicht schon wieder...

dildo4u
2013-03-01, 21:18:21
hmm Ich hatte Erwartet dass die ps4 schon vor der wm 4k ready sein würde.Wie bei der ps3 mit dem full hd tv's
So wird man ja bald 4k tv's haben aber keine 4k spiele.

Vielleicht sind ja Hardware updates für die kommende Zeit geplant.
oder die ps5 könnte schneller kommen als erwartet.
Selbst Titan für 1000€(Nur GPU) ist nicht schnell genug für 4K.In 1080p bekommst du um 50fps bei Crysis 3,in dem Bereich werden sich viele Games bewegen was Hardware Anforderungen angeht,wenn die neuen Konsolen raus sind.http://www.pcgameshardware.de/Crysis-3-PC-235317/Tests/Crysis-3-Benchmark-Test-Grafikkarten-1056218/

Es ist dann wie immer du bekomst auf dem PC die selben Games,nur hat man halt mit der Zeit die Option mit mehr FPS + höherer Auflösung zu zocken.Problem ist diesmal nur das die Sprünge in der GPU Leistung kleiner und teurer für den Endkunden werden.

Herr Doktor Klöbner
2013-03-01, 21:21:16
Wie oft hört man eigentlich noch den komplett sinnbefreiten Blödsinn mit 4K ?

Wo gibt es 4K Fernseher ? Eben gerade löst die BluRay entlich mal die DVD ab, welcher Datenträger kann 4 K ? Wer hat eine Internetleitung fürt 4K Filme ? Über welche Infrastruktur soll 4K Fernsehen übertragen werden ? Welcher Fernsehsender stemmt die Kosten für eine 4K Produktion, es hat ewig gedauert bis endlich HD-Light Standard wurde.

Welche 4K Filme gibt es ? Keine, das erste was wir in den nächsten Jahren an 4K sehen werden sind Kinoprojektoren im dicken 6-Stelligen Bereich was die Kosten angeht, im großen Saal der Multiplexe für einige ausgewählte AAA-Blockbuster.

Spielen in 4K ? Geforce Titan im Triple-SLI könnte bei nicht ganz so anspruchsvollen Titeln knapp reichen, Kostenpunkt 3000, € und 750 Watt.

4K ist Blödsinn und absolute Science-Fiction.

prinz_valium
2013-03-01, 21:24:25
jetzt hat das ding schon 8 gb gdrr5 ram und dann sind die leute trotzdem noch entäuscht?

also ich nicht. ich könnte höchstens noch von der xbox entäuscht werden, wenn sie denn wirklich merklich (optisch) dann später hinter der ps4 liegen wird


edit: klar ist die ps4 4k ready
die wird nen (hoffentlich) brauchbaren upscaler haben.
natives 4k material in form von filmen auch problemlos wieder geben können.
aber dass in dieser auflösung auch nur annähernd gerendert wird, glaubt doch wohl niemand

Gipsel
2013-03-01, 21:36:21
Das Problem mit 4k ist auch, wie kommt das zum Display? Soweit ich weiß hat Sony gesagt, daß die PS4 das Abspielen von 4k-Filmen unterstützt. Allerdings mit dem höchsten der Gefühle, was heutzutage datenraten-technisch über ein highspeed-HDMI-Kabel geht 2160p24. Wer will überhaupt damit spielen? Für irgendeinen Shooter wäre das z.B. in meinen Augen unspielbar. Das will man sich auch nicht hochskaliert mit der niedrigen Bildwiederholrate antun.

fondness
2013-03-01, 21:39:25
Das Problem mit 4k ist auch, wie kommt das zum Display? Soweit ich weiß hat Sony gesagt, daß die PS4 das Abspielen von 4k-Filmen unterstützt. Allerdings mit dem höchsten der Gefühle, was heutzutage datenraten-technisch über ein highspeed-HDMI-Kabel geht 2160p24. Wer will überhaupt damit spielen? Für irgendeinen Shooter wäre das z.B. in meinen Augen unspielbar. Das will man sich auch nicht hochskaliert mit der niedrigen Bildwiederholrate antun.

DisplayPort 1.2 unterstützt AFAIK 4K bei 60hz.

HarryHirsch
2013-03-01, 21:42:09
unspielbar bleibt es trotzdem.

ich bin mir nicht mal sicher das bei 50" einen unterschied sieht.

dildo4u
2013-03-01, 21:43:37
PS4 wird natürlich HDMI 1.4 nutzen wie schon von Sony gesagt es wird nur Filmsupport in 4K geben daher sind keine 60hz nötig.

http://www.hdmi.org/manufacturer/hdmi_1_4/4K.aspx

http://playfront.de/ps4-4k-filme-endgueltig-bestaetigt-werden-um-die-100-gb-gross-sein/

Deinorius
2013-03-01, 21:47:07
:| Nicht schon wieder...


Ich fühle mit dir.

Gipsel
2013-03-01, 21:48:01
DisplayPort 1.2 unterstützt AFAIK 4K bei 60hz.Schon klar. Aber ich bezog mich nicht umsonst auf HDMI und die Sony-Aussage zu 2160p24. ;)
edit:
Haben Sonys 4k aka UltraHD-Fernseher überhaupt Displayport-Eingänge? (http://www.sony.de/product/tv-214-84-lcd/kd-84x9005#/technische-details) ;)

Deinorius
2013-03-01, 21:49:46
DisplayPort 1.2 unterstützt AFAIK 4K bei 60hz.


DisplayPort ist nicht HDMI. :|

lastshady
2013-03-01, 21:55:18
Ich fühle mit dir.

Also ich weiss nichts von vorigen diskussionen,war nur ne Überlegung.
Jetzt seh ich, dass ich die Desktop Grafikkarten überschätzt habe.
Nichtsdestotrotz sollten 4k movie's kein Problem darstellen.

Skysnake
2013-03-01, 21:57:33
Steht doch in dem geposteten Link. Hier nochmal:http://www.vgleaks.com/durango-cpu-overview/
Remote L2: 100 Clocks
Local L2: 17 Clocks
Die 17 Takte sind schon ganz gut, aber die 100 Takte tun schon weh :(

Deinorius
2013-03-01, 22:03:44
Also ich weiss nichts von vorigen diskussionen,war nur ne Überlegung.
Jetzt seh ich, dass ich die Desktop Grafikkarten überschätzt habe.
Nichtsdestotrotz sollten 4k movie's kein Problem darstellen.


Der Thread ist zwar sehr lang, aber 4K wurde schon öfter ausdiskutiert. Genauso wie mehrere andere Dinge, wie die Wahl der CPUs usw.

Also ich weiss nichts von vorigen diskussionen,war nur ne Überlegung.
Jetzt seh ich, dass ich die Desktop Grafikkarten überschätzt habe.
Nichtsdestotrotz sollten 4k movie's kein Problem darstellen.


Wie jetzt wieder erwähnt, die PS4 wird dazu fähig sein, was aber auch kein Kunststück ist. Ändert nichts an der Tatsache, dass sich da längere Zeit kaum was tun wird.

lastshady
2013-03-01, 22:33:31
Der Thread ist zwar sehr lang, aber 4K wurde schon öfter ausdiskutiert. Genauso wie mehrere andere Dinge, wie die Wahl der CPUs usw.




Wie jetzt wieder erwähnt, die PS4 wird dazu fähig sein, was aber auch kein Kunststück ist. Ändert nichts an der Tatsache, dass sich da längere Zeit kaum was tun wird.

Ok danke für die Aufklärung.
Was anderes.Die Gpu der ps4 ist glaub ich auf hd 7970m niveau oder etwas stärker.
Mit welcher Desktop Cpu könnte man aber die 8 jaguar cores@2ghz vergleichen?

Deinorius
2013-03-01, 22:43:33
Steht auch alles hier im Thread. -.-

Die GPU ist zwischen 7850 und 7870 angesiedelt. Die CPUs vergleichen ist schwieriger, vielleicht eine 2 Modul Piledriver CPU mit bis zu 4 GHz, wenn die Jaguar Kerne optimal ausgenutzt werden. Ist nur grob geschätzt.

PrefoX
2013-03-01, 22:46:03
Ok danke für die Aufklärung.
Was anderes.Die Gpu der ps4 ist glaub ich auf hd 7970m niveau oder etwas stärker.
Mit welcher Desktop Cpu könnte man aber die 8 jaguar cores@2ghz vergleichen?
die gpu ist ist ca. eine 7850

schreiber
2013-03-02, 01:23:33
http://techreport.com/news/24430/ea-ps4-to-raise-game-development-costs-5-10?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+techreport%2Fall+%28The+Tech+Report%29
next-gen games are finally coming. And according to Electronic Arts, they'll be 5-10% more expensive to produce

Hält sich doch in Grenzen, die "Kostenexplosion" bei der Nextgen.

Skysnake
2013-03-02, 01:45:36
Man hat eine Hardwarebasis, und keinen CELL mehr zu bedienen.

Da sollten sich große Einsparungspotenziale ergeben ;)

MarcWessels
2013-03-02, 02:01:02
Welche 4K Filme gibt es ? Keine, das erste was wir in den nächsten Jahren an 4K sehen werden sind Kinoprojektoren im dicken 6-Stelligen Bereich was die Kosten angeht, im großen Saal der Multiplexe für einige ausgewählte AAA-Blockbuster.Falsch. Es gibt stapelweise 4K- und 8K-fähige Filme und seit mehreren Jahren schon werden 35mm-Negative in 4K eingescannt.

Die Erweiterung des BD-Standards ist zudem beschlossene Sache, 4K-BDs wirst Du 2014 erwerben können.

PrefoX
2013-03-02, 10:07:16
Wo gibts denn noch GMs? Bei WoW afaik nicht mehr, bei GW2 von Anfang an nicht. GW2 hatte letztes Jahr zwei Millionen Spieler iirc, ANet hat ca. 300 Mitarbeiter.
sicher gibts da noch GMs... und die GMs sind zu 100% nicht direkt bei den Entwicklern unter Vertrag.
und GW2 ist genau deswegen auch kostenlos, ist doch offensichtlich oder?

krötenfresse
2013-03-02, 14:21:57
Falsch. Es gibt stapelweise 4K- und 8K-fähige Filme und seit mehreren Jahren schon werden 35mm-Negative in 4K eingescannt.

Die Erweiterung des BD-Standards ist zudem beschlossene Sache, 4K-BDs wirst Du 2014 erwerben können.
aber für eine konsole ist es sinnlos, spiele in 4k zu rendern.

es sei denn für spätere head-mounted-displays, die in ein paar jahren vielleicht kommen werden.

Crazy_Bon
2013-03-02, 20:01:09
Sony hat doch selbst bestätigt, keine 4k-Spiele für die PS4, wird wohl nur für Filme vorbehalten sein.

Ailuros
2013-03-03, 10:54:49
Steht auch alles hier im Thread. -.-

Die GPU ist zwischen 7850 und 7870 angesiedelt. Die CPUs vergleichen ist schwieriger, vielleicht eine 2 Modul Piledriver CPU mit bis zu 4 GHz, wenn die Jaguar Kerne optimal ausgenutzt werden. Ist nur grob geschätzt.

Entweder hab ich es etwas verpasst dass sich in der Zwischenzeit etwas in der Sony GPU geaendert hat, aber von dem was ich gesehen hatte ist das insgesamte Resultat fuer 3D eher in der 7700 Region :confused:

robbitop
2013-03-03, 11:08:28
Entweder hab ich es etwas verpasst dass sich in der Zwischenzeit etwas in der Sony GPU geaendert hat, aber von dem was ich gesehen hatte ist das insgesamte Resultat fuer 3D eher in der 7700 Region :confused:
Sony PS4 GPU hat 1152 SPs
Radeon 7870 hat 1280 SPs
Radeon 7850 hat 1024 SPs
Radeon 7770 hat 640 SPs.
MS Xbox 720 GPU hat vermutlich 768 SPs

Die PS4 liegt also im Bereich einer 7850. Die X720 im Bereich einer 7770. (insbesondere, wenn man die Chiptakte berücksichtigt)

Herr Doktor Klöbner
2013-03-03, 11:13:57
Ich denke der aktuelle Informationsstand ist, das die PS4 GPU auf der Radeon 78XX Pitcairn basiert, mit 18 CU zwischen der 7850 (16) und der 7870 (20) liegend, getaktet mit 800 MHz, also leistungsmäßig wohl einen Tick über der 7850 und wohl 20% langsamer als eine 7870.

Wobei das nie explizit gesagt wurde, man kann es aus Sonys Leistungsangaben und den geleakten Informationen ableiten.

Fände ich übrigens für eine Konsole richtig gut und im Bereich der optimististen Spekulationen.

Deinorius
2013-03-03, 11:15:36
Die PS4 GPU hat mehr GFLOPs und Shadereinheiten als die 7850. Wie soll das in die 7700 Region passen. Wenn das mit den 16 ROPs stimmt, dann würde das eher hin passen, aber die PS4 GPU hat sogar mehr Bandbreite als die 7870! :eek:

Radeon 7870 hat 1536 SPs


Nein, es sind 1280 SPs.

Herr Doktor Klöbner
2013-03-03, 11:29:12
Das beeindruckendste und unerwarteste an der PS4 sind die 8GB GDDR5 Ram.

Hat irgendwer eine Ahnung was das kostet ? Versucht man das aus der Preisdifferenz zwischen 2GB und 4GB Versionen der GTX670 abzuschätzen kommt man auf abenteuerliche Werte Richtung 200,- €, allerdings sind da ja 256MB Chips verbaut. Gibt es irgendwo Informationen was die in der PS4 wohl verbauten 512MB Chips kosten ? Sollte MS auf einen Preiskampf setzen hätte Sony wohl keine Wahl als kräftig zu subventionieren oder überschätze ich den Kostenfaktor Speicher ?

robbitop
2013-03-03, 11:38:44
Nein, es sind 1280 SPs.
Korrekt - blöde Tahiti 7870 auf GH. :D

Gebrechlichkeit
2013-03-03, 18:05:08
Seit dem Event, frage ich mich, ob Sony doch nicht etwa eine PS4 mit dedizierter c/GPU konzipieren sollte. Okay, sie ist nun sparsamer als die PS3 und auch duerften die Spiele besser sein, aber wenn Sony der PS4 2TFPLS an Peformance zugesteht, die GPU alleine 1.84 auf den Teller bringt... dann ;

Bin ich es nur, oder versucht Sony mit der PS4 nun das Gegenteil zu erreichen, sprich GPU HUI! CPU PFUI?!Bei der PS3 war es ja noch, CPU HUI! GPU PFUI?!... die CPU der XBOX 720 (angeblich 2x Quads at 1.6GHZ) duerfte wesentlich potenter sein, oder etwa nicht?

2TFLPS - 1.84 = da bleiben der PS4 CPU noch 0.160? TFLPS an Leistung.. was kann man damit denn so grossartiges machen? Jede Handy CPU leistet doch mehr... mal schauen ob die CPU doch nicht etwa das "Bottleneck" im System ist... overclocked/enhanced-cpu hin und her... 0.16TFLPs bleiben 0.16T<FLOPS>..

Coda
2013-03-03, 18:07:47
Die PS4 hat doch auch 8 cores? Wovon redest du?

Herr Doktor Klöbner
2013-03-03, 18:10:01
Die CPU ist bei beiden Konsolen identisch, 8 Jaguar Kerne.

dildo4u
2013-03-03, 18:10:54
Seit dem Event, frage ich mich, ob Sony doch nicht etwa eine PS4 mit dedizierter c/GPU konzipieren sollte. Okay, sie ist nun sparsamer als die PS3 und auch duerften die Spiele besser sein, aber wenn Sony der PS4 2TFPLS an Peformance zugesteht, die GPU alleine 1.84 auf den Teller bringt... dann ;

Bin ich es nur, oder versucht Sony mit der PS4 nun das Gegenteil zu erreichen, sprich GPU HUI! CPU PFUI?!Bei der PS3 war es ja noch, CPU HUI! GPU PFUI?!... die CPU der XBOX 720 (angeblich 2x Quads at 1.6GHZ) duerfte wesentlich potenter sein, oder etwa nicht?

2TFLPS - 1.84 = da bleiben der PS4 CPU noch 0.160? TFLPS an Leistung.. was kann man damit denn so grossartiges machen? Jede Handy CPU leistet doch mehr... mal schauen ob die CPU doch nicht etwa das "Bottleneck" im System ist... overclocked/enhanced-cpu hin und her... 0.16TFLPs bleiben 0.16T<FLOPS>..
Die PS4 hat die selbe Konfig wie die neue Xbox 8 Jaguar Kerne mit 1.6 oder 2Ghz Takt.Selbst die schnellsten CPU's haben nur mickrige Flops Werte im Vergleich zu GPU's.

http://hothardware.com/articleimages/Item1989/small_slide_1.jpg

Gipsel
2013-03-03, 18:14:39
Bin ich es nur, oder versucht Sony mit der PS4 nun das Gegenteil zu erreichen, sprich GPU HUI! CPU PFUI?!Bei der PS3 war es ja noch, CPU HUI! GPU PFUI?!... die CPU der XBOX 720 (angeblich 2x Quads at 1.6GHZ) duerfte wesentlich potenter sein, oder etwa nicht?Das bist nur Du. Vermutlich haben PS4 und XBox720 ziemlich genau die gleiche CPU-Konfiguration.
2TFLPS - 1.84 = da bleiben der PS4 CPU noch 0.160? TFLPS an Leistung.. was kann man damit denn so grossartiges machen? Jede Handy CPU leistet doch mehr...Okay, jetzt weiß ich, daß Du trollst. :rolleyes:

Lightning
2013-03-03, 18:16:09
2TFLPS - 1.84 = da bleiben der PS4 CPU noch 0.160? TFLPS an Leistung.. was kann man damit denn so grossartiges machen? Jede Handy CPU leistet doch mehr... mal schauen ob die CPU doch nicht etwa das "Bottleneck" im System ist... overclocked/enhanced-cpu hin und her... 0.16TFLPs bleiben 0.16T<FLOPS>..

Mal abgesehen davon, dass FLOPs nicht alles sind, gerade bei einer CPU: Diese Handy-CPUs würde ich gerne mal sehen.

R.I.P.
2013-03-03, 18:21:45
http://www.theinquirer.net/inquirer/news/2250802/amd-to-sell-a-cut-down-version-of-sonys-playstation-4-apu

Schon bekannt?

Herr Doktor Klöbner
2013-03-03, 18:22:15
Zum Thema Handy-CPU: Hier sieht man etwas anders.

http://www.heise.de/ct/artikel/ARM-aber-sexy-1440485.html

Selbst der Jaguar ist erheblich schneller als alle ARM CPUs

Coda
2013-03-03, 18:22:28
http://www.theinquirer.net/inquirer/news/2250802/amd-to-sell-a-cut-down-version-of-sonys-playstation-4-apu

Schon bekannt?
Ja und Bullshit. Natürlich werden sie Jaguar-Kerne+GCN-APUs auch für PCs verkaufen. Thank you Captain Obvious.

dildo4u
2013-03-03, 18:23:18
Das ist eine non News APUs mit Jaguar Kernen und GCN Grafik waren immer geplant.

R.I.P.
2013-03-03, 19:28:27
Das ist natürlich klar :freak:
Muss ehrlich gestehen, dass ich alles zu schnell überlesen habe: hatte verstanden, dass man einen ähnlichen Chip (mit derselben TFlops capability) releasen wird....habe das Wort "NOT" überlesen :tongue:

StefanV
2013-03-03, 19:36:10
Naja, die PS4 APU macht im Desktop keinen Sinn, da sie gnadenlos verhungern würde -> es fehlt massivst an Bandbreite. Geht also nicht wirklich bzw würde nicht nennenswert schneller sein als aktuelle APUs...

Knuddelbearli
2013-03-03, 19:38:34
och Gddr5 aös Systemspeicher wäre doch mal Lustig ^^

wenn man es eh schon den Controllerchip für Sony entwickelt hat ^^

einfach alles direkt aufs MB verlöten

schreiber
2013-03-03, 19:41:28
Bandbreite? Ich dachte, gerade Speicher, der an Grafikchips angebunden ist, hat genug davon. Es mangelt eher an der Latenz, die dort viel zu hoch ist im Vergleich zu normalem Systemspeicher für die CPU.

Gebrechlichkeit
2013-03-03, 19:44:50
€dit:

Hat sich erledigt. Dachte heutige CPUs haetten locker die 1 TFLOPS Marke erreicht...ist aber nicht der Fall :) 0.2 TFLOPS ftw!

€dit die zweite:

Gut zu wissen, naechstes Mal lieber keine Frage stellen und einfach alles ignorieren...

Gipsel
2013-03-03, 19:47:29
Bandbreite? Ich dachte, gerade Speicher, der an Grafikchips angebunden ist, hat genug davon. Es mangelt eher an der Latenz, die dort viel zu hoch ist im Vergleich zu normalem Systemspeicher für die CPU.Dieser Mythos will nicht verschwinden, oder? GDDR5 hat ziemlich genau die gleichen Latenzen (absolut gesehen, in Nanosekunden) wie DDR3 (oder jeder andere DRAM). Daß das bei GPUs nach mehr aussieht, liegt an den anderen Optimierungsstrategien des Speichercontrollers (präferiert Bandbreite vor Latenz, weil GPUs eben durchsatzoptimiert sind und nicht so empfindlich auf Latenz reagieren). Bei APUs berücksichtig man das natürlich.

Gipsel
2013-03-03, 19:53:56
Stimmt, aber 8 Cores mit einer "angeblichen" Leistung von nur ca. 0.2 Teraflops macht das ganze auch nicht besser, aus meiner Perspektive (bin aber auch nicht so Technik-afin).

Wie gesagt, rein aus meiner Perspektive (Laie)... die PS4-GPU kann locker 1080p at 30 steady fps rendern, samt SSAO oder wars HDAO? (KZSF), die Frage ist ob die CPU hier nicht die GPU ein wenig ausbremsen wird, mit nur 0.2 TFLOPS?
Eine typische QuadCore-CPU auf einem PC kann auch nicht wirklich mehr, insbesondere da ja wohl bisher noch kaum flächendeckend AVX(2) oder Ähnliches verwendet wird. Außerdem: Flops sind längst nicht Alles.

Und wenn Du zugibst, keine Ahnung zu haben, dann quatsch' nicht so einen Blödsinn daher, wie Du das hier (und im Technolgiethread) tust! Ansonsten folgt dem offensichtlich laienhaften Getrolle die Strafe auf dem Fuße.

StefanV
2013-03-03, 20:45:52
och Gddr5 aös Systemspeicher wäre doch mal Lustig ^^
Nicht wirklich...
Denn den müsstest aufs Board drauf klatschen, zusammen mit der CPU. Dann hätten wir etwas das wir eigentlich überhaupt nicht wollen:
Ein MoBo, auf dem CPU und Speicher fest verlötet sind.


Früher oder später wird es wohl 'nen Zwischenspeicher auf dem Träger der APU geben (müssen), da die Bandbreite nicht mehr soo stark angehoben werden kann (256bit Speicherinterface a la S2011 vielleicht noch)...

Knuddelbearli
2013-03-03, 21:20:46
och im entsprechenden Thread wo es um Intels Broadwell ging fanden das noch etliche Leute echt super ^^

und für zB ne Steambox finde ich es auch ok

Deinorius
2013-03-03, 23:48:46
Naja, die PS4 APU macht im Desktop keinen Sinn, da sie gnadenlos verhungern würde -> es fehlt massivst an Bandbreite. Geht also nicht wirklich bzw würde nicht nennenswert schneller sein als aktuelle APUs...


Wo fehlt es dieser APU an Bandbreite? Die hat sogar mehr als die Radeon 7870! :|
Das Problem der PS4 APU im Desktop-Bereich ist viel mehr, dass sie zu viele Kerne mit zu niedriger IPC hat. PCs benötigen das Gegenteil.

Knuddelbearli
2013-03-04, 00:12:12
er sagte ja im desktor und dort wären es 128Bit DDR3

StefanV
2013-03-04, 00:50:16
Wo fehlt es dieser APU an Bandbreite? Die hat sogar mehr als die Radeon 7870! :|
Genau, das ist der Punkt. So, wie es in der PS4 verbaut wird, ist es stimmig.

NUR:
Wie willst du dieses Konzept auf den PC übertragen?!
Willst jetzt µATX (oder ITX) Boards mit fest verlöteter APU aufgelötetem Speicher haben? Das wäre die einzige Möglichkeit...

Weil auf FM2 umgebogen, ist das völlig unbrauchbar...

del_4901
2013-03-04, 00:58:46
Willst jetzt µATX (oder ITX) Boards mit fest verlöteter APU aufgelötetem Speicher haben?
http://www.polishtheconsole.com/wp-content/uploads/2011/10/shut-up-and-take-my-money.jpg

HarryHirsch
2013-03-04, 01:11:15
Genau, das ist der Punkt. So, wie es in der PS4 verbaut wird, ist es stimmig.

NUR:
Wie willst du dieses Konzept auf den PC übertragen?!
Willst jetzt µATX (oder ITX) Boards mit fest verlöteter APU aufgelötetem Speicher haben? Das wäre die einzige Möglichkeit...

Weil auf FM2 umgebogen, ist das völlig unbrauchbar...

da ist mmn nix übertragbar. das ist hw für konsolen.
und die ist mmn sehr intelligent gewählt.

Deinorius
2013-03-04, 01:22:48
Genau, das ist der Punkt. So, wie es in der PS4 verbaut wird, ist es stimmig.

NUR:
Wie willst du dieses Konzept auf den PC übertragen?!


Ach so! So wolltest du dir das vorstellen. Ja in dem Fall ist das natürlich völliger Blödsinn. ;D

Entschuldige, wenn ich das so sage. Habe jetzt ehrlich gesagt keine Ahnung, wer damit angefangen hat, aber...

Davon zu reden, die PS4 APU auf den Desktop-Bereich zu bringen, oder davon zu träumen, oder whatever... ist größerer Blödsinn. :rolleyes:

Willst jetzt µATX (oder ITX) Boards mit fest verlöteter APU aufgelötetem Speicher haben? Das wäre die einzige Möglichkeit...

Weil auf FM2 umgebogen, ist das völlig unbrauchbar...


Hey, für bestimmte Einsatzgebiete fände ich das noch nicht einmal sooo schlecht. Bei Notebooks wird es ja schon teilweise eingesetzt und ganz ehrlich. Ein Ultrabook mit mehr als 8 GB... :rolleyes: Ein Zotac ZBox nano mit mehr als 4 GB... :freak:
Wenn die preislichen Vorteile groß genug wären...

Was hat das genau mit FM2 zu tun? Ich verstehe gerade die Verbindung nicht.

Coda
2013-03-04, 01:23:10
Ich geh da mit AlphaTier und geh davon aus, dass festgelöteter Speicher wohl die Zukunft sein wird. Für APUs braucht man einfach die Bandbreite und diskrete GPUs werden aussterben.

Mal Butter bei die Fische: Wie oft macht ein normaler PC-Besitzer ein Speicher-Upgrade?

Deinorius
2013-03-04, 01:27:02
[...] und diskrete GPUs werden aussterben.


Unter welchen genauen Bedingungen? Wenn der Spiele-PC als Plattform ebenfalls ausstirbt? Ernstgemeinte Frage.

Mal Butter bei die Fische: Wie oft macht ein normaler PC-Besitzer ein Speicher-Upgrade?


Jetzt, wo man sozusagen am Zenit sowohl bei der normalen Speichernutzung in Relation zum Preis angekommen ist, noch seltener.

Coda
2013-03-04, 01:36:05
Unter welchen genauen Bedingungen? Wenn der Spiele-PC als Plattform ebenfalls ausstirbt? Ernstgemeinte Frage.
Nein, ganz Allgemein. Die Vorteile einer Integration von CPU und GPU sind zu groß als das sich da ein Bus dazwischen halten wird auf Dauer.

Heterogenous Computing ist die Zukunft und da kann die GPU nicht Meilen weg von der CPU über PCIe angebunden sein. Es war auch schon immer ein Trend, dass die Integrationsdichte stetig steigt.

Im Prinzip kann bei den neuen Konsolen sogar der paradoxe Effekt auftreten, dass der PC limitiert, weil man bestimmte Klassen von Algorithmen dort nicht benutzen kann, die auf den APUs der Konsolen super laufen würden.

Es gibt schon gute Gründe, warum NVIDIA Project Denver unbedingt braucht.

Deinorius
2013-03-04, 01:49:02
Ja eh, das ist mir bekannt und es ist auch logisch. Aber wie will man dann diesen heterogenen Markt bedienen? Wie will man in diesem Fall leistungsfähige GPUs mit ebenso leistungsfähigen CPUs aus einen DIE bringen, ohne das Ganze zu teuer zu machen?

Auf der anderen Seite schreibst du, dass so viele gravierende Vorteile mit sich bringen wird, dass man darauf getrost sch... verzichten kann?

Stellt sich mir nur die Frage, wie Intel da rein passt. :ugly:

Coda
2013-03-04, 02:00:09
Intel ist doch schon auf dem besten Weg. Sie sind der größte GPU-Hersteller und Maxwell/Crystallwell werden nochmal einen ordentlichen Schub bringen was die GPU-Seite angeht.

Dedizierte Low-End-GPUs kann man dann wahrscheinlich schon gar nicht mehr verkaufen und das wird dann langsam auch anfangen am Mainstream zu knabbern.

Man hat effektiv zwar weniger Fläche, aber dafür kann man effizienter mit den Resourcen umgehen und sowas wie Silicon-Interposer-Speicher draufkleben.

Fragman
2013-03-04, 02:06:10
wie soll das mit dem ram denn funktionieren?
asus hat dann zb alle produkte in 4 facher ausfuehrung vorraetig?
10 8 gb versionen, 10 16 gb versionen, 10 32 gb versionen und 10 64 gb versionen?
unpraktikabler gehts bei unserer just in time wirtschaft ja nicht mehr.

del_4901
2013-03-04, 02:43:46
wie soll das mit dem ram denn funktionieren?
asus hat dann zb alle produkte in 4 facher ausfuehrung vorraetig?
10 8 gb versionen, 10 16 gb versionen, 10 32 gb versionen und 10 64 gb versionen?
unpraktikabler gehts bei unserer just in time wirtschaft ja nicht mehr.Wie bei Autos. Entweder man nimmt eins von der Stange oder das Board wird nach Wunsch gefertigt.

StefanV
2013-03-04, 06:04:58
http://www.polishtheconsole.com/wp-content/uploads/2011/10/shut-up-and-take-my-money.jpg
Hast auch wieder Recht...

Würds dir sogar gleich tun...
Ach so! So wolltest du dir das vorstellen. Ja in dem Fall ist das natürlich völliger Blödsinn. ;D
Ja, wenn man die PS4 GPU auf den Desktop überträgt gibts exakt 2 Möglichkeiten:
a) man nimmt 'ne bestehende Plattform und friemelt das Design um, so dass das möglich ist.
b) man nimmt einfach die APU und friemelt drum herum ein Desktop Board (µATX oder kleiner).


Entschuldige, wenn ich das so sage. Habe jetzt ehrlich gesagt keine Ahnung, wer damit angefangen hat, aber...

Davon zu reden, die PS4 APU auf den Desktop-Bereich zu bringen, oder davon zu träumen, oder whatever... ist größerer Blödsinn. :rolleyes:
Naja, das hängt jetzt einzig von den Verträgen ab, die AMD mit Sony/M$ abgeschlossen hat...

Wenn AMD die PS4 APU auch im PC Markt verwenden darf, werden sie es auch tun.
Ob das jetzt volle oder teildeaktivierte sind, spielt dabei ja keine Rolle...

Skysnake
2013-03-04, 07:36:55
Ich geh da mit AlphaTier und geh davon aus, dass festgelöteter Speicher wohl die Zukunft sein wird. Für APUs braucht man einfach die Bandbreite und diskrete GPUs werden aussterben.

Mal Butter bei die Fische: Wie oft macht ein normaler PC-Besitzer ein Speicher-Upgrade?
Oh, endlich jemand, der meine Meinung teilt :up:

Als die Diskussion um das Aussterben der Sockel ging, wurde ich für diese Nüchternheit ja sowohl von Intel als auch von AMD Leuten fast auf den Scheiterhaufen geworfen :ugly:

Ja eh, das ist mir bekannt und es ist auch logisch. Aber wie will man dann diesen heterogenen Markt bedienen? Wie will man in diesem Fall leistungsfähige GPUs mit ebenso leistungsfähigen CPUs aus einen DIE bringen, ohne das Ganze zu teuer zu machen?

Auf der anderen Seite schreibst du, dass so viele gravierende Vorteile mit sich bringen wird, dass man darauf getrost sch... verzichten kann?

Stellt sich mir nur die Frage, wie Intel da rein passt. :ugly:
Die letzten 2 Jahre geschlafen? Schau dir doch mal an, was Westmere über SB über IB bis jetzt zu Haswell passiert ist....

Und wer sagt, das man nicht auch richtig große APUs bauen kann? Man muss halt nur erstmal nen Markt dafür schaffen, bzw eher eine Marktakzeptanz. Einen Markt gibt es nämlich schon jetzt dafür.

Intel ist doch schon auf dem besten Weg. Sie sind der größte GPU-Hersteller und Maxwell/Crystallwell werden nochmal einen ordentlichen Schub bringen was die GPU-Seite angeht.

Dedizierte Low-End-GPUs kann man dann wahrscheinlich schon gar nicht mehr verkaufen und das wird dann langsam auch anfangen am Mainstream zu knabbern.

Man hat effektiv zwar weniger Fläche, aber dafür kann man effizienter mit den Resourcen umgehen und sowas wie Silicon-Interposer-Speicher draufkleben.
/sign

Und mit (Hybrid)Memory Cube wird man bei den angedachten Frequenzen und damit Bandbreiten wohl eh nicht an festverlötet vorbei kommen

Hast auch wieder Recht...

Würds dir sogar gleich tun...

Ja, wenn man die PS4 GPU auf den Desktop überträgt gibts exakt 2 Möglichkeiten:
a) man nimmt 'ne bestehende Plattform und friemelt das Design um, so dass das möglich ist.
b) man nimmt einfach die APU und friemelt drum herum ein Desktop Board (µATX oder kleiner).


Naja, das hängt jetzt einzig von den Verträgen ab, die AMD mit Sony/M$ abgeschlossen hat...

Wenn AMD die PS4 APU auch im PC Markt verwenden darf, werden sie es auch tun.
Ob das jetzt volle oder teildeaktivierte sind, spielt dabei ja keine Rolle...
Man wird sicherlich nicht die PS4 APU bringen. Da sind propritäre Sachen drin, auf denen Sony ihren Finger hat....

Man wird aber in einem bis maximal 3 Jahren zumindest im Desktop APUs vorfinden, die die PS4 APU trotz fehlender propritärer Sachen in die Tasche stecken werden.

Locuza
2013-03-04, 09:41:18
Bei den ganzen Umbrüchen, DDR4, HMC, HSA, gemeinsamer Adressraum usw.
braucht man doch eine ganze Menge an neuen Standards?
Eine neue API, das OS muss damit zurecht kommen, es braucht einen neuen Mainboard-Standard am Besten?
AMD kann ja nicht einfach eine APU ungefähr in der Mitte des Boards platzieren und dann mit einem GDDR5 oder HMC-Baustein anbinden.
Ich kenne mich aber überhaupt nicht aus, was es dort braucht.
Intel müsste ja auch mitziehen, damit die anderen Hersteller das akzeptieren.
Mit BTX ist ja Intel damals gescheitert.

Skysnake
2013-03-04, 10:55:02
Klar koennte AMD das, Sie werden es nur nicht tun, weil die Masse dafuer einfach nicht ausreicht, und daher dann zu teuer waere wegen fehlender Massenproduktion. Die Hardware insoweit ist ja egal, solange man weiterhin offene Standards wie SATA/USB/LAN/PCI-E usw unterstuetzt. Ob der Speicher jetzt ueber DDRx GDDR oder HMC angebunden ist, ist egal, da fuer die Software transparent.

Coda
2013-03-04, 11:16:34
wie soll das mit dem ram denn funktionieren?
asus hat dann zb alle produkte in 4 facher ausfuehrung vorraetig?
10 8 gb versionen, 10 16 gb versionen, 10 32 gb versionen und 10 64 gb versionen?
unpraktikabler gehts bei unserer just in time wirtschaft ja nicht mehr.
So wie bei reinen GPUs bisher auch. Gibt's halt ne Default-Version mit der normal üblichen Speichermenge und manche Hersteller packen mehr drauf gegen Aufpreis.

Ich seh das Problem ganz ehrlich nicht.

Ailuros
2013-03-04, 11:28:25
Die PS4 GPU hat mehr GFLOPs und Shadereinheiten als die 7850. Wie soll das in die 7700 Region passen. Wenn das mit den 16 ROPs stimmt, dann würde das eher hin passen, aber die PS4 GPU hat sogar mehr Bandbreite als die 7870! :eek:




Nein, es sind 1280 SPs.

Schoen; dann anders gefragt: sind alle 1280SPs fuer 3D benutzbar?

mbee
2013-03-04, 11:30:21
So wie bei reinen GPUs bisher auch. Gibt's halt ne Default-Version mit der normal üblichen Speichermenge und manche Hersteller packen mehr drauf gegen Aufpreis.



Ich seh das Problem ganz ehrlich nicht.

Sehe ich auch nicht: Ist doch wohl ähnlich wie die "aufgelöteten" SSDs bei Apples Notebook-Serien oder wäre hier die Verdrahtung auf dem Board viel aufwändiger je Speicher-Variante ?
Gut, bei Plantinenlayouts kenne ich mich offen gestanden nicht aus....

Knuddelbearli
2013-03-04, 11:52:26
Mal Butter bei die Fische: Wie oft macht ein normaler PC-Besitzer ein Speicher-Upgrade?


Upgrade nicht aber wenn ich dran denke das mir in den letzten 3 Jahren alleine 3 mal defekten Speicher hatte und 2 defekte Mainboards und ich dann als Zwischenlösung nicht nur das neu kaufen müsste sondern gleich CPU + MB + Speicher ...

del_4901
2013-03-04, 12:00:42
Upgrade nicht aber wenn ich dran denke das mir in den letzten 3 Jahren alleine 3 mal defekten Speicher hatte und 2 defekte Mainboards und ich dann als Zwischenlösung nicht nur das neu kaufen müsste sondern gleich CPU + MB + Speicher ...
Da wuerde ich mir eher Gedanken machen wie du deine Komponenten behandelst. Speicher ist doch eigentlich nicht kaputt zu bekommen. Also entweder war er einfach nur inkompatibel (das waere dann nicht mehr relevant). Oder ne Macke durch statische Elektrizitaet (da musst man beim Einbau besser aufpassen, was dann auch nicht mehr relevant waehre). Oder er wurde durch zu hohe Spannungen gegrillt (das ist Schuld eigene).

Botcruscher
2013-03-04, 12:40:52
Schoen; dann anders gefragt: sind alle 1280SPs fuer 3D benutzbar?

Wo wäre der Vorteil Leistung unnötig fest zu verteilen? Ein "Physikhilfsprozessor" wäre absolute Verschwendung. Oder kommt da noch was für das ominöse Stereo 3D.:freak:

Mal Butter bei die Fische: Wie oft macht ein normaler PC-Besitzer ein Speicher-Upgrade?
Dank der Bürorechner vermutlich nie. Die brauchen aber auch nicht mehr Bandbreite für die APU. Für den jetzigen Zweck gibt es eh nur zwei Fälle: Die Grafikleistung reicht mehr als aus oder es wird eine externe Grafikkarte genutzt. Selbst im Mobile wird eine richtige Grafikkarte zu gestöpselt. Ohne Zwangsbündelung würde nach den Dingern kein Hahn schreien. Eine Nutzung als Coprozessor ist auch nur für Randgruppen von Interesse.

dildo4u
2013-03-04, 12:50:52
Schoen; dann anders gefragt: sind alle 1280SPs fuer 3D benutzbar?
The GPU contains a unified array of 18 compute units, which collectively generate 1.84 Teraflops of processing power that can freely be applied to graphics, simulation tasks, or some mixture of the two.
8GB GDDR5 176GB/s unified

http://www.neogaf.com/forum/showthread.php?t=514512

Ailuros
2013-03-04, 12:52:33
Wo wäre der Vorteil Leistung unnötig fest zu verteilen? Ein "Physikhilfsprozessor" wäre absolute Verschwendung. Oder kommt da noch was für das ominöse Stereo 3D.:freak:

Der Punkt ist dass die Moeglichkeit von dedizierten compute clusters durchaus existiert. Wenn es um compute geht und Du kannst selbst mit gleicher Leistung einen 800MHz GPU block gegen einen 1.6GHz CPU block quaelen sehe ich zumindest erstmal einen Stromverbrauchs-vorteil.

Matrix316
2013-03-04, 12:52:41
Wie bei Autos Apple. Entweder man nimmt eins von der Stange oder das Board wird nach Wunsch gefertigt.

Ich hab mal was korrigiert und denkt mal drüber nach, ob ihr das wirklich für den PC haben wollt?

Dann wären wir nämlich wieder beim C64 (und Amiga 500, 1200) die zwar jeweils für sich geile Maschinen waren, aber dank relativ fixer Hardware zwangsläufig irgendwie dem Untergang geweiht.

Der größte Vorteil des PCs gegenüber allen anderen "Spielkonsolen" ist einfach, dass man alles aufrüsten kann.

Ich kann ja verstehen, dass jemand die Latenzen und alles so klein machen will, dass er am liebsten ALLES auf einen Chip pflanzen will inkl. RAM, aber alleine aus Umweltschutzgründen (GPU oder RAM kaputt == Rechner kaputt und kann entsorgt werden) wäre das IMO ein ziemliches NoGo.

Und wer trotzdem alles in einem haben will, soll sich eine Konsole kaufen - dafür sind sie da.

Auch wenn es sowas schon gab: http://www.pcgameshardware.de/Mainboard-Hardware-154107/News/Asus-Zeus-Sockel-2011-Dual-Thunderbolt-zwei-Radeon-Grafikchips-onboard-WiFi-und-acht-RAM-Baenke-888645/galerie/1810868/

Knuddelbearli
2013-03-04, 13:20:09
Da wuerde ich mir eher Gedanken machen wie du deine Komponenten behandelst. Speicher ist doch eigentlich nicht kaputt zu bekommen. Also entweder war er einfach nur inkompatibel (das waere dann nicht mehr relevant). Oder ne Macke durch statische Elektrizitaet (da musst man beim Einbau besser aufpassen, was dann auch nicht mehr relevant waehre). Oder er wurde durch zu hohe Spannungen gegrillt (das ist Schuld eigene).


weder noch Speicher ist so ziemlich das einzige was ich noch nie übertaktet habe und er ging immer im laufenden betrieb kaputt

S940
2013-03-04, 13:50:58
weder noch Speicher ist so ziemlich das einzige was ich noch nie übertaktet habe und er ging immer im laufenden betrieb kaputtRAMs heizen sich auch gerne bei CPU-Übertaktungsaktionen auf. Erstens sind sie durch Kupferleitungen mit dem Prozessor verbunden, zweitens eventuell in der CPU-Kühler Abluft.

Bei aktuellen Intels in 22nm eventuell kein Thema mehr, aber bei Bulldozers oder alten Nehalem-Heizkissen ...

RLZ
2013-03-04, 13:51:38
Ich hab mal was korrigiert und denkt mal drüber nach, ob ihr das wirklich für den PC haben wollt?
Bei der Entwicklung der Speicherpreise in den letzten 10 Jahren ist klar, dass der irgendwann fest integriert wird.

Knuddelbearli
2013-03-04, 13:55:39
RAMs heizen sich auch gerne bei CPU-Übertaktungsaktionen auf. Erstens sind sie durch Kupferleitungen mit dem Prozessor verbunden, zweitens eventuell in der CPU-Kühler Abluft.

Bei aktuellen Intels in 22nm eventuell kein Thema mehr, aber bei Bulldozers oder alten Nehalem-Heizkissen ...


ist wakü und vorher ein X3 720 und jetzt ein I7 2600K

Coda
2013-03-04, 14:03:50
Ich hab mal was korrigiert und denkt mal drüber nach, ob ihr das wirklich für den PC haben wollt?

Dann wären wir nämlich wieder beim C64 (und Amiga 500, 1200) die zwar jeweils für sich geile Maschinen waren, aber dank relativ fixer Hardware zwangsläufig irgendwie dem Untergang geweiht.

Der größte Vorteil des PCs gegenüber allen anderen "Spielkonsolen" ist einfach, dass man alles aufrüsten kann.

Ich kann ja verstehen, dass jemand die Latenzen und alles so klein machen will, dass er am liebsten ALLES auf einen Chip pflanzen will inkl. RAM, aber alleine aus Umweltschutzgründen (GPU oder RAM kaputt == Rechner kaputt und kann entsorgt werden) wäre das IMO ein ziemliches NoGo.

Und wer trotzdem alles in einem haben will, soll sich eine Konsole kaufen - dafür sind sie da.

Auch wenn es sowas schon gab: http://www.pcgameshardware.de/Mainboard-Hardware-154107/News/Asus-Zeus-Sockel-2011-Dual-Thunderbolt-zwei-Radeon-Grafikchips-onboard-WiFi-und-acht-RAM-Baenke-888645/galerie/1810868/
Es geht nicht darum ob man's "haben will", es ist einfach notwendig ab einem bestimmten Punkt um die Leistung weiter zu steigern.

del_4901
2013-03-04, 14:15:46
weder noch Speicher ist so ziemlich das einzige was ich noch nie übertaktet habe und er ging immer im laufenden betrieb kaputt
Schaeden durch statische Elektrizitaet am Speicher wegen schlechter Erdung treten haeufig erst spaeter auf.

Tesseract
2013-03-04, 15:08:29
weder noch Speicher ist so ziemlich das einzige was ich noch nie übertaktet habe und er ging immer im laufenden betrieb kaputt
mir ist noch nie ein systemspeicher kaputt gegangen, trotz übertaktung. die höchste rate haben bei mir GPUs (herstellerübergreifend) was wohl daran liegt, dass ich meist high-end drin habe das sehr viel näher an den physikalischen limits (temperatur usw.) arbeitet als der rest der komponenten. danach kommen platten und boards und spitzenreiter sind CPUs und RAM, die mir ganz einfach noch nie kaputt gegangen sind, trotz OC mit jedem einzelnen system seit 1998 oder so.

Eine neue API, das OS muss damit zurecht kommen, es braucht einen neuen Mainboard-Standard am Besten?
hoffentlich früher als später. ATX ist einfach hoffnungslos überaltert.

dargo
2013-03-04, 15:19:55
Es geht nicht darum ob man's "haben will", es ist einfach notwendig ab einem bestimmten Punkt um die Leistung weiter zu steigern.
Was spricht dagegen den Durchsatz vom PCIe Bus weiter zu steigern? Also im Prinzip das was in den letzten Jahren praktiziert wurde.

Matrix316
2013-03-04, 15:42:24
Oder man macht einen komplett neuen Standard für Steckkarten.

Wobei die Latenzen zwar kleiner werden, je näher die Bausteine zusammen sind, aber dadurch rücken auch wieder Wärmequellen näher beieinander und andere Probleme gibts vielleicht.

Nicht umsonst macht AMD noch keinen FX8350 mit 7970 als APU...:rolleyes:

ndrs
2013-03-04, 15:48:06
Was spricht dagegen den Durchsatz vom PCIe Bus weiter zu steigern? Also im Prinzip das was in den letzten Jahren praktiziert wurde.
Die Physik und/oder die Herstellungskosten der Boards. Bisher ging alles über Takterhöhung (bei PCIe3 noch zusätzlich Verringerung der Redundanz in der Fehlerkorrektur). Aber Leitungen, die über relativ weite Wege über ein PCB geführt werden können nicht beliebig hoch getaktet werden. Da sind wir schon nah am Maximum.
Abhilfe können hier nur neue Materialien, wie Lichtleiter schaffen.

Matrix316
2013-03-04, 15:52:34
Man könnte doch CPU und RAM auch auf PCIe Karten setzen. Dann wären sie näher zu den Grafikkarten und anderen PCIe Karten. :) Damit könnte man auch Module bauen und die Technik in Konsolen verwenden wo man halt das CPU Modul austauschen kann.

Tesseract
2013-03-04, 15:55:39
Was spricht dagegen den Durchsatz vom PCIe Bus weiter zu steigern? Also im Prinzip das was in den letzten Jahren praktiziert wurde.

weil der dafür viel zu langsam ist. bisher war das paradigma "alles wichtige in den vram laden und die graka ihr ding machen lassen". deswegen gibt es in der praxis kaum unterschiede ob die graka mit pci-e 4, 8 oder 16 angebunden ist.
sobald man aber das paradigma ändert und mit CPU und GPU dynamisch auf den selben datenstrukturen rumwerkt ohne viel exklusivität und rumkopiererei hat man sofort totale bottenecks.

Man könnte doch CPU und RAM auch auf PCIe Karten setzen. Dann wären sie näher zu den Grafikkarten und anderen PCIe Karten. :) Damit könnte man auch Module bauen und die Technik in Konsolen verwenden wo man halt das CPU Modul austauschen kann.

steckkarten haben im desktopbereich quasi ausgedient. fast alles ist inzwischen onboard oder gar onchip, vom (w)lan über sound bishin zu so dingen wie bluetooth oder USB und was kommen könnte kann man sowieso per USB/thunderbolt/etc. anhängen. fast keiner verwendet neben der graka (und in seltenen fällen soundkarte) noch steckkarten.

ein neuer standard müsste kompakter werden und dafür mehr platz für flexible kühllösungen lassen. eine idee wär vielleicht etwas in richtung boardgröße wie micro-ATX ohne slots und daneben erweiterungsschächte, die sich 2,5"-festplatten mit anderen erweiterungsmodulen teilen können wobei CPU+GPU und später SoC direkt am board sitzen und man z.B. durch variable towergrößen kühllösungen von 50-1000W realisieren und damit alles von bürorechner bis workstation/high-end-gaming-rig abdecken kann.

ndrs
2013-03-04, 16:27:32
Man könnte doch CPU und RAM auch auf PCIe Karten setzen. Dann wären sie näher zu den Grafikkarten und anderen PCIe Karten. :)
Und du hättest einen zusätzlichen Steckkontakt, welcher noch schlimmer als ein paar cm Leitungslänge ist.


eine idee wär vielleicht etwas in richtung boardgröße wie micro-ATX ohne slots und daneben erweiterungsschächte, die sich 2,5"-festplatten mit anderen erweiterungsmodulen teilen können wobei CPU+GPU und später SoC direkt am board sitzen und man z.B. durch variable towergrößen kühllösungen von 50-1000W realisieren

Über sowas haben wir im letzten Jahr mal diskutiert. Mal schauen ob ich den Fred noch finde.

Edit: Den hast sogar du selbst gesplittet :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=520440

robbitop
2013-03-04, 16:33:31
Schoen; dann anders gefragt: sind alle 1280SPs fuer 3D benutzbar?
Jap! Das mit den 4 CUs für Compute war nur ein Gerücht. Du kannst alle CUs zwischen Compute und 3D aufteilen wie du willst. Wie am PC.

Botcruscher
2013-03-04, 16:36:44
Stacked memory wird sich imo eh durchsetzen. Für den Rest reichen dann die ollen RAM-Slots.

HOT
2013-03-04, 16:45:42
Stacked memory wird sich imo eh durchsetzen. Für den Rest reichen dann die ollen RAM-Slots.
Mobil definitiv, im Desktop sicher nicht. Denn mit DDR4 kann man ja bequem 4 Speicherkanäle verlegen und hat damit über alle Maßen Bandbreite bei akzeptabler Latenz. Mobil geht das nicht, weil man aufgrund der Verlustleistung weniger Speicherchips benötigt, die notwendigen Takte nicht erreichen kann und Stacked-RAM hier weitere Vorteile hat.

Botcruscher
2013-03-04, 16:51:19
Zwischen DDR4 und einem Cube liegen in jeder Hinsicht Welten. Bis jetzt muss sich nur mal eine Anwendung finden, die das Geld wert ist, um der Entwicklung einen Schubs zu geben.
Mobil/Desktop kann man auch nicht trennen. Die Architektur und die Software muss dafür breit verfügbar sein.

Skysnake
2013-03-04, 17:01:42
Was spricht dagegen den Durchsatz vom PCIe Bus weiter zu steigern? Also im Prinzip das was in den letzten Jahren praktiziert wurde.
Hast du mitbekommen, wie schwierig es war PCI-E 3.0 raus zu bringen?

Man hat ja schon mit dem 128/130Bit Coding getrickst zulasten der Latenz und des Durchsatzes bei kleinen Paketen, um überhaupt die Bandbreite zu realisieren...

Mit PCI-E 4.0 kannste dann, wenn ich mich an die Planungen richtig erinnere, nur noch die ersten 1-3 Slots direkt versorgen, für alles andere brauchst du aktive Repeater, also wieder extra Chips=Teuer und auch noch extra Latenz....

Und dann hast du auch "nur" PCI-E 4.0. Wie lange soll das halten? Bis 2018? Länger wohl eher nicht. Maximal bis 2020, und was machst du dann? Richtig, du hast nen riesen Problem, weil die dann nötigen ~20GHz schaffste nicht mehr :ugly:

Coda
2013-03-04, 17:16:40
Was spricht dagegen den Durchsatz vom PCIe Bus weiter zu steigern? Also im Prinzip das was in den letzten Jahren praktiziert wurde.
Es geht nicht um den Durchsatz sondern die Latenz. Round-Trip von der CPU zur GPU und zurück ist wie Erde<->Mond in CPU-Zeit.

StefanV
2013-03-04, 17:17:44
steckkarten haben im desktopbereich quasi ausgedient. fast alles ist inzwischen onboard oder gar onchip, vom (w)lan über sound bishin zu so dingen wie bluetooth oder USB und was kommen könnte kann man sowieso per USB/thunderbolt/etc. anhängen. fast keiner verwendet neben der graka (und in seltenen fällen soundkarte) noch steckkarten.Dem kann ich zustimmen.

Auch braucht man fast keine Slots mehr bzw hier kann man eher auf kleinere Formate umsteigen (diese mini PCIe Steckkarten, z.B. für WLAN zum Beispiel)...

Für Grafikkarten bräuchte man dann auch etwas ähnliches wie die aktuellen MXM Karten, nur in groß...
Da könnte man dann auch gescheite Kühler realisieren und das so hin bekommen, dass man nur ein PCB verkauft, ohne Kühler. Ähnlich alten Apple CPUs wie dem G4.

dilated
2013-03-04, 17:27:15
warum sollte man die gpu jetzt in ein mxm modul(desktop) stecken^^

die wird in der cpu sein...

und wenn die kaputt ist muss man eben die "apu" tauschen fertig
3 speichergrößen bei den mainboards (auch kein großer aufwand oder?)

(warum amd da nicht von anfang an auf schnelleren ram gesetzt hat frag ich mich schon seit es apus gibt)


hat der mut gefehlt?zu teuer? bzw wäre das schwer gewesen für amd damals?

Matrix316
2013-03-04, 17:52:48
So lange man nicht 16 GB Level 3 Cache und eine GTX680 als GPU in der CPU hat, lässt mich das APU Zeug noch ziemlich kalt. ;) Wobei SLI mit APU stell ich mir auch etwas umständlich vor... es sei denn man packt gleich zwei APUs auf ein Board und hätte gleich Multicpu noch...;)

Hayab
2013-03-04, 18:21:57
Die APU Sache wird erst in paar Jahren wirklich interessant, wenn die zwei Prozeossorarten richtig miteinander verwachsen. Diese nextgen Konsolen werden das ein wenig beschleunigen. Die sind aber bei weiten nicht das was man aus eine APU Architektur herausholen koennte. Dazu ist die Technik noch viel zu neu.
Bei konventionaellen Architektur (CPU, GPU) werden die Latenzen die man ueber den PCIe bus verliert werden durch mehr Power der einzelnen Prozis und lokalen caches kompensiert.
APUs bieten nicht nur Vorteile.
- mehr Ausschuss bei Herstellung, da mehr Schaltkreise auf einmal hergestellt werden muessen.
- schlechtere waermeverteilung, weil alles auf einer relativ kleinen Flaeche liegt.

dilated
2013-03-04, 18:25:48
wers brauch :rolleyes:
die meisten eben nicht ;) ich denke sie hätten so mehr verkauft
(wenns nicht viel teurer ist? wie =graka/ram extra)

sli cf :crazy:

ausschuss haben grakas auch

Windi
2013-03-04, 18:39:15
Kann man jetzt nicht für die Übergangszeit den onboard Grafikchip als Coprozessor benutzen (für Physik ect.)
Die separate Grafikkarte würde dann weiterhin nur Grafik berechnen.

Tesseract
2013-03-04, 18:39:46
- schlechtere waermeverteilung, weil alles auf einer relativ kleinen Flaeche liegt.

muss nicht zwangsläufig der fall sein weil sich das gehäuse dafür kompakter bauen lässt (direkterer luftstrom) und sich CPU und GPU die kühlleistung teilen, d.h. wenn eine der beiden komponenten nicht zu 100% ausgelastet ist kann die andere die freie kapazität mitnutzen was sich in summe positiv auf die geräuschentwicklung auswirken sollte. außerdem kann eine APU bei aufgaben, die sowohl CPU als auch GPU nutzen, mehr performance/watt rausholen als eine getrennte lösung.

wenn wir in den high-end bereich kommen überwiegt wohl die hotspot-problematik aber bis in den oberen mid-range-bereich sehe ich da eher vorteile für eine APU.

Skysnake
2013-03-04, 18:46:31
Die APU Sache wird erst in paar Jahren wirklich interessant, wenn die zwei Prozeossorarten richtig miteinander verwachsen. Diese nextgen Konsolen werden das ein wenig beschleunigen. Die sind aber bei weiten nicht das was man aus eine APU Architektur herausholen koennte. Dazu ist die Technik noch viel zu neu.
Bei konventionaellen Architektur (CPU, GPU) werden die Latenzen die man ueber den PCIe bus verliert werden durch mehr Power der einzelnen Prozis und lokalen caches kompensiert.
APUs bieten nicht nur Vorteile.
- mehr Ausschuss bei Herstellung, da mehr Schaltkreise auf einmal hergestellt werden muessen.
- schlechtere waermeverteilung, weil alles auf einer relativ kleinen Flaeche liegt.
Nein...

Das sind Grundlagen jedweden Accelerators. Es lohnt sich erst, wenn du so viel Zeit einsparst, um folgende Schritte zu kompensieren:

Daten auf Device schieben
Overhead die Berechnung an zu stoßen
Einsammeln der Ergebnisse
Senden der Ergebnisse in den Speicher der CPU


Und das wirst du bei kleinen Problemen praktisch nie schaffen, weil einfach schon die Zeit, nur die Daten rüber zu schieben länger dauert, als es einfach auf der CPU zu berechnen...

Deswegen erschließen APUs ja KOMPLETT! neue Einsatzbereiche, bei denen es sich bisher durch das hin und her kopieren einfach gar nicht gelohnt hat.

S940
2013-03-04, 19:20:36
Mal ne verrückte Idee:
Wie wären zwei, drei oder 4 AMD Seamicrokarten mit sagen wir mal der PS4-APU und 4-8 GB GDDR5 auf nem fast leerem PCIe- und Rest-IO-Board und Crossfirebridges untereinander?

Per Crossfire könnte man die GPU-Leistung kombinieren, und ansonsten hätte man halt quasi 2-3-4 PCs. "Kleine" Sachen wie copy/paste bekommt man hoffentlich noch irgendwie hingebogen *G*

Könnte man damit irgendwas Vernünftiges anfangen, oder wäre das zu Nix zu gebrauchen?
Wie stark würde die getrennten Speicherbereiche nerven?

Knuddelbearli
2013-03-04, 19:30:23
Oder man macht einen komplett neuen Standard für Steckkarten.

Wobei die Latenzen zwar kleiner werden, je näher die Bausteine zusammen sind, aber dadurch rücken auch wieder Wärmequellen näher beieinander und andere Probleme gibts vielleicht.

Nicht umsonst macht AMD noch keinen FX8350 mit 7970 als APU...:rolleyes:


also mit so nem ordentlichen Kühlerblock wäre das sicher leiser kühlbar als mit jedem gpu kühler

Felixxz2
2013-03-04, 22:55:40
also mit so nem ordentlichen Kühlerblock wäre das sicher leiser kühlbar als mit jedem gpu kühler

Und in 20nm wohl sogar zu fertigen. Mehr als 450mm² hätte das wohl nicht. Vielleicht sehen wir 2014 ja nen Steamroller/Excavator mit nem Pitcairn. Mit DDR4 und vielleicht mehr Channels wär das fein.

Matrix316
2013-03-04, 23:11:28
Und dann sehen Mainboards in Zukunft so aus ;)

http://www.abload.de/img/gggrzok7.jpg (http://www.abload.de/image.php?img=gggrzok7.jpg)

Am besten man packt gleich noch die 256 GB SSD Bausteine auch noch in den Chip rein. ;)

TheCounter
2013-03-04, 23:13:57
Und dann sehen Mainboards in Zukunft so aus ;)

Wo hast du nur das Bild des Durango Mainboards mit Dual APU her? :eek:

:ugly:

][immy
2013-03-05, 00:12:48
Wo hast du nur das Bild des Durango Mainboards mit Dual APU her? :eek:

:ugly:
das ist schon der zweite shrink ;) :freak:

bin mal gespannt was MS nächste tage präsentiert. Ich kann nach wie vor nicht an das DDR3 gerücht glauben. aktuell habe ich eher die Vermutung das MS hier absichtlich falsche gerüchte streut. ich kann mir inzwischen einfach nicht vorstellen das man 8 CPUs + eine GPU nur mit ~70GB/s anbindet. besonders in konsolen ist man ja darauf angewiesen das alles nach möglichkeit ausgereitzt wird. auch mit dem schönen edram (je nachdem wie groß und gut dieser angebunden ist) würde die speicherbandbreite recht schnell zum bottleneck werden.

Felixxz2
2013-03-05, 00:21:07
Ich denke ja, dass MS ziemlich die exakt gleichen Specs wie Sony bei der PS4 verwendet. Dass die beiden Konsolen Hardwaretechnisch identisch werden. Erstens ist die Hardware der PS4 sehr sehr gut und ausgewogen und zweitens würde das die Multiplatformentwicklung drastisch vereinfachen.

Käsetoast
2013-03-05, 00:28:42
Ob man jetzt davon träumen darf wie bei der Wii mit Dolphin die kommenden Konsolentitel per Emulator am PC spielen zu können? :love4:

Coda
2013-03-05, 00:38:25
Ob man jetzt davon träumen darf wie bei der Wii mit Dolphin die kommenden Konsolentitel per Emulator am PC spielen zu können? :love4:
Nö. Da is genügend Krypto draufgekippt, dass das fast ausgeschlossen ist.

Tesseract
2013-03-05, 00:50:35
[immy;9679821']aktuell habe ich eher die Vermutung das MS hier absichtlich falsche gerüchte streut.

ich denke eher die hardwareabteilung hat aus der chefetage gesagt bekommen wie das ding auszusehen hat und das bedeutet eine casual konsole (weil sich die wii so gut verkauft hat) mit media center schwerpunkt und günstigem preis und da muss man halt abstriche machen.

Felixxz2
2013-03-05, 00:56:48
Aber hat MS nicht gesehn wie die Wii abgestürzt ist? Ich glaub kaum, dass dir ne schlechte Hardware und ein günstiger Preispunkt da Marktmacht sichert. Siehe Apple: Ich denke MS wird eher deren weg gehen und leistungsfähige Hardware mit einem durchdachten und gut kombinierten Ökosystem (-> Windows 8) verbinden. Dazu dann noch Kinect und schon sind die Casuals im Boot.

Ein Preispunkt von 450-550€ ist nicht exorbitant und wenn mans mit Kinect bundled, dann sind die Leute da auch bereit dazu. Die 360 ist ja auch bei 400€ gestartet aber mit spartanischster Ausstattung (nichmal HDMI und nur 20GB HDD :freak:)

Tesseract
2013-03-05, 01:03:20
das braucht du mir nicht erzählen, ich halte das selbst nicht für eine besonders gute idee. aber dem MS-management traue ich sowas sofort zu. dazu passen auch die aussagen zum thema media-funktionalität oder die unfassbare aufmerksamkeit, die kinect auf diversen veranstaltungen von MS bekommt.

Steffko
2013-03-05, 01:17:04
Aber hat MS nicht gesehn wie die Wii abgestürzt ist? Ich glaub kaum, dass dir ne schlechte Hardware und ein günstiger Preispunkt da Marktmacht sichert. Siehe Apple: Ich denke MS wird eher deren weg gehen und leistungsfähige Hardware mit einem durchdachten und gut kombinierten Ökosystem (-> Windows 8) verbinden. Dazu dann noch Kinect und schon sind die Casuals im Boot.

Ein Preispunkt von 450-550€ ist nicht exorbitant und wenn mans mit Kinect bundled, dann sind die Leute da auch bereit dazu. Die 360 ist ja auch bei 400€ gestartet aber mit spartanischster Ausstattung (nichmal HDMI und nur 20GB HDD :freak:)

Frag mal Sony wie gut das funktioniert hat ;)

xxxgamerxxx
2013-03-05, 07:41:21
aber dem MS-management traue ich sowas sofort zu.

Wäre ja auch dumm, wenn sie nur eine 1:1 Kopie von der PS4 machen.