PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Next-Gen-Konsolen?


Seiten : 1 2 3 4 5 6 7 [8] 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39

pixelguy
2011-07-17, 23:37:57
[immy;8840391']wie hieß noch der Entwickler aus schweden (?) der da diesen chip auf den markt bringen wollte mit einem 512 bit speicherinterface und das zu zeiten von Q3?

Bitboys? ;)

Ailuros
2011-07-17, 23:44:37
[immy;8840391']womit wir aber wieder das problem des stromverbrauchs hätten. zwar hat sich seit der xbox 360 einges getan, aber dafür ist auch der stromverbrauch in die höhe geschnellt. und ich denke nicht das MS wieder die garantie verlängern will (wobei hier erstmal nur der lötzin schuld war). oder aber nach der xbox 360 slim wieder eine recht laute konsole anbieten will.

aber abgesehen davon, diese aussagen von "fotorealismus" die kennt man ja aus der vergangenheit :) ... wie hieß noch der Entwickler aus schweden (?) der da diesen chip auf den markt bringen wollte mit einem 512 bit speicherinterface und das zu zeiten von Q3?

interessanter finde ich die aussage mit der hardware-unterstützung für KI und Physik. entweder wird das auch über den grafikchip geschickt, oder aber vielleicht ein weiterer co-prozessor?

Das mit dem Stromverbrauch ist immer so ein Thema fuer sich; Architekturen werden effizienter und Herstellungsprozesse kleiner. In 2013 wird es high end smart-phones unter 28nm mit hoeherer Leistung als Xenos und DX11 bei nur milliWatts Stromverbrauch. Unter solchen Bedingungen sollte es eigentlich klar sein dass man so manches mehr an Leistung in etliche dutzend an Watts quetschen kann.

Coda hat ja auch nicht besonders uebertrieben; er sagte lediglich dass sich die Rechenleistung um mehr als 10x steigern wird. Das 10-fache im Vergleich zu Xenos ist etwas ueber 2 Terraflops. Selbst mit einer heutigen 6970 verglichen ist der Wert nichts uebermaessig besonderes. Und ja bevor es jemand sagt unter 40G verbratet eine solche GPU schon einiges an Strom; die Frage ist aber wohl eher wieviel genau bei vergleichbarer Leistung unter 28nm oder kleiner?

AnarchX
2011-07-17, 23:47:14
Das mit dem Stromverbrauch ist immer so ein Thema fuer sich; Architekturen werden effizienter und Herstellungsprozesse kleiner. In 2013 wird es high end smart-phones unter 28nm mit hoeherer Leistung als Xenos und DX11 bei nur milliWatts Stromverbrauch.
~200 GFLOPs und 8 GTex/s bei unter 1W mit 28nm? Welche Wunder-IP soll das verbringen? :ulol:

Ailuros
2011-07-18, 00:02:12
~200 GFLOPs und 8 GTex/s bei unter 1W mit 28nm? Welche Wunder-IP soll das verbringen? :ulol:

http://www.stericsson.com/press_releases/NovaThor.jsp

ST Ericsson Nova A9600.

Nightspider
2011-07-18, 00:03:55
Ohne Anti-Aliasing und in niedriger Auflösung halte ich das gar nicht für so absurd. Die Rechenleistung dürfte ja um mehr als das Zehnfache steigen.

Ist das dein Ernst? Die GPU in den NextGen Konsole Anno ~2013 wird kaum schnell bis maximal doppelte GTX580 Geschwindigkeit haben, wenn überhaupt.
Für Avatar Optik fehlen da noch einige Potenzen.

Das mit dem Stromverbrauch ist immer so ein Thema fuer sich; Architekturen werden effizienter und Herstellungsprozesse kleiner. In 2013 wird es high end smart-phones unter 28nm mit hoeherer Leistung als Xenos und DX11 bei nur milliWatts Stromverbrauch. Unter solchen Bedingungen sollte es eigentlich klar sein dass man so manches mehr an Leistung in etliche dutzend an Watts quetschen kann.

Coda hat ja auch nicht besonders uebertrieben; er sagte lediglich dass sich die Rechenleistung um mehr als 10x steigern wird. Das 10-fache im Vergleich zu Xenos ist etwas ueber 2 Terraflops. Selbst mit einer heutigen 6970 verglichen ist der Wert nichts uebermaessig besonderes. Und ja bevor es jemand sagt unter 40G verbratet eine solche GPU schon einiges an Strom; die Frage ist aber wohl eher wieviel genau bei vergleichbarer Leistung unter 28nm oder kleiner?

Wieviel Watt verbraucht denn Xenos im Moment? Xenos wird ja aktuell sicherlich auch in 40nm oder 45nm gefertigt oder?
Und der Stromverbrauch dürfte auch noch zwischen 30 und 50 Watt liegen. Wie willst du in 2 Jahren Xenos Leistung im 0-Komma Wattbereich bekommen?
Total unrealistisch imho.
Selbst wenn die ARM Cores bzw. die zugehörigen Grafipeinheiten um einiges Effizienter werden, fehlen auch da ebenfalls noch einige Potenzen bis Xenos.

Jedenfalls schließe ich gerne Wetten ab, das Xbox360 Spiele 2013 nicht auf Handys laufen werden

][immy
2011-07-18, 00:12:30
Ist das dein Ernst? Die GPU in den NextGen Konsole Anno ~2013 wird kaum schnell bis maximal doppelte GTX580 Geschwindigkeit haben, wenn überhaupt.
Für Avatar Optik fehlen da noch einige Potenzen.



Wieviel Watt verbraucht denn Xenos im Moment? Xenos wird ja aktuell sicherlich auch in 40nm oder 45nm gefertigt oder?
Und der Stromverbrauch dürfte auch noch zwischen 30 und 50 Watt liegen. Wie willst du in 2 Jahren Xenos Leistung im 0-Komma Wattbereich bekommen?
Total unrealistisch imho.
Selbst wenn die ARM Cores bzw. die zugehörigen Grafipeinheiten um einiges Effizienter werden, fehlen auch da ebenfalls noch einige Potenzen bis Xenos.

Jedenfalls schließe ich gerne Wetten ab, das Xbox360 Spiele 2013 nicht auf Handys laufen werden

die gesamte xbox 360 (slim) liegt bei last bei etwa 80-90Watt.

der arm vergleicht hinkt hier wohl ein wenig. die roh-daten mögen da sein (in der theorie) aber featureset usw? (habe da jetzt auf die schnelle nicht all zu viel gefunden). zudem dürfte der chip auch unter last einiges mehr verbrauchen als ein Watt.

Ailuros
2011-07-18, 00:17:06
Ist das dein Ernst? Die GPU in den NextGen Konsole Anno ~2013 wird kaum schnell bis maximal doppelte GTX580 Geschwindigkeit haben, wenn überhaupt.
Für Avatar Optik fehlen da noch einige Potenzen.

Er sagte ja ohne AA und in niedriger Aufloesung. Niedrige Aufloesung kann vieles heissen, eventuell sogar 320*240 :D

Wieviel Watt verbraucht denn Xenos im Moment? Xenos wird ja aktuell sicherlich auch in 40nm oder 45nm gefertigt oder?

Keine Ahnung. Ich weiss lediglich dass es sich heutzutage um einen SoC handelt.

Und der Stromverbrauch dürfte auch noch zwischen 30 und 50 Watt liegen. Wie willst du in 2 Jahren Xenos Leistung im 0-Komma Wattbereich bekommen?

Das dumme ist eben dass wenn Deine spekulierten 30W stimmen wuerden es sich um eine Reduzierung von fast 7x Mal handeln sollte. Bei 50W dann eben 4x Mal weniger.

Total unrealistisch imho.

Echt? Wenn Du schon selber ueber eine Reduzierung des Stromverbrauchs zwischen 4x und 7x mal spekulierst, sieht es eher nach dem bruellenden Gegenteil aus. Denn zwischen 40 und 28nm fehlt eigentlich noch 32nm.

Selbst wenn die ARM Cores bzw. die zugehörigen Grafipeinheiten um einiges Effizienter werden, fehlen auch da ebenfalls noch einige Potenzen bis Xenos.

Jedenfalls schließe ich gerne Wetten ab, das Xbox360 Spiele 2013 nicht auf Handys laufen werden

Es gibt oben eine oeffentliche Ankuendigung die genau das Gegenteil behauptet und sogar bei hoeherer Komplianz als Xenos welches ich auch mit einer weiteren oeffentlichen Ankuendigung belegen kann. Wenn Du Wetten abschliessen willst die man so leicht verlieren kann, dann gerne ;)

AnarchX
2011-07-18, 00:23:10
http://www.stericsson.com/press_releases/NovaThor.jsp

ST Ericsson Nova A9600.
Von <1W-Stromverbrauch sehe ich da nichts.
"mobile power consumption levels" kann auch die 10-20W für ein Tablet oder Netbook umfassen, die für die größte Variante (2x2,5GHz, 210 GFLOPs) eher vorstellbar sind.

Ailuros
2011-07-18, 00:23:23
[immy;8840546']die gesamte xbox 360 (slim) liegt bei last bei etwa 80-90Watt.

Na klingt schon um einiges realistischer als 30-50W. Ergo 2-2.5x mal weniger mal ganz grob geschaetzt als das originale Geraet.

der arm vergleicht hinkt hier wohl ein wenig. die roh-daten mögen da sein (in der theorie) aber featureset usw? (habe da jetzt auf die schnelle nicht all zu viel gefunden).

2*A15 core bei bis zu 2.5GHz sind alles andere als eine schwache CPU. Sonst fuer die GPU im A9600: http://www.imgtec.com/News/Release/index.asp?NewsID=631

zudem dürfte der chip auch unter last einiges mehr verbrauchen als ein Watt.

Ich hab mich lediglich auf den Stromverbrauch der embedded GPU bezogen und nicht auf die des insgesamten SoCs. Heutzutage verbrauchen aber lediglich =/>tablets mehrere Watts an Strom.

AnarchX
2011-07-18, 00:27:24
Ich hab mich lediglich auf den Stromverbrauch der embedded GPU bezogen und nicht auf die des insgesamten SoCs.
Wenn diese ausgelastet wird, dann wird man mit 200 GFLOPs/5GTex wohl kaum unter einem Watt bleiben, wenn man unter 40nm für diese Leistung auf selektierten Mobile-GPUs noch deutlich über 10W benötigt.

Ailuros
2011-07-18, 00:31:19
Von <1W-Stromverbrauch sehe ich da nichts.
"mobile power consumption levels" kann auch die 10-20W für ein Tablet oder Netbook umfassen, die für die größte Variante (2x2,5GHz, 210 GFLOPs) eher vorstellbar sind.

Es ist ein high end smart-phone Design: http://www.beyond3d.com/content/articles/112/1

Fuer tablets oder netbooks skaliert der GPU Design noch brutaler in Leistung.

Wenn diese ausgelastet wird, dann wird man mit 200 GFLOPs/5GTex wohl kaum unter einem Watt bleiben, wenn man unter 40nm für diese Leistung auf selektierten Mobile-GPUs noch deutlich über 10W benötigt.

Sony's Vita SGX543MP4 taktet bei 200MHz, verbraucht ingesamt als SoC unter 3W und vermoebelt stellenweise einen C50@280MHz bei 5W Stromverbrauch. Der Rogue im A9600 ist wahrscheinlich ein dual core bei ~670MHz. Um 10W alleine von der GPU zu erreichen muesste man noch einigen Dampf zulegen.

Nightspider
2011-07-18, 01:12:36
Es gibt oben eine oeffentliche Ankuendigung die genau das Gegenteil behauptet und sogar bei hoeherer Komplianz als Xenos welches ich auch mit einer weiteren oeffentlichen Ankuendigung belegen kann. Wenn Du Wetten abschliessen willst die man so leicht verlieren kann, dann gerne ;)

Sorry aber auf Ankündigungen geb ich nen Feuchten.

Wenn diese "super tollen" GPU Architekturen um mehrere Faktoren oder gar Potenzen schneller sein sollten, als aktuellen Architekturen frage ich dich, warum die 2 mit Abstand größten GPU Produzenten (NV und AMD) mit riesigen Entwickler-Teams nicht ebenfalls solche enormen Effizienz-Sprünge zu Tage legen?

Und nach 28nm sehen wir bis 2013 auch höchstens ein Full-Node (22nm? bzw. bei GPUs vllt 20nm).

Ansonsten könnten MS und Sony doch gleich 50 von diesen <1 Watt """Handy""" GPUs in ihre PS4 und 720 einbauen. Ganz zu schweigen vom PC, da scheint die GPU Architektur ja schon totaler Müll zu sein, wenn ich von diesen Super-Mobile GPUs höre. :rolleyes:

Sorry wenn das jetzt bissl genervt klingt aber ich kann und will nicht glauben, das die aktuellen und zukünftigen Handy GPU Architekturen soviel effizienter sind, als aktuelle HighEnd Technik. Wieso sollte man dann überhaupt noch an aktuellen Architekturen von NV und AMD festhalten?

Das klingt für mich einfach nicht logisch und das obwohl ich, das gebe ich gern zu, längst nicht so tief in der Materie stecke, wie man anderer hier.
Ich lasse mich aber gern eines Besseren belehren.

fondness
2011-07-18, 10:44:28
2*A15 core bei bis zu 2.5GHz sind alles andere als eine schwache CPU.

Im Vergleich zu was?

robbitop
2011-07-18, 12:27:25
Im Vergleich zu was?
z.B. im Vergleich zu einem Atom, einem Bobcat oder Xenos (X360 CPU). Letztere und erstere sind In-Order Execution CPUs und somit pro Takt schnarchlahm.
A15 sollte zumindest K7/Bobcat IPC auf die Wage bringen. Xenos und Atom eher Richtung Pentium-4 IPC. (wobei man SMT nie vergessen sollte!)

Insgesamt sollte ein 2,5 GHz A15 in der gleichen Größenordnung laufen können, in der auch die X360 läuft. Auch die Serie6 GPU sollte bei den Rohleistungsdaten auch in den gleichen Gefilden laufen können, in denen C1 lief.

Ich bezweifle aber auch arg, dass dieser SoC in Mobiltelefonen oder Tablets mit 2,5 GHz laufen wird. Aber es ändert nichts an der Grundaussage...SoCs im 28 nm Verfahren sind in der gleichen Größenordnung wie eine X360. Ob man jetzt noch einen 2x stelligen Prozentsatz davor oder dahinter ist, spielt keine Rolle. Man kann, wenn die SW es will, das gleiche Grafiklevel erreichen, wie auf den Konsolen von 2005.

Nightspider
2011-07-18, 19:48:44
Ein ARM 15 DualCore mit 2,5 Ghz soll so schnell sein wie die Xbox360 CPU mit 3 Kernen à 3,2 Ghz?
Kann mir das schwer vorstellen.

xL|Sonic
2011-07-18, 20:23:54
Warum nicht? Ein Pentium 4 sieht gegen heutige Prozessoren doch auch kein Land.

][immy
2011-07-18, 21:03:58
z.B. im Vergleich zu einem Atom, einem Bobcat oder Xenos (X360 CPU). Letztere und erstere sind In-Order Execution CPUs und somit pro Takt schnarchlahm.
A15 sollte zumindest K7/Bobcat IPC auf die Wage bringen. Xenos und Atom eher Richtung Pentium-4 IPC. (wobei man SMT nie vergessen sollte!)

Insgesamt sollte ein 2,5 GHz A15 in der gleichen Größenordnung laufen können, in der auch die X360 läuft. Auch die Serie6 GPU sollte bei den Rohleistungsdaten auch in den gleichen Gefilden laufen können, in denen C1 lief.

Ich bezweifle aber auch arg, dass dieser SoC in Mobiltelefonen oder Tablets mit 2,5 GHz laufen wird. Aber es ändert nichts an der Grundaussage...SoCs im 28 nm Verfahren sind in der gleichen Größenordnung wie eine X360. Ob man jetzt noch einen 2x stelligen Prozentsatz davor oder dahinter ist, spielt keine Rolle. Man kann, wenn die SW es will, das gleiche Grafiklevel erreichen, wie auf den Konsolen von 2005.
nun, ich kann mir das ja noch irgendwie von der rechenleistung her vorstellen, aber was die speicherbandbreite und den verbrauch angeht, da ist mein vorstellungsvermögen dann doch ein wenig arg begrenzt.
und besonders speicherbandbreite würde man ja für das grafiklevel benötigen. ich weiß ja das alles immer kleiner wird, aber ich kann mir die ganzen zusätzlichen pins (bzw. was auch immer) an so einem winzigen chip im handy grad nicht wirklich vorstellen.
zudem würde der speicher bei entsprechenden frequenzen schon den verbrauch deutlich erhöhen. das die dinger ne menge können kann ich ja noch nachvollziehen, aber wunder würde ich da keine erwarten.

Ein ARM 15 DualCore mit 2,5 Ghz soll so schnell sein wie die Xbox360 CPU mit 3 Kernen à 3,2 Ghz?

Kann mir das schwer vorstellen.

naja, die power pc cores sind alles andere als wahnsinnig effizient. so mancher prozessor der zum zeitpunkt der xbox raus kam hatte mehr dampf, bei weniger takt. ich kann mir zwar auch nicht vorstellen das die arm prozessoren so extrem an leistung gewonnen haben, aber die xbox cpu hat ja auch schon einige jahre auf dem buckel.

Coda
2011-07-18, 21:15:50
Ein ARM 15 DualCore mit 2,5 Ghz soll so schnell sein wie die Xbox360 CPU mit 3 Kernen à 3,2 Ghz?
Kann mir das schwer vorstellen.
Ich kann mir das sehr gut vorstellen. Das sind In-Order-Prozessoren.

Nightspider
2011-07-18, 21:31:10
Dafür hat die 360 CPU aber HT, kann also 6 Threads gleichzeitig bearbeiten.

Wie ist das eigentlich? Die ARM Cores basieren ja nicht auf der x86 Architektur, richtig? Müsste man dann nicht die ganzen Games, das OS usw. emulieren, damit es auf ARM Geräten läuft? Das würde wiederum massig Leistung kosten.

Finch
2011-07-18, 21:41:47
warum, IBMs Xenon ist ja auch kein x86.

AnarchX
2011-07-18, 21:43:13
Dafür hat die 360 CPU aber HT, kann also 6 Threads gleichzeitig bearbeiten.
Aber trotzdem kommt wohl nicht viel mehr Leistung als bei einem ~2GHz K8-Dualcore an, was ein A15 DC mit 2,5GHz übertreffen/erreichen könnte.


Wie ist das eigentlich? Die ARM Cores basieren ja nicht auf der x86 Architektur, richtig? Müsste man dann nicht die ganzen Games, das OS usw. emulieren, damit es auf ARM Geräten läuft? Das würde wiederum massig Leistung kosten.
Ähnlich wie Multitplattform-Titel für X86 oder PPC kompiliert werden, würde es wohl dann auch eine ARM-Version geben, wenn die SoCs genügend Leistung bieten. ids und Epics Engines laufen ja schon auf aktuellen SoCs.

fondness
2011-07-18, 21:44:54
z.B. im Vergleich zu einem Atom, einem Bobcat oder Xenos (X360 CPU). Letztere und erstere sind In-Order Execution CPUs und somit pro Takt schnarchlahm.
A15 sollte zumindest K7/Bobcat IPC auf die Wage bringen. Xenos und Atom eher Richtung Pentium-4 IPC. (wobei man SMT nie vergessen sollte!)


Leider gibt es praktisch keine brauchbaren Vergleiche durch die unterschiedlichen Architekturen. ARM gibt (und die werden wohl eher über- als untertreiben) 40% mehr IPC für A15 ggü. A9 an. Ein A9 ist winzig, selbst ein Atom ist mehr als doppelt so groß, die OoO-Exectution kann da höchstens rudimentär vorhanden sein. NV baut einen Quad-A9 SoC mit GPU und 32bit SI. Das sind alles Dinge die mich nur schwer daran glauben lassen das ein A9 auch nur annähernd mit einem Atom mit kann. Auch ARM kann nicht zaubern und der niedrige Stromverbrauch muss schließlich auch von wo her kommen. Der Vergleich IO vs. OoO greift da IMO viel zu kurz. Ein Bobcat liegt Single-Thread 70% über einem Atom. Demzufolge kann ich mir nicht man annähernd vorstellen das ein A15 so stark ist. Ich würde einen A15 angesichts der Angaben von ARM vielleicht etwas über Atom ansiedeln.

AnarchX
2011-07-18, 21:50:19
Leider gibt es praktisch keine brauchbaren Vergleiche durch die unterschiedlichen Architekturen. ARM gibt (und die werden wohl eher über- als untertreiben) 40% mehr IPC für A15 ggü. A9 an. Ein A9 ist winzig, selbst ein Atom ist mehr als doppelt so groß,
Seit Bobcat ist das aber kein Maßstab mehr: http://www.chip-architect.com/news/AMD_Ontario_Bobcat_vs_Intel_Pineview_Atom.jpg

Ailuros
2011-07-18, 21:53:15
Sorry aber auf Ankündigungen geb ich nen Feuchten.

Wenn diese "super tollen" GPU Architekturen um mehrere Faktoren oder gar Potenzen schneller sein sollten, als aktuellen Architekturen frage ich dich, warum die 2 mit Abstand größten GPU Produzenten (NV und AMD) mit riesigen Entwickler-Teams nicht ebenfalls solche enormen Effizienz-Sprünge zu Tage legen?

Weisst Du eigentlich um wieviel schneller heutzutage ein SGX543MP2 im Apple A5 oder sogar der MP4 im Sony Vita ist gegen den ersten MBX Lite in 2004? Solche Spruenge sind durchaus normal im embedded Bereich bei jeglicher Generation.

Und nach 28nm sehen wir bis 2013 auch höchstens ein Full-Node (22nm? bzw. bei GPUs vllt 20nm).

Fuer high end desktop GPUs wohl schon; fuer Konsolen-Designs ist das alles andere als ein muss.

Ansonsten könnten MS und Sony doch gleich 50 von diesen <1 Watt """Handy""" GPUs in ihre PS4 und 720 einbauen. Ganz zu schweigen vom PC, da scheint die GPU Architektur ja schon totaler Müll zu sein, wenn ich von diesen Super-Mobile GPUs höre. :rolleyes:

Man braucht nicht mal 50 und wer sagt ueberhaupt dass rein technisch gesehen es nicht moeglich ist mit diesem Design eine Konsole zu decken? Die 210GFLOPs haette PowerVR schon heute decken koennen mit einem MP16 (ergo 4x Mal so viel cores wie im Vita) bei nur 400MHz. Wobei der GPU block auf dem Vita SoC bei 200MHz nur irgendwo ueber 30mm2 unter 45nm einnimmt. Die kommende Generation ist eben rein zufaellig um zich Male effizienter (ueber 6x Mal) pro core und mit um einiges hoeheren Frequenzen (ueber 3x Mal).

Im desktop PC waere es Bloedsinn GPU IP zu verkaufen. Sonst benutzen den "Muell" die Mehrzahl der grossen Semis.

Sorry wenn das jetzt bissl genervt klingt aber ich kann und will nicht glauben, das die aktuellen und zukünftigen Handy GPU Architekturen soviel effizienter sind, als aktuelle HighEnd Technik. Wieso sollte man dann überhaupt noch an aktuellen Architekturen von NV und AMD festhalten?

IMG verkauft nur GPU IP und zu dem nur fuer embedded Zeug. Es gibt einen gewaltigen Unterschied Latenz-maessig zwischen solch einem Design und einer high end GPU. Wenn bei dem Satz immer noch nicht der Groschen fehlt kann ich nicht weiterhelfen. Ich tippe natuerlich immer noch dass AMD vielleicht die meisten GPU IP deals fuer zukuenftige Konsolen gelandet hat (wenn nicht alle), aber rein technisch gesehen kann Rogue durchaus eine zukuenftige Konsole decken da deren Ansprueche etwa bei 1/3 der maximalen Latenz des Designs liegen duerfen.

Es ist uebringens auch nicht so dass Xenos Leistung fuer die heutigen Verhaeltnisse irgend etwas ziemlich besonderes ist. Rechne nochmal zwei Jahre von heute drauf und sag mir wie alt der Design genau ist.

fondness
2011-07-18, 21:57:10
Seit Bobcat ist das aber kein Maßstab mehr: http://www.chip-architect.com/news/AMD_Ontario_Bobcat_vs_Intel_Pineview_Atom.jpg

Das war offensichtlich auch noch stark untertrieben:

http://img194.imageshack.us/img194/5954/socz.jpg (http://img194.imageshack.us/i/socz.jpg/)

Tegar 2 ist AFAIK 49mm² groß, du kannst dir also ausmalen wie winzig ein A9 ist. Sorry, aber ich kann mir bei besten Willen nicht vorstellen das man daraus eine Leistung >Atom heraus quetschen kann.

Coda
2011-07-18, 22:09:22
Aus einem A9 nicht. Es geht aber um einen A15.

Nightspider
2011-07-18, 22:09:53
IMG verkauft nur GPU IP und zu dem nur fuer embedded Zeug. Es gibt einen gewaltigen Unterschied Latenz-maessig zwischen solch einem Design und einer high end GPU. Wenn bei dem Satz immer noch nicht der Groschen fehlt kann ich nicht weiterhelfen. Ich tippe natuerlich immer noch dass AMD vielleicht die meisten GPU IP deals fuer zukuenftige Konsolen gelandet hat (wenn nicht alle), aber rein technisch gesehen kann Rogue durchaus eine zukuenftige Konsole decken da deren Ansprueche etwa bei 1/3 der maximalen Latenz des Designs liegen duerfen.

Es ist uebringens auch nicht so dass Xenos Leistung fuer die heutigen Verhaeltnisse irgend etwas ziemlich besonderes ist. Rechne nochmal zwei Jahre von heute drauf und sag mir wie alt der Design genau ist.

Sagen wir mal Nvidia würde Fermi so weit schrumpfen, bis die GPU nurnoch die Leistung und das Featureset von IMG GPUs haben. So glaube ich dennoch nicht, das NV in der Lage wäre, annährend so einen geringen Stromverbrauch hinzubekommen.
Liegt das am SoC Design( Latenz hast du ja schon angesprochen)?

Das klingt für mich zumindest so, als würden NV und AMD haufen falsch machen.

Zumal, soweit ich das mitbekommen habe, die Grafikleistung der letzten Generationen im Handy Bereich (von IMG etc.) sprunghaft gestiegen ist. Alleine beim iPad 2 hat der A5 doch angeblich die 3-5 fache Grafikleistung.

Wenn das so weitergehen und jedes Jahr derartige Sprünge hingelegt werden würden, würden diese ja bald die HighEnd Desktop Karten überholen, die meistens nur einen Performance-Sprung von 80-100% pro Generation hinlegen, wobei sich die Shrinks und damit auch die neuen Generationen immer weiter ziehen bzw. nurnoch aller 1,5-2 Jahre kommen. Das macht nurnoch ein Performance boost von ~50% (ganz grob) pro Jahr, während die Smartphone GPUs bzw. IGPs gern mal 2-5mal schneller pro Jahr (!) werden.
Selbst Nvidia kündigt ja dauernt derartige Grafikleistungssprünge mit ihren Tegra 2 und 3 SoCs an.

Irgendwie fehlt mir da noch die Logik bzw. das Verständnis.

fondness
2011-07-18, 22:16:12
Aus einem A9 nicht. Es geht aber um einen A15.

Schon klar, aber ARM sagt A15-IPC = A9-IPC+40%. Wenn ein A9 also deutlich(?) unter Atom liegt, wird ein A15 nicht Bobcat (oder Xbox360 - aber das die lässt sich ohnehin schwer einschätzen) Leistung erreichen...

Coda
2011-07-18, 22:22:44
A9 liegt nicht deutlich unter Atom.

Außerdem ist das Ding kein Maßstab. Bobcat ist kleiner und leistungsfähiger.

Ailuros
2011-07-18, 22:52:45
Sagen wir mal Nvidia würde Fermi so weit schrumpfen, bis die GPU nurnoch die Leistung und das Featureset von IMG GPUs haben. So glaube ich dennoch nicht, das NV in der Lage wäre, annährend so einen geringen Stromverbrauch hinzubekommen.
Liegt das am SoC Design( Latenz hast du ja schon angesprochen)?

Latenz in solch einem Fall hat nichts damit zu tun an was Du denkst. Ich mach es einfacher: wenn Du wie IMG von ganz unten nach oben entwickelst dann macht der groesstmoegliche Desing der Architektur irgendwo ueber bei desktop Performance GPUs halt, genau eben weil der Abstand zu gross ist.

NV wird Fermi fuer eine sehr lange Zeit nicht in den embedded Bereich schrumpfen. Eben weil sie primaer fuer ultra high end entwickeln und das obrige genau umgekehrt, ergo man kann von ganz oben nur bis zu einem gewissen Punkt nach unten skalieren. Unter 20nm embedded wird NV (wenn die bisherigen Infos stimmen sollten) "skalare" USC ALU ala G9x einbauen.

Das klingt für mich zumindest so, als würden NV und AMD haufen falsch machen.

NV wird vor 20nm und Projekt Denver keine notebook/PC SoCs haben. AMD hat sie schon heute und hat es geschafft ihren high end Design mit DX11 auf 3W herunterzuskalieren und es wird bei ihnen natuerlich um einiges besser bzw. aggressiver werden unter 28nm. AMD hat vorruebergehen aber auch keine ernsthaften Plaene in den smart-phone Markt einzudringen sondern ziehlt minimal netbooks und einige tablet Designs an.

Zumal, soweit ich das mitbekommen habe, die Grafikleistung der letzten Generationen im Handy Bereich (von IMG etc.) sprunghaft gestiegen ist. Alleine beim iPad 2 hat der A5 doch angeblich die 3-5 fache Grafikleistung.

Im iPad2 steckt nur quasi die Haelfte (da 2 cores) im Vergleich zum Sony Vita handheld (4 cores). Die letztere GPU ist um 133M "echte" Dreiecke faehig bei 200MHz waehrend der MBX Lite bei 50MHz im Dell Axim50 in 2004 gerade noch ueber 500k Tris/s faehig war. Eine Steigerung von ca. 37x Mal und das anderen Schnickschnack wie Fuell-raten, DX7+ vs. DX9.0 SM3.0+ und weiss der Geier was noch; anders die Leistungssteigerungen der Zukunft sollten nicht wundern.

Waere jemand so irrsinnig einen heutigen MP16 (eben 8x Mal so viel cores wie im iPad2) bei 400MHz zu integrieren haette man +/- Radeon 48x0@400+MHz Leistung. Wird aber auch nicht dazu kommen da diese Generation von der kommenden DX11 Generation ueberrennt wird.

Wenn das so weitergehen und jedes Jahr derartige Sprünge hingelegt werden würden, würden diese ja bald die HighEnd Desktop Karten überholen, die meistens nur einen Performance-Sprung von 80-100% pro Generation hinlegen, wobei sich die Shrinks und damit auch die neuen Generationen immer weiter ziehen bzw. nurnoch aller 1,5-2 Jahre kommen. Das macht nurnoch ein Performance boost von ~50% (ganz grob) pro Jahr, während die Smartphone GPUs bzw. IGPs gern mal 2-5mal schneller pro Jahr (!) werden.

Kommt nicht jedes Jahr. Bei IMG haelt jegliche Generation ueber etliche Jahre zumindest 3 und dazu nicht mitgerechnet wie lange die vorige Generation im low end bzw. mainstream noch weiterlebt.

Selbst Nvidia kündigt ja dauernt derartige Grafikleistungssprünge mit ihren Tegra 2 und 3 SoCs an.

NV entwickelt und verkauft ganze SoCs wobei die jeweilige Leistungs-steigerung jeweils den ganzen SoC betrifft (Beispeil Tegra3 = bis zu 5x Mal schneller wie Tegra2 wobei die Mehrzahl davon kommt dass Tegra3 = 4*A9@1.5GHz vs. Tegra2 = 2*A9@1.0GHz).

Bei Projekt Denver wird sich dann ab 20nm aber so einiges aendern da es wohl dort auch notebook/PC SoCs von NV geben wird. IMG GPU IP wurde bis jetzt nie nie ueberhalb eines tablets integriert (SONY Vita ist ein gaming handheld) und wird wohl schwer dazu kommen denn ausser Intel waere wohl keiner ihrer Partner ernsthaft daran interessiert und Intel hat immer noch ihren GenX Quark. Ach ja es gibt noch eine Chance fuer Apple und low end Macs, aber IMO ist das Zeug eher ein Nischenprodukt.

Irgendwie fehlt mir da noch die Logik bzw. das Verständnis.

iPad SGX543MP2 (2 cores) bei ~250MHz (?)
8 Vec4+1 ALUs = 18 GFLOPs
4 TMUs = 1.0 GTexel/s
32 z/stencil = 8.0 GPixels/s
84 MTris/s


A9600 Rogue (2 cores) bei ~667MHz (rein spekulativ)
32 Vec5 ALUs = 213 GFLOPs
8 TMUs = 5.36 GTexels/s
>350MTris/s

Manchmal helfen Zahlen etwas mehr einiges zu verstehen. Die groesste Steigerung im zweiten Fall kommt von den ALUs die so oder so im Vergleich zu anderen Einheiten relativ "billig" sind.

Es geht lediglich darum dass es mir nicht allzu absurd klingt dass zukuenftige Konsolen eine heftige Leistungs-steigerung sehen werden (und ueberhaupt im Bereich arithmetik) ohne dass der Stromverbrauch zu viel nach oben steigt. Zusaetzliche Leistung kommt natuerlich nie umsonst, es bleibt aber dabei dass Xenos und RSX ziemlich "alt" sind, es etliche Generationen an GPUs seither gab, etliche kleinere Herstellungs-prozesse und ziemlich grosse Effizienz-Steigerungen.

robbitop
2011-07-19, 00:23:06
[immy;8841709']nun, ich kann mir das ja noch irgendwie von der rechenleistung her vorstellen, aber was die speicherbandbreite und den verbrauch angeht, da ist mein vorstellungsvermögen dann doch ein wenig arg begrenzt.
SGX ist ein TBDR. Der rendert Tiles statt in den Framebuffer im VRAM wie IMRs es tun würden zunächst in den Tilebuffer. Und der ist On-Chip. Das heißt, das nahezu alle Framebufferzugriffe auf den externen VRAM entfallen. Und genau die sind ja die so bandbreitenintensiven Zugriffe. Im Prinzip wird das fertige Tile einmalig aus dem Tilebuffer in den Framebuffer im VRAM geschrieben und gut ist. Ein IMR hingegen muss bis ein Tile fertig ist dauernd darauf zugreifen, solange es in Arbeit ist.
Auf eine abstrakte Art macht die X360 das nach in dem sie vergleichsweise sehr sehr große Tiles in den eDRAM rendert und erst nach Beendigung diese in den externen VRAM schreibt.

Speicherbandbreite ist für einen TBDR ein geringerers Problem als für einen IMR.

robbitop
2011-07-19, 00:33:15
28 nm High End PC GPUs werden leicht 3-4 TFLOPs haben. Die Serie6 GPU hatte 210 GFLOPs. Das ist Faktor 20. Ich nehme auch an, dass das Featureset geringer ist und auch die ALU-Auslastung geringer ist und einige andere Dinge nicht so ausgeprägt sind wie im PC Design.
Faktor 20-50 einer PC Grafikkarte ist sicher drin. Das kostet natürlich Leistungsaufnahme und Transistoren. Und vor allem kann man nicht einfach ein Design linear hochskalieren / aufblasen und denken, die 20 fache Leistung würde nur die 20 fache Steigerung in Punkto Transistorbudget und Leistungsaufnahme bedeuten.

Gesetz des sinkenden Grenzertrages... ;-)

Die X360 ist immerhin schon 6 Jahre alt. Wenn die 28 nm GPUs massenfertig sind, wird sie 7 Jahre alt sein. Kein Wunder, dass die Leistung dann in ein Tablet pressbar sein wird. Vieleicht nicht 100% der Leistung ...aber in etwa diese Region. Vieleicht wird man exakt die gleiche Leistung erst im Refresh haben - wenn die X360 8 Jahre alt sein wird. Die Zeit vergeht eben.

(wobei die X360 zum Release eine außerordentlich gut ausgestattete und sehr entwicklerfreundlich gestaltete Konsole war ... absolut auf Augenhöhe damaliger PC High End Hardware...sonst würden wir wohl nach so langer Zeit noch dööfer da stehen....aber ob MS oder Sony soetwas je wiederholen ist die Frage...ich hoffe doch! :D)

Ailuros
2011-07-19, 00:52:45
Bandbreite ist ein genereller Kopfschmerz in SoCs da alle Einheiten Ansprueche auf die ein und selbe Bandbreite stellen. Ein TBDR hat hier natuerlich ein paar Vorteile was den Bandbreiten-Verbrauch betrifft.

Uebrigens ist PVRs tiling patentiert. Alle anderen benutzen "bounding box tiling" waehrend der PowerVR auf tile level rastert. Bei sehr duennen diagonal orientierten Dreiecken kann es so manches mehr Bandbreite fressen im ersten Fall.

28 nm High End PC GPUs werden leicht 3-4 TFLOPs haben. Die Serie6 GPU hatte 210 GFLOPs. Das ist Faktor 20. Ich nehme auch an, dass das Featureset geringer ist und auch die ALU-Auslastung geringer ist und einige andere Dinge nicht so ausgeprägt sind wie im PC Design.

Erstens ist A9600 ein smart-phone Design und zweitens handelt es sich hoechstwahrscheinlich um einen dual core. Dieses sagt ueberhaupt nichts ueber die maximale Latenz vom Rogue aus.

Was jetzt das Featureset betrifft man sollte sich erstmal fragen auf welche sw Platform ST Ericsson genau zielt und was man genau dafuer brauchen koennte. Und ja natuerlich wird in dem Fall einiges entfernt deshalb wird auch die Spanne zwischen DX10 und DX11 angegeben.

fondness
2011-07-19, 09:05:14
A9 liegt nicht deutlich unter Atom.


Sondern? Dann eben nur etwas. So oder so reichen +40% nicht für Bobcat.

AnarchX
2011-07-19, 09:23:00
Hier nimmt es ein 1GHz A9 mit einem 1,6GHz Atom auf: http://www.hardware-infos.com/berichte.php?bericht=60&seite=7
Unter Ubuntu für beide CPUs könnnte man wohl noch bessere Benchmarks ausführen, als es HWI gemacht hat.

btw.
A15 @ Handy:
Smartphone and Mobile Computing

Usage range:

1 GHz – 1.5 GHz single or dual-core configurations
http://www.arm.com/products/processors/cortex-a/cortex-a15.php?tab=Performance

Dementsprechend ist wohl die 210 GFLOPs Rogue IGP, wie vermutetet für Net-/Notebooks gedacht.


Erstens ist A9600 ein smart-phone Design und zweitens handelt es sich hoechstwahrscheinlich um einen dual core. Dieses sagt ueberhaupt nichts ueber die maximale Latenz vom Rogue aus.

Aber nicht in der 2x2,5GHz Konfiguration, siehe den Link zu ARM.

sHenker
2011-07-20, 06:37:48
... es bleibt aber dabei dass Xenos und RSX ziemlich "alt" sind, es etliche Generationen an GPUs seither gab, etliche kleinere Herstellungs-prozesse und ziemlich grosse Effizienz-Steigerungen.

Auch unter 28nm wird ne SIMD von amd größer sein als die von nem series6. Wen man die erhöhte effizienz die dadurch einhergeht mal so eben unterm tisch fallen lässt kann man auch gleich radeons und geforces an den gflpos-Werten vergleichen. Imho auf den genau gleichem niveau.

Ailuros
2011-07-20, 11:08:20
btw.
A15 @ Handy:

http://www.arm.com/products/processors/cortex-a/cortex-a15.php?tab=Performance

Dementsprechend ist wohl die 210 GFLOPs Rogue IGP, wie vermutetet für Net-/Notebooks gedacht.

Dann spinnt Texas Instruments genauso denn OMAP5 ist auch bis zu 2.0GHz. Bis zu 2.5GHz im Fall von ST Ericsson bezieht sich hoechstwahrscheinlich auf eine gesamte Produkt-familie.

OMAP4430 = 2*A9@1.0GHz
OMAP4460 = 2*A9@1.5GHz
OMAP4470 = 2*A9@1.8GHz

Lies Dir Arun's Abschnitt hier genau durch: http://www.beyond3d.com/content/articles/112/

Nova A9600 wird nicht unter 28LP sondern unter 28HP hergestellt.

Aber nicht in der 2x2,5GHz Konfiguration, siehe den Link zu ARM.

Zwar GPU IP aber schau Dir mal die Frequenz-Unterschiede zwischen 40LP und 40G hier an als Beispiel: http://www.vivantecorp.com/p_mvr.html#GC1000

******edit Nr.2: danke an mboeller fuer den Link aus einem anderen Thread:

http://eda360insider.wordpress.com/2010/11/09/realizing-the-arm-cortex-a15-what-does-the-road-to-2-5ghz-look-like/

ARM and Cadence jointly presented a paper at today’s ARM Technology Conference discussing the steps needed to get the new ARM Cortex-A15 multi-processor core ready to run at or above 2.5GHz in a 32/28nm G/HP process technology and at or above 1.5GHz in a 32/28nm LP process technology.

Auch unter 28nm wird ne SIMD von amd größer sein als die von nem series6. Wen man die erhöhte effizienz die dadurch einhergeht mal so eben unterm tisch fallen lässt kann man auch gleich radeons und geforces an den gflpos-Werten vergleichen. Imho auf den genau gleichem niveau.

Damit wir uns nicht falsch verstehen: Xenos ALUs haben wenig gemeinsam mit den zukuenftigen 28nm ALUs von AMD. Die ersten sind irgendwo DX9.0 SM3.0+ waehrend die letzteren DX11 sein werden.

Ob die Rogue ALUs jetzt groesser oder kleiner sein werden im Vergleich zu AMD DX11 ALUs kann ich nicht wissen. Ich schaetze lediglich dass Rogue ebenso wie NI eine 4:1 ALU<->TMU Relation haben werden, welche ohnehin schon im neuesten Serie5XT SGX554 (8 Vec4+1 ALUs, 2 TMUs) vorhanden ist.

***edit: passend zu Coda's Schaetzung: http://www.xbitlabs.com/news/multimedia/display/20110718231606_AMD_Expects_Next_Generation_Xbox_to_Feature_Avatar_Like_Graphics. html

mboeller
2011-07-20, 14:38:40
.....denn ausser Intel waere wohl keiner ihrer Partner ernsthaft daran interessiert und Intel hat immer noch ihren GenX Quark.

A9600 Rogue (2 cores) bei ~667MHz (rein spekulativ)
32 Vec5 ALUs = 213 GFLOPs
8 TMUs = 5.36 GTexels/s
>350MTris/s



OT Spekulation:

Ja sollte Intel einmal richtig ernst machen und zum Beispiel einen RGX-MP4 @ 1600MHz (22nm) in Ivy Bridge integrieren hätte AMD schon ein wenig zu schnaufen. ;)

Ailuros
2011-07-20, 15:06:53
OT Spekulation:

Ja sollte Intel einmal richtig ernst machen und zum Beispiel einen RGX-MP4 @ 1600MHz (22nm) in Ivy Bridge integrieren hätte AMD schon ein wenig zu schnaufen. ;)

Obwohl ich es immer noch ernsthaft bezweifle (dank ihrer chipset Abteilung), waere es verdammt interessant zu sehen. 1.6GHz ist trotz allem absurd als Frequenz selbst fuer 22nm fuer eine GPU wie der PowerVR. Man geht in solch einem Fall lieber in die Breite wie z.B. 32 Vec5 ALUs/core.

Ditto zu AMD; ich warte lieber erstmal fuer die Zukunft bis man etwas vergleichbareres hat anstatt das heutige DX9 vs. DX11 Zeug.

Tarkin
2011-07-21, 07:56:18
Von HardOCP: We are hearing this week that AMD has very likely locked up the whole shebang with a Fusion Bulldozer variant (http://hardocp.com/news/2011/07/20/next_generation_console_hardware_update) (nächste Xbox ist gemeint)

robbitop
2011-07-21, 10:11:19
Das wäre zwag gut für die CPU Leistung der neuen X360 - jedoch nicht für die GPU Leistung, wenn sie eine APU einsetzen. Mindestens einen vollständigen Cypress oder Cayman @28 nm wären meine Erwartungen und nicht irgendvsovein 480 sp Radeon 6630 Ding.

Tarkin
2011-07-21, 10:19:19
Das wäre zwag gut für die CPU Leistung der neuen X360 - jedoch nicht für die GPU Leistung, wenn sie eine APU einsetzen. Mindestens einen vollständigen Cypress oder Cayman @28 nm wären meine Erwartungen und nicht irgendvsovein 480 sp Radeon 6630 Ding.

das ist sicher so ein "custom" Ding ... sicher nicht die Fusion APU von 2011.

2012 (trinity) wird vermutlich 5750er Leistung bringen. Das Custom Teil für die Xbox wird dann schätze ich mal min. auf 6870er Niveau sein... irgendsowas in der Art. Vielleicht kommt ja auch noch ein zus. Chip in Crossfire dazu.. wer weiß - wäre absolut denkbar!

AnarchX
2011-07-21, 10:24:21
Ob sich Bulldozer auf einem Bulk-Prozess fertigen lässt?
Wenn dann wird wohl eine solche APU mindestens mit 22nm SOI gefertigt. Mit 32nm und einer vernünftigen GPU, wäre der Die wohl deutlich zu groß.


2012 (trinity) soll ja schon fast 6850er Leistung bringen (vedoppelung der shader gegenüber Llano).
Trinity soll bei 700-800 GFLOPs (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8378474&postcount=1) liegen, eine 6850 hat fast 1500 GFLOPs. ;)

Tarkin
2011-07-21, 10:25:31
Ob sich Bulldozer auf einem Bulk-Prozess fertigen lässt?
Wenn dann wird wohl eine solche APU mindestens mit 22nm SOI gefertigt. Mit 32nm und einer vernünftigen GPU, wäre der Die wohl deutlich zu groß.


Trinity soll bei 700-800 GFLOPs (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8378474&postcount=1) liegen, eine 6850 hat fast 1500 GFLOPs. ;)

jo, sorry habs schon korrigiert ;)

robbitop
2011-07-21, 10:37:44
Zumal AMD/GF nur 1x Fab hat, die SOI produzieren kann. Und ob man BD z.B. mal eben in anderen Fabs fertigen lassen kann (die Ex-Charteredfabs von GF oder IBM) weiß ich nicht. MS verlässt sich auf keinen Fall bei einem solchen Massenprodukt auf nur 1x Fab. (war damals auch ein Grund, warum in die erste XBOX der geplante Duron nicht zum Einsatz kam sondern der Celeron von Intel (mit ein paar Änderungen)).

Wenn, dann könnte man wohl eher ein 2x Modul-BD ohne GPU im gleichen Die kaufen. Ich persönlich gehe aber eher von einer POWER CPU aus. Einfach aus dem Grund: alle haben sich drauf eingestellt, alle Konsolen laufen nun mit POWER CPUs und alle Tools sind dafür geschrieben. Und auch beim Port von Multititeln spielt das eine wesentliche Rolle.

AnarchX
2011-07-21, 10:44:02
Je später die NG-Konsolen von Sony und Microsoft kommen, umso eher wird ein Stacked-Design mit unterschiedlichen Dies für GPU, CPU und Fast-DRAM denkbar.
Damit ist man im Bezug auf die Fertigung flexibler und hat trotzdem breite, schnelle Verbindungen zwischen den Chips.

boxleitnerb
2011-07-21, 10:47:56
Vielleicht kommt ja auch noch ein zus. Chip in Crossfire dazu.. wer weiß - wäre absolut denkbar!

Super, Mikroruckeln wird mainstreamfähig.
Aber gut, einer von AMD meinte ja mal eh, dass man das nicht als Problem ansieht :freak:

AnarchX
2011-07-21, 10:49:39
Super, Mikroruckeln wird mainstreamfähig.
Aber gut, einer von AMD meinte ja mal eh, dass man das nicht als Problem ansieht :freak:
Naja, auf einer Konsole gibt es weder Benchmarks noch einen Framecounter.
Also könnte man hier wohl Maßnahmen für homogene Framezeiten anwenden.

Botcruscher
2011-07-21, 10:55:07
Die würden aber vermutlich trotzdem zu viel Leistung fressen. Gleichzeitig stelle ich mir das mit 30fps Ziel sehr lustig vor. Edit: Zu den Benchmarks:Neben den obligatorischen Vergleichsbildchen gibt es dann ganze Videos. Da sieht man es dann sehr wohl. Das würde ich mir als Hersteller nicht leisten wollen...

Exxtreme
2011-07-21, 10:56:57
Naja, auf einer Konsole gibt es weder Benchmarks noch einen Framecounter.
Also könnte man hier wohl Maßnahmen für homogene Framezeiten anwenden.
Auch Konsolen-GPUs können nicht in die Zukunft schauen. Von daher wird das nichts mit Microruckler verhindern. Andererseits ist die typische Konsolen-Klientel wohl weit weniger anspruchsvoll was solche Dinge betrifft als die PC-Klientel. Die meisten Konsolentitel laufen mit ~30 fps was mir schon viel zu wenig ist.

Ronny145
2011-07-21, 10:59:14
Eine APU hätte ich auch erwartet, aber doch hoffentlich nicht in 32nm? Mehr als 2 Module würden wohl den Rahmen sprengen. In 22nm könnte man vielleicht 3 Module packen, immerhin 6 Bulldozer Kerne. Alles andere wäre für mich enttäuschend.

boxleitnerb
2011-07-21, 11:01:40
Naja, auf einer Konsole gibt es weder Benchmarks noch einen Framecounter.
Also könnte man hier wohl Maßnahmen für homogene Framezeiten anwenden.

Ja und welche? Man kriegt es ja nichtmal auf dem Desktop gebacken. Und in manchen Spielen hast du auf den Konsolen sowieso teilweise unter 30fps. Wenn die auch noch Mikroruckeln, gute Nacht. Das DAS nicht flüssig ist, merkt selbst der dümmste DAU.

Man könnte höchstens einen fps-Limiter einbauen, damit alles auf 30fps gelockt läuft. Das würde das Problem fast eliminieren. Man muss halt die 30fps auch immer erreichen, sonst gibts Ruckler.

del_4901
2011-07-21, 11:03:57
Auch Konsolen-GPUs können nicht in die Zukunft schauen. Von daher wird das nichts mit Microruckler verhindern. Andererseits ist die typische Konsolen-Klientel wohl weit weniger anspruchsvoll was solche Dinge betrifft als die PC-Klientel. Die meisten Konsolentitel laufen mit ~30 fps was mir schon viel zu wenig ist.
Die Rahmenbedingungen, die man erfuellen muss um auf Konsole zu shippen sind um ein vielfaches hoeher als auf PC.(hat keine Richtlinien) Wenn es sowas wie MR Relevanz haben auf den Konsolen, dann taucht das mit an Sicherheit grenzender Wahrscheinlichkeit auch in den Richtlinien mit auf, und dann wird man sich einfach was einfallen lassen muessen.


Wobei mir aber besseres einfallen wuerde als mit einer Fusion+GPU Crossfire zu fahren.

robbitop
2011-07-21, 11:10:08
Je später die NG-Konsolen von Sony und Microsoft kommen, umso eher wird ein Stacked-Design mit unterschiedlichen Dies für GPU, CPU und Fast-DRAM denkbar.
Damit ist man im Bezug auf die Fertigung flexibler und hat trotzdem breite, schnelle Verbindungen zwischen den Chips.
Stacked-DRAM ist gerade mal in der Prototypenphase. Mehrere Stacked ASICS mit hohem Logikanteil und hoher Abwärme AFAIK noch nicht. Vor allem: wie bekommt man die Abwärme vom unteren Logik-AISIC zum Kühler? Die NG Konsolen sind längst in Entwicklung oder fertig entwickelt und bereits dabei, alles für die Massenfertigung zusammenzustellen. IMO kommt das möglicherweise, wenn überhaupt, für die Generation danach in Frage.

robbitop
2011-07-21, 11:15:37
Man könnte Multi-GPU bei Konsolen natürlich ganz anders leben, weil es eine feste Plattform ist und die API auch unabhängig von D3D gestaltet wird, was mehr Freiraum bedeutet.
Man könnte z.B die APU für einen Z-First-Pass benutzen. Dann hätte die GPU ein overdraw freies Bild zu rendern und somit weniger Rechenlast.
Die APU bräuchte dafür im Verhältnis zur GPU gar nicht so groß sein.Keine Ahnung, ob sich das lohnt.
Oder man missbraucht die APU für Effektphysik. Oder man wählt den Weg von Lucid Virtu...

PrefoX
2011-07-21, 11:34:11
Auch Konsolen-GPUs können nicht in die Zukunft schauen. Von daher wird das nichts mit Microruckler verhindern. Andererseits ist die typische Konsolen-Klientel wohl weit weniger anspruchsvoll was solche Dinge betrifft als die PC-Klientel. Die meisten Konsolentitel laufen mit ~30 fps was mir schon viel zu wenig ist.
das glaube ich niemals denn Casual ist doch auf dem PC der größte teil und die leute scheissen auf grafik...

Botcruscher
2011-07-21, 12:14:49
Dem stehen aber 2 Gewichtige Gründe entgegen:
1. Merkt man mRuckler einfach vom Gefühl
2. Ist da noch die Konsole vom andren Hersteller und die Konsolenfags sind mal ganz böse Fanboys. So eine Steilvorlage lässt man sich nicht entgehen.

Exxtreme
2011-07-21, 12:29:06
das glaube ich niemals denn Casual ist doch auf dem PC der größte teil und die leute scheissen auf grafik...
Dieser Casual-ich-spiele-kostenlose-Spiele ist für Konsolenhersteller nicht unbedingt interessant. Denn daran verdienen die nichts, im Gegenteil.

Nur an Vollpreistiteln können die verdienen. Und in diesem Bereich steigen die Ansprüche an die Technik. Bei PC-Spielern dürften sie dann höher sein als bei Konsolenspieler, die nicht mal was einstellen können selbst wenn sie wollten.

Tarkin
2011-07-22, 08:00:07
paar interessante Kommentare aus dem gestrigen AMD Call:

As a reminder, AMD graphics technology power 2 of the 3 current-generation gaming consoles. Approximately 130 million game consoles are expected to ship over the next 3 years.

Our graphics IP and Fusion APUs are a great match for the next generation of media-rich consoles. We have an opportunity to increase the amount of AMD silicon shipped in this market[/I]

und

And in addition, there is the 28-nanometer product coming. That's a great opportunity to grab share again, just like we did with the industry with the x11 (dx11 ist wohl gemeint) and you saw what that did to our revenue. There's another opportunity coming up again here shortly.

Somit dürfte klar sein, was in der nächsten Xbox drinnen ist.

Und mit der "Opportunity" könnte die PS4 gemeint sein :wink:

Mancko
2011-07-22, 08:58:27
paar interessante Kommentare aus dem gestrigen AMD Call:

As a reminder, AMD graphics technology power 2 of the 3 current-generation gaming consoles. Approximately 130 million game consoles are expected to ship over the next 3 years.

Our graphics IP and Fusion APUs are a great match for the next generation of media-rich consoles. We have an opportunity to increase the amount of AMD silicon shipped in this market[/I]

und

And in addition, there is the 28-nanometer product coming. That's a great opportunity to grab share again, just like we did with the industry with the x11 (dx11 ist wohl gemeint) and you saw what that did to our revenue. There's another opportunity coming up again here shortly.

Somit dürfte klar sein, was in der nächsten Xbox drinnen ist.

Und mit der "Opportunity" könnte die PS4 gemeint sein :wink:

Naja aber ob das nun so erfolgversprechend ist? Wenn ich mir anschaue, was in dem Bereich sowohl bei AMD als auch bei Nvidia unterm Strich herumgekommen ist, dann ist das eher enttäuschend. Die Zeiten in denen sich die Konsolendeals wirklich finanziell gelohnt haben sind wohl eher vorbei. Die Kunden (Auftraggeber) haben dazu gelernt und drücken massiv bei den Konditionen. Der einzige Deal der finanziell signifikant lohnend war, war m.E. der XBOX 1 Deal von Nvidia. War halt auf M$ Unvermögen / mangelnde Erfahrung in dem Bereich zurückzuführen.

BTW waren die Zahlen gestern sehr enttäuschend in Anbetracht dessen was Intel abgeliefert hat.

robbitop
2011-07-22, 09:10:22
Gewinnträchtig muss so ein Deal für einen Zulieferer natürlich dennoch sein - ansonsten würde niemand liefern wollen. ;)
Aber die Größe der Gewinnspanne ist seit der Xbox 1 sicher geschrumpft. Allerdings verkaufen die GPU Lieferanten nur noch die Lizenz und vermutlich die Betreuung der Tapeouts. Aber sie tragen keine Kosten oder Verantwortung der Fertigung. Insofern müssen die Lizenzerträge bei einer prognostizierten Verkaufsmenge die Entwicklungskosten + Gewinn bringen.

C1 für die 360 war zwar von der Architektur ein Abfallprodukt aus dem PC Bereich, was man wiederverwerten konnte - aber man musste wohl noch einiges umkrempeln. Sicher nicht billig.
Wenn man jetzt nahezu unverändert eine PC APU oder GPU verkaufen könnte, wäre das natürlich etwas anderes.

fondness
2011-07-22, 09:29:17
Gewinnträchtig muss so ein Deal für einen Zulieferer natürlich dennoch sein - ansonsten würde niemand liefern wollen. ;)


Außerdem geht es nicht nur darum. Die Konsolen sind längst die wichtigste Plattform für die Spielehersteller, wenn ich alle Konsolen beliefere und die Spiele auf diese entsprechend optimiert werden, hat das mit Sicherheit auch positive Auswirkungen auf das PC-Geschäft.

robbitop
2011-07-22, 09:36:14
Die Kausalkette musst du mir jetzt genauer erklären. :)
Gute DevRel kostet und macht sich auch hinsichtlich Kompatibilität und ggf. Performance bemerkbar. Aber welchen Einfluss die Konsole genau darauf hat...? Letztenendes sind es ganz andere APIs und im Extremfall auch andere Architekturen und Umgebungen, auf die dort entwickelt werden muss.

fondness
2011-07-22, 09:52:29
Die Kausalkette musst du mir jetzt genauer erklären. :)
Gute DevRel kostet und macht sich auch hinsichtlich Kompatibilität und ggf. Performance bemerkbar. Aber welchen Einfluss die Konsole genau darauf hat...? Letztenendes sind es ganz andere APIs und im Extremfall auch andere Architekturen und Umgebungen, auf die dort entwickelt werden muss.

AMD wird kaum drei neue Architekturen für die drei Konsolen entwickeln. Letztlich sind das die Desktopchips mit höchstens minimalen Änderungen. Das mit der Xbox 360 wo ein vollkommen anderes Design verwendet wurde war eine einmalige Angelegenheit weil man zufällig ein Design recyceln konnte.

Die Spielehersteller müssen versuchen aus diesen Chips das Maximum an Leistung heraus zu quetschen. Das betrifft Dinge wie ALU/Tex-Verhältnis, bestimmte Features, etc. Dinge in denen ein Chip schnell ist wird man häufig einsetzen, Dinge wo diese Chips eher langsam sind wird man nur rudimentär einsetzten. Das wirkt sich natürlich auch bei einem PC-Port aus.

robbitop
2011-07-22, 10:38:48
Ok - das leuchtet ein. :)

mapel110
2011-07-22, 10:41:43
Ich denke, das trifft aber nur für die eine GPU-Generation zu, die eben verbaut wurde. Wenn der Desktop weitergewandert ist, hat man durch die Konsolenhardware sicher kaum noch einen Vorteil.

dargo
2011-07-22, 10:44:20
Die Spielehersteller müssen versuchen aus diesen Chips das Maximum an Leistung heraus zu quetschen. Das betrifft Dinge wie ALU/Tex-Verhältnis, bestimmte Features, etc. Dinge in denen ein Chip schnell ist wird man häufig einsetzen, Dinge wo diese Chips eher langsam sind wird man nur rudimentär einsetzten. Das wirkt sich natürlich auch bei einem PC-Port aus.
Dann aber nur auf GPUs gleicher Architektur bei den Desktopgrafikkarten, oder? Schließlich kann sich das Design in zukünftigen GPUs was bsw. ALU/Tex-Verhältnis angeht ändern.

Edit:
zu langsam :D

robbitop
2011-07-22, 10:45:02
Ich denke, das trifft aber nur für die eine GPU-Generation zu, die eben verbaut wurde. Wenn der Desktop weitergewandert ist, hat man durch die Konsolenhardware sicher kaum noch einen Vorteil.
Das können aber Jahre! sein. AMD führte VLIW zur R600 2007 ein und löst es erst 2012 mit R1000 ab.
Wenn man es schlau anstellt, verbaut man in der Xbox3 einen Ableger von R1000. Wenn man noch ein VLIW Ableger verbaut, gilt das Argument natürlich nicht.

fondness
2011-07-22, 11:11:34
Das können aber Jahre! sein. AMD führte VLIW zur R600 2007 ein und löst es erst 2012 mit R1000 ab.

Eben.


Wenn man es schlau anstellt, verbaut man in der Xbox3 einen Ableger von R1000. Wenn man noch ein VLIW Ableger verbaut, gilt das Argument natürlich nicht.

Die neue Xbox kommt frühestens 2013, die neue PS eher noch später, da wird man kaum noch eine VLIW-Chip verbauen. AFAIK wird es nicht mal eine VLIW-Core in 28nm geben. Wobei man bei der PS4 natürlich noch abwarten muss ob sich nicht vielleicht doch noch NV durchsetzt.

mboeller
2011-07-22, 20:25:29
paar interessante Kommentare aus dem gestrigen AMD Call:

And in addition, there is the 28-nanometer product coming. That's a great opportunity to grab share again, just like we did with the industry with the x11 (dx11 ist wohl gemeint) and you saw what that did to our revenue. There's another opportunity coming up again here shortly.

Somit dürfte klar sein, was in der nächsten Xbox drinnen ist.

Und mit der "Opportunity" könnte die PS4 gemeint sein :wink:

Ich glaube da geht die Fantasie mal wieder mit dir durch. :)
Ich verstehe das ganze eher so wie die Situation bei der Markteinführung der HD5870. AMD erwartet anscheinend, das sie den GPU-Markt wieder ca. 1/2 Jahr für sich haben. Mal sehen wer richtig liegt.

Ronny145
2011-08-16, 16:08:40
Aus der News von heute:

Laut SemiAccurate (http://semiaccurate.com/2011/08/15/next-gen-xbox-chip-gets-a-name-and-date/) soll der nächste Xbox-Chip gegen Ende 2012 oder Anfang 2013 in Produktion gehen – dies würde bedeuten, daß die spekulativ Xbox 720 genannte NextGen-Konsole nicht vor den Frühjahr/Sommer 2013 in den Handel kommen wird

Globalfoundries wird zu dem Zeitpunkt wohl nicht in der Lage sein 22nm in Masse zu fertigen. 28 nm wäre sicherlich machbar für eine AMD APU, hoffentlich. Oder AMD entwickelt einen abgewandelten Trinity für die Konsole, der ja nächstes Jahr in 32nm an den Start geht.

LovesuckZ
2011-08-16, 16:10:41
Laut Semiaccurate ist es nur wieder Lizenztechnik. CPU-Part soll wederrum von IBM kommen.

Ailuros
2011-08-16, 18:52:25
Die einzige "Ueberraschung" fuer viele wird wohl sein dass es sich vielleicht doch bei M$ um einen SoC handelt. Wie war das nochmal dass SoCs fuer Konsolen unmoeglich sind?

mapel110
2011-08-16, 19:00:43
Die einzige "Ueberraschung" fuer viele wird wohl sein dass es sich vielleicht doch bei M$ um einen SoC handelt. Wie war das nochmal dass SoCs fuer Konsolen unmoeglich sind?
Nicht unmöglich, aber dann gibts einen noch schlimmeren Hardware-Krüppel als es die WII zur letzten Generation war. Einen SoC mit 300 Watt Verbrauch kann ich mir jedenfalls nicht vorstellen.

LovesuckZ
2011-08-16, 19:03:20
Die erste Xbox360 verbrauchte ende 2005 120-150 Watt unter Last. Das von einem SoC wegzubringen, würde nur mit massiven Aufwand möglich sein.

Tesseract
2011-08-16, 19:08:11
jede halbwegs potente graka führt mehr ab, ich seh das problem nicht. so kann man wenigstens ein einheitliches kühlkonzept durchziehen ohne sich auf zu viele hotspots konzentrieren zu müssen und kann stattdessen einen schönen luft-tunnel bauen.

Ronny145
2011-08-16, 19:18:22
Laut Semiaccurate ist es nur wieder Lizenztechnik. CPU-Part soll wederrum von IBM kommen.

Das macht die 28nm GPU wahrscheinlicher. 32nm GPU geht schlecht wenn die AMD APU doch nicht eingesetzt wird.

dargo
2011-08-16, 19:44:15
jede halbwegs potente graka führt mehr ab, ich seh das problem nicht.
Du siehst das Problem nicht? Welcher Konsolenhersteller wird freiwillig eine Art GTX480 Referenzkühlung verbauen? So ein lautes Ding würde nahezu jeden Käufer abschrecken. Und teure Kühllösungen sind bei 200-300€ Konsolen völlig fehl am Platz.

Die einzige "Ueberraschung" fuer viele wird wohl sein dass es sich vielleicht doch bei M$ um einen SoC handelt. Wie war das nochmal dass SoCs fuer Konsolen unmoeglich sind?
Wer hat das behauptet?

Die erste Xbox360 verbrauchte ende 2005 120-150 Watt unter Last. Das von einem SoC wegzubringen, würde nur mit massiven Aufwand möglich sein.
Laut Wiki warens 156-178W.
http://de.wikipedia.org/wiki/Xbox_360#cite_note-stromverbrauch-30

Erst mit dem Shrink der CPU gings runter. Die PS3 hat das noch ein kleines Stück überboten.
http://de.wikipedia.org/wiki/PlayStation_3

Tesseract
2011-08-16, 20:19:19
Du siehst das Problem nicht? Welcher Konsolenhersteller wird freiwillig eine Art GTX480 Referenzkühlung verbauen? So ein lautes Ding würde nahezu jeden Käufer abschrecken. Und teure Kühllösungen sind bei 200-300€ Konsolen völlig fehl am Platz.
warum sollte sich ein multi-chip-system mit ähnlich viel watt da groß unterscheiden? über z.B. 200W in einer kleinen konsole abführen ist immer schwer, bei SoC nicht mehr als bei einer multichiplösung.

und graka-kühler sind sehr ineffizient weil sie, vor allem wegen ATX, einen haufen constraints haben die man in einer konsole nicht hat und die eigentlich auch keinen sinn machen. das bekommt man deutlich billiger und leiser auch hin.

Ailuros
2011-08-17, 09:21:04
Nicht unmöglich, aber dann gibts einen noch schlimmeren Hardware-Krüppel als es die WII zur letzten Generation war. Einen SoC mit 300 Watt Verbrauch kann ich mir jedenfalls nicht vorstellen.

Na dann wart ab wie Project Denver als Gegenbeispiel ab 20nm von NVIDIA aussehen wird. Ausser Du willst mir weissmachen dass ein solcher SoC mit 8-16 CPU cores und einer GPU mit etlichen Terraflops nur 100W z.B. verbraten wird.

Ich hab es schon vor etlichen Seiten gesagt, wenn ST Ericcson es schafft unter 28nm einen embedded Design mit +/- XBox360 Leistung fuer ein smart-phone/tablet zu entwickeln, dann erscheint ein high end SoC alles andere als unmoeglich.

fondness
2011-08-17, 10:13:45
Die einzige "Ueberraschung" fuer viele wird wohl sein dass es sich vielleicht doch bei M$ um einen SoC handelt. Wie war das nochmal dass SoCs fuer Konsolen unmoeglich sind?

Ein SoC macht nur dann Sinn wenn alles von AMD kommt. Ansonsten wäre es nur verschiedene Komponente die halt auf einem Die gefertigt werden, ähnlich der Xbox 360.

Ailuros
2011-08-17, 10:18:31
Ein SoC macht nur dann Sinn wenn alles von AMD kommt. Ansonsten wäre es nur verschiedene Komponente die halt auf einem Die gefertigt werden, ähnlich der Xbox 360.

Charlie spekuliert offensichtlich nur denn er erwaehnt selber dass er auch von ener Bulldozer Option gehoert hat oder dass IBM das "Vorwort" bei der hypothetischen Entwicklung des hypothetischen SoCs haben soll.

Aehnlich welcher Xbox360 genau? Denn die neuesten Konsolen haben ja wie bekannt einen SoC integriert und dieser besteht eben nicht nur aus AMD IP oder?

fondness
2011-08-17, 10:29:55
Aehnlich welcher Xbox360 genau? Denn die neuesten Konsolen haben ja wie bekannt einen SoC integriert und dieser besteht eben nicht nur aus AMD IP oder?

Ja, wie die neuerste Xbox 360 natürlich. Nur bringt das dann keine Vorteile außer Kostenersparnis (sofern der Die nicht zu groß wird). Wenn ich will das die Konsole auch bei der Performance von einem SoC profitiert müssen GPU und CPU mittels Crossbar verbunden sein, auf den selben Memory-Controller zugreifen, shared memory unterstützen, etc. Das ist kaum machbar wenn nicht alles aus einer Hand kommt.

dargo
2011-08-17, 10:34:52
Ich hab es schon vor etlichen Seiten gesagt, wenn ST Ericcson es schafft unter 28nm einen embedded Design mit +/- XBox360 Leistung fuer ein smart-phone/tablet zu entwickeln, dann erscheint ein high end SoC alles andere als unmoeglich.
Was ist für dich High-End? Wenn dieser SoC in 28nm fertig ist haben wir im Desktop-Bereich ca. 6-7 Milliarden Transistoren (CPU in 22nm mit ca. 1,x und GPU in 28nm mit ca. 5 Milliarden). Kannst mir gerne einen SoC in 28nm mit einem Transistorbudget von ~6 Milliarden zeigen. Das definiere ich nächstes Jahr als High-End.

Ailuros
2011-08-17, 10:39:48
Ja, wie die neuerste Xbox 360 natürlich. Nur bringt das dann keine Vorteile außer Kostenersparnis (sofern der Die nicht zu groß wird). Wenn ich will das die Konsole auch bei der Performance von einem SoC profitiert müssen GPU und CPU mittels Crossbar verbunden sein, auf den selben Memory-Controller zugreifen, shared memory unterstützen, etc. Das ist kaum machbar wenn nicht alles aus einer Hand kommt.

Nur steht in der obrigen These (nicht Theorie) von Charlie drin dass das meiste in IBM's Haenden liegen wuerde. GPU ist so oder so IP egal ob es sich um einen standalone chip oder eine SoC Integrierung handeln sollte. Wo jetzt der besondere Haken dabei sein soll wenn hypothetisch IBM so ein Ding herstellert versteh ich bei bestem Willen nicht.

Es sagt ja auch keiner dass es mir nichts dir nichts so sein muss; mir geht es lediglich darum dass es durchaus moeglich ist. Noch besser eine von Anfang an SoC Loesung ist billiger mit den Jahren zu schrumpfen mit kleineren Prozessen als bisherige Loesungen in SoCs umzuwandeln.

LovesuckZ
2011-08-17, 12:51:47
jede halbwegs potente graka führt mehr ab, ich seh das problem nicht. so kann man wenigstens ein einheitliches kühlkonzept durchziehen ohne sich auf zu viele hotspots konzentrieren zu müssen und kann stattdessen einen schönen luft-tunnel bauen.

Und schau dir mal die Kühllösung an. Entweder wird es richtig laut - Radial-Kühler - oder ein Großteil der Wärme bleibt im Gehäuse.
Dazu kommt, dass du aufgrund der Bauweise überhaupt kein großflächigen Kühlkörper verwenden kannst, der gleichzeitig so aufgebaut ist, dass ein seitlicher Lüfter die Wärme direkt rausblasen kann. Ich hab hier einen Big Shuriken (http://geizhals.at/deutschland/440569), der meine <40 Watt CPU kühlt. Und sobald Last anliegt, wird er hörbar.

Es ist wesentlich einfacher Wärme von zwei getrennten Spots wegzubringen, die aktiv gekühlt werden können.

Gipsel
2011-08-17, 15:29:44
Ja, wie die neuerste Xbox 360 natürlich. Nur bringt das dann keine Vorteile außer Kostenersparnis (sofern der Die nicht zu groß wird). Wenn ich will das die Konsole auch bei der Performance von einem SoC profitiert müssen GPU und CPU mittels Crossbar verbunden sein, auf den selben Memory-Controller zugreifen, shared memory unterstützen, etc. Das ist kaum machbar wenn nicht alles aus einer Hand kommt.
Hmm, das ist bei der XBox-360 schon gegeben. Und war es übrigens schon vom aller ersten Moment, die CPU hatte keinen eigenen Speichercontroller, das GPU-Die hatte den einzigen im System. Die zwei Dies am Anfang (drei mit dem eDRAM+ROP-Chip, von AMD entworfen und iirc von NEC produziert) waren eher ein Tribut an die damalige Fertigungstechnik als alles andere. Das war sowas wie ein System-on-MCM ;)

Und auch heute wäre es kein größeres Problem ein paar Power-Kerne von IBM mit einer ansehnlichen Menge eDRAM und einer AMD GPU auf ein Die zu packen und z.B. in 32nm SOI oder in 28nm bulk zu fertigen. Egal ob bei GF oder bei IBM, das ist ja der gleiche Prozeß. IBM hat die Power-Kerne mitsamt eDRAM für den Prozeß fertig, AMD hat GPUs (Llano + Trinity, ein paar mehr SIMDs ranklatschen ist jetzt nicht so die große Schwierigkeit) und über das Interface dazwischen muß man dann halt mal nachdenken, wieviel man da von den APUs übernehmen will und was da angepaßt wird. Das Speicherinterface wird man austauschen, da gesockelter DDR3 wie bei den APUs oder IBMs Power nicht so der Bringer ist. Da wird man also einen GDDR5-Speichercontroller neu aufsetzen müssen (in der Konsole werden Speicherchips ja wie auf GraKas direkt aufgelötet, da wären also ohne weiteres 256 Bit@5 GHz drin), was wahrscheinlich die größte Einzelaufgabe darstellen würde. Hmm, hört sich für mich alles andere als unlösbar an. :rolleyes:

G.A.S.T.
2011-08-17, 18:13:33
Dazu kommt, dass du aufgrund der Bauweise überhaupt kein großflächigen Kühlkörper verwenden kannst, der gleichzeitig so aufgebaut ist, dass ein seitlicher Lüfter die Wärme direkt rausblasen kann.
Wieso sollte bei einer Konsole der Lüfter die Wärme nicht direkt raus blasen können?

Ailuros
2011-08-26, 00:06:15
Ich lehne mich mal ganz weit aus dem Fenster und tippe auf NVIDIA fuer SONY's "PS4".

ShadowXX
2011-08-26, 00:38:42
Und auch heute wäre es kein größeres Problem ein paar Power-Kerne von IBM mit einer ansehnlichen Menge eDRAM und einer AMD GPU auf ein Die zu packen und z.B. in 32nm SOI oder in 28nm bulk zu fertigen. Egal ob bei GF oder bei IBM, das ist ja der gleiche Prozeß. IBM hat die Power-Kerne mitsamt eDRAM für den Prozeß fertig, AMD hat GPUs (Llano + Trinity, ein paar mehr SIMDs ranklatschen ist jetzt nicht so die große Schwierigkeit) und über das Interface dazwischen muß man dann halt mal nachdenken, wieviel man da von den APUs übernehmen will und was da angepaßt wird. Das Speicherinterface wird man austauschen, da gesockelter DDR3 wie bei den APUs oder IBMs Power nicht so der Bringer ist. Da wird man also einen GDDR5-Speichercontroller neu aufsetzen müssen (in der Konsole werden Speicherchips ja wie auf GraKas direkt aufgelötet, da wären also ohne weiteres 256 Bit@5 GHz drin), was wahrscheinlich die größte Einzelaufgabe darstellen würde. Hmm, hört sich für mich alles andere als unlösbar an. :rolleyes:
Und welche Super-Duper-Leistung soll solch ein System haben?

Ein SoC ist toll für die Kostenersparnis, aber wenn Sie tatsächlich 2013 damit ankommen wäre das System den PCs zum Start schon so extrem Unterlegen das vielleicht gar kein Entwickler Lust hat auf sowas zu Programmieren.

Ich lehne mich mal ganz weit aus dem Fenster und tippe auf NVIDIA fuer SONY's "PS4".
Ja, da die Verträge die Sie geschlossen haben auch gar nichts anderes zulassen (in Verträgen war nV immer gut, fragt mal MS;)).

Nur ich sehe momentan noch gar keine PS4 (ja klar, die Ings spekulieren da schon so rum, das wars aber auch schon...das gleiche gilt für MS).

Ich lehne mich jetzt mal sehr weit aus dem Fenster und sage das sowohl MS als auch Sony sehen das eine wirklich kostengünstige Konsole nicht machbar ist....die Leute Zahlen keine 600 Euro mehr beim erscheinen (Speziell nicht wenn Sie für das gleiche Geld auch einen PC bekommen der das gleiche oder sogar mehr kann).

Deinorius
2011-08-26, 01:59:14
Ich lehne mich mal ganz weit aus dem Fenster und tippe auf NVIDIA fuer SONY's "PS4".


Doch auf einmal? Wie kommts?

Geldmann3
2011-08-26, 03:37:31
aber wenn Sie tatsächlich 2013 damit ankommen wäre das System den PCs zum Start schon so extrem Unterlegen das vielleicht gar kein Entwickler Lust hat auf sowas zu Programmieren.
Welcher Entwickler hat jetzt Lust für diese tattrigen ollen Taschenrechner zu Entwickeln?

Hugo78
2011-08-26, 06:30:58
Ich lehne mich jetzt mal sehr weit aus dem Fenster und sage das sowohl MS als auch Sony sehen das eine wirklich kostengünstige Konsole nicht machbar ist....die Leute Zahlen keine 600 Euro mehr beim erscheinen (Speziell nicht wenn Sie für das gleiche Geld auch einen PC bekommen der das gleiche oder sogar mehr kann).

Wenn Sony nicht dämliche Vorstellungen hätte was die HW angeht, sondern eher klassische HW verbaut, könnten sie viel billiger kommen.
Schau dochmal was du als Endkunde heute für einen Einsteiger PC bezahlst?

http://www8.pic-upload.de/26.08.11/8kpoff9p4lcn.jpg
Das Sony für ähnliche Leistung nochmal deutlich weniger zahlen würde, muss ich ja nicht noch erwähnen.
Die würden bei 150-200€ rauskommen.

Ailuros
2011-08-26, 09:08:22
Wenn Sony nicht dämliche Vorstellungen hätte was die HW angeht, sondern eher klassische HW verbaut, könnten sie viel billiger kommen.
Schau dochmal was du als Endkunde heute für einen Einsteiger PC bezahlst?

Das Sony für ähnliche Leistung nochmal deutlich weniger zahlen würde, muss ich ja nicht noch erwähnen.
Die würden bei 150-200€ rauskommen.

Die Xbox hw ist bis jetzt zumindest auch nicht unbedingt billiger. Das dumme ist eben dass bisher Konsolen-Hersteller stets am Anfang mit einem Verlust hw herstellten, denn das eigentliche Geld fliesst von den Spielen rein.

Hw mal zur Seite zu Shadow's legitimem Punkt ueber den Preis einer Konsole bei ihrer Vorstellung stelle ich eher noch den Preis eines Konsolen-Spiels noch ein Stueck davor. Frage: sind wir wirklich in Zeiten wo sich Leute $50 Spiele leisten koennen?

Gegenbeispiel obwohl kleiner: PS Vita; der SoC unter Samsung's 45nm ist relativ teuer herzustellen im Vergleich zu smart-phone/tablet SoCs und beim dem projezierten Strassenpreis bei der Vorstellung sieht es mit Sicherheit nach Verlust aus. Wenn jetzt SONY nicht genug Spiele dafuer verkaufen kann koennte es grau aussehen. Nintendo geht es ja auch nicht gerade blendend mit dem 3DS; sie haben nicht nur den Preis reduzieren muessen vom Geraet sondern scheinen auch daran zu denken den 3D display ab 2012 loszuwerden um Kosten zu reduzieren.

Als einige von uns vor einiger Zeit sagten dass es fuer handheld Konsolen eng werden wird, waren wir wohl die Deppen im Dorf. Mit anderen Konstanten wird es auch nicht besser aussehen fuer zukuenftige Konsolen. Genau aus diesem Grund denken manch von uns an die Moeglichkeit eines groesseren SoCs fuer zukuenftige Konsolen genau um die Herstellungskosten so stark wie moeglich zu reduzieren. FLOPs sind zwar nur eine sterile Nummer aber ich wage zu behaupten dass GPUs der zukuenftigen Konsolen vielleicht auf maximal 2 TFLOPs steigen, welches zwar einem Faktor 10x zu heutigen entspricht, aber im Vergleich zur kommenden 28nm high end desktop GPU Generation eher ein Witz sein wird.

Deinorius,

Dass AMD alle 3 deals gewinnen wird waere zwar ein Moeglichkeit aber ich kann schwer daran glauben. NV hat mit Sicherheit etwas fuer Konsolen entwickelt, genauso wie andere IHVs ihre Vorschlaege gemacht haben. Heutzutage waere es von den anderen nicht so still wie es momentan ist wenn etwas kochen wuerde. NV hat einen Konsolen-deal durchaus noetig, egal ob aus Prestige-Gruenden oder Markt-existenz fuer ISVs.

Hugo78
2011-08-26, 12:05:39
@Ailuros
In der aktuellen XBox360 steckt doch mittlerweile seit einem Jahr ein 170mm^2 kleines SoC.
http://www.computerbase.de/news/2010-08/xbox-soc-von-ibm-duepiert-intel-und-amd/
Der neue SoC für die Xbox 360 Slim ist technisch beeindruckend. Lediglich 372 Millionen Transistoren sind in 45 nm gefertigt und ergeben ein etwa 170 mm² kleines stromsparendes, aber leistungsfähiges Modell.
Dieses neue Design ist im Ursprung sogar schneller als bisherige Xbox 360-Chips, wird intern aber künstlich gebremst, um Kompatibilitätsprobleme zwischen den unterschiedlichen Geräten und Spielen zu vermeiden.

Das die HW anfangs durch Spiele subventioniert wird ist klar, aber man braucht garnicht diesen Weg gehen, wenn man nicht immer diese Sonderwege bei der HW geht,
sondern sich mal bemüht aus der zukünfitig, laufenden Massenproduktion heraus ein Produkt zu entwickeln.
Ähnlich wie bei der Xbox 1.

Die PS3 ist ja das negativ Beispiel schlecht hin.
Sony doktert erst am Cell rum, damit der auch Grafik darstellen kann, dann wird das nix mit dem Wunderding, rennen dann zu NV damit die mal schnell was kostengünsiges aus dem Hut zaubern.
Für G80 technik hat das dann natürlich nicht mehr gereicht, obwohl die PS3 grade mal einen Monat vor der 8800 GTX erschienen ist.
Und zu allem überfluss scheint auch das SDK anfangs ein Krampf gewesen zusein.

Hätte Sony sich ebenfalls nur einen 3 Core + SMT PowerPC geholt und sich früher mit NV zusammen gesetzt, hätten die schon G80 Technik in der PS3 gehabt.
Das wäre alles viel einfacher, billiger und besser gelaufen, als ihr Sonderweg.

Die XBox 1 seiner Zeit hatte ja im November 2001 auch schon GF4 Technik an Bord, obwohl die Karten erst im Februar 2002 kamen.

Crazy_Bon
2011-08-26, 12:23:09
Wenn Sony es gewollt hätte, dann hätte die G80 auch seinen Weg in die PS3 gefunden, aber ich denke sie war schlichtweg zu teuer. Konsolen müssen immer seines sein, ob mit oder ohne Subventionen, bezahlbar bleiben.

Hugo78
2011-08-26, 12:29:03
Ja, ich sag ja, weil sie auf dem letzten Drücker bei NV angekrochen kamen.
Da reichte es dann nur noch für G70.

Ailuros
2011-08-26, 12:36:11
@Ailuros
In der aktuellen XBox360 steckt doch mittlerweile seit einem Jahr ein 170mm^2 kleines SoC.
http://www.computerbase.de/news/2010-08/xbox-soc-von-ibm-duepiert-intel-und-amd/

Wurde schon etliche Male in diesem Thread besprochen. Schaetzungsweise und rein theoretisch unter 28nm duerfte das Ding nicht groesser als 70mm2 sein. Ich lass mich gerne eines besseren belehren aber ich denke dass wenn man von Anfang an einen SoC entwickelt man noch etwas die estate gegenueber dem 360-er SoC sparen koennte.

Das die HW anfangs durch Spiele subventioniert wird ist klar, aber man braucht garnicht diesen Weg gehen, wenn man nicht immer diese Sonderwege bei der HW geht,
sondern sich mal bemüht aus der zukünfitig, laufenden Massenproduktion heraus ein Produkt zu entwickeln.
Ähnlich wie bei der Xbox 1.

Im Anhang zum obrigen gibt es hier im Thread Stimmen die durchaus an die Moeglichkeit eines relativ groesseren SoC glauben und andere die es bezweifeln. Ob und wie die Hersteller ihre Herstellungs-kosten reduzieren werden liegt an ihnen. Mein einziger Punkt diesbezueglich ist dass man sehr wohl einen SoC entwickeln koennte und damit Geld sparen.

Die PS3 ist ja das negativ Beispiel schlecht hin.
Sony doktert erst am Cell rum, damit der auch Grafik darstellen kann, dann wird das nix mit dem Wunderding, rennen dann zu NV damit die mal schnell was kostengünsiges aus dem Hut zaubern.

Sony hat afaik die Entscheidung nicht getrennt zuerst fuer Cell und danach an jegliche zusaetzliche GPU IP getroffen. Es gibt leider sehr viele die immer noch dummerweise glauben dass RSX eine 1:1 Kopie von einem G7x ist. http://www.ps3devwiki.com/index.php?title=RSX

Wenn Du jetzt glauben willst dass NV RSX ueber Nacht entwickelt hat von mir aus. Konsolen GPU IP ist ein ziemlich kompliziertes Tier und braucht auch eine sehr grossen Aufwand an Resourcen (sowohl engineers als auch Zeit). Unter 2 Jahren egal wie absurd es klingen mag garantiert nicht.

Wieso kostenguenstig? NV kassiert einen Schnitt mehr an royalties als AMD fuer Xenos. Ati konnte damals keine vorzeigbare hw zeitig liefern da sie mit 2 Konsolen-Designs + Desktop ueberfoerdert waren und SONY hatte keine andere Wahl. Unter $5 royalty pro PS3 verkauft garantiert nicht und je mehr Zeit vergeht desto mehr ist es komplett reiner Gewinn fuer NVIDIA.

Für G80 technik hat das dann natürlich nicht mehr gereicht, obwohl die PS3 grade mal einen Monat vor der 8800 GTX erschienen ist.
Und zu allem überfluss scheint auch das SDK anfangs ein Krampf gewesen zusein.

Denkst Du Konsolen-Hersteller sind so bloed und lizenzieren Papier-tieger? Erste und wichtigste Vorraussetzung ist vorzeigbares Silizium (siehe auch oben). Google nach wann Sony und NV moeglicherweise den Vertrag abgeschlossen haben und es ist leicht zu sehen dass G80 keineswegs damit fertig war. Hersteller werkeln auch eine geraume Zeit an der hw rum bis sie endlich in die Massenproduktion gehen. SONY schloss mit IMG den GPU IP Vertrag fuer PS Vita in 2008 ab und das Ding ist immer noch nicht auf Regalen.

Hätte Sony sich ebenfalls nur einen 3 Core + SMT PowerPC geholt und sich früher mit NV zusammen gesetzt, hätten die schon G80 Technik in der PS3 gehabt.
Das wäre alles viel einfacher, billiger und besser gelaufen, als ihr Sonderweg.

Die XBox 1 seiner Zeit hatte ja im November 2001 auch schon GF4 Technik an Bord, obwohl die Karten erst im Februar 2002 kamen.

Siehe oben. Fuer XBox1 hat damals Gigapixel (welches spaeter von 3dfx gekauft wurde und deren enginneers heute bei NV werkeln) den GPU IP Vertrag an Microsoft verloren gegen NV. Warte der Grund war *drumroll* weil sie nur Papiertiger vorzuzeigen hatten ;)

Hugo78
2011-08-26, 13:02:29
Na ich glaub aber nicht, dass der RSX nicht hätte besser sein können.
Cell sollte ja urprünglich die Grafik darstellen.

Natürlich wird Sony nicht erst paar Monate vor Relase der PS3, bei NV auf der Matte gestanden haben, aber spät genug um "auf die schnelle was haben zumüssen",
damit Sony endlich anfangen konnte ihre SDK Software und Ref.HW fertig zustellen, damit wiederum die Spieleentwickler ne Basis haben.

Ailuros
2011-08-26, 14:19:28
Na ich glaub aber nicht, dass der RSX nicht hätte besser sein können.

Ja nur wurde er von SONY und NV zusammen entwickelt (lies den Link bitte mal durch). Einfacher SONY zeigte was sie sich genau vorgestellt hatten und NV passte den RSX bzw. G7x dementsprechend an.

Cell sollte ja urprünglich die Grafik darstellen.

Ein weiterer Mythos der schon vor Jahren verreckt ist.

Natürlich wird Sony nicht erst paar Monate vor Relase der PS3, bei NV auf der Matte gestanden haben, aber spät genug um "auf die schnelle was haben zumüssen",
damit Sony endlich anfangen konnte ihre SDK Software und Ref.HW fertig zustellen, damit wiederum die Spieleentwickler ne Basis haben.

Unter 3-4 Jahren vor dem release wuerde ich nicht rechnen.

Uebrigens damit ich es nicht vergesse: beindruckt es keinen dass NV FXAA entwickelt hat?

Gipsel
2011-08-26, 15:33:35
Und welche Super-Duper-Leistung soll solch ein System haben?
In 28nm kannst Du locker einen SoC bauen, der einen passablen Quadcore mit Grafikleistung auf Cypress-Level (oder GF104/114) vereint. Das Ganze innerhalb vielleicht 150-170W Stromverbrauch für die komplette Konsole.

Konsolen waren selten schneller als ein High-End-PC und werden es in Zukunft nie sein, weil sie die 300W Stromverbrauch, die eine Single-GPU im PC maximal zur Verfügung hat wohl nie für die Gesamtkonsole überschreiten werden. Die Performance wird also effektiv durch den Stromverbrauch limitiert. Und da Du 200W locker auch von einem Single-Chip abführen kannst (und in den kleineren Fertigungsverfahren die W/mm² ständig steigen, Du also Dein Powerbudget jetzt in einen Chip packen kannst und nicht auf mehrere verteilen mußt ;)), was spricht gegen eine SoC-Lösung?
Die anfangs vielleicht höheren Produktionskosten (größerer Die = geringere yields)? Das verschwindet langsam mit zunehmender Prozeßgüte und wandelt sich sogar in einen Kostenvorteil mit dem nächsten Shrink (geringere Komponentenzahl = geringere Kosten).
Geringere Performance? Die existiert nicht (mehr). Ein gutes SoC-Design ist durch die engere Integration von CPU und GPU sogar prinzipiell schneller bzw. ermöglicht auch eine einfachere Programmierung (einheitlicher Adressraum und Speicher).
Ein SoC ist toll für die Kostenersparnis, aber wenn Sie tatsächlich 2013 damit ankommen wäre das System den PCs zum Start schon so extrem Unterlegen das vielleicht gar kein Entwickler Lust hat auf sowas zu Programmieren.
Warum sollte die Performance extrem unterlegen sein? Ein Speicherinterface mit 100 GB/s in einer GPU unterscheidet sich durch was nochmal von einem Speicherinterface mit 100 GB/s Bandbreite in einen SoC? Ein SoC hat durch das größere Gesamtdie sogar mehr Platz am Rand für ein breiteres Speicherinterface als eine "klassische" CPU-GPU-Combo. Und die CPU-GPU-Kommunikation ist ja wie schon erwähnt prinzipbedingt schneller.

Hugo78
2011-08-26, 17:31:54
Ja nur wurde er von SONY und NV zusammen entwickelt (lies den Link bitte mal durch). Einfacher SONY zeigte was sie sich genau vorgestellt hatten und NV passte den RSX bzw. G7x dementsprechend an.

Ein weiterer Mythos der schon vor Jahren verreckt ist.

Unter 3-4 Jahren vor dem release wuerde ich nicht rechnen.

In dem Fall ist es dann unverständlich warum ihnen die Kosten so aus dem Ruder gelaufen sind und warum die Entwickler so über das urspüngliche SDK gejammert haben.

Naja egal ich wollt ja eh nur ein Beispiel einwerfen, dass neue Konsolen nicht zwingend 600€ kosten müssen, wenn man gleich "handelsübliche Ware" nimmt.
Ein Chip a la GF106 dem man auf einer Konsole ohne die API Schichten des PCs, dichter in Hardware zu Leibe rücken kann,
könnte so die nächsten paar paar Jahre reichen, dazu ne günstige Quadcore PowerPC mit SMT und mal zur Abwechslung 4-8Gb RAM,
dann wären sogar Konsorten wie Crytek glücklich.

Uebrigens damit ich es nicht vergesse: beindruckt es keinen dass NV FXAA entwickelt hat?

AMDs Adaption von Intels MLAA hat dem wohl die Show gestohlen und gleichzeitig ein Bild, von "nur ein weiterer Weichzeichner 2.0" etabliert, weils halt auch "nur" post-processing ist.
Für Konsoleros sicher die bessere Alternative zu MLAA oder "NO"AA, aber als PCler möchte ich Kantenglättung die das Bild beruhigt ohne das Inhalte irgendwie unscharf werden.

Wobei im Fall von totalversagens a la GTA 4, nehm ich dann doch alles was besser als der fiese ingame Blur Filter ist. :redface:

Ailuros
2011-08-26, 17:38:17
Es geht mir offensichtlich nicht um den PC sondern um Konsolen wenn ich ueber billige AA Alternativen wie FXAA frage.

dargo
2011-08-26, 17:50:40
Warum sollte die Performance extrem unterlegen sein? Ein Speicherinterface mit 100 GB/s in einer GPU unterscheidet sich durch was nochmal von einem Speicherinterface mit 100 GB/s Bandbreite in einen SoC?
Ein SI von 100GB/s hat heute schon eine GTX550 TI für <100€:
http://geizhals.at/deutschland/622601

Diese Karte ist 2013 bereits low-end.

Hugo78
2011-08-26, 17:54:20
Es geht mir offensichtlich nicht um den PC sondern um Konsolen wenn ich ueber billige AA Alternativen wie FXAA frage.

Ok ,dann ist die Antwort ein klares, ja. ;)

Deinorius
2011-08-27, 07:39:59
AMDs Adaption von Intels MLAA hat dem wohl die Show gestohlen und gleichzeitig ein Bild, von "nur ein weiterer Weichzeichner 2.0" etabliert, weils halt auch "nur" post-processing ist.
Für Konsoleros sicher die bessere Alternative zu MLAA oder "NO"AA, aber als PCler möchte ich Kantenglättung die das Bild beruhigt ohne das Inhalte irgendwie unscharf werden.


Also, wenn du dir den FXAA Thread durchliest, wird dir auffallen, dass gewisse PCler recht positiv über dieses PostProcessing schreiben. Für einen Vorgang, der wenig Leistung frisst und passable Ergebnisse zeigt, really not bad.

robbitop
2011-08-27, 07:56:27
Ich habe FXAA, DLAA und MLAA mit einem Extender für Oblivion probiert und sah, was auch so sein muss. Keines der Verfahren sieht Anti-Aliasing ähnlich. Es werden Kanten gematscht. Aber in Bewegung finde ich alle Verfahren unzureichemd. Wie sollen die das in Bewegung ohne echte Informationen über die Geometrie machen?
Wer das für PC OK findet, hat keine großen Ansprüche (oder kein gutes Augenlicht). Insbesondere nach einem Jahrzehnt AA-Entwicklung im PC Bereich.
Frage mal jemanden wie Raff oder aths dazu. Die haben die gleichen Ansprüche von einem sauberen Bild wie ich (wenn nicht mittlerweile höhere).

Deinorius
2011-08-27, 08:02:29
Ich hab nur das geschrieben, was mir im FXAA Thread aufgefallen ist. Wenn MSAA nicht mal geht, dann kannst du dir den Rest dazu denken.

Gipsel
2011-08-27, 12:26:19
Ein SI von 100GB/s hat heute schon eine GTX550 TI für <100€:
http://geizhals.at/deutschland/622601

Diese Karte ist 2013 bereits low-end.
Ja und? Das war doch nur ein Argument, daß sich diskrete GPU und SoC da nicht unterscheiden. Da kannst Du beliebige Zahlen einsetzen. Oder nochmal für Dich:

Warum sollte die Performance eines SoC extrem unterlegen sein? Ein Speicherinterface mit xyz GB/s in einer GPU unterscheidet sich durch was nochmal von einem Speicherinterface mit xyz GB/s Bandbreite in einen SoC?

Jetzt klarer?

dargo
2011-08-27, 13:45:26
Warum sollte die Performance eines SoC extrem unterlegen sein?
Zum x-ten Male... weil Niemand in 28nm ~5-6 Milliarden Transistoren in ein SoC stopfen wird.

Deinorius
2011-08-27, 17:34:44
in 28nm ~5-6 Milliarden Transistoren


Wie kommst du drauf, dass diese Anzahl überhaupt bei zwei DIEs eingesetzt werden würde? Klingt so oder so nach viel Platzbedarf, besonders wenn diesmal weder Sony noch M$ zuviel subventionieren wollen würden.

dargo
2011-08-27, 18:16:57
Wie kommst du drauf, dass diese Anzahl überhaupt bei zwei DIEs eingesetzt werden würde? Klingt so oder so nach viel Platzbedarf, besonders wenn diesmal weder Sony noch M$ zuviel subventionieren wollen würden.
Dieses Transistorbudget erwarte ich natürlich nicht bei den nächsten Konsolen sondern dem PC in 2012. Das wäre ein Ivy Bridge samt GTX680. Das nenne ich High-End.

Gipsel
2011-08-27, 20:06:33
Thema sind aber NextGen-Konsolen. :rolleyes:

Ich schrieb doch bereits, daß PCs in Zukunft wohl immer schneller sein werden als Konsolen, da man bei einer Konsole kaum das Power-Budget eines HighEnd-PCs nutzen will (400+W für Gesamtsystem). Wenn Du das bei einer Konsole auf ~200W limitierst, hast Du keinen Nachteil mehr mit SoCs, eher im Gegenteil. Und einen SoC mit bis zu 4 Milliarden Transistoren in 28nm herzustellen, dürfte kein Problem sein. Ist ja nicht größer als heutige 40nm Performance-GPUs. Und die werfen sie Dir beinahe schon hinterher.

PrefoX
2011-08-27, 21:27:41
Welcher Entwickler hat jetzt Lust für diese tattrigen ollen Taschenrechner zu Entwickeln?
carmack weil er die hardware direkt programmieren kann und die hardware nicht die krüppeltreiber ausgebremst werden.

=Floi=
2011-08-27, 22:03:43
ich bin froh um die nv "krüppeltreiber", weil gerade die mehr ermöglichen wie die ollen programmierer die sich einen dreck um die BQ scheren. gerade carmack hat mich mit brink enttäuscht, weil das aktuellste video wieder flimmert wie hölle und der das eigentlich auch sehen muß.

http://www.youtube.com/watch?v=aliCR-IhptE&feature=player_embedded

--
noch was zum thema
ich denke manche haben sich hier einfach zu sehr auf die SoCs eingeschossen. Ich bleibe dabei, dass es am anfang wieder zwei chips sein werden und ein 200 watt powerbudget (eher 300 watt) schließt einen großen chip nicht aus. wen nman mit dem takt dafür runter geht, dann könnte man auch einen größeren chip verbauen.

Ailuros
2011-08-27, 22:26:16
Ob SoCs in der naechsten Generation von Konsolen erscheinen werden hat nichts mit dem Stromverbrauch von diesen oder ihrem Leistungs-potential zu tun sondern eher ob die jeweiligen konkurrierenden IHVs einen so grossen SoC zeitig fertig haben werden.

Wie ich schon mal erwaehnte zumindest Microsoft und SONY haben vor Jahren IP evaluiert (bevor Intel LRB fertig hatte und ja dieser wurde auch bei beiden angeboten) und SONY lehnte sich eher in Richtung einer PowerPC CPU und einer NV GPU der Zeit. Plaene wurden geaendert, heutige Konsolen bekamen ihre Lebenszeit verlaengert und sie fingen irgendwo vor ~1.5 Jahren wieder an IP zu evaluieren.

Um auf den ersten Paragraphen zurueckzukommen NV hat mit Sicherheit einen Konsolen-Design entwickelt nur weiss bis heute noch keiner ob sie etwas damit erreicht haben. SONY waere ein sehr guter Kandidat, bleibt aber die Frage ob Project Denver zum Zeitpunkt wo SONY wieder angefangen hat IP zu evaluieren schon praesentabel war. Und ja natuerlich hab ich damit wieder zu viel rausgeblubbert; es bleibt aber dabei dass ein SoC zumindest rein auf hypothetischer technischer Basis moeglich ist und sogar einige gravierende Vorteile mit sich fuehrt.

Ich sehe ja auch ein dass nicht jeder weiss wofuer Denver/T50 genau steht, aber wenn jemand von Euch glauben sollte dass es ein Handy/tablet Bums-SoC ist sollte er mal kraeftig den Kopf schuetteln.

Lenon
2011-08-28, 22:12:12
Es wäre doch schön - also eher Wunsch als Spekulation - wenn sich Sony und M$ auf eine Hardwareplattform einigen könnten. Hardware käme von Sony; Software, Dev Tools und Netzwerk (Live) von M$.
Im Grunde machen die beiden doch das gleiche.

Das käme dem Konsumenten und dem Entwickler entgegen. M$ und Sony verdienen doch eh nur über Softwareverkäufe oder ?

Nintendo könnte dann auch noch mit ins Boot und alles wäre schön :-) Ich hasse diese ganzen Teile im Wohnzimmer.
Das würde ich mir mal wünschen. Die Konsoleros könnten dann Ihre Grabenkämpfe in Richtung PC weiterführen und alles wäre gut :-)

Ailuros
2011-08-28, 22:16:54
Ich kann mir schwer in jeglichem Markt vorstellen dass ein spezifisches Produkt zwischen konkurrierenden Herstellern auf genau gleicher Technologie basiert.

Crazy_Bon
2011-08-28, 22:21:55
Sowas gab es schon mal, nähmlich mit der 3DO. Leider kam die Konsole verspätet und überteuert auf dem Markt, das Spieleangebot war auch nicht rosig.
http://de.wikipedia.org/wiki/3DO

Ailuros
2011-08-29, 16:32:26
Ich hab mich wohl doch zu weit aus dem Fenster gelehnt....

Crazy_Bon
2011-08-29, 17:44:57
Wieso? Das Szenario wäre durchaus denkbar. Ist ja in der Automobilbranche schon gang und gäbe, ohne gleich einer Fusion oder dergleichen eingehen zu müssen.

Gipsel
2011-08-29, 18:34:37
Ich hab mich wohl doch zu weit aus dem Fenster gelehnt....Wieso? Das Szenario wäre durchaus denkbar. Ist ja in der Automobilbranche schon gang und gäbe, ohne gleich einer Fusion oder dergleichen eingehen zu müssen.
Das bezog sich wohl eher auf das hier:
Ich lehne mich mal ganz weit aus dem Fenster und tippe auf NVIDIA fuer SONY's "PS4".
Oder um das mal anders zu sagen: Nix Genaues weiß man nicht. :wink:

Hugo
2011-08-29, 18:55:25
das klingt eher als ob Nvidia den deal in der PS4 nicht bekommen hat oder?

pixelguy
2011-08-29, 19:14:57
gibt es Quellen zu der ersten Vermutung und der Rücknahme? :)

Coda
2011-08-29, 19:25:19
Ich kann mir schwer in jeglichem Markt vorstellen dass ein spezifisches Produkt zwischen konkurrierenden Herstellern auf genau gleicher Technologie basiert.
Wieso? Das ist doch bei Smartphones auch so.

Gipsel
2011-08-29, 19:35:49
gibt es Quellen zu der ersten Vermutung und der Rücknahme? :)
Nö. Alles nur vage Gerüchte oder Vermutungen.

Coda
2011-08-29, 19:37:39
gerade carmack hat mich mit brink enttäuscht
Das kann er gar nicht, weil er nichts damit zu tun hatte.

deekey777
2011-08-29, 19:49:36
Das kann er gar nicht, weil er nichts damit zu tun hatte.
Vielleicht gerade deswegen?

Coda
2011-08-29, 19:50:58
Machen wir dann Carmack auch für die letzte Eiszeit und das Aussterben der Dinosaurier verantwortlich?

Hugo78
2011-08-29, 20:17:18
Machen wir dann Carmack auch für die letzte Eiszeit und das Aussterben der Dinosaurier verantwortlich?

Könnte sein das die Leute in Zukunft öfter auf solche seltsamen Ideen kommen, weil ja id Tech 5 exklusiv Bethesda only wird. :freak:

Wobei ich persönlich seh die Designänderungen an Brink (geht so) gegenüber ET:Quake Wars (Hammergeil), hat Splash Damage zu verantworten.

DrFreaK666
2011-08-29, 20:26:54
Das kann er gar nicht, weil er nichts damit zu tun hatte.

Von Carmack stammt die "Grund"-Engine :biggrin:

Coda
2011-08-29, 21:16:28
Die kann aber auch nichts für die flimmernden Shader.

Ailuros
2011-08-30, 08:28:27
Wieso? Das ist doch bei Smartphones auch so.

Nur weil sehr viele auf X CPU IP und Y GPU IP + eine reihe an ff hw basieren heisst es noch lange nicht dass sie identisch sind. Ausser natuerlich den Faellen wo smart-phones mit dem gleichen SoC ausgestattet werden.

Nichtdestominder ist der embedded Markt auch diametrisch groesser als der Konsolen-Markt und wird auch weiterhin wie verrueckt explodieren. Neben ARM CPU IP, Intel Atom gibt es fuer GPUs ARM Mali GPU IP, Adreno/Qualcomm, Vivante GPU IP, Broadcom GPUs, NVIDIA/Tegra, IMG GPU IP (und sobald AMD tablet SoCs veroeffentlicht CPUs und GPUs von diesen). Ergo eine ziemlich kunterbunte Landschaft fuer eine hohe Anzahl an SoC Herstellern und eine noch hoehere Anzahl an OEMs.

--------------------------------------------------------------------------

Wer will uebrigens einen Besen fressen dass keine zukuenftige Konsole einen SoC haben wird? Wir sind im Spekulations-forum.

john carmack
2011-08-30, 10:28:54
Hallo Leute,

hab hier schon ewig nicht mehr reingeschaut...

Was gibts denn nun konkretes zur Wii U zu sagen? Hardware?

Wann kommt sie und was ist mit PS4 u. der neuen XBOX ?

Ailuros
2011-08-30, 13:15:01
Hallo Leute,

hab hier schon ewig nicht mehr reingeschaut...

Was gibts denn nun konkretes zur Wii U zu sagen? Hardware?

http://en.wikipedia.org/wiki/Wii_U

Wann kommt sie und was ist mit PS4 u. der neuen XBOX ?

Es wird mit den Ankuendigungen dieser noch einige Zeit dauern und bis dahin gibt es nur bunte Spekulationen.

G.A.S.T.
2011-08-30, 14:29:40
Wer will uebrigens einen Besen fressen dass keine zukuenftige Konsole einen SoC haben wird? Wir sind im Spekulations-forum.
Wenn, dann sollte sich die Wette ausschließlich auf die nächste Gen beziehen, sonst wird wohl kaum Jemand wetten wollen.

Ich würde aber auch so nicht wetten. :)

Ailuros
2011-08-30, 21:20:21
Wenn, dann sollte sich die Wette ausschließlich auf die nächste Gen beziehen, sonst wird wohl kaum Jemand wetten wollen.

Ich würde aber auch so nicht wetten. :)

Siehe Thread-Titel.

nomadhunter
2011-08-31, 00:11:44
Wer will uebrigens einen Besen fressen dass keine zukuenftige Konsole einen SoC haben wird? Wir sind im Spekulations-forum.
Kommt drauf an, was mit SoC gemeint ist. Einen ARM-SoC à la Denver kann ich mir für die kommende Konsolen-Generation noch nicht vorstellen. Da würd ich auch drauf wetten. Bei der darauffolgenden Generation sieht die Sache anders aus. Wenn ARM bis dahin im Server- und Desktop-Bereich Fuß fassen kann, ist auch ein Konsolen-Design denkbar.

Ein SoC mit x86- oder PPC-CPU plus Desktop-GPU ist schon in der kommenden Generation gut möglich. Das haben wir ja heute schon in der Xbox360 oder mit Llano im Desktop-Bereich.

Ailuros
2011-08-31, 07:55:02
Wenn man in Richtung SoCs spekulieren will, muesste man eher in die Richtung denken wo schon hw auf praesentablem Zustand ist.

Screemer
2011-08-31, 11:13:57
trinity? nach der spekutlation um gcn als gpu, doch durchaus vorstellbar oder ein massiv aufgebohrter rouge mp mit mit mächtig aufgeblasenen arm-cores. alles ist vorstellbar.

Ailuros
2011-09-02, 08:40:06
http://semiaccurate.com/2011/08/15/next-gen-xbox-chip-gets-a-name-and-date/

Wurde schon darauf gelinkt?

sHenker
2011-09-02, 20:16:10
[QUOTE=Ailuros;8910115
Wer will uebrigens einen Besen fressen dass keine zukuenftige Konsole einen SoC haben wird? Wir sind im Spekulations-forum.[/QUOTE]

Konkret fomuliert: Nextgen Konsole, die noch vor 2013 auf dem Markt kommt und mindestens gleichwertige HW wie die x360 zum release hatte (mindestens 1/2 gen bessere gpu als auf dem markt zum release erhältlich und dabei mindestens 2/3 so schnell wie das dann erscheinende Topmodell) wird NIEMALS nen SOC haben. Die Wette nehm ich auf jedenfall an. Einsatz Permabann?

ShadowXX
2011-09-03, 00:17:34
http://semiaccurate.com/2011/08/15/next-gen-xbox-chip-gets-a-name-and-date/

Wurde schon darauf gelinkt?
Zumindest von Leo in den News auf der Hauptseite.

Konkret fomuliert: Nextgen Konsole, die noch vor 2013 auf dem Markt kommt und mindestens gleichwertige HW wie die x360 zum release hatte (mindestens 1/2 gen bessere gpu als auf dem markt zum release erhältlich und dabei mindestens 2/3 so schnell wie das dann erscheinende Topmodell) wird NIEMALS nen SOC haben. Die Wette nehm ich auf jedenfall an. Einsatz Permabann?
Ich hatte es schon mal erwähnt und stehe weiter dazu: ich glaube nicht das die "Next-Next-Gen-Konsolen" (die jetzigen werden ja lustigerweise immer noch Next-Gen genannt;)) so stark sein werden wie viele glauben.

Sowohl MS als auch Sony haben gesehen das die Leute nicht wirklich gewillt sind 500-600 Euro für ne neue Konsole auszugeben, allein deshalb werden Sie IMHO auf ca. 400 Euro als Erstverkaufspreis abzielen.
Und allein aus dem Grund + das Hitze ein immer größeres Problem wird gehe ich davon aus das die neuen Konsolen in der Leitung von Anfang an schlechter dastehen werden als ein High-End-PC der zur gleichen Zeit auf dem Markt ist, sehr wahrscheinlich sogar einen ganzen Technologielevel dahinter (im Grafikbereich....war im Prinzip aber schon bei X360 / PS3 schon so, also nicht überraschend).

Ich könnte mir zumindest bei MS durchaus ein SOC von Anfang an vorstellen.

Ailuros
2011-09-03, 09:04:27
Konkret fomuliert: Nextgen Konsole, die noch vor 2013 auf dem Markt kommt und mindestens gleichwertige HW wie die x360 zum release hatte (mindestens 1/2 gen bessere gpu als auf dem markt zum release erhältlich und dabei mindestens 2/3 so schnell wie das dann erscheinende Topmodell) wird NIEMALS nen SOC haben. Die Wette nehm ich auf jedenfall an. Einsatz Permabann?

Wenn es ueberhaupt ueber eine Wette gehen wuerde waere der Gewinn oder Verlust nur virtuell. Sonst siehe ShadowXX's Beitrag oben.


Und allein aus dem Grund + das Hitze ein immer größeres Problem wird gehe ich davon aus das die neuen Konsolen in der Leitung von Anfang an schlechter dastehen werden als ein High-End-PC der zur gleichen Zeit auf dem Markt ist, sehr wahrscheinlich sogar einen ganzen Technologielevel dahinter (im Grafikbereich....war im Prinzip aber schon bei X360 / PS3 schon so, also nicht überraschend).

Ich könnte mir zumindest bei MS durchaus ein SOC von Anfang an vorstellen.

Der reduzierte hypothetische Preis ist im Fall wo tatsaechlich ein SoC benutzt wird auch ein Resultat der billigeren hw.

Was jetzt die Leistung generell betrifft, wie schon erwaehnt wurde, war es je anders in der Vergangenheit dass ich etwas verpasst habe? Was genau gab es in high end PCs bevor z.B. Microsoft angefangen hat hw fuer XBox360 herzustellen und wie hat der high end PC spaeter dann ausgesehen als die XBox360 veroeffentlicht wurde? Anders zumindest von der GPU ist wie ich schoen oefters erwaehnt habe ca. ein Faktor 10x moeglich im Vergleich zu Xenos. Ich bezweifle dass sich etwas fundamentales daran geandert haette wenn es sich um standalone GPUs gehandelt haette.

Nochmal SONY & Microsoft evaluierten zum ersten Mal IP noch zum Zeitpunkt wo LRB noch irgendwo 1-1.5 Jahre bis zu seiner projezierten von Intel Veroeffentlichung hatte und ja es wurde auch untersucht. Beide entschieden sich damals das Ganze auf Eis zu legen und XBox360 bzw. PS3 noch etwas Leben zu schenken. Ich kann Dir so viel verraten dass die damalige beste konkurrierende Loesung fuer SONY eine PowerPC CPU + NV GPU IP war und natuerlich alles standalone und kein SoC.

Jetzt rechne mal im stillen die Jahre aus die bis heute dazwischenliegen bis sie wieder vor ca. 1.5 Jahr von Anfang an IP evaluierten, wie viele Fortschritte GPU Architekturen genau gemacht haben und um wieviel kleiner die Herstellungsprozesse seither sind und es ist leicht zu sehen warum die Theorie (und nicht These) eines jeglichen SoC ohne die eigentliche resultierende Leistung zu beinflussen eigentlich moeglich ist.

Noch ein Schritt weiter: was glaubst Du war denn die oben erwaehnte GPU IP von NV die ich oben erwaehne? Fermi? Uh uh....nun und was koennte heutzutage drinstecken? Hilft so viel bis die Presse losschiesst oder muss ich mir noch mehr Muehe geben es indirekt zu verschleiern? ;)

tobor
2011-09-06, 17:06:18
Zumindest von Leo in den News auf der Hauptseite.
Sowohl MS als auch Sony haben gesehen das die Leute nicht wirklich gewillt sind 500-600 Euro für ne neue Konsole auszugeben, allein deshalb werden Sie IMHO auf ca. 400 Euro als Erstverkaufspreis abzielen.

Wenn dieser Konsolenzyklus endet(2013-14),werden sowohl die Xbox 360 sowie die Ps3 so circa 70-80 Millionen Einheiten abgesetzt haben.Trotz hohem Verkaufspreis am Anfang. Ein Erfolg,auch für Sony,wenn auch keine Dominanz und Zahlen wie zu Ps2 Zeiten erreicht wurde.

Und allein aus dem Grund + das Hitze ein immer größeres Problem wird gehe ich davon aus das die neuen Konsolen in der Leitung von Anfang an schlechter dastehen werden als ein High-End-PC der zur gleichen Zeit auf dem Markt ist, sehr wahrscheinlich sogar einen ganzen Technologielevel dahinter

Es gibt keinen Grund,warum Konsolengehäuse keine größeren Abmessungen haben dürfen als jetzt...(was auch das Problem mit der Hitzeentwicklung löst)
http://gearmedia.ign.com/gear/image/article/613/613266/xbox-360-faq-20050512055856696-000.jpg

Ailuros
2011-09-07, 09:18:26
Die Herstellungskosten duerften sowohl fuer Microsoft als auch fuer SONY reduziert sein bei dieser kommenden Runde.

Wuzel
2011-09-07, 09:49:05
Sony wird vor allem eines 'konventioneller' ;)

Nach dem absägen von Ken Kutaragi und raus schmiss des alten Dev Teams...
Da werden mit Sicherheit keine Purzelbäume mehr beim Design gewagt.

Zumal das Budget sehr eng geworden ist. Ich glaube nämlich das an den Gerüchten zumindest ein Teil Wahrheit besteht und die PS3 einen groß teil der 'Kampfkasse' - gefüllt durch die Vorgänger - verbraucht hat.

Wobei ich mich noch immer Frage, ob sie zeitlich überhaupt in der Lage sind MS zu kontern. Neue Führung, neues Team, weniger Money.....

Wird spannend ;)

Ailuros
2011-09-07, 10:20:31
Sony wird vor allem eines 'konventioneller' ;)

Nach dem absägen von Ken Kutaragi und raus schmiss des alten Dev Teams...
Da werden mit Sicherheit keine Purzelbäume mehr beim Design gewagt.

Zumal das Budget sehr eng geworden ist. Ich glaube nämlich das an den Gerüchten zumindest ein Teil Wahrheit besteht und die PS3 einen groß teil der 'Kampfkasse' - gefüllt durch die Vorgänger - verbraucht hat.

Wobei ich mich noch immer Frage, ob sie zeitlich überhaupt in der Lage sind MS zu kontern. Neue Führung, neues Team, weniger Money.....

Wird spannend ;)

Och Microsoft hat auch nicht vor Uebermengen an Resourcen aufzulegen. Sonst insgesamt ein ziemlich guter Beitrag ;)

Karümel
2011-09-07, 10:55:36
Was "müssen" denn die neuen Konsolen vom MS und Sony können, wenn Sie denn auf den Markt kommen?

Full-HD, aber auch nicht mehr an Auflösung?
AA und AF Vorgaben für die Spiele?
3D als Standart oder eher optional?

Sonst fällt mir da ehrlich gesagt nichts technisches ein?
Kinect oder Move haben sich auch nicht so richtig "durchgesetzt", es gibt zwar einige Titel aber so wie aich das mitbekommen habe sind beide Sachen nicht so der Verkaufsknaller geworden, oder?

Ailuros
2011-09-07, 11:16:05
AA und AF koennen auch heutige Konsolen; es liegt eben am ISV selber ob er dafuer Resourcen anlegen will oder sie wo anders investieren.

Sonst wuerde ich in der Mehrzahl auch den letzten Schrei an programmierbarer Tessellation erwarten, den manche vor einiger Zeit als ueberfluessig empfunden haben hier im Forum.

Dural
2011-09-07, 11:57:12
Was hat ein SoC in einer "High-End" Konsole für einen Vorteil?!

Das Argument des Preises lass ich nicht gelten, ein grosser DIE dürfte sicher teurer sein als zwei kleinere DIE... Nicht vergessen selektieren geht im Konsolen Bereich nicht, alle Chips müssen immer Leistung A haben! Zudem ist man Extrem eingeschränkt betreffend der CPU in den Aktuell verfügbaren SoC, derzeit gibt es nichts auf dem Markt das geeignet für eine Konsole wäre und das wird sich auch nicht so schnell ändern.


Die einzig Sinnvolle SoC für eine Konsole im Jahre 2013 wäre wohl einer mit min. 8 aufpollierte ARM Kernen @ min. 2GHz und einer GPU Einheit mit min. GF114 Leistung, aber von sowas fehlt derzeit noch jede Spur... zudem das im Jahre 2013 von der Leistung her das min. ist, alles darunter geht ja wohl kaum. Da wäre man bei 28nm Fertigung schon sicher min. 250mm2 gross und eine kleinere Fertigung dürfte Anfang 2013 für eine Konsole kaum in Frage kommen.

Lightning
2011-09-07, 12:26:48
AA und AF koennen auch heutige Konsolen; es liegt eben am ISV selber ob er dafuer Resourcen anlegen will oder sie wo anders investieren.

Klar, aber es ging ja eben um Vorgaben.

Ich würde 1920*1080 als Vorgabe setzen und dann auch versuchen, damit zu werben. Das wäre schon ein ordentlicher Fortschritt im Vergleich zur aktuellen Generation, zumal dann auch die Hochskaliererei wegfällt. Eine AA-Vorgabe wäre natürlich auch schick, aber imo erstmal weniger realistisch/wichtig. Sauberes AF, mindestens 8x, würde ich vorziehen.
Und 3D als Standard? Da bin ich eher skeptisch.

Wuzel
2011-09-07, 12:30:55
Was "müssen" denn die neuen Konsolen vom MS und Sony können, wenn Sie denn auf den Markt kommen?

Full-HD, aber auch nicht mehr an Auflösung?
AA und AF Vorgaben für die Spiele?
3D als Standart oder eher optional?

Sonst fällt mir da ehrlich gesagt nichts technisches ein?
Kinect oder Move haben sich auch nicht so richtig "durchgesetzt", es gibt zwar einige Titel aber so wie aich das mitbekommen habe sind beide Sachen nicht so der Verkaufsknaller geworden, oder?

Die blanke Hardwareseite wird wohl nicht den absoluten Nenner abgeben.

Wichtig sind die 'online' Funktion. Appledeutsch 'Appstore' und vor allem social Klingbim.
Gerade der social Klingbim ist in jüngeren Zielgruppen ein nicht zu unterschätzender Faktor.
Umfangreiche DRM Systeme für Film, Spaß und Musik...
Viele bunte APIs, für die Spiele Schrauber, um auf allen Plattformen zu posten das Fritz gerade Hans in die nuts geballert hat.

Natürlich Micropayment - noch viel ausgefuchster als heute schon. Gerade was Abos angeht, da besteht noch Luft für den Markt.

Ailuros
2011-09-07, 12:53:51
Was hat ein SoC in einer "High-End" Konsole für einen Vorteil?!

Billiger herzustellen und da meistens in SoCs die insgesamte Bandbreite geteilt wird eine bessere Verteilung dieser.

Das Argument des Preises lass ich nicht gelten, ein grosser DIE dürfte sicher teurer sein als zwei kleinere DIE..

1. Mehrere verschiedene dies sind nie billiger herzustellen als ein einziger.
2. Was passiert langfristig wenn man um Kosten zu reduzieren die mehrere dies doch in einen SoC umwandeln will? Die Schrumpfrate ist in solchen Faellen alles andere als optimal im Vergleich zum Fall wo man von Anfang einen SoC ausgelegt hat.
3. Die paar "Deppen" bei Microsoft und SONY werden schon wissen wo es langgeht.


Nicht vergessen selektieren geht im Konsolen Bereich nicht, alle Chips müssen immer Leistung A haben!

Muss der Grund sein dass weder bei RSX noch bei Xenos die anfangs projezierte Frequenz eingehalten werden konnte oder?

Zudem ist man Extrem eingeschränkt betreffend der CPU in den Aktuell verfügbaren SoC, derzeit gibt es nichts auf dem Markt das geeignet für eine Konsole wäre und das wird sich auch nicht so schnell ändern.

Welche moeglichen Konsolen-CPUs koennten denn nicht in einen SoC integriert werden?

Die einzig Sinnvolle SoC für eine Konsole im Jahre 2013 wäre wohl einer mit min. 8 aufpollierte ARM Kernen @ min. 2GHz und einer GPU Einheit mit min. GF114 Leistung, aber von sowas fehlt derzeit noch jede Spur...

Momentchen.....ARM, ARM... *gruebel* wer sagte ueberhaupt etwas von ARM CPU IP?

zudem das im Jahre 2013 von der Leistung her das min. ist, alles darunter geht ja wohl kaum. Da wäre man bei 28nm Fertigung schon sicher min. 250mm2 gross und eine kleinere Fertigung dürfte Anfang 2013 für eine Konsole kaum in Frage kommen.

Siehe oben. Was die moegliche die area betrifft keine Ahnung, mir ist lediglich das wesentlichste momentan bewusst.

Wuzel
2011-09-07, 12:59:38
Ein Soc ist auch in Sachen routing ganz dick im Vorteil.
Gerade in den HF Gefilden, wo man sich mittlerweile bewegt, kann man sich viel Geld und Ärger mit einem Soc sparen.
Ganz zu schweigen von der Platinen Größe - bzw. Layer dieser.
Lizenzen für potente Bussysteme - bei einer diskreten Anbindung - sind auch nicht ohne.

Kühl technisch macht ein großer Hotspot - statt vieler - auch einiges aus. In einem Notebook können kanpp 40% der Kosten des Kühlsystems bei einem Soc eingespart werden (gegenüber GPU + NB + CPU).

Ailuros
2011-09-07, 13:00:42
Klar, aber es ging ja eben um Vorgaben.

Ich würde 1920*1080 als Vorgabe setzen und dann auch versuchen, damit zu werben.

720p ist zugegeben zu wenig fuer eine zukuenftige Konsole.

Das wäre schon ein ordentlicher Fortschritt im Vergleich zur aktuellen Generation, zumal dann auch die Hochskaliererei wegfällt.

Moegliches upscaling ist dann aber auch ein Kopfschmerz vom TV-set bzw. Bildschirm selber. Natuerlich erwarte ich dass jemand an so eine Konsole einen full HD Bildschirm anschnallt, aber garantiert ist es auch nicht.

Eine AA-Vorgabe wäre natürlich auch schick, aber imo erstmal weniger realistisch/wichtig. Sauberes AF, mindestens 8x, würde ich vorziehen.

Tut mir leid aber es wird wohl eher in den Haenden der Entwickler liegen, wie es auch bei heutigen Konsolen der Fall ist. Ich waere sogar mit nur 4xAF zufrieden, aber wie gesagt es wird wohl in Entwickler-Haenden bleiben wie sie die Resourcen verteilen moechten.

Und 3D als Standard? Da bin ich eher skeptisch.

Da selbst Nintendo selber schon Zweifel dafuer hat fuer ihr 3DS und sie moeglicherweise den 3D display ab 2012 weglassen werden, sieht es nicht danach aus. Sonst frisst S3D einen Haufen an Fuellrate und was sonst noch an Resourcen, da waere mir persoenlich dann schon gleich AA/AF in Spielen lieber.

Karümel
2011-09-07, 13:06:44
Ob sich MS und Sony in Sachen Hardware eigentlich anpassen werden, sprich ob beide auf nen Systemaufbau setzten die in ähnlicher Form zu programieren sind? MS ist docj mit der 360 (so wie ich das mitbekommen habe) sehr nah an einem PC, Sony hat dagegen mit ihrem Cell dagegen was sehr "eigenes".
Edit: Schon klar das die beiden sich nicht absprechen werden.

Da ich mir vorstellen kann die die Exclusiv-Titel" bei der nächsten Generation noch weinger werden, wäre es für die Entwickler besser wenn es sich für beide Systeme leichter entwickeln ließe.
OK, MS und Sony eigne Studios werden wohl immer Exclusiv werden, aber der Trend zu Multi-Plattformtiteln wird ja größer.

Ihm
2011-09-07, 13:20:48
Ob sich MS und Sony in Sachen Hardware eigentlich anpassen werden, sprich ob beide auf nen Systemaufbau setzten die in ähnlicher Form zu programieren sind? MS ist docj mit der 360 (so wie ich das mitbekommen habe) sehr nah an einem PC, Sony hat dagegen mit ihrem Cell dagegen was sehr "eigenes".
Da ich mir vorstellen kann die die Exclusiv-Titel" bei der nächsten Generation noch weinger werden, wäre es für die Entwickler besser wenn es sich für beide Systeme leichter entwickeln ließe.
OK, MS und Sony eigne Studios werden wohl immer Exclusiv werden, aber der Trend zu Multi-Plattformtiteln wird ja größer.

Man programmiert nicht für jede Plattform extra, sondern portiert und passt an.
Wäre aber nett, wenn die Konsolen systemspezifisch derart ähnlich wären. Würde die Emulatorprogrammierung deutlich vereinfachen und beschleunigen. :D

Kurz:
Vergiss es. :freak:

dargo
2011-09-07, 13:22:19
720p ist zugegeben zu wenig fuer eine zukuenftige Konsole.

Wieso? Bei der aktuellen Gen wird oftmals noch nicht mal 720p eingehalten. Ich denke man wird zwar mit 1080p werben, kommen aber anspruchsvollere Games wird man diese 1080p wieder nicht einhalten können und auf 720p bzw. irgendwas "krummes" dazwischen gehen müssen damit die als Ziel gesetzte Framerate eingehalten werden kann.

Ailuros
2011-09-07, 13:27:37
Wieso? Bei der aktuellen Gen wird oftmals noch nicht mal 720p eingehalten. Ich denke man wird zwar mit 1080p werben, kommen aber anspruchsvollere Games wird man diese 1080p wieder nicht einhalten können und auf 720p bzw. irgendwas "krummes" dazwischen gehen müssen damit die als Ziel gesetzte Framerate eingehalten werden kann.

Das wuerde ich sogar als selbstverstaendlich abstempeln.

Karümel
2011-09-07, 13:28:36
Wieso? Bei der aktuellen Gen wird oftmals noch nicht mal 720p eingehalten.

Angeblich schafft BF3 auch keine 720P.

Ailuros
2011-09-07, 13:29:28
Man programmiert nicht für jede Plattform extra, sondern portiert und passt an.
Wäre aber nett, wenn die Konsolen systemspezifisch derart ähnlich wären. Würde die Emulatorprogrammierung deutlich vereinfachen und beschleunigen. :D

Kurz:
Vergiss es. :freak:

Duerfte schon mehr oder weniger stimmen, aber wie dem auch sei ich traue diesmal SONY nicht zu dass sie nochmal so platt auf die Nase fallen wie mit Cell.

dargo
2011-09-07, 14:20:02
Angeblich schafft BF3 auch keine 720P.
Wundert mich überhaupt nicht.

Crazy_Bon
2011-09-08, 10:44:38
Wundert mich überhaupt nicht.
OFFTOPIC! Verflucht sei DICE, die bei BF3 statt 1280x720 Pixel nur 1280x704 Pixel hinbekommen haben. Ich finde diese Lösung ist erträglicher als bei der COD-Reihe, wo praktisch die Pixelanzahl halbiert wurde (und ich finde dennoch ein gutes Bild ablieferte).

dargo
2011-09-08, 10:50:19
Ich finde diese Lösung ist erträglicher als bei der COD-Reihe, wo praktisch die Pixelanzahl halbiert wurde (und ich finde dennoch ein gutes Bild ablieferte).
CoD hatte als Ziel auch 60fps und keine 30.

Dudeastic
2011-09-09, 02:42:00
Duerfte schon mehr oder weniger stimmen, aber wie dem auch sei ich traue diesmal SONY nicht zu dass sie nochmal so platt auf die Nase fallen wie mit Cell.

Naja, so unzufrieden sind die Entwickler ja gar nicht mit den SPEs des Cells. In den ganzen Entwicklerberichten klingt es ja immer an wie die SPUs mitarbeiten für Postpro etc.

Im Vergleich zur XBox360 ist ja eher die GPU der PS3 der Schwachpunkt, eDRAM hat nunmal massig Bandbreite für die Füllrate, da kommen GDDR3 bzw. XDR Speicher nicht mit.

Im Vergleich zum RSX hat ja der Cell weitreichende DMA Funktionen bzw. verfügt ja jede SPE über ne MFC, die GPGPU fähigkeiten vom RSX sind eher als mager zu bezeichnen.

Wuzel
2011-09-09, 09:14:46
Im Ursprünglichen Design sollte das Ding ja ähnlich der PS2 aufgebaut sein.
Da wäre hinter dem Cell (als Vektorschleuder) ein 'einfacher' Rasterizer gekommen, mit rudimentären Post processing Fähigkeiten.
Leider ist der Ansatz aufgeweicht worden, mit zunehmender kastrierung der Cells war es einfach nicht mehr haltbar.
Schlecht ist der ganze Aufbau mitnichten, aber irgendwie ein bisschen wehmütig - wenn man denkt was ursprünglich daraus hätte werden sollen.

Mit der neuen PS werden die alten Ansätze wohl endgültig begraben und ein Einheitsbrei folgen - würde mich schwer wundern wenn nicht.
'echte' Konsolen Designs sind dann endgültig ausgestorben.

robbitop
2011-09-09, 09:35:11
Als wenn das wirklich jemals von Vorteil gewesen wäre. Es hat den Entwicklern einfach nur das Leben schwer gemacht.
Die Xbox 1 und die X360 waren die ersten PC-artigen Konsolen. Sehr konventionell und entwicklerfreundlich aufgebaut. So kommt man schneller zu guten Ergebnissen und verplempert somit weniger Geld und Zeit. Beides Ressourcen, die man lieber in Kontent investiert.
Es ist ja nicht so, dass irgendein hammerkomplexes Konsolendesign jetzt die Leistungsexplosion brachte. Man kam mit sehr sehr viel Schmerz und Optimierungen endlich an die Leistungsgrenze der Hardware und nur dadurch gerade so auf vergleichbare Leistung von konventionellen Architekturen.
Wie lange hat es gedauert, bis die Titel auf der PS3 endlich auf X360 Niveau waren?
Auch war die PS2 die schwächste Konsole ihrer Generation. Und hätte man für die gleiche BOM zum PS2 Release PC Hardware zusammengestellt, wäre damit garantiert nicht weniger schöne Optik herausgekommen. Eher im Gegenteil.

Wuzel
2011-09-09, 10:02:06
Das ist ein strittiges Thema ;)

Konventionelles Design ergibt nun einmal automatisch einen 'Einheitsbrei'.

Die PS2 war mitnichten 'schwach' - nur anders.
Der Ansatz ging halt hauptsächlich über die Geometrie - während der konventionelle PC Ansatz über Texturen ging.
Und Vektorprozessoren ano 1999 - die im Ansatz den viel späteren Vertexshadern nicht unähnlich waren - lösten das eigentlich verdammt gut.
Eigentlich deshalb, weil man den anderen Ansatz auch umsetzen musste.

Wenn man heute die typischen PS2 Vertreter betrachtet, merkt man sehr deutlich das der andere Ansatz zu einem ganz typischen Style und Wirkung der Spiele führte. Eben typisch PS2 Grafik, die sich komplett zur damaligen PC Grafik unterscheidet.
Und ja, das Flimmern war ein Riesen Problem - irgendetwas ist auch immer :biggrin:

Zwing die Entwickler dazu etwas anders zu machen und du bekommst einen eigenständigen Stil - ein berühmter Satz.

Ailuros
2011-09-09, 10:02:08
Naja, so unzufrieden sind die Entwickler ja gar nicht mit den SPEs des Cells. In den ganzen Entwicklerberichten klingt es ja immer an wie die SPUs mitarbeiten für Postpro etc.

Im Vergleich zur XBox360 ist ja eher die GPU der PS3 der Schwachpunkt, eDRAM hat nunmal massig Bandbreite für die Füllrate, da kommen GDDR3 bzw. XDR Speicher nicht mit.

Im Vergleich zum RSX hat ja der Cell weitreichende DMA Funktionen bzw. verfügt ja jede SPE über ne MFC, die GPGPU fähigkeiten vom RSX sind eher als mager zu bezeichnen.

Ist es fuer einen Entwickler leichter fuer PS3 im Vergleich zu XBox360 zu entwickeln? Denn ich hoere schon seit Jahren von mehreren Seiten eher genau das Gegenteil. Mein Bauchgefuehl sagt mir uebrigens dass Entwicklung diesmal auf "PS4" leichter sein koennte als bei Microsoft.

robbitop
2011-09-09, 10:26:19
Das ist ein strittiges Thema ;)

Konventionelles Design ergibt nun einmal automatisch einen 'Einheitsbrei'.

Die PS2 war mitnichten 'schwach' - nur anders.
Der Ansatz ging halt hauptsächlich über die Geometrie - während der konventionelle PC Ansatz über Texturen ging.
Und Vektorprozessoren ano 1999 - die im Ansatz den viel späteren Vertexshadern nicht unähnlich waren - lösten das eigentlich verdammt gut.
Eigentlich deshalb, weil man den anderen Ansatz auch umsetzen musste.

Wenn man heute die typischen PS2 Vertreter betrachtet, merkt man sehr deutlich das der andere Ansatz zu einem ganz typischen Style und Wirkung der Spiele führte. Eben typisch PS2 Grafik, die sich komplett zur damaligen PC Grafik unterscheidet.
Und ja, das Flimmern war ein Riesen Problem - irgendetwas ist auch immer :biggrin:

Zwing die Entwickler dazu etwas anders zu machen und du bekommst einen eigenständigen Stil - ein berühmter Satz.

Ich kenne die Architektur und die Stärken und Schwächen der PS2 einigermaßen. Ja.
Aber stelle mal bitte für den Launchpreis der PS2 einen PC aus der gleichen Zeit zusammen. Da sollte irgendwas mit einer Geforce 2MX / GTS und einem relativem schnellem Athon Thunderbird bei rauskommen. Und die machen die PS2 sowohl bei Geometrie als auch bei Texturen den garaus. Die TnL Unit der NV1x sollte kein Problem mit den SIMDs aus der PS2 haben.
Die Xbox 1 (natürlich ein wenig neuer) hat durchgängig bessere Bilder geliefert als die PS2. Der Gamecube ebenfalls.

Außerdem läßt sich Einheitsbrei heute überhaupt nicht mehr vermeiden:

- hohe Produktionskosten für Spiele (Kontent für hohe Auflösung ist teuer und wir sind alle kontentverwöhnt - mittlerweile ist der Kontent ja Filmreif inszeniert!! Mit Motioncapturing, Drehbuch, profi-Schauspielern...etc) - daraus folgt, dass man auf allen Plattformen launchen muss, um profitabel zu werden. Das wird bei der nächsten Generation eher schlimmer werden.
- GPUs auf Rasterbasis sind halt einfach am weitesten entwickelt und bieten die größte Leistung pro Transistor. Und das sind halt konventionelle PC--GPU-Architekturen, die für ein D3D Level ausgelegt worden sind

Absetzen kann man sich natürlich trotzdem durch Kontent. Die Grafik-APIs sind ja so weit fortgeschritten, dass sich viele Stile und Stilmittel und Freiheiten umsetzen lassen. Das ist eine Frage des Kontents.

Letztenendes haben sich Spiele sehr verändert. Vermainstreamt und vereinheitlicht. Das empfinde ich als negativ. Aber dafür konnte man den Productionvalue pro Game hochschrauben und hat absolut erstklassigen Kontent. Das finde ich gut.
Was wir inzwischen verwöhnt sind vom Kontent. Heute würde keiner mehr ein PS2 artiges Spiel als Neuerscheinung mehr annehmen. Als Retrotitel ok. Aber nicht als Fullprice Neuspiel.

Heute wird erwartet, dass eine kinoreife inszenierung vorhanden ist! (Schnitt, Animation, "Kamera-Stilmittel"), dass ein gewisses Geometrie und Texturdetail vorhanden ist.

Ailuros
2011-09-09, 10:42:21
Och im Notfall koennt Ihr auch PSP gegen PS Vita vergleichen; sowohl was den output betrifft als auch wie leicht es auf A vs. B zu entwickeln ist.

Wuzel
2011-09-09, 10:54:27
Ja, durch den PC 3d Boom ging da die Entwicklung durch die Decke. Da war natürlich die PS2 faktisch schon beim Launch - auch bedingt durch Verzögerungen - veraltet.
Die Geschwindigkeit auf dem PC Markt konnte man nicht parieren - ein Ding der Unmöglichkeit.

Dennoch war der Absatz der PS2 ein Erfolg.

Müssen Konsolen überhaupt den PC Markt überbieten? Momentan ist doch die Situation auch so, das die Konsolen Leitungsmäßig weit unterlegen sind.
Dennoch ist der Absatz stärker.

Hollywood reife Produktionen, der Aufwand .. ok. Aber wenn sich Konsole B) von a) nicht viel Unterscheidet und der Sprung zum PC auch nur marginal ist, wie schafft man dann Alleinstellungsmerkmale?
In dem man Studios aufkauft und Brands exklusiv stellt?
Kommt man mit so einer Strategie überhaupt auf lange Sicht aus?

robbitop
2011-09-09, 11:39:56
Letzteres ist das Alleinstellungsmerkmal. Eigene Studios bzw Verträge mit 3rd Studios, die zu Exklusivtiteln führen.
Oder aber wie bei der Wii über Stil und Eingabemittel.

Tesseract
2011-09-09, 11:56:53
Ist es fuer einen Entwickler leichter fuer PS3 im Vergleich zu XBox360 zu entwickeln?
laut dem was ich gehört habe ganz sicher nicht. schon allein deswegen, weil die entwicklungsumgebung bei sony die mit abstand restriktivste ist. die wollen über jeden entwicklungsschritt bescheid wissen und mischen sich überall ein.

Ailuros
2011-09-09, 12:36:51
Die brennende Frage ist was die Hersteller genau vorhaben fuer die weniger absehbare Zukunft. Ich halte persoenlich jegliche PC und/oder Konsolen-Sterbe These als uebertriebenen Bloedsinn, aber es ist dann von der anderen auch so dass der embedded Markt um einige Hoehen zuwachsen wird waehrend der PC bzw. die Konsole entweder flatt liegen werden oder mit leichten Reduzierungen zu tun haben werden (zumindest fuer eine gewisse Zeit lang).

Irgendwo und irgendwann koennte tatsaechlich ein neues "Geraet-genre" erscheinen. Konsolen werden zwar dadurch nicht ersetzt, aber wenn man seinen eigentlichen Gewinn aus der sw macht, dann klingt es mir eher normal dass dafuer auch irgendwelche quasi Alternativen erscheinen werden.

***edit:

http://www.fudzilla.com/graphics/item/24016-nvidia-believes-3d-gaming-makes-a-difference

This Xmas might be all about PC games, as 2012 is the game of new Xbox and Playstation that will get equipped with latest greatest 28nm DirectX 11 graphics, reportedly both from AMD.

;)

Lightning
2011-09-09, 12:44:01
Aber stelle mal bitte für den Launchpreis der PS2 einen PC aus der gleichen Zeit zusammen. Da sollte irgendwas mit einer Geforce 2MX / GTS und einem relativem schnellem Athon Thunderbird bei rauskommen.

Das halte ich für etwas zu optimistisch. Die PS2 wurde bereits Anfang 2000 ausgeliefert. Für diesen Zeitpunkt hätte man keine PC-Hardware einplanen können, die erst (später) in 2000 erschien.
Ich muss sagen, ich sehe das so ähnlich wie Wuzel. Es ist vielleicht nicht ganz rational, aber ich werde diesen unkonventionellen Hardwaredesigns auch etwas hinterhertrauern.

Was wir inzwischen verwöhnt sind vom Kontent. Heute würde keiner mehr ein PS2 artiges Spiel als Neuerscheinung mehr annehmen. Als Retrotitel ok. Aber nicht als Fullprice Neuspiel.

Heute wird erwartet, dass eine kinoreife inszenierung vorhanden ist! (Schnitt, Animation, "Kamera-Stilmittel"), dass ein gewisses Geometrie und Texturdetail vorhanden ist.

Da ist sicherlich was dran, oft trifft das zu.
Wobei man auch etwas genauer hinschauen kann: Bei allen Spielen ist das nicht nötig. Mario Kart Wii ist bis heute noch in den Verkaufscharts. Aber auch Spiele ohne großen Namen und mit weniger "Casual"-Appeal müssen nicht direkt abgewatscht werden. Ein aktuelles Beispiel dafür ist Xenoblade mit 92% bei Metacritic (http://www.metacritic.com/game/wii/xenoblade-chronicles/critic-reviews). Und bei dieser derart geschlossenen Meinung kann man denke ich auch ausschließen, dass da nur ein paar Tester mit Nostalgiegefühlen das Spiel hypen.

Nakai
2011-09-09, 12:48:50
Autschn!

Da frag ich mich ernsthaft, was AMD denen angeboten hat. Es muss ja einen Grund geben, wenn beide bzw alle drei auf AMD in Sachen Grafik setzen.

Naja wenigstens kann man dann die PS4 und Xbox720 besser vergleichen. Das Resultat wäre auch wieder, dass die bessere Hardware einen Vorteil hat.

Dural
2011-09-09, 12:55:49
Der billigste Preis?

Ist doch AMD typisch...

Ailuros
2011-09-09, 13:01:29
Der billigste Preis?

Ist doch AMD typisch...

Hersteller wollten SoCs herstellen; frag Dich eher ob NV zum Zeitpunkt wo die Hersteller Angebote angenommen haben etwas in praesentabler Form dafuer hatten.

Dural
2011-09-09, 13:29:52
auch AMD kann derzeit nichts vorweissen, die aktuellen SoC sind viel zu schwach für eine Konsole.

und neben NV gibt es ja auch noch Intel ;)


Die Frage die ich mir stelle ist ob sich Intel und NV für Konsolen gar nicht interessieren, die Margen sind so extrem klein das man das Geschäft ruhig auslassen kann, von NV gab es doch sogar mal eine Aussage hier zu? (vor jahren mal)


Wie auch immer, die Konsolen sind für mich somit TOT, da kann man sich auch gleich einen PC in Wohnzimmer stellen ;) die letzte gute Konsole war so wie so die Dreamcast, ich weis noch als ich 1998 im Import Laden das erste mal mit der Japanischen Import Konsole gezockt habe und ich diesen WOW Effekt hatte... Der WOW Effekt war so gross das ich mir gleich eine Gekauft habe, das für ca. 600.- EURO als Schüler... danach kam im Konsolen Bereich nur noch standard Ware... :(

Tesseract
2011-09-09, 13:38:01
und neben NV gibt es ja auch noch Intel ;)
haha, der war gut. :freak:

Dural
2011-09-09, 13:43:59
dachte ich zuerst auch, aber so weit her geholt ist das gar nicht!

als es um die neuen Konsolen design ging war larrabee bestimmt im Gespräch.

Tesseract
2011-09-09, 13:44:59
im gespräch sicher, aber wohl kaum mit ernsthaften chancen.

Nakai
2011-09-09, 13:58:59
auch AMD kann derzeit nichts vorweissen, die aktuellen SoC sind viel zu schwach für eine Konsole.

und neben NV gibt es ja auch noch Intel ;)




Du weißt schon, wie man Chips entwickelt?
Dank Fusion ist AMD Nvidia um Längen vorraus, wenn es darum geht die GPUs synthetisierbar zu machen. AMD wird wohl schon in Hinblick auf die Zukunft, den Code ihrer zuküntigen CPUs, GPUs und sonstigen SOC-Hardware portierbar gemacht haben bzw. müssen sie ja, wenn sie eine GPU in Fusion integrieren wollen. Man will ja irgendwann SouthernIsland in einem Fusion-SOC sehen. Bei NV könnte das bei Maxwell oder Tegra 5 passieren.


Die haben auf jeden Fall schon sehr viel vorlegen müssen, wenn sie gleich alle Konsolenhersteller überzeugt haben.

Die Frage die ich mir stelle ist ob sich Intel und NV für Konsolen gar nicht interessieren, die Margen sind so extrem klein das man das Geschäft ruhig auslassen kann, von NV gab es doch sogar mal eine Aussage hier zu? (vor jahren mal)


Ein konstanter Umsatz, solange die Konsolen verkauft werden? Vor allem wenn man bei MS, Sony und Nintendo dabei ist. Auf langer Sicht ist das schon ein großer Batzen sichere Kohle.

Ailuros
2011-09-09, 15:50:27
auch AMD kann derzeit nichts vorweissen, die aktuellen SoC sind viel zu schwach für eine Konsole.

Lies den fudzilla Link nochmal genauer durch.

und neben NV gibt es ja auch noch Intel ;)

Der Witz des Tages. Ich kann Dir aber sagen dass IMG mit Rogue mitkonkurriert hat und eben nicht gewonnen hat, aber dafuer waren die eigentlichen Entscheidungs-gruende woanders bei SONY (wird auch ziemlich deutlicher nachdem die Presse mehr Einzelheiten an die Luft gibt).

Die Frage die ich mir stelle ist ob sich Intel und NV für Konsolen gar nicht interessieren, die Margen sind so extrem klein das man das Geschäft ruhig auslassen kann, von NV gab es doch sogar mal eine Aussage hier zu? (vor jahren mal).

Nochmal sowohl Sony als auch Microsoft haben noch lange vor dem Larabee Flop IP links und rechts evaluiert. Das Zeug wurde auf Eis gelegt von beiden und sie haben von Null nochmal angefangen vor ca. 1.5 Jahr. Bei der ersten stornierten Runde war fuer SONY NV der Hauptkandidat mit einer IBM CPU und NV GPU IP (aber nichts von der Fermi Familie) aber stets bei standalone hw. Die Zeit ist vergangen neuere Architekturen sind praesentabel geworden, es gibt heute um einiges kleinere verfuegbare Herstellungsprozesse und um Kosten zu reduzieren entschieden sich beide Hersteller fuer SoCs am Ende. In Microsoft's Fall duerfte es ein IBM SoC sein mit AMD GPU IP.

Und ja NV hat mitkonkurriert auch bei der zweiten Runde. Was genau mit T50 falsch gelaufen ist duerfte die Oeffentlichkeit sowieso nie erfahren.

Uebrigens am Rand da Du Intel erwaehnt hast: Intel hat Larabee bei der ersten Runde fuer Konsolen angeboten; nach Geruechten waere der Stromverbrauch fuer die Leistung die die Hersteller haben wollten auf's 10x fache einer XBox360 als Geraet gestiegen. Der Fetzen war mir schon damals genug um zu verstehen dass das Ding keine Chance haben wird und da war die Stornierung keine besondere Ueberraschung mehr.

Wie auch immer, die Konsolen sind für mich somit TOT, da kann man sich auch gleich einen PC in Wohnzimmer stellen ;) die letzte gute Konsole war so wie so die Dreamcast, ich weis noch als ich 1998 im Import Laden das erste mal mit der Japanischen Import Konsole gezockt habe und ich diesen WOW Effekt hatte... Der WOW Effekt war so gross das ich mir gleich eine Gekauft habe, das für ca. 600.- EURO als Schüler... danach kam im Konsolen Bereich nur noch standard Ware... :(

Tja ein gewisser wow Effekt waere schon dagewesen wenn sich SONY fuer PowerVR Rogue GPU IP entschieden haette (denn Bildqualitaet war so hoch auf Dreamcast weil es eine Art 2x oversampling benutzte; zumindest MSAA umsonst waere dringewesen). Es musste aber blitzschnell und so einfach wie moeglich vorangehen denn Microsoft war ihnen schon einen Schritt zuvor. Am Rand und im Zusammenhang wird es wohl mit Kapazitaeten bei einer gewissen foundry (eben nicht die im anderen Thread erwaehnten) dank 2 moeglichen Konsolen-SoC Herstellung ziemlich eng werden.


Ein konstanter Umsatz, solange die Konsolen verkauft werden? Vor allem wenn man bei MS, Sony und Nintendo dabei ist. Auf langer Sicht ist das schon ein großer Batzen sichere Kohle.

Sobald die R&D Kosten fuer die Entwicklung weg sind ist es nur noch reiner Gewinn. NV duerfte auch heute noch ca. $5 pro verkaufter PS3 kassieren. Die Kosten fuer die RSX Entwicklung wurden vor Jahren schon aufgeschluckt.

Dural
2011-09-09, 16:26:46
Dank Fusion ist AMD Nvidia um Längen vorraus


Wir sprechen da von einem deutlich leistungsfähigeren Chip, die Aktuellen SoC von AMD sind dagegen Spielzeug ;)

Und wie meinst du Voraus? ein Tegra bieten schon lange das gleiche wie Fusion nur in klein, NV grösstes Problem dürfte wohl eher die ARM CPU sein.



Ein konstanter Umsatz, solange die Konsolen verkauft werden? Vor allem wenn man bei MS, Sony und Nintendo dabei ist. Auf langer Sicht ist das schon ein großer Batzen sichere Kohle.


Laut NV Kaufen die Konsolen Hersteller das Chip Design ihnen ab und lassen sie selber Fertigen, ich glaube sogar das NV mal gesagt hat das sie danach nichts mehr verdienen?!?


Wie auch immer, wir werden ja sehen wie es kommt, übrigens glaube ich immer noch nicht so ganz an die SoC theorie ;) mit 28nm wird man einfach zu wenig Leistung dadurch erziehlen und es wäre das dümmste eine rissen DIE in eine Konsole zu pflanzen...

Ailuros
2011-09-09, 16:44:57
Wir sprechen da von einem deutlich leistungsfähigeren Chip, die Aktuellen SoC von AMD sind dagegen Spielzeug ;)

Fusion ist eine sehr breite Beschreibung und beinhaltet offensichtlich auch noch nicht erhaeltliche SoCs.

Und wie meinst du Voraus? ein Tegra bieten schon lange das gleiche wie Fusion nur in klein, NV grösstes Problem dürfte wohl eher die ARM CPU sein.

Wieviele Sekunden pro frame bekommt man denn genau auf Tegra wenn man etwas wie GPGPU und/oder programmierbare Tessellation benutzen wuerde? Wenn NV je einen SoC angeboten haette dann waere es nichts weniger als ein T50/Denver gewesen; im Vergleich zum letzteren sind heutige Tegras absolute Zwerge.


Laut NV Kaufen die Konsolen Hersteller das Chip Design ihnen ab und lassen sie selber Fertigen, ich glaube sogar das NV mal gesagt hat das sie danach nichts mehr verdienen?!?

So lange SONY PS3 Konsolen verkauft wird NV royalties pro verkaufter Konsole kassieren. Genau um diese royalties geht es und NV erwaehnte auch dass diese zum Anteil des Tegra Umsatzes gehoeren in vorigen Quartalen. Besonders groess duerfte die Summe pro Quartal nicht sein, aber es ist trotzdem reiner Gewinn heutzutage weil man eben Genehmigungsrechte kassiert fuer etwas das vor etlichen Jahren entwickelt wurde.

Wie auch immer, wir werden ja sehen wie es kommt, übrigens glaube ich immer noch nicht so ganz an die SoC theorie ;) mit 28nm wird man einfach zu wenig Leistung dadurch erziehlen und es wäre das dümmste eine rissen DIE in eine Konsole zu pflanzen...

Lange wird es nicht mehr dauern bis mehr aus der Presse fliesst.

Gipsel
2011-09-09, 16:49:42
Wir sprechen da von einem deutlich leistungsfähigeren Chip, die Aktuellen SoC von AMD sind dagegen Spielzeug ;)

Und wie meinst du Voraus? ein Tegra bieten schon lange das gleiche wie Fusion nur in klein,
Wenn die AMDs Spielzeug sind, was hat dann nv, Kinderspielzeug?

Ich kapiere Deine Argumentation nicht, nehme mal Llano, oder demnächst Trinity, verdopple grob die GPU in 28nm und Du hast einen sehr konkurrenzfähigen Konsolenchip, auch weil die Speicheranbindung wohl erheblich schneller wird als DDR3/1600. Oder nehme alternativ ein paar Power-Kerne von IBM und denke Dir da eine Performance-GPU von AMD dazu.

Ich sage doch schon seit Monaten, daß sowas in der Art sehr attraktive Varianten für Konsolen darstellen. Keine Ahnung, warum das einige nicht sehen wollen.

Nakai
2011-09-09, 17:52:32
Und wie meinst du Voraus? ein Tegra bieten schon lange das gleiche wie Fusion nur in klein, NV grösstes Problem dürfte wohl eher die ARM CPU sein.



Wir wissen ja gar nicht mal, ob NV ihre GPUs für eine SOC-Herstellung angepasst hat(und selbst die Geforce ULP im Tegra sieht mir eher wie ein ins Design gegossener Chip aus).

Bei AMD ist das einfacher. Die haben bereits bewiesen, dass sie SOCs herstellen können und dabei die Einheiten praktisch beliebig skalieren können. Dahingehend hat AMD mit Fusion für die Zukunft ordentlich vorgesorgt.

AwesomeSauce
2011-09-09, 18:07:31
***edit:

http://www.fudzilla.com/graphics/item/24016-nvidia-believes-3d-gaming-makes-a-difference

;)

Ich finde diesen Part interessant:
This Xmas might be all about PC games, as 2012 is the game of new Xbox and Playstation that will get equipped with latest greatest 28nm DirectX 11 graphics, reportedly both from AMD.

Ailuros
2011-09-09, 18:28:05
Errrr Anfang der Massenproduktion != Vorstellung.

tobor
2011-09-09, 18:55:09
Sony wird vor allem eines 'konventioneller' ;)

Nach dem absägen von Ken Kutaragi und raus schmiss des alten Dev Teams...
Da werden mit Sicherheit keine Purzelbäume mehr beim Design gewagt.

Zumal das Budget sehr eng geworden ist.

Nicht wirklich,wenn etwa die Vita entgegen früher Behauptungen stark subventioniert wird.

http://www.hartware.de/news_52446.html

Wuzel
2011-09-09, 19:33:06
Die jetzigen Konsolen sind auch Soc Systeme :freak:

'Fusion' ist dahingehend faszinierend, das momentan nur die Low Cost/Low Power 'Soc' im Markt sind.
Da ist noch Luft, 100W darf das Ding schon ziehen - momentan sind es ja nur ~20-65W.

3-4Cores und den Rest darf der GPU Teil verblasen, das reicht doch. Gut möglich das eine Art Co Prozessor mitwerkelt. So ein frei programmierbarer - Richtung FPGA.

Da spekuliere ich wild rum - ja. Aber wenn man so Sachen wie Kinect anschaut, da macht es richtig Sinn.

Oder besser augedrückt - mich würde es nicht wundern :)

Edit: Grob gefasst, was ich meine: http://en.wikipedia.org/wiki/Reconfigurable_computing

Gipsel
2011-09-09, 20:19:49
Gut möglich das eine Art Co Prozessor mitwerkelt. So ein frei programmierbarer - Richtung FPGA.

Da spekuliere ich wild rum - ja. Aber wenn man so Sachen wie Kinect anschaut, da macht es richtig Sinn.

Oder besser augedrückt - mich würde es nicht wundern :)

Edit: Grob gefasst, was ich meine: http://en.wikipedia.org/wiki/Reconfigurable_computing
Das wird nicht passieren. Viel zu ineffizient für allgemeine Probleme.

Deinorius
2011-09-10, 18:59:03
Ich sage doch schon seit Monaten, daß sowas in der Art sehr attraktive Varianten für Konsolen darstellen. Keine Ahnung, warum das einige nicht sehen wollen.


Traditionell festgelegte Denkweise?
Sturheit? :D

Ailuros
2011-09-10, 21:59:48
Traditionell festgelegte Denkweise?
Sturheit? :D

Um fair zu sein ich bezweifelte selber vor einiger Zeit dass es so leicht higher end SoCs geben wird als NV die ersten theoretischen Details von Echelon verstreute. Es ist eben zugegeben nicht so leicht vom einen Moment auf den anderen einzusehen dass SoCs eben nicht nur Bums-mini-chips fuer Handys sein koennen.

Anders man lernt mit der Zeit einfach einiges dazu; einige schneller und einige langsamer.

john carmack
2011-09-20, 13:47:31
Ich will Kühe... Und ein HoloDeck :D

Mannnnnn... hoffentlich kommen die neuen PS4/Xbox720 spätestens zu Weihnachten 2012...

Ist ja nicht auszuhalten... Die Grafik von Heute...

Ailuros
2011-09-20, 13:49:37
Ich will Kühe... Und ein HoloDeck :D

Mannnnnn... hoffentlich kommen die neuen PS4/Xbox720 spätestens zu Weihnachten 2012...

Ist ja nicht auszuhalten... Die Grafik von Heute...

Weihnachten 2012? Im besten Fall faengt in dieser Zeitspanne die Massenproduktion an und von finalen Geraeten wuerde ich vor H2 2013 nicht rechnen.

G.A.S.T.
2011-09-20, 23:06:01
Mannnnnn... hoffentlich kommen die neuen PS4/Xbox720 spätestens zu Weihnachten 2012...

vergiss es.

aber bis dahin sollte die Wii-U bei uns zu kaufen sein, mit zumindest geringfügig besserer Grafik.

und die Möglichkeiten von modernen PCs werden auch allmählich berücksichtigt.

john carmack
2011-10-06, 08:51:12
http://www.computerbase.de/news/2011-10/xbox-360-soll-zur-unterhaltungszentrale-ausgebaut-werden/

Deutet wohl darauf hin das die Xbox360 doch noch ein paar Jahre "leben" soll und muss!

Tomi
2011-10-06, 08:54:28
Sehe ich nicht so. Das ist kein "360 only" Feature. Ein Nachfolger kann das genau so.

AnarchX
2011-10-06, 09:05:36
Vielleicht entfernt man im nächsten/übernächsten Shrink das optische Laufwerk und fügt noch einen besseren Videoprozessor hinzu und macht daraus eine echte Mediastation mit Download-Games.

Deinorius
2011-10-06, 09:34:51
Käme das nicht teurer als mit Laufwerk? Immerhin müsste dann schon eine große HDD rein.

Tomi
2011-10-06, 10:27:08
HDD Preise dürften nicht das Problem sein. Und nur noch Downloadgames wäre der feuchte Wunschtraum der Publisher, die würden dafür zur Not MS noch die Festplatten subventionieren ;)

Deinorius
2011-10-06, 10:40:28
Zum Teufel nochmal. Damit könntest du sogar Recht haben. X-D

MartinB
2011-10-06, 13:06:29
Downloadgames würde sich in den USA aber noch nicht durchsetzen. Dort sind Flatrates noch nicht so günstig wie hier in Deutschland bzw nicht schnell genug.

Crazy_Bon
2011-10-06, 13:25:02
http://www.computerbase.de/news/2011-10/xbox-360-soll-zur-unterhaltungszentrale-ausgebaut-werden/

Deutet wohl darauf hin das die Xbox360 doch noch ein paar Jahre "leben" soll und muss!
Muss aber nicht heissen, daß die nächste Konsole von MS verschoben wird, man kann auch 2 Heimkonsolen parallel auf dem Markt haben, siehe Sony mit PS2 und PS3. Die Xbox360 ist flexibel und wurde ständig erweitert vom Release bis heute, bei entsprechender Unterstützung kann sie durchaus noch Jahre erfolgreich sein.

Ich finde es gut, daß die Xbox360 auch weiterhin unterstützt werden soll und nicht so schnell wie damals die alte Xbox eingestampft wird und fix vom Markt verschwand. Dafür ist die Marktstellung der Xbox360 zu groß und eine so große Lücke zu hinterlassen und mit seinen Endverbrauchern sollte man sich auch nicht verscherzen.

john carmack
2011-10-10, 12:48:05
wann soll eigentlich Sony´s Next Generation Portable kommen?

Palpatin
2011-10-10, 13:35:21
wann soll eigentlich Sony´s Next Generation Portable kommen?
In Japan noch 2011 in Europa Anfang 2012.

john carmack
2011-10-24, 18:17:39
Neue Gerüchte um PlayStation 4 und Xbox 720
http://www.computerbase.de/news/2011-10/neue-geruechte-um-playstation-4-und-xbox-720/

"Die offizielle Präsentation soll im Rahmen der E3 2013 – also im Frühsommer – erfolgen, verfügbar soll der Xbox-360-Nachfolger aber erst kurz vor Weihnachten sein."



AMD: Next-Gen Xbox bietet Grafik wie Avatar
http://www.computerbase.de/news/2011-07/amd-next-gen-xbox-bietet-grafik-wie-avatar/

"Laut Robinson soll die Grafikqualität auf dem Niveau des bekannten Kinofilms „Avatar“ liegen..."


Na da bin ich ja mal gespannt :)

Knuddelbearli
2011-10-24, 21:53:13
ist es inzwischen eigentlich fix das PS4 und Xbos einen AMD Chip bekommen? Gab da ja zumindeste laange Zeit Gerüchte darüber

Atma
2011-10-24, 22:04:38
"Laut Robinson soll die Grafikqualität auf dem Niveau des bekannten Kinofilms „Avatar“ liegen..."
In vorgerenderten Videos vielleicht :D

Bis wir ein Grafikniveau wie in Avatar in Echtzeit auf unseren Rechnern erleben dürfen, vergehen noch ein paar Jahre ;)

xL|Sonic
2011-10-24, 22:11:41
Naja schau dir mal an was man heute auf den Konsolen noch erreicht. Bestes Beispiel ist Uncharted 3, was fantastisch aussieht, dank geschicktem Leveldesign. Also warum nicht? Maybe nicht bei Open World Spielen, aber bei Schlauchspielen geht da sicher einiges, vorausgesetzt man kann es sich leisten so viel zu investieren in die Entwicklung eines Spiels.

G 80
2011-10-24, 22:13:09
AMD: Next-Gen Xbox bietet Grafik wie Avatar
http://www.computerbase.de/news/2011-07/amd-next-gen-xbox-bietet-grafik-wie-avatar/

"Laut Robinson soll die Grafikqualität auf dem Niveau des bekannten Kinofilms „Avatar“ liegen..."





Hey die nächste XBox kann dann wie PS 3 heute schon Avatar als 3D-BD abspielen? ;D

*scnr*

Annsonnsten: Das glaubste ja wohl selber nicht .....

Ringwald
2011-10-24, 22:30:14
Ach mit einer guten Beleuchtung und vor allen Dingen einen 1A Animationssystem bekommst du jetzt schon Avatar (siehe Uncharted oder Infinity Blade). Nur, wie teuer sollen dann die Spiele sein, 100€ für 8 Stunden Spielspaß? Ich glaube da müssen auf Entwicklerseite noch viele Tools erschaffen werden um so eine Art von Content preiswert realisieren zu können.

Soll aber nicht heißen, dass ich die Aussage von diesen Microsoft Menschen ernst nehme, die meinten ja früher auch die Xbox360 solle kein Kantenflimmern haben :freak:

LovesuckZ
2011-10-24, 22:50:56
Also Sorry, aber Uncharted ist soweit von Avatar entfernt wie der Mars von der Erde. Wer das schon als "Avatar" bezeichnet, hat wirklich keine Ahnung. Wenn Uncharted Avatar wäre, dann wäre Crysis 2 mit DX11 die vollkommende Abbildung der Realität.

G 80
2011-10-24, 23:04:15
Da muss ich mal LZ rechtgeben. U ist ein großartiges Spiel und die Grafik, für eine Konsole, fein aber das jetzt mit nem Film in Kinoqualität zu vergleichen? :freak:

Umkehrschluß: Ich glaube die haben bissl länger als mit 2-3 Konsolen in Real-Time dran gerendert. ;D ;)

Außerdem hat Avatar weniger geflimmert (Textur+Treppen), damit U da gleichzieht braucht es schon: Avatar die R600-Edition. :freak:


Vorsicht Ironie, aber der Vergleich war einfach wirklich etwas daneben. ;)

xL|Sonic
2011-10-24, 23:38:41
U3 läuft ja auch auf 6 Jahre alter HW. Und dafür sieht es verdammt gut aus. Von daher warum sollte ein gewaltiger Schritt da nicht möglich sein in den nächsten 5 Jahren?

Werewolf
2011-10-24, 23:43:21
Das Artwork in Uncharted ist nun wirklich zweifellos fantastisch.

LovesuckZ
2011-10-24, 23:45:08
Alice 2 hatte auch ein tolles Artwork. Trotzdem sieht das bestimmt nicht so genial aus wie Avatar.

xL|Sonic
2011-10-24, 23:48:55
Es wird 1. nicht von aktuellen Spielen gesprochen und 2. Alice 2 mit Uncharted 3 zu vergleichen... :ulol:

LovesuckZ
2011-10-24, 23:52:48
Ach und das ist lächerlich als Uncharted 3 mit Avatar zu vergleichen? :lol:

G 80
2011-10-24, 23:52:56
Relativ ist genau das.

Einfach Frage: Wo soll die Leistung herkommen? Du kannst gerne eine GTX 680 auf 100 Watt mittels Wunschdenken runterstauchen und in der hyp. Konsole verbauen - das reicht trotzdem nicht.

Und wenn du von banbrechenden Neuerungen sprichst musst du die nennen. Die neuesten "Megatexturen" werdens ja wohl nicht sein. ;D
Falls wirklich was kommt, was aus bestehender Rechenleistung soviel mehr raushohlt fällt villeicht auch für den PC was ab und meine 88er können statt bis Kepler noch länger drinnenbleiben. ;D

P.S.: Doom sieht und sieht auf dem ZX Spectrum 128 (http://www.youtube.com/watch?v=3v7cFGneuaw&feature=player_detailpage#t=87s) auch wie der Hammer aus und verblüfft mich mehr als Crysis, aber trotzdem hätte ich als Nachfolger der PC Version nicht Unreal Tournament 2003 erwartet. ;) (Vor allem weil wir ja, um im Bild zu bleiben, eigentlich vom ZX Spectrum ausgehen müssten ;D )


€: Das Artwork von "Sternennacht" ist auch der Hammer, trotzdem sehe ich es nicht als Photographie eines Leonidenschauers. :ugly:

Tomi
2011-10-25, 07:22:14
Mir scheint dass hier die "kann niemals sein" Sprüche meist von PC Besitzern kommen, wenn ich so die Sigs anschauen. Darf es nicht sein, weil dann der Hyper PC erstmal alt aussieht? Im übrigen müssen ja gerade die PC Freaks ein Interesse an starken Next Gen Konsolen haben, denn aktuell leiden ja immer mehr PC Titel unter den Konsolen, demnächst dann Skyrim, was für Konsolentauglichkeit auch für PC optisch abgespeckt daherkommt.

Mr.Magic
2011-10-25, 08:05:58
Es kann nicht sein, da man für Avatar-Qualität eine Renderfarm immernoch stundenlang für ein Bild arbeiten lassen muss. Welche Wunderhardware soll es denn sein, die plötzlich so einen Dschungel mit 256xAA und 4000p in Echtzeit für billig schafft? Und komm' mir nicht mit Artwork*, das hat in einer Technikdiskussion nichts verloren.

*http://www.youtube.com/watch?v=uU__ULnPB0k

Lightning
2011-10-25, 08:24:57
Das ist doch wirkliche eine Marketingaussage in reinstform. Technisch gesehen ist das so abstrus, dass jedwede Diskussion müßig ist.
Wenn man die Aussage reduziert und darauf bezieht, was letztlich beim Durchschnittsspieler ankommt, ist es vielleicht nicht so falsch, aber auch unspektakulär. Mit genug Abstand und/oder oberflächlichem Hinsehen kann man auch heutige Spiele schon als "fotorealistisch" wahrnehmen.

Ich würde mich nicht weiter daran hochziehen, ist die Mühe nicht wert. ;)

SamLombardo
2011-10-25, 08:29:01
Macht euch mal nicht lächerlich...Avatar in Echtzeit, har har. Ist doch klar was die damit meinen, die nächste Xbox wird vermutlich Full HD in Stereo 3D darstellen können. Daher der (für die Masse gar nicht soweit hergeholte) Vergleich mit Avatar. Avatar = 3D - xbox 720 = spielen in 3D.
Genau das und nichts anderes verbirgt sich hinter diesem Marketingspruch.

Bösewicht
2011-10-25, 08:58:31
macht Sinn ja.
360 Grafikr in Full HD mit 3D und hoffentlich genug aa sollte moeglich sein.

john carmack
2011-10-25, 09:24:45
Leute, tatsache ist doch das zB. Crysis 2 auf Konsolen Hardware läuft die "Steinalt" ist.

Immerhin werkelt in der 360 nur ein modifizierter Chip auf Ati R500 Basis mit insgesamt 512MB RAM.
Wobei man auch sagen muss das die Hardware bei dem Spiel auch schon am Limit läuft.
Viel besser wirds nicht in der nächsten Zeit!

Schaut euch doch mal die Sprünge an zwischen PS1 / PS2 / PS3 ... PS4
Außerdem darf man nicht vergessen das während der Zeit in der die Konsole auf dem markt ist sich die GrafikQuali auch noch sehr verbessern kann.

Schaut euch mal die ersten Spiele an die für die PS3 rausgekommen sind und vergleicht diese mit heute! Ich finde das auch da schon ein recht großer Schritt zu sehen ist.
Und so wird es auch bei der PS4 sein!

Die Grafikqualität hat immer riesen Sprünge zwischen den KonslenGenerationen gemacht. Und ich bin der festen Überzeugung das wir mit der übernächsten KonsolenGeneration der Realität schon verdammt nahe kommen werden.

Mag sein das Avatar vielleicht etwas zu übertrieben klingt, aber man stelle sich vor was eine Xbox720 mit einem "AMD R1100 / R1200" und rund 4GB bis 8GB RAM darzustellen vermag...
:)

Ich freu mich trotzdem... Auch wenn ich mich wiederhole, denn es ist schon sehr lächerlich das man sich als PC Spieler an Konsolenhardware orientieren muss!!! :(

AnarchX
2011-10-25, 10:04:08
Entscheidend wird wohl sein welches Power-Budget die Hersteller ihren Next-Gen-Konsolen zugestehen und ob man wieder Auflösungen unterhalb von 1280x720 erlaubt.

xL|Sonic
2011-10-25, 12:22:23
Ach und das ist lächerlich als Uncharted 3 mit Avatar zu vergleichen? :lol:

Macht ja niemand, ausser dir :rolleyes:

LovesuckZ
2011-10-25, 12:34:38
Macht ja niemand, ausser dir :rolleyes:

Vielleicht mal das Posting von Ringwald lesen. Weder Artwork, noch Physik, noch Partikelsystem, noch Geometrieniveau ist annährend auf Avatar-Niveau.

xL|Sonic
2011-10-25, 12:39:27
Er spricht ja nur von Animationen und Beleuchtung, nicht vom kompletten Paket.

LovesuckZ
2011-10-25, 12:41:43
Ja - als alleinige Verbesserung. Alles andere wäre Avatar-Niveau. Und das habe ich, vielleicht ein bisschen zu aggressiven, eben kommentiert.

Es tut mir leid, aber Uncharted 3 sieht in diesen Bereichen eben nicht mal annährend so gut aus.

Stimmt. Mein Fehler. :(

Ringwald
2011-10-26, 23:15:10
Ich wollte drauf hinaus, dass uns ein Objekt halbwegs realistisch/plastisch erscheint solange es "korrekt" Beleuchtet ist und sich sein realen Ebenbild entsprechend Bewegt.
Das bekommt Uncharted schon gut hin, natürlich ist es kein Avatar aber stell dir vor wie Uncharted 3 aussehen könnte wenn die PS3 das doppelte an Rohpower hätte und das Extra nur in die Beleuchtung und der Bewegungs KI fließt. Eine potentielle PS4 sollte doch sogar mehr als das doppelte an Rechenpower haben (hoffentlich :freak:)?!
Übrigens gibt es auf der PS3 ein Spiel was bereits (imo) fotorealistisch aussieht und das ist 3D Dot Game Heroes:

http://img14.imageshack.us/img14/3923/3ddotgame2.jpg
http://img828.imageshack.us/img828/117/97148120100429790screen.jpg

Mit Lego Steinen als Vorbild ist das vielleicht keine Kunst aber der Gran Turismo 5 Replay Mode zeigt ja auch wo es hingeht :smile:

john carmack
2011-10-28, 16:56:50
Finale „Wii U“ wird auf der E3 2012 präsentiert

http://www.computerbase.de/news/2011-10/finale-wii-u-wird-auf-der-e3-2012-praesentiert/

john carmack
2011-10-28, 17:00:30
Das bekommt Uncharted schon gut hin, natürlich ist es kein Avatar aber stell dir vor wie Uncharted 3 aussehen könnte wenn die PS3 das doppelte an Rohpower hätte und das Extra nur in die Beleuchtung und der Bewegungs KI fließt. Eine potentielle PS4 sollte doch sogar mehr als das doppelte an Rechenpower haben (hoffentlich :freak:)?!



Wird wohl auf die ca. 8Fache Leistung hinauslaufen...

Zumindest war es bei allen Vorgänger Konsolen so gewesen...

DrFreaK666
2011-10-28, 17:20:52
Wenn nun alle Next-gen-Konsolen auf AMD-Chips setzen, dann setzt sich GPU-PhysX bestimmt durch... :rolleyes:

DeadMeat
2011-10-28, 17:54:20
Vielleicht aber GPU-Bullet :D

DrFreaK666
2011-10-28, 17:57:53
Vielleicht aber GPU-Bullet :D

Schön wärs, leider ist dafür das "normale" PhysX zu stark etabliert

john carmack
2011-10-28, 18:36:49
Wenn nun alle Next-gen-Konsolen auf AMD-Chips setzen, dann setzt sich GPU-PhysX bestimmt durch... :rolleyes:


Das mal zur AMD Untergangsstimmung... :D
Danke dafür!

Als ob AMD nur mit Desktop CPU´s ihr Geld verdienen würde...

Nakai
2011-10-28, 18:50:11
Wenn nun alle Next-gen-Konsolen auf AMD-Chips setzen, dann setzt sich GPU-PhysX bestimmt durch... :rolleyes:

AMD is so oder so der große Gewinner dieser Runde. NV wird wohl keine einzige Konsole mit ihrer GPU ausstatten. Ebenso wird wohl AMD nicht nur die GPUs ausstatten. :freak:

Das mal zur AMD Untergangsstimmung...

Selbst wenn AMD alle 3 Konsolen ausstattet, wird das kein großer Gewinn pro Konsole sein. Aber es ist ein Reingewinn der bis zum EOL der Konsole konstant anhält. Es wird nicht viel sein, aber es wird einigermaßen Kohle bringen.
Wenn AMD untergeht, dann gehen sie unter, mit oder ohne Konsolen...;)

Deinorius
2011-10-28, 21:20:01
Ebenso wird wohl AMD nicht nur die GPUs ausstatten... :freak:


Was meinst du damit genau?

Crazy_Bon
2011-10-28, 21:41:06
CPUs kommen wohl wieder von IBM, tippe ich.

Deinorius
2011-10-28, 21:44:29
Würde ich auch meinen. Deswegen finde ich die Aussage, die ich zitiert habe, etwas irreführend.

Gipsel
2011-10-28, 22:39:43
Hmm, vielleicht kommt ja in der Generation eine Konsole auch mal ohne eine IBM-CPU daher? Wii U soll ja eine von IBM drin haben, MS ist mit der XBox360 von x86 zu IBM gewechselt, da könnte man denken, die bleiben erstmal dabei. Aber was ist mit Sonys PS4? Die machen doch immer so abstruse Dinge wie mit dem Cell. :freak:

Nakai
2011-10-28, 22:51:51
Hmm, vielleicht kommt ja in der Generation eine Konsole auch mal ohne eine IBM-CPU daher? Wii U soll ja eine von IBM drin haben, MS ist mit der XBox360 von x86 zu IBM gewechselt, da könnte man denken, die bleiben erstmal dabei. Aber was ist mit Sonys PS4? Die machen doch immer so abstruse Dinge wie mit dem Cell. :freak:

Hehe...:freak:

Diesmal wird es aber nicht so laufen, wie in dieser Gen. Nintendo hat etwa ein halbes bis ein Jahr Vorsprung. Hardwaretechnisch wird man dennoch den Kürzeren ziehen. Der Abstand wird wohl nicht so groß sein, wie bei Wii und PS3/Xbox360, dafür hat man nicht mehr das Monopol auf Gestiksteuerung.;)

john carmack
2011-10-28, 22:54:47
Hmm, vielleicht kommt ja in der Generation eine Konsole auch mal ohne eine IBM-CPU daher? Wii U soll ja eine von IBM drin haben, MS ist mit der XBox360 von x86 zu IBM gewechselt, da könnte man denken, die bleiben erstmal dabei. Aber was ist mit Sonys PS4? Die machen doch immer so abstruse Dinge wie mit dem Cell. :freak:

Sony war ja schon imer dafür bekannt ihr eigenes Ding in sachen "Hardware" zu machen.

Wenn schee macht :D

Deinorius
2011-10-28, 22:55:49
Die PS4 wird hardwaretechnisch wohl kaum noch abstrus werden. Die PSVita ist ja von der Hardware auch ganz passabel. Wegen den Multiplattformtiteln wird man sich in Zukunft keine abstrusen und kreativen Hardwareplattformen mehr leisten.