PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - 2015: 12x HD Graphics 3000 in 10-20W


AnarchX
2011-05-18, 13:09:54
http://www.computerbase.de/bildstrecke/34579/1/

Matrix316
2011-05-18, 13:12:53
Wow, dann wäre man endlich im Einsteigersegment von Nvidia und AMD. ;)

Bin ich der einzige der es komisch findet, wenn man jetzt wieder ganz unten bei IGPs anfängt und diese langsam schneller macht, anstatt einfach mal richtige Grafikkarten zu verwenden, die es eh schon gibt und deutlich schneller sind??? :ugly:

AnarchX
2011-05-18, 13:17:04
Es geht hier um CPU-GPU-Chips mit einer TDP von bis zu 20W. Konkurrenz dazu werden entsprechende Chips von AMD und wohl auch Nvidia (ARM) sein.

~12x HD 3000 @1,1GHz dürften wohl einer GTX 560 entsprechen.

Neurosphere
2011-05-18, 13:18:15
Wozu?

Intel bedient genau den Markt den sie wollen mit geringem Risiko und ohne großem bedarf an R&D für Monsterchips wie AMD und NV sie bauen. Intel will wohl kaum auf den Zug der dedizierten Grafikkarten aufspringen.


Edith: Es wäre übrigens schön wenn eine solche Steigerung auch bei den High-End Chips drin wäre ;)

Black-Scorpion
2011-05-18, 18:29:05
Bei dem Titel fällt mir spontan der P4 mit 6Ghz ein. :rolleyes:

Bevor sie nichts Handfestes vorzuweisen haben, ist gerade was Grafik betrifft, bei Intel alles heiße Luft.

kunibätt
2011-05-18, 18:35:38
Kann man die Intel-GPU-Einheiten eigentlich über OpenCL zur Beschleunigung heranziehen? Wenn nein, wüsste ich nicht wofür sie derart auftocken wollen.

Ronny145
2011-05-18, 18:54:42
Kann man die Intel-GPU-Einheiten eigentlich über OpenCL zur Beschleunigung heranziehen? Wenn nein, wüsste ich nicht wofür sie derart auftocken wollen.


Momentan nicht, was nicht heißt das es nicht für zukünftige GPUs geplant ist. Aufstocken werden sie für die 3D Leistung wollen und müssen. AMD wird hier auch nicht untätig bleiben. Die integrierte Grafikleistung wird zukünftig immer wichtiger werden, ganz besonders in Notebooks.

Botcruscher
2011-05-18, 19:20:50
Mit der Treiberqualität können die auch um Faktor 100 schneller werden...

LovesuckZ
2011-05-18, 19:39:32
Ähm, wir sind uns doch wohl einige, dass dies eine vollkommen belanglose Zahl ist, oder? 12x schneller bedeutet annährend GTX480 Niveau. In 4 Jahren und das innerhalb von 20 Watt?
Guckt man sich an, was vor 4 Jahren auf dem Markt war und heute, dann gab es selbst bei diskreten keine Verzwölffachung der Leistung. Und die haben wesentlich mehr Freiheiten.

Ronny145
2011-05-18, 20:05:54
Ähm, wir sind uns doch wohl einige, dass dies eine vollkommen belanglose Zahl ist, oder? 12x schneller bedeutet annährend GTX480 Niveau. In 4 Jahren und das innerhalb von 20 Watt?
Guckt man sich an, was vor 4 Jahren auf dem Markt war und heute, dann gab es selbst bei diskreten keine Verzwölffachung der Leistung. Und die haben wesentlich mehr Freiheiten.

Na vergleicht die Werte doch mal mit den vorherigen Generationen auf der Folie. 13x, 10x, 7x und so weiter. Um auf 25x bis 2015 zu kommen müsste die Steigerung wie bisher weitergehen: 16x, 19x, 22x und 25x für 2015.
Die letzten Generationen haben die Leistung immer verdoppelt, alles andere sind vielleicht worst case Szenarien aber mit Sicherheit kein Leistungsdurchschnitt. Auch eine Verdoppelung jedes Jahr wäre eine mutige Prognose.

LovesuckZ
2011-05-18, 20:32:19
Na vergleicht die Werte doch mal mit den vorherigen Generationen auf der Folie. 13x, 10x, 7x und so weiter. Um auf 25x bis 2015 zu kommen müsste die Steigerung wie bisher weitergehen: 16x, 19x, 22x und 25x für 2015.
Die letzten Generationen haben die Leistung immer verdoppelt, alles andere sind vielleicht worst case Szenarien aber mit Sicherheit kein Leistungsdurchschnitt. Auch eine Verdoppelung jedes Jahr wäre eine mutige Prognose.

Es macht aber keinen Sinn. Die HD3000 ist 10x schneller als die iGPU von 2006. Und das von 130nm auf 32nm. Und 130nm war 2006 eigentlich schon verdammt veraltet...
Man muss also irgendwann zwischen heute und wohl 2014 eine riesige Entdeckung im Bereich Fertigung machen, um dieses Ergebnis zu erzielen. Gleichzeitig ist es aber auch ironisch, dass eine GT520 ja wohl nichtmal 8600GTS Niveau erreicht, weil ihr die Bandbreite fehlt...

AnarchX
2011-05-18, 20:37:15
Es macht aber keinen Sinn. Die HD3000 ist 10x schneller als die iGPU von 2006. Und das von 130nm auf 32nm. Und 130nm war 2006 eigentlich schon verdammt veraltet...

Die Aussage der Folie war, dass das Ziel 2007 10-fache Performance war. Aber SNBs IGP soll nun 25x so schnell sein wie die 2006er IGP im 3DMark2006.

LovesuckZ
2011-05-18, 20:40:13
Die Aussage der Folie war, dass das Ziel 2007 10-fache Performance war. Aber SNBs IGP soll nun 25x so schnell sein wie die 2006er IGP im 3DMark2006.

Gibt es dazu auch eine Quelle? Auf der Folie sehe ich keine Beispielanwendung.
Es kann sein, dass die 25x stimmen. Die Frage lautet dann aber, wo der größte Sprung stattfand.

AnarchX
2011-05-18, 20:42:30
http://img41.imageshack.us/img41/481/sandybridge25x.jpg (http://img41.imageshack.us/i/sandybridge25x.jpg/)

http://apcmag.com/intel-takes-wraps-off-second-gen-core-processors.htm

Vielleicht erlauben die FinFETs bei IVBs IGP nächtes Jahr 50% mehr Takt? Gerade bei der Taktrate hat sich bei den GPUs in der den letzten 5 Jahren nicht soviel getan, wie in der Zeit davor.

Ronny145
2011-05-18, 20:46:27
Die Aussage der Folie war, dass das Ziel 2007 10-fache Performance war. Aber SNBs IGP soll nun 25x so schnell sein wie die 2006er IGP im 3DMark2006.


25x würde überhaupt kein Sinn ergeben. Clarkdale steht bei 10x. Ich hätte jetzt Sandy Bridge bei 13x gesehen (25-12= 13 oder 13+12= 25 bis 2015). Dann müsste man es anders rechnen.

25x 2011 Sandy Bridge
37x 2015

12x in 4 Jahren macht 3x pro Jahr, was wiederum die gleiche Steigerungsrate entsprechen würde wie bei den vorhergehenden Generationen.

LovesuckZ
2011-05-18, 20:46:31
Ach, da unten...
Ich habe echt keine Ahnung, wo man die Intel iGPU von 2006 einordnen kann. Aber wenn HD3000 25x schneller wäre, aber nichtmal das Niveau einer 8600GTS erreicht, dann muss die damalige iGPU mehr als nur Rotz gewesen sein...

YfOrU
2011-05-19, 00:36:07
Der Faktor ist eher unendlich ;)

GMA 900 bzw. GMA 950

http://en.wikipedia.org/wiki/Intel_GMA#GMA_900


The GMA 950 shares the same architectural weakness as the GMA 900: no hardware geometry processing. Neither basic hardware transform and lighting, nor more advanced vertex shaders are handled in the GMA hardware.


Wobei mit GMA 950 immerhin Aero funktioniert (GMA 900 nicht). Das war übrigens recht lange (bis 2010 !!) die GPU für Atom CPUs (945G Chipsatz mit GMA 950). So weit aus dem Blickfeld kann diese integrierte GPU von 2006 also eigentlich kaum sein :D

Genau deshalb war doch Nvidia mit Ion bzw. MCP recht erfolgreich.

Neosix
2011-05-19, 00:45:26
Der Faktor ist eher unendlich ;)

Mach mich nicht traurig... in meinem Mac Mini steckt immer noch eine 945 genau wie in meinem Notebook :/ und ich leide jeden Tag... die Teile können höchstens Tetris darstelle, da hört es auch schon auf. Bin ich froh das wir in paar Jahren wenigstens etwas brauchbares als mindest Standard kriegen.

AnarchX
2011-05-19, 09:18:47
Der Faktor ist eher unendlich ;)

GMA 900 bzw. GMA 950

http://en.wikipedia.org/wiki/Intel_GMA#GMA_900

Das könnte es sein, ca. 150 Punkte für den GMA 950 gegen die 4000-5000 des HD 3000.
Der G965 (GMA X3000) hatte dann auch schon fast 500 Punkte im 3DM06.


12x in 4 Jahren macht 3x pro Jahr, was wiederum die gleiche Steigerungsrate entsprechen würde wie bei den vorhergehenden Generationen.
1,86x pro Jahr. ;)

Bei 22 auf 14nm sieht Intel wohl eine größere Steigerung:
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=39729&stc=1&d=1305717910
Das kann aber natürlich auch nur eine reine Architekturentscheidung sein beim Atom SoC.

Ronny145
2011-05-19, 10:17:33
3dmark06 geht aber auch auf die CPU Leistung. In den Steigerungen sind also nicht nur die GPU Steigerungen enthalten.

Nakai
2011-05-19, 10:26:07
Man sollte hier auch anmerken, dass die Steigerung erst so stark war, also die GPUs in die CPUs gewandert sind. Ergo als die integrierte Grafik endlich auf das Fertigungsniveau der CPUs angeglichen ist. Die alten GMA-Dinger waren schon immer in veralteten Fertigungsprozessen gefertigt.


mfg

AffenJack
2011-05-19, 10:30:35
Bei 22 auf 14nm sieht Intel wohl eine größere Steigerung:
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=39729&stc=1&d=1305717910
Das kann aber natürlich auch nur eine reine Architekturentscheidung sein beim Atom SoC.

Die Folie hat doch rein gar nix mit der oben zu tun, die Folie ist Atom Performance und die große Steigerung kommt wohl wie du selbst schreibst durch die neue OoO-Architektur des Atom. Anscheinend will man da die Geschwindigkeit deutlich steigern. Allerdings versteh ich nicht woher in 2012 die Steigerung kommen soll, Einsatz von Dual-Core statt Single-Core?

Gestrandet
2011-05-19, 11:58:10
Der übliche Intel-FUD. Selber schuld, wer noch dran glaubt.

Undertaker
2011-05-19, 12:05:46
Beziehst du dich dabei jetzt auch die 12x Aussage bis 2015? Wie AnarchX schon vorgerechnet hat bedeutet dies nur eine Steigerung von Faktor ~1,86 pro Jahr, was zuletzt sogar deutlich überboten wurde. Ausgehend von der immernoch recht niedrigen Ausgangsbasis halte ich dieses Ziel für durchaus realistisch.

LovesuckZ
2011-05-19, 12:08:13
Beziehst du dich dabei jetzt auch die 12x Aussage bis 2015? Wie AnarchX schon vorgerechnet hat bedeutet dies nur eine Steigerung von Faktor ~1,86 pro Jahr, was zuletzt sogar deutlich überboten wurde. Ausgehend von der immernoch recht niedrigen Ausgangsbasis halte ich dieses Ziel für durchaus realistisch.

86% schneller pro Jahr?
Sieht man sich dem diskreten Markt an, kommt es hier gerademal zu 80% mehr Leistung aller 18 Monate. Intel müsste also demnach um ein vielfaches schneller entwickeln und produzieren können als nVidia und AMD für den diskreten Markt.

AnarchX
2011-05-19, 12:12:54
2015 kann man wohl mit 10nm rechnen, damit könnte man die 3Mrd. Transistoren eine GF110 auf <50mm² unterbringen.
14nm mit ~40% Chipfläche von 22nm erwartet man ja schon 2013, wo TSMC vielleicht auf 20nm umstellt.

Nvidia sollte wohl bis 2015 die 20-fache 3D-Leistung eines GF110 bieten (2013 erwartet man 10-fache GF100-Leistung (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8282442#post8282442)).

LovesuckZ
2011-05-19, 12:18:44
2015 kann man wohl mit 10nm rechnen, damit könnte man die 3Mrd. Transistoren eine GF110 auf <50mm² unterbringen.

Nicht wirklich. GF108 hat 585 Millionen Transistoren und ist 100mm^2 groß. Ich glaube nicht, dass 50mm^2 alleine für das Interface draufgehen.
Dazu kommt, dass man auch entsprechend Bandbreite benötigt. Das wird das größte Problem, wenn man wirklich "spielen" will und die iGPU nicht als Co-Prozessor für Berechnungen verwenden möchte.


Nvidia sollte wohl bis 2015 die 20-fache 3D-Leistung eines GF110 bieten (2013 erwartet man 10-fache GF100-Leistung (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8282442#post8282442)).

Aber auch nur, weil man die Recheneinheiten deutlich überarbeiten wird. So, wie sie es mit dem Front-End getan haben. Da boten sie ja auch plötzlich 8x mehr Geometrieleistung zum GT200b und sind mit Tessellation bis zu 8x schneller als die Konkurrenz(!).

AnarchX
2011-05-19, 12:23:00
Nicht wirklich. GF108 hat 585 Millionen Transistoren und ist 100mm^2 groß. Ich glaube nicht, dass 50mm^2 alleine für das Interface draufgehen.
Das Pin-Out des GDDR5 ist ein Problem, viel kleiner als ~100mm² kann man nicht mit 128-Bit @ 4Gbps werden. Aber bei zukünftigen IGPs wird das wohl kein Problem sein.


Dazu kommt, dass man auch entsprechend Bandbreite benötigt. Das wird das größte Problem, wenn man wirklich "spielen" will und die iGPU nicht als Co-Prozessor für Berechnungen verwenden möchte.

Stacked-DRAM. 128GB/s sollte bis 2015 im realistischen Rahmen liegen.

LovesuckZ
2011-05-19, 12:27:50
Das Pin-Out des GDDR5 ist ein Problem, viel kleiner als ~100mm² kann man nicht mit 128-Bit @ 4Gbps werden. Aber bei zukünftigen IGPs wird das wohl kein Problem sein.

GF108 ist GDDR3 only.


Stacked-DRAM. 128GB/s sollte bis 2015 im realistischen Rahmen liegen.

Naja. Glaube ich nicht. Die SoCs kommen mit 32bit/64bit und werden wohl noch ewig nicht höher gehen. SB und LIano sind 230mm^2 groß. Das sind schon ziemlich große Dies und beide müssen Kompromisse eingehen.

Ronny145
2011-05-19, 12:31:43
86% schneller pro Jahr?
Sieht man sich dem diskreten Markt an, kommt es hier gerademal zu 80% mehr Leistung aller 18 Monate. Intel müsste also demnach um ein vielfaches schneller entwickeln und produzieren können als nVidia und AMD für den diskreten Markt.


Bei den IGPs steckt noch viel Potenzial. Die letzten Generationen haben immer eine Verdopplung mitgebracht. Das sind erst die allerersten Anfänge einer in die CPU integrierten GPU. Alleine bei der Bandbreite steckt noch viel Potenzial, mit stacked DRAM oder DDR4 sollte die Bandbreite deutlich gesteigert werden können.

Undertaker
2011-05-19, 12:35:29
86% schneller pro Jahr?
Sieht man sich dem diskreten Markt an, kommt es hier gerademal zu 80% mehr Leistung aller 18 Monate. Intel müsste also demnach um ein vielfaches schneller entwickeln und produzieren können als nVidia und AMD für den diskreten Markt.

Und das ist durchaus denkbar, weil Intel GPU-technisch noch einen riesigen Rückstand mit sich herumschleppt. Llano beispielsweise packt pro mm² deutlich mehr Rechenleistung als die aktuelle HD3000.

LovesuckZ
2011-05-19, 12:36:50
Bei den IGPs steckt noch viel Potenzial. Die letzten Generationen haben immer eine Verdopplung mitgebracht. Das sind erst die allerersten Anfänge einer in die CPU integrierten GPU. Alleine bei der Bandbreite steckt noch viel Potenzial, mit stacked DRAM oder DDR4 sollte die Bandbreite deutlich gesteigert werden können.

Welches Potential? nVidia brachte letztes Jahr den MCP89 auf den Markt. Der ist ca. so schnell wie HD3000. LIano kommt auf 32nm und mehr als ein Jahr später und ist wird vielleicht doppelt so schnell sein.

Ich sehe kein großes Potential. Diskrete GPUs bzw. Karten sind auch immer schneller geworden und der Abstand ist meistens immer gleich. Dazu kommt, dass die diskreten GPUs sich ebenfalls weiterentwickeln. Siehe Fermi mit dem Cache-System.

Imo werden iGPU tolle GPGPU-Prozessoren sein. Aber für mehr wird man am Ende deutlich mehr Bandbreite benötigen, die einfach nicht gegeben sein wird.

Und das ist durchaus denkbar, weil Intel GPU-technisch noch einen riesigen Rückstand mit sich herumschleppt. Llano beispielsweise packt pro mm² deutlich mehr Rechenleistung als die aktuelle HD3000.

Und dafür deutlich weniger CPU-Leistung. Es sind kompromisse, die beide Hersteller eingehen.
Aus meiner Sicht können es sich weder Intel noch AMD leisten, die CPU-Geschwindigkeit langsamer steigen zu lassen. Sie werden sonst von ARM eingeholt.

Ronny145
2011-05-19, 12:39:11
Und das ist durchaus denkbar, weil Intel GPU-technisch noch einen riesigen Rückstand mit sich herumschleppt. Llano beispielsweise packt pro mm² deutlich mehr Rechenleistung als die aktuelle HD3000.

Ist das so sicher? Laut der Folie müsste die Transistorenfläche für die GPU etwa doppelt so groß sein.

http://www.computerbase.de/bildstrecke/33564/1/

Undertaker
2011-05-19, 12:49:15
Die Rechenleistung der 400 Shader-GPU Llanos sollte allerdings auch weit über Faktor 2 vor der HD3000 liegen, wenn man jene mit der Leistung einer 80 Shader HD5450 vergleicht. Stark limitiert wird das praktisch nur von der Bandbreite...

LovesuckZ
2011-05-19, 12:51:50
Die Rechenleistung der 400 Shader-GPU Llanos sollte allerdings auch weit über Faktor 2 vor der HD3000 liegen, wenn man jene mit der Leistung einer 80 Shader HD5450 vergleicht. Stark limitiert wird das praktisch nur von der Bandbreite...

Recheneinheiten sind auch billig. Deswegen kann man soviele auf so kleinem Raum packen. Das Problem ist doch, wenn man mehr machen will außer GPGPU, dass es dann zu limitierungen kommt. Es stellt sich auch die Frage, welche Zukunft GPGPU hat, wenn ARM-SoCs und Intel zeigen, dass dedizierte Prozessoren die selbe Arbeit genauso schnell aber bei deutlich weniger Verbrauch erledigen können...

YfOrU
2011-05-19, 13:34:06
Aus meiner Sicht können es sich weder Intel noch AMD leisten, die CPU-Geschwindigkeit langsamer steigen zu lassen. Sie werden sonst von ARM eingeholt.

Bei den ARM SoCs ist die Steigerung der GPU Leistung im Verhältnis noch extremer. Das kostet viel Fläche und damit ist an einholen nicht zu denken.

LovesuckZ
2011-05-19, 13:41:45
Bei den ARM SoCs ist die Steigerung der GPU Leistung im Verhältnis noch extremer. Das kostet viel Fläche und damit ist an einholen nicht zu denken.

Das ist nicht vergleichbar: Es gibt keine besseren ARM-Cores als die A9 - außer man entwickelt selbst. Die Kerne selbst nehmen kaum Platz ein. ARM-SoCs werden in immer höherpreisigen Geräten verbaut, wodurch man mehr Möglichkeiten für die Fertigung besitzt. Siehe das iPad, wo der Einstieg erst bei $499 losgeht. Und nicht dabei vergessen, dass Apple das iPad auch verstärkt als Spielekonsole vermarket. Und ironischerweise funktioniert das besser als mit SB und bald LIano. :freak:

Im Grunde gäbe es genug Platz für noch bessere CPU-Kerne, aber die gibt es noch nicht von ARM zum Lizenzieren. Also wird der zusätzliche Platz mit allerhand anderen Schnickschnack gefüllt.

YfOrU
2011-05-19, 14:55:43
Von SGX 530 - A8 zu SGX543MP - A9 ist heftig und bei A15 wird man wieder ähnliches zu sehen bekommen.

Die GPU als Schnickschack zu bezeichnen, also bitte. Diese Steigerung ist nötig um den höheren Display Auflösungen und den auch insgesamt gestiegenen Anforderungen an die 3D Leistung Rechnung zu tragen. Freiwillig integriert das kein Hersteller.

Gegenüber 65nm sind die SoCs nicht wirklich kompakter geworden, im Gegenteil. Auch ist die Leistungsaufnahme auf vergleichbaren Niveau geblieben.

Wie jetzt hier zusätzlich unter 40nm leistungsfähigere ARM Kerne (egal ob mehr Logik oder höhere, maximale Frequenzen) unterzubringen sind erschließt sich mir nicht.

LovesuckZ
2011-05-19, 15:06:10
Die GPU als Schnickschack zu bezeichnen, also bitte. Diese Steigerung ist nötig um den höheren Display Auflösungen und den auch insgesamt gestiegenen Anforderungen an die 3D Leistung Rechnung zu tragen. Freiwillig integriert das kein Hersteller.

Ja - weil sie als "Spielekonsolen" vermarket werden. nVidia mit Tegra-Zone, Apple mit ihrem AppStore. Einem anderen Grund für mehr GPU-Leistung gibt es nicht. 1080p Ausgabe ist kein Problem für heutige ARM-SoCs. Und das wäre schon abartig viel auf 10,1".


Wie jetzt hier zusätzlich unter 40nm leistungsfähigere ARM Kerne (egal ob mehr Logik oder höhere, maximale Frequenzen) unterzubringen sind erschließt sich mir nicht.

Der Anteil der CPU(-Logik) ist gering. nVidia verdoppelt die Cores+NEON und benötigt mit verbesserter GPU und verbessertem Video-Dekoder gerademal 30mm^2 mehr Platz. Und laut ihnem reicht das Cache-system und 32bit Speicherinterface von Tegra2 vollkommen aus.
AMD und Intel müssten in zukunft mehr Platz für die GPU + Interfaces schaffen. Das geht nur im Zuge einer geringeren CPU-Entwicklung. Und dabei spielt es sich mit SB und konsorten noch schlechter, weil die Spiele eben nicht für Low-End geschaffen sind. Ein Vorteil von ARM-SoCs.

Ailuros
2011-05-19, 17:45:34
Ja - weil sie als "Spielekonsolen" vermarket werden. nVidia mit Tegra-Zone, Apple mit ihrem AppStore. Einem anderen Grund für mehr GPU-Leistung gibt es nicht. 1080p Ausgabe ist kein Problem für heutige ARM-SoCs. Und das wäre schon abartig viel auf 10,1".

Wenn ausserhalb 3D die GPU nur dumm rumhockt und Daumen drueckt dann vielleicht schon. Mit FP20 ALUs kann man eben nichts anrichten.

Der Anteil der CPU(-Logik) ist gering. nVidia verdoppelt die Cores+NEON und benötigt mit verbesserter GPU und verbessertem Video-Dekoder gerademal 30mm^2 mehr Platz. Und laut ihnem reicht das Cache-system und 32bit Speicherinterface von Tegra2 vollkommen aus.
AMD und Intel müssten in zukunft mehr Platz für die GPU + Interfaces schaffen. Das geht nur im Zuge einer geringeren CPU-Entwicklung. Und dabei spielt es sich mit SB und konsorten noch schlechter, weil die Spiele eben nicht für Low-End geschaffen sind. Ein Vorteil von ARM-SoCs.

AMD wird es so oder so nicht leicht haben in den embedded Markt mit DX11 GPU Bloecken zu rutschen bis die Herstellungsprozesse um einiges kleiner werden. In solch einem Fall ist die ULP GeForce bis zu Tegra-weiss der Geier welche Nummer wohl schwer zu vergleichen. Mit Tegra5 sehen wir womoeglich endlich USC ALUs und von da an ab bleibt abzusehen wann DX11 endlich Sinn machen wird. Und damit ich nicht falsch verstanden werde: nein man braucht fuer einige Zeit noch nicht DX11 weder in tablets noch wohl in smart-phones. Eventuell aber nach einigen Jahren wird es zur Notwendigkeit werden und zu dem Zeitpunkt blaeht sich die dedizierte die area fuer jegliche zukuenftige ULP GeForce dann auch auf.

AMD muesste fuer die heutliche Verhaeltnisse eine embedded GPU von Grund auf entwickeln; da es aber nicht umsonst sein wird werden sie eben so viel nach unten skalieren wie es ihnen der Stromverbrauch erlauben wird.

Sonst ab der 28nm Generation fuer embedded SoCs werden die GPU Bloecke generell schon zumindest 1/4 des SoCs einnehmen wenn nicht in manchen Faellen sogar mehr.

Ailuros
2011-05-20, 23:21:19
http://www.xbitlabs.com/news/mobile/display/20110519215126_Intel_Nokia_Was_a_Wrong_Partner.html

Zeit fuer Eingestaendnisse seitens Intel? In der Zwischenzeit draengt M$ NOKIA eher in Richtung Qualcomm, was wohl heisst dass NOKIA nicht nur Intel's Designs moeglicherweise aufgeben wird.

Ronny145
2011-05-20, 23:37:44
http://www.xbitlabs.com/news/mobile/display/20110519215126_Intel_Nokia_Was_a_Wrong_Partner.html

Zeit fuer Eingestaendnisse seitens Intel? In der Zwischenzeit draengt M$ NOKIA eher in Richtung Qualcomm, was wohl heisst dass NOKIA nicht nur Intel's Designs moeglicherweise aufgeben wird.


Das hat keinen Themenbezug hier.

Ailuros
2011-05-22, 15:13:18
Das hat keinen Themenbezug hier.

Wirklich? Soll ich nachzaehlen wie oft Intel's eigene slides hier Atom/tablet SoCs erwaehnen oder Beitraege in diesem Thread? Ausser es glaubt hier jemand dass die vorige Intel/NOKIA Abmachung sich nur auf smart-phones mit MeeGo bezogen hat.

Atom N2x00 rangieren zwischen 3.5 und 6.5W TDP (smart-phones, tablets und nettops) waehrend D2x00 bei 10W liegen wird. Intel verspricht nun seit neuestem mit der hier erwaehnten slide Bildstrecke zich Mal GPU und CPU Leistung ueber diesen bei der naechsten Generation.

Leonidas
2011-05-23, 19:00:17
GF108 ist GDDR3 only.



Nein, die GeForce GT 440 gibt es auch mit GDDR5.


Ganz generell denke ich, daß hier zu sehr über Produktionsfortschritte spekuliert wird, obwohl dies nicht der einzige Weg zu mehr Performance ist. Was ist, wenn Intel einfach sagt, ab 2013 nehmen wir die doppelte Die-Fläche für den Grafikchip als bisher - weil man denkt, daß es dann Zeit ist zu mehr Power?!

Im Endeffekt hängt integrierte Grafik doch überhaupt nicht an Fertigungsprozessen oder Grafikchip-Architektur. Es ist eine reine Frage, wieviel Die-Fläche man dafür verwenden will. Und dies ist wiederum eine Frage, wie wichtig der Massenmarkt diese Frage nimmt. Intel geht bislang davon aus, daß die HD2000/3000 für den Massenmarkt reichen und daher bleibt man erstmal bei dieser Performance-Kategorie und beschleunigt diese immer dann, wenn eine neue Fertigung vorliegt. Aber irgendwann könnte auch der Zeitpunkt kommen, wo Intel diesen LowEnd-Ansatz überdenkt und mehr bieten will - technisch machbar ist das immer.

AnarchX
2011-05-23, 19:07:19
Naja. Glaube ich nicht. Die SoCs kommen mit 32bit/64bit und werden wohl noch ewig nicht höher gehen. SB und LIano sind 230mm^2 groß. Das sind schon ziemlich große Dies und beide müssen Kompromisse eingehen.
Stacked-DRAM vergrößert doch nicht die Fläche des Processing-Die.

DavidC1
2011-05-26, 01:09:22
Das könnte es sein, ca. 150 Punkte für den GMA 950 gegen die 4000-5000 des HD 3000.
Der G965 (GMA X3000) hatte dann auch schon fast 500 Punkte im 3DM06.


Actually, the graph is right, if you exclude Sandy Bridge.

130nm G31: 1.0x
90nm GMA X3000: ~1.3X
65nm G45: ~3x
45nm GMA HD: ~7x

http://www.hexus.net/content/item.php?item=12175

Intel G45 (X4500HD) to be 3x faster than previous integrated GPU

Translated into 3DMark06 scores

G31: 300
GMA X3000: 400-450*
G45: 900-1000
GMA HD: 2000

*The X3000 was far slower on hardware VS rendering and was much closer to the previous generation. For example on one test I did:

HW/SW
545/723