PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - MCP85/89/99 für Intel - DMI-Chipsatz


AnarchX
2009-08-14, 09:54:47
HKEPC hat Infos zu kommenden Intel-Chipsätzen:
http://translate.google.ch/translate?u=http%3A%2F%2Fglobal.hkepc.com%2F3888&sl=zh-CN&tl=en&hl=de&ie=UTF-8

So will man offenbar den zukünftigen Intel-Markt nicht aufgeben und bringt einen MCP99 mit DMI-Unterstützung. Wobei dieser auf Grund des niedrigen Durchsatzes von DMI eigenen Speicher mitbringen muss.

Gast
2009-08-14, 21:01:54
http://www.electronista.com/articles/09/08/14/apple.and.mcp89.mcp99/

Wird spekuliert, dass die Chips wieder bei Apple zum Einsatz kommen. (OpenCL und Intel IGP???).

S940
2009-08-14, 21:03:47
Da gabs doch gestern erst ne Meldung für den Atom Nachfolger. Ein Exemplar hätte angeblich nur PCIe, sodass nV was basteln dürfte. Für DMI hätten sie nach wie vor keine Lizenz ...

ciao

Alex

HOT
2009-08-14, 23:40:44
Deswegen gibts ja auch den Streit. NV will über PCIe den CPU-Speicher nutzen, Intel will nicht den eigenen Memcontroller für NVs Daten missbrauchen lassen. Wobei das echt dämlich ist, da NVs IGP ja ne echte Bereicherung des Marktes für Intel wäre ;).
Das wird sowieso im Sande verlaufen, weil der Anspruch von Intel einfach Schwachsinn ist. Jede Grafikkarte kann den Speicher der CPU für ihre Daten nutzen, der Chipsatz wäre einfach ein normales PCIe-Geräte wie alle anderen auch. Es gibt ja z.B. auch Turbocache-Karten ohne eigenen Speicher, die nicht von Intel verboten sind, die aber dasselbe machen wie der IGP. Ich frage mich ernsthaft, wie Intel sich dagegen wehren will, dass NV ein PCIe-Gerät bringt. Wenn das so restriktiv gehandhabt werden soll, hätte Intel kein PCIe nach Außen führen dürfen - selbst Schuld also. NV wird den MCP99 wohl trotz Intels gemecker einfach auf den Markt bringen und zwar ohne DMI.

AnarchX
2009-08-14, 23:52:54
Mit HyperMemory bzw. TurboCache kann man ja auch schon jetzt den Hauptspeicher durch die GPU über PCIe nutzen und auch dort den Framebuffer ablegen.

AnarchX
2009-08-17, 13:53:27
Könnte so die MCP99-Anbindung aussehen:
http://img40.imageshack.us/img40/2989/89b.png (http://img40.imageshack.us/i/89b.png/)
http://www.techpowerup.com/index.php?101781

reunion
2009-08-18, 14:23:59
Ich finde Xbitlabs bringt es auf den Punkt:

The release of MCP99, which will support both Nehalem and Westmere generations of microprocessors, seems to be rather controversial. Firstly, Nvidia cannot legally release a chipset supporting Intel’s processors with integrated memory controller and its legal dispute with Intel is unlikely to come to its end by Q1 2010. Secondly, there is hardly a need for integrated graphics core in premium systems based on quad-core Intel Core i7 “Lynnfield” microprocessors, whereas mainstream dual-core Intel Core i5/i3 processors will feature integrated graphics core and Nvidia’s new core-logic does not seem to be needed again. Theoretically, Nvidia’s solution may offer considerably higher performance compared to Intel’s integrated core, however, it is unlikely that PC makers will pay for two integrated graphics cores for mainstream personal computers.

http://www.xbitlabs.com/news/mainboards/display/20090817121737_Nvidia_Readies_Core_Logic_for_Intel_Core_i3_Core_i5_Core_i7_Micro processors_Rumours.html

MCP85 soll übrigens für AMD sein, der MCP89 für die Core 2 Plattform, das geht beim Threadtitel etwas unter.

Zafi
2009-09-12, 14:07:58
Der PCIe alleine ist breit genug, nVidia braucht keinen DMI. Würde nur Geld und Arbeit kosten.

Das Sinnvollste wäre tatsächlich, wenn nVidia seinen IGP inkl. des restlichen Chipsatzes exklusiv über den PCIe anbindet. Dank 16 Lanes und PCI-Express 2.0 wäre dies mehr als nur Zeitgemäß. Darüberhinaus bräuchte nVidia auch keine zwei Lösungen entwickeln, sondern könnte für AMD- und Intel-Systeme den selben Chipsatz verwenden. So wie man es früher auch schon vor hatte.

Lösungen mit IGP-eigenem-Framebuffer wären aber dennoch sinnvoller. Ich glaube Benchmarks gesehen zu haben, die zeigen, dass ein GeForce 8300 mit 40% höherem Arbeitstakt im Vergleich zum GeForce 8200, dennoch bis zu 100% mehr Leistung bringt als ein GeForce 8200, sobald sein eigener Framebuffer eingeschaltet ist. Und praktisch kaum Mehrleistung bringt, wenn der eigene Framebuffer ausgeschaltet ist.

Das zeigt sehr deutlich, dass selbst die Leistung eines lahmen GeForce 8200 - mit an der CPU angebundenem Framebuffer - schon stark limitiert. Kein Wunder also, wenn nVidia bei seinen 9300 und 9400 IGPs auf Arbeitsspeicher verzichtet, obwohl dieser dank FSB-Technik noch sehr viel besser angebunden wäre, als bei den AMD-Systemen oder der Nehalem-Architektur.

Das also die neuen nVidia-IGPs Arbeitsspeicher einsetzen, halte ich für ausgeschlossen. Performance-Technisch bringt es ihnen garnichts. Es fungiert eher als Bremse. Und Billige Office-Lösungen (in Form einer alternativen GeForce 8100 oder GeForce 8200) wird es dort nicht geben, da die Boards zu teuer sind. Da würde ein AMD-Office-System mehr Sinn machen. Denn hier spart man sich vermutlich 50 Euro allein am Board ein.

Hier nochmal in Klartext:

nVidia-Chipsatz mit IGP, der über PCIe am Prozessor angebunden ist und kein DMI nutzt. Die IGPs verwenden alle eigenen Framebuffer, der direkt angebunden ist. Arbeitsspeicher wird garnicht verwendet, nichtmal optional.

mboeller
2009-09-12, 15:17:28
nVidia-Chipsatz mit IGP, der über PCIe am Prozessor angebunden ist und kein DMI nutzt. Die IGPs verwenden alle eigenen Framebuffer, der direkt angebunden ist. Arbeitsspeicher wird garnicht verwendet, nichtmal optional.


Technisch OK, aber warum sollte man sowas machen? Die Kosten sind wahrscheinlich nahezu gleich groß wie bei einer richtigen lowend-Grafikkarte und die Leistung ist trotzdem noch um einiges niedriger.

AnarchX
2009-09-12, 15:22:41
Wenn dann lohnt es sich wohl wirklich nur, wenn NV mit ihrem Chipsatz den P55($40 (http://ark.intel.com/chipset.aspx?familyID=41726)) ersetzen kann und dazu gehört auch der Zugriff auf das DMI.

Aber ohne eigenen Speicher geht es wirklich nicht, erst recht wenn dieser Chipsatz/Ion 2 wohl mehr als doppelt so schnell wie der aktuelle Ion/9400 wird.

StefanV
2009-09-12, 15:32:52
Der PCIe alleine ist breit genug, nVidia braucht keinen DMI. Würde nur Geld und Arbeit kosten.
Das Problem ist, das DMI eine Form von PCIe ist, das nicht offen ist, um anderen Herstellern den Zugang zum Chipsatzmarkt zu versperren.
Hier müsste es sogar möglich sein, ULIs M1575 als 'Chipsatz' zu nutzen.


nVidia-Chipsatz mit IGP, der über PCIe am Prozessor angebunden ist und kein DMI nutzt. Die IGPs verwenden alle eigenen Framebuffer, der direkt angebunden ist. Arbeitsspeicher wird garnicht verwendet, nichtmal optional.
Wenn DMI PCI Express ist, wie kann nVidia PCI Express ohne DMI nutzen? ;)

Zafi
2009-09-12, 16:15:10
Technisch OK, aber warum sollte man sowas machen? Die Kosten sind wahrscheinlich nahezu gleich groß wie bei einer richtigen lowend-Grafikkarte und die Leistung ist trotzdem noch um einiges niedriger.

Das selbe habe ich mich gefragt, als der 9300/9400 IGP auf den Markt kam. Wo ein entsprechendes Board über 100 Euro gekostet hat. Wer kauft sowas? Ich sehe auch keine Zielgruppe für solche Boards. Aber vermutlich will nVidia damit auch mehr die Systembauer ansprechen, für die ein einzelnes Mainboard mit integrierter Grafik besser zu verarbeiten ist, als ein Mainboard mit separater Grafikkarte. Das erklärt vermutlich auch, warum es so wenige 9300/9400 Boards für den Endkundenmarkt gibt.

Das Problem ist, das DMI eine Form von PCIe ist, das nicht offen ist, um anderen Herstellern den Zugang zum Chipsatzmarkt zu versperren.

Wenn DMI PCI Express ist, wie kann nVidia PCI Express ohne DMI nutzen? ;)

Ich glaube DMI ist tatsächlich nichts anderes als PCI-Express und zwar "PCI Express 3.0". Was man gut am Datendurchsatz erkennen kann, denn es bietet eine doppelt so hohe Transferrate wie PCI Express 2.0. So gesehen bietet Intel mit seinem Socket-1156 nicht nur PCI-Express mit 16 Lanes sondern gleich auch PCI-Express 3.0 mit 2 Lanes.

Vermutlich hat man den Namen dieses PCI-Express 3.0 geändert, damit es offiziell kein PCI-Express 3.0 mehr ist und damit man es als DMI vermarkten kann (k.A.). Aber da es von den 16 Lanes des PCI-Express 2.0 unabhängig ist, kann nVidia getrost darauf verzichten.

Ich denke für Intel ist die Implementierung von DMI nur deswegen notwendig gewesen, um damit gleich PCI-Express 3.0 on-the-fly bieten zu können. Womöglich könnte Intel hergehen und die 16 vorhanden Lanes schon als PCI-Express 3.0 anbieten, wenn sie denn wollten. Da die Neuerungen des PCI-Express 3.0 dank DMI schon vorhanden sind. Das ist ein Vorteil gegenüber AMD. Abgesehen davon ist der Einsatz von DMI auch ein Vorteil gegenüber nVidia. Zwar braucht nVidia kein DMI um für Intel-Systeme eigene Chipsätze anbieten zu können. Doch dafür muss es auf das "langsamere" PCI-Express 2.0 zurück greifen, was den Intel-Chipsätzen, die über DMI gehen, bessere Latenzzeiten einräumt oder zumindest eine günstigere Produktion, da man mit DMI für die selbe Bandbreite nur 2 Lanes benötigt, während nVidia mit PCI-Express 2.0 gleich 4 Lanes benötigt.

Wie man es dreht und wendet. Ich denke DMI war von Intel schon ein kluger Schachzug.

Gast
2009-09-12, 16:19:44
Das selbe habe ich mich gefragt, als der 9300/9400 IGP auf den Markt kam. Wo ein entsprechendes Board über 100 Euro gekostet hat. Wer kauft sowas? Ich sehe auch keine Zielgruppe für solche Boards. Aber vermutlich will nVidia damit auch mehr die Systembauer ansprechen, für die ein einzelnes Mainboard mit integrierter Grafik besser zu verarbeiten ist, als ein Mainboard mit separater Grafikkarte. Das erklärt vermutlich auch, warum es so wenige 9300/9400 Boards für den Endkundenmarkt gibt.
Moment! Du vergisst die Laptops.
Ich habe so ein Teil im Macbook und bin recht angetan davon.

Das ist doch derzeit die beste Lösung um noch einigermaßen Leistung bei möglichst geringem Stromverbrauch zu haben (auch bzgl. Cuda bzw. OpenCL). Ich muss immer die Nase bei den ganzen Laptops mit den schwachbürstigen, dedizierten GPUs rümpfen, die im Endeffekt kaum oder garnicht mal mehr Leistung haben.

StefanV
2009-09-12, 16:19:45
Ich glaube DMI ist tatsächlich nichts anderes als PCI-Express und zwar "PCI Express 3.0". Was man gut am Datendurchsatz erkennen kann, denn es bietet eine doppelt so hohe Transferrate wie PCI Express 2.0. So gesehen bietet Intel mit seinem Socket-1156 nicht nur PCI-Express mit 16 Lanes sondern gleich auch PCI-Express 3.0 mit 2 Lanes.
Nein, man addiert einfach Up- und Downstream...
Ich denke DMI war von Intel schon ein kluger Schachzug.
...und ist uralt, gibts schon seit 5 Jahren (915/925)

AnarchX
2009-09-12, 16:20:08
Im Desktop mag ein solcher Chipsatz in der Tat nicht so wichtig sein, aber im Bezug auf Notebooks, wo die kommenden Intel CPUs keine IGP bzw. einen eher schwachen und featuremässig rückständigen haben, könnte NV hier durchaus punkten.
Gerade Apple dürfte sich für einen OpenCL-fähigen IGP interessieren.

Auch den AMD-Markt könnte NV nochmal in Angriff nehmen, immerhin basiert der aktuelle HD 4200 IGP immernoch auf RV620 und hat somit wohl keinen OpenCL-Support.

Zafi
2009-09-12, 17:07:53
@Gast
@AnarchX

Also die Notebooks habe ich tatsächlich außer Acht gelassen. Aber das sind sowieso andere 9300 und 9400. Bei den 9300/9400 mGPU (Desktop) handelt es sich um im Chipsatz integrierte GPUs mit dediziertem Speicher. Bei den 9300M und 9400M (Notebook) handelt es sich um dedizierte GPUs mit integriertem Speicher. Oder seh ich das falsch?

@StefanV

Ok, dann ist DMI bestenfalls überflüssig. Denn nVidia braucht ihn nicht, um eigene Chipsätze zu realisieren.



Fragen:

1. Wenn DMI wegfällt (wegfallen kann). Muss dann nVidia nicht weniger Lizenzgebühren löhnen, um für den S1156 Chipsätze bauen zu dürfen.

2. Muss nVidia überhaupt noch Lizenzgebühren an Intel löhnen, um S1156 Chipsätze zu bauen. Schließlich sind es ja erst S1156 Chipsätze, wenn sie auf S1156 Boards gelötet werden. Dank PCIe-Anbindung sind sie ja universal einsetzbar (ist ja effektiv nur noch eine Southbridge, die zusätzliche Funktionen anbietet).

3. Täusche ich mich, oder habe ich mal was gelesen, vonwegen Intel würde seine eigenen IGPs über DMI anbinden. Performance-Technisch wäre dies doch hirnrissig.

AnarchX
2009-09-12, 18:05:21
@Gast
@AnarchX

Also die Notebooks habe ich tatsächlich außer Acht gelassen. Aber das sind sowieso andere 9300 und 9400. Bei den 9300/9400 mGPU (Desktop) handelt es sich um im Chipsatz integrierte GPUs mit dediziertem Speicher. Bei den 9300M und 9400M (Notebook) handelt es sich um dedizierte GPUs mit integriertem Speicher. Oder seh ich das falsch?

Das sind auch Chipsets, auch wenn sie Nvidia als GPUs darstellt.
Aber an den Specs sieht man es doch schon deutlich:
http://www.nvidia.com/object/product_geforce_9400m_g_us.html
Auch ist der abgebildete Die ein MCP7A/79.


1. Wenn DMI wegfällt (wegfallen kann). Muss dann nVidia nicht weniger Lizenzgebühren löhnen, um für den S1156 Chipsätze bauen zu dürfen.

2. Muss nVidia überhaupt noch Lizenzgebühren an Intel löhnen, um S1156 Chipsätze zu bauen. Schließlich sind es ja erst S1156 Chipsätze, wenn sie auf S1156 Boards gelötet werden. Dank PCIe-Anbindung sind sie ja universal einsetzbar (ist ja effektiv nur noch eine Southbridge, die zusätzliche Funktionen anbietet).
Ich bezweifele, dass man das System starten kann wenn kein Chip am DMI hängt.
Und ich bezweifele, dass ein Hersteller hier einen rein über PCIe-angebunden Pseudo-Chipsatz von NV verbaut, wenn er noch einen $40 P55 verbauen muss.
Da kann er sich ja gleich eine Low-End-GPU in das Notebook löten und das auch von AMD.

Deshalb ist DMI doch für NV unabdingbar.


3. Täusche ich mich, oder habe ich mal was gelesen, vonwegen Intel würde seine eigenen IGPs über DMI anbinden. Performance-Technisch wäre dies doch hirnrissig.
Nein, die Lynnfield/Clarkfields haben keinen IGP und bei Clarkdale ist ein IGP-IMC-Die mit im Package.

Zafi
2009-09-12, 19:16:52
Ich bezweifele, dass man das System starten kann wenn kein Chip am DMI hängt.

Deshalb ist DMI doch für NV unabdingbar.

Also beim Booten startet der Prozessor das BIOS, welches dann erst den Zugriff auf die Southbridge regelt, um z.B. das Betriebssystem von der Festplatte zu starten. Ob die Southbridge am DMI oder am PCIe hängt, kann der CPU egal sein. Für sie sind es alles Zugriffe die getätigt werden oder auch nicht getätigt werden.

Stell dir beispielsweise mal vor, du baust (bei einem Intel P55 Board) einen PCIe-SATA-Controller in den X16-PCIe Slot. Und die Boot-Festplatte hängst du an diesen Controller, statt an den SATA-Controller der Southbridge. Dann muss das System doch genauso booten können. Ergo: Der DMI wäre für nVidia überflüssig.

turboschlumpf
2009-09-13, 13:48:52
Ob die Southbridge am DMI oder am PCIe hängt, kann der CPU egal sein. Der CPU prinzipiell schon, Intel aber nicht. Und dementsprechend wird Intel schon dafür gesorgt haben, dass es der CPU auch nicht egal ist.

HOT
2009-09-19, 21:05:40
[...]


Ich bezweifele, dass man das System starten kann wenn kein Chip am DMI hängt.
Und ich bezweifele, dass ein Hersteller hier einen rein über PCIe-angebunden Pseudo-Chipsatz von NV verbaut, wenn er noch einen $40 P55 verbauen muss.
Da kann er sich ja gleich eine Low-End-GPU in das Notebook löten und das auch von AMD.

Deshalb ist DMI doch für NV unabdingbar.


[...]

Halte ich für Unfug. Ob die Daten über DMI oder über PCIe an die CPU fließen spielt für nichts eine Rolle.

AnarchX
2009-09-19, 22:30:42
Laut Intel Schaltbild ist der P55 verantwortlich für Taktraten (Clock Buffer) und übermittelt wohl auch die Parameter vom BIOS an die CPU (NVRAM, SPI-Flash):
http://ht4u.net/reviews/2009/intel_lynnfield_core_i5_core_i7/index16.php
... und das eben über DMI.

Dass die CPU entsprechende Daten über PCIe ebenfalls erwartet kann man wohl eher ausschließen, da es Intel nicht benötigt.

Zafi
2009-09-19, 23:55:21
Wie der Name schon andeutet, dient ein Clock "Buffer" dazu ein vorhandenes Taktsignal zu ergänzen oder ein schwaches Taktsignal zu verstärken. Vermutlich handelt es sich also nur um einen einheitlichen und dedizierten Taktgeber, der ein eingehendes Taktsignal an die einzelnen Funktionen der Southbridge weiterleitet. Zumindest dürfte dies aber nicht der eigentliche PLL für die CPU sein.

turboschlumpf
2009-10-02, 13:50:14
Nvidia won’t do a DMI chipset

Intel used QPI chipset for Bloomfield CPUs and for Lynnfield and Arrandale & Clarkdale it uses DMI chipsets. Nvidia’s head of chipset division, General manager of Ion and Geforce Drew Henry just confirmed that Nvidia won’t make a DMI chipset.

He said that environment created by Intel was not healthy for their business model and therefore they have decided not to go after that product. This is definitely a change of plans as Nvidia was telling us last year roughly at the same time that they will go and launch a DMI chipset but not QPI.

[...]

Quelle: http://www.fudzilla.com/content/view/15785/1/


Der Anfang vom Ende für Nvidias Chipsatzsparte?

Zafi
2009-10-02, 14:01:35
Das ist typisch nVidia. Die geizen mal wieder rum, wegen den Lizenzgebühren. Denn vermutlich würde Intel an einem Intel-Board mit nVidia-Chipsatz mehr verdienen, als nVidia selbst.

Weiter in der News steht, dass sie SLI an Intel lizenzieren, damit auch der P55 offiziell SLI anbieten kann. Vermutlich mussten sie dass an Intel verschenken, weil Intel in einer guten Position ist und ATI und nVidia gegeneinander ausspielen kann.

Ich seh das nicht so eng. Vielleicht bemüht sich nVidia nun ein bischen stärker darum, eine eigene x86er CPU auf den Markt zu bringen. Um sich endlich von diesem Ping-Pong-Ball Dasein zu befreien.

turboschlumpf
2009-10-07, 13:55:20
Passt zwar eigentlich nicht in diesen Thread hier, aber:

Nvidia doesn’t plans new AMD chipsets

It is not only that Nvidia canceled its DMI chipset projects and won’t have its Lynnfield, Nehalem refresh chipset, it doesn’t want even to make a new AMD chipset.

Mr. Drew Henry has explained us that since AMD's CPU business is doing so badly and since its market shrunk so much, it is simply not economically viable for Nvidia to continue developing chipsets for AMD. They simply cannot make enough money.

(...)

Quelle: http://www.fudzilla.com/content/view/15852/1/


Nvidias ehemalige Chipsatzsparte ist damit wohl Geschichte?

Henroldus
2009-10-07, 14:06:25
Passt zwar eigentlich nicht in diesen Thread hier, aber:




Nvidias ehemalige Chipsatzsparte ist damit wohl Geschichte?
nö, die bauen doch noch den ION chipsatz für die ATOM CPU aber mal sehen wie lange..

LovesuckZ
2009-10-07, 14:19:12
Komische Begründung. In den CC wurde bis jetzt immer davon gesprochen, dass der Wachstum in der Chipsatzsparte auch durch einen Anzug der Nachfrage von AMD Prozessoren entstanden sei. Außerdem verwieß man auf HT, dass man auch in Zukunft unterstützen wird. Sieht imo nach einer Fehlinterpretation von Fuad aus.

reunion
2009-10-07, 14:22:28
Die Argumentation mit den geringen Marktanteilen ist auch sehr seltsam. AMD hatte nie deutlich mehr Marktanteile. Das Problem ist wohl eher das kaum jemand NV-Chips verbaut jetzt wo AMD eigene aht. Ähnlich bei Intel. Die Frage ist höchstens was Nv jetzt mit der Chipsatzmannschaft macht.

Ailuros
2009-10-07, 14:25:28
Die Argumentation mit den geringen Marktanteilen ist auch sehr seltsam. AMD hatte nie deutlich mehr Marktanteile. Das Problem ist wohl eher das kaum jemand NV-Chips verbaut jetzt wo AMD eigene aht. Ähnlich bei Intel. Die Frage ist höchstens was Nv jetzt mit der Chipsatzmannschaft macht.

Ich koennte mir durchaus vorstellen dass die Resourcen der chipset Abteilung langsam aber geziehlt in Tegra Richtung umsteigen.

turboschlumpf
2009-10-07, 15:32:45
nö, die bauen doch noch den ION chipsatz für die ATOM CPU aber mal sehen wie lange..Bietet Ion denn eine strategische Pespektive für den Geschäftsbereich?

Die Argumentation mit den geringen Marktanteilen ist auch sehr seltsam. AMD hatte nie deutlich mehr Marktanteile. Das Problem ist wohl eher das kaum jemand NV-Chips verbaut jetzt wo AMD eigene aht. Ähnlich bei Intel. Die Frage ist höchstens was Nv jetzt mit der Chipsatzmannschaft macht.Weil Nvidia keine Intel-Chipsätze mehr herstellt fallen vermutlich Synergieeffekte weg und die AMD-Chipsätze sind dadurch nicht mehr rentabel.

LovesuckZ
2009-10-07, 15:35:03
Bietet Ion denn eine strategische Pespektive für den Geschäftsbereich?

Wenn sie VIA ins Board holen, dann ja. Ansonsten wird man sich auf Tegra konzentrieren, dass vollkommen ausreichend für diesen Bereich ist, indem auch ION sich befindet.

Zafi
2009-10-07, 15:55:17
Weil Nvidia keine Intel-Chipsätze mehr herstellt fallen vermutlich Synergieeffekte weg und die AMD-Chipsätze sind dadurch nicht mehr rentabel.

Diese Einseitigkeit hat nVidia früher nicht gestört, als man nur für AMD Chipsätze gebaut hat und nun wo der Markt gewachsen ist und Chipsätze (dank der teilweisen Chipsatz-Integration in die CPU) noch einfacher geworden sind, sollte es für nVidia eigentlich ein leichtes sein, die Chipsatz-Sparte lukrativ weiter zu betreiben.

Ich glaube eher, dass nVidia keine Interesse mehr hat AMD und Intel zu unterstützen, weil sie nun doch Ambitionen haben selbst ins CPU Geschäft einzusteigen. So gesehen wird es dann wohl doch nVidia-Chipsätze geben, nur eben nicht für AMD- und Intel-Systeme.

Die Intel onBoard Grafik lagert viele Arbeiten auf die CPU aus. Vielleicht zeigt uns nVidia bald eine CPU, die viele ihrer Arbeiten auf die GPU auslagert?

Henroldus
2009-10-07, 16:04:31
Bietet Ion denn eine strategische Pespektive für den Geschäftsbereich?

hmm intel behindert dies indem sie den ATOM mit Chipsatz im Bundle billiger anbieten als die CPU allein!
Dazu:
Neue Intel Atom Pineview-Prozessoren ein teurer Spaß (http://www.netbooknews.de/9141/neue-intel-atom-pineview-prozessoren-ein-teurer-spas/)
Zudem wird ja bei der Nachfolgeplattform Pineview Chipsatz und Grafik auf dem Package integriert!
Keine guten Aussichten also hier für Nvidia noch Geld zu verdienen

StefanV
2009-10-07, 16:10:47
Nvidias ehemalige Chipsatzsparte ist damit wohl Geschichte?
Schaut so aus.
Wenn du mal bei LGA775 Boards nach dem 730i/9300/9400 schaust, wirst nicht mehr viel finden.

Das Gigabyte Board ist z.B. nicht mehr gelistet, das ASUS nur noch spärlich lieferbar und auch das MSI nForce 730i/Geforce 9300 ist verschwunden...

Wobei nVidia hier auch selbst Schuld ist, haben sie für Intel doch (viel) zu lange die uralten und eher miesen MCP55 Chips genutzt...

turboschlumpf
2009-10-07, 18:55:28
Diese Einseitigkeit hat nVidia früher nicht gestört, als man nur für AMD Chipsätze gebaut hat und nun wo der Markt gewachsen ist und Chipsätze (dank der teilweisen Chipsatz-Integration in die CPU) noch einfacher geworden sind, sollte es für nVidia eigentlich ein leichtes sein, die Chipsatz-Sparte lukrativ weiter zu betreiben.Ich denke eher je mehr Funktionen in die CPU wandern desto weniger lohnt es sich noch Chipsätze herzustellen (weniger Umsatz, geringere Marge, ...).

Zafi
2009-10-08, 02:04:19
Alles ist denkbar. Aber merkwürdig ist es schon, dass nVidia sich überhaupt aus einem Geschäftsbereich zurück zieht. Ich glaub das hat man bisher noch nie getan. Selbst die weniger lukrativen Bereiche werden weiter gepflegt und warten auf ihre Chance.

Gast
2009-10-08, 13:50:20
http://www.heise.de/resale/meldung/Nvidia-steigt-langsam-aus-dem-Geschaeft-mit-Mainboard-Chipsaetzen-aus-817828.html

StefanV
2009-10-08, 19:30:13
Ob SLI jetzt auch für AMD Chipsätze aktiviert werden wird? ;)

Zafi
2009-10-08, 20:11:47
Ob SLI jetzt auch für AMD Chipsätze aktiviert werden wird? ;)

Vielleicht muss die GeForce jetzt unter CrossFire laufen... :anonym:

Coda
2009-10-08, 20:42:32
Vielleicht muss die GeForce jetzt unter CrossFire laufen... :anonym:
Das ergibt auf mehreren Ebenen keinen Sinn.

Ob SLI jetzt auch für AMD Chipsätze aktiviert werden wird? ;)
Ich denke schon. Aber wohl nur gegen Obolus von den Mainboardherstellern.

Hugo
2009-10-08, 20:43:22
ein Problem bei den Intelchipsätzen ist doch auch Intel's Politik mit den Lizenzen für ihre BUS-Protokolle. Nich zuletzt SIS und VIA scheiterten auch daran in dem die Lizens zwar erworben wurde aber wenn ich mich recht erinnere zu spät. Da hatte Intel längst ihre Chips am Markt platziert.
Wenn die GPU in die CPU wandert wird der Chipstz eh nur noch zum I/O degradiert da lohnt sich eine Enwicklung auch nicht mehr.
Und ich glaub NV besitzt für die Lynnfiled/Nehalem Plattform keine Lizens.
Außer C2D, C2Q (S775) und Atom bleibt ihnen nix anderes übrig

Zafi
2009-10-08, 21:10:31
Das ergibt auf mehreren Ebenen keinen Sinn.

Das war auch als Witz gemeint ... :confused:

Coda
2009-10-08, 22:03:09
Mein Humordetektor hat sich in diesen Foren durch die ganze Trollerei schon lange verabschiedet :usad:

Zafi
2009-10-08, 22:30:07
Wenn es keine nVidia Chipsätze mehr gibt, dann bedeutet dies auch, dass es keine nVidia onBoard-Grafik mehr gibt. Für AMD müssten dies doch goldene Zeiten sein. Der Intel GMA 4500 taugt nichts, wegen mangelnder Kompatiblität, geringer Leistung und eines zu hohen Preises. Bleibt somit als einzige onBoard Alternative nur noch die Radeon.

Ich frag mich was Apple nun machen will. 80% von Apples Notebooks arbeiten mit einer onBoard GeForce. Wenn Apple sich infolge dessen an AMDs Radeon kuschelt und dadurch auch verstärkt MacBooks mit AMD-Prozessoren baut, dann sollten wir jetzt schnell AMD Aktien kaufen gehen.

AnarchX
2009-10-08, 22:50:49
Wenn es keine nVidia Chipsätze mehr gibt, dann bedeutet dies auch, dass es keine nVidia onBoard-Grafik mehr gibt. Für AMD müssten dies doch goldene Zeiten sein. Der Intel GMA 4500 taugt nichts, wegen mangelnder Kompatiblität, geringer Leistung und eines zu hohen Preises. Bleibt somit als einzige onBoard Alternative nur noch die Radeon.

Mit Clarkdale gibt es den IGP ab Anfang 2010 bei Intel "gratis" zur CPU. ;)


Ich frag mich was Apple nun machen will. 80% von Apples Notebooks arbeiten mit einer onBoard GeForce. Wenn Apple sich infolge dessen an AMDs Radeon kuschelt und dadurch auch verstärkt MacBooks mit AMD-Prozessoren baut, dann sollten wir jetzt schnell AMD Aktien kaufen gehen.
Für Apple ist wohl weder AMD noch Intel(Clarkdale) ein Alternative, da deren IGP-Angebot nicht OpenCL-fähig ist, sodass hier vorerst nur der Griff zu dedizierten GPUs bleibt, wo man dann wohl eher Nvidia bevorzugt.

Zafi
2009-10-08, 23:46:58
Mit Clarkdale gibt es den IGP ab Anfang 2010 bei Intel "gratis" zur CPU. ;)

Intel fährt seine ganz eigene Schiene, deshalb hapert es ja mit der GPU-Kompatibilität. Das war bisher so und das wird wohl auch in Zukunft so sein. Da spielt es keine große Rolle ob die GPU im Chipsatz oder in der CPU hockt.

Für Apple ist wohl weder AMD noch Intel(Clarkdale) ein Alternative, da deren IGP-Angebot nicht OpenCL-fähig ist, sodass hier vorerst nur der Griff zu dedizierten GPUs bleibt, wo man dann wohl eher Nvidia bevorzugt.

Da AMD das OpenCL unterstützt, ist es wohl nur eine Formsache, es für die onBoard-Grafik freizugeben. Schließlich ist das hier genau das selbe Spielchen wie damals mit der onBoard-GeForce und CUDA. Die GeForce 8200 war zu leistungsarm, um CUDA Anwendungen schneller als der Prozessor abzuarbeiten. Also wozu der onBoard-GeForce CUDA ermöglichen. Bei AMD ist es genauso. Technisch spricht aber nichts dagegen.

Es würde mich nicht wundern, wenn genau in diesem Augenblick die ersten AMD Vertreter den Apple-Firmen-Boden mit ihren Knien polieren und Apple ein (vielleicht sogar exklusives) onBoard-Grafik OpenCL auf dem Silbertablett überreichen.

Und Apple dürfte dieses Geschenk dankend annehmen. Welche Optionen haben sie den auch. Teure dedizierte GeForce-Grafikchips mit teuren Intel-Chipsätzen bündeln, um Apple MacBooks preislich noch unattraktiver zu machen? Ne. Dank AMD hätten sie die Chance pro Notebook 100 Dollar mehr zu verdienen. Denn auch in Zeiten, wo OpenCL noch kein Thema war, haben sie auf die billigen Intel-GPUs gesetzt. Erst durch OpenCL wurde nVidia überhaupt interessant. Also rechnen wir das ganze zusammen.

Billig wie eine Intel-GPU + der OpenCL-Fähigkeit einer nVidia-GPU = die baldige AMD/ATI-GPU

Coda
2009-10-08, 23:53:23
Wenn es keine nVidia Chipsätze mehr gibt, dann bedeutet dies auch, dass es keine nVidia onBoard-Grafik mehr gibt. Für AMD müssten dies doch goldene Zeiten sein. Der Intel GMA 4500 taugt nichts, wegen mangelnder Kompatiblität, geringer Leistung und eines zu hohen Preises. Bleibt somit als einzige onBoard Alternative nur noch die Radeon.

Ich frag mich was Apple nun machen will. 80% von Apples Notebooks arbeiten mit einer onBoard GeForce. Wenn Apple sich infolge dessen an AMDs Radeon kuschelt und dadurch auch verstärkt MacBooks mit AMD-Prozessoren baut, dann sollten wir jetzt schnell AMD Aktien kaufen gehen.
Das ist wirklich ein sehr guter Punkt. Da bin ich auch mal gespannt wie sich das entwickelt. Könnte sein, dass sie wieder verstärkt auf dedizierte Grafikchips setzen. Intel bietet ja schon Prozessoren mit integrierter Northbridge und PCIe an.

AMD CPUs halte ich für relativ unwahrscheinlich. Apple verkauft Premium-Hardware, und AMD-CPUs stehen da bei der Masse wohl zur Zeit nicht im besten Licht da.

Gast
2009-10-09, 00:02:52
Generell ist es um die Nvidia IGP Schade.
Da können AFAIK die AMD IGPs bisher nicht mithalten, da ältere Generation und miese Treiber unter Linux.

Wieviel Leistung hätten eigentlich die div. PowerVR-Lösungen mit vernünftigen Treibern? Aber PowerVR verbraut Intel wohl eh nicht, außer bei Netbook-Chipsätzen.

Apple:
Hier bin ich auch mal gespannt, was kommt.

Btw:
Wieviel Strom zieht eine ungenutzt Grafikeinheit einer kommenden CPU?

Coda
2009-10-09, 00:06:15
Ich finde es im Übrigen eine Frechheit von Intel dass sie NVIDIA keine DMI-Lizenz geben.

LovesuckZ
2009-10-09, 00:18:43
Generell ist es um die Nvidia IGP Schade.
Da können AFAIK die AMD IGPs bisher nicht mithalten, da ältere Generation und miese Treiber unter Linux.

Ja, erst der neuere Chipsatz ist technisch auf dem selben Niveau. Alle GF8-IGPs unterstützen DC und OpenCL.
Außerdem wird Wettbewerb benötigt. Man stelle sich nur mal vor nVidia würde ION nicht pushen. Dann gäbe es wohl bis heute keine besseren Atom-Chipsätze...

StefanV
2009-10-09, 00:33:34
Denn auch in Zeiten, wo OpenCL noch kein Thema war, haben sie auf die billigen Intel-GPUs gesetzt. Erst durch OpenCL wurde nVidia überhaupt interessant. Also rechnen wir das ganze zusammen
Man hat aber nicht (nur) wegen OpenCL auf nVidia gesetzt sondern vorallen wegen der "vorzüglichen" 3D Fähigkeiten der Intel Chips.

Oder andersrum: die waren nicht so wirklich gut für OSX geeignet, aufgrund der sehr schlechten Treiber gabs zum Teil aufm Desktop bzw bei 'normalen Anwendungen' Bildfehler.
Das dürft einer der Hauptgründe für den Umstieg auf nVidia gewesen sein...

Zafi
2009-10-09, 00:53:48
Mir fällt gerade auf, dass nun auch SLI betroffen ist, durch nVidias Entscheidung aus dem Chipsatz-Segement auszusteigen. Denn der P55 beherrscht Triple-SLI nur mittels PCIe x8, x8, x4 und SLI nur mittels x8, x8 oder mittels x16, x4. Dass nenn ich dann doch ein Handicap. Wer mehr will, muss aktuell auf teure Sockel 1366 CPUs umsatteln und sich dort einen teuren X58 zulegen. Und da das viele nicht tun werden, könnte dieses gehandicapte SLI mit der Zeit unattraktiv werden. Und somit auch nVidias Grafikkarten-Segment stark beeinflussen.

Generell ist es um die Nvidia IGP Schade.
Da können AFAIK die AMD IGPs bisher nicht mithalten, da ältere Generation und miese Treiber unter Linux.

Ne, da hat sich einiges getan. Die GeForce 7050 war noch ein Traum-IGP. Kühl, Leistungsstark (für eine onBoard IGP) und mit guter Kompatibilität. Während AMDs 690G nicht mal die Wärmeleitpaste wert war, unter der er sich versteckt hat. Doch mit der Radeon HD 3200 wandelte sich das Blatt. Kühl ist die Radeon zwar nicht gerade, doch dafür stabil und leistungsstark. Wogegen die GeForce 8200 schlecht zu kühlen ist, bei 3D ständig überhitzt (da kann ich ganze Arien von singen) und auch noch merklich leistungsärmer als die Radeon HD ist. Bei so einem Produkt braucht sich nVidia nicht zu wundern, wenn ihre Chipsatz-Sparte einbricht.

Ich finde es im Übrigen eine Frechheit von Intel dass sie NVIDIA keine DMI-Lizenz geben.

Wir können ja eine "Rettet die heißen nVidia Chipsätze"-Pedition starten. Da würde ich als gebranntes Kind aber nicht unbedingt unterschreiben.

Man hat aber nicht (nur) wegen OpenCL auf nVidia gesetzt sondern vorallen wegen der "vorzüglichen" 3D Fähigkeiten der Intel Chips.

Oder andersrum: die waren nicht so wirklich gut für OSX geeignet, aufgrund der sehr schlechten Treiber gabs zum Teil aufm Desktop bzw bei 'normalen Anwendungen' Bildfehler.

Ja, da muss man sich nur mal nVidias mGPU 9300/9400 Präsentation anschauen. Da wird von vorne bis hinten nicht nur die GeForce 9300/9400 vorgestellt, sondern vorallem der Intel GMA 4500 total zerpflückt. Alle Unzulänglichkeiten aufgelistet, alle Inkompatibilitäten breit getreten, bei welchen Spielen er garnicht startet, bei welchen Spielen er Grafikfehler bringt, wo er abstürzt, was der Video-Beschleuniger alles nicht beschleunigen kann, usw.

Also wenn Intel da nicht langsam das Ruder rumreißt, dann brauchen sich AMD und nVidia keine Sorgen zu machen.

StefanV
2009-10-09, 01:06:41
Hm, das Video hab ich leider verlegt, sollt ich mir mal in meinen Favs speichern, wenn ichs mal sehe ;)

Anyway:
Ist euch schon mal aufgefallen, das nVidia versucht(e) die AMD Sparte mit einem Chip abzudecken?
Von Top to Buttom!

Und das auch noch mit einem, dessen Ausstattung an PCie Lanes ziemlich ärmlich ist, vorallen mit den AMD Chipsätzen.
Gut, bei den AMD Chips geht idR eine Lane für GBit Lan drauf, machen aber immer noch 5 über.
Bei nVidias MCP72/78/82 warens nur 3...

In der Top Ausstattung muss der auch noch mit dem nForce 200 kombiniert werden...

Gast
2009-10-09, 01:12:18
Ne, da hat sich einiges getan. Die GeForce 7050 war noch ein Traum-IGP. Kühl, Leistungsstark (für eine onBoard IGP) und mit guter Kompatibilität. Während AMDs 690G nicht mal die Wärmeleitpaste wert war, unter der er sich versteckt hat. Doch mit der Radeon HD 3200 wandelte sich das Blatt. Kühl ist die Radeon zwar nicht gerade, doch dafür stabil und leistungsstark. Wogegen die GeForce 8200 schlecht zu kühlen ist, bei 3D ständig überhitzt (da kann ich ganze Arien von singen) und auch noch merklich leistungsärmer als die Radeon HD ist. Bei so einem Produkt braucht sich nVidia nicht zu wundern, wenn ihre Chipsatz-Sparte einbricht.

Ich habe von den IGPs gesprochen, also der 9400M, die sich in den Apple-Produkten befindet:
http://www.nvidia.com/object/product_geforce_9400m_g_us.html
Da gibt es bisher kein ATI-Produkt, das mithalten kann. Weder von Hard- noch Software (dazu gehört auch Linux, womit Nvidia z.B. unter Linux mit VDPAU die ATI zum Frühstück verspeist - wird z.B. gerne bei XBMC verwendet).

Gast
2009-10-09, 01:17:09
Also wenn Intel da nicht langsam das Ruder rumreißt, dann brauchen sich AMD und nVidia keine Sorgen zu machen.
Man baut den Rotz in die CPUs und ist die Konkurrenz los. So sieht es aus!
Leider. :(

Zafi
2009-10-09, 02:42:35
Ist euch schon mal aufgefallen, das nVidia versucht(e) die AMD Sparte mit einem Chip abzudecken?

nVidia hat auch ein unglaubliches Recycling-Talent. Ich sag bloss GeForce 6100, 6150, 7025, 7050, 7100, 7150... wozu auch das Rad neu erfinden, wenn der Anwender sowieso nicht checkt was da abgeht.

Ich habe von den IGPs gesprochen, also der 9400M, die sich in den Apple-Produkten befindet:
http://www.nvidia.com/object/product_geforce_9400m_g_us.html
Da gibt es bisher kein ATI-Produkt, das mithalten kann. Weder von Hard- noch Software (dazu gehört auch Linux, womit Nvidia z.B. unter Linux mit VDPAU die ATI zum Frühstück verspeist - wird z.B. gerne bei XBMC verwendet).

Du darfst nicht vergessen, dass die 9400 als Chipsatz/System-Kombi schweine-teuer ist. Mindestens 50 Euro über dem eines AMD IGP+Chipsatz/System-Kombi. Hauptsächlich wohl nur wegen den Intel-Lizenzgebühren. Aber nichts desto trotz deutlich teurer.

Effektiv bedeutet es also. Das die 9400 gegen eine kleine dedizierte Radeon Mobility in Preis und Leistung antreten kann. Wobei beide wieder gleichwertig wären.

Vermutlich hat sich aber Apple nicht wegen der Leistung für die 9400 entschieden. Sondern eher wegen dem Video-Beschleuniger, der Kompatibilität, dem OpenCL und vieler anderer kleiner Features. So gesehen wäre ein Drop-Down auf eine Radeon HD 4200 kein allzugroßes Problem. Und abgesehen davon gibt es auch die Radeon HD 4300 / 3300. Durch ihren dedizierten Speicher hat die nochmal soviel Bumms. Falls man also doch mehr 3D-Leistung haben will, dürfte dies kein Thema sein.

(Hey, ich sollte vielleicht Verkäufer bei AMD werden...) :freak:

Man baut den Rotz in die CPUs und ist die Konkurrenz los. So sieht es aus!
Leider. :(

Ich fürchte das ist wahr.

Aber nVidia wäre nicht nVidia, wenn die nicht noch ein As im Ärmel hätten. Ich kann es fast schon riechen, dass da was im Busch ist. Vielleicht wird morgen der 100% reine nVidia-PC vorgestellt. Oder die erste Grafikkarte, die ohne Prozessor auskommt. ;D ...

Gast
2009-10-09, 03:06:38
Der NVidia-Chipsatz ist eine Single-Chip-Lösung mit extrem guter Performance für eine IPG + guter Video-Eigenschaften + OpenCL/CUDA-Support bei wohl gutem Stromverbrauch. Die Kombination war bzw. ist immer noch einmalig. Das hat halt einfach seht gut zu Apple gepasst. Auch da Apple versucht alles zu miniaturisieren, also immer weniger Chips zu nutzen.


Anmerkung zur GMA:
Hatte zwei Macbooks mit GMAs. An Darstellungsfehler kann ich mich nicht erinnern. Im allgemeinen lief die eigentlich auch garnicht so schlecht, wenn man nichts Grafkaufwendiges gemacht hat. Aber man braucht nicht drumrumuzureden. Die Teile sind Shice und finden sich hoffentlich nicht wieder in Macbooks & Co. Wobei ich mir da aufgrund der kommenden Situation auch nicht so sicher bin :(

Coda
2009-10-09, 03:21:01
Oder die erste Grafikkarte, die ohne Prozessor auskommt. ;D ...
Dann wäre sie der Prozessor.

reunion
2009-10-09, 06:58:07
Wenn es keine nVidia Chipsätze mehr gibt, dann bedeutet dies auch, dass es keine nVidia onBoard-Grafik mehr gibt. Für AMD müssten dies doch goldene Zeiten sein. Der Intel GMA 4500 taugt nichts, wegen mangelnder Kompatiblität, geringer Leistung und eines zu hohen Preises. Bleibt somit als einzige onBoard Alternative nur noch die Radeon.

Der Clarkdale scheint gar nicht schlecht zu sein. Ich denke Intel ist sich dessen durchaus bewusst und hat hier doch einiges investiert.


Generell ist es um die Nvidia IGP Schade.
Da können AFAIK die AMD IGPs bisher nicht mithalten, da ältere Generation und miese Treiber unter Linux.


Die Zeiten sind lange vorbei. AMD-IGPs sind kühler und schneller. Einzig das Linux-Argument zieht noch, aber auch hier holt man fleißig auf.

Mir fällt gerade auf, dass nun auch SLI betroffen ist, durch nVidias Entscheidung aus dem Chipsatz-Segement auszusteigen. Denn der P55 beherrscht Triple-SLI nur mittels PCIe x8, x8, x4 und SLI nur mittels x8, x8 oder mittels x16, x4. Dass nenn ich dann doch ein Handicap. Wer mehr will, muss aktuell auf teure Sockel 1366 CPUs umsatteln und sich dort einen teuren X58 zulegen. Und da das viele nicht tun werden, könnte dieses gehandicapte SLI mit der Zeit unattraktiv werden. Und somit auch nVidias Grafikkarten-Segment stark beeinflussen.

Da hätte NV ohnehin nicht viel ändern können, der PCIe-Hub sitzt direkt in der CPU. Und die SLI-Lizenz wird NV rausrücken müssen wenn sie SLI nicht in die Bedeutungslosigkeit führen wollen. Ich sehe auch keinen wirklichen Markt mehr für Chipsätze. Die IPG und PCIe-Lanes wandern in die CPU, NV könnte max. noch ein paar Southbridges bauen, aber das macht auch wenig Sinn, denn da ist Intel sicherlich auch sehr stark.

Ich finde es im Übrigen eine Frechheit von Intel dass sie NVIDIA keine DMI-Lizenz geben.

He said that environment created by Intel was not healthy for their business model and therefore they have decided not to go after that product.

Sie würden wohl schon eine Lizenz bekommen...

V2.0
2009-10-09, 08:02:30
NV muss sparen. Die Lizenz ist den Preis nicht mehr Wert. Wenn die IGP in die CPU wandert wird kaum noch ein IGP-Board nachgefragt werden. Intel und gerade AMD werden den Markt übernehmen.

AnarchX
2009-10-09, 08:49:58
I
Da AMD das OpenCL unterstützt, ist es wohl nur eine Formsache, es für die onBoard-Grafik freizugeben. Schließlich ist das hier genau das selbe Spielchen wie damals mit der onBoard-GeForce und CUDA. Die GeForce 8200 war zu leistungsarm, um CUDA Anwendungen schneller als der Prozessor abzuarbeiten. Also wozu der onBoard-GeForce CUDA ermöglichen. Bei AMD ist es genauso. Technisch spricht aber nichts dagegen.

AMDs aktueller IGP(785G/RS880) basiert auf RV6xx (genau RV625) und liegt von den GPGPU-Fähigkeiten noch weit hinter GeForce >=8 und >=RV7xx. Der aktuelle Informationsstand ist, dass hier keine Unterstützung für OpenCL und Compute Shader möglich ist.

reunion
2009-10-09, 08:52:59
AMDs aktueller IGP(785G/RS880) basiert auf RV6xx (genau RV625) und liegt von den GPGPU-Fähigkeiten noch weit hinter GeForce >8 und >RV7xx. Der aktuelle Informationsstand ist, dass hier keine Unterstützung für OpenCL und Compute Shader möglich ist.

Sagt wer? CS4.0/4.1 vom Computer Shader orientiert sich direkt an den D3D Versionen AFAIK. OpenGL weiß ich nicht, aber nachdem ATis Stream auch ab den D3D10-GPUs läuft sehe ich wenig Gründe warum es mit OpenCL anders sein sollte.

AnarchX
2009-10-09, 09:04:47
Stream ist wohl nicht gleich Stream.
Aber ein großes Problem für jegliche fortgeschrittene GPGPU-Unterstützung auf <RV7xx ist wohl das Fehlen von Thread-IDs.

Zafi
2009-10-09, 10:37:35
Der Clarkdale scheint gar nicht schlecht zu sein. Ich denke Intel ist sich dessen durchaus bewusst und hat hier doch einiges investiert.

Der GMA X4500 ist auch nicht schlecht, wenn man ihn in Relation zu seinem Vorgänger, dem GMA X3000 betrachtet (lange Zeit fehlende Treiber, instabil, fehlerhafte VS 3.0 Umsetzung, etc.). Aber im Vergleich zu AMD und nVidia fehlt vor allem die Kompatibilität zu den Anwendungen. Während Radeon und GeForce weitgehend parallel verlaufen, müssen Spiele-Entwickler ihre Titel für Intels GMA anpassen. Was in Anbetracht der geringen IGP-Leistung für die Spiele-Entwickler keinen Sinn mehr macht und was infolgedessen zu einem schlechten Support der X4500 führt.

Vielleicht ändert sich das ja mit dem Clarkdale, wenn dieser mehr Leistung bekommen sollte. Und es für Spiele-Entwickler wieder Sinn macht, Zeit und Mühe für eine Anpassung zu investieren. Aber Intel tätigt keine allzugroßen Leistungs-Schritte im IGP-Markt. Es scheint eher so, als ob man die Sache aus sitzt, bis die CPUs leistungsstark genug sind, um die Grafik komplett über die CPU rendern zu lassen.

AMDs aktueller IGP(785G/RS880) basiert auf RV6xx (genau RV625) und liegt von den GPGPU-Fähigkeiten noch weit hinter GeForce >8 und >RV7xx. Der aktuelle Informationsstand ist, dass hier keine Unterstützung für OpenCL und Compute Shader möglich ist.

Das ist nicht ganz richtig. Der HD 4200 ist zwar de facto ein HD 3200. Doch auch die HD 3200 ist Leistungsmäßig über der GeForce 8200 einzuordnen. Bei alten Spielen (DX8 bis DX9) liegen beide gleich auf, während bei neuen Spielen und Anwendungen (DX9 - DX10) die Radeon ein Performance-Plus von bis zu 30% einfahren kann, zumindest aber auch da mindestens gleich aufliegt.

Wenn also die Radeon HD 3200 in 3D-Anwendungen besser oder gleich gut abschneidet, als die GeForce 8200. Dann ist auch anzunehmen, dass sie in GPGPU-Anwendungen besser oder gleich gut abschneidet, als die GeForce 8200.

Wie schon gesagt, der fehlende OpenCL Support geschieht sicher nur aus der Notwendigkeit heraus. Zum einen braucht ATI keine Konkurrenz zu seiner FireStream-Serie, wo das Gegenstück einer HD 4850 für 1100 Euro bis 1700 Euro gehandelt wird. Und ebenso muss man nicht die Leistung der Radeon HD 3200/4200 rechtfertigen. Denn wozu sollte eine Radeon HD 3200/4200 mit GPGPU eingreifen, wenn die CPU die gleiche Arbeit schneller abarbeiten kann. Das war auch der Grund, warum die GeForce 8200 kein CUDA konnte, obwohl sie es doch konnte.

Um die Leistungsfähigkeit der Radeon HD weiter zu steigern, spendiert man ihr einfach einen höheren Takt und dedizierten Speicher. Eine solche Radeon HD 3300 / 4300 ist dann sogar doppelt so leistungsstark wie eine Radeon 3200 / 4200 und rechtfertigt OpenCL auf einem IGP. Und kann sich dann fast sogar mit einer GeForce 9300 / 9400 messen.

Das ist sicher keine schlechte Basis. Zumal es garnicht einmal der HD3-IGP oder HD4-IGP sein muss, der sich mit OpenCL hervortut. Bis Bedarf bei Anbietern wie Apple besteht und bis sowas umgesetzt wird, wäre ohnehin der HD5-IGP das Zentrale Thema. Und wie es bei ihm mit Leistung und OpenCL-Support aussieht, steht gegenwärtig noch in den Sternen.

Gast
2009-10-09, 10:42:01
Und kann sich dann fast sogar mit einer GeForce 9300 / 9400 messen.
Und um die geht es doch zum großen Teil bzw. gilt es zu schlagen. Warum wird dann immer mit alten und langsamen Nvidia IGPs diskutiert?

Zafi
2009-10-09, 10:46:17
Und um die geht es doch zum großen Teil bzw. gilt es zu schlagen. Warum wird dann immer mit alten und langsamen Nvidia IGPs diskutiert?

Es geht nicht darum sie zu schlagen. Es geht darum einen adäquaten Ersatz zu finden. Und der ist hier gegeben, wenn nicht jetzt, dann doch zumindest in der naher Zukunft, wenn Bedarf angemeldet wird.

StefanV
2009-10-09, 10:51:30
nVidia hat auch ein unglaubliches Recycling-Talent. Ich sag bloss GeForce 6100, 6150, 7025, 7050, 7100, 7150... wozu auch das Rad neu erfinden, wenn der Anwender sowieso nicht checkt was da abgeht.
Also bei den 7000er Serie muss ich widersprechen.
Zumindest bei AMD war das ein ganz anderer Chipsatz!
OK; die Grafik war vergleichbar, aber z.B. der S-ATA Controller war neu -> erstmals AHCI kompatibel.
Wenn mans auch noch bei 4 Ports beließ...


Du darfst nicht vergessen, dass die 9400 als Chipsatz/System-Kombi schweine-teuer ist. Mindestens 50 Euro über dem eines AMD IGP+Chipsatz/System-Kombi. Hauptsächlich wohl nur wegen den Intel-Lizenzgebühren. Aber nichts desto trotz deutlich teurer.
Ist mir auch schon aufgefallen, aber das ist bei Intel nicht unüblich, das man etwa 50% teurer denn die Konkurenz ist, bei gleicher Ausstattung...

StefanV
2009-10-09, 10:59:04
Um die Leistungsfähigkeit der Radeon HD weiter zu steigern, spendiert man ihr einfach einen höheren Takt und dedizierten Speicher.
Das konnte schon der RS480, also die erste Radeon IGP für AMD.
Wurd nur nie benutzt, zumindest auf Boards, die in EU verfügbar waren.

Mit dem RS780 kam das dann auch wieder, dieses Feature, wurde dann allerdings auch etwas aktiver Beworben und bekam den Namen 'Sideport Memory'.
Ist also prinzipiell auch bei 780G Boards möglich, wurd nur nie wirklich genutzt.

Beim 785G schaut es anders aus, hier ists momentan eher so, das der Grafikeinheit öfter dediziter Speicher zur Verfügung gestellt wird.

Übrigens kann man die AMD IGPs auch so einstellen, das sie, wenn sie dediziten Speicher haben, nicht auf den Hauptspeicher zugreifen!

AnarchX
2009-10-09, 12:20:08
Übrigens kann man die AMD IGPs auch so einstellen, das sie, wenn sie dediziten Speicher haben, nicht auf den Hauptspeicher zugreifen!
Das ist ja auch der primäre Sinn vom Sideport-Memory, die ~1,6-3GB/s Bandbreite und niedrigere Latenz sind eher die zusätzlichen Vorteile.

Zafi
2009-10-09, 12:38:39
Beim 785G schaut es anders aus, hier ists momentan eher so, das der Grafikeinheit öfter dediziter Speicher zur Verfügung gestellt wird.

Wirklich? Nee...! Hab zumindest noch kein solches Board gesehen.

Übrigens kann man die AMD IGPs auch so einstellen, das sie, wenn sie dediziten Speicher haben, nicht auf den Hauptspeicher zugreifen!

Ich hatte mal zwei AMD790GX Boards (Foxconn und ASRock). Da konnte man Sideport + UMA oder nur UMA einstellen. Hat man dagegen nur Sideport aktiviert (ohne UMA) blieb der Bildschirm bei beiden Schwarz. ( Wieder so ne BIOS-Einstellung die für nichts gut ist :confused: ) Und bevor jemand fragt: Ja, Sideport war physikalisch vorhanden, da beide bei Sideport+UMA deutlich schneller waren, als nur mit UMA allein.

Ich sehe denn Sideport-Memory daher nicht als zusätzlichen Framebuffer, sondern nur als Zwischenspeicher zum Arbeitsspeicher an. Denn mehr scheint er auch nicht zu sein.

Zafi
2009-10-09, 12:54:20
Der Heise Beitrag (http://www.heise.de/newsticker/meldung/Nvidia-steigt-langsam-aus-dem-Geschaeft-mit-Mainboard-Chipsaetzen-aus-Update-817828.html) wurde geupdatet und der O-Ton hört sich jetzt ganz anders an. Demnach hat nVidia seine Intel-Chipsatz-Pläne nur auf Eis gelegt und ob es zukünftige Chipsätze für AMD-Prozessoren gibt, wurde gleich garnicht angesprochen.

Wie es aussieht haben wir uns zu früh gefreut... äh.... voreilig spekuliert. Sieht fast so aus, als ob alles beim alten bleibt und nVidia seinen - vermeindlichen - Ausstieg aus dem Intel-Markt nur als Druckmittel nutzt, um bei Intel die Lizenzgebühren zu drücken. Als ob das Intel jucken würde...

LovesuckZ
2009-10-09, 13:07:37
Wie es aussieht haben wir uns zu früh gefreut... äh.... voreilig spekuliert. Sieht fast so aus, als ob alles beim alten bleibt und nVidia seinen - vermeindlichen - Ausstieg aus dem Intel-Markt nur als Druckmittel nutzt, um bei Intel die Lizenzgebühren zu drücken. Als ob das Intel jucken würde...

Das wird Intel jucken - denn so könnte es wohl auch zu einer Zerschlagung der Chipsatzsparte kommen.
Ich bezweifel es, dass die Wettbewerbshüter in Amerika es zulassen, dass Intel mit 85% Marktanteile als einziger Chipsätze für ihre CPUs herstellen darf. Das wäre schon bald mehr als eine Geldpressmaschine.

anddill
2009-10-09, 14:12:29
Wirklich? Nee...! Hab zumindest noch kein solches Board gesehen.



Ich hatte mal zwei AMD790GX Boards (Foxconn und ASRock). Da konnte man Sideport + UMA oder nur UMA einstellen. Hat man dagegen nur Sideport aktiviert (ohne UMA) blieb der Bildschirm bei beiden Schwarz. ( Wieder so ne BIOS-Einstellung die für nichts gut ist :confused: ) Und bevor jemand fragt: Ja, Sideport war physikalisch vorhanden, da beide bei Sideport+UMA deutlich schneller waren, als nur mit UMA allein.

Ich sehe denn Sideport-Memory daher nicht als zusätzlichen Framebuffer, sondern nur als Zwischenspeicher zum Arbeitsspeicher an. Denn mehr scheint er auch nicht zu sein.

Meins hat Sideport:
http://geizhals.at/deutschland/a447175.html
Und ich hatte schon etliche AM2+ Boards mit Sideport in den Fingern, und bisher liefen die alle mit Sideport only.

LovesuckZ
2009-10-09, 14:39:09
Bei Tomshardware gibt es noch eine deutlichere Antwort von nVidia:

Nvidia: We're Staying in the Chipset Business (http://www.tomshardware.com/news/nvidia-gpu-graphics-chipset,8821.html)

Zafi
2009-10-09, 15:01:47
Und ich hatte schon etliche AM2+ Boards mit Sideport in den Fingern, und bisher liefen die alle mit Sideport only.

Hast du gerade gesagt, ich wäre zu blöd zum BIOS einstellen? :eek:

Fight!!! :mad:

Bei Tomshardware gibt es noch eine deutlichere Antwort von nVidia:

Nvidia: We're Staying in the Chipset Business (http://www.tomshardware.com/news/nvidia-gpu-graphics-chipset,8821.html)

Ok, dass beantwortet jetzt einige Fragen, die in diesem Thread aufgeworfen wurden.

Zum einen, dass nVidia wohl doch nicht ohne DMI einen Chipsatz für die Intel-Plattform bauen kann, so wie von AnarchX prophezeit. (Vielleicht ist nVidia auch einfach nur zu blöd dazu, um selbst darauf zu kommen, dass sie auch über den PCIe gehen können, anyway...)

Zum anderen, dass die Lizenzfrage wohl durch einen Rechtsstreit im nächsten Jahr geklärt wird. Es könnte also wie beim Sockel 775 laufen, dass nVidia erst dann für den Sockel 1156 und Sockel 1366 Chipsätze baut, wenn Intel schon längst den nächsten Sockel umsetzt. Mit anderen Worten ziemlich spät, wodurch nVidia Chipsätze im Intel-Segment ziemlich uninteressant werden.

StefanV
2009-10-09, 17:06:58
Wirklich? Nee...! Hab zumindest noch kein solches Board gesehen.
Gibts massig!
Zumindest mit AM3 Sockel, z.B. hier (http://www.asus.com/product.aspx?P_ID=QHbvGVB1mXmmD8qQ), bei AM2+ schauts nicht so toll aus.


Ich hatte mal zwei AMD790GX Boards (Foxconn und ASRock). Da konnte man Sideport + UMA oder nur UMA einstellen. Hat man dagegen nur Sideport aktiviert (ohne UMA) blieb der Bildschirm bei beiden Schwarz. ( Wieder so ne BIOS-Einstellung die für nichts gut ist :confused: ) Und bevor jemand fragt: Ja, Sideport war physikalisch vorhanden, da beide bei Sideport+UMA deutlich schneller waren, als nur mit UMA allein.
Ist wohl ein Problem vom BOard, das dann wohl doch keinen Sideport hatte oder was kaputt war.

Bei meinem DFI kann ichs einstellen, muss ich aber noch mal ausprobieren, habs erst seit gestern (und quasi gerad erst zum laufen gebracht)

Ich sehe denn Sideport-Memory daher nicht als zusätzlichen Framebuffer, sondern nur als Zwischenspeicher zum Arbeitsspeicher an. Denn mehr scheint er auch nicht zu sein.
Kann man sehen, wie man will, macht den Grafikchip auf jeden Fall etwas schneller und/oder es wird nicht auf den Hauptspeicher zugregriffen (ev. irgendwann für Server interessant)

_DrillSarge]I[
2009-10-09, 17:14:35
Stream ist wohl nicht gleich Stream.
funktioniert das überhaupt auf den igps? ich hab mal versucht barsWF damit laufen zu lassen und da ist gleich der gesamte rechner abgestürzt (790gx, mit meheren treibern probiert). ob das jetzt auch noch so ist, weiss ich nicht oder obs am programm lag.

Zafi
2009-10-09, 17:18:52
Gibts massig!
Zumindest mit AM3 Sockel, z.B. hier (http://www.asus.com/product.aspx?P_ID=QHbvGVB1mXmmD8qQ), bei AM2+ schauts nicht so toll aus.

Tatsächlich. Ich war schon ganz enttäuscht, weil ich dachte, da hätte sich von der 3200 zur 4200 garnichts getan.

Ist wohl ein Problem vom BOard, das dann wohl doch keinen Sideport hatte oder was kaputt war.

Nix, dat war alles ok. Aber teste du auch mal bei deinem.

LovesuckZ
2009-10-09, 18:13:30
In Bezug auf die neue Atom-generation

And this legal scuffle is whacking Nvidia's successful Ion chipset line--used in everything from Apple Macbooks to Hewlett-Packard Netbooks. But Nvidia will push on, bringing out a second generation of Ion silicon that will be redesigned to work with Intel's future Atom technology for Netbooks called Pine Trail.

"While we won't build an integrated chipset for that market, we have wonderful solution for providing our GPU technology. It will have substantially more performance than our current generation," Henry said. "We have different strategy for connecting GPUs for Pine Trail."

The new Atom Pine Trail silicon is a departure for Intel because it puts the graphics function onto the same piece of silicon as the main processor--an Intel first.

Henry said the new Ion technology will be legal-proofed from future Intel challenges. "Intel won't be able to block this particular product so consumers will have access to Nvidia technology for Pine Trail," he said.

http://news.cnet.com/8301-13924_3-10371092-64.html?part=rss&subj=news&tag=2547-1_3-0-20

AnarchX
2009-10-09, 18:22:50
Es ist durchaus logisch, dass die Hersteller die jetzt schon Ion-Designs haben, kein Downgrade auf eine SGX-IGP machen, wenn es auch dieser durch vorhandene Videobeschleunigung schwieriger für NV machen dürfte.

Im Endeffekt wäre es für NV vielleicht auch keine schlechte Idee sich über die Partner ein Inventory an FSB-Atoms anzulegen um hier auch noch Nachfrage über 2010 hinaus zu stillen. :D