PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - NVIDIA entwickelt Project Denver: ARM Desktop CPU


Seiten : [1] 2

dildo4u
2011-01-05, 22:26:44
http://www.engadget.com/2011/01/05/nvidia-announces-project-denver-arm-cpu-for-the-desktop/

NV PR
NVIDIA Announces "Project Denver" to Build Custom CPU Cores Based on ARM Architecture, Targeting Personal Computers to Supercomputers

NVIDIA Licenses ARM Architecture to Build Next-Generation Processors That Add a CPU to the GPU

LAS VEGAS, NV -- (Marketwire) -- 01/05/2011 -- CES 2011 -- NVIDIA announced today that it plans to build high-performance ARM® based CPU cores, designed to support future products ranging from personal computers and servers to workstations and supercomputers.

Known under the internal codename "Project Denver," this initiative features an NVIDIA® CPU running the ARM instruction set, which will be fully integrated on the same chip as the NVIDIA GPU.

This new processor stems from a strategic partnership, also announced today, in which NVIDIA has obtained rights to develop its own high performance CPU cores based on ARM's future processor architecture. In addition, NVIDIA licensed ARM's current Cortex™-A15 processor for its future-generation Tegra® mobile processors.

"ARM is the fastest-growing CPU architecture in history," said Jen-Hsun Huang, president and chief executive officer of NVIDIA. "This marks the beginning of the Internet Everywhere era, where every device provides instant access to the Internet, using advanced CPU cores and rich operating systems.

"ARM's pervasiveness and open business model make it the perfect architecture for this new era. With Project Denver, we are designing a high-performing ARM CPU core in combination with our massively parallel GPU cores to create a new class of processor," he said.

Warren East, ARM chief executive officer said, "NVIDIA is a key partner for ARM and this announcement shows the potential that partnership enables. With this architecture license, NVIDIA will be at the forefront of next generation SoC design, enabling the Internet Everywhere era to become a reality.

Win 8 wird ARM unterstützen.
http://www.microsoft.com/presspass/press/2011/jan11/01-05SOCsupport.mspx

Update:

http://img854.imageshack.us/img854/8323/002xd.jpg (http://imageshack.us/photo/my-images/854/002xd.jpg/)

http://www.4gamer.net/games/126/G012690/20110722062/screenshot.html?num=002


The combination of Nvidia's leadership in energy-efficient, high-performance processing and the new ARMv8 architecture will enable game-shifting breakthroughs in devices across the full range of computing - from smartphones through to supercomputers.

http://www.techpowerup.com/154357/ARM-Going-64-Bit-To-Compete-In-High-End-Desktop-Market.html

64bit und Single-Thread-Leistung.


Project Denver, our focus there is to supplement, add to arms capabilities by extending the arms architecture to segments in a marketplace that they're not, themselves, focused on. And there are some segments in the marketplace where single-threaded performance is still very important and 64 bit is vital. And so we dedicated ourselves to create a new architecture that extends the ARM instruction set, which is inherently very energy-efficient already, and extend it to high-performance segments that we need for our company to grow our market. And we're busily working on Denver. It is on track. And our expectation is that we'll talk about it more, hopefully, towards the end of next year. And until then, until then I'm excited, as you are.
http://seekingalpha.com/article/307194-nvidia-s-ceo-discusses-q3-2012-results-earnings-call-transcript?part=qanda

AwesomeSauce
2011-01-05, 22:42:04
Win 8 wird ARM unterstützen.
http://www.microsoft.com/presspass/press/2011/jan11/01-05SOCsupport.mspx
Ich denke DAS ist ja mal ein Meilenstein in der Windows-Geschichte:up:

Ailuros
2011-01-05, 22:42:25
Damit kann NV wohl nicht weiter fast am Rand der Toleranz eines Herstellung-prozesses nur fuer die GPU entwickeln.

Trap
2011-01-05, 22:44:20
Spannend. Gleich in mehrfacher Hinsicht:
a) Schafft Nvidia ein konkurrenzfähiges Design?
b) Wie ernst nimmt MS die ARM-Variante von Windows?
c) Wie spielt man die ganzen "The Way It's Meant To Be Played"-Spiele drauf? Machen sich die Hersteller wirklich den Aufwand dafür neue Versionen zu erstellen?

Hugo78
2011-01-05, 22:53:41
Na hoffentlich geht Microsoft die ARM Unterstützung auch ernsthaft an, nicht das sie sich nur auf rudimentäre Funktionen beschränken.

Ich will damit auch zocken können! ;)

Gauß
2011-01-05, 23:22:37
Selbst Prozessoren für mobile Geräte sind bereits so komplex das die ARM-Architektur kaum Effizienzvorteile gegenüber x86 aufweist.

Wie zum Geier will man da gegen x86 bei Hochleistungsrechnern konkurrieren können? IBM liefert mit den Power CPUs bereits den Beweis das man da nur in extremen Nieschenbereichen einen Markt finden kann.

dildo4u
2011-01-05, 23:40:36
Selbst Prozessoren für mobile Geräte sind bereits so komplex das die ARM-Architektur kaum Effizienzvorteile gegenüber x86 aufweist.

Das ist Quark du wirst auch 2011 keine Smartphones mit Atom oder Fusion sehen schon die brauchen zu viel Energie.

Das erste Dual Core Smartphone nutzt ARM.
http://www.anandtech.com/show/4089/lgs-optimus-2x-worlds-first-tegra-2-smartphone

Gauß
2011-01-05, 23:44:07
Das ist Quark du wirst auch 2011 keine Smartphones mit Atom oder Fusion sehen schon die brauchen zu viel Energie.

Das erste Dual Core Smartphone nutzt ARM.
http://www.anandtech.com/show/4089/lgs-optimus-2x-worlds-first-tegra-2-smartphoneWie währe es damit Beiträge zu lesen bevor du antwortest?

dildo4u
2011-01-05, 23:47:04
Das Konzept wird in der PR erklärt der ARM Part spart Strom bzw füttert den GPU Part,dieser übernimmt die massiven Rechenaufgaben,(Video,Flash,Games)das ist genau das Konzept was die Top 500 der Super Computer Liste anführt CPUs füttern GPUs.

Eggcake
2011-01-05, 23:56:44
Oha, das hört sich aber interessant an. Bin gespannt :)

Gauß
2011-01-06, 00:00:25
Das Konzept wird in der PR erklärt der ARM Part spart Strom bzw füttert den GPU Part,dieser übernimmt die massiven Rechenaufgaben,das ist genau das Konzept was die Top 500 der Super Computer Liste anführt CPUs füttern GPUs.Nur zu blöd dass eine CPU mindestenst zehn mal schneller als die schnellste existierende ARM-CPU sein muss um so einer Aufgabe zu genügen. Ganz zu schweigen davon dass z.B. "ein bisschen" mehr als 3 GByte adressierbarer RAM ganz angemessen währen.

Angenommen ARM+NVidia würde es tatsächlich schaffen eine CPU zu entwickeln und vor allem herzustellen, die etwa die Leistung einer fünf Jahre alten x86-64 CPU aufweist. Auf welcher Basis erlaubt sich dann die Behauptung das diese auch Energieffizienter sei? Was haben die mehr an Erfahrung und Wissen als IBM, die damit kläglich gescheitert sind?

RLZ
2011-01-06, 00:02:25
Win 8 wird ARM unterstützen.
http://www.microsoft.com/presspass/press/2011/jan11/01-05SOCsupport.mspx
Damit laufen die (meisten) Programme aber noch nicht.

fondness
2011-01-06, 00:04:31
Ich will damit auch zocken können! ;)

Und genau hier liegt das Problem. Windows nützt nichts ohne x86-Kompatibilität und damit ohne der enormen Softwarebasis.

dildo4u
2011-01-06, 00:11:12
Nur zu blöd dass eine CPU mindestenst zehn mal schneller als der schnellste existierende ARM-CPU sein muss um so einer Aufgabe zu genügen. Ganz zu schweigen davon dass z.B. "ein bisschen" mehr als 3 GByte adressierbarer RAM ganz angemessen währen.

Angenommen ARM+NVidia würde es tatsächlich schaffen eine CPU zu entwickeln und vor allem herzustellen, die etwa die Leistung einer fünf Jahre alten x86-64 CPU aufweist. Auf welcher Basis erlaubt sich dann die Behauptung das diese auch Energieffizienter sei? Was haben die mehr an Erfahrung und Wissen als IBM, die damit kläglich gescheitert sind?
GPU's sind wesentlich Energie Effizienter wenn ein Job (im Desktop Bereich z.b Video Flash) etc massiv Parallelisiert werden kann.

http://www.nvidia.de/object/nvidia-tesla-supercomputers-press-20101115-de.html

Gipsel
2011-01-06, 00:16:19
GPU's sind wesentlich Energie Effizienter wenn ein Job (im Desktop Bereich z.b Video Flash) etc massiv Parallelisiert werden kann.

http://www.nvidia.de/object/nvidia-tesla-supercomputers-press-20101115-de.html
Stimmt, das geht aber trotzdem vollkommen an der von Gauß aufgeworfenen Frage vorbei.

steve.it
2011-01-06, 00:20:53
BM liefert mit den Power CPUs bereits den Beweis das man da nur in extremen Nieschenbereichen einen Markt finden kann.
Was haben die mehr an Erfahrung und Wissen als IBM, die damit kläglich gescheitert sind?
Naja, du darfst nicht vergessen, dass außerhalb der kleinen (und damals noch kleineren) Apple Welt im Desktopsegment kaum Nachfrage nach Power-CPUs vorhanden war. Die Musik spielt(e) im Desktopsegment dort, wo Windows und Windows-Anwendungen liefen. Daher hätte wohl IBM noch so tolle CPUs entwicklen können und es hätte sich dennoch kaum etwas getan. Und für nur einen wirklichen Abnehmen in dem Desktopsegment (= Apple) und keiner direkten Konkurrenz wie zwischen AMD und Intel üblich, hat IBM bestimmt auch nicht das Maximum gegeben. Manch einer hat den G5 ja auch nur als ein "Abfallprodukt" (wenn auch gutes) bezeichnet, damit Apple mal wieder eine CPU bekommt.
Kommt jetzt aber Windows + Software auf andere Plattformen (oder verliert Windows an Bedeutung), dann kann sich das ändern. Aber das sagt sich so leicht ;)
Aber ich sehe es im Prinzip auch so wie du. Ich bezeifel ebenfalls, dass eine ARM CPU, die leistungsmäßig mit x86 mithalten kann (damit meine ich nicht die Atoms), noch so große Vorteile im Verbrauch hätte. Die Argumentation kommt ja meist aus der Richtung, dass alternative CPU-Architekturen deutlich weniger Altlasten als x86 mitschleppen und diese Altlasten eben Transistoren kosten. Nur wird dieser Anteil an Transistoren für Altlasten wohl weit überschätzt (zumindest im Desktopsegment).
Und die Geschichte alles an die GPU auszulagern sagt sich auch immer so leicht. So wurde doch schon bei Cell argumentiert.
Bin aber trotzdem gespannt. Ähnliche Gerüchte und Spekulationen gibt es übrigens auch in der Apple-Welt: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=499927
(Hier denke ich wird es aber bei SoCs für iPhone und iPad erstmal bleiben.)

PS:
Ich glaube im Supercomputerbereich verhaut ein aktueller Power die x86 CPUs böse - sowohl in Leistung als auch Energieeffizienz. Ich meine hier gibt es sogar irgendwo einen Thread dazu.

dildo4u
2011-01-06, 00:23:52
Stimmt, das geht aber trotzdem vollkommen an der von Gauß aufgeworfenen Frage vorbei.
Hä NV geht davon aus das Software immer weiter Parallelisiert wird,damit spielt es weniger ein Rolle das der ARM Part auf die Leistung der aktuellen X86 Prozzis aufschließt.Er muss im Prinzip nur die GPU füttern können.Ich denke schon das ein Quad ARM dafür reicht um das OS zu betreiben.UI,WebBrowser,Video,Flash läuft schon Heute alles auf der GPU.

Gipsel
2011-01-06, 00:30:36
Hä NV geht davon aus das Software immer weiter Parallelisiert wird,damit spielt es weniger ein Rolle das der ARM Part auf die Leistung der aktuellen X86 Prozzis aufschließt.Er muss im Prinzip nur die GPU füttern können.Ich denke schon das ein Quad ARM dafür reicht um das OS zu betreiben.UI,WebBrowser,Video,Flash läuft schon Heute alles auf der GPU.
Das Problem daran ist, daß immer ein gewisser Teil (der je nach Problem unterschiedlich groß ausfällt) jedes Programms prinzipiell nicht parallelisiert werden kann. Je schneller also der Parallelteil abgearbeitet wird, desto mehr limitiert wieder der sequentielle Part. Das läßt sich ziemlich einfach ausrechnen und darstellen (http://de.wikipedia.org/wiki/Amdahlsches_Gesetz). Man benötigt also auch schnelle CPUs für diesen Teil. Und genau darauf spielte Gauß an.

Bucklew
2011-01-06, 00:32:26
Angenommen ARM+NVidia würde es tatsächlich schaffen eine CPU zu entwickeln und vor allem herzustellen, die etwa die Leistung einer fünf Jahre alten x86-64 CPU aufweist. Auf welcher Basis erlaubt sich dann die Behauptung das diese auch Energieffizienter sei? Was haben die mehr an Erfahrung und Wissen als IBM, die damit kläglich gescheitert sind?
Tja du hast halt den Denkfehler, dass die bisherigen ARM-CPUs massiv in Richtung Handy entwickelt wurden. Also sehr klein sind + sehr wenig Leistungsaufnahme haben. Wenn man das Design dahingehend anpasst, dass die CPU auch deutlich größer sein darf und sich auch mehr Leistung genehmigen darf, kann man sehr schnell auf einem sehr ordentlichen Leistungsniveau sein.

Gipsel
2011-01-06, 00:38:48
Tja du hast halt den Denkfehler, dass die bisherigen ARM-CPUs massiv in Richtung Handy entwickelt wurden. Also sehr klein sind + sehr wenig Leistungsaufnahme haben. Wenn man das Design dahingehend anpasst, dass die CPU auch deutlich größer sein darf und sich auch mehr Leistung genehmigen darf, kann man sehr schnell auf einem sehr ordentlichen Leistungsniveau sein.
Und was Du dabei vergißt, ist, daß bestimmte leistungssteigernde Features relativ zum Leistungsgewinn überproportional Transistoren und Strom kosten. Nicht umsonst haben Intel und jetzt auch AMD abgespeckte CPUs entwickelt, die deutlich Performance opfern, um kleiner und sparsamer zu werden. Das funktioniert umgekehrt genau so ;)

fondness
2011-01-06, 00:40:23
Wenn man das Design dahingehend anpasst, dass die CPU auch deutlich größer sein darf und sich auch mehr Leistung genehmigen darf, kann man sehr schnell auf einem sehr ordentlichen Leistungsniveau sein.

Und genau DAS, was du hier so lapidar erzählst, erfordert gewaltige Mengen an know-how und RnD. Wir sind hier nicht bei GPUs wo man Einheiten einfach parallelisieren kann und so die Leistung linear mit wächst. ;)

Da ist der umgekehrte Weg den AMD und Intel gehen natürlich bedeutend einfacher.

Gipsel
2011-01-06, 00:46:02
Da ist der umgekehrte Weg den AMD und Intel gehen natürlich bedeutend einfacher.Nun, einfach mit einem leeren Blatt anzufangen und ein wenig Ballast über Bord zu werfen kann auch helfen.
Allerdings hast Du insofern Recht, daß in x86 inzwischen so viel Arbeit gesteckt wurde, daß es auch mit einem besseren Konzept schwer wird, das mal so eben deutlich zu überflügeln. Zumindest im angestammten Gebiet des Mainstream-PC aber auch in dem inzwischen dazugekommenem Feld der High-End Performance.

dildo4u
2011-01-06, 00:55:51
NV Blogpost

Denver frees PCs, workstations and severs from the hegemony and inefficiency of the x86 architecture. For several years, makers of high-end computing platforms have had no choice about instruction-set architecture. The only option was the x86 instruction set with variable-length instructions, a small register set, and other features that interfered with modern compiler optimizations, required a larger area for instruction decoding, and substantially reduced energy efficiency.

http://blogs.nvidia.com/2011/01/project-denver-processor-to-usher-in-new-era-of-computing/

Ist AMD und Intel da nicht im Nachteil wenn sie x86 mitschleppen?

Bucklew
2011-01-06, 00:57:30
Und was Du dabei vergißt, ist, daß bestimmte leistungssteigernde Features relativ zum Leistungsgewinn überproportional Transistoren und Strom kosten. Nicht umsonst haben Intel und jetzt auch AMD abgespeckte CPUs entwickelt, die deutlich Performance opfern, um kleiner und sparsamer zu werden. Das funktioniert umgekehrt genau so ;)
Stimmt. Hat aber null mit dem Thema zu tun, denn hier geht es nicht um abgespeckte CPUs von AMD oder Intel, sondern um aufgebohrte CPUs von ARM.

Aber du scheinst mir ja zuzustimmen, sag das doch einfach ;)

Gipsel
2011-01-06, 01:13:00
@Bucklew:
Wenn Du mal meinen Post liest, wirst Du festellen, daß es um die Implementation von leistungssteigernden Features in bisher eher schwachbrüstige CPUs ging. :rolleyes:

Gipsel
2011-01-06, 01:14:36
NV Blogpost



http://blogs.nvidia.com/2011/01/project-denver-processor-to-usher-in-new-era-of-computing/

Ist AMD und Intel da nicht im Nachteil wenn sie x86 mitschleppen?
Du willst jetzt nicht wirklich nv-PR als Argument anführen, oder? Ansonsten steht das Passende schon direkt über Deinem Post. ;)

Trap
2011-01-06, 01:20:25
Ist AMD und Intel da nicht im Nachteil wenn sie x86 mitschleppen?
Nein. Das ist PR-Bullshit von Nvidia. Es sind bei aktuellen Desktop-CPUs maximal 5% Transistor/Leistungsbedarf, das ist nichts, was über Konkurrenzfähigkeit entscheiden würde.

Registerbedarf ist seit AMD64 erledigt, variable-length instructions brauchen weniger Platz im Cache (was die größeren Dekoder teilweise kompensiert) und die ominösen "other features that interfered with modern compiler optimizations" kauf ich denen nicht ab. Sie nennen ja schon vorher nur fiktive Nachteile, da wird sich hinter dem unkonkreten "other features" nichts schlagkräftigeres verstecken.

Natürlich kann man auch mit ARM-Befehlssatz leistungsfähige CPUs bauen, eventuell auch mit 5% weniger Transistoren als mit AMD64, aber Nvidia muss erstmal beweisen, dass sie das auch gemacht haben. Intel hat im ersten Versuch ja auch keine sinnvolle Grafikkarte hinbekommen...

dildo4u
2011-01-06, 01:26:35
Nein. Das ist PR-Bullshit von Nvidia. Es sind bei aktuellen Desktop-CPUs maximal 5% Transistor/Leistungsbedarf, das ist nichts, was über Konkurrenzfähigkeit entscheiden würde.


Dann frag ich mich warum Atom so eine Krücke ist bzw so viel Strom für die gebrachte Leistung braucht.Das ist ja schon eine neu Entwicklung und kein Derivat.

Gestrandet
2011-01-06, 01:27:39
variable instruction length ist aber in der tat ein problem (ist das bei arm inzwischen nicht auch eins, mit den ganzen erweiterungen?). register pressure dürfte mit x64 kein sooo großes problem mehr sein, schattenregister gibts auch schon länger, und das (unfreiwilig?) humoristische design des x87-registerstacks quält uns auch nicht mehr wirklich.
andererseits sind die arm dinger schon verdammt sparsam. ob das echt nur am decoder hängt?

Trap
2011-01-06, 01:41:49
Dann frag ich mich warum Atom so eine Krücke ist bzw so viel Strom für die gebrachte Leistung braucht.Das ist ja schon eine neu Entwicklung und kein Derivat.
Der Intel Atom ist kein Desktopprozessor. Außerdem glaub ich, dass da der Auftrag an die Entwickler ungefähr so war: Macht mal so schnell wie möglich einen billig zu produzierenden x86-Prozessor. Dass dabei kein Performancewunder rauskommt, überrascht nicht ;)

Tesseract
2011-01-06, 02:15:06
Nur zu blöd dass eine CPU mindestenst zehn mal schneller als die schnellste existierende ARM-CPU sein muss um so einer Aufgabe zu genügen.
was hat das mit "blöd" zutun? bisherige ARM-CPUs sind ultra-low-power modelle die um ganze größenordnungen weniger strom brauchen als durchschnittliche x86-desktop-CPUs.
natürlich kommen die nichtmal ansatzweise an die performance. dafür wurden sie auch nicht entwickelt.

nvidia wird gegen intel aber das selbe problem haben wie amd seit jahren: intel hat einfach die mit abstand modernsten fertigungsstätten der welt. nvidia kann bei keinem anderen manufacturer vergleichbar moderne CPUs fertigen lassen, selbst wenn das design noch so toll ist. und intel wird sie ihnen sicher nicht bauen. :D

Mancko
2011-01-06, 02:16:33
Kurz und knapp - schöne News. Ich bin gespannt.

Way to go Nvidia!

An Innovationskraft mangelt es denen nicht und das finde ich gut. Im Endeffekt ist alles willkommen was dazu führt, dass Intel oder X86 im allgemeinen an Marktmacht verliert.

LovesuckZ
2011-01-06, 02:22:00
was hat das mit "blöd" zutun? bisherige ARM-CPUs sind ultra-low-power modelle die um ganze größenordnungen weniger strom brauchen als durchschnittliche x86-desktop-CPUs.
natürlich kommen die nichtmal ansatzweise an die performance. dafür wurden sie auch nicht entwickelt.

So sieht es aus. Und wenn man dann bedenkt, dass solche SoC heutzutage soviele Möglichkeiten erlauben, sind x86 reinste Stromverschwender. Selbst AMD's sparsamtes Modell benötigt noch Unmengen mehr als nVidia's Tegra2 Modell alleine beim IDLEN. Die ARM CPUs haben also noch viel potential.

Und nVidia sollte man perse nicht unterschätzen. Mit Fermi haben sie gezeigt, wie man aus dem Nichts etwas umsetzen kann, für das man sie ebenfalls nicht fähiger eingestuft hat als die Konkurrenz. Und mit Tegra2 sind sie ebenfalls überraschend sofort auf ein DualCore A9 Design gegangen und bieten als Neuling in diesem Gebiet sogar schon seit Monaten fertige Produkte an.

Ich ebenfalls freu mich, dass das x86 Monopol auch für Netbooks+ durchbrechen werden wird. Eine Entwicklung, die jedem zugute kommt, da es durch Konkurrenz eben immer auch einen deutlich schnelleren Fortschritt gibt.

tombman
2011-01-06, 02:44:08
Einfach geil, Huang hats drauf ;)

Die drücken ihre "Gpu-Borg-Technik" in alles rein, was irgendwie nützlich ist :up:

=Floi=
2011-01-06, 02:44:32
ich kann mir nicht vorstellen, dass das hier so toll einschlagen wird. warum baut nv nicht auch eine x86 cpu und nimmt die kompatibilität und vorhandene software mit?!
es ist heutzutage viel zu teuer bei 0 anzufangen. (sieht man leider auch schön an OCL und DCompute)

=Floi=
2011-01-06, 02:50:02
So sieht es aus. Und wenn man dann bedenkt, dass solche SoC heutzutage soviele Möglichkeiten erlauben, sind x86 reinste Stromverschwender. Selbst AMD's sparsamtes Modell benötigt noch Unmengen mehr als nVidia's Tegra2 Modell alleine beim IDLEN. Die ARM CPUs haben also noch viel potential.

Und nVidia sollte man perse nicht unterschätzen. Mit Fermi haben sie gezeigt, wie man aus dem Nichts etwas umsetzen kann, für das man sie ebenfalls nicht fähiger eingestuft hat als die Konkurrenz. Und mit Tegra2 sind sie ebenfalls überraschend sofort auf ein DualCore A9 Design gegangen und bieten als Neuling in diesem Gebiet sogar schon seit Monaten fertige Produkte an.

Ich ebenfalls freu mich, dass das x86 Monopol auch für Netbooks+ durchbrechen werden wird. Eine Entwicklung, die jedem zugute kommt, da es durch Konkurrenz eben immer auch einen deutlich schnelleren Fortschritt gibt.


:facepalm: was für eine grüne wolke!

NV war schon immer stark bei gpus. da haben sie schon sehr fähige leute und fermi wurde NIE unterschätzt. Nur kommt eben nichts dabei raus, wenn der fertigunsprozess nicht so funktioniert wie er soll. Das wusste sicherlich auch nv und die hatten ja auch vorher schon ihre berechnungen wo fermi mit welchem takt aufschlagen dürfte.



X86 ist noch immer das beste was es gibt. die schier unendliche masse an software ist einfach unschlagbar.

LovesuckZ
2011-01-06, 02:54:52
NV war schon immer stark bei gpus. da haben sie schon sehr fähige leute und fermi wurde NIE unterschätzt. Nur kommt eben nichts dabei raus, wenn der fertigunsprozess nicht so funktioniert wie er soll. Das wusste sicherlich auch nv und die hatten ja auch vorher schon ihre berechnungen wo fermi mit welchem takt aufschlagen dürfte.

Es geht hier nicht um Fertigungsprozesse. Sondern um die Technologie. Und du wärst der einzige auf diesem Planeten, der außerhalb von nVidia angenommen hat, dass man die Konkurrenz bzgl. Tessellationumsetzung um 2 Generationen vorraus sein wird.


X86 ist noch immer das beste was es gibt. die schier unendliche masse an software ist einfach unschlagbar.

Fortschritt entsteht durch Ideen und Risiken. Davon abgesehen kann man eine x86 Lizenz nicht mal soeben bei Ebay erwerben. Und Intel wird einen Teufel tun sich mit einem Konkurrenten einzulassen, der mit seinen GPUs deren Umsatzbereiche angreift.
Die ganzen SoCs mit ARM Prozessoren zeigen, dass sie konkurrenzfähig werden. Es ist der nächste Schritt, dass sie nun auch andere Bereiche angreifen. Und dazu benötigt man Firmen, die das Risiko nicht scheuen.

Tesseract
2011-01-06, 03:10:02
warum baut nv nicht auch eine x86 cpu und nimmt die kompatibilität und vorhandene software mit?!
weil sie dafür eine lizenz brauchen, die intel ihnen natürlich nicht geben wird.
der x86 markt ist ein reines monopol. keiner kommt rein und die die drin sind (de facto eigentlich nur noch amd) hält intel sich wie einen schoßhund damit die kartellbehörden sie nicht zerschlagen.

=Floi=
2011-01-06, 03:15:41
die tesselationsleistung ist etwas für die entwickler und für zukünftige games. die haben auch noch deswegen so viel von den einheiten eingebaut, weil es so günstig war. (und ati ritt ja auch schon jahre drauf rum)
Es gibt an fermi genug andere bereiche die sehr gut geraten sind und die in der praxis auch etwas bringen. Darauf lege ich mehr wert, weil das gesamtkonzept stimmen muß um eine gute auf die beine stellen zu können! viel interesannter finde ich auch das neue frontend und die ganzen veränderungen in den details die fermi so stark machen. Das überarbeitete speichermanagement finde ich da auch erheblich wichtiger wie die olle tess-leistung. Es ist schön, dass nv darauf setzt und es so gut supportet, aber wirklich relevant ist es noch nicht.


wahrscheinlich liegt es auch wirklich nur an der nicht vorhanden x86er lizenz und bei arm bekommt man alles auf einem silbertablett serviert. Ansonsten würde man sicherlich auch auf x86 setzen.


---
du redest auch von der so hohen strohmaufnahme, aber von der gigantischen cpu-leistung die dadurch umgesetzt wird redest du nicht! schau dir an wo ein 5ghz SB heute steht und wo man 5 oder 10 jahren gestanden ist. Schau dir an was heute möglich ist.

Tesseract
2011-01-06, 03:19:51
wahrscheinlich liegt es auch wirklich nur an der nicht vorhanden x86er lizenz und bei arm bekommt man alles auf einem silbertablett serviert.

naja, nicht nur. aus technischer sicht ist bei einem neuen design ARM sicher eine sinnvollere basis als x86. im grunde wär fast alles besser als x86. allerdings wär x86 aus kompatiblitätsgründen natürlich sowieso die erste wahl, wenn man es verwenden könnte.

dildo4u
2011-01-06, 03:24:59
ich kann mir nicht vorstellen, dass das hier so toll einschlagen wird. warum baut nv nicht auch eine x86 cpu und nimmt die kompatibilität und vorhandene software mit?!
es ist heutzutage viel zu teuer bei 0 anzufangen. (sieht man leider auch schön an OCL und DCompute)
Android und iOS hatten genug Apps und Games innerhalb extrem kurzer Zeit am Start.UE 3.0 ist mit Tegra 2 kein Problem selbst auf dem 1 Core IPad läufts.

http://video.golem.de/games/4110/infinity-blade-spielszenen-%28gameplay%29.html

Die Konsolenhersteller müssen das sogar alle 5-7 Jahre leisten komplett neue Plattform und Entwickler überzeugen 30Mio@ Spiele dafür entwickeln klappt.Ich wette alle App's die Cosumer brauchen sind innerhalb von Monaten da.Wenn man nur alle Android Geräte nimmt dürfte die Verbreitungsgeschwindigkeit jede aktuelle Konsole bei weitem übertreffen.

LovesuckZ
2011-01-06, 03:27:17
die tesselationsleistung ist etwas für die entwickler und für zukünftige games. die haben auch noch deswegen so viel von den einheiten eingebaut, weil es so günstig war. (und ati ritt ja auch schon jahre drauf rum)
Es gibt an fermi genug andere bereiche die sehr gut geraten sind und die in der praxis auch etwas bringen. Darauf lege ich mehr wert, weil das gesamtkonzept stimmen muß um eine gute auf die beine stellen zu können! viel interesannter finde ich auch das neue frontend und die ganzen veränderungen in den details die fermi so stark machen. Das überarbeitete speichermanagement finde ich da auch erheblich wichtiger wie die olle tess-leistung. Es ist schön, dass nv darauf setzt und es so gut supportet, aber wirklich relevant ist es noch nicht.

Merkst du nicht, dass die Tessellationleistung nur deswegen so bemerkenswert ist, weil nVidia Konzepte umgesetzt hat, die ein erhebliches Risiko birgten? Wer innovativ sein will, muss eben Risiken eingehen.
Und da nVidia nunmal in diesem Leben an keine x86 Lizenz herankommt, nehmen sie die aus ihrer Sicht interessanteste Alternativlösung.


du redest auch von der so hohen strohmaufnahme, aber von der gigantischen cpu-leistung die dadurch umgesetzt wird redest du nicht! schau dir an wo ein 5ghz SB heute steht und wo man 5 oder 10 jahren gestanden ist. Schau dir an was heute möglich ist.

Benötige ich diese "gigantische CPU-Leistung" etwas für das Surfen? Für das Schreiben von Texte und dem Entwerfen von Präsentationen? Für das Lesen von ePaper und eBooks?
Deine "gigantische" CPU-Leistung wird mit einem Aufwand erreicht, der bald ins absurde abgleitet: Für 2D zu aufwendig, für 3D zu langsam. Der Mittelweg schein lange schon nicht mehr erreichbar zu sein. Selbst mit allen Stromsparmaßnahmen benötigt ein SandyBridge Prozessor noch das 10-100 fache von einem ARM SoC Design ala Tegra2 beim Nichtstun...

=Floi=
2011-01-06, 04:25:26
Android und iOS hatten genug Apps und Games innerhalb extrem kurzer Zeit am Start.UE 3.0 ist mit Tegra 2 kein Problem selbst auf dem 1 Core IPad läufts.

http://video.golem.de/games/4110/infinity-blade-spielszenen-%28gameplay%29.html

Die Konsolenhersteller müssen das sogar alle 5-7 Jahre leisten komplett neue Plattform und Entwickler überzeugen 30Mio@ Spiele dafür entwickeln klappt.Ich wette alle App's die Cosumer brauchen sind innerhalb von Monaten da.Wenn man nur alle Android Geräte nimmt dürfte die Verbreitungsgeschwindigkeit jede aktuelle Konsole bei weitem übertreffen.

man kann keine kleinen apps mit (server) software für ein OS vergleichen. der apple app store ist auch eine goldgrube und dafür ist entwickeln einfach sehr viel attraktiver.
genau darin liegt auch ein problem. kein betreiber von leistungshungriger/spezieller software wird von x86 auf arm umsteigen. Das kannst du nicht bezahlen (weil dort die stückzahlen viel kleiner sind) und ist wahrscheinlich sogar unnütz. Du musst erst einmal einen xenon s mit 45 watt schlagen um mit dem argument des strom sparens punkten zu können. strom ist in der industrie kein wirkliches problem. Zeit dagegen schon.
Wenn alles so toll wäre, dann hätten wir ja jetzt schon OCL, CUDA und DC programme für die GPU. Es gibt quasi nichts.

Es ist auch toll, wenn EIN (wichtiges/sinnvolles) programm nicht nutzbar ist. da nützt die beste platform nichts. Die cortal consors und postbank bank software gibt es nur für das ios. was soll ich nun mit android? (auch wenn dort das system offener und teils auch besser ist? :rolleyes: )

android wird auch immer mehr eine flickschusterei, wenn man schon gucken muß welche geräte und welcher software stand nun für die software benötigt wird:
http://www.computerbase.de/news/consumer-electronics/kommunikation/smartphones/2010/dezember/google-maps-for-mobile-5-vor-dem-start/


auf den konsolen läuft quasi nichts außer die spiele und für diese gibt es oft auch schon eine fertige engine. gibt es so etwas für office auch, wo excel und word auf der gleichen engine aufbauen? :rolleyes: :P :wink:

dildo4u
2011-01-06, 04:53:13
auf den konsolen läuft quasi nichts außer die spiele und für diese gibt es oft auch schon eine fertige engine. gibt es so etwas für office auch, wo excel und word auf der gleichen engine aufbauen? :rolleyes: :P :wink:
MS hat diese Anwendungen ebend auf der CES Pressekonferenz auf ARM laufend gezeigt.Wie gesagt für den Durchschnitts Cosumer wird alles am Start sein zum Launch von Win 8.

Tesseract
2011-01-06, 05:12:13
kein betreiber von leistungshungriger/spezieller software wird von x86 auf arm umsteigen.

wenn die schnittstellen von windows und den diversen libs die selben bleiben gehst du im idealfall einmal mit dem arm-compiler drüber und fertig.
ein iOS-programm musst du erst komplett neu entwerfen (interface, einsatzzweck usw.) und dann meist weite teile neu schreiben (umgebung, schnittstellen usw.)

der vergleich hinkt gewaltig.

hell_bird
2011-01-06, 05:13:08
Mal ganz ehrlich, welche Programme würdet ihr vermissen?

- Wenn Microsoft Windows für ARM herausbringt, werden wahrscheinlich alle Microsoftprogramme auch auf der Plattform verfügbar sein
- OpenSource lässt sich sowieso auf jeder erdenklichen Plattform kompilieren
- .net und Java lässt sich wohl out of the box ausführen
- Das halbe Leben spielt sich sowieso im Browser ab
- Die Spieleenginehersteller werden es sich nicht nehmen lassen ihr Zeug auf die Nvidia Plattform zu portieren
- Adobe ist inzwischen auch darin geübt seine Sachen zu portieren

Ich habe wirklich lange darüber nachgedacht, aber mir ist kein für mich wichtiges Programm eingefallen, das es nicht in irgendeiner Form für mehrere Plattformen gibt

Tesseract
2011-01-06, 05:17:03
- Adobe ist inzwischen auch darin geübt seine Sachen zu portieren
ahahahahhahahahahhaha der war gut. :D

Bucklew
2011-01-06, 09:09:40
Wenn Du mal meinen Post liest, wirst Du festellen, daß es um die Implementation von leistungssteigernden Features in bisher eher schwachbrüstige CPUs ging. :rolleyes:
Nö, eigentlich ging es zum Großteil um the other way round. Und das eine Desktop-ARM-CPU durchaus überproportional Transistoren braucht - wo ist da das Problem? Genau darum geht es doch in diesem Projekt.

Simon Moon
2011-01-06, 09:24:34
Ob NVidia das auch im Hinblick auf die nächste Konsolengeneration entwickelt? Sowas wie "cell" von NV statt Sony designt, würde wohl tatsächlich was reissen.

Hugo78
2011-01-06, 09:44:37
Ich habe wirklich lange darüber nachgedacht, aber mir ist kein für mich wichtiges Programm eingefallen, das es nicht in irgendeiner Form für mehrere Plattformen gibt

Ja und id Software und Crytech unterstützen ja simultantes arbeiten/entwickeln auf PS3, Xbox, PC und Mac (zumindest id Tech 5).

ARM soll sich ja garnicht soweit von x86 unterscheiden, so wie ich das bisher mitbekommen habe.
Kann also nicht so schwer sein.

fondness
2011-01-06, 10:11:55
So sieht es aus. Und wenn man dann bedenkt, dass solche SoC heutzutage soviele Möglichkeiten erlauben, sind x86 reinste Stromverschwender. Selbst AMD's sparsamtes Modell benötigt noch Unmengen mehr als nVidia's Tegra2 Modell alleine beim IDLEN. Die ARM CPUs haben also noch viel potential.


Und wo glaubst du liegt die Leistungsfähigkeit eines Tegra2 im Vergleich zu einem Fusion auf Bobcat-Basis?

AnarchX
2011-01-06, 10:27:36
Mal ganz ehrlich, welche Programme würdet ihr vermissen?

- Wenn Microsoft Windows für ARM herausbringt, werden wahrscheinlich alle Microsoftprogramme auch auf der Plattform verfügbar sein
- OpenSource lässt sich sowieso auf jeder erdenklichen Plattform kompilieren
- .net und Java lässt sich wohl out of the box ausführen
- Das halbe Leben spielt sich sowieso im Browser ab
- Die Spieleenginehersteller werden es sich nicht nehmen lassen ihr Zeug auf die Nvidia Plattform zu portieren
- Adobe ist inzwischen auch darin geübt seine Sachen zu portieren

Ich habe wirklich lange darüber nachgedacht, aber mir ist kein für mich wichtiges Programm eingefallen, das es nicht in irgendeiner Form für mehrere Plattformen gibt

Gerade diese Veränderung in der Software-Landschaft erlaubt wohl Nvidia das ARM-Konzept zu verfolgen. Im Endeffekt wird man wohl im direkten Vergleich keine Chance gegen einen Haswell oder Bulldozer 3 haben, aber das im Gesamtpaket mit leistungsfähiger GPU-IP ergibt sich ein konkurrenzfähiges Produkt.

So könnte wohl dann ein möglicher Verbund aus hochleistungs ARM-Cores und Cuda Cores aussehen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7623791#post7623791

Gipsel
2011-01-06, 10:35:39
Nö, eigentlich ging es zum Großteil um the other way round. Und das eine Desktop-ARM-CPU durchaus überproportional Transistoren braucht - wo ist da das Problem? Genau darum geht es doch in diesem Projekt.
Bucklew, mir ist das zu blöd darüber zu streiten. Bitte nehme aber zur Kenntnis, daß ich sehr wohl weiß und auch verstehe, was ich geschrieben habe. Darüber brauchst Du mich nicht zu belehren! :rolleyes:

Und wo das Problem ist? Nun, wenn man überproportional Transistoren (und Stromverbrauch) in Mehrperformance investiert, was passiert dann wohl mit der Energieeffizienz?

iFanatiker
2011-01-06, 11:25:12
Dann frag ich mich warum Atom so eine Krücke ist bzw so viel Strom für die gebrachte Leistung braucht.Das ist ja schon eine neu Entwicklung und kein Derivat.

Der Atom wurde von Intel bisher gar nicht unter den Gesichtspunkt Leistung pro Watt entwickelt. Es waren nur drei Punkte wichtig: die CPU sollte möglichst günstig in der Herstellung sein, dabei x86 Kompatibel bleiben UND so positioniert werden, daß es keine kannibalisierung von CPU Modellen mit noch höher Marge gibt.

AnarchX
2011-01-06, 11:34:43
Bei Atom sieht man durchaus eine Orientierung nach Pro-Watt-Leistung, sonst hätte man noch weiter vereinfacht und den Takt deutlich erhöht.

iFanatiker
2011-01-06, 11:49:26
Selbst mit allen Stromsparmaßnahmen benötigt ein SandyBridge Prozessor noch das 10-100 fache von einem ARM SoC Design ala Tegra2 beim Nichtstun...

Äpfel mit Birnen Vergleich. Von einen heutigen ARM SoC für ein Smartphone kannst du eben nicht auf den Verbrauch eines solchen Designs für größere Systeme schließen. Ein SB ist eben von der CPU als auch der GPU eben 10 mal Leistungsfähiger als ein heutiges ARM SoC Design wie der Tegra 2. Daneben...ob nun im Desktop Bereich ein Gerät 500 Mikrowatt Idle oder 5-6 Watt verbraucht recht egal. Dazu liegt so ein SB ULV in einen Subnotebook, wenn man mal einfach den Vebrauch vom Bildschirm, Arbeitsspeicher und anderen Kramm abzieht, eben auch nur vielleicht schon jetzt bei 5 Watt oder sogar drunter. Der neue Z-Atoms SoC liegt übrigens im C6 Idle State bei 100 Mikrowatt. Das Problem ist aber hier, daß die klassichen Desktops OS auch nicht ausgerichtet sind auf einen möglichst geringen Verbrauch, was eben bei entsprechenden mobilen bzw. embedded OS anders ist.

Bei Atom sieht man durchaus eine Orientierung nach Pro-Watt-Leistung, sonst hätte man noch weiter vereinfacht und den Takt deutlich erhöht.

Natürlich spielte diese Dimmension auch eine Rolle, aber es waren eben nicht der wichtige Faktor und den anderen drei Faktoren klar untergeordnet. Hat man noch am ehesten am Anfang an der Auswahl des Chipsatzes gesehen.
Ist doch genauso wie die Entscheidung dem Atom bisher keine bessere IGP zu verpassen. Es ist ja nicht so, daß Intel z. B. für den Pineview keine bessere IGP hingekriegt hätte. War eine rein produktpolitische Entscheidung da ein Derivat der GMA950 weiter zu nutzen. Sollte der Druck größerer Werden kann Intel hier jederzeit aufdrehen.

Auch eine Bestätigung für meine These sind die Z-Modelle. Hier hat Intel aber auch den Preis entsprechend angepasst.

Bucklew
2011-01-06, 12:25:38
Und wo das Problem ist? Nun, wenn man überproportional Transistoren (und Stromverbrauch) in Mehrperformance investiert, was passiert dann wohl mit der Energieeffizienz?
Auch du scheinst noch nicht verstanden haben, dass es bei dieser CPU (anders als bisher bei ARM) nicht so sehr um Energieeffizenz geht. Ist bei einer Desktop-CPU auch nicht so wichtig.

Das man mit dem ersten Wurf direkt auf Leistung einer Intel Extreme CPU liegt ist sicherlich nicht zu erwarten, ob man von der Effizenz auf dem Niveau von Intel/AMD liegt wäre schon nicht schlecht, ist aber auch kein Muss.

Bucklew, mir ist das zu blöd darüber zu streiten. Bitte nehme aber zur Kenntnis, daß ich sehr wohl weiß und auch verstehe, was ich geschrieben habe. Darüber brauchst Du mich nicht zu belehren! :rolleyes:
Ah, getroffene Hunde werden aggressiv und bellen.

Ich markiere mal den o.t.-Anteil an deinem Post und damit hat sich die Sache für mich erledigt. Offensichtlich weißt du nicht wirklich, was du schreibst:
Und was Du dabei vergißt, ist, daß bestimmte leistungssteigernde Features relativ zum Leistungsgewinn überproportional Transistoren und Strom kosten. Nicht umsonst haben Intel und jetzt auch AMD abgespeckte CPUs entwickelt, die deutlich Performance opfern, um kleiner und sparsamer zu werden. Das funktioniert umgekehrt genau so ;)

Dural
2011-01-06, 12:38:23
das ist Blödsinn, zb. ist ein Atom Energie technisch DEUTLICH ineffizienter als ein Core 2 Duo.


Beim Atom zählt nur eins: halbwegs vernünftige Leistung bei geringsten kosten. Und das dürfte bei NV und diesem neuen Projekt sicher nicht im vordergrund stehen! (wann stand das schon jemals bei NV im vordergrund?!?)


"Breiter" mit wenig takt wird immer Effizieter Arbeiten als "kleiner" und mehr Takt für die selbe Leistung X


Das problem ist halt nur das "takt" bis zu einem gewissen Punkt quasi kostenlos ist, man erhöht nur die Leistungsaufnahme des Chips, die Herstellungs-kosten bleiben aber fast gleich. Genau wegen dieser tatsache wird das von den meisten Hersteller auch ausgenütze, besonders gerade bei Produkte die im High-End bereich platziert werden. Aber so lange die Leute NUR nach mehr Leistung bei Güstigem Preis schreien wird sich das auch nie ändern... (wie grün die Welt doch tatsächlich ist sieht man genau an solchen sachen immer wider...)


Aber ich finde es amüsant wie so eine ankündigung wo eigentlich bis jetzt noch nichts dahinter steht so ein reges interesse erzeugt... und es sind immer die selben User und das immer mit der gleichen Meinung Pro / Negativ...

stickedy
2011-01-06, 13:24:28
Also wir sollten mal die Windows 8 ARM-Diskussion von der nVidia-ARM-Diskussion trennen.

Die Frage der Windows 8 ARM Unterstützung und der Erfolg dergleichen hängt nicht von nVdia ab, da es erstens noch mehr als genug andere Hersteller mit entsprechenden ARM-Prozessoren geben wird (TI, Qualcomm, Samsung, Renesas etc.) - ganz nebenbei bemerkt auch mit schnelleren GPUs - und zweitens der Erfolg auch massgeblich von anderen Faktoren abhängt. Standard-Programme sehe ich auch nicht als wirkliches Problem an, Treiber hingegen schon. Klar, ist letzlich auch nur ein Neukompilieren, aber wenn man sich mal die 64-Bit-Treiberpolitik von vielen Herstellern für ältere Hardware anschaut, dann kann man sich sehr gut vorstellen wie bescheiden die ARM-Unterstützung am Anfang ausschauen wird. Gut dafür werden natürlich viele Funktionen von SoCs selber abgedeckt und für die gibt es dann auch (hoffentlich) entsprechende Treiber, aber bei Peripherie-Geräten wie Drucker und Scanner sieht es dann schon düsterer aus... Anyway, das wird sich entscheiden und ist hier auch weder das richtige Diskussionsforum noch der richtige Thread.


Ob nVidia Erfolg haben wird, hängt wohl vor allem davon ab, wie schnell ihre Lösung wirklich wird. nVidia spricht ja eindeutig von "personal computers and servers to workstations and supercomputers". Das ist also eindeutig und ausdrücklich keine "energie-effiziente" Lösung, die nur für's surfen und die Textverarbeitung reichen soll - da hätte man vermutlich auch zu viel Konkurrenz, weil dafür taugen die anderen ARM-Implementierungen letztlich natürlich genauso - sondern im Gegenteil für Märkte bestimmt wo man Leistung ohne Ende braucht. Und da hört es aber dann auch auf mit der problemlosen Neukompilierung, denn da wird normalerweise ein bestimmtes Programm gebraucht, dass meistens schon vorhanden ist und auf eine ganz bestimmte Architektur optimiert ist. Ob das nun Software für wissenschaftliche Berechnungen oder ähnliches ist, ist da mal zweitrangig. Da geht es dann vor allem darum wie aufwendig ist die Portierung der Software und wie teuer ist die neue Infrastruktur (und der Support). Und es kommt eben auch drauf an wie die Leistung aussieht. Und die GPU-Unterstützung ist da tatsächlich ein schöner Indikator, denn die Kriterien für das für und wieder sind genauso wie für eine ARM-Architektur und die GPU-Unterstützung ist selbst nach Jahren der Möglichkeit immer noch mehr als beschränkt.

Und man darf auch nicht vergessen, dass nvidia auch Anbieter braucht, die das Zeug verbauen und verkaufen und weder IBM noch Intel oder Oracle dem Treiben tatenlos zusehen dürften.

Gipsel
2011-01-06, 13:49:37
Auch du scheinst noch nicht verstanden haben, dass es bei dieser CPU (anders als bisher bei ARM) nicht so sehr um Energieeffizenz geht. Ist bei einer Desktop-CPU auch nicht so wichtig.Hmm, warum hast Du denn die Energieeffizienz der bisherigen kleinen ARM-CPUs als Argument gebracht? Ich habe von Anfang an zu bedenken gegeben, daß Energieffizienz bei Smartphone/Tablet-CPUs sich nicht so einfach auf Energieffizienz bei Mainstream- bis High-Performance-CPUs übertragen läßt und daß das Erreichen der Intel-/AMD-CPUs in diesem Markt nicht so einfach wird (also nix mit "sehr schnell auf einem sehr ordentlichen Leistungsniveau" (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8488237#post8488237), wie Du Dich ausgedrückt hast). Insofern scheinst Du entweder Deine eigene oder meine Argumentation nicht verstanden zu haben. :rolleyes:
Das man mit dem ersten Wurf direkt auf Leistung einer Intel Extreme CPU liegt ist sicherlich nicht zu erwarten, ob man von der Effizenz auf dem Niveau von Intel/AMD liegt wäre schon nicht schlecht, ist aber auch kein Muss.In meinen Augen wäre es nicht nur nicht schlecht sondern schon ziemlich gut, wenn man halbwegs in Reichweite kommt ;). Aber gut, daß wir uns da einig sind.
Ah, getroffene Hunde werden aggressiv und bellen.Ich würde Dir empfehlen, Deine Schlüsse etwas vorsichtiger zu ziehen. Ich bin vollkommen entspannt, aggressiv geht gaanz anders ;)
Ich markiere mal den o.t.-Anteil an deinem Post und damit hat sich die Sache für mich erledigt. Offensichtlich weißt du nicht wirklich, was du schreibst:Danke. Damit hat sich meine Vermutung bestätigt, daß Du den Post und seine Argumentation nicht verstanden hast, selbst nach meinem Hinweis zum Inhalt (letzter Versuch: Denke Dir doch mal den ersten Satz als Aussage und den Rest als induktives Argument dafür ;)). Damit hat sich das für mich dann auch erledigt.

MiamiNice
2011-01-06, 13:54:49
Bin ein wenig verwirrt, ja nix neues ^^

Eine ARM Desktop CPU übernimmt nur die Grundaufgaben und übergibt die rechenintensiven Operationen an die GPU? Wäre also praktisch eine "Grundeinheit" und die PC Power skaliert nur noch über die Graka?

Könnte man dann auch ein normales Win8 auf einem Smartphone mit entsprechender ARM CPU betreiben? Dann könnte sich MS in Zukunft ein extra HandyOS sparen und es gibt Win8 neben Home, Home Premium etc. noch in einer Smartphone Edition.

stickedy
2011-01-06, 14:02:25
Bin ein wenig verwirrt, ja nix neues ^^

Eine ARM Desktop CPU übernimmt nur die Grundaufgaben und übergibt die rechenintensiven Operationen an die GPU? Wäre also praktisch eine "Grundeinheit" und die PC Power skaliert nur noch über die Graka?
So stellt sich nVidia das wohl vor. Praktisch muss das allerdings die Software unterstützen oder der Übergang CPU - GPU transparent gelöst werden (was schwierig werden dürfte, evtl. mit einem darüber gelagertem Code-Morping-Ansatz).

Könnte man dann auch ein normales Win8 auf einem Smartphone mit entsprechender ARM CPU betreiben?
Theoretisch schon. Praktisch wird es an Treibern und vor allem an der Leistungsfähigkeit, dem verfügbaren Speicher (sowohl RAM als auch Flash) und der Bedienung scheitern.

Trap
2011-01-06, 14:03:43
Eine ARM Desktop CPU übernimmt nur die Grundaufgaben und übergibt die rechenintensiven Operationen an die GPU? Wäre also praktisch eine "Grundeinheit" und die PC Power skaliert nur noch über die Graka?
Nicht zwangsläufig. Der Befehssatz hat ja mit der dahinterstehenden Architektur heute nichts mehr zu tun, man könnte mit etwas Entwicklungsaufwand den Sandy Bridge auch ARM-Befehle ausführen lassen.

Aber was Nvidia genau vor hat, haben sie noch nicht bekannt gegeben. Es gibt viele denkbare Möglichkeiten...
So stellt sich nVidia das wohl vor.
Wo liest du das?

stickedy
2011-01-06, 14:15:33
Wo liest du das?
Nirgends konkret, aber nVidia propagiert seit Jahren GPGPU-Lösungen, da liegt es ja nun sehr nahe, dass das auch passieren soll, wenn man schon CPU und GPU in einem SoC vereint...

MiamiNice
2011-01-06, 14:22:18
Der Ansatz wäre aber imho völlig blöd. Der durchschnittliche 3DC User baut sich dann 2 High End GPUs ein oder wie stellt sich NV das vor. 1 für die Grafik und eine als CPU Ersatz, das geht imho nicht klar.
Ich kann mir auch nicht vorstellen das sich Intel, AMD und IBM auf diese weise die Butter vom Brot nehmen lassen.
Das liest sich erstmal wie ein feuchter Traum von Nvidia :biggrin:

Gipsel
2011-01-06, 14:25:31
So stellt sich nVidia das wohl vor. Praktisch muss das allerdings die Software unterstützen oder der Übergang CPU - GPU transparent gelöst werden (was schwierig werden dürfte, evtl. mit einem darüber gelagertem Code-Morping-Ansatz).Dazu kommt noch, daß für praktisch alle relevanten Aufgaben schlußendlich das schon anfangs im Thread beschriebene (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8488233#post8488233) gilt. Da kann man sich noch so auf den Kopf stellen, aber es gibt eben allermeistens eine prinzipielle Grenze für die Parallelisierbarkeit bzw. deren Sinnhaftigkeit. Und die liegt selten extrem hoch. Sprich, der Ansatz funktioniert längst nicht immer gut.

Coda
2011-01-06, 14:33:33
Angenommen ARM+NVidia würde es tatsächlich schaffen eine CPU zu entwickeln und vor allem herzustellen, die etwa die Leistung einer fünf Jahre alten x86-64 CPU aufweist.
Jedes andere Ziel als Augenhöhe mit AMD und Intel wäre für Huang schon eine Bankrotterklärung bei diesem Projekt.

NVIDIA braucht eine CPU für einen Fusion artigen Prozessor. Das ist eindeutig die Zukunft. Und das Microsoft ARM-Windows ankündigt ist sicher auch kein Zufall in diesem Zusammenhang.

Trap
2011-01-06, 14:41:46
[...]aber es gibt eben allermeistens eine prinzipielle Grenze für die Parallelisierbarkeit bzw. deren Sinnhaftigkeit. Und die liegt selten extrem hoch. Sprich, der Ansatz funktioniert längst nicht immer gut.
Es gibt doch auch in der CPU Parallelverarbeitung: out of order execution, Pipelining, mehrere Ausführungseinheiten, spekulatives Lesen des Speichers, SIMD-Befehle, und so weiter.

All das nutzt Parallelisierbarkeit des bestehenden Code. Auf einer GPU im jetzigen Design kann man diese Art Parallelisierbarkeit natürlich nicht nutzen, aber es wird wohl kaum jemand sein Unternehmen darauf wetten, dass eine Cortex15+Fermi Kombination normalen CPU-Programmcode schnell ausführen kann. Wenn sie so etwas planen, dann mit anderer Architektur.

Gipsel
2011-01-06, 14:59:15
Es gibt doch auch in der CPU Parallelverarbeitung: out of order execution, Pipelining, mehrere Ausführungseinheiten, spekulatives Lesen des Speichers, SIMD-Befehle, und so weiter.

All das nutzt Parallelisierbarkeit des bestehenden Code. Auf einer GPU im jetzigen Design kann man diese Art Parallelisierbarkeit natürlich nicht nutzen,Genau, das geht schwer wegen ILP <=> TLP.
Im übrigen wird ILP schon seit Ewigkeiten von AMD/ATI-GPUs genutzt (nur eben statisch mit in-order Scheduling statt dynamisch mit out-of-order execution, wie das bei CPUs wegen der deutlich anderen Aufgabenstellung angebracht ist) und auch nvidia hat (kleinere) Schritte in die Richtung unternommen. Das hilft aber alles nichts, wenn man nur eine Handvoll von ein paar hundert parallelen Pipelines einer GPU nutzen kann. Dann stinkt die Performance immer ab.

Übrigens, von den von Dir aufgeführten Punkten nutzen GPUs folgende:
Pipelining, mehrere parallele Ausführungseinheiten, SIMD-Befehle

Der fundamentale Unterschied von CPUs zu GPUs ist einfach der, daß sich GPUs im Zweifelsfall immer auf einen sehr hohen TLP verlassen können, CPUs aber nicht, da ihre Aufgabe traditionell darin besteht einen einzigen Thread (oder wenige seit SMT und CMT) mit maximaler Geschwindigkeit auszuführen. Und dafür werden eben solche Sachen wie Spekulation eingesetzt, die bei Vorhandensein von TLP komplett ineffizient sind (weswegen GPUs das auch nicht machen). Die Herausforderung für die Zukunft besteht darin, das Ganze so flexibel zu gestalten, daß immer hohe Performance geboten wird, sowohl bei geringem TLP (bisher CPUs), bei hohem TLP (bisher GPUs bzw. nicht wirklich vergleichbar HPC-Cluster) aber eben auch bei der Klasse der Probleme mit mittlerem TLP-Potential. Dabei sollte man auch bedenken, daß sich in Zukunft mit der Weiterentwicklung der GPUs sich mehr und mehr Probleme in den Bereich mit mittlerer bis niedriger TLP (relativ zur Breite der GPUs, die nimmt ja ständig zu) verschieben werden.
aber es wird wohl kaum jemand sein Unternehmen darauf wetten, dass eine Cortex15+Fermi Kombination normalen CPU-Programmcode schnell ausführen kann. Wenn sie so etwas planen, dann mit anderer Architektur.Och, ein Cortex15 wird schon nicht soo langsam sein. Allerdings dürfte der zum Zeitpunkt seines Erscheinens ziemlich sicher doch einigen Abstand zu IvyBridge (oder was kommt danach?) aufweisen.
Das Problem ist doch, daß nv irgendwas CPU-mäßiges benötigt. Was haben sie denn überhaupt für Alternativen? Die ARM-Variante macht schon am meisten Sinn. Allerdings wird das längst kein Selbstläufer und ich denke das wird ganz leicht unterschätzt, wie viel Aufwand wirklich für die letzten 50% Performance zum Aufschließen zu Intel oder selbst AMD nötig ist.

Bucklew
2011-01-06, 15:22:07
Hmm, warum hast Du denn die Energieeffizienz der bisherigen kleinen ARM-CPUs als Argument gebracht? Ich habe von Anfang an zu bedenken gegeben, daß Energieffizienz bei Smartphone/Tablet-CPUs sich nicht so einfach auf Energieffizienz bei Mainstream- bis High-Performance-CPUs übertragen läßt und daß das Erreichen der Intel-/AMD-CPUs in diesem Markt nicht so einfach wird (also nix mit "sehr schnell auf einem sehr ordentlichen Leistungsniveau" (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8488237#post8488237), wie Du Dich ausgedrückt hast). Insofern scheinst Du entweder Deine eigene oder meine Argumentation nicht verstanden zu haben. :rolleyes:
Oh mann, erst mir vorwerfen ich würde dich nicht verstehen und dann nichtmal von der Tapete bis zu Wand denken können und mir dann vorwerfen, ich würde meine Argumentation nicht verstehen :facepalm:

Troll anyone?

Aber, nur für dich, nochmal in langsam:

Ich habe nirgends davon geredet, dass diese Denverplattform Energieeffizent wird. Das ist auch gar nicht ihr Ziel.

Was ich schrieb (und das ist was völlig anderes, und meinetwegen, lies es noch 20x, wenn du es sonst nicht verstehst) ist, dass die ARM-Prozessoren aufgrund ihres bisherigen Anwendungsgebietes massiv weniger Leistung haben als x86-CPUs. Das liegt nicht daran, dass ARM zu doof wäre, oder das sie es nicht könnten, sondern weil es zwei Konzepte für zwei VÖLLIG unterschiedliche Systeme sind.

Eine ARM-CPU, die von Anfang an nicht darauf hin entwickelt wurde in wenige mm² Chipfläche zu passen, sondern durchaus auch 150 oder 200mm² verbrauchen darf, die nicht mit jedem mW Leistungsaufnahme geizen muss, sondern auch mal 100W verbrauchen darf - da reden wir über eine völlig andere Leistungsdimension, als bei aktuellen ARM-Cores.

Ich würde Dir empfehlen, Deine Schlüsse etwas vorsichtiger zu ziehen. Ich bin vollkommen entspannt, aggressiv geht gaanz anders ;)
Ja das merkt man :rolleyes:

Aber nochmal: Es geht hier nicht darum eine fette x86-Plattform auf Handygröße zu schrumpfen, sondern einen Handychip auf fett. Das zwei völlig unterschiedliche paar Schuhe.

Coda
2011-01-06, 15:24:17
Ich gehe davon aus, dass das kein lizensiertes ARM-Design ist, sondern nur das Instruction Set verwendet wird.

hell_bird
2011-01-06, 15:27:10
Vor einiger Zeit habe ich einen Post von dem x264 Entwickler Dark Shikari gesehen, wo er erklärt wieso Videoencoding sich fast nicht sinnvoll auf einer GPU umsetzen lässt. Ich denke das ist eines der wenigen Gebiete wo gute CPU Leistung wirklich wichtig ist. Und dabei kann es sich Nvidia nicht leisten eine schwache Performance abzuliefern. Leider finde ich den Post gerade nicht.

Was gibt es sonst noch für Sachen/Algorithmen die auf jeden Fall eine gute CPU und nicht GPGPU benötigen? Datenbanken? Verwaltung einer künstlichen Welt in Spielen?

LovesuckZ
2011-01-06, 15:28:10
Ich gehe davon aus, dass das kein lizensiertes ARM-Design ist, sondern nur das Instruction Set verwendet wird.

Das sagte auch Huang: Sie haben eine Lizenz erworben, ihren eigenen ARM Prozessor mithilfe von ARM zu produzieren. Für Tegra werden sie weiterhin ARM-Designs verwenden.

Daredevil
2011-01-06, 15:35:54
Ich hätte da mal eben ne kleine noobige Frage, unterstützt Windows nicht schon ARM Prozessoren?
Zumindest gibt es ein billig "Netbook" mit ARM8 533Mhz, was auf Windows CE läuft auf dem Markt.

Coda
2011-01-06, 15:38:28
Windows CE ja, aber das hat ja nicht viel mit dem Desktop-Windows zu tun.

Fattyman
2011-01-06, 15:39:52
Zum Thema Integration der Arm-Architektur in einen Grafikprozessor (z.B. Fermi):

Mir fallen da folgende Ansätze ein:

1. Man erstellt eine leistungsfähige Arm-Implementation (Cortex-9/15) und integriert diese in die Grafikkarte. Dabei werden nur wenige - wobei der Begriff selbst dehnbar ist (8/16/32 oder sogar 64) - Cores in den Grafikchip eingebracht und sorgen für parallelen High-Level-Betrieb.

2. Man nimmt sich eine Einfachst-Arm-Implementation aka Cortex-M0 (reduced to the max), pimpert diese noch um Anweisungen für den Transport erweiterter Datentypen auf und bringt diese in jeden CUDA-Core ein, und hat dann auf Anhieb 512 General Purpose Einheiten.

3. Stellt eine Mischung aus Ansatz 1 und 2 dar.

Mancko
2011-01-06, 15:40:54
Ich gehe davon aus, dass das kein lizensiertes ARM-Design ist, sondern nur das Instruction Set verwendet wird.

Definitiv!
Bei Tegra2 wurde das ARM Design lizensiert für den Cortex A9. Bei Project "Denver" hat Nvidia eine Lizenz gekauft um eigene ARM artige CPU's mit Hilfe des Befehlssatzes zu designen. Also im Prinzip genau das, was Intel Ihnen mit X86 nicht zubilligt.

Das Microsoft mit aufspringt ist nicht verwunderlich. Die sind sich im klaren darüber, dass X86 wachstumstechnisch begrenzt ist und sehen nun, dass andere OSe wie Android oder iOS sich breitmachen. Völlig klar das die mit aufspringen und das ist im Endeffekt nur gut für die ARM Architektur als solches, denn Microsoft ist nicht nur Windows Entwickler sondern erstellt so ganz beiläufig noch die meisst genutzte Office Software, Games sowie die besten Developer Tools im Windows Umfeld und wird auch zunehmend bei Großkunden erolgreicher mit diversen Serverprodukten (SQL Server, Sharepoint etc.)

Auf jeden Fall ist da eine super Entwicklung. Die X86 Bastion wird langfristig Federn lassen müssen und das alleine ist schon aus Kundensicht mehr als Willkommen, weils eben dazu führt, dass Intel nicht überall die Spielregeln bestimmen kann.

hell_bird
2011-01-06, 15:43:23
2. Man nimmt sich eine Einfachst-Arm-Implementation aka Cortex-M0 (reduced to the max), pimpert diese noch um Anweisungen für den Transport erweiterter Datentypen auf und bringt diese in jeden CUDA-Core ein, und hat dann auf Anhieb 512 General Purpose Einheiten.

Das macht irgendwie keinen Sinn. Im übrigen sind die CUDA Cores schon weitgehend General Purpose. Was gebraucht wird sind ein paar Kerne die den Kontrollfluss gut verwalten können und ein Betriebssystem mit Virtuellem Speicher, multitasking, in und output laufen lassen

|MatMan|
2011-01-06, 15:55:42
Ich würde es besser finden wenn es eine x86 CPU werden würde, aber man kann halt nicht alles haben.

Ok, nVidia hat also eine Lizenz zum ARM-designen. Haben die auch die Man-Power dafür? Weiß man was darüber ob sie CPU-Ingenieure eingekauft haben? Vielleicht von Transmeta?

Eine CPU aus GPU-Entwickler Sicht (Larrabee nur umgedreht) sollte da ja möglichst nicht rauskommen...

Nighthawk13
2011-01-06, 16:07:01
Wow! Kommt meiner Vorstellung einer "Best-of-GPU" schon ziemlich nah:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=495401

Bin mal gespannt, wie eng die Kopplung zwischen CPU und GPU wirklich wird(z.B. gemeinsamer CPU-GPU-Speicher on-Die für schnellen Datenaustausch?).

Und wie die Software-Api dazu aussieht(Vermute mal, Cuda mit ein paar Erweiterungen).

Bucklew
2011-01-06, 16:09:36
Ok, nVidia hat also eine Lizenz zum ARM-designen. Haben die auch die Man-Power dafür? Weiß man was darüber ob sie CPU-Ingenieure eingekauft haben? Vielleicht von Transmeta?
http://www.xbitlabs.com/news/cpu/display/20091103152326_Nvidia_Hires_Former_Transmeta_Engineers_to_Develop_x86_Microproce ssor_Analyst.html

Avalox
2011-01-06, 16:29:50
ARM hat das Cortex A15 Design ja schon mehrmals durchblicken lassen,
ein 2,5GHz Quadcore Design mit Adresserweiterung, Streamingerweiterungen aller Art.

Natürlich kann solches als Basis dienen.



Das Thema Windows 8 ist dagegen überhaupt nicht geklärt. Was wird denn das Windows 8 für nicht x86 CPUs überhaupt können?

Denkt denn jemand, dass solch ein Windows 8 von einem Singlecore Cortex A8 Design mit 600MHz bis zu einem baldigen x86 Oktacore skalieren wird und dann noch überhaupt eine vernünftige Basis darstellen wird? Ballmer hat das Thema dann auch ganz schnell gewechselt. Die nach Win7 aussehende Oberfläche sagt gar nichts, ein WinCE sah auch aus wie ein Win2000.

Gipsel
2011-01-06, 16:31:24
Troll anyone?Soll ich jetzt auch anfangen Dir irgendwelche Bezeichnungen zu verpassen? Das hilft wirklich nicht weiter. Also höre lieber schnell damit auf!

Damit das jetzt nicht in Rechthaberei ausartet, nur noch ein paar kurze Anmerkungen. Falls Dich das nicht zufriedenstellt, kannst Du mir gerne 'ne PM schicken, damit der Thread hier nicht vor die Hunde geht.
Ich habe nirgends davon geredet, dass diese Denverplattform Energieeffizent wird.Wenn ich mal so an den Anfang zurück schaue, erfolgte Dein Einstieg in die Diskussion, auf diese Frage hin:
Auf welcher Basis erlaubt sich dann die Behauptung das diese auch Energieffizienter sei?Da Du ihm entgegnet hast, er habe bei seiner Ansicht was Wesentliches vergessen, wirst Du sicherlich verstehen können, daß der starke Eindruck entstand, Du würdest der anfänglichen Vermutung von dildo4u der deutlich besseren Energieffizienz der ARM-Cores in diesem Szenario zustimmen und das sollte ein Argument dafür darstellen ;)
Daß Du auf was anderes hinaus wolltest, haben wir ja schon vorhin festgestellt.
Was ich schrieb (und das ist was völlig anderes, und meinetwegen, lies es noch 20x, wenn du es sonst nicht verstehst) ist, dass die ARM-Prozessoren aufgrund ihres bisherigen Anwendungsgebietes massiv weniger Leistung haben als x86-CPUs. Das liegt nicht daran, dass ARM zu doof wäre, oder das sie es nicht könnten, sondern weil es zwei Konzepte für zwei VÖLLIG unterschiedliche Systeme sind.Aha, es sind also zwei völlig unterschiedliche Konzepte für zwei völlig unterschiedliche Systeme. Woher willst Du also überhaupt wissen, ob die kurz- bis mittelfristig auch konkurrenzfähig zu den etwas höherklassigen x86er-CPUs werden können? Ein guter Fahrraddesigner kann nicht automatisch auch gute Autos entwerfen.
Es ist ja wohl gut bekannt, daß in die x86er-Architekturen inzwischen Unmengen an R&D geflossen ist. Meinst Du nicht, daß es schwer ist, daß mal so eben über Nacht aufzuholen?
Achja, keine Sorge, ich verstehe schon, was Deine Argumente aussagen und was nicht ;)
Eine ARM-CPU, die von Anfang an nicht darauf hin entwickelt wurde in wenige mm² Chipfläche zu passen, sondern durchaus auch 150 oder 200mm² verbrauchen darf, die nicht mit jedem mW Leistungsaufnahme geizen muss, sondern auch mal 100W verbrauchen darf - da reden wir über eine völlig andere Leistungsdimension, als bei aktuellen ARM-Cores.So, Du redest also davon, daß eine völlig anders ausgelegte CPU entwickelt wird. Die wird sicherlich deutlich schneller als ein Cortex A8 oder A9. Trotzdem sagt einem da der gesunde Menschenverstand, daß man aus dem Stand außer mit einer extrem unwahrscheinlichen Kombination von Können und Zufällen nie und nimmer an die dann aktuellen x86-CPUs rankommen wird oder bei AMD und Intel arbeiten die ganzen letzten Jahre nur Dilettanten. Wie schon gesagt, die erste Hälfte des Weges ist einfach, die zweite Hälfte wird schwer bis sehr schwer.
Ja das merkt man :rolleyes:Du kennst mich überhaupt nicht. Die etwas schärferen Klingen der Argumentation setze ich sehr selten ein (hier im Forum eigentlich gar nicht), vor allem aus Rücksicht auf meine Mitmenschen :devil:. Das macht aber nur bei bestimmten Diskussionspartnern wirklich Spaß. ;)
Aber nochmal: Es geht hier nicht darum eine fette x86-Plattform auf Handygröße zu schrumpfen, sondern einen Handychip auf fett. Das [sind] zwei völlig unterschiedliche paar Schuhe.Ja, zwei Paar Schuhe, die dann beide erstmal nicht wirklich passen ;)

hell_bird
2011-01-06, 16:38:57
Denkt denn jemand, dass solch ein Windows 8 von einem Singlecore Cortex A8 Design mit 600MHz bis zu einem baldigen x86 Oktacore skalieren wird und eine vernünftige Basis darstellen wird? Ballmer hat das Thema dann auch ganz schnell gewechselt. Die nach Win7 aussehende Oberfläche sagt gar nichts, ein WinCE sah auch aus wie ein Win2000.

Soweit ich weiß wurde beim Windows7 Kernel extrem viel daran gearbeitet den Kernel aufzuräumen. Ich schätze wenn die Hardwareabstraktion steht, kann man den Rest einfach rüberkompilieren. Immerhin wurde ja ein vollwertiges Office gezeigt.

dllfreak2001
2011-01-06, 16:40:54
Wird sicher sehr spannend, weil man damit Intel endlich einen Vogel zeigen könnte.
Imo ist der größte Makel an X86 die fehlende Möglichkeit zum Erwerb neuer Lizenzen.

Crazy_Chris
2011-01-06, 16:42:39
Vor einigen Jahren war doch immer von einen neuen, abgespeckten Kernel für Windows 8 die Rede. Ob das damals auch schon etwas mit der Portierung auf anderen Architekturen, in diesen Fall ARM, zutun hatte. :uponder:

hell_bird
2011-01-06, 16:49:18
Vor einigen Jahren war doch immer von einen neuen, abgespeckten Kernel für Windows 8 die Rede. Ob das damals auch schon etwas mit der Portierung auf anderen Architekturen, in diesen Fall ARM, zutun hatte. :uponder:

Windows gab es schon immer auch auf anderen Architekturen. Itanium gibt es bis heute noch, bei PowerPC gab es die gerüchte, dass es intern weitergepflegt wurde und beispielsweise in der XBox zum Einsatz kam.

MorPheuZ
2011-01-06, 16:56:24
Ich denke ein heutiges CPU -Design ist nicht unbedingt ein Geheimniss. Der technische Fortschritt hat bereits Jahre hinter sich und kaute so ziemlich jede Designfeaturepallette durch die es gibt. Deshalb ist ein CPU zu designen und entwickeln nicht nur Sache der Erfahrung (Intel AMD) sondern auch dessen Features (SMT, HT ua.) im Markt zu etablieren (Verträge) und gescheit einzubauen (Microsoft, Android ua.). Deshalb traue ich einem NV, als Innovations Bude, durchaus Chancen zu, bald mit einem Konkurrenzfähigen ARM CPU aufzukreuzen, mit einer Handvoll angebundener enthusiastischer Kunden im Gepäck :)

MadManniMan
2011-01-06, 16:56:55
Wie dllfreak2001 schon sagte:

wäre es nicht ein viel größerer Grund zur Freude, wenn endlich jeder x86-Prozessoren bauen könnte? Diese ganze Lizenzscheiße ist der größte Mist ...

Dural
2011-01-06, 16:57:57
hmmm vielleicht wird bald jede GPU von NV eine AMR CPU integriert haben :)

LovesuckZ
2011-01-06, 17:00:30
Das Thema Windows 8 ist dagegen überhaupt nicht geklärt. Was wird denn das Windows 8 für nicht x86 CPUs überhaupt können?

Denkt denn jemand, dass solch ein Windows 8 von einem Singlecore Cortex A8 Design mit 600MHz bis zu einem baldigen x86 Oktacore skalieren wird und dann noch überhaupt eine vernünftige Basis darstellen wird? Ballmer hat das Thema dann auch ganz schnell gewechselt. Die nach Win7 aussehende Oberfläche sagt gar nichts, ein WinCE sah auch aus wie ein Win2000.

Das Video sah vielversprechend aus. Und erstmal geht es für Microsoft auch darum, dass man diesen riesigen Markt bedienen kann.

hmmm vielleicht wird bald jede GPU von NV eine AMR CPU integriert haben :)

Das wird wohl das langfristige Ziel sein. Am Anfang werden wohl nur die HPC Chips sein, die einen ARM Prozessor haben.

hell_bird
2011-01-06, 17:02:15
hmmm vielleicht wird bald jede GPU von NV eine AMR CPU integriert haben :)
man beachte das interview:
http://raytracey.blogspot.com/2010/09/kepler-and-maxwell-ray-tracing-monsters.html

Crazy_Chris
2011-01-06, 17:06:55
Windows gab es schon immer auch auf anderen Architekturen. Itanium gibt es bis heute noch, bei PowerPC gab es die gerüchte, dass es intern weitergepflegt wurde und beispielsweise in der XBox zum Einsatz kam.

Die auch allesamt so super Erfolgreich und Verbreitet sind. :rolleyes: Ich glaube der Support für diese Versionen lief mangels Erfolg auf extremer Sparflamme und hat bei MS ne Priorität von so ziemlich 0. Mit dieser ARM-Offensive kann man das wohl nur schwer vergleichen.

MorPheuZ
2011-01-06, 17:07:35
hmmm vielleicht wird bald jede GPU von NV eine AMR CPU integriert haben :)

Der Mann hat recht...

hell_bird
2011-01-06, 17:25:09
Die auch allesamt so super Erfolgreich und Verbreitet sind. :rolleyes: Ich glaube der Support für diese Versionen lief mangels Erfolg auf extremer Sparflamme und hat bei MS ne Priorität von so ziemlich 0. Mit dieser ARM-Offensive kann man das wohl nur schwer vergleichen.
Trotzdem deutet es darauf hin, dass es keine Riesenaktion sein sollte das Betriebssystem an sich zu portieren. Ich frage mich eher wie sie das mit der Kompatibilität zwischen den Plattformen regeln wollen.

fondness
2011-01-06, 17:30:42
Wie dllfreak2001 schon sagte:

wäre es nicht ein viel größerer Grund zur Freude, wenn endlich jeder x86-Prozessoren bauen könnte? Diese ganze Lizenzscheiße ist der größte Mist ...

Wer sagt das NV das will bzw. nicht bekäme wenn man denn wollte? Oder ganz allgemein: Glaubst du wirklich das irgend jemand auf eine x86-Lizenz scharf wäre? IBM hat zB noch eine, verzichtet aber gerne darauf.

Ich bin mir sicher NV bekäme die entsprechenden Instructions lizenziert (der x86-Befehlssatz ist schon länger nicht mehr Patentrechtlich geschützt), immerhin haben sie eh ein Lizenztauschabkommen und außerdem kann es sich Intel alleine aus wettbewerbsrechtlichen Gründen gar nicht erlauben eine solche Lizenz aus Prinzip zu verweigern.

Nur was soll NV mit einer solchen Lizenz? Eine neue CPU-Architektur aus dem nichts heraus designen die AMD/Intel das fürchten lehrt? Ein bisschen unrealistisch. Von Intel gibt es sicher keinen Sandy-Bridge zum nachbauen wie von ARM. Das ARM-Konzept ist schlicht der ideale Einstieg für NV in den Prozessormarkt, man kann ganze Prozessoren lizenzieren und diese problemlos etwas modifizieren. Das macht ja nicht nur NV so sondern eine ganze Schar von anderen Herstellern auch.

Avalox
2011-01-06, 17:34:06
Ich schätze wenn die Hardwareabstraktion steht, kann man den Rest einfach rüberkompilieren. Immerhin wurde ja ein vollwertiges Office gezeigt.

Es geht nicht um läuft oder läuft nicht, sondern um Sinnhaftigkeit.

Die Geräte sind schlicht zu verschieden, als das ein Konzept dieses abdecken kann.

Wenn du ein Windows Kern hast der vernümftig auf einen Gerät geringer Performance läuft, dann verschenkt dieser komplett das Potential eines schnellen Gerätes.

Dieses ist doch heute schon längst zu sehen.

Ein Windows 7 auf einen Netbook ist scheiße und auf einer Perfomance Workstation ist es auch scheiße.

Auf dem einem zu langsam und auf dem anderen nutzt es nicht entfernt die Möglichkeiten.

Schon die Idee MS Office auf Embeddedgeräten ist totaler Murks.

Es ist überhaupt kein Vorteil, dasselbe MS Office auf ein Pad mit extra mobilen Prozessor und das selbe Office dann auf einer Extrem-Workstation nutzen zu können.

Und ein Multiplattform Windows 8 spreizt den Bereich noch gigantisch weiter auf.

Diese breitspektrum Argument ist behämmert und nur ein troyanisches Marketingpferd für einen Markteintritt. Kaufen und benutzen tun dann die Benutzer eh etwas spezielles und das weis auch jeder und deshalb wurde auch ganz schnell dann das Thema gewechselt.

hell_bird
2011-01-06, 17:47:31
Ein Windows 7 auf einen Netbook ist scheiße und auf einer Perfomance Workstation ist es auch scheiße.

Auf dem einem zu langsam und auf dem anderen nutzt es nicht entfernt die Möglichkeiten.


Ich weiß nicht genau was du erwartest. Warum kann ein Windows7 nicht die Fähigkeiten einer Workstation ausnutzen? Es kommt schließlich darauf an, dass die Programme die verfügbaren Resourcen geeignet nutzen. Ein Workstationprogramm wird man nicht auf einem Netbook benutzen, aber vielleicht will man Office auf beiden nutzen. Es beschwert sich ja auch keiner, dass Linux in Supercumputern und Routern eingesetzt wird.

Wenn du dir mal die Demonstration auf der CES anschaust, kannst du sehen, dass Office erstaunlich flüssig aussieht. Immerhin gibt es heutzutage SSDs, Vektoreinheiten im Prozessor, Grafikkartenbeschleunigung, Compositing Window Manager. Da kommt es für Office glaube ich nicht mehr so stark auf Prozessorleistung an.

Ich selbst bin kein Fan von Windows auf Tablets, aber technisch sehe ich kein hindernis.

Bucklew
2011-01-06, 17:56:43
Wer sagt das NV das will bzw. nicht bekäme wenn man denn wollte? Oder ganz allgemein: Glaubst du wirklich das irgend jemand auf eine x86-Lizenz scharf wäre? IBM hat zB noch eine, verzichtet aber gerne darauf.
Glaubst du ernsthaft, dass Intel einfach so zusieht, wie sie einen neuen x86-Konkurrenten bekommen? Schau dir mal den Prozeß um die Verwendung des Chipsatzprotokolles an. Dann weißt du genau, worauf das ganze hinauslaufen würde.

Millionen bis Millarden in ein juristisches Minenfeld zu investieren ist alles Andere als klug.

Soll ich jetzt auch anfangen Dir irgendwelche Bezeichnungen zu verpassen? Das hilft wirklich nicht weiter. Also höre lieber schnell damit auf!
Deinen Spoilerquatsch beantworte ich nicht mehr. Dein üblicher Stil wenn du merkst, dass du auf argumentativ absolut verlorenem Posten bist.

Dann können wir dein o.t. ja beenden.

btw, noch so als anmerkung: Die Verdrehung der Tatsachen, die du da im Spoiler betreibst ist einfach nur peinlich. Das ich sogar explizit schrieb "Wenn man das Design dahingehend anpasst, dass die CPU auch deutlich größer sein darf und sich auch mehr Leistung genehmigen darf" ignorierist du völlig. Wie man bei der Aussage dann auf einmal hineininterpretieren willst, dass ich meine, dass Denver Energieeffizenter sein wird oder sein muss als aktuell x86-CPUs, brauchst du mir nichtmal erklären, scheint ja nur ein verzweifelter Versuch zu sein, irgendwie noch "Recht" zu haben - egal wie sehr du die Tatsachen verdrehen musst (denen muss schon schwindelig sein). Das du dann aus dem Post von Gauß (auf den ich komplett geantwortet habe) 20% aus dem Zusammenhang reißt, bestätigt das auch absolut.

Gib halt nächtes Mal einfach zu, wenn du Quatsch erzählt hast. Ist einfacher. Dann kannst du dir auch deinen Spoiler-Quatsch sparen.

EoD

LovesuckZ
2011-01-06, 18:04:48
Es geht nicht um läuft oder läuft nicht, sondern um Sinnhaftigkeit.

Die Geräte sind schlicht zu verschieden, als das ein Konzept dieses abdecken kann.

Wenn du ein Windows Kern hast der vernümftig auf einen Gerät geringer Performance läuft, dann verschenkt dieser komplett das Potential eines schnellen Gerätes.

Dieses ist doch heute schon längst zu sehen.

Ein Windows 7 auf einen Netbook ist scheiße und auf einer Perfomance Workstation ist es auch scheiße.

Auf dem einem zu langsam und auf dem anderen nutzt es nicht entfernt die Möglichkeiten.

Schon die Idee MS Office auf Embeddedgeräten ist totaler Murks.

Es ist überhaupt kein Vorteil, dasselbe MS Office auf ein Pad mit extra mobilen Prozessor und das selbe Office dann auf einer Extrem-Workstation nutzen zu können.

Und ein Multiplattform Windows 8 spreizt den Bereich noch gigantisch weiter auf.

Diese breitspektrum Argument ist behämmert und nur ein troyanisches Marketingpferd für einen Markteintritt. Kaufen und benutzen tun dann die Benutzer eh etwas spezielles und das weis auch jeder und deshalb wurde auch ganz schnell dann das Thema gewechselt.

Wenn Microsoft nicht in die Pushen kommt, wird sich die Frage in Zukunft überhaupt nicht mehr stellen, wie Windows auf eine Low-End Maschine ala Bobcat oder Atom läuft. Dieser Markt wird in Zukunft vollständig von ARM bzw. SoCs abgedeckt werden.

Avalox
2011-01-06, 18:04:58
Ich weiß nicht genau was du erwartest. Warum kann ein Windows7 nicht die Fähigkeiten einer Workstation ausnutzen?


Nein. Ein gutes Betriebssystem nutzt die Ressourcen bestmöglich für seine Aufgaben. Eine einfache Kompatibilität macht es weder gut, noch überhaupt sinnhaft.


Es beschwert sich ja auch keiner, dass Linux in Supercumputern und Routern eingesetzt wird.




Das ist ein grundlegender, aber weit verbreiteter Irrglauben. Linux ist kein Betriebssystem. Es ist eine Sammelbezeichnung für eine riesige Anzahl an Betriebssystemen, welche auf einem Linux Kernel basieren.

Und diese Betriebssysteme sind individuell auf den Anwendungsbereich zugeschnitten. Weder läuft das Router Linux Betriebssystem auf einen Supercomputer, noch wäre dieses sinnvoll.

Je flüssiger und besser das Office auf solchen lütten Systemen aussieht, je mehr kannst du davon ausgehen, dass Office auf Performance Workstation eine schlechte Software ist, weil diese das Potential dieser Plattformen nicht entfernt nutzt. Wie würde dann erst ein gutes Office auf dem Desktop aussehen und arbeiten können?

Dieses ist einerseits verständlich, weil der Desktop Markt mächtig schrumpft, deshalb niemand mehr auf diesen allein setzen wird und verständlicher Weise auch keine Lust auf doppelte Entwicklungen hat, zum anderen schwindet natürlich auch damit der Anwendungsnutzen der schnellen Desktop Systeme noch mehr und diese werden damit noch schneller vom Markt verdrängt.

hell_bird
2011-01-06, 19:02:52
Ich weiß es ist ein wenig Off Topic, aber das würde ich gerne noch ausdiskutieren:

Nein. Ein gutes Betriebssystem nutzt die Ressourcen bestmöglich für seine Aufgaben. Eine einfache Kompatibilität macht es weder gut, noch überhaupt sinnhaft.
Bitte etwas konkreter. Windows hat für jede Aufgabe verschiedene API-Funktionen für Synchronen, Asynchronen Zugriff auf Dateien und Netzwerke, high-level Speicheranforderungen und niedrigeres level, verschiedenste Arten von threads und threadpools. Das alles macht es Workstationgeeignet in meinen Augen. Für eine Netbookversion macht das wenig Sinn, aber die meisten Anwenderprogramme benutzen eh nicht so ausgefallene Funktionen.

Ich wette darauf, dass x86 und ARM Windows unterschiedliche Speicherverwaltung, Scheduler, Interruptverwaltung haben wird.


Das ist ein grundlegender, aber weit verbreiteter Irrglauben. Linux ist kein Betriebssystem. Es ist eine Sammelbezeichnung für eine riesige Anzahl an Betriebssystemen, welche auf einem Linux Kernel basieren.

Und diese Betriebssysteme sind individuell auf den Anwendungsbereich zugeschnitten. Weder läuft das Router Linux Betriebssystem auf einen Supercomputer, noch wäre dieses sinnvoll.

Zugegeben das war nicht das glücklichste Beispiel. Was ich sagen wollte ist: Hier wird die selbe API verwendet, wenn ein Bildschirm da ist das X Window System. Ein auf dem Netbook bewährtes Programm kann ich auch auf der Workstation laufen lassen. Warum sollte Windows das nicht auch können? Wenn man mal den ganzen unnützen Programmkrempel von Windows nicht beachtet ist es ja auch nicht mehr als ein Kernel.


Je flüssiger und besser das Office auf solchen lütten Systemen aussieht, je mehr kannst du davon ausgehen, dass Office auf Performance Workstation eine schlechte Software ist, weil diese das Potential dieser Plattformen nicht entfernt nutzt. Wie würde dann erst ein gutes Office auf dem Desktop aussehen und arbeiten können?

Ok wie würde ein gutes Office denn aussehen? Office auf der Performance Workstation klingt wie Oma im Lambourghini (schlechter Autovergleich ahoi ;) )

Coda
2011-01-06, 19:13:02
Ich wette darauf, dass x86 und ARM Windows unterschiedliche Speicherverwaltung, Scheduler, Interruptverwaltung haben wird.
Wieviel? Ich wette dagegen.

Und diese Betriebssysteme sind individuell auf den Anwendungsbereich zugeschnitten. Weder läuft das Router Linux Betriebssystem auf einen Supercomputer, noch wäre dieses sinnvoll.
Abgesehen von den Programmen die laufen ist beides GNU/Linux und ziemlich gleich. Niemand verwendet ernsthaft irgendwo etwas anderes als GNU-Userspace.

Gipsel
2011-01-06, 19:33:14
Dein üblicher Stil [...]Och, Bucklew, ich habe Mitleid. http://daoc.somberlain.org/sig/Smiley_keks.gif
Lies Dir am besten nochmal durch, was ich geschrieben habe. Ich habe gar nichts ignoriert, sondern im Grunde zu bedenken gegeben, daß die Entwicklung einer High-Performance-CPU nicht so ganz einfach ist. Da reicht es eben nicht, wenn man das Powerbudget von wenigen hundert Milliwatt auf 50 bis 100W anhebt und dann hat man nach einem/zwei/wenigen Jahren Entwicklungsdauer eine rundum in diesem Markt konkurrenzfähige CPU. Da gehört ja wohl einiges mehr dazu. Und es gibt eben nicht so viele Chipschmieden, die das erforderliche Knowhow bisher nachgewiesen haben. Und selbst die setzen sich manchmal noch in die Nesseln.
Dann können wir dein o.t. ja beenden.Ich bitte darum.

Die viel wichtigere Frage ist doch, wie geht man generell an das sich deutlich abzeichnende grundlegende Problem heran:
Die Herausforderung für die Zukunft besteht darin, das Ganze so flexibel zu gestalten, daß immer hohe Performance geboten wird, sowohl bei geringem TLP (bisher CPUs), bei hohem TLP (bisher GPUs bzw. nicht wirklich vergleichbar HPC-Cluster) aber eben auch bei der Klasse der Probleme mit mittlerem TLP-Potential. Dabei sollte man auch bedenken, daß sich in Zukunft mit der Weiterentwicklung der GPUs sich mehr und mehr Probleme in den Bereich mit mittlerer bis niedriger TLP (relativ zur Breite der GPUs, die nimmt ja ständig zu) verschieben werden.

Bucklew
2011-01-06, 20:05:02
Och, Bucklew, ich habe Mitleid. http://daoc.somberlain.org/sig/Smiley_keks.gif
Lies Dir am besten nochmal durch, was ich geschrieben habe. Ich habe gar nichts ignoriert
Stimmt, du hast die Tatsachen verdreht, bis es auf keine Kuhhaut mehr ging. DAS ist richtig. Daher spare ich mir auch jede weiter "Diskussion" mit dir. Bringt eh nichts, solange Leute sofort anfangen sich alles so hin und her drehen, wie es ihnen gerade passt, sobald sie merken, dass sie auf verlorenem Posten stehen.

iFanatiker
2011-01-06, 20:25:37
Wenn Microsoft nicht in die Pushen kommt, wird sich die Frage in Zukunft überhaupt nicht mehr stellen, wie Windows auf eine Low-End Maschine ala Bobcat oder Atom läuft. Dieser Markt wird in Zukunft vollständig von ARM bzw. SoCs abgedeckt werden.

Ja...und es gibt ja nur SoC mit ARM IP......;D

Gipsel
2011-01-06, 20:39:50
@Bucklew:
Ich habe Dich schon mal darum gebeten, mir im Zweifelsfall eine PM zu schicken. Du hast jetzt eine.

Ailuros
2011-01-06, 20:58:06
Nur so nebenbei, aber die Forschung fuer das project denver hat auch nicht gestern angefangen. NV funkelt schon seit etlicher Zeit damit rum und ich glaube ich hatte schon vor einiger Zeit irgendwann mal erwaehnt dass NV mit SOI aus gutem Grund experimentiert.

hell_bird
2011-01-06, 21:12:58
Wieviel? Ich wette dagegen.
Gegen dich wette ich nicht, das wär instant loss. Eigentlich meinte ich eher soetwas wie "Windows Fundamentals for Legacy PCs" bei der die Timings und keine Ahnung was noch so angepasst wurden, dass es auf Systemen mit langsamem Takt noch gute Reaktion und Performance liefert. Vermutlich ist das aber auch Unsinn, da ja selbst die kleinen Geräte auch schon in die Gigaherz vorstoßen.

Ailuros
2011-01-06, 21:33:30
Gegen dich wette ich nicht, das wär instant loss. Eigentlich meinte ich eher soetwas wie "Windows Fundamentals for Legacy PCs" bei der die Timings und keine Ahnung was noch so angepasst wurden, dass es auf Systemen mit langsamem Takt noch gute Reaktion und Performance liefert. Vermutlich ist das aber auch Unsinn, da ja selbst die kleinen Geräte auch schon in die Gigaherz vorstoßen.

Wir werden dieses Jahr noch Geraete sehen mit dual Cortex A9@1.5GHz und ab 2012 geht es dann los mit quad core CPUs.

Gipsel
2011-01-06, 21:51:47
Nur so nebenbei, aber die Forschung fuer das project denver hat auch nicht gestern angefangen. NV funkelt schon seit etlicher Zeit damit rum und ich glaube ich hatte schon vor einiger Zeit irgendwann mal erwaehnt dass NV mit SOI aus gutem Grund experimentiert.Nun, wie gesagt gibt es da ja auch ein paar grundlegendere Probleme zu lösen als die Wahl der ISA. Wie man so eine CPU/GPU-Mischung (ich nenne es jetzt einfach mal APU ;)) dazu bekommt, bei möglichst vielen Arten von Problemen mit natürlich deutlich verschiedenen Graden von DLP und TLP ein optimale Performance zu bieten, darüber kann man sich schon mal ein wenig länger den Kopf zerbrechen.
Mittelfristig wird es aus meiner Sicht wohl in recht flexible (etwas kleinere) und direkt in die "CPU" integrierte SIMD-Arrays münden, mit denen man DLP in noch überschaubaren Päckchen abarbeiten kann. Das ermöglicht dann ohne große Kopfstände DLP und TLP in gewissen Grenzen gegeneinander auszutauschen. Die Aufrufe der Kernels könnten z.B. direkt im normalen Instruktionsstrom eingebettet werden (sprich, eine Befehlssatzerweiterung), laufen aber asynchron über eigene Scheduler. Daß so eine Umsetzung nicht wirklich einfach ist wenn es sowohl gut zu nutzen als auch performant sein soll, hat uns ja im Prinzip schon der Cell gezeigt :rolleyes:. Mir schwebt so ganz grob aber eigentlich eine engere Integration vor. Aber mal sehen, was am Ende in den nächsten Jahren da genau raus kommt.

Ailuros
2011-01-06, 22:18:36
NV gibt auch mit Absicht keine Zeitspannen an, ergo haben sie es wohl auch nicht besonders eilig und es ist natuerlich auch gut so.

Gauß
2011-01-07, 03:43:13
NV gibt auch mit Absicht keine Zeitspannen an, ergo haben sie es wohl auch nicht besonders eilig und es ist natuerlich auch gut so.Selbstverständlich haben sie es äußerst eilig, nur ist es ihnen einfach nicht möglich irgend etwas zeitiger abliefern zu können.

Man stelle sich schon allein mal vor das AMD ~2012 einen Bulldozer2 veröffentlicht, dessen:

- Grafikkern so schnell wie eine diskrete Grafikkarte im Mittelsegment ist
- Grafikspeicher mit hoher Bandbreite an die CPU gebunden ist und nahtlos im gesammten Adressraum nutzbar ist
- Grafikleistung sich problemlos über zusätzliche, diskrete AMD-Grafikkarten skalieren lässt

Nvidia macht diesen Schritt nur weil sie von der Konkurrenz dazu genötigt werden und nicht weil sie sich ihrer Sache sicher sind.

Gipsel
2011-01-07, 03:52:02
Grafikspeicher mit hoher Bandbreite an die CPU gebunden ist
Die beide Punkte werden auch in Zukunft nur schwer miteinander zu verbinden sein. Auf eine Platine fest aufgelötete Speicherchips werden immer deutlich mehr Bandbreite bieten als irgendwas, das über einen Sockel-Steckplatz (egal ob CPU-Sockel oder Speicher-Slots). Das geht also immer nur mit Einschränkungen. Mehr als oberes Mainstream/untere Performanceklasse kann da eigentlich schon aus Prinzip nicht rumkommen.
Grafikleistung sich problemlos über zusätzliche, diskrete AMD-Grafikkarten skalieren lässtAlso ich sehe das "problemlos" noch nicht so richtig ;)

Hugo78
2011-01-07, 08:31:50
Selbstverständlich haben sie es äußerst eilig, nur ist es ihnen einfach nicht möglich irgend etwas zeitiger abliefern zu können.

In etwa so wie Fusion CPUs über die man seit 5 Jahren redet?!

xxxgamerxxx
2011-01-07, 08:42:40
Es geht nicht um läuft oder läuft nicht, sondern um Sinnhaftigkeit.

Die Geräte sind schlicht zu verschieden, als das ein Konzept dieses abdecken kann.

Wenn du ein Windows Kern hast der vernümftig auf einen Gerät geringer Performance läuft, dann verschenkt dieser komplett das Potential eines schnellen Gerätes.

Dieses ist doch heute schon längst zu sehen.

Ein Windows 7 auf einen Netbook ist scheiße und auf einer Perfomance Workstation ist es auch scheiße.

Auf dem einem zu langsam und auf dem anderen nutzt es nicht entfernt die Möglichkeiten.

Schon die Idee MS Office auf Embeddedgeräten ist totaler Murks.

Es ist überhaupt kein Vorteil, dasselbe MS Office auf ein Pad mit extra mobilen Prozessor und das selbe Office dann auf einer Extrem-Workstation nutzen zu können.

Und ein Multiplattform Windows 8 spreizt den Bereich noch gigantisch weiter auf.

Diese breitspektrum Argument ist behämmert und nur ein troyanisches Marketingpferd für einen Markteintritt. Kaufen und benutzen tun dann die Benutzer eh etwas spezielles und das weis auch jeder und deshalb wurde auch ganz schnell dann das Thema gewechselt.

Du schaffst es auch irgendwie jedes mal einen Thread in einen Anti Windows Thread umzuwandeln.

Warum sollte man ein Office nicht auf einem Pad nutzen wollen? Wer schreibt mir das vor? Du? Gerade ein Office wäre absolute Pflicht, wenn man es mit Stift bedienen kann. Oder eben ein Geräte, dass noch eine Tastatur zum herausschieben hat.

Und Windows layert schon eh und je den HAL und den Kernel. Sollte es erforderlich sein, wird während der Installation der entsprechende Kernel/HAL installiert, wie das auch schon jetzt der Fall ist.

Auf deine Performance Behauptungen auf Workstations braucht man ja nicht weiter eingehen.

Die Systeme auf Smartphones/Pads sind sehr abgespeckte Systeme. Oder warum läuft da keine normale Linux Distribution? Wenn irgendwann mal die Anforderungen wachsen und auch die vorhandene Leistung, werden diese Systeme auch deutlich komplexer und benötigen mehr Leistung.

Die einen bauen aktuell nur das rein, was sie gerade verkaufen wollen. Die anderen müssen ein ausgewachsene System verschlanken, damit es auf geringer Leistung läuft.

Ein Weg dem zu entgehen, wäre vielleicht die Möglichkeit, die Komplexität der Software in die Cloud zu verschieben.

Was die Leute früher mit einem Computer gemacht haben, werden sie auch in Zukunft machen wollen.

Armaq
2011-01-07, 10:12:49
Die marktpolitische Dimension der Entscheidung ist wesentlich. MS verlässt damit ihr Monopol. Anders gesagt gibt MS die bestmögliche Position auf, um in Zukunft nicht vom Markt überholt zu werden. Sie sehen in x86 nicht mehr ihre wesentliche Perspektive.

dllfreak2001
2011-01-07, 10:29:16
Daran ist doch Intel schuld.

fondness
2011-01-07, 12:24:52
Die marktpolitische Dimension der Entscheidung ist wesentlich. MS verlässt damit ihr Monopol. Anders gesagt gibt MS die bestmögliche Position auf, um in Zukunft nicht vom Markt überholt zu werden. Sie sehen in x86 nicht mehr ihre wesentliche Perspektive.

Steht wo? Es gibt auch schon ein Windows (Phone) 7 für ARM. Deshalb geben sie noch lange nicht ihr Monopol auf.

fondness
2011-01-07, 12:28:52
Daran ist doch Intel schuld.

Ja, Intel behandelt den Markt definitiv nach wie vor sehr stiefmütterlich. Die Atom-CPU wurde seit fast drei Jahren nicht überarbeitet, gefertigt im für Intel-Verhältnisse veralteten 45nm Prozess. Ein Nachfolger ist in nächster Zeit nicht in Sicht. Man verlässt sich eben weiter auf den margenreichen Markt.

Bucklew
2011-01-07, 13:21:03
Die marktpolitische Dimension der Entscheidung ist wesentlich. MS verlässt damit ihr Monopol. Anders gesagt gibt MS die bestmögliche Position auf, um in Zukunft nicht vom Markt überholt zu werden. Sie sehen in x86 nicht mehr ihre wesentliche Perspektive.
Nein, MS versucht ihr Monopol auch auf nicht-x86 auszuweiten weil sie Angst haben, dass sonst in einigen Jahren vllt Android die großen PCs bedroht und ihnen das Wasser abgräbt.

Gipsel
2011-01-07, 13:34:14
Nein, MS versucht ihr Monopol auch auf nicht-x86 auszuweiten weil sie Angst haben, dass sonst in einigen Jahren vllt Android die großen PCs bedroht und ihnen das Wasser abgräbt.
So in etwa würde ich das auch sehen. Es wäre ziemlich fahrlässig von MS, ihre Strategie nur auf x86 auzurichten. Man will Geld verdienen und sich eine gute Marktposition sichern, in allen in Zukunft möglicherweise wichtigen Bereichen.

Gauß
2011-01-07, 14:15:19
Die beide Punkte werden auch in Zukunft nur schwer miteinander zu verbinden sein. Auf eine Platine fest aufgelötete Speicherchips werden immer deutlich mehr Bandbreite bieten als irgendwas, das über einen Sockel-Steckplatz (egal ob CPU-Sockel oder Speicher-Slots). Das geht also immer nur mit Einschränkungen. Mehr als oberes Mainstream/untere Performanceklasse kann da eigentlich schon aus Prinzip nicht rumkommen.Der Speicher wird auf dem APU-Träger integriert sein, was eine Bandbreite wie in Grafikkarten ermöglicht. Halt so ähnlich wie früher bei den L3/L2 Pufferspeichern.

Also ich sehe das "problemlos" noch nicht so richtig ;)Wieso? SLI/Crossfire ist doch schon relativ benutzerfreundlich geworden?

fdk
2011-01-07, 14:28:16
Ja, Intel behandelt den Markt definitiv nach wie vor sehr stiefmütterlich. Die Atom-CPU wurde seit fast drei Jahren nicht überarbeitet, gefertigt im für Intel-Verhältnisse veralteten 45nm Prozess. Ein Nachfolger ist in nächster Zeit nicht in Sicht. Man verlässt sich eben weiter auf den margenreichen Markt.
Iirc ist die Marge beim Atom ähnlich wie bei einem Einsteiger-Celeron. Dank des vergleichsweise kleinen dies halt. Cedar Trail soll btw h2/11 kommen - in 32nm und angeblich 100% mehr Performance. 2011 Scheint seit den ersten eeepcs das bisher interessanteste Jahr für Netbooks/Subnotebooks zu werden.

Gipsel
2011-01-07, 14:35:12
Der Speicher wird auf dem APU-Träger integriert sein, was eine Bandbreite wie in Grafikkarten ermöglicht. Halt so ähnlich wie früher bei den L3/L2 Pufferspeichern.Von denen man aus gutem Grund (außer in Nischenmärkten) wieder abgekommen ist. Sicherlich könnte man sowas bauen. Ist es sinnvoll? Meiner Meinung nach nein.
Und wenn Du das den Speicher auf dem Träger für die GPU (oder allegemein für datenintensive Anwendungen) reservieren willst, wird es wieder problematisch mit dem gemeinsamen Adressraum und dem Zugriff auf Daten, ohne die umkopieren zu müssen. Man kann über sowas nachdenken, aber so wirklich straight-forward wird das nicht. Alternative wäre, das als eine Art "Sideport-L4-Cache" zu benutzen. Aber dann benötigt man einen ziemlich cleveren Cachecontroller, da man längst nicht alles darin ablegen will (Latenzen werden recht mies sein). Da wäre dann ein weitgehend manuell gemanagter (eigener) Adressbereich viel einfacher umzusetzen, das geht aber gegen die Ziele der einfacheren Programmierbarkeit.
Wieso? SLI/Crossfire ist doch schon relativ benutzerfreundlich geworden?Einfach gesagt ist das ganze Alternate-Frame-Rendering-Zeugs aus Prinzip ziemlicher Müll. Das skaliert eben nicht problemlos über mehrere bzw. auch verschieden schnelle GPUs. Da müssen neue Lösungen her.

Gauß
2011-01-07, 15:55:27
Von denen man aus gutem Grund (außer in Nischenmärkten) wieder abgekommen ist. Sicherlich könnte man sowas bauen. Ist es sinnvoll? Meiner Meinung nach nein.
Und wenn Du das den Speicher auf dem Träger für die GPU (oder allegemein für datenintensive Anwendungen) reservieren willst, wird es wieder problematisch mit dem gemeinsamen Adressraum und dem Zugriff auf Daten, ohne die umkopieren zu müssen. Man kann über sowas nachdenken, aber so wirklich straight-forward wird das nicht. Alternative wäre, das als eine Art "Sideport-L4-Cache" zu benutzen. Aber dann benötigt man einen ziemlich cleveren Cachecontroller, da man längst nicht alles darin ablegen will (Latenzen werden recht mies sein). Da wäre dann ein weitgehend manuell gemanagter (eigener) Adressbereich viel einfacher umzusetzen, das geht aber gegen die Ziele der einfacheren Programmierbarkeit.Hmm... eine heterogene Speicheranbindung mit einem kohärenten Adressraum sind bei APUs schon sinnvoll denke ich. Man würde das ja auch so flexibel gestalten das man den Speicher je nach Anwendung entweder flach oder hierarchisch ansprechen kann.

http://www.hpl.hp.com/personal/Naveen_Muralimanohar/papers/sc10.pdf
http://img824.imageshack.us/img824/2825/3dcis.jpg
http://img137.imageshack.us/img137/5559/apummu.jpg

Einfach gesagt ist das ganze Alternate-Frame-Rendering-Zeugs aus Prinzip ziemlicher Müll. Das skaliert eben nicht problemlos über mehrere bzw. auch verschieden schnelle GPUs. Da müssen neue Lösungen her.Ach so meinst du das. Naja ob da nun 10-20% nicht skalieren interessiert schätze ich letztlich kaum jemanden. Ist doch toll wenn man die moderne GPU der Bulldozer2 APU über eine Radeon erweitern kann.

Gipsel
2011-01-07, 16:44:50
http://www.hpl.hp.com/personal/Naveen_Muralimanohar/papers/sc10.pdf
http://img824.imageshack.us/img824/2825/3dcis.jpg
Das erste ist eine Veröffentlichung, in der eine mögliche Lösung diskutiert wird. Ich habe mir das jetzt nicht durchgelesen, aber ich denke das arbeitet mit einer zusätzlichen Ebene von Address Translation. Insgesamt ist das eher noch Forschung, die simulieren verschiedene Szenarien.

Bei der Abbildung geht es eher um sehr kleine mobile bzw. embedded Systeme. GlobalFoundries stellt inzwischen nicht mehr nur AMD-CPUs her, die wollen auch andere Märkte bedienen. Und bei einer 100W APU ist es höchst unvorteilhaft für die Wärmeableitung, wenn man über das Prozessor-Die noch den DRAM pappt. Das ist aber für Smartphones oder Tablets sehr interessant.

Aber gut zu wissen, daß sich Global Foundries auch jetzt schon Silicon-Interposer-Packages zutraut, die Intel gerüchteweise bei IvyBridge einsetzen will (fragt sich nur, wie das dann genau genutzt wird). Die eignen sich für Chips mit größerem Power-Budget nämlich erheblich besser als stacked (3D) Packages.
http://img137.imageshack.us/img137/5559/apummu.jpg
Hier sieht man überhaupt keinen Speicher auf der APU. Das wird ganz normal wie bisher über DDR3/4 (oder was auch immer)-Slots angebunden.
Ach so meinst du das. Naja ob da nun 10-20% nicht skalieren interessiert schätze ich letztlich kaum jemanden. Ist doch toll wenn man die moderne GPU der Bulldozer2 APU über eine Radeon erweitern kann.Nun, die integrierte GPU wird zumindest bei Grafikanwendungen wohl eher ersetzt statt erweitert (wenn sie etwa gleich schnell sind, evt. auch normales AFR). Um das anders zu machen, erfordert das neue Konzepte als bisher bei SLI/Crossfire zu beobachten. Gehen würde das schon, es ist aber nicht einfach und problemlos. Es gibt seit Jahren immer wieder Gerüchte oder Versprechungen auf diesem Gebiet. Rumgekommen ist bisher wenig bis gar nichts davon.

Avalox
2011-01-07, 17:06:23
Ich weiß es ist ein wenig Off Topic, aber das würde ich gerne noch ausdiskutieren:


Ich finde es nicht OffTopic, die Software ist doch der wichtigste Aspekt am nVidia ARM Desktop Auftritt.

Das alles macht es Workstationgeeignet in meinen Augen. Für eine Netbookversion macht das wenig Sinn, aber die meisten Anwenderprogramme benutzen eh nicht so ausgefallene Funktionen.

Nicht ungeeignet, es ist schlecht geeignet, oder schlechter als nötig geeignet. Als Windows Produkt versteht sich, wozu ich alles zähle was im Windows dabei ist, inkl. der Benutzerschnittstellen.


Zugegeben das war nicht das glücklichste Beispiel. Was ich sagen wollte ist: Hier wird die selbe API verwendet, wenn ein Bildschirm da ist das X Window System.

Aber doch auch schon dort unterscheiden sich Konzepte. Über X rendert doch keine moderne Oberfläche mehr ihre Elemente. X wird doch nur noch als einheitliche Bitmap Anzeige dieser komplexeren nicht in X entstandenen Elemente genutzt. Die Komplexität der Darstellung kann dann innerhalb eines Spektrums variieren und für die Plattform ein mehr oder weniger passendes Umfeld schaffen. Aber auch zu X gibt es ja Alternativen

Kein mir bekanntes populäreres Linux kommt mit einem Vanilla Kernel daher,
auch ist ja der GNU-Userspace mehr die Maßgabe, wie man an Android ja gerade prächtig vorgeführt bekommt.

Linux skaliert damit deutlich weiter.


Ein auf dem Netbook bewährtes Programm kann ich auch auf der Workstation laufen lassen.


Na klar kann man dieses tun, dagegen sage ich doch gar nichts.
Nur benötigt ich dafür dann für dieses Programm die Workstation nicht.

Wenn ich "nur noch" auf den "Netbook bewährte" Programm auf der Workstation benutze, brauch ich die Workstation gar nicht-

Aber eben dieses ist doch die Konsequenz der Entwicklung, welche sich bei universellen Aspekten natürlich nach dem schwächsten Glied der Kette richten wird und dieses ist zwangsläufig schlecht für die stärksten Glieder der Kette, da diese nicht hinreichend unterstützt werden.

Je weiter die Systeme sich aufspreizen, je weniger werden Extreme Beachtung finden, wenn man auf ein einziges universellen System setzt.


Warum sollte Windows das nicht auch können? Wenn man mal den ganzen unnützen Programmkrempel von Windows nicht beachtet ist es ja auch nicht mehr als ein Kernel.

Wenn dort die Windows 7 Oberfläche und ein MS Office gezeigt wird ist die Strategie eine ganz andere. Dann ist Windows kein Microkernel, sondern das was der Benutzer drunter versteht. Nämlich Desktop und Anwendung.



Ok wie würde ein gutes Office denn aussehen? Office auf der Performance Workstation klingt wie Oma im Lambourghini (schlechter Autovergleich ahoi ;) )


Ein gutes Office würde so aussehen, dass die bisher ungenutzt vorhandene Rechenleistung dafür verwendet wird, dass der Benutzer seine Aufgaben so einfach, komfortabel und schnell wie möglich erledigen kann.

Wenn ich wüsste wie dieses Office aussehen könnte, würde ich es zum Patent anmelden. Ich bin Kunde und als Kunde frage ich den Hersteller der CPU, wie seine High-Performance CPU mir im Office Aufgaben helfen kann, er will diese mir ja schließlich verkaufen.

Was eben dazu führt, dass immer mehr Anwendungen durch den Rost fallen und damit immer mehr Argumente für den klassischen schnellen Heim PC wegfallen.

Und Schuld ist die Software, angefangen mit dem Betriebssystem. Da wir uns ja alle wohl einig sind, dass Office heute weit suboptimal ist und nur das Potential des Systems durch den Software Hersteller nicht erschlossen wird.





Du schaffst es auch irgendwie jedes mal einen Thread in einen Anti Windows Thread umzuwandeln.

Ich habe überhaupt nichts gegen Windows gesagt. Seit Win Vista gefällt es mir auch wieder.


Warum sollte man ein Office nicht auf einem Pad nutzen wollen?

Klar kann man Office auf dem Pad nutzen, nur braucht man doch nicht viel Phantasie um sich vorzustellen, dass eine typischer Office Anspruch auf einen extra mobilen 7Zoll Pad und einer stationären schweren Workstation mit 27Zoll Display unterschiedlich passend am besten realisieren lassen.



Die Systeme auf Smartphones/Pads sind sehr abgespeckte Systeme. Oder warum läuft da keine normale Linux Distribution? Wenn irgendwann mal die Anforderungen wachsen und auch die vorhandene Leistung, werden diese Systeme auch deutlich komplexer und benötigen mehr Leistung.


Was ist denn eine normale Linux Distribution? Eine welche vom Desktop PC kommt und diesen bedient?



Ein Weg dem zu entgehen, wäre vielleicht die Möglichkeit, die Komplexität der Software in die Cloud zu verschieben.


Ja. Damit hat man das Spektrum des Client wieder zusammen geschoben, einen Bedarf für hohe CPU Leistung Zuhause gibt es dann gar nicht mehr.



Was die Leute früher mit einem Computer gemacht haben, werden sie auch in Zukunft machen wollen.

Ganz genau. Sie wollen es aber nicht so machen, wie sie es früher gemacht haben. Sonst würden sie ja einfach ihre alten Verfahren und die alte Technik behalten und nichts neues kaufen.

Coda
2011-01-07, 17:30:27
Ja, Intel behandelt den Markt definitiv nach wie vor sehr stiefmütterlich. Die Atom-CPU wurde seit fast drei Jahren nicht überarbeitet, gefertigt im für Intel-Verhältnisse veralteten 45nm Prozess. Ein Nachfolger ist in nächster Zeit nicht in Sicht. Man verlässt sich eben weiter auf den margenreichen Markt.
BS. Der erste Atom kam April 2008 auf den Markt, dann kam Mai 2010 der Lincroft SoC. 2011 kommt Cedar Trail in 32nm.

Ailuros
2011-01-07, 18:17:42
Selbstverständlich haben sie es äußerst eilig, nur ist es ihnen einfach nicht möglich irgend etwas zeitiger abliefern zu können.

Lediglich eine andere Perspektive. Mir geht es lediglich darum dass erstens ARM selber ihre Zeit braucht ihre eigene IP fuer andere Hoehen zu skalieren und NV braucht dann so oder so auch noch ihre Zeit das Ganze fuer die finale Integrierung in der Zwischenzeit auszureifen.

Natuerlich waere es NV lieber dass sie so etwas schon gestern gehabt haetten, aber sie wissen auch selber dass solche Projekte ihre Zeit brauchen.

Nvidia macht diesen Schritt nur weil sie von der Konkurrenz dazu genötigt werden und nicht weil sie sich ihrer Sache sicher sind.

Ist es nicht so bei allen IHVs die mit ernsthafter Konkurrenz zu tun haben?

Eine andere Hypothese waere wenn Intel NV kaufen koennte und wuerde dann waere sie dazu genoetigt um endlich standalone GPUs auf den Markt zu bringen. Mag sein dass es ein doofes Beispiel ist, aber ich empfinde solche Phaenomaene streng verbunden zu dem was ich unter Konkurrenz genau verstehe.

NV und jegliches NV muss zusehen dass sie weiterhin wachsen koennen als IHV. Von was genau sollten sie denn genau langfristig wachsen wenn sie sich nicht nach weiteren Maerkten umsehen wuerden?

Gauß
2011-01-07, 19:55:34
Bei der Abbildung geht es eher um sehr kleine mobile bzw. embedded Systeme. GlobalFoundries stellt inzwischen nicht mehr nur AMD-CPUs her, die wollen auch andere Märkte bedienen. Und bei einer 100W APU ist es höchst unvorteilhaft für die Wärmeableitung, wenn man über das Prozessor-Die noch den DRAM pappt. Das ist aber für Smartphones oder Tablets sehr interessant.Es ging mir darum zu zeigen das man Speicherintegration auf dem Trägermaterial anbietet. Und das würde höchstwahrscheinlich auch genutzt werden. Schon klar das bei einer Hochleistungs-APU der Speicher nicht so bald direkt über der Logik gestapelt wird.

Hier sieht man überhaupt keinen Speicher auf der APU. Das wird ganz normal wie bisher über DDR3/4 (oder was auch immer)-Slots angebunden.Wie genau der Speicher angebunden sein wird lässt die Folie offen (die Symbole sind irreführend). Fest steht das die Bandbreite erheblich ausgebaut werden soll und ein UMA-Speicherkonzept geplant ist.

Gauß
2011-01-07, 20:23:21
NV und jegliches NV muss zusehen dass sie weiterhin wachsen koennen als IHV. Von was genau sollten sie denn genau langfristig wachsen wenn sie sich nicht nach weiteren Maerkten umsehen wuerden?Das Problem ist nicht zu wachsen, sondern zu überleben. Nvidia macht diesen Schritt nicht der Opportunität wegen sondern weil sie dazu genötigt werden.

Der Versuch eine neue Platform zu schaffen um gegen die Konkurrenz von Intel&AMD zu bestehen ist ein extremes Risiko und ehrlich gesagt kann ich mir nicht vorstellen dass sie da mehr als wenige Spezialrechner für wissenschaftliche Anwendungen verkaufen können.

Das sich in den letzten Jahren der Smartphone-Markt aufgetan hat und die ARM-Architektur da erfolgreich ist, ist in meinen Augen absolut kein Indiz dafür dass man x86 irgendwo Marktanteile abringen könnte.

Bald schon wird der Trendheini sowieso merken dass er sein 1000 €-Telefon eigentlich gar nicht für Internetbesuche im Briefmarkenformat nutzt und man damit nirgendwo mehr angeben kann. Und nicht nur deswegen werden die Profite in diesem Markt sehr bald in den Keller gehen. Dann wird ARM genau die Aufmerksamkeit bekommen wie schon 30 Jahren zuvor.

Deinorius
2011-01-07, 21:18:54
Bald schon wird der Trendheini sowieso merken dass er sein 1000 €-Telefon eigentlich gar nicht für Internetbesuche im Briefmarkenformat nutzt und man damit nirgendwo mehr angeben kann. Und nicht nur deswegen werden die Profite in diesem Markt sehr bald in den Keller gehen. Dann wird ARM genau die Aufmerksamkeit bekommen wie schon 30 Jahren zuvor.


Könntest du das mal näher ausführen? Immerhin wird immer mehr mobil gesurft und auch sonst ist Mobilität heute das Stichwort.

LovesuckZ
2011-01-07, 21:27:24
Könntest du das mal näher ausführen? Immerhin wird immer mehr mobil gesurft und auch sonst ist Mobilität heute das Stichwort.

Warum sollte man im Internet etwas "näher ausführen"? Das dies Quatsch ist, sollte jedem ersichtlich sein, der schonmal ein Smartphone vollständig verwendet hat.
Wenn da auch nur ein Fünkchen Wahrheit dran wäre, hätte das iPad unsäglich floppen müssen und wir würden auf der CES einen anderen Trend sehen.

Deinorius
2011-01-07, 21:34:00
Dass das volle Internet nicht vom Smartphone benutztbar ist, ist ja klar. Hat aber dennoch nix damit zu tun, wie weit das Internet vom Smartphone aus benutzt wird. Es gibt genug Seiten/Angebote, die man vom Smartphone aus nutzen kann. Vornehmlich sogar jene, die man besonders oft benötigt. Sofern die entsprechenden Angebote immer besser für das Smarthpone-Format angebpasst werden, sehe ich keine besonderen Hürden dafür.

Ein Handy hat man immer mit, ein Tablet das man (mehr oder weniger umständlich) mit einer Tasche rumtragen muss, hingegen nicht.

LovesuckZ
2011-01-07, 21:38:13
Dass das volle Internet nicht vom Smartphone benutztbar ist, ist ja klar. Hat aber dennoch nix damit zu tun, wie weit das Internet vom Smartphone aus benutzt wird. Es gibt genug Seiten/Angebote, die man vom Smartphone aus nutzen kann. Vornehmlich sogar jene, die man besonders oft benötigt. Sofern die entsprechenden Angebote immer besser für das Smarthpone-Format angebpasst werden, sehe ich keine besonderen Hürden dafür.

Ein Handy hat man immer mit, ein Tablet das man (mehr oder weniger umständlich) mit einer Tasche rumtragen muss, hingegen nicht.

Darum geht es ja. Mit meinem iPhone4 gehe ich immer dann ins Internet, wenn ich keine Alternative habe. Deswegen werden Smartphones auch nicht aussterben, sondern die normale "Telefon"-Klasse werden. Einmal sich daran gewöhnt, will man es nie mehr missen. Und sei es auch nur um schnell Mails abzuholen oder sich die Zugverbindung anzeigen zu lassen.

Daher ist das, was Gauß geschrieben hat, nur Verbitterung und hat mit der Wirklichkeit nichts zu tun.

Gauß
2011-01-07, 21:42:58
Könntest du das mal näher ausführen? Immerhin wird immer mehr mobil gesurft und auch sonst ist Mobilität heute das Stichwort.Also ich erachte es als eine Ausgeburt von Blödheit auf einen Bildschirm mit 8 cm Diagonale das Netz zu nutzen. Ein Kumpel hat z.B. kürzlich lachend zugegeben das er sein Gerät eigentlich nur noch zum Telefonieren und Bilder schießen nutzt, einfach weil es am PC so viel bequemer ist. Und so krank das er sogar beim Abendessen oder in der Kneipe unbedingt was bei eBay kaufen muss ist selbst er nicht.

Tja, mehr als 1000 Euro sinnlos verplämpert.

Deinorius
2011-01-07, 22:04:35
Daher ist das, was Gauß geschrieben hat, nur Verbitterung und hat mit der Wirklichkeit nichts zu tun.


Ach so, ich hab deinen vorigen Post nicht ganz eindeutig interpretiert. Alles klar.

...
Tja, mehr als 1000 Euro sinnlos verplämpert.


Ich hoffe doch, du hast mehr als dieses eine Bsp. vorzuweisen, mit der du argumentieren möchtest, denn ansonsten kannst du es gleich mal knicken. Und die 1000 € kannst erst recht knicken. Jemand, der das Internet nicht völlig nutzt, gehört sicher nicht zu den Freaks, die ein iPhone ohne Vertrag kaufen.
Ansonsten würde es mich viel mehr interessieren, wie alt dein Kumpel ist. Denn ich kann selber Dutzende Beispiele vorweisen, die dein Argument ad absurdum führen.

Ach ja und was hälst du von 5,6 cm Diagonale? So surfe ich mehr oder weniger mit meinem Handy durchs Internet. :ulol: Blöd halte ich mich deswegen noch lange nicht. :P

fondness
2011-01-07, 22:35:06
BS. Der erste Atom kam April 2008 auf den Markt, dann kam Mai 2010 der Lincroft SoC. 2011 kommt Cedar Trail in 32nm.

Habe ich was anderes behauptet? Nein. Also was ist daran BS? Bei Lincroft handelt es sich nach wie vor um den völlig identischen CPU-Kern, nur der wirklich uralte 945-Chipsatz wurde endlich durch einen SoC ersetzt. Wenn Cedar Trail kommt wird dieser Core über drei Jahre alt sein. Auf der Roadmap steht Cedar Trail im H2/2011, zur gleichen Zeit laut Roadmap soll auch IvyBridge in 22nm kommen. Eine hohe Priorität sieht anders aus.

hell_bird
2011-01-08, 02:52:33
Wenn dort die Windows 7 Oberfläche und ein MS Office gezeigt wird ist die Strategie eine ganz andere. Dann ist Windows kein Microkernel, sondern das was der Benutzer drunter versteht. Nämlich Desktop und Anwendung.

Ich glaube ich verstehe was du meinst. Du glaubst es wird die ganze Windows Umgebung und "Ökosystem" verhunzen, wenn sie auf den App-Hype aufspringen. Ich dagegen sage es kann nicht schaden einen relativ ordentlichen Kernel und Schnittstellen auf die andere Plattform zu portieren.

Es ist natürlich nicht einfach vorherzusagen, wie es weitergehen wird. Es wäre an sich keine gewagte Behauptung zu sagen, dass Microsoft in bekannter Manier für die Tablets wieder einmal zu spät sein wird und der Auftritt nicht sexy genug sein wird. In diesem Fall wäre das Schicksal an die Nvidia Plattform gebunden und natürlich auch umgekehrt.

Alles in allem ist das ganze meiner Meinung nach derzeit die spannendste Entwicklung. Nvidia ist weder im HPC Markt noch bei Servern noch im mobile Bereich wirklich etabliert und will jetzt auch noch den seit ewigkeiten festgefahrenen Desktop Markt angreifen. Dabei setzen sie auf Microsoft die schon immer der Branche hinterhergelaufen sind. Das ist All-In und das nichtmal mit den besten Karten. Soetwas ist ganz nach meinem Geschmack.



Bald schon wird der Trendheini sowieso merken dass er sein 1000 €-Telefon eigentlich gar nicht für Internetbesuche im Briefmarkenformat nutzt und man damit nirgendwo mehr angeben kann. Und nicht nur deswegen werden die Profite in diesem Markt sehr bald in den Keller gehen. Dann wird ARM genau die Aufmerksamkeit bekommen wie schon 30 Jahren zuvor.
Entschuldigung, aber das ist das dümmste, was ich das ganze Jahr lang gehört habe. Vielleicht mal ein paar Stichworte, die zu Smartphone und Internet gehören. Mails, Kalender, Kontakte, Synchronisation, Nachrichten, Bahnverbindungen, Sachen in der Nähe suchen, Navigation, ständige Erreichbarkeit, Spiele, Produktinformationen, Augmented Reality ....

Ich persönlich habe zwar nur ein 100€ Smartphone, nutze aber alles von dem oben genannten. In meinem Freundeskreis hat kaum jemand ein Smartphone, aber fast jeder ein eher steigendes Interesse verkündet.

Was meiner Meinung nach eine echte Blase ist, ist der App-Wahn. Irgendwann werden die Leute realisieren, dass man doch nicht mit jeder Scheißapp Millionär werden kann. Das dürfte ein unsanftes Erwachen für viele sein.

Armaq
2011-01-08, 10:55:49
Microsoft hat auf dem Desktop eine Stellung die völlig unangreifbar ist. Da kann Apple und jede Linux-Distribution nichts dran ändern. Das Ausweiten der Aktivitäten deutet klar daraufhin, dass MS in x86 etwas nicht mehr sieht, nämlich die Plattform für ihre Zukunft.

Wuge
2011-01-08, 13:15:45
Ich surfe sogar auf nem 2.8" VGA-Screen. Mit nem guten Browser und etwas Übung geht das ganz gut. Kein Vergleich zum PC natürlich aber mein Smartphone ist definitiv mehr Surf/Messaging-Maschine als Telefon!

Zum Thema: NV peilt damit ja nicht den Smartphonemarkt an.

Interessant ist - sowohl im Mobile-Kontext als auch im Hinblick auf HPC - wie Intel auf die ARM/GPGPU-Bedrohung reagieren wird.

Coda
2011-01-08, 13:17:19
Das Ausweiten der Aktivitäten deutet klar daraufhin, dass MS in x86 etwas nicht mehr sieht, nämlich die Plattform für ihre Zukunft.
Klar ist das überhaupt nicht. Ich wüsste nicht warum x86 vom Desktop verschwinden sollte mit Intel und AMD.

Aquaschaf
2011-01-09, 04:43:25
Interessant ist - sowohl im Mobile-Kontext als auch im Hinblick auf HPC - wie Intel auf die ARM/GPGPU-Bedrohung reagieren wird.

Ich denke darin liegt gar keine so große Bedrohung. Zur Zeit wird die Bandbreite der Anwendungen bei denen GPGPU in Frage kommt überschätzt.

=Floi=
2011-01-09, 08:21:38
Also ich erachte es als eine Ausgeburt von Blödheit auf einen Bildschirm mit 8 cm Diagonale das Netz zu nutzen. Ein Kumpel hat z.B. kürzlich lachend zugegeben das er sein Gerät eigentlich nur noch zum Telefonieren und Bilder schießen nutzt, einfach weil es am PC so viel bequemer ist. Und so krank das er sogar beim Abendessen oder in der Kneipe unbedingt was bei eBay kaufen muss ist selbst er nicht.

Tja, mehr als 1000 Euro sinnlos verplämpert.

es kommt auf die auflösung an und nicht auf die cm!
so ein bullshit :facepalm:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8425618&postcount=27
ein ip4 hat mit 960x640 so viele pixel wie ein netbook mit 1024x600! Nur hat das ip4 auch noch das bessere format. ;D


DU urteilst auch nicht, ob LS hier ~630€ verplempert hat oder ob er damit besser fährt wie ohne. man muß so ein teil auch entsprechend nutzen und dann ergeben sich sehr viele vorteile dadurch. die mehrheit wird dies sicherlich nicht tun, weil sie sich auch nicht damit beschäftigen will. Das ist aber ein ganz anderes problem. Nebenbei ist das ip4 auch technisch eine meisterleistung.

Ailuros
2011-01-09, 08:55:09
Das Problem ist nicht zu wachsen, sondern zu überleben. Nvidia macht diesen Schritt nicht der Opportunität wegen sondern weil sie dazu genötigt werden.

Der Versuch eine neue Platform zu schaffen um gegen die Konkurrenz von Intel&AMD zu bestehen ist ein extremes Risiko und ehrlich gesagt kann ich mir nicht vorstellen dass sie da mehr als wenige Spezialrechner für wissenschaftliche Anwendungen verkaufen können.

"Professionelle Spezialrechner" werden auch nie in Unmengen verkauft.

Das sich in den letzten Jahren der Smartphone-Markt aufgetan hat und die ARM-Architektur da erfolgreich ist, ist in meinen Augen absolut kein Indiz dafür dass man x86 irgendwo Marktanteile abringen könnte.

Bald schon wird der Trendheini sowieso merken dass er sein 1000 €-Telefon eigentlich gar nicht für Internetbesuche im Briefmarkenformat nutzt und man damit nirgendwo mehr angeben kann. Und nicht nur deswegen werden die Profite in diesem Markt sehr bald in den Keller gehen. Dann wird ARM genau die Aufmerksamkeit bekommen wie schon 30 Jahren zuvor.

Wenn Du glaubst dass der Markt so leicht wieder eingehen wird, dann lebst Du ehrlich gesagt hinterm Mond.

=Floi=
2011-01-09, 09:47:07
der server bereich ist aber mit noch das interessanteste dafür. es gab doch mal den gedanken auch von intel viele kleine cpus zu verwenden und so viele kleine aufgaben gleichzeitig energieeffizient zu lösen. der größte vorteil für die kleinen dinger ist doch noch immer ihre energieeffizienz. wenn wenig leistung benötigt wird, dann kann man hier sehr sparsame server bauen.

Gaestle
2011-01-09, 12:39:26
Auf der einen Seite finde ich schon, das Gauß in einem Punkt recht hat:
Stundenlang auf einem 8cm-Monitor zu surfen (es kommt in diesem Punkt wirklich auf die cm an) ermüdet schon ganz schön, weil es entweder
a) relativ klein dargestellt ist oder
b) (mit Zoomfunktion) dauernd gescrollt werden muss, was den Lesefluss auch stört. Da ist man mit einem Computermonitor oder einem Tablet IMHO deutlich besser bedient.

Andererseits stimmt es aber auch, dass Smartphones viele andere Sachen können (viele davon mit Online-Unterstützung), wo es einfach praktisch ist, die in der Hosentasche zu haben. hell_bird hat ja vieles genannt.

Meine These ist (momentan), dass in Firmen und Behörden SoC-Systeme viele Desktop-Workstations ablösen könnten und rechenintensive Aufgaben über eine "inhouse"-cloud gelöst werden könnten. Für die Ansprüche der meisten Privathaushalte ist auch kein Desktop-PC notwendig, da würde ein SoC-gerät auch ausreichen.

Label
2011-01-09, 12:48:04
Auf der einen Seite finde ich schon, das Gauß in einem Punkt recht hat:
Stundenlang auf einem 8cm-Monitor zu surfen (es kommt in diesem Punkt wirklich auf die cm an) ermüdet schon ganz schön,....

Es redet doch auch niemand ernsthaft von "Stundenlang auf einem 8cm-Monitor zu surfen". Das ist vor allem was für "unterwegs"
Motorola zeigt mit dem Atrix IMHO wohin die Reise geht:
http://www.engadget.com/2011/01/06/motorola-atrix-4g-hd-multimedia-dock-and-laptop-dock-hands-on/

Gaestle
2011-01-09, 13:53:52
Sowas meine ich ja mit dem letzten Absatz.

Armaq
2011-01-09, 15:34:14
Klar ist das überhaupt nicht. Ich wüsste nicht warum x86 vom Desktop verschwinden sollte mit Intel und AMD.
Dann schau dir mal die Investitionen und die Wachstumsmärkte an, x86 wird es geben, aber die Dimensionen werde andere sein. Die Märkte werden ganz andere sein und MS weiss das.

Limit
2011-01-10, 01:23:59
Ich gehe davon aus, dass das kein lizensiertes ARM-Design ist, sondern nur das Instruction Set verwendet wird.

Ich glaube nicht, das nVidia komplett bei Null anfangen wird. Sie werden sicherlich einen aktuellen ARM Core (Cortex A15 wäre eine Kandidat) mit lizenziert haben und auf dessen Basis dann weiterentwickeln. Denn alles andere würde Unmengen an R&D Ressourcen verbrauchen.

Vor einiger Zeit habe ich einen Post von dem x264 Entwickler Dark Shikari gesehen, wo er erklärt wieso Videoencoding sich fast nicht sinnvoll auf einer GPU umsetzen lässt. Ich denke das ist eines der wenigen Gebiete wo gute CPU Leistung wirklich wichtig ist. Und dabei kann es sich Nvidia nicht leisten eine schwache Performance abzuliefern. Leider finde ich den Post gerade nicht.

Was gibt es sonst noch für Sachen/Algorithmen die auf jeden Fall eine gute CPU und nicht GPGPU benötigen? Datenbanken? Verwaltung einer künstlichen Welt in Spielen?

Das Problem von z.B. x264 ist, dass es heterogen ist, d.h. einige Teile lassen sich sehr gut parallelisieren, andere dagegen nur schlecht. Solch eine Charakteristik findet man in vielen Programmen. Deswegen tut sich GPGPU-Computing auch so schwer. Da greift wieder das Pipeline-Prinzip. Das langsamste Glied entscheidet über die effektive Geschwindigkeit. Mit Fusion sollte da dann deutlich mehr drin sein, denn damit kann ein Programm zerlegen und die Teile entsprechend ihrer Eignung auf CPU und GPU aufteilen. Auf Systemen mit Extra-Grafikkarte funktioniert das nicht, weil die Latenzen zu hoch und die Bandbreite zu niedrig ist.

Prinzipiell kann man sagen, dass alles, was mit Steuerfluss zu tun hat für die GPU unschön ist (GPUs mögen keine Abhängigkeiten zwischen Ops und erst recht keine bedingten Sprünge). Wirklich effektiv werden GPUs eigentlich nur dann, wenn die Menge Daten im Vergleich zum Code sehr groß wird und selbst da muss man noch schauen, ob es nicht noch Abhängigkeiten von Steuerfluss-lastigen Teilen gibt, die das Programm ausbremsen würden (siehe x264).

1. Man erstellt eine leistungsfähige Arm-Implementation (Cortex-9/15) und integriert diese in die Grafikkarte. Dabei werden nur wenige - wobei der Begriff selbst dehnbar ist (8/16/32 oder sogar 64) - Cores in den Grafikchip eingebracht und sorgen für parallelen High-Level-Betrieb.

2. Man nimmt sich eine Einfachst-Arm-Implementation aka Cortex-M0 (reduced to the max), pimpert diese noch um Anweisungen für den Transport erweiterter Datentypen auf und bringt diese in jeden CUDA-Core ein, und hat dann auf Anhieb 512 General Purpose Einheiten.

Das ist beides vollkommener Blödsinn. Ersteres ist nicht realisierbar, da du für ARM Kerne, die auch nur annähernd mit aktuellen x86 Kernen mithalten können auch einen ähnlichen Flächen- sowie Stromverbrauch wirst mit einkalkulieren müssen. Und Fermi ist ja nicht gerade dafür bekannt, dass man noch viel Spielraum bei der Die-Fläche und dem Energieverbrauch hat. Der zweite Vorschlag ist noch unsinniger. Wenn ein Problem gut parallelisierbar ist, führt man den auf den CUDA-Cores aus, wozu brauch man dann noch ARM Cores, die genau die gleichen Vor- und Nachteile hat?

Trotzdem deutet es darauf hin, dass es keine Riesenaktion sein sollte das Betriebssystem an sich zu portieren. Ich frage mich eher wie sie das mit der Kompatibilität zwischen den Plattformen regeln wollen.

Das Betriebssystem zu portieren ist im Prinzip nicht so der riesige Aufwand. Das Problem sind eher die Treiber und die ganzen Anwendungsprogramme. Die Kunden wollen kein ARM Windows, wenn nicht ihre Lieblingsprogramme weiterhin benutzbar sind, aber wenn kaum jemand ARM Windows benutzt, warum sollten die Entwickler dann den Aufwand betreiben und ihre Programme portieren? Bei neuen Märkten ist das kein Hindernis, also z.B. für Tablets, denn da gibt es eben nicht so einen riesigen Vorrat an vorhandener Software, die portiert werden müsste.

Wer sagt das NV das will bzw. nicht bekäme wenn man denn wollte? Oder ganz allgemein: Glaubst du wirklich das irgend jemand auf eine x86-Lizenz scharf wäre? IBM hat zB noch eine, verzichtet aber gerne darauf.

Ich denke die Lizenzen würden sehr schnell weggehen, wenn sie denn erhältlich wären. IBM hat vielleicht noch irgendwelche uralt x86 Lizenzen, aber wie sieht es denn mit MMX, SSE, AVX und sonstigen Neuerungen der letzten Jahre aus?

Ich bin mir sicher NV bekäme die entsprechenden Instructions lizenziert (der x86-Befehlssatz ist schon länger nicht mehr Patentrechtlich geschützt), immerhin haben sie eh ein Lizenztauschabkommen und außerdem kann es sich Intel alleine aus wettbewerbsrechtlichen Gründen gar nicht erlauben eine solche Lizenz aus Prinzip zu verweigern.

Lizenzaustauschabkommen heißt doch nicht, dass die beiden Vertragsparteien sich beliebig bei den Patenten des anderen bedienen können und Intel wird sicherlich nicht einfach so sein Tafelsilber rausrücken. Wettbewerbsrecht greift hier auch nicht grundsätzlich, da es auf dem gleichen Markt einen Konkurrenten (AMD) gibt und es außerdem ja auch noch andere Alternativen (PowerPC, MIPS, ARM, SPARC) gibt. Wenn sie Intel + AMD keine Absprachen oder ähnliches nachweisen können, ist es schwer da mit dem Wettbewerbsrecht rein zu kommen.

Microsoft hat auf dem Desktop eine Stellung die völlig unangreifbar ist. Da kann Apple und jede Linux-Distribution nichts dran ändern. Das Ausweiten der Aktivitäten deutet klar daraufhin, dass MS in x86 etwas nicht mehr sieht, nämlich die Plattform für ihre Zukunft.

Ich bezweifle stark, dass MS sich in irgendeiner weise von x86 abwenden will. Es geht eher darum Windows auf andere Märkte zu erweitern. Man will ganz einfach einen Teil (oder am liebsten alles) von neuen Märkten wie eben Tablets und da High-End ARM-CPUs mittlerweile leistungsmäßig ausreichend schnell für das "normale" Windows sind, kann man sich dann in Zukunft ein extra Windows CE sparen.

Coda
2011-01-10, 01:29:10
Ich glaube nicht, das nVidia komplett bei Null anfangen wird. Sie werden sicherlich einen aktuellen ARM Core (Cortex A15 wäre eine Kandidat) mit lizenziert haben und auf dessen Basis dann weiterentwickeln. Denn alles andere würde Unmengen an R&D Ressourcen verbrauchen.
Ich bin mir noch sicher ob man mit einem embedded Design wirklich mit Desktop-Designs mit 95W Power Budget mithalten kann.

Vor allem müssen sie auch die zukünftige 64-Bit-ARM-ISA implementieren wenn sie wirklich auf den Desktop wollen.

Limit
2011-01-10, 02:21:50
Ich bin mir noch sicher ob man mit einem embedded Design wirklich mit Desktop-Designs mit 95W Power Budget mithalten kann.

Vor allem müssen sie auch die zukünftige 64-Bit-ARM-ISA implementieren wenn sie wirklich auf den Desktop wollen.

Rein von den Grund-Features her, hätte ein Cortex A15 den bisherigen Informationen zu Folge das meiste, was auch die heutigen High-End-CPUs ausmacht. Das soll nicht heißen, dass der A15 z.B. mit Sandy Bridge oder Bulldozer wird mithalten können, aber die wesentlichen Design-Elemente teilt er mit den beiden und ist damit sicherlich keine typisches embedded Design mehr. nVidia müsste die einzelnen Einheiten nicht komplett neu entwerfen, sondern nur anpassen. Das sollte deutlich einfacher und schneller gehen als ein Entwurf am Reißbrett.

Coda
2011-01-10, 02:32:12
Ich bin da trotzdem skeptisch. Wie gesagt müssten sie das Ding erstmal auf 64 bit bringen.

hell_bird
2011-01-10, 03:42:27
Es ist ja so, dass Nvidia sich vor einiger Zeit ziemlich deutlich auf "Supercomputer" (HPC) ausgerichtet hat. Ich denke dabei sind sie auch geblieben. Dass sie das Projekt ausgerechnet auf der CES wenige Minuten vor der Windows für ARM Ankündigung offengelegt haben bedeutet wohl, dass sie ihre Stammkunden, die Spieler einfach mitnehmen wollen.

Was jetzt die Anforderungen für HPC sind weiß ich nicht. Aber 64bit und eine sehr enge Bindung von CPU und GPU vielleicht sogar durch ein zusammengefasstes instruction set wäre wohl angebracht. Wo wäre sonst der Vorteil gegenüber der Konkurrenz?

Gipsel
2011-01-10, 11:45:20
Ich bin da trotzdem skeptisch.
Ich bin da auch skeptisch. Um noch mal meine These vom Anfang des Threads hervorzukramen, eine CPU zu entwickeln, die so grob 50% bis meinetwegen auch zwei Drittel der Performance/Watt einer aktuellen x86er-CPU erreicht (im Leistungsbereich eines 3GHz SandyBridge), dürfte mit noch irgendwie überschaubaren Aufwand zu realisieren sein. Aber die fehlenden 35% bis 50% (eher Letzteres), dürften ziemlich schwer werden. Insbesondere für jemanden ohne Fabs, dessen Foundry schonmal mindestens ein Jahr, wenn nicht gar zwei mit dem Fertigungsprozeß hinterherhängt (TSMC vs. Intel, hat TSMC überhaupt einen HP-Prozeß?).

V2.0
2011-01-10, 11:52:08
Evtl. will man auch gar keinen Ersatz für Intels Desktop-CPUs bringen, sondern einfach das eigene Portofolio im Mobilbereich / Lowvoltage verbessern. ARM-Prozessor + NV GPU als eigene Antwort auf Fusion in dem Bereich. Für SoC ausreichend.

Gipsel
2011-01-10, 11:53:43
Was jetzt die Anforderungen für HPC sind weiß ich nicht. Aber 64bit und eine sehr enge Bindung von CPU und GPU vielleicht sogar durch ein zusammengefasstes instruction set wäre wohl angebracht. Wo wäre sonst der Vorteil gegenüber der Konkurrenz?
Ja, was wäre der Vorteil? Die Konkurrenz macht es doch wahrscheinlich so ähnlich (oder hat es sogar schon so gemacht, auch wenn Intels Larrabee erstmal ein Fehlschlag war).

Im Prinzip läuft Dein Vorschlag auf sowas wie Larrabee mit ARM- statt x86-ISA heraus, oder? Etwas abstrakter hatte ich ein ähnliches Konzept (mit getrennten Schedulern für die GPU/SIMD-Befehle) hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8490055#post8490055) schon mal formuliert.

Gipsel
2011-01-10, 11:57:23
Für SoC ausreichend.Nv adressiert aber ausdrücklich auch Server. Und da kann man nur eine Teilmenge mit vielen, aber dafür stromsparenden Kernen bedienen (die Nische, die im Prinzip Niagara bei Webservern oder IBM BlueGene bei HPC besetzt).

Dural
2011-01-10, 12:07:18
Ich bin da auch skeptisch. Um noch mal meine These vom Anfang des Threads hervorzukramen, eine CPU zu entwickeln, die so grob 50% bis meinetwegen auch zwei Drittel der Performance/Watt einer aktuellen x86er-CPU erreicht (im Leistungsbereich eines 3GHz SandyBridge), dürfte mit noch irgendwie überschaubaren Aufwand zu realisieren sein. Aber die fehlenden 35% bis 50% (eher Letzteres), dürften ziemlich schwer werden. Insbesondere für jemanden ohne Fabs, dessen Foundry schonmal mindestens ein Jahr, wenn nicht gar zwei mit dem Fertigungsprozeß hinterherhängt (TSMC vs. Intel, hat TSMC überhaupt einen HP-Prozeß?).

haha der muss ich mir merken!

gibt schon komische user :biggrin:

deekey777
2011-01-10, 12:19:25
...Insbesondere für jemanden ohne Fabs
Ach komm, AMD ist auch fabless. ;D

, dessen Foundry schonmal mindestens ein Jahr, wenn nicht gar zwei mit dem Fertigungsprozeß hinterherhängt (TSMC vs. Intel, hat TSMC überhaupt einen HP-Prozeß?).
Keine Ahnung, ob das wirklich relevant ist: Warum hat sich Nvidia gerade für ARM entschieden? Wegen der fehlenden x86-Lizenz? Klar. Aber auch deswegen, weil GF eine ARM-(Fertigungs-)Lizenz hat?

V2.0
2011-01-10, 12:30:39
Nv adressiert aber ausdrücklich auch Server. Und da kann man nur eine Teilmenge mit vielen, aber dafür stromsparenden Kernen bedienen (die Nische, die im Prinzip Niagara bei Webservern oder IBM BlueGene bei HPC besetzt).

Evtl. kommt die Power dann aus Tesla Chips und ARM stellt nur die Kommunkationsbrücke zu den Tesla GPUs da.
Ich kann mir nicht vorstellen, dass sie wirklich die High-End-CPUs angreifen wollen.

Und in Zeiten von Optimus und Green-IT kann ich mir einen ARM Server attraktiv vorstellen, der je nach Last und bedarfsgerecht Tesla GPUs aktiviert.

san.salvador
2011-01-10, 12:30:56
Ach komm, AMD ist auch fabless. ;D

Keine Ahnung, ob das wirklich relevant ist: Warum hat sich Nvidia gerade für ARM entschieden? Wegen der fehlenden x86-Lizenz? Klar. Aber auch deswegen, weil GF eine ARM-(Fertigungs-)Lizenz hat?
x86 geht nicht, wegen Lizenz. Was bleibt denn dann außer ARM?

iFanatiker
2011-01-10, 12:32:06
Evtl. will man auch gar keinen Ersatz für Intels Desktop-CPUs bringen, sondern einfach das eigene Portofolio im Mobilbereich / Lowvoltage verbessern. ARM-Prozessor + NV GPU als eigene Antwort auf Fusion in dem Bereich. Für SoC ausreichend.

SoC für irgendwelche Consumer Geräte oder "Terminal" sind aber für ein Unternehmen wie nVidia ein recht uninterssanter Markt. Dort ist der Wettbewerb schon seit Jahren sehr massiv und die Mitspieler nicht weniger schwer als Intel (Samsung z. B. die da immer "massiver" vordringen). Nur durch steigenden Bedarf nach leistungsfähigen SoC im Smartphone und Tablett hat in den letzten beiden Jahren die Marge leicht erhöht. Selbst High End SoC kriegst du kaum für mehr los als 20 US-$ pro Stück (und dies nur wenn kleine Mengen abgenommen werden). Die Marge pro Einheit ist recht gering und Gewinn macht man nur über Masse oder "Quergeschäfte" (Samsung ist ja selber Abnehmer und mit Apple haben sie ja anscheinend auch einen guten Deal).

Für ein Unternehmen wie nVidia (eher klein usw.) kann somit eigentlich nur der Markt interessant sein wo Marge ist.

deekey777
2011-01-10, 12:35:29
Evtl. kommt die Power dann aus Tesla Chips und ARM stellt nur die Kommunkationsbrücke zu den Tesla GPUs da.
Ich kann mir nicht vorstellen, dass sie wirklich die High-End-CPUs angreifen wollen.

Und in Zeiten von Optimus und Green-IT kann ich mir einen ARM Server attraktiv vorstellen, der je nach Last und bedarfsgerecht Tesla GPUs aktiviert.
Das Problem daran ist, daß immer ein gewisser Teil (der je nach Problem unterschiedlich groß ausfällt) jedes Programms prinzipiell nicht parallelisiert werden kann. Je schneller also der Parallelteil abgearbeitet wird, desto mehr limitiert wieder der sequentielle Part. Das läßt sich ziemlich einfach ausrechnen und darstellen (http://de.wikipedia.org/wiki/Amdahlsches_Gesetz). Man benötigt also auch schnelle CPUs für diesen Teil. Und genau darauf spielte Gauß an.

Bei dem ganzen Hype um GPGPU vergisst man sehr schnell, dass die GPU eben nicht alles so gut beherschen, was die CPUs können. Es gibt schon gute Gründe, warum es weiterhin universelle CPU-Supercomputer gibt.

Label
2011-01-10, 12:42:04
x86 geht nicht, wegen Lizenz. Was bleibt denn dann außer ARM?
z.B. MIPS (http://en.wikipedia.org/wiki/MIPS_architecture) im Loongson (http://en.wikipedia.org/wiki/Loongson) usw...

deekey777
2011-01-10, 12:45:55
Ich glaube, dass die Übernahme von Ageia schon überraschend war, denn eigentich haben viele erwartet, dass Nvidia entweder die CPU-Sparte von VIA oder Transmeta übernimmt, um irgendwie an die x86-Lizenz zu kommen.

fondness
2011-01-10, 12:53:48
x86 geht nicht, wegen Lizenz.

Lizenzen kann man lizenzieren.

san.salvador
2011-01-10, 13:00:26
Lizenzen kann man lizenzieren.
Klar, alles eine Frage des Preises. Aber Lizenz + Entwicklung von konkurrenzfähiger CPU + Marketing dürfte nV wohl zu viel sein. Im besten Fall würden sie wohl dahinsandeln wie AMD.
Da versteh ich die Entscheidung für ARM, besonder mit der Ankündigung von MS, dort ein Win zu etablieren.

mapel110
2011-01-10, 13:06:04
Wenn man etwas neu entwickeln muss, dann ists doch klar, dass man dort investiert, wo der Markt auch sehr stark wächst. Bei x86 tut er das ja wohl nur sehr eingeschränkt.

V2.0
2011-01-10, 13:38:04
SoC für irgendwelche Consumer Geräte oder "Terminal" sind aber für ein Unternehmen wie nVidia ein recht uninterssanter Markt. Dort ist der Wettbewerb schon seit Jahren sehr massiv und die Mitspieler nicht weniger schwer als Intel (Samsung z. B. die da immer "massiver" vordringen). Nur durch steigenden Bedarf nach leistungsfähigen SoC im Smartphone und Tablett hat in den letzten beiden Jahren die Marge leicht erhöht. Selbst High End SoC kriegst du kaum für mehr los als 20 US-$ pro Stück (und dies nur wenn kleine Mengen abgenommen werden). Die Marge pro Einheit ist recht gering und Gewinn macht man nur über Masse oder "Quergeschäfte" (Samsung ist ja selber Abnehmer und mit Apple haben sie ja anscheinend auch einen guten Deal).

Für ein Unternehmen wie nVidia (eher klein usw.) kann somit eigentlich nur der Markt interessant sein wo Marge ist.

Mit Tegra ist man ja auch irgendwo in diesem Bereich unterwegs.

Gipsel
2011-01-10, 13:38:17
haha der muss ich mir merken!

gibt schon komische user :biggrin:
Merk' Dir das ruhig! :cool:

Aber Du kannst mir sicherlich erklären, was Du so belustigend an dem Post findest, oder? :rolleyes:
Ach komm, AMD ist auch fabless. ;DIch weiß, und es ist sicherlich nicht von Vorteil, solange GF zwar vielleicht gute Prozesse zur Verfügung stellt, dies aber auch weiterhin nur mit deutlicher Verzögerung gegenüber Intel.

Gipsel
2011-01-10, 13:41:33
Bei dem ganzen Hype um GPGPU vergisst man sehr schnell, dass die GPU eben nicht alles so gut beherschen, was die CPUs können. Es gibt schon gute Gründe, warum es weiterhin universelle CPU-Supercomputer gibt.
Genau. Single-Thread-Performance ist noch lange nicht unwichtig und wird es auch nie werden. Es wird nur immer schwieriger, dort noch was zu reißen.

Coda
2011-01-10, 16:08:47
Merk' Dir das ruhig! :cool:

Aber Du kannst mir sicherlich erklären, was Du so belustigend an dem Post findest, oder? :rolleyes:
Ich versteh's auch nicht. Die Aussage deckt sich auch mit meiner Einschätzung.

NVIDIA traue ich aber durchaus zu da richtig Geld reinzustecken. Strategisch sind sie auf eine leistungsfähig CPU angewiesen in Zukunft.

eine Ahnung, ob das wirklich relevant ist: Warum hat sich Nvidia gerade für ARM entschieden? Wegen der fehlenden x86-Lizenz? Klar. Aber auch deswegen, weil GF eine ARM-(Fertigungs-)Lizenz hat?
Bei ARM gibt es sowas soweit ich weiß nicht. Jeder kann die IP fertigen wo er möchte.

fondness
2011-01-10, 16:15:47
Klar, alles eine Frage des Preises. Aber Lizenz + Entwicklung von konkurrenzfähiger CPU + Marketing dürfte nV wohl zu viel sein. Im besten Fall würden sie wohl dahinsandeln wie AMD.
Da versteh ich die Entscheidung für ARM, besonder mit der Ankündigung von MS, dort ein Win zu etablieren.

Auch ARM musste man lizenzieren, man zahlt sogar pro verkaufte CPU. Der Knackpunkt ist aber wie du schon sagtest das entwickeln. Eine CPU entwickelt man nicht mal eben so, das ist das Modell von ARM geradezu ideal.

Ailuros
2011-01-10, 16:26:41
Auch ARM musste man lizenzieren, man zahlt sogar pro verkaufte CPU. Der Knackpunkt ist aber wie du schon sagtest das entwickeln. Eine CPU entwickelt man nicht mal eben so, das ist das Modell von ARM geradezu ideal.

Lizenz-Gebuehren + royalties sind zwar Kosten aber uebermassige Summen sind das nun auch wieder nicht. Ich weiss jetzt nicht mehr was eine Lizenz heutzutage kostet, aber ueber $2Mio duerfte sie nicht kosten maximal. Dazu gibt es noch repeat licenses wo der Preis ueber mehrere Nutzen um einiges faellt.

Was jetzt royalties betrifft das letzte Mal dass ich mich mit diesen fuer GPUs in Konsolen beschaeftigte lagen die Preise je nach Fall zwischen $3 und $6 pro verkaufter Konsole.

Die ganze Lizenz + royalties Rechnung duerfte relativ sehr gering sein (ueberhaupt wenn man einen custom design bauen will) im Vergleich zu den eigentlichen Entwicklungskosten seitens NV.

steve.it
2011-01-10, 16:27:43
x86 geht nicht, wegen Lizenz. Was bleibt denn dann außer ARM?
z.B. MIPS (http://en.wikipedia.org/wiki/MIPS_architecture) im Loongson (http://en.wikipedia.org/wiki/Loongson) usw...
Power(PC)

Bucklew
2011-01-10, 18:15:14
Aber die fehlenden 35% bis 50% (eher Letzteres), dürften ziemlich schwer werden. Insbesondere für jemanden ohne Fabs, dessen Foundry schonmal mindestens ein Jahr, wenn nicht gar zwei mit dem Fertigungsprozeß hinterherhängt (TSMC vs. Intel, hat TSMC überhaupt einen HP-Prozeß?).
Na, mit denselben Vorraussetzungen schafft AMD doch auch schon 20% Marktanteil, das wäre doch immerhin schonmal was ;D

Vorallem bei den Margen im CPU-Markt. Von da aus kann man dann ja auch weiter machen ;)

Coda
2011-01-10, 18:24:23
Der AMD-Prozess sollte schon noch ein Stück besser sein als der von TSMC.

Gipsel
2011-01-10, 18:32:26
Na, mit denselben Vorraussetzungen schafft AMD doch auch schon 20% Marktanteil, das wäre doch immerhin schonmal was ;D

Vorallem bei den Margen im CPU-Markt. Von da aus kann man dann ja auch weiter machen ;)
Siehe Codas Post.
Dazu kommt noch, daß man dann auch erstmal AMD erreichen müßte (warten wir doch mal ab, ob Bulldozer da nicht den Abstand zu Sandybridge wieder verkleinert ;)). Selbst wenn nv dort ankommen sollte, dann balgt man sich immer noch mit AMD und kann vielleicht denen ein bißchen Marktanteil abjagen (wie groß ist der gerade nochmal bei Servern?). Aber wie ein grandioses Erfolgsrezept hört sich das erstmal noch nicht an.

Bucklew
2011-01-10, 18:39:26
Der AMD-Prozess sollte schon noch ein Stück besser sein als der von TSMC.
AMD-Prozeß? Wenn schon wohl GF-Prozeß, AMD hat keine Fabs mehr.

Dazu kommt noch, daß man dann auch erstmal AMD erreichen müßte (warten wir doch mal ab, ob Bulldozer da nicht den Abstand zu Sandybridge wieder verkleinert ;)). Selbst wenn nv dort ankommen sollte, dann balgt man sich immer noch mit AMD und kann vielleicht denen ein bißchen Marktanteil abjagen (wie groß ist der gerade nochmal bei Servern?). Aber wie ein grandioses Erfolgsrezept hört sich das erstmal noch nicht an.
Was wäre denn ein "grandioses Erfolgsrezept"? "Wir veröffentlichen Morgen eine CPU, die x86-kompatibel ist und 2x schneller als der schnellste Sandy Bridge!"? Ja, ok, das vllt. Aber realistisch? Eher nicht.

Um in den von Intel dominierten CPU-Markt zu kommen gibt es kein grandioses Erfolgsrezept. Da hilft nur gute Technik und verdammt viel Durchhaltevermögen. Nichtmal AMD hat es geschafft den Athlon-Vorteil zu nutzen.

Coda
2011-01-10, 18:46:06
AMD-Prozeß? Wenn schon wohl GF-Prozeß, AMD hat keine Fabs mehr.
Tatsächlich :rolleyes:

fondness
2011-01-10, 18:57:22
AMD-Prozeß? Wenn schon wohl GF-Prozeß, AMD hat keine Fabs mehr.


Sie gehören ihnen nicht mehr alleine, aber sie haben noch genug Mitspracherecht.

iFanatiker
2011-01-10, 19:03:29
Mit Tegra ist man ja auch irgendwo in diesem Bereich unterwegs.

Eben. Darum geht es mir. Wenn nVidia den Arm Befehlssatz lizensiert und ein eigenes CPU Design macht, was richtig viel Geld kosten dürfte (im Gegensatz zum Tegra wo man die CPU IP gekauft hat und bißchen GPU Recycling betreibt), dann geht es hier nicht um irgendwelche Terminals für 100 US-$ oder andere "Embedded" Anwendungen sondern eher um Produkte für margenträchtige Märkte, wie eben Server aber auch Desktopworkstation (jetzt egal ob Spielerrechner, Entwicklungrechner usw).

Diese Entwicklung ist auch IMHO recht logisch. CPU + GPU sind auf dem Weg der "Fusion" (:biggrin:) bei AMD aber auch Intel und von Generation zu Generation wird der Bedarf an dezidierten GPU Einheiten nicht mehr so schnell wachsen bzw. sinken. Eher sehe ich die Zukunft sogar so, daß wir gar keinen "klassichen" CPUs mehr haben werden sondern halt einen Verbund aus diversen Funktionsheitenen die sogar nur für spezielle Einsatzzwecke geeignet sind (wie eben die dezidierte Hardware für Quick Sync). Entsprechend ist eben IMHO nVidia gezwungen in die andere Richtung (GPU + CPU) vorzupreschen. Tegra und co. sehe ich nur als "Nebenverdienst".

Bucklew
2011-01-10, 19:12:58
Sie gehören ihnen nicht mehr alleine, aber sie haben noch genug Mitspracherecht.
Den Arabern gehört GF bereits zu knapp 2/3, haben also die klare Stimmmehrheit.

LovesuckZ
2011-01-10, 19:17:06
Siehe Codas Post.
Dazu kommt noch, daß man dann auch erstmal AMD erreichen müßte (warten wir doch mal ab, ob Bulldozer da nicht den Abstand zu Sandybridge wieder verkleinert ;)). Selbst wenn nv dort ankommen sollte, dann balgt man sich immer noch mit AMD und kann vielleicht denen ein bißchen Marktanteil abjagen (wie groß ist der gerade nochmal bei Servern?). Aber wie ein grandioses Erfolgsrezept hört sich das erstmal noch nicht an.

Und welche AMD CPU wird in 2-5 Jahren eine GPU haben, die mit nVidia's HPC Angebot mithalten wird?

fondness
2011-01-10, 19:22:03
Den Arabern gehört GF bereits zu knapp 2/3, haben also die klare Stimmmehrheit.

Nope.

Bucklew
2011-01-10, 19:23:24
Nope.
Ach?

http://www.computerbase.de/news/wirtschaft/2010/januar/gibt-amd-restliche-globalfoundries-anteile-ab/

Gipsel
2011-01-10, 19:23:54
Was wäre denn ein "grandioses Erfolgsrezept"? "Wir veröffentlichen Morgen eine CPU, die x86-kompatibel ist und 2x schneller als der schnellste Sandy Bridge!"? Ja, ok, das vllt. Aber realistisch? Eher nicht.

Um in den von Intel dominierten CPU-Markt zu kommen gibt es kein grandioses Erfolgsrezept. Da hilft nur gute Technik und verdammt viel Durchhaltevermögen.Ganz genau. Nichts anderes sage ich hier schon den ganzen Thread lang ;)
Es ist einfach nicht sehr realistisch zu erwarten, daß eine APU von nvidia mit ARM-ISA praktisch über Nacht sowohl in vollem Umfang konkurrenzfähig ist und dann auch gleich noch ein großes Stück vom Markt abbekommt.

Man kann sich wahrscheinlich von Tablets/Netbooks ein wenig hocharbeiten oder auch eine Nische irgendwo im HPC-Markt finden. Aber für Konkurrenz auf breiter Front (und die hat nvidia verkündet, wenn ich ihre Pressemeldung lese) bedarf es gewaltiger Anstrengung und auch einiges an Zeit. Die Konkurrenz schläft ja nicht (gibt's hier ein Phrasenschwein? :freak:).

Bucklew
2011-01-10, 19:27:25
Ganz genau. Nichts anderes sage ich hier schon den ganzen Thread lang ;)
Es ist einfach nicht sehr realistisch zu erwarten, daß eine APU von nvidia mit ARM-ISA praktisch über Nacht sowohl in vollem Umfang konkurrenzfähig ist und dann auch gleich noch ein großes Stück vom Markt abbekommt.

Man kann sich wahrscheinlich von Tablets/Netbooks ein wenig hocharbeiten oder auch eine Nische irgendwo im HPC-Markt finden. Aber für Konkurrenz auf breiter Front (und die hat nvidia verkündet, wenn ich ihre Pressemeldung lese) bedarf es gewaltiger Anstrengung und auch einiges an Zeit. Die Konkurrenz schläft ja nicht (gibt's hier ein Phrasenschwein? :freak:).
Und genau deswegen fordert man die Konkurrenz nicht in ihrem Vorgarten heraus und bleibt daher dem platt getretenen x86-Wegen fern.

Und: Von Zeit spricht die Pressemeldung auch gar nicht ;) Nur so als Denkanstoß.

Gipsel
2011-01-10, 19:33:35
Ach?

http://www.computerbase.de/news/wirtschaft/2010/januar/gibt-amd-restliche-globalfoundries-anteile-ab/
Bei Gründung wurde festgelegt, daß AMD und ATIC unabhängig von den Besitzverhältnissen Stimmrechte zu gleichen Teilen besitzen. Dies war notwendig, um die Beschränkung des Lizenzaustauschabkommens mit Intel (maximal 25%? der CPUs dürfen fremdgefertigt sein) zu erfüllen. Als dies abschließend neu verhandelt wurde (die neue Auflage enthält diese Klausel nicht mehr, das war Teil des Deals zu Einstellung der Auseinandersetzung um die Marktbehinderungen seitens Intel), kann das geändert werden. Ich habe aber nicht gehört, daß dies schon erfolgt ist (wird sich AMD wohl in irgendeiner Form bezahlen lassen wollen). Kann aber sein, daß mir das entgangen ist. Wenn Du mehr weißt, immer her damit! Für mich sieht das ein wenig danach aus, daß dies jetzt passieren soll.

Gipsel
2011-01-10, 19:38:01
Und genau deswegen fordert man die Konkurrenz nicht in ihrem Vorgarten heraus [..]
NVIDIA announced today that it plans to build high-performance ARM® based CPU cores, designed to support future products ranging from personal computers and servers to workstations and supercomputers.Na wenn das keine Kampfansage an den dominierenden Hersteller in allen diesen Bereichen ist, was dann? :rolleyes:
Nur x86 vs. ARM ändert die Zielmärkte nicht wirklich.

LovesuckZ
2011-01-10, 19:49:56
Begreifst du denn immer noch nicht, dass der Prozessor nicht als "Stand-Alone" CPU in den Markt gebracht wird?

Known under the internal codename "Project Denver," this initiative features an NVIDIA® CPU running the ARM instruction set, which will be fully integrated on the same chip as the NVIDIA GPU.

Es ist natürlich eine Kampfansage, trotzdem gehen sie nicht in einem 1:1 Kampf.

fondness
2011-01-10, 19:51:54
Begreifst du denn immer noch nicht, dass der Prozessor nicht als "Stand-Alone" CPU in den Markt gebracht wird?



Es ist natürlich eine Kampfansage, trotzdem gehen sie nicht in einem 1:1 Kampf.

Begreifst du denn immer noch nicht, dass dies auch bei Intel und AMD bald so sein wird?

LovesuckZ
2011-01-10, 19:57:06
Begreifst du denn immer noch nicht, dass dies auch bei Intel und AMD bald so sein wird?

Na, das will ich sehen, dass Intel 90% des Die-Size für GPU-Funktionalitäten verwenden wird. :lol:

Ich versteh einfach nicht, wieso die typischen nVidia-Hasser von etwas reden, dass selbst bei sowenigen Informationen nicht mal hervorgeht.
Selbst heute könnten Hersteller Netbooks und Notebooks auf ARM Basis herstellen. x86 wird in Zukunft einfach an Bedeutung verlieren. Genauso wie andere Firmen, will nVidia einfach nur ein Stück vom Kuchen abhaben. Und da ARM wohl auch nach oben wachsen will, kommt diese Koorperation auch für sie sehr gelegen. Und weder Intel noch AMD werden in mittelbarer Zukunft Die-Size für GPU-Leistung opfern, die an GF104/Cypress+ Niveau heranreichen.

Dural
2011-01-10, 20:00:23
echt komisch hier ;D


Man könnte meine das gewisse user schon zum voraus ihr liblings cpu hersteller verteigen müssen nur weil man vor der ankündigung seitens NV wohl schon "angst" bekommt ;)


obwohl die richtig von NV eigentlich sonnen klar sein sollte, NV ziel dürfte nie eine ultra leistungstarke CPU sein, sondern NV will ihre GPU damit noch besser ins licht stellen

Coda
2011-01-10, 20:00:59
Na, das will ich sehen, dass Intel 90% des Die-Size für GPU-Funktionalitäten verwenden wird. :lol:
Die Polemik kannst du dir sparen. Es sind jetzt schon 15-20% bei Sandy Bridge.

Der Anteil am Die der GPU wird in Zukunft eine wichtige strategische Entscheidung sein und natürlich an der Softwarebasis entschieden werden.

Nur weil Intel aus der einen und NVIDIA aus der anderen Richtung kommen heißt das noch lange nicht, dass da keine Konvergenz eintreten wird. Ein ordentlicher CPU-Kern wird auch bei zukünftigen NVIDIA-SoCs einen guten Teil des Dies ausmachen müssen.

fondness
2011-01-10, 20:03:16
Die Polemik kannst du dir sparen. Es sind jetzt schon 15-20% bei Sandy Bridge.

Der Anteil am Die der GPU wird in Zukunft eine wichtige strategische Entscheidung sein und natürlich an der Softwarebasis entschieden werden.

Nur weil Intel aus der einen und NVIDIA aus der anderen Richtung kommen heißt das noch lange nicht, dass da keine Konvergenz eintreten wird. Ein ordentlicher CPU-Kern wird auch bei zukünftigen NVIDIA-SoCs einen guten Teil des Dies ausmachen müssen.

Amen.

Duplex
2011-01-10, 20:06:33
jup bei LZ immer das gleiche :freak:

x86 wird selbst in 10 Jahren keine bedeutung verlieren

Gipsel
2011-01-10, 20:10:00
Und welche AMD CPU wird in 2-5 Jahren eine GPU haben, die mit nVidia's HPC Angebot mithalten wird?Laß mich darauf mal mit einer Frage entgegnen:
Welche nvidia "APU" wird in 5 Jahren mit AMDs oder Intels HPC-Lösungen konkurrieren?
Die detaillierten Roadmaps dazu gibt es natürlich noch nicht, die Projekte sind ja auch erst noch am Anfang in der Planungsphase. Aber eines kann ich Dir recht sicher sagen, es wird welche geben, sowohl von Intel als auch vom AMD, auch wenn die dort verbauten SIMD-Arrays vielleicht nicht unbedingt "GPU" heißen.

Dural
2011-01-10, 20:10:25
x86 wird selbst in 10 Jahren keine bedeutung verlieren

im Desktop markt sicher nicht, aber NV zielt ja auch nicht auf diesen Markt ab...

Gipsel
2011-01-10, 20:13:16
im Desktop markt sicher nicht, aber NV zielt ja auch nicht auf diesen Markt ab...
Nicht?
NVIDIA announced today that it plans to build high-performance ARM® based CPU cores, designed to support future products ranging from personal computers and servers to workstations and supercomputers.
Unter einem PC versteht man üblicherweise einen Desktop.

Dural
2011-01-10, 20:14:24
Nicht?

das wird das entscheidende sein:

servers to workstations and supercomputers

wetten? ;)

LovesuckZ
2011-01-10, 20:15:34
Laß mich darauf mal mit einer Frage entgegnen:
Welche nvidia "APU" wird in 5 Jahren mit AMDs oder Intels HPC-Lösungen konkurrieren?

Du bist derjenige, der hier rumfaselt. Daher solltest du auch solche Dinge beantworten können. Ich habe keine Ahnung, was AMD und Intel als Zukunft sehen, nVidia sieht aber einen Markt für ARM höher als Tablets. Und da HPC für sie als Wachstumsmotor gilt, werden sie entsprechend hier auch ihre Entwicklung ausrichten. Das ist wesentlich gesicherer als ob Intel und AMD bei der CPU ebenfalls in diesem Bereich GPU-Funktionalitäten einbauen werden.


Die detaillierten Roadmaps dazu gibt es natürlich noch nicht, die Projekte sind ja auch erst noch am Anfang in der Planungsphase. Aber eines kann ich Dir recht sicher sagen, es wird welche geben, sowohl von Intel als auch vom AMD, auch wenn die dort verbauten SIMD-Arrays vielleicht nicht unbedingt "GPU" heißen.

Ich gebe nichts auf dem, was du sagst. Wie bei Cayman, GF110 und sonstigen Themen bist du ein nVidia-Hasser und AMD-Liebhaber. Demnach sind deine Äußerungen auch eingefärbt.

Gipsel
2011-01-10, 20:15:59
das wird das entscheidende sein:

wetten? ;)
Mal eine kleine Geschichtsfrage:
Wieso hat sich die x86er-Architektur im Laufe der Zeit auch bei HPC-Lösungen durchgesetzt?

Black-Scorpion
2011-01-10, 20:19:25
Und welche AMD CPU wird in 2-5 Jahren eine GPU haben, die mit nVidia's HPC Angebot mithalten wird?
Deine Glaskugel möchte man haben. :rolleyes: bis jetzt haben sie noch gar nichts.

Gipsel
2011-01-10, 20:23:17
Du bist derjenige, der hier rumfaselt.
[..]
Ich gebe nichts auf dem, was du sagst. Wie bei Cayman, GF110 und sonstigen Themen bist du ein nVidia-Hasser und AMD-Liebhaber. Demnach sind deine Äußerungen auch eingefärbt.
Jaja, und wie das halbe Forum von AMD bezahlt! ;D

An Deiner Stelle würde ich mal langsam mit diesem Blödsinn aufhören! Oder schreib mir 'ne PM, dann belästigst Du damit wenigstens nicht den Rest hier!

Daher solltest du auch solche Dinge beantworten können. Ich habe keine Ahnung, was AMD und Intel als Zukunft sehen, nVidia sieht aber einen Markt für ARM höher als Tablets. Und da HPC für sie als Wachstumsmotor gilt, werden sie entsprechend hier auch ihre Entwicklung ausrichten. Das ist wesentlich gesicherer als ob Intel und AMD bei der CPU ebenfalls in diesem Bereich GPU-Funktionalitäten einbauen werden.Komischerweise gibt es aber von Intel und praktisch auch von AMD schon x86er-CPUs mit integrierter GPU zu kaufen, von nvidia außer im SOC-Markt noch nichts. Es gibt bei beiden eine Roadmap für die nächsten paar Jahre, daß dies weiter ausgebaut werden soll (die sich natürlich in 2jähriger Entfernung ein wenig im Ungewissen verlieren, weil Intel und AMD das selbst noch nicht hundertprozentig wissen, was in 5 Jahren ist :rolleyes:). Intel hat sogar eine GPU mit einer erweiterten x86er-ISA entwickelt, an der die sicherlich intern weiter stricken. Also wovon sprichst Du?

Aquaschaf
2011-01-10, 20:25:23
haha der muss ich mir merken!

gibt schon komische user :biggrin:

An der Aussage ist überhaupt nichts komisch, die ist nicht einmal besonders pesimistisch.

LovesuckZ
2011-01-10, 20:31:51
Jaja, und wie das halbe Forum von AMD bezahlt! ;D

An Deiner Stelle würde ich mal langsam mit diesem Blödsinn aufhören! Oder schreib mir 'ne PM, dann belästigst Du damit wenigstens nicht den Rest hier!

Ich kann nunmal nichts dafür, dass du hier unsinn über nVidia, deren Entwicklung und Aussichten schreibst. Vielleicht solltest du das abstellen.


Komischerweise gibt es aber von Intel und praktisch auch von AMD schon x86er-CPUs mit integrierter GPU zu kaufen, von nvidia außer im SOC-Markt noch nichts. Es gibt bei beiden eine Roadmap für die nächsten paar Jahre, daß dies weiter ausgebaut werden soll (die sich natürlich in 2jähriger Entfernung ein wenig im Ungewissen verlieren, weil Intel und AMD das selbst noch nicht hundertprozentig wissen, was in 5 Jahren ist :rolleyes:). Intel hat sogar eine GPU mit einer erweiterten x86er-ISA entwickelt, an dem die sicherlich intern weiter stricken. Also wovon sprichst Du?

AMD wird frühsten 2012 in Bulldozer GPU-Funktionalitäten einbauen. Intel hat noch einen langen Weg, um auf Stand Ende 2009 zu kommen. Und trotzdem wird jetzt schon hier gesprochen, dass AMD und Intel beim erscheinen von "Denver" bei den GPU-Funktionalitäten mithalten können. Selbst AMD ist nicht auf dem Niveau von nVidia und in einigen Bereichen sind sie weit abgeschlagen. Eure Prognosen sind daher verdammt gewagt und die negative Stimmung gegen "Denver" vollkommen unlogisch.
Aber es ist ja gerade in Mode nVidia zu unterschätzen.

Coda
2011-01-10, 20:35:20
Ich kann nunmal nichts dafür, dass du hier unsinn über nVidia, deren Entwicklung und Aussichten schreibst. Vielleicht solltest du das abstellen.
So eine krasse kognitive Dissonanz muss schon schlimm sein.

LovesuckZ
2011-01-10, 20:45:33
So eine krasse kognitive Dissonanz muss schon schlimm sein.

Logo, vorallem weil ich auch propagiert habe, dass man 15% Leistungszuwachs bei gleichem Stromverbrauch zu 90% durch einem Kühlerwechsel erreichen kann. :lol:

Gipsel hat einfach nicht verstanden, was nVidia übaupt mit "Project Denver" vorhat. Eine Stand-Alone-CPU ist es nicht. Und ob Intel und AMD die GPU-Funktionalitäten soweit ausbauen werden, dass sie im Workstation/HPC Markt angreifen werden, steht vollkommen in den Sternen. Trotzdem wird schon Stimmung gegen "Denver" gemacht. Vollkommen unbegründet.

Und natürlich greift man mit solch einer Idee auch den "Personal Computer" Bereich an. Motorola's Atrix4G und auch Toshiba's AC100 zeigen, dass die Leistungsfähigkeit von ARM schon annährend ausreichend ist. Und die Entwicklung geht so schnell, dass wir in 2-3 Jahren einen ziemlich großen Low-End Markt haben, der von ARM SoCs abgedeckt wird.

Gipsel
2011-01-10, 20:47:19
AMD wird frühsten 2012 in Bulldozer GPU-Funktionalitäten einbauen.Ja, und wann kommt das erste Produkt von nvidias "Projekt Denver" auf den Markt? 2013? 2015?
Intel hat noch einen langen Weg, um auf Stand Ende 2009 zu kommen.Larrabee hatte gerüchteweise etwa GTX280-Niveau, bei wahrscheinlich deutlich besserer HPC-Eignung, auch besser als Fermi. Nur mal so als Gedanke.
Und trotzdem wird jetzt schon hier gesprochen, dass AMD und Intel beim erscheinen von "Denver" bei den GPU-Funktionalitäten mithalten können.Sie werden aber ziemlich sicher eine Lösung haben, bei der die CPU-Funktionalität stimmt. Und das ist für sehr viele Probleme auch nicht so ganz unwichtig ;)
Und von AMD weiß man, daß sie sowohl halbwegs konkurrenzfähige CPUs als auch GPUs bauen können. Die haben alle Zutaten und auch schon ein wenig Erfahrung in dem Markt, das kann man von nvidia noch nicht unbedingt behaupten. Und Intel, also da sollte sich eher nv Sorgen machen, ich mache mir keine :rolleyes:
So eine krasse kognitive Dissonanz muss schon schlimm sein.Kann ich meine Ausgewogenheit demonstrieren, indem ich Dich ermahne, sachlich zu bleiben? :rolleyes: :lol:

Gipsel
2011-01-10, 20:54:10
Gipsel hat einfach nicht verstanden, was nVidia übaupt mit "Project Denver" vorhat.Okay, dann sage ich, Du hast einfach nicht verstanden, was Heterogeneous Computing ist und wie es funktioniert. Sind wir jetzt quit und können uns wieder ernsthaft dem Thema widmen?
Und ob Intel und AMD die GPU-Funktionalitäten soweit ausbauen werden, dass sie im Workstation/HPC Markt angreifen werden, steht vollkommen in den Sternen.Du kannst es als gegeben ansehen, daß AMD und Intel natürlich an Lösungen arbeiten, und nicht erst seit gestern. Denkst Du, das Thema fällt jetzt mit einem Mal von Himmel und die beiden sitzen wie zwei Kaninchen vor der Schlange? :lol:
Wie gesagt, ob das dann noch GPU heißen wird, wage ich ein wenig zu bezweifeln, aber ein paar mehr SIMD-Arrays werden wir in Zukunft in den CPUs/APUs schon sehen. ;)

Edit:
Es juckt mich doch etwas zu sehr in den Fingern, deswegen Antwort auf Dein OT-Kram im Spoiler:
Logo, vorallem weil ich auch propagiert habe, dass man 15% Leistungszuwachs bei gleichem Stromverbrauch zu 90% durch einem Kühlerwechsel erreichen kann. :lol:
Am besten liest Du Dir nochmal mein Post dazu (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8417591#post8417591) durch. Also ich komme da irgendwie nicht auf die 90%, die Du hier behauptest.
Einen Post später habe ich die Stromersparnis durch eine 10°C niedrigere Temperatur unter Last auf grob 20W beziffert. Und irgendwie scheint mir dort auch y33h@ zumindest bei der Deutung des idle-Verbrauchs anhand von Messdaten bei PCGH zugestimmt zu haben (Post #249 von mir, #250 Antwort von y33h@). Also laß es sein, die Argumentation gewinnst Du nicht ;)

LovesuckZ
2011-01-10, 21:06:27
Ja, und wann kommt das erste Produkt von nvidias "Projekt Denver" auf den Markt? 2013? 2015?

Sag du es mir. Du weißt doch schon, dass nVidia es zu dem Zeitpunkt schwerhaben wird mit AMD mitzuhalten.


Larrabee hatte gerüchteweise etwa GTX280-Niveau, bei wahrscheinlich deutlich besserer HPC-Eignung, auch besser als Fermi. Nur mal so als Gedanke.

Hätte, wäre wenn. Hätte AMD bei Cypress einfach nur den Kühler gewechselt, wäre man beim selben Verbrauch auch auf GTX480 Leistungsniveau gekommen. Da aber weder Intel Larrabee fertigen, noch AMD kluge Kühldesigner hat, spielt es keine Rolle, was bei anderen Gegebenheiten existieren würde. Larrabee sollte bei GTX280 Niveau deutlich mehr Strom benötigen und war für Intel am Ende nichtmal herstellbar.


Sie werden aber ziemlich sicher eine Lösung haben, bei der die CPU-Funktionalität stimmt. Und das ist für sehr viele Probleme auch nicht so ganz unwichtig ;)
Und von AMD weiß man, daß sie sowohl halbwegs konkurrenzfähige CPUs als auch GPUs bauen können. Die haben alle Zutaten und auch schon ein wenig Erfahrung in dem Markt, das kann man von nvidia noch nicht unbedingt behaupten. Und Intel, also da sollte sich eher nv Sorgen machen, ich mache mir keine :rolleyes:


Die CPU-Funktionalitäten spielen doch keine Rolle für nVidia. Sie wollen GPUs verkaufen. Die Entwicklung wird also dahingehen, dass der ARM Chip explizit auf die Anforderungen ausgerichtet und somit in der Lage sein wird die GPU schnell genug mit Daten zu füttern. Die wollen keine Stand-Alone-Konkurrenz erschaffen. Mit solch einem "System" können sie sich auch verstärkt von x86 unabhängig machen und für bestimmte Bereiche eigene Plattformen anbieten, die wirtschaftlicher für die Kunden sein werden. Genauso wie Tegra2 für sie kein x86 Ersatz darstellt, wird auch ihre SoC Lösung kein Ersatz sein. Es ist Wachstum und ein bisschen Unabhängigkeit. Genau für das selbe steht auch Tegra2.

Black-Scorpion
2011-01-10, 21:14:33
Wer denkt das NV einmal in die Hände klatscht und fertig hat echt nichts gepeilt. Sie fangen im Grunde bei Null an und wollen in einem Markt antreten den Intel und AMD schon bedienen. Beide haben einen großen Vorsprung und den muss NV erst mal aufholen. Aber wie immer bei dir kommt eine Meldung das NV was macht und schon sind die anderen im Zugzwang und gehen vor Angst kuschen.

Gipsel
2011-01-10, 21:19:51
Larrabee sollte bei GTX280 Niveau deutlich mehr Strom benötigen und war für Intel am Ende nichtmal herstellbar.Soll ich jetzt mal eine Parallele zu nvidias erstem Versuch, eine High-Performance-CPU zu kreieren, ziehen? ;D :lol:
Warte mal, sage ich nicht schon die ganze Zeit, daß das schwierig wird? :rolleyes:
Die CPU-Funktionalitäten spielen doch keine Rolle für nVidia. Sie wollen GPUs verkaufen.
Wie oft muß ich eigentlich noch die Pressemeldung zitieren? :rolleyes:
NVIDIA announced today that it plans to build high-performance ARM® based CPU cores, designed to support future products ranging from personal computers and servers to workstations and supercomputers.

LovesuckZ
2011-01-10, 21:25:22
Wer denkt das NV einmal in die Hände klatscht und fertig hat echt nichts gepeilt. Sie fangen im Grunde bei Null an und wollen in einem Markt antreten den Intel und AMD schon bedienen. Beide haben einen großen Vorsprung und den muss NV erst mal aufholen. Aber wie immer bei dir kommt eine Meldung das NV was macht und schon sind die anderen im Zugzwang und gehen vor Angst kuschen.

Wie bei Apple Themen wird einfach irgendwas geschrieben. Selbst, wenn es vollkommen falsch ist.

nVidia wird auch in Zukunft weiter GPUs verkaufen. Und diese werden weiterhin das Zufpferd im HPC Bereich darstellen - kombiniert mit x86 CPUs von Intel und AMD.
Mit der Ankündigung zeigen sie nur, dass sie bereit sind sich von x86 auch im Kerngeschäft unabhängig zu machen. Es wird Bereiche geben, die zum Großteil von der GPU-Leistungsfähigkeit leben. Und genau hier will man mit spezieller CPU-Funktionalitäten sich von x86 anfangen zu löschen. Und durch die jetzige ARM-Entwicklung, wird man in Zukunft alternative Betriebssystem und Windows haben, die auf ARM laufen und somit auch im Hardwaremarkt eine Alternative bieten.

Aber wenn man natürlich absichtlich verstehen will, dass sie eine Stand-Alone-Konkurrenz produzieren, wird man auch weiter irgendwas schreiben. Auch wenn es vollkommen falsch ist.

Coda
2011-01-10, 21:30:29
Niemandem geht es hier um "Hass" oder andere Kindereien.

Gipsel und ich sind nur deutlich anderer Meinung als du, was du schlicht nicht akzeptieren kannst. Gipsel mag zwar manchmal in der Diskussion mit dir auch zu Polemik neigen, aber da solltest du dich wirklich mal selber an der Nase fassen.

Black-Scorpion
2011-01-10, 21:34:36
Wie bei Apple Themen wird einfach irgendwas geschrieben. Selbst, wenn es vollkommen falsch ist.

nVidia wird auch in Zukunft weiter GPUs verkaufen. Und diese werden weiterhin das Zufpferd im HPC Bereich darstellen - kombiniert mit x86 CPUs von Intel und AMD.
Mit der Ankündigung zeigen sie nur, dass sie bereit sind sich von x86 auch im Kerngeschäft unabhängig zu machen. Es wird Bereiche geben, die zum Großteil von der GPU-Leistungsfähigkeit leben. Und genau hier will man mit spezieller CPU-Funktionalitäten sich von x86 anfangen zu löschen. Und durch die jetzige ARM-Entwicklung, wird man in Zukunft alternative Betriebssystem und Windows haben, die auf ARM laufen und somit auch im Hardwaremarkt eine Alternative bieten.

Aber wenn man natürlich absichtlich verstehen will, dass sie eine Stand-Alone-Konkurrenz produzieren, wird man auch weiter irgendwas schreiben. Auch wenn es vollkommen falsch ist.
Extra nochmal für dich. Sie haben bis jetzt außer der Pressemitteilung nichts, nada. Und du fängst an die Große Konkurrenz zu propagieren. Sie müssen in Zukunft (falls dir das Wort etwas sagt) beweisen was sie können. Dann kannst du anfangen mit Träumen und den Untergang von Intel und AMD vorhersagen. Vorher ist es nur dein Wunschdenken und heiße Luft.

LovesuckZ
2011-01-10, 21:37:24
Soll ich jetzt mal eine Parallele zu nvidias erstem Versuch, eine High-Performance-CPU zu kreieren, ziehen? ;D :lol:
Warte mal, sage ich nicht schon die ganze Zeit, daß das schwierig wird? :rolleyes:

Ich finde es lächerlich den Punkt nicht zu makieren, der etwas zeigt, was du anscheinend weiterhin ignorierst:
High-Performance-ARM


Wie oft muß ich eigentlich noch die Pressemeldung zitieren? :rolleyes:

Es würde schon reichen, wenn man die Pressmeldung auch so zitiert, dass auch die Unkundigen erkennen, dass es keine Stand-Alone-Lösung wird:
Known under the internal codename "Project Denver," this initiative features an NVIDIA® CPU running the ARM instruction set, which will be fully integrated on the same chip as the NVIDIA GPU.

Logo, dass man damit auch Personal Computers in Jahren angreifen werden wird. Tegra2 und Konsorten sind dazu fast schon heute fähig.

Coda
2011-01-10, 21:42:41
Und du kapierst anscheinend nicht, dass es in einem relativ kurzen Zeitraum der Markt für Standalone-Lösungen praktisch verschwinden könnte und meiner Meinung nach auch wird.

Nevermore4ever
2011-01-10, 21:43:12
Es wurde am Rande erwähnt, aber welche Möglichkeiten könnten nVidia bzw. Entwickler fördern bzw. nutzen, um möglichst viel Software auf dem ARM lauffähig zu bekommen? Wie hoch schätzt ihr den Aufwand bei

Java
.NET
Flash

ein?

Gibt es weitere Alternativen? Ist gar eine Emulation von x86/x64 vorstellbar?

Gipsel
2011-01-10, 21:45:40
Ich finde es lächerlich den Punkt nicht zu makieren, der etwas zeigt, was du anscheinend weiterhin ignorierst:
High-Performance-ARMWas ändert die ISA genau am Zielmarkt der PCs, Workstations und Server?
Es würde schon reichen, wenn man die Pressmeldung auch so zitiert, dass auch die Unkundigen erkennen, dass es keine Stand-Alone-Lösung wird:Glaubst Du, dann wird es noch viele standalone CPUs von AMD und Intel geben? Schau doch mal auf die Roadmaps, 2012 gibt es praktisch nur noch CPUs mit integrierter GPU zu kaufen, schon dieses Jahr wird es da bald eng!
Logo, dass man damit auch Personal Computers in Jahren angreifen werden wird. Tegra2 und Konsorten sind dazu fast schon heute fähig.PC jetzt mit Tegra2? Da könnte ich mir auch 'nen ganz kleinen DualCore-Atom reinschnallen. Macht bestimmt viel Freude. Nee, lieber nicht. Ich habe dann doch lieber etwas mehr CPU-Leistung.

LovesuckZ
2011-01-10, 21:50:57
Und du kapierst anscheinend nicht, dass es in einem relativ kurzen Zeitraum der Markt für Standalone-Lösungen praktisch verschwinden könnte und meiner Meinung nach auch wird.

Ich sehe das genauso - vorallem im Low-End und in mittelbarer Zukunft auch im Mid-Range. Aber HPC und Workstation werden weiterhin mit CPU und GPU Hardware beliefert, die von unterschiedlichen Herstellern kommen. nVidia verkauft einen 520mm^2 Die. Es wird Jahre dauernd, bis Intel und AMD dieses Leistungsniveau erreichen. Und wenn sie es schaffen, sind nVidia und AMD mit ihren dedizierten GPUs schon wieder deutlich weiter. Und hier hat Gipsel ganz klar gesagt, wird es nVidia schwer haben. Darauf habe ich ihn auch gefragt, welche CPU mit den selben GPU-Fähigkeiten von nVidia denn als konkurrenz erscheinen werde.

Aber ich sehe auch, dass Low-End von ARM SoCs abgelöst wird, weil ein Großteil der Käufer eben keine Spieleanhänger sind. Und wer weiß, vielleicht bietet Apple auch in Zukunft ein Netbook mit iOS an. Ein Appstore mit Spielen? Dann fällt auch hier die letzte Bastion von Intel und AMD.

Coda
2011-01-10, 21:51:05
Ist gar eine Emulation von x86/x64 vorstellbar?
Eine andere Möglichkeit haben sie gar nicht. Ohne eine Rückwärtskompatibilität für bestehende Windows-Applikationen brauchen sie gar nicht antanzen.

Allerdings wird das natürlich nicht umsonst sein. Die Hoffnung ist halt, dass Entwickler endlich mal managed Sprachen einsetzen im 21. Jahrhundert und bestehender Code rekompiliert wird.

Aber HPC und Workstation werden weiterhin mit CPU und GPU Hardware beliefert, die von unterschiedlichen Herstellern kommen.
Das sehe ich völlig anderes. Die riesige Latenz über den PCIe-Bus ist für viele Algorithmen die CPU und GPU nutzen absolut zerstörend. Man braucht gerade für HPC-Code die direkte Verbindung über einen L3-Cache.

Die Mid-Range-APUs überfahren deine 500mm²+ GPU + CPU sonst völlig bei solchen Workloads.

Und genau das scheint auch NVIDIA kapiert zu haben, sonst würden sie nicht von High-Performance-Desktop-Cores reden. Sie brauchen das direkt neben der GPU auf dem Die mit sehr ordentlicher Performance.

Gipsel
2011-01-10, 21:57:54
nVidia wird auch in Zukunft weiter GPUs verkaufen. Und diese werden weiterhin das Zufpferd im HPC Bereich darstellen - kombiniert mit x86 CPUs von Intel und AMD.
Mit der Ankündigung zeigen sie nur, dass sie bereit sind sich von x86 auch im Kerngeschäft unabhängig zu machen. Es wird Bereiche geben, die zum Großteil von der GPU-Leistungsfähigkeit leben. Und genau hier will man mit spezieller CPU-Funktionalitäten sich von x86 anfangen zu löschen. Und durch die jetzige ARM-Entwicklung, wird man in Zukunft alternative Betriebssystem und Windows haben, die auf ARM laufen und somit auch im Hardwaremarkt eine Alternative bieten.Hätte ich fast vergessen zu erwähnen, der Abschnitt klingt doch ganz vernünftig.
Das Problem daran wird werden, daß AMD, aber auch Intel versuchen werden, den Markt der massiv parallelen Probleme (GPGPU oder auch HPC) mit eigenen kombinierten Lösungen anzugehen. Sie haben da im Moment noch eine praktisch markbeherrschende Stellung und werden sich sicher nicht so einfach die Butter vom Brot nehmen lassen.

Der Bereich der Einsteiger und unteren Mainstreamkarten auf Consumerseite wird kurz- bis mittelfristig praktisch verschwinden. Damit wird es schwieriger für einen reinen GPU-Anbieter die Entwicklungskosten zu refinanzieren (das ist der mit Abstand stärkste Markt). Damit ist man praktisch auf Gedeih und Verderb auf die professionellen Märkte (in denen man gut aufgestellt ist) angewiesen. Es stellt für nvidia somit eine Notwendigkeit dar, neue Bereiche zu erschließen, will man nicht langsam verschwinden. Mit der Tesla-Reihe hat man jetzt einen Fuß in der Tür, den nvidia allerdings mit allen Mitteln auch verteidigen muß, denn die Intention von Intel und AMD ist klar. Man wird mit integrierten Lösungen von unten drücken (und in Sachen Programmierbarkeit und Systemarchitektur einen prinzipiellen Vorteil haben, der nur genutzt werden will) und AMD wird auch mit diskreten Karten vielleicht in direkte Konkurrenz treten.

Intel hat sich mit Larrabee ja erstmal die Finger verbrannt, aber ich würde nicht ausschließen, daß sie vielleicht in 2 Jahren mit 22nm das besser vorbereitet nochmal versuchen. Denn Intel hat zwar auch ab und zu Fehlschläge, aber man sollte ihre Comebacks nicht unterschätzen ;).

Gipsel
2011-01-10, 22:02:59
Das sehe ich völlig anderes. Die riesige Latenz über den PCIe-Bus ist für viele Algorithmen die CPU und GPU nutzen absolut zerstörend. Man braucht gerade für HPC-Code die direkte Verbindung über einen L3-Cache.

Die Mid-Range-APUs überfahren deine 500mm²+ GPU + CPU sonst völlig bei solchen Workloads.

Und genau das scheint auch NVIDIA kapiert zu haben, sonst würden sie nicht von High-Performance-Desktop-Cores reden. Sie brauchen das direkt neben der GPU auf dem Die mit sehr ordentlicher Performance.
Genau. Das ist der Knackpunkt.

Edit:
Um das für alle vielleicht nochmal in kompakter Form darzustellen, hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8488233#post8488233) beschrieb ich schon mal am Anfang, daß sich immer nur gewisse Teile eines jeglichen Problems parallelisieren lassen, wodurch schlußendlich bei breiten Designs irgendwann doch wieder die Abarbeitung der seriellen Anteile limitiert (wafür eine hohe Single-Thread-Leistung wünschenswert ist).
Das gerade angesprochene Problem mit der Architektur und der Integration von CPU- und GPU-Einheiten in einer "APU" muß man auch in Beziehung hiermit sehen:
Der fundamentale Unterschied von CPUs zu GPUs ist einfach der, daß sich GPUs im Zweifelsfall immer auf einen sehr hohen TLP verlassen können, CPUs aber nicht, da ihre Aufgabe traditionell darin besteht einen einzigen Thread (oder wenige seit SMT und CMT) mit maximaler Geschwindigkeit auszuführen. Und dafür werden eben solche Sachen wie Spekulation eingesetzt, die bei Vorhandensein von TLP komplett ineffizient sind (weswegen GPUs das auch nicht machen). Die Herausforderung für die Zukunft besteht darin, das Ganze so flexibel zu gestalten, daß immer hohe Performance geboten wird, sowohl bei geringem TLP (bisher CPUs), bei hohem TLP (bisher GPUs bzw. nicht wirklich vergleichbar HPC-Cluster) aber eben auch bei der Klasse der Probleme mit mittlerem TLP-Potential. Dabei sollte man auch bedenken, daß sich in Zukunft mit der Weiterentwicklung der GPUs sich mehr und mehr Probleme in den Bereich mit mittlerer bis niedriger TLP (relativ zur Breite der GPUs, die nimmt ja ständig zu) verschieben werden.
denn bei Problemen mit einer "mittleren Menge" an Parallelität muß viel häufiger kommuniziert und die Aufgaben neu verteilt werden. Der Kommunikationsoverhead und die Latenz zählen aber schlußendlich zum seriellen Teil der Aufgabe, das wird durch mehr Einheiten nicht schneller, eher dauert das mit steigender Einheitenzahl sogar länger. Für diese Probleme ist es also wie Coda schon schrieb wirklich essentiell, eine schnelle Kommunikation (auf dem Die) dafür zur Verfügung zu haben. Ansonsten hängt nämlich wirklich jede integrierte APU auch die größte externe GPU ab.

davidzo
2011-01-10, 23:32:13
Es wurde am Rande erwähnt, aber welche Möglichkeiten könnten nVidia bzw. Entwickler fördern bzw. nutzen, um möglichst viel Software auf dem ARM lauffähig zu bekommen? Wie hoch schätzt ihr den Aufwand bei

JavaGibts schon
.NETkommt mit windows8
FlashGibts schon

ein?

Gibt es weitere Alternativen? Ist gar eine Emulation von x86/x64 vorstellbar?
Lohnt nicht

Eine andere Möglichkeit haben sie gar nicht. Ohne eine Rückwärtskompatibilität für bestehende Windows-Applikationen brauchen sie gar nicht antanzen.

Müssen wir als Totschlagargument für X86 immer auf dem riesigen Applikationsschatz der Windowswelt herumreiten? ich sehe einfach nicht dass das stimmt. Ich benutze fast ausschließlich Linux und mir mangelts an gar keiner Applikation, eher hat man heutzutage Probleme dass es zuviele Applikationen für denselben Zweck gibt und das Auswählen welches die beste ist erfordert den meisten Aufwand. Das ist ähnlich wie aktuell in der Wirtschaft, es mangelt nicht an Fertigungskapazitäten und innovativen produkten, aber Kunden, die gibts eben nicht genug.
Dabei ist Windows nicht gerade eine Hilfe, die Softwareverwaltung (beschaffung, installation, updates, ggf. deinstallation) ist geradezu ein Alptraum und ich hoffe das sehen endlich mal mehr Menschen ein, denn vernünftige Alternativen gibts nun wirklich genug.

Mein Pandaboard kommt demnächst, werden wir mal sehen ob sich mit so einem multiboot android/ubuntu nicht doch die meisten desktopaufgaben erledigen lassen.

Das einzige wo es ohne x86+windows problematisch wird sind die games. aber mal ehrlich, auf den wenigsten rechnern wird doch tatsächlich gespielt. außerdem spielt da die Aktualität auch eine große Rolle, die abwärtskompatibilität für ältere anwendungen ist gerade im bereich spiele schnell vergessen. Kann also durchaus sein, dass der ARM Spielemarkt durch nvidias engagement deutlich hinzugewinnt.[/QUOTE]


Um das für alle vielleicht nochmal in kompakter Form darzustellen, hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8488233#post8488233) beschrieb ich schon mal am Anfang, daß sich immer nur gewisse Teile eines jeglichen Problems parallelisieren lassen, wodurch schlußendlich bei breiten Designs irgendwann doch wieder die Abarbeitung der seriellen Anteile limitiert (wafür eine hohe Single-Thread-Leistung wünschenswert ist).
Du wiederholst dich und entgegen deiner Ankündigung nicht gerade in kompakterer Form *gähn*

Nochmal: Was genau spricht dabei gegen ARM?
Ich denke viel eher das spricht für ARM, denn bei den energieffizienten cores (arm, atom, bobcat) hat ARM auch was side IPC und angeht eher schon die Nase vorn, zumindest gegenüber dem in-order Atom, bobcat kann da bei der Energieffizienz nicht mithalten und besitzt ebenfalls eine deutlich längere pipeline.
Das low power cachesystem bremst ganzschön aus. Viele handyanwendungen hängen offensichtlich am speicher, weil teilweise niedrig getaktete modelle mit embedded dram die schneller getakteten abhängen. schmeißt man diesen handykram heraus und gibt dem A9 ein mit atom und bobcat vergleichbares cachesystem wäre das schon ein gewaltiges potential.

Aber reden wir hier erstmal nur über die unterpowerten handyprozessoren. was desktopmäßig alles machbar wäre ist ja reine spekulation.
Der A9MP ist bereits eine dual issue out of order CPU mit einer kurzen 8stufigen pipeline. A15 wird eine triple issue out of order CPU mit einer vervierfachten Leistung pro Thread gegenüber dem A8.
Konkret bedeutet das beim A8 2,0DMIPs /mhz und Core, A9MP 2,5DMIPs /Mhz und Core, genau wie beim Atom, beim A15 aber sollen es 3.5DMIPs /Mhz und Core werden und natürlich ein höherer Takt.
Ein Gulftown mit triplechannel speicherinterface und insgesamt 16mb Cache hat rund 7.45 DMIPs pro Mhz und Core.

ARM bietet bereits jetzt hardmacros mit 2x2Ghz für TSMCs 40nm an, für den A9MP, allerdings mit zugegebenermaßen hohen 1,9Watt (daher in handys i.d.r. nicht über 1Ghz). 10.000 Dmips für einen DC mit 1,9Watt sind schon ne hausnummer, ein SC atom 1,6ghz bringt hier lediglich 1900.
Mit dem A15MP im 28nm performanceprozess zielt man auf mindestens 2,5Ghz.

Das sind alles nur Werte von den kommenden handyprozessoren.
Wenn man sich jetzt vorstellt, was möglich wäre, wenn man diese CPUs auf Hochleistung umkonstruiert, den Taktspielraum von 28nm voll ausnutzt (3ghz +) und die Caches und die Bandbreite zur Verfügung stellt die unsere Desktopkonkurrenten haben, dann ist das keine pure Spekulation mehr zu sagen dass Nvidia und ARM durchaus eine Chance im Desktopmarkt haben.

Gipsel
2011-01-11, 00:02:23
Du wiederholst dich und entgegen deiner Ankündigung nicht gerade in kompakterer Form *gähn*Nun, es stand ein wenig verteilt im Thread. Wenn Du eine bessere/verständlichere Kurzfassung des geschilderten generellen Problems hast, immer her damit!

Und zu Deiner ganzen Rumrechnerei mit den Dhrystone-Werten, habe ich mal ein Statements des Authors anzubieten, was er vor mittlerweile fast 12 Jahren gegeben hat:
"Although the Dhrystone benchmark that I published in 1984 was useful at the time," said Weicker, "it cannot claim to be useful for modern workloads and CPUs because it is so short, it fits in on-chip caches, and fails to stress the memory system. Also, because it is so short and does not read from an input file, special compiler optimizations can benefit Dhrystone performance more than normal program performance. In embedded computing, EEMBC (www.eembc.org) is collecting larger real-life embedded-computing programs as the basis for benchmarks." Dr. Reinhold P. Weicker, Siemens AG, Vice Chairman of the Spec Open Systems Steering Committee.
EDN Magazine 10 / 28 / 1999
So, und wenn das schon 1999 so war, wie sieht es wohl jetzt aus?
Die Vorteile moderner CPUs zeigen sich gerade darin, daß auch bei etwas komplizierteren Workloads noch eine hohe Leistung gebracht wird, nicht nur bei den vollständig im 1st Level cache liegenden Mini-Schleifchen dieses uralten Benchmarks. Kurz, so ein Dhrystone-Wert sagt erst mal nicht viel über die wirkliche Anwendungsperformance (der Dhrystone-Wert eines Athlons war iirc sogar niedriger als der des K6 bei gleichem Takt :rolleyes:). Auch ein A8 oder A9 Design auf 3 GHz geprügelt (was den Stromverbrauch wahrscheinlich nahe 10W anheben würde) würde sogar gegen einen Bobcat in Sachen (edit: normale Desktop-)Anwendungsperformance (hoch) verlieren. Und weißt Du eigentlich, was da die Bobcat-Kerne ohne GPU ziehen?

Du mußt Dir doch im Prinzip nur mal einen Dieshot einer halbwegs modernen CPU ansehen. Die eigentlichen ALUs (die wesentlich über die Höhe des DMIPS-Wertes entscheiden), sind da kaum zu finden so mickrig sind die (deswegen passen auf GPUs ja auch ein paar hundert bis über tausend davon). Der ganze Kram drumherum, der sicherstellt, daß die Einheiten auch bei ungünstigerem Code nicht nur Däumchen drehen, das macht eine moderne High-Performance-CPU zu genau dieser. Und dies muß auch für einen ARM-Core erstmal entwickelt und angeflanscht werden, um im Performance-Desktop-Markt überhaupt Anschluß zu finden.

Coda
2011-01-11, 00:05:38
Müssen wir als Totschlagargument für X86 immer auf dem riesigen Applikationsschatz der Windowswelt herumreiten?
Ja, weil es defakto ein Totschlagargument ist, für die Mehrzahl der Nutzer.

Du kannst den Leuten einfach nicht erklären warum sie ihre bereits gekauft und im Schrank stehende Software nicht mehr nutzen können obwohl sogar ein Windows läuft.

Das hat damals schon bei Alpha auf NT nicht funktioniert

davidzo
2011-01-11, 00:29:04
Ja, weil es defakto ein Totschlagargument ist, für die Mehrzahl der Nutzer.

Du kannst den Leuten einfach nicht erklären warum sie ihre bereits gekauft und im Schrank stehende Software nicht mehr nutzen können obwohl sogar ein Windows läuft.

Ich dachte in Zeiten von Appstores und Marketplaces sowie Paketverwaltungen sind wir die staubigen softwareboxen, zerkratzte CDs und veraltete abhängigkeiten endlich los?

Wie häufig hat man es unter Windows mit alter Software, dass die einen player braucht der auf aktuellen systemen nicht mehr läuft (z.b. binkplayer oder shockwave) oder eine runtime, von dem man eine neue version installiert hat, die von der installationsroutine nicht erkannt wird so dass man die alte mit patches parallel draufhaben muss (.net) und all solche kruden basteleien.
Die Paketverwaltung unter Windows ist ein Apltraum.
Und um alte Software zum laufen zu bekommen muss man manchmal schon ganzschön herumfuchsen. Da kann mir keiner erzählen dass der Installations- und Konfigruationsaufwand unter Linux größer wär, aber unter Windows sinds die Leute eben seit Jahrzehnten nicht anders gewohnt, unter Linux schreien sie bei kleinsten problem mit exotischer Software oder Hardware gleich nach mama.


Das hat damals schon bei Alpha auf NT nicht funktioniert
Damals waren auch andere Zeiten. Das Internet konntest du vergessen. Aber heutzutage die Macht des Internets zu unterschätzen halte ich für gewagt. So wie der Kometenhafte Aufstieg von Facebook kanns auch mit der Marktbeherrschenden Stellung von Windows ganz schnell gehen. Ich sag nur Dominoeffekt.

Ich sehe da gerade einen nicht unerheblichen technischen Vorteil für Linux, gerade bei der Vielfalt der Anwendungen, der derzeit nur dadurch noch nicht umgesetzt wird, dass die Leute sich bereits in Windows eingearbeitet haben und dadurch so traumatisiert sind dass sie sich das nicht nocheinmal zutrauen. Aber sobald es einmal eine gewisse Basis an Nutzern gibt, wie etwa bei Apple, wird das Monopol relativ schnell purzeln denke ich. Apple kann sich eben afgrund der rigorosen preispolitik und des bundlens nicht weiter durchsetzen, Linux dagegen hätte schon Potential.

Könnten die meisten Leute beim kauf eines PCs kostenlos eine Dualbootversion mit MacOS wählen, würde eine Mehrheit das OS zumindest ausprobieren, es wird ja immerhin von 8% der Bevölkerung klar bevorzugt und hat auch außerhalb derer eine Reihe von Sympatisanten die es bisher aus finanziellen oder anderen Gründenverwerfen. Dass Linux beim Featureset und dem Softwarestack sowie der Benutzerfreundlichkeit vergleichbar oder besser als OSX ist, haben die Leute eben noch nicht bemerkt.

ich kann einfach nicht nachvollziehen wie man für so schlechte Software wie MS windows auch noch bezahlen kann...

Aber die Mehrzahl der Nutzer liest ja auch leider Bildzeitung ^^



Was die cacheauslastung des drystone benchmarks angeht. gerade was die caches betrifft sind die arms derzeit noch underpowered und da sollte noch einiges an potential drin stecken.
du kannst nicht einfach davon ausgehen dass eine arm cpu bei drystone ihr theoretisches maximum erreicht, eine x86cpu dagegen nicht. was, wenn es umgekehrt wäre?

noch n anderer plattformunabhängiger benchmark (ARM DC, atom SC+HT):
http://www.heise.de/imgs/18/4/0/3/7/0/5/731d1aeb578d64d6.png
~11.000 Coremarks entsprechen dabei in etwa der Leistung eines C2D mit 2Ghz (T7200) bei ebenfalls zwei Threads. Ein Tegra 250 1Ghz kommt auf 5800, 2700 mit einem thread. Knapp 4000 sind also für einen Dc mit 800mhz nicht übertrieben gemessen worden von ARM oder so und auch für den 2Ghz A9 gibt es unabhängige praxiswerte gemeldet.
http://www.coremark.org/benchmark/index.php

Was die praxisleistung angeht sollte man aber auch bedenken dass die meiste software die man bisher testet (inkl. chrome webbrowser) von x86 stammt und daher portiert ist und seit jahrzenten auf x86 optimiert wurde, aber erst seit kurzem auf arm läuft. die compiler für x86 sind eben verdammt gut und die entwickler geben sich mühe das instruction set auch sinnvoll zu nutzen. Bei ARM dagegen steckt noch potential gerade in den compilern für die NEON SIMD engine, VFP, FPA, iwMMXt die in vielen anwendungen weitgehend brach liegen.
Das betrifft ebenfalls die PowerVr grafikchips, die ihre hardwarebeschleunigung nur selten nutzen können. derzeit gibts für ubuntu z.B. noch keine open source treiber für den SGX und nur rudimentäre binaries von denen man nicht weiß wieviel vom möglichen funktionsumfang wirklich in hardware läuft (ähnlich wi bei poulsbo damals9:

Coda
2011-01-11, 00:32:06
Die Paketverwaltung unter Windows ist ein Apltraum.
Das sehe ich zwar nicht so sehr als Problem wie du, aber Windows wird auch nicht morgen verschwinden. Egal wie sehr du dein Linux magst.

Gipsel
2011-01-11, 03:28:33
noch n anderer plattformunabhängiger benchmark (ARM DC, atom SC+HT):
http://www.heise.de/imgs/18/4/0/3/7/0/5/731d1aeb578d64d6.png
~11.000 Coremarks entsprechen [..]
Ist ja nett, daß Du mal dem 1999 im Interview erwähnten Begriff EEMBC gegoogelt hast und noch ein paar Benchmarks dazu ausgegraben hast. Dummerweise hast Du Dir genau den am wenigsten aussagekräftigen Wert da ausgesucht, oder um mal die Selbstauskunft zu dem Benchmark zu zititieren:
but let us not forget – CoreMark only targets core operations. EEMBC’s full-featured application benchmarks are much better suited for testing a processor’s capability in a real application. Furthermore, processors are becoming increasingly complex and one core-based benchmark is insufficient for a comprehensive analysis.Ergo, das ist auch nicht besser als der Dhrystone-Wert. Zudem hast Du Dir da einen single core N270 Atom zum Vergleich ausgesucht. Da der Benchmark linear mit Takt und Kernanzahl skaliert, heißt das, ein Cortex A9 ist pro Kern und Takt dort vielleicht 10% schneller als ein Atom mit HT. Wahnsinn! Wie Du da drauf kommst, der könnte in wirklichen Anwendungen mit einem Core2 mithalten, ist mir allerdings schleierhaft. Aber nur mal so nebenbei, ein Core i# (ist wohl egal welcher) mit 2,67 GHz landet mit 2 Threads laut der von Dir verlinkten Seite bei etwa 21000 Punkten, was immer das aussagt. Und Deine 11000 Punkte schafft eine Core2 Duo wohl schon mit 1,6GHz (~10500 schon mit einer alten gcc-Version, die ICC-Kompilate sind übrigens auch noch mal schneller), nicht erst mit 2 GHz. Aber das ist dann auch schon egal.

Coda
2011-01-11, 03:48:57
egal welcher
:biggrin:

Diese Aussagekraft!

Dural
2011-01-11, 09:08:45
und noch einmal, NV wird wohl kaum ein "problem" sehen / haben eine leistungsstarke CPU (konkurenzfähige = muss nicht mal so der überfliger sein, NV will so wie so die rechen intensive anwedungen auf der GPU haben!) auf den Markt zu werfen, es ist NV und da gibt eh keine halben sachen...

Das grösste problem werden sie wohl mit "ARM" selber haben um das dem kunden "schmakhaft" zu machen und da sehe ich so ziemlich schwarz im normalen Desktop bereich, übrig wird der pro / server und irgend welche speziall und sonder gebiete bleiben. :)

igg
2011-01-11, 10:09:21
Eine andere Möglichkeit haben sie gar nicht. Ohne eine Rückwärtskompatibilität für bestehende Windows-Applikationen brauchen sie gar nicht antanzen.
Wenn Windows 8 auf ARM läuft, tun das dann nicht auch alle für Windows kompilierten Anwendungen automatisch?

stickedy
2011-01-11, 10:12:31
Wenn Windows 8 auf ARM läuft, tun das dann nicht auch alle für Windows kompilierten Anwendungen automatisch?
Natürlich nicht! Man kompiliert nicht für ein Betriebssystem, sondern für eine Prozessorarchitektur. Das Betriebssystem ist nur für Schnittstellen/APIs wichtig.

Ausnahme davon sind Anwendungen, die in einer Laufzeitumgebung laufen, wie Java oder .NET. Da muss an sich nur die Laufzeitumgebung selber für die andere Prozessorarchitektur angepasst werden.

Botcruscher
2011-01-11, 10:17:32
Und da sind wir auch schon bei dem eigentlichen Problem. Es ist nicht die Softwarebox im Schrank sondern die Anpassung von jedem Scheiß. Dazu hat verständlicherweise niemand Lust.

bloub
2011-01-11, 10:36:40
ist aber auch nicht das grosse problem, solange man konsequent die windows apis benutzt. dann muss man nur noch das ganze einmal für arm kompilieren und fertig ist die suppe.

stickedy
2011-01-11, 10:41:42
ist aber auch nicht das grosse problem, solange man konsequent die windows apis benutzt. dann muss man nur noch das ganze einmal für arm kompilieren und fertig ist die suppe.
Und bei wie vielen Programmen und Tools werden denn konsequent die Windows APIs benutzt? Das dürfte die deutliche Minderheit sein...

iFanatiker
2011-01-11, 10:54:26
ist aber auch nicht das grosse problem, solange man konsequent die windows apis benutzt. dann muss man nur noch das ganze einmal für arm kompilieren und fertig ist die suppe.

;D;D;D;D;D

ROFLMAU..........

Jo...mit Sicherheit benutzt die Mehrheit der Windows Programme nur Windows API :biggrin:

Abgesehen davon gibt es noch das Problem, daß ja nocht nicht mal klar was überhaupt wie unter Windows vond er API zur Verfügung steht und welche Altlasten MS für Windows ARM gar nicht mehr mitnimmt, aber manche Programme benötigen.

Dazu IMHO das viel größere Problem für den "Endkunden" MArkt:

große Teile der Treiber dürften inkompatibel sein.

bloub
2011-01-11, 11:00:48
Und bei wie vielen Programmen und Tools werden denn konsequent die Windows APIs benutzt? Das dürfte die deutliche Minderheit sein...

ich behaupte das gegenteil, welcher programmierer hat schon die zeit seine eigenen apis zu entwickeln?

Frucht-Tiger
2011-01-11, 11:10:03
Dazu IMHO das viel größere Problem für den "Endkunden" MArkt:

große Teile der Treiber dürften inkompatibel sein.
Einfach keinen USB-Host-Port verbauen, Problem gelöst :D

|MatMan|
2011-01-11, 11:33:43
Die Hoffnung ist halt, dass Entwickler endlich mal managed Sprachen einsetzen im 21. Jahrhundert und bestehender Code rekompiliert wird.
Ist es denn wirklich realistisch mit sagen wir .NET eine performante 3D Engine zu entwickeln? Beim restlichen Code eines Spiels könnte ich mir .NET ja noch eher vorstellen - aber die Performance-kritischen Sachen?

Gipsel
2011-01-11, 11:52:22
Die werden mit Java gemacht, da sind die ARM Cortex ja recht fix. :freak:

Natürlich nicht, das Problem sind aber wirklich die vielen Dinge mit gewachsenem Code, der sich eben nicht mal so eben neu kompilieren lassen sondern mehr oder weniger große Anpassungen erfordern. Das versucht man aus naheliegenden Gründen meist zu vermeiden, da muß also schon ein gewisses Maß an Überzeugungskraft für aufgebracht werden.

Gipsel
2011-01-11, 11:59:47
ich behaupte das gegenteil, welcher programmierer hat schon die zeit seine eigenen apis zu entwickeln?
Er benutzt sie einfach nicht. Nur ein Beispiel (ziemlich schlecht wahrscheinlich), eine hochgenaue Zeitmessung per Windows-API dauert ewig. Wenn man stattdessen direkt den TimeStampCounter der CPU ausliest, hat man den genauesten Zeitstempel mit dem geringstmöglichen Aufwand, der überhaupt möglich ist. Gemacht wird dies über ein x86-spezifisches Intrinsic bzw. sogar Inline-Assembler. Läuft natürlich dann erstmal nur auf x86-CPUs. Generell benötigts alles, was prozessorspezifische Intrinsics benutzt (z.B. der ganze Kram, der aus Performancegründen per Hand SSE optimierte wurde), natürlich Anpassungen.

davidzo
2011-01-11, 12:08:08
Ist ja nett, daß Du mal dem 1999 im Interview erwähnten Begriff EEMBC gegoogelt hast und noch ein paar Benchmarks dazu ausgegraben hast.
Schön dass du EEMBC mal gegooglet hast und weißt das es die nicht erst seit gestern gibt.


Dummerweise hast Du Dir genau den am wenigsten aussagekräftigen Wert da ausgesucht, oder um mal die Selbstauskunft zu dem Benchmark zu zititieren:
Ergo, das ist auch nicht besser als der Dhrystone-Wert.

Dann informiere dich mal besser, es gibt diverse Gründe wieso coremark besser als drystone ist.
Denk mal drüber nach was man überhaupt für benches nehmen kann, wenn man die cpu-architektur, nicht den speicher, nicht den compiler, etc. testen will. da ist coremark schon ziemlich das einzige.
Ich kann mich nur wiederholen. Die Tatsache dass Coremark aus dem Cache läuft ist nur fair, denn ein 32bit LP-DDR Interface wollen wir nun wirklich nicht mit dem 192bit DDR3 Interface eines Bloomfields vergleichen. Auch was das cachesystem angeht hat der ARM wegen seiner ausrichtung auf LowPower eher Nachteile. Das wird sich als DesktopCPU jedenfalls ändern.
Aber Coremark bencht eben den Core selber, deshalb unterscheidet sich bloomfield auch nur marginal von den anderen core i vertretern, speicherbandbreite spielt überhaupt keine rolle, eher aber die latenzen des L1...

Zudem hast Du Dir da einen single core N270 Atom zum Vergleich ausgesucht. Da der Benchmark linear mit Takt und Kernanzahl skaliert, heißt das, ein Cortex A9 ist pro Kern und Takt dort vielleicht 10% schneller als ein Atom mit HT. Wahnsinn!
Ja das ist Wahnsinn! bei 2-3mm² pro core in 40nm vs 32nm beim Atom. Wenn du dir jetzt vorstellst was die mit dem Atom machen wenn der A15 in 28nm kommt und neben dem Taktvorteil auch noch deutlich mehr IPC mitbringt.


Wie Du da drauf kommst, der könnte in wirklichen Anwendungen mit einem Core2 mithalten, ist mir allerdings schleierhaft.

Das hab ich nie geschrieben, ich habe nur bemerkt dass der Core2 im Coremark nicht besser ist. Den Rückschluss auf die Anwendungen machst im moment alleine du.

Aber nur mal so nebenbei, ein Core i# (ist wohl egal welcher) mit 2,67 GHz landet mit 2 Threads laut der von Dir verlinkten Seite bei etwa 21000 Punkten, was immer das aussagt. Und Deine 11000 Punkte schafft eine Core2 Duo wohl schon mit 1,6GHz (~10500 schon mit einer alten gcc-Version, die ICC-Kompilate sind übrigens auch noch mal schneller), nicht erst mit 2 GHz. Aber das ist dann auch schon egal.

Richtig, das ist auch schon egal. Denn trotz all der Pfennigfuchserei sieht man nämlich das ARM bereits jetzt in ähnlichen Größenordnungen performt wie die Intel CPUs. Beim Energieverbrauch liegen noch mehrere Größenordnungen dazwischen, aber bei der performance liegt man zwar wenn auch nicht auf Augenhöhe, so zumindest schonmal auf Schussweite. Und das jetzt schon, ohne A15 Eagle und ohne Desktopausrichtung.
So eine gute Ausgangsposition kann man von Via nicht behaupten, dabei bauen die schon seit jahzehnten Desktop CPUs.

fondness
2011-01-11, 12:33:47
Ja das ist Wahnsinn! bei 2-3mm² pro core in 40nm vs 32nm beim Atom. Wenn du dir jetzt vorstellst was die mit dem Atom machen wenn der A15 in 28nm kommt und neben dem Taktvorteil auch noch deutlich mehr IPC mitbringt.


Atom ist 45nm.

Das hab ich nie geschrieben, ich habe nur bemerkt dass der Core2 im Coremark nicht besser ist. Den Rückschluss auf die Anwendungen machst im moment alleine du.


Der Punkt ist das dieser Wert wenig aussagt. Die "Kunst" einer CPU besteht darin "ungünstigen" Code möglichst schnell verarbeiten zu können. Eine ALU zu bauen die optimal ankommenden Code einfach durchrechnet ist keine Kunst. Natürlich ist das dann für diesen Fall stromsparender. Der Fall ist für die Praxis aber unrealistisch.

Trap
2011-01-11, 12:54:34
Ist es denn wirklich realistisch mit sagen wir .NET eine performante 3D Engine zu entwickeln? Beim restlichen Code eines Spiels könnte ich mir .NET ja noch eher vorstellen - aber die Performance-kritischen Sachen?
Klar, dann hat man statt 120 FPS halt 40-80.