PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - Apple kauft ARM?


Avalox
2010-04-22, 11:17:38
Es geht das Gerücht, dass Apple den CPU Entwickler ARM übernehmen möchte.

http://www.thisislondon.co.uk/standard-business/article-23826703-city-aflame-with-takeover-talk-of-arm-and-xstrata.do

w0mbat@Gast
2010-04-22, 11:19:36
was du nicht sagst. es gibt geruechte ich hab heute fuer $4 ente mit reis gegessen...

wie waers mit etwas mehr infos bzw einem link?

w0mbat@Gast
2010-04-22, 11:20:37
das war aber rekordverdaechtig schnell :D

Ganon
2010-04-22, 11:21:21
Wie ich im AMD-Thread schon sagte:

Hmm... glaube kaum, dass Apple ARM kaufen dürfte. Das würde die Konkurrenz ausschließen und ihnen schaden.

Ailuros
2010-04-22, 11:38:54
Apple sollte Qualcolmm aufkaufen (wenn diese ueberhaupt zum Verkauf freistehen wuerde). Erstens waere ihnen Qualcolmm um einiges nutzvoller IMHO und zweitens wuerden die Bitboys zum vierten Mal die Firmentafel innerhalb kurzer Zeit aendern muessen in Finnland :biggrin:

Wie ich schon sagte das Ganze klingt mir unwahrscheinlich aber ich sag auch nie mehr "nie".

Gast
2010-04-22, 11:53:13
Das gibt eine 1A Monopolstellung.
Iphone 4 All wir kommen!

Wenn man bedenkt, in wievielen Embedded Systems die Teile laufen.
Apple in der Industrie, war für mich bis jetzt unvorstellbar.

Aber auch schön, vielleicht mit Itunes-kompatibilität.

Ganon
2010-04-22, 11:55:07
ARM baut keine CPUs, nur nebenbei erwähnt. ARM designt sie nur. Dieses Design kann man dann lizenzieren und daraufhin dann selbst CPUs bauen.

Ailuros
2010-04-22, 12:02:42
Apple kauft angeblich uebrigens in letzter Zeit verdammt viel ein: http://www.macnewsworld.com/story/69816.html?wlc=1271843551&wlc=1271844581

Mir faellt gerade keine andere grosse Firma ein die mit "A" anfaengt, aber da Apple wohl einen Fetisch mit A Firmen hat sollte man alle anderen moeglichen nicht ausschliessen.

basti333
2010-04-22, 12:19:58
Klar ARM, AMD und am besten noch Qualcom, Samsung und Foxcon gleich dazu. Jeder zukauf wäre doch super logisch und Apple würde seine Produkte zukünftig komplett Selbst fertigen.

Ne, ich persönlich finde das zu absurd, ein einzelner zukauf wäre vielleicht noch realistisch, aber Apple wird seine gesammelten Cash-Reserven nicht ausgeben um Zukünftig ein paar angepasste Prozessoren rauszubringen. Langfristig wären da Firmen wertvoller die Apple Marktanteile im endkunden Markt sichern. Bspw. Amazon (wobei das die Kartellbehörden wohl nicht durchgehen lassen) oder sowas.

Gast
2010-04-22, 12:51:37
Was ist daran soooooo absurd aus der Sicht von Apple?
Apple muss immerhin Lizenzgebühren blechen.
Es ist ein offenes Geheimnis, das Apple eigene ARM-Kerne entwickeln möchte. Passt dann eigentlich schon ins Bild, bei den nötigem "Kleingeld" was die haben.

ARM wurde Anfang der 90iger übrigens von Apple mitbegründet. Die haben nur ihre Anteile später verkauft.

(del)
2010-04-22, 13:25:11
Sie haben doch schonmal durchsikcern lassen, daß sie keinen Aktienrückkauf vorhaben und eine sehr große übernahme planen mit der man die Welt ins Staunen versetzen wird.

Egal ob richtig oder sinnvoll, aber realistsich ist es.

Avalox
2010-04-22, 13:25:49
Was ist daran soooooo absurd aus der Sicht von Apple?


Absurd finde ich dort gar nichts dran.
Apple fährt Rekordergebnisse ein. Investments müssen her.
Die große Zukunft liegt genau in den Geräten der ARM Zielgruppe.
Google hat z.B. auch gerade erst den CPU Entwickler Agnilux gekauft.

Gast
2010-04-22, 13:31:54
Google hat z.B. auch gerade erst den CPU Entwickler Agnilux gekauft.Ich schätze WEIL sie eher als wir wissen was Apple vor hat. Sie bekriegen sich gerade eh ziemlich. Das wird noch stärker ausarten. Deswegen ist ARM in Apples Hand leider für niemanden außer Apple gut...

Schade, daß MIPS so in chinesischer Hand ist. Die haben technologisch als einzigen immer das Potenzial mit ARM konkurrieren zu können.

Avalox
2010-04-22, 13:38:02
Ich schätze WEIL sie eher als wir wissen was Apple vor hat. Sie bekriegen sich gerade eh ziemlich. Das wird noch stärker ausarten. Deswegen ist ARM in Apples Hand leider für niemanden außer Apple gut...

Schade, daß MIPS so in chinesischer Hand ist. Die haben technologisch als einzigen immer das Potenzial mit ARM konkurrieren zu können.


In der aktuellen c't steht im Prozessorgeflüster interessantes.

Damals noch von Herrn Stiller geschrieben ohne zu wissen, dass Google 10 Tage später Agnilux aufkauft.

Es geht im Artikel primär um die CPU des iPAD.

"Weitere Logos außer von Apple, die auf Urheber oder Hersteller schließen lassen, fanden sich auf dem Chip bislang nicht, also auch kein Hinweis auf PA Semi, dieser kleinen Firma, die Apple im April 2008 gekauft hatte. Ihr traute man es durchaus zu, so einen Chip maßgeblich mitentwickelt zu haben. Firmenchef Don Dobberpuhl ist ein alter Hase, der einst als DEC-Mitarbeiter am StrongARM mitwirkte und unter dessen Leitung dann bei PA Semi ein besonders energiesparender PowerPC namens PWRficient entwickelt wurde.

Dumm für ihn und seine Firma, dass Apple Mitte 2005 urplötzlich das Lager wechselte und als Hauptadressat nicht mehr in Frage kam. Für einen ordentlichen Batzen von 278 Millionen Dollar kaufte Apple jedoch später die Firma auf. Dobberpuhl und mehrere seiner Leute haben es aber nicht lange bei Apple ausgehalten und eine neue Firma namens Agnilux gegründet. Die arbeitet derweil noch in geheimer Mission, ... "

http://www.heise.de/ct/artikel/Prozessorgefluester-971901.html

MiamiNice
2010-04-22, 16:37:11
Sie haben doch schonmal durchsikcern lassen, daß sie keinen Aktienrückkauf vorhaben und eine sehr große übernahme planen mit der man die Welt ins Staunen versetzen wird.

Apple kauft Google? :) Alles andere würde mich nicht ins Staunen versetzen.

Coda
2010-04-22, 17:03:51
Wenn ARM sich an Apple verkaufen lässt, dann sind sie ziemlich blöd.

san.salvador
2010-04-22, 17:10:15
Passt wie die Faust aufs Auge - der aktuelle Chaosradio Express Podcast (http://chaosradio.ccc.de/cre151.html) beschäftigt sich mit dem Thema ARM.

Schöne Grüße aus dem Krankenhaus. :uwave:

Sorkalm
2010-04-22, 17:29:53
Apple kauft Google? :) Alles andere würde mich nicht ins Staunen versetzen.

Google wäre viel zu teuer...

KraetziChriZ
2010-04-22, 18:12:39
Was ist daran soooooo absurd aus der Sicht von Apple?
Apple muss immerhin Lizenzgebühren blechen.
Es ist ein offenes Geheimnis, das Apple eigene ARM-Kerne entwickeln möchte. Passt dann eigentlich schon ins Bild, bei den nötigem "Kleingeld" was die haben.

ARM wurde Anfang der 90iger übrigens von Apple mitbegründet. Die haben nur ihre Anteile später verkauft.

11ct pro CPU sind die Gebühren

Coda
2010-04-22, 18:47:28
Durchschnittlich. Ein Cortex A8 wird schon deutlich teuer sein, aber wohl kaum mehr als 5$.

Gast
2010-04-22, 19:44:39
"Dumm für ihn und seine Firma, dass Apple Mitte 2005 urplötzlich das Lager wechselte und als Hauptadressat nicht mehr in Frage kam. Für einen ordentlichen Batzen von 278 Millionen Dollar kaufte Apple jedoch später die Firma auf. Dobberpuhl und mehrere seiner Leute haben es aber nicht lange bei Apple ausgehalten und eine neue Firma namens Agnilux gegründet. Die arbeitet derweil noch in geheimer Mission, ... "Mit dem Weggang der Leute ist PA.Semi quasi wertlos geworden. Deswegen muß man jetzt nochmal einkaufen. Diesmal gleich ARM selbst.

Agnilux wurde gerade von Google gekauft. Sie brauchen Chips für Android, falls Apple weiter rumzickt. Und das wird Apple auf jeden Fall.

Mit dem Kauf von ARM wird der Krieg Apple/Google auf allen Fronten offen ausbrechen. Wir dürfen uns schonmal auf die fettesten Schlachten in der IT-Geschichte vorbereiten. Übel übel.

Die Geschäftsideen beobachtend stelle mir den Joch unter Apple wesentlich schlimmer vor als unter Google. Deswegen sympatisiere ich auch eher mit Google. Die wollen nur anonym meine Daten. Die anderen bauen sonst eine restriktive Monokultur auf gegenüber welcher das Wirken von MS jungfräulich-unschuldig wirkt.

Vielen dank Apple, aber ich verzichte. Und zwar liebendgern.

Gast
2010-04-22, 19:55:45
Was ist daran soooooo absurd aus der Sicht von Apple?
Apple muss immerhin Lizenzgebühren blechen.Einmalig pro CPU. Wenn es nur das wäre kannst du mal belegen daß bzw. ab wann es sich bei den 8 Mrd. für ARM lohnen würde.

Sie wollen kein Geld sparen, sondern Google fertig machen. Womöglich mit kleinen "commitments" auf den höhsten Etagen auch mal Hand in Hand mit MS.

Was wir gerade erleben ist ein offener Wirtschaftskrieg in seiner reinsten Form.

So wie ich Google kenne treffen jetzt schon bestimmte Agnilux-Mitarbeiter in den Pubs ganz zufällig ARM-Mitarbeiter. Es gibt Jobs zu vergeben ;)

@Coda
Bei einem Marktwert von ungefähr 5.6 Mrd. wird sich ARM für 8 Mrd. kaufen lassen. Das entscheiden nicht die Layouter.

Gast
2010-04-22, 20:02:52
Mit dem Weggang der Leute ist PA.Semi quasi wertlos geworden. Deswegen muß man jetzt nochmal einkaufen. Diesmal gleich ARM selbst.

Bist du Insider oder warum kannst du diese Aussage treffen?
Sind wirklich alle Leute von P.A. Semi weggegangen? ;)

Gast
2010-04-22, 20:06:52
Agnilux wurde gerade von Google gekauft. Sie brauchen Chips für Android, falls Apple weiter rumzickt. Und das wird Apple auf jeden Fall.

Wo zickt Apple weiter rum?
Zusammenhang?

Btw.
"But the biggest reason is that Apple just doesn't do that. They don't crush competitors by acquiring their partners. They crush competitors by out-designing them, out-marketing them and out-selling them, period."
http://finance.yahoo.com/news/Apple-Isnt-Going-To-Buy-ARM-siliconalley-560235814.html?x=0&.v=2

KraetziChriZ
2010-04-22, 20:32:18
Durchschnittlich. Ein Cortex A8 wird schon deutlich teuer sein, aber wohl kaum mehr als 5$.

Nein. 11 cent für jede CPU. Egal welche.

Tiamat
2010-04-22, 20:35:31
Das wär ja wirklich der Hammer. Das hat aber sicher Auswirkungen auf die Intel Apple Beziehung. Ich glaube, Apple wendet x86 schon bald den Rücken zu. Geil ob ich das noch erleben darf ;D

Eggcake
2010-04-22, 20:35:43
Einfach eine Quelle nennen und gut ist (@CPU Lizenzgebühren)

MegaManX4
2010-04-22, 20:38:00
Ich denke das ist ausgemachter Unsinn. Apple macht keine derart großen Übernahmen. Die "drücken" lieber ein paar $ Lizenzgebühren ab als dieses unkalkulierbare Risiko zu tragen.

Und vergesst nicht: Apple hat sich selten über die Leistungsfähigkeit ihrer Hardware verkauft, sondern über die Soft-Techs. Also UI usw.
Mit einem CPU Designer können die nichts anfangen.

Die_Allianz
2010-04-22, 20:46:46
leute es scheint als wäre ich newstechnisch nicht ganz auf der Höhe: Ihr faselt immer was von Apple vs. Google? WTF?
Wo genau haben die beiden denn einen gemeinsamen Markt?

Apple:
http://cache-01.gawkerassets.com/assets/images/4/2010/04/sai-chart-apple-revenue-by-segment-march-2010.gif

Google verkauft doch weder Musik und Filme, noch Computer/Laptops und auch keine Mobiltelefone

so what?

Eggcake
2010-04-22, 20:56:12
Aber Betriebssysteme? Oder denkst du die haben nur aus Goodwill Android entworfen? Einfach so, zum nix verdienen? Google wird ebenso interesse daran haben, dass gute Handys für "ihr" Betriebssystem herauskommen. Insofern stimmt es schon, dass sie selber ja keine herstellen...

Gast
2010-04-22, 21:18:12
Mit einem CPU Designer können die nichts anfangen.
Du solltest dir mal diesen Thread durchlesen: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=413061

Coda
2010-04-22, 21:31:29
Nein. 11 cent für jede CPU. Egal welche.
Quelle? Das wage ich sehr zu bezweifeln.

basti333
2010-04-22, 22:19:33
leute es scheint als wäre ich newstechnisch nicht ganz auf der Höhe: Ihr faselt immer was von Apple vs. Google? WTF?
Wo genau haben die beiden denn einen gemeinsamen Markt?

Apple:
http://cache-01.gawkerassets.com/assets/images/4/2010/04/sai-chart-apple-revenue-by-segment-march-2010.gif

Google verkauft doch weder Musik und Filme, noch Computer/Laptops und auch keine Mobiltelefone

so what?


Google hat ein gratis Smartphone OS auf dem Markt gebracht, mit dem Ziel die Martkführerschaft an sich zu reißen und Geld mit Werbung zu verdienen. Das ging klar gegen Apple. Und Ich vestehe Apples Ärger da auch, schließlich hat man beim iPhone ja Praktsich zusammengearbeitet und dann kommt google daher und pusht seinen eigenen Brei, der mittlerweile der größte iPhone konkurrent ist.

Man muss auch klar sagen das das iPhone (OS) mittlerweile Apples Kernmarke ist und Google konkurriert da mit Apple. Allerdings kann ich mir auch schwer vorstellen das Apple ARM kauft nur um der Konkurrenz eines auszuwischen. Es wäre nicht Apples Stil den mit Abstand größten Firmenzukauf der Geschichte zu machen, nur um davon Sekundär zu profitieren.

Angepasste ARM-Designs kann Apple auch bekommen ohne gleich die ganze Firma aufzukaufen und die Lizenzgebühren (selbst wenn es 110 statt 11 cent wären) rechtfertigen das auch nicht.

Sollte Apple aber tatsächlich ARM kaufen wollen, gäbe es mich für ich nur zwei erklärungen: Man will einem anderen zuvorkommen (eher unwahrscheinlich, weil es diesbezüglich keine Gerüchte gab) oder Apple will zukünftig komplett auf ARM setzen und die gesamte Mac-Plattform ein zweites mal umziehen lassen. Aber auch das halte ich für unwahrscheinlich.

Das Apple aber vorhat einen größeren (den größten der Firmengeschichte?) Firmenkauf zu tätigen hat Steve Jobs hingegen ja schonmal gesagt, die frage ist dann welcher?

Ganon
2010-04-22, 22:21:34
Apple will zukünftig komplett auf ARM setzen und die gesamte Mac-Plattform ein zweites mal umziehen lassen.

Dafür hätte eine ARM-CPU doch gar nicht die Leistung.

S940
2010-04-22, 22:26:56
Dafür hätte eine ARM-CPU doch gar nicht die Leistung.
Was nicht ist, kann ja noch werden ... an irgendwas müssen die ganzen zugekauften CPU Entwickler schließlich basteln ..

_flx
2010-04-22, 22:29:21
[...]

Das Apple aber vorhat einen größeren (den größten der Firmengeschichte?) Firmenkauf zu tätigen hat Steve Jobs hingegen ja schonmal gesagt, die frage ist dann welcher?

nVidia? :freak:

Gast
2010-04-22, 22:31:26
Was nicht ist, kann ja noch werden ... an irgendwas müssen die ganzen zugekauften CPU Entwickler schließlich basteln ..
- ARM gibt es noch nicht in 64Bit Geschmacksrichtung
- Einen ARM auf Nehalm-Leistung aufpumpen -> Stromverbrauch ist dann wohl in ähnlichen Regionen

Coda
2010-04-22, 22:31:55
nVidia? :freak:
AMD wäre billiger als NVIDIA.

Avalox
2010-04-22, 22:37:13
Dafür hätte eine ARM-CPU doch gar nicht die Leistung.

Google schätzt den Markt so ein, dass der PC mittelfristig abgelöst wird durch eine Menge an spezielleren Geräten.
Apple wird dieses ganz ähnlich einschätzen.
Es ist ein Trend, welchen man mit ein wenig Objektivität nachvollziehen kann, weil der PC dort selbst ein Teil des Weges ist.
Ein PC ist und war schon immer ein Mikrocomputer gewesen, in Abgrenzung zu den "ordentlichen" Computern wie Großrechner und Mainframes.
Nun ist der PC Zuhause, oder am Arbeitsplatz so was wie ein "personal Mainframe" geworden. Der nächste Unterteilungsschritt wird irgendwann erfolgen.
Dann gibt es den Computer im TV, das Pad, den Nettop, die Spielkonsolen, das Smartphone, alle möglichen Cloud Anwendungen welche gar nicht mehr auf eigener Hardware gerechnet werden.
Wer will sich den noch einen PC hinstellen? Ist ja schließlich ein hässliches Möbel.
Der PC kann sich durchaus aufspalten. Seine Funktionen konvergieren dort mit einer Menge anderer Geräte und machen diesen in der Menge überflüssig.

Die Kinder von morgen könnten einen PC wie heute, nur noch als nostalgisches "Riesending" ansehen an dem der Opa gesessen hat.

Mal sehen. Der Markt den ARM bedient hat ein sehr großes Potential sich in Zukunft zu entwickeln und alles was sich dort entwickelt wird letztendlich vom PC Markt abgeknappst werden.

Gast
2010-04-22, 22:40:08
Wer will sich den noch einen PC hinstellen? Ist ja schließlich ein hässliches Möbel.
iMac ist nicht gerade hässlich. Nicht umsonst gibt es mittlerweile genügend Nachahmer.

-> Denke PC, in welcher Form auch immer, wird noch lange für Leute das Gerät Nummer 1 bleiben, die mit dem Teil wirklich arbeiten und auch Softwareentwicklung betreiben müssen.

Die Masse, die nur zockt, surft hier und da ein Briefchen schreibt könnte in Zukunft gut mit Tablets & Co auskommen.

Tiamat
2010-04-22, 22:46:12
Dafür hätte eine ARM-CPU doch gar nicht die Leistung.

Naja was könnte Apple dann davon abhalten, auf Performance ausgerichtete ARM Architekturen für die restliche Macplattform herauszubringen.
Man schluckt auf jeden Fall kein Unternehmen für 8 Milliarden, nur um die Lizenzgebühren für die Handysparte zu sparen, da stecken schon tiefere Absichten drin.

Avalox
2010-04-22, 22:51:03
iMac ist nicht gerade hässlich. Nicht umsonst gibt es mittlerweile genügend Nachahmer.


Klar ist der hässlich. Um dieses zu minimieren hat man bei Apple eben nur so viel wie möglich versucht vom PC gar nicht erst in den Raum zu bauen, denn was nicht vorhanden ist, kann auch nicht hässlich sein. Deshalb ist der iMac zwar weniger hässlich als anderer Computer, allerdings ist der Rest immer noch ein hässliches Möbel.

Vor allen ist der iMac ja Zuhause bald komplett überflüssig.

Vor einigen Jahren waren PC Monitore die hochwertigsten Datensichtgeräte Zuhause. Heute sind es die Fernseher, welche die PC Monitore schon vor einiger Zeit mit Abstand überholt haben. Nur eine Frage der Zeit bis diese wieder Hauptdatensichtgerät Nr.1 im Haushalt werden.
TVs werden schlicht einen Nettop eingebaut bekommen, dieser in Massen produziert kostet kaum ein paar Euro Aufpreis und ermöglichen alle Heimanwendungen. Wer solch einen TV hat, wird keinen PC mehr kaufen. Der kauft sich höchstens einen zweiten, dritten, vierten TV. Im Prinzip bedient der iMac ja diese Idee schon heute, eben nur mit kleinen Bilddiagonalen.

Ganon
2010-04-22, 23:15:18
Naja was könnte Apple dann davon abhalten, auf Performance ausgerichtete ARM Architekturen für die restliche Macplattform herauszubringen.

Ich würde mal sagen eine Menge Know-How...

Bin jetzt auch nicht gerade erfahren in Sachen CPU-Design, aber ich stelle mir eine Umstellung von einem Engergiespar-Design auf ein Performance-Monster nicht gerade einfach vor.

Sephiroth
2010-04-22, 23:26:34
Nein. 11 cent für jede CPU. Egal welche.
Du beziehst dich ganz offensichtlich hierauf (http://en.wikipedia.org/wiki/ARM_architecture#Approximate_licensing_costs) und das ist nunmal ein Durchschnittspreis über alle Lizenzen!
Hence, the figures above do not reflect the true costs of any single ARM product.

(del)
2010-04-22, 23:54:36
Die Kinder von morgen könnten einen PC wie heute, nur noch als nostalgisches "Riesending" ansehen an dem der Opa gesessen hat. Ich habe schonmal und mehrmals hier darüber geschrieben. Der Tot des PCs ist eine sehr sehr beunruhigende Entwicklung.

Was sagte der Krebskandidat einmal zu Mulder passend zum Kontext? (ungefähr)
"Es ist eine gefährliche Zeit. Wie sollten wir damals ahnen, daß die Teeneger und Studenten von heute in ihren Zimmern über größere Rechenleistung vefügen werden als damals unsere größten Mainframes hatten"...

Denkt bitte nach.

Avalox
2010-04-23, 00:06:44
Denkt bitte nach.

Der Benutzer soll konsumieren, weder nachdenken, kreativ sein oder sonstigen Content produzieren bzw. anbieten.

Der ADSL Anschluss, eben der typische Datenanschluss heutzutage zeigt es doch in einer vollendeten Form.

Natürlich steckt dahinter keine Weltverschwörung. Es ist ein selbstregulierendes System, welches einerseits angetrieben wird durch den Anspruch des Nutzers und auf der anderen Seite eben den Unwillen den Nutzer zu seinen Glück zu zwingen.
Diese Erkenntnis wird allerdings keine Entwicklung aufhalten, erst Recht nicht eine welche die Dinge erst mal billiger machen wird.

Gast
2010-04-23, 00:21:43
Wieso ist es weit hergeholt das z.B. ein iMac mit ARM Prozessor raus kommt? Alle IT Firmen sprechen von cloud computing. Dazu gehört aber mehr als der gemeine User annimmt. Angefangen beim einfachen IMAP Postfach mit "unendlicher Kapazität" über Online-Office, Facebook, Webgames, Onlive, online Speicherplatz usw.. Man kann selbst rechenintensive Aufgaben ins Cloud verlagern, z.B. Videoencoding oder Spiele mittels onlive. Solche Dienste gibt es heute alle schon. Wenn Apple z.B. einen Bildschirm mit ARM und angepassten Cloudbetriebssystem raus bringt, und z.B. dem Kunden 3 Jahre Zugang zu der eigenen Serverfarm für rechenintensive Aufgaben gewährt braucht man nur noch eine schnelle Internetanbindung und der klassische schnelle Home-PC ist quasi nicht mehr nötig. Weil für einen zugriff auf einen Server reicht ein ARM heute schon vollkommen aus.

Nur mal zur Erinnerung, früher füllten Computer ganze Räume und die einzelnen Nutzer griffen per Terminal auf diesen Rechner zu. Dann begann die Entwicklung hin zu einzelnen leistungsstarken PCs. Und nun geht es in Richtung Cloud. Ich sage nur, Entwicklung/Geschichte ist oftmals ein Kreis. Wiederholung des selben unter gewisser Variation.

Gast
2010-04-23, 00:22:34
ARM Holdings zu Apple:
http://i180.photobucket.com/albums/x98/tomsmom1907/cats/bear-how-about-no.jpg


Warren East, chief executive of ARM, told The Guardian that he doesn't see a reason for Apple -- or anyone -- to pay a large sum of money to acquire ARM when they can continue to license the company's processor reference designs for much cheaper.

"Exciting though it is to have the share price pushed up by these rumours, common sense tells us that our standard business model is an excellent way for technology companies to gain access to our technology," East reportedly said. "Nobody has to buy the company."

http://www.appleinsider.com/articles/10/04/22/arm_ceo_downplays_rumors_of_apple_acquisition.html

Coda
2010-04-23, 00:28:48
Sag ich doch ;)

ARM an sich kann bei so einer Geschichte doch nur verlieren. Apple ist abhängig von ihnen, nicht andersrum.

huha
2010-04-23, 00:30:27
Klar ist der hässlich. Um dieses zu minimieren hat man bei Apple eben nur so viel wie möglich versucht vom PC gar nicht erst in den Raum zu bauen, denn was nicht vorhanden ist, kann auch nicht hässlich sein. Deshalb ist der iMac zwar weniger hässlich als anderer Computer, allerdings ist der Rest immer noch ein hässliches Möbel.

Schön, daß deine Ästhetik definitiv ist. Mich würde aber interessieren, welche Sachen du nicht häßlich findest. Ein Fernseher ist beispielsweise auch häßlich. Extrem häßlich finde ich beispielsweise alles, was nicht mit vielen Büchern vollgestellt ist, es sei denn, es ist ein Tisch.
Du bringst hier einfach Aussagen, die möglichst inhaltsschwer klingen sollen, verfehlst es aber, diese irgendwie zu begründen. Du redest davon, daß bestimmte Dinge einfach inhärent häßlich sind, ohne überhaupt darauf einzugehen, was nicht häßlich ist. Ich finde die meisten Möbel irre häßlich und würde mir lieber ein 19"-Rack und einen einfachen Holztisch ins Wohnzimmer stellen als einen Fernseher mit billigem Glanzplastik und irgendeinen ultratollen Designer-Glastisch.

Deine völlig absurden Ausführungen finden ihren Höhepunkt allerdings darin:

Vor einigen Jahren waren PC Monitore die hochwertigsten Datensichtgeräte Zuhause. Heute sind es die Fernseher, welche die PC Monitore schon vor einiger Zeit mit Abstand überholt haben. Nur eine Frage der Zeit bis diese wieder Hauptdatensichtgerät Nr.1 im Haushalt werden.

Das ist so schlecht, daß es nicht einmal verdient, als falsch bezeichnet zu werden. Es stimmt hinten und vorne nicht. PC-Bildschirme sind immer noch die "hochwertigsten" (Definition?) Datensichtgeräte zuhause. In der Industrie übrigens auch. Kein anderes Gerät verbindet Flexibilität (Reaktionszeiten, Farbraum, Blickwinkel, Auflösung, ...), Ergonomie (Reaktionszeiten, Farbraum, Blickwinkel, Helligkeit, Kontrast, Auflösung, Flimmern, ...), Preis und generellen Nutzen so gut wie ein Bildschirm.
Warum Fernseher PC-Bildschirme schon seit einiger Zeit überholt haben, mußt du begründen. In einem ordentlichen Sitzabstand sind Fernseher viel zu groß, man kann also nicht ergonomisch arbeiten. Erhöht man den Sitzabstand, verliert man viel Auflösung. Es hat durchaus einen Grund, warum wir die Bildschirmgrößen haben, die wir haben. Der Grund sind unsere Augen und unser Hals; beide sind nur eingeschränkt anpassungsfähig und erfordern daher beispielsweise zum Lesen eine bestimmte Kombination aus Bildgröße und Auflösung (die vom Betrachtungsabstand abhängig ist). Die Panels in Fernsehern sind i.a. besser als die in PC-Bildschirmen, das liegt aber hauptsächlich daran, daß PC-Bildschirme irre billig geworden sind. Selbst billige PC-Bildschirme taugen schon eine Menge, während Fernseher mit so richtig schlechten Panels wahrscheinlich sehr auffällig schlechte Bilder liefern würden. Ein PC-Bildschirm ist schon extrem günstig zu haben; gibt man mehr Geld aus, kriegt man auch welche mit vernünftigen Panels und anderen Kenndaten.
Und nun ist es, wie du behauptest, nur noch eine Frage der Zeit, bis Fernseher "wieder" die Nr. 1 werden. Dabei waren sie nie die Nr. 1, weil es komplett schwachsinnig ist, einen Fernseher als Datensichtergät zu benutzen. Du hängst dir auch kein Buch, das auf ein Stück auf Leinwand gedruckt wurde, an die Wand, nur weil Bilder so schön hochwertig sind. Fernseher als Datensichtgeräte waren absolute Frickellösungen, um Marktdurchdringung zu erreichen. Professionelle Nutzer haben immer schon Bildschirme verwendet, da die damit erreichbare Bildqualität einfach besser ist. Alle Fernsehnormen sind auf das Fernsehbild optimiert, also auf Bilder ohne großartige hochfrequente Bildanteile. Das heißt andererseits aber auch, daß Text sehr, sehr schlecht aussieht. Wenn man einen Heimcomputer wie den C64 hat, dann kann man das natürlich so hinbiegen, daß man den günstigen Fernseher, der in jedem Haushalt so rumsteht, als Bildschirm nutzen kann und sich nicht erst noch einen (damals!) sehr teuren Video-/Computer-Bildschirm kaufen muß. Mittlerweile sind die allerdings dermaßen günstig, daß man auf solche Lösungen nicht mehr ausweichen muß.

Ich bitte dich, überlege dir vorher, was du schreibst. Deine Argumentation ist komplett lächerlich und ich finde es gräßlich, wenn man einfach unreflektiert solche Sachen schreibt. Ich weiß, daß du das besser kannst.

TVs werden schlicht einen Nettop eingebaut bekommen, dieser in Massen produziert kostet kaum ein paar Euro Aufpreis und ermöglichen alle Heimanwendungen.

Nein, kosten sie nicht. Computer sind teuer und werden auch nie so richtig billig werden, daß man sie in jedes Gerät mal eben so einbauen kann. Spezialisierte Rechner durchaus, aber keine Allzweck-Computer mit akzeptabler Performance. Zumal ein Fernseher auch nicht zuläßt, damit vernünftig zu arbeiten, da der Betrachtungsabstand zu groß ist. Die Internet-Boxen für Fernseher konnten sich nicht mal bei den Leuten durchsetzen, die völlig anspruchslos waren, weil die Idee einfach nicht stimmt; ein Fernseher ist nicht geeignet, um große Mengen Text zu lesen. Heute immer noch nicht, trotz HDTV und HDMI.

Wer solch einen TV hat, wird keinen PC mehr kaufen. Der kauft sich höchstens einen zweiten, dritten, vierten TV.

Und einen zweiten, dritten, vierten Fliesentisch.

Im Prinzip bedient der iMac ja diese Idee schon heute, eben nur mit kleinen Bilddiagonalen.

Äh... nein? Der Mac ist ein PC, kein Fernseher.

-huha

Gast
2010-04-23, 01:14:42
Das wär ja wirklich der Hammer. Das hat aber sicher Auswirkungen auf die Intel Apple Beziehung. Ich glaube, Apple wendet x86 schon bald den Rücken zu. Geil ob ich das noch erleben darf ;D

ARM CPUs sind soll, insbesondere bei mobilen Geräten, aber bei Desktoprechnern hat die Leistungskrone immer noch Intel (und manchmal AMD) mit ihren x86 CPUs und das wird noch sehr lange so bleiben.

Den x86 CPUs sind auf pure Rechenleistung durch und durch hochoptimiert.
Da stecken über 20 Jahre reines Know How drin für jedes kleinste 0,0005 % mehr Performance und das summiert sich.

Dagegen wird es ARM immer schwer haben.
ARM hat jetzt (blad) zwar den Cortex A9, aber das ist im Vergleich zu den hochgezüchteten x86 CPUs im Leisungsbereich ja gerademal unterstes Mittelmaß.
Deswegen wird es sich Apple nicht erlauben, den x86 CPUs den Rücken zu kehren.
Das würden die Kunden auch gar nicht wollen, denn die wollen ja auch Leistung auf ihrem Desktop Apple Rechner haben.
Wenn letztere egal wäre, dann hätte Apple auch genausogut beim PowerPC bleiben können.


Fazit:
In Sachen Performance führt kein Weg an x86 vorbei.

Gast
2010-04-23, 01:17:20
leute es scheint als wäre ich newstechnisch nicht ganz auf der Höhe: Ihr faselt immer was von Apple vs. Google? WTF?
Wo genau haben die beiden denn einen gemeinsamen Markt?

Apple:
http://cache-01.gawkerassets.com/assets/images/4/2010/04/sai-chart-apple-revenue-by-segment-march-2010.gif

Google verkauft doch weder Musik und Filme, noch Computer/Laptops und auch keine Mobiltelefone

so what?

Der gemeinsame Markt lautet Android vs. iPhone
und Youtube vs. iTunes


Youtube wird in dieser Hinsicht natürlich noch weiter ausgebaut werden, das ist klar und dann wird man darüber auch irgendwann die Teile ondemand kaufen können.

Gast
2010-04-23, 01:22:26
Wenn letztere egal wäre, dann hätte Apple auch genausogut beim PowerPC bleiben können.
Leistung gibt es PowerPC ohne Ende.
Der Punkt ist nur, dass der Markt für Desktop-PowerPCs ungleich kleiner ist und daher dann dort weniger investiert wird. Power(PC) bringt aber alles mit - was man von ARM für Desktop-CPUs nur bedingt sagen kann. Es gibt von ARM z.B. noch keine 64Bit Implementierung.
Btw.:
Im Gegensatz zu x86 ist bzw. war zumindest bis jetzt PowerPC wesentlich flexibler. PowerPCs findest du nämlich auch dort im Embedded-Bereich, wo ARM daheim ist als auch in dicken Servern und Supercomputern. Dort ist Power 7 momentan so ziemlich das Non-Plus-Ultra (ein Desktop-Ableger wäre sicherlich auch nicht übel).

Einen riesen Vorteil hat dann noch Power:
Die ISA kann man einfach lizensieren. Nicht so wie bei x86: Eine x86 CPU kann man nicht so einfach bauen.

x86 hat sich letztendlich deswegen durchgesetzt, da auf dem Desktop das dominierende System Windows ist, das nunmal auf x86 läuft. Zudem sind im Laufe der Zeit viele Nachteile der x86 Architektur ausgebügelt oder zumindest gemindert worden.

Gast
2010-04-23, 01:25:21
Wer will sich den noch einen PC hinstellen? Ist ja schließlich ein hässliches Möbel.


Eine Maus, Tastatur, Drucker, Flachbrettscanner und nen großen Bildschirm braucht man immer noch um ordentlich damit arbeiten und z.B. Briefe schreiben zu können.
Häßlich ist bestensfalls nur das Gehäuse, aber da gibt es seit einigen Jahren ja auch Abhilfe.
Spätestens dann wenn SSDs vom Preis her Festplatten verdrängen können, werden kleine Minicomputergehäuse den Siegeszug einläuten.



Die Kinder von morgen könnten einen PC wie heute, nur noch als nostalgisches "Riesending" ansehen an dem der Opa gesessen hat.

Wenn GPU und Rest in die CPU wandern, dann wird man dennoch weiterhin einen großen fetten Kühlkörper brauchen.

Die Zukunft des PCs lautet also, daß er zum fetten Metallwürfelkühlkörper mutieren wird und andere Komponenten wie DVD-Laufwerk und SSD Festplatte wandern in ein externes Extra gehäuse.

Gast
2010-04-23, 01:34:03
Klar ist der hässlich. Um dieses zu minimieren hat man bei Apple eben nur so viel wie möglich versucht vom PC gar nicht erst in den Raum zu bauen, denn was nicht vorhanden ist, kann auch nicht hässlich sein. Deshalb ist der iMac zwar weniger hässlich als anderer Computer, allerdings ist der Rest immer noch ein hässliches Möbel.


Ich bin nicht der Meinung, daß ein Computer ein hässliches Möbelstück ist.

Schon in der nächsten Benutzergeneration wird er genauso wie heute der Fernseher zum Standardmöbiliar einer jeden Wohnung gehören und darin bestens als Möbelbestandteil integriert sein, ohne dem eine Wohnung nur unvollständig ist.

Jedes Wohnzimmer hat heute ein kleines Bücherregal und ne Glasvitrine und so wird es auch mit dem Computer laufen, der wird dazu gehören und nicht mehr als Häßlich empfunden werden.





Vor einigen Jahren waren PC Monitore die hochwertigsten Datensichtgeräte Zuhause. Heute sind es die Fernseher, welche die PC Monitore schon vor einiger Zeit mit Abstand überholt haben.

Computermonitore sind IMMER noch die hochwertigstens Datensichtgeräte, du mußt als Consumer nur bereit sein, die guten Monitore zu kaufen.

Dank Displayport ist der sichtbare Farbraum höher als beim TV und die Auflösungen kommen auch schon an Bereiche jenseits von HDTV heran.
Dazu kommen noch S-IPS Panel, die jedes PVA Panel am TV schlagen.
Lediglich bei den Plasma-TVs sieht es anders aus, aber hey, an einem Arbeitsgerät das 8 h läuft ist auch der Stromverbrauch ein entscheidendes Kriterium.



TVs werden schlicht einen Nettop eingebaut bekommen, dieser in Massen produziert kostet kaum ein paar Euro Aufpreis und ermöglichen alle Heimanwendungen. Wer solch einen TV hat, wird keinen PC mehr kaufen.


Ich glaube der Weg läuft anders herum.
Der Fernser wird in den PC integriert werden und das kann man heute ja schon gut an DVD Laufwerken und TV Karten erkennen.

Das was dieser Entwicklung im Wege steht ist eigentlich nur DRM.
DRM gestaltet sich an einem TV, an dem der Kunde nichts machen kann, zugegebenermaßen einfacher als am PC.



Der kauft sich höchstens einen zweiten, dritten, vierten TV. Im Prinzip bedient der iMac ja diese Idee schon heute, eben nur mit kleinen Bilddiagonalen.

Weswegen die Diagonalen größer werden.

Gast
2010-04-23, 01:44:07
Wieso ist es weit hergeholt das z.B. ein iMac mit ARM Prozessor raus kommt? Alle IT Firmen sprechen von cloud computing. Dazu gehört aber mehr als der gemeine User annimmt. Angefangen beim einfachen IMAP Postfach mit "unendlicher Kapazität" über Online-Office, Facebook, Webgames, Onlive, online Speicherplatz usw.. Man kann selbst rechenintensive Aufgaben ins Cloud verlagern, z.B. Videoencoding oder Spiele mittels onlive. Solche Dienste gibt es heute alle schon. Wenn Apple z.B. einen Bildschirm mit ARM und angepassten Cloudbetriebssystem raus bringt, und z.B. dem Kunden 3 Jahre Zugang zu der eigenen Serverfarm für rechenintensive Aufgaben gewährt braucht man nur noch eine schnelle Internetanbindung und der klassische schnelle Home-PC ist quasi nicht mehr nötig. Weil für einen zugriff auf einen Server reicht ein ARM heute schon vollkommen aus.


Ganz einfache Frage.

Was hat bzw. bevorzugt der Kunde?

Einen Kabelanschluß oder eine Satelittenschüssel?

Es dürfte wohl letzteres sein, denn ersteres generiert monatlich hohe Gebühren.
Im übertragenen Sinne ist Cloud Computing genau das selbe wie der Kabelanschluß der immer kostet, wer will das?
Und wer will das in heutiger Zeit, in der selbst ein popeliger Bürorechner für alle anstehenden Aufgaben unterfordert ist?
Selbst Videoenkoding ist auf modernen PCs kein nennenswertes Problem mehr.
Die 1-8 Filme, die ein Durchschnittsuser von seinem Urlaubsvideo konvertiert, für die reicht auch der Bürorechner aus.
Der rechnet dann halt 2-4 h, aber das ist doch nix.


Cloud Computing gebe ich also bestenfalls als Backuplösung eine Chance, für
Rechenintensive Sachen kommt Cloud Computing und die dafür notwendigen Datenanschlüsse mindestens 20 Jahre zu spät.

Zu Zeiten des 486 wäre Rechenpowerrohleistung wie sie Cloud Computing bieten könnte, sicher sehr gerne angenommen worden, aber heute braucht das doch kein Heimuser mehr, bei den heutigen Bürocpus mit ihrer enormen Rohpower.







Nur mal zur Erinnerung, früher füllten Computer ganze Räume und die einzelnen Nutzer griffen per Terminal auf diesen Rechner zu. Dann begann die Entwicklung hin zu einzelnen leistungsstarken PCs. Und nun geht es in Richtung Cloud. Ich sage nur, Entwicklung/Geschichte ist oftmals ein Kreis. Wiederholung des selben unter gewisser Variation.

Nein, ich glaube es geht eher zum zentralisierten Heimrechner an dem dann die Miniconsumergeräte, Tablets, iPads & Co angeschlossen werden.
Das was die Cloud eigentlich bietet wandert also ins Haus zum Zentralrechner und die Internetcloud will keiner, da das teurer ist als ein zentraler Hausrechner mit RAID System.

(del)
2010-04-23, 01:52:26
Alle IT Firmen sprechen von cloud computing. Dazu gehört aber mehr als der gemeine User annimmt. Angefangen beim einfachen IMAP Postfach mit "unendlicher Kapazität" über Online-Office, Facebook, Webgames, Onlive, online Speicherplatz usw.. Man kann selbst rechenintensive Aufgaben ins Cloud verlagern, z.B. VideoencodingDie Leute regen sich ja schon über Chrome und Studi auf. Wie käme ich denn bitte dazu persönliches gleich tonenweise in eine Cloud zu hauen?

Das letzte Mal als ich etwas mit einer Cloud machen wollte liegt unzählige Jahre zurück. Als Afghaner noch keine Taliban waren, sondern schwarz...

Nur mal zur Erinnerung, früher füllten Computer ganze Räume und die einzelnen Nutzer griffen per Terminal auf diesen Rechner zu. Dann begann die Entwicklung hin zu einzelnen leistungsstarken PCs. Und nun geht es in Richtung Cloud.Was wie du erkannt hast genau der gleiche Bullshit ist. Deine Kiste ist nur ein Terminal. Sie kann aus heutiger Sicht garnichts. Alles was du machen kannst ist nur das was dir die Cloud anbietet. Oder, erlaubt.

Allen viel Glück dabei.

@Gast über mir
Wenn sie uns mit dem Pad-Mist überfluten und ködern, werden die hirnbekifften Vollschwachmatten schon anfangen die Clouds zu nutzen. Steht außer Frage. Es sei denn man sensibilisiert rechtszeitig. Und die Zeit ist bereits knapp...

Gast
2010-04-23, 02:20:46
Alles was du machen kannst ist nur das was dir die Cloud anbietet. Oder, erlaubt.


Und dies stört Apple-user, welche sich brav ihren Content aus Itunes, Appstore vor-sortiert und zensiert von Apple zu überhöhten Preisen holen?

Mit einem cloud kann man dem ipad die Möglichkeit geben fast so Leistungsstark wie ein normaler PC zu sein. Und der gemeine Kudne freut sich und sagt sich: Wow nur 500$ und ich kann alles damit machen was ich auch mit meinem 300$ PC machen kann und findet dies noch vorteilhaft. Es gibt eben keinen homo ökonomikus, sondern nur marketing-Opfer.

(del)
2010-04-23, 02:24:20
Und dies stört Apple-user, welche sich brav ihren Content aus Itunes, Appstore vor-sortiert und zensiert von Apple zu überhöhten Preisen holen?Audio und Videocontent stört nicht so sehr wie das was im AppStore alles abgeht.

Gast
2010-04-23, 04:00:41
Aber Betriebssysteme? Oder denkst du die haben nur aus Goodwill Android entworfen? Einfach so, zum nix verdienen? Google wird ebenso interesse daran haben, dass gute Handys für "ihr" Betriebssystem herauskommen. Insofern stimmt es schon, dass sie selber ja keine herstellen...

funfact: Android wurde zugekauft.

leute es scheint als wäre ich newstechnisch nicht ganz auf der Höhe: Ihr faselt immer was von Apple vs. Google? WTF?
Wo genau haben die beiden denn einen gemeinsamen Markt?

Apple:
http://cache-01.gawkerassets.com/assets/images/4/2010/04/sai-chart-apple-revenue-by-segment-march-2010.gif

Google verkauft doch weder Musik und Filme, noch Computer/Laptops und auch keine Mobiltelefone

so what?

http://jeffpedone.com/wp-content/uploads/2009/08/12.jpg
???

Aufwachen, es ist nicht mehr 2005.

iAD vs AdMob
iTunes vs YouTube
AppleTV vs GoogleTV
iTunes vs Android Market
Safari vs Chrome
iPhone vs Android

www.google.com/phone
Eric Schmidt Confirms That Google is Working on Tablet (http://www.gottabemobile.com/2010/04/13/eric-schmidt-confirms-that-google-is-working-on-tablet)

Avalox
2010-04-23, 11:33:34
Schön, daß deine Ästhetik definitiv ist. Mich würde aber interessieren, welche Sachen du nicht häßlich findest. Ein Fernseher ist beispielsweise auch häßlich.


Klar ist ein TV Gerät hässlich, weshalb man ja diesen immer weiter auf das essentielle optisch reduziert, eben den Bildschirm. Allerdings ist der Fernseher eh da im Haushalt, dass ist der entscheidende Unterschied zum PC.

Du redest davon, daß bestimmte Dinge einfach inhärent häßlich sind, ohne überhaupt darauf einzugehen, was nicht häßlich ist.


Auf jedem Fall kann nicht hässlich sein, was nicht sichtbar da ist. Jegliches Ding, welches den Interessierten aufgrund seiner Funktion ein Design aufbürdet läuft Gefahr hässlich zu sein, erst Recht wenn dieses ein billiges Ding ist und Mikrocomputer sind billig, dass ist ihr Kern des Ursprungs dieser Geräte.

Ich finde die meisten Möbel irre häßlich und würde mir lieber ein 19"-Rack und einen einfachen Holztisch ins Wohnzimmer stellen als einen Fernseher mit billigem Glanzplastik und irgendeinen ultratollen Designer-Glastisch.

Das kannst du ja machen, es braucht ja auch nur dir gefallen. Nur kannst du doch nicht erwarten, dass die Masse diese Meinung teilt und es dir gleich tut. Doch die Masse bestimmt die Entwicklung der Massenprodukte.


arbeiten. Erhöht man den Sitzabstand, verliert man viel Auflösung. Es hat durchaus einen Grund, warum wir die Bildschirmgrößen haben, die wir haben. Der Grund sind unsere Augen und unser Hals; beide sind nur eingeschränkt anpassungsfähig und erfordern daher


Auflösung, wenn sie denn heute nicht schon hoch genug ist beim TV, wird es diese morgen auf jeden Fall sein. Auflösung wird keine Rolle mehr spielen, sie ist schlicht dann hoch genug.

Dass heute PC Bildschirme so groß sind, wie sie sind hat nur einen Grund: der Preis.
Große Displays kosten Geld, Raum um große Displays anwendungsgerecht zu betreiben kostet noch mehr Geld.
Computer Displays sind so groß wie sie es sind, um sie billig, eben passend zu billigen Mikrocomputern in billigen Arbeitplätzen zu halten.

Dieses erkennst du doch sofort daran, dass eben die Bilddiagonale sofort steigt, sobald diese billig zu kaufen ist. Wäre der Bildschirm so optimal, wie du es schreibst würde sich an diesen überhaupt nichts ändern.

Und deine Gedanken um den Sitzabstand in allen ehren. Wenn du einen hochauslösenden großen TV hast, dann kannst du auf diesen virtuell ein interaktives Fenster definieren, welches deine Wünsche in Ausmaß und Position entspricht. Es ist ja nur eine Sache der Auflösung.

ächlich daran, daß PC-Bildschirme irre billig geworden sind.


Eben. Das Panel des typischen TV im Haushalt ist i.d.R. höherwertiger, als das des typischen PC Bildschirm.
Im Trend liegt ja generell die Vereinheitlichung dieser beiden Gerätetypen in einen 16:9 Panel. Es findet ja gerade auf dem PC Monitor eigentlich ein großer Umbruch statt, indem Panels in TV Proportionen verwendet werden, die Märkte konvergieren ja schon heute.


Dabei waren sie nie die Nr. 1, weil es komplett schwachsinnig ist, einen Fernseher als Datensichtergät zu benutzen.


Überhaupt nicht. In der Zeit der Homecomputer war der TV das Datensichtgerät Nr.1 in den Haushalten. Dieses findet im Umschwung auch gerade wieder statt. Mit der Verbreitung von Spielekonsolen ist der Fernseher in vielen Haushalten schon längst wieder das Standard Sichtgerät, da an der Konsole mehr Zeit als an einem PC oder Notebook verbracht wird.

Der Haupteinsatz des PC zu Hause ist ja die Unterhaltung und Information, zum Teil die Kommunikation.

Alle Fernsehnormen sind auf das Fernsehbild optimiert, also auf Bilder ohne großartige hochfrequente Bildanteile. Das heißt andererseits aber auch, daß Text sehr, sehr schlecht aussieht.


Die Fernsehübertragungsstandards vielleicht. Moderne TVs könne Text hinreichend gut darstellen. Erst Recht, wenn nun die Auflösung der Panels steigt.

Allerdings und hier trifft die angekündigte Diversifizierung der Haus IT, wird es eben genau für diese Benutzerschnittstelle Text eigene Geräte geben. Der Pad Ansatz ist dort sehr vielversprechend und für Text deutlich besser geeignet als der heutige PC.

Du hältst dir doch auch nicht ein Blatt Papier in 40 cm Abstand vor den Horizont um es zu lesen. Die klassische Position des PC Monitor ist noch eine Altlast, als die Röhrengeräte noch tiefer als breit waren.

Der Haushalt wird sehr viele Geräte enthalten, welche allesamt zusammen in spezialisierter Form die Funktionalität des PCs ersetzen. So die Vision.


Nein, kosten sie nicht. Computer sind teuer und werden auch nie so richtig billig werden, daß man sie in jedes Gerät mal eben so einbauen kann.


Sie werden doch heute schon eingebaut. Kein Gerät ohne hinreichend Processing Funktionen. Inzwischen erobern Webbrowser und Youtube Player jeden besseren TV, oder Blu-ray Player. Spielkonsolen gar nicht erst betrachtet.

Was fehlt ist ein benutzerfreundliches OS, mit Wiedererkennungswert und hoher Funktionalität und geringen Ressourcenbedarf, welches kein Geld kosten darf, um Lizenzkosten zu sparen. ChromeOS kann dort genau die Initialzündung bedeuten.


Äh... nein? Der Mac ist ein PC, kein Fernseher.


Der Mac ist auch der Prototyp des TV von morgen. Ein Konsumiergerät, welches On-Demand den Konsumenten mit Unterhaltung und Information versorgt.

Gast
2010-04-23, 11:38:54
Der Mac ist auch der Prototyp des TV von morgen. Ein Konsumiergerät, welches On-Demand den Konsumenten mit Unterhaltung und Information versorgt.
Hö?
Das kann er natürlich auch, wie jeder PC. Primär ist es aber ein Arbeitsgerät.

Btw:
So ein Gerät wie der iMac ist das ideale Gerät, wenn z.B. kein Arbeitszimmer vorhanden ist, man sich aber nicht das Wohnzimmer mit einem großen Kasten verschandeln möchte - aber dennoch etwas stationäres haben möchte.
Geht aus Erfahrung auch bei den Frauen (WAF) in Ordnung bzw. habe ich sogar schon mitbekommen, wo genau Frau das vorgeschlagen hat nachdem Arbeitszimmer wegen Nachwachs wegfällt.

Ganon
2010-04-23, 11:41:40
Hö?
Das kann er natürlich auch, wie jeder PC. Primär ist es aber ein Arbeitsgerät.


Ein "normaler" PC besteht aber nicht, wie iMac und ein TV optisch nur aus einem Bildschirm.

Avalox
2010-04-23, 12:11:34
Hö?
Das kann er natürlich auch, wie jeder PC. Primär ist es aber ein Arbeitsgerät.


Was heisst auch? Der Mac kann es besser als jeder PC. Schließlich ist Apple so was wie der Erfinder des kommerziell erfolgreichen On-Demand Medienverkaufs. Wenn man dort technologisch praktisch vorne dabei sein will, benötigt man schlicht was aus dem Hause Apple.

Der iMac ist dort ganz sicher kein Arbeitsgerät, der Mac ist dort ein Lifestyle Gerät mit Unterhaltungscharakter, welches dort dem Rechnung trägt, dass eben im kommerziellen Umfeld MACs kaum eine Durchdringung haben. Was nicht bedeutet, dass man mit dem MAC nicht arbeiten kann, was man natürlich auch kann.

Oder anders herum, was wird denn Zuhause am PC überhaupt gearbeitet? Der Kunde Zuhause sucht am PC Unterhaltung, Information, will kommunizieren und konsumieren. Natürlich auch mal eine Steuererklärung machen und die A4 Einladung zum Familienfest drucken. Das trifft ganz im speziellen auf die Heim-MACs, eben die iMACs zu.


So ein Gerät wie der iMac ist das ideale Gerät, wenn z.B. kein Arbeitszimmer vorhanden ist, man sich aber nicht das Wohnzimmer mit einem großen Kasten verschandeln möchte - aber dennoch etwas stationäres haben möchte.
Geht aus Erfahrung auch bei den Frauen (WAF) in Ordnung bzw. habe ich sogar schon mitbekommen, wo genau Frau das vorgeschlagen hat nachdem Arbeitszimmer wegen Nachwachs wegfällt.

Na klar, weil er eben "für einen Computer" noch ansprechend aussieht. Das Beispiel tifft ja den Nagel genau auf den Kopf.

KraetziChriZ
2010-04-23, 12:13:43
Einfach eine Quelle nennen und gut ist (@CPU Lizenzgebühren)

Der Chaosradio Express über ARM ;)

Gruß,
Chris

KraetziChriZ
2010-04-23, 12:14:47
- ARM gibt es noch nicht in 64Bit Geschmacksrichtung
- Einen ARM auf Nehalm-Leistung aufpumpen -> Stromverbrauch ist dann wohl in ähnlichen Regionen

Was soll ein 64Bit ARM bringen? Auch dazu empfehle ich den aktuellen Chaosradio Express...

Gast
2010-04-23, 12:16:42
Was soll ein 64Bit ARM bringen? Auch dazu empfehle ich den aktuellen Chaosradio Express...
Hier wurde von ARM als Desktop-CPU gesprochen.
Der Chaosradio Express über ARM ;)

Haben bestimmt im Durchschnitt gemeint.
Wäre etwas komisch, wenn ein Highend-ARM wie ein Cortex A9 nicht mehr Lizenzgebühren kostet, als irgend ein LowEnd-Teil...

Gast
2010-04-23, 12:31:52
Was soll ein 64Bit ARM bringen?Egal ob es für das jeweilige Gerät als sinnvoll erachtet wird, aber 64bit sind durch die ASLR-Eigenheiten zum einen Sicherheitsfeature geworden.

Ailuros
2010-04-23, 14:27:58
Ich sehe keine besonderen Gewinn bei der ARM Aufkaufs-These und zusaetzlich wuerde es schneller zu anti-competitive Aktionen kommen als man spucken kann.

AMD auf der anderen Seite waere wirklich eine interessante Option; definitiv eine bessere hypothetische Investition IMHO.

Uebrigens:

The head of ARM denied any talks regarding possible takeover by Apple, claiming that it would be much cheaper to license ARM’s technologies than to acquire the whole company.

“Exciting though it is to have the share price pushed up by these rumours, common sense tells us that our standard business model is an excellent way for technology companies to gain access to our technology. Nobody has to buy the company,” said Warren East, chief executive officer of ARM, in a brief interview with the Guardian.

http://www.xbitlabs.com/news/cpu/display/20100422141657_Apple_Rumoured_to_Acquire_Microprocessor_Developer_ARM.html

http://www.guardian.co.uk/business/marketforceslive/2010/apr/22/armholdings-marketforces

Wie ich schon bei B3D sagte kann ARM auf jeden Fall dem Analysten der darauf dachte ein paar Kisten Bier schicken *grins*

KraetziChriZ
2010-04-23, 14:56:14
Egal ob es für das jeweilige Gerät als sinnvoll erachtet wird, aber 64bit sind durch die ASLR-Eigenheiten zum einen Sicherheitsfeature geworden.

Dafür braucht man afaik kein 64Bit. Genau so um Dateien größer 4GB zu Adressieren braucht man keine 64Bit CPU.

Gruß,
Chris

kevsti
2010-04-23, 15:09:00
Der Chaosradio Express über ARM ;)

Gruß,
Chris
Sorry ChriZ ;( :tongue: ich habe dass Podcast erst gestern Abend in der Badewanne gehört :freak: und habe speziell bei der Passage genau hin gehört - er sagt durchschnittlich! und er sagt auch dass Highend CPUs (eben z.B. Cortex A8 oder gar A9) von denen natürlich teurer sind.

die ganzen lowend Teile die für Bluetooth und so was zuständig sind, werden extrem wenig kosten ~4/5 Cent k.A. und dadurch den Durchschnitt so extrem drücken.

Coda
2010-04-23, 15:51:13
Der Chaosradio Express über ARM ;)
Besser zuhören hilft.

Dafür braucht man afaik kein 64Bit.
ASLR führt aber erst mit 64 bit virtuellem Adressraum zu einem wirklichen Sicherheitsgewinn, da viel mehr Platz da ist um den Code zu verstreuen.

Genau so um Dateien größer 4GB zu Adressieren braucht man keine 64Bit CPU.
Zusammenhang? I don't see it :|

Tiamat
2010-04-23, 15:53:20
ARM CPUs sind soll, insbesondere bei mobilen Geräten, aber bei Desktoprechnern hat die Leistungskrone immer noch Intel (und manchmal AMD) mit ihren x86 CPUs und das wird noch sehr lange so bleiben.

Den x86 CPUs sind auf pure Rechenleistung durch und durch hochoptimiert.
Da stecken über 20 Jahre reines Know How drin für jedes kleinste 0,0005 % mehr Performance und das summiert sich.

Dagegen wird es ARM immer schwer haben.
ARM hat jetzt (blad) zwar den Cortex A9, aber das ist im Vergleich zu den hochgezüchteten x86 CPUs im Leisungsbereich ja gerademal unterstes Mittelmaß.
Deswegen wird es sich Apple nicht erlauben, den x86 CPUs den Rücken zu kehren.
Das würden die Kunden auch gar nicht wollen, denn die wollen ja auch Leistung auf ihrem Desktop Apple Rechner haben.
Wenn letztere egal wäre, dann hätte Apple auch genausogut beim PowerPC bleiben können.


Fazit:
In Sachen Performance führt kein Weg an x86 vorbei.


Wenn ich von auf Performance gerichtete Architektur spreche, dann meine ich damit nicht irgendwelche Performancekriege.
Sondern ich meine damit einfach eine verschiedene Ausprägung der Architekturen. Die Mobilsparte, die auf minimalen Stromverbrauch getrimmt wird und die mögliche Desktopsparte, in der der minimale Stromverbrauch zugunsten von etwas höherer Performance getrimmt wird.

Wenn Apple einen auf Performance optimierten 4 Kern a9 à 2 Ghz im z.b Mac mini verbauen würde, bestünde da denn großartiger Unterschied zu der jetzigen Performance? Vielleicht besteht noch ein Unterschied und wie sieht´s mit nem 8 Kern a9 aus. Da höchstwahrscheinlich schon nicht mehr.

Und wo der Intel 8 Kern Prozessor vermutlich über 100 Watt verbraucht, braucht die ARM Variante vermutlich nicht mal 10 Watt.
Und genau darauf wird es in Zukunft ankommen.

In hochintegrierten Geräten kann nunmal keine CPU verbaut werden, die 100 Watt verbraucht.

Gast
2010-04-23, 16:01:35
@Tiamat: Du liegst aber gewaltig daneben.
Damit ein ARM zu z.B. einem Nehalm konkurrenzfähig wäre, musst du den im Takt derart aufpusten, dass der vermutlich auch nicht mehr weniger verbrät (vielleicht sogar mehr).
Das ganze ARM Design ist doch anders ausgelegt, z.B. kann ein ARM AFAIK viel weniger Instruktionen parallel ausführen. Das muss dann alles mit dem Takt ausgeglichen werden.

KraetziChriZ
2010-04-23, 16:11:47
Sorry ChriZ ;( :tongue: ich habe dass Podcast erst gestern Abend in der Badewanne gehört :freak: und habe speziell bei der Passage genau hin gehört - er sagt durchschnittlich! und er sagt auch dass Highend CPUs (eben z.B. Cortex A8 oder gar A9) von denen natürlich teurer sind.

die ganzen lowend Teile die für Bluetooth und so was zuständig sind, werden extrem wenig kosten ~4/5 Cent k.A. und dadurch den Durchschnitt so extrem drücken.

Da bist du aber immer noch bei 11ct.
Im iPhone sind ja 4-5 ARM's drinne. Bluetooth und Co für 4ct, Cortex A8 für 20ct. Macht im Schnitt wieder 11ct ;)

Sollte bei einem 1000€-Telefon jetzt nicht die Welt ausmachen...

Gruß,
Chris

KraetziChriZ
2010-04-23, 16:15:53
Besser zuhören hilft.

ASLR führt aber erst mit 64 bit virtuellem Adressraum zu einem wirklichen Sicherheitsgewinn, da viel mehr Platz da ist um den Code zu verstreuen.

Zusammenhang? I don't see it :|

@Tiamat: Du liegst aber gewaltig daneben.
Damit ein ARM zu z.B. einem Nehalm konkurrenzfähig wäre, musst du den im Takt derart aufpusten, dass der vermutlich auch nicht mehr weniger verbrät (vielleicht sogar mehr).
Das ganze ARM Design ist doch anders ausgelegt, z.B. kann ein ARM AFAIK viel weniger Instruktionen parallel ausführen. Das muss dann alles mit dem Takt ausgeglichen werden.

Man muss bei der ganzen Überlegung bedenken das wenn man eine ARM CPU als Desktop CPU benutzen würde ein OS speziell darauf optimieren würde. Von Anfang an, wie beim iPhone OS oder Android. Man sieht dort deutlich wie gut diese Systeme mit 128MB Ram und nem kleinen ARM performen.

Ich könnte mir gut vorstellen das Apple auf dieser Plattform eine MacBook Air CPU die nicht auf x86 basiert liefern könnte mit MacOS 11 welches auf Touch Bedienung ausgelegt ist. Man würde ganz neu anfangen wie mit iPhone OS und somit deutlich performanter sein als irgend ein windows auf einer x86 Maschine...

Achtung! Dieser Post ist höchst spekulativ und stellt meine persönliche Meinung (wenn nicht Wunschdenken dar! Achtung! :freak:

Gruß,
Chris

Gast
2010-04-23, 16:16:46
Da bist du aber immer noch bei 11ct.
Im iPhone sind ja 4-5 ARM's drinne. Bluetooth und Co für 4ct, Cortex A8 für 20ct. Macht im Schnitt wieder 11ct ;)

???


Sollte bei einem 1000€-Telefon jetzt nicht die Welt ausmachen...
Du meinst bei einem 500 bis 600€ Telefon im regulären Verkauf!
Aber du nimmst jetzt irgendwelchen weltfremden Preise (nicht von Apple!!!), die es wenn überhaupt nur gibt, wegen dem Exklusivvertrag mit der Telekom in Dtld.

Coda
2010-04-23, 16:16:53
Aha, für jedes Gerät gleicht sich das also im Durchschnitt auf 11ct aus :facepalm:

Man muss bei der ganzen Überlegung bedenken das wenn man eine ARM CPU als Desktop CPU benutzen würde ein OS speziell darauf optimieren würde. Von Anfang an, wie beim iPhone OS oder Android. Man sieht dort deutlich wie gut diese Systeme mit 128MB Ram und nem kleinen ARM performen.
Das ist auch Käse. Der Speicherverbrauch von modernen Betriebssystemen hat seinen guten Grund. Und wie genau soll so eine "Wunderoptimierung" aussehen? Meinst du die Betriebssysteme sind heutzutage nicht auf x86 optimiert oder was? Oder das ARM auf wundersamer Weise weniger Speicher verbraucht bei den gleichen Programmen?

Mac OS X auf ARM würde genauso viel fressen wie auf x86 oder PowerPC auch.

KraetziChriZ
2010-04-23, 16:26:15
Du meinst bei einem 500 bis 600€ Telefon im regulären Verkauf!
Aber du nimmst jetzt irgendwelchen weltfremden Preise (nicht von Apple!!!), die es wenn überhaupt nur gibt, wegen dem Exklusivvertrag mit der Telekom in Dtld.

Naja, ohne Lock mit garantie bei 3gstore.de kostet das Teil glaube ich momentan 849€. Vor 1 Jahr waren es 999€. Aber ist ja auch egal ob 500 oder 1000 Euro, die 20ct für die ARM Lizenz fällt imho da fast nicht ins Gewicht, zumahl ein Zukauf von ARM ja auch viel Geld kosten würde ;)

Aha, für jedes Gerät gleicht sich das also im Durchschnitt auf 11ct aus :facepalm:

In den meisten Geräten sind mehrere ARMs drinne. W-Lan Karte, Bluetooth Chip, GSM/UMTS Chip, usw. Schau mal in dein Laptop, Smartphone etc. ;)

Das ist auch Käse. Der Speicherverbrauch von modernen Betriebssystemen hat seinen guten Grund. Und wie genau soll so eine "Wunderoptimierung" aussehen? Meinst du die Betriebssysteme sind heutzutage nicht auf x86 optimiert oder was? Oder das ARM auf wundersamer Weise weniger Speicher verbraucht bei den gleichen Programmen?

Mac OS X auf ARM würde genauso viel fressen wie auf x86 oder PowerPC auch.

Warum ruckelt auf einem Core2Duo mit 1,8Ghz ein H264 720p und warum kann das iPad (ohne Lüfter) mit 1Ghz und 1 Core es ruckelfrei abspielen und verbraucht insgesamt so viel Strom wie der Core2 CPU im Idle?

Es ist ein SoC, und das ist das was man bedenken muss. ARM lizenziert lediglich Referenzdesign. Bei Intel ist Apple (und Microsoft, Linux usw.) auf die Features in x86/AMD-64 abgewiesen.
Bei ARM kann man sich beliebige Funktionen "zusammenstecken" und das ganze Stromsparend (also, RICHTIG Stromsparend) in einen Chip gießen. Alles unnötige weglassen und das was man benötigt bis zum erbrechen optimieren. Genau das wurde beim iPhone und iPad gemacht. Das iPhone kann h264 bis 1080p und 30Mbit RUCKELFREI abspielen, mein NetBook kotzt da einfach nur...

Gruß,
Chris

Gast
2010-04-23, 16:32:59
Warum ruckelt auf einem Core2Duo mit 1,8Ghz ein H264 720p und warum kann das iPad (ohne Lüfter) mit 1Ghz und 1 Core es ruckelfrei abspielen und verbraucht insgesamt so viel Strom wie der Core2 CPU im Idle?

Das iPhone kann h264 bis 1080p und 30Mbit RUCKELFREI abspielen, mein NetBook kotzt da einfach nur...

Gruß,
Chris

Weil H264 in hardware beschleunigt wird? Netbooks mit Nvidia ION oder einfachem Boardcom Crystal HD chip können 1080p ebenfalls abspielen. Der Atom dreht da fast däumchen. Und nun? Du mixt hier einfach wild sachen zusammen, die nichts miteinander zu tun haben.

Coda
2010-04-23, 16:34:23
Ach übrigens widerspreche ich Welte auch was die 64-Bit-Erweiterung von ARM angeht. Es ist totaler Blödsinn, dass RISC bei 64-Bit auch 64-Bit-Instructions hätte. PowerPC 64 hat natürlich auch 32 Bit Instructions.

Eine ARM-Erweiterung auf 64 bit würde da wohl nichts verändern.

Coda
2010-04-23, 16:35:24
In den meisten Geräten sind mehrere ARMs drinne. W-Lan Karte, Bluetooth Chip, GSM/UMTS Chip, usw. Schau mal in dein Laptop, Smartphone etc. ;)
Schön. Ohne Zweifel. Trotzdem heißt das noch lange nicht, dass sich das auf 11ct pro Gerät im Durchschnitt beläuft.

Ich geh mal stark davon aus dass so ein Cortex A8 einige Dollar kostet.

Warum ruckelt auf einem Core2Duo mit 1,8Ghz ein H264 720p und warum kann das iPad (ohne Lüfter) mit 1Ghz und 1 Core es ruckelfrei abspielen und verbraucht insgesamt so viel Strom wie der Core2 CPU im Idle?
Weil das iPad das nicht über die CPU macht.

KraetziChriZ
2010-04-23, 16:39:59
Weil H264 in hardware beschleunigt wird? Netbooks mit Nvidia ION oder einfachem Boardcom Crystal HD chip können 1080p ebenfalls abspielen. Der Atom dreht da fast däumchen. Und nun? Du mixt hier einfach wild sachen zusammen, die nichts miteinander zu tun haben.

Klar können die das, aber der Grafikchip verbraucht so viel Strom wie ein komplettes Laptop mit ARM-Kombination anstatt einer Intel/Nvidia-Kombo.

Coda
2010-04-23, 16:41:53
Und wiedermal: Zusammenhang?

Zuerst kommst du damit an dass ARM angeblich schneller wäre, weil das iPad ja angeblich viel schneller damit H.264 dekodieren kann, dann erklären wir dir das es über Hardware geht und jetzt kommst du mit Stromverbrauch? WTF?

Gast
2010-04-23, 16:49:53
Naja, ohne Lock mit garantie bei 3gstore.de kostet das Teil glaube ich momentan 849€. Vor 1 Jahr waren es 999€.
Und das ist der offizielle Preis von Apple? Nope!
Das ist wie ich schrieb ein Phantasiepreis ohne Segen von Apple, den es auch nur aufgrund der Vertragssituation in Dtld. gibt.


Aber ist ja auch egal
Wollte ich trotzdem mal erwähnen.

basti333
2010-04-23, 17:35:33
Und das ist der offizielle Preis von Apple? Nope!
Das ist wie ich schrieb ein Phantasiepreis ohne Segen von Apple, den es auch nur aufgrund der Vertragssituation in Dtld. gibt.


Wollte ich trotzdem mal erwähnen.

der 3gstore ist auch ein abzock-verein, der kann sich das nur wegen seiner unerklärlichen bekanntheit erlauben. "Normal" für ein Italien iPhone ist mittlerweile 650€ für 16GB bzw. 750€ für 32GB. Bspw. hier http://www.3gspeed.de/

Apple direkt verlangt für die iPhones nochmal 50€ weniger, zumindest in Italien: http://store.apple.com/it/browse/home/shop_iphone/family/iphone?mco=MTE2NTQ

KraetziChriZ
2010-04-23, 17:39:54
Und wiedermal: Zusammenhang?

Zuerst kommst du damit an dass ARM angeblich schneller wäre, weil das iPad ja angeblich viel schneller damit H.264 dekodieren kann, dann erklären wir dir das es über Hardware geht und jetzt kommst du mit Stromverbrauch? WTF?

Es geht darum das ein ARM SoC in dem wofür er designt wurde die Aufgaben besser, schneller, Stromsparender und kühler bewältigt.

z. B. h264 decodieren.

Ich wollte damit zeigen das ein ARM eine durchaus Interessante Plattform für Apple wäre, wenn sie für ihre Notebooks ein neues OS vorstellen würden, was darauf optimiert ist. (ähnlich iPhone/iPad OS).

Ich rede von der Geschwindigkeit von so einem System und nicht von einem x86 Betriebsystem das man einfach für ARM compiliert, dabei kann nix gutes rauskommen :freak:

Ein Linux auf Routern läuft vielleicht super, aber schonmal Gnome oder KDE versucht für ARM zu compilen?

Gruß,
Chris

_DrillSarge]I[
2010-04-23, 17:51:21
Ich wollte damit zeigen das ein ARM eine durchaus Interessante Plattform für Apple wäre, wenn sie für ihre Notebooks ein neues OS vorstellen würden, was darauf optimiert ist. (ähnlich iPhone/iPad OS).
geil. ein notebook zum surfen und h.264 decodieren :freak:


Ein Linux auf Routern läuft vielleicht super, aber schonmal Gnome oder KDE versucht für ARM zu compilen?

:uconf:

und überhaupt: :uconf:

warum sollen deine aufgestellten behauptungen nicht auch für x86 chip + externe DSPs funktionieren (oder gleich fusion kram o.ä.)? ich hör nur: arm toll, arm>x86, arm blubb....:uconf:

KraetziChriZ
2010-04-23, 17:55:26
I[;7988501']geil. ein notebook zum surfen und h.264 decodieren :freak:

Was machst du noch so mit einem Mobilen Gerät? Ich meine jetzt nicht das 17" Gaming Laptop sondern das kleine kompakte (a la MacBook Air)?

Surfen, Musik hören (ja, auch zum MP3s/M4a decoden hat Apple etwas im SoC integriert), Chatten...

I[;7988501']warum sollen deine aufgestellten behauptungen nicht auch für x86 chip + externe DSPs funktionieren? ich hör nur: arm toll, arm>x86, arm blubb....:uconf:

Du hast gelesen was ich geschrieben habe?

Wie viel Strom verbrauchen die Teile von einem MacBook Air OHNE die x86 CPU+GPU und wie viel MIT?

Wie viel könnte man wohl mit einem ARM einsparen? 60%?

Bei einem Mobilen Gerät bedeutet das z. B. 10h statt 6,5h Akkulaufzeit...

Gruß,
Chris

Coda
2010-04-23, 17:57:09
Es geht darum das ein ARM SoC in dem wofür er designt wurde die Aufgaben besser, schneller, Stromsparender und kühler bewältigt.
Deine Aussage war aber dass das OS an sich auf ARM weniger Resourcen verbrauchen würde was totaler BS ist.

Ein Linux auf Routern läuft vielleicht super, aber schonmal Gnome oder KDE versucht für ARM zu compilen?
Inwiefern sollte das ein Problem sein?

Es gibt einen Debian-Port für ARM und der enthält KDE.

KraetziChriZ
2010-04-23, 17:57:50
Inwiefern sollte das ein Problem sein?

Es performt nicht.

Coda
2010-04-23, 17:59:41
Es performt nicht.
Was hat das mit dem kompilieren an sich zu tun? :uconf:

Und ja, es performt nicht, weil die ARM-CPUs eben doch arschlahm sind gegenüber modernen Desktop-CPUs. Dann hätten wir das ja auch geklärt.


Wie viel könnte man wohl mit einem ARM einsparen? 60%?
Die Rechnung ist komplette Grütze. Eine ARM-CPU mit der Leistung einer modernen Desktop-CPU würde in sehr ähnlichen Regionen der Leistungsaufnahme liegen.

Ein Nehalem vernichtet selbst einen Cortex A9 was IPC angeht sehr sehr übel.

KraetziChriZ
2010-04-23, 18:06:27
Was hat das mit dem kompilieren an sich zu tun? :uconf:

Und ja, es performt nicht, weil die ARM-CPUs eben doch arschlahm sind gegenüber modernen Desktop-CPUs. Dann hätten wir das ja auch geklärt.

Nunja. Die Entwickler kennen die Hardware aber sie können bei x86 daran nichts ändern. Bei ARM schon. Es ist eine "offene" Plattform, wofür es unzählige Entwicklungswerkzeuge gibt und eine riesige Plattform an Entwicklern die sich ungemein gut damit auskennen.

x86 ist einfach eine Plattform bei der man mehr oder weniger die Tools von Intel benutzen muss und man auch garnicht versuchen brauch etwas zu ändern. (in diesem Bezug ist das Gerücht das Apple AMD kaufen will ja auch interessant...)

Es performt meiner Meinung nach nicht, weil die Compiler und der Code nicht auf die ARM CPU optimiert ist.

Wie schnell und Snappy sowas sein kann sieht man deutlich am iPad.
1Ghz und 256MB Ram und schneller als jedes aktuelle Netbook beim surfen...

Gruß,
Chris

Coda
2010-04-23, 18:09:12
Nunja. Die Entwickler kennen die Hardware aber sie können bei x86 daran nichts ändern. Bei ARM schon. Es ist eine "offene" Plattform, wofür es unzählige Entwicklungswerkzeuge gibt und eine riesige Plattform an Entwicklern die sich ungemein gut damit auskennen.
Das heißt noch lange nicht, dass sie irgendwelche Wunderprozessoren entwickeln können.

x86 ist einfach eine Plattform bei der man mehr oder weniger die Tools von Intel benutzen muss und man auch garnicht versuchen brauch etwas zu ändern. (in diesem Bezug ist das Gerücht das Apple AMD kaufen will ja auch interessant...)
Ja. Und? Intel- und AMD-CPUs sind sehr gut auf das zugeschnitten was sie tun sollen.

Es performt meiner Meinung nach nicht, weil die Compiler und der Code nicht auf die ARM CPU optimiert ist.
Bullshit. Android und das iPhone verwenden genau die gleichen Compiler für native code (GCC und LLVM). ARM ist neben x86 und PowerPC die meistbeachtete Compiler-Platform. ARM hat auch nicht irgendwelchen obskuren Architektur-Features die guten Code anders aussehen lassen würden als auf x86 und PowerPC.

Die CPUs sind einfach viel langsamer. Was allerdings noch sein könnte ist, dass der Grafiktreiber suboptimal arbeitet.

Wie schnell und Snappy sowas sein kann sieht man deutlich am iPad.
1Ghz und 256MB Ram und schneller als jedes aktuelle Netbook beim surfen...
Das wäre es auch mit einem Intel-SOC mit gleicher Leistung und Speicherausstattung. Du suchst Zusammenhänge wo es keine gibt.

KraetziChriZ
2010-04-23, 18:11:55
Welcher Intel SoC wäre das? :)

Coda
2010-04-23, 18:13:00
Nochmal zum Mitschreiben: Du behauptest, dass ARM x86 und PowerPC leistungsmäßig überlegen ist.

Ist es nicht. Das OS und die Infrastruktur darum sind auf embedded ausgelegt, mehr nicht.

KraetziChriZ
2010-04-23, 18:14:51
Hat den Intel *irgendetwas* vergleichbares auf Lager?

Coda
2010-04-23, 18:15:10
Das spielt doch überhaupt keine Rolle.

ARM hat auch keine Desktop-CPU im Angebot. Beide bedienen komplett unterschiedliche Märkte. Das hat mit dem Befehlssatz aber nur beiläufig etwas zu tun.

_DrillSarge]I[
2010-04-23, 18:18:49
Hat den Intel *irgendetwas* vergleichbares auf Lager?
nee. intels prozzis sind alle in ner höheren leistungsklasse. ...

KraetziChriZ
2010-04-23, 18:24:12
I[;7988563']nee. intels prozzis sind alle in ner höheren leistungsklasse. ...

Natürlich. Aber es ist Leistung die Apple in ihren Notebooks vielleicht garnicht braucht oder haben möchte, zugunsten der Akkulaufzeit z. B.

Das spielt doch überhaupt keine Rolle.

Aber Hallo! Wenn Intel etwas vergleichbares hätte würde Apple wohl kaum ARM CPUs in 50% ihrer verkauften Geräte verbauen :freak:

ARM hat auch keine Desktop-CPU im Angebot. Beide bedienen komplett unterschiedliche Märkte.
Das hat mit dem Befehlssatz aber nur beiläufig etwas zu tun.

Wie wohl der Nachfolger vom A4 mit 1,2Ghz und nem Cortex A9 DualCore performt im gegensatz zu der 1,8Ghz Intel CPU im MacBook Air?
Wie viel Strom würde man damit sparen? ;)

Unter dem Gesichtspunkt ist ARM natürlich sehr interessant für Apple ;)

Gruß,
Chris

Tiamat
2010-04-23, 18:25:39
@Tiamat: Du liegst aber gewaltig daneben.
Damit ein ARM zu z.B. einem Nehalm konkurrenzfähig wäre, musst du den im Takt derart aufpusten, dass der vermutlich auch nicht mehr weniger verbrät (vielleicht sogar mehr).
Das ganze ARM Design ist doch anders ausgelegt, z.B. kann ein ARM AFAIK viel weniger Instruktionen parallel ausführen. Das muss dann alles mit dem Takt ausgeglichen werden.

Auch wenn dir das absurd erscheint, das ist gar nicht das Ziel. Das Ziel ist einfach ne effiziente Architektur in Petto zu haben, die bestmögliche Performance bei gleichzeitig minimalstem Stromverbrauch ermöglicht.

Mit unterschiedlicher Ausprägung mein ich z.b das hier:

http://www.zdnet.de/news/wirtschaft_investition_hardware_arm_kuendigt_mehrkern_prozessoren_mit_bis_zu_2_g hz_an_story-39001021-41502828-1.htm

_DrillSarge]I[
2010-04-23, 18:33:27
Wie wohl der Nachfolger vom A4 mit 1,2Ghz und nem Cortex A9 DualCore performt im gegensatz zu der 1,8Ghz Intel CPU im MacBook Air?
Wie viel Strom würde man damit sparen?
was ist da verbaut?
ein bspw. Core 2 Duo SU9600 hat ne tdp von 10W und dürfte einen cortex xyz ziemlich verhauen.

keine ahnung, was du dir vorstellst, aber etliche leute machen mit notebooks (von mir aus auch mb air) weit aus mehr als surfen+videos gucken und da siehts mit aktuellen arm-prozessoren sehr finster aus.

KraetziChriZ
2010-04-23, 18:39:11
I[;7988596']was ist da verbaut?
ein bspw. Core 2 Duo SU9600 hat ne tdp von 10W und dürfte einen cortex xyz ziemlich verhauen.

keine ahnung, was du dir vorstellst, aber etliche leute machen mit notebooks (von mir aus auch mb air) weit aus mehr als surfen+videos gucken und da siehts mit aktuellen arm-prozessoren sehr finster aus.

1.86 GHz (SL9400) oder 2.13 GHz (SL9600) - je nach dem was du haben willst.

Dazu kommt die Nvidia 9400M.

ein ARM + PowerVR Series6 sollte da doch ein deutlicher Stromvorteil sein, oder nicht?

Gruß,
Chris

Gast
2010-04-23, 18:47:00
Ich hätte es nicht für möglich gehalten, aber es gibt tatsächlich auch ARM-Fanboys. :freak: 3

Tiamat
2010-04-23, 18:55:53
I[;7988596']was ist da verbaut?
ein bspw. Core 2 Duo SU9600 hat ne tdp von 10W und dürfte einen cortex xyz ziemlich verhauen.

keine ahnung, was du dir vorstellst, aber etliche leute machen mit notebooks (von mir aus auch mb air) weit aus mehr als surfen+videos gucken und da siehts mit aktuellen arm-prozessoren sehr finster aus.

Der SU ist n sehr gutes Beispiel. Das ist vermutlich was die max Performance bei minimalem Verbrauch angeht, so ziemlich das beste, was man bei x86 CPUs beziehen kann. Das Problem dabei ist, dass dieser bei Intel bei über 200$ gelistet ist. Das ist viel zu teuer.

san.salvador
2010-04-23, 18:59:10
Der SU ist n sehr gutes Beispiel. Das ist vermutlich was die max Performance bei minimalem Verbrauch angeht, so ziemlich das beste, was man bei x86 CPUs beziehen kann. Das Problem dabei ist, dass dieser bei Intel bei über 200$ gelistet ist. Das ist viel zu teuer.
Wie kann er viel zu teuer sein, wenn es absolut keine Konkurrenz gibt?

Tiamat
2010-04-23, 19:04:58
Ja klar bei x86 schon. Das macht die Situation aber auch nicht besser, wenn man mit dieser Basis irgendwelche Geräte auf den Markt bringen will, viel zu unwirtschaftlich allein über 200$ für die CPU rauszufeuern.
Kann mir nicht vorstellen, dass es für n QuadCore a9 n Problem ist n SU abzuhängen ;)

Gast
2010-04-23, 19:14:07
Ja klar bei x86 schon. Das macht die Situation aber auch nicht besser, wenn man mit dieser Basis irgendwelche Geräte auf den Markt bringen will, viel zu unwirtschaftlich allein über 200$ für die CPU rauszufeuern.
Kann mir nicht vorstellen, dass es für n QuadCore a9 n Problem ist n SU abzuhängen ;)

Wie soll die Anzahl der Kerne die relative Leistung gegenüber des C2D steigern?

IVN
2010-04-23, 19:21:13
Ja klar bei x86 schon. Das macht die Situation aber auch nicht besser, wenn man mit dieser Basis irgendwelche Geräte auf den Markt bringen will, viel zu unwirtschaftlich allein über 200$ für die CPU rauszufeuern.
Kann mir nicht vorstellen, dass es für n QuadCore a9 n Problem ist n SU abzuhängen ;)
Vll kann auch ein Fahrrad mit 4 Rädern nen Golf GTI abhängen? :freak:

Die Vorstellungen der ARM-Fraktion sind mehr als absurd. Da soll nen CPU-Winzling wie a9 nen Core2 outperformen. Alleine die Recheneinheiten des C2 sind wohl transistorintensiver als der gesammte a9. Aber wie es aussieht, gehen einige davon aus, das ARM mit mehr als nur mit Wasser kocht.

KraetziChriZ
2010-04-23, 19:28:53
Hier denkt jemand das selbe wie ich:

http://i.zdnet.com/blogs/appleinject2.jpg

Zitat:

While the 1Ghz A4 isn’t powerful enough to run a Mac today, I believe that the next logical step is for Apple to continue to evolve the silicon into more and more cores and at higher clock speeds. With iPad 2, we might very well see 2 cores and certainly a higher clock speed.

The next step would be to move to 4 cores and larger amounts of cache, which may present enough computing power to form the basis of the next generation Macbooks or iMacs.

Link (http://blogs.zdnet.com/perlow/?p=12323)

Gruß,
Chris

san.salvador
2010-04-23, 19:35:29
Super, dann ist das Ding so schnell wie ein x86 - und hat den selben Preis bei selbem Verbrauch.
Sinn?

KraetziChriZ
2010-04-23, 19:36:43
Hast du den Artikel zuende gelesen?

Given the fact that there are now more applications for the iPhone/iPad ecosystem than there are for the Mac, and that the App Store software distribution is completely controlled by Apple, it makes perfect sense that Apple would move the Mac to a 100 percent proprietary platform, now that it is seeded by many developers and many applications.

Gruß,
Chris

san.salvador
2010-04-23, 19:40:34
Das könnte man aber auch einfacher haben, im Einkasteln, Ver-DRM-en und Wegsperren ist Apple Weltmeister. Die hier vorgeschlagene Strategie scheint mir für diesen Zweck absurd.

Coda
2010-04-23, 19:54:30
Wie wohl der Nachfolger vom A4 mit 1,2Ghz und nem Cortex A9 DualCore performt im gegensatz zu der 1,8Ghz Intel CPU im MacBook Air?
Wie viel Strom würde man damit sparen? ;)

Unter dem Gesichtspunkt ist ARM natürlich sehr interessant für Apple ;)
Der ARM-Instructionset sorgt nicht auf einmal für deutlich weniger Stromverbrauch wenn die CPUs komplex genug werden für den Desktop.

Das ist eine reine Illusion und wird es auch immer bleiben. Bei einem Design muss man immer abwägen zwischen Performance und Performance/Watt. Die ARM opfern also zwangsläufig Leistung zwecks weniger Stromverbrauch.

Und abseits vom reinen Core gibt es dann absolut keine Unterschiede mehr und es hat auch nichts mehr mit ARM zu tun was auf dem SOC hockt.

Tiamat
2010-04-23, 20:02:17
Wie soll die Anzahl der Kerne die relative Leistung gegenüber des C2D steigern?

Sind wir jetzt wieder im Jahr 1998, wo´s nur SingleCores auf dem Markt gibt?
Wozu verbaut man denn Multicores ? Doch deswegen um die Gesamtleistung des Systems zu steigern.

Und meine Spekulation war doch ziemlich human. Bei den angekündigten 2Ghz mit 4 Kernen sollte es doch für den A9 möglich sein, n DualCore mit 1.3Ghz ohne HT bei Anwendungen, die für Multicores implementiert wurden, in die Tasche zu stecken.

Das wären 50% mehr Takt und 2 Kerne plus. Gehen wir von mir aus davon aus, dass der SU ne doppelt so hohe IPC hat, dann müsste es bei für Multicore implementierten Anwendungen trotzdem reichen.

Der springende Punkt ist der, dass Intel beim SU auf Kerne und auf einen Mordstakt ( auch Features wie HT )=verzichten muss, um das zu ermöglichen. Der SU ist auch kein SoC.
Und ich kann mich noch an Tests erinnern, wo in manchen Benchmarks der Atom 330 gegenüber dem SU gar nicht so schlecht abgeschnitten hat.

Coda
2010-04-23, 20:05:36
Es gibt ja auch durch die Bahn so viele Anwendungen die Multicores ausnutzen.

Vor allem die Reaktivität der GUI wird davon nicht profitieren. Und das ist nunmal kein zu vernachlässigender Faktor.

KraetziChriZ
2010-04-23, 20:11:32
Es gibt ja auch durch die Bahn so viele Anwendungen die Multicores ausnutzen.

Vor allem die Reaktivität der GUI wird davon nicht profitieren. Und das ist nunmal kein zu vernachlässigender Faktor.

Unter Windows vielleicht. Unter MacOS sieht das definitiv anders aus.

Coda
2010-04-23, 20:14:02
Unter Windows vielleicht. Unter MacOS sieht das definitiv anders aus.
Nein tut es nicht. Buttons zu zeichnen, Scrolling usw. werden Single-Threaded gemacht. Es lohnt sich einfach nicht solche Dinge zu parallelisieren bzw. geht nicht.

Z.B. ist auch Webpage-Rendering komplett Single-Threaded. Solche Sachen kann man nur sehr schwer parallelisieren.

san.salvador
2010-04-23, 20:15:46
Nein tut es nicht. Buttons zu zeichnen, Scrolling usw. sind alles entweder GPU-Dinge oder sie werden Single-Threaded gemacht. Es lohnt sich einfach nicht solche Dinge zu parallelisieren
Ich glaub er hört nicht auf, bevor du ihm irgendwo recht gegeben hast.

KraetziChriZ
2010-04-23, 20:20:10
Nein tut es nicht. Buttons zu zeichnen, Scrolling usw. werden Single-Threaded gemacht. Es lohnt sich einfach nicht solche Dinge zu parallelisieren bzw. geht nicht.

Z.B. ist auch Webpage-Rendering komplett Single-Threaded. Solche Sachen kann man nur sehr schwer parallelisieren.

Ähhh. Ich wüsste nicht das wenn auf Core1 100% Last sind die GUI langsamer wird weil das Buttons zeichnen 5% vom 2 Core frisst...

Jedes Tab in Safari, Chrome usw. ist ein eigener Prozess. Natürlich ist 1. Webseite rendern nicht Multithreaded, aber da ist mein iPad ja schon schneller mit 1Ghz als mein MacBook :freak:

Gruß,
Chris

Coda
2010-04-23, 20:21:12
Jedes Tab in Safari, Chrome usw. ist ein eigener Prozess. Natürlich ist 1. Webseite rendern nicht Multithreaded, aber da ist mein iPad ja schon schneller mit 1Ghz als mein MacBook :freak:
Weil man ja auch den ganzen Tag gleichzeitig mehreren Seiten beim Laden zuschaut und man daher eine viel bessere gefühlte Reaktivität hat :facepalm:

Und nein, das macht bisher nur Chrome so mit mehrere Prozessen. Das kommt bei Safari erst mit WebKit 2.

GUI/Layout ist und wird immer eine Single-Thread-Angelegenheit bleiben, genauso Dinge wie Word-Processing usw. Da hilft Cores draufwerfen einfach nicht.

KraetziChriZ
2010-04-23, 20:26:41
Weil man ja auch den ganzen Tag gleichzeitig mehreren Seiten beim Laden zuschaut und man daher eine viel bessere gefühlte Reaktivität hat :facepalm:

... also reicht ein ARM in jedem Fall zum surfen aus? ;)

GUI/Layout ist und wird immer eine Single-Thread-Angelegenheit bleiben, genauso Dinge wie Word-Processing usw. Da hilft Cores draufwerfen einfach nicht.

Wenn 1 Core für GUI verwendet wird, 1 Core für den Word Processor und 1 Core für den Browser, wo ist das Performanceproblem?

Das iPad ist (ohne Multitasking, mit 1 App) verdammt snappy...

Coda
2010-04-23, 20:29:39
Wenn 1 Core für GUI verwendet wird, 1 Core für den Word Processor und 1 Core für den Browser, wo ist das Performanceproblem?
Weil das nicht parallel läuft sondern man gezielt auf eine Aktion warten muss?

Das iPad ist (ohne Multitasking, mit 1 App) verdammt snappy...
Das bezweifelt ja auch keiner. Nur wird dort auch einiges auf die GPU ausgelagert.

Ich weiß echt nicht wieso ich noch mit dir rumdiskutier. Es ist alles gesagt was es zu sagen gibt. ARM bietet einen Vorteil im Zusammenspiel mit dem geringen Stromverbrauch bei gleichzeitig weniger Leistung und der kompensierenden Infrastruktur, aber das lässt sich nicht so ohne weiteres auf ein komplettes Desktop-OS übertragen.

IVN
2010-04-23, 20:29:49
... also reicht ein ARM in jedem Fall zum surfen aus? ;)



Wenn 1 Core für GUI verwendet wird, 1 Core für den Word Processor und 1 Core für den Browser, wo ist das Performanceproblem?

Das iPad ist (ohne Multitasking, mit 1 App) verdammt snappy...
Weil jede Applikation dumbed-down ist. Und wo es nichts zu rechnen gibt, muss die Perf zwangsläufig gut sein.

Gast
2010-04-23, 20:33:42
Sind wir jetzt wieder im Jahr 1998, wo´s nur SingleCores auf dem Markt gibt?
Wozu verbaut man denn Multicores ? Doch deswegen um die Gesamtleistung des Systems zu steigern.

Und meine Spekulation war doch ziemlich human. Bei den angekündigten 2Ghz mit 4 Kernen sollte es doch für den A9 möglich sein, n DualCore mit 1.3Ghz ohne HT bei Anwendungen, die für Multicores implementiert wurden, in die Tasche zu stecken.

Das wären 50% mehr Takt und 2 Kerne plus. Gehen wir von mir aus davon aus, dass der SU ne doppelt so hohe IPC hat, dann müsste es bei für Multicore implementierten Anwendungen trotzdem reichen.

Der springende Punkt ist der, dass Intel beim SU auf Kerne und auf einen Mordstakt ( auch Features wie HT )=verzichten muss, um das zu ermöglichen. Der SU ist auch kein SoC.
Und ich kann mich noch an Tests erinnern, wo in manchen Benchmarks der Atom 330 gegenüber dem SU gar nicht so schlecht abgeschnitten hat.


Das ist ja alles schön und gut, aber habe ich Intels Rückzug aus dem CPU-Geschäft irgendwie verpasst? Mein Core 2 Duo T5500 ist langsamer, niedriger getaktet und verbraucht mehr Strom als der SU im Air. Er ist ja auch älter. Warum sollte es also Ende des Jahres keinen SU auf i5 oder i7-Basis geben, der ebenfalls schneller und effizienter ist? Die bei ARM sind nicht die einzigen, die weiterentwickeln, weißt du?

Und warum vergleichst du nicht die schnellste, derzeit verfügbare CPU aus der SU-Reihe mit dem 2GHz A9, der irgendwann mal kommt? Und ja, Mehrkern-CPUs dienen kurz Leistungssteigerung, die Frage ist hier aber wieso das der Fall ist. Es ist doch in erster Linie das OS, welches davon profitiert, denn Anwendungen, die auf mehrere Kerne ausgelegt sind, sind immer noch seltener, als man glaubt und man kann schließlich auch nicht alles parallelisieren. Sprich, die Leistung steigt nicht linear an. Ich komm mir wieder vor wie 2002 und 2007.

Und Coda, deine Aussage stimmt so auch nicht ganz. Der Internet Explorer 8 verwaltet seine Tabs ebenfalls pro Thread.

Coda
2010-04-23, 20:57:42
Und Coda, deine Aussage stimmt so auch nicht ganz. Der Internet Explorer 8 verwaltet seine Tabs ebenfalls pro Thread.
Prozess. Ja, hab ich verdrängt ;)

Gast
2010-04-23, 21:01:35
Prozess. Ja, hab ich verdrängt ;)

Prozess, richtig. Ja, den IE8 kann man schnell verdrängen. :D

Tiamat
2010-04-23, 21:12:06
Im Macbook Air steckt kein SU, sondern ein SL.
Zur Zeit liegt der schnellste SU bei 1.4Ghz, soweit ich mich erinnern kann
(kann sein, dass ich was verpasst habe).

Desweiteren nimmt die Parallelisierung auch zunehmend zu. OpenMP sind zum Beispiel Ansätze, die das ganze ziemlich unaufwendig realisieren können. Momentan ist das jedoch auf Schleifen limitiert. D.h um die Anwendung noch mehr zu parallelisieren, kommt man um Threadprogrammierung nicht herum.
Es sei denn die Compilerhersteller entwerfen hier was, was einem richtig Arbeit abnimmt.

Auch nicht zu verachten. Die Unterstützung für die Armv7 Architektur wurde im GCC erst in Version 4.3 realisiert. Bis die Vector FPU und Neon integriert wurde, hate es bis Version 4.4x gedauert.
Das heißt da ist definitiv noch ziemlich Optimierungspotenzial vorhanden.

Coda
2010-04-23, 21:40:20
Desweiteren nimmt die Parallelisierung auch zunehmend zu. OpenMP sind zum Beispiel Ansätze, die das ganze ziemlich unaufwendig realisieren können. Momentan ist das jedoch auf Schleifen limitiert. D.h um die Anwendung noch mehr zu parallelisieren, kommt man um Threadprogrammierung nicht herum.
OpenMP ist nett, aber bringt in der Praxis durch Amdahl's Law nur in sehr speziellen Fällen etwas. Im wesentlichen muss man komplett disjunkte Probleme haben die man auf die Threads verteilen kann.

Es sei denn die Compilerhersteller entwerfen hier was, was einem richtig Arbeit abnimmt.
Ordentliche automatische Parallelisierung wird es sehr wahrscheinlich niemals geben. Der Compiler sucht dabei eigentlich nur nach Dingen die auch per OpenMP-Annotation umgesetzt werden könnten.

Funktionale Sprachen könnte dabei allerdings hilfreich sein, weil Nebeneffektfreiheit von Funktionen oft garantiert werden kann.

Tiamat
2010-04-23, 21:59:59
Ich kenn das Amdahl´sche Gesetz. Und das man allein durch die Schleifenparallelisierung bereits nicht geringe Performancegewinne ereichen kann, hätte man vor n paar Jahren auch nicht gedacht.
Warum?
Wenn irgendwo im Thread a ne Schleife abläuft, in dem der Thread gerade Berechnungen jeglicher Art durchführt und im Thread b Berechnung andere Berechnungen stattfinden und bei nirgendswo synchronisiert werden muss, klar dann isses gänzlich parallelisierbar. Sobald aber meineswegen im Thread c synchronisiert werden muss, ist das ganze nur bedingt parallelisierbar, da es ja sein kann, dass man zunächst auf die Ergebnisse von Thread a und b erstmal warten muss. Trotzdem tritt der Effekt ein, dass die Ergebnisse im synchroniserten Bereich dank Parallelisierung schneller vorhanden sind, als dies bei einer gänzlichen SingleThread Anwendung der Fall wäre.

Aber da erzähl ich ja nix neues.
Mal anders gefragt, welche ernstzunehmende Applikation wurde heute nicht für mehrere Kerne implementiert? Software, die richtig Heu kostet wie Photoshop, 3dsMax sind es auf jeden Fall.

Gast
2010-04-23, 22:06:13
Mal anders gefragt, welche ernstzunehmende Applikation wurde heute nicht für mehrere Kerne implementiert? Software, die richtig Heu kostet wie Photoshop, 3dsMax sind es auf jeden Fall.

Aber wie sieht es dann in der Zukunft aus? Ein Cortex A10 mit 8 Kernen? Und dann? Wie soll die Leistungssteigerung dann erfolgen? Es lässt sich ja eben nicht alles beliebig oft parallelisieren.

Und danke übrigens für die Korrektur mit der SU und SL-CPU. Ich hatte die Serien verwechselt, my bad. :)

(del)
2010-04-23, 22:25:12
Wie kann er viel zu teuer sein, wenn es absolut keine Konkurrenz gibt?Keine Panik. Gegen Kaufsüchtige gibt es bei AppleStores einen Schutz.
http://www.protocolsnow.com/2010/04/17/how-i-went-from-apple-store-newbie-to-lifetime-ban-in-one-week/

Jetzt müßte nur noch Google die Ridley Scott Associates auch mal mit einem Werbespot beauftragen...

Tiamat
2010-04-23, 23:02:50
Aber wie sieht es dann in der Zukunft aus? Ein Cortex A10 mit 8 Kernen? Und dann? Wie soll die Leistungssteigerung dann erfolgen? Es lässt sich ja eben nicht alles beliebig oft parallelisieren.

Und danke übrigens für die Korrektur mit der SU und SL-CPU. Ich hatte die Serien verwechselt, my bad. :)

Ja klar, da werden stets immer mehr Kerne verbaut und im Vergleich zu den Vorgängern wird man sicher stets n paar Prozent rausquetschen können. Irgendwann ist sicher auch Arm v8 und 64 bit ein Thema. Dabei wird aber stets der minimale Stromverbrauch beachtet.

Aber was die Frage angeht, ob jedes x beliebige Problem beliebig oft parallelisierbar ist, behaupte ich, dass die Frage noch nicht beantwortet ist.
Klar intuitiv denkt man, dem ist nicht so.
Das klingt aber verdammt stark nach theoretischer Informatik. Dort hab ich ehrlich gesagt schon ganz andere verrückte Beweise gehört, um zu glauben, dass das Problem jetzt schon beantwortet sein soll
Und selbst wenn man beweisen kann, dass dem nicht so ist, hat vielleicht jemand in x Jahren das so kategorisiert, dass es für n neues Programmier Paradigma sorgt.
Die Objektorientierung hat mittlerweile auch schon etliche Jahre auf dem Buckel.

Coda
2010-04-23, 23:41:54
Aber was die Frage angeht, ob jedes x beliebige Problem beliebig oft parallelisierbar ist, behaupte ich, dass die Frage noch nicht beantwortet ist.
Was gibt's da zu beantworten? Man macht einen Graphen über alle Operationen und deren Eingaben, dann weißt du exakt welcher Codepfad parallelisierbar ist.

Glaub mir, da wurde schon zur Genüge viel geforscht.

LadyWhirlwind
2010-04-23, 23:42:03
Ich kenne nen Informatikprofessor der an der ETH Zürich arbeitet, der sagt, prozedurale Programmierung wäre wieder stark am kommen. Ob er recht hat, kann ich nicht beurteilen, aber er beschäftigt sich schon länger mit der Programmierung als viele von hier Jahre auf dem Buckel haben...

Naja mal sehen was aus ARM und Apple wird.

Gast
2010-04-24, 02:28:59
Was wie du erkannt hast genau der gleiche Bullshit ist. Deine Kiste ist nur ein Terminal. Sie kann aus heutiger Sicht garnichts. Alles was du machen kannst ist nur das was dir die Cloud anbietet. Oder, erlaubt.Freuen wir uns auf die erste gehackte Cloud.
http://searchsecurity.techtarget.com/video/0,297151,sid14_gci1508484,00.html

Ailuros
2010-04-24, 07:54:16
1.86 GHz (SL9400) oder 2.13 GHz (SL9600) - je nach dem was du haben willst.

Dazu kommt die Nvidia 9400M.

ein ARM + PowerVR Series6 sollte da doch ein deutlicher Stromvorteil sein, oder nicht?

Gruß,
Chris

Was fuer ein ARM und wofuer genau steht bei Dir PowerVR Series6 und auch noch wieviel davon?

Theoretisch koennte man sogar heute an eine CortexA9 + SGX543 4MP denken unter 45LP. Aber so einen SoC zu entwickeln kostet auch verdammt viel Resourcen.

Uebrigens nebenbei benutzt kein iPhone, iTouch, iPad die vertex shader der GPU Kerne bis heute. Im Zweifel fehlt unter OGL_ES die GL_IMG_vertex_program Extension. Das soll jetzt nicht heissen dass das iPhone3GS eines der schnellsten smartphones in 3D momentan ist, aber die Unterstuetzung koennte noch besser sein. Vertex shading der CPU zu ueberlassen ist auch nicht unbedingt die beste Idee.

Tiamat
2010-04-24, 08:44:15
Was gibt's da zu beantworten? Man macht einen Graphen über alle Operationen und deren Eingaben, dann weißt du exakt welcher Codepfad parallelisierbar ist.

Glaub mir, da wurde schon zur Genüge viel geforscht.

Hm, ich weiß nicht. Es gibt ja grad in höheren Semestern so Spezialisierungskurse oder Wahlpflichtbereiche, die sich dem Thema widmen.
Und ich kann mir nicht vorstellen, dass der Inhalt der Vorlesung so klein ist, als man ihn mal in 2-3 Zeilen zusammenfassen kann.

Ich werd nächstes Semester ein Modul zu diesem Thema auf jeden Fall besuchen.

Gast
2010-04-24, 11:03:26
Bei dem immer wieder erwähnten Podcast wird genau das Problem erwähnt von Multicore und ARM. Es gibt keine Software dafür und so wie ich es verstanden habe bläht es auch den Code auf. Das gilt aber auch für 64Bit.

Ich denke Netbooks sind kein Problem aber bis ARM im Performancebereich ankommt (oder ob überhaupt) das wird noch länger dauern.

ARM ist toll im embedded Bereich aber genauso wie Intel nicht gut nach "unten" kommt erscheint mir das selbe für ARM nach "oben" zu gelten, wobei es breiter werdende Grauzone gibt...Netbooks halt ;-)

Tiamat
2010-04-24, 12:35:05
Und was ist mit dem Softwareangebot auf der Apple-plattform, dass in Cocoa und Objective-C entwickelt wurde. Das wird einfach für ne neue Target Architektur kompiliert und zack, da sind sie die Multicore optimierten Anwendungen. Wir sprechen hier immerhin von Apple und net von irgendnem Experiment mit 0 Softwarebestand.

Aber warten wir doch erstmal ab, ob es überhaupt so kommen wird.

(del)
2010-04-24, 12:45:19
Aber warten wir doch erstmal ab, ob es überhaupt so kommen wird.Bleibt nur zu hoffen, daß du den eigenen Tipp jetzt auch beherzigst.

Tiamat
2010-04-24, 12:49:02
Und ob, ich hatte nämlich grad vor, mich aus dem Thread zu verabschieden.
Es riecht mir hier zu arg nach angebranntem x86 ;D

Gast
2010-04-24, 13:28:57
Für mich riecht es hier nach Miliarden von Mips und Mflops ;-)

Coda
2010-04-24, 16:21:13
Hm, ich weiß nicht. Es gibt ja grad in höheren Semestern so Spezialisierungskurse oder Wahlpflichtbereiche, die sich dem Thema widmen.
Ich habe dir nur gesagt, dass man sehr wohl rausfinden kann was parallelisierbar wäre. Das ist kein ungelöstes Problem. Das ungelöste Problem ist das auch bei realen Programmen mit indirekten Speicherzugriffen usw. zu machen.

Zudem ist auch so gut wie immer sowieso eine Restrukturierung des Programmflusses und des Datenlayouts nötig um gut auf Multicore zu skalieren, und das kann der Compiler auf keinen Fall übernehmen.

=Floi=
2010-04-25, 07:04:35
die singlethreded leistung reicht doch fürs erste. die grundperformance ist schon hoch und wenn ein 2. core zur verfügung stünde, dann fände ich das besser.

Gast
2010-04-27, 23:13:28
Apple hat Intrinsity jetzt wohl wirklich gekauft: http://www.nytimes.com/2010/04/28/technology/28apple.html

TheGoD
2010-04-28, 01:08:15
Wie schnell und Snappy sowas sein kann sieht man deutlich am iPad.
1Ghz und 256MB Ram und schneller als jedes aktuelle Netbook beim surfen...
Ehm, Quelle?

Gast
2010-04-28, 23:58:26
Und meine Spekulation war doch ziemlich human. Bei den angekündigten 2Ghz mit 4 Kernen sollte es doch für den A9 möglich sein, n DualCore mit 1.3Ghz ohne HT bei Anwendungen, die für Multicores implementiert wurden, in die Tasche zu stecken.

Das wären 50% mehr Takt und 2 Kerne plus. Gehen wir von mir aus davon aus, dass der SU ne doppelt so hohe IPC hat, dann müsste es bei für Multicore implementierten Anwendungen trotzdem reichen.

Der springende Punkt ist der, dass Intel beim SU auf Kerne und auf einen Mordstakt ( auch Features wie HT )=verzichten muss, um das zu ermöglichen. Der SU ist auch kein SoC.
Und ich kann mich noch an Tests erinnern, wo in manchen Benchmarks der Atom 330 gegenüber dem SU gar nicht so schlecht abgeschnitten hat.


Das ist ja alles schön und gut, aber habe ich Intels Rückzug aus dem CPU-Geschäft irgendwie verpasst? Mein Core 2 Duo T5500 ist langsamer, niedriger getaktet und verbraucht mehr Strom als der SU im Air. Er ist ja auch älter. Warum sollte es also Ende des Jahres keinen SU auf i5 oder i7-Basis geben, der ebenfalls schneller und effizienter ist? Die bei ARM sind nicht die einzigen, die weiterentwickeln, weißt du?


I called it! :D
http://www.engadget.com/2010/04/28/intel-said-to-be-prepping-1-46ghz-core-i7-ulv-processor-for-this/

Core i7 ULV CPU mit 1,33 und 1,46GHz, 2 Kernen, dank HTT mit 4 Threads und Turbo Mode bis zu 2,4 bzw 2,53 GHz. Und das bei einer TDP von 18W. Ich sehe da keinen Verzicht auf Takt oder Features.

Da würde es mich mal interessieren, wie viel ein ARM auf vergleichbarem Leistungsniveau benötigen würde.

Eggcake
2010-04-29, 00:19:22
Ehm, Quelle?

Wohl garkeine. Oder er leidet unter derselben Wahrnehmungsstörung wie die Person welche behauptet hat, sein iPad lade Seiten schneller als ein Desktop i7.

http://www.abload.de/img/22420t1hk.png (http://www.abload.de/image.php?img=22420t1hk.png)
http://www.anandtech.com/show/3640/apples-ipad-the-anandtech-review/17

Schneller als ein Netbook my ass...aber hey, immerhin etwas schneller als ein Smartphone ;)

=Floi=
2010-04-29, 00:32:37
warum ist das ipad langsamer als das iphone?
ich dache der apple a4 basiert im grunde auf demcortex a8?

Deinorius
2010-04-29, 00:37:59
Guck dir das Diagramm noch mal genauer an.

Ailuros
2010-04-29, 09:01:05
Apple hat Intrinsity jetzt wohl wirklich gekauft: http://www.nytimes.com/2010/04/28/technology/28apple.html

Intrisity faengt aber nicht mit "A" an wie ARM oder AMD :mad:

ROFL :biggrin:

DR.ZEISSLER
2010-05-03, 20:48:44
Also wie wahrscheinlich ist es dass Apple aktuell noch Interesse an ARM haben könnte ?

PS: ARM ist doch die Truppe, die in den 80-90gern diese Archimedes Kisten (68000er?) auf den Markt gebracht hat. Ich fand die Dinger damals cool, aber leider wie Apple unerschwinglich.

Coda
2010-05-03, 21:31:50
Archimedes hatte ARM-Prozessoren, nicht 68k ;)

Sowohl die Architektur, das Reference Manual als auch die Firma heißen ARM.

DR.ZEISSLER
2010-05-03, 21:35:37
ok, klar, aber wie wahrscheinlich ist das mit apple ?

Coda
2010-05-03, 21:56:28
Interesse haben sie vielleicht, aber ich glaube kaum dass sie sie überhaupt kaufen dürften. Das würde mit Sicherheit kartellrechtliche Folgen haben.

Mal abgesehen davon, dass ARM wohl einer Übernahme nicht zustimmen würde.

Xmas
2010-05-03, 22:08:22
Uebrigens nebenbei benutzt kein iPhone, iTouch, iPad die vertex shader der GPU Kerne bis heute.
:confused:
Selbstverständlich werden sowohl Vertex Shader (OpenGL ES 2.0) als auch die Fixed-Function-Pipeline in ES1.1 von der GPU übernommen.

DR.ZEISSLER
2010-05-03, 22:10:19
es reicht schon, wenn apple über die börse % prozent kauft, dann ist ein pflichtangebot fällig.
wenn das deiner meinung nach zum einen unwahrscheinlich und zum anderen kartellrechtlich bedenklich ist, warum steigt der aktienkurs von ARM so stark ?

Coda
2010-05-03, 22:11:43
Was weiß ich. Apple wird ARM jedenfalls nicht kaufen, da kannst du Gift drauf nehmen.

DR.ZEISSLER
2010-05-03, 22:20:11
Ne Begründung hast Du zufällig auch ?

Coda
2010-05-03, 22:37:55
Du kannst nicht zufälligerweise lesen?

Erstens wäre das eine feindliche Übernahme (und andere würden alles daran setzen dass Apple sie NICHT kauft, u.A. gehören da auch Google, Samsung, TI und NVIDIA dazu) und zweitens ist das Kartellrechtlich schon nahezu ausgeschlossen. Apple kann nicht einfach den wichtigsten Zulieferer sämtlicher Konkurrenz auf dem Smartphone-Markt übernehmen.

DR.ZEISSLER
2010-05-03, 22:45:50
Feindliche Übernahmen sind doch die Tagesordnung.
Genau auf diesen Dreierkrieg spekuliere ich doch, wenn ich aktuell noch Scheine von ARM kaufe.

Ganon
2010-05-03, 22:57:07
Bleibt trotzdem noch Kartellrecht. D.h. auch wenn Apple ARM feindlich übernehmen würde, würde die Kartellbehörde kommen und ARM wieder ausgliedern... so geht es eben nicht. Denn das betrifft ja nicht nur Smartphones. Nintendo wäre auch nicht gerade erfreut über so etwas. Und Nintendo ist nicht gerade "ein kleiner Fisch".

Ailuros
2010-05-04, 07:19:03
:confused:
Selbstverständlich werden sowohl Vertex Shader (OpenGL ES 2.0) als auch die Fixed-Function-Pipeline in ES1.1 von der GPU übernommen.

Gut dass Du mich korrigierst. Aber mit welcher OGL_ES Extension?

Feindliche Übernahmen sind doch die Tagesordnung.

Ein Beispiel?

Genau auf diesen Dreierkrieg spekuliere ich doch, wenn ich aktuell noch Scheine von ARM kaufe.

ARM bleibt unabhaengig; deshalb wurde das Geruecht seit es auftauchte von nur sehr wenigen ernst genommen.

basti333
2010-05-04, 15:57:06
Bleibt trotzdem noch Kartellrecht. D.h. auch wenn Apple ARM feindlich übernehmen würde, würde die Kartellbehörde kommen und ARM wieder ausgliedern... so geht es eben nicht. Denn das betrifft ja nicht nur Smartphones. Nintendo wäre auch nicht gerade erfreut über so etwas. Und Nintendo ist nicht gerade "ein kleiner Fisch".


"Nintendo findet das nicht gut" und "Nintendo wird es dann schwerer haben" sind aber keine begründungen um so eine übernahme abzulehnen. Beide Unternehmen arbeiten in verschiedenen Bereichen und keines hat eine Marktbeherschende stellung, wie also sollte man so eine Ablehnung Begründen?

Xmas
2010-05-04, 17:54:51
Gut dass Du mich korrigierst. Aber mit welcher OGL_ES Extension?
Wieso Extension? Du kannst zwar keine VGP-Programme schreiben, aber ES1.1 Fixed Function und ES2.0 Vertex Shader (natürlich nur SGX) werden von der GPU übernommen. Das sind Core-Features.

DR.ZEISSLER
2010-05-04, 19:09:17
wenn da nix dran sein sollte, warum wurde arm von 1 auf 3 hochgekauft ?
ich denke da steht mehr dahinter.

Ganon
2010-05-04, 19:21:49
Beide Unternehmen arbeiten in verschiedenen Bereichen und keines hat eine Marktbeherschende stellung, wie also sollte man so eine Ablehnung Begründen?

Also iPhone und Nintendo DS konkurrieren schon... nicht offiziell, aber nicht umsonst wird in vielen Spieleseiten mittlerweile eine iPhone-Sparte eingerichtet.

DR.ZEISSLER
2010-05-04, 19:27:08
sowas löst man in dem man den zusammenschluß unter auflagen genehmigt.
apple muss sich dann verpflichten zumindest x jahre, vergleichbare bauteile
zu liefern und die forschung weiter zu betreiben.

im grunde bedeuted das für den abnehmer, dass er sich mittelfristig nach einem
anderen lieferanten umsehen muss.

ich sehe grundsätzlich auch kein problem bei apple schluckt arm.

basti333
2010-05-04, 19:30:18
Also iPhone und Nintendo DS konkurrieren schon... nicht offiziell, aber nicht umsonst wird in vielen Spieleseiten mittlerweile eine iPhone-Sparte eingerichtet.


Das Nintendo und Apple konkurrieren ist mir klar. Aber Apple und ARM konkurrieren nicht, das meinte ich ;)

Schließlich wäre genau das für die Kartellbehörden von interessere: Kauft Unternehmen A Unternehmen B nur auf, um einen Konkurrenten platt zu machen und ein Mono- oder Oligopol zu schaffen oder zu verstärken.

Ganon
2010-05-04, 21:15:23
Äh, wenn Apple ARM schluckt und allen Konkurrenten die technische Basis nimmt, dann machen sie sie damit platt ;)

_DrillSarge]I[
2010-05-04, 21:35:23
Äh, wenn Apple ARM schluckt und allen Konkurrenten die technische Basis nimmt, dann machen sie sie damit platt ;)
wer macht wen platt? :confused:

Ganon
2010-05-04, 21:51:56
Na so gut wie alle Geräte der Konkurrenz basieren auf ARM-Technologie. Jetzt kommt Apple und stellt die Zulieferung ein. Da kann die Konkurrenz erst mal 1-2 Jahre auf eine andere Technik umstellen (Hard und Software) und kann derweil nicht viel "neues" anbieten. Wenn das kein Fall für das Kartellamt ist ;)

_DrillSarge]I[
2010-05-04, 21:59:12
wenn, dann wird eher apple nachgeben. ist ja nun auch kein niemand die konkurrenz.

Ganon
2010-05-04, 22:08:24
Warum sollte Apple nachgeben? Sind doch nicht abhängig von der Konkurrenz. Und genau da diese Gefahr besteht würde ein Aufkauf sicher überhaupt nicht erlaubt werden.

Das wäre ungefähr so als wenn Apple jetzt AMD und Intel kaufen würde und keine CPUs zum freien Verkauf mehr anbietet ;)

Coda
2010-05-04, 22:50:07
Wieso Extension? Du kannst zwar keine VGP-Programme schreiben, aber ES1.1 Fixed Function und ES2.0 Vertex Shader (natürlich nur SGX) werden von der GPU übernommen. Das sind Core-Features.
Der MBX hat doch beim iPhone sowieso keine VGP. Nur eine VGP lite - also fixed function T&L.

DR.ZEISSLER
2010-05-04, 23:26:04
durchaus möglich dass mittelfristig apple und amd mergen.

bei rund 50 MRD USd in der Kriegskasse kann man schon den einen oder anderen aus der Portokasse schlucken,
ARM mit MK von rund 3 MRD ist dann wohl eher ein Witz.

Deinorius
2010-05-04, 23:31:04
Und wo liegt der Sinn dahinter? Seit wann ist Apple durch herausstechende Hardware so erfolgreich. Und ARM kostet doch ca. 6 Mrd.

Ailuros
2010-05-05, 07:26:31
durchaus möglich dass mittelfristig apple und amd mergen.

bei rund 50 MRD USd in der Kriegskasse kann man schon den einen oder anderen aus der Portokasse schlucken,
ARM mit MK von rund 3 MRD ist dann wohl eher ein Witz.

Weder ein ARM noch ein AMD Aufkauf/Merger wird leicht sein. Apple wuerde schneller mit anti-competitive practices zu tun haben in beiden Faellen als Du spucken kannst.

Im AMD Fall wird Intel als erste reagieren. Frag mal nach wer fuer Apple das engineering fuer notebooks bzw. desktops genau vornimmt. Zufaelligerweise Intel. Es mag zwar leicht sein auf Papier irgendwelche bunte Thesen zu kritzeln aber die eigentliche Realitaet ist um einiges komplizierter als viele von Euch vorstellen koennen. Nur weil ein oder zwei Analysten eine Bumsthese in die Luft gejagt haben heisst es gar nichts.

Apple sammelt IMHO Resourcen (PA Semi, engineers, Intrisity usw.) um ihre zukuenftige SoCs unabhaengiger entwickeln zu koennen. Die paar Kosten fuer ARM CPU IP und die dementsprechenden royalties sind so laecherlich klein, dass es dafuer nicht der Rede wert ist etliche Mrd $ zu verpulvern. Wenn es uebrigens stimmen sollte dass Apple einen der leading engineers der naechsten CPU Generation von ARM geschnappt hat und es auch der Grund ist warum sich die beiden in letzter Zeit gezankt haben, dann deutet es eigentlich in eine ganz andere Richtung.

Zwischen all den bunten Thesen dass der Apple A4 SoC angeblich einen dual Cortex A9, eine PowerPC CPU, Mali GPU oder weiss der Geier noch fuer Bloedsinn der auftauchte, ist es am Ende doch nur ein A8@1GHz und ein SGX535 wie manche von uns immer und immer wieder zu andeuten versuchten. Dabei wurde A4 vom genau gleichen team entwickelt wie der originale iPhone SoC und hat immer noch nichts mit PA Semi zu tun.

Gast
2010-05-05, 10:28:48
Dabei wurde A4 vom genau gleichen team entwickelt wie der originale iPhone SoC und hat immer noch nichts mit PA Semi zu tun.
Der A4 wurde wahrscheinlich zum Großteil von Intrinsity entwickelt.

Xmas
2010-05-05, 11:42:28
Der MBX hat doch beim iPhone sowieso keine VGP. Nur eine VGP lite - also fixed function T&L.
VGP Lite ist genauso programmierbar wie VGP. Die Unterschiede sind gering.

Coda
2010-05-05, 12:46:57
Also enthält Apple den Entwicklern GL_IMG_vertex_program völlig ohne Grund vor? Was soll das denn wieder?

Xmas
2010-05-05, 20:09:26
Also enthält Apple den Entwicklern GL_IMG_vertex_program völlig ohne Grund vor? Was soll das denn wieder?
Apple unterstützt auch keine Shader-Binaries in ES2.0. IMG_vertex_program benutzt ausschließlich Binaries, und mittlerweile wird IMG_vertex_programm auch von Imagination auf SGX nicht mehr unterstützt.