PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - nVidia Tegra-SoCs


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26

LovesuckZ
2011-06-02, 17:35:01
Welche genau?

Unterlasse es doch einfach in Threads zuspammen, wenn du nichts beizutragen hast.

Das Problem ist doch eher, was will man mit einem ARM-Netbook?
Selbst wenn das OS einigermaßen gut wäre, sind alle ARM-Dinger leistungstechnisch die Hölle. Da müssen wir noch gut 1 Jahr warten, bis es endlich mal bessere Hardware gibt.
Und X86 schläft nicht.
Schon für 300€ bekommt man schon diverse X86-Netbooks auf denen sogar einfaches Arbeiten möglich ist.

Das erste wirklich gute Netbook OS wird wohl Windows8 werden, falls die Kompatibilität einigermaßen gewährleistet wird(Stichwort: .NET).
mfg

Auch 2.2 hat schon vollkommen ausgereicht. Der Unterschied zu Windows ist, dass dank Touchsteuerung alles deutlich größer ist. Kein gefummel, kein nerviges 100% genaues klicken auf kleine Schaltflächen. Das man z.B. nicht zwei Windows neben haben kann, ist auf 10,1 bis 1280x800 nichtmal ein Nachteil, da man sowieso kein Platz hat. Das AC100 war da schon verdammt klasse. Und viele sind mit dem Asus Transformer in Verbindung des Docks sehr zufrieden.

/edit: Leistungsmäßig wird doch x86 überschätzt. Diese Low-End Atoms und Bobcats sind kaum schneller, verbrauchen aber unmengen an mehr Strom. Um auf gleichwertige Akkulaufzeit zu kommen, benötigt man annährend die dreifache Menge an Strom. Ein Asus Transformer läuft zwischen 15-20h bei weniger als 50 Watt Akkuleistung.

Botcruscher
2011-06-02, 17:41:59
Schon für 300€ bekommt man schon diverse X86-Netbooks auf denen sogar einfaches Arbeiten möglich ist.
Einfaches arbeiten? Die neue AMD-Gen ist einfach genial.

Das erste wirklich gute Netbook OS ...mit ARM Unterstützung...wird wohl Windows8 werden, falls die Kompatibilität einigermaßen gewährleistet wird(Stichwort: .NET).

Das Linuxdesaster bei den Netbooks hat doch gezeigt was man braucht: Softwareunterstützung. Wenn da kein Skype, kein Farmville und kein Youporn ordentlich drauf läuft, bleiben die Dinger wie Blei liegen.

LovesuckZ
2011-06-02, 17:45:33
Das Linuxdesaster bei den Netbooks hat doch gezeigt was man braucht: Softwareunterstützung. Wenn da kein Skype, kein Farmville und kein Youporn ordentlich drauf läuft, bleiben die Dinger wie Blei liegen.

Läuft doch alles mit Android.

fondness
2011-06-02, 17:51:34
Unterlasse es doch einfach in Threads zuspammen, wenn du nichts beizutragen hast.

Da es aktuell praktisch keine ARM Netbooks gibt war das eine vollkommen legitime Frage. Dein ständiges Fanboygesülze nur weil NV einen ARM-Chip verkauft ist derart durchschaubar, peinlich und ändert daran genau gar nichts.



/edit: Leistungsmäßig wird doch x86 überschätzt. Diese Low-End Atoms und Bobcats sind kaum schneller, verbrauchen aber unmengen an mehr Strom. Um auf gleichwertige Akkulaufzeit zu kommen, benötigt man annährend die dreifache Menge an Strom. Ein Asus Transformer läuft zwischen 15-20h bei weniger als 50 Watt Akkuleistung.

Na du musst es ja wissen. LOL

LovesuckZ
2011-06-02, 17:57:55
Da es aktuell praktisch keine ARM Netbooks gibt war das eine vollkommen legitime Frage. Dein ständiges Fanboygesülze nur weil NV einen ARM-Chip verkauft ist derart durchschaubar, peinlich und ändert daran genau gar nichts.

Ich kenne zwei, die man kaufen kann. Ich habe davon eins lange bessen. Und wenn es möglich wäre, hätte ich schön längst das "zweite".
Welche Erfahrungen hast du also mit ARM in einem Netbook gemacht? Ich möchte sie gerne hören.
Wenn du keine gemacht gast, gilt hier das selbe wie für Gipsel: Spammt woanders. Das ist ein Thread über nVidia, Tegra und ARM. Wenn euch alle drei Punkte nicht gelegen kommen, geht doch woanders hin. Eurer Spamm ist noch weniger Wert als das dauernde Niedermachen von Tegra durch Ailuros.


Na du musst es ja wissen. LOL

Jap - CPU-mäßig sind sie nicht viel besser. Natürlich kann mit den 18 Watt SoCs kommen, aber das wäre dann eher ein trauriger Vergleich.

fondness
2011-06-02, 18:02:09
Ich kenne zwei, die man kaufen kann. Ich habe davon eins lange bessen. Und wenn es möglich wäre, hätte ich schön längst das "zweite".
Welche Erfahrungen hast du also mit ARM in einem Netbook gemacht? Ich möchte sie gerne hören.
Wenn du keine gemacht gast, gilt hier das selbe wie für Gipsel: Spammt woanders. Das ist ein Thread über nVidia, Tegra und ARM. Wenn euch alle drei Punkte nicht gelegen kommen, geht doch woanders hin. Eurer Spamm ist noch weniger Wert als das dauernde Niedermachen von Tegra durch Ailuros.


Die Kritiken für das AC100 - von welchen du hier höchstwahrscheinlich spricht - waren vernichtend. Das du alles in den Himmel lobst wo NV drauf steht ist ja nichts neues mehr. Und tut mir Leid, bei deinem ständigen, extrem penetranten Fanboygesülze fühle ich mich einfach genötigt etwas zu schreiben.


Jap - CPU-mäßig sind sie nicht viel besser. Natürlich kann mit den 18 Watt SoCs kommen, aber das wäre dann eher ein trauriger Vergleich.

Du sprachst eben selbst von Bobcat, nicht ich. Und ja, das sind bei CPUs einfach Welten.

Hugo78
2011-06-02, 18:04:11
Die Kritiken für das AC100 - von welchen du hier höchstwahrscheinlich spricht - waren vernichtend.


Nö, allein das Handy OS wurde bemängelt.
Aber der Punkt ändert sich ja mit Win8.

Edit: zb.

Mit dem AC100 hat Toshiba ein großartiges Smartbook auf den Markt gebracht, wäre da nicht die unglückliche Wahl des Betriebssystems.
- http://www.hardware-infos.com/berichte.php?bericht=60&seite=8

fondness
2011-06-02, 18:06:52
Nö, allein das Handy OS wurde bemängelt.
Aber der Punkt ändert sich ja mit Win8.

Du meinst das was LovesuckZ oben als so super toll darstellt? Und tut mir Leid, aber das OS ist nun mal ein nicht ganz unwichtiger Bestandteil eines Netbooks. :ugly:

Hugo78
2011-06-02, 18:09:23
Du meinst das was LovesuckZ oben als so super toll darstellt? Und tut mir Leid, aber das OS ist nun mal ein nicht ganz unwichtiger Bestandteil eines Netbooks. :ugly:

Na hat er doch auch so geschrieben?!
Netbooks auf Basis von ARM sind einfach klasse. Jetzt noch mit einem vernünftigen OS und Low-End x86 kann sich verabschieden.

Bezog sich ja auf Win8^^
http://www.youtube.com/watch?v=1Pu3Jxr6wZI&feature=channel_video_title&t=7m40s

LovesuckZ
2011-06-02, 18:12:40
Die Kritiken für das AC100 - von welchen du hier höchstwahrscheinlich spricht - waren vernichtend. Das du alles in den Himmel lobst wo NV drauf steht ist ja nichts neues mehr. Und tut mir Leid, bei deinem ständigen, extrem penetranten Fanboygesülze fühle ich mich einfach genötigt etwas zu schreiben.

Du fühlst dich genötigt - wie auch Gipsel - einfach eurer Marketing uns hier mitzuteilen. Das ist der Unterschied: Ich habe Erfahrungen gemacht.

Achja, ich lobe das "AC100" in den Himmel, weil ich es selbst testen konnte. Und es vollkommen belanglos war, dass dort Tegra2 drin war. Es gab zur damaligen Zeit kein anderes ARM-Netbook.
Welche Ausrede hast du für deine Meinung?


Du sprachst eben selbst von Bobcat, nicht ich. Und ja, das sind bei CPUs einfach Welten.

Richtig. Und die sind überall auf dem gleichen Level. Ob du und dein Marketingfreund das wahr haben wollt, ist mir dann auch egal.

Nakai
2011-06-02, 18:13:29
Nö, allein das Handy OS wurde bemängelt.


Was eines von Toshiba extra für das AC100 "optimiertes" Android ist.

Die meisten vergessen immer wieder, dass SOCs Embedded Systeme sind. Und in diesem Bereich ist Software ein essentieller Bestandteil. Vor allem weil die Software das Produkt ausmacht.
Es hat seine Gründe, wieso Apple alles aus einem Haus liefert und Android eine Linux-Distribution ist. ;)


€:
@LZ:
Nix gegen deinen Kauf. Ein ARM-Netbook hat gewiss seinen Reiz. Das AC100 hatte ich noch nie in der Hand, dafür andere missratene ARM-Netbooks. Einige mit WindowsCE und andere auch mit einem Android.
IMO würde ich eher 50€(für ein Intel Netbook) mehr ausgeben und dann Arch Linux oder irgendeine andere interessante Distri auf das Ding knallen. Dann hat man keine Einschränkungen wie bei Android und hat einen vollwertigen PC.

LovesuckZ
2011-06-02, 18:23:42
Was eines von Toshiba extra für das AC100 "optimiertes" Android ist.

Es basierte trotzdem auf 2.1 am Anfang. Und somit fehlte vieles: Kein Flash, kein HTML5, schlechte Videobeschleunigung für HD etc. Die normalen Anwendungensmöglichkeiten empfand ich als gelungen: Navigationstasten, gutes Touchpad, gute Steuerung mit den Cursortasten(!), große Buttons...

Das Asus Transformer bzw. das Dock bekommt wesentlich bessere Kritiken und Usermeinungen, weil eine Vielzahl der (Software-)Probleme beseitigt wurden sind.


Die meisten vergessen immer wieder, dass SOCs Embedded Systeme sind. Und in diesem Bereich ist Software ein essentieller Bestandteil. Vor allem weil die Software das Produkt ausmacht.

Was für Software auf einem Netbook mit 10" brauchst du so?
Im Grunde bekommt man alles auch für iOS, Android und Konsorten: Browser, Office-Anwendungen, Videoplayer, Spiele.

Ich sehe keinen Vorteil aufgrund der besseren Kompartibilität, wenn vieles davon zu ressourcenfressen für die Low-End Systeme ist.


€:
@LZ:
Nix gegen deinen Kauf. Ein ARM-Netbook hat gewiss seinen Reiz. Das AC100 hatte ich noch nie in der Hand, dafür andere missratene ARM-Netbooks. Einige mit WindowsCE und andere auch mit einem Android.
IMO würde ich eher 50€(für ein Intel Netbook) mehr ausgeben und dann Arch Linux oder irgendeine andere interessante Distri auf das Ding knallen. Dann hat man keine Einschränkungen wie bei Android und hat einen vollwertigen PC.

Ich wollte es testen und bin dann billig über Ebay an eins rangekommen. Und es war z.B. klasse, wenn man statt 2kg+ für ein 13" Macbook nur noch 860kg mitnehmen muss. Und zum Ende meines Studiums habe ich kaum noch Aufgaben erledigen müssen, wofür ich x86 benötigte.

Gipsel
2011-06-02, 18:25:25
Du fühlst dich genötigt - wie auch Gipsel - einfach eurer Marketing uns hier mitzuteilen. Das ist der Unterschied: Ich habe Erfahrungen gemacht.Nein.
Du hast behauptet, ARM Netbooks seien klasse (in Gegenwartsform). Ich habe lediglich gefragt, auf welches Du Dich dabei beziehst (ein paar Gründe, warum es besser ist als andere, wären auch nicht schlecht, denn ich bin recht sicher, daß nicht alle mit Dir darin übereinstimmen werden).

Zum gefühlten 50sten Mal fordere ich Dich auf, Deine haltlosen Unterstellungen zu unterlassen. Sowas wird nicht ewig toleriert.

Wenn Du Dich einer Diskussion verweigerst und von Dir nur irgendwelche Anschuldigungen/Beleidgungen kommen, dann ist das wirklich als Spam bzw. als "Fanboygesülze" einzustufen und wird entsprechend behandelt. Also überdenke nochmal Deinen Postingstil.

Gipsel
2011-06-02, 18:30:12
Was für Software auf einem Netbook mit 10" brauchst du so?
Im Grunde bekommt man alles auch für iOS, Android und Konsorten: Browser, Office-Anwendungen, Videoplayer, Spiele.

Ich sehe keinen Vorteil aufgrund der besseren Kompartibilität, wenn vieles davon zu ressourcenfressen für die Low-End Systeme ist.
Reicht dafür nicht ein Smartphone oder ein Pad? Der Vorteil der Netbooks ist doch aus meiner Sicht das bequemere "produktive" Arbeiten. Insofern sehe ich 10" Netbooks sowieso eher kritisch, die sind mir zu fitzlig. Ich bin eher ein Fan der 12" Subnotebooks, also im Prinzip vollwertiger Notebooks in kleinem Formfaktor. Aber das ist vielleicht nur mein persönlicher Geschmack.

Nakai
2011-06-02, 18:35:03
Was für Software auf einem Netbook mit 10" brauchst du so?
Im Grunde bekommt man alles auch für iOS, Android und Konsorten: Browser, Office-Anwendungen, Videoplayer, Spiele.

Darum gehts nicht. Eingebettete Systeme sind für bestimmte Ziele entwickelt. Dementsprechend muss die Software nicht nur auf die Hardware angepasst werden, sondern auch die vorgeschriebenen Ziele unterstützen.
Grundsätzlich ist Android in angepasstes Linux.
Linux ist für Embedded Systeme ausgesprochen gut, da es nahezu vollständig konfigurierbar ist. Ergo Android läuft auf den verschiedensten SOC-Variationen.
Warum denkst du läuft Windows Phone 7 nur auf Snapdragons? Wieso liefert Apple alles aus einem Haus?

Smartphones sind eingebettete Systeme, Linux ist daher perfekt dafür.
Aber für Netbooks gibt es deutlich bessere Möglichkeiten, auch im ähnlichem Preisbereich.

LovesuckZ
2011-06-02, 18:51:47
Smartphones sind eingebettete Systeme, Linux ist daher perfekt dafür.
Aber für Netbooks gibt es deutlich bessere Möglichkeiten, auch im ähnlichem Preisbereich.

Und du meinst, dass die Leute so denken? Ich sehe doch eher, dass sie ein OS benötigen, dass ihnen ihre Bedürfnisse erfüllt. iOS, Android und Co. werden doch mit offenen Armen aufgenommen. Die Verkaufszahlen von Apple zeigen doch, dass man aus dem Stand mit einem Produkt auf dem Markt einen Eindruck hinterlassen kann, dessen Kategorie ewig schon vorhanden war, aber nie in dieser Art und Weise nutzbar. Und das iPad hat weder x86 noch Windows. Jetzt mit Tastatur(+Touchpad) und Maus und du hast ein "Netbook". Es also auch die Frage, ob Netbooks nicht durch Tablet + Dock ersetzt werden. Aber grundsätzlich denke ich, dass Netbooks mit ARM eher eine Zukunft haben als x86 mit dem deutlich höhreren Stromverbrauch.

Nein.
Du hast behauptet, ARM Netbooks seien klasse (in Gegenwartsform).

Richtig.

Ich habe lediglich gefragt, auf welches Du Dich dabei beziehst (ein paar Gründe, warum es besser ist als andere, wären auch nicht schlecht, denn ich bin recht sicher, daß nicht alle mit Dir darin übereinstimmen werden).

1. Du kannst Google benutzen. 2. Beziehe ich mich auf den SoC und die Vorteile für das Gerät. Der zweite Satz zeigt, dass man noch ein vernünftiges OS benötigt wird.

Statt also dauernd mit deinem Modtext auf andere zu zeigen, fange doch einfach endlich mal an vollständige Postings als Grundlage für die Anwort zu nehmen und nicht nur Teile, die dir gefallen. Denn es ist nicht meine Schuld, dass du solch ein Verhalten an den Tag legst. Also akzeptiere auch, dass ich dein Verhalten so bezeichne, wie ich es sehe. Das gefällt dir nicht? Es liegt an dir, dein Verhalten zu ändern.

Netbooks auf Basis von ARM sind einfach klasse. Jetzt noch mit einem vernünftigen OS und Low-End x86 kann sich verabschieden.

Zwei einfache Sätze. Und trotzdem muss man im Grund 66% rauskürzen, um auf irgendwas eine Antwort zu schreiben. Glückwunsch.

Nakai
2011-06-02, 19:02:26
Und du meinst, dass die Leute so denken? Ich sehe doch eher, dass sie ein OS benötigen, dass ihnen ihre Bedürfnisse erfüllt. iOS, Android und Co. werden doch mit offenen Armen aufgenommen. Die Verkaufszahlen von Apple zeigen doch, dass man aus dem Stand mit einem Produkt auf dem Markt einen Eindruck hinterlassen kann, dessen Kategorie ewig schon vorhanden war, aber nie in dieser Art und Weise nutzbar. Und das iPad hat weder x86 noch Windows. Jetzt mit Tastatur(+Touchpad) und Maus und du hast ein "Netbook". Es also auch die Frage, ob Netbooks nicht durch Tablet + Dock ersetzt werden. Aber grundsätzlich denke ich, dass Netbooks mit ARM eher eine Zukunft haben als x86 mit dem deutlich höhreren Stromverbrauch.


Die Frage ist doch eher, was will man machen? Wenns ernster und professioneller sein soll, sollte man sich von Android wegbewegen.
Vom technischen Niveau ist ein Cortex A9 <<< Intel Atom. X86 mag ein Stromverbraucher sein, aber es gibt noch deutlich.

So oder so, mit Android wird ARM niemals wirklich im Netbooksegment wildern. Außer der Käufer will unbedingt eine Tastatur haben, dann ist es eine Alternative. Doch mit einem billigen Intel Atom-Gespann lässt sich jetzt noch deutlich mehr machen.

Achja:
http://www.teltarif.de/ubuntu-linux-toshiba-ac100-unterhaltungselektronik/news/x12688.html

Viele Linux-Distributionen lassen sich ja auf viele andere Architekturen portieren. Aber hier trennt sich mal wieder der Spreu vom Weizen. Die Software muss angepasst werden, was manchmal ziemlich nervig werden kann.;)

€:
Falls ein Benutzer die Smartphonemöglichkeiten in einem Netbook haben will, dann kann ARM im unteren Segment gegen X86 punkten. Nur bietet X86 mittlerweile schon verdammt hohe Performance in diesem Bereich. X86 bietet also deutlich mehr Möglichkeiten, weil es mehr Leistung hat.

Gipsel
2011-06-02, 19:23:57
Es liegt an dir, dein Verhalten zu ändern.
Du hast eine PM. Beachte sie bitte!

LovesuckZ
2011-06-02, 19:34:55
Falls ein Benutzer die Smartphonemöglichkeiten in einem Netbook haben will, dann kann ARM im unteren Segment gegen X86 punkten. Nur bietet X86 mittlerweile schon verdammt hohe Performance in diesem Bereich. X86 bietet also deutlich mehr Möglichkeiten, weil es mehr Leistung hat.

"Mehr Leistung" ist doch ein Begriff, der nicht wirklich auf das Low-End von x86 angebracht werden kann. Kann dein Bobcat oder dein Atom 1080p beschwerefrei über x86 dekodieren? Solche Task werden wie in x86 auch bei ARM über andere Einheiten erledigt. x86 verkommt in diesen Geräten doch genauso nur zum "Gehirn", aber die eigentlich Aufgaben müssen dann andere Teile erledigen. Und dann stellt sich hier die Frage, wieviel "mehr Leistung" also der Kunde wirklich benötigt.

fondness
2011-06-02, 20:11:51
"Mehr Leistung" ist doch ein Begriff, der nicht wirklich auf das Low-End von x86 angebracht werden kann. Kann dein Bobcat oder dein Atom 1080p beschwerefrei über x86 dekodieren? Solche Task werden wie in x86 auch bei ARM über andere Einheiten erledigt. x86 verkommt in diesen Geräten doch genauso nur zum "Gehirn", aber die eigentlich Aufgaben müssen dann andere Teile erledigen. Und dann stellt sich hier die Frage, wieviel "mehr Leistung" also der Kunde wirklich benötigt.

Gerade in dem Leistungsbereich ist mehr Leistung eben sehr wohl noch relevant. Ob ich hingegen jetzt einen SandyBridge mit 3 oder 4Ghz habe dürfte für viele Anwendungen verschmerzbar sein. Und auch wenn du immer wieder versuchst es so darzustellen, wir sprechen hier nicht von einer Lappalie.

Ailuros
2011-06-02, 21:15:26
Also fuer mich persoenlich kann der gesamte wintel Mist aus dem embedded Markt bleiben. Hier geht es schon mit dem Unsinn los:

http://www.xbitlabs.com/news/mobile/display/20110531233411_Microsoft_Imposes_Hardware_Requirements_for_Tablet_Computers_with _Windows.html

Sollte die requirements von M$ zu hoch sein steigt der BOM der zukuenftigen moeglichen Tablets und dann wird es fuer mich immer noch irrsinniger ein tablet ueber ein notebook zu bevorzugen wenn das erste noch teurer werden sollte.

Hugo78
2011-06-02, 22:15:35
Was eines von Toshiba extra für das AC100 "optimiertes" Android ist.

Mag sein, dennoch war dieses OS der einzig echte Kritikpunkt beim AC100.
Was ja auch paar Leute dazu veranlasst hat, Ubuntu auf das Teil zuhacken.
http://www.youtube.com/watch?v=5GJsy7FEPak

Ansont war das Akku mit grade mal 25 Wh sehr winzig.
EeePC und Co. verbauen ja wenigstens ein 40 Wh Akku.
Aber gut, Toshiba wird sich gedacht haben, sie nutzen den Vorteil der sparsamen Hardware und bauen das AC100 so klein, leicht und auch so billig wie möglich, weils ja doch ein Randgruppenprodukt ist.

nomadhunter
2011-06-03, 02:15:56
Meiner Meinung nach ist Chrome OS das richtige Betriebssystem für ARM-Netbooks. Windows plus die übliche Windows-Software sind zu aufgeblasen und die üblichen Linux-Distributionen will keiner haben, weil es von Drittentwicklern weder richtige Software (wie auf Windows) noch einen App Store (wie für Android und wahrscheinlich auch bald für Chrome OS) gibt. Wieso die ersten Chromebooks trotzdem auf Atom setzen, versteh ich nicht.

Hugo78
2011-06-03, 08:29:32
Nur weil ein Microsoft OS in Zeiten von Terrabytefestplatten, ein paar mehr GB verschlingt, werden die Leute nicht auf ein Google OS umsteigen.
Win8 wird der gesamtheitliche PC Ansatz, der endlich her muss damit ARM aus der "Embedded" Ecke entkommt.

nomadhunter
2011-06-03, 11:39:06
Es ging nicht um Festplattenplatz. Wobei das auch ein Argument ist: der Verzicht auf eine Festplatte spart ein bisschen Geld (ca. 15€, wenn man stattdessen 16GB Flash nimmt), viel Platz und senkt noch mal den Energieverbrauch.

Worum es mir eigentlich geht, ist die CPU-Leistung. Von einem Windows-Gerät erwarten die Leute, dass sie Office und andere ressourcenhungrige Software ausführen können. Da wird ein Dual-Core-Atom schon knapp. Ein schlankes Betriebssystem wie Chrome OS kann dagegen auch ein Dual-Core-ARM flott ausführen. Und der ist nicht nur an sich viel viel billiger, sondern begnügt sich auch mit einem kleineren Akku (ohne deswegen an Laufzeit einzubüßen) und kleinerem Kühlsystem, was beides zusätzlich Geld und Platz spart. Das Mainboard für einen SoC dürfte auch deutlich einfacher sein als für Atom + Chipsatz. Zu guter letzt spart man mit Chrome OS statt Windows auch noch Lizenzkosten.

Was an Windows 8 "gesamtheitlich" sein soll, versteh ich nicht. Wenn etwas ganzheitlich umgesetzt ist, dann sind es Embedded-Geräte und die dazugehörigen Betriebssysteme. Bei Android schlägt sich niemand mit Treibern rum oder muss irgendwelche Fremdprogramme runterladen und konfigurieren, um so einfache Aufgaben wie das Aufnehmen und auf Facebook stellen eines Fotos zu erledigen. Ein Video läuft auch einfach und man muss nicht erst irgendwelche Codecs runterladen und womöglich noch darauf achten, dass der Codec auch GPU-beschleunigt läuft. Viren/Malware sind (bisher?) ebenfalls kein Thema. Auf Embedded-Betriebssystemen hat man nicht so viele Möglichkeiten wie auf Windows, dafür ist alles viel einfacher und problemloser. Der typische Netbook-Kunde, der einfach Internet und ein bisschen Multimedia will und für Office und Co. noch einen richtigen PC oder ein richtiges Notebook hat, ist mit Chrome OS besser bedient als mit Windows.

aylano
2011-06-03, 12:15:33
Worum es mir eigentlich geht, ist die CPU-Leistung. Von einem Windows-Gerät erwarten die Leute, dass sie Office und andere ressourcenhungrige Software ausführen können. Da wird ein Dual-Core-Atom schon knapp. Ein schlankes Betriebssystem wie Chrome OS kann dagegen auch ein Dual-Core-ARM flott ausführen. Und der ist nicht nur an sich viel viel billiger, sondern begnügt sich auch mit einem kleineren Akku (ohne deswegen an Laufzeit einzubüßen) und kleinerem Kühlsystem, was beides zusätzlich Geld und Platz spart. Das Mainboard für einen SoC dürfte auch deutlich einfacher sein als für Atom + Chipsatz. Zu guter letzt spart man mit Chrome OS statt Windows auch noch Lizenzkosten.

Der Grund, warum jetzige Netbooks nicht an die guten Werte (Preis, Akku) eines ARM-Netbook rankommt, ist weil es die Konkurrenz nicht real gibt und somit sich noch nicht daran optimieren muss.
(Opitmieren heißt höhere Kosten für OEM)

Daher sind die jetzigen Vergleiche etwas vorsichtig zu genießen.

Mein Netbook aus der 1.Gen (Ende 2008) hat mit 1,15 kg & 6-Stunden Akku @ Offic & Surf-über-HSPDA & Single-Atom-CPU die Werte eines durchschnittlichen Netbook von Heute, obwohl es bis heute erhebliche Verbesserungen gegeben hat.

Es ist heute schon viel drinnen, wenn man Netbooks gut Konfiguriert und eine ARM-Netbook-Konkurrenz würde einen gewissen Schub bringen.

Der 870g-AC100-Netbook ist genau jenes Gewicht (800-900g), was ich für einen Netbook schon vor 1-2 Jahren für einen guten zukünftigen Erfolg "fordere/forderte".

Die geringe Performance eines Dual-Core-Atom kann ich nicht nachvollziehen.
Eher limitiert bei OS & Office die Festplatte.
No na ned, ist das eine ARM-Netbook mit SSD schneller als ein durchschnittliches WIn-Atom-Netbook mit HDD.

Mit meinem Single-Core-Atom & 250mb/s-SSD kann ich die Programme sehr schnell starten.
Nicht umsonst wird der 32nm-Atom auch nur 2-Core haben, weil das für Netbooks mehr als ausreichend ist.

Und ob Win 8 @ ARM wirklich gleich so gut funktioniert, werden wir erst sehen müssen.
Andriod @ Tablet hat jetzt schon auch eine gefühlte Ewigkeit gedauert, die ja noch immer nicht 100% gelöst ist.

Das Problem des Atom-Netbook war IMO eher der Preis von fast 64$ für CPU und ??$ für Southbrige.

Mancko
2011-06-03, 12:26:47
Nur weil ein Microsoft OS in Zeiten von Terrabytefestplatten, ein paar mehr GB verschlingt, werden die Leute nicht auf ein Google OS umsteigen.
Win8 wird der gesamtheitliche PC Ansatz, der endlich her muss damit ARM aus der "Embedded" Ecke entkommt.

Von mir aus gern für PC's, Laptops und von mir aus Netbooks. Aber nicht für Tablets und andere Kleingeräte. Da bitte soll sowohl Windows wie auch x86 draußen bleiben.

stickedy
2011-06-03, 12:33:14
Das ist deine persönliche Meinung, aber der Markt funktioniert halt leider anders. Es wird verkauft, was die Masse möchte und die will eben größtenteils gewohntes...

YfOrU
2011-06-03, 12:34:16
Ein Video läuft auch einfach und man muss nicht erst irgendwelche Codecs runterladen und womöglich noch darauf achten, dass der Codec auch GPU-beschleunigt läuft. Viren/Malware sind (bisher?) ebenfalls kein Thema.

Dafür benötigt es unter Android des öfteren Software wie Rockplayer welche die Codecs gleich mitbringt (Hardware Beschleunigung ist dann noch mal ein Kapitel für sich). Das ist unter MS Windows eigentlich kaum anders. Siehe VLC Player oder von Geräteherstellern integrierte Zusatzsoftware (wie PowerDVD, Nero etc.).

Beim Thema Viren sprichst du eine der größten Schwachstellen des Android OS an. Dedizierte Sicherheitspatches sind praktisch nicht verfügbar und gleichzeitig beschränkt man sich bei Updates fast ausnahmslos auf aktualisierte OS Versionen. Diese Updates kommen bei der Mehrzahl der Geräte aber meist um Monate verzögert und fast immer ist nach nur zwei Updates sowieso Schluss mit dem Support. Dem entsprechend hat fast jedes Gerät übermäßig viele, bekannte Sicherheitslücken vorzuweisen und um so älter desto schlimmer.

In der heutigen IT Welt Produkte mit meist permanenter Internetanbindung und sensiblen Daten (Kontakte, Mails, Kreditkarte, Onlinebanking etc.) derart offen und ungeschützt betreiben zu müssen ist nicht akzeptabel. Hinzu gibt es über die Telefonrechnung einige Möglichkeiten die den früheren Dialern in nichts nachstehen.

http://www.pcworld.com/businesscenter/article/226193/android_malware_sees_explosive_growth.html

Damit kommt man zum nächsten Punkt. Das eigentlich dezentrale Market System. Apps lassen sich über verschiedenen Quellen beziehen und installieren. Hört sich erst einmal toll an, für den normalen Nutzer stellt das aber vor allem auch ein großes Gefahrenpotential da. Was unterscheidet einen vertrauenswürdigen Market Place von einem bösartigen, wer garantiert das Schadsoftware herausgefiltert wird (betrifft vor allem die kleineren, unabhängigen Markets) ? Je weniger Kontrolle über das System vorhanden ist desto größer ist nun mal die Angriffsfläche.

Dabei dann darauf zu verweisen das bei der Installation von Software immer auch nach der Zugriffsberechtigungen gefragt wird ist lächerlich. Das kann ein normaler Nutzer kaum nachvollziehen und zusätzlich lässt sich der Spaß teilweise sowieso umgehen.

Hugo78
2011-06-03, 13:26:01
Was an Windows 8 "gesamtheitlich" sein soll, versteh ich nicht.

Ok, der Ausdruck ist nicht unbedingt der Optimale.

Ich versuchs mal anders und behaupte:
Die Masse der Leute will sich nicht mit anderen Betriebsystemen auseinandersetzen
und solang auf Net/Notebook XY kein Windows möglich ist, kauft man lieber was anderes.

Ergo bietet erst ein ARMfähiges Windows, ARM die realistische Möglichkeit in den bisher rein von x86 belegten Markt zuwachen.

LovesuckZ
2011-06-03, 13:28:35
Ok, der Ausdruck ist nicht unbedingt der Optimale.

Ich versuchs mal anders und behaupte:
Die Masse der Leute will sich nicht mit anderen Betriebsystemen auseinandersetzen
und solang auf Net/Notebook XY kein Windows möglich ist, kauft man lieber was anderes.

Ergo bietet erst ein ARMfähiges Windows, ARM die realistische Möglichkeit in den bisher rein von x86 belegten Markt zuwachen.

Es gab bis heute auch keine Auswahl. Das Toshiba in Deutschland, ein paar in Asien. Ich bezweifel immer noch, dass die Leute unbedingt Windows benötigen. Der Tablet-Markt ist dafür ein starkes Indiz. Aber ohne Auswahl an Produkten, wird man am Ende immer bei Windows landen.

tombman
2011-06-03, 13:38:09
Kal El und LP2 :massa:
http://www.fudzilla.com/graphics/item/22951-nvidia-kal-el-quad-tegra-runs-lost-planet-2

fondness
2011-06-03, 14:10:06
Was weiß man eigentlich über die GPU in Kal-El? Nachdem vorher niemand geantwortet hat als ich nach dem Tech-Level fragte offenbar nicht viel. Wird da weiterhin dieselbe GPU verwendet wie bei Tegra2? Das 32-bit SI lässt wohl nicht auf Höhensprünge hoffen.

Coda
2011-06-03, 14:14:45
Kal-El ist wohl eine Unified Shader Architektur, also eher ein G80-Derivat.

hell_bird
2011-06-03, 14:17:30
Ist das Spekulation oder hast du eine Quelle? Ich habe dazu bisher nur widersprüchliches gefunden.

LovesuckZ
2011-06-03, 14:21:11
Naja - die Frage ist, was nVidia mit 12 Cores meint. ULP-Geforce in Tegra2 hat einen Vec4 PS und Vec4 VS, also 8 Cores. Entweder nVidia verdoppelt die PS auf 2x Vec4 und erhöht gleichzeitig die Taktrate, oder sie bauen eine komplett andere Architektur. Aber Unified Shader denke ich, kommen frühsten in 28nm.

Coda
2011-06-03, 14:25:25
Ich meine davon gelesen zu haben. Kann mich aber auch täuschen.

fondness
2011-06-03, 14:30:47
Und was hat die GPU in Tegra 2 für ein Tech-level? Wenn man vorher 8 Cores angegeben hat und jetzt 12, ohne das man von einer neuen GPU-Architektur spricht, dann scheinen 2x vec4 ALU plus vec4 VS Sinn zu ergeben.

Nakai
2011-06-03, 15:02:26
Und was hat die GPU in Tegra 2 für ein Tech-level? Wenn man vorher 8 Cores angegeben hat und jetzt 12, ohne das man von einer neuen GPU-Architektur spricht, dann scheinen 2x vec4 ALU plus vec4 VS Sinn zu ergeben.

Das solltest du Ail fragen.;)
Anscheinend steckt da etwas mehr dahinter, also viele denken.
Ansonsten ist Kal-El ein großes Fragezeichen.


mfg

LovesuckZ
2011-06-03, 15:07:05
Man könnte auch die Specs zu OpenGL ES 2.0 lesen und mit DX vergleichen.

Coda
2011-06-03, 15:36:57
DX9 halt. Das war doch Tegra 2 auch schon.

dildo4u
2011-06-03, 15:41:01
Kann man wohl nich direkt von den Open GL Specs ableiten siehe Power VR Series SGX545

DX10.1 und Open GL ES 2.0
http://www.imgtec.com/factsheets/powervr/POWERVR_SGX_IP_Core_Family_%5B2.2%5D.pdf

Denke die Specs wird Kal El auch haben.

Coda
2011-06-03, 15:44:24
Wie kommst du zu dem Schluss?

OpenGL ES 2.0 kann alles sein von DirectX 9 SM2 bis DirectX 11.

dildo4u
2011-06-03, 15:47:25
Wie verlinkt der SGX 545 kann DX10.1 und max OpenGL ES 2.0 und was meint du das geht bis DX11?Die API umfasst doch kein Tesselation Support oder?Kal El kann also DX10.1 supporten und wär dann ein Step up von Tegra 2 darum gings ja.Win 8 kommt ja als ARM Version guter DX Support wird also wichtiger werden.

Coda
2011-06-03, 15:55:07
Vergiss es.

dildo4u
2011-06-03, 16:00:50
Sry bin nur ein bissel verwirt weil du DX11 geschrieben hast,wie soll das gehen wenn Open GL ES 2.0 im März 2007 Spezifiziert wurde?

Coda
2011-06-03, 16:02:27
Es gibt keine neuere OpenGL-ES-Version, du kannst keinerlei Schlüsse auf das DX-Level ziehen, nur weil der Chip OpenGL ES 2.0 unterstützt.

dildo4u
2011-06-03, 16:03:49
Und genau das hab ich oben bei meiner ersten Antwort gemeint.

fondness
2011-06-03, 16:08:02
DX9 halt. Das war doch Tegra 2 auch schon.

Gibt es da auch genaueres dazu, also ob SM2 oder SM3 bzw. genauere Specs wie es mit einzelnen Features aussieht? Also jetzt bezogen auf Tegra2.

/Edit: Zumindest für SM3 reicht es nicht nachdem ich ein wenig gegoogelt habe. Da fehlt also schon noch einiges, selbst auf PowerVR. Wäre schade wenn man bei Kal-El wirklich nur die Einheiten auf bohrt ohne eine neue Architektur zu bringen. Ich meine da baut ausgerechnet einen GPU-Schmiede wie NV einen SoC und alles was überzeugen kann sind die lizenzierten CPU-Kerne. Zumindest DX10 inkl. OpenCL-Support wäre schon nett.

Coda
2011-06-03, 16:50:51
Warum schließt du dann?
Denke die Specs wird Kal El auch haben.

Ailuros
2011-06-03, 17:16:31
Laut Anand's erstem Kal-El Artikel wird die ULP GeForce im Tegra3 keine USC ALUs haben. Und wenn man sich die Tegra road-map genauer anschaut gehoert wohl Tegra4 eher zum "tock" als zu einem "tick". Ausser NV hat das Ganze mit Absicht vertrickst werden skalare USC ALUs erst im T5 kommen und da wohl unter 20HP@TSMC.

Die ULP GeForce im Tegra2 besteht laut NV aus "8 cores" und hier bezeichnet das ausgetueftelte Marketing eben einen vector lane als "core". Ergo 1 Vec4 (80bit RGBA/FP20) PS ALU und 1 Vec4 (FP32) ALU, 2 TMUs, 8 z/stencil.

Fuer die ULP GeForce im Tegra3 verspricht jetzt NV in ihren bisherigen Diagrammen "12 cores" welches eigentlich nach 2 Vec4 (FP20) PS ALUs + 1 Vec4 (FP32) ALUs riecht (bei hoeherer Frequenz).

http://images.anandtech.com/reviews/SoC/NVIDIA/Kal-El/roadmap_sm.jpg

http://www.anandtech.com/show/4181/nvidias-project-kalel-quadcore-a9s-coming-to-smartphonestablets-this-year

Tegra3@40nm = Tegra2 x5
Tegra4@28nm = Tegra3 x2

On the GPU side, Kal-El implements a larger/faster version of the ULP GeForce GPU used in Tegra 2. It's still not a unified shader architecture, but NVIDIA has upped the core count from 8 to 12. Note that in Tegra 2 the 8 cores refer to 4 vertex shaders and 4 pixel shaders. It's not clear how the 12 will be divided in Kal-El but it may not be an equal scaling to 6+6.

http://www.anandtech.com/show/4181/nvidias-project-kalel-quadcore-a9s-coming-to-smartphonestablets-this-year/2

Was jetzt OGL_ES3.0/Halti betrifft, muss man halt abwarten auf welchem Nivaeu es genau liegen wird.

Am Rand ist die PS ALU in den Tegras eigentlich "4+1", da man wenn man kein blending benutzt noch einen 9-en FLOP theoretisch bekommen kann (fuer was genau da man keine GPGPU Faehigkeiten hat hab ich noch nicht verstanden aber was soll's...). Dabei ist aber die ULP GF nicht die einzige embedded GPU die programmierbares blending in den ALUs ausfuehren kann.

Kann man wohl nich direkt von den Open GL Specs ableiten siehe Power VR Series SGX545

DX10.1 und Open GL ES 2.0
http://www.imgtec.com/factsheets/powervr/POWERVR_SGX_IP_Core_Family_%5B2.2%5D.pdf

Denke die Specs wird Kal El auch haben.

Offiziell ist SGX545 DX10.1, OpenGL3.1, OGL_ES2.0 und OpenCL1.1 (embedded). Wer sagt mir dass das Ding mit diesen Faehigkeiten sogar hoeher liegen koennte als das zukuenftige OGL_ES3.0/Halti?

***edit: nebenbei ist uebrigens 545 eine Ausnahme weil der Design eben erstmal dazu faehig war und Intel es wohl haben wollte. IMHO braucht man fuer heutige Verhaeltnisse nicht mehr als ~DX9.0c in tablets bzw. smart-phones. Zum Zeitpunkt wo NV dann wohl mit skalaren USC ALUs auftischt wird das Nivaeu dann bei high end smart-phones/tablets irgendwo bei DX10 liegen.

Das einzige was ich wirklich erwarte dass NV bei Tegra3 dazuschiebt sind TMUs die ueber >2048*2048 Texturen faehig sind.

Hugo78
2011-06-03, 18:28:57
Ja DX10/11 in 1W SoCs, wo selbst für den >300W PC, Crysis 2 nur* mit DX9 kommt, wäre auch verkehrte Welt. :biggrin:

Die Investition in einfach mehr Pixelshader und höheren Takt klingt nach der einzig sinnvollen Variante.
Extra Geometrie kann man ja mit den beiden zusätzlichen ARM Cores erzeugen, wenn nötig.

* = DX11 ist ja nur ein Patch ...

fondness
2011-06-03, 19:22:35
Laut Anand's erstem Kal-El Artikel wird die ULP GeForce im Tegra3 keine USC ALUs haben. Und wenn man sich die Tegra road-map genauer anschaut gehoert wohl Tegra4 eher zum "tock" als zu einem "tick". Ausser NV hat das Ganze mit Absicht vertrickst werden skalare USC ALUs erst im T5 kommen und da wohl unter 20HP@TSMC.

Die ULP GeForce im Tegra2 besteht laut NV aus "8 cores" und hier bezeichnet das ausgetueftelte Marketing eben einen vector lane als "core". Ergo 1 Vec4 (80bit RGBA/FP20) PS ALU und 1 Vec4 (FP32) ALU, 2 TMUs, 8 z/stencil.

Fuer die ULP GeForce im Tegra3 verspricht jetzt NV in ihren bisherigen Diagrammen "12 cores" welches eigentlich nach 2 Vec4 (FP20) PS ALUs + 1 Vec4 (FP32) ALUs riecht (bei hoeherer Frequenz).


FP20 PS? Damit erfüllt man ja nicht mal die SM2 Specs AFAIK. Da wundert mich der geringe Stromverbrauch dann auch nicht. Das ist dann aber schon ziemlich weit ab jeglicher Realität wenn manche Leute hier so tun als wäre man damit auch nur in der Nähe eines Atom oder gar Bobcats. Das sind Welten.

Ja DX10/11 in 1W SoCs, wo selbst für den >300W PC, Crysis 2 nur* mit DX9 kommt, wäre auch verkehrte Welt. :biggrin:

Die Investition in einfach mehr Pixelshader und höheren Takt klingt nach der einzig sinnvollen Variante.
Extra Geometrie kann man ja mit den beiden zusätzlichen ARM Cores erzeugen, wenn nötig.

* = DX11 ist ja nur ein Patch ...

Es geht um weit mehr als um irgend welche Spiele. GPGPU ist das Stichwort. Gerade in solchen Geräten könnte das Gold wert sein und Apple setzt das nicht umsonst in ihren mobilen Geräten auch massiv ein AFAIK.

LovesuckZ
2011-06-03, 19:54:30
Wo setzt Apple auf gpgpu? Android verwendet auch OpenGL für das Rendering des Browsers.
Es macht auch kein Sinn, da für fast alle Aufgaben ein extra Prozessor vorhanden ist.

Hugo78
2011-06-03, 20:52:59
Es geht um weit mehr als um irgend welche Spiele. GPGPU ist das Stichwort. Gerade in solchen Geräten könnte das Gold wert sein und Apple setzt das nicht umsonst in ihren mobilen Geräten auch massiv ein AFAIK.

AFIAK konnte das A4 nicht mal 1080p Videos darstellen und hatte auch bei 720p mit hoher Bitrate so Problemchen.

Natürlich hat Apple als (der?!) Hauptinitiator von OpenCL ganz klar ein Interesse an GPGPU und mag sein,
dass der GPU Teil des A5 hier tatsächlich Aufgaben einer klassischen CPU übernehmen kann.

Aber selbst wenn, Apple baut auch nur für ihre Welt.

Das ist ein geschlossenes System, da können sie Dinge vorantreiben ohne groß auf das Preis - Leistungsverhältnis zu achten.
Bzw, wenn sie bei Dualcore SoCs bleiben wollen und stärker parallelisierte Aufgaben, dann lieber auf den GPU Teil auslagern möchten,
ist / wäre das für sie kein Thema, sie brauchen ebend nur ihre gesamte Softwareentwicklung in ihrer Welt darauf ausrichten, passt schon irgendwann einmal.

Die Welt in der sich T3 behaupten muss, schaut viel stärker auf das Preis - Leistungsverhältniss und ob da (aktuell) jeder einen Nutzen in GPGPU Fähigkeiten erkennt und braucht,
wenn T3 schon Videos in 2560*1600 darstellen kann und mit 4 klassischen Kernen mehr Parallelisierung Möglichkeiten bietet, als der Rest der "Android" und bald auch "Win8" Welt,
das wage ich zu bezweifeln. :wink:

Man könnte auch sagen:
Nvidia befindet sich mit anderen Fixsternen wie Qualcom und TI in der Milchstraße.
Apple ist dagegen wie der Andromedanebel.
Irgendwie ähnlich, aber doch weit weit weg, selbst wenn es so scheint, als ob sich beide Galaxien aufeinander zubewegen.

Ailuros
2011-06-03, 21:58:49
AFIAK konnte das A4 nicht mal 1080p Videos darstellen und hatte auch bei 720p mit hoher Bitrate so Problemchen.

Liegt an Apple's bekloppten Begrenzungen in der sw und nicht am decoder selber. Der VXD375 der da drinsteckt schafft sogar dual stream 1080p bei hohen Bitraten.

Natürlich hat Apple als (der?!) Hauptinitiator von OpenCL ganz klar ein Interesse an GPGPU und mag sein,
dass der GPU Teil des A5 hier tatsächlich Aufgaben einer klassischen CPU übernehmen kann.

Aber selbst wenn, Apple baut auch nur für ihre Welt.

Genauso Intel, TI, Samsung, Sharp, Renesas, SONY etc etc. oder anders mehr oder weniger die Mehrzahl im embedded Markt. Das dumme ist eben dass Apple es von nichts geschafft hat einem Giganten wie NOKIA einen Tritt in den Hintern zu verpassen. Fuer mich persoenlich extrem bedauernswert, denn ich hab durch die Jahre mit NOKIA nur gute Erfahrungen gemacht.


Das ist ein geschlossenes System, da können sie Dinge vorantreiben ohne groß auf das Preis - Leistungsverhältnis zu achten.
Bzw, wenn sie bei Dualcore SoCs bleiben wollen und stärker parallelisierte Aufgaben, dann lieber auf den GPU Teil auslagern möchten, ist / wäre das für sie kein Thema, sie brauchen ebend nur ihre gesamte Softwareentwicklung in ihrer Welt darauf ausrichten, passt schon irgendwann einmal.

Alle Semis setzen auf staerkere GPUs zunehmend und es wird nur brutaler werden mit der 28nm Generation und dabei ist es wurscht ob die GPU Mali, SGX, Vivante, Pipsie oder Popsie heisst. Ergo wohl nicht nur eine merkwuerdige "Angewohnheit" von Apple sondern eher eine generelle Tendenz.

Die Welt in der sich T3 behaupten muss, schaut viel stärker auf das Preis - Leistungsverhältniss und ob da (aktuell) jeder einen Nutzen in GPGPU Fähigkeiten erkennt und braucht, wenn T3 schon Videos in 2560*1600 darstellen kann und mit 4 klassischen Kernen mehr Parallelisierung Möglichkeiten bietet, als der Rest der "Android" und bald auch "Win8" Welt, das wage ich zu bezweifeln. :wink:

Es gibt schon video decoder die in Aufloesungen wie bis zu 4096*4096 dekodieren koennen. Ein fixed function decoder hat ueberhaupt nichts weder mit der CPU und/oder der GPU zu tun, ausser dass dieser die CPU hauptsaechlich beim decoding brutal entlastet bei um einiges niedrigerem Stromverbrauch dank sehr niedriger Frequenz. Analog niedrig ist der Stromverbrauch auch wenn man Zeug wie image processing auf die GPU im Vergleich zu CPU schleusst. Erstens ist die Frequenz der GPU stets niedriger und zweitens kann man auf der GPUs ihre ALUs voll ausnutzen, waehrend es beim einer CPU momentan nicht der Fall ist.

Was fuer Parallelisierung ueberhaupt bei CPUs? Wenn es stets nur um wenige Threads geht ist eine jegliche CPU ideal; bei einer relativ hohen oder obszoen hohen Anzahl von Threads ist man stets besser auf der GPU aufgehoben. CPU = niedriger Parallelismus, hohe Frequenzen, GPU = hoher Parallelismus, niedrige Frequenzen.

Man könnte auch sagen:
Nvidia befindet sich mit anderen Fixsternen wie Qualcom und TI in der Milchstraße. Apple ist dagegen wie der Andromedanebel.
Irgendwie ähnlich, aber doch weit weit weg, selbst wenn es so scheint, als ob sich beide Galaxien aufeinander zubewegen.

Wo ist der Vergleich ueberhaupt zwischen NV und Qualcomm, TI oder jemand anderem momentan? NOKIA muss bald dank M$ und win7 phones Qualcomm SoCs schlucken ob es ihnen passt oder nicht. Was jetzt TI betrifft ich bin zu faul nachzuzaehlen wie viele diverse SoCs sie pro Generation herstellen.

NV ist beim Aufschwung, aber der Weg ganz nach oben ist immer noch weit. Egal was man links und rechts hoert ueber Tegra und die hw selber, ich habe bis jetzt keine einzige Klage ueber NV's sw oder deren support gehoert was mich auch nicht wundert. So und jetzt rede mir ein dass sie mit CUDA in dem Markt gar nichts auf die Beine stellen koennen und natuerlich stets mit dem gleichen support. HW kann auch jedes kleine Garagenfirmchen aus dem nichts entwickeln, nur leider ist es eben nicht alles. Ein gut entwickelter SoCs hat hauptsaechlich gut entwickelte sw neben effizienter hw. Zu sagen auch X klappt nicht, aber es wird mit der naechsten Generation klappen weil mehr Einheiten bzw. hohere Frequenzen heisst dass man ein Problem nicht loest sondern dummerweise versucht es zu umgehen. NV holt momentan mehr als ihren GPU Treibern fuer 3D raus als jeglicher andere. Muss wohl ein Zufall sein. Genauso mein Eindruck dass CUDA nicht fuer hw steht.

Was differenziert nochmal genau NV von AMD im Profi-GPU Markt genau? Dabei wundert es mich warum Jensen genau in dem Sinn NV eine software Firma bezeichnete.

Nebenbei taktet hoechstwahrscheinlich die ULP GF im T3 irgendwo um die 400MHz. Es haette natuerlich eine brutalen Schaden angerichtet wenn es sich um 8 skalare ALUs gehandelt haette die bei 700MHz takten wuerden und der Rest des cores auf =/>400MHz? ALU hotclocking spart ja ueberhaupt nichts ein und USC ALUs sind uneffiziennter Firlefanz.

Tiamat
2011-06-03, 22:16:28
FP20 PS? Damit erfüllt man ja nicht mal die SM2 Specs AFAIK. Da wundert mich der geringe Stromverbrauch dann auch nicht. Das ist dann aber schon ziemlich weit ab jeglicher Realität wenn manche Leute hier so tun als wäre man damit auch nur in der Nähe eines Atom oder gar Bobcats. Das sind Welten.

Es geht um weit mehr als um irgend welche Spiele. GPGPU ist das Stichwort. Gerade in solchen Geräten könnte das Gold wert sein und Apple setzt das nicht umsonst in ihren mobilen Geräten auch massiv ein AFAIK.

Das kann aber eigentlich nicht sein. Klar wird OpenGL verwendet, um die GUI e.t.c zu beschleunige, aber der erste openCl taugliche Graphikchip ist erst jetzt mit dem A5 verbaut.

Ailuros
2011-06-03, 22:28:44
Das kann aber eigentlich nicht sein. Klar wird OpenGL verwendet, um die GUI e.t.c zu beschleunige, aber der erste openCl taugliche Graphikchip ist erst jetzt mit dem A5 verbaut.

Imagination Technologies 2011-03-15 OpenCL_1_0
Poulsbo OpenCL Driver for Linux
SGX535

http://www.khronos.org/adopters/conformant-products/

Nur der 545 hat mehr Faehigkeiten; sonst sind alle OpenCL1.0 embedded kompliant. Bei allen fehlen natuerlich Faehigkeiten wie fp64 oder atomic operations, aber das ist eher Material fuer die naechste kommende Generation (Adreno3xx, Mali T604, Rogue/Series6 usw.).

Aus 2009: http://www.hotchips.org/archives/hc21/1_sun/HC21.23.2.OpenCLTutorial-Epub/HC21.23.270.Pulli-OpenCL-in-Handheld-Devices.pdf

Hugo78
2011-06-03, 22:36:47
@Ailuros

Die Richtung deines Postings wird mir nicht ganz klar.

Also ja natürlich hat Videobeschleunigung nichts mit GPGPU zutun, aber genau das ist es ja,
mir fällt da aktuell nichts ein wozu man den GPU Teil vom Tegra 3 jetzt mit USC für CUDA aufblasen sollte.
Für Projekt Dever ja, aber Tegra?!

Spiele laufen, Videos laufen und für heftigere Sachen, wie zb. 3D Raytracing, bieten Tesla/Quadro-Serverclouds per Software wie IRay, genug Power, da muss man doch kein 1W SoC weiter aufblasen...
oder versteh ich dein posting jetzt falsch, bzw überseh ich da was...?!

Tiamat
2011-06-03, 22:43:14
Ok, dann ist das auch mit dem A4 der Fall.
Aber OpenCL ist auf Ios meines Wissens noch nicht verfügbar. Bei der Adaptor List bei Kronos ist auch kein Eintrag über Ios zu finden, sondern nur OSX 10.6.

Ailuros
2011-06-03, 22:44:00
@Ailuros

Die Richtung deines Postings wird mir nicht ganz klar.

Also ja natürlich hat Videobeschleunigung nichts mit GPGPU zutun, aber genau das ist es ja,
mir fällt da aktuell nichts ein wozu man den GPU Teil vom Tegra 3 jetzt mit USC für CUDA aufblasen sollte.

Wenn man technisch stets den letzten Wagon des Zugs sehen will klar. NV ist ein Technologie-Vorreiter im standalone GPU Markt und entwickelt dass was der Markt in Zukunft brauchen wird und nicht beim lowest common denominator.

Für Projekt Dever ja, aber Tegra?!

Schau Dir mal die oben gepostete NV Tegra roadmap an und erzaehl mir dann was Projekt Denver mit Tegra zu tun haben koennte.

Spiele laufen, Videos laufen und für heftigere Sachen, wie zb. 3D Raytracing, bieteten Tesla/Quadro-Serverclouds per Software wie IRay, genug Power, da muss man doch kein 1W SoC weiter aufblasen...
oder versteh ich dein posting jetzt falsch, bzw überseh ich da was...?!

Ich hab oben grad wieder auf ein NOKIA Experiment aus 2009 fuer OpenCL image processing verlinkt. Neben dem technischen code Firlefanz sollte es leicht zu verstehen sein ob solches general purpose processing nutzlos oder nutzvoll sein kann und wo der Unterschied beim Stromverbrauch zwischen GPU und CPU liegt. Haette heute NV CUDA im Tegra haetten wir zich Illustrationen, demos, whitepapers fuer was man das Zeug genau auf so einem Ding verwenden koennte.

LovesuckZ
2011-06-03, 22:49:07
Wenn man technisch stets den letzten Wagon des Zugs sehen will klar. NV ist ein Technologie-Vorreiter im standalone GPU Markt und entwickelt dass was der Markt in Zukunft brauchen wird und nicht beim lowest common denominator.


nVidia ist SoC-Hersteller. nVidia lizenziert ihre Technik nicht und lässt die anderen machen.
Sie können also nicht wie Apple mal soeben einen 122mm^2 großen SoC produzieren. Sie müssen konkurrenzfähig in Bereich der Kosten sein. Und die Konkurrenz ist eben nicht besser aufgestellt und OpenCL spielt für Android wohl noch lange keine Rolle.

Ailuros
2011-06-03, 22:53:06
Ok, dann ist das auch mit dem A4 der Fall.
Aber OpenCL ist auf Ios meines Wissens noch nicht verfügbar. Bei der Adaptor List bei Kronos ist auch kein Eintrag über Ios zu finden, sondern nur OSX 10.6.

Apple braucht kein OpenCL um das anzurichten was so oder so im iOS anstellen. SoCs sind von sich aus "heterogene" Tiere. http://images.anandtech.com/doci/4098/tegra2_575px.jpg

Tiamat
2011-06-03, 23:00:31
Und auf deutsch ?

Ich hab mich geirrt, hab eben in Xcode nachgeschaut und man es auch für Iphone-Projekte definitiv nutzen.

Ailuros
2011-06-03, 23:14:54
nVidia ist SoC-Hersteller. nVidia lizenziert ihre Technik nicht und lässt die anderen machen.

Was soll daran neu sein? Und was hat dieses ueberhaupt mit der eigentlichen GPU zu tun die uebrigens NVIDIA selber entwickelt?

Sie können also nicht wie Apple mal soeben einen 122mm^2 großen SoC produzieren.

Apple holt den Unterschied wieder im naechsten Herstellungs-prozess raus da der A5 die erste "Hausaufgabe" dafuer ist. Dass A5 mit X mehr Effizienz und Leistung als A4 auf dem genau gleichen Prozess vergleichbaren Stromverbrauch und Batterie-Laufzeit duerfte reichen zu verstehen was Intrisity als Hauptziel hatte.

Hat auch nichts mit der T2 GPU zu tun. Die ULP GF nimmt beim T2 ca. 1/5 des die estate ein; waere der SoC um ca. 20% groesser gewesen und die Mehrzahl des Aufschlags fuer die GPU waere es mit Sicherheit ein Weltuntergang gewesen. Oder anders verdreht da Tegra3 laut Anand um die 80mm2 gross sein wird unter genau demselben Herstellungsprozess wie Tegra2. Wieso ist eine Steigerung von ca. 60% die area ploetzlich kein Problem mehr?

Sie müssen konkurrenzfähig in Bereich der Kosten sein. Und die Konkurrenz ist eben nicht besser aufgestellt und OpenCL spielt für Android wohl noch lange keine Rolle.

Ich bin ganz Augen zu lesen was Google genau mit Android fuer die Zukunft vorhat. Aber da leider M$ nicht die Finger aus dem Markt lassen wird, ist es eben nicht immer so einfach.

http://semiaccurate.com/assets/uploads/2011/05/Windows_8_partners_WM.png

http://semiaccurate.com/2011/05/30/amd-is-the-fourth-warm-windows-8-tablet-partner/


Aber es ist ja immer so dass was man nicht kann auch wirklich nicht braucht. Software kommt ja STETS vor der hardware.

LovesuckZ
2011-06-04, 15:38:00
Weiterer Kal-El Hand on Bericht mit zwei neuen Demos:
http://www.youtube.com/watch?v=LfNxbbJgSMQ&feature=player_embedded

tombman
2011-06-04, 15:49:19
Weiterer Kal-El Hand on Bericht mit zwei neuen Demos:
http://www.youtube.com/watch?v=LfNxbbJgSMQ&feature=player_embedded
The OWN ;)

nvidia eben :)

Hugo78
2011-06-04, 21:00:19
Hatte das Video von HWLuxx, mit den selben Demos, gestern grad einem Bekannten gezeigt und sein Kommentar war kurz und knapp.
"Wunderkasten... 0.o"

:D

... ehm entfernt zum Thema passt ja die heutige News von winfuture.de, wonach MS schützend seine Hand über Nvidia hält, was die Übernahme durch Dritte angeht.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8765967&postcount=149

Jetzt mag man fragen warum ist das denn Ontopic?!
Nun nun es scheint so, es ist hier primär Tegra zuzuschreiben ist, dass MS ein Eigeninteresse an NVs Fortbestand hat.

Ich bin mir nicht sicher ob jemand diese Entwicklung von einem Jahr so vorausgesehen hätte. ;)

fondness
2011-06-04, 21:10:50
... ehm entfernt zum Thema passt ja die heutige News von winfuture.de, wonach MS schützend seine Hand über Nvidia hält, was die Übernahme durch Dritte angeht.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8765967&postcount=149

Jetzt mag man fragen warum ist das denn Ontopic?!
Nun nun es scheint so, es ist hier primär Tegra zuzuschreiben ist, dass MS ein Eigeninteresse an NVs Fortbestand hat.

Ich bin mir nicht sicher ob jemand diese Entwicklung von einem Jahr so vorausgesehen hätte. ;)

Schützend seine Hand über Nvidia halten ist ja schon eine sehr blumige Beschreibung. Es kann viele Gründe geben warum man ein Vorkaufsrecht für Firmenanteile erwirbt. Eines steht jedenfalls fest, man kann sich dadurch Einfluss sichern und hat natürlich jederzeit die Option diese Anteile auch zu erwerben. MS ist jedenfalls kein Samariterbund, der "schützend seine Hand über irgend wem hält". Man wird damit Druck auf NV ausüben nach ihren Vorstellungen zu entwickeln und was noch wichtiger ist man kann gleichzeitig ausschließen das jemand anderer konträre Interessen durchsetzen kann. 30% der Aktien ist kein Klacks. Wer 30% einer Firma hält muss gemäß Aktiengesetz ein Übernahmeangebot abgeben.

Coda
2011-06-04, 21:24:40
The OWN ;)

nvidia eben :)
Ich versteh immer noch den Hype nicht :(

Klär mich auf. Die PowerVR-Chips sind noch weitaus leistungsfähiger.

Hugo78
2011-06-04, 21:44:27
Schützend seine Hand über Nvidia halten ist ja schon eine sehr blumige Beschreibung.

Ha, ich wusste da würde sofort jemand auf meine Formulierung einsteigen. ;D

Sorry, ... :wink:
Ja klar ist MS kein Samariter, aber was winfuture.de auch schon spekulierte, ist erstmal schlüssig.
Und das MS seinen Einfluss bei NV nutzen wird um die weitere Entwicklung hier in eine bestimmte Richtung zulenken, steht ausser Frage.

Denoch, wenn es zutrifft, dass MS dies wirklich nur macht, um Apple hier einen Riegel vorzuschieben,
dann ist es schon irgendwie witzig, dass das durch Tegra kommt, statt durch teurere Entwicklungen a la Fermi.

grobi
2011-06-04, 21:49:27
Ich versteh immer noch den Hype nicht :(

Klär mich auf. Die PowerVR-Chips sind noch weitaus leistungsfähiger.

Und in welchem Tablet wird der verbaut? Ich hab dazu noch keine Technologiedemo gesehen.

mfg grobi

Coda
2011-06-04, 21:58:19
iPad 1&2, Galaxy Tab

tombman
2011-06-04, 22:03:20
iPad
Und wo gibts coole Videos zu der Megapower des Ipad?

Coda
2011-06-04, 22:05:53
Was interessiert mich das? Techdemos kann ich jedenfalls nicht spielen.

Wenn erstmal Spiele auf Windows-8-Basis oder Android in breiter Menge verfügbar sind, dann werden die dann erscheinenden PowerVR-SoCs sowieso mit Tegra den Boden aufwischen. Der Technologieunterschied ist grotesk.

Gut an der Geschichte ist gerade, das NVIDIA da endlich mal bisschen Konkurrenz-Druck erzeugt, durch ihr wie üblich sehr gutes Devrel und Marketing. Aber Tegra ist momentan keine Herausforderung für PVR.

tombman
2011-06-04, 22:11:47
Gibts denn nicht mal benchmarks des PVR?

Ailuros
2011-06-04, 22:32:40
Wer benchmarks und techdemos von PowerVR suchen will, Google ist sein Freund. Zurueck zu Tegra bevor sich das Zeug gleich wieder entgleist.

LovesuckZ
2011-06-04, 23:29:01
Man wird damit Druck auf NV ausüben nach ihren Vorstellungen zu entwickeln und was noch wichtiger ist man kann gleichzeitig ausschließen das jemand anderer konträre Interessen durchsetzen kann. 30% der Aktien ist kein Klacks. Wer 30% einer Firma hält muss gemäß Aktiengesetz ein Übernahmeangebot abgeben.

Microsoft sollte erstmal die 30% kaufen, bevor sie überhaupt irgendwelche Ansprüche stellen können. :rolleyes:

Das ganze ist sowieso belanglos, da die Vereinbarung im Zuge der Xbox 1 getroffen wurde. Und hätte MS wirkliches Interesse an nVidia, hätte man schon längst angefangen Aktien im großen Stile zu kaufen.

Mancko
2011-06-05, 12:02:31
Microsoft sollte erstmal die 30% kaufen, bevor sie überhaupt irgendwelche Ansprüche stellen können. :rolleyes:

Das ganze ist sowieso belanglos, da die Vereinbarung im Zuge der Xbox 1 getroffen wurde. Und hätte MS wirkliches Interesse an nVidia, hätte man schon längst angefangen Aktien im großen Stile zu kaufen.

Ist zwar OffTopic aber mir fällt grad ein, dass neben dem ganzen Nvidia ARM basierten Tegra und Denver Zeug die Vereinbarung auch in Indikator sein könnte, dass Nvidia die GPU (evtl. auch CPU?) für die nächste XBox fertigt?

So etwas wäre natürlich auch ein Grund sicherzustellen, dass mein Lieferant nicht in die Hände Dritter (eventuell Konkurenten) kommt.

Ailuros
2011-06-05, 17:26:17
Dural und auch jeder andere: ich hab gebeten dass das Zeug ein Ende nimmt.

VooDoo7mx
2011-06-06, 03:40:42
Klär mich auf. Die PowerVR-Chips sind noch weitaus leistungsfähiger.
Natürlich ist PowerVR SGX in den Multicore Varianten schneller als Tegra 2. Nur ist außer dem iPad 2 mit 2 Cores, kein weiteres Endkundenprodukt mit PowerVR SGX MP auf den Markt. Es ist nicht mal was weiteres angekündigt. (Bis auf die NGP Spielekonsole, aber um solche Produkte geht es hier ja nicht)

Was nützt mir auch diese super überlegene Leistungsfähigkeit, wenn es rein gar keine Software gibt, um diese Überlegenheit zu demonstrieren?
Besonders bei Android ist es wichtig das auch mal jemand Geld in die Hand nimmt und Entwickler untersützt damit die Spiele optisch einen Schritt nach vorne machen. Und genau das macht nVidia. Vom technischen Standpunkt sind die Tegra 2 Exklusiven Spiele im Android Market das beste was man auf diesen Betriebsystem bekommen kann. Dann kann was weiß ich für ein 3D Chip noch so leistungsfähig sein.
iPad 1&2, Galaxy Tab
iPad 1 ist langsamer als Tegra 2 und Galaxy Tab bestenfalls gleichwertig, mit neuen Treiber in Android 3.1 dann langsamer.
Tegra 3 wird mindestens gleichwertig zum iPad 2 und die Produkte erscheinen noch dieses Jahr.
Was interessiert mich das? Techdemos kann ich jedenfalls nicht spielen.
Nur werden aus den Techdemos fertige Spiele.
Und eine Techdemo ist immer noch besser als gar nix vorzuzeigen. Aber PoverVR ist ja so supertoll, das muss nicht einmal bewiesen werden, die Erde ist ja schließlich auch eine Scheibe.

Wenn erstmal Spiele auf Windows-8-Basis oder Android in breiter Menge verfügbar sind, dann werden die dann erscheinenden PowerVR-SoCs sowieso mit Tegra den Boden aufwischen. Der Technologieunterschied ist grotesk.
Bis Windows 8 rauskommt, gibt es schon Tegra 4. Aber du hast natürlich die Glaskugel und weißt schon wie dieser Chip in allen Details aussehen wird und wie er auch im Vergleich zu PowerVR Produkten dastehen wird. :ulol:
Und ich weiß auch nicht aus welchen Paralleluniversum du kommst, aber auf Android gibt es schon seit Ewigkeiten, Spiele in breiter Menge verfügbar. Und die mit der besten Optik, sind wie schon von mir geschrieben, Tegra 2 exklusiv. Du kannst dir Ja die Tegra Zone Anwendung im Android Market runterladen, da siehst du alle Titel. Aber der große Android Experte und 3D Uberguru hat wahrscheinlich nicht mal ein entsprechendes Endgerät.

Gut an der Geschichte ist gerade, das NVIDIA da endlich mal bisschen Konkurrenz-Druck erzeugt, durch ihr wie üblich sehr gutes Devrel und Marketing. Aber Tegra ist momentan keine Herausforderung für PVR.
Auch hier wieder: aus welchen Parallel Universum kommst du? nVidia ist in diesen Markt erst seit kurzem überhaupt vertreten und treibt auch die Mitbewerber rein gar nicht an. ARM Mali, Qualcomm Adreno, PowerVR SGX und RGX und wie sie nicht alle heißen wären in ihrer jetzigen Form auch komplett ohne Nvidia auf dem Markt.
Den einzigen den man da was zu gute halten kann, ist Apple die mit ihren Endkundengeräten aufwendige 3D Spiele auf Smartphones salonfähig gemacht haben. Damit haben sie den Markt wichtige Impulse gegeben. Darauf haben dann auch weitere ARM SoC Produzenten stärkere 3D IPs lizensiert, die aber eh schon auf Halde waren.

Tiamat
2011-06-06, 08:00:35
CPU-technisch ist ein Apple a5 auch nicht schneller als Tegra2.
Der Vorteil den Apple hat ist, dass IOS ne reine C Plattform ist(Sowohl OS als auch Programmierplattform). Darin sind vor allem die Geschwindigkeitsvorteile ggü. Android und Java begründet.

iFanatiker
2011-06-06, 08:59:22
Auch hier wieder: aus welchen Parallel Universum kommst du? nVidia ist in diesen Markt erst seit kurzem überhaupt vertreten und treibt auch die Mitbewerber rein gar nicht an.

nVidia macht praktisch im Embedded Segment seit 2003 rum. Nur waren die GoForces (:biggrin::biggrin:) kein großer Erfolg. :biggrin:

Auch würde ich kein Cent drauf setzen, daß der Tegra 3 von der GPU Leistung schneller wird als die GPU im A5 (vom Featureset ist nVidia eh unterlegen).

CPU-technisch ist ein Apple a5 auch nicht schneller als Tegra2.


Doch, der A5 ist aufgrund der NEON Engine schneller in bestimmten Szenarien als der Tegra 2.

robbitop
2011-06-06, 08:59:24
Zum A5 gab es auch einige Apps die IMO viel eindrucksvoller waren als "Lost Planet 2". Texturdetails, Geometriedetails, LoD, Bumpmapping - das sah IMO sehr altbacken aus.

Infinity Blade (gibt es für den A5 eine angepasste Version) und Citadel brauchen sich beide vor den NV Techdemos nicht zu verstecken.

Vom Featureset ist die Tegra GPU auch eher mit einer DX8 GPU zu vergleichen, während die SGX eher auf D3D9 Level sind. Rogue (Serie6) sogar bereits D3D10.1(?) Level.

Was Benchmarks angeht: ich bin mir nicht sicher, wieviel NV dafür schon "optimiert" - das kennt man ja aus dem PC Bereich. Weiterhin rendert NV nur mit 16 Bit Farbtiefe.

Hugo78
2011-06-06, 09:24:23
Und wieder und wieder der völlig abwegige Vergleich mit Apple.
Ein A5 ist 122mm^2 groß, ein Tegra 2 grad mal 49mm^2 klein und 2 Jahre älter.

Wir werden im Android Markt kaum so fette SoCs sehen, hier ist der Kostendruck, allein aufgrund der verhältnissmässig kleineren Stückzahlen enorm viel größer.

LovesuckZ
2011-06-06, 11:05:23
Zum A5 gab es auch einige Apps die IMO viel eindrucksvoller waren als "Lost Planet 2". Texturdetails, Geometriedetails, LoD, Bumpmapping - das sah IMO sehr altbacken aus.

Infinity Blade (gibt es für den A5 eine angepasste Version) und Citadel brauchen sich beide vor den NV Techdemos nicht zu verstecken.

Bei Lost Planet ging es wohl eher darum zu zeigen, dass man vorhandene PC-/Konsolenspiele relativ "schnell" auf ARM portieren kann. Grafisch fand ich es auch langweilig.


Was Benchmarks angeht: ich bin mir nicht sicher, wieviel NV dafür schon "optimiert" - das kennt man ja aus dem PC Bereich. Weiterhin rendert NV nur mit 16 Bit Farbtiefe.

Die Konkurrenz optimiert doch auf z.B. auf den GLBenchmark. Deswegen ist dieser auch sinnlos geworden. Eher sollte man Benchmarks nehmen, die nicht bekannt sind.

Nakai
2011-06-06, 11:07:11
Und wieder und wieder der völlig abwegige Vergleich mit Apple.
Ein A5 ist 122mm^2 groß, ein Tegra 2 grad mal 49mm^2 klein und 2 Jahre älter.

Wir werden im Android Markt kaum so fette SoCs sehen, hier ist der Kostendruck, allein aufgrund der verhältnissmässig kleineren Stückzahlen enorm viel größer.

Die Diesize ist bei SOCs ziemlich nachrangig. Für den Hersteller zwar nicht, aber für die Kunden schon(vorallem, da es noch viele andere Kosten als den SOC gibt).
Vorallem gibt es noch kein Smartphone mit dem A5. Das kommt erst im Herbst raus. Apple ist zwar im Tablet-Bereich Vorreiter im Smartphone-Markt ist man technologisch aber noch viel zu rückständig(aber da sich Tablet und Smartphone bei Apple kaum unterscheiden...;)).

LovesuckZ
2011-06-06, 11:17:57
Die Diesize ist bei SOCs ziemlich nachrangig. Für den Hersteller zwar nicht, aber für die Kunden schon(vorallem, da es noch viele andere Kosten als den SOC gibt).


Huch, wirklich? Einzig Firmen wie Samsung, Apple oder auch Sony können das behaupten. Die produzieren nur für ihre eigenen Produkte. Alle anderen sind in einem Konkurrenzkamp um jeden Cent. Da spielt Die-Size eine erhebliche Rolle.

Nakai
2011-06-06, 11:38:22
Huch, wirklich? Einzig Firmen wie Samsung, Apple oder auch Sony können das behaupten. Die produzieren nur für ihre eigenen Produkte. Alle anderen sind in einem Konkurrenzkamp um jeden Cent. Da spielt Die-Size eine erhebliche Rolle.

Ja, für pure SOC-Hersteller gilt das. Nur sind die meisten SOC-Hersteller schon aus diesem Stadium rausgewachsen. Software, Patente und andere Technologien sind ebenso wichtig, wie die puren SOCs. Preis/Leistung gilt eben nicht überall, siehe Qualcomm, welche eher auf ihr eigenes Zeug setzen, als auf dem Massenmarkt von PVR und standard Arm-Kerne zu setzen.


mfg

LovesuckZ
2011-06-06, 11:43:29
Ja, für pure SOC-Hersteller gilt das. Nur sind die meisten SOC-Hersteller schon aus diesem Stadium rausgewachsen. Software, Patente und andere Technologien sind ebenso wichtig, wie die puren SOCs. Preis/Leistung gilt eben nicht überall, siehe Qualcomm, welche eher auf ihr eigenes Zeug setzen, als auf dem Massenmarkt von PVR und standard Arm-Kerne zu setzen.
mfg

Auch Qualcomm unterliegt dem Wettbewerb. Sie setzen vielleicht auf eigene Technik bzw. Veränderungen. Aber sie können keine Preise nehmen, die abseits jeglicher Realität liegen, weil ihre Chip doppelt so groß sind. Apple, Sony und auch Samsung haben alleinstellungsmerkmale bzgl. andere Zielgruppen. Die sind also auf einem zum Großteil eigenen Markt. Qualcomm, TI, nVidia usw. kämpfen alle um den selben Markt mit fast identischer Ausstattung.

Nakai
2011-06-06, 11:57:48
Auch Qualcomm unterliegt dem Wettbewerb. Sie setzen vielleicht auf eigene Technik bzw. Veränderungen. Aber sie können keine Preise nehmen, die abseits jeglicher Realität liegen, weil ihre Chip doppelt so groß sind. Apple, Sony und auch Samsung haben alleinstellungsmerkmale bzgl. andere Zielgruppen. Die sind also auf einem zum Großteil eigenen Markt. Qualcomm, TI, nVidia usw. kämpfen alle um den selben Markt mit fast identischer Ausstattung.

Sony und Samsung können es sich in erster Linie leisten mit einem komplett eigenem LineUp auf den Markt zu gehen. Das sind einfach riesige Konzerne die alles mögliche Verkaufen.

Qualcomm verkauft haupsächlich ihre eigenen SOCs und zwar verdammt gut. Performancetechnisch sind die Qualcomm-SOCs kein bisschen herausragend bzw. performant. Jedoch haben sie alle Bestandteile ihres SOCs für bestimmte Bedürfnisse angepasst. Der Scorpion-Kern ist eine vollkommene Eigenproduktion(natürlich ARMv7), irgendwie eine Mischung aus CortexA8 und CortexA9. Die Grafikeinheit ist verdammt flexibel. Und Qualcomm hält einen Haufen Patente und bietet einen exzellenten Support.

TI spielt wieder in einer ganz andren Liga. Die bauen praktisch alles mögliche Halbleiterartige.

NV muss sich in diesem riesigen Markt erst etablieren. Die Chancen stehen gut, etwas vom wachsenden Kuchen abzubekommen. Aber in diesem Bereich muss man mit mehr als nur einem guten und performanten SOC daherkommen.

Mancko
2011-06-06, 12:48:09
NV muss sich in diesem riesigen Markt erst etablieren. Die Chancen stehen gut, etwas vom wachsenden Kuchen abzubekommen. Aber in diesem Bereich muss man mit mehr als nur einem guten und performanten SOC daherkommen.

z.B.
- mit einem SoC aus komplett der eigenen Hand? Nun "Denver" und die Icera Übernahme sind dafür ja schon mal ein guter Anfang.

- und entsprechendem Entwicklersupport. Auch da mach ich mir bei Nvidia langfristig keine Sorgen.Dort haben sie eine sehr gute Abteilung, die halt noch ein wenig mehr in Richtung Embedded gepusht werden muss. Hier spielt aber die Zeit für Nvidia. Langfristig werden die Grenzen zwischen dem was heute ein SoC ist und dem was heute eine PC CPU ist verschwimmen. Im PC und Computing Bereich ist Ihr Developer Relations schon sehr gut.

LovesuckZ
2011-06-06, 12:53:24
Sony und Samsung können es sich in erster Linie leisten mit einem komplett eigenem LineUp auf den Markt zu gehen. Das sind einfach riesige Konzerne die alles mögliche Verkaufen.

Qualcomm verkauft haupsächlich ihre eigenen SOCs und zwar verdammt gut. Performancetechnisch sind die Qualcomm-SOCs kein bisschen herausragend bzw. performant. Jedoch haben sie alle Bestandteile ihres SOCs für bestimmte Bedürfnisse angepasst. Der Scorpion-Kern ist eine vollkommene Eigenproduktion(natürlich ARMv7), irgendwie eine Mischung aus CortexA8 und CortexA9. Die Grafikeinheit ist verdammt flexibel. Und Qualcomm hält einen Haufen Patente und bietet einen exzellenten Support.

TI spielt wieder in einer ganz andren Liga. Die bauen praktisch alles mögliche Halbleiterartige.

Das alles ändert nichts an der Tatsache, dass die OEMs nach Features und Preise gehen. Denen interessiert es nicht, dass Qualcomm eigene ARM-Prozessoren designen, TI auf PowerVR setzen oder nVidia eine eigene Geforce einbaut. Die sind alle in einem großen Haifischbecken und müssen um das Überleben kämpfen.


NV muss sich in diesem riesigen Markt erst etablieren. Die Chancen stehen gut, etwas vom wachsenden Kuchen abzubekommen. Aber in diesem Bereich muss man mit mehr als nur einem guten und performanten SOC daherkommen.

Sie sind etabliert. Tegra ist ein Name, der heute eine Bedeutung hat. Und das haben sie im Grunde nur mit einem SoC geschafft - Tegra2.

Xmas
2011-06-06, 12:54:41
Die Konkurrenz optimiert doch auf z.B. auf den GLBenchmark. Deswegen ist dieser auch sinnlos geworden. Eher sollte man Benchmarks nehmen, die nicht bekannt sind.
Benchmarks, die nicht bekannt sind, sind leider meist auch bezüglich Qualität eher bescheiden.


Huch, wirklich? Einzig Firmen wie Samsung, Apple oder auch Sony können das behaupten. Die produzieren nur für ihre eigenen Produkte. Alle anderen sind in einem Konkurrenzkamp um jeden Cent. Da spielt Die-Size eine erhebliche Rolle.
Nakai hat schon recht in dem Sinne dass für den Kunden die Die-Größe nicht direkt sichtbar ist. Klar erhöht jeder mm² die Herstellungskosten um einige Cent pro Chip, aber das sind nicht die einzigen Kosten die in den Preis einfließen. Größere Chips können durchaus ein besseres Preis-Leistungs-Verhältnis haben.

LovesuckZ
2011-06-06, 12:59:56
Benchmarks, die nicht bekannt sind, sind leider meist auch bezüglich Qualität eher bescheiden.

GLBenchmark 2.0 sind nach vielem aus, den Begriff "schön" würde ich jedoch nicht dafür verwenden.


Nakai hat schon recht in dem Sinne dass für den Kunden die Die-Größe nicht direkt sichtbar ist. Klar erhöht jeder mm² die Herstellungskosten um einige Cent pro Chip, aber das sind nicht die einzigen Kosten die in den Preis einfließen. Größere Chips können durchaus ein besseres Preis-Leistungs-Verhältnis haben.

Für den Kunden nicht, aber für die Unternehmen bzgl. der angestrebten Marge und den OEM, der im schlimmsten Fall Mehrkosten haben könnte. Grundsätzlich kann man diesem "Teufelskreis" nur dann entkommen, wenn man ein Feature bietet, dass so einmalig ist, dass die OEMs und am die Ende dafür bezahlen oder man hat solches Mindshare, dass vorallem die Enduser nach entsprechenden Geräten mit bestimmten SoCs fragen. Also ein umgekehrter Apple-Fall.

Nakai
2011-06-06, 13:03:09
Das alles ändert nichts an der Tatsache, dass die OEMs nach Features und Preise gehen. Denen interessiert es nicht, dass Qualcomm eigene ARM-Prozessoren designen, TI auf PowerVR setzen oder nVidia eine eigene Geforce einbaut. Die sind alle in einem großen Haifischbecken und müssen um das Überleben kämpfen.


Richtig, aber ein Newcomer muss erstmal seinen Qualitäten zeigen. Das haben die großen Firmen schon lange getan. Eben nicht durch Marketing, sondern durch Support, Entwicklerprogramme, Software und anderen Technologien. NV ist ein kleiner Fisch. Qualcomm macht einen riesigen Umsatz, größtenteils durch SOCs.

Sie sind etabliert. Tegra ist ein Name, der heute eine Bedeutung hat. Und das haben sie im Grunde nur mit einem SoC geschafft - Tegra2.

T2 war zum Glück 3 Monate vor der Konkurrenz am Start. Das hat gereicht um ihn für Honeycomb als Leadplatform zu nehmen. Das ist tatsächlich ein ziemlicher großer Deal, aber damit wird man (noch) nie mit TI oder Qualcomm gleichziehen. Das wird noch seine Zeit dauern.


€:- und entsprechendem Entwicklersupport. Auch da mach ich mir bei Nvidia langfristig keine Sorgen.Dort haben sie eine sehr gute Abteilung, die halt noch ein wenig mehr in Richtung Embedded gepusht werden muss. Hier spielt aber die Zeit für Nvidia. Langfristig werden die Grenzen zwischen dem was heute ein SoC ist und dem was heute eine PC CPU ist verschwimmen. Im PC und Computing Bereich ist Ihr Developer Relations schon sehr gut.

Ahja, NV mit seinem super Support. Das mag im Profibereich und beim Treiberteam auf dem Desktop so sein. Nicht im SOC-Bereich. Hier hat NV seit über 3 Jahren nur heiße Luft geliefert. Aber es sieht tatsächlich so aus, als ob sich da langsam was ändert.

LovesuckZ
2011-06-06, 13:06:45
Richtig, aber ein Newcomer muss erstmal seinen Qualitäten zeigen. Das haben die großen Firmen schon lange getan. Eben nicht durch Marketing, sondern durch Support, Entwicklerprogramme, Software und anderen Technologien. NV ist ein kleiner Fisch. Qualcomm macht einen riesigen Umsatz, größtenteils durch SOCs.

Natürlich. Aber nVidia hat auch nur einem SoC für das High-End und keine Vergangenheit - wenn man mal vom Zune HD und den Kin Telefonen absieht...


T2 war zum Glück 3 Monate vor der Konkurrenz am Start. Das hat gereicht um ihn für Honeycomb als Leadplatform zu nehmen. Das ist tatsächlich ein ziemlicher großer Deal, aber damit wird man (noch) nie mit TI oder Qualcomm gleichziehen. Das wird noch seine Zeit dauern.

T2 war knapp 6 Monate früher verfügbar. Die Time-To-Market Zeit war dermaßen kürzer als bei Qualcomm und TI. Vollkommen unabhängig ob Smartphones oder Tablets. Und natürlich zieht nVidia damit nicht gleich. Das müssen sie auch garnicht. Mindshare baut man durch's High-End auf. Das machen sie zur Zeit mit Tegra. Nur High-End, nur das beste.

Hugo78
2011-06-06, 13:16:34
Die Diesize ist bei SOCs ziemlich nachrangig. Für den Hersteller zwar nicht, aber für die Kunden schon(vorallem, da es noch viele andere Kosten als den SOC gibt).

Und NV ist Hersteller ... ergo ... ;D

Sony und Samsung können es sich in erster Linie leisten mit einem komplett eigenem LineUp auf den Markt zu gehen. Das sind einfach riesige Konzerne die alles mögliche Verkaufen.

Na wenn ich mir Samsung so anschaue, die führen auch nur das weiter, wo sie irgendwann auch mal Gewinn mit machen bzw. wo sie wachsen können.
Die Festplattensparte wird ja nicht umsonst an Western Digital veräussert.
Sony macht schon seit mehreren Quartalen kein Gewinn mehr, mit den ~3,6 Mrd. USD Verlust aus 2009 & 2010 ... nun ja.

Also aus Nvidias Position heraus sind sie heute gut beraten, ihr SoC so klein und günstig zuhalten und nicht in einen, nochmal 50% (im vergleich zu T3) größeren,
reinen Presige-Schwanzvergleich Chip zuinvestieren, nur um auch noch im letzten Benchmark ein paar Pünktchen vor allen anderen zusein.
Richtig ist natürlich das sie möglichst jede Funktion die ein Handy/Tablet/Netbook brauchen könnte, in ihr SoC einbauen und dabei günstig bleiben.

Xmas
2011-06-06, 13:29:13
GLBenchmark 2.0 sind nach vielem aus, den Begriff "schön" würde ich jedoch nicht dafür verwenden.
Mit Qualität meinte ich nicht einmal Schönheit, obwohl auch da einiges im Argen liegt. Das meiste was es unter Android so als "Benchmark" gibt ist technisch Schrott und als Benchmark schlicht ungeeignet.

Für den Kunden nicht, aber für die Unternehmen bzgl. der angestrebten Marge und den OEM, der im schlimmsten Fall Mehrkosten haben könnte.
Mit Kunden meinte ich die Kunden der SoC-Hersteller.

Nakai
2011-06-06, 13:32:29
Und NV ist Hersteller ... ergo ...


Es sollte klar sein, dass ich hier Endprodukthersteller gemeint habe. Oder baut NV Smartphones oder Tablets?:freak:

Also aus Nvidias Position heraus sind sie heute gut beraten, ihr SoC so klein und günstig zuhalten und nicht in einen, nochmal 50% (im vergleich zu T3) größeren,
reinen Presige-Schwanzvergleich Chip zuinvestieren, nur um auch noch im letzten Benchmark ein paar Pünktchen vor allen anderen zusein.
Richtig ist natürlich das sie möglichst jede Funktion die ein Handy/Tablet/Netbook brauchen könnte, in ihr SoC einbauen und dabei günstig bleiben.

Wann begreift ihr endlich, dass beim SOC die Hardware nur einen nebenrangigen Teil ausmacht? Siehe Qualcomm.

Ailuros
2011-06-06, 15:05:29
Tegra 3 wird mindestens gleichwertig zum iPad 2 und die Produkte erscheinen noch dieses Jahr.

Hut ab falls es NV schaffen sollte. Nichtdestominder aber ist der Unterschied schon ziemlich gross.

Nur werden aus den Techdemos fertige Spiele.
Und eine Techdemo ist immer noch besser als gar nix vorzuzeigen. Aber PoverVR ist ja so supertoll, das muss nicht einmal bewiesen werden, die Erde ist ja schließlich auch eine Scheibe.

Infinity Blade wie robbitop schon erwaehnte ist alles andere als schlecht wenn es zur Optik kommt; was besonderes von der gameplay Seite zwar nicht, aber man sollte von $9 Spielchen auch nicht mehr erwarten. Genauso das Epic Citadel demo auf der engine auch Infinity Blad basiert.


Bis Windows 8 rauskommt, gibt es schon Tegra 4. Aber du hast natürlich die Glaskugel und weißt schon wie dieser Chip in allen Details aussehen wird und wie er auch im Vergleich zu PowerVR Produkten dastehen wird. :ulol:

Tegra4 soll laut NV's eigener roadmap 2x Mal schneller sein als Tegra3 und das ingesamt als SoC. Zwar wuerde ich schaetzen dass T4 in Geraeten frueher erscheinen koennte als ST Erricsson's A9600, aber das Ding ist minimal DX10 kompliant und setzt sich zich Male sogar vor dem MP2 im A5 ab.

Und ich weiß auch nicht aus welchen Paralleluniversum du kommst, aber auf Android gibt es schon seit Ewigkeiten, Spiele in breiter Menge verfügbar. Und die mit der besten Optik, sind wie schon von mir geschrieben, Tegra 2 exklusiv. Du kannst dir Ja die Tegra Zone Anwendung im Android Market runterladen, da siehst du alle Titel. Aber der große Android Experte und 3D Uberguru hat wahrscheinlich nicht mal ein entsprechendes Endgerät.

Man kann seine Meinung auch ohne direkte oder indirekte Beleidigungen illustrieren.

Auch hier wieder: aus welchen Parallel Universum kommst du? nVidia ist in diesen Markt erst seit kurzem überhaupt vertreten und treibt auch die Mitbewerber rein gar nicht an. ARM Mali, Qualcomm Adreno, PowerVR SGX und RGX und wie sie nicht alle heißen wären in ihrer jetzigen Form auch komplett ohne Nvidia auf dem Markt.

Hmmm ohne NVIDIA wuerden die Semi Hersteller in letzter Zeit nicht so stark ihre roadmaps auf schnelleren Trab bringen. Das ist eben der Vorteil NVIDIA als Konkurrent in einem Markt zu haben.

Den einzigen den man da was zu gute halten kann, ist Apple die mit ihren Endkundengeräten aufwendige 3D Spiele auf Smartphones salonfähig gemacht haben. Damit haben sie den Markt wichtige Impulse gegeben. Darauf haben dann auch weitere ARM SoC Produzenten stärkere 3D IPs lizensiert, die aber eh schon auf Halde waren.

Apple hat erstmal den meisten grossen Smart-phone Herstellern das Leben schwer gemacht. Und nein es mag zwar eine Tatsache sein, aber egal was sich jeder denken moechte, ich bin damit im Grunde nicht unbedingt zufrieden. Mir sind Apple's smart-phones erstmal viel zu teuer und ich kann bei bestem Willen nicht verstehen wie ein tablet sogar billiger sein kann.

Auf jeden Fall stimme ich Dir schon zu dass andere ausserhalb Apple schon so oder so ihre eigenen road-maps hatten und haben und die staerkere Konzentration auf 3D eher eine generelle Tendenz ist.

Huch, wirklich? Einzig Firmen wie Samsung, Apple oder auch Sony können das behaupten. Die produzieren nur für ihre eigenen Produkte. Alle anderen sind in einem Konkurrenzkamp um jeden Cent. Da spielt Die-Size eine erhebliche Rolle.

Je hoeher die Anzahl der SoC Bestellung desto mehr kann ein Auftraggeber fuer kleinere Preise erpressen. Ich hab zwar keinen Durchblick was Apple und Samsung genau fuer ein Gezanke haben (oder besser ausgedrueckt das eigentliche "warum" dass dahinter steckt), aber ein Zufall kann das eher alberne gerichtliche hin und her (welches Apple ansteuerte) auch nicht gerade sein.

Wie dem auch sei Apple kann sich solche die Groessen leisten, gerade eben weil sie in Uebermengen vorbestellen. Es ist ja auch nicht gerade so dass Samsung ihre eigenen SoCs in Uebermengen herstellen kann momentan und man braucht sich nicht lange wundern warum. Genau deshalb stellt auch Samsung die Austin Texas foundry auf die Beine.

Wenn jemand bei NV nur das minimum an 100.000 SoCs bestellt dann sollte es wohl klar sein dass der Preis nicht so gut sein wird wie bei N Mio Einheiten. Bei 100k wird wohl NV gerechtfertigt auch den "vollen" ~$30 Preis verlangen.


Die Konkurrenz optimiert doch auf z.B. auf den GLBenchmark. Deswegen ist dieser auch sinnlos geworden. Eher sollte man Benchmarks nehmen, die nicht bekannt sind.

Hoffentlich nicht etwas wie IHV spezifische benchmarks denn da wuerde es mir egal von wem schaudern. Ich hab es schon oefters gesagt und ueberhaupt Anand dass sie ISVs dazu treiben sollten echte Spielmessungen anzulegen. IHVs muessen natuerlich auch in die Richtung druecken.


Ahja, NV mit seinem super Support. Das mag im Profibereich und beim Treiberteam auf dem Desktop so sein. Nicht im SOC-Bereich. Hier hat NV seit über 3 Jahren nur heiße Luft geliefert. Aber es sieht tatsächlich so aus, als ob sich da langsam was ändert.

NV bietet tatsaechlich ausgezeichnete Treiber und Unterstuetzung fuer ihre SoCs. Und genau dieses ist ein sehr wichtiger Vorteil fuer sie den sie auch dementsprechend ausnuetzen werden wenn sie sich an jeglichen potentiellen Partner wenden um X zu verkaufen.

Von dem wenigen was ich gehoert habe ist Samsung gerade wegen dem obrigen sehr zufrieden mit T2. Was man aber im Hintergrund fuer andere nicht hoeren wird, wobei es ziemlich schnell bei Samsung wieder eine Wendung geben koennte.

http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro20&D=Samsung+SHV-E110S&testgroup=gl

....und wohl nicht nur der einzige. Kurz: der gesamte SoC ist so verdammt kompliziert dass man als einfacher Beobachter fast NIE alles vorhersehen kann und auch Fehler vermeiden. IMHO wird der embedded Markt weiterhin brutal skalieren (ueberhaupt der smart-phone Markt) aber nach etlichen hin und her werden auch nicht alle am Ende ueberleben koennen. NV liegt IMO nicht im Raum der moeglichen Verlierer; ganz im Gegenteil. Wo ich zickig werde ist dass es sich grosse Semis in diesem Markt selber erlauben werden dass ihnen NV zu viel von ihrem Butterbrot abbeisst. NV's eigentliches Ziel ist wohl eher Projekt Denver und low end PC/notebook via SoCs. Da gibt es auch viel mehr zu verdienen fuer NV als irgendwo anders. Ueberhaupt gegen Intel und heutzutage wo Intel links und rechts fett blechen musste um Klagen zu umgehen die sie garantiert verloren haetten.

fondness
2011-06-06, 15:38:19
Tegra 3 wird mindestens gleichwertig zum iPad 2 und die Produkte erscheinen noch dieses Jahr.

Nicht mal annähernd was die GPU betrifft. Das iPad2 hat eine DX10.1 kompatible GPU onboard, davon ist Tegar meilenweit entfernt. Und es sieht nicht so aus als ob sich da bei Tegar 3 was ändern wird. Dazu nur ein 32bit SI vs. 64 bit beim A5, was auch nicht gerade für eine performate GPU spricht.


Bis Windows 8 rauskommt, gibt es schon Tegra 4. Aber du hast natürlich die Glaskugel und weißt schon wie dieser Chip in allen Details aussehen wird und wie er auch im Vergleich zu PowerVR Produkten dastehen wird.
Und ich weiß auch nicht aus welchen Paralleluniversum du kommst, aber auf Android gibt es schon seit Ewigkeiten, Spiele in breiter Menge verfügbar. Und die mit der besten Optik, sind wie schon von mir geschrieben, Tegra 2 exklusiv. Du kannst dir Ja die Tegra Zone Anwendung im Android Market runterladen, da siehst du alle Titel. Aber der große Android Experte und 3D Uberguru hat wahrscheinlich nicht mal ein entsprechendes Endgerät.


Coda hat hier einfach recht sorry. Da braucht man auch nicht ausfallend zu werden deshalb. Alleine schon wenn ich die zwei GPUs vergleiche und die eine ist voll DX10.1 kompatibel und die andere erfüllt streng genommen nicht mal die SM2 Specs dann sind das einfach Welten. Vorallem da ja auch die Leistung klar besser ist.

LovesuckZ
2011-06-06, 15:48:34
Mit Qualität meinte ich nicht einmal Schönheit, obwohl auch da einiges im Argen liegt. Das meiste was es unter Android so als "Benchmark" gibt ist technisch Schrott und als Benchmark schlicht ungeeignet.

Das ändert aber nichts an der tatsache, dass die Firmen auf den GLBenchmark optimieren und die Leistungsfähigkeit sich nicht zwangsläufig in anderen Benchmarks bzw. Anwendungen widerspiegeln muss. Und vorallem für den Android-Markt wird man sowieso auf den kleinsten gemeinsamen Nenner hinarbeiten. Und das wird wohl oder über "technischer Schrott" sein.


Mit Kunden meinte ich die Kunden der SoC-Hersteller.

Und die müssen die Mehrkosten im schlimmsten Fall tragen. Dann ist es doch nur logisch, dass die sich für den SoC entscheiden, der am Ende günstiger zu kaufen ist.

Xmas
2011-06-06, 16:39:19
Das ändert aber nichts an der tatsache, dass die Firmen auf den GLBenchmark optimieren und die Leistungsfähigkeit sich nicht zwangsläufig in anderen Benchmarks bzw. Anwendungen widerspiegeln muss.
Letzteres kann auf jeden Benchmark zutreffen, besonders aber auf jene die völlig realitätsfern sind. Deswegen ist das Nutzen von Benchmarks die nicht bekannt sind eben auch keine gute Idee.

Und die müssen die Mehrkosten im schlimmsten Fall tragen. Dann ist es doch nur logisch, dass die sich für den SoC entscheiden, der am Ende günstiger zu kaufen ist.
Und das ist am Ende nicht zwangsläufig der Kleinere.

Hugo78
2011-06-06, 17:15:00
Es sollte klar sein, dass ich hier Endprodukthersteller gemeint habe. Oder baut NV Smartphones oder Tablets?:freak:

Was du mit Kunde und Hersteller meintest, war in der Tat nicht klar.
Bei Kunde denke ich an die Käufer des SoC (zb. LG, Motorola, Medion), nicht an die Verbraucher.


Wann begreift ihr endlich, dass beim SOC die Hardware nur einen nebenrangigen Teil ausmacht? Siehe Qualcomm.

10-15% klingt sicher erstmal nicht viel, aber in der Kalkulation für die Massenproduktion, schaut doch dann jeder auf jeden Cent und dann sind $10 mehr oder weniger, alles andere als nebenrangig.

Und das ist am Ende nicht zwangsläufig der Kleinere.

Wenn man ne riesige Stückzahl fährt wie Apple sicher nicht.
Nur wer ausser Apple tut das schon ?!

LovesuckZ
2011-06-06, 17:18:31
Letzteres kann auf jeden Benchmark zutreffen, besonders aber auf jene die völlig realitätsfern sind. Deswegen ist das Nutzen von Benchmarks die nicht bekannt sind eben auch keine gute Idee.

Ich sehe das Problem nicht. Der GLBenchmark nimmt eine Rolle ein, die man nur noch vom 3DMark2003 kennt: Ein Benchmark, um die generelle Leistungsfähigkeit zu bewerten. Und jetzt wird natürlich auf diesen bis zum Tode optimiert. Unbekannte Benchmark bieten da wesentlich mehr Aussagekraft, da sie den aktuellen Zustand der Treiber zeigen. Also den Zustand, den man erhält, wenn man Spiele verwendet.


Und das ist am Ende nicht zwangsläufig der Kleinere.

Natürlich. Aber die Größe hat entscheidenen Anteil daran, wie am Ende der Preis aussieht. Und je stärker der Konkurrenzkampf, umso wichtiger kann dann die Größe werden.

Nakai
2011-06-06, 19:21:06
NV bietet tatsaechlich ausgezeichnete Treiber und Unterstuetzung fuer ihre SoCs. Und genau dieses ist ein sehr wichtiger Vorteil fuer sie den sie auch dementsprechend ausnuetzen werden wenn sie sich an jeglichen potentiellen Partner wenden um X zu verkaufen.

Tatsächlich?
Ich hoffe das macht NV nicht erst seit Honeycomb, denn da hab ich vor längerer Zeit was ganz anderes gehört.

10-15% klingt sicher erstmal nicht viel, aber in der Kalkulation für die Massenproduktion, schaut doch dann jeder auf jeden Cent und dann sind $10 mehr oder weniger, alles andere als nebenrangig.


Es ist auch verdammt wichtig, gute Deals zu bekommen. Und da ist die Diesize und die Kosten zwar ein Faktor. Aber der kann durch andere Sachen noch beeinflusst werden. Dass die Diesize auch die Kosten beinflussen, sollte natürlich klar sein, nur ist es nicht das einzige.

Natürlich. Aber die Größe hat entscheidenen Anteil daran, wie am Ende der Preis aussieht. Und je stärker der Konkurrenzkampf, umso wichtiger kann dann die Größe werden.

Ack.


mfg

Ailuros
2011-06-06, 20:01:23
Nicht mal annähernd was die GPU betrifft. Das iPad2 hat eine DX10.1 kompatible GPU onboard, davon ist Tegar meilenweit entfernt. Und es sieht nicht so aus als ob sich da bei Tegar 3 was ändern wird. Dazu nur ein 32bit SI vs. 64 bit beim A5, was auch nicht gerade für eine performate GPU spricht.

SGX543MP2 im A5 ist DX9.0c+ und nicht DX10.1.

fondness
2011-06-06, 20:05:40
SGX543MP2 im A5 ist DX9.0c+ und nicht DX10.1.

Ehrlich? Dann nehme ich das natürlich zurück. Keine Ahnung wo ich das DX10.1 aufgeschnappt habe.

Ailuros
2011-06-06, 20:35:57
Was du mit Kunde und Hersteller meintest, war in der Tat nicht klar.
Bei Kunde denke ich an die Käufer des SoC (zb. LG, Motorola, Medion), nicht an die Verbraucher.

SoC Hersteller koennen auch von anderen Semis fertige SoCs einkaufen. Obwohl Samsung ein verzwicktes Beispiel ist, Samsung hat momentan neben ihren eigenen Exynos und S5PC1x0 SoC, Tegra2, OMAP3 und MSM8x5 im Angebot.

Wenn man ne riesige Stückzahl fährt wie Apple sicher nicht.
Nur wer ausser Apple tut das schon ?!

NOKIA; hier konzentrieren sie sich wie auch jeder Hersteller auf mehrere Technologie-Quellen. Momentan zieht bei NOKIA Qualcomm den laengeren.

Ehrlich? Dann nehme ich das natürlich zurück. Keine Ahnung wo ich das DX10.1 aufgeschnappt habe.

SGX545 (Intel GMA700) ist DX10.1, OGL3.1 kompliant.

Tatsächlich?
Ich hoffe das macht NV nicht erst seit Honeycomb, denn da hab ich vor längerer Zeit was ganz anderes gehört.

Tegra1 Zeiten? Keine Ahnung.

Es ist auch verdammt wichtig, gute Deals zu bekommen. Und da ist die Diesize und die Kosten zwar ein Faktor. Aber der kann durch andere Sachen noch beeinflusst werden. Dass die Diesize auch die Kosten beinflussen, sollte natürlich klar sein, nur ist es nicht das einzige.

Apple verkauft nicht an dritte und so lange ihr BOM immer noch so niedrig liegt dass sie davon nur Geld schaufeln ist es ziemlich wurscht. Ueberhaupt wenn der SoC bis jetzt in 4 verschiedenen Geraeten erscheint und in der absehbaren Zukunft mehr.

Tegra3 wird generell ein um einiges besser werden als SoC, weil man cores diesmal unabhaengig takten kann, NEON wohl doch von Anfang an haette drinstecken sollen usw. usw. Das warum ist jetzt nicht das Thema, das Thema ist dass bei solchen eher albernen Vergleichen was Apple/Intrisity genau fuer A5 gewidmet hat. Es gibt im gesamten SoC so viele und fette caches fuer alles. Das bedauernswerte mit Apple ist eben dass sie dank ihrer Sturheit ihre eigene hw absichtlich kastrieren, wie z.B. mit dem flash Zeug.

T2 hatte seinen tape out in 2008 und kam erst 1Q2010 zur Produktion. Komischerweise zeitgleich mit Fermi und wehe wer sich boeses dabei denkt. Es waere wohl eher Material fuer Charlie's Hass-artikel; insgesamt ist T2 alles andere als ein schlechter SoC und schon gar nicht die GPU Treiber. Es eben nur nicht das Ueberdingsda dass NV's marketing stets andrehen will.

steve.it
2011-06-06, 22:27:49
Das bedauernswerte mit Apple ist eben dass sie dank ihrer Sturheit ihre eigene hw absichtlich kastrieren, wie z.B. mit dem flash Zeug.
Mir ist klar was du meinst und dem will ich grundsätzlich nicht widersprechen, nur ist das Beispiel schlecht.
Die Verweigerung gegenüber Adobe Flash ist einer der besten Dinge, die Apple jemals gemacht hat. Fand ich von Anfang an eine geniale Entscheidung. Nur so wird man den Rotz los.

AwesomeSauce
2011-06-06, 23:21:54
Flash nicht zu unterstützen war keine technische Entscheidung, sondern eine ökonomische. An Web-Flash-Apps verdient Apple ja nichts. Das wird umso offensichtlicher, wenn man bedenkt, dass Flash-Apps verpackt in einer Adobe Air App problemlos im AppStore gekauft werden können.

Sorry, war OT...

steve.it
2011-06-07, 00:58:15
Natürlich war es zum Teil eine technische Entscheidung. Du kennst Apple schlecht.
Meinst du Apple macht sich von einem 3rd Party Plugin ohne Not abhängig (z.B. Sicherheitsupdate)? Das ist schon mal ein Punkt, neben weiteren...
"Crosscompiler" gab es bei der Einführung vom iPhone für den Adobe Kram übrigens noch nicht.

[/ot]

Ailuros
2011-06-07, 10:30:17
Dass Apple in Sachen Sicherheit extrem pingelig ist sollte klar sein. Bleibt mir aber bitte beim eigentlichen Thema oder macht einen getrennten Thread auf fuer solches Zeug. Ein getrennter Spekulations-thread ueber Google Android's road-map waere keine schlechte Idee.

Dural
2011-06-07, 17:00:08
Wie so wird da von den bekannten User immer wieder bewusst ignoriert das in T2 nur die GPU von T1 verwendet wird?

Was erwartet man den bitte schön von so einer "alten" GPU?


Das T3 ganz offensichtlich jetzt endlich eine überarbeitet GPU mit sich bringt hat NV ja bestätigt. wie die genau aussehen wird, weis man aber ja noch nicht.

NV Ziel für ihre SoC dürfte ja wohl für jeder klar sein:
Die GPU soll gewisse Aufgaben der CPU übernehmen und so den ganzen SoC erheblich beschleunigen, die selbe Strategie wie bei den Desktop GPUs...

robbitop
2011-06-07, 17:03:04
T3 wird ebenfalls noch diese GPU mit ein paar mehr Einheiten haben. Die wirkliche Nachfolge USC-GPU kommt wohl erst in T4.

LovesuckZ
2011-06-07, 17:11:06
Ich bin der Überzeugung, dass GPGPU im Consumermarkt eher sterben als nochmal aufleben wird. Wozu auch? Dedizierte Prozessoren für einzelne Aufgaben sind wesentlich effizienter - siehe auch Intel - und nehmen kaum Platz ein. Wozu also die stromhungrige GPU-Einheiten verwenden?
Und im Notfall haut man eben mehr ARM-Kerne hinzu.

fondness
2011-06-07, 18:17:06
Ich bin der Überzeugung, dass GPGPU im Consumermarkt eher sterben als nochmal aufleben wird. Wozu auch? Dedizierte Prozessoren für einzelne Aufgaben sind wesentlich effizienter - siehe auch Intel - und nehmen kaum Platz ein. Wozu also die stromhungrige GPU-Einheiten verwenden?
Und im Notfall haut man eben mehr ARM-Kerne hinzu.

Du widersprichst dir ja schon selbst. Einerseits bist du der Überzeugung das dezidierte Einheiten wesentlich effizienter sind und andererseits forderst du für den "Notfall" general purpose ARM-Kerne. GPU-ALUs sind Stream-Prozessoren und damit wenn man so will spezialisiert für hoch parallele Aufgaben, dafür sind sie auch nicht stromhungrig, zumindest nicht im Verhältnis zur erbrachten Leistung.

Die Aussagen von dir ist so alt wie der PC an sich. Und irgend wann kam bei fast jeder dezidierten Einheit der Punkt wo es eben ineffizient wurde eine Einheit zu verbauen die nur Däumchen dreht und wartet bis sie vielleicht mal verwendet wird. Heute gibt es keine dezidierten Vertex-Shader, keine T&L-Einheit, etc mehr - um ein paar prominente Beispiele zu nennen. Und Intels GPUs sind nicht mal GPGPU-fähig, somit schlechter Vergleich.

Coda
2011-06-07, 18:28:02
Ich bin der Überzeugung, dass GPGPU im Consumermarkt eher sterben als nochmal aufleben wird. Wozu auch? Dedizierte Prozessoren für einzelne Aufgaben sind wesentlich effizienter - siehe auch Intel - und nehmen kaum Platz ein. Wozu also die stromhungrige GPU-Einheiten verwenden?
Und im Notfall haut man eben mehr ARM-Kerne hinzu.
Die Aussage werde ich dir in ein paar Jahren genüsslich ins Gesicht reiben können.

Xmas
2011-06-08, 01:38:15
Ich sehe das Problem nicht. Der GLBenchmark nimmt eine Rolle ein, die man nur noch vom 3DMark2003 kennt: Ein Benchmark, um die generelle Leistungsfähigkeit zu bewerten. Und jetzt wird natürlich auf diesen bis zum Tode optimiert. Unbekannte Benchmark bieten da wesentlich mehr Aussagekraft, da sie den aktuellen Zustand der Treiber zeigen. Also den Zustand, den man erhält, wenn man Spiele verwendet.
Nein, ein unbekannter Benchmark hat eben keine Aussagekraft solange man nicht weiß ob das Gemessene überhaupt auch nur irgendetwas mit echten Spielen gemeinsam hat.

Abgesehen davon glaube ich nicht mal, dass auf GLBenchmark speziell viel optimiert wurde.

Natürlich. Aber die Größe hat entscheidenen Anteil daran, wie am Ende der Preis aussieht. Und je stärker der Konkurrenzkampf, umso wichtiger kann dann die Größe werden.
Kann, sicher. Ich wollte nur klarstellen dass nicht notwendigerweise insgesamt teurer ist, weil Waferfläche nur ein Kostenfaktor unter mehreren ist.

robbitop
2011-06-08, 09:37:38
Bei NV würde mich es nicht wundern, wenn viel für die allgemeinen Benches bereits optimiert wird. Es sind ja erst eine handvoll und wenn man sich ansieht, wie agressiv und professionell NV in diesen Markt hineinprescht (Treiberupdates bei 3.1, Techdemos!, Time-to-Market, straffe Roadmaps, viel Medienpräsenz mit Tegra, offenbar auch viel Dev Rel), so würde mich es wundern, wenn sie nicht für diese Benches optimieren.

AnarchX
2011-06-08, 11:08:12
Von NV gab es ja schonmal Balkenfolien T2-GPU VS SGX540: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8532733&postcount=505

robbitop
2011-06-08, 11:28:51
Ich vermute, dass bei gleichem Takt, gleiche Optimierung und gleichguten Treibern SGX540 eindeutig vorn liegt. (all diese Dinge sind bei aktuellen SGX540 Plattformen nämlich schlechter)

Ailuros
2011-06-08, 11:49:22
Ich bin der Überzeugung, dass GPGPU im Consumermarkt eher sterben als nochmal aufleben wird. Wozu auch? Dedizierte Prozessoren für einzelne Aufgaben sind wesentlich effizienter - siehe auch Intel - und nehmen kaum Platz ein. Wozu also die stromhungrige GPU-Einheiten verwenden?
Und im Notfall haut man eben mehr ARM-Kerne hinzu.

Fixed function Einheiten wie z.B. video decoder sind natuerlich stromsparender als jegliche GPU und noch mehr als jegliche CPU.

Im Notfall noch mehr ARM Kerne dazuzuhauen ist eben gerade das Gegenteil welches Du oben beschreibst.

Was jetzt GPGPU betrifft, bleibt abzusehen ob etwas daran liegt am Ende oder nicht. Der embedded Markt liegt zwar hinter dem desktop Markt aber der Abstand ist ziemlich klein. Wenn sich GPGPU im desktop Markt durchsetzt dann wird es sich im Laufe der Zeit im embedded Bereich durchsetzen.

Ich vermute, dass bei gleichem Takt, gleiche Optimierung und gleichguten Treibern SGX540 eindeutig vorn liegt. (all diese Dinge sind bei aktuellen SGX540 Plattformen nämlich schlechter)

Tegra3 ist auf jeden Fall nicht die Referenz-Platform fuer Google Ice Cream Sandwich.

LovesuckZ
2011-06-10, 11:07:12
Motorola hat neue Smartphones angekündigt, u.a. ein weiteres mit Tegra. Damit hat nVidia 3 Designs bei Motorola und 1 (2 wenn man das T-Mobile Ding als einzelnes betrachtet) bei LG, die sich auf dem Markt befinden.
Qualcomm hat gerade mal 2 und TI immer noch eins. Nicht schlecht für eine Firma, dessen einzige Vertreter bis heute in den KIN enthalten waren.

Fixed function Einheiten wie z.B. video decoder sind natuerlich stromsparender als jegliche GPU und noch mehr als jegliche CPU.

Im Notfall noch mehr ARM Kerne dazuzuhauen ist eben gerade das Gegenteil welches Du oben beschreibst.


Die ARM Kerne benötigst du sowieso, weil ohne funktioniert es nicht. Und die Taktrate ist erheblich höher als bei den GPU-Einheiten. Immerhin 1-1,5GHz.
Daher ist es sinniger gleich auf dedizierte Prozessoren für spezifische Aufgaben zu gehen, die kaum Platz benötigen als eine riesige GPU zu verbauen, über die man alles laufen lässt. Und im Notfall können die ARM-Kerne entsprechend helfen.

Bucklew
2011-06-10, 11:15:46
Tegra3 wird wohl aus Techniksicht nichts großartig neues bieten, mehr nur ein Update des Tegra2 mit dem üblichen "Mehr" an Takt, Cores und Einheiten. Interessant wird erst Tegra4, gerade was die GPU angeht ;)

Dennoch wird Tegra3, zumindest für meinen Anwendungsfall, deutlich besser sein als Tegra2, dank (endlich!) Support für Highline-x264. Damit ist dann endlich kein Recoden der Videos notwendig. So ein Tablet wird es dann wohl werden ;)

Zocken tue ich eh nicht, von daher ist mir die CPU-Performance ansonsten wichtiger als die GPU. Aber damit stehe ich wohl fast alleine da, wenn ich mir manche Leute so anschaue. Auch wenn ich nicht verstehen kann, warum man solche Minispielchen kaufen sollte, statt sich einfach an den den PC zu setzen. Aber egal.

Tegra3 ist auf jeden Fall nicht die Referenz-Platform fuer Google Ice Cream Sandwich.
Gibt es überhaupt eine? Tegra3 wäre ja eh zu spät für Android 4.0, zumindest für kaufbare Produkte.

Dural
2011-06-10, 11:35:04
ich vermute jetzt auch das die T3 GPU techlevel mässig nicht viel mehr bieten wird als es jetzt schon T1+2 haben...

einer seits interessiert das in diesem SoC Markt keiner, erst recht nicht die Endkunden und anderer seits wird der exzellenten dev / treiber support bei NV das eh wieder raus holen!


ich finde es auch erstaunlich wie Medien präsent Tegra derzeit schon ist, man liest überall und immer wieder etwas von Tegra! das konnte NV halt schon immer gut ;)

LovesuckZ
2011-06-10, 11:38:32
Ich verstehe nicht das Problem. Die Geforce in Tegra3 wird mehr als nur konkurrenz fähig sein, wenn man sie mit TI, Samsung und Qualcomm vergleicht. Und das ist die Konkurrenz. Da muss man nicht über Techlevel und so reden.

Dural
2011-06-10, 11:42:10
nö es gibt ja auch kein Poblem!

und schnell genug wird sie sicher auch wenn NV die versprochene 3x mehr Power gegenüber T2 einhält!

Ailuros
2011-06-10, 13:22:21
Die ARM Kerne benötigst du sowieso, weil ohne funktioniert es nicht.

Sicher nur nehmen die 2*A9 (sans Neon) auf T2 schaetzungsweise um die =/>12mm2 ein. Mit den NEON cores in T3 duerfte der CPU Block vielleicht um die 8mm2 wachsen. Bei der These bleiben also noch =/>22mm2 uebrig. Video decoder wird anspruchsvoller und andere Peripherie nimmt auch noch zu, wobei ich den ULP GF block in T3 um die 20% groesser schaetze (zusaetzliche PS ALU + hoehere Frequenz + >2048*2048 Texturen-support in den TMUs etc.).

Und die Taktrate ist erheblich höher als bei den GPU-Einheiten. Immerhin 1-1,5GHz.
Daher ist es sinniger gleich auf dedizierte Prozessoren für spezifische Aufgaben zu gehen, die kaum Platz benötigen als eine riesige GPU zu verbauen, über die man alles laufen lässt. Und im Notfall können die ARM-Kerne entsprechend helfen.

Es wird nie alles auf der GPU verschleusst im Fall von groesseren GPU Bloecken in heutigen SoCs. Wenn man aber das Dilemma hat auf A5 X Aufgabe bei <250MHz auf die GPU zu schleussen anstatt <1GHz auf der CPU, gewinnt stets der erste Fall was Stromverbrauch betrifft dank niedrigerer Frequenz.

Uebrigens wird die ULP GF im T3 mit Wahrscheinlichkeit auch 1/4 des gesamten die estate einnehmen. Ich frage insgesamt lediglich was dagegen spricht dass der GPU block etwas groesser ausgefallen waere. Die VS ALU ist ohnehin schon FP32 und da das Prozentual von vertex shading in heutigen mobilen Applikationen immer noch ziemlich niedrig ist, hockt das Ding mehr als oefter nur dumm rum. Wenn nicht 80mm2 fuer den gesamten SoC dann halt 85mm2. Weltuntergang?

Dedizierte ff hw gibt es in allen SoCs; TI integriert ab OMAP4470 sogar dedizierte 2D cores welches auch eine sehr gute Idee ist.

Tegra3 wird wohl aus Techniksicht nichts großartig neues bieten, mehr nur ein Update des Tegra2 mit dem üblichen "Mehr" an Takt, Cores und Einheiten. Interessant wird erst Tegra4, gerade was die GPU angeht ;)

NV's roadmap zeigt dass Tegra3 bis zu 5x Mal schneller sein wird als T2 (insgesamt als SoC) und Tegra4 im Vergleich zu T2x ca. 10x. 10/5=2x zwischen T4 und T3. Was verpass ich gerade?

Ich verstehe nicht das Problem. Die Geforce in Tegra3 wird mehr als nur konkurrenz fähig sein, wenn man sie mit TI, Samsung und Qualcomm vergleicht. Und das ist die Konkurrenz. Da muss man nicht über Techlevel und so reden.

Braucht man natuerlich nicht ueberhaupt wenn Microsoft fuer win8 spezifischen Krimschkramsch vorraussetzen wird. Ich kann eher glauben dass NV mit Absicht ihre Tegra road-map so angelegt hat und wir werden frueher als projeziert positiv ueberrascht, als ob dass das Zeug was ich heute sehen kann stimmt.

Ich persoenlich haette ich es lieber wenn M$ aus dem embedded Markt die Finger weglaesst, aber wir werden es wohl nicht umgehen koennen. Egal ob Android oder iOS etc. handelt es sich um Linux basierende kernels; was mir jetzt in einem mobilen Geraet der winblows overhead gut machen soll kann ich bei bestem Willen nicht verstehen. Das bedauernde ist eben dabei dass Firmen entweder mitmachen muessen oder eventuell Verluste einbussen.

Mit dem Kopf durch die Wand was sw ecosystems betrifft ist NOKIA und am Ende waren sie doch gezwungen als sie keinen Ausweg mehr hatten mit dem Teufel selber zu unterschreiben. Ja es ist alles etwas uebertrieben, aber Google muss sich verdammt anstrengen gegenueber der windows Welle. Und nein damit wir beim Thema selbst ein wenig bleiben, NVIDIA ist auf dem windows Zug schon ein Passagier.

Kurz es sollten Dich zukuenftige "unerwartete" Lizenzen seitens Qualcomm und auch Samsung nicht im geringsten wundern.

nö es gibt ja auch kein Poblem!

und schnell genug wird sie sicher auch wenn NV die versprochene 3x mehr Power gegenüber T2 einhält!

ULP GF@T2 max. 333MHz:

1 Vec4+1 PS ALU = 9 *0.33GHz = 2.97 GFLOPs * 3 = 8.91 GFLOPs
1 Vec4 VS ALU = 8 * 0.33GHz = 2.64 GFLOPs * 3 = 7.92 GFLOPs
2 TMUs * 333MHz = 666 MTexels/s * 3 = 1.99 GTexels/s
8 z/stencil * 333MHz = 2.66 GPixels/s * 3 = 7.98 GPixels/s

Natuerlich hat NV angebeben dass sie spaeter erklaeren werden worauf das "3x" Mal basiert, aber im Fall wo es tatsaechlich weiterhin um getrennte PS/VS ALUs handelt muesste die VS ALU auf nahezu 1GHz takten. Ich traue NV durchaus hotclocked ALUs zu in der Zukunft aber dann wohl erst mit USC ALUs. Das groesste Problem jedoch waere wie man die Texel-fuellrate verdreifacht. Eine Idee waere 8 TMUs@500MHz, aber diese dann auch noch mit 4k*4k Texturen koennten dann gleich 1/3 von den gesamten 80mm2 des SoCs reservieren.

Bucklew
2011-06-10, 13:45:00
NV's roadmap zeigt dass Tegra3 bis zu 5x Mal schneller sein wird als T2 (insgesamt als SoC) und Tegra4 im Vergleich zu T2x ca. 10x. 10/5=2x zwischen T4 und T3. Was verpass ich gerade?
Leistung sagt relativ wenig über die zugrunde liegende Technologie aus ;)

LovesuckZ
2011-06-10, 13:57:25
Sicher nur nehmen die 2*A9 (sans Neon) auf T2 schaetzungsweise um die =/>12mm2 ein. Mit den NEON cores in T3 duerfte der CPU Block vielleicht um die 8mm2 wachsen. Bei der These bleiben also noch =/>22mm2 uebrig. Video decoder wird anspruchsvoller und andere Peripherie nimmt auch noch zu, wobei ich den ULP GF block in T3 um die 20% groesser schaetze (zusaetzliche PS ALU + hoehere Frequenz + >2048*2048 Texturen-support in den TMUs etc.).

Die beiden A9 Core + Cache machen maximal 1/4 des Dies bei Tegra2 aus - also maximal 12,25mm^2. Wobei der Cache mehr als die Hälfte davon ausmacht. Die zwei zusätzlichen Kerne in Tegra3 sollten maximal 6mm^2 zusätzlichen Platzbedarf haben. Das ist wesentlich billiger als die komplette GPU so umzubauen, dass sie für GPGPU geeignet wäre.


Es wird nie alles auf der GPU verschleusst im Fall von groesseren GPU Bloecken in heutigen SoCs. Wenn man aber das Dilemma hat auf A5 X Aufgabe bei <250MHz auf die GPU zu schleussen anstatt <1GHz auf der CPU, gewinnt stets der erste Fall was Stromverbrauch betrifft dank niedrigerer Frequenz.

Ja - aber ich rede nicht von diesem extrem. Ich rede davon, dass man Extra-Prozessoren verwendet und im schlimmsten Fall die ARM-Kerne als Unterstützung.

ULP GF@T2 max. 333MHz:

1 Vec4+1 PS ALU = 9 *0.33GHz = 2.97 GFLOPs * 3 = 8.91 GFLOPs
1 Vec4 VS ALU = 8 * 0.33GHz = 2.64 GFLOPs * 3 = 7.92 GFLOPs
2 TMUs * 333MHz = 666 MTexels/s * 3 = 1.99 GTexels/s
8 z/stencil * 333MHz = 2.66 GPixels/s * 3 = 7.98 GPixels/s

Natuerlich hat NV angebeben dass sie spaeter erklaeren werden worauf das "3x" Mal basiert, aber im Fall wo es tatsaechlich weiterhin um getrennte PS/VS ALUs handelt muesste die VS ALU auf nahezu 1GHz takten.

Solange wie die heutigen SoCs nicht durch den VS limitiert sind, wird man eine 3x Steigerung hinbekommen. 2 PS + 50% höhrerer Takt.

Ailuros
2011-06-10, 14:38:25
Die beiden A9 Core + Cache machen maximal 1/4 des Dies bei Tegra2 aus - also maximal 12,25mm^2. Wobei der Cache mehr als die Hälfte davon ausmacht. Die zwei zusätzlichen Kerne in Tegra3 sollten maximal 6mm^2 zusätzlichen Platzbedarf haben. Das ist wesentlich billiger als die komplette GPU so umzubauen, dass sie für GPGPU geeignet wäre.

Ich komm mit meiner Milchmaedchenrechnung auf ~20mm2 fuer den CPU block im T3, Neon inklusive. Ergo wieder 1/4 schaetzungsweise vom gesamten SoC die estate.

Variable Taktung von CPU cores + NEON + GPGPU von der GPU sind schon heute eine Realitaet auf anderen SoCs. Ich hab mich nie auf eine entweder/oder Option bezogen.

Ja - aber ich rede nicht von diesem extrem. Ich rede davon, dass man Extra-Prozessoren verwendet und im schlimmsten Fall die ARM-Kerne als Unterstützung.

Und ich rede davon dass wenn X Aufgaben nicht auf ff hw schleussen kann und die GPU diese aufnehmen kann, ist der Stromverbrauch geringer als es auf einer hoch getakteten CPU zu verfrachten.

Solange wie die heutigen SoCs nicht durch den VS limitiert sind, wird man eine 3x Steigerung hinbekommen. 2 PS + 50% höhrerer Takt.

Ergo genauso relevant wie Apple's 9x mal GPU-Leistung Marketing-Bloedsinn zwischen A5 und A4. GFLOPs von sich selber bestimmen eben immer noch nicht von sich aus die Leistung einer GPU. Zumindest nicht mit einer theoretischen Steigerung der Texel-Fuellrate von nur 40% und dazu noch bei der Wahrscheinlichkeit von hoeheren als heutigen Aufloesungen.

|MatMan|
2011-06-10, 15:21:40
Das ist wesentlich billiger als die komplette GPU so umzubauen, dass sie für GPGPU geeignet wäre.
Die Tegra-GPU scheint in gewisser Weise schon GPGPU geeignet zu sein. Die Beispiele und das SDK hier (http://www.accelereyes.com/products/mobile) belegen das, auch wenn das Tennisspiel jetzt nicht unbedingt vom Hocker reißt.

PhysX 3.0 (http://blogs.nvidia.com/2011/06/nvidia-launches-physx-3-0-with-support-for-emerging-gaming-platforms/) wirbt zumindest für mobile Platformen wie Tablets und Smartphones und auch Android, aber nicht direkt mit Tegra. Das ist also vielleicht eher Zukunftsmusik...

VooDoo7mx
2011-06-12, 11:06:02
Motorola hat neue Smartphones angekündigt, u.a. ein weiteres mit Tegra. Damit hat nVidia 3 Designs bei Motorola und 1 (2 wenn man das T-Mobile Ding als einzelnes betrachtet) bei LG, die sich auf dem Markt befinden.
Qualcomm hat gerade mal 2 und TI immer noch eins. Nicht schlecht für eine Firma, dessen einzige Vertreter bis heute in den KIN enthalten waren.
ZuneHD hat auch Tegra 1. Hier (http://www.youtube.com/watch?v=CnLMuKK6KSY) gibt es ein Video eines 3D Spiels auf Zune HD. Dafpr das Tegra 2 schon superschrott ist, müsste Tegra 1 ja ultraschrott sein und trotzdem sieht dieses Spiel auf den Zune schon besser aus als 99% der aller Android Spiele. :ugly:
Tegra3 ist auf jeden Fall nicht die Referenz-Platform fuer Google Ice Cream Sandwich.
Lass mich bitte am deinen Zigeunerfertigkeiten teilhaben und kläre mich auf welche es denn ist.

PhysX 3.0 (http://blogs.nvidia.com/2011/06/nvidia-launches-physx-3-0-with-support-for-emerging-gaming-platforms/) wirbt zumindest für mobile Platformen wie Tablets und Smartphones und auch Android, aber nicht direkt mit Tegra. Das ist also vielleicht eher Zukunftsmusik...

PhysX auf mobilen Geräten nutzt keine Hardwarebeschleunigung.
Das einzige wo PhysX dies tut, ist auf Windows PCs mit nVidia Grafikkarten.

Screemer
2011-06-12, 20:32:33
ZuneHD hat auch Tegra 1. Hier (http://www.youtube.com/watch?v=CnLMuKK6KSY) gibt es ein Video eines 3D Spiels auf Zune HD. Dafpr das Tegra 2 schon superschrott ist, müsste Tegra 1 ja ultraschrott sein und trotzdem sieht dieses Spiel auf den Zune schon besser aus als 99% der aller Android Spiele. :ugly:
und was hat tegra damit zutun, dass 99% der android-spiele deiner meinung nach scheiße aussehen? die sehen auf nem tegra-androiden auch nicht besser aus nur weil er nen tegra nutzt... liegt ja wohl an den entwicklern wie die spiele aussehen. die gehen meist nach dem kleinsten gemeinsamen nenner und das ist nunmal nicht adreno220, sgx535 oder der geforce im tegra. leider ändert das auch nichts daran, dass letzterer featureseitig den aktuellsten qc-, imgtec-, arm-gpus unterlegen ist. deine logic will ich mal haben.

Ailuros
2011-06-12, 22:00:03
ZuneHD hat auch Tegra 1. Hier (http://www.youtube.com/watch?v=CnLMuKK6KSY) gibt es ein Video eines 3D Spiels auf Zune HD. Dafpr das Tegra 2 schon superschrott ist, müsste Tegra 1 ja ultraschrott sein und trotzdem sieht dieses Spiel auf den Zune schon besser aus als 99% der aller Android Spiele. :ugly:

Gut fuer Tegra1 *schulterzuck*

Lass mich bitte am deinen Zigeunerfertigkeiten teilhaben und kläre mich auf welche es denn ist.

Mit dem Ton gewiss nicht. Google ist Dein Freund.

PhysX auf mobilen Geräten nutzt keine Hardwarebeschleunigung.
Das einzige wo PhysX dies tut, ist auf Windows PCs mit nVidia Grafikkarten.

Da physics generell einen Haufen Resourcen fressen, ist es durchaus logischer fuer NV das Zeug vorruebersichtlich auf die CPU zu vefrachten, ueberhaupt da Tegra3 und 4 mit aller Wahrscheinlichkeit auf quad A9 CPUs basieren werden.

Ailuros
2011-06-13, 15:52:18
http://www.anandtech.com/show/4445/samsung-galaxy-tab-101-review

Bucklew
2011-06-13, 17:28:21
NVIDIA's Kal-El target was originally August, I've heard more recently that the date has slipped to around September. Regardless of the specific month, there's a high likelihood that within the next four months you'll be able to get a much more powerful Android tablet for the same amount of money you'd spend today.
Haben wollen :)

=Floi=
2011-06-13, 17:46:23
was kommt denn nach dem quad? SMT?

fondness
2011-06-13, 18:01:33
was kommt denn nach dem quad? SMT?

Das was auch schon jetzt wesentlich sinnvoller wäre: A15. Mehr als vier Threads machen in so einem mobilen Gerät wohl auf längere Sicht wenig Sinn, selbst die vier Threads halte ich vorerst für fragwürdig.

Ailuros
2011-06-14, 14:52:26
http://www.xbitlabs.com/news/mobile/display/20110613220141_Nvidia_Completes_Acquisition_of_Icera_Ready_to_Build_in_Modems_in to_Tegra.html

Ein viel wichtiger Schritt fuer NV als quad cores.

Hugo
2011-06-14, 20:44:39
http://www.xbitlabs.com/news/mobile/display/20110613220141_Nvidia_Completes_Acquisition_of_Icera_Ready_to_Build_in_Modems_in to_Tegra.html

Ein viel wichtiger Schritt fuer NV als quad cores.

sehe ich auch so, da können sie endlich mit Qualcomm gleichziehen. Bei dennen stecken die Modems ja auch im Snapdragon

Ailuros
2011-06-14, 23:14:42
sehe ich auch so, da können sie endlich mit Qualcomm gleichziehen. Bei dennen stecken die Modems ja auch im Snapdragon

Nicht nur das; Icera war eins der kleinen hochtaltentierten britischen Firmen.

http://www.nvidia.com/object/nvidia-icera.html

Tiamat
2011-06-15, 09:06:51
Ich bin gespannt darauf, ob es Kal-El mit der reinen CPU-Leistung von Llano aufnehmen kann ^^

Hugo
2011-06-15, 09:46:37
Nicht nur das; Icera war eins der kleinen hochtaltentierten britischen Firmen.

http://www.nvidia.com/object/nvidia-icera.html

Die Frage ist noch wie lang es dauert bis Icera Techniologie im Tegra steckt.
Wir wohl erst im Tegra4 wenn nicht sogar Tegra5 werden oder?

LovesuckZ
2011-06-15, 10:30:45
Es wird nie integriert werden. Das hat Huang schon angekündigt.

Hugo
2011-06-15, 10:37:19
also sollen die Icera chips extra verbaut werden?

LovesuckZ
2011-06-15, 10:40:05
also sollen die Icera chips extra verbaut werden?

Ja. Macht auch mehr Sinn. Man muss keinen unnötigen Platz für den Chip aufbringen und die Kunden zwingen, diesen Platz mitzubezahlen. Die Kunden haben weiterhin Freiheit, welchen Broadband Chip sie verwenden wollen. Und nVidia kann eine schnellere Time-To-Market mit Tegra garantieren.

tombman
2011-06-15, 17:09:02
Nice, Nvidia- immer schön am Ball bleiben :up:

Aber: "post pc-era" -> :(

LovesuckZ
2011-06-22, 16:03:25
Tegra 2 Nettop: http://fit-pc.co.uk/Meet_Fit_PC/Trimslice.html

Hugo78
2011-06-22, 17:00:22
Tegra 2 Nettop: http://fit-pc.co.uk/Meet_Fit_PC/Trimslice.html
Hmm, wenns dafür wenigstens schon ein passendes Linux geben würde, und man ne 2,5" SSD/HDD verbauen könnte, wäre es ne runde Sache.
Win8 Beta startet ja im Herbst ... schauen wir mal.
Bis dahin gibts das kleine Ding eventuell auch schon mit T3. :)

AnarchX
2011-07-04, 10:00:33
BSN mit Daten zu Wayne: http://www.brightsideofnews.com/news/2011/6/30/nvidias-28nm-wayne-tegra-to-come-in-two-versions.aspx

"Robin": 4x A15 + >=24 Cuda-Cores
"Batman": 8x A15 + 32-64 Cuda-Cores, DX11+

In passenden Anwendungen sollte der 8-Core-A15 es wohl mit mit Llano aufnehmen können?

robbitop
2011-07-04, 10:20:46
Naja die IPC von A15 schätze ich auf Bobcatniveau (oder kleiner) ein.
Und ab einer gewissen Anzahl von CPUs, bringt es keinen Vorteil mehr (Amdahls Law). Gerade im embedded Bereich. IMO sollte man 2-4 höher taktende A15 verbauen und dafür mehr Die-Area für die GPU investieren.

Hugo78
2011-07-04, 10:41:27
"Robin" als Dual Core für Handys, Quad für Tabs.
"Batman" wird aber sicher nicht mehr für Handys o.ä. entworfen sein.
Die Sparte der Net und (Sub-)Notebooks will ja auch bedient werden, sobald Win8 draußen ist. =)

robbitop
2011-07-04, 11:21:08
8x CPU Kerne mit einer (mit aktuellen CPUs verglichen) so niedrigen IPC und so niedrigen Taktraten machen IMO keinen Sinn. Wenn etwas schon so parallelisierbar ist, dass man 8x embedded CPUs beschäftigen kann, ist es idR keine sinnvolle Aufgabe für eine embedded CPU. Dann sollte eine richtige CPU oder eher eine GPU die Arbeit wesentlich produktiver erledigen.
Soetwas macht wohl kaum jemand auf einem Tablet oder einem Netbook.

fondness
2011-07-04, 11:26:28
8x CPU Kerne mit einer (mit aktuellen CPUs verglichen) so niedrigen IPC und so niedrigen Taktraten machen IMO keinen Sinn. Wenn etwas schon so parallelisierbar ist, dass man 8x embedded CPUs beschäftigen kann, ist es idR keine sinnvolle Aufgabe für eine embedded CPU. Dann sollte eine richtige CPU oder eher eine GPU die Arbeit wesentlich produktiver erledigen.
Soetwas macht wohl kaum jemand auf einem Tablet oder einem Netbook.

Sehe ich auch so. Zumal ich doch glaube das ein A15 noch ein ganzes Stück von einem Bobcat weg sein wird. Und da ARM von doppelten Transistorenbedarf von A15 ggü. A9 spricht kommen mir 8 Kerne auch etwas sehr viel vor, selbst in 28nm. Noch dazu mit einer angeblichen DX11-GPU.

LovesuckZ
2011-07-04, 14:04:39
BSN mit Daten zu Wayne: http://www.brightsideofnews.com/news/2011/6/30/nvidias-28nm-wayne-tegra-to-come-in-two-versions.aspx

"Robin": 4x A15 + >=24 Cuda-Cores
"Batman": 8x A15 + 32-64 Cuda-Cores, DX11+

In passenden Anwendungen sollte der 8-Core-A15 es wohl mit mit Llano aufnehmen können?

Fake.

8x CPU Kerne mit einer (mit aktuellen CPUs verglichen) so niedrigen IPC und so niedrigen Taktraten machen IMO keinen Sinn. Wenn etwas schon so parallelisierbar ist, dass man 8x embedded CPUs beschäftigen kann, ist es idR keine sinnvolle Aufgabe für eine embedded CPU. Dann sollte eine richtige CPU oder eher eine GPU die Arbeit wesentlich produktiver erledigen.
Soetwas macht wohl kaum jemand auf einem Tablet oder einem Netbook.

Die ARM Kerne laufen mit weitaus höhrerer Taktung. Bei Tegra2 sind es 1000Mhz gegenüber 333Mhz. Dazu kommt, dass die GPUs sehr viel Platz einnehmen - meisten weitaus mehr als die ARM Kerne.

Ailuros
2011-07-04, 21:46:31
BSN mit Daten zu Wayne: http://www.brightsideofnews.com/news/2011/6/30/nvidias-28nm-wayne-tegra-to-come-in-two-versions.aspx

"Robin": 4x A15 + >=24 Cuda-Cores
"Batman": 8x A15 + 32-64 Cuda-Cores, DX11+

In passenden Anwendungen sollte der 8-Core-A15 es wohl mit mit Llano aufnehmen können?

BSN= BullShitNews.

Sehe ich auch so. Zumal ich doch glaube das ein A15 noch ein ganzes Stück von einem Bobcat weg sein wird. Und da ARM von doppelten Transistorenbedarf von A15 ggü. A9 spricht kommen mir 8 Kerne auch etwas sehr viel vor, selbst in 28nm. Noch dazu mit einer angeblichen DX11-GPU.

Tegra4@28nm soll nach NV's roadmap 10x Mal schneller sein als Tegra2 (waehrend T3@40nm um 5x Mal schneller sein soll als Tegra2). Anders gelesen ist Tegra4 um 2x Mal schneller insgesamt als Tegra3. Da NVIDIA nicht zu den Eagle-A15 Lead Partners von ARM gehoert, miaut was genau auf dem Ziegeldach? 4x A9 bei um einiges hoeherer Frequenz als bei Tegra3 und etwas mehr Frequenz fuer die GPU (u.a.) und man kommt schon bei T3x2 an.

TI und ST Ericsson gehen in 2012 mit 2xA15 unter 28nm in die Startloecher mit extravaganten >2GHz Frequenzen. Da kann ein hochgetakteter quad A9 in T4 locker mithalten.

DX11 unter 28nm? yeahrightsureok.....

robbitop
2011-07-04, 22:19:48
In den meisten Apps wird ein Quadcore keine Vorteile ggü einem Dualcore bringen. A15 wird erheblich mehr IPC bringen. Bei gleichem Takt sehe ich in den meisten Fällen den A15 DC deutlich vor dem A9 QC.

Ailuros
2011-07-04, 23:47:33
In den meisten Apps wird ein Quadcore keine Vorteile ggü einem Dualcore bringen. A15 wird erheblich mehr IPC bringen. Bei gleichem Takt sehe ich in den meisten Fällen den A15 DC deutlich vor dem A9 QC.

A15 vs. A9 bei gleichem Takt =/>40%. Ist aber so oder so nebenwichtig; dass was hier anscheinend keiner bis jetzt daran denkt in diesem Thread ist das NVIDIA stets ein gutes Stueck voraus ist gegenueber der Konkurrenz. Integrierung ist zwar ausserhalb NV's Kontrolle, aber sie sind bis jetzt trotz allem jedesmal einen Schritt voraus. Nur wenn die Konkurrenz ihre road-maps auf Dampf setzt koennte es kritisch werden fuer NVIDIA. Es gibt zwar diverse Indizien dass die anderen in die Richtung arbeiten, aber es kann auch nicht ueber Nacht erreicht werden.

Kurz: zumindest was die CPU IP betrifft in Tegra SoCs braucht man sich vorruebergehend wohl keine besondere Sorgen machen. Es ist aber leider nur einer von vielen Prozessoren aus denen ein SoC besteht. Und nein es gibt hier keine Formel die sagt dass A,B oder C Prozessor/Einheit wichtiger ist als die andere. Ein guter SoC hat eine sehr gute Balance zwischen allen Einheiten und ein balanciertes sw Ecosystem.

Ein schlechter SoC ist Tegra2 durchaus nicht; aber eben IMHO auch nicht gerade etwas besonderes im Vergleich zu dem was die Konkurrenz hat. Schafft es jetzt die Konkurrenz langfristig ihre road-maps um ca. 8-12 Monate nach vorne zu ruecken, muss sich NV nach einem anderen Vorteil als die CPU umsehen. Genau der Punkt ueber den ich meckere und fuer den ich konstant gelyncht werde, denn ich bleibe bei meiner Meinung dass NV auf dem falschen Bein angefangen hat.

IVN
2011-07-05, 00:01:10
A15 vs. A9 bei gleichem Takt =/>40%. Ist aber so oder so nebenwichtig; dass was hier anscheinend keiner bis jetzt daran denkt in diesem Thread ist das NVIDIA stets ein gutes Stueck voraus ist gegenueber der Konkurrenz. Integrierung ist zwar ausserhalb NV's Kontrolle, aber sie sind bis jetzt trotz allem jedesmal einen Schritt voraus. Nur wenn die Konkurrenz ihre road-maps auf Dampf setzt koennte es kritisch werden fuer NVIDIA. Es gibt zwar diverse Indizien dass die anderen in die Richtung arbeiten, aber es kann auch nicht ueber Nacht erreicht werden.

Kurz: zumindest was die CPU IP betrifft in Tegra SoCs braucht man sich vorruebergehend wohl keine besondere Sorgen machen. Es ist aber leider nur einer von vielen Prozessoren aus denen ein SoC besteht. Und nein es gibt hier keine Formel die sagt dass A,B oder C Prozessor/Einheit wichtiger ist als die andere. Ein guter SoC hat eine sehr gute Balance zwischen allen Einheiten und ein balanciertes sw Ecosystem.

Ein schlechter SoC ist Tegra2 durchaus nicht; aber eben IMHO auch nicht gerade etwas besonderes im Vergleich zu dem was die Konkurrenz hat. Schafft es jetzt die Konkurrenz langfristig ihre road-maps um ca. 8-12 Monate nach vorne zu ruecken, muss sich NV nach einem anderen Vorteil als die CPU umsehen. Genau der Punkt ueber den ich meckere und fuer den ich konstant gelyncht werde, denn ich bleibe bei meiner Meinung dass NV auf dem falschen Bein angefangen hat.
Je mehr Zeit vergeht, umso besser ist Nv aufgestellt, nicht wahr? Immerhin haben sie schon den ganzen GPU-Tech, der erst mit den kommenden Herstellungsprozessen in die SoCs Einzug finden wird. In 2, 3 Jahren wird die Zeit für Nv reif sein ihre Unified-Archs in die Tegras einzubauen, und ab dem Zeitpunkt würde ich mir eher Sorgen für die anderen Unternehmen im SoC-Biz machen.

robbitop
2011-07-05, 00:11:34
Dito. NV ist verdammt gut darin, agressiv, pünktlich und regelmäßig zu liefern. Und zwar in kurzen Produktzyklen. Kombiniert mit gutem Dev-Rel und aggressivem Marketing ist NV absolut dazu fähig, Marktführer der nächsten Jahre in diesem bisher sehr behäbigen Business zu werden.
Dumm nur, dass der Markt nun erwacht ist. Gerade mit Qualcomm haben sie IMO einen Gegenspieler, der obiges mittlerweile auch recht gut beherrscht und sogar nochmehr selbst in der eigenen Hand hat, einen SoC zusammen zu bauen als NV.

Was embedded GPU Know How angeht, geht derzeit nichts über PowerVR. Sie haben mehr Erfahrung in diesem Bereich, sie haben sehr sehr effiziente Designs und sie haben den TBDR Vorteil, der in Umgebungen, die bandbreitenlimitiert sind, absolut von Vorteil sind.

Doch liefert PVR nur den GPU-Teil an Lizenznehmer. NV liefert sich selbst GPUs und designt den SoC und lässt ihn fertigen. Das ist ein Glied weniger in der Kette, was Time-to-Market verbessert!

Ailuros
2011-07-05, 00:33:35
Je mehr Zeit vergeht, umso besser ist Nv aufgestellt, nicht wahr?

Wenn Du Projekt Denver meinen solltest ab 20HP@TSMC dann ja denn AMD Fusion braucht eine anstaendige Konkurrenz die ich von Intel was die GPU Seite betrifft eher nicht erwarte.

Immerhin haben sie schon den ganzen GPU-Tech, der erst mit den kommenden Herstellungsprozessen in die SoCs Einzug finden wird. In 2, 3 Jahren wird die Zeit für Nv reif sein ihre Unified-Archs in die Tegras einzubauen, und ab dem Zeitpunkt würde ich mir eher Sorgen für die anderen Unternehmen im SoC-Biz machen.

Dazu muessen sie aber auch einen Weg finden viel mehr Faehigkeiten in jeden mm2 zu quetschen als bisher, sonst hinken sie den anderen stets hinterher.

Dito. NV ist verdammt gut darin, agressiv, pünktlich und regelmäßig zu liefern. Und zwar in kurzen Produktzyklen. Kombiniert mit gutem Dev-Rel und aggressivem Marketing ist NV absolut dazu fähig, Marktführer der nächsten Jahre in diesem bisher sehr behäbigen Business zu werden.
Dumm nur, dass der Markt nun erwacht ist. Gerade mit Qualcomm haben sie IMO einen Gegenspieler, der obiges mittlerweile auch recht gut beherrscht und sogar nochmehr selbst in der eigenen Hand hat, einen SoC zusammen zu bauen als NV.

Natuerlich hat Qualcomm eingesehen dass zusaetzliche Werbung nicht schadet und NV hat sie vielleicht auch indirekt dazu getrieben, aber Qualcomm's Kerngeschaeft sind smart-phone SoCs und daran wird sich wohl auch nicht viel aendern. Qualcomm hat ja auch ihre eigene angepasste CPU Entwicklung auf Basis von ARM CPU IP.

Was embedded GPU Know How angeht, geht derzeit nichts über PowerVR. Sie haben mehr Erfahrung in diesem Bereich, sie haben sehr sehr effiziente Designs und sie haben den TBDR Vorteil, der in Umgebungen, die bandbreitenlimitiert sind, absolut von Vorteil sind.

IMG's Portofolio begrenzt sich nicht nur auf GPU IP und die anderen Abteilungen von IMG werden zunehmend mehr IP in der Zukunft verkaufen, aber IP hat eben ueberhaupt nichts mit einem SoC Hersteller zu tun. Im Bereich GPU hat NV das Problem im Vergleich zum PowerVR dass der letztere mehr Faehigkeiten und mehr Leistung bei geringerem Stromverbrauch auf weniger mm2 quetschen kann. Ich erwarte auch nicht dass NV versucht hier auf irgend eine Art zu kontern, aber ihre ULP GF bleibt trotz allem zu bescheiden nach meinem Geschmack. Was hat das jetzt genau nochmal mit quad A9 vs. dual A15 gemeinsam?

Hugo
2011-07-05, 06:11:20
Wenn Du Projekt Denver meinen solltest ab 20HP@TSMC dann ja denn AMD Fusion braucht eine anstaendige Konkurrenz die ich von Intel was die GPU Seite betrifft eher nicht erwarte.



gibts denn was neues zum Projekt Denver?

LovesuckZ
2011-07-05, 11:34:02
Ein schlechter SoC ist Tegra2 durchaus nicht; aber eben IMHO auch nicht gerade etwas besonderes im Vergleich zu dem was die Konkurrenz hat.

Klar - wenn man einen SoC von August 2010 mit Neuerscheinungen aus April+ 2011 vergleicht. :lol:

Tegra2 ist selbst für sein Alter voll konkurrenzfähig. Weder TI noch Qualcomm haben einen deutlichen Schritt nach vorne getan, wenn man den zeitlichen Abstand betrachtet. Einzig Apple und Samsung sind aufgrund der GPU besser.

robbitop
2011-07-05, 11:42:49
Klar - wenn man einen SoC von August 2010 mit Neuerscheinungen aus April+ 2011 vergleicht. :lol:

Tegra2 ist selbst für sein Alter voll konkurrenzfähig. Weder TI noch Qualcomm haben einen deutlichen Schritt nach vorne getan, wenn man den zeitlichen Abstand betrachtet. Einzig Apple und Samsung sind aufgrund der GPU besser.
AiL spielt auf den Grafikteil an. Und der ist einfach rückständig, was seine Fähigkeiten angeht.
Das ist als würde man eine NV2x mit einem R5xx vergleichen. Natürlich kannst du NV2x auf das gleiche Geschwindigkeitsniveau wie R5xx bringen - und brauchst dafür natürlich auch weniger Transistoren - aber dafür kann die GPU einige sehr schöne Sachen eben noch nicht.
Und da liegt NV eben wirklich Jahre zurück. Aufholen werden sie erst, wenn endlich die unified GPU mal in die SoCs kommt.

LovesuckZ
2011-07-05, 11:46:48
Ja - weil es das einzige Argument ist. Und ein vollkommen belangloses.
Die Tegra 2 Spiele sehen toll aus. Mit die grafisch besten auf der Android-Plattform. Da interessieren mich die Fähigkeiten nicht. Dazu kommt, dass ein ARM-SoC auch für andere Dinge verwendet wird. Internet z.B. Und dort ist Tegra2 mehr als konkurrenzfähig trotz einem Markteintritt der 8 Monate vor Ti und fast 10 Monate vor Qualcomm lag.

Tegra 2 hat Probleme, genannt sei der schlechte Videodekoder. Aber die GPU-Leistung ist vollkommen ausreichend, da Android als Plattform sowieso noch viel zu jung ist, um sich darüber wirklich absetzen zu können.

fondness
2011-07-05, 11:47:08
AiL spielt auf den Grafikteil an. Und der ist einfach rückständig, was seine Fähigkeiten angeht.
Das ist als würde man eine NV2x mit einem R5xx vergleichen. Natürlich kannst du NV2x auf das gleiche Geschwindigkeitsniveau wie R5xx bringen - und brauchst dafür natürlich auch weniger Transistoren - aber dafür kann die GPU einige sehr schöne Sachen eben noch nicht.
Und da liegt NV eben wirklich Jahre zurück. Aufholen werden sie erst, wenn endlich die unified GPU mal in die SoCs kommt.

Auch die CPUs sind nicht gleichwertig.

robbitop
2011-07-05, 12:25:37
Ja - weil es das einzige Argument ist. Und ein vollkommen belangloses.
Die Tegra 2 Spiele sehen toll aus. Mit die grafisch besten auf der Android-Plattform. Da interessieren mich die Fähigkeiten nicht. Dazu kommt, dass ein ARM-SoC auch für andere Dinge verwendet wird. Internet z.B. Und dort ist Tegra2 mehr als konkurrenzfähig trotz einem Markteintritt der 8 Monate vor Ti und fast 10 Monate vor Qualcomm lag.

Tegra 2 hat Probleme, genannt sei der schlechte Videodekoder. Aber die GPU-Leistung ist vollkommen ausreichend, da Android als Plattform sowieso noch viel zu jung ist, um sich darüber wirklich absetzen zu können.
Android ist so fragmentiert, dass man wohl nie Spiele am Limit sehen wird - bei iOS ist das z.B. etwas anders.

IMO sollte man sowas aber nicht kleinreden. Denn Tegra ist diesmal eine Technologiebremse (alle anderen SoCs haben nämlich schon SM3).

Auch die CPUs sind nicht gleichwertig.
Wirklich? Was gibt es denn großartig besseres als einen Dualcore A9 im Moment im SoC Bereich? (und jetzt bitte nicht ein Handy mit ein paar Prozent mehr Takt nennen) ;)

fondness
2011-07-05, 12:33:49
Wirklich? Was gibt es denn großartig besseres als einen Dualcore A9 im Moment im SoC Bereich? (und jetzt bitte nicht ein Handy mit ein paar Prozent mehr Takt nennen) ;)

Die FPU ist in T2 nur rudimentär vorhanden. Neon hat man sich gespart. Power-Gatering hat man sich gespart. T2 hat nur so ziemlich die Minimal-Konfiguration was einen A9 betrifft. Dementsprechend landet T2 zB in Linpack in Bereichen von A8 SoCs.

LovesuckZ
2011-07-05, 12:47:39
IMO sollte man sowas aber nicht kleinreden. Denn Tegra ist diesmal eine Technologiebremse (alle anderen SoCs haben nämlich schon SM3).

Die Technologiebremse ist doch eher Android und die Offenheit. 3D Spiele gibt es kaum und wenn, dann interessiert es kaum, was alles so möglich ist. Und die Beispiele mit Tegra Zone Spiele zeigen, dass nVidia nicht die Bremse darstellt, sondern erstmal eine Firma auf dem Markt existiert, die Gaming on Android pusht.
Was macht denn TI, Qualcomm, Samsung und Co?

Die FPU ist in T2 nur rudimentär vorhanden. Neon hat man sich gespart. Power-Gatering hat man sich gespart. T2 hat nur so ziemlich die Minimal-Konfiguration was einen A9 betrifft. Dementsprechend landet T2 zB in Linpack in Bereichen von A8 SoCs.

Sowie Qualcomm mit ihren neuen DualCore Prozessoren auch.

Nakai
2011-07-05, 12:56:46
Sowie Qualcomm mit ihren neuen DualCore Prozessoren auch.

Welchen denn? Scorpion oder Krait?
Nur so nebenbei, selbst Scorpion(seit erstem Snapdragon, etwa Ende 2008) hat eine doppelt so breite NEON-FPU(128Bit).

BTW, Scorpion ist eher auf CortexA8-Niveau, bietet aber schon Fähigkeiten auf CortexA9-Niveau. Von den MIPS ist er eher zwischen A8 und A9.

LovesuckZ
2011-07-05, 13:09:44
Welchen denn? Scorpion oder Krait?
Nur so nebenbei, selbst Scorpion(seit erstem Snapdragon, etwa Ende 2008) hat eine doppelt so breite NEON-FPU(128Bit).

BTW, Scorpion ist eher auf CortexA8-Niveau, bietet aber schon Fähigkeiten auf CortexA9-Niveau. Von den MIPS ist er eher zwischen A8 und A9.

Snapdragon sowie Omap 4430 sind unter Android auf T2 Niveau. Der einzige SoC, der wirklich deutlich schneller ist, ist A5.

robbitop
2011-07-05, 13:10:52
Die Technologiebremse ist doch eher Android und die Offenheit.
Sowie Qualcomm mit ihren neuen DualCore Prozessoren auch.

Das schwächste Glied bestimmt aber nunmal. Und das bildet bei den aktuellen SoCs eindeutig NV vom Featureset der GPU.

Tiamat
2011-07-05, 13:13:30
Nvidia hat grad mal das erste Produkt auf dem Markt, was sich n bisl verkauft(nachdem Tegra 1 ein Flop war) und ihr fangt an zu motzen ;D
Wartet´s doch einmal ab, Kal-El kommt bald ;-)

hmx
2011-07-05, 13:14:03
Ja - weil es das einzige Argument ist. Und ein vollkommen belangloses.
Die Tegra 2 Spiele sehen toll aus. Mit die grafisch besten auf der Android-Plattform. Da interessieren mich die Fähigkeiten nicht. Dazu kommt, dass ein ARM-SoC auch für andere Dinge verwendet wird. Internet z.B. Und dort ist Tegra2 mehr als konkurrenzfähig trotz einem Markteintritt der 8 Monate vor Ti und fast 10 Monate vor Qualcomm lag.

Tegra 2 hat Probleme, genannt sei der schlechte Videodekoder. Aber die GPU-Leistung ist vollkommen ausreichend, da Android als Plattform sowieso noch viel zu jung ist, um sich darüber wirklich absetzen zu können.

Für Tabs ist es nicht ausreichend.
Die GPU wirkt mit der Darstellung der GUI bisweilen überfordert - man hat ab und zu ruckelige Animationen. Ansonsten habe ich neulich mal NFS Shift ausprobiert - und das läuft nicht flüssig.

Dural
2011-07-05, 13:21:19
wer sagt den das die ruckler durch die GPU entstehen?!?



T2 ist für sein "alter" mehr als OK :)


Hab ein T2 Tablet und ich finde das man da noch deutlich mehr Leistung haben dürfte, von wegen Quad Core braucht kein Mensch in einem Tablet! Besoderns die Ladezeiten finde ich schrecklich :rolleyes:

hmx
2011-07-05, 13:23:40
wer sagt den das die ruckler durch die GPU entstehen?!?



T2 ist für sein "alter" mehr als OK :)


Hab ein T2 Tablet und ich finde das man da noch deutlich mehr Leistung haben dürfte, von wegen Quad Core braucht kein Mensch in einem Tablet! Besoderns die Ladezeiten finde ich schrecklich :rolleyes:

Weil es sogar auf meinem Galaxy S flüssig läuft. Unterschied: Die Auflösung. Ruckeln durch höhere Auflösung ist GPU-bedingt.

IVN
2011-07-05, 13:24:00
wer sagt den das die ruckler durch die GPU entstehen?!?



T2 ist für sein "alter" mehr als OK :)


Hab ein T2 Tablet und ich finde das man da noch deutlich mehr Leistung haben dürfte, von wegen Quad Core braucht kein Mensch in einem Tablet! Besoderns die Ladezeiten finde ich schrecklich :rolleyes:
Ich denke nicht, das ein 4-Kerner etwas daran ändern wird.

Dural
2011-07-05, 13:43:06
Ich denke nicht, das ein 4-Kerner etwas daran ändern wird.

doch sicher, gerade wenn man gleichzeit mit mehreren programmen arbeitet ist die CPU gleich auf 100% auslastung und dann wird es echt mühsam. dann gibt es zb. auch die oben erwähnte ruckler die sicher in dem fall nichts mit der GPU zutun haben.

Weil es sogar auf meinem Galaxy S flüssig läuft. Unterschied: Die Auflösung. Ruckeln durch höhere Auflösung ist GPU-bedingt.

komplett andere Software basis, dies ist immer noch kein beweis :)

LovesuckZ
2011-07-05, 13:55:12
Das schwächste Glied bestimmt aber nunmal. Und das bildet bei den aktuellen SoCs eindeutig NV vom Featureset der GPU.

Ja - nVidia hat die schwächere GPU. Aber für Android reicht sie vollkommen aus, weil das Einstiegsniveau sehr gering ist/war. Deswegen ist T2 auch keine Technologiebremse, da der Punkt, andem T2 nicht mehr weiterkommt, noch nicht erreicht ist.

Für Tabs ist es nicht ausreichend.
Die GPU wirkt mit der Darstellung der GUI bisweilen überfordert - man hat ab und zu ruckelige Animationen. Ansonsten habe ich neulich mal NFS Shift ausprobiert - und das läuft nicht flüssig.

Vorsichtig: Die Oberfläche von 3.x scheint nicht vollständig GPU-beschleunigt zu sein. Mit hohem CPU Takt scrollt es sich angenehmer.
Auch bei den Spielen: Spiele müssen meisten auf eine neue SoC angepasst werden. Vorallem ältere machen im Normalzustand zicken.

hmx
2011-07-05, 14:49:30
komplett andere Software basis, dies ist immer noch kein beweis :)

Doch. Daran, dass eine hohe Auflösung die GPU fordert ändert auch andere SW nicht. Den Beweis solche Spiele in 1280*754 flüssig laufen zu lassen ist T2 bislang schuldig geblieben. Jede Wette, dass es in 800*480 flüssig laufen würde.




Vorsichtig: Die Oberfläche von 3.x scheint nicht vollständig GPU-beschleunigt zu sein. Mit hohem CPU Takt scrollt es sich angenehmer.
Auch bei den Spielen: Spiele müssen meisten auf eine neue SoC angepasst werden. Vorallem ältere machen im Normalzustand zicken.

Mag ja sein. Das ist aber nun mal der Ist-Zustand. Und da habe ich schon zu viele Versprechen von besserer Geschwindigkeit durch Updates und co miterlebt als dass ich da noch was glaube. Bislang ist HC sicher nicht unoptimiert für T2, es gibt ja im Prinzip nur Tablets damit. Und das Galaxy S mit dem SGX540 hat genau das gleiche Anpassungsproblem - das kann man in dem Spiel also schon vergleichen.


doch sicher, gerade wenn man gleichzeit mit mehreren programmen arbeitet ist die CPU gleich auf 100% auslastung und dann wird es echt mühsam. dann gibt es zb. auch die oben erwähnte ruckler die sicher in dem fall nichts mit der GPU zutun haben.






Es gibt auch Ruckler, die nicht dadurch hervorgerufen werden, dass viele Programme offen sind. Die sind aber noch ärgerlicher, denn die ersteren kann ich umgehen. Die anderen habe ich leider immer. Man wird sehen wie es endgültig mit HC3.1 aussieht - es soll sich ja gebessert haben, allerdings immer noch nicht perfekt sein.

LovesuckZ
2011-07-05, 15:04:54
Doch. Daran, dass eine hohe Auflösung die GPU fordert ändert auch andere SW nicht. Den Beweis solche Spiele in 1280*754 flüssig laufen zu lassen ist T2 bislang schuldig geblieben. Jede Wette, dass es in 800*480 flüssig laufen würde.

Nö, siehe die Tegra Zone Spiele.


Mag ja sein. Das ist aber nun mal der Ist-Zustand. Und da habe ich schon zu viele Versprechen von besserer Geschwindigkeit durch Updates und co miterlebt als dass ich da noch was glaube. Bislang ist HC sicher nicht unoptimiert für T2, es gibt ja im Prinzip nur Tablets damit. Und das Galaxy S mit dem SGX540 hat genau das gleiche Anpassungsproblem - das kann man in dem Spiel also schon vergleichen.

Was hat der IST-Zustand mit deiner Behauptung zu tun? Wenn die Oberfläche nicht vollständig GPU-beschleunigt ist, dann ist der IST-Zustand scheiße, aber eben nicht die Schuld der GPU.
Honeycomb ist auch anders als 2.x. Ist also nicht vergleichbar.

hmx
2011-07-05, 15:14:49
Nö, siehe die Tegra Zone Spiele.



Was hat der IST-Zustand mit deiner Behauptung zu tun? Wenn die Oberfläche nicht vollständig GPU-beschleunigt ist, dann ist der IST-Zustand scheiße, aber eben nicht die Schuld der GPU.
Honeycomb ist auch anders als 2.x. Ist also nicht vergleichbar.

Was sind das den für T-Zone Spiele? Mag ja sein, dass die so anspruchslos sind, dass es läuft.
ich sehe auch nicht, dass unter 2.x nun Spiele so viel besser laufen, als dass der Vergleich nicht angebracht ist. Wahrscheinlicher ist eher, dass die Auflösung zu hoch ist, als das T2 in einem Spiel wie Shift noch hohe Frameraten erreicht. Das ist der IST-Zustand. Dass das aller per Update besser wird ist Spekulation. Es geht ja nicht um 20% die da fehlen. Shift läuft wirklich sehr ruckelig. Dass die Oberfläche nicht vollständig beschleunigt wird ist ebenso ein Gerücht. Man sollte vielleicht einfach mal einsehen, dass T2 schon seit seiner Auslieferung vor einiger Zeit schon nur Mittelmaß war und sich das sicher nicht gebessert hat, anstatt sich von Gerücht zu Gerücht zu hangeln. irgendein Gerücht findet sich immer, genau wie die Verweise auf bessere Performance durch Updates. Daran glaub ich aber schon lange nicht mehr.
Ich glaube eher, dass es zu Lebzeiten des T2 keine komplexen Spiele in nativer Auflösung geben wird, die flüssig laufen und dass HC mit ein paar kleinen Rucklern ab und zu leben muss.

LovesuckZ
2011-07-05, 15:26:47
Was sind das den für T-Zone Spiele? Mag ja sein, dass die so anspruchslos sind, dass es läuft.

http://www.nvidia.com/object/tegra-zone.html

Gibt noch ein paar mehr, Riptide GP sieht z.B. sehr gut aus.


ich sehe auch nicht, dass unter 2.x nun Spiele so viel besser laufen, als dass der Vergleich nicht angebracht ist. Wahrscheinlicher ist eher, dass die Auflösung zu hoch ist, als das T2 in einem Spiel wie Shift noch hohe Frameraten erreicht. Das ist der IST-Zustand. Dass das aller per Update besser wird ist Spekulation. Es geht ja nicht um 20% die da fehlen. Shift läuft wirklich sehr ruckelig.

Die Wahrscheinlichkeit ist sehr hoch, dass die Spiele eben Kompartibilitätsprobleme aufweisen. 3.x + Tegra2 war vor 12 Monaten noch nicht erhältlich.


Dass die Oberfläche nicht vollständig beschleunigt wird ist ebenso ein Gerücht.

Vielleicht solltest du es erstmal beweisen. Ich sehe, dass mit höhrerem CPU-Takt das Scrolling wesentlich flüssiger ist. Das lässt darauf schließen, dass die GPU-Beschleunigung nicht vollständig implementiert wurde.

Screemer
2011-07-05, 15:42:27
das lustige ist, dass die meisten tegrazone spiele sogar auf meinem hd2 laufen (xda-patches sei dank) und das hat nen adreno200 der lichtjahre hinter sgx5xx liegt.

LovesuckZ
2011-07-05, 16:25:17
Das es auf anderen SoCs läuft, ist nicht verwunderlich. Soweit ich weiß, versucht man 60 FPS bei Smartphones und 30 FPS bei den Tablets anzustreben. Da sollte also vorallem bei den Smartphones noch viel Luft nach unten sein.

stickedy
2011-07-05, 18:26:01
das lustige ist, dass die meisten tegrazone spiele sogar auf meinem hd2 laufen (xda-patches sei dank) und das hat nen adreno200 der lichtjahre hinter sgx5xx liegt.
Da Tegra2 auch Lichtjahre hinter SGX5xx liegt, ist das eigentlich nicht verwunderlich...

Nakai
2011-07-05, 18:31:45
Da Tegra2 auch Lichtjahre hinter SGX5xx liegt, ist das eigentlich nicht verwunderlich...

*Hust*
HD2 hat nen Adreno200 drin. Ergo Snapdragon-SOC.;)

LovesuckZ
2011-07-05, 18:35:48
Tegra2 liegt soweit hinter, z.B., SGX535, dass die GPU plötzlich auch wieder mehr als doppelt so schnell ist.

stickedy
2011-07-05, 18:59:07
*Hust*
HD2 hat nen Adreno200 drin. Ergo Snapdragon-SOC.;)
Weiß ich doch :) Lies mal die zwei Beiträge nochmal, dann verstehst den Witz ;)

Tegra2 liegt soweit hinter, z.B., SGX535, dass die GPU plötzlich auch wieder mehr als doppelt so schnell ist.
Du kennst den Unterschied zwischen Techlevel/Features und Performance?

LovesuckZ
2011-07-05, 19:00:21
Du kennst den Unterschied zwischen Techlevel/Features und Performance?

Jap. Vom ersten kann man sich nichts kaufen. ;D
Selbst im "featurereichen" GLbenchmark ist Tegra2 mehr als doppelt so schnell als SGX535.

stickedy
2011-07-05, 19:04:54
Jap. Vom ersten kann man sich nichts kaufen. ;D
Selbst im "featurereichen" GLbenchmark ist Tegra2 mehr als doppelt so schnell als SGX535.
Was ändert das an der Aussage von mir bzw. von Screemer?

LovesuckZ
2011-07-05, 19:10:52
Was ändert das an der Aussage von mir bzw. von Screemer?

Mal sehen:
Screemer schreibt, dass viele Tegra Zone Spiele auch auf seinem Adreno200 laufen. Da die Spiele auch auf Tablets mit 2,5x höhrerer Auflösung mit 30 FPS laufen sollen, bleibt also bei sehr viel Luft nach unten. Demnach wäre ein Spielen mit 30 FPS mit einem Adreno200 möglich. Achja, gleichzeitig nimmt er an, dass Adreno200 Lichtjahre langsamer wäre als SGX5xx.

Du kommst und behauptest, dass auch Tegra2 Lichtjahre langsamer wäre.

Du siehst, deine Aussage hat mit der von Screemer nichts zu tun und ist nichts weiter als ein Trollversuch. Aber sowas klappt nicht, wenn Leute Werte aus theoretischen Benchmarks haben. ;D

IVN
2011-07-05, 19:12:35
Ich verstehe das Verlangen nach den Features in so einem Gerät nicht. Ich meine, sogar wenn man diese GPUs nur mit Dx9-Level Grafik belasten würde (aber so richtig) wären sie zu schwach, um spielbare FPS zu produzieren. Ehrlich gesagt glaube ich nicht mal das ein MPx von IMG schnell genug für Farcry ist, geschweige denn etwas, was DX >9 braucht.

Ergo, es ist sinnlos da Dx10 oder 11 Funktionalität zu integrieren.

stickedy
2011-07-05, 19:36:12
Mal sehen:
Screemer schreibt, dass viele Tegra Zone Spiele auch auf seinem Adreno200 laufen. Da die Spiele auch auf Tablets mit 2,5x höhrerer Auflösung mit 30 FPS laufen sollen, bleibt also bei sehr viel Luft nach unten. Demnach wäre ein Spielen mit 30 FPS mit einem Adreno200 möglich. Achja, gleichzeitig nimmt er an, dass Adreno200 Lichtjahre langsamer wäre als SGX5xx.

Du kommst und behauptest, dass auch Tegra2 Lichtjahre langsamer wäre.

Du siehst, deine Aussage hat mit der von Screemer nichts zu tun und ist nichts weiter als ein Trollversuch. Aber sowas klappt nicht, wenn Leute Werte aus theoretischen Benchmarks haben. ;D
screem schrieb: "...das hat nen adreno200 der lichtjahre hinter sgx5xx liegt." Ich habe das nicht auf die Geschwindigkeit, sondern auf die Features bezogen und imho ist das auch so gemeint. Weil das "tolle" an den Tegra-Zone-Spielen ist ja, das sie auf Tegra laufen, weil der so toll (was aber offensichtlich nicht der Fall ist).

Du hingegen beziehst das auf die Geschwindigkeit - was wenig Sinn macht in meinen Augen. Aber soll doch screemer sagen, wie er es gemeint hat. Dann haben entweder ich oder Du ihn missverstanden - je nach dem...

robbitop
2011-07-05, 20:04:51
Ich verstehe das Verlangen nach den Features in so einem Gerät nicht. Ich meine, sogar wenn man diese GPUs nur mit Dx9-Level Grafik belasten würde (aber so richtig) wären sie zu schwach, um spielbare FPS zu produzieren. Ehrlich gesagt glaube ich nicht mal das ein MPx von IMG schnell genug für Farcry ist, geschweige denn etwas, was DX >9 braucht.

Ergo, es ist sinnlos da Dx10 oder 11 Funktionalität zu integrieren.
Ein höheres Techlevel kann durchaus Effekte beschleunigen.

Und natürlich geht auch eine anständige Optik, die daraus einen Nutzen zieht:
siehe PSP Vita (NGP) mit Spielen wie Uncharted, siehe die Epic Citadel Demo (iOS - mit SGX535), oder Rage, oder Dead Space 2 (iOS), oder Infinity Blade (iOS), Star Wars Battalion (iOS), BIA 2 (iOS), Metal Storm (iOS), Asphalt 6 (iOS), dieses Racing Game von Firemint (iOS), Sacret Odyssey (iOS), ettliche PVR SGX Demos ... und das sind jetzt nur die, die mir einfallen.

Man sieht, dass auf Plattformen, die nicht so fragmentiert sind, durchaus ein homogenes, relativ gutes Grafiklevel und sogar solides Gameplay möglich ist. Mit einem aktuellen SGX lässt sich definitiv was anfangen. Mit einem SGX MP (NGP) wird Far Cry Level auf einem Handheld möglich sein. Warum auch nicht.

SGX 4MP:
Texelfüllrate:
1600 MTex/s x 2,5x Overdraw (fällt weg!) = 4.000 MTex/s
Rechenleistung
16x Vec4 x 2 FLOPs (MAD) x 200 MHz x 2,5 (Overdraw) = 64 GFLOPS/s
Umrechnung wegen Auflösung
PSP Vita 960 x 544 = 0,5 MPix
PC Anno 2003 1280 x 768 = 0,98 Mipx
also ungefähr Faktor 2 weniger Pixellast für PSP Vita

X800 XT
Texelfüllrate:
16 TMUs x 1,0 x Overdraw x 500 MHz = 8.000 MTex/s
Rechenleistung
16x Vec4 x 2 FLOPs (MAD) x 500 MHz x 1 (Overdraw) = 64 GFLOPS/s

Man sieht, die X800XT hat mehr Rohleistung, wenn man den TBDR Vorteil von SGX rausnimmt. Bei TBDR Vorteil, hat sie keinen aritmetischen Vorteil mehr aber einen Füllratenvorteil. Nimmt man die Auflösung in Betracht und, dass auf einer geschlossenen Plattform wesentlich mehr optimiert werden kann, sehe ich beides auf einer Augenhöhe.
Außerdem war Far Cry mit Kompromissen auch auf R300 und sogar auf NV30 spielbar.

Far Cry geht definitiv auf Vita, wenn man das will! Arbeitsspeicher wird sicher auch genug da sein (zudem entschärft gutes Streaming das etwas) - und auch die CPU sollte fix genug sein. Immerhin hat man einen Quadcore OoO Core mit 1 GHz. Far Cry spielte man damals auf einem OoO Singlecore mit rund 2 GHz (der natürlich stärker pro Takt ist als ein A9 - im Falle eines K7 oder gar K8). Mit entsprechenden Multicoreoptimierungen sollte man da ran kommen.

Und natürlich kann ich mit einer Architektur, die D3D11 konform ist, bei gleicher Einheitenanzahl einer Architektur, die D3D9 konform ist, Effekte beschleunigen, so dass die D3D9 Architektur alt aussieht.
Vieles lässt sich vereinfachen und in wenigen Operationen durchführen, wofür ältere HW mehrere Loops braucht.

Ailuros
2011-07-05, 20:06:50
Klar - wenn man einen SoC von August 2010 mit Neuerscheinungen aus April+ 2011 vergleicht. :lol:

T2 ist nichts besonderes selbst im Vergleich zu Samsung's S5PC110. Gleiches gilt fuer Qualcomm, TI oder weiss der Geier was noch.

Tegra2 ist selbst für sein Alter voll konkurrenzfähig. Weder TI noch Qualcomm haben einen deutlichen Schritt nach vorne getan, wenn man den zeitlichen Abstand betrachtet. Einzig Apple und Samsung sind aufgrund der GPU besser.

Na dann mach Dir mal Muehe und erzaehl was Tegra2 generell aus dem Haufen heraushebt. Du sagt es ja selber. Konkurrenzfaehig sagt mir persoenlich gar nichts. Ich bin mir sicher dass NVIDIA noch mehr GPUs wie heute verkaufen wuerde wenn ihre standalone GPU Loesungen Faehigkeits-maessig unter dem Niveau der Konkurrenz liegen wuerde bei +/- je nach Fall vergleichbarer Leistung

Es gibt keinerlei Logik die auf zwei Schienen laeuft; hw kommt vor der sw damit diese ueberhaupt entwickelt werden kann und die GPU ist kein "dekorativer Schnickschnack" nur gerade in dem Bereich wo sie schwaecher sein sollte und schon gar nicht von NVIDIA.

Und da T2 tatsaechlich schon seit langem existiert und wir im Spekulations-forum sind was wird denn Tegra3 berauschendes bringen dass es nicht innerhalb von wenigen Monaten mal wieder brutal ueberholt wird? Ich stimme robbitop natuerlich nicht zu dass der quad A9 gar nichts oder begrenztes bringen wird und ja was die CPU betrifft sind sie immer noch ein Stueck vor der Konkurrenz. Fuer wie lange genau bleibt die Frage.

IVN
2011-07-05, 20:26:29
Ein höheres Techlevel kann durchaus Effekte beschleunigen.
Nein. Denn was du hier vergisst zu erwähnen, ist, das die Compliance sehr viel Transistoren kostet, und die "Beschleunigung" in Wirklichkeit keine ist, denn man kann viel mehr Einheiten des niedrigeren Tech-Lvl-Typs einbauen, so das die Feature-reichere GPU am Ende von der Performance her alt aussieht.

Mal ein Bsp: man kann entweder 4 DX11 ALUs oder 8-12 DX9 ALUs bei gleicher Transistoranzahl "einbauen". Das die eine DX11 ALU schneller ist, als eine DX9 ALU, wird durch die Anzahl der letzteren kompensiert, und wahrscheinlich mehr als wettgemacht.

Und natürlich geht auch eine anständige Optik, die daraus einen Nutzen zieht:
siehe PSP Vita (NGP) mit Spielen wie Uncharted, siehe die Epic Citadel Demo (iOS - mit SGX535), oder Rage, oder Dead Space 2 (iOS), oder Infinity Blade (iOS), Star Wars Battalion (iOS), BIA 2 (iOS), Metal Storm (iOS), Asphalt 6 (iOS), dieses Racing Game von Firemint (iOS), Sacret Odyssey (iOS), ettliche PVR SGX Demos ... und das sind jetzt nur die, die mir einfallen.Die anderen Games kenn ich nicht, aber Uncharted auf der Vita ist eigentlich gerade mal Farcry-Niveau, und das bei einer GPU, die um mehrere Faktoren schneller ist, als alles derzeit am Markt (Smartphone + Tablet) erhältlich ist. Und dabei ist Farcry eigentlich nur DX9. D.h. sogar beim MP4 lohnt sich das Tech-Lvl nicht wirklich. Hätte man darauf verzichtet, hätte man der GPU wahrscheinlich viel mehr Performance verpassen können.

Man sieht, dass auf Plattformen, die nicht so fragmentiert sind, durchaus ein homogenes, relativ gutes Grafiklevel und sogar solides Gameplay möglich ist. Mit einem aktuellen SGX lässt sich definitiv was anfangen. Mit einem SGX MP (NGP) wird Far Cry Level auf einem Handheld möglich sein.Wie schon gesagt, Farcry war DX9, und die GPUs, die es damals beschleunigt haben, hatten kein DX >9 Feature-Set. Wozu auch, das hätte viel Roh-Power gekostet, und die GPUs wären für die entsprechenden Effekte, die man mit so einem Tech-Lvl auch programmieren möchte, viel zu langsam gewesen.

Und natürlich kann ich mit einer Architektur, die D3D11 konform ist, bei gleicher Einheitenanzahl einer Architektur, die D3D9 konform ist, Effekte beschleunigen, so dass die D3D9 Architektur alt aussieht.
Vieles lässt sich vereinfachen und in wenigen Operationen durchführen, wofür ältere HW mehrere Loops braucht.
Ja, gleiche Einheitenanzahl, nur kosten bei DX9 diese Einheiten beträchtlich weniger, so das man womöglich 2x bis 3x so viele einbauen kann. Dann sieht performancemäßig der High-Tech-Chip alt aus.

Ailuros
2011-07-05, 20:27:37
Ich verstehe das Verlangen nach den Features in so einem Gerät nicht. Ich meine, sogar wenn man diese GPUs nur mit Dx9-Level Grafik belasten würde (aber so richtig) wären sie zu schwach, um spielbare FPS zu produzieren. Ehrlich gesagt glaube ich nicht mal das ein MPx von IMG schnell genug für Farcry ist, geschweige denn etwas, was DX >9 braucht.

Ergo, es ist sinnlos da Dx10 oder 11 Funktionalität zu integrieren.

Wie wird denn genau das UI und/oder Gesten u.a. sowohl auf iOS und auch auf Honeycomb bzw. beim kommenden Ice Cream Sandwich berechnet. Laeuft alles nur auf der CPU?

Was jetzt DX10/1 betrifft: ich hab es schonmal gesagt dass es mir persoenlich lieber waere wenn Microsoft die Finger vom embedded Markt laesst, aber sobald M$ auch hier zum Aufschwung kommt, koennte es das Ende der "Apple-Hegemonie" bedeuten. Jede Muenze hat eben zwei Seiten.

robbitop
2011-07-05, 20:35:59
IVN:
SGX ist auch "nur" DX9 capable. Allerdings mit SM3. Technologisch (nicht die Architektur) kann man ihn mit C1 in der X360 vergleichen. Unified Shader und in etwa SM3.

Was du sagst, stimmt natürlich in Grenzen. Allerdings nur in Grenzen. Willst du mit einer DX7 GPU richtig schönes Enviroment Bumpmapping machen, loopst du dich tot. Dort erwirtschaften die Mehrtransistoren die DX8 konformen Combiner das Ganze auf jeden Fall.
Willst du dynamische Beleuchtung mit anständiger Qualität, gilt das gleiche für DX8 vs DX9. Willst du Partikel Simulation und viele andere schöne Effekte, brauchst du einen Compute Shader - das gleiche also für DX9 vs DX10 konforme HW, willst du Tesselation...DX11.

Natürlich muss für jeden Techsprung auch die Rohleistung da sein. Insofern gebe ich dir in diesen Grenzen recht. Ein D3D11 Chip macht im embedded SoC Bereich noch nicht so viel Sinn. Ein D3D9c hingegen schon. Dort sind bei heutigen TDP und Transistorbudgets die Transistoren sehr gut angelegt. Und genau das ist die Situation. D3D9c vs D3D8 wenn man will. ;)

IVN
2011-07-05, 20:38:18
Wie wird denn genau das UI und/oder Gesten u.a. sowohl auf iOS und auch auf Honeycomb bzw. beim kommenden Ice Cream Sandwich berechnet. Laeuft alles nur auf der CPU?

K.A.

Jedoch sehe ich da keine Perf-Unterschiede zwischen iOS-Geräten und Androiden, die auf Tegra setzen. Und wir wissen das Tegra ein "veraltetes" Feature-Set iV zu den PowerVR-GPUs in den iOS-Geräten hat.

IVN:
SGX ist auch "nur" DX9 capable. Allerdings mit SM3. Technologisch (nicht die Architektur) kann man ihn mit C1 in der X360 vergleichen. Unified Shader und in etwa SM3.

Was du sagst, stimmt natürlich in Grenzen. Allerdings nur in Grenzen. Willst du mit einer DX7 GPU richtig schönes Enviroment Bumpmapping machen, loopst du dich tot. Dort erwirtschaften die Mehrtransistoren die DX8 konformen Combiner das Ganze auf jeden Fall.
Willst du dynamische Beleuchtung mit anständiger Qualität, gilt das gleiche für DX8 vs DX9. Willst du Partikel Simulation und viele andere schöne Effekte, brauchst du einen Compute Shader - das gleiche also für DX9 vs DX10 konforme HW, willst du Tesselation...DX11.

Natürlich muss für jeden Techsprung auch die Rohleistung da sein. Insofern gebe ich dir in diesen Grenzen recht. Ein D3D11 Chip macht im embedded SoC Bereich noch nicht so viel Sinn. Ein D3D9c hingegen schon. Dort sind bei heutigen TDP und Transistorbudgets die Transistoren sehr gut angelegt. Und genau das ist die Situation. D3D9c vs D3D8 wenn man will. ;)
Tegra ist doch DX9 (vergleichbar mit ersten DX9 Radeons), nur eben mit niedriger Präzision in den ALUs, ne?

IVN
2011-07-05, 20:40:42
del

robbitop
2011-07-05, 20:42:33
K.A.

Jedoch sehe ich da keine Perf-Unterschiede zwischen iOS-Geräten und Androiden, die auf Tegra setzen. Und wir wissen das Tegra ein "veraltetes" Feature-Set iV zu den PowerVR-GPUs in den iOS-Geräten hat.
Meinst du jetzt nur das UI oder woran machst du das fest?

Also ich habe im MM letztens ein Honeycomp Tablet in der Hand gehabt. Das ist in manchen Situation nicht immer 60fps - smooth.

Das iPad2 hingegen immer. Entweder ist die UI wirklich nicht vollständig beschleunigt oder Android muss wirklich noch an anderen stellen optimiert werden.

Die WP7 Phones bieten dieses 60fps-smooth Gefühl IMO auch immer vollständig rüber. Und die sind auch vollständig beschleunigt.

IVN
2011-07-05, 20:44:28
Meinst du jetzt nur das UI oder woran machst du das fest?

Also ich habe im MM letztens ein Honeycomp Tablet in der Hand gehabt. Das ist in manchen Situation nicht immer 60fps - smooth.

Das iPad2 hingegen immer. Entweder ist die UI wirklich nicht vollständig beschleunigt oder Android muss wirklich noch an anderen stellen optimiert werden.

Die WP7 Phones bieten dieses 60fps-smooth Gefühl IMO auch immer vollständig rüber. Und die sind auch vollständig beschleunigt.
Ich mache das an der Tatsache fest, das die Android-UI viel aufwändiger ist, als die von iOS, und das deswegen mehr Rechenkraft für das flüssige Gefühl benötigt wird.

robbitop
2011-07-05, 20:48:04
K.A.

Jedoch sehe ich da keine Perf-Unterschiede zwischen iOS-Geräten und Androiden, die auf Tegra setzen. Und wir wissen das Tegra ein "veraltetes" Feature-Set iV zu den PowerVR-GPUs in den iOS-Geräten hat.


Tegra ist doch DX9 (vergleichbar mit ersten DX9 Radeons), nur eben mit niedriger Präzision in den ALUs, ne?
Jetzt habe ich doch aus Unwissenheit Blödsinn erzählt. Tegra ist eine D3D9 capable GPU.

Ailuros
2011-07-05, 20:50:24
Nein. Denn was du hier vergisst zu erwähnen, ist, das die Compliance sehr viel Transistoren kostet, und die "Beschleunigung" in Wirklichkeit keine ist, denn man kann viel mehr Einheiten des niedrigeren Tech-Lvl-Typs einbauen, so das die Feature-reichere GPU am Ende von der Performance her alt aussieht.

Mal ein Bsp: man kann entweder 4 DX11 ALUs oder 8-12 DX9 ALUs bei gleicher Transistoranzahl "einbauen". Das die eine DX11 ALU schneller ist, als eine DX9 ALU, wird durch die Anzahl der letzteren kompensiert, und wahrscheinlich mehr als wettgemacht.

Du brauchst erstmal wirklich nicht in allen Faellen double precision fuer smart-phones der absehbaren Zukunft noch als weiteres Beispiel keine 8k*8k Texturen in den TMUs. Diese sind Bereiche wo embedded GPU IHVs durchaus sparen koennen, obwohl das restliche Geruest dann wohl schon fast DX11 ist. Man wird wohl eben in Sachen Komplianz zwischen 10.1 und 11 schwanken.

Tegra's ALUs sind uebrigens nichtmal DX9 bis jetzt.

Egal ob heutige DX9 oder DX10.1 embedded GPUs im Vergleich zu diesen werden die naechsten DX10.1-DX11 ALUs nicht nur mehr als doppelt so breit sein sondern auch 4x Mal so viel pro chip.

Die anderen Games kenn ich nicht, aber Uncharted auf der Vita ist eigentlich gerade mal Farcry-Niveau, und das bei einer GPU, die um mehrere Faktoren schneller ist, als alles derzeit am Markt (Smartphone + Tablet) erhältlich ist. Und dabei ist Farcry eigentlich nur DX9. D.h. sogar beim MP4 lohnt sich das Tech-Lvl nicht wirklich. Hätte man darauf verzichtet, hätte man der GPU wahrscheinlich viel mehr Performance verpassen können.

FC ist nichtmal ein volles DX9 Spiel; wohl eher Crysis. Crysis auf einem smart-phone? Errr nein. Es gibt aktive Spiel-Entwicklung fuer den mobilen Markt.


Ja, gleiche Einheitenanzahl, nur kosten bei DX9 diese Einheiten beträchtlich weniger, so das man womöglich 2x bis 3x so viele einbauen kann. Dann sieht performancemäßig der High-Tech-Chip alt aus.

Na dann schau Dir mal die Leistungszahlen vom A9600 an.

Jetzt habe ich doch aus Unwissenheit Blödsinn erzählt. Tegra ist eine D3D9 capable GPU.

Seit wann reicht 16bit Z Praezision und FP20 PS ALUs fuer DX9.0 (base level) aus?

robbitop
2011-07-05, 20:50:45
Ich mache das an der Tatsache fest, das die Android-UI viel aufwändiger ist, als die von iOS, und das deswegen mehr Rechenkraft für das flüssige Gefühl benötigt wird.
Ach iwo - eine GPU wie SGX535 oder Tegra ist definitiv mit keiner UI der Welt (sofern gut programmiert) überlastet.
Kaum Geometrie, sehr einfache Texturen, soviele Takte werden pro Pixel sicher auch nicht benötigt und einfach zu cullen ist es auch (da es ja definierte Ebenen gibt).
Sogar MBX konnte ohne Probleme die iOS GUI mit 60 fps stämmen.

IVN
2011-07-05, 20:55:37
Ach iwo - eine GPU wie SGX535 oder Tegra ist definitiv mit keiner UI der Welt (sofern gut programmiert) überlastet.
Kaum Geometrie, sehr einfache Texturen, soviele Takte werden pro Pixel sicher auch nicht benötigt und einfach zu cullen ist es auch (da es ja definierte Ebenen gibt).
Sogar MBX konnte ohne Probleme die iOS GUI mit 60 fps stämmen.
Ich denke nicht, das der GPU-Teil bei Android Probleme macht. Viel mehr wird wohl die CPU zu lahm für die vielen Widgets in Android sein.

Was ich meine ist das:

http://www.mobiflip.de/wp-content/uploads/2011/01/android-honeycomb-2.jpg

vs das:

http://www.computer-blog.net/wp-content/uploads/2011/03/apple-ipad-2.jpg

Ailuros
2011-07-05, 20:55:42
Ach iwo - eine GPU wie SGX535 oder Tegra ist definitiv mit keiner UI der Welt (sofern gut programmiert) überlastet.
Kaum Geometrie, sehr einfache Texturen, soviele Takte werden pro Pixel sicher auch nicht benötigt und einfach zu cullen ist es auch (da es ja definierte Ebenen gibt).
Sogar MBX konnte ohne Probleme die iOS GUI mit 60 fps stämmen.

Nah nimm Dir mal nicht zuuuu grosse Brocken in den Mund mit den "allen UIs der Welt", ausser Du hast schon einen Einblick wie die UIs der Zukunft aussehen werden.

robbitop
2011-07-05, 20:56:11
Seit wann reicht 16bit Z Praezision und FP20 PS ALUs fuer DX9.0 (base level) aus?
Irgendein alten Thread auf B3D ausgegraben, wo steht, das Ding sei von der NV40 abgespeckt.
Naja Opengl ES 2.0 compliant scheint es ja zu sein - also bis auf die 4 bit FP Präzision ist es auch fast DX9 compliant. Immerhin sind es Floating Point Units.
Ursprünglich sollte D3D9 mal mit half precision (FP16) sich zufrieden geben - MS machte aber in der letzten Minute FP24 draus, so dass NV30 ein Problem hatte und in D3D9 Pfaden 50% Rechenleistung verlor - aber z.B für Far Cry gabs einen NV30 Pfad mit FP16.

Also gut - das Ding scheint also D3D9 knapp zu verfehlen. Sieht mir eher danach aus, als hätte man es vom NV30 abgenommen als vom NV40 - oder aber es hatte gar keinen Desktopchip als Basis...ich weiß ehrlich gesagt kaum was über das Ding. Hast du einen guten Link parat? :)

robbitop
2011-07-05, 21:00:00
Ich denke nicht, das der GPU-Teil bei Android Probleme macht. Viel mehr wird wohl die CPU zu lahm für die vielen Widgets in Android sein.

Was ich meine ist das:



Ja auch das HC UI stellt einer UI keine großen Anforderungen. Und sofern gut programmiert auch keiner A9 CPU. Auch hier: keine Partikel, kaum Geometrie...nicht wirklich ein großer Batzen IMO.

IMO ist die Google UI einfach noch nicht so gut optimiert wie die von MS oder Apple (was Performance angeht - von der Usability her ein guter Job!).
Ist aber für Google auch schwieriger wegen der HW Fragmentierung. Das hätten sie mal lassen sollen und wie MS und Apple einen SoC pro Generation festlegen sollen. (und keine Anpassungen durch die Hersteller zulassen sollen - mich würde es total ärgern, wenn ich nicht sofort das neuste OS Update für mein Gerät bekommen kann, nur weil der Hersteller meines Handys/Tablets es nicht für wichtig erachtet)

Ailuros
2011-07-05, 21:00:52
Irgendein alten Thread auf B3D ausgegraben, wo steht, das Ding sei von der NV40 abgespeckt.
Naja Opengl ES 2.0 compliant scheint es ja zu sein - also bis auf die 4 bit FP Präzision ist es auch fast DX9 compliant. Immerhin sind es Floating Point Units.
Ursprünglich sollte D3D9 mal mit half precision (FP16) sich zufrieden geben - MS machte aber in der letzten Minute FP24 draus, so dass NV30 ein Problem hatte und in D3D9 Pfaden 50% Rechenleistung verlor - aber z.B für Far Cry gabs einen NV30 Pfad mit FP16.

Also gut - das Ding scheint also D3D9 knapp zu verfehlen. Sieht mir eher danach aus, als hätte man es vom NV30 abgenommen als vom NV40 - oder aber es hatte gar keinen Desktopchip als Basis...ich weiß ehrlich gesagt kaum was über das Ding. Hast du einen guten Link parat? :)

Das letzte wohl eher IMHO und genau deshalb kann ich nicht verstehen warum es so bescheiden ausgefallen ist. ARM Mali hat FP16 PS ALUs und Adreno USC ALUs.

Einen Link? nvidia.com --> http://www.nvidia.com/content/PDF/tegra_white_papers/Bringing_High-End_Graphics_to_Handheld_Devices.pdf

So kompliziert ;)

robbitop
2011-07-05, 21:01:52
Nah nimm Dir mal nicht zuuuu grosse Brocken in den Mund mit den "allen UIs der Welt", ausser Du hast schon einen Einblick wie die UIs der Zukunft aussehen werden.
Ok - ich meinte alle UIs die im Markt sind. ;) Nicht alle zukünftigen.
Eine sinnvolle Mobile UI, die auf einem 2D Screen angezeigt wird und anständig programmiert ist, sollte von jedem aktuellen SoC flüssig beschleunigbar sein (bei heutigen Auflösungen!).

IVN
2011-07-05, 21:06:45
Ja auch das HC UI stellt einer UI keine großen Anforderungen. Und sofern gut programmiert auch keiner A9 CPU. Auch hier: keine Partikel, kaum Geometrie...nicht wirklich ein großer Batzen IMO.

IMO ist die Google UI einfach noch nicht so gut optimiert wie die von MS oder Apple (was Performance angeht - von der Usability her ein guter Job!).
Ist aber für Google auch schwieriger wegen der HW Fragmentierung. Das hätten sie mal lassen sollen und wie MS und Apple einen SoC pro Generation festlegen sollen. (und keine Anpassungen durch die Hersteller zulassen sollen - mich würde es total ärgern, wenn ich nicht sofort das neuste OS Update für mein Gerät bekommen kann, nur weil der Hersteller meines Handys/Tablets es nicht für wichtig erachtet)
Diese grafischen Effekte braucht man doch gar nicht, um die CPU soweit in die Knie zu zwingen, das eine unflüssige Nutzererfahrung entsteht. Es genügt wenn ständig mehrere Widgets/kleine Programme im Hintergrund laufen. iOS hat sowas mWn nicht.

Ehrlich gesagt, wenn ich mir anschaue, wie primitiv iOS auf einem Tablet aussieht, und was da die ganze Zeit beim Android-Tablet so läuft, frage ich mich wie es Google schafft so nah an die Apple-Performance zu kommen. Gleiche Sache beim Browser. Auf iPod läuft kein Flash, und trotzdem ist es nur minimal schneller als Android. Das ist mMn eher eine Blamage für Apple, als für Google.

Ailuros
2011-07-05, 21:08:00
K.A.

Jedoch sehe ich da keine Perf-Unterschiede zwischen iOS-Geräten und Androiden, die auf Tegra setzen. Und wir wissen das Tegra ein "veraltetes" Feature-Set iV zu den PowerVR-GPUs in den iOS-Geräten hat.

Ja aber nie im desktop. Dort waren sie stets und bleiben auch noch heute Technologie-Vorreiter was Grafik betrifft? Ist der embedded Markt jetzt eine Ausnahme oder will NVIDIA eher ARM's CPU Zeug etwas unter die Aerme helfen? So verrueckt ist die letztere These nun auch wieder nicht da NV eigentlich ARM "braucht" um AMD/Intel in Zukunft mit groesseren SoCs kontern zu koennen.

Tegra ist doch DX9 (vergleichbar mit ersten DX9 Radeons), nur eben mit niedriger Präzision in den ALUs, ne?

Auch bei Z Praezision da nur 16bit.

Ok - ich meinte alle UIs die im Markt sind. ;) Nicht alle zukünftigen.
Eine sinnvolle Mobile UI, die auf einem 2D Screen angezeigt wird und anständig programmiert ist, sollte von jedem aktuellen SoC flüssig beschleunigbar sein (bei heutigen Auflösungen!).

Schlaumeier fuer die letzte Klammer LOL. Wart ab wie die Aufloesungen ab Tegra3/Apple A6 aussehen werden :P

Uebrigens Ihr habt beides etwas vergessen: gestures ;)

IVN
2011-07-05, 21:10:29
Ja aber nie im desktop. Dort waren sie stets und bleiben auch noch heute Technologie-Vorreiter was Grafik betrifft? Ist der embedded Markt jetzt eine Ausnahme oder will NVIDIA eher ARM's CPU Zeug etwas unter die Aerme helfen? So verrueckt ist die letztere These nun auch wieder nicht da NV eigentlich ARM "braucht" um AMD/Intel in Zukunft mit groesseren SoCs kontern zu koennen.

Ich verstehe nicht was du meinst.

Ailuros
2011-07-05, 21:17:23
Ich verstehe nicht was du meinst.


NVIDIA brauchte ein CPU-Gefaehrt um in den SoC Markt einzudringen (und auch nach oben skalieren zu desktop/notebook SoCs mit Projekt Denver) und ARM wollte schon seit langem in den Server Markt eindringen. Es hilft eben der eine dem anderen um es einfacher zu sagen. Ist zwar nur eine These aber auch nicht boes gemeint.

robbitop
2011-07-05, 21:38:25
Diese grafischen Effekte braucht man doch gar nicht, um die CPU soweit in die Knie zu zwingen, das eine unflüssige Nutzererfahrung entsteht. Es genügt wenn ständig mehrere Widgets/kleine Programme im Hintergrund laufen. iOS hat sowas mWn nicht.

Ehrlich gesagt, wenn ich mir anschaue, wie primitiv iOS auf einem Tablet aussieht, und was da die ganze Zeit beim Android-Tablet so läuft, frage ich mich wie es Google schafft so nah an die Apple-Performance zu kommen. Gleiche Sache beim Browser. Auf iPod läuft kein Flash, und trotzdem ist es nur minimal schneller als Android. Das ist mMn eher eine Blamage für Apple, als für Google.
Das sind einfach unterschiedliche Philosophien von UI. Apples ist auf möglichst einfach getunt, so dass jeder Depp sofort damit umgehen kann.

Wie gesagt: ich denke, für die GPU ist die Art der UI irrelevant. Das bekommt sie flüssig hin.
Es kann natürlich sein, dass die Widgets zuviel ziehen. IMO sollte aber immer eine 60fps Userexpirience vorhanden sein. Ergo sollte man die Widgets, falls sie der Verursacher sind, nochmal überarbeitet werden.
Das bisschen Infos als sich bewegende Textur darstellen liegt auch unterhalb von dem was aktuelle Handheldgames von CPUs verlangen.

Lade mal eine umfangreiche Flashseite wie BMW-Konfigurator. Die ist mit jedem Handy unbenutzbar. Wenn BMW dafür eine App schreibt, wäre es perfekt benutzbar. Da sieht man mal, wie ineffizient die meisten Flashansätze sind. Apple sieht Flash als ungeeignet für Handhelds und ich sehe das auch so. Ich sehe das sogar bei Netbooks so. Es kostet einfach zu viel Leistung.
Schaue dir mal einige Flashapps auf StudiVZ oder Putpat an. Da brauchst du schon einen C2D @3 GHz für flüssige Pillepalle Animationen. Einfach nur ineffizient. Aber das ist OT.

Xmas
2011-07-05, 21:43:16
Selbst im "featurereichen" GLbenchmark ist Tegra2 mehr als doppelt so schnell als SGX535.
Tegra 2 ist ein SoC mit unterschiedlichen Takt- und Speicherkonfigurationen. SGX535 ist ein Grafikkern, der in einer Reihe verschiedener Chips mit unterschiedlichem Takt, Systembus und Speicherinterface integriert ist, welche zudem mit unterschiedlichen Softwareplattformen eingesetzt werden. Der Vergleich hinkt.


Diese grafischen Effekte braucht man doch gar nicht, um die CPU soweit in die Knie zu zwingen, das eine unflüssige Nutzererfahrung entsteht. Es genügt wenn ständig mehrere Widgets/kleine Programme im Hintergrund laufen.
Also wenn ein paar kleine Programme und Widgets die CPU so weit belasten dass das UI ins Stocken gerät, dann läuft im System eindeutig etwas falsch.

Ehrlich gesagt, wenn ich mir anschaue, wie primitiv iOS auf einem Tablet aussieht, und was da die ganze Zeit beim Android-Tablet so läuft, frage ich mich wie es Google schafft so nah an die Apple-Performance zu kommen.
Was "läuft" denn da so die ganze Zeit an üblen Performancefressern?

IVN
2011-07-05, 22:26:58
Das sind einfach unterschiedliche Philosophien von UI. Apples ist auf möglichst einfach getunt, so dass jeder Depp sofort damit umgehen kann.

Wie gesagt: ich denke, für die GPU ist die Art der UI irrelevant. Das bekommt sie flüssig hin.
Es kann natürlich sein, dass die Widgets zuviel ziehen. IMO sollte aber immer eine 60fps Userexpirience vorhanden sein. Ergo sollte man die Widgets, falls sie der Verursacher sind, nochmal überarbeitet werden.
Das bisschen Infos als sich bewegende Textur darstellen liegt auch unterhalb von dem was aktuelle Handheldgames von CPUs verlangen.

Lade mal eine umfangreiche Flashseite wie BMW-Konfigurator. Die ist mit jedem Handy unbenutzbar. Wenn BMW dafür eine App schreibt, wäre es perfekt benutzbar. Da sieht man mal, wie ineffizient die meisten Flashansätze sind. Apple sieht Flash als ungeeignet für Handhelds und ich sehe das auch so. Ich sehe das sogar bei Netbooks so. Es kostet einfach zu viel Leistung.
Schaue dir mal einige Flashapps auf StudiVZ oder Putpat an. Da brauchst du schon einen C2D @3 GHz für flüssige Pillepalle Animationen. Einfach nur ineffizient. Aber das ist OT.Ich will auf einem Tablet genau so gut surfen können wie auf meinem PC. Das Apple Flash nicht unterstützt ist ein Riesennachteil in meinen Augen. Mag Flash ach so ineffizient sein, es ist jedenfalls viel besser als "nix sehen" und "nix machen können".

robbitop
2011-07-05, 22:35:28
Ich will auf einem Tablet genau so gut surfen können wie auf meinem PC. Das Apple Flash nicht unterstützt ist ein Riesennachteil in meinen Augen. Mag Flash ach so ineffizient sein, es ist jedenfalls viel besser als "nix sehen" und "nix machen können".
IMO lohnt es nicht, da zu langsam - oftmals so langsam, dass es unbenutzbar wird und gleichzeitig den Akku leersaugt.
Apples Philosophie ist es, dem User solche Erfahrungen zu ersparen - frei nach dem Motto "it just works".
Will man vollständige Freiheit, muss man Android nehmen - dort geht ein bisschen mehr - aber man kann auch viel versauen (wie zB Multitasking bei Anwendungen, die es nicht so toll unterstützen....dann geht der Akku ganz fix leer, oder irgendwelche Anwendungen aus dem Store, die wenn man nicht aufpasst sich sonstwas für Rechte genehmigen oder ebenfalls den Akku leersaugen).
Ist eine Philosophiefrage und immernoch OT. Man hat ja schließlich die Wahl.

Ailuros
2011-07-05, 22:43:52
Ich dachte Apple will von Flash nichts hoehen primaer aus Sicherheitsgruenden?

Auf jeden Fall koennen wir bitte mit dem Apple Zeug hier http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8822350&postcount=294 weitermachen?

robbitop
2011-07-05, 23:16:16
Steve Jobs hat in den Keynotes eher Leistungs- und Energiehunger aufgeführt. Gibt übrigens eine Möglichkeit mit iOS Geräten Flashvideos zu schauen: Skyfire Browser. Flashapplikationen gehen jedoch nicht.

Jetzt aber wieder Ontopic.

Dural
2011-07-13, 12:49:38
schon gesehen?

http://www.tomshardware.de/Nvidia-Tegra4-Wayne,news-245909.html


Der Tegra4 für Smartphones wird auf dem Design des ARM Cortex A15 aufsetzen und mit seinen vier Kernen eine Taktgeschwindigkeit von 1,5 GHz erreichen; die GPU stellt zudem 24 CUDA-Kerne bereit. Der Energieverbrauch soll dabei nicht über dem des Vorgängers Kal-El liegen, was wohl vor allem durch eine weitere Reduktion der Strukturbreite in der der Prozessor gefertigt wird, erreicht werden soll: Während der Tegra3 noch in einem 40-nm-Verfahren hergestellt wird, will Nvidia Wayne nur noch in einer Strukturbreite von 28 nm produzieren.

Die Variante des Mobile-Prozessors, die für Netbooks und Tablet-PCs bestimmt ist, wird im Gegensatz zu der Smartphone-CPU eine ARM-Cortex-A15-CPU mit acht Kernen besitzen. Auch die GPU wird kräftiger gestaltet und liefert mindestens 32 CUDA-Kerne, unter Umständen sogar 64.


Vermutlich werden aber alle Tegra4-Plattformen in der Lage sein DirectX 11 darzustellen und können dann mit OpenGL 4.x sowie OpenCL 1.x umgehen.


wenn das alles stimmt, muss sich Apple und co aber gewaltig ins zeug legen... ist immer noch jemand der meinung das NVs grösstes Problem die GPU ist? haha

TheGoD
2011-07-13, 22:18:10
IMO lohnt es nicht, da zu langsam - oftmals so langsam, dass es unbenutzbar wird und gleichzeitig den Akku leersaugt. Auf meinem Galaxy S 1 laufen Flash-Videos in SD-Auflösung fast durchgehend ruckelfrei (z.B. Youtube in 480p) und Interfaces von flashlastigen Webseiten gut bedienbar (und eigentlich auch nicht deutlich langsamer als der HTML5-Stuff der Google verwendet). Das Galaxy S 2 soll Flash Videos bis 720p ruckelfrei wiedergeben können.
Lohnt sich nicht würde ich anders definieren.

OnT
Stimmt es eigentlich das Tegra 2 kein MSAA unterstützt?

Screemer
2011-07-13, 23:20:59
das liegt aber nicht an flash per se, sondern am verwendeten codec und der ist halt meistens h.264. den decodiert der sepparate decoder des sgx540 im hummingbird soc des gs1. der sollte eigentlich auch keine probleme mit 720p und diesem codec haben. auch der mali und der geforce ulp im s2 dürften da keine probleme haben.

Deinorius
2011-07-13, 23:59:16
und der ist halt meistens x264.


Das heißt nicht x264! -.-
Der Codec heißt H.264 aka MPEG-4 AVC aka MPEG-4 Part10. Eines von den dreien, aber nicht x264. x264 ist der als Open Source lizenzierte Encoder.

Soviel Zeit muss sein.

Screemer
2011-07-14, 00:20:38
wenigstens lag ich mit 264 richtig ;) da rutscht mir auch öfter blödsinn durch die finger.

TheGoD
2011-07-14, 00:57:42
das liegt aber nicht an flash per se, sondern am verwendeten codec und der ist halt meistens h.264. den decodiert der sepparate decoder des sgx540 im hummingbird soc des gs1. der sollte eigentlich auch keine probleme mit 720p und diesem codec haben. auch der mali und der geforce ulp im s2 dürften da keine probleme haben.Richtig, nativ schaft das SGS 720p und das SGS2 1080p (jeweils High Profile). Flash-Video ist also definitv nicht wirklich effizent, jedoch kann ich die Aussage das es so schlecht läuft das es auf mobilen Geräten schlicht unnütz ist nicht bestätigen.

Wie IVN schon sagte: Besser ineffizent als "nix sehen" und "nix machen können"!

robbitop
2011-07-14, 07:58:37
Auf meinem Galaxy S 1 laufen Flash-Videos in SD-Auflösung fast durchgehend ruckelfrei (z.B. Youtube in 480p) und Interfaces von flashlastigen Webseiten gut bedienbar (und eigentlich auch nicht deutlich langsamer als der HTML5-Stuff der Google verwendet). Das Galaxy S 2 soll Flash Videos bis 720p ruckelfrei wiedergeben können.
Lohnt sich nicht würde ich anders definieren.

OnT
Stimmt es eigentlich das Tegra 2 kein MSAA unterstützt?
Flashvideos müssen ja flüssig laufen, die werden ja beschleunigt. Flash selbst nicht. Also: Dann probier mal richtige Flash interfaces ;)

Putpat und BMW Konfigurator bitte. Da kommt nämlich selbst mein Core 2 Duo @3 GHz im HTPC ins Schwitzen.

Und von solchen Flashinterfaces gibts im Netz ne ganze Menge. Flash = Hardwarefresser.

Avalox
2011-07-14, 09:06:30
wenn das alles stimmt, muss sich Apple und co aber gewaltig ins zeug legen... ist immer noch jemand der meinung das NVs grösstes Problem die GPU ist? haha


Wenn Apple mehr Rechenleistung heute benötigen würde, hätten sie sich vom Partner Intel eine Atom CPU genommen, diese sind ja schon heute performanter als es ein Tegra4 mal sein wird. Oder besser gesagt, Apple nutzt ja heute schon Atom CPUs in entsprechenden Geräten.

Der Focus der Appel SoCs heute liegt anders. Die Bausteine müssen interessante Mobilgeräte ermöglichen. Performance ist dort kein Merkmal der führendsten Stelle.

Da ein Tegra 4 nicht nur in neue Performance Gefilde vordringt, sondern auch in neue Energieverbrauchslevel ist dieses natürlich nicht so einfach, wie oben zu schlussfolgern.

nVidia hat mit dem Baustein auch gar nicht das klassische von Apple bediente mobilen Geräteportfolio in der Sicht. Sondern eben ein Konkurrieren mit den Intel Atom Lösungen.

nVidia kann ja ihre direkten Vorteile im Markt der niedrigst Energie SoC gar nicht ausspielen und muss ja nach oben hin skalieren.

Wichtig ist diese Entwicklung für Microsoft mit Windows 8. Denn Microsoft kann ja nur gelegen sein, die Skalierungslücke in der Performance zwischen einem x86 und den heuten ARM Markt zu schliessen. Glaubt doch keiner dass ein Windows 8 auf heutigen ARM Sparchips Systemen auch nur im Ansatz interessant laufen wird, oder nur kann.

So wie heute Apple Intel ATOM CPUs auch in ihren Geräten einsetzt, so könnten sie selber auf die Idee kommen auch in diese Gefilde mit eigenen SoCs vorzudringen. Aber das wird alles die iPods, iPhones und Papierdünnen iPads von morgen nur wenig tangieren.

AnarchX
2011-07-14, 09:18:01
Wenn Apple mehr Rechenleistung heute benötigen würde, hätten sie sich vom Partner Intel eine Atom CPU genommen, diese sind ja schon heute performanter als es ein Tegra4 mal sein wird..
Belege das mal bitte. ;)

schon gesehen?

http://www.tomshardware.de/Nvidia-Tegra4-Wayne,news-245909.html

Das ist die originäre Quelle: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8819244#post8819244

Avalox
2011-07-14, 09:41:46
Belege das mal bitte. ;)


Selbst in der merkwürdigen nVidia Notation (GPU und CPU Aufrechnung ) der Performance wird beim Spitzen Tegra4 Modell ein Faktor 10 zum Tegra 2 angegeben. Das sind allerdings die Bereiche in welchen sich schon heute aktuelle Atom CPUs allein schon in der CPU Performance seit einiger Zeit rumtreiben.

AnarchX
2011-07-14, 09:55:11
Hast du auch ein Beispiel wo ein Dual-Core Atom mit ~1,8GHz ~10-mal so schnell ist, wie ein Dual Cortex A9 mit 1GHz.

Ich glaube du überschätzt die IPC eines Atoms doch deutlich: http://www.hardware-infos.com/berichte.php?bericht=60&seite=7

AffenJack
2011-07-14, 11:28:23
So wie heute Apple Intel ATOM CPUs auch in ihren Geräten einsetzt, so könnten sie selber auf die Idee kommen auch in diese Gefilde mit eigenen SoCs vorzudringen. Aber das wird alles die iPods, iPhones und Papierdünnen iPads von morgen nur wenig tangieren.

In welchen Geräten setzt Apple gerade Atoms ein?

TheGoD
2011-07-14, 11:31:51
Also: Dann probier mal richtige Flash interfaces ;)

Putpat und BMW Konfigurator bitte. Da kommt nämlich selbst mein Core 2 Duo @3 GHz im HTPC ins Schwitzen.

Und von solchen Flashinterfaces gibts im Netz ne ganze Menge. Flash = HardwarefresserSorry, aber das ist doch Quatsch. Meine Antwort bezog sich natürlich darauf das es unsinnig ist Flash deiner Meinung nach in ein mobiles Gerät einzubauen da es schlicht zu ineffizent ist. Ich habe dir daher Nutzungsszenarios aufgelistet unter denen Flash gut funktioniert. Alleine schon auf Grund der vielzahl von Webseiten die keinen HTML5-Videostream bieten, jedoch Flash auf Android problemlos funktioniert würde ich kein Smartphone ohne Flash-Unterstützung kaufen, und schon gar kein Tablet. Das es natürlich auch Szenarien gibt unteren denen Flash in Verbindung mit einer ARM-CPU überfordert macht dein ursprüngliches Argument nicht richtiger.
Flashvideos müssen ja flüssig laufen, die werden ja beschleunigt. Flash selbst nicht.Um jetzt nicht ganz Off Topic zu sein:
http://www.anandtech.com/show/4098/nvidias-tegra-2-take-two-more-architectural-details-and-design-wins/4

Laut Anandtech bietet Tegra 2 "Full Flash GPU Acceleration"^^

Könnte noch jmd etwas zu Tegra 2 und MSAA sagen?

AnarchX
2011-07-14, 11:39:21
Könnte noch jmd etwas zu Tegra 2 und MSAA sagen?
Theoretisch 5x CSAA (wohl 2x MSAA mit 3x Coverage).

Avalox
2011-07-14, 11:47:06
In welchen Geräten setzt Apple gerade Atoms ein?

Das habe ich mit GoogleTV verwechselt, dort steckt ein simpler Atom SoC drin, wie in meiner BoxeeBox. AppleTV benutzt ja den Apple eigenen SoC.

Xmas
2011-07-14, 12:18:59
Theoretisch 5x CSAA (wohl 2x MSAA mit 3x Coverage).
Tegra CSAA nutzt nur 4 zusätzliche Coverage Samples. MSAA wird nicht unterstützt.

Dural
2011-07-14, 12:25:19
Atom wird nie die Konkurenz zu ARM sein, x86 ist in diesen Verbrauchs-Regionen deutlich schwächer.

Und Tegra4 bringt wohl 8 Kerne mit bis zu 2GHz, dann hat wohl ein billiger Core 2 Duo nichts mehr zu melden ;)

Screemer
2011-07-14, 14:00:57
und was bringen dir 8 von den kernen, wenn ipc niedriger ist als die eines atoms? beliebig parallelisieren lässt sich halt doch nicht. "x86 ist tot" wird seit wieviel jahren propagiert? das die verbrauchswerte von arm mit mehr bums auch zunimmt und x86-cpus in den letzten jahren immer effizienter wurden fällt irgendwie immer unter den tisch.

Avalox
2011-07-14, 14:44:32
dann hat wohl ein billiger Core 2 Duo nichts mehr zu melden ;)

In der Wunschvorstellung von nVidia vielleicht, in welcher die Shaderperformance der CPU Performance der 8 ARM Kerne magisch hinzugefügt wird.

Der Tegra4 macht Intel im Bereich der Atom CPUs Konkurrenz und auf dem Level spielt dort nVidia auch. Das sieht man ja auch schon an der angestrebten Positionierung der Gerät. Tablets, Streamingclients, Netbooks und extra sparsame klein Notebooks.

So wie Intel die Kleinstgeräte verwährt geblieben sind, so ist es einen nVidia bisher verwehrt gewesen in die Liga der Netbooks mitzuspielen. Dass soll der Tegra4 ändern. Natürlich wird er dort mehr Strom verbrauchen, als die heutigen mobilen ARM SoCs. Aber vielleicht weniger als ein besserer Atom, vielleicht wird es auch etwas flinker. Aber am Niveau wird sich grundsätzlich nichts ändern.

Aber wer braucht heute schon überhaupt die Perfomance einer Desktop CPU? Deshalb wird die Strategie den Markt vom billigen unten aufzurollen schon recht gut aufgehen.

Zudem tritt nVidia garantiert nicht aus Zufall jetzt vor der Product Launch eines Tegra 3 bzw. Tegra4 aus dem BAPCo Benchmark Verein aus.


Was die neue diversifizierte IT Welt Gutes mitbringt ist doch, dass nicht mehr die Performance des Benchmarks zählt, sondern wieviel Performancegefühl beim Nutzer davon ankommt.

Ailuros
2011-07-14, 20:15:44
Aber wer braucht heute schon überhaupt die Perfomance einer Desktop CPU? Deshalb wird die Strategie den Markt vom billigen unten aufzurollen schon recht gut aufgehen.

Mir tun diejenigen SoC Hersteller ernsthaft leid die ab 28nm nicht desktop Leistung (muss ja nicht der letzte Schrei im heutigen desktop sein) sowohl von der CPU als auch von der GPU Seite liefern werden.

Selbst am Anfang wird eine 2*A15 CPU@=/>2GHz verdammt gute CPU Leistung bringen und das sogar in nur smart-phones. Alles andere als low end.

Ooops Moment NV gehoert gar nicht zu den A15 lead partners; aendert aber trotz allem nichts am obrigen. Hoehere Effizienz bzw. Leistung hat niemand geschadet egal woher es kommt. Ausserdem ist mainstream und low end das high end von gestern. Man nennt es auch technologischen Fortschritt sonst braucht man auch kein mobiles Geraet jeglicher Art und rechnet noch mit einem Abakus.

AnarchX
2011-07-22, 17:10:49
Wayne mit einer "N CPU":
http://img854.imageshack.us/img854/8323/002xd.jpg (http://imageshack.us/photo/my-images/854/002xd.jpg/)

http://www.4gamer.net/games/126/G012690/20110722062/screenshot.html?num=002

Wohl möglich mehr als 4 CPU-Cores? Oder N=2?

Hugo78
2011-07-22, 17:28:17
N wird wohl nur für eine unbestimmte Menge stehen.

AnarchX
2011-07-22, 17:33:10
N-Core wird häufig für ein CPU mit mehr als 4 oder 8-Cores verwendet.

AnarchX
2011-07-22, 18:59:44
Acer plans to launch the world's first notebook powered by a dual-core Tegra 2 CPU in July and will also release new models running on Android 3.2, said Wang, adding that Acer also plans to launch Intel-based Ultrabooks in December.
http://www.digitimes.com/news/a20110721PD215.html
Hat man da Toshiba mit dem AC100 vergessen? Vielleicht schafft man eine Basis für ein T3-Notebook, wo aber ein Ubuntu mit passenden Treibern nicht verkehrt wäre.

hell_bird
2011-07-22, 22:02:26
N-Core wird häufig für ein CPU mit mehr als 4 oder 8-Cores verwendet.
Ich erinnere mich an ein nVidia statement, vielleicht war es auch auf Project Denver bezogen, wo sie gesagt haben, dass sie derzeit 8 CPU Kerne als Optimum empfinden. Mehr werden wir schätz ich in den nächsten Jahren nicht sehen.