PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - nVidia Tegra-SoCs


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 [19] 20 21 22 23 24 25 26

Ailuros
2014-05-25, 14:54:34
Trine2 video auf Xiaomi MiPad: http://youtu.be/Tr3F39MHS9o

Blediator16
2014-05-25, 15:00:14
Mai 2014 und ein Video, was Augenkrebs hervorruft.

Ailuros
2014-05-25, 16:37:36
http://www.merimobiles.com/the-xiaomi-mipad-16gb_p/meri10163.htm?setCurrencyId=33

deekey777
2014-05-27, 10:39:01
https://www.youtube.com/watch?v=vT9H1K7WXBY&feature=youtu.be

Lenovo Terminator S9 http://www.mobilegeeks.com We go eyes on with a beauty of a TV by Lenovo the Terminator K9 a 50" 4K TV that has the option to add in an Nvidia Tegra K1 module in the back for around $150 USD!

Ailuros
2014-05-27, 18:43:54
http://www.fool.com/investing/general/2014/05/16/nvidia-powers-xiaomis-ipad-killer.aspx

....und weil sich sicher einige den Kopf kratzen werden wie der Author auf die "Gewinnsraten" in seiner Tabelle kommt:

Ashraf Eassa is a Senior Technology Specialist with The Motley Fool. :freak:

Timbaloo
2014-05-27, 18:50:04
:facepalm:

AffenJack
2014-05-27, 20:50:58
Was habt ihr gegen seine Rechnungen? Sie dürften recht nah an der Wahrheit liegen und dass man anhand eines Gerätes erstmal den Gewinn daran berechnet ist auch normal. Verschiedene Geräte haben verschiedene Margen und den Gewinn kann man dann mit den Investitionen verrechnen.

deekey777
2014-05-28, 10:50:16
Android source reveals more Nexus 8 traces – confirms Tegra based (http://www.myce.com/news/android-source-reveals-more-nexus-8-traces-confirms-tegra-based-71673/)
Another interesting entry confirms that the Flounder will be Tegra based. Although the change mentions 32-bit, another item mentions 64-bit. Given the incredible amount of effort Google appears to be making to add 64-bit support to Android, our best bet will be that Flounder will run on an upcoming 64-bit version of Android, using a 64-bit Nvidia Tegra ARM CPU which we discovered previously

Ach, keine Ahnung. Ich gönne es aber Nvidia allemal.

Ailuros
2014-05-28, 10:56:23
Was habt ihr gegen seine Rechnungen? Sie dürften recht nah an der Wahrheit liegen und dass man anhand eines Gerätes erstmal den Gewinn daran berechnet ist auch normal. Verschiedene Geräte haben verschiedene Margen und den Gewinn kann man dann mit den Investitionen verrechnen.

* Wenn Du wirklich glaubst dass NV oder jegliches NV 45% gross profit von einem solchen SoC machen kann dann gerne.

* Je hoeher der potentielle Volumen deal desto niedriger die Preise; bei einem Geraet bei einem vorgeschlagenen MSRP von umgerechnet $240 wird der SoC eben NICHT so viel wie $20 ueber den Ladentisch gehen.

* Wenn wir schon dabei sind definier mal fuer den einfachen Leser was Du unter "gross profit" im gegebenen Fall verstehst.

Noch etwas:

Now, NVIDIA's Tegra business seems to be at a $135 million or so quarterly run rate, so a $100 million win (in the case that this sells 5 million units) spread over four quarters would be a pretty material win. However, it's important to keep expectations in check -- this one design isn't going to change NVIDIA's fortunes, but it is likely to be indicative that NVIDIA's Tegra K1 product is competitive and viable, thus leading to other wins in the future.

Selbst wenn ich die $25Mio pro Quartal akzeptieren sind es $160Mio pro Quartal Umsatz, welches nur eine maessige Reduzierung des insgesamten Verlustest bedeutet. Nicht dass die 5Mio Verkaufsvolumen irgendwo garantiert sind aber damit es erstmal irgendwie weiter geht brauchen sie zumindest eine zweistellige Summen von solchen design wins.

Aber ich bin wirklich daran interessiert wie er auf die 45% gross profit margins kommt oder noch einfacher wie viel er schaetzt dass jeder K1 unter 28HPm genau in Herstellung kostet.

Dural
2014-05-28, 13:24:46
45% halte ich jetzt nicht wirklich für viel, die Margen liegen bei den Chip Firmen ja in der Regel wenn es rund läuft um die 50-55%

und wie so man mit einem K1 derzeit keine 45% erreichen soll, verstehe ich nicht?! Der SoC ist von mir ausgesehen derzeit Konkurrenzlos und da muss man auch mal etwas verdienen können.

AffenJack
2014-05-28, 15:26:21
* Wenn Du wirklich glaubst dass NV oder jegliches NV 45% gross profit von einem solchen SoC machen kann dann gerne.

* Je hoeher der potentielle Volumen deal desto niedriger die Preise; bei einem Geraet bei einem vorgeschlagenen MSRP von umgerechnet $240 wird der SoC eben NICHT so viel wie $20 ueber den Ladentisch gehen.

* Wenn wir schon dabei sind definier mal fuer den einfachen Leser was Du unter "gross profit" im gegebenen Fall verstehst.


Also zuerst einmal, Gross Profit ist das Verhaeltnis Herstellungskosten zu Verkaufspreis. NV erhaelt hat also 45% des Verkaufspreises als Gewinn. Das hat nix mit Entwicklungskosten,Marketing etc zu tun. Nur das simpelste Kosten/Gewinn Verhaeltnis.

Nur mal als Relation, Mediatek hat 43% Gross Profit im Durchschnitt, Qualcomm 63%. Bei 63% Gross Profit duerften die Qualcomm Manager lachend aus dem Verhandlungssaal rennen, wenn irgendwer bei sonstwie grossen Deals Preise mit unter 50% Marge will. NV wird selbst bei Volumendeals kaum auf Margen setzen die tiefer sind als Mediatek. 45% sind daher ne ganz gute Schaetzung.


Selbst wenn ich die $25Mio pro Quartal akzeptieren sind es $160Mio pro Quartal Umsatz, welches nur eine maessige Reduzierung des insgesamten Verlustest bedeutet. Nicht dass die 5Mio Verkaufsvolumen irgendwo garantiert sind aber damit es erstmal irgendwie weiter geht brauchen sie zumindest eine zweistellige Summen von solchen design wins.


Natuerlich, aber es geht im Text ja auch nur darum, wieviel dieser eine Deal bringen kann. Die Einnahmen werden dann natuerlich mit den Investitionskosten verrechnet, aber der Deal koennte halt 45 Millionen Gewinn bei guten Verkaufszahlen liefern.


Aber ich bin wirklich daran interessiert wie er auf die 45% gross profit margins kommt oder noch einfacher wie viel er schaetzt dass jeder K1 unter 28HPm genau in Herstellung kostet.

45% hab ich ja schon erklaert, Kosten sind schon schwerer einzuschaetzen. Bei 5000$ per Wafer in HPM (aus Maxwellthread), 100mm2 Diesize und 90% Yield bin ich bei knapp unter 10$ nur Silizium, dazu Packaging, keine Ahnung was noch. Da kommt man etwa auf 11Dollar die er als Chipkosten berechnet hat. Klingt auch plausibel fuer mich.

Ailuros
2014-05-28, 16:12:10
Also zuerst einmal, Gross Profit ist das Verhaeltnis Herstellungskosten zu Verkaufspreis. NV erhaelt hat also 45% des Verkaufspreises als Gewinn. Das hat nix mit Entwicklungskosten,Marketing etc zu tun. Nur das simpelste Kosten/Gewinn Verhaeltnis.

Nur mal als Relation, Mediatek hat 43% Gross Profit im Durchschnitt, Qualcomm 63%. Bei 63% Gross Profit duerften die Qualcomm Manager lachend aus dem Verhandlungssaal rennen, wenn irgendwer bei sonstwie grossen Deals Preise mit unter 50% Marge will. NV wird selbst bei Volumendeals kaum auf Margen setzen die tiefer sind als Mediatek. 45% sind daher ne ganz gute Schaetzung.

Beim Nexus7 waren die Margen alles andere als glohrreich. Der Mediatek Vergleich ist eh fuer die Muelltonne weil MTK hauptsaechlich bei einstelligen SoC Preisen verkauft.

Und wenn ein Mediatek in 2013 nur fuer smartphones 200Mio SoCs verkauft hat, dann rechne mal selber aus inwiefern solche Volumen die Herstellungskosten beinflussen koennten; gleiches gilt auch fuer QCOM aber eben nicht fuer NV's paar pissat Mio SoCs Volumen pro Jahr.

Da kann man sehr schnell "denken" oder "spekulieren" dass NV gleiche Margen zu solchen Verkaufs-groessen hat, aber hier genau liegt eben die Albernheit des Authors der sich auch noch als "Experte" verkaufen will.


45% hab ich ja schon erklaert, Kosten sind schon schwerer einzuschaetzen. Bei 5000$ per Wafer in HPM (aus Maxwellthread), 100mm2 Diesize und 90% Yield bin ich bei knapp unter 10$ nur Silizium, dazu Packaging, keine Ahnung was noch. Da kommt man etwa auf 11Dollar die er als Chipkosten berechnet hat. Klingt auch plausibel fuer mich.

Um das Ganze kuerzer zu machen: ein HPm wafer kostet etwas ueber $4000, ROFL zu den 90% yields und damit der Duenschiss von den angeblichen 45% hinhaut muesste jeder wafer um einiges groesser sein.

hasebaer
2014-05-28, 17:42:49
Android source reveals more Nexus 8 traces – confirms Tegra based (http://www.myce.com/news/android-source-reveals-more-nexus-8-traces-confirms-tegra-based-71673/)


Ach, keine Ahnung. Ich gönne es aber Nvidia allemal.

Wäre natürlich geil wenn vom Nexus 8 auch gleich eine 64bit Version kommt, wenn auch um 1Q verzögert oder so.

AffenJack
2014-05-28, 20:02:36
Beim Nexus7 waren die Margen alles andere als glohrreich. Der Mediatek Vergleich ist eh fuer die Muelltonne weil MTK hauptsaechlich bei einstelligen SoC Preisen verkauft.

Eigentlich wollte ich gerade ne Entgegnung schreiben, dass ich nicht daran glaube bei den 63% Marge, dann ist mir aber aufgefallen wie groß QC Lizensierungszweig ist. Die erwirtschaften ja alleine 7Mrd Umsatz mit Lizenzen die nahe 100% Gross Profit sind. Zieht man das ab sindwa nur bei 47-50% Gross Profit bei den QC SoCs. Da kanns dann auchmal Richtung 40% oder leicht tiefer bei großen Volumen gehen.


Um das Ganze kuerzer zu machen: ein HPm wafer kostet etwas ueber $4000, ROFL zu den 90% yields und damit der Duenschiss von den angeblichen 45% hinhaut muesste jeder wafer um einiges groesser sein.


Nun, ich hab keine Infos dazu und kann halt nur raten. Nach dem Nachrechnen eben glaube ich auch nicht mehr wirklich an 45%. Etwas unter 40% klingt für mich noch realistisch. An viel tiefere Werte glaube ich nicht.

Übrigens nochmal zu nem vorherigen Punkt:
bei einem Geraet bei einem vorgeschlagenen MSRP von umgerechnet $240 wird der SoC eben NICHT so viel wie $20 ueber den Ladentisch gehen.

Im Xiaomi Hongmi soll der MTK6589T +Modem (oder das ist schon drinne im SoC, keine Ahnung) lauft Marktforschern 17$ kosten bei Gesamtgerätekosten von 85$. Xiaomi Verkaufspreis 130$. Das gibt Xiaomi also für nen Quad A7 aus, also ja, ich kann mir durchaus 20$ oder mehr vorstellen bei deren 240$ Gerät.
http://press.trendforce.com/press/20130829-853.html

Ailuros
2014-05-28, 22:37:00
Der MT6589T ist schon ueber ein Jahr auf dem Markt und kostet auf keinen Fall nicht mal annaehernd $17 und Du verlinkst mich auf einen August 2013 Artikel. Wenn dem so waere was wuerde Mediatek dann fuer den neueren und schnelleren MT6592 verlangen bzw. was wuerde QCOM im Gegensatz fuer einen S800/801 verlangen?

Das Hongmi kostet heute in China in Euros um die 120-130 Euros:

http://www.merimobiles.com/xiaomi-hongmi-red-rice-wcdma_p/meri9833.htm

Als der MT6589T Mitte 2013 erschienen ist kosteten smartphones damit schon zwischen 180 und 240 Euros. Heute kostet ein Xiaomi mit einem MT6592:

http://www.merimobiles.com/xiaomi-hongmi-note-2-mt6592-eight-core-1-7ghz-5-5-inch_p/meri10225.htm

Gehen wir nochmal zurueck auf die bisherige "Tatsache" dass das 16GB MiPad sich umgerechnet in China fuer ca. 170 Euro verkaufen soll bei seinem start.

Einen Schritt sind wir schon naeher mit den Margen denn es war nicht schwer dies einzusehen; bleibt jetzt nur noch der Anteil dass ein MT6589T und sogar ein neuerer MT6592 um einiges kleiner sind als ein K1. Wie stellst Du Dir das vor dass Mediatek irgendwo um den $1 pro mm2 fuer jeglichen SoC verlangt? Ein MT6589 hat 4*A7@1.5GHz und einen einzelnen SGX544@384MHz (~3.2mm2@28nm); unter 28nm ist die GK20A GPU fast 8x Mal so gross, bei den CPUs sieht es auch nicht anders aus alles andere mal abgesehen. Da ist die Relativierung 17 zu $20 wohl total fehl am Platz ;) Wenn Hersteller um den $1 pro mm2 verlangen wuerden dann muesste auch jeder K1 SoC ueber $100 kosten :P

AffenJack
2014-05-29, 01:56:28
Der MT6589T ist schon ueber ein Jahr auf dem Markt und kostet auf keinen Fall nicht mal annaehernd $17 und Du verlinkst mich auf einen August 2013 Artikel. Wenn dem so waere was wuerde Mediatek dann fuer den neueren und schnelleren MT6592 verlangen bzw. was wuerde QCOM im Gegensatz fuer einen S800/801 verlangen?

Jetzt vielleicht nicht mehr, bei Einführung letztes Jahr kann ich mir das durchaus vorstellen. 4xA7 war da durchaus nicht mehr LowestEnd. Durchschnittler Smartphones-SoC Preis war letztes Jahr knapp über 16$ hatte ich irgendwo gelesen. Da darin ja auch Billigsmartphones drin sind, muss man erstmal auf so einen Wert kommen. Würde daher ~30$ für S801 schätzen.


Das Hongmi kostet heute in China in Euros um die 120-130 Euros:

Als der MT6589T Mitte 2013 erschienen ist kosteten smartphones damit schon zwischen 180 und 240 Euros. Heute kostet ein Xiaomi mit einem MT6592:

Die Händlerpreise in dem Link kannst vergessen. Das Hongmi hat immer 130$ gekostet in China. Auch als alle anderen mit MT6589T 180-240€ gekostet haben. Du hast angezweifelt, dass man 20$ für einen SoC ausgeben kann, wenn man bei 240$ verkauft wie das Mipad. Ich wollte nur zeigen, dass Xiaomi dank winziger Margen auch nen 17$ SoC in ein 130$ Handy reinpackt, also wohl auch keine Probleme hätte für K1 25$ oder mehr für ihr 240$ Gerät zu zahlen.

Einen Schritt sind wir schon naeher mit den Margen denn es war nicht schwer dies einzusehen; bleibt jetzt nur noch der Anteil dass ein MT6589T und sogar ein neuerer MT6592 um einiges kleiner sind als ein K1. Wie stellst Du Dir das vor dass Mediatek irgendwo um den $1 pro mm2 fuer jeglichen SoC verlangt? Ein MT6589 hat 4*A7@1.5GHz und einen einzelnen SGX544@384MHz (~3.2mm2@28nm); unter 28nm ist die GK20A GPU fast 8x Mal so gross, bei den CPUs sieht es auch nicht anders aus alles andere mal abgesehen. Da ist die Relativierung 17 zu $20 wohl total fehl am Platz ;) Wenn Hersteller um den $1 pro mm2 verlangen wuerden dann muesste auch jeder K1 SoC ueber $100 kosten :P

Nun zuerst einmal, so klein wird MT6592 nicht sein. Dazu hat er zuviel integriert. Dank Modemintegration etc. könnte er die halbe Größe von K1 erreichen. Aber natürlich hätte MTK da bei 17 zu 20$ Verhältnis ne bessere Marge. Nur kann man nichtmal davon ausgehen, dass Nv nur 20$ bekommt, wenn selbst Mediatek soviel nimmt. Darum gings mir da.

Ailuros
2014-05-29, 08:56:11
Jetzt vielleicht nicht mehr, bei Einführung letztes Jahr kann ich mir das durchaus vorstellen. 4xA7 war da durchaus nicht mehr LowestEnd. Durchschnittler Smartphones-SoC Preis war letztes Jahr knapp über 16$ hatte ich irgendwo gelesen. Da darin ja auch Billigsmartphones drin sind, muss man erstmal auf so einen Wert kommen. Würde daher ~30$ für S801 schätzen.

Nein und abermals nein. Der S801 ist schon richtig eingeschaetzt nur ist im Vergleich zu diesem ein 6592 und noch mehr ein 6589 ein absoluter Winzling. Um es Dir leichter zu machen bei der Vorstellung des letzten im vorigen Jahr war der SoC Preis gerade noch zweistellig. A7 war schon immer low end.

Die Händlerpreise in dem Link kannst vergessen. Das Hongmi hat immer 130$ gekostet in China. Auch als alle anderen mit MT6589T 180-240€ gekostet haben.

Dann verfolgen wir offensichtlich andere Maerkte; das Hongmi wurde um einiges spaeter vorgestellt als MT6589T smartphones wie von Lenovo oder Zopo in 2013.

Du hast angezweifelt, dass man 20$ für einen SoC ausgeben kann, wenn man bei 240$ verkauft wie das Mipad.

Es haengt alles davon ab wie viel Xiaomi vorbestellt hat. Bei einem hypothetischen 5Mio Volumen ist $20 zu viel; damit aber Xiaomi so billig verkaufen kann haben sie wohl nicht weniger vorbestellt.

Ich wollte nur zeigen, dass Xiaomi dank winziger Margen auch nen 17$ SoC in ein 130$ Handy reinpackt, also wohl auch keine Probleme hätte für K1 25$ oder mehr für ihr 240$ Gerät zu zahlen.

Der MT6589T hat NIE so viel gekostet. Damit ein smartphone heute nur so viel kostet wie das Hongmi kannst Du Gift darauf nehmen dass der SoC Preis garantiert einstellig ist und naeher an eine handvoll $.

Nun zuerst einmal, so klein wird MT6592 nicht sein. Dazu hat er zuviel integriert. Dank Modemintegration etc. könnte er die halbe Größe von K1 erreichen.

Nicht mal annaehernd. Wie viel Platz nimmt ein einziger A7 unter 28HPm ein und wieviel die Mali450MP6 GPU? Das modem soll inwiefern irgendwelche Sorgen machen?

http://community.arm.com/servlet/JiveServlet/previewBody/7612-102-1-11505/Enabling_Mobile_Innovation_with_the_Cortex-A7_Processor.pdf

Sehe ich 0.45mm2 unter 28nm fuer jeden A7 laut ARM? Ich hake Dir noch etwas ab fuer HPm und behaupte mal grosszuegig 0.4 mm2 /A7 core mal 8 sind es 3.2mm2. Die Mali450 GPU ist ein OGL_ES2.0 Ding (<DX9L1) mit 6 TMUs und FP16 fragment ALUs; ich hab zwar keine Daten dafuer aber mehr als schaetzungweise ~5mm2 wird das Ding unter 28HPm nicht einnehmen. Streng Dich jetzt an mir zu erklaeren was sie tolles in den 6592 reingesteckt haben dass ploetzlich auf nochmal fast 42mm2 kommen soll :freak:

50mm2 wuerde ich persoenlich eher T4i einschaetzen aber dieser liegt auch um einige Laengen hoeher in Leistung und die area als ein 6592.


Aber natürlich hätte MTK da bei 17 zu 20$ Verhältnis ne bessere Marge. Nur kann man nichtmal davon ausgehen, dass Nv nur 20$ bekommt, wenn selbst Mediatek soviel nimmt. Darum gings mir da.

Nein und abermals nein fuer MTK. Damit wir uns im klaren sind:

fuer Mediateks low end SoCs (fuer ihr eigenes product portofolio) sind die SoC Preise einstellig und fuer ihre "high end" SoCs (stets fuer ihr eigenes Angebot) stets etwas mehr als zweistellig.

In 2013 hat MTK ~200Mio smartphone SoCs verkauft und projeziert fuer dieses Jahr ~300Mio smartphones und ~40Mio tablet SoCs.

Schau Dir mal hier die design wins nur fuer den MT6592 an sowohl in smartphones als auch in tablets: http://en.wikipedia.org/wiki/Mediatek

Wenn MTK nicht mit laecherlich kleinen Preisen spielen wuerde wuerden sie auch nicht in so grossen Massen verkaufen ueberhaupt im chinesischen Markt. Revenue und net income fuer 2013 stets rechts im wiki link.

Skysnake
2014-05-29, 09:42:20
45% hab ich ja schon erklaert, Kosten sind schon schwerer einzuschaetzen. Bei 5000$ per Wafer in HPM (aus Maxwellthread), 100mm2 Diesize und 90% Yield bin ich bei knapp unter 10$ nur Silizium, dazu Packaging, keine Ahnung was noch. Da kommt man etwa auf 11Dollar die er als Chipkosten berechnet hat. Klingt auch plausibel fuer mich.
Vergiss es!

Packaging UND! vor allem auch das Testen sind bei so kleinen Chip ein signifikanter Kostenanteil. Gut bei großen Chips auch, aber relativ gesehen tendenziell eher weniger.

Schlimm sind aber die Fixkosten auf R&D. Bei so kleinen Stückzahlen wie nVidia Sie absetzt, hauen die rein wie blöd. ASICs lohnen sich erst, wenn man wirklich große Stückzahlen absetzt, einfach weil die Entwicklung UND! Validierung so scheis teuer sind. Deswegen nimmt man ja auch gern eine etwas kleinere Marge hin, wenn man dafür massiv mehr absetzen kann. Der Fixkostenanteil schrumpft halt schön linear, und der killt dich eben bei kleinen Deals.

Selbst ein Deal bei dem man selbst NULL! Gewinn macht, lohnt sich daher, weil damit eben ein Teil der Fixkosten amortisiert werden.

AffenJack
2014-05-29, 10:49:28
Nein und abermals nein. Der S801 ist schon richtig eingeschaetzt nur ist im Vergleich zu diesem ein 6592 und noch mehr ein 6589 ein absoluter Winzling. Um es Dir leichter zu machen bei der Vorstellung des letzten im vorigen Jahr war der SoC Preis gerade noch zweistellig. A7 war schon immer low end.


Dir ist schon klar, dass Mediateks Average Selling Price (Kann man sich ausrechnen) letztes Jahr bei über 10 $, eher 12 $ bei Smartphones-SoCs war. Nun erzähle mir bitte, welche SoCs Mediatek in großen Mengen für 15 $ oder sogar mehr verkauft hat um die billig-SoCs auszugleichen, die nur paar $ kosten. Octacore SoCs haben erst in Q1 Nennenswert zum Verkauf beigetragen. Quad A7 kosten laut dir weniger, nur bleibt dann glaube nix mehr übrig.

Es haengt alles davon ab wie viel Xiaomi vorbestellt hat. Bei einem hypothetischen 5Mio Volumen ist $20 zu viel; damit aber Xiaomi so billig verkaufen kann haben sie wohl nicht weniger vorbestellt.


An dem Punkt werden wir nicht zusammen kommen, da du in meinen Augen die SoC Preise schon bei MTK unterschätzt.


Sehe ich 0.45mm2 unter 28nm fuer jeden A7 laut ARM? Ich hake Dir noch etwas ab fuer HPm und behaupte mal grosszuegig 0.4 mm2 /A7 core mal 8 sind es 3.2mm2. Die Mali450 GPU ist ein OGL_ES2.0 Ding (<DX9L1) mit 6 TMUs und FP16 fragment ALUs; ich hab zwar keine Daten dafuer aber mehr als schaetzungweise ~5mm2 wird das Ding unter 28HPm nicht einnehmen. Streng Dich jetzt an mir zu erklaeren was sie tolles in den 6592 reingesteckt haben dass ploetzlich auf nochmal fast 42mm2 kommen soll :freak:

50mm2 wuerde ich persoenlich eher T4i einschaetzen aber dieser liegt auch um einige Laengen hoeher in Leistung und die area als ein 6592.

Glaube es hieß mal 60mm² für T4i, bin aber unsicher. Wie gesagt, rechne nicht nur Cpu und Grafik. Ich weiß nicht, wieweit die schematischen Floor plans bei S805 z.B. stimmen. Aber Nv, QC alle haben immer gezeigt, dass CPU und Grafik nur nen Bruchteil des SoCs sind. Das Modem soll bei QC z.B. 20mm² groß sein. Mediateks im 6589 soll gerade mal 7mm² sein. Dazu kommen aber halt noch paar andere Sachen. L2, Memory Controller, Videoprozessoren usw. 50mm2 wird übertrieben sein, aber es sind auch nicht nur paar mm² wie du suggerierst.


fuer Mediateks low end SoCs (fuer ihr eigenes product portofolio) sind die SoC Preise einstellig und fuer ihre "high end" SoCs (stets fuer ihr eigenes Angebot) stets etwas mehr als zweistellig.

In 2013 hat MTK ~200Mio smartphone SoCs verkauft und projeziert fuer dieses Jahr ~300Mio smartphones und ~40Mio tablet SoCs.

Schau Dir mal hier die design wins nur fuer den MT6592 an sowohl in smartphones als auch in tablets: http://en.wikipedia.org/wiki/Mediatek

Wenn MTK nicht mit laecherlich kleinen Preisen spielen wuerde wuerden sie auch nicht in so grossen Massen verkaufen ueberhaupt im chinesischen Markt. Revenue und net income fuer 2013 stets rechts im wiki link.


Ja, ich geh da konform mit dir, dass Mediatek zu kleinen Preisen verkauft. Aber kleiner Preis zum Mitbewerber ist immer relativ. Wie oben geschrieben sinds auf jeden Fall etwas mehr als du annimmst. Sonst käme man nicht auf seine Nettoumsätze. Und 12$ Average Selling Price ist doch auch sehr niedrig, wenn man sich z.B. QC anguckt die bei 23$ liegen sollten. Da muss ich an meiner vorherigen Einschätzung mit 30$ für S801 zweifeln, ob das nicht sogar mehr wird, aer kommt natürlich drauf an ob Samsung oder jetzt wer kleiner wie HTC anfragt.

Ailuros
2014-05-29, 11:20:33
Dir ist schon klar, dass Mediateks Average Selling Price (Kann man sich ausrechnen) letztes Jahr bei über 10 $, eher 12 $ bei Smartphones-SoCs war. Nun erzähle mir bitte, welche SoCs Mediatek in großen Mengen für 15 $ oder sogar mehr verkauft hat um die billig-SoCs auszugleichen, die nur paar $ kosten. Octacore SoCs haben erst in Q1 Nennenswert zum Verkauf beigetragen. Quad A7 kosten laut dir weniger, nur bleibt dann glaube nix mehr übrig.

Weil MTK nur smartphone SoCs verkauft oder?

An dem Punkt werden wir nicht zusammen kommen, da du in meinen Augen die SoC Preise schon bei MTK unterschätzt.

Ein SoC der weniger als 1/3 von einem K1 an die area hat wird wohl kein $17 zu 20 Verhaeltnis haben egal ob Du mir dafuer Kopfstaende stehst.

Glaube es hieß mal 60mm² für T4i, bin aber unsicher. Wie gesagt, rechne nicht nur Cpu und Grafik. Ich weiß nicht, wieweit die schematischen Floor plans bei S805 z.B. stimmen. Aber Nv, QC alle haben immer gezeigt, dass CPU und Grafik nur nen Bruchteil des SoCs sind. Das Modem soll bei QC z.B. 20mm² groß sein. Mediateks im 6589 soll gerade mal 7mm² sein. Dazu kommen aber halt noch paar andere Sachen. L2, Memory Controller, Videoprozessoren usw. 50mm2 wird übertrieben sein, aber es sind auch nicht nur paar mm² wie du suggerierst.

Ein 6592 ist nichtmal annaehernd in der 50mm2 Region. Nichtmal in der 30mm2 Region selbst wenn Du mir das modem als zweistellig dazurechnest.

NV hat was genau bewiesen? Hol Dir die existierenden floorplans bis zu T3 selber vom Netz runter und dort nimmt die GPU egal wie bescheiden ca. 1/5 vom SoC die estate ein. Beim K1 ist es mehr als 1/4.


Ja, ich geh da konform mit dir, dass Mediatek zu kleinen Preisen verkauft. Aber kleiner Preis zum Mitbewerber ist immer relativ. Wie oben geschrieben sinds auf jeden Fall etwas mehr als du annimmst. Sonst käme man nicht auf seine Nettoumsätze. Und 12$ Average Selling Price ist doch auch sehr niedrig, wenn man sich z.B. QC anguckt die bei 23$ liegen sollten. Da muss ich an meiner vorherigen Einschätzung mit 30$ für S801 zweifeln, ob das nicht sogar mehr wird, aer kommt natürlich drauf an ob Samsung oder jetzt wer kleiner wie HTC anfragt.

Woher kommt nochmal der 12 average selling price fuer MTK?

Undertaker
2014-05-29, 11:36:42
Ein 6592 ist nichtmal annaehernd in der 50mm2 Region. Nichtmal in der 30mm2 Region selbst wenn Du mir das modem als zweistellig dazurechnest.

Ich glaube mit den < 30mm² verschätzt du dich. Ohne GPU, CPU und Funk kannst du in 28nm mindestens 15 mm² für den ganzen Rest an Speichercontroller, Videoengine etc. kalkulieren. Bei einem A7-Quad samt Mali-400 MP4 endest du ohne Funk irgendwo zwischen 20 und 25 mm², mit Modem sind die 30 mm² dann schnell erreicht.


Der MT6589T hat NIE so viel gekostet. Damit ein smartphone heute nur so viel kostet wie das Hongmi kannst Du Gift darauf nehmen dass der SoC Preis garantiert einstellig ist und naeher an eine handvoll $.

Man hört aktuell so Zahlen von ~6 $ für die low-end A7/A9-Quads ohne Modem.

Ailuros
2014-05-29, 11:41:05
Ich glaube mit den < 30mm² verschätzt du dich. Ohne GPU, CPU und Funk kannst du in 28nm mindestens 15 mm² für den ganzen Rest an Speichercontroller, Videoengine etc. kalkulieren. Bei einem A7-Quad samt Mali-400 MP4 endest du ohne Funk irgendwo zwischen 20 und 25 mm², mit Modem sind die 30 mm² dann schnell erreicht.

Deiner Groesszuegigkeit von 5mm2 zu liebe, die <30mm2 sind nicht aus der Luft gegriffen. Sonst hat der MT6592 8*A7 und einen Mali450MP6.

Man hört aktuell so Zahlen von ~6 $ für die low-end A7/A9-Quads ohne Modem.

Danke fuer die Bestaetigung.

deekey777
2014-05-29, 12:47:22
Sommerloch?

Undertaker
2014-05-29, 14:00:28
Deiner Groesszuegigkeit von 5mm2 zu liebe, die <30mm2 sind nicht aus der Luft gegriffen. Sonst hat der MT6592 8*A7 und einen Mali450MP6.

...was mich an der Glaubwürdigkeit deiner Quelle für diese Zahl noch etwas mehr zweifeln lässt. Zumal auch andere Dinge wie die komplexere Videoengine dort zusätzlichen Platz wegfressen dürften.

Sommerloch?

Wartezeit auf das Mi Pad...

Ailuros
2014-05-29, 18:27:53
...was mich an der Glaubwürdigkeit deiner Quelle für diese Zahl noch etwas mehr zweifeln lässt. Zumal auch andere Dinge wie die komplexere Videoengine dort zusätzlichen Platz wegfressen dürften.

Ich hab mir zumindest die Muehe gemacht und die CPU und GPU Groessen grob eingeschaetzt und diese sind zusammen nicht mehr als <9mm2@28HPm.

Aus was besteht denn genau der Mali450 um mal damit anzufangen denn es ist ja alles schoen und gut aber von einer anstaendigen Dokumentation oder halbwegs logischen Schaetzung sehe ich mal wieder gar nichts hier.

Weder der 6592 noch der 6589 sind annaehernd halb so gross als K1, um das geht es hier. Und nein weder/noch haben am Anfang so viel wie die eingeschaetzten $17 gekostet. So viel kostet nicht mal der MT8135.

Und wenn Du schon meinst dass der video decoder so toll ist auf dem 6592, fuer HEVC ist es eine sw Loesung die auf der 8*A7/CPU (nicht mal der GPU) laeuft....pah :eek: :freak: zumindest laut Zhu Shangzu@Mediatek in dem interview hier: http://www.esmchina.com/articleLogin.do?fromWhere=/ART_8800126853_1100_2201_3101_0_224e1ce1-02.HTM&article_id=8800126853&infoTypeId=1100&endMarketId=2201&productTypeId=3101&industryChainId=0

***edit: self correction: doch nur ein Mali450MP4 im 6592 aber der ~1mm2 macht auch keinen Unterschied.
Ein 400MP4 ist unter 40nm/TSMC knapp 9mm2 gross; ein 450 hat einen zweiten Vec2 VS mehr und extra cache und anderen Schnickschnack.

Skysnake
2014-05-29, 20:38:00
Und das wars dann wohl auch mit jedweden Margenaussichten im Automotivbereich, die es eventuell noch gegeben hat.

http://www.heise.de/newsticker/meldung/Kendrick-Peak-Intels-Computer-Plattform-fuer-Autos-2211117.html

Intel wird da rein drücken wie blöd, und sicherlich auch mit entsprechenden Werbehilfen winken.

Timbaloo
2014-05-29, 20:48:09
OMG intel kommt. Alle anderen werden untergehen!!!11

AffenJack
2014-05-29, 21:06:34
Weil MTK nur smartphone SoCs verkauft oder?

Das tun sie eben nicht, aber die Feature Phone Chips sind im niedrigen einstelligen Dollarbereich, während Smaprtphones durchaus höher sind. Allerdings sind die Smartphone-SoCs auf jeden Fall für den größten Teil von Mediateks Umsatz zuständig.

Ein SoC der weniger als 1/3 von einem K1 an die area hat wird wohl kein $17 zu 20 Verhaeltnis haben egal ob Du mir dafuer Kopfstaende stehst.


Stimmt, 25$ fr K1 klingen für mich sogar realistischer, egal ob dir der Preis überhaupt nicht passt.


Ein 6592 ist nichtmal annaehernd in der 50mm2 Region. Nichtmal in der 30mm2 Region selbst wenn Du mir das modem als zweistellig dazurechnest.


Da 6592 mittlerweile ja sogar LTE hat würde ich dem Modem auf jeden Fall nen zweistelligen mm² Anteil anrechnen und auch durchaus über 30m².

NV hat was genau bewiesen? Hol Dir die existierenden floorplans bis zu T3 selber vom Netz runter und dort nimmt die GPU egal wie bescheiden ca. 1/5 vom SoC die estate ein. Beim K1 ist es mehr als 1/4.


Du schreibst ja selbst, 25% GPU, nehmene wir dazu 10% CPU und wo bleibt der Rest? Der geht in Teile die selbst MTK nur teilweilse verkelinern kann.


Woher kommt nochmal der 12 average selling price fuer MTK?

War ne überschlagene Rechnung von mir selber anhand der MTK Verkaufszahlen und des Umsatzes. Wenn du möchtest kann ich dir gerne aber auch andere Zahlen raussuchen. Da gibts aber Leute die von 16, 17$ Average Selling Price bei MTK in Q1 2014 dank Octacores ausgehen. Das würfte dir aber aber deutlich weniger gefallen als meine 10-12$ Annahme für 2013 generell.

Übrigens ältere SoC Preise:
http://abload.de/img/gdhugkihavsyr.png (http://abload.de/image.php?img=gdhugkihavsyr.png)
http://abload.de/img/socuswrnszn.png (http://abload.de/image.php?img=socuswrnszn.png)
http://research.maybank-ib.com/pdf/documentrg/Taiwan_Mediatek_1258.pdf

Aber ich gehe davon aus, dass du mir auch bei den Preisen sowieso nicht glauben wirst. Aber ich glaube lieber verschiedenen Analysen die alle das selbe behaupten als deinen Quellen, obwohl ich dich und deine Quellen normalerweisse für sehr zuverlässig und treffsicher erachte.

Ailuros
2014-05-29, 22:01:46
Das tun sie eben nicht, aber die Feature Phone Chips sind im niedrigen einstelligen Dollarbereich, während Smaprtphones durchaus höher sind. Allerdings sind die Smartphone-SoCs auf jeden Fall für den größten Teil von Mediateks Umsatz zuständig.

Macht Deine Rechnung aber nicht korrekter und mit all den Aquisierungen wie MStar wird es noch Komplizierter ab 14'.

Stimmt, 25$ fr K1 klingen für mich sogar realistischer, egal ob dir der Preis überhaupt nicht passt.

In einem $500 Produkt könnte NV auch locker 35 verlangen und es auch bekommen. Sonst hat es über haupt nicht damit zu tun was mir passen sollte oder nicht. Xiaomi wird zwar vom Staat teilweise finanziert kann aber auch nicht unendlich mit Verlusten verkaufen. Beim Mi2 waren es um die $70 pro Gerät.


Da 6592 mittlerweile ja sogar LTE hat würde ich dem Modem auf jeden Fall nen zweistelligen mm² Anteil anrechnen und auch durchaus über 30m².

Das 6595 hat LTE, für das 6592 höre ich es zum ersten Mal. Hast nen link dazu?

***edit: damit wir uns nicht falsch verstehen 6592 = 3G, 6595 = 4G

Du schreibst ja selbst, 25% GPU, nehmene wir dazu 10% CPU und wo bleibt der Rest? Der geht in Teile die selbst MTK nur teilweilse verkelinern kann.

Nein scroll hoch. Ich sagte beim K1 ist die GPU 1/4 und 1/5 ca auf den vorigen Tegras. CPU + GPU durften auf dem 6592 beide bei 7-8mm2 zusammen liegen unter 28HPm.



War ne überschlagene Rechnung von mir selber anhand der MTK Verkaufszahlen und des Umsatzes. Wenn du möchtest kann ich dir gerne aber auch andere Zahlen raussuchen. Da gibts aber Leute die von 16, 17$ Average Selling Price bei MTK in Q1 2014 dank Octacores ausgehen. Das würfte dir aber aber deutlich weniger gefallen als meine 10-12$ Annahme für 2013 generell.

Analysten und möchte gern Analysten gibt es tonnenweise im Netz.
Wenn QCOM um die 30 für ihre high end SoCs bekommt dann kann ein <1/4 SoC eben nicht mehr als halb so viel kosten.



Aber ich gehe davon aus, dass du mir auch bei den Preisen sowieso nicht glauben wirst. Aber ich glaube lieber verschiedenen Analysen die alle das selbe behaupten als deinen Quellen, obwohl ich dich und deine Quellen normalerweisse für sehr zuverlässig und treffsicher erachte.

Mediatek SoC Preise schwanken heute zwischen $5 & 20. Preise sind stets relativ zum Volumen wie ueberall und die zweistelligen Preise sind heute für SoCs wie MT8135 oder MT6595 und das aus Gründen die man sofort in den Spezifikationen sieht.

Wenn Du Lust hast schmeiss das Interview auf das ich verlinkt habe im vorigen Post in einen translator und liess es durch.

Sonst sollen mir die Tabellen genau wieso Sorgen machen wenn die eine $2.70 fuer die Herstellung von 6589 am Anfang unter 28LP einschätzt? Der wafer kostete damals etwas ueber 6 tausend ergo rechne es Dir selber aus :P Wobei dank binning yields es insgesamt drei Varianten vom MT6589 gab; wenn ich mich jetzt nicht irre MT6589@1.0GHz dann etwas spaeter MT6589@1.2GHz und gegen Herbst 2013 irgendwo MT6589T@1.5GHz.

AffenJack
2014-05-30, 15:16:31
Macht Deine Rechnung aber nicht korrekter und mit all den Aquisierungen wie MStar wird es noch Komplizierter ab 14'.

Jo, deswegen hab ich auch die 13er Zahlen genommen.



In einem $500 Produkt könnte NV auch locker 35 verlangen und es auch bekommen. Sonst hat es über haupt nicht damit zu tun was mir passen sollte oder nicht. Xiaomi wird zwar vom Staat teilweise finanziert kann aber auch nicht unendlich mit Verlusten verkaufen. Beim Mi2 waren es um die $70 pro Gerät.


Es ist nicht gesagt, dass Xiaomi mit dem Pad jetzt anfängt seine Verkaufspolitik groß zu verändern.


Das 6595 hat LTE, für das 6592 höre ich es zum ersten Mal. Hast nen link dazu?

***edit: damit wir uns nicht falsch verstehen 6592 = 3G, 6595 = 4G


Hast recht, hatte mich verguckt.


Nein scroll hoch. Ich sagte beim K1 ist die GPU 1/4 und 1/5 ca auf den vorigen Tegras. CPU + GPU durften auf dem 6592 beide bei 7-8mm2 zusammen liegen unter 28HPm.


Schon klar, ich meinte ja, dass wie du schon sagst Tegra nur zur Hälfte aus GPU/CPU besteht und da noch anderes dazu kommt.

Mediatek SoC Preise schwanken heute zwischen $5 & 20. Preise sind stets relativ zum Volumen wie ueberall und die zweistelligen Preise sind heute für SoCs wie MT8135 oder MT6595 und das aus Gründen die man sofort in den Spezifikationen sieht.

Wenn Du Lust hast schmeiss das Interview auf das ich verlinkt habe im vorigen Post in einen translator und liess es durch.

Sonst sollen mir die Tabellen genau wieso Sorgen machen wenn die eine $2.70 fuer die Herstellung von 6589 am Anfang unter 28LP einschätzt? Der wafer kostete damals etwas ueber 6 tausend ergo rechne es Dir selber aus :P Wobei dank binning yields es insgesamt drei Varianten vom MT6589 gab; wenn ich mich jetzt nicht irre MT6589@1.0GHz dann etwas spaeter MT6589@1.2GHz und gegen Herbst 2013 irgendwo MT6589T@1.5GHz.

5-20$ finde ich durchaus verständlich und natürlich vom Volumen abhängig. Für deinen Link hätte man sich auch noch registrieren müssen, da hatte ich dann doch keine Lust.

Aber lassen wir das Thema. In paar Tagen ist Computex. Mal gucken, ob Nvidia da ihr Tablet Referenzdesign oder etwas anderes zeigt.

Ailuros
2014-05-30, 15:32:15
Es ist nicht gesagt, dass Xiaomi mit dem Pad jetzt anfängt seine Verkaufspolitik groß zu verändern.

Die staatlichen Zuschuesse sind in China nur fuer gewisse Zeit lang und nicht unendlich. Uebrigens rein zur info merimobiles ist der offizielle online retailer fuer Xiaomi. Jeglicher Interessierte muss wohl taeglich wie ich die Seite auf "newest arrivals" unter tablets offen haben und staendig auf F5 druecken :D


Schon klar, ich meinte ja, dass wie du schon sagst Tegra nur zur Hälfte aus GPU/CPU besteht und da noch anderes dazu kommt.

Ja nur aendern sich die Analogien natuerlich je nach Marktsparte; je "higher end" der SoC desto groesser das Prozentual dass die CPU/GPU Bloecke einnehmen. Die Tendenz ist zwar steigend mit der Zeit was die Analogie betrifft selbst fuer low end SoCs, aber es wird wohl nur kurzfristig halten bis DX11 zum lowest common denominator wird.

5-20$ finde ich durchaus verständlich und natürlich vom Volumen abhängig. Für deinen Link hätte man sich auch noch registrieren müssen, da hatte ich dann doch keine Lust.

Ich schau mal nach ob ich es noch wo anders finden kann und schick es Dir dann per PM zu; er erklaert unter anderem wie und wo sie auf dem 6592 u.a. gespart haben, warum sie so ehrgeizig in die area zu sparen versuchen und wieso ihre SoCs etwas groesser werden ab 6595/8135.

Aber lassen wir das Thema. In paar Tagen ist Computex. Mal gucken, ob Nvidia da ihr Tablet Referenzdesign oder etwas anderes zeigt.

Beim vorerwaehrnten retailer schaetzen sie momentan nicht von weltweiter Verfuegbarkeit vor Juli. Von Preisen weiss leider keiner noch etwas fuer's MiPad.

Marty98
2014-05-30, 21:04:37
http://www.golem.de/news/wiko-wax-weltweit-erstes-smartphone-mit-tegra-4i-kostet-200-euro-1405-106837.html

Avalox
2014-06-01, 00:49:02
nVidia hat die FaceWorks Demo für K1 SoC Geräte zum Download gestellt.

https://lh5.ggpht.com/Eoob5qKVd4_Sa38I04MdU3NSZgdHSF8dCHah6LKkzXvXDFUOo9JP58xMFUPLcwwErQ=w300-rw

https://play.google.com/store/apps/details?id=com.nvidia.demoteam.faceworks

mboeller
2014-06-01, 09:56:44
da die Diskussion über die Die-Area nicht enden will:

http://www.engadget.com/2012/12/11/allwinner-a20-a31-arm-cortex-a7-processors/

zwar kein Mediatek SoC aber ein Schema oder Bild von einem Allwinner A31 SoC. Und hier sieht man was alles an Board ist:

http://www.anandtech.com/show/6604/more-details-on-allwinners-a31-quad-core-a7-soc

...wenn die Größen der A7 im ersten Bild in etwa stimmen und das ganze nicht nur ein Schema ist wie bei Nvidia dann hat der SoC 18-20mm² (ich komme auf 18,5mm²)


...war übrigens ziemlich schwierig zu finden. So viele Die-Shots von lowend SoC gibt es leider nicht.

Skysnake
2014-06-01, 11:41:26
Die ganzen Scheis I/Os fressen halt schon Fläche wie blöd, und PCI-E ist da mit seinen Anforderungen bzgl Signalqualität auch nicht gerade der Knaller..

Ich habe mich selbst die letzten Monate sehr intensiv mit I/O-Hardwareimplementierungen und den Validierungsmöglichkeiten beschäftigt, und es ist echt erschreckend, wie groß der Analogkram schnell wird, sobald man gewissen Genauigkeiten und Geschwindigkeiten haben will.

Digitallogik ist da unglaublich viel robuster und kleiner zusammen zu zimmern auf Transistorebene. Wobei immer! gesagt sein sollte, das jedwede Digitallogik bei hoch genügenden Geschwindigkeiten eben analog betrachtet werden muss.

Ich war z.B. echt erschreckend, wie groß rein ne PLL zur Taktgenerierung ist, oder auch ne Bandgap zur Generierung von Referenzspannungen. Da biste auch mal schnell im Bereich von 0,x mm² :ugly:

Und das summiert sich sehr schnell auf. Für PCI-E nimmt man ja z.B. in der Regel für 4 Lanes eine PLL usw usw.

Da wird einem umso deutlicher, wie gigantisch eigentlich x86 Cores, z.B. von Intel sind, und was da alles an Logik drin stecken muss, damit man überhaupt auf derartige Dimensionen kommt..

deekey777
2014-06-01, 14:59:26
nVidia hat die FaceWorks Demo für K1 SoC Geräte zum Download gestellt.

https://lh5.ggpht.com/Eoob5qKVd4_Sa38I04MdU3NSZgdHSF8dCHah6LKkzXvXDFUOo9JP58xMFUPLcwwErQ=w300-rw

https://play.google.com/store/apps/details?id=com.nvidia.demoteam.faceworks

Check our Shield.nvidia.com for availability of K1 devices.
Klingt aber sehr verdächtig. :biggrin:

Ailuros
2014-06-01, 19:06:10
da die Diskussion über die Die-Area nicht enden will:

http://www.engadget.com/2012/12/11/allwinner-a20-a31-arm-cortex-a7-processors/

zwar kein Mediatek SoC aber ein Schema oder Bild von einem Allwinner A31 SoC. Und hier sieht man was alles an Board ist:

http://www.anandtech.com/show/6604/more-details-on-allwinners-a31-quad-core-a7-soc

...wenn die Größen der A7 im ersten Bild in etwa stimmen und das ganze nicht nur ein Schema ist wie bei Nvidia dann hat der SoC 18-20mm² (ich komme auf 18,5mm²)


...war übrigens ziemlich schwierig zu finden. So viele Die-Shots von lowend SoC gibt es leider nicht.

Ich traue leider keinem "schematischem" die shot und schon gar nicht Allwinner. Ich hab keine die Groessen vom A31 je gesehen, wobei ich Dir nicht sagen kann ob es stimmt oder nicht, aber man sollte auch mitbedenken dass Allwinner die CPUs nur fuer bis zu 1.0 stellenweise maximal 1.2GHz ausgelegt hat. Die GPU taktet uebrigens bei 300MHz und jeder SGX544 core ist ~5.0mm2@32nm Samsung.

Der A31 ist unter 40G hergestellt, da wuerde mich sogar =/>30mm2 nicht wundern.

Allwinner says that the A31 is starting out with a price of around $20 but fully expects this to go down to half or even lower during its life cycle.

ROFL :biggrin:

deekey777
2014-06-01, 21:12:37
Ihr leidet wirklich unter dem Sommerloch. Zum Glück startet die Computex.

Ailuros
2014-06-02, 19:55:13
Ihr leidet wirklich unter dem Sommerloch. Zum Glück startet die Computex.

Immerhin besser als Deine arteriosklerotische Meckerei :P

Unicous
2014-06-05, 19:52:25
Ich behaupte mal, Nvidia hat nicht das Nexus 8.






Aber dafür Project Tango

http://anandtech.com/show/8130/google-announces-project-tango-tablet-dev-kit-with-tegra-k1-and-3d-capturetracking

Along with the new information on Project Tango comes the announcement of the latest development kit hardware. (Note that this is the second Project Tango device; the first was a smartphone.) Compared to many tablets currently out there, the specs are quite impressive: NVIDIA Tegra K1 SoC, 4GB RAM, 128GB storage, and of course all the sensors needed to track motion and map environments. Basically, imagine a tablet/smartphone with Kinect-style sensors integrated into the product. The device itself is a 7-inch tablet, though the screen resolution wasn't divulged, and it will be running the latest version of Android (KitKat 4.4).

If that sounds enticing, there are two more items you'll need to know: first is that the development kits will be made available "later this year", so this is not yet shipping hardware. Second, the cost of the development kit is $1024 (a nod to computer geeks and our infatuation with powers of two, I suppose). NVIDIA sent along two rendered images of the Project Tango tablet, showing black and white casings.

bzw.

http://blogs.nvidia.com/blog/2014/06/05/project-tango-tegra-tk1/


http://blogs.nvidia.com/wp-content/uploads/2014/06/Tango-Tablet_white.png

Der Preis für das Dev Kit ist aber schon heftig.

Screemer
2014-06-05, 21:37:45
für was brauch ich kinect-style sensors an nem 7'' tablet? was gibts da für anwendungsfälle.

Unicous
2014-06-05, 21:42:46
Keine Ahnung. Let your imagination fly.

Wo wir gerade bei fly sind.

Man könnte on the fly den Raum ausmessen und z.B. eine Raumausstattungsapp laufen lassen, die an eine Datenbank mit passenden Möbelstücken angeschlossen ist und dann die Wohnung/Raum/Haus einrichten.



WEHE jemand klaut mir die Idee. Ich suche mir jetzt schnell so einen 50 Cent pro Stunde Coder aus China oder Indien und dann mache ich fett Kohle damit.

AffenJack
2014-06-05, 21:54:58
Raumausstattung war auch mein erster Gedanke, setze dazu noch Occolus Rift auf und du läufst durch die Wohnung, veränderst virtuell die Wohnung und guckst dir sofort das Ergebnis in Echtzeit an.
Geht ja mehr oder weniger um Kinectartige Sensoren die einfach mobil sind.

Simon
2014-06-05, 22:00:37
für was brauch ich kinect-style sensors an nem 7'' tablet? was gibts da für anwendungsfälle.
Sehen wir dann in zwei Wochen: https://www.youtube.com/watch?v=KDpLcMGYwlI

Unicous
2014-06-05, 22:10:00
Es ist... ein Sex-Spielzeug?

hasebaer
2014-06-05, 23:27:43
Ich behaupte mal, Nvidia hat nicht das Nexus 8.

Ja, wenn sie mit Macht ein "High End 64bit SoC" im Nexus 8 haben wollen, dass auch in Masse verfügbar ist, dann bleibt aktuell nur ein Intel Moorefield SoC (Atoms Z3580 / Z3480).
http://www.golem.de/news/hands-on-von-merrifield-und-moorefield-intels-smartphone-atoms-sind-schneller-als-apples-iphone-5s-1406-106961.html.

Ailuros
2014-06-06, 08:38:06
Ja, wenn sie mit Macht ein "High End 64bit SoC" im Nexus 8 haben wollen, dass auch in Masse verfügbar ist, dann bleibt aktuell nur ein Intel Moorefield SoC (Atoms Z3580 / Z3480).
http://www.golem.de/news/hands-on-von-merrifield-und-moorefield-intels-smartphone-atoms-sind-schneller-als-apples-iphone-5s-1406-106961.html.

Welches Nexus8? Wird es ueberhaupt eine neues Nexus geben? Falls ja wuerde selbst ich eher K1 waehlen (und ja Moorefield war unter den Kandidaten).

***edit: sonst schreibt einer irgendwelchen Scheiss ins Netz wird es sofort von jeglichem moechtegern "Redakteur-Heini" fragenlos kopiert:

Aus diesem Grund verbaut Intel im Atom Z3580 die gleiche Grafikeinheit, taktet sie jedoch anders als Apple im A7 mit 533 statt 200 MHz.

Moorefield G6430 = 533MHz
A7 G6430 = =/>450MHz

Sonst sind die scores fuer die Muelltonne da es 3dfurz Systemwerte sind wobei auch der physics test mitberechnet wird und natuerlich quad core CPUs einen guten Vorteil gibt.

hasebaer
2014-06-06, 08:58:12
Was den "App-Support" angeht wäre ein ARM Design eigentlich auch besser.
Aber "man muss ja" gegen Apples 7,9" iPad mini anstinken, wenn man mit einem eigenen 8 zoll kommt und wenn man da kein High End 64Bit an Board hat,
was weder QCOM noch Nvidia in den nächsten 3-6 Moanten >>in Masse<< liefern können, dann bleibt nur Intel.
Zumal die noch nicht mal Geld für ihre SoCs haben wollen, aus bekannten Gründen...

deekey777
2014-06-06, 09:11:08
Welches Nexus8? Wird es ueberhaupt eine neues Nexus geben? Falls ja wuerde selbst ich eher K1 waehlen (und ja Moorefield war unter den Kandidaten).

.
Irgendwo wurde Code gefunden, der Hinweise auf ein Google-Gerät mit Denver enthält. Ein Nexus 8 schien naheliegender als dieses Tango-Ding.

Ja, wenn sie mit Macht ein "High End 64bit SoC" im Nexus 8 haben wollen, dass auch in Masse verfügbar ist, dann bleibt aktuell nur ein Intel Moorefield SoC (Atoms Z3580 / Z3480).
http://www.golem.de/news/hands-on-von-merrifield-und-moorefield-intels-smartphone-atoms-sind-schneller-als-apples-iphone-5s-1406-106961.html.
Beide Systems-on-a-Chip sind dank ihrer PowerVR-Grafikeinheit und der x86-Kerne nicht nur schneller als der Apple A7, das größere Modell rechnet sogar ein bisschen flotter als der Snapdragon 801.

Unlimited ist so was von egal.

Intels Smartphone-Atoms sind schneller als Apples iPhone 5S
Respekt...

Skysnake
2014-06-06, 09:18:00
Der Preis für das Dev Kit ist aber schon heftig.
Heftig ist aber noch nett ausgedrückt.

Der ist abgedreht. 1024$ HALLO? :freak:

Undertaker
2014-06-06, 10:03:53
Dann kennst du aber die üblichen Preise nicht. ;) Schau mal was Dev-Plattformen sonst so kosten, und zwar ohne eine auch nur annähernd gleichwertige Ausstattung zu bieten. Bei Qualcomm löhnst du für ein simples S800-Board mit 2GB/16GB schon rund $500. Das noch immer etwas schlechter ausgestattete S805 MDP-Tablet liegt bei $800.

Skysnake
2014-06-06, 13:30:50
Das sind dann aber wirklich richtige Dev-Boards usw. Das ist ja mehr oder weniger einfach nur eine "Kleinserie", wobei man schauen muss, wie klein diese "Klein"serie dann am Ende wirklich ist.

Ailuros
2014-06-06, 15:40:33
Dann kennst du aber die üblichen Preise nicht. ;) Schau mal was Dev-Plattformen sonst so kosten, und zwar ohne eine auch nur annähernd gleichwertige Ausstattung zu bieten. Bei Qualcomm löhnst du für ein simples S800-Board mit 2GB/16GB schon rund $500. Das noch immer etwas schlechter ausgestattete S805 MDP-Tablet liegt bei $800.

Ergo hat das Tango den internen Codamen Tegra K1 Titan :freak:

Undertaker
2014-06-06, 16:11:42
Das sind dann aber wirklich richtige Dev-Boards usw. Das ist ja mehr oder weniger einfach nur eine "Kleinserie", wobei man schauen muss, wie klein diese "Klein"serie dann am Ende wirklich ist.

http://shop.intrinsyc.com/products/mdp-tablet-powered-by-snapdragon-805-processor

Wie gesagt, $1000 für das Tegra-Teil sind fernab von ungewöhnlich.

Ailuros
2014-06-06, 20:09:18
Da die MiPad Resultate etwas "bereichtert" wurden, sieht es wohl doch nach der Fuellrate fuer =/>700MHz aus: http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Xiaomi%20MiPad

Was mir aber nicht so richtig sitzt sind die onscreen (2048*1536) die zu brutal niedrig sind im Vergleich zu den offscreen Resultaten. Ueberhaupt in T-Rex 2048*1536 muesste das Ding irgendwo bei 40+fps landen und nicht weniger als das iPad mini retina.

Unicous
2014-06-06, 20:25:33
Falls es jemanden interessiert noch ein Image-/Visionsvideo von Mantis, die bei Project Tango auch IP beigesteuert haben.


ykcPKdGavXM

Das erste Beispiel finde ich ein wenig lame-o:tongue: aber das zweite mit der abgestimmten Aufnahme eines "Events" finde ich doch sehr interessant.

Ailuros
2014-06-06, 20:31:23
Also ich lass mich immer wieder von solchem Zeug beindrucken; ich bin schon jetzt "eifersuechtig" auf unsere zukuenftigen Enkelkinder, was die alles zum herumspielen haben werden... :frown:

Ailuros
2014-06-08, 15:41:28
http://www.fudzilla.com/home/item/34936-next-generation-shield-hits-fcc

Last year's Shield was launched on June 31st, but with a bit of luck, we might see the follow up product much sooner.

;D:D:freak::biggrin:

AffenJack
2014-06-08, 17:01:43
recht hat er, vielleicht launcht man diesmal am 30. Juni. Ist doch viel früher;)

Ailuros
2014-06-16, 17:46:24
Ein Vogel hat mir gerade zugefluestert dass der die des SoCs um ueber 20% groesser ist als anfangs eingeschaetzt; ziemlich merkwuerdig ausgelegt und bisherige bestaetigte vendors benutzen verdammt aggressives DVFS wobei Frequenzen immer noch nicht final sind.

Ailuros
2014-06-17, 09:49:40
http://forum.beyond3d.com/showpost.php?p=1855602&postcount=2451

http://www.beyond3d.com/images/rys/tegrak1.png

Weniger als knapp 40mm2 (= Tegra2 SoC :P ) fuer GK20A haette ich mir auch nie vorgestellt ;)

Jeder A15 ist 1.87mm2@28HPm und der companion core nur 0.61mm2@28HPm; insgesamt fuer die 4+1 CPU array 8.09mm2.

Thunder99
2014-06-17, 10:00:29
Machen sie also wieder ein 4+1 Design anstatt wie die Konkurrenz ein 4+2 oder 4+4 um Strom zu sparen? :confused:

Ailuros
2014-06-17, 10:03:25
Machen sie also wieder ein 4+1 Design anstatt wie die Konkurrenz ein 4+2 oder 4+4 um Strom zu sparen? :confused:

NV hat ein 4+1 CPU config seit sie den ersten quad core im T3 vorgestellt haben; die Denver Variante vom K1 welche im H2 14' erscheinen wird ist dann ein dual core config (wobei offensichtlich jeder core um einiges breiter ist als jeder A15 core hier) mit hoechster Wahrscheinlichkeit mit aSMP und keinem companion core.

Thunder99
2014-06-17, 10:13:51
ok, verstehe. Bleiben sie ihrer Linie treu :D

robbitop
2014-06-17, 10:19:07
40 sqmm für Tegra 5? :eek:
Und dabei doppelt so viel Grafikleistung wie bisherige 28 nm SoCs, die allesamt doppelt so groß sind? Das ist - zumindest was Die-Size angeht - wirklich enorm!

edit:
40 sqmm ist die reine GPU

AffenJack
2014-06-17, 10:30:54
40sqmm nur die GPU, nicht der ganze SOC.

Coda
2014-06-17, 10:35:39
http://forum.beyond3d.com/showpost.php?p=1855602&postcount=2451

http://www.beyond3d.com/images/rys/tegrak1.png

Weniger als knapp 40mm2 (= Tegra2 SoC :P ) fuer GK20A haette ich mir auch nie vorgestellt ;)

Jeder A15 ist 1.87mm2@28HPm und der companion core nur 0.61mm2@28HPm; insgesamt fuer die 4+1 CPU array 8.09mm2.
Er hat Monate gebraucht um die GPU zu identifizieren? lulwut?

Im übrigen ist das ein Bullshot.

Ailuros
2014-06-17, 10:39:36
Er hat Monate gebraucht um die GPU zu identifizieren? lulwut?

Im übrigen ist das ein Bullshot.

Bullshit zu einem Bullshot; passt gerade so zu Deinen ueblichen nichtsausagenden "Beitraegen".

Ailuros
2014-06-17, 10:56:46
http://forum.beyond3d.com/showpost.php?p=1855627&postcount=2458

Der companion core soll auf 16FF sein; auf jeden Fall erklaert es erstmal die nur 0.61mm2 die Groesse von diesem im Vergleich zu den anderen 1.87mm2 A15 cores.

Wer schon zum Rechner greift um zu sehen wie der potentielle Unterschied von 28HPm auf 16FF aussehen koennte:

1.87mm2@28HPm
0.61mm2@"17nm" 16 FinFET

robbitop
2014-06-17, 10:59:40
40sqmm nur die GPU, nicht der ganze SOC.
Ah ok. Danke für die Korrektur.

http://forum.beyond3d.com/showpost.php?p=1855627&postcount=2458

Der companion core soll auf 16FF sein; auf jeden Fall erklaert es erstmal die nur 0.61mm2 die Groesse von diesem im Vergleich zu den anderen 1.87mm2 A15 cores.

Wer schon zum Rechner greift um zu sehen wie der potentielle Unterschied von 28HPm auf 16FF aussehen koennte:

1.87mm2@28HPm
0.61mm2@"17nm" 16 FINfet
Kann man auf dem gleichen Kern Prozesse mischen? :)

Ailuros
2014-06-17, 11:03:36
Kann man auf dem gleichen Kern Prozesse mischen? :)

Ja und macht NV auf ihren SoCs auch nicht zum ersten Mal. Ist sowieso vieles "mit der Hand" ausgelegt wenn ich es nicht falsch verstehe.

***edit: also wenn Rys recht haben sollte in seiner Schaetzung dass sie vielleicht im Denver K1 auch 16FF fuer die GPU benutzt dann wirklich und ehrlich f***ing WOW!!!

AffenJack
2014-06-17, 12:21:39
Glaubst du da wirklich dran? Ich weiß nicht, 16FF so früh? Das klingt für mich einfach nicht realistisch. Verschiedene Prozesse mischen haben sie schon gemacht, aber nie so extrem. Das war nur HP und LP auf einem Chip. 2D und 3D Transistoren gemischt und verschiedene Strukturgrößen? Kann ich einfach kaum glauben.

Denver GPU in 16FF wird dann ganz absurd. Da könnte man auch gleich den ganzen Chip shrinken und wofür dann Erista? Da kann Parker gleich kommen.

Ailuros
2014-06-17, 12:28:49
Glaubst du da wirklich dran? Ich weiß nicht, 16FF so früh? Das klingt für mich einfach nicht realistisch. Verschiedene Prozesse mischen haben sie schon gemacht, aber nie so extrem. Das war nur HP und LP auf einem Chip. 2D und 3D Transistoren gemischt und verschiedene Strukturgrößen? Kann ich einfach kaum glauben.

Ich weiss es noch nicht. Auf jeden Fall muss es irgend einen Grund geben dass das Denver K1 Projekt so relativ massive engineer resources aufgesaugt hat. Eine Erklaerung dafuer waere es dann schon.

Sonst fuer A15/K1 glaube ich es durchaus. Erstens ist es nur ein winziger Flecken fuer den companion core und zweitens ist es eine logische Erklaerung fuer die nur 0.61mm2 die dieser einnimmt. Es ist ein voller A15 core fuer den companion core und nicht irgend ein kastriertes custom Dingsbums; rein aus Magie kann dieser jetzt nicht um 1/3 schrumpfen im Vergleich zu den anderen A15 cores.

Ein klein bisschen kleiner wenn sie fuer area optimiert haetten ja schon, aber 1.87/0.61 = Faktor 3.0x NIE im Leben.

Denver GPU in 16FF wird dann ganz absurd. Da könnte man auch gleich den ganzen Chip shrinken und wofür dann Erista? Da kann Parker gleich kommen.

Erista hat Maxwell ALUs. Relativ absurd ist es schon, aber ich bin auch von der Frage ausgegangen wieso im A15/K1 16FF nur fuer den companion core und nicht auch die GPU z.B. (welches auch die meiste die area einnimmt) und darauf hat Rys geantwortet. Es muss nicht stimmen und es waere auch ein verdammt TEURES und KOMPLIZIERTES Projekt. Das "aber" dann hier ist dass NV dann tatsaechlich mit einem Denver K1 die gesamte Konkurrenz im perf/W Bereich regelrecht aufkehren wuerde.

Unicous
2014-06-17, 13:26:22
Verschiedene Fertigungsprozesse zu mischen (also Strukturgrößen) halte ich für sehr unrealistisch. Bin mir auch nicht sicher ob das jemals schon gemacht wurde. Das wäre mE sehr kostenintensiv. Zwei Prozesse im gleichen Node ist eine ganz andere Sache. Da ändert man ja "nur" etwas an den Tools in der gleichen Fab.


Was Coda gemeint haben könnte ist der Umstand, dass Nvidia ihre die shots maskiert und es daher unsinnig wäre daraus etwas abzuleiten. Es könnte aber natürlich auch nur einer coda'ierter Einzeiler sein. Weder bei Nvidia noch bei Coda kann man sich da sicher sein.:rolleyes:

Nightspider
2014-06-17, 13:35:47
Überlegt doch mal, dann müsste der gleiche Chip in der Fertigungsstraße viel mehr (doppelt so viel?) Prozessschritte durchlaufen. Das alleine würde schon die Kosten hoch treiben ohne Ende.

Dazu kommt noch das in der Massenfertigung dieser Chips schon 16FF-Automaten stehen müssten. Selbst wenn das bisher nur kleinere Beta-Geräte sind, dürften die schon ein heiden Geld kosten. Das TSMC diese extra für Nvidia aufstellt ist doch unrealistisch.

Und wieso sollte Nvidia dann nicht auch gleich alle 5 Kerne auf 16nm schrumpfen, wenn alle 5 Kerne die gleiche Architektur besitzen? Das wären 5 identische Cores. Nur einen davon zu shrinken macht keinen Sinn.
AUßER dieser 5. Kern darf deaktiviert werden, im Falle der 16FF Prozess läuft nicht wie gewünscht und NV könnte den Chip auch notfalls ohne Companion Core ausliefern.

Ailuros
2014-06-17, 13:46:36
Was Coda gemeint haben könnte ist der Umstand, dass Nvidia ihre die shots maskiert und es daher unsinnig wäre daraus etwas abzuleiten. Es könnte aber natürlich auch nur einer coda'ierter Einzeiler sein. Weder bei Nvidia noch bei Coda kann man sich da sicher sein.:rolleyes:

Rys arbeitet bei IMG; ich will ernsthaft bezweifeln dass er nicht die Werkzeuge hat A, B oder C zu verifizieren und nein afaik hat er sein eigenes Jetson mit dem er herumspielt keine "Monate" :P

Überlegt doch mal, dann müsste der gleiche Chip in der Fertigungsstraße viel mehr (doppelt so viel?) Prozessschritte durchlaufen. Das alleine würde schon die Kosten hoch treiben ohne Ende.

Dazu kommt noch das in der Massenfertigung dieser Chips schon 16FF-Automaten stehen müssten. Selbst wenn das bisher nur kleinere Beta-Geräte sind, dürften die schon ein heiden Geld kosten. Das TSMC diese extra für Nvidia aufstellt ist doch unrealistisch.

Und wieso sollte Nvidia dann nicht auch gleich alle 5 Kerne auf 16nm schrumpfen, wenn alle 5 Kerne die gleiche Architektur besitzen? Das wären 5 identische Cores. Nur einen davon zu shrinken macht keinen Sinn.
AUßER dieser 5. Kern darf deaktiviert werden, im Falle der 16FF Prozess läuft nicht wie gewünscht und NV könnte den Chip auch notfalls ohne Companion Core ausliefern.

Durchaus legitime Gedanken, man darf aber auch nicht vergessen dass der SoC angeblich ziemlich viel custom logic haben soll; nach den Kerlen bei B3D ist es ein verdammt teures Experiment und es wurde deshalb nur als Anfang der companion core benutzt. Der Nachgedanke ist dass es moeglich ist, dass mehr davon im Denver/K1 benutzt wird. Oder sie wollten einfach mal sehen wie 16FF wirklich laeuft momentan.

Zwischen einen testchip auf 16FF zu schicken (wenn auch nur 1 cluster gross) und diesem hypothetischem Experiment, ist das zweite auf jeden Fall nicht teurer insgesamt.

Die legitime Frage direkt nach all dem obrigen ist dann eben wie zum Henker man einen A15 core unter 28HPm alternativ in nur 0.61mm2 quetscht.

Ich hab wesentlichere Fragen bei B3D gestellt die mir noch keiner beantwortet hat bis jetzt: die angeblichen 192 SPs kann ich in dem Ding auch deutlich sehen (12*16); wo bitteschoen sind die TMUs, ROPs bzw. 64bit SPs in dem Ding?

Nakai
2014-06-17, 13:59:08
Für mich war Rys Ausführung eher eine humorvolle Dreingabe.


Er hat Monate gebraucht um die GPU zu identifizieren? lulwut?

Im übrigen ist das ein Bullshot.


Ich glaube auch nicht dran, lasse mich aber eines Besseren belehren.

Ravenhearth
2014-06-17, 14:02:27
Der Die-Shot ist schlicht nicht echt. Deswegen lohnt es sich imho auch nicht, daran irgendwas festmachen zu wollen.

Unicous
2014-06-17, 15:04:29
Ich habe mir die Kommentare im Thread mal durchgelesen und das hört sich schon sehr nach "too good to be true" an. Zwei Prozesse die keinerlei Tools teilen sollen einfach mal so von TSMC getestet werden und das klappt alles ganz wunderbar? Does not compute.

Und dann nur einen winzigen Companion Core als Test-Vehikel nutzen. Finde ich sehr merkwürdig.

Und die Behauptung es würden den Yield nach unten ziehen, erscheint mir auch eine glatte Untertreibung. Ich will gar nicht wissen wie das bei Tegra 3 aussah. Und da war es "nur" LP und HP. Und jetzt wollen sie das schon überwunden haben und nur geringe Yield-Einbußen haben, obwohl sich Nvidia fortwährend über die Ausbeute (und Kosten) beschwert?

Rys arbeitet bei IMG, wo kann man Blazkowicz einordnen? Nvidia oder TSMC?

Also als Experiment kann ich das ja noch durchgehen lassen, aber als vollwertiges Produkt hört sich das eher nach der unglaublichen Geschichte an.

Zwei Mal einen Wafer durch eine Fab mit verschiedenen Parametern zu fahren ist ja schon eine Kunst. Den Wafer auch noch in eine andere Fab zu transportieren (auch wenn das Gebäude u.U. nur ein paar Meter weg steht) und dann noch mal mit ganz anderen Tools und Verfahren und Strukturgröße drüberzugehen finde ich doch schon eine Meisterleistung.

Aber gut, unmöglich ist es nicht.;)

Ailuros
2014-06-17, 15:08:40
Der die shot ist identisch zu dem den NV veroeffentlicht hatte; die Frage ist ob Rys wirklich einen shot vom ersten hw layer entnommen hat oder ob er mit Absicht einfach nur diesen von NV benutzt hat.

mczak
2014-06-17, 15:15:53
Haha selten so gelacht :-).

Ailuros
2014-06-17, 15:44:44
Haha selten so gelacht :-).

:mad:

http://forum.beyond3d.com/showthread.php?t=61449&page=99

Nightspider
2014-06-17, 15:46:55
Zumal sich die Frage stelle ob ein A15 in 16FF sparsamer wäre als ein A7 in 28nm.

Auch wenn alles nicht darauf hindeutet aber wenn es wahr wäre, wäre es schon ein Kunststück und der Tegra Chip würde im Alltag trotz hoher Geschwindigkeit sehr wenig Leistung brauchen. Denn ich schätze mal das in rund 90% der Zeit ein einziger Kern für alles ausreicht.

Unicous
2014-06-17, 15:47:42
You can mix transistor variants on the same wafer (LP + HPM for example), but you can't mix major nodes.

Was ich ja gesagt habe.


Ganz schön fys, dieser Rys.

Ailuros
2014-06-17, 15:48:24
Zumal sich die Frage stelle ob ein A15 in 16FF sparsamer wäre als ein A7 in 28nm.

Auch wenn alles nicht darauf hindeutet aber wenn es wahr wäre, wäre es schon ein Kunststück und der Tegra Chip würde im Alltag trotz hoher Geschwindigkeit sehr wenig Leistung brauchen. Denn ich schätze mal das in rund 90% der Zeit ein einziger Kern für alles ausreicht.

Klick auf den link oben; es war ein Scherz seitens Rys.

Nightspider
2014-06-17, 15:50:32
Gut, wäre das geklärt. War ja eh mit hoher Wahrscheinlichkeit Fake.

mczak
2014-06-17, 16:08:24
Wobei offenbar Rys auch den echten Die-Shot zur Verfügung hat. Der würde mich echt auch interessieren - auch wenn der sicher viel weniger schön und aufgeräumt daherkommt :-).

Skysnake
2014-06-17, 16:59:23
Ähm Leute, was redet ihr denn gerade über unterschiedliche Fertigungen auf einem Chip? :ugly:

Wisst ihr eigentlich wie Chips wirklich gefertigt werden? Wenn ich mir die Aussagen so anschaue, dann denke ich eher nicht.

Stellt euch doch mal die Frage, bzgl was sich denn die einzelnen Nodes unterscheiden, und was ein alter Node kann/nicht kann, was ein neuer Node nicht kann/kann.

Unicous
2014-06-17, 17:11:42
Ja danke Skysnake, dein "Ihr habt doch keine Ahnung, Papa weiß das viel besser und muss es euch nicht erklären" Kommentar hat natürlich noch gefehlt.

Nightspider
2014-06-17, 17:26:23
;D

Was glaubst du Skysnake worüber wir diskutiert haben? :ugly:

Skysnake
2014-06-17, 17:30:26
Die Erklärung könnt ihr euch locker selbst liefern, wenn ihr mal kurz drüber nachdenkt, und falls nicht, helf ich gern auf die Sprünge. Aber erstmal kurz selbst drüber nachdenken. Das macht es viel einfacher den Denkfehler aufzuzeigen, weil dann eben klar ist WARUM man überhaupt zu solch einer Ansicht kommt.

Es gibt nämlich absolut keinen Grund für solch eine Annahme.

Ok, wenn man FinFets hat, muss man schauen, ob man noch normale planare Transistoren hat, wovon aber auszugehen ist. Man braucht ja noch die fetten Treiber für die externe Anbindung.

Was wirklich eher problematisch ist, ist, wenn man DRAM mit nem normalen Logikprozess haben will. Das ist wirklich richtig mehrarbeit und normal nicht enthalten. Ansonsten ist es halt im Extremfall ne extra Maske oder zwei.

Nur weil man xy nm Prozess benutzt, heist das noch LANGE NICHT! das da nicht auch Transistoren drauf sind die deutlich größer sind. Gerade bei dem ganzen Analogkram wird man eher nicht die Minimaltransistoren verwenden, weil der Missmatch dann meist zu groß ist.

@Nichtspider:
Ganz im Ernst? Keine Ahnung, was ihr da gerade versucht über Fertigung zu diskutieren. Das macht erstmal keinen Sinn, also das man für größere Strukturen, also Strukturen aus einem älteren Node diesen nochmal extra verwenden muss. Im Prinzip enthält jedweder neue Node den alten quasi gleich mit. Jetzt mal abgesehen davon, das man bei Sprüngen über zich nodes unterschiedliche Oxiddicken hat, was sich auf die maximale VDD auswirken kann.

Unicous
2014-06-17, 18:09:57
Schnarch.

Skysnake
2014-06-17, 18:54:07
Echt? Vielleicht kannste mir ja helfen. Ich hab gerade mit nem dif AMP ein Problem, der bei 5 GHz läuft und ein Sinus-Signal verzerrungsfrei aufblasen soll. Ich hab nen commen Mode von 600mV. Haste vielleicht nen Tip, wie ich effizient von nem 200mV PP Input auf mehr als 400mV PP Output komme, ohne mA an Strom zu verballern? Also gerade bzgl. der Dimensionierung der einzelnen Stufen wäre ich über jeden Rat dankbar. Meine Transistoren sind doch etwas groß geraten für meinen Geschmack. Insbesondere die Input-nMOS empfinde ich als zu groß.

Ailuros
2014-06-17, 20:19:30
Schnarch.

Es ist zwar kein konstruktiver Beitrag, aber....

Echt? Vielleicht kannste mir ja helfen. Ich hab gerade mit nem dif AMP ein Problem, der bei 5 GHz läuft und ein Sinus-Signal verzerrungsfrei aufblasen soll. Ich hab nen commen Mode von 600mV. Haste vielleicht nen Tip, wie ich effizient von nem 200mV PP Input auf mehr als 400mV PP Output komme, ohne mA an Strom zu verballern? Also gerade bzgl. der Dimensionierung der einzelnen Stufen wäre ich über jeden Rat dankbar. Meine Transistoren sind doch etwas groß geraten für meinen Geschmack. Insbesondere die Input-nMOS empfinde ich als zu groß.

Off topic und errr tschuldigung aber wirklich SCHNARCH :P Und um Dir das *schnarch* mal im einfachen Deutsch zu erklaeren: wir Laien haben den Luxus nicht all diese Kleinigkeiten wissen zu muessen und wir brauchen es auch nicht wirklich. Wenn Du wirklich mit Deinem "Wissensreichtum" in Deinem Feld angeben willst, dann mach es gefaelligst bei Deinen Kollegen. Zu 99% wird es aber wohl schwer vorkommen da Du noch zu gruen hinter den Ohren dafuer bist.

So und jetzt nach dem B3D Scherz des Tages zurueck zur Realitaet und zurueck zum Thema.

Skysnake
2014-06-17, 21:42:09
Ich muss mich nur nicht dumm von der Seite anmachen lassen :P

@Topic:
Nochmals, wie kommt ihr drauf, das es verschiedene Fertigungen geben sollte auf einem Wafer? Das macht einfach keinen Sinn. Keiner hindert mich daran, etwas in größeren Strukturen zu fertigen. Beim ganzen Analogkram ist das eh usus.

Der einzige Grund, warum man das normal nicht macht ist doch, das man den neuen Prozess dafür überhaupt nicht braucht in der Regel, udn sich die höheren Kosten spart.

Daher ernst gemeinte Frage, was bringt euch zu der Annahme, man würde einen Wafer durch zwei unterschiedliche Produktionsstraßen für zwei unterschiedliche Nodes schicken?

Unicous
2014-06-17, 21:48:31
Falls du es noch nicht mitbekommen hast: deine(edit: angebliche) Besserwisserei nervt. Die Diskussion ist schon längst vorbei, deine Kommentare von der Seitenlinie verpuffen daher.

Ailuros
2014-06-17, 21:59:11
Wenn ein Admin einer ernsthaften Seite (B3D) wie Rys der auch rein zufällig bei IMG arbeitet so etwas behauptet und ich auch noch weiss dass er ein Jetson board hat kann man sehr leicht als Laie darauf reinfallen und ja ich hab meine blonden Momente und ich bin sogar stolz drauf!

Wir haben es alle wohl in der Zwischenzeit geschnallt dass es nicht geht. Was genau willst Du sonst noch lesen? Wir wissen in der Zwischenzeit auch dass Elephanten NICHT fliegen können...

Timbaloo
2014-06-17, 22:11:22
Es ist ein voller A15 core fuer den companion core und nicht irgend ein kastriertes custom Dingsbums;
Jetzt muss ich mal dumm nachfragen: Was unterscheidet dann den (A15) companion core von den regulären (A15) Kernen? Irgendwie erschliesst sich mir das gerade nicht. Was übersehe ich?

Coda
2014-06-17, 22:13:44
Der die shot ist identisch zu dem den NV veroeffentlicht hatte;
Es ist trotzdem ein Bullshot. Eine echte GPU sieht nicht so aus als hätte sie n identische Tiles für jeden "Kern" den NVIDIA zählt. Das ist BS auf so vielen Ebenen.

Auch dass er bewundert, dass der Companion-Core so klein ist ist Sarkasmus pur.

Skysnake
2014-06-17, 22:17:29
So pauschal, kannste das nicht niederbügeln. Es gibt wie gesagt schon genau einen Fall, in dem es eben durchaus Sinn macht, und das ist wie gesagt, wenn man eDRAM verwenden wollte. Ganz genau so ist es jetzt zwar auch wieder nicht, aber an sich kann man es schon so sehen.

eDRAM würde ich bzgl. Tegra nur für sehr sehr sehr unwahrscheinlich halten. Zumal TSMC meines Wissens nach nicht mal einen eDRAM Prozess anbietet, wobei ich mich da gern vom Gegenteil überzeugen lassen würde. Bei den ganzen Optionen kannste eh nicht den Überblick behalten.

Kannste mal die Aussage von Rys verlinken? Ich habe nämlich das dumpfe Gefühl, dass da ein Missverständnis vorliegt.

Man könnte nämlich durchaus einen IP-Block aus nem höheren Node nehmen, und den NICHT! geschrinkt weiter verwenden. Damit würde man sich viel Arbeit bzgl. Validierugn und Neudesign sparen, aber halt auch kaum/keinen Nutzen für den IP Block aus der kleineren Strukturbreite ziehen. Je nachdem könnte das durchaus Sinn machen. Man muss ja immer abwägen, wieviel Aufwand ein Neudesign macht, und wieviel man dadurch gewinnt.

"Fertig" ist man eh nie. Man ist nur irgendwann an dem Punkt, an dem es gut genug ist.

Ailuros
2014-06-18, 08:19:12
Es ist trotzdem ein Bullshot. Eine echte GPU sieht nicht so aus als hätte sie n identische Tiles für jeden "Kern" den NVIDIA zählt. Das ist BS auf so vielen Ebenen.

Auch dass er bewundert, dass der Companion-Core so klein ist ist Sarkasmus pur.

Es ging nicht um den shot per se; das einfachste fuer jemand wie Dich waere gewesen in einem einzigen Satz zu erwaehnen dass es technisch unmoeglich ist 2 verschiedene process nodes auf einem die zu mischen und es waere auch genauso rueber gekommen und akzeptiert.

Es geht mir um Deine nichtsaussagenden "onliners" die zu nichts helfen als nur andere zu nerven. Es einfach zu loeschen waere die einfachste Loesung.

Jetzt muss ich mal dumm nachfragen: Was unterscheidet dann den (A15) companion core von den regulären (A15) Kernen? Irgendwie erschliesst sich mir das gerade nicht. Was übersehe ich?

Im gegebenen Fall hat NV einen quad A15 die variabel von unten nach oben takten koennen (im K1 theoretisch bis zu 2.5GHz, real wohl eher 2.1-2.2GHz wobei es in Echtzeit selten bis nie erreicht wird) aber stets alle aktiven cores aus den 4 bei gleichem Takt. Egal ob 1, 2, 3 oder 4 cores aktiv, ist die Frequenz bei 900MHz takten alle eingeschalteten cores bei 900MHz.

Der companion core ist ein weiterer A15 core der aber dazu dient die leichteren Aufgaben aufzunehmen und daher taktet von 50-1000MHz und nicht hoeher. Dieser taktet dann unabhaengig vom quad A15 und deshalb wird es auch als 4+1 config beschrieben. Hilft es so?

So pauschal, kannste das nicht niederbügeln. Es gibt wie gesagt schon genau einen Fall, in dem es eben durchaus Sinn macht, und das ist wie gesagt, wenn man eDRAM verwenden wollte. Ganz genau so ist es jetzt zwar auch wieder nicht, aber an sich kann man es schon so sehen.

eDRAM würde ich bzgl. Tegra nur für sehr sehr sehr unwahrscheinlich halten. Zumal TSMC meines Wissens nach nicht mal einen eDRAM Prozess anbietet, wobei ich mich da gern vom Gegenteil überzeugen lassen würde. Bei den ganzen Optionen kannste eh nicht den Überblick behalten.

Kannste mal die Aussage von Rys verlinken? Ich habe nämlich das dumpfe Gefühl, dass da ein Missverständnis vorliegt.

Man könnte nämlich durchaus einen IP-Block aus nem höheren Node nehmen, und den NICHT! geschrinkt weiter verwenden. Damit würde man sich viel Arbeit bzgl. Validierugn und Neudesign sparen, aber halt auch kaum/keinen Nutzen für den IP Block aus der kleineren Strukturbreite ziehen. Je nachdem könnte das durchaus Sinn machen. Man muss ja immer abwägen, wieviel Aufwand ein Neudesign macht, und wieviel man dadurch gewinnt.

"Fertig" ist man eh nie. Man ist nur irgendwann an dem Punkt, an dem es gut genug ist.

Jetzt mal ehrlich liesst Du ueberhaupt hier mit? http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10249221&postcount=4585

Und ja Du darfst Deine blonde Peruecke jetzt auch abnehmen :freak:

Rys
2014-06-18, 09:37:52
Jetzt muss ich mal dumm nachfragen: Was unterscheidet dann den (A15) companion core von den regulären (A15) Kernen? Irgendwie erschliesst sich mir das gerade nicht. Was übersehe ich?
Apologies for not replying in German. The main difference is the companion core is synthesised to be much less aggressive on frequency and power consumption, than the four cores in the main array. It uses slightly different transistors, its own clock control, and its own power delivery in order to meet those goals. So it's a different size (significantly) to the cores in the main array. Because of how NVIDIA implement it, it also needs its own discrete L2 and can't use the L2 in the main array.

Apologies if the joke caused any blonde moments or undue interruption in your usual scheduled Tegra speculation :D

Skysnake
2014-06-18, 09:55:17
Fürs querlesen eines 100 Seiten Threads wo anders fehlt mir ganz ehrlich aktuell die Zeit. Der Tag hat leider nur 24 Stunden und die Woche 7 Tage.

Quotet doch die wichtigen Stellen, bzw verlinkt direkt die wesentlichen Punkte und führt kurz aus, wie ihr dazu kommt. Das macht die Sache nachvollziehbarer für andere.

BTW:
Ich hab mich durch die letzten Seiten jetzt durchgelesen, musste eh gerade auf ein Ergebnis warten.

Der joke bezog sich also wirklich auf den DIE Shot an sich und den Count. Aber das mit den "beiden" Prozessen wohl nicht, wenn ich das jetzt richtig interpretiere.

Wie schon gesagt, kann man durchaus unterschiedliche Transistoren auf einem DIE haben. nvidia könnte also auf die wilde Idee kommen, den Chip auf ner 16FF line produzieren zu lassen, aber nur den Compendian Core auch wirklich mit FF Transistoren zu erstellen. Das wäre kein gewaltiger mehraufwand und man könnte in einem echten Device schonmal FF testen.

Für nen großen Player wie nVidia wäre das durchaus im Bereich des Möglichen. Ich halte es aber eher für unwahrscheinlich. Klar, man muss nur den Teil neu designen, der FF nutzt, aber ich glaube jetzt mal nicht, das nVidia da so viel Ressourcen in einem Neudesign eines ARM-Cores versenkt.

Für mich hört sich das eher nach folgendem an: "nVidia schreibt zwar es sei ein XY Produkt, es fällt auch hinten von einer XY line runter, aber die Schaltungsdesigns sind von einem älteren Node zu einem großen Teil, weil man es sich aufgrund des Zeitdrucks einfach nicht leisten konnte mehr neu zu designen."

Das klingt absolut realistisch und würde ich auch so erwarten. Mit dem ganzen Analogkram ist das heute ja eh schon im Bereich des I/Os durchaus wahrscheinlich.

Man muss ja immer bedenken, das nVidia praktisch Null Volumina hat. Da kannste nicht R&D wie blöd reinkippen. Vor allem nicht, wenn die Konkurrenz so stark die Preise drückt (z.B. Intel)

EDIT:
@Rys:
Welcome, nice to see you here.

I think you know more than you say. As far i know, the IP that nVidia and so on use is no black box IP-core. They should know how it works and should have the VHDL/RTL files. So they should be able to make a new route&placement. K, than you really have to care about timing and so on, but wheres the "custom" part? K, palcement&routing is not a easy task, even with reduced timing constraints (fequency), but the logik i doubt would change.

And what do you mean with "different transistor"? Just downscaled width of the transistors, because you have lower frequencies and with this less strong requirements on the rise/fall times? I hope that the P-Cell designers have added variables for all of this!

And clockdistribution is of cource coupeled to the driving strength of the (diff)/AMPs. Lower frequencies mean that we can tolerate higher rise/fall times, and with this also higher jitter. So also no "black magic".

Power and clock distribution is always a big task, and you can burn lots of power on it. So this kind of optimizations are common, and i hope! that ARM have enough variables inside there IP/block to do them more or less "out of the box", when a designer use lower clock frequencies for a design, or have less stabel clocks/power and have to increase the driving strength and so on.

Ailuros
2014-06-18, 10:42:35
Welcome on board Rys :)

http://forum.beyond3d.com/showpost.php?p=1855952&postcount=2485

The memory is off-package for K1, which helps. Die size is 121mmsq.

Meine eigene Schaetzung: ~1.4b transistors

Timbaloo
2014-06-18, 13:31:49
Im gegebenen Fall hat NV einen quad A15 die variabel von unten nach oben takten koennen (im K1 theoretisch bis zu 2.5GHz, real wohl eher 2.1-2.2GHz wobei es in Echtzeit selten bis nie erreicht wird) aber stets alle aktiven cores aus den 4 bei gleichem Takt. Egal ob 1, 2, 3 oder 4 cores aktiv, ist die Frequenz bei 900MHz takten alle eingeschalteten cores bei 900MHz.

Der companion core ist ein weiterer A15 core der aber dazu dient die leichteren Aufgaben aufzunehmen und daher taktet von 50-1000MHz und nicht hoeher. Dieser taktet dann unabhaengig vom quad A15 und deshalb wird es auch als 4+1 config beschrieben. Hilft es so?
Danke, hab's gecheckt :up:

Apologies for not replying in German. The main difference is the companion core is synthesised to be much less aggressive on frequency and power consumption, than the four cores in the main array. It uses slightly different transistors, its own clock control, and its own power delivery in order to meet those goals. So it's a different size (significantly) to the cores in the main array. Because of how NVIDIA implement it, it also needs its own discrete L2 and can't use the L2 in the main array.

Thank you aswell for the explanation, that makes sense :idea:

Apologies if the joke caused any blonde moments or undue interruption in your usual scheduled Tegra speculation :D
Thanks for the laugh and welcome here ;D

Skysnake
2014-06-18, 18:03:19
Btw. nur falls sich noch jemand für Chipdesign, hier Analog, interessiert, der kann ja mal hier rein schauen. http://www.ece.tamu.edu/~spalermo/ecen474.html

Da ist alles frei zugänglich, und wirklich ganz gut erklärt. Ist auch verdammt viel aus dem Razavi entnommen.

Besonders interessant ist hierbei folgende Vorlesung: http://www.ece.tamu.edu/~spalermo/ecen474/lecture05_ee474_layout.pdf

Da sieht man vor allem mal, wie so Transistoren wirklich aussehen, wenn man sie designt!

Wenn ihr euch die Layouts (multi finger Transistors) angeschaut habt, dann versteht ihr sicherlich auch das Problem bzgl. Transistorcount. Was ist denn "ein" Transistor? ;)

hasebaer
2014-06-22, 00:32:44
Nvidia Tegra K1 debütiert in Acer Chromebook CB5
http://www.computerbase.de/2014-06/nvidia-tegra-k1-firmiert-in-acer-chromebook-cb5/

Skysnake
2014-06-22, 08:01:31
Und im Nexus9 von HTC soll er auch drin sein.
http://www.computerbase.de/2014-06/nexus-9-kommt-von-htc-und-heisst-volantis/


Das hört sich doch mal sehr erfreulich an! Kann jemand abschätzen, wie wichtig/relevant die Volumina sind, die sich daraus ergeben?

AffenJack
2014-06-22, 08:34:48
Es ist nen guter Volumendeal, aber abschätzen ist schwer, ohne zu wissen wie gut das Ding sich verkaufen wird. Nexus 7 hat sich am Anfang fast 1 Million pro Monat verkauft, weils so billig war. Nexus 10 dagegen verkauft sich schlecht und war glaube eher bei 100k pro Monat.
Es ist auf jeden Fall nicht billig und somit schonmal nicht das allergrößte Volumen und es bleibt abzuwarten, wieviele Leute soviel Geld für 9 Zoll ausgeben wollen. Ich schätze, dass das Xiaomi Pad obwohl es fast nur in China verkauft wird insgesamt öfter über den Tisch geht als das Nexus 9.

Nvidia spricht übrigens auf der Hotchips im August über Denver. Schätze vorher im Juli sehen wir dann nen Nv Launchevent oder so.

1:30 PM Mobile Processors NVIDIA’s Tegra K1 System-on-Chip Michael Ditty, John Montrym and Craig Wittenbrink NVidia
Applying AMD’s “Kaveri” APU for Heterogeneous Computing Dan Bouvier, Ben Sander AMD
NVIDIA’s Denver Processor Darrell Boggs, Gary Brown, Bill Rozas, Nathan Tuck and K S Venkatraman Nvidia
http://www.hotchips.org/

Dural
2014-06-22, 11:26:34
Das Nexus9 ist so gut wie gekauft, endlich mal wieder ein tablet wo alles stimmt :biggrin:

Ailuros
2014-06-22, 11:31:21
Und im Nexus9 von HTC soll er auch drin sein.
http://www.computerbase.de/2014-06/nexus-9-kommt-von-htc-und-heisst-volantis/


Das hört sich doch mal sehr erfreulich an! Kann jemand abschätzen, wie wichtig/relevant die Volumina sind, die sich daraus ergeben?

Nexus7/T3 war ~10Mio insgesamt.

Glueckwuensche an NV fuer einen wohlverdienten design win und an Erinyes der darueber (und auch HTC als Hersteller) bei B3D darueber berichtete.

Ailuros
2014-06-22, 11:33:47
Das Nexus9 ist so gut wie gekauft, endlich mal wieder ein tablet wo alles stimmt :biggrin:

Ebenfalls aber wir werden wohl VIEL Geduld aufweissen muessen da es sich um Denver K1 handelt; das MiPad ist mir zu klein....~9" und nur ~420gr fuer's Nexus9? :eek: ewwwwww

Knuddelbearli
2014-06-22, 11:41:47
hmm kann jemand kurz den K1 zusammenfassen was werden da für Kerne verwendet zB?
5 unveränderte A15?

Ailuros
2014-06-22, 11:48:42
hmm kann jemand kurz den K1 zusammenfassen was werden da für Kerne verwendet zB?
5 unveränderte A15?

K1/32bit = 4*A15 + 1*A15 (spar-core)
K1/64bit = 2* Denver custom cores

Knuddelbearli
2014-06-22, 11:53:20
also bis auf Mehrtakt ( ~20% ) kein Zugewinn zu T4 toll ...

Wieso findet ihr den nochmal so geill? gibt da doch weit schnellere Chips und A15 säuft auch noch wie ein Loch

Ailuros
2014-06-22, 11:56:43
also bis auf Mehrtakt ( ~20% ) kein Zugewinn zu T4 toll ...

Wieso findet ihr den nochmal so geill? gibt da doch weit schnellere Chips und A15 säuft auch noch wie ein Loch

Weil die GPU zumindest 3x Mal so effizient ist wie im T4. Anders ich bekomme auf Android bei niedrigerem Preis in etwa nächster Generation Apple tablet Leistung ohne die Einschränkungen von Apple.

Die CPU Mehrleistung ist um einiges hoher als 20% (A15R3), interessiert mich aber nicht im geringsten. erstens weil mir die GPU wichtiger ist und zweitens hab ich die Denver Variante im Visier.

Knuddelbearli
2014-06-22, 11:58:05
für eine neue PSP sicher toll aber sonst?

robbitop
2014-06-22, 12:01:42
Nur leider nützt einem GPU Power ab einem bestimmten Level in der Praxis wenig. Zumindest mir macht auf SFF Geräten (Smartphone/Tablet) das Spielen (mangels Qualität der Spiele und Eingabemöglichkeiten) keinen Spaß. Ab einem bestimmten Grafiklevel ist auch die UI flüssig. Von mehr CPU Leistung, mehr RAM und schnellerem NAND hat man in den meisten Fällen wohl mehr.

Wobei ich natürlich nichts gegen Innovationen auf dem Gebiet habe. Eine Art Tablet Handheld mit super aufgeblasenen ARM SoC wäre genial - vorausgesetzt es kommen richtige AAA-Spiele. Und genau das ist meistens leider der Punkt an dem es scheitert... :( (selbst Sonys PSP/Vita hatte kaum richtig... richtig gute Spiele...)
Im Prinzip könnte man nur ein x86 Tablet mit Windows bauen und ältere PC Spiele darauf spielen. Mit Core M (Broadwell) könnte die Performance sogar relativ brauchbar werden...

Ailuros
2014-06-22, 12:05:34
für eine neue PSP sicher toll aber sonst?

Die Zeit der handheld Konsolen ist schon seit einer Ewigkeit vorbei. Wenn Du ein tablet nur für Kochrezepte zum lesen brauchst reicht auch ein 70 Euro China tablet.

Nur leider nützt einem GPU Power ab einem bestimmten Level in der Praxis wenig. Zumindest mir macht auf SFF Geräten (Smartphone/Tablet) das Spielen (mangels Qualität der Spiele und Eingabemöglichkeiten) keinen Spaß. Ab einem bestimmten Grafiklevel ist auch die UI flüssig. Von mehr CPU Leistung, mehr RAM und schnellerem NAND hat man in den meisten Fällen wohl mehr.

Wobei ich natürlich nichts gegen Innovationen auf dem Gebiet habe. Eine Art Tablet Handheld mit super aufgeblasenen ARM SoC wäre genial - vorausgesetzt es kommen richtige AAA-Spiele. Und genau das ist meistens leider der Punkt an dem es scheitert... :( (selbst Sonys PSP/Vita hatte kaum richtig... richtig gute Spiele...)
Im Prinzip könnte man nur ein x86 Tablet mit Windows bauen und ältere PC Spiele darauf spielen. Mit Core M (Broadwell) könnte die Performance sogar relativ brauchbar werden...

Entwickler konzentrieren sich hauptsächlich auf Volumen. Wer zum Henker wurde exklusiv für ein Nischenprodukt entwickeln ausser es wird vom Hersteller fett finanziert?

Tegra K1 zählt zu den neuer Generation SoCs und auf Düsen ist solche GPU Leistung normal, wie auch im nächsten fruitco tablet.

Knuddelbearli
2014-06-22, 12:17:08
na ich würde ja nix sagen wenn auch die CPU Leistung zeitgemäß für Enthusiast wäre was sie aber nicht ist.

Und Problem an Tablet spielen ist eben das kaum eines eine brauchbare Steuerung hat.
Spiele wie The Room Two sind da eine rühmliche Ausnahme.

Aber gut NV scheint ja angeblich das Smartphonegeschäft eh aufzugeben.

dildo4u
2014-06-22, 12:23:12
na ich würde ja nix sagen wenn auch die CPU Leistung zeitgemäß für Enthusiast wäre was sie aber nicht ist.

K1 scheint vom CPU Teil das beste am Markt zu sein,805 wird vermutlich nur gleichziehen.

http://www.tabtech.de/sonstiges/nvidia-tegra-k1-schlaegt-snapdragon-801-und-tegra-4-im-benchmark

AffenJack
2014-06-22, 12:26:51
also bis auf Mehrtakt ( ~20% ) kein Zugewinn zu T4 toll ...

Wieso findet ihr den nochmal so geill? gibt da doch weit schnellere Chips und A15 säuft auch noch wie ein Loch

Die da wären? Intel ist Leistungsmäßig etwas vorne, hat aber mäßig schnelle Grafik. AMD weiß ich im Vergleich nicht, aber findet man in Tablets kaum, Apple ist nunmal kein Android. Sonst bleibt da nix mehr übrig.

Mancko
2014-06-22, 12:30:11
K1 scheint vom CPU Teil das beste am Markt zu sein,805 wird vermutlich nur gleichziehen.

http://www.tabtech.de/sonstiges/nvidia-tegra-k1-schlaegt-snapdragon-801-und-tegra-4-im-benchmark


So eine allgemeine Aussage finde ich kann man nicht treffen. Es gibt zwei K1 CPU Konzepte die sich komplett unterscheiden. Der eine ist 4x A15 in der neuesten Revision und der andere ist 2x Denver Custom Core designed und gebaut von Nvidia auf Basis des ARM Befehlssatzes mit 64 Bit.

Ob jetzt ein Custom Dual Core Denver K1 schneller ist als das was zum Zeitpunkt andere vielleicht mit Quadcore Versionen herausbringen vermag ich im Augenblick nicht zu beurteilen. Dafür ist es m.E: zu früh. Der K1 in der 4x A15 Variante ist allerdings schon in der Kombination CPU und GPU eine Hausnummer. Das einzige was man da noch nicht 100%ig beurteilen kann ist, wieviel Saft der zieht. Durchaus möglich, dass der K1 in der 4x A15 Variante mehr zieht als die Konkurenz. Keine Ahnung. Dazu müssen dann die Geräte verfügbar sein um das in Tests zu validieren.

In Summe glaube ich aber ist Nvidia auf dem richtigen Weg unterwegs und wird sich ganz gut berappeln in dem Segment. Beim Thema Laufzeit müssen die es mittelfristig schaffen, dass das Gerät einen Tag lang durchhält. Danach spielt es zumindest bei Tablets m.E. nur noch eine untergeordnete Rolle ob man die nun 10 Stunden oder 20h im Dauerbetrieb betreiben kann. Da rückt dann wieder die Leistung mehr in den Vordergrund. Über Nacht aufladen ist ja kein Problem.

Ailuros
2014-06-22, 12:34:46
na ich würde ja nix sagen wenn auch die CPU Leistung zeitgemäß für Enthusiast wäre was sie aber nicht ist.

Dann solltest Du Dich wohl besser über den ULP SoC Markt informieren.

Und Problem an Tablet spielen ist eben das kaum eines eine brauchbare Steuerung hat.
Spiele wie The Room Two sind da eine rühmliche Ausnahme.

Kaufe ich mir das nächste Nexus tablet bekomme ich vergleichbare tablet-
Leistung zum nächsten iPad, zu geringerem Preis und ohne Apple's Einschränkungen. Mit dem wurde ich auch nicht mehr anstellen können als mit dem vorigen.

Aber gut NV scheint ja angeblich das Smartphonegeschäft eh aufzugeben.

Nichts Neues. Den Zug hat vor langem nicht nur NV verpasst.

Mancko,

Google ist stets konservativ mit ihrer HW. Mir reicht auch =/>1.5x Mal iPad Air Leistung aus so lange der Preis stimmt (maximal 400 Euro) und die Batterie zumindest 3 Stunden unter heavy 3d aushält.

Knuddelbearli
2014-06-22, 12:45:23
Die da wären? Intel ist Leistungsmäßig etwas vorne, hat aber mäßig schnelle Grafik. AMD weiß ich im Vergleich nicht, aber findet man in Tablets kaum, Apple ist nunmal kein Android. Sonst bleibt da nix mehr übrig.


Ähm es sind Standard A15 also ist jeder Chinese gleich schnell. Qualcomm mit ihren eigenen dann schneller bei sicherlich wieder weit besserem Verbrauch.



@ Ailuros
A15 ist eben kein ULP im Mobilemarkt oder wie oft hast du einen A15 in einem Smartphone( nicht Phablet ) gesehen? Nicht sehr oft und dazu Taktet er dann meist extrem runter! Tegra 4 ist nicht umsonst gefloppt und wurde für Smartphone massivst abgespeckt.

Und wieso fängst du jetzt mit Apple an? Was tut das jetzt zur Sache wo wurde das mit einem Wort von mir erwähnt? :facepalm:
Wenn man nicht mehr weiter weis einfach Apple in die Diskussion einbringen der dann garantiert kommende Flammware erstickt die vorherige Diskussion?
naja da bin ich jedenfalls raus ...

Ailuros
2014-06-22, 12:56:04
Ähm es sind Standard A15 also ist jeder Chinese gleich schnell. Qualcomm mit ihren eigenen dann schneller bei sicherlich wieder weit besserem Verbrauch.

Dann leg mal los und dokumentiere es.

@ Ailuros
A15 ist eben kein ULP im Mobilemarkt oder wie oft hast du einen A15 in einem Smartphone( nicht Phablet ) gesehen? Nicht sehr oft und dazu Taktet er dann meist extrem runter! Tegra 4 ist nicht umsonst gefloppt und wurde für Smartphone massivst abgespeckt.

Nur reden wir hier gerade über einen tablet design win. Ich sage nochmal dritte Revision vom A15 und google so lange darüber nach bis es hockt. Der MT8135 benutzt auch solche nur bei maximal 1.2 GHz momentan. Takt für Takt und bei gleichem Verbrauch ist der R3 um >20% effizienter als der erste A15.

Und wieso fängst du jetzt mit Apple an? Was tut das jetzt zur Sache wo wurde das mit einem Wort von mir erwähnt? :facepalm:

Du bist hier in die Debatte reingeplatzt nicht ich. Du hast uns gefragt was so besonders daran sei als wir vom Nexus9 redeten und ich hab darauf geantwortet.

Wenn man nicht mehr weiter weis einfach Apple in die Diskussion einbringen der dann garantiert kommende Flammware erstickt die vorherige Diskussion?
naja da bin ich jedenfalls raus ...

Du hast Deine Ignoranz zum ULP Markt schon in 2-3 posts bewiesen, ergo versuche erstmal Deine bisherigen Behauptungen zu dokumentieren und dann sehen wir weiter. So sachlich wie möglich.

Knuddelbearli
2014-06-22, 13:18:56
Letzte Erwähnung von Apple war am 06.06 war ja sicher eine extrem angeregte Diskussion in die ich hereingeplatzt bin ...

Und du sagst ja gerade selbst der MT8135 benutzt auch diesen A15 ist eben Standardware und wie du so schön sagtest
Du hast uns gefragt was so besonders daran sei
Ist es eben nicht und die GPU Leistung bestenfalls ein Nische in der Nische.

Denver klingt da schon interessanter aber muss sich auch erstmal beweisen nachdem NV bisher keinerlei Custom Designs abgeliefert hat.

Und zum Thema Beweis. Wo sind den deine das A15R3 angeblich soviel effizienter ist vor allem bei so hohem Takt?
( OK das R3 verstehe ich erst jetzt wobei natürlich klar war das nicht der Ursprungs A15 verwendet wird )

Timbaloo
2014-06-22, 13:40:05
Wie wird denn aktuell die Performance der zwei Denver-Kerne gegenüber den 4*A15 eingeschätzt? Leistungsaufnahme ebenso?

Ailuros
2014-06-22, 13:42:46
Letzte Erwähnung von Apple war am 06.06 war ja sicher eine extrem angeregte Diskussion in die ich hereingeplatzt bin ...

Es war eine der Antworten darauf http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10254945&postcount=4615

Wenn Du mich fragst was so besonderes an einem Nexus9 mit einem Denver K1 sein sollte IMO, dann bleibt die Antwort gleich: ein tablet mit vergleichbarer iPad-next Leistung, niedrigerer Preis und keine Apple Begrenzungen. Anders ein Android high end 9" tablet mit einer high end CPU und einer high end GPU.

Und du sagst ja gerade selbst der MT8135 benutzt auch diesen A15 ist eben Standardware und wie du so schön sagtest

Wobei die 2* A15 R3 im MT8135 um einiges effizienter sind mit 1.2GHz als die 2* A15 (R1) im Exynos5250. ***

Ist es eben nicht und die GPU Leistung bestenfalls ein Nische in der Nische.

Muss der Grund sein warum GPU Bloecke in heutigen high end ULP SoCs ca. 1/4 von der gesamten SoC die area einnehmen.

Denver klingt da schon interessanter aber muss sich auch erstmal beweisen nachdem NV bisher keinerlei Custom Designs abgeliefert hat.

Er duerfte wohl effizienter sein muessen als die A15 im zeitigen K1, aber es ging im Nexus9 auf der vorigen Seite sowieso nur um Denver da es sich um eine 64bit in diesem handelt.

Und zum Thema Beweis. Wo sind den deine das A15R3 angeblich soviel effizienter ist vor allem bei so hohem Takt?
( OK das R3 verstehe ich erst jetzt wobei natürlich klar war das nicht der Ursprungs A15 verwendet wird )

Ok eine dritte IP Revision eines ARM cores wird wohl kein Zufall sein; fuer die *** weiter oben es gibt Datenbanken fuer CPU benchmarks fuer MT8135 (R3) und Exynos 5250 (R1) die Dir selber aufsuchen kannst. NV selber behauptet bis zu 45% fuer K1 zu T4 aber ich bin mir nicht mehr sicher ob sie den Prozess-Unterschied auf 28HPm fuer K1 auch mitberechnet haben.

AffenJack
2014-06-22, 13:42:57
Ähm es sind Standard A15 also ist jeder Chinese gleich schnell. Qualcomm mit ihren eigenen dann schneller bei sicherlich wieder weit besserem Verbrauch.

Es gibt wenige A15 Designs bisher, jeder Chinese hat A7 bisher und demnächst kommen dann die A12/17 Tablets. Und gerade Qualcomm ist auch nicht schneller. Qualcomm dürfte mit dem 805 ungefähr genauso schnell sein wie K1 in Sachen CPU sein, der Rest dürfte aber darunter liegen. Qualcomms Vorteil war nie Geschwindigkeit, denn allzu schnell sind die Kraits nicht, sondern Stromverbrauch und Modem.

Ailuros
2014-06-22, 13:48:43
Wie wird denn aktuell die Performance der zwei Denver-Kerne gegenüber den 4*A15 eingeschätzt? Leistungsaufnahme ebenso?

Ehrlich gesagt erwarte ich keine sehenswerten Unterschiede (ausser dass dual core Denver in 3dmark physics tests und co wohl hinterher haengt aber physics Marketingscheiss ist wohl NV's eigene Angelegenheit von vorigen Generationen :P ).

Beim Nexus9 (oder wie es heissen wird) macht mir nur eher die SoC Bandbreite als alles andere Sorgen. Die Aufloesung ist nicht gerade klein und entweder misst Xiaomi nur Mist in 2048*1536 oder dem Ding geht schon etwas mehr die Puste aus in hohen Aufloesungen. Nichts was mich aber von einem potentiellen Kauf abhalten wuerde wenn alles andere stimmt.

Es gibt wenige A15 Designs bisher, jeder Chinese hat A7 bisher und demnächst kommen dann die A12/17 Tablets. Und gerade Qualcomm ist auch nicht schneller. Qualcomm dürfte mit dem 805 ungefähr genauso schnell sein wie K1 in Sachen CPU sein, der Rest dürfte aber darunter liegen. Qualcomms Vorteil war nie Geschwindigkeit, denn allzu schnell sind die Kraits nicht, sondern Stromverbrauch und Modem.

Macht nicht den Fehler und vergleicht smartphone-zentrische designs mit =/>tablet zentrischen designs. S805/810 usw werden wohl sehr gute smartphone zentrische designs sein aber fuer tablets wohl eher fraglich trotz sehr hoheρ Bandbreite. Beim K1 ist es wohl eher anders rum. Das mit den modems stimmt aber durchaus, aber man braucht meistens kein =/>3G auf tablets; wifi reicht meistens aus ;)

Einfacher: perf/W ist um einiges kritischer auf einem smartphone SoC und QCOM wird wohl nicht so bloed und ihr Kerngeschaeft fuer ein paar tablet design wins aufgeben.

AffenJack
2014-06-22, 14:14:00
Ehrlich gesagt erwarte ich keine sehenswerten Unterschiede (ausser dass dual core Denver in 3dmark physics tests und co wohl hinterher haengt aber physics Marketingscheiss ist wohl NV's eigene Angelegenheit von vorigen Generationen :P ).

Ich glaube nicht, dass Denver in den meisten Tests in die Nähe der A15 Quads kommen wird. Dual-Core gegen Quad ist einfach nen unfähres Duell. Cyclone wird bei Geekbench oder so ja auch platt gemacht von den Quad A15. Aber nen schneller Dual-Core sollte sich vom Gefühl trotzdem ganz gut anfühlen.


Beim Nexus9 (oder wie es heissen wird) macht mir nur eher die SoC Bandbreite als alles andere Sorgen. Die Aufloesung ist nicht gerade klein und entweder misst Xiaomi nur Mist in 2048*1536 oder dem Ding geht schon etwas mehr die Puste aus in hohen Aufloesungen. Nichts was mich aber von einem potentiellen Kauf abhalten wuerde wenn alles andere stimmt.

Naja, im Moment 18,7 FPs in GFX3 ist immernoch mehr als doppelt so schnell wie das Air. Ist etwas mehr Abfall, aber geht schon klar. Selbst im Lenove T28 mit 4K Bildschirm schafft man fast noch die Leistung des Airs.

Macht nicht den Fehler und vergleicht smartphone-zentrische designs mit =/>tablet zentrischen designs. S805/810 usw werden wohl sehr gute smartphone zentrische designs sein aber fuer tablets wohl eher fraglich trotz sehr hoheρ Bandbreite. Beim K1 ist es wohl eher anders rum. Das mit den modems stimmt aber durchaus, aber man braucht meistens kein =/>3G auf tablets; wifi reicht meistens aus ;)

Einfacher: perf/W ist um einiges kritischer auf einem smartphone SoC und QCOM wird wohl nicht so bloed und ihr Kerngeschaeft fuer ein paar tablet design wins aufgeben.

Natürlich, das hab ich nicht vor. Wollte nur ausdrücken, dass man CPU-technisch durchaus Leistungsmäßig am oberen Rand der SoCs ist und das ausreichend ist bei der GPU-Leistung.

Ailuros
2014-06-22, 14:22:31
Ich glaube nicht, dass Denver in den meisten Tests in die Nähe der A15 Quads kommen wird. Dual-Core gegen Quad ist einfach nen unfähres Duell. Cyclone wird bei Geekbench oder so ja auch platt gemacht von den Quad A15. Aber nen schneller Dual-Core sollte sich vom Gefühl trotzdem ganz gut anfühlen.

So lange ein CPU core breit und effizient genug ist, ist mir dual vs quad eigentlich egal momentan. Mein voriger Kommentar war lediglich fuer das oede physics demo fuer Tegra3 :P

Naja, im Moment 18,7 FPs in GFX3 ist immernoch mehr als doppelt so schnell wie das Air. Ist etwas mehr Abfall, aber geht schon klar. Selbst im Lenove T28 mit 4K Bildschirm schafft man fast noch die Leistung des Airs.

Es geht mir in dem Fall nicht um den Air Vergleich sondern eher dass bisher (wir haben ja nur das MiPad als Material) GK20A zu stark in hohen Aufloesungen abbremst. Ich will hoffen dass Google nicht geiziger sein wird als Xiaomi mit der SoC Bandbreite. Hat das MiPad nicht 12GB Bandbreite (bei maximal theoretisch moeglichem 17+ fuer K1?) oder lieg ich da falsch?

robbitop
2014-06-22, 16:05:30
Die meisten Core Applikationen nutzen 4 Kerne kaum aus mangels Parallelisierung (von synthetischen Benchmarks mal abgesehen). Insofern sollten 2x schnelle Kerne sich besser anfühlen als 4x weniger schnelle.

Weiß eigentlich schon jemand, in welchem IPC und Frequenzbereich Denver auftreten wird?

IIRC gab es vor Monaten mal irgendwelche Benchmarks mit mittelmäßigen Ergebnissen bei ~3 GHz. Oder trügt mich mein Gedächtnis..?

AffenJack
2014-06-22, 16:58:32
Es geht mir in dem Fall nicht um den Air Vergleich sondern eher dass bisher (wir haben ja nur das MiPad als Material) GK20A zu stark in hohen Aufloesungen abbremst. Ich will hoffen dass Google nicht geiziger sein wird als Xiaomi mit der SoC Bandbreite. Hat das MiPad nicht 12GB Bandbreite (bei maximal theoretisch moeglichem 17+ fuer K1?) oder lieg ich da falsch?

Kein Plan wie die Bandbreite ist, die bisherigen chinesischen Reviews ham da alle nicht so reingeguckt. Ich meine, dass das Xiaomi nicht mehr abbremst als zu erwarten ist. Du hast im Xiaomi 50% mehr Pixel als 1080p. Ausgangspunkt 28.1 FPS zu 18.7 FPS Onscreen spiegelt genau dieses Verhältnis wieder. Da ist keinerlei unerwartetes Verhältnis dabei.


Weiß eigentlich schon jemand, in welchem IPC und Frequenzbereich Denver auftreten wird?

IIRC gab es vor Monaten mal irgendwelche Benchmarks mit mittelmäßigen Ergebnissen bei ~3 GHz. Oder trügt mich mein Gedächtnis..?

Die gab es und sie sahen auch nicht zu gut aus, mal gucken was draus wird am Ende. Ich meine bei der TK1 Präsentation war aber nur von 2,5ghz die Rede. IPC würde ich schon um die 50% schneller als A15 erwarten bei ähnlichen Clockspeeds wie A15.

Ailuros
2014-06-22, 17:02:06
Die meisten Core Applikationen nutzen 4 Kerne kaum aus mangels Parallelisierung (von synthetischen Benchmarks mal abgesehen). Insofern sollten 2x schnelle Kerne sich besser anfühlen als 4x weniger schnelle.

Die paar verstreute Daten ueber Denver deuten auf einen sehr breiten design hin.

Weiß eigentlich schon jemand, in welchem IPC und Frequenzbereich Denver auftreten wird?

Ich glaube NV gab 2.5GHz an; ist der design relativ vergleichbar mit Cyclone sind dann selbst =/>2.0 GHz ein Ereignis.

IIRC gab es vor Monaten mal irgendwelche Benchmarks mit mittelmäßigen Ergebnissen bei ~3 GHz. Oder trügt mich mein Gedächtnis..?

Uhmmm ja Antutu.....:freak:

Kein Plan wie die Bandbreite ist, die bisherigen chinesischen Reviews ham da alle nicht so reingeguckt. Ich meine, dass das Xiaomi nicht mehr abbremst als zu erwarten ist. Du hast im Xiaomi 50% mehr Pixel als 1080p. Ausgangspunkt 28.1 FPS zu 18.7 FPS Onscreen spiegelt genau dieses Verhältnis wieder. Da ist keinerlei unerwartetes Verhältnis dabei.

Dann haben sich die Resultate endlich auf logischeren Werten stabilisiert; vergiss nicht dass die Werte die Du angiebst Durschnittswerte sind. Vor ein paar Tagen war es noch irgendwo bei ~16 fps im Durchschnitt: http://gfxbench.com/subtest_results_of_device.jsp?D=Xiaomi+MiPad&id=544&benchmark=gfx30

Bei der Fuellrate war es noch schlimmer; heute steht 4887 fuer onscreen waehrend es vor kurzem nur noch in der 2700-er Region war: http://gfxbench.com/subtest_results_of_device.jsp?D=Xiaomi+MiPad&id=554&benchmark=gfx30

Und die T-Rex Werte haben sich erst recht in onscreen normalisiert.

Ich weiss wirklich nicht wie diese Resultate bei Kishonti eingetragen werden, aber ich nehme meistens die peak Werte von jedem Geraet und die sind momentan fuer's MiPad:

Manhattan onscreen 20.0 fps
Manhattan offscreen 30.0 fps

T-Rex onscreen 42.8 fps
T-Rex offscreen 61.4 fps

Wobei die T-Rex Resultate bis zum 14-en Juni nur in der 20+fps Region lagen. Jetzt machen alle Resultate natuerlich Sinn.

deekey777
2014-06-25, 13:25:55
Xiaomi Mi Pad soll am 01.07.2014 in China starten (also für alle).

Ailuros
2014-06-25, 13:37:19
Xiaomi Mi Pad soll am 01.07.2014 in China starten (also für alle).

Und wieso hat dann merimobiles noch keine offiziellen Preise eingetragen? Merimobiles ist der offizielle online Partner von Xiaomi: http://www.merimobiles.com/the-xiaomi-mipad-16gb_p/meri10163.htm

Juli wird es wohl schon sein nach allen Indizien aber 5 Tage vor der angeblichen "Verfuegbarkeit" wuerde ich wohl schon einen Preis fuer eine Vorbestellung erwarten. Ohne Preis bestellt wohl keiner so leicht vor.

fondness
2014-06-25, 13:44:03
K1 scheint vom CPU Teil das beste am Markt zu sein,805 wird vermutlich nur gleichziehen.

http://www.tabtech.de/sonstiges/nvidia-tegra-k1-schlaegt-snapdragon-801-und-tegra-4-im-benchmark

Wenn das Ding wenigstens eine A57 hätte, aber ein A15 ist heute wirklich nicht besonderes mehr und kann schon seit einer halben Ewigkeit von jedem lizenziert werden.

Insgesamt ist K1 aber der erste ernstzunehmende Tegra-SoC, da wenigstens eine ordentliche GPU verbaut ist.

deekey777
2014-06-25, 13:55:56
Wenn das Ding wenigstens eine A57 hätte, aber ein A15 ist heute wirklich nicht besonderes mehr und kann schon seit einer halben Ewigkeit von jedem lizenziert werden.

Insgesamt ist K1 aber der erste ernstzunehmende Tegra-SoC, da wenigstens eine ordentliche GPU verbaut ist.
Warum sollte das Ding einen A57 haben, wenn ein Custom-Kern mit 64-bit-Unterstützung kommen wird?

Ailuros
2014-06-25, 13:56:17
Wenn das Ding wenigstens eine A57 hätte, aber ein A15 ist heute wirklich nicht besonderes mehr und kann schon seit einer halben Ewigkeit von jedem lizenziert werden.

Insgesamt ist K1 aber der erste ernstzunehmende Tegra-SoC, da wenigstens eine ordentliche GPU verbaut ist.

Weil ausser Apple wer genau eine 64bit CPU in ihren SoCs auf dem Laufband momentan hat? Denver/K1 wird so wie es aussieht unter den ersten 64bit Android SoC CPUs sein und dazu sogar ein custom design welches fuer hoehere Effizienz spricht als die ersten A57 cores die Qualcomm und Samsung ab H2 14' benutzen werden. Ich kritisier zwar NV fuer Tegra mehr als oefters, aber im gegebenen Fall sehe ich nichts falsches. Im Gegensatz haetten sie sich sogar eine zweite Auflage des K1 mit Denver sparen koennen und Denver erst ab Erista integrieren.

***edit: Intel Silvermont natuerlich aber da Moorefield wohl nur in Samsung =/<mainstream smartphones erscheinen wird mit reduzierter Frequenz wohl kein "high end SoC" mehr.

dildo4u
2014-06-25, 14:00:34
Wenn das Ding wenigstens eine A57 hätte, aber ein A15 ist heute wirklich nicht besonderes mehr und kann schon seit einer halben Ewigkeit von jedem lizenziert werden.

Insgesamt ist K1 aber der erste ernstzunehmende Tegra-SoC, da wenigstens eine ordentliche GPU verbaut ist.
Die A15 Version kommt damit man Zeitnah gegen 805 liefern kann und es scheint zu funzen wenn die Gerüchte zum Nexus 9 stimmen.

deekey777
2014-06-25, 14:16:44
Weil ausser Apple wer genau eine 64bit CPU in ihren SoCs auf dem Laufband momentan hat? Denver/K1 wird so wie es aussieht unter den ersten 64bit Android SoC CPUs sein und dazu sogar ein custom design welches fuer hoehere Effizienz spricht als die ersten A57 cores die Qualcomm und Samsung ab H2 14' benutzen werden. Ich kritisier zwar NV fuer Tegra mehr als oefters, aber im gegebenen Fall sehe ich nichts falsches. Im Gegensatz haetten sie sich sogar eine zweite Auflage des K1 mit Denver sparen koennen und Denver erst ab Erista integrieren.

***edit: Intel Silvermont natuerlich aber da Moorefield wohl nur in Samsung =/<mainstream smartphones erscheinen wird mit reduzierter Frequenz wohl kein "high end SoC" mehr.

Die Betonung liegt auf "Highend".

Der 32bit-K1 ist offensichtlich ein Zwischenschieber wie der S805, der eigentliche Konkurrent für Denver ist S810 (und natürlich alle anderen Highend-SoCken mit A57).

Ob K1 (egal in welcher Version) überhaupt in einem Smartphone landet, werden wir noch sehen, auch wenn es eine indirekte Ankündigung für ein Smartphone mit K1 gibt. Da kann ein Moorefield auch mit reduzierter Taktrate kommen (der CPU-Teil müsste auch mit reduziertem Takt sehr schnell sein, vielleicht schneller als die Konkurrenz).


(Mein Z3740 hat zwar nur eine Intel HD Grafik, aber wenn es um den Physics-Test in 3DMark geht, kann er mit bis zu 1,83 GHz Turbo sehr gut mit den schnellsten SoCs mithalten.)

Ailuros
2014-06-25, 14:38:38
Die Betonung liegt auf "Highend".

Der 32bit-K1 ist offensichtlich ein Zwischenschieber wie der S805, der eigentliche Konkurrent für Denver ist S810 (und natürlich alle anderen Highend-SoCken mit A57).

Dann benutz die Beschreibung "Zwischenschieber" auf fuer die S810 CPU da A57+A53@big.LITTLE und noch kein Schimmer von einem 64bit Krait core.

Ob K1 (egal in welcher Version) überhaupt in einem Smartphone landet, werden wir noch sehen, auch wenn es eine indirekte Ankündigung für ein Smartphone mit K1 gibt. Da kann ein Moorefield auch mit reduzierter Taktrate kommen (der CPU-Teil müsste auch mit reduziertem Takt sehr schnell sein, vielleicht schneller als die Konkurrenz).

Der Zug fuer smartphones ist fuer NV schon seit langem abgefahren. Bis zum Punkt wo wir die wahren perf/mW von der Moorefield CPU bei N Takt sehen koennen sind wir genauso ratlos wie zuvor. Google hat wohl schon ihren Grund gehabt dass sie sich fuer K1/Denver entschieden haben, wobei die Chancen auch ziemlich gut sind dass Intel Moorefield relativ billig angeboten hat.

(Mein Z3740 hat zwar nur eine Intel HD Grafik, aber wenn es um den Physics-Test in 3DMark geht, kann er mit bis zu 1,83 GHz Turbo sehr gut mit den schnellsten SoCs mithalten.)

....wobei in diesem jeder dual core (egal wie breit die cores) bis jetzt ziemlich schlecht abschneidet, Cyclone inklusive. Was soll mir dieser nichtsaussagende synthetische test genau sagen?

Moorefield ist genauso wie die S8xx SoCs hauptsaechlich fuer smartphones gedacht und ausser dem Samsung Geruecht sieht es nirgend wo anders nach einem anstaendigen smartphone Volumen deal dafuer aus. Stimmt das Samsung Geruecht erreicht Intel sehenswerten smartphone Marktanteil und deckt damit zumindest Teil der Kosten fuer die Moorefield Entwicklung.

NV kann es sich einfach nicht leisten einen K1 bei einstelligen Preisen zu verkaufen und schon gar nicht da dessen Herstellung eben nicht unter $7 liegt da auch keine eigene foundry.

deekey777
2014-06-25, 14:51:17
Leider werden die Highend-SoCs mit Benchmarks verkauft, so dass nichtsaussagende Balken und Punkte eine viel größere Rolle spielen als Laufzeiten.

Ailuros
2014-06-25, 15:55:15
Leider werden die Highend-SoCs mit Benchmarks verkauft, so dass nichtsaussagende Balken und Punkte eine viel größere Rolle spielen als Laufzeiten.

Sag das nicht mir sondern denjenigen die fuer den 64bit CPU Marketing-Schwachsinn automatisch ein quad A15/R3 config entwerten. Die Realitaet ist dass Denver nicht besonders schneller sein wird als das vorige (mal perf/mW zur Seite weil noch unbekannt fuer Denver) und fuer die "Balken" liegt dann dual core Denver eben sogar in synthetischen tests wie der physics test in 3dmark hinter dem A15 quad oder jeglichem anderen heutigen high end quad core Gespann.

Dural
2014-06-25, 16:29:36
Ich wäre mir da nicht mal so sicher das der Denver Dual Core deutlich hinter den A15 Quad liegt.

Der Core dürfte ziemlich Fett sein und erst noch etwas höher Takten als die A15. Einen durchschnittlichen gleichstand würde mich nicht mal überraschen.

Nightspider
2014-06-25, 17:36:03
Wird aber auch interessant um der CPU Part vom K1 mit Custom A57 DualCore dann gleich wieder vom QualComm 810 mit A57 QuadCore zersägt wird. Ich tippe mal auf ja.

Dann führt Nvidia bei der GPU und QualComm bei der CPU.
Wobei der 810 ja sogar schon in 20nm kommt und der Tegra 4 so oder so schlecht dagegen aussehen wird in einem halben Jahr. QualComm packt ihre SoCs immer voll mit neuester Technik und der 810 wird Ende 2014/Anfang 2015 sicherlich wieder das rundere, schnellere Gesamtpaket bieten.

Undertaker
2014-06-25, 17:49:27
Bei Multi-Threading wird ein 2C-Denver sicher keine Bäume ausreißen; nur muss er das denn? Die Stärke eines A7 liegt auch eher in der starken ST-Performance.

Nightspider
2014-06-25, 18:06:32
Naja, ob man es braucht ist eine andere Frage.

Dennoch bietet ein 810 fürs gleiche Geld insgesamt 8 CPU Kerne, davon 4 fette A57 und hat dazu das deutlich breitere Speicherinterface, den effizienteren Fertigungsprozess, bessere Featurelevel (unterstützt mehr Satellitennavigationssysteme, hat HEVC Encoder, vllt auch besseren Kamera-Part und auf jeden Fall das bessere Modem gleich integriert).

Wie ich es bereits letztes Jahr gesagt habe, wird NV wohl wenn überhaupt nur ein halbes Jahr gut dastehen aber dann wieder von der Konkurrenz überrollt werden. Denn NVs 20nm Chip liegt noch in ferner Zukunft.

Undertaker
2014-06-25, 18:20:32
Ich sehe K1, egal ob Denver oder A15, auch nicht als Smartphone-Konkurrenten zu einem S810. Ein S810-basiertes Mi Pad für ebenfalls ~200 Euro wird es imo kaum geben. Allein schon die teure 20nm-Fertigung, die gerade anfangs nicht nur in puncto €/mm², sondern auch €/Transistor deutlich über 28nm HPM liegen wird, wirft den Snapdragon in eine höhere Preisklasse.

Ailuros
2014-06-25, 18:35:01
Ich wäre mir da nicht mal so sicher das der Denver Dual Core deutlich hinter den A15 Quad liegt.

Ich sagte nur in synthetischen benchmarks wie physics in 3dmark.

Der Core dürfte ziemlich Fett sein und erst noch etwas höher Takten als die A15. Einen durchschnittlichen gleichstand würde mich nicht mal überraschen.

Na dann lassen wir uns mal darueber ueberraschen :P

Naja, ob man es braucht ist eine andere Frage.

Dennoch bietet ein 810 fürs gleiche Geld insgesamt 8 CPU Kerne, davon 4 fette A57 und hat dazu das deutlich breitere Speicherinterface, den effizienteren Fertigungsprozess, bessere Featurelevel (unterstützt mehr Satellitennavigationssysteme, hat HEVC Encoder, vllt auch besseren Kamera-Part und auf jeden Fall das bessere Modem gleich integriert).

Ja zur um einiges hoeheren Bandbreite und nein zu der Unmenge an cores die unter einem logischen big.LITTLE config stets eher als quad config fungieren werden. Parallele 8 threads sind sogar im PC noch Ueberfluss.

Wie ich es bereits letztes Jahr gesagt habe, wird NV wohl wenn überhaupt nur ein halbes Jahr gut dastehen aber dann wieder von der Konkurrenz überrollt werden. Denn NVs 20nm Chip liegt noch in ferner Zukunft.

20SoC wird weder Apple noch NV anscheinend besonders viel bringen. Dass NV im Herbst von Apple womoeglich ueberholt wird waere keine Ueberraschung, aber Apple konkurriert auch nach wie vor quasi mit sich selber.

Ich sehe K1, egal ob Denver oder A15, auch nicht als Smartphone-Konkurrenten zu einem S810. Ein S810-basiertes Mi Pad für ebenfalls ~200 Euro wird es imo kaum geben. Allein schon die teure 20nm-Fertigung, die gerade anfangs nicht nur in puncto €/mm², sondern auch €/Transistor deutlich über 28nm HPM liegen wird, wirft den Snapdragon in eine höhere Preisklasse.

QCOM ist mit TSMC angepisst und sucht Auswege ihre Herstellung teilweise oder wenn moeglich ganz zu Samsung oder GloFo fuer high end SoCs zu schicken, eben weil Apple zu viel aufgefuttert von den Kapazitaeten. Und nochmal bei den Volumen wo QCOM herstellt, haben sie einen so grossen Rabbatt die ein SoC Hersteller wie NV nie erreichen wird mit den paar Mio Einheiten.

Sonst zum Rest natuerlich. K1 ist viel zu stark fuer ein smartphone und S810 wohl eher lauwarm fuer ein tablet.

AffenJack
2014-06-25, 19:05:43
Wie ich es bereits letztes Jahr gesagt habe, wird NV wohl wenn überhaupt nur ein halbes Jahr gut dastehen aber dann wieder von der Konkurrenz überrollt werden. Denn NVs 20nm Chip liegt noch in ferner Zukunft.

Naja, mal ehrlich, wer erwartet, dass Nvidia QC auf Dauer in Sachen CPU schlagen kann ist schon etwas illusorisch. QC entwickelt SoCs und eigene Cpus auch schon seit Jahren und steckt in die Entwicklung mehr Geld rein, als NV im Gesamten Umsatz hat. Ich finde es da eher enttäuschend, dass QC auf Standard ARM-Cores zurückgreifen muss, weil man mit seinen eigenen Chips anscheinend zu spät ist.

@Ailuros

Das Xiaomi Pad wird ab 1.Juli direkt über Mi.com vertrieben. Merimobile kommt wohl später. Preis wie gesagt 1499 Yuan. Erstmal nur 16gb verfügbar.

AffenJack
2014-06-25, 23:28:02
Wird wirklich zu Offtopic hier, daher hab ich mal da geantwortet:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10259514#post10259514

Ailuros
2014-06-26, 08:54:43
Wird wirklich zu Offtopic hier, daher hab ich mal da geantwortet:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10259514#post10259514

Danke. Ich hab auch noch ein paar posts in denen es hauptsaechlich darum ging in den oberen thread verschoben.

deekey777
2014-06-26, 09:10:03
It’s Tegra K1 Everywhere at Google I/O (http://blogs.nvidia.com/blog/2014/06/25/tegra-k1-at-google-io/)
The keynote showed off Google’s new Android L operating system’s gaming capabilities on a Tegra K1 reference device. Spanking-new Android TV is available to developers on a Tegra-powered devkit. The Open Auto Alliance’s just-announced Android Auto features NVIDIA. And Tegra K1 is at the heart of the Project Tango tablet devkit – which is on display on the show floor – opens up the doors to computer vision and computational photography.

Google Brings PC Class Gaming to Android with AEP, Powered by Tegra K1 - See more at: http://blogs.nvidia.com/blog/2014/06/25/google-io-tegra-aep-gaming/#sthash.iiJWcvRx.dpuf

Die Demo: https://www.youtube.com/watch?v=X-tAZtbDZ8E#t=61

:up:

Ailuros
2014-06-26, 09:19:39
Die demo ist wunderschoen nur der Inhalt etwas ewwww.... :uhippie:

Dural
2014-06-26, 09:27:38
jep sieht richtig klasse aus, ich freue mich schon auf M1, da ist das selbe wohl mit dem halben verbrauch möglich :biggrin:

Ailuros
2014-06-26, 09:38:28
jep sieht richtig klasse aus, ich freue mich schon auf M1, da ist das selbe wohl mit dem halben verbrauch möglich :biggrin:

Die neueste Tegra roadmap gibt ~50% bessere FP32 FLOP/W Leistung an dafuer. Du musst sicher etwas wissen was NV noch nicht weiss.

deekey777
2014-06-26, 09:56:54
Die demo ist wunderschoen nur der Inhalt etwas ewwww.... :uhippie:
Die Demo ist ganz schön böse. Der Spieleautomat ist stellvertretend für alle Geräte, die keinen K1 haben und maximal Flappy Bird darstellen können.

Ailuros
2014-06-26, 10:11:50
Die Demo ist ganz schön böse. Der Spieleautomat ist stellvertretend für alle Geräte, die keinen K1 haben und maximal Flappy Bird darstellen können.

Selbst low end smartphones koennen heutzutage mehr darstellen als dieses und es ist und bleibt der lowest common denominator. Bis man ein so breites Publikum selbst mit nur OGL_ES3.0 ansprechen kann wird es noch eine Ewigkeit dauern.

AnarchX
2014-06-26, 19:56:49
Bei Multi-Threading wird ein 2C-Denver sicher keine Bäume ausreißen; nur muss er das denn? Die Stärke eines A7 liegt auch eher in der starken ST-Performance.
SMT sollte man bei Denver wohl nicht ausschließen.

AffenJack
2014-06-26, 23:32:11
Die Demo ist ganz schön böse. Der Spieleautomat ist stellvertretend für alle Geräte, die keinen K1 haben und maximal Flappy Bird darstellen können.

Ähh nein, da interpretierst du falsch. Tappy Chicken, was auf dem Spielautomat läuft wurde auf Android in der Unreal Engine 4 von Epic released;)
Epic will damit die Skalierbarkeit der Engine zeigen, von Tappy Chicken bis zu der Grafik im Video.

Skysnake
2014-06-27, 06:41:46
So und nochmals ein ziemlich heftiger Dämpfer für jeden, der darauf spekuliert hat, das K1 mit Denver Cores im Server/HPC-Bereich kommt.

http://www.tomshardware.de/nvidia-denver-server,news-250816.html

Das ist ziemlich bitter. nVidia streicht also auch in dem Bereich die Segel, und Project Denver kann wohl wirklich endgültigst als Tot bezeichnet werden. Alle "Spielereien" bzgl. ARM Cores in nVidia GPUs kann man dann wohl auch getrost vergessen. Dabei haben Sie ja noch vor nem halbe Jahr bis Jahr vom neuen CUDA 6(?) gesprochen auf der ISC und ihrer SecretHardwareSouce für GM200, damit (virtual) UnifiedAdressSpace besser funktioniert. Da hatte man ja mit den Denver Cores gerechnet.

Ich frag mich echt, wie sich nVidia die Entwicklungskosten für Tablets und Automotiv leisten können will. Sooo groß sind die Volumina nicht, vor allem weil die Konkurrenz ja auch nicht schläft, aber ein zichfaches absetzt. Die können sich das eher leisten einen Ableger noch dazu zu entwickeln, sofern sie die Manpower haben.

Was bleibt denn jetzt noch für die Zukunft von Tegra/nVidia über? Irgendwie kommts mir so vor, als ob nVidia praktisch am gleichen Punkt ist wie vor 5 Jahren, nur das alle Märkte viel härter umkämpft sind.

Dural
2014-06-27, 09:28:09
Für mich war K1 sicher auch nie für Server gedacht, also keine Überraschung.

Dass kein eigener Server SoC kommt überrascht mich aber schon, offensichtlich reicht halt beides zusammen nicht ins Budget

robbitop
2014-06-27, 09:38:13
Die Aussage, dass Denver als CPU/SoC nicht in den Servermarkt kommt, heißt doch nicht, dass er nicht in die Geforce/Tesla Reihe kommt.

Außerdem entwickeln nun mittlerweile einige SoC Firmen ihre CPU für den SFF Kern selbst. Inzwischen scheint es ein wichtiges Differenzierungsmerkmal zu sein. Mittelfristig wird man ohne guten Custom ARM Kern kaum noch Designwins bekommen.

Die Entscheidung, aus den Smartphones rauszugehen, kann ich nur partiell nachvollziehen. NVs Argumente sind keinesfalls falsch. Aber man schaue sich mal an, wie erfolgreich Qualcomm auf dem High End/Midrange Smartphonemarkt ist. Und die sitzen quasi nebenan im Silicon Valley.

Skysnake
2014-06-27, 09:40:32
Wurde nicht gerade der VLIW Ansatz für Serveranwendungen als toll dargestellt von den Denver Cores?

@Robbitop
Was untercheidet denn noch ein Tesla mit Denver Cores von einem SOC?

Man muss immer im Hinterkopf behalten, das nVidia aus allen Märkten mit ihrem SOC raus ist, außer Automotiv und ihren tollen high end tablet Plänen. Damit kannste aber keine SOC Entwicklung gegen die Konkurrenz finanzieren.

y33H@
2014-06-27, 09:40:42
Das hatte Jen-Hsun Huang schon vor Wochen ziemlich deutlich klar gemacht.

hasebaer
2014-06-27, 14:34:00
und Project Denver kann wohl wirklich endgültigst als Tot bezeichnet werden.

Hä, Tegra K1 64bit hat Denver Cores?! :confused:

Ailuros
2014-06-27, 14:39:13
Ähh nein, da interpretierst du falsch. Tappy Chicken, was auf dem Spielautomat läuft wurde auf Android in der Unreal Engine 4 von Epic released;)
Epic will damit die Skalierbarkeit der Engine zeigen, von Tappy Chicken bis zu der Grafik im Video.

Nun ja wenn's zu static vs. dynamic content kommt ist der Unterschied zwischen dem video und tappy chicken auch nicht mehr sooooo gross ;D

Hä, Tegra K1 64bit hat Denver Cores?! :confused:

Dachte ich auch am Anfang, nur hiess das Denver/server Project Boulster und nicht Denver. Ich glaube (bin mir aber nicht sicher) dass es im zweiten Fall womoeglich noch zusaetzlichen Aufwand braucht wie z.B. fabric fuer interconnects usw., lass mich aber eines besseren belehren.

Skysnake
2014-06-27, 17:10:25
Ja, für nen SOC im HPC Bereich brauchst du noch nen Interconnect, wobei der am "einfachsten" über PCI-E 3.0 angebunden wird bei nVidia. Die haben nicht das know how und die Mittel um einen propritären Interconnect raus zu hauen. Da macht es sinn auf Mellanox usw usw zu setzen.

Mehr als PCI-E 3.0 braucht es da dann aber eben auch nicht, und das hat nVidia wie bekannt sein sollte in der Schublade liegen als IP.

Es braucht also nicht wirklich mehr Aufwand. Was man halt machen würde, wäre halt ein großer Chip und halt deutlich mehr RAM+breiteres Interface.

Die K1 Denver Cores an sich, sollen ja aber eben gerade 64 Bit liefern, was den großen RAM ermöglicht, und sollen auch ne deutlich bessere Single-Thread Leistung bieten, wobei man eben schauen muss, wie das genau aussieht, also wieviel Instructionlvl parallelism die Dinger am Ende brauchen. Wie dem auch sei. An sich sind die Denver Cores ausm K1 eben an sich interessanter, als die 0815 ARM 64 Bit Cores. Zumindest, wenn man nVidia glaubt, was Sie die ganze Zeit an Superlativen verkünden.

Genau das ist aber das Problem. Sie versprechen und versprechen, nur kommen tut irgendwie nichts, und wie gesagt, man sollte inzwischen auch wirklich jedwede Hoffnung fahren lassen, dass sich das noch ändert.

hasebaer
2014-06-27, 22:30:05
Dachte ich auch am Anfang, nur hiess das Denver/server Project Boulster und nicht Denver.

Hmm ok, zu einem Project Boulster spuckt Google grad nix aus.

An sich sind die Denver Cores ausm K1 eben an sich interessanter, als die 0815 ARM 64 Bit Cores. Zumindest, wenn man nVidia glaubt, was Sie die ganze Zeit an Superlativen verkünden.

Was verkündeten sie den, die ganze Zeit über?

Ich finde dazu zwar aus anfang 2011 eine allgemeine Beschreibung das Denver für High Performance steht und bis rauf zu Server geeignet sei, aber nichts genaues und im grunde ist dass das Gleiche was ARM auch zu A15 propagiert hatte.

Im Gegenteil man (NV) scheint sich bewusst zusein, dass Software die Hardware verkauft und die ist bei ARM Server aus Sicht von NV noch nicht an dem Punkt an dem es interessant wird für ARM Server.

Auch Server auf NVIDIA-Tegra-Basis wollte NVIDIA nicht ausschließen. Jedoch scheint das Unternehmen, anders als AMD, noch abwarten zu wollen. Zuerst müsse die Software noch optimiert werden, so NVIDIA. "I think we’re seeing a lot of interest in putting something like Tegra in micro servers, but one step at a time", so Jen-Hsun Huang.
- http://www.hardwareluxx.de/index.php/news/hardware/prozessoren/31015-nvidia-offen-fuer-arm-server-cpus.html

Und Mirco Server sollten eigentlich das Sprungbrett hin zu größeren Geschichten sein.

Also entweder es stürzen sich mit Samsung oder auch AMD zuviele potente Größen auf dieses Segment, dass es sich so oder so nicht lohnt, oder aber die Software ist in der Tat noch nicht dort wo sie sein müsste.

Naitsabes
2014-06-27, 23:33:56
Aber da kommt dann wieder das übliche Henne-Ei Problem zu tragen...

Ailuros
2014-06-28, 14:56:52
Hmm ok, zu einem Project Boulster spuckt Google grad nix aus.

Kein Wunder es hiess Project Boulder: http://www.xbitlabs.com/news/cpu/display/20120921010327_Nvidia_Develops_High_Performance_ARM_Based_Boulder_Microprocessor _Report.html


- http://www.hardwareluxx.de/index.php/news/hardware/prozessoren/31015-nvidia-offen-fuer-arm-server-cpus.html

Und Mirco Server sollten eigentlich das Sprungbrett hin zu größeren Geschichten sein.

Also entweder es stürzen sich mit Samsung oder auch AMD zuviele potente Größen auf dieses Segment, dass es sich so oder so nicht lohnt, oder aber die Software ist in der Tat noch nicht dort wo sie sein müsste.

Vergiss Samsung und Server SoCs. Auf jeden Fall kann man heute erahnen was Charlie/SA die ganze Zeit ueber Denver und co. hinter seiner SA paywall womoeglich murmelte.

hasebaer
2014-06-28, 17:41:13
Kein Wunder es hiess Project Boulder: http://www.xbitlabs.com/news/cpu/display/20120921010327_Nvidia_Develops_High_Performance_ARM_Based_Boulder_Microprocessor _Report.html

Ah danke.
War aber nur ein Gerücht, nichts was Nvidia selber als "Superlative" vermarket hat und jetzt zurückzieht.
Vielmehr ist es bezeichnend das die Quelle, also BSN den original Artikel zu ihrem Gerücht nicht mehr auf ihrer Website führen.
- http://www.brightsideofnews.com/news/2012/9/20/nvidia-project-boulder-revealed-tegras-competitor-hides-in-gpu-group/

Ailuros
2014-06-28, 20:12:58
Ah danke.
War aber nur ein Gerücht, nichts was Nvidia selber als "Superlative" vermarket hat und jetzt zurückzieht.
Vielmehr ist es bezeichnend das die Quelle, also BSN den original Artikel zu ihrem Gerücht nicht mehr auf ihrer Website führen.
- http://www.brightsideofnews.com/news/2012/9/20/nvidia-project-boulder-revealed-tegras-competitor-hides-in-gpu-group/

Theo ist zwar strohdumm aber Boulder hat er nicht erfunden.

AffenJack
2014-07-01, 21:28:34
mal zum Xiaomi Mipad, man hat für heute 50k Stück zum Verkauf gestellt. Sie waren ausverkauft in 3min 59 s. Das ist immer die Verkaufstaktik von Xiaomi. Am Anfang künstliche Verknappung durch einige sogenannte "Flashsales" und damit der Versuch Publicity und nen Hype zu generieren. Es werden nun wohl jede Woche 50-100k zum Verkauft angeboten und nen kleiner Teil dann bei Merimobiles usw. Ziel soll wohl bei 2 Millionen Mipad dieses Jahr liegen.

Ailuros
2014-07-01, 21:35:34
Wo kann man die Dinger auf mi.com bestellen? Ich war heute Mittag dort hab aber nichts gesehen.

Schade dass Volantis noch um einiges auf sich warten lässt; das MiPad ist mir zu klein :(

AffenJack
2014-07-01, 21:49:07
Soweit ich verstanden hab auf http://www.mi.com/mipad

Da das aber nur in Chinesischer Sprache ist und nur Lieferungen nach China, ist das für uns eher uninteressant. Bisher gabs auch nur das weiße Mipad mit 16GB. Kann sein, dass es die anderen Versionen eher bei den Resellern für nen höheren Preis gibt und man bei Mi.com immer nur in China die Standardversionen kriegen wird.

Undertaker
2014-07-03, 10:22:57
http://www.notebookcheck.com/HTC-Tablet-Volantis-angeblich-mit-5-GB-RAM-und-Tegra-K1.120184.0.html

5 GB RAM (die wohl evtl. leider nur im Prototyp) und Denver. :)

Ailuros
2014-07-03, 10:28:39
http://www.notebookcheck.com/HTC-Tablet-Volantis-angeblich-mit-5-GB-RAM-und-Tegra-K1.120184.0.html

5 GB RAM (die wohl evtl. leider nur im Prototyp) und Denver. :)

Ich bin auch mit 2GB durchaus zufrieden; dass aber vom Volantis vor 2015 nichts zu sehen sein wird ist die wirklich bitterste Bestaetigung *seufz* :frown:

robbitop
2014-07-03, 10:34:04
Das HTC Tablet klingt ja wirklich nach einem absoluten Knaller.

QHD Display
Alu Gehäuse
8,9"
Denver
viel RAM

Da kann HTC, wenn es gut läuft, einen richtig guten Neueinstieg in den Tabletmarkt schaffen. Ich bin schon sehr gespannt auf Denver.

fondness
2014-07-03, 10:59:26
Wer sagt das Denver irgend was besonderes wird? Ich bin gespannt, gerade nachdem man den Server-Chip auf Denver-Basis abgeblasen hat.

robbitop
2014-07-03, 11:04:52
Denver wird sehr sehr breit und hat relative große Kerne. Wenn da nicht deutlich mehr IPC herumkommt als bei den bisherigen A15 Kernen, müsste es schon ein ordentlicher Schlag in's Wasser sein.

fondness
2014-07-03, 11:09:58
Ein AMD K7 ist 9 issue superpipelined wenn ich kreativ zähle, nur weil NV auf Marketingfolien von 7 issue spricht heißt das noch gar nichts. Und wie groß die Kerne sind ist AFAIk noch reine Spekulation.

Zudem gibt es bis das Denver kommt auch schon einen A57. Ich bin gespannt. :)

robbitop
2014-07-03, 11:24:39
K7 war seinerzeit auch super schnell. Allein der Fakt, dass man nur 2x Kerne verbaut, impliziert, dass die Dinger stark und groß werden. Ansonsten würde man diesen Schritt nicht gehen. Auch wäre dann eine CPU Eigenentwicklung sinnfrei.

Ailuros
2014-07-03, 11:25:12
Ein AMD K7 ist 9 issue superpipelined wenn ich kreativ zähle, nur weil NV auf Marketingfolien von 7 issue spricht heißt das noch gar nichts. Und wie groß die Kerne sind ist AFAIk noch reine Spekulation.

Zudem gibt es bis das Denver kommt auch schon einen A57.

1. Es liegt mehr an einem ULP SoC als nur die CPU.
2. AMD hat noch ein paar Meilen vor sich bis sie zu einem halbwegs interessanten ULP SoC kommen.
3. Von wem soll es denn A57 Kerne in ultra thin tablets noch innerhalb dieses Jahres genau geben?

Sterile Kritik ist eben dann steril wenn man keine logischen Alternativen zu jeglichem Kritikpunkt finden kann. Das Volanits ultra thin tablet Paket sieht momentan sehr vielversprechend aus und dabei ist es scheissegal ob im SoC ein quad A15 oder dual Denver steckt.

fondness
2014-07-03, 11:28:37
K7 war seinerzeit auch super schnell.

Heute wird er von jedem ULP-SoC geschlagen.


Allein der Fakt, dass man nur 2x Kerne verbaut, impliziert, dass die Dinger stark und groß werden. Ansonsten würde man diesen Schritt nicht gehen. Auch wäre dann eine CPU Eigenentwicklung sinnfrei.

Das ist natürlich ein Argument. Ist aber auch immer eine Frage der Marktausrichtung und Stückzahlen wie viele Kerne man verbaut und ob eine Eigenentwicklung Sinn macht oder nicht.

1. Es liegt mehr an einem ULP SoC als nur die CPU.

Habe ich nirgends anders behauptet.


2. AMD hat noch ein paar Meilen vor sich bis sie zu einem halbwegs interessanten ULP SoC kommen.

Was hat AMD jetzt damit zu tun?


3. Von wem soll es denn A57 Kerne in ultra thin tablets noch innerhalb dieses Jahres genau geben?


Denver noch innerhalb dieses Jahres? Ich bin gespannt. :)


Sterile Kritik ist eben dann steril wenn man keine logischen Alternativen zu jeglichem Kritikpunkt finden kann. Das Volanits ultra thin tablet Paket sieht momentan sehr vielversprechend aus und dabei ist es scheissegal ob im SoC ein quad A15 oder dual Denver steckt.

Das sehe ich nicht anders, aber gerade ging es eben um Denver.

Ailuros
2014-07-03, 11:51:06
Habe ich nirgends anders behauptet.

Du hast auch sonst nichts behauptet dass wenigstens etwas Substanz hat.

Was hat AMD jetzt damit zu tun?

Frag Dich selber; Du hast Denver mit AMD's irrelevantem design verglichen.

Denver noch innerhalb dieses Jahres? Ich bin gespannt. :)

Hab ich nirgends behauptet; ich hab kein high end tablet mit A57 dieses Jahr auf dem Radar und fuer Anfang 2015 auch nicht.

Das sehe ich nicht anders, aber gerade ging es eben um Denver.

Eigentlich ging es ueber HTC's Volantis. Die einzige momentane Relevanz vom Volantis zu Denver ist dass das letzte im SoC stecken wird. Sonst gibt es keine einzige anstaendige Indizie ueber Denver's Effizienz bis jetzt. Das eine einzige Antutu Resultat ist genauso fuer die Muelltonne wie der benchmark selber. Ein dual core Cyclone oder Silvermont wuerde in diesem auch nicht besonders besser gegen einen quad core abschneiden.

robbitop
2014-07-03, 11:51:53
Heute wird er von jedem ULP-SoC geschlagen.

Achja? Von jedem? A15 war in Benchmarks nur ein Stückchen schneller (IPC) als ein Silverthrone (also in order) Atom Kern. Qualcomms Krait (die CPU mit der höchsten Marktbedeutung) ist sogar noch 20 % langsamer (als A15).

Nur weil die Dinger alle OoO sind, muss das noch nicht viel heißen.

Gerade mal Intels Silvermont (OoO) und Apples Cyclone sind von der IPC etwas höher. (Silvermont liegt 25 % unter Jaguar IPC. Jaguar liegt zwischen K8 und K10. Sagen wir mal 10 % schneller als K8. K8 war widerum 25 % schneller als K7. Also hat Jaguar ~40 % mehr IPC als K7. Damit liegt Silvermont bei einer IPC von 10...15 % über K7. Cyclone ist auf einem ähnlichen Level.)

Also bis auf Apple und Intel ist K7 (der nun 15 Jahre alt wird!) noch nicht von jedem ULP SoC geschlagen.



Das ist natürlich ein Argument. Ist aber auch immer eine Frage der Marktausrichtung und Stückzahlen wie viele Kerne man verbaut und ob eine Eigenentwicklung Sinn macht oder nicht.
Lirum-Larum. NV baut nach eigener Aussage nur High End SoCs. Wenn Denver nicht deutlich schneller wird als verfügbare Standard-ARM Kerne macht die Entwicklung keinen Sinn - und/oder man hätte 4 davon verbaut.
Davon auszugehen, dass die Dinger mehr IPC haben als A15 ist zwar noch Spekulation. Aber unwahrscheinlich sollte es nicht sein.

fondness
2014-07-03, 11:54:04
Du hast auch sonst nichts behauptet dass wenigstens etwas Substanz hat.


Ich habe nur gesagt das man über Denver noch kaum was weiß, kein Grund aus der Haut zu fahren. Aber wenn schon solche Aussagen hier verboten sind dann eben nicht.

Achja? Von jedem? A15 war in Benchmarks nur ein Stückchen schneller (IPC) als ein Silverthrone (also in order) Atom Kern. Qualcomms Krait (die CPU mit der höchsten Marktbedeutung) ist sogar noch 20 % langsamer (als A15).

Nur weil die Dinger alle OoO sind, muss das noch nicht viel heißen.

Gerade mal Intels Silvermont (OoO) und Apples Cyclone sind von der IPC etwas höher. (Silvermont liegt 25 % unter Jaguar IPC. Jaguar liegt zwischen K8 und K10. Sagen wir mal 10 % schneller als K8. K8 war widerum 25 % schneller als K7. Also hat Jaguar ~40 % mehr IPC als K7. Damit liegt Silvermont bei einer IPC von 10...15 % über K7. Cyclone ist auf einem ähnlichen Level.)

Also bis auf Apple und Intel ist K7 (der nun 15 Jahre alt wird!) noch nicht von jedem ULP SoC geschlagen.

War ungenau ausgedrückt schon klar, aber darum ging es auch nicht. Es ging darum das die Aussage 7 issue wenig her gibt.


Lirum-Larum. NV baut nach eigener Aussage nur High End SoCs. Wenn Denver nicht deutlich schneller wird als verfügbare Standard-ARM Kerne macht die Entwicklung keinen Sinn - und/oder man hätte 4 davon verbaut.
Davon auszugehen, dass die Dinger mehr IPC haben als A15 ist zwar noch Spekulation. Aber unwahrscheinlich sollte es nicht sein.

Selbst wenn das alles so geplant wurde muss man sehen was dabei raus kommt, nicht alles läuft immer nach Plan. Wie schon gesagt ich bin gespannt wie sich dieser mehrmals verschobene und wohl auch redesignete Chip letztlich schlägt und vor allem welche Marktausrichtung er überhaupt hat.

Ailuros
2014-07-03, 12:19:51
Ich habe nur gesagt das man über Denver noch kaum was weiß, kein Grund aus der Haut zu fahren. Aber wenn schon solche Aussagen hier verboten sind dann eben nicht.

Es ist gar nichts verboten was nicht gegen die Regeln verstosst in diesem forum. Es ist aber schon das zweite Mal dass ein AMD fan in die Debatte reinplatzt (wo es auch im anderen Fall um Volantis zufaellig ging) um irgendetwas substanzloses ueber Denver zu erwaehnen.

Mir ist egal wie Du das obrige beschreiben wuerdest, aber in einem demokratischen Forum wird es auch ein Gegenwort fuer jeden solcher Faelle geben, ueberhaupt wenn der Grund in beiden Faellen mehr als nur offensichtlich ist.

Volantis sieht vielversprechend aus, was genau sinnvolles hast Du gerade dazu beigetragen? Eben.... :rolleyes:

Dural
2014-07-03, 12:23:19
es gibt doch schon einen Benchmark, da ist der dual core denver etwas unter einem A15 quad.
pro core ausgerechnet gut 90% schneller als ein A15 (ohne takt berücksichtigung)

Ich denke das darf man auch so erwarten, je nach dem wie die software halt läuft. Alles andere würde ja auch nicht gross sinn machen, den sonst könnte man wirklich einfach vier A15 reinpacken (wie es den K1 ja so wie so auch gibt)

Ailuros
2014-07-03, 12:26:17
es gibt doch schon einen Benchmark, da ist der dual core denver etwas unter einem A15 quad.
pro core ausgerechnet gut 90% schneller als ein A15

Ich denke das darf man auch so erwarten, je nach dem wie die software halt läuft. Alles andere würde ja auch nicht gross sinn machen, den sonst könnte man wirklich einfach vier A15 reinpacken (wie es den K1 ja so wie so auch gibt)

Waere ja halbwegs etwas wert wenn Antutu auch etwas wert waere; nicht dass es etwas fundamental aendert aber dual Denver war im Antutu auf 3.0GHz getaktet.

fondness
2014-07-03, 12:28:12
Es ist gar nichts verboten was nicht gegen die Regeln verstosst in diesem forum. Es ist aber schon das zweite Mal dass ein AMD fan in die Debatte reinplatzt (wo es auch im anderen Fall um Volantis zufaellig ging) um irgendetwas substanzloses ueber Denver zu erwaehnen.

Mir ist egal wie Du das obrige beschreiben wuerdest, aber in einem demokratischen Forum wird es auch ein Gegenwort fuer jeden solcher Faelle geben, ueberhaupt wenn der Grund in beiden Faellen mehr als nur offensichtlich ist.

Volantis sieht vielversprechend aus, was genau sinnvolles hast Du gerade dazu beigetragen? Eben.... :rolleyes:

Na klar ich bin ein dummer Fanboy der deshalb nur ein bisschen bashen will. Na wenn du meinst.

Dural
2014-07-03, 12:29:56
ich habe editiert, ich meinte ohne takt ausgleich.

aber ja ist halt nur ein benchmark... die zeit wird es zeigen. :wink:

robbitop
2014-07-03, 12:44:45
Ja Fondness wollte nur anhand eines (nicht-SFF Beispiels) zeigen, dass die Breite des Execution Teils einer CPU nicht immer vielsagend ist. IMO als Argument völlig okay.

Ailuros
2014-07-03, 12:45:37
Na klar ich bin ein dummer Fanboy der deshalb nur ein bisschen bashen will. Na wenn du meinst.

Sagst Du, nicht ich. Sonst: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10267658&postcount=4683 mal Dir Deinen Kreis selber aus.

Skysnake
2014-07-03, 13:53:49
Denver wird sehr sehr breit und hat relative große Kerne. Wenn da nicht deutlich mehr IPC herumkommt als bei den bisherigen A15 Kernen, müsste es schon ein ordentlicher Schlag in's Wasser sein.
Man muss aber durchaus seine berechtigten Zweifel haben, dass das Design wirklich sooo toll ist wie immer gesagt.

Das nVidia auf der ISC jetzt mit nem Partner sein Project Denver-Überreste verwurstet ist erschreckend. Vor allem wenn man sich anschaut, wie ungeeignet das Ding an sich ist. Das einzig wirklich brauchbare ist die 64Bit Untertützung.

Das sich nVidia da offensichtlich gegen ihr eigenes Design entschieden hat, lässt schon ungutes vermuten. Vor allem da ja in dem Bereich man nicht so harte Powerlimits hat. So lange die Effizienz stimmt passt es.

Im ULP Bereich muss! die Effizienz UND! die totale Poweraufnahme passen. Doppelte Effizienz bringt dir rein gar nichts, wenn es ein 100W Design ist....

Dural
2014-07-03, 14:04:13
hmm ich weis nicht, wer soll immer sagen das Denver so cool und gut sei?

von NV hört man in diese Richtung rein gar nichts, sogar erstaunlich wenig.
die Vergangenheit hat gezeigt, wenn man nichts hört, der Chip in der regel doch recht brauchbar ist.

Und 2. wenn er sich nicht gegen A15 durchsetzten könnte, würde ihn Google/HTC wohl kaum im neuen Nexus verbauen.

Ailuros
2014-07-03, 15:01:29
Man muss aber durchaus seine berechtigten Zweifel haben, dass das Design wirklich sooo toll ist wie immer gesagt.

Es reicht wenn es ungefaehr auf Apple Cyclone Niveau liegt. Wenn man Cyclone so gegen Krait (custom zu custom CPU) vergleicht, zieht wohl der erste nicht den kuerzeren wenn es zu Effizienz kommt.

Das nVidia auf der ISC jetzt mit nem Partner sein Project Denver-Überreste verwurstet ist erschreckend. Vor allem wenn man sich anschaut, wie ungeeignet das Ding an sich ist. Das einzig wirklich brauchbare ist die 64Bit Untertützung.

Ich halte persoenlich Denver in K1 sogar uebertrieben; sie haetten auch theoretisch bei quad A15 bis zu Erista bleiben koennen. 2 SoCs in einem Jahr ist marketing-technisch zwar schon gerechtfertigt mit dem ganzen 64bit Mist, aber auch Mords-Zusatzkosten fuer NVIDIA.

Das sich nVidia da offensichtlich gegen ihr eigenes Design entschieden hat, lässt schon ungutes vermuten. Vor allem da ja in dem Bereich man nicht so harte Powerlimits hat. So lange die Effizienz stimmt passt es.

Im ULP Bereich muss! die Effizienz UND! die totale Poweraufnahme passen. Doppelte Effizienz bringt dir rein gar nichts, wenn es ein 100W Design ist....

Wo hat sich NV gegen ihr eigenes design entschieden? :confused:

Skysnake
2014-07-03, 17:06:52
Na bei dem 64Bit Arm + K20(x), das auf der ISC gezeigt wurde. Davon hatten wir es doch vorher.

Und komm mir jetzt nicht von wegen, K1 wäre noch nicht fertig. Zur Not hätte es da auch ein T4 getan, nur um zu zeigen, dass das geht und nVidia dran ist. So ist aber klar, das da erstmal nichts kommen wird.

Die ganze Project Denver Geschichte ist einfach sowas von tot. Und das ist ziemlich fatal, denn dort hätte man durchaus ne gute Mäglichkeit gehabt, um neben Automotiv, Absatz zu generieren, um R&D quer zu finanzieren. Daraus wird ja aber offensichtlich nichts mehr werden.

Ich frag mich echt, wie die mit Tegra mal auf nen grünen Zweig kommen wollen, wenn Sie zwar ständig Ressourcen rein kippen, aber an allen Ecken und Enden Projekte aufgegeben werden, also am Ende halt nichts bei rum kommt.

Perspektive Null.

Das ist nicht wirklich prickelnd.

Ailuros
2014-07-03, 18:34:10
Na bei dem 64Bit Arm + K20(x), das auf der ISC gezeigt wurde. Davon hatten wir es doch vorher.

Und komm mir jetzt nicht von wegen, K1 wäre noch nicht fertig. Zur Not hätte es da auch ein T4 getan, nur um zu zeigen, dass das geht und nVidia dran ist. So ist aber klar, das da erstmal nichts kommen wird.

Daran hab ich gar nicht gedacht denn wir reden hier ueber Tegra und nicht Tesla. Lies nochmal Deinen letzten Paragraphen oben durch, denn ULP hat offensichtlich nichts mit HPC zu tun, obwohl heutzutage perf/W in beiden genauso wichtig ist.

Die ganze Project Denver Geschichte ist einfach sowas von tot. Und das ist ziemlich fatal, denn dort hätte man durchaus ne gute Mäglichkeit gehabt, um neben Automotiv, Absatz zu generieren, um R&D quer zu finanzieren. Daraus wird ja aber offensichtlich nichts mehr werden.

Ich frag mich echt, wie die mit Tegra mal auf nen grünen Zweig kommen wollen, wenn Sie zwar ständig Ressourcen rein kippen, aber an allen Ecken und Enden Projekte aufgegeben werden, also am Ende halt nichts bei rum kommt.

Perspektive Null.

Das ist nicht wirklich prickelnd.

Du weisst selber dass ich zu diesen Themen alles andere als anderer Meinung bin. Hat aber mit der eigentlichen - noch unbekannten - Effizienz von Denver selber auch nichts mehr direkt zu tun. Sagen wir es mal so falls Denver nicht deutlich in Effizienz vor A5x cores liegen sollte, ist eine Unmenge von resources fuer Denver im Arsch.

Ailuros
2014-07-03, 18:37:57
http://www.notebookcheck.com/HTC-Tablet-Volantis-angeblich-mit-5-GB-RAM-und-Tegra-K1.120184.0.html

5 GB RAM (die wohl evtl. leider nur im Prototyp) und Denver. :)

Fake uebrigens: https://twitter.com/evleaks/status/484664193589989376

Blediator16
2014-07-03, 18:59:51
Fake also. 5gb ist auch etwas ungerade XD

Skysnake
2014-07-03, 21:02:20
Daran hab ich gar nicht gedacht denn wir reden hier ueber Tegra und nicht Tesla. Lies nochmal Deinen letzten Paragraphen oben durch, denn ULP hat offensichtlich nichts mit HPC zu tun, obwohl heutzutage perf/W in beiden genauso wichtig ist.



Du weisst selber dass ich zu diesen Themen alles andere als anderer Meinung bin. Hat aber mit der eigentlichen - noch unbekannten - Effizienz von Denver selber auch nichts mehr direkt zu tun. Sagen wir es mal so falls Denver nicht deutlich in Effizienz vor A5x cores liegen sollte, ist eine Unmenge von resources fuer Denver im Arsch.
Das hat durchaus viel mit Tegra zu tun, denn K1/Denver ist für Smartphones offensichtlich zu fett. Wenn man optimistisch war, konnte man zumindest hoffen, das K1/Denver eben mit verstärktem Blick auf Automotiv und vor allem HPC designed wurde. Also im Besten Fall mit den 0815 Mobile/Server ARM-Designs den Boden wischt.

Ich selbst habe darauf auch gehofft, bis eben nVidia auf der ISC was komplett anderes gezeigt hat. Vor allem im HPC wäre ja wie schon gesagt, an sich nur Perf/W entscheidend, und weniger Watt an sich. Aber selbst da hat man sich nicht für K1/Denver entschieden, das stimmt mich nicht sonderlich optimistisch, was das Teil anbelangt, und genau da ist der Bezug zum Mobile/ULP Bereicch.

Mich würde es absolut nicht mehr überraschen, wenn wir dieses Jahr gar kein K1/Denver mehr sehen.

hasebaer
2014-07-03, 21:25:16
Für HPC ist die Software noch nicht marktreif.
http://www.hardwareluxx.de/index.php/news/hardware/prozessoren/31015-nvidia-offen-fuer-arm-server-cpus.html

Skysnake
2014-07-03, 21:31:41
Das is so ein Bullshit, den gibts gar nicht. Das sind reine Schutzbehauptungen.

Die haben seit wievielen Jahren mit Barcelona dran gearbeitet? 3 oder doch schon 4 Jahre?

Der GPU Treiber ist auch schon seit Jahren auf ARM portiert, spätestens aber mit K1.

Was soll da also noch an Software groß kommen?

Sollen die Entwickler ihre Applikationen etwa ins Blaue hinein auf eine unbekannte Architektur optimieren, die vielleicht kommt, vielleicht aber auch nicht? :rolleyes:

nVidia muss einfach was vernünftiges liefern. Oder wartet man im Automotiv-Bereich etwa auch, bis es genug Software gibt, und sich dann erst dran macht Produkte für den Markt zu entwickeln?

Sorry, aber nach sooooo vielen Jahren, ist das einfach nur FUD.

Hübie
2014-07-03, 21:43:21
Man lies die Quelle und nicht hasebaers Kommentar oder hwl. :rolleyes:

nVidia macht fette deals mit General Electric (http://defense.ge-ip.com/products/gpgpu/c497) etc. Da wirds schon ne Basis geben. Ist ja nun nicht so dass es noch keine ARM-Server/-Clients bei denen gibt.
Automotive wird ein Ableger neben vielen sein. Die gehen einfach derbe in die Industrie. Hauptächlich Design und Entwurf eben. Aber selbst die WM wird durch nVidia "beschleunigt" (siehe RED Rocket-Ersatz). nVidia stellt sich immer breiter auf und gamer werden immer unwichtiger.

Mancko
2014-07-03, 21:51:43
Man lies die Quelle und nicht hasebaers Kommentar oder hwl. :rolleyes:

nVidia macht fette deals mit General Electric (http://defense.ge-ip.com/products/gpgpu/c497) etc. Da wirds schon ne Basis geben. Ist ja nun nicht so dass es noch keine ARM-Server/-Clients bei denen gibt.
Automotive wird ein Ableger neben vielen sein. Die gehen einfach derbe in die Industrie. Hauptächlich Design und Entwurf eben. Aber selbst die WM wird durch nVidia "beschleunigt" (siehe RED Rocket-Ersatz). nVidia stellt sich immer breiter auf und gamer werden immer unwichtiger.

Gamer werden schon noch ein wichtiger Arm bleiben. Aber das sie sich breiter aufstellen ist Korrekt. Die Zeiten dafür sind auch günstig. Durch die ganzen SoC Entwicklungen gibt es auf vielen Gebieten Einsatzfelder und es werden weitere kommen. Vieles davon wird eher im Firmenkundengeschäft sein. Hat Siemens vor Jahren auch angefangen. Siemens hat heute so gut wie nichts mehr im Endverbraucher Bereich und das schlichtweg, weil dort zu viel über Masse und billige Preise gemacht wird. Bei Firmenkunden sind zum Teil andere Dinge wie Support etc. wichtiger.

Ailuros
2014-07-03, 21:53:51
Das hat durchaus viel mit Tegra zu tun, denn K1/Denver ist für Smartphones offensichtlich zu fett. Wenn man optimistisch war, konnte man zumindest hoffen, das K1/Denver eben mit verstärktem Blick auf Automotiv und vor allem HPC designed wurde. Also im Besten Fall mit den 0815 Mobile/Server ARM-Designs den Boden wischt.

Ich selbst habe darauf auch gehofft, bis eben nVidia auf der ISC was komplett anderes gezeigt hat. Vor allem im HPC wäre ja wie schon gesagt, an sich nur Perf/W entscheidend, und weniger Watt an sich. Aber selbst da hat man sich nicht für K1/Denver entschieden, das stimmt mich nicht sonderlich optimistisch, was das Teil anbelangt, und genau da ist der Bezug zum Mobile/ULP Bereicch.

Mich würde es absolut nicht mehr überraschen, wenn wir dieses Jahr gar kein K1/Denver mehr sehen.

Dann hat auch Cyclone nichts im iPhone5 zu suchen. Denver sollte um einiges effizienter sein als A15/R3 erstmal weil ich aSMP für den ersten vermute. Wenn selbst NV selber nicht die GPU auf ihrem Ziel Takt im Jetson takten kann ist NUR die CPU dann am Stromverbrauch schuld oder wie soll ich es verstehen?

Wenn ein Smartphone Hersteller den quad A15 auf 1.8-2.0GHz und die GPU in der 450-500MHz Region geht es durchaus. Das eigentliche Problem hier ist LTE und dass das vorige Resultat keine Welten schneller ist als das iPhone5s bzw. S5.

Server, HPC und co sind ein ganz anderes Kapitel und weder K1 Denver hat etwas damit zu tun noch ist K1 in irgend einer Art relevant zu HPC.

Hübie
2014-07-03, 21:57:25
Ja das sind natürlich auch gewichtige Punkte. Reliability, Support and Service sind wichtige Kriterien geworden nachdem viele auf die Klappe fielen. Wobei Siemens nach 12 Jahren dir auch den Stinkefinger zeigt. Und das ist für embedded systems keine lange Laufzeit. Ich hab Steuerungen gesehen die schon an der 20-Jahr-Marke kratzten als sich dann das Mainboard verabschiedetete.

Edit: Wieso sollte K1 nicht relevant für HPC sein? Allein das Datamanagement könnte man auf ein Cluster legen. Muss ja nicht immer nur an der "Sache an sich" gerechnet werden. Da fällt ne Menge an.

Ailuros
2014-07-03, 22:28:44
Edit: Wieso sollte K1 nicht relevant für HPC sein? Allein das Datamanagement könnte man auf ein Cluster legen. Muss ja nicht immer nur an der "Sache an sich" gerechnet werden. Da fällt ne Menge an.

Es ging mir um die Tesla K20 Dinger mit den ARM cores die Skysnake erwaehnte.

Avalox
2014-07-03, 22:32:14
5 GB RAM (die wohl evtl. leider nur im Prototyp) und Denver. :)

Evleaks, die Quelle deines Links, schreibt von K1 und Snapdragon 810, also einem Vertreter der neuen big.LITTLE Snapdragons, welche sich beide im Test befinden.

Skysnake
2014-07-03, 22:46:55
Man lies die Quelle und nicht hasebaers Kommentar oder hwl. :rolleyes:

Ich les das was verlinkt wird, und zieh mir nicht irgendwas aus den Fingern....


nVidia macht fette deals mit General Electric (http://defense.ge-ip.com/products/gpgpu/c497) etc. Da wirds schon ne Basis geben. Ist ja nun nicht so dass es noch keine ARM-Server/-Clients bei denen gibt.
Automotive wird ein Ableger neben vielen sein. Die gehen einfach derbe in die Industrie. Hauptächlich Design und Entwurf eben. Aber selbst die WM wird durch nVidia "beschleunigt" (siehe RED Rocket-Ersatz). nVidia stellt sich immer breiter auf und gamer werden immer unwichtiger.
Ja, diese "tollen" GE Boards hatten wir ja schon letztes oder vorletztes Jahr mal. Die waren ziemlich ähm.. naja, sagen wir mal nicht sonderlich berauschend.

Das Zeug kannste aber auch überhaupt nicht mit Consumerhardware vergleichen. Das ziehlt alles auf reines Industrial und Military ab. Da kommste mit nem 0815 Consumerdesign nicht wirklich weit. Vor allem stemmste damit auch nur schwerlich die Entwicklungskosten, sofern du nicht nen wirklich richtig großen Deal hast, aber den wird nVidia nicht bekommen, weil Sie eben nur ein kleiner Zulieferer sind. Schöner Batzen Schlagsahne, aber ohne Kuchen auch nicht berauschend.

Dann hat auch Cyclone nichts im iPhone5 zu suchen. Denver sollte um einiges effizienter sein als A15/R3 erstmal weil ich aSMP für den ersten vermute. Wenn selbst NV selber nicht die GPU auf ihrem Ziel Takt im Jetson takten kann ist NUR die CPU dann am Stromverbrauch schuld oder wie soll ich es verstehen?

Wenn ein Smartphone Hersteller den quad A15 auf 1.8-2.0GHz und die GPU in der 450-500MHz Region geht es durchaus. Das eigentliche Problem hier ist LTE und dass das vorige Resultat keine Welten schneller ist als das iPhone5s bzw. S5.

Darum gehts doch gerade gar nicht. Drücke ich mich etwa so missverständlich aus? :freak:

Dass das Ding für Mobile nicht wirklich 100% taugt ist ja inzwischen klar. Das es aber für das andere Ende der Fahnenstange aber scheinbar auch nicht reicht, ist dann doch etwas überraschend. Es wurde doch immer wieder wiederholt, wie stark doch die Denver Cores seien, udn wie Breit Sie wären blablabla. Davon scheint sich nicht wirklich zu bestätigen. Das Design ist anders, aber wohl nicht so herausrangend wie von vielen vermutet. Darum ging es mir. Um mehr nicht.



Server, HPC und co sind ein ganz anderes Kapitel und weder K1 Denver hat etwas damit zu tun noch ist K1 in irgend einer Art relevant zu HPC.
Das kann man so überhaupt nicht sagen. Es wäre ein sehr sinnvoller Zwischenschritt zu standalone GPUs gewesen, und dahin sollte die Reise auf jeden Fall gehen, bzw war die Reise dahingehend vorgezeichnet durch die ganzen DenverCore und ProjectDenver Entwicklungen.

An sich ist das genau das was kommen sollte. Am Besten nur ein PCB, mit nem Interconnect, und das wars dann auch schon. Aber wie schon gesagt, die Geschichte ist wohl tot, und das ist sehr überraschend.

Und um den Zirkelschluss zu Tegra wieder zu bekommen. Ich ging, wie wohl eine auch, davon aus, das man eben K1/Denver eben auch mit Blick auf diesen Anwendungsbereich designt hat, und den hart umkämpften Markt dafür aufgegeben hat. Das scheint nun aber eben doch nicht der Fall gewesen zu sein, was die Entscheidung für das Design von K1/Denver ein stückchen weiter fragwürdig macht.

Man kann alle "Merkwürdigkeiten" durchgehen lassen, so lange es eben einen Grund dafür gibt. Die "Gründe" für genau das Design von K1/Denver fallen aber nach und nach um. Viel bleibt da nicht mehr.

Ailuros
2014-07-03, 23:02:42
Darum gehts doch gerade gar nicht. Drücke ich mich etwa so missverständlich aus? :freak:

Dass das Ding für Mobile nicht wirklich 100% taugt ist ja inzwischen klar. Das es aber für das andere Ende der Fahnenstange aber scheinbar auch nicht reicht, ist dann doch etwas überraschend. Es wurde doch immer wieder wiederholt, wie stark doch die Denver Cores seien, udn wie Breit Sie wären blablabla. Davon scheint sich nicht wirklich zu bestätigen. Das Design ist anders, aber wohl nicht so herausrangend wie von vielen vermutet. Darum ging es mir. Um mehr nicht.

Nur gibt es keine einzige sehenswerte Indizie ueber Denver's wahre Effizienz und das ist eben das zeitige Problem hier. Wo zum Henker soll sich etwas nicht bestaetigen wenn es gleich NULL Daten dazu gibt? Entweder Du weisst was was wir nicht wissen oder Du gehst einfach Deinem Bauchgefuehl nach. Nur ist dieses wertloser momentan als jegliche Papiertiger mit Spezifikationen.


Das kann man so überhaupt nicht sagen. Es wäre ein sehr sinnvoller Zwischenschritt zu standalone GPUs gewesen, und dahin sollte die Reise auf jeden Fall gehen, bzw war die Reise dahingehend vorgezeichnet durch die ganzen DenverCore und ProjectDenver Entwicklungen.

An sich ist das genau das was kommen sollte. Am Besten nur ein PCB, mit nem Interconnect, und das wars dann auch schon. Aber wie schon gesagt, die Geschichte ist wohl tot, und das ist sehr überraschend.

Wenn mehr als einer grosser Hersteller den Versuch aufgiebt koennte das Problem auch woanders liegen. NV hat momentan eben nicht den Luxus ein zu grosses Risiko einzugehen.

Und um den Zirkelschluss zu Tegra wieder zu bekommen. Ich ging, wie wohl eine auch, davon aus, das man eben K1/Denver eben auch mit Blick auf diesen Anwendungsbereich designt hat, und den hart umkämpften Markt dafür aufgegeben hat. Das scheint nun aber eben doch nicht der Fall gewesen zu sein, was die Entscheidung für das Design von K1/Denver ein stückchen weiter fragwürdig macht.

Project Denver war fuer ULP SoCs gedacht und project boulder fuer HPC.

Man kann alle "Merkwürdigkeiten" durchgehen lassen, so lange es eben einen Grund dafür gibt. Die "Gründe" für genau das Design von K1/Denver fallen aber nach und nach um. Viel bleibt da nicht mehr.

Wenn man einem Apple tablet SoC Konkurrenz machen will ist K1 alles andere als fehl am Platz. Wenn Texas Instruments und ST Ericsson es nicht schafften im ULP Markt zu ueberleben dann heisst es eher dass sich der Markt so entwickelt hat dass es verdammt schwer ist und sein wird gegen Apple, Qualcomm, Samsung, Mediatek und co. zu ueberleben. Noch schlimmer frag Dich eher warum auch Samsung ihr eigenes Milliarden schweres HPC SoC Projekt in die Muelltonne kippte.

NV hat seit Jahren falsche Entscheidungen getroffen und den Zug einfach verpasst. Kann K1 und seine Nachfolger noch hinterher rennen und einsteigen IMHO? Ja und ja sie muessen mit wenig anfangen anders geht es gar nicht und jeder dazugewonnene Marktanteil muss sich auch erhalten koennen in Zukunft damit sie diesen auch langfristig steigern koennen.

Skysnake
2014-07-03, 23:42:04
Nur gibt es keine einzige sehenswerte Indizie ueber Denver's wahre Effizienz und das ist eben das zeitige Problem hier. Wo zum Henker soll sich etwas nicht bestaetigen wenn es gleich NULL Daten dazu gibt? Entweder Du weisst was was wir nicht wissen oder Du gehst einfach Deinem Bauchgefuehl nach. Nur ist dieses wertloser momentan als jegliche Papiertiger mit Spezifikationen.

Ja es ist ein "Bauchgefühl" auf Grundlage dessen, was man bisher weiß, und da war die ISC schon ein herber Dämpfer. Ich hatte nVidia da eigentlich durchaus Chancen eingeräumt.



Wenn mehr als einer grosser Hersteller den Versuch aufgiebt koennte das Problem auch woanders liegen. NV hat momentan eben nicht den Luxus ein zu grosses Risiko einzugehen.

Jup, den haben Sie definitiv nicht. Um so mehr schmerzt da jeder weitere Bereich, der Wegfällt, und ja, ich habe nVidia durchaus Chancen ausgerechnet für ARM+CUDA-GPU. Zumindest bessere als Samsung!, so lange halt HSA nicht zündet, wonach es ja bisher nicht aussieht.


Project Denver war fuer ULP SoCs gedacht und project boulder fuer HPC.

Dann schau bitte nochmal die Ankündigung zur Kooperation mit dem Barcelona Supercomputing Center an. Damals war von Project Denver die Rede, und unter diesem Gesichtspunkt/Fingerzeig waren bisher auch alle Integrationen von ARM-Cores in die dGPUs zu sehen. Der SOC vom Schlage eines Tegras war da eigentlich der logische Zwischenschritt/Synnergieeffekt.


Wenn man einem Apple tablet SoC Konkurrenz machen will ist K1 alles andere als fehl am Platz. Wenn Texas Instruments und ST Ericsson es nicht schafften im ULP Markt zu ueberleben dann heisst es eher dass sich der Markt so entwickelt hat dass es verdammt schwer ist und sein wird gegen Apple, Qualcomm, Samsung, Mediatek und co. zu ueberleben. Noch schlimmer frag Dich eher warum auch Samsung ihr eigenes Milliarden schweres HPC SoC Projekt in die Muelltonne kippte.

Ist das inzwischen eigentlich sicher, das Samsung das gecancled hat? Mein Stand ist da noch immer, dass da 64Bit SOCs kommen sollen.

nVidia sehe ich aber eh in einer besseren Position als Samsung im HPC Bereich. Sie haben mit CUDA schon einen Fuß in der Tür bei einigen Projekten, und einen Konter zu KNL brauchen Sie. Überhaupt brauchen Sie etwas, das in die Standalone Ecke zieht, denn aus der Richtung wird es viel Druck geben, und sich da rein auf den Deal mit IBM zu verlassen halte ich für sehr gefährlich...


NV hat seit Jahren falsche Entscheidungen getroffen und den Zug einfach verpasst. Kann K1 und seine Nachfolger noch hinterher rennen und einsteigen IMHO? Ja und ja sie muessen mit wenig anfangen anders geht es gar nicht und jeder dazugewonnene Marktanteil muss sich auch erhalten koennen in Zukunft damit sie diesen auch langfristig steigern koennen.
Ja definitiv, aber wenn ich 90% von ner Idee kille, dann ist fraglich, ob die restlichen 10% überhaupt noch überlebensfähig sind. Du hast es ja oben schon gesagt. nVidia kann sich son Luxus nicht erlauben. Es muss also mal endlich was bei rum kommen, und mit Märkte zusammenstreichen wird das nicht wirklich einfacher.

Ich frag mich halt wirklich, wie Sie die anvisierte Märkte bedienen wollen mit nem Chip wie K1? Für mich ist das an den Märkten vorbeientwickelt, und falls doch nicht, dann wirds aber ganz hart für den Consumer-Tablet/ULP Bereich, weil man einiges an Rotz mitschleppen müsste, was einem dort rein gar nichts bringt. Kurz um, für mich passt das alles nicht so wirklich zusammen.

Vielleicht ist K1/Denver wirklich die eierlegende Wollmilchsau, aber ich habe da so meine Bauschmerzen bei der Vorstellung.

hasebaer
2014-07-03, 23:58:58
Sollen die Entwickler ihre Applikationen etwa ins Blaue hinein auf eine unbekannte Architektur optimieren, die vielleicht kommt, vielleicht aber auch nicht? :rolleyes:

Ja frag doch mal AMD warum sie ihren Opteron A1100 noch nicht bringen, der war im Januar noch für den vergangen März geplant.
http://www.golem.de/news/opteron-a1100-amds-erster-arm-prozessor-erscheint-im-maerz-1401-104225.html
Ist aber dann doch auf Q4 verschoben.
http://www.pcper.com/news/Processors/AMD-Shows-ARM-Based-Opteron-A1100-Server-Processor-And-Reference-Motherboard
Und da sind Stock A57 drin, nix Custom Cores.

Dann schau bitte nochmal die Ankündigung zur Kooperation mit dem Barcelona Supercomputing Center an. Damals war von Project Denver die Rede,

Damals war Tegra 2 und 3 aktuell. Wo stand da was von Denver?

Unicous
2014-07-04, 01:30:52
Bloß weil du nicht lesen kannst, heißt das nicht, dass AMD seine Pläne auf einmal ändert.:rolleyes:

Zitat golem.de

Ab März soll ein Development Kit des A1100 im Micro-ITX-Formfaktor verfügbar sein, später soll auch ein Steckkartenformat für Open-Compute-Server folgen.

Hier noch mal ein wenig ausführlicher von heise.de einen Tag später:

Angekündigt hatte AMD die Server-Version "Seattle" zur Auslieferung ab dem zweiten Halbjahr 2014. Nun sollen Entwicklungsplattformen mit diesem Opteron A1100 bereits "in einigen Wochen" erhältlich sein.
http://www.heise.de/ix/meldung/AMD-zeigt-erste-Opterons-mit-ARM-Technik-2099511.html

Der ARM-Opteron ist und war für das H2'14 angekündigt. Die Dev Kits hat AMD dann Anfang Mai gezeigt, anscheinend zwei Monate später als von AMD im Januar behauptet (wenn golem.de Recht hat, bzw. der AMDler keinen Blödsinn erzählt hat)

y33H@
2014-07-04, 08:38:35
Auf Bild 4/5 bzw der AMD-Slide steht März: http://www.golem.de/news/opteron-a1100-amds-erster-arm-prozessor-erscheint-im-maerz-1401-104225.html

fondness
2014-07-04, 09:30:04
Auf Bild 4/5 bzw der AMD-Slide steht März: http://www.golem.de/news/opteron-a1100-amds-erster-arm-prozessor-erscheint-im-maerz-1401-104225.html

Auf Bild 5 sehe ich gar nichts, auf Bild 4 steht sampling(!) in March.

Ist das inzwischen eigentlich sicher, das Samsung das gecancled hat? Mein Stand ist da noch immer, dass da 64Bit SOCs kommen sollen.

nVidia sehe ich aber eh in einer besseren Position als Samsung im HPC Bereich. Sie haben mit CUDA schon einen Fuß in der Tür bei einigen Projekten, und einen Konter zu KNL brauchen Sie. Überhaupt brauchen Sie etwas, das in die Standalone Ecke zieht, denn aus der Richtung wird es viel Druck geben, und sich da rein auf den Deal mit IBM zu verlassen halte ich für sehr gefährlich...


Ja definitiv, aber wenn ich 90% von ner Idee kille, dann ist fraglich, ob die restlichen 10% überhaupt noch überlebensfähig sind. Du hast es ja oben schon gesagt. nVidia kann sich son Luxus nicht erlauben. Es muss also mal endlich was bei rum kommen, und mit Märkte zusammenstreichen wird das nicht wirklich einfacher.

Ich frag mich halt wirklich, wie Sie die anvisierte Märkte bedienen wollen mit nem Chip wie K1? Für mich ist das an den Märkten vorbeientwickelt, und falls doch nicht, dann wirds aber ganz hart für den Consumer-Tablet/ULP Bereich, weil man einiges an Rotz mitschleppen müsste, was einem dort rein gar nichts bringt. Kurz um, für mich passt das alles nicht so wirklich zusammen.

Vielleicht ist K1/Denver wirklich die eierlegende Wollmilchsau, aber ich habe da so meine Bauschmerzen bei der Vorstellung.

Vielleicht genießen aber auch einfach ARM-Server Chips kein großes Interesse bei den Herstellern oder Kunden? Wenn sowohl NV als auch Samsung ihre Pläne für ARM-Server-Chips auf Eis legen...

Unicous
2014-07-04, 10:40:38
Auf Bild 4/5 bzw der AMD-Slide steht März: http://www.golem.de/news/opteron-a1100-amds-erster-arm-prozessor-erscheint-im-maerz-1401-104225.html

Sampling in March bedeutet genau das, was sie Anfang Mai auf dem Core Update verkündet haben.

Wir können auch gerne noch weiter zurückgehen. Z.B. ein Jahr.

http://images.anandtech.com/doci/7079/SeattleSlide2.png

http://www.anandtech.com/show/7079/amd-evolving-fast-to-survive-in-the-server-market-jungle-/5

Going by the name of "Seattle" and scheduled for launch in the second half of next year,[...]

http://www.engadget.com/2013/06/18/amd-seattle-arm-server-chip/

robbitop
2014-07-04, 10:53:31
Es reicht wenn es ungefaehr auf Apple Cyclone Niveau liegt.
Meinst du mit Cyclone-Niveau die IPC oder das Endresultat? Letzteres: vermutlich schon. Aber eben durch Takt.
Ersteres: wäre schon sehr ambitioniert. :)

hasebaer
2014-07-04, 12:18:14
Vielleicht genießen aber auch einfach ARM-Server Chips kein großes Interesse bei den Herstellern oder Kunden? Wenn sowohl NV als auch Samsung ihre Pläne für ARM-Server-Chips auf Eis legen...

Was auch nicht verwundert, bietet Intel doch mit dem Atom C2750 einen 64Bit 8-Kerner in der 20W Klasse an, der in vielen Fällen die Hälfte des Speeds eines 80W Xeon E3-1230 V3 erreicht.
http://www.servethehome.com/Server-detail/intel-atom-c2750-8-core-avoton-rangeley-benchmarks-fast-power/

Ailuros
2014-07-04, 12:21:16
Koennen wir vielleicht die AMD server Diskussion rein zufaellig weglassen? Danke.

Ailuros
2014-07-04, 12:25:35
Meinst du mit Cyclone-Niveau die IPC oder das Endresultat? Letzteres: vermutlich schon. Aber eben durch Takt.
Ersteres: wäre schon sehr ambitioniert. :)

Es war noch nicht mal der erste GoForce glaub ich in Geraeten als ich von einer wagen CPU Entwicklung bei NVIDIA damals hoerte. Gut es gab zwei radikale re-designs seither, es ist aber auch eine geraume Zeit. Egal wie ambitioniert es Dir klingen mag ich erwarte eigentlich nicht weniger, sonst wuerde ich liebend gerne wissen was zum Teufel sie all die Jahre genau angestellt haben. Waere der indirekte Marketing-druck vom Apple A7 nicht gewesen haetten wir wohl auch im K1 keinen Denver gesehen. Und ja egal wie ich es hasse, Charlie hat fuer das Thema Denver generell viel zu viele "told you so's".

Undertaker
2014-07-04, 15:29:55
Waere der indirekte Marketing-druck vom Apple A7 nicht gewesen haetten wir wohl auch im K1 keinen Denver gesehen.

Meinst du? Dafür sehe ich die Android- und iOS-Lager als viel zu sehr getrennt an, als das man da von Druck sprechen kann (95% der Kunden interessiert der SoC ihres Smartphones doch gar nicht, von den restlichen 5% schauen 4% auf Taktrate und Kernzahl. Nur wegen eines bestimmten SoCs kauft kein Kunde Android statt iOS oder andersherum.). Zudem ist die Vorlaufzeit der Denver-Kerne doch auf Garantie weit länger, als der A7 überhaupt bekannt ist.

Wenn Nvidia auf Denver statt A15/A57 setzt, dann weil sie meinen, damit mehr Leistung oder eine bessere Effizienz zu erzielen. Theoretisch könnte man auch noch an das Thema Lizenzgebühren denken, aber die dürften bei Nvidias Stückzahlen wohl kaum den Ausschlag gegeben haben.

Ailuros
2014-07-04, 16:04:22
Meinst du? Dafür sehe ich die Android- und iOS-Lager als viel zu sehr getrennt an, als das man da von Druck sprechen kann (95% der Kunden interessiert der SoC ihres Smartphones doch gar nicht, von den restlichen 5% schauen 4% auf Taktrate und Kernzahl.

Ich bin ganz Augen fuer eine halbwegs logische These warum sie zwei SoCs fuer's gleiche Jahr entwickelten. Eine einfachere Antwort waere vielleicht dass es Google haben wollte, aber dann musst Du mir auch gleich erklaeren wieso Google in dem Fall irgendwelchen theoretischen Zugzwang fuer 64bit hatte.

Nur wegen eines bestimmten SoCs kauft kein Kunde Android statt iOS oder andersherum.). Zudem ist die Vorlaufzeit der Denver-Kerne doch auf Garantie weit länger, als der A7 überhaupt bekannt ist.

Ja zum ersten und auch ja zum zweiten. Haette Apple den A7 vorangekuendigt (welches Apple sowieso NIE macht) dann waere im Markt auch keiner ueberrascht darueber gewesen.

Sonst mag es wohl sein dass keiner den 64bit "halo effect" einsehen will aber sich trotz allem wird fast jeder Bums-SoC von allen Ecken damit ausgeruestet egal ob es Sinn macht oder nicht.

Wenn Nvidia auf Denver statt A15/A57 setzt, dann weil sie meinen, damit mehr Leistung oder eine bessere Effizienz zu erzielen. Theoretisch könnte man auch noch an das Thema Lizenzgebühren denken, aber die dürften bei Nvidias Stückzahlen wohl kaum den Ausschlag gegeben haben.

Mir ist keine A5x Lizenz fuer NV bewusst; die Bumsfallera Thesen dass Denver angeblich storniert wurde sind SA's Exclusivitaet und sie werden sich natuerlich wieder umdrehen und behaupten dass sie nur servers meinten fuer den "told you so" Bloedsinn.

Sonst hat NV zu viel Moneten im Klo fuer Denver runtergespuelt weil Jensen nicht ein sondern zwei Mal dafuer durch die Wand mit dem Kopf wollte. Dass er fuer den Saustall verantwortlich ist will ja auch keiner einsehen, waehrend gerade rund um Denver nach zwei kompletten re-designs man jetzt auch grosse Projekte stornieren musste.

Afaik war Denver bis vor dem A7 nicht mehr fuer T5 geplant. Es muss niemand glauben noch irgendwelche Schlussfolgerungen daraus ziehen.

Undertaker
2014-07-04, 16:39:07
Ich bin ganz Augen fuer eine halbwegs logische These warum sie zwei SoCs fuer's gleiche Jahr entwickelten.

[...]

Afaik war Denver bis vor dem A7 nicht mehr fuer T5 geplant.

Imo könnte man ja spekulieren, dass Denver genau zwischen T5 und T6 fertig wurde – nach hinten verschieben konnte man T5 nach dem mäßig erfolgreichen Vorgänger nicht, und mit Denver bis T6 warten wäre bei einem potentiell merklich effizienteren Design auch schade. Wenn K1 Denver bis auf die CPU-Kerne absolut identisch zu K1 A15 ist, dürfte der erforderliche zusätzliche Entwicklungsaufwand wohl vertretbar gewesen sein.

Ailuros
2014-07-04, 17:44:56
Imo könnte man ja spekulieren, dass Denver genau zwischen T5 und T6 fertig wurde – nach hinten verschieben konnte man T5 nach dem mäßig erfolgreichen Vorgänger nicht, und mit Denver bis T6 warten wäre bei einem potentiell merklich effizienteren Design auch schade.

Denver war ueber 2 Tegra Generationen zu spaet und war vor A7 nicht vor dem damaligen Parker aka Tegra6 geplant. Und ja da es zwei high end SoCs im gleichen Jahr gibt wurde Denver quasi auf Logan/Tegra5 vor- oder reingezogen je nach Perskeptive.

Wenn K1 Denver bis auf die CPU-Kerne absolut identisch zu K1 A15 ist, dürfte der erforderliche zusätzliche Entwicklungsaufwand wohl vertretbar gewesen sein.

Ja aber fuer was genau der ganze zusaetzliche Entwicklungsaufwand? Brauchen android tablets heute bis zu Erista 64bit CPUs? Automotive oder sonst welcher neuer wachsender Markt? Wie waere es mit Kuehlschraenken, Tankstellen oder sogar smart homes?

Ailuros
2014-07-04, 18:31:37
http://www.geekbuying.com/item/Xiaomi-MiPad-NVIDIA-Tegra-K1-Quad-Core-2-2GHz-7-9-Inch-Retina-Touch-Screen-2048-1536-Tablet-PC-Android-4-4-2GB-16GB---Blue-329622.html

Nicht dass es die 269 Euro nicht voll wert ist, aber es sind wohl auch nicht die ~170 Euro die sich viele ausrechneten.

Skysnake
2014-07-04, 18:58:47
kann es sein, das du einen Beitrag von mir ausgeblendet hast Ailuros? :confused:

Wie dem auch sei. Im Prinzip ist das Thema um ARM-SOCs von nVidia für HPC eh durch, und selbst für AIOs erhoffe ich mir da für die Zukunft nicht wirklich viel.

Ailuros
2014-07-04, 23:56:49
Haettest Du den modtext weiter oben gelesen, würdest Du Dich auch nicht wundern warum Dein voriger Post gelöscht wurde.

Skysnake
2014-07-05, 00:51:59
Nur gut, das ich nichts zu AMD geschrieben hatte, aber seis drum.

Undertaker
2014-07-05, 10:06:13
Ja aber fuer was genau der ganze zusaetzliche Entwicklungsaufwand? Brauchen android tablets heute bis zu Erista 64bit CPUs?

Habe ich doch geschrieben: Wenn NV kurz nach einem A15-K1 noch einen Denver-K1 auflegt, muss letzterer schon deutlich effizienter/schneller sein, um das zu rechtfertigen.

Ailuros
2014-07-05, 13:44:14
Habe ich doch geschrieben: Wenn NV kurz nach einem A15-K1 noch einen Denver-K1 auflegt, muss letzterer schon deutlich effizienter/schneller sein, um das zu rechtfertigen.

Wie auch schon erwähnt wehe wenn ein custom core nicht effizienter ist als standard IP. Wäre es möglich gewesen Denver schon Mitte 2014 anstatt K1/A15 zu veröffentlichen hatten sie es auch gemacht. Die ca. 1.5Mio für die Lizenz sind Erbsen gegen 2 SoCs in einem Jahr.

Sonst wird ausser dem Marketing-Wirbel für 64 bit der Endverbraucher in Echtzeit wenig bis gar nichts bemerken. Ich wäre auch sehr überrascht wenn Volantis eine unerwartet grosse Speichermenge haben wird.

Skysnake
2014-07-05, 13:52:24
Was willste auch aufm Tablet/Smartphone groß laufen haben, was deutlich über 2GB RAM braucht?

Ich seh den Nutzen für Mobile auch nicht. Ok, wenn man in AIO gehen will, ist es ganz nett, aber wirkllich brauchen tut man es wirklich nur für Server, und da ist son ARM schon ganz schick für die ganzen Hoster, die einem Kunden exklusiv ne Kiste anbieten wollen. Aber sonst?

Undertaker
2014-07-05, 14:02:06
Wie auch schon erwähnt wehe wenn ein custom core nicht effizienter ist als standard IP.

Dann gäbe es auch (fast) keinen Grund, die Denver-Variante überhaupt auf den Markt zu bringen. Hätte man gemerkt, dass bei Denver bei Effizienz und Leistung nicht konkurrenzfähig ist, wäre Canceln und Umschwenken auf A57 wohl die logische Konsequenz gewesen.

Was willste auch aufm Tablet/Smartphone groß laufen haben, was deutlich über 2GB RAM braucht?

App-Switchen oder viele Browser-Tabs wären Beispiele, wo >2 GB schon sehr nett sein können. Mit den maximalen 4 GB unter 32 Bit könnte man aber schon noch eine ganze Weile gut auskommen.

Hübie
2014-07-05, 14:19:17
Sehe ich ähnlich. Und selbst für ein Ökosystem rund um Konsolen wäre alles über 2 GB momentan quark (haben beruhigt...). Tablets bräuchten das nicht wirklich.
Wieviel verbrät so ein Gigabyte LPDDR2/3 eigentlich in etwa? Bei GDDR5 sagt man ja 10 Watt bei Belastung. Dann könnten 2-3 Watt realistisch sein oder?

hasebaer
2014-07-05, 15:50:41
Wenn die Vergangeheit eins gelehrt hat dann doch das:
Du kannst nie genug Arbeitsspeicher haben.

Ailuros
2014-07-05, 16:35:27
Wenn die Vergangeheit eins gelehrt hat dann doch das:
Du kannst nie genug Arbeitsspeicher haben.

Und dann denkt der Hersteller daran dass der Geraete-Strassenpreis doch in logischen Regionen gehalten werden muss und tritt auf die Bremse ;)

Was willste auch aufm Tablet/Smartphone groß laufen haben, was deutlich über 2GB RAM braucht?

Alles "smart" was solch ein Geraet kann. Neben all den anderen Punkten hast Du mitbekommen in welch irrsinnigen Aufloesungen die Dinger sich heutzutage bewegen?

Dann gäbe es auch (fast) keinen Grund, die Denver-Variante überhaupt auf den Markt zu bringen. Hätte man gemerkt, dass bei Denver bei Effizienz und Leistung nicht konkurrenzfähig ist, wäre Canceln und Umschwenken auf A57 wohl die logische Konsequenz gewesen.


Es ging mir darum dass Denver nicht moeglich war frueher zu integrieren als H2 2014, sonst haette es nur einen Denver/K1/Logan gegeben.

Skysnake
2014-07-05, 16:55:03
Ich wüsste jetzt nicht, das AngryBirds oder sonst was selbst in 4k >4GB ram brauchen würde.

An nem Touschgerät wird man eher selten so multitasking nutzen wie auf nem Desktop. Klar ist mehr RAM nice to have, aber RAM verbrät IMMER! Strom, egal ob man ihn braucht oder nicht. (Von Modi wo man Kanäle abschalten kann usw sehen wir jetzt mal bitte ab)

Undertaker
2014-07-05, 17:04:03
Es ging mir darum dass Denver nicht moeglich war frueher zu integrieren als H2 2014, sonst haette es nur einen Denver/K1/Logan gegeben.

Ja, ich denke daran gibt es keine Zweifel.


An nem Touschgerät wird man eher selten so multitasking nutzen wie auf nem Desktop. Klar ist mehr RAM nice to have, aber RAM verbrät IMMER! Strom, egal ob man ihn braucht oder nicht. (Von Modi wo man Kanäle abschalten kann usw sehen wir jetzt mal bitte ab)

Die Grenzen von 2 GB RAM merkt man z.B. schon, wenn man >5 Browsertabs, ein größeres PDF und noch ein paar andere Kleinigkeiten auf hat. Will man dann wieder im Browser zu einem anderen Tab switchen, muss der oftmals neu geladen werden. Passiert mir im Produktiveinsatz auf dem Tablet durchaus häufiger. Insofern ist es imo sehr zu begrüßen, wenn der Trend bei 2014/2015er High-End-Geräten zu 3-4 GB geht.

Hübie
2014-07-05, 18:32:38
Na ob das dem RAM geschuldet ist?

Ailuros
2014-07-05, 18:43:18
Ich wüsste jetzt nicht, das AngryBirds oder sonst was selbst in 4k >4GB ram brauchen würde.

Dann spiel mal ausnahmsweise ein anspruchsvolles Spiel wie z.B. Real Racing 3 mit extreme settings und dann reden wir weiter. https://www.google.gr/search?q=real+racing+3+extra+high+graphics+screenshots&tbm=isch&tbo=u&source=univ&sa=X&ei=0yq4U-rtK-q70wX1_oHQBw&ved=0CFkQsAQ&biw=1280&bih=814


An nem Touschgerät wird man eher selten so multitasking nutzen wie auf nem Desktop. Klar ist mehr RAM nice to have, aber RAM verbrät IMMER! Strom, egal ob man ihn braucht oder nicht. (Von Modi wo man Kanäle abschalten kann usw sehen wir jetzt mal bitte ab)

Wenn man ein tablet nur braucht um Rezepte auf der Kloschuessel zu lesen sicher. Wenn ich aber heutzutage ueber 400 Euro fuer ein high end tablet auf den Ladentisch legen soll hab ich ein kleiiiiiiiin bisschen hoehere Ansprueche. Sonst laufen verdammt viele selbst billige China-tablets schon in 2048*1536 egal ob 7 oder 9.7" und ja es haben auch schon viele 4k video decoder. Man kann hier lange ueber die jeweilige Nutzbarkeit plaudern, aber man braucht schon Speicher fuer all den Kram und dieser wird auch konstant zunehmend anspruchsvoller.

Marty98
2014-07-06, 16:28:13
http://www.androidcentral.com/50000-units-xiaomis-mipad-sold-just-under-four-minutes

robbitop
2014-07-07, 10:29:05
Es war noch nicht mal der erste GoForce glaub ich in Geraeten als ich von einer wagen CPU Entwicklung bei NVIDIA damals hoerte. Gut es gab zwei radikale re-designs seither, es ist aber auch eine geraume Zeit. Egal wie ambitioniert es Dir klingen mag ich erwarte eigentlich nicht weniger, sonst wuerde ich liebend gerne wissen was zum Teufel sie all die Jahre genau angestellt haben. Waere der indirekte Marketing-druck vom Apple A7 nicht gewesen haetten wir wohl auch im K1 keinen Denver gesehen. Und ja egal wie ich es hasse, Charlie hat fuer das Thema Denver generell viel zu viele "told you so's".
Wenn das Ding Cyclone IPC hat und dann noch doppelten Takt von Cyclone wäre das schon ziemlich :eek:

Undertaker
2014-07-07, 10:52:15
Ist das nicht etwas unrealistisch? ;) Sollten die Taktraten in einem Tablet wirklich auch nur nahe 2 GHz sein, würde ich eher auf eine IPC etwas unter Cyclone tippen. Wenn die resultierende Singlethread-Leistung im Bereich des A7 oder knapp darüber liegt, wäre das diesbzgl. immer noch der schnellste Android-Chip überhaupt.

fondness
2014-07-07, 12:38:08
Wenn das Ding Cyclone IPC hat und dann noch doppelten Takt von Cyclone wäre das schon ziemlich :eek:

Bei doppelter Leistungsaufnahme wohl nicht mal große Kunst. Cyclone ist vor allem wegen seiner hohen Perf/Watt so gut. Cyclone muss auch in ein Smartphone passen, K1 ist dafür höchstens suboptimal.

Ailuros
2014-07-07, 12:55:15
Bei doppelter Leistungsaufnahme wohl nicht mal große Kunst. Cyclone ist vor allem wegen seiner hohen Perf/Watt so gut. Cyclone muss auch in ein Smartphone passen, K1 ist dafür höchstens suboptimal.

Cyclone taktet bei BIS ZU 1.2GHz im iPhone5S und bis zu 1.4GHz im iPadAir. Bei so laecherlich niedrigen Frequenzen fuer die heutigen Verhaeltnisse ist es auch kein besonderes Wunder mehr dass es auch in ein smartphone passt.

Weder die Leistungsaufnahme von einem Denver core ist bekannt noch was Apple fuer die bald kommende neue A8 SoC Generation angestellt hat.