PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - nVidia Tegra-SoCs


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 [23] 24 25 26

Ailuros
2015-02-09, 10:32:30
Wissen wir schon lange von Erinyes im B3D forum.

deekey777
2015-02-11, 14:50:54
NVIDIA Sends Press Invitations To March 3rd Event, Teasing A Gaming Product '5 Years In The Making' (http://www.androidpolice.com/2015/02/10/nvidia-sends-press-invitations-to-march-3rd-event-teasing-a-gaming-product-5-years-in-the-making/)
Vermutet wird, dass Shield Tablet 2 präsentiert wird.

Terrarist
2015-02-11, 17:06:23
Ich tippe auf ein Android basiertes standalaone VR HMD mit Tegra, welches auch an einen PC angeschlossen werden kann. Nvidia hatte ja vor knapp 2 Jahren mal angedeutet dass sie seit 2010 an einem HMD arbeiten, da würde das mit den 5 Jahren Entwicklungszeit passen.

Sunrise
2015-02-11, 17:48:52
NVIDIA Sends Press Invitations To March 3rd Event, Teasing A Gaming Product '5 Years In The Making' (http://www.androidpolice.com/2015/02/10/nvidia-sends-press-invitations-to-march-3rd-event-teasing-a-gaming-product-5-years-in-the-making/)
Vermutet wird, dass Shield Tablet 2 präsentiert wird.
Wenn das tatsächlich jemand vermutet, dann scheint er aber ein sehr eigenes Verständnis von "5 Years in the Making" und "Redefine the future of gaming" zu haben.

Da kommt das von Terrarist Angesprochene eher hin.

Dural
2015-02-11, 18:59:19
ich finde märz generell sehr früh für den X1

falls nv wirklich so schnell liefer kann wäre man mal im zeitplan ;)

Ailuros
2015-02-13, 17:27:03
http://www.fudzilla.com/news/mobile/37017-tegra-business-declined-15-from-q4-last-year

Botcruscher
2015-02-13, 17:38:34
Infotainment mit der Halbwertzeit eines Leasingvertrages, in der Hand der Hersteller und löchrig wie ein Käse. Schön wie hier die Hersteller ihr Süppchen verbauen wollen und das auch noch Kunden zu NV ziehen soll. Der ganze Autobockmist braucht genau eine Dockingschnittstelle für Sound und Vid. Das ganz dolle Netflix samt LTE kommt vom Smartphone in der Tasche.
PS: Da Samsung ja gerade hoch kocht: Sämtliche Wiedergabegeräte haben so unsmart wie möglich zu sein. Jedes andere Szenario ist ein Spaziergang im Triebtäterknast mit runter gelassener Hose.

hasebaer
2015-02-13, 19:46:52
Der ganze Autobockmist braucht genau eine Dockingschnittstelle für Sound und Vid. Das ganz dolle Netflix samt LTE kommt vom Smartphone in der Tasche.

Ein festverbautes System hat aber den Vorteil der deutlich größeren Empfangsleistung, dazu kommt die bessere Bedienbarkeit.

dildo4u
2015-02-13, 20:39:43
X1 vs Snapdragon 810,A8X.

www.tomshardware.com/reviews/snapdragon-810-benchmarks,4053-5.html

Blediator16
2015-02-13, 20:51:50
Bringt alles nichts ohne Verbrauchsangaben.

dildo4u
2015-02-13, 21:02:16
www.hardwarezone.com.sg/feature-preview-nvidia-tegra-x1-benchmark-results

Dort gibt's ein Verbrauchstest X1 sparsamer als A8X,vermutlich wirste du bei echten Games oft das Szenario haben das X1 nicht voll ausgelastet wird da Android Game's auf 60fps beschränkt sind,daher der geringe Verbrauch.

robbitop
2015-02-13, 22:07:06
Am Ende wird X1 sich gegen A9x messen müssen. Allerdings entwickelt NV ohne Frage extremst gute/effiziente GPU IP. Genormt auf Leistung/W bzw. Leistung/Transistor bei vergleichbarem Feritungsprozess gibt es IMO im Moment nichts besseres. Da müssen alle anderen nochmal ordentlich nachlegen (wobei es gegen die Maxwell µ-Arch verdammt schwer ist).

Sunrise
2015-02-13, 22:19:39
www.hardwarezone.com.sg/feature-preview-nvidia-tegra-x1-benchmark-results

Dort gibt's ein Verbrauchstest X1 sparsamer als A8X,vermutlich wirste du bei echten Games oft das Szenario haben das X1 nicht voll ausgelastet wird da Android Game's auf 60fps beschränkt sind,daher der geringe Verbrauch.
Hatten wir hier im Thread schon besprochen.
(http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10474969#post10474969)
Das sind keine unabhängigen Messungen, also mit Vorsicht zu genießen.

Ailuros
2015-02-14, 10:20:37
Am Ende wird X1 sich gegen A9x messen müssen. Allerdings entwickelt NV ohne Frage extremst gute/effiziente GPU IP. Genormt auf Leistung/W bzw. Leistung/Transistor bei vergleichbarem Feritungsprozess gibt es IMO im Moment nichts besseres. Da müssen alle anderen nochmal ordentlich nachlegen (wobei es gegen die Maxwell µ-Arch verdammt schwer ist).

Was soll verdammt schwer sein? Nur weil keiner so bloed ist einen high end Android tablet SoC zu entwickeln, heisst es noch lange nicht dass es theoretisch unmoeglich waere ein leistungsfaehigere und stromsparendere ULP GPU zu integrieren.


X1 GPU@1GHz = 512 GFLOPs
K1 GPU@0.95GHz = 365 GFLOPs
-----------------------------------------
+40%

....wobei aber ueberall der Prozess und moegliche hoehere Frequenzen dadurch mitberechnet wird.

www.hardwarezone.com.sg/feature-preview-nvidia-tegra-x1-benchmark-results

Dort gibt's ein Verbrauchstest X1 sparsamer als A8X,vermutlich wirste du bei echten Games oft das Szenario haben das X1 nicht voll ausgelastet wird da Android Game's auf 60fps beschränkt sind,daher der geringe Verbrauch.

Und wie sieht es bei einem echten finalen bei voller Frequenz aus? Die alberne show haben sie auch vor dem K1 launch gegen den Apple A7 abgezogen und was haben wir heute? Ein Shield tablet dass um 20% throttelt nach einer Stunde und fast halb so lange auf Batterie aushaelt unter 3D.

fondness
2015-02-14, 12:03:42
Was soll verdammt schwer sein? Nur weil keiner so bloed ist einen high end Android tablet SoC zu entwickeln, heisst es noch lange nicht dass es theoretisch unmoeglich waere ein leistungsfaehigere und stromsparendere ULP GPU zu integrieren.


X1 GPU@1GHz = 512 GFLOPs
K1 GPU@0.95GHz = 365 GFLOPs
-----------------------------------------
+40%

....wobei aber ueberall der Prozess und moegliche hoehere Frequenzen dadurch mitberechnet wird.


Bingo. Nvidia kann zwar mit langem Balken protzen, der Chip ist aber zum wiederholten male völlig am Markt vorbei entwickelt. Nvidia begreift immer noch nicht, dass der soc kein verkaufskriterium beim einem tablet ist.

Ailuros
2015-02-14, 12:15:28
Die X1 GPU ereicht mit 512 GFLOPs doppelt so viel Leistung wie die A8X GPU mit 256+ GFLOPs. Hier helfen zwar die FP16 FLOPs zwar etwas mit aber nicht mit genauso geringerem Verbrauch als dedizierten ALUs, alle andere Verbrauchs-Nachteile mal vorbehalten ausser man glaubt dass extravagante GPU Frequenzen fuer ULP mobile ideal sind. 1 GHz ist desktop Material; Punkt.

-------------------------------------------------------------------------------------------------------------------

http://www.anandtech.com/show/8973/nvidia-releases-q4-fy-2015-and-full-year-results-record-revenue-for-quarter-and-full-year

Tegra
Q/Q -33%
Y/Y -15%

hasebaer
2015-02-14, 13:57:43
der Chip ist aber zum wiederholten male völlig am Markt vorbei entwickelt. Nvidia begreift immer noch nicht, dass der soc kein verkaufskriterium beim einem tablet ist.

Nvidia entwickelt nicht mehr für Tablets.

Ailuros
2015-02-14, 14:04:26
Nvidia entwickelt nicht mehr für Tablets.

Stimmt aber auch nur fuer nach Parker/16 FinFET.

hasebaer
2015-02-14, 17:59:22
Tabletverkäufe sinken (http://www.computerbase.de/2015-02/tablet-verkaeufe-brechen-massiv-ein/) und sich mit QCOM, Intel, Mediatek und irgendwie auch Apple auf Dauer um Marktanteile zuprügeln in einem kleiner werdenen Markt aus der schwächsten Position heraus, ist für Nvidia sinnlos.

Ich glaub nicht, dass sich an der Ausrichtung auf Automotiv in den nächsten drei Jahren irgendwas ändert.
Klar nimmt man jeden Design-Win für Handys, Tablet, Cromebooks ect. gern mit.
So ein Tegra X1 ist ja auch mit weniger Takt immernoch High End, aber aus eigener Kraft kann Nvidia nicht gegen QCOM, Intel & Mediatek anstinken.

Ailuros
2015-02-14, 18:07:11
Tabletverkäufe sinken (http://www.computerbase.de/2015-02/tablet-verkaeufe-brechen-massiv-ein/) und sich mit QCOM, Intel, Mediatek und irgendwie auch Apple auf Dauer um Marktanteile zuprügeln in einem kleiner werdenen Markt aus der schwächsten Position heraus, ist für Nvidia sinnlos.

Ich glaub nicht, dass sich an der Ausrichtung auf Automotiv in den nächsten drei Jahren irgendwas ändert.
Klar nimmt man jeden Design-Win für Handys, Tablet, Cromebooks ect. gern mit.
So ein Tegra X1 ist ja auch mit weniger Takt immernoch High End, aber aus eigener Kraft kann Nvidia nicht gegen QCOM, Intel & Mediatek anstinken.

So viel ist schon seit einiger Zeit klar; es gibt nur noch einen unveroeffentlichen SoC auf jeglicher oeffentlichen NV Tegra roadmap unter den Namen Parker. Dieses ist ein X1 mit Denver cores auf 16FF. Wann immer NV ihre roadmap nach Parker veroeffentlichen wird (wenn ueberhaupt denn es ist auch keine Notwendigkeit fuers Publikum) wird schon klarer werden was damit gemeint war.

robbitop
2015-02-14, 23:12:18
Ich meine ja nicht dengesamten SoC sondern die reine GPU IP. Genormt auf den gleichen Fertigungsprozess hat Maxwell deutlich mehr Puch pro Transistor und auch pro Watt.

Ailuros
2015-02-15, 08:59:48
Ich meine ja nicht dengesamten SoC sondern die reine GPU IP. Genormt auf den gleichen Fertigungsprozess hat Maxwell deutlich mehr Puch pro Transistor und auch pro Watt.

Es gibt noch keine 7XT IP da Apple und NV auf anderen zeitlichen Schienen entwickeln; wie schon erwaehnt X1 hat keine Denver cores weil <20nm noch nicht verfuegbar waren. Nebenbei und OT zum zeitigen Thema: original folgte nach Logan 28HPm Parker unter 16FF; die roadmap aenderte sich und es kam Erista unter 20SoC TSMC rein und Parker wurde wohl einfach auf 14nm Samsung (von 16FF TSMC) geaendert. Hier sieht man mal schoen wie viel sich TSMC mit 16FF eigentlich verspaetet hat.

Nebenbei ist das obrige sowieso absoluter Stuss da KEINEM die Transistoren-anzahl beim X1 bis jetzt bekannt ist. Verbrauch der GPU im X1 wenn man NV's technischem marketing glauben schenken will duerfte bei 1GHz wieder bei +8W nur fuer die GPU maximal liegen. Nach dem 970/Speichergate ist aber trotz allem zusaetzliche Vorsicht ueberall geboten :freak:

Juli 2013: http://www.anandtech.com/show/7169/nvidia-demonstrates-logan-soc-mobile-kepler

http://images.anandtech.com/doci/7169/IMAG1589.jpg

Tegra X1 GPU

http://www.anandtech.com/show/8811/nvidia-tegra-x1-preview/3
http://images.anandtech.com/doci/8811/NVPower2_575px.jpg

Wow schau her GK20A verbraucht hier im normalisierten test sogar fast halb so viel wie X1 im neuesten, wobei die Apple GPU komischerweise genau die gleichen 2.7W verbraucht wie A6X bei TRex im vorigen Vergleich!

Wobei Manhattan mehr Strom verbraucht als TRex, aber nicht zwei Mal so viel:

http://www.anandtech.com/show/8718/the-samsung-galaxy-note-4-exynos-review/7
http://images.anandtech.com/doci/8718/gpu-full-power_575px.png


Wie sich die Geschichte entwickelt hat weiss wohl jeder. NV's marketing kann zwar gerne einmal Leistung in einem VAKUUM messen und einmal Verbrauch in einem anderen VAKUUM messen und ihre Schlussfolgerungen ziehen. Es kommt eben eher darauf an wie naiv man genau ist die Schlussfolgerung so einfach zu glauben.

Undertaker
2015-02-15, 10:38:58
Ich meine ja nicht dengesamten SoC sondern die reine GPU IP. Genormt auf den gleichen Fertigungsprozess hat Maxwell deutlich mehr Puch pro Transistor und auch pro Watt.

Wäre auch merkwürdig wenn sich nicht irgendwann einmal wiederspiegelt, seit wievielen Jahren Nvidia im Grafik-Business aktiv ist (und eben auch fast nur dort, d.h. mit dem Großteil des gesamten R&D-Budgets). Sicher gab es in den ersten Jahren einen gewaltigen Lernbedarf bzgl. der Anpassungen auf eine ganz neue Verbrauchsklasse im einstelligen Bereich, dazu waren die GPUs vor Tegra K1 technologisch nicht auf dem aktuellen Stand.

Wenn man heute zeitgleich mit Apple einen SoC mit identischem (GPU-)Transistorbudget und Fertigungsprozess herausbringen könnte, stünde die IMG-Lösung vermutlich nicht sonderlich gut da. Aber solange Apple weder auf die Kosten für neueste Prozesse noch die Die-Size schauen muss... ;)

fondness
2015-02-15, 14:05:57
Ich meine ja nicht dengesamten SoC sondern die reine GPU IP. Genormt auf den gleichen Fertigungsprozess hat Maxwell deutlich mehr Puch pro Transistor und auch pro Watt.

Da wäre ich mir nicht so sicher. Und schon gar nicht würde ich von einem 2048 sp Desktop Chip auf einen Chip mit ungefähr einem Zehntel der Größe schließen. Skalierbarkeit kostet immer, alleine schon deshalb sind die reinen mobile Architekturen im Vorteil.

Ailuros
2015-02-15, 17:32:15
Wäre auch merkwürdig wenn sich nicht irgendwann einmal wiederspiegelt, seit wievielen Jahren Nvidia im Grafik-Business aktiv ist (und eben auch fast nur dort, d.h. mit dem Großteil des gesamten R&D-Budgets). Sicher gab es in den ersten Jahren einen gewaltigen Lernbedarf bzgl. der Anpassungen auf eine ganz neue Verbrauchsklasse im einstelligen Bereich, dazu waren die GPUs vor Tegra K1 technologisch nicht auf dem aktuellen Stand.

Und jetzt wo sie noch weiter sind als der notwendige aktuelle Stand nimmt das Geschaeft sogar ab :freak:

Wenn man heute zeitgleich mit Apple einen SoC mit identischem (GPU-)Transistorbudget und Fertigungsprozess herausbringen könnte, stünde die IMG-Lösung vermutlich nicht sonderlich gut da.

Dann lass Dir doch mal Zahlen diesbezueglich von NV geben wenn sie schon einen so "grossen" Vorteil haben. Bei anderen Gelegenheiten sind sie ja auch nicht besonders still. Ganz im Gegenteil das beste was sie zustande bringen konnten ist der alberne K1 gegen Tesla K40 Vergleich.

Unter dem Strich hat am Ende NV nichts von ihrem kunterbunten ramtamtam den keiner kauft ihn auch am Ende, was wohl heisst dass weder Hersteller noch Endkunden so doof sind wie NV's technisches marketing glaubt dass sie es sind.

Aber solange Apple weder auf die Kosten für neueste Prozesse noch die Die-Size schauen muss... ;)

Ja den Luxus hat Apple und sie scheuten auch nie davon zurueck zich mehr Transistoren zu verschwenden um mehr Strom zu sparen. Apple hatte keine besondere Erfahrung von engineering noch irgendwelcher hw Entwicklung; wenn ich mir den Cyclone so ansehe und es gegen Denver vergleiche (und ueberhaupt im angesicht wie lange NV schon an den Ding herumdreht) wuerde ich mich an Stelle der Gruenen eigentlich schaemen. So viel fuer die uebertolle engineering Erfahrung die sonst alles platt macht :freak:

deekey777
2015-02-17, 18:56:52
Weiß einer, warum Sony seinen Bildverschlimmbersserungsprozessor "X1" genannt hat? http://www.areadvd.de/tests/special-die-key-features-des-tv-line-ups-2015-von-sony-im-detail/

y33H@
2015-02-17, 19:03:18
Klingt wie ein Werbetext.

Sunrise
2015-02-17, 19:14:05
Weiß einer, warum Sony seinen Bildverschlimmbersserungsprozessor "X1" genannt hat? http://www.areadvd.de/tests/special-die-key-features-des-tv-line-ups-2015-von-sony-im-detail/
Die X-Bezeichnungen scheinen eben immernoch in Mode zu sein.

Klingt wie ein Werbetext.
Ist leider bei AreaDVD völlig normal.

Ailuros
2015-02-18, 07:45:56
Ein einfacher Google-search fuer X1 zeigt wie oft es benutzt wird.

Sonst hab ich den link schon woanders gepostet, aber als Antwort zur ewigen Onanierung ueber Herstellungsprozesse:

http://semiengineering.com/with-responsibility-comes-power/

“There is a certain amount you can do at the transistor level, a certain at layout, some at the design of the cells, you could use techniques such as synthesis that optimize and do automatic clock gating etc, but 80% of the power savings comes from the architecture,” says Drew Wingard, chief technology officer at Sonics.

Auf dem desktop hat Maxwell@28nm gegen Kepler@28nm dieses schon mehrmals bewiesen. Ein Maxwell auf 20SoC oder sogar 16FF waere zweifellos ein Stueck weiter aber die eigentliche Effizienz kommt von der Architektur selber.

Dimitri Mayakovsky
2015-02-18, 08:31:06
Sonst hab ich den link schon woanders gepostet, aber als Antwort zur ewigen Onanierung ueber Herstellungsprozesse:

http://semiengineering.com/with-responsibility-comes-power/
Wobei er sich ja nur über Optimierungen innerhalb des Herstellungsprozesses auslässt. Wenn ein neuer Fertigungsprozess in Reichweite ist, dann ist das sicherlich die "einfache" Möglichkeit, um die passen Perf/W zu bekommen. Nur bleiben die in letzter Zeit eben aus.

Hübie
2015-02-18, 08:33:43
Weiß einer, warum Sony seinen Bildverschlimmbersserungsprozessor "X1" genannt hat? http://www.areadvd.de/tests/special-die-key-features-des-tv-line-ups-2015-von-sony-im-detail/

Da steht soviel aber ausgesagt wird nich viel :| Ich frage mich gerade ob die nächste Iteration nicht schon Pascal beinhaltet und man Maxwell überspringt. Meine da was gelesen zu haben...

Ailuros
2015-02-18, 08:45:19
Wobei er sich ja nur über Optimierungen innerhalb des Herstellungsprozesses auslässt. Wenn ein neuer Fertigungsprozess in Reichweite ist, dann ist das sicherlich die "einfache" Möglichkeit, um die passen Perf/W zu bekommen. Nur bleiben die in letzter Zeit eben aus.

Er zaehlt die wichtigsten Prozess-bedingten Optimierungen auf um nach dem "aber" auf den Punkt zu kommen. Wenn die Architektur nicht sehenswert effizienter ist, wird Dir ein neuer Prozess auch nicht den Tag retten koennen.

Da steht soviel aber ausgesagt wird nich viel :| Ich frage mich gerade ob die nächste Iteration nicht schon Pascal beinhaltet und man Maxwell überspringt. Meine da was gelesen zu haben...

Parker ist afaik 14nm Samsung Denver + Maxwell. Pascal aendert sowieso nichts sehenswertes in den ALUs im Vergleich zu Maxwell; IO koennte breiter werden auf SoCs aber wohl noch nicht so breit wie im desktop.

robbitop
2015-02-18, 08:57:48
Wenn man heute zeitgleich mit Apple einen SoC mit identischem (GPU-)Transistorbudget und Fertigungsprozess herausbringen könnte, stünde die IMG-Lösung vermutlich nicht sonderlich gut da. Aber solange Apple weder auf die Kosten für neueste Prozesse noch die Die-Size schauen muss... ;)
Genau das meine ich. :)

Da wäre ich mir nicht so sicher. Und schon gar nicht würde ich von einem 2048 sp Desktop Chip auf einen Chip mit ungefähr einem Zehntel der Größe schließen. Skalierbarkeit kostet immer, alleine schon deshalb sind die reinen mobile Architekturen im Vorteil.
Ich bitte dich. Schau dir an, welche Geschütze Apple auffahren muss um allein den kleinen K1 zu schlagen. Und das auch IMO nur knapp.

-A8X hat einen kleineren Fertigungsprozess
-A8X hat einen riesigen L3 Cache, den die GPU nutzen kann (und es ihr auch deutlich hilft - siehe Ergebnisse aus dem A7 vs A6X)
-A8X hat wesentlich mehr Bandbreite
-die A8X GPU hat wesentlich mehr Transistoren

Bei hypothetisch gleichen Verhältnissen (Transistoranzahl gleich, Fertigungsprozess gleich) hätte Serie 6XT es mehr als schwer gegen mobile Kepler. (Undertaker hat es verstanden)

Von Maxwell wissen wir, dass dieser pro Transistor und pro Watt besser ist als Kepler. Das gleiche gilt sicher auch für Serie 7XT, gegen die er antreten wird. Ich mutmaße (ja - spekulation), dass Apple wieder von allem mehr reinbuttern muss, um X1 mit dem A9X zu schlagen. 14 nm vs 20 nm, mehr Transistoren, mehr Bandbreite. Da kann man sich schon fast sicher sein.

Der Schluss den ich daraus ziehe: NVs GPU IP (also mal völlig losgelöst vom restlichen Tegra SoC und dem Business drum herum) ist genormt auf gleiche Verhältnisse einfach sehr sehr gut im Mobile Bereich. Vermutlich die effizienteste GPU IP.

Was den gesamten SoC , das Gesamtergebnis und vor allem die CPU Cores angeht: da kann man Apple nichts vormachen. Cyclone ist einfach derzeit ein unschlagbares CPU IP.

deekey777
2015-02-18, 09:20:38
Ein einfacher Google-search fuer X1 zeigt wie oft es benutzt wird.

.
Glaubst du wirklich, ich würde diese Frage ohne Hintergedanken stellen?

Es gab Fernseher, die mittels eines Moduls mit einem Tegra-Chip (K1 glaube ich) erweitert werden konnten. Entweder ist es ein Zufall oder - Träummodus - es ist ein Tegra X1. Ja, es spricht alles für die erste Variante.

fondness
2015-02-18, 10:19:39
Ich bitte dich. Schau dir an, welche Geschütze Apple auffahren muss um allein den kleinen K1 zu schlagen.

Leistung ist in diesem Markt als losgelöste Größe auch völlig nichtssagend. Das Tegra-zeug schluckt 8W+, ohne Drosselung wohl locker zweistellig. Klar spart man Transistoren wenn man die GPU bei fast einem Ghz taktet, aber effizient ist das nicht mehr.

robbitop
2015-02-18, 10:28:22
Wo hast du die 8W für K1 her?

Ailuros
2015-02-18, 10:37:58
Wo hast du die 8W für K1 her?

http://semiaccurate.com/assets/uploads/2014/03/2014_GTC_Tegra_roadmap_from_Patrick_Moorehead.jpeg

Glaubst du wirklich, ich würde diese Frage ohne Hintergedanken stellen?

Es gab Fernseher, die mittels eines Moduls mit einem Tegra-Chip (K1 glaube ich) erweitert werden konnten. Entweder ist es ein Zufall oder - Träummodus - es ist ein Tegra X1. Ja, es spricht alles für die erste Variante.

Es wuerde um einiges mehr im link drinstehen als nur Referenzen zu einem multimedia Dingsbums.


Ich bitte dich. Schau dir an, welche Geschütze Apple auffahren muss um allein den kleinen K1 zu schlagen. Und das auch IMO nur knapp.

Die A8X GPU ist im Durchschnitt um 20% schneller und unter GPU bound Faellen haelt die GPU auch laenger aus. Dieses ist eine Kombination von einer um 40% niedrigere Frequenz beim ersten und jeglichen maessigen Vorteil von 20SoC.

-A8X hat einen kleineren Fertigungsprozess

Mit ziemlich fraglichen Verbrauchs-Vorteilen gegenueber 28nm. Wo sind denn all die anderen 20SoC chips wenn dieser wirklich einen solchen Vorteil bringt?

-A8X hat einen riesigen L3 Cache, den die GPU nutzen kann (und es ihr auch deutlich hilft - siehe Ergebnisse aus dem A7 vs A6X)

Es ist kein dedizierter cache nur fuer die GPU; die GPU kann nur dass benutzen dass zu jeglichem Zeitpunkt frei ist. Sonst wo ist der floorplan vom K1?

-A8X hat wesentlich mehr Bandbreite

SoC Bandbreite ja.

-die A8X GPU hat wesentlich mehr Transistoren

Und wo kann ich die GK20A Tranistoren-Anzahl nachschlagen?

Bei hypothetisch gleichen Verhältnissen (Transistoranzahl gleich, Fertigungsprozess gleich) hätte Serie 6XT es mehr als schwer gegen mobile Kepler. (Undertaker hat es verstanden)

Man kann Hypothesen so hinbiegen bis es auch richtig sitzt. Es gibt keine Transistoren-anzahl fuer die Tegra SoCs ergo waere es mal angebrachter wenn wir etwas mehr Theorien und weniger Thesen bzw. Hypothesen lesen wuerden.

Von Maxwell wissen wir, dass dieser pro Transistor und pro Watt besser ist als Kepler. Das gleiche gilt sicher auch für Serie 7XT, gegen die er antreten wird. Ich mutmaße (ja - spekulation), dass Apple wieder von allem mehr reinbuttern muss, um X1 mit dem A9X zu schlagen. 14 nm vs 20 nm, mehr Transistoren, mehr Bandbreite. Da kann man sich schon fast sicher sein.

Wenn sie wieder eine GPU spiegeln wie im A8X dann spricht es offensichtlich nicht fuer jegliche Vergleiche. Erstens wird wohl Apple schwer eine DX11.2 GPU brauchen ergo werden sie sich wohl wieder auf DX10.0 fuer die GPU begrenzen und zweitens hat Rogue immer noch dedizierte FP16 ALUs die eben weniger verbrauchen als diese unter Bedingungen durch die FP32 zu quetschen. Wenn man bedenkt wie viel FP16 ops wirklich im ULP benutzt werden, liegt ein Teil des Vorteiles schon in diesem.

Der Schluss den ich daraus ziehe: NVs GPU IP (also mal völlig losgelöst vom restlichen Tegra SoC und dem Business drum herum) ist genormt auf gleiche Verhältnisse einfach sehr sehr gut im Mobile Bereich. Vermutlich die effizienteste GPU IP.

Der design ist eben NICHT von Grund auf ULP mobile entwickelt worden und in dem Punkt hat fondness leider recht ob Du es jetzt verstehen willst oder nicht.

Was den gesamten SoC , das Gesamtergebnis und vor allem die CPU Cores angeht: da kann man Apple nichts vormachen. Cyclone ist einfach derzeit ein unschlagbares CPU IP.

Nur traegt zum Gesamtergebnis die GPU einen Haufen bei; Apple ist so heikel und anspruchsvoll dass wenn sie wirklich woanders einen sehenswerten Vorteil sehen wuerden keine Skrupel haben wuerden darauf umzusteigen. Etwas dass vergleichsmaessig zu viel Strom verbraucht kommt bei Apple einfach nicht zur Tuer rein.

fondness
2015-02-18, 10:40:24
Peak sind wohl 11W (ka ob gedrosselt oder ungedrosselt): GPU + CPU: <11W (working hard)

http://s13.postimg.org/72d0wi1fr/Bl8_GCCc_AABW8r_jpg_large.jpg (http://postimage.org/)

Dural
2015-02-18, 10:40:25
K1 und X1 dürften wohl so ziemlich zu den effizientesten SoC zählen die es 2015 gibt. In Anbetracht dessen das wir hier sogar 28nm vs 20nm vergleichen schlagen sich die Tegras ziemlich gut.

Das Märchen das die Tegra zu viel Verbrauchen wird man wohl noch in 10 Jahren hören. Einzig T4 wahr grenzwertig, das war zu diesem Zeit Punkt aber jeder A15 Quad Core SoC. Zudem haben einige Hersteller es versäumt eine vernünftige Kühlung in ihre Produkte einzubauen.

Dimitri Mayakovsky
2015-02-18, 10:42:41
Wenn die Architektur nicht sehenswert effizienter ist, wird Dir ein neuer Prozess auch nicht den Tag retten koennen.
Nicht den Tag, aber den Chip und das Produkt :)

Machen wir uns doch nichts vor, dass die GPU-Vendors jetzt Richtung Energie-effizenz gehen, liegt doch nur im mangelden Fortschritt bei Fertigungsprozessen begründet.

Ailuros
2015-02-18, 11:07:34
Nicht den Tag, aber den Chip und das Produkt :)

Eine beschissene Architektur wird durch einen guten Prozess nur etwas weniger beschissener.

Machen wir uns doch nichts vor, dass die GPU-Vendors jetzt Richtung Energie-effizenz gehen, liegt doch nur im mangelden Fortschritt bei Fertigungsprozessen begründet.

Du bist im Tegra thread der fuer den ULP mobile Markt gedacht ist. Wenn Stromverbrauch hier nicht der wichtigste Punkt ist dann hab ich mal wieder parallel in einem diagonalem Universum geparkt.

Peak sind wohl 11W (ka ob gedrosselt oder ungedrosselt): GPU + CPU: <11W (working hard)



Gedrosselt natuerlich. NV's eigene Dokumente geben einen maximalen elektrischen Wert von 33W an, welcher aber nur dekorativ ist. Mehr als die 11W wird der SoC schwer in Echtzeit verbrauchen und selbst das ziemlich selten.

K1 und X1 dürften wohl so ziemlich zu den effizientesten SoC zählen die es 2015 gibt. In Anbetracht dessen das wir hier sogar 28nm vs 20nm vergleichen schlagen sich die Tegras ziemlich gut.

Das Märchen das die Tegra zu viel Verbrauchen wird man wohl noch in 10 Jahren hören. Einzig T4 wahr grenzwertig, das war zu diesem Zeit Punkt aber jeder A15 Quad Core SoC. Zudem haben einige Hersteller es versäumt eine vernünftige Kühlung in ihre Produkte einzubauen.

Aktive Kuehlung in einem ultra thin tablet? :freak: 2 Chromebooks (keine tablets), 1 Nexus9 und 1 MiPad. Die anderen Hersteller haben das "Maerchen" wohl leider geglaubt oder? :rolleyes:

Dural
2015-02-18, 11:16:00
Was braucht ein A8X den so? der dürfte auch um die 10Watt haben oder?

Gibt es Messungen vom A8X?

Ailuros
2015-02-18, 11:22:13
Was braucht ein A8X den so? der dürfte auch um die 10Watt haben oder?

Gibt es Messungen vom A8X?

Nur fuer die GPU und von NV selber. Dabei verbraucht die A8X GPU genauso viel Strom wie die A7 GPU nur mit 2.5x Mal so viel hoeherer Leistung. Unter 3D haelt ein Air2 knapp unter 4 Stunden an, waehrend ein K1 tablet eher ueber 2 Stunden ankommt mit etwas throttling.

Undertaker
2015-02-18, 11:23:08
Was braucht ein A8X den so? der dürfte auch um die 10Watt haben oder?

Gibt es Messungen vom A8X?

Wenn wir über mögliche Maximalverbräuche ohne vorherige Abregelung reden: Zweistellig wird's definitiv sein, man denke mal an den A7 zurück, wo Anandtech allein durch CPU-Last ~8W erzeugen konnte. Und die GPU kann man sicherlich noch auf mehr bringen...

Fragt sich aber, was man mit solchen theoretischen Angaben anfangen kann. Je optimaler man einen entsprechendes Tool auf die konkrete Architektur optimieren kann, desto schlimmere Zahlen wird man sehen. Da würde ich lieber gleich auf einheitliche Benchmarks gehen und dort die Performance bei gleichem Formfaktor bzw. vergleichbarer Leistungsaufnahme gegenüberstellen.

Genau das meine ich. :)


Ich bitte dich. Schau dir an, welche Geschütze Apple auffahren muss um allein den kleinen K1 zu schlagen. Und das auch IMO nur knapp.

-A8X hat einen kleineren Fertigungsprozess
-A8X hat einen riesigen L3 Cache, den die GPU nutzen kann (und es ihr auch deutlich hilft - siehe Ergebnisse aus dem A7 vs A6X)
-A8X hat wesentlich mehr Bandbreite
-die A8X GPU hat wesentlich mehr Transistoren

Bei hypothetisch gleichen Verhältnissen (Transistoranzahl gleich, Fertigungsprozess gleich) hätte Serie 6XT es mehr als schwer gegen mobile Kepler.

Word.

Was den gesamten SoC , das Gesamtergebnis und vor allem die CPU Cores angeht: da kann man Apple nichts vormachen. Cyclone ist einfach derzeit ein unschlagbares CPU IP.

Das würde ich ebenfalls unterschreiben. Zudem hat Apple die Ressourcen für eine wahnsinnig schnelle Execution, wenn man z.B. die frühe 20nm-Adaption betrachtet.

Ailuros
2015-02-18, 11:52:11
Mal eine DVFS Uebung, wie man etwas throttling besser verstecken kann:

http://www.anandtech.com/show/8701/the-google-nexus-9-review/7

http://images.anandtech.com/graphs/graph8701/70064.png

http://www.anandtech.com/show/8701/the-google-nexus-9-review/9

http://images.anandtech.com/graphs/graph8701/70076.png

Bei einer Basis-leistung von 57.10 fps auf dem Shield throttelt die GPU nach ca. 1 Stunde um ~20% runter auf 46.13 fps.

Man reduziert eben etwas die Frequenz auf Nexus 9 und kommt im onscreen T-Rex mit 13% weniger Leistung an (49.60) und throttelt dann nicht nur auf 44.43 fps (-10%) sondern gaukelt auf dem Nexus 9 auch eine laengere Batterie-Laufzeit vor.

Sonst halten wir mal lieber wieder die Luft an bis wir die ersten unabhaengigen Messungen von einen echtem finalem Geraet wie ein tablet mit X1 SoC haben, am liebsten unter Gfxbench3.1 dass in etwa zeitgleich erscheinen wird und ich will auch ernsthaft hoffen dass das naechste Shield besser aussehen wird als das hier: http://youtu.be/beNQIFkUdrI

Dimitri Mayakovsky
2015-02-18, 12:10:46
Eine beschissene Architektur wird durch einen guten Prozess nur etwas weniger beschissener.
Zumindest die Leistungsaufnahme knallt nicht durch die Ecke.

Gedrosselt natuerlich. NV's eigene Dokumente geben einen maximalen elektrischen Wert von 33W an, welcher aber nur dekorativ ist. Mehr als die 11W wird der SoC schwer in Echtzeit verbrauchen und selbst das ziemlich selten.
33W ist wohl Peak, wenn der Chip gerade vom Leerlauf hochschaltet, um Fix seine Aufgaben zu erledigen. Ob man auf die 11W in einer normalen Anwendung jemals kommen mag? Wage ich zu bezweifeln :)

Angesichts der Anandtech-Benchmarks aus deinem letzten Post sollte man aber noch erwähnen, dass das iPad Air mit 10" natürlich deutlich größer und damit auch mehr Platz/Oberfläche für die Kühlung hat.

Ailuros
2015-02-18, 12:21:01
Zumindest die Leistungsaufnahme knallt nicht durch die Ecke.

Wenn man dafuer einen kleineren Prozess braucht dann handelt es sich um schlampiges engineering.

33W ist wohl Peak, wenn der Chip gerade vom Leerlauf hochschaltet, um Fix seine Aufgaben zu erledigen. Ob man auf die 11W in einer normalen Anwendung jemals kommen mag? Wage ich zu bezweifeln :)

Ich hab betont dass 33W nur ein theoretisches (und bedeutungsloses) peak ist. Sonst unter herkommlichem 3D kommst Du nicht auf 11W aber fuer extravagantes DX11 Zeug dann schon.

Angesichts der Anandtech-Benchmarks aus deinem letzten Post sollte man aber noch erwähnen, dass das iPad Air mit 10" natürlich deutlich größer und damit auch mehr Platz/Oberfläche für die Kühlung hat.

Selbst der Shield Wert ist um ein Stueck gedrosselt. DVFS pro Applikation ist ein Kinderspiel und es lauft auf keinem Geraet eine GPU mit freier Wahl an Frequenzen.

Erzaehl das mal den Herrschaften weiter oben die ans achte Wunder glauben auf einer test Platform des X1 die in der freien Luft mit einem ziemlich netten heatsink auf dem SoC laeuft:

http://www.anandtech.com/show/8811/nvidia-tegra-x1-preview/3

http://images.anandtech.com/doci/8811/X1PowerTap_575px.jpg

Nach NV's eigenen Daten verbratet die X1 GPU fast genau so viele Watts wie GK20A.

Dimitri Mayakovsky
2015-02-18, 12:39:15
Erzaehl das mal den Herrschaften weiter oben die ans achte Wunder glauben auf einer test Platform des X1 die in der freien Luft mit einem ziemlich netten heatsink auf dem SoC laeuft:
Jetzt übertreibst du aber etwas. Das Ding ja nicht mal irgendwelche Lamellen oder irgendwas anderes, um die Wärmeabgabe zu verbessern. Und von der Oberfläche ein winziger Bruchteil dessen, was der A8X im iPad daneben zur Verfügung hat.

Nach NV's eigenen Daten verbratet die X1 GPU fast genau so viele Watts wie GK20A.
Angesichts der unterschiedlichen Leistung ein ziemlich guter Wert.

Undertaker
2015-02-18, 12:40:58
33W ist wohl Peak, wenn der Chip gerade vom Leerlauf hochschaltet, um Fix seine Aufgaben zu erledigen. Ob man auf die 11W in einer normalen Anwendung jemals kommen mag? Wage ich zu bezweifeln :)

Genau das ist der Punkt. Man kann einfach nicht irgendwelche Wattzahlen vergleichen, so eine 11- oder 33-Watt-Angabe ist ohne weitere Zusatzinfos vollkommen witzlos. Was bringt es jetzt zu wissen, ob ein A8X ohne Abregelung und mit entsprechenden Tools vielleicht auch auf 30 Watt gebracht werden kann? Und wo liegt dann jeweils die Performance?

Interessanter sind da Werte wie die long-term Performance im GFXBench. Das A8X da trotz 20nm und gigantischem Transistorbudget kaum vor K1 liegt und mutmaßlich sogar mehr Energie verbraten darf (größerer Formfaktor, bessere Kühlung), spricht nicht gerade für die IMG-Lösung.

Ailuros
2015-02-18, 12:48:00
Jetzt übertreibst du aber etwas. Das Ding ja nicht mal irgendwelche Lamellen oder irgendwas anderes, um die Wärmeabgabe zu verbessern. Und von der Oberfläche ein winziger Bruchteil dessen, was der A8X im iPad daneben zur Verfügung hat.

Seit wann haben ultra thin tablet SoCs heatsinks?

Angesichts der unterschiedlichen Leistung ein ziemlich guter Wert.

40% mehr FLOPs und ca. 60% hoehere Effizienz pro FLOP. Nachdem Maxwell im desktop schon ein bekanntes Tier ist/war keine besondere Ueberraschung.


Interessanter sind da Werte wie die long-term Performance im GFXBench. Das A8X da trotz 20nm und gigantischem Transistorbudget kaum vor K1 liegt und mutmaßlich sogar mehr Energie verbraten darf (größerer Formfaktor, bessere Kühlung), spricht nicht gerade für die IMG-Lösung.

Eine Loesung die fast nicht throttelt und auch eine laengere Batterielaufzeit hat (auf Batterie-Groessen normalisiert) verbratet wohl schwer mehr Strom. Da die A8X GPU einen gespiegelten GX6450 enthaelt laeuft dieser durchaus in einem smartphone wobei sich aus gutem Grund keiner auf eine GK20A mit halber Frequenz traute aus "unerklaerlichen" Gruenden. Mag wohl sein dass Xiaomi dafuer mehr Schmiergelder verlangte als bisher.

http://www.anandtech.com/show/8701/the-google-nexus-9-review/9

http://images.anandtech.com/graphs/graph8701/70075.png

Dural
2015-02-18, 13:14:00
Ohne direkten Akku vergleich sind die Benchmarks leider nicht viel wert, es bleibt aber dann immer noch EIN Benchmark. Wie sieht es in realen Spielen aus? Welches Gerät hat wie viel Akku Leistung zu Verfügung? Und damit meine ich nicht die Angabe auf dem Akku sondern real gemessen. Zudem bin ich auch der Meinung das man solche Test auch nur bei gleich grossen Geräten wirklich beurteilen kann, ein 10" Gerät hat definitiv deutlich bessere Möglichkeiten zur Kühlung als ein zb. 7" Gerät.

Ailuros
2015-02-18, 13:27:19
Ohne direkten Akku vergleich sind die Benchmarks leider nicht viel wert, es bleibt aber dann immer noch EIN Benchmark. Wie sieht es in realen Spielen aus? Welches Gerät hat wie viel Akku Leistung zu Verfügung?

Es gibt nichts besseres als die benchmarks momentan; man merkt ziemlich schnell ob und wie lange bei Spielen ein Geraet aushalten wird auch ohne benchmarks. Bei Zweifel frag einfach die Anand-Kerle die mit den Dingern taeglich herumfummeln.

Zudem bin ich auch der Meinung das man solche Test auch nur bei gleich grossen Geräten wirklich beurteilen kann, ein 10" Gerät hat definitiv deutlich bessere Möglichkeiten zur Kühlung als ein zb. 7" Gerät.

Tegra Geraete verkaufen sich eben zunehmend miserabler und 7" Geraete sind auch billiger auch gutem Grund. Sonst ist das Nexus 9 kein 7" Geraet (sondern 8.9 vs. 9.7" bei gleicher 2048*1536 Aufloesung), ergo such Dir etwas besseres als die sinnlose Haarspalterei wegen den 0.8" Unterschied zum iPad Air2. Nur das Shield ist bei 7.9" welches auch ein Stueck hoeher ist als 7".

Dimitri Mayakovsky
2015-02-18, 13:28:14
Seit wann haben ultra thin tablet SoCs heatsinks?
Natürlich gibt der A8X seine Wärme primär an die Alu-Rückseite des Tablets ab. Wird ja dort nicht ohne Grund warm.

40% mehr FLOPs und ca. 60% hoehere Effizienz pro FLOP. Nachdem Maxwell im desktop schon ein bekanntes Tier ist/war keine besondere Ueberraschung.
Über die Generation und bei gleichbleibendem Verbrauch trotzdem sehr gut.

http://images.anandtech.com/graphs/graph8701/70075.png
iPad Air 2: 33Wh, Shield Tablet: 19,75Wh

Dem iPad steht also eine mehr als 50% größere Batterie zur Verfügung - um genau zu sein 59% - und das Shield Tablet erreicht damit 58% der Laufzeit. So dieser Test linear skaliert.

Passt also alles. Nicht der A8X ist stromsparender, als der K1 - nein, nur sein Akku ist einfach aufgrund der Bauform deutlich größer.

Undertaker
2015-02-18, 13:36:58
iPad Air 2: 33Wh, Shield Tablet: 19,75Wh

Dem iPad steht also eine mehr als 50% größere Batterie zur Verfügung - um genau zu sein 59% - und das Shield Tablet erreicht damit 58% der Laufzeit. So dieser Test linear skaliert.

Passt also alles. Nicht der A8X ist stromsparender, als der K1 - nein, nur sein Akku ist einfach aufgrund der Bauform deutlich größer.

Ich glaube das Air 2 hat nur 27 oder 28 Wh. Ich glaube es gibt grundlegend auch nichts daran zu deuteln, dass der A8X effizienter ist, ohne das wir uns jetzt an Rechnungen mit zu vielen Unbekannten (allein schon die verschiedenen Displays) versuchen.

Ich frage mich eher: Wie gut wäre der A8X, wenn man ihn in 28nm mit vielleicht 1/3 der Transistoren hätte bauen müssen. Dann wären es vielleicht noch zwei abgespeckte Kerne, ein halb so breites SI, weniger Cache und höchstens halb so viele Shader, die man rund doppelt so hoch takten müsste (falls das überhaupt geht). Wie hier schon viele erkannt haben: Der Chip (in erster Linie die GPU) profitiert immens von den Ressourcen in Form von Prozesstechnik und Transistorbudget, die Apple da hineinbuttern kann.

robbitop
2015-02-18, 13:43:38
Zumal Breite auch effizienter ist als über den Takt zu gehen (was Leistungsaufnahme angeht). Insofern ist Leistung pro Watt vermutlich die wichtigere Kennzahl, wenn die Fertigungskosten des SoCs nur Nebensache sind.

Der A8X ist schon sehr sehr gut. Aber der zusammengekleisterte 2x 4MP Series6XT ist sicher nicht die effizienteste Lösung. Man hat ihn halt breit gemacht und taktet dafür schön niedrig. Ein nativer 8MP wäre aber sicher bei vergleichbarer Leistungsaufnahme schneller.
Series 7XT soll ja laut Ail auch nochmal die Effizienz pro Kern steigern.

Dimitri Mayakovsky
2015-02-18, 13:44:36
Ich glaube das Air 2 hat nur 27 oder 28 Wh.
Oh richtig, ifixit falsch gelesen.

Aber es ändert ja nix daran, dass man den Verbrauch zweier Motoren schlecht testen, indem man deinem einen 50l Tank in nem Van, dem anderen einen 25l Tank in nem Roadster gibt und dann guckt welcher weiter fahren kann.

Ailuros
2015-02-18, 14:02:09
Zumal Breite auch effizienter ist als über den Takt zu gehen (was Leistungsaufnahme angeht). Insofern ist Leistung pro Watt vermutlich die wichtigere Kennzahl, wenn die Fertigungskosten des SoCs nur Nebensache sind.

Der A8X ist schon sehr sehr gut. Aber der zusammengekleisterte 2x 4MP Series6XT ist sicher nicht die effizienteste Lösung. Man hat ihn halt breit gemacht und taktet dafür schön niedrig. Ein nativer 8MP wäre aber sicher bei vergleichbarer Leistungsaufnahme schneller.
Series 7XT soll ja laut Ail auch nochmal die Effizienz pro Kern steigern.

https://forum.beyond3d.com/posts/1806958/

Parker wird auf 14nm Samsung sein mit Maxwell wie wohl auch A9X und hoffentlich hat Apple nicht wieder gespiegelt damit man auch einen anstaendrigeren Vergleich machen kann.

Ich hab uebrigens diverse GPU DVFS Daten hier hocken nur darf ich sie leider nicht veroeffentlichen. Es dauert nicht besonders lange zu sehen dass sehr viele (wenn nicht alle) eigentlich turbo bzw. burst Frequenzen fuer benchmarks u.a. benutzen.

***edit: iPad Air2 ist 7,340mAh (27.3 Watt-hour); Nexus 9 6700mAh; Shield 5200mAh.

Sunrise
2015-02-18, 17:04:51
https://forum.beyond3d.com/posts/1806958/

Parker wird auf 14nm Samsung sein mit Maxwell wie wohl auch A9X und hoffentlich hat Apple nicht wieder gespiegelt damit man auch einen anstaendrigeren Vergleich machen kann.
Da GT7800 (8 Cluster) ja dieses Mal sogar auf den IMG-eigenen Slides gelistet ist (High-end tablets), gehe ich davon nicht aus. Kann man eigentlich ausschließen. Theoretisch wäre wohl sogar Platz für etwas mehr, den wird man aber wohl anderweitig investieren. Wenn man laut Rys bei realem Content eine Steigerung von 30-60% (bei identischem Takt) vorweisen kann, dann sollte das inkl. dem für 8 Cluster ausgelegten Design insgesamt einen ordentlichen (wenn auch nicht sensationellen) Geschwindigkeitsschub geben. Eventuell hat man sogar noch etwas Spielraum im Takt (was Apple aber ungern macht, da geht man eher in die Breite).

Wenn NV bei Maxwell-Architektur für Parker bleiben muss, dann holt Apple hier relativ wieder auf. Denn Maxwell wird wohl allein durch den besseren Fertigungsprozess keine neuen Bäume ausreisen können. Da sehe ich Apple wieder eindeutig vorne.

X1 mag wirklich gut sein, aber das Problem von NV ist eben im Gegensatz auch, dass sie sowohl Unsummen in R&D für mobile GPU-IP stecken als auch die Geschwindigkeit mit der PowerVR arbeitet mitgehen zu müssen. Apple kauft das einfach mit Geld und baut sich dann damit ins Chipbudget passende Lösungen. Das ist eben Luxus pur.

Ailuros
2015-02-18, 17:45:08
Da GT7800 (8 Cluster) ja dieses Mal sogar auf den IMG-eigenen Slides gelistet ist (High-end tablets), gehe ich davon nicht aus. Kann man eigentlich ausschließen. Theoretisch wäre wohl sogar Platz für etwas mehr, den wird man aber wohl anderweitig investieren. Wenn man laut Rys bei realem Content eine Steigerung von 60% (bei identischem Takt) vorweisen kann, dann sollte das inkl. dem für 8 Cluster ausgelegten Design insgesamt einen ordentlichen (wenn auch nicht sensationellen) Geschwindigkeitsschub geben.

Wenn NV bei Maxwell-Architektur für Parker bleiben muss, dann holt Apple hier relativ wieder auf. Denn Maxwell wird wohl allein durch den besseren Fertigungsprozess keine neuen Bäume ausreisen können. Da sehe ich Apple wieder eindeutig vorne.

Maxwell und A5x cores haben fuer NV's obere SoC Grenze gerade noch ausgereicht; Denver und Maxwell dann eben nicht. Ausser ich habe etwas falsch verstanden ist Parker lediglich eine Denver + Maxwell Kombination die original fuer 16FF geplant war, dank TSMC Verspaetungen auf Erista/20SoC und 14nm Samsung verteilt wurde.

Wie ich schon vor Seiten sagte: Apple musste ihren Cyclone eben nicht rausschmeissen damit N GPU reinpasst auf 20SoC, ergo kann mir jeder lange von angeblichen Prozess-Vorteilen erzaehlen.

Die wirklich brennende Frage ist ob sie Denver genug umgekrempelt haben oder ob es quasi die gleiche CPU Variante ist wie im Nexus 9. Wenn ja zum letzten koennen sie sich das Stotter-fest schenken.

X1 mag wirklich gut sein, aber das Problem von NV ist eben im Gegensatz auch, dass sie Unsummen in R&D für mobile GPU-IP stecken müssen um diese Geschwindigkeit mit der PowerVR arbeitet überhaupt dauerhaft halten zu können.

NV wuerde Unsummen in R&D einlegen wenn sie die K1 und X1 GPUs von Grund auf fuer ULP mobile entwickelt haetten; da es sich in beiden Faellen lediglich um stark reduzierte Versionen der eigentlichen desktop Architekturen handelt wuerde ich nicht sagen dass der Aufwand besonders gross ist, da es sich eher um eine quasi parallele Entwicklung handelt.

Es wird schwer einem der beteiligten im ULP Markt dieses Jahr gut gehen ausser ARM selber. Nicht nur haben sie endlich ihre Probleme mit den beschissenen bisherigen interconnects und MCs geloest, sondern wenn Samsung so viele Exynos SoCs verkauft wie sie sonst von QCOM eingekauft hatten koennte ARM ueber Nacht zum groessten GPU IP provider ueber Nacht werden.

IMG im Gegensatz hatte wieder rote Zahlen und es gibt so einiges Pech mit einigen ihrer Partner im chinesischen Markt (von dem viele betroffen sind). Intel hat den Rest ihrer Aktien verkauft (obwohl sie wieder lizenziert haben, was keine Ahnung), sie haben einen ex Sony-Ericsson Heini als chairman eingestellt und es sieht generell flach und langweilig fuer dieses Jahr aus.

NV hingegen wird wohl IMO bei dem zunehmend automotiv Trend bleiben; bis natuerlich andere aggressiv ins Glashaus reinstampfen. Man wird wohl nicht glauben dass Apple ploetzlich ein elektrisches Auto entwickelt oder? :P

Apple kauft das einfach mit Geld und baut sich dann damit ins Chipbudget passende Lösungen. Das ist eben Luxus pur.

Das iOS; ich kann mich leider mit den iOS Begrenzungen persoenlich nicht abfinden. Sonst hab ich oben ein youtube video gepostet; wenn man die Dinger bei so einfachen Sachen Seite an Seite sieht ist es schon ernuechternd.

Dimitri Mayakovsky
2015-02-18, 17:57:46
ich will auch ernsthaft hoffen dass das naechste Shield besser aussehen wird als das hier:
Das heute erschienene OTA-Update für das Shield Tablet hat viele der Quirks und Hickups behoben, die man im Video sehen kann.

Ailuros
2015-02-18, 18:10:28
Das heute erschienene OTA-Update für das Shield Tablet hat viele der Quirks und Hickups behoben, die man im Video sehen kann.

Erst heute? Wie lange ist es schon erhaeltlich? 7 Monate?

Sunrise
2015-02-18, 18:12:58
Erst heute? Wie lange ist es schon erhaeltlich? 7 Monate?
Scheint wirklich oft gekauft worden zu sein, wenn NV das so wichtig ist. :P

Ich bin dann mal weg...:D

-/\-CruNcher-/\-
2015-02-18, 19:00:58
Weiß einer, warum Sony seinen Bildverschlimmbersserungsprozessor "X1" genannt hat? http://www.areadvd.de/tests/special-die-key-features-des-tv-line-ups-2015-von-sony-im-detail/

vor allem

http://www.areadvd.de/images/2015/02/sony_keyfeatures_tv_2015_flatarea.jpg

Eine Noise reduction die schärfe bringt sicher dat Sony hier werden 3 PP steps als Noise reduction deklariert (After PP inclusive Noise Reduction) wäre korrekt ;)

Ailuros
2015-02-19, 06:55:51
http://www.fudzilla.com/news/37047-honda-offers-600-tegra-based-infotainment

Die Kommentare darunter sind koestlich.

Dimitri Mayakovsky
2015-02-19, 08:28:54
Erst heute? Wie lange ist es schon erhaeltlich? 7 Monate?
Da hast du es nciht so mit dem rechnen. Zumal die Probleme erst mit Lollipop aufgetreten sind, Release irgendwann Ende November.

Und über solche Probleme würde ich nicht zu sehr spotten, wenn man hier immer den Apfel predigt. Hat Apple inzwischen endlich WLAN zum Laufen gebracht?

robbitop
2015-02-19, 08:29:45
IMG im Gegensatz hatte wieder rote Zahlen und es gibt so einiges Pech mit einigen ihrer Partner im chinesischen Markt (von dem viele betroffen sind). Intel hat den Rest ihrer Aktien verkauft (obwohl sie wieder lizenziert haben, was keine Ahnung), sie haben einen ex Sony-Ericsson Heini als chairman eingestellt und es sieht generell flach und langweilig fuer dieses Jahr aus.
Die roten Zahlen kommen sicherlich vom MIPS Kauf oder?

Falls nicht, hat IMG wohl eine zu hohe Kostenstruktur. Denn sie sind ja sehr sehr erfolgreich was Lizenzvergabe angeht.

Dural
2015-02-19, 11:05:02
Manchmal echt komisch wie hier einige über das Shield Tablet lästern, Fakt ist das ich bis heute noch nie ein besseres Tablet hatte und der Software Support so ziemlich das beste ist was ich in sachen Tablet bis heute erlebt habe! Und ich hatte sicher schon 10 verschiedenen Tablets.

Gerade der Software Support sucht seines gleichen, kein anderer Hersteller bringt das so gut und schnell hin wie NV. :rolleyes:

Botcruscher
2015-02-19, 11:28:39
Die Kommentare darunter sind koestlich.
Treffen aber nicht den Kern. Für 600$ abgezockt zu werden ist das eine, Android 4.0.4 based system mit der Sicherheit eines Schweizer Käse und ohne aussicht auf Updates was ganz anderes.

Bei Telefon würde ich nie was anders als Android und root nehmen aber beim Auto. Über 15 Jahre?!? Gut Win 98 dürfte auch wieder "sicher" sein. Kein Softwareentwickler liefert mir auch nur annähernd auf die Dauer Support. Die Autobauer denken echt die liefern hier noch ein überteuertes Kassettenradio.

Ailuros
2015-02-19, 11:43:28
Da hast du es nciht so mit dem rechnen. Zumal die Probleme erst mit Lollipop aufgetreten sind, Release irgendwann Ende November.

Ich wache morgens auch nicht auf und denke nur daran meine Lieblingsfirma anzubeten und ja ich weiss leider wer wer hier genau ist.

Und über solche Probleme würde ich nicht zu sehr spotten, wenn man hier immer den Apfel predigt. Hat Apple inzwischen endlich WLAN zum Laufen gebracht?

Wenn Du Dir einen Apfel Anbeter suchst, dann hockst Du gerade auf dem falschen Ast; ich hab nichtmal ein einziges i-Geraet. Wenn Du trollen willst genauso. Sonst auf rein sachlicher Ebene gibt es keine Entschuldigungen dafuer egal ob man Samsung, NVIDIA, QCOM oder Pipi Langstrumpf heisst.

Die roten Zahlen kommen sicherlich vom MIPS Kauf oder?

Falls nicht, hat IMG wohl eine zu hohe Kostenstruktur. Denn sie sind ja sehr sehr erfolgreich was Lizenzvergabe angeht.

Zu hohe Ausgaben; ist aber verdammt OT hier. Besser im IMG thread falls Du sonst noch Fragen haben solltest.

Manchmal echt komisch wie hier einige über das Shield Tablet lästern, Fakt ist das ich bis heute noch nie ein besseres Tablet hatte und der Software Support so ziemlich das beste ist was ich in sachen Tablet bis heute erlebt habe! Und ich hatte sicher schon 10 verschiedenen Tablets.

Gerade der Software Support sucht seines gleichen, kein anderer Hersteller bringt das so gut und schnell hin wie NV. :rolleyes:

Alle 10 waren von NVIDIA? :freak:

Treffen aber nicht den Kern. Für 600$ abgezockt zu werden ist das eine, Android 4.0.4 based system mit der Sicherheit eines Schweizer Käse und ohne aussicht auf Updates was ganz anderes.

Bei Telefon würde ich nie was anders als Android und root nehmen aber beim Auto. Über 15 Jahre?!? Gut Win 98 dürfte auch wieder "sicher" sein. Kein Softwareentwickler liefert mir auch nur annähernd auf die Dauer Support. Die Autobauer denken echt die liefern hier noch ein überteuertes Kassettenradio.

Nicht nur 4..0.4 sondern auch Tegra3; wenn sie schon "alt" erwaehnen dann reicht es auch. Daran ist aber wirklich auch nicht NV schuld sondern die Automobil-Hersteller die erstmal generell alten Kaese integrieren und dann auch Wucherpreise dafuer verlangen.

Die Ablenkung des Fahrers bei dem ganzen Firlefanz ist eigentlich das schlimmste. Ist ja alles schoen und gut aber wenn man mit dem Zeug wirklich herumfummeln will waehrend dem fahren waere wohl ein autopilot auch eher angebracht.

Dimitri Mayakovsky
2015-02-19, 11:51:52
Treffen aber nicht den Kern. Für 600$ abgezockt zu werden ist das eine, Android 4.0.4 based system mit der Sicherheit eines Schweizer Käse und ohne aussicht auf Updates was ganz anderes.
Immerhin nur 20% der bisherigen 3000€ Abzocke bei eingebauten Navigationssystemen.

Und wo dein Auto einen offenen CAN-Bus hat, über den jemand alles mögliche machen kann, sorgst du dich um ein Android 4.0?

Ich wache morgens auch nicht auf und denke nur daran meine Lieblingsfirma anzubeten und ja ich weiss leider wer wer hier genau ist.
Was auch immer dies nun mit meiner Aussage zu tun hat und mit deinen falshcen Angaben. :rolleyes:

Wenn Du Dir einen Apfel Anbeter suchst, dann hockst Du gerade auf dem falschen Ast. Wenn Du trollen willst genauso. Sonst auf rein sachlicher Ebene gibt es keine Entschuldigungen dafuer egal ob man Samsung, NVIDIA, QCOM oder Pipi Langstrumpf heisst.
Wer A sagt, muss auch B sagen und angesichts der Software-"Qualität" von Apple in letzter Zeit hier groß auf NVIDIA einzubashen -ohne so ein Gerät überhaupt zu besitzen - ist schon sehr, sehr merkwürdig.

Man kann auch sachlich ohne BIAS-Dokumentation diskutieren.

Ailuros
2015-02-19, 12:12:52
Was auch immer dies nun mit meiner Aussage zu tun hat und mit deinen falshcen Angaben. :rolleyes:

Gar nichts. Es macht nur Spass accounts zu zaehlen.

Wer A sagt, muss auch B sagen und angesichts der Software-"Qualität" von Apple in letzter Zeit hier groß auf NVIDIA einzubashen -ohne so ein Gerät überhaupt zu besitzen - ist schon sehr, sehr merkwürdig.

Das auf was Du so reagierst, waren lediglich 2 ziemlich legitime Fragen. Du haettest sie nur beantworten koennen um die Sache auf sachlicher Ebene zu halten.

Man kann auch sachlich ohne BIAS-Dokumentation diskutieren.

Du kannst es selber versuchen.

Und auf rein sachlicher Ebene sind erstens die im video aufgefuehrten Wehwechen nicht alle beseitigt worden und direkt danach scheinen andere Android Geraete generell weniger Probleme zu haben als NV mit Lollipop.

Timbaloo
2015-02-19, 12:45:28
Und wo dein Auto einen offenen CAN-Bus hat, über den jemand alles mögliche machen kann, sorgst du dich um ein Android 4.0?
Wie greifst du den "offenen" CAN-Bus denn von aussen an? :rolleyes:

Dimitri Mayakovsky
2015-02-19, 13:48:43
Wie greifst du den "offenen" CAN-Bus denn von aussen an? :rolleyes:
Wie greifst du ein Autonavi von Außen an?

Screemer
2015-02-19, 13:49:30
Wie greifst du den "offenen" CAN-Bus denn von aussen an? :rolleyes:

Na in dem er nachts unter dein auto krabbelt oder die Haube aufhebelt, um seinen can-wifi-dongle aufzustecken. Ahh warte das muss er gar nicht, denn das OS ist per wifi eh schon offen wie ein scheunentor.

Ailuros
2015-02-19, 14:04:35
Welches Nicht-Nexus-Tablets gibt es denn so mit Lollipop, mit denen man jetzt mal so vergleichen kann?

Wieso gerade "nicht-Nexus"? Weill es zu blamierend waere dass es keine so starken Unterschiede auf einem Nexus10 z.B. gab? Es gibt zich beta Zeug fuer ziemlich viele Android Geraete fuer die man zugegeben ziemlich tapfer sein muss um sie auszuprobieren, aber die eigentliche Frage sollte dann eher lauten warum jeglicher Hersteller ausserhalb Google fuer Nexus Geraete ueberhaupt schon so frueh anbietet wenn es so viele Probleme gibt.

Und ja es wird typisch viel ueber Tegras gespottet, eben weil NV zu aggressives marketing betreibt, NV doch nicht alles via sw heilen kann weil es keinen Zauberstab gibt und obwohl ihre sw Platform doch besser ist als die von so manchen chinesischen 0815 Herstellern gibt es nach wie vor so manche Stelle wo es doch ab und zu hapert. Wie sieht es aus wenn man ein schweres/kompliziertes pdf versucht zu oeffnen auf dem heiligen Shield nach dem tollen OTA update? Desktop experience (wo es eigentlich sein sollte bei dem Prozessor im K1....) oder kann man sogar von einem aelteren (um einiges schwaecheres tablet) blamiert werden?

Dimitri Mayakovsky
2015-02-19, 14:28:56
Wieso gerade "nicht-Nexus"? Weill es zu blamierend waere dass es keine so starken Unterschiede auf einem Nexus10 z.B. gab?
Weil es ziemlich unfair ist einen 3rd party Entwickler, der ein OS portiert, mit dem Entwickler des OS selbst zu vergleichen.

Also doch mal ein Nicht-Nexus-Tablet mit Lollipop. Gibt es nicht? Nein! Doch! Oh!

Sagt doch auch einiges aus über die Kompetenz von NV, auch wenn es dir nicht gefällt. Ob es nun besser gewesen wäre Lollipop erst heute zu veröffentlichen ohne Hickups - da können wir uns gerne drüber diskutieren.

Aber dann musst du auch darüber diskutieren, ob das Problem denn nun die Hardware/OS oder gar die App ist.

Wie sieht es aus wenn man ein schweres/kompliziertes pdf versucht zu oeffnen auf dem heiligen Shield nach dem tollen OTA update? Desktop experience (wo es eigentlich sein sollte bei dem Prozessor im K1....) oder kann man sogar von einem aelteren (um einiges schwaecheres tablet) blamiert werden?
Mit einem 431 Seiten PDF und dem vorinstallierten Adobe Reader getestet:

Perfekt. Absolut schnelles Scrolling auch über mehr als 100 Seiten hinweg, ohne das nach 10 Seiten einfach nur noch weiße Seite angezeigt werden. Absolut Flüssig, butterweich.

Aber das wirst du mir gleich sicherlich mit einem YouTube-Video "widerlegen" :rolleyes:

Ailuros
2015-02-19, 17:04:30
Weil es ziemlich unfair ist einen 3rd party Entwickler, der ein OS portiert, mit dem Entwickler des OS selbst zu vergleichen.

Also doch mal ein Nicht-Nexus-Tablet mit Lollipop. Gibt es nicht? Nein! Doch! Oh!

Sagt doch auch einiges aus über die Kompetenz von NV, auch wenn es dir nicht gefällt.

Ich kenne NV's Schwaechen und Staerken besser als Du Dir vorstellen kannst. Wo soll genau die Potenz liegen wenn man eine unreife OS Version auf ein jegliches Geraet portiert? Im Endeffekt mussten die Users den Brei ueber Monate tolerieren und es ist nicht wirklich so als ob das was NV praesentiert hat in irgend einer Art "besser" ist als die etlichen beta Lollipop Varianten die fuer N Geraete herumschwirren.

Ob es nun besser gewesen wäre Lollipop erst heute zu veröffentlichen ohne Hickups - da können wir uns gerne drüber diskutieren.

Was gibt es da darueber zu diskuttieren? Wenn ein Hersteller die bestmoegliche user exprerience fuer seine Kunden haben will, dann veroeffentlicht man es auch wenn es auch wirklich in gutem Zustand ist.

Aber dann musst du auch darüber diskutieren, ob das Problem denn nun die Hardware/OS oder gar die App ist.

Es ist NV bzw. Jensen der die insgesamte Philosophie fuer Tegra zum heutigven Zustand entwickelt hat und nicht ich. Das Problem bei Tegra ist dass Jensen schon seit Jahren den Ball verloren hat und da kann Dir weder die tollste hw noch das OS am Ende etwas retten.

Mit einem 431 Seiten PDF und dem vorinstallierten Adobe Reader getestet:

Perfekt. Absolut schnelles Scrolling auch über mehr als 100 Seiten hinweg, ohne das nach 10 Seiten einfach nur noch weiße Seite angezeigt werden. Absolut Flüssig, butterweich.

Aber das wirst du mir gleich sicherlich mit einem YouTube-Video "widerlegen" :rolleyes:

Es war eine ehrliche, aber nicht zufaellige Frage.

https://drive.google.com/file/d/0B1iPXL-KMPTnQlNPSWNaNVF4UUE/edit?pli=1

https://drive.google.com/file/d/0B1iPXL-KMPTnT0RKWXp2c1N2MEE/edit?pli=1

...und noch eine beschissen entwickelte Webseite:

http://www.honda-motorcycles.gr/model.php?model=hornet600

Alles Grenzfaelle.

Dimitri Mayakovsky
2015-02-20, 08:39:39
Bringt offensichtlich nichts, wenn manche in ihrer eigenen Welt gefangen sind.

Übrigens, ich habe da ein Androidspiel, nicht mal allzu 3D-lastig, das läuft auf dem Shield zum ersten Mal perfekt. Vorher ist es sowohl auf dem Nexus 7 (Snapdragon Pro), als auch auf dem Samsung (Snapdragon 800) innerhalb von 30-60 Sekunden gecrasht. Wer da nur die Beta-Software ausliefert? :P

Aber egal, sachlich wäre ja langweilig. So wie man inzwischen ja auch eingestehen kann, dass NVIDIA für die Tegras mit Automotive eine sehr gute und sehr lukrative Nische gefunden hat, um da sich auszuweiten. Da sprechen die Umsatzzahlen deutlich Worte, wenn ich mich gerade nicht täusche knapp 50% Plus letztes Jahr.

Raspo
2015-02-20, 08:58:44
Dann lass uns nicht dumm sterben und sag doch mal, wie das Spiel heisst.

Ich kann auch behaupten, mit meinem Tegra3 im HTC One X konnte ich Spiegeleier braten. (Aber es fehlten 10 Grad. )

Dimitri Mayakovsky
2015-02-20, 09:05:20
https://play.google.com/store/apps/details?id=com.tinyco.familyguy

Ailuros
2015-02-20, 09:19:53
Bringt offensichtlich nichts, wenn manche in ihrer eigenen Welt gefangen sind.

Du solltest weniger mit Dir selber reden.

Übrigens, ich habe da ein Androidspiel, nicht mal allzu 3D-lastig, das läuft auf dem Shield zum ersten Mal perfekt. Vorher ist es sowohl auf dem Nexus 7 (Snapdragon Pro), als auch auf dem Samsung (Snapdragon 800) innerhalb von 30-60 Sekunden gecrasht. Wer da nur die Beta-Software ausliefert? :P

Das Ding hat einen aehnlichen memory bug wie viele 3D Applikationen.

Aber egal, sachlich wäre ja langweilig. So wie man inzwischen ja auch eingestehen kann, dass NVIDIA für die Tegras mit Automotive eine sehr gute und sehr lukrative Nische gefunden hat, um da sich auszuweiten. Da sprechen die Umsatzzahlen deutlich Worte, wenn ich mich gerade nicht täusche knapp 50% Plus letztes Jahr.

Da tablet sales nachlassen und es sonst keine besonderen alternativen Maerkte gibt fuer etwas wie Tegra, wird das automotive Prozentual auch weiterhin steigen. Nur wird eben Tegra verdammt schwer in absehbahrer Zukunft 50% vom NVIDIA Umsatz erreichen wie Jensen vor einiger Zeit prophezeit hatte.

Dimitri Mayakovsky
2015-02-20, 09:35:10
Du solltest weniger mit Dir selber reden.
Mir wäre neu, dass ich hier mit mir selbst schreibe.

Das Ding hat einen aehnlichen memory bug wie viele 3D Applikationen.
Ja, deswegen crasht es auf dem Samsung-Tablet mit 3 Gig Memory auch, während es auf dem Shield mit 2 Gig läuft :P

Da tablet sales nachlassen und es sonst keine besonderen alternativen Maerkte gibt fuer etwas wie Tegra, wird das automotive Prozentual auch weiterhin steigen. Nur wird eben Tegra verdammt schwer in absehbahrer Zukunft 50% vom NVIDIA Umsatz erreichen wie Jensen vor einiger Zeit prophezeit hatte.
Poltern gehört halt zum Geschäft. Und man kann ihm sicherlich vieles nachsagen, aber wohl kaum, dass er seinen Laden nicht im Griff hätte. Inzwischen ist man dabei AMD im Umsatz zu überholen. Und es ist offensichtlich, dass das KnowHow in Maxwell aus Tegra stammt.

Mancko
2015-02-20, 09:55:17
Da tablet sales nachlassen und es sonst keine besonderen alternativen Maerkte gibt fuer etwas wie Tegra, wird das automotive Prozentual auch weiterhin steigen. Nur wird eben Tegra verdammt schwer in absehbahrer Zukunft 50% vom NVIDIA Umsatz erreichen wie Jensen vor einiger Zeit prophezeit hatte.

Und wen juckt das? Ob sie nun mit Tegra 50% erreichen oder nicht spielt doch gar keine Rolle. Aktuell macht Nvidia 1,2 Mrd Umsatz im Quartal. Bei 200 Mio ist das Tegra Segment in den schwarzen Zahlen. Bis dahin ist es noch ein gutes Stück aber es ist nicht unrealistisch. M.E. reicht das völlig aus. Zudem profitiert die GPU Sparte mittlerweile gut durch Tegra, denn das R&D kann verteilt genutzt werden. Und ob sie nun die ursprünglich mal projezierten 50% erreichen oder nicht ändert mal gar nichts an den Produkten und sie sind mittlerweile gut und mit X1 wird nochmal ordentlich drauf gelegt. Als CEO muss man auch mal optimistisch sein und manchmal eben auch zu optimistisch. Das gehört einfach dazu. In diesem Geschäft passiert nichts ohne Risiko und nur wer Risiken eingeht mach auch Fehler. In Summe ist das Unternehmen aber hervorragend geführt, sonst würden die heute schon nicht mehr existieren.

Ailuros
2015-02-20, 09:58:07
Den Tegra Laden hat er sicher im "Griff", wobei natuerlich hier "Griff" eine ziemlich abstrakte Beschreibung sein muss. Sicher besser als gar nichts was ULP mobile betrifft, aber wenn man nach all den Jahren kein Land sieht haette man sich vor geraumer Zeit fragen sollen was wirklich falsch laeuft, anstatt Leute fuer Tegra einzustellen, ihnen Steine vor die Fuesse werfen und sie dann als Suendenboecke ausschlachtet.

Der "uebliche" GPU Laden laeuft auch so wie man erwarten wuerde, aber Intel hat auch kein Problem mit ihrem (CPU) Kerngeschaeft. Die Frage ist dann wohl eher ob, wie lange und mit welchen Kosten man genau langfristig ueberleben kann. Intel's subsidies sind eine Sackgasse und automotive braucht keine so aggressiven roadmaps wie im eher cut-throat Konsumer Markt.

Und wen juckt das? Ob sie nun mit Tegra 50% erreichen oder nicht spielt doch gar keine Rolle. Aktuell macht Nvidia 1,2 Mrd Umsatz im Quartal. Bei 200 Mio ist das Tegra Segment in den schwarzen Zahlen. Bis dahin ist es noch ein gutes Stück aber es ist nicht unrealistisch. M.E. reicht das völlig aus. Zudem profitiert die GPU Sparte mittlerweile gut durch Tegra, denn das R&D kann verteilt genutzt werden. Und ob sie nun die ursprünglich mal projezierten 50% erreichen oder nicht ändert mal gar nichts an den Produkten und sie sind mittlerweile gut und mit X1 wird nochmal ordentlich drauf gelegt. Als CEO muss man auch mal optimistisch sein und manchmal eben auch zu optimistisch. Das gehört einfach dazu. In diesem Geschäft passiert nichts ohne Risiko und nur wer Risiken eingeht mach auch Fehler. In Summe ist das Unternehmen aber hervorragend geführt, sonst würden die heute schon nicht mehr existieren.

Wie gesagt alles ausserhalb Tegra. Siehe oben; Jensen hat in der Zwischenzeit wieder einen grossen Batzen an resources vom Tegra team wo anders verschleusst eben weil man fuer automotive eben andere Geschwindigkeiten brauchen wird und man sich langfristig bei den Volumen nicht so hohe Ausgaben haben darf.

Dimitri Mayakovsky
2015-02-20, 10:09:01
Wenn ich mir alleine anschaue, wie Intel Probleme in diesem Markt hat, bekommt deine Beschreibung leider ziemliche Argumentationslücken. Die werfen ihre Produkte zum Selbstkostenpreis auf den Markt, machen damit mehr Verlust, als NVIDIA insgesamt Umsatz und liegen wo? In ähnlichen Regionen.

Wie gesagt, die Idee war richtig, der Wissenstransfer zahlt sich jetzt schon aus und es hat auch (leider) bis zum K1 gedauert, bevor man die vorhandene GPU-IP aus dem Desktop direkt in Mobile bekommt. Alles vorher (Tegra <= 4) war sicherlich eher Murks. Ich denke daher schon, dass wir da 2015 durchaus noch was sehen werden, auch an kaufbaren Produkten.

So ein AndroidTV mit X1 fände ich ziemlich schick. Vielleicht am 3.3.?

Ailuros
2015-02-20, 10:15:49
Wenn ich mir alleine anschaue, wie Intel Probleme in diesem Markt hat, bekommt deine Beschreibung leider ziemliche Argumentationslücken. Die werfen ihre Produkte zum Selbstkostenpreis auf den Markt, machen damit mehr Verlust, als NVIDIA insgesamt Umsatz und liegen wo? In ähnlichen Regionen.

Welche Beschreibung? Liess mal den Text etwas vorsichtiger durch; ich sagte dass NV kein Problem mit ihrem Kerngeschaeft hat wie auch Intel mit ihrem Kerngeschaeft.

Sonst fuer die subsidies schmeisst Intel Milliarden zum Fenster raus um Markanteil zu gewinnen; fuer's vorige Jahr hat Intel 49Mio tablet SoCs verschwenkt....errr verkauft und sich somit einen X Marktanteil schweineteuer eingekauft. Wie ich sagte eine Loesung ist es nicht, ausser Du interpretierst "Sackgasse" anders :rolleyes:

Wie gesagt, die Idee war richtig, der Wissenstransfer zahlt sich jetzt schon aus und es hat auch (leider) bis zum K1 gedauert, bevor man die vorhandene GPU-IP aus dem Desktop direkt in Mobile bekommt. Alles vorher (Tegra <= 4) war sicherlich eher Murks. Ich denke daher schon, dass wir da 2015 durchaus noch was sehen werden, auch an kaufbaren Produkten.

So ein AndroidTV mit X1 fände ich ziemlich schick. Vielleicht am 3.3.?

Der Zug ist ab den 2 GoForce and 4 Tegra Generationen leider abgelaufen. Ich haette selber erwartet dass sie mit dem K1 etwas Gas gegeben haetten, aber -15% year on year fuer Tegra spricht wohl eher dagegen.

Tegra4i war durchaus auf dem richtigen Ast nur leider etliche Jahre zu spaet.

***edit: gsmarena spricht uebrigens von einen "4k slate" dass den 74+k Antutu score erreicht hat: http://blog.gsmarena.com/nvidia-tegra-x1-flies-past-70000-antutu/

Dimitri Mayakovsky
2015-02-20, 10:34:02
Sonst fuer die subsidies schmeisst Intel Milliarden zum Fenster raus um Markanteil zu gewinnen; fuer's vorige Jahr hat Intel 49Mio tablet SoCs verschwenkt....errr verkauft und sich somit einen X Marktanteil schweineteuer eingekauft. Wie ich sagte eine Loesung ist es nicht, ausser Du interpretierst "Sackgasse" anders :rolleyes:
Nein, keine Sackgasse, sondern ein notwendiges Muss, um in dem Markt (und in darauf aufbauenden) noch eine Chance zu haben. So wie sich Microsoft eben ein WP gönnt.

Nur: NVIDIA erreicht mit einem Bruchteil der Mittel einen "ähnlichen" Erfolg und hat eine sehr erfolgreiche Nische gefunden. Von daher schlägt deine Kritik an NVIDIA und Jensen irgendwo fehl, wenn auch Intel es nicht gebacken bekommt.

Der Zug ist ab den 2 GoForce and 4 Tegra Generationen leider abgelaufen. Ich haette selber erwartet dass sie mit dem K1 etwas Gas gegeben haetten, aber -15% year on year fuer Tegra spricht wohl eher dagegen.

Tegra4i war durchaus auf dem richtigen Ast nur leider etliche Jahre zu spaet.
Denke nicht, dass da irgendein Zug abgelaufen ist. Marktdurchdringung braucht vor allem Zeit, weil viele Entscheider grad bei solchen Themen keine Experimente machen. Die nehmen auch dann noch Qualcomm, wenn das Teil erwiesenermaßen nix taugt, aber man hat halt schon immer Qualcomm genommen.

Und da sehe ich K1/X1 jetzt tatsächlich als ersten Tegra, der einen wirklichen USP bringt. Wenn man heute einen SoC für z.B. eine Settopbox mit AndroidTV sucht, mit Gamingfunktionalität steht der X1 sicherlich sehr weit oben. Ob da design wins kommen? Werden wir sehen.

Über das Gesamtjahr ist Tegra übrigens 50% im Plus, du beziehst dich nur auf ein Quartal.

Skysnake
2015-02-20, 10:46:17
Komisch nur, das Rockchip und Mediathek da ganz anders performt haben, und Intels und nVidias Situation kann man auch nicht wirklich vergleichen. Intel hat mit ihrem Einsatz an Mitteln innerhalb deutlich kürzerer Zeit ein vielfaches von nVidias Marktanteil erreicht, und das obwohl Sie x86 einsetzen, was dort im Markt ein ziemlicher Nachteil ist.

Jensen hat aber z.B. ihr Software-Modem voll in den Sand gesetzt. Also Jensen hat absolut kein Händchen für den ULP Markt, und beim Automotive wird sich das Spielchen wiederholen, denn die Prozesszyklen sind da ziemlich lange, und man muss auch sehen, dass die Konkurrenz vom Schlage Bosch usw. Auch ihre Produkte in der Pipeline haben, und die können ganz anders kalkulieren als nVidia, vor allem weil Sie alles miteinander vernetzen können, und dann da kann nVidia als Single-Component Anbieter nicht gegen anstinken. Zumal die eben viel mehr Erfahrung mit Sicherheitskritischen Componenten als nVidia.

Ailuros
2015-02-20, 10:52:27
Nein, keine Sackgasse, sondern ein notwendiges Muss, um in dem Markt (und in darauf aufbauenden) noch eine Chance zu haben. So wie sich Microsoft eben ein WP gönnt.

Ob notwendiges Muss oder nicht es ist eine Sackgasse, da Intel automatisch einen fetten Marktanteil wieder verliert wenn sie heute mit den subsidies aufhoeren wuerden.

Nur: NVIDIA erreicht mit einem Bruchteil der Mittel einen "ähnlichen" Erfolg und hat eine sehr erfolgreiche Nische gefunden. Von daher schlägt deine Kritik an NVIDIA und Jensen irgendwo fehl, wenn auch Intel es nicht gebacken bekommt.

Sie machen weder Gewinn von der Tegra Sparte noch haben sie irgend einen anstaendigen Marktanteil bis jetzt errreicht. Ausser Du glaubst dass ein eins komma Bums Markanteil sehenswert ist.


Denke nicht, dass da irgendein Zug abgelaufen ist. Marktdurchdringung braucht vor allem Zeit, weil viele Entscheider grad bei solchen Themen keine Experimente machen. Die nehmen auch dann noch Qualcomm, wenn das Teil erwiesenermaßen nix taugt, aber man hat halt schon immer Qualcomm genommen.

Nach 7 Generationen koennen wir ja nochmal 7 Generationen warten dass es irgendwo irgendwann im Konsumer Markt irgendwelche Wunder geben wird. Tablet Verkaeufe sind im generellen Abstieg und fuer smartphones hat NV nichts mehr im Angebot.

Und da sehe ich K1/X1 jetzt tatsächlich als ersten Tegra, der einen wirklichen USP bringt. Wenn man heute einen SoC für z.B. eine Settopbox mit AndroidTV sucht, mit Gamingfunktionalität steht der X1 sicherlich sehr weit oben. Ob da design wins kommen? Werden wir sehen.

Es hilft gar nichts wenn man 1000 design wins erreicht wo man fuer jeglichen design win nur 100 Stueck verkauft (frei erfundene Zahlen natuerlich). Es ist ja auch nicht so dass es beim K1 nur so mit desing wins geregnet hat; es waren sogar weniger als wie mit Tegra4.

Ohne ein anstaendiges Volumen von irgendwo wird daraus nichts werden und hohe Margen koennen sie auch anlegen weil es sich sonst noch schlechter verkaufen wird.

Dimitri Mayakovsky
2015-02-20, 10:52:59
Komisch nur, das Rockchip und Mediathek da ganz anders performt haben, und Intels und nVidias Situation kann man auch nicht wirklich vergleichen. Intel hat mit ihrem Einsatz an Mitteln innerhalb deutlich kürzerer Zeit ein vielfaches von nVidias Marktanteil erreicht, und das obwohl Sie x86 einsetzen, was dort im Markt ein ziemlicher Nachteil ist.
Rockchip/Mediatek poppeln fremde IP zusammen und verkaufen die dann für nen Apple und nen Ei. Völlig unterschiedliche Geschäftsideen. NVIDIA wie Intel möchten gerne mit Qualcomm & Co konkurrieren.

Jensen hat aber z.B. ihr Software-Modem voll in den Sand gesetzt.
Weil?

beim Automotive wird sich das Spielchen wiederholen, denn die Prozesszyklen sind da ziemlich lange, und man muss auch sehen, dass die Konkurrenz vom Schlage Bosch usw.
Wo entwickelt Bosch denn SoCs für Automotive? Im Gegenteil, der Instrumentencluster im aktuellen Audi A3 kommt von Bosch, als Chip läuft innen drin ein Tegra3.

Ich kann bisher nix im Automotive sehen, das für Tegra negativ wäre, im Gegenteil. Immer mehr Konzerne und Hersteller, immer mehr Anwendungsgebiete. Und bisher auch keinen wirklichen Konkurrenten, der dagegen schießt.

Dimitri Mayakovsky
2015-02-20, 10:57:55
Ob notwendiges Muss oder nicht es ist eine Sackgasse, da Intel automatisch einen fetten Marktanteil wieder verliert wenn sie heute mit den subsidies aufhoeren wuerden.
Das Ziel ist die Marktanteile zu erobern und dann ohne Subventionen halten oder ausbauen zu können.

Nennt sich Markteintrittsbarriere und ist nix Neues.

Sie machen weder Gewinn von der Tegra Sparte noch haben sie irgend einen anstaendigen Marktanteil bis jetzt errreicht. Ausser Du glaubst dass ein eins komma Bums Markanteil sehenswert ist.
Gewinn läuft jetzt z.B. über das KnowHow in der Maxwell2-GPU. Und bei wieder +50% 2015 nähert man sich langsam der schwarzen Null an.

Nach 7 Generationen koennen wir ja nochmal 7 Generationen warten dass es irgendwo irgendwann im Konsumer Markt irgendwelche Wunder geben wird. Tablet Verkaeufe sind im generellen Abstieg und fuer smartphones hat NV nichts mehr im Angebot.
Interessant sind sicherlich andere Märkte. AndroidTV z.B. mit Gaming-Funktionalität. Ich denke sowas werden wir am 3.3. sehen. Shield für TV oder so.

Es hilft gar nichts wenn man 1000 design wins erreicht wo man fuer jeglichen design win nur 100 Stueck verkauft (frei erfundene Zahlen natuerlich). Es ist ja auch nicht so dass es beim K1 nur so mit desing wins geregnet hat; es waren sogar weniger als wie mit Tegra4.
Völlig richtig, ich widerspreche dir auch null bei deinen Beobachtungen, sondern nur bei deinen Schlüssen und Fazits daraus.

Und man kann durchaus diskutieren, ob der Nexus9 Designwin nicht durchaus 10 komische WiMo-Designs für T4 egalisiert.

Ohne ein anstaendiges Volumen von irgendwo wird daraus nichts werden und hohe Margen koennen sie auch anlegen weil es sich sonst noch schlechter verkaufen wird.
Die Richtung wird eher back to the roots sein: Gaming. Warten wir halt den 3.3. ab :)

Ailuros
2015-02-20, 10:59:00
Ich kann bisher nix im Automotive sehen, das für Tegra negativ wäre, im Gegenteil. Immer mehr Konzerne und Hersteller, immer mehr Anwendungsgebiete. Und bisher auch keinen wirklichen Konkurrenten, der dagegen schießt.

NV hat momentan nur einen deutlichen Vorteil was high end Loesungen betrifft; ergo low volume von einem low volume Markt. Alles was bis jetzt in hohen Volumen verkauft wird im automotive hat durchaus feiste Konkurrenz von anderen grossen Semi Herstellern, wobei manche genauso ihre "Stammkunden" haben unter den Automobil-Herstellern wie auch NVIDIA.

Dimitri Mayakovsky
2015-02-20, 11:08:02
NV hat momentan nur einen deutlichen Vorteil was high end Loesungen betrifft; ergo low volume von einem low volume Markt.
Aber high margin.

Dass NVIDIA nicht in das Popel 20€ Navi will, ist doch klar.

Ailuros
2015-02-20, 11:08:29
Das Ziel ist die Marktanteile zu erobern und dann ohne Subventionen halten oder ausbauen zu können.

Nennt sich Markteintrittsbarriere und ist nix Neues.

Und wo bitte ist der Ausgang dafuer? Im allerbesten Fall fuehrt es den low cost tablet Markt zu einer Stagnation und es kauft keiner mehr nach einer gewissen Zeit.

Gewinn läuft jetzt z.B. über das KnowHow in der Maxwell2-GPU.

Die GPU im X1 ist ein Ableger der desktop GPU und nicht andersrum.

Und bei wieder +50% 2015 nähert man sich langsam der schwarzen Null an.

Steigt der automotive denn so brutal in Volumen Jahr fuer Jahr? :P

Interessant sind sicherlich andere Märkte. AndroidTV z.B. mit Gaming-Funktionalität. Ich denke sowas werden wir am 3.3. sehen. Shield für TV oder so.

Bringt aber leider kein Volumen rein; eine Loesung wie ein X1 duerfte nur in ziemlich teuren smart TV erscheinen.

Völlig richtig, ich widerspreche dir auch null bei deinen Beobachtungen, sondern nur bei deinen Schlüssen und Fazits daraus.

Und man kann durchaus diskutieren, ob der Nexus9 Designwin nicht durchaus 10 komische WiMo-Designs für T4 egalisiert.

Ein jeglicher Nexus design win war nie eine Volumen-orientierte Geschichte sondern das "halo" einen Referenz-design bei Google erreicht zu haben. Unter normalen Umstaenden hilft es fuer weitere design wins weil andere Hersteller es leichter haben bei der Integrierung. Null fuer N9 leider.

Die Richtung wird eher back to the roots sein: Gaming. Warten wir halt den 3.3. ab :)

Oder irgend ein VR wasauchimmer Dingsbums.

Aber high margin.

Dass NVIDIA nicht in das Popel 20€ Navi will, ist doch klar.

Sicher und? Bleibt nach wie vor extrem low volume. Das insgesamte Paket koennte auch locker die $100 ueberschreiten. Das dumme ist eben dass sehr wenige Luxuskarren kaufen koennen und schon gar nicht jedes Jahr ein Neues.

Dimitri Mayakovsky
2015-02-20, 11:13:14
Und wo bitte ist der Ausgang dafuer? Im allerbesten Fall fuehrt es den low cost tablet Markt zu einer Stagnation und es kauft keiner mehr nach einer gewissen Zeit.
Der Ausgang ist das Ende des Markets.

Die GPU im X1 ist ein Ableger der desktop GPU und nicht andersrum.
Wobei in die Architektur viel Erfahrung aus Tegra2-4 geflossen ist. Oder wo kommt die Energieeffizenz sonst her?

Steigt der automotive denn so brutal in Volumen Jahr fuer Jahr? :P
Nö, aber wenn dein Produkt bei immer mehr Herstellern/in immer mehr Modellen eingebaut wird, steigt dein Volumen ja auch ohne Marktwachstum.

Bringt aber leider kein Volumen rein; eine Loesung wie ein X1 duerfte nur in ziemlich teuren smart TV erscheinen.
Dachte eher an eine PS4/XBox One Konkurrenz. Die haben mit ihrer MidRange-Hardware ja ne nette Lücke gelassen in den nächsten Jahren.

Ein jeglicher Nexus design win war nie eine Volumen-orientierte Geschichte sondern das "halo" einen Referenz-design bei Google erreicht zu haben. Unter normalen Umstaenden hilft es fuer weitere design wins weil andere Hersteller es leichter haben bei der Integrierung. Null fuer N9 leider.
Auch die Nexus-Geräte haben Stückzahlen im Millionenbereich.

Oder irgend ein VR wasauchimmer Dingsbums.
Auch möglich.

Sicher und? Bleibt nach wie vor extrem low volume. Das insgesamte Paket koennte auch locker die $100 ueberschreiten. Das dumme ist eben dass sehr wenige Luxuskarren kaufen koennen und schon gar nicht jedes Jahr ein Neues.
Es reicht immerhin für 10% des Gesamtumsatzes. Deiner Behauptung nach verkuaft NVIDIA sonst ja nüchts :P

Mancko
2015-02-20, 11:23:45
Wie gesagt alles ausserhalb Tegra. Siehe oben; Jensen hat in der Zwischenzeit wieder einen grossen Batzen an resources vom Tegra team wo anders verschleusst eben weil man fuer automotive eben andere Geschwindigkeiten brauchen wird und man sich langfristig bei den Volumen nicht so hohe Ausgaben haben darf.

Ja und nun? Die Übergänge sind für mich fließend. Nvidia ist eine Firma mit verschiedenen Themenfeldern die besetzt werden. Ob das Kind nun Tegra oder automotive oder Frau Holle heißt ist doch egal. Und natürlich werden Resourcen hin und her geschoben. Die sind doch kein statisches Unternehmen. Wenn morgen ein Thema hoch kommt in dem sie sich etwas erhoffen werden sie Leute da reinpumpen und anders wo abziehen. Am Ende des Tages ist nur entscheidend wie es dem Gesamtunternehmen geht. Und dem geht es gut und es ist auf Wachstumskurs, was man ja nun vom direkten Konkurrenten der eine ziemlich vergleichbare Ausgangssituation vor Jahren hatte ja nun nicht gerade behaupten kann. Manchmal habe ich den Eindruck du vergleichst Nvidia mit irgendwelchen Multimilliarden Dollar Konzernen ala Samsung, Qualcomm, Intel und Co. Da werden die nie sein und müssen sie auch gar nicht, aber sie sind frech genug die anderen auch mal zu ärgern und das gefällt mir.

Ailuros
2015-02-20, 11:25:01
Der Ausgang ist das Ende des Markets.

Ergo eine Sackgasse :confused:

Wobei in die Architektur viel Erfahrung aus Tegra2-4 geflossen ist. Oder wo kommt die Energieeffizenz sonst her?

Wie ich schon mal erwaehnte: zu glauben dass die NV engineers so bloed gewesen waeren ohne Tegra einen desktop GPU NICHT auf perf/W zu trimmen ist absoluter Duenschiss, ueberhaupt wenn man bedenkt wie wichtig perf/W selbst im HPC Markt heutzutage ist.

Was hatte den die Tegra1 GPU (war ja quasi der gleiche Brei bis zu Tegra4 mit sehr kleinen Aenderungen) dass GK20A oder die heutige X1 GPU geerbt haben koennten genau?


Nö, aber wenn dein Produkt bei immer mehr Herstellern/in immer mehr Modellen eingebaut wird, steigt dein Volumen ja auch ohne Marktwachstum.

Der high end Markt im automotive ist gerade so gross wie er ist.

Dachte eher an eine PS4/XBox One Konkurrenz. Die haben mit ihrer MidRange-Hardware ja ne nette Lücke gelassen in den nächsten Jahren.

Klingt genauso "high volume" oder vielversprechend wie jegliche andere Idee der Vergangenheit. Nenn es OYUA, Shield1 oder sonst was.

Auch die Nexus-Geräte haben Stückzahlen im Millionenbereich.

Bei dem verkorksten N9 launch wohl schwer die ueblichen Mio Zahlen; das originale N7 war ein ziemlich guter Verkaufsschlager und es waren auch nur 10Mio Stueck im ersten Jahr.


Es reicht immerhin für 10% des Gesamtumsatzes. Deiner Behauptung nach verkuaft NVIDIA sonst ja nüchts :P

Ich sagte dass das heutige Tegra Geschaeft in seiner Mehrzahl aus automotive besteht.

Ja und nun? Die Übergänge sind für mich fließend. Nvidia ist eine Firma mit verschiedenen Themenfeldern die besetzt werden. Ob das Kind nun Tegra oder automotive oder Frau Holle heißt ist doch egal. Und natürlich werden Resourcen hin und her geschoben. Die sind doch kein statisches Unternehmen. Wenn morgen ein Thema hoch kommt in dem sie sich etwas erhoffen werden sie Leute da reinpumpen und anders wo abziehen. Am Ende des Tages ist nur entscheidend wie es dem Gesamtunternehmen geht. Und dem geht es gut und es ist auf Wachstumskurs, was man ja nun vom direkten Konkurrenten der eine ziemlich vergleichbare Ausgangssituation vor Jahren hatte ja nun nicht gerade behaupten kann. Manchmal habe ich den Eindruck du vergleichst Nvidia mit irgendwelchen Multimilliarden Dollar Konzernen ala Samsung, Qualcomm, Intel und Co. Da werden die nie sein und müssen sie auch gar nicht, aber sie sind frech genug die anderen auch mal zu ärgern und das gefällt mir.

Es ist NV's idiotisches marketing dass sich mit den anderen Groessen im Markt anlegen will und nicht ich. Sonst so lange sie als SoC Hersteller im Markt fungieren konkurrieren sie gegen Groessen wie QCOM, Mediatek und dergleichen egal ob es passt oder nicht. Ausser Du willst mir einreden dass NV die Tegra Sparte entwickelt hat nur um andere zu nerven.

Sonst zum letzten: wenn es ihnen langfristig etwas bringen wird schoen und gut. Sonst werden ihren grosskotzigen Turnereien nur Spott entgegen kommen.

***edit: um das letzte etwas zu erweitern....NV wusste von Anfang mit welchen Groessen sie sich anlegen werden im ULP SoC Markt und es war eben nicht ein quasi Monopol Geschaeft wie teilweise im standalone GPU Markt. Radeons basieren zwar auf einer technisch tollen Architektur heutzutage aber AMD ist einfach zu bloed sie richtig zu vermarkten, ueberhaupt in Profi-Maerkten.

Dimitri Mayakovsky
2015-02-20, 12:07:29
Ergo eine Sackgasse :confused:
Da alles irgendwann ein Ende haben muss, ist somit defakto jede Firma in einer Sackgasse, egal, was sie verkauft :P

Wie ich schon mal erwaehnte: zu glauben dass die NV engineers so bloed gewesen waeren ohne Tegra einen desktop GPU NICHT auf perf/W zu trimmen ist absoluter Duenschiss, ueberhaupt wenn man bedenkt wie wichtig perf/W selbst im HPC Markt heutzutage ist.
Oh, dass sie Maxwell nicht auch so auf Perf/W hätten trimmen können, habe ich nirgendwo behauptet. Sehr wohl haben sie von den Erfahrungen aus Tegra massiv KnowHow mitgenommen, wie man einen Chip so baut, dass er zwar Stromsparend ist, aber immer noch viel Rechenleistung hat. Und wie man das Powermanagment auslegt ohne Performance zu verlieren blablabla

Ja, Maxwell2 hätte auch ohne Tegra Energieeffizent sein können. Aber eben nicht so stark, wie er es heute ist. 80% zu erhalten ist immer relativ einfach möglich, die weiteren 20%, da wird es lustig.

Was hatte den die Tegra1 GPU (war ja quasi der gleiche Brei bis zu Tegra4 mit sehr kleinen Aenderungen) dass GK20A oder die heutige X1 GPU geerbt haben koennten genau?
Gerade an Tegra1-4 hat man doch gemerkt, wie viele Zugeständnisse man bei einer nicht auf Energieeffizenz getrimmten Archtiktur machen muss. Daher ja auch die längst nicht überragende GPU-Leistung. Mit K1 und Kepler ist man immerhin zu PowerVR aufgeschlossen, mit X1 ist man dran vorbei.

Der high end Markt im automotive ist gerade so gross wie er ist.
Früher war es nur Audi. Dann kam Tesla. Inzwischen noch BMW, Honda, VW, Skoda, was weiß ich noch alle.

Natürlich kann da NVIDIA auch ohne Marktwachstum seinen Umsatz steigern.

Klingt genauso "high volume" oder vielversprechend wie jegliche andere Idee der Vergangenheit. Nenn es OYUA, Shield1 oder sonst was.
Kommt drauf an. Ich würde mir wenn möglich nicht die Verkaufszahlen einer PS4, XBox One oder Wii entgehen lassen.

Bei dem verkorksten N9 launch wohl schwer die ueblichen Mio Zahlen; das originale N7 war ein ziemlich guter Verkaufsschlager und es waren auch nur 10Mio Stueck im ersten Jahr.
Ach da ist dein Denkfehler. "Nur" 10 Millionen Stück. Dann solltest du offensichtlich dein Weltbild etwas überarbeiten, denn man kann auch als große Firma fernab der 100 Millionen Stückzahl überleben, sogar sehr gut.

Ich sagte dass das heutige Tegra Geschaeft in seiner Mehrzahl aus automotive besteht.
Sag ich ja. Auch "extrem low volumne" reicht pro Jahr für fast ne halbe Milliarde Umsatz.

Es ist NV's idiotisches marketing dass sich mit den anderen Groessen im Markt anlegen will und nicht ich.
Mit was anderem Messen lohnt sich nicht, wenn man nicht einfach nur IP einkauft und auf seinen Chip popelt.

Ailuros
2015-02-20, 12:35:43
Da alles irgendwann ein Ende haben muss, ist somit defakto jede Firma in einer Sackgasse, egal, was sie verkauft :P

Nur hat Intel absolut nichts davon am Ende.

Oh, dass sie Maxwell nicht auch so auf Perf/W hätten trimmen können, habe ich nirgendwo behauptet. Sehr wohl haben sie von den Erfahrungen aus Tegra massiv KnowHow mitgenommen, wie man einen Chip so baut, dass er zwar Stromsparend ist, aber immer noch viel Rechenleistung hat. Und wie man das Powermanagment auslegt ohne Performance zu verlieren blablabla

Die erste Tegra GPU war ein von Grund auf design fuer ULP mobile. GK20A und dessen X1 Nachfolger sind lediglich getrimmte Varianten von den GPU chips. Wobei sie eher gelernt haben wie man einen ULP SoC baut welches wohl ein ganz anderes Tier ist wie ein high end GPU chip.

Von dem abgesehen es hat ihnen zwar geholfen bei der desktop Entwicklung, aber sowohl Kepler, Maxwell und auch Pascal und die Generation danach die momentan unter Entwicklung liegt sind und bleiben reine high end desktop designs.

Ja, Maxwell2 hätte auch ohne Tegra Energieeffizent sein können. Aber eben nicht so stark, wie er es heute ist. 80% zu erhalten ist immer relativ einfach möglich, die weiteren 20%, da wird es lustig.

Wenn's auch nur wirklich 20% waeren.

Gerade an Tegra1-4 hat man doch gemerkt, wie viele Zugeständnisse man bei einer nicht auf Energieeffizenz getrimmten Archtiktur machen muss. Daher ja auch die längst nicht überragende GPU-Leistung. Mit K1 und Kepler ist man immerhin zu PowerVR aufgeschlossen, mit X1 ist man dran vorbei.

Bis zu Tegra3 bestand die GPU Entwicklung fuer Tegra aus einem Architekt und einem RTL engineer; dass sie ueberhaupt einen zweiten pixel shader cluster in die T3 GPU schafften ist ein Wunder. Was zum Henker sollen Dir 2 Leute genau anrichten? Die X1 GPU ist in wo genau an der neuesten PowerVR IP vorbei?

Früher war es nur Audi. Dann kam Tesla. Inzwischen noch BMW, Honda, VW, Skoda, was weiß ich noch alle.

Es entstehen keine neuen Hersteller in dem Markt taeglich; irgendwo irgendwann wird ein Endpunkt erreicht.

Natürlich kann da NVIDIA auch ohne Marktwachstum seinen Umsatz steigern.

Wenn sie keine feistere Konkurrenz in Zukunft im automotive erreichen ja (oder eventuell einen neuen Markt bedienen).

Kommt drauf an. Ich würde mir wenn möglich nicht die Verkaufszahlen einer PS4, XBox One oder Wii entgehen lassen.

Du darfst natuerlich optimistich sein; ich darf aber auch hingegen gegen eine weitere moegliche Enttaeuschung warnen.

Ach da ist dein Denkfehler. "Nur" 10 Millionen Stück. Dann solltest du offensichtlich dein Weltbild etwas überarbeiten, denn man kann auch als große Firma fernab der 100 Millionen Stückzahl überleben, sogar sehr gut.

Der Umsatz fuer's Tegra war irgendwo bei 720-730Mio und die Ausgaben irgendwo um die $700Mio. Die Mehrzahl von dem Umsatz kam offensichtlich wieder nicht vom Konsumer Markt, denn sie haben wohl nicht keineswegs keine $70+, 50 oder gar $30 pro Tegra3 bekommen.

Sag ich ja. Auch "extrem low volumne" reicht pro Jahr für fast ne halbe Milliarde Umsatz.

Je mehr Geschaeft desto hoeher die Kosten fuer die Unterstuetzung; ausser man bleibt auf dem break even point stecken und trottelt einfach nur so weiter. Man kann nicht alles haben.

Mit was anderem Messen lohnt sich nicht, wenn man nicht einfach nur IP einkauft und auf seinen Chip popelt.

Sie verkaufen sehr wohl "IP"; dass dahinter einfaches patent trolling steckte ist natuerlich eine neue Erfindung :P

iFanatiker
2015-02-20, 13:08:41
Wenn sie keine feistere Konkurrenz in Zukunft im automotive erreichen ja (oder eventuell einen neuen Markt bedienen).


An sich haben sie aus meiner Sicht sich ganz gutes Konzept im Autmotive Bereich erarbeitet durch die Zusammenarbeit mit der VAG und der Referenzimplementierung des VCMs im MiB2

Vorteil für nVidia ist eben, dass man im Prinzip dort ein ähnliches Geschäftsmodell nun hat wie im Notebook Segment mit den mGPUs.

Früher hätte man als Zulieferer für genau ein Info Modell ein Designwin gewonnen und das war es. Mit der MiB II, dem VCM usw. ist nVidia praktisch der Zulieferer des zentralen SoC inbesondere aber des Teiles mit der Bildausgabe, der entsprechenden Treiber (ist eh allles QNX) usw. für den OEM und Tier 1 Zulieferer. Natürlich kommen dann noch ein ganzes Konglomerat an anderen SoC, DSP usw. zum Einsatz aber nVidia ist immer dabei im zentralen Board. Dazu sollen die Boards eben lange Zeit standardisiert bleiben, es wird jährliche Upgrades geben usw.

Hört sich durchaus nach einen Plan an. Man bringt ebene seine Stärken ein (alles was mit Grafik zu tun) und vermeidet alle Schwächen und auch die direkte Konkurrenz mit spezialisieren Unternehmen für Automobile Elektronik.

Natürlich hat die grüne Fanboy Fraktion ganz falsche Vorstellungen welche Margen so für Zulieferer in der Automobil Branche herrschen....die VAG macht ja dies um die Preis bei den Zulieferern zu drücken...da werden sie den Teufel tun und nVidia pimpern...aber es ist eben durchaus ein sehr logischer Geschäftsbereich für ein Unternehmen welches mit dem Notebook Markt eigentlich ein relativ ähnliches Geschäftsmodell hat wie, was sich jetzt im Automotive Bereich abzeichnet. Größte Gefahr für nVidia dürfte da sein falls sie zu gierig werden. Die OEMs dort sind anderes Kaliber als ihre GK Partner.

Tablet Markt ist halt andere Schiene. Dort hat ja nVidia eben seit ihrem Note 7 ja auch was ähnliches zu realisieren was bisher aber nicht geklappt hat vor allem weil sie viel zu teuer sind für die Chinesen bzgl. ihrer Fees. Aber mal schauen was auch da in Zukunft abgehen wird.

Am 03.03 gehe ich davon aus werden sie irgendwas mit VR, Game Streaming von Grid auf TV inklusiver lokaler Spiele usw. in Kombination zeigen. Aber mal schauen.

Undertaker
2015-02-20, 13:24:43
Nur zur Ergänzung/Korrektur: MIB2 heißt nicht zwangsläufig Nvidia.

Dimitri Mayakovsky
2015-02-20, 13:26:44
Je mehr Geschaeft desto hoeher die Kosten fuer die Unterstuetzung; ausser man bleibt auf dem break even point stecken und trottelt einfach nur so weiter. Man kann nicht alles haben.
Langsam wird dein BWL-Verständnis echt obskur.

Demnach also gar nix machen, dann verdient man am Meisten? Quatsch.

Gerade bei Chip-Entwicklung ist die Chip-Entwicklung selbst das größte Problem. Dazu kommen die VCMs, die dann noch je nach Hersteller qualifiziert werden müssen. Das sind aber Peanuts verglichen mit dem ersten Punkt.

Dimitri Mayakovsky
2015-02-20, 13:43:20
Etwas passender zum Thema:

Snail OBox, Android-Spielkonsole mit Tegra K1 (32bit):

http://www.golem.de/news/obox-chinesische-4k-konsole-soll-auch-in-europa-erscheinen-1502-112499.html

Skysnake
2015-02-20, 14:02:01
Rockchip/Mediatek poppeln fremde IP zusammen und verkaufen die dann für nen Apple und nen Ei. Völlig unterschiedliche Geschäftsideen. NVIDIA wie Intel möchten gerne mit Qualcomm & Co konkurrieren.

Weil ja das "zusammenpopeln" auch so trivial ist... Warum macht nVidia das nicht einfach nebenher mit nem Praktikaten, wenn es doch nur "zusammenpopeln" von IP ist? Da hätten Sie doch gleich mal ihren MArkt ums zichfache gesteigert.... :rolleyes:



Weil?

Wie weil? Hast du jemals wieder was davon gehört? Die haben zich Millionen für ne Firma ausgegeben, und NIE, NIE ist auch nur ein Produkt mit dem KnowHow auf den Markt gekommen. Wenn DAS nicht in den Sand setzen ist, was denn dann bitte?


Wo entwickelt Bosch denn SoCs für Automotive? Im Gegenteil, der Instrumentencluster im aktuellen Audi A3 kommt von Bosch, als Chip läuft innen drin ein Tegra3.

Ich kann bisher nix im Automotive sehen, das für Tegra negativ wäre, im Gegenteil. Immer mehr Konzerne und Hersteller, immer mehr Anwendungsgebiete. Und bisher auch keinen wirklichen Konkurrenten, der dagegen schießt.
Dann schau dir die allgemeine Berichterstattung bitte genauer an. Bosch hat in LasVegas auch ein autonom fahrendes Auto gezeigt, nur nicht so nen shit TamTam drum gemacht wie nVidia...

nVidia hat ne riesen Fresse, aber am Ende kommt abseits vom dGPU Markt nicht wirklich was bei rum.

Undertaker
2015-02-20, 14:26:43
Dann schau dir die allgemeine Berichterstattung bitte genauer an. Bosch hat in LasVegas auch ein autonom fahrendes Auto gezeigt

Das ist aber in der Tat etwas anderes, da Bosch keine eigenen SoCs entwickelt. Nvidia hier mit Bosch zu vergleichen, wäre wie Bosch gegen VW zu stellen – das sind zwei verschiedene paar Schuhe.

Dimitri Mayakovsky
2015-02-20, 14:36:49
Weil ja das "zusammenpopeln" auch so trivial ist... Warum macht nVidia das nicht einfach nebenher mit nem Praktikaten, wenn es doch nur "zusammenpopeln" von IP ist? Da hätten Sie doch gleich mal ihren MArkt ums zichfache gesteigert.... :rolleyes:
Weil NVIDIA ihre eigene GPU-IP hat und weiterentwickeln möchte.

Warum kaufen sie nicht einfach ihre DesktopGPUs bei AMD als IP? :rolleyes:

Wie weil? Hast du jemals wieder was davon gehört? Die haben zich Millionen für ne Firma ausgegeben, und NIE, NIE ist auch nur ein Produkt mit dem KnowHow auf den Markt gekommen. Wenn DAS nicht in den Sand setzen ist, was denn dann bitte?
1. Tegra 4i
2. Werden die Chips noch weiterentwickelt und verkauft:
http://www.nvidia.com/object/i500-cellular-modems-products.html

Schade, dass man hier im Forum nie sachlich über NVIDIA diskutieren kann. Nur immer so halbe Wahrheiten.

Dann schau dir die allgemeine Berichterstattung bitte genauer an. Bosch hat in LasVegas auch ein autonom fahrendes Auto gezeigt, nur nicht so nen shit TamTam drum gemacht wie nVidia...
Schön. Welche Hardware hat Bosch denn genutzt?

nVidia hat ne riesen Fresse, aber am Ende kommt abseits vom dGPU Markt nicht wirklich was bei rum.
Der einzige mit aktuell großer "Fresse" bist du hier. Ailuros bleibt ja wenigstens noch sachlich, auch wenn einige seiner Argumente fraglich sind.

Skysnake
2015-02-20, 14:49:33
Dir ist aber schon klar, dass das Ding keine Zertifizierung für alle Märkte erlangt hat? Das Ding ist so unbrauchbar.

@Underthaker:
Die werden halt DSPs verwenden, statt nem kompletten SOC, oder sonst was. Leider haben Sie ihr Dev-Kit nicht gezeigt, daher kann man nur darüber spekulieren, was Sie im Detail nutzen. Es ist eben nur nicht so, das nVidia da allein auf weiter Flur wäre.

Ansonsten enwickelt Bosch auch genug eigene Chips. Die haben ja wohl auch eine der modernsten MEM Fertigungen, wenn ich das richtig verstanden habe. Ist halt nur ziemlich fern ab von jedwedem Konsumer Zeug, was die da machen.

Dural
2015-02-20, 14:54:37
welches Modem ist den im SHIELD LTE verbaut?

Dimitri Mayakovsky
2015-02-20, 14:56:10
Dir ist aber schon klar, dass das Ding keine Zertifizierung für alle Märkte erlangt hat? Das Ding ist so unbrauchbar.
Es gibt kein Modem, dass alle Märkte in einem Chip hat. Dafür sind die Frequenzen zu unterschiedlich, das kann aktuell noch kein SDR.

Ansonsten:
http://www.forbes.com/sites/patrickmoorhead/2014/02/24/the-state-of-nvidias-lte-modems-at-mobile-world-congress/

Ansonsten enwickelt Bosch auch genug eigene Chips. Die haben ja wohl auch eine der modernsten MEM Fertigungen, wenn ich das richtig verstanden habe. Ist halt nur ziemlich fern ab von jedwedem Konsumer Zeug, was die da machen.
Welchen Automotive SoC hat denn Bosch in Konkurrenz zu Tegra?

Skysnake
2015-02-20, 15:28:53
Soweit ich das in Erinnerung habe, hatte das Sofmodem von nVidia keine Zertifizierung für den nordamerikanischen Markt bekommen. Ist jetzt aber auch >1 Jahr her, daher kann ich es mit Gewissheit nicht sagen. Man hat meines Wissens nach das Ding zumindest danach beerdigt. Es gibt ja auch keine Ankündigungen mehr bzgl Tegras mit integriertem LTE modem. Falls doch, immer her damit.

@Shield.
Das müsste ein Icera 4x0 drin sein. Ich hab auch nochmal nachgeschaut. Ende 2012 Anfang 2013
haben Sie wohl dann doch von AT&T eine Zertifizierung bekommen. Das war mir entgangen. Ich kann mich nur noch an das HickHack erinnern, das man nur im Asiatischen Markt eine Zertifizierung bekommen hat.

Im Prinzip ist es aber auch egal. So lange außer dem T4i kein anderer Chip das verwendet, bringts einem eh nichts. Gibt dazu auch von 2015 eine Meldung http://www.fool.com/investing/general/2015/01/06/nvidia-corporation-so-much-for-icera.aspx

Die Modementwicklung bei nVidia scheint einfach tot zu sein. Das Sach was entwickelt wurde, wird noch verwendet, aber das wars auch. Für mich fällt das schon in die Kategorie: In den Sand gesetzt.

Waren ja immerhin über 350Mio, die Sie für Icera hingelegt haben. Viel ist dafür nicht wirklich rumgekommen.

Dimitri Mayakovsky
2015-02-20, 15:51:19
Soweit ich das in Erinnerung habe, hatte das Sofmodem von nVidia keine Zertifizierung für den nordamerikanischen Markt bekommen. Ist jetzt aber auch >1 Jahr her, daher kann ich es mit Gewissheit nicht sagen. Man hat meines Wissens nach das Ding zumindest danach beerdigt. Es gibt ja auch keine Ankündigungen mehr bzgl Tegras mit integriertem LTE modem. Falls doch, immer her damit.
Sowohl Tegra4i als auch das i500 Modem sind AT&T spezifiziert:

http://fudzilla.com/33101-tegra-4i-and-i500-certified-for-att

http://www.fool.com
Da hätte man schon von der URL her stutzig werden können :P

Die Modementwicklung bei nVidia scheint einfach tot zu sein.
Und das Entwicklerbüro in UK wurde geschlossen und die Leute entlassen? Oder entwickeln die gerade den i600? :eek:

iFanatiker
2015-02-20, 15:52:59
Nur zur Ergänzung/Korrektur: MIB2 heißt nicht zwangsläufig Nvidia.

Jo...danke für die Klärung. Hatte mich nicht richtig ausgedrückt.

Das meinte ich ja, dass es für die Autohersteller um Kostenreduzierung geht und um "Referenzimplementierung". Natürlich wird sich VAG nicht von einen Anbieter abhängig machen und der Sinn dahinter ist eben möglichst hohe Standardisierung um möglichst kostengünstig bei der Auswahl der Lieferanten zu sein und so weiter.

Wenn sich nVidia aber halt nicht "dumm" verhält können sie hier eigentlich ganz gutes Geschäft mitnehmen. In dem Bereich wo sie beim MiB2 eingesetzt werden liegt ja die Stärke von nVidia. Wenn sie nicht zu "gierig" werden bzgl. Stückkosten usw. wird man sie einsetzen.


@Underthaker:
Die werden halt DSPs verwenden, statt nem kompletten SOC, oder sonst was. Leider haben Sie ihr Dev-Kit nicht gezeigt, daher kann man nur darüber spekulieren, was Sie im Detail nutzen. Es ist eben nur nicht so, das nVidia da allein auf weiter Flur wäre.

Ansonsten enwickelt Bosch auch genug eigene Chips. Die haben ja wohl auch eine der modernsten MEM Fertigungen, wenn ich das richtig verstanden habe. Ist halt nur ziemlich fern ab von jedwedem Konsumer Zeug, was die da machen.

Trotzdem kauft eben auch so ein riesiger T1 wie Bosch auch ohne Ende zu. Daneben arbeiten Bosch und nVidia schon in anderen Bereichen zusammen. Zum beispiel bei Video Überwachungssystemen. Überhaupt über solche Kooperationen eben mit T1s kann ja nVidia was reisen.

Ailuros
2015-02-20, 16:07:24
An sich haben sie aus meiner Sicht sich ganz gutes Konzept im Autmotive Bereich erarbeitet durch die Zusammenarbeit mit der VAG und der Referenzimplementierung des VCMs im MiB2

Vorteil für nVidia ist eben, dass man im Prinzip dort ein ähnliches Geschäftsmodell nun hat wie im Notebook Segment mit den mGPUs.

Den insgesamten Vorteil im high end automotive will ich ja auch gar nicht bestreiten. Ausser ich habe aber etwas verpasst haben sie mit keinem Automobil-Hersteller einen exklusiven Vertrag.


Natürlich hat die grüne Fanboy Fraktion ganz falsche Vorstellungen welche Margen so für Zulieferer in der Automobil Branche herrschen....die VAG macht ja dies um die Preis bei den Zulieferern zu drücken...da werden sie den Teufel tun und nVidia pimpern...aber es ist eben durchaus ein sehr logischer Geschäftsbereich für ein Unternehmen welches mit dem Notebook Markt eigentlich ein relativ ähnliches Geschäftsmodell hat wie, was sich jetzt im Automotive Bereich abzeichnet. Größte Gefahr für nVidia dürfte da sein falls sie zu gierig werden. Die OEMs dort sind anderes Kaliber als ihre GK Partner.

Fuer ein auto pilot Modul mit 2 K1 chips und allem drum und dran (sw, support etc) ist es schon eine sehenswerte Summe.

Dural
2015-02-20, 16:07:34
Ist im Shield jetzt ein i500 drin oder nicht?

Ailuros
2015-02-20, 16:12:06
Ist im Shield jetzt ein i500 drin oder nicht?

Nein. ***edit: doch ja, sorry.

hasebaer
2015-02-20, 16:12:51
Dann schau dir die allgemeine Berichterstattung bitte genauer an. Bosch hat in LasVegas auch ein autonom fahrendes Auto gezeigt, nur nicht so nen shit TamTam drum gemacht wie nVidia...

Nvidia hat überhaupt kein autonom fahrendes Auto gezeigt, dass war AUDI.

Und AUDI ist weiter als Bosch, denn einen "Stop and Go" Verkehrshelfer den Bosch dieses Jahr gezeigt hat,
den hatte Audi schon zur CES 2013.

Qa_ZSRj0WM0

Natürlich liefert Nvidia die Hardware hier für und mit Deep Learning auch einen wichtigen Teil der Software,
die nötig ist um teures Radar und relativ langsame, wenn auch billige Ultraschall-Sensoren, für zukünfige autonom fahrende Fahrzeuge, durch günstige und schnelle Kameras zuersetzen.

Und was deinen Eindruck in Sachen TamTam angeht, also da kann man wirklich geteilter Meinung sein.
Auch AUDI redet ihren Einfluss auf Elektronik Firmen in die andere Richtung, nicht klein oder stellt sich da schüchtern in die Ecke und hofft das jemand zufällig bemerkt, was sie alles drauf haben.

zb.
Profitieren Google und Co. auch von Ihnen?

Hudi: Natürlich – zum Beispiel wurde der Nvidia-Grafikchip, den wir verwenden, zusammen mit Audi auf einen deutlich geringeren Stromverbrauch getrimmt. Davon profitieren nun die Nvidia-Kunden vieler anderer Elektronikprodukte. Bei der Smartphone-Integration konnten die IT-Firmen von uns lernen, wie groß Schriften und Symbole sein müssen, damit man sie im Auto problemlos lesen kann. Bei der Integration der Google-Earth-Navigation war es für Google sehr wichtig zu erfahren, wie eine Navigation im Auto bezüglich Stabilität und Zuverlässigkeit ausgelegt sein muss.
- http://www.auto-motor-und-sport.de/news/interview-mit-ricky-hudi-von-audi-elektronik-entwicklungschef-ueber-die-zukunft-9151676.html

Ailuros
2015-02-20, 16:15:35
Bei Grey/Tegra4i hat nebenbei CDMA gefehlt welches wichtig in der US ist.

Skysnake
2015-02-20, 16:22:07
Und im NExus 9 auch nicht oder? Zumindest habe ich nichts dahingehend gefunden, außer das man einen Broadcom Chip verbaut, da ist die Aussage bzgl LTE aber in meinen Augen nicht ganz klar, weil es da eher um WiFi usw geht. Keine Ahnung, ob der jetzt auch LTE kann.

Was neue Produkte und LTE von nVidia aussieht, wäre mir zumindest kein Produkt mehr bekannt.

@Bosch:
Die Grundlagen für vollständig autonomes Fahren sollte aber auch da sein. Immerhin wollen Sie diesen "hochautonomes Fahren Assistenten"( Wer denkt sich eigentlich so ne Grütze aus?) dieses Jahr noch in den Markt bringen. Das ist schon mal eine Kampfansage.

iFanatiker
2015-02-20, 16:22:44
Zu der nVidia + Modem Geschichte:

Das ist einfach eine Fehlinvestion gewesen. Sollte man auch mit grüner Farbbrille nicht abstreiten. Neben Qualcomm, Mediatek, Marvell und Intel ist halt nicht Platz. Und in spezialisierten Bereichen bauen TI usw. selber oder halt so Sachen wie von Altair, die ganz ganz speziell sind.

ein integriertes Modem braucht man auch nicht unbedingt im High End Bereoch von SoCs wie es halt Apple oder auch Samsung zeigen.

Nein.

Überall stand doch beim Shield LTE, der i500 wäre drin.

Nakai
2015-02-20, 16:28:59
http://toshiba.semicon-storage.com/ap-en/product/automotive/image-recognition.html

Toshiba bietet ImageRecognition-Chips an, welche ziemlich da reinschlagen, wo Tegra K1 und X1 im Automotive positioniert sind.

Von der Leistung wird man nicht mit Tegra X1 mithalten, dafür wohl billiger und besser einsetzbar.

hasebaer
2015-02-20, 16:31:36
@Nakai
Was heißt für dich "besser einsetzbar"?

Dimitri Mayakovsky
2015-02-20, 16:38:01
Überall stand doch beim Shield LTE, der i500 wäre drin.
Ja, ist auch ein i500:

http://www.notebookcheck.com/Test-Update-Nvidia-Shield-Tablet-LTE.127075.0.html

@Nakai

Kommt sicherlich drauf an, wie gut dieser Chip zu programmieren ist. Da ist der X1, da fast alles Software ist, natürlich deutlich flexibler.

Ailuros
2015-02-20, 16:49:13
Zu der nVidia + Modem Geschichte:

Das ist einfach eine Fehlinvestion gewesen. Sollte man auch mit grüner Farbbrille nicht abstreiten. Neben Qualcomm, Mediatek, Marvell und Intel ist halt nicht Platz. Und in spezialisierten Bereichen bauen TI usw. selber oder halt so Sachen wie von Altair, die ganz ganz speziell sind.

ein integriertes Modem braucht man auch nicht unbedingt im High End Bereoch von SoCs wie es halt Apple oder auch Samsung zeigen.

NV wollte das modem bzw. Icera fuer Grey bzw. Tegra4i und nicht fuer higher end SoCs wie T4.

Überall stand doch beim Shield LTE, der i500 wäre drin.

Hmmm I stand corrected.

------------------------------------------------------------------------------

Sonst zum Bloedsinn vom Audi Herrn, soll ich ernsthaft glauben dass automotive dass bis gestern noch im Mittelalter lag im Vergleich zu Entwicklungen im ULP SoC Markt dass sie irgend einen wirklich so grossen Einfluss hatten? Es fehlt nur noch dass er uns erzaehlt dass Audi Tegras mit-entwickelt hat oder dass fuer Android oder iOS bei ihnen abgeschrieben wird.

Genauer:

Hudi: Wir arbeiten seit rund zehn Jahren ganz hervorragend mit Google und Apple zusammen. Deshalb waren wir auch die Ersten, die Google Earth, die Google Point-of-Interest-Suche mit Sprachbedienung und auch Google Street View in unsere Autos integriert haben. Natürlich ist die Innovationsgeschwindigkeit von Silicon-Valley-Firmen inspirierend.

Nur habt ihr eben nicht das Rad fuer ULP erfunden. Na ja die anderen machen schon etwas aber wir..... *grunz*

Wir haben unsere Systeme daher beispielsweise so konzipiert, dass sie sich sehr schnell updaten lassen. Grundlegend dabei ist unser modularer Infotainmentbaukasten (MIB). Damit bleiben wir technisch auf der Höhe der Zeit und können die Trends der Consumer-Elektronik frühzeitig ins Auto holen. Der MIB ermöglicht uns Innovationszyklen wie in der Consumer-Elektronik.

Fruehzeitig aber nicht vor dem ULP Markt in echten Geraeten.

Nakai
2015-02-20, 17:04:13
Tegra SOCs sind hald eierlegende Wollmilchsäue. Viel Leistung, für nicht nur Automotive ausgelegt, sondern auch für "einfaches" Consumerkram.

Renesas bietet auch was in der Richtung an:
http://am.renesas.com/applications/automotive/adas/surround/rcar_v2h/index.jsp

NEC auch:
http://www.nec.com/en/global/techrep/journal/g06/n05/pdf/t060507.pdf

Das sind eigene Architekturen, welche schon einige Zeit im Hintergrund entwickelt wurden. Da sprießen einige Chips aus dem Boden.

Die eigentlichen Entwicklungsabteilungen, die solche Systeme anbieten/entwickeln(also die Chips für ihre Cluster verwenden), entwickeln meistens nicht die zugrundeliegenden Algorithmen, das will man auch gar nicht bzw. das kann man gar nicht(;D).

@Nakai
Was heißt für dich "besser einsetzbar"?

Ich denke, die typischen Tegra-SOCs haben nicht soviele IO-Sachen integriert, wie typische Automotive-Chips. CAN-IO ist eigentlich Pflicht. Die Chips sind auch nur für einen Bereich einsetzbar und abgespeckt. Ein Tegra-SOC ist viel fetter und teurer und für bestimmte Einsatzgebiete uninteressant. Man glaubt es nicht, aber der Automotive Bereich hat generell riesige ASIC-Fertigungen, sei es durch FPGA oder eigens-entwickelte Chips. Reinher von der Chipvielfalt gibt es im reinen Embedded-Bereich dramatisch viele Chips. NV will anscheinend einen fetten Chip anbietet für alles, generell will man das aber modular halten, sei es für Redundanzen oder sonstigen sicherheitskritischen und reliability Aspekten.

Kurz, X1 ist zwar geil, aber vollkommen überdimensioniert, IMO. Aber ja, NV wird damit schon seinen Erfolg feiern. Wenn man damit auf die Fresse fliegt, würde es mich nicht wundern.



@Nakai

Kommt sicherlich drauf an, wie gut dieser Chip zu programmieren ist. Da ist der X1, da fast alles Software ist, natürlich deutlich flexibler.

Kommt immer drauf an. Wenn es dedizierte Berechnungseinheiten sind, dann wird das schon deutlich latenzfreier sein, als das was NV mit ihren X1 SOC anbietet. Das kann in diesem Bereich ziemlich wichtig sein. Man kann zwar die eigenen Algorithmen in Software gießen, aber ob das erwünscht ist, ist etwas anderes. Wenn ein Hersteller ein ImageRecognition-Modul anbietet, dann wird er es tunlichst lassen, die Algorithmen anzufassen. Die werden zertifiziert sein und sollten niemals geändert werden. Da ist NVs System gar nicht mal so mies, da die eigentlichen Algorithmen-Entwicklungsabteilungen(ich nenns mal so) die gleiche oder ähnliche Hardware verwenden.

Im Infotainment-Bereich so ziemlich das gleiche. Für 2D-Bargraphen braucht es keinen X1. Für Video-Input-Streams auch nicht(meist über LVDS o.Ä). Für komplexere Darstellungen auch nicht. Es ist schön die Leistung zu haben, sodass Entwickler "freier" sind. Ich durfte mich damals mit dem IMX5/6 für Freiprogrammierbare Infotainment-Cluster rumschlagen, was teilweise nervig war. Nur soviel, damals wurde überlegt, endlich einen Nachfolger zu holen, da der iMX6 "interessant" war. Überlegung R-Car oder Tegra(gabs sonst nix). R-Car war aber der Favorit, einfach, weil NV keine guten Dokumentationen rausgerückt hat.

Was X1/K1 bieten, wird einfach nicht wirklich benötigt.

Ailuros
2015-02-20, 17:06:45
Haarspalterei: Renesas hat doch NEC vor geraumer Zeit aufgesaugt; was verpass ich gerade?

***edit: ROFL eine SGX531 im Renesas? :D

Nakai
2015-02-20, 17:14:33
Haarspalterei: Renesas hat doch NEC vor geraumer Zeit aufgesaugt; was verpass ich gerade?

***edit: ROFL eine SGX531 im Renesas? :D

Dass PowerVR-Dinger in den Renesas SOCs sind, finde ich jetzt nichts besonderes.

Auch Qualcomm bietet einen Automotive SOC an:
https://www.qualcomm.com/products/snapdragon/automotive

Und bzgl Renesas und NEC: Ja stimmt, da war was. ;)
Anscheinend wurde das NEC-System übernommen.

€: Das NEC System ist schon lange outdated. IMAPCAR Nachfolger gibt es bereits.

€2: http://documentation.renesas.com/doc/DocumentServer/U20011EE1V0AN00.pdf
Ein schon sehr interessantes System.^^

Ailuros
2015-02-20, 17:21:34
Dass PowerVR-Dinger in den Renesas SOCs sind, finde ich jetzt nichts besonderes.

Auch Qualcomm bietet einen Automotive SOC an:
https://www.qualcomm.com/products/snapdragon/automotive

Und bzgl Renesas und NEC: Ja stimmt, da war was. ;)
Anscheinend wurde das NEC-System übernommen.

TI hat nichtmal eine ganze GPU in ihrer ADAS Loesung, steht aber ziemlich deutllich im whitepaper dass es fuer low und mid end Loesungen ist. Ich hab's gerade durchgekaemmt. Wie gesagt momentan steht im high end automotive NV alleine da, ausser jemand wie Apple wuerde uns in Zukunft ueberraschen (klingt mir zu weit gegriffen fuer Apple's uebliche Philosophie...).

Von QCOM und sw Unterstuetzung muss ich schon wieder zwinkern (alberner tick LOL :D )....errr nein danke.

Sonst fuer die Mitleser Renesas --> Toyota und TI --> Ford, General Motors.

Dimitri Mayakovsky
2015-02-20, 17:26:17
Sorry, Nakai, aber von den PDFs ist nichts wirklich überzeugend und auch nicht in Schlagreichweite zu den X1-Geschichten.

Nakai
2015-02-20, 17:30:07
Ja, es gibt zu NVs Systemen nichts vergleichbares. Ist eben so, dass ein Consumer-Produkt für den Automotive-Bereich reingeprügelt. Abartig hohe Performance.

TI hat nichtmal eine ganze GPU in ihrer ADAS Loesung, steht aber ziemlich deutllich im whitepaper dass es fuer low und mid end Loesungen ist.

Jap, die bieten auch FPGA-Systeme an.

€:
Sorry, Nakai, aber von den PDFs ist nichts wirklich überzeugend und auch nicht in Schlagreichweite zu den X1-Geschichten.

Ich glaube nicht, dass du das beurteilen kannst, desweiteren war das garantiert nicht meine Intention irgendwas "konkurrenzfähiges" zu X1 zu propagieren.

Wenn man mehr Kameras unterstützen muss, für ein ADAS-System, dann nimmt man einfach mehr von den "kleinen" Controller, baut die auf eine Platine, wo alle Controller über CAN kommunizieren können und schickt die Daten weiter über mediale Schnittstellen zu Weiterverarbeitung.

Dimitri Mayakovsky
2015-02-20, 17:32:15
Naja, die meisten Kunden werden die eh nicht nehmen, der (normalerweise) Dualcore mit 1GHz im Tegra2 lief ja auch nur mit einem Kern und weniger Takt im Audi-Navi.

iFanatiker
2015-02-20, 17:54:37
Tegra SOCs sind hald eierlegende Wollmilchsäue. Viel Leistung, für nicht nur Automotive ausgelegt, sondern auch für "einfaches" Consumerkram.

In der MiB2 Plattform wird der Tegra ja eben eingesetzt für den "Consumer" Kram -> eben "Frontend" Erzeugung für den Fahrer. Deswegen passt er ja als "spezialisierter" Chip genau da hin.

Und natürlich sind Autos mit einer riesigen Vielzahl an DSP, Micro Prozessoren, usw. für die diversesten Anwendungen ausgerüstet.

Undertaker
2015-02-20, 17:57:00
Ich denke, die typischen Tegra-SOCs haben nicht soviele IO-Sachen integriert, wie typische Automotive-Chips. CAN-IO ist eigentlich Pflicht.

CAN ist Pflicht, ebenso wie MOST aber keineswegs ein Bus den der "dicke" SoC selbst bereitstellen muss. Du hast idR eh noch weitere kleine SoCs (Cortex A8 Klasse) auf dem Board, die sich um Sachen wie Radio kümmern und die dann über CAN verfügen. Dazwischen gibt's einen PCIe Interconnect und gut ist. Ein ganz konkretes Beispiel aus der Praxis übrigens.

Nakai
2015-02-20, 18:31:25
In der MiB2 Plattform wird der Tegra ja eben eingesetzt für den "Consumer" Kram -> eben "Frontend" Erzeugung für den Fahrer. Deswegen passt er ja als "spezialisierter" Chip genau da hin.

Und natürlich sind Autos mit einer riesigen Vielzahl an DSP, Micro Prozessoren, usw. für die diversesten Anwendungen ausgerüstet.

Ja, die MiB2-Plattform hat "nur" einen Tegra3 integriert, weil man nicht mehr braucht. Ein Tegra K1 oder X1 ist einfach zu "fett". Reinher von der Performance wäre Tegra3 ~ Renesas R-Car H1 vergleichbar. Für Infotainment-Zeug braucht man nicht soviel Performance, man muss nur "genügend" liefern. Eigentlich ist derzeit alles besser als ein iMX6 und mit dem iMX6 war schon verdammt viel möglich.

CAN ist Pflicht, ebenso wie MOST aber keineswegs ein Bus den der "dicke" SoC selbst bereitstellen muss. Du hast idR eh noch weitere kleine SoCs (Cortex A8 Klasse) auf dem Board, die sich um Sachen wie Radio kümmern und die dann über CAN verfügen. Dazwischen gibt's einen PCIe Interconnect und gut ist. Ein ganz konkretes Beispiel aus der Praxis übrigens.

Das muss kein PCIe Interface sein, kann es natürlich(mittlerweile hält das auch Einzug). CAN ist gut skalierbar und man kann Subcluster ziemlich simpel zusammenschustern. Reine Datenübertragung gibt es zwar über CAN nicht, dafür gibts andere Interfaces(je nachdem was man braucht). Man will eigentlich schon, dass "wichtige" Chips mit CAN kommunizieren bzw. CAN besitzen.

Undertaker
2015-02-20, 19:53:27
Ja, die MiB2-Plattform hat "nur" einen Tegra3 integriert, weil man nicht mehr braucht.

MIB2 ist nicht nur Nvidia/Tegra 3.


Das muss kein PCIe Interface sein, kann es natürlich(mittlerweile hält das auch Einzug). CAN ist gut skalierbar und man kann Subcluster ziemlich simpel zusammenschustern. Reine Datenübertragung gibt es zwar über CAN nicht, dafür gibts andere Interfaces(je nachdem was man braucht). Man will eigentlich schon, dass "wichtige" Chips mit CAN kommunizieren bzw. CAN besitzen.

CAN wird ausschließlich für die Kommunikation der Infotainment-Einheit zu diversen Steuergeräten (bzw. erst einmal dem nächsten Gateway) genutzt, aber niemals für die interne Kommunikation verschiedener SoCs des Systems (wäre viel(!) zu langsam).

Ob CAN über den Haupt-SoC oder einen der eh vorhandenen weiteren SoCs auf dem Board bereitgestellt wird (die alle miteinander verbunden sind, bei aktuellen System wie gesagt per PCIe), ist vollkommen egal.

Nakai
2015-02-20, 20:25:33
MIB2 ist nicht nur Nvidia/Tegra 3.


Kannst du einen Link geben?

CAN wird ausschließlich für die Kommunikation der Infotainment-Einheit zu diversen Steuergeräten (bzw. erst einmal dem nächsten Gateway) genutzt, aber niemals für die interne Kommunikation verschiedener SoCs des Systems (wäre viel(!) zu langsam).


Nein, davon rede ich nicht. CAN kann sehr wohl als Kommunikationsmediums innerhalb eines Clusters dienen. Ist zwar extrem unorthodox, aber zur Leistungssteigerung war damals jedes Mittel recht. Für die interne Kommunikation gewiss nicht. CAN liefert keine Bandbreite und ist daher nur für Informationsaustausch gedacht.

Ob CAN über den Haupt-SoC oder einen der eh vorhandenen weiteren SoCs auf dem Board bereitgestellt wird (die alle miteinander verbunden sind, bei aktuellen System wie gesagt per PCIe), ist vollkommen egal.

Hängt vom Einsatzzweck ab. Normalerweise sind die meisten Chips im Automotive-Bereich prädestiniert sehr viel IO-Kram mitzuschleppen. Jegliche Control-MCUs besitzen normalerweise CAN, LIN, I2C, Flexray, etc. Es ist schon für einen Chip wie einem Tegra X1/K1 einfach nur komisch, soetwas NICHT anzubieten, wenn selbst der mickrigste MCU das schafft.

Undertaker
2015-02-20, 21:43:18
Kannst du einen Link geben?

Wenn das nicht eh offiziell irgendwo steht, nein.

Hängt vom Einsatzzweck ab. Normalerweise sind die meisten Chips im Automotive-Bereich prädestiniert sehr viel IO-Kram mitzuschleppen. Jegliche Control-MCUs besitzen normalerweise CAN, LIN, I2C, Flexray, etc. Es ist schon für einen Chip wie einem Tegra X1/K1 einfach nur komisch, soetwas NICHT anzubieten, wenn selbst der mickrigste MCU das schafft.

Du brauchst diese Busse (allerdings nicht alle davon bei einem Infotainment-System), aber noch einmal: Es ist egal, wo. Wenn der Cortex-A5/A8 für den Radio-Teil CAN mitbringt, braucht dein "dicker" Cortex-A9/A15/... das nicht noch einmal zu haben. Die sind eh vernetzt.

Edit: Das man mehr Leistung nicht braucht, ist auch Quatsch. Die "alten" SoCs sind durch die langen Entwicklungzyklen bedingt. In den nächsten Jahren geht's von aktuell meist <XGA auf >FHD, dazu 3D-Karten usw.

Ailuros
2015-02-21, 09:40:42
Der automotive Markt ist von sich selber aus nicht so "cut throat" wie der Konsumer Markt und ich will auch bezweiflen dass es sich kurzfristig etwas aendern wird. Es ist der Markt selber der extrem lange Lebenszyklen verlangt und nicht anders rum.

Ausser es trampelt jemand wie Apple (halte ich fuer unwahrscheinlich) in den high end automotive Markt wird sich ein jeglicher anderer Beteiligter wohl schwer in die Richtung orientieren wollen. Wenn Renesas z.B. mit einem (Gott hilf) 531 immer noch auskommt (im besten Fall 2 GFLOPs LOL :D) dann wird dessen Nachfolger wohl nicht besonders besser sein als die 6400 im R Car H2 oder wie immer sie das Dingsbums nennen. Wenn ein GK20A mit irgendwo =/>250 GFLOPs im automotive ankommt, spaeter ein X1 auf =/>400 dann ist low end/medium bei bis zu 135 GFLOPs auch nicht ausserhalb der gleichen Logik.

Von da ab ist es wie in allen Maerkten high marging/low volume & low marging/high volume.

Undertaker
2015-02-21, 10:12:25
Es ist eines der Hauptziele der zunehmenden Modularisierung, künftig sehr viel häufigere und kostengünstigere Updates der Infotainment-Hardware zu ermöglichen. Das heißt SoC und Speicher kommen auf eigene Platinen, die Software wird stärker abstrahiert um bei Hardwareupgrades weniger stark angepasst werden zu müssen. Und solche Upgrades sind durch die Erhöhung der Displayanzahl, der Bilddiagonalen und der Komplexität der Darstellung auch bitter nötig.

Btw, Apple können wir in dieser Diskussion vollkommen ausklammern. Ich wüsste von keinen Plänen, das Apple Infotainment-Systeme für andere Hersteller entwicklen will. Hat mit dem Thema eines Apple-Elektroautos nichts zu tun.

Skysnake
2015-02-21, 11:04:35
Dir ist aber schon klar, das bereits heute Probleme mit der Elektronik für die meisten Fahrzeugprobleme verantwortlich sind? Wie soll das erst werden, wenn man da noch weiter modularisiert und massig neue Fehlerquellen schafft? Also ich seh der ganzen Entwicklung ziemlich kritisch gegenüber.

Undertaker
2015-02-21, 11:18:43
Der Entwicklungsaufwand und die Kosten für die Fehlersuche sinken! durch die Modularisierung, nicht andersherum. Ganz einfach, weil du nicht mit jede Generation wieder von Null entwickelst, sondern bewährte Module direkt weiterverwenden kannst. Klar ist natürlich, dass du von Beginn an auf sauber definierte Schnittstellen achten musst.

An einer zunehmenden Modularisierung führt jedenfalls kein Weg vorbei. Wer nicht darauf setzt, hat keine Chance die Anforderungen an Kosten und Entwicklungstempo zu erfüllen. Und als Tier 1 OEM bist du ziemlich blöd, wenn du dein teuer entwickeltes Produkt nicht mit wenigen Modifikationen später auch an andere Hersteller weiterverkaufen kannst.

Nakai
2015-02-21, 13:48:25
Edit: Das man mehr Leistung nicht braucht, ist auch Quatsch. Die "alten" SoCs sind durch die langen Entwicklungzyklen bedingt. In den nächsten Jahren geht's von aktuell meist <XGA auf >FHD, dazu 3D-Karten usw.

Und nochmal, genügend Leistung reicht vollkommen aus. Tegra3 kann bereits FullHD, Tegra4 sogar 3200x2400. Und ja, wenn die Leistung nicht ausreicht, dann muss eine stärkere Hardware genommen werden, erreichbar eben durch den Modul-Aufbau. Man wird keinen K1/X1 für ein Infotainment-System bauen, was auf relativ geringe Auflösung und simplen 3D-Darstellungen setzt.

Der Trend in der Automotive-Industrie sind derzeit eh Freiprogrammierbare Systeme, sei es für Steuerung, Infotainment o.A. Für einen anderen Kunden gibts dann ein anderes Design-Packet und eventuell einen anderen Chip, je nach Anwendungszweck.

Es ist egal, wo. Wenn der Cortex-A5/A8 für den Radio-Teil CAN mitbringt, braucht dein "dicker" Cortex-A9/A15/... das nicht noch einmal zu haben. Die sind eh vernetzt.

Und nochmal: Wenn man einen kleinen MCU extra braucht, um CAN oder sonstigen Feldbus anzubieten, hat das Design des Infotainment-Chips inwieweit den generellen Anforderungen entsprochen?

Der Entwicklungsaufwand und die Kosten für die Fehlersuche sinken! durch die Modularisierung, nicht andersherum. Ganz einfach, weil du nicht mit jede Generation wieder von Null entwickelst, sondern bewährte Module direkt weiterverwenden kannst. Klar ist natürlich, dass du von Beginn an auf sauber definierte Schnittstellen achten musst.

An einer zunehmenden Modularisierung führt jedenfalls kein Weg vorbei. Wer nicht darauf setzt, hat keine Chance die Anforderungen an Kosten und Entwicklungstempo zu erfüllen. Und als Tier 1 OEM bist du ziemlich blöd, wenn du dein teuer entwickeltes Produkt nicht mit wenigen Modifikationen später auch an andere Hersteller weiterverkaufen kannst.


/sign

€:

Ausser es trampelt jemand wie Apple (halte ich fuer unwahrscheinlich) in den high end automotive Markt wird sich ein jeglicher anderer Beteiligter wohl schwer in die Richtung orientieren wollen. Wenn Renesas z.B. mit einem (Gott hilf) 531 immer noch auskommt (im besten Fall 2 GFLOPs LOL :D) dann wird dessen Nachfolger wohl nicht besonders besser sein als die 6400 im R Car H2 oder wie immer sie das Dingsbums nennen.


Das ist generell zu schwach für größere Infotainment Sachen. Aber für einfache Displays vollkommen ausreichend.

Undertaker
2015-02-21, 15:07:05
Und nochmal, genügend Leistung reicht vollkommen aus. Tegra3 kann bereits FullHD, Tegra4 sogar 3200x2400. Und ja, wenn die Leistung nicht ausreicht, dann muss eine stärkere Hardware genommen werden, erreichbar eben durch den Modul-Aufbau. Man wird keinen K1/X1 für ein Infotainment-System bauen, was auf relativ geringe Auflösung und simplen 3D-Darstellungen setzt.

Die beherrschbaren Maximalauflösungen sind nicht das Problem, sondern die Leistungsfähigkeit. Zu Tegra 3 vergleichbare SoCs haben aktuell meist mit Auflösungen um 800x480 zu tun und laufen da schon mehr oder minder an der Kotzgrenze. Wenn du künftig 1920x1080 und 3D-modellierte Innenstädte hast, brauchst du >Faktor 20 an Grafikleistung. Nach oben offen, je nach dem wie detailliert Gebäude dargestellt werden. Wenn das Kombi-Display gleich per LVDS mit am Infotainment-System hängt (MOST-Anbindung + weiterer SoC wäre die andere Lösung), kannst du noch einmal 50% dazu rechnen.

Tegra X1 richtet sich an die Premium-Hersteller, da sind diese Kenndaten in etwa das Zielfenster für die nächste Fahrzeuggeneration.

Und nochmal: Wenn man einen kleinen MCU extra braucht, um CAN oder sonstigen Feldbus anzubieten, hat das Design des Infotainment-Chips inwieweit den generellen Anforderungen entsprochen?

Weitere SoCs hast du durch den modularen Aufbau eh an Bord. Du verkaufst als Hersteller nicht nur Navi-Systeme, sondern auch billige Radios, bessere Audio-Systeme mit Foto-/Video-Funktionalität usw. Denkst du, da wird jedes mal der teure High-End-SoC verbaut? Oder jedes mal die Standard-Features auf einen anderen SoC angepasst? Nö. Den billigen A5/A8 mit CAN für Radio & Co. kannst du immer verbauen und bei besseren Systemen koppelst du per PCIe weitere SoCs für andere Aufgaben dazu.

Edit: Ganz interessant dazu:

https://www.youtube.com/watch?v=DqMLpPb-qr0

Ich wette, dass das Ding ohne MMX-Modul mehr oder weniger dem Standardradio im A3 entspricht. Ggf. mit noch etwas weiter beschnittener Plattform, MOST z.B. wirst du bei einer Low-End-Lösung idR auch nicht brauchen.

mboeller
2015-02-21, 16:03:03
Tegra X1 richtet sich an die Premium-Hersteller, da sind diese Kenndaten in etwa das Zielfenster für die nächste Fahrzeuggeneration.


also für so was? ::
http://www.audi4ever.com/v2/blog/details/25180/Puristisch-sportlich-und-clean--das-neue-Audi-TT-Interieur/index.html

Undertaker
2015-02-21, 16:19:27
Das wäre eher die jetzt aktuelle Generation, die Auflösung liegt ja nur bei 1440x540 Pixel oder sowas. Next-gen ist dann eher sowas:

http://www.heise.de/newsticker/meldung/CES-VW-zeigt-Gestensteuerung-im-Auto-2511297.html

~6 MP die da beschleunigt werden wollen.

Ailuros
2015-02-21, 16:20:08
Es ist eines der Hauptziele der zunehmenden Modularisierung, künftig sehr viel häufigere und kostengünstigere Updates der Infotainment-Hardware zu ermöglichen. Das heißt SoC und Speicher kommen auf eigene Platinen, die Software wird stärker abstrahiert um bei Hardwareupgrades weniger stark angepasst werden zu müssen. Und solche Upgrades sind durch die Erhöhung der Displayanzahl, der Bilddiagonalen und der Komplexität der Darstellung auch bitter nötig.



Dem werden sich alle beteiligten Spieler im Markt dann eventuell anpassen muessen wenn es erst so weit kommt. Es ist ja nicht mehr so dass es endlos dauert heutzutage IP zu integrieren; wenn jetzt eine jeglicher SoC Hersteller zu wenig engineering resources haben sollte sich diesem schnell genug anzupassen selber schuld.

Es aendert aber im Grund wenig an der Tatsache dass NV sich nur am high end interessiert und dieses hat natuerlich (wie auch die ausschliessliche Konzentration auf nur low cost Projekten) sowohl seine Vor- und Nachteile.

---------------------------------------------------------------------------------------------------------------------------------

Sonst zu den Aufloesungen oben: alles ueber 2 Gigatexels Fuellrate (so lange die GPU nicht an Bandbreite verhungert) reicht vollkommen aus selbst fuer >2k Aufloesungen. Fuer Navi-Systeme ist es eher mein Eindruck dass man tatsaechlich sehr effektiv multi-core CPUs einsetzen kann, deshalb hat mich die 4+4 Entscheidung im X1 nicht besonders gewundert nur eher die Entscheidung auf cluster migration zu bleiben. 8 cores kann man sehr wohl gut einsetzen wenn nicht sogar um einige mehr in Zukunft. Mit all den Daten von zich diversen Quellen die simultan bearbeitet werden muessen IMHO keine Ueberraschung.

Nakai
2015-02-21, 16:24:37
Tegra 3 nur für Auflösungen von 480p nutzbar? Selbst der imx6 schafft 1440x540 bei 40~60hz(je nach Target)und war praktisch die Referenz für alle FPKs der ersten Gen und war langsamer als ein Tegra 3. Generelle 2d Darstellung, mit 3d Effekten(HighRes Fahrzeugmodelle >>10k polys + anderes eye candy). Entwickler haben geflucht, wegen mühsamer Optimierung und Limitierung des 2d Busses. Sonstige Multimedia-Features inbegriffen. Für Navi wurde per lvds gestreamt, hinzu kommen Mobile Konnektivität mit externen passiven Modem. Mit CAN und anderem IO Erweiterungen.

Ich weiss nicht mit was ihr entwickelt und wie euer Content aussieht, aber der imx6 war ausreichend für nahezu allen generellen Aufgaben und das System konnte für den Kunden direkt angepasst werden. Leider konnte ich mit der Hardware der Nachfolger Projekten nicht mehr auf Tuchfühlung gehen, da ich aus diesem Bereich ausgeschieden bin.

@ail:
Grundsätzlich läuft im Hintergrund ein Embedded Linux mit echtzeitfähig en Kernel. Mehr Kerne können aber direkt in mehr Funktionalitäten umgelagert werden.

Ailuros
2015-02-21, 16:30:38
Tegra 3 nur für Auflösungen von 480p nutzbar? Selbst der imx6 schafft 1440x540 bei 40~60hz(je nach Target)und war praktisch die Referenz für alle FPKs der ersten Gen und war langsamer als ein Tegra 3. Generelle 2d Darstellung, mit 3d Effekten(HighRes Fahrzeugmodelle >>10k polys + anderes eye candy). Entwickler haben geflucht, wegen mühsamer Optimierung und Limitierung des 2d Busses. Sonstige Multimedia-Features inbegriffen. Für Navi wurde per lvds gestreamt, hinzu kommen Mobile Konnektivität mit externen passiven Modem. Mit CAN und anderem IO Erweiterungen.

Ich weiss nicht mit was ihr entwickelt und wie euer Content aussieht, aber der imx6 war ausreichend für nahezu allen generellen Aufgaben und das System konnte für den Kunden direkt angepasst werden. Leider konnte ich mit der Hardware der Nachfolger Projekten nicht mehr auf Tuchfühlung gehen, da ich aus diesem Bereich ausgeschieden bin.

Bei welcher Frequenz laeuft denn der 4 cluster Vivante im groessten imx6? 800MHz oder um einiges weniger? Vivante hat uebrigens auch ziemlich beschissene compiler und Treiber *hust*

Undertaker
2015-02-21, 16:37:53
Ich habe die GFLOPS nicht genau im Kopf, aber Tegra 3 ist nicht unbedingt ein Überflieger ggü. der GC2000 im IMX6 (welche Variante überhaupt?). Welche Auflösung am Ende drin ist, entscheidet aber natürlich der dargestellte Content. In 6-8 Jahren steckt die Leistung eines X1 in jedem Fernost-Flitzer und die Premium-Klasse ist schon wieder Potenzen weiter – der Illusion, dass Mehrleistung nicht mehr verwertbar ist, gebe ich mich nicht hin.

Ailuros
2015-02-21, 16:51:54
Ich habe die GFLOPS nicht genau im Kopf, aber Tegra 3 ist nicht unbedingt ein Überflieger ggü. der GC2000 im IMX6 (welche Variante überhaupt?).

Kommt alles auf die Frequenzen an, die aber fuer automotive meistens konservativer sind; deshalb fragte ich auch Nakai ob er ueber die Frequenz vom Vivante bescheid weiss.

T3 ist bei sagen wir mal 333MHz ist bei 5.3 GFLOPs PS; GC2000@333MHz (4 Vec4) 32 * 0.416GHz (um 25% hoeherer ALU clock; ja sie haben einen geringen hotclock) bei 13.3 GFLOPs. Rechne einiges ab fuer den schlechten compiler im zweiten Fall und der Unterschied fuer hohe Aufloesungen liegt eber bei den doppelt so vielen TMUs (bei 333MHz in diesem Beispiel) fuer den GC2000.

***edit: im portofolio steht drin was jede Variante hat: http://www.freescale.com/webapp/sps/site/taxonomy.jsp?code=IMX6X_SERIES&cof=0&am=0

kurz alles bis zu 2*A9 CPUs hat eine GPU mit einem einzigen Vec4 cluster und ab 2*A9 dann 4*Vec4 (GC2000).

Welche Auflösung am Ende drin ist, entscheidet aber natürlich der dargestellte Content. In 6-8 Jahren steckt die Leistung eines X1 in jedem Fernost-Flitzer und die Premium-Klasse ist schon wieder Potenzen weiter – der Illusion, dass Mehrleistung nicht mehr verwertbar ist, gebe ich mich nicht hin.

Angenommen bleibt freescale bei Vivante GPU IP haben diese momentan einen GC7000 zur Verfuegung der aus 32 Vec4 clusters besteht (mit doppelt so hohem FP16 throughput in hw). Theoretisch sind's dann bis zu 512 GLOPs FP16 unter 28HPm.

Nakai
2015-02-21, 17:30:42
Such mal nach imx6 sabre lite board, was so ziemlich die Referenz-Plattform für imx6 quad ist. Sollte aber 800mhz GPU clock sein. Tegra 3 war schneller als der imx6. Die GUI bzw Hmi war auf dem Nexus 7 schneller. Die Hmi wurde Crossplatform entwickelt und lief auf Windows, Linux, Unix, Android und blackberry. Auflösung zwischen Nexus 7 2012 und 1440x540 war ungefähr äquivalent. Imx6 war ein 2d Krüppel.

€: bin grad unterwegs, evtl moang genauer

Ailuros
2015-02-21, 21:00:55
800MHz heisst 1000 shader clock und 3.2 GTexels Fuellrate. damit T3 schneller war, hatte die GPU eine >500MHz Frequenz = 1.0 GTexels. Freescale haette die 2D IP von Vivante integrieren sollen. Vivante ist quasi ein ULP mobile Larabee done right. Ein GC2000 ist uebrigens knapp 6mm2@28nm ergo haette ein bisschen mehr ff 2D IP nicht geschadet.

Skysnake
2015-02-22, 18:37:33
Der Entwicklungsaufwand und die Kosten für die Fehlersuche sinken! durch die Modularisierung, nicht andersherum. Ganz einfach, weil du nicht mit jede Generation wieder von Null entwickelst, sondern bewährte Module direkt weiterverwenden kannst. Klar ist natürlich, dass du von Beginn an auf sauber definierte Schnittstellen achten musst.

An einer zunehmenden Modularisierung führt jedenfalls kein Weg vorbei. Wer nicht darauf setzt, hat keine Chance die Anforderungen an Kosten und Entwicklungstempo zu erfüllen. Und als Tier 1 OEM bist du ziemlich blöd, wenn du dein teuer entwickeltes Produkt nicht mit wenigen Modifikationen später auch an andere Hersteller weiterverkaufen kannst.
Prinzipiell schon, aber du willst auch nicht zu feingliedrig werden, denn jeder Chip/Bauteil mehr auf einer Platine erhöht auch wieder die Fehleranfälligkeit, wenn man keine Redundanz einbaut, und es gibt eben heutzutage mehr als genug Soft- und Hardwarefehler. Automotive ist eben nicht larrifahri von den Anforderungen. Nen Chip sowohl bei Minus 40°C als auch bei über 100°C im Zweifel am Laufen zu haben ist gar nicht so einfach, vor allem nicht über zich Jahre.

Wenn ich da also einen Chip mit aller Funktionalität in einem habe kann, dann nehme ich den liebend gern. Ist einfach billiger und weniger fehleranfällig als eine Multichip Lösung. Zumal ja eh das komplette Bauteil getauscht werden muss, sobald es irgend einen Fehler gibt.

robbitop
2015-02-23, 08:55:52
Was ist eigentlich mit Vivante? Im Smartphone/Tabletbereich tauchen die praktisch kaum auf.

Ailuros
2015-02-23, 09:57:10
Was ist eigentlich mit Vivante? Im Smartphone/Tabletbereich tauchen die praktisch kaum auf.

Ich bezweifle dass ausser den TMUs irgendwelche andere fixed function Einheiten in der GPU stecken; trotz allem mit so einem exotischen design und womoeglich maessiger Erfahrung mit compiler bzw. Treiber halten sie insgesamt einen relativ guten Marktanteil. Im Angesicht von Mali T8xx und Series7XT haetten sie schon gestern ihr IP Portofolio erweitern sollen. "Kaum" ist relativ zu dem was wir meistens mitbekommen: http://www.vivantecorp.com/index.php/en/products/powered-by-vivante.html

Skysnake
2015-02-27, 08:16:40
Imagination Technologies PowerVR GT9700 Imagination Technologies PowerVR GT9700 mit 1,2 TFlop/s für 16Bit und 550 GFlop/s für 32 Bit. (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/34388-imagination-technologies-mit-neuer-high-end-gpu-powervr-gt7900.html) Damit ist man sogar schneller als mit X1.

Wenn jetzt noch OpenCL unterstützt wird, dann wäre das eine gute Alternative zum Tegra X1, insbesondere für Automotive, damit wäre man nämlich nicht auf nVidias CUDA angewiesen und könnte damit frei unter den Hardwareanbietern wählen.

Es ist halt eben nicht so, als ob nVidia da irgendwelchen unerreichbaren Bumsfallara produziert.

Ailuros
2015-02-27, 08:31:57
Imagination Technologies PowerVR GT9700 Imagination Technologies PowerVR GT9700 mit 1,2 TFlop/s für 16Bit und 550 GFlop/s für 32 Bit. (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/34388-imagination-technologies-mit-neuer-high-end-gpu-powervr-gt7900.html) Damit ist man sogar schneller als mit X1.

Wenn jetzt noch OpenCL unterstützt wird, dann wäre das eine gute Alternative zum Tegra X1, insbesondere für Automotive, damit wäre man nämlich nicht auf nVidias CUDA angewiesen und könnte damit frei unter den Hardwareanbietern wählen.

Es ist halt eben nicht so, als ob nVidia da irgendwelchen unerreichbaren Bumsfallara produziert.

Es wird schon im IMG thread besprochen; haettest Du auf den ersten slide im link geachtet haettest Du schnell gesehen dass die 7900 zu gross ist fuer automotive. Die 7900 verbraucht nicht nur um einiges mehr als die X1 GPU sondern ist auch um einige Strecken schneller.

IMG's eigenes PR http://blog.imgtec.com/powervr/powervr-gt7900-redefining-performance-efficiency

...und unter den Kommentaren vom Author selber:


I would say you'd need to wait for 10nm (or lower) to consider using this type of GPU in a mobile device.

We offer DirectX support too so a customer could definitely license PowerVR to build a Windows device.

Skysnake
2015-02-27, 10:20:33
Ah, in nem Link (http://blog.imgtec.com/powervr/powervr-series7xt-gpus-push-graphics-and-compute-performance)zu dem Link, steht sogar, das OpenCL 1.2 wirklich unterstützt wird, und auf Bedarf sogar OpenCL 1.2 Das ist mal ziemlich nice.

Wo stehen aber bitte Werte bzgl. Größe und Verbrauch? Sorry, bin wohl blind, aber ich seh niergends dazu irgendwelche Angaben, geschweige denn davon, das man die direkt mit dem Tegra vergleichen könnte. :confused:

PS:
Dann muss ich wohl mal in den anderen Thread reinschauen ;)

Ailuros
2015-02-27, 21:19:29
Ah, in nem Link (http://blog.imgtec.com/powervr/powervr-series7xt-gpus-push-graphics-and-compute-performance)zu dem Link, steht sogar, das OpenCL 1.2 wirklich unterstützt wird, und auf Bedarf sogar OpenCL 1.2 Das ist mal ziemlich nice.

Wo stehen aber bitte Werte bzgl. Größe und Verbrauch? Sorry, bin wohl blind, aber ich seh niergends dazu irgendwelche Angaben, geschweige denn davon, das man die direkt mit dem Tegra vergleichen könnte. :confused:

PS:
Dann muss ich wohl mal in den anderen Thread reinschauen ;)

16 clusters, 32 TMUs und Du fragst mich immer noch ueber den Verbrauch wenn ein IMG Angestellter oben selber bestaetigt dass man so etwas nicht vor 10nm in einem tablet sehen wuerde?

Naitsabes
2015-02-28, 02:18:11
OT.:

Warum wird im Hinblick auf automotive immer auch der Verbrauch betrachtet? Spontan würde ich sagen, dass die paar Watt mehr oder weniger s****ß egal sind und es nur darauf ankommt, ob der chip nicht überhitzt (auch bei Sonnenschein in Dubai o.ä.). Aber bei Fahrzeugen ist man doch vom Platz her nicht so beschränkt wie bei einem Tablet oder gar Smartphone. Also woher dieser Geiz?
Ganz pragmatisch würde ich einfach einen Teil des Luftstroms für die Innenraumbelüftung über den Chip strömen lassen (bzw. wegen der Feuchtigkeit über das Gehäuse des Gerätes).
Also wo liegt der Denkfehler in meinem leider nicht mehr ganz so jugendlichen Leichtsinn?

Ailuros
2015-02-28, 08:04:48
Weil es doch in einem Automobil thermische Begrenzungen gibt ob Du es jetzt glauben willst oder nicht. Man kann eben unter normalen Umstaenden weder quasi einen ganzen PC noch einen server-Raum installieren eben weil es auch dort irgendwo eine obere logische Grenze gibt.

Wenn dem so waere wuerde auch NV gar nichts davon aufhalten SoCs fuer automotive zu entwickeln die dutzende von Watts verbraten. Ganz im Gegenteil wurde vor ein paar Seiten auf eine Interview mit einem Audi Angestellten verlinkt wo er sehr deutlich war dass sie Tegras nicht nur geholften haben den Strom zu reduzieren sondern auch dass sie typisch die SoCs nicht voll wie in Konsumer-Geraeten integrieren.

Die Idee mit der Belueftung ist ja ganz nett, aber sie muesste non stop laufen ueberhaupt wenn der Karren in der Wueste wie Dubai bei 50C in der Sonne steht.

Skysnake
2015-02-28, 10:21:41
16 clusters, 32 TMUs und Du fragst mich immer noch ueber den Verbrauch wenn ein IMG Angestellter oben selber bestaetigt dass man so etwas nicht vor 10nm in einem tablet sehen wuerde?
Zwischen nem Tablet und Automotive gibts aber schon nochmal nen kleinen Unterschied. Vor allem sollte man ja, wenn man auf die gleiche Leistung normiert wie bei Tegra, auch wieder einiges an Strom sparen können, vor allem, wenn man ja aus den Folien her vermuten kann, dass die Leistung nicht nur Peak werte sind, die nur kurzfristig erreichbar sind, sondern deutlich stabieler im Vergleich zu Tegra, also man nicht so stark einbricht, wenn man die Leistungsaufnahme limitiert.

Also Sorry, ich kann dein argument schon qualitativ nachvollziehen, aber für die quantitative SChlussfolgerung fehlt mir jedweder Hinweis.

Also ums nochmal auf den Punkt zu bringen, warum sollte die GPU nicht! in Konkurrenz zu Tegra im Automotive stehen?

Undertaker
2015-02-28, 11:31:17
Also ums nochmal auf den Punkt zu bringen, warum sollte die GPU nicht! in Konkurrenz zu Tegra im Automotive stehen?

Weil die angepeilen Taktraten und der anzunehmende Transistorumfang einen ganz anderen Fertigungsprozess erfordern? Versuche mal, die GPU in einen 20nm Chip mit roundabout 100 mm² zu quetschen und ohne flüssiges Helium zu kühlen... ;)

Wenn du also mit einem Tegra vergleichen willst, dann vielleicht mit der (über)nächsten Generation.

Skysnake
2015-02-28, 12:36:59
Das fußt doch aber auf reiner spekulation, so lange wir nicht wirklich handfestes wissen. Also ich maße mir das mal nicht an, da eine Aussage zu treffen. Aber nehmen wir das mal als gegeben an, und legen das Thema beiseite, bis es dahingehend nähere Infos gibt.

Ailuros
2015-02-28, 12:37:11
Zwischen nem Tablet und Automotive gibts aber schon nochmal nen kleinen Unterschied.

Im automotive wird in der Mehrzahl der Faelle konservativer integriert als in einem ultra thin tablet.

Vor allem sollte man ja, wenn man auf die gleiche Leistung normiert wie bei Tegra, auch wieder einiges an Strom sparen können, vor allem, wenn man ja aus den Folien her vermuten kann, dass die Leistung nicht nur Peak werte sind, die nur kurzfristig erreichbar sind, sondern deutlich stabieler im Vergleich zu Tegra, also man nicht so stark einbricht, wenn man die Leistungsaufnahme limitiert.

Also Sorry, ich kann dein argument schon qualitativ nachvollziehen, aber für die quantitative SChlussfolgerung fehlt mir jedweder Hinweis.

Also ums nochmal auf den Punkt zu bringen, warum sollte die GPU nicht! in Konkurrenz zu Tegra im Automotive stehen?

Um gerade Dich zu nerven :P Spass beiseite ich will mich nicht endlos wiederholen: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10537857&postcount=5660

Nakai (der uebrigens frueher in der Automobil-Industrie taetig war) sagte mehrere Male dass X1 fuer den automotive schon ueberdimensioniert ist und er hat auch nicht Unrecht wenn man weiss wie er es meint. Autos mit dem heutigen K1 sind noch nicht komerziell kaufbar afaik und es wird auch noch dauern ergo stell Dir vor wie lange es fuer X1 (das gerade erst vom Laufband im Maerz kommt) dauern koennte.

Du zumindest wirst wohl verstehen koennen dass die 7900 vergleichbare Leistung zu einer heutigen PC GPU bieten wird; ergo gilt mein Kommentar im obrigen link dass es bullshit ist zu erwarten dass in absehbarer Zeit PC hw in einem Karren problemlos integriert werden kann, ausser Du willst keinen Beifahrersitz haben :P Nach N Prozess-Generationen natuerlich dann schon, aber zu dem Zeitpunkt (10FF oder kleiner) wirst Du eine 7900 auch in einem tablet kaufen koennen.

Skysnake
2015-02-28, 12:53:43
Es redet ja wie gesagt niemand davon, dass das Ding mit vollen Taktraten betrieben wird, genau wie K1/X1 nicht mit vollen Taktraten betrieben werden wird. Für irgendetwas wird man die zwei Tegras aber wohl schon brauchen können, ansonsten hätte es ja wohl auch ein einzelner getan auf dem Modul, dass das autonome Fahren ermöglichen soll. Aber wie schon gesagt, lassen wir es lieber, bis es Infos zur genauen Größe und Verbrauch gibt.

Undertaker
2015-02-28, 13:08:17
Das fußt doch aber auf reiner spekulation, so lange wir nicht wirklich handfestes wissen. Also ich maße mir das mal nicht an, da eine Aussage zu treffen.

Also komm, schau dir mal an wie groß aktuelle Generationen sind und wie viel mehr Einheiten hier verbaut werden. Das passt, darüber brauchen wir nicht einmal ansatzweise zu diskutieren, niemals in einen konkurrenzfähig großen 20nm-SoC und lässt sich ebensowenig bei voller Taktrate betreiben. Woher kommt die plötzliche Euphorie ohne jeglichen Realismus?

Es redet ja wie gesagt niemand davon, dass das Ding mit vollen Taktraten betrieben wird, genau wie K1/X1 nicht mit vollen Taktraten betrieben werden wird.

Sagen wir mal so: Bei Tegra K1 hat Nvidia die eigenen Leistungsversprechen im GFXBench eingehalten. Gilt dies auch bei X1, haben wir einen 20nm-Chip mit ~66fps Manhattan offscreen (Shield K1 hat nach >100 Runs (http://www.anandtech.com/show/8329/revisiting-shield-tablet-gaming-ux-and-battery-life) leicht gethrottelt, also recht stabile Performance – mal schauen ob das so bleibt). Derzeit glaube ich nicht, dass da irgendein 20nm-Konkurrent mithalten kann. Zumal ich vom Gefühl her nicht glaube, das X1 viel größer als 100-120mm² ist, in jedem Fall also z.B. unter typischen Apple-Dimensionen.

Ailuros
2015-02-28, 15:46:57
Es redet ja wie gesagt niemand davon, dass das Ding mit vollen Taktraten betrieben wird, genau wie K1/X1 nicht mit vollen Taktraten betrieben werden wird.

Es redet sehr vieles dagegen und als allererstes die area. Sonst nach Deiner eher merkwuerdigen Logik koennte ein Hersteller eine 7900 schon unter 20SoC in ein ultra thin tablet quetschen bei halber Frequenz oder jemand haette schon gestern einen Tegra K1 bei 500MHz GPU Frequenz in einem smartphone praesentieren sollen.

Für irgendetwas wird man die zwei Tegras aber wohl schon brauchen können, ansonsten hätte es ja wohl auch ein einzelner getan auf dem Modul, dass das autonome Fahren ermöglichen soll. Aber wie schon gesagt, lassen wir es lieber, bis es Infos zur genauen Größe und Verbrauch gibt.

Wenn ich den oeden 7900 PR richtig auslese von IMG dann gibt es diesen nur mit DX11.2. Die 8 cluster GPU im A8X ist zwar ein schlechtes Beispiel weil Apple eine quad cluster GPU spiegelte aber bei "nur" DX10.0 ist aber unter 20SoC um die 38mm2 gross bzw. um die 860 Mio Transistoren. Haette IMG die clusters auf 8 skaliert haetten sie nicht alles verdoppelt aber es macht keinen gigantischen Unterschied; DX11.2 aber dann schon. Nur fuer die ALUs ist der overhead fast bei 50%.

Und rein zufaellig ganz unten unter den Kommentaren:

http://blog.imgtec.com/powervr/powervr-gt7900-redefining-performance-efficiency#disqus_thread

User:

Or maybe you can use in a tablet (or even a handheld console) but with a GPU freq. not quite as aggressive as in the example above (800mhz)... I mean this beast has to fit in mobile devices, otherwise it would be a waste and pointless to put effort into a GPU design that will end up serving such a miniscule market that is android based micro consoles.

Alexandru Voica (IMG):

A lower frequency should help, but it is about size too.

Scheisse ich bin genauso klug/dumm wie ein PR Heini.....hilfe!!! :weg:

Ailuros
2015-02-28, 15:59:30
Sagen wir mal so: Bei Tegra K1 hat Nvidia die eigenen Leistungsversprechen im GFXBench eingehalten. Gilt dies auch bei X1, haben wir einen 20nm-Chip mit ~66fps Manhattan offscreen (Shield K1 hat nach >100 Runs (http://www.anandtech.com/show/8329/revisiting-shield-tablet-gaming-ux-and-battery-life) leicht gethrottelt, also recht stabile Performance – mal schauen ob das so bleibt). Derzeit glaube ich nicht, dass da irgendein 20nm-Konkurrent mithalten kann. Zumal ich vom Gefühl her nicht glaube, das X1 viel größer als 100-120mm² ist, in jedem Fall also z.B. unter typischen Apple-Dimensionen.

Alle Batterie tests sind in T-Rex; wenn Du Manhattan in der Reihe laufen laesst crashed jedes bei 1GB tablet/smartphone nach 4-5 runs und bei 2GB nach 9-10. Die Frequenz fuer TRex ist via DVFS so angepasst dass je nach Fall GK20A wenig bis gar nicht throttelt. Da sich die X1 GPU in TRex offscreen auf ueber 120fps bewegt und der Batterie Test auf onscreen vsynced 60Hz laeuft, will ich ernsthaft hoffen dass bis dahin Gfxbench3.1 schon oeffentlich ist und fuer solche Faelle vorgesort hat. Sonst setzt man fuer T-Rex onscreen eine X1 GPU auf nur 600MHz und kann froehlich N Laufzeit vorgaukeln.

Sonst waere K1 unter 20SoC hauptsaechlich kleiner aber nicht sehenswert stromsparender eben weil der Prozess selber sich nichts besonderes goennt.

***edit: OT ich entschuldige mich ich vergesse stets dass ich als User nicht mehr meine Posts zusammenfuehren kann....

Skysnake
2015-02-28, 16:20:31
Wieso mischst du jetzt Smartphones da mit rein?

K1 ist im automotive, aber nicht in Smartphones. Da müssen wir nicht drüber reden, das die 7900 da auch niemals in Smartphones kommen wird.

Ich rede hier ganz und allein über Einsatzzwecke bei denen K1 oder sogar X1 ohne sonderliche Probleme eingesetzt werden können. Also entweder gar nicht gedrosselt, oder eben nicht übermäßig, so das man noch im sweetspot des Gesamtdesigns hockt. Und genau in diesem Umfeld (also wohl mehr als 10W Verbrauch), seh ich jetzt auf Anhieb keine total offensichtlichen Gründe, warum man da nicht mit nVidia Konkurrieren könnte. Das ist nicht ULP aber eben auch nicht Desktopverbrauch.

Aber wie schon zum dritten mal inzwischen gesagt, fehlen am Ende genaue Verbrauchs und Flächenangaben. Ich habe mich da wohl etwas von dem Graph mit dem sehr niedrigen Leistungsverlust über längere Laufzeiten blenden lassen, weil natürlich nicht impliziert ist, das man das alles beim gleichen Verbrauch betrachtet, also Äpfer-Birnen-Vergleich.

Undertaker
2015-02-28, 16:38:26
Die Frequenz fuer TRex ist via DVFS so angepasst dass je nach Fall GK20A wenig bis gar nicht throttelt.

Laut Anandtech taktet die K1-GPU in T-Rex mit ~750 MHz. Liegt in Manhattan oder anderen Benches mehr Takt an? Generell würde ich allerdings eh bei Vergleichen auf fps-Basis bleiben – ob die resultierende Performance bei 200 oder 1000 MHz erzielt wird, ist schließlich erst einmal egal, vorausgesetzt das die Performance konstant gehalten wird.

Dass X1 bei onscreen-Messungen an das 60Hz-Limit kracht, ist ein wichtiger Hinweis; da wäre es in der Tat schön einen Test zu haben, der auch die volle Leistung abfordert. Zumindest um das Thema Throttling/Sustained Performance abzuklären.
Für Effizienzvergleiche ist es dagegen nur fair, wenn jeder SoC das gleiche Bild bei gleicher fps-Rate rendert und man dann die Laufzeiten vergleicht.

Ailuros
2015-02-28, 18:13:01
Laut Anandtech taktet die K1-GPU in T-Rex mit ~750 MHz. Liegt in Manhattan oder anderen Benches mehr Takt an?

Bis zu 850MHz.

Generell würde ich allerdings eh bei Vergleichen auf fps-Basis bleiben – ob die resultierende Performance bei 200 oder 1000 MHz erzielt wird, ist schließlich erst einmal egal, vorausgesetzt das die Performance konstant gehalten wird.

Und wie zum Henker willst Du eine objektive Konstante erhalten wenn man im Batterie-benchmark (T Rex) niedriger taktet und sonst in Manhattan den Hahn doch voll aufdreht?

Dass X1 bei onscreen-Messungen an das 60Hz-Limit kracht, ist ein wichtiger Hinweis; da wäre es in der Tat schön einen Test zu haben, der auch die volle Leistung abfordert. Zumindest um das Thema Throttling/Sustained Performance abzuklären.

Ich bin zuversichtig dass Kishonti daran gedacht hat. Manhattan koennen sie auf jeden Fall dank dem Speicherproblem leider nicht fuer einen Batterie-test gebrauchen.

Für Effizienzvergleiche ist es dagegen nur fair, wenn jeder SoC das gleiche Bild bei gleicher fps-Rate rendert und man dann die Laufzeiten vergleicht.

Tja ich weiss zwar nicht was sie in Gfxbench3.1 angestellt haben, aber einen benchmark wie Manhattan der die Art zukuenftiger Applikationen quasi prophezeien will koennen sie schwer benutzen. Dafuer braeuchten wir =/>4GB tablets. Und hier kommt dann das Dilemma ob man wirklich einen anspruchsvollen benchmark entwickeln kann der nur mit minimalem Speicher auskommt...(huh?)

Weiss eigentlich jemand warum gfxbench3.0 und/oder Android so bloed ist und direkt nach einem benchmark run nicht den Speicher von Daten lehrt?

Ravenhearth
2015-02-28, 18:31:10
Weiss eigentlich jemand warum gfxbench3.0 und/oder Android so bloed ist und direkt nach einem benchmark run nicht den Speicher von Daten lehrt?

Ich habe zwar keine Antwort darauf, aber es heißt "leert", nicht "lehrt" ;)

Undertaker
2015-02-28, 18:42:32
Bis zu 850MHz.

Und wie zum Henker willst Du eine objektive Konstante erhalten wenn man im Batterie-benchmark (T Rex) niedriger taktet und sonst in Manhattan den Hahn doch voll aufdreht?

Der "bis zu" Wert ist bekannt, nur liegt dieser in irgendeiner Anwendung wirklich mehr oder weniger an? Welche Seite hat mal untersucht, wie hoch der Takt in Manhattan ist? Vielleicht ja auch niedriger als in T-Rex, weil die Auslastung höher ist? :confused: Das sollte man schon erst einmal sauber abklären. Interessanter Randaspekt dabei: Die Performance-Relation zwischen K1 und A8X unterscheidet sich zwischen T-Rex und Manhattan kaum, das spricht nicht für eine eklatante Taktdifferenz.

Ailuros
2015-02-28, 21:50:43
Ich habe zwar keine Antwort darauf, aber es heißt "leert", nicht "lehrt" ;)

Dank Dir.

Der "bis zu" Wert ist bekannt, nur liegt dieser in irgendeiner Anwendung wirklich mehr oder weniger an?

Keine Ahnung; nebenbei haelt das MiPad meines Bekannten etwas ueber 2 Stunden in real racing 3 aus.

Welche Seite hat mal untersucht, wie hoch der Takt in Manhattan ist?

Keine. Wenn GK20A in Fuellratentests bis zu 5917 MTexels erreicht dann ist die Fuellraten-Effizienz wohl schwer so hoch dass man durch 8 auf 740 kommt; da der test zu viel alpha blending benutzt muesste dafuer GK20A mit alpha blending besser abschneiden.

Vielleicht ja auch niedriger als in T-Rex, weil die Auslastung höher ist? :confused: Das sollte man schon erst einmal sauber abklären. Interessanter Randaspekt dabei: Die Performance-Relation zwischen K1 und A8X unterscheidet sich zwischen T-Rex und Manhattan kaum, das spricht nicht für eine eklatante Taktdifferenz.

http://gfxbench.com/compare.jsp?benchmark=gfx30&D1=Apple+iPad+Air+2&os1=iOS&api1=gl&D2=Google+Nexus+9&cols=2

5% Unterschied in Manhattan offscreen
15% Unterschied in T-Rex offscreen
39% Unterschied T-Rex onscreen long term performance

Undertaker
2015-03-01, 00:16:08
Die Anandtech-Taktaufzeichnung von K1 bezog sich auf das Shield Tablet, da sind es 4,1 und 8,6 Prozent. Es ergeben sich also rund 4% potentielle Taktdifferenz, wenn beide Tests beiden SoCs gleich gut schmecken. Widerspricht also eher der These, das die 750 MHz in T-Rex weniger als in anderen Benches wie Manhattan wären.

Für mich bleiben die Taktraten so oder so uninteressant, die aus technischer Sicht spannende Kombination ist Performance/Verbrauch/Prozess/Transistorbudget.

Ailuros
2015-03-01, 07:22:55
Die Anandtech-Taktaufzeichnung von K1 bezog sich auf das Shield Tablet, da sind es 4,1 und 8,6 Prozent. Es ergeben sich also rund 4% potentielle Taktdifferenz, wenn beide Tests beiden SoCs gleich gut schmecken. Widerspricht also eher der These, das die 750 MHz in T-Rex weniger als in anderen Benches wie Manhattan wären.

Nur ist daemlicherweise beim Shield tablet das display um 1" kleiner und laeuft auch auf nur 1080p; bei jeglichem onscreen Vergleich wohl eher problematisch. Ich hab die beiden auch nie wirklich verglichen; ich verfolgte den TRex Verlauf vom K1 periodisch und der onscreen score wurde immer kleiner bis er sich irgendwo festnagelte wo der long term performance score auch am naehesten war.

Aber wenn's schon sein muss:

http://gfxbench.com/compare.jsp?benchmark=gfx30&D1=Apple+iPad+Air+2&os1=iOS&api1=gl&D2=NVIDIA+Shield+tablet&cols=2

Manhattan 4%
T Rex 9%

...wobei das N9 mit einer geschaetzten Batterielaufzeit von 180 Minuten ankommt vs. 109 auf Shield.


Für mich bleiben die Taktraten so oder so uninteressant, die aus technischer Sicht spannende Kombination ist Performance/Verbrauch/Prozess/Transistorbudget.

Die ersten drei sind bekannt das letzte nicht, zumindest nicht oeffentlich :P

Milchmaedchen-Uebung:

http://gfxbench.com/device.jsp?benchmark=gfx30&os=iOS&api=gl&D=Apple%20iPhone%206%20Plus

Bei ~520MHz 19.3 fps; hochgerechnet auf 850MHz bei linearer Skalierung = 31.5 fps. Ich mach Dir 28 fps daraus, addiere aber noch 20% drauf fuer den ES3.1 Treiber = 33+ fps bei einem Furz ueber 400Mio Transistoren; so und jetzt darfst Du weiterraten.

Undertaker
2015-03-01, 09:38:16
Nur ist daemlicherweise beim Shield tablet das display um 1" kleiner und laeuft auch auf nur 1080p; bei jeglichem onscreen Vergleich wohl eher problematisch.

Nochmal, wir reden über T-Rex und Manhattan Offscreen. Da ist die Displayauflösung vollkommen wumpe. Ich wollte letztlich nur einen Anhaltspunkt für deine These sehen, dass die 750 MHz von Shield in T-Rex weniger sind als in Manhattan oder anderen Benches/Spielen.


http://gfxbench.com/device.jsp?benchmark=gfx30&os=iOS&api=gl&D=Apple%20iPhone%206%20Plus

Bei ~520MHz 19.3 fps; hochgerechnet auf 850MHz bei linearer Skalierung = 31.5 fps. Ich mach Dir 28 fps daraus, addiere aber noch 20% drauf fuer den ES3.1 Treiber = 33+ fps bei einem Furz ueber 400Mio Transistoren; so und jetzt darfst Du weiterraten.

1. Wenn Apple die GPU auf 520 MHz auslegt, ist zweifelhaft, ob eine Taktsteigerung von 63 Prozent überhaupt möglich ist.
2. Der A8X hat nicht ohne Grund ein doppelt so breites SI. Das 63 Prozent mehr Rechenleistung bei konstanter Bandbreite 1:1 in höhere fps umgewandelt werden, erscheint doch reichlich optimistisch.
3. 63 Prozent mehr Takt sind schon einmal mindestens 63 Prozent mehr Leistungsaufnahme. Realistisch gesehen kann man für eine derartige Taktsteigerung dazu locker 20 - 30 Prozent Spannungserhöhung addieren. Ergibt bei quadratischer Einberechnung etwa den 2,5-fachen GPU-Verbrauch. Hui, das klingt nicht mehr so effizient, oder?
4. Treiber-Zuwächse können wir dann addieren, wenn sie da sind. Wer weiß, wie sich die Werte der Konkurrenz bis dahin entwickeln?

Machen wir doch mal eine Gegenrechnung bei gleichem Fertigungsprozess: Tegra X1 bei etwa halber GPU-Taktrate gegen A8X. Auch wenn man den Marketing-Folien keinen Glauben schenken mag: Die Wahrscheinlichkeit, das X1 dann eklatant sparsamer ist als A8X, ist ziemlich hoch. Und ebenso hoch schätze ich die Wahrscheinlichkeit dafür ein, das die X1-GPU nicht mehr Fläche als die A8X-GPU einnimmt.

Hoffen wir mal, dass irgendwann ein paar vernünftige X1-Die-Shots durchsickern.

Ailuros
2015-03-01, 12:50:07
1. Wenn Apple die GPU auf 520 MHz auslegt, ist zweifelhaft, ob eine Taktsteigerung von 63 Prozent überhaupt möglich ist.

Apple hat im A8 die Standard G6450 IP integriert. Was heisst ausgelegt genau im Anbetracht dass der A8 ein smartphone SoC ist? Die forgeschlagene Frequenz fuer 28nm und Serie6 war bei 600MHz wobei Apple im A7 die GPU mit nur 450MHz integrierte; 6XT ist um einen Tick weiter und A8@20SoC. Die G6450 im verbraucht uebrigens maximal irgendwo um die 1.5W wenn ich mich nicht irre. A8X bei ~3W.

2. Der A8X hat nicht ohne Grund ein doppelt so breites SI. Das 63 Prozent mehr Rechenleistung bei konstanter Bandbreite 1:1 in höhere fps umgewandelt werden, erscheint doch reichlich optimistisch.

Bei einer Hypothese wo man zur Schnappsidee kommt zu viel Stromverbrauch in zu hohe Frequenzen verschwendet fuer einen tablet SoC ausgehend von einem smartphone SoC, wird man wohl genug Grips haben die tablet Variante auch mit mehr Bandbreite auszustatten, welches aber SoC Bandbreite ist die man so oder so braucht und wohl gar nichts mit den Transistoren, dem Verbrauch u.a. der GPU selber zu tun hat.

3. 63 Prozent mehr Takt sind schon einmal mindestens 63 Prozent mehr Leistungsaufnahme. Realistisch gesehen kann man für eine derartige Taktsteigerung dazu locker 20 - 30 Prozent Spannungserhöhung addieren. Ergibt bei quadratischer Einberechnung etwa den 2,5-fachen GPU-Verbrauch. Hui, das klingt nicht mehr so effizient, oder?

Hat Dir jemand erzaehlt dass GK20A effizienter ist als die A8X GPU? Du bist derjenige der womoeglich darueber ueberzeugt ist. Apple ist wohl alles andere als so bloed als wie oben erwaehnt zu viel Stromverbrauch in zu hohe Frequenzen zu verschwenden.

Der Vergleich war pure Absicht eben weil GK20A "nur" 8 TMUs hat, ebenso wie G6450. Bei dem relativ grossen Platz den die TMUs als Einheiten generell einnehmen bin ich nicht so bloed es mit einem 16 TMU design zu vergleichen.

4. Treiber-Zuwächse können wir dann addieren, wenn sie da sind. Wer weiß, wie sich die Werte der Konkurrenz bis dahin entwickeln?

Sie sind da auf mehreren Platformen unter Android. Ausser es gibt einen Tegra fuer iOS den ich direkter mit Apple's SoCs vergleichen kann. Frag Arun er ist fuer die Optimierungen verantwortlich. Oder muss ich Dir links aus der Kishonti Datenbank auch fuer den Dreck wiederlegen?

***edit:

Intel Z3580, OGL_ES3.1
http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Dell+Venue+8+7840&testgroup=info
13.7 fps Manhattan offscreen (von 11.3 fps ES3.0)

Allwinner Ultra A80T, OGL_ES3.1
http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Onda+V989+Core8&testgroup=info
8.4 fps Manhattan offscreen (von 6.9 fps ES3.0)

u.a.

Machen wir doch mal eine Gegenrechnung bei gleichem Fertigungsprozess: Tegra X1 bei etwa halber GPU-Taktrate gegen A8X. Auch wenn man den Marketing-Folien keinen Glauben schenken mag: Die Wahrscheinlichkeit, das X1 dann eklatant sparsamer ist als A8X, ist ziemlich hoch. Und ebenso hoch schätze ich die Wahrscheinlichkeit dafür ein, das die X1-GPU nicht mehr Fläche als die A8X-GPU einnimmt.

Weil die A8X blindlings gespiegelt wurde und es gerade so passt? Selbst dann stehst Du ohnehin auf dem falschen Bein. Die A8 GPU ist bei 19mm2 bei maessigerer Packdichte im Vergleich zum A8X wo die Packdichte noch hoeher ist und die GPU wiegt dort 38mm2, ergo noch mehr Mio Transistoren/mm2 und noch 2mm2 mehr als das doppelte weil man die gespiegelte IP auch irgendwie verbinden muss.

1. Waere es ein waschreiner 8 cluster design wuerde er nicht nur um einiges weniger Platz einnehmen (bei cluster skalierung skaliert man eben NICHT alles) sondern waere auch die Leistung etwas hoeher.

2. Die X1 GPU ist zumindest auf DX11.3 (zumindest); dieses mit DX10.0 zu vergleichen sollte bei einfacher Logik eines selbst gering erfahrenen Users einleuchten dass es irgendwo hapert.

Fuer die Mitleser: http://international.download.nvidia.com/pdf/tegra/Tegra-X1-whitepaper-v1.0.pdf

Offensichtliche Konzentration auf automotive und der marketing bums geht natuerlich so weit fast 3x Mal so viel FLOPs anzugeben fuer X1 vs. K1 GPUs nur dass FP16 vs. FP32 verglichen wird...

Auf technischem Niveau und weil es bis jetzt noch keiner hier erwaehnt hat:

GK20A/K1 = 48 FLOPs FP32/TMU
X1 GPU = 32 FLOPs FP32 /TMU (gleich wie auf Adreno, Mali, Rogue und Vivante)


Hoffen wir mal, dass irgendwann ein paar vernünftige X1-Die-Shots durchsickern.

Wo sind denn die die shots vom 32bit K1 selbst nach all den Monaten von dem ramtamtam seitens NV darueber? Nochmal sie haetten einen sehenswerten Vorteil und wuerden via marketing nicht darueber von allen Daechern schreien? Yeahrightsureok...Du darfst in der Zwischenzeit versuchen weiterzuraten wieviel Transistoren genau GK20A im K1 hat, denn die area ohne Packdichte ist wieder die Haelfte der Geschichte. K1 ist wie bekannt (aber nicht von NV sondern von Rys@B3D) bei 121mm2@28HPm mit einer gesund hohen Packdichte. Wie gross die GPU jetzt von den 121mm2 sind ueberlass ich Deiner Phantasie, denn wenn Du NV's tolle marketing-bumsfallera-"dieshots" Glauben schenken wuerdest waere die GPU verdammt gross.

GK107 ist uebrigens bei 1.3Mrd. Transistoren, GK20A hat grob halb so viel Einheiten (ausser den ROPs) + ASTC welches alles andere als billig ist.
https://forum.beyond3d.com/posts/1807076/
Bon apetit.

Undertaker
2015-03-01, 13:05:21
Apple hat im A8 die Standard G6450 IP integriert. Was heisst ausgelegt genau im Anbetracht dass der A8 ein smartphone SoC ist?

Packdichte, Spannungsversorgung, maximale Ströme etc. Such dir was aus. Es ist ziemlich zweifelhaft, das deine 850 MHz Gedankenspiel so einfach funktionieren würde.


Bei einer Hypothese wo man zur Schnappsidee kommt zu viel Stromverbrauch in zu hohe Frequenzen verschwendet fuer einen tablet SoC ausgehend von einem smartphone SoC, wird man wohl genug Grips haben die tablet Variante auch mit mehr Bandbreite auszustatten, welches aber SoC Bandbreite ist die man so oder so braucht und wohl gar nichts mit den Transistoren, dem Verbrauch u.a. der GPU selber zu tun hat.

Ähm, natürlich hat der Bandbreitenbedarf hauptsächlich mit der GPU zu tun. Ein A8 würde bei reiner GPU-Frequenzsteigerung eben nicht so schön skalieren, wo du dir das ausmalst. Oder anders gesagt: Für x Prozent mehr Leistung brauchst du >x Prozent höhere Frequenzen. Und das ">" mal lieber nicht zu defensiv kalkulieren.


Hat Dir jemand erzaehlt dass GK20A effizienter ist als die A8X GPU? Du bist derjenige der womoeglich darueber ueberzeugt ist. Apple ist wohl alles andere als so bloed als wie oben erwaehnt zu viel Stromverbrauch in zu hohe Frequenzen zu verschwenden.

Das Thema hatten wir schon. Nein, ich denke nicht das K1 eine effizientere GPU hat als A8X, definitiv nicht. Aber ich betrachte A8X unter Beachtung von Prozesstechnik und Transistorbudget/Die Size, und da ist der Vorsprung kein Kunststück mehr. Und deshalb interessiert mich auch, wie gut die A8X-GPU noch gegen einen mutmaßlich kleineren, prozesstechnisch vergleichbaren X1 dasteht.


Weil die A8X blindlings gespiegelt wurde und es gerade so passt? Selbst dann stehst Du ohnehin auf dem falschen Bein. Die A8 GPU ist bei 19mm2 bei maessigerer Packdichte im Vergleich zum A8X wo die Packdichte noch hoeher ist und die GPU wiegt dort 38mm2, ergo noch mehr Mio Transistoren/mm2 und noch 2mm2 mehr als das doppelte weil man die gespiegelte IP auch irgendwie verbinden muss.

Du beschreibst exakt was ich die ganze Zeit sage: A8X hat ein massivst höheres Transistorbudget plus den moderneren Prozess. Hier kommt erst X1 auf ein annähernd vergleichbares Niveau, und genau dann wird ein qualitativer Vergleich der GPU-IP richtig spannend. :)

2. Die X1 GPU ist zumindest auf DX11.x; dieses mit DX10.0 zu vergleichen sollte bei einfacher Logik eines selbst gering erfahrenen Users einleuchten dass es irgendwo hapert.

Jetzt argumentierst du ja sogar pro-Tegra, denn DX11-Support trotz des begrenzten Transistorbudgets ist ja umso höher zu bewerten. :)

Ailuros
2015-03-01, 13:44:55
Packdichte, Spannungsversorgung, maximale Ströme etc. Such dir was aus. Es ist ziemlich zweifelhaft, das deine 850 MHz Gedankenspiel so einfach funktionieren würde.

Wenn einem Stromverbrauch so egal ist wie beim K1 dann ist es auch kein Problem; es gibt guten Grund warum es ab K1 nicht mehr mit smartphones geht schon von den notwendigen Transistoren her welches auch direkt wieder den Bogen zu Skynake's Frage macht warum ein 7900 zu viel fuer automotive heute waere. Manche Konstanten gelten eben NICHT nur wenn es einem gerade so passt.


Ähm, natürlich hat der Bandbreitenbedarf hauptsächlich mit der GPU zu tun.

Etwas vorsichtiger lesen: mehr Bandbreite fuer den SoC heisst nicht mehr Transistoren fuer die GPU. Nur so war es gemeint.

Ein A8 würde bei reiner GPU-Frequenzsteigerung eben nicht so schön skalieren, wo du dir das ausmalst. Oder anders gesagt: Für x Prozent mehr Leistung brauchst du >x Prozent höhere Frequenzen. Und das ">" mal lieber nicht zu defensiv kalkulieren.

Wobei 27 fps im Vergleich zur perfekten 31.5 fps Skalierung schon um einiges konservativer sind. Ich bin mit Absicht um 15% runter eben weil ich weiss wie sich die Tiere in Echtzeit verhalten. Ich kann einen Rogue von 533MHz locker auf 780MHz hochjagen und verliere halt dann 1/3 der Batterielaufzeit und bin immer noch auf ueber 2 Stunden Batterie-Laufzeit. Es faengt aber dann doch irgendwann an zu throtteln und die Rueckseite wird dann auch bemerkbar warm wie rein zufaellig auch ein MiPad.

http://blog.imgtec.com/wp-content/uploads/2015/02/PowerVR-Rogue-GPU-vs-competition-long-term-performance.png

Du darfst malen nach Farben ;)

Das Thema hatten wir schon. Nein, ich denke nicht das K1 eine effizientere GPU hat als A8X, definitiv nicht. Aber ich betrachte A8X unter Beachtung von Prozesstechnik und Transistorbudget/Die Size, und da ist der Vorsprung kein Kunststück mehr. Und deshalb interessiert mich auch, wie gut die A8X-GPU noch gegen einen mutmaßlich kleineren, prozesstechnisch vergleichbaren X1 dasteht.

Die A8X GPU und GK20A sind die ersten GPUs von Apple und NV die ASTC integriert haben und u.a. aus diesem zaehle ich sie auch zur gleichen "Generation". Jeglichen "Vorsprung" hat sich Apple selber eingebrockt und es waren ihnen die Kosten offensichtlich auch egal.

Du beschreibst exakt was ich die ganze Zeit sage: A8X hat ein massivst höheres Transistorbudget plus den moderneren Prozess. Hier kommt erst X1 auf ein annähernd vergleichbares Niveau, und genau dann wird ein qualitativer Vergleich der GPU-IP richtig spannend. :)

Genau deswegen hab ich auch mit vollem Absicht den G6450 Vergleich an Land gezogen, eben weil dieser verdammt viel Luftraum bis zum GK20A Verbrauch hat und weil er technischer vergleichbarer ist.

Jetzt argumentierst du ja sogar pro-Tegra, denn DX11-Support trotz des begrenzten Transistorbudgets ist ja umso höher zu bewerten. :)

Ich erwaehne schon seit Jahren dass ein DX10 zu DX11.x Vergleich einen feuchten Dreck wert ist und das aendert sich nirgends. G6450 ist im A8 um die 400+Mio Transistoren schwer; wenn Du jetzt glaubst dass GK20A bei so wenig liegt "be my guest". Und genau hier fliegt erstmal das Transistoren-Argument zum Fenster raus fuer Tegra GPUs ebenso wie der des Stromverbrauchs und am aller-wichtigsten sustained performance.

Coda
2015-03-01, 14:04:19
Warum meinst du dass ASTC so teuer ist?

Sehr schwer abzuschätzen wieviel die Texture-Decompression überhaupt in den TMUs ausmacht.

Ailuros
2015-03-01, 14:44:26
Warum meinst du dass ASTC so teuer ist?

Sehr schwer abzuschätzen wieviel die Texture-Decompression überhaupt in den TMUs ausmacht.

Frag Rys privat, er hat es selber erwaehnt. NV wollte es auch in GM20x integrieren afaik, aber man verzichtete darauf. Mag sein dass sie es momentan nicht als notwendig empfinden, aber die These fuer zu viel die area (relativ stets) macht wenn man von 28nm so begrenzt ist schon Sinn. Rys murmelt irgend etwas ueber zu viel SRAM die man fuer ASTC mit HDR braucht.

Im ULP Markt ist die Unterstuetzung heute schon quasi ein Muss.

Coda
2015-03-01, 14:48:52
Aus bestimmten Gründen würde ich eigentlich annehmen, dass NVIDIA zumindest das ASTC-LDR-Profil in Maxwell durchgängig implementiert.

Ailuros
2015-03-01, 15:00:09
Aus bestimmten Gründen würde ich eigentlich annehmen, dass NVIDIA zumindest das ASTC-LDR-Profil in Maxwell durchgängig implementiert.

Ich wuesste nicht warum sie HDR weggelassen haetten aber unmoeglich ist es nicht. Lange Geschichte kurz: GM107 ist bei 5 clusters & DX11.0 bei 1.87Mrd. Transistoren. Die X1 GPU mit 2 clusters aber 16 ROPs +DX11.3 +ASTC wird wohl NICHT so klein sein wie sich manche vorstellen. Kurz IMHO rund um die 1Mrd. Transistoren schon.

Coda
2015-03-01, 15:19:53
Meinst du den ganzen SoC?

Ailuros
2015-03-01, 15:21:24
Nein die GPU.

Coda
2015-03-01, 15:26:21
GM204 / 2048 SPs hat 5.2 Mrd. Transistoren mit acht fetten GDDR5-Speichercontrollern.

Du willst mir erzählen, dass NVIDIA für eine 256 SP GPU ohne Speichercontroller eine Millarde braucht? Und das obwohl sie sich mit einem Cluster die kompletten Cross-Bar-Geschichte sparen können?

Sorry, aber das klingt nach einem Märchen.

Ailuros
2015-03-01, 16:57:48
Dann wag doch selber eine Schaetzung; wuerden Tranistoren linear mit der Anzahl der Einheiten steigen waere die Geschichte einfach. Hingegen hat ein 206 mit halben Einheiten 2.94 gegen 5.2 Mrd. Transistoren im GM204; den Unterschied macht Dir ein MC auch nicht mehr heil.

reaperrr
2015-03-01, 18:49:50
Dann wag doch selber eine Schaetzung; wuerden Tranistoren linear mit der Anzahl der Einheiten steigen waere die Geschichte einfach. Hingegen hat ein 206 mit halben Einheiten 2.95 gegen 5.2 Mrd. Transistoren im GM204; den Unterschied macht Dir ein MC auch nicht mehr heil.
Nach Adam Riese müsste der Anteil an fixen, bei jeder Maxwell-GPU mindestens benötigten Transistoren also ~700 Millionen betragen. Das wäre tatsächlich nicht wenig.

Edith: Wenn 8 SMM, 32 ROP und 128 bit SI etwa 2,25 Mrd. Transistoren belegen, sollte 1/4 davon bei ca. 550 liegen. Natürlich ist da noch der Anteil vom SI enthalten und die Größe des L2$ beim Tegra kennen wir auch noch nicht, aber so bei 1,1 Mrd. Transistoren +/- 100 Mio. könnte die GPU demnach schon landen.

Ailuros
2015-03-01, 19:13:24
GM206 ist bei 2.94Mrd. Transistoren. Ueber 1Mrd. wuerde mich ueberaschen ich tippe etwas unter 1, werde aber bald eine Antwort hoffentlich dafuer bekommen.

Coda
2015-03-01, 20:31:05
GM206 ist bei 2.94Mrd. Transistoren. Ueber 1Mrd. wuerde mich ueberaschen ich tippe etwas unter 1, werde aber bald eine Antwort hoffentlich dafuer bekommen.
Hast Recht, irgendwie hatte ich das vorhin nicht bedacht. Dann könnten knapp 1 Mrd. tatsächlich hinkommen.

Dural
2015-03-02, 10:57:50
wobei noch offen ist wie GM206 jetzt wirklich genau aussieht, 3 Milliarden Transistoren und 192Bit auf allen 960 PCB sprechen für mehr als nur die 1024/128Bit der 960.

Ailuros
2015-03-02, 11:13:43
wobei noch offen ist wie GM206 jetzt wirklich genau aussieht, 3 Milliarden Transistoren und 192Bit auf allen 960 PCB sprechen für mehr als nur die 1024/128Bit der 960.

OT und Bloedsinn zur gleichen Zeit; GM206 ist das was angegeben wurde darueber war NVIDIA ziemlich deutlich.

dildo4u
2015-03-04, 11:18:37
Crysis 3 auf X1


http://youtu.be/LzHRWb6PPzs

Ziemlich krass das Game braucht ne ja ne relativ starke CPU.Dachte bei Games wie Trine 2 ist erst mal die Grenze bis die Arm Core's deutlich stärker werden.

http://i.imgur.com/gHuvpCD.png

Ailuros
2015-03-04, 17:46:11
Als Vorzeige-techdemo sicher ideal; sieht sonst alles anderes als "fluessig" aus und es bewegt sich auch sonst nichts in der Umgebung.

Unicous
2015-03-04, 17:49:41
Das Meme heißt ja auch: "Can it run Crysis?" nicht "Am I able to play Crysis fluidly?"

:wink:

dildo4u
2015-03-05, 00:42:24
Pcper Shield Konsole Benches.

I was able to run a handful of benchmarks on the SHIELD and Tegra X1 processor and the results are dominantly in favor of NVIDIA's new baby.

3DMark Ice Storm Unlimited
Overall Score
SHIELD (Tegra X1): 42,406 (+42%)
SHIELD Tablet (Tegra K1): 29,668
iPad Air 2 (Apple A8X): 21,541
Graphics Score
SHIELD (Tegra X1): 56,179 (+47%)
SHIELD Tablet (Tegra K1): 37,983
iPad Air 2 (Apple A8X): 31,419
Physics Score
SHIELD (Tegra X1): 22,823 (+15%)
SHIELD Tablet (Tegra K1): 19,837
iPad Air 2 (Apple A8X): 10,256


http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-SHIELD-Set-top-Powered-Tegra-X1-Specs-and-Impressions

Im Bereich einer GT630m,X1 wird dort vermutlich CPU limitiert sein.Die Notebooks CPU's + GT630m hat ne deutlich höhere Gesamt Score.

http://images.anandtech.com/graphs/graph6726/52943.png



http://www.anandtech.com/show/6726/3dmark-for-windows-launches-we-test-it-with-various-laptops/2

Ailuros
2015-03-05, 06:45:10
Wirst Du fuer die Werbung bezahlt oder was? Den gleichen Kaese fast gleichzeitig in zwei verschiedenen threads ist nicht unbedingt normal. :rolleyes:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10543012&postcount=184

Sonst leistet die 750 im Gfxbench3.0 152,4 fps unter windows OpenGL

http://gfxbench.com/device.jsp?benchmark=gfx31&os=Windows&api=gl&D=NVIDIA%20GeForce%20GTX%20750

Waehrend die X1 GPU bei 63,4 fps unter Android liegt:

http://gfxbench.com/device.jsp?benchmark=gfx31&os=Android&api=gl&D=NVIDIA%20Tegra%20X1%20Reference%20Platform%20%28development%20board%29

Bei der X1 GPU hilft natuerlich auch die Tatsache dass diese fuer FP16 unter Bedingungen zwei Mal so viele OPs erreichen kann pro ALU im Gegensatz zu desktop GPUs.

Ravenhearth
2015-03-05, 16:06:48
In wie vielen Geräten wurde der Tegra K1 eigentlich verbaut? Vier (MiPad, Shield Tablet, Nexus 9, Acer Chromebook)?

Ailuros
2015-03-05, 16:14:05
In wie vielen Geräten wurde der Tegra K1 eigentlich verbaut? Vier (MiPad, Shield Tablet, Nexus 9, Acer Chromebook)?

HP Chromebook fehlt noch: http://www.nvidia.com/object/tegra-phones-tablets.html

deekey777
2015-03-08, 16:12:18
Ich sehe gerade, dass Spiele wie Crysis 3, RE5, HL2 Ep. 2, Doom 3 BFG nur für die Konsole zu erscheinen scheinen, nicht aber für das Tablet: http://shield.nvidia.com/games/android

Und exklusive Spiele für Tegra wie HL2, Episode 1 oder Portal haben keine Touchsteuerung.

Ailuros
2015-03-18, 12:53:55
http://www.fudzilla.com/news/graphics/37293-meet-nvidia-s-drive-px-self-driving-car-computer

Drive PX Kit fuer $10000.

Hübie
2015-03-18, 13:10:59
Plötzlich wird Titan X zum Schnäppchen X-D

Timbaloo
2015-03-18, 13:11:00
http://www.fudzilla.com/news/graphics/37293-meet-nvidia-s-drive-px-self-driving-car-computer

Drive PX Kit fuer $10000.
Die Kommentare... :facepalm:

Ailuros
2015-03-18, 13:20:19
Die Kommentare... :facepalm:

:freak::biggrin:

Skysnake
2015-03-18, 14:34:46
mich würde ja eh überhaupt noch interessieren, ob da überhaupt ein Tegra drauf ist. Vom Package her passt es nämlich meiner Meinung nach an sich nicht...

dildo4u
2015-03-18, 14:38:38
Was soll das sonst sein?NV hat nix anderes mit CPU Cores.

Dural
2015-03-18, 14:41:56
das einzige was ich etwas komisch finde sind die 2.3 teraflops.

wie viel hatte ein X1 noch mal?

Timbaloo
2015-03-18, 14:50:16
@Skysnake: Das wird ein Quantencomputer sein. Mit Unwahrscheinlichkeitsdrive und Gravitationswellenkompensator. Alles andere wäre reine Spekulation.

Ernsthaft: Man könnte spekulieren, dass sich darunter sowas wie ein VCM verbirgt?

http://www.nvidia.com/object/visual-computing-module.html

Skysnake
2015-03-18, 19:20:32
Jo, das sieht sogar sehr gut aus. Seit wann bietet denn nVidia so etwas an? Mir waren keinerlei MC-Packages von ihnen bekannt!

Woher haste denn das, bzw seit wann gibt es denn das? Vor allem aber auch, was ist da alles genau drauf?

Timbaloo
2015-03-18, 20:51:35
Ehrlich gesagt habe ich das auch erst heute gesucht und entdeckt habe weil ich deine Verschwörungstheorien satt hatte ;)

http://nvidianews.nvidia.com/_ir/219/20149/Tegra_VCM_K1.jpg

4xRAM (Hynix) + Flash (Spansion). Eigentlich das was man erwarten würde.

AnarchX
2015-03-18, 21:06:32
das einzige was ich etwas komisch finde sind die 2.3 teraflops.

wie viel hatte ein X1 noch mal?
Wohl FP16-Leistung, die für Erkennung/Lernen in der Genauigkeit ausreichend sein soll laut NV.

Ailuros
2015-03-19, 06:15:24
Wohl FP16-Leistung, die für Erkennung/Lernen in der Genauigkeit ausreichend sein soll laut NV.

FP16 ist fuer viel mehr brauchbar als nur Erkennung/Lernen; sonst ist der Wert offensichtlich nicht nur von den GPUs, denn diese takten wohl schwer auf >1.1GHz.

Skysnake
2015-03-19, 06:45:02
Ehrlich gesagt habe ich das auch erst heute gesucht und entdeckt habe weil ich deine Verschwörungstheorien satt hatte ;)

http://nvidianews.nvidia.com/_ir/219/20149/Tegra_VCM_K1.jpg

4xRAM (Hynix) + Flash (Spansion). Eigentlich das was man erwarten würde.
Wenn man zu oft verarscht wird, wird man halt sehr sehr sehr skeptisch.

Und ganz unrecht hatte ich ja auch nicht. Das Package ist never ever das von einem Tegra. Dass neben dem Tegra auch noch der RAM + Flash steckt, habe ich nicht erwartetn. Das sah so aus, als ob das auf dem Board wäre. Das Gegenteil konnte man nicht sagen, weil die ollen Bilder alle VIEL zu niedrig aufgelöst sind -.-

An sich würde sich das Modul dann auch sehr schön für den Embedded-Bereich anbieten. Auf den Boards müsste man dann ja nicht mehr viel unter bringen.

Ailuros
2015-03-19, 06:55:06
In dem $10k "Paket" steckt so oder so nicht nur das Modul sondern das insgesamte sw Paket und auch jegliche Unterstuetzung. Es wird wohl keiner so naiv sein und glauben dass man fuer ein so kompliziertes System in einem Auto nur mit 2 SoCs auf einer Platine fuer ein paar hundert Dollar ausgesorgt hat. Der eigentliche Punkt dass ich es erwaehnt habe ist wie brutal hoch eventuell die Margen sein koennen fuer Tegras im automotive im besten Fall, denn wenn man die Statistik von Tegra Marktanteilen mit dem Umsatz pro Jahr vergleicht hat man so manches Fragezeichen was genau los ist....

Nebenbei wenn ein jeglicher IHV ein infotainment Modul sagen wir mal fuer $100 an einen Automobil-Hersteller verkauft, verlangt dann dieser vom Endkunden etliche hunderte an Dollars mehr dafuer wenn nicht gleich einen tausender fuer das bescheidenste.

Skysnake
2015-03-19, 07:17:45
Naja, jetzt aber bitte nicht Developer-Systeme mit denen von Endkunden vergleichen. Die Preise liegen Äonen weit auseinander.

Ailuros
2015-03-19, 07:28:17
Naja, jetzt aber bitte nicht Developer-Systeme mit denen von Endkunden vergleichen. Die Preise liegen Äonen weit auseinander.

Und wie stellst Du Dir ein Drive PX devkit genau vor? Nur das oede Modul und aus damit?

Skysnake
2015-03-19, 07:36:59
Ich wollte nur sagen, dass nur weil das Devkit sacke teuer ist, man noch KEINE Aussagen darüber treffen kann, was das am Ende dann für den Hersteller, geschweige denn für den Endkungen kostet.

Timbaloo
2015-03-19, 08:38:40
Da muss ich Skysnake ausnahmsweise mal zustimmen :P

Ailuros
2015-03-19, 09:07:05
Ich wollte nur sagen, dass nur weil das Devkit sacke teuer ist, man noch KEINE Aussagen darüber treffen kann, was das am Ende dann für den Hersteller, geschweige denn für den Endkungen kostet.

So viel ist klar.

Skysnake
2015-03-19, 10:56:51
Dir, ein paar anderen und mir durchaus, aber du kennst ja die Spezies ;)

deekey777
2015-03-20, 11:44:13
Ich weiß nicht, was ich vom folgenden halten soll:

In einem Video (einer serösen Seite) zu Action-Titeln für Smartphones meinte der Radakteur im Anschluss zum Beitrag zu GTA VC, dass Ende des Monats GTA 4: Liberty City für Smartphones kommen soll (bzw. es gebe Gerüchte).
Es handelt sich um GTA Liberty City Stories
Das wäre im Zusammenhang mit der Shield Console ein interessantes Gerücht, da sie definitiv die nötige Leistung bringen würde.

Und ja, ich finde die Shield Console doch sehr interessant: Sie beherrscht Android TV, ist sehr leistungsfähig und kommt bereits mit einem Controller.

Sunrise
2015-04-13, 15:25:09
Samsung to make graphic chips for Nvidia

http://www.koreatimes.co.kr/www/news/tech/2015/04/133_176923.html

Samsung Electronics has won a contract to manufacture Nvidia's new graphic processing unit (GPU) chips on 14-nanometer processing technology.


Wie schon vermutet wird damit dann wohl Parker gemeint sein.

AffenJack
2015-04-13, 18:19:08
Das Parker da gefertigt werden soll ist ja nix neues, Frage ist bei der Meldung eher ob nicht wirklich vielleicht zumindest nen kleiner Grafikchip auch zu Samsung rüber kommen soll. Es wird ja explizit immer von GPU gesprochen.

Aber mal zu Parker an sich, da heißt es ja, dass Denver wiederkommen soll. Das könnte mal wieder nen richtig großer Fail werden, denn im Moment sehe ich nicht, dass Denver die A72 Chips schlagen kann, die zeitgleich kommen sollte. Wenn Denver nicht irgendwie massiv verbessert wurde, sollte man das Ding eher einstampfen und auf Standard Arm-Kerne setzen.

robbitop
2015-04-14, 10:02:33
Die werden Denver schon verbessert haben. Wäre ja sonst ein ziemlicher Fehlschlag, da Jahre an Forschung reinzustecken und am Ende nicht wettbewerbsfähig zu sein.
Ein custom core ist immer sehr gut für die Differenzierung vom Wettbewerb! (wobei - wenn das so weiter geht, gibt es kaum noch High End Lizenznehmer für ARMs Standard Cores - und dann wären ARMs Standard Cores sozusagen wieder ein Differenzierungsmerkmal :D :D)

Sunrise
2015-04-14, 10:27:19
Das Parker da gefertigt werden soll ist ja nix neues, Frage ist bei der Meldung eher ob nicht wirklich vielleicht zumindest nen kleiner Grafikchip auch zu Samsung rüber kommen soll. Es wird ja explizit immer von GPU gesprochen.
Das wäre theoretisch sicher möglich, praktisch mangelt es wohl noch an Kapazität. Diese Lage wird sich auch nicht so schnell entspannen und da ist GloFo schon miteingerechnet. Man darf nicht vergessen, dass bisher bereits Samsung selbst, Qualcomm, Apple und einige andere Schlange stehen. Ebenso existiert laut öffentlich zugänglichen Informationen noch kein explizit für GPUs (High Performance) gebackener Prozess und die Yields davon werden dann wohl auch erst frühestens Q1/2016 soweit sein, dass man hier sowas wie einen GP107 produzieren könnte.

TSMC hat da erstmal sicher noch den Zuschlag. Nebenbei muss NV ja Zeitpläne für GP100 und GV100 (wegen der Zusammenarbeit mit IBM) einhalten und kann sich da keine Verzögerungen erlauben. Das wäre schon ein größeres Unterfangen, hier komplett auf Samsung umzuschwenken. Da Samsung aber noch eine recht dicke Fab im Bau hat (Fertigstellung 2017) wird man in Zukunft wohl sehen müssen, ob TSMC den momentanen Rückstand wieder aufholen kann. Ansonsten hat NV irgendwann da einen Wettbewerbsnachteil.

Aber mal zu Parker an sich, da heißt es ja, dass Denver wiederkommen soll. Das könnte mal wieder nen richtig großer Fail werden, denn im Moment sehe ich nicht, dass Denver die A72 Chips schlagen kann, die zeitgleich kommen sollte. Wenn Denver nicht irgendwie massiv verbessert wurde, sollte man das Ding eher einstampfen und auf Standard Arm-Kerne setzen.
Du gehst da aber vom aktuellen Denver-Design aus und wenn NV mit Denver wirklich weitermacht, dann wäre es fatal wenn sie nicht weitere Verbesserungen bringen, und das dann auch noch als Quad-Core-Design. Apple und NV stehen zwar nicht in wirklicher Konkurrent zueinander, aber bei Apple gehe ich so langsam auch von min. Triple-Core im A9 aus, wenn nicht sogar schon ein Quad-Core drinsteckt. Der A9X sollte auf jeden Fall als Quad-Core erscheinen, da Apple ja weniger auf Takt geht.

Dural
2015-04-14, 11:13:53
Hab ich was verpasst? Ein Denver Core ist doch aktuell so ziemlich das schnellste (neben Apple) was es im ARM Bereich gibt?

In 14nm dürfte man da sogar einen schönen Quad Core Herstellen können. Mit Verbesserungen hier und da dürfte das doch eine ziemlich Nette CPU werden.

deekey777
2015-04-14, 11:21:46
Hab ich was verpasst? Ein Denver Core ist doch aktuell so ziemlich das schnellste was es im ARM Bereich gibt?

In 14nm dürfte man da sogar einen schönen Quad Core Herstellen können. Mit Verbesserungen hier und da dürfte das doch eine ziemlich Nette CPU werden.
Ein Denver-Core (wie gut ein A8-Kern mit 2,0 GHz läuft, wissen wir nicht). Wenn aber dem Dual-Core-K1 ein KleinGroßirgendwas mit 4*A57+4*A53 gegenüber steht, dann wird's eng.

Die Frage ist, ob Nvidia den Denver-Core nicht aufgegeben hat.

mboeller
2015-04-14, 11:32:31
Hab ich was verpasst? Ein Denver Core ist doch aktuell so ziemlich das schnellste (neben Apple) was es im ARM Bereich gibt?
.

kurz geschaut... geekbench 3.1 single-core: 1811 Punkte

http://www.notebookcheck.com/NVIDIA-Tegra-K1-Denver-SoC.128658.0.html


damit sollte ein gleich schnell getakteter A72 Core gleich schnell sein, oder sogar schneller. Und ein A72 hat nur 3.3mm² in 28nm (laut Huawei). Selbst ein A57 mit 2,5 GHz sollte (1500x2,5/2,1 = 1780 Punkte) schon dran kommen.

fondness
2015-04-14, 11:52:59
Wäre Denver so gut würde Nvidia ihn auch verbauen und nicht auf einen A57 umschwenken, viel mehr gibt es dazu eigentlich nicht zu sagen.

robbitop
2015-04-14, 13:01:15
Ailuros meinte mal, dass Denver noch nicht bereit für 20 nm war und deshalb nachgeschoben wird.

Denver in der ersten Revision war gar nicht so schlecht. Nur leider hatte er diese blöden Hickups. (die Zeit bis die Codeoptimierung griff)
Ob man die wegbekommt oder zumindest mindern kann, ist natürlich die Frage. Ein HW OoO Kern wäre vieleicht die bessere Idee gewesen.

Ailuros
2015-04-14, 16:51:29
Ailuros meinte mal, dass Denver noch nicht bereit für 20 nm war und deshalb nachgeschoben wird.

Ich sagte eher dass Denver und Maxwell nicht in 20SOC passten und dass sie fuer Parker (Denver + Maxwell) wohl einen kleineren Prozess benutzen werden muessen. Original war Parker fuer 16FF geplant aber seit neuestem hat NV zu Samsung 14 FinFET gewechselt.

Wäre Denver so gut würde Nvidia ihn auch verbauen und nicht auf einen A57 umschwenken, viel mehr gibt es dazu eigentlich nicht zu sagen.

32bit K1 ist als SoC 121mm2 gross unter 28HPm; ich hab zwar nie genaue Zahlen bekommen aber nach Schaetzungen ist 64bit K1 noch wesentlich kleiner (wenn ueberhaupt) noch besonders stromsparender. Der erste hat 5 A15 cores integriert und mit allem drum und dran sind wohl 2 Denver etwas kleiner oder gleich gross. Noch dazu kommt dass man die Dinger auch ziemlich hoch takten muss damit sie ueberhaupt irgendwelches Land sehen in synthetischen benchmarks. Was daran so "toll" sein soll muss mir jemand erstmal jemand erklaeren; von Effizienz keine Rede und nein man sollte bei so fetten IPCs keine =/>2.5GHz brauchen.

NV wollte womoeglich Maxwell mit einem quad Denver config paaren; unter 20SoC waere es aber wohl doch eine ziemliche Lachnummer im Bereich perf/mm2 und perf/mW geworden.

Nightspider
2015-04-22, 12:24:09
Würde Parker mit Samsungs 14nm Prozess auch in Smartphones passen oder schluckt der SoC immer noch zu viel Saft?

Liefen jetzt überhaupt schon Tegra X1 in 20nm vom Band oder hat man jetzt wirklich auf 16FF oder 14nm gewartet?

Dural
2015-04-22, 12:38:05
Wie so sollte irgend ein Tegra nicht in ein Smartphone passen? Ist doch alles nur eine Frage des Taktes. ;)

Jedoch sehe ich weit und breit keinen Markt dafür. Samsung und Apple haben ihre eigene, HTC und co fahren mit Qualcomm offensichtlich gut.


kurz geschaut... geekbench 3.1 single-core: 1811 Punkte

http://www.notebookcheck.com/NVIDIA-Tegra-K1-Denver-SoC.128658.0.html


damit sollte ein gleich schnell getakteter A72 Core gleich schnell sein, oder sogar schneller. Und ein A72 hat nur 3.3mm² in 28nm (laut Huawei). Selbst ein A57 mit 2,5 GHz sollte (1500x2,5/2,1 = 1780 Punkte) schon dran kommen.

In deinem Link steht:


Die resultierende Pro-MHz-Leistung liegt nach unseren Benchmarks deutlich über den Cortex-A15-Kernen der herkömmlichen Tegra-K1-Variante. Im Geekbench 3 rechnet Denver bei vergleichbarem Takt rund 70 Prozent schneller, sodass der Dual-Core sogar in Multi-Threading-Tests zur absoluten Leistungsspitze zählt. Auch der Apple A8 SoC, der ebenfalls nur zwei Kerne integriert, wird um etwa 10 bis 20 Prozent distanziert.

mboeller
2015-04-22, 12:46:49
In deinem Link steht:

A15... so was von VORGESTERN!

Dural
2015-04-22, 12:49:02
Als Denver auf dem Markt kam gab es nichts anders.

Wie gross so ist ein Denver Kern überhaupt, gibt es da eine Angabe von NV?

Ailuros
2015-04-22, 13:20:45
Wie so sollte irgend ein Tegra nicht in ein Smartphone passen? Ist doch alles nur eine Frage des Taktes. ;)

Oder Deiner typischen Unwissenheit; wenn die area wirklich scheissegal waere wuerde X1 auch in ein smartphone passen.

Als Denver auf dem Markt kam gab es nichts anders.

Cyclone gibt es schon seit einer Ewigkeit vor Denver cores in kaufbaren Geraeten und dazu mit um einiges hoeherer Effizienz.

Wie gross so ist ein Denver Kern überhaupt, gibt es da eine Angabe von NV?

So gross dass 2 Kerne nicht mehr in 20nm reinpassten.

Ravenhearth
2015-04-22, 13:48:07
Das Problem an Denver ist ja auch nicht, dass er per se langsam wäre, sondern dass die Code-Optimierung sich immer erst kurz eingewöhnen muss. In Benchmarks ist der toll, aber in echten Anwendungen ist die Performance, auch die gefühlte, sehr inkonsistent.

Ailuros
2015-04-22, 13:52:25
Das Problem an Denver ist ja auch nicht, dass er per se langsam wäre, sondern dass die Code-Optimierung sich immer erst kurz eingewöhnen muss. In Benchmarks ist der toll, aber in echten Anwendungen ist die Performance, auch die gefühlte, sehr inkonsistent.

Das Ding stottert stellenweise welches fuer einen jeglichen high end SoC einfach nicht akzeptabel ist. Sonst bei der Groesse und Frequenz koennte man schon einiges mehr erwarten.

Undertaker
2015-04-22, 15:23:40
Wie groß ist ein Denver Kern denn im Vergleich zu einem Cyclone 2 Kern, wenn man 28 vs. 20nm herausrechnet? Würde mich doch arg erstaunen, wenn Denver da so viel größer wäre. Das hohe ST-Performance überproportional viel Fläche kostet sollte ja nun nicht wirklich neu, auch A15/A57 sind bezogen auf Perf/mm² A7/A53 bei Weitem unterlegen.

Btw: Wer Performanceerwartungen an Taktraten festmacht, ist im P4-Zeitalter stehengeblieben.

Dural
2015-04-22, 16:32:11
Ich wette er ist nicht grösser, es dürfte aber wegen dem Verbrauch und der Maxwell GPU nicht in 20nm passen.
Leider wird es dazu sicher nie Infos geben und es bleibt ein ewiges Geheimnis.


@Ailuros
Du sagst die Tegras seien zu gross aber kommt einen Satz später mit Apple daher? Finde den Fehler! ;D

Ailuros
2015-04-22, 16:40:36
Wie groß ist ein Denver Kern denn im Vergleich zu einem Cyclone 2 Kern, wenn man 28 vs. 20nm herausrechnet? Würde mich doch arg erstaunen, wenn Denver da so viel größer wäre.

Es reicht wenn die beiden in etwa gleich gross sind. Wieso hat denn X1 keine Denver cores wenn sich wirklich so "klein" oder "toll" sind?

Das hohe ST-Performance überproportional viel Fläche kostet sollte ja nun nicht wirklich neu, auch A15/A57 sind bezogen auf Perf/mm² A7/A53 bei Weitem unterlegen.

Der Unterschied zwischen A53 und A57 ist diametrisch kleiner als der zwischen A7 und A15; dafuer sind A53 auch relativ gross aber auch ziemlich Leistungsfaehig.

Btw: Wer Performanceerwartungen an Taktraten festmacht, ist im P4-Zeitalter stehengeblieben.

Gut dann sind zwei verschiedene CPU cores gleich effizient wenn der eine bei bis zu 1.5 und der andere bei bis zu 2.5GHz taktet und dann noch stellenweise stottert. Man muss nicht im P4 Zeitalter stehengeblieben sein um zu sehen dass Denver in seiner heutigen Form eine Fehlgeburt ist.

Ich wette er ist nicht grösser, es dürfte aber wegen dem Verbrauch und der Maxwell GPU nicht in 20nm passen.
Leider wird es dazu sicher nie Infos geben und es bleibt ein ewiges Geheimnis.

K1 32bit ist 121mm2 gross unter 28HPm und die 64bit ist nicht nennenswert kleiner. Ergo weiss ich wohl zu Deiner Enttaeschung schon wo es liegt und wenn man ein klein bisschen Ahnung hat kann man schon einschaetzen wie viel ungefaehr 5*A15 wiegen.

@Ailuros
Du sagst die Tegras seien zu gross aber kommt einen Satz später mit Apple daher? Finde den Fehler! ;D

Siehe oben. Fuer einen reinen tablet chip ist K1 so gross wie er sein darf. Fuer ein smartphone ist es eine andere Geschichte. Da Du aber sowieso wohl nicht alles verstehen willst, hat die Debatte auch keinen Sinn mit Dir.

Undertaker
2015-04-22, 16:55:51
Ich wette er ist nicht grösser, es dürfte aber wegen dem Verbrauch und der Maxwell GPU nicht in 20nm passen.

K1 wurde ja sogar noch in 28nm gefertigt, unwahrscheinlich das zwei Denver Cores in 20nm zu viel Fläche gekostet hätten. X1 mit A57 auszustatten, war wohl vor allem der schnelleren Umsetzbarkeit entschuldet, das habe ich zumindest unabhängig voneinander aus zwei verschiedenen Ecken gehört.


Du sagst die Tegras seien zu gross aber kommt einen Satz später mit Apple daher? Finde den Fehler! ;D

Tja, der eine Hersteller heißt nunmal Nvidia, also immer feste druff. :freak:

Ailuros
2015-04-22, 17:00:31
K1 wurde ja sogar noch in 28nm gefertigt, unwahrscheinlich das zwei Denver Cores in 20nm zu viel Fläche gekostet hätten. X1 mit A57 auszustatten, war wohl vor allem der schnelleren Umsetzbarkeit entschuldet, das habe ich zumindest unabhängig voneinander aus zwei verschiedenen Ecken gehört.

Ja NVIDIA und surprise! NVIDIA. Dafuer waren sie schon immer gut daemliche Entschuldigungen fuer ihre Flops zu erfinden.

Tja, der eine Hersteller heißt nunmal Nvidia, also immer feste druff. :freak:

Es gibt gruenen Tee fuer Euch beiden.

deekey777
2015-04-24, 09:23:55
Nvidia Shield Console ist tot. T-O-H-T. Tot. (http://www.anandtech.com/show/9186/nvidias-shield-console-becomes-shield-android-tv)

Jetzt fönt euch die Axelhaare. Die Umbenennung ist richtig.

Ailuros
2015-04-24, 12:05:10
Nvidia Shield Console ist tot. T-O-H-T. Tot. (http://www.anandtech.com/show/9186/nvidias-shield-console-becomes-shield-android-tv)

Jetzt fönt euch die Axelhaare. Die Umbenennung ist richtig.

Sei nicht so dramatisch. Sonst kommt noch jemand von der gruenen Fraktion mit Axelhaaren an, die Rapunzel's Haarpracht Konkurrenz machen ;D

Unicous
2015-04-26, 16:13:15
Leider ist ja semiwiki nicht wirklich vertrauenswürdig, aber schaut mal trotzdem was sie behaupten:

GF is running just a single part in LPE. LPE completed qualification in January of this year and has reached the yield levels for a volume ramp of this product starting this month.

GF could not say who the customer for this single product is, but there are rumors all over the net that it is nVidia. But nVidia isn’t admitting to it either:

When asked about this during a conference call with investors and financial analysts [in February], Jen-Hsun Huang, CEO of Nvidia, neither confirmed nor denied the plan.:freak:

https://www.semiwiki.com/forum/content/4567-globalfoundries-14-15-8-a.html

Nvidia@GlobalFoundries? Ich weiß nicht, ich weiß nicht.

Ravenhearth
2015-04-26, 17:33:21
Naja, wenn sie zu Samsung 14nm wechseln, können sie auch bei GloFo fertigen lassen. Aber bei dem Chip wird es wahrscheinlich um den 7420 handeln, nicht?

y33H@
2015-04-26, 18:03:31
GF is running just a single part in LPEKein Exynos (was ich vermutete) und kein A9, sondern Tegra? Öhm ...

Unicous
2015-04-26, 18:05:08
@Ravenhearth

Eigentlich ging man davon aus, dass sie Apple Chips fertigen. Ich wüsste auch nicht, wo man Gerüchte über Nvidia@GF findet, außer wenn sie in einem Atemzug mit Samsung erwähnt werden.

Alles sehr komisch. Ich wollte es nur mal verlinken, das Gerücht an sich klingt für mich nicht ganz so plausibel, zumal jeder Gerüchteonkel auf Samsung als Fertiger gezeigt hat.

Wie gesagt, semiwiki ist nicht sehr vertrauenswürdig. Die reimen sich meist ganz viel Blödsinn zusammen (siehe auch den fauxpas mit der Apple Fertigungsroadmap, die gar nicht von Apple stammt sondern Spekulation einer Analystin sind).