PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - nVidia Tegra-SoCs


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 [22] 23 24 25 26

AffenJack
2014-08-17, 19:20:16
Ich bevorzuge eigentlich auch eher die 2 schnelleren Kerne und kann mir vorstellen, dass man außerhalb von Synthies die Mehrleistung der 4 Kerne nicht merkt, aber max. nen halbes Jahr nach Denver Dual-Core haben wir 20nm A53/A57 Quads die den Dual-Core platt machen werden. Wirklich interessant wird deshalb eigentlich erst Erista mit vermutlich Denver-Quad und Maxwell wieder nen halbes Jahr später.

Da stellt sich mir dann auch die Frage, wozu überhaupt der K1 64Bit? 2Chips zu designen ist immer teurer und 64Bit sollte immer erst im nächsten Tegra kommen. Was hat Nv veranlasst plötzlich noch einen zusätzlichen K1 64Bit zu bauen? Kann es sein, dass es K1 64Bit nur deshalb gibt, weil die Autobauer nen 64Bit Chip haben wollten und bei den langen Designzyklen da Erista zu spät wäre?

Ailuros
2014-08-17, 22:39:40
Nicht dass ich wusste. Der "neueste" automotive SoC ist afaik der R Car2 von Renesas mit A15 Chores und der kommt erst in 2015 zur Massenproduktion.

Sonst was CPUs betrifft ist es IMHO je nach Fall. Für ein low Ende Smartphone wo A7 und bald A57 cores eher Sinn machen, wäre dual core eher Schwachsinn. Sie sind klein und billig zu integrieren. In heutigen Smartphones mit A7 liegt der minimale Takt bei knapp 500MHz, während der companion A15 core im K1 mit "nur" 50 MHz anfängt. Ergo es auf die "ja so und so viel cores sind ideal" Basis zu vereinfachen ist dann schon ziemlich gefaehrlich.

Mancko
2014-08-18, 15:30:12
Was labert der auf Semiaccurate eigentlich wieder seinem Tegra Artikel hinter der Paywall. Wundert mich, das es noch keine Kommentare auf Semiaccurate dazu gibt.

Ailuros
2014-08-18, 15:34:42
Was labert der auf Semiaccurate eigentlich wieder seinem Tegra Artikel hinter der Paywall. Wundert mich, das es noch keine Kommentare auf Semiaccurate dazu gibt.

Keine Ahnung. Duerfte aber ziemlich wurscht fuer diejenigen sein, die im sowieso nie etwas glauben wollen :freak:

Mancko
2014-08-18, 19:14:17
Was genau soll man denn an der x86-Architektur "renovieren"? Es gab mal das Problem der relativ knappen Register, aber das hat sich mit AMD64 auch erledigt. Ansonsten frage ich mich wer der anderen Intel in die Enge treiben soll. Viele haben zwar genug Geld, aber absolut niemand außer ironischerweise AMD hat knowhow oder hält maßgebliche Patente im CPU-Design. Qualcomm noch ein wenig, NV versucht sich jetzt auch darin, aber Intel schlägt man nicht mal eben im high performance / high clock Bereich. Niemand hat eigenen Fabs außer Samsung, die aktuell noch nicht mal daran denken eigenen CPUs zu designen. Intel verteidigt ihre Marktposition gerade wieder mit Dumpingpreisen und dicken Werbeverträgen, ich bin gespannt wie es weiter geht, aber würde auch nicht ausschließen dass das Pendel wieder in die andere Richtung ausschlägt.


Die anderen müssen Intel nicht im High Performance und High Clock Bereich schlagen. Sie müssen nur dafür sorgen, dass die ARM Plattform genügend Performance für die Average Joe Tätigkeiten zur Verfügung hat. Und das wird gelinde gesagt in den nächsten 2 Jahren der Fall sein. Es reicht also, wenn das Brot und Butter Geschäft abschmilzt und das wird Intel m.E. nicht mehr verhindern können. Da können Sie noch so viel mit Dumpingpreisen arbeiten. Die anderen haben kein Interesse daran Intel dabei zu helfen seine Marktposition zu halten. Im Gegenteil. Für die ist es viel besser wenn Intel an Einfluss verliert und das wird passieren. Im x86 Bereich werden die weiter die Kontrolle und Monopolstellung behalten. Ich glaube nicht, dass Intel x86 öffnen wird für andere. Können sie von mir aus auch gerne. Das Gute ist jedoch, dass es hier für Average Joe schöne Alternativen gibt und sich noch viel mehr Alternativen in Zukunft auftun und dort diktieren weder Intel noch Microsoft die Spielregeln und ich bin gespannt wer von Beiden als erster umkippt und sich auf die neuen Gegebenheiten einstellt. Mein Tipp ist da mal M$, weil denen Google so richtig satt im Nacken sitzt.

fondness
2014-08-18, 19:53:55
Die anderen müssen Intel nicht im High Performance und High Clock Bereich schlagen. Sie müssen nur dafür sorgen, dass die ARM Plattform genügend Performance für die Average Joe Tätigkeiten zur Verfügung hat. Und das wird gelinde gesagt in den nächsten 2 Jahren der Fall sein. Es reicht also, wenn das Brot und Butter Geschäft abschmilzt und das wird Intel m.E. nicht mehr verhindern können. Da können Sie noch so viel mit Dumpingpreisen arbeiten. Die anderen haben kein Interesse daran Intel dabei zu helfen seine Marktposition zu halten. Im Gegenteil. Für die ist es viel besser wenn Intel an Einfluss verliert und das wird passieren. Im x86 Bereich werden die weiter die Kontrolle und Monopolstellung behalten. Ich glaube nicht, dass Intel x86 öffnen wird für andere. Können sie von mir aus auch gerne. Das Gute ist jedoch, dass es hier für Average Joe schöne Alternativen gibt und sich noch viel mehr Alternativen in Zukunft auftun und dort diktieren weder Intel noch Microsoft die Spielregeln und ich bin gespannt wer von Beiden als erster umkippt und sich auf die neuen Gegebenheiten einstellt. Mein Tipp ist da mal M$, weil denen Google so richtig satt im Nacken sitzt.

Es gab schon immer eine Alternative zu Intel für die Average Joe Tätigkeiten. Es gab sogar über viele Jahre sehr konkurrenzfähige und teilweise auch überlegenen Produkte von AMD, trotzdem hat sich am Marktanteil wenig bis nichts getan. Intel ist eine Macht die überall die Finger im Spiel hat und die alleine schon aufgrund ihrer enormen Fertigungskapaziäten nicht ersetzbar ist. Niemand könnte in den nächsten 10 Jahren derart viele Silizium-Wafer raus pressen um Intel zu ersetzen. Das Intel oder MS kippt ließt man schon ewig und 3 Jahre. Intel wird auf absehbare Zeit ihre Position behalten und weiter wachsen, sie sind längst too big to fail wenn man so will. Bei MS siehst das vielleicht anders aus, aber das ist nicht das Thema. Und wenn du wirklich meinst das die anderen kein Interesse an Intels Marktposition haben, dann kann ich nur sagen dir ist hoffentlich klar, dass im ersten iPhone nur deshalb ein ARM-Prozessor steckte weil Intel die Anfrage von Apple einen entsprechenden Chip zu designen abgelehnt hat. Und auch Samsung wird nicht gezwungen überall Intel-Chips zu verbauen. Gerade wenn es auf hohen Stückzahlen ankommt gibt es kaum eine Alternative zu Intel. Apple hat mittlerweile bereits ordentliche Probleme genug Kapazitäten zu bekommen für ihre iPhones und iPads.

Ailuros
2014-09-07, 17:21:19
Fuer die Patent-Klage geht es hier weiter: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=556627&page=4

fondness
2014-09-10, 20:50:52
Bitte löschen.

ScottManDeath
2014-09-10, 21:36:31
https://github.com/NVIDIAGameWorks

Mancko
2014-09-11, 23:35:21
Weiß nicht ob das hier schon irgendwo zu finden war, also die Ursprungsquelle. Falls nein ->
http://www.computerbase.de/2014-09/nvidia-bestaetigt-das-nexus-9-von-htc-mit-tegra-k1/

Ailuros
2014-09-12, 08:35:11
Weiß nicht ob das hier schon irgendwo zu finden war, also die Ursprungsquelle. Falls nein ->
http://www.computerbase.de/2014-09/nvidia-bestaetigt-das-nexus-9-von-htc-mit-tegra-k1/

Ich will hoffen dass wir es wirklich noch vor dem Winter auf Regalen sehen werden.

Dural
2014-09-12, 10:14:45
das habe ich schon vor einer Woche in der Anklage gelesen und hier irgend wo auch mal erwähnt.

Das es erst jetzt in die News kommt :freak:
Interessant das NV das PDF wieder vom Netz genommen hat, müsste ich doch noch auf meinem Tablet gespeichert haben.

fondness
2014-09-12, 10:50:34
Natürlich wurde das pdf wieder vom Netz genommen, nachdem NV was geleaket hat das nicht für die Öffentlichkeit bestimmt war dürfte Google das nicht so witzig empfunden haben.

Unicous
2014-09-12, 10:56:35
So gut wie alles was Gerichtsunterlagen betrifft ist öffentlich einsehbar (in den USA), daher wäre es nur eine Frage der Zeit bis es wieder auftaucht.

Ich verstehe aber die Probleme nicht, ich kann die pdfs weiterhin anschauen.

http://nvidianews.nvidia.com/imagelibrary/downloadmedia.ashx?MediaDetailsID=2993&SizeId=-1&SizeID=-1

http://nvidianews.nvidia.com/imagelibrary/downloadmedia.ashx?MediaDetailsID=2996&SizeId=-1&SizeID=-1

Ailuros
2014-09-29, 11:35:44
http://forum.beyond3d.com/showthread.php?t=61449&page=118

Bitte nicht noch ein "told you so" fuer SA....*seufz* :frown:

Hübie
2014-09-29, 11:45:38
Also gibt man das Konzept custom core und companion core auf. Das spart ne Menge R&D. So hätte man vielleicht starten sollen. :freak:

fondness
2014-09-29, 11:48:26
Der "Nachfolger" von Denver ist also ein stink normaler 4 A57 + 4 A53 big.LITTLE. Das spricht nicht gerade für Denver und die eigenen CPU-Entwicklung.

AffenJack
2014-09-29, 12:26:59
Das spricht auf jeden Fall dafür, dass Denver nach K1 tot ist. Es wird ja öfter davon gesprochen, dass Tegra R&D runtergefahren wurde und mitn Streichen von Denver dürfte das am einfachsten gehen. Es ist deutlich billiger einfach Big-Little zu integrieren als ne eigene Architektur weiterzuentwickeln. Erklärt vielleicht auch, wieso Nv so leise in Sachen Denver ist. Normalerweise würde man da deutlich mehr Tamtam erwarten.

Ailuros
2014-09-29, 12:32:04
Der "Nachfolger" von Denver ist also ein stink normaler 4 A57 + 4 A53 big.LITTLE. Das spricht nicht gerade für Denver und die eigenen CPU-Entwicklung.


Erinyes weiss auch nicht weiter (leider). Und ja natuerlich spricht es nicht fuer Denver. Wenn man schon einen custom 64bit core hat, integriert man eben keine standard A5x ARM cores. Erinyes spekuliert dass es vielleicht noch eine Denver Variante geben koennte, aber eine Erklaerung fuer den Zweck von diesem hat er auch nicht.

Entweder ist Denver eine Gurke und wir sehen es selbst in K1 64bit nicht wie jemand anderes andeutet oder Denver hat irgend etwas fuer das sie Intel wegen Patent-Verletzung verklagen koennte. Etwas besseres faellt mir nicht ein.

Unicous
2014-09-29, 12:43:07
Oder sie haben erkannt, dass es egal ist ob sie Custom Cores basteln, Hauptsache die GPU Leistung steigt.

Da Jensen das R&D Budget und Manpower ja eh schon auf Einäschär... äh Sparflamme fährt, macht es wohl keinen Sinn mehr für Custom Cores Geld zu verbrennen und sooo geil war der Companion Cube Core ja auch nicht. Nicht schlecht, aber auch nicht weltbewegend.

CPU-Leistung interessiert (mMn) im Mobilsektor keine Sau, GPU-Leistung hingegen wird immer wichtiger, auch wenn die Spiele noch nicht ganz aufgeschlossen haben.

Vielleicht fanden die Embedded-Partner es auch nicht so prickelnd für Nvidias Extra-Wurst zu programmieren?

Das Benchmarkrennen im Mobilsektor zu gewinnen interessiert aber glaube ich niemanden, dafür ist der Markt zu sehr auf Masse fokussiert.

Nightspider
2014-09-29, 12:45:21
Ihr wisst ja gar nicht wie groß und unterschiedlich Denver Cores zum A57 sind.

Vielleicht hat Nvidia frühe A57 Samples einer Pre-A57 Version genommen und diese funktionstüchtig gemacht um die A57 Architektur als erster verbauen zu können während man auf ein paar Features und Kniffe der finalen A57 Architektur verzichtet.

Vielleicht waren die Denver Cores von Anfang an nur für T5 geplant um als erster auf dem Markt zu sein mit der Architektur.

Ailuros
2014-09-29, 12:59:48
Ihr wisst ja gar nicht wie groß und unterschiedlich Denver Cores zum A57 sind.

Wenn zwei Denver cores theoretisch etwa so viel Platz einnehmen wie 4 A15 im K1 dann sind sie schon gross. Wuerde auch nicht wundern bei dem IPC.

Vielleicht hat Nvidia frühe A57 Samples einer Pre-A57 Version genommen und diese funktionstüchtig gemacht um die A57 Architektur als erster verbauen zu können während man auf ein paar Features und Kniffe der finalen A57 Architektur verzichtet.

Nette These aber ARM entwickelt ihre CPU IP nicht Arm in Arm (no pun intended) mit NVIDIA.

Vielleicht waren die Denver Cores von Anfang an nur für T5 geplant um als erster auf dem Markt zu sein mit der Architektur.

ROFL ;D Nein. Es erschien gerade das erste GoForce damals als die ersten CPU Entwicklungs-Geruechte erschienen sind. Mit zumindest 2 kompletten re-designs und mit Plaenen sowohl ULP SoCs als auch HPC damit zu bedienen war es nie ein einfaches Projekt oder irgend eine zufaellige Eintagsfliege.

differenzdiskriminator
2014-10-02, 09:08:39
Netter Designwin für NVIDIA:

http://www.golem.de/news/honda-connect-nvidias-tegra-faehrt-mit-android-in-japan-1410-109590.html

Jetzt auch Honda mit Tegra im Navi.

Ailuros
2014-10-02, 10:15:38
Netter Designwin für NVIDIA:

http://www.golem.de/news/honda-connect-nvidias-tegra-faehrt-mit-android-in-japan-1410-109590.html

Jetzt auch Honda mit Tegra im Navi.

Aus dem Link:

Nvidia baut mit der Partnerschaft zu Honda seine Vormachtstellung in der Automotive-Branche aus, hier scheinen die Tegra-SoCs deutlich besser anzukommen als bei den Smartphone- und Tablet-Herstellern

Na mal wieder ein Author der "Ahnung" von der Materie hat. Welche Vormachtstellung genau? Nur weil andere SoC Hersteller die im automotive taetig sind noch keine kunterbuntes marketing betreiben heisst es noch lange nicht dass NV selbst annaehernd ein Monopol in der Markt-Sparte hat. JPR laesst automotive jedes Jahr bei den Markanteilen nicht weg, ergo bleibt abzusehen ob wie es dort insgesamt aussehen wird.

differenzdiskriminator
2014-10-02, 10:22:12
Automotive ist natürlich (verglichen mit Smartphones/Tablets) ein Low-Volume Markt, dafür sind die Margen deutlich höher. Zumal NVIDIA ja nicht nur dumpf den SoC liefert, sondern das komplette VCM.

Vormachtstellung ist natürlich Quatsch.

Ailuros
2014-10-02, 10:25:58
Ich weiss zwar nicht was Honda im gegebenen Fall eingebaut hat, aber ein K1 fuer ein blah infotainment System und dazu sogar eher einem mainstream Auto klingt mir persoenlich nach brutalem overkill.

differenzdiskriminator
2014-10-02, 10:37:45
Der konkrete SoC ist ja relativ egal (wird sicherlich eher T3 sein), viel interessanter aus Nutzersicht finde ich das Android 4.0. Für Automotive ja fast schon Rekordtempo ;D

Ailuros
2014-10-02, 10:42:50
T3 klingt am wahrscheinlichsten fuer so einen Fall, wobei man auch T4 nicht ausschliessen kann.


***edit: link schamlos vom B3D forum "geklaut":

http://nvidianews.nvidia.com/News/NVIDIA-Powers-New-Honda-Infotainment-System-bd6.aspx

There are currently over 6 million cars with NVIDIA processors on the road today. Another 25 million NVIDIA processors are expected to be integrated into vehicles over the next 5 years.

Ergo im Durchschnitt 5Mio SoCs/Jahr. Umwerfend.... :rolleyes:

Mancko
2014-10-05, 15:54:01
Wobei die wahrscheinlich nicht einfach nur stumpf den SoC hinwerfen, sondern wahrscheinlich eher ganze module/systeme + Hilfestellung bei der Integration in Punkto Software.

Nakai
2014-10-05, 16:07:47
Ich bin zwar nicht mehr im Automotive-Bereich tätig, aber eine Vormachtstellung in diesem Bereich mit nur einer Serie von Chipsätze zu erreichen, klingt nicht nur falsch, sondern ist absolut lächerlich. Viele Zulieferer gehen eher Renesas R-Car, anstatt zu lächerlich-dokumemtierten und ungeeigneten SOCS von NV.

Nakai
2014-10-05, 16:13:27
Wobei die wahrscheinlich nicht einfach nur stumpf den SoC hinwerfen, sondern wahrscheinlich eher ganze module/systeme + Hilfestellung bei der Integration in Punkto Software.

Also mutiert NV zum Hardware und Software-Zulieferer. Naja wenn das, das Kraut nicht fett macht. NV will wohl bei den Herstellern einen Fuß in der Tür haben. Ist zwar nicht dumm, aber man sollte schon eher längeren Support liefern. IMX6 seitens Freescale ist zwar ein Krüppel, soll aber ein Update bringen, was viele Probleme fixt. Möglicherweise sind deswegen viele zu NV gegangen.

Mancko
2014-10-05, 18:31:42
Also mutiert NV zum Hardware und Software-Zulieferer. Naja wenn das, das Kraut nicht fett macht. NV will wohl bei den Herstellern einen Fuß in der Tür haben. Ist zwar nicht dumm, aber man sollte schon eher längeren Support liefern. IMX6 seitens Freescale ist zwar ein Krüppel, soll aber ein Update bringen, was viele Probleme fixt. Möglicherweise sind deswegen viele zu NV gegangen.

Weiß nicht ob die dahin mutieren. Im Enterprise Segment machen die das doch defakto schon länger so. Ihre Marktstellung im Professional Segment haben sie ja nun nicht nur durch die Hardware erhalten, sondern insbesondere durch den Software Support und auch dort müssen sie schon etwas länger supporten als im Endverbraucher Segment. Könnte mir also schon vorstellen, dass die dort mehr machen als nur den SoC zu liefern. Sind wir mal ehrlich. Letzteres kann doch mittlerweile jeder Hannes inklusive der Billigchinesen.

Ailuros
2014-10-05, 20:26:23
Weiß nicht ob die dahin mutieren. Im Enterprise Segment machen die das doch defakto schon länger so. Ihre Marktstellung im Professional Segment haben sie ja nun nicht nur durch die Hardware erhalten, sondern insbesondere durch den Software Support und auch dort müssen sie schon etwas länger supporten als im Endverbraucher Segment. Könnte mir also schon vorstellen, dass die dort mehr machen als nur den SoC zu liefern. Sind wir mal ehrlich. Letzteres kann doch mittlerweile jeder Hannes inklusive der Billigchinesen.

Der springende Punkt ist hier nach wie vor ob sie mit N Anteil im automotive und tablet Markt die Abteilung halten koennen. Im Profi Markt kann nach all den Jahren trotz verrueckt hohen Margen der davon erstehende Umsatz immer noch nicht das R&D eines high end chips decken. 5 Mio Stueck laut NV selber pro Jahr fuer die naechsten 5 Jahre und mal sehr grosszuegig 20Mio tablets pro Jahr *schulterzuck*

differenzdiskriminator
2014-10-06, 10:15:21
Ich bin zwar nicht mehr im Automotive-Bereich tätig, aber eine Vormachtstellung in diesem Bereich mit nur einer Serie von Chipsätze zu erreichen, klingt nicht nur falsch, sondern ist absolut lächerlich. Viele Zulieferer gehen eher Renesas R-Car, anstatt zu lächerlich-dokumemtierten und ungeeigneten SOCS von NV.
Deshalb läuft die Zusammenarbeit ja über die Autohersteller, die dem Zulieferer sagen, was er kaufen muss ;)

Beeindruckend für einen so starren Markt mit dermaßen langfristigen Entwicklungs- und Lieferzeiten ist es trotzdem.

Mancko
2014-10-06, 21:13:05
Der springende Punkt ist hier nach wie vor ob sie mit N Anteil im automotive und tablet Markt die Abteilung halten koennen. Im Profi Markt kann nach all den Jahren trotz verrueckt hohen Margen der davon erstehende Umsatz immer noch nicht das R&D eines high end chips decken. 5 Mio Stueck laut NV selber pro Jahr fuer die naechsten 5 Jahre und mal sehr grosszuegig 20Mio tablets pro Jahr *schulterzuck*

Klar können die die Abteilung halten. Solange das Gesamtunternehmen schwarze Zahlen schreibt sehe ich da überhaupt kein Problem, zumal die Tegra Entwicklungen und die Erfahrungen die man dort sammelt über kurz oder lang sich auch bei den herkömmlichen GPUs niederschlagen. Insofern geht auch ein signifikanter Teil des R&D für das erreichen besserer Performance/Watt Ergebnisse drauf und die kannst ja in der gesamten Palette verwenden.

Ailuros
2014-10-07, 07:53:03
Klar können die die Abteilung halten. Solange das Gesamtunternehmen schwarze Zahlen schreibt sehe ich da überhaupt kein Problem, zumal die Tegra Entwicklungen und die Erfahrungen die man dort sammelt über kurz oder lang sich auch bei den herkömmlichen GPUs niederschlagen. Insofern geht auch ein signifikanter Teil des R&D für das erreichen besserer Performance/Watt Ergebnisse drauf und die kannst ja in der gesamten Palette verwenden.

Βei weitem nicht so wie man sie in Erinnerung hat; Jensen hat schon seit einiger Zeit die meisten engineers woanders verfrachtet.

Die Kosten fuer Tegra muessen radikal reduziert werden mit einem solchen Geschaefts-volumen. Sonst besteht ein SoC nicht nur aus einer GPU; einen GPU chip kannst Du vom finalen tape out zur Herstellung in ~5-6Monaten jagen. Fuer einen SoC ist der Normalfall eher 1.5 Jahre mit sehr grossem Druck dann im allerbesten Fall 1 Jahr, eben weil die Dinger verdammt kompliziert sind.

Skysnake
2014-10-07, 08:42:08
Mixed-Signal halt, wobei GPUs durch GDDR5 im Prinzip auch Mixed-Signal sind, nur entwickelt man das halt einmal und dann ist im Prinzip auch schicht im Schacht. Bei nem SOC tut sich da an mehr Stellen auch mehr

Mancko
2014-10-07, 10:43:03
Βei weitem nicht so wie man sie in Erinnerung hat; Jensen hat schon seit einiger Zeit die meisten engineers woanders verfrachtet.

Die Kosten fuer Tegra muessen radikal reduziert werden mit einem solchen Geschaefts-volumen. Sonst besteht ein SoC nicht nur aus einer GPU; einen GPU chip kannst Du vom finalen tape out zur Herstellung in ~5-6Monaten jagen. Fuer einen SoC ist der Normalfall eher 1.5 Jahre mit sehr grossem Druck dann im allerbesten Fall 1 Jahr, eben weil die Dinger verdammt kompliziert sind.

Du interpretierst mir da immer zu viel rein. Nvidia ist von der Größe ein überschaubares Unternehmen und als oberste Maxime gilt richtigerweise das Schreiben von schwarzen Zahlen auf Eben des Gesamtunternehmens. Es werden dort ständig Resourcen von A nach B geschoben und natürlich ist es richtig bei kleinerem Volumen die Resourcenbindung und damit auch die Kosten zu reduzieren. Das heißt aber nicht, dass diese nicht irgendwann wieder nach oben geschraubt werden. Nvidia beobachtet wie jeder andere den Markt und handelt entsprechend der Opportunities. Langfristig gesehen halte ich es doch für sehr wahrscheinlich, dass die GPU in einem SoC an Gewicht gewinnt. Insofern sind Unternehmen die dort entsprechendes Know-How mitbringen auch gut aufgestellt. Parallel läuft ja zudem noch das Patentverfahren. Warten wir mal ab was damit ist. Für das Verfahren gibt es m.E. zwei Ergebnisse, entweder es verschwindet in der Versenkung oder es wird das Geschäft mit GPU Kernen im SoC Markt nachhaltig verändern. Bei letzterem Ergebnis sehe ich auch sehr gute Optionen für AMD sich dort reinzubeissen.

AffenJack
2014-10-07, 10:56:27
Βei weitem nicht so wie man sie in Erinnerung hat; Jensen hat schon seit einiger Zeit die meisten engineers woanders verfrachtet.


Wird Tegra überhaupt noch in den USA entwickelt? Es wundert mich, wenn Nvidia Indien nach T4i gar keine Chips mehr entwickelt. Vielleicht verfrachtet man bald das gesamte Tegra dahin.

Ailuros
2014-10-07, 11:47:48
Wird Tegra überhaupt noch in den USA entwickelt? Es wundert mich, wenn Nvidia Indien nach T4i gar keine Chips mehr entwickelt. Vielleicht verfrachtet man bald das gesamte Tegra dahin.

Es wird verdammt viel in Indien validated, so viel darf ich sagen ;)

Ailuros
2014-10-07, 12:04:12
Du interpretierst mir da immer zu viel rein. Nvidia ist von der Größe ein überschaubares Unternehmen und als oberste Maxime gilt richtigerweise das Schreiben von schwarzen Zahlen auf Eben des Gesamtunternehmens.

Wenn man sich hauptsaechlich auf embedded konzentriert als Beispiel beinflusst es auch die roadmap unter vielen anderen.

Es werden dort ständig Resourcen von A nach B geschoben und natürlich ist es richtig bei kleinerem Volumen die Resourcenbindung und damit auch die Kosten zu reduzieren. Das heißt aber nicht, dass diese nicht irgendwann wieder nach oben geschraubt werden. Nvidia beobachtet wie jeder andere den Markt und handelt entsprechend der Opportunities.

Wenn Du eine Art "A" an SoC nicht unter Entwicklung hast und es gibt eine "opportunity" kannst Du von mir alle NV resources herankratzen, aber man wird es zeitlich eben NICHT schaffen. Bestes Beispiel ist Grey/T4i wo sie blendend auf die Nase gefallen sind mit der Validierung der modems und dazu noch das fehlende CDMA.

Mag sein dass Ihr glaubt dass NV irgendwelchen Zauberstab hat fuer Tegra, aber der unendliche maessige bis unterdurchschnittliche "Erfolg" von GoForce und 5 Tegra Generationen sprechen eher fuer etwas anderes. Es ging eben immer etwas schief.


Langfristig gesehen halte ich es doch für sehr wahrscheinlich, dass die GPU in einem SoC an Gewicht gewinnt. Insofern sind Unternehmen die dort entsprechendes Know-How mitbringen auch gut aufgestellt. Parallel läuft ja zudem noch das Patentverfahren. Warten wir mal ab was damit ist. Für das Verfahren gibt es m.E. zwei Ergebnisse, entweder es verschwindet in der Versenkung oder es wird das Geschäft mit GPU Kernen im SoC Markt nachhaltig verändern. Bei letzterem Ergebnis sehe ich auch sehr gute Optionen für AMD sich dort reinzubeissen.

Der ULP SoC Markt ist nach wie vor IP Gelaende egal ob CPU, GPU oder sonst welche Einheiten. Die Flexibilitaet die IP providers generell liefern wird eben kein IHV erreichen koennen und dabei ist es wurscht ob es sich um Intel, NV oder sonst welche Dinosaure aus der alten guten IT Welt handelt.

Bis zum Zeitpunkt wo NV es schafft eine anstaendige GPU IP Lizenz zu verkaufen (wobei es mit dem heutigen feingedruckten in solchen Vertraegen gleich Null Chancen gibt) wuerde ich keine Feuerwerke erwarten und nein die alberne Idee fuer patent trolling ist eben NICHT was andere unter IP Lizenzierung verstehen.

Manche von uns sind eben nicht so bloed und schlucken jeden Fetzen von BS den Jensen den Investoren unter die Nase bindet.

Ebenso soll AMD hier was genau erreichen und wo? Sie werden genau die gleichen Probleme erleben wie auch Intel und NVIDIA fuer den ULP SoC Markt.

Und wenn wir schon dabei sind: nach all der Zeit nach der K1 Ankuendigung, wo genau ist der "Haufen" an design wins dafuer geblieben? Ein smartTV deal und ein deal mit Xiaomi fuer 32bit K1 und HTC Volantis bzw. Nexus9 womoeglich mit 64bit K1. Ach ja tschuldigung das Shield tablet noch dazu :freak:

fondness
2014-10-07, 12:32:55
Bis auf das Shield tablet ist jedenfalls nach wie vor nichts mit K1 in D lieferbar.

Ailuros
2014-10-07, 12:45:06
Bis auf das Shield tablet ist jedenfalls nach wie vor nichts mit K1 in D lieferbar.

Das Xiaomi MiPad kannst Du wohl schon ueber online retailers bestellen, aber obwohl der Verkaufsstart danach aussah als ob die Kunden dafuer unendlich Schlange stehen werden, sieht es auch nicht nach irgendwelchem tollem Verkaufsvolumen aus bis jetzt.

Mancko
2014-10-10, 23:07:57
falscher Thread. Sorry. Zur ITC Meldung geht's hier lang

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=556627&page=8

deekey777
2014-10-15, 18:49:15
http://www.google.com/nexus/9/
CPU: 64-bit NVIDIA Tegra K1-Prozessor 2,3 GHz
GPU: Kepler DX1

DX1?

mboeller
2014-10-16, 09:05:03
http://www.google.com/nexus/9/


DX1?

verschrieben?

was mich viel mehr wundert ist, das man immer noch keine geleakten Benchmarks sieht.

deekey777
2014-10-16, 09:22:42
verschrieben?


Und Apple hat gestern auch aus Versehen die Neuerungen des iPad mini 3 und iPad Air 2 geleakt.

Das wäre doch alles viel zu langweilig.

;(

Dural
2014-10-16, 12:53:32
So aus dem bauch heraus habe ich nicht das gefühl das Denver wirklich einschlägt.

2,3 GHz dual core sind zu wenig für die a15 quad und qualcomm konkurrenz.
Für mich sehen die neuen nexus produkte auch nicht wirklich nach kassenschlager aus. Wenn NV im mobilen markt fuße fassen will müssen vernünftige LTE modem und jedes Jahr neue lieferbare produkte her.

Aber da Intel offensichtlich alles verschenkt fragt man sich ob sich die bemühungen überhaupt lohnen würden.

fondness
2014-10-16, 12:56:40
NV hat den Smartphone-Markt längst aufgegeben und auf der Tablet-Markt entgleitet ihnen, sie sind nie über einen niedrigen einstelligen Prozentsatz an Marktanteile hinaus gekommen. Erista soll wieder Standard-ARM-Cores verwenden, was danach kommt weiß keiner.

Dural
2014-10-16, 13:03:24
Wie gesagt geht heute ohne LTE in diesem markt nichts mehr, auch bei tablets.

NV kann nur hoffen das die grafik anforderungen in der zukunft deutlich zulegen werden und somit ihre produkte wieder gefragt sind.

deekey777
2014-10-16, 13:14:01
So aus dem bauch heraus habe ich nicht das gefühl das Denver wirklich einschlägt.

2,3 GHz dual core sind zu wenig für die a15 quad und qualcomm konkurrenz.
.
Zeigt Apple ja.

robbitop
2014-10-16, 13:15:05
Man könnte meinen, dass manche Leute aus dem P4 nichts gelernt haben. :D

dildo4u
2014-10-16, 13:24:06
NV hat den Smartphone-Markt längst aufgegeben und auf der Tablet-Markt entgleitet ihnen, sie sind nie über einen niedrigen einstelligen Prozentsatz an Marktanteile hinaus gekommen. Erista soll wieder Standard-ARM-Cores verwenden, was danach kommt weiß keiner.
Aha es entgleitet ihnen wenn sie gerade ihren größten Design Win überhaupt geschafft haben.Die kleinen Google Tablet's sind die mit Abstand am meist verkauften Google Geräte,höstens Samsung verkauft mehr Android Tablets.

differenzdiskriminator
2014-10-16, 13:32:47
Aha es entgleitet ihnen wenn sie gerade ihren größten Design Win überhaupt geschafft haben.
Erwartest du eine andere Aussage von fondness?

deekey777
2014-10-16, 14:57:13
Aha es entgleitet ihnen wenn sie gerade ihren größten Design Win überhaupt geschafft haben.Die kleinen Google Tablet's sind die mit Abstand am meist verkauften Google Geräte,höstens Samsung verkauft mehr Android Tablets.
Wenn du Verkaufszahlen der beiden Nexusen 7 hast, immer her damit.

Dural
2014-10-16, 15:05:01
Ihr habt wohl alle den Denver Benchmark mit 3GHz vergessen :rolleyes:
2,3GHz wird nicht reichen um einen A15 Quad bei Multi Thread Anwendungen zu schlagen. Da bin ich mir recht sicher. Und überhaupt, wenn der was auf dem Kasten hätte würde die Berichterstattung deutlich anders ausschauen.


Und das Nexus 9 wird Garantiert nicht der Verkaufsschlager, es ist schlicht zu teuer für ein Nexus Gerät, zudem bin ich vom Gerät selber doch
sehr entäuscht: Zu schwer, kleiner Akku und die Geräte Abmessungen hauen mich auch nicht gerade um und noch keine 64GB Version, was soll das?

YfOrU
2014-10-16, 15:08:54
Das Nexus 7 hat sich sicherlich ganz ordentlich verkauft. Allerdings spielte dabei der Verkaufspreis eine zentrale Rolle. Das Nexus 9 liegt dagegen praktisch auf dem Niveau der iPads und ist gleichzeitig nur als 16 oder 32GB Variante verfügbar. Mit einer derartigen Strategie hat sich bisher kaum ein Hersteller einen Gefallen getan.

differenzdiskriminator
2014-10-16, 15:12:25
Wenn du Verkaufszahlen der beiden Nexusen 7 hast, immer her damit.
Es gab Berichte mit 1 Million Geräte/Montag:
http://www.computerbase.de/2012-10/asus-verkauft-knapp-eine-million-nexus-7-pro-monat/

Dural
2014-10-16, 15:17:19
und das war ein 199.- Tablet, das neue Nexus 9 kostet das doppelte.

Da bin ich ja gespannt wie das am Markt ankommt. :rolleyes:

deekey777
2014-10-16, 15:18:16
http://www.n-droid.de/nexus-7-2013-verkauft-sich-schlecht-comeback-des-nexus-8.html

differenzdiskriminator
2014-10-16, 15:20:02
http://www.n-droid.de/nexus-7-2013-verkauft-sich-schlecht-comeback-des-nexus-8.html
Ich sehe da keine einzige konkrete Zahl im Artikel? Kaffeesatz oder Glaskugel?

deekey777
2014-10-16, 15:23:17
Ich sehe da keine einzige konkrete Zahl im Artikel? Kaffeesatz oder Glaskugel?
Ich sehe auch in dem Artikel keine Angaben über Verkaufszahlen. Wenn man den Links aus meinem Artikel folgt, so findet man welche.

Aber hey, ich habe keine Behauptung aufgestellt, dass die Nexus-Geräte die bestverkauften hinter Samsung sind (was nichts, absolut nichts aussagt).

Unicous
2014-10-16, 15:29:36
Es ging ja auch um 1 Million Geräte pro Montag. Welcher Montag wurde natürlich nicht präzisiert. Ich tippe auf den Faschingsmontag.

differenzdiskriminator
2014-10-16, 15:30:27
Ich sehe auch in dem Artikel keine Angaben über Verkaufszahlen.
"Asus verkauft knapp eine Million Nexus 7 pro Monat"

Nicht mal bis zur Überschrift gekommen?

Wenn man den Links aus meinem Artikel folgt, so findet man welche.
Ich finde keine konkrete Verkaufszahl für das Nexus 7. Welchen Artikel meinst du und warum verlinkst du ihn nicht direkt? :confused:

LordDeath
2014-10-16, 18:17:23
Wo könnte man die Leistung des Denvers denn grob einordnen?
Ist die IPC vielleicht auf Augenhöhe mit langsameren x86 Kernen wie z. B. AMDs Jaguar Architektur?

Coda
2014-10-16, 18:29:07
NVIDIA behauptet Haswell-Niveau. Ob das stimmt muss sich zeigen.

AnarchX
2014-10-16, 18:32:34
NVIDIA behauptet Haswell-Niveau. Ob das stimmt muss sich zeigen.
Mit >2GHz wohl auf dem Niveau eines 2C/2T 1,4GHz Haswel (http://www.cpu-world.com/CPUs/Celeron_Dual-Core/Intel-Mobile%20Celeron%202955U.html)l:
http://www.extremetech.com/computing/187862-nvidia-details-64-bit-denver-tegra-k1-claims-haswell-class-performance-for-first-64-bit-android-chip

ChaosTM
2014-10-16, 18:57:40
Celeron Niveau also. Wäre trotzdem recht beeindruckend wenn es stimmen sollte..

dildo4u
2014-10-16, 19:10:39
Nexus 9 im Geekbench

http://browser.primatelabs.com/geekbench3/1014854

AffenJack
2014-10-16, 19:13:43
Nicht ganz, sind nämlich 2,5ghz als Taktrate. Das Nexus mit 2,3ghz wird halt dementsprechend ein Stück langsamer.

Dural
2014-10-16, 20:44:19
Und somit langsamer als die a15 Version...

http://browser.primatelabs.com/geekbench3/1018227

|MatMan|
2014-10-16, 21:35:30
Was bist du denn nur so heiß auf die Multi-Core Performance?? Die ist doch total irrelevant für den normalen Gebrauch - oder für welche Anwendung braucht man die? Wird die überhaupt über längere Zeit gehalten? Dagegen ist die Steigerung beim Single-Core Score mit 1116 zu 1903 doch ganz nett...

dildo4u
2014-10-17, 01:38:50
Jup alle High-End Games sind auf 2 Cores ausgerichtet da sie vom iphone kommen,der ganze Rest an Anwendungen die für ein Tablet wichtig sind wie z.b surfen wird auf Denver massiv besser laufen.

robbitop
2014-10-17, 07:23:51
Jap - Synthetische Benchmarks sind oft extrem sinnlos. Wenn Multicoreperformance eine so große Rolle in der Realität spielen würde, hätte AMDs FX8 mit 8 Kernen mit Intels i7 mithalten können. Nur skaliert ab einem gewissen Punkt es eben nicht mehr so richtig.

Dural
2014-10-17, 11:12:40
Das ist schon klar,
Aber das wird nicht ewig so bleiben und zudem bin ich der Meinung das ein Core der ca. die Fläche von zwei 0815 Cores einnimmt auch so schnell wie diese sein sollte.

Ich hoffe wenigstens das Denver beim Strom verbrauch gut punkten kann, mit "nur" 2x 2,3GHz dürfte das eventuell sogar möglich sein. Immerhin waren ja bis zu 3GHz im Gespräch.

dildo4u
2014-10-18, 12:06:23
Was mir grad noch einfällt sollte Denver nicht sogar noch besser Benchen so bald Geekbench ne 64 Bit Android Version anbietet?

Dort steht noch:

Geekbench 3.2.2 for Android AArch32

http://browser.primatelabs.com/geekbench3/1014854

Gandharva
2014-10-18, 14:02:29
In den Crypto Benches könnte da noch einiges an Potential schlummern. Ansonsten erwarte ich keine allzugroßen Sprünge.

aufkrawall
2014-10-18, 14:03:01
Hat man nun die kolportierte Haswell-Performance (IPC, Perf/W...)?
Kann man nächstes Jahr mit 20nm Quadcore (+ Maxwell) rechnen?

fondness
2014-10-27, 15:26:30
Nvidia Tegra TK1 is being shunned by major phone designers as if it were suffering from ebola, our industry sources have confirmed.

http://www.fudzilla.com/home/item/36137-phone-designers-shun-tegra-k1

Unicous
2014-10-27, 15:33:00
Hilfe, was für ein Gebrabbel.:eek:

Da steht aber wirklich nicht ein einziger interessanter Satz drin. Nicht einer. Nur sinnloses Hochgewürge von Dingen die nicht mal "Captain Obvious" sagen würde.

Dural
2014-10-27, 15:34:33
Was?

Klar wird K1 gemieden, ohne vernünftiges LTE Modem und erst recht noch zu teuer in Kombination mit LTE Modem. Zudem die TDP gar nicht für Smartphone vorgesehen ist. Und ich frage mich ernsthaft was die da für Quellen haben, gibt es aktuell überhaupt ein K1 Smartphone? Dazu braucht man keine Quellen :freak:

Das Smartphone und Tablet Geschäft ist neben den bekannten Grossen für alle schon Tot.

Ailuros
2014-11-02, 09:00:26
http://forum.beyond3d.com/showpost.php?p=1884767&postcount=3120

http://forum.beyond3d.com/showthread.php?t=61449&page=126

Erste negative Eindruecke, aber es ist noch zu frueh:

https://twitter.com/RDR0b11/status/528320651291947008

https://twitter.com/RDR0b11/status/528682571450703872

Avalox
2014-11-03, 19:35:46
Nexus 9 wird ausgeliefert und schon schwuppen die ersten Batterielaufzeit Tests rein.

Exzellente Laufzeit, sehr schnelle Ladezeit.

http://www.telekom-presse.at/tablets/nexus_9_tablet_mit_zweitlaengster_akkulaufzeit.id.32238.htm

Natürlich ist zu beachten, dass das Gerät mit Android 5 läuft.

Unicous
2014-11-03, 19:47:55
:rolleyes:

As it stands now, my Nexus 9 gets very mediocre battery life. I'm not sure if it's something I'm doing wrong, an app I've installed, or just plain bad luck - the Nexus 9 is not winning any awards for longevity from me. The first full charge netted me a whopping 4 hours of screen-on time over the course of 24 hours off the charger. There was a good 30 minutes of benchmarking thrown in there, though, so that certainly accelerated the drain. Still, I found the SoC at the top of the tablet getting quite warm to the touch just doing basic web browsing - the kind of thing that shouldn't be stressing the chip so much. There's no weirdness in the battery stats, either, it looks pretty normal.

The second charge on LRX16F, my results were only marginally better. I might have been able to edge out four and a half, maybe five hours of screen-on at the rate I was going (35% remaining with 3h15m screen on), but I still wasn't doing anything crazy demanding of the tablet. Maybe a dozen short videos on YouTube. A half hour of music. A couple hours of web and Reddit browsing, and a some time with the screen just idling as I messed with it while writing this review. I have the brightness set to 50% with adaptive mode enabled.

On my first charge with LRX21L, things are looking basically like they were on the second charge with LRX16F. 30 minutes of use means about 10% of battery drained (I'm at 48% on a 90% charge with 2h5m on screen-on), which comes out to 300 minutes if you extrapolate, or 5 hours of screen on. I'm guessing if you're streaming video for hours on end or just reading books, this won't be as bad, I'm sure. As for gaming, I haven't had a chance to really test much yet, but judging by how 3D benchmarking apps drained the Nexus 9 (read: greatly), I would not expect more than a couple hours of graphically-intensive gaming. Maybe less? I'll look into this more later this week.

Either way, Google's battery estimates on the Play Store seem to be basically, if I'm blunt, wildly inaccurate. I'm not sure what universe they're getting 9.5 hours of 'Wi-Fi browsing' in. It's not this one.


http://www.androidpolice.com/2014/11/03/nexus-9-review-a-little-better-on-paper-than-in-practice/#battery-life

Avalox
2014-11-03, 20:09:33
:rolleyes:



Das kommt vom selektiven zitieren.

Aus Androidpolice

"WARNING: This section contains tentative conclusions based on software build LRX16F, a version of Android that will not ship on consumer versions of the Nexus 9. I now have LRX21L and things don't seem substantially better, but I'll update this section later this week regardless." http://www.androidpolice.com/2014/11/03/nexus-9-review-a-little-better-on-paper-than-in-practice/#battery-life


Jetzt darfst du mal raten, welche Firmware Phonearena gleich getestet hat.

Build Number: LRX21L


Ergo, Nexus 9 hat eine Spitzenlaufzeit Laufzeit und eine Spitzenladezeit und Androidpolice muss erst noch mal richtig testen.

Unicous
2014-11-03, 20:14:07
Ney, das kommt vom selektiven Lesen.

On my first charge with LRX21L, things are looking basically like they were on the second charge with LRX16F.


Sein Pressesample könnte zwar einen Knacks haben, aber dennoch sind die Zahlen längst nicht so eindeutig wie du behauptest. Einige bekommen gute Laufzeiten, andere 5-6 Stunden.

Das liegt natürlich wieder daran, das viele nur irgendwelche Scripts drüberlaufen lassen.

Avalox
2014-11-03, 20:20:29
Das liegt natürlich wieder daran, das viele nur irgendwelche Scripts drüberlaufen lassen.


Was willst du denn sonst testen? Es sollen ja vergleichbare Szenarien geschaffen werden.

Sehe dir mal das iPad Air 2 an, dass ist das Retina iPad mit der mit großen Abstand geringsten Akkulaufzeit unter Last und dem mit Abstand höchsten Stromverbrauch. Das Gerät zählt dort in Minuten. Dafür macht es dann ja auch in dieser Zeit mehr, als ein Vorgänger. Solche Vergleiche erschrecken ja nur die Leute.

Man braucht schon eine vergleichbare Basis.

Unicous
2014-11-03, 20:24:21
Vergleichbare Szenarien. Android vs. iOS.

Alles klar.


Die Jury ist noch nicht aus dem Beratungszimmer zurück, man muss das Urteil nicht in den Gerichtssaal schreien.

Besonders wenn Google offensichtlich noch Probleme mit dem review build hatte und einen Tag vor NDA-Fall eine Revision nachschiebt. Nicht die feine Art.



edit zum edit: Es gibt keine vergleichbare Basis mit Scrip-Scheiße. Man muss endlich mal checken, dass man beschissene PC-Methodologie nicht auf den mobilen Sektor übertragen sollte.

Avalox
2014-11-03, 20:28:36
Vergleichbare Szenarien. Android vs. iOS.


Brauchst du gar nicht, da reicht es Apple mit Apple zu testen.
Mit jeder Generation sinkt unter Last die Laufzeit deutlich. Was ja keinesfalls schlecht ist, sondern auf die Leistungsreserven des SoCs hinweist.
Ohne Strom gibt es halt nichts.

Eben sowenig macht es Sinn einen K1 64 durch einen Last Benchmark zu prügeln und dann zu schreien, dass der Akku so schnell leer ist.

Unicous
2014-11-03, 20:35:45
The 9 also gets warm with just light use and downright hot when it’s pushed while playing a game. The iPad isn’t immune to heating up during gameplay, but the Nexus 9’s heat feels less like a discomfort and more like something is terribly wrong.

(Note: Just before this review was scheduled to be published, Google pushed an update to my Nexus 9 review unit that allegedly addresses many of the performance issues I saw. In the time since receiving the update, I have not noticed performance to be significantly better, but I'll be watching it closely and will update this review if necessary.)

Battery life from the Nexus 9’s 6,700mAh cell is closer to the iPad mini than it is to the iPad Air. It will get through a full day of heavy usage, two or more with light usage, which is probably fine for most people.

http://www.theverge.com/2014/11/3/7148087/nexus-9-review



There's just one concerning bit to note: The top-right corner of the tablet (presumably where its brains are located) can get very warm once you starting pushing it around. In my case, it was most apparent while swatting at pumpkin-headed zombies in Dead Trigger 2 -- I haven't noticed the thing getting alarmingly hot, but I did occasionally wonder whether I was gripping a tablet or a warm cup of tea.
http://www.engadget.com/2014/11/03/google-nexus-9-review/

Die Tests schwanken zwischen tolle Leistung, tolle Laufzeit und heiß und fettig und komische Leistungsschwankungen.

Ich tippe auf Probleme beim Powermanagement des K1.

Ailuros
2014-11-03, 20:45:29
Die bisherigen reviews sind NICHT mit dem finalen launch firmware ausgestattet.

http://www.anandtech.com/show/8670/google-nexus-9-preliminary-findings

Unfortunately, in the case of the Nexus 9 while we can make some early observations the version of firmware that we received dates back to August 29th, and in the time since it’s quite likely that there have been significant changes in all directions. The full review will have final numbers as it will be done using shipping firmware.

Unicous
2014-11-03, 20:53:21
Viel schlimmer. Einige haben mit dem release build (von gestern) getestet, einige mit beiden.

Die Ergebnisse sind inkonsistent. Genauso wie die Testmethoden.

Ailuros
2014-11-03, 21:06:09
Viel schlimmer. Einige haben mit dem release build (von gestern) getestet, einige mit beiden.

Die Ergebnisse sind inkonsistent. Genauso wie die Testmethoden.

Ich warte persoenlich lieber Anand's finalen review ab; was so jeder 0815 moechtegern reviewer sonst wo zusammenkritzelt sagt mir meistens nicht viel.

Das Nexus9 sieht rundum als vielsprechend aus; Denver im Gegensatz sieht wohl doch im Gegensatz von noch fraglicher Effizienz aus. Ich bleib aber dabei dass es zu frueh fuer Schlussvolgerungen ist.

LordDeath
2014-11-03, 22:13:21
Die wollen doch alle nur als erster ein "Review" veröffentlichen und es geht denen dabei um den hohen Klick-Ansturm, den es nur zum Releasezeitpunkt gibt.
AnandTech macht mMn echte Reviews, während die anderen da höchstens ein Hands-On als "Review" betiteln.

BlackBirdSR
2014-11-03, 22:44:18
Jetzt kannst du Dir aussuchen, woran die durchwachsen Performance Werte liegen; daran, dass manche Benchmarks schlecht zu morphen sind, oder dass es noch kein passendes "shader replacement" im ROM gibt ;). Bei nvidias track record bin ich da schon etwas geprimed... Mit ein paar Updates wird sie Performance sicher grandios werden. Schade dass man echte Programme nicht benchen kann. Bei Code morphing hilft nicht einmal das umbenennen des Benchmarks...

Ich warte persoenlich lieber Anand's finalen review ab; was so jeder 0815 moechtegern reviewer sonst wo zusammenkritzelt sagt mir meistens nicht viel.

Das Nexus9 sieht rundum als vielsprechend aus; Denver im Gegensatz sieht wohl doch im Gegensatz von noch fraglicher Effizienz aus. Ich bleib aber dabei dass es zu frueh fuer Schlussvolgerungen ist.

differenzdiskriminator
2014-11-04, 09:05:07
während die anderen da höchstens ein Hands-On als "Review" betiteln.
Solange es geklickt wird, warum nicht?

Wir Konsumenten sind doch so dumm und lesen diese "Reviews".

deekey777
2014-11-04, 21:07:12
Anand wollte doch nur dem Leser den dezenten Hinweis geben, dass ein Review zum iPad Air 2 in der Mache ist. X-D

Wie es mich nervt, dass weiterhin 3DMark Unlimited getestet wird, um dann dem Leser zu erklären, warum das Gesamtergebnis relativ niedrig ist.

LordDeath
2014-11-04, 21:23:57
Kann man beim Denver schon erste Einschätzungen zur IPC machen? Wäre die CPU bei gleichem Takt und gleicher Kernzahl besser als ein A8X?

BlackBirdSR
2014-11-04, 21:53:22
Kann man beim Denver schon erste Einschätzungen zur IPC machen? Wäre die CPU bei gleichem Takt und gleicher Kernzahl besser als ein A8X?

Aufgrund des Code Morphings wirst du wahrscheinlich immer eine extrem breite Streuung von sehr gut bis mäßig haben.
Eine richtige Grund-IPC ist dann nicht mehr bezifferbar und das Ergebnis hängt davon ab, wie gut das ROM von Nvidia die vorliegenden Codezeilen analysieren und umsetzen kann.

So einfach wie A15 vs A8 oder A9 vs A15 ist das leider nicht mehr.

mczak
2014-11-04, 23:46:24
Aufgrund des Code Morphings wirst du wahrscheinlich immer eine extrem breite Streuung von sehr gut bis mäßig haben.

So sieht's wohl aus. Trotzdem wage ich mal zu behaupten (aufgrund der bisherigen Resultate auch wenn die noch nicht so viel hergeben) die IPC kommt im Allgemeinen klar nicht an einen Cyclone heran. Muss sie aber auch nicht ist die Architektur doch offensichtlich für deutlich höheren Takt designt. Wie sich das auf Perf/W auswirkt wird man noch sehen die bisher veröffentlichten Zahlen lassen da kaum Rückschlüsse zu.

Skysnake
2014-11-05, 08:15:07
Aufgrund des Code Morphings wirst du wahrscheinlich immer eine extrem breite Streuung von sehr gut bis mäßig haben.
Eine richtige Grund-IPC ist dann nicht mehr bezifferbar und das Ergebnis hängt davon ab, wie gut das ROM von Nvidia die vorliegenden Codezeilen analysieren und umsetzen kann.

So einfach wie A15 vs A8 oder A9 vs A15 ist das leider nicht mehr.
Nicht nur das. Bei Synthies besteht zusätzlich noch die Gefahr, dass sich der Code besonder gut analysieren lässt, bzw. eben sehr oft wiederholt wird, um die Streuung der Messergebnisse durch irgendwelche Randeffekte zu reduzieren.

Das führt dann eventuell zu deutlich besseren Ergebnissen, als im normalen Gebrauch.

Das ist alles wirklich nicht so einfach!

BlackBirdSR
2014-11-05, 08:24:28
Richtig. Gerade bei Benchmarks habe ich ein, sonst eigentlich gewolltes warm up, welches mir hier potentiell völlig unrealistische Performance Werte erzeugt. In einer echten Anwendung wird das nicht immer der Fall sein.

Leider sind wir im mobile Bereich auf dem Niveau von vor 10 Jahren, was Benchmark Wissenschaften betrifft. Ein average Wert mit wenig immer gleichen, speziellen Benchmarks. Und alle wundern sich, warum jeder cheatet....

Nicht nur das. Bei Synthies besteht zusätzlich noch die Gefahr, dass sich der Code besonder gut analysieren lässt, bzw. eben sehr oft wiederholt wird, um die Streuung der Messergebnisse durch irgendwelche Randeffekte zu reduzieren.

Das führt dann eventuell zu deutlich besseren Ergebnissen, als im normalen Gebrauch.

Das ist alles wirklich nicht so einfach!

y33H@
2014-11-05, 09:48:35
Meins ist jez auch da, bin mal gespannt ...

robbitop
2014-11-05, 09:57:51
Gibt es denn keine Möglichkeit, eine Art FRAPS für mobile Plattformen im Hintergrund laufen zu lassen? Dann könnte man auch manuell Spiele benchmarken. Savegame laden und gleichen Pfad entlanglaufen. Ist bei PCGH Gang und Gebe.

Ansonsten ist es ja nunmal so, dass IMO wichtig für Mobile Plattformen ist, wie schnell Apps laden und wie schnell Webseiten laden. Auch das kann man messen. (ist dann allerdings nicht nur auf die CPU zurückzuführen).

Avalox
2014-11-05, 10:05:04
Für Android geht und gibt es sowas.

Gamebench z.B. als automatischer Benchmark

http://gamebench.net/

und normale Screencast Tools gibt es auch zur Genüge.

y33H@
2014-11-05, 10:36:37
Das Nexus hat mit dem Update einen Kernel von Ende Oktober, der Patch ändert aber nichts an der Performance in den von mir genutzten Anwendungen.

EDIT
Die Dynamic Code Optimization ist ja mal spannend ...

Dural
2014-11-05, 11:12:46
mich würde vor allem der direkte vergleich zum Shield interessieren.

ich bin mit meinem Shield nämlich sehr zu frieden, die Leistung ist schon einfach gut.

Ailuros
2014-11-05, 11:33:38
Gibt es denn keine Möglichkeit, eine Art FRAPS für mobile Plattformen im Hintergrund laufen zu lassen? Dann könnte man auch manuell Spiele benchmarken. Savegame laden und gleichen Pfad entlanglaufen. Ist bei PCGH Gang und Gebe.

Ansonsten ist es ja nunmal so, dass IMO wichtig für Mobile Plattformen ist, wie schnell Apps laden und wie schnell Webseiten laden. Auch das kann man messen. (ist dann allerdings nicht nur auf die CPU zurückzuführen).

Relevante Debatte hier: http://forum.beyond3d.com/showthread.php?t=65773

Achtung: http://forum.beyond3d.com/showpost.php?p=1885113&postcount=4

Avalox
2014-11-08, 09:37:20
Was mir grad noch einfällt sollte Denver nicht sogar noch besser Benchen so bald Geekbench ne 64 Bit Android Version anbietet?

Dort steht noch:

Geekbench 3.2.2 for Android AArch32

http://browser.primatelabs.com/geekbench3/1014854


Erste Prototypen Benchmarks der 64Bit Version.

http://browser.primatelabs.com/geekbench3/compare/1194993?baseline=1014854

Ailuros
2014-11-08, 11:24:34
Erste Prototypen Benchmarks der 64Bit Version.

http://browser.primatelabs.com/geekbench3/compare/1194993?baseline=1014854

Ich muss mich wohl heftig kneifen um mich ueber Denver zu "begeistern", aber ich warte wohl lieber erstmal die ersten finalen reviews vom Nexus9 und Echtzeit-tests ab fuer die entgueltige Schlussfolgerung.

Knuddelbearli
2014-11-08, 11:26:04
gibts den immer noch keine tests? ...

Liebäugle mit dem nexus 9 auch wenn ich eigentlich mindestens ein 10 Zoll Gerät will. Auf den günstigen wird Hearthstone aber wohl nicht laufen :-/

mboeller
2014-11-08, 13:10:01
doch, schon lange:

http://www.gsmarena.com/htc_nexus_9-review-1160.php

Offen ist noch die Performance... da hackt es ja anscheinend noch an der Software

robbitop
2014-11-08, 13:32:35
Dank 4:3 ist das Nexus 9 groß genug. 16:9 und 16:10 machen ja eigentlich nur bei Filmen Sinn. Beim Browsen fehlt aber die Bildhöhe und dadurch braucht man bei Breitbildtablets größere Diagonalen als 4:3.

SentinelBorg
2014-11-12, 12:02:29
Dank 4:3 ist das Nexus 9 groß genug. 16:9 und 16:10 machen ja eigentlich nur bei Filmen Sinn. Beim Browsen fehlt aber die Bildhöhe und dadurch braucht man bei Breitbildtablets größere Diagonalen als 4:3.
Bei Games wird bei 4:3 links und rechts meist was weggelassen, wird aber irgendwie fast durchgehend ignoriert in der Presse. Finde ich aber z.B. bei einem Game wie Asphalt 8, wo man doch gerne etwas um die Kurve blicken möchte, nicht ganz unwichtig.

robbitop
2014-11-12, 12:57:47
Ich finde Games auf Tablets und Smartphones witz- und sinnlos. Die Spiele sind verglichen mit AAA Titeln schlecht umgesetzt und Formfaktor und Eingabemöglichkeiten verschlechtern es weiter. IMO ist das eher um mal casual mäßig 5 min rumzukriegen. Zocken tut man tausendmal besser am PC und an Konsolen. IMO.

Kernanwendung bei Tablets ist zu 90% der Browser oder irgendwelche Apps. Und dafür ist 4:3 einfach ideal.

Skysnake
2014-12-10, 15:38:21
0,7% vom Kuchen gehen an..... nVidia. (http://www.heise.de/newsticker/meldung/GPUs-fuer-Smartphones-und-Tablets-Marketing-Koenig-Nvidia-spielt-keine-Rolle-2486152.html)

Berauschend ist etwas anderes.

dildo4u
2014-12-10, 15:55:42
Sind halt Zahlen bevor das N9 rauskam,das gibt's bei jedem Hersteller niemand kauft ein altes Modell wenn das neue vor der Tür steht.
Tegra + Nexus war 2012 sehr lukrativ.

http://winfuture.de/news,72770.html

Ailuros
2014-12-10, 16:10:39
Sind halt Zahlen bevor das N9 rauskam,das gibt's bei jedem Hersteller niemand kauft ein altes Modell wenn das neue vor der Tür steht.
Tegra + Nexus war 2012 sehr lukrativ.

http://winfuture.de/news,72770.html

Dann runde halt auf 1% Marktanteil auf falls Du wirklich denkst dass es einen wesentlichen Unterschied machen wird. Nur so nebenbei alle anderen SoC Hersteller verkaufen ULP GPUs weiter waehrend Google ein paar Mio Nexus9 tablets verkaufen wird.

:freak:

http://jonpeddie.com/press-releases/details/the-demand-for-powerful-gpus-in-mobile-devices-drive-the-industry1/

http://jonpeddie.com/images/uploads/news/Qualcomm%20new.png

----------------------------------------------------------------------------------

Sonst imposant dass ARM schon fast IMG Paroli bieten kann im GPU Marktanteil; alle Achtung.

Skysnake
2014-12-10, 16:18:24
Das ist für den gesamten Tablet+Smartphone Markt gerechnet, und du kommst jetzt mit einem läppischen Gerät daher? :ugly:

Sorry, aber selbst fünf Nexus würden nicht dafür sorgen, das nVidia plötzlich bei ~10% wären. Was soll das N9 ausmachen? 0.1% oder doch eher weniger?

Ailuros
2014-12-10, 16:25:55
Das ist für den gesamten Tablet+Smartphone Markt gerechnet, und du kommst jetzt mit einem läppischen Gerät daher? :ugly:

Sorry, aber selbst fünf Nexus würden nicht dafür sorgen, das nVidia plötzlich bei ~10% wären. Was soll das N9 ausmachen? 0.1% oder doch eher weniger?

Steht irgendwo in den obrigen links drin wie das heutige insgesamte Volumen aussieht? Da JPR bisher immer embedded mitberechnet wuerde ich fuer Q3 14' irgendwo um die 350-400Mio Einheiten insgesamt schaetzen. NV hat fuer 2012 damals insgesamt um die 10Mio fuer's ganze Jahr verkauft.

Uebrigens:

http://jonpeddie.com/publications/mobile-devices-and-the-gpus-inside/

http://jonpeddie.com/images/uploads/publications/GPUinside.JPG

H1 13' vs. H1 14'

VooDoo7mx
2014-12-10, 16:47:09
Sind halt Zahlen bevor das N9 rauskam,das gibt's bei jedem Hersteller niemand kauft ein altes Modell wenn das neue vor der Tür steht.
Tegra + Nexus war 2012 sehr lukrativ.

http://winfuture.de/news,72770.html

Du hast ja den unglaublichen Weitblick... :rolleyes:
Du tust gerade so so, als ob das Nexus 9 der Super Verkaufsschlager ist und die Zahlen rumreißen wird. Dabei ist dieses gerät ein bei den Massen unbekanntes Nischengerät das selber bei tech Nerds nicht besonders viel Anklang findet.
Zusätzlich vergleichst du Verkaufszahlen vom 2012 Nexus 7 mit etwaigen Zahlen des Nexus 9 was absolut lächerlich ist. das Nexus 7 gab es ab 199€, dass Nexus 9 heute ab 399€. Das sind 2 komplett verschiedene Preisbereiche. Das Nexus 7 war nur so Absatzstark weil es so verdammt günstig zum Erscheinungstermin war.
Die Erfahrung sagt auch das im Tablet Bereich nur Apple auch Apple Preise verlangen kann, alles andere wird von der tumben Masse verschmäht und muss sich im billigst Lowcost Berecih rumprügeln.
Das Nexus 9 ist auf Lebenszeit nur ein absolute Nischenprodukt. Und daran gibt es nichts zu rütteln.

Nicht falsch verstehen, ich finde das der Denver K1 ein gutes Produkt ist, was auch mal in mehr Geräten auftauchen könnte. Nur ist deine Martanalyse absoluter Schwachsinn.

Ailuros
2014-12-10, 16:53:12
Nun ja schlecht verkauft hat sich das MiPad anscheinend wohl nicht, aber auch nicht zu so verrueckten Volumen wie es manche erwartet hatten. Wenn ich mich nicht falsch eingeschaetzt habe koennte das 0.7% Prozentual fuer H1 14' um die 7Mio Einheiten bedeuten (Vorsicht! jeder chart ist fuer etwas anderes). Von dem muesste man abrechnen wieviel noch von vorigen SoCs in dem Volumen steckt und vom Rest der dann fuer K1 steht duerfte die Mehrzahl ans MiPad gehen dank niedrigstem Preis.

Skysnake
2014-12-10, 20:34:27
Nein, ich hab gesucht, ob man irgendwo das Gesamtvolumen findet, bin aber leider nicht fündig geworden. Im Prinzip ist es aber auch egal, wie hoch die absoluten Zahlen aussehen.

Mit dem Marktanteil, dreht keiner für nVidia dauerhaft ne Extrawurst, wenn Sie nicht dafür was auf den Tisch legen. nVidia ist da in etwa in der Position von VIA im x86 Markt, wenn auch mit deutlich konkurrenzfähigeren Produkten natürlich. Am Ende sind Sie aber eben nur ein Lüftchen im Wasserglas.

So können Sie auf Dauer auf jeden Fall nicht bestehen. Die Konkurrenz kann bei so viel mehr verkauften Einheiten den Preis praktisch ins Bodenlose drücken im Vergleich zu dem was nVidia verlangen muss, um allein nach R&D mit ner schwarzen Null raus zu gehen.

Ailuros
2014-12-10, 20:47:23
Nein, ich hab gesucht, ob man irgendwo das Gesamtvolumen findet, bin aber leider nicht fündig geworden. Im Prinzip ist es aber auch egal, wie hoch die absoluten Zahlen aussehen.

Es gibt keine Berichte dass Mediatek ihre Ziele nicht erreichen wird, aber ich hab sie mal 10% unter ihrem Ziel bei 300Mio/Jahr eingeschaetzt, was bei einem Halbjahr der Milchmaedchen-rechnung in etwa 150Mio macht , fuer einen Anteil von 15.7%. Wenn man ein Auge zudrueckt klingt es gar nicht so absurd denn es stellt Intel auf ca. 15Mio Einheiten fuers Halbjahr welches auch stimmen koennte. Ihr Ziel soll 40Mio gewesen sein fuers gesamte Jahr und wurde afaik nicht erreicht.

Wenn's ungefaehr in der Naehe der Realitaet stehen sollte kann es sogar sein dass NV etwas mehr SoCs verkauft als in 2012 und vielleicht doch randmaessig etwas Gewinn macht. Ein Ereignis ist es trotzdem nicht; Jensen kann es immer noch nicht fassen dass sie selbst mit einem K1 ihre ziemlich konservativen Projektionen nicht treffen konnten.

Mit dem Marktanteil, dreht keiner für nVidia dauerhaft ne Extrawurst, wenn Sie nicht dafür was auf den Tisch legen. nVidia ist da in etwa in der Position von VIA im x86 Markt, wenn auch mit deutlich konkurrenzfähigeren Produkten natürlich. Am Ende sind Sie aber eben nur ein Lüftchen im Wasserglas.

So können Sie auf Dauer auf jeden Fall nicht bestehen. Die Konkurrenz kann bei so viel mehr verkauften Einheiten den Preis praktisch ins Bodenlose drücken im Vergleich zu dem was nVidia verlangen muss, um allein nach R&D mit ner schwarzen Null raus zu gehen.

Tja ich bin mir zwar noch nicht sicher, aber wenn das was ich weiss stimmt gibt es vielleicht schon eine Chance fuer eine unerwartete Eintagsfliege mit Erista ;)

Skysnake
2014-12-10, 20:54:03
Nur bringen "Eintagsfliegen" nVidia rein gar nichts.

Die müssen keine krassen Gewinne machen, aber nen vernünftigen Marktanteil gewinnen, damit die R&D Kosten immer schön zurückkommen, und man eben auch die nächsten 10 Jahre Jahr für Jahr für Jahr richtig R&D reinbuttert. Wer in dem Bereich auch nur durchatmet kommt schon unter die Räder.

Wie man in dem Bericht ja auch zwischen den Zeilen lesen kann, wird/muss wohl noch einer oder zwei unter die Räder kommen, und aktuell würde ich da am ehesten auf Intel und nVidia meinen Tipp abgeben.

@Stückzahlen:
Jo, das klingt sehr vernünftig. :up:

Ailuros
2014-12-10, 20:57:27
Nur bringen "Eintagsfliegen" nVidia rein gar nichts.

Die müssen keine krassen Gewinne machen, aber nen vernünftigen Marktanteil gewinnen, damit die R&D Kosten immer schön zurückkommen, und man eben auch die nächsten 10 Jahre Jahr für Jahr für Jahr richtig R&D reinbuttert. Wer in dem Bereich auch nur durchatmet kommt schon unter die Räder.

Wie man in dem Bericht ja auch zwischen den Zeilen lesen kann, wird/muss wohl noch einer oder zwei unter die Räder kommen, und aktuell würde ich da am ehesten auf Intel und nVidia meinen Tipp abgeben.

NV hat schon seit einizer Zeit resources minimalisiert.

Dural
2014-12-11, 11:39:27
0,7% finde ich sogar viel, den ich sehe weit und breit keine Tegra Geräte mit K1 ausser das N9 :freak:

Ist da das Auto zeugs auch drin?

Ailuros
2014-12-11, 11:40:11
Ist da das Auto zeugs auch drin?

Ja.

Dural
2014-12-11, 11:43:31
nix

Dural
2014-12-11, 11:46:04
Ja OK, wenn das so ist kann ich die 0,7% nachvollziehen inkl. Shield kommt das schon hin.


Viel schlimmer finde ich da Intel, die Verschenken ihre SoC und Tümpeln immer noch bei 1,5% rum.

Ailuros
2014-12-11, 11:47:56
Viel schlimmer finde ich da Intel, die Verschenken ihre SoC und Tümpeln immer noch bei 1,5% rum.

*hust* http://semiaccurate.com/2014/12/01/can-intels-sofia-actually-end-contra-revenue-funding/

Hübie
2014-12-11, 14:13:40
Intel hat immerhin 50% Zuwachs ;D Nimmt man jetzt Marktanteil pro Zeit sind die klarer Sieger.
Man kann also alles so auslegen wie man es gerne hätte. Deshalb freu ich mich auch wieder auf conference calls vom Jensen :naughty:

Ohne scheiß: da lernt man am meisten.

Botcruscher
2014-12-11, 14:34:29
Intel hat im Gegensatz dazu aber auch dauerhaft das Geld.

fondness
2014-12-11, 15:19:10
Intel hat alleine im 3. Quartal 14 Millionen Tablet SoCs ausgeliefert.

reaperrr
2014-12-11, 18:08:32
Intel hat alleine im 3. Quartal 14 Millionen Tablet SoCs ausgeliefert.
Und 1 Million Umsatz bei 250 Millionen Verlust (Zahlen aus der Luft gegriffen, aber gar nicht so weit von der Wahrheit weg, wenn ich mich richtig erinnere).

Das einzige, was Intel momentan mit dieser Taktik erreicht, sind Marktanteile, aber die sind verdammt teuer erkauft.

Aber das ist nur eine Momentaufnahme. Auf Dauer bringt diese Taktik auch Intel nur etwas, wenn sie irgendwann so viel Marktakzeptanz haben, dass sie wieder genug Geld verlangen und trotzdem genug Chips loswerden können, um in dieser Sparte Gewinn einfahren. Wenn die OEMs bei normalisierten Preisen wieder zur Konkurrenz greifen, hat Intel nur Geld verbrannt. Es geht auch schon das Gerücht um, dass Intel die contra-revenue-Taktik bald aufgibt, kostet halt viel Geld und unendlich ist die Geduld der Aktionäre auch nicht, das Geld hätte man schließlich auch als Dividende ausschütten können.

Blediator16
2014-12-20, 03:07:54
http://9to5google.com/2014/12/19/tegra-k1-project-ara/

Wird spannend wie das Teil sich in einem Smartphone schlagen wird, wenn man mal jemand sich das Telefon so zusammenstellt.

AffenJack
2014-12-20, 09:46:13
Bei den Verbrauchswerten schätze ich auf max 20FPs in GfxBench und trotzdem ziemliches throtteln. Aber gut, dass stört bei QC ja auch niemanden. Nur wann soll Ara denn kommen? Für mich ist unverständlich, dass da noch K1 verwendet wird und nicht schon M1, außer Ara kommt gleich am Anfang des Jahres? Denn K1 im Smartphone sollte gegen S810 usw ziemlich den kürzeren ziehen. Mag aber sein, dass Nvidia einfach den SoC billig angeboten hat.

hasebaer
2014-12-20, 10:43:46
Mag doch sein, dass NV bis dahin von 28 HPM auch auf 20 SoC bei Tegra K1 gewechselt ist.

Mancko
2014-12-20, 11:45:43
Mag doch sein, dass NV bis dahin von 28 HPM auch auf 20 SoC bei Tegra K1 gewechselt ist.

Lohnt sich das noch? Der Nachfolger ist doch auch nicht mehr so weit weg. Gut ich habe keine Ahnung wann Google die Phones bringen will. Aber so richtig lohnen würde ich m.E. der Umstieg beim K1 nicht mehr. Welcher K1 ist hier eigentlich gemeint? Die A15 Variante oder die Denver Variante? Vermutlich letzteres oder?

hasebaer
2014-12-20, 12:24:59
Nachdem QC von 28HPM auf 20SOC gewechselt ist für ihren 808 und 810, wird sich das technisch sicherlich lohnen. Ob sich das auch für NV rechnet ist die andere Frage.

AffenJack
2014-12-20, 13:06:08
Qualcomm ist für einen neuen Chip zu 20nm gewechselt und genau das macht Nv mit Erista auch. K1 wird aber nicht geshrinkt werden. In 2 Wochen werden wir wohl wie jedes Jahr zur CES die Presentation vom neuen Tegra sehen. Zu Erista sind mittlerweile ja auch schon die wahrscheinlichen Daten bekannt, wenn man sich Erinyes Posts bei B3D anschaut:
https://forum.beyond3d.com/posts/1813841/

Also 20nm, 2 Maxwell SMM, also 256 SP und 4+4 A57+A53 Kerne. Sollte irgendwann in H1 2015 erscheinen. Nimmt man dazu die Folie aus diesem Jahr die Erista 60% mehr Gflops als K1 bescheinigt, dann landen wir bei 1ghz Takt und 500Gflops Leistung.

fondness
2014-12-20, 13:09:43
Die Frage ist eher bei wieviel TDP wir bei Erista landen werden und je nach dem welchen Markt man bedienen will.

Ailuros
2014-12-20, 13:39:01
Qualcomm ist für einen neuen Chip zu 20nm gewechselt und genau das macht Nv mit Erista auch. K1 wird aber nicht geshrinkt werden. In 2 Wochen werden wir wohl wie jedes Jahr zur CES die Presentation vom neuen Tegra sehen. Zu Erista sind mittlerweile ja auch schon die wahrscheinlichen Daten bekannt, wenn man sich Erinyes Posts bei B3D anschaut:
https://forum.beyond3d.com/posts/1813841/

Also 20nm, 2 Maxwell SMM, also 256 SP und 4+4 A57+A53 Kerne. Sollte irgendwann in H1 2015 erscheinen. Nimmt man dazu die Folie aus diesem Jahr die Erista 60% mehr Gflops als K1 bescheinigt, dann landen wir bei 1ghz Takt und 500Gflops Leistung.

* Eine Ankuendigung Anfang 2015 heisst auch nicht gleichzeitige Verfuergbarkeit. Es ist keine GPU wo man in 6 Monaten vom tape out zur Prioduktion kommt.

* Sie takten in keinem Geraet GK20A auf 852 MHz, ergo duerfen es auch weniger FLOPs sein.

* Wird es eine Denver Variante von Erista geben? Die NV shills sind sich wie immer "sicher" obwohl es bisher nicht mal eine Indiizie dafuer gibt.

* Zum Stromverbrauch in fondness' Post: schlimmer als beim S810 wird es wohl schwer werden wenn die Geruchte dafuer stimmen. Wenn QCOM wirklich ein Problem hat, gibt es nicht viele high end Android SoCs.

AffenJack
2014-12-20, 14:10:28
* Eine Ankuendigung Anfang 2015 heisst auch nicht gleichzeitige Verfuergbarkeit. Es ist keine GPU wo man in 6 Monaten vom tape out zur Prioduktion kommt.

* Sie takten in keinem Geraet GK20A auf 852 MHz, ergo duerfen es auch weniger FLOPs sein.

* Wird es eine Denver Variante von Erista geben? Die NV shills sind sich wie immer "sicher" obwohl es bisher nicht mal eine Indiizie dafuer gibt.

* Zum Stromverbrauch in fondness' Post: schlimmer als beim S810 wird es wohl schwer werden wenn die Geruchte dafuer stimmen. Wenn QCOM wirklich ein Problem hat, gibt es nicht viele high end Android SoCs.

Ja klar, ich spreche auch nur von Nvs Presentation auf der CES. In Produkten würde ich Erista eher Ende Q2 erwarten, wenn nicht mal wieder Probleme auftreten und ob man den Takt von 1ghz in Geräten sieht darf auch bezweifelt werden. Auf der CES letztes Jahr wurde ja auch hochtrabend 950mhz für K1 angekündigt und wir wissen wies geendet ist.

Es wird über nen Haufen Geräte mit S810 spekuliert die auf der CES oder kurz danach vorgestellt werden könnten. Das spricht nicht unbedingt für die Gerüchte, aber kann natürlich auch sein, dass S810 einfach niedriger getaktet wird als ursprünglich angedacht.

Ailuros
2014-12-20, 15:14:46
OT aber es muessen irgendwelche verrueckte Leistungsschaetzungen fuer Adreno430 herumschwirren. Die meisten entsprechen nicht der Realitaet und 430 ist nur ein relativ marginaler upgrade im Vergleich zum 420. Damit es klarer wird, solche Eintraege wie dieser hier: http://en.wikipedia.org/wiki/Adreno sind natuerlich bodenlos uebertrieben ;)

Ailuros
2014-12-21, 16:33:02
Da die NV fans gerade so tun als ob der Messiah wieder gekommen waere:

http://www.tomshardware.com/news/project-ara-tegra-k1-marvell,28255.html

*hurrah!* *schnarch* :rolleyes:

Hübie
2014-12-21, 18:42:49
Hahahaa X-D Danke!

hasebaer
2014-12-23, 17:05:57
Mal abgesehen vom Preis und OS, ansonst sehr ordentlich:

HP Chromebook 14 (Link zu HP (http://store.hp.com/webapp/wcs/stores/servlet/us/en/pdp/Laptops/hp-chromebook---14-x050nr-%28energy-star%29))


Tegra K1
14" Full HD Touch-Display
4GB RAM
32GB SSD (eMMC)
USB 3.0 / 2.0
HDMI Ausgang
microSD Slot

UVP 439,99 USD

http://ssl-product-images.www8-hp.com/digmedialib/prodimg/lowres/c04404362.png

Ailuros
2014-12-23, 20:30:15
Tatsaechlich zu teuer; fuer's fast gleiche Geld hab ich gerade ein Angebot fuer ein Dell INSPIRON I3542-6003BK. Von dem abgesehen wie gross ist die Batterie vom Chromebook dass es nur 8.5 Stunden anhaelt? Bei 1.7kg Gewicht sollte die Batterie gross genug sein...

Ailuros
2015-01-03, 19:14:27
http://finance.yahoo.com/news/nvidia-announces-2015-ces-press-140000013.html

Schnell zieht die Hosen runter; man muss auch irgendwie auf den kommenden Rauch und Qualm reagieren koennen :weg:

Ailuros
2015-01-05, 07:46:17
http://www.hardwarezone.com.sg/feature-preview-nvidia-tegra-x1-benchmark-results

http://www.hardwarezone.com.sg/files/img/2015/01/nvidia-x1-energy1.jpg

Mit oder ohne throttling? :P

=Floi=
2015-01-05, 08:03:50
eher vsync :p

Sunrise
2015-01-05, 08:49:55
http://www.hardwarezone.com.sg/feature-preview-nvidia-tegra-x1-benchmark-results
...
Mit oder ohne throttling? :P
Die 10 Watt Verbrauch bei der Unreal Demo machen mich zumindest mal skeptisch.

Hier gibts noch ein paar technische Details:
http://wccftech.com/nvidia-tegra-x1-super-chip-announced-ces-2015-features-maxwell-core-architecture-256-cuda-cores/

HDMI 2.0 und 10bit color (HEVC) und 4K bei 60fps, das Ding is überraschend gut ausgestattet. Würde mich mal interessieren, ob das weiterhin der Hybrid-Decoder der Desktop-Maxwells ist oder ob das schon einen Schritt weiter geht. Wahrscheinlich aber Ersteres.

deekey777
2015-01-05, 09:05:41
http://www.hardwarezone.com.sg/feature-preview-nvidia-tegra-x1-benchmark-results

http://www.hardwarezone.com.sg/files/img/2015/01/nvidia-x1-energy1.jpg

Mit oder ohne throttling? :P
http://www.anandtech.com/show/8811/nvidia-tegra-x1-preview/3

For power testing NVIDIA ran Manhattan 1080p (offscreen) with X1’s GPU underclocked to match the performance of the A8X at roughly 33fps. Pictured below are the average power consumption (in watts) for the X1 and A8X respectively.

NVIDIA’s tools show the X1’s GPU averages 1.51W over the run of Manhattan. Meanwhile the A8X’s GPU averages 2.67W, over a watt more for otherwise equal performance. This test is especially notable since both SoCs are manufactured on the same TSMC 20nm SoC process, which means that any performance differences between the two devices are solely a function of energy efficiency.

Und was verbraucht die CPU in dieser Zeit so?

Skysnake
2015-01-05, 09:33:59
Viel interessanter, man wechselt auf die ARM Standardkost!

Von Denver ist ja noch immer nichts zu sehen, und die Extrawurst mit dem Extrakern hat man auch fallen gelassen, wobei ich das sehr sehr positiv sehe an sich. Damit steigt die Kompatibilität im Vergleich zu anderen Herstellern. Andererseits lässt sich nVidia damit auch wieder leichter aus den Produkten raus drängen. Wobei die Frage halt noch ist, ob CUDA für die Software verwendet wird, oder OpenCL. Wenns CUDA ist, dann haben Sie natürlich nen schönen Vendorlock drin. Fragt sich, ob die Hersteller so blöd sind, sich darauf ein zu lassen.

Was mir aber allgemein noch Kopfzerbrechen macht ist die Tatsache, das nVidia an sich, meines Wissens nach, absolut keine Erfahrung im Automotiv hat. Also über viele Jahre hinweg auf vielen Märkten. Gerade wenn es um autonomes Fahren usw geht, können die Anforderungen von den Behörden ja exorbitant hoch sein, genau wie auch von den PKW Herstellern. Gerade die sind ja letztes Jahr massenweise auf die Fresse geflogen. Ob es jetzt Airbags, Zündschlösser oder was weiß ich noch alles war, die mussten Rückrufaktionen am laufenden Band machen....

Ich hatte letztes Jahr mal nen Vortrag von einem BOSCH-Vertreter gehört bzgl. Design von ASICs für den automotiv Bereich. Das war schon sehr sehr krass, was die da an Specs zumindest bei BOSCH haben. Ich habe da wirklich noch Bauchweh, das nVidia was in dem Maße auch alles durchzieht, und damit am Ende einen Chip hat, der seine 10-20 Jahre ohne zu murren runter reist. Denn sowas wie den BGA-"Bug" können Sie sich da nicht mehr erlauben. Nicht mal ansatzweise.

Ailuros
2015-01-05, 09:41:04
http://www.anandtech.com/show/8811/nvidia-tegra-x1-preview/3



Und was verbraucht die CPU in dieser Zeit so?

Gfxbench benchmarks sind total GPU bound; bei einem A15/A7 big.LITTLE config leuchtet ein einziger A7 bei nicht mal voller Pulle auf. Der Punkt hier ist dass Apple's naechstes tablet wohl wieder eine groessere Laufzeit unter 3D haben koennte.

Die 10 Watt Verbrauch bei der Unreal Demo machen mich zumindest mal skeptisch.

Hier gibts noch ein paar technische Details:
http://wccftech.com/nvidia-tegra-x1-super-chip-announced-ces-2015-features-maxwell-core-architecture-256-cuda-cores/

HDMI 2.0 und 10bit color (HEVC) und 4K bei 60fps, das Ding is überraschend gut ausgestattet. Würde mich mal interessieren, ob das weiterhin der Hybrid-Decoder der Desktop-Maxwells ist oder ob das schon einen Schritt weiter geht. Wahrscheinlich aber Ersteres.


Vom Anand Artikel find ich die A57/53 big.LITTLE Implementierung am interessantesten. Ach ja und dann noch dieses:

http://www.anandtech.com/show/8811/nvidia-tegra-x1-preview/2

http://images.anandtech.com/doci/8811/FP16Op_575px.png

Bis jetzt musste wir von den NV fanboys fast lesen dass IMG mit dedizierten FP16 ALUs nahezu beweisst und dass FP32 schon seit langem "standard" sei (wo genau?). Im ULP SoC auf jeden Fall nicht und die Wichtigkeit von FP16 relevanten Optimierungen sind wohl nur denjenigen entgangen die keinen blassen Schimmer haben was im spezifischen Markt vorgeht.

Hier muss ich natuerlich sagen dass es mir ernsthaft leid tut dass ueberhaupt die heutigen Tegras nicht viel mehr Land sehen. Die GPUs in den SoCs und auch die unterliegende Treiber sind nahezu vorbildlich, es ist eben leider so dass die insgesamte Strategie im obrigen Management die ganze Supper verpatzt hat und auch weiterhin verpatzen wird.

Sonst zum ueblichen Marketingscheiss: 1000MHz/X1 GPU vs. 950MHz/K1 GPU. Wir wissen alle wie "realistisch" diese 950MHz waren, wobei es in Echtzeit-Geraeten nichtmal zu 800MHz kam und dieses mit ~20% GPU throttling.

Viel interessanter, man wechselt auf die ARM Standardkost!

So sieht es nach aussen aus. Die Implementierung aber laut dem Anandtech Artikel ist schon einzigartig und koennte genau da drauflegen wo ARM's big.LITTLE Scheiss am meisten verfehlt.

Von Denver ist ja noch immer nichts zu sehen, und die Extrawurst mit dem Extrakern hat man auch fallen gelassen, wobei ich das sehr sehr positiv sehe an sich. Damit steigt die Kompatibilität im Vergleich zu anderen Herstellern. Andererseits lässt sich nVidia damit auch wieder leichter aus den Produkten raus drängen. Wobei die Frage halt noch ist, ob CUDA für die Software verwendet wird, oder OpenCL. Wenns CUDA ist, dann haben Sie natürlich nen schönen Vendorlock drin. Fragt sich, ob die Hersteller so blöd sind, sich darauf ein zu lassen.

Ich brauch nur einen Tag Zeit mein bescheidenes Laien-write up fuer ein big.LITTLE tablet fertig zu schreiben. Ich sag es nochmal egal wie gemein es klingt: Apple sollte Cyclone an ARM zurueck-lizenzieren.

Was mir aber allgemein noch Kopfzerbrechen macht ist die Tatsache, das nVidia an sich, meines Wissens nach, absolut keine Erfahrung im Automotiv hat. Also über viele Jahre hinweg auf vielen Märkten. Gerade wenn es um autonomes Fahren usw geht, können die Anforderungen von den Behörden ja exorbitant hoch sein, genau wie auch von den PKW Herstellern. Gerade die sind ja letztes Jahr massenweise auf die Fresse geflogen. Ob es jetzt Airbags, Zündschlösser oder was weiß ich noch alles war, die mussten Rückrufaktionen am laufenden Band machen....

NV hat zu viel und zu feiste Konkurrenz im automotive dass es langfristig dort je zu einem groesseren Marktanteil kommt. Alles zusammengeschuettet waren es doch 0.7% Marktanteil im letzten JPR report oder?

deekey777
2015-01-05, 10:04:47
Avalox kommt bald und schreibt "Ich habe euch dahingehend informiert".

Der Umstieg auf Groß.Klein ist überraschend, aber nachvollziehbar. Überraschend, weil in die Custom-Cores Geld gesteckt wurde und diese wohl vergraben wurden.

Skysnake
2015-01-05, 10:07:15
Jup, aber das war automotiv nicht gesondert betrachtet. Da könnten Sie unter umständen schon was reisen, aber das reicht natürlich nicht aus, könnte aber auf viele Jahre eine nette Niesche bieten, die einen über Wasser hält.

BTT:
Auf HWLuxx gibts jetzt auch das Update. Ist also doch nicht einfach das BigLitte Konzept, sondern man kann alle Kerne gleichzeitig nutzen. War das nicht auch mal von Samsung angepeilt?

Bzgl FP16:
Jetzt mal ganz ernst gefragt. Das man zwei FP16 Ops auf ner FP32 ALU ausführen kann, ist doch Standard o_O Maxwell kann das doch sicherlich auch im Desktop. Hat jemand dazu "Whitepaper" (richtige gibts ja von nVidia seit langem nicht mehr) parat, die dazu was Aussagen?

Kann mir das kaum vorstellen. Damit wäre das aber wieder absolut nichts besonderes.

Was mir aber mal wieder ziemlich auf den Senkel geht ist der Vergleich mit ASCI-RED..... Das Ding hat 1TFlop/s in LINPACK!!! Also DP und dann noch in ner explizieten Anwendung... Rein von der DP-Rechenleistung hatte das Ding ja wenn ichs richtig überschlagen habe, rund 1,8 TFlop/s. Und wenn man es auf FP16 münzt, dann sollten es durch die MMX-Erweiterung, die ja 4 FP16 pro Takt ermöglichen sollte, soweit ich das richtig in Erinnerung habe, sogar 7,2TFlop/s reine sterile Rechenleistung sein....

Das ist sowas von nem Äpfel mit Birnen Vergleich, der absolut an den Haaren herbeigezogen ist, um irgendwelche Superlativen zu bedienen, und dabei eben noch verarscht.....

Ich habe nichts allgemein gegen Vergleiche mit Supercomputern, aber man sollte wenigstens halbwegs fair vergleichen....

Ailuros
2015-01-05, 10:11:02
Avalox kommt bald und schreibt "Ich habe euch dahingehend informiert".

Aus Anand's Artikel:

However, rather than a somewhat standard big.LITTLE configuration as one might expect, NVIDIA continues to use their own unique system. This includes a custom interconnect rather than ARM’s CCI-400, and cluster migration rather than global task scheduling which exposes all eight cores to userspace applications. It’s important to note that NVIDIA’s solution is cache coherent, so this system won't suffer from the power/performance penalties that one might expect given experience with previous SoCs that use cluster migration.

Although cluster migration is usually a detriment to power and performance (especially without a cache coherent interconnect), NVIDIA claims that Tegra X1 significantly outperforms Samsung System LSI’s Exynos 5433 in performance per watt with 1.4x more performance at the same amount of power or half the power for the same performance on the CPU. It's likely that this difference comes from optimizing the implemented logic and differences between Samsung and TSMC 20nm processes rather than differences in thread management. NVIDIA continues to use System EDP (Electrical Design Point) management to control throttling and turbo rather than ARM's IPA (Intelligent Power Allocation) drivers, and in general it seems that while the CPU architecture is ARM's reference design it's quite clear that everything else is distinctly NVIDIA in design.

Es steckt schon einiges an NV's eigenem engineering drin und setzt gerade dort an wo bisherige big.LITTLE standard Implementierungen eher beschissen sind.

Der Umstieg auf Groß.Klein ist überraschend, aber nachvollziehbar. Überraschend, weil in die Custom-Cores Geld gesteckt wurde und diese wohl vergraben wurden.

Ich nehme es mal locker und warte ab was im 16FF Tegra 2016 stecken wird. Wenn kein Denver auch dort dann war es einfach die Fehlgeburt die fast jeder momentan im Hintergrund zu sehen mag.

Locuza
2015-01-05, 10:29:05
BTT:
Auf HWLuxx gibts jetzt auch das Update. Ist also doch nicht einfach das BigLitte Konzept, sondern man kann alle Kerne gleichzeitig nutzen. War das nicht auch mal von Samsung angepeilt?

Bzgl FP16:
Jetzt mal ganz ernst gefragt. Das man zwei FP16 Ops auf ner FP32 ALU ausführen kann, ist doch Standard o_O Maxwell kann das doch sicherlich auch im Desktop. Hat jemand dazu "Whitepaper" (richtige gibts ja von nVidia seit langem nicht mehr) parat, die dazu was Aussagen?

Kann mir das kaum vorstellen. Damit wäre das aber wieder absolut nichts besonderes.

Ich denke HWLuxx hat etwas falsch verstanden, an der Stelle traue ich Anandtech mehr und gehe davon aus das Nvidia Core Migration verwendet, also insgesamt nur jeweils 4 Kerne aktiv sind.

Bzgl: FP16:
Welche IHVs setzten denn auf FP32 ALUs, die gleichzeitig zwei FP16 OPs ausspucken können?
Sieht mir als Laie bisher genau so aus wie bei Nvidia mit ihren DP-Units.
Die Leute verbauen FP32 und FP16 Einheiten.
Erst mit Tonga hat AMD FP16-Berechnungen in ihren ALUs ermöglicht und ob die auch gleich zwei Ops auf einmal ausführen können?


Ich nehme es mal locker und warte ab was im 16FF Tegra 2016 stecken wird. Wenn kein Denver auch dort dann war es einfach die Fehlgeburt die fast jeder momentan im Hintergrund zu sehen mag.
Das hat mich persönlich am meisten interessiert, ob die A57 Gerüchte wahr sind und wenn ja, ob dann auch gleich eine Denver-Version angekündigt wird.
Es gab leider kein Roadmap Update oder überhaupt irgendwelche Zeitangaben.
Ich habe jetzt gar nicht verstanden, wann ist Tegra X1 verfügbar?
Ist Denver für X1 jetzt eig. ausgeschlossen oder könnte man schon noch auf ein Update hoffen, ähnlich wie bei K1?

Ailuros
2015-01-05, 10:30:01
BTT:
Auf HWLuxx gibts jetzt auch das Update. Ist also doch nicht einfach das BigLitte Konzept, sondern man kann alle Kerne gleichzeitig nutzen. War das nicht auch mal von Samsung angepeilt?

Sollte bei allen big.LITTLE Implementiorungen gehen.

Bzgl FP16:
Jetzt mal ganz ernst gefragt. Das man zwei FP16 Ops auf ner FP32 ALU ausführen kann, ist doch Standard o_O Maxwell kann das doch sicherlich auch im Desktop.

Nicht dass ich wuesste.
Hat jemand dazu "Whitepaper" (richtige gibts ja von nVidia seit langem nicht mehr) parat, die dazu was Aussagen?

Noch nicht afaik.

Aber: https://forum.beyond3d.com/posts/1816622/

while Tegra X1 also includes native support for FP16 Fused Multiple-Add (FMA) operations in addition to FP32 and FP64. To provide double rate FP16 throughput, Tegra X1 supports 2-wide vector FP16 operations, for example a 2-wide vector FMA instruction would read three 32-bit source registers A, B and C, each containing one 16b element in the upper half of the register and a second in the lower half, and then compute two 16b results (A*B+C), pack the results into the high and low halves of a 32 bit output which is then written into a 32-bit output register. In addition to vector FMA, vector ADD and MUL are also supported.

Duerfte reichen ;)


Was mir aber mal wieder ziemlich auf den Senkel geht ist der Vergleich mit ASCI-RED..... Das Ding hat 1TFlop/s in LINPACK!!! Also DP und dann noch in ner explizieten Anwendung... Rein von der DP-Rechenleistung hatte das Ding ja wenn ichs richtig überschlagen habe, rund 1,8 TFlop/s. Und wenn man es auf FP16 münzt, dann sollten es durch die MMX-Erweiterung, die ja 4 FP16 pro Takt ermöglichen sollte, soweit ich das richtig in Erinnerung habe, sogar 7,2TFlop/s reine sterile Rechenleistung sein....

Huh? Mit 2 SMMs hat die X1 GPU womoeglich 2* 4*FP64 SPs. Sonst hab ich das Gefuehl dass Du in das FP16 Zeug zu stark reinliesst. Vielleicht hilft es zu betonen dass der FP16 throughput zwar steigt aber sie eben nicht so viel Strom sparen wie mit theoretisch dedizierten FP16 ALUs.

Sunrise
2015-01-05, 10:56:02
...Ich habe jetzt gar nicht verstanden, wann ist Tegra X1 verfügbar?
Wenn ich nach der Availability-Folie im Anandtech-Artikel gehe, dann als "Production System" erst 2016, sowohl für CX als auch PX.

Ailuros
2015-01-05, 11:06:59
Ich denke HWLuxx hat etwas falsch verstanden, an der Stelle traue ich Anandtech mehr und gehe davon aus das Nvidia Core Migration verwendet, also insgesamt nur jeweils 4 Kerne aktiv sind.

***edit: ich hab Anandtech's text falsch verstanden...

This includes a custom interconnect rather than ARM’s CCI-400, and cluster migration rather than global task scheduling which exposes all eight cores to userspace applications.

Also nur cluster migration fuer X1 und kein global task scheduling.

Bzgl: FP16:
Welche IHVs setzten denn auf FP32 ALUs, die gleichzeitig zwei FP16 OPs ausspucken können?
Sieht mir als Laie bisher genau so aus wie bei Nvidia mit ihren DP-Units.
Die Leute verbauen FP32 und FP16 Einheiten.
Erst mit Tonga hat AMD FP16-Berechnungen in ihren ALUs ermöglicht und ob die auch gleich zwei Ops auf einmal ausführen können?

Es sind keine dedizierten FP16 ALUs wie beim Rogue. Jegliche FP32 kann unter Bedingungen Vec2 FP16 ausfuehren.


Das hat mich persönlich am meisten interessiert, ob die A57 Gerüchte wahr sind und wenn ja, ob dann auch gleich eine Denver-Version angekündigt wird.

Erinyes hat einen hint bekommen das noch etwas mit Denver kommt, aber die Aussage ist zu wage um sie zu definieren. Fuer mich ist das Ding in seiner heutigen Form eine Fehlgeburt.

Ich habe jetzt gar nicht verstanden, wann ist Tegra X1 verfügbar?
Ist Denver für X1 jetzt eig. ausgeschlossen oder könnte man schon noch auf ein Update hoffen, ähnlich wie bei K1?

Ab H2 2015? Eine Erista Variante mit Denver ist auch laut Erinyes' Quelle und meinen nicht geplant.

Dural
2015-01-05, 11:24:28
Cooles ding, freue mich auf ein neues Tablet mit dem X1.

BlackBirdSR
2015-01-05, 11:45:06
Was mir aber mal wieder ziemlich auf den Senkel geht ist der Vergleich mit ASCI-RED..... Das Ding hat 1TFlop/s in LINPACK!!! Also DP und dann noch in ner explizieten Anwendung... Rein von der DP-Rechenleistung hatte das Ding ja wenn ichs richtig überschlagen habe, rund 1,8 TFlop/s. Und wenn man es auf FP16 münzt, dann sollten es durch die MMX-Erweiterung, die ja 4 FP16 pro Takt ermöglichen sollte, soweit ich das richtig in Erinnerung habe, sogar 7,2TFlop/s reine sterile Rechenleistung sein....


Vorsicht!
MMX nutzt keine float oder double Datentypen.
Also nichts mit FLOP/s. Und mischen möchstest Du MMX und x87 auf einem P2 auch nur sehr ungerne...

Ansonsten ist Denver eine sehr interessante CPU und ich gratuliere Nvidia für die Leistung, welche sie damit abgeliefert haben.
Allerdings ist das Konzept von Denver praktisch perfekt geeignet, um den idealen Benchmarkprozessor abzugeben. Bei dem track-record, den Nvidia in der Vergangenheit vorgelegt hat, macht mich das sehr nervös.

mboeller
2015-01-05, 11:47:49
::den ersten Teil hat Ailuros schon abgedeckt. :)


Was mich am meisten wundert:

wie wollen sie die Leistung auf die Straße bringen? 64bit <-> 1TFlop passt nicht zusammen.

Wenigstens sind die 1TFlop nur ein Marketing-Gag und die richtigen SoC werden wohl bei der halben Leistung landen...dafür dann aber sehr Energieeffizient sein. Wäre ja mal toll Nvidia wieder in Smartphones zu sehen.

Aha, ich hätte zuerst den Anandtech-Artikel lesen sollen. Es sind ja "nur" 512GFlops FP32 nicht 1TFlop. Marketing at its best. :)

Und Compression nutzen sie jetzt endlich auch.

Ailuros
2015-01-05, 11:56:05
Vorsicht!
MMX nutzt keine float oder double Datentypen.
Also nichts mit FLOP/s. Und mischen möchstest Du MMX und x87 auf einem P2 auch nur sehr ungerne...

Ansonsten ist Denver eine sehr interessante CPU und ich gratuliere Nvidia für die Leistung, welche sie damit abgeliefert haben.
Allerdings ist das Konzept von Denver praktisch perfekt geeignet, um den idealen Benchmarkprozessor abzugeben. Bei dem track-record, den Nvidia in der Vergangenheit vorgelegt hat, macht mich das sehr nervös.

Benchmark-prozessor? Unter normalen Umstaenden kann man jegliche hw fuer gewisse benchmarks optimieren. Es gibt bis jetzt noch keinen ernsthaften Echtzeit-review fuer das Nexus9 und ich glaube schon fast dass Anandtech NVIDIA einen "Gefallen" tut und ihre diesbezueglichen reviews nicht rechtzeitig veroeffentlicht hat. Jetzt wo der ganze X1/Maxwell ramtamtam angefangen hat, wird sich keiner so leicht nach dem Denver Zeug umdrehen. Anand hat 2 unveroeffentlichte Denver Artikel; ein volles review und einen technischen write-up warum der Schwung auf standard 64bit ARM cores eine weise Entscheidung war im Vergleich zum heutigen Denver.

::den ersten Teil hat Ailuros schon abgedeckt. :)


Was mich am meisten wundert:

wie wollen sie die Leistung auf die Straße bringen? 64bit <-> 1TFlop passt nicht zusammen.

Wenigstens sind die 1TFlop nur ein Marketing-Gag und die richtigen SoC werden wohl bei der halben Leistung landen...dafür dann aber sehr Energieeffizient sein. Wäre ja mal toll Nvidia wieder in Smartphones zu sehen.

Welchen TFLOP meint Ihr die ganze Zeit?

mboeller
2015-01-05, 12:02:47
Welchen TFLOP meint Ihr die ganze Zeit?

erwischt... erst lesen dann posten. :) siehe meine Änderungen weiter oben.


[edit]
Denver ist tot, oder? Mit den 64bit-A57 und ~60000 Punkten im Antutu sollte auch die Single-Thread-Leistung vom X1 jetzt in etwa auf der Höhe der Single-Thread-Leistung vom Denver-SoC liegen. Damit ist Denver IMHO überflüssig. Und da die A57 richtige OoO-Cores sind sollte die Leistung wesentlich konstanter sein als beim Denver.

Dural
2015-01-05, 12:05:15
Ich glaube die Bandbreite dürfte dank Maxwell wohl das kleinere Problem sein. Zudem X1 ja mehr zu Verfügung hat als es noch der K1 hatte.
Gegen Maxwell kommt aktuell so wie so nichts ran, ich wüsste jedenfalls nicht was.

Das "Problem" von X1 dürfte wohl mehr die 0815 standard ARM Cores sein. und die Lieferzeit... mal wieder :P

Ailuros
2015-01-05, 12:10:38
erwischt... erst lesen dann posten. :) siehe meine Änderungen weiter oben.

Gut dann nach den Aenderungen:

Aha, ich hätte zuerst den Anandtech-Artikel lesen sollen. Es sind ja "nur" 512GFlops FP32 nicht 1TFlop. Marketing at its best.

Wenn eine jegliche FP32 ALU selbst unter Bedingungen 2*FP16 ops ausfuehren kann, dann ist es nach wie vor bei 1GHz ein peak Wert von 1 TFLOPs FP16.

Fuer diejenigen die es nicht auf Anhieb schnallen: man hat eine Mischung von FP32, FP16 und INT10 ops. Der compiler sieht welche Einheiten frei sind und es werden demenstprechend Aufgaben verteilt. Wenn Du jetzt angiebst dass die GPU bis zu 512 GFLOPs FP32 verarbeiten kann, dann stimmt es genau als peak Wert wie auch 1024 GFLOPs FP16, denn die GPU wird auch NIE in Echtzeit nur FP32 ops bearbeiten.

Ailuros
2015-01-05, 12:13:40
[edit]
Denver ist tot, oder? Mit den 64bit-A57 und ~60000 Punkten im Antutu sollte auch die Single-Thread-Leistung vom X1 jetzt in etwa auf der Höhe der Single-Thread-Leistung vom Denver-SoC liegen. Damit ist Denver IMHO überflüssig. Und da die A57 richtige OoO-Cores sind sollte die Leistung wesentlich konstanter sein als beim Denver.

Ich erreiche 64k auf meinem tablet hier via ueblicher Antutu Bescheisserei ja und? Wenn Anandtech wirklich die 2 Artikel ueber 64bit K1 veroeffentlicht dann wirst Du im zweiten auch deutlich sehen wieso man froh sein kann dass NV vom Denver auf 4*A57+4*A53 gestiegen ist.

Ailuros
2015-01-05, 12:17:02
Ich glaube die Bandbreite dürfte dank Maxwell wohl das kleinere Problem sein. Zudem X1 ja mehr zu Verfügung hat als es noch der K1 hatte.
Gegen Maxwell kommt aktuell so wie so nichts ran, ich wüsste jedenfalls nicht was.

X1 wird noch fuer einige Zeit nicht kommerziell erhaeltlich sein. Es ist lediglich NV's ueblicher paperlaunch eines Tegra SoCs wie in der Vergangenheit. Wenn Geraete damit antanzen wird wieder innerhalb Monaten Apple mit ihrem neuen tablet SoC mit einem hard launch erscheinen. Nach all der Zeit sollte die Routine wohl schon bekannt sein.

Das "Problem" von X1 dürfte wohl mehr die 0815 standard ARM Cores sein. und die Lieferzeit... mal wieder :P

Lieber die standard cores als das heutige Denver Zeug.

Avalox
2015-01-05, 12:24:12
Habt ihr mal die Software gesehen, die dort auf dem Tegra X1 Demo Car (Drive PX) Board laufen soll?

Die scheint ja frei verfügbar zu sein. Da kommt ja Kill Decision wieder ein Stückchen näher.

Dawn on Titan
2015-01-05, 13:00:58
Der erste Tegra den ich wirklich interessant finde. Big...Little Probleme angegangen, GPU-Teil dürfte taugen, auf Standard-ARM gegangen und doch bisherige Lösungen verbessert,...

Wird der Apfel wahrscheinlich kontern bevor man Endgeräte kaufen kann, aber das sieht zumindest auch mittelfristig konkurrenzfähig aus.

Avalox
2015-01-05, 13:14:07
Der erste Tegra den ich wirklich interessant finde. Big...Little Probleme angegangen, GPU-Teil dürfte taugen, auf Standard-ARM gegangen und doch bisherige Lösungen verbessert,...

Was denn für ein big.LITTLE Problem? Der scheint doch CPU seitig alles so zu machen wie gehabt.

Interessant ist, dass der SoC von der GPU Seite zu den schnellen Core M aufschließen wird. So schaukelt es sich allmählich alles nach oben.

Dural
2015-01-05, 14:20:54
Ich frage mich gerade ob NV mit 16nm GPU technisch noch was drauflegen kann/wird. 512SP wäre schon mal eine richtige Hausnummer!

BlackBirdSR
2015-01-05, 14:23:50
Benchmark-prozessor? Unter normalen Umstaenden kann man jegliche hw fuer gewisse benchmarks optimieren.

In diesem Fall ist aber nicht die "hw" für gewissen Benchmarks optimiert worden, sondern die "Software" optimiert sich selbst während des Benchmarkdurchlaufs. Mehr noch, ganze Codestrukturen könnten erkannt und anschließend durch optimierte Varianten ersetzt werden.

"könnten" ;)

iFanatiker
2015-01-05, 15:01:22
BTT:
Auf HWLuxx gibts jetzt auch das Update. Ist also doch nicht einfach das BigLitte Konzept, sondern man kann alle Kerne gleichzeitig nutzen. War das nicht auch mal von Samsung angepeilt?


Samsung kann seit dem 5420 HMP und HMP ist bei richtiger Implementierung seitens des OS und der Anwendungen das beste Konzept für big.LITTLE. Das Problem ist nur, dass nach wie vor in der Android Umwelt auch wenn der Linux Kernel damit recht umgehen kann eben noch sehr viel Optimierung fehlt (vor allem in den Syste APIs, Mid Ware usw.). Aber ich bleibe dabei, dass weder Cluster Migration noch HMP wirklich der Weg sind bzw. sie an sich keinen Sinn machen wenn der A-57 bzw. der A-15 sich im Teillast Bereich mit Effizienz auszeichnen würden. Es ist immer noch eine Verlegenheitslösung.

Deswegen verstehe ich auch nicht was Anand-tech da schreibt. Seit dem 5420 funzt doch die Samsung Implementierung des CCI400 so wie es soll und im Cluster Migrations Modus wird die Cache Kohärenz eben durch den CCI400 gewährleistet (beim 5410 war die Anbindung des CCI400 defekt und damit funtze die Kohärenz nicht). Aber Cluster Migration hat eben viele Nachteile und ich wüsste jetzt nicht wie nVidia sie umgehen wollte...ok...vielleicht weniger Latenz usw. als beim 5410 aber alles in allem.....ich wüsste jetzt nicht was hier nVidia großartig besser machen soll. Aber vielleicht kann ailurus uns aufklären.

Ich vermute mal eher, dass nVidia wieder mal eine total bekloppte Entscheidung getroffen hat um Lizenz Kosten zu sparen im Micro USD Bereich. :biggrin:

Aber wieder mal mächtiger Paper Lunch von nVidia wo man wieder auch ganz viele wilde Vergleiche mal komplett vermischt. :biggrin: Aber ja....die GPU an sich dürfte recht gut sein...


Wenigstens sind die 1TFlop nur ein Marketing-Gag und die richtigen SoC werden wohl bei der halben Leistung landen...dafür dann aber sehr Energieeffizient sein. Wäre ja mal toll Nvidia wieder in Smartphones zu sehen.

Aha, ich hätte zuerst den Anandtech-Artikel lesen sollen. Es sind ja "nur" 512GFlops FP32 nicht 1TFlop. Marketing at its best. :)


und dies bei 10 Watt TDP richtig oder wurde ich von nVida nur verwirrt? :biggrin::freak:

Skysnake
2015-01-05, 15:17:20
Hmmm.....

Was mir vorher schon auf ner Webseite aufgefallen ist, da ist nen Bild von nem Chip in Fingerspitzengröße. Wusste nicht, was das sein sollte, daher habe ich mal bisher nichts dazu gesagt, aber im Anandtech Artikel ist wieder ein Bild von dem Chip, und dabei steht, dass das X1 sein soll. Da passt dann aber was nicht.

Schaut euch doch mal die Chips jeweils an ;D

http://anandtech.com/show/8811/nvidia-tegra-x1-preview/5
http://anandtech.com/show/8811/nvidia-tegra-x1-preview/4

Das sieht für mich nicht nach dem gleichen Chip aus... Für mich sieht das eher so aus, als ob man, mal wieder, einen FPGA genommen hat, um die prinzipielle Funktionalität zu zeigen. Mich hatte eh schon die größe der Chips auf den Bildern gewundert.

Mich würde es überhaupt nicht überraschen, wenn man auf dem Teil nen PLX-Chip, ROMS und eben FPGAs finden würde.

Das gibt es meines Wissens nämlich alles mit Zertifikation für Automotive. nVidia scheint da wohl noch nichts zu haben, was wirklich ausgereift ist. Keine Ahnung, was ich davon so langsam halten soll. Bei GSync wars ja noch irgendwie verständlich, aber bei dem hier? Da macht man doch seit zich Jahren dran rum, und dann sowas...

Als ob man auf Biegen und Brechen ja als allererstes was zeigen können will.

Dural
2015-01-05, 15:55:07
Wer sagt den das NV da überhaupt irgend was eigenes davon haben müsste?

Heute wird nicht mehr mit der Hardware Geld verdient sondern durch die Software. Und genau da war NV schon immer sehr Stark.

Skysnake
2015-01-05, 16:10:59
Dann soll man sich aber auch dementsprechend positionieren, und die Hosen runter lassen, und nicht überall rumschreien, welch tolle neue HARDWARE! man gebaut hat, die alles wegnatzt.

Software machen ist keine Schande! Gute Hardware ist ohne entsprechende Software nichts wert. nVidia tut aber immer so, als ob Sie das Rad neu erfunden hätten. Bei Hardware geht das noch einigermaßen, weil man ja im Normalfall eben keinen Einblick hat und damit nicht vergleichen kann. Bei Software sieht das schon etwas anders aus. Den ganzen DeepNeuralNetwork kram hat sich ja auch nicht allein nVidia ausgedacht, sondern andere. nVidia hat aber ein Näschen dafür, solche Entwicklungen zu verfolgen und für sich selbst werbewirksam auszuschlachen.

Natürlich steckt da auch eine ganze Menge eigener Arbeit drin, ganz ohne Frage, aber es ist eben auch bei weiten keine so göttliche Eingebung wie Huang es immer darstellt.

Dural
2015-01-05, 16:45:32
Mal eine frage, welcher Hersteller macht es anders?

VW verkauft ihre Autos auch unter ihrem eigenem Namen und nicht als "Bosch". AEG Verkauft Waschmaschinen die von Electrolux stammen usw.

Ailuros
2015-01-05, 17:26:44
In diesem Fall ist aber nicht die "hw" für gewissen Benchmarks optimiert worden, sondern die "Software" optimiert sich selbst während des Benchmarkdurchlaufs. Mehr noch, ganze Codestrukturen könnten erkannt und anschließend durch optimierte Varianten ersetzt werden.

"könnten" ;)

Braucht man nicht heutzutage. http://www.ondaforum.com/topic/859-onda-v989-cpu-configuration/

Im normal mode laeuft der A7 cluster bis zu 1.2GHz und der A15 cluster bis zu 1.608GHz. Im "extreme mode" (worauf der User keinen Zugang hat) steigen die A15 cores auf 1.8 GHz, beim bootup und wenn man games ladet z.B. und natuerlich in Antutu.

Das Ding erreicht ohne dass man irgend etwas anstellt im "speed mode" 64400+ Punkte im Antutu Scheiss. Meine geekbench 3 Werte aber sind ungefaehr auf Nexus5 Niveau.

Es ist lediglich ein Beispiel wie jeglicher Hersteller durch verschiedene Frequenzen in populaeren benchmarks einfach bescheissen kann. Fuer die paar Minuten wo der Quark durchlaeuft ist es auch egal, es ist aber nun mal so dass das Resultat nicht die eigentliche Leistung von der CPU wiederspiegelt.

Es muss nicht heissen dass es jeder so machen muss aber entschuldigt es weiss KEINER welche DVFS fuer jegliche Einheit und entsprechende Applikation angewendet wird, noch hat sich bisher irgend jemand wirklich geschert einen jeglichen Betrug zu entlarven.

Im obrigen "speed mode" (wo eigentlich der A15 cluster Prioritaet bekommt) bei bis zu 1.6GHz verhaelt sich das Geraet in etwa wie sagen wir mal ein aelteres core 2 duo laptop und der Stromverbrauch ist auch nicht sehenswert groesser als im normal mode.

Jetzt beim X1 nur cluster scaling ist interessant und ich warte erstmal ab ob irgend jemand bei den ersten zukuenftigen reviews das Thema naeher beruehrt, aber den Eindruck den manche haben dass sich bei big.LITTLE immer und alles auf sagen wir mal 4 cores insgesamt begrenzt ist auch falsch. Ein typischer Chrome browser Fall wo man eine schwere Seite laden laesst ist 3-4 A7 cores wobei manche ziemlich stark ausgelastet werden und je nach Fall noch 1 oder 2 A15 cores gleichzeitig dazu. Wenn man so zwischen browsed ohne page changes dann kommt man natuerlich mit 2-3 A7 cores bei bescheidener Ladung aus.

Ailuros
2015-01-05, 17:29:42
Wer sagt den das NV da überhaupt irgend was eigenes davon haben müsste?

Heute wird nicht mehr mit der Hardware Geld verdient sondern durch die Software. Und genau da war NV schon immer sehr Stark.

Tegra wird dieses Jahr geringen Gewinn machen. Ich weiss nicht was Ihr immer fuer einen Quark zusammenraeumt aber NV - egal was sie angeblich genau verkaufen - sind nach wie vor ein minority report im ULP SoC Markt.

Black-Scorpion
2015-01-05, 18:20:05
Mal eine frage, welcher Hersteller macht es anders?

VW verkauft ihre Autos auch unter ihrem eigenem Namen und nicht als "Bosch". AEG Verkauft Waschmaschinen die von Electrolux stammen usw.
Wenn schon Klugscheißen dann wenigstens richtig. AEG ist tot und die Marke gehört Electrolux.

Skysnake
2015-01-05, 19:58:41
Mal eine frage, welcher Hersteller macht es anders?

VW verkauft ihre Autos auch unter ihrem eigenem Namen und nicht als "Bosch". AEG Verkauft Waschmaschinen die von Electrolux stammen usw.
AEG<->Electrolux wurde ja schon geklärt, daher nur so viel dazu:

Wenn mir irgend ein Hersteller sagt, das er ein Produkt, hier Drive xX, herausbringt mit dem selbst entwickelten Chip QWERZ, und mir bei einer Presentation selbiges auch noch vor die Nase gehalten wird, dann macht das durchaus einen gewaltigen Unterschied....

Immerhin suggeriert das ja einen viel viel viel weiteren Entwicklungsstand als offenkundig wirklich vorhanden ist. Wenn müsste man dies zumindest deutlich sagen, das es sich dabei noch um einen Prototypen mit anderer Hardware handelt.

Ailuros
2015-01-05, 20:05:59
Eine 16FF Variante von Erista mit Denver (Parker) soll existieren, hatte aber noch keinen tape out. Sie "hoffen" noch innerhalb des Jahres fuer Verfuegbarkeit, uhmmm ja *hust* :biggrin: *raeusper* :freak:

Skysnake
2015-01-05, 20:15:13
Meintest du nicht erst, das es nicht verwunderlich sei, wenn man seine 16FF Kapazitäten für dieses Jahr am Ende gar nicht abrufen würde? ;)

Ailuros
2015-01-05, 20:26:56
Meintest du nicht erst, das es nicht verwunderlich sei, wenn man seine 16FF Kapazitäten für dieses Jahr am Ende gar nicht abrufen würde? ;)

Ιch meine auch dass Apple mit einer Uebermenge von hw engineers es schafft in 12 Monaten vom tape out zur Massenproduktion mit SoCs zu kommen. NV hat es so weit ich mich erinnern nie bis jetzt geschafft. Wie dem auch sei Erista@20SoC hatte seinen tape out Mitte Sommer 2014 und sie hoffen fuer Verfuegbarkeit in Q1 2015. Was wolltest Du mich nochmal fragen?

Mancko
2015-01-05, 20:31:39
AEG<->Electrolux wurde ja schon geklärt, daher nur so viel dazu:

Wenn mir irgend ein Hersteller sagt, das er ein Produkt, hier Drive xX, herausbringt mit dem selbst entwickelten Chip QWERZ, und mir bei einer Presentation selbiges auch noch vor die Nase gehalten wird, dann macht das durchaus einen gewaltigen Unterschied....

Immerhin suggeriert das ja einen viel viel viel weiteren Entwicklungsstand als offenkundig wirklich vorhanden ist. Wenn müsste man dies zumindest deutlich sagen, das es sich dabei noch um einen Prototypen mit anderer Hardware handelt.

Nein! Es ist der Auftrag ganz klar alles möglichst blumig und von der besten Seite zu zeigen. Alles andere ist stümperhaft. Rasseln gehört dazu. Insbesondere bei US Unternehmen. Und eins haben Amerikaner uns vor raus. Sales technisch hauen die alles weg!

Undertaker
2015-01-05, 20:58:29
Was mir aber allgemein noch Kopfzerbrechen macht ist die Tatsache, das nVidia an sich, meines Wissens nach, absolut keine Erfahrung im Automotiv hat.

Nvidia ist seit Tegra 2 ziemlich stark in dem Segment engagiert (und auch involviert). Mit etwas Glück wären hätte man in den vergangenen Jahren sogar noch ein paar richtig dicke Deals mehr landen können, aber typischerweise werden hier für ein Projekt 2-3 verschiedene Plattformen intensiver evaluiert und jeder SoC-Hersteller muss die ein oder andere Absage einstecken. Dafür sind die Margen attraktiver als im Mobile-Geschäft und im Erfolgsfall die Chancen auf Anschlussprojekte recht gut.

Gerade wenn es um autonomes Fahren usw geht, können die Anforderungen von den Behörden ja exorbitant hoch sein, genau wie auch von den PKW Herstellern.

All diese Helferlein sind bei ALLEN Herstellern nur unter eigener Verantwortung des Fahrers zu nutzen, dafür funktionieren die Systeme noch auf Jahre hinaus nicht zuverlässig genug. Die eigentliche Krux ist sowieso die Erkennungsrate der Software, nicht die Zuverlässigkeit der Hardwareplattform. Von irgendwelchen "Behördenanforderungen", denen ganz konkret der SoC genügen müsste, habe ich noch nichts gehört. Der Gesetzgeber schreibt lediglich vor, wie und wann derartige Systeme überhaupt genutzt werden dürfen.

Timbaloo
2015-01-05, 22:37:46
All diese Helferlein sind bei ALLEN Herstellern nur unter eigener Verantwortung des Fahrers zu nutzen, dafür funktionieren die Systeme noch auf Jahre hinaus nicht zuverlässig genug.
Wenn das System andere sicherheitsrelevante Systeme ansprechen (Gas, Bremse, Lenkung, ...) ist das sicher nicht mehr so. Wobei ich mich da zugegeben auch nicht sonderlich auskenne.

Von irgendwelchen "Behördenanforderungen", denen ganz konkret der SoC genügen müsste, habe ich noch nichts gehört. Der Gesetzgeber schreibt lediglich vor, wie und wann derartige Systeme überhaupt genutzt werden dürfen.
Behördenanforderungen wie konkret der SoC auszusehen hat vielleicht nicht, aber ich frage mich warum die ganzen µC-Hersteller derzeit soviel von ISO 26262, Lockstep und Konsorten sprechen. Sicher nicht weil das Silizium so billig wird.

Vielleicht hat sich Anand auch etwas unglücklich ausgedrückt wenn er sagt:
To do this, the DRIVE PX platform uses two Tegra X1 SoCs to support up to twelve cameras with aggregate bandwidth of 1300 megapixels per second.
Das impliziert, dass man zwei X1 braucht um die 12 Kameras zu erfassen. Vielleicht braucht man nur einen, den anderen aber als Redundanz? Hach, wer weiss das schon...

Hübie
2015-01-06, 03:35:02
Ich will mal sehen wie dein PC 1300 MPix/s verarbeitet :D Da geht schon ne Menge durch wenn man überlegt wieviel Algorithmen da analysieren müssen. Es wird ja auch zwischen frames interpoliert um Vergleiche zu definieren. Also könnte ich mir durchaus ein SoC vorn und ein hinten vorstellen. Oder links /rechts, k. A. was hier sinnvoller wäre.
Das ist jetzt also nicht Schnarch-Modus für das Infotainment-Angebot an Bord sondern heavy workload. Audi is da schon sehr weit fortgeschritten und wenns gut läuft präsentiert man in Genf schon Serienmodelle die man dann (ich behaupte mal) 2016 kaufen kann.
Wenn die Behörden nicht querschlagen. BMW brauchte damals 5 Jahre für die Zulassung des adaptiven Kurvenlichts X-D

Undertaker
2015-01-06, 19:25:08
Das impliziert, dass man zwei X1 braucht um die 12 Kameras zu erfassen. Vielleicht braucht man nur einen, den anderen aber als Redundanz? Hach, wer weiss das schon...

Zur Redundanz dient der zweite X1 im PX-Modul mit ziemlicher Sicherheit jedenfalls nicht. Wie gesagt, der SoC ist da das letzte Glied was man aus Sicherheitsgründen verdoppeln würde. Viel zu teuer und viel zu unwahrscheinlich, das es genau hier zu einem plötzlichen Ausfall kommt. Da gibt es dann eher eine allgemeine Kontrollinstanz, die die Funktionsfähigkeit des gesamten Systems überwacht und bei Verdacht auf Fehlfunktion in einen sicheren Fahrzustand überleitet (Abschaltung des Systems, Alarmierung des Fahrers, als letztes Mittel u.U. kontrolliertes Abbremsen o.ä.).

Timbaloo
2015-01-06, 20:12:01
Zur Redundanz dient der zweite X1 im PX-Modul mit ziemlicher Sicherheit jedenfalls nicht.
Ich habe mal bei NV nachgefragt [1]:
The system is powered by two Tegra X1 processors that can be utilized to either work together, or with one of the processors serving as a redundant processor for critical applications.
Desweiteren können als logische Konsequenz beide X1 alle der 12 Kameras erfassen:
The DRIVE PX platform supports up to twelve camera inputs, and each Tegra X1 processor on the platform can access the data from the twelve onboard cameras and process it in real-time.


[1] http://international.download.nvidia.com/pdf/tegra/Tegra-X1-whitepaper-v1.0.pdf

Ailuros
2015-01-06, 20:13:54
Wundert mich nicht; auch bei vorigen K1 automotive Implementierungen gab es zwei SoCs auf dem Modul.

Undertaker
2015-01-06, 20:40:47
Ich habe mal bei NV nachgefragt [1]:

OK, dann wäre das zumindest theoretisch möglich. Wie es dann genutzt wird, ist eine andere Frage. Auch aktuelle mir bekannte Systeme haben schon gerne mal drei SoCs (allerdings nicht unbedingt drei mal den gleichen), die dann aber mit verschiedenen Aufgaben gefüttert werden. Redundanz ist dann evtl. auch eher ein Thema für spätere vollständig autonome Fahrzeuge, wo eine Backup-Strategie a'la System-Deaktivierung/Fahrerwarnung nicht wirklich eine Lösung ist.

Skysnake
2015-01-06, 21:27:39
Zur Redundanz dient der zweite X1 im PX-Modul mit ziemlicher Sicherheit jedenfalls nicht. Wie gesagt, der SoC ist da das letzte Glied was man aus Sicherheitsgründen verdoppeln würde. Viel zu teuer und viel zu unwahrscheinlich, das es genau hier zu einem plötzlichen Ausfall kommt. Da gibt es dann eher eine allgemeine Kontrollinstanz, die die Funktionsfähigkeit des gesamten Systems überwacht und bei Verdacht auf Fehlfunktion in einen sicheren Fahrzustand überleitet (Abschaltung des Systems, Alarmierung des Fahrers, als letztes Mittel u.U. kontrolliertes Abbremsen o.ä.).
Bitte was???
Son SOC kann dir schneller hops gehen, als du denkst. Du musst ja bedenken, dass das Ding auch bei 40° im Schatten noch laufen muss ohne Probleme usw usw.

Oder lass mal etwas Wasser eindringen oder oder oder Da gibt es unzählige Gründe, warum der sich spontan verabschieden kann. Ganz abgesehen davon, dass die Dinger ziemlich sicher keine RAS-Features haben, also du gar nicht merkst, das in 10 Minuten das Ding Hops gehen wird, es macht es einfach ohne Ankündigung, und jetzt rate mal, was bei 200 auf der Autobahn passieren kann....

Sobald da ne Steuerung übernommen wird, musst du das immer mindestens einfach redundant aufbauen.

Ich habe mal bei NV nachgefragt [1]:

Desweiteren können als logische Konsequenz beide X1 alle der 12 Kameras erfassen:



[1] http://international.download.nvidia.com/pdf/tegra/Tegra-X1-whitepaper-v1.0.pdf
Ähm...
Hatten wir das nicht schon, dass das keine X1 auf den Modulen sind?

Frag bitte nochmal nach, ob das WIRKLICH! X1 Chips schon auf den Modulen sind, ich kann es nämlich nicht glauben...

Timbaloo
2015-01-06, 21:51:30
Ähm...
Hatten wir das nicht schon, dass das keine X1 auf den Modulen sind?
Du hattest das. Du hast auf der vorigen Seite irgendwas von unterschiedlichen Chips geredet, offenbar weil unterschiedliche Packages verwendet werden.

Ich sehe keinen Grund warum das nicht X1 sein sollten. Vielleicht waren es nur Dummies die gezeigt wurden, aber wen interessiert das schon. Wenn die das ihren (potentiellen) Kunden als Entwicklungsplattform anbieten wird dann schon ein (bzw. zwei) X1 verbaut sein. Alles andere wäre ja totaler Humbug. Zumal man für eine Entwicklungsplattform keine nicht zwangsläufig eine Schlagmichtotwasweissichwas-Zertifizierung braucht. Oder glaubst du Drive CX/PX sind Seriensteuergeräte? ;)

Skysnake
2015-01-06, 22:13:02
Die haben nen Chip zur elektrischen Trennung von Ehternet drauf, also einen Überspannungsschutz, der knapp 10$ allein kostet. Das wird ziemlich sicher kein 0815 Schrott sein.

Ansonsten bzgl Package:
Du entwirfst nicht "einfach mal so" ein neues Package. Vor allem nicht, wenn du so viele Signale drüber routen musst. Wie gesagt, ich kann mir nicht vorstellen, dass da dieser Minichip drauf sein soll. Das größere Package dürfte ja irgendwo um den Faktor 4 größer sein in etwa. Das sieht verdammt nach FPGA aus, auch wenn man sich so die Umgebung der großen Chips anschaut.

Leider kann man eben die Chipbezeichnungen nicht lesen auf den anderen Chips. Da brüchte man mal high-res Bilder. Dann könnte man ziemlich sicher sagen, ob das an sich ein FPGA ist oder nicht.

Hübie
2015-01-06, 22:17:02
Ich glaube mit Redundanz ist hier gemeint das der workflow erhalten bleibt und nicht als Backup für einen Totalausfall. ;)
In dem Fall könnten es auch zwei Packages sein, da man ja nicht alles doppelt braucht (I/O z. B.)

Timbaloo
2015-01-06, 22:52:48
Die haben nen Chip zur elektrischen Trennung von Ehternet drauf, also einen Überspannungsschutz, der knapp 10$ allein kostet. Das wird ziemlich sicher kein 0815 Schrott sein.
Was kostet so ein Teil? Welche Stückzahlen haben wir? Kosten würde ich jetzt zwischen 10 und 30 Kilo erwarten. Stückzahlen kA, hundert? zweihundert? Tausend? Was juckt mich da ein $10-Popel? Oder glaubst du ernsthaft auf einem Serien-SG wären SATA und SD-Karten-Gerümpel? Natürlich ist das kein 0815-Schrott, damit würden sie sich ja maximal lächerlich machen. In einen Prototypen/Entwicklungskit würde ich auch (zukaufbare) Schutzfeatures reinkloppen. Spätestens wenn die Dinger in ernstzunehmenden Fahrzeugprototypen (Größenordnung 1-2Mio€) verbaut sind und du ihn gerade der gesamten Pressewelt vorstellst bist du nicht scharf drauf, dass die Kacke steht weils dir dein Ethernet gebrutzelt hat.


Ansonsten bzgl Package:
Du entwirfst nicht "einfach mal so" ein neues Package.
Naja, unterschiedliche Packages für einen µC (oder Varianten dessen) sind nicht unüblich, ich würde sogar soweit gehen zu sagen dass das Industriestandard ist. Vielleicht gibt es genau die Anforderung, dass ein bestimmtes Package verwendet werden muss, vielleicht werden noch Kühlkörper draufgeklebt, ich weiss es nicht. Aber deswegen darauf zu schliessen, dass da ein FPGA drunterliegt finde ich maximal weit hergeholt. Zumal du ja dann erst die FPGA-Lösung entwickeln müsstest. Soooo aufwendig wird ein anderes Package jetzt auch nicht sein...

Ich glaube mit Redundanz ist hier gemeint das der workflow erhalten bleibt und nicht als Backup für einen Totalausfall. ;)
:confused:
In dem Fall könnten es auch zwei Packages sein, da man ja nicht alles doppelt braucht (I/O z. B.)
:confused: :confused: :confused:

Skysnake
2015-01-07, 02:00:43
Für den FPGA musste im besten Fall gar nichts machen, weil du deinen kompletten RTL Code einfach drauf mappen kannst. Gut, noch nen bischen constrainen fürs timeing closer, aber das sollte es dann gewesen sein. Die werden ja eh FPGAs nutzen zur Entwicklung.

Dagagen ist die Entwicklung von nem Package ne ganz andere Hausnummer. Das ist ja nen BGA-Package. Du musst da ja SATA, PCI-E usw durchrouten. Das ist jetzt schon etwas Aufwand. Vor allem wenn du bedenkst, wie klein der Chip ja ist, und da müssen mindestens 12 Datensignale rein, oder eben, wenn die vorher schon aggregiert werden, weniger Signale mit höheren Taktraten. Das Ding ist halt winzig klein. Soooo viele Balls haste da auch nicht drauf, und mit Saft musste das auch noch Versorgung, ist zwar nicht so viel, aber du brauchst mindestens zwei Spannungen usw. Das wird sehr schnell sehr eklig. Das willste nicht zweimal machen.

Hübie
2015-01-07, 02:16:11
:confused:

:confused: :confused: :confused:


War unterwegs und hab mich kurz gefasst. Wenn du etwas nicht verstanden hast dann stelle eine konkrete Frage.
Es wäre an sich aber kein Problem, da man für Redundanz nicht den gleichen Prozessor mit allem Schnickschnack noch mal benötigt sondern "nur" dessen Rechenkraft. Das war meine Aussage. Ich habe mir nun jedoch das Bild angesehen und die Packages sind identisch. Redundanz hier im Kontext von: reicht die Rechenkraft nicht mehr aus wird die zweite CPU hinzugeschaltet.

Ist nun aber hinfällig. Keine Ahnung wie unsere Himmelsschlange darauf kam :freak:

Skysnake
2015-01-07, 02:22:47
Nein, du hast nen zweiten Chip für nen failover. Wenn der eine aussteigt, kommen die Signale vom anderen. So erkennt man auch leicht, ob überhaupt ein Fehlverhalten vorliegt. Wenn die Signale von Chip 1 und Chip 2 nicht identisch sind, dann ist wahrscheinlich etwas kaputt. Dann kann man in einen Savemode gehen oder sonst was machen.

Es macht absolut Sinn, die Hardware doppelt aus zu legen.

Hübie
2015-01-07, 03:07:12
Ich kenne das A) anders und B) muss man differenzieren von welchem Steuergerät man redet.
Du hast i.d.R. ein Kommunikationsmodul (low bandwith, low latency). Kommt von einem Gerät kein oder ein Fehlerhaftes Signal geht das System in einen Fehlermodus, wirft einen Code in den PROM oder in kritischen Fällen wechselt es in den Notlauf. Dann sind nur max 40km/h möglich (Automatik schaltet dann afaik nur noch in die dritte Fahrstufe und verhaart dort). Passiert die bei 200 auf der Bahn ruckt das Fahrzeug und die Innenraumbeleuchtung geht an, das Kombiinstrument wird resettet und dann bremst der Fahrer defintiv. Neue Fahrzeuge bremsen automatisch herunter.
Die 12 Kameras dienen afaik nicht autonomen Fahrens sondern zur Sondierung und Auswertung der Situation. Ich weiß jedoch gerade nicht ob da geplant ist mittels dieser Daten aktive Vorgehensweisen zu initiieren. Logisch wäre es nicht.
Volvo z.B. verlässt sich da auf verschiedene Daten von diversen Sensoren. Lichtbilder sind da sehr unzuverlässig.
Ich bin jedoch nicht in der Automobilindustrie ;) Wo ich bin geht man ein paar km höher oder tiefer entsprechend anders sind die Anforderungen.

mksn7
2015-01-07, 04:01:47
Selbst einparken ist zwar nicht ganz autonomes fahren, aber ist schon nah dran. nvidia glaubt, alle möglichen anderen Sensoren durch Kameras ersetzen zu lönnen, weil da halt viel visual computing anfällt, was sie gut können.

Zählt sowas wie Tacho auch zu sicherheitskritisch? Es ist ja ganz nett, dass man viel Grafikpower hat um Sachen zu rendern, aber den Tacho fand ich ein bisschen albern...

Was wäre denn so schlimm dran, wenn nvidia tatsächlich einen FPGA dort verbaut? Ist doch egal wo die Leistung herkommt?

Hübie
2015-01-07, 04:13:46
Nein Tachometer ist nicht Sicherheitsrelevant. Also das gesamte Kombi-Instrument nicht. Dabei meine ich nicht die Meinung des Fahrers ;)

Skysnake
2015-01-07, 07:15:37
Ich kenne das A) anders und B) muss man differenzieren von welchem Steuergerät man redet.
Du hast i.d.R. ein Kommunikationsmodul (low bandwith, low latency). Kommt von einem Gerät kein oder ein Fehlerhaftes Signal geht das System in einen Fehlermodus, wirft einen Code in den PROM oder in kritischen Fällen wechselt es in den Notlauf. Dann sind nur max 40km/h möglich (Automatik schaltet dann afaik nur noch in die dritte Fahrstufe und verhaart dort). Passiert die bei 200 auf der Bahn ruckt das Fahrzeug und die Innenraumbeleuchtung geht an, das Kombiinstrument wird resettet und dann bremst der Fahrer defintiv. Neue Fahrzeuge bremsen automatisch herunter.
Die 12 Kameras dienen afaik nicht autonomen Fahrens sondern zur Sondierung und Auswertung der Situation. Ich weiß jedoch gerade nicht ob da geplant ist mittels dieser Daten aktive Vorgehensweisen zu initiieren. Logisch wäre es nicht.
Volvo z.B. verlässt sich da auf verschiedene Daten von diversen Sensoren. Lichtbilder sind da sehr unzuverlässig.
Ich bin jedoch nicht in der Automobilindustrie ;) Wo ich bin geht man ein paar km höher oder tiefer entsprechend anders sind die Anforderungen.
Ich kenns halt nur als Ansatz von strahlenharten Systemen :tongue:

Ansonsten haste natürlich Recht, man muss allerdings auch beachten, das man schon lange elektronische Gaspedale usw hat. Drive by wire gibts meines Wissens nach durchaus schon, also auch Lenkung usw. wobei man das sicherlich auch über das eigentliche Steuergerät klären könnte. Die Frage ist nur, warum sollte man? Dann muss man ja später, wenn man mehr will sich wieder hinsetzen, und was Neues machen. Dann doch lieber gleich als Maximallösung konzeptieren, und dann eben schauen was aktuell sicher machbar ist.


Was wäre denn so schlimm dran, wenn nvidia tatsächlich einen FPGA dort verbaut? Ist doch egal wo die Leistung herkommt?
An sich nichts, außer das man vorgaukeln würde, mit der Entwicklung weiter zu sein, als man real ist. So impliziert man ja, dass der X1 funktioniert und alle Anforderungen erfüllt. Wenn das ein FPGA übernimmt, dann ist das überhaupt nicht zu erwarten, eher das Gegenteil, denn bei denen gibt es ja gerade solche die für automotive zertifiziert sind.

Timbaloo
2015-01-07, 08:50:39
Wenn das ein FPGA übernimmt, dann ist das überhaupt nicht zu erwarten, eher das Gegenteil, denn bei denen gibt es ja gerade solche die für automotive zertifiziert sind.
Ich verstehe die Argumentation nicht. Ob der SoC bzw. FPGA zertifiziert ist, spielt für eine Entwicklungsplattform erstmal überhaupt keine Rolle. Du gehst ja nicht mit der Entwicklungsplattform in Serie. Auch wird X1 derzeit garantiert nicht die für Serienanwendungen notwendigen Zertifizierungen mitbringen, wie auch, ist ja gerade erst vorgestellt worden.

Sollte nun tatsächlich ein FPGA oder sonstwas für PX und CX verwendet werden und diese Lösung die Funktion eines X1 exakt nachbilden interessiert das für die Entwicklungsplattform auch erstmal eher wenig Leute. Wenn NV das Ding unter die Hersteller bringen will, die werden schon die richtigen Fragen stellen. Sollte NV einen Serienanlauf (z.B. aufgrund von fehlenden Zertifizierungen) kurz vor knapp verhindern, dann war die Automobilindustrie ein netter Ausflug den sie nicht mehr so schnell wiederholen werden können.
Aber es wird ganz sicher nicht daran scheitern, dass man ein zweites (oder drittes, die anderen Tegras gibts schon in zwei Packages afaik) Package für X1 entwickeln muss.

Dural
2015-01-07, 09:22:27
Das einzige was ich an der Hardware komisch finde ist das offensichtlich der Kühler fehlt, der Lüfter ist aber vorhanden.

Wenn ich an frühere Tegra Vorstellungen zurück denke gab es gleich ein Aufschrei von den berüchtigten User und Internet Seiten mit dem Kommentar das ding braucht 50Watt+ :P :freak:
NV hat wohl bewusst den Kühler weggelassen und keinem Mensch fehlt es auf...

Botcruscher
2015-01-07, 10:28:41
?

http://images.anandtech.com/doci/8811/X1PowerTap.jpg

Nakai
2015-01-07, 10:29:29
Nein Tachometer ist nicht Sicherheitsrelevant. Also das gesamte Kombi-Instrument nicht. Dabei meine ich nicht die Meinung des Fahrers ;)

Kombiinstrumente sind nicht sicherheitskritisch, es gibt also keinerlei Redundanz o.Ä. Es gibt jedoch einige Vorschriften, wie gewisse Anzeigen auszusehen haben. Normalerweise wird noch ein analoger Zeiger eingebaut.

Es werden keine zwei X1s für Redundanz drin sein, vor allem nicht in diesem Status des autonomen Fahrens. Das wird noch einige Zeit in DE und innerhalb der EU so sein. Ich vermute, dass autonomes Fahren bzw. diese Module dazu erstmal auch nicht vollkommen sicherheitsrelevant sind.

Ailuros
2015-01-07, 10:35:32
Das einzige was ich an der Hardware komisch finde ist das offensichtlich der Kühler fehlt, der Lüfter ist aber vorhanden.

Wenn ich an frühere Tegra Vorstellungen zurück denke gab es gleich ein Aufschrei von den berüchtigten User und Internet Seiten mit dem Kommentar das ding braucht 50Watt+ :P :freak:
NV hat wohl bewusst den Kühler weggelassen und keinem Mensch fehlt es auf...

Laut NV's eigenen Angaben hat 32bit K1 einen theoretisch maximalen Verbrauch von 33W. Von ueber 50W war auch nie die Rede soweit ich mich erinnern kann.

Wo liegt denn Deiner Meinung nach der X1 chip im Bild unten genau?

http://www.anandtech.com/show/8811/nvidia-tegra-x1-preview/3

http://images.anandtech.com/doci/8811/X1PowerTap.jpg

?

http://images.anandtech.com/doci/8811/X1PowerTap.jpg

Touche. Du warst schneller. Ich will die angegebenen 1GHz GPU Frequenz in einem ultra thin tablet erstmal sehen bevor ich sie glaube.

ndrs
2015-01-07, 10:56:48
Kombiinstrumente sind nicht sicherheitskritisch, es gibt also keinerlei Redundanz o.Ä. Es gibt jedoch einige Vorschriften, wie gewisse Anzeigen auszusehen haben. Normalerweise wird noch ein analoger Zeiger eingebaut.
Wenn dem tatsächlich so ist, müssten sich die Vorschriften von Autos und Mopeds ziemlich unterscheiden. Dort zumindest gibt es reine LCD-Instrumente, zB: Yamaha MT07 (http://cdn.yamaha-motor.eu/product_assets/2015/MT07MC/440-75/2015-Yamaha-MT07MC-EU-Matt-Grey-Detail-008.jpg)

Nakai
2015-01-07, 11:16:25
Wenn dem tatsächlich so ist, müssten sich die Vorschriften von Autos und Mopeds ziemlich unterscheiden. Dort zumindest gibt es reine LCD-Instrumente, zB: Yamaha MT07 (http://cdn.yamaha-motor.eu/product_assets/2015/MT07MC/440-75/2015-Yamaha-MT07MC-EU-Matt-Grey-Detail-008.jpg)

Es gibt Unterschied von Markt zu Markt und Land zu Land. Es wird interessant, wie autonomes Fahren bei uns "ankommen" wird.

Sry, ich habe noch einen Fehler gemacht. Es muss kein analoger Zeiger sein, aber eine zusätzliche "unabhängige" Anzeige für die Drehzahl sollte bei Automobilen zusätzlich verbaut werden. Jedenfalls war das dort, wo ich gearbeitet habe, immer der Fall. Meistens wird ein analoger Drehzahlgeber mit eingebaut, für Redundanzzwecke bzw. Benutzerhilfe.

Gandharva
2015-01-07, 16:30:50
X1 Benches

http://www.tabtech.de/android-bzw-google-tablet-pc-news/nvidia-tegra-x1-erste-benchmark-ergebnisse-aufgetaucht

http://www.tabtech.de/wp-content/uploads/2015/01/nvidia-tegra-x1-benchmarks-06.jpg

http://www.tabtech.de/wp-content/uploads/2015/01/nvidia-tegra-x1-benchmarks-04.jpg

http://www.tabtech.de/wp-content/uploads/2015/01/nvidia-tegra-x1-benchmarks-05.jpg

http://www.tabtech.de/wp-content/uploads/2015/01/nvidia-tegra-x1-benchmarks-07.jpg

Botcruscher
2015-01-07, 19:12:34
Touche. Du warst schneller. Ich will die angegebenen 1GHz GPU Frequenz in einem ultra thin tablet erstmal sehen bevor ich sie glaube.

Bei 33W Peak? Die 4 Löcher da im Kühler deuten auf eine Verschraubung. Entweder direkt gegen die Karosse oder an einen größeren Kühlblock. Mal sehen wann die Klima alleine angeht...

Ailuros
2015-01-07, 19:46:33
Bei 33W Peak? Die 4 Löcher da im Kühler deuten auf eine Verschraubung. Entweder direkt gegen die Karosse oder an einen größeren Kühlblock. Mal sehen wann die Klima alleine angeht...

K1 war bei 33W peak; keine Ahnung fuer den kommenden X1.

Uebrigens will ich hoffen dass Kishonti bald mit Gfxbench3.1 ankommt, denn die heutigen benchmarks lassen zu viel Luftraum mit Batterie-tests zu bescheissen bei solchen Leistungen ;)

Undertaker
2015-01-07, 19:47:46
Theoretische Peakwerte sind doch völlig ohne Aussagekraft, wenn eh vorher abgeriegelt wird. Auch Frequenzen sind egal, solange die Performance stimmt. Bei Tegra K1 wurden die veröffentlichten Benchmarks später vom passiv gekühlten Shield Tablet bestätigt (oder gar leicht übertroffen!), nur das zählt.

Btw: Eine aktive Kühlung ist z.B. in modernen Infotainment-Systemen eh Standard. Und zwar nicht wegen des SoCs, sondern vor allem durch die integrierten Endstufen.

Ailuros
2015-01-07, 20:07:20
Theoretische Peakwerte sind doch völlig ohne Aussagekraft, wenn eh vorher abgeriegelt wird. Auch Frequenzen sind egal, solange die Performance stimmt. Bei Tegra K1 wurden die veröffentlichten Benchmarks später vom passiv gekühlten Shield Tablet bestätigt (oder gar leicht übertroffen!), nur das zählt.

Das einzige was wirklich zaehlt bei einer Firma ist wieviel Gewinn man mit jedem Produkt macht, wenn's schon sein muss. Hier ist zu hoffen dass X1 nicht wieder so einen langweiligen Empfang haben wird von Herstellern wie K1.

Sonst war der Punkt dass wenn man in TRex schon knapp 60 onscreen erreicht und ueber 120fps in offscreen, setzt man einfach die Frequenz dafuer bei 500MHz und gaukelt 2x Mal so hohe Batterie-Laufzeit vor.

Btw: Eine aktive Kühlung ist z.B. in modernen Infotainment-Systemen eh Standard. Und zwar nicht wegen des SoCs, sondern vor allem durch die integrierten Endstufen.

NV's Problem im automotive ist dass sie zu feiste Konkurrenz haben und nicht irgendwelche aktive Kuehlung. Und das ganze obrige war uebrigens eine Antwort zu diesem Beitrag: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10477290&postcount=5461

Undertaker
2015-01-07, 20:16:24
NV's Problem im automotive ist dass sie zu feiste Konkurrenz haben

Nvidia ist hier durchaus solide aufgestellt, und das bereits seit Tegra 2. Darunter sind auch einige ziemlich lukrative Design-Wins wie z.B. im Golf 7. Unter hinter den Kulissen gibt es noch einige weitere interessante Entwicklungen. :)

Ailuros
2015-01-07, 20:32:19
Versprechen kann man sich immer vieles.

Undertaker
2015-01-07, 20:37:17
Möchtest du den MIB Design-Win ernsthaft als unbedeutend deklarieren? :confused: Und sag mir mal, was Freescale, Renesas & Co. so als Alternative zu einer Komplettlösung wie Drive CX im Programm haben. Hast du eine Vorstellung, was ein Tier 1 Zulieferer (nein, die Fahrzeughersteller entwicklen Infotainment-Systeme kaum noch selbst, viel zu teuer da eigenes Know-How aufzubauen) hier aktuell für einen Entwicklungsaufwand betreibt und was sich dadurch für Einsparungspotentiale ergeben? Ich vermute nicht.

Ailuros
2015-01-07, 21:33:28
Möchtest du den MIB Design-Win ernsthaft als unbedeutend deklarieren? :confused: Und sag mir mal, was Freescale, Renesas & Co. so als Alternative zu einer Komplettlösung wie Drive CX im Programm haben. Hast du eine Vorstellung, was ein Tier 1 Zulieferer (nein, die Fahrzeughersteller entwicklen Infotainment-Systeme kaum noch selbst, viel zu teuer da eigenes Know-How aufzubauen) hier aktuell für einen Entwicklungsaufwand betreibt und was sich dadurch für Einsparungspotentiale ergeben? Ich vermute nicht.

Wenn Du Dich selber darueber ueberredet hast dass damit NV im automotive ohne Konkurrenz ist und sein wird und dass sie damit eine gesicherte Zukunft haben damit die Tegra Sparte auch ueberleben kann, dann gibt es wohl auch keinen Grund zur Aufregung.

Undertaker
2015-01-07, 21:42:09
Ich habe nichts derartiges gesagt. Versuche dich doch mal an einer differenzierten Sichtweise. :) Eine solche kann zum Beispiel lauten: Seit Tegra 2 ist NV durchaus solide aufgestellt und Design-Wins wie MIB sind nichts, was man mal eben so an Land zieht. Und ein Komplettangebot wie Drive CX gibt's bislang von keinem Konkurrenten, damit könnte man im Tier 1 Lager einiges Interesse hervorrufen. Und künftig mehr von Kuchen abgreifen, als mit dem SoC allein.

Timbaloo
2015-01-07, 21:44:32
Und ein Komplettangebot wie Drive CX gibt's bislang von keinem Konkurrenten
Was verstehst du hier unter Komplettangebot?

Skysnake
2015-01-07, 21:48:28
Möchtest du den MIB Design-Win ernsthaft als unbedeutend deklarieren? :confused: Und sag mir mal, was Freescale, Renesas & Co. so als Alternative zu einer Komplettlösung wie Drive CX im Programm haben. Hast du eine Vorstellung, was ein Tier 1 Zulieferer (nein, die Fahrzeughersteller entwicklen Infotainment-Systeme kaum noch selbst, viel zu teuer da eigenes Know-How aufzubauen) hier aktuell für einen Entwicklungsaufwand betreibt und was sich dadurch für Einsparungspotentiale ergeben? Ich vermute nicht.
Das sind wohl auch kaum die Konkurrenten, sondern eher Bosch und Siemens.

Ich habe nichts derartiges gesagt. Versuche dich doch mal an einer differenzierten Sichtweise. :) Eine solche kann zum Beispiel lauten: Seit Tegra 2 ist NV durchaus solide aufgestellt und Design-Wins wie MIB sind nichts, was man mal eben so an Land zieht. Und ein Komplettangebot wie Drive CX gibt's bislang von keinem Konkurrenten, damit könnte man im Tier 1 Lager einiges Interesse hervorrufen. Und künftig mehr von Kuchen abgreifen, als mit dem SoC allein.
Hat nicht Bosch zur CES auch ein derartiges System gezeigt?

Undertaker
2015-01-07, 21:52:49
Drive CX nicht mit PX verwechseln. ;)

Undertaker
2015-01-07, 22:01:34
Was verstehst du hier unter Komplettangebot?

Nur um mal ein Beispiel zu bringen: NV scheint unter anderem eine komplette Softwareumgebung für das HMI-Design zur Verfügung zu stellen.

Ailuros
2015-01-07, 22:21:50
Ich habe nichts derartiges gesagt. Versuche dich doch mal an einer differenzierten Sichtweise. :) Eine solche kann zum Beispiel lauten: Seit Tegra 2 ist NV durchaus solide aufgestellt und Design-Wins wie MIB sind nichts, was man mal eben so an Land zieht. Und ein Komplettangebot wie Drive CX gibt's bislang von keinem Konkurrenten, damit könnte man im Tier 1 Lager einiges Interesse hervorrufen. Und künftig mehr von Kuchen abgreifen, als mit dem SoC allein.

Selbst wenn ich 1000 mal auf eine Wand "NV ist seit T2 solide aufgestellt" schmiere heisst es immer noch gar nichts; in der Art hat sich nur LovesuckZ wiederholt, brachte aber nicht mehr Umsatz zur Tuer rein seit Tegra2. Automotive ist es ein sehr begrenzter Markt mit sehr geringen Stueckzahlen (weil eben nicht unendlich Karren pro Jahr verkauft werden), aber im gegebenen Fall sehr hohen Margen fuers gesamte Paket weil es auch high end Loesungen sind die einen noch bescheideneren Marktanteil vom gesamten automotive ansprechen. Noch dazu dass bis der ganze Firlefanz legal auf Strassen erlaubt wird es immer noch etwas dauern wird.

Produktions-Ziel fuer beide Angebote ist sowieso 2016:

http://www.anandtech.com/show/8811/nvidia-tegra-x1-preview/4

http://images.anandtech.com/doci/8811/Drive_availability_575px.PNG

Welches aber rein von der Automobil-Herstellern abhaengt....

Undertaker
2015-01-07, 22:50:45
Automotive ist es ein sehr begrenzter Markt mit sehr geringen Stueckzahlen

Im Automotive wird das Geld nun einmal nicht nur mit dem SoC allein gemacht. Ein gesamtes Infotainment-Projekt für eine einzige größere Baureihe ist aber schnell ein dreistelliger Millionenbetrag für 3-4 Jahre, und davon kann man mit einem Paket a'la Drive CX natürlich mehr abgreifen. Damit wäre Nvidia schon recht nah an einem Tier 1 Zulieferer.

Zum Produktionsbeginn: Du kannst hier nicht Entwicklungszeiten wie im Mobilemarkt erwarten. Für eine komplette Neuentwicklung sind selbst 2 Jahre knapp bemessen. Hier versucht man durch zunehmende Modularisierung zwar die Zyklen zu verkürzen, dennoch bleibt es ein vergleichsweise langwieriger Prozess.

Skysnake
2015-01-08, 10:40:44
Danke Ailuros für die Folie, die hatte ich noch nicht gesehen. Das ist immerhin mal ne Ansage, die zeigt, dass das alles noch ne ganze Weile braucht.

Ich frage mich allerdings, warum man aktuell immer so weit in die Zukunft blickt. Früher hat man mal über aktuelle Produkte gesprochen, aber das scheint inzwischen wohl nicht mehr hip zu sein :freak:

Drive CX nicht mit PX verwechseln. ;)
Guckst du z.B. hier (http://www.autobild.de/artikel/bosch-auf-der-ces-2015-5517570.html). Ist jetzt einfach der erstbeste Link den ich gefunden habe.

Und auch dem automatisierten Fahren nähern sich die Stuttgarter immer mehr an. Das beweist in Las Vegas ein Demonstrationsfahrzeug mit dem Bosch-Stauassistenten, das bei dichtem Verkehr selbstständig lenkt, bremst und beschleunigt.

Also für mich hörte sich das insbesondere in der anderen Quelle schon genau nach DrivePX an.

Nur um mal ein Beispiel zu bringen: NV scheint unter anderem eine komplette Softwareumgebung für das HMI-Design zur Verfügung zu stellen.
Yeah, klickibuntianimationi....

Sorry, aber darauf kann ich VERZICHTEN! Insbesondere bei Anzeigen wie Tacho und Navigation. Ich will da NUR! die Informationen, die ich WIRKLICH brauche und sonst rein gar nichts, denn das lenkt nur ab, und sorgt dafür, das ich länger da drauf schauen muss und in der Zeit habe ich keinen plan, wohin ich fahre... Blindflug also. Schon bei 100km/h sind das fast 28m/s!

Ich habe dazu neulich auch lustigerweise einen interessanten Artikel gelesen über einen Unfallforscher oder so. Da wurde von ihm expliziet darauf hingewiesen, das nicht nur Smartphones usw. heutzutage zu Unfällen vermehrt beitragen, sondern schon allein die ganze "Info"tainment Systeme in den Autos. Er hatte, wenn ichs richtig im Kopf habe, gefordert, das man die Auswüchse entweder ganz verbietet, also nicht mehr so überladene Funktionalitäten zulässt, oder zumindest dafür sorgt, dass Sie nicht mehr nutzbar sind aber einer gewissen Geschwindigkeit.

Ich kann daher absolut nicht! verstehen, wie man sich an der grafischen Darstellung aufgeilen kann. Ich sehe das eher als Verkehrsgefährdung an! Klar, wenn die Karre autonom fährt, dann kann das von mir aus so bunt sein wie es will, aber dann brauch ICH! auch keinen eigenen Wagen mehr, sondern steig auf Car-Sharing um. An sich habe ich auch gar keinen bock, nur noch Passagier zu sein, weil Autofahren durchaus Spaß machen kann, auch wenns heutzutage echt sacke teuer geworden ist mit Sprit usw. Auf der anderen Seite wären dann die ganzen Idioten ausgeschaltet, die ständig versuchen sich und andere um zu bringen.... Wäre wohl gar kein schlechter Deal, dann steigt man zum Spaß haben halt komplett aufs Zweirad um :biggrin: Das macht eh noch viel mehr bock >0,3PS/kg das rockt schon ganz gut, und wenn man in die Region von 1PS/kg kommt wirds einfach abartig :cool:

Ailuros
2015-01-08, 11:46:45
Im Automotive wird das Geld nun einmal nicht nur mit dem SoC allein gemacht. Ein gesamtes Infotainment-Projekt für eine einzige größere Baureihe ist aber schnell ein dreistelliger Millionenbetrag für 3-4 Jahre, und davon kann man mit einem Paket a'la Drive CX natürlich mehr abgreifen. Damit wäre Nvidia schon recht nah an einem Tier 1 Zulieferer.

Zum Produktionsbeginn: Du kannst hier nicht Entwicklungszeiten wie im Mobilemarkt erwarten. Für eine komplette Neuentwicklung sind selbst 2 Jahre knapp bemessen. Hier versucht man durch zunehmende Modularisierung zwar die Zyklen zu verkürzen, dennoch bleibt es ein vergleichsweise langwieriger Prozess.

Es ist eine Schande dass NV ihre finanziellen Resultate so weit aufschlaegt dass man einen besseren Einblick in Markt-Tendenzen haben koennte, aber ob Du es glauben willst oder nicht ihre Margen im automotive reduzieren sich schon seit einiger Zeit. Werden sie zu niedrig werden in der Zukunft dann sollte automotive auch kein Interesse mehr fuer NV haben, denn sie sind ja angeblich nur hinter high end/high margin Maerkten.

Sonst hat sich NV mit GPUs in desktops und HPC u.a. etabliert weil staendig groessere Leistung verlangt wurde und immer noch verlangt wird. Du magst vielleicht glauben dass einfache Automobile ueber Nacht zu Raumschiffen werden aber innerhalb nur wenigen Jahren wird es auch hier zur Stagnation kommen. Mit etwas Glueck erst wenn die Herstellungsprozesse die erste grosse Bremse setzen werden.

Tier1 Lieferer kannst Du Dir an den Hut stecken bei den Stueckzahlen und dem Tempo in dem sich der Markt bewegt. Es ist und bleibt ein Seitengeschaeft dass immer noch mehr als Technologie-Experiment erscheint, als dass dadurch irgendwelcher ernsthafter Gewinn hereinfliesst.

Botcruscher
2015-01-08, 12:13:14
Die Margen für Zulieferer sind nun mal im einstelligen Prozentbereich.
Im Gegensatz dazu werden bei VAG von 27€ Einkauf mal eben 2000€ Infotainment.

Ailuros
2015-01-08, 12:13:43
Danke Ailuros für die Folie, die hatte ich noch nicht gesehen. Das ist immerhin mal ne Ansage, die zeigt, dass das alles noch ne ganze Weile braucht.

Ich frage mich allerdings, warum man aktuell immer so weit in die Zukunft blickt. Früher hat man mal über aktuelle Produkte gesprochen, aber das scheint inzwischen wohl nicht mehr hip zu sein :freak:

Embedded hat total lahmarschige Entwicklungszeiten, das ist etwas dass man wissen sollte. Von dem abgesehen ich behalte einen offenen Horizont fuer die Technologie, denn ich fahre sehr gerne mit dem Auto aber wenn's zum parken kommt bin ich mehr als oefters ein Faulpelz. Wenn das Zeug problemlos laeuft hab ich auch nichts dagegen, so lange ich es dann selbst bedienen kann wenn etwas schief laufen sollte. Teilweise OT aber doch relevant: angenommen es krepiert das elektrische Fenster an der Fahrertuer hat bis jetzt noch kein Vollidiot daran gedacht dass man irgend einen manuellen Notmechanismus haben koennte dass man das Fenster wieder hochzieht. Was zum Teufel macht man wenn es saukalt ist und es regnet?

Sonst insgesamt vertraue ich solch heikles Zeug lieber NVIDIA an als jeglicher chinesischen oder koreatischen 0815 Bude. Und wenn's schon sein muss: tut mir leid aber Siemens ist schon seit vielen Jahren nicht mehr dass was sie mal wahren. Von Haushaltsgeraeten will ich von Siemens seit langem nichts mehr wissen.

Undertaker
2015-01-08, 12:37:12
Edit: Nein, ich überlasse die weitere Diskussion lieber den anwesenden Automotive-Insidern. :)

Skysnake
2015-01-08, 12:41:22
Bzgl Qualität usw. haste absolut Recht, genau das ist aber auch ein Grund, warum ich eher dazu tendiere Bosch und Konsorten da vorne zu sehen auf lange Sicht. Die sind eh in den Fahrzeugen. Sei es nun Motorsteuerung, ESP oder was weiß ich was alles. Die haben da natürlich nen riesen Vorteil bei der Vernetzung und der Integration, und das wird meiner Meinung nach auch auf lange Sicht nVidia killen. Die anderen können einfach viel weiter integrieren und damit auch Zusatzdienste anbieten.

Wo war das nochmal, wo ich gelesen habe, dass der Werkstattmitarbeiter über VR die beschädigten Teile angezeigt bekommen soll inkl Reperaturanleitung?

Sowas kannste halt super toll ins Multimedia-System integrieren und einen Vendorlock schaffen. Ist ja nicht so, dass nur nVidia weiß, wie man so etwas macht. Klar ist das Unfair, und man sollte hoffen, dass die Autobauer+Kartellbehörden sowas verhindern, aber selbst wenn, würde nVidia die Zwischenzeit in dem Markt wohl nicht überleben.

Der Punkt mit High-End/-Margin trifft absolut zu.

Botcruscher
2015-01-08, 12:43:49
Dann hast du hoffentlich eine Jacke mit. An dem Problem mit den Fensterhebern wird sich da aber auch mit IT wenig ändern. Türen sind weder Wasser noch Luftdicht. Da vergammelt gerne der Motor oder die Kabel.

Wo war das nochmal, wo ich gelesen habe, dass der Werkstattmitarbeiter über VR die beschädigten Teile angezeigt bekommen soll inkl Reperaturanleitung?
Ein Traum der Forscher. In der Realität ist das Betriebsgeheimnis und ohne die passende Software geht fast nichts. Dafür bekommst du an der Diagnoseschnittstelle schon heute die defekten Teile. Dazu kommt dann noch ein A4 Hefter was noch zu tauschen ist. Welche Handgriffe überhaupt zum Erfolg führen ist Teil ständiger Weiterbildung.

Sunrise
2015-01-08, 12:53:26
...Sorry, aber darauf kann ich VERZICHTEN! Insbesondere bei Anzeigen wie Tacho und Navigation. Ich will da NUR! die Informationen, die ich WIRKLICH brauche und sonst rein gar nichts, denn das lenkt nur ab, und sorgt dafür, das ich länger da drauf schauen muss und in der Zeit habe ich keinen plan, wohin ich fahre... Blindflug also.
Das sehe ich genauso. Infotainment und digitale Anzeigen von mir aus als Zusatz und nur optional zuschaltbar, aber etwas, dass bereits in seiner "reinen Form" vorhanden ist, sollte nicht durch Optik-Overkill ersetzt werden, der mich vom Wesentlichen nur ablenkt.

Beispiel (in anderer Form):
Der Bremsassistent meines A5 hatte mich mal extrem unsanft (nahe an Vollbremsung) beim Vorbeifahren an einem PKW (Spurwechsel von links nach rechts) so stark abgebremst (weil das System dachte, ich pralle gleich auf), dass ein vorhandener Rückfahrer in dem Moment wahrscheinlich in mich reingedonnert wäre (gut, Sicherheitsabstand, soviel die Theorie...). Seitdem habe ich bis auf die Anzeigen des toten Winkels fast alles ausgeschalten, was mir verkauft wird als Hilfe. So ein automatisiertes Fahren ist mit extremer Skepsis zu betrachten, auch wenn es erstmal ein gewisser Aha-Effekt ist.

Vor allem im Stau ist oft volle Konzentration gefordert (gestern wieder ein Mörderstau mit Unfall auf der A5 miterlebt). Hier ein System die Fahrt zu überlassen halte ich für extrem gefährlich. Ja, es kann theoretisch vielleicht besser/schneller reagieren und sich schützen als man es selbst kann, das ist allerdings erstmal nur die reine Theorie. Und in den USA geradeaus fahren halte ich nicht für das beste Szenario um sowas zu testen, da müssen die schwierigsten Situationen auch problemlos bewältigt werden können.

Es gibt leider immer individuell nötige Aktionen die man durchführen muss, wenn etwas schwer berechenbares passiert.

Zuviele Informationen die auf den Fahrer einprasseln sind eben immer ein Problem, und bei Infotainment-Systemen hoffe ich, das man da nicht über das Ziel hinausschießt. Der heutige "Grafik- und immer auf dem laufenden sein müssen"-Wahn ist ein Grund, warum man heutzutage relevante Informationen schlechter wahrnimmt und das beschäftigt einen Menschen (das Gehirn muss fast alles speichern, was nicht gleich gefiltert wird und an kritischen Punkten kommt es dann auch zur Überlastung) auch nach der Fahrt noch. Ich kann jedenfalls deutlich entspannter fahren, wenn ich maximal Musik anhabe. Sobald das Handy klingelt, wird man aus etwas herausgerissen. Die Industrie sieht das natürlich anders, da gibt es andere Interessen.

Man versucht damit geradezu die Ablenkung die die Infotainment-Systeme mehr und mehr verursachen mit einem automatisierten Fahrer auszugleichen. Win-Win für die Industrie, braucht nur kein Mensch (Lagerhallen evtl.).

Klar, die Möglichkeiten, die sich mit so einem SoC von NV ergeben sind technologisch erstmal beeindruckend, der Einsatz von NV ist aber auch aus der Not gebohren, weil sie sich diversifizieren müssen. Ob das ein Erfolg wird sieht man wohl erst in ein paar Jahren und selbst wenn, glaube ich nicht an dicke Umsätze. Das dicke Geld machen die Automobilhersteller durch Ihre eigenen Margen, nicht die Zulieferer selbst. NV denkt sich dabei wohl, dass sie aufgrund der "mobile first"-Strategie sowieso den Grundstein für Ihre GPU-Technologie legen und somit alles darauf basiert, man also auch R&D auf mehrere Bereiche aufteilen kann.

Ailuros
2015-01-08, 16:27:53
Dann hast du hoffentlich eine Jacke mit. An dem Problem mit den Fensterhebern wird sich da aber auch mit IT wenig ändern. Türen sind weder Wasser noch Luftdicht. Da vergammelt gerne der Motor oder die Kabel.

Noe ich hatte ne kleine Zange dabei hab die Scheibe vorsichtig hochgezogen damit und mit fetter Klebleiste an der Tuer festgemacht.


Klar, die Möglichkeiten, die sich mit so einem SoC von NV ergeben sind technologisch erstmal beeindruckend, der Einsatz von NV ist aber auch aus der Not gebohren, weil sie sich diversifizieren müssen. Ob das ein Erfolg wird sieht man wohl erst in ein paar Jahren und selbst wenn, glaube ich nicht an dicke Umsätze. Das dicke Geld machen die Automobilhersteller durch Ihre eigenen Margen, nicht die Zulieferer selbst. NV denkt sich dabei wohl, dass sie aufgrund der "mobile first"-Strategie sowieso den Grundstein für Ihre GPU-Technologie legen und somit alles darauf basiert, man also auch R&D auf mehrere Bereiche aufteilen kann.

Vielleicht erhoffen sich manche backseat infotainment/gaming fuer Kleinkinder bzw. teenagers. Macht doch nichts wird wieder eine Nische von einem Nischenmarkt :P

Beispiel (in anderer Form):
Der Bremsassistent meines A5 hatte mich mal extrem unsanft (nahe an Vollbremsung) beim Vorbeifahren an einem PKW (Spurwechsel von links nach rechts) so stark abgebremst (weil das System dachte, ich pralle gleich auf), dass ein vorhandener Rückfahrer in dem Moment wahrscheinlich in mich reingedonnert wäre (gut, Sicherheitsabstand, soviel die Theorie...). Seitdem habe ich bis auf die Anzeigen des toten Winkels fast alles ausgeschalten, was mir verkauft wird als Hilfe. So ein automatisiertes Fahren ist mit extremer Skepsis zu betrachten, auch wenn es erstmal ein gewisser Aha-Effekt ist.

Ich will mal sehen wie es rechtlich vorgehen soll wenn mal ein Unfall passiert und das System eigentlich daran schuld ist am Ende.

Zuviele Informationen die auf den Fahrer einprasseln sind eben immer ein Problem, und bei Infotainment-Systemen hoffe ich, das man da nicht über das Ziel hinausschießt. Der heutige "Grafik- und immer auf dem laufenden sein müssen"-Wahn ist ein Grund, warum man heutzutage relevante Informationen schlechter wahrnimmt und das beschäftigt einen Menschen (das Gehirn muss fast alles speichern, was nicht gleich gefiltert wird und an kritischen Punkten kommt es dann auch zur Überlastung) auch nach der Fahrt noch. Ich kann jedenfalls deutlich entspannter fahren, wenn ich maximal Musik anhabe. Sobald das Handy klingelt, wird man aus etwas herausgerissen. Die Industrie sieht das natürlich anders, da gibt es andere Interessen.

Man versucht damit geradezu die Ablenkung die die Infotainment-Systeme mehr und mehr verursachen mit einem automatisierten Fahrer auszugleichen. Win-Win für die Industrie, braucht nur kein Mensch (Lagerhallen evtl.).

Ich war 30 Jahre Kettenraucher und hab nie eine einzelne Zigarette beim fahren geraucht in der Vergangenheit. Ich lass mich nicht so leicht durch etwas ablenken beim fahren, jetzt noch mehr mit 2 Kleinkindern.

Um den Bogen aber auf meinen vorigen Punkt mit der Fensterscheibe zu machen: je mehr sich Automobile auf Elektronik verlassen desto hoeher die Empfindlichkeit und desto leichter gehen Dinge kaputt die sich auch nicht so leicht und billig reparieren lassen wie in der Vergangenheit.

Ailuros
2015-01-22, 17:40:35
http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=NVIDIA%20Tegra%20Note%208

Tegra 8 Note? 7,9" 1080p aber komischerweise mit einem ES3.0 und nicht ES3.1 Treiber?

AffenJack
2015-01-22, 18:02:08
Schau aufs Datum der Resultate, ist vom April 2014, da hieß das Shield Tablet wohl noch Tegra Note 8. Wieso die da jetzt auftauchen keine Ahnung, aber ist nix interessantes.

Ailuros
2015-01-23, 09:52:40
Schau aufs Datum der Resultate, ist vom April 2014, da hieß das Shield Tablet wohl noch Tegra Note 8. Wieso die da jetzt auftauchen keine Ahnung, aber ist nix interessantes.

Mist Du hast recht.

Dural
2015-02-04, 11:54:56
14nm Tegra von Samsung:

http://www.computerbase.de/2015-02/nvidias-14-nm-chips-auch-von-samsung/

Ailuros
2015-02-04, 20:25:17
http://www.anandtech.com/show/8701/the-google-nexus-9-review

BlackBirdSR
2015-02-05, 06:33:43
Leider keine custom benches, kaum insider details und auch sonst bezüglich K1 relativ belanglos.... Der Abgang von Anand schmerzt ordentlich...


http://www.anandtech.com/show/8701/the-google-nexus-9-review

Ailuros
2015-02-05, 06:52:15
Leider keine custom benches, kaum insider details und auch sonst bezüglich K1 relativ belanglos.... Der Abgang von Anand schmerzt ordentlich...

Es wird noch ein zweiter Artikel nachgereicht wo man deutlich sehen kann dass die Entscheidung fuer X1 mit A5x cores doch richtig war. Bei der zweiten Denver Auflage werden sie wohl dafuer sorgen dass die CPU gleich gut in allen synthetischen CPU benchmarks leistet und hoffentlich etwas fuer die gelegentlichen Stotter anrichten, die der Artikel hier leider nur so nebenbei erwaehnt.

In practice, I didn't really notice any issues with the Nexus 9's performance, although there were odd moments during intense multitasking where I experienced extended pauses/freezes that were likely due to the DCO getting stuck somewhere in execution, seeing as how the DCO can often have unexpected bugs such as repeated FP64 multiplication causing crashes. In general, I noticed that the device tended to also get hot even on relatively simple tasks, which doesn't bode well for battery life. This is localized to the top of the tablet, which should help with user comfort although this comes at the cost of worse sustained performance.

Nichts fuer ungut aber Denver ist nach wie vor IMHO ein potentieller Prozessor der sich sehr gut oberhalb von ultra thin tablets und unterhalb von low end notebooks positionieren koennte; die paar krummen Ecken werden sie wohl schon ausschleifen koennen bei einem refresh. Das daemliche ist halt dass win10 zu spaet ankommt.

Gaestle
2015-02-05, 09:42:05
Die Frage ist (glaube ich) aktuell auch, ob es für Win10 überhaupt ARM-Tablets >7 Zoll geben wird. WinRT soll ja angeblich kein komplettes Win10-Update bekommen (was auch immer ein "komplettes Win10" sein soll). Aber was genau die RT-Dinger kriegen, ist auch unklar.
Basierend auf den aktuellen Infos vermute ich alles >7Zoll wird x86, alles bis 7 Zoll wird Win10Phone.

Avalox
2015-02-09, 06:22:49
X1 Shield soll nach Fudzilla schon nächsten Monat angekündigt werden.
http://www.fudzilla.com/news/mobile/36937-shield-tegra-x1-coming-soon