PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 16. Februar 2018


Leonidas
2018-02-17, 10:51:55
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-16-februar-2018

MrSpadge
2018-02-17, 15:33:15
Turing als typischer nVidia Chip, aber nur mit Tensor-Kernen in den SMs und ohne fixed function graphics könnte ich mir gut vorstellen.

Aber für Mining? Reicht denen denn überhaupt die niedrige Präzision der Tensor-Kerne? Und außerdem: egal wie viel Rechenleistung und Effizienz man aufbietet, sobald die Hardware eine gewisse Verbreitung erreicht hat, zieht die Schwierigkeit an und alles ist wieder wie vorher. Absahnen können damit nur die allerersten. Oder alle, wenn die Kurse so anziehen wie letztes Jahr. Das dann aber auch unabhängig von der Leistungsfähigkeit der Hardware.

MrS

Complicated
2018-02-17, 16:29:36
Ich glaube nicht dass Nvidia für ein Segment mit ca. 150 Mio stagnierendem Umsatz pro Quartal einen eigenen Chip auflegt. Das ist nicht wirklich schlüssig.

Gast
2018-02-17, 16:41:03
Intel geht bekannterweise bei Ice Lake ja auch bei den CPU-Kernen (erneut) nach vorn, wird dort standardmäßig bis zu 8 CPU-Kerne im normalen Consumer-Segment aufbieten – mit nun auch noch verdoppelter Grafikeinheit spart man in jedem Fall keine Chipfläche ein, sondern muß eventuell mehr Chipfläche oben drauf packen (dies hängt an den konkreten Parametern der 10nm-Fertigung bei Intel).

Eine Verdoppelung der Grafik mit einer Kernsteigerung um 33% sollte unter 10nm locker in einen gleich großen DIE wie unter 14nm passen.

Gast
2018-02-17, 16:43:54
Ich glaube nicht dass Nvidia für ein Segment mit ca. 150 Mio stagnierendem Umsatz pro Quartal einen eigenen Chip auflegt. Das ist nicht wirklich schlüssig.

Das ist ein stark wachsender Markt.
Die Autos brauchen ja auch jahrelang von der Entwicklungsphase bis sie dann am Markt angekommen sind, und Nvidia hat in diesem Segment doch einige bedeutende Design-Wins vorzuweisen. Bis man diese am Umsatz sieht wird es aber noch etwas dauern.

Es scheint sehr Wahrscheinlich, dass Nvidia in einem voraussichtlich stark wachsenden Markt investiert, und nicht unbedingt in einem wo kaum mehr Steigerungen möglich sind, da man ihn eh schon nach Belieben beherrscht.

Complicated
2018-02-17, 20:38:50
Das ist ein stark wachsender Markt.
Nur nicht für Nvidia die letzten Quartale betrachtet. Stagnation bei Nvidia während der IC Markt um 22% gewachsen ist 2017 bei Automotive.
Was Nvidia halt immer wieder verschweigt ist, dass AI nur einen minimalen Bruchteil des Automotiv Markts ausmacht. Der Wachstum ist bei:
https://www.businesswire.com/news/home/20180109006573/en/Global-Automotive-Chip-Market-Research-Report-2017
The product segment is bifurcated into Logic ICs, Microcontrollers, DRAM, Analog ICs and Flash.

MrSpadge
2018-02-17, 20:55:07
Keine Frage, dass KI-Chips für Autos momentan einen geringen Teil des Umsatzes ausmachen. Wer überzeugt davon ist, dass das auch in Zukunft so bleiben wird, kann gerne bei seinen jetzigen Produkten bleiben. Aber ich glaube, dass nVidia nicht die Einzigen sind, die das anders einschätzen.

Man darf an dieser Stelle auch gerne fragen, warum dieser Markt stagniert. Wäre der neue nVidia Chip vielleicht genau das Richtige, um daran etwas zu ändern? Oder noch viel trivialer: bisher werden kaum bis keine autonom fahrenden Autos verkauft. Das allein darf aber nicht das Argument sein, sonst hätte auch niemand in 3D Grafik investiert.

Und ich würde vermuten, dass hier nicht ein Chip speziell für autonom fahrende Autos entwickelt wird, sondern ein Chip speziell für's "inferencing" der künstlichen neuronalen Netze. Und der Markt explodiert geradezu. Für's Auto kann das Teil ja mit nem bisherigen SoC gekoppelt werden, für die Kamera-Anbindungen etc.

MrS

Complicated
2018-02-17, 21:39:41
Ich sagte ja, dass ein Chip der speziell für Automotive ist keinen Sinn ergibt. Der Umsatz für Nvidia ist zu klein um das zu rechtfertigen. Da spielt es keine Rolle ob in 5 oder 10 Jahren autonomes Fahren boomt. Der Einsatzzweck muss schon umfangreicher sein und Automotiv kann es dann mit nutzen. Nur so wird ein Schuh daraus.

Gast
2018-02-17, 23:58:45
Ich sagte ja, dass ein Chip der speziell für Automotive ist keinen Sinn ergibt.

Doch!

Der Umsatz für Nvidia ist zu klein um das zu rechtfertigen. Da spielt es keine Rolle ob in 5 oder 10 Jahren autonomes Fahren boomt.

Wenn du nicht heute investierst um in 5-10 Jahren an selbstfahrenden Autos beteiligt wird es jemand anders sein. Und in 5-10 Jahren dann mit den Investitionen zu beginnen ist zu spät den Rückstand holst do nie mehr auf.

Mit deiner Einstellung würden wir heute noch in Pferdekutschen unterwegs sein, denn wieso in Autos investieren wenn der Markt eh so klein ist, dass damit keine ausreichenden Umsätze generiert werden können?

Nvidia hat jetzt auch schon einige Kooperationen mit namhaften deutschen Autoherstellern, nur sind diese noch relativ neu, so dass noch das eine oder andere Jahr vergehen wird, bis diese in kaufbare Autos eingebaut werden und damit nennenswert Umsatzwirksam für Nvidia werden.

Troyan
2018-02-18, 14:10:55
Ich sagte ja, dass ein Chip der speziell für Automotive ist keinen Sinn ergibt. Der Umsatz für Nvidia ist zu klein um das zu rechtfertigen. Da spielt es keine Rolle ob in 5 oder 10 Jahren autonomes Fahren boomt. Der Einsatzzweck muss schon umfangreicher sein und Automotiv kann es dann mit nutzen. Nur so wird ein Schuh daraus.

nVidia hat explizit für das Autosegment einen Chip entwickelt - nennt sich Xavier und ist mit der größte und transistorenschwerste SoC auf der Welt.

MrSpadge hat hier absolut recht und du liegst mal wieder komplett daneben.

MrSpadge
2018-02-18, 14:23:30
Sorry, da hatte ich nicht genau genug gelesen. Somit sind wir beide eher für "Neuentwicklung ja, aber mit zusätzlicher Querverwertung". Ob nVidia dann gleich einen SoC extra für Autos (und Roboter mit ähnlichen Anforderungen) draus macht, oder diesen neuen Chip vielleicht mit bestehenden Xavier koppelt, ist dann eigentlich nur noch Formsache.

MrS

Troyan
2018-02-18, 14:29:24
nVidia hat mit "NVDLA" schon eine explizierte Technoligie entwickelt, die rein für Inference zuständig ist und hat diese auch schon Xavier implementiert (sozusagen Proof of Concept).

Sie haben im Grunde schon alles gemacht, was du dir vorgestellt hast, MrSpadge. :)

Complicated
2018-02-18, 14:30:34
MrSpadge hat hier absolut recht und du liegst mal wieder komplett daneben.Interessant, da wir exakt das gleiche schrieben.
#Leseverständnis
Sorry, da hatte ich nicht genau genug gelesen. Somit sind wir beide eher für "Neuentwicklung ja, aber mit zusätzlicher Querverwertung".
Mit deiner Einstellung würden wir heute noch in Pferdekutschen unterwegs sein, denn wieso in Autos investieren wenn der Markt eh so klein ist, dass damit keine ausreichenden Umsätze generiert werden können?
Also den Zusammenhang musst du mir nun mal näher erläutern. Wenn also ein Unternehmen bei der Entwicklung von teuren Chip-Designs eine möglichst große Wirtschaftlichkeit erzielen muss, ist das das selbe wie die Verhinderung der Durchsetzung von Automobilen gegen Pferdekutschen. Also bitte, erläutere hier die Kausalität, wenn du solche Vergleiche anstellst.

Troyan
2018-02-18, 14:37:17
Und was ist Xavier? :rolleyes:

Xavier hat sogar neue CPU-Kerne bekommen. nVidia entwickelt extra Technologien, die für sie zur Zeit nur für autonomes Fahren verwendet werden.

Complicated
2018-02-18, 15:26:36
Du meinst es ist der selbe Kostenfaktor ARM-Cores in einen SoC zu bringen wie eine spezifische GPU zu designen? Schiefe Vergleiche sind eben dein Ding.

Und wenn sie schon einen solchen speziell für Automotive gebauten SoC im Januar 2018 vorstellen, wie wahrscheinlich ist es dann, dass man noch zusätzlich eine reine GPU dafür baut wenige Monate später? Und wozu das dann? Was kann diese dann was Xavier nicht kann? Alleine seine Existenz sollte klar machen, für welchen kostengünstigeren Weg Nvidia sich da schon entschieden hat.

Troyan
2018-02-18, 15:42:32
Du hast keine Ahnung, wie teuer die CPUs in der Entwicklung waren.

Des Weiteren hast du doch sehr explizit behauptet, dass nVidia keinen eigenständigen Chip für den autonomen (Entwicklungs-)Markt produzieren werden würde. Xavier widerlegt dich. Das nVidia hier eine vorhandene Architektur verwendet, ist die DNA der Firma. Die Pegasus-Plattform (als Nachfolger von Drive PX 2) erlaubt dazu auch die Verwendung von dedizierten GPUs. Eigenständige KI-Chips könnten hier also ebenfalls in Zukunft verwendet werden.

Und in Bezug auf KI: Xavier implementiert diese "KI-Technologien" in Form der TensorCores und NVDLA. Inwieweit beide Techniken im Gamer-Markt Anwendungen finden werden, wird die Zeit zeigen.
/edit: Xavier ist auch ein "KI Chip" für Autos. Mit 25TOPS FP16 Leistung bietet man GP100/MI25 Niveau als SoC bei 30W. Mehr geht heute nur mit GV100 oder Googles TPU2.

Deine Postings spiegeln dein komplett fehlendes Verständnis vom Markt, von nVidia und sonstigen technischen Entwicklungen wider.

Complicated
2018-02-18, 21:35:40
Du hast keine Ahnung, wie teuer die CPUs in der Entwicklung waren.

Des Weiteren hast du doch sehr explizit behauptet, dass nVidia keinen eigenständigen Chip für den autonomen (Entwicklungs-)Markt produzieren werden würde. Xavier widerlegt dich.Leseverständnis erneut:
Chip != GPU

Da du dir immer wieder selber zusammen dichtest was ich angeblich schreibe solltest du dir vielleicht zukünftig angewöhnen mich zu zitieren bevor du behauptest was ich geschrieben habe.

Edit:
Tegra SoC hatte 2 Mrd. Entwicklungskosten 2011 (http://www.pcgameshardware.de/Nvidia-Firma-17445/News/System-on-a-Chip-850805/) für 3 Generationen.
Pascal GPU hatte zwischen 2 und 3 Mrd. Entwicklungskosten (https://www.heise.de/newsticker/meldung/GTC-2016-Nvidia-enthuellt-Monster-Chip-Pascal-mit-16-GByte-HBM2-und-bis-zu-3840-Kernen-3163143.html) für eine Generation
Warum sollte man beides im selben Jahr entwickeln exklusiv für einen Markt der 600 Mio. p.a einbringt?

Troyan
2018-02-19, 10:55:54
Ich glaube nicht dass Nvidia für ein Segment mit ca. 150 Mio stagnierendem Umsatz pro Quartal einen eigenen Chip auflegt. Das ist nicht wirklich schlüssig.
Ich sagte ja, dass ein Chip der speziell für Automotive ist keinen Sinn ergibt. Der Umsatz für Nvidia ist zu klein um das zu rechtfertigen. Da spielt es keine Rolle ob in 5 oder 10 Jahren autonomes Fahren boomt. Der Einsatzzweck muss schon umfangreicher sein und Automotiv kann es dann mit nutzen. Nur so wird ein Schuh daraus.

Du redest von Chip.

Du meintest aber eigentlich "Architektur". Das wiederum wäre natürlich auch vollkommen unsinnig und hat auch nichts mit "Touring" und den möglichen Einsatzgebieten zu tun.

Complicated
2018-02-19, 10:57:09
Ich schrieb was ich meinte und das war GPU. Du interpretierst meine Beiträge wie der Papst die Bibel.
Kontext:
Aus unserem Forum kommt ein exzellenter Hinweis zur Erklärung von nVidia Turing: Danach gab es schon früher das Gerücht seitens Fudzilla, nVidia würde dieses Jahr mit zwei großen (neuen) Chips antreten – mit einer klaren Trennung zwischen Gaming- und AI-Aufgabenstellung. Seinerzeit wurde schon Ampere für die Gaming-Schiene genannt, nur der Codename "Turing" tauchte noch nicht auf – dafür aber eine Erklärung, wofür das Chip gedacht sei: Als Ersatz der bisher GPU-basierten Lösungen für selbstfahrende Autos für das kommende "Drive PX Pegasus".

Gast
2018-02-19, 17:41:09
Leseverständnis erneut:
Chip != GPU

Was denn dann? SoC, APU, CPU, GPU whatever?


Edit:
Tegra SoC hatte 2 Mrd. Entwicklungskosten 2011 (http://www.pcgameshardware.de/Nvidia-Firma-17445/News/System-on-a-Chip-850805/) für 3 Generationen.
Pascal GPU hatte zwischen 2 und 3 Mrd. Entwicklungskosten (https://www.heise.de/newsticker/meldung/GTC-2016-Nvidia-enthuellt-Monster-Chip-Pascal-mit-16-GByte-HBM2-und-bis-zu-3840-Kernen-3163143.html) für eine Generation
Warum sollte man beides im selben Jahr entwickeln exklusiv für einen Markt der 600 Mio. p.a einbringt?

Du vergleichst aber jetzt nicht ernsthaft die Entwicklungskosten der popeligen Tegra 1-3 mit denen eines 300mm² SOCs?

Die damaligen Tegras waren ARM-CPUs von der Stange, zusammengeklatscht mit der alten GoForce Grafik.

Complicated
2018-02-19, 19:23:25
Was denn dann? SoC, APU, CPU, GPU whatever?Einfach mal den Kontext zum Artikel behalten. Ich schrieb es schon.

Ich habe überhaupt nichts verglichen. Ich habe lediglich gezeigt, dass mir bekannt ist wie hoch die Entwicklungskosten ungefähr sind und nach wie vor sage ich, dass es sehr unwahrscheinlich ist, dass Nvidia innerhalb von wenigen Monaten einen SoC und gleich darauf eine eigenständige GPU für ein so kleines Segment entwickelt und diese BEIDE Kosten dafür aufwendet.