PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - nVidia Tegra-SoCs


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26

dildo4u
2013-03-19, 22:34:14
Kayla Platform Demo

http://youtu.be/qVsVtXUX5Bw

Skysnake
2013-03-19, 22:46:43
Aber nicht vergessen, dass das nen System mit aktivem Lüfter, also ohne Thermalconstraints war.

Man kann da auch davon ausgehen, dass da keine Powerconstraints vorhanden sind.... Die Leistung ist also Null übertragbar auf irgendwelche realen Produkte. Wenn kann man sich maximal bzgl Project Denver da nen Vergleich aufbauen, aber das wars dann auch.

Mit "Tegra" hat das so erst mal rein gar nichts zu tun, bzw kann es eben nicht auf den SFF-Markt übertragen werden.

dildo4u
2013-03-20, 01:46:39
Logan hat wohl 384 Cuda Core's vergleichbar mit einer GT 640.

http://www.pcgameshardware.de/GTC-Event-257049/News/Logan-Entwickler-Plattform-Kayla-mit-Titan-Technik-und-bislang-geheimer-Kepler-GPU-D15M2-20-1061349/

Ailuros
2013-03-20, 06:38:17
Logan hat wohl 384 Cuda Core's vergleichbar mit einer GT 640.

http://www.pcgameshardware.de/GTC-Event-257049/News/Logan-Entwickler-Plattform-Kayla-mit-Titan-Technik-und-bislang-geheimer-Kepler-GPU-D15M2-20-1061349/

Und all das soll in einen SFF SoC fuer einen <10W TDP passen? Junge Technologie macht Fortschritte :rolleyes:

Les mal die letzten 2 Saetze im slide so oft durch bis sie Sinn machen. Sonst kann von mir aus jeder "erwarten" dass tablet SoCs im naechsten Jahr ganze 32 TMUs haben werden u.a. Lasst Euch aber bloss nicht negativ ueberraschen am Ende, denn NV kann eben nicht so leicht >100mm2 SoCs entwickeln.

AnarchX
2013-03-20, 08:29:27
Vielleicht lauf die ALUs mit halbem Takt? Man muss wohl die genauen GK208 Specs abwarten, um das genauer zu beurteilen.

Warum hat sich eigentlich die Roadmap geändert? Nach Logan war doch Stark geplant, nun ist es Parker. Denver vielleicht eher als gedacht fertig?

Ailuros
2013-03-20, 09:44:37
Vielleicht lauf die ALUs mit halbem Takt? Man muss wohl die genauen GK208 Specs abwarten, um das genauer zu beurteilen.

Wenn die ALUs bei halbem Takt (von was genau?) laufen sollte passen dann mehr TMUs rein oder wie soll ich das jetzt verstehen?

Warum hat sich eigentlich die Roadmap geändert? Nach Logan war doch Stark geplant, nun ist es Parker. Denver vielleicht eher als gedacht fertig?

Denver war nie mit etwas anderem als 20nm geplant. Es glauben viele (wieso hab ich immer noch nicht verstanden...) dass Logan schon mit 20nm kommen soll und Parker mit 16nm. Und damit es auch stets bunt genug bleibt, soll Logan noch dieses Jahr vorgestellt werden aber in Geraeten innerhalb 2014 erscheinen. Was und wo jetzt nicht genau passt darf sich jeder selber heraussuchen.

http://www.heise.de/newsticker/meldung/GTC-2013-Erste-Details-zu-Tegra-5-und-Tegra-6-1826134.html

Tegra4 ist noch nichtmal auf Regalen erschienen und waehrend uns JHH die Ohren mit Bloedsinn vollstopfte wie "toll" T4 ist und dass GPGPU noch nicht notwendig ist schwenkt man ploetzlich vom einen Ende zum anderen und liefert zumindest genauso viel wie die Konkurrenz. Und ja natuerlich bin ich mehr als nur froh darueber und will "endlich" kreischen, aber wo genau ist nochmal der Haken der ganzen Affaere? Irgendwelche Holschrauben, bombastischer Stromverbrauch was genau?

http://www.heise.de/newsticker/meldung/GTC-2013-Erste-Details-zu-Tegra-5-und-Tegra-6-1826134.html?view=zoom;zoom=2

Dass obrige ist uebrigens nach heise.de "winzig" mit einem winzigen Luefter und winzigen heatsink :freak:

del_4901
2013-03-20, 10:17:16
http://www.youtube.com/watch?v=qVsVtXUX5Bw

Skysnake
2013-03-20, 10:37:36
Naja, das mit Parker muss/sollte so stimmen. TSMC führt erst mit der 16nm (oder war es 18nm?) Generation FinFETs ein. Es kann also kein 20nm Prozess sein.

Über die Zeitplanung reden wir lieber nicht. TSMC hat da in letzter Zeit bei weitem nicht das halten können, was mal angedacht war. TSMC scheint aber allgemein alles ziemlich straffen zu wollen. Eventuell hat da Intel ihre Finger mit im Spiel, damit für diese die Neuanschaffungen nicht völlig explodieren im Preis.

[QUOTE=AlphaTier;9700213]http://www.youtube.com/watch?v=qVsVtXUX5Bw
Nochmal, das passt hier ohne Kommentar zu den constraints genau so rein, wie nen Video, dass die Leistung eines mit LN2 gekühlen Snapdragon zeigt...

dildo4u
2013-03-20, 11:20:12
Die Folie ist eindeutig,dort steht das das Board Logan Performance annähert.

http://www.abload.de/img/loganyfj5i.jpg

Rouge soll auch bis 1TF skalieren sind das dann auch für den Consumer nicht relvantne Entwickler Boards?

With PowerVR Series6 GPUs we’ve taken our patented tile-based deferred rendering (TBDR) technology and created a design that reaches from a 100 GFLOPS up to more than one TFLOPS of computing performance with significantly greater efficiency relative to our previous cores.

http://withimagination.imgtec.com/index.php/powervr/powervr-g6630-go-fast-or-go-home

Skysnake
2013-03-20, 11:26:32
Hast du das gelesen mit dem "MXM and PCIe form factor"?

Die Leistung kannst du mit Logan dann 2015/2016 auf einer Steckkarte erwarten, die dann x Watt verbraucht. Da reden wir wieder nicht von dem, was die Leute unter Tegra<->SFF verstehen.

Das schlägt in die Kerbe von Project Denver...

Gipsel
2013-03-20, 11:52:04
Die Folie ist eindeutig,dort steht das das Board Logan Performance annähert.Das steht gerade nicht da. Capability != Performance.
Das heißt im Prinzip nur, daß das Shadermodel ungefähr ähnlich ist (SM3.5 in der nV-Zählweise). Das JHH gesagt hat, Logan wäre sogar schneller, würde ich nur auf den CPU-Teil beziehen. ;)
Selbst wenn die den GPU-Teil auf die Hälfte runtertakten, mit einer Quadcore-CPU (A15 anstelle von A9 wie dort) wird das absolut eng, das Ding in ein Tablet zu quetschen. Da hat Tegra4 ja momentan Probleme mit (Throttling). Aber vielleicht wollen die das ja für HTPCs vermarkten oder so?

Und zu dem "winzig" von heise, das Entwicklerboard ist zumindestens schon mal nicht größer als die PS4- oder XBoxNext-PCBs (da sitzt allerdings noch eine etwas größere Kühllösung drauf). :rolleyes:

Skysnake
2013-03-20, 12:00:38
Ja, winzig ist so was wie nen RapsberryPi, aber garantiert nicht so was :ugly:

Zumal man wohl sogar noch nen zweites PCB von der GPU drauf hat. Kommt halt nur drauf an, was dann wiederum unter diesem alles noch ist :ugly:

Aber "winzig" ist schon fast Ironie.

dildo4u
2013-03-20, 12:03:47
@Gipsel

Kann sein aber sie müssen was in Richtung GT640(~ 700 GFlops) verbauen wenn sie die Roadmap erfüllen wollen.Laut Wiki ist T4 bei der GPU 6 mal schneller als T3.Führt man das weiter muss Logan bei über 500Gflop landen.(T4 hat hat 96Flops nur für die GPU)

The graphics on the SoC is said to be about 20 times faster than Tegra 2 and 6 times faster than Tegra 3

GeForce @ 72 Core, 672MHz, 96 GFLOPS = 48 PS + 24 VU x 0.672 x 2 (96 GFLOPS)

http://en.wikipedia.org/wiki/Tegra

T5 wird doch weiter 4XA15 Cores nutzen,die anderen sind doch zu weit weg daher muss die Performance von der GPU kommen.

AnarchX
2013-03-20, 12:16:47
Selbst mit einer potentiellen Verbrauchshalbierung unter 20nm, würde man wohl noch deutlich über 10W mit der GPU allein liegen.
Um mit 2 SMX 384SPs in den SFF zu kommen, bräuchte es wohl wirklich einen halbierten ALU-Takt (~300MHz) und eine reduzierte TMU-Anzahl (4 je SMX).

dildo4u
2013-03-20, 12:24:20
Ich frag mich wie sie so ein Sprung von T2 zu 3 machen konnten,obwohl es der selber Fertigungs Prozess ist.Die GPU's scheinen nicht mal ansatzweise auf dem aktuellen Stand zu sein was Effizienz angeht,der Sprung davon zu Kepler überspringt ja im Prinzip 3 Generation.(G80,GT200,Fermi).

Gipsel
2013-03-20, 13:11:12
@Gipsel

Kann sein aber sie müssen was in Richtung GT640(~ 700 GFlops) verbauen wenn sie die Roadmap erfüllen wollen.Laut Wiki ist T4 bei der GPU 6 mal schneller als T3.Führt man das weiter muss Logan bei über 500Gflop landen.(T4 hat hat 96Flops nur für die GPU)

http://en.wikipedia.org/wiki/TegraAlles eine Frage der Interpretation. Wenn nV einfach die "vollwertigen" Flops aufträgt, die Tegra auch für was Anderes als nur altbackene DX9-level-Grafik benutzen kann, dann sind das momentan nur die Vertexshader. Dann wäre man also nur bei 32GFlop/s. Und was bei Wikipedia steht ("is said to be"), ist ja nun auch nochmal windelweich. Peak-Flops vergleichen, okay. Aber "faster" ist hier keine vernünftig zählbare Kategorie. Das können Benchmarks sein, wo dann natürlich auch sowas wie TMUs, ROPs und SPeicherbandbreite mit reinspielen.

Edit:
Achja, das auf der Roadmap ist eine logarithmische Skale mit einem Faktor 10 zwischen Tegra4 und Parker. Wenn Logan genau in der Mitte ist, veranschlagt nV einen Faktor von ~3,2, nicht der von Dir angesetzte Faktor 5 bis 6 (96GFlop/s => mehr als 500 GFlop/s). Also ich sage mal kühn ~300 GFlop/s für Tegra5 voraus. Das wären ~400 MHz mit 2 SMx. Also die von mir oben angesprochene Halbierung der Taktrate dürfte schon gar nicht so schlecht hinhauen. Bei einem so niedrigen Clocktarget kann man dann auch die GPU entsprechend stromsparender auslegen (mehr Transistoren mit einer hohen Schwellspannung, sind langsamer, brauchen aber weniger Saft, insbesondere auch weniger Leckstrom).

mboeller
2013-03-20, 13:14:14
Die GPU's scheinen nicht mal ansatzweise auf dem aktuellen Stand zu sein was Effizienz angeht,der Sprung davon zu Kepler überspringt ja im Prinzip 3 Generation.(G80,GT200,Fermi).

naja von der 8800GTX zur GTX680 sind es auch nur Faktor 6 (GFlops).
Der Verbrauch ist dabei sogar gestiegen. Und dabei hat sich der Fertigungsprozess massiv geändert (90nm -> 28nm)

ergo...träum süß weiter ;)

compimiche
2013-03-20, 14:45:01
Ich habe mal gehört, daß der 5. Core (Companien Core) in einem anderen Prozess gefertigt. Da frage ich mich aber, inwiefern das überhaupt machbar ist. Weiß ich leider nicht, aber wenn, wäre das schon eine Neuerung.

Skysnake
2013-03-20, 14:53:30
Schwachsinn... Ist ist nur eben ne andere Architektur.

AnarchX
2013-03-20, 14:54:17
Kein anderer Prozess, sondern ein anderer Transistorentyp. Der Companion wird mit LowPower-Transistoren gefertigt, was aber auch die Taktbarkeit einschränkt.

dildo4u
2013-03-20, 14:57:34
naja von der 8800GTX zur GTX680 sind es auch nur Faktor 6 (GFlops).
Der Verbrauch ist dabei sogar gestiegen. Und dabei hat sich der Fertigungsprozess massiv geändert (90nm -> 28nm)

ergo...träum süß weiter ;)
G80 war auch ein guter Chip,was derzeitig bei T4 verbaut wird ist Stand 2005(Pre Unified Shader).Der Sprung von 7900 zur GTX 8800 war massiv.Im Prinzip springt man von T4 zu T5 7 Jahre von 2005 zu 2012(Kepler).

AnarchX
2013-03-20, 15:03:36
Abgesehen von der niedrigen Präzision könnte wohl die Tegra VLIW-Architektur schon etwas weiter sein als CineFX in G70.

dildo4u
2013-03-20, 15:14:08
Performance und Features waren bisher so schlecht im Vergleich zur Konkurrenz,da scheint man nicht viel Zeit mit der Entwicklung verbracht zu haben.Kam mir eher so vor als wenn sie nur überleben wollten bis sie endlich Kepler verbauen können.

Unlimited
2013-03-20, 15:16:26
Nur mal aus Interesse, da google grade nichts ausspuckt:
Hat eigentlich jemand einen Vergleich der CPU-Leistungen von Tegra und Exynos?

Avalox
2013-03-20, 15:31:12
Nur mal aus Interesse, da google grade nichts ausspuckt:
Hat eigentlich jemand einen Vergleich der CPU-Leistungen von Tegra und Exynos?

hier kannst du es zusammen klicken

http://cpuboss.com/cpus/Best-GeekBench-Nvidia-cpus-4762994

Ailuros
2013-03-20, 17:54:20
Die Folie ist eindeutig,dort steht das das Board Logan Performance annähert.

Und was ist im gegebenen Fall Logan Leistung genau? Der Unbekannte X?

Rouge soll auch bis 1TF skalieren sind das dann auch für den Consumer nicht relvantne Entwickler Boards?

Die maximale Toleranz des designs steigt auch noch etliche Male ueber 1 TFLOP nur sagt Dir keiner in der obrigen marketing fluff Aussage von IMG dass es mir nichts Dir nichts innerhalb der vorhersehbaren Zukunft in ein tablet bzw. smartphone passen wird, ergo bleib mal schoen auf dem Teppich. Bei theoretischen 600MHz um 1 TFLOP mit dem Design zu erreichen brauchst Du etwas mit 42 TMUs. Hast Du wenigstens die geringste Vorstellung was nur 42 DX11 TMUs kosten wuerden? Wir sind heute bei zwischen 4 und 8 TMUs fuer high end tablets und es wird wohl in 2014 auch nicht besonders mehr sein.

Und wenn wir schon dabei sind Rogue bringt pro SP zumindest 2x Mal so viel FLOPs auf die Strasse als Kepler oder sonst welche Architektur momentan. Falls Du von den angeblichen 384SPs gleich 1 TFLOP haben willst, dann brauchst Du wohl fast 1.4GHz.

Performance und Features waren bisher so schlecht im Vergleich zur Konkurrenz,da scheint man nicht viel Zeit mit der Entwicklung verbracht zu haben.Kam mir eher so vor als wenn sie nur überleben wollten bis sie endlich Kepler verbauen können.

Ich hoffe ernsthaft dass es kein einfacher kastrierter Kepler SMX ist sondern ein fuer SFF angepasster design. Ich weiss zwar nicht wieso manche von Euch es so schwer habt es zu verstehen aber ein high end desktop design hat Welten an Latenz Differenzen im Vergleich zu einem SFF design. Ausserhalb von windows phone, win8 und anderem Microsoft Quark der Zukunft wird DX11 nicht besonders viel bringen; gegen Temash und co. wird es sicher eine gute Brust zeigen koennen aber fuer iOS bzw. Android ist dann der DX11 Ueberfluss eine Transistoren-Verschwendung die man sonst in Leistung haette investieren haette koennen.

Wenn alles soooo einfach waere dann wuerden ARM cores auch in high end servers erfolgreich sein und intel i7 in smartphones. Was in den jeweiligen uebertriebenen Beispielen es unmoeglich macht ist der gleiche Grund der auch im obrigen Beispiel fuer eine feinere Balance schreit.

Sonst Hut ab NVIDIA: mit einer Praesentation haben sie wohl ein paar mehr Naegel in den Tegra4 Sarg haemmern koennen. Wer zum Teufel wird den Quark jetzt noch verteidigen wollen, wenn ein GeForce Titan im naechsten Jahr in meinem Handy herumwerkeln soll? :freak:

Skysnake
2013-03-20, 17:56:58
Ach keine Sorge ;)

Da findet sich sicherlich jemand ;D

Ailuros
2013-03-20, 18:01:23
Abgesehen von der niedrigen Präzision könnte wohl die Tegra VLIW-Architektur schon etwas weiter sein als CineFX in G70.

Dann darf ich auch mit Marketing-Uebertreibungen herumschmeissen und behaupten dass SGX MIMD ALUs hat oder? Und eventuell etwas krumm hier und da koennte man den Quark sogar begruenden aber was macht denn Deiner Meinung nach die ULP GF PS ALUs genau zu very long instruction word und was fuer einen besonderen Vorteil sollte diese dann haben gegenueber einer G7x PS ALU? Wenn es wirklich quasi VLiW ALUs waeren dann waere es erstmal Bloedsinn einen Schritt nach hinten mit Kepler zu machen um nach Maxwell wieder auf den bis zu T4 Punkt wieder zu kommen. Es sind stinknormale vector ALUs in den ULP GFs bis jetzt.

***edit: uebrigens http://translate.google.gr/?hl=en&tab=wT#el/de/%CE%9A%CE%91%CE%A5%CE%9B%CE%91

;D

Skysnake
2013-03-20, 21:09:28
LOL

Made my day

;D

dildo4u
2013-03-20, 21:32:32
aber fuer iOS bzw. Android ist dann der DX11 Ueberfluss eine Transistoren-Verschwendung die man sonst in Leistung haette investieren haette koennen.


Rouge hat doch genau so DX11.1 Support,das dürfte schon wichtig sein.Vorallem wenn die Konsolen auf DX11 umgestellt werden.Da wirds einiges geben was auf Win 8 portiert wird,da die Ports einfach wie nie sind dank X86 APUs.Wird ab 2014/15 einiges geben was ohne DX11 gar nich läuft.

Ailuros
2013-03-21, 06:53:54
Rouge hat doch genau so DX11.1 Support,das dürfte schon wichtig sein.

Es ist Ro-GUE und nicht das franzoesische Rot :P Nur bestimmte Varianten die fuer windows Platformern vorgesehen sind sind DX11.1; fuer Android und iOS sind es alle DX10.0 und ja eine 4k*4k mit einer 8k*8k TMU hat schon einen gewaltigen Unterschied.

Zwischen DX9L3 und DX10.1 liegt der Unterschied bei SGX cores bei ueber 40% in die area, obwohl man fuer beide "nur" 4k*4k TMUs braucht.

Vorallem wenn die Konsolen auf DX11 umgestellt werden.Da wirds einiges geben was auf Win 8 portiert wird,da die Ports einfach wie nie sind dank X86 APUs.Wird ab 2014/15 einiges geben was ohne DX11 gar nich läuft.

Und was werden Konsolen mit SFF Geraeten in Spiel-Entwicklung bzw. ports gemeinsam haben? Genau gar nichts.

Um es Dir klarer zu machen: im video werden einige Faehigkeiten praesentiert; ueber die meisten wird Logan faehig sein (deshalb steht auch im slide annaehernd) und was die wahre Endleistung betrifft wird Logan was GFLOPs betrifft wenn alles nach Plan laeuft sogar etwas hoeher als Kayla liegen, aber fuer den Rest wie TMUs, ROPs oder Busbreite ist es dann ein ganz anderes Kapitel. Damit es hilft Kayla laeuft auch nicht auf irgend einer besonderen Frequenz, aber da ich es nicht erwaehnen sollte stellt Dir voll was Du willst aber etwas besonderes ist es nicht. Logan wird seine arithmetische Leistung bei zu erwarteten Raten gegenueber T4 steigern, wobei aber dann Effizienz ein ganz anderes Kapitel sein wird.

Falls sie fuer Logan dann auch noch immer noch bei 28nm bleiben muessen haben sie dann auch noch weitere Kopfschmerzen. Nochmal es passen keine ausgewachsene lebendige Elephanten in einen durchschnittlichen Haushalt-Kuehlschrank.

V2.0
2013-03-21, 07:31:29
Die Konkurrenzfähigkeit der Tegra-Sparte ist immer zweifelhafter.

Ailuros
2013-03-21, 07:45:12
Die Konkurrenzfähigkeit der Tegra-Sparte ist immer zweifelhafter.

Zumindest fehlt es an Kritik-punkten was die GPU betrifft ab Logan/Tegra5. Es ist nicht so dass es keine DX11 GPUs von der Konkurrenz geben wird in 2014 (ueberhaupt Qualcomm), aber NV musste es eben heute betonen um uns zu zeigen dass Investitionen in T4 nicht besonders viel wert sein werden :rolleyes:

Skysnake
2013-03-21, 09:26:47
Ja, das ist total bekloppt, was Sie da machen. Das macht eigentlich nur Sinn, wenn Sie praktisch ~0 Chips verkauft haben bis jetzt, und auch NULL Aussicht darauf haben, dass sich das noch ändern wird.

Mit Logan tut sich wenigstens wirklich etwas in die richtige Richtung. Mal schauen, wie es dann mit dem Flächenbedarf, Kosten und Stromverbrauch aussieht. Die anderen schlafen auch nicht...

AffenJack
2013-03-21, 09:56:24
Falls sie fuer Logan dann auch noch immer noch bei 28nm bleiben muessen haben sie dann auch noch weitere Kopfschmerzen.

Der Prozess ist auch die Sache, die verhindern wird, dass die Roadmap so eintritt. Bei Logan hamwa erstmal die Frage ob 20nm zum Einsatz kommt, oder man 20nm überspringt. Aber dann 2015 Finfet bei 16nm, wer glaubt denn bitte ernsthaft, dass TSMC 2015 16nm zum laufen bekommt.

Ailuros
2013-03-21, 10:04:19
Der Prozess ist auch die Sache, die verhindern wird, dass die Roadmap so eintritt. Bei Logan hamwa erstmal die Frage ob 20nm zum Einsatz kommt, oder man 20nm überspringt. Aber dann 2015 Finfet bei 16nm, wer glaubt denn bitte ernsthaft, dass TSMC 2015 16nm zum laufen bekommt.

28nm klingt verdammt knapp; die ULP GF fuer Logan wird alles andere als billig sein in die area und dann haben sie Denver noch nicht dafuer fertig. Ergo damit es als T4 Nachfolger erstmal Sinn macht dann quad A57 welches auch nicht umsonst sein werden. T4 landet ohnehin schon etwas ueber 80mm2@28nm, ergo?

Fuer 20nm (egal welchen low power process) haben sie entweder irgendwelche Kapazitaeten dann schon vorgebucht fuer Logan, sonst werden sie sich nicht an Qualcomm und Apple vorbeipruegeln koennen.

Nebenbei: http://chipdesignmag.com/display.php?articleId=5219

Skysnake
2013-03-28, 10:49:54
Ich glaubs echt nicht :facepalm:

Der Tegra 4i soll erst im NÄCHSTEN Jahr! kommen, also 2014 :ugly:

Haben die eigentlich den Arsch offen? Wer will denn bitte 2014 noch das Ding? Das reist doch selbst in Smartphones da absolut nichts! mehr, oder kann es sein, dass das Ding schon nen 20nm Chip sein soll?

Ich raffs aber echt nicht mehr, was nVidia da verbricht... Kein wunder, dass Sie T4 im Prinzip selbst schon auf der GTC den Todesstoß gegeben haben -.-

http://www.tomshardware.de/tegra4-tegra4i,news-248918.html

Ailuros
2013-03-28, 11:19:23
Ich glaubs echt nicht :facepalm:

Der Tegra 4i soll erst im NÄCHSTEN Jahr! kommen, also 2014 :ugly:

Wieso war es je fuer frueher angesagt? :confused:

Haben die eigentlich den Arsch offen? Wer will denn bitte 2014 noch das Ding? Das reist doch selbst in Smartphones da absolut nichts! mehr, oder kann es sein, dass das Ding schon nen 20nm Chip sein soll?

Noe es ist ein 28LP ~60mm2 SoC; fuer 2014 wird es ein ausgezeichneter mainstream smartphone SoC sein den sie eben fuer nicht mehr als $10 verkaufen werden bei sehenswerten Volumen-deals.

Ich raffs aber echt nicht mehr, was nVidia da verbricht... Kein wunder, dass Sie T4 im Prinzip selbst schon auf der GTC den Todesstoß gegeben haben -.-

http://www.tomshardware.de/tegra4-tegra4i,news-248918.html

T4i liegt schon noch im logischen Bereich; die Frage ist wie Logan und ueberhaupt unter angeblichem 20nm genau in irgendwelche Logik passen kann. Wie schon erwaehnt wenn NV nicht auf irgend eine Art und Weise 20nm Kapazitaeten dafuer gesichert hat ist Anfang 2014 als Projektion eher der Zeitpunkt wo sie sich eher in die Warteschlange hinter Apple und Qualcomm bei TSMC stellen duerfen.

Dural
2013-03-28, 13:21:22
wenn ich mir die Verbrauchswerte der A15 SoC so anschauen, dürften die erst mit 20nm wirklich sinnvoll in den Smartphone ihren Einsatz finden :rolleyes:

und bis 20nm flächendeckend kommt, dürfte der T4i schon lange auf den Markt sein. Von daher könnte der T4i ein ziemlich guter lückenfüller wie der T3 werden.

Wenn die 1Watt mit LTE-Modem stimmen erst recht :eek:

Skysnake
2013-03-28, 14:30:35
Wieso war es je fuer frueher angesagt? :confused:


Einen genauen Termin hatte ich für T4i noch nicht gehört, aber ich bin von spätestens anfang Q3 2013 ausgegangen. An dem Chip ist ja absolut nichts besonderes dran, außer das integriete LTE Modem.

Und genau hier ist doch sofort wieder das Problem, wenn Sie 2014 erst kommen. Da gibt es dann in absehbarer Zeit schon die ersten 20nm Chips, und die anderen Billiganbieter mit guten Geschäftsbeziehungen, die bisher halt auch schon die Billighersteller ausrüsten können eben auch das liefern, was nVidia liefern kann.

Wie will nVidia denn da groß Gewinne machen? Ich hatte eigentlich gehofft, das Sie mit T4i erstmals in die Gewinnzone fahren, aber Pustekuchen. Das wird dieses Jahr dann also wieder nichts.

Und nächstes Jahr muss man schauen. Samsung, Qualcomm und Apple schlafen auch nicht, und gerade die Hersteller werden wohl vor nVidia die 20nm Kapazitäten bekommen/haben

dildo4u
2013-03-28, 14:33:03
Selbst Samsung hat es nich geschafft LTE zu integrieren,hätte mich sehr gewundert wenn NV dort schneller gewesen wäre,das R&D Budget für den Octacore wird nicht grad klein gewesen sein.

AffenJack
2013-03-28, 14:57:17
An dem Chip ist ja absolut nichts besonderes dran, außer das integriete LTE Modem.

Und genau hier ist doch sofort wieder das Problem, wenn Sie 2014 erst kommen. Da gibt es dann in absehbarer Zeit schon die ersten 20nm Chips, und die anderen Billiganbieter mit guten Geschäftsbeziehungen, die bisher halt auch schon die Billighersteller ausrüsten können eben auch das liefern, was nVidia liefern kann.

Integriertes LTE ist ne Menge für nen so kleinen Chip bei Mainstreamsmartphones.
20nm nicht weit entfernt? lol Schau dir an in welchen Märkten T4i agieren wird.
20nm wird im Mainstream nicht vor Mitte/Ende 2015 landen, da hat man locker genug Zeit T4i zu verkaufen. Dir ist wohl gerade nicht ganz klar, was für SoCs im Moment in der Preisklasse vertreten sind. Im Moment sind das noch haufenweise 40nm Designs, weil der Prozess billig ist und dazu Chips mit Dual-Core A9 bei 1ghz oder Qualcomms Scorpion mit Adreno 200/205. Mitte des Jahres kann man dann langsam mehr Mainstreamtelefone mit 28nm Chips erwarten. Das halbe Jahr bis zum Produktionsbeginn von Nvidias T4i Phones wird ihnen nicht das Genick brechen.

Ailuros
2013-03-28, 17:36:52
Einen genauen Termin hatte ich für T4i noch nicht gehört, aber ich bin von spätestens anfang Q3 2013 ausgegangen. An dem Chip ist ja absolut nichts besonderes dran, außer das integriete LTE Modem.

Selbst wenn es ein Quartal Unterschied waere ist es kein Weltuntergang. Und ja mainstream SoC haben die alberne Tendenz nichts besonderes zu sein. Heutige mainstream SoCs sind im besten Fall quad A7 CPUs und entweder mit einem single cluster Adreno305 (irgendwo 1/4 der Nexus4 GPU Leistung) oder ein SGX544MP2@300MHz was auch schon 2 Generationen fuer Apple zurueck liegt.

Und genau hier ist doch sofort wieder das Problem, wenn Sie 2014 erst kommen. Da gibt es dann in absehbarer Zeit schon die ersten 20nm Chips, und die anderen Billiganbieter mit guten Geschäftsbeziehungen, die bisher halt auch schon die Billighersteller ausrüsten können eben auch das liefern, was nVidia liefern kann.

Du verstehst den Unterschied zwischen einem high end und mainstream Angebot oder? Wuerde ein T4i smartphone erscheinen koennte es leicht den heutigen high end smartphones die Brust zeigen.

Wie will nVidia denn da groß Gewinne machen? Ich hatte eigentlich gehofft, das Sie mit T4i erstmals in die Gewinnzone fahren, aber Pustekuchen. Das wird dieses Jahr dann also wieder nichts.

Daran aendert weder Q3 13' oder Q1 14' auch nichts mehr.

Und nächstes Jahr muss man schauen. Samsung, Qualcomm und Apple schlafen auch nicht, und gerade die Hersteller werden wohl vor nVidia die 20nm Kapazitäten bekommen/haben

Samsung stellt selber her; wenn sie einen Anteil der Apple Herstellung loswerden wird es eine Eulogie fuer sie sein.

Selbst Samsung hat es nich geschafft LTE zu integrieren,hätte mich sehr gewundert wenn NV dort schneller gewesen wäre,das R&D Budget für den Octacore wird nicht grad klein gewesen sein.

Ich hab gerade vor ein paar Tagen dass Samsung 3 grosse Projekte storniert hat; man kann sich sehr schwer vorstellen wie die mit resourcen herumschmeissen koennen. LTE ist doch nicht der Grund dass sie fuer's S4 fuer den Anfang hauptsaechlich Qualcomm S600 SoCs benutzt haben sondern Herstellungs-knappheiten weil Apple mal wieder den Loewenanteil an Samsung's 28nm Kapazitaeten fuer zukuenftige Produkte aufgesaugt hat.

Spaeter wenn Samsung wieder einatmen kann werden weltweit dann hauptsaechlich nur noch S4 mit Exynos5410 verkauft mit dem einzigen Unterschied ob mit oder ohne Qualcomm LTE chip.

Am Rand hat NV testchips zu Samsung geschickt im vorigen Jahr, haben sich aber entschieden bei TSMC zu bleiben.

Undertaker
2013-03-28, 17:45:39
Selbst wenn es ein Quartal Unterschied waere ist es kein Weltuntergang. Und ja mainstream SoC haben die alberne Tendenz nichts besonderes zu sein. Heutige mainstream SoCs sind im besten Fall quad A7 CPUs und entweder mit einem single cluster Adreno305 (irgendwo 1/4 der Nexus4 GPU Leistung) oder ein SGX544MP2@300MHz was auch schon 2 Generationen fuer Apple zurueck liegt.

Wenn man "heute" mal mit lieferbar oder zumindest gelistet definiert, ist im Bereich um 200-250€ eher ein Dual-Core Cortex A9, evtl. auch Krait mit ~1,2 GHz Standard. Bis zu den ersten A7-Quads wirds wohl noch ein bisschen dauern. Ein überarbeiteter A9-Quad-Core mit bis zu 2,3 GHz ist da schon eine ganz andere Leistungsklasse und "darf" demzufolge auch etwas später kommen (sofern er halt nur als Mainstream geplant ist).

Ailuros
2013-03-28, 17:59:19
Wenn man "heute" mal mit lieferbar oder zumindest gelistet definiert, ist im Bereich um 200-250€ eher ein Dual-Core Cortex A9, evtl. auch Krait mit ~1,2 GHz Standard. Bis zu den ersten A7-Quads wirds wohl noch ein bisschen dauern.

Qualcomm hat keine Kraits in ihrem mainstream Angebot sondern quad A7 bei 1.2GHz genauso wie MediaTek bei gleicher Frequenz. Von den zweiten gibt es schon Geraete von Qualcomm keine Ahnung.

Ein überarbeiteter A9-Quad-Core mit bis zu 2,3 GHz ist da schon eine ganz andere Leistungsklasse und "darf" demzufolge auch etwas später kommen (sofern er halt nur als Mainstream geplant ist).

Ich hab nichts anderes behauptet, aber mainstream CPUs Anfang 2014 werden schon um einiges staerker sein als "nur" quad A7@1.2GHz. Pro Takt ist ueberhaupt die R4 Revision vom CortexA9 um einiges effizienter als ein A7 pro Takt, der A9 verbrennt aber auch mehr Strom. 1W TDP fuer T4i darf man nur glauben wenn die CPU selten bis nie ueber 1.4GHz peak erreichen.

***edit: uebrigens GLBenchmark2.7 Resultate sind gerade erschienen: http://www.glbenchmark.com/result.jsp?benchmark=glpro27&test=478&order=score&data-source=1&version=latest&base=gpu

Undertaker
2013-03-28, 19:39:46
Qualcomm hat keine Kraits in ihrem mainstream Angebot sondern quad A7 bei 1.2GHz genauso wie MediaTek bei gleicher Frequenz. Von den zweiten gibt es schon Geraete von Qualcomm keine Ahnung.

Ich rede vom realen hiesigen Handel – wo siehst du da entsprechende Geräte? Und natürlich gibt es Mainstream-Kraits – der MSM8230 ist genau das (und auch erhältlich).

Die Masse wird eh von den erwähnten Cortex-A9 mit 1-1,2 GHz dominiert. Selbst wenn du irgendwo ein in Deutschland lieferbares Quad-A7 Smartphone finden solltest, ist das noch die absolute Ausnahme. Das dauert noch einige Monate...

Ailuros
2013-03-28, 20:09:54
Ich rede vom realen hiesigen Handel – wo siehst du da entsprechende Geräte? Und natürlich gibt es Mainstream-Kraits – der MSM8230 ist genau das (und auch erhältlich).

Na entschuldige wenn ich mich nicht auf Deinen oder meinen hiesigen Handel beschraenke wenn es um IHVs geht die weltweit verkaufen.

Die Masse wird eh von den erwähnten Cortex-A9 mit 1-1,2 GHz dominiert. Selbst wenn du irgendwo ein in Deutschland lieferbares Quad-A7 Smartphone finden solltest, ist das noch die absolute Ausnahme. Das dauert noch einige Monate...

Einige Monate sind auch kein Jahr bis T4i in Geraeten erhaeltlich sein wird; zu dem Zeitpunkt liefert Qualcomm dann schon 20nm SoCs.

Undertaker
2013-03-28, 20:25:02
Na entschuldige wenn ich mich nicht auf Deinen oder meinen hiesigen Handel beschraenke wenn es um IHVs geht die weltweit verkaufen.

Du weißt doch genau was ich meine. Mag sein das du irgendwo ein lieferbares Quad-A7-Gerät entdeckt hast – von mir aus auch weltweit – aber von wirklicher Marktexistenz sind entsprechende Geräte noch weit entfernt. Gleiches gilt für 20nm SoCs von Qualcomm im genannten Zeitrahmen; wann waren erste 28nm Snapdragons gleich noch in nennenswertem Umfang erhältlich?

Genau das gleiche gilt natürlich auch für T4/T4i: Es zählt, sobald die Dinger im Laden stehen. Und nix anderes.

mboeller
2013-03-28, 20:42:23
solange dauert das anscheinend nicht mehr:

http://www.gizmochina.com/tag/mt6589/

http://android-sale.com/zopo-zp960-phone.html
http://android-sale.com/zopo-zp810.html

Undertaker
2013-03-28, 21:13:26
Meinetwegen, die ersten Chinakracher gibt es schon. ;)

Hugo
2013-03-29, 06:31:30
ich finde Q1/2014 auch recht spät. Da hat man den T4i ja schon ein Jahr vorher angekündigt.
Heißt das denn wenigstens kaufbare Geräte in Q1/2014 oder das der SOC dann ausgeliefert wird?

Ailuros
2013-03-29, 06:52:10
Genau das gleiche gilt natürlich auch für T4/T4i: Es zählt, sobald die Dinger im Laden stehen. Und nix anderes.

Qualcomm liefert so weit wann sie es versprechen; und es gilt eben nicht das gleiche fuer T4i weil Du eben selbst mit Tegra's track record eben NICHT garantieren kannst dass es nicht selbst den geringsten delay geben wird.

Am Ende waere es zwar fuer manche von Euch eine Eulogie wenn ich den ganzen Tegra-Bums schoen reden wuerde, aber es ist eben die bittere Realitaet die am Ende immer und immer wieder aufweckt. Ich teile zwar nicht die Meinung dass T4i zu spaet ankommt fuer das was es ist oder dass es nichts "besonderes" ist, aber irgendwo hab ich auch das Gefuehl dass Du konstant nach etwas suchst dass am Ende auch nicht wirklich in diesem Aussmass existiert.

Meinetwegen, die ersten Chinakracher gibt es schon.

Wenn T4i keine groesseren Chinakracher erreichen sollte, kannst Du anstaendige Volumen fuer das Ding schon gleich jetzt vergessen. Fuer diese muss NV als SoC Hersteller eben gegen MediaTek bzw. HiSilicon konkurrieren und da wird es auch nicht besonders leicht sein. Mainstream bzw. low end SoCs die schon in Geraeten erhaeltlich sind von MediaTek: MT6589, MT6577, MT6573, MT6575

Weisst Du wie es heute hinter den Kulissen aussieht nach dem Logan/KAYLA T4/4i Grabstein auf der GDC? Die Mehrzahl fragt hauptsaechlich WANN sie etwas vom vorerwaehnten bekommen koennen....:rolleyes:

Skysnake
2013-03-29, 09:10:35
Klar fragen die das. Ist man damit doch auf dem Techstand der anderen angelangt, oder eventuell minimal drüber (kann man jetzt wohl noch nicht einschätzen).

Aktuell ist die Technik einfach gnadenlos veraltet bei der iGPU. Wer will sich das dann wirklich in seine Geräte reinbauen? Nur weil nVidia drauf steht? Sicher nicht.

Naja, schauen wir mal, wies 2014 aussieht, und ob Sie da endlich mal mit dem Fuß das Gaspedal durchs Bodenblech drücken. ;)

Ailuros
2013-03-29, 09:16:45
Klar fragen die das. Ist man damit doch auf dem Techstand der anderen angelangt, oder eventuell minimal drüber (kann man jetzt wohl noch nicht einschätzen).

Wenn Logan voll SM35 integriert hat (ergo dynamic parallelism und HyperQ) sind sie ein paar Schritte der Konkurrenz voraus (ok vielleicht minus wohl dem 11.1 Mist im Vergleich zu 11.0+) und im sw Bereich wird es nur so hageln bei der Konkurrenz wenn es zu windows tablets kommt.


Naja, schauen wir mal, wies 2014 aussieht, und ob Sie da endlich mal mit dem Fuß das Gaspedal durchs Bodenblech drücken. ;)

Wenn sie genug 20nm/TSMC Kapazitaeten fuer Logan gesichert haben und der Stromverbrauch auf logischen Ebenen liegen wird, koennten sie schon so langsam einiges anrichten.

Skysnake
2013-03-29, 09:46:21
Fragt sich nur zu welchem PREIS! Sie sich Kapazitäten sichern konnten. Sie müssen ja einerseits große Kapazitäten sich holen, damit Sie relativ günstig wegkommen, da Sie den Preis drücken können, auf der anderen Seite aber auch nicht zu große, weil was machen Sie wenn Sie drauf sitzen bleiben? Zudem, wie siehts überhaupt mit verfügbaren Kapazitäten aus? Wenn Apple kommt, dann wirds ziemlich düster aussehen, und der Rest, der an Fertigung übrig ist teuer verschachert.

fondness
2013-03-29, 10:08:26
Das Problem von NV ist nach wie vor das man custom-Cores braucht um sich von der Konkurrenz absetzen zu können. Egal was man sonst so bringt, es wird immer zahlreiche andere Hersteller geben die dasselbe bringen. Deshalb läuft es dann immer darauf hinaus wer den besten Preis anbietet, so kann man langfristig keine Margen generieren. Egal ob Tegar 4 oder Tegra 4i, das sind ganz normale Standard-Cores von ARM die jeder lizenzieren kann wie er lustig ist. Deshalb wird es sicherlich 2014 zahlreiche Mainstream-SoCs mit einem Quad-A9 in der neuen Revision geben.

Ailuros
2013-03-29, 10:17:26
Das Problem von NV ist nach wie vor das man custom-Cores braucht um sich von der Konkurrenz absetzen zu können. Egal was man sonst so bringt, es wird immer zahlreiche andere Hersteller geben die dasselbe bringen. Deshalb läuft es dann immer darauf hinaus wer den besten Preis anbietet, so kann man langfristig keine Margen generieren. Egal ob Tegar 4 oder Tegra 4i, das sind ganz normale Standard-Cores von ARM die jeder lizenzieren kann wie er lustig ist. Deshalb wird es sicherlich 2014 zahlreiche Mainstream-SoCs mit einem Quad-A9 in der neuen Revision geben.

Ja und nein. Eine direkte absolute Antwort gibt es dazu nicht denn Samsung verkauft auch Unmengen obwohl sie keine custom CPU cores haben. Hier sollte man aber auch sagen dass es fuer Samsung eine dringende Notwendigkeit waere, ergo hat NV diese Notwendigkeit schon um einiges frueher eingesehen.

Custom CPUs werden NVs Problem auch nicht loesen im gegebenen Fall. Sie haben Samsung, Qualcomm, Apple und Intel als Konkurrenten im SFF mobilen Markt und eben nicht die resourcen der anderen zur Verfuegung. NVIDIA haette sich von Intel kaufen lassen sollen; wenn Jensen nicht die alberne CEO Bedingung wie immer aufgebracht haette waere es vielleicht auch so weit gekommen.

Knuddelbearli
2013-03-29, 12:17:22
dann hätte schon AMD vorher NV gekauft ^^

Ailuros
2013-03-29, 16:21:39
dann hätte schon AMD vorher NV gekauft ^^

Tja entweder benutzt Jensen die CEO Drohung um potentielle Aufkaeufe absichtlich abzulenken oder er ist tatsaechlich so naiv bzw. arrogant dass er glaubt dass sich die Welt nur im sich dreht.

Deinorius
2013-03-29, 17:54:56
NVIDIA haette sich von Intel kaufen lassen sollen; wenn Jensen nicht die alberne CEO Bedingung wie immer aufgebracht haette waere es vielleicht auch so weit gekommen.


Also ich wäre nicht gerade begeistert davon. Gerade wenn in Zukunft wirklich zum Großteil (oder gar nur) SoCs auch im Desktop-Sektor verkauft werden würden, wäre die Frage entweder AMD/ATI oder Intel/nvidia. Dreimal dürft ihr raten, wer da kräftig im Vorteil wäre. :ugly:
Im Grunde bin ich noch froh, dass Intel so schlechte GPUs hat.

Black-Scorpion
2013-03-29, 18:07:33
Also ich wäre nicht gerade begeistert davon. Gerade wenn in Zukunft wirklich zum Großteil (oder gar nur) SoCs auch im Desktop-Sektor verkauft werden würden, wäre die Frage entweder AMD/ATI oder Intel/nvidia. Dreimal dürft ihr raten, wer da kräftig im Vorteil wäre. :ugly:
Im Grunde bin ich noch froh, dass Intel so schlechte GPUs hat.
Was meinst du wie es jetzt wäre wenn AMD damals nicht die ATI Sparte an Qualcomm verkauft hätte. Dann hätte NV noch einen großen Gegenspieler zu bekämpfen. Allerdings scheinen sie sich ja gerade selbst ein Bein zustellen. Nur mit großer Klappe und Arroganz gewinnt man eben nichts.

Knuddelbearli
2013-03-29, 18:51:11
naja wer sagt das AMD die ressourcen frei gehabt hätte um sogut wie qualcom zu werden ...

Black-Scorpion
2013-03-29, 19:20:10
naja wer sagt das AMD die ressourcen frei gehabt hätte um sogut wie qualcom zu werden ...
Man kann es auch anders sehen. Wie weit wäre Qualcomm ohne die ATI Leute.
ATI war nicht gerade ein kleiner Fisch was SOCs betrifft. Ich möchte nicht wissen wie viele sich bei AMD wegen der Entscheidung schon in den Hintern gebissen haben.

Deinorius
2013-03-29, 19:23:03
Was meinst du wie es jetzt wäre wenn AMD damals nicht die ATI Sparte an Qualcomm verkauft hätte. Dann hätte NV noch einen großen Gegenspieler zu bekämpfen. Allerdings scheinen sie sich ja gerade selbst ein Bein zustellen. Nur mit großer Klappe und Arroganz gewinnt man eben nichts.


Der Desktop Markt ist anders verteilt als der SFF Markt. Bei Ersterem hast du Intel und AMD und weiters AMD und nvidia. Bei Letzterem? Chaos. :ugly: Ich finde das nicht allzu gut vergleichbar. AMD hätte dafür zusätzlich Ressourcen benötigt, um da mithalten zu können und die waren so schon genug belastet.

Außerdem ist es nicht die ATI Sparte gewesen, sondern IIRC nur die Rechte an Adreno. Das wäre was. Kaufen ATI, um die später wieder zu verkaufen. :ugly:

Black-Scorpion
2013-03-29, 19:42:13
Es war die Handy Sparte. Also Grafikchips für Handys. Navis usw.

Ailuros
2013-03-30, 07:41:45
Also ich wäre nicht gerade begeistert davon. Gerade wenn in Zukunft wirklich zum Großteil (oder gar nur) SoCs auch im Desktop-Sektor verkauft werden würden, wäre die Frage entweder AMD/ATI oder Intel/nvidia. Dreimal dürft ihr raten, wer da kräftig im Vorteil wäre. :ugly:
Im Grunde bin ich noch froh, dass Intel so schlechte GPUs hat.

Das daemliche ist eben dass Intel's GPUs zunehmend besser werden.

Was meinst du wie es jetzt wäre wenn AMD damals nicht die ATI Sparte an Qualcomm verkauft hätte. Dann hätte NV noch einen großen Gegenspieler zu bekämpfen. Allerdings scheinen sie sich ja gerade selbst ein Bein zustellen. Nur mit großer Klappe und Arroganz gewinnt man eben nichts.

ATI hat bei dem Verkaufspreis die Imageon Sparte fast verschenkt; am Anfang hat ATI bis zum kotzen die Preise reduziert ergo den gesamten SFF mobilen Markt ziemlich schoen abgevoegelt und warf dann das Handtuch als sie sahen dass man mit Uebertreibungen und Luegen auch nichts erreichen kann.

Imageon GPUs wurden als "mini-Xenos" verkauft obwohl sie nicht das geringste damit zu tun hatten. Die allersten Imageon Zxxx Varianten die erschienen erinnerten ziemlich schoen an die Voodoo2/3. Uebrigens war ein Anteil der Imageon Sparte auch die finnischen Bitboys OY Zauberer; da aber bei Qualcomm es Arbeit und nur Arbeit bis zur Ohnmacht heisst und weniger bis gar nichts bullshit kuendigten die wesentlichsten ex-Bitboys und versuchen in der Zwischenzeit wieder jemand reinzuleg....*hust* fangen nochmal von vorne an.

Man kann es auch anders sehen. Wie weit wäre Qualcomm ohne die ATI Leute.
ATI war nicht gerade ein kleiner Fisch was SOCs betrifft. Ich möchte nicht wissen wie viele sich bei AMD wegen der Entscheidung schon in den Hintern gebissen haben.

Genauso weit. Eben weil Apple und Qualcomm tonnenweise von anderen IHVs einstellen und es keiner mitbekommt heisst es gar nichts. Dass der leading engineer von ex-ArtX und ex-ATi, ex-AMD Eric Demers selber bei AMD gekuendigt hat und sofort von Qualcomm geschnappt wurde kam noch in die Medien. Solche Kerle sind mehr wert als 10 startup engineers. Trotzdem wird so viel im Hintergrund engagiert dass es nicht mehr schoen ist.

Wenn ich z.B. erzaehlen wuerde welches vorige AMD team Apple vor kurzem geschnappt hat und fuer was wuerde so manche Kinnlade fallen.

ATI hat GAR NICHTS erreicht mit Imageon; nur die Preise im Markt durch laecherlich niedrige Angebote abgevoegelt. Es wird wohl nicht schwer sein design wins fuer diese noch aufzusuchen? Lange brauchst Du nicht dafuer, lediglich low level deals und mehr als eine handvoll war es auch nicht.

Um es klar zu machen: fuer mich haette ATI nie verkaufen sollen. Dass sie aber weniger Fehler gemacht haben zu der Zeit als NVIDIA damals wuerde ich nicht sagen.

Der Desktop Markt ist anders verteilt als der SFF Markt. Bei Ersterem hast du Intel und AMD und weiters AMD und nvidia. Bei Letzterem? Chaos. :ugly: Ich finde das nicht allzu gut vergleichbar. AMD hätte dafür zusätzlich Ressourcen benötigt, um da mithalten zu können und die waren so schon genug belastet.

Außerdem ist es nicht die ATI Sparte gewesen, sondern IIRC nur die Rechte an Adreno. Das wäre was. Kaufen ATI, um die später wieder zu verkaufen. :ugly:


Das Personal ging schon zu Qualcomm vom Imageon team, aber eine gute Anzahl davon (former Bitboys, former XGI) waren auch nicht gerade die Wunderbringer. Es war doch konstant die Frage wie und wann Qualcomm es schaffen wird eine DX11 GPU auf den Markt zu bringen oder? Auf deren roadmap steht ein DX11.1 Adreno4x0 fuer 2014 genau zum gleichen Zeitpunkt wie alle andere Konkurrenz und die Entwicklung hat natuerlich gar NICHTS mit dem ex-Zxxx Mist vom Imageon team zu tun.

Deinorius
2013-03-30, 20:40:25
Das daemliche ist eben dass Intel's GPUs zunehmend besser werden.


Ja, deren Rohleistung steigt, genauso wie sie auch beim Featureset gleichziehen. Und allem voran haben sie den Fertigungsvorteil.
Aber kannst du das auch über die Treiber sagen?

Auf deren roadmap steht ein DX11.1 Adreno4x0 fuer 2014 genau zum gleichen Zeitpunkt wie alle andere Konkurrenz und die Entwicklung hat natuerlich gar NICHTS mit dem ex-Zxxx Mist vom Imageon team zu tun.


Das glaube ich sofort!

Ailuros
2013-03-31, 08:07:21
Ja, deren Rohleistung steigt, genauso wie sie auch beim Featureset gleichziehen. Und allem voran haben sie den Fertigungsvorteil.
Aber kannst du das auch über die Treiber sagen?

Treiber sind auch um einiges besser geworden. Intel hatte keinen anderen Ausweg; so bald der eigentliche Wille enstand wurde auch der Weg gefunden.

Ailuros
2013-04-04, 18:50:22
http://dxbenchmark.com/compare.jsp?D1=Microsoft+Surface+RT&D2=NVidia+GeForce+GTX+TITAN&cols=2

ROFL GeForce GTX Titan vs. ULP GeForce Tegra3 = um 267x schneller :biggrin:

LordDeath
2013-04-04, 20:39:30
Bei Anandtech werden einige aktuelle ARM-Chips mit älteren Desktop Grafikkarten verglichen: http://www.anandtech.com/show/6877/the-great-equalizer-part-3

Skysnake
2013-04-04, 21:33:41
http://dxbenchmark.com/compare.jsp?D1=Microsoft+Surface+RT&D2=NVidia+GeForce+GTX+TITAN&cols=2

ROFL GeForce GTX Titan vs. ULP GeForce Tegra3 = um 267x schneller :biggrin:
Wäre das nicht ziemlich ineffizient von Tegra3 :confused:

Ailuros
2013-04-04, 21:44:55
Wäre das nicht ziemlich ineffizient von Tegra3 :confused:

Was zum Henker erwartest Du von so einem Winzling? Die T4 ULP GF duerfte schaetzungsweise nur um 67x Mal langsamer sein, wobei GK110 als chip auch >52x Mal mehr die area einnimmt als der GPU block im T4.

AnarchX
2013-04-04, 22:07:51
Wäre das nicht ziemlich ineffizient von Tegra3 :confused:
Warum ineffizient? Tegra 3 hat doch nur ~8GFLOPs PS-Leistung und knapp 1GTex/s. Eher kann GK110 hier nicht seine Leistung ausspielen.

Deinorius
2013-04-04, 23:16:38
Bei Anandtech werden einige aktuelle ARM-Chips mit älteren Desktop Grafikkarten verglichen: http://www.anandtech.com/show/6877/the-great-equalizer-part-3


Über einige Ergebnisse wundere ich mich schon. Dass z.B. der E-350 nur auf Augehöhe oder nicht mal das liegt z.B.

Skysnake
2013-04-04, 23:49:19
Was zum Henker erwartest Du von so einem Winzling? Die T4 ULP GF duerfte schaetzungsweise nur um 67x Mal langsamer sein, wobei GK110 als chip auch >52x Mal mehr die area einnimmt als der GPU block im T4.
Warum ineffizient? Tegra 3 hat doch nur ~8GFLOPs PS-Leistung und knapp 1GTex/s. Eher kann GK110 hier nicht seine Leistung ausspielen.
Ineffizient bzgl Perf/Watt natürlich!

Die absolute Leistung habe ich nicht gemeint.

Screemer
2013-04-04, 23:51:23
Über einige Ergebnisse wundere ich mich schon. Dass z.B. der E-350 nur auf Augehöhe oder nicht mal das liegt z.B.gehört zwar hier nicht rein, aber 3dmark für android ist sowas von inkonsistent. da sind uralte adrenos schneller als aktuelle mali und sgx-modelle. mehr dazu hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=540609

Deinorius
2013-04-05, 00:16:33
Die 3dmark Ergebnisse hab ich noch nicht mal großartig bedacht, sondern viel mehr Egypt HD oder T-Rex HD.
Der E-350 hat eine TDP von 18 W (wenn auch wirklich als max. möglichen Stromverbrauch) und ist noch nicht mal ein SoC, während die ARM-SoC Designs nur ein paar W TDP haben, auch wenn dieser nicht direkt mit x86 TDP Werten vergleichbar scheint. Der Fertigungsunterschied kann IMHO auch nicht den Nachteil für den E-350 erklären. Natürlich ist es schwer, das Ganze zu vergleichen, aber ich zweifle noch sehr.

Hugo78
2013-04-05, 01:01:01
Ineffizient bzgl Perf/Watt natürlich!

Wie willst du das beurteilen?
Es gibt keinen gleichzeitigen Verbrauchstest zu den Benches... :ucoffee:

Skysnake
2013-04-05, 01:07:32
Das kann man schon gut abschätzen.

Ne Titan braucht ~250W, eher weniger.

Hat auch >250 mal so viel Leistung.

Glaubst du ernsthaft an weniger als 1W für die iGPU von Tegra 3?

Also ich nicht, und selbst dann wäre es ja noch immer schlecht, weil man eben nicht effizienter ist, und das TROTZ low-power design und niedrigen Taktraten, kleinem Chip und und und.

Das finde ich schon SEHR überraschend, und entspricht in keinster weise dem was ich erwartet hätte.

Ich hätte eher erwartet das die iGPU von Tegra 3 doppelt so effizient wie die GTX Titan ist. (eher sogar deutlich mehr)

Nightspider
2013-04-05, 01:43:33
Mich würde man interessieren wo die iPhones dazwischen liegen würden. Ich nehm mal an, das es den 3Dmark (nocht) nicht für iOS gibt!?

Ailuros
2013-04-05, 08:36:10
Das kann man schon gut abschätzen.

Ne Titan braucht ~250W, eher weniger.

Hat auch >250 mal so viel Leistung.

DXB2.7 ist kein Crysis3 ergo komm mal wieder schoen zurueck auf den Teppich dass Titan hier gleich 250W verbrauchen wird.

Glaubst du ernsthaft an weniger als 1W für die iGPU von Tegra 3?

Bumsfallera wie waere es wenn Du Fermi gegen Tegra3 dann verbrauchen wuerdest dem Anstand zu liebe da 40 vs. 40nm? Anhand der GTX480 Resultate duerfte eine GTX580 um ca. 140x schneller sein als die ULP GF@T3. Die ULP GF im 28nm Tegra4 wird schon zumindest 2-3W in dem benchmark verbrauchen aber wie sieht es trotz allem im perf/W Vergleich zu einer 28nm high end GPU aus?

Da wo es heikel werden koennte ist im Vegleich Tegra5/Logan vs. high end GeForce. Wenn Logan immer noch auf 28nm kommen wird wird es duester aussehen fuer perf/W; bei 20nm (welches die einzige logische Alternative momentan erscheint) duerfte die obrige Titan vs. T4 Analogie bei Tegra5 vs. Maxwell erhalten bleiben mehr oder weniger.

Also ich nicht, und selbst dann wäre es ja noch immer schlecht, weil man eben nicht effizienter ist, und das TROTZ low-power design und niedrigen Taktraten, kleinem Chip und und und.

Das finde ich schon SEHR überraschend, und entspricht in keinster weise dem was ich erwartet hätte.

Du solltest ausnahmsweise mal Deine Fakten fuer SFF richtig hinbekommen damit Du Dir eben nicht so stark ins Knie schiesst ;)

Ich hätte eher erwartet das die iGPU von Tegra 3 doppelt so effizient wie die GTX Titan ist. (eher sogar deutlich mehr)

*seufz* siehe oben.

Mich würde man interessieren wo die iPhones dazwischen liegen würden. Ich nehm mal an, das es den 3Dmark (nocht) nicht für iOS gibt!?

http://www.glbenchmark.com/

Es ist ein und der selbe benchmark; DXBenchmark2.7 laueft auf windows/RT und GLBenchmark2.7 auf Android/iOS.

Apple iPad4 & iPhone5 in GLB2.7: http://glbenchmark.com/compare.jsp?D1=Apple+iPad+4&D2=Apple+iPhone+5&cols=2

Wuerde Series5/5XT kein Problem mit alpha tests haben, wuerden die Dinger ziemlich wild in dem benchmark abziehen. Rogue dann eben...

Skysnake
2013-04-09, 20:31:40
Gibt was Neues zu Project Shield.

Auf dem PCGH Themenabend mit nVidia hat Lars Weinand erklärt, das man nicht nur eine Kepler GPU braucht, um Spiele aus Shield zu streamen, NEIN, das Game muss dabei auch im Vollbildmodus dargestellt werden auf dem PC!

Wenn man aus dem Game rausswitcht, wird die Übertragung zu Shield unterbrochen.

Sieht überhaupt noch jemand eine Berechtigung für das Streamingfeature?

Hugo78
2013-04-09, 21:50:05
Und?

Mach den PC Monitor aus und den TV an, so what?!

Blediator16
2013-04-12, 18:03:43
http://news.cnet.com/8301-1035_3-57579098-94/nvidias-tegra-mobile-chip-business-hits-a-wall-with-growth/

http://hexus.net/business/news/components/54085-nvidia-tegra-sales-hit-qualcomms-lte-equipped-chips/

T4 verschoben?

Ailuros
2013-04-12, 18:12:58
Wer pfeifft denn auf die Leiche? Hier Tegra5/Logan Anspielungen:

http://www.engadget.com/2013/04/12/next-gen-mobile-kepler-graphics-demoed/

mboeller
2013-04-12, 19:01:16
http://
[url]http://hexus.net/business/news/components/54085-nvidia-tegra-sales-hit-qualcomms-lte-equipped-chips/


Wenn's stimmt endlich mal eine gute Nachricht von Nvidia:


....use the resources to prepare the Tegra 4i, with integrated LTE, more quickly. The decision has delayed the introduction of Tegra 4 chips by a quarter, but on the other hand Tegra 4i development has been brought nearer to completion by nearly half a year....

Also damit würde der 4i nicht erst in Q1/2014 in Geräten verfügbar sein sondern schon (ende?) Q3/2013..

Ailuros
2013-04-12, 19:16:09
Also damit würde der 4i nicht erst in Q1/2014 in Geräten verfügbar sein sondern schon (ende?) Q3/2013..

Unter normalen Umstaenden ja und ja natuerlich waere es eine absolute Eulogie wenn es stimmt. Nexus behauptet aber auch komischerweise dass T3 10M verkauft hat; nun ich hab zwar nie Uebermengen erwartet aber das klingt mir uebertrieben wenig ueberhaupt fuer den Umsatz den sie machen.

Zuerst sagte Fudo dass sich T4 um ein Quartal verspaeten wird; prompt kommt NV via Anand an und antwortet dass es sich um ein Missverstaendnis mit den Quartalen handelt und jetzt verspaetet sich das Ding als doch...:crazy: Ergo ist Tegra4 ein verspaeteter SoC der sich nicht verspaetet hat :P

Ailuros
2013-04-22, 07:47:17
http://www.fudzilla.com/home/item/31138-nvidia-scores-sole-tegra-4-design-win-courtesy-of-zte

Nebenbei wenn die ersten GLB2.7 Resultate fuer Wayne real sein sollten (bei niedrigerer Frequenz) koennte T4 bis zu fast 50% schneller sein als das iPad4/GalaxyS4 in GLB2.7.

Ailuros
2013-05-01, 11:42:21
Komischerweise hat NVIDIA noch nichts darueber angekuendigt dass sie kollektiv fuer Suendenboecke suchen fuer jeglichen Tegra "Erfolg":

http://www.fudzilla.com/home/item/31249-nvidia-poaches-ex-ti-omap-exec-to-head-tegra-unit

Ob Talla wirklich einen Unterschied machen kann, bleibt abzusehen. Im Notfall koennte er sich schon jetzt fuer Rolle des zukuenftigen Suendenbocks fuer die Tegra Abteilung vorbereiten *kopfschuettel*

Ailuros
2013-05-10, 12:21:56
http://gfxbench.com/device.jsp?benchmark=gfx27&D=NVidia+Shield

Erste volle NV Shield/Tegra4 GLB2.7 Resultate; wenn ich mich nicht irre liegt Adreno330 um ca. 20% hoeher.

Hugo78
2013-05-10, 12:53:45
Es gibt doch noch garkeine S800 Geräte für diese Benches?!

Avalox
2013-05-10, 13:08:17
http://gfxbench.com/device.jsp?benchmark=gfx27&D=NVidia+Shield



Jetzt bin ich aber verblüfft. Die Shield Ergebnisse hängen doch schon länger als 4 Tage drin. Haben die ein Update bekommen?
Stimmt es waren nur die v.2.5 Benchmarks seit April oben.

Ailuros
2013-05-10, 14:33:41
Es gibt doch noch garkeine S800 Geräte für diese Benches?!

Dafuer gibt es aber leaks; Adreno330 lag bei ca. 22 fps und G6400 bei ** fps :P

Hugo78
2013-05-10, 17:20:40
Ok das passt natürlich zu den vorausgesagten +50% ggü. dem S4Pro im Google Nexus 4 und ggü. dem S600 im SGS4 hätte man immernoch +28%.
Das könnte man sich aber auch einfach zusammen reimen, nachdem Qualcomm diese Sprünge schon bei der MWC so kommuniziert hatte, iirc. :tongue:

Aber was sagen denn deine Quellen, zum Thema "MS Surface RT 2", Ailuros?
Hat Qualcomm da immernoch so mangelhafte Windoof Treiber und geht so dieser Design-Win doch eher wieder an NV?

Ailuros
2013-05-11, 09:28:49
Ok das passt natürlich zu den vorausgesagten +50% ggü. dem S4Pro im Google Nexus 4 und ggü. dem S600 im SGS4 hätte man immernoch +28%.
Das könnte man sich aber auch einfach zusammen reimen, nachdem Qualcomm diese Sprünge schon bei der MWC so kommuniziert hatte, iirc. :tongue:

Aber was sagen denn deine Quellen, zum Thema "MS Surface RT 2", Ailuros?
Hat Qualcomm da immernoch so mangelhafte Windoof Treiber und geht so dieser Design-Win doch eher wieder an NV?

Keine Ahnung zum letzten denn ich hab auch nicht nachgefragt. QCOM ist schon ziemlich ok mit ihren Treibern sonst wuerde ihre SoCs auch nicht in winblows Geraeten auftauchen. Design wins gewinnt generell heutzutage derjenige SoC Hersteller der mit der bestmoeglichsten Loesung fuer jeglichen Zeitpunt als erster fertig ist.

Ailuros
2013-05-13, 11:44:02
http://www.fudzilla.com/home/item/31341-nvidia-confirms-high-end-tablet-market-is-slowing

http://www.fudzilla.com/home/item/31342-nvidia-expects-to-gain-share-on-haswell

http://www.fudzilla.com/home/item/31361-high-end-phones-belong-to-samsung-and-apple

Das sind erstmal zu viele "reality checks" fuer NVIDIA an der Reihe :biggrin:

YfOrU
2013-05-13, 12:11:10
Ist alles andere als einfach denn bei High-End ist für Nvidia vorerst kaum etwas zu holen.
Bleiben Mainstream und Low-End. Wobei Unternehmen wie Allwinner und Mediatek im unteren Bereich sehr aggressiv agieren und Qualcomm hier aktuell ebenfalls eine starke Produktpalette aufbaut.

Da Qualcomm gleichzeitig das gesamte Spektrum abdeckt wird Nvidia mit T4i kaum mehr als vereinzelte Designwins abgreifen können. T4i ist zwar ein Schritt in die richtige Richtung aber genügt alleine einfach nicht.

Skysnake
2013-05-13, 13:25:22
Das "Bessere" ist der Feind des "Guten"...

mehr muss man dazu nicht sagen. nVidia kann noch so "tolle" Sachen machen, und Schritte nach vorne. Wenn die anderen weiterhin den Abstand so halten, indem Sie ähnliche Schritte machen, oder gar noch größere, gewinnt nVidia rein gar nichts.

Und genau das ist das Problem von nVidia. Alles sagen: Boah machen die tolle Sachen...
Wenn man sich die Konkurrenz aber anschaut, fragt man sich, was die so halbherzig in dem Markt überhaupt wollen...

=Floi=
2013-05-13, 14:17:15
wirklich brennen tut es doch nur bei der tegra gpu. da hat der ganze markt wohl apple unterschätzt und die anderen ziehen da auch nach. nvidia ist hier wohl zu langsam und wurde hier kal erwischt. zeit für änderungen gab es wohl nicht mehr...
unterm strich geht die leistung aber iO.

Undertaker
2013-05-13, 14:24:17
Problem ist eher, dass die Dinger warum auch immer nicht auf den Markt gelangen. T3 hatte für seine Zeit sogar noch eine viel schwächere GPU, was die Verkäufe aber kaum gestört hat; das würde ich also nicht als KO-Kriterium sehen.

Ailuros
2013-05-13, 19:02:08
Problem ist eher, dass die Dinger warum auch immer nicht auf den Markt gelangen. T3 hatte für seine Zeit sogar noch eine viel schwächere GPU, was die Verkäufe aber kaum gestört hat; das würde ich also nicht als KO-Kriterium sehen.

NV hat zu spaet eingesehen dass ein mainstream smartphone SoC wie T4i wichtiger ist als eine high end tablet SoC with T4 und da kommt es natuerlich zu dem: http://www.fudzilla.com/home/item/31360-tegra-4-was-pushed-because-of-tegra-4i

Grey bzw. T4i haette IMHO schon nach T2 anstatt T3 haette kommen koennen, egal ob etwas bescheidener, eben einfach ein SoC der sehr gut fuer mittlere smartphones verkauft.

Was hat denn T3 glohreiches verkauft? 6 Mio SoCs fuer's Nexus7 war der bei weitem groesste design win was Volumen betrifft und von dem haben sie auch keinen Gewinn gemacht. T2 hatte um zich mehr smartphone design wins als die 1 oder waren es 2 fuer T3.

Summa summarum: im Angesicht von Logan haette sie sich vielleicht T4 gleich sparen koennen und einfach sich mit voller Pulle auf T4i konzentrieren.

Hugo78
2013-05-13, 19:08:11
Und von wem hätten sie das integrierte Modem dafür bekommen?

Skysnake
2013-05-13, 20:05:28
Mal selbst entwickeln?

Man muss halt auch mal Ressourcen einsetzen, um etwas zu reisen. ..

dildo4u
2013-05-13, 20:22:20
Haben sie doch gemacht das war sein Punkt es hat Zeit gebraucht.

Hugo78
2013-05-13, 21:19:53
So ist es.
Natürlich ist es sicher nicht so, als könnte man sowas nicht selber entwickeln, aber dann bezahlt man auch für Patente.

Intel hatte nicht umsonst 1,4 Milliarden US-Dollar in bar, für Infineon Wireless Solutions rausgehauen.

Nvidia hat zwar "nur" 367 Mio. für Icera bezahlt, aber für NV ist das kein Quartalsgewinn der mal fehlt, sondern der Gewinn eines gesamten Geschäftsjahres. Hinzu kommen jetzt weitere Kosten für R&D.
Das Geschäftsrisiko ist hier ungleich höher und somit der Kauf ansich schon das Zeichen dafür das es NV durchaus ernst meint.

Ailuros
2013-05-13, 21:32:18
Und von wem hätten sie das integrierte Modem dafür bekommen?

Nicht mein Problem wenn NV zu daemlich ist NICHT von dritten LTE kaufen zu wollen weil es ihren "Stolz" verletzt. Und ja sie haetten durchaus eine dritte Loesung kaufen und integrieren koennen bis sie mit ihrer eigener hw so weit wahren.


Nvidia hat zwar "nur" 367 Mio. für Icera bezahlt, aber für NV ist das kein Quartalsgewinn der mal fehlt, sondern der Gewinn eines gesamten Geschäftsjahres. Hinzu kommen jetzt weitere Kosten für R&D.
Das Geschäftsrisiko ist hier ungleich höher und somit der Kauf ansich schon das Zeichen dafür das es NV durchaus ernst meint.

Das nennst Du Ausgaben? Nochmal nach Jensen selber ist nach NV's eigenen Schaetzungen ihr break even point fuer Tegra bei $1 Milliarde Umsatz. Da sind fuer die absehbare Zukunft ein paar hundert Millionen pro Jahr Kosten nicht mehr besonders viel und es wird auch nur konstant ansteigen.

Uebrigens wurde Icera nicht nur wegen Patenten gekauft; heutzutage ist wie mal jemand sagte jeglicher Furz zumindest zwei Mal patentiert. Man braucht stets erfarhrene engineers ueberhaupt wenn sie spezialisierte Erfahrung haben. Grey wurde in Indien entwickelt weil die Kerle in der US fuer Tegra alle Haende voll hatten.

Hugo78
2013-05-13, 22:28:56
1. Von wem hätten sie denn LTE einkaufen können und dann dieses auch effektiv in ihr Design integrieren?

2. Natürlich wollte Nvidia auch die Leute, hab nie was anderes behauptet?! Jeder weiß das NV zuwenig Leute hat.

3. Ja ich nenne das Ausgaben, wenn man einen Jahresgewinn in einen Markt steckt, wo man auf die ein oder andere Art, früher oder später, auf Firmen wie Apple, Samsung, Intel, Qualcomm oder bis vor kurzem noch TI,
im mittel bis oberen Segment als Konkurrenz trifft und im Billigsegment unserere Freunde aus China, wo Papa Staat das gesamte finanzielle Risiko trägt und über die Zentralbank billiges Geld in die Unternehmen pumpt.

Skysnake
2013-05-13, 23:32:10
Haben sie doch gemacht das war sein Punkt es hat Zeit gebraucht.
Wenn man "einfach" von extern ein fertiges Produkt kauft, also die Firma, dann ist das oft die teuerste Lösung, aber oft auch die einzige weil man etwas verpennt hat.

Nvidia wacht viel zu spät auf. Mit T5 sishts viel besser aus, aber das aktuell ist einfach ein Fehler der Führung. ..

fondness
2013-05-14, 09:17:37
3. Ja ich nenne das Ausgaben, wenn man einen Jahresgewinn in einen Markt steckt, wo man auf die ein oder andere Art, früher oder später, auf Firmen wie Apple, Samsung, Intel, Qualcomm oder bis vor kurzem noch TI,
im mittel bis oberen Segment als Konkurrenz trifft und im Billigsegment unserere Freunde aus China, wo Papa Staat das gesamte finanzielle Risiko trägt und über die Zentralbank billiges Geld in die Unternehmen pumpt.

NV hat vor kurzem bekannt gegeben eine Milliarde Dollar in ein Aktienrückkaufprogramm zu investieren. Das hat man getan damit der Aktienkurs nach der Bekanntgabe des Tegra 4 "Erfolges" und der Verschiebung nicht einbricht. Dieses Geld hätte man deutlich sinnvoller investieren können.

Ailuros
2013-05-14, 11:55:27
1. Von wem hätten sie denn LTE einkaufen können und dann dieses auch effektiv in ihr Design integrieren?

Ueberzeug mich dass es keine speparate LTE modems zum kaufen gibt.

2. Natürlich wollte Nvidia auch die Leute, hab nie was anderes behauptet?! Jeder weiß das NV zuwenig Leute hat.

NV hat mehr als genug engineers; nur Idioten am Lenkrad die Entscheidungen je nach der Windrichtung jeglicher Stunde treffen. Wenn man mitrechnen wuerde wie oft die Design-Entscheidungen fuer Denver zu einer tabula rasa geaendert wurden, hat man schon die erste Antwort zu dem was eigentlich hinter den Kulissen vorgeht.

3. Ja ich nenne das Ausgaben, wenn man einen Jahresgewinn in einen Markt steckt, wo man auf die ein oder andere Art, früher oder später, auf Firmen wie Apple, Samsung, Intel, Qualcomm oder bis vor kurzem noch TI,
im mittel bis oberen Segment als Konkurrenz trifft und im Billigsegment unserere Freunde aus China, wo Papa Staat das gesamte finanzielle Risiko trägt und über die Zentralbank billiges Geld in die Unternehmen pumpt.

So und jetzt gibt NV erstmal selber zu dass high end smartphone eher eine Angelegenheit fuer Samsung und Apple ist und jetzt darfst Du mir erklaeren wie NV mit ihren Preisen ohne Verluste gegen die Chinesen konkurrieren will. Muss ich Dir dann auch noch erklaeren wie es mit Herstellungspreisen in direktem Zusammenhang mit Volumen aussehen koennte? Und nein es hat ueberhaupt nichts mit der chinesischen Regierung direkt zu tun.

Die Ausgaben bzw. Kosten fuer NV werden nach wie vor in Zukunft steigen, ergo brauchen unbedingt auch ziemlich hohe Verkaufsvolumen um fuer eine gewisse Zeit die roten Zahlen so gut wie moeglich decken zu koennen.

Jemand sollte sich endlich mal Gedanken machen dass Jensen und seine Bande fuer Tegra nur Scheiss gebaut haben bisher. Es ist eben nicht so dass es intern bei NV nicht eingesehen wird oder dass es gut verstecktes Geheimnis ist; entweder man sieht ein dass irgend etwas faul ist im Hause Daenemark oder man glaubt einfach den bullshit den Jensen's PR aufhaeuft und denkt alles sei in besten Haenden. Keine Ahnung ueber andere aber wenn ich Pampe mit Parfuem uebersprueche, duftet es bei mir nicht unbedingt besser.

Hugo78
2013-05-14, 12:14:43
@fondness

Nvidia kauft seit 2004 Aktien zurück, dass hat verschiedene Gründe, man kauft aber sicher nicht primär für 1000 Mio. USD Aktien zurück, nur weil man 50 Mio. weniger Umsatz Gewinn in einer Sparte erwartet.
Since NVIDIA initiated its repurchase program in August 2004, NVIDIA has spent $1.46 billion to repurchase 90.9 million shares of its common stock. NVIDIA is authorized, subject to certain specifications, to spend up to an additional $1.24 billion repurchasing shares of its common stock.
- http://nvidianews.nvidia.com/Releases/NVIDIA-Reports-Financial-Results-for-Third-Quarter-Fiscal-Year-2013-8b3.aspx

@Ailuros

Warum drückst du dich um die Antwort zum Punkt LTE?
Ich hab keinen Plan wo man LTE einkaufen könnte, dass zu Tegra 3 gepasst hätte, aber du meintest Nvidia sei einfach zu dämlich und zu Stolz gewesen das zu tun.

Ailuros
2013-05-14, 12:24:33
Wieso "nur" 50Mio weniger Umsatz fuer Tegra forecasts? (total ausserhalb vom Aktien-Zeug, denn von der Geschichte hab ich kein insight...)


Warum drückst du dich um die Antwort zum Punkt LTE?
Ich hab keinen Plan wo man LTE einkaufen könnte, dass zu Tegra 3 gepasst hätte, aber du meintest Nvidia sei einfach zu dämlich und zu Stolz gewesen das zu tun.

Jeglicher LTE Hersteller wuerde eins verkaufen, QCOM inclusive; ich meinte auch nicht T3, denn T3 war zu teuer fuer ein mainstream smartphone fuer seine Zeit. Ein gut balancierter dual A9 SoC haette fuer 2012 vollkommen ausgereicht.

Hugo78
2013-05-14, 12:33:00
50 Mio. USD ist keine Zahl die NVidia genannt hat, ist nur über-großzügig der Rückgang bei den Einnahmen im Tegra Bereich.
- http://www.computerbase.de/news/2013-05/nvidia-mit-rekordmarge-dank-kepler-im-1.-quartal/

Aber ich hab diese -22% mal als Trend für einen Worst Case angenommen, denn die Verkäufe werden sicher nicht komplett auf Null fallen, dafür werden sich schon noch genug Tablethersteller finden.
Allgemein sollte Tegra 4 aber den Rückgang zumindest auffangen.

Ailuros
2013-05-14, 12:50:49
50 Mio. USD ist keine Zahl die NVidia genannt hat, ist nur über-großzügig der Rückgang bei den Einnahmen im Tegra Bereich.
- http://www.computerbase.de/news/2013-05/nvidia-mit-rekordmarge-dank-kepler-im-1.-quartal/

Aber ich hab diese -22% mal als Trend für einen Worst Case angenommen, denn die Verkäufe werden sicher nicht komplett auf Null fallen, dafür werden sich schon noch genug Tablethersteller finden.
Allgemein sollte Tegra 4 aber den Rückgang zumindest auffangen.

Ich will hoffen dass Du den >50% Rueckgang beim Q/Q Vergleich auch gesehen hast und dass Du die beiden slides auch ausfuehrlich genueg miteinander verglichen hast. Es geht eben nicht "nur" um 50Mio wenn Du es wirklich ueberdenkst.

Blediator16
2013-05-14, 17:36:52
http://blogs.nvidia.com/2013/05/shield/

350$ Nvidia Shield bedeutet wohl 350€ in Europa.

Hugo78
2013-05-14, 18:28:53
Ich will hoffen dass Du den >50% Rueckgang beim Q/Q Vergleich auch gesehen hast und dass Du die beiden slides auch ausfuehrlich genueg miteinander verglichen hast. Es geht eben nicht "nur" um 50Mio wenn Du es wirklich ueberdenkst.

Von einem miesen Quartal sollte man sich nicht gleich verrückt machen lassen. :biggrin:

http://blogs.nvidia.com/2013/05/shield/

350$ Nvidia Shield bedeutet wohl 350€ in Europa.

Mal schauen ob sich der Preis halten kann.
Im Moment steht bei mir eh erstmal Ouya auf dem Wunschzettel, weils mit allen Nintendo Klassikern 4 free kommt.
http://youtu.be/78XQHex71kg?t=11m55s

Ailuros
2013-05-14, 19:57:22
Von einem miesen Quartal sollte man sich nicht gleich verrückt machen lassen. :biggrin:

2 Quartale sind ein Halbjahr; keine "besonders" lange Zeit fuer den einzigen Markt den man momentan als cut throat bezeichnen koennte :rolleyes:

Im FY13 war NV ungefaehr in der Mitte ihren break even point zu erreichen; wird der Ruecksatz 20% hoch sein fuer FY14 dann ist die Summe ueber $100Mio mit Kosten die noch zusaetzlich ziemlich stark steigen werden im Angesicht von Logan.

Skysnake
2013-05-14, 20:21:12
LOL :ugly:

350€... :crazy2:

Ok, ich zahl so viel wie für nen Samsung Galaxy S3 nur für ne "Konsole", auf der ich nen Joypad habe, aber ansonsten praktisch keinen Vorteil im Vergleich zu nem Highend-Smartphone.

Ja ne ist klar. Wenn man jetzt noch die Einschränkungen bzgl Streaming bedenkt, wirds echt lächerlich..

@Ailuros:
Und damit wieder den break-even-point nach hinten raus schieben...

Genau das ist ja das Problem, das ich schon lange anprangere. nVidia tut aktuell viel zu wenig, und ist noch weit weg davon Gewinn zu machen. Wenn Sie aber mehr machen, kostet das richtig Geld, und Sie müssen noch mehr Absatz generieren. Aber wo denn?

Im Lowend?
Da sind doch Mediatek, die Chinesen usw.

Im Highend?
Das ist doch der Markt von Apple und Samsung

Midrange?
Darum kloppt sich schon Qualcomm usw richtig gut. Kann man wirklich gegen die bestehen, und vorallem richtig Marktanteile abknöpfen, damit sich die ganzen Investitionen auch rechnen?

Knuddelbearli
2013-05-14, 20:22:16
Shield ist ja total überteuert dafür bekommt man ja ne WiiU oO

Vor allem für die Krüppel GPU die Tegra hat, naja vielleicht bekommt man es als Titan II Käufer ja Gratis dazu ^^

Skysnake
2013-05-14, 20:26:48
Stimmt ;D

Ich hatte soetwas allerdings bereits befürchtet, wenn auch nicht ganz so krass. Um genau zu sein hatte ich so 200-aller aller aller höchstens 300€. Wirklich gut verkaufen sollte! (wir kennen ja das Marketing von nVidia, das sich teils nicht hinter Apple verstecken muss) sich das Ding aber erst so bei 100-150€.

Hugo78
2013-05-15, 22:32:11
HP SlateBook x2, Android-Tablet / Ultrabook Hybrid.

- 1,8 GHz Tegra-4-SoC,
- 10,1 " IPS mit 1.920 x 1.200,
- zwei Gigabyte DDR3L-RAM,
- 64 Gigabyte SSD,
- unverbasteltes Android 4.2.2,
- UVP $480 - ab August in den USA,

- http://www.netzwelt.de/news/95887-hp-slatebook-x2-android-notebook-tegra-4-plattform.html
- http://www.computerbase.de/news/2013-05/hewlett-packard-kuendigt-split-x2-und-slatebook-x2-an/

Skysnake
2013-05-15, 23:15:54
Der Preis ist aber wohl nur für das Tablet ohne Dock.

Nicht gerade ein Schnapper. Wenn ich bedenke, dass das Ipad4 16GB schon für ab ~450€ zu haben ist, dann ist das nicht ganz überzeugend.

Vor allem befürchte ich bei HP wieder keine so knalle Verarbeitung. Das HP Touchpad hat z.B. Plastik, der jetzt nicht wirklich der Burner ist von der Robustheit.

EDIT:
Ok, hat sich eh erledigt.

Es kommt eh nicht auf den deutschen Markt :ugly:

Wie Hewlett-Packard ComputerBase mitgeteilt hat, wird das SlateBook x2 nicht auf den deutschen Markt kommen. Das Split x2 wiederum soll zu einem späteren Zeitpunkt auch in Deutschland erscheinen, ein Startpreis konnte aber noch nicht genannt werden.

http://www.computerbase.de/news/2013-05/hewlett-packard-kuendigt-split-x2-und-slatebook-x2-an/

Ich frag mich da echt, wo der Sinn sein soll, wenn man gleich wieder Märkte ausschließt.

Soll das nur noch Schadensbegrenzung sein?

So verkauft nVidia auf jeden Fall keine Chips in relevanten Mengen.

Nightspider
2013-05-15, 23:39:51
16GB vs 64GB

|MatMan|
2013-05-15, 23:49:00
Der Preis ist aber wohl nur für das Tablet ohne Dock.
Wie kommst du denn dazu so einen Quark zu behaupten? Es kommt natürlich mit Tastaturdock, wir z.B. hier (http://mashable.com/2013/05/15/hp-slatebook-x2/) aus dem Kontext klar. Das Gerät ist als Hybrid / Convertible gedacht und nicht als reines Tablet.

Man kann hoffen, dass es ein ähnliches Gerät für den Rest der Welt geben wird.

Skysnake
2013-05-16, 09:05:48
Weil das in einer News dazu wo anders stand, die ich gelesen habe :P

dildo4u
2013-05-16, 09:15:50
HP SlateBook x2, Android-Tablet / Ultrabook Hybrid.

- 1,8 GHz Tegra-4-SoC,
- 10,1 " IPS mit 1.920 x 1.200,
- zwei Gigabyte DDR3L-RAM,
- 64 Gigabyte SSD,
- unverbasteltes Android 4.2.2,
- UVP $480 - ab August in den USA,

- http://www.netzwelt.de/news/95887-hp-slatebook-x2-android-notebook-tegra-4-plattform.html
- http://www.computerbase.de/news/2013-05/hewlett-packard-kuendigt-split-x2-und-slatebook-x2-an/
WTF @ das Win8 Ding wieder Netbook Auflösung für Notebook Preise.Intel ist fuckt wenn die OEM's weiter nur so ein Mist anbieten.

Ailuros
2013-05-16, 11:32:59
WTF @ das Win8 Ding wieder Netbook Auflösung für Notebook Preise.Intel ist fuckt wenn die OEM's weiter nur so ein Mist anbieten.

Zwar OT, aber die OEM Preisgebung ist alles andere als unabhaengig von Intel's Preisstrategie. Ergo wenn Intel irgend ein Problem haben sollte am Ende, dann sind sie primaer erstmal selber dafuer verantwortlich.

---------------------------------------------------------------------------

Sonst ist das HP Slatebook2 bei $480 MSRP verdammt attraktiv als Angebot.

Nightspider,

Es sind bis zu 64GB. Der Startpreis fuer's Slate ist bei $480 aber wohl eben NICHT mit 64GB :P Was ein iPad nicht hat sind brauchbarere USB Anschluesse.

Nightspider
2013-05-16, 11:52:36
Wäre auch zu schön gewesen. :ulol:

Ailuros
2013-05-16, 11:59:58
Wäre auch zu schön gewesen. :ulol:

Ich haette mir sofort eins vorbestellen lassen in den Staaten :D

boxleitnerb
2013-05-16, 15:23:09
http://www.theverge.com/2013/5/16/4335692/nvidia-shield-modern-family

:freak:

Hugo78
2013-05-16, 16:06:34
Productplacement gehört zur PR.
Solang es nicht die Ausmaße annimmt, wie zum Beispiel zuletzt in "Immer Ärger mit 40".
Also der Film war an sich nicht so übel, aber der Applekult wurde auf eine neue, groteske Stufe gehoben.
Wenn man zudem noch die Apple-Dichte in dem Haushalt reduziert hätte und nicht JEDES Familienmitglied Iphone, Ipad, Ipod und MacBook besessen hätten, wäre sicher auch mehr Geld im Topf….

Letztere wurden derart präsent ins Bild gehalten, - teilweise Leinwandfüllend, daß sich uns die Frage stellte,
ob der Film komplett durch Apple finanziert war oder doch noch ein kleiner Rest des Budgets durch die Autofirmen aufgebracht wurde, deren Logo zu sehen war….
- http://wendy24.blog.de/2013/03/15/immer-aerger-40-apple-productplacement-kino-15630454/

|MatMan|
2013-05-16, 18:16:29
Weil das in einer News dazu wo anders stand, die ich gelesen habe :P
Das verlinke das doch das nächste mal bitte.

Skysnake
2013-05-16, 18:31:44
http://www.hardwareluxx.de/index.php/news/consumer-electronics/tablets/26352-das-slatebook-x2-hp-stellt-tegra-4-tablet-mit-dockingtastatur-vor.html

Viel Spaß

Hugo78
2013-06-03, 23:13:43
Transformer Pad Infinity

- 10.1" IPS mit 2560 x 1600
- zwei Gigabyte RAM
- USB 3.0 & SD Card Slot
- 32GB SSD

http://blogs.nvidia.com/2013/06/tegra-4-fuels-asuss-new-transformer-pad-infinity/

Dural
2013-06-04, 00:22:44
ob das so gesund für den akku ist :confused:

zudem sehr hohe auflösung, da wartet man lieber auf T5

Hugo78
2013-06-04, 07:57:57
ob das so gesund für den akku ist :confused:

Was genau?

zudem sehr hohe auflösung, da wartet man lieber auf T5

Tegra 4 kann 4K, so what?
Natürlich benötigt ein höherauflösendes Display ansich schon exponentiell mehr Strom,
aber die GPU dürfte im Vergleich zum Display nur wenig mehr zum erhöhten Stromhunger beitragen.
Tegra 5 oder irgendein anderes SoC wird sich hier nicht anders verhalten.

Ailuros
2013-06-04, 09:45:06
Tegra 4 kann 4K, so what?

Der dedizierte video decoder hat gar nichts mit der GPU zu tun.

Natürlich benötigt ein höherauflösendes Display ansich schon exponentiell mehr Strom,
aber die GPU dürfte im Vergleich zum Display nur wenig mehr zum erhöhten Stromhunger beitragen.
Tegra 5 oder irgendein anderes SoC wird sich hier nicht anders verhalten.

Der letzte Satz vereinfacht mir die Sache um einiges; kommt drauf an auf welchem Prozess T5 hergestellt wird am Ende und wie die GPU genau aussehen wird. Zwischen 28 und 20nm gibt es schon einen Unterschied und die T4 mag zwar etwas framebuffer compression haben, aber ultra sparsam mit Speicher und Bandbreite ist das Ding bei weitem nicht.

Dural
2013-06-04, 12:27:13
1.920x1.200 wäre von mir aus deutlich sinnvoller gewessen.

bei 2560x1600 und T4 wird man garantiert irgend wo abstriche hinnehmen müssen, sei es bei der Laufzeit oder dem Gewicht, bis hin zur Leistung.

Hugo78
2013-06-04, 13:40:59
@Dural

Ein SoC ist beim Verbrauch erst an vierter oder fünfter Stelle, was den Verbrauch im Alltag bestimmt.
Das Display allein ist an erster Stelle, gefolgt von Wlan, Bluetooth, Kamera, GPS, irgendwelche Hintergrund-Apps bis hin zu ältere SIM Karten die nicht in den Tiefschlaf gehen.

Ich verweise hier immer wieder gern auf den Nexus 4 Test.
Das S4pro SoC ist hier sicher nicht der Akkukiller.
http://www.computerbase.de/artikel/handys/2013/test-google-nexus-4/6/

Ailuros
2013-06-04, 13:43:13
1.920x1.200 wäre von mir aus deutlich sinnvoller gewessen.

bei 2560x1600 und T4 wird man garantiert irgend wo abstriche hinnehmen müssen, sei es bei der Laufzeit oder dem Gewicht, bis hin zur Leistung.

Nicht wirklich; dass T5 hoechstwahrscheinlich ein gutes Stueck effizienter sein koennte ist ein total anderes Kapitel. Sonst reichen die 2,69 GTexels/s Fuellrate der ULP GF im T4 voll aus fuer das GUI und Spiele werden in ihrer Mehrzahl auch nicht meistens in ihrer nativen Aufloesung abgespielt; fuer den Fall wird wohl auch T4 keine Aussnahme sein.

Es ist ja nicht so dass =/<1080p in 3D auf einem =/>10" display beschissen aussieht.

Avalox
2013-06-04, 14:07:13
Es sind GFXBenchs vom HP Slatebook 10 X2 oben (wenn noch nicht gesehen).

http://gfxbench.com/device.jsp?benchmark=gfx27&D=HP+Slatebook+10+X2

Ailuros
2013-06-04, 14:55:37
Ja mit ca. 5% (1800/638) niedrigeren Frequenzen als Shield.

Marty98
2013-06-04, 20:04:36
http://de.engadget.com/2013/06/04/nvidia-chef-fuehrt-verbesserte-stifteingabe-mit-tegra-4-vor/

Hugo78
2013-06-04, 22:15:24
Toshiba bringt drei neue Tablets.
- http://www.computerbase.de/news/2013-06/toshiba-frischt-tablet-serie-excite-auf/
- http://www.go2android.de/computex-2013-drei-neue-toshiba-tablets-2x-mit-tegra-4/

Als Einsteiger das "Excite Pure" mit Tegra 3, sowie "das Excite Pro" & "Excite Write" mit T4.
Die T4 Tablets sind beide 10.1" mit 2.560 x 1.600 wie schon das Transformer Pad Infinity (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9793047&postcount=2634).

Das Excite Write benutzt dann auch das schon von Marty98 verlinkte 3.Gen. DirectTouch Feature mit Wacom-Digitizers, als Grafiktablet.

Jetzt bräuchte man nur noch ein Video dazu... :freak:

Hugo78
2013-06-07, 13:50:29
http://www.heise.de/newsticker/meldung/Nvidia-Tegra-4i-wohl-erst-im-naechsten-Jahr-1883612.html

Ailuros
2013-06-07, 15:12:49
Wie zum Henker soll man bei dem Quark den Ueberblick behalten? T4 kommt spaeter, nein Missverstaendnis mit Quartalen kommt zeitgemaess; stop. Nein T4 kommt spaeter denn es wurde T4i vorgezogen; stop. T4i kommt jetzt doch erst Anfang 2014, weil sie gerade erst herausgefunen haben dass Bananen komischerweise krumm sind; stop.

Das einzige was ich wirklich an NV's relevantem Mist glauben kann, ist dass Logan eben NICHT Anfang 2014 antanzen wird. Mit dem ganzen hin und her dann wohl Ende 2014 um auf Nummer sicher zu gehen :rolleyes:

Dural
2013-06-07, 15:14:53
T4i war doch schon immer für ende 2013 anfang 2014 im zeitplan :confused:

Ailuros
2013-06-07, 15:27:14
T4i war doch schon immer für ende 2013 anfang 2014 im zeitplan :confused:

http://www.fudzilla.com/home/item/31360-tegra-4-was-pushed-because-of-tegra-4i

Pulling Tegra 4i in and having it scheduled for Q4 2013 was, claims Jensen, the reason for the three-month delay in Tegra 4 production.

Von Anfang Q4 13' bis Ende Q1 14' sind es uebrigens 6 Monate.

AffenJack
2013-06-07, 17:03:59
http://www.fudzilla.com/home/item/31360-tegra-4-was-pushed-because-of-tegra-4i


Aus deinem Fud Link:
Nvidia expects to have partners announcing their devices based on this new LTE based chip in early 2014.

Schon da hatte Nv mitgeteilt, dass es erst 2014 Smartphones damit gibt. Da ist keinerlei änderung bei Heise. Einzig, dass Logan in H2 ankommen soll ist neu, aber nun auch nicht wirklich überraschend. Du solltest nicht die fertigstellung von T4i mit dem auftauchen der Produkte gleichsetzen. Nv hat meine ich auch schon gesagt, dass die Validierung, wahrscheinlich wegen des integrierten Modems, ziemlich lange dauert.

Ailuros
2013-06-07, 21:10:48
Aus deinem Fud Link:


Schon da hatte Nv mitgeteilt, dass es erst 2014 Smartphones damit gibt. Da ist keinerlei änderung bei Heise. Einzig, dass Logan in H2 ankommen soll ist neu, aber nun auch nicht wirklich überraschend. Du solltest nicht die fertigstellung von T4i mit dem auftauchen der Produkte gleichsetzen. Nv hat meine ich auch schon gesagt, dass die Validierung, wahrscheinlich wegen des integrierten Modems, ziemlich lange dauert.

Ist mir alles bewusst, nur fliegt mir komischerweise bei jeder Tegra relevanten Aussage Staub ins Auge wenn es zu NV kommt. Der Punkt hier ist eigentlich dass NV seit der T4/4i Ankuendigung nur einen Haufen Scheiss erzaehlt; Fudo meldete als erster dass T4 Probleme hat; nach NV hatte er damals die Quartale verwechselt. Wochen spaeter kam dann irgendwann der vorige link wo angeblich T4i vorgezogen wurde und dafuer T4 etwas verspaetet.

Ich bin eben nicht ueberzeugt dass alles mit T4 auf hw Ebene gestimmt hat bei der ersten hw revision und ich bin noch weniger ueberzeugt dass T4i zeitlich ankommen wird, egal mit welchen albernen Entschuldigungen dann NV es wieder unter den Teppich kehrt.

Logan ist natuerlich zu erwarten fuer H2 da eben das hoechstwahrscheinliche 20nm dafuer nie wirklich Sinn gemacht haben; aber es ist eben doch so dass NV jegliche Tegra relevante Projektion von Anfang voll eingehalten hat :rolleyes: Gab es ueberhaupt einen SoC der sich NICHT verspaetet hat?

Skysnake
2013-06-07, 21:55:27
Wie zum Henker soll man bei dem Quark den Ueberblick behalten? T4 kommt spaeter, nein Missverstaendnis mit Quartalen kommt zeitgemaess; stop. Nein T4 kommt spaeter denn es wurde T4i vorgezogen; stop. T4i kommt jetzt doch erst Anfang 2014, weil sie gerade erst herausgefunen haben dass Bananen komischerweise krumm sind; stop.

Das einzige was ich wirklich an NV's relevantem Mist glauben kann, ist dass Logan eben NICHT Anfang 2014 antanzen wird. Mit dem ganzen hin und her dann wohl Ende 2014 um auf Nummer sicher zu gehen :rolleyes:
Ja langsam wird echt lächerlich....

Ich frag mich allerdings echt, warum die Hersteller sich von nVidia überhaupt noch so verschauckeln lassen. An so was unzuverlässiges wie nVidia in letzter Zeit bzgl Tegra kann ich mich nicht erinnern, geschweige denn die letzten Jahre.

Die verkacken sichs doch bei den SFF Herstellern total. Bei denen ist time-to-market ziemlich wichtig, weil die Entwicklung eben noch mit 7-Meilenstiefeln erfolgt.

Ailuros
2013-06-10, 20:03:38
Den Tag wuerde ich gerne sehen wo ein Partner wie Asus jemand wie NV den Mittelfinger zeigen wuerde ;) NV hat jahrelange gute Beziehungen zu etlichen OEMs.

Sonst bedeutet im guten Ganzen jegliche Verspaetung eben weniger Chancen fuer potentielle deals. Der Google Nexus 7 Nachfolger ist eben so wie es aussieht im Eimer. Das sollte aber auch keinen beinflussen denn nach einigen NV Juengern hat Tegra4 qualitative design wins erreicht oder einfacher Qualitaet vor Quantitaet :freak:

Hugo78
2013-06-10, 21:51:31
Mädels das ist hier nicht SA oder Computerbild.
Was soll dieser permanente Troll-Still?

Natürlich geht NV ihr Tegra Projekt nur halbherzig an will man ggü. Qualcomm, Intel, Mediatek ect. anstinken.
Und Tegra 4 ist nur Platzhalter, bis endlich GPGPU fähige Grafikkerne verbaut sind mit Tegra 5.
Aber Nvidias Strategie in diesem Markt kann auch garnicht die "Alltime Leadership-Position" sein, dafür sind "die Anderen" viel zu groß und NV zuklein.

Apple und Samsung streichen (gefühlt) 90% der Gewinne im Handy und Tabletmarkt ein,
"der Rest" welcher auch kein unbedeutender ist, will irgendeinen Fuß in die Tür bekommen.
Qualcomm & Mediatek hat ihn, Intel wird ihn bald haben.

Was bleibt sind Nieschen und hier wäre Tegra 4 eigentlich ne perfekte Wahl für Nokias Foto-Handy-Strategie,
nur leider hat Qualcomm hier schon "den Fuß in der Tür" und Win Phone 8 kann bisher nur mit zwei ARM-Kernen umgehen.

Skysnake
2013-06-10, 22:57:12
Ja, aber warum! machen Sie dann überhaupt etwas, wenn Sie eh nur halbherzig dabei sind?

Und vor allem, welche Perspektive gibts denn? Die anderen schlafen ja auch nicht.

AffenJack
2013-06-10, 23:29:26
Damit sie schlicht und einfach Erfahrung sammeln im SoC-Design sammeln. Das große Ziel und Projekt was klappen muss ist nunmal Projekt Denver. Selbst wenn man im Moment nen Haufen versemmelt, sollte man daraus für die Zukunft lernen. Das ist die Perspektive. Im Moment erstmal bei den Herstellern etwas bekannt machen, da man selbst mit nem Topprodukt von 0 auf 100 keine allzu großen Chancen hat.

Es würde mich nicht wundern, wenn nen großer Anteil der Gelder die in die Tegraabteilung versenkt wurden gar nicht der Tegraentwicklung bisher zugeflossen ist, sondern Projekt Denver. Sich erstmal das Knowhow aneignen um eigene Customchips zu baun dürfte nicht ganz trivial sein.
Intel hat mit Larrabee ja auch Ewigkeiten gebraucht, bis sie was brauchbares zustande gekriegt haben und ne vollwertige Grafikkarte ists nichtmal geworden.

Heimatsuchender
2013-06-11, 00:04:34
Damit sie schlicht und einfach Erfahrung sammeln im SoC-Design sammeln. Das große Ziel und Projekt was klappen muss ist nunmal Projekt Denver. Selbst wenn man im Moment nen Haufen versemmelt, sollte man daraus für die Zukunft lernen. Das ist die Perspektive. Im Moment erstmal bei den Herstellern etwas bekannt machen, da man selbst mit nem Topprodukt von 0 auf 100 keine allzu großen Chancen hat.

Es würde mich nicht wundern, wenn nen großer Anteil der Gelder die in die Tegraabteilung versenkt wurden gar nicht der Tegraentwicklung bisher zugeflossen ist, sondern Projekt Denver. Sich erstmal das Knowhow aneignen um eigene Customchips zu baun dürfte nicht ganz trivial sein.
Intel hat mit Larrabee ja auch Ewigkeiten gebraucht, bis sie was brauchbares zustande gekriegt haben und ne vollwertige Grafikkarte ists nichtmal geworden.


Jetzt mal eine Frage von mir als Laie. Was bringt es, sich bei den Herstellern bekannt zu machen, aber nie in vernünftiger Stückzahl zu liefern? Viele Hersteller haben "Supertolle" Tablets mit Tegra 4 angekündigt. Aber: Kaufen kann man kurzfristig nichts. HP erstmal nur in den USA (in geringen Mengen), Asus, Toshiba usw. erst gegen Ende des Jahres. Das gleiche Spiel, wie beim Tegra 3.

Warum sollten die Hersteller zukünftig auf NVidia setzen? Asus und Co sind dem Shitstorm der potenziellen Käufer ausgeliefert. Den Käufer interessiert nicht, warum das "Supertolle" Tegra 4 - Tablet nicht lieferbar ist. Er schimpft weltweit in den Foren über die Hersteller und sucht sich was anderes.

Also: Warum sollten die Hersteller in Zukunft nicht andere Wege gehen? Warum soll man auf NVidia warten?



tobife

AffenJack
2013-06-11, 08:18:52
Weil das ganze wovon du redest mit Tegra an sich nicht viel zutun hat? Firmen wie Asus sind eh weniger die, die ich meine, weil man mit denen eh schon lange zutun hat. Eher die Smartphonehersteller, auch wenn man kaum Phones mit Tegras gehabt hat. Ich glaube nicht, dass T4 Lieferengpässe haben wird. Hohe Stückzahlen braucht man ja nicht gerade bei dem riesen "Verkaufserfolg".
Es ist aber doch Sache der Hersteller wann sie ein Tablet ankündigen und wann veröffentlichen. Wenn Nv zu spät kommt, kann der Hersteller einfach auf Quallcomm oder so wechseln und gut ist. Die Hersteller dürften die ersten sein, die von Verspätungen von Nvs Seite bescheid wissen. Vor Start des Tablets gibts ja eh ne Validiierungsphase für die der Nvchip schon fertiggestellt sein muss. Man hat sich als Hersteller sowieso mehrere Angebote eingeholt und wenns bei dem einen Schwierigkeiten gibt, steigt man halt auf den Zweitbieter um. Solange die Verspätung nicht eintritt, wenn schon mit dem fertigen Chip getestet wird, ist das alles noch halb so schlimm.

mboeller
2013-06-11, 09:44:14
Natürlich geht NV ihr Tegra Projekt nur halbherzig an will man ggü. Qualcomm, Intel, Mediatek ect. anstinken.

Aber Nvidias Strategie in diesem Markt kann auch garnicht die "Alltime Leadership-Position" sein, dafür sind "die Anderen" viel zu groß und NV zuklein.

Ich glaube du verkennst die Fakten.

Mediatek ist zB. viel kleiner als Nvidia. Trotzdem sind sie inzwischen "groß" was die Stückzahlen angeht und sie werden noch dieses Jahr ein SoC "MT8135" mit 4x A15 + 4x A7 + Rogue-Grafik am Start haben (und bei Mediatek haben die Einführungstermine bisher immer gestimmt).

Link: http://research.maybank-ib.com/pdf/documentrg/MediaTek_280513_2338.pdf (siehe Umsatzzahlen auf Seite 1)

....und Nvidia schafft es nicht mit dieser "Winz-Firma" mitzuhalten. :freak:

Deshalb eben das Trollen gegen Nvidia. Die brauchen mal ein wenig Raketentreibstoff im Axxx damit sie "ein wenig" aus den Puschen kommen.

Hugo78
2013-06-11, 11:58:33
Ich glaube du verkennst die Fakten.

Mediatek ist zB. viel kleiner als Nvidia.

Bei Mediatek arbeiten ~ 4300 Leute und bedienen ebend nur die mobile Sparte.

Dein Beispiel für ihr big.LITTLE ist dabei auch nebensächlich, weils nicht ihr Zielmarkt ist.
Im High End bekommt auch Mediatek kein Fuß in die Tür, wenn es gegen Qualcomm, aber vorallem gegen Samsung und Apple geht.
Mediatek verkauft aktuell in Masse sehr günstige A7 Quads für Einsteiger Handys. Der Bereich darüber wird dann wieder von Qualcomm bedient.

zb.
http://www.zopo.de
http://geizhals.de/acer-liquid-e2-duo-schwarz-a938364.html
http://telefon.schottenland.de/preisvergleich/Mobistel-Cynus-T5-MT-9201-p21731066

Dural
2013-06-11, 12:21:47
T3 soll Lieferschwierigkeiten gehabt haben?
T3 war ca. ein halbes Jahr früher auf dem Markt als jeder andere Quad A9 SoC :rolleyes:

T3 steckte letztes Jahr in erstaunlich vielen Geräten, das Problem liegt bei T4 der anscheinend nicht lieferbar ist wie so auch immer, T3 lief sehr gut.


und wie ich schon gesagt habe, der T4i hat bis jetzt keine verzögerung, nur weil ihr nicht fähig sind von auslieferung / verfügbaren geräten im laden zu unterscheiden kann NV auch nichts dafür... :rolleyes:

Edit:
übrigens, wie viele Quad Core A15 SoC gibt es aktuell am markt zu kaufen?!?

Skysnake
2013-06-11, 17:54:01
Weil das ganze wovon du redest mit Tegra an sich nicht viel zutun hat? Firmen wie Asus sind eh weniger die, die ich meine, weil man mit denen eh schon lange zutun hat. Eher die Smartphonehersteller, auch wenn man kaum Phones mit Tegras gehabt hat. Ich glaube nicht, dass T4 Lieferengpässe haben wird. Hohe Stückzahlen braucht man ja nicht gerade bei dem riesen "Verkaufserfolg".
Es ist aber doch Sache der Hersteller wann sie ein Tablet ankündigen und wann veröffentlichen. Wenn Nv zu spät kommt, kann der Hersteller einfach auf Quallcomm oder so wechseln und gut ist. Die Hersteller dürften die ersten sein, die von Verspätungen von Nvs Seite bescheid wissen. Vor Start des Tablets gibts ja eh ne Validiierungsphase für die der Nvchip schon fertiggestellt sein muss. Man hat sich als Hersteller sowieso mehrere Angebote eingeholt und wenns bei dem einen Schwierigkeiten gibt, steigt man halt auf den Zweitbieter um. Solange die Verspätung nicht eintritt, wenn schon mit dem fertigen Chip getestet wird, ist das alles noch halb so schlimm.
Ähm... :ugly:

Ich glaub du verkennst da etwas...

Wenn einer keine Chips liefern kann, dann hast du als Hersteller verschissen, und imense Kosten auf denen du sitzen bleibst.

Das Board usw usw was designt werden muss, kannst du ja nicht mehr verwenden, weil die Dinger ja nicht pinkompatibel sind... Und die ganze Komponenten hast du ja schon geordert. So was musst du ja lange im Voraus planen, sonst wird das meist nichts in ausreichenden Stückzahlen.

nVidia sollte also lieber gar nichts bringen, als so nen Mist wie aktuell mit Tegra 4(i) zu machen, denn damit verkrault man sich nur die Kunden und ruiniert seinen Ruf. Der ist nämlich durch den Desktop und Profi-GPU Markt ziemlich gut. Aktuell versuchen Sie diesen Ruf im SFF-Markt mit voller Kraft voraus zu ruinieren.

mboeller
2013-06-11, 19:15:38
Bei Mediatek arbeiten ~ 4300 Leute und bedienen ebend nur die mobile Sparte.



Upps...

Du hast Recht, Mediatek ist keine Winz-Firma. Ich hätte mich nicht auf die Infos in dem PDF verlassen sollen. :(

Mediatek hat laut wikipedia ca. 4300 Leute und ca. US$ 2,9 Mrd Umsatz (2010/2011)
Nvidia hat laut wikipedia ca. 7000 Leute und ca. US$ 4 Mrd Umsatz (2011/2011)

http://en.wikipedia.org/wiki/MediaTek
http://de.wikipedia.org/wiki/Nvidia

Mancko
2013-06-11, 22:37:20
Upps...

Du hast Recht, Mediatek ist keine Winz-Firma. Ich hätte mich nicht auf die Infos in dem PDF verlassen sollen. :(

Mediatek hat laut wikipedia ca. 4300 Leute und ca. US$ 2,9 Mrd Umsatz (2010/2011)
Nvidia hat laut wikipedia ca. 7000 Leute und ca. US$ 4 Mrd Umsatz (2011/2011)

http://en.wikipedia.org/wiki/MediaTek
http://de.wikipedia.org/wiki/Nvidia

In Nvidia's Tegra Sparte dürfte aber nur ein Bruchteil der 7.000 Leute arbeiten. Der Großteil wird im Consumer und Professional GPU Geschäft sitzen.

Hugo78
2013-06-11, 23:41:16
Zumal sich die Mitarbeiterzahl erst in den letzten ca. 2 Jahren verdoppelt hat, vorher hatte man immer so um die 3500.

@Skysnake

Wo steht eigentlich das Nvidia nicht liefern kann?

Skysnake
2013-06-12, 09:00:48
Wie soll man die ganzen "Ja..., Nein..., Doch..., Oh...."-Angaben bzgl Lieferbarkeit/Launch sonst verstehen?

Hugo78
2013-06-12, 10:01:15
Links zu konkreten Aussagen seitens Nvidia bitte, ... or it never happend.

Skysnake
2013-06-12, 10:12:49
äh...

Du willst mich jetzt gerade veräppeln oder? :ugly:

Geh einfach die letzten ~20-50 Seiten zurück, dann siehte genug von dem rumgeeiere um T4(i).

Über was reden wir hier denn die letzten Seiten :ugly:

Hugo78
2013-06-12, 10:14:22
Nicht mal ein kleiner Link?
Nicht mal einer??!!

Skysnake
2013-06-12, 10:21:13
Wie zum Henker soll man bei dem Quark den Ueberblick behalten? T4 kommt spaeter, nein Missverstaendnis mit Quartalen kommt zeitgemaess; stop. Nein T4 kommt spaeter denn es wurde T4i vorgezogen; stop. T4i kommt jetzt doch erst Anfang 2014, weil sie gerade erst herausgefunen haben dass Bananen komischerweise krumm sind; stop.

Das einzige was ich wirklich an NV's relevantem Mist glauben kann, ist dass Logan eben NICHT Anfang 2014 antanzen wird. Mit dem ganzen hin und her dann wohl Ende 2014 um auf Nummer sicher zu gehen :rolleyes:
EINE OMFG EINE! Seite zurückblättern, und du willst nen link....

Zumal du die Diskussion verfolgst....

Sorry, aber ich komme mir gerade ECHT von dir getrollt vor. :|

Ailuros
2013-06-12, 10:48:56
Damit sie schlicht und einfach Erfahrung sammeln im SoC-Design sammeln. Das große Ziel und Projekt was klappen muss ist nunmal Projekt Denver. Selbst wenn man im Moment nen Haufen versemmelt, sollte man daraus für die Zukunft lernen. Das ist die Perspektive. Im Moment erstmal bei den Herstellern etwas bekannt machen, da man selbst mit nem Topprodukt von 0 auf 100 keine allzu großen Chancen hat.

Es würde mich nicht wundern, wenn nen großer Anteil der Gelder die in die Tegraabteilung versenkt wurden gar nicht der Tegraentwicklung bisher zugeflossen ist, sondern Projekt Denver. Sich erstmal das Knowhow aneignen um eigene Customchips zu baun dürfte nicht ganz trivial sein.
Intel hat mit Larrabee ja auch Ewigkeiten gebraucht, bis sie was brauchbares zustande gekriegt haben und ne vollwertige Grafikkarte ists nichtmal geworden.

Denver ist ein kompliziertes Ei. Sie haben zumindest 2x Mal afaik von einer tabula rasa dafuer angefangen und das mit den resourcen ist verdammt kompliziert da es eigentlich die GPU hw engineers sind die daran herumfuchteln; ergo wohl unmoeglich irgendwelche Kosten einzuschaetzen da die Anzahl der engineers ueber die vergangenen Jahre auch nie konstant war.

T3 soll Lieferschwierigkeiten gehabt haben?
T3 war ca. ein halbes Jahr früher auf dem Markt als jeder andere Quad A9 SoC :rolleyes:

T3 steckte letztes Jahr in erstaunlich vielen Geräten, das Problem liegt bei T4 der anscheinend nicht lieferbar ist wie so auch immer, T3 lief sehr gut.

Der letzte Standpunkt war dass das Nexus7 um die 60% vom T3 Verkaufsvolumen darstellte; was bekommst Du mit 6 Mio Nexus 7 Geraeten?

und wie ich schon gesagt habe, der T4i hat bis jetzt keine verzögerung, nur weil ihr nicht fähig sind von auslieferung / verfügbaren geräten im laden zu unterscheiden kann NV auch nichts dafür... :rolleyes:

Den Satz verstehst wohl nur Du.

Edit:
übrigens, wie viele Quad Core A15 SoC gibt es aktuell am markt zu kaufen?!?

Exynos5410 hat 4*A15 Kerne; zwar nur schaetzungsweise um die 10-20% vom gesamten GalaxyS4 bulk aber trotzdem moeglicherweise von 1 bis 2 Mio Geraeten weltweit. Bis alle T4 Geraete erstmal die 1Mio erreichen muessen erstmal die ersten tablets kommerziell erhaeltlich sein und man braucht eben dann wohl auch zumindest 2 Hersteller um die Anzahl zu erreichen.

Ähm... :ugly:

Ich glaub du verkennst da etwas...

Wenn einer keine Chips liefern kann, dann hast du als Hersteller verschissen, und imense Kosten auf denen du sitzen bleibst.

Das Board usw usw was designt werden muss, kannst du ja nicht mehr verwenden, weil die Dinger ja nicht pinkompatibel sind... Und die ganze Komponenten hast du ja schon geordert. So was musst du ja lange im Voraus planen, sonst wird das meist nichts in ausreichenden Stückzahlen.

nVidia sollte also lieber gar nichts bringen, als so nen Mist wie aktuell mit Tegra 4(i) zu machen, denn damit verkrault man sich nur die Kunden und ruiniert seinen Ruf. Der ist nämlich durch den Desktop und Profi-GPU Markt ziemlich gut. Aktuell versuchen Sie diesen Ruf im SFF-Markt mit voller Kraft voraus zu ruinieren.

NV hat nie und nirgends irgendwelche fette wafer Kapazitaeten bei TSMC vorgebucht und es wird sich auch nichts voruebergehend daran aendern. Das Nexus7 war im letzten Jahr fuer Asus supply constrained und Asus hoffte dass sie innerhalb 2012 bis zu 6 Mio tablets davon verkaufen koennen. Ende Januar 2013 wurde die Anzahl erreicht wenn ich mich nicht irre. Einen Gewinn machte davon NV sowieso nicht.

So oder so muss NV im Markt anwesend sein; vom hypothetischen Nexus7 Nachfolger haetten sie hoechstwahrscheinlich auch keinen Gewinn gemacht, aber sie haetten ihre Technologie in nochmal etlichen Millionen Geraeten integriert gesehen.

Google weiss wie die Geschichte aussieht seit langem und Google ist auch nicht gerade die Firma die es gern hat Referenz-Designs stets nur einem SoC Hersteller zu "schenken" und schon gar nicht in der Reihe. Diese Runde ist einfach QCOM dran, bei der naechsten weiss der Geier wer.

Summa summarum: das was NV moeglicherweise an Kapazitaeten fuer SoCs vorgebucht hat, koennen sie locker fuer T4i SoCs benutzen und im letzteren Fall lohnt es sich auch zich Male mehr da der SoC auch um ~25% kleiner ist als T4.

Hugo78
2013-06-12, 19:04:54
EINE OMFG EINE! Seite zurückblättern, und du willst nen link....

Zumal du die Diskussion verfolgst....

Sorry, aber ich komme mir gerade ECHT von dir getrollt vor. :|

Einen Link mit einem Statment direkt von NV am wann sie liefern und ihrer Einschätzung wann Geräte verfügbar sind.
Nicht Hörensagen, Gerüchte oder anderen Bullshit.

Ailuros
2013-06-13, 09:52:48
Einen Link mit einem Statment direkt von NV am wann sie liefern und ihrer Einschätzung wann Geräte verfügbar sind.
Nicht Hörensagen, Gerüchte oder anderen Bullshit.

Euer hin und her muesst Ihr beiden wohl privat loesen, aber ich geh jetzt nicht nochmal ein paar Seiten zurueck wo fudzilla anfangs behauptete dass sich T4 um ein Quartal verspaeten wird (ergo Q2 13'), darauf prompt NVIDIA durch Anand Lai Shimpi antwortete dass es sich um ein Missverstaendnis handelt und "andere Seiten" die Quartale mit NV's Quartalen verwechselt hat, nur dass NV vor kurzem selber am Ende klarstellt dass sie T4 um ein Quartal verspaetet haben um T4i Vorrang zu geben.

Falls das gemeint ist, ist es durchaus verlinkbar und man kann alles hier im thread auf vorigen Seiten finden.

Hugo78
2013-06-13, 12:26:09
Q2 als Auslieferungszeitraum war von Nvidia nie anders kommuniziert worden.

Anandtech 12. Februar 2013:
Last night NVIDIA's CEO, Jen-Hsun Huang, stated that shipments of its Tegra 4 SoC to customers would begin in Q2. A few outlets incorrectly assumed this meant Q2 of NVIDIA's fiscal year,
but I just confirmed with NVIDIA that Jen-Hsun was referring to calendar Q2 - in other words, the period of time between April and June 2013.
- http://www.anandtech.com/show/6746/tegra-4-shipment-date-still-q2-2013

Wir haben jetzt Juni, die ersten Geräte sind in den letzten zwei Wochen angekündigt worden und man braucht mindestens ein Quartal bis Hersteller mit Geräten erscheinen.
HP sagt sie kommen im August.

Also ich kann hier kein Hin und Her seitens Nvidia entdecken.

Ailuros
2013-06-13, 12:49:45
Mit dem klitzekleinen Unterschied dass unter "few leaflets" Fudzilla gemeint war die als erste berichteten dass T4 um ein Quartal verschoben wurde. Daemlicherweise existiert der relevante Fudzilla link nicht mehr.

April 2012 fudzilla:

http://www.fudzilla.com/home/item/26682-nvidia-tegra-4-wayne-soc-models-leaked-arriving-2013

Es hat sich wohl keiner vorgestellt dass T4 verschoben wurde; es wahr anfangs eine Vorstellung in 2012 geplant und erste moegliche Geraete Q1 2013. Dass ich das Q1 2013 (eben dank den 28nm Problemen) schon damals nicht glauben wollte kannst Du ebenfalls nachschlagen.

Dass in den neuesten newsblurbs Logan um ein Halbjar verschoben wurde fuer seine Projektion (nicht wirkliche Vorstellung) ist Euch wohl auch ueber den Kopf geflogen; drei Mal darfst Du raten ob der Herstellungsprozess hier wieder eine Rolle spielen koennte.

Zwischen dem Scheiss den Jensen erzaehlt wenn der Tag lang ist und der eigentlichen Realitaet gibt es so manche Unterschiede. Man darf natuerlich glauben was man will, aber wenn man so naiv ist und den Quark als Gegenbeispiel falsch reinliesst: http://www.fudzilla.com/home/item/31678-huang-talks-up-shield-car-infotainment koennte man schnell glauben dass die angeblichen 100Mio auch wirlich real sind oder dass er nicht rein zufaellig ein Haufen Mist erzaehlt damit Analysten etwas zum kauen haben.

Kommt eben drauf an am Ende wie parallel man in einem diagonalen Universum parken kann.

Hugo78
2013-06-13, 13:43:12
Das Produkte über ein, zwei Jahr(e) später nachdem man Roadmap XY rumgezeigt hatte, sich um ein Quartal verschieben ist völlig normal.
Insbesondere wenn, wie du schon richtig sagst, man den Herstellungsprozess nicht in der Hand hat.

Bei der Vorstellung von Tegra 4 dann aber, gab es einen Zeitraum, Q2 ebend,
der immernoch aktuell ist und offensichtlich auch eingehalten wird.

Und über Logan gibt es auch nur Gerüchte, Hörensagen, FUD ebend.
Da muss man nicht immer gleich den Teufel an die Wand malen.


Als Vergleich:

Qualcomms S800 wird auch erst seit kurzem ausgeliefert, obwohl man den Chip ebendfalls auf der CES 2013 vorgestellt hat.
Und die Kapazitäten sind bei Qualcomm größer, sowohl in Bezug auf Herstellung als auch Manpower.
S600 ist ja nur ein Refresh des S4 Pro...

Ailuros
2013-06-13, 14:04:40
Das Produkte über ein, zwei Jahr(e) später nachdem man Roadmap XY rumgezeigt hatte, sich um ein Quartal verschieben ist völlig normal.

Nochmal damit Du es endlich schnallst: Fudo berichtete im Februar 2013 dass sich T4 um ein Quartal verspaeten wird; NV reagiert am naechsten Tag durch Anand mit dem von Dir besorgten Link womit NV elegant erklaert dass die "anderen" die Quartale verwechselt haben, wobei Fudo seine originale Behauptung NIE zurueckgezogen hat sondern auch in ein paar anderen spaeteren newsblurbs spaets das "verspaetete" T4 erwaehnte. Es ist nicht allzu lange her dass Fudo einen weiteren newsblurb veroeffentlichte worin NV erklaerte dass sie T4 mit Absicht VERSPAETET haben damit T4i frueher an die Leine kommen kann.


Insbesondere wenn, wie du schon richtig sagst, man den Herstellungsprozess nicht in der Hand hat.

Gleiches gilt aber auch fuer Logan; mehr weiter unten.

Bei der Vorstellung von Tegra 4 dann aber, gab es einen Zeitraum, Q2 ebend,
der immernoch aktuell ist und offensichtlich auch eingehalten wird.

Waehrend NVIDIA selber zugibt dass sie mit "Absicht" T4 verspaetet haben? Dass was NV, Anand und co unter den Teppich kehren wollen ist das was Fudo anfangs behauptete dass das originale T4 Silizium eben nicht produktionsreif war. Ja natuerlich Geruechte und FUD eben weil es eben nicht rein zufaellig in jedermans Vorstellung passt.

Und über Logan gibt es auch nur Gerüchte, Hörensagen, FUD ebend.
Da muss man nicht immer gleich den Teufel an die Wand malen.

Bevor Du so leicht zu FUD greifst um NV um jeden Preis zu verteidigen waere es vielleicht angebrachter nachzuforschen fuer welches Halbjahr NVIDIA offiziel anfangs Logan projeziert hatte.


Als Vergleich:

Qualcomms S800 wird auch erst seit kurzem ausgeliefert, obwohl man den Chip ebendfalls auf der CES 2013 vorgestellt hat.
Und die Kapazitäten sind bei Qualcomm größer, sowohl in Bezug auf Herstellung als auch Manpower.
S600 ist ja nur ein Refresh des S4 Pro...

In Suedkorea wird es bald S800-er in GalaxyS4 smartphones zum kaufen geben. In solchen Massen darf ich fuer den gleichen Zeitraum genau was von T4 SoCs erwarten?

Hugo78
2013-06-13, 21:27:11
Nochmal damit Du es endlich schnallst: Fudo berichtete im Februar 2013 dass sich T4 um ein Quartal verspaeten wird;
Ja Fudzilla dachte Tegra 4 kommt noch in Q1.
... fudzilla anfangs behauptete dass sich T4 um ein Quartal verspaeten wird (ergo Q2 13'),

Nur hatte Nvidia nie von Q1 geredet,
Last night NVIDIA's CEO, Jen-Hsun Huang, stated that shipments of its Tegra 4 SoC to customers would begin in Q2. A few outlets incorrectly assumed this meant Q2 of NVIDIA's fiscal year, but I just confirmed with NVIDIA that Jen-Hsun was referring to calendar Q2 - in other words, the period of time between April and June 2013.

http://www.anandtech.com/show/6746/tegra-4-shipment-date-still-q2-2013


Waehrend NVIDIA selber zugibt dass sie mit "Absicht" T4 verspaetet haben?

Laut Fudzilla hat Jensen das gesagt, aber sie haben nie mit ihm geredet, dass ist dann wieder Hörensagen.
Und mit etwas Medienkompetenz anno 2013, nimmt man so eine Meldung zur Kenntnis, bis hier eine Bestätigung erfolgt.

Es ist ohnehin Unsinn, Tegra 4 ist fertig, da kann man nichts mehr "Hinten an stellen", um die Entwickelung von Tegra 4i zu beschleunigen.
Allein ein Produktionsengpass, wenn dann beide SoCs schon verfügbar wären und man dann T4i mehr Volumen einräumt, wäre denkbar.
Aber das ist nicht der Fall.


In Suedkorea wird es bald S800-er in GalaxyS4 smartphones zum kaufen geben. In solchen Massen darf ich fuer den gleichen Zeitraum genau was von T4 SoCs erwarten?

Für Handys wird es keine Massen geben, weil das iModem fehlt, da liefert Qualcomm das deutlich bessere Paket.
Aber darum ging es in meinem Bespiel auch garnicht, es ging um den Vergleich, wie lange ein neues Design von der Vorstellung bis zur Auslieferung braucht.

Nightspider
2013-06-13, 22:15:46
Sry für OT aber ist der S800 nicht auch nur ein Refresh (vom S600) vom Refresh (S4)?

Gab es die letzten Wochen nochmal Benchmarks bezüglich Leistung zwischen S4<>S600<>S800<>Tegra4 ?

dildo4u
2013-06-13, 22:21:22
Nein die Architektur wird verbessert.

http://www.linleygroup.com/newsletters/newsletter_detail.php?num=4920

Ailuros
2013-06-14, 10:24:42
Ja Fudzilla dachte Tegra 4 kommt noch in Q1.


Nur hatte Nvidia nie von Q1 geredet,

http://www.anandtech.com/show/6746/tegra-4-shipment-date-still-q2-2013

Zu dem Zeitpunkt sicher.


Laut Fudzilla hat Jensen das gesagt, aber sie haben nie mit ihm geredet, dass ist dann wieder Hörensagen.
Und mit etwas Medienkompetenz anno 2013, nimmt man so eine Meldung zur Kenntnis, bis hier eine Bestätigung erfolgt.

Es ist ohnehin Unsinn, Tegra 4 ist fertig, da kann man nichts mehr "Hinten an stellen", um die Entwickelung von Tegra 4i zu beschleunigen.
Allein ein Produktionsengpass, wenn dann beide SoCs schon verfügbar wären und man dann T4i mehr Volumen einräumt, wäre denkbar.
Aber das ist nicht der Fall.

Fudo hat den metal spin den T4 brauchte sicher nicht erfunden.

Für Handys wird es keine Massen geben, weil das iModem fehlt, da liefert Qualcomm das deutlich bessere Paket.
Aber darum ging es in meinem Bespiel auch garnicht, es ging um den Vergleich, wie lange ein neues Design von der Vorstellung bis zur Auslieferung braucht.

Der Punkt war und ist dass in der breitesten Mehrzahl der Faelle wenn QCOM N angibt dann wird es auch eingehalten und diese Puenktlichkeit bzw. Zuverlaessigkeit wissen Qualcomm's Partner auch zu ehren. Aber ist dann eben auch so dass QCOM keine Seifenblasen in die Augen von Analysten pusten muss, eben weil sie so oder so einer der wenigen semi Hersteller sind die so radikal dazuwachsen in letzten Jahren.

Nein die Architektur wird verbessert.

http://www.linleygroup.com/newsletters/newsletter_detail.php?num=4920

Neben den java relevanten Optimierungen fuer die CPU steigt die Frequenz auf 2.3GHz und die GPU hat auch ein paar Aenderungen und faengt bei 450MHz an. Nach geleakten Resultaten duerfte S800 um ~20% schneller sein als Shield in GLB2.7.

Hugo78
2013-06-15, 09:21:09
Tegra 4 im Prototyp des Project M.O.J.O von Mad Catz.
http://www.mobilegeeks.de/project-m-o-j-o-mad-catz-stellt-eigene-android-konsole-vor/

Skysnake
2013-06-15, 11:34:23
Die wievielste Android Konsole wird das jetzt? :ugly:

Die Dritte oder die Vierte?

Da muss sich nVidia aber sehr lang machen mit Shield... Aber wenigstens setzen Sie dann chips ab, egal welche von den Dingern verkauft wird.

fondness
2013-06-15, 11:38:52
Ich finde es seltsam das dort überhaupt überall ein Tegar 4 drinnen steckt. Immerhin ist gerade die GPU dort alles andere als besonders und Featuremäßig abgeschlagen. Aber vermutlich wird sich NV entsprechend um diese Projekte bemühen, nachdem man bei den großen Konsolen nicht vertreten ist.

Skysnake
2013-06-15, 11:48:09
Bei der einen, die über Kickstarter lief, sind Sie ja eingestiegen, wenn ich es richtig in Erinnerung habe.

Nakai
2013-06-15, 15:19:43
Der Tegra 4i ist ja ganz interessant, nur der extrem rückständige Grafikprozessor ist echt ein Unding. Nvidia hat wirklich eigentlich fast alles richtig gemacht. Mit zwei SOCs deckt man endlich einen größeren Markt ab und kann gezielter auf Produkte eingehen. Die einzigen zwei Probleme sind die Verspätungen und die miese GPU. T4 war ursprünglich für Ende 2012 angesetzt, jetzt kommt das Ding ein Jahr später. Ich sehe nur für den T4i einen Markt. Der Standard T4 ist dank fetter(stromhungriger) A15-Kernen, rückständiger Grafik und externem Modem nicht für Smartphones geeignet. Selbst für Tablets sehe ich da kaum einen Anwendungsbereich.

Ich sags eigentlich ungern, aber Qualcomm hat den Markt vollständig im Griff. Wenn T4 kommt, ist der S600 schon etwa ein Jahr auf den Markt und es kommt ja noch S800.

Bis zum T5(mit neuer GPU) sehe ich kaum Land für Nvidia. Sie werden dennoch ihre Deals machen.

Nightspider
2013-06-15, 15:33:38
Nein die Architektur wird verbessert.

http://www.linleygroup.com/newsletters/newsletter_detail.php?num=4920

Dein Link bezieht sich ja nur auf den Krait 300 und damit auf den S600.

Hast du noch einen Link zum Krait 400, welcher im S800 steckt?

Nach geleakten Resultaten duerfte S800 um ~20% schneller sein als Shield in GLB2.7.

Was nach derzeitigem Stand wieviel % über S4, S600, iP5 und iPad 4 liegt?

Ailuros
2013-06-15, 15:47:43
Was nach derzeitigem Stand wieviel % über S4, S600, iP5 und iPad 4 liegt?

GLB2.7
Shield (T4) = 18.3 fps
HP Slatebook (T4) = 17.1 fps
Galaxy S4 (S600 OC) = 17.1 fps
Google Nexus4 (S600) = 14.2 fps
iPad4 (A6X) = 16.8 fps

S800 geleakte Resultate = ~22.0 fps

Nightspider
2013-06-15, 16:05:57
Thx. Ich hätte jetzt gedacht, dass das iPad4 noch ca. 20-30% schneller ist als S600 im GS4.
Und beim S800 hätte ich noch einen etwas größeren Sprung erwartet. Genauso dachte ich T4 wäre deutlich schneller als S600 im Galaxy S4.

Skysnake
2013-06-15, 16:11:48
Nein leider nicht.

nVidia hat einfach ihre Hausaufgaben nicht gemacht, bzw einfach zu wenig Entwickler an Tegra dran. Die können halt auch nicht Zaubern...

Ailuros
2013-06-16, 09:36:34
Thx. Ich hätte jetzt gedacht, dass das iPad4 noch ca. 20-30% schneller ist als S600 im GS4.
Und beim S800 hätte ich noch einen etwas größeren Sprung erwartet. Genauso dachte ich T4 wäre deutlich schneller als S600 im Galaxy S4.

T4 ist schon schneller wenn es zur CPU kommt, aber dafuer ist es auch ein tablet design und bei vollen Frequenzen mit fast doppelt so grossem TDP als das S4 smartphone.

Undertaker
2013-06-16, 11:21:11
Bei welchen Frequenzen ganz konkret? Der Exynos 5410 muss bei 1,6 GHz wohl in einem ähnlichen TDP-Bereich wie der S600 bei 1,9 GHz liegen. Das die Cortex-A15-Kerne ihren Verbrauch bei 1,6 GHz (Exynos) -> 1,9 GHz (T4) glatt verdoppeln, erscheint mir überzogen. Bleibt noch die GPU, aber wie man an obigen Werten sieht, ist die Leistungsdifferenz (und damit wohl auch der Verbrauchsunterschied) nicht besonders groß. Big-Little ist wiederum für die TDP irrelevant. Erleuchte mich. :confused:

Edit: Oder hält der 5410 seine 1,6 GHz im S4 unter Last sowieso nicht? Das könnte natürlich eine deutlich höhere TDP eines nicht-throttelnden Tablet-T4 bei 1,9 GHz erklären.

Ailuros
2013-06-16, 14:57:40
Bei welchen Frequenzen ganz konkret? Der Exynos 5410 muss bei 1,6 GHz wohl in einem ähnlichen TDP-Bereich wie der S600 bei 1,9 GHz liegen.

Weiss der Geier was genau am 5410 k.o. ist dass eigentlich nur ca. 10-20% von den S4s davon bestueckt werden. Vorsicht ich hab oben KEINE 5410 Leistung erwaehnt ergo geht es die ganze Zeit um den S600 OC.

Das die Cortex-A15-Kerne ihren Verbrauch bei 1,6 GHz (Exynos) -> 1,9 GHz (T4) glatt verdoppeln, erscheint mir überzogen. Bleibt noch die GPU, aber wie man an obigen Werten sieht, ist die Leistungsdifferenz (und damit wohl auch der Verbrauchsunterschied) nicht besonders groß. Big-Little ist wiederum für die TDP irrelevant. Erleuchte mich. :confused:

Der TDP fuer T4 soll bei voller Frequenz nach NV bei 5W liegen ja oder nein? Bei 5 liegt das S600/S4 erstmal nicht.

Edit: Oder hält der 5410 seine 1,6 GHz im S4 unter Last sowieso nicht? Das könnte natürlich eine deutlich höhere TDP eines nicht-throttelnden Tablet-T4 bei 1,9 GHz erklären.

Ich hab zwar keine TDP Daten fuer das S600/S4 aber es wuerde mich verdammt ueberraschen wenn es insgesamt mehr als 3W waeren.

Sonst fuer Deine 5410 spezifische Frage es will ja keiner von Euch verdauen wie oft ein big.LITTLE SoC wie dieser seine Zeit eigentlich im LITTLE modus verbringt; reicht eine IHV neutrale Entwickler Aussage dafuer? http://forum.beyond3d.com/showpost.php?p=1754699&postcount=318

....und natuerlich auch relevant fuer den Unsinn wie laecherlich schwach A7 cores bei gleicher Frequenz mit A9 cores sein sollen, was ich auch hier lesen musste in anderen threads.

Uebrigens liegt in GLB2.7 (siehe Resultate in meinem vorigen Post) fuer den 544MP3@533MHz im 5410 bei 12.6 fps.

Avalox
2013-06-16, 20:22:26
http://img.talkandroid.com/uploads/2013/06/ZTE-N988S.png


Wohl der erste Benchmark des Tegra 4i. hier bei 1,8GHz in AnTuTu

http://www.talkandroid.com/165571-zte-u988s-with-1-8ghz-tegra-4i-processor-and-android-4-2-2-gets-benchmarked/

Undertaker
2013-06-16, 21:00:04
Vorsicht ich hab oben KEINE 5410 Leistung erwaehnt ergo geht es die ganze Zeit um den S600 OC.

Ich glaube du hast die Intention meines Ansatzes übersehen. ;) Es ging mir darum, dass der 5410 im gleichen Umfeld (= Galaxy S4) wie der 1,9 GHz S600 verbaut wird und demzufolge eine ähnliche TDP besitzen dürfte. Ich kann mir nun wiederum nicht vorstellen, dass der mit 1,6 GHz taktende 5410 den halben Verbrauch eines 1,9 GHz taktenden T4 besitzen soll. (Edit: Und um das nochmal klarzustellen: Verbrauch meint hier TDP/Maximalverbrauch, also nix mit BigLittle.) Ergo: 1,9 GHz T4 = doppelter Verbrauch eines 1,9 GHz S600?

http://img.talkandroid.com/uploads/2013/06/ZTE-N988S.png


Wohl der erste Benchmark des Tegra 4i. hier bei 1,8GHz in AnTuTu

http://www.talkandroid.com/165571-zte-u988s-with-1-8ghz-tegra-4i-processor-and-android-4-2-2-gets-benchmarked/

~25% über einem HTC One oder S4. Für die Taktrate: :O

Ailuros
2013-06-17, 12:27:19
Ich glaube du hast die Intention meines Ansatzes übersehen. ;) Es ging mir darum, dass der 5410 im gleichen Umfeld (= Galaxy S4) wie der 1,9 GHz S600 verbaut wird und demzufolge eine ähnliche TDP besitzen dürfte. Ich kann mir nun wiederum nicht vorstellen, dass der mit 1,6 GHz taktende 5410 den halben Verbrauch eines 1,9 GHz taktenden T4 besitzen soll. (Edit: Und um das nochmal klarzustellen: Verbrauch meint hier TDP/Maximalverbrauch, also nix mit BigLittle.) Ergo: 1,9 GHz T4 = doppelter Verbrauch eines 1,9 GHz S600?

LOL scheint als hab ich im Hinterkopf "SDP" schon bevor Intel erfunden.

Generell gilt aber folgendes "mantra" fuer alle Hersteller und nicht nur fuer Qualcomm:

The 2.5 to 3W envelope for phones and 5W for tablets is the inherent limitation of passively cooled mobile devices. Anything more than that would have to include an active cooling system, something that is next to impossible to implement in a mobile phone.

http://www.fudzilla.com/home/item/31532-qualcomm-aims-at-25-to-3w-tdp-for-phones

Wenn ich den Wirrwarr im obrigen Artikel richtig interpretiere rechnet QCOM eher mit 45C maximalen Temperaturen fuer den gesamten SoC welches aber wohl trotz allem in die SDP als TDP Region. Und unter dieser Logik war auch mein voriger Post gemeint obwohl "TDP" leider generell verwechselt wird fuer SFF mobile.

~25% über einem HTC One oder S4. Für die Taktrate: :O

Werd ich jetzt gelyncht wenn ich sage dass Antutu generell zu den nutzlosen synthetischen benchmarks gehoert?

Dural
2013-06-18, 12:30:43
Nein leider nicht.

nVidia hat einfach ihre Hausaufgaben nicht gemacht, bzw einfach zu wenig Entwickler an Tegra dran. Die können halt auch nicht Zaubern...

Schon mal daran gedacht das es zeitlich im T4 für einen Kepler Grafik Core zu früh war?

Oder das der Kepler Core für den Tegra zwingend in 20nm kommen muss weil er sonst zu gross wird?


Und ganz ehrlich glaube ich nicht das NV in dem bereich zu wenig Entwickler angestellt hat, es ist ja durch aus bekannt das NV in diesem bereich seit Jahren aufstockt.. Viel mehr geht man den Wirtschaftlich einfachsten Weg in den man den alten Grafik Core künstlich in die länge zieht.

Sollte es NV gelingen die Vorzüge des Desktop Kepler mit in den Tegra zu nehmen, sehe ich NV für 2014 extrem gut aufgestellt.

Ailuros
2013-06-18, 12:41:39
Schon mal daran gedacht das es zeitlich im T4 für einen Kepler Grafik Core zu früh war?

Wenn's ueberhaupt ein Kepler core wird und nicht irgend ein spezial angepasster Kepler Ableger ist, wobei man wohl beim letzten ziemlich grosszuegig sein muss. USC ALUs und somit GPGPU Faehigkeiten gibt es in NV's desktop GPUs schon seit G80/Ende 2006; wieso muss man fuer die eher triviale Integrierung gerade auf Kepler warten?

Oder das der Kepler Core für den Tegra zwingend in 20nm kommen muss weil er sonst zu gross wird?

Wie gesagt kommt drauf an ob Kepler oder ~ "Kepler" ;) Sonst macht natuerlich 20LP mehr Sinn fuer das was NV vorhat, aber es haette auch seit Jahren unter 90nm nichts gegen einen G8x/9x Ableger in ULP GF Format gesprochen.

Und ganz ehrlich glaube ich nicht das NV in dem bereich zu wenig Entwickler angestellt hat, es ist ja durch aus bekannt das NV in diesem bereich seit Jahren aufstockt.. Viel mehr geht man den Wirtschaftlich einfachsten Weg in den man den alten Grafik Core künstlich in die länge zieht.

Ich hab den Paragraphen zwar 3x Mal durchgelesen, aber ich kann nicht sagen dass ich Dich verstanden habe.

Sollte es NV gelingen die Vorzüge des Desktop Kepler mit in den Tegra zu nehmen, sehe ich NV für 2014 extrem gut aufgestellt.

Nebenbei dass es nach wie vor bei ~"Kepler" bleibt, ist wohl NV noch nicht in der Position Wucherpreise fuer ihre jeglichen SoCs zu verlangen :D

Hugo78
2013-06-18, 13:30:23
SC ALUs und somit GPGPU Faehigkeiten gibt es in NV's desktop GPUs schon seit G80/Ende 2006; wieso muss man fuer die eher triviale Integrierung gerade auf Kepler warten?

Skalierung nach "untern hin", war nicht die Stärke der älteren Geforcedesigns.

fondness
2013-06-18, 13:31:18
Skalierung nach "untern hin", war nicht die Stärke der älteren Geforcedesigns.

Wohl eher war die Perf/Watt und Perf/mm² schlecht. Nicht gerade tolle Voraussetzungen für eine ultra-mobile-Chip.

Ailuros
2013-06-18, 13:49:21
Skalierung nach "untern hin", war nicht die Stärke der älteren Geforcedesigns.

Und wer versichert dass es auch heute mit Kepler nicht genau gleich ist? Du oder jeglicher anderer werdet es verdammt schwer haben mich zu ueberzeugen dass man einen high end design auf SFF Nivaeu so einfach skalieren kann oder auch anders rum von SFF Nivaeu auf high end. Es gibt erstmal Welten an Latenz-Unterschieden zwischen den beiden Welten und eben weil Stromverbrauch das A und O im SFF Markt ist wird es immer und ueberall zu tradeoffs kommen.

Es wird z.B. immer und in allen SFF GPU Faellen eine gewissen Koppelung zwischen ALUs und TMUs geben; allein schon die Tatsache schmeisst JEDE relevante Loesung automatisch in <G80 Region. Dann kann Dir jede Marketing-Abteilung gleich kunterbunt erzaehlen dass sie eine XBox360 GPU, einen Kepler oder weiss der Geier was noch in ein smartphone SoC integriert haben.

Die ULP GF von Tegra1 bis 4 mit relativ kleinen Aenderungen ist direkt mit keinen der GeForce desktop Architekturen verwandt. Keine dieser hatte je FP20 PS ALUs und keine dieser programmable blending. Unter der gleichen Logik duerfte auch die Logan GPU ein spezial angepasstes "Ultra Low Power" GeForce Tier sein wie in allen anderen Tegra Vorgaengern.

Ein direkter Kepler cluster waere verheerend was den Stromverbrauch betrifft egal ob 20nm oder sogar kleiner; was willst Du ueberhaupt mit 16 TMUs pro cluster genau anstellen u.a.?


***edit: uebrigens http://www.anandtech.com/show/7080/nvidia-isc-2013-cuda-55-more

Hugo78
2013-06-18, 16:50:47
Wohl eher war die Perf/Watt und Perf/mm² schlecht. Nicht gerade tolle Voraussetzungen für eine ultra-mobile-Chip.

Perf./mm^2 ist natürlich der zweite Punkt, bei dem breiten Hotclock Design der letzten Jahre.
Wobei das nicht in Stein gemeisselt wäre, hier hätte man sicher reduzieren können, wenn nicht gar ganz drauf verzichten.
Bei Fermi hatte man ja schon den ALU takt nur noch auf 2x vom Basistakt, bei G80 war es ja 2,5-3x vom Basistakt.

@Ailuros
Ich wusste nicht, dass ich extra erwähnen muss, dass auch ein ULP Kepler, genau wie alle vorherigen ULP Geforces nicht 1:1 den Desktop-Aufbau entsprechen wird.
Natürlich wird er es nicht.

Aber es was man vom Desktop ableiten kann, ist das die kleineren Desktop-Kelper sich markant besser schlagen, als das noch bei Fermi, GT200 und/oder G80/G92 der Fall war.

Ailuros
2013-06-18, 21:40:36
Perf./mm^2 ist natürlich der zweite Punkt, bei dem breiten Hotclock Design der letzten Jahre.
Wobei das nicht in Stein gemeisselt wäre, hier hätte man sicher reduzieren können, wenn nicht gar ganz drauf verzichten.
Bei Fermi hatte man ja schon den ALU takt nur noch auf 2x vom Basistakt, bei G80 war es ja 2,5-3x vom Basistakt.

Fermi kam auf 2x weil es allen das Leben leichter machte; eben weil hotclocks zu viel Strom verbrauchen sind sie unter normalen Umstaenden eine bescheuerte Idee fuer SFF mobile. Variable Frequenzen mit kleineren Unterschieden werden dann schon benutzt ausserhalb von NV; Vivante z.B. taktet ihre ALUs auf ihren GPUs auch etwas hoeher als der Rest des chips. Das "etwas" ist nur so klein, dass man es wohl nicht mit "hotclocking" im desktop vergleichen kann.

@Ailuros
Ich wusste nicht, dass ich extra erwähnen muss, dass auch ein ULP Kepler, genau wie alle vorherigen ULP Geforces nicht 1:1 den Desktop-Aufbau entsprechen wird.
Natürlich wird er es nicht.

Dann verfolg nochmal Deine eigene Logik und erklaer mir warum man 20nm oder einen jeglichen Kepler Ableger gebraucht haette fuer eine featuremaessig staerekere GPU genau? Um es klarer zu machen Tegra4 ist DX9L1; zwischen diesem und der Moeglichkeit dass Logan DX11 sein koennte liegen dann schon zumindest 2 volle GPU Generationen.

Tegra GPUs werden von Grund auf entwickelt und der Grund warum CUDA so lange auf sich warten liess waren fehlende resources im Tegra GPU team.

Aber es was man vom Desktop ableiten kann, ist das die kleineren Desktop-Kelper sich markant besser schlagen, als das noch bei Fermi, GT200 und/oder G80/G92 der Fall war.

Soll ich wie verstehen? Schlag mal cross-API GPU benchmarks nach und vergleich mal wie sich die Tegra3 und Tegra4 GPU in diesen gegen vorige Generation's integrierte PC GPUs schlagen und Du wirst wohl ueberrascht sein. In GLB2.7/DX2.7 ist Shield auf Gleichstand mit dem GF710M (GF117): http://gfxbench.com/compare.jsp?D1=Acer+Aspire+V5-471G+%28NVIDIA+GeForce+710M%29&D2=NVidia+Shield&cols=2

-------------------------------------------------------------------------------------------------------------------------------------

Wenn NVIDIA bessere perf/mW im SFF erreichen will ist die Antwort ziemlich einfach: designs die mehr in die Breite gehen anstatt auf zu hohe Frequenzen zu setzen. Dazu braucht man keinen Kepler Ableger. ULP GF/T4 taktet auf 672MHz unter 28nm waehrend der oben erwaehnte GF117@28nm auf 800MHz (keine hotclocks) taktet. Generell setzt NV bisher mit GPU Frequenzen Rekorde im Vergleich zur Konkurrenz.

iPad4/554MP4 = 280MHz
Galaxy S4 Adreno320 = 450MHz
Nexus4 Adreno320 = 400MHz
Nexus10 Mali T604 = 533MHz

Hugo78
2013-06-18, 23:15:19
Soll ich wie verstehen?

Raff könnte dir das sicherlich besser darstellen, aber kurz die kleineren Geforceableger, lagen vor Kepler immer unter ihren rechnerischen Möglichkeiten.
Die Perf./Watt verschlechterte sich im Verhältniss zu ihren großen Brüdern.
Bei AMD gabs das so nicht, im Gegenteil, da skalierte das Design im High End Bereich nicht mehr so gut, wie im eigenen Einsteiger und Mittelklassesegment.

Edit: Aus AwesomeSauces Link, nach mir.
Through our efforts designing Tegra into mobile devices, we’ve gained valuable experience designing for the smallest power envelopes.
As a result, Kepler can operate in a half-watt power envelope, making it scalable from smartphones to supercomputers.

AwesomeSauce
2013-06-19, 01:04:33
Nvidia lizensiert Kepler basierte GPU-IP (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9812443#post9812443)

Könnte sehr interessant werden für Intel...

Skysnake
2013-06-19, 01:11:07
Äh ficken? :ugly:

Kling ja ziemlich abenteuerlich, da müssten Sie nämlich KOMPLETT! von ihrem propritären Trip runter kommen :ugly:

Kann ich mir irgendwie nur schwer vorstellen.

Mancko
2013-06-19, 08:53:20
Äh ficken? :ugly:

Kling ja ziemlich abenteuerlich, da müssten Sie nämlich KOMPLETT! von ihrem propritären Trip runter kommen :ugly:

Kann ich mir irgendwie nur schwer vorstellen.

Den Zusammenhang verstehe ich nicht. Wieso müssen sie das? Sie müssen nicht jedem eine Lizenz geben und über die Gestaltung der Lizensierungsbedingungen wird in dem Blog auch nichts gesagt. Auch da gibt es genügend Stellschrauben - z.B. Lizensieren für Tablets und Smartphones ja - für PCs nein.

boxleitnerb
2013-06-19, 09:03:43
Sehe ich auch so. Man kann so möglicherweise für eine weitere Verbreitung von CUDA und PhysX sorgen :D
Das kommt dann auch den eigenen Tegra-SoCs zugute.

Dural
2013-06-19, 09:13:23
eher für Apple oder Samsung. logischer schritt seitens NV, den mit ihren SoC würden sie nie in diese Geräte kommen.

Intel dürfte dazu zu stolz sein.

Hugo78
2013-06-19, 10:44:03
Intel dürfte dazu zu stolz sein.

Zu stolz warum?

Ailuros
2013-06-19, 11:58:54
Raff könnte dir das sicherlich besser darstellen, aber kurz die kleineren Geforceableger, lagen vor Kepler immer unter ihren rechnerischen Möglichkeiten.

Nochmal T4 liegt ohnehin teilweise schon auf GF117/28nm Nivaeu; es ist zwar nur ein Fermi aber es hat auch keinen hotclock und schon gar nicht irgend eine extravagante Frequenz.

Die Perf./Watt verschlechterte sich im Verhältniss zu ihren großen Brüdern.
Bei AMD gabs das so nicht, im Gegenteil, da skalierte das Design im High End Bereich nicht mehr so gut, wie im eigenen Einsteiger und Mittelklassesegment.

Edit: Aus AwesomeSauces Link, nach mir.

Marketing bei jedem IHV behauptet so manchen Scheiss wenn der Tag lang ist. Tut mir leid aber es soll mir was genau sagen?

AnarchX
2013-06-19, 12:03:43
GF117 hat keinen Hot-Clock? Quelle dazu?

Ailuros
2013-06-19, 12:05:37
Zu stolz warum?

Eben; Intel benutzt ohnehin schon IMG GPU IP fuer SFF mobile. Ob die eine oder andere Lizenz ist gleichgueltig.

Sonst muesst Ihr NV Juenger mir jetzt mal erstmal erklaeren warum die Oeffnung ab T5 auch GPU IP zu verkaufen kein Verzweiflungsakt ist am Ende. Es war ja bisher alles was NV auftischt die absolute Eulogie und sie hatten wohl bisher die absolut blendenste aller Zukunft. Leuchtet es irgend jemand ein dass der Umsatz damit fuer SFF sofort im Arsch ist? IMG verkauft im Durchschnitt GPU IP bei ~30 cents; bei 100 Millionen integrierter GPU IP sind es gerade 30 Mio Umsatz :freak:

Sonst muss sich IMG natuerlich stark ueber die Schulter glotzen in absehbarer Zukunft, denn GPU IP von NV ist kein Witz mehr.

GF117 hat keinen Hot-Clock? Quelle dazu?

Der 117 auf dessen Resultate ich verlinkte hat afaik 800 core und 800MHz ALUs.

Undertaker
2013-06-19, 12:07:20
Nochmal T4 liegt ohnehin teilweise schon auf GF117/28nm Nivaeu

Dafür müsste man aber schon extremes Cherry-Picking betreiben. GF117 erreicht im 3DMark Ice Storm etwa 60k Punkte und ist womöglich schon CPU-limitiert, eine Adreno 320 liegt bei etwas über 10k. Ähnliche Unterschiede haben wir von der Größenordnung auch im GL/DX-Benchmark 2.7.

Keine aktuelle Smartphone- oder Tablet-GPU einschließlich dürfte im Schnitt auch nur auf 25% der 3D-Leistung eines GF117 kommen. Da liegen noch immer Größenordnungen dazwischen.


Der 117 auf dessen Resultate ich verlinkte hat afaik 800 core und 800MHz ALUs.

GF117 ist Fermi und hat Hot-Clock.

Nightspider
2013-06-19, 12:08:20
Kann Intel die Kepler GPU lizensieren und in die eigenen Prozessoren stecken?

YfOrU
2013-06-19, 12:12:40
Kann Intel die Kepler GPU lizensieren und in die eigenen Prozessoren stecken?

Theoretisch ja aber das wird nicht passieren. Erstens steckt Intel massig Ressourcen in die eigene GPU Sparte und zweitens würde man sich bei Preis und Bedingungen nie einig werden.

AnarchX
2013-06-19, 12:12:59
Kann Intel die Kepler GPU lizensieren und in die eigenen Prozessoren stecken?
Warum nicht? Ist wohl eher eine Frage der Konditionen, ob es sich für Intel lohnen würde. Und die wird NV wohl so gestalten, dass es keine Nachteile für sie selbst gibt.

Ailuros
2013-06-19, 12:15:32
Dafür müsste man aber schon extremes Cherry-Picking betreiben. GF117 erreicht im 3DMark Ice Storm etwa 60k Punkte und ist womöglich schon CPU-limitiert, eine Adreno 320 liegt bei etwas über 10k. Ähnliche Unterschiede haben wir von der Größenordnung auch im GL/DX-Benchmark 2.7.

Was zum Henker hat jetzt Adreno320 damit zu tun? Ich hab einen direkten Vergleichslink zwischen 710M und Shield gepostet fuer GLB2.7.

GF117 ist Fermi und hat Hot-Clock.

http://gfxbench.com/compare.jsp?D1=Acer+Aspire+V5-471G+%28NVIDIA+GeForce+710M%29&D2=NVidia+Shield&cols=2

Nochmal ich lass mich gerne korrigieren, aber in der Zwischenzeit setzt Euch ausnahmsweise hin und erklaert mir den obrigen Link, denn 710M steht afaik fuer GF117.

No shit sherlock dass es Fermi ist; sonst steht "F" im Codenamen fuer was genau?

Undertaker
2013-06-19, 12:24:48
Was zum Henker hat jetzt Adreno320 damit zu tun? Ich hab einen direkten Vergleichslink zwischen 710M und Shield gepostet fuer GLB2.7.

Ich denke du kannst das Leistungsverhältnis von Adreno 320 und T4 einschätzen und weißt, dass da nicht Faktor 6 dazwischen liegt. :)

http://gfxbench.com/compare.jsp?D1=Acer+Aspire+V5-471G+%28NVIDIA+GeForce+710M%29&D2=NVidia+Shield&cols=2

Keine Ahnung was da zusammengebencht wurde. Es gibt genügend Benches vom 3DMark und GLBench mit diversen ARM und Notebook-GPUs, anhand derer man die Leistung sehr gut einschätzen kann. Selbst die schnellste ARM-Modelle sind noch weit hinter der HD 4000, die wiederum weit hinter dem GF117 liegt.

http://www.anandtech.com/show/6875/3dmark-for-android-performance-preview

Edit: Und ich liefer dir sogar noch einen Link auf der gleichen Seite mit der HD 4000:

http://gfxbench.com/compare.jsp?cols=3&D1=Acer+Aspire+V5-471G+%28NVIDIA+GeForce+710M%29&D2=NVidia+Shield&D3=Acer+Aspire+V5-571P+%28Intel+HD+4000%29

Spätestens jetzt sollte klar sein, dass die 710M-Werte dort Unfug sind. Verlass dich mal nicht immer auf solche Datenbankwerte ohne jegliche Nachvollziehbarkeit.

No shit sherlock dass es Fermi ist

Na dann sollte ja jetzt alles klar sein. GF117 = Fermi = Hot-Clock. Das stand sicherlich auch irgendwo in den NV-Papers zur GT 620M, die ich jetzt allerdings nicht mehr zur Hand habe. Ist auch gar nicht nötig, dafür reicht ein Leistungsvergleich mit GF108.

Nightspider
2013-06-19, 12:40:03
Theoretisch ja aber das wird nicht passieren. Erstens steckt Intel massig Ressourcen in die eigene GPU Sparte und zweitens würde man sich bei Preis und Bedingungen nie einig werden.

Intel kann doch die GPU zerlegen und sich Wissen daraus aneignen, quasi vereinfachtes Reverse-Engineering ohne illegal zu werden.

fondness
2013-06-19, 12:42:58
Sonst muesst Ihr NV Juenger mir jetzt mal erstmal erklaeren warum die Oeffnung ab T5 auch GPU IP zu verkaufen kein Verzweiflungsakt ist am Ende. Es war ja bisher alles was NV auftischt die absolute Eulogie und sie hatten wohl bisher die absolut blendenste aller Zukunft. Leuchtet es irgend jemand ein dass der Umsatz damit fuer SFF sofort im Arsch ist? IMG verkauft im Durchschnitt GPU IP bei ~30 cents; bei 100 Millionen integrierter GPU IP sind es gerade 30 Mio Umsatz :freak:


Natürlich ist es eine Verzweiflungstat weil man es kaum schafft Marktanteile zu erreichen. Das ganze Tegra-Zone-Zeug und CUDA nützt nichts wenn man keine Marktanteile hat. Die custom-CPU-Entwicklung dürfte wohl einige Probleme bereiten und mehrmals verschoben worden sein, vor 2015 wird kein Denver kommen. Die Frage ist wie viel Zukunft die eigenen SoCs dann noch haben, wenn man die GPU-IP auch so deutlich billiger lizenzieren kann. Einen fertigen ARM-Core dann noch auf einen SoCs klatschen ist keine große Kunst mehr. Die GPU wäre das, wo sich NV positiv von den Mitbewerbern abheben hätte können, bei den custom-CPUs wird man gegen Qualcomm, Apple, Samsung, Intel kaum eine Chance haben.

Skysnake
2013-06-19, 12:45:56
Eben; Intel benutzt ohnehin schon IMG GPU IP fuer SFF mobile. Ob die eine oder andere Lizenz ist gleichgueltig.

Im Prinzip schon, die Frage ist nur, würde Intel von nVidia den gleichen Einblick in die Technik bekommen?

Zudem gibt es mit nVidia GPU IP das Problem, dass das CUDA ist, was propritär ist, woran Intel also nichts drehen kann, also insbesondere Sachen wie ZeroCopy usw usw usw nicht implementieren kann. Insbesondere bei der CUDA-Spezifikation müssten Sie mitreden können, und das wird nVidia nicht machen. Da könnten Sie sich gleich einfach von Intel kaufen lassen :freak:


Sonst muesst Ihr NV Juenger mir jetzt mal erstmal erklaeren warum die Oeffnung ab T5 auch GPU IP zu verkaufen kein Verzweiflungsakt ist am Ende. Es war ja bisher alles was NV auftischt die absolute Eulogie und sie hatten wohl bisher die absolut blendenste aller Zukunft. Leuchtet es irgend jemand ein dass der Umsatz damit fuer SFF sofort im Arsch ist? IMG verkauft im Durchschnitt GPU IP bei ~30 cents; bei 100 Millionen integrierter GPU IP sind es gerade 30 Mio Umsatz :freak:

Ja, daran musste ich auch SOFORT denken. nVidia sägt damit an dem Ast, auf dem Sie selbst sitzen. Denn am Ende kauft Samsung/Apple ihre IP zum Spotpreis, und dann kann nVidia ihre eigenen Chips gleich komplett einstampfen. Die geben damit ihren einzigen Trumpf, ihre GPU-Technologie aus der Hand.

Das ist mehr oder weniger eigentlich der erklärte Ausstieg aus der Produktion von eigenen SFF-Chips.


Sonst muss sich IMG natuerlich stark ueber die Schulter glotzen in absehbarer Zukunft, denn GPU IP von NV ist kein Witz mehr.

Ja definitiv, aber da gehört halt auch noch mehr dazu, als der IP-Block an sich. Man muss auch support liefern, wie man das dann mit dem Produkt des Kunden optimal verzahnt, und Treibersupport usw usw.

Gerade damit hat sich nVidia ja in den letzten Jahren NICHT mit Ruhm bekleckert... Ich sag nur nVidia und der geplatzte China deal, wo Sie sich wie der Elefant im Porzellanladen aufgeführt haben.

Theoretisch ja aber das wird nicht passieren. Erstens steckt Intel massig Ressourcen in die eigene GPU Sparte und zweitens würde man sich bei Preis und Bedingungen nie einig werden.
Wahrscheinlich.

nVidia müsste halt echt die Hosen runter lassen und könnte sich meiner Meinung nach auch einfach gleich kaufen lassen.

Für mich ist das mehr oder weniger eine Verzweiflungstat. Sie geben halt alles aus der Hand. Das ist z.B. ein fundamental anderer Ansatz, als das was AMD macht. Die bieten die Möglichkeit das Leute ihre IP-Blocks in deren APUs packen lassen. Da hat dann aber noch immer AMD den Finger drauf, und wenns nur wegen der x86-Lizenz ist. Sie kümmern sich um die Implementierung usw usw.

nVidia verkauft den IP-Block und das wars.

Nakai
2013-06-19, 13:07:57
Bevor NV irgendwelche IP verkaufen sollte, muss der Treiber-Support gravierend gesteigert werden. Nvidia ist im OpenCL-Bereich massiv im Nachteil. Nahezu jegliche GPU-IP in vielen SOCs ist da schon weiter. :freak:

NV muss erstmal von ihrem proprietären Ross runterkommen, dann sehen wir weiter.


mfg

Ailuros
2013-06-19, 13:11:19
Undertaker,

Rueckzug; Du hast recht.



Das ist mehr oder weniger eigentlich der erklärte Ausstieg aus der Produktion von eigenen SFF-Chips.

So sicher bin ich mir noch nicht darueber; die Frage wer zum Henker noch an Tegras interessiert sein koennte wenn man das eigentlich beste vom Hause (GPUs) einfach als IP schon lizenzieren kann und natuerlich frei anpassen in Groesse je nach Not.


Gerade damit hat sich nVidia ja in den letzten Jahren NICHT mit Ruhm bekleckert... Ich sag nur nVidia und der geplatzte China deal, wo Sie sich wie der Elefant im Porzellanladen aufgeführt haben.

Ist doch scheissegal; NV braucht nur einen grossen Deal um fuer IMG und/oder ARM ein Problem zu werden.


nVidia müsste halt echt die Hosen runter lassen und könnte sich meiner Meinung nach auch einfach gleich kaufen lassen.

Für mich ist das mehr oder weniger eine Verzweiflungstat. Sie geben halt alles aus der Hand. Das ist z.B. ein fundamental anderer Ansatz, als das was AMD macht. Die bieten die Möglichkeit das Leute ihre IP-Blocks in deren APUs packen lassen. Da hat dann aber noch immer AMD den Finger drauf, und wenns nur wegen der x86-Lizenz ist. Sie kümmern sich um die Implementierung usw usw.

nVidia verkauft den IP-Block und das wars.

Die Frage ist wie daemlich die Analysten genau sind und jeglichen Scheiss von NV weiterhin futtern werden; die Sache geht nicht gut und die Zukunft ist weiterhin fraglich.

Bevor NV irgendwelche IP verkaufen sollte, muss der Treiber-Support gravierend gesteigert werden. Nvidia ist im OpenCL-Bereich massiv im Nachteil. Nahezu jegliche GPU-IP in vielen SOCs ist da schon weiter. :freak:

NV muss erstmal von ihrem proprietären Ross runterkommen, dann sehen wir weiter.


mfg

Also wenn dass Dein einziger Kopfschmerz ist, laesst sich so etwas in Null komma nichts von jemand wie NV korrigieren. SFF mobile war fuer mobile uebrigens nie fuer CUDA geplant sondern eher fuer OpenCL, ergo wissen sie schon seit langem was wo und wieso genau reinpassen muss.

Skysnake
2013-06-19, 13:50:33
AIluros, aber warum sollte noch jemand die nVidia SOCs kaufen, wenn er auch nur den IP-Block haben kann, und dann eben das Produkt genau so bauen kann wie ER will.

Bzgl IMG/ARM

Ja, die müssen durchaus wachsam sein, da Sie die großen Mengen bei den kleinen Margen einfach brauchen, wenn da nen signifikanter Ruckgang da ist, ist man schnell in der Verlustzone...

Die Frage ist halt, kann und vor allem will! nVidia bei den Preisen mithalten???

Undertaker
2013-06-19, 14:00:14
AIluros, aber warum sollte noch jemand die nVidia SOCs kaufen, wenn er auch nur den IP-Block haben kann, und dann eben das Produkt genau so bauen kann wie ER will.

Das gilt vielleicht für Apple oder Samsung, die auch eigene SoCs entwickeln (und sowieso nicht gerade zum Kundenstamm von Tegra zählen). Der 0815 Smartphone- oder Tablet-Produzent hat keine eigenen Chipentwickler und ist deshalb weiter auf komplette SoCs angewiesen.

Ergo versucht man so den eigenen Absatzmarkt zu steigern: Wer aktuell schon komplette SoCs abnimmt wird auch weiterhin Tegras zur Auswahl haben, wer hingegen eigene SoCs entwickelt soll die IP dafür zukünftig nicht nur von IMG & Co., sondern eben auch Nvidia erwerben können.

Skysnake
2013-06-19, 14:10:51
Mal an Mediatek usw gedacht?

Die machen nVidia dann mit ihren eigenen iGPUs platt :ugly:

Du darfst hier nicht vergessen, das andere Unternehmen einfach VIEL VIEL VIEL größere Stückahlen absetzen. Da kann nVidia kaum gegen anstinken mit dem Preis. Wenn muss man das mit Features usw. Genau das gibt man aber damit aus der Hand.

Ailuros
2013-06-19, 14:16:00
Das gilt vielleicht für Apple oder Samsung, die auch eigene SoCs entwickeln (und sowieso nicht gerade zum Kundenstamm von Tegra zählen). Der 0815 Smartphone- oder Tablet-Produzent hat keine eigenen Chipentwickler und ist deshalb weiter auf komplette SoCs angewiesen.

Nur sind deals wie mit Apple und Samsung so gross in Volumen dass SoC Entwicklung bzw. Herstellung sich erst wirklich lohnt; wenn jetzt ein 0815 Hersteller im besten Fall eine Mio SoCs haben will soll es sich wieso genau lohnen?

Ergo versucht man so den eigenen Absatzmarkt zu steigern: Wer aktuell schon komplette SoCs abnimmt wird auch weiterhin Tegras zur Auswahl haben, wer hingegen eigene SoCs entwickelt soll die IP dafür zukünftig nicht nur von IMG & Co., sondern eben auch Nvidia erwerben können.

Der bei weitem groesste Marktanteil benutzt IP (egal ob fuer CPU oder GPU); fuer die bisherigen sagen wir mal ca. 10Mio Tegras fuer tablets/smartphones ist es fraglich ob sich wirklich SoC Herstellung weiterhin lohnt. Und nein 100 kleine 0815 Hersteller kann man eben nicht so leicht finden dort draussen.

Mal an Mediatek usw gedacht?

Die machen nVidia dann mit ihren eigenen iGPUs platt :ugly:

Mediatek ist ein IMG Lizenznehmer; momentan haben ihre SoCs single SGX544 integriert und sie haben auch eine Rogue Lizenz. Von platt machen sehe ich nichts, denn Mediatek ist hauptsaechlich Billig-Mist; aber wenn dann erst wenn sie Rogue ausverkauft haben wenn ueberhaupt.

Du darfst hier nicht vergessen, das andere Unternehmen einfach VIEL VIEL VIEL größere Stückahlen absetzen. Da kann nVidia kaum gegen anstinken mit dem Preis. Wenn muss man das mit Features usw. Genau das gibt man aber damit aus der Hand.

Klar; die Chinesen haben laecherlich niedrige Margen selbst fuer GPU IP. Dafuer bekommt man selten mehr als 10-20 cents und schon das ist zu viel. Sie verkaufen ja jeglichen SoC meistens zwischen $2 und $5 je nachdem wie bescheiden er ist.

Skysnake
2013-06-19, 14:26:01
Klar, aber Sie haben halt DIE Masse.

nVidia muss halt schauen, wo Sie denn überhaupt ihre IP an den Mann bringen wollen.

Die ganzen Billigheimer kannste knicken, damit würde sich nVidia "verramschen" wie es so viele gern sagen.

Und bei den Premiumherstellern ist halt die Frage, ob die so einfach mal ihr iGPU-Konzept/Partner über Board werfen und auf nVidia umschwenken.

nVidia muss mir als IP-Kunden ja irgendwas bieten, was ich wo anders nicht habe, und bis auf den Namen seh ich da nicht sooooo viel. Zumindest nichts, was mich bei guten Geschätsbeziehungen zu meinem aktuellen IP-Lieferanten so einfach bewegen würde auf nVidia zu setzen.

nVidia ist halt in der Position jedes Neulings. Sie müssen MEHR bringen als die Konkurrenz, um sich Deals zu sichern.

Undertaker
2013-06-19, 14:55:34
Mal an Mediatek usw gedacht?

Die machen nVidia dann mit ihren eigenen iGPUs platt :ugly:

Du darfst hier nicht vergessen, das andere Unternehmen einfach VIEL VIEL VIEL größere Stückahlen absetzen. Da kann nVidia kaum gegen anstinken mit dem Preis. Wenn muss man das mit Features usw. Genau das gibt man aber damit aus der Hand.

Gerade ging es noch darum:

warum sollte noch jemand die nVidia SOCs kaufen, wenn er auch nur den IP-Block haben kann

Eine Diversifizierung auf IP und SoCs ist zunächst einmal eine sehr sinnvolle Sache, da beide Absatzmärkte nur bedingt miteinander konkurrieren.

Das angebotene SoCs und IP gleichermaßen mit Preis/Leistung punkten müssen, ist jetzt das nächste Thema. Bleiben wir mal bei einem kompletten Tegra 4: Qualcomms S800 für Tablets dürfte bei gut 25$ Kaufpreis liegen, ein S4 Pro müsste bei rund 15-18$ liegen. Wenn T4 jetzt eine ähnliche CPU-Performance und etwas weniger GPU-Leistung als der S800 bietet, wird das Teil für die Hersteller ab ~20-22$ interessant.

IP-Lizenzierungen sehe ich erstmal nur als Zusatzgeschäft. Bringt auch ein bisschen was in die Kasse und hilft damit, die Entwicklungskosten nicht nur über die Tegra-Verkäufe reinholen zu müssen.

Dural
2013-06-19, 14:57:01
ich sehe da kein problem, mit den lizenzen werden sie genau diese firmen holen die sehr wahrscheinlich nie gross in massen Tegra bestellen würden.

die aktuellen Tegra kunden werden weiterhin die SoC von NV beziehen.

fondness
2013-06-19, 15:00:22
Eine Diversifizierung auf IP und SoCs ist zunächst einmal eine sehr sinnvolle Sache, da beide Absatzmärkte nur bedingt miteinander konkurrieren.

Bedingt ist gut.


Das angebotene SoCs und IP gleichermaßen mit Preis/Leistung punkten müssen, ist jetzt das nächste Thema. Bleiben wir mal bei einem kompletten Tegra 4: Qualcomms S800 für Tablets dürfte bei gut 25$ Kaufpreis liegen, ein S4 Pro müsste bei rund 15-18$ liegen. Wenn T4 jetzt eine ähnliche CPU-Performance und etwas weniger GPU-Leistung als der S800 bietet, wird das Teil für die Hersteller ab ~20-22$ interessant.

Wenn man den Stromverbrauch ignoriert.


IP-Lizenzierungen sehe ich erstmal nur als Zusatzgeschäft. Bringt auch ein bisschen was in die Kasse und hilft damit, die Entwicklungskosten nicht nur über die Tegra-Verkäufe reinholen zu müssen.

Es bringt kaum etwas in die Kasse. Wenn dann macht es nur Sinn um die Marktdurchdringung zu verbessern. Dafür geht man allerdings ein hohes Risiko ein.

Undertaker
2013-06-19, 15:10:20
Bedingt ist gut.

Gar nicht wäre übertrieben. Aber abseits von Apple und Samsung kaufen die Gerätehersteller nunmal komplette SoCs und keine IP ein, ergo besteht da kaum Konkurrenz.

Wenn man den Stromverbrauch ignoriert.

Geschweige dessen, dass du oder ich Verbrauchswerte von den Tablet-Varianten von T4 und S800 kennen, ist das im dortigen Bereich ein vergleichsweise untergeordneter Punkt. Hauptverbraucher im Alltagsbetrieb ist das Display, ein Watt Mehrverbrauch fällt bei 20-30Wh-Akkus kaum ins Gewicht. Das kennen wir schon von T3.

Es bringt kaum etwas in die Kasse. Wenn dann macht es nur Sinn um die Marktdurchdringung zu verbessern. Dafür geht man allerdings ein hohes Risiko ein.

Nochmal: Als Zusatzgeschäft ist jeder einzelne $, der darüber zusätzlich eingenommen wird, ein Gewinn. Die IP ist ja quasi ein Abfallprodukt der ohnehin vorhandenen Tegra-Entwicklung. Die zusätzliche Marktdurchdringung ist da nur noch das Sahnehäubchen. Jegliches Risiko kann man darüber eliminieren, welche IP man da genau lizenziert. Wie wäre es z.B. mit Low-End- und Mittelklasse-GPUs, die von den darüber angesiedelten Tegra-Produkten ohnehin nicht bedient werden?

Ailuros
2013-06-19, 18:00:59
Gar nicht wäre übertrieben. Aber abseits von Apple und Samsung kaufen die Gerätehersteller nunmal komplette SoCs und keine IP ein, ergo besteht da kaum Konkurrenz.

Wie Arun@B3D schon sagte Samsung und Apple (Macs) waeren gute Kandidaten fuer GPU IP. Die Frage ist dann eher was Samsung bezahlen will oder was nicht, denn seit ARM Mali ist LSI diesbezueglich ziemlich zickig geworden.


Nochmal: Als Zusatzgeschäft ist jeder einzelne $, der darüber zusätzlich eingenommen wird, ein Gewinn.

Nein da hat fondness schon mehr oder weniger recht. IP Entwicklung ist weder ein "ein paar Monate" Prozess noch ist es am Ende um sooo viel billiger als chip-Entwicklung. Die Kosten sind hoch waehrend die Margen laecherlich klein sind, sonst wuerde IMG ein Schweinegeld verdienen. Die Finanzen vom letzten Jahr sind zwar noch nicht veroeffentlicht aber bei >500Mio chips Integrierung ist der Umsatz laecherlich klein.


Die IP ist ja quasi ein Abfallprodukt der ohnehin vorhandenen Tegra-Entwicklung.

Hoppla hat Euch irgend jemand erzaehlt dass IP providers nur die IP ausliefern und gut ist es? Uebrigens wird es eben KEIN Abfall-produkt sein wenn NV mit IP erfolgreich sein will. Eines der Pluspunkte ist Flexibilitaet fuer IP und wenn sie so etwas nicht haben sollten, wird auch nichts besonderes daraus. Wie stellst Du es Dir denn vor dass wenn man core X hat und diesen auf 2x oder 3x Mal so vier Leistung steigern will als Lizenznehmer einfach die IP durch ein copy/paste schmiert oder was?

Noch besser Lizenznehmer werden gar nicht unterstuetzt und werden nach der Lizenzierung im Stich gelassen oder?


Die zusätzliche Marktdurchdringung ist da nur noch das Sahnehäubchen. Jegliches Risiko kann man darüber eliminieren, welche IP man da genau lizenziert. Wie wäre es z.B. mit Low-End- und Mittelklasse-GPUs, die von den darüber angesiedelten Tegra-Produkten ohnehin nicht bedient werden?

Fuer jeglichen IP core ob groesser oder kleiner liegt normalerweise ca. 1 Jahr Entwicklungszeit drin.

Nakai
2013-06-19, 18:10:49
Also wenn dass Dein einziger Kopfschmerz ist, laesst sich so etwas in Null komma nichts von jemand wie NV korrigieren. SFF mobile war fuer mobile uebrigens nie fuer CUDA geplant sondern eher fuer OpenCL, ergo wissen sie schon seit langem was wo und wieso genau reinpassen muss.

Das wäre der Fall, wenn Nvidia jegliche Motivation dafür hätte. Nvidia will das aber bestimmt nicht, da sie dadurch ihre langjährige Abstinenz in vielen Bereichen zugeben müssten. Nvidia Politik ist hierbei eindeutig, man will Marktdurchdringung durch Marktpräzens erreichen. Ihre proprietäre Schnittstellen werden garantiert nicht aufgegeben, im Gegenteil.

Nvidias Marktstellung wurde doch eh schon dramatisch untergraben. Im Konsolenmarkt hat man nichts zu melden, im LowEnd-Markt grasen SOCs von Intel und AMD alles ab und im SFF-Bereich hat man nur mit Tegra ein halbes Standbein.

Nochmal: Als Zusatzgeschäft ist jeder einzelne $, der darüber zusätzlich eingenommen wird, ein Gewinn. Die IP ist ja quasi ein Abfallprodukt der ohnehin vorhandenen Tegra-Entwicklung. Die zusätzliche Marktdurchdringung ist da nur noch das Sahnehäubchen. Jegliches Risiko kann man darüber eliminieren, welche IP man da genau lizenziert. Wie wäre es z.B. mit Low-End- und Mittelklasse-GPUs, die von den darüber angesiedelten Tegra-Produkten ohnehin nicht bedient werden?

Full Ack! Ich sehe kaum Nachteile oder Risiken.

Nvidia will einerseits ihre bröckelnde Märkte auffangen und Marktdurchdringung erreichen.

€: Die Kosten sind hoch waehrend die Margen laecherlich klein sind, sonst wuerde IMG ein Schweinegeld verdienen. Die Finanzen vom letzten Jahr sind zwar noch nicht veroeffentlicht aber bei >500Mio chips Integrierung ist der Umsatz laecherlich klein.

Zum Glück ist Nvidia nicht IMG. NV wird schon höhere Margen haben.

Ailuros
2013-06-19, 18:16:24
Full Ack! Ich sehe kaum Nachteile oder Risiken.

Nvidia will einerseits ihre bröckelnde Märkte auffangen und Marktdurchdringung erreichen.

Lies mal meinen vorigen Beitrag vorsichtig durch. Es ist eben nicht alles so einfach wie es sich jeder vorstellt.


Zum Glück ist Nvidia nicht IMG. NV wird schon höhere Margen haben.

Ach ja und wieso denn genau? Oder glaubst Du vielleicht dass die semis alle daemlich sind und NV das bezahlen was sie haben wollen?

FYI NV bekam anfangs bei Nintendo nur ein Bein in die Tuer fuer das Nintendo 3DS (aus dem nichts wurde) als sie die Preise bis zur Laecherlichkeit reduzierten und IMG's japanischer Partner nicht sooo stark nach unten fallen wollte.

Nakai
2013-06-19, 18:25:36
Lies mal meinen vorigen Beitrag vorsichtig durch. Es ist eben nicht alles so einfach wie es sich jeder vorstellt.



Ach ja und wieso denn genau? Oder glaubst Du vielleicht dass die semis alle daemlich sind und NV das bezahlen was sie haben wollen?

FYI NV bekam anfangs bei Nintendo nur ein Bein in die Tuer fuer das Nintendo 3DS (aus dem nichts wurde) als sie die Preise bis zur Laecherlichkeit reduzierten und IMG's japanischer Partner nicht sooo stark nach unten fallen wollte.

Nein, NVidia kann ganz andere Möglichkeiten anbieten. HPC-SOCs, SOCs für Mittelständische Systeme und im professionellen Bereich, etc. Da könnte man niemals irgendwelche IP von Vivante, IMG, etc. verwenden. Kepler sprach explizit von der Kepler-Architektur. Schon allein deswegen sehe ich den Vergleich mit IMG einfach nicht als richtig an.

Und beim 3DS ist eine Pica-GPU(keine programmierbaren Shader) drin. Es gab zwar einen Tegra-Prototyp, aber der blieb ein Prototyp.

Ailuros
2013-06-19, 18:36:44
Nein, NVidia kann ganz andere Möglichkeiten anbieten. HPC-SOCs, SOCs für Mittelständische Systeme und im professionellen Bereich, etc. Da könnte man niemals irgendwelche IP von Vivante, IMG, etc. verwenden. Kepler sprach explizit von der Kepler-Architektur. Schon allein deswegen sehe ich den Vergleich mit IMG einfach nicht als richtig an.

Laeuft auf anderen Schienen; will ein Partner Kepler-M (oder weiss der Geier wie sie es nennen werden) haben fuer einen SFF mobile SoC oder hochkomplizierte IP fuer HPC Schleudern? Fuer den standalone GPU consumer Markt wird wohl keiner so daemlich sein etwas zu lizenzieren.

1. Im ersten Fall eine Antwort fuer AMD's Konsolen deals nur eben um ca. 3-4 Jahre zu spaet und es wird wohl auch einige Zeit dauern bis Konsolen zu neuer hw kommen.

2. HPC ja und? Man schmeisst ein paar Milliarden in Entwicklung fuer eine ultra komplizierte Architektur um sie fuer einen Bruchteil einer Tesla ie auch einen Bruchteil des Bruchteils von Gewinn einer solchen GPU zu verkaufen? Ein verdammt kluger Schachzug muss ich sagen.

3. SFF SoCs welches dann auch vergleichbares Material zu IMG's Krampf ist: beides wird bis zu DX11 faehig sein, ergo WTF is the big deal genau?

Und beim 3DS ist eine Pica-GPU(keine programmierbaren Shader) drin. Es gab zwar einen Tegra-Prototyp, aber der blieb ein Prototyp.

Den Rest der Geschichte willst Du sowieso nicht lesen. Off the record war BOM und Stromverbrauch ausserhalb von dem was Nintendo verlangt hatte. Und hier ist eben genau der Haken wo ein Jensen entweder seinen beschissenen Stolz schlucken muss oder ein interessierter Parnter wie Apple ihm einfach den Mittelfinger zeigt.

NV: wir haben die beste GPU IP fuer Euch fuer $N/IP core fuer einen multi license/multi year deal....
Apple: super....wir bezahlen Euch halb so viel, wir wollen Prioritaet fuer die Lizenzierung, einen Einfluss auf Eure roadmap, wir werden unsere GPU Treiber selber entwickeln und....
NV: fuck off!

[/end of story] :D

Skysnake
2013-06-19, 19:10:41
Zum Glück ist Nvidia nicht IMG. NV wird schon höhere Margen haben.
Nenn mir EINEN, aber nur EINEN Grund, warum nVidia höhere Margen bekommen sollte als Underdog?

Die können froh sein, wenn Sie ihre IP los bekommen für +/- Null, wenn Sie relevante Volumina erreichen wollen...


2. HPC ja und? Man schmeisst ein paar Milliarden in Entwicklung fuer eine ultra komplizierte Architektur um sie fuer einen Bruchteil einer Tesla ie auch einen Bruchteil des Bruchteils von Gewinn einer solchen GPU zu verkaufen? Ein verdammt kluger Schachzug muss ich sagen.

Genau das Gleiche gilt auch für jedweden SFF-Deal. nVidia muss da von ihrer Marge runter kommen, wenn Sie ne IP verkaufen will, und die Vorlaufzeiten sind faktisch genau gleich.

Und wie du schon sagst, mit IP verkaufen ist es nicht getan. Da muss massiv Support geliefert werden, um die Integration voran zu treiben, und da müsste nVidia eben teilweise die Hosen runter lassen...


NV: wir haben die beste GPU IP fuer Euch fuer $N/IP core fuer einen multi license/multi year deal....
Apple: super....wir bezahlen Euch halb so viel, wir wollen Prioritaet fuer die Lizenzierung, einen Einfluss auf Eure roadmap, wir werden unsere GPU Treiber selber entwickeln und....
NV: fuck off!

[/end of story] :D
Warum kann ich mir das nur als 100% authentisch vorstellen ;D

Ailuros
2013-06-19, 19:13:45
Weil Apple auch wirklich so ekelhaft cut throat mit ihren Deals in Echtzeit ist. Wenn sie aber etwas fuer Macs lizenzieren wuerden, waere es fuer diese Gold wert.

Skysnake
2013-06-19, 19:23:13
Ist aber ziemlich unrealistisch in meinen Augen.

Im gerade neu vorgestellten MacPro steckt wieder AMD drin, und in dern MacBooks macht sich intel breit.

Wenn Sie jetzt noch anfangen nVidia mit auf zu nehmen.... Das wäre total banane.

Ailuros
2013-06-19, 19:31:59
Ist aber ziemlich unrealistisch in meinen Augen.

Im gerade neu vorgestellten MacPro steckt wieder AMD drin, und in dern MacBooks macht sich intel breit.

Wenn Sie jetzt noch anfangen nVidia mit auf zu nehmen.... Das wäre total banane.

Apple entwickelt bzw. experimentiert mit so manchem im Hintegrund und nein ihre hw R&D Ambitionen beschraenken sich seit langem nicht mehr nur auf SFF SoCs. Bleibt ergo abzusehen was Apple genau vorhat; wenn es das ist was ich mir grob vorstelle ist eine GPU IP Lizenz alles andere als absurd. Das einzig dumme ist uebrigens dass ein Lizenznehmer erst nach dem tapeout von NV's hw lizenzieren kann; darauf darf man noch 18-24 Monate Integrierungs-zeit draustecken.

Sonst ist Samsung ein sehr guter Kandidat weil sie mit ihrer eigenen GPU Entwicklung platt auf die Nase gefallen sind; sie wollten wohl nicht die gleiche GPU IP wie Apple haben fuer ihre SoCs und mit ARM GPU IP hatten sie bis jetzt staendig Verbrauchs-Probleme. Aber dass sich LSI reinlegen laesst oder alles so bezahlen wird wie erwartet fuer die Lizenz darf man gleich vergessen.

Skysnake
2013-06-19, 19:37:26
Und damit wäre es total fürn Poppes...

Wenn muss der IP-Lizenznehmer direkt integriert werden, und praktisch zeitgleich mit nVidia den Markt betreten können.

Alles andere ist indiskutabel. Da hat man einfach NICHTS von als Lizenznehmer.

Nakai
2013-06-19, 19:41:04
Laeuft auf anderen Schienen; will ein Partner Kepler-M (oder weiss der Geier wie sie es nennen werden) haben fuer einen SFF mobile SoC oder hochkomplizierte IP fuer HPC Schleudern? Fuer den standalone GPU consumer Markt wird wohl keiner so daemlich sein etwas zu lizenzieren.

1. Im ersten Fall eine Antwort fuer AMD's Konsolen deals nur eben um ca. 3-4 Jahre zu spaet und es wird wohl auch einige Zeit dauern bis Konsolen zu neuer hw kommen.

2. HPC ja und? Man schmeisst ein paar Milliarden in Entwicklung fuer eine ultra komplizierte Architektur um sie fuer einen Bruchteil einer Tesla ie auch einen Bruchteil des Bruchteils von Gewinn einer solchen GPU zu verkaufen? Ein verdammt kluger Schachzug muss ich sagen.

3. SFF SoCs welches dann auch vergleichbares Material zu IMG's Krampf ist: beides wird bis zu DX11 faehig sein, ergo WTF is the big deal genau?


1. Bei MS könnte ich mir noch vorstellen, dass NV hier in eine Konsole reinkommt. Die Xbox One besitzt ja eine zusätzliche Abstraktionsebene für eine mögliche Hardwareunabhängigkeit. Sicherlich natürlich nicht in den nächsten 3 Jahren, sondern darüber. Da sollte sich NV trotzdem keine Hoffnung machen.

2. Für HPC könnte ich es mir wirklich gut vorstellen. Zum einen könnten die Margen dramatisch höher sein, als im SFF-Bereich und vor allem wäre hier der Support deutlich besser aufgehoben. Nvidia kann ja immer noch HPC-GPUs bringen und dafür wird es immer noch einen Markt geben.

3. Im SFF-Bereich sehe ich kein Land für NV. Da wird auch NV nichts lizensieren. Hier gibts Tegra. Es ging ja auch um Kepler, nicht um irgendein SFF-Design. Und nein, ich habe keine Ahnung, inwieweit der Kepler in einem zukünftigen Tegra mit einem Desktop-Kepler vergleichbar ist.

Nenn mir EINEN, aber nur EINEN Grund, warum nVidia höhere Margen bekommen sollte als Underdog?

Die können froh sein, wenn Sie ihre IP los bekommen für +/- Null, wenn Sie relevante Volumina erreichen wollen...

Weil es keinerlei Konkurrenz gibt. Oder siehst du AMD ihre GPU IP zur Lizensierung freizugeben(nein, nicht der Konsolendeal)? Außerdem ist man somit der Einzige, der in diesem Bereich rangiert. Wo ist AMD? Und nein komm nicht mit IMG, Vivante oder ARM. Jegliches anderes lizensierbares Design ist ein Witz.

Und wie du schon sagst, mit IP verkaufen ist es nicht getan. Da muss massiv Support geliefert werden, um die Integration voran zu treiben, und da müsste nVidia eben teilweise die Hosen runter lassen...

Mhh, Treiberentwicklung sehe ich kaum höhere Kosten. Für die Integration wird es sicherlich etwas anderes. Das ist auch für NV Neuland. Zwei Sachen die mich eh bei dieser Ankündigung nerven ist:
1. Entweder hat NV schon einen Partner und rückt damit bald raus.
oder
2. NV tastet sich voran.


Den Rest der Geschichte willst Du sowieso nicht lesen. Off the record war BOM und Stromverbrauch ausserhalb von dem was Nintendo verlangt hatte.

Ach komm, typisch BigN. :freak:
Nintendo hat einfach an jeder Ecke gespart. Mehr Stromverbrauch -> Größerer Akku, andere thermische Eigenschaften, mehr Kosten
Mehr BOM -> geringere Marge, höherer Preis, geringerer Absatz

Ich will mich auf nicht auf Nintendo festlegen, jedoch hat Nintendo einfach nur das Nötigste gewollt.

Black-Scorpion
2013-06-19, 19:59:28
Soll Nintendo etwa seine Vorstellungen daran ausrichten was Nvidia liefern kann?
Würde denen zwar gefallen, allerdings läuft es genau anders rum. Nintendo hatte seine Vorstellungen und Nvidia konnte nicht das bringen was verlangt war. Ganz einfach.

Und das es keine Konkurrenz gibt weißt du genau woher? Oder kennst du schon die Daten und die Leistung die damit möglich ist. Nur weil das Kepler IP heißt bedeutet es noch lange nicht das es auch so leistungsfähig ist wie es der Name suggeriert. Wäre ja nicht der erste Schuss in den Ofen den sich Nvidia leistet.

Skysnake
2013-06-19, 20:02:06
2. Für HPC könnte ich es mir wirklich gut vorstellen. Zum einen könnten die Margen dramatisch höher sein, als im SFF-Bereich und vor allem wäre hier der Support deutlich besser aufgehoben. Nvidia kann ja immer noch HPC-GPUs bringen und dafür wird es immer noch einen Markt geben.

Wer will denn bitte im HPC-Bereich ne nVidia IP haben? :ugly:

Intel?
Ganz sicher nicht. Die haben ihren XeonPhi, und damit schon genug Konkurrenz im eigenen Haus, der auf die Margen drücken könnte. Da brauchen die nicht noch ne iGPU von nVidia lizensieren, die keine echten Vorteile brächte.

AMD?
Ähm... ja, ich glaub darüber müssen wir nicht reden ;D

IBM?
IBM hat den Cell eingestampft, von daher könnten Sie eventuell ein Interesse daran haben, so wirklich passt es aber nicht in ihr Konzept eines Supercomputers rein.

Sparc, also Fujitsu/Oracle?
Kann ich mir nicht wirklich vorstellen.

Tja, und das wars dann auch schon so ziemlich, wobei
Samsung?
Ja, das könnte durchaus möglich sein, dann läuft es aber praktisch auf Projekt Denver hinaus... Ob sich das Samsung antun wird? Ich glaube nicht.


Weil es keinerlei Konkurrenz gibt. Oder siehst du AMD ihre GPU IP zur Lizensierung freizugeben(nein, nicht der Konsolendeal)? Außerdem ist man somit der Einzige, der in diesem Bereich rangiert. Wo ist AMD? Und nein komm nicht mit IMG, Vivante oder ARM. Jegliches anderes lizensierbares Design ist ein Witz.

AMD ist da sogar deutlich interessanter Aufgestellt.
AMD bietet dir komplett fertige CPUs/APUs, in die du dann deinen IP-Block packen kannst, und wie es scheint übernimmt AMD die komplette Implementierung.

Das ist schon SEHR interesssant, zumal man eben x86, iGPU, HSA, OpenCL, OpenGL und DX Support praktisch frei haus bekommt.


Mhh, Treiberentwicklung sehe ich kaum höhere Kosten. Für die Integration wird es sicherlich etwas anderes. Das ist auch für NV Neuland. Zwei Sachen die mich eh bei dieser Ankündigung nerven ist:
1. Entweder hat NV schon einen Partner und rückt damit bald raus.
oder
2. NV tastet sich voran.

Allein schon die Anpassung/Angleichung der Entwicklungsumgebung ist nen ganz schöner Brocken. Dazu kommt noch, das weder AMD noch nVidia nur 0815 Bibs verwenden für die Fertigung bei TSMC. Damit muss ein Kunde erstmal klar kommen...

Ailuros
2013-06-19, 20:05:32
1. Bei MS könnte ich mir noch vorstellen, dass NV hier in eine Konsole reinkommt. Die Xbox One besitzt ja eine zusätzliche Abstraktionsebene für eine mögliche Hardwareunabhängigkeit. Sicherlich natürlich nicht in den nächsten 3 Jahren, sondern darüber. Da sollte sich NV trotzdem keine Hoffnung machen.

Ueber 5 Jahre zu spekulieren wagt sowieso keiner. Unter 5 Jahre Lebenszeit gebe ich den kommenden Konsolen nicht. Weiss der Geier wie danach smartTVs aussehen und mit welchen Konstanten sich dann home entertainment bewegt.

2. Für HPC könnte ich es mir wirklich gut vorstellen. Zum einen könnten die Margen dramatisch höher sein, als im SFF-Bereich und vor allem wäre hier der Support deutlich besser aufgehoben. Nvidia kann ja immer noch HPC-GPUs bringen und dafür wird es immer noch einen Markt geben.

Halt mal bitte HPC und SFF auseinander; IP im HPC bedeutet LAECHERLICH niedrigere Margen als Teslas zu verkaufen. Was soll denn NV fuer HPC IP genau verlangen? Mehr als $20 pro Stueck? So und jetzt erinner mich nochmal daran was NV an jeglicher Tesla genau verdient.

3. Im SFF-Bereich sehe ich kein Land für NV. Da wird auch NV nichts lizensieren. Hier gibts Tegra. Es ging ja auch um Kepler, nicht um irgendein SFF-Design. Und nein, ich habe keine Ahnung, inwieweit der Kepler in einem zukünftigen Tegra mit einem Desktop-Kepler vergleichbar ist.

Es wird Logan nach seinem tape out als GPU IP zur Lizenz freigegeben. Sonst um Deine Frage zu beantworten sind die ALUs durchaus vergleichbar (GK110) der fette Rest dann aber nicht.

Weil es keinerlei Konkurrenz gibt. Oder siehst du AMD ihre GPU IP zur Lizensierung freizugeben(nein, nicht der Konsolendeal)? Außerdem ist man somit der Einzige, der in diesem Bereich rangiert. Wo ist AMD? Und nein komm nicht mit IMG, Vivante oder ARM. Jegliches anderes lizensierbares Design ist ein Witz.

AMD hat fuer M$ und SONY komischerweise custom SoCs verkauft und nicht IP.

Mhh, Treiberentwicklung sehe ich kaum höhere Kosten. Für die Integration wird es sicherlich etwas anderes. Das ist auch für NV Neuland. Zwei Sachen die mich eh bei dieser Ankündigung nerven ist:
1. Entweder hat NV schon einen Partner und rückt damit bald raus.
oder
2. NV tastet sich voran.

Jegliche Marketing Abteilung mit etwas Grips sichert zuerst zumindest eine grosse Unterschrift bevor man die Katze aus dem Sack laesst. Und Treiber sind der letzte Wagon am Unterstuetzungs-zug fuer einen IP Lizenznehmer; ich hab immer noch das Gefuehl dass ihr kein korrektes Bild von dem Zeug hat. ARM haengt ihren Partnern fuer CPU IP z.B. voll am Arsch bis die Integrierung finalisiert wird und dieses aktiv und nicht nur ueber generelle Ratschlaege oder e-mails.

Ach komm, typisch BigN. :freak:
Nintendo hat einfach an jeder Ecke gespart. Mehr Stromverbrauch -> Größerer Akku, andere thermische Eigenschaften, mehr Kosten
Mehr BOM -> geringere Marge, höherer Preis, geringerer Absatz.

Ich komm schon nur sehe ich immer noch nicht Deine angeblichen Punkt dass NV angeblich hoehere Margen als IMG oder jegliches IMG erreichen wird :freak:

Ich mach es Dir einfacher: IMG hat MIPS gekauft um ARM's CPU IP Monopol anzugreifen; ich erwarte zwar keine Wunder aber ich fress einen Besen wenn sie u.a. ARM's CPU IP Angebote nicht mit um einiges niedrigeren Preisen angreifen. Ist uebrigens ziemlich ueblich fuer jeden Spieler der Land schaffen will.....

Ich will mich auf nicht auf Nintendo festlegen, jedoch hat Nintendo einfach nur das Nötigste gewollt.

Dann nehmt es mir nicht uebel wenn ich so manche Vorbehalte habe dass NV flexibel genug ist dass zu liefern was ein potentieller Lizenznehmer fuer SFF haben wuerde. Wenn man weiss dass ein jegliche Nintendo billig-Scheiss haben will dann liefert man auch billig-Scheiss ueberhaupt wenn man schon die Preise bis zum kotzen selber reduziert hat.

Nakai
2013-06-19, 20:12:57
Soll Nintendo etwa seine Vorstellungen daran ausrichten was Nvidia liefern kann?
Würde denen zwar gefallen, allerdings läuft es genau anders rum. Nintendo hatte seine Vorstellungen und Nvidia konnte nicht das bringen was verlangt war. Ganz einfach.

Und das es keine Konkurrenz gibt weißt du genau woher? Oder kennst du schon die Daten und die Leistung die damit möglich ist. Nur weil das Kepler IP heißt bedeutet es noch lange nicht das es auch so leistungsfähig ist wie es der Name suggeriert. Wäre ja nicht der erste Schuss in den Ofen den sich Nvidia leistet.

Über Nintendo brauchen wir wirklich nicht sachlich reden, da ich ein Nintendo-Hater der ersten Stunde bin. Nintendo hatte noch nie einen klugen Ansatz für jegliche Hardware.

Oke, wer lizensiert öffentlich ähnlich starke IP? Wie der zu lizensierte Kepler aussieht, steht nicht in der News. Er kann jedoch alles, was NV derzeit liefern kann.

IBM?
IBM hat den Cell eingestampft, von daher könnten Sie eventuell ein Interesse daran haben, so wirklich passt es aber nicht in ihr Konzept eines Supercomputers rein.

Sparc, also Fujitsu/Oracle?
Kann ich mir nicht wirklich vorstellen.

Tja, und das wars dann auch schon so ziemlich, wobei
Samsung?
Ja, das könnte durchaus möglich sein, dann läuft es aber praktisch auf Projekt Denver hinaus... Ob sich das Samsung antun wird? Ich glaube nicht.

Warten wir einfach ab. Dass NV so eine News als auch Marketing-Ruckus benutzen kann, ist vorstellbar.

AMD ist da sogar deutlich interessanter Aufgestellt.
AMD bietet dir komplett fertige CPUs/APUs, in die du dann deinen IP-Block packen kannst, und wie es scheint übernimmt AMD die komplette Implementierung.

Das ist schon SEHR interesssant, zumal man eben x86, iGPU, HSA, OpenCL, OpenGL und DX Support praktisch frei haus bekommt.

Über AMD brauchen wir nicht reden. Die haben dahingehend bewiesen, dass sie es können. ;)

Allein schon die Anpassung/Angleichung der Entwicklungsumgebung ist nen ganz schöner Brocken. Dazu kommt noch, das weder AMD noch nVidia nur 0815 Bibs verwenden für die Fertigung bei TSMC. Damit muss ein Kunde erstmal klar kommen...

Entweder NV liefert wieder nur heiße Luft oder es steckt wirklich was dahinter. Womöglich haben sie ein Kepler-Design auf Standard-Libs umgesetzt. Das wird dann natürlich nicht mehr das gleiche sein.

€: @Ail:
Halt mal bitte HPC und SFF auseinander; IP im HPC bedeutet LAECHERLICH niedrigere Margen als Teslas zu verkaufen. Was soll denn NV fuer HPC IP genau verlangen? Mehr als $20 pro Stueck? So und jetzt erinner mich nochmal daran was NV an jeglicher Tesla genau verdient.

Ich halte HPC und SFF außeinander. Wenn NV im HPC-Bereich IP verkauft, dann wird das ganz anders ablaufen, da die Stückzahlen deutlich geringer sind. Ich könnte mir da ganz andere Bedingungen vorstellen, vor allem weil im HPC-Bereich auch Support für andere Dinge(Treiber, Performance) anfallen.

Jegliche Marketing Abteilung mit etwas Grips sichert zuerst zumindest eine grosse Unterschrift bevor man die Katze aus dem Sack laesst. Und Treiber sind der letzte Wagon am Unterstuetzungs-zug fuer einen IP Lizenznehmer; ich hab immer noch das Gefuehl dass ihr kein korrektes Bild von dem Zeug hat. ARM haengt ihren Partnern fuer CPU IP z.B. voll am Arsch bis die Integrierung finalisiert wird und dieses aktiv und nicht nur ueber generelle Ratschlaege oder e-mails.

Dann warten wir mal ab, was genau dahinter steckt. Solange wir nicht wissen unter welchen Bedingungen NV ihre IP hergibt, kann man über Jegliches nur rumspekulieren. Und ich geb dir recht, dass eine IP-Lizensierung wie im SFF-Bereich keine Diskussionsgrundlage ist.

Skysnake
2013-06-19, 20:15:47
Und das willst du dann auch nicht haben, weil eben sowohl Performance als auch Perf/W als auch Perf/mm² dann nicht mehr stimmen.

Ailuros
2013-06-19, 22:43:03
Warten wir einfach ab. Dass NV so eine News als auch Marketing-Ruckus benutzen kann, ist vorstellbar.

Qualcomm hat S800 vorgestellt der auch bald in Geraeten erscheinen wird und wird brauchten eben einen effektiven Ablenker und auch einen Balance-schub um die Aktie in Trab zu halten.


Entweder NV liefert wieder nur heiße Luft oder es steckt wirklich was dahinter. Womöglich haben sie ein Kepler-Design auf Standard-Libs umgesetzt. Das wird dann natürlich nicht mehr das gleiche sein.

Wir brauchen mehr Details. Momentan haben wir mehr Fragen als Antworten.


Ich halte HPC und SFF außeinander. Wenn NV im HPC-Bereich IP verkauft, dann wird das ganz anders ablaufen, da die Stückzahlen deutlich geringer sind. Ich könnte mir da ganz andere Bedingungen vorstellen, vor allem weil im HPC-Bereich auch Support für andere Dinge(Treiber, Performance) anfallen.

Sw zweifellos; aber fuer NV selber hw IP fuer HPC zu verkaufen im Vergleich zu einer Tesla ist ein riesiger Unterschied und auch ein ziemlich grosser Verlust fuer NV. Man muesste etliche hundert IP core verkaufen um den Umsatz bzw. Gewinn von einem einzelnen Tesla board zu erreichen.

Dann warten wir mal ab, was genau dahinter steckt. Solange wir nicht wissen unter welchen Bedingungen NV ihre IP hergibt, kann man über Jegliches nur rumspekulieren. Und ich geb dir recht, dass eine IP-Lizensierung wie im SFF-Bereich keine Diskussionsgrundlage ist.

Och Seifenblasen bekommen wir in letzter Zeit fuer Tegra jede Menge; nur stirbt leider Hoffnung als letzte meistens. Irgendwann kommt vielleicht eine kunterbunte Ankuendigung von einem "super-deal" und dann heisst es "siehste Du oeder Schwarzmaler sie haben es doch geschafft..." nur damit sie sich am Ende hauptsaechlich auf automotive infotainment konzentrieren und sich in die gleiche SFF Irrelevanz verschachteln wie TI, Freescale, ST und dergleichen. Jensen hat doch schon "stolz" behauptet dass sie in den naechsten Jahren etliche Milliarden aus automotive infotainment schoepfen werden. Am Ende wenn man es ausrechnet ist es pro Jahr weniger als im vergangenen FY; ergo pick our poison :wink:

Und das willst du dann auch nicht haben, weil eben sowohl Performance als auch Perf/W als auch Perf/mm² dann nicht mehr stimmen.

Unter den richtigen Vorraussetzungen ist weder perf/mW bzw. W noch perf/mm2 ein besonders grosses Problem fuer NVIDIA; das eigentliche Problem ist dann eher perf/$.

Kann mir jemand mal logisch illustrieren wieso es Sinn machen wuerde fuer Intel's business model ploetzlich CPU IP zu lizenzieren? Moment NV waere der erste Kunde und Denver wuerde einen weiteren re-design erleben :eek:

Skysnake
2013-06-19, 23:47:10
Nein das kann dir keiner erklären, weil es absolut keinen Sinn macht :tongue: