PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia GPU Technology Conference 2013


dildo4u
2013-03-19, 17:14:55
Livestream läuft.

http://www.ustream.tv/NVIDIA

http://www.abload.de/img/nvolta7tjdc.png

Nightspider
2013-03-19, 17:49:30
Thx, was hab ich bisher verpasst?

PS: Ein 60fps HD Lifestream! Nice. Sowas könnte es öfters geben.

AnarchX
2013-03-19, 17:52:47
12:14PM EDT - 5. A new product announcement (!!!)

12:13PM EDT - 4. An update on remote graphics

12:13PM EDT - "A glimpse into the next click of NVIDIA's technology roadmap"

12:13PM EDT - 3. Roadmap (ooh!)

12:13PM EDT - 2. Update on GPU Computing

12:13PM EDT - 1. Breakthroughs in computer graphics that we've made in the last year

12:12PM EDT - Talking about 5 things today

http://www.anandtech.com/show/6842/nvidias-gpu-technology-conference-2013-keynote-live-blog

Skysnake
2013-03-19, 17:55:10
Erwartet hier jemand ernsthaft etwas anderes als Cloudcomputing?

Godmode
2013-03-19, 17:58:46
Geil, Jensen in HD und 60 FPS. :freak:

Godmode
2013-03-19, 18:10:52
Maxwell Nachfolger "Volta" mit Stacked DRAM.

http://www.abload.de/img/screenshot2013-03-19a4oaej.png

Skysnake
2013-03-19, 18:12:37
Jo, habs grad auch gesehen.

Eigentlich hatte ich gehofft, das bereits Maxwell das bringt :(

Damit können wir das wohl direkt abhacken :(

EDIT:
Wie habt ihr das gerade mit dem stacked RAM verstanden? Nur dass der stacked ist, oder dass der zusammen mit der GPU auf nem Interposer sitzt?

Ich habs so verstanden, dass das alles zusammen auf nem Interposer sitzt. Ansonsten werden die 1TB/s auch ziemlich schwierig!

Wäre zumindest wieder nen Schritt nach vorne. Ich bin nur von stacked RAM bzw einem kleinen RAM der per MCM angebunden ist.

Eventuell ist es nen MCM, aber ich denke eher mit nem Interposer.

Wäre also bei Maxwell weniger als erhofft, und bei Volta dann etwas mehr als erwartet/erhofft.

Fragt sich nur, ob Volta in 2 Jahren kommt, oder mehr. Wenn es mehr als 2 Jahre sind, dann wirds schon wieder blöd...

dildo4u
2013-03-19, 18:15:18
Bandbreite 1 Terabite pro Sekunde.

Godmode
2013-03-19, 18:17:56
Bandbreite 1 Terabite pro Sekunde.

Pro Mem Chip? Weil wenn es für die ganze GPU ist, sind da ja nur 125 GB/s

Logan mit Cuda 5.0 und Kepler GPU
Parker nach Logan und mit Maxwell GPU

http://www.abload.de/img/screenshot2013-03-19axdlr6.png

Skysnake
2013-03-19, 18:24:12
Ich mein er hat GB/s gesagt, nicht GBit/s

Nightspider
2013-03-19, 18:26:41
Dafuq ist Kayla?

Godmode
2013-03-19, 18:28:02
Dafuq ist Kayla?

Naja das war der 3. Tegra und mit dem neuen geht das in einem Die ohne Kühler etc. Er will damit auf die starke Miniaturisierung hinweisen.

AnarchX
2013-03-19, 18:29:22
Dafuq ist Kayla?
http://www.nvidia.com/object/seco-dev-kit.html

... vielleicht ein Update mit GK107/GK118.

dildo4u
2013-03-19, 18:29:53
Dafuq ist Kayla?
Entwickler Board dafür man schon jetzt für Logan programmieren kann.

Skysnake
2013-03-19, 18:30:44
Kayla:

fondness
2013-03-19, 18:31:12
Maxwell Nachfolger "Volta" mit Stacked DRAM.

http://www.abload.de/img/screenshot2013-03-19a4oaej.png

Hieß der Maxwell-Nachfolger nicht Einstein?

Godmode
2013-03-19, 18:34:06
Hieß der Maxwell-Nachfolger nicht Einstein?

Anscheinend haben sie ihn umgenannt. Das ist noch so weit weg..

Skysnake
2013-03-19, 18:37:18
http://www.nvidia.com/object/seco-dev-kit.html

... vielleicht ein Update mit GK107/GK118.
1GBit-Ethernet ist ja wohl nen schlechter Scherz in Verbindung mit HPC :ugly:

Jaja, es ist nur nen Developer-Kit, aber dennoch. Nen 4x PCI-E 1.0! Slot ist einfach zu wenig. Das Ding sollte mindestens 8x PCI-E 2.0 Lanes haben.

Dann kann man da auch nen gescheiten NIC dazu packen. 270GFlop/s sind ja auch nicht ganz ohne. Was bringt mir die tollste Rechenleistung, wenn der Interconnect zum Flaschenhals wird...

JETZT kommt was neues :D

Godmode
2013-03-19, 18:39:57
http://www.abload.de/thumb/screenshot2013-03-19a42uo0.png (http://www.abload.de/image.php?img=screenshot2013-03-19a42uo0.png) http://www.abload.de/thumb/screenshot2013-03-19a2luuu.png (http://www.abload.de/image.php?img=screenshot2013-03-19a2luuu.png) http://www.abload.de/thumb/screenshot2013-03-19a4mu2n.png (http://www.abload.de/image.php?img=screenshot2013-03-19a4mu2n.png) http://www.abload.de/thumb/screenshot2013-03-19a21u75.png (http://www.abload.de/image.php?img=screenshot2013-03-19a21u75.png)

RLZ
2013-03-19, 18:41:19
Die Präsentation läuft ja gut.
Der ist gefühlt kurz vorm Explodieren. :biggrin:

Skysnake
2013-03-19, 18:44:14
LOL!

Ich hatte wirklich recht.... Mal wieder Cloud... -.-

Aber der Hammer ist ja, dass das Ding mal voll der Fake ist... Von wegen nVidia bla blub...

Das ist ne TYAN Kiste... http://extreme.pcgameshardware.de/cebit/265766-skysnake-meets-pny.html

Die wurde schon auf der CeBIT gezeigt, und hat NICHTS, aber auch rein gar NICHTS mit nVidia an sich zu tun... Die haben halt nur ihren Sticker vorne drauf gepackt... Wie lächerlich ist das denn?

fondness
2013-03-19, 18:44:24
GPU-Roadmap wurde im übrigen auch noch mal aktualisiert. Jetzt jeweils eine Verdoppelung der DP Perf/Watt von Kepler auf Maxwell und von Maxwell auf Volta:

http://img685.imageshack.us/img685/1512/20130319101008575px.jpg (http://imageshack.us/photo/my-images/685/20130319101008575px.jpg/)

Uploaded with ImageShack.us (http://imageshack.us)

Godmode
2013-03-19, 18:45:34
Die Präsentation läuft ja gut.
Der ist gefühlt kurz vorm Explodieren. :biggrin:

Ich versteh nicht warum der nicht selber umschalten kann? http://bit.ly/Y0uNiJ

Btw. die Präsentation finde ich richtig schlecht...

Skysnake
2013-03-19, 18:57:54
/sign

Die ist echt ziemlich schlecht. Da ist man gerade von Huan eigentlich anderes gewöhnt. Man merkt aber auch TOTAL, dass die Zuhörer Null mitgehen. Da ist absolut keine Spannung in der Luft. Die Leute hätten ja nicht mal gemerkt, dass die Neuvorstellung noch fehlt :ugly: Btw gings mir genau so :ugly:


Der Knaller ist aber echt GPU-Grid... Das ist SO lächerlich :down:

Das Ding kommt nicht mal von denen...

Und dann bringen sie so ne Schmalspurversion -.-

Wenn ich mir da die IBM Kisten anschaue mit VGX K1, dann kann die genau so viele Teilnehmer aufnehmen, nämlich 16...

Nen RICHTIG fetter WOW Effekt wäre es gewesen, wenn die 8 VGX K1 da rein gepackt hätten, oder halt was anderes als die altpackene K10....

Ich fass mir echt an den Kopf.... Das ist mal echt der schlechteste "Launch" eines "new product" den ich je von nVidia gesehen habe...

Das Ding ist nur nen Port von S1366 auf S2011... Mehr ist daran nicht neu -.- Außer eventuell die Software, die Sie noch mit verkaufen, aber davon hat er ja kein Wort gesagt...

Und noch was. Das ist ne 4U Box....

Eigentlich wollte ich noch ne schöne News dazu bauen, aber weil mich das jetzt gerade richtig ankotzt, hau ichs einfach hier raus.

Gigabyte hat heute auch nen neuen 8 GPU-Server gelaunched. Aber nicht in 4U, sondern in 2U....http://b2b.gigabyte.com/products/product-page.aspx?pid=4498#sp

Skysnake
2013-03-19, 19:04:22
Btw. fällt euch auf, das Maxwell jetzt nur noch zwischen 8 und 16 DP-Flop/s/W liegt?

Da war nVidia schon genauer mit den 14-16 DP-Flop/s/W bei der letzten Roadmap.

Ich hoffe die korrigieren ihre Aussagen nicht mal wieder nach unten -.-

Gipsel
2013-03-19, 19:13:02
Hieß der Maxwell-Nachfolger nicht Einstein?
Anscheinend haben sie ihn umgenannt. Das ist noch so weit weg..
Einstein war von Bill Dally mal als Maxwell+2 angegeben (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9116936#post9116936). Können sie natürlich trotzdem noch umbenennen, da das ja noch nie irgendwo offiziell aufgetaucht ist.

Konami
2013-03-19, 19:14:10
"A tiger is muscle with a bag of skin over it. That's what a tiger is."
- Jen-Hsun Huang

Skysnake
2013-03-19, 19:14:23
Hat er grad mit den "several Million CPU-hours" rumgeprotzt? :ugly:

EDIT:
Sorry, ganz im Ernst. Hat der vor der Show gesoffen/gekifft? :ugly:

Godmode
2013-03-19, 19:18:06
"A tiger is muscle with a bag of skin over it. That's what a tiger is."
- Jen-Hsun Huang

Ich fand den Vergleich ultra lustig ;) Ein Tiger ist Muskeln mit einem Sack voller Haut. ;)

Dural
2013-03-19, 19:20:29
einstein war immer nur eine studie, es wurde immer gesagt das der chip so nie kommt.

y33H@
2013-03-19, 19:21:23
Ich hoffe die korrigieren ihre Aussagen nicht mal wieder nach unten -.-Irgendwie bist du bei NV immer übelst negativ :biggrin:

boxleitnerb
2013-03-19, 19:23:44
Fällt dir das auch mal auf? :)
Geht es um Nvidia, gibts bei ihm Gehässigkeit, provokante Einzeiler und Pessimismus. Aber echt immer. Was Positives oder Neutrales liest du da selten bis nie, immer schön Nvidia-Bashing betreiben.

Skysnake
2013-03-19, 19:28:51
Weil man seine Gründe hat? Man wurde einfach schon einige male mehr oder weniger negativ enttäuscht... Da wird man halt irgendwann ziemlich konservativ.

Grad die Sache mit dem TYAN Server kotzt mich halt mal echt RICHTIG an. Was soll denn bitte so nen Mist? An dem Ding ist nichts, aber auch rein gar nichts neu, zumal es eben nicht von nVidia kommt... Da wird sich mit fremden Federn geschmückt. Was soll denn bitte so was?

y33H@
2013-03-19, 19:39:32
Fällt dir das auch mal auf?Nein, das ist ja schon seit Monaten immer wieder zu sehe - habe es nur nie in Worte gefasst. Habe den Thread geöffnet und gleich das erste war Skysnake ^^

An dem Ding ist nichts, aber auch rein gar nichts neu, zumal es eben nicht von nVidia kommt ... Da wird sich mit fremden Federn geschmückt. Was soll denn bitte so was?Tyan wird da schon involviert sein.

Godmode
2013-03-19, 19:40:21
Weil man seine Gründe hat? Man wurde einfach schon einige male mehr oder weniger negativ enttäuscht... Da wird man halt irgendwann ziemlich konservativ.

Grad die Sache mit dem TYAN Server kotzt mich halt mal echt RICHTIG an. Was soll denn bitte so nen Mist? An dem Ding ist nichts, aber auch rein gar nichts neu, zumal es eben nicht von nVidia kommt... Da wird sich mit fremden Federn geschmückt. Was soll denn bitte so was?

Reg dich nicht immer so künstlich auf. Das sieht doch jedes Kind dass das nur ein Mockup ist...
Es ist doch egal wer das dann baut, wichtig ist nur das Nvidia GPUs drinnen sind.

StefanV
2013-03-19, 19:50:42
Weil man seine Gründe hat? Man wurde einfach schon einige male mehr oder weniger negativ enttäuscht... Da wird man halt irgendwann ziemlich konservativ.
Ey, stell dich nicht so an. nVidia ist doch toll, die sind GOTT und machen alles richtig. Wie kannst du nur nVidia immer so schlecht reden...

Anyway: Was war noch mal der Sinn dieser Konferenz??

y33H@
2013-03-19, 19:54:06
GPU Technology - und davon zeigt(e) NV so einiges.

Locuza
2013-03-19, 19:58:05
Muss den anderen auch zustimmen.
Skysnake du spielst bei Nvidia meistens übelste Drama-Queen.

gnahr
2013-03-19, 19:59:24
GPU Technology - und davon zeigt(e) NV so einiges.
mehr als manch anderer in so manchem hotelzimmer, definitiv :D

dildo4u
2013-03-19, 20:05:08
Solche Langzeit Roadmap's sind halt wertvoll,zusammen mit den Milliarden die schon in Cuda Entwicklung stecken,wird's schwer egal ob für Intel oder AMD das aufzuholen.Warum sollte jemand z.b auf AMD setzen wenn man dort keine Langzeit Perspektive aufgezeigt bekommt?Man sieht ja schon wie langsam sich Open CL bewegt,das selbe Spiel wie bei Open GL,einfach nich Konkurrenzfähig,wenn sich dort mehre Leute um die nötigen Specs streiten.

Letzte Release ist von 2011 lol
http://en.wikipedia.org/wiki/OpenCL

Ailuros
2013-03-19, 20:10:11
http://img685.imageshack.us/img685/1512/20130319101008575px.jpg (http://imageshack.us/photo/my-images/685/20130319101008575px.jpg/)

Uploaded with ImageShack.us (http://imageshack.us)

Warum sind alle Koepfe lila?

Und ja so liest sich eben ein alberner Beitrag in einem Technologie Forum wie diesem. Ich lass mal den ueberfluessigen Spam stehen und hoffe dass manche von Euch zumindest ein paar Fetzen finden koennt um eine ernsthafte Diskussion anzusteuern die dem forum wuerdig ist oder ausnahmsweise eben mal gar nichts sagt wenn es schon nichts anstaendiges zum beitragen gibt. Danke

Skysnake
2013-03-19, 20:36:42
Tyan wird da schon involviert sein.
Und warum sagen Sie dann nichts davon? PNY war wenigstens so ehrlich das zu sagen.

Zudem hinkt die Sache mit dem "neuen Produkt" eben ziemlich. Nen Server von jemand anderen, der schon vorgestellt wurde, und ne GPU, die schon fast ein Jahr alt ist...

Wenn dann ist die Software interessant, aber darüber verliert ja nVidia kein Wort. Zumindest habe ich nichts mitbekommen, außer die normalen Management-Sachen.

Und das mit der CAD-Virtualisierung ist halt auch nen Schuss in den Ofen. Mehr als 16 Arbeitsplätze bekommen Sie nicht virtualisiert. Da kann ich mir von IBM auch nen Ding mit 4 VGX K1 wohl kaufen, dass das auch kann.

Und wenn ich mir von TYAN den Server selbst kaufe, und sogar 8 VGX K1 rein packe, dann habe ich die doppelte Anzahl an CAD-Plätzen, auch wenn der einzelne Platz dann schwächer ist. Mir fehlt halt nur die Software. Das muss sich aber erst noch zeigen, ob mir dann überhaupt was fehlt.

Und wenn ich den neuen Gigabyte 2U Server für 8 GPUs nehme, dann kann ich wohl ziemlich sicher 8 K10 in 2U packen :freak: Das sollte eigentlich ziemlich sicher passen. Eventuell passen sogar die VGX K1 rein, dann hätte ich 4*8=32! CAD-Arbeitsplätze in nem 2U Rackspace :freak: bzw auf den gleichen 4U Raum dann 64! CAD-Arbeitsplätze :eek:

DAS wäre ne perverse Vorstellung gewesen, die man nicht toppen kann, aber so muss ich direkt in der Presentation schon sagen: "Kalter Kaffee...."

Wenn muss es die Software raus reißen, aber dazu weiß man ja leider nichts -.-

Sorry, das ich gerade überhaupt nicht begeistert bin von dem was Huang da gezeigt hat.

Ansonsten bestand die Presentation zu 99% aus der Vorstellung von Software, die andere geschrieben haben.

Das was WIRKLICH interessant war, war Logan und Volta. Insbesondere Volta, aber da hat er ja leider fast nichts zu gesagt, und hat sich auch noch ziemlich schlechtverständlich ausgedrückt :(

GPU Technology - und davon zeigt(e) NV so einiges.
siehe oben.

Wie gesagt, die spannensten Punkte wurden in <5 Minuten abgehandelt.

EDIT:

Hat mal jemand noch auf die Roadmap geschaut, bzw auf das was Huang sagte? Der meinte doch, das mit Fermi FP64 kam, genau wies auch auf der Folie steht. FP64 konnte aber schon die GT2xx Serie, also eben Tesla :ugly:

Ronny145
2013-03-19, 21:29:42
Letzte Release ist von 2011 lol
http://en.wikipedia.org/wiki/OpenCL


Ein Update zum OpenCL 1.2 gab es zuletzt November 2012: https://www.khronos.org/news/press/khronos-releases-significant-opencl-1.2-specification-update

gnahr
2013-03-19, 21:54:17
DAS wäre ne perverse Vorstellung gewesen, die man nicht toppen kann, aber so muss ich direkt in der Presentation schon sagen: "Kalter Kaffee...."
Wenn muss es die Software raus reißen, aber dazu weiß man ja leider nichts -.-
von wegen konservative sicht, das muss ein schlaganfall sein. plötzlicher verlust enormer kapazitäten... studien haben ja gezeigt dass man ohne ausreichend denkvermögen zu entscheidungen neigt die man als "konservativ" bezeichnet und wenn ihm das schon selbst auffällt. armer tropf. :frown:


sich zu dem produkt zu bekennen und es nochmal in die breite öffentlichkeit zu heben hat nen ganz anderen stellenwert. na klar kann man den miesepeter ziehen und hier wieder die drag-queen raushängen lassen, aber
a) hat man es nem ganz anderen publikum auf ner ganz anderen wahrnehmungsebene vorgestellt,
b) ist es ein fettes bekenntnis zum produkt. selbst dir ist der gedanke gekommen dass sie es jetzt auf buddy-ebene direkt supporten und nicht zuletzt
c) ist das nur ne konsequente vorbereitung um mittelfristig den nachfolger größtenteils oder gar ganz nach der eigenen feder geschrieben zu zeigen.
und das sind nur 3 betriebswirtschaftliche aspekte dahingesülzt, mit technischen details kann momentan niemand dienen, auch nicht dein geunke. :tongue:
(man, schreib sowas doch auf pcgh, da les ich es wenigstens nicht...)

Skysnake
2013-03-19, 22:41:19
Was soll den a) bedeuten? Meinste, dass sind die Vollpfosten, die nicht hinterm Rechner vor kommen, und ohne Inet leben, und deswegen von nVidia ganz supi dupi aktuell presentiert bekommen müssen, was jetzt denn so state of the art ist?

Sorry, das ist lachhaft.

Zu b) wo ist das ein Bekenntnis? Hui, ich stelle jetzt ein Produkt das wievielste mal vor? Ist es jetzt das dritte oder schon das vierte mal? Hätten Sie das Ding jetzt ohne Intel-CPU gezeigt, wäre ich beeindruckt gewesen aber so? Wo ist die Innovation? Wo sind die neuen Sachen?

Wovon träumst du bei c)? Wenn nVidia das macht, werden die schneller fallen gelassen, als Sie "holla" sagen können. Meinste die anderen Hersteller wären amused, wenn nVidia nur noch komplette Server verkauft? Damit wären Sie direkte Konkurrenten zu SuperMicro, IBM, HP, ASUS und Gigabyte. Die müssen auch alle schauen, dass Sie am Ball bleiben, und werden den Markt mit niemandem freiwillig teilen.

Und ansonsten kann ich nur sagen, wenns dir nicht passt, mach die Augen zu...

Player18
2013-03-19, 23:23:09
Hört sich ja nicht schlecht an :)

Gipsel
2013-03-19, 23:31:14
Letzte Release ist von 2011 lol
http://en.wikipedia.org/wiki/OpenCL
Ein Update zum OpenCL 1.2 gab es zuletzt November 2012: https://www.khronos.org/news/press/khronos-releases-significant-opencl-1.2-specification-update
Und für nV ist es noch superneu, denn die unterstützen immer noch kein OpenCL 1.2 (und das tut sogar Intel auf ihren HD4000). Das letzte Update des OpenCL-SDKs von nV ist schon ziemlich lange her. Und das letzte Mal hat nV was im Juli 2010 von Khronos zertifizieren lassen, d.h. keine neuere GPU von denen ist zertifiziert (auch nicht die Kepler-Teslas, nur Apple hat auf eigene Faust das für die 650M unter OSX10.7 angeschoben). :eek:

-/\-CruNcher-/\-
2013-03-19, 23:48:16
Also der Mobile Part war ja recht interessant Tegra 2/3 waren recht uninteressant im Wettbewerb vor allen GPU technisch nicht wirklich innovativ und Preis/Leistung zu teuer im direkten Vergleich.
Hoffen wir mal das sie mit Tegra 4 dieses Jahr die Kurve kriegen wobei ich das beim Preis noch nicht ganz glauben will.
Man darf nicht vergessen Nvidia hat damals groß getönnt (Tegra 1) das sie Tablets/Phones ect für eine breite masse erschwinglich machen wollen leider seh ich davon bis heute nix und selbst die kleineren China butzen laufen ihnen von diesem Aspekt gesehen davon (vor allem beim Preis der ist relativ zur Leistung sehr angenehm was bei Nvidia nicht der Fall ist, das bischen mehrleistung muss teuer erkauft werden). Und das Prestige Projekt Shield scheint mir einfach nur ein versuch Prestige wie Apple aufzubauen also so gesehen echt armselig und sehr weit weg von ihren damals kommunizierten anfangsgedanken.

Captain Future
2013-03-20, 01:51:59
http://www.nvidia.com/object/seco-dev-kit.html

... vielleicht ein Update mit GK107/GK118.

... oder vielleicht das:
http://www.pcgameshardware.de/GTC-Event-257049/News/Logan-Entwickler-Plattform-Kayla-mit-Titan-Technik-und-bislang-geheimer-Kepler-GPU-D15M2-20-1061349/

mboeller
2013-03-20, 07:37:27
Hoffen wir mal das sie mit Tegra 4 dieses Jahr die Kurve kriegen wobei ich das beim Preis noch nicht ganz glauben will.


Hat nicht Nvidia bei der Präsentation den Tegra4 beerdigt?

Der Logan soll ja noch dieses Jahr vorgestellt werden (laut Heise News zum Event) und Anfang(?) 2014 in Mobilgeräten verfügbar sein. Der Tegra4 hat also nur eine reale Lebensdauer von ca. 6 - 7 Monaten.

Damit wird der Tegra4 wahrscheinlich gar nicht erst eingesetzt werden. Design-wins gibt es bisher ja auch nur sehr wenige im Vergleich zum Tegra3.

edit:
so was nett man dann Osborne-effekt oder aber es ist ganz einfach "die Flucht nach vorne".

http://en.wikipedia.org/wiki/Osborne_effect

edit2:
http://blog.gsmarena.com/nvidia-reveals-their-tegra-roadmap/#more-46498


Logan will be the successor to Wayne, more commonly known as the Tegra 4 chipset, and will be appearing in devices in early 2014

AnarchX
2013-03-20, 08:14:43
... oder vielleicht das:
http://www.pcgameshardware.de/GTC-Event-257049/News/Logan-Entwickler-Plattform-Kayla-mit-Titan-Technik-und-bislang-geheimer-Kepler-GPU-D15M2-20-1061349/
Ja, eine GK208 GPU mit wohl allen Kepler Features: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9699559#post9699559

-/\-CruNcher-/\-
2013-03-20, 08:32:28
Hat nicht Nvidia bei der Präsentation den Tegra4 beerdigt?

Der Logan soll ja noch dieses Jahr vorgestellt werden (laut Heise News zum Event) und Anfang(?) 2014 in Mobilgeräten verfügbar sein. Der Tegra4 hat also nur eine reale Lebensdauer von ca. 6 - 7 Monaten.

Damit wird der Tegra4 wahrscheinlich gar nicht erst eingesetzt werden. Design-wins gibt es bisher ja auch nur sehr wenige im Vergleich zum Tegra3.

edit:
so was nett man dann Osborne-effekt oder aber es ist ganz einfach "die Flucht nach vorne".

http://en.wikipedia.org/wiki/Osborne_effect


Naja Tegra 3 hat auch viel zu lange gebraucht bevor er verbaut wurde ;) das ist Nvidia Typisch :D
Anfang 2014 heist dann wohl das erste Tegra 5 Tape out ;)
Aber 6 monate lebenszeit sind im Mobile berreich wie damals PC ganz normal die Entwicklung geht rasend voran.

Wenn ich überlege ich hab im Dez ein billiges Dual Core 40nm gekauft (release war october) und jetzt ist die Quadcore version in 28nm raus dann sag ich mal wow :D

mboeller
2013-03-20, 08:48:05
Wenn ich überlege ich hab im Dez ein billiges Dual Core 40nm gekauft (release war october) und jetzt ist die Quadcore version in 28nm raus dann sag ich mal wow :D

auch wenn es hier OT ist. Mediatek, oder? Dein Dual-Core SoC hat aber zwei A9 und der Quadcore-SoC AFAIK nur 4 A7.

Dural
2013-03-20, 09:26:05
Man darf nicht vergessen Nvidia hat damals groß getönnt (Tegra 1) das sie Tablets/Phones ect für eine breite masse erschwinglich machen wollen leider seh ich davon bis heute nix


du hast das Nexus 7 verpasst, richtig?

das ding war eine lange zeit im Preis/Leistung unschlagbar.


Mein Asus Prime war weit und breit das erste Quad Core A9 Tablet, gekauft 12.2011! lange lieferzeiten wo den genau?
erst T4 verpasst den Markt derzeit.

Skysnake
2013-03-20, 10:30:11
Und für nV ist es noch superneu, denn die unterstützen immer noch kein OpenCL 1.2 (und das tut sogar Intel auf ihren HD4000). Das letzte Update des OpenCL-SDKs von nV ist schon ziemlich lange her. Und das letzte Mal hat nV was im Juli 2010 von Khronos zertifizieren lassen, d.h. keine neuere GPU von denen ist zertifiziert (auch nicht die Kepler-Teslas, nur Apple hat auf eigene Faust das für die 650M unter OSX10.7 angeschoben). :eek:
Das ist nicht dein Ernst oder? :uwoot:

Dann versteh ich auch, warum meine OpenCL Sachen auf nVidia Karten teilweise nicht laufen :usad:

Das ist doch echt total behämmert... Hast du dazu vielleicht nen Link oder so? Das würde sicherlich einige Leute die ich kenne interessieren.

Gipsel
2013-03-20, 10:57:29
Hast du dazu vielleicht nen Link oder so? Das würde sicherlich einige Leute die ich kenne interessieren.
Steht alles auf dieser Khronos-Seite (http://www.khronos.org/conformance/adopters/conformant-products#opencl).

Skysnake
2013-03-20, 11:14:50
Danke!

Es ist aber mal echt erschreckend, wie schlecht der OpenCL Support von nVidia tatsächlich ist.

Nakai
2013-03-20, 13:12:21
Dann versteh ich auch, warum meine OpenCL Sachen auf nVidia Karten teilweise nicht laufen

Tja, ich musste teilweise den Code etwas umschreiben, damit es lief. Also NV ist da wirklich seeeehr empfindlich, was OpenCL-Code angeht. Was ohne Probleme auf AMD läuft, haut bei NV INVALID_COMMAND_QUEUE raus. Es ist echt ein Drama. Auch der Toolsupport ist bei NV ein Graus.

Wenn NV, dann CUDA...

Skysnake
2013-03-20, 13:14:10
Jo.

Bei mir ist es schlicht so, das mir der Treiber abschmiert, wenn ich viele Kernel nacheinander starte :ugly: das mag die OpenCL Implementierung von nVidia gar nicht -.-

00-Schneider
2013-03-20, 14:23:35
http://www.abload.de/thumb/screenshot2013-03-19a42uo0.png (http://www.abload.de/image.php?img=screenshot2013-03-19a42uo0.png) http://www.abload.de/thumb/screenshot2013-03-19a2luuu.png (http://www.abload.de/image.php?img=screenshot2013-03-19a2luuu.png) http://www.abload.de/thumb/screenshot2013-03-19a4mu2n.png (http://www.abload.de/image.php?img=screenshot2013-03-19a4mu2n.png) http://www.abload.de/thumb/screenshot2013-03-19a21u75.png (http://www.abload.de/image.php?img=screenshot2013-03-19a21u75.png)


8-fach SLI? :freak:

Godmode
2013-03-20, 14:35:01
8-fach SLI? :freak:

Nein das ist nur eine Server Lösung, wo du dann mehrere Clients dranhängen kannst. SLI geht bis Maximal 4 GPUs, mehr ist einfach nicht mehr praktikabel mit AFR.

Gipsel
2013-03-20, 14:45:14
8-fach SLI? :freak:
Gar kein SLI. 16 GPUs auf 8 Karten für 16 remote session. Langweilig. So eine Kiste hat AMD auch schon mal gezeigt (mit ihren Firestream S10000).

Skysnake
2013-03-20, 14:50:41
Nein kein SLI...

Und vor allem wäre mit er VGX K1 von nVidia sogar 8 Karten mit jeweils 4 GPUS, also 32 Sessions möglich... IBM bringt damit soweit ich das verstanden habe auf jeden Fall ein System in 2U raus, das eben 4 solcher Karten beherbergt, und damit 32 Sessions ermöglicht.

Und wenn man zu dem neuen Gigabyte 8GPU Server greift, könnte man sogar auf 4U 64 Sessions hosten :P

Der ist nämlich nur 2U hoch un verpackt 8 GPUs...

-/\-CruNcher-/\-
2013-03-20, 23:43:52
auch wenn es hier OT ist. Mediatek, oder? Dein Dual-Core SoC hat aber zwei A9 und der Quadcore-SoC AFAIK nur 4 A7.

Rockchip Dual Core RK3066 (Mali 400 MP4) A9 based der Tegra 3 hat 4 A9 cores und seinen companion core, trotzdem ist Preis/Leistung im Vergleich zum Rockchip eher schlecht
und das Nexus 7 ist heftigst beschnitten im io und quasi subsidiert von Google

Sehr interessant die USC Human Head Demo :)

http://www.youtube.com/watch?v=OGVw70YYQqc

Allerdings gefiel mir Sony und Quantic Dreams Demo besser

Screemer
2013-03-21, 01:21:49
noch härter fällt der vergleich mit dem neuen 28nm rk3188 aus. quadcore a9 mit quadcore mali400 bei 500MHz. preislich bewegt sich das ding in etwa auf niveau des rk3066 zur einführung.

das ding wurde ende januar vorgestellt und ist seit ca. 2 wochen käuflich in hardware zu erwerben. wie lang hat das bei nv gedauert?

sehr positiv stehe ich aber tegra4i gegenüber, sollte dieser zügig in günstigen telefonen zu finden sein. bei entsprechender preisgestaltung gibts vielleicht sogar "günstige" china-massenware damit. sollte t5 wirklich schon in knapp 7 monaten in produkten verfügbar sein, dann wird der 4i wohl das einzige sein, was wir von dieser generation in größeren stückzahlen am markt sehen werden.

Ailuros
2013-03-21, 07:40:40
Das mit den anderen semis wie MediaTek ist zwar OT aber wenn jemand bei der letzte MWC fett einkassiert hat dann ist es MediaTek:

http://focustaiwan.tw/ShowNews/WebNews_Detail.aspx?ID=201303040040&Type=aTOD

Uebrigens sind sie auch bald mit der Uebernahme von MStar fertig, was dann heisst dass MediaTek einen weltweiten TV chip Marktanteil von 80% hat: http://blogs.wsj.com/deals/2013/03/21/mediatek-mstar-now-one-green-light-away-from-merger/

Nein es hat keiner das "gigantische" 6 Mio Nexus7 Verkaufsvolumen verpasst, und auch nicht dass Google den Nexus7 Nachfolger Qualcomm "geschenkt" hat.

Man kann Entwickler-Platformen wie KAYLA auch ohne besonderen Ramtamtam verschicken wenn man will, aber da T4 tatsaechlich schon als Totgeburt empfunden wurde dreht man sich halt als Verzweiflungs-reaktion um 180 Grad und laesst die Welt glauben dass man Anfang 2014 schon fast einen Titan in einem smartphone kaufen koennte.

Das positive ist natuerlich dass ab Logan ich endlich sagen kann dass es ein SoC sein wird mit einer wuerdigen GPU fuer einen IHV wie NVIDIA, wurde aber auch verdammt Zeit.

soLofox
2013-03-21, 07:48:38
http://www.golem.de/news/face-works-nvidias-glatzkopf-ira-mit-realistischer-gesichtsanimation-1303-98304.html

das is ja mal der oberhammer, sieht extrem gut aus.

Skysnake
2013-03-21, 09:24:02
Ist aber wiedrum ne reine Softwaresache, die eine ANDERE Firma entwickelt hat, und hat erstmal rein gar nichts mit nVidia zu tun...

Und btw. die Technik, die Sie da verwenden ist in einem Punkt interessant, und zwar ein "minimales Mash" zu finden, dass das Ganze möglichst gut approximiert. Das ist sehr! anspruchsvoll. Machen aber auch noch eine ganze Reihe anderer Leute. Bei uns an der Uni z.B. wird so was gemacht im Bereich der Resoration von Kunstwerken, Denkmälern usw.

nVidia ist hier nur das Werkzeug.

Aber noch was wirklich Neues:

wenn auch nur eingeschränkt. Beispielsweise wird Nvidia auch zukünftig keinen GPU-Direct-Treiber für die GeForce GTX Titan anbieten, wie Sumit Gupta gegenüber c't erklärte.
http://www.heise.de/newsticker/meldung/GTC-2013-Stacked-DRAM-bringt-riesige-Speichermengen-fuer-GPUs-1826882.html

Und wenn ich mich dann an den Post von Coda erinnere:
https://developer.nvidia.com/ultimate-cuda-development-gpu
https://developer.nvidia.com/gpudirect

Kennst du schon google.com?

Dann platzt mir ganz ehrlich der Kragen...

Und da fragt jemand ganz im Ernst warum ich "konservativ" und "skeptisch" bin, wenn es um die großen Töne von nVidia geht, die Sie auf irgendwelchen Leutverdummungspresentationen raushauen? Und das ist wie immer nur die Spitze des Eisberges...

-/\-CruNcher-/\-
2013-03-21, 11:37:15
Ist aber wiedrum ne reine Softwaresache, die eine ANDERE Firma entwickelt hat, und hat erstmal rein gar nichts mit nVidia zu tun...

Und btw. die Technik, die Sie da verwenden ist in einem Punkt interessant, und zwar ein "minimales Mash" zu finden, dass das Ganze möglichst gut approximiert. Das ist sehr! anspruchsvoll. Machen aber auch noch eine ganze Reihe anderer Leute. Bei uns an der Uni z.B. wird so was gemacht im Bereich der Resoration von Kunstwerken, Denkmälern usw.

nVidia ist hier nur das Werkzeug.

Aber noch was wirklich Neues:


Und wenn ich mich dann an den Post von Coda erinnere:


Dann platzt mir ganz ehrlich der Kragen...

Und da fragt jemand ganz im Ernst warum ich "konservativ" und "skeptisch" bin, wenn es um die großen Töne von nVidia geht, die Sie auf irgendwelchen Leutverdummungspresentationen raushauen? Und das ist wie immer nur die Spitze des Eisberges...


Hab dazu oben ja auch was geschrieben einfach mal vergleichen es ist nichts herausragendes die erste Demo von Nvidia war es noch aber in der zwischenzeit haben viele dran rumgeforscht , optimiert und experimentiert :)
Nvidia war und ist da nicht mehr alleine, solche Demos sieht man nun auch von anderen auf nicht Nvidia Platformen.

Das mit den anderen semis wie MediaTek ist zwar OT aber wenn jemand bei der letzte MWC fett einkassiert hat dann ist es MediaTek:

http://focustaiwan.tw/ShowNews/WebNews_Detail.aspx?ID=201303040040&Type=aTOD

Uebrigens sind sie auch bald mit der Uebernahme von MStar fertig, was dann heisst dass MediaTek einen weltweiten TV chip Marktanteil von 80% hat: http://blogs.wsj.com/deals/2013/03/21/mediatek-mstar-now-one-green-light-away-from-merger/

Nein es hat keiner das "gigantische" 6 Mio Nexus7 Verkaufsvolumen verpasst, und auch nicht dass Google den Nexus7 Nachfolger Qualcomm "geschenkt" hat.

Man kann Entwickler-Platformen wie KAYLA auch ohne besonderen Ramtamtam verschicken wenn man will, aber da T4 tatsaechlich schon als Totgeburt empfunden wurde dreht man sich halt als Verzweiflungs-reaktion um 180 Grad und laesst die Welt glauben dass man Anfang 2014 schon fast einen Titan in einem smartphone kaufen koennte.

Das positive ist natuerlich dass ab Logan ich endlich sagen kann dass es ein SoC sein wird mit einer wuerdigen GPU fuer einen IHV wie NVIDIA, wurde aber auch verdammt Zeit.

Keine frage MediaTek ist sehr interessant mit ihrem full solution SOC fast jedes billig China Smartphone kommt mit MediaTek (SGX) SOC ;)

Tablets gibt es aber "noch" relativ wenig die auf MediaTek setzen dort beherschen Allwinner (SGX), Rockchip (MALI) und AMlogic (MALI) das Feld und man integriert MediaTek lieber zusätzlich neben den Socs für 3G und Bluetooth oder eben Broadcom solutions.
Neueinsteiger war der Exynos 4 aber der wird sich nicht lange halten mit dem RK3188 release ist der ja wieder outdated, hier hat Samsung einfach nochmal versucht ihre Altlast loszuwerden und das ding als billige Retina alternativen zu verbauen war eine idiotische idee genauso wie beim RK3066 von einigen ODMs die Probleme die auftretten würden waren abzusehen Mali bringt es nicht und die VPUs Memory Bandwith kann so einen großen Framebuffer einfach nicht bedienen. ;)

mboeller
2013-03-21, 18:44:50
.....aber da T4 tatsaechlich schon als Totgeburt empfunden wurde dreht man sich halt als Verzweiflungs-reaktion um 180 Grad und laesst die Welt glauben dass man Anfang 2014 schon fast einen Titan in einem smartphone kaufen koennte.


Wieso 180°?

Durch die Bekanntgabe, das der Logan Ende 2013 vorgestellt wird und angeblich Anfang 2014 in mobilen Anwendungen verfügbar ist hat Nvidia dem strauchelnden T4 IMHO den Todesstoß versetzt.

Nenne es wie du willst (Flucht nach vorne, Osborne-Effekt etc..). Nvidia hat mit der engen Zeitschiene für Logan dem T4 massiv geschadet. Und das mit voller Absicht.

Es ist egal ob der Logan jetzt Anfang 2014 kommt oder nicht. Der Scherbenhaufen liegt schon vor Nvidias Füßen (IMHO).

Gipsel
2013-03-21, 19:18:49
Wieso 180°?Ailuros meint doch grob das Gleiche.
Bisher (auch noch bei der Tegra4-Vorstellung) hat nV verlauten lassen, man brauche keine unified Shader Architektur mit überall FP32-Präzision (die man auch für GPGPU benutzen kann, ARM Mali und Qualcomms Adreno sind bereits full_profile OpenCL 1.1 zertifiziert) und das wäre sowieso alles nicht effizient. Und kaum ein paar Wochen später ist GPGPU auf dem Kepler-basierten unified shader Architektur im kommenden Tegra die Offenbarung, auf die die Welt schon immer gewartet hat. Das bezeichnet man als eine "Kehrtwende um 180°". Dadurch macht man doch jetzt auch den Tegra4 schlecht und verursacht genau das, was Du beschreibst.

Ailuros
2013-03-21, 19:30:50
Wieso 180°?

Von OGL_ES2.0/DX9L1 (mehr brauchen wir momentan nicht wir konzentrieren uns auf Leistung blahblahblah) zu >OGL_ES3.0/DX11 ist nach Deiner Meinung eine Wendung um wie viel Grad genau?

Durch die Bekanntgabe, das der Logan Ende 2013 vorgestellt wird und angeblich Anfang 2014 in mobilen Anwendungen verfügbar ist hat Nvidia dem strauchelnden T4 IMHO den Todesstoß versetzt.

Es war auch nicht gerade so dass T4 je die uebertollen Chancen gehabt haette. Ich haette mir vieles vorstellen koennen aber dass Asus bzw. Acer nichts mehr davon wissen wollen haette ich nicht erwartet.

Nenne es wie du willst (Flucht nach vorne, Osborne-Effekt etc..). Nvidia hat mit der engen Zeitschiene für Logan dem T4 massiv geschadet. Und das mit voller Absicht.

Es ist egal ob der Logan jetzt Anfang 2014 kommt oder nicht. Der Scherbenhaufen liegt schon vor Nvidias Füßen (IMHO).

Auf was soll er denn Anfang 2014 genau herauskommen? 20nm? Eine womoeglich neue CPU und eine total neue SFF GPU auf einem total neuen Prozess der im ehlendigen Zustand sein soll bei seiner eingeschaetzten ersten Verfuegbarkeit?

28nm und das Resultat soll immer noch insgesamt unter 100mm2 liegen waehrend nur von der GPU zumindest 200GFLOPs schiessen sollen? Und selbst wenn das letzte klappt wieso soll es etwas allzu besonderes im Vergleich zu dem was innerhalb 2013 noch erscheint gerade sein?

mboeller
2013-03-22, 20:06:54
ok, das mit den 180° hatte ich ganz anders/falsch verstanden. Sorry!

dildo4u
2013-05-11, 14:09:22
Die neue Human Head Demo zum Download


http://www.nvidia.com/coolstuff/demos#!/lifelike-human-face-rendering

DrMabuse1963
2013-05-12, 14:50:37
Die neue Human Head Demo zum Download


http://www.nvidia.com/coolstuff/demos#!/lifelike-human-face-rendering
Mit Nv 3D einfach nur Mega : )
bei der Konvergenz Korrektur hab ich mich an den Ohren orientiert bis es da nur noch ~ein Bild ist , lässt sich leider nicht speichern .

Supern0va
2013-06-17, 01:58:28
Die wurde schon auf der CeBIT gezeigt, und hat NICHTS, aber auch rein gar NICHTS mit nVidia an sich zu tun... Die haben halt nur ihren Sticker vorne drauf gepackt... Wie lächerlich ist das denn?

LOL :crazy2:

Von wem das 0815 Mainboard kommt ist vollkommen egal. Bei GRID dreht sich alles um Leistung/Effizienz/Load-Balancing/Latency ... ja gar ein neuer Videocodec muß her.
Das ganze Teil (Paket) ist seit 5 Jahren in der Entwicklung.


http://www.nix.ru/art/pic/web_news/2012/may/ps1337602712.jpg

Skysnake
2013-06-17, 09:09:08
nVidia Steuert die Software bie, und die GPUs. Das wars aber. Der Rest wird ganz normal eingekauft.

Deswegen kann man ja auch genau die gleiche Kiste auch anderweitig kaufen. GRID ist eigentlich nur ein Softwareprodukt. Das ist nämlich exklusiv für das GRID-Produkt. Der Rest ist einfach nur Bundelung