PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33

Hugo78
2013-08-27, 00:18:21
Der Unterschied zwischen Titan und 780 ist so laecherlich klein dass man nichts anderes braucht als ein benchmark parcour so anzupassen dass man Hawaii entweder dazwischen bekommt oder ueber Titan. Die Haarspalterei ist nicht der Rede wert.

Der Abstand ist klein, aber Perf/W. zählt heut zu Tage ebend auch im Dekstop.
Perf./W technisch erwarte ich von AMD aktuell nichts mehr, nach dem "Selbstmord" mit ihren 220W CPUs.
Und wenn Hawaii auch so ein Dampfhammer wird, kann Nvidia sich auch einen GK110 Dampfhammer erlauben.

Also:
Ein 14SMX GK110 + 7 Gbps VRAM hätte noch gut +40% Potential ggü. Titan @ Stock.
Siehe PCGH Titan @ 1254 / 3703 MHz:
http://www.pcgameshardware.de/Geforce-Titan-Grafikkarte-256920/Tests/GTX-Titan-Extrem-Overclocking-GTX-880-1076043/

Das wären 50-70% vor der aktuellen Stock HD 7970 GHz.
Ein 15 SMX GK110 Vollausbau @ 1.25 GHz nochmal 7% mehr.

Blediator16
2013-08-27, 02:26:21
Guter Vergleich. Wieso vergleichst du nicht NVs Tegra und GPUs. Ist ebenfalls eine gute Analogie :freak:

Hugo78
2013-08-27, 07:46:16
Das ist Quark. Tegra wird immer effizienter.

Skysnake
2013-08-27, 08:18:44
Stimmt das ist Quark. Wenn sollte man schon ihr neues FPGA Modem mit Desktop-GPUs vergleichen, das triffts besser... -.-

Der Abstand ist klein, aber Perf/W. zählt heut zu Tage ebend auch im Dekstop.
Perf./W technisch erwarte ich von AMD aktuell nichts mehr, nach dem "Selbstmord" mit ihren 220W CPUs.
Und wenn Hawaii auch so ein Dampfhammer wird, kann Nvidia sich auch einen GK110 Dampfhammer erlauben.

Du kannst BD nicht mit GCN vergleichen....

BD ist ein von Hand gelayoutetes Design, GCN ist ein synthetisches Design.
BD hat einige gravierende Kinderkrankheiten, bei denen man schauen muss, ob die überhaupt zu beheben sind. GCN sieht verdammt gut und durchdacht aus. Da gibts allein vom Grundkonzept her absolut nichts, oder zumindest nicht viel zu meckern. Das heist man kann echt anfangen das Ding zu tweaken bis zum erbrechen.
BD ist aktuell nicht wirklich konkurrenzfähig im Desktop, GCN absolut.

Ich hoffe du merkst, dass der Vergleich mal den ÜBELSTEN Pferdefuß hat..


Also:
Ein 14SMX GK110 + 7 Gbps VRAM hätte noch gut +40% Potential ggü. Titan @ Stock.
Siehe PCGH Titan @ 1254 / 3703 MHz:
http://www.pcgameshardware.de/Geforce-Titan-Grafikkarte-256920/Tests/GTX-Titan-Extrem-Overclocking-GTX-880-1076043/

Das wären 50-70% vor der aktuellen Stock HD 7970 GHz.
Ein 15 SMX GK110 Vollausbau @ 1.25 GHz nochmal 7% mehr.
Das Problem ist der Verbrauch....

Du bist im Desktop auch powerlimited, und soo viel geht bei nVidia mit der Leistungsaufnahme auch nicht mehr. 1,25GHz kannste vergessen.

Keine Ahnung, auf wieviel MHz man mit 225W maximal kommt, aber mehr als 250W kannste knicken im Desktop. Wenn wir OC'ler 300W verpulvern wollen dann schön und gut, aber sowas willst du nicht als Firma verkaufen @stock. Du hast ja gesehen, wozu das bei Thermi geführt hat...

Hugo78
2013-08-27, 08:57:59
Ich hoffe du merkst, dass der Vergleich mal den ÜBELSTEN Pferdefuß hat..

Es geht nicht um die technische Seite, es geht um die Einstellung des Managements und was für sie zählt.
Die 220W CPUs zeigen, dass AMDs (neue) Führung sich nicht um ein möglichst gutes Image in Sachen Perf./W schert.
Ohne Not opfert man hier auch noch das letzte bisschen Effizienz nur für paar mehr FPS.
Die haben den Knall noch nicht gehört...

Keine Ahnung, auf wieviel MHz man mit 225W maximal kommt, aber mehr als 250W kannste knicken im Desktop. Wenn wir OC'ler 300W verpulvern wollen dann schön und gut, aber sowas willst du nicht als Firma verkaufen @stock. Du hast ja gesehen, wozu das bei Thermi geführt hat...

... ja genau, und ich weiß auch das Nvidia keinen Dampfhammer bringen wird.
Ebend weil sie bei der GTX 480 gemerkt haben, was die Leute heute nicht mehr wollen.
Und wie ich schon mehr als einmal hier geschrieben hab, Nvidia verkauft auch mehr Geforces,
selbst wenn sie mal nicht die Balken anführen und sogar noch teurer sind (siehe GTX 680 vs 7970 GHz).

Aber mein Beispiel zeigt, wieviel Luft man selbst vom Titan aus noch hat und um Hawaii zu kontern braucht es ebend keinen Maxwell,
nur einen etwas höher getakteten 14 SMX GK110.
Denn AMD muss erstmal die Perf./W der GTX 780 erreichen, vom Titan ist man dann immernoch ne Ecke entfernt.
Und mit der Einstellung von AMDs Führung, wird der Hawaii Topdog im Zweifel ein noch schlechteres Bild abgeben, als die HD 6970 seiner Zeit.

Skysnake
2013-08-27, 09:11:16
Das ist eben der Punkt.

Wer das bessere Perf/W Verhältnis hat, wird am Ende auch schneller sein.

Da wir aber nicht wissen, wie die Perf/W bei AMD aussieht, bzw aussehen wird, ist die Diskussion total fürn Poppes.

Sind Sie effizienter hat nVidia ein Problem, weil AMD im Prinzip immer kontern kann. Sind Sie nicht effizienter als nVidia, hat eben AMD ein Problem, weil nVidia im Prinzip immer kontern kann.

So einfach ist das.

-/\-CruNcher-/\-
2013-08-27, 09:56:08
Hugo78

also irgendwie bin ich hier im falschen film Nvidia hat sich nie um Perf/W gekümmert und ATI war hier schneller Nvidia hat Intel später mit ihrem Boost nachgeäft, auf den letztendlichen Energietrichter sind sie eher mit Tegra gekommen.
Und im vergleich mit dem Featureset ist AMD effizienter Nvidia beschneidet überall, AMD war schon viel früher mit ihren APUs auf dem Energietrip.

Nvidia war der Watt verbrauch immer scheissegal die wollten nur FPS sehen um die Gamer zu ziehen, man sieht es in jedem Benchnmark einfach mal augen auf machen und genauer hinschauen vor allem im Compute berreich

AMD/ATI hatte schon immer die bessere Hardware nur die Treiber waren grottig auch ein Grund warum ich irgendwan weg von ATI zu Nvidia bin aber die Zeiten ändern sich langsam, nachdem AMD ATI gekauft hat ist viel passiert
Auch Nvidias Developer Ökosystem war gut durchdacht am Anfang der G92 auch hier hat ATI/AMD dazugelernt durch die APU

Und wer sich Titan kauft hat den Schuss eh nicht gehört sowas von ineffizient

Nvidia verkauft auch mehr Geforces,
selbst wenn sie mal nicht die Balken anführen und sogar noch teurer sind (siehe GTX 680 vs 7970 GHz).

Und genau dieser punkt könnte sich mit der Konsolen Convergence rapide ändern, irgendwie scheint immernoch nicht allen so bewusst zu sein das in jeder Engine nun für GCN 2.0 überall optimiert wird, bzw schon wurde ;)

Maxwell muss verdamt gut werden

Ailuros
2013-08-27, 10:15:48
Das ist Quark. Tegra wird immer effizienter.

Und verkauft komischerweise zunehmend weniger, was aber in Realitaet heisst dass Tegra nur in NV's verbogenen Marketing-Vorstellung effizienter wird und die Konkurrenz wohl doch jeweils um zumindest einen Schritt weiter ist.

Mein voriger Beitrag hatte nur einen Sinn: es wird NICHTS besonderes von beiden Seiten geben lediglich aufgewaermte Sueppchen damit sich jede Seite ueber's Wasser halten kann. In der Zwischenzeit hat AMD die APUs die sie unterstuetzen und NV muss zusehen dass standalone GPUs mit so hohen Wucherpreisen verkauft werden damit ihr gesamter Tegra und co. Verlust problemlos gedeckt wird.

M4xw0lf
2013-08-27, 10:23:31
Und wer sich Titan kauft hat den Schuss eh nicht gehört sowas von ineffizient
Nach welcher Betrachtung denn das? Perf/mm² und Perf/Knete vielleicht... ersteres interessiert praktisch niemanden, zweiteres macht die Titan als Produkt unattraktiv - der Chip ist trotzdem effizient, nach den gängigen Maßstäben.

Ailuros
2013-08-27, 10:29:41
Nach welcher Betrachtung denn das? Perf/mm² und Perf/Knete vielleicht... ersteres interessiert praktisch niemanden, zweiteres macht die Titan als Produkt unattraktiv - der Chip ist trotzdem effizient, nach den gängigen Maßstäben.

...und wird wohl auch der ausschlaggebende Grund sein warum NV angeblich dafuer sowohl "GK114" als auch "GM104@28nm" dafuer storniert hat. Vorraussetzung ist natuerlich dass die beiden chips auch wirklich existierten und nicht irgendwelche merkwuerdigen interne Experimente waren.

Unter normalen Bedingungen versuchen IHVs so viel wie moeglich aus einer Architektur zu melken, ueberhaupt da Prozesse zunehmend problematischer werden.

Sonst holt GK110 seine Herstellungs- und Entwicklungskosten aus den Profi-Maerkten und Titan/780 desktop Preisen wieder rein. AMD hat keinen so hohen workstation Marktanteil um aehnliche Projekte so leicht zu gerechtfertigen.

-/\-CruNcher-/\-
2013-08-27, 10:30:20
Der vergleich von Verkaufspreis und dazugewonnener Performance und der dazu höhere Energieverbrauch im Vergleich zu einer karte mit weniger Shadern.

Sowas interessiert Gamer ja aber nicht und genau da liegt Nvidias Stärke nur bei Sony und Microsoft hat das nicht geklappt, die wollten etwas das man "ausbalanciert" nennt preis/perf/watt und das konnte AMD ohne probleme schön angepasst liefern ;)

Irgendwann in der Zukunft wird diese Geschichte von Nvidias Konsolen verlust (Sony) mal aufgearbeitet werden wird sicher interessant :)

Nvidia konnte Microsoft nicht halten und am Ende verloren sie selbst Sony, ob sie irgendwann aus der Asche als Phönix auferstehen das wissen wir noch nicht, vieleicht wird Denver dieser Phönix sein ;)

Wie gesagt Nvidia spielt eine interessante Poker Partie hier, die man aus heutiger sicht vieleicht als irssinig bezeichnen könnte :)

Wenn ihre Denver research results in Maxwell einzug finden sollten könnte der cycle sieg für AMD vieleicht kürzer werden als gedacht, sprich wenn diese Forschungsresultate auch denen von AMD voraus sein sollten ;)

Microsoft und Sony konnten darauf jedenfalls nicht warten, man nahm den Verlust beider von Nvidias seite in Kauf.

Ailuros
2013-08-27, 10:41:12
Der vergleich von Verkaufspreis und dazugewonnener Performance und der dazu höhere Energieverbrauch im Vergleich zu einer karte mit weniger Shadern.

NV's Loesungen stehen auf jeden Fall von top to bottom nicht im Nachteil wenn man alle Maerkte insgesamt betrachtet.

Sowas interessiert Gamer ja aber nicht und genau da liegt Nvidias Stärke nur bei Sony und Microsoft hat das nicht geklappt, die wollten etwas das man "ausbalanciert" nennt und das konnte AMD ohne probleme schön angepasst liefern ;)

NV hatte und hat keine SoCs im Angebot; der Vergleich hat wohl ueberhaupt nichts in einem Maxwell thread verloren.

Irgendwann in der Zukunft wird diese Geschichte von Nvidias Konsolen verlust (Sony) mal aufgearbeitet werden wird sicher interessant

Wird auch mit etlichen edits nicht relevanter.

Skysnake
2013-08-27, 11:00:20
AMD hat keinen so hohen workstation Marktanteil um aehnliche Projekte so leicht zu gerechtfertigen.
Ja ganz sicher nicht aktuell, aber schaumer mal.

Wenn ich ein paar Dinge richtig deute, könnte AMD einen ziemlich großen HPC-Deal an Land gezogen haben ;D

Und nein, dazu kann ich aktuell noch nichts sagen, das ist alles im Moment noch höhrensagen. In 6-12 Monaten gibts vielleicht mehr dazu, sofern sich nicht noch was überraschend ändert.

Ailuros
2013-08-27, 11:05:32
Ja ganz sicher nicht aktuell, aber schaumer mal.

Wenn ich ein paar Dinge richtig deute, könnte AMD einen ziemlich großen HPC-Deal an Land gezogen haben ;D

Inwiefern ist HPC mit workstation relevant?

-/\-CruNcher-/\-
2013-08-27, 11:07:59
NV's Loesungen stehen auf jeden Fall von top to bottom nicht im Nachteil wenn man alle Maerkte insgesamt betrachtet.



NV hatte und hat keine SoCs im Angebot; der Vergleich hat wohl ueberhaupt nichts in einem Maxwell thread verloren.



Wird auch mit etlichen edits nicht relevanter.

Doch Nvidia hat Project Denver nur das ist noch nicht fertig erste resultate daraus werden in Maxwell zu sehen sein ich finde schon das das eine ins andere über geht es ist ja eine Gesamtstrategie bei der sie Verluste in Kauf nehmen und auf ein Ziel hinarbeiten von dem sie absolut überzeugt sein müssen. :)

Dieses Ziel ist ja die Verschmelzung von Nvidia und Arm zu einem High Efficient 64 Bit Low Power SOC den bis dato noch niemand erwartet hat, dafür nimmt man alles in Kauf man hat riesen Erwartungen die müssen aus ihrer Forschung begründet sein :)

Diese Resultate sollten zum Teil nächstes Jahr in Maxwell schon sichtbar werden :)

Du führst ja immer so gerne Qualcomm an du solltest nicht aus den Augen verlieren das Qualcomms GPU auf AMD/ATI research begründet ;)

Ailuros
2013-08-27, 11:19:40
Doch Nvidia hat Project Denver nur das ist noch nicht fertig erste resultate daraus werden in Maxwell zu sehen sein ich finde schon das das eine ins andere über geht es ist ja eine Gesamtstrategie bei der sie Verluste in Kauf nehmen und auf ein Ziel hinarbeiten von dem sie absolut überzeugt sein müssen. :)

Denver CPU cores werden (wenn ueberhaupt) nur in einem ausgewaehlten Markt in Maxwell cores integriert; deshalb gibt es eben keinen Vergleich oder logische Bruecke zu den semi custom Konsolen SoCs von AMD.

Dieses Ziel ist ja die Verschmelzung von Nvidia und Arm zu einem High Efficient 64 Bit Low Power SOC den bis dato noch niemand erwartet hat, dafür nimmt man alles in Kauf man hat riesen Erwartungen die müssen aus ihrer Forschung begründet sein :)

Gut dass Du Dir schon darueber sicher bist fuer wie und fuer was es genau eingesetzt werden wird. Unter der Vorraussetzung natuerlich dass wir Denver nicht erst unter 16nm sehen :rolleyes:

Skysnake
2013-08-27, 11:29:27
Vor allem kann man Projekt Denver nicht wirklich 1:1 mit den APUs von AMD/Intel vergleichen.

Die sind viel flexibler und auf GeneralPurpose ausgelegt, als Projekt-Denver. Das dreht sich ja eher darum die GPU von der CPU zu entkoppeln. APUs wollen ne GPU einfach nur noch dazu packen. Das ist zwar prinzipiell sehr ähnlich, aber vom Fokus her schon massiv anders.

Die Leistung des CPU-Parts wird massiv unterschiedlich sein. Vor allem wird sich nVidia beim Interconnect schwer tun. Auch hört man aus Barcelone rein gar nichts mehr zu Denver. Für mich macht das Projekt eher einen "toten" eindruck

Ailuros
2013-08-27, 11:38:18
NVIDIA hat fuer Logan einen slide veroeffentlicht wo dessen GPU mit Kepler GK110 verglichen wird. Links steht 2W fuer die Logan GPU. Zwar ist es eine daemliche Milchmaedchenrechnung aber wenn die Logan GPU die NV in GLB2.7 testete bei 195MHz taktete mit 900mW Verbrauch, werden wohl die 2W womoeglich schnell mit =/>430MHz erreicht. Hier wirbt aber auf anderen slides NV mit GFLOPs fuer die die Logan GPU ca. 975MHz braucht um diese zu erreichen.

Logan wird zwar noch nichts von Denver haben aber mich wuerde es kein bisschen ueberraschen wenn NV mit diesem auch in die 10-15W Haswell TDP Region eingreifen wird. Mein Bauchgefuehl sagt au weia im Vergleich zu Silvermont, aber dafuer muss sich Intel auch wiederrum verdammt warm anziehen was die GPU betrifft.

PARKER wird Denver cores haben, ist aber auch erst ein 2015 SoC.

http://www.anandtech.com/show/6845/nvidia-updates-tegra-roadmap-details-at-gtc-logan-and-parker-detailed

Finfet ab 16nm bei TSMC oder?

Skysnake
2013-08-27, 11:46:59
Fragt sich nur, wieviel vom Ursprungskonzept da noch übrig geblieben ist.

Aktuell sind die ganzen Sachen einfach total unübersichtlich. Also zumindest für mich!

Man merkt, dass die ganze Branche halt einfach nicht mehr so weiter machen kann wie bisher und auf den nächsten Shrink hoffen kann, der mehr Transistoren bei weniger Spannung und damit Verbrauch ermöglicht.

Die Zeiten sind einfach Geschichte, und das macht es extrem schwierig irgendetwas über die Zukunft zu sagen, einfach weil nicht nur eine Option offen steht, sondern eine ganze Hand voll, mehr als 1-2 aber von keinem gleichzeitig angefasst werden.

-/\-CruNcher-/\-
2013-08-27, 12:19:44
Wenn wir in Maxwell auf 192 Shader bei 8 oder sogar 4 Watt kommen währe das ordentlich (ohne den restlichen Discreete Chip und Karten overhead) aber wir wissen ja nicht wo AMD mit Hawai steht ;)

Wie gesagt ich kann mich persönlich noch nicht entscheiden und warte gespannt AMDs release und tests ab :)

Ailuros
2013-08-27, 12:25:39
Wenn wir in Maxwell auf 192 Shader bei 2W kommen währe das schon gut (ohne den restlichen Discreete Chip overhead) aber wir wissen ja nicht wo AMD mit Hawai steht ;)

Logan (mit Kepler GPU derivative) hat wohl 192SPs und nicht Maxwell von dem ein Ableger in Parker stecken soll. Mobile SFF GPU chips sind eine andere Welt als standalone GPUs oder sogar PC/notebook SoC GPUs. Fuer die 2W wird NV womoeglich in Logan auch nicht besonders viel mehr als 160+ GFLOPs erreichen koennen welches fuer naechstes Jahr auch kein Mega-Ereignis sein wird.

-/\-CruNcher-/\-
2013-08-27, 12:42:34
Ja wenn man sich diese geleakten Titan vs GCN 2.0 resultate anschaut die aus China herumkursieren dann sollte Nvidia theoretisch mit Maxwell diese wieder schlagen können, abwarten wie lange Nvidia zum Maxwell release brauch und wie viele Gamer Customer sie bis dahin verlieren werden.
Denke aber diesmal werden es enorm viele verluste werden wenn AMD sofort liefern kann nach release und optimierte Engines und Games bereitstehen und Nvidia diesmal vielleicht arg länger brauch bis sie Maxwell releasen.
Und wir wissen noch nicht viel über andere Details wie Featureset ect das bei AMD ja sicherlich wieder voll bedient wird und hoffentlich bei Nvidia nun endlich auch ohne irgendwelche kompromisse einzugehen.

Wobei dieser Release Cycle scheint sich eingependelt zu haben AMD released Q4 und Nvidia Q1 des nächsten Jahres ;)
Bei AMD wird es diesmal natürlich sehr laut zum Release werden wird sicherlich interessant zu zählen wir oft das wort Console und Convergence fallen wird ;)

Ailuros
2013-08-27, 12:45:05
Ja wenn man sich diese geleakten Titan vs GCN 2.0 resultate anschaut die aus China herumkursieren dann sollte Nvidia theoretisch mit Maxwell diese wieder schlagen können, abwarten wie lange Nvidia zum Maxwell release brauch und wie viele Gamer Customer sie bis dahin verlieren werden.

Wenn die angeblichen geleakten Daten stimmen die ich gesehen habe wuerde ich mich in NV's Schuhen nicht besonders fuer irgendwelches Maxwell anstrengen :freak:

Skysnake
2013-08-27, 12:59:56
Ja, das würde auf Aussitzen hinauslaufen. Zumindest im Consumer-Markt. Im Profimarkt sähe es dagegen sehr viel ungemütlicher aus.

nVidia sollte da ihre Schäfchen aber schon im Trockenen haben. Von daher seh ich da auch eher ein bremsendes nVidia, um die Kosten niedrig zu halten.

-/\-CruNcher-/\-
2013-08-27, 13:03:11
Wenn die angeblichen geleakten Daten stimmen die ich gesehen habe wuerde ich mich in NV's Schuhen nicht besonders fuer irgendwelches Maxwell anstrengen :freak:


Hehe welche den das macht mich nun neugierig :)

Ailuros
2013-08-27, 13:05:34
Hehe welche den das macht mich nun neugierig :)

Das wichtigste Spiel liegt heutzutage im perf/W Bereich. N% Zusatzleistung ist ja schoen und gut, aber wenn sie wiederrum auch Y% Zusatzverbrauch bedeutet ist davon auch nicht gerade jeder begeistert.

-/\-CruNcher-/\-
2013-08-27, 13:08:02
Das wollte ich ja bei Titan zum Ausdruck bringen :)

fondness
2013-08-27, 13:10:16
Das wichtigste Spiel liegt heutzutage im perf/W Bereich. N% Zusatzleistung ist ja schoen und gut, aber wenn sie wiederrum auch Y% Zusatzverbrauch bedeutet ist davon auch nicht gerade jeder begeistert.

Wenn Y deutlich größer als X ist, dann nicht. Aber auch NV wird keine lineare Skalierung mit der Leistungsaufnahme erreichen, denn mehr Takt erfordert immer auch mehr Spannung. Und wenn die 1:2 DP stimmen und trotzdem ein kleineres Die verwendet wird, ist eine leicht schlechtere Perf/Watt nicht verwunderlich. AMD kann schließlich auch nicht zaubern.

Skysnake
2013-08-27, 13:18:07
schlechter als bei 1:4 ja, aber ob es schlechter ist als bei nVidia mit 1:3?

Keine Ahnung, das wird sich zeigen müssen.

Also jetzt immer auf die Gamer-Perf/W bezogen. Wenn 1:2 stimmt, dann hat AMD gute Chancen eine bessere Perf/W für HPC/DP-Flops zu erreichen.

Hugo78
2013-08-27, 13:34:49
Das wollte ich ja bei Titan zum Ausdruck bringen :)

Ich welcher Welt lebst du? Titan ist aktuell die effizienteste Single GPU Karte. Teuer ja, aber mit der besten Perf/W.
- http://www.computerbase.de/artikel/grafikkarten/2013/amd-radeon-hd-7990-im-test/10/

Verbrauch:
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=46559&d=1377602789

Speed:
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=46560&d=1377602954 http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=46561&d=1377603124

Ailuros
2013-08-27, 13:41:41
schlechter als bei 1:4 ja, aber ob es schlechter ist als bei nVidia mit 1:3?

Keine Ahnung, das wird sich zeigen müssen.

Also jetzt immer auf die Gamer-Perf/W bezogen. Wenn 1:2 stimmt, dann hat AMD gute Chancen eine bessere Perf/W für HPC/DP-Flops zu erreichen.

Unter normalen Umstaenden gewinnen dedizierte DP Einheiten bei perf/W, sonst waere NV schoen bloed gewesen nicht auf 1:4, 1:3 oder 1:2 zu steigen.

Skysnake
2013-08-27, 13:50:54
Zu der Story bzgl dedizierten DP-Einheiten haben wir glaube ich unsere Standpunkte hinlänglich ausgetauscht ;)

Ailuros
2013-08-27, 13:58:24
Zu der Story bzgl dedizierten DP-Einheiten haben wir glaube ich unsere Standpunkte hinlänglich ausgetauscht ;)

Bleibt nur uebrig dass eine 1:x Implementierung dementsprechende Schlussfolgerungen ueber den Haufen wirft.

M4xw0lf
2013-08-27, 14:17:42
Wenn die angeblichen geleakten Daten stimmen die ich gesehen habe wuerde ich mich in NV's Schuhen nicht besonders fuer irgendwelches Maxwell anstrengen :freak:
Weil Tahiti so wenig Zuwachs bringt?

Ailuros
2013-08-27, 15:41:07
Weil Tahiti so wenig Zuwachs bringt?

Wenn der ganze Unfug fuer Hawaii stimmen sollte, dann waechst der Stromverbrauch um einiges auf diesem.

fondness
2013-08-27, 15:44:04
Wenn der ganze Unfug fuer Hawaii stimmen sollte, dann waechst der Stromverbrauch um einiges auf diesem.

Würde mich nicht wundern. Read geht auf ganze, das ist spätestens seit den 220W FX-CPUs klar. Und wenn die Leistung und die Kühlung stimmt ist der Stromverbrauch unter Last bei einer GPU auch weitgehend belanglos. Da spart man mit gutem idle Verbrauch und Features wie ZeroCore deutlich mehr.

M4xw0lf
2013-08-27, 15:47:28
Hmpf. Dabei wollte ich doch mal wieder upgraden... sorry für OT ;)

Ailuros
2013-08-27, 15:55:23
Würde mich nicht wundern. Read geht auf ganze, das ist spätestens seit den 220W FX-CPUs klar. Und wenn die Leistung und die Kühlung stimmt ist der Stromverbrauch unter Last bei einer GPU auch weitgehend belanglos. Da spart man mit gutem idle Verbrauch und Features wie ZeroCore deutlich mehr.

Die Endverbraucher werden schon besser wissen muessen was und wieso ihnen wichtiger ist.

M4xw0lf
2013-08-27, 16:00:01
Das alles sollte vielleicht in den VI-Faden, da gehörts eher hin :)

Ailuros
2013-08-27, 16:04:01
Das alles sollte vielleicht in den VI-Faden, da gehörts eher hin :)

Es wird immer Vergleiche zu AMD in einem NV thread geben und anders rum. Sobald man hier etwas positives ueber NV erwaehnt kommt sofort die "ja aber AMD" Linie an und ja auch hier wieder andersrum. Erinnert ein bisschen an die Europa-Bruecke in Istanbul; auf der einen Seite ist man noch in Europa und auf der anderen in Asien. Als Besucher macht man irgendwo in der Mitte einfach die Augen zu, dreht sich zich Male um sich selber und wenn man die Augen wieder aufmacht latscht man einfach in die Richtung wo's gerade passt. Einen unmittelbaren Unterschied sieht man sowieso nicht :P

Mancko
2013-08-27, 20:53:58
Würde mich nicht wundern. Read geht auf ganze, das ist spätestens seit den 220W FX-CPUs klar.


Und wer kauft diese Heizmonster? Da bleibt man dann doch lieber bei Intel. Im Markt kommt so etwas eher als letzte Verzweiflungstat an und ist sicherlich nicht Image fördernd.


Und wenn die Leistung und die Kühlung stimmt ist der Stromverbrauch unter Last bei einer GPU auch weitgehend belanglos. Da spart man mit gutem idle Verbrauch und Features wie ZeroCore deutlich mehr.

Das zu beurteilen dürftest Du wohl den Verbrauchern überlassen. Mein Gefühl sagt mir, dass der Markt solche krassen Steigerungen nicht akzeptieren wird und die Reviewer das auch ganz massiv ankreiden werden und weißt du wieso? Weil AMD höchstpersönlich selber zu Zeiten von Fermi hübsch einen auf "wir sind ja so effizient und blah gemacht hat". Das bekommen die jetzt ein ums andere Mal zu Recht vorgehalten. Wer A sagt muss halt auch A liefern und nicht B.

Tja der Schuss ging langfristig mal voll nach hinten los. Nvidia hat AMD mit Kepler total vorgeführt und die Grundstimmung die im Markt in diesem Bereich vorhanden ist gnadenlos ausgenutzt und die Lektion aus Fermi gelernt. AMD auf der anderen Seite hat neben schlechteren Werten bei Leistungsaufnahme noch zusätzlich mit extrem miesen Referenzdesigns geglänzt und dafür zu Recht satt Prügel bezogen. Das Käuferverhalten ist entsprechend ausgefallen wie die jeweiligen Unternehmenszahlen während des Livecycles der aktuellen Generation ja eindeutig belegen. Das gilt ausdrücklich beim Vergleich der GPU Segmente.

Godmode
2013-08-27, 21:47:44
Würde mich nicht wundern. Read geht auf ganze, das ist spätestens seit den 220W FX-CPUs klar. Und wenn die Leistung und die Kühlung stimmt ist der Stromverbrauch unter Last bei einer GPU auch weitgehend belanglos. Da spart man mit gutem idle Verbrauch und Features wie ZeroCore deutlich mehr.

Schön dass das mal jemand anspricht. Stromverbrauch ist mir eigentlich egal, solange eben die Leistung skaliert. Wenn die Karte zb. nur 10% schneller als ne Titan wäre und dafür aber 300W brauchen würde, dann wäre das nicht so toll.

Ich sehe mich selber eher als Enthusiast und irgendwo bis 350W kann ich gut damit leben. Natürlich sollte das Ding dann auch so schnell wie ne 350W Titan sein, sonst ist das ganze kein Upgrade.

StefanV
2013-08-27, 22:39:04
Und wer kauft diese Heizmonster?
Jemand, der den Rechner (auch) als Heizung braucht/nutzt ;-)

Skysnake
2013-08-28, 05:47:05
Im Winter immer :ugly:

Ailuros
2013-10-02, 11:20:46
http://semiaccurate.com/2013/10/01/nvidia-reshuffles-maxwell-gpus-schedule/

grrrrrrrr.....fuer die daemliche paywall :mad:

boxleitnerb
2013-10-02, 11:33:38
Streng doch mal deine Kontakte an :D
Da ich nicht davon ausgehe, dass hier irgendwas significant vorgezogen wird, ist wohl eine GPU um 2 Quartale verschoben worden.

Ailuros
2013-10-02, 11:40:13
Streng doch mal deine Kontakte an :D
Da ich nicht davon ausgehe, dass hier irgendwas significant vorgezogen wird, ist wohl eine GPU um 2 Quartale verschoben worden.

Meine Kontakte haben Schiss dass ich ein GK104 wiederhole :biggrin:

2 Quartale nach vorne? Wenn ja dann duerfte das eher zwielichtige Geruecht stimmen dass sie vielleicht GM1xx/28HPM storniert haben und lieber auf 20nm in H2 14' warten.

2 Quartale nach hinten? Es wird doch einen performance Maxwell unter 28nm geben und er will sich lediglich herausreden weil er von seiner Stornierung berichtet hat :P

Errr pick your poison ;)

boxleitnerb
2013-10-02, 11:57:15
Ich kann mir ehrlich gesagt nicht vorstellen, dass bis H2 '14 gar nichts Neues kommt. Aus dem XS-Forum gibt es ja Gerüchte, dass es schon einen Maxwell gibt, der seit Sommer unterwegs ist (Tape out?). Bloß was für einer das ist...keinen Schimmer. Ich frag da nochmal nach.

Ailuros
2013-10-02, 12:34:24
Ich kann mir ehrlich gesagt nicht vorstellen, dass bis H2 '14 gar nichts Neues kommt. Aus dem XS-Forum gibt es ja Gerüchte, dass es schon einen Maxwell gibt, der seit Sommer unterwegs ist (Tape out?). Bloß was für einer das ist...keinen Schimmer. Ich frag da nochmal nach.

Es kann auch locker irgend ein GK107 OEM only Nachfolger sein nach dem keiner den Kopf umdreht und mit dem NV sicher keinen "Maxwell" ankuendigen wird.

mironicus
2013-10-02, 12:41:46
Meine Kontakte haben Schiss dass ich ein GK104 wiederhole :biggrin:

2 Quartale nach vorne? Wenn ja dann duerfte das eher zwielichtige Geruecht stimmen dass sie vielleicht GM1xx/28HPM storniert haben und lieber auf 20nm in H2 14' warten.

2 Quartale nach hinten? Es wird doch einen performance Maxwell unter 28nm geben und er will sich lediglich herausreden weil er von seiner Stornierung berichtet hat :P

Errr pick your poison ;)

Hatte NVidia nicht wenige Tage vor Erscheinen der Radeon 6950/6970 "überraschend" die GTX 570 vorgestellt? :biggrin:

Skysnake
2013-10-02, 13:43:00
http://semiaccurate.com/2013/10/01/nvidia-reshuffles-maxwell-gpus-schedule/

grrrrrrrr.....fuer die daemliche paywall :mad:
Zwei Dumme ein Gedanke ;D

Ich kann mir ehrlich gesagt nicht vorstellen, dass bis H2 '14 gar nichts Neues kommt. Aus dem XS-Forum gibt es ja Gerüchte, dass es schon einen Maxwell gibt, der seit Sommer unterwegs ist (Tape out?). Bloß was für einer das ist...keinen Schimmer. Ich frag da nochmal nach.
Warum nicht? Anfang H2 2014 Ende H1 2014 passt doch recht gut ins Zeitschema für den nächsten Launch bei nVidia.

GK110 ist jetzt doch nicht so lange auf dem Markt. Warum also schon wieder was bringen. nVidia haut auch keine unendlichen Ressourcen um ständig "neue" Chips raus zu hauen...

Ailuros
2013-10-02, 13:57:54
Selbst wenn es resources gaebe bleibt erstens die Frage wer heutzutage so oft kauft und direkt danach mit was wenn die Herstellungsprozesse nicht mitspielen.

Skysnake
2013-10-02, 14:16:58
Das würde aber eher für 28nm Maxwell sprechen, und dann wäre H2 2014 zu spät.

Da würde ich eher Q1 2014 rechnen.

2013 wird aber meiner Meinung nach von nVidia nichts mehr kommen.

boxleitnerb
2013-10-02, 16:32:32
Zwei Dumme ein Gedanke ;D


Warum nicht? Anfang H2 2014 Ende H1 2014 passt doch recht gut ins Zeitschema für den nächsten Launch bei nVidia.

GK110 ist jetzt doch nicht so lange auf dem Markt. Warum also schon wieder was bringen. nVidia haut auch keine unendlichen Ressourcen um ständig "neue" Chips raus zu hauen...

GK104-107 sollten mal abgelöst werden so langsam, vor allem für das Mobilsegment, wenn man den hohen Marktanteil dort halten will, auch gegen die immer stärkeren APUs. Da könnte es sich auch schon lohnen, nochmal auf 28nm zu gehen, ein paar Prozent vom Prozess mitzunehmen (HPM) und nochmal was von der Architektur.

Siehe hier:
Das würde aber eher für 28nm Maxwell sprechen, und dann wäre H2 2014 zu spät.

Da würde ich eher Q1 2014 rechnen.

2013 wird aber meiner Meinung nach von nVidia nichts mehr kommen.

Edit:
Frisch aus meiner Gerüchteküche: Februar 2014, Nachfolger von 680/770, Karten sind "finalized", was immer das auch heißen soll. Immer noch 28nm (welch Überraschung bei dem Datum).

Skysnake
2013-10-03, 15:49:59
Ja, das könnte hinhauen, auch wenn die Zeit etwas kurz ist. März würde mir eher reinpassen vom Datum her als Februar. Je nachdem wie stark AMD jetzt am Ende aber wirklich ist, hat man eventuell auch nochmal etwas auf die Tube gedrückt.

Ailuros
2013-10-03, 15:53:54
Ja, das könnte hinhauen, auch wenn die Zeit etwas kurz ist. März würde mir eher reinpassen vom Datum her als Februar. Je nachdem wie stark AMD jetzt am Ende aber wirklich ist, hat man eventuell auch nochmal etwas auf die Tube gedrückt.

Da NV in letzten Jahren ihre projezierten Termine selten bis nie einhaelt koennte es auch Maerz/April werden und wenn es schon GK104 Nachfolger heisst kann es nichts anderes sein als "GM104"@28HPM.

Ailuros
2013-10-04, 19:27:38
Eureka!

http://pastebin.com/jm93g3YG



got around some maxwell plans from nvidia. quite interesting stuff. there will be two lines, maybe the second one aligns with the finfet stuff, don't know. anyway, that's what i gathered:

the smx structure changes slightly. nv did some optimization that they can use now the dp alu also for sp, it supports now all sp instructions and can be used in parallel. it means an smx looks now to have 256 alu. technically, that reduces maxwell's dp rate to 1:4, but in reality it just boosts the sp performance in comparison to kepler. nv found out how to gate of the unused parts of the dp alu to keep the power down when doing sp stuff.

but the real changes are in the cache area. that will boost the efficiency big time.
first off, the registers are doubled per smx. more threads using a lot of registers can now run in parallel and better hide the latencies. and the caches got increased as well. the L1 cache also used as shared memory is now 128kb (doubled) and can be split between cache and shared memory in steps of 32/96, 64/64, or 96/32. maxwell keeps the 16 tmus per smx.

the gpcs consist of usually 3 smx, but got changed quite a bit. there is still that geometry engine and stuff, but each gpc now includes 768kb of l2 cache, backing the r/w-L1 as well as the read only texture L1 in the smxs and also serve as instruction cache for the smx. all this gets topped off with a much larger l3 cache than in kepler. now to some numbers for the first line.

gm100:
8 gpc (8 triangles per clock), 24 smx, 384 tmus, 6144 alu, 8mb l3 (and there are also 8 l2s in the gpcs!), 64 rops, 512 bit interface, up to 8 gb @ 6+ ghz
target frequency for gf 930mhz, boost 1GHz
target frequency for tesla 850mhz, gives 2.61 dp tflops, double that of kepler, comes with 16gb

gm104:
5 gpc, 15 smx, 240 tmu, 3840 alu, 4mb l3, 40 rops, 320 bit interface (7 ghz), 2.5gb for cheap models, probably a lot of asymmetric 3gb or (symmetric again) 5gb models, target 1+ ghz, can do dp only with 1:16 rate

gm106:
3 gpc, 9 smx, 144 tmu, 2304 alu, 4mb l3, 24 rops, 192 bit interface, 7ghz, 3gb ram

gm108:
2 gpc, 4 smx, 64 tmu, 1024 alu, 2mb l3, 16 rops, 128bit interface, 2 gb ram

but really interesting gets the refresh, probably waiting for tsmc's finfets. then 64 bit arm cores developed by nv gets integrated on the same die. they can coherently access the common l3 cache. the big thing is that they will be used by the graphics driver to offload some heavy lifting from the system cpu. basically most part of the driver will be running on the gpu itself! nvidia expects this will give them at least the same speed up as amd will get from mantle, but without using a new api with straight dx11 or opengl code! and it will also help with the new cuda version for maxwell, where one can access both gpu as well as cpu cores seamlessly.

the specs are planned to stay almost the same for gm110/114/116, just the 110 gets full 8 ARM v8 cores and a doubled l3 (16mb!) compared to the gm100. the finfets may also allow a further speed boost. the 8 arm core version is actually called gm110soc, so maybe nv will start to market them as standalone processors for hpc. the consumer version is likely cut down to 4 arm cores, the same as gm114 will get (which also gets a doubled l3 to 8mb). the gm116 will only get 2 cpu cores on die, i have not seen that a gm118 got mentioned.

Rente
2013-10-04, 19:33:21
Wenn das auch nur ansatzweise stimmt hat sich AMD sehr viel zu früh gefreut, ist aber eigentlich zu gut um echt zu sein.
Aber ohne jetzt tiefes technisches Verständnis zu haben klingt es doch recht plausibel, auch wenn gm100 ein Monster zu sein scheint (ähnlich Titan diese Gen).

M4xw0lf
2013-10-04, 19:36:41
GM104 ist dann wohl mehr oder weniger GK110 mit umgebauten DP-Einheiten? Wäre damit sicher das äußerste, was sich ohne kleineren Fertigungsprozess noch herstellen ließe.

Ailuros
2013-10-04, 19:40:17
GM104 ist dann wohl mehr oder weniger GK110 mit umgebauten DP-Einheiten? Wäre damit sicher das äußerste, was sich ohne kleineren Fertigungsprozess noch herstellen ließe.

Es schwirren schon relevante Geruechte rum selbst fuer GK110 selber. Hier ein kleiiiiiiin bisschen sinnvoller. Wo ist Gipsel wenn man ihn braucht?

boxleitnerb
2013-10-04, 19:42:49
Das alles auf 20nm?
Klingt eigentlich zu detailliert, als dass sich das jemand einfach ausgedacht hat. Ist die Quelle bekannt?

Wenn das auch nur ansatzweise stimmt hat sich AMD sehr viel zu früh gefreut, ist aber eigentlich zu gut um echt zu sein.
Aber ohne jetzt tiefes technisches Verständnis zu haben klingt es doch recht plausibel, auch wenn gm100 ein Monster zu sein scheint (ähnlich Titan diese Gen).

Wieso? Die GPUs, die da beschrieben sind, sind noch weit entfernt. Bis dahin ist AMD mit Pirate Islands@20nm auch am Start ;)

Nakai
2013-10-04, 19:44:32
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9946140&postcount=557

:P

Jetzt warten wir mal ab, ob das stimmt. Interessant klingts allemal.

nv found out how to gate of the unused parts of the dp alu to keep the power down when doing sp stuff

Sieht aus, das die DP-Einheiten zu SP-Einheiten abgeschnitten werden. Das würde die Problematik entschärfen.

first off, the registers are doubled per smx.

Naja bei 320SPs pro SMX ist eine Verdopplung auch notwendig.

Wie sicher ist Quelle?

M4xw0lf
2013-10-04, 19:48:50
Naja bei 320SPs pro SMX ist eine Verdopplung auch notwendig.
256 sollens doch sein.

Gipsel
2013-10-04, 19:50:47
GM104 ist dann wohl mehr oder weniger GK110 mit umgebauten DP-Einheiten?Wenn das stimmt, sieht das ein wenig danach aus. Und die Register und Caches haben eine Generalüberholung bekommen.
Wäre damit sicher das äußerste, was sich ohne kleineren Fertigungsprozess noch herstellen ließe.Hmm, weniger DP, vermutlich fehlen auch ein paar der HPC-Sachen, die nur der GM100/110 bekommt, dafür mehr Cache. Könnte schon noch ganz gut mit 28nm in die gleiche Größe wie heute GK110 passen. Aber für GM100 muß man dann wohl auf 20nm warten, das geht bei den Specs definitiv nicht anders.

Nakai
2013-10-04, 19:51:25
256 sollens doch sein.

Ja, du hast recht. Ich habs falsch gelesen. Die 64 DP-SPs wurden einfach hinzugenommen.

€:
target frequency for gf 930mhz, boost 1GHz
target frequency for tesla 850mhz, gives 2.61 dp tflops, double that of kepler, comes with 16gb

Wenn das die Taktraten sind, klingts relativ plausibel, da 20nm den Takt nicht so sehr hochtreibt.

M4xw0lf
2013-10-04, 19:56:58
Könnte schon noch ganz gut mit 28nm in die gleiche Größe wie heute GK110 passen.
So meinte ich das. GK110 hab ich mal als "das äußerste" gesetzt :)

dlux
2013-10-04, 19:57:48
gm100:
8 gpc (8 triangles per clock), 24 smx, 384 tmus, 6144 alu, 8mb l3 (and there are also 8 l2s in the gpcs!), 64 rops, 512 bit interface, up to 8 gb @ 6+ ghz
Ich kann es kaum erwarten diesen 800 mm² Chip von Nvidia zu sehen.

:ass:

Rente
2013-10-04, 19:57:54
Das alles auf 20nm?
Klingt eigentlich zu detailliert, als dass sich das jemand einfach ausgedacht hat. Ist die Quelle bekannt?



Wieso? Die GPUs, die da beschrieben sind, sind noch weit entfernt. Bis dahin ist AMD mit Pirate Islands@20nm auch am Start ;)
Ich ging davon aus das zu mindestens gm104 in 28nm kommt und nicht mehr so weit in der Ferne liegt, sprich spätestens Q2 2014, dann wischt eine potenzielle GTX880 erst einmal den Boden mit der 290X bei den Specs.
Ich kann es kaum erwarten diesen 800 mm² Chip von Nvidia zu sehen.


Das sind keine 800mm² in 20nm.

boxleitnerb
2013-10-04, 20:02:37
Ich ging davon aus das zu mindestens gm104 in 28nm kommt und nicht mehr so weit in der Ferne liegt, sprich spätestens Q2 2014, dann wischt eine potenzielle GTX880 erst einmal den Boden mit der 290X bei den Specs.


Der Maxwell@28nm, der Anfang 2014 kommen soll, soll angeblich aber kleiner sein. Als Ersatz für GK104 würde ich die Performance nicht zu hoch einschätzen. Maximal Titan-Niveau, eher weniger.

but really interesting gets the refresh, probably waiting for tsmc's finfets. then 64 bit arm cores developed by nv gets integrated on the same die. they can coherently access the common l3 cache. the big thing is that they will be used by the graphics driver to offload some heavy lifting from the system cpu. basically most part of the driver will be running on the gpu itself! nvidia expects this will give them at least the same speed up as amd will get from mantle, but without using a new api with straight dx11 or opengl code!

Wie soll das gehen? Kann man die Abstrahierung durch die DX-API so tatsächlich "umgehen?"

dlux
2013-10-04, 20:03:50
Das sind keine 800mm² in 20nm
Achso, also 2015 in 20nm. Alles klar.

Gipsel
2013-10-04, 20:05:09
Ich kann es kaum erwarten diesen 800 mm² Chip von Nvidia zu sehen.Das sind keine 800mm² in 20nmJa, eher wieder die nVidia-typischen ~550mm². Da könnte man so etwa 13-14 Milliarden Transistoren (:freak:) erwarten.
Ich ging davon aus das zu mindestens gm104 in 28nm kommt und nicht mehr so weit in der Ferne liegt, sprich spätestens Q2 2014, dann wischt eine potenzielle GTX880 erst einmal den Boden mit der 290X bei den Specs.Na dann muß nV es aber auch schaffen, den Takt wirklich obenzuhalten (also wirklich 1GHz oder mehr), ohne daß der Verbrauch zu hoch geht. 28HPM?

Ailuros
2013-10-04, 20:06:17
Achso, also 2015 in 20nm. Alles klar.

Frueher wuerde ich den Maxwell top dog fuer desktop sowieso nicht erwarten.

Gipsel
2013-10-04, 20:12:04
Der Maxwell@28nm, der Anfang 2014 kommen soll, soll angeblich aber kleiner sein. Als Ersatz für GK104 würde ich die Performance nicht zu hoch einschätzen. Maximal Titan-Niveau, eher weniger.Paßt das nicht in etwa zu dem dort aufgeführten GM106? Also die Speicherbandbreite könnte ein wenig knapp werden, aber wer weiß, wieviel die Caches bringen.
Wie soll das gehen? Kann man die Abstrahierung durch die DX-API so tatsächlich "umgehen?"Keine Ahnung. Coda hat ja letztens mal gesagt, daß DirectX selber gar nicht mehr so viel overhead erzeugt (also verglichen zu früheren Versionen). Also könnte man vermuten, daß viel einfach dadurch verursacht wird, daß der Treiber im Hintergund rumhexen muß, damit bestimmte Bedingungen eingehalten werden, die von der DX-API garantiert werden. Dadurch entsteht wohl der Hauptteil des CPU-Overheads. Keine Ahnung, ob man das irgendwie auf eine andere CPU auslagern könnte (denn nichts Anderes wird da ja behauptet). Daß nVidia ARM-Cores integrieren will, hatte ich bisher meist nur im GPGPU-Kontext gehört.

boxleitnerb
2013-10-04, 20:15:50
Keine Ahnung. Coda hat ja letztens mal gesagt, daß DirectX selber gar nicht mehr so viel overhead erzeugt (also verglichen zu früheren Versionen). Also könnte man vermuten, daß viel einfach dadurch verursacht wird, daß der Treiber im Hintergund rumhexen muß, damit bestimmte Bedingungen eingehalten werden, die von der DX-API garantiert werden. Dadurch entsteht wohl der Hauptteil des CPU-Overheads. Keine Ahnung, ob man das irgendwie auf eine andere CPU auslagern könnte (denn nichts Anderes wird da ja behauptet). Daß nVidia ARM-Cores integrieren will, hatte ich bisher meist nur im GPGPU-Kontext gehört.

Und was ist mit Low-Level-Optimierungen, die sich im GPU-Limit auswirken? Ich kann mir kaum vorstellen, dass das auch damit gehen soll.

Paßt das nicht in etwa zu dem dort aufgeführten GM106? Also die Speicherbandbreite könnte ein wenig knapp werden, aber wer weiß, wieviel die Caches bringen.

Möglich. SP-Zahl soll ja zwischen 1500 und 2000 liegen. Je nach Zählweise (192 oder 256 pro SMX) könnte das klappen.

fondness
2013-10-04, 20:16:14
Ich würde mir eher mal die Frage stellen warum man den Typ glauben sollte. Ich kann mich nicht daran erinnern, dass jemals so früh geleakte Specs korrekt waren. Sollte tatsächlich was dran sein fehlt auf jeden Fall ein 28nm Maxwell.

Timbaloo
2013-10-04, 20:16:56
Vor allem dachte ich dass diese für Maxwell "abgesagt" wurden? Edit: Also die ARM-Kerne

Duplex
2013-10-04, 20:21:59
Ich würde mir eher mal die Frage stellen warum man den Typ glauben sollte. Ich kann mich nicht daran erinnern, dass jemals so früh geleakte Specs korrekt waren.
Korrekt!

Jeder kann irgendwelche Specs veröffentlichen, demnächst tauchen bestimmt neue Gerüchte auf das Pirate Islands ein doppelter Hawaii in 20nm ist :freak:
3DCenter braucht nur auf der Ersten Seite solche Specs veröffentlichen und schon kopiert jede Seite den Mist...

Gipsel
2013-10-04, 20:23:25
Sollte tatsächlich was dran sein fehlt auf jeden Fall ein 28nm Maxwell.Na zum Prozeß steht da doch gar nichts Konkretes. Nur daß er glaubt, daß der Refresh dann mit FinFets kommt (also vermutlich dieser 16FF Prozeß, was im Prinzip 20nm mit FinFets sind). Und die kleineren Versionen GM108/106 und vielleicht sogar noch GM104 als Maximum passen doch auch noch in 28nm. Bei den von TSMC avisierten Preisen für 20nm kommen die 20nm-Versionen vermutlich nicht ganz so schnell (oder TSMC hat doch noch seine Preisstruktur angepaßt).

Vor allem dachte ich dass diese für Maxwell "abgesagt" wurden? Edit: Also die ARM-KerneDie sollen doch erst mit dem FinFet-Refresh kommen. Das passiert wohl nicht vor 2015.

Timbaloo
2013-10-04, 20:26:02
Die sollen doch erst mit dem FinFet-Refresh kommen. Das passiert wohl nicht vor 2015.
Aber immernoch Maxwell, deswegen war ich etwas verwundert.

boxleitnerb
2013-10-04, 20:26:46
Wieso? Volta kommt erst 2016.

Duplex
2013-10-04, 20:29:44
Wenn Maxwell 2015 mit 6144 Shader kommt, wozu braucht man dann 1 Jahr später wieder Volta? Welcher Prozess steht 2016 zur Verfügung?

Gipsel
2013-10-04, 20:31:08
Wieso? Volta kommt erst 2016.Für Volta hat nVidia offiziell stacked RAM angekündigt. Weiß irgendwer was zu den ARM-Kernen? Das lief doch unter "Project Denver" oder so, nicht?

Wenn Maxwell 2015 mit 6144 Shader kommt, wozu braucht man dann 1 Jahr später wieder Volta? Welcher Prozess steht 2016 zur Verfügung?
10FF, also 14nm mit FinFets. Wird aber vermutlich eher Ende 2016/2017.

Timbaloo
2013-10-04, 20:32:56
Jo, Denver. ARM-Kerne mit ein wenig "Secret Sauce" :freak:

fondness
2013-10-04, 20:36:13
NV hat diese Roadmap in den letzten Jahren mehrmals geändert was die Performance-Werte und auch die Jahre betrifft, das würde ich nicht zu eng sehen. Der Maxwell Top-Dog kommt sicher nicht vor 2015, alles andere wird sich daran orientieren wann die entsprechenden Fertigungsprozesse verfügbar sind. Volta macht wohl vor 2017 nicht viel Sinn wenn Maxwell wieder >500mm² hat, da 16XM nicht mehr Transistoren/Fläche erlaubt sondern nur die Energieeffizienz erhöht.

Gipsel
2013-10-04, 20:37:07
Jo, Denver. ARM-Kerne mit ein wenig "Secret Sauce" :freak:
Hmm, für den Tegra-Bereich spuckt google das hier aus:
http://m.eet.com/media/1180326/tegra.jpg

2015, FinFet und Denver.

Duplex
2013-10-04, 20:38:50
2015, FinFet und Denver.
Also 16nm TSMC (20nm mit FinFet)

Gipsel
2013-10-04, 20:43:28
Also 16nm TSMC (20nm mit FinFet)
Ja, das paßt. Auch die Maxwell-GPU. Eine identische Architektur vom Smartphone bis zum HPC-Bereich nur eben skaliert hat auch schon was. Offenbar ist Denver 2014 noch nicht fertig und kommt dann erst mit dem FinFet-Refresh.

Timbaloo
2013-10-04, 20:47:54
Hmm, für den Tegra-Bereich spuckt google das hier aus:

2015, FinFet und Denver.
Das Bild kannte ich, aber soweit ich mich erinnern kann wurde das irgendwann revidiert. Muss ich mal suchen...

Gipsel
2013-10-04, 20:55:49
Das Bild kannte ich, aber soweit ich mich erinnern kann wurde das irgendwann revidiert. Muss ich mal suchen...Hmm, bei weiterer Suche wird Logan jetzt noch in 2013 gequetscht und 2014 kommt Stark als Nachfolger. Die Roadmap erwähnt aber 2015 nicht mehr. Keine Ahnung, was das heißt.
Edit: Oops, die war älter als die mit Parker/Maxwell/Dever/FinFet 2015.
Edit2: Also ich glaube die oben gezeigte Roadmap ist wirklich die beinahe aktuellste. Auf der einen Monat neueren (April 2013) sieht alles genau so aus (also immer noch Maxwell+Denver+FinFet) nur Parker ist da etwas nach Ende 2015 verschoben. Aber das würde ja auch passen, da das ja schon der Refresh sein soll und erstmal die normalen 20nm Chips in der zweiten Hälfte/Ende 2014 rauskommen müssen.

StefanV
2013-10-04, 21:11:36
Eureka!

http://pastebin.com/jm93g3YG
320bit Speicherinterface find ich 'nen bisserl seltsam. Das wären dann 2,5GiB Speicher (oder 5), wenn ich mich nicht verschätzt hab. Das schaut auch komisch aus, macht nicht wirklich Sinn, bei dem Chip. Bei einer Salvage Karte schauts natürlich anders aus, aber davon reden wir ja gerad nicht.

Auch hat keine Karte ein 256bit SI?!

Ronny145
2013-10-04, 21:18:50
320bit Speicherinterface find ich 'nen bisserl seltsam. Das wären dann 2,5GiB Speicher (oder 5), wenn ich mich nicht verschätzt hab. Das schaut auch komisch aus, macht nicht wirklich Sinn, bei dem Chip. Bei einer Salvage Karte schauts natürlich anders aus, aber davon reden wir ja gerad nicht.

Auch hat keine Karte ein 256bit SI?!


Das würde eigentlich gut zu Nvidia passen. Die knausern bekanntlich mit dem VRAM. So könnten sie 2,5 GB Karten anbieten und müssten nicht auf 3GB oder mehr bei den Performance Karten als GK104 Nachfolger.

Gipsel
2013-10-04, 21:25:28
Möglich. SP-Zahl soll ja zwischen 1500 und 2000 liegen. Je nach Zählweise (192 oder 256 pro SMX) könnte das klappen.Gerade erst gesehen. Hast recht, wenn man nur die SMX-Zahl (9) nimmt und mit den 192 ALUs pro Kepler-SMX-rechnet, käme man auf 1728 ALUs, also ziemlich genau in die Mitte. So eine Verwirrung mit der ALU-Anzahl gab es ja auch schon bei AMDs VLIW4/5 GPUs. Da kommt es darauf an, wer was genau richtig verstanden hat oder es mit Vermutungen ergänzt.

So könnten sie 2,5 GB Karten anbieten und müssten nicht auf 3GB oder mehr bei den Performance Karten als GK104 Nachfolger.NVidia hat schon öfter asymmetrische Bestückungen gemacht (also z.B. 2 GB an 192Bit). Bei 3 GB an 320 Bit sind ja nur die letzten 512MB langsamer, das fällt vermutlich im Normalfall kaum auf, aber eine 3GB Karte kann man trotzdem gut gegen die 384Bit-Konkurrenz vermarkten und spart ein bißchen Geld dabei. Also ausschließen würde ich das nicht. Und die Salvage-Version mit 256Bit fällt auch gleich ab (wurde nicht anfangs bald jeder GK106 mit 128Bit-Interface verkauft und die vollen 192Bit-Versionen kamen erst später?)

Ailuros
2013-10-04, 21:46:04
Wenn Maxwell 2015 mit 6144 Shader kommt, wozu braucht man dann 1 Jahr später wieder Volta? Welcher Prozess steht 2016 zur Verfügung?

Kommen high end single chip GPUs wirklich in jaehrlichen Kadenzen in letzter Zeit? Bei 2 Jahren kann man sogar sagen dass es "frueh genug" ist fuer die heutigen Verhaeltnisse.

Duplex
2013-10-04, 21:55:22
Kommen high end single chip GPUs wirklich in jaehrlichen Kadenzen in letzter Zeit?
Nein :(, weil boxleitnerb meinte das Volta bereits 2016 kommt.
Ich glaube das Projekt wird man auf 2017 verschieben, alles andere macht keinens sinn.

boxleitnerb
2013-10-04, 22:09:39
Warum? Kepler 2012, Maxwell 2014, Volta 2016. Passt doch.

Gipsel
2013-10-04, 22:09:45
Nein :(, weil boxleitnerb meinte das Volta bereits 2016 kommt.
Ich glaube das Projekt wird man auf 2017 verschieben, alles andere macht keinens sinn.Vorher steht der 10FF genannte Prozeß als Nachfolger der 20nm Finfets (16FF) vermutlich auch gar nicht zur Verfügung. Oder man versucht da auch, die kleineren/mittleren Ableger noch in 16FF zu bringen, bevor der Topdog dann später im kleineren Prozeß kommt.

Hugo78
2013-10-04, 22:42:59
Eureka!

http://pastebin.com/jm93g3YG

Das klingt doch nett. :)

mczak
2013-10-04, 23:22:27
Ja, das paßt. Auch die Maxwell-GPU. Eine identische Architektur vom Smartphone bis zum HPC-Bereich nur eben skaliert hat auch schon was. Offenbar ist Denver 2014 noch nicht fertig und kommt dann erst mit dem FinFet-Refresh.
Denver 2014 noch nicht fertig? Scheint ja ewig zu dauern, Projekt Denver ist ja schon länger bekannt als apple überhaupt eine Prozessorsparte hat und von apple kann man schon eine armv8-cpu kaufen :-). Scheint dann wohl doch nicht so wichtig gewesen zu sein wenn's so lange dauert.

Skysnake
2013-10-05, 00:00:49
Eureka!

http://pastebin.com/jm93g3YG
Aha, nVidia soll super duper dedizierte DP-Unit gebaut haben, die so super Energieeffizient sind, das man damit alle Nachteile von komplett replizierter Logik überkompensieren kann, und dann schaffen Sie es erst jetzt auf den DP-Einheiten auch SP laufen zu lassen???

Also das klingt für mich extrem an den Haaren herbeigezogen. Gerade DP auf SP zu beschneiden sollte ja relativ einfach gehen. Einfach die entsprechenden Teile Clockgaten und gut ist.

GM100 kommt so definitiv nicht mehr 2014 würde ich sagen, oder wenn aller aller frühestens mit ganz viel Glück in Q4, wobei ich mir das nicht vorstellen kann. Das wird auch wieder nen Monsterchip.

Der große L2 Cache ist eigentlich nur die logische Fortführung dessen was man halt machen muss, weil die SPeicherbandbreite nicht schnell genug mit steigt.

Die Stegerung beim L1/shared Mem ist auch logisch. Da ist man mit GK110 ja etwas runter gegangen bzgl Cache/ALUs.

Wenn das stimmt, sieht das ein wenig danach aus. Und die Register und Caches haben eine Generalüberholung bekommen.

Wenn, dann ja.


Hmm, weniger DP, vermutlich fehlen auch ein paar der HPC-Sachen, die nur der GM100/110 bekommt, dafür mehr Cache. Könnte schon noch ganz gut mit 28nm in die gleiche Größe wie heute GK110 passen. Aber für GM100 muß man dann wohl auf 20nm warten, das geht bei den Specs definitiv nicht anders.
Nein, nicht weniger DP, sondern "einfach" mehr SP...

Für mich stinkt das in Bezug auf GK110.

Ich ging davon aus das zu mindestens gm104 in 28nm kommt und nicht mehr so weit in der Ferne liegt, sprich spätestens Q2 2014, dann wischt eine potenzielle GTX880 erst einmal den Boden mit der 290X bei den Specs.

Das sind keine 800mm² in 20nm.
Woho, GM100 wird man da garantiert nicht sehen, und GM104 muss erstmal zeigen, was er wirklich kann. Zumal man auch erstmal schauen muss, was jetzt bei Hawaii wirklich am Ende bei rum kommt.


Wie soll das gehen? Kann man die Abstrahierung durch die DX-API so tatsächlich "umgehen?"
Gute Frage. Vor allem wie will man mit nem ARM-Kern die logische Umsetzung schneller hinbekommen als mit ner fetten x86 CPU?

Wenn schreit sowas nach FFU, aber das glaub ich nicht wirklich.

Das Einzige, was ich mir vorstellen könnte sind OS-Traps die man sich spart, aber dazu wird wohl niemand außerhalb von nVidia etwas sagen können, da das in die Tiefen der Treiber geht, und die sind ja absolut closed Source.

Paßt das nicht in etwa zu dem dort aufgeführten GM106? Also die Speicherbandbreite könnte ein wenig knapp werden, aber wer weiß, wieviel die Caches bringen.
Wie immer halt :ugly:

Zwischen nichts und sehr viel ;D


Keine Ahnung. Coda hat ja letztens mal gesagt, daß DirectX selber gar nicht mehr so viel overhead erzeugt (also verglichen zu früheren Versionen). Also könnte man vermuten, daß viel einfach dadurch verursacht wird, daß der Treiber im Hintergund rumhexen muß, damit bestimmte Bedingungen eingehalten werden, die von der DX-API garantiert werden. Dadurch entsteht wohl der Hauptteil des CPU-Overheads.

Ja, aber wie soll denn eine kleine ARM-CPU das schneller hinbekommen als nen "fetter" x86 Core?

Für mich hört sich das eher so an, als ob man die Workdistribution dynamisch zur Laufzeit in Software regeln will, um preemption und solche Sachen zu ermöglichen und eventuell Skalara Codeteile auf den "Co"prozessor, also die iCPU ;D auslagern will. Also so teilweise so wie AMD mit den Skalarunits.


Keine Ahnung, ob man das irgendwie auf eine andere CPU auslagern könnte (denn nichts Anderes wird da ja behauptet). Daß nVidia ARM-Cores integrieren will, hatte ich bisher meist nur im GPGPU-Kontext gehört.
Die iCPUs waren vor allem für was anderes interessant/wichtig. nVidia war da aber einfach zu langsam und wird von der Konkurrenz links überholt. Mehr kann ich dazu aber im Moment nicht sagen, da mir nicht klar ist, was bekannt ist und was nicht von Seiten der Konkurrenz. Project Denver sollte aber klar sein, was damit bezweckt war. Nur gehört hat man davon aus Barcelona schon LANGE nichts mehr.

Für Volta hat nVidia offiziell stacked RAM angekündigt. Weiß irgendwer was zu den ARM-Kernen? Das lief doch unter "Project Denver" oder so, nicht?

Zu Volta wurde nichts bzgl ARM-Cores gesagt. Abseits von SOCs glaub ich aber auch nicht wirklich dran, das nVidia es schafft das noch im HPC-Bereich zu etablieren. Der Zug ist abgefahren meiner MEinung nach. Da sitzt einfach schon jemand anderes da mit SEHR viel attraktiveren Randbedingungen....

Denver 2014 noch nicht fertig? Scheint ja ewig zu dauern, Projekt Denver ist ja schon länger bekannt als apple überhaupt eine Prozessorsparte hat und von apple kann man schon eine armv8-cpu kaufen :-). Scheint dann wohl doch nicht so wichtig gewesen zu sein wenn's so lange dauert.
Tja, nVidia hat da einfach viel zu lange gebraucht, und wenn man bedenkt, wie wenig/nichts man mehr aus Barcelona gehört hat, würde ich nicht erwarten, dass da überhaupt noch was kommt, was wirklich noch was mit der Grundidee hinter Denver zu tun hat.

Hugo78
2013-10-05, 08:25:48
Denver 2014 noch nicht fertig? Scheint ja ewig zu dauern, Projekt Denver ist ja schon länger bekannt als apple überhaupt eine Prozessorsparte hat und von apple kann man schon eine armv8-cpu kaufen :-). Scheint dann wohl doch nicht so wichtig gewesen zu sein wenn's so lange dauert.

Ein fauler Apple und Birnen Vergleich.


Tja, nVidia hat da einfach viel zu lange gebraucht, und wenn man bedenkt, wie wenig/nichts man mehr aus Barcelona gehört hat, würde ich nicht erwarten, dass da überhaupt noch was kommt, was wirklich noch was mit der Grundidee hinter Denver zu tun hat.

Die Grundidee war mal eine(n) X86 APU/SoC zubauen, natürlich hat das heute keinen Bestand mehr.

Skysnake
2013-10-05, 09:27:56
Das weiß ich auch :tongue:

Was Sie mal wollten bringt aber halt ziemlich wenig, wenn die Konkurrenz nen fertiges Produkt verkauft und man selbst immer noch nichts vorzuzeigen haben.

Hugo78
2013-10-05, 11:06:56
64bit allein für Handys und Tabs, ist nicht was Nvidia mit Denver vorhat.

Edgecrusher86
2013-10-05, 11:34:23
http://abload.de/img/gtx05uqn.png

Top secret. ;)

Sofern die Spekus stimmen, wären 5GB beim "großen" GM104 doch wahrscheinlicher, will man mit Hawaii konkurrieren.
Die Clocks könnten aber auch niedriger sein, sollten es >=500 mm² sein, wobei man dann sicherlich auch wieder 250W TDP ansetzt.
20 - 30% Gaming-Leistung oberhalb von TITAN wären sicher möglich mit solchen Specs.

Gipsel
2013-10-05, 12:10:34
Gib's zu, den hast Du selber gebastelt! Rev A2 und GPU-Z kennt das schon?

Edgecrusher86
2013-10-05, 12:16:43
Give the dog a bone. :biggrin:
Es wäre ja auch langweilig, wenn das Meiste aus leeren Feldern bestehen würde. Davon abgesehen macht es natürlich auch optisch was her, wenn man die Spekus kompakt beeinander hat.
Stimmt, A1 wär aktuell realistischer, aber dann vielleicht mit niedrigeren Clocks. :)

M4xw0lf
2013-10-05, 12:36:25
Wie lang es wohl dauert bis dieses Bild um die Welt geht? :D

Nakai
2013-10-05, 12:38:36
Wie lang es wohl dauert bis dieses Bild um die Welt geht? :D

Falsches Forum. Er hätte es bei SemiAccurate oder Fudzilla posten sollen...das geht schneller!;)

M4xw0lf
2013-10-05, 12:40:50
Ach wa, die Sachen aus dem 3dcenter halten sich dafür umso hartnäckiger ;)

Zergra
2013-10-05, 12:50:20
Ach wa, die Sachen aus dem 3dcenter halten sich dafür umso hartnäckiger ;)
20nm hätte man auch nehmen können, da hätte ich von NV mehr erwartet :tongue:

mczak
2013-10-05, 14:46:07
Ein fauler Apple und Birnen Vergleich.

Kein Widerspruch :-).
Trotzdem dachte man da zeitweise da sei nvidia extrem früh dran mit armv8 Architektur (auch wenn's natürlich nicht bloss um die CPU geht), stellt sich jetzt heraus das ist überhaupt nicht der Fall. So richtig konkret wie das aussehen soll weiss man irgendwie immer noch nicht mehr als vor 3 Jahren.

Hugo
2013-10-05, 17:37:30
Für Volta hat nVidia offiziell stacked RAM angekündigt. Weiß irgendwer was zu den ARM-Kernen? Das lief doch unter "Project Denver" oder so, nicht?



ich hab mal irgendwo gelesen, dass Die ARM Kerne sich Datentransfers kümmern sollen und die Shader mit Daten füttern sollen. Das hat meiner Meinung nach nicht mit Denver zu tun.

Edit:
habs gefunden was ich meine
http://www.heise.de/newsticker/meldung/Nvidia-bestaetigt-Auf-Maxwell-GPUs-sitzen-auch-ARM-Prozessorkerne-1172923.html

Ailuros
2013-10-05, 22:05:26
Warum? Kepler 2012, Maxwell 2014, Volta 2016. Passt doch.

Wir werden den Maxwell top dog schon innerhalb 2014 sehen? Junge Dein Optimismus ist nicht mehr zu drosseln :freak:

Denver 2014 noch nicht fertig? Scheint ja ewig zu dauern, Projekt Denver ist ja schon länger bekannt als apple überhaupt eine Prozessorsparte hat und von apple kann man schon eine armv8-cpu kaufen :-). Scheint dann wohl doch nicht so wichtig gewesen zu sein wenn's so lange dauert.

Wie viele delays hast Du bis jetzt gezaehlt? Schoen egal welche Ziffer rechne +1.

boxleitnerb
2013-10-05, 22:09:34
Wir werden den Maxwell top dog schon innerhalb 2014 sehen? Junge Dein Optimismus ist nicht mehr zu drosseln :freak:

Wo hab ich von "top dog" gesprochen? Ich sprach von "Maxwell", und dabei ist es völlig egal, welcher Chip gemeint ist, denn es ging um den 2-Jahres-Rhythmus. Ob du nun GM104 (2014), GV104 (2016) oder GM100/110 (2015), GV100/110 (2017) nimmst ist wurscht - es bleibt bei zwei Jahren zwischen den Architekturen. Erste Kepler-GPU: 2012. Erste Maxwell-GPU: 2014. Erste Volta-GPU: 2016.

Manchmal glaube ich echt, du willst mich missverstehen :frown:

Hugo78
2013-10-05, 22:15:06
Hat mit Maxwell nur indirekt was zutun, deshalb der Spoiler.
Kein Widerspruch :-).
Trotzdem dachte man da zeitweise da sei nvidia extrem früh dran mit armv8 Architektur (auch wenn's natürlich nicht bloss um die CPU geht), stellt sich jetzt heraus das ist überhaupt nicht der Fall. So richtig konkret wie das aussehen soll weiss man irgendwie immer noch nicht mehr als vor 3 Jahren.



Die erste öffentliche Ankündigung war 2011.
- http://www.3dcenter.org/news/2011-01-05
Es sind also zwei Jahre (ja kleinlich, aber wir sind hier ja nicht bei "ComputerBILD").

Damals war auch schnell klar, was kommen soll.
Danach soll diese CPU zusammen mit der GPU-Architektur "Maxwell" im Jahr 2013 in den Markt kommen. Aus den Ausführungen wird auch deutlich, daß diese nVidia-CPU zwingend auf einen Grafikkern angewiesen ist, um jenen für die Hauptlast der CPU-Berechnungen einzuspannen – ein deutlich anderer Ansatz als bei bisherigen PC-Prozessoren.
- http://www.3dcenter.org/news/2011-01-20

Und letzes Jahr Dez. war auch klar, wohin die Reise geht.
Die X-bit Labs bringen eine nVidia-Aussage, wonach das "Project Denver" nicht auf Microserver ausgerichtet sei wie beispielsweise die jüngsten Atom-Prozessoren von Intel oder auch der neue ARM-Ansatz von AMD. Beim "Project Denver" peilt nVidia hingegen das ganz reguläre HighPerformance-Segment an und wird die komplett eigendesignte ARM-CPU auch entsprechend auslegen.
- http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-13-dezember-2012

Ein so ambitioniertes ARMbasiertes-Projekt hat sonst keiner.
Ok Apple hat Intel schon angedroht ab 2017 keine Intel CPUs in Mac Books mehr einsetzen zuwollen, weil sie glauben dann schon bessere eigene Designs zuhaben, aber 2017 ist halt noch ne Ecke später, auch wenn Denver jetzt erst 2015 kommt und sie schon einen Vorsprung haben was 64bit auf SFF Ebene angeht.

Ailuros
2013-10-05, 22:24:15
Die Grundidee war mal eine(n) X86 APU/SoC zubauen, natürlich hat das heute keinen Bestand mehr.

x86 wuerde ja noch halbwegs Sinn machen; sie wollten x86 emulieren was ziemlich uebertoll schon damals klang. Engineers wollten im besten Fall mit dem Kopf gegen die Wand rennen aber es war nicht ihre Entscheidung. Als nach unendlicher Werkelei nichts daraus wurde, wurde es dem Management endlich klar dass es die bloedeste Idee des Jahrhunderts war.

Wo hab ich von "top dog" gesprochen?

Auf den roadmaps geht es um Tesla HPC chips da DP perf/W erwaehnt wird.

Ich sprach von "Maxwell", und dabei ist es völlig egal, welcher Chip gemeint ist, denn es ging um den 2-Jahres-Rhythmus.
Ob du nun GM104 (2014), GV104 (2016) oder GM100/110 (2015), GV100/110 (2017) nimmst ist wurscht - es bleibt bei zwei Jahren zwischen den Architekturen. Erste Kepler-GPU: 2012. Erste Maxwell-GPU: 2014. Erste Volta-GPU: 2016.

Bullshit Hoch10. Siehe oben.

Manchmal glaube ich echt, du willst mich missverstehen :frown:

Manchmal glaube ich dass manche von Euch wirklich nicht zwei Dinge parallel bearbeiten koennt. Ich hab zwar staendig brainfarts aber ueber mehr als "single threading" ist mein verrostetes Hirn immer noch faehig :P




Die erste öffentliche Ankündigung war 2011.
- http://www.3dcenter.org/news/2011-01-05
Es sind also zwei Jahre (ja kleinlich, aber wir sind hier ja nicht bei "ComputerBILD".

Damals war auch schnell klar, was kommen soll.

- http://www.3dcenter.org/news/2011-01-20

Und letzes Jahr Dez. war auch klar, wohin die Reise geht.

- http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-13-dezember-2012

Ein so ambitioniertes ARMbasiertes-Projekt hat sonst keiner.
Ok Apple hat Intel schon angedroht ab 2017 keine Intel CPUs in Mac Books mehr einsetzen zuwollen, weil sie glauben dann schon bessere eigene Designs zuhaben, aber 2017 ist halt noch ne Ecke später, auch wenn Denver jetzt erst 2015 kommt und sie schon einen Vorsprung haben was 64bit auf SFF Ebene angeht.

Na Gott sei Dank haben sie relativ spaet angeduendigt und nicht frueher. Nach der Ankuendigung oben kamm noch ein delay dazu da sie doch noch ihre Meinung aenderten und auf armV8 nochmal umsteuerten. Apple hat alle Entwicklungs- und Intergrierungs- Rekordzeiten mit der Cyclone 64bit CPU und Rogue GPU gebrochen.

Hugo78
2013-10-05, 22:38:17
Na Gott sei Dank haben sie relativ spaet angeduendigt und nicht frueher. Nach der Ankuendigung oben kamm noch ein delay dazu da sie doch noch ihre Meinung aenderten und auf armV8 nochmal umsteuerten. Apple hat alle Entwicklungs- und Intergrierungs- Rekordzeiten mit der Cyclone 64bit CPU und Rogue GPU gebrochen.

Du weißt besser als alle anderen wie (über)vorsichtig Nvidia oft mit ihrer Tegra-Geschichte umgeht.
Da wird nur das investiert, was auch sinnvoll erscheint, auch wenn sie immer viel Wirbel um ihre grad aktuelle Lösung machen.
Tegra allein ist nicht das Kerngeschäft, bei Denver schaut das schon anders aus...

x86 wuerde ja noch halbwegs Sinn machen; sie wollten x86 emulieren was ziemlich uebertoll schon damals klang. Engineers wollten im besten Fall mit dem Kopf gegen die Wand rennen aber es war nicht ihre Entscheidung. Als nach unendlicher Werkelei nichts daraus wurde, wurde es dem Management endlich klar dass es die bloedeste Idee des Jahrhunderts war.

... "Think Big + try and error", typische US-Amerikanische Herangehensweise, wenns ums große Ganze geht.
Nvidia hatte damals auch durchaus eine kleine, aber berechtigte Hoffnung, dass die Kartellbehörden Intel dazu zwingen könnten die X86 Lizens an Andere ausser nur an AMD und VIA zuvergeben.
VIA ist seit ewigen Zeiten unbedeutend und AMD war auch damals auch deutlich auf dem absteigenden Ast, seit Intels Wechsel hin zur Core geschichte.

boxleitnerb
2013-10-05, 22:43:46
Oh Mann!
Es ging darum, dass laut Gipsel die ARM-Kerne frühestens 2015 kommen. Darauf hin meinte timbaloo:
Aber immer noch Maxwell, deswegen war ich etwas verwundert.

Immer noch. Im Sinne von "noch nicht der Nachfolger von Maxwell". So habe ich es jedenfalls verstanden. Und daraufhin stellte ich klar, dass man mit besagtem Nachfolger der Architektur, nämlich Volta, frühestens 2016 rechnen kann aufgrund der 2-Jahres-Kadenz. Was soll es auch sonst sein, wenn es kein Maxwell wäre? Ich sprach allgemein von der Architektur, nicht von HPC oder spezifischen GPUs. Zudem ist für diese Überlegung ja auch nicht ausgeschlossen, dass bereits die ersten kleinen GPUs von Volta ARM-Kerne besitzen könnten (auch, wenn dies bei Maxwell voraussichtlich nicht der Fall sein wird) - und die kommen nunmal voraussichtlich 2016. Dass der große Volta wohl frühestens 2017 kommt (sofern man die aktuelle Strategie beibehält), weiß ich selbst...du solltest mich inzwischen so gut kennen, dass ich keine derart unrealistischen Vorstellungen habe wie du sie mir hier andichtest ;)

Ailuros
2013-10-05, 22:54:56
Give the dog a bone. :biggrin:
Es wäre ja auch langweilig, wenn das Meiste aus leeren Feldern bestehen würde. Davon abgesehen macht es natürlich auch optisch was her, wenn man die Spekus kompakt beeinander hat.
Stimmt, A1 wär aktuell realistischer, aber dann vielleicht mit niedrigeren Clocks. :)

Es wird gleich die Runde im Netz machen; 15 Minuten Ruhm kann keinem schaden :P


... "Think Big + try and error", typische US-Amerikanische Herangehensweise, wenns ums große Ganze geht.
Nvidia hatte damals auch durchaus eine kleine, aber berechtigte Hoffnung, dass die Kartellbehörden Intel dazu zwingen könnten die X86 Lizens an Andere ausser nur an AMD und VIA zuvergeben.
VIA ist seit ewigen Zeiten unbedeutend und AMD war auch damals auch deutlich auf dem absteigenden Ast, seit Intels Wechsel hin zur Core geschichte.

Das ist doch alles halb so schlimm; schau her Du hoffst anfangs auf eine Lizenz (wobei Dich auch der letzte Depp versichert dass Du sie nicht bekommen wirst.. aber es muss ja mit dem Kopf durch die Wand). Ok die Lizenz kommt nicht und anstatt dass Du gleich auf ARM CPU ISA gehst wie Du beraten wirst geht es nochmal mit dem Kopf durch die Wand und es heisst "wir emulieren x86" obwohl die engineers sich heisser bruellen dass es eine vedammte Schnappsidee ist.

Es gab NIE eine Hoffnung dafuer; ich kann ehrlich Jensen in den letzten Jahren verdammt schwer verstehen. Deshalb geht mir auch die gesamte Tegra bzw. Denver Geschichte schon seit Jahren auf den Wecker. Er war nie so afaik in der Vergangenheit als NV noch relativ jung war; entweder hat er duch die Jahre das Gefuehl des Marktes insgesamt verloren oder es einfach irgend eine Schraube in seinem Schaedel locker geworden. Anders kann ich mir so viele falsche Design-Entscheidungen nicht mehr erklaeren. Bei den GPUs ist er immer noch das absolute Genie.

Timbaloo
2013-10-05, 22:56:54
entweder hat er duch die Jahre das Gefuehl des Marktes insgesamt verloren oder es einfach irgend eine Schraube in seinem Schaedel locker geworden
Bei Holzschrauben kann das mal passieren ;D

Gipsel
2013-10-05, 22:57:17
Darauf hin meinte timbaloo:

Immer noch. Im Sinne von "noch nicht der Nachfolger von Maxwell".Das war aber nicht zeitlich gemeint, sondern er meinte, daß die ARM-Cores gar nicht mit Maxwell kommen sondern gestrichen wären (also erst mit einem der Nachfolger). Aber nV ist ja offenbar on record mit den 2015 Denver+Maxwell+FinFets.

Duplex
2013-10-05, 22:57:32
Wo hab ich von "top dog" gesprochen? Ich sprach von "Maxwell", und dabei ist es völlig egal, welcher Chip gemeint ist, denn es ging um den 2-Jahres-Rhythmus.
Ich bezog mich auf den High End Chip Maxwell im Jahr 2015.

Ailuros
2013-10-05, 23:06:47
Oh Mann!
Es ging darum, dass laut Gipsel die ARM-Kerne frühestens 2015 kommen. Darauf hin meinte timbaloo:

Ja "oh Mann"...erstens hatte mein original Post einen smiley was wohl eher auf einen Witz deutet.


Immer noch. Im Sinne von "noch nicht der Nachfolger von Maxwell". So habe ich es jedenfalls verstanden. Und daraufhin stellte ich klar, dass man mit besagtem Nachfolger der Architektur, nämlich Volta, frühestens 2016 rechnen kann aufgrund der 2-Jahres-Kadenz. Was soll es auch sonst sein, wenn es kein Maxwell wäre?

Ich verrate Dir mal ein "Geheimnis": es waren anfangs nie zwei Tegra SoCs mit A15 CPUs geplant. Es wird nicht leicht sein den Zusammenhang zusammen zu reimen, aber hey ich bekomm auch nicht alles so leicht serviert :P

Ich sprach allgemein von der Architektur, nicht von HPC oder spezifischen GPUs. Zudem ist für diese Überlegung ja auch nicht ausgeschlossen, dass bereits die ersten kleinen GPUs von Volta ARM-Kerne besitzen könnten (auch, wenn dies bei Maxwell voraussichtlich nicht der Fall sein wird) - und die kommen nunmal voraussichtlich 2016. Dass der große Volta wohl frühestens 2017 kommt (sofern man die aktuelle Strategie beibehält), weiß ich selbst...du solltest mich inzwischen so gut kennen, dass ich keine derart unrealistischen Vorstellungen habe wie du sie mir hier andichtest ;)

Momentan sind wir beim Standpunkt dass es ARM Kerne nur in spezifischen HPC Varianten geben wird. Mag sein dass es nur fuer Maxwell so sein wird (wenn ueberhaupt) oder eine generelle Tendenz bis in die weitere Zukunft welches auch mit Volta verbunden sein koennte. Jetzt versuch nochmal alles zusammen zu reimen und es wird leichter zu verstehen sein was ich fuer ein Bild fuer das Ganze habe.

Das war aber nicht zeitlich gemeint, sondern er meinte, daß die ARM-Cores gar nicht mit Maxwell kommen sondern gestrichen wären (also erst mit einem der Nachfolger). Aber nV ist ja offenbar on record mit den 2015 Denver+Maxwell+FinFets.

Ehrliche Frage: was meinen die eigentlich mit FinFets? 16nm FinFet, ergo 20nm + FinFet oder verstehe ich etwas falsch? Denn Logan ist immer noch 28HPM. Wieso hab ich irgendwo das muerbe Gefuehl dass es nur falsch eingeschaetzter bullshit ist?

Duplex
2013-10-05, 23:10:19
Maxwell wird keine neue Architektur, Kepler+, aber effizienter!

Gipsel
2013-10-05, 23:15:15
Ehrliche Frage: was meinen die eigentlich mit FinFets? 16nm FinFet, ergo 20nm + FinFet oder verstehe ich etwas falsch? Denn Logan ist immer noch 28HPM. Wieso hab ich irgendwo das muerbe Gefuehl dass es nur falsch eingeschaetzter bullshit ist?Huang hat selber vor ein paar Monaten gesagt, daß Parker mit FinFets kommt (also vermutlich 20nm+FinFets [was TSMC FF16 nennt] und Denver-Kerne mit Maxwell-Grafik haben soll). Aber das passiert wohl erst Ende 2015 oder gar erst Anfang 2016.

Ailuros
2013-10-05, 23:28:28
Huang hat selber vor ein paar Monaten gesagt, daß Parker mit FinFets kommt (also vermutlich 20nm+FinFets [was TSMC FF16 nennt] und Denver-Kerne mit Maxwell-Grafik haben soll). Aber das passiert wohl erst Ende 2015 oder gar erst Anfang 2016.

Na wenn's von Jensen immer und immer wieder kommt dann ist es mal wieder Anteil seiner wohl bekannten Uebertreibungen. Logan "soll" Anfang 2014 erscheinen wobei "erscheinen" relativ ist; womoeglich wenn alles nach Plan laeuft ein eigenes Logan Vorzeige wasauchimmer Geraet von NV selber und dann erst ab schaetzungsweise H2 von Partnern reale Geraete wie schon erwaehnt unter 28HPM. Parker wird also nicht nur einen brandneue CPU und eine brandneue GPU Architektur haben im Vergleich zu Logan sondern es wird auch von 28HPM direkt auf 16nm FinFET huepfen (20LP wird effektiv ausgelassen) und all die Schoehnheit soll noch innerhalb 2015 passieren. Uhmmm....;D;D;D *hust* :rolleyes:

***edit:

http://forum.beyond3d.com/showpost.php?p=1791997&postcount=391

Ich bin kein Deutscher :P

Nightspider
2013-10-06, 01:13:53
Wo hab ich von "top dog" gesprochen?


Das ließt Ailuros in letzter Zeit öfter zwischen den Zeilen.
Vielleicht hat er eine Brille auf auf der "Maxwell Topdog" steht.

Wo hab ich von "top dog" gesprochen?
Manchmal glaube ich echt, du willst mich missverstehen :frown:

Das Gefühl kenne ich. :rolleyes:

Ailuros
2013-10-06, 08:00:16
Das ließt Ailuros in letzter Zeit öfter zwischen den Zeilen.
Vielleicht hat er eine Brille auf auf der "Maxwell Topdog" steht.



Das Gefühl kenne ich. :rolleyes:

Das Thema hier ist nicht ueber mich oder Deine persoenlichen Bitterheiten.

boxleitnerb
2013-10-06, 08:11:33
Das war aber nicht zeitlich gemeint, sondern er meinte, daß die ARM-Cores gar nicht mit Maxwell kommen sondern gestrichen wären (also erst mit einem der Nachfolger). Aber nV ist ja offenbar on record mit den 2015 Denver+Maxwell+FinFets.

Hm, das müsste er nochmal klarstellen. Woher kommt dieses Gerücht der Streichung überhaupt?

Ich bezog mich auf den High End Chip Maxwell im Jahr 2015.

Ja mag sein, mein Post war allerdings eine Antwort auf Timbaloo. Kann sein, dass ich ihn falsch verstanden habe, aber wenn ich es mir im Nachhinein nochmal durchlese, ist nicht so völlig klar, was er genau gemeint hat.

Ailuros
2013-10-06, 09:11:10
Hm, das müsste er nochmal klarstellen. Woher kommt dieses Gerücht der Streichung überhaupt?

Hab ich persoenlich auch nicht so gehoert; ich hab lediglich gehoert dass wenn Denver in Maxwell cores reinkommt dann nur in speziellen Tesla Varianten. Diese zweischienige Entwicklung klingt mir persoenlich aber ziemlich teuer.

Gipsel koennte uns vielleicht mal auf die Beine helfen mit einer kurzen logischen Erklaerung zu was die ARM cores ueberhaupt nutzvoll waeren in einem Tesla, denn ich hab ehrlich keine Vorstellung dazu.

Timbaloo
2013-10-06, 11:41:05
Ich krieg's nicht mehr zusammen warum ich überzeut davon war, dass Denver nicht mehr mit Maxwell kommt. Sorry für die Konfusion :redface:

Wobei ich ja, wenn die Spekulation stimmt dass Denver erst mit dem Maxwell-Refreh kommt, halb recht hatte *duckundrenn* :freak:

Timbaloo
2013-10-06, 15:56:51
Auszug aus den Spekulationen die Ailuros gepostet hat:
the big thing is that they will be used by the graphics driver to offload some heavy lifting from the system cpu. basically most part of the driver will be running on the gpu itself!
Könnte das nicht auch wunderbar zu NVs wundersamer Öffnung in Richtung Linux [1] passen? Man könnte man ja große Teile in Firmware realisieren, diese wären dann logischerweise closed, aber der eigentliche Treiber (oder was davon übrig bleibt) könnte open werden, ohne dass NV befürchten muss allzu viel preiszugeben.
Hätte natürlich den Nachteil, dass man auch regelmäßiger ein Firmware-Update machen müsste. Zusätzlich zu höheren HW-Kosten.

Oder klingt das nach Unsinn?

[1] http://arstechnica.com/information-technology/2013/09/nvidia-seeks-peace-with-linux-pledges-help-on-open-source-driver/

gnahr
2013-10-06, 17:36:31
Oder klingt das nach Unsinn?
nein, das ist ein sehr schöner gedanke, denn so noch nicht viele zuende gedacht haben. :)
glückwunsch.

Konami
2013-10-06, 17:37:58
Könnte das nicht auch wunderbar zu NVs wundersamer Öffnung in Richtung Linux [1] passen?
Das hängt vor allem mit SteamOS und den Steam Machines zusammen, wo seitens Valve (vorerst) ausschließlich nVidia-Grakas drinstecken.
http://blogs.nvidia.com/blog/2013/09/25/steam-rolling-into-your-living-room/
http://steamcommunity.com/groups/steamuniverse#announcements/detail/2145128928746175450

Blediator16
2013-10-06, 18:17:52
Glaubt ihr Nvidias "öffnung" kommt von ungefähr? :D

Hugo
2013-10-07, 08:14:24
Hab ich persoenlich auch nicht so gehoert; ich hab lediglich gehoert dass wenn Denver in Maxwell cores reinkommt dann nur in speziellen Tesla Varianten. Diese zweischienige Entwicklung klingt mir persoenlich aber ziemlich teuer.

Gipsel koennte uns vielleicht mal auf die Beine helfen mit einer kurzen logischen Erklaerung zu was die ARM cores ueberhaupt nutzvoll waeren in einem Tesla, denn ich hab ehrlich keine Vorstellung dazu.

ich hab mal irgendwo gelesen, dass Die ARM Kerne sich Datentransfers kümmern sollen und die Shader mit Daten füttern sollen. Das hat meiner Meinung nach nicht mit Denver zu tun.

Edit:
habs gefunden was ich meine
http://www.heise.de/newsticker/meldung/Nvidia-bestaetigt-Auf-Maxwell-GPUs-sitzen-auch-ARM-Prozessorkerne-1172923.html



hatte ich vorhin schon mal geschrieben. Was meinen die Experten dazu?
http://www.heise.de/newsticker/meldung/Nvidia-bestaetigt-Auf-Maxwell-GPUs-sitzen-auch-ARM-Prozessorkerne-1172923.html

Skysnake
2013-10-07, 10:45:06
nVidia erzählt viel wenn der Tag lang ist, wobei ich schon davon ausgehe, dass Sie wirklich ARM-Kerne auf der GPU bringen werden mit Maxwell.

Wie aber schon gesagt gehe ich eher davon aus, dass diese serielle Aufgaben übernehmen, um die SMX nicht mit fast toten Branches zu verstopfen..

Hugo
2013-10-07, 11:22:31
nVidia erzählt viel wenn der Tag lang ist, wobei ich schon davon ausgehe, dass Sie wirklich ARM-Kerne auf der GPU bringen werden mit Maxwell.

Wie aber schon gesagt gehe ich eher davon aus, dass diese serielle Aufgaben übernehmen, um die SMX nicht mit fast toten Branches zu verstopfen..


und was könnte das an Performance bringen?

Skysnake
2013-10-07, 11:25:09
Zwischen nichts und verdammt viel. Kommt halt immer GENAU auf das Problem an.

Ich würde aber in Games kaum einen Zugewinn erwarten. Vielleicht niedriger einstelliger Prozentsatz.

Ailuros
2013-10-07, 15:01:20
hatte ich vorhin schon mal geschrieben. Was meinen die Experten dazu?
http://www.heise.de/newsticker/meldung/Nvidia-bestaetigt-Auf-Maxwell-GPUs-sitzen-auch-ARM-Prozessorkerne-1172923.html

Dass der zweite Link full of shit ist. Welches 22nm genau? :biggrin: Aber ist schon nett zu sehen dass TOP DOG (fuer die extra Blinden) Maxwell in der roadmap im Link in 2011 immer noch fuer 2013 angeschlagen war. Bleibt also abzusehen wieso wirklich Volta es noch innerhalb 2016 schaffen wird oder ob sie wieder zu einer Verschiebung gezwungen werden.

http://www.heise.de/newsticker/meldung/Nvidia-bestaetigt-Auf-Maxwell-GPUs-sitzen-auch-ARM-Prozessorkerne-1172923.html?view=zoom;zoom=3

http://www.heise.de/imgs/18/6/1/9/5/1/5/ctmaxwell1.jpg-5f3c6decd9346978.jpeg

Ultra daemliche Frage: wird GM100 oder wie immer das Ding heisst es noch innerhalb 2014 selbst fuer nur HPC schaffen oder sollte man eher 2015 im Visier behalten?

Sonst klingt die mehr FLOPs fuer HPC von den ARM cores zwar plausibel aus meiner Ecke aber meine laienhafte Daemlichkeit versteht nicht wieso man die mm2 nicht besser in mehr GPU ALUs bzw. GPU FLOPs investiert haette. Ich lass mich aber nach wie vor eines besseren belehren.

Timbaloo
2013-10-07, 15:06:04
Sonst klingt die mehr FLOPs fuer HPC von den ARM cores zwar plausibel aus meiner Ecke aber meine laienhafte Daemlichkeit versteht nicht wieso man die mm2 nicht besser in mehr GPU ALUs bzw. GPU FLOPs investiert haette.
Wieviel mm^2 sind denn da ungefähr zu erwarten?

Ailuros
2013-10-07, 15:18:12
Wieviel mm^2 sind denn da ungefähr zu erwarten?

Haengt von der eigentlichen Anzahl der ARM cores ab; aber ich hab irgendwie das Gefuehl dass man pro jeglichem mm2 mehr FLOPs von einer GPU als einer CPU ALU bekommen kann.

Godmode
2013-10-07, 15:19:06
Ultra daemliche Frage: wird GM100 oder wie immer das Ding heisst es noch innerhalb 2014 selbst fuer nur HPC schaffen oder sollte man eher 2015 im Visier behalten?

Sonst klingt die mehr FLOPs fuer HPC von den ARM cores zwar plausibel aus meiner Ecke aber meine laienhafte Daemlichkeit versteht nicht wieso man die mm2 nicht besser in mehr GPU ALUs bzw. GPU FLOPs investiert haette. Ich lass mich aber nach wie vor eines besseren belehren.

IMHO wird Consumer GM100 ganz klar erst 2015 erscheinen. Die HPC Version könnte aber schon Ende 2014 kommen. Es wird genau so laufen wie schon bei GK104 und GK110. Das sagte ich schon bei der Vorstellung der GTX Titan.

Edit: Der große Vorteil von ARM Cores liegt wohl darin, On-Die bleiben zu können. Ich schätze mal, dass ich damit bei bestimmten Problemen größeres Speedups erreichen kann.

Skysnake
2013-10-07, 15:22:41
Ultra daemliche Frage: wird GM100 oder wie immer das Ding heisst es noch innerhalb 2014 selbst fuer nur HPC schaffen oder sollte man eher 2015 im Visier behalten?

Sonst klingt die mehr FLOPs fuer HPC von den ARM cores zwar plausibel aus meiner Ecke aber meine laienhafte Daemlichkeit versteht nicht wieso man die mm2 nicht besser in mehr GPU ALUs bzw. GPU FLOPs investiert haette. Ich lass mich aber nach wie vor eines besseren belehren.
Überleg dir einfach mal, was man so alles braucht, damit man ne nVidia für GPGPU benutzen kann in nem Cluster bis jetzt, und dann überleg dir, wie man das aussehen lassen kann, wenn da noch nen paar popelligen ARM-Cores drauf sind.

Ailuros
2013-10-07, 15:37:03
Es passt eben nicht in meinen Schaedel rein weil:

1. Einmal mit und einmal ohne ARM cores als Bloedsinn klingt; das wird zu teuer. Nirgends in der rumor mill bisher redet man von "ARM everywhere" selbst fuer den top dog Maxwell.

2. Kepler ist 551mm2 gross; ARM cores egal wie klein (wie viele werden sie den einbauen wollen? sagen wir mal 8*denver cores als Anfang?) werden entweder von der vorigen Summe abknabbern oder das die estate und den Stromverbrauch noch weiter erhoehen. Ausser mir sagt jemand die Dinger kommen auf eine Art tochter-die dann ist es etwas anderes.

Mag wohl sein dass die Loesung des Raetsels vor meiner Nase mal wieder liegt und ich es nicht sehe kann aber ich verpasse wohl momentan wieder das einfachste :(


Edit: Der große Vorteil von ARM Cores liegt wohl darin, On-Die bleiben zu können. Ich schätze mal, dass ich damit bei bestimmten Problemen größeres Speedups erreichen kann.

On die fuer was? Seriellen code auf einer GPU? :confused:

Godmode
2013-10-07, 15:41:02
On die fuer was? Seriellen code auf einer GPU? :confused:

Ich spare mir dadurch den weg zur CPU und wenn ich Probleme hab mit viel seriellem Code, dann könnte sich das schon auszahlen. Da können die Experten sicher mehr dazu sagen.

Ailuros
2013-10-07, 15:46:29
Ich spare mir dadurch den weg zur CPU und wenn ich Probleme hab mit viel seriellem Code, dann könnte sich das schon auszahlen. Da können die Experten sicher mehr dazu sagen.

Die Experten kommen schon noch, aber ich als Laie frag dann doch noch wo wirklich der Gewinn ist denn Du hast wohl auch eine "normale" CPU sonst im System; operieren jetzt die ARM cores in der GPU blindlings ohne Daten mit der eigentlichen CPU auszutauschen oder was?

Skysnake
2013-10-07, 15:53:54
Es passt eben nicht in meinen Schaedel rein weil:

1. Einmal mit und einmal ohne ARM cores als Bloedsinn klingt; das wird zu teuer. Nirgends in der rumor mill bisher redet man von "ARM everywhere" selbst fuer den top dog Maxwell.

2. Kepler ist 551mm2 gross; ARM cores egal wie klein (wie viele werden sie den einbauen wollen? sagen wir mal 8*denver cores als Anfang?) werden entweder von der vorigen Summe abknabbern oder das die estate und den Stromverbrauch noch weiter erhoehen. Ausser mir sagt jemand die Dinger kommen auf eine Art tochter-die dann ist es etwas anderes.


Mag wohl sein dass die Loesung des Raetsels vor meiner Nase mal wieder liegt und ich es nicht sehe kann aber ich verpasse wohl momentan wieder das einfachste :(

Ja tust du ;D


Wie gesagt, überlegt euch einfach mal, was man alles für nen Cluster-Knoten zwingend braucht, wenn man einmal ARM-Cores drin hat und einmal nicht. Also ich mein wirklich die einzelnen Komponenten aufzählen hilft da ungemein.


On die fuer was? Seriellen code auf einer GPU? :confused:
"Serielle" Codeteile hast du immer wieder. Wenn nen Branch da ist, bei dem auch nur ein einziger Thread aus ner Wavefront die andere Abzweigung nimmt als der Rest, wird deswegen halt dennoch der komplette SMX belegt...

Genau für solche Sachen sind ARM-Cores ganz nützlich.

Oder auch z.B. für Reduce-Algorithmen. Ab einem gewissen Punkt hast du halt einfach nicht mehr genug Parallelität um die GPU aus zu lasten, nicht mal mehr einen einzelnen SMX. Da könnte man das Problem "einfach" auf die ARM-Cores ummappen und die das Problem vollends lösen lassen.

Gibt eine ganze Reihe von Problemen, die so funktionieren. Auch Neupartitionierungen von Problemen fallen da meines Wissens nach öfters drunter.

ndrs
2013-10-07, 16:38:20
Wie gesagt, überlegt euch einfach mal, was man alles für nen Cluster-Knoten zwingend braucht, wenn man einmal ARM-Cores drin hat und einmal nicht. Also ich mein wirklich die einzelnen Komponenten aufzählen hilft da ungemein.
Das hieße dann wohl, dass auf den ARMs solche Sachen wie Kommunikation mit den Storage- und Netzwerk-Controllern laufen müssen, wenn keine dedizierten CPUs mit zugehörigem RAM mehr da sind.

mboeller
2013-10-07, 16:44:16
http://www.heise.de/imgs/18/6/1/9/5/1/5/ctmaxwell1.jpg-5f3c6decd9346978.jpeg


WoW, deine Roadmap ist aber asbach-uralt. ;)

http://www.anandtech.com/show/6846/nvidia-updates-gpu-roadmap-announces-volta-family-for-beyond-2014

Skysnake
2013-10-07, 21:35:20
Das hieße dann wohl, dass auf den ARMs solche Sachen wie Kommunikation mit den Storage- und Netzwerk-Controllern laufen müssen, wenn keine dedizierten CPUs mit zugehörigem RAM mehr da sind.
Na also geht doch ;)

Ja, mit den ARM Cores könnte man halt SOCs bauen. Was man halt noch machen müsste wäre den normalen PCI-E Controller um einen Rootkomplex erweitern. Das wäre es dann im großen und ganzen schon.

Braucht man noch nen NIC und ab geht die Post. In den großen Clustern hat/will man oft ja eh keinen lokalen Festplattenspeicher.

Mit Maxwell wäre man zwar noch etwas limitiert bzgl des Speichers, aber mit Volta könnte man das dann auch deutlich entschärfen.

Son Knoten besteht dann halt echt nicht mehr aus viel. Eine maximal zwei Karten und das wars dann. Entweder mit oder ohne Backplane. Je nachdem wie man das halt konfigurieren will. Das spart halt auch massig Energie, weil man sich wirklich nur auf das absolute Minimum beschränken würde.

Für den Heimanwender aber halt total fürn Arsch.

ndrs
2013-10-07, 23:29:46
Zu dem Thema hätt ich direkt mal ne grundsätzliche Nachfrage. Ist PCIe eine Peer-to-Peer-Verbindung oder was Master-Slave-artiges? Oder anders gefragt, müsste man für den von dir angedachten Anwendungsfall zusätziche Logik in den PCIe-Controller einbringen?

Skysnake
2013-10-08, 01:13:41
Hä?

PCI-E kennt genau drei/vier unterschiedliche Bausteine

Root-Port
Switch/Bridge
Device

mehr gibt es nicht. Daraus wird die gesamte Topologie aufgebaut.

Ne GPU ist normal einfach ein Device und fertig. Bei Dual-GPU halt ne Bridge/Switch und zwei Devices

ndrs
2013-10-08, 10:14:13
Ja, ähm. Das war dann doch zu kompakt erklärt. Egal, wird sonst zu OT. Ich les heut abend mal Wiki :)

Hübie
2013-10-08, 11:43:56
Die eigentlichen Datenverbindungen sind Endpunkt-zu-Endpunkt Verbindungen. JTAG und SMBus jedoch nicht. Dienen aber auch nur der Erkennung. Die Topologie hat Skysnake ja schon erwähnt.

Ich denke immer noch an Powermanagement der GPU durch (einen?) ARM-Cores.

Duplex
2013-10-10, 11:31:39
ARM Kerne haben in Maxwell (Kepler 2.0) nichts zu suchen, Low Power & High End in einem Chip passt nicht zusammen, zumindest nicht bei Nvidia.

Ailuros
2013-10-10, 11:36:18
ARM Kerne haben in Maxwell (Kepler 2.0) nichts zu suchen, Low Power & High End in einem Chip passt nicht zusammen, zumindest nicht bei Nvidia.

Ich wage nichtmal auf den Hintergrund des Gedankens zu fragen, weil es wohl gar keinen gibt.

Duplex
2013-10-10, 12:03:49
Fakt ist Nvidia braucht sich weder im Profi noch im Desktop Markt vor AMD fürchten, die Ghz war schneller als GK104, trotzdem ist der Absatz bei Nvidias höher als bei AMD, auch der Marktanteil ist höher als AMD, das gleiche auch bei den Gewinnen. AMD ist günstiger und verkauft trotzdem weniger als Nvidia, warum sollte sich das bald mit Hawaii ändern, die Preispolitik von Kepler kann Nvidia jederzeit ändern.

Warum sollte Nvidia bei Maxwell unnötig viele Ressourcen investieren?
Man kann den aktuellen Markt Problemlos mit alles abdecken, die Marge ist ganz gut.

Maxwell wird ein getunter Kepler, aber effizienter, so das am ende mehr Rechenleistung günstig herauskommt, große Sprünge wird man aber frühestens beim Top Dog in 20nm sehen.

Ailuros
2013-10-10, 12:09:54
Fakt ist Nvidia braucht sich weder im Profi noch im Desktop Markt vor AMD fürchten, die Ghz war schneller als GK104, trotzdem ist der Absatz bei Nvidias höher als bei AMD, auch der Marktanteil ist höher als AMD, das gleiche auch bei den Gewinnen. AMD ist günstiger und verkauft trotzdem weniger als Nvidia, warum sollte sich das bald mit Hawaii ändern, die Preispolitik von Kepler kann Nvidia jederzeit ändern.

Was zum Henker hat jegliches vom diesem mit dem vorigen genau zu tun?

Warum sollte Nvidia bei Maxwell unnötig viele Ressourcen investieren?
Man kann den aktuellen Markt Problemlos mit alles abdecken, die Marge ist ganz gut.

Ich hab Dich mit Absicht links angepinkelt weil es eben nur so von sich schreit dass nichts dahinter liegt.

Maxwell wird ein getunter Kepler, aber effizienter, so das am ende mehr Rechenleistung günstig herauskommt, große Sprünge wird man aber frühestens beim Top Dog in 20nm sehen.

Hat mit den CPU cores (welche uebrigens nur fuer das ISA auf ARM IP basieren werden) auch nichts zu tun; mal ganz davon abgesehen dass die angebliche "Tatsache" dass Maxwell nur ein quasi Kepler-Ableger sein soll auch nur das Resultat Deines Bauchgefuehls ist.

Skysnake
2013-10-10, 12:41:34
Fakt ist Nvidia braucht sich weder im Profi noch im Desktop Markt vor AMD fürchten, die Ghz war schneller als GK104, trotzdem ist der Absatz bei Nvidias höher als bei AMD, auch der Marktanteil ist höher als AMD, das gleiche auch bei den Gewinnen. AMD ist günstiger und verkauft trotzdem weniger als Nvidia, warum sollte sich das bald mit Hawaii ändern, die Preispolitik von Kepler kann Nvidia jederzeit ändern.

Dafür dreht ihnen Intel schön langsam den Saft ab :tongue:


Warum sollte Nvidia bei Maxwell unnötig viele Ressourcen investieren?
Man kann den aktuellen Markt Problemlos mit alles abdecken, die Marge ist ganz gut.

Die Marge ist wegen total irren Preisen und einem recht hohen Marktanteil so hoch. In einem stagnierenden Massenmarkt ist das aber eine ziemlich bescheidene Ausgangslage. Da kanns eigentlich nur nach unten gehen. Ist zwar dann eventuell immer noch ganz ok, aber nach unten bleibt eben nach unten.


Maxwell wird ein getunter Kepler, aber effizienter, so das am ende mehr Rechenleistung günstig herauskommt, große Sprünge wird man aber frühestens beim Top Dog in 20nm sehen.
Nullaussage oleoleole. KEpler ist auch eigentlich nur nen "getunter" G80 wenn mans so will :rolleyes:

boxleitnerb
2013-10-20, 21:10:22
Ich weiß, es ist nicht viel, aber der Grafikkartenguru von Hardwarecanucks meint auch, Maxwell Samples hätte es schon im Sommer gegeben:
http://www.xtremesystems.org/forums/showthread.php?287551-Nvidia-unveils-the-GeForce-GTX-780-Ti&p=5212012&viewfull=1#post5212012

Das passt auch wieder mit der Aussage von WhyCry von videocardz.com zusammen, der ebenfalls einen recht frühen Launch (Q1 2014, Februar/März) angedeutet hatte.

Hübie
2013-10-20, 21:20:10
Wenn dann eher März und keine 20-nm-SKU.

boxleitnerb
2013-10-20, 21:27:33
Natürlich 28nm. Nachfolger von GK104 (GTX 770)...angeblich. Mir ist immer noch nicht klar, wie sich das dann einordnet mit GK110/180. Vielleicht rückt die Karte dann auf den Platz der jetzigen GTX 780 bei weniger Verbrauch und obendrüber sind dann halt noch 780 Ti und Titan Ultra. Wäre aber ziemlich komisch vom Namensschema her: 780 Ti schneller als 880 :D

Hübie
2013-10-20, 21:36:19
Na ja. Rebranding ist ja gerade in Mode also könnte man sich auch dieses Mittels bedienen. Die Namen bei nVidia sind ja nun wirklich alles andere als durchsichtig. Ich hab eben erst gelesen dass der Typ auch schrieb es würde sich um 28-nm-GPU handeln. 20-nm hatte zwar auch schon sein tapeout aber afaik nicht in der Größenordnung von GPUs.

Ich mein: Die Zahl 104 ist niedriger als 106, aber der schnellere Chip (GK104>GK106). 110 ist ebenso die höhere Zahl als 104 aber dann wieder schneller. Dann gabs die Aussage dass die "1" in der Mitte (GF110, GK110) die bessere HPC-Tauglichkeit suggerieren würde und dann kommt auf einmal ne 8 in der Mitte obwohl es sich nicht um einen neuen Chip handelt. Bestenfalls ein metal-spin. Von GK208 reden wir mal gar nicht erst.

Wie soll da noch einer ausserhalb von nVidia etwas "vorhersagen" können :rolleyes: Denn wenn etwas korrekt ist wissen die dass es ein Leck gibt. Deren Stränge sind echt wie ein Baum und du weißt nie was am Ende bei raus kommt.

boxleitnerb
2013-10-20, 21:47:23
Dass das Ding GK104 heißen könnte, war ne reine Spekulation von mir. Es hieß aber, die Karte soll die GTX 770 beerben, soviel steht fest.

Wenn dieses Ding zu flott ist, ist GK110/180 in Gefahr.
Ist es zu langsam, braucht man es ja nicht unbedingt (schon) bringen.

Mal angenommen (existierende Karten basierend auf CB und HT4U):

GTX 770 = 100%
GTX 780 = 119%
GTX 860/870 (Ti) = 120-125%
GTX Titan = 130%
GTX 780 Ti = 135% -> wird zu 880
GTX Titan Ultra = 145% -> wird zu 880 Ti

Will man Verwirrung vermeiden, kann das Ding nicht 880 heißen. So schnell, dass es den Namen 880 (Ti) wirklich verdient, wird es wohl nicht. Wäre auch unnötig, das ganze Pulver jetzt schon zu verschießen.

Hübie
2013-10-20, 22:00:06
Durchaus möglich das man wieder die mid-to-bottom-to-top Strategie fährt. Wenn ich das richtig verstanden habe will man sowie so HPC und Desktop trennen. Also vom Zyklus und Entwicklungsprozess her. Mobil-Chips ist wieder ein anderer Schnack. Da bedient man sich wohl in Zukunft stets der Desktop-Vorlage. nVidia ist ein ziemlich chaotischer Laden...

boxleitnerb
2013-10-20, 22:02:56
Mobil kam doch letztes Mal zuerst (GK107 hatte zuerst den Tapeout und wurde geliefert, deshalb war die 680 ja am Anfang so rar, weil alle Kapazitäten für die kleinen Dinger draufgingen). Ich würde für Maxwell ähnliches erwarten - weißt du, wann AMD mit Crystal Systems kommt? Das (und Kaveri und Broadwell) muss man im Lowest-end ja auch kontern können.

Rente
2013-10-21, 01:31:20
Da AMD nVidia nicht wirklich großartig überholt (eigentlich sogar nur einholt, wenn 780Ti und Titan² so kommen wie vermutet), wird sich Maxwell wohl gut und gerne noch mindestens ein ganzes Quartal nach hinten schieben, oder vermute ich falsch?

Ist zwar schön das AMD wenigstens gegen hält, 20%+ über Titan hätten nVidia aber irgendwie deutlich mehr Druck gemacht... ;(
Naja, wird es vielleicht eine Ti gegen November, Maxwell dauert dann doch etwas sehr lang...

boxleitnerb
2013-10-21, 01:44:31
Das muss nicht sein. Maxwell wird schon allein deshalb benötigt, weil Iceland und Maui ja auch noch kommen. Bislang ist Hawaii der einzige neue Chip von AMD, aber Pitcairn wird sicher in Q1 2014 ersetzt (durch etwas richtig Neues, keinen Aufguss wie Curacao einer ist), und dann haben die GTX 760, 760 Ti und 770 ein Problem.

Mancko
2013-10-21, 02:06:48
Dafür dreht ihnen Intel schön langsam den Saft ab :tongue:


Kann ich ehrlich gesagt nirgends erkennen. Weder im professionellen Bereich noch im Desktop, noch im Notebook Bereich. Gerade im Notebook Bereich wird sehr gern die Kombination Intel und Nvidia verkauft. AMD ist da in aller Regel aus funktionalen aber vor allem marketingtechnischen Gründen außen vor.


Die Marge ist wegen total irren Preisen und einem recht hohen Marktanteil so hoch. In einem stagnierenden Massenmarkt ist das aber eine ziemlich bescheidene Ausgangslage. Da kanns eigentlich nur nach unten gehen. Ist zwar dann eventuell immer noch ganz ok, aber nach unten bleibt eben nach unten.


Na zuerst halten wir doch mal fest, dass Nvidia seit Jahren ordentlich Geld verdient. Es bestreitet niemand, dass der Marktanteil hoch ist und die Margen hoch sind. Und genau hier liegt eben die anzuerkennende Leistung. Was bitte hat denn AMD in genau diesem Zeitraum abgeliefert. Also bevor Du hier versuchst krampfhast das Haar in der Suppe zu finden solltest Du lieber mal im eigenen Bereich kehren und schauen was da alles verbockt worden ist.
Und ja AMD ist einfach ein jämmerlicher Laden dagegen. Außer Niedrigpricing bringen die nichts, aber auch gar nichts auf die Straße.

AMD hat es bis jetzt immer mit Masse probiert und damit es nicht geschafft langfristig Geld zu verdienen. Im Gegenteil die Verluste von AMD überwiegen die Gewinne um ein Vielfaches. Nvidia probiert es halt auf der anderen Seite im überschaubaren Rahmen und war und ist hier auch um ein vielfaches erfolgreicher gewesen. Das muss man ganz klar so sagen und ich sehe keinen Grund wieso sich das ändern sollte, schon gar nicht bei AMD. Den Laden hat Nvidia ganz locker im Griff und Intel hat selber genug andere Probleme derzeit. Für Nvidia werden sich immer Möglichkeiten ergeben Geld zu verdienen. Angesichts der überschaubaren Firmengröße lässt sich das Unternehmen auch deutlich schneller wandeln und den Marktgegebenheiten anpassen.

Skysnake
2013-10-21, 03:00:01
Ich hab jetzt keine Ahnung, was du mit AMD willst, aber lassen wirs gut sein.

Schau mal, was Intel mit XeonPhi an Marktanteil bei den Beschleunigersysteme gewonnen hat. Das ist massiv. nVidia hat abgebaut und AMD auf sehr niedrigem Niveau gehalten.

Wart mal die nächste und übernächste Top500 ab. Da wird das nochmals deutlicher werden. Spätestens wenn die neuen Intel-Systeme kommen wirds ganz bitter für nVidia. Über AMD müssen wir da nicht reden, weil die können faktisch eh fast nichts verlieren, so wenig wie Sie haben. Mehr wirds aber wohl auch nicht.

Hübie
2013-10-21, 07:04:57
Mobil kam doch letztes Mal zuerst (GK107 hatte zuerst den Tapeout und wurde geliefert, deshalb war die 680 ja am Anfang so rar, weil alle Kapazitäten für die kleinen Dinger draufgingen). Ich würde für Maxwell ähnliches erwarten - weißt du, wann AMD mit Crystal Systems kommt? Das (und Kaveri und Broadwell) muss man im Lowest-end ja auch kontern können.

Oh, ich meinte mit mobil die Tegra-Integration :smile: Also ähm ulp oder ultra mobile. Sorry. GK107 is ja letztenendes auch nur ein Desktop-Chip, mit schlapper Leistung, im Notebook verbaut. Mir fällt gerade keine Abgrenzung der GTX 630 zur GTX 640m ein...

@Mancko: Trollst du noch oder schreibst du schon? (scnr) ;D
@ skysnake: Hast du dazu Zahlen zur Hand?

V2.0
2013-10-21, 07:26:37
Was soll AMD den mit 28nm noch großartig verbessern? AMD hatte bisher noch mehr Reserven bei der Diefläche, die schwinden aber nun auch. NV kann GM104 oder auch GK204 bringen. Wenn man Maxwell aber wirklich noch in 28nm bringt, dann sagt das primär etwas über die Erwartungen an die 20nm Produktion -> keine Verfügbarkeit vor Q4/14.

boxleitnerb
2013-10-21, 07:31:30
Cachesystem, Scheduling, DP-Einheiten für SP nutzen (bei den kleinen Maxwells irrelevant, die haben ja keine).

Gaestle
2013-10-21, 09:52:59
Der GPU-Z-Shot, der vor ein paar Wochen hier (ich weiß nicht mehr, welcher Thread genau) mit 1920SP gepostet wurde... passt der irgendwie zu dem Maxwell-770-Nachfolger-Gerücht?

Skysnake
2013-10-21, 10:58:52
@ skysnake: Hast du dazu Zahlen zur Hand?
Hab ich schon mehrfach gepostet. Wenns dich interessiert einfach mal bei Top500.org die Charts anschauen.

Ich hatte das mal schön fein aufgedröselt, als Tianhe-2 an den Start ging und zwar mit XeonPhis statt Teslas...

nVidia installiert halt weniger neue Systeme als alte raus fliegen, aber kannste ja alles nachschauen. Mit M20x0 waren Sie richtig stark, aber mit Kepler konnte man das nicht weiterführen.

XeonPhi lässt sich halt ziemlich halt den Entscheidern leicht schmackhaft machen. Du kannst x86 und ALL! deine bekannten Tools nutzen. Bestehende Software lässt sich im Vergleich zu GPUs sehr leicht portieren. Du hast 8GB/16GB RAM, also mehr als bei der Konkurrenz dank 512Bit SI.
Du musst keine Programmierer haben die etas in OpenCL oder gar CUDA schreiben, was dann im letzeren Fall auch noch propritär ist...

Das sind halt schon Argumente. OpenCL wäre eigentlich der Konter. Das Problem ist nur, dir sagt JEDER:"OpenCL ist aber langsamer als CUDA" Marketing oleole... und wenn du Glück hast sagen Sie noch dazu "auf nVidia Karten". Das ist nämlich nicht selbstverständlich. Bei den Leuten die nicht bis zur Kinnlade drin stecken hat sich der Eindruck gefestigt OpenCL wäre generell langsam. Das führt dazu, das wenn OpenCL eine Anforderung ist, nVidia oft schon eher raus ist. Das Problem ist nur, OpenCL ist deswegen schon oft an sich raus.... Davon profitiert nur einer. Intel.

nVidia wird das in den nächsten Jahren noch bereuen, dass Sie CUDA nicht geöffnet haben, bzw sich auf OpenCL eingelassen haben und es 100% supported haben, als es dann kam.

Intel wird in den nächsten Jahren noch nVidia und AMD seine XeonPhis um die Schnauze hauen, und gerade nVidia wird das schmerzlich zu spüren bekommen. AMD kann wie gesagt eigentlich nicht verlieren. Die 1-2 neuen Systeme im Jahr sind halt so das untere Spektrum was geht. nVidia fliegt aber hoch und kann damit tief fallen...

Was soll AMD den mit 28nm noch großartig verbessern? AMD hatte bisher noch mehr Reserven bei der Diefläche, die schwinden aber nun auch. NV kann GM104 oder auch GK204 bringen. Wenn man Maxwell aber wirklich noch in 28nm bringt, dann sagt das primär etwas über die Erwartungen an die 20nm Produktion -> keine Verfügbarkeit vor Q4/14.
SharedMemory vergrößern. L1 Vergrößern UND VOR ALLEM! den L2 in der Größe verdoppeln. Das ist echt scheise, dass das 1MB geworden ist und nicht 2 :down:

AnarchX
2013-10-21, 11:03:11
Der GPU-Z-Shot, der vor ein paar Wochen hier (ich weiß nicht mehr, welcher Thread genau) mit 1920SP gepostet wurde... passt der irgendwie zu dem Maxwell-770-Nachfolger-Gerücht?
Es ist eher auzuschließen, dass GPU-Z einen Maxwell-Chip schon so gut kennt. Zumal auch der Changelog nichts zu Maxwell enthielt.
Aber vielleicht war die Karte eine Performance-Simulation?

Aber irgendwann sollten wohl schon erste Treibereinträge auftauchen, wenn es im Januar schon so weit sein könnte: http://www.xtremesystems.org/forums/showthread.php?287551-Nvidia-unveils-the-GeForce-GTX-780-Ti&p=5211999&viewfull=1#post5211999

V2.0
2013-10-21, 11:05:06
SharedMemory vergrößern. L1 Vergrößern UND VOR ALLEM! den L2 in der Größe verdoppeln. Das ist echt scheise, dass das 1MB geworden ist und nicht 2 :down:

Solche begrenzten Änderungen würden auch einem GK204 stehen.

Gaestle
2013-10-21, 11:51:04
Es ist eher auzuschließen, dass GPU-Z einen Maxwell-Chip schon so gut kennt. Zumal auch der Changelog nichts zu Maxwell enthielt.
Aber vielleicht war die Karte eine Performance-Simulation?


Danke. Einleuchtend.
Dann stelle ich die Frage (angepasst) mal im anderen Thread... :biggrin:

AnarchX
2013-10-22, 08:50:34
GM107 und GM108 sind wohl schon als ES unterwegs und werden neben einer GeForce 820M in einem Entwickler-Treiber genannt. Insofern dürfte wohl der GeForce 800(M) Launch schon bald anstehen.

Maxwell's GM108

die on the printed GM108

Driver identification words:
NVIDIA GM108 ES
NVIDIA GM107 ES

_______________________________________________

N15V seemingly GF117 vest

Drivers in the words appeared Geforce 820M
http://we.poppur.com/thread-2163210-1-1.html

Aber das passt wohl nicht gerade zum genannten GTX 770 Ersatz. Insofern sind da wohl drei Maxwell in Vorbereitung?

Hugo78
2013-10-22, 10:51:49
Zeit genug zum entwickeln hatte NV ja und der Ferigungsprozess wird ja auch nicht gewechselt.
Also ja klar warum sollte da nicht die gesamte Palette bis hoch zum Performancebereich startklar sein.
Allein fürs High End muss man halt 20nm abwarten.

AffenJack
2013-10-22, 12:27:06
Wenn jetzt alles bis auf High-End auf 28nm nochmal kommt, würde es mich nicht wundern, wenn man 20 nm bis auf bei GM110 überspringt. Man könnte dann einfach auf 16nm , ergo 20 nm mit Finfets warten. Tegra machts ja vor und überspringt auch normale 20 nm.

V2.0
2013-10-22, 12:37:02
Und mit 28nm bis irgendwann in 2016 durchhalten? Imho zeigt Maxwell in 28nm nur, dass NV nicht mir brauchbaren Fertigungsbedingungen für 20nm vor Q3/14 rechnet. (Ich persönlich eher Q4/14).

Badner1972
2013-10-22, 12:43:23
Und mit 28nm bis irgendwann in 2016 durchhalten? Imho zeigt Maxwell in 28nm nur, dass NV nicht mir brauchbaren Fertigungsbedingungen für 20nm vor Q3/14 rechnet. (Ich persönlich eher Q4/14).
Dem kann ich zustimmen. Ich denke AMD & NV wissen schon wie es um 20nm steht.Warum sollte sich AMD sonst entschließen ein für sie recht ungewöhnlich großes Die (290X ~ 438mm²) nochmals in 28nm aufzulegen. Wenn Chips in 20nm vom Band rollen,dann sind es mit Sicherheit die kleinen Chips für Mobile .
Desktop max. Mittelklasse (ergo so wie es bei 28nm auch gelaufen ist)

AnarchX
2013-10-22, 12:46:25
Weitere Infos zu GM108:
Graphics area pandemonium, I'll burst of urine Maxwell

GM108

64bit GDDR3

576 CUDA Cores

Identify current driver version 328.11 Model GM108 ES
http://we.poppur.com/thread-2163396-1-1.html

Bei einem üblichen Faktor 4 für GM104 -> 2304SPs.

Nakai
2013-10-22, 13:05:22
Mhh, 3 SMX ein GPC. Ich dachte Maxwell hat 256SPs pro SMX(DP für SP)? ;)
Entweder GM108 hat kein DP oder es ist nur ein optimierter Kepler.

AnarchX
2013-10-22, 13:08:30
Wer weiß ob die Erkennung schon richtig arbeitet, man erinnere sich an die 48SPs SM Fermi, deren SP-Gesamtzahl der Treiber auf 32er Basis berechnet hat.

Aber weiterhin 192SPs SMX mit Optimierungen wären wohl auch nicht so verkehrt.

boxleitnerb
2013-10-22, 13:10:01
Hatten nicht alle Keplers außer GK110 keine dedizierten DP-Einheiten? Irgendwas stimmt da nicht, entweder hier oder bei dem Leak von pastebin von neulich. Da wurden 128-bit und 1024 SP angegeben. "Leicht" mehr als hier...

Edit:
Kann man GPU-Z nichtmal irgendwie beibringen, statt eine Datenbank zu benutzen, die tatsächlichen Specs auszulesen? Zugriffszeit vom Speicher und Bandbreite sollten messbar sein, daraus kann man z.B. das Interface errechnen.

AnarchX
2013-10-22, 13:13:42
Die GK10x GPUs sollen 8 dedizierte DP-Einheiten pro SMX haben.

Aber der pastebin-Leak klang generell etwas eigenartig und zu detailliert.

boxleitnerb
2013-10-22, 13:35:40
Stimmt. Was komisch ist: Es soll ja zwei kleine Chips geben, 107 und 108. Wäre es denkbar, dass der pastebin leak 108 mit 107 verwechselt hat? Zu 107 würden die 1024 SP und 128-bit viel besser passen. 108 wäre dann sowas wie Oland, für das unterste Lowend halt.

V2.0
2013-10-22, 13:42:46
108 ist 64Bit und oftmals etwas eigenartig in im Design.

Nakai
2013-10-22, 14:21:56
Der Pastebin-Leak ist nicht sehr vertrauenserweckend, hatte jedoch schon ein paar nette Details, welche eine sinnlose Speku eigentlich nicht hätte.
Naja dedizierte DP-Einheiten für SP könnten doch völlig deaktiviert werden. Ich finde es zwar einen Schmarrn, einen Chip ohne jeglichen DP-Support anzubieten, oder GM108 liefert DP über SP-Einheiten. Die 64bit sprechen für einen kleinen Chip, ergo auch für 20nm.

Vor H1 2014 sehe ich keine 20nm Leaks. Sonstige Zahlen die für irgendwelche Chips schon rumschwirren sind sowieso meistens nicht für voll zu nehmen. Jeglicher IHV wird eh versuchen, die zentralen Specs zu verschleiern.
Eher sollte einige zentrale Fragen geklärt werden. 28nm oder 20nm? Welche Chips in 28nm, welche in 20nm? Was bringt 20nm? Neues DP-SP-Konzept und Einsparungen dadurch?

GM108 sieht mir so eher wie ein Pipecleaner aus. Kepler-Architektur unter Maxwell-Label in 20nm in H1 2014.


mfg

Ailuros
2013-10-22, 14:38:44
Stimmt. Was komisch ist: Es soll ja zwei kleine Chips geben, 107 und 108. Wäre es denkbar, dass der pastebin leak 108 mit 107 verwechselt hat? Zu 107 würden die 1024 SP und 128-bit viel besser passen. 108 wäre dann sowas wie Oland, für das unterste Lowend halt.

http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-645-oem/specifications

:rolleyes:

AnarchX
2013-10-22, 14:43:19
Und was hat diese GK106-SKU damit zu tun?
Der Chinese hat wohl den mit GM108-bedruckten Die vor sich liegen und einen bisher nicht veröffentlichten Treiber mit entsprechenden Einträgen.

Wenn man diese 576SPs in ~100mm² unter 28nm bringen würde, wäre das schon eine ordentliche Leistung.

Ailuros
2013-10-22, 14:52:10
Und was hat diese GK106-SKU damit zu tun?
Der Chinese hat wohl den mit GM108-bedruckten Die vor sich liegen und einen bisher nicht veröffentlichten Treiber mit entsprechenden Einträgen.

Noe er hat wohl eher eine ganze Schachtel davon und spielt damit Domino :rolleyes:

matty2580
2013-10-26, 06:40:27
Zum Thema 20nm von TSMC gibt es eine News bei xbitlabs:
http://www.xbitlabs.com/news/other/display/20131022230815_TSMC_Shares_More_Details_Regarding_16nm_FinFET_and_20nm_Progress. html
So schlecht klingt das gar nicht. ^^

Für Maxwell ist Nvidia demnach in einer recht vorteilhaften Position.
Für einen Release vor Juni/Juli 2014 gibt es keinen zeitlichen Zwang, da man ja noch den Refresh mit der 7xx Series hat.
Der wird bestimmt wie üblich ein Jahr lang durchhalten müssen.
Und Sommer 2014 läuft bei TSMC der 20nm Prozess schon sehr gut.

boxleitnerb
2013-10-26, 06:53:58
Die interessante Frage ist, wann welche Chips auf welchem Prozess kommen. Da ja nun mehrere Leute sich einig sind über einen Chip Anfang 2014, wird der sicherlich nicht in 20 nm gefertigt sein. Nennen wir ihn mal GM104. Es macht nicht wirklich Sinn, den ein knappes halbes Jahr später schon wieder zu ersetzen. Entweder kommen im Sommer also noch keine Karten oder sie bedienen ein anderes Segment, wahrscheinlich das darunter. Erst so ab September/Oktober könnte ich mir den GM104@20 nm dann vorstellen, 9 Monate ist eine vernünftige Lebenszeit.

Edit:
Soweit ich weiß, hat Nvidia bei Kepler zwar GK104 zuerst gebracht, aber es gab durchaus ursprüngliche Pläne, GK110 dem alten Schema entsprechend zuerst zu bringen. Wann Nvidia hier seine Meinung geändert hat, weiß ich nicht. Vielleicht können unsere Leute mit mehr Hintergrundwissen was zu sagen? Die Frage ist nämlich, ob Nvidia die jetzt mit Kepler bewährte Strategie weiterverfolgt oder wieder solche risikobehafteten Gedanken hat.

schreiber
2013-10-26, 06:56:00
25 Tapeouts für 2014? Das hört sich verdammt wenig an.

Ailuros
2013-10-26, 08:12:19
Edit:
Soweit ich weiß, hat Nvidia bei Kepler zwar GK104 zuerst gebracht, aber es gab durchaus ursprüngliche Pläne, GK110 dem alten Schema entsprechend zuerst zu bringen. Wann Nvidia hier seine Meinung geändert hat, weiß ich nicht. Vielleicht können unsere Leute mit mehr Hintergrundwissen was zu sagen? Die Frage ist nämlich, ob Nvidia die jetzt mit Kepler bewährte Strategie weiterverfolgt oder wieder solche risikobehafteten Gedanken hat.

Ich befuerchte dass Dir jemand hier einen Haufen Mist erzaehlt haben koennte; so etwas laesst sich NICHT in letzter Minute entscheiden. Die Entscheidung den kleineren Kepler Vorrang zu geben wuerde afaik zum Zeitpunkt getroffen BEVOR GF100 zur Produktion kam. Und NVIDIA hat GK104 auch nicht als ersten gebracht. GK107 lag in OEM Haenden schon im Dezember 2011. Sie wollten und konnten nur keinen Kepler vorstellen mit so etwas so langweiligem wie GK107 cores.

Es gibt momentan Indizien dass kleine Maxwell cores schon herumschwirren ergo frag Dich was genau auf dem Ziegeldach miaut ;)

boxleitnerb
2013-10-26, 08:17:35
Gut, dann war das wohl Mist oder ich hab es falsch verstanden :)

Ich dachte du hattest gesagt, die GM108/107-Leaks von den Asiaten währen in Wahrheit Keplers und warst skeptisch? Woher kommt der Sinneswandel?

Ailuros
2013-10-26, 08:39:15
Gut, dann war das wohl Mist oder ich hab es falsch verstanden :)

Man braucht hw Anpassungen dafuer. Bei Kepler hat sich das Ganze zum brutalen Vorteil fuer sie entwickelt, ergo warum aendern?

Ich dachte du hattest gesagt, die GM108/107-Leaks von den Asiaten währen in Wahrheit Keplers und warst skeptisch? Woher kommt der Sinneswandel?

Ich weiss zwar dass es kleine Maxwell cores im Umgang bei OEMs gibt, aber ich bezweifle immer noch ernsthaft dass es sich bei solchen um 192SP/cluster cores handelt.

***edit: ausser natuerlich Maxwell cores haben SPs die ueber 2 FMACs faehig sind LOL :D

Godmode
2013-11-03, 21:02:20
Was ist eigentlich aus der 28nm Maxwell Theorie geworden, ist die endlich vom Tisch?

Hübie
2013-11-03, 21:23:17
Nö. Da kommt sicher was in 28 nm.

fondness
2013-11-03, 21:43:11
Man sollte nicht sicher schreiben wenn man sich nicht sicher ist. ;)
Wenn man sich bsw. die Andeutungen von Ailuros in letzter Zeit so durchliest wäre ich mir da nicht so sicher. NV hat offenbar viele Ressourcen Richtung Tegra geschaufelt.

Rente
2013-11-03, 23:07:30
Nö. Da kommt sicher was in 28 nm.
Sehe ich auch so, allerdings wohl eher kleinere Modelle und eventuell der GK104-Nachfolger, den GK110-Nachfolger sehen wir wohl frühestens Ende nächsten Jahres.

Hauptsache nVidia unterstützt dann hoch offiziell DX 11.2, sonst hört das Gejammere niemals auf...

Blediator16
2013-11-04, 01:53:34
Sehe ich auch so, allerdings wohl eher kleinere Modelle und eventuell der GK104-Nachfolger, den GK110-Nachfolger sehen wir wohl frühestens Ende nächsten Jahres.

Hauptsache nVidia unterstützt dann hoch offiziell DX 11.2, sonst hört das Gejammere niemals auf...

Glaub mir andersrum wäre das gejammere erheblich größer ausgefallen ;)

Ailuros
2013-11-04, 08:18:44
Man sollte nicht sicher schreiben wenn man sich nicht sicher ist. ;)
Wenn man sich bsw. die Andeutungen von Ailuros in letzter Zeit so durchliest wäre ich mir da nicht so sicher. NV hat offenbar viele Ressourcen Richtung Tegra geschaufelt.

Kommen wird schon wohl etwas unter 28HPM IMO; ob es dann wirklich jemand interessieren wird, ist der springende Punkt hier.

V2.0
2013-11-04, 08:19:36
Wenn man einen Laptop sucht evtl.

Duplex
2013-11-04, 10:35:45
28nm HPM sollte man nicht überbewerten, man sieht ja bei den neuen AMD Karten die Verbrauchswerte, von daher sollte man nicht viel erwarten was den Prozess angeht. GK110 ist ein großer Chip & über 1 Jahr alt, der Chip ist effizienter als AMDs kleinere Lösung.

boxleitnerb
2013-11-04, 11:00:47
Hawaii ist doch nicht in 28 HPM gefertigt, oder hab ich was verpasst?

Duplex
2013-11-04, 12:03:57
Hawaii ist doch nicht in 28 HPM gefertigt, oder hab ich was verpasst?
Zumindest wurde HPM öfter im Bezug auf Hawaii erwähnt, der Snapdragon 800 ist auch in HPM gefertigt.
Naja, ob jetzt HP oder HPM ist auch egal, die Architektur Verbesserungen sind viel wichtiger, mal sehen was Nvidia bei Maxwell verbessern wird, 512 Bit SI & 64 Rops kann ich mir als erstes vorstellen.

boxleitnerb
2013-11-04, 12:11:03
Egal nicht wirklich, da wird dir Ailuros nachher noch was zu erzählen :D
Gabs da nicht mal den Vergleichsscreenshot wo der Snapdragon in 28HP mit deutlich mehr Spannung lief als der in 28HPM?

robbitop
2013-11-04, 12:32:59
HPM bringt schon einiges. Sieht man ja auch an Snapdragon 600 vs 800. Beide haben ca. das gleiche Energiebudget. 800 ist aber deutlich fixer.

mboeller
2013-11-04, 12:36:01
Egal nicht wirklich, da wird dir Ailuros nachher noch was zu erzählen :D
Gabs da nicht mal den Vergleichsscreenshot wo der Snapdragon in 28HP mit deutlich mehr Spannung lief als der in 28HPM?

auf der Seite zB.:
http://www.anandtech.com/show/7082/snapdragon-800-msm8974-performance-preview-qualcomm-mobile-development-tablet

Ailuros
2013-11-04, 19:26:22
Egal nicht wirklich, da wird dir Ailuros nachher noch was zu erzählen :D
Gabs da nicht mal den Vergleichsscreenshot wo der Snapdragon in 28HP mit deutlich mehr Spannung lief als der in 28HPM?

Ich bin nicht der einzige der auf etwas anderes als HP tippt; Damien Triolet/hardware.fr scheint auch den gleichen Verdacht zu haben.

Sonst wenn HPM "nichts" bringen soll dann steckt doch einfach nochmal ein "nichts" dazu und Ihr habt schon 20SoC.

auf der Seite zB.:
http://www.anandtech.com/show/7082/snapdragon-800-msm8974-performance-preview-qualcomm-mobile-development-tablet

Hahaha schon wieder die daemliche slide....nur Qualcomm's technische marketing Idioten koennten "more than half the power" schreiben :freak:

boxleitnerb
2013-11-04, 19:40:47
In was ist Hawaii noch gleich gefertigt? 28 HP oder 28 HPM?

Btw wenn es 28 HPM ist für die ersten Maxwells, von was für einer Perf/W-Steigerung würdest du denn ausgehen ggü. den direkten Vorgängern, also Prozess+Architektur? 15%, 20 oder mehr?

V2.0
2013-11-04, 19:44:44
Die Frage ist halt nur wie AMD HPM eingesetzt hat. Ich tippe ja auch eine hohe Packdichte. 6.200 (mio) / 438 zu 7.100 / 550 ist halt 14,1 /mm² zu 12,9 /mm². Bedenken wir vor allem dabei, das bei AMD auch die 3 Hifi-2-EP Cores dabei sind.

Skysnake
2013-11-04, 19:47:00
Und das 512 Bit Interface.

AMD hat den DIE schon extrem voll geknallt. Das ist schon sehr krass.

Ailuros
2013-11-04, 20:04:34
In was ist Hawaii noch gleich gefertigt? 28 HP oder 28 HPM?

Weiss doch keiner bis jetzt ausserhalb AMD.

Btw wenn es 28 HPM ist für die ersten Maxwells, von was für einer Perf/W-Steigerung würdest du denn ausgehen ggü. den direkten Vorgängern, also Prozess+Architektur? 15%, 20 oder mehr?

Im Vergleich zu einem 3.54Mrd/294mm2 GK104 nur 20%? :rolleyes:

boxleitnerb
2013-11-04, 20:09:22
Weiss doch keiner bis jetzt ausserhalb AMD.


Wird sowas nicht immer beim Launch mit bekannt gegeben? Warum sollte man ein Geheimnis daraus machen?


Im Vergleich zu einem 3.54Mrd/294mm2 GK104 nur 20%? :rolleyes:

Zuviel? Oder war das doch kein Sarkasmus? :freak:

Ailuros
2013-11-04, 20:20:08
Wird sowas nicht immer beim Launch mit bekannt gegeben? Warum sollte man ein Geheimnis daraus machen?

Unter normalen Umstaenden ja, aber weiss der Geier wie sie bei AMD genau denken. Damien's Schaetzung uebrigens: http://www.hardware.fr/articles/910-1/amd-radeon-r9-290x-test-hawaii-sors-ses-watts.html

Zuviel? Oder war das doch kein Sarkasmus? :freak:

Verdammt wenig; wenn mich mein Gedaechtnis nicht betruegt gewinnt Hawaii in Packdichte im Vergleich zu Tahiti irgendwo um die 19%, waehrend er um ca. 44% mehr Transistoren hat. Je nachdem wie man messen will bekommt man schon locker eine Leistungssteigerung von zumindest 30% gegenueber der einfachen 7970 und das von der fast gleichen Architektur.

***edit: ich weiss es zwar nicht aber ich schaetze dass NV wieder auf performance Maxwell ziemlich sparsam mit compute umgehen wird.

V2.0
2013-11-04, 20:31:00
Ein GM104 bei rund 360-380 mm² in 28nm HPM, könnte relativ nah an GK110 heran kommen.

Ailuros
2013-11-04, 20:37:43
Ein GM104 bei rund 360-380 mm² in 28nm HPM, könnte relativ nah an GK110 heran kommen.

Selbst 400-420mm2 duerften in der Herstellung nicht mehr kosten als GK104 als er in die Startloecher ging.

boxleitnerb
2013-11-04, 20:40:41
Verdammt wenig; wenn mich mein Gedaechtnis nicht betruegt gewinnt Hawaii in Packdichte im Vergleich zu Tahiti irgendwo um die 19%, waehrend er um ca. 44% mehr Transistoren hat. Je nachdem wie man messen will bekommt man schon locker eine Leistungssteigerung von zumindest 30% gegenueber der einfachen 7970 und das von der fast gleichen Architektur.

***edit: ich weiss es zwar nicht aber ich schaetze dass NV wieder auf performance Maxwell ziemlich sparsam mit compute umgehen wird.

Die 290X hat im Vergleich zur 7970 GHz ca. 20% bessere Perf/W aber auch ein größeres Die. Die Frage ist, wieviel von dieser Effizienzverbesserung von der Architektur, wieviel vom Prozess und wieviel davon kommt, dass die Karte im Quiet Modus deutlich niedriger taktet und auch weniger Spannung bekommt als die 7970 GHz.

Wenn du die normale 7970 als Vergleich hernimmst, hast du deine 30%, dafür auch einen deutlich höheren Verbrauch. Umsonst ist die Mehrperformance ja nun nicht.

Bei dem 28nm Maxwell könnten aber schon einige Sachen zusammenkommen:

28HPM + etwas breiterer Chip bei niedrigerem Takt + Architektur

Gut, dafür wären 20% doch eher konservativ, da hast du Recht.

Godmode
2013-11-04, 21:09:58
Für den GM104 rechne ich irgendwo um die 6-7 Mrd. Transistoren. War es nicht auch so bei den letzten Generationen, das die neue Mainstream GPU immer soviel Transistoren hatte, wie die alte HighEnd GPU?

Skysnake
2013-11-04, 22:34:00
Diesmal aber gleicher Prozess *hust* *hust*

Godmode
2013-11-04, 22:44:45
Diesmal aber gleicher Prozess *hust* *hust*

Durch Prozessreife und neue Architektur dürfte das Teil trotz allem in GK110 Regionen vordringen, bei moderatem Stromverbrauch.

Botcruscher
2013-11-04, 23:04:03
Beim Verbrauch braucht man da keine besonders positiven Sprünge erwarten.

-/\-CruNcher-/\-
2013-11-04, 23:41:19
Doch erwarte ich immerhin hat sich Nvidia das mit ihrem Tegra GPU Research auf die Fahne geschrieben und mit Logan auch demonstriert und ihre Presentation sagte auch eines aus das sie kontinuierlich den Verbrauch senken werden was sie nach Fermi auch geschaft haben bei Maxwell und Volta wollen sie es ausbauen.
Ich glaube zb nicht daran das es P-States für ewig geben wird sondern man in Richtung Intel tapscht und voll dynamisch clocken wird die ganzen Boost und Clock geschichten die mehr und mehr eingeführt wurden nach G92 eifern vor allem Intels CPU Speedstep nach, vielleicht noch nicht mit Maxwell aber es wird definitiv immer höher aufgelöst die schritte werden kontinuierlich präziser und das switching immer schneller ;)
Und genau diese Effizienzsteigerung spart Energie, allerdings sehe ich wie bei Intel schwere zeiten für OC, der Aufwand beides in einklang zu bringen ist zu groß und OC eh sinnloss bin froh wenn es endlich verschwindet es ist eh nur noch Kommerz (früher war OC wirklich OC mit allen konsequenzen) wenn etwas in die Architektur einberechnet wird vom Hersteller wie kann man es dann noch als Effizient für den Kunden sehen das ist nicht logisch OC ist tot schon lange euch wird im wahrsten sinne nur noch etwas verkauft das sich OC nennt es wurde aber doch schon längst assimiliert wieso wacht ihr nicht endlich auf http://de.wikipedia.org/wiki/Assimilation_%28Soziologie%29 spätestens seit Intel Sandy Bridge sollte das passiert sein aber anscheinend dauert so etwas zu verstehen, richtiges OC in heutiger relation ist nur noch eine große consumer Show ;)

ndrs
2013-11-05, 00:55:50
Alter ... http://de.wikipedia.org/wiki/Interpunktion

Ailuros
2013-11-05, 07:48:58
Diesmal aber gleicher Prozess *hust* *hust*

Ja und? Hawaii packt 6.2b Transistoren; GK104 hat weniger Transistoren und die area als Tahiti, hat eine groessere Packdichte und verbraucht weniger Strom *hust**hust**hust* :P

Angenommen sie sparen wieder an compute wie im GK104 und das Ding packt etwas weniger als 6b transistors rein theoretisch, gibt es welchen Grund genau dass es nicht bei =/<400mm2 reinpassen wuerde und auch nicht gleichzeitig einen anstaendigen Leistungssprung zum GK104 liefern koennte?

"Gleicher" Prozess ist bullshit; HPM liegt in etwa in der Mitte zwischen 28HP und 20SoC und es ist schon ein quasi "half node". Dementsprechend haetten sie HPM auch Pippi Langstrumpf nennen koennen oder nach dem sonstigen Marketing-Duenschiss wie TSMC 16 FinFET oder Samsung 14 FinFET, wobei diese nichts anderes sind als 20nm Prozesse und ich bin mir nicht mal sicher ob sie so viel Unterschied liefern koennen im Vergleich zu "vanilla" 20nm wie 28HPM zu 28HP.

Doch erwarte ich immerhin hat sich Nvidia das mit ihrem Tegra GPU Research auf die Fahne geschrieben und mit Logan auch demonstriert und ihre Presentation sagte auch eines aus das sie kontinuierlich den Verbrauch senken werden was sie nach Fermi auch geschaft haben bei Maxwell und Volta wollen sie es ausbauen.

Vorsicht Du machst mir hier einen Teufelskreis auf fuer den ich nahezu bei B3D gelyncht wurde und es auch hier den NV Juengern im Hals steckt: ja natuerlich lernt NV durch die ULP SoC/Tegra Erfahrung die sie sammeln noch mehr Strom zu sparen auf ihren designs generell aber den Duenschiss dass die Logan GPU wirklich ein echter "Kepler" ist, ist schon verdammt tolerant interpretiert. Mir ist scheissegal was fuer Maerchen NV's marketing diesbezueglich erzaehlen will aber man kann zwar von den 250W TDP eines GK110 auf 2W TDP eines GK20A mit dem gleichen featureset schrumpfen aber man muss so VIELE Opfer machen um dieses zu erreichen dass die Beschreibung "Kepler" eine technische Zumutung ist. Es gibt keinen Zauberstab mit dem man einfach so den Stromverbrauch auf ueber 120xMal reduziert.

Hier mal ein Schuss Realismus http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9983548&postcount=489 denn die meisten haben den ULP SoC boom wohl falsch verstanden. Ja ULP SoCs werden zunehmend staerker und dazu immer noch mit imposanten Zusatz-raten aber es heisst immer noch nicht dass der Stromverbrauch nach wie vor der groesste Meilenstein fuer diese ist.

V2.0
2013-11-05, 08:22:07
Selbst 400-420mm2 duerften in der Herstellung nicht mehr kosten als GK104 als er in die Startloecher ging.

Ja um 420 mm² halte ich auch für eine Obergrenze für GM104. Die 20nm Versionen wäre dann ungefähr so groß wie GK104, mit etwas Reserve um einen Leistungssprung (Refresh-Niveau) zum GM104 in 28HPM zu erreichen. Ich rechne allerdings GM104 etas kleiner, so dass man etwas mehr Reserven beim Wechsel auf 20nm hat, aber ich kann auch 20nm falsch einschätzen. Je schlechter 20nm, desto größe GM104 in 28HPM imho, da er umso länger die Stellung halten muss.

Sind wir eigentlich sicher, dass GK180 / GK110B noch in 28HP läuft? Hier erscheint mir ein Prozesswechsel sehr verlockend.

Ailuros
2013-11-05, 08:29:46
Ja um 420 mm² halte ich auch für eine Obergrenze für GM104. Die 20nm Versionen wäre dann ungefähr so groß wie GK104, mit etwas Reserve um einen Lesitungssprung (Refresh-Niveau) zum GM104 in 28HPM zu erreichen. Ich rechen allerdings GM104 etas kleiner, so dass man etwas mehr Reserven beim Wechsel auf 20nm hat, aber ich kann auch 20nm falsch einschätzen. Je schlechter 20nm, desto größe GM104 in 28HPM imho, da er umso länger die Stellung halten muss.

Rein hypothetische Milchmaedchen-rechnung meinerseits waere bei maximalen 420mm2@28HPM dass es dann unter 20SoC mit einem direkten shrink irgendwo um die 360-370mm2 werden koennte (ausser es wird ein nahezu perfekter shrink); selbstverstaendlich je kleiner der wirkliche chip unter 28HPM desto kleiner unter 20SoC.

Sind wir eignetlich sicher, dass GK180 / GK110B noch in 28HP läuft? HIer erscheitn mir ein Prozesswechsel sehr verlockend.

Die shots koennen zwar irre fuehren, aber sieht Dir das 110B Bild nach einem core aus der kleiner ist als 551mm2?

V2.0
2013-11-05, 08:39:01
Nicht wesentlich.

Ailuros
2013-11-05, 08:41:29
Nicht wesentlich.

Fuer den desktop an fuer sich koennte man schon fast denken dass es nicht der Rede wert sein koennte; fuer notebooks aber wird es wohl langfristig keinen Ausweg geben. So in etwa wie 65-->55nm ohne dass es natuerlich je den top dog unter 28HPM geben wird.

V2.0
2013-11-05, 08:52:31
Das spricht ja für die ganzen "Mini-Maxwells" die schon im Umlauf sein sollen.

Skysnake
2013-11-05, 13:52:41
Ja und? Hawaii packt 6.2b Transistoren; GK104 hat weniger Transistoren und die area als Tahiti, hat eine groessere Packdichte und verbraucht weniger Strom *hust**hust**hust* :P

Hä? Ich glaub ich versteh dich gerade falsch.

Hawaii hat die höhere Packdichte
Hawaii 70,645 mm²/Mrd Transistoren
GK104 83,05 mm²/Mrd Transistoren
GK110 77,605 mm²/Mrd Transistoren


Angenommen sie sparen wieder an compute wie im GK104

Das hat jetzt was mit dem Transistorcount zu tun?

Kostet ein compute Transistor etwa mehr DIE-Size als ein nicht compute Transistor? :ugly:


und das Ding packt etwas weniger als 6b transistors rein theoretisch,

Er meinte 6-7 Mrd Transistoren, und nur darauf habe ich mich bezogen...


gibt es welchen Grund genau dass es nicht bei =/<400mm2 reinpassen

Er sprach von 6-7 Mrd Transistoren....

Selbst wenn! ich da die Packdichte von Hawaii anlege, und ich glaube nicht, das nVidia die Packdichte packt, dann kommen wir bei 6,0-7,0 Mrd Transistoren auf 423,9 bis 494,5 mm²

Das ist also wo =/<400mm² ???

Und wie gesagt, ich erwarte nicht, das man auf die gleiche Packdichte kommt wie AMD. Die haben schon sehr gute Libarys usw. Hatte nVidia überhaupt mal in den letzten 5 Gens ne höhere Packdichte als AMD beim gleichen Prozess?


wuerde und auch nicht gleichzeitig einen anstaendigen Leistungssprung zum GK104 liefern koennte?

6-7 Mrd Transistoren bei =/<400mm² halte ich für ausgeschlossen. Und mehr als 350 bis maximal 400 mm² erwarte ich nicht für die Maxwell Chips unter 28nm.

Damit kommt man mit ganz ganz viel goodwill auf 5,7 Mrd Transistoren, aber wirklich mit ganz viel goodwill. Realistisch würde ich nicht mit mehr als 5 Mrd Transistoren rechnen. Der Rest muss über die Architekturänderungen kommen.

Ich meinte also was ganz anderes, als du gelesen hast :tongue:

robbitop
2013-11-05, 13:55:49
Die Frage ist, ob die niedrigere Packdichte bei NV nicht sogar beabsichtigt ist? Packdichte geht ja auch mit Energiedichte einher.

Skysnake
2013-11-05, 14:28:35
Dafür wird die mittlere Leitungslänge größer. Das kann dann auch wieder umschlagen.

Ailuros
2013-11-05, 16:28:22
Hä? Ich glaub ich versteh dich gerade falsch.

Hawaii hat die höhere Packdichte
Hawaii 70,645 mm²/Mrd Transistoren
GK104 83,05 mm²/Mrd Transistoren
GK110 77,605 mm²/Mrd Transistoren

Du solltest auch mal lesen lernen; Du hast gerade folgendes von mir zitiert:

GK104 hat weniger Transistoren und die area als Tahiti, hat eine groessere Packdichte und verbraucht weniger Strom...

Das hat jetzt was mit dem Transistorcount zu tun?

Kostet ein compute Transistor etwa mehr DIE-Size als ein nicht compute Transistor? :ugly:

Spar Dir das Sandkasten-Material; Du weisst genau was ich meine.

schon sehr gute Libarys usw. Hatte nVidia überhaupt mal in den letzten 5 Gens ne höhere Packdichte als AMD beim gleichen Prozess?
6-7 Mrd Transistoren bei =/<400mm² halte ich für ausgeschlossen. Und mehr als 350 bis maximal 400 mm² erwarte ich nicht für die Maxwell Chips unter 28nm.

Die Quote-Orgie kannst Du Dir genauso sparen. Ich sagte <6Mrd und Du zitierst gerade mich. Du wirst wohl etwas logischen Zusammenhang behalten koennen oder?

Damit kommt man mit ganz ganz viel goodwill auf 5,7 Mrd Transistoren, aber wirklich mit ganz viel goodwill. Realistisch würde ich nicht mit mehr als 5 Mrd Transistoren rechnen. Der Rest muss über die Architekturänderungen kommen.

Komisches Bauchgefuehl wie waere es mit einem neuen Menu als Abwechslung?

Ich meinte also was ganz anderes, als du gelesen hast :tongue:

28HP und HPM gehoeren zwar zum gleichen Prozess sind aber nicht identlsch. Du kannst es lange verdrehen es aendert nichts dass ich genau auf den einzigen Satz geantwortet habe. Noch kuerzer: falls NV auf HPM geht laesst sich durchaus einiges anstellen und es sind dann eben nicht die gleichen Prozess-bedingten Konstanten.

Sunrise
2013-11-05, 17:42:17
Die Frage ist, ob die niedrigere Packdichte bei NV nicht sogar beabsichtigt ist? Packdichte geht ja auch mit Energiedichte einher.
Wenn du mit beabsichtigt meinst, dass das bei NV sowohl architektur- als auch prozessbedingt ist, würde ich schon sagen, dass man davon sicher ausgehen kann.

Bei Tahiti hat man aufgrund der anfänglichen Prozessreife (der kam ja extrem früh) ja so einiges an Platz gelassen, den man zuerst mit Pitcairn und jetzt noch stärker mit Hawaii "wegoptimiert" hat. Ich verstehe allerdings immernoch nicht, warum AMD das Ding nicht noch minimal breiter gemacht hat (4x768 ALUs) und auf so eine krumme Zahl kommt.

Wenn man aber bedenkt, dass 28nm HP und 28nm HPM fast schon ein half-node Unterschied sind, kann da NV bei ordentlichen Architektur-und Prozess-Anpassungen noch einiges rausholen, vor allem aber aus dem Grund, weil Maxwell ja gänzlich "neu" ist. NV musste sich ja entscheiden, was sie machen. Und da scheint 28nm HPM doch deutlich mehr Potenzial zu haben as 20nm planar.

Allerdings würde ich hier keine Stromspar-Wunder relativ zu Kepler erwarten. Aber bei 400-420mm² sollte das Ding doch ordentlich abgehen (zumindest dann, wenn man wie GK104 in die ähnliche Richtung hin arbeitet). Und diese Strategie scheint sich bei NV ja ausgezahlt zu haben.

Skysnake
2013-11-05, 17:43:10
Klar lässt sich da einiges machen, aber mich würde es schwer! überraschen, wenn wir 6Mrd oder gar 7 Mrd Transistoren im GM1x4 sehen würden.

Irgendwas zwischen 5,0 und 5,5 Mrd ist denke ich realistisch.

Sunrise
2013-11-05, 18:03:41
Klar lässt sich da einiges machen, aber mich würde es schwer! überraschen, wenn wir 6Mrd oder gar 7 Mrd Transistoren im GM1x4 sehen würden.

Irgendwas zwischen 5,0 und 5,5 Mrd ist denke ich realistisch.
NV war da ja bisher eigentlich immer konservativer. Ich halte etwa 5,5 Mrd für realistisch, je nachdem, ob die Caches auch wieder aufgebohrt werden (müssen). Der Rest muss über die restliche Architektur- bzw. den Prozessvorteil kommen.

Wenn man es schafft, min. die Rohleistung eines 550mm²-Dies (SP, Gaming) mit <=420mm² zu erhalten, hat man sowohl AMD in der Hand als auch untenrum wieder Platz, das Preisgefüge zu bestimmen, bzw. die Margen hoch zu halten.

Ailuros
2013-11-05, 19:56:45
NV war da ja bisher eigentlich immer konservativer. Ich halte etwa 5,5 Mrd für realistisch, je nachdem, ob die Caches auch wieder aufgebohrt werden (müssen). Der Rest muss über die restliche Architektur- bzw. den Prozessvorteil kommen.

Wenn man es schafft, min. die Rohleistung eines 550mm²-Dies (SP, Gaming) mit <=420mm² zu erhalten, hat man sowohl AMD in der Hand als auch untenrum wieder Platz, das Preisgefüge zu bestimmen, bzw. die Margen hoch zu halten.

Deshalb sagte ich ja unter 6Mrd; und die Schaetzung basiert auch hauptsaechlich dass NV dank top dog den "Luxus" hat beim performance chip einiges an compute zu sparen. Muss aber auch nicht wirklich der Fall sein, denn was mir als Laie Sinn macht muss nicht unbedingt mit dem uebereinstimmen was die eigentlichen sw Entwickler haben wollen.

Tesseract
2013-11-05, 20:49:55
Die Frage ist, ob die niedrigere Packdichte bei NV nicht sogar beabsichtigt ist? Packdichte geht ja auch mit Energiedichte einher.

das sicher nicht. da könnte man dichter packen, mehr units auf der selben fläche unterbringen und die dafür niedriger takten/volten was wohl auf eine noch geringere energiedichte kommen würde.

es wird aber durchaus ein absichtlich ein in kauf genommener nebeneffekt verschiedener architektur-optimierungen sein wo packdichte gegen auslastungsgrad getauscht wurde.

AnarchX
2013-11-07, 10:18:39
Die TPU-DB-Betreiber haben wohl irgendwo den Produktnamen "Tesla M40c" aufgeschnappt: http://www.techpowerup.com/gpudb/2518/tesla-m40c.html
... die Specs sind wohl aber nur dem pastebin-Leak entnommen.

Wenn ein solcher Produktname jetzt schon auftaucht, ist es vielleicht ein kleinerer 28nm Maxwell, der zusammen mit K40 Atlas im Portfolio stehen wird.

Ausgehend von der Erfahrung mit GK104@K10 wäre wohl eine nicht so stark beschnittene DP-Leistung durchaus sinnvoll, erst recht wenn man die DP-ALUs bei Maxwell eventuell auch für SP mitnutzt.

Gipsel
2013-11-07, 10:37:41
Die TPU-DB-Betreiber haben wohl irgendwo den Produktnamen "Tesla M40c" aufgeschnappt: http://www.techpowerup.com/gpudb/2518/tesla-m40c.html
... die Specs sind wohl aber nur dem pastebin-Leak entnommen.Ich glaube, die waren nicht so abstrus (schau mal auf die Transistorzahl).

Ailuros
2013-11-07, 10:41:57
Ich glaube, die waren nicht so abstrus (schau mal auf die Transistorzahl).

ROFL hab ich jetzt erst bemerkt....:biggrin: Einen echten Baby-elephant bekomm ich leichter in meinen Kuehlschrank...

AnarchX
2013-11-07, 10:46:13
Ich glaube, die waren nicht so abstrus (schau mal auf die Transistorzahl).
Die sind wohl auch nur erfunden und wohl etwas gering für 550mm²@20nm mit vergrößerten Caches.

Gipsel
2013-11-07, 10:49:21
Haben länger vorab aufgetauchte Specs da bei TPU überhaupt schon mal gestimmt? Meistens packen die da doch wirklich nur die Gerüchte rein und unterlassen sogar simple Plausibilitätschecks (wie bei der Transistorzahl). Sowas kommt mir generell nicht vertrauenswürdiger rüber als irgendein Forumspost.

Ailuros
2013-11-07, 10:52:15
Schoen; dann behaupten wir mal als Anfang dass die Transistoren-Anzahl zweistellig in Mio sein wird :freak: