PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33

john carmack
2013-03-20, 11:47:33
HMC und StackedDRAM haben apriori nichts miteinander zu tun.

Das sind zwei komplett unterschiedliche Sachen, außer halt das es beides Speichertechnologien sind.



Uuuups...

hab nur in der Überschrift 1TB/s gelesen - bis zu "stacked DRAM" im Text hab ich´s gestern abend nicht mehr geschaft und bin vorher eingeschlafen... :D

Skysnake
2013-03-20, 11:55:43
Kein Ding ;)

Ich versteh nur nicht, wie man dabei einschlafen konnte....

Ok doch, ich kanns ein wenig verstehen :rolleyes:

Nightspider
2013-03-20, 11:56:05
GDDRx und DDR3/4 sind Interfaces, keine Speichertechnologien an sich...

Trotzdem ist GDDR5 um ein vielfaches teurer als einfacher DDR3 Speicher.

Gipsel
2013-03-20, 11:57:11
HMC und StackedDRAM haben apriori nichts miteinander zu tun.Na ja, HMCs sind immer stacked, aber nicht jeder stacked DRAM ist ein HMC. Gibt da ja noch mehr (HBM ist für Interposer m.M. geeigneter).

AnarchX
2013-03-21, 09:34:50
Desktop Maxwell ohne ARM-Cores: http://www.heise.de/newsticker/meldung/GTC-2013-ARM-Kerne-auf-Desktop-GPUs-erst-ab-Volta-1826893.html

Ailuros
2013-03-21, 09:49:35
Desktop Maxwell ohne ARM-Cores: http://www.heise.de/newsticker/meldung/GTC-2013-ARM-Kerne-auf-Desktop-GPUs-erst-ab-Volta-1826893.html

Jetzt macht die 28nm Maxwell These um einiges mehr Sinn.

AnarchX
2013-03-21, 09:56:27
Laut Artikel sind es aber 20nm für Maxwell. Zudem steht ja nun auch noch GK20x im Raum. Oder ist GK208 ein Sonderfall?
Eher brauch wohl Denver den 16nm Prozess.

Ailuros
2013-03-21, 10:07:12
Laut Artikel sind es aber 20nm für Maxwell. Zudem steht ja nun auch noch GK20x im Raum. Oder ist GK208 ein Sonderfall?
Eher brauch wohl Denver den 16nm Prozess.

Wass heisst "brauchen"? Es ist wohl eher so dass JHH etwas hallucinogenetic geraucht hat als er Denver fuer 20nm projezierte denn die engineers koennen auch nicht zaubern wenn er seine Richtlinien in den letzten Jahren um zich Mal geaendert hat. Denver ist schlicht und einfach delayed und ja es wurde von vielen im Hintergrund schon seit langem prophezeit.

Skysnake
2013-03-21, 10:13:50
Na toll, und welchen Sinn hat dann Maxwell im Mobilbereich, wenn es eh schon nen SOC ist? Da kannste ja gleich das Ding ohne x86 CPU laufen lassen.

Ailuros
2013-03-21, 10:53:33
Na toll, und welchen Sinn hat dann Maxwell im Mobilbereich, wenn es eh schon nen SOC ist? Da kannste ja gleich das Ding ohne x86 CPU laufen lassen.

Wie meinen? Es wird einfach keine PC/notebook/server SoCs von NVIDIA vor Volta geben.

Skysnake
2013-03-21, 11:05:40
Mir gings um Maxwell, deswegen habe ich auch Maxwell geschrieben, und nicht Volta ;)

Wenn Maxwell im Mobile-Bereich eben schlicht nen SOC ist, also nichts anderes als nen aufgeblasener Tegra wohl, dann brauch ich auch keine x86 CPU mehr. Darum gings mir ;)

Ailuros
2013-03-21, 11:08:53
Was hat x86 mit Denver oder sonst welchem Project bei NVIDIA genau zu tun?

Skysnake
2013-03-21, 11:18:23
Das man es sich sparen kann, weil ein "echter" SOC?

Nochmals, mir ging es um die Fragestellung, warum ich ne Mobile-Maxwell mit ner x86 CPU kombinieren soll, wenn ich doch da eh schon nen SOC hab. Kann ich doch gleich die x86 CPU weg lassen, und mich über WindowsRT/Linux freuen.

AnarchX
2013-03-21, 11:22:35
Mit wohl ~10W TDP eignet sich dafür wohl Tegra 6.
ARM-Cores in den Desktop-GPUs wären wohl eher im Bezug auf eine Beschleunigung bestimmter Aufgaben in der GPU und eben einen autarken Betrieb in Severn interessant gewesen.

Ailuros
2013-03-21, 11:23:05
Das man es sich sparen kann, weil ein "echter" SOC?

Wird wohl NV sich auf erhoffen, deshalb auch die bunte Werbung ueber secret sauce (ohhh...ahhhh!!! :eek: ) in Denver :D Jemand hat einfach wohl vergessen die Bruehe zu salzen und sie muessen noch etwas darin herumruehren ;)

Nochmals, mir ging es um die Fragestellung, warum ich ne Mobile-Maxwell mit ner x86 CPU kombinieren soll, wenn ich doch da eh schon nen SOC hab. Kann ich doch gleich die x86 CPU weg lassen, und mich über WindowsRT/Linux freuen.

Jetzt hab ich's schon kapiert. Fuer besseren GPGPU Schnickschnack womoeglich.

Skysnake
2013-03-21, 11:30:39
Aber CPUs sind doch lame, vor allem x86 CPUs, deswegen setzt man doch auch ARM CPU-Cores ein, die sind doch viel effizienter ;)

nVidia hat bereits Project Shield gebracht, und sich auch auf dem SFF-Markt mit eigenen Ref-Designs vor gewagt. Und im Serverbereich bringen Sie auch "eigene" Server raus. Die Entwicklung ist ziemlich klar. nVidia will ein OEM werden, die selbst die Sachen herstellen und mit Partnern unters Volk bringen.

Für Maxwell wird man sicherlich noch auf Intel setzen, aber das wird schon interessant werden, da die iGPU von Intel immer stärker wird.

Mich würde es wirklich nicht überraschen, wenn wir Maxwell dann sogar als "echten" SOC in nem Netbook oder so sehen dürften. Halt zusammen mit WindowsRT.

Wäre auf jeden Fall ein heiden Spaß ;D

Undertaker
2013-03-21, 12:40:43
Na toll, und welchen Sinn hat dann Maxwell im Mobilbereich, wenn es eh schon nen SOC ist? Da kannste ja gleich das Ding ohne x86 CPU laufen lassen.

Fressen die ARM-Kerne denn soviel Fläche dass es sich lohnen würde, einen extra Chip ohne eben solche aufzulegen? Windows RT, Linux, Android usw. haben in diesem kurzen Zeitfenster bis Maxwell nicht das Potential, auf einmal klassische x86-Notebooks komplett zu verdrängen, da die Software nicht kompatibel ist.

Wäre es nicht möglich, die zusätzlichen ARM-Kerne per OpenCL für andere Aufgaben mitzunutzen?

Skysnake
2013-03-21, 12:48:43
Müsste man wieder alles von Hand schreiben, und wie war das Argument bzgl Software gerade?

Wenn kann nVidia über ihren Treiber/LLVM da was drehen, aber ob das jetzt groß was bringt? Muss man erst sehen.

Viel DIE-Space fressen die ARM Kerne nicht. Schau dir doch mal im Tegra Topic an, wie klein die sind. Das ist jetzt kein OMFG-Faktor. Mobile-Chips sind aber eh normal nicht die größten, daher wirds nicht komplett vernachlässigbar, wenn man mehr als 1-2 Cores drauf packt, die dann auch wirklich was sinnvolles machen, und nicht nur so Sachen wie Powermanagement usw.

Nen richtiger SOC mit eigenem OS ist da direkt viel flexibler. Man kann die Cores halt wirklich direkt nutzen. Ohne eigenes OS wirste auf CUDA6 und entsprechende Software angewiesen sein, und wenn nVidia das nicht im Desktop bringt, kannste dir vorstellen, wie sich die Entwickler darum "schlagen" werden, da Geld rein zu stecken....

Ailuros
2013-03-21, 13:09:21
Klein ist relativ zur eigentlichen Groesse eines custom cores wie Denver und der genauen Anzahl dieser die dann benutzt werden. Unter 8 cores fuer einen high end chip der Zukunft kann ich mir schwer vorstellen.

Undertaker
2013-03-21, 13:14:13
Müsste man wieder alles von Hand schreiben

Falls die Kerne per OpenCL ansprechbar wären? :confused:

Gipsel
2013-03-21, 13:26:57
Falls die Kerne per OpenCL ansprechbar wären? :confused:Die hätten aber vollkommen andere Eigenschaften und würden als separates OpenCL-Device auftauchen. Die Aufteilung von Aufgaben auf mehrere Devices obliegt dem Entwickler.

Edit: In Bezug auf Kombination eines SoC mit einer CPU könnte nV vielleicht darauf zielen, bestimmte Teile des Treibers und des Managements von der eigentlichen CPU auf die ARM-Kerne im GPU/SoC-Chip auszulagern und so die CPU-Last etwas zu verringern, keine Ahnung.

dildo4u
2013-03-21, 13:28:43
Ist Denver ein Custom Core wie Krait oder basiert der auf A57?

Ailuros
2013-03-21, 13:37:18
Ist Denver ein Custom Core wie Krait oder basiert der auf A57?

Ja ein custom core basierend auf dem ARM ISA fuer ARMv8.

Hübie
2013-03-21, 14:42:53
Na ja, HMCs sind immer stacked, aber nicht jeder stacked DRAM ist ein HMC. Gibt da ja noch mehr (HBM ist für Interposer m.M. geeigneter).

Was ist denn HBM nun wieder? :redface: Gipsel und seine Abkürzungen...

Ich war die letzten Wochen ziemlich weg vom Fenster. Mag mir mal einer n kurzes Update geben. Wird Maxwell den stacked DRAM in einem Package haben oder wie nun? Mir wurde im Februar gesagt dass dieses Jahr noch was von nVidia für den Desktop kommt. Aber kein Maxwell - soviel ist sicher.
Maxwell @28nm für Desktop erwarte ich Q1 2014. Dann vielleicht erste 20nm-Versionen im Sommer 2014. Oder gibts da schon andere Infos (ich weiß: nix is in Stein gemeisselt).

LG Hübie

Gipsel
2013-03-21, 14:48:48
Was ist denn HBM nun wieder? :redface: Gipsel und seine Abkürzungen...Habe ich doch schon ganz oft erwähnt. Es gibt bei der JEDEC eine High Bandwidth Memory task group (http://www.jedec.org/category/technology-focus-area/3d-ics-0), die einen Standard für (stacked) DRAM ausarbeitet, der explizit auch das Verbauen auf einem Interposer vorsieht. Verwendet werden Erfahrungen mit Wide IO, weswegen das auch WideIO2 oder WideIO DDR genannt wird. Die PSVita benutzt praktisch das im Dezember 2011 verabschiedete WideIO SDR (minimal anderes physisches Layout der Kontakte, die haben die Produktion schon angefangen, bevor der Standard final war) für ihren stacked DRAM (der ohne TSVs auskommt). Im Prinzip bekommt wohl jeder DRAM-Stack ein 1024 Bit-Interface, welches mit moderaten Taktraten per DDR betrieben wird. HMC dagegen setzt die DRAM-Stacks auf ein kleines Logik-Die, welches dann wieder einen highspeed serielles Interface nach außen anbietet.

Edit:
The High Bandwidth Memory (HBM) task group in JC-42 has been working since March 2011 on defining a standard that leverages Wide I/O and TSV technologies to deliver products ranging from 128GB/s to 256GB/s. The HBM task group is defining support for up to 8-high TSV stacks of memory on a data interface that is 1024-bits wide. This interface is partitioned into 8 independently addressable channels to support a 32-byte minimum access granularity per channel. The specification is expected to be completed in late 2012 or early 2013.Das nächste Committee-Treffen ist übrigens vom 16.-19. April. Da wird das dann vermutlich beschlossen. Achja, die Bandbreiten von 128-256GB/s gelten natürlich pro Stack.

Hübie
2013-03-21, 15:05:26
Danke für die Antwort. :up: HMC würde dann theoretisch aber höhere Taktraten erlauben oder? Wie stehts um den Energiebedarf und Timings?

Wenn mir nun jemand meine anderen Fragen noch beantwortet bin ich glücklich :)

Gipsel
2013-03-21, 15:08:28
Danke für die Antwort. :up: HMC würde dann theoretisch aber höhere Taktraten erlauben oder? Wie stehts um den Energiebedarf und Timings?Höhere Taktraten bei einem schmaleren Interface. Die Bandbreite wird mit HMC auch nicht höher ausfallen. HMC konzentriert sich zuerst auf etwas weiter entfernten Speicher. Der Energiebedarf fällt aufgrund der größeren Übertragungswege natürlich höher aus. Aber das HMC-Konsortium will auch eine für kurze Entfernungen (Interposer) optimierte Variante entwickeln. Mal sehen, was das wird.

edit: Momentan haben sie einen Entwurf für einen "short reach PHY" und sagen sie wollen noch das Interface für einen "ultra short reach PHY" spezifizieren.

Hübie
2013-03-21, 15:16:53
Woher du dass immer alles weißt... unglaublich ;D Mit hohem Takt kompensiert man ja - zumindest teilweise - Bandbreite in physikalischer Form. HBM bedarf auch aufwändigerer Logik des IMC und somit die-area oder etwa nicht? Meiner Meinung nach wird HBM somit erst mit späteren Litographien auf dem (consumer-)Markt aufschlagen. Sagen wir bei 16 nm und FinFETs..?

Edit: Wenn Zeit ist lese ich mich da mal wieder etwas schlau.
Edit2: Ach ja man muss ja wie bei der PCI SIG bezahlen... das wars dann mit schlau lesen ;D

Gipsel
2013-03-21, 15:20:37
Mit hohem Takt kompensiert man ja - zumindest teilweise - Bandbreite in physikalischer Form. HBM bedarf auch aufwändigerer Logik des IMC und somit die-area oder etwa nicht? Meiner Meinung nach wird HBM somit erst mit späteren Litographien auf dem (consumer-)Markt aufschlagen. Sagen wir bei 16 nm und FinFETs..?Ich persönlich würde eher vermuten, daß HBM ziemlich nah an einem möglichen Einsatz ist. HMC separiert den eigentlichen DRAM-Controller vom Speichercontroller in der CPU. Der DRAM-Controller befindet sich praktisch im Logik-Die ganz unten im Stack, welcher dann irgendwie (genau sagt das keiner) an die CPU angebunden wird. Im Fall von HBM befindet sich dagegen der komplette DRAM-Controller im Prozessor, die Stacks besitzen keinen eigenen Logik-Layer.

Hübie
2013-03-21, 15:24:34
Ich sehe da keinen Nachteil wenn die Anbindung seriell und schnell ist. Ich stelle mir da so was wie den HT-Link von AMD vor.
Okay frisst wohl etwas Latenz. Aber doch nicht viel...

Gipsel
2013-03-21, 15:36:34
Ich sehe da keinen Nachteil wenn die Anbindung seriell und schnell ist. Ich stelle mir da so was wie den HT-Link von AMD vor.
Okay frisst wohl etwas Latenz. Aber doch nicht viel...
Für die Latenz ist es fast egal, für den Stromverbrauch aber nicht. Ein langsames, breites Interface verbraucht normalerweise weniger als ein schnelles, hochgetaktetes (was aber billiger sein kann, weil es weniger Platz auf dem Board benötigt). HMC versucht das dadurch zu entschärfen, daß man das hochgetaktete Interface in einem dafür optimierten Logikprozeß fertigt, deswegen das extra Logik-Die ganz unten im Stack. Das ist deutlich effizienter, als wenn man versucht, die gleichen Signale mit Transistoren eines DRAM-Prozesses zu treiben. Wenn man allerdings etwas direkt auf dem Prozessor (oder auch auf einem Interposer) stacked, dann ist das schlicht überflüssig, weil es im Prinzip nicht viel was anderes ist, als die Verbindung der DRAM-Dies zum Logik-Die eines HMC. Die Funktion des Logik-Dies eines HMC sitzt bei HBM also im Prozessor.

Hübie
2013-03-21, 16:03:30
Bei einer seriellen Verbindung kannst du ja ebenso sinnvolle Energiespartechniken anwenden wie sonst auch. Da hängt es aber eben am Logik-die wie gut diese Arbeiten. Da aber viele Kniffe bereits bekannt sind und genutzt werden sollte das kein großes Hindernis sein. Ich reder hier von just-in-time/out-of-order scheduling, data scrambling u.ä.

Gipsel
2013-03-21, 16:32:13
Bei einer seriellen Verbindung kannst du ja ebenso sinnvolle Energiespartechniken anwenden wie sonst auch. Da hängt es aber eben am Logik-die wie gut diese Arbeiten. Da aber viele Kniffe bereits bekannt sind und genutzt werden sollte das kein großes Hindernis sein. Ich reder hier von just-in-time/out-of-order scheduling, data scrambling u.ä.
Und ich rede hier schlicht davon, ein hochfrequentes Signal (mehrere GHz) mit ausreichender Signalintegrität über mehrere Zentimeter auf einem PCB zu treiben (völlig unabhängig vom Protokoll). Das ist alles andere als trivial. Ab einer bestimmten Frequenz steigt der dazu notwendige Aufwand überproportional an, so daß es energetisch gesehen günstiger wird, doppelt so viele Leitungen bei halber Frequenz zu benutzen. GDDR5 z.B. ist locker über diesen Punkt hinaus. Es ist eben nur unpraktisch und teuer ewig viele Leitungen auf einem PCB zu verdrahten. Mit einem Interposer fällt dieser Grund weg.

Hübie
2013-03-21, 16:41:28
Hm. Na gut da kann man jetzt in den Bereich Material und 12-layers PCBs abdriften, aber ich denke wir sind uns einig dass HMC nur in einem package Sinnvoll ist. Ich meine mal ehrlich: Wenn eine CPU Zigarettenschachtelgröße erreicht, aber dafür alles drin hat wäre es bei entsprechender IPC-Steigerung Wurst. Ich überspitze das hier natürlich.

Wenn ich auch mal nachdenke wie es damals und heute war. Mainboards kommt eine immer kleiner werdende Rolle zu, RAM-Modulen ebenfalls und mittlerweile sogar den low-end bzw. mainstream-Grafikkarten. Der PC entwickelt sich auch immer mehr in Richtung SoC. Genau hier ist so ein HMC auch sinnvoll.
Nur weiß ich ehrlich gesagt noch zu wenig über die Ansteuerung, Logik, Prozess etc.. Wenn du ein whitepaper (gratis) hast kannst du es gerne verlinken. ;)

Edit: Langfristig ist HBM natürlich sinnvoller da eben voll integrierbar. Na wir werden sehen.

Godmode
2013-03-21, 18:09:12
Was ist eigentlich der Grund für ARM Cores auf einer GPU? Ist ein Hauptgrund vielleicht, dass ich alles auf der GPU machen kann und nur mehr initial die Daten in den Onboard Speicher schaufeln muss?

Gipsel
2013-03-21, 18:19:35
Was ist eigentlich der Grund für ARM Cores auf einer GPU?Im Prinzip der gleiche wie für einen GPU-Teil auf einer APU. ;)
Du willst ein mehr oder weniger abgeschlossenes System, was sowohl eher latenzempfindliche/serielle Aufgaben gut lösen kann als auch eher durchsatzorientierte massiv parallele.

Skysnake
2013-03-21, 18:29:48
Was ist eigentlich der Grund für ARM Cores auf einer GPU? Ist ein Hauptgrund vielleicht, dass ich alles auf der GPU machen kann und nur mehr initial die Daten in den Onboard Speicher schaufeln muss?

Siehe Gipsels Aussage, und ansonsten nimmt man halt ARM, weil man kein x86 nehmen darf. nVidia hätte schon gern, aber Sie dürfen halt nicht ;D

Ansonsten finde ich die Diskussion sehr interessant, wobei ihr großteils alle Recht habt, und dennoch den Wald vor lauter Bäumen nicht seht. ;D Und ja Gipsel, hohe Frequenzen sind doof, aber überleg dir mal wie man gewisse Sachen skaliert ;)

Bzgl Anzahl Leitungen und Interposer:
Ja, man hat VIEL mehr freie Hand, aber es gibt auch Grenzen.

Ich nehm mir jetzt auf jeden Fall :popcorn: und schau mir die Diskussion weiter an. Sie ist auf jeden Fall ziemlich gut, und was besseres werdet ihr wohl nicht bekommen ;

Gipsel
2013-03-21, 19:09:12
Und ja Gipsel, hohe Frequenzen sind doof, aber überleg dir mal wie man gewisse Sachen skaliert ;)Du willst jetzt aber nicht auf die Datengranularität hinaus, oder? Die wird bei jeglichem Prefetch ebenfalls mieser, selbst wenn man mit einem schmalen Interface ankommt. HMC wird eventuell mehr Channels anbieten, die man parallel ansprechen kann (ein HBM-Stack mit 1024Bit hat 4x256Bit, also 32Byte Granularität, genau wie ein x32 GDDR5-Chip). Die dadurch vielleicht (Specs sind ja nicht öffentlich, also vielleicht ist das noch nicht mal so) etwas kleinere Datengranularität erkauft man sich dadurch, daß man von mehr unterschiedlichen Stellen im Speicher gleichzeitig lesen muß, um auf die nominelle Bandbreite zu kommen. Aber da übliche CPUs (und auch AMD-GPUs) sowieso immer gleich mindestens 64Byte=512 Bit (eine Cacheline) am Stück lesen oder schreiben, spielt das keine große Rolle.
Oder willst Du auf die maximale Speicherbestückung hinaus? Zu den "far PHY"-Specs (die dafür wohl zuständig sind, das HMC-Logik-Die spielt da vermutlich den Verteiler für eine größere Ansammlung von Cubes) gibt es bisher nicht viel zu finden (bzw. weiß ich davon schlicht kaum was).

Skysnake
2013-03-21, 19:49:05
(Specs sind ja nicht öffentlich, also vielleicht ist das noch nicht mal so)
Gipsel, genau das ist das Problem...

Ich kann nur eins sagen, was mir schon damals aufgefallen ist. Was hat Intel denn auf ihrer Hausmesse gezeigt? Richtig MC. Und wie heißt das Konsortium/Produkt? HMC.

Das ist das was mir aufgefallen ist, und ich bereits damals verwundert gesagt habe. Bei allem anderen, wird die Zeit zeigen, wie gut/schlecht du/ihr liegt.

So lange das HMC-Konsortium aber nichts sagt, bleib ich bei meinem :popcorn:

Dural
2013-03-21, 20:02:43
und ansonsten nimmt man halt ARM, weil man kein x86 nehmen darf. nVidia hätte schon gern, aber Sie dürfen halt nicht ;D


was sich aktuell zum glücktreffer für NV herausgestellt hat. ich denke nicht das NV derzeit überhaupt noch interesse an x86 hat.

in ein paar jahren wäre Intel sogar eventuell froh, wenn NV doch x86 CPUs hätte...

Gipsel
2013-03-21, 20:18:17
@Skysnake:
Na das Intel im HMC-Zug sitzt, ist doch bekannt. Die haben ja sogar schon einen Prozessor mit HMC-Interface mal kurz vorgestellt (also bekanntgegeben, daß die ersten Tests laufen). Denen geht es zum einen um große Hauptspeichermengen (+ Bandbreite) in Servern und in zweiter Linie mehr Bandbreite (+ mehr Speicher) für Xeon Phi. Bei Letzterem will man vielleicht lieber HMC als HBM nehmen, weil man damit mehr Stacks, also absolut mehr Speicher unterbringen kann. Für Consumer-GPUs ist das aber nicht das entscheidende Kriterium.

Skysnake
2013-03-21, 21:11:58
Gipsel, les nochmal ;)

Intel hat nicht HMC gezeigt, sondern MC ;D haben Sie zumindest selbst gesagt.

Aber wie gesagt, ich wende mich ab jetzt meinenm :popcorn: zu. Viel Spaß noch :up:

Gipsel
2013-03-21, 21:27:38
Gipsel, les nochmal ;)

Intel hat nicht HMC gezeigt, sondern MC ;D haben Sie zumindest selbst gesagt.
Also ich lese da Hybrid Memory Cube:

http://images.tweaktown.com/news/2/1/21804_1_intel_demonstrates_512mb_hybrid_memory_cube_dram_operating_at_1tb_s_full .jpg

Hübie
2013-03-21, 23:38:39
Was ist eigentlich der Grund für ARM Cores auf einer GPU? Ist ein Hauptgrund vielleicht, dass ich alles auf der GPU machen kann und nur mehr initial die Daten in den Onboard Speicher schaufeln muss?

Um das zu spezifizieren müsste man wissen welcher ARM-Core das nun wird. Vermutlich die, die es noch nicht gibt :biggrin: So ein Teil könnte compiling/decompiling beschleunigen. Nun muss aber auch gesagt werden dass so etwas für Maxwell nicht im Dekstop-Segement kommen wird (wenn die Gerüchte denn stimmen) und es somit auch keine schwerwiegenden Aufgaben sein können. Revolution können wir also noch nicht jubeln, denk ich. Aber sicher kommen auch Aufgaben wie Energieverwaltung hinzu.

@HMC/HBM-Diskussion: Skysnake? Ich habe gerade den Verdacht dass du entweder was weißt was wir nicht wissen (können) oder einfach nur verwirren willst :tongue: Jedenfalls weiß ich nicht genau worauf du hinaus möchtest...:confused:
@Gipsel: Mit Haswell wird Intel aber auch wieder einiges an Caches bzw. dem IMC ändern. Die 64 Byte Cacheline sollen aber bleiben, jedoch kann man mit transactional memory aber schon zweistellige Prozente an Bandbreite einsparen wenn ich mich nicht irre. Das Protokoll wird insgesamt effizienter. Leider habe ich immer noch nicht die Zeit gefunden die komplette Architektur-Analyse von Haswell durchzulesen (habe nicht mal GCN angefangen :()

Zeit ist die einzige Ressource an der es mir immer wieder mangelt :rolleyes:

Konami
2013-03-21, 23:54:27
Skysnake will darauf hinaus, dass HMCs ein "Hybrid" im Namen haben, weil sie Hybride sind. Zwischen x und y. Fragt mich nicht, ich bin ahnungslos.

Hübie
2013-03-22, 00:17:36
Öh. Ich dachte das Hybrid steht bisher nur dafür dass unterschiedliche DRAM-Typen verwendet werden können. :confused:

Skysnake
2013-03-22, 08:39:18
@HMC/HBM-Diskussion: Skysnake? Ich habe gerade den Verdacht dass du entweder was weißt was wir nicht wissen (können) oder einfach nur verwirren willst :tongue: Jedenfalls weiß ich nicht genau worauf du hinaus möchtest...:confused:
Be, or not to be, thats the question

;D

Mancko
2013-03-22, 08:55:28
was sich aktuell zum glücktreffer für NV herausgestellt hat. ich denke nicht das NV derzeit überhaupt noch interesse an x86 hat.

in ein paar jahren wäre Intel sogar eventuell froh, wenn NV doch x86 CPUs hätte...

Nvidia macht das einzig richtige, nämlich mit anderen sehr großen Unternehmen dafür sorgen, dass x86 mit jedem Jahr ein Stück mehr an Bedeutung verliert. Samsung, Qualcomm, Apple, Nvidia und andere werden ARM weiter pushen. Das ist auch für alle das einzig sinnvolle. Da sind so viele Unternehmen, die in Summe eine erhebliche Marktmacht haben und genau das wird Intels Problem werden. Sie alleine kontrollieren x86. Ist doch logisch, dass die anderen dafür sorgen werden, dass x86 eben nicht mehr der Nabel der Welt ist.

Die Idee hinter Nvidia GRID ist ein weiterer Schritt. In ein paar Jahren wird es für ein Großteil von Business Anwendungen völlig egal sein, was man am Arbeitsplatz für eine Büchse stehen hat und vor allem auf welcher CPU Architektur die beruht. Die Software wird virtualisiert und auf einen Zentralrechner ausgelagert. Übertragen werden dann nur noch die Bilddaten.

Anders als die ganzen Online Webseiten sehe ich das größte Potential hinter GRID nicht bei 3D Spielen sondern bei Business Anwendungen. Dort ist die Umsetzung einfacher und der Nutzen für die Kunden am größten. Teamübergreifendes Arbeiten wird vereinfacht weil es eine zentrale Datenquelle gibt und nicht mehr die ganzen Daten auf die einzelnen Rechner übertragen werden müssen und es werden ganz massiv die Hardwarebeschaffungskosten und vor allem Wartungs- und Supportkosten reduziert. Das ist heute noch ein sehr großer Kostenblock mit den ganzen Desktop PCs und Notebooks. Und ein Hauptanker von x86 ist nach wie vor die Geschäftswelt durch die Softwarebindung. Wenn sich das durch GRID oder andere Virtualisierungstechnologien langsam auflöst dann wird Intel bzw. x86 ganz automatisch jede Vormachtstellung verlieren und nur noch eine Architektur von vielen sein.

Ich sehe absolut keinen Zwang mehr auf x86 setzen zu müssen. Die Tage der Vormachtstellung sind gezählt. Es wird zwar auf Grund der Verbreitung noch eine Weile dauern aber am Ende wird x86 nur noch die Schrumpfrichtung kennen aber sicher keine Wachstumsstory mehr sein und das ist das Entscheidende.

Botcruscher
2013-03-22, 08:55:33
Der Prototyp war ende 2011. Na mal sehen wann wir wirklich fertige Produkte sehen.

V2.0
2013-03-22, 10:13:21
Die Idee hinter Nvidia GRID ist ein weiterer Schritt. In ein paar Jahren wird es für ein Großteil von Business Anwendungen völlig egal sein, was man am Arbeitsplatz für eine Büchse stehen hat und vor allem auf welcher CPU Architektur die beruht. Die Software wird virtualisiert und auf einen Zentralrechner ausgelagert. Übertragen werden dann nur noch die Bilddaten.

Ich vermute mal, dass Du die Zeiten der "Großrechner" in Firmenanwendungen nicht aktiv erlebt hast.

Iruwen
2013-03-22, 12:39:31
Die Hälfte unserer Kunden setzt auf Virtualisierung und Thin Clients (kirchliche/kommunale Träger), wir selbst auch, von meinen Eltern weiß ich das auch (Amtsgericht) meine Freundin arbeitet auch remote mit DATEV (Steuerberater), ihr Vater auch (Versicherung). Ist ja auch viel praktischer. Und sicherer, man kann das "Rausziehen" von Datenbeständen in großem Umfang effektiv unterbinden.

Mancko
2013-03-22, 14:51:05
Ich vermute mal, dass Du die Zeiten der "Großrechner" in Firmenanwendungen nicht aktiv erlebt hast.

Doch habe ich und zwar noch als es bereits normale x86 Programme zu Hauf gab. Unser zentraler Bankserver / Host war ein Großrechner mit den ganzen Anwendungen für die Filialen. Ich kenne auch noch SAP aus der Großrechnerzeit.

Die Technologie ist extrem weit fortgeschritten. Ich setze bereits bei uns in der Firma nur noch VMWare ein und virtualisiere so viel wie möglich. Daneben setzen wir bei der Unternehmenssteuerung auf DATEV Online - sprich Cloud. Im Endeffekt nutzen wir noch x86 Laptops wegen Office, SAP GUI, Eclipse und anderen Entwicklungstools aber der Trend geht eindeutig in Richtung leichter genügsamer Geräte, da die Software zunehmend auf zentrale Server ausgelagert wird. Das wird Intel nicht verhindern können, da die Vorteile immens sind:

- günstigere, leichtere, genügsamere Endgeräte (sehr gut für Mobilität)
- zentrale Verwaltung der Daten
- Reduzierung von Sicherheitslecks weil die Daten nicht mehr redundant abgelegt werden
- deutlich vereinfachte IT Infrastruktur. Beschaffungs- und Supportkosten werden dadurch erheblich reduziert
- Plattformunabhängigkeit.

Nehmen wir mal GRID als Beispiel oder die klassische VMWare bzw. Citrix. Da muss nur sichergestellt werden, dass der Client auf vielen Plattformen läuft was technisch kein Problem sein dürfte. Da nur die Bilddaten und Steuerungskommandos übertragen werden spielt die Endgeräteplattform überhaupt keine Rolle mehr.

Skysnake
2013-03-22, 15:14:09
Dafuer muessen aber auch die Netze dementsprechend ausgebaut sein, und vor allem das NFS.

Gerade hier gibts dann halt am Ende doch immer wieder Probleme. GANZ so einfach ist es halt auch wieder nicht.

Iruwen
2013-03-22, 15:21:47
Die Netzbelastung ist marginal.

Mancko
2013-03-22, 16:06:39
Die Netzbelastung ist marginal.

Die dürfte sogar niedriger ausfallen als bisher, weil eben deutlich weniger Daten übertragen werden müssen. In Unternehmen ist das sowieso kein Problem. Da muss nur die Serverinfrastruktur mit GRID Systemen oder anderen Technologien passen.

Skysnake
2013-03-22, 17:32:09
Also den Bildschirminhalt von X Nutzern zu übertragen ist auch nicht ganz ohne.

Kommt halt immer darauf an, was man genau macht, aber ich hab schon bei einigen Firmen an nem Arbeitsplatz gearbeitet, wo Software zentral verwaltet wurde, und es war schon teilweise ein Graus...

Und bei uns an der Uni suckt z.B. das NFS gewaltig, trotz 100/1000MBit überall und Server um die Ecke, der mit GBit oder 10GBit angeschlossen. Und da hängen jetzt nur so 20-30 Leute dran. Gut, die machen großteils recht anspruchsvolle Sachen, und das Ding ist wohl auch nicht optimal konfiguriert, da man wenn man direkt auf dem Rechner arbeitet, in dem das NFS physisch hängt locker um einen Faktor 10 schneller ist... große Archive Packen/Entpacken dauert übers Netz mal schnell ne Stunde, auf dem Server selbst vielleicht 10 Minuten.

S940
2013-03-22, 23:51:16
Spekulation eines GE-Ingenieurs, wie er nen Denver-Cluster bauen würde:

http://www.theregister.co.uk/2013/03/22/ge_rdma_gpudirect_denver_gpu_super/page3.html

Wunder oh Wunder, PCIe Endpoint Device Fähigkeit ... an was erinnert mich das nur ^^

Das Ganze sieht grob aus wie AMDs Seamicro-Link ohne Seamicro-Logik ^^

Nur können die Nvidias Remote DMA ... frag mich, wie das funktionieren soll, reines PCIe ist das damit dann doch nicht. Sieht aber nach nem HPC-Killerfeature aus, wenn man sich da die Latenzen / Durchsatz und Stromeinsparung anschaut (auf den Seiten vorher):
http://www.abload.de/img/ge_inp251_rdma_perforrxun0.jpg

OBrian
2013-03-23, 02:27:38
@ Skysnake: Ist dafür nicht sowas gedacht? http://www.amd.com/us/products/workstation/graphics/firepro-remote-graphics/r5000/Pages/r5000.aspx

Skysnake
2013-03-23, 09:10:26
Spekulation eines GE-Ingenieurs, wie er nen Denver-Cluster bauen würde:

http://www.theregister.co.uk/2013/03/22/ge_rdma_gpudirect_denver_gpu_super/page3.html

Wau.... Wie spannend....

Soll ich mal nen Bildchen zeichnen, wie ich nen Cluster aufbauen würde? Das sieht wohl spannender aus....


Wunder oh Wunder, PCIe Endpoint Device Fähigkeit ... an was erinnert mich das nur ^^

:confused:

Worauf willst du raus? Es gibt bei PCI-E nur Root-ports, bridges und eben Endpoints. Mehr gibt es nicht. Bridges sind dabei transparent für PCI-E, wenn ich die Specs grad richtig im Kopf habe. Ich musste mich mit der Thematik in letzter Zeit gezwungener maßen auseinander setzen.

Rootports unterscheiden sich von Endpoint darin, dass Sie ALLE PCI-E Pakete senden und empfangen können. Endpoints können nicht alle Pakete empfangen und absenden. Der PCI-E-Core von denen verwirft die entsprechenden Pakete "einfach". Z.B. PCI-E Configcycles kann ein Endpoint nicht versenden, um andere PCI-E-Devices zu configurieren.


Das Ganze sieht grob aus wie AMDs Seamicro-Link ohne Seamicro-Logik ^^

Das ganze sieht für mich nach nem stinknormalen PC mit PCI-E aus :freak:

Nur können die Nvidias Remote DMA ... frag mich, wie das funktionieren soll, reines PCIe ist das damit dann doch nicht. Sieht aber nach nem HPC-Killerfeature aus, wenn man sich da die Latenzen / Durchsatz und Stromeinsparung anschaut (auf den Seiten vorher):
http://www.abload.de/img/ge_inp251_rdma_perforrxun0.jpg
....
Wenn du nicht weißt, wie das funktioniert, warum meinst du dann sagen zu können, dass das kein "reines PCIe" ist?

PCI-E kennt laut den Specs Device-to-Device communication. Jetzt rat mal was dafür verwendet wird. Wenn du dir klar machst, was (R)DMA ist, dann wird dir ziemlich schnell klar, was da abgeht.

Und jetzt mal was aus dem Nähkästchen. Device-to-Device communication ist eine von den Sachen, wo es immer heißt, "jaja, das funktioniert alles alles super, alles PCI-E xy", dann frägste nochmal gezielt nach Einschränkungen bzgl Device-to-Device communication, und dann wird in den Giftschrank unter dem Tisch gegriffen und ein mehr oder weniger dicker Stapel mit Papier bzgl Einschränkungen rausgeholt, weils dann eben noch nicht alles soooo ganz supi dupi ist...


@ Skysnake: Ist dafür nicht sowas gedacht? http://www.amd.com/us/products/workstation/graphics/firepro-remote-graphics/r5000/Pages/r5000.aspx
Unter anderem ja. Mit so was habe ich selbst aber noch nie gearbeitet, und man bekommt auch ziemlich schwierig Informationen darüber. Prinzipiell braucht man halt "einfach" nur angepasste Software, dann läuft mit jeder GPU. Das ist aber eben das Problem.

Wobei heutzutage gehts wohl besser als früher. Man hat aber immer noch so manchen Fallstrick, über den man stolpern kann. Deswegen laufen so Virtualisierungen für kleine Unternehmen auch eher schlecht, denn recht. Da wird meist zu viel gespart, die Leute dies betreuen haben nicht den Schulungsgrad für die Administrierung usw usw. Problematisch sind auch Speziallösungen. Und die tauchen doch immer wieder auf. Nen Softwareport kannste nicht bezahlen! und wenn du Pech hast, läufts einfach nicht. Kleines Beispiel:
Ich hab ne GPGPU-Demo für ne Messe geschrieben mit jemanden zusammen für OpenGL. Das lief auch wunderbar, aber eben nicht remote über den X-Server :( das hatte so 1-5 Sekunden inputlag -.- Das kannste voll knicken. Und genau solche Sachen sind halt der Knackpunkt. Man muss echt aufpassen, wie man solche Systeme aufsetzt, und ob überhaupt alle eingesetzt Software mitspielt. Denn was bringt mir nen super "billiges" System, wenn ich dann nen wahnwitzigen Betrag zahlen muss, um das System zu administrieren, weil ichs selbst nicht gebacken bekomme...

Bei den ganz großen bekommt man so was gut ans laufen und vor allem AM laufen. Die haben eher das Problem, das man eben die Netze dafür auch auslegt.

Skysnake
2013-03-23, 09:24:12
So jetzt hab ich mal angefangen den Artikel zu lesen. Allein auf der ersten Seite erzählt er mindestens 1 mal einfach die Unwahrheit.... Keine Ahnung, ob der Schreiber des Artikels einfach keine Ahnung hat, oder der GE Type einfach bewusst scheise labert, um besser da zu stehen, aber nen Virtex 6 kann PCI-E 2.0 nicht nur PCI-E 1.0....
http://www.xilinx.com/support/documentation/data_sheets/ds150.pdf

Ich hab schon gar keine Lust mehr weiter zu lesen...

EDIT:
Auf Seite 1 ist in dem Bild folgendes zu finden:

Size: 16kB
Bandwidth: 2000MB/s->2048000kB/s
DMA-Latency: 4,09µs

Ähmm sicher?

Wenn ich allein nur die Datenübertragung nehme, dann dauert das Size/Bandwidth=Übertragungsdauer also 16kB/2048000kB/s=0,0000078125s=0,0078125ms=7,8125µs

Also nur die Übertragung der Daten dauert fast 8µs, und die wollen ne Latenz von 4,09µs erreicht haben? Shure?

Was ist denn diese omminöse DMA Latenz überhaupt?...

Also ganz offensichtlich nicht die Zeit, die vergeht, bis die Daten angekommen sind...

EDIT2:
Was mir noch aufgefallen ist. Die fangen bei 16kB an. Das sind schon gewaltige Oschis. Also die normalen Latenzvergleiche, die ich für Infiniband usw kenne, fangen normal bei einzelnen Bytes an, und gehen dann hoch. Mit 16kB hat man ja schon mehr als ein PCI-E Paket überhaupt auf einmal übermitteln kann, und da reden die von Low-Latency :ugly:

Iruwen
2013-03-23, 21:15:55
Also den Bildschirminhalt von X Nutzern zu übertragen ist auch nicht ganz ohne.

Ich nehme an wir reden jetzt speziell über Grid VCA im Businessbereich, nicht über Cloudgaming oder traditonelle VDIs. Die Anforderungen von z.B. RDP sind bei nicht interaktiven Inhalten mit <100kbit ja lächerlich. Patel hat von 10MBit als obere Grenze (default) für einen 1080p Stream mit VCA gesprochen, im Schnitt dürfte der Wert dann ja deutlich niedriger liegen und kann auf Kosten der Qualität auch weiter reduziert werden. Firmen die bewusst auf so eine Lösung setzen sollten damit keine Probleme haben, das sind ja keine billigen Low-End Lösungen die über Klingeldraht genutzt werden sollen.

Hübie
2013-03-24, 01:08:57
So jetzt hab ich mal angefangen den Artikel zu lesen. Allein auf der ersten Seite erzählt er mindestens 1 mal einfach die Unwahrheit.... Keine Ahnung, ob der Schreiber des Artikels einfach keine Ahnung hat, oder der GE Type einfach bewusst scheise labert, um besser da zu stehen, aber nen Virtex 6 kann PCI-E 2.0 nicht nur PCI-E 1.0....

Nu halt ma die Luft an. Wenn Gen2 dann nur x8 und wenn Gen1 dann halt x16. Dank overhead kommst du also aufs gleiche Ergebnis oder nicht? Ich habe mir den Artikel noch nicht durchgelesen aber dumm ist der Author sicher auch nicht. Und wenn doch dann erleuchte ihn ;) Das Problem an heutigen Netzwerken ist oft eine zu stark schwankende Skalierung bzw. Performance. Das war zu IBMs toke ring anders. Wie also willst du ein input limit festlegen? Machst du das per prediction kannst du schnell mal 50% Verlust erfahren und machst du das in realtime läufst du Gefahr Datenintigrität zu opfern. Also macht man einen Spagat.

Individuell betrachtet gibt es einige Anwendungsbereiche wo es sinnvoll ist cloud-Rendering anzuwenden. Und selbst wenn du eine Nische in einer Nische entdeckst kannst du es vermarkten ;)

S940
2013-03-24, 02:21:28
Worauf willst du raus? Es gibt bei PCI-E nur Root-ports, bridges und eben Endpoints. Mehr gibt es nicht. Bridges sind dabei transparent für PCI-E, wenn ich die Specs grad richtig im Kopf habe. Ich musste mich mit der Thematik in letzter Zeit gezwungener maßen auseinander setzen.
Ich wollte auf AMDs Kaveri hinaus, da hatten wir doch letzten die Diskussion über Kaveri PCIe-Karten, da dort auch die PCIe-Endpoint Fähigkeit beschrieben wurde. Da warst Du doch noch ziemlich begeistert von, dachte das wär noch hängengeblieben ;-)
Aber vermutlich hast Du zuviel mit anderen PCIe-Endpoints zu tun.


Wenn du nicht weißt, wie das funktioniert, warum meinst du dann sagen zu können, dass das kein "reines PCIe" ist?
Naja, von Deinem genannten DeviceToDevice Modus hatte ich bisher halt noch nichts gehört und im Artikel wirds auch als Superneuheit beschrieben, die bisher noch nicht unterstützt wurde.

Danke für die Info, dass das auch nichts Neues ist.

Skysnake
2013-03-24, 07:33:16
Nu halt ma die Luft an. Wenn Gen2 dann nur x8 und wenn Gen1 dann halt x16. Dank overhead kommst du also aufs gleiche Ergebnis oder nicht? Ich habe mir den Artikel noch nicht durchgelesen aber dumm ist der Author sicher auch nicht. Und wenn doch dann erleuchte ihn ;)

Xilinx Virtex6 LXT Series (XC6VLX240T)
8-lane PCI Express 2.0 5 GT/s 4 GByte/s

http://extoll.de/index.php/productsoverview/galibier
2x PCI-E 2.0 8x
http://www.hitechglobal.com/boards/x16pciexpress.htm
Was wolltest du nochmal sagen?

Sorry, aber das mit dem PCI-E Interface ist halt schlicht falsch. Die Virtex 6 Serie kann PCI-E 2.0 16x... Und ich kann mir auch nicht vorstellen, das es da welche gibt, die nur PCI-E 1.0 8x können, wills aber nicht ausschließen, dann soll ers aber auch so sagen... Die Virtex 6 können nämlich prinzipiell PCI-E 2.0. Wenn die das schlicht nicht gebacken bekommen, ist das halt ihr Problem.
Es ist eben nicht so, das man nur PCI-E 1.0 8x haben kann, sondern sogar 2x PCI-E 2.0 8x. Ich bin mir nichmal sicher, ob man zwingend den Switch dazwischen packen muss. Der XilinxCore sollte das inzwischen eigentlich outofthebox können. Müsste ich aber nochmal mit unseren PCI-E Menschen reden.

Und ich werde da niemanden erleuchten. Dafür ist mir meine Zeit zu schade. Wenn da jemand 3 Seiten raushauen kann, dann kann er sich auch besser informieren.

Ich wollte auf AMDs Kaveri hinaus, da hatten wir doch letzten die Diskussion über Kaveri PCIe-Karten, da dort auch die PCIe-Endpoint Fähigkeit beschrieben wurde. Da warst Du doch noch ziemlich begeistert von, dachte das wär noch hängengeblieben ;-)
Aber vermutlich hast Du zuviel mit anderen PCIe-Endpoints zu tun.

Ja, da ist es geil, weil du damit ein Multisockel-System aufbauen könntest ;) Nur deswegen.


Naja, von Deinem genannten DeviceToDevice Modus hatte ich bisher halt noch nichts gehört und im Artikel wirds auch als Superneuheit beschrieben, die bisher noch nicht unterstützt wurde.

Danke für die Info, dass das auch nichts Neues ist.
Kein Ding.

Btw. GPUDirect 1, was mit Fermi eingeführt wurde, aber nur innerhalb des Hosts funktioniert hat, war auch bereits DeviceToDevice communication. Btw. "Modus" gibt es da nicht. Es sind einfach stink normale PCI-E Pakete, bei denen der Header halt so angepasst ist, das es bei nem anderen PCI-E Device halt raufällt. Neu ist da nur die Sache mit dem RDMA über den Netzwerkadapter. Das ist aber auch nur ne Softwaresache, sobald die Hardware halt devicetodevice unterstützt.

Aber vielleicht verstehen in nem halben Jahr bis Jahr die Leute die Sache besser....

HPVD
2013-04-30, 22:52:43
hab da mal ne Frage:

was genau ist der Unterschied zwischen dem von Nvidia für Maxwell angekündigten "unified virtual memory" zu dem in den letzten Tagen in den Medien rumschwirrenden "hUMA" von AMD welches ja früher oder später auch für diskrete GPUs funktionieren soll
vgl: http://www.heise.de/newsticker/meldung/AMDs-Unified-Memory-Mehr-Performance-und-Energieeffizienz-fuer-Kaveri-und-Co-1850975.html

geht der Ansatz von AMD & Co (HSA) weiter als der von Nvidia oder ist beides sehr ähnlich?

Hübie
2013-06-19, 15:13:56
Hat jemand schon die codenamen der kommenden Maxwells?
Ich hörte von GM204, GM206 und dann GM107/108. Check das Namensschema nicht. Vielleicht kommen die 1xx in 28 nm und die 2xx in 20 nm. Oder umgekehrt. Warum ists so still um Maxwell??

Coda
2013-06-19, 15:23:48
hab da mal ne Frage:

was genau ist der Unterschied zwischen dem von Nvidia für Maxwell angekündigten "unified virtual memory" zu dem in den letzten Tagen in den Medien rumschwirrenden "hUMA" von AMD welches ja früher oder später auch für diskrete GPUs funktionieren soll
vgl: http://www.heise.de/newsticker/meldung/AMDs-Unified-Memory-Mehr-Performance-und-Energieeffizienz-fuer-Kaveri-und-Co-1850975.html

geht der Ansatz von AMD & Co (HSA) weiter als der von Nvidia oder ist beides sehr ähnlich?
Ist das selbe.

AnarchX
2013-06-19, 15:23:54
Hat jemand schon die codenamen der kommenden Maxwells?
Ich hörte von GM204, GM206 und dann GM107/108. Check das Namensschema nicht. Vielleicht kommen die 1xx in 28 nm und die 2xx in 20 nm. Oder umgekehrt. Warum ists so still um Maxwell??

Der Launch ist wohl noch über 6 Monate entfernt, wenn nicht noch später. Da gab es bei den letzen Launches selten konkrete Infos.
Das Codenamen-Schema ist halt etwas wirr, z.B. warum ein SM_35 Chip nicht GK118 heißt, sondern GK208.

Vielleicht verzichtet NV auch demnächst auf die nummerierten Codenamen, sodass man sich nicht wieder über eine 4er-GPU für >$499 beschweren kann. :D

Locuza
2013-06-19, 18:01:59
Ist das selbe.
Würden sich Vorteile bei SLI ergeben?

Hübie
2013-06-19, 18:41:23
Vielleicht verzichtet NV auch demnächst auf die nummerierten Codenamen, sodass man sich nicht wieder über eine 4er-GPU für >$499 beschweren kann. :D

Der war gut :biggrin: April 2014 ist mein Wissenstand. Aber das hat nix zu sagen ;)

Ich schätze das wir wieder nicht gleich das "Monster" sehen werden. 20 nm hatte afaik noch kein tapeout, oder? Also neue Architektur auf altem Terrain. Ich finde meine These auch gar nicht so schlecht :freak: ;D

Timbaloo
2013-06-20, 08:03:27
Vielleicht verzichtet NV auch demnächst auf die nummerierten Codenamen, sodass man sich nicht wieder über eine 4er-GPU für >$499 beschweren kann. :D
:freak:

Godmode
2013-06-20, 13:22:51
Mit GM100 oder GM110 rechne 2015. 2014 gibts erstmal wieder das Mainstream-Ding um 500 Euro (GM204) und etwas schneller als Titan. 2015 gibts dann den GK110 Nachfolger.

Hübie
2013-06-20, 13:40:18
Mit GM100 oder GM110 rechne 2015. 2014 gibts erstmal wieder das Mainstream-Ding um 500 Euro (GM104) und etwas schneller als Titan. 2015 gibts dann den GK110 Nachfolger.

GM204. Fixed this buddy...

Godmode
2013-06-20, 13:42:00
GM204. Fixed this buddy...

Ja von mir aus ;)

boxleitnerb
2013-06-23, 17:59:43
Ich hab irgendwo mal gelesen, dass Nvidia die ARM-Kerne in den Desktop-GPUs (oder manchen Desktop-GPUs) gar nicht verbauen wird. Nur weiß ich leider nicht mehr wo, kann mir jemand bitte aushelfen, wenn er etwas dazu weiß?

misterh
2013-06-23, 18:13:50
Ich hab irgendwo mal gelesen, dass Nvidia die ARM-Kerne in den Desktop-GPUs (oder manchen Desktop-GPUs) gar nicht verbauen wird. Nur weiß ich leider nicht mehr wo, kann mir jemand bitte aushelfen, wenn er etwas dazu weiß?

http://www.heise.de/newsticker/meldung/GTC-2013-ARM-Kerne-auf-Desktop-GPUs-erst-ab-Volta-1826893.html :confused:

boxleitnerb
2013-06-23, 18:18:15
Danke.

boxleitnerb
2013-07-17, 14:32:02
Angeblich wurde eine GPU (Maxwell?) gestrichen:
http://semiaccurate.com/2013/07/17/word-has-it-another-nvidia-gpu-is-cancelled/

Wüsste nicht, was es sonst sein sollte. Allerdings glaubt Charlie ja auch immer noch an die Existenz eines GK100 und GK114, für die es nie irgendwelchen konkreten Indizien gegeben hat...

V2.0
2013-07-17, 14:51:27
Wahrscheinlich ein Entry-Level-Design.

Hübie
2013-07-17, 15:56:31
GK112. Da gabs doch mal was?! Maxwell ist eine komplette Serie und wird nicht einfach so ersatzlos gestrichen. Es sei denn nVidia will einfach nicht mehr weitermachen ;D

boxleitnerb
2013-07-17, 16:00:09
Was soll GK112 überhaupt sein? Der stand mal auf ner uralten Fake-Roadmap von den Japanern, wo praktisch alles falsch war. Vor allem wäre es extrem merkwürdig, so spät noch einen teuren Refresh zu bringen.

Hübie
2013-07-17, 16:09:28
Ne. Es gab sogar ein Bild vom package. War vielleicht sowas wie ein GK110 in kleiner. Keine Ahnung. Jedenfalls unwichtig. In zwei Wochen ist der Artikel da eh gratis ;D
Ist jedenfalls nicht Maxwell... daher gehörts hier nicht her.

Ailuros
2013-07-17, 18:28:42
Was muss man genau anrichten um zu wissen was hinter den paywalls steht? Keine Ahnung was drinsteht, aber afaik wurde tatsaechlich kein Maxwell storniert; wuerde er von einer Verspaetung murmeln koennte ich es vielleicht sogar verstehen.

Hübie
2013-07-17, 18:34:24
Blechen. Die wollen doch immer nur dein Bestes ;D

Godmode
2013-07-17, 18:52:15
Was muss man genau anrichten um zu wissen was hinter den paywalls steht? Keine Ahnung was drinsteht, aber afaik wurde tatsaechlich kein Maxwell storniert; wuerde er von einer Verspaetung murmeln koennte ich es vielleicht sogar verstehen.

Es wäre ein Wunder wenn Maxwell sich nicht verspäten würde. Dank der neuen Fertigung kennen wir das ja schon Jahr für Jahr.

Coda
2013-07-17, 19:10:33
Üblicher Charlie BS? ;)

Unfertigbar, heiß, und alles deutet auf interne Probleme hin!!111

Hübie
2013-07-17, 19:54:19
Du hast das virale Marketing vergessen...

Mancko
2013-07-20, 10:29:19
Der Typ ist einfach nur peinlich.

AnarchX
2013-07-20, 10:45:10
Abgesehen von der ärgerlichen Paywall liefert er doch durchaus interessante Infos. Seinen Bias muss man halt bei den Artikel beachten.

Die Hintergründe hinter den Codenamen wie GK110 und den neusten GK208 wären wohl schon durchaus interessant. Bei Fermi waren unter GF10x auch noch verschiedene Compute Capabilities eingeordnet.

-/\-CruNcher-/\-
2013-07-20, 11:28:10
Mit GM100 oder GM110 rechne 2015. 2014 gibts erstmal wieder das Mainstream-Ding um 500 Euro (GM204) und etwas schneller als Titan. 2015 gibts dann den GK110 Nachfolger.

Mainstream 500€ sagmal wo lebst du ;)
Nichtmal die Konzerne selbst würden sich wagen das zumindestens Heute als Mainstream Berreich für Consumer zu bennen in ihrem Wirtschaftlichen agieren.
Du scheinst schon in der Zukunft angekommen ;)

Godmode
2013-07-20, 11:51:01
Mainstream 500€ sagmal wo lebst du ;)
Nichtmal die Konzerne selbst würden sich wagen das zumindestens Heute als Mainstream Berreich für Consumer zu bennen in ihrem Wirtschaftlichen agieren.
Du scheinst schon in der Zukunft angekommen ;)

GK104 war der Mainstream Chip der uns als Highend verkauft wurde. Mir ist schon klar das 500 Euro nicht "Mainstream" ist. ;)

boxleitnerb
2013-07-20, 11:57:46
Mich würde mal eine aktuelle Schätzung von einem unserer Profis zum 20nm-Prozess interessieren. Wir haben jetzt Mitte 2013 - verglichen mit 40nm Mitte 2011, wie sieht es im Moment aus? Schlimmer, besser oder kein Unterschied?

-/\-CruNcher-/\-
2013-07-20, 12:09:32
GK104 war der Mainstream Chip der uns als Highend verkauft wurde. Mir ist schon klar das 500 Euro noch nicht "Mainstream" ist. ;)

kleine Ergänzung ;)

Hugo78
2013-07-20, 13:06:01
Abgesehen von der ärgerlichen Paywall liefert er doch durchaus interessante Infos.
Was genau soll jetzt interessant sein?

boxleitnerb
2013-07-31, 20:09:08
Mit einer Ladung Salz nehmen. Googlisch macht es nicht wirklich verständlich, aber was ich herauszulesen meine ist, dass 20nm gut läuft und Maxwell recht früh kommt:

http://translate.google.com.au/translate?hl=en&sl=ko&u=http://bbs2.ruliweb.daum.net/gaia/do/ruliweb/default/pc/27/read%3FbbsId%3DG003%26itemId%3D6%26articleId%3D1156191&prev=/search%3Fq%3D20nm%26start%3D100%26client%3Dfirefox-a%26sa%3DN%26rls%3Dorg.mozilla:en-US:official%26biw%3D1920%26bih%3D974%26tbs%3Dqdr:w

Ailuros
2013-07-31, 21:20:31
Mit einer Ladung Salz nehmen. Googlisch macht es nicht wirklich verständlich, aber was ich herauszulesen meine ist, dass 20nm gut läuft und Maxwell recht früh kommt:

http://translate.google.com.au/translate?hl=en&sl=ko&u=http://bbs2.ruliweb.daum.net/gaia/do/ruliweb/default/pc/27/read%3FbbsId%3DG003%26itemId%3D6%26articleId%3D1156191&prev=/search%3Fq%3D20nm%26start%3D100%26client%3Dfirefox-a%26sa%3DN%26rls%3Dorg.mozilla:en-US:official%26biw%3D1920%26bih%3D974%26tbs%3Dqdr:w

Mir ging schon beim zweiten Paragraphen die Geduld aus beim lesen.

Timbaloo
2013-07-31, 21:26:32
Gibt es denn tatsächlich nur noch "Vanilla" 20nm bei TSMC?

boxleitnerb
2013-08-07, 21:38:01
http://semiaccurate.com/2013/08/07/amd-to-launch-hawaii-in-hawaii/

Nvidia in the mean time canceled the minor update that was due out last quarter and surprisingly canceled the first big Maxwell set for next spring. This leaves them with nothing to compete against AMD with for the fall “back to school” market and the winter holiday season. The next minor blip will be in the spring as described in the link above, but that is not competition for AMD, it is Nvidia salvaging the scraps they have left. Dire is barely adequate to describe their competitive situation for 2013 and 1H/2014.

Big Maxwell...wird kaum auf 20nm basiert sein, sowas macht Nvidia nicht nochmal schätze ich. Was ist so schlimm daran, einen Maxwell@28nm zu streichen, wenn man dasselbe evtl. günstiger mit 20nm zum (fast?) selben Zeitpunkt erreichen kann?

Und nur, weil sie nichts Neues haben bis dahin, ist es wohl kaum die Katastrophe, die er hier an die Wand malt. Die 780 im Preis senken und gut ist.

Timbaloo
2013-08-07, 22:17:56
Ich denke nicht, dass mit "first big Maxwell" ein GM110/100 gemeint ist.

Chris Lux
2013-08-07, 22:29:17
http://semiaccurate.com/2013/08/07/amd-to-launch-hawaii-in-hawaii/



Big Maxwell...wird kaum auf 20nm basiert sein, sowas macht Nvidia nicht nochmal schätze ich.
wird komischerweise seit dem NV30 zu jeder neuen Generation gesagt....

Ronny145
2013-08-07, 22:37:27
http://s7.directupload.net/images/130807/sgsnywxg.png
http://wenku.baidu.com/view/fb98ef12227916888486d748.html


Was könnte mit Maxwell Bootable gemeint sein?

Locuza
2013-08-07, 22:43:00
Vermutlich Project Denver.
Aber das Bild ist schon arg Müll oder?

Ronny145
2013-08-07, 22:44:16
Inwiefern Müll?

boxleitnerb
2013-08-07, 22:47:14
Ich denke nicht, dass mit "first big Maxwell" ein GM110/100 gemeint ist.

Nicht der auf 20nm, sondern vermutlich ein größerer Maxwell@28nm. Wäre auch "big", jedenfalls im Vergleich zu einem GK104@28nm oder GM104@20nm :wink:

Maxwell bootable könnte etwas mit ARM-Kernen sein. Betriebssystem auf der GPU. Spezielles Mainboard, Netzteil, Maxwells und fertig ist der Lack. Wäre jetzt meine Vorstellung :D

Godmode
2013-08-07, 22:49:07
Was könnte Kepler K30 sein? Q3-Q4 2013.

Ronny145
2013-08-07, 22:50:15
Was könnte Kepler K30 sein? Q3-Q4 2013.


Der Vollausbau vielleicht.

Locuza
2013-08-07, 22:53:26
@ Ronny

Die Bezeichnungen und die groben Termine.
Jaguar+ , AMD Next (Tahiti +) , K30 usw.
Macht auf mich keinen brauchbaren Eindruck.

Ronny145
2013-08-07, 22:56:28
Die Bezeichnungen und die groben Termine.
Jaguar+ , AMD Next (Tahiti +) , K30 usw.
Macht auf mich keinen brauchbaren Eindruck.



Die Roadmap kommt von Intel, google mal nach den 2 Namen die genannt werden, viele Infos die ein Normalo gar nicht wissen kann. Sieht alles in Ordnung aus.

Locuza
2013-08-07, 23:10:33
Die Roadmap kommt von Intel, google mal nach den 2 Namen die genannt werden, viele Infos die ein Normalo gar nicht wissen kann. Sieht alles in Ordnung aus.
Haha, noch von Intel persönlich. :D
Da sind die Bezeichnungen aus meiner Perspektive doch phantasievoll geraten.

Ich habe mir jetzt auch den ganzen Link angeschaut.
Schon interessant die 2012/13 Roadmap mit der 2013/14 zu vergleichen.

Ronny145
2013-08-07, 23:18:45
Jedenfalls hat Charlie wohl recht damit das Maxwell für Frühjahr geplant war. Schon stark anzunehmen, dass die Verschiebung dann auch stimmt. Wenn Maxwell auf 20nm basiert, wovon fast auszugehen ist, wäre Frühjahr 2014 aber auch sehr optimistisch gewesen. Die Roadmap hier scheint stark Server lastig zu sein, da muss man eh mal abwarten, wann für uns Consumer was abfällt. Ich hoffe auf mitte 2014.

boxleitnerb
2013-08-07, 23:29:00
Moment...er schreibt, ein "Big Maxwell" wäre gecancelled, aber er schreibt auch:
The next minor blip will be in the spring as described in the link above, but that is not competition for AMD, it is Nvidia salvaging the scraps they have left.

Was soll dieser "minor blip" sein? Noch ein Kepler? Das ergibt für mich keinen Sinn. Wenn, dann hat man einen 28nm Maxwell gestrichen und kann evtl. einen 20nm Maxwell vorziehen.
Mit seiner Scheiß Paywall kann er bashen wie er will und man kann nichtmal nachlesen, was er überhaupt meint.

mapel110
2013-08-07, 23:31:41
Es ist doch ohnehin unwahrscheinlich, dass zuerst ein Big Chip kommt. Ich würde eher einen 300mm² Müll erwarten. Natürlich wieder stark überteuert.

boxleitnerb
2013-08-07, 23:38:43
Irgendwie liest hier keiner, was ich schreibe...
Ich vermute, das "Big Maxwell" bezieht sich noch auf 28nm. Das, was Ailuros mal vorausgesagt/spekuliert hatte. Erst auf 28nm und dann auf 20nm, wenn dieser bereit ist. Charlie selbst schrieb das:
The more interesting news is that the initial Maxwell parts will be made on TSMC’s 28nm process, not 20nm as is widely rumored.

28nm means that Maxwell will move GPUs right back to the big die strategy for consumer parts.
http://semiaccurate.com/2012/12/06/nvidias-maxwell-process-choice/

Duplex
2013-08-07, 23:44:34
Es gab ja angeblich auch 28nm GF110 Test Chips, aber veröffentlicht wurden die nie, vielleicht macht man bei Maxwell wieder das gleiche, zu Testzwecken neue Architektur mit aktueller Fertigung testen.

mapel110
2013-08-07, 23:47:37
Mit 28nm gibts doch überhaupt keinen Spielraum mehr. Oder soll da ein 400 Watt-Monster kommen?!

Timbaloo
2013-08-07, 23:51:15
Mit 28nm gibts doch überhaupt keinen Spielraum mehr. Oder soll da ein 400 Watt-Monster kommen?!
Man könnte einen kleineren Maxwell in 28nm produzieren der gewisse Architekturvorzüge gegenüber Kepler bringen könnte, ohne dabei allzu ineffizient zu sein. Vielleicht scheisst sich NV ja wirklich wegen DX11.2 in die Hose :freak:

Duplex
2013-08-07, 23:52:31
Eine Dual Karte mit 375W TDP, 2x GK110 aka GTX790 wäre noch eine Option bis der große Maxwell erscheint.

boxleitnerb
2013-08-07, 23:53:08
Mit 28nm gibts doch überhaupt keinen Spielraum mehr. Oder soll da ein 400 Watt-Monster kommen?!

Das hab ich Ailuros auch schon öfters gefragt, aber konkrete Antworten gab es nicht. Ich finde die Frage nämlich sehr interessant: Wieviel kommt von der Architektur, wenn man den Prozess ausklammert? SA schreibt von Scheduling und Power Management. Wenn AMD mit Volcanic Islands z.B. 30% mehr Perf/W schaffen kann, sollte Nvidia da evtl. auch noch Spielraum haben.

Ronny145
2013-08-07, 23:56:39
Es ist doch ohnehin unwahrscheinlich, dass zuerst ein Big Chip kommt. Ich würde eher einen 300mm² Müll erwarten. Natürlich wieder stark überteuert.


Also mir und der Masse würde das sehr gefallen. Der GK104 Nachfolger kann von mir aus als erstes kommen. Die Bezeichnung Müll ist völlig deplatziert.


Irgendwie liest hier keiner, was ich schreibe...
Ich vermute, das "Big Maxwell" bezieht sich noch auf 28nm. Das, was Ailuros mal vorausgesagt/spekuliert hatte. Erst auf 28nm und dann auf 20nm, wenn dieser bereit ist. Charlie selbst schrieb das:

http://semiaccurate.com/2012/12/06/nvidias-maxwell-process-choice/


Unter Big Maxwell verstehe ich das größte Modell. GK110 ist mit 550 mm² am gesunden Limit angelangt, kann mir kaum vorstellen das Nvidia auf 700 mm² oder so geht. Oder er meint die Klasse darunter, den GK104 Nachfolger. In der Tat wäre unter 28nm Spielraum für eine größere GPU zwischen 350-500 theoretisch vorhanden. Das ganze wäre trotzdem kein Big Maxwell für mich.

boxleitnerb
2013-08-08, 00:02:01
Aber warum würde Nvidia das machen, ein 500+ mm2 Teil unter 20nm zu Beginn? Das ergibt überhaupt keinen Sinn. Bei Fermi ist man damit voll auf die Fresse geflogen, bei Kepler hat man es anders gemacht und es hat super funktioniert. Meiner Ansicht nach kann das also nicht gemeint sein.

mapel110
2013-08-08, 00:07:55
Also mir und der Masse würde das sehr gefallen. Der GK104 Nachfolger kann von mir aus als erstes kommen. Die Bezeichnung Müll ist völlig deplatziert.

Wenns mit der kommenden Generation weitergeht wie bisher, dann kostet dieser 300mm²chip 1000 € oder gar mehr. Und das ist für mich Müll. Luxusmüll.

Hübie
2013-08-08, 00:17:52
Soviel kann ich sagen: Seit Ende Juni kommen 20-nm-Wafer aus einer Fabrik. ;) Die wird man aber nicht kaufen können *hust*

Ronny145
2013-08-08, 00:22:36
Aber warum würde Nvidia das machen, ein 500+ mm2 Teil unter 20nm zu Beginn? Das ergibt überhaupt keinen Sinn. Bei Fermi ist man damit voll auf die Fresse geflogen, bei Kepler hat man es anders gemacht und es hat super funktioniert. Meiner Ansicht nach kann das also nicht gemeint sein.


Vielleicht ist Maxwell so viel effizienter das trotz ähnlich bleibender die Größe eine gesunde Verbesserung möglich gewesen wäre. Das ganze war im bewährten 28nm Prozess geplant um den Problemen mit neuer Fertigung aus dem Weg zu gehen. So würde ich Charlies Deutungen auslegen.


Wenns mit der kommenden Generation weitergeht wie bisher, dann kostet dieser 300mm²chip 1000 € oder gar mehr. Und das ist für mich Müll. Luxusmüll.


Das hat nicht viel mit der Chipgröße zu tun. Wenn es Preissteigerungen mit der kommenden 20nm Generation gibt, werden wir Preissteigerungen über die ganze Serie verteilt sehen. Ausgehend davon würdest du für den Titan Nachfolger 2000€+ hinlegen müssen. Das wäre für dich in Ordnung, kein Luxusmüll?

Hübie
2013-08-08, 00:31:51
Im Laufe der Entwicklung werden so einige GPUs abgebrochen.
Man muss sich das etwa wie einen Baum vorstellen wo du einen Ast absägst. Das kann Gründe haben die so banal sind wie: Marktlücke bereits mit salvage-parts gestopft. Wenn ein "big chip" cancelled wurde dann gibt es entweder noch was darüber oder der wäre schlicht zu "big" (groß, heiß, schnell - was auch immer). Seht euch doch mal die Abstände von GK104 zu GK110 im Vollausbau an. Als Hersteller bist du ja immer gezwungen die Messlatte nach oben zu verschieben (in welcher Hinsicht auch immer).

Angeblich gab es doch mal einen GK100/GK112...

Skysnake
2013-08-08, 09:01:12
Das hab ich Ailuros auch schon öfters gefragt, aber konkrete Antworten gab es nicht. Ich finde die Frage nämlich sehr interessant: Wieviel kommt von der Architektur, wenn man den Prozess ausklammert? SA schreibt von Scheduling und Power Management. Wenn AMD mit Volcanic Islands z.B. 30% mehr Perf/W schaffen kann, sollte Nvidia da evtl. auch noch Spielraum haben.
Die Architektur macht einen sehr sehr großen Anteil an der Effizienz aus. Deswegen kann Intel, AMD und IBM so schnell auch keiner das Wasser reichen. Da steckt einfach unglaublich! viel KnowHow drin!

Dennoch ist die Fertigung nicht völlig vernachlässigbar, insgesamt verliert Sie aber immer stärker an Bedeutung, weil die Effizienzsteigerung aus kleineren Strukturen einfach immer geringer wird. Man kann halt einfach immer schlechter die Spannungen absenken, die Transistoren schalten nicht merklich schneller, die Tunnelströme steigen an usw usw usw.

Um wirklich signifikante Effizienzsteigerungen hin legen zu können MUSS! sich was an der grundlegenden Architektur ändern. Da gibt es dann auch eine ganze Reihe an Punkten, an denen man ansetzen kann. Die Frage ist dabei immer nur, "lohnt" sich das von den Kosten her, und ist es überhaupt fertigbar? Das ist halt immer eine Abwägungssache, wie man billiger/günstiger weg kommt. Neue Fertigung, oder neue Techniken.

Hier mal eine Auflistung, was man alles angehen kann

GDDRx weg, also externe Speicherinterfaces aufs PCB. Alles onpackage
GDDRx gegen so etwas wie HMC ersetzen
Registerfiles überarbeiten
Caches ausbauen/vergrößern
Steuerlogik vereinfachen (GCN ist hier eine sehr gutes Beispiel, wie man das gut macht)
stacked Chios, um breitere aber langsamere Designs zu bekommen
Interposer, um breitere aber langsamere Desings zu bekommen


Das sind so grob die Punkte an denen man ansetzen kann. Einige sind relativ "einfach" umgesetzt wie die ganze GDDRx Sache, benötigen aber eben neue Techniken, und das ist erstmal teuer, weil kein Markt dafür da ist.. Henne-Ei und so...

Andere Sachen wie das Registerfile und die Steuerlogik brauchen keine neuen Techniken, aber man fängt am Besten mit einem leeren Blatt Papier an...

Kann man alles machen, und man hat aktuell echt noch genug Entwicklungspotenzial, man muss nur Eier in der Hose haben und eben auch einen Schritt wagen!

ndrs
2013-08-08, 09:32:32
stacked Chios, um breitere aber langsamere Designs zu bekommen

Du meinst wohl höhere :D *duckundweg*

Timbaloo
2013-08-08, 09:44:06
:freak:

boxleitnerb
2013-08-08, 09:52:21
Die Architektur macht einen sehr sehr großen Anteil an der Effizienz aus. Deswegen kann Intel, AMD und IBM so schnell auch keiner das Wasser reichen. Da steckt einfach unglaublich! viel KnowHow drin!

Dennoch ist die Fertigung nicht völlig vernachlässigbar, insgesamt verliert Sie aber immer stärker an Bedeutung, weil die Effizienzsteigerung aus kleineren Strukturen einfach immer geringer wird. Man kann halt einfach immer schlechter die Spannungen absenken, die Transistoren schalten nicht merklich schneller, die Tunnelströme steigen an usw usw usw.

Um wirklich signifikante Effizienzsteigerungen hin legen zu können MUSS! sich was an der grundlegenden Architektur ändern. Da gibt es dann auch eine ganze Reihe an Punkten, an denen man ansetzen kann. Die Frage ist dabei immer nur, "lohnt" sich das von den Kosten her, und ist es überhaupt fertigbar? Das ist halt immer eine Abwägungssache, wie man billiger/günstiger weg kommt. Neue Fertigung, oder neue Techniken.

Hier mal eine Auflistung, was man alles angehen kann

GDDRx weg, also externe Speicherinterfaces aufs PCB. Alles onpackage
GDDRx gegen so etwas wie HMC ersetzen
Registerfiles überarbeiten
Caches ausbauen/vergrößern
Steuerlogik vereinfachen (GCN ist hier eine sehr gutes Beispiel, wie man das gut macht)
stacked Chios, um breitere aber langsamere Designs zu bekommen
Interposer, um breitere aber langsamere Desings zu bekommen


Das sind so grob die Punkte an denen man ansetzen kann. Einige sind relativ "einfach" umgesetzt wie die ganze GDDRx Sache, benötigen aber eben neue Techniken, und das ist erstmal teuer, weil kein Markt dafür da ist.. Henne-Ei und so...

Andere Sachen wie das Registerfile und die Steuerlogik brauchen keine neuen Techniken, aber man fängt am Besten mit einem leeren Blatt Papier an...

Kann man alles machen, und man hat aktuell echt noch genug Entwicklungspotenzial, man muss nur Eier in der Hose haben und eben auch einen Schritt wagen!

Oder die GPU generell einfach breiter machen. Ein GK104 ist 294mm2 groß. GK110 ist 87% größer, aber nur 50% schneller. Einen reinen Gamingchip wie den GK104 sollte man also gut aufblasen können und flächeneffizienter sein als GK110. Aber bzgl. Perf/W hast du Recht, da wird es schon schwieriger. SA schrieb von 80% bei Maxwell vs Kepler, wobei nie klar wurde, ob das einen Shrink mit einschließt oder nicht. Ich gehe stark davon von ersterem aus. Aber selbst, wenn man den weglässt und sicher schöngerechnete Angaben etwas realistischer betrachtet, könnten durchaus noch 20-30% mehr Perf/W rauskommen unter 28nm. Ist die Frage, ob man dafür fundamentale Änderungen braucht oder nicht.

Skysnake
2013-08-08, 10:11:57
An den fundamentalen Änder wirst du NICHT! vorbeikommen.

Die Frage ist nur, ob Sie 1-3 Jahre früher oder später kommen. Der Shrinkzug ist abgefahren! Das muss endlich in die Köpfe der Leute rein. Wer daran noch festhängt, der wird in wenigen Jahren die Bude zumachen. Sorry, aber so hart muss man das sagen...

Im Moment ist es nur eine Frage, ob ich das von der Manpower her gestemmt bekomme auf der einen SEite, und wie groß die Gefahren durch neue Fertigung im Vergleich zu z.B. stacked Chips sind. 20 nm ist neu, aber würde z.B. ohne TSV/stacked Chips auskommen. 28nm ist alt, aber du brauchst dann etwas wie TSV/stacked Chips usw. Das ist auch NICHT! trivial. Du kannst aber nur eines von beiden machen. Die Frage ist halt, was hälst du für gefährlicher....

Hübie
2013-08-08, 10:18:53
GK110 hat 46% mehr Fläche und ist 30% schneller. Bezogen auf die ALUs also lineare Steigerung. Das passt also, taktbereingt, sehr gut.
80% effizienter? Wie willst du das denn hinbekommen? Maxwell wird bestimmt nette Energiesparmechanismen spendiert bekommen und bedingt durch den feineren Fertigungsprozess schon weniger verballern, aber 80%? Nä!

Edit: Das ist übrigens ein interessantes Thema, Skysnake. HMC oder der gleichen könnten mit Maxwell schon Einzug erhalten. Wenn auch nicht im Desktop...

Skysnake
2013-08-08, 10:30:05
HMC wird knapp für Maxwell, wenn er noch Q1 2014 kommen will. Die Specs sind noch nicht sooo lange raus usw usw.

Mehr kann ich dazu aber nicht sagen, außer dass HMC=Maxwell erst später bedeutet. Und das glaube ich eher nicht, weil das mit der Entscheidung gegeb 20nm kollidieren würde. Und 20nm+HMC ist tooo! much. Da würde man sich selbst zu viel Entwicklungspotenzial auf einmal nehmen.

Wenn würde ich also statt HMC mit einen "eDRAM" rechnen oder so etwas als "Zwischenschritt". Wobei das mehr Wortglauberei wäre als alles andere, wenn man mal einen Schritt zurück geht, aber dazu kann ich auch nicht mehr sagen...

boxleitnerb
2013-08-08, 10:30:09
GK110 hat 46% mehr Fläche und ist 30% schneller. Bezogen auf die ALUs also lineare Steigerung. Das passt also, taktbereingt, sehr gut.
80% effizienter? Wie willst du das denn hinbekommen? Maxwell wird bestimmt nette Energiesparmechanismen spendiert bekommen und bedingt durch den feineren Fertigungsprozess schon weniger verballern, aber 80%? Nä!


550/294=1.87 nach Adam Riese. Bzgl. der Performance kommt es natürlich auf den Takt an. Wenn man dasselbe Perf/W-Verhältnis zugrundelegt, kommt man wohl auf 40-45% ggü. der 680.

Bzgl. der 80%, das ist doch keine Zauberei mit dem Shrink dabei. Titan ist z.B. 80% schneller als die 580 und verbraucht dabei weniger. Oder die 670 ist doppelt so schnell wie die 560 Ti und braucht auch knapp weniger.
Es heißt ja Perf/W, nicht 80% weniger Verbrauch. Das wäre ja verrückt ;)

AnarchX
2013-08-08, 10:35:04
Den Faktor 2,5 bei den DP-FLOPs/Watt gegenüber Kepler hat NV wohl kaum nur auf Basis von 20nm projiziert.

Man wird wohl den ein oder anderen Flaschenhals innerhalb der SMX beseitigen, die Caches vergrößern und wohl die Zahl der SPs erhöhen (vielleicht auf 256SPs und GM100 wieder mit 1:2 DP). Der Rest skaliert ja hervorragend.

fondness
2013-08-08, 10:37:20
Den Faktor 2,5 bei den DP-FLOPs/Watt gegenüber Kepler hat NV wohl kaum nur auf Basis von 20nm projiziert.


Das ist längst nicht mehr aktuell. NV hat es inzwischen großzügig auf Faktor ~2 korrigiert, nachdem die ersten Roadmaps noch von Faktor 3 sprachen. :freak:

http://img6.imageshack.us/img6/1315/nvroadmapsmall.png

http://img189.imageshack.us/img189/7966/keplermaxwellyearslip.jpg

http://img546.imageshack.us/img546/9195/nifx.jpg (http://imageshack.us/photo/my-images/546/nifx.jpg/)

boxleitnerb
2013-08-08, 10:39:45
Hat Ailuros uns nichtmal vorgerechnet, dass der Faktor 3 unter gewissen Bedingungen stimmt? Cherrypicking halt, aber das ist bei solchen Folien ja normal.

fondness
2013-08-08, 10:44:30
Hat Ailuros uns nichtmal vorgerechnet, dass der Faktor 3 unter gewissen Bedingungen stimmt? Cherrypicking halt, aber das ist bei solchen Folien ja normal.

Ailuros hat einen Maxwell? :eek:

AnarchX
2013-08-08, 10:45:54
Das ist längst nicht mehr aktuell. NV hat es inzwischen großzügig auf Faktor ~2 korrigiert, nachdem die ersten Roadmaps noch von Faktor 3 sprachen. :freak:

http://img6.imageshack.us/img6/1315/nvroadmapsmall.png

http://img189.imageshack.us/img189/7966/keplermaxwellyearslip.jpg

http://img546.imageshack.us/img546/9195/nifx.jpg (http://imageshack.us/photo/my-images/546/nifx.jpg/)

Die Skalierung hat sich verändert und der mögliche Zielbereich vergrößert. Aber eine Korrektur auf Faktor 2 wurde noch nicht vorgenommen.

boxleitnerb
2013-08-08, 10:47:12
Ailuros hat einen Maxwell? :eek:

Achso, dachte du meintest Kepler.

fondness
2013-08-08, 10:50:58
Die Skalierung hat sich verändert und der mögliche Zielbereich vergrößert. Aber eine Korrektur auf Faktor 2 wurde noch nicht vorgenommen.

Kepler liegt genau zwischen 4 und 8, Maxwell zwischen 8 und 16. Exakt Faktor 2, natürlich mit erheblichen Unsicherheiten in beide Richtungen. Oder bin ich der einzige der von Kepler vs. Maxwell redet? :ugly:

AnarchX
2013-08-08, 10:54:10
Kepler liegt genau zwischen 4 und 8, Maxwell zwischen 8 und 16. Exakt Faktor 2
Wenn man genau hinschaut, sieht man Maxwell doch etwas näher an der 16. ;D

Ailuros
2013-08-08, 12:06:12
Ailuros hat einen Maxwell? :eek:

Selbst wenn ich heute etwas davon haette, fehlen mir die tools und knowhow so etwas zum laufen zu bringen :D

Spass beiseite ich amuesiere mich momentan mit dem TFLOP hin und her in der Debatte waehrend es wohl mit keinem GM1xx etwas vor H2 14' werden wird. Anders die vollen TFLOPs kommen wohl sowieso nicht vor 2015 :freak:

AnarchX
2013-08-08, 12:13:53
Gab es denn noch keine Prototypen-Tapeouts? In den Mac Treibern gibt es ja schon länger eine Kategorie für "GM100 Maxwell".

fondness
2013-08-08, 13:23:17
Spass beiseite ich amuesiere mich momentan mit dem TFLOP hin und her in der Debatte waehrend es wohl mit keinem GM1xx etwas vor H2 14' werden wird. Anders die vollen TFLOPs kommen wohl sowieso nicht vor 2015 :freak:

War zu erwarten. 20nm kommt nicht vor H2/2014 und NV bringt zu Beginn maximal einen Performance-Chip, wenn nicht sogar vorher noch Notebook-Kram. Der Top-Dog kommt sicher nicht vor 2015.

Ailuros
2013-08-08, 13:40:44
War zu erwarten. 20nm kommt nicht vor H2/2014 und NV bringt zu Beginn maximal einen Performance-Chip, wenn nicht sogar vorher noch Notebook-Kram. Der Top-Dog kommt sicher nicht vor 2015.

Das zweite ist nichts Neues. Dass GM104 spaeter ankommt dann wohl eher schon.

Duplex
2013-08-11, 11:35:09
Mittlerweile glaube ich das Maxwell im 2. Halbjahr 2014 kommen wird, gefertigt in 20nm Strukturen, bis dahin sollte der Prozess gut laufen. Wenn Volcanic Islands mit GK110 gleichziehen kann oder etwas schneller ist braucht Nvidia nur den Vollausbau von GK110 mit mehr Takt bringen damit man AMD ausstechen kann und kann bis mitte 2014 damit den Markt bedienen, damit wäre die GTX7xx Serie bis 20nm über 1 Jahr aktuell.

prinz_valium
2013-08-11, 14:26:06
bin mal gespannt, wo die preise der 20nm mid range chips / grafikkarten von nvidia diesmal liegen

von der geschwindigkeit her, werden sie ja höchstwarhscheinlich locker wieder vorbei ziehen an einer gtx titan ultra, die dann 950 ocken kosten wird.


variante 1: man verschiebt 20 nm weiter nach hinten und bringt erst notebook chips
variante 2: man reduziert takt, obwohl mehr machbar ist und lässt genug platz für einen refresh. man kommt also somit nur knapp unter titan leistung. also diesmal kein midrange chip in einer highend grafikkarte, wie bei der 680
variante 3: man schraubt die preise weiter in die höhe und eine 880 kostet 1000


variante 4: es geschieht irgendein unerklärliches wunder und wir bekommen leistung über gk110 vollausbau für unter 500 euro

boxleitnerb
2013-08-11, 14:37:52
Ich glaube nicht, dass eine nochmalige Preiserhöhung klappt. Bei den 500 Euro für einen Midrange-Chip wird es bleiben, und der wird sich (knapp) über Titan (Ultra) positionieren mMn, also GTX 680 + 60% in etwa.

AffenJack
2013-08-11, 14:42:57
am meisten wahrscheinliche Variante 5: 880GTX über Titanleistung für 650$ oder ähnlich, darüber Dualkarte für 1000$

1000$ für das absolute High-End finde ich auch immernoch keinen so schlimmen Preis. Bei Cpus haben wir den Preis seit Jahren und die Leute regen sich nicht drüber auf, wer das beste will muss halt zahlen.

hardtech
2013-08-11, 15:30:35
Bei all den unsicheren an den haaren herbeigeführten spekulatia:
Was hindert eigentlich leistungshungrige und zugleich preisbewusste leute, sich ein gtx760 sli system aufzubauen? Hab meine msi tf 760 für 190 geschossen. Mal 2 ist man sub 400. aber schneller oder gleich schnell wie eine titan. Die treiber werden auch immer besser.
2560x1080 auf dem 29" ist nicht so leistungsfordernd und sieht in vielen games super aus.
4k tfts sehe ich in den nächsten 4 jahren nicht im massenmarkt. Bis dahin haben wir aber 2x titan-leistung im massenmarkt, was die pixel ausreichend schnell berechnen sollte.
Klar, wenn man nur das beste will dann auch quad sli titan. Nur die meisten merken meist kaum einen unterschied in der bildquali ob 2xaa oder 16xaa. Insofern imho: die leistungsanforderungen von games sind nicht hoch genug als dass man mit 400 eur gpu investition nicht zufrieden sein könnte.

prinz_valium
2013-08-11, 18:55:05
Bei all den unsicheren an den haaren herbeigeführten spekulatia:
Was hindert eigentlich leistungshungrige und zugleich preisbewusste leute, sich ein gtx760 sli system aufzubauen? Hab meine msi tf 760 für 190 geschossen. Mal 2 ist man sub 400. aber schneller oder gleich schnell wie eine titan. Die treiber werden auch immer besser.
2560x1080 auf dem 29" ist nicht so leistungsfordernd und sieht in vielen games super aus.
4k tfts sehe ich in den nächsten 4 jahren nicht im massenmarkt. Bis dahin haben wir aber 2x titan-leistung im massenmarkt, was die pixel ausreichend schnell berechnen sollte.
Klar, wenn man nur das beste will dann auch quad sli titan. Nur die meisten merken meist kaum einen unterschied in der bildquali ob 2xaa oder 16xaa. Insofern imho: die leistungsanforderungen von games sind nicht hoch genug als dass man mit 400 eur gpu investition nicht zufrieden sein könnte.

edit: nvm dachte es wäre eine 770 :/

AnarchX
2013-08-12, 09:11:38
maxwell will be 28nm!!! Trust me First samples are done http://www.xtremesystems.org/forums/showthread.php?286671-VC-AMD-Radeon-HD-9000-Series-Launching-in-October&p=5202807&viewfull=1#post5202807

Er hatte Infos zum 220W FX geleakt und recht zeitig schon Infos zu Hawaii.

hardtech
2013-08-12, 09:42:04
Highend chips kommen nie im neuen prozess raus. Es werden im neuen prozess nicht so komplexe gpus auf den markt gebracht. Die frage nach 20nm stellt sich nicht.
Vermutlich kommt 20nm im 2.hj richtig in fahrt.

Duplex
2013-08-12, 10:36:12
G80, GT200, GF100 wurden alle im neuen Prozess entwickelt.
GK104 wurde auch im neuen Prozess entwickelt, GK110 ist nur der große Ableger, aber keinesfalls eine neue Architektur gegenüber GK104.

Nvidia braucht kein 28nm Maxwell, die GTX7xx Serie kann problemlos bis mitte nächsten Jahres halten, danach kann man direkt auf 20nm umsteigen.

AnarchX
2013-08-12, 10:38:12
G80, GT200, GF100 wurden alle im neuen Prozess entwickelt.

90 und 65nm waren nicht neu. Und bei GF100 hat man gesehen wohin Big-Chip, neue Architektur und neuer Prozess führen kann.

boxleitnerb
2013-08-12, 10:40:56
Wer sagt denn, dass es wieder ein großer Chip sein muss? Warum sollte man nicht die Kepler-Strategie weiterverfolgen?

V2.0
2013-08-12, 10:42:39
Das ist logisch. AMD 20nm in Q3/13, NV 28nm in Q2/14.....

Ailuros
2013-08-12, 10:44:57
G80, GT200, GF100 wurden alle im neuen Prozess entwickelt.

Wie AnarchX schon sagt:

G7x/G80 = 90nm
GT200 = 65nm
GT200b = 55nm
GF100 = 40nm

GK104 wurde auch im neuen Prozess entwickelt, GK110 ist nur der große Ableger, aber keinesfalls eine neue Architektur gegenüber GK104.

GT200 war auch keine neue Architektur im Vergleich zu G80.

Nvidia braucht kein 28nm Maxwell, die GTX7xx Serie kann problemlos bis mitte nächsten Jahres halten, danach kann man direkt auf 20nm umsteigen.

Das "danach" und wann es genau sein wird ist eben das was gerade Sorgen machen koennte. Kann sein dass sich fuer 20nm die Bedingungen um 180 Grad verbessert haben und man kann etwas vom bisherigen Pessimismus abschlachten. Ich wuerde aber trotz allem wetten dass unter 20nm wieder frueher antanzen koennte als NV.

Das ist logisch. AMD 20nm in Q3/13, NV 28nm in Q2/14.....

:freak:;D:D errrr nope

Duplex
2013-08-12, 11:03:58
Wie AnarchX schon sagt:

G7x/G80 = 90nm
GT200 = 65nm
GT200b = 55nm
GF100 = 40nm

GT200 576mm² in 65nm, neuer Chip, neuer Prozess.
GF100 521mm² in 40nm, neuer Chip, neuer Prozess.


GT200 war auch keine neue Architektur im Vergleich zu G80.

Und du glaubst das Maxwell eine neue Architektur im Vergleich zu Kepler ist?

Ich glaube nicht das Maxwell "104" an die Performance von GK110 rankommt. 2014 wird man nur mit einem größeren Chip mehr Performance als GK110 sehen.

Ailuros
2013-08-12, 11:14:33
GT200 576mm² in 65nm, neuer Chip, neuer Prozess.
GF100 521mm² in 40nm, neuer Chip, neuer Prozess.

65nm war zu dem Zeitpunkt eben KEIN neuer Prozess.

Und du glaubst das Maxwell eine neue Architektur im Vergleich zu Kepler ist?

Ein einfacher refresh ist es auf jeden Fall nicht.

Ich glaube nicht das Maxwell "104" an die Performance von GK110 rankommt. 2014 wird man nur mit einem größeren Chip mehr Performance als GK110 sehen.

Nicht unmoeglich. Es geht heutzutage uebrigens mehr ueber perf/W (und ueberhaupt in Profi-Maerkten) als alles andere. Diesbezueglich vergleich mal GK104 perf/W mit GF110 und erzaehl mir ob es dieses Bild vor dem launch jemand so leicht glauben konnte.

Timbaloo
2013-08-12, 11:29:34
Wo wäre denn (prinzipiell) das Potential an Effizienzsteigerungen (für SP) für Maxwell? Bei Kepler war es ja wohl primär der Wegfall der Hotclocks. Nur Energiesparmaßnahmen reichen ja nicht wenn die Hardware unter Volllast erst wieder Gigawatt zieht.

Skysnake
2013-08-12, 11:41:44
Hab ich schon mehrfach aufgerzählt, aber gut:

Datenlokalität erhöhen
GDDR5 gegen was effizienter ersetzen
mittlere Leitungslänge verkürzen
Registerfiles verkleinern, also effizienter machen, ohne LEistung zu verlieren.

Ailuros
2013-08-12, 11:42:41
Wo wäre denn (prinzipiell) das Potential an Effizienzsteigerungen (für SP) für Maxwell? Bei Kepler war es ja wohl primär der Wegfall der Hotclocks. Nur Energiesparmaßnahmen reichen ja nicht wenn die Hardware unter Volllast erst wieder Gigawatt zieht.

Die roadmap Folien verraten eben leider nur DP GFLOPs/W fuer die jeweiligen top dogs. Bleibt aber die bisherige Analogie zwischen SP und DP in GK110 bzw. die Analogie zwischen GK110 und GK104 auch in Maxwell erhalten, koennten wir durchaus eine Steigerung von 2-2.5x in SP GFLOPs von GK104 auf GM104 erwarten. Ihr Leistungsteigerungsziel war schon immer bei zumindest 80% Durschnitt und ja natuerlich fuer 20nm.

Duplex
2013-08-12, 11:45:09
Nicht unmoeglich. Es geht heutzutage uebrigens mehr ueber perf/W (und ueberhaupt in Profi-Maerkten) als alles andere. Diesbezueglich vergleich mal GK104 perf/W mit GF110 und erzaehl mir ob es dieses Bild vor dem launch jemand so leicht glauben konnte.
Warum soll ich GK104 mit GF110 vergleichen?
Ein Performance Chip mit neuen Prozess gegen einen High End Chip im alten Prozess? Was ist mit GPGPU...
Wenn dann sollte man GF110 mit dem Vollausbau von GK110 vergleichen, dann können wir über P/W reden.
Langsam wirds offtopic.

Ailuros
2013-08-12, 12:24:49
Warum soll ich GK104 mit GF110 vergleichen?

Genau aus dem gleichen Grund weil Du selber zufaelligerweise folgenden Vergleich im letzten Satz gemacht hast? http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9875558&postcount=408

Ein Performance Chip mit neuen Prozess gegen einen High End Chip im alten Prozess? Was ist mit GPGPU...

Jetzt dreh die Frage um genau 180 Grad um und erklaer mir warum ich GM104 mit GK110 vergleichen sollte?

Wenn dann sollte man GF110 mit dem Vollausbau von GK110 vergleichen, dann können wir über P/W reden.

Gut; dann wird der Maxwell top dog ueber 14 GFLOPs/W DP unter 20nm auftischen ergo ca. 2.5x Mal mehr als Kepler top dog und so etwas kommt eben nicht von einem einfachem "refresh".

Langsam wirds offtopic.

Wenn Du Dich entscheiden kannst was Du mit was genau vergleichen willst kommen wir vielleicht schon ein Stueck weiter.

hardtech
2013-08-12, 13:50:39
leute, ich wollte keinen streit lostreten.
so tief in der materie bin ich nun auch nicht, dass ich jeden chip mit internem namen und dem produktionsprozess benennen kann.
lediglich gibt es aber die schlussfolgerung, dass nv und amd aus bisherigen fehlern lernen (neuer grosser chip in neuem prozess, der niedrige yield-raten liefert und damit auch zu starken verzoegerungen fuehrt und es fuer lange zeit ein paperlaunch bleibt). ergo: es wird kein grosser chip im neuen design kommen, da 1. alles gegen 20nm anno 2013 spricht, 2. gelernt aus historie und 3. die entwicklungszyklen am markt seit jahren immer langsamer werden.

was bleibt ist irgendwas ende 2013 bis 1.hj. 2014, was als neue grakaversion gelauncht wird. irgendwas mit annaehernd dem speed vom titan, ohne ihn zu ueberbieten. einen anderen schluss laesst das profitstreben von amd und nv verbunden mit der nicht wirklich bestehenden konkurrenz im markt zu.

Ailuros
2013-08-12, 14:31:00
Mit aller Wahrscheinlichkeit wird NV bei der Kepler Masche bleiben; ergo wohl die performance GPU zuerst und sobald der neue Prozess (im gegebenen Fall 20HP@TSMC) auf weniger wackligen Beinen steht und Kapazitaeten anstaendiger sind dann eben der top dog/high end chip, wohl hier auch wieder Profi-Maerkte zuerst --> mainstream PC spaeter.

Ausser ich verpasse etwas wichtiges sehe ich unter diesen Bedingungen vor dem 2-en Halbjahr 2014 nichts von Maxwell.

boxleitnerb
2013-08-15, 07:47:58
http://www.xtremesystems.org/forums/showthread.php?286671-VC-AMD-Radeon-HD-9000-Series-Launching-in-October&p=5202807&viewfull=1#post5202807

Er hatte Infos zum 220W FX geleakt und recht zeitig schon Infos zu Hawaii.

Er meint auch, Maxwell kommt dieses Jahr, eben in 28 nm. Würde mich nicht wundern, denn was hat Nvidia denn solange gemacht sonst? Der letzte Chip, den die gemacht hatten, war GK106/110 mit Tapeout im März 2012. Das ist dann auch 18 Monate her im Herbst. Mir kann keiner erzählen, dass die 2+ Jahre keinen neuen Chip bringen bis H2 2014, das wäre sehr ungewöhnlich.
Bloß wie man ihn dann positioniert, ist so ne Frage. Die 700er Linie wurde gerade refresht, und für vielleicht 20% mehr Performance als Titan oder GK106 ne neue Karte bringen...

V2.0
2013-08-15, 07:52:57
Wenn sie nicht müssen.

boxleitnerb
2013-08-15, 07:55:51
Andererseits kann man schonmal die Architektur testen und die Preise, die sie im Zuge von VI sicherlich senken müssen, wieder anheben für das umsatzstarke dritte und vierte Quartal. Dass Maxwell früher als erwartet kommen soll, lese ich nicht zum ersten Mal.

Skysnake
2013-08-15, 08:07:17
Er meint auch, Maxwell kommt dieses Jahr, eben in 28 nm. Würde mich nicht wundern, denn was hat Nvidia denn solange gemacht sonst? Der letzte Chip, den die gemacht hatten, war GK106/110 mit Tapeout im März 2012. Das ist dann auch 18 Monate her im Herbst. Mir kann keiner erzählen, dass die 2+ Jahre keinen neuen Chip bringen bis H2 2014, das wäre sehr ungewöhnlich.
Bloß wie man ihn dann positioniert, ist so ne Frage. Die 700er Linie wurde gerade refresht, und für vielleicht 20% mehr Performance als Titan oder GK106 ne neue Karte bringen...
Na Tegra...

Da müssen die reinklotzen wie die Bekloppten!

boxleitnerb
2013-08-15, 08:11:19
Jaja und das GPU-Team wurde aufgelöst oder hat Urlaub. Macht viel Sinn beim mit Abstand größten Geschäftsfeld :freak:

fondness
2013-08-15, 08:19:56
Jaja und das GPU-Team wurde aufgelöst oder hat Urlaub. Macht viel Sinn beim mit Abstand größten Geschäftsfeld :freak:

Glaubst du das diese Ingenieure nichts anderes als GPUs entwickeln können? :freak:
Zumindest hat Ailuros jetzt schon mehrmals erwähnt das er keinen Maxwell vor H2/2014 erwartet und das Jensen durch das T4 Desaster mächtig Ressourcen vom GPU-Team hinüber zu Tegra geschaufelt hat.

Ich frag nochmal "quo vadis Jensen", denn wenn sie es NICHT schaffen sollte mit T4i den verlorenen Boden gutzumachen koennte es ziemlich gefaehrlich werden fuer 2014. Im gegebenen Fall ist das Problem bei NV IMHO dass das Management sofort zu extremen Loesungen kommt; sie hatten ein Fermi Problem vor X Jahren und man zog die Hosen runter vom Tegra team. Heute hat Tegra ein deutlicheres Problem ergo Hosen runter fuer mainstream PC GPU. Kann man keine feinere Balance haben damit eine der beiden Seiten nicht darunter zu extrem leiden muss?

Denn hier genau liegt mein groesstes Fragezeichen: bis jetzt macht NV mit ihren verrueckt hohen GPU Margen guten Gewinn und kann jeglichen Tegra Verlust kinderleicht decken. Vernachlaessigt man aber das erste eigentlich treibende Geschaeft tanzt man IMO Lambada auf einem Drahtseil.

Skysnake
2013-08-15, 08:23:51
Jaja und das GPU-Team wurde aufgelöst oder hat Urlaub. Macht viel Sinn beim mit Abstand größten Geschäftsfeld :freak:
Wer hat das gesagt?

Rate mal was Tegra mit am dringendsten braucht und was mit Tegra5 bekommt...

Richtig, eine iGPU, welche dem Namen nVidia würdig ist, und Featuremäßig nicht um Generationen der Konkurrenz hinterher hinkt...

So was entwickelt sich sicherlich von ganz allein...

boxleitnerb
2013-08-15, 08:30:52
Wer hat das gesagt?

Rate mal was Tegra mit am dringendsten braucht und was mit Tegra5 bekommt...

Richtig, eine iGPU, welche dem Namen nVidia würdig ist, und Featuremäßig nicht um Generationen der Konkurrenz hinterher hinkt...

So was entwickelt sich sicherlich von ganz allein...

Es ist dennoch unrealistisch zu glauben, dass sich in der Zeit beim Kerngeschäft gar nichts tut. Wenn Samples schon fertig sind, wird aktiv daran gearbeitet. Lassen wir uns überraschen, der andauernde Pessimismus ist doch langweilig ;)

Skysnake
2013-08-15, 08:42:10
Das hat nicht mit Pessimismus zu tun.

Maxwell in 28nm zu bringen bringt nicht wirklich viel. Klar, du hast die Verbesserungen aus der Architektur, aber das wars dann auch. Gleichzeitig musst du aber zwingend was fertig haben, wenn 20nm kommt, weil du dann damit rechnen musst, das die Konkurrenz was Neues bringt, und dich richtig abhängt mit neuer Fertigung+neuem Design.

Wenn du jetzt Maxwell aber auch noch in 28nm quetschst, dann ist das einfach zu viel Entwicklungsaufwand. Merkt ihr nicht, dass sich AMD und nVidia massiv zurückhalten? Die müssen die Kosten drücken, und zwar beide. Die Produktzyklen werden länger, weil die Fertigungszyklen länger werden, und der Markt dazu auch noch beschissen aussieht.

Zudem ist nVidia in der Position, dass Sie GK110 noch im Vollausbau bringen können UND dazu auch noch die Brechstange auspacken können. Das ist mehr als ausreichend für die nächste Zeit bis 20nm fertig ist. nVidia wäre in meinen Augen dumm, wenn Sie da aktuell noch was dazwischen schieben würden. Vor allem wenn man sich eben anschaut, wie desaströs das Tegra geschäft läuft. Die sind da nicht weiter als mit Tegra1, ich würde eher sogar sagen, dass Sie im Vergleich zu Konkurrenz sogar noch weiter zurück gefallen sind, also sich der Abstand vergrößert hat. Das MÜSSEN! Sie aufholen, weil ohne Tegra wird nVidia ein Matrox-Reloaded...

Die Zwänge sind also da. Von "wollen" kann da keine Rede sein. Die wollen ganz sicher nicht, vor allem weil bei solchen Neuausrichtungen der Mitarbeiter erstmal Tage/Wochen an Arbeitszeit weg sind, weil die Leute sich neu einstellen müssen. Die Reibungsverluste muss sich Huang ankreiden lassen. Das sind ALLES! noch Nachwirkungen vom GF100 Fermi-Debakel.

AnarchX
2013-08-15, 08:46:48
Er meint auch, Maxwell kommt dieses Jahr, eben in 28 nm. Würde mich nicht wundern, denn was hat Nvidia denn solange gemacht sonst? Der letzte Chip, den die gemacht hatten, war GK106/110 mit Tapeout im März 2012. Das ist dann auch 18 Monate her im Herbst. Mir kann keiner erzählen, dass die 2+ Jahre keinen neuen Chip bringen bis H2 2014, das wäre sehr ungewöhnlich.
Bloß wie man ihn dann positioniert, ist so ne Frage. Die 700er Linie wurde gerade refresht, und für vielleicht 20% mehr Performance als Titan oder GK106 ne neue Karte bringen...
http://www.xtremesystems.org/forums/showthread.php?286994-Amd-Volcanic-Islands-details&p=5203221&viewfull=1#post5203221

Zwischen GK107 und 106 klafft eine große Lücke. Vielleicht kommt da ein neuer Chip, der auch im Bezug auf Notebook-Refreshs interessant sein könnte.

Und ansonsten vielleicht eben ein GF1x4-großer Die bei ~350mm². Mit einem 20% Maxwell-Bonus könnte da schon fast 40% mehr Leistung herauskommen. Das könnte die Margen-Situation gegen Hawaii verbessern.

fondness
2013-08-15, 08:49:15
Vor allem frage ich mich was genau NV von Maxwell in 28nm bringen soll? Einen Perfromnace-Chip wohl kaum, denn der wird von GK110 abgehängt. GK110 ist bereits an der Grenze des 28nm Prozesses gebaut, wenn man den schlagen will braucht es wohl wieder einen sehr großen Chip. Zwei solche Giganten in sehr kurzer Zeit im selben Prozess macht IMO nicht wirklich viel Sinn. Selbst wenn das Maxwell-Design bereits fertig wäre, was ich nicht glaube, da Mawell schon lange für 2014 auf der Roadmap steht.

/Edit: Okay kleine Notebook-Chips könnten Sinn machen wie von AnarchX dargestellt.

boxleitnerb
2013-08-15, 08:50:30
@Skysnake:
Du willst mir also erzählen, dass 2+ Jahre lang keine neue GPU bei denen herausgebracht wird? Was Maxwell konkret bringen wird, kannst du wie andere auch nur vermuten. Es wäre nicht das erste Mal, dass man auch für einen eher überschaubaren Performancevorteil (und Perf/W) eine neue GPU herausgebracht hat. AMD und Nvidia haben das jahrelang gemacht, auch während den intensiven Anfängen der Wirtschaftskrise 2009/2010.
Zudem gibt es viele Segmente wie AnarchX richtig sagt, denk nicht nur an Highend.
Naja glaub was du willst, wir werden es sehen.

Ailuros
2013-08-15, 10:11:35
Jaja und das GPU-Team wurde aufgelöst oder hat Urlaub. Macht viel Sinn beim mit Abstand größten Geschäftsfeld :freak:

Nicht dass ich nicht schon oben zitiert wurde, aber Du wirst wohl nicht glauben dass Denver u.a. von den Putzfrauen bei NV headquarters entwickelt wird oder? :D

@Skysnake:
Du willst mir also erzählen, dass 2+ Jahre lang keine neue GPU bei denen herausgebracht wird? Was Maxwell konkret bringen wird, kannst du wie andere auch nur vermuten. Es wäre nicht das erste Mal, dass man auch für einen eher überschaubaren Performancevorteil (und Perf/W) eine neue GPU herausgebracht hat. AMD und Nvidia haben das jahrelang gemacht, auch während den intensiven Anfängen der Wirtschaftskrise 2009/2010.
Zudem gibt es viele Segmente wie AnarchX richtig sagt, denk nicht nur an Highend.
Naja glaub was du willst, wir werden es sehen.

Wenn es bis H2 keinen neuen GPU chip von NV geben sollte wird wer dann die Besen der obrigen Putzfrauen genau futtern? :biggrin: Es gibt ein rundum resources Problem bei NV und das betrifft nicht nur Personal sondern auch Kosten. NV will SELBER in Q1 2014 ein Logan basierendes tablet veroeffentlichen und ja so etwas kostet wohl nach Dir in Entwicklung und Vertigstellung nur Erbsen oder? Die Kosten fuer Denver und Tegra wachsen brutal weiter in letzter Zeit und die Kurve geht NUR nach oben. In der Zwischenzeit faellt der Umsatz fuer Tegra konstant in letzter Zeit und ja natuerlich ist NV bzw. Jensen klug genug so konservativ wie moeglich die Sache zu packen eben damit es nicht kritisch wird.

http://www.xbitlabs.com/images/news/2013-08/nvidia_revenue_split_q2_fy2014.png

http://www.xbitlabs.com/news/graphics/display/20130808235037_Nvidia_Graphics_Processors_Revenue_Increases_Thanks_to_High_End_O fferings.html

Wir haben in der Zwischenzeit Shield (T4), ein T4 basierendes tablet dass bald erscheint, ein T4i basierendes Referenz-Geraet und bis zu Q1 ist noch ein tab mit T5 geplant unter anderen. Keiner dieser wird die Entwicklungskosten wieder reinholen koennen.

Uebrigens wenn NV in solchen Faellen keinen Daumen ruehrt heisst es auch dass sie zwar wissen an was AMD kocht aber darueber nicht besonders unruhig sind; im schlimmsten Fall kommt doch noch eine Ultra und/oder sie reduzieren etwas die Preise welches eben ihre Gewinnmargen etwas reduziert ist aber bei weitem kein Kopfschmerz momentan.

Kriton
2013-08-15, 11:07:59
Er meint auch, Maxwell kommt dieses Jahr, eben in 28 nm.

Gab doch diese Folie (von Intel?) wonach der "big" maxwell canceled wurde. Vielleicht bezog sich "big" ja auf die Diefläche unter 28nm?

Skysnake
2013-08-15, 11:24:31
@Skysnake:
Du willst mir also erzählen, dass 2+ Jahre lang keine neue GPU bei denen herausgebracht wird? Was Maxwell konkret bringen wird, kannst du wie andere auch nur vermuten. Es wäre nicht das erste Mal, dass man auch für einen eher überschaubaren Performancevorteil (und Perf/W) eine neue GPU herausgebracht hat. AMD und Nvidia haben das jahrelang gemacht, auch während den intensiven Anfängen der Wirtschaftskrise 2009/2010.

Genau so wird es kommen. nVidia muss auf die Kostenbremse drücken, weil die Stückzahlen zurück gehen. Zudem darfst du nicht den Fehler machen, und den Anfang der Wirtschaftskrise isoliert betrachten. Chips entwickeln sich nicht "mal eben" so. Die Dinger laufen schon ewig, bevor man was auf den Markt schmeist. Da setzt man dann auch nen großen Haufen auf den aktuellen Einbruch, man hat die Kosten ja eh schon gehabt und das fertige Produkt in der Schublade. Das haut man dann auch raus, wenn man davon ausgeht, das man mehr Geld macht als es einen kostet. Selbst ein Nullsummenspiel rentiert sich, weil die Konkurrenz unter druck gesetzt wird...


Zudem gibt es viele Segmente wie AnarchX richtig sagt, denk nicht nur an Highend.
Naja glaub was du willst, wir werden es sehen.
nVidia muss aber schon auf mittlere/kurze Sicht die Kosten massiv! drücken im dGPU-Markt. Er schrumpft, und wenn Sie nicht in die Gefahr laufen wollen Minus zu machen, müssen die Kosten runter. Du kannst die Entwicklungskosten einfach nicht mehr auf so große Chip-Volumina aufteilen. Das bricht dir soooo schnell das Genick, das glaubst du gar nicht. Deswegen wird auf Fixkosten auch bei jedweder Ausbildung und Studium so arg rumgeritten. Das ist einfach der typische Genickbrecher von Unternehmen... Fixkostenremanenz ist die Mitternachtsformel der BWLer meiner Meinung nach.

Nicht dass ich nicht schon oben zitiert wurde, aber Du wirst wohl nicht glauben dass Denver u.a. von den Putzfrauen bei NV headquarters entwickelt wird oder? :D

Also... manchmal...
Ach lassen wir das lieber ;D


Uebrigens wenn NV in solchen Faellen keinen Daumen ruehrt heisst es auch dass sie zwar wissen an was AMD kocht aber darueber nicht besonders unruhig sind; im schlimmsten Fall kommt doch noch eine Ultra und/oder sie reduzieren etwas die Preise welches eben ihre Gewinnmargen etwas reduziert ist aber bei weitem kein Kopfschmerz momentan.
Oder Sie haben schlicht nicht die Kapazitäten, bzw sehen Tegra als größeres Problem an, und das würde ich auch. Bei Tegra geht es um die Wurst. Wenn Sie da nicht mit T5 ein echtes Zeichen! setzen, und mit T6 dann nochmal richtig einen drauflegen, dann können Sie die Tegra Sache abschminken, und das wäre wie gesagt der Ruin von nVidia in der jetzigen Form. Wie gesagt Matrox-Reloaded...

nVidia spielt aktuell ihre Image Karte im dGPU markt, und das funktioniert auch sehr gut wie man sieht. Die Frage ist halt wie gut es noch in der nächsten Generation läuft. Wenn man sich aber anschaut, welches Selbstbild nVidia von sich hat, dann werden die nicht mal den kleinsten Hauch eines Zweifels daran haben, dass das auch nochmal eine Generation funtioniert... Auf ihre "Fans/Jünger" können Sie sich halt verlassen. Denen haben Sie lang genug das Gehirn geschrubbt... Wovor man den Hut ziehen muss.

Ailuros
2013-08-15, 11:30:22
Also... manchmal...
Ach lassen wir das lieber ;D

Mich interessiert es nicht wenn die Putzfrau in Dir zur Rebellion schreit bei solchen Aussagen :biggrin:


Oder Sie haben schlicht nicht die Kapazitäten, bzw sehen Tegra als größeres Problem an, und das würde ich auch.

Fuer ein T5 tablet Referenz-Geraet koennte auch ein wafer reichen.


nVidia spielt aktuell ihre Image Karte im dGPU markt, und das funktioniert auch sehr gut wie man sieht. Die Frage ist halt wie gut es noch in der nächsten Generation läuft. Wenn man sich aber anschaut, welches Selbstbild nVidia von sich hat, dann werden die nicht mal den kleinsten Hauch eines Zweifels daran haben, dass das auch nochmal eine Generation funtioniert... Auf ihre "Fans/Jünger" können Sie sich halt verlassen. Denen haben Sie lang genug das Gehirn geschrubbt... Wovor man den Hut ziehen muss.

Ich erwarte keine besonders sehenswerten Leistungssteigerungen von Hawaii und co und daher ist NV innerhalb von Grenz schon quasi in einer "safe zone". Das einzige was nur bleiben koennte sind Preise, aber AMD wird auch nicht umsonst verkaufen, eben weil sie auch jeglichem moeglichen cent zusammenkratzen muessen.

Skysnake
2013-08-15, 12:50:18
Mich interessiert es nicht wenn die Putzfrau in Dir zur Rebellion schreit bei solchen Aussagen :biggrin:

Du weißt, dass das mit einem Augenzwinkern gemeint war ;)

Die Jungs und Mädels bei nVidia haben es genau so drauf wie wo anders auch. Die können aber auch nur das machen, was man Sie machen lässt! Wenn die mit wenig Leuten oder wenig Zeit/Budget irgendwas zusammen schustern müssen, dann kommt halt auch entsprechendes bei raus...

boxleitnerb
2013-08-15, 13:03:08
Nicht dass ich nicht schon oben zitiert wurde, aber Du wirst wohl nicht glauben dass Denver u.a. von den Putzfrauen bei NV headquarters entwickelt wird oder? :D

Wenn es bis H2 keinen neuen GPU chip von NV geben sollte wird wer dann die Besen der obrigen Putzfrauen genau futtern? :biggrin: Es gibt ein rundum resources Problem bei NV und das betrifft nicht nur Personal sondern auch Kosten. NV will SELBER in Q1 2014 ein Logan basierendes tablet veroeffentlichen und ja so etwas kostet wohl nach Dir in Entwicklung und Vertigstellung nur Erbsen oder? Die Kosten fuer Denver und Tegra wachsen brutal weiter in letzter Zeit und die Kurve geht NUR nach oben. In der Zwischenzeit faellt der Umsatz fuer Tegra konstant in letzter Zeit und ja natuerlich ist NV bzw. Jensen klug genug so konservativ wie moeglich die Sache zu packen eben damit es nicht kritisch wird.

http://www.xbitlabs.com/images/news/2013-08/nvidia_revenue_split_q2_fy2014.png

http://www.xbitlabs.com/news/graphics/display/20130808235037_Nvidia_Graphics_Processors_Revenue_Increases_Thanks_to_High_End_O fferings.html

Wir haben in der Zwischenzeit Shield (T4), ein T4 basierendes tablet dass bald erscheint, ein T4i basierendes Referenz-Geraet und bis zu Q1 ist noch ein tab mit T5 geplant unter anderen. Keiner dieser wird die Entwicklungskosten wieder reinholen koennen.

Uebrigens wenn NV in solchen Faellen keinen Daumen ruehrt heisst es auch dass sie zwar wissen an was AMD kocht aber darueber nicht besonders unruhig sind; im schlimmsten Fall kommt doch noch eine Ultra und/oder sie reduzieren etwas die Preise welches eben ihre Gewinnmargen etwas reduziert ist aber bei weitem kein Kopfschmerz momentan.

Naja wie groß ist Nvidia's Ingenieurteam?
Schau mal AMD an, die haben die CPUs und APUs und schaffen es trotzdem, alle 12-18 Monate 3-5 GPUs zu veröffentlichen. Einen Pipecleaner für die Architektur halte ich nicht für ausgeschlossen.

Ailuros
2013-08-15, 13:34:03
Naja wie groß ist Nvidia's Ingenieurteam?
Schau mal AMD an, die haben die CPUs und APUs und schaffen es trotzdem, alle 12-18 Monate 3-5 GPUs zu veröffentlichen. Einen Pipecleaner für die Architektur halte ich nicht für ausgeschlossen.

So "gross" dass zu Fermi Zeiten das Tegra GPU team nur mit einem Architekt und einem RTL engineer stehen blieb; ein Wunder sogar dass die 2 Kerle es schafften eine zweite Vec4 PS ALU in die T3 GPU zu stecken. Jetzt andersrum gefragt wuerdest Du fuer etwas so kompliziertes wie Logan fuer eine handvoll wetten oder um einiges mehr denn es liegt nehmen allem anderen auch eine Unmenge von Unterstuetzung dahinter?

Apple hat ueber 1000 Fritzen und sie pflegen natuerlich u.a. auch iOS, aber es werden auch von diesen custom CPU cores und SoCs entwickelt.

Was hat es mit AMD genau zu tun? AMD hatte schon immer ihre dedizierten CPU engineers und es kamen mit der ATI Uebernahme noch die GDP dazu. Bei NV entwickeln die eigentlichen GPU hw engineers die custom CPU aka Project Denver, die SoCs aka Tegra und GPU chips. Und ja natuerlich ist es unter normalen Umstaenden schoen aufgeteilt aber was kannst Du unter der internen "Wanderung" von engineers von team zu team genau NICHT verstehen?

Sie konnten nicht mal in den US den mainstream Grey/T4i selber entwickeln und engagierten dafuer ein team in Indien.

Wenn Du hypothetisch ein team hast dass an einem oder ein paar 28nm GM1xx chips arbeitet, dann sind es auch keine handvoll. Da hocken locker bis zu 100 Kerle drin.

Du weißt, dass das mit einem Augenzwinkern gemeint war ;)

Die Jungs und Mädels bei nVidia haben es genau so drauf wie wo anders auch. Die können aber auch nur das machen, was man Sie machen lässt! Wenn die mit wenig Leuten oder wenig Zeit/Budget irgendwas zusammen schustern müssen, dann kommt halt auch entsprechendes bei raus...

Wie viele bekannte Herren bei NV haben in letzter Zeit das Handtuch geworfen? Ja klar wandern auch Angestellte bei AMD staendig aus (und ein), aber NVIDIA soll es doch so "gut" gehen dass es wohl wenige wenn nicht gleiche keine Gruende gibt eine erfolgreiche und hochrangige Stellung zu verlassen.

john carmack
2013-08-15, 13:46:02
http://www.xtremesystems.org/forums/showthread.php?286671-VC-AMD-Radeon-HD-9000-Series-Launching-in-October&p=5202807&viewfull=1#post5202807

Er hatte Infos zum 220W FX geleakt und recht zeitig schon Infos zu Hawaii.


Also ich weiß ja nicht... Aber dieser PedantOne lässt ganz schön viel Müll los wenn es nach mir geht. Bzw. Alles was er sagt sind auch nur Vermutungen und er "verkauft" sie als Wahrheit! :rolleyes:
http://www.xtremesystems.org/forums/search.php?searchid=2822751&pp=


Als ob Nvidia gleich 2 Generationen innerhalb von einem halben Jahr releasen würde.... Alles klar?!?!?! :D
Sorry, aber der Typ verarscht euch nur...


Und Maxwell kommt niemals in 28nm noch in 2013 sondern ganz sicher irgendwann im Sommer 2014 in 20nm! Da verwette ich jetzt einfach mal meinen 3DCENTER Account drauf!

@Admns bitte aufnehmen!!! Ich meine das ernst.

V2.0
2013-08-15, 13:57:39
Maxwell kommt spät 2014.

Mancko
2013-08-15, 14:39:01
Nvidia ist eh nicht unter Druck. Wer sich Aktienrückkaufprogramme leisten kann, der hat noch genug Spielraum. Zudem baut Nvidia ja sein neues Areal und wird ordentlich einstellen in der Zukunft. Es dürfte ihnen also völlig klar sein, dass die Kosten steigen werden. Ansonsten hätten sie ja nicht das Areal gebaut und gesagt, dass sie weitere 2000 Leute einstellen wollen.

Ich denke die werden ganz einfach AMD mal hübsch launchen lassen und dann den Titan nochmal kurz refreshen und die Preise in der gesamten Palette nach unten verschieben und parallel in Ruhe weiter an Maxwell und dann eben den kommenden Tegra's arbeiten. M.E. sind 90% der Leute bzgl. dessen was AMD launchen wird sowieso viel zu optimistisch. Wenn die Nachricht mit der Stromversorgen von AMDs neuer High End Platine stimmt, dann ist das m.E. ein Indikator dafür, dass AMD bei 28nm geblieben ist oder einen beschissenen 20nm Prozess nutzt und eine höhere Leistungsaufnahme in Kauf nehmen muss. Angesichts der Tatsache, dass sie bereits jetzt an der Stelle im Nachteil sind glaube ich nicht, dass Nvidia hier großartig Druck verspürt.

Blediator16
2013-08-15, 15:49:25
Nvidia ist eh nicht unter Druck. Wer sich Aktienrückkaufprogramme leisten kann, der hat noch genug Spielraum. Zudem baut Nvidia ja sein neues Areal und wird ordentlich einstellen in der Zukunft. Es dürfte ihnen also völlig klar sein, dass die Kosten steigen werden. Ansonsten hätten sie ja nicht das Areal gebaut und gesagt, dass sie weitere 2000 Leute einstellen wollen.

Ich denke die werden ganz einfach AMD mal hübsch launchen lassen und dann den Titan nochmal kurz refreshen und die Preise in der gesamten Palette nach unten verschieben und parallel in Ruhe weiter an Maxwell und dann eben den kommenden Tegra's arbeiten. M.E. sind 90% der Leute bzgl. dessen was AMD launchen wird sowieso viel zu optimistisch. Wenn die Nachricht mit der Stromversorgen von AMDs neuer High End Platine stimmt, dann ist das m.E. ein Indikator dafür, dass AMD bei 28nm geblieben ist oder einen beschissenen 20nm Prozess nutzt und eine höhere Leistungsaufnahme in Kauf nehmen muss. Angesichts der Tatsache, dass sie bereits jetzt an der Stelle im Nachteil sind glaube ich nicht, dass Nvidia hier großartig Druck verspürt.

Dabei vergisst du komplett den Tegra Teil

Hugo78
2013-08-15, 19:03:40
Angesichts der Tatsache, dass sie bereits jetzt an der Stelle im Nachteil sind glaube ich nicht, dass Nvidia hier großartig Druck verspürt.

So schaut das aus.

Nvidia wird Maxwell ganz entspannt zuende entwickeln und in Q2 2014 bringen, dann wenn die Preise für 20nm sich rechnen.
AMD muss zusehen dass ihr Hawaii nicht zu einem neuen Cayman wird. Denn wenn Hawaii für 20nm geplant war, aber jetzt in 28nm kommt,
versaut es hier wieder die Perf./W, wie einst beim Cayman (für 32nm geplant, in 40nm produziert) und die Perf./W ist schon nicht sonderlich.

Von daher wundert es mich nicht, wenn Nvidia aktuell so viele Entwickler für Tegra abstellen kann.

Ailuros
2013-08-15, 19:06:45
Es ist nicht koennen sondern muessen im letzten Fall und es ist fuer desktop Projekte alles andere als ein Vorteil langfristig; es wird nur geraume Zeit dauern bis es sich deutlicher zeigt.

Skysnake
2013-08-15, 19:11:23
Von daher wundert es mich nicht, wenn Nvidia aktuell so viele Entwickler für Tegra abstellen kann.
Ich seh das wie Ailuros.

Von wollen/können kann da keine Rede sein. Die müssen das einfach machen, und in 1-2 Jahren werden wir dann sicherlich auch die Konsequenzen im Desktop-Markt negativ zu spüren bekommen. Die Frage ist nur, ob nVidia wieder mal auf einen Fail von AMD hoffen darf, oder wie weit die eben selbst runter schrauben. Die hätten sicherlich auch nichts dagegen etwas auf die Bremse zu treten...:mad:

Ailuros
2013-08-15, 19:17:13
Hawaii ist sicher kein fail, nur ist es erstens durch 28nm bzw. sinnvoller TDP begrenzt und es ist eben nicht so dass Kepler irgendwelche besondere Nachteile hat dass NV kurzfristig in irgend eine wirklich peinliche Situation kommt. Mir macht lediglich 20nm Entwicklung Sorgen.

Skysnake
2013-08-15, 20:28:07
Das war jetzt auf kein konkretes Produkt bezogen,sondern 100% Allgemein gefasst als Möglichkeit.

Mancko
2013-08-15, 23:12:40
Dabei vergisst du komplett den Tegra Teil

Wieso vergesse ich den? Ich bezog mich auf Maxwell und die Desktop GPUs. Was Tegra angeht läuft es dort zwar nicht gerade gut aber Nvidia hat einen langen Atem. Die können sich das Spielchen noch sehr lange leisten. Bei denen redet auch keiner dazwischen anders als bei AMD.

Mancko
2013-08-15, 23:17:15
Ich seh das wie Ailuros.

Von wollen/können kann da keine Rede sein. Die müssen das einfach machen, und in 1-2 Jahren werden wir dann sicherlich auch die Konsequenzen im Desktop-Markt negativ zu spüren bekommen. Die Frage ist nur, ob nVidia wieder mal auf einen Fail von AMD hoffen darf, oder wie weit die eben selbst runter schrauben. Die hätten sicherlich auch nichts dagegen etwas auf die Bremse zu treten...:mad:

Ganz ehrlich Skysnake. Setzt mal deine AMD Brille ab. Bevor mit Nvidia auch nur irgendetwas passiert ist der Laden AMD schon längst den Leichenfledderern zum Opfer gefallen. Das Unternehmen ist ohne Geldgeber schlichtweg nicht überlebensfähig und finanziell einfach in einer ganz üblen Verfassung. Zudem ist AMD ein Spielball von Investoren. Der Read hat dort gar nichts zu melden. Das ist bei Nvidia eine völlig andere Situation. Dort redet niemand rein und das ist gut so!

Schaffe89
2013-08-16, 02:56:34
AMD muss zusehen dass ihr Hawaii nicht zu einem neuen Cayman wird.

Cayman war nicht ineffizienter, die HD 6950 hat sehr überzeugt, die HD 6970 war 15 bis 20% schneller als die HD 5870, mit doppeltem Ram ausgestattet, genau wie die HD 6950, das muss man auch sehen.

Die HD 6970 bleib effizienzmäßig stehen,, während die HD 6950 noch einiges herausholte.

gnahr
2013-08-16, 03:16:40
15-20% mit daumen auf der wage... das ist n schlechter witz und keine neue gen gewesen..

Skysnake
2013-08-16, 07:55:50
Ganz ehrlich Skysnake. Setzt mal deine AMD Brille ab. Bevor mit Nvidia auch nur irgendetwas passiert ist der Laden AMD schon längst den Leichenfledderern zum Opfer gefallen. Das Unternehmen ist ohne Geldgeber schlichtweg nicht überlebensfähig und finanziell einfach in einer ganz üblen Verfassung. Zudem ist AMD ein Spielball von Investoren. Der Read hat dort gar nichts zu melden. Das ist bei Nvidia eine völlig andere Situation. Dort redet niemand rein und das ist gut so!
nVidia wird nicht untergehen, aber muss es das?

Nö. Ein Matrox-Reloaded wäre schon schlimm genug für uns, und genau darauf steuern Sie eben zu wenn Sie nicht endlich den Fuß in den SFF-Markt bekommen und Tegra ein Erfolg wird.

Was haben Sie denn sonst?

dGPU für Desktop<- wird immer unbedeutender
dGPU für Mobile<- an sich immer bedeutender, aber iGPUs übernehmen immer mehr, weil man lange Laufzeiten will, und selbst innerhalb Mobile der Trend immer mehr zu Smartphone/Tablet/Convertibles geht.
Chipsatz<-gibts schon lange nicht mehr ist tot
Tesla<-muss seit ~1 Jahr erstmal sich einer echten Konkurrenz stellen und hat massiv an Stellenwert eingebüßt
Quadro<-ja das läuft noch ganz gut, aber die Leute kaufen weniger Quadros, bzw sind einfach nicht mehr bereit die dicksten Dinger zu kaufen, einfach weil selbst unter den Profis der Anwenderkreis so hoher Leistungen schrumpft und 2. drängt man auf die Kombination von Tesla und Quadro um kosten zu senken. An sich aber ein stabiler Markt, der aber NIE sich selbst tragen kann, sondern nur das Sahnehäubchen darstellen kann.
Tegra<-Totalausfall bisher und einzige Zukunftschance sich zu entwickeln, bzw die Rückgänge in anderen Märkten auszugleichen.

dGPU für Desktop und Mobile entwickelt sich zum Nieschenmarkt. Eine verdammt große Niesche, in der es sich ganz bequem machen lässt, aber eben eine Niesche. nVidia läuft in die gleichen Probleme wie Matrox und VIA rein. Beide Firmen gibt es noch und Sie machen ihr Ding, aber kannst DU dir das für nVidia vorstellen? Also ich nicht, und ich will es mir auch gar nicht vorstellen müssen...

Genau darauf steuern Sie aber zu wenn Sie Tegra nicht ans laufen bekommen. Tegra ist AMDs HSA. Wenns zum laufen gebracht wird, siehts sehr gut aus, wenns ein Rohrkrepierer wird, dann siehts düster aus.

Nichts was die Existenz der Firma bedroht (ok bei AMD vielleicht doch) aber man kann sich von der aktuellen Positionierung verabschieden und wird nur noch ganz kleine Brötchen backen. Sorry, aber so knallhart sehe ich das und wenn man sich die Börsen-Analysten anschaut, dann teilen die im großen und Ganzen die Ansicht das Tegra der entscheidende Knackpunkt für nVidia ist.

V2.0
2013-08-16, 08:49:34
NV ist längst in den Abgrund gefallen. Da man den Mobilmarkt völlig verloren hat, bleiben nur noch die sterbenden legacy Märkte. Und durch den verzeifelten Versuch doch noch Tegra zum Erfolg zu führen zu wollen, wird man den alten Stammmarkt an AMD verlieren.

fondness
2013-08-16, 09:25:19
Zudem ist AMD ein Spielball von Investoren. Der Read hat dort gar nichts zu melden. Das ist bei Nvidia eine völlig andere Situation. Dort redet niemand rein und das ist gut so!

Wenn man keine Ahnung hat. NV hat mehr als genug "Heuschrecken" in ihrer Aktionärsstruktur, zB Fidelity, BlackRock, Vanguard. Glaubst du Jensen macht zum Spaß ein Aktienrückkaufprogramm und schüttet eine Dividende aus, obwohl er das Geld viel besser in mehr Ressourcen für zukünftige Produkte investieren sollte? Da ist AMD mit einem Großaktionär aus Abu Dhabi deutlich besser dran, denn die investieren wenigstens langfristig für die Zeit nach dem Öl und reden sicherlich nicht in das operative Geschäft hinein.

Kriton
2013-08-16, 10:02:45
Ganz ehrlich Skysnake. Setzt mal deine AMD Brille ab. Bevor mit Nvidia auch nur irgendetwas passiert ist der Laden AMD schon längst den Leichenfledderern zum Opfer gefallen. Das Unternehmen ist ohne Geldgeber schlichtweg nicht überlebensfähig und finanziell einfach in einer ganz üblen Verfassung. Zudem ist AMD ein Spielball von Investoren. Der Read hat dort gar nichts zu melden. Das ist bei Nvidia eine völlig andere Situation. Dort redet niemand rein und das ist gut so!

Ich weiß nicht, dass technische Konzept mit Fusion/HSA war nun wirklich mutig von AMD. gerade wenn man bedenkt wie lange es braucht um das geplante Ergebnis zu erreichen. Da hat kein (kurzfristiger( Investor reingeredet. mag natürlich heute anders sein, aber Read scheint AMD ja auf Kurs zu bringen.

Timbaloo
2013-08-16, 10:05:05
Wie wäre es mit etwas weniger Grabesreden und etwas mehr technischer Spekulation?

StefanV
2013-08-16, 10:16:54
Ganz ehrlich Skysnake. Setzt mal deine AMD Brille ab. Bevor mit Nvidia auch nur irgendetwas passiert ist der Laden AMD schon längst den Leichenfledderern zum Opfer gefallen. Das Unternehmen ist ohne Geldgeber schlichtweg nicht überlebensfähig und finanziell einfach in einer ganz üblen Verfassung. Zudem ist AMD ein Spielball von Investoren. Der Read hat dort gar nichts zu melden. Das ist bei Nvidia eine völlig andere Situation. Dort redet niemand rein und das ist gut so!
Hast du auch Argumente, die gegen Skysnakes Ausführungen sprechen?!

Der Punkt ist doch:
Er hat doch mit seinen Aussagen vollkommen Recht!

Die dGPUs mit den höchsten Volumen sind doch schon lange weg vom Fenster, die 'Office Klasse' gibt es doch gar nicht mehr, das wird von den iGPUs abgedeckt! Wirf doch mal einen Blick auf die aktuellen Haswell Prozessoren von Intel und auch die A10 APUs von AMD. Wie stark die GPU dort geworden ist. Und welche Grafikkarten daduch obsolet geworden sind!

Und wirf jetzt mal einen Blick auf die Playstation 4. Was dort für ein dicker Brocken an GPU drin steckt...

Wenn man es wollen würde, könnte man schon heute CPUs bauen, die alle GPUs bis ins untere High End Segment völlig obsolet machen würden. Also alles bis einschließlich GTX660 bzw HD7850.

Dummerweise sind das auch gerade die GPUs, mit denen die Hersteller Geld machen. Wenn die alle obsolet geworden sind, kannst den Laden dicht machen. Und das kann durchaus so kommen...

Dazu kommt, dass man auch so langsam mit den iGPUs halbwegs zocken kann...
Und nur mit High End GPUs kann man nicht leben!

Botcruscher
2013-08-16, 10:30:17
Die iGPU macht keine 7850 obsolet. Jenseits des Mobilmarktes gibt es dafür keine Zielgruppe und selbst da ist sie gering. Die Billigkarten vom Aufwand her zu ersetzen war keine Thema aber schon heute hätte Intel auf einem richtigen Markt ein Problem. Bei richtigem Wettbewerb würde sich der Markt nämlich aufspalten. Bei der verschenkten Chipfläche würden viele lieber fast doppelt so viele CPU Kerne nehmen.

Dural
2013-08-16, 10:38:26
die Office Klasse PC hatten schon immer iGPUs, nämlich im Chipsatz. :rolleyes: Intel hat schon fast seit einer Ewigkeit einen Marktanteil von 50% + im GPU Bereich.

Der einzige Bereich der NV fehlt sind eben die GPUs die sie früher in den Chipsätzen hatten, jedoch muss man auch Anmerken das NV in diesem Bereich nie sonderlich einen grossen Marktanteil hatte.

Zudem muss man in dieser Pseudo GPU Statistik auch immer bedenken, das sicher sehr viele iGPUs gar nicht benutzt werden oder nur für den Desktop sind. Wenn ich den Markt so durchforste gibt es heute nicht weniger GPUs in PC/Notebook als vor zb. 5 Jahren.

Undertaker
2013-08-16, 10:44:00
Kommen wir jetzt bitte mal wieder zum eigentlichen Thema?

HPVD
2013-08-17, 16:10:54
aktuelle Nvidia Aussage zu Maxwell vom 5. Juni 2013:

Standartbild mit zusätzlicher Detailbeschriftung

Maxwell erscheint in 2014 (welche Karte auch immer)

GFLOPS DP / Watt: 2x Kepler, 7x Fermi
(wenn Watt = konst => direkte Aussage zur Performance)

zu Volta:
GFLOPS DP / Watt: 4x Kepler, 13x Fermi

Quelle:
www.acrc.a-star.edu.sg/docs/NV_ACRC_05Jun13-Part1.pdf
Folie: 34

Skysnake
2013-08-17, 16:17:35
asbachuralt das Ding.

AnarchX
2013-08-17, 16:20:43
Die annotierte Version gab es hier aber noch nicht.

Skysnake
2013-08-17, 16:24:35
Da ist aber Null Inhalt drin.

HPVD
2013-08-17, 16:28:37
Da ist aber Null Inhalt drin.

nicht?

für mich ist es neu das Maxwell nur 2x so schnell wird wie Kepler (in DP-Performance)
Sonst wurde immer von 2,5-3x so schnell gesprochen ...

AnarchX
2013-08-17, 16:31:13
Fragt sich nur wie viel Ahnung der Annotator hatte oder ob er es nur geschätzt hat. Bei Volta wird Fermi plötzlich schneller...

HPVD
2013-08-17, 16:33:17
Fragt sich nur wie viel Ahnung der Annotator hatte oder ob er es nur geschätzt hat. Bei Volta wird Fermi plötzlich schneller...
oder es entsteht durch die Rundung oder Stellenstreichung bei der Berechnung der Faktoren aus den absoluten Werten..

HPVD
2013-08-17, 16:37:02
der Vortragende von den Slides ist jedenfalls einer der Standard Sprecher von Nvidia im Bereich HPC. Der sollte nicht ganz unwissend sein was da passiert...

Skysnake
2013-08-17, 16:37:06
Das ist einfach nur das Bild angeschaut und fertig...

Wie gesagt, Null Inhalt...

john carmack
2013-08-21, 12:38:54
Maxwell dann im ersten Quartal 2014?
Nvidias Hawaii-Antwort angeblich noch dieses Jahr

http://www.computerbase.de/news/2013-08/nvidias-hawaii-antwort-angeblich-noch-dieses-jahr/

Thunder99
2013-08-21, 13:29:10
Maxwell dann im ersten Quartal 2014?
Nvidias Hawaii-Antwort angeblich noch dieses Jahr

http://www.computerbase.de/news/2013-08/nvidias-hawaii-antwort-angeblich-noch-dieses-jahr/
Warum nicht, könnte realistisch sein. Nur denke ich das der GM104 28nm gegen Hawaii 28nm das nachsehen hat da sie sonst ihre GF Titan knicken können mit der Marge :freak:

john carmack
2013-08-21, 13:34:46
Warum nicht, könnte realistisch sein. Nur denke ich das der GM104 28nm gegen Hawaii 28nm das nachsehen hat da sie sonst ihre GF Titan knicken können mit der Marge :freak:


Vielleicht kommt ja auch so eine Art "Hawaii Ghz Edition" :freak:

Godmode
2013-08-21, 13:36:51
Vielleicht kommt ja auch so eine Art "Hawaii Ghz Edition" :freak:

Titan kann man auch schön langsam auslaufen lassen. Von GM104 erwarte ich mindestens Titan Performance.

boxleitnerb
2013-08-25, 08:03:39
Was meinte Ailuros in dem anderen Thread? Maxwell@28nm "kaputt"? Vielleicht könnte man das hier weiter erörtern, klingt interessant.

Skysnake
2013-08-25, 09:44:46
Ja meinte er, ich bin aber nicht drauf eingestiegen, weil das auf ne Diskussion wie bei GK100 rausläuft...

Dazu kann einfach keiner was sagen, und mehr als Fanboykrieg mit Köppe einschlagen kommt dabei nicht raus.

Dural
2013-08-25, 13:36:04
es gibt so wie so keinen high end maxwell @ 28nm. :rolleyes:

der grosse maxwell werden wir wahrscheinlich sogar erst 2015 sehen, je nach dem wenn es gut läuft ende 2014...

ich halte von den ganzen maxwell @ 28nm gerüchten auch nicht wirklich viel. eventuell ein kleiner test chip in 28nm... an mehr glaube ich kaum, ausser die 20nm Fertigung läuft sehr sehr bescheiden.

StefanV
2013-08-25, 14:25:58
ausser die 20nm Fertigung läuft sehr sehr bescheiden.
...wovon du einfach mal ausgehen musst...

Ailuros
2013-08-26, 07:15:01
Was meinte Ailuros in dem anderen Thread? Maxwell@28nm "kaputt"? Vielleicht könnte man das hier weiter erörtern, klingt interessant.

Nichts anderes als dass der performance Maxwell 28nm angeblich storniert wurde. Muss aber nicht stimmen.

es gibt so wie so keinen high end maxwell @ 28nm. :rolleyes:

der grosse maxwell werden wir wahrscheinlich sogar erst 2015 sehen, je nach dem wenn es gut läuft ende 2014...

ich halte von den ganzen maxwell @ 28nm gerüchten auch nicht wirklich viel. eventuell ein kleiner test chip in 28nm... an mehr glaube ich kaum, ausser die 20nm Fertigung läuft sehr sehr bescheiden.

Es war stets hypothetisch von einem GK104 Nachfolger Maxwell die Rede unter 28nm welches wohl so oder so das erste Examplar sein wird dass wird unter jeglichen Bedigungen von Maxwell als erstes sehen werden; und ja Du hasst richtig "geraten" 20nm laeuft extrem beschissen und ist auch sauteuer.

boxleitnerb
2013-08-26, 07:30:33
Hast du ne Idee, warum man das tun sollte? Dass Nvidia mit Kepler bis Q3+/2014 durchhalten will, kann ich mir nicht so recht vorstellen. Dann müsste man nämlich Marge opfern und die Preise auf das pre-Kepler-Niveau anpassen. GK104 für 250, GK110 für 450 - wenn AMD gut Druck macht mit Volcanic Islands, was sie vermutlich tun werden.

Skysnake
2013-08-26, 08:34:16
Weil man keine Ressourcen frei hat um jetzt noch darauf zu reagieren?

nVidia muss aktuell so viele Ressourcen wie nur möglich in Tegra stecken.

boxleitnerb
2013-08-26, 08:45:26
Was heißt "noch darauf zu reagieren"? Solche Entscheidungen werden Monate und Jahre im Voraus getroffen. Nvidia wusste auch vor einem Jahr, dass man in Tegra Energie stecken muss, da sagt man nicht kurzfristig mal eine GPU ab. Wir wissen natürlich nicht, wann genau Maxwell@28nm gecancelled wurde. Vor 3 Monaten, vor 9, vor 12?

Skysnake
2013-08-26, 09:20:40
Und Man-power wächst auf Bäumen oder wie?

Ich seh einfach keine Ressourcen für irgendwelche Desktop-Hampeleien bei nVidia. Wenn sich irgendwas in der Fertigung verzögert, dann wird sich das voll durchschlagen bei nVidia.

boxleitnerb
2013-08-26, 09:34:11
Du verstehst nicht was ich meine. Wenn man schon absehen kann bei der Entwicklung von Tegra 4, dass das nichts wird und man Tegra 5 pushen muss, fängt man keine Projekte an, die man höchstwahrscheinlich wieder aufgeben muss. Wenn die Streichung schon ein alter Hut ist, dann ok. Wenn es eher kurzfristig ist, halte ich die Begründung mit Tegra für Unsinn.

Skysnake
2013-08-26, 11:09:10
Die Frage ist halt, was der Grund war für die Streichung. Son Chip kann dir gegen Ende auch noch extreme Kopfschmerzen bereiten, weil irgend ein Bug auftaucht, der durch nen anderen Bug verdeckt war, der sehr sehr grundlegende Änderungen bedarf. Da kanns dir dann passieren, dass du eben einfach nicht mehr die Man-Power hat, das zu beenden.

Oder drölf Millionen andere Szenarien...

Die Diskussion darüber ist halt hm.... seltsam... Ungelegte Eier halt, von denen keiner etwas weiß.

Die Sache ist nur, wir wissen das nVidia aktuell alles in Tegra stecken muss. Man sollte daher keine all zu großen Erwartungen bzgl Desktop haben.

gnahr
2013-08-26, 11:29:29
nvidia wurde immer sehr gelobt für ihren exorbitanten simulationsaufwand.
dass ausgerechnet jetzt das ei des kolumbus als mega fehler auftaucht ist wieder so ein skysnake-könnte-würde-sollte-szenario.

Ailuros
2013-08-26, 11:44:49
nvidia wurde immer sehr gelobt für ihren exorbitanten simulationsaufwand.

IHVs haben aber auch hier und da die Tendenz Projekte zu stornieren und NV ist da keineswegs eine Ausnahme. Sicher kann sich keiner sein momentan, aber es ist eben nicht unmoeglich.

dass ausgerechnet jetzt das ei des kolumbus als mega fehler auftaucht ist wieder so ein skysnake-könnte-würde-sollte-szenario.

Anstatt zu billigen Seitenhieben zu resultieren, waere es vielleicht produktiver wenn Du ueberhaupt etwas sinnvolles zum Thema beitragen kannst.

fondness
2013-08-26, 11:50:22
Hast du ne Idee, warum man das tun sollte? Dass Nvidia mit Kepler bis Q3+/2014 durchhalten will, kann ich mir nicht so recht vorstellen. Dann müsste man nämlich Marge opfern und die Preise auf das pre-Kepler-Niveau anpassen. GK104 für 250, GK110 für 450 - wenn AMD gut Druck macht mit Volcanic Islands, was sie vermutlich tun werden.

Wenn man einen Chip storniert dann macht man das sicher nicht ohne guten Grund. Womöglich ist der Chip einfach nicht rechtzeitig fertig geworden, hatte schwerwiegende Bugs oder hat aus anderen Gründen die Erwartungen nicht erfüllt. NVs execution kommt mir ohnehin relativ chaotisch vor. Nach dem Fermi Chaos und den stornierten 32nm Chips jetzt schon wieder ein stornierter Maxwell. Bei AMD läuft das seit R600 wie ein Schweizer Uhrwerk.

Ailuros
2013-08-26, 11:58:05
Wenn man einen Chip storniert dann macht man das sicher nicht ohne guten Grund. Womöglich ist der Chip einfach nicht rechtzeitig fertig geworden, hatte schwerwiegende Bugs oder hat aus anderen Gründen die Erwartungen nicht erfüllt. NVs execution kommt mir ohnehin relativ chaotisch vor. Nach dem Fermi Chaos und den stornierten 32nm Chips jetzt schon wieder ein stornierter Maxwell.

NV hat fuer 32nm nur einen einzigen chip storniert genauso wie AMD und die wurden storniert weil TSMC 32nm zufaellig storniert hatte. Wenn 28nm Maxwell tatsaechlich storniert wurde dann sicher nicht weil irgend etwas problematisch war.

Bei AMD läuft das seit R600 wie ein Schweizer Uhrwerk.

Hoppla mal schoen langsam; eher das brutale Gegenteil. Bevor Du irgendwelche Wetten eingehst frag mal Eric warum er das Handtuch bei AMD fuer Qualcomm genau geworfen hat. Unter schweizer Uhrwerk hab ich eine andere Vorstellung und der Beschreibung trifft momentan NUR Qualcomm zu was aber auch total irrelevant ist da SFF SoCs bei weitem nicht so kompliziert sind wie GPU oder CPU chips.

In der Mehrzahl der Faelle sind es Probleme die auf falsche Direktions-Entscheidungen zurueckschliessen und bei AMD sieht es diesbezueglich seit einiger Zeit um zich Male beschissener aus als bei NV.

fondness
2013-08-26, 12:03:53
Wenn 28nm Maxwell tatsaechlich storniert wurde dann sicher nicht weil irgend etwas problematisch war.

Sondern?

In der Mehrzahl der Faelle sind es Probleme die auf falsche Direktions-Entscheidungen zurueckschliessen und bei AMD sieht es diesbezueglich seit einiger Zeit um zich Male beschissener aus als bei NV.

Was wurde denn bei AMD in letzter Zeit storniert?

-/\-CruNcher-/\-
2013-08-26, 12:16:50
Fakt ist nach den anfänglichen schwierigkeiten nach dem ATI Kauf geht es mit AMD/ATI immer weiter bergauf

Wenn Nvidia jetzt nichts gegen AMDs bevorstehendes release entgegenzusetzen hat wird das sicher nicht gut werden für Nvidia auf dem Desktop und man hat fast ein kompletes release cycle für Tegra geopfert da muss man schon gute Gründe für haben würde ich mal sagen.
Schon garnicht im Zuge der Konsolen Convergence bei AMD

V2.0
2013-08-26, 12:24:16
Sondern?


Weil man ihn nicht braucht. Entweder weil 20nm gut liegt (wer glaubt das) oder weil Keppler länger hält als gedacht.

Wie liest sich z.B.?

GK204
Die Size ~ 360 mm²
320Bit
10SMX 1920 SP a 5GPC
144 TMU
40 ROPs
enhanced cache + scheduling
950Mhz base
Boost up to 1100 mhz
TDP 220W

Duplex
2013-08-26, 12:32:37
Fakt ist nach den anfänglichen schwierigkeiten nach dem ATI Kauf geht es mit AMD/ATI immer weiter bergauf

Seit Anfang 2012 hat AMD 1,5 Milliarden Verlust gemacht, das geht komplett in die falsche Richtung, es wird nicht besser.

Wenn Nvidia jetzt nichts gegen AMDs bevorstehendes release entgegenzusetzen hat wird das sicher nicht gut werden für Nvidia
Ihr tut ja so als ob AMD ein Meilenstein bringen wird :rolleyes:
Damit es klar ist, Nvidia ist viel größer als AMD, Nvidia hat die besseren Produkte, Nvidia kann sofort nachlegen!


Schon garnicht im Zuge der Konsolen Convergence bei AMD
Dafür schrumpft bei AMD der Mobile & Server Markt sehr gewaltig!

Skysnake
2013-08-26, 12:39:05
Wenn man einen Chip storniert dann macht man das sicher nicht ohne guten Grund. Womöglich ist der Chip einfach nicht rechtzeitig fertig geworden, hatte schwerwiegende Bugs oder hat aus anderen Gründen die Erwartungen nicht erfüllt. NVs execution kommt mir ohnehin relativ chaotisch vor. Nach dem Fermi Chaos und den stornierten 32nm Chips jetzt schon wieder ein stornierter Maxwell. Bei AMD läuft das seit R600 wie ein Schweizer Uhrwerk.
Pfft...

Da wäre ich aber GANZ vorsichtig ohne konkretes Insiderwissen bzgl der Firma, und das werden nur Mitarbeiter haben, die konkret an den jeweiligen Projekten arbeiten....

WIR! sehen eigentlich einen scheisdreck davon was in den Firmen abgeht, und mit welchen Problemen die sich rum zu schlagen haben...

maximus_hertus
2013-08-26, 12:42:12
Fakt ist nach den anfänglichen schwierigkeiten nach dem ATI Kauf geht es mit AMD/ATI immer weiter bergauf

Wenn Nvidia jetzt nichts gegen AMDs bevorstehendes release entgegenzusetzen hat wird das sicher nicht gut werden für Nvidia auf dem Desktop und man hat fast ein kompletes release cycle für Tegra geopfert da muss man schon gute Gründe für haben würde ich mal sagen.
Schon garnicht im Zuge der Konsolen Convergence bei AMD

Na ja, falls Hawaii nicht am Titan vorbei kommt, muss nV gar nichts machen. Falls es stimmt, dass Hawaii "nur" zwischen GTX 780 und Titan raus kommt und dann 549-599 $/€ kosten soll, wird es seitens nV keiner Reaktion bedürfen. AMD muss entweder deutlich (20%+) schneller (bei gleichem Preis) oder deutlich günstiger bei gleicher LEistung sein, ansonsten sind sie bei den Verkäufen chancenlos gegen nV. Siehe 7970 vs GTX 680, trotz 3 monatigem Vorsprung konnte nV spielend vorbeiziehen (Marktanteile).

Falls eine neue 400W+ Dual-Radeon die Titan schlägt (Balken), dann kann nV immer noch eine Dual-GK110 Karte rausbringen (und das nächte Stretch Goal auspropieren, 1499 $/€ anyone). Die Titan wird dann zur "Billigware" aka 749-799 $/€ ^^

Ailuros
2013-08-26, 13:16:23
Sondern?

Wenn Maxwell 28nm storniert wurde dann hoechstwahrscheinlich weil sie die resourcen wo anders brauchen. Daemliche Frage: wieso braucht NV mir nichts Dir nichts ein quasi Referenz-tablet fuer Logan so frueh wenn der SoC so gut ist wie sie selber behaupten?

Was wurde denn bei AMD in letzter Zeit storniert?

Ich hab mir nur eingebildet dass anfangs eine 7990 nie von AMD vorgestellt wurde, dass AMD ihre jeglichen H1 2013 Projekte nicht realisiert hat und jetzt nach Hawaii hoechstwahrscheinlich mit nichts Neuem vor H2 2014 kommt oder?

Jetzt versuch mir bloss nicht weiss zu machen dass in der finanziellen Situation AMD seit einiger Zeit ist, sie nirgends und nie um einiges konservativer behandelt haben. In dem Fall aendern sich selbstverstaendlich auch roadmaps und das nicht nur bei einem IHV.

Na ja, falls Hawaii nicht am Titan vorbei kommt, muss nV gar nichts machen. Falls es stimmt, dass Hawaii "nur" zwischen GTX 780 und Titan raus kommt und dann 549-599 $/€ kosten soll, wird es seitens nV keiner Reaktion bedürfen. AMD muss entweder deutlich (20%+) schneller (bei gleichem Preis) oder deutlich günstiger bei gleicher LEistung sein, ansonsten sind sie bei den Verkäufen chancenlos gegen nV. Siehe 7970 vs GTX 680, trotz 3 monatigem Vorsprung konnte nV spielend vorbeiziehen (Marktanteile).

Falls eine neue 400W+ Dual-Radeon die Titan schlägt (Balken), dann kann nV immer noch eine Dual-GK110 Karte rausbringen (und das nächte Stretch Goal auspropieren, 1499 $/€ anyone). Die Titan wird dann zur "Billigware" aka 749-799 $/€ ^^

Der Unterschied zwischen Titan und 780 ist so laecherlich klein dass man nichts anderes braucht als ein benchmark parcour so anzupassen dass man Hawaii entweder dazwischen bekommt oder ueber Titan. Die Haarspalterei ist nicht der Rede wert.

Mancko
2013-08-26, 19:20:31
Der Unterschied zwischen Titan und 780 ist so laecherlich klein dass man nichts anderes braucht als ein benchmark parcour so anzupassen dass man Hawaii entweder dazwischen bekommt oder ueber Titan. Die Haarspalterei ist nicht der Rede wert.

Naja dazu muss man aber auch sagen, dass Nvidia bei Titan doch sehr konservativ herangegangen ist. Mal ganz abgesehen von dem deaktivierten Block ist da noch ordentlich Luft in Bezug auf Taktrate.
Ich gehe jetzt nicht davon aus, dass AMD hier das große Effizienzwunder bringt. Bisher hat darauf nichts hingedeutet. Insofern kann Nvidia die Max. Leistungsaufnahme auch nochmal ordentlich nach oben schieben ohne einen neuen Chip oder ein neues Stepping zu bringen.

Ansonsten stimme ich mit Dir aber überein, dass bei AMD die Vergangenheit nun alles andere als wie geschmiert gelaufen ist. Wäre dort alles so toll gelaufen hätten die Zahlen anders ausgehen. Defakto hat Nvidia AMD ordentlich Add-In Marktanteile abgenommen und dabei sogar noch die eigenen ASPs / Margen optimiert. Würde man den Marktanteil der Add-In Karten nach der viel interessanteren Kennzahl "Revenue Share" auswerten, dann wird sehr schnell deutlich, das bei AMD die letzten Jahre alles andere als optimal waren. Ansonsten hätten sie andere Ergebnisse vorzuweisen gehabt und auch nicht diese irrwitzigen Spielebundle Aktionen benötigt. Das sind letztlich verkaufsfördernde Maßnahmen. Die macht man aber nur in dem Ausmaß wenn man unbedingt muss und die Zahlen haben ganz klar belegt, dass AMD "musste" ansonsten wäre es noch bitterer ausgegangen. Von geschmiert ist das meilenweit weg.

Skysnake
2013-08-26, 19:27:14
nVidia kann maximal 225W abgreifen, und das ist im HPC schicht im Schacht. AMD hat da mit der S10000 nen bischen nen Griff ins Klo gemacht meiner Meinung nach. Die 300W vergraulen doch so manchen, auch wenn die Karte für manche Einsatzbereiche echt hammer interessant ist.

nVidia kann da also auch nicht mehr sooo viel drehen bzgl der Leistung

Dural
2013-08-26, 19:44:35
und was hat HPC / Tesla genau mit einer Desktop Karte zu tun?

NV könnte jeder zeit eine Desktop Karte auf den Markt mit Titan + 20% unter 300Watt bringen.

Skysnake
2013-08-26, 19:51:44
Wo bezog sich Gipsel auf Desktop?

ndrs
2013-08-26, 20:28:44
Wo bezogst du dich auf Gipsel? :D
Dein Beitrag kam direkt nach
Naja dazu muss man aber auch sagen, dass Nvidia bei Titan doch sehr konservativ herangegangen ist. Mal ganz abgesehen von dem deaktivierten Block ist da noch ordentlich Luft in Bezug auf Taktrate.
[...]Insofern kann Nvidia die Max. Leistungsaufnahme auch nochmal ordentlich nach oben schieben

da kannst du keinem verübeln, dass es einen anderen Anschein macht.

boxleitnerb
2013-08-26, 21:02:23
nVidia kann maximal 225W abgreifen, und das ist im HPC schicht im Schacht. AMD hat da mit der S10000 nen bischen nen Griff ins Klo gemacht meiner Meinung nach. Die 300W vergraulen doch so manchen, auch wenn die Karte für manche Einsatzbereiche echt hammer interessant ist.

nVidia kann da also auch nicht mehr sooo viel drehen bzgl der Leistung

K6000? 1.73 TF DP ist schon ordentlich ggü. den 1.3 der K20X. K30 wird wohl ähnliche Specs haben wie die K6000.

Mancko
2013-08-26, 22:12:07
nVidia kann maximal 225W abgreifen, und das ist im HPC schicht im Schacht. AMD hat da mit der S10000 nen bischen nen Griff ins Klo gemacht meiner Meinung nach. Die 300W vergraulen doch so manchen, auch wenn die Karte für manche Einsatzbereiche echt hammer interessant ist.

nVidia kann da also auch nicht mehr sooo viel drehen bzgl der Leistung

Meine Antwort bezog sich auf AIL (Titan vs 780) und somit ganz klar Desktop. Von HPC habe ich gar nicht gesprochen. Wenn Du schon antwortest dann bitte im richtigen Zusammenhang. Bei Desktop hat Nvidia noch genügend Luft. So ein Megaeffizienzwunder wird AMD wohl nicht launchen und die Fertigungsgrenzen sind für beide gleich.

-/\-CruNcher-/\-
2013-08-26, 23:36:00
Meine Antwort bezog sich auf AIL (Titan vs 780) und somit ganz klar Desktop. Von HPC habe ich gar nicht gesprochen. Wenn Du schon antwortest dann bitte im richtigen Zusammenhang. Bei Desktop hat Nvidia noch genügend Luft. So ein Megaeffizienzwunder wird AMD wohl nicht launchen und die Fertigungsgrenzen sind für beide gleich.

Mann kann den Entwicklungstand der HPC Performance schon auf den Desktop übertragen natürlich gibt es verschiedene Anwendungsgebiete aber wir sehen ja das Compute immer wichtiger wird und hier ist ATI/AMD nicht schlecht aufgestellt und ich bin mir zu 99% sicher Hawai wird in Compute Nvidia wieder einmal wegdonnern für Otto normal Consumer :)
Compute wird heftigst auf den neuen Konsolen eingesetzt es währe echt verwunderlich wenn AMD diesen Schritt nicht auch auf dem Desktop pushen würde und da hat Nvidia momentan keine chance

die neue CryEngine z.b zeigt ja schon die Anpassungen sehr Deutlich auch Engines wie Ignite und Frostbite :)

Nvidias fortlaufende eigene API pusherei und Optimierung könnte ihnen langsam zum Verhängniss werden

Sony wollten es nicht Microsoft ebensowenig bei Microsoft ist es klar ich hohl mir sicher nicht Cuda ins Haus wenn ich mein eigenes süppchen koche :)

Zum schluss wird Nvidia mit ihrem ARM GPU Soc ansatz vielleicht vor AMD stehen wir wissen es noch nicht aber Nvidia schadet sich auf dem momentanen x86 Desktop durch diese doch schon enorme resourcen Verschiebung, das steht fest. Sie waren ja quasi den Gamern (der Zeilgruppe hier) verpflichtet sich zumindestens einen Deal zu sichern sie schaften nichtmal das mehr :(