PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Moore's law noch gueltig?


Milton
2012-05-03, 18:44:23
Hi,

Dies mag schon diskutiert worden sein, aber da ich gerade von einem Core2Quad Q6600 aufrueste: Kann es sein, dass durch den mangelnden Wettbewerb Moore's law nicht mehr wirklich gueltig ist?

Der Q6600 wurde im Januar 2007 released. Seither sind also 65 Monate vergangen. Wenn man als Verdopplungszeit fuer Moore's law von 18 Monaten ausgeht, sind das (65/18)=3.6 Verdopplungen. D.h. jetzige CPUs muessten 2^3.6=12 mal so schnell sein. Jedoch sehe ich weit und breit keine 12mal so schnellen CPUs. Noch nicht mal 8x. Die fixesten 8-Kerner von Intel duerften Pi mal Daumen 4-5 mal so schnell wie der Q6600 sein.

Also war der Q6600 ein Ausreisser nach oben? Oder hab ich mich verrechnet? Oder ist, wie ich glaube, Moore's law am Ende und es geht lineares Wachstum zu?

Moegliche Gruende fuer meine Hypothese waeren:
1) Wie erwaehnt der Mangel an Konkurrenz
2) Das Erreichen von physikalischen Grenzen bei der Miniaturisierung
3) Verwandt mit (2): Exponentiell steigende Kosten bei weiterer Miniaturisierung, i.e. jeder neuer Fertigungsprozess wird von den Instrumentenkosten her teurer als der Vorgaenger.
4) Mangelnde Nachfrage nach mehr Leistung, Trend zu mobilen Geraeten und vernetzten CPUs fuer Cluster.

Cheers,

Milton

Drill
2012-05-03, 19:05:31
geht es bei moore's law nicht um komplexität integrierter schaltkreise, also anzahl der transistoren auf gleicher chipfläche?

PatkIllA
2012-05-03, 19:12:31
geht es bei moore's law nicht um komplexität integrierter schaltkreise, also anzahl der transistoren auf gleicher chipfläche?
Eigentlich schon.
Mann könnte ja auch heute schon einfachere Kerne bauen und davon dann mehr nehmen. Das skaliert nur leider mit den wenigsten Anwendungen und bei denen wo es klappt kann man in vielen Fällen auch gleich GPU Computing machen.
Früher hat sich ja der Takt und die IPC gesteigert. Beides stagniert weitesgehend und man hat mehr Kerne.

Skysnake
2012-05-03, 19:27:22
Juo, Moore bezieht sich auf die Anzahl der Transistoren, bzw. die Transistordichte.

Die ganzen anderen Sachen sind davon nur abgeleitet, wobei die Verdoppelung der Leistung alle 18 Monate schon länger nicht gilt. Da eher 24 Monate nehmen.

AnarchX
2012-05-03, 20:15:58
Wenn man Moores Law bei den CPUs folgen will muss man schon auf ein Multi-Sockel-System setzen.

Mit 2,27 Mrd. Transistoren (SNB-E) hat sich der Transistorcount knapp vervierfacht gegenüber Kentsfield (2*293 Mio), wobei bei letzterem die externe Northbridge noch eingerechnet werden müsste und so der Zuwachs weiter sinkt. Zudem ist die Die-Size von Sandy Bridge-E ein gutes Stück größer.

FeuerHoden
2012-05-03, 20:30:06
Das Gesetz gilt, nur die Architektur scheint am Ende, bei allem was nicht x86 ist gehts munter weiter, außer GPUs.

xxMuahdibxx
2012-05-03, 20:48:07
Man kann es nicht verlgeichen mit den heutigen Prozessoren .

Er kannte damals nur Einkern Prozzis und hat dafür eine These aufgestellt . Heutzutage wird viel mehr in die CPU Integriert was immer unterschiedlichere Dichten zur Folge hat .

Coda
2012-05-03, 23:16:46
Moore's Law hatte noch nie etwas mit der Performance zu tun.

Milton
2012-05-03, 23:56:19
Hm, na gut, hatte auch immer auf die Leistung geschlossen. Der aktuellste Graph, den ich gefunden habe, ist dieser hier:

http://www.cidde.pitt.edu/sites/default/files/Figure3-wikimedia-commons-Transistor_Count_and_Moore%27s_Law-2008_0.jpg
http://www.cidde.pitt.edu/blog/changing-technology

Da sieht man schon, dass der Core2Quad DEUTLICH (man beachte die logarithmische Skala) ueber der Regressionsgeraden liegt. Vielleicht erklaert das auch zum Teil die meiner Meinung nach langsame Weiterentwicklung seither.

kevsti
2012-05-04, 06:01:38
Naja laut Wikipedia hat der Q6600 (Kentsfield) "Die-Größe: zweimal 143 mm² bei jeweils 291 Millionen Transistoren" bei aktuellsten Ivy Bridge sind es laut Wiki: "Die-Größe: 160 mm² bei 1,4 Milliarden Transistoren (inkl. iGPU und integr. Northbridge)".

In sofern hast du schon recht - grob gepeilt ist das nur etwas mehr als die doppelte Komplexität (wobei bei der neuen CPU ja auch ne GPU und die NB mit integriert ist und daher nur bedingt gezählt werden sollte - wobei Moore's Law sich ja auf den Chip bezieht - und es immer noch nur "ein" Chip, wenn auch nicht mehr mit nur "einer" Aufgabe).

Man könnte jetzt natürlich auch sagen dass es beim Q660 noch 2 einzelne DIEs war und somit eben 2 Chips...

Shink
2012-05-04, 08:27:17
Wer einen Performancevorsprung der neuen Generationen messen will, der mit Moore's Law eher korreliert, sollte OpenCL oder gar Quick Sync verwenden:
http://www.xbitlabs.com/articles/graphics/display/intel-hd-graphics-2000-3000_9.html#sect0

Die GPU nimmt ja gar nicht mal so wenig Platz ein und hat auch jede Menge Rohleistung.

Coda
2012-05-04, 10:58:54
Performance von Fixed-Function-Hardware für Moore's Law auslegen :up:

Shink
2012-05-04, 11:33:37
Performance von Fixed-Function-Hardware für Moore's Law auslegen :up:
Wie schon erwähnt: Performance ist ohnehin kein Inhalt von Moore's Law, von dem her.:freak:
Den Miteinbezug der Fixed-Function-Hardware hab ich erwähnt, weil man so sieht, wo die Transistoren hinkommen und dass das auch für die Performance interessant ist.
Davon abgesehen: Ja, ich weiß.

Palpatin
2012-05-04, 12:22:18
Die GPU nimmt ja gar nicht mal so wenig Platz ein und hat auch jede Menge Rohleistung.
Wobei hier Trinity vermutlich mit allen anderen CPUs den Boden aufwischen wird mit 800 GFLOPs.

Botcruscher
2012-05-04, 17:29:42
Wikipedia hat übrigens eine aktualisierte Grafik.
http://upload.wikimedia.org/wikipedia/commons/thumb/0/00/Transistor_Count_and_Moore%27s_Law_-_2011.svg/667px-Transistor_Count_and_Moore%27s_Law_-_2011.svg.png

Trotz der Schwäche von AMD beeindruckend. Wäre AMD stärker, hätten wir schon alle 6-Kerner.

Spasstiger
2012-05-05, 09:35:11
Der Virtex-7 von Xilinx hat übrigens schon 6,8 Mrd. Transistoren, wobei das nur dank mehrerer Dies und Stacked Silicon Interconnects (über 10.000 Stück) erreicht wurde. Der Chip verhält ähnlich wie ein monolithisches Die, wodurch man Moore's Law imo durchaus anwenden darf.

Wobei hier Trinity vermutlich mit allen anderen CPUs den Boden aufwischen wird mit 800 GFLOPs.
Nur bei einfacher Präzision. Und die Komplexität ist mit 1,3 Mrd. Transistoren sogar etwas geringer als bei Ivy Bridge (1,4 Mrd). Bei den meisten klassischen CPU-Workloads zieht ein Ivy Bridge im Vollausbau einem Trinity auch weit davon.
Bei einfacher Präzision kommt ein Ivy Bridge kombiniert übrigens auch schon auf ~500 GFlops. Und das obwohl Intel anders als AMD keine Ambitionen in Richtung einer "Application Processing Unit" hat. Intel will einfach nur nicht IGP-seitig abgehängt werden, um die bestehenden Marktanteile zu sichern. Und beim Videoencoding, wo sich AMD mit seinen APUs gerne vorne sehen würde, hat Intel mit Quick Sync die Nase fast eine ganze Größenordnung vorn. Ivy Bridge hat dort die Messlatte nochmal ein ganzes Stück höher gelegt.

Eigentlich ist es mit Moore's Law ganz einfach: Solange es im Mittel alle 2 Jahre einen Half-Node-Schritt (also von Full-Node zu Half-Node oder umgekehert) bei den verfügbaren Fertigungsprozessen gibt und die Kosten pro Transistor sinken, hat das "Gesetz" Bestand.

schreiber
2012-05-13, 22:57:10
http://www.xbitlabs.com/news/other/display/20120513115821_Intel_Begins_Work_on_7nm_5nm_Process_Technologies.html
10, 7 und 5nm in Arbeit für die nächsten Jahre.

neustadt
2012-05-15, 00:19:02
In 10 Jahren ist Schluss, sagt Michio Kaku: http://www.youtube.com/watch?feature=player_embedded&v=bm6ScvNygUU
Schade, dass er nicht auf Memristoren eingeht. Sind diese nicht auch als CPU-Ersatz geeignet? Takten zwar nicht so schnell, aber bieten dafür eine analoge Anzahl an Zuständen. Wer braucht da noch Quantencomputer.

Skysnake
2012-05-15, 07:08:11
Memristor usw usw. können SRAM nicht in jeder beziehung ersetzen. Das sind nur Dinge, die du zusätzlich dazu packen wirst, um im Zusammenspiel die optimale Effizienz zu erreichen.

neustadt
2012-05-15, 18:55:36
Ich dachte im Sinne von Logiktransistoren ersetzten, nicht Cache.

Skysnake
2012-05-15, 19:18:19
Der größte Vorteil von Memristor ist aber, das er nicht volatil ist.

Dass er einen beliebigen Widerstand haben kann ist zwar nett, und für die analoge Signalverarbeitung auch durchaus zu gebrauchen, aber da kannste dich dann von so komplexen Sachen wie ner ganzen CPU und eben auch den Taktraten verabschieden.

Ganz zu schweigen, dass du dir auch überlegen musst, wie du C/C++/Java Code usw. darauf zum laufen bekommst, wobei das sicherlich das kleinste Problem ist.

Deutlich schwieriger ist da die Signalqualität/Genauigkeit in der Massenproduktion. Das Ding wird wohl kaum mehr als 2 Zustände haben, lass es vielleicht 3 oder 4 sein.

Da ist die Tatsache, dass du den Strom einfach abstellen kannst VIEL interessanter.

neustadt
2012-05-16, 15:58:05
Ich glaube ich bin etwas OT unterwegs. Mir ging es nicht um die direkte Zeit nach Moore, (10 Jahre) sondern um die nächsten 20/30 Jahre. Wenn heute zum Teil Quantencomputing als theoretische Form der Zukunft besprochen wird, dann sollten doch Memristor basierte CPUs ebenfalls zur Diskussion stehen.

Ich war der Ansicht, dass durch einen dritten Zustand bei Memristoren Quantencomputer quasi obsolete werden oder zumindest eine starke Konkurrenz bekommen werden. Dass dies ein komplett neues Hardware/Software Zeitalter einleiten würde ist klar.

Um vllt zurück zum Topic zu kommen. Sollten Memristoren in die aktuelle Cache Technik (SRAM) Einzug erhalten, hätten sie wohl das Potential Moore wohl weiterhin gültig bleiben zu lassen.

Spasstiger
2012-05-16, 17:57:36
Wie soll mehrwertige Logik die Quantenrechner überflüssig machen? Du würdest mit mehrwertiger Logik doch genauso rechnen wie jetzt, nur dass man breitere Operanden mit der gleichen Anzahl an Logikzellen verarbeiten kann.

neustadt
2012-05-18, 17:42:39
Ich dachte dass man bei mehrwertiger Logik auch andere Rechenansätze verfolgt, bzw. zumindest verfolgen könnte, und hierdurch ganz andere Recheneinheiten (Addier-, Multiplizier-, etc) möglich wären die deutlich effizienter sind.
Auf die Schnelle habe ich aber nur Anwendungen mehrwertiger Logiken gefunden, welche Probleme mit Ungenauigkeiten lösen zu vermögen. Modellierung von Sprache oder Unbestimmtheit in der Mathematik.
Dass Quantenrechner bestimmte Probleme durch ausnutzen quantenmechanischer Effekte so effizient lösen können war mir garnicht so bewusst. (Obwohl das beim Namen ja eigentlich nahe liegt) Dachte wie gesagt dass das in der Mehrwertigkeit begründet liegt. Danke für den Hinweis.