Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Erster Test des Core i7-7700K zeigt ~5% Performancegewinn und eine ...
Leonidas
2016-11-30, 13:07:00
Link zur News:
https://www.3dcenter.org/news/erster-test-des-core-i7-7700k-zeigt-5-performancegewinn-und-eine-durchschnittliche-overclocking
Thomas Gräf
2016-11-30, 16:12:55
Interessanter Artikel. Tja leichter kann AMD es nicht mehr bekommen. Nun heißt es endlich mal wieder zubeißen AMD.
G3cko
2016-11-30, 17:23:04
Der eigentlich Witz ist ja, dass Intel die Dinger als OC-Wunder vermarktet. Klar ist der Takt absolut gesehen am höchsten, aber die CPU selbst ist ja bereits an der Kotzgrenze. Für 300MHz soll ich nun Instabilität, Ärger, Garantieverlust und Aufpreis für das k-Suffix in Kauf nehmen? Das sind ja gerade einmal 6% über dem Boost Takt. Bzw 12% über BaseClock.
Das ist praktisch nichts im Vergleich zu Pentium D805, E6600, Q6600, i7930, oder 5960x. Da waren fast immer 50% OC drin! So wenig OC merkt man ja nicht einmal. Sowas fällt ja praktisch schon in die Kategorie Messungenauigkeit...
Und das bei 1.3V und 82°C auf dem Tacho. Selbst @ Stock wird die CPU bereits 76°C heiß!
Wir führten dieses OC-Experiment zudem bei 15 °C Raumtemperatur durch, was nur den wenigsten Lesern möglich sein dürfte. Eine große Wasserkühlung könnte beim Erreichen höherer Taktraten helfen, aber da die Heatpipes des Kühlers kaum warm werden, ist es durchaus möglich, dass 4,8 GHz bei diesem Sample das Maximum darstellen – ganz egal welche Kühllösung man nutzt. Trotzdem: Die Tatsache, dass der Prozessor ohne spezielle Kühlung 4,8 GHz schafft, ist beeindruckend.
Was ist daran beeindruckend? Die CPU ist an der Kotzgrenze bereits @ Stock. Man muss das Ding also aufwendig köpfen mit 100% Garantieverlust. Die Enthusiasten hat man ohnehin zu Sockel 2011 getrieben. Die es sich nicht leisten können/wollen speißt man mit 5% Performance-Bumps ab. Bei gleichzeitig immer größer werdenden Margen (weiterhin QuadCores bei immer weniger Chipfläche) werden die Dinge auch nicht einmal verlötet. Richtige OC Kracher sind das.
MD_Enigma
2016-11-30, 17:26:32
Leicht ist es nicht! Der Takt von 4.2 GHz ist schon ne Ansage und da muss man erst mal ran, ohne dass der Stromverbrauch explodiert.
Bei meinem Broadwell sieht man das sehr schön:
3.6 GHz @ 1,056V = 48W
4.0 GHz @ 1,190V = 66W (~+40%)
4.2 GHz @ 1,281V = 72W (~+50%)
Wenn AMD das nicht im Griff hat, kommen die nicht an die hohen Frequenzen die notwendig wären.
@Gecko: Ja so kann mans auch formulieren! Seit Broadwell hat sichs nicht gebessert, sie pressen halt nur das Maximale aus dem DIE raus ;)
Nightspider
2016-11-30, 17:30:29
Die 300Mhz mehr werden das sein, was die Kerne an Abwärme durch den verbesserten Prozess eingespart haben. Für noch höhere Taktraten würde der CPU bei der billigem WLP unterm HS einfach zu warm werden.
Ums Köpfen wird man leider kaum herumkommen wenn man die 5Ghz knacken will.
Interessanter wird ob der Prozess (merklich) höhere Taktraten bei geköpften CPUs mit guter Kühlung erlaubt.
OBrian
2016-11-30, 19:26:33
Das sieht wirklich so aus, als hätte Intel langsam mal wirklich alles ausgereizt, was geht. Für Leistungssteigerungen bleibt nun wohl wirklich nichts anderes übrig als mehr Cores. Wird auch Zeit, daß sie nun mal endlich in die Breite gehen und wenigstens den "armen" Leuten ein paar mehr als nur zwei Cores zugestehen. Die notorisch hinterherhinkende Softwarelandschaft kann ja inzwischen auch was damit anfangen.
Ansonsten muß dann mal eine radikal andere Architektur her, wenn aus einem Kern noch mehr Leistung geholt werden soll.
MrSpadge
2016-11-30, 21:48:48
Der eigentlich Witz ist ja, dass Intel die Dinger als OC-Wunder vermarktet.
Aha. Wo tun sie das denn? Ich hab bisher in Ankündigungen die Angabe "200 - 300 MHz mehr als Skylake" gesehen.
Oder meinst du das "K" damit? Das meint doch nur "fährt von Haus aus nahe am Vollgas und erlaubt dir so viel das Silizium hergibt". Ob das 5 oder 50% Übertaktung sind ist dabei vollkommen wurscht. Klar könnten sie locker ein K-Modell mit 50% Spielraum anbieten.. das müsste dann aber mit ~3 GHz starten, ähnlich den von dir aufgezählten Modellen. Und würde Niemandem helfen.
Für 300MHz soll ich nun Instabilität, Ärger, Garantieverlust und Aufpreis für das k-Suffix in Kauf nehmen?
Wer sagt denn sowas? Wenn du nicht übertakten und den entsprechenden Preis bezahlen willst, dann tu's halt nicht! Kauf ruhig den i7 ohne K und verzichte auf die 6% Übertaktung. Und die ca. 18% mehr Basistakt, welche das K-Modell noch mitbringt.
Die Tatsache, dass der Prozessor ohne spezielle Kühlung 4,8 GHz schafft, ist beeindruckend.Man muss das Ding also aufwendig köpfen mit 100% Garantieverlust.
"Ohne spezielle Kühlung" heißt für dich "muss man aufwendig köpfen"? *kopfschüttel* Mit dem gleichen Argument könnte man meckern, was dieser Sandy Bridge für ne Schei*-CPU war - immerhin musste man ihn extrem aufwendig mit flüssigem Stickstoff kühlen, um ihn voll auszureizen!
Bei gleichzeitig immer größer werdenden Margen (weiterhin QuadCores bei immer weniger Chipfläche)
Vergiss nicht, dass die Chipfläche und Entwicklung in den modernen Prozessen immer teurer wird. Intels Gewinnmarge liegt in den letzten Jahren bei ca. 60% +/- 1%, wie in den vierteljährlichen Finanzberichten auch hier auf 3DC zu lesen ist. Ein leichter Aufwärtstrend ist da, aber nicht im Ansatz eine Ausbeutung wie du sie hier zu unterstellen scheinst.
Also mal ehrlich: man muss die CPU ja nicht in den Himmel loben (Tip: nicht mal Intel tut das). Aber was du hier von dir gibst ist... alles andere als ein sachdienlicher Kommentar.
MrS
ChaosTM
2016-11-30, 22:07:37
Gähn - Intels Launches werden von Jahr zu Jahr langweiliger. Seit 5 Jahren hat sich nichts wesentliches mehr getan.
Vielleicht kann Zen wieder etwas Bewegung ins Spiel bringen.
blinki
2016-12-01, 00:24:17
Die interessanteste Frage von allen ist doch eigentlich: Was kann denn einen Prozzi weiter beschleunigen?
Das Core-Design ist ausgereizt, wie es der Pentium D damals war...
Allerdings steckt in den Prozessoren mittlerweile alles drin, was die IT-Köpfe sich in den Dekaden davor ausgedacht haben, von dem ich weiß.
Microop-Fusion, Macroop-Disambiguation, Snoop-Filter, Loop-Detection.
Die Klassiker Superskalar, Out-of Order, Sprungvorhersage, Spekulative Speicherzugriffe sind auch längst eingepreist.
Wenn man das Prozessorgeflüster auf #ct verfolgt ist der Herr Stiller auch recht still. Nimmt man das als Quelle werden seit Broadwell nur noch Queues hin und hergeschoben. Hier ein paar Einträge mehr, dafür da etwas reduziert(angepasst).
Ein neues Design muss etwas bieten, das den Ingenieuren schon immer klar war, und Otto-Normal-Ich übersieht. Oder da kommt nichts. Oder Sie haben da etwas wie VISC längst aufgekauft und weiterentwickelt oder selbst etwas gleichwertiges in der Pipeline (geht ja nur um Patente, Patente, Patente).
Irgendwelche neurosachen sind doch auch schon längst drin (Bei AMD läuft die Sprungvorhersage als Perceptron- laut P3DNow)- Jedenfalls sind da keine weiteren Wunder zu erwarten.
Als Option würde ich noch ein asynchrones Design möglich halten, mit einem dezidierten Hochtakt-Part und einer Mischung aus kleinen, großen, leistungsfähigen und sparsamen Kernen (was nicht dasselbe sein muss)
Hat wer eine Glaskugel?
Eine Antwort wie: Ich weiß es aber sag es nicht ist auch eine Antwort.
OK-Ich präzisiere: Was kann einen Desktop-Prozzi weiter beschleunigen?
Daredevil
2016-12-01, 01:17:56
Die Frage ist doch, brauchen wir soviel Leistung?
Also, versteh mich nicht falsch. Ich liebe Leistung und bin auch hin und weg, wenn es um Fortschritt geht.
Aber das was Intel macht, ist einen Prozessor jedes mal und immer wieder zu verbessern, aber weil da nicht jedes mal +50% rumkommen, wird es oft verteufelt.
Intel macht Vorsprünge, jedes mal. Nur sieht Intel einfach wahrscheinlich nicht die Notwendigkeit, mehr rauszuhauen als nötig.
Das sieht man doch jedes mal an den riesen OC Ergebnissen, wieviel Luft da nach oben ist.
Schau mal her.
Ein Intel Core i7-6700K, 4x 4.00GHZ hat eine TPD von 91W
Ein AMD FX-9590, 8x 4.70GHz hat eine TPD von 220W
Wer schneller und technisch weiter ist, weiß ja jeder.
Nur wenn AMD die Eier hat, so einen Prozessor zu Releasen mit dieser Unverschämten TPD ( Mal davon ab, dass das ein totaler Reinfall war von AMD ), könnte Intel das auch. Genauso wie beim Pentium 4!
Und da hätte man dann einen riesen Sprung, wenn brachial Leistung auf der Straße gelegt wird. :)
Nur muss man Intel erstmal in diese Position bringen, dass sie eben solche Maßnahmen ergreifen und wer weiß, was Intel noch so in der Hinterhand hat.
Zudem kann Intel ja nicht nur in die Höhe gehen ( Takt ), sondern auch in die breite ( Kerne ).
Also kurzfristig ist da wohl relativ viel Leistung, die noch offen gelegt werden kann.
Korvaun
2016-12-01, 07:46:25
Eins ist für mich klar: Da geht nicht mehr viel, sowohl was Leistung pro Core betrifft, also auch Herstellungsprozess allgemein.
Ivy/Broadwell/Skylake/KabyLake/etc. sind so gut wie gleich schnell im täglichen Einsatz. Takt scheint bei 4,5-5GHz auch am Ende zu sein. 10/7/5nm Herstellung wird wohl überwiegend nur zur Verringerung des Stromverbrauchs gut sein. Alle damit verbundenen Vorteile sind für Desktop-Anwender fast nutzlos.
8 Kerne werden noch ganz nett sein, aber danach? 16/32/64 Kerne? Wer brauchts als Normal-Anwender? Welche Software kann wirklich was damit anfangen?
Anfang der 2020er sind wir mit den aktuellen Techniken wohl am Ende. Dann *muss* was wirklich neues kommen, zumindest wenn Intel/AMD/ARM/Samsung/etc. noch neue Prozzies in Massen verkaufen wollen...
Grafikspachtel
2016-12-01, 08:58:56
Interessant, wenn ich mal die Broadwellzahlen nehme:
3.6 GHz = 48W 100% Performance = 100% Power (~13.3W/GHz)
4.0 GHz = 66W 111% Performance = 138% Power (~16.5W/GHz)
4.2 GHz = 72W 116% Performance = 150% Power (~17.1W/GHz)
Man merkt: Schon bei 4.0 GHz ist Schluss mit lustig - alles, was darüber liegt ist nicht mehr feierlich.
Ich habe hier einen Kaveri - bei dem ist auch bei 4.2GHz Feierabend, da ich gleichzeitig weniger Strom verbrauchen will und undervolte.
Kaveri hängt bei 28nm fest, hat aber auch nicht so viele Kerne wie Zen oder Broadwell...
Wenn Zen ~3.7-4.0GHz schafft und die IPC stimmt, weiß ich was Anfang 2017 gekauft wird.
Zudem kann Intel ja nicht nur in die Höhe gehen ( Takt ),
Eben nicht. Sie stehen mit dem Rücken zur Wand. 5.0GHz Standardtakt werden nicht passieren.
sondern auch in die breite ( Kerne ).
Auch da haben sie sich in eine Sackgasse manövriert.
Der Löwenanteil jeder Intel-CPU ist schon lange nicht mehr die eigentliche CPU, sondern die Grafik (IGP).
Zen hat keine Grafik und kann daher mit mehr Kernen punkten, die uns Intel so lange vorenthalten hat.
Wenn die Zens dann auch noch alle unlocked sind (dafür darf man bei Intel extra drauflegen) und durch die Bank weg SMT mitbringen (auch dafür darf man bei Intel extra drauflegen), fällt die Wahl nicht mehr sooo schwer, oder?
AMD muss jetzt was passables liefern - warten wir's ab.
Godmode
2016-12-01, 09:38:47
Die interessanteste Frage von allen ist doch eigentlich: Was kann denn einen Prozzi weiter beschleunigen?
Das Core-Design ist ausgereizt, wie es der Pentium D damals war...
Allerdings steckt in den Prozessoren mittlerweile alles drin, was die IT-Köpfe sich in den Dekaden davor ausgedacht haben, von dem ich weiß.
Microop-Fusion, Macroop-Disambiguation, Snoop-Filter, Loop-Detection.
Die Klassiker Superskalar, Out-of Order, Sprungvorhersage, Spekulative Speicherzugriffe sind auch längst eingepreist.
Wenn man das Prozessorgeflüster auf #ct verfolgt ist der Herr Stiller auch recht still. Nimmt man das als Quelle werden seit Broadwell nur noch Queues hin und hergeschoben. Hier ein paar Einträge mehr, dafür da etwas reduziert(angepasst).
Ein neues Design muss etwas bieten, das den Ingenieuren schon immer klar war, und Otto-Normal-Ich übersieht. Oder da kommt nichts. Oder Sie haben da etwas wie VISC längst aufgekauft und weiterentwickelt oder selbst etwas gleichwertiges in der Pipeline (geht ja nur um Patente, Patente, Patente).
Irgendwelche neurosachen sind doch auch schon längst drin (Bei AMD läuft die Sprungvorhersage als Perceptron- laut P3DNow)- Jedenfalls sind da keine weiteren Wunder zu erwarten.
Als Option würde ich noch ein asynchrones Design möglich halten, mit einem dezidierten Hochtakt-Part und einer Mischung aus kleinen, großen, leistungsfähigen und sparsamen Kernen (was nicht dasselbe sein muss)
Hat wer eine Glaskugel?
Eine Antwort wie: Ich weiß es aber sag es nicht ist auch eine Antwort.
OK-Ich präzisiere: Was kann einen Desktop-Prozzi weiter beschleunigen?
Ich denke das aktuell die Fahnestange was IPC angeht ziemlich erreicht ist. Wo ich aber noch viel Potenzial sehe ist in der Fertigung. Wenn sie es schaffen würden, in einen Siliziumchip optische Leiter zu integrieren und dass für die Massenproduktion tauglich wäre, dann könnte das wieder eine neue Welle auslösen. IIRC. geht ja die meiste Leistung für das verschicken der Daten auf dem Chip drauf und eine ALU Operation ist eigentlich günstig, was das Powerbudget angeht.
blinki
2016-12-01, 17:47:42
Mich interessiert bei der Frage durchaus die eher mittelfristige bis langfristige Perspektive. Klar kann Intel einfach Rechenleistung anbieten indem die TDP verdoppelt wird. Aber das ändert ja nichts daran, dass jetzt! die Zukunft gestaltet werden muss.
Aussagen wie: Wer weiß was die in der Hinterhand haben ist doch genau der Punkt: Was könnten die denn in der Hinterhand haben?
Der Verweis auf die Kosten des Datentransports ist sicherlich der richtige Weg.
Ich verfolge ja interessiert so Sachen wie Knowm's Neural-Networks auf memristorbasis, deren Hauptvorteil ja ist, dass es keine Datenübertragung zwischen Speicherort und Verarbeitungsort gibt. Nur sind das halt keine klassisch programmierbaren Computer.
Wenn man es schafft, nur einen Teil dieser Effizienz in klassische Designs zu übertragen hätte man wieder etwas Powerbudget für Rechenleistung freigeschaufelt. Allein mir fehlt die Fantasie, wie sich so etwas integrieren ließe.
MrSpadge
2016-12-01, 23:52:41
@Blinki & Godmode: etwas Potential sehe ich schon noch. Hier ein paar Möglichkeiten:
Breitere Vektoreinheiten
Der meiste Code, der wirklich massiv mehr Leistung gebrauchen könnte, ist auch ziemlich regelmäßig bzw. tut immer das gleiche auf anderen Daten. Ist also ideal für Vektorisierung geeignet. Das kann ne GPU auch gut, aber die ist nunmal zu weit weg von der CPU und hat mit viel höheren Latenzen und kleinen Caches zu kämpfen. Intel zeigt bereits mit AVX-512, wo die Reise hingehen kann. ARM bereitet mit den scalable vector extensions mit bis zu 2kb Vektorbreite noch viel dickere SIMD-Einheiten vor.
Ich fände es sehr attraktiv, wenn man statt dieser flächenmäßig sehr teuren Vektoreinheiten die in heutigen (Intel)-CPUs schon vorhandenen massiv parallelen Rechenwerke der GPU wie sehr breite FPUs einbinden könnte. Ziel müsste es sein, die EUs so einfach nutzbar wie die normalen FPUs zu machen (statt über den OpenCL-Rollator etc.) und vor allem mit viel niedrigerer Latenz als wenn die "irgendwo ind er GPU versteckt" sind. Das würde ein massives Re- und Co-Design von CPU und GPU erfordern. Aber wenn es gelingt, hätte man eine echte "APU" - und eine wunderbar skalierbare obendrein.
Fest verdrahtete Beschleuniger
Damit kann man deutlich schneller und energieeffizienter werden als mit allgemeinen Ausführungseinheiten (siehe ASIC). Lohnt sich aber nur, wenn die Funktionen hinreichend häufig genutzt werden. Wird heute schon vermehrt genutzt.. und in Zukunft sicher noch deutlich häufiger. Ist eine energieffiziente Verwendung von Transistoren.
Flexible Beschleuniger
Mit den reprogrammierbaren FPGAs kann man den Pferdefuß der eben genannten Beschleuniger umgehen. Hier sehe ich noch Potential: eine CPU die entweder integriert oder zumindest auf dem multi-chip-package einen FPGA hat, welcher automatisiert für immer wiederkehrende Aufgaben konfiguriert wird. Das wäre die perfekte Ergänzung zu den breiten Vektoreinheiten: damit kann auch mancher nicht parallelisierbarer Code enorm beschleunigt werden. Wie Software dies geschickt machen soll, ist meines Wissens nach zwar noch nicht klar - aber wir reden hier ja auch über mittel- bis langfrisitge Themen.
In memory computing
Eigentlich meint man damit, große Datensätze komplett im RAM zu halten. vor 1 oder 2 Jahren hat Micron jedoch über Ansätze geredet, direkt im RAM einfache Logikoperationen wie Vergleiche etc. zu ermöglichen. Sowas wäre ideal geeignet für alles was mit riesigen Datenmengen umgeht, i.d.R. also genau die Software die unendlich Performance braucht. Der Gedanke hat was für sich: statt alle Daten über den Bus zur CPU und durch die Caches zu schicken, zu bearbeiten und evtl. zurückzuschreiben würde die CPU hier nur die Ergebnisse der im RAM-Baustein direkt und massiv parallel durchgeführten Operationen zugeschickt bekommen. Das kann massiv Energie sparen (die dann für andere Sachen zur Verfügung steht) und natürlich deutlich schneller werden. Vorausgesetzt, die Operationen sind einfach genug.. wie die von Godmode genannten heutzutage relativ einfachen ALU-Operationen.
Reduzierte Präzision
16 Bit FP und 8 Bit Integer zum Anwenden trainierter neuronaler Netze haben wir in letzter Zeit sicherlich schon alle gehört. Eine weiter gehende Frage ist aber: muss eigentlich jede Operation der CPU exakt richtig sein? Oder reicht es, wenn die meisten Ergebnisse ungefähr richtig sind? Wenn die Bank meine Konten verwaltet ist die Antwort einfach.. ebenso ist sie es, wenn ich ein verrauschtes Handygespräch entgegennehme. Hier sind die Daten selbst so schlecht, dass deren Aufbereitung in der CPU eigentlich auch fast wurscht ist. Bzw. zumindest ein erheblicher Spielraum besteht. Das trifft auf die meisten Medien-Übertragungen zu, und vieleicht auch noch auf andere Anwendungen über die wir noch gar nicht nachgedacht haben. Ungefähr 1/2 des Energiebedarfs könnte man durch eine "limitierte Fehlertoleranz" laut Studie einer Uni wohl einsparen.
Optik
Silizium-Wellenleiter funktionieren schon lange super, es hapert aber an einer bezahlbaren passenden Lichtquelle. Man sollte allerdings nicht auf das populärwissenschaftliche "Ui, Datenübertragung mit Lichtgeschwindigkeit!" hereinfallen - denn langsam bewegen sich die elektrischen Signale auch nicht. Der Trumpf der integrierten Photonik ist es, wahnsinnige Datenraten über längere Strecken liefern zu können. Überall, wo das gebraucht wird (Chip-zu-Netzwerk, Chip-zu-Chip), sind die Szenarien klar. Innerhalb einer ALU sind die optischen Strukturen jedoch viel zu groß, um die elektrischen Verbindungen sinnvoll zu ersetzen. Mittelfristig vermute ich die sinnvolle Grenze bei der Kern-zu-Kern Kommunikation, d.h. Intels Ringbus könnte irgendwann noch optisch werden, bei kleineren Funktionseinheiten bin ich skeptisch.
Plasmonik
Ist prinzipiell das gleiche wie Optik, nur dass man nicht mit Licht arbeitet sondern Oberflächenschwingungen in Metallen anregt und kontrolliert. Diese Bauteile können wesentlich kompakter und schneller werden. Haben aber den Nachteil, dass es (bis auf Supraleiter) keine Leiter ohne ohm'sche Verluste gibt. D.h. die fröhlich hin- und herschwingenden Elektronen werden schnell eingebremst und der Wellenleiter hat hohe Verluste. Für ne kurzreichweitige "optische" Datenübertragung wäre das aber durchaus ein Kandidat (der einzige der mir momentan einfällt).
Integration im Backend
Alles, was man auf's Substrat deponieren und zwischen die Metall- und dielektrischen Ebenen packen kann, ist für eine schichtweise "3D Integration" geeignet. D.h. man könnte hier die Packungsdichte der Bauelemente ähnlich wie beim 3D NAND drastisch erhöhen, ohne die immer teurer werdende CMOS-Chipfläche opfern zu müssen. Meiner Meinung nach hat Photonik auf nem klassischen IC nur dann eine Chance, wenn sie in's Backend passt. Dort würde auch die Plasmonik ideal hinpassen, Kupfer ist ein sehr gutes Material dafür. Ebenso könnten sich 2D Materialien wie Graphen dort zumindest besser einbinden lassen als im Frontend.
MrS
blinki
2016-12-02, 16:54:02
Danke für die Ausführungen @MrS.
Bezüglich in-Memory Verarbeitung: Lohnt sich das eigentlich erst ab großen Speichermengen? Sonst wäre ja an der Stelle ein Zwischenschritt denkbar - Ich stelle mir da einen Aufgepeppten L3 oder L4 Cache mit solcher Funktionalität vor. Liegt nah am Prozessor, hoher Durchsatz. Intels L4 liegt ja bei etwa 120 MB in 22nm, die können da ja mal auf 14 nm umstellen und dann auf 250 oder 500 MB gehen. Dasselbe wie einem rechnender Ram ist das natürlich noch nicht, da muss viel geswappt werden. Nur Rechenlogik in die Rambausteine hereinzubringen muss natürlich extrem billig sein, bei L3 oder L4 wäre das nicht so kritisch. Nur halt die Frage ob das nicht einem umfallenden Sack Reis in China entspricht bzgl. der Datenmengen.
MrSpadge
2016-12-02, 17:47:15
Kommunikation außerhalb eines Chips ist immer am teuersten, mit deutlichem Abstand. Daher sagt mir mein Bauchgefühl: im L4 lohnt das noch nicht. Zumal man hier alle Daten auch wieder durch den Flaschenhals Speicherbus pressen müsste. Macht man es nahe den RAM-Chips, kann man das vermeiden und massiv paralleler arbeiten.
Die Kosten sind natürlich bei all diesen zukünftigen Lösungen ein Thema.. u.A. deshalb haben wir sie noch nicht. Man könnte sich für die Konfiguration "computing vor Speicherbus" verschiedene Varianten vorstellen:
- Logik auf jedem RAM-Baustein integriert (am teuersten, passt nicht gut zum DRAM-Prozess)
- Logik im untersten Chip eines HBM / HMC stacks (deutlich besser, da hier per Definition schon Logik verbaut wird
- Logik in einem Chip pro RAM-Riegel (wie z.B. die memory buffer, eventuell ein Chip kombiniert mit diesen)
Noch zu FPGAs: netter Artikel (https://www.nextplatform.com/2016/10/17/microsoft-fell-hard-fpgas/). Auch sonst bietet die Seite einiges über den Tellerrand hinaus. Vor allem sieht man hier, an welchen systemweiten Schrauben in den letzten Jahren gedreht wurde und welche in den Nächsten kommen sollen. Das ist auch eine wichtige Antwort auf "wie kann's noch weiter gehen", auch wenn hier nicht die CPU selbst Thema ist.
Quantum Computing
Gestern noch vergessen: für einige Probleme können diese massiv parallel rechnenden Computer bahnbrechend sein. Etwas so wichtiges wie Knacken von Verschlüsselung gehört wohl dazu...
Interessant finde ich an der Stelle, dass man dies nicht nur mit ultrakalten supraleitenden QBits machen kann (wie die aktuell schon kaufbaren Systeme von D-Wave), sondern auch mit Optik bei Raumtemperatur. Diskrete Optik ist dafür zu aufwendig, integriert auf nem Chip ist das aber machbar. Die benötigten Bauteile sind sehr ähnlich denen für die optische Datenübertragung. Herausforderung ist u.A., dass minimlaer Verluste bzw. eine noch viel höhere Qualität der Bauteile als bisher benötigt werden, um damit größere Systeme zu bauen.
MrS
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.