PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Kommende AMD-Prozessorarchitektur (2010-2012)


Gast
2008-08-03, 01:33:12
Wenn man sich einmal die neusten AMD-Roadmaps anschaut, so ist zu erkennen, dass es bis 2010 mit Magny-Cours weiterhin nur einen Phenom-Prozessor mit mehr Kernen gibt.
Es ist keine neue Architektur am Horizont zu erkennen. Das macht Sorgen und kann eigentlich nicht möglich sein. Denn bekanntlich wird Intel 2010 bereits sein übernächstes Tock haben, nämlich die Sandy-Bridge-Architektur.

AMD ist also regelrecht dazu gezwungen, etwas Neues zu entwerfen; denn schon bald, mit der Nehalem-Vorstellung, wird der Rückstand noch größer und deutlicher.

Dieser Thread soll dazu dienen, mögliche Spezifikationen einer kommenden AMD-Architektur zu benennen. Am Besten ist natürlich der Quellennachweis, aber auch eigene Gedankengänge sollen munter vorgeführt werden.

_DrillSarge]I[
2008-08-03, 12:11:59
wozu eine neue architektur? intel hat seit dem pentium m auch keine grundlegend neue architektur auf den markt gebracht :tongue: (ja,ja nehalem, aber der ist eben noch nicht auf dem markt). der k10 ist auch noch ziemlich neu und für den takt performt der phenom auch nicht sooo mies.
man wird vielleicht die k10 familie mal überarbeiten, aber der nächste schritt wird einfach ein shrink sein, damit man mehr takt bei annehmbaren verbrauch/abwärme hat

Undertaker
2008-08-03, 12:28:22
I[;6698601']wozu eine neue architektur? intel hat seit dem pentium m auch keine grundlegend neue architektur auf den markt gebracht :tongue: (ja,ja nehalem, aber der ist eben noch nicht auf dem markt). der k10 ist auch noch ziemlich neu und für den takt performt der phenom auch nicht sooo mies.
man wird vielleicht die k10 familie mal überarbeiten, aber der nächste schritt wird einfach ein shrink sein, damit man mehr takt bei annehmbaren verbrauch/abwärme hat

Ich glaube, der K10 ist weitaus näher am K8 als der Core 2 am Pentium M ;)

Gast
2008-08-03, 13:01:34
@ Undertaker

Genau das ist das Problem. Schon klar, dass AMD bis dahin den K10 geshrinkt hat. Laut Roadmaps ist man aber selbst 2010 lediglich bei 45 nm anbelangt. Sind wir mal sehr optimistisch und sagen, dass bis dahin CPUs mit 3,6 GHz im Handel stehen:
Das würde zwar genügen, um den Core 2 zu schlagen, beim Nehalem wird dies aber nicht möglich sein und dann kommt eben noch, wie erwähnt, Sandy Bridge.

Mit dieser Architektur - die nicht unbedingt schlecht ist - wird man die nächsten Jahre im High-End-Segment nichts mehr zu reden haben.

GeneralHanno
2008-08-03, 13:22:10
naja mit dem shrink von 65nmauf 45nm soll der core ja auch überarbeitet werden und die IPC steigen. zudem wird der cache vergrößert. später wird dann auch noch DDR3 support hinzu kommen.

Kriton
2008-08-03, 13:26:55
Ich bezweifel irgendwie, dass AMD 2010 noch 45 nm verwendet, wenn sie im nächsten Jahr in ihrer ATI-Abteilung bereits 40 nm verwenden (auch wenn das natürlich auswärts gefertigt wird).

S940
2008-08-03, 13:27:22
und die IPC steigen. Der Hinweis ist auf den neuesten Werbefolien verschwunden ... also das wird wohl bessere IPC wg. mehr L3 Cache sein, und vielleicht noch etwas Debugging, aber sonst wird wohl nix verändert werden.

Zum Thema .. mich wundert, dass hier noch keiner Bulldozer genannt hat, soll immerhin hochoffiziell jetzt 2010 als 45nm Sample das Licht der Welt erblicken, 2011 (dann vermutlich in 32nm) auf den Markt kommen.

@Kriton:
Es kommt ja noch ein 45nm 2.0 Prozess mit high-k, wie Intel das jetzt schon hat. Erste Vertreter damit sind die 6 Kern CPUs.

ciao

Alex

Gast
2008-08-03, 13:44:34
Jo, die IPCs sind verschwunden. Es bleibt lediglich der größere Cache

@S940

Das mit dem 45 nm 2.0-Prozess klingt interessant. Hast Du dazu vielleicht einen Link? Habe dazu bisher noch nichts gehört.

@Kriton

40 nm wird es bestimmt nicht geben. CPUs haben eigentlich nie optische Shrinks. Gab und gibt ja auch keine 55 oder 80 nm-CPUs.

S940
2008-08-03, 13:59:15
Das mit dem 45 nm 2.0-Prozess klingt interessant. Hast Du dazu vielleicht einen Link? Habe dazu bisher noch nichts gehört.
Performance and Power Efficiency
- 20 percent performance improvement from strained silicon and
ultra-low-K dielectrics
- High-k/metal gate / future 45nm option
- Continuous Transistor Improvements (CTI) applied throughout
life-cycle of the process

http://www.amd.com/us-en/assets/content_type/DownloadableAssets/AMD_45nm_Press_Presentation2.pdf

Das Ganze läuft auch unter dem Namen Rev. D, die ersten 45nm CPUs sind bekanntlich ja Rev. C, falls man denn fudzilla glaubt:
In 2009, AMD plans to migrate to the 45nm K10.5 Rev D and this new process will still be based on Silicon on insulator, but this time they will use a high-K process. AMD calls these cores Hydra and it will enable up to eight cores with 6MB shared L3 cache and more L2 per core.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=6986&Ite

ciao

Alex

Coda
2008-08-03, 17:17:24
Ich bezweifel irgendwie, dass AMD 2010 noch 45 nm verwendet, wenn sie im nächsten Jahr in ihrer ATI-Abteilung bereits 40 nm verwenden (auch wenn das natürlich auswärts gefertigt wird).
Eben. Es gibt keinen Zusammenhang. Wenn TSMC 40nm hat heißt das noch lange nicht dass AMD 45nm SOI haben muss.

=Floi=
2008-08-04, 11:50:00
die reine fertigungstechnik wird aber amd hier auch nicht wirklich etwas helfen. Es ist fakt, dass die pipeline leer ist und in nächster zeit keine neuen architekturen kommen werden

Gast
2008-08-04, 14:19:55
Bin gerade über folgende, sehr interessante News gestolpert:

http://www.hardware-infos.com/news.php?news=2272

Sorkalm
2008-08-04, 14:27:36
Bin gerade über folgende, sehr interessante News gestolpert:

Dann schreib doch auch dazu, was da steht... :rolleyes:

Nunja, irgendwas wird AMD wohl in Entwicklung haben, das stimmt schon. Die Frage ist: Ist der Bulldozer, der da erwähnt wird, der selbe, der uns von AMD 2007 versprochen wurde?

robbitop@work
2008-08-04, 14:50:24
Bulldozer als auch Bobcat waren in Entwicklung. Und mittelfristig wird AMD beide dringend brauchen, um konkurrenzfähig zu bleiben.

Hoffentlich trasht AMD diese Designs nicht nun auch noch.

HOT
2008-08-04, 16:06:51
Bin gerade über folgende, sehr interessante News gestolpert:

http://www.hardware-infos.com/news.php?news=2272
Das ist allerdings interssant. Vor allem der Teil, dass AMD bei TSMC auf SOI umsteigen will ist sehr interessant. Die Kooperation ist doch einiges tiefgehender, als man sich so denkt offensichtlich.

AffenJack
2008-08-04, 16:12:28
Widerspricht vor allem auch der früheren meldung nach der amd fusion vollständig in dresden fertigen will, die ja offiziell von amd gekommen sein soll. Aber vll hat man sichs auch anders überlegt.

Gast
2008-08-04, 16:17:58
Widerspricht vor allem auch der früheren meldung nach der amd fusion vollständig in dresden fertigen will, die ja offiziell von amd gekommen sein soll. Aber vll hat man sichs auch anders überlegt.
Wo soll das gestanden haben?
Es gibt AMD-Folien die ganz klar aussagen, dass Fusion bei TSMC gefertigt wird.

AffenJack
2008-08-04, 16:24:12
http://news.idg.no/cw/art.cfm?id=4E3F90FB-17A4-0F78-31A9A1B5BA8E07EA

ham eigentlich auch die meisten größeren seiten aufgegriffen, ob rick das wirklich gesagt hat ist ne andere sache

Sorkalm
2008-08-04, 17:18:44
Wenns der erste Fusion nen MCM wird, geht das doch: CPU-Die kommt aus Dresden, GPU-Die aus Taiwan.

Odal
2008-08-04, 17:46:35
naja solangsam muss sich AMD mal was neues einfallen lassen...

einen E7200er gibts schon für 85€ und den kann man in dimensionen bringen die ein Phenom niemals sieht....

und solls dann doch nen quadcore sein so kann man schon für 185€ bei der 45nm variante zuschlagen....
der sollte auch auf 3.5-4Ghz gehen... (vorsichtig geschätzt)

und mit dem phenom dümpelt man bei max. 3Ghz rum...da muss was neues her

Gast
2008-08-04, 18:01:06
http://news.idg.no/cw/art.cfm?id=4E3F90FB-17A4-0F78-31A9A1B5BA8E07EA

ham eigentlich auch die meisten größeren seiten aufgegriffen, ob rick das wirklich gesagt hat ist ne andere sache
Naja der GPU-Die wird bei TSMC gefertigt werden, das ist schon lange bekannt und stand schon auf den ersteren Folien zu Fusion (sind im entsprechenden Threat verlinkt). Wo die CPU gefertigt wird ist natürlich eine andere Frage, aber wohl bei AMD selbst, sollte die 2. Generation dann nicht mehr auf MCM setzen wirds interessant.

@Odal
Rev. C des Phenom kommt eh im Herbst mit höherer IPC und 45nm. H2/09 Rev. D mit der zweiten 45nm Fertigungsgeneration und ein paar Verbesserungen am Core selbst. 2010 32nm Phenom und 2011 dann Bulldozer.

HOT
2008-08-04, 19:48:03
Rev.D ist ein HexaCore, der Istanbul-Kern.

Gast
2008-08-04, 23:17:42
Ändert sich am Core nichts (außer am MC, wie bei jeder Revision)? Ist das gesichert, ich hatte da was anderes gelesen. Aber HighK etc kommt mir Rev D.

Gast
2008-08-07, 14:54:53
Vielleicht sollte man bei Intel mal von Realtakt und nicht von OC-Takt sprechen, denn davon werden die Intel-Fans bald nix mehr haben wenn sie die Übertaktunsperre einbauen ;)

AMD ist so oder so wieder im Geschäft ;)

Gast
2008-08-07, 16:34:40
Der 45 nm-Deneb hinterlässt einen guten Eindruck, wohl war. Das mit der OC-Sperre bei Nehalem-CPUs hat sich aber schon seit einiger Zeit als Ente herausgestellt.

Coda
2008-08-07, 16:53:28
Zumal Overclocker sowieso keinen großen Markt darstellen ist es eh egal.

HOT
2008-08-07, 16:57:50
Ändert sich am Core nichts (außer am MC, wie bei jeder Revision)? Ist das gesichert, ich hatte da was anderes gelesen. Aber HighK etc kommt mir Rev D.
Sicherlich gibts auch Änderungen an den Komponenten der CPU. Um High-K einzusetzen muss sich High-K erstmal als besser als ULK beweisen, um es in 45nm schon einsetzen zu können. Wenn man mit ULK gleiche bis bessere Ergebnisse oder gleiche Ergebnisse bei niedrigeren Kosten erreicht, bleibt AMD natürlich bei ULK-Material.

betasilie
2008-08-07, 16:58:54
Zumal Overclocker sowieso keinen großen Markt darstellen ist es eh egal.
Nur zum Teil richtig. Rein vom Umsatz her ist der Overclocker Markt nicht wichtig, aber vom Image her schon. Und im OEM-Bereich sind gute OC-CPUs eigentlich immer die Top-Seller.

AnarchX
2008-08-07, 17:05:08
Nur zum Teil richtig. Rein vom Umsatz her ist der Overclocker Markt nicht wichtig, aber vom Image her schon.
Deshalb wird Intel bei LGA1366 auch OCing weiter ermöglichen.


Und im OEM-Bereich sind gute OC-CPUs eigentlich immer die Top-Seller.
OEMs und OC-CPUs? :|

Gast
2008-08-21, 21:02:21
In welche Richtung könnte man denn künftig entwickeln?
Wo ich diese Woche so die HTT3.1-Specs gelesen habe; wäre es nicht vielleicht lohnenswert, wieder die Stages anzuheben und somit wieder Taktpotential zu schaffen? Vielleicht nicht ganz so krass wie damals bei Prescott (31-stufig), aber so eine 20 oder 24-stufige Pipeline, die Taktraten von 4-5 GHz verspricht, wäre das nicht etwas?

Denke somit könnten auch die riesigen Cache wieder normalisiert werden und diese tragen bekanntermaßen zu einem erheblichen Teil zu den Produktionskosten bei.
Sind wir mal ehrlich Athlon 64 X2 und Phenom wissen die riesigen Bandbreiten gar nicht mehr zu verwalten. Nur noch bei Mehrsockel-System gibt es Performancesteigerungen.

PS: Vielleicht liege ich auch gerade total auf dem Holzweg mit meiner Theorie. Bin aber auch lernwillig. :)

Coda
2008-08-21, 21:10:29
OEMs und OC-CPUs? :|
Er meint glaube ich Retail.

BlackBirdSR
2008-08-22, 11:14:03
Denke somit könnten auch die riesigen Cache wieder normalisiert werden und diese tragen bekanntermaßen zu einem erheblichen Teil zu den Produktionskosten bei.


Im Gegenteil. Cache ist aktuell mit die günstigste Variante mehr Performance zu erreichen. Er ist relativ einfach herzustellen und besitzt einen sehr hohen Grad an Redundanz.
Aus gerade diesem Grund bekommen CPUs in letzter Zeit regelmäßig mehr Cache (zumindest bei Intel).
Produktionskosten steigen sicherlich an. Aber wenn man z.B Phenom betrachtet, so wiegt dort der Logik-Teil viel schwerer was endgültge Kosten betrifft.

betasilie
2008-08-22, 14:15:01
OEMs und OC-CPUs? :|
Jup, ich meinte natürlich Retail, wie Coda schon vermutet hat. ;)

Gast
2008-08-22, 16:42:15
Im Gegenteil. Cache ist aktuell mit die günstigste Variante mehr Performance zu erreichen. Er ist relativ einfach herzustellen und besitzt einen sehr hohen Grad an Redundanz.
Aus gerade diesem Grund bekommen CPUs in letzter Zeit regelmäßig mehr Cache (zumindest bei Intel).
Produktionskosten steigen sicherlich an. Aber wenn man z.B Phenom betrachtet, so wiegt dort der Logik-Teil viel schwerer was endgültge Kosten betrifft.

Wenn man sich doch aber einmal eine CPU anguckt, so geht die meiste Fläche für die Caches drauf. Der Logikanteil ist bei Prozessoren im Gegensatz zu Grafikkarten doch sehr, sehr gering.

Aquaschaf
2008-08-22, 17:25:58
Wenn man sich doch aber einmal eine CPU anguckt, so geht die meiste Fläche für die Caches drauf. Der Logikanteil ist bei Prozessoren im Gegensatz zu Grafikkarten doch sehr, sehr gering.

Eine GPU kann man in der Hinsicht nicht mit einer CPU vergleichen. GPUs kann man z.B. mit mehr Logik nach wie vor immer weiter beschleunigen. Eine CPU bei weitem nicht in dem Maße. Und die Speicherzugriffsmuster sind total verschieden.

Simon Moon
2008-08-22, 17:31:38
Wenn man sich doch aber einmal eine CPU anguckt, so geht die meiste Fläche für die Caches drauf. Der Logikanteil ist bei Prozessoren im Gegensatz zu Grafikkarten doch sehr, sehr gering.

Es kommt im Endeffekt auf die funktionstüchtigen Chips auf dem Wafer an. Wenn ein Fehler im Cache ist, kann der eher durch die Redudanz ausgebügelt werden, als ein Fehler im Logik teil. Es liegt hier ein praktisches MiniMax-Problem vor - viel Logik gibt wenige funktionierende Chips, viel Cache gibt Waferfläche für wenig Leistung her.
Das Optimum lotet v.a. AMD wohl immer wieder aus. Sie verringerten ja bereits einige Male mit der Zeit die Cache Menge (wohl wegen verbesserter Fertigung).

Simon Moon
2008-08-22, 17:39:52
Eine GPU kann man in der Hinsicht nicht mit einer CPU vergleichen. GPUs kann man z.B. mit mehr Logik nach wie vor immer weiter beschleunigen. Eine CPU bei weitem nicht in dem Maße. Und die Speicherzugriffsmuster sind total verschieden.

Ein GPU hat bei der Logik auch mehr Redundanz als eine CPU. Wenn ein Cluster ausfällt, kann man das Produkt immer noch als abgespeckte Variante verkaufen. Geht im Logikteil der CPU etwas kapputt, kann man den Chip wegschmeissen.

Mit many core CPUs wird der Cache auch wieder etwas abnehmen, da man Redundanz in der Logik gewinnt und die Chipfläche effizienter einsetzen kann.

Aquaschaf
2008-08-22, 17:55:52
Ein GPU hat bei der Logik auch mehr Redundanz als eine CPU. Wenn ein Cluster ausfällt, kann man das Produkt immer noch als abgespeckte Variante verkaufen. Geht im Logikteil der CPU etwas kapputt, kann man den Chip wegschmeissen.

Im Kleinen müsste man bei CPU-Logik doch genauso Redundanz haben können, oder? So detailiert bin ich darüber nicht informiert.

BlackBirdSR
2008-08-23, 10:24:09
Im Kleinen müsste man bei CPU-Logik doch genauso Redundanz haben können, oder? So detailiert bin ich darüber nicht informiert.

Redundanz basiert in den meisten Fällen auf zusätzlichen, überzähligen Schaltungen. Bei RAMs im Generellen ist das sehr einfach zu handhaben. Es ist innerhalb der Redundanzabgesicherten Blöcke relativ egal wo der Fehler auftritt. Man kann in sehr vielen Fällen auf die zusätzlichen Zellen umleiten. Das liegt darin begründet, dass SRAM/DRAM auf nahezu der ganzen Fläche uniform sind.

Bei CPUs und Logik im Allgemeinen trifft das nicht zu. Um hier größere Redundanz zu erzeugen, müsste man ganze Funktionsblöcke duplizieren. Die dadurch entstehenden Kosten, Verlustleistungen und Verdrahtungsprobleme würden alle Grenzen sprengen.

Bei GPUs sieht die Sache etwas anders aus. Da hier viele identische Blöcke in größeren Mengen auftreten, kann man z.B 1 oder 2 Blöcke zusätzlich erzeugen - oder 1-2 abschalten und so Chips wie die GT260 erhalten.
Diese Praxis ist bei CPUs natürlich nicht möglich. Daher ist den Herstellern ein größerer Cache-Anteil gar nicht so unangenehem wie man vermuten könnte. Zusammen mit den exzellenten Fertigungsverfahre von AMD und Intel (angeblich die geringste Punktdefektdichte am Markt) lassen sich so überaus hohe Yields erzielen.

anddill
2008-08-23, 12:07:48
Die einzige sinnvolle Möglichkeit bei CPUs hat AMD schon praktiziert: Das Abschalten von ganzen Cores. Je mehr Cores die CPUs haben, umso öfter werden wir das sehen. Aus einem 8-Kerner kann man einen 6-Kerner machen, aus einem 16-Kerner 10, 12, 14 oder vielleicht auch 15.

Gast
2008-08-23, 12:17:34
Die Theorie, dass in Zukunft die Pipelines wieder länger werden, ist also eher unwahrscheinlich (meine ich so aus der Diskussion entnommen zu haben)? ;)

BlackBirdSR
2008-08-23, 13:17:41
Die Theorie, dass in Zukunft die Pipelines wieder länger werden, ist also eher unwahrscheinlich (meine ich so aus der Diskussion entnommen zu haben)? ;)

Finde ich nicht. Je nach Design und Einsatzfeld werden wir kurze und lange Pipelines sehen. Einfache CPUs mit weniger komplexen Kernen genauso wie hoch komplexe Monster wie x86 High-End CPUs oder PowerPCs.
Die Kerne in Larrabee z.B scheinen relativ wenige Stufen zu besitzen. Atom dagegen ähnlich viele wie ein Core2.
Aktuell scheint man im Bereich zwischen 10-20 Stages ein Optimum gefunden zu haben. (Integer)

Aber es ist wohl richtig. CPUs mit ähnlich aktuellem Konzept (Core2, Phenom, Power6) wie heutige CPUs werden wohl nicht plötzlich auf drastisch verlängerte Pipelines setzen. Die Kosten für zusätzliche Puffer, Logik, Tracking und Front-End sind gerade hinsichtlich thermischer Grenzen und dem Layout viel zu hoch. Power6 oder Penryn zeigen, dass man auch mit ~15 Stufen an die 5 GHz erreichen kann. Netburst und besonders Prescott mit 31+ Stufen waren vielleicht wirklich schon für 10-20 GHz ausgelegt. Aber ich möchte nicht wissen, welchen technologischen Sprung in der Fertigungstechnik man dafür erwartet hatte...

Aquaschaf
2008-08-23, 13:49:30
Um hier größere Redundanz zu erzeugen, müsste man ganze Funktionsblöcke duplizieren. Die dadurch entstehenden Kosten, Verlustleistungen und Verdrahtungsprobleme würden alle Grenzen sprengen.

Ich dachte daran dass es möglich sein könnte Redundanz auf einer kleineren Ebene zu haben. Nicht ganze Funktionsblöcke mehrfach verbauen, sondern z.B. in den einzelnen Stufen der Pipeline einer Ausführungseinheit Schaltungen redundant auszulegen.

BlackBirdSR
2008-08-23, 14:07:25
Ich dachte daran dass es möglich sein könnte Redundanz auf einer kleineren Ebene zu haben. Nicht ganze Funktionsblöcke mehrfach verbauen, sondern z.B. in den einzelnen Stufen der Pipeline einer Ausführungseinheit Schaltungen redundant auszulegen.

Es ist allerdings unmöglich vorhersagbar wo der Fehler trifft. Redundante Datenpfade für die FPU sind z.B völlig nutzlos, wenn der Fehler eine Schaltung der Decoder erwischt, oder das Microcode-rom nicht programmierbar ist. Ein Fehler in einem der Register ist genau so tödlich wie fehlerhafte Schaltungen im Scheduler.

Es stellt sich dann die Frage: Was lege ich redundant aus, und was nicht? Es gibt keine weniger wichtige Stellen, ein Fehler und die Sache ist vorbei. Nahezu jede Redundanz ist dann einfach nur Ballast. Die Chance, dass ich damit einen Fehler beheben kann so gering, dass die Kosten niemals gedeckt werden. Und versuche ich so viel Redundanz einzubringen, dass ich in 30% der Fälle einen Fehler beheben kann, habe ich auch über 30% der CPU verdoppelt. Ein Fallout was Layout und Laufzeiten betrifft.

Aquaschaf
2008-08-23, 16:21:54
Gut, das ergibt Sinn.

betasilie
2008-08-23, 16:49:13
Wieviel Kilometer Draht hat eigentlich so ein 4-/ oder 8-Kerner aktuell? :ugly:

BlackBirdSR
2008-08-23, 17:05:08
Wieviel Kilometer Draht hat eigentlich so ein 4-/ oder 8-Kerner aktuell? :ugly:

Kann ich nicht sagen. Aber die National Defense University in DC ging 2003 von mehreren Kilometern aus. Kannst dir vorstellen, dass es 2009 bei 8 Kernen gut und gerne ein paar Kilometer sein werden ;)

betasilie
2008-08-23, 17:14:26
Kann ich nicht sagen. Aber die National Defense University in DC ging 2003 von mehreren Kilometern aus. Kannst dir vorstellen, dass es 2009 bei 8 Kernen gut und gerne ein paar Kilometer sein werden ;)
Ein paar Kilometer mehr, das denke ich auch. :)

So langsam sollten sich Intel und AMD mal darüber gedanken machen, wie sie die Lichtgeschwindigkeit erhöhen. X-D

Undertaker
2008-08-23, 19:20:40
Da die Taktraten schon seit 6 Jahren nicht mehr wirklich gestiegen sind (damals kam der P4 3,06GHz), sollte sich da kein wirklich neues Problem ergeben haben ;) Die Kilometer an Draht werden ja vielfach parallel und nicht in Reihe durchströmt.

BlackBirdSR
2008-08-23, 19:57:23
Die Kilometer an Draht werden ja vielfach parallel und nicht in Reihe durchströmt.´

Trotzdem wird es in Zukunft bei weiter steigender Integrationsdichte ein Problem geben, Signale von einer Ecke der DIE an die andere zu bringen.
Intel hatte das ja schon mit 2 Drive-Stages im Pentium4 berücksichtigt ;)