PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Cell als PCI-Ex-Karte


Hansworscht
2005-02-24, 22:36:54
Daniel Visarius schreibt in der neue Gamestar das man den Cell-Chip vllt als PCI-Expresskarte in einen PC einbauen kann und mit deiner Hilfe Raytracing darstellen könnte...

Meine Frage, kann man Cell wirklich als Grafikkarten ersatz einsetzten??

TheCounter
2005-02-24, 22:37:44
Meine Frage, kann man Cell wirklich als Grafikkarten ersatz einsetzten??

Glaub ich nicht, wieso hat die PS3 denn sonst extra einen Next-Gen Grafikchip von Nvidia?

ShadowXX
2005-02-24, 22:47:01
Daniel Visarius schreibt in der neue Gamestar das man den Cell-Chip vllt als PCI-Expresskarte in einen PC einbauen kann und mit deiner Hilfe Raytracing darstellen könnte...

Meine Frage, kann man Cell wirklich als Grafikkarten ersatz einsetzten??

Und wer soll die SW dazu schreiben???

Rasterrizer fehlt auch....also nur als Rechenknecht benutzbar. Womit wir wieder bei der ersten Frage sind...wer soll die SW dafür schreiben?

Zumindest im Spielesektor sehe ich da keine grossen Chancen.....bei Streamingaufgaben könnte er natürlich sehr gut als zusätzliche Hilfe eingesetzt werden.

Profi-Musikbearbeitung, Profi-Videobearbeitung usw.......vielleicht auch für Profi Ray-Tracer.

[ncp]EasyChiller
2005-02-25, 00:23:59
Nun Ray-tracing ist doch in erster Linie Vektor-Rechnung? .. lässt sich diese mit den Vetor-Einheiten der Cell gut bewältigen? :confused:

micki
2005-02-25, 02:59:10
EasyChiller']Nun Ray-tracing ist doch in erster Linie Vektor-Rechnung? .. lässt sich diese mit den Vetor-Einheiten der Cell gut bewältigen? :confused:
eigentlich schon, aber soweit ich weiß, sind die so ausgelegt, dass sie einen kontinuirlichen stream an daten haben und ihn verarbeiten.
gerade bei raytracing hast du durch die tracinghierarchy random speicherzugriffe.

falls es eine solche karte mal als massenware gebe, würde ich damit den scenenbaum transformieren und culling betreiben, da kann man nie genug power haben :)

MfG
micki

Mr.Magic
2005-02-25, 04:56:10
Möglicherweise kommt ja ein Playstation 3-Blaster von Creative. Kann sich noch jemand an den 3DO-Blaster erinnern? :biggrin:

Coda
2005-02-25, 11:54:53
Wozu? Wir haben doch schon nen Streamprozessor. Nennt sich Grafikkarte.

Wenn WGF 2.0 da ist, ist das Ding so flexibel wie Cell. Muss nur noch der Rückkanal besser werden. Das Problem hätte so ein Cellboard aber auch.

Mr.Magic
2005-02-25, 13:49:28
Schonmal von Sarkasmus gehört? :rolleyes:

Coda
2005-02-25, 13:53:44
Ich hab nicht dir geantwortet.

StefanV
2005-02-25, 15:12:51
Wenn WGF 2.0 da ist, ist das Ding so flexibel wie Cell. Muss nur noch der Rückkanal besser werden. Das Problem hätte so ein Cellboard aber auch.
Ist er doch schon, wozu gibts PCI Express :)

Jesus
2005-02-26, 15:13:43
Ist er doch schon, wozu gibts PCI Express :)

nicht wirklich vergleichbar :)

Coda
2005-02-26, 15:46:12
Ist er doch schon, wozu gibts PCI Express Das wird erst mit Longhorn wirklich gut funktionieren.
Aber ansonsten hast du natürlich recht damit.

nicht wirklich vergleichbar Vergleichbar
womit?

Jesus
2005-02-26, 16:54:53
Vergleichbar
womit?

Mit der Bandbreite. PCIe ist im Moment nur etwa doppelt so schnell wie AGP. Das ist nur ein kleiner Bruchteil von dem was bspw. in der PS3 verfügbar ist. Daher sehe ich auch da keinen wirklichen Vorteil bei PC Grakas die dann irgendwann vielleicht mal als "reale" Co Prozessoren ala WGF 2.0 verwendet werden sollen - bis dahin ist es noch ein weiter Weg.

Coda
2005-02-26, 17:02:23
Die Daten werden doch in den meisten Fällen schon auf der GPU weiterverarbeitet.

Die PS3 ist einfach nur Hype. Schon allein weil sie wieder ne üble Bitch zum programmieren sein wird. Bis man entsprechende Streamalgorithmen entwickelt hat, ist der PC schon wieder weiter.

Jesus
2005-02-26, 17:14:45
Die Daten werden doch in den meisten Fällen schon auf der GPU weiterverarbeitet.

Die PS3 ist einfach nur Hype. Schon allein weil sie wieder ne üble Bitch zum programmieren sein wird. Bis man entsprechende Streamalgorithmen entwickelt hat, ist der PC schon wieder weiter.

Werden wir ja bald sehen :)

Allerdings kann man das mit "PC ist schon wieder weiter" nicht pauschalisieren, denn auch Konsolen "entwickeln" sich weiter, in der Software. Sieht man ja sehr schön an der jetzigen (oder allen anderen) Generation z.b. PS2. Was heute da läuft hätte vor 5 Jahren kaum einer für machbar gehalten. Leider hat die PS2 aber zu viele Flaschenhälse (kaum GPU, VRAm etc.). Eine entsprechend Leistungsfähige HW vorrausgesetzt denke ich dass es "der PC" diesmal nicht so einfach haben wird sie so schnell wieder zu überholen.

Coda
2005-02-26, 19:03:49
Also fassen wir mal zusammen

- Die PS3/Cell hat einen PowerPC Core. Den darfste für die kompletten Sachen verwenden das sich nicht streamen lässt. Also AI, Teile der Physik (Rigid Body, also das schöne umfallen von Sachen) etc.

Und dabei ist das Teil noch nich mal sehr schnell, weil ziemlich viel Platz für die ganzen Streameinheiten draufgehen.
Es kann also durchaus passieren dass das dein Bottleneck wird in Spielen, dann gewinnst du mit der ewig hohen Streampower von Cell keinen Blumentopf mehr

Genauso kann es passieren dass der Rasterizer von nVidia schlapp macht. Die können auch nich auf einmal die Wunder-GPU raushauen. 32 Pipelines ist da wohl das Maximum.

- Für Streamaufgaben wie Culling, Transformation (ich denke mal der Vertexshader fällt weg bei der GPU), andere Teile der Physik (Wassersimulationen, etc.), Raytracing, etc. gibt's die Streameinheiten

WGF 2.0 definiert jetzt einen Geometrie Streamprozessor auf der GPU der letzteres eigentlich genauso komplett übernehmen kann.

Ich verstehe also nicht, warum die PS3 so viel besser sein soll. Die GPUs von 2006 werden auch nicht viel geringere Stream-Throughputs haben wie Cell.

Wie gesagt, da gebe ich dem PS3 Cell ungefähr ein Jahr Vorsprung. :|

PS: Das Konzept der PS2 ist eigentlich genau das gleiche: Eine relativ langsame CPU und dazu noch Vektoreinheiten für Streamaufgaben. Die PS3 ist gar keine Revolution in dem Sinne.

Jesus
2005-02-26, 19:17:31
Und dabei ist das Teil noch nich mal sehr schnell, weil ziemlich viel Platz für die ganzen Streameinheiten draufgehen.
Es kann also durchaus passieren dass das dein Bottleneck wird in Spielen, dann gewinnst du mit der ewig hohen Streampower von Cell keinen Blumentopf mehr

Du weisst aber wie aktuelle PPCs getaktet sind oder ? knapp 2Ghz, und sind dabei etwa so effizient wie ein A64. Ein 4 Ghz "PPC Core" (kein POWER5, sondern eine Neuentwicklung, inkl. SMT und SIMD Instruktionen) wird ganz sicher nicht "nich mal sehr schnell" sein :)

Coda
2005-02-26, 19:39:25
Ja, er hat aber pro Takt nicht den Durchsatz von aktuellen PowerPCs. Das Ding musste extrem zusammengeschrumpft werden. Mehr als 30-50 Mio Transistoren waren wohl nicht drin. Cache gibt's wohl auch fast keinen.
Und SIMD hat das Ding soweit ich weiß gar nicht. Wozu auch? Es gibt ja die Streameinheiten.

Das normale G5 PowerPC Design würde in 65nm auch niemals mit 4Ghz laufen. Siehst ja wie Apple schon mit Wasserkühlung kommen muss für 2,5Ghz.

Und selbst wenn es so wäre, würde das meine "max ein Jahr Vorsprung" Theorie nicht verändern.

Und nochwas: Pick dir nicht immer die Rosinen aus meinen Posts raus.

ShadowXX
2005-02-26, 21:17:39
Jesus hat schon recht....zumindest lt. arstechnica:


Unfortunately, today's session was severly lacking in information on the 64-bit PPC core that handles the Cell's general-purpose computing chores. We do know that this core has a VMX/Altivec unit, at least one FPU, and supports simultaneous multithreading (SMT). It's also in-order issue, like the SPUs. So it appears that this core also lacks an instruction window, presumably for the same reasons that the SPUs do (i.e. to save on die space and cut down on control logic.) I have in my notes that the core is two-issue, like the SPUs, but I can't find this corroborated anywhere else. So it's possible that the core only issues two instructions per cycle peak, i.e. one from each currently-running thread. I'd imagine that if this is the case, this core's pipeline is very short. This would fit with the SPUs, in which the pipeline was also kept short and simple.

The entire Cell is produced on a 90nm SOI process with 8 layers of copper interconnect. The Cell sports 234 million transistors, and its die size is 221mm2. (This is roughly the size of the Emotion Engine at its introduction.) The PPC core's 32KB L1 cache is connected to the system L2 cache via a bus that can transfer 32 bytes/cycle between the two caches.


Er soll wohl tatsächliche eine VMX/Altivec Einheit haben und auch SMT beherrschen.

Er ist aber ein In-Order Design..........aber die Pipeline soll sehr kurz sein (was leider nicht in Zahlen angegeben wurde und somit auch "relativ" vom AUge des Betrachters abhängig sein).

Aber in einer sache muss ich Coda Recht geben.....das Ding wird Hölle zu Programmieren sein, speziell wenn man das Design ausnutzen will.

Da brauch Sony sehr gute Compiler und eine extrem gute API für die Deveolper, wenn man was vom Leistungspotential der PS3 sehen will.

Demirug
2005-02-26, 21:31:37
Zum Thema Streamprocessore als GÜU empfehle ich:

http://graphics.stanford.edu/papers/reyes-vs-opengl/
http://graphics.stanford.edu/papers/jowens_thesis/
http://graphics.stanford.edu/papers/prsa/

Gäst
2005-02-26, 21:35:12
Dann versteh ich die Aussagen von einem IBM Verantwortlichen aber nicht, das der Cell besser zu programmieren sei als die PS2, sprich breite Flexibilität des Cell.

Gäst
2005-02-26, 21:42:45
The Cell processor that will power the next version of the PlayStation game console will also be adaptable for advanced scientific research, but you won't have to be a rocket scientist to program it.

That is the pledge of one of the chief architects of the Cell, jointly developed by IBM, Sony, and Toshiba, who together on Friday sought to allay fears that the chip would create huge programming challenges for game developers just starting to learn their ways around the complex circuitry that powers the current PlayStation 2.
"We're very much aware of the need to balance between innovation in architecture and the ability to leverage that innovation," H. Peter Hofstee, a researcher in IBM's Systems and Technology division, said during a break at an IBM press event in San Francisco today. "The learning curve for this platform should be significantly better than previous ones."

The three companies announced their Cell plans three years ago, describing an advanced processor tailored for demanding multimedia tasks. The companies said earlier this week that they plan to begin test production of Cell chips early next year, with the first Cell-based products--workstation PCs for computer graphics production--set to arrive late in the year.

Sony and Toshiba both plan to start selling high-definition TV sets powered by the chip in 2006, which is also when Sony is expected to introduce the Cell-powered PlayStation 3.

Hofstee said the Cell will benefit game developers not only by giving them a stable and easily approachable foundation for games to run on, but also by powering the workstations they use to produce games. The upshot is that developers should be spending a lot less time waiting for their equipment to render the animations they create.

"We think it's going to be a much more seamless and speedy process for developers using these workstations," he said.

Besides workstations, game machines, and TV sets, the Cell is also likely to power certain types of scientific supercomputers, streaming media servers, and image analysis systems, all of which have continually expanding needs for processing power. Hofstee said the Cell taps into an emerging "convergence between what we think of as supercomputing and what we use in the entertainment space."

Beyond that, the sky's the limit, according to Hofstee, who said the Cell development team set out to create a flexible design that would dramatically increase processing power while skirting growing chipmaker concerns about power consumption.

"We've created something that is very flexible," he said. "Having a more generic architecture will allow people to do new things."

Source:

Gamespot

Coda
2005-02-27, 11:10:13
aber die Pipeline soll sehr kurz seinSehr kurze Pipeline bei 4Ghz? :|

Sehr interessante Papers Demirug, aber wie passt das mit der nV Hardware zusammen? Was soll nV sonst liefern außer einem Rasterizer? Nur die TMUs und so Sachen?

ShadowXX
2005-02-27, 11:14:44
Sehr kurze Pipeline bei 4Ghz? :|


Hab gewartet das jemand darauf anspringt, den das kam auch mir sehr komisch vor.

Aber wie erwähnt...das kommt von arstechnica und nicht von mir.

Coda
2005-02-27, 11:21:01
Das SMT beim PowerPC Kern kommt mir auch reichlich komisch vor. SIMD von mir aus...

stav0815
2005-02-27, 11:31:12
Du weisst aber wie aktuelle PPCs getaktet sind oder ? knapp 2Ghz, und sind dabei etwa so effizient wie ein A64. Ein 4 Ghz "PPC Core" (kein POWER5, sondern eine Neuentwicklung, inkl. SMT und SIMD Instruktionen) wird ganz sicher nicht "nich mal sehr schnell" sein :)

meinst du, nur weils ne Neuentwicklung ist, sei er schneller alsein aktueller Power5 Core?

Jesus
2005-02-27, 13:09:00
meinst du, nur weils ne Neuentwicklung ist, sei er schneller alsein aktueller Power5 Core?

Das haben Neuentwicklungen meistens so ansich :)

Die relativ kurze Pipeline (was ja eigentlich im Widerspruch zum sehr hohen Takt liegt) kommt wohl daher dass IBM auch beim PPE einige Schritte (Decoding..) in der Befehlspipeline in die Software verlegt hat, wie auch bei den SPUs, wohl um ein einheitliches System zu bekommen (und Transistoren zu sparen).

Coda
2005-02-27, 13:19:26
Das Ding is ein In-Order (!) Design Das ist niemals so effizient wie ein G5.

Und wie stellst du dir "decoding in Software" vor? Transmeta mäßig? Dann wär die Performance ja noch beschissener.

Jesus
2005-02-27, 13:43:12
Das Ding is ein In-Order (!) Design Das ist niemals so effizient wie ein G5.

Und wie stellst du dir "decoding in Software" vor? Transmeta mäßig? Dann wär die Performance ja noch beschissener.

Einfaches Design mit wenig Overhead eben, wie auch der Rest. Ich denke das ganze wird dadurch sogar schneller (imkl. Altivec/VMX), einen optimalen Compiler vorrausgesetzt.

Das soll ja in dern zukünftigen Power 300 auch so gemacht werden (die auch schon des öfteren als CELL Derivate betrachtet wurden, oder umgekehrt)

Demirug
2005-02-27, 13:48:58
Sehr kurze Pipeline bei 4Ghz? :|

Sehr interessante Papers Demirug, aber wie passt das mit der nV Hardware zusammen? Was soll nV sonst liefern außer einem Rasterizer? Nur die TMUs und so Sachen?

Das wird schon eine komplette GPU sein. Ich habe die Papers eigentlich nur gepostet weil dort schön aufgeführt wird warum reine Streamprozessoren nicht wirklich als GPU taugen.

stav0815
2005-02-27, 14:52:05
Das haben Neuentwicklungen meistens so ansich :)

aber mitnichten... ich führe hier mal als erstes Beispiel den Pentium 4 vs Pentium 3 an...

Coda
2005-02-27, 17:47:58
Einfaches Design mit wenig Overhead eben, wie auch der Rest. Ich denke das ganze wird dadurch sogar schneller (imkl. Altivec/VMX), einen optimalen Compiler vorrausgesetzt.Das Ding ist PowerPC kompatibel. PowerPC hat aber keine Instruction Level Parallelität wie EPIC, deshalb ist das quatsch.

Das Ding kann bei 4Ghz und dem Transistorbudge gar nicht effizienter sein als der G5. Und wenn das In-Order stimmt, was bei Aces steht, dann ist es erst recht so.

ShadowXX
2005-02-27, 20:31:06
Das Ding ist PowerPC kompatibel. PowerPC hat aber keine Instruction Level Parallelität wie EPIC, deshalb ist das quatsch.

Das Ding kann bei 4Ghz und dem Transistorbudge gar nicht effizienter sein als der G5. Und wenn das In-Order stimmt, was bei Aces steht, dann ist es erst recht so.

es ist wohl definitiv ein In-Order-Design, denn das hab ich inzwischen auf verschiedensten Websites gelesen.

Und die Effiziens eines G5 wird der PPC-Core des Cell auch nicht haben....auch dieses war schon mehrfach zu hören.

Und genau aus diesem Grund wird wohl auch noch SMT mit drinne sein....um eben die Effizenzs doch noch etwas nach oben zu hiefen:

So it's possible that the core only issues two instructions per cycle peak, i.e. one from each currently-running thread.

....ohne SMT währens nämlich nur eine Instruktion pro Takt als Peak-Wert.
Mit SMT hätte man immerhin als theoretischen Peak 2 Instruktionen pro Takt.

Wobei ich es für etwas idealisiert halte.....

Coda
2005-02-27, 20:37:57
SMT macht die Sache auch nicht gerade einfacher. Man muss also den PowerPC Core schön parallel versorgen und damit auch noch die Streamprozessoren synchronisieren.

Ich muss nicht für die PS3 programmieren. Juhu.

Jesus
2005-02-27, 20:58:42
mal ein paar intressante Gedanken aus nem arstechnica forum: :rolleyes:

... after editing and reading your post do you see where this whole affair leads to a very complex processor. SMT and inorder operation greatly simplfies this. The inorder operation and the new logic allows for the fast clocks with short pipes and SMT works to fill the execution units. The need for OoO drops out of the picture. Frankly it seems like the smart design trade off to me.

OoO engines strikes me as an expensive way to get resource utilization up. The PPE should show that utilitzation can be increased without the heavy burden that an OoO facility adds to a processor. Well that is my hope anyways, can't wait honestly to see how this all pans out.

In contrast an in order SMT may not have as robust performance over many work loads, particularly those with only a single thread. However, for specific workloads where you know you will have multiple threads to run always, a two way inorder SMT processor should give you quite a bit of bang for the buck, especially when it is as highly clocked as the PPE is.

Of course, that being said, it is very interesting to me that the PPE may be able to execute legacy code just as well as the 970, considering most of it has been optimized for the G4 and G3. In addition, I think the PPE's SMT capability is compelling for OS X. A dual core PPE processor being able to execute 4 threads simultaneously I think is more attractive than a single core 970. Especially since the PPE eliminates the heavy speculive penalty of misprediction and has a better chance of using all of its excution units per cycle than the 970 does.

The PPE would also make optimizing code a lot easier for the compiler.


Man muss also den PowerPC Core schön parallel versorgen und damit auch noch die Streamprozessoren synchronisieren.

Die SPUs musst du nicht synchronisieren, denke das übernimmt der Compiler. So weit ichs verstanden habe weiss der Code nichtmal auf welcher SPU er ausgeführt wird, und es ist ihm auch ziemlich egal.

Coda
2005-02-27, 22:37:12
Die SPUs musst du nicht synchronisieren, denke das übernimmt der Compiler. So weit ichs verstanden habe weiss der Code nichtmal auf welcher SPU er ausgeführt wird, und es ist ihm auch ziemlich egal.Du must auf jeden Fall irgendwie Jobs für die Streamprozessoren verwalten das ist ja letzenendes der Zweck der PPEs.

Für SMT braucht man auch erstmal 2 Threads. Das is auch nicht immer einfach.

Of course, that being said, it is very interesting to me that the PPE may be able to execute legacy code just as well as the 970, considering most of it has been optimized for the G4 and G3. In addition, I think the PPE's SMT capability is compelling for OS X. A dual core PPE processor being able to execute 4 threads simultaneously I think is more attractive than a single core 970. Especially since the PPE eliminates the heavy speculive penalty of misprediction and has a better chance of using all of its excution units per cycle than the 970 does.

The PPE would also make optimizing code a lot easier for the compiler.Jain. Du weißt so gut wie ich dass sich nicht alles parallelisieren lässt. Außerdem können moderne Prozessoren auch so >2 Instructions/Cycle ausführen (vor allem Designs wie der A64). Die PPEs können das nur wenn du auch Threads benützt. Ansonsten hast du lausige 1 Instruction/Cycle. Das ist maximal so gut wie nen 2Ghz G5.

Und wie die PPEs eine höhere Chance haben können ihre Einheiten auszulasten ohne Out-Of-Order ist mir auch sehr sehr schleierhaft. Nur mit SMT haste da auch keine Chance. Wenn beide Threads grad nen Add wollen hast du verloren, dann bist du wieder bei 1 Instruction/Cylce.

Gassssssssttttttt
2005-02-28, 10:41:41
wieder was neues (altes) von IBM bzgl. CELL:

http://www.heise.de/newsticker/meldung/56854

smoe82
2005-02-28, 10:47:30
Ich könnte mir eine solche Karte gut als Multimedia-Erweiterung vorstellen. MPEG-Streaming, Encoding, Decoding, Netzwerk, Verschlüsselung, Sound usw.


Aber dann hätten so einige (teure) Extrakarten keine Daseinsberechtigung mehr. Deswegen wird sich in der Industrie auch niemand ins eigene Fleisch schneiden. Naja, abwarten. Vielleicht erwirbt irgendeine kleinere Klitsche Rechte am CELL-Chip und konkurriert dann nicht mit den eigenen Produkten, sondern bringt mal was total Innovatives.


Grüße!

MarioK
2005-02-28, 10:52:50
Zum Thema Streamprocessore als GÜU empfehle ich:

http://graphics.stanford.edu/papers/jowens_thesis/


wow, 200 seiten ... hat der typ sein doc. titel gekriegt?

GloomY
2005-03-02, 13:10:31
Du weisst aber wie aktuelle PPCs getaktet sind oder ? knapp 2Ghz, und sind dabei etwa so effizient wie ein A64. Ein 4 Ghz "PPC Core" (kein POWER5, sondern eine Neuentwicklung, inkl. SMT und SIMD Instruktionen) wird ganz sicher nicht "nich mal sehr schnell" sein :)2 Instruktionen pro Takt als Peak-Issue Rate ist verdammt wenig (man denke an die 9 Ops/Takt beim Athlon). Dazu noch nicht mal Out-of-Order Execution. Was das Ausnutzen von ILP (Instruction-Level-Parallism) angeht, sieht es also so aus, als ob der "PPC Core" technologisch zwischen Pentium1 und K5 Niveau steht. Sicherlich hilft hier der hohe Takt und SMT, aber trotzdem würde ich hier keine Wunder erwarten. Von der Effizenz eines Power5 Prozessors ist das Ding meilenweit entfernt.Jain. Du weißt so gut wie ich dass sich nicht alles parallelisieren lässt. Außerdem können moderne Prozessoren auch so >2 Instructions/Cycle ausführen (vor allem Designs wie der A64). Die PPEs können das nur wenn du auch Threads benützt. Ansonsten hast du lausige 1 Instruction/Cycle. Das ist maximal so gut wie nen 2Ghz G5.

Und wie die PPEs eine höhere Chance haben können ihre Einheiten auszulasten ohne Out-Of-Order ist mir auch sehr sehr schleierhaft. Nur mit SMT haste da auch keine Chance. Wenn beide Threads grad nen Add wollen hast du verloren, dann bist du wieder bei 1 Instruction/Cylce.Ist das wirklich Fakt? Der Original-Quote lautet:So it's possible that the core only issues two instructions per cycle peak, i.e. one from each currently-running thread.Das klingt eher nach einer Vermutung als einer Tatsache.

Möglich wär's trotzdem, dann müsst man generell gar nie nach parallelen Befehlen suchen und könnte sich den Scheduler komplett sparen. Dann gibt es nämlich zu jedem Zeitpunkt nur einen möglichen Befehl (pro Thread), welcher in die Ausführungseinheiten geschickt werden kann.
Das macht den Core natürlich nochmal einfacher :)

btw: Hohe Taktraten sind nicht zwangsläufig nur mit langen Pipelines zu erreichen.

Gassssttttt
2005-03-02, 15:58:10
2 Instruktionen pro Takt als Peak-Issue Rate ist verdammt wenig (man denke an die 9 Ops/Takt beim Athlon).

Die aber in praktisch nie erreicht werden (siehe auch Power5 der ja auch 8/Takt könnte, aber architekturbedingt nur etwa 4/Takt schafft im optimalen Fall.

ShadowXX
2005-03-02, 16:05:13
Die aber in praktisch nie erreicht werden (siehe auch Power5 der ja auch 8/Takt könnte, aber architekturbedingt nur etwa 4/Takt schafft im optimalen Fall.

Das stimmt natürlich.....aber es ging ja auch um theoretische Peak-Werte gegeneinander.

GloomY
2005-03-05, 17:45:10
Die aber in praktisch nie erreicht werden (siehe auch Power5 der ja auch 8/Takt könnte, aber architekturbedingt nur etwa 4/Takt schafft im optimalen Fall.Sicherlich sind diese Zahlen in der Realität weit vom Optimum entfernt. Für den K7 habe ich als Durchschnittswert (inklusiv Verzögerung durch Speicherzugriffe usw.) bei Integercode 1,7 bis 2,5 Ops/Takt in Erinnerung. Der "PPC Core" des Cells wird in der Realität wohl weit unterhalb einem Op/Takt landen.

Es ging mir aber auch nur darum, dass man nicht auf die gleiche Leistung pro Takt schliessen kann, bloss weil die ISA beim "PPC Core" die gleiche ist wie z.B. beim Power5.