PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Alles zum Intel Multi-Core Briefing


up¦²
2005-03-02, 18:46:50
http://pc.watch.impress.co.jp/docs/2005/0303/kaigai_6.jpg


http://pc.watch.impress.co.jp/docs/2005/0303/kaigai_1.jpg

http://pc.watch.impress.co.jp/docs/2005/0303/kaigai_2.jpg


http://pc.watch.impress.co.jp/docs/2005/0303/kaigai_3.jpg


Quelle:
Pc Watch, Japan (http://pc.watch.impress.co.jp/docs/2005/0303/kaigai161.htm)

BlackBirdSR
2005-03-02, 18:56:48
Interessant,
An den Gerüchten, dass Intel für Presler auf MultiChip, statt Multi-Core setzt, ist also echt was drann.
Eventuell um den Takt weiter erhöhen zu können.

Die Frage:
Bringt das generell Vorteile, oder ist der prescott einfach zu komplex, um daraus effizient Multicore DIEs fertigen zu können.

Savay
2005-03-02, 19:05:09
ich tippe eher auf letzteres...

der daten austausch zwischen den cores dürfte vermute bei nur 1 DIE etwas besser von statten gehen...hat der dann eigentlich 2 separate systembus anbindungen? (im gunde wär es dann ja nen klassisches SMP system mit einer schlichten platzersparniss) wenn nicht in welchem core sitzt der bus und wie reagiert der 2. core darauf? :|

EDIT ausserdem müssten dann doch 2 verschiedene Cores designed werden...nen master und nen slave core...oder nicht? bzw sie müssten so verschaltet werden

up¦²
2005-03-02, 19:13:46
==> Keynote Webcast!

http://www.intel.com/idf/us/spring2005/systems/webcast.htm

GloomY
2005-03-02, 20:30:35
Ich dachte, dass nach Montecito nun endlich Tukwilla kommt. Aber zumindest hat sich laut dieser Folie noch "Montvale" dazwischengeschoben.
Ich will endlich wieder Alpha-Technologie sehen :D

btw: Wie viele mm² hat der Smithfield? Ich würde mal auf etwa 200 mm² schätzen...

Endorphine
2005-03-02, 20:53:44
Interessant,
An den Gerüchten, dass Intel für Presler auf MultiChip, statt Multi-Core setzt, ist also echt was drann.
Eventuell um den Takt weiter erhöhen zu können.

Die Frage:
Bringt das generell Vorteile, oder ist der prescott einfach zu komplex, um daraus effizient Multicore DIEs fertigen zu können. Imho ist das nur 'ne einfache Maßnahme, um den Yield zu erhöhen und die Kosten zu drücken. :) Momentan ist die Nachfrage nach Single-Core Prescott ja noch hoch genug, so dass man im Falle eines defekten zweiten Kerns einen Prescott hat (zweiten Kern absägen/deaktivieren). Der Presler soll ja wirklich Mainstream werden, da wäre ein riesiges Die (selbst in 65 nm P1264) wohl nicht wirtschaftlich genug.

Intel hat mit Multi-Chip Verpackungen ja schon Erfahrung (Pentium Pro), hoffentlich kommunizieren die beiden Kerne im Presler nicht über den gemeinsamen FSB miteinander. :|

Endorphine
2005-03-02, 20:54:58
btw: Wie viele mm² hat der Smithfield? Ich würde mal auf etwa 200 mm² schätzen... 206 mm², 230 M Transistoren.

reunion
2005-03-02, 21:16:52
Ich schmeiss das mal hier rein.

Erste Benchmarks des Pentium XE mit Dual-Core (http://www.computerbase.de/news/hardware/prozessoren/intel/2005/maerz/erste_benchmarks_pentium_xe_dual-core/)

Intel scheint momentan mächtig auf die Tube zu drücken, die Neuvorstellungen überschlagen sich ja geradezu.

Endorphine
2005-03-02, 21:27:18
Ich schmeiss das mal hier rein.

Erste Benchmarks des Pentium XE mit Dual-Core (http://www.computerbase.de/news/hardware/prozessoren/intel/2005/maerz/erste_benchmarks_pentium_xe_dual-core/)

Intel scheint ja momentan mächtig auf die Tube zu drücken, die Neuvorstellungen überschlagen sich geradezu. Quelle: http://www.clubic.com/actualite-18866-idf-2005-genese-du-pentium-extreme-edition-840.html

Bildchen (anklicken zum vergrößern):
http://www.clubic.com/photo/0000011800120119.jpg (http://www.clubic.com/t/screenshot120119.html)

Pat Gelsinger mit einem Koffer der Lust. :D Sogar mit einem Dempsey, dem Irwindale-Nachfolger. W00t. :eek:

http://www.clubic.com/photo/0000011800120178.jpg
http://www.clubic.com/photo/00120130.jpg


Quelle: http://www.clubic.com/actualite-18870-idf-2005-la-roadmap-serveur-devoilee.html

BlackBirdSR
2005-03-02, 21:31:04
124% mehr frames beim Spielen und aufnehmen von mehreren TV Shows.

Das benutzte Spiel war NFS2 :O

Merkor
2005-03-02, 21:34:33
Wie kann man den Leistung bei puren Single-Thread Spielen (z.B.) abschätzen? Ist das dann so, dass man lediglich 3GHz und einen Kern eines Smithfields nutzen kann?

Wann kommen Spiele mit Multi-Core-Unterstützung? Es wird ja bisher nichtmal auf HT optimiert, weil die Kosten einfach zu hoch sind für den Leistungsgewinn. Letztendlich müsste das doch eine ähnlich Prozedur sein, oder?

reunion
2005-03-02, 21:38:08
124% mehr frames beim Spielen und aufnehmen von mehreren TV Shows.

Das benutzte Spiel war NFS2 :O

Naja, man sollte die Zahlen mit vorsicht betrachten, kommen ja immerhin direkt von Intel. Im übrigen kann ich mir nicht erklären wie eine CPU durch einen zweiten kern mehr als 100% schneller werden soll. Noch dazu wurde der P4 EE mit 3,73ghz und 2MB L2 Cache sowie FSB 1066 gegen den 3,2ghz Smithfield gebencht?!

Merkor
2005-03-02, 21:44:33
Im übrigen kann ich mir nicht erklären wie eine CPU durch einen zweiten kern mehr als 100% schneller werden soll.

- Ohne zusätzliche Anwendung auf Single-Core sind es bspw. 100FPS.

- Mit TV-Aufzeichnung auf Single-Core 25FPS.

- Mit TV-Aufzeichnung auf Dual-Core 60FPS.

Schon hast du deine 124% ca. ;).

LOCHFRASS
2005-03-02, 21:51:13
http://pc.watch.impress.co.jp/docs/2005/0303/kaigai_2.jpg


http://i8.ebayimg.com/02/i/02/ea/55/35_1_b.JPG

Ich will nicht wissen, mit was Intel den Verkaeufer damals geschmiert hat, die CPU doch bitte rauszunehmen... ;)

reunion
2005-03-02, 21:51:31
- Ohne zusätzliche Anwendung auf Single-Core sind es bspw. 100FPS.

- Mit TV-Aufzeichnung auf Single-Core 25FPS.

- Mit TV-Aufzeichnung auf Dual-Core 60FPS.

Schon hast du deine 124% ca. ;).

Ich weiss wieviel 124% sind. ;)
Ich verstehe nur nicht wie man durch 100% theoretische Leisungserhöhung, in diesem Fall sind es ja nichtmal 100%, 124% schneller sein kann. Wo kommen die anderen prozente her? Ich hatte eigendlich mit max. 80% gerechnet da ja auch noch synchronisiert werden muss, außerdem muss man sich ja die Bandbreite teilen ect.

safgh
2005-03-02, 21:56:46
Ich weiss wieviel 124% sind. ;)
Ich verstehe nur nicht wie man durch 100% theoretische Leisungserhöhung (in diesem Fall sind es ja nichtmal 100%), 124% schneller sein kann. Wo kommen die anderen prozente her? Ich hatte eigendlich mit max. 80% gerechnet da ja auch noch synchronisiert werden muss, außerdem muss man sich ja die Bandbreite teilen ect.

die vielen prozesswechsel des betriebssystems fallen aus.

wenn du 2 anspruchsvolle anwendungen mit gleicher priorität gleichzeitig laufen lasst muss das betriebssystem die beiden prozesse auf der cpu ständig hin-und-her-wechseln. dabei muss auch immer jetztzustand des prozesses, der gerade in die warteschlange geschickt wird gespeichert werden.

daher fallen ständig lehrzeiten an, in denen die cpu nicht rechnen kann, das alles entfällt bei dual-core (teilweise auch schon mit hyper-threading)

reunion
2005-03-02, 21:59:27
die vielen prozesswechsel des betriebssystems fallen aus.

wenn du 2 anspruchsvolle anwendungen mit gleicher priorität gleichzeitig laufen lasst muss das betriebssystem die beiden prozesse auf der cpu ständig hin-und-her-wechseln. dabei muss auch immer jetztzustand des prozesses, der gerade in die warteschlange geschickt wird gespeichert werden.

daher fallen ständig lehrzeiten an, in denen die cpu nicht rechnen kann, das alles entfällt bei dual-core (teilweise auch schon mit hyper-threading)

Thx, das erscheint logisch =)
:up:

asgh
2005-03-02, 22:04:58
die vielen prozesswechsel des betriebssystems fallen aus.

wenn du 2 anspruchsvolle anwendungen mit gleicher priorität gleichzeitig laufen lasst muss das betriebssystem die beiden prozesse auf der cpu ständig hin-und-her-wechseln. dabei muss auch immer jetztzustand des prozesses, der gerade in die warteschlange geschickt wird gespeichert werden.

daher fallen ständig leerzeiten an, in denen die cpu nicht rechnen kann, das alles entfällt bei dual-core (teilweise auch schon mit hyper-threading)


argh ich muss wohl komplett doof sein :D

dildo4u
2005-03-02, 23:00:58
"Erstaunlich ist hingegen, dass Intel bereits den für 2006 vorgestellten "Presler"-Prozessor in 65nm-Fertigung in Aktion zeigen konnte. Der Presler-Prozessor ist der Nachfolger des Smithfield und hat unter anderem einen doppelt so großen L2-Cache - besitzt aber eine andere Aufbauweise. Aufgrund der Fertigung wird INtel hier wohl zwei separate Prozessoren auf einen Prozessor-Die packen. Die Kerne sind dann also physikalisch voneinander getrennt. Sie besitzen jeweils 2 MB L2-Cache und somit insgesamt 4 MB L2-Cache, ebenso können sie mit Hyperthreading umgehen, sodass vier Threads bearbeitet werden können" :eek:

tombman
2005-03-03, 11:51:09
Ich frag mich nur WER will denn bitte spielen und gleichzeitig was daneben rechnen lassen?

"Normale" Enthusiasten sicher nicht. Und diejenigen die WIRKLICH viel mit Video, Audio und Transcodieren zu tun haben sitzen doch eh schon auf dual xeon oder dual opteron Systemen...

Vorallem die extreme edition setzt doch auf gamer, aber wenn ein "billiger" 660er sich höher takten läßt und damit mehr fps bringt....

Klar wäre es cool einfach mal nebenbei number crunshing zu machen während man gamed, aber ob das reichen wird freaks dual core cpus zu verkaufen?

p.s.: das Montecito Monster is pr0n pur ;)

up¦²
2005-03-03, 11:57:01
Was mich interessiert, ist, ob mit DC endlich die lange Kaffeepause beim Viruscheck wegfällt :rolleyes:

Intel sagt ja dauernd: ==> DC= Komfort, also wie sieht es aus mit ==> Multitasking :wink:

Dann MUSS das OS aber mitspielen ...

khkjh
2005-03-03, 11:57:23
wenn der aufpreis nicht allzu hoch ist und man sich gerade sowieso ein neues system beschafft wäre es zumindest eine überlegung wert auf die maximale single-thread-leistung zu verzichten und dafür eine dual-core-cpu zuzulegen.

ich nehme auch öfter was über meine tv-karte auf und archivier das ganze dann als xvid, was in den höchsten qualitätseinstellungen auf meinem system gerade mal 5-8fps ergibt. wenn man dann noch 2-pass-encoding verwendet braucht das ganz schön lange für ein video, und ich hätte eigentlich nichts dagegen daneben noch einen core für das restliche system oder z.b. zum gamen zu haben ;)

goldman82110
2005-03-03, 12:43:31
Ich frag mich nur WER will denn bitte spielen und gleichzeitig was daneben rechnen lassen?
Man könnte ja z.B. nen Teamspeak Server laufen lassen beim zoggen :smile: Wäre doch cool.

DweF
2005-03-03, 13:06:27
Was mich interessiert, ist, ob mit DC endlich die lange Kaffeepause beim Viruscheck wegfällt :rolleyes:

Intel sagt ja dauernd: ==> DC= Komfort, also wie sieht es aus mit ==> Multitasking :wink:

Dann MUSS das OS aber mitspielen ...

mag mich täuschen, aber ich hab immer das gefühl das man es mit ht schon deutlich merkt und nebenbei mehr geht.

mfg

up¦²
2005-03-03, 13:15:10
"Komischer Weise" vermeidet Intel ( wie AMD samt MS :wink: ) das Reizwort Multi-Tasking :rolleyes:

Dafür kommt ein ganzer Wust von neuen technologischen Wortschöpfungen :P

Siehe die Keynote von Gelsinger ;D

ûbrigens: hier ist Yonah, Haleluja! :tongue:
http://pc.watch.impress.co.jp/docs/2005/0303/idf06_04.jpg
http://pc.watch.impress.co.jp/docs/2005/0303/idf06_05.jpg
http://pc.watch.impress.co.jp/docs/2005/0303/idf06_07.jpg

Quelle:
Pc Watch, Japan (http://pc.watch.impress.co.jp/docs/2005/0303/idf06.htm)

up¦²
2005-03-03, 14:29:59
http://www.microsoft.com/licensing/images/dual_dual_labeled.gif


Customer C has a system with two processors, and each processor has two processor cores. One server software license would be required per processor.



@§!"#$%&² ... :P

http://www.microsoft.com/licensing/highlights/multicore.mspx


BTW, das wird richtig teuer für'n Cell-Processor :biggrin:

G@st
2005-03-03, 14:32:49
Es bleibt also alles beim alten.

Frequently Asked Questions

Q. What is a "processor"?

A. A physical processor is a single chip that houses a collection of one or more cores. A core is a collection of one or more processor threads and a set of shared execution resources. A processor thread is the architectural state within a processor that tracks execution of a software program thread/task.

Q. When does the new Microsoft licensing policy regarding multicore processors go into effect?

A. The licensing policy is current as of October 19, 2004. Dual-core processors and dual-core processor systems are expected to be available in mid-2005. Microsoft is moving in parallel with hardware technology innovation to ensure that customers have the appropriate information to budget and plan for their business needs as multicore technology becomes available.

Q. A customer wants to upgrade their single-core processor system by replacing the single-core processor with a multicore processor. If they do so, will there be an increase in cost for their current software license?

A. No. The customer will incur the cost for one software license per processor, not per core. So if a customer replaces the single-core processor on their system with a multicore processor, they will need to have only one license per processor.

Q. How does this licensing policy affect products such as Microsoft Windows XP Professional?

A. Windows XP Professional is not affected by this policy as it is licensed per installation and not per processor. Windows XP Professional supports up to two processors regardless of the number of cores on the processor.

Q. With the advent of multicore processors, customers may plan to acquire fewer and/or smaller systems. Due to this fact they may have acquired more server software licenses than they think they will need. Will Microsoft issue refunds?

A. No. Many factors influence the number of licenses customers need. The licenses are still valuable and customers may make use of them as their software needs change.

G@st
2005-03-03, 14:35:41
BTW, das wird richtig teuer für'n Cell-Processor :biggrin: Wieso? Selbst in der Theorie, dass es ein WinDOS dafür geben würde, hieße das, dass MS nur eine Lizenz pro physikalischem Chip fordert. Also kein Problem.

2-way SMP ist zukünftig Standard. Alles andere kostet extra. Ist doch OK. MS ist nicht der einzige ISV, der das so handhabt.

onkel2003
2005-03-03, 17:21:18
Da geht weiter ;-) ComputerBase (http://www.computerbase.de/news/hardware/prozessoren/intel/2005/maerz/idf_intel_dual-core-chips/)

Irgend wie sieht das aus als wenn die Ebay Auktion doch kein fake war. :cool:

http://pics.computerbase.de/news/10264/3.jpg

StefanV
2005-03-03, 17:29:16
Also die beiden da unten haben eigentlich nichtmal den Namen Dual Core CPU verdient!!
Den Dingern einen eigenen Codenamen zu geben, nunja, so kann man halt Aufmerksamkeit erlangen...
Aber 2 DIEs auf ein Package Pappen kann eigentlich jeder Praktikant X-D

Naja, so erklärt sich auch, warum die Dinger nicht mit aktuellen Chipsätzen zusammenarbeiten können...
Hätte man das sinnigere gemacht, nämlich 'ne echte Dual Core CPU, dann hätten die auch mit aktuellen Chipsätzen zusammenarbeiten können...

onkel2003
2005-03-03, 17:36:06
Also die beiden da unten haben eigentlich nichtmal den Namen Dual Core CPU verdient!!
Den Dingern einen eigenen Codenamen zu geben, nunja, so kann man halt Aufmerksamkeit erlangen...
Aber 2 DIEs auf ein Package Pappen kann eigentlich jeder Praktikant X-D

Naja, so erklärt sich auch, warum die Dinger nicht mit aktuellen Chipsätzen zusammenarbeiten können...
Hätte man das sinnigere gemacht, nämlich 'ne echte Dual Core CPU, dann hätten die auch mit aktuellen Chipsätzen zusammenarbeiten können...

geh mal davon aus das Intel das nur gemacht hat um dich zu ärgern ;-)
natürlich haben die kein sinn das sie getrennt sind, aber da wird intel dir mehr zu sagen können warum. :cool:

wichtig ist sie sind da, und noch ein paar tage fliesbandarbeit ;D und sie sind in dein onlineshop um die ecke. ;-)

Coda
2005-03-03, 18:31:39
Bei Intel ist es eh egal ob sie es ein DIE pappen oder nicht. Es wird ja sowieso nichts zwischen den Cores geteilt, weil sie per Bussystem an den Chipsatz angebunden sind.

Beim K8 ist das ja anders, einerseits braucht man den Speichercontroller und andererseits die HT Links für beide gemeinsam.

Insofern wundert es mich warum Intel überhaupt Single-DIE fabriziert. Das macht nur die Produktion riskanter...

Muh-sagt-die-Kuh
2005-03-03, 21:31:29
Bei Intel ist es eh egal ob sie es ein DIE pappen oder nicht. Es wird ja sowieso nichts zwischen den Cores geteilt, weil sie per Bussystem an den Chipsatz angebunden sind.

Beim K8 ist das ja anders, einerseits braucht man den Speichercontroller und andererseits die HT Links für beide gemeinsam.

Insofern wundert es mich warum Intel überhaupt Single-DIE fabriziert. Das macht nur die Produktion riskanter...Ich nehme einfach an, sie können es sich erlauben......erwischt es einen der Cores in der Produktion so macht man eben eine single-Core CPU draus. Dazu muss man auch kein Core-Matching betreiben um eine möglichst homogene Kombination bezüglich Taktfrequenz und Spannungsanforderungen zu finden. Das Packaging sollte mit einem einzelnen Kern auch einfacher sein.....hat eigentlich irgendjemand Daten, wieviele CPUs es bei diesem Schritt zerlegt?

Ich habe auch keine schematischen Darstellung der ersten Intel-DualCores gesehen.....wer weiss ob sich diese nicht auch über ein einziges Interface am PSB hängen.

Von den ganzen dual-Cores der ersten (intel-) Generation finde ich immer noch Montecito am interessantesten, da hier nicht einfach nur 2 single-Core Madisons aneinandergeflanscht wurden sondern gleichzeitig die größten Schwächen des Madison-Cores verschwunden sind.

VooDoo7mx
2005-03-03, 21:41:39
206 mm², 230 M Transistoren.

Interessant, da hat Intel irgendwo Transistoren im Vergleich zum Prescott gespaart...

Aber wenn ich lese, dass die FPU Performance des Yonah verbessert werden sein soll, dann schlackern mir schon die Ohren.
Dann wäre die einzige Schwachstelle der Pentium M Architektur ausgebügelt.

Aber ich finde die IDF einfach nur genial. Fast schon besser als CeBit.
Es gibt soviele interessante Sachen. Schade, dass AMD immer nur mit Paperlaunches kommt. :(

BlackBirdSR
2005-03-03, 22:39:54
IAber wenn ich lese, dass die FPU Performance des Yonah verbessert werden sein soll, dann schlackern mir schon die Ohren.
Dann wäre die einzige Schwachstelle der Pentium M Architektur ausgebügelt.


Die Skalierbarkeit hinsichtlich Takt wäre dann noch auszumerzen.
Bisher ist das einer der Knackpunkte, die einen High-End und Desktopeinsatz der Architektur noch schwer behindern.

GloomY
2005-03-05, 12:59:23
206 mm², 230 M Transistoren.Danke :)
Interessant, da hat Intel irgendwo Transistoren im Vergleich zum Prescott gespaart...Seltsam... :|
die vielen prozesswechsel des betriebssystems fallen aus.

wenn du 2 anspruchsvolle anwendungen mit gleicher priorität gleichzeitig laufen lasst muss das betriebssystem die beiden prozesse auf der cpu ständig hin-und-her-wechseln. dabei muss auch immer jetztzustand des prozesses, der gerade in die warteschlange geschickt wird gespeichert werden.Imho wird nach Ablauf jeder Zeitscheibe der Prozessorzustand gesichert, denn dann kommt ja das Betriebssystem mit dessen Scheduler dran, welcher die CPU nutzen will. Das kann man nur machen, wenn man vorher den Zustand des alten Prozesses gesichert hat, denn der Scheduler muss ja die Register nutzen, usw.
Insofern bleibt der Aufwandt beim Wechseln der Prozesse gleich groß.

btw: Ein Prozesswechsel sind ein paar Hundert Byte an Daten vom Prozessor in den Speicher schieben (und umgekehrt für den neuen Prozess). Das geht recht fix. :)
daher fallen ständig lehrzeiten an, in denen die cpu nicht rechnen kann, das alles entfällt bei dual-core (teilweise auch schon mit hyper-threading)Ich würde mal eher behaupten, dass der überdurchschnittlich große Zugewinn dadurch zustande kommt, dass das TV-Aufnehmen eine gewisse Grundlast für den Prozessor darstellt und der Rest der Rechenleistung für das Spiel verfügbar ist. Wenn man dann die Rechenleistung verdoppelt (theoretisch), bleibt für das Spiel mehr als das Doppelte an Rechenleistung übrig, weil es vorher nur einen Anteil an der Gesamtrechenleistung bekommen hat.

Coda
2005-03-05, 13:14:19
Gibt's eigentlich irgendwo Infos ob bei Longhorn der Scheduler verbessert wird?

sdg
2005-03-05, 13:34:31
Gibt's eigentlich irgendwo Infos ob bei Longhorn der Scheduler verbessert wird?

die frage ist vor allem was man unter verbessert versteht. will man eher einen hohen durchsatz erreichen oder eine bequeme bedienbarkeit. beides geht nicht wirklich, da muss man kompromisse suchen, und jeder wird wahrscheinlich nicht mit dem getroffenen kompromiss zufrieden sein.

aber grundsätzlich sollte man imo schon erwarten dass der algorithmus des shedulers verbessert wird, die frage ist vor allem was man als verbesserung ansieht. eher einen aufwendigeren sheduler der die cpu-zeit fast perfekt verteilt, dafür aber selbst relativ viel cpu-zeit benötigt, oder ein sheduler der bei der zeitverteilung durchaus mal etwas verschwenderisch ist, dafür selbst aber weniger cpu-zeit benötigt?

asdfjklö
2005-03-05, 14:25:27
Danke :)

Imho wird nach Ablauf jeder Zeitscheibe der Prozessorzustand gesichert, denn dann kommt ja das Betriebssystem mit dessen Scheduler dran, welcher die CPU nutzen will. Das kann man nur machen, wenn man vorher den Zustand des alten Prozesses gesichert hat, denn der Scheduler muss ja die Register nutzen, usw.
Insofern bleibt der Aufwandt beim Wechseln der Prozesse gleich groß.



imho sollte es möglich sein die anwendung im vordergrund (z.b. ein game) vollständig, ohne unterbrechungen auf einem core laufen zu lassen. auf dem 2. core läuft dann die aufwändige hintergrundanwendung+scheduler (und natürlich noch andere prozesse die selten ein wenig cpu-zeit benötigen).

bei nur einer cpu (mit 1 core) müsste ständig gewechselt werden: game-scheduler-hintergrundanwendung-scheduler-game.

ich denke schon dass sich da ein wenig speed herausholen lässt. die prozesswechsel brauchen zwar nur wenig bandbreite und zeit, diese wird aber imo ziemlich ineffizient ausgenützt.

GloomY
2005-03-05, 15:28:46
imho sollte es möglich sein die anwendung im vordergrund (z.b. ein game) vollständig, ohne unterbrechungen auf einem core laufen zu lassen.Der Timer-Interrupt der CPU unterbricht die laufende Anwendung imho trotzdem alle n µsek., selbst wenn sie sofort wieder geschedult wird.
auf dem 2. core läuft dann die aufwändige hintergrundanwendung+scheduler (und natürlich noch andere prozesse die selten ein wenig cpu-zeit benötigen).

bei nur einer cpu (mit 1 core) müsste ständig gewechselt werden: game-scheduler-hintergrundanwendung-scheduler-game.Unterbrochen wird immer, selbst wenn es der gleiche Prozess ist, welcher erneut von Zeitscheibe zu Zeitscheibe geschedult wird.
ich denke schon dass sich da ein wenig speed herausholen lässt. die prozesswechsel brauchen zwar nur wenig bandbreite und zeit, diese wird aber imo ziemlich ineffizient ausgenützt.Was Effektivität (genutzte vs. verbrauchte CPU cycles) angeht, so gebe ich dir Recht. Das ist aber btw nicht das primäre Design-Ziel von Mulitprogrammierung/Multitasking.

Ehrlich gesagt bezweifel ich es, dass ein verringerter Overhead beim Kontextswitch viel bei der Performance ausmachen wird. Andere Architekturen wie EPIC müssen eine sehr große Anzahl an Registern sichern und sind trotzdem verdammt schnell. :)

Muh-sagt-die-Kuh
2005-03-06, 01:48:53
Der Timer-Interrupt der CPU unterbricht die laufende Anwendung imho trotzdem alle n µsek., selbst wenn sie sofort wieder geschedult wird.
Unterbrochen wird immer, selbst wenn es der gleiche Prozess ist, welcher erneut von Zeitscheibe zu Zeitscheibe geschedult wird.Korrekt, ohne den Timer-Interrupt kann ein Round-Robin Verfahren nicht wirklich funktionieren....da braucht es nur eine Endlosschleife in einem fehlerhaften Prozess und das ganze System würde nicht mehr reagieren.Was Effektivität (genutzte vs. verbrauchte CPU cycles) angeht, so gebe ich dir Recht. Das ist aber btw nicht das primäre Design-Ziel von Mulitprogrammierung/Multitasking.

Ehrlich gesagt bezweifel ich es, dass ein verringerter Overhead beim Kontextswitch viel bei der Performance ausmachen wird. Andere Architekturen wie EPIC müssen eine sehr große Anzahl an Registern sichern und sind trotzdem verdammt schnell. :)Das sehe ich prinzipiell genauso....eher verliert die im Scheduler verbrauchte Zeit an Relevanz.....denn diese ist fast eine Konstante und nimmt mit steigender CPU-Geschwindigkeit relativ weniger CPU-Zeit ein.

mrdigital
2005-03-06, 13:02:07
Wenn ein Spiel unterbreichungsfrei laufen würde, dann wäre nicht viel los auf dem Bildschirm. Wer soll dann das Bild rendern, wer die Mauseingaben verarbeiten, wer soll sich um den Netzwerkverkehr kümmern?