PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Was bringen 0,5, 1, 2 oder 4 MB L2-Cache beim Conroe-L


Gast
2007-07-05, 21:05:24
Was bringen 0,5, 1, 2 oder 4 MB L2-Cache beim Conroe-L
der Test:

http://www.computerbase.de/news/hardware/prozessoren/intel/2007/juli/was_05_1_2_4_mb_l2-cache/

http://www.legionhardware.com/document.php?id=651&p=0

http://img401.imageshack.us/img401/3464/lcacheoc0.jpg

reunion
2007-07-05, 21:09:17
Und dabei muss man noch beachten, dass Intel nicht nur die Caches beschneidet, sondern auch mit den Caches die Assoziativität jeweils mit der Cachegröße halbiert. Was einmal mehr beweist, dass mehr Cache ab einer gewissen Größe kaum noch etwas bringt.

K4mPFwUr$t
2007-07-05, 21:11:04
muss halt jeder für sich entscheiden ob die paar € auch ein paar FPS/sec wert sind.

Gast
2007-07-05, 21:11:43
Daran sieht man einmal mehr, das übliche (Verdummungs)-Benchmarks überhaupt nichts taugen, da sie zu 99% die Grafikkarte vermessen, aber nicht die CPU Leistung.

Fakt ist, sobald eine CPU Limitierung auftritt, wird sich die Variante mit mehr Cache deutlich absetzen können. Vorallem bei den min-fps kann sich das stark bemerkbar machen und dort ist es eh am wichtigsten.

Gast
2007-07-05, 21:13:34
Ich persönlich halte die E4x00 mit 2 MB für besonders ausgewogen,
auch von Preis her !

.

Wurschtler
2007-07-05, 21:15:18
Ich persönlich halte die E4x00 mit 2 MB für besonders ausgewogen,
auch von Preis her !

.


Gerade die 2 MB Teile sind kaum besser als die mit 1 MB.
Die 4 MB sind dann doch gleich ein gutes Stück schneller.

reunion
2007-07-05, 21:16:52
Geradedie 2 MB Teile sind kaum besser als die mit 1 MB.
Die 4 MB sind dann doch gleich ein gutes Stück schneller.

Das ist natürlich Blödsinn. Genau das Gegenteil ist das Fall, das sagt schon das Gesetz des abnehmenden Grenzertrages.

Super Grobi
2007-07-05, 21:18:29
Daran sieht man einmal mehr, das übliche (Verdummungs)-Benchmarks überhaupt nichts taugen, da sie zu 99% die Grafikkarte vermessen, aber nicht die CPU Leistung.

Fakt ist, sobald eine CPU Limitierung auftritt, wird sich die Variante mit mehr Cache deutlich absetzen können. Vorallem bei den min-fps kann sich das stark bemerkbar machen und dort ist es eh am wichtigsten.

Was willst du damit sagen? Das ein 2MB c2d nicht viel langsamer ist, als ein 4MB Model und diese Benchmarks da oben Mist sind?

Das Thema interessiert mich auch, aber ich komme zu keinem Ergebniss...

SG

Gast
2007-07-05, 21:30:09
Das ist natürlich Blödsinn. Genau das Gegenteil ist das Fall, das sagt schon das Gesetz des abnehmenden Grenzertrages.


theoretisch ja, die tests hier zeigen aber was anderes, nämlich dass 4 gegenüber 2MB fast immer gleich viel oder sogar mehr als 2 gegenüber 1MB bringt.

Noebbie
2007-07-05, 21:31:35
Chache ist nicht gleich Chache. Es gibt verschiedene Arten.

@reunion

Bei einer Veringerung der Assoziativität heißt das doch, dass die *Anzahl an Cachezeilen verringert wird, oder?

*wurde hinzueditiert

Super Grobi
2007-07-05, 21:47:57
Chache ist nicht gleich Chache. Es gibt verschiedene Arten.

(..)

ist klar, aber hier wird über L2 Cache gesprochen und nicht über L1 oder L3.

Topic: Bäh, jetzt hab ich das Gefühl, das mein Prozi ne lahme Gurke ist... :(

SG

Spasstiger
2007-07-05, 22:01:27
Bei einer Veringerung der Assoziativität heißt das doch, dass die *Anzahl an Cachezeilen verringert wird, oder?

*wurde hinzueditiert
Ja, eine Verringerung der Assoziativität bedeutet, dass es weniger Cache-Zeilen gibt, die parallel ausgelesen und durchsucht werden.

Bei einem vollwertigen Core 2 Duo mit 4 MB L2-Cache ist der L2-Cache z.B. 16-way set associative ausgelegt, bei 2 MB L2-Cache nur noch 8-way set associative.
Der L1-Cache ist bei allen Core 2 Duos 8-way set associative soweit ich weiß.

Allerdings bringt die Erhöhung der Assoziativität von 8 auf 16 nur geringe Vorteile und je größer der Cache, desto kleiner der Vorteil durch höhere Assoziativität.
Hätte man einen Core 2 Duo E6600 mit 8-fach statt 16-fach assoziativem L2-Cache, lägen die Performanceeinbußen wahrscheinlich nichtmal im Promille-Bereich.

P.S.: In meinem Skript zu Technische Informatik sind SPEC2000-Benchmarks des Alpha-Prozessors bei verschiedenen Cache-Größen und Assoziativitäten. Allerdings ist hier der kritischere Daten-Cache ("L1") gemeint und nicht der L2-Cache.
Hier mal ein paar Auszüge bei LRU-Ersetzungsstrategie (im Falle eines vollen Caches und eines Cache-Misses muss ja ein bestehender Eintrag überschrieben werden, bei der LRU-Ersetzungsstrategie wird der am längsten nicht mehr gelesene Eintrag überschrieben):
64 kb Daten-Cache: 2-Wege => 10,34% Cache-Misses, 8-Wege => 9,97% Cache-Misses
256 kb Daten-Cache: 2-Wege => 9,22% Cache-Misses, 8-Wege => 9,21% Cache-Misses

Noebbie
2007-07-05, 22:04:35
ist klar, aber hier wird über L2 Cache gesprochen und nicht über L1 oder L3.

Topic: Bäh, jetzt hab ich das Gefühl, das mein Prozi ne lahme Gurke ist... :(

SG

ups, weiß auch net woher das h da herkommt :redface:

Aber danke für den Hinweis! ;D

Superheld
2007-07-05, 22:04:36
liegt auch an den Timedemos die benutzt werden,
20fps mehr wie bei legionhardware wird man nie in Farcry Außenlevel haben :smile:

200mhz mehr bringen grad:| mal 5fps 85 vs 90, also max vieleicht 10fps durch 4mb Cache

Gast
2007-07-05, 22:07:40
Ein Core 2 Duo mit 2 MB Cache ist doch genauso vollwertig oder ?

Spasstiger
2007-07-05, 22:14:19
Ein Core 2 Duo mit 2 MB Cache ist doch genauso vollwertig oder ?
Die L2-Cache-Assoziativität ist nur 8-fach statt 16-fach, der Cache ist nur 2 MB statt 4 MB groß. Für mich ist das nicht vollwertig.

Gast
2007-07-05, 22:44:20
Das ist natürlich Blödsinn. Genau das Gegenteil ist das Fall, das sagt schon das Gesetz des abnehmenden Grenzertrages.
Was immer du sagst...

http://www.legionhardware.com/Bench/Intel_Conroe_Cache_Performance/Gaming_02.png

HotSalsa
2007-07-05, 23:20:20
Und dabei muss man noch beachten, dass Intel nicht nur die Caches beschneidet, sondern auch mit den Caches die Assoziativität jeweils mit der Cachegröße halbiert. Was einmal mehr beweist, dass mehr Cache ab einer gewissen Größe kaum noch etwas bringt.

Hmmm, gerade die für mich interessanten Benches (die Games :biggrin: ) reagieren doch ganz gut auf das Plus an Cache.
ZB 100 zu 124 fps finde ich ganz ordentlich. Es kann gut sein, dass man bei 1 oder 2 Mb Cache um auf die 124 fps zu kommen, eine Taktstufe höher gehen müsste. Das würde aber sicherlich mehr Strom verbrauchen als den Cache zu vergrößern. Auf die games bezogen ist hier "mehr Cache" = effizient "mehr Performance".

Wie meinte Tombman gleich noch mal? "...keine kastrierten Prozzis". ;D

Gummikuh
2007-07-05, 23:44:44
Wie meinte Tombman gleich noch mal? "...keine kastrierten Prozzis". ;D

Ach mit 2MB ist man immerhin "Der Einäugige unter den Blinden" und man spart nen paar Moppen nebenbei :usweet:

Gast
2007-07-06, 05:59:47
Was willst du damit sagen? Das ein 2MB c2d nicht viel langsamer ist, als ein 4MB Model und diese Benchmarks da oben Mist sind?

Natürlich nicht.

Ich will damit sagen, das ein großer Cache immer sehr große Vorteile haben kann und die üblichen Benchmarks nichts taugen um das aufzuzeigen, da sie hauptsächlich die Grafikkarte belasten und nicht die CPU.

20% sind da keine Seltenheit... auch wenn das von einigen Usern hier immer für unrealistisch gehalten wird. :rolleyes:

Diese Werte sind absolut zutreffend, schon während ihr in Windows arbeitet, Dateien verschlüsselt, komprimiert, irgendwelche Dateien ausführt, Audio oder Videos encodiert etc... macht sich der Cache so bemerkbar, wie er sollte.

Das in synthetischen Bench, weitab der Realität die Grafikkarte das Ergebniss gefälscht, ist doch schon lange kein Geheimniss mehr.

Mr.Magic
2007-07-06, 09:35:09
Natürlich nicht.

Ich will damit sagen, das ein großer Cache immer sehr große Vorteile haben kann und die üblichen Benchmarks nichts taugen um das aufzuzeigen, da sie hauptsächlich die Grafikkarte belasten und nicht die CPU.

20% sind da keine Seltenheit... auch wenn das von einigen Usern hier immer für unrealistisch gehalten wird. :rolleyes:

Diese Werte sind absolut zutreffend, schon während ihr in Windows arbeitet, Dateien verschlüsselt, komprimiert, irgendwelche Dateien ausführt, Audio oder Videos encodiert etc... macht sich der Cache so bemerkbar, wie er sollte.

Das in synthetischen Bench, weitab der Realität die Grafikkarte das Ergebniss gefälscht, ist doch schon lange kein Geheimniss mehr.

Vernünftige Systembenchmarks lassen die Teilbereiche einzeln auswerten, so dass man Grafiktests bei einer Arbeitsmaschine ignorieren kann.
Ansonsten muss ich fragen, wieso weitab der Realität? Spielst du deine Spiele in 640x480? Bei mir limitiert in 3D zu 99,99% die Grafikkarte.

Haarmann
2007-07-06, 09:46:07
Immer gut so ne Tabelle im Hinterkopf zu haben. Schön jeweils, wenn sich wer die Mühe macht und so eine Tabelle generiert.

Gast
2007-07-06, 09:48:37
Ansonsten muss ich fragen, wieso weitab der Realität? Spielst du deine Spiele in 640x480? Bei mir limitiert in 3D zu 99,99% die Grafikkarte.

Wer so argumentiert, ist zu unfähig jegliche Meßwerte richtig zu interpretieren. Es es totaler Schwachsinn so zu denken, weil CPU Power sich immer dann auswirkt, wenn ein CPU Limit vorliegt. Das ist auch bei 2560x1600 8xAA der Fall.

Du spielst ein Rennspiel und hast beim Rennstart ein CPU Limit, weil die CPU die KI berechnen muss. Dadurch werden deine Grafikkarten ausgebremst -> CPU Power 1:1 umsetzbar.

Du spielst einen Shooter, in der viele Gegner zu sehen sind -> KI Berechnungen -> Deine CPU bremst die Grafikkarten aus > CPU Power 1:1 umsetzbar.

Es spielt überhaupt keine Rolle welche Auflösung anliegt, sobald ein CPU Limit vorliegt, werden die Auswirkungen zu sehen sein, immer in der gleichen maximalen Höhe.

Das sagt dir doch schon der logische Sachverstand, ich verstehe nicht, warum es noch Leute gibt, sie zu unfähig sind, so weit zu denken.

PS: Die Benchmarks dieser Seite wurden in 1280x1024 und 1600x1200 durchgeführt.

bneu
2007-07-06, 10:24:49
Was mir bei diesen Benchmarks noch irgendwie ab geht ist ein Vergleich von Frames pro Euro bei den einzelnen Spielen.

Superheld
2007-07-06, 10:35:22
Wer so argumentiert, ist zu unfähig jegliche Meßwerte richtig zu interpretieren. Es es totaler Schwachsinn so zu denken, weil CPU Power sich immer dann auswirkt, wenn ein CPU Limit vorliegt. Das ist auch bei 2560x1600 8xAA der Fall.

Du spielst ein Rennspiel und hast beim Rennstart ein CPU Limit, weil die CPU die KI berechnen muss. Dadurch werden deine Grafikkarten ausgebremst -> CPU Power 1:1 umsetzbar.

Du spielst einen Shooter, in der viele Gegner zu sehen sind -> KI Berechnungen -> Deine CPU bremst die Grafikkarten aus > CPU Power 1:1 umsetzbar.

Es spielt überhaupt keine Rolle welche Auflösung anliegt, sobald ein CPU Limit vorliegt, werden die Auswirkungen zu sehen sein, immer in der gleichen maximalen Höhe.

Das sagt dir doch schon der logische Sachverstand, ich verstehe nicht, warum es noch Leute gibt, sie zu unfähig sind, so weit zu denken.

PS: Die Benchmarks dieser Seite wurden in 1280x1024 und 1600x1200 durchgeführt.

trotzdem brings nicht viel, wenn du am Start 20 anstatt 18fps hast:smile:

Gast
2007-07-06, 10:38:50
trotzdem brings nicht viel, wenn du am Start 20 anstatt 18fps hast:smile:

Denkfehler.

Hast du schonmal was von Zeitintensiven Anwendungen gehört? Rendering, mathemetische Berechnungen, Verschlüsselung, Komprimierung... da resultieren 10-20% in einem geringeren Zeitaufwand.

Außerdem sind 10-20% sehr wohl spürbar, vorallem der Unterschied zwischen 15 und 18fps ist deutlich wahrzunehmen und das ist mir persönlich wichtiger, als 100 > 120fps.

Mr.Magic
2007-07-06, 14:10:15
Wer so argumentiert, ist zu unfähig jegliche Meßwerte richtig zu interpretieren. Es es totaler Schwachsinn so zu denken, weil CPU Power sich immer dann auswirkt, wenn ein CPU Limit vorliegt. Das ist auch bei 2560x1600 8xAA der Fall.

Du spielst ein Rennspiel und hast beim Rennstart ein CPU Limit, weil die CPU die KI berechnen muss. Dadurch werden deine Grafikkarten ausgebremst -> CPU Power 1:1 umsetzbar.

Du spielst einen Shooter, in der viele Gegner zu sehen sind -> KI Berechnungen -> Deine CPU bremst die Grafikkarten aus > CPU Power 1:1 umsetzbar.

Es spielt überhaupt keine Rolle welche Auflösung anliegt, sobald ein CPU Limit vorliegt, werden die Auswirkungen zu sehen sein, immer in der gleichen maximalen Höhe.

Das sagt dir doch schon der logische Sachverstand, ich verstehe nicht, warum es noch Leute gibt, sie zu unfähig sind, so weit zu denken.

PS: Die Benchmarks dieser Seite wurden in 1280x1024 und 1600x1200 durchgeführt.

Wenn das Spiel soooo CPU-limitiert ist geht möglicherweise 16xSS, oder sogar 32xAA... Und das "kostenlos". :tongue:
Entweder die FPS reichen, oder sie reichen nicht. 20% hin oder her machen das Kraut auch nicht fett.

Denkfehler.

Hast du schonmal was von Zeitintensiven Anwendungen gehört? Rendering, mathemetische Berechnungen, Verschlüsselung, Komprimierung... da resultieren 10-20% in einem geringeren Zeitaufwand.

Außerdem sind 10-20% sehr wohl spürbar, vorallem der Unterschied zwischen 15 und 18fps ist deutlich wahrzunehmen und das ist mir persönlich wichtiger, als 100 > 120fps.

Schön für dich. Ich merke zwischen 15 und 18FPS keinen Unterschied. Bei einem Shooter ist beides zu lahm, und bei einem RPG beides schnell genug.

Das zeitintensive Zeug macht mein Athlon X2. Der kann sich dabei so viel Zeit nehmen wie er will.

Schrotti
2007-07-06, 14:50:37
Da ich in 1280x1024 spiele, ist es vollkommen egal ob ich nun einen E4300 (2,4GHz) oder E2160@3,2GHz habe.

Der Unterschied beträgt schlappe 7fps (wenn beide mit 2,4GHz takten) wobei meiner mit 3,2GHz rennt (damit habe ich die 7fps bestimmt locker wieder drin).

http://www.legionhardware.com/Bench/Intel_Conroe_Cache_Performance/Gaming_02.png

Sonyfreak
2007-07-06, 15:05:07
Da ich in 1280x1024 spiele, ist es vollkommen egal ob ich nun einen E4300 (2,4GHz) oder E2160@3,2GHz habe.

Der Unterschied beträgt schlappe 7fps (wenn beide mit 2,4GHz takten) wobei meiner mit 3,2GHz rennt (damit habe ich die 7fps bestimmt locker wieder drin).

http://www.legionhardware.com/Bench/Intel_Conroe_Cache_Performance/Gaming_02.pngIst aber interessant, dass der Sprung von 1 auf 2MB Cache weniger bringt, als der Sprung von 2 auf 4MB. Normalerweise geht man ja eher vom umgekehrten Fall aus.

mfg.

Sonyfreak

Ph0b0ss
2007-07-06, 15:24:28
Ist aber interessant, dass der Sprung von 1 auf 2MB Cache weniger bringt, als der Sprung von 2 auf 4MB. Normalerweise geht man ja eher vom umgekehrten Fall aus.

mfg.

Sonyfreak

Bei den X-bit labs ist es auch so, dass es von 1MB auf 2MB mehr bringt, als von 2MB auf 4MB(außer bei Excel).:|

http://www.xbitlabs.com/articles/cpu/display/pentium-e2160_4.html#sect0

Gast
2007-07-06, 20:38:54
muss halt jeder für sich entscheiden ob die paar € auch ein paar FPS/sec wert sind.

Naja, im Gegensatz zum Rest hat der E6320 ja noch die Virtualisierungstechnik Vanderpool.

Also ich werde mir auf jedenfall einen E6320 kaufen und falls das nicht klappt,
dann lieber einen AMD X2, denn die haben alle die Virtualisierungstechnik Pacifica, eine Beschneidung (außer bei den Semptrons) gibt es da nicht.

Gast
2007-07-06, 20:52:49
Der E4300 und kleiner ist ne Krücke, die haben alle kein Vanderpool!

Senior Sanchez
2007-07-06, 20:55:37
P.S.: In meinem Skript zu Technische Informatik sind SPEC2000-Benchmarks des Alpha-Prozessors bei verschiedenen Cache-Größen und Assoziativitäten. Allerdings ist hier der kritischere Daten-Cache ("L1") gemeint und nicht der L2-Cache.
Hier mal ein paar Auszüge bei LRU-Ersetzungsstrategie (im Falle eines vollen Caches und eines Cache-Misses muss ja ein bestehender Eintrag überschrieben werden, bei der LRU-Ersetzungsstrategie wird der am längsten nicht mehr gelesene Eintrag überschrieben):
64 kb Daten-Cache: 2-Wege => 10,34% Cache-Misses, 8-Wege => 9,97% Cache-Misses
256 kb Daten-Cache: 2-Wege => 9,22% Cache-Misses, 8-Wege => 9,21% Cache-Misses

Die Assozitivität sagt aus wieviele Cache-Zeilen parallel gelesen werden? Wie kann es dann sein, dass mehr Assozivität zu weniger Cache-Misses führt? Ich sehe da jetzt keinen kausalen Zusammenhang, da die Art wie ausgelesen wird, doch nix damit zu tun hat, wie der Cache mit Daten gefüttert wird oder?

danger!
2007-07-06, 21:00:37
Naja, im Gegensatz zum Rest hat der E6320 ja noch die Virtualisierungstechnik Vanderpool.

Also ich werde mir auf jedenfall einen E6320 kaufen und falls das nicht klappt,
dann lieber einen AMD X2, denn die haben alle die Virtualisierungstechnik Pacifica, eine Beschneidung (außer bei den Semptrons) gibt es da nicht.

Frage: Braucht man das wirklich? Wenn man nicht mit vmware o.ä. arbeitet wohl eher weniger und das dürften wohl 95% der User sein. Also nicht von sich selber auf alle schliessen.

Schrotti
2007-07-06, 21:25:39
Der E4300 und kleiner ist ne Krücke, die haben alle kein Vanderpool!

Das muss man ja auch unbedingt haben ne werter Gast?

Ich kann gut drauf verzichten.

Senior Sanchez
2007-07-06, 21:49:02
Frage: Braucht man das wirklich? Wenn man nicht mit vmware o.ä. arbeitet wohl eher weniger und das dürften wohl 95% der User sein. Also nicht von sich selber auf alle schliessen.

Mac-Nutzer verzichten darauf denke ich ungerne, denn Parallels, was aufm Mac sehr verbreitet ist, nutzt VT ;)

Und da ich Mac-Nutzer bin...

Super Grobi
2007-07-06, 22:22:18
(...)

Und da ich Mac-Nutzer bin...

... bist du eine Ausnahem und man braucht es nicht ;)

SG

Gast
2007-07-06, 23:33:36
Entweder die FPS reichen, oder sie reichen nicht. 20% hin oder her machen das Kraut auch nicht fett.

Klar machen die das Kraut fett.

Ich merke zwischen 15 und 18FPS keinen Unterschied. Bei einem Shooter ist beides zu lahm, und bei einem RPG beides schnell genug.

Ich hoffe das ist nicht dein ernst!
Erstell dir mal ein Video mit 15fps und dann ein weiteres mit 18fps. Schau dir beide an und sag uns, ob du einen Unterschied siehst. Wenn nicht, empfehle ich dir dringend einen Gang zum Optiker!

Das zeitintensive Zeug macht mein Athlon X2. Der kann sich dabei so viel Zeit nehmen wie er will.

Super Denkweise. Wenn Firmen so denken würden, wie du, lebten wir heute noch in der Steinzeit. :rolleyes:

Seht es doch endlich mal ein, das eine CPU nicht zum zocken gebaut wird!

Spasstiger
2007-07-07, 01:00:49
Die Assozitivität sagt aus wieviele Cache-Zeilen parallel gelesen werden? [...]
Ja, bzw. in wieviel Cachezeilen gleichzeitig gesucht wird und wie somit der Cache organisiert ist. Die Suche in mehreren Zeilen erhöht natürlich die Komplexität des Caches bzw. der Cachelogik.

Um zu verstehen, warum die set-associative-Cache-Organisation Vorteile bringt, betrachten wir zunächst mal den einfachsten Fall, 1-way set-associative, üblicherweise direct-mapped genannt.
Dabei wird über eine jeder Speicheradresse eine Cache-Adresse fest zugeordnet. Da der Speicher bzw. der Adressraum in der Regel ein Vielfaches größer sind als der Cache, müssen sich so natürlich mehrere Speicheradressen dieselbe Cachezeile teilen.
Die Speicheradresse wird dabei in der Regel unterteilt in einen Tag, einen Index und einen Offset. Der Index kennzeichnet dabei die Cache-Zeile, der Tag dient zur Erkennung, welcher Speicherblock in der Cachezeile abgelegt wurde. Mit dem Offset kann dann ein bestimmter Speichereintrag ausgewählt werden. Entscheidend ist für unsere Betrachtung der Index.
Verwendet ein Programm bei Speicherzugriffen mehrere Adressen mit demselben Index, kommt es zur Kollision und damit zu Cache-Misses. Es sollen verschiedene Speicheradressen verwendet werden, die aber auf denselben Eintrag im Cache zeigen.
Diese Cache-misses sind dann adressbedingt und nicht nur bedingt dadurch, dass ein Speichereintrag schlicht noch nicht im Cache vorhanden ist.
Der Vorteil des direct-mapped-Cache ist halt die einfache Realisierung (wenig Transistoren).

Bei 2-way set-associative Cache wird nun in zwei Zeilen parallel nach dem richtigen Speichereintrag gesucht. Dementsprechend können auch zwei verschiedene Speicherblöcke mit demselbem Index im Cache abgelegt werden. Es gibt zwei Cache-Zeilen mit demselben Index. Allerdings müssen dann die Tags nach dem richtigen Eintrag durchsucht werden.
Je größer die Assoziativität, desto aufwändiger wird die Suchlogik.
Mit steigender Assoziativität sinkt aber natürlich auch das Risiko von adressbedingten Konflikten.

Für sehr kleine Caches eignet sich auch die Organisationsform fully-associative. In diesem Fall haben alle Cache-Zeilen denselben Index und es wird in allen Cache-Zeilen parallel nach dem Index gesucht. Anders gesagt kann so ein Speichereintrag an einer beliebigen Stelle im Cache stehen, während bei set-associative und direct-mapped Caches die möglichen Stellen im Cache für einen Speichereintrag vorgegeben sind.
Kollisionen von verschiedenen Adressen mit demselben Index sind bei einem fully-associative Cache gänzlich ausgeschlossen, es kommt zu keinen adressbedingten Konflikten mehr.
Cache-Misses werden dann nur noch aufgrund der begrenzten Cache-Kapazität verursacht, also weil ein Speichereintrag einfach noch nicht im Cache vorhanden ist.
Der Nachteil ist natürlich, dass die Suchlogik besonders komplex ausfällt und bei großen Caches nicht wirtschaftlich realisierbar ist.

Ich hoffe mal, dass du einigermaßen mitgekommen bist. Ist halt blöd, das so zu erklären ohne Anschauungsmaterial und Code-Beispiele. In unserem Skript ist das Thema Caches recht anschaulich gehalten.

Mr.Magic
2007-07-07, 02:00:23
@Gast
Ich soll ein Video mit 15 und mit 18FPS kodieren und versuchen einen Unterschied festzustellen? Soll das Original mit 15, 24, 25 oder 30FPS sein?
Oder soll ich versuchen ein 3D-Programm mit 15 und 18FPS laufen lassen und ein Video davon zu machen? Dazu müsste ich erstmal Video in und Video out anschließen, damit ich ohne HDD-Ruckler (FRAPS (n)) auf dem Zweitrechner aufnehmen kann. Dafür sollte sogar der Steinzeitrechner - Athlon 64 X2 - genügen. :tongue:

Sieh einfach ein, dass die Arbeiten, bei denen der Cache einen Unterschied macht normalerweise nicht zeitkritisch sind, sprich in Echtzeit laufen (müssen).
Störend wäre sowas höchsten, wenn man nur einen einzigen Rechner hat, und der von einer Anwendung blockiert wird. Aber so zu arbeiten wäre wie in der Steinzeit. Server/Arbeitssklave, Spiele-PC und ein Laptop sollten es schon sein.

Gast
2007-07-07, 02:12:20
Oder soll ich versuchen ein 3D-Programm mit 15 und 18FPS laufen lassen und ein Video mit 15, 30 oder 60FPS kodieren?

Mach doch mal eine Videoaufnahme eines Games mit HyperCam, einmal mit 18fps, ein anderes mal mit 15fps.

Ich schätze du hast nie Oblivion gespielt, 15fps sind schon arg grenzwertig, im Kampf hilft jedes einzelne frame, weil damit die Zielgenauigkeit erheblich besser wird.
Oblivion ist trotz seiner schönen Grafik an vielen Stellen arg CPU limitiert, besonders in Städten, wo sich hunderte Charaktere tummeln (KI).

Sieh einfach ein, dass die Arbeiten, bei denen der Cache einen Unterschied macht normalerweise nicht zeitkritisch sind, sprich in Echtzeit laufen (müssen).

Das ist sowas von falsch, das glaubst du gar nicht.

Denkst du etwa, das es Leuten, die ihr Geld mit diesen Dingen verdienen, egal ist, wie schnell das Projekt fertiggestellt ist?

Ich gebe dir mal ein Tipp: Kernel compilieren, Rendering, Audio, Video, Grafiken bearbeiten sind Domänen für eine CPU.

Stell dir mal vor, ein Filmstudio würde 20% mehr Zeit für jedes einzelne frame benötigen, das würde die Kosten enorm in die Höhe treiben und den Release stark verzögern.

Du kannst dir noch so viele Rechner anschaffen, die sind keine alternativen. Denn sie bräuchten immernoch länger und außerdem erhöht sich mit mehreren Rechnern der Verwaltungsaufwand (Wartung, Softwareinstallation etc.) enorm, sowie die Stromkosten und die benötigte Kühlung kostet weiteres Geld.

So zu denken, halte ich für idiotisch. Eine CPUs werden nicht für Zockerkiddies entwickelt.

Mr.Magic
2007-07-07, 03:08:57
Mach doch mal eine Videoaufnahme eines Games mit HyperCam, einmal mit 18fps, ein anderes mal mit 15fps.

Ich schätze du hast nie Oblivion gespielt, 15fps sind schon arg grenzwertig, im Kampf hilft jedes einzelne frame, weil damit die Zielgenauigkeit erheblich besser wird.
Oblivion ist trotz seiner schönen Grafik an vielen Stellen arg CPU limitiert, besonders in Städten, wo sich hunderte Charaktere tummeln (KI).



Das ist sowas von falsch, das glaubst du gar nicht.

Denkst du etwa, das es Leuten, die ihr Geld mit diesen Dingen verdienen, egal ist, wie schnell das Projekt fertiggestellt ist?

Ich gebe dir mal ein Tipp: Kernel compilieren, Rendering, Audio, Video, Grafiken bearbeiten sind Domänen für eine CPU.

Stell dir mal vor, ein Filmstudio würde 20% mehr Zeit für jedes einzelne frame benötigen, das würde die Kosten enorm in die Höhe treiben und den Release stark verzögern.

Du kannst dir noch so viele Rechner anschaffen, die sind keine alternativen. Denn sie bräuchten immernoch länger und außerdem erhöht sich mit mehreren Rechnern der Verwaltungsaufwand (Wartung, Softwareinstallation etc.) enorm, sowie die Stromkosten und die benötigte Kühlung kostet weiteres Geld.

So zu denken, halte ich für idiotisch. Eine CPUs werden nicht für Zockerkiddies entwickelt.

Sicher habe ich Oblivion gespielt. Ist sogar mit 10FPS noch steuerbar.

Professionelle Projekte entstehen nicht von heute auf morgen. Sie bestehen normalerweise aus vielen Einzelteilen, die sich hervorragend parallelisieren lassen.
Grafiken für Werbetafeln werden z.B. auch nicht innerhalb von ein paar Minuten benötigt. Der Künstler verbringt Tage bis Wochen mit der Erstellung. Du glaubst doch nicht, dass es dann eine Rolle spielt, ob die Berechnung eines Effektes 100 oder 120 Sekunden dauert.

Gerade bei Filmstudios arbeitet nicht nur eine Person an einem Rechner. Szenen werden weder in Folge gedreht, noch bearbeitet. Bei Celluloid ist es erstmal Drehen -> Entwickeln (was von den Dailies als würdig empfunden wurde) -> Telecine. Dann arbeiten an der Szene parallel Tontechniker, ein Komponist und Grafiker (Renderfarmen). Wo spielt es da eine Rolle ob die CPU durch den Cache 5-20% schneller ist?
Oder sind rein computeranimierte Filme gemeint? Gerade Programme wie 3ds Max können Projekte sogar über ein Netzwerk parallelisieren.

Das soll auch mein Schlusswort zu dem Thema sein.

Gast
2007-07-07, 03:26:36
Sicher habe ich Oblivion gespielt. Ist sogar mit 10FPS noch steuerbar.

Zwischen "steuerbar" und "gut spielbar", so das es Spaß macht, liegen immernoch welten. Du kannst niemanden erzählen, das es Spaß macht, mit der Performance a la GeForce 6200 TC Oblivion zu zocken. ;D

Ruckeln zerstört die Atmosphäre. Charaktere bewegen sich roboterartig, Bäume und Gras sehen nicht wie solches aus und die Bedienung wird erheblich erschwert.

Professionelle Projekte entstehen nicht von heute auf morgen. Sie bestehen normalerweise aus vielen Einzelteilen, die sich hervorragend parallelisieren lassen.

Dann erzähle uns doch mal, warum es sinnvoller sein sollte, 24 Rechner statt 20 herzunehmen? Wer soll die zusätzlichen Rechner warten und bezahlen? DU?

Grafiken für Werbetafeln werden z.B. auch nicht innerhalb von ein paar Minuten benötigt. Der Künstler verbringt Tage bis Wochen mit der Erstellung. Du glaubst doch nicht, dass es dann eine Rolle spielt, ob die Berechnung eines Effektes 100 oder 120 Sekunden dauert.

Natürlich spielt das eine entscheidende Rolle. Hast du schonmal professionell Grafiken designt?
Wenn ja, dann solltest du wissen, das diese Leute sehr oft Veränderungen am Bild vornehmen oder Filter durchlaufen lassen, die bei einem unkomprimierten Format schonmal minuten - stunden in Anspruch nehmen. Je nach Größe des Bildes.
Versuch mal auf deinem Rechner mit einer mehreren GB großen Bilddatei zu hantieren und es umrechnen zu lassen. Das sind keine sekunden!

Gerade bei Filmstudios arbeitet nicht nur eine Person an einem Rechner.

Das zeugt von Unwissen.
Fast jeder der dort arbeitet, besitzt mindestens einen, in den meisten Fällen mehrere Rechner+Bildschirme und hat seine zugewiesene Aufgabe.

Szenen werden weder in Folge gedreht, noch bearbeitet.

Natürlich werden Szenen bearbeitet, geschnitten oder in der Qualität überarbeitet. Wo lebst du denn? Das ist das A und O der Filmbranche.

Wo spielt es da eine Rolle ob die CPU durch den Cache 5-20% schneller ist?

Du hast es immer noch nicht gerafft.

Wenn du mehrere Rechner brauchst, steigt der Verwaltungsaufwand erheblich. Wer kümmert sich um die Rechner, wer arbeitet daran, wer besorgt die Ersatzteile, wer bezahlt die Kühlung etc.

Mal als Beispiel: Warum 24 Rechner hernehmen und 24+ Mitarbeiter einteilen, wenn 20 schnellere Rechner mit 20 Mitarbeitern besetzt werden können und das ergiebiger ist? Schließlich brauchst du auch für jeden Rechner jemanden, der sich bei Problemem darum kümmert.

Und was zum Teufel glaubst du, woraus so eine Renderfarm besteht?

Es gibt sogar Supercomputer aus hunderten von Opterons/Xeon CPUs, glaubst du wirklich das es den Leuten egal ist, ob sie 500 oder 600 CPUs verbauen müssen? Also wirklich, manchmal muss ich mir echt an den Kopf fassen, was manche für realitätsferne Vorstellungen haben. :down:

Mr.Magic
2007-07-07, 03:28:21
Dann erzähle uns doch mal, warum es sinnvoller sein sollte, 24 Rechner statt 20 herzunehmen? Wer soll die zusätzlichen Rechner warten und bezahlen? DU?

Nope, mich ruft ihr an, wenn ihr jemanden braucht, der die Wartung übernimmt. Je mehr Rechner ihr habt, desto besser für mich. Ich muss schließlich auch von was leben. ;)

Gerade nochmals deinen letzten Beitrag durchgelesen. Jetzt verstehe ich deine Konfusion. Du bist kein Deutscher.

Ich schrieb das bei Filmstudios nicht EINE Person an EINEM Rechner arbeitet (und für den ganzen Film alleine zuständig ist). Dazu meinst du ich wäre unwissend, und bestätigst dann meine Aussage!

"Szenen werden weder in Folge gedreht, noch bearbeitet." Das liest du jetzt solange hintereinander bis du den verkürzten Nebensatz kapierst. Szenen werden weder in Folge gedreht, noch werden sie in Folge bearbeitet.

Wie gesagt, ich bin dann mal weg.

del_4901
2007-07-07, 04:12:04
... Wie gut das wir alle Prozentrechnung in der Schule hatten ... einmal kurz umrechen ... und dann komische Komentare unterlassen.

Gast
2007-07-07, 04:16:25
Jetzt verstehe ich deine Konfusion. Du bist kein Deutscher.

Was du alles glaubst zu wissen.

Ich schrieb das bei Filmstudios nicht EINE Person an EINEM Rechner arbeitet (und für den ganzen Film alleine zuständig ist)

Das habe ich kein einziges mal gesagt. Vielleicht nochmal die Passage lesen. ;)

... Wie gut das wir alle Prozentrechnung in der Schule hatten ... einmal kurz umrechen ... und dann komische Komentare unterlassen.

Aha, wirklich. Ernsthaft? Wow! Und was soll uns dein "komischer Kommentar" sagen?

reunion
2007-07-07, 10:20:38
Aha, wirklich. Ernsthaft? Wow! Und was soll uns dein "komischer Kommentar" sagen?

Das hier viele offensichtlich nicht in der Lage sind, die Tabelle richtig zu lesen. Die Basis ist die 1MB Version, und der Gewinn durch ein zusätzliches MB beträgt hier 3.9%. Um den Gewinn durch eine nochmalige Verdoppelung des Caches (also 4MB) zu errechnen, kannst du natürlich nicht einfach die Differenz der beiden Gewinne bilden, sondern musst von der 2MB Version ausgehen.

Gast
2007-07-07, 10:37:36
Davon hat hier eigentlich keiner gesprochen...

Wenn man sich die realen Werte ansieht, wirds deutlicher:
http://www.legionhardware.com/document.php?id=651&p=3

Schon bei Games so viel Unterschied allein durch Cache. Da verstehe noch einer, warum es trotzdem Leute gibt, die denken, das Cache unnütz sei. Das krasse Gegenteil ist der Fall, vorallem weil dort auch noch die Grafikkarte mit im Spiel ist, schade das keine professionellen Anwendungen gebencht wurden.

Gast
2007-07-07, 13:48:22
Also ich bin ein anderer Gast und kann bestätigen das man den Unterschied zwischen 15 fps und 18 fps deutlich spürt.


Wer von euch mal vor der Zeit der 3d Grafikkarten am PC gespielt hat, der weiß wovon ich rede.

Da war es die Regel das die Spiele unter DOS mit 12-21 fps liefen und 21 fps waren schon herausragend gut.

15 fps war richtig quälend, gut spielen konnte man das Spiel im Prinzip erst ab 18 fps.



Heutige Gamer sind seit der Voodoo 2 natürlich mit 30 fps und mehr verwöhnt,
aber wer sich noch an die alten Tage erinnern kann und damals gespielt hat, der weiß, daß die 3 fps mehr einen gehörigen Unterschied in der Spielbarkeit ausmachten.

seb74
2007-07-13, 15:27:00
Gibt es bestimmte Distributed Projects, die vom 4MB L2 gegenüber 2MB stark profitieren? Insbes. interessiert mich Prime, RC5 und Boinc..