Archiv verlassen und diese Seite im Standarddesign anzeigen : Wann werden 4 Kern Systeme im Desktop/Gamerbereich Standard sein?
Oder anders gesagt, wie lange wird es dauern, bis es entsprechende Multicoretaugliche Desktopsoftware und Spiele geben wird?
Wie sind eure Einschätzungen? (am besten mit Begründung zum Nachvollziehen)
Nachtrag:
Standard im Sinne von, dieses Feature sinnvoll nutzen können.
Also nicht, bis die ganzen Anwender mit dem Aufrüsten nachgezogen haben.
Undertaker
2007-04-22, 11:07:18
also bei spielen würde ich schätzen, dass die breite masse in etwa 2-3 jahren gebrauch von 4 cores machen könnte (solange hat etwa auch dualcore gebraucht) - anwendungen nutzen multicores je nach bereich eigentlich schon seit längerer zeit ganz gut
mapel110
2007-04-22, 11:12:42
Demirug hat mal gesagt, dass es keinen Sinn macht, auf Dual Core zu optimieren. Es macht Sinn, auf mehrere Cores zu optimieren und sich eben einen Pool von Threads anzulegen, so dass automatisch eine Steigerung mit der Anzahl der Cores einhergeht. Klingt logisch. :)
Natürlich ist irgendwann bei jedem Programm die maximale Parallellisierbarkeit (Wat fürn Wort :ugly: ) erreicht.
Natürlich ist irgendwann bei jedem Programm die maximale Parallellisierbarkeit (Wat fürn Wort :ugly: ) erreicht.
Beispiel?
stav0815
2007-04-22, 11:21:58
Wann werden endlich diese Fragereien ála "Wann wird XY bei Z² Standard sein?" aufhören?
Wann werden endlich diese Fragereien ála "Wann wird XY bei Z² Standard sein?" aufhören?
Nie, denn man will ja abschätzen wann und ob es sich lohnt, noch mit dem Rechnerupgrade zu warten.
Alleine das abzuschätzen ist immer schwieriger als wenn man noch andere ebenfalls fragt, denn man könnte ja etwas übersehen haben.
mapel110
2007-04-22, 11:25:32
Beispiel?
x+y=z
a+b=c
z+c=d
Die ersten beiden Rechnungen können ja parallel laufen, die letzte immer erst dann, wenn die ersten beiden abgearbeitet sind. Also ist hier nach Dual Core keine Steigerung mehr zu erwarten. Deswegen werden Intel und AMD ja auch weiterhin die Leistung pro einzelnem Core weiter steigern.
Demirug
2007-04-22, 11:46:26
Demirug hat mal gesagt, dass es keinen Sinn macht, auf Dual Core zu optimieren. Es macht Sinn, auf mehrere Cores zu optimieren und sich eben einen Pool von Threads anzulegen, so dass automatisch eine Steigerung mit der Anzahl der Cores einhergeht. Klingt logisch. :)
Bitte meine Aussagen nicht auf einen Satz zusammenkürzen.
Natürlich wäre es im Allgemeinen logischer beim PC auf eine Variable Anzahl von Kernen zu optimieren. Allerdings entspricht das eben nicht zwingend dem was wirklich passiert.
Viele Multithread Optimierungen in Spielen sind Quickhacks in Engines die nie dafür ausgelegt waren. Aber selbst bei Spielen bei denen man das von Anfang an berücksichtigt hat ist es fraglich ob man an mehr als zwei Cores gedacht hat. Intels Tipps bezogen sich ja immer nur auf zwei Cores und es ist auch durchaus etwas einfacher für zwei anstellen von n Cores zu optimieren.
Standard im Sinne von, dieses Feature sinnvoll nutzen können.
Also nicht, bis die ganzen Anwender mit dem Aufrüsten nachgezogen haben.
sehr lange (zumindest im bezug auf games)
bei dualcore hat man ja den vorteil dass immer anfallende arbeiten des betriebssystems und auch API/Treiberoverhead recht einfach auf mehrere threads aufteilen lassen, wodurch man schon mal ein ganz nettes leistungsplus bekommt.
mit mehr als 2 cores geht das natürlich nicht mehr, da diese arbeit ja bereits verteilt ist.
es gibt ja noch kaum games die wirklich ordentlich auf dualcore ausgelegt sind (mindestens 80%+ skalierung gegenüber 1 core in cpu-limitierten szenarien), auf anhieb fällt mir da nur supreme-commander ein und nicht mal jenes profitiert wirklich von quadcore. top spin2 ist noch ein spiel, welches zumindest auf OS-seite beide cores zu 100% auslastet, wieviel leistung das wirklich bringt weiß ich allerdings nicht.
bevor spiele auf dualcores nicht mit 80-90% skalieren können sie prinzipiell mal nicht nennenswert von mehreren cores profitieren.
HellHorse
2007-04-22, 15:33:13
also bei spielen würde ich schätzen, dass die breite masse in etwa 2-3 jahren gebrauch von 4 cores machen könnte (solange hat etwa auch dualcore gebraucht) - anwendungen nutzen multicores je nach bereich eigentlich schon seit längerer zeit ganz gut
Hä? Ich zähle genau ein Spiel (Supreme Commander) von dem man behaupten kann, es sei "DualCore-opitimiert". Daneben sind etwa zwei weitere in der Mache (wobei sich dort noch herausstellen muss, wie effektiv die sind) und dürften irgendwann in der nächsten zwei Jahren erscheinen. So sieht es aus.
Und bei den durchschnittlichen Desktopapplikationen: Internet, Office, ... sieht es verdammt übel aus. Da gibt es nicht mal Anstrengungen.
dargo
2007-04-22, 16:02:45
x+y=z
a+b=c
z+c=d
Die ersten beiden Rechnungen können ja parallel laufen, die letzte immer erst dann, wenn die ersten beiden abgearbeitet sind. Also ist hier nach Dual Core keine Steigerung mehr zu erwarten. Deswegen werden Intel und AMD ja auch weiterhin die Leistung pro einzelnem Core weiter steigern.
Könntest du das genauer erklären? Sind das irgendwelche Berechnungen innerhalb der CPU? Kommt da nichts anderes? Man könnte doch aber auch die komplette Physik einem Core zuweisen oder nicht? Genauso zb. die komplette Soundberechnung auf einem Core legen.
dildo4u
2007-04-22, 16:09:39
Hä? Ich zähle genau ein Spiel (Supreme Commander) von dem man behaupten kann, es sei "DualCore-opitimiert". Daneben sind etwa zwei weitere in der Mache (wobei sich dort noch herausstellen muss, wie effektiv die sind) und dürften irgendwann in der nächsten zwei Jahren erscheinen. So sieht es aus.
Es gibt schon noch ein paar mher Games die mit einem Daul-core deutlich besser laufen gerade in den kritischen min fps Situationen z.B X-Box 360 Umsetzungen und Quake4,Stalker,Gothic 3 und bald(2007) dann auch Quakewars und UT3 Crysis etc.
http://666kb.com/i/amslk40x1x25qplc4.png
http://666kb.com/i/amslm7o00npw58p50.png
http://666kb.com/i/amsljhk0em7nok7d0.png
http://666kb.com/i/amslqtmdeiol4zdc4.png
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4884173&postcount=1
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4946482&postcount=151
Neomi
2007-04-22, 16:20:41
Standard im Sinne von, dieses Feature sinnvoll nutzen können.
Dummerweise hat deine Definition von "Standard" nichts mit der Definition von Standard zu tun. Oder würdest du z.B. zwei 8800 GTX im SLI-Betrieb als Standard bezeichnen? Kann man ja sinnvoll nutzen...
bevor spiele auf dualcores nicht mit 80-90% skalieren können sie prinzipiell mal nicht nennenswert von mehreren cores profitieren.
Falsch, ganz falsch. Es sei denn, für dich ist nichts "nennenswert", was nicht linear mit der Zahl der Cores skaliert. Etwas, was mit einem Dualcore maximal 150% der Performance eines Singlecores erreicht, kann mit einem Quadcore immerhin auf maximal 200% der Leistung eines Singlecores kommen.
Undertaker
2007-04-22, 19:02:44
Hä? Ich zähle genau ein Spiel (Supreme Commander) von dem man behaupten kann, es sei "DualCore-opitimiert". Daneben sind etwa zwei weitere in der Mache (wobei sich dort noch herausstellen muss, wie effektiv die sind) und dürften irgendwann in der nächsten zwei Jahren erscheinen. So sieht es aus.
die liste die dildo angefangen hat lässt sich sogar noch erheblich weiter fortsetzen - und schon crysis soll angeblich auf quadcores messbare vorteile erzielen...
Und bei den durchschnittlichen Desktopapplikationen: Internet, Office, ... sieht es verdammt übel aus. Da gibt es nicht mal Anstrengungen.
welche dieser anwendungen benötigt überhaupt mehr als nen 2ghz singlecore? firefox, word, excel mit sicherheit alle nicht (oder was meinst du mit office und internet?)
audio/video/bildbearbeitung, cad-rendering usw können in vielen fällen bereits vier kerne nutzen
Falsch, ganz falsch. Es sei denn, für dich ist nichts "nennenswert", was nicht linear mit der Zahl der Cores skaliert. Etwas, was mit einem Dualcore maximal 150% der Performance eines Singlecores erreicht, kann mit einem Quadcore immerhin auf maximal 200% der Leistung eines Singlecores kommen.
nein kann es nicht, wenn ein spiel mit 2 cores 150% skaliert liegen 50% der rechenleistung des 2. cores noch brach. (abzüglich synchronisationsoverhead)
wenn man 50% der leistung des 2. cores nicht mal nutzen kann wie soll man dann einen weiteren core nützen können?
das einzige was noch weiter skalieren kann ist der synchronisationsoverhead, der sollte aber nicht mehr als 20% ausmachen.
HellHorse
2007-04-22, 22:31:04
Es gibt schon noch ein paar mher Games die mit einem Daul-core deutlich besser laufen gerade in den kritischen min fps Situationen z.B X-Box 360 Umsetzungen und Quake4,Stalker,Gothic 3
Das sind nicht Games, sondern Treiber.
und bald(2007) dann auch Quakewars und UT3 Crysis etc.
Ja sicher, ...
die liste die dildo angefangen hat lässt sich sogar noch erheblich weiter fortsetzen - und schon crysis soll angeblich auf quadcores messbare vorteile erzielen...
Oh wie krass, _ein_ Game, das _eventuell_ (ziemlich sicher nicht) noch dieses Jahr erscheinen wird _soll angeblich_ messbare Vorteile erziehlen (von wie vielen anderen Games hat man das auch schon gesagt). Echt jetzt? Ist das wirklich alles?
welche dieser anwendungen benötigt überhaupt mehr als nen 2ghz singlecore? firefox, word, excel mit sicherheit alle nicht (oder was meinst du mit office und internet?)
Genau die. Schon mal eine dieser AJAX Anwendungen gesehen? Bevorzugt mit Dojo geschrieben und lustigen Effekten. Ist dir bei der CPU Last was aufgefallen? Mal eine Seite mit Flashwerbung besucht (wie z.B. dieses Forum immer wieder)? Ist dir bei der CPU Last was aufgefallen? Schon mal ein grosses Worddokument oder eine grosse Exceltabelle bearbeitet? Ist dir bei der CPU Last was aufgefallen?
dildo4u
2007-04-22, 22:32:40
Das sind nicht Games, sondern Treiber.
Nein diese Treiberoptimierung bringt maximal 10-15% und zwar bei allen Games die von mir augeführten haben wesentlich höhere Zugewinne.
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_dual_core-forceware_8xxx/4/#abschnitt_performance_rating
Demirug
2007-04-22, 22:34:04
nein kann es nicht, wenn ein spiel mit 2 cores 150% skaliert liegen 50% der rechenleistung des 2. cores noch brach. (abzüglich synchronisationsoverhead)
wenn man 50% der leistung des 2. cores nicht mal nutzen kann wie soll man dann einen weiteren core nützen können?
das einzige was noch weiter skalieren kann ist der synchronisationsoverhead, der sollte aber nicht mehr als 20% ausmachen.
Ich empfehle ein wenig Lektüre zu Amdahls Law.
Ich empfehle ein wenig Lektüre zu Amdahls Law.
danke, kenn ich, und genau das bestätigt mich, bringen 2 cores 50% mehrleistung, sind durch weitere 2 maximal 25% zusätzlich drinnen.
Nein diese Treiberoptimierung bringt maximal 10-15% und zwar bei allen Games die von mir augeführten haben wesentlich höhere Zugewinne.
bei TDU und NFS nutzt das spiel selbst definitiv nur 1 core.
die cpu-auslastung des spieleprozesses liegt bei 50%, und selbst die bindung an 1 core verringert die performance nicht.
Quake4 nutzt wirklich selbst mehr als 1 core, bei Rainbow6 weiß ich es nicht.
Neomi
2007-04-22, 22:47:20
nein kann es nicht, wenn ein spiel mit 2 cores 150% skaliert liegen 50% der rechenleistung des 2. cores noch brach. (abzüglich synchronisationsoverhead)
wenn man 50% der leistung des 2. cores nicht mal nutzen kann wie soll man dann einen weiteren core nützen können?
Du bist dir ziemlich sicher dafür, daß du nicht weißt, wovon du redest. Hier ist eine schnell angefertigte Visualisierung von Amdahl's Law mit einem Beispiel: 1/3 nicht parallelisierbarer Code, 2/3 perfekt parallelisierbar, aufgeteilt in drei voneinander abhängige Blöcke.
http://img398.imageshack.us/img398/3558/amdahlua7.gif (http://imageshack.us)
Wie du siehst, gibt es auf dem zweiten Core (bei Dualcore) nur 50% Auslastung, trotzdem profitiert der Code noch signifikant von vier und noch mehr Cores.
Wie du siehst, gibt es auf dem zweiten Core (bei Dualcore) nur 50% Auslastung, trotzdem profitiert der Code noch signifikant von vier und noch mehr Cores.
von 2 auf 4 cores sind es gerade mal 33% mehr, also schon verdammt wenig.
BlackBirdSR
2007-04-22, 23:15:35
bei TDU und NFS nutzt das spiel selbst definitiv nur 1 core.
die cpu-auslastung des spieleprozesses liegt bei 50%, und selbst die bindung an 1 core verringert die performance nicht.
Quake4 nutzt wirklich selbst mehr als 1 core, bei Rainbow6 weiß ich es nicht.
kann ich bestätigen.
Auch der Prozessexplorer zeigt, dass die nahezu die gesamten 30%, die der 2. Kern arbeitet für den Treiberprozess drauf gehen.
Neomi
2007-04-23, 00:04:02
von 2 auf 4 cores sind es gerade mal 33% mehr, also schon verdammt wenig.
Blätter mal eine Seite zurück, falls du es nicht glaubst, aber in Posting #16 sagtest du noch "das einzige was noch weiter skalieren kann ist der synchronisationsoverhead". Und meiner Meinung nach besteht ein klitzegroßer Unterschied zwischen nur mehr Synchronisationsoverhead (der übrigens nicht von der Auslastung abgezogen wird, sondern zusätzlich draufkommt) und 33% mehr tatsächlich verrichteter Arbeit.
33% mehr Arbeit ist übrigens eine ganze Menge. Stell dir mal vor, du müßtest 33% mehr arbeiten, also entweder 84 Tage mehr in diesem Jahr (336 statt 252 Arbeitstage) oder 2 Stunden und 40 Minuten mehr an jedem einzelnen Tag (ausgehend von 8 Stunden pro Tag). Wie lange würdest du deine Definition von "verdammt wenig" aufrecht erhalten?
Noch noch ein kleines Beispiel (du erinnerst dich doch bestimmt noch an den Satz):
"bevor spiele auf dualcores nicht mit 80-90% skalieren können sie prinzipiell mal nicht nennenswert von mehreren cores profitieren."
Ein Spiel, das nur mit 75% durch einen zweiten Core profitiert, kann also nicht nennenswert von mehreren Cores profitieren? Grob überschlagen sind das 85,7% parallelisierbarer Code. Ein Quadcore hätte also schonmal eine 60% höhere Performance als ein Dualcore. OK, du hast Recht, das ist offenbar wirklich nicht nennenswert... :rolleyes:
anderer Gast
2007-04-23, 00:49:48
Ich würde gerne mal wissen was viele unter "Leistung" verstehen...
Neben der natürlichen (?) Erhöhung der min fps gibt es auch noch andere Bereiche die man einer Leistungsteigerung zurechnen könnte wenn das Spiel darauf ausgelegt ist und die man zumindest teilweise per Schieberegler beeinflussen und somit seinen eigenen Vorlieben anpassen kann.
Das wären für mich zB "Effektphysik" wo dann zb bei einer Explosion bei gleicher Grafikkarte nicht 100 sondern 300 Objekte durch die Gegend fliegen.
Wegfindung bei NSCs/Einheiten wo statt 10 Möglichkeiten 100 analysiert werden und die Bewegung anderer NSCs/Einheiten besser berücksichtigt wird.
In Onlinespielen automatische entfernungsabhängige Wegverfolgung von nicht sichtbaren Spielern/Einheiten für ein flüssigeres Spiel vielleicht. (SC Radius 10 Entfernungseinheiten, DC Radius 30 EE und QC Radius 50 EE).
Da könnte ich mir zB bei QCs eine bessere im Sinne von häufigere Prüfung situationsabhängiger "Kommentare" von NSCs/Einheiten vorstellen. Natürlich muss der SC Spieler auch alle Kommentare mindestens einmal hören können, nur bei QC werden sie eben häufiger eingesetzt was dem Spiel mehr Realitätsnähe verleihen könnte.
Falls das nicht zu abhängig von anderen Faktoren ist, vielleicht auch eine bessere Collision Detection.
Bei KI wirds imho schwierig damit die NSCs zB auf einem Singlecore nicht wesentlich dümmer/unlogischer agieren als auf einem Quadcore.
Bestimmt gibt es noch viel mehr Dinge die man in Spielen mit DCs, QCs und n Cs ggü SCs verbessern kann ohne das das Spielerlebnis dadurch auf SCs in dem Sinne "schlecht" wird. Gewisse Mindestvoraussetzungen muss ein PC für ein Spiel ja eh mitbringen.
deekey777
2007-04-23, 01:21:52
Oder anders gesagt, wie lange wird es dauern, bis es entsprechende Multicoretaugliche Desktopsoftware und Spiele geben wird?
Wie sind eure Einschätzungen? (am besten mit Begründung zum Nachvollziehen)
Erst wenn DC-Systeme aussterben.
Meine Vermutung: Bei VALVe laufen die Entwickler verrückt und bringen ein "Mehrkern-Update" für Systeme mit mehr als einem Kern (oder 2 Kernen, ist aber egal). Sie lagern die Physikberechnung auf einen weiteren Thread aus, auch kann die Rechenleistung dazu genutzt werden, um die Hitboxen zu verkleinern, besser gesagt der Spieler besteht nicht aus drei großen Hitboxen (Kopf, Körper, Beine), sondern aus mehreren deutlich kleineren und somit feineren Hitboxen. Das hat zur Folge, dass man mit der Armbrust den Gegner nicht trifft, sondern der Metallbolzen auch mal vorbeifliegt. Auch haben Gegenstände ihr eigenes Gewicht, verursachen so objektspezifisch einen bestimmten Schaden, etc.
Im Singleplayer-Modus ist das egal, aber zB in HL2 Deathmatch, das von der Physik lebt (wo wird man schon von einer fliegenden Toilette erschlagen?:biggrin: ), würde dies zu immensen Problemen bei der Synchronisierung führen, wenn auf einem der Clients aufgrund eines Mehrkern-Prozessors die Physik deutlich genauer berechnet wird, wenn der Spieler eine deutlich feinere Hitbox hat und somit schwerer zu treffen ist.
Man könnte aber - wie oben erwähnt - die Effekte deutlich verbessern, die keinen Einfluss auf das Spielgeschehen haben wie schönerer Rauch.
Undertaker
2007-04-23, 07:38:31
Genau die. Schon mal eine dieser AJAX Anwendungen gesehen? Bevorzugt mit Dojo geschrieben und lustigen Effekten. Ist dir bei der CPU Last was aufgefallen? Mal eine Seite mit Flashwerbung besucht (wie z.B. dieses Forum immer wieder)? Ist dir bei der CPU Last was aufgefallen? Schon mal ein grosses Worddokument oder eine grosse Exceltabelle bearbeitet? Ist dir bei der CPU Last was aufgefallen?
ajax anwendungen sagt mir jetzt nix, aber flashwerbung bringt keinen aktuellen singlecore über 50% cpu-last (ausnahme: der verbuggte sunshine banner hier im forum ;)), große worddokumente oder exceltabellen genausowenig (und ja, auch hier habe ich schon mit 50mb++ datein gearbeitet, sehr viel größer sind solche dinger in der regel praktisch nie)
schau doch mal in irgendeine behörde oder die verwaltung eines unternehmens, ich habe da über meinen vater einigen einblick, der standard-pc ist dort nach wie vor ein 800-2000mhz p3/p4 mit 256-512mb ram, und speziell die 512mb maschienen sind für jegliche officeanforderungen nach wie vor spielend gewappnet
Ich gehe stark davon aus, das weder 2 noch 4 Kerne jemals Standard sein werden!
Das liegt ganz einfach darin begründet, das die Entwicklung zu schnell vorranschreitet. Wenn es wie prognostiziert schon Ende nächsten Jahres einen 8 Kerner geben soll, dann haben noch nicht mal alle User auf Dual Core umgerüstet.
Im Endeffekt ist das auch völlig egal und vollkommen unnötig. Wenn ein Spiel für Multicore optimiert wird, so profitiert es von 2, 4, 8 oder gar 16 Kernen, sofern es so viel Rechenleistung benötigt.
Der Prozess des Umstiegs der Masse geht sehr sehr langsam vonstatten. Ich würde bei sowas immer mit 3 bis 5 Jahren rechnen und dann gibt es wahrscheinlich auch schon keine Octacores mehr. ;D
Blutmaul
2007-04-23, 09:31:46
Och, die werden jeweils dann Standard sein, wenn die Mehrheit der benutzen PC auf Dual-, Quad-, oder sonstigen Multicore-CPUs basiert.
Diese Mehrheit wird es aber niemals geben... selbst heute, obwohl es Quads gibt, haben Dual Cores immer noch keine Marktdurchdringung erreicht, das man völlig darauf optimieren könnte.
Es wird eher so sein, das die Enthusiasten schon die nächste Stufe besitzen, während die Masse sich ein oder zwei Stufen dahinter befindet...
Wenn der achtkerner kommt, dann wird der Quadcore erst einen anständigen Preis erreichen, der für die Masse ansprechend ist.
Blutmaul
2007-04-23, 09:50:55
Diese Mehrheit wird es aber niemals geben... selbst heute, obwohl es Quads gibt, haben Dual Cores immer noch keine Marktdurchdringung erreicht, das man völlig darauf optimieren könnte.
Es wird eher so sein, das die Enthusiasten schon die nächste Stufe besitzen, während die Masse sich ein oder zwei Stufen dahinter befindet...
Wenn der achtkerner kommt, dann wird der Quadcore erst einen anständigen Preis erreichen, der für die Masse ansprechend ist.
Zum ersten Satz: Kommt drauf an wie es gemeint ist.
Folgendes: Grundsätzlich ja.
Tigerchen
2007-04-23, 10:35:58
Oder anders gesagt, wie lange wird es dauern, bis es entsprechende Multicoretaugliche Desktopsoftware und Spiele geben wird?
Wie sind eure Einschätzungen? (am besten mit Begründung zum Nachvollziehen)
Es wird so sein wie immer. Early Adaptors werden viel Geld ausgeben nur um festzustellen daß ihre frühen QuadCores schon wieder überholt sind wenn Anwendungen im großen Stil dafür herauskommen.
Denke auch das es in 2-3 Jahren soweit ist.
robbitop
2007-04-23, 10:46:12
Hä? Ich zähle genau ein Spiel (Supreme Commander) von dem man behaupten kann, es sei "DualCore-opitimiert". Daneben sind etwa zwei weitere in der Mache (wobei sich dort noch herausstellen muss, wie effektiv die sind) und dürften irgendwann in der nächsten zwei Jahren erscheinen. So sieht es aus.
Und bei den durchschnittlichen Desktopapplikationen: Internet, Office, ... sieht es verdammt übel aus. Da gibt es nicht mal Anstrengungen.
Quake 4 ist es. Da ist die gesamte Engine schon DC optimiert. Das hat man sogar bei Q3 schon in Ansaetzen gehabt. id scheint da Jahre voraus zu sein.
Mr.Soapdown
2007-04-23, 10:47:54
Meine Meinung:
Natürlich ist es in 640x480 messbar, daß die CPU-Leistung (Verhältnis SC/DC)gestiegen ist. Aber das sind doch keine Auflösungen in denen wirklich gezockt wird, oder? Steigt die Auflösung relativiert sichdas VErhältnis.
QuadCore ist in 2 Jahren im GAmersbereich Standard. DC dann im Officebereich, wahrscheinlich auch, weil´s dann kaum noch was anderes zu keufen gibt.
Natürlich ist es in 640x480 messbar, daß die CPU-Leistung (Verhältnis SC/DC)gestiegen ist. Aber das sind doch keine Auflösungen in denen wirklich gezockt wird, oder? Steigt die Auflösung relativiert sichdas VErhältnis.
Da relativiert sich nix. Die CPU Power bleibt egal in welcher Auflösung die gleiche. Wenn da jemand was anderes denkt, so sollte er vielleicht nochmal Mathematik nachholen.
Der Unterschied ist lediglich, das der Durchschnittswert für die Tonne ist, weil er durch die Grafikkarte ausgebremst wird.
Das ändert aber nichts daran, das CPU lastige Szenarien (speziell die minimum fps) erheblich besser sind.
Wenn ein Spiel in 640x480 von mehreren Kernen profitiert, dann auch in 2560x1600 bei CPU lastigen Szenen (z.B. viele Gegner/Einheiten KI).
HellHorse
2007-04-23, 10:54:24
Quake 4 ist es. Da ist die gesamte Engine schon DC optimiert. Das hat man sogar bei Q3 schon in Ansaetzen gehabt. id scheint da Jahre voraus zu sein.
Krass, dann sind wir jetzt schon bei 2 Games. Echt krass. "DualCore-Unterstützung" hat sich ja echt wirklich voll konkret durchgesetzt bei Games. Und in zwei Jahren werden es schon doppelt so viele sein (also 4)! Da habe ich mich wohl getäuscht. QuadCore ahoi!
=Floi=
2007-04-23, 10:59:29
was soll das geflame?
es gibt genug titel die DC unterstützen und mache spiele laufen ohne erst garnicht richtig...
und durch die unterstützung im graka treiber profitiert so gut wie jedes spiel davon wenn die graka potent genug ist
robbitop
2007-04-23, 11:01:41
Meine Meinung:
Natürlich ist es in 640x480 messbar, daß die CPU-Leistung (Verhältnis SC/DC)gestiegen ist. Aber das sind doch keine Auflösungen in denen wirklich gezockt wird, oder? Steigt die Auflösung relativiert sichdas VErhältnis.
Das ist das was von vielen nicht verstanden wird. Wenn deine GPU in hoeheren Aufloesungen limitiert, ist das nicht die Schuld deiner CPU ;)
Eine Messung in 640x480 soll einfach nur die reine CPU Power vergleichen. Ob du sie auch immer nutzen kannst, ist banane. Du hast sie einfach (oder auch nicht).
GPUs testet man ja auch in rein GPU limitierten Settings (1920x1080, 8xAA/16xAF). Da kraeht kein Hahn nach. Natuerlich nicht, denn was man testet will man ohne Fehlereinfluesse, Flaschenhaelse und Stoerung nachmessen.
Spaetestens wenn man die GPU mal aufruestet, sieht man die Mehrleistung der CPU auch in hohen Aufloesungen.
Auch gibt es andere Probleme beim Benchen: oft misst man ja eine Timedemo. Der Mittelwert verschleiert aber das Spielerlebnis. Was nutzen die 60fps average, wenn du an entscheidenen Stellen Slowdowns hast?
Und genau diese slowdowns gibts auch bei hohen Aufloesungen, wenn die CPU zu schwach ist und diese eleminiert man. Wirkt sich im Average Wert kaum aus, aber im Spielerlebnis enorm.
robbitop
2007-04-23, 11:04:24
Krass, dann sind wir jetzt schon bei 2 Games. Echt krass. "DualCore-Unterstützung" hat sich ja echt wirklich voll konkret durchgesetzt bei Games. Und in zwei Jahren werden es schon doppelt so viele sein (also 4)! Da habe ich mich wohl getäuscht. QuadCore ahoi!
Ja noch ist es etwas wenig. Die Programmierer muessen erst Erfahrungen mit Multicore Spieleprogrammierung machen. Die meisten Engines sind dafuer nicht ausgelegt. Multicore wird sich wohl erst in ein paar Jahren richtig durchsetzen, wenn die Engines es nativ supporten.
Da es sinnvoll ist, diese fuer MultiCore und nicht fuer DualCore zu programmieren, wird es eine Skalierung auch fuer Quad und Octacore geben.
Natuerlich mit sinkendem Grenzertrag.
Heute ist ein Quadcore allerdings fuer Spiele reichlich sinnlos. Ein DualCore bringt oftmals nochmal gute 30%. Immerhin.
Die Anwendung muss noch nicht mal optimiert sein...
Wenn ein Programm nur auf einen Kern optimiert ist, so bringen 2 Kerne trotzdem was. Wenn ein Programm auf zwei Kerne optimiert ist, bringen 3 trotzdem noch was... das lässt sich beliebig fortführen.
Man sollte nicht vergessen, das neben der Anwendung auch noch der ganz andere Kram, der sich Betriebssystem, Treiber, Anwendungsprogramme nimmt, weiter läuft... bei einigen Usern scheinen das ja fast noch 50 Sachen zu sein, wenn man mal deren Taskleiste sieht. ;D
Allein dadurch lassen sich schon 10-15 % mehr Performance rausholen - bei unoptimierten Anwendungen.
Dazu kommt, das es mittlerweile Spiele gibt, die mehrere Kerne nutzen (schaut euch mal den Fussballmanager von Sega an; offizieller Support)... oder wenn man mal eine Datei packt oder mehrere Sachen gleichzeitig macht, so spart man dort viel Zeit!
Mr.Soapdown
2007-04-23, 11:09:53
Da relativiert sich nix. Die CPU Power bleibt egal in welcher Auflösung die gleiche. Wenn da jemand was anderes denkt, so sollte er vielleicht nochmal Mathematik nachholen.
ZAck, der hat gesessen. Musst mich auch nicht mit jemand ansprechen.....
Ich sollte meine Worte genauer wählen. "Relativiert" ist natürlich falsch. Mir ging es um die fps die am Ende rauskommen.
Ob ich per SC 100 fps habe, oder mit CD 120 macht den Kohl nicht fett. Wichtig ist natürlich "untenrum" wo´s in evtl. unspielbare fps geht, da kann der DC schon einiges ausmachen.
Vertigo
2007-04-23, 11:16:43
Hä? Ich zähle genau ein Spiel (Supreme Commander) von dem man behaupten kann, es sei "DualCore-opitimiert". Daneben sind etwa zwei weitere in der Mache (wobei sich dort noch herausstellen muss, wie effektiv die sind) und dürften irgendwann in der nächsten zwei Jahren erscheinen. So sieht es aus.
Und bei den durchschnittlichen Desktopapplikationen: Internet, Office, ... sieht es verdammt übel aus. Da gibt es nicht mal Anstrengungen.
Was ist mit Age of Empires 3, Anno 1701, Gothic3? Alle Dual-Core-optimiert und es gibt noch x weitere Spiele. Außerdem profitieren viele aktuelle Spiele von den Dual-Core-Optimierungen im Grafikkartentreiber. Bei Desktop-Applikationen sieht es auch nicht "verdammt übel" aus. Praktisch jede aktuelle Multimedia-Bearbeitungssoftware ist Dual-Core-optimiert. Dazu Packer, 3D-Rendering-Tools, CAD-Tools, usw.
Dass "Internet, Office" keine Dual-Core-Optimierung haben, weil sie diese gar nicht brauchen, da dafür auch ein Sempron/Celeron völlig ausreichend ist, ist als Argument gegen Dual-Core-CPUs ziemlich schwach.
Mr.Soapdown
2007-04-23, 11:22:01
Dass "Internet, Office" keine Dual-Core-Optimierung haben, weil sie diese gar nicht brauchen, da dafür auch ein Sempron/Celeron völlig ausreichend ist, ist als Argument gegen Dual-Core-CPUs ziemlich schwach.
Hier steht auch eher die Überlegung an: Ist es unbedingt nötig? Ich würde sogar für solche PCs DC empfehlen, wenn auch nur ein Einsteigermodell. Denn kleine Tools, wie von dir beschrieben kommen ohnehin dazu.
Ich sollte meine Worte genauer wählen. "Relativiert" ist natürlich falsch. Mir ging es um die fps die am Ende rauskommen.
Ob ich per SC 100 fps habe, oder mit CD 120 macht den Kohl nicht fett. Wichtig ist natürlich "untenrum" wo´s in evtl. unspielbare fps geht, da kann der DC schon einiges ausmachen.
Die fps die dabei herauskommen sind aber eben nicht die gleichen.
Der Durchschnittswert gibt nur an, wieviel fps es durchschnittlich in der gesamten Länge des Benchmarks wären. Ein 120 sekunden benchmark könnte 80% seiner Zeit mit 200fps laufen und 20% seiner Zeit mit 20fps. Am Ende käme trotzdem der Wert von 164 fps raus. Aber läuft es deshalb immer flüssig? NEIN !
Er berücksichtigt nicht Fälle, an denen das Spiel nur mit 20 oder 30 fps läuft, bei denen 5 fps mehr schon einiges ausmachen.
Strategiespiele wie Age of Empires profitieren selbst in maximaler Auflösung von einer stärkeren CPU, weil bei Multiplayermatches oft hunderte Einheiten zusammenkommen, deren KI bzw. Bewegungen von der CPU berechnet werden müssen. In solchen Fällen wartet die Grafikkarte dann auf die CPU, wodurch sie nicht mehr zur Bremse wird.
Mr. Cruise
2007-04-23, 11:33:13
Einige Adobe Produkte (Premiere 2.0) wurden z.b. auf mehr als 2 Kern Proessoren optimiert.
Ich denke einige hier reden das etwas runter oder denken, wenn nciht 100% optimiert, dann gar nicht.
Aber solange ein gewisser Leistungszuwachs vorhanden ist, kann man davon ausgehen, das die Software von vorherein die Aufgaben verteilt oder es wurde explizit auf Multi-Core hingearbeitet.
Bei SPielen ist ein eindeutiger Trend zu sehen, wer das auch noch verleugnet, macht die Augen ganz klar zu!
Wenn ein Programm nur auf einen Kern optimiert ist, so bringen 2 Kerne trotzdem was. Wenn ein Programm auf zwei Kerne optimiert ist, bringen 3 trotzdem noch was... das lässt sich beliebig fortführen.
eben nicht, das trifft auf 2 kerne sehr stark zu, danach aber kaum mehr.
selbst wenn ein programm auf 2 kerne optimiert ist wird real kaum die leistung beider kerne zu 100% genutzt (außnahme natürlich videoencoding&co wo die leistung schon immer fast linear mit der anzahl der cpus skaliert). die restlichen 10-15% die für die "alltagslast" des betriebsystems anfällt wird in der regel auch bei dualcore optimierten programmen noch am 2. kern frei sein.
HellHorse
2007-04-23, 23:07:51
Ja noch ist es etwas wenig. Die Programmierer muessen erst Erfahrungen mit Multicore Spieleprogrammierung machen. Die meisten Engines sind dafuer nicht ausgelegt. Multicore wird sich wohl erst in ein paar Jahren richtig durchsetzen, wenn die Engines es nativ supporten.
Da es sinnvoll ist, diese fuer MultiCore und nicht fuer DualCore zu programmieren, wird es eine Skalierung auch fuer Quad und Octacore geben.
Natuerlich mit sinkendem Grenzertrag.
Heute ist ein Quadcore allerdings fuer Spiele reichlich sinnlos. Ein DualCore bringt oftmals nochmal gute 30%. Immerhin.
Diesem Post kann ich mich hingegen zu 100% anschliessen.
=Floi=
2007-04-24, 03:36:10
warum ist quad core sinnlos wenn dann theoretisch die 4 fache cpu leistung zur verfügung steht?
hauptsache mehr cpu leistung und nur über mehr takt funktioniert eben SO nicht
beispiel
4X3,870Ghz C2D ~ ca 20Ghz A64 Single core oder einem 10Ghz Dual Core A64
soetwas kann ich mit normalen mittel erst garnicht erreichen
fakt ist dass diese steigerung durch verdopplung der cores sehr günstig zu realisieren ist
robbitop
2007-04-24, 07:32:02
Wenn man die CPU Leistung aller 4 Cores nutzen koennte, waere es sinnvoll. Doch das ist heute nur ganz selten der Fall (Videoschnitt, Rendering)
Tigerchen
2007-04-24, 07:44:07
warum ist quad core sinnlos wenn dann theoretisch die 4 fache cpu leistung zur verfügung steht?
hauptsache mehr cpu leistung und nur über mehr takt funktioniert eben SO nicht
beispiel
4X3,870Ghz C2D ~ ca 20Ghz A64 Single core oder einem 10Ghz Dual Core A64
soetwas kann ich mit normalen mittel erst garnicht erreichen
fakt ist dass diese steigerung durch verdopplung der cores sehr günstig zu realisieren ist
Auch bei den Kernen gilt das Gesetz des abnehmenden Ertrages.
MuLuNGuS
2007-04-24, 08:18:54
keine ahnung ob schon erwähnt aber,
hier wurde die Unreal Egine 3 mit Rainbow Six: Vegas auf multicore fähigkeit untersucht, beim 2 core system wurden beide cores gut ausgelastet und auch beim quad core wurden alle cores genutzt, 2 mehr und 2 etwas weniger:
"As we can see all four cores are being used, two more heavily than the others but they are definitely not idling. It becomes easy to see how developers such as Remedy believe that quad core will become even more important with future games if such a game as Rainbow Six: Vegas can already use the power of four processors. And here now is that same system but with one of the QuadFX processors removed from the system."
http://www.amdzone.com/modules.php?op=modload&name=Sections&file=index&req=viewarticle&artid=279&page=3
®
Aber selbst bei Spielen bei denen man das von Anfang an berücksichtigt hat ist es fraglich ob man an mehr als zwei Cores gedacht hat. Intels Tipps bezogen sich ja immer nur auf zwei Cores und es ist auch durchaus etwas einfacher für zwei anstellen von n Cores zu optimieren.
Es ist doch wirklich abhängig von der Aufgabe, ob 1, 2 oder n Cores genutzt werden können. Gerade in der Bildbearbeitung und auch bei Spielen gibt es viele Aufgaben, die auf n Cores laufen könnten (die Grenzen der Hardware jetzt ausser acht gelassen). Es wäre jedoch eine schwache Entwicklerleistung, wenn bei einer stark parallelisierbaren Aufgabe mit n möglichen Threads, nicht auch n Threads implementiert werden.
BlackBirdSR
2007-04-24, 09:03:04
keine ahnung ob schon erwähnt aber,
hier wurde die Unreal Egine 3 mit Rainbow Six: Vegas auf multicore fähigkeit untersucht, beim 2 core system wurden beide cores gut ausgelastet und auch beim quad core wurden alle cores genutzt, 2 mehr und 2 etwas weniger:
"As we can see all four cores are being used, two more heavily than the others but they are definitely not idling. It becomes easy to see how developers such as Remedy believe that quad core will become even more important with future games if such a game as Rainbow Six: Vegas can already use the power of four processors. And here now is that same system but with one of the QuadFX processors removed from the system."
http://www.amdzone.com/modules.php?op=modload&name=Sections&file=index&req=viewarticle&artid=279&page=3
®
Und wie viel davon ist nun wirklich auf RS6 zurückzuführen?
Wenn Windows den Prozess zwischen den Kernen hin und herschiebt, sieht es ständig nach einer 70% Verteilung für beide aus, ohne dass es so wäre.
Auch der Einfluss der Synchronisation oder des Treibers ist nicht zu sehen.
Leider bringen diese Taskmanager-Bilder so wenig. Man müsste sich wirklich ansehen wieviel Zeit die einzelnen Prozesse auf jedem Kern belegen, und wie sich deren einzelne Threads austoben + System + Grafiktreiber.
Aber ähnlich wie bei Benchmarks, wird es wohl sehr selten passieren, dass sich jemand mehr mühen macht, als nur die einfachste und simpelste Möglichkeit zu betrachten.
MuLuNGuS
2007-04-24, 09:10:00
Und wie viel davon ist nun wirklich auf RS6 zurückzuführen?
Wenn Windows den Prozess zwischen den Kernen hin und herschiebt, sieht es ständig nach einer 70% Verteilung für beide aus, ohne dass es so wäre.
Auch der Einfluss der Synchronisation oder des Treibers ist nicht zu sehen.
hab ich mir auch schon gedacht, müßte mal genauer getestet werden..dennoch ist ein kleiner trend denke ich mal dennoch zu sehen.
®
BlackBirdSR
2007-04-24, 09:15:17
hab ich mir auch schon gedacht, müßte mal genauer getestet werden..dennoch ist ein kleiner trend denke ich mal dennoch zu sehen.
®
Das bestreitet doch niemand.
Das was viele Leute stört sind diese: "Boah nutzt Dual-Core, Quad-Core und läuft so viel geiler durch Dual-Core-Optimierungen.
Die Programmierer machen das schon, und wie man sieht geht das so schnell und einfach", Aussagen die sich so schnell ergeben momentan.
Überall sieht man diese Task-Manager-Bilder und irgendwelche Multithreading-Versprechen. Egal ob Stalker oder Gothic3, Dual-Core soll !das! Mittel schlechthin sein. Am Ende nutzt das Spiel dann noch gar kein Multithreading. Der Treiber und der Rest des Systems sind es, die für die 30% verantwortlich sind. Das merkt man dann in sehr stressigen Szenen. Bei all den GPU-Limits in der Regel meistens aber nicht.
So haben wir auf der einen Seite Benchmarks die anpreisen wie absolut toll der Multithreading-Support von Stalker oder anderen Spielen ist; Eine Seite weiter wird dann festgestellt, wie toll der Support denn fehlt, da es in der getesteten Auflösung von 16xx mit AA und AF keine Unterschiede mehr gibt. Dazu noch Timedemos und fertig ist die Suppe.
Jeder bencht einfach drauf los ohne nachzudenken oder die Ergebnisse der anderen zu hinterfragen. Und das ist einfach nur typisch ;)
MuLuNGuS
2007-04-24, 09:33:18
nun,
mit core 2 duo @ >3ghz denke ich kann man die sache eher gelassen sehen, bis zum umstieg auf einen quad hat es noch ein wenig zeit ;)
®
Undertaker
2007-04-24, 09:37:48
Auch bei den Kernen gilt das Gesetz des abnehmenden Ertrages.
bei taktsteigerungen nicht? auch ein virtueller 20ghz singlecore würde ne ganze menge fsb und speicherbandbreite benötigen, dass ist nicht anders als bei einem quad
Ich bin mir sogar ziemlich sicher, das ein Core 2 Duo @ 3,8 GHz nicht wirklich langsamer als ein Core 2 Quad @ 2,13 GHz wäre.
Bei manchen Benchmarks werden vergleichswerte mitgeliefert, da kommt man mit einem übertakteten Modell schon sehr nahe an die Quadcores ran oder überholt sie sogar.
In der Benchmarkecke gibts auch einige Vergleichswerte unter WinRAR, 7zip... diese Quadcore Werte sind nicht weit weg.
Die Frage die sich dabei auftut wäre am Ende, ob diese 3,8 GHz mit gleichen Kühlungsmaßnahmen und gleichem oder geringerem Stromverbrauch realisierbar sind...
Mit Luftkühlung ist dies schon ziemlich schwierig, da bei solch hohen Taktraten und gesteigerter VCore - sagen wir mal 1,45 V, die Grenztemperatur sehr nahe liegt.
Der Quadcore hat da scheinbar einiges mehr Spielraum.
Undertaker
2007-04-24, 09:55:07
Ich bin mir sogar ziemlich sicher, das ein Core 2 Duo @ 3,8 GHz nicht wirklich langsamer als ein Core 2 Quad @ 2,13 GHz wäre.
Bei manchen Benchmarks werden vergleichswerte mitgeliefert, da kommt man mit einem übertakteten Modell schon sehr nahe an die Quadcores ran oder überholt sie sogar.
das ist nicht schwer zu erklären:
1. schlechte quad-core optimierung
2. sehr viel höherer fsb und speicherbandbreite bei einem übertakteten 3,8ghz duo als bei einem quad @ def.
Mr.Soapdown
2007-04-24, 09:58:34
beispiel
4X3,870Ghz C2D ~ ca 20Ghz A64 Single core oder einem 10Ghz Dual Core A64
Das kann man so nicht rechnen - hatten wir aber auch schon mal irgendwo einen thread zu.
....... wie toll der Support denn fehlt, da es in der getesteten Auflösung von 16xx mit AA und AF keine Unterschiede mehr gibt. Dazu noch Timedemos und fertig ist die Suppe ;)
Das ist das was ich meinte. Dafür hab ich den Watschen bekommen, denn "real" ist es so. In den hohen Auflösungen gleicht es sich an, obwohl sicher ein DC-Support stattfindet (in welchem Umfang auch immer), aber die FPS-Werte liegen dann nur noch "so wenig" auseinander.
Ich stell mir den aktuellen DC-Support mit einer nach oben abflachen Kurve vor. "unterrum" bringts was, "obenrum" nicht mehr so dolle und im allgemeinen läufts "geschmeidiger".
Ich hab das schon mal gepostet -vorher 3500+ mit x800xtpe und nach Aufrüstung 6600@3,0Ghz mit x800XT. Das letztere System läuft so smooth, gerade in den unterer FPS. Leider hatte ich nie einen SC@3,oGhz (neuerer Generation) zum Vergleich.
das ist nicht schwer zu erklären
Wo steht, das es einer Erklärung bedarf?
schlechte quad-core optimierung
Völlig ausgeschlossen, diese Programme sind hochoptimiert. Bei EVEREST/SiSoft Sandra kann man es am besten sehen, die nutzen jeden Kern aus.
sehr viel höherer fsb und speicherbandbreite bei einem übertakteten 3,8ghz duo als bei einem quad @ def.
Nicht umbedingt. X6800 und ES haben einen freien Multi. Außerdem kann man den Ramtakt runtersetzen um die Vorteile bei der Bandbreite auszugleichen. Trotzdem ist der Duo nicht deutlich langsamer.
Dennoch ist es wesentlich schwieriger, einen Duo @ 3,8 GHz zu kühlen, als einen Quad bei 2,13 GHz. Das ist schon bezeichned, obwohls genau die gleichen Prozessorkerne sind.
Der Vorteil wird in Zukunft sein, das man solch niedrige Taktraten mit sehr geringer Spannung realisieren kann.
Eigentlich recht unverständlich, warum die kleinen Quads noch mit solch hoher VCore ausgeliefert werden. Bei 2,13 GHz sollte ein Betrieb mit nur noch 1,05 V möglich sein, denn ich hatte schon einiges Conroes, die die 2,5 GHz bei nur 1V geschafft haben. Bei 4 Kernen wäre das eine enorme Ersparniss.
Leider fehlt es noch an Ideen um Anwendungen zu beschleunigen, die sich nicht/nie beschleunigen lassen. :)
Deswegen favorisere ich derzeit noch den schnelleren Duo... der Wolfdale könnte wieder interessant werden. Wenn dieser die 4+ GHz packt, so ersetzt er wieder einen ~2 GHz Quadcore.
Undertaker
2007-04-24, 10:40:58
Wo steht, das es einer Erklärung bedarf?
Völlig ausgeschlossen, diese Programme sind hochoptimiert. Bei EVEREST/SiSoft Sandra kann man es am besten sehen, die nutzen jeden Kern aus.
bitte, dann warte ich jetzt auf deine quelle die mir einen 3,8ghz duo mit vergleichbarem fsb einem 2,13ghz quad entgegensetzt, dass ganze unter anwendungen die nachgewiesenermaßen perfekt multicore skalieren :)
ein gegenbeispiel findest du bei computerbase im raytracing bericht, dort hat ein kentsfield von 2->4 kerne zu 96% bei identischem fsb skaliert
Tigerchen
2007-04-24, 11:13:40
bei taktsteigerungen nicht? auch ein virtueller 20ghz singlecore würde ne ganze menge fsb und speicherbandbreite benötigen, dass ist nicht anders als bei einem quad
Darum schrieb ich "auch bei den Kernen".
bitte, dann warte ich jetzt auf deine quelle die mir einen 3,8ghz duo mit vergleichbarem fsb einem 2,13ghz quad entgegensetzt, dass ganze unter anwendungen die nachgewiesenermaßen perfekt multicore skalieren :)
Die Quelle bin ich. :)
Außerdem kannst du es selber nachprüfen, musst halt nur übertakten und benchen...
ein gegenbeispiel findest du bei computerbase im raytracing bericht, dort hat ein kentsfield von 2->4 kerne zu 96% bei identischem fsb skaliert
Was ist daran ein Gegenbeispiel:confused: Das Ergebniss bestätigt diese These doch nur.
Es wäre interessant zu wissen, inwiefern der Duo bei entsprechenden Takt bei diesem Vergleich skaliert. 4 % sind einiges...
Rechnen wir doch mal: Bei 4x2,13 GHz wäre die Rechenleistung bei fiktiven 8532 MHz angesiedelt. Davon gehen 4 % verloren, bleiben noch 8191 MHz (sind immerhin schon über 300 MHz Rohleistung die einfach so verpuffen). Wenn der Duo im Gegensatz dazu besser skaliert, hätte er gleich mal ein paar (hundert) MHz gespart!
Jetzt gehen wir mal einen Schritt weiter vorran... bei einem Penryn mit 4x3,33 GHz würden demnach schon 533 MHz an Rohleistung bei diesem Benchmark sinnlos verpuffen. :eek:
Das Verhältniss wird bei schnelleren Modellen noch schlechter...
Das ist aber noch nicht alles, denn die Quadcore CPU hat einen unfairen Vorteil: Mehr Cache.
Wenn dieser heutige Core2 die Vorteile des Quads erfahren würde, also den Cache auf 6 oder 8 MB aufgebort bekommt, so benötigt er ein paar Prozente weniger Takt.
Auch wäre es vielleicht einfacher, einen hohen FSB an einer CPU anzulegen, die nur wenige Kerne hat.
Ich denke, das eine 3,8 GHz/FSB1600 CPU, 6-8MB Cache alle Quadcores ablösen konnte, die geringer getaktet sind, als der Q6600 mit 2,4 GHz und zudem den Vorteil hätte, das alle Anwendungen profitieren, auch wenn sie nicht optimiert sind.
Schade das Intel da nicht zweigleisig fährt, denn Sinn hätte so eine Kombinationen. Man sollte nicht denken, das jede Anwendung sich optimieren lässt...
HellHorse
2007-04-24, 13:11:10
Auch bei den Kernen gilt das Gesetz des abnehmenden Ertrages.
Ich will jetzt nicht Klugscheissen, aber was du meinst ist der Grenzertrag. Erst wenn der Grenzertrag negativ ist, nimmt der Ertrag ab.
Undertaker
2007-04-24, 14:05:22
Die Quelle bin ich. :)
Außerdem kannst du es selber nachprüfen, musst halt nur übertakten und benchen...
ich habe leider keinen quad... aber du ja anscheinend einen qx6700/6800? dann erzähl doch mal ein wenig zu deinen testsettings und -verfahren :)
Was ist daran ein Gegenbeispiel:confused: Das Ergebniss bestätigt diese These doch nur.
Es wäre interessant zu wissen, inwiefern der Duo bei entsprechenden Takt bei diesem Vergleich skaliert. 4 % sind einiges...
und ich wage die behauptung, das ein 100% höher getakter duo genau dieselben 4% verlieren würde, da auch ihm die bandbreite ausgeht - zumindest in der theorie wäre das am schlüssigsten, oder weshalb sollte die variante mit mehr kernen schlechter sein? auch hier wäre ein entsprechender test schön
p.s. das doppelter takt, aber nur halb so viele kerne in den meisten fällen praktischer ist will ich nicht bestreiten - aber wie erwähnt, in vielen bereichen kann man recht gut parallelisieren, ergo wäre es dort egal ob takt oder kerne
und ich wage die behauptung, das ein 100% höher getakter duo genau dieselben 4% verlieren würde, da auch ihm die bandbreite ausgeht - zumindest in der theorie wäre das am schlüssigsten, oder weshalb sollte die variante mit mehr kernen schlechter sein?
Ihm geht aber vorallem deshalb die Bandbreite aus, weil er sie braucht.
Bei Programmen die eine perfekte Skalierung aufweisen, kommen alle Kerne zum Einsatz. Nun stellt sich das Problem, das mehrere Kerne an einem ähnlichen Projekt arbeiten. Es können aber nur jeweils zwei Kerne auf die Daten im Cache zugreifen.
Das kostet nicht nur Bandbreite und Zeit, sondern auch ist höchst ineffizient. Wenn Kern4 beispielweise Daten im Cache hat, die Kern1 auch nutzt, so sind sie jeweils doppelt vorhanden, was natürlich Cache kostet.
Ein nativer Quadcore wäre mit 8 MB schneller... aufgrund der oben aufgeführte Tatsache, kann es natürlich auch passieren, das schon 6 MB effektiver sind als 2x4 MB, weil nichts doppelt vorhanden sein muss. Gerade das spricht für die native Variante.
Cache wird effizienter verwaltet, der FSB bleibt für die wichtigere Kommunikation frei und was auch ein nicht zu unterschätzender Vorteil ist: Der Cache wird schneller.
Wenn du deine Cacheperformance mal bei Standardtakt und dann bei 3,6 GHz misst, wirst du deutliche Unterschiede feststellen können. Die Daten werden also nicht nur effizienter verwaltet, sondern kommen auch schneller an ihr Ziel.
Undertaker
2007-04-24, 14:33:32
Ihm geht aber vorallem deshalb die Bandbreite aus, weil er sie braucht.
Bei Programmen die eine perfekte Skalierung aufweisen, kommen alle Kerne zum Einsatz. Nun stellt sich das Problem, das mehrere Kerne an einem ähnlichen Projekt arbeiten. Es können aber nur jeweils zwei Kerne auf die Daten im Cache zugreifen.
Das kostet nicht nur Bandbreite und Zeit, sondern auch ist höchst ineffizient. Wenn Kern4 beispielweise Daten im Cache hat, die Kern1 auch nutzt, so sind sie jeweils doppelt vorhanden, was natürlich Cache kostet.
muss nicht der fall sein, auch native quadcores setzen z.t. auf exclusive l2 caches - und auch hier ist noch nicht erbracht, dass dies in der praxis tatsächlich langsamer wäre ;) in dem erwähnten computerbase-artikel hat der quad genauso skaliert (96%) wie der single -> dualcore (ebenfalls 96%), also im bereich raytracing hatte dies schoneinmal keinen nachteil - andere tests kenne ich leider nicht
aber du hast doch einen quad und testest alles selber, bench doch mal ein wenig und liefere die ergebnisse :)
Cache wird effizienter verwaltet, der FSB bleibt für die wichtigere Kommunikation frei und was auch ein nicht zu unterschätzender Vorteil ist: Der Cache wird schneller.
Wenn du deine Cacheperformance mal bei Standardtakt und dann bei 3,6 GHz misst, wirst du deutliche Unterschiede feststellen können. Die Daten werden also nicht nur effizienter verwaltet, sondern kommen auch schneller an ihr Ziel.
oh wei :D das der cache schneller wird ist natürlich auch eine ZWINGENDE voraussetzung, dass der mehrtakt überhaupt skaliert, denn der quad kann dafür pro takt doppelt so oft auf den cache zugreifen - die bandbreite bleibt also konstant, und schneller als mit cpu-takt läuft der cache ebenfalls nicht, der quad mit halbem takt muss also RELATIV gesehen exakt gleichlang auf seine daten warten
der quad kann dafür pro takt doppelt so oft auf den cache zugreifen - die bandbreite bleibt also konstant
Die Bandbreite bleibt nicht konstant. Der Cache ist langsamer. Mit steigendem Takt sinkt auch die Zugriffszeit > Mehr Daten pro Zeit.
Und es müssen manche Daten mehrfach angefordert werden, was bei der nativen Variante entfällt.
Du kannst ja auch den Caches des Duos aufbohren und trotzdem höher takten, dann sieht der Quad wirklich alt aus und das ist sogar noch effizienter in der Leistung.
Am besten wäre ein Mix aus beiden! Wäre es nicht möglich, eine CPU mit zwei extrem hoch getakteten Kernen und nativen Cache zu bauen, die zusätzlich 4-8 Kerne zu z.B. je 2 GHz enthält? :)
Undertaker
2007-04-24, 16:00:08
Die Bandbreite bleibt nicht konstant. Der Cache ist langsamer. Mit steigendem Takt sinkt auch die Zugriffszeit > Mehr Daten pro Zeit.
das ist klar, aber kein vorteil des duo - durch den doppelten takt braucht er auch doppelt so schnell seine daten zum rechnen, dh die geschwindigkeit des caches relativ zu einem kern ist identisch :wink:
Die bekommt er ja auch, mit dem Unterschied, das die Effektivität höher liegt, als wenn wie beim Quad mehrere gleiche Daten mehrmals vorgehalten werden müssen. ;)
Aber schluss mit dem gequatsche! Wäre so eine CPU mit mehreren verschiedenen Kernen möglich?
HellHorse
2007-05-06, 21:47:15
http://us.download.nvidia.com/Windows/158.24/158.24_ForceWare_Release_Notes.pdf
Quake4: Random pauses occur during gameplay. [260029]
This appears to be an application issue that affects testing on Quake4 with
dual-core optimizations turned on. Turning off the SMP value in Quake4
eliminates this problem.
Battlefield 1942 hangs after playing for a few minutes.[265230]
This is an application issue with dual-core CPUs.
Sieht aus als wäre wir wieder bei einem Game.
Blaze
2007-05-06, 22:04:29
Nö nicht wirklich da es bei mir und vielen anderen einwandfrei mit DC läuft.
HellHorse
2007-05-06, 23:28:41
Nö nicht wirklich da es bei mir und vielen anderen einwandfrei mit DC läuft.
Das ist das Coole and race conditions. Sie sind so schön reproduzierbar.
Liszca
2007-05-10, 18:25:53
Oder anders gesagt, wie lange wird es dauern, bis es entsprechende Multicoretaugliche Desktopsoftware und Spiele geben wird?
Wie sind eure Einschätzungen? (am besten mit Begründung zum Nachvollziehen)
in vier jahren werden es erstmal dualcore prozessoren sein, und dann frühestens in zwei jahren quad-core
Duran05
2007-05-10, 18:38:16
Sobald eine Anwendung in mehreren Threads zulegt wurde, profitiert sie automatisch von mehreren Kernen, egal ob es zwei, vier oder acht sind.
Die andere Frage ist natürlich, ob so viel Rechenleistung überhaupt genutzt werden kann. Wenn eine Anwendung in mehreren Threads zerlegt wurde, heißt das noch lange nicht, das jeder Thread die zur Verfügung stehende Rechenleistung voll ausschöpfen wird. Die Spieleentwickler werden darauf achten, das die Anwendung Massenkompatibel bleibt und dadurch wird man einige Grenzen gesetzt haben, aber eventuell Zusatzfunktionen anbieten, die dann nur auf Rechnern mit vielen Kernen zur Verfügung stehen. Letzteres liegt im ermessen der Entwickler, wird also kein Regelfall sein!
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.