Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Barcelona Quadcore - (P)Review-Thread
AnarchX
2007-09-10, 08:00:44
http://directupload.com/showoriginal-2957.jpg
Tests:
AMD Phenom Preview: Barcelona Desktop Benchmarks @ Anandtech (http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3092&p=1)
AMD's Quad-Core Barcelona: Defending New Territory @ Anandtech (http://anandtech.com/IT/showdoc.aspx?i=3091)
Quad-Core-Angriff: AMD K10-Opteron im Test @ Tec-Channel (http://www.tecchannel.de/server/prozessoren/1729224/)
AMD's quad-core Opteron 2300 processors @ Tech-Report (http://techreport.com/articles.x/13176)
IBM posts LS-DYNA benchmark results for quad-core x3455 server (ftp://ftp.software.ibm.com/eserver/benchmarks/news/newsblurb_x3455_ls-dyna_091007.pdf)
IBM posts Fluent benchmark results for quad-core x3455 server (ftp://ftp.software.ibm.com/eserver/benchmarks/news/newsblurb_x3455_fluent_091007.pdf)
IBM System x3455 delivers solid performance on SPEC CPU2006 (ftp://ftp.software.ibm.com/eserver/benchmarks/news/newsblurb_x3455_speccpu_091007.pdf)
Architekturbetrachtungen:
Barcelona is Here @ PC Perspective (http://www.pcper.com/article.php?aid=450&type=expert&pid=1)
AMD Barcelona Architecture Launch: Native Quad-Core @ Hot Hardware (http://www.hothardware.com/articles/AMD_Barcelona_Architecture_Launch_Native_QuadCore/?page=1)
Inside AMD K10 Architecture @ HW-Secrets (http://www.hardwaresecrets.com/article/480)
Inside Barcelona: AMD's Next Generation @ realworldtech (http://www.realworldtech.com/page.cfm?ArticleID=RWT051607033728)
rpm8200
2007-09-10, 09:10:01
Danke für die Links. Ich habe nicht alle gelesen, aber alles in allem scheinen sich zunächst die Gerüchte zu bestätigen? Average etwa 15% mehr Clock-to-clock Power als K8 im Serverbereich.
Wobei Anand bisl anklingen lässt dass sie das Gefühl haben noch kein fertiges Silikon in Händen zu halten und als Ausblick auf Phenom die Limitierung durch den Speicher mit einstreut (im Test DDR2-667 registered). Speicherhungrige Anwendungen sollen wohl Paradedisziplin sein und auf dem Servermarkt spielt wohl auch der einfache Upgrade eine Rolle.
Für Server würde ich die Ergebnisse als Erfolg für AMD interpretieren. Sie werden weiterhin konkurrenzfähig sein. Als Ausblick auf Phenom ist es wohl aber nur bedingt brauchbar, da der Speicher im Ergebnis wohl eine enorme Rolle spielt...
dr.denton
2007-09-10, 09:25:35
Vielen Dank auch von mir - auch wenn ich die meisten schon gelesen habe ...
Eigentlich zeigen die bisherigen Tests nur, was anhand der Vorabinformationen zu erwarten war: sehr gute FP-Leistung und hoher Durchsatz im Serverbereich, deutlich gesteigerte aber nicht ganz konkurrenzfähige Integerleistung, deutlich verbesserte SSE-Leistung - laut des Reviews von Anandtech reicht das aber erst gerade so aus um zwar den K8 teils deutlich abzuhängen (immerhin fast die gleiche Steigerung wie K7 vs. K8) aber damit kann AMD auf dem Desktop gerade einmal mit Conroe gleichziehen, Penryn wird da mit höheren Takten und der minimal verbesserten IPC wieder vorne liegen ...
Hoffen wir, dass AMD den K10 gegen Ende des Jahres/Anfgang 2008 wirklich auf (>)3Ghz bringen kann und vor allem der Servermarkt so richtig viel Geld in die Kassen spült.
mfG
denton
"... fertiges Silikon in Händen zu halten ..." - das liest sich irgendwie ... schweinisch :tongue:
Du meintest sicherlich Silizium ;)
rpm8200
2007-09-10, 09:30:16
Es wird ganz klar eingestreut, dass man *keine* direkten Rückschlüsse auf Phenom machen kann, da der Speicher mit DDR2-667 registered einen Flaschenhals darstellt, den man im Desktopbereich nicht hat. Halte es durchaus für möglich, dass k10 Phenom auch mit Penryn gleichziehen kann (wobei wohl die Taktbarkeit wohl aller Voraussicht nach unter der von Intel sein wird).
SavageX
2007-09-10, 09:36:05
Interessant...
http://www.hothardware.com/articles/AMD_Barcelona_Architecture_Launch_Native_QuadCore/?page=3
Finally, in terms of future processor platforms, AMD is targeting the release of their first 45nm part in 1H08. Code-named Shanghai, this quad processor core, we've been told, will offer a 15% per-core performance boost, clock-for-clock and a significantly larger 6MB L3 cache supporting individual per-core 512KB caches.
Da kommen wohl noch ein paar Prozentpunkte Mehrleistung dazu (aber gleich 15%....?!?). Fahren die aktuellen Barcelonas mit angezogener Handbremse?
AnarchX
2007-09-10, 09:39:02
Da kommen wohl noch ein paar Prozentpunkte Mehrleistung dazu (aber gleich 15%....?!?). Fahren die aktuellen Barcelonas mit angezogener Handbremse?
Wohl kaum...
Aber es gab schon länger Gerüchte, dass der K10.5/K11 noch mal die IPC um einiges erhöhen wird.
Ich würde das eher auf einen höheren Transistorcount, der durch 45nm möglich, zurückführen. Der K10 wird aktuell wohl schon ziemlich an den Fertigungsgrenzen mit seiner Größe sein.
SavageX
2007-09-10, 09:44:30
Wohl kaum...
Ich würde das eher auf einen höheren Transistorcount, der durch 45nm möglich, zurückführen.
Richtig, nur fragt sich, wo man denn zusätzliche Transistoren versenkt. Allein durch mehr Cache wird sich 15% wohl kaum einfahren lassen, da muss vermutlich noch was an den Kernen selbst passieren. Vielleicht tut sich da was an den Integer-Einheiten?
stav0815
2007-09-10, 10:01:16
Richtig, nur fragt sich, wo man denn zusätzliche Transistoren versenkt. Allein durch mehr Cache wird sich 15% wohl kaum einfahren lassen, da muss vermutlich noch was an den Kernen selbst passieren. Vielleicht tut sich da was an den Integer-Einheiten?
Vielleicht sind das auch die neuen SSE5 Einheiten?
reunion
2007-09-10, 10:06:22
Vielleicht sind das auch die neuen SSE5 Einheiten?
Die kommen erst mit Bulldozer.
Avalox/Gast
2007-09-10, 10:21:09
Ein sehr interessantes Review.
Die ix hat einen Artikel Online.
http://www.heise.de/ix/news/meldung/95680
Crazy_Chris
2007-09-10, 10:52:40
Der Anandtech Review ist wirklich sehr interessant. Erstaunlich wie schnell der Opteron 2224 mit nur 2Ghz ist. :eek: In der Dualkonfiguration skaliert er mit Abstand am besten.
Schwach..gerade mal 10-15%...das wird nicht reichen....das reicht ja nichtmal um an intels performance ranzukommen
Beim Tecchannel Preview sind die Cinebench Ergebnisse immernoch so beschissen - der K10 agiert pro Core hinter dem K8. Ziemlich unverständlich finde ich. Was ist das eigentlich für eine Rev. F2? Irgendwie ist das alles sehr dubios...
Schwach..gerade mal 10-15%...das wird nicht reichen....das reicht ja nichtmal um an intels performance ranzukommen
Im Serverbereich reicht es über das Takt/Leistungsniveau von Intel zu kommen.
BlackBirdSR
2007-09-10, 11:12:15
Schwach..gerade mal 10-15%...das wird nicht reichen....das reicht ja nichtmal um an intels performance ranzukommen
Ich weiss nicht ob überhaupt mehr zu erwarten war. Intel hatte immerhin die Gelegenheit die Arbeitsweise des Kerns selbst zu modifizieren. AMD konnte eigentlich nur optimieren. Das dafür ganz ordentlich. Die Änderungen sind in großer Menge vorhanden, und mit 15% auch sehr gut ausgeprägt.
Die 10% fängt der penryn locker ab
BlackBirdSR
2007-09-10, 11:15:18
Die 10% fängt der penryn locker ab
wäre ja auch peinlich für Intel, wenn die Gegenantwort nicht angemessen ausfallen würde. AMD hat sich leider viel Zeit gelassen, und daher ist immernoch Intel am Drücker. AMD hat teils beeindruckend aufgeholt und die nächste Inkarnation darf wieder einen Angriff ganz an die Spitze durchführen.
stickedy
2007-09-10, 11:25:28
Beim Tecchannel Preview sind die Cinebench Ergebnisse immernoch so beschissen - der K10 agiert pro Core hinter dem K8. Ziemlich unverständlich finde ich. Was ist das eigentlich für eine Rev. F2? Irgendwie ist das alles sehr dubios...
Wieso, der Opteron ist doch auch 800 MHz höher getaktet bzw. fast 30%. Das wär ja fast ein Wunder, wenn Barcelona da ran kommen würde!
Aber trotzdem ist der Test, nun ja, etwas seltsam. Warum haben die nicht mit einem 2,0 GHz K8-Opteron verglichen? Macht doch net wirklich Sinn so...
Aber allgemein zeigt die Server-Inkarnation des K10 genau das, was ich erwartet habe: Überzeugende Multi-Thread und Speicherperformance. Und das mit nur 2 GHz... Da wird Intel noch eifrig dran zu knappern haben wenn AMD die Taktraten mittelfristig auf 2,5 GHz anheben kann.
Auf den Phenom kann man aber nicht allzu sehr schließen, da die Plattformen zwischenzeitlich doch recht unterschiedlich sind, anders als das noch damals bei der K8-Vorstellung war.
Avalox/Gast
2007-09-10, 11:33:08
Auf den Phenom kann man aber nicht allzu sehr schließen, da die Plattformen zwischenzeitlich doch recht unterschiedlich sind, anders als das noch damals bei der K8-Vorstellung war.
Warum nicht? Der damalige Unterschied DDR PC3200 zu DDR PC2100 RegRam mag doch durchaus ähnlichen Verhältnissen entsprochen haben, wie sie heute wieder zu finden sind.
HT3.0 wird ja nur ziehen, wenn mehrere Prozessoren in einem System werkeln. Aber grade diese Vergleiche sind ja noch recht schwer zu finden.
Warum nicht? Der damalige Unterschied DDR PC3200 zu DDR PC2100 RegRam mag doch durchaus ähnlichen Verhältnissen entsprochen haben, wie sie heute wieder zu finden sind.
HT3.0 wird ja nur ziehen, wenn mehrere Prozessoren in einem System werkeln. Aber grade diese Vergleiche sind ja noch recht schwer zu finden.
Der unterschied zw. reg. DDR2-667 und ungepuffertem OC DDR2-1066 wird wohl etwas größer ausfallen, v.a. da 4 cores mit Daten versorgt werden wollen. Ok, sooviele Programme gibts noch nicht, die alle 4 cores auslasten, aber wer sowas braucht bekommt noch ein schönes Leistungsplus.
Zusätzlich kommt bei AM2+ noch der höher getaktete MemController und L3 dazu, so wie ich das verstanden habe, sind die bisherigen Tests nur auf "normalen" Socket-F" boards durchgeführt worden. AMD verspricht da 3-10% mehr Leistung.
Alles in allem bin ich für 2 GHz Coretakt mit Beta Silizium (B1) und reg. DDR2-667 RAMs zufrieden mit den Ergebnissen.
ciao
Alex
Juerg
2007-09-10, 11:45:10
Ich wurde das Gefühl im letzten halben Jahr nicht los (schlechtes Gewissen :redface:) jemandem einen AX2 uneingeschränkt zu empfehlen. C2D, C2Q war da schon sehr dominant geworden. Nun kann ich aufatmen. Wir haben wieder eine Wahl! Core2 Quad oder K10... Dies ist nur zu begrüssen. Wenn Sie jetzt noch die Ausbeute beim 65nm in den Griff kriegen und nicht in einen Speed-Path Show-Stopper reinfallen ist der K10 gebongt.
stickedy
2007-09-10, 11:46:49
Warum nicht? Der damalige Unterschied DDR PC3200 zu DDR PC2100 RegRam mag doch durchaus ähnlichen Verhältnissen entsprochen haben, wie sie heute wieder zu finden sind.
HT3.0 wird ja nur ziehen, wenn mehrere Prozessoren in einem System werkeln. Aber grade diese Vergleiche sind ja noch recht schwer zu finden.
Die ersten A64 hatten aber nur Single-Channel-RAM. Also Dual-Channel registered PC2100 gegen Single-Channel PC3200. Das kommt also quasi aufs gleiche raus, während der Phenom mit fast der doppelten Speicherbandbreite und dazu noch niedrigeren Latenzen daher kommt.
Außerdem ist die Northbridge/der Speichercontroller beim Phenom dann höher getaktet als jetzt beim Opteron. Keine Ahnung ob und wieviel das ausmacht, aber das ist auf jeden Fall ein zu beachtender Faktor. Und last but not least sind wir jetzt bei Revision BA und bis zum Phenom werden wohl noch ein oder zwei Revisionen ins Land gehen. Und somit dürften da noch einige Bugs entfernt werden und a bisserl am Speichercontroller gebastelt werden (wie üblich halt).
Die 10% fängt der penryn locker ab
Wohl eher nicht. Anand ermittelte einen knappen 5% Vorsprung der 45nm Generation vor der 65nm Generation, ausschließlich begründet durch den grösseren Cache + die geringere Latenz des L2. Intel kann im Servermarkt nur über den Takt angreifen und das bei deutlich schlechterer Skalierung. Das ist eben der Preis dafür, dass man eine veraltete Infrastruktur benutzt. Erst mit Nahelem wird sich hier was ändern können.
Wieso, der Opteron ist doch auch 800 MHz höher getaktet bzw. fast 30%. Das wär ja fast ein Wunder, wenn Barcelona da ran kommen würde!
Aber trotzdem ist der Test, nun ja, etwas seltsam. Warum haben die nicht mit einem 2,0 GHz K8-Opteron verglichen? Macht doch net wirklich Sinn so...
Huch, das hab ich garnet beachtet :eek:
[...]
Ich habe mal die Benchmarkergebnisse von heise.de
für die Intel und die AMD CPU linear auf 1000 MHz normalisiert,
und dabei habe ich folgendes Ergebnis für den Einzelkern erhalten:
Integer: (größer ist besser)
K10 @ 1 GHz = 5,1
Intel @ 1 GHz = 5,23
Floatingpoint:
K10 @ 1 Ghz = 5,8
Intel @ 1 GHz = 5,26
Dami ist also Intel im Integerbereich um 2,5 % schneller als AMD.
Während AMD im FP-Bereich um 9,3 % schneller ist als Intel.
Berücksichtig man nun, daß man bei Spielen hauptsächlich die Integerleistung benötigt und AMD mit DDR2-800 Speicher anstatt dem DDR-266 Registerted Speicher nochmal ca. 3 % zulegen könnte, dann bedeutet das, daß AMD mit dem K10 mit dem Core2Duo von Intel bei Spielen bei gleichem Takt gleichziehen dürfte.
Die Frage bleibt also, ob AMD den Takt hochbekommt, momentan muß AMD nämlich mit overclockte Intels konkurrieren.
Daher wäre mal interessant zu wissen, wie hoch man den K10 overclocken kann.
All das basierend auf folgende Werte:
http://www.heise.de/ix/news/meldung/95680
2 × Opteron 2350 2×4 2,0 GHz 10,2 11,6
2 × Xeon X5365 2×4 3,0 GHz 15,7 15,8
StefanV
2007-09-10, 12:06:59
Naja, die Frage ist doch mal, wie sehr der Puffer reinhaut...
Der Takt ist ja nicht soo wichtig, aber dennoch deutlich, sind ja auch immerhin ~200MHz (333MHz zu 533MHz)
Wohl eher nicht. Anand ermittelte einen knappen 5% Vorsprung der 45nm Generation vor der 65nm Generation, ausschließlich begründet durch den grösseren Cache + die geringere Latenz des L2. Intel kann im Servermarkt nur über den Takt angreifen und das bei deutlich schlechterer Skalierung. Das ist eben der Preis dafür, dass man eine veraltete Infrastruktur benutzt. Du vergißt da was ... und das nennt sich Caneland:
Some additional improvements to the platform include four dedicated high-speed interconnects[also 4x FSB1600] that Intel executives said will connect each processor to the 7300 chip set, which will double the bandwidth. Intel has also included a 64MB snoop filter for improving system traffic
http://www.eweek.com/article2/0,1895,2179906,00.asp
Das Ganze ist wohl nach dem Motto viel hilft viel konzipiert, und das Chipset wird teuer zu produzieren sein und verbrät viel Strom, die Endleistung aber wird so schlecht nicht sein, v.a. auch mit dem zusätzlichen Snoopfilter.
ciao
Alex
Also wieder eine Krücke um den Infrastrukturnachteil wettzumachen. Die Bandbreite ist ja auch nicht das Problem, vielmehr die Latenzen.
Also wieder eine Krücke um den Infrastrukturnachteil wettzumachen. Die Bandbreite ist ja auch nicht das Problem, vielmehr die Latenzen.Die Latenz wird bei AMD eher wieder schlechter, da der Speicherkontroller mit Northbridge Takt läuft, also langsamer. Ab gesehen davon war dank gutem Prefetcher die Latenz bei Intel doch nochnichtmal sooo schlecht...
Krücke kannst Du Caneland nicht mehr nennen, eher Rollstuhl mit 500 PS Motor, um im Bild zu bleiben ;-)
ciao
Alex
reunion
2007-09-10, 12:51:17
*Knoten gelöst*
Bitte löschen.
Avalox/Gast
2007-09-10, 13:00:42
Ich habe mal die Benchmarkergebnisse von heise.de
für die Intel und die AMD CPU linear auf 1000 MHz normalisiert,
und dabei habe ich folgendes Ergebnis für den Einzelkern erhalten:
Ist nicht richtig, du hast den Integer Durchsatz überhaupt nicht berücksichtigt.
So wie die Heise Benchmarks aussehen, sieht es ganz danach aus, dass der neue K10 praktisch sowohl im Integer, wie auch im FP Teil doch recht deutlich eine bessere pro MHz Leistung erreichen, als der verglichene XEON.
Mal sehen ob zum Schluss wieders "Intels Software" den Ausschlag über die Hardware geben wird.
Die Latenz wird bei AMD eher wieder schlechter, da der Speicherkontroller mit Northbridge Takt läuft, also langsamer. Ab gesehen davon war dank gutem Prefetcher die Latenz bei Intel doch nochnichtmal sooo schlecht...
Du kannst die Latenz der ersten NB Generation in der Rev.F/G des K8 nicht mit der der 2. Generation im K10. Das ist eine neue Architektur, ähnlich wie der Unterschied zwischen dem K8 und K10 Kern.
Krücke kannst Du Caneland nicht mehr nennen, eher Rollstuhl mit 500 PS Motor, um im Bild zu bleiben ;-)
ciao
Alex
Das ist und bleibt eine Krücke. Es wird mit dem Nahelem überflüssig, solange braucht man diese Krücke. Effizient ist was anderes. Man will damit in erster Linie für eine bessere Skalierung bei 3GHz+ sorgen.
BlackBirdSR
2007-09-10, 13:05:11
a) @Reunion, kär uns auf.
b) @S940, der Speichercontroller/NB waren im K8 nur bei halbem Takt. Es läuft also wenn dann besser.
c) @Avalox/Gast, Spec2006 für Integer und FP-Performance im Allg. herzunehmen halte ich für sehr! gewagt.
dildo4u
2007-09-10, 13:12:58
Wollte AMD nicht wenigstens bei der Performance per Watt punkten?(Und das ist noch der "alte" 65nm Xeon)
"Under load, the two are closer in power consumption with the Xeon only using 16% more total system power. Looking at performance per watt, Intel is actually ahead thanks to superior performance under the Cinebench R10 benchmark."
http://anandtech.com/IT/showdoc.aspx?i=3091&p=12
stickedy
2007-09-10, 13:14:53
Was interessiert Cinebench bei Server-Anwendungen?
b) @S940, der Speichercontroller/NB waren im K8 nur bei halbem Takt. Es läuft also wenn dann besser.Sicher ? höre ich das erste Mal ... Quelle wäre nett ;-)
@Hot / Speicherkontroller: Hmm ok, vielleicht "verstecken" die verbesserten Prefetcher einen Teil der Latenz, aber ansonsten kann man da nichts an der Latenz drehen, die ist nur vom Takt abhängig. Architektur hin oder her, das ist beidesmale ein DDR2 Kontroller. Wenn aber BlackBirdSR recht hatte, hat sich das ja sogar verbessert, also wär das Thema erledigt ;-)
Das Zugriffsverhalten wird durch die getrennt operierenden DDR2 Kanäle wohl auch besser, aber an der Latenz ändert sich da nichts ;-)
ciao
Alex
reunion
2007-09-10, 13:18:58
a) @Reunion, kär uns auf.
Naja, man sieht ja am Die-Shot, dass in dem L3-Block auch einiges an Logiktransistoren stecken. Wenn man nur die Cachezellen vergleicht ist die Größe fast identisch. Dürfte wohl etwas komplexere Kontrolllogik erfordern, wenn alle vier Cores auf einen Cache zugreifen müssen, zudem darf man ja den "L2-Ctl" in jedem CPU-Kern auch nicht vergessen.
dildo4u
2007-09-10, 13:20:05
Was interessiert Cinebench bei Server-Anwendungen?
Der Opteron ist nicht für Workstations gedacht?
http://techreport.com/articles.x/13176
Also hier liegt der Opteron fast immer hinter dem Xeon :(
reunion
2007-09-10, 13:24:30
Wollte AMD nicht wenigstens bei der Performance per Watt punkten?(Und das ist noch der "alte" 65nm Xeon)
"Under load, the two are closer in power consumption with the Xeon only using 16% more total system power. Looking at performance per watt, Intel is actually ahead thanks to superior performance under the Cinebench R10 benchmark."
http://anandtech.com/IT/showdoc.aspx?i=3091&p=12
Du siehst aber schon, dass Barcelona bei allen von Anandtech getesteten Serveranwendungen (wenn man die "Intel optimized"-Tests weglässt) im Schnitt fast die Leistung eines 2.33Ghz Clovertown erreicht, und das bei erheblich niedrigerer Leistungsaufnahme und zu erheblich billigeren Konditionen? Von idle-Stromverbrauch, der nochmal Größenordnungen darunter liegt gar nicht zu sprechen.
http://anandtech.com/IT/showdoc.aspx?i=3091&p=13
Sicher ? höre ich das erste Mal ... Quelle wäre nett ;-)
@Hot / Speicherkontroller: Hmm ok, vielleicht "verstecken" die verbesserten Prefetcher einen Teil der Latenz, aber ansonsten kann man da nichts an der Latenz drehen, die ist nur vom Takt abhängig. Architektur hin oder her, das ist beidesmale ein DDR2 Kontroller. Wenn aber BlackBirdSR recht hatte, hat sich das ja sogar verbessert, also wär das Thema erledigt ;-)
Das Zugriffsverhalten wird durch die getrennt operierenden DDR2 Kanäle wohl auch besser, aber an der Latenz ändert sich da nichts ;-)
ciao
Alex
Es handelt sich nicht um dieselbe NB, sondern um eine wesentlich komplexere Version, die vllt insgesamt geringere Latenzen benötigt. Das ist einfach nicht vergleichbar. Man kann die Latenz einfach nicht pro Takt vergleichen.
dildo4u
2007-09-10, 13:27:34
@reunion
Toll nur taugt der Test schon bald nix mher wenn im November die 45nm Xeons kommen.(Sowhol vom Speed als auch zum Performacne per Watt Vergleich)Oder legt AMD auch in 2 Monaten mit 45nm nach? :rolleyes:
http://techreport.com/articles.x/13176
Also hier liegt der Opteron fast immer hinter dem Xeon :(
Der Artikel ist irgenwie komisch. Da ist der heimliche Sieger der K8 Opteron :D.
reunion
2007-09-10, 13:36:05
@reunion
Toll nur taugt der Test schon bald nix mher wenn im November die 45nm Xeons kommen.(Sowhol vom Speed als auch zum Performacne per Watt Vergleich)Oder legt AMD auch in 2 Monaten mit 45nm nach? :rolleyes:
Habe ich was anderes behauptet? Nur die Meldung von dir war einfach fehl am Platz.
Avalox/Gast
2007-09-10, 13:37:31
@reunion
Toll nur taugt der Test schon bald nix mher wenn im November die 45nm Xeons kommen.(Sowhol vom Speed als auch zum Performacne per Watt Vergleich)Oder legt AMD auch in 2 Monaten mit 45nm nach? :rolleyes:
Abwarten Tee trinken. Dem Kunden dürfte es schließlich völlig egal sein, in welchem Prozess seine CPU hergestellt wurde. Ist mir ja auch wurscht in welchen Verfahren der Aufdruck auf die CPU gedruckt wurde.
Fakt ist doch, dass der K10 in so manchen Test tatsächlich 150% der Geschwindigkeit der aktuellen Intel Gegenspieler bei selben Takt erreicht. Das finde ich schon echt bemerkenswert, wenn man bedenkt wie ausgeknautscht Intels Design ist. Hätte ich ehrlich nicht erwartet, ich hab den K10 schon als Luftnummer gesehen und erst nach Integration der ATI KnowHow mit einer Revolution gerechnet. Aber der K10 ist scheinbar sehr gut geworden.
dildo4u
2007-09-10, 13:37:41
Habe ich was anderes behauptet? Nur die Meldung von dir war einfach fehl am Platz.
Nö für den Bench und die Anwendung stimmt sie doch oder sind Opterons reine Server und keine Workstation Prozessoren mher?
AnarchX
2007-09-10, 13:40:32
Fakt ist doch, dass der K10 in so manchen Test tatsächlich 150% der Geschwindigkeit der aktuellen Intel Gegenspieler bei selben Takt erreicht.
:|
Auf solch abenteuerliche Werte kommt ja nicht mal Anandtech:
http://anandtech.com/IT/showdoc.aspx?i=3091&p=13
Oder beziehst du dich wieder auf die nicht ganz realitätsnahen SPEC2006-Werte? ;)
Das finde ich schon echt bemerkenswert, wenn man bedenkt wie ausgeknautscht Intels Design ist.
Das trifft wohl eher auf den K10 zu, wenn man mal vom IO absieht, Intel hat bei Core2 tiefgreifendere Dinge verändert, als nur optimiert wie AMD.
VooDoo7mx
2007-09-10, 13:42:03
Naja also der super-duper Wunderprozessor ist das Teil nun irgendwie doch nicht.
Ist schon pro Takt schneller als ein Merom-Quadcore aber was nützt das wenn man nur 2GHz hat und Intel bei 3GHz ist?
Bald kommt Penryn welcher im Durchschnitt nochmal 5% schneller als Merom ist dazu noch mit FSB1600 was auch nochmal nen Schub bringt und Taktraten jenseits der 3,2GHz.
Eigentlich ändert sich an der bisherigen Situation gar nichts. o_O
Ist nicht richtig, du hast den Integer Durchsatz überhaupt nicht berücksichtigt.
So wie die Heise Benchmarks aussehen, sieht es ganz danach aus, dass der neue K10 praktisch sowohl im Integer, wie auch im FP Teil doch recht deutlich eine bessere pro MHz Leistung erreichen, als der verglichene XEON.
Das gilt nur für Spiele die von Mehrkernprozessoren auch gebrauch machen.
Deswegen habe ich den Integer Durchsatz auch bewußt weggelassen.
Es gibt nämlich heutzutage noch kaum Spiele, die von mehreren Kernen gebrauch machen.
Und Spieletechnisch wird sich da auch nicht so viel ändern.
Mehr als 2 Kerne bringen heute z.B. definitiv noch gar nichts.
Und bei 2 Kernen hilft das nur ein bischen, weil die Treiber und Co auf dem 2. Kern arbeiten können.
Die Spiele selbst aber nutzen in der Regel also trotzdem hauptsächlich immer noch nur einen Kern.
Spasstiger
2007-09-10, 13:45:38
Teilweise hat man ja schon krasse Verbesserungen gegenüber dem K8-Vorgänger erreicht:
http://img2.imagebanana.com/img/zb5tw0h8/Linpack4.gif
http://img2.imagebanana.com/img/s2554o5n/15538.png
http://img2.imagebanana.com/img/asmjywgm/BarcaWinrar.gif
Quelle: http://anandtech.com/IT/showdoc.aspx?i=3091&p=10
Vier K10-Kerne @ 2 GHz schlagen vier K8-Kerne @ 3,2 GHz.
reunion
2007-09-10, 13:52:52
Nö für den Bench und die Anwendung stimmt sie doch oder sind Opterons reine Server und keine Workstation Prozessoren?
Natürlich stimmt sie "für den Bench und die Anwendung". Nur hier eine Rosine herauszupicken, und dann einen Kommentar loszulassen, ob AMD nicht wenigstens bei der Leistung/Watt punkten wollen, wo auf der nächsten Seite viele Benchmarks stehen, die die gute Leistung/Watt bestätigen, ist doch ziemlich schäbig. Wenn wir jetzt zum Rosinen picken anfangen, dann ließe sich sicher auch was finden, wo AMD die doppelte Leistung/Watt eines aktuellen Xeon hat.
Mehr als 2 Kerne bringen heute z.B. definitiv noch gar nichts.
Falsch. Spiele, die vier Kerne nutzen, mögen in der Minderheit sein. Aber so eine Pauschalisierung ist nicht angebracht.
Falsch. Spiele, die vier Kerne nutzen, mögen in der Minderheit sein. Aber so eine Pauschalisierung ist nicht angebracht.
Dann nenn doch mal ein Spiel, daß von 4 Kernen wirklich gebrauch macht
und darauf deutlich (also mehr als 20 %) sich von einem 2 Kern System abheben kann.
Spasstiger
2007-09-10, 14:01:55
Falsch. Spiele, die vier Kerne nutzen, mögen in der Minderheit sein. Aber so eine Pauschalisierung ist nicht angebracht.
Jopp, wenn man sich das z.B. mal anschaut, eine professionelle Visualisierungssoftware:
http://anandtech.com/IT/showdoc.aspx?i=3091&p=7
http://img2.imagebanana.com/img/s2554o5n/15538.png
9,9 fps mit dem Dual-Core-K8 @ 3,2 GHz, 15,3 fps mit dem Quad-Core-K10 @ 2 GHz, 24,3 fps mit zwei Quad-Core-K10 @ 2 GHz.
Wo ist es wohl am Angenehmsten, zuzuschauen. ;)
dildo4u
2007-09-10, 14:02:10
So weiter gehts sollte nicht gerade die FP Leistung verbessert worden sein?Like 50% über K8 laut AMD?
Cinebench
"I had high hopes for Barcelona's purported improvements in floating-point math, but we're just not seeing it here. Have a look at the single-threaded performance of the Opteron 2218 HE (at 2.6GHz) versus the Opteron 2360 SE (at 2.5GHz): performance per clock is nearly identical between K8 and Barcelona. The one saving grace for the new Opterons is strong multi-threaded scaling. The Xeon E5345 is faster than the 2360 SE with one thread but slower with eight. Put another way, the E5345 offer a 6.2X speedup with multithreading, while the Barcelona's is nearly 7X.
POV-Ray rendering
"Again, we're seeing strong performance scaling with Barcelona, but not dominance in floating-point math. The Xeon L5335 at 2GHz is just a few ticks behind the 2GHz Opteron 2350."
http://techreport.com/articles.x/13176/5
" However, Barcelona's gains in performance per clock aren't quite what we expected, especially in floating-point-intensive applications like 3D rendering, where it looks for all the world like a quad-core K8. As a result, Barcelona is sometimes faster, sometimes slower, and oftentimes the equal of Intel's Core microarchitecture, MHz for MHz. Given the current clock speed situation, that's a tough reality.
That said, new processor microarchitectures often scale quite well with clock speed, and our sneak peek at the 2.5GHz Opteron 2360 SE suggests Barcelona might be that way. Still, one can't help but wonder whether AMD did the right thing with its L3 cache. That cache's roughly 20ns access latency erases the Opteron's lifelong advantage in memory access latencies, yet it nets an effective total cache size just over half that of the current Xeon's."
http://techreport.com/articles.x/13176/12
Ich frag mich wo die die 50% mher FP Leistung gemessen haben wollen whol nur beim Spec2006 FP Peak Bench.
Dann nenn doch mal ein Spiel, daß von 4 Kernen wirklich gebrauch macht
und darauf deutlich (also mehr als 20 %) sich von einem 2 Kern System abheben kann.
Bitte schön: CMR Dirt.
So weiter gehts sollte nicht gerade die FP Leistung verbessert worden sein?Like 50% über K8 laut AMD?
(...)
Ich frag mich wo die die 50% mher FP Leistung gemessen haben wollen whol nur beim Spec2006 FP Peak Bench.Schreib hier mal nicht gleich Absatzweise alles fett, sonst könnte man dem Gedanken verfallen, dass dein board-member Status "insane" wörtlich zu nehmen ist ...
Zur Lösung Deines Problems gibts viele möglichen Antworten, ich tippe an erster Stelle an eine optimierte SSE2 binary bei cinebench, die bei AMD CPUs immer noch die (beim K8 schnellere) x87 FPU benützt ... ergo würde dann die 128bit SSE2-FPU brach liegen. Also warte mal die nächste Programm Version ab. Falls ich recht habe und solange Intel kein Großinvestor bei Maxon ist, schieben die sicherlich demnächst eine neu complierte Version nach.
Auch möglich dass mit NUMA was schief läuft, wurde ja schon bei PovRay bemängelt:
I decided to go ahead and report these results for the sake of completeness, but I don't believe they're telling us much about the new Opterons' competence. This beta version of POV-Ray seems to have a problem with single-threaded tasks bouncing around from one CPU core to the next, and this causes especially acute problems on NUMA systems. Since the vast majority of the computation time for these scene involves such single-threaded work, things turn out badly for the Opteron 2300s.
Nächste Idee wäre noch, dass die Caches zu klein sind für den Cinebenchcode. Der K8 hatte 1 MB pro Kern, jetzt gibts 512+L3 Anteil. Rein rechnerisch könnte man dann mit L3 Größe/4 = 512 kB ebenfalls von 1MB Cache pro Kern ausgehen, aber wenn die Daten immer zw. L2 und L3 hin und herkopiert werden müßten und auf dem L3 auch die andren 3 Kerne zugreifen ... könnte das schief gehen. Falls das zuträfe würde vielleicht höchstens nur die 45nm K10 Version mit 6MB L3 Abhilfe schaffen.
Edit: Allerdings sollte dann der single thread Betrieb besser sein, wenn 1 Kern den kompletten L3 bekommt, wenn dann wäre also eher der L2 das Problem ...
Aber erst mal abwarten...
ciao
Alex
Warum hat es AMD nicht hingekriegt dem K10 endlich mal wettbewerbsfähig viel Cache zu verpassen? Cache zu implementieren ist doch nun wirklich nicht schwierig! Damit ließe sich doch mit sehr wenig Entwicklungsaufwand einiges an Performance aufholen!
aylano
2007-09-10, 14:43:09
Sieht ganz nett aus fürs AFAIK B1-Stepping.
Bin gespannt, wie gut die nächsten werden. Vorallem ob sich der Performance pro Watt noch was tut oder fast nur in der Geschwindigkeit.
Jetzt produziert AMD "endlich" auch mal 65nm-Opterons.
Immerhin produziert AMD jetzt auch K10-65nm-300mm statt nur K8-90nm-200mm
(Fab36 produziert ja lange kein 90nm mehr)
Warum hat es AMD nicht hingekriegt dem K10 endlich mal wettbewerbsfähig viel Cache zu verpassen? Cache zu implementieren ist doch nun wirklich nicht schwierig! Damit ließe sich doch mit sehr wenig Entwicklungsaufwand einiges an Performance aufholen!Öhm ... schau Dir mal die DIE Größe an ... so ein "echtes" QuadCore DIE ist recht groß ... da musste man Abstriche machen. Mehr Cache ist erst beim Shanghai drin.
ciao
Alex
Avalox/Gast
2007-09-10, 15:30:41
Warum hat es AMD nicht hingekriegt dem K10 endlich mal wettbewerbsfähig viel Cache zu verpassen?
Cache ist eine Krücke und kein Feature. Ein System benötigt mehr Cache, ein anderes weniger, oder im besten und schnellsten Fall gar keinen. Es interessiert, was am Ende bei rauskommt. Kauftst ja auch nicht die CPU nach der Anzahl derer Kontakte.
Warum hat es AMD nicht hingekriegt dem K10 endlich mal wettbewerbsfähig viel Cache zu verpassen? Cache zu implementieren ist doch nun wirklich nicht schwierig! Damit ließe sich doch mit sehr wenig Entwicklungsaufwand einiges an Performance aufholen!
Und teuer. Davon abgesehen ist der Einbruch aufgrund des integrierten Speichercontollers in Relation zur Grösse des L2-Cache eher marginal.
Intel muss mehr L2-Cache verbauen, um das Manko wieder aufzuholen.
In diesem Bereich ist AMD schon seit dem AMD64 im Vorteil. ;)
Das heisst aber nicht, dass ein grösserer L2-Cache auch bei AMD keine Vorteile bringen würde. Sie wären nur nicht so massiv wie bei Intel -> siehe K8. Und wie S940 schon gesagt hat kommt das auch noch.
Warum hat es AMD nicht hingekriegt dem K10 endlich mal wettbewerbsfähig viel Cache zu verpassen? Cache zu implementieren ist doch nun wirklich nicht schwierig! Damit ließe sich doch mit sehr wenig Entwicklungsaufwand einiges an Performance aufholen!
Entwickeln könnte AMD das zweifellos, aber im Moment nicht zu konkurrenzfähigen Preisen fertigen.
mapel110
2007-09-10, 15:59:06
Hm 463 zu 2x291 = Intel gewinnt.
Intel hat damit über 100 Mio mehr Transistoren und 1 Ghz mehr Takt.
Vielleicht ists gar keine schlechte Strategie, getrennte Cores zu haben oder AMD hats verbockt. :uponder:
/edit
Wie sieht die Transistor-Rechnung eigentlich Cache-bereinigt aus? Also ohne Caches?
Wie groß ist der K10 eigentlich?
Ich meine Transitoren und Fläche.
Warum hat es AMD nicht hingekriegt dem K10 endlich mal wettbewerbsfähig viel Cache zu verpassen? Cache zu implementieren ist doch nun wirklich nicht schwierig! Damit ließe sich doch mit sehr wenig Entwicklungsaufwand einiges an Performance aufholen!
Mehr Cache kostet aber auch einen Haufen Geld.
So ne Sauerei, Schleichwerbung von Intel auf der AMD Testseite:
http://www.anandtech.com/IT/showdoc.aspx?i=3091
Und dann auch noch mit 4 Katzen die weg vom AMD Logo hin zum Intel Logo zeigen.
Als hätte man schon von Anfang an gewußt auf welcher Seite man die Werbung plazieren kann.
So ne Sauerei, Schleichwerbung von Intel auf der AMD Testseite:
http://www.anandtech.com/IT/showdoc.aspx?i=3091
Und dann auch noch mit 4 Katzen die weg vom AMD Logo hin zum Intel Logo zeigen.
Als hätte man schon von Anfang an gewußt auf welcher Seite man die Werbung plazieren kann.
Aber gut ist, wenn man mit der Maus über die Katzen fährt, dann geben die Pfötchen. :)
Und wenn man die Maus Richtung AMD Logo hält, dann Brüllen sie, als würden sie Sagen: "NEIN, DAS NICHT!"
Juerg
2007-09-10, 16:24:45
Hm 463 zu 2x291 = Intel gewinnt.
Intel hat damit über 100 Mio mehr Transistoren und 1 Ghz mehr Takt.
Vielleicht ists gar keine schlechte Strategie, getrennte Cores zu haben oder AMD hats verbockt. :uponder:
/edit
Wie sieht die Transistor-Rechnung eigentlich Cache-bereinigt aus? Also ohne Caches?Über 100 Mio mehr Transistoren und 1 Ghz mehr Takt für marginal bessere Leistung in besonderen Fällen? Intel hats verbockt. ;)
Vielleicht ists gar keine schlechte Strategie, getrennte Cores zu haben oder AMD hats verbockt. :uponder:
Ist mit der Infrastruktur halt nicht so einfach möglich.
mapel110
2007-09-10, 16:36:54
Ist mit der Infrastruktur halt nicht so einfach möglich.
Hm, also früher hieß es doch beim Athlon64 mit seinem Hypertransport, er sei bestens auf die Zukunft und Multicore ausgerichtet.
Hm, also früher hieß es doch beim Athlon64 mit seinem Hypertransport, er sei bestens auf die Zukunft und Multicore ausgerichtet.
Wer behauptet denn das Gegenteil?
Crazy_Chris
2007-09-10, 16:40:20
Hm, also früher hieß es doch beim Athlon64 mit seinem Hypertransport, er sei bestens auf die Zukunft und Multicore ausgerichtet.
Ist er doch wenn man sich mal anschaut wie gut das System selbst bei 8 Cores skaliert. :eek:
Tybalt
2007-09-10, 16:40:48
Ist er doch auch. Je mehr Kerne er hat, umso effizienter arbeitet er im vergleich zu Intel Architekturen.
AnarchX
2007-09-10, 16:41:18
Ist mit der Infrastruktur halt nicht so einfach möglich.
Wieso mit Montreal wird man doch auch ein MCM einsetzen?
Eher kommt mir der Verdacht auf, dass AMD sich dies nicht mehr traute nachdem sie auf auf Smithfield und Kentsfield so herumgehackt hatten oder sie haben einfach noch nicht genug Erfahrung mit MCMs.
Ich würde aber kein Problem sehen, zwei K8-DCs auf ein Package zu bringen, mit HT können beide ja gut kommunizieren bzw. den MC von einem Kern gemeinsam nutzen.
Ich würde aber kein Problem sehen, zwei K8-DCs auf ein Package zu bringen, mit HT können beide ja gut kommunizieren bzw. den MC von einem Kern gemeinsam nutzen.
Wie sieht es eigentlich mit der Latenz HT->XBAR->MC aus?
Hat da einer Daten?
Ich frage mich gerade, ob es denn überhaupt möglich ist, den MC-Verkehr eines Kerns zu unterbinden und dieses als "MC-Remote" über den MC des anderen Kerns über HT zu realisieren.
Wieso mit Montreal wird man doch auch ein MCM einsetzen?
Ein was?
Von AMD selber...
Event Details
Title Quad-Core AMD Opteron™ processor launch celebration
Date and Time Monday, September 10, 2007 6:30 p.m. PT
Duration 1 Hour 30 Minutes
http://phx.corporate-ir.net/phoenix.zhtml?p=irol-eventDetails&c=74093&eventID=1641244
http://multicore.amd.com/us-en/AMD-Multi-Core/Quad-Core-Advantage.aspx
Ich frage mich gerade, ob es denn überhaupt möglich ist, den MC-Verkehr eines Kerns zu unterbinden und dieses als "MC-Remote" über den MC des anderen Kerns über HT zu realisieren.
Öhm gibts doch schon ... manche 2P Opteron boards hatten nur den Speicher einer CPU "angeschlossen". Das ist überhaupt kein Problem.
@Coda: MultiChipModul. Halt sowas, was Intel macht.
ciao
Alex
reunion
2007-09-10, 17:07:34
Hm 463 zu 2x291 = Intel gewinnt.
In was gewinnt Intel, in der Kategorie "wer hat den Längsten"?
Effizienz ist aus wenig viel zu machen.
Intel hat damit über 100 Mio mehr Transistoren und 1 Ghz mehr Takt.
Zählen tut was hinten rauskommt.
Vielleicht ists gar keine schlechte Strategie, getrennte Cores zu haben oder AMD hats verbockt. :uponder:
Inwiefern?
/edit
Wie sieht die Transistor-Rechnung eigentlich Cache-bereinigt aus? Also ohne Caches?
Der Logikanteil ist bei AMD sowohl proportional als wohl auch ziemlich sicher absolut höher als bei Intel. Was angesichts des integrierten MC, der HT-Links, der Crossbar, etc. auch wenig verwundert.
Ein was?
Such dir was aus:
http://de.wikipedia.org/wiki/MCM
;D
Ich glaube aber er meint wohl dieses hier, auch wenn ich den Zusammenhang noch nicht ganz geschnallt habe.
http://de.wikipedia.org/wiki/Multi_Chip_Module
Übrigens:
jede Menge neue Info!
http://www.amd.com/us-en/Processors/TechnicalResources/0,,30_182_739_9003,00.html
In was gewinnt Intel, in der Kategorie "wer hat den Längsten"?
Effizienz ist aus wenig viel zu machen.
Aber nur, wenn kein Ziel (vor-)bestimmt ist. Liegt ein bestimmtes Ziel vor, dann kann man nur dann von Effizienz sprechen, wenn dieses Ziel mit geringstem Einsatz von Faktoren erreicht wird. Wenn Intel mit 2x X Prozessoren sein Ziel erreicht, ohne dass es eine bessere Alternative gibt, dann ist dies effizient.
Wenn die Ausbeute gleich hoch bei beiden Herstellern ist, dann ist klar, dass AMD das günstigere Design hat. Unter diesen Randbedingungen wäre AMD im Preiskampf klar im Vorteil.
AnarchX
2007-09-10, 17:45:34
Ein was?
Wie schon gesagt: ein Muti-Chip-Modul.
Beim Montreal wird AMD darauf zurückgreifen um 2008 wohl noch einen Octo-Core anzubieten:
http://www.hardwaresecrets.com/imageview.php?image=7822
Ich sagte ein Spiel, keine Möchtegern Simulation!
ehm....
Dann nenn doch mal ein Spiel, daß von 4 Kernen wirklich gebrauch macht
und darauf deutlich (also mehr als 20 %) sich von einem 2 Kern System abheben kann.
Supreme Commander
Lost Planet
Es wird ganz klar eingestreut, dass man *keine* direkten Rückschlüsse auf Phenom machen kann, da der Speicher mit DDR2-667 registered einen Flaschenhals darstellt, den man im Desktopbereich nicht hat. Halte es durchaus für möglich, dass k10 Phenom auch mit Penryn gleichziehen kann (wobei wohl die Taktbarkeit wohl aller Voraussicht nach unter der von Intel sein wird).
Das kann man gleich wieder vergessen, diese These.
Das ist bei Intel wegen dem FB DIMM noch schlimmer. Ich glaube ich hatte mal einen Screenshot mit FB DIMM gesehen, wo zwei Quads getestet wurden... Latenzen über >100 ns und 2000 MB/s in EVEREST.
Ich brauche wohl nicht zu erwähnen, wo ein Core 2 mit DDR2-800+ liegt, oder?
Habs wieder gefunden, war doch nocht schlechter bei der Latenz. ;)
Hier mal zwei Quad Xeons:
Memory Read:http://www.xbitlabs.com/misc/picture/?src=/images/cpu/intel-v8/everest-1.png&1=1
Latency: http://www.xbitlabs.com/misc/picture/?src=/images/cpu/intel-v8/everest-4.png&1=1
Auf der Desktopplattform sind Werte von um die 50-60ns und 8000-9000 MB/s erreichbar.
Beim Server plant Intel ja auch noch eine weiterentwickelte Version mit Snoop Filter + FSB1600, die ist da wohl auch noch nicht verglichen worden.
Die Streiterei find ich lustig, und das MCM noch lustiger :D.
Es sind 2 Philosophien, die jeweils Vor- und Nachteile haben. AMD vorzuwerfen, sie wären mit dem QuadCore ineffizient ist aber purer Blödsinn ;).
Es zählen nicht nur die Produktionskosten, sondern auch die Entwicklungskosten. Und hier hat AMD Techniken hervorgebracht, die Intel eben nicht hat, da ist der spingende Punkt. Intel hat tonnenweise Techniken entwickelt, um FSB-gebundene Prozessoren immer effizienter gemacht und das mit Sicherheit nicht mit geringen Kosten. Diese Entwicklungen sind aber wenn man in die Zukunft guckt, schlichtweg fürn Arsch ;). Intel setzt mit CSI+NUMA+IMC auf exakt dasselbe Pferd wie AMD und AMD hat sich die kompletten Entwicklungskosten für die FSB Hantiererei (dessen Krönung sich ja jetzt im Tigerton findet) schlichtweg nicht leisten können. Wären sie auf FSB geblieben, so wie Intel, hätten sie niemals so den Ton angeben können, wie sie es jetzt tun (AMD64 und so). Ohne die NUMA Infrastruktur wäre der Opteron nie so gross geworden und Intel hätte IA64 auf den Markt pressen können.
AMD kann es sich damals wie heute nicht leisten, mehrere Infrastrukturen nebeneinander zu fahren, was ja auch bedeutet, dass man zig verschiedene CPU Dies parallel hätte produzieren müssen. AMD produziert bisher genau 2: einen mit wenig Cache, einen mit viel Cache. In Zukunft produziert AMD genau 3: einen K10 QuadCore, einen K10 DualCore und einen neuen (Rev.H+) K8 DualCore. Und es bleibt bei genau einer Infrastruktur. Also wenn man hier über Kosten sinniert, sollte man sich überlegen, warum so gehandelt wird. Das ist eben langfristig gesehen der kostengünstigste Weg für AMD so zu handeln, auch wenn das 200mm²+ Die natürlich teurer in der Produktion ist. AMD hat keine Entwicklungskapazitäten frei - die müssen die wirklich essenziellen Sachen entwickeln und viel mehr langfristig forschen und denken als Intel.
Alles eine Frage der Kapazität und der technischen Möglichkeiten.
Das kann man gleich wieder vergessen, diese These.
Das ist bei Intel wegen dem FB DIMM noch schlimmer. Ich glaube ich hatte mal einen Screenshot mit FB DIMM gesehen, wo zwei Quads getestet wurden... Latenzen über >100 ns und 2000 MB/s in EVEREST.
Ich brauche wohl nicht zu erwähnen, wo ein Core 2 mit DDR2-800+ liegt, oder?
Das zeigt erstaunlich gut, warum der Nahelem auf NUMA setzt und warum Intel sich immer teurere immer brachialere Methoden ausdenken muss, die UMA Plattform zu entwickeln. Außerdem ist das bei einem Core2 nicht so tragisch, K10 und K8 hängen deutlich mehr an der Latenz - und der K10 wird bei beiden Everest Benches mit DDR2 800 oder gar DDR2 1066 RAM an erster Stelle stehen ;).
Das kann man gleich wieder vergessen, diese These.
Das ist bei Intel wegen dem FB DIMM noch schlimmer. Ich glaube ich hatte mal einen Screenshot mit FB DIMM gesehen, wo zwei Quads getestet wurden... Latenzen über >100 ns und 2000 MB/s in EVEREST.
Ich brauche wohl nicht zu erwähnen, wo ein Core 2 mit DDR2-800+ liegt, oder?
Core2 ist dank riesigen Caches und intelligenten Prefetch-Einheiten beiweiten nicht so Bandbreiten- und Latenzlimitiert wie K8/10.
(natürlich verliert auch Core2 Leistung, nur prozentuell weniger)
ich weiß nicht wie ihr das seht, aber findet ihr die Bandbreite des L3 nicht auch viel zu mickrig. Das sind nur ca. 6000MB/s
http://www.tecchannel.de/img/icons/icon_lens.gif
In manchen Fällen, sollte es hier wieder zu einer Limitierung kommen. Das wäre ja wieder die gleiche Limitierung wie beim K8 der L2, nur stärker, da der K10 mehr Rechenpower hat, insbesondere, wenn alle Kerne ausgelastet werden, um Daten zu verarbeiten, diese aber nicht bekommt.
Die Bandbreite hängt direkt mit dem Takt der Northbridge zusammen, oder?
BlackBirdSR
2007-09-10, 18:53:01
So weiter gehts sollte nicht gerade die FP Leistung verbessert worden sein?Like 50% über K8 laut AMD?
Ist sie doch auch. Wann immer SIMD SSE/2/3 zum Einsatz kommt, steigt der Durchsatz um das Doppelte an. Die Gleitkommaleistung wurde dramatisch gesteigert.
Wenn man sich dann nicht vom PR blenden lässt, und etwas tiefer eintaucht stellt man allerdings fest: Mit 128Bit Floating Point meint AMD eben nur SIMD, und nur SIMD.
Die Ausführung von skalarem Code und x87 profitiert zwar auch von versch. Verbesserungen, aber es bleibt immernoch beim gleichen Durchsatz. Die CPU kann kaum mehr als vorher, was dieses Bereich angeht.
Das ist der Punkt, an dem man sich nicht täuschen lassen darf. Die Gleitkommaleistung wurde stark gesteigert: Bei SIMD only und Speicherlastigen FP-Benches wie Spec ;)
@Gast:
Bei den gleichen Benchmarks kam tecchannel damals mit dem 3GHz P4 und L3-Cache auch nur auf 7-8GB/s. Der K10 schneidet bei 2GHz also bereits sehr gut ab!
turboschlumpf
2007-09-10, 20:04:08
Warum hat es AMD nicht hingekriegt dem K10 endlich mal wettbewerbsfähig viel Cache zu verpassen? Cache zu implementieren ist doch nun wirklich nicht schwierig! Damit ließe sich doch mit sehr wenig Entwicklungsaufwand einiges an Performance aufholen!
Und teuer. Davon abgesehen ist der Einbruch aufgrund des integrierten Speichercontollers in Relation zur Grösse des L2-Cache eher marginal.
Intel muss mehr L2-Cache verbauen, um das Manko wieder aufzuholen.
In diesem Bereich ist AMD schon seit dem AMD64 im Vorteil. ;)
Das heisst aber nicht, dass ein grösserer L2-Cache auch bei AMD keine Vorteile bringen würde. Sie wären nur nicht so massiv wie bei Intel -> siehe K8. Und wie S940 schon gesagt hat kommt das auch noch.
Cache ist nicht teuer!
Cache ist einfach zu fertigen, Cache lässt sich redundant auslegen, Cache ist dementsprechend billig und je mehr Cache eine CPU besitzt desto besser ist die Ausbeute.
AMD hat mit ihrem Logik-Monster Barcelona also mitnichten einen Vorteil!
Wenn die Ausbeute gleich hoch bei beiden Herstellern ist, dann ist klar, dass AMD das günstigere Design hat. Unter diesen Randbedingungen wäre AMD im Preiskampf klar im Vorteil.
Vermutlich ist die Ausbeute von Barcelona aber unterirdisch im Vergleich zur Ausbeute von Clovertown oder Harpertown.
BlackBirdSR
2007-09-10, 20:06:32
Cache ist nicht teuer!
Cache ist einfach zu fertigen, Cache lässt sich redundant auslegen, Cache ist dementsprechend billig und je mehr Cache eine CPU besitzt desto besser ist die Ausbeute.
Aber nur! im Verhältnis Cache/Logik bei gleichbleibender DIE-Größe.
Je mehr Cache die CPU besitzt, desto größer die Fläche, und damit geringer die Ausbeute. Der K10 ist schon jetzt ein sehr teures Stück Silizium.
Core2 ist dank riesigen Caches und intelligenten Prefetch-Einheiten beiweiten nicht so Bandbreiten- und Latenzlimitiert wie K8/10.
(natürlich verliert auch Core2 Leistung, nur prozentuell weniger)
FB DIMM ist aber auch wesentlich langsamer als normaler DDR2-RAM.
Da schon der FSB ein Flaschenhals darstellt (auch mit FSB1600), ist es natürlich übel, das dies noch mit 667er FB-DIMM kombiniert wird.
Der Quad (in doppelter oder gar vierfacher Ausführung) hängt schon ordentlich an der Bandbreite und Latenz. Es geht hier wie gesagt NICHT um Desktopsysteme, sondern um Server.
Wenn du ne fette Datenbank darauf laufen hast, dann will die irgendwohin. :)
@BlackBirdSr: ich wollte nicht anspielen, dass der L3 des K10 langsma gegenüber der Konkurenz ist. Aber kann dieser den Datenfluss nicht deutlich bremsen?
Beim p4 ist es meiner Meinung auch etwas völlig anderes, das dieser wesentlich langsamer ist und nur einen Kern hat (darüber bin ich mir jetzt grad nicht sicher). Wenn also angenommen der p4 gerade so nicht limitiert bei seinen 6GB/s. Wie schaut's dann bei einem K10 Quadcore aus der benötigt theoretisch die 4 fache Bandbreite.
Ich weiß allerdings nicht, wie viel Bandbreite ein K8, p4, oder k10 braucht um nicht daran zu verhungern...halte aber 6GB/s schon für wenig... macht pro core 1500 MB/s. Während dem p4 aus deinem Beispiel theoretisch ( FSB Limit)über 6GB/s alleine zur Verfügung stehen. Und ca. 3GB/s, wenn es ein dual ist. Dazu kommt noch, dass ein K10 core mit 2Ghz wesentlich schneller sein sollte, als ein 3Ghz p4, und demzufolge auch mehr Bandbreite braucht.
Also lange Rede kurze 2 Fragen: kann ein k10 an dem L3 limitieren? Wie stark kann sich das auswirken?
BlackBirdSR
2007-09-10, 21:12:13
@BlackBirdSr: ich wollte nicht anspielen, dass der L3 des K10 langsma gegenüber der Konkurenz ist. Aber kann dieser den Datenfluss nicht deutlich bremsen?
Beim p4 ist es meiner Meinung auch etwas völlig anderes, das dieser wesentlich langsamer ist und nur einen Kern hat (darüber bin ich mir jetzt grad nicht sicher). Wenn also angenommen der p4 gerade so nicht limitiert bei seinen 6GB/s. Wie schaut's dann bei einem K10 Quadcore aus der benötigt theoretisch die 4 fache Bandbreite.
Ich weiß allerdings nicht, wie viel Bandbreite ein K8, p4, oder k10 braucht um nicht daran zu verhungern...halte aber 6GB/s schon für wenig... macht pro core 1500 MB/s. Während dem p4 aus deinem Beispiel theoretisch ( FSB Limit)über 6GB/s alleine zur Verfügung stehen. Und ca. 3GB/s, wenn es ein dual ist. Dazu kommt noch, dass ein K10 core mit 2Ghz wesentlich schneller sein sollte, als ein 3Ghz p4, und demzufolge auch mehr Bandbreite braucht.
Also lange Rede kurze 2 Fragen: kann ein k10 an dem L3 limitieren? Wie stark kann sich das auswirken?
Pro Core Bandbreite ist ein sinnloser Begriff. Kerne teilen sich die Bandbreite nicht, sie greifen Abwechselnd darauf zu.
Ansonsten stell ich dir eine gegenfrage: Was limitiert mehr? Ein K10 der direkt auf den Speicher mit 2.5Gb/s und 100 Takten Latenz zugreifen muss, oder ein K10 der noch einen 2MB großen Puffer mit 6GB/s und ca 30+ Takten Latenz dazwischen hat?
Jedes Speichersystem mit einer Bandbreite < 00 und einer Latenz > 0 limitiert.
Sicherlich kann man den L3 Cache beschleunigen. Aber zu welchem Preis? Für AMD scheint das ein guter Kompromiss zu sein.
Also wie stark wirkt sich das aus? Für Server sehr positiv.
Für Spiele und Multimedia sehen wir noch ;) Der L3-Cache scheint eine Menge zusätzlicher Latenz hinzuzufügen. Hier verliert der K10 stark an Boden gegenüber dem K8 -> siehe Techreport.
Wichtig ist am Ende was hinten dabei rauskommt. Und das ist noch sehr schwer abzuschätzen. Dazu brauchen wie Phenom
@Hot: Richtig
Der L3 ist doch an die interne NB gebunden und müsste doch auch mit dem Takt der internen NB laufen. Dann ist er sogar einige 100 MHz niedriger getaktet als der CPU Kern.
FB DIMM ist aber auch wesentlich langsamer als normaler DDR2-RAM.
Da schon der FSB ein Flaschenhals darstellt (auch mit FSB1600), ist es natürlich übel, das dies noch mit 667er FB-DIMM kombiniert wird.
Der Quad (in doppelter oder gar vierfacher Ausführung) hängt schon ordentlich an der Bandbreite und Latenz. Es geht hier wie gesagt NICHT um Desktopsysteme, sondern um Server.
Wenn du ne fette Datenbank darauf laufen hast, dann will die irgendwohin. :)
Ich sage ja nicht, dass du komplkett unrecht hast ;)
Aber auch in Serveranwendungen helfen Prefetcher schon sehr. Solange du kein 2Wege+ System hast, ist die Bandbreiten- und Latenzlimitierung seitens Core2 nicht sooo gewaltig, da ist sie natürlich schon (bei 4+ Wege siehts übel aus).
Meine Aussagen bezogen sich mehr auf die Benchmarkergebnisse.
Vorsicht, bei Datenbank-Servern ist das Storagesystem wichtiger als der verbaute Prozessor ;)
Der L3 ist doch an die interne NB gebunden und müsste doch auch mit dem Takt der internen NB laufen. Dann ist er sogar einige 100 MHz niedriger getaktet als der CPU Kern.
Die NB im K10 taktet bei Sockel F und AM2 nur mit halben CPU-Takt, gleich wie K8. In unserem Fall also mit 1GHz, dafür sind die 6GB/s garnicht schlecht. (beim AM2+ sind dann 1,6 - 1,8GHz)
BlackBirdSR
2007-09-10, 21:47:43
Die NB im K10 taktet bei Sockel F und AM2 nur mit halben CPU-Takt, gleich wie K8. In unserem Fall also mit 1GHz, dafür sind die 6GB/s garnicht schlecht. (beim AM2+ sind dann 1,6 - 1,8GHz)
Nein in diesen Test-Systemen hat das schon gepasst:
Zitat Anand:
ASUS was the first to send us a board which supports AMD's split power plane. Split power plane or dual dynamic power management means that the memory controller and the core are fed from different power rails. According to AMD, this allows the memory controller to run at 1.8GHz instead of 1.6GHz, and provides a 7% boost in raw memory performance. The new quad-core Opteron processors should work in the older socket-F motherboards with a BIOS Update. These unified plane motherboards will be slightly slower (slightly lower clocked memory controller) and consume a bit more power though.
ich weiss das es keine desktop / spiele cpu ist aber hat trotzdem schonmal jemand das teil mit cpu belastenden spielen getestet, bevorzugt natürlich etwas was von 4 cores auch nutzen ziehen kann, supreme commander oder sowas in der art?
Die einzigsten Benches die es gibt sind die von Anand mit 16 bzw. 20% Vorteil für den K10 ggü. K8
mictasm
2007-09-11, 02:27:52
Also könnte man sagen, dass sich die Werte, die bisher veröffentlicht sind, im Rahmen der sachlichen Erwartungen bewegen? Gibt es etwas wirklich überraschendes oder unvorhergesehendes?
Wenn man mit dem Kauf einer aktuellen (Quad-)CPU für einen hauptsächlich für Spiele genutzten Rechner noch warten kann, würdet ihr sagen, man sollte noch bis zu den ersten Ergebnissen von den Desktop K10 Varianten warten oder bereits jetzt auf Intel schwenken?
dildo4u
2007-09-11, 02:38:02
Wenn du für UT3 Crysis etc. eine neue CPU kaufen willst kommst du whol bis Anfang 2008 nicht um Intel herrum erst dann wird AMD auch bei 3GHZ sein.2007 wird whol 2.5Ghz das Max bei AMD sein.
w0mbat
2007-09-11, 09:35:25
Und ein 2,5GH Phenom X4 reicht deiner Meinung nicht für Crysis & UT3 aus?
ja aber 3ghz sind doch besser - wenn sie in etwa gleich performen - erstmal game benches abwarten und dann noch schaun was intel demnächst macht - gleichstand haben wir nur für ein paar tage / wochen - dann ist intel wieder 1337!
Avalox/Gast
2007-09-11, 10:27:31
ja aber 3ghz sind doch besser - wenn sie in etwa gleich performen - erstmal game benches abwarten und dann noch schaun was intel demnächst macht - gleichstand haben wir nur für ein paar tage / wochen - dann ist intel wieder 1337!
Altes GHz Wettlaufen? Mal Abwarten. Crysis soll ja schön mit Multicore Prozessoren skalieren und da ist AMD weit vorne.
Der K10 ist ja nun jetzt chon sehr schnell und wird mit der Desktop Varianten aller Wahrscheinlichkeit noch mal ordentlich zulegen.
Schön wäre, wenn AMD ihre Grafiktreiber schnell auf den K10 optimiert. Das würde sicherlich schnell und allgemein was bringen.
Mich hat der K10 echt sehr positiv überrascht. Mal sehen wie schnell Intel 4GHz liefern kann, mich dünkt sie werden es brauchen.
AnarchX
2007-09-11, 10:37:26
Fragt sich nur ob der K10 immernoch so stark auf einem Sockel ist, das Preview bei Anandtech deutet jedenfalls nicht unbedingt darauf hin, dass man hier deutlich dem Core2 überlegen wäre, sondern mit Glück noch so aufschliessen kann.
Im Endeffekt kann AMD wieder CPUs in höheren Preisbereichen verkaufen, die aber auch teurer in der Herstellung sind.
Dass AMD wieder die Leistungskrone auf dem Desktop an sich reißen wird, ist dann doch schon etwas utopisch und definitiv etwas was Intel zu verhindern mag, auch ohne gleich auf 4GHz gehen zu müssen. ;)
Altes GHz Wettlaufen? Mal Abwarten. Crysis soll ja schön mit Multicore Prozessoren skalieren und da ist AMD weit vorne.
Der K10 ist ja nun jetzt chon sehr schnell und wird mit der Desktop Varianten aller Wahrscheinlichkeit noch mal ordentlich zulegen.
Nein, du hast da offensichtlich was verwechselt.
Die Multi-CPU Plattform ist sogar schneller als die Einzellösung im Vergleich. Der K10 im Desktop wird langsamer sein, im Vergleich zum Intel. Siehe auch 3DC-News.
Das war schon beim K8 so. Je mehr CPUs im Einsatz waren, desto besser schnitt er ab, bzw holte mehr auf.
Auf einem 1-CPU System ist der IMC nicht ganz so entscheidend, wie du das dir vielleicht vorstellst.
BlackBirdSR
2007-09-11, 10:48:47
Altes GHz Wettlaufen? Mal Abwarten. Crysis soll ja schön mit Multicore Prozessoren skalieren und da ist AMD weit vorne.
Nur ist es ein Unterschied, ob wir hier von einem Serverworkload, oder Renderingbenchmark sprechen; oder einem Spiel. Hier werden die Aufgaben nicht gleich verteilt, und schon gar nicht sind alle threads gleichberechtigt.
Hier spielt eine Skalierung wie man sie z.B in den bisherigen K10 Benches gesehen hat (spec) keine so große Rolle. Hier zählt immernoch die pure Kraft des einzelnen Kerns. So weit vorne sehe ich AMD also gar nicht in dieser Hinsicht.
Nein in diesen Test-Systemen hat das schon gepasst:
Zitat Anand:
Die haben aber nicht auf dem Asus, sondern einem Supermicro getestet, passte also nicht. http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3092&p=3
Alle anderen Seiten hatten einen ähnlichen Server mit Supermicro Board.
Wenn du für UT3 Crysis etc. eine neue CPU kaufen willst kommst du whol bis Anfang 2008 nicht um Intel herrum erst dann wird AMD auch bei 3GHZ sein.2007 wird whol 2.5Ghz das Max bei AMD sein.
Komm, bleib mal auf dem Teppich. Crysis wird im Rahmen bleiben und auch mit einem normalen X2 DualCore problemlos laufen, genau wie UT3. Alles andere wäre Selbstmord für den Entwickler. Das ist nur eines der Spiele, dass mehr Kerne in mehr FPS umwandeln kann, mehr nicht.
dildo4u
2007-09-11, 11:15:10
Sorry aber es gibt schon Monate Spiele die auf einem X2 mit 2.5Ghz unspielbar sind z.B Dirt und Lost Planet.Ich sehe kein Grund warum gerade Crysis besser laufen sollte.
mocad_tom
2007-09-11, 11:23:25
@BlackBirdSR
>Hier spielt eine Skalierung wie man sie z.B in den bisherigen K10 Benches
>gesehen hat (spec) keine so große Rolle. Hier zählt immernoch die pure
>Kraft des einzelnen Kerns. So weit vorne sehe ich AMD also gar nicht
>in dieser Hinsicht.
Gerade bei Spielen wird eine enge Koppelung der Kerne aber zu einer wichtigen Voraussetzung. Wenn man gewisse Sachen wie KI, Physik und Grafiktreiber-Aufgaben multithreaded verarbeiten möchte müssen schnelle Interconnects vorhanden sein. Und hier ist AMD ein guter Wurf gelungen. Außerdem profitieren der XBox360-Kern sowie der PS3-CPU-Kern ebenfalls stark von SIMD-Optimierungen. Die Entwickler werden also belohnt, wenn sie sich Gedanken machen wie manche Jobs in gewisse Raster gepresst werden können. Ich glaube die Zeit spielt hier eher für den Barcelona als für C2Q.
Grüße,
Tom
Sorry aber es gibt schon Monate Spiele die auf einem X2 mit 2.5Ghz unspielbar sind z.B Dirt und Lost Planet.Ich sehe kein Grund warum gerade Crysis besser laufen sollte.
@Multikonsolero
1. so ein schmarn. habe die dirt demo letzthin erst gespielt und die rennt wie ut04
2. hat er von 'nem X4 geredet und der wird locker für crysis reichen, da crysis alle cores nutzt ;)
dildo4u
2007-09-11, 11:49:47
@Multikonsolero
1. so ein schmarn. habe die dirt demo letzthin erst gespielt und die rennt wie ut04
Schon mal das Rennen mit den 8 Gegner probiert?Und wenn bei dir UT04 mit 20-30fps läuft dann mein Beileid.
Schon mal das Rennen mit den 8 Gegner probiert?Und wenn bei dir UT04 mit 20-30fps läuft dann mein Beileid.
red kein scheiß, bleib lieber bei deinen consolen ;)
dildo4u
2007-09-11, 11:53:11
Das war ne ernste Frage die Rennen mit den Buggys sind extrem CPU Lastig.
Das war ne ernste Frage die Rennen mit den Buggys sind extrem CPU Lastig.
ja und es lief 1A
dildo4u
2007-09-11, 11:59:07
Wundert mich wenn ein X2 3800 auf min 12 und avg 18 kommt können dann 500mhz mher die fps überhaupt auf 30fps im Schnitt bringen ich denke eher nicht.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5530650#post5530650
MadManniMan
2007-09-11, 12:12:02
Wundert mich wenn ein X2 3800 auf min 12 und avg 18 kommt können dann 500mhz mher die fps überhaupt auf 30fps im Schnitt bringen ich denke eher nicht.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5530650#post5530650
a) GPU-Settings auf Anschlag - wieviel FPS hat er mit konservativeren Einstellungen?
b) CPU-Grundumsatz - wenn meinethalben ein GHz prinzipiell verbraten wird und der Rest in spürbare FPS geht, dann können 500 MHz mehr auch nen größeren Unterschied ausmachen. Siehe Supreme Commander.
dildo4u
2007-09-11, 12:14:03
a) GPU-Settings auf Anschlag - wieviel FPS hat er mit konservativeren Einstellungen?
Die restlichen Ergebnisse im Thread mit C2D zeigen das es mit einer 8800GTS und der Einstellung bis ca 30-35fps CPU limitiert ist.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5529101&postcount=8
BlackBirdSR
2007-09-11, 12:56:23
@BlackBirdSR
>Hier spielt eine Skalierung wie man sie z.B in den bisherigen K10 Benches
>gesehen hat (spec) keine so große Rolle. Hier zählt immernoch die pure
>Kraft des einzelnen Kerns. So weit vorne sehe ich AMD also gar nicht
>in dieser Hinsicht.
Gerade bei Spielen wird eine enge Koppelung der Kerne aber zu einer wichtigen Voraussetzung. Wenn man gewisse Sachen wie KI, Physik und Grafiktreiber-Aufgaben multithreaded verarbeiten möchte müssen schnelle Interconnects vorhanden sein. Und hier ist AMD ein guter Wurf gelungen. Außerdem profitieren der XBox360-Kern sowie der PS3-CPU-Kern ebenfalls stark von SIMD-Optimierungen. Die Entwickler werden also belohnt, wenn sie sich Gedanken machen wie manche Jobs in gewisse Raster gepresst werden können. Ich glaube die Zeit spielt hier eher für den Barcelona als für C2Q.
Grüße,
Tom
das muss sich zeigen. Immerhin sprechen wir hier von einem Quad-Core System, und nicht einem Server/Rendering Workload, das sich gleich aufteilen lässt und mit 2 Sockeln un NUMA arbeitet.
Es ghet hier um Spiele mit 2+ Threads, von denen die Helfer-Threads, Physik und KI nur eine Teillast tragen. Am wichtigsten wird hier immernoch die Leistung der Kerne an sich sein.
Das zeigt sich schon jetzt in Lost Planet, Dirt, Supremecommander etc. Dort liegt der K8 auch weiter zurück, während er im Serverumfeld schon jetzt den Core2 schlagen kann.
Warum soll es beim K10 da so viel anders sein?
Ausserdem besteht zwischen den beiden Kernen eines Core2D ein sehr schneller interconnect. So langsam wie jeder gerne tut ist das auf für Quadcore bei weitem nicht.
MadManniMan
2007-09-11, 12:57:40
Die restlichen Ergebnisse im Thread mit C2D zeigen das es mit einer 8800GTS und der Einstellung bis ca 30-35fps CPU limitiert ist.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5529101&postcount=8
Es nützt ja nichts, sich über eine 5-Sekunden Szene zu unterhalten, wenn er vom normalen Rennverlauf spricht.
Einigt Euch, worum es geht ;)
xL|Sonic
2007-09-11, 12:59:02
Wega wieviel FPS hast du denn und voralem wie liegen die MinFPS? Oder schaust du gar nicht nach? Wäre ja nichts neues wenn hier wiedermal viele PC Spieler behaupten es würde alles flüssig laufen auf ihrem System und in Wirklichkeit erreichen sie nichtmal 30fps ;)
Ich hab zwar keine schnelle Grafikkarte, aber mein 2500Mhz X2 limitiert in aktuellen Spielen extrem böse, selbst wenn ich ihn auf 2,8Ghz hochschraube bringt das fast ga nichts. Ich kann spielend AA einschalten oder ausschalten ohne das mir großartig was an Frames wegbricht ;)
Zukünftige Spiele werden immer mehr davon profitieren, je mehr Kerne zur Verfügung stehen, dank der Xbox 360 und PS3. UT3, Crysis, Alan Wake werden erst der Anfang sein wo man spürbar einen Unterschied sehen wird zwischen Dual Core und Quad Core.
das muss sich zeigen. Immerhin sprechen wir hier von einem Quad-Core System, und nicht einem Server/Rendering Workload, das sich gleich aufteilen lässt und mit 2 Sockeln un NUMA arbeitet.
Es ghet hier um Spiele mit 2+ Threads, von denen die Helfer-Threads, Physik und KI nur eine Teillast tragen. Am wichtigsten wird hier immernoch die Leistung der Kerne an sich sein.
Das zeigt sich schon jetzt in Lost Planet, Dirt, Supremecommander etc. Dort liegt der K8 auch weiter zurück, während er im Serverumfeld schon jetzt den Core2 schlagen kann.
Warum soll es beim K10 da so viel anders sein?
Ausserdem besteht zwischen den beiden Kernen eines Core2D ein sehr schneller interconnect. So langsam wie jeder gerne tut ist das auf für Quadcore bei weitem nicht.
Bezweifle ich. Schau dir doch mal aktuelle Konsolenspiele an. Die Cores der PS3 oder Xbox 360 alleine sind jetzt auch nicht so der Bringer, aber durch gezielte Optimierung kann man aus diesen enorm viel Leistung herausquetschen, wenn alles schön parallelisiert wird und genauso kann das auch bei PC Spielen funktionieren.
BlackBirdSR
2007-09-11, 13:05:32
Bezweifle ich. Schau dir doch mal aktuelle Konsolenspiele an. Die Cores der PS3 oder Xbox 360 alleine sind jetzt auch nicht so der Bringer, aber durch gezielte Optimierung kann man aus diesen enorm viel Leistung herausquetschen, wenn alles schön parallelisiert wird und genauso kann das auch bei PC Spielen funktionieren.
Wir reden doch gar nicht darüber ;)
Es ging doch nur darum, ob der K10 durch sein native Quad-Core und seine gezielte Auslegung auf interne Datenkommunikation so viel mehr Leistung freisetzen kann, dass er bei Spielen den Core2D abhängen kann. Der K8 kann dies bei Spielen mit 2 Threads auf jedenfall nicht.
xL|Sonic
2007-09-11, 13:11:21
Ah ok dann habe ich dich missverstanden ;)
Hatte das so gelesen, dass im Vergleich es mehr bringt, wenn ein C2D höher getaktet ist als ein K10 pro Core (2Ghz vs. 3Ghz).
mocad_tom
2007-09-11, 13:31:48
@BlackBirdSR
Der Interconnect beim C2Q zwischen zwei Kernen auf dem gleichen Die ist dem Interconnect von AMD überlegen. Aber die beiden Dies, die sich miteinander unterhalten müssen bekommen Probleme, weil durch den gleichen Interconnect(FSB) auch der RAM und die I/O angesprochen werden muss.
Ich frage mich wieso es gestern !kein! 3dmark06-Ergebnis zu sehen gab. Ich hätte diesen kurzen Aufschrei im Blätterwald gerne bestätigt oder verworfen gesehen.
Evtl. lassen sich einige On-The-Fly-Optimierungen auf brachliegende Cores auslagern, die die Pipelines der Grafikkarten mit weniger Bubbles laufen lässt(ganz wild Spekuliert).
AMD und ATI sind mittlerweile für solche Spielchen lange genug verheiratet.
Grüße,
Tom
Migrator
2007-09-11, 13:36:39
Hab jetzt nicht den ganzen Fred gelesen und entschuldige mich falls das schon gepostet wurde: Wann kann man mit Tests von 3dcenter rechnen???
Habs grad mal probiert, die lost-planet Demo lässt sich auf Max-Details (AA+AF aus) auch problemlos und flüssig auf meinem 3800+ spielen :).
w0mbat
2007-09-11, 14:20:16
Ich spiele LP@max (außer Schatten & HDR) mit einem 2,8GHz SC A64 flüssig. So viel zu ein 2,5GHz X2 würde nicht ausreichen.
Was heißt "flüssig"?
Wie viele FPS?
BlackBirdSR
2007-09-11, 14:26:13
@BlackBirdSR
Der Interconnect beim C2Q zwischen zwei Kernen auf dem gleichen Die ist dem Interconnect von AMD überlegen. Aber die beiden Dies, die sich miteinander unterhalten müssen bekommen Probleme, weil durch den gleichen Interconnect(FSB) auch der RAM und die I/O angesprochen werden muss.
Kein Einspruch:
Den bekommst du aber dahingehend, dass der K10 dadurch so viel Leistung gut macht, dass er in Spielen die fehlende Leistung selbst aufholen könnte. Du musst dir nur mal Benchmarks von QuadCore Core2 ansehen, und wie viel die verlieren beim Skalieren. Das ist bei weitem nicht genug, als dass man viel Boden verliert. Und wenn die zusätzlichen Threads dann auch noch viel Zeit mit warten verbringen, fällt das plötzlich gar nicht mehr so ins Gewicht.
Mein Punkt ist nur: Der K10 macht das toll, stimmt. Aber der Core2 verliert nicht genug Leistung.
BlackBirdSR
2007-09-11, 14:27:25
Hab jetzt nicht den ganzen Fred gelesen und entschuldige mich falls das schon gepostet wurde: Wann kann man mit Tests von 3dcenter rechnen???
Wenn Phenom und Phenom FX verfügbar sind. Vorher macht es keinen Sinn, eine auf Server-Workloads konfigurierte CPU/System mit Spielen zu testen.
reunion
2007-09-11, 14:37:19
Der Interconnect beim C2Q zwischen zwei Kernen auf dem gleichen Die ist dem Interconnect von AMD überlegen.
Inwiefern? K10 hat nicht nur den shared L3-Cache, sondern auch eine Crossbar "vor" den Kernen. Und die nahezu perfekte Skalierung mit steigender Anzahl an CPU-Kernen zeigt, dass man hier nahe am Optimum liegt.
Ich spiele LP@max (außer Schatten & HDR) mit einem 2,8GHz SC A64 flüssig. So viel zu ein 2,5GHz X2 würde nicht ausreichen.
Schau mal hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=371657
Irgendwie auch sehr merkwürdig nicht wahr?
Besonders wenn man sich die Werte in diesem Thread hier anschaut, besonders in diesem Post:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5762789&postcount=463
BlackBirdSR
2007-09-11, 14:46:00
Inwiefern? K10 hat nicht nur den shared L3-Cache, sondern auch eine Crossbar "vor" den Kernen. Und die nahezu perfekte Skalierung mit steigender Anzahl an CPU-Kernen zeigt, dass man hier nahe am Optimum liegt.
Core2 hat zum einen den gemeinsamen L2-Cache, zum Anderen soll die Möglichkeit bestehen Daten zwischen dem L1-Cache auszutauschen.
Der K8/10 muss erst über den L1-Cache, dann L2 und anschließend über den Crossbar/SRQ um an Daten im L3-Cache, bzw den L2-Cache des anderen Kerns zu kommen.
Diese Überlegenheit hat Core2 aber auch gegen K8 noch keine großen Gewinne eingebracht.
Bei Intels momentanen QuadCore sieht die Sache schon anders aus. Hier hat AMD den Vorteil. Es fragt sich nur wieder, ob AMD dann so viel Performance gewinnt, wenn Intel kaum verliert.
w0mbat
2007-09-11, 14:55:46
@Ihm: Was hat Dirt mit LP zu tun?
@Gast: Natürlich ist flüssig nur subjektiv. Ich habe immer so um die 25-30fps, was für mich reicht. Natürlich gibt es hin un wieder Drops auch <25fps, aber das ist nur sehr selten und sehr kurz. Es ginge bestimmt noch flüssiger, aber da habe ich keine so großen Ansprüche.
dildo4u
2007-09-11, 15:03:43
@w0mbat die Demo bringt zum Performance Test eh nix die Bosse und Gegnermassen werden später im Spiel noch viel krasser.
w0mbat
2007-09-11, 15:07:13
@dildo4u: Ich habe das ganze Spiel gespielt und mich nicht auf die Demo bezogen.
Schlampig programmierte Software wie DIRT (und übrigens alle Colin-Teile!) als Maßstab sehen? Man könnte euch ein Crysis 2 mit hexacore-minimum andrehen und ihr würdet es getrost kaufen? Wo bleibt die Einsicht?
dildo4u
2007-09-11, 15:10:26
Dirt ist das mit Abstand bestaussehendste PC Rennspiel schlechter Trollversuch.
@Gast: Natürlich ist flüssig nur subjektiv. Ich habe immer so um die 25-30fps, was für mich reicht. Natürlich gibt es hin un wieder Drops auch <25fps, aber das ist nur sehr selten und sehr kurz. Es ginge bestimmt noch flüssiger, aber da habe ich keine so großen Ansprüche.
Na also, es ist nicht so flüssig, wie es mit mehr Power sein könnte :)
Average 25-30FPS und Drops auf <25FPS sind imho nicht wirklich flüssig ;)
w0mbat
2007-09-11, 15:14:30
Für mich ist es flüssig. Natürlich geht es besser und ich bin nicht sehr empfindlich wenn es um´s Ruckeln geht. Aber ich will damit sagen das nicht jeder 60fps braucht. Bei einem Ego-Shooter wäre es auch was anderes, aber die 3rd-Person Perspektive entschärft da auch vieles.
Dirt ist das mit Abstand bestaussehendste PC Rennspiel schlechter Trollversuch.
Man fragt sich dennoch, wo die ganze Leistung bleibt... ich glaub Colin ist die goldene Ausnahme, die die Regel bestätigt. Ich kenne sonst kein Game, dass derart CPU hungrig ist (und ich finde, so toll die CMRD auch nicht aus. Aber das ist Geschmackssache). Spiele werden allermeistens so optimiert, dass sie auf einem SC noch spielbar sind, also einem DualCore optimal laufen. Ein Entwickler, der sein Spiel nur auf High-End Rechnern spielbar macht, schiesst sich für gewöhnlich selber ins Knie. Goldene Ausnahmen gibts natürlich immer wieder, z.B. Ultima9 damals ;).
Na also, es ist nicht so flüssig, wie es mit mehr Power sein könnte :)
Average 25-30FPS und Drops auf <25FPS sind imho nicht wirklich flüssig ;)
Wenns mal so tief fallen würde. Unspielbar oder ruckelig ist es nie.
dildo4u
2007-09-11, 15:21:34
Dirt hat zusätzlich zur Optik auch eine sher geile Physik die mir besser gefällt als die Spaß Physik bei Flatout.
http://www.looki.de/video/colin_mcrae_dirt_crash_trailer_video_662.html
Einfach nur geil gemacht einzelne Steine in der Säule einzelne Reifen im Reifenstapel,Blechabgrenzungen verbiegen sich etc.
Dirt ist das mit Abstand bestaussehendste PC Rennspiel schlechter Trollversuch.
Das war kein Trollversuch, doch schön zu sehen wie leicht man verletzend werden kann wenn Leute meinen ihr subjektives Empfinden über alles stellen zu müssen. Das Dargebotene rechtfertigt die Anforderungen nicht.
xL|Sonic
2007-09-11, 17:00:29
Für mich ist es flüssig. Natürlich geht es besser und ich bin nicht sehr empfindlich wenn es um´s Ruckeln geht. Aber ich will damit sagen das nicht jeder 60fps braucht. Bei einem Ego-Shooter wäre es auch was anderes, aber die 3rd-Person Perspektive entschärft da auch vieles.
Für dich mag es flüssig sein, aber nicht für den gängigen Standard. Hier werden Behauptungen aufgestellt das die Spiele 1A flüssig laufen und am Ende kommt raus, dass das Spiel mit 25-30fps vor sich hin ruckelt. Das hat absolut nichts mit flüssig zu tun auf dem PC.
Für mich sind 25-30fps in einem PC Shooter unspielbar, weil da die Maus lagt etcpp.
Flüssig ist alles was so langsam ab >45fps aufwärts geht, alles andere darunter ruckelt auf dem PC z.T. sehr stark vor sich hin, nur weil Person X aber besonders unempfindlich gegen eine offensichtliche Diashow ist, ist das noch lange nicht flüssig im weitläufigen Sinn :)
Für die menschliche Wahrnehmung genügen ungefähr 15 Bilder pro Sekunde, um die Illusion von fließender Bewegung, Kontinuität, zu erzeugen, sofern sich die Einzelbilder nicht zu sehr voneinander unterscheiden.
Alles was >30 fps ist also komplett flüssig, solange es keine heftigen Einbrüche gibt.
Und nun BTT.
GegenGast
2007-09-11, 17:43:37
Für die menschliche Wahrnehmung genügen ungefähr 15 Bilder pro Sekunde, um die Illusion von fließender Bewegung, Kontinuität, zu erzeugen, sofern sich die Einzelbilder nicht zu sehr voneinander unterscheiden.
Alles was >30 fps ist also komplett flüssig, solange es keine heftigen Einbrüche gibt.
Das hatten wir schon oft und es ist falsch
Kannst du garantieren, das in einem Spiel die Frames alle 66ms kommen? (bei 15FPS)
Bei einem Rennspiel genügen tatsächlich 50FPS :)
Flüssig ist alles was so langsam ab >45fps aufwärts geht, alles andere darunter ruckelt auf dem PC z.T. sehr stark vor sich hin, nur weil Person X aber besonders unempfindlich gegen eine offensichtliche Diashow ist, ist das noch lange nicht flüssig im weitläufigen Sinn :)
Sorry, aber ich glaube da bist du eher die Ausnahme. Im weitläufigen Sinn sind bestimmt > 30 frame/sec flüssig. Hat ja nicht jeder übermenschliche Fähigkeiten.
Zum Thema:
Wenn die Leistung des Barcelonas nicht für ein Spiele ausreicht, ist es m.E. schlecht oder am Markt vorbei programmiert. Solche Spiele muss man nun wirklich nicht verteidigen.
xL|Sonic
2007-09-11, 18:00:44
Sorry, aber ich glaube da bist du eher die Ausnahme. Im weitläufigen Sinn sind bestimmt > 30 frame/sec flüssig. Hat ja nicht jeder übermenschliche Fähigkeiten.
Zum Thema:
Wenn die Leistung des Barcelonas nicht für ein Spiele ausreicht, ist es m.E. schlecht oder am Markt vorbei programmiert. Solche Spiele muss man nun wirklich nicht verteidigen.
Bezweifle ich, sonst würde ja auch keiner SLI Systeme etc. kaufen ;)
Aber es soll ja auch Leute geben, die nichtmal die ruckelnden Kameraschwenks in Filmen mitbekommen ;)
Wird der Phenom eigentlich irgendwelche Änderungen gegenüber dem Barcelona mit sich bringen? Geringere Latenzen beim Cache?
GegenGast
2007-09-11, 18:02:23
Sorry, aber ich glaube da bist du eher die Ausnahme. Im weitläufigen Sinn sind bestimmt > 30 frame/sec flüssig. Hat ja nicht jeder übermenschliche Fähigkeiten.
Ich sehe bei 75Hz auch Unterschiede zwischen 60 und 75FPS :smile:
Bei Filmen munkelt man 30FPS wären flüssig, aber zwischen einem Film und einem Spiel besteht ein kleiner Unterschied ;)
Die FPS Diskussion ist OT und müssig, da es auf viele Faktoren ankommt, ob jetzt das Bild als flüssig empfunden wird oder nicht.
SavageX
2007-09-11, 18:08:09
Sicher, dass ihr nicht ungefähr zwei Themen weiter nach links weggedriftet seid?
(Und ja, selbstverständlich müsste sich jedes aktuelle Spiel auf sowas "mittelmäßigem" wie einem flotteren K8 X2 spielen lassen, geschweige denn auf einem 2,5 GHz Phenom X4. Ansonsten ist anzunehmen, dass man gezwungen ist, die Spiele in "Kleinserie" aufzulegen)
Zum Barcelona: Der ist wohl tatsächlich als B2 Stepping erschienen und müsste - je nach dem, welchem Spatzen man vertraut - jetzt tatsächlich "schnell" ein paar Megahertz zulegen können. Übrigens bezeichnend, dass man Anandtech schon 2,5 GHz Geräte mitgegeben hat - selten gab es einen Produktlaunch, wo man die um immerhin 25% schnellere Variante (yay, handbeschriftet) schon mit rumgeschickt hat. Da waren jemandem bei AMD die 2 GHz Takt dann doch eher zu "peinlich", um dass unkommentiert so stehen zu lassen.
Heute bei der Launch Celebration hieß es, dass ein 2,5Ghz Opteron im Dezember folgen werde.
Dirt ist das mit Abstand bestaussehendste PC Rennspiel schlechter Trollversuch.
Was allerdings nichts mit der Technik am Hut hat. Ich habe auch schon mehrfach gesagt, dass Dirt unglaublich viel Prozessorleistung für das Dargestellt erfordert.
Ich vermute da wurde durch die Auslegung auf Multicore eher Leistung verbraten durch Synchronisierung usw.
AnarchX
2007-09-11, 18:53:48
Heute bei der Launch Celebration hieß es, dass ein 2,5Ghz Opteron im Dezember folgen werde.
Wohmöglich ein Hinweis, was uns bei den Phenoms erwarten wird, immerhin waren Opterons und Desktop-CPUs vom Takt bisher auf dem gleichen Niveau.
reunion
2007-09-11, 19:41:26
Wohmöglich ein Hinweis, was uns bei den Phenoms erwarten wird, immerhin waren Opterons und Desktop-CPUs vom Takt bisher auf dem gleichen Niveau.
Ja, jetzt zum Ende des K8 hin, wo die letzten Taktziele erreicht wurde; doch das war lange Zeit anders, zum Start taktete die Desktopversion höher. Der PhenomFX wird IMHO entweder mit 2.6Ghz oder 2.8Ghz takten, und wohl recht früh 2008 die 3Ghz nehmen. Immerhin zeigte AMD mit dem neuen Stepping jetzt schon mehrmals Samples mit 3Ghz und einfacher Boxed-Kühlung.
dildo4u
2007-09-11, 19:46:22
Den FX würde ich nicht mit 2.6Ghz bringen der könnte bei den Games die maximal 2 Cores nutzen gegen den X2 6400+ als Desktop High-Performance CPU sher arm aussehen.Ich geh bei dem Vergleich mal von 800€ für das PhenomFX Modell aus.
Ich schätz mal vor 2.8 oder 3Ghz wird AMD kein Phenom als FX bringen.
AnarchX
2007-09-11, 20:06:45
Der Phenom FX, der als erster kommen soll und auch in den AMD-Dokumenten genannt wird, wo man das Namenschema erklärt, ist der FX-80, der im Sommer noch mit 2.2-2.4GHz gehandelt wurde, welcher aber nachdem die Leistung bekannt ist, eher wenig angebracht wären.
Ich würde auch eher in die Richtung 2.6GHz tippen, AFAIK war 2.8GHz die Taktrate vor der Intel etwas Respekt hätte, laut Aussagen einiger höherer Intel-Mitarbeiter.;)
reunion
2007-09-11, 20:10:53
@dildo4u
Abwarten was Phenom dann letztlich leistet. Es macht wenig Sinn, ein auf Server-Workloads konfiguriertes CPU-System mit Spielen zu testen und daraus Rückschüsse auf den Desktopmark ziehen zu wollen.
laser114
2007-09-11, 21:34:42
Ich würde auch eher in die Richtung 2.6GHz tippen, AFAIK war 2.8GHz die Taktrate vor der Intel etwas Respekt hätte, laut Aussagen einiger höherer Intel-Mitarbeiter.;)
Genau deswegen würde ich die 2,8 GHz auch mitnehmen, zumindest für den Phenom FX werden sich doch Prozessoren finden lassen die die erreichen - werden ja wohl doch noch etwas kosten. Macht sich in den Benchmarks besser. ;)
Sorry aber es gibt schon Monate Spiele die auf einem X2 mit 2.5Ghz unspielbar sind z.B Dirt und Lost Planet.Ich sehe kein Grund warum gerade Crysis besser laufen sollte.
lost planet lief sehr sehr gut dx9 (x1900)
dirt wollte ich nie
crysis wird laufen
laser114
2007-09-11, 22:15:54
Colin lief bei mir mit einem X2 4600+ auch wunderbar, wenn auch nicht auf den Ultra-Einstellungen ... wobei letztere ja eh ein Super-Grafikkarten-Test sind. Wobei ich anscheinend schon mit relativ niedrigen FPS zufrieden bin, wie ich im Vergleich mal festgestellt habe. ;)
Aber bitte nicht maßlos übertreiben.
Meiner Meinung nach kommt der FX sofort mit 3GHz und ist selektiert.
Die normalen Phenoms kommen erstmal von 2,0-2,5GHz, höher sicherlich nicht.
mictasm
2007-09-12, 00:47:51
Ein angenommener FX mit 3GHz wäre preislich aber sicher nah an den 900-1000 Euro, oder?
Sonst wäre es ja kein FX ;)
Sorry aber es gibt schon Monate Spiele die auf einem X2 mit 2.5Ghz unspielbar sind z.B Dirt und Lost Planet.Ich sehe kein Grund warum gerade Crysis besser laufen sollte.
Weil die bei Crytek nicht so unglaublich unfähig sind. Und damit spiele ich vor allem auf Dirt an.
mictasm
2007-09-12, 01:17:25
Sonst wäre es ja kein FX ;)
Wäre aber doch etwas unbefriedigend, wenn der dann auf Intel-Basis von einem luftgekühlt übertakteten 250€ Prozessor überholt wird. Hoffentlich wird das nicht passieren.
Weil die bei Crytek nicht so unglaublich unfähig sind. Und damit spiele ich vor allem auf Dirt an.
Und LP reiht sich nahtlos in die ineffizient umgesetzten XBox360 Spiele ein (Stichwort Spiderman3).
dildo4u
2007-09-12, 01:40:07
Spiderman 3 war technisch auch ein Verbrechen.Dirt und LP haben wenigstens ein gute Optik zu bieten.
SKYNET
2007-09-12, 01:53:04
Wäre aber doch etwas unbefriedigend, wenn der dann auf Intel-Basis von einem luftgekühlt übertakteten 250€ Prozessor überholt wird. Hoffentlich wird das nicht passieren.
wie gut das die meisten seiten mit standard takt benchen, und somit ist das alles hinfällig! :P
Blutmaul
2007-09-12, 01:59:00
Ein angenommener FX mit 3GHz wäre preislich aber sicher nah an den 900-1000 Euro, oder?
Der kann nicht mehr kosten, als die Intel-Konkurrenz.
Ich hatte eigentlich gehofft hier INFORMATIONEN zu finden, aber die letzten Seiten sind ausschließlich Spekulationen & Müll. :mad:
Könnt ihr diesen Teil nicht im entsprechenden Forum diskutieren???
Juerg
2007-09-12, 07:57:45
Ich hatte eigentlich gehofft hier INFORMATIONEN zu finden, aber die letzten Seiten sind ausschließlich Spekulationen & Müll. :mad:Was fehlt Dir den an Information? Zu Weihnachten kannst Du Dir einen Phenom FX4 schenken. 2000 € das ganze System. Reicht das?
Henroldus
2007-09-12, 08:57:00
Der kann nicht mehr kosten, als die Intel-Konkurrenz.
3GHz kosten in der Quadversion bei Intel doch auch ca 870eur :|
Intel Core 2 Extreme QX6850 Sockel-775 boxed (http://geizhals.at/deutschland/a250698.html)
und der Phenom ist u.U. auch noch besser in der proMHz Leistung.
somit darf er auch genausoviel Kosten.
über den Vergleich hier weiter oben mit einem übertakteten Prozessor von Intel kann ich mal wieder nur den Kopf schütteln
Der Vergleich ist unsinnig.
Wenn der kommt, ist der 3.16-3.33 Penryn da, mit mehr Takt, Cache, Pro-MHz-Leistung. :)
Der Vergleich ist unsinnig.
Wenn der kommt, ist der 3.16-3.33 Penryn da, mit mehr Takt, Cache, Pro-MHz-Leistung. :)
Aber AMD Käufer haben mehr Charakter ;)
Avalox/Gast
2007-09-12, 12:05:57
Ein echt interessanter Blog Eintrag. Unbedingt ansehen.
http://scientiasblog.blogspot.com/2007/09/amds-k10-good-start.html
AnarchX
2007-09-12, 12:18:50
Ein echt interessanter Blog Eintrag. Unbedingt ansehen.
http://scientiasblog.blogspot.com/2007/09/amds-k10-good-start.html
Auch nur viele Mutmaßungen von jemanden von AMDZone...
Und die 5% kommen ja eher von einem Desktop-Performance-Preview @ Anandtech.
Im Server/Workstationumfeld könnte das wohl zu wenig sein, wenn Intel noch im Q4 auf FSB1600 geht und hier die anderen Penryn-Neuerungen zum Tragen kommen:
Finally, Intel mentioned that in the server space, the fastest quad core Penryn available (>3GHz) vs. a 2.67GHz quad core Xeon resulted in a greater than 45% increase in performance in "bandwidth and FP intensive applications"
http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=2955&p=2
fizzo
2007-09-12, 12:20:37
Ein echt interessanter Blog Eintrag. Unbedingt ansehen.
http://scientiasblog.blogspot.com/2007/09/amds-k10-good-start.html
Author: Scientia from AMDZone
sehr objektiv das ganze.... :ucoffee:
Avalox/Gast
2007-09-12, 12:29:41
Auch nur viele Mutmaßungen von jemanden von AMDZone...
Ja. Nur fragen wir uns doch grade, was der Hintergrund der Qimonda Aktienspekulation sein könnte. Das wäre zumindest eine Erklärung, weshalb sich AMD nach einem Speicherhersteller umsehen würde.
BlackBirdSR
2007-09-12, 12:35:14
Author: Scientia from AMDZone
sehr objektiv das ganze.... :ucoffee:
Da stecken meiner Meinung ein Haufen falscher und gefährlicher Annahmen.
Auch so Sachen wie die Aufgliederung der Designteams kann ich so gar nicht bestätigen und nachvollziehen. Gerade einer der Teamleiter des PPro-Teams beschreibt das alles ganz anders.
SSE5 wird hier zudem extrem! viel gewichtung beigemessen, fast schon als Marktentscheidendes Feature, das Intel gar nicht nutzen könnte, weil die CPU es nicht verträgt.
Und es wird wieder einmal die Server/Spec2006_rate Performance hergenommen, um die Gesamtperformance des K10 gegenüber dem Core2 zu bekräftigen. Sehr sehr gefährlich.
Aber es ist nur ein Blog...
reunion
2007-09-12, 12:45:48
Ein echt interessanter Blog Eintrag. Unbedingt ansehen.
http://scientiasblog.blogspot.com/2007/09/amds-k10-good-start.html
Das Problem an diesen Ansichten ist, dass er die Leistung nur anhand von Serverbenchs vergleicht. Da ist Barcelona zwar schneller als Clowertown, doch was viele vergessen: Da war auch schon ein K8 sehr schnell. Die Cinebench/SuperPi-Ergebnisse und auch die Tests von AnandTech lassen mich nicht unbedingt so positiv stimmen. 15% mehr Leistung im Schnitt ist bei weitem zu wenig um den Rückstand im Vergleich zu einem Core2 aufzuholen. Dazu noch die zumindest zu beginn zu erwartende, niedrigere Taktfrequenz, und dann ist ja da auch noch Penryn.
BlackBirdSR
2007-09-12, 12:49:30
Die haben aber nicht auf dem Asus, sondern einem Supermicro getestet, passte also nicht. http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3092&p=3
Alle anderen Seiten hatten einen ähnlichen Server mit Supermicro Board.
Nachtrag:
hese are standard Socket-1207 servers, meaning they don't take advantage of the split power-planes of Barcelona. Newer motherboards (such as the one Johan used in his tests) will support split power-planes, allowing Barcelona to run its North Bridge at a higher clock frequency, thus improving memory performance. Note that our desktop benchmarks were run under Windows Vista Ultimate (32-bit). Update: AMD has confirmed that these motherboards are Socket-1207+ and thus support split power-planes. We apologize for the error.
AnarchX
2007-09-12, 13:16:30
Schon der erste Bug:
Barcelona DR-BA/DR-B2 DIV bug.
A DIV Instruction Followed Closely By Other Divide Instructions May Yield Incorrect Results Description A DIV instruction with a divisor less than 64 that is followed in close proximity by a DIV, IDIV, or AAM instruction may produce incorrect results.
Potential Effect on System
Possible data corruption.
Suggested Workaround
Contact your AMD representative for information on a BIOS update.
Fix Planned
Yes
http://www.amd.com/us-en/assets/content_type/white_papers_and_tech_docs/41322.pdf
BlackBirdSR
2007-09-12, 13:25:37
Schon der erste Bug:
Barcelona DR-BA/DR-B2 FDIV bug.
http://www.amd.com/us-en/assets/content_type/white_papers_and_tech_docs/41322.pdf
Danke an die Erfinder des programmierbaren Microcodes :)
Ich denke das ist ein Problem, welches wir bis zum Phenom nicht mehr haben werden.
Ich hatte eigentlich gehofft hier INFORMATIONEN zu finden, aber die letzten Seiten sind ausschließlich Spekulationen & Müll. :mad:
Könnt ihr diesen Teil nicht im entsprechenden Forum diskutieren???
ihm fehlen benches zu gleichgetaktetetn xeons oder core2 würd ich sagen
euer gelaber (bla intel ist bla) will keiner hören hier gehts um amd und wie gut sie im vergleich zu intel sind
www.planet3dnow.de
wird man sehr viel schneller fündig als in diesem
"amd ist müll" thread
AnarchX
2007-09-12, 13:57:15
http://img413.imageshack.us/img413/4910/amdbarcelonaddr301rq3.gif
http://xtreview.com/images/31116.pdf -> Seite 60
Also doch schon ein DDR3-Controller in allen K10-CPUs, der mangels AM3/G3-Board aber noch nicht genutzt werden kann? :|
Nakai
2007-09-12, 14:00:04
In der CPU wäre das sehr möglich, denn da hätte man eine bessere Flexibilität in der Zukunft.
mfg Nakai
Schon der erste Bug:
Barcelona DR-BA/DR-B2 FDIV bug.
Wie kommst du auf FDIV? Es ist DIV.
SavageX
2007-09-12, 14:18:12
Danke an die Erfinder des programmierbaren Microcodes :)
Ich denke das ist ein Problem, welches wir bis zum Phenom nicht mehr haben werden.
Heise ist wohl der Meinung, dass dieses Problem schon gar nicht mehr da ist:
http://www.heise.de/newsticker/meldung/95867
Vor allem ein Fehler in der Gleitkomma-Einheit des Steppings BA (Erratum Nr. 244, "A DIV Instruction Followed Closely By Other Divide Instructions May Yield Incorrect Results") dürfte ein Grund dafür sein, dass erst das jüngere Stepping B2 zur Auslieferung kommen konnte.
Desti
2007-09-12, 14:19:41
http://img413.imageshack.us/img413/4910/amdbarcelonaddr301rq3.gif
http://xtreview.com/images/31116.pdf -> Seite 60
Also doch schon ein DDR3-Controller in allen K10-CPUs, der mangels AM3/G3-Board aber noch nicht genutzt werden kann? :|
Erst später:
#
• Support for DDR2/DDR3 DIMMs in product variations.
# 2.8 DRAM Controllers (DCTs)
The DCTs support DDR2 DIMMs or DDR3 DIMMs. Products may be configurable between DDR2 and DDR3 operation.
AnarchX
2007-09-12, 14:20:15
Wie kommst du auf FDIV? Es ist DIV.
War nur übernommen von wo ich es gefunden hatte, sollte wohl eine Anspielung auf den bekannten FDIV-Bug sein.:D Aber natürlich hast du recht, es ist nur DIV.
btw.
AMD Promises 2.5GHz Quad-Core Microprocessors in December.
AMD Plans Clock-Speed Increase, AMD Phenom Introduction in December (http://www.xbitlabs.com/news/cpu/display/20070911220754.html)
“AMD today shows the path to better performing design for demanding data center requirements, again. In fact, here is a proof to you of our 2.50GHz [quad-core] processor that is going to be available in December and what it is going to deliver to the market. […] This chart shows incremental performance that is going to be delivered on top of that existing [2.0GHz] product: you can see 15% performance benefit, 15% performance increase that will be delivered [by] our 2.50GHz product,” said Randy Allen.
War nur übernommen von wo ich es gefunden hatte, sollte wohl eine Anspielung auf den bekannten FDIV-Bug sein.:D Aber natürlich hast du recht, es ist nur DIV.
Was heißt "nur DIV". Das ist viel schlimmer. Aber offenbar nicht häufig und per Microcode fixbar. Nur wird darunter mit Sicherheit die Performance leiden. Naja sollte mit dem nächsten Stepping eh beseitigt sein.
Heise ist wohl der Meinung, dass dieses Problem schon gar nicht mehr da ist:
http://www.heise.de/newsticker/meldung/95867
Omg. Selbst die bei Heise reden von Gleitkommaeinheit. Da hat's auch nur noch Trottel :|
StefanV
2007-09-12, 14:28:20
http://img413.imageshack.us/img413/4910/amdbarcelonaddr301rq3.gif
http://xtreview.com/images/31116.pdf -> Seite 60
Also doch schon ein DDR3-Controller in allen K10-CPUs, der mangels AM3/G3-Board aber noch nicht genutzt werden kann? :|
Davon konnte man eigentlich ausgehen, soo groß ist der Unterschied von DDR-II zu DDR-III RAM auch wieder nicht...
Die Frage ist doch, ob der DDR-III Controller schon funktioniert und ob DDR-III SDRAM auch wirklich Vorteile bringt...
BlackBirdSR
2007-09-12, 14:33:22
Was heißt "nur DIV". Das ist viel schlimmer. Aber offenbar nicht häufig und per Microcode fixbar. Nur wird darunter mit Sicherheit die Performance leiden. Naja sollte mit dem nächsten Stepping eh beseitigt sein.
Omg. Selbst die bei Heise reden von Gleitkommaeinheit. Da hat's auch nur noch Trottel :|
Ich denke das liegt daran, dass die meisten Leute (Redakteur inklusive) von DIV immernur dann was gehört haben, wenn der FDIV-Bug zur Rede kam. Und weil man es nicht anders kennt, muss es ja so sein ;)
Nur noch eine sehr gute Skalierung mit RAM könnte AMD wohl noch den Hals retten. Auf die Tests mit DDR2 1066 CL4 und ggf. DDR3 bin ich schon gespannt.
Hallo,
ich suche dieses Phenom Logo (http://www.fudzilla.com/index.php?option=com_content&task=view&id=2925&Itemid=35) ohne, dass da Fudzilla draufsteht und etwas größer, als die Mini Bildchen oben am Artikel.
Meinte, ich hätte das auch schon mal irgendwo auch in high res gesehen ... kanns aber über google und sufu nicht finden ....
Danke
CompuJoe
2007-09-12, 17:07:54
Das?
http://www.hardtecs4u.com/images/news/amd_phenom_opteron_logo.jpg
Einzeln
http://www.noticias3d.com/imagenes/noticias/200708/phenom2dq5.jpg
http://www.istartedsomething.com/wp-content/uploads/2007/06/phenom.jpg
http://www.istartedsomething.com/wp-content/uploads/2007/06/phenom_l.jpg Das oben in groß
danke für die antwort, aber die kenn ich natürlich. Ich mein genau das phenom Logo, was bei Fudzilla abgebildet ist.
Das von Fudzilla ist wesentlich aktueller.
CompuJoe
2007-09-12, 17:26:50
http://farm2.static.flickr.com/1204/1365461066_4e2534aece_o.png
Das?
Müsste doch eigentlich auch noch solche Logos mit Athlon und Turion geben, für Rana und Griffin :). Ich finds auf jeden Fall besser, wenn man im Logo das X2 / X4 weglässt.
http://farm2.static.flickr.com/1204/1365461066_4e2534aece_o.png
Das?
Danke, das meinte ich!
Interessant dürfte noch die Tatsache sein, das DDR3-Support schon vorgesehen ist!
Der integrierte Speichercontroller der vorgestern offiziell von AMD eingeführten Vierkern-Opterons mit neuer K10-Architektur ist bereits für DDR3-SDRAM ausgelegt, wie der BIOS and Kernel Developer's Guide For AMD Family 10h Processors (PDF-Dokument) in der ersten öffentlichen Version 3.00 belegt.
Laut dem erwähnten AMD-Entwicklerleitfaden sind die K10-Speichercontroller für DDR2-SDRAM auf Registered DIMMs (RDIMMs) mit bis zu 400 MHz Taktfrequenz (DDR2-800/PC2-6400R) ausgelegt; ungepufferte Speichermodule für Desktop-PC-Versionen der Prozessoren (Phenom) können – wie erwartet – mit bis zu 533 MHz (DDR2-1066/PC2-8500U) laufen. Dann sind aber höchstens zwei Single- oder Dual-Rank-DIMMs pro CPU zulässig (ein DIMM pro Speicherkanal) und die Ansteuerung der Chips muss mit 2T Command Rate erfolgen. Letzteres ist auch bei DDR2-800/PC2-6400U nötig, dann sind aber zwei DIMMs pro Kanal (vier Speicherriegel pro CPU) zulässig.
DDR3-SDRAM ist nur auf ungepufferten Speichermodulen vorgesehen, die maximale Taktfrequenz liegt bei 667 MHz (DDR3-1333/PC3-10600U). Bei voller Belastung der beiden Speicherkanäle mit zwei Dual-Rank-(DR-)UDIMMs muss wiederum die Latenzzeit auf 2T Command Rate steigen – 1T-Timing sieht der Entwicklerleitfaden bei 667 MHz nur bei einem PC3-10600-UDIMM pro Kanal vor.
http://www.heise.de/newsticker/meldung/95867
So wie es ausschaut, wird aber auch hier zukünftig 2T Anwendung finden.
Power
2007-09-13, 08:10:01
Aber AMD Käufer haben mehr Charakter ;)
LOL
wann gibts denn endlich mal neue benchmarks mit games usw ?
ist viel zu rughi für ne neue cpu generation....
BlackBirdSR
2007-09-13, 13:09:48
wann gibts denn endlich mal neue benchmarks mit games usw ?
ist viel zu rughi für ne neue cpu generation....
Es geht ja auch nur um Barcelona/Opteron. Dr hat mit Spielen und Desktop nichts zu tun. Benchmarks gibts also erst zu Phenom wieder.
dildo4u
2007-09-13, 13:12:49
wann gibts denn endlich mal neue benchmarks mit games usw ?
ist viel zu rughi für ne neue cpu generation....
http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3092
MadManniMan
2007-09-13, 13:23:51
http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3092
Der Test ist doch aber schon 3 Tage bekannt.
dildo4u
2007-09-13, 13:26:46
Sicher aber vieleicht hat der Gast den übersehen.Da wurden ja Games mit getestet und es wurde ein vorläufiges Desktop Fazit gezogen.Mher kann man zur Zeit whol nich verlangen.
stickedy
2007-09-13, 13:33:11
Wieso? Es ist doch kein Problem eine verünftige PCI-Express Graka in einen Server zu bauen, einen Prozessor aus dem Dual-System rauszubauen und dann entsprechende Tests zu machen. Und ich bin mir relativ sicher, dass wir demnächst auch solche Tests sehen werden. Ob es sinnvoll ist, ist ne andere Sache, aber zumindest ein Eindruck lässt sich gewinnen.
Das Problem an der Sache ist aber wohl, dass AMD natürlich dafür keine Testsysteme rausgibt und die Testsysteme an sich nur sehr rar sind. Selbst heise hatte ja das Testgerät nur für 4 Tage...
Das dürfte sich aber ändern sobald erste Hersteller entsprechende Server wirklich ausliefern. Die Frage ist halt dann, ob das noch vor dem Phenom FX Launch passieren wird.
Ronny145
2007-09-13, 13:46:42
Es geht ja auch nur um Barcelona/Opteron. Dr hat mit Spielen und Desktop nichts zu tun. Benchmarks gibts also erst zu Phenom wieder.
Die c't liefert in der nächsten Ausgabe noch Barcelona Benchmarks nach. Mal sehen was dort getestet wird.
Wieso? Es ist doch kein Problem eine verünftige PCI-Express Graka in einen Server zu bauen, einen Prozessor aus dem Dual-System rauszubauen und dann entsprechende Tests zu machen. Und ich bin mir relativ sicher, dass wir demnächst auch solche Tests sehen werden. Ob es sinnvoll ist, ist ne andere Sache, aber zumindest ein Eindruck lässt sich gewinnen.
Kein Problem? Eindruck? Was willst Du damit? Es wurde doch schon oft genug erklärt, dass man damit eben keinen richtigen Eindruck gewinnen würde, weil der RAM ein falscher ist.
AMD hat kein Interesse an so einem Testkonstukt. Wirklich aussagekräftige Tests werden wir vor AM2+ Launch wohl kaum erwarten können.
Aber AMD Käufer haben mehr Charakter ;)
Definitiv. :D
Irgendwie habe ich bei den ganzen Steppings die Übersicht verloren: Die Testsamples hatten das B1-Stepping, das nicht so gut sein soll. Auf die Welt werden aber Opterons mit dem BA-Stepping losgelassen, dem mindestens eine um 5 % bessere Performance nachgesagt wird. Dann kommt das B2-Stepping (das eine Sample mit 2,5 GHz hatte Anandtech), was dem Phenom sehr nah kommen soll (Phenoms werden das B2-Stepping zum Start haben). Und dann nächstes Jahr (Q1) gibt's das B3-Stepping; die Phenom-Käufer werden zum größten Teil dieses Stepping in ihren Rechnern haben.
http://www.dailytech.com/Stumbling+in+the+Aisles+Barcelona+Thoughts/article8804.htm
stickedy
2007-09-13, 14:44:54
Kein Problem? Eindruck? Was willst Du damit? Es wurde doch schon oft genug erklärt, dass man damit eben keinen richtigen Eindruck gewinnen würde, weil der RAM ein falscher ist.
Das weiss ich selbst... Allerdings kann der Phenom ja nur schneller sein, nicht langsamer. D.h. man kann recht leicht einen Eindruck davon gewinnen, welche Performance von einem K10 in Spielen zu erwarten ist.
Eine seriöse Website wie XBitLabs oder Anandtech wird das nicht machen, aber irgendne kleinere Website evtl. schon. Aber dazu muss es halt was kaufbares geben, den AMD wird - aus obigem Grund - da nicht mitspielen.
Gast2
2007-09-13, 15:22:37
Das weiss ich selbst... Allerdings kann der Phenom ja nur schneller sein, nicht langsamer. D.h. man kann recht leicht einen Eindruck davon gewinnen, welche Performance von einem K10 in Spielen zu erwarten ist.
Hör doch bitte auf diese Geschichten (sind Unwahr) zu verbreiten!
Du liegst damit falsch, weil:
- Skalierung im Serverbereich besser ist
- Intel schlechter skaliert (VORALLEM dort)
- RAM bei BEIDEN im Desktop besser ist
... ergo, der Phenom, sollte er mit gleichem Takt wie in den Server-Tests gegen gleichgetaktete Intels antreten, einen SCHWEREREN STAND haben wird, da Intel dort NICHT das Skalierungsproblem hat und ganz besonders vom WEGFALL des FB-DIMMs profitiert. Also NIX Vorteil! Genau das gegenteil ist der Fall. Schau dir mal den K8 an. Der konnte im Multi-Sockel punkten, im Desktop war er gnadenlos verloren.
Wo wir gerade schonmal dabei sind: Diese Gesamtverbrauchsmessungen im Servermarkt, sind nicht auf den Desktop übertragbar!!
Wenn das AMD System sagen wir mal 20 Watt weniger frisst, so läge Intel da theoretisch noch vorne, weil der FB DIMM sich als wahrer Stromfresser beweist (bei x verbauten Modulen, wie im Server üblich ist) und dieser Nachteiler im Desktop nunmal nicht existent ist!
MadManniMan
2007-09-13, 15:28:45
Jetzt kommen wir aber wieder zu dem Punkt, daß der K10 nen integrierten Speichercontroller hat - damit also schnellerem Speicher größeren Mehrwehrt holt.
Das Alles läßt doch nur einen Schlß zu: abwarten und saufen!
Wo wir gerade schonmal dabei sind: Diese Gesamtverbrauchsmessungen im Servermarkt, sind nicht auf den Desktop übertragbar!!
Wenn das AMD System sagen wir mal 20 Watt weniger frisst, so läge Intel da theoretisch noch vorne, weil der FB DIMM sich als wahrer Stromfresser beweist (bei x verbauten Modulen, wie im Server üblich ist) und dieser Nachteil im Desktop nunmal nicht existent ist!
Aber bleiben wir zunächst im Servermarkt: Intel wird alsbald einen günstigen Chipsatz mit DDR2-Unterstützung auf den Markt bringen, womit die stromhungrigen FB-DIMMs rausfliegen. Damit wäre auch der Vorteil der Opterons zunichte.
Aber (es gibt immer ein Aber): Die Performance wird darunter leiden. Und wie.
Und da kann der Opteron mit besserer Performance-per-Watt-Rechung auftrumpfen.
Jetzt kommen wir aber wieder zu dem Punkt, daß der K10 nen integrierten Speichercontroller hat - damit also schnellerem Speicher größeren Mehrwehrt holt.
Dieser Mehrwert ist nicht ansatzweise mit der Skalierung in Multi-CPU Systemen zu vergleichen, wo es dann auch mal gerne 20+ % und mehr sind, mit steigender Anzahl an CPUs.
(dort konnte selbst der K8 Opteron schon einen Intel Core2 schlagen, obwohl im Desktop deutlich zurücklag)!!!
Abgesehen davon, gilt dies auch (ganz besonders) für Intel. 667er FB DIMM ist nicht ansatzweise so schnell wie ungepufferter DDR2-800+
Jetzt kommen wir aber wieder zu dem Punkt, daß der K10 nen integrierten Speichercontroller hat - damit also schnellerem Speicher größeren Mehrwert holt.
Das Alles läßt doch nur einen Schlß zu: abwarten und saufen!
Das Problem ist, dass viele immernoch übersehen, dass dieser Thread dem Opteron gewidmet ist und nicht dem Phenom.
Gibt es eigentlich schnelleren Speicher für den Opteron als DDR2-667 Reg?
Aber (es gibt immer ein Aber): Die Performance wird darunter leiden. Und wie.
Inwiefern soll die Performance leiden? Aus Performancesicht ist normaler DDR2 meilenweit vor FB DIMM.
MadManniMan
2007-09-13, 15:34:20
Abgesehen davon, gilt dies auch (ganz besonders) für Intel. 667er FB DIMM ist nicht ansatzweise so schnell wie ungepufferter DDR2-800+
Gibts dazu nen Artikel? Ich würde mich gern belesen!
Inwiefern soll die Performance leiden? Aus Performancesicht ist normaler DDR2 meilenweit vor FB DIMM.
Vielleicht ist das gemeint:
http://www.heise.de/newsticker/meldung/95680
"Zudem plant Intel mit San Clemente einen Chipsatz, der ebenfalls mit den sparsameren DDR2-RDIMMs auskommt, aber wegen seiner lediglich zwei (statt vier) Speicherkanäle wohl weniger leistungsstark sein wird."
Vielleicht ist das gemeint:
http://www.heise.de/newsticker/meldung/95680
"Zudem plant Intel mit San Clemente einen Chipsatz, der ebenfalls mit den sparsameren DDR2-RDIMMs auskommt, aber wegen seiner lediglich zwei (statt vier) Speicherkanäle wohl weniger leistungsstark sein wird."
Argh, das sieht ja fast nach Persönlichkeitsspaltung, "vielleicht" bitte streichen.
stickedy
2007-09-13, 15:41:41
Hör doch bitte auf diese Geschichten (sind Unwahr) zu verbreiten!
Du liegst damit falsch, weil:
- Skalierung im Serverbereich besser ist
- Intel schlechter skaliert (VORALLEM dort)
- RAM bei BEIDEN im Desktop besser ist
... ergo, der Phenom, sollte er mit gleichem Takt wie in den Server-Tests gegen gleichgetaktete Intels antreten, einen SCHWEREREN STAND haben wird, da Intel dort NICHT das Skalierungsproblem hat und ganz besonders vom WEGFALL des FB-DIMMs profitiert. Also NIX Vorteil! Genau das gegenteil ist der Fall. Schau dir mal den K8 an. Der konnte im Multi-Sockel punkten, im Desktop war er gnadenlos verloren.
Halloho?! Hast du meinen Beitrag gelesen? Ist da drin auch nur ansatzweise das Wort "Intel" oder "Core 2" gefallen? Mir ging es auschließlich um den Vergleich Opteron <--> Phenom X4 / FX
Was auch immer du da rein interpretiert hast, DAS war nicht meine Aussage!
dildo4u
2007-09-13, 15:47:15
Computerbase schreibt aber was ganz anderes zur den neuen Intel Xeons da soll die Plattform eher verbessert werden.Denk mal das Andere ist eher als Option gedacht für billigere Modelle.
"Während sich vier Prozessoren (Potomac, Paxville oder Tulsa) mit dem E8500-Chipsatz (Codename Twin Castle) auf der 2006er Plattform Truland insgesamt zwei Frontside-Bus-Verbindungen mit FSB800 teilen mussten, bietet Clarksboro vier FSB1066 schnelle Verbindungen. Die kummulierte Bus-Bandbreite verdreifacht sich dadurch auf 34 GB. Das Quad-Channel-DDR2-400-Speicherinterface ist in der neuen Plattform für 2007 vier FB-DIMM-Channels mit FB-DIMM 667 gewichen. Dies steigert die Bandbreite und verdoppelt die maximale Speicherkapazität auf 256 GB. Ein 64 MB großer, im Chipsatz integrierter Snoop-Filter-Cache soll die Cache-Kohärenz beschleunigen und Konfliktsituationen am Frontside-Bus verringern. Auch Intel I/O Acceleration Technology 2 mit QuickData Technology sind an Bord."
http://www.computerbase.de/news/hardware/prozessoren/intel/2007/september/intel_quad-core-xeon_7300_7200/
Mir ging es auschlißelich um den Vergleich Opteron <--> Phenom X4 / FX
Was soll dieser (nicht mögliche) Vergleich denn bringen? Was hat ein Opteron mit einer Desktop CPU zu tun? Und warum sollte die Performance unterschiedlich sein? Die CPU Performance ist absolut identisch, du sprichst von *RAM Performance*, das ist ein Unterschied. Er kann also nicht wie von dir progagiert, nur besser sein, sondern höchstens gleichgut. Schließlich reden wir hier von einer CPU und die ist immer gleich schnell. Jedoch kann es durch Engpässe zu Leistungsverlusten (aber auch Gewinnen) kommen, die jedoch nicht der CPU zuzuschreiben sind.
Davon abgesehen, weißt du überhaupt nicht, welche Speicherstandards in Zukunft Anwendung finden, die Entwicklung bleibt auch bei Servern nicht stehen.
Computerbase schreibt aber was ganz anderes zur den neuen Intel Xeons da soll die Plattform eher verbessert werden.Denk mal das Andere ist eher als Option gedacht für billigere Modelle.
"Während sich vier Prozessoren (Potomac, Paxville oder Tulsa) mit dem E8500-Chipsatz (Codename Twin Castle) auf der 2006er Plattform Truland insgesamt zwei Frontside-Bus-Verbindungen mit FSB800 teilen mussten, bietet Clarksboro vier FSB1066 schnelle Verbindungen. Die kummulierte Bus-Bandbreite verdreifacht sich dadurch auf 34 GB. Das Quad-Channel-DDR2-400-Speicherinterface ist in der neuen Plattform für 2007 vier FB-DIMM-Channels mit FB-DIMM 667 gewichen. Dies steigert die Bandbreite und verdoppelt die maximale Speicherkapazität auf 256 GB. Ein 64 MB großer, im Chipsatz integrierter Snoop-Filter-Cache soll die Cache-Kohärenz beschleunigen und Konfliktsituationen am Frontside-Bus verringern. Auch Intel I/O Acceleration Technology 2 mit QuickData Technology sind an Bord."
http://www.computerbase.de/news/hardware/prozessoren/intel/2007/september/intel_quad-core-xeon_7300_7200/
Irgendwie kann ich dir nicht folgen: Auf welche Beiträge gehst du jetzt ein?
Definitiv. :D
Irgendwie habe ich bei den ganzen Steppings die Übersicht verloren: Die Testsamples hatten das B1-Stepping, das nicht so gut sein soll. Auf die Welt werden aber Opterons mit dem BA-Stepping losgelassen, dem mindestens eine um 5 % bessere Performance nachgesagt wird. Dann kommt das B2-Stepping (das eine Sample mit 2,5 GHz hatte Anandtech), was dem Phenom sehr nah kommen soll (Phenoms werden das B2-Stepping zum Start haben). Und dann nächstes Jahr (Q1) gibt's das B3-Stepping; die Phenom-Käufer werden zum größten Teil dieses Stepping in ihren Rechnern haben.
http://www.dailytech.com/Stumbling+in+the+Aisles+Barcelona+Thoughts/article8804.htm
Dass es ein B3 Stepping gibt, glaube ich nicht. Eher gibts eine neue Rev.
dildo4u
2007-09-13, 16:05:00
Irgendwie kann ich dir nicht folgen: Auf welche Beiträge gehst du jetzt ein?
Aber bleiben wir zunächst im Servermarkt: Intel wird alsbald einen günstigen Chipsatz mit DDR2-Unterstützung auf den Markt bringen, womit die stromhungrigen FB-DIMMs rausfliegen. Damit wäre auch der Vorteil der Opterons zunichte.
Aber (es gibt immer ein Aber): Die Performance wird darunter leiden. Und wie.
Und da kann der Opteron mit besserer Performance-per-Watt-Rechung auftrumpfen.
..
stickedy
2007-09-13, 16:06:40
Was soll dieser (nicht mögliche) Vergleich denn bringen? Was hat ein Opteron mit einer Desktop CPU zu tun? Und warum sollte die Performance unterschiedlich sein? Die CPU Performance ist absolut identisch, du sprichst von *RAM Performance*, das ist ein Unterschied. Er kann also nicht wie von dir progagiert, nur besser sein, sondern höchstens gleichgut. Schließlich reden wir hier von einer CPU und die ist immer gleich schnell. Jedoch kann es durch Engpässe zu Leistungsverlusten (aber auch Gewinnen) kommen, die jedoch nicht der CPU zuzuschreiben sind.
Davon abgesehen, weißt du überhaupt nicht, welche Speicherstandards in Zukunft Anwendung finden, die Entwicklung bleibt auch bei Servern nicht stehen.
Was soll dieses wirre Gefassel?
Mein Beitrag hat nichts weiter zum Inhalt, als das von der Performance eines K10-Opterons auf die Performance eines Phenom FX/X4 geschlossen werden kann. Natürlich nicht abschließend und vollständig, da es ja einige Unterschiede zwischen Server- und Desktop-Plattform gibt - vor allem im Bereich des Speichers - aber trotzdem kann man mit entsprechenden Test die Performance eines Phenom FX/X4 in Spielen abschätzen. Und wie gesagt, wenn dann ist der Phenom höchstens schneller als der Opteron, da ja die Speicheranbindung schneller ist.
Und was hat das mit der Zukunft zu tun? In den nächsten drei Monaten wird es weder im Server- noch im Desktop-Bereich irgendwelche überraschend und unvorhersehbaren Umwälzungen geben.
Edit: Das ich nicht die Geschwindigkeit der Ausführungseinheiten der CPU meine, sollte ja wohl aus dem Kontext ersichtlich sein. Mir geht es um die Gesamtperformance des Systems... Mein Gott, selbsttätig denken schadet nicht!
deekey777
2007-09-13, 16:18:17
..
CB:
"Das Quad-Channel-DDR2-400-Speicherinterface ist in der neuen Plattform für 2007 vier FB-DIMM-Channels mit FB-DIMM 667 gewichen."
Und jetzt liest du ganz genau und in Ruhe, was von heise zitiert wurde:
Der Vergleich der elektrischen Leistungsaufnahme ist nur mit Einschränkungen möglich, weil die Testsysteme mit unterschiedlichen Netzteilen und Komponenten bestückt waren; zudem funktionierte PowerNow! beim AMD-System nicht. Unter Volllast jedenfalls schluckte das Opteron-2350-Tandem mit acht 2-GByte-RDIMMs 376 Watt, das Xeon-X5365-System mit 12 FB-DIMMs brachte es auf 466 Watt – pro FB-DIMM rechnet man mit 4 bis 6 Watt mehr Leistungsaufnahme, sodass die Differenz von 90 Watt ungefähr zur Hälfte zu Lasten des Speichers geht. Bezogen auf den Gleitkommadurchsatz liegt die Energieeffizienz der neuen Opteron-Tandems in diesem Vergleich jedenfalls deutlich höher als jene der Xeons; würde man hingegen Stromsparversionen der Xeons sowie weniger FB-DIMMs einsetzen und die Energieffizienz im Ganzzahldurchsatz vergleichen, könnte das Rennen anders ausgehen. Zudem plant Intel mit San Clemente einen Chipsatz, der ebenfalls mit den sparsameren DDR2-RDIMMs auskommt, aber wegen seiner lediglich zwei (statt vier) Speicherkanäle wohl weniger leistungsstark sein wird.
Die Xeon-Plattform leidet bei der Energie-Leistung-Rechnung unter FB-DIMMs, da diese pro Riegel deutlich mehr Saft schlucken als DDR2-RDIMMs. AMD weist bei den PR-Unterlagen genau auf diesen Mißstand hin. Intel wird einen DDR2-Chipsatz für Server bringen, womit die Leistungsaufnahme sinken wird, aber dieser Chipsatz wird nur zwei Speicherkanäle haben.
dildo4u
2007-09-13, 17:18:08
Computerbase schreibt aber was ganz anderes zur den neuen Intel Xeons da soll die Plattform eher verbessert werden.Denk mal das Andere ist eher als Option gedacht für billigere Modelle.
Es ging darum das der Gast es so formuliert hatte als wenn Intel in Zukunft nur diese langsamere Plattform im Angebot hat.Es ist aber nur eine Alternative und nicht der generelle Weg.
Aber bleiben wir zunächst im Servermarkt: Intel wird alsbald einen günstigen Chipsatz mit DDR2-Unterstützung auf den Markt bringen, womit die stromhungrigen FB-DIMMs rausfliegen. Damit wäre auch der Vorteil der Opterons zunichte.
Aber (es gibt immer ein Aber): Die Performance wird darunter leiden. Und wie.
Und da kann der Opteron mit besserer Performance-per-Watt-Rechung auftrumpfen.
Was soll dieses wirre Gefassel?
Mein Beitrag hat nichts weiter zum Inhalt, als das von der Performance eines K10-Opterons auf die Performance eines Phenom FX/X4 geschlossen werden kann. Natürlich nicht abschließend und vollständig, da es ja einige Unterschiede zwischen Server- und Desktop-Plattform gibt - vor allem im Bereich des Speichers - aber trotzdem kann man mit entsprechenden Test die Performance eines Phenom FX/X4 in Spielen abschätzen. Und wie gesagt, wenn dann ist der Phenom höchstens schneller als der Opteron, da ja die Speicheranbindung schneller ist.[...]
Das ist denke ich so einfach nicht. Es gibt einige Punkte, die einen Einfluss auf die Performance haben können. Es ist ja nicht nur der Speicher, auch Board und BIOS sind wichtig. Auch PCIe spielt eine Rolle. Zudem weiss man nicht, ob der Phenom schon eine Rev. weiter sein wird - niemand macht diesen Vergleich eben aus diesen Gründen. Es wäre nicht zwingend repräsentativ. Es ist wahrscheinlich auch ganz gut so, dass wir die K10 Performance erst auf einem AM2+ System zu sehen bekommen.
stickedy
2007-09-13, 18:16:22
Das ist denke ich so einfach nicht. Es gibt einige Punkte, die einen Einfluss auf die Performance haben können. Es ist ja nicht nur der Speicher, auch Board und BIOS sind wichtig. Auch PCIe spielt eine Rolle. Zudem weiss man nicht, ob der Phenom schon eine Rev. weiter sein wird - niemand macht diesen Vergleich eben aus diesen Gründen. Es wäre nicht zwingend repräsentativ. Es ist wahrscheinlich auch ganz gut so, dass wir die K10 Performance erst auf einem AM2+ System zu sehen bekommen.Deswegen schrieb ich ja, dass der Phenom nur schneller sein kann. D.h. Performance Phenom = Opteron + X. Das es kein absolutes Ergebnis sein kann, schrieb ich ja bereits, ändert aber dennoch nichts daran, dass so eine Enschätzung möglich ist.
Und interessant wäre es definitiv, zumindest für Leute, die sich zumindest etwas mit Materie auskennen. Das dies natürlich bei entsprechend schlechten Werten - auch wenn das nur vielleicht in bestimmten Szenarien der Fall wäre - für Aufsehen sorgen könnte bzw. wird, ist natürlich klar, weil eben viele die Verhältnisse nicht einschätzen können. Und deswegen hat AMD da ja auch kein Interesse dran. Aber verhindern können sie es letzlich nicht.
Man könnte ja den Vergleich auch noch ergänzen in dem man einen K8-Opteron gegen einen Athlon 64 vergleicht und dann die Unterschiede umrechnet auf den K10-Opteron <--> Phenom. Das sollte zumindest in Teilbereichen einigermaßen klappen. Wie gesagt, exakte Voraussagen sind nicht möglich, aber eben eine Schätzung, ein Trend.
BlackBirdSR
2007-09-13, 18:27:56
Man könnte ja den Vergleich auch noch ergänzen in dem man einen K8-Opteron gegen einen Athlon 64 vergleicht und dann die Unterschiede umrechnet auf den K10-Opteron <--> Phenom. Das sollte zumindest in Teilbereichen einigermaßen klappen. Wie gesagt, exakte Voraussagen sind nicht möglich, aber eben eine Schätzung, ein Trend.
Im Endeffekt bekommst du dann eine sehr grobe Schätzung. Da sich aber jedes Programm anders verhält, wird das gleich wieder zu nichte gemacht. Der K10 kann auf verschiedenste Situationen ganz anders reagieren als K8/Core2. Es ist sehr schwer vorherzusagen, wie die Performance in Programmgruppe XY ca. sein könnte. Selbst mit Vergleichen zwischen Opteron/Athlon64 X2.
Wenn du mich fragen würdest, wie die Performance bei Supreme-Commander, Dirt oder Quake-Wars gegenüber einem K8 oder Core2 sein könnte, würde ich laut schreiend davon laufen und mich in Sicherheit bringen. Sorry
robbitop
2007-09-13, 18:49:05
Fehlt dem Barcelona hinsichtlich der IPC zum Phenom nicht hauptsaechlich einfach der hoehere Speichertakt? Wieviel mag DDR800 bringen? Vieleicht 5%?
Viel IPC kommt IMO nicht mehr dazu. Natuerlich wird die Endleistung sicher noch durch den Takt gesteigert.
Fehlt dem Barcelona hinsichtlich der IPC zum Phenom nicht hauptsaechlich einfach der hoehere Speichertakt? Wieviel mag DDR800 bringen? Vieleicht 5%?
Viel IPC kommt IMO nicht mehr dazu. Natuerlich wird die Endleistung sicher noch durch den Takt gesteigert.
Lies dir bitte ein paar Beiträge unmittelbar vor deinem durch ;).
StefanV
2007-09-13, 18:55:15
DDR-II 1066 und das ganze ungepuffert, also da sind durchaus noch ein paar Prozente drin...
AnarchX
2007-09-13, 18:55:41
Natuerlich wird die Endleistung sicher noch durch den Takt gesteigert.
Fragt sich nur ob die Taktskalierung beim K10 mit der beim Core2 mithalten kann, die von AMD schon verkündeten 15% Mehrleistung beim 2.5GHz Barcelona gegenüber dem aktuellen 2GHz Barcelona wirken doch etwas niedrig. :|
robbitop
2007-09-13, 19:03:48
Lies dir bitte ein paar Beiträge unmittelbar vor deinem durch ;).
Habe ich. Ich gehe davon aus, dass der PEG nicht gross Einfluss hat und auch das Stepping sollte final sein. Ob der Div-Bug so wichtig ist, bezweifle ich. Bleibt nur noch der Ram Takt.
Ist DDR1066 denn schon JEDEC Approved oder ist das nur so ein overclocker Dings?
dildo4u
2007-09-13, 19:05:25
DDR-II 1066 und das ganze ungepuffert, also da sind durchaus noch ein paar Prozente drin...
Und bei Intel mit DDR3 1333 sicher auch.
http://www.jedec.org/download/search/JESD79-3.pdf
Hält sich in Grenzen: http://www.computerbase.de/artikel/hardware/arbeitsspeicher/2007/test_ddr3_ddr2_vergleich/4/
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.