PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Erste Spec-Hausnummern und neue Details zum Toledo


CrazyIvan
2004-10-06, 09:26:15
http://www.heise.de/newsticker/meldung/51845

Im Grunde wie erwartet. 600-1000Mhz weniger als die Single-Core Varianten und ca. 95W Verlustleistung.

CrazyIvan
2004-10-06, 10:16:16
Als kleine Dreingabe noch ein schönes Bildchen:
http://www.amdzone.com/pics/cpus/dualcore/1stdemo/opt13090dualcore.jpg

reunion
2004-10-06, 10:27:09
http://www.heise.de/newsticker/meldung/51845

Im Grunde wie erwartet. 600-1000Mhz weniger als die Single-Core Varianten und ca. 95W Verlustleistung.

Hört sich schonmal vielversprechend an, 2Cores, 205Mio Transitoren, 90nm SOI, nur 95W max. verlustleistung, SSE3...

http://www.heise.de/bilder/51845/0/0

CrazyIvan
2004-10-06, 10:53:43
Die Skalierung des Graphen verfälscht natürlich ungemein. Wenn man jetzt die Werte in pro Core Werte ummünzt, dann sieht der DualCore gegenüber dem 2-Prozessor-System doch recht erbärmlich aus. Hätte gerne mal einen DualCore im Vergleich zu nem 2-Prozessor-System bei gleicher Taktrate gesehen.

JFZ
2004-10-06, 12:22:34
Die Skalierung des Graphen verfälscht natürlich ungemein. Wenn man jetzt die Werte in pro Core Werte ummünzt, dann sieht der DualCore gegenüber dem 2-Prozessor-System doch recht erbärmlich aus. Hätte gerne mal einen DualCore im Vergleich zu nem 2-Prozessor-System bei gleicher Taktrate gesehen.


Naja, so erbärmlich doch auch nicht. Beim (N-3) sind es ja ca. 50% mehr Leistung bei 25% weniger takt als beim SingleCore...
Und da es bei mehr Prozessoren(Kerne) immer extra Overhead gibt, ist das eigentlich ein ganz nettes Ergebnis. DualCore bringt also ca. 70% mehr Leistung, was gar nicht so schlecht ist.

Gast
2004-10-06, 12:30:49
205 Mio Transistoren?

Hat der Toledo 2MB (2x1MB) L2 Cache?

So wie ich das verstanden habe, ist der Takt niedriger um noch im S940 TDP jedenfalls so ungefähr noch reinzufallen.

Coda
2004-10-06, 12:39:45
Hat der Toledo 2MB (2x1MB) L2 Cache?Ja.

saaya
2004-10-06, 16:14:08
also mit 205 mille hat der dann nur 1mb L2 cache denk ich mal, oder?

und gruen war 1.8ghz dual core und rot war 1.4ghz dual core, korrekt?

und spinn ich oder werden alle gpus und cpus immer groesser? :0
wo soll das denn enden? :eek:

icemanemp
2004-10-06, 16:23:42
Kommt drauf an was du unter grösser verstehst... Fläche oder integrierte Transistoren...

Es wird doch so oder so darauf hinauslaufen, das wir in einer Architektur enden die dem menschlichen Gehirn sehr ähnelt. Also Milliarden einfach CPU, die extrem Parallel arbeiten... (so hat es wenigstens unser DKO Lehrer gesagt, der Neuroinformatiker war)

zeckensack
2004-10-06, 16:48:53
saaya,
1MiB SRAM sind "nur" 48 Millionen Transistoren (6 Transistoren pro Bit). 2MiB würden also schon noch passen.

Und natürlich ist ein Dual-Core größer als ein Single-Core. Der 90nm DC Opteron sieht aber für mein Empfinden ungefähr gleich groß aus wie der 130nm SC Opteron.

Und bitte dran denken dass die K8-Packages etwas kleiner sind als die K7-Packages. Dadurch wirkt der Die im Verhältnis gewaltiger als er eigentlich ist.

duckofdeath
2004-10-06, 19:35:10
das sieht ja mal nicht schlecht aus! hoffentlich ist der speichercontroller bei allen jetz erscheinenden cores besser hinsichtlich mehr speichermodulen...

Avalox
2004-10-06, 21:20:08
Warum?

Die CPU kommt in den Sockel940. Dieser hat nie Probleme mit Speicherriegeln gehabt. Was soll sich da verbessern?

duckofdeath
2004-10-06, 21:25:25
sorry sprach generell von den dual cores! hab mich blöde ausgedrückt

zeckensack
2004-10-06, 21:41:35
sorry sprach generell von den dual cores! hab mich blöde ausgedrücktWenn du vier PC3200-Riegel stabil betreiben willst, brauchst du Dual Channel. Beim K8 heisst das momentan Sockel 939 (oder 940).

Oder habe ich was verpasst, und es gibt zB i875-Boards mit mehr als vier Speicher-Slots?

StefanV
2004-10-06, 21:45:54
Oder habe ich was verpasst, und es gibt zB i875-Boards mit mehr als vier Speicher-Slots?
1. (http://www.giga-byte.com/MotherBoard/Products/Products_GA-8IK1100.htm), 2. (http://www.giga-byte.com/MotherBoard/Products/Products_GA-8I875.htm#), 3. (http://www.giga-byte.com/MotherBoard/Products/Products_GA-8KNXP.htm)...

zeckensack
2004-10-06, 21:55:21
1. (http://www.giga-byte.com/MotherBoard/Products/Products_GA-8IK1100.htm)5. If six DDR memory modules are installed: To activate the Dual Channel Technology and
to make the size of each DDR memory module detected, please use six DDR memory
modules with identical size and type and insert them into the six DIMMs following the
sequence below:
DIMM 1: Double or Single Side
DIMM 2: Single Side
DIMM 3: Single Side
DIMM 4: Double or Single Side (if DIMM1 is inserted a double-side module, then DIIMM4
must also be inserted a double-side one.)
DIMM 5: Single Side
DIMM 6: Single Side
Quelle (http://www.giga-byte.com/Motherboard/Support/Manual/Manual_GA-8IK1100.htm)
Tolle Wurst.

Avalox
2004-10-06, 23:33:42
Naja, so erbärmlich doch auch nicht. Beim (N-3) sind es ja ca. 50% mehr Leistung bei 25% weniger takt als beim SingleCore...
Und da es bei mehr Prozessoren(Kerne) immer extra Overhead gibt, ist das eigentlich ein ganz nettes Ergebnis. DualCore bringt also ca. 70% mehr Leistung, was gar nicht so schlecht ist.

70% Mehrleistung von was?

Der Toledo mit 2 x 1,8Ghz knautscht nach Hr. Stiller so sehr an den Sockel 940 (und damit auch an die nur ganz leicht höheren Sokel 939) Spezifikationen, dass der Toledo ganz nett als Upgrade für Super Computer Bauer ist.
Zuhause wird aber niemand einen 2,8GHz (Oder gar höher) Athlon64 FX irgendwas aus den Rechner schubsen um diesen gegen einen 2 x 1,8 GHz Irgendwas zu tauschen.
Soviel zur DualCore komp. des jetzigen Sockel 939.

Gast
2004-10-07, 00:38:24
Dual-Core bringt nichts. Schon überhaupt nicht für Spiele. Da macht euch man frei von.

Und bis dann die entsprechende Software richtig verfügbar ist, haben wir mindestens 2007.

Sphinx
2004-10-07, 00:57:38
Dual-Core bringt nichts. Schon überhaupt nicht für Spiele. Da macht euch man frei von.

Und bis dann die entsprechende Software richtig verfügbar ist, haben wir mindestens 2007.

Na wer redet hier über Multi-Prozessor Systeme ? sondern über DUAL-Core Prozessoren...

Oder muste mann einer SLI Grafikkarte wie der V5.5500 auch Spezielle -> Routinen schreiben... ? Damit beide Chips zusammenarbeiteten...

saaya
2004-10-07, 03:24:50
Na wer redet hier über Multi-Prozessor Systeme ? sondern über DUAL-Core Prozessoren...

Oder muste mann einer SLI Grafikkarte wie der V5.5500 auch Spezielle -> Routinen schreiben... ? Damit beide Chips zusammenarbeiteten...

ja, und das macht nvidia :D


und zu groesse, ich meinte physikalische groesse. ich weiss dass das package nur 40x40mm gross ist, aber ich hab hier ne ziemliche sammlung von cpus der letzen 10 jahre und wenn ich mir die ankucke wurde die physikalisch die groesse erst immer kleiner, bis bei intel mit dem P4 und bei amd mit dem barton die dies wieder anfingen zu wachsen, und die high end chips sind doch riesig wenn man sie mit einem pentium 3 oder athlonxp die vergleicht!

und dass mit dem cache versteh ich nicht. der dual core opteron hat also genausoviele transistoren wie ein single core opteron? das will nicht in meinen kopf rein, wie denn das? aus zwei mach eins mit der performence von zweien? dass hoert sich doch eher anch zwei halebn cpus eher in richtung HT fuer mich an.

BlackBirdSR
2004-10-07, 08:58:21
Na wer redet hier über Multi-Prozessor Systeme ? sondern über DUAL-Core Prozessoren...

Oder muste mann einer SLI Grafikkarte wie der V5.5500 auch Spezielle -> Routinen schreiben... ? Damit beide Chips zusammenarbeiteten...

Da besteht erstmal kein großer Unterschied.

DualCore arbeiten an sich wie Multiprozessorsysteme.
Ohne passendes OS und Software bringts nichts

StefanV
2004-10-07, 11:43:42
Quelle (http://www.giga-byte.com/Motherboard/Support/Manual/Manual_GA-8IK1100.htm)
Tolle Wurst.
Jop, weil der i875 AFAIK nur 8 Rows ansteuern kann, was 4 DS Modulen oder aber 2 DS + 4 SS Modulen entspricht...

PS: der A64 kann AFAIK mehr/genausoviel, nur halt nicht unbuffered, ähnlich dem AMD-760...

StefanV
2004-10-07, 11:52:41
Na wer redet hier über Multi-Prozessor Systeme ? sondern über DUAL-Core Prozessoren...
Das macht keinen Unterschied...

Oder muste mann einer SLI Grafikkarte wie der V5.5500 auch Spezielle -> Routinen schreiben... ? Damit beide Chips zusammenarbeiteten...
Das ist nicht zu vergleichen, da 3D Anweisungen leichter parallelisierbar sind als x86 Code...

Siehe aktuelle Chips -> bis zu 16 Pipelines
Bei aktuellen x86 CPUs findest aber höchstens 6 und dann auch noch getrennt in FPU und ALUs und auch keine 'vollwertigen' sondern spezialisierte...

Gast
2004-10-07, 12:19:58
Der Opteron kann doch mit 6 Riegeln umgehen. Es gibt doch so nette Dual und Quad Boards, welche nur so vor Speicherslots strotzen. Das MSI K8D Master 3-FA4R, AMD 8131/8111 hat als Dual Board schon 12 Speicherslots.

Tja. Das sind halt die Vorteile des Rag Rams.

StefanV
2004-10-07, 13:26:40
So schauts aus...

Als Enduser braucht man aber auch nicht wirklich drauf hoffen, das sich Reg RAM durchsetzt...

Dabei ist REG ECC RAM nur etwa 20€uronen bei 'nem 512MB Riegel teurer...

Sicher, die latenz ist geringer, nur dafür sind sie u.U. auch besser übertaktbar ;)

justanick
2004-10-07, 16:37:17
ja, und das macht nvidia :D


und zu groesse, ich meinte physikalische groesse. ich weiss dass das package nur 40x40mm gross ist, aber ich hab hier ne ziemliche sammlung von cpus der letzen 10 jahre und wenn ich mir die ankucke wurde die physikalisch die groesse erst immer kleiner, bis bei intel mit dem P4 und bei amd mit dem barton die dies wieder anfingen zu wachsen, und die high end chips sind doch riesig wenn man sie mit einem pentium 3 oder athlonxp die vergleicht!

und dass mit dem cache versteh ich nicht. der dual core opteron hat also genausoviele transistoren wie ein single core opteron? das will nicht in meinen kopf rein, wie denn das? aus zwei mach eins mit der performence von zweien? dass hoert sich doch eher anch zwei halebn cpus eher in richtung HT fuer mich an.Der Dual Core Opteron hat ~205Millionen Transistoren, ein Single Core nur etwa 106Millionen. Allerdings wird der Dual Core in 90nm gefertigt, während die bisherigen Single Core Opterons in 130nm gefertigt wurden. Dadurch wird die Die kleiner, theoretisch um den Faktor 9²/13², allerdings liegt wird dieser Faktor nicht ganz erreicht, wodurch die Die statt 50% eben 45% oder ?55%? kleiner wird.

Coda
2004-10-07, 17:07:15
Es gibt ja OpenMP (implementiert in .NET 2005) also wird das mit der Software nicht das große Problem sein, must nur paar #pragmas vor und hinter die Schleife setzen im besten Fall und der Compiler erledigt den Rest.

mrdigital
2004-10-07, 22:47:11
Dual-Core bringt nichts. Schon überhaupt nicht für Spiele. Da macht euch man frei von.

Und bis dann die entsprechende Software richtig verfügbar ist, haben wir mindestens 2007.
Na du hast ja Infos :|
Einfach mal ein XP Pro oder W2k3 Server oder ein Linux installieren und schon bringt mir die Dualcore CPU was. Das Spiele nicht im Fokus stehen ist dabei klar, AMD baut diese CPU auch nicht um Gamer zu versorgen. Wenn ich aber ne Grafik WS habe und einen Renderjob oder einen Server betreibe oder auch einen Videoschnittrechner habe, dann freue ich mich über eine Mehrprozessormaschine. Und diese Software gibts heute schon, nicht erst 2007...

Tigerchen
2004-10-08, 15:15:08
Dual-Core bringt nichts. Schon überhaupt nicht für Spiele. Da macht euch man frei von.

Und bis dann die entsprechende Software richtig verfügbar ist, haben wir mindestens 2007.

Das ist erst mal vollkommen richtig. Da DualCore aber von AMD + INTEL gemeinsam vorangetrieben wird kannst du davon ausgehen daß sich dies auch langfristig durchsetzt. Daher wird meine übernächste CPU wohl einen DualCore haben.

Lilebror
2004-10-12, 10:14:28
Laut einem Artikel in einer alten ct bastelt und experimentiert jeder CPU Hersteller darauf hiin mehrere Kerne in eine CPU zu vereinen, man siehe SUN, IBM, VIA, Intelund schießlich AMD es wird also irgendwo seinen sin haben mehrere Kerne auf einer CPU zu vereinen, wenn die Hardware erstmal da ist wird die Software nicht lange auf scih warten lassen.
Außerdem von wegen Spiele profitieren nich von HT oder Dualcore Prozis.
Laut einem Artikel in der Aktuellen Pc Games Hardware, wird schon die neue Unreal Engine 3 von HT sowie Dualcore Prozis EXTREM profitieren :rolleyes: ! !
Irgendwie wird sich also ein Weg gefunden haben mit dem man selbst Teile von Spielen paralelisiert berechnen kann ! ! ;D

Pitchfork
2004-10-12, 10:44:20
Naja, da die nächsten Konsolen also Multicore/Multichiplösungen sind, werden alle neuen Engines und viele Crossplatformspiele vom Dual Core profitieren....
Allerdings: bis das bei Endkunden ankommt wird schon noch Weihnachten 2006 draus...

CrazyIvan
2004-10-12, 10:45:35
@ Lilebror

Irgendwo ist das alles eine Sache des Kosten/Nutzen Verhältnisses. Wie Du richtig anmerktest ist es bei manchen Anwendungen eben nicht ganz einfach, diese parallel auf mehreren Cores laufen zu lassen. Eine Taktsteigerung bringt bei jeder erdenklichen Anwendung eine Performancesteigerung. Eine Erhöhung der Anzahl der Cores ist diesbezüglich weit weniger flexibel. Allerdings steigen sie Kosten für eine Taktsteigerung mittlerweile überproportional an. Somit wird der "Grenznutzen" immer teurer erkauft. Die Kosten für einen weiteren Core sind aus Sicht der Produzenten auf lange Sicht pro Performancegewinn einfach geringer, als eine ständig fortgesetzte Taktsteigerung.

Wie in jedem anderen Bereich auch, setzen sich solche Methoden erstmal dort durch, wo sie am meisten bringen. Das ist nunmal der Servermarkt mit seiner Vielzahl von gut parallelisierbaren Anwendungen. intel und AMD sind in der Hinsicht Vorreiter, als dass sie als erste versuchen, diese Funktionalität auch in den Markt der Heimanwender zu bringen. Ich klammere hierbei bewusst Apple aus, da sich nur die wenigsten Anwender einen Dual G3/G4/G5 kaufen, ohne bewusst aus dessen Architektur Vorteile ziehen zu wollen. Bei Desktops werden sich Multi-Cores über kurz oder lang durchsetzen, egal ob man persönlich einen braucht oder nicht.

Gast
2004-10-12, 12:35:10
so wie es auch hier im news bereich interpretiert wurde, kommen die jetzt ganz schnell. Fast noch Ende 2004 wenn man die sich verdichteten Anzeichen richtig deutet. Ok, wir Konsumenten werde real greifbar bis Mitte next Year nicht wirklich was in die Haende bekommen, aber zwei Jahre ist zu lange, glaube ich nicht.

Was ich nur schade finde :

Das wars dann erstmal mit wirklich mehr Leistung !

Stand ist doch :

-reine schnellere CPUs auf Taktbasis wirds erstmal nicht geben, weil technisch schwierig.
-Dualcore CPUs werden einen halbierten Takt haben, oder vielleicht 60-75% von einer Singelcore CPU. Wie ja schon in den News erwaehnt : 30% Mehrleistung bei einem Dualcore System...und das ist VIIIEL weniger, wie ich erwartet habe, ich hab mit 75% gerechnet :/

Und da dualcore Anwendungen erstmal nicht vom Himmel fallen, werden viele Spiele und Programme erstmal nur einen Core benuzten und damit weit hinter einen singelcore CPU fallen.

Supersache :(

Damit gehts dann die naechsten Jahre im kleinen Prozentbereich weiter mit der Geschwindigkeitssteigerung, seit wielange ? 2 Jahren ? haengen wir jetzt bei 3.x ghz...

und es wird noch Jahre dauern bis dualcores real schneller werden. Und nicht nur in irgendwelchen spezial sonder spec tests ... Scheisse. Sorry... aber ich hatte mich drauf gefreut ni 1-2 Jahren einen PC zu kaufen der effektiv doppelt so schnell ist wie mein jetziger A64 3200+... aber so wie es jetzt laeuft, ist der wohl noch 4 Jahre aktuell...

Lilebror
2004-10-12, 13:02:36
Also da werden AMD und intel sich wohl noch waseinfallen lassen damit das nicht so ist sonst verdienen die doch nichs !
Sie werden die sachen erstmal auf dem server markt testen bevor sie die teile raus bringen und ich bin davon überzeugt bis die die erste Desktop Dualcore CPU
Raus kommt wird sie schnelle genug sein selbst deinen Athlon 64 3200 in den Schatten zu stellen sei es mit oder ohne taktsteigerung, wer weis was AMD oder Intel noch alle im Kasten hat, man vergesse nicht 64 bit ! das soll ja schließlich auch noch kommen !

Gast
2004-10-12, 13:09:29
in den Schatten stellen,

davon erhoffe ich mir aber mal eine glatte Verdopplung der Leistung.

Ich will nicht wie seit Jahren! immer nur einstellige Prozentuale Verbesserungen :(

Und eigentlich hatte ich mir das von den ersten Dualcore CPUs erhofft.

BlackBirdSR
2004-10-12, 13:36:38
wenn jemand die Namensfindung für Hyperthreading, oder die Argumentation über (nicht)Nutzen sucht: ->Spielwiese bitte.

HellHorse
2004-10-12, 14:29:35
Außerdem von wegen Spiele profitieren nich von HT oder Dualcore Prozis.
Laut einem Artikel in der Aktuellen Pc Games Hardware, wird schon die neue Unreal Engine 3 von HT sowie Dualcore Prozis EXTREM profitieren :rolleyes: ! !
Die ersten Versionen von Q3A profitierten auch extrem von SMP. Und wie sahs dann mit allen anderen Q3-Engine Games aus? Eben!

StefanV
2004-10-12, 14:34:14
Die ersten Versionen von Q3A profitierten auch extrem von SMP. Und wie sahs dann mit allen anderen Q3-Engine Games aus? Eben!
Richtig, aber nicht von HTT, so wies ausschaut :|

zu Zeiten von Q3 waren auch die Dual Mendochino Systeme in Mode, deswegen hat sich wohl ID mal dran versucht.

Ist aber leider das einzige Spiel, das SMP Unterstützung hat und bei dem das was bringt...

Lilebror
2004-10-12, 15:10:34
Ja also da haben wir schon 2 spiele die von profitieren !
und es werden weitere folgen ichr glaubt doch wohl nich das AMD un intel die Dinger raus bringen wenn es keinen Performance zuwachs gibt egal in welchen Spielen (egal ob die HT-T oder gar dualcore bzw dual Prozessor systeme unterstützen) da würden die sich doch nur ins eigene Fleisch schneiden !
Die Blösse werden sie sich wohl kaum geben !
Und was man ja schließlich nicht bei dieser geschichte ausser acht lassen sollte ist ja die Spieleleistung/Watt die sich ja extrem verbessern soll was ja schonmal ne gute Grundlage ist um nicht nochmerh Strom zu verbrauchen.

Weniger strom gleich weniger Unterhaltungskosten.
;D
Die Zukunft wird zeigen ob sich diese Entwicklung lohnt ,ich bin gespannt auf erste Tests mit den entsprechenden Cpu's mir ist es aussedem auch recht wenn ein jetztiges spiel etwas langsamer laufen würde wenn dafür die Spiele in der Zunkunft um so besser laufen.(hoffe auf Unreal Engine 3) oder Quake und ähnliches.

Man muss ja auch mal so sehen eine Höhere Taktrate führt automatisch zu einem höheren Strom fluss wenn man davon ausgeht das sie jetzt nicht von 130nm auf 90nm umrüsten ! Siehe Intel jede Taktfrequenz steigerung bei denen verursacht immer wieder neue Rekorde im Stromverbrauch (test von Thomshardware Guide eine Intel cpu auf 5 gig übertaktet entspricht dan einer Verlustleistung von 160 WATT/Quadratcentimeter) , so kann das doch nich weiter gehen, mal abgesehen davon was da für eine Kühlung fällig wird ! !

Crazytype
2004-10-13, 03:27:04
so wie es auch hier im news bereich interpretiert wurde, kommen die jetzt ganz schnell. Fast noch Ende 2004 wenn man die sich verdichteten Anzeichen richtig deutet. Ok, wir Konsumenten werde real greifbar bis Mitte next Year nicht wirklich was in die Haende bekommen, aber zwei Jahre ist zu lange, glaube ich nicht.

Was ich nur schade finde :

Das wars dann erstmal mit wirklich mehr Leistung !

Stand ist doch :

-reine schnellere CPUs auf Taktbasis wirds erstmal nicht geben, weil technisch schwierig.
-Dualcore CPUs werden einen halbierten Takt haben, oder vielleicht 60-75% von einer Singelcore CPU. Wie ja schon in den News erwaehnt : 30% Mehrleistung bei einem Dualcore System...und das ist VIIIEL weniger, wie ich erwartet habe, ich hab mit 75% gerechnet :/

Und da dualcore Anwendungen erstmal nicht vom Himmel fallen, werden viele Spiele und Programme erstmal nur einen Core benuzten und damit weit hinter einen singelcore CPU fallen.

Supersache :(

Damit gehts dann die naechsten Jahre im kleinen Prozentbereich weiter mit der Geschwindigkeitssteigerung, seit wielange ? 2 Jahren ? haengen wir jetzt bei 3.x ghz...

und es wird noch Jahre dauern bis dualcores real schneller werden. Und nicht nur in irgendwelchen spezial sonder spec tests ... Scheisse. Sorry... aber ich hatte mich drauf gefreut ni 1-2 Jahren einen PC zu kaufen der effektiv doppelt so schnell ist wie mein jetziger A64 3200+... aber so wie es jetzt laeuft, ist der wohl noch 4 Jahre aktuell...

Wo ist das Problem?

Sei doch froh, wenn deine CPU so lange wie möglich aktuell ist und die nicht viel Geld in eine neue investieren musst...

Avalox
2004-10-13, 10:17:51
Hier sind ein paar Benchmarks zu einer Dual Opteron Konfiguration zu finden.

http://www.computerbase.de/artikel/hardware/prozessoren/2004/dual_core_athlon_64/8/

Q3A ist auch dabei.

Richtig hinsehen ist wichtig! Denn das Programm wird durch den zweiten Proz. ausgebremst!

Q3A läuft tatsächlich mit einem Opteron schneller als mit zweien. Trotz identischen Takt der CPUs.

Nun wird der DualCore Baustein sicherlich etwas moderner sein, vielleicht auch das OS noch besser angepasst.

So recht beeindrucken tut die Tendenz aber nicht.

StefanV
2004-10-13, 10:22:42
das liegt am kack MSI K8T Master2, bei dem nur das RAM Interface einer CPU genutzt wird...

HellHorse
2004-10-13, 10:36:39
Q3A ist auch dabei.

Richtig hinsehen ist wichtig! Denn das Programm wird durch den zweiten Proz. ausgebremst!

Q3A läuft tatsächlich mit einem Opteron schneller als mit zweien. Trotz identischen Takt der CPUs.
Die haben aber vermutlich unter Windows mit einer aktuellen Version von Q3A gebencht. Die hat kein SMP-Support mehr.
Bei der MacOS-Version ist der SMP-Support noch drin und kickt, wie dir einige Forum Members mit Macs gerne bestätigen werden. Wie's mit der Linux Version aussieht weiss ich nicht.

Lilebror
2004-10-13, 12:56:07
Also das der Dualcore Opteron da nich mithalten kann wusste ich auch !
Aber ein Opteron ist ja auch nich zum spielen ausgelegt !
Wenn ein Athlon 64 und ein FX mit 2 Kernen raus kommt kann man da vielleicht was vergleichen !
Der opteron konte auch damals schon in der single Ausführng nie mit dem FX mithalten!

Lilebror
2004-10-13, 12:58:09
Oder ?

GloomY
2004-10-13, 17:51:29
Hier sind ein paar Benchmarks zu einer Dual Opteron Konfiguration zu finden.

http://www.computerbase.de/artikel/hardware/prozessoren/2004/dual_core_athlon_64/8/

Q3A ist auch dabei.

Richtig hinsehen ist wichtig! Denn das Programm wird durch den zweiten Proz. ausgebremst!

Q3A läuft tatsächlich mit einem Opteron schneller als mit zweien. Trotz identischen Takt der CPUs.

Nun wird der DualCore Baustein sicherlich etwas moderner sein, vielleicht auch das OS noch besser angepasst.

So recht beeindrucken tut die Tendenz aber nicht.das liegt am kack MSI K8T Master2, bei dem nur das RAM Interface einer CPU genutzt wird...Es ist ja ganz schön und nett, wenn man probiert, den noch nicht vorhandenen Dual-Core Opteron mit zwei einzelnen Opterons zu vergleichen, wobei diese nur ein gemeinsames Speicherinterface besitzen.
Jedoch liegt die Speicherlatenz für CPU2 nun mal ein ganzes Stück höher als die von CPU1, da Nummer 2 erst über Hypertransport mit der ersten CPU kommunizieren muss. Das ist bei einem Dual-Core Opteron natürlich nicht so. Dort hat die zweite CPU gegenüber der im Test verwendeten Konfiguration also ca. 30ns weniger Speicherlatenz. :)

Insofern ist der Vergleich ziemlicher Müll. Man kann einen Dual-Core Opteron eben nicht durch zwei Opterons simulieren. Fazit und etwaige andere Folgerungen sind damit als Nichtig zu betrachten.

Avalox
2004-10-13, 17:57:23
@Lilebror

Nein, Unterschiede sind nur im Detail. Der Opteron unterscheidet sich im Grunde nicht.

@GloomY

Hätte man statt dessen eine Dual Opteron Testvariante mit jeweils separatem Speicher gewählt, hätte dieses Konstrukt statt dessen mitunter die doppelte Speicherbandbreite eines Toledo gehabt.
Ob Quake3A dann besser gelaufen wäre?

Ich denke ein so erheblicher Taktnachteil wie geplant, wird den Toledo ganz sicher in einem zwielichtigen Licht erscheinen lassen. Zumindest in der Käuferschicht der „enthusiastischen“(AMD) Homeanwender.

StefanV
2004-10-13, 18:07:35
mal 'ne blöde Frage:

Läuft der Opteron auch mit nur einem Riegel pro Kanal?? :|

Lilebror
2004-10-13, 18:43:46
Außerdem wie der Kolge schon sagte ! Das is ein board mit zwei wirklichen Prozzis das is doch nich zuvergleichen !
man würde ja auch keine Kirschem mit Äpfeln vergleichen oder ? da sind ja riesen Latenzen zwischen der Kommunikation beider Prozessoeren das wir auf einem Dualkern KOMPLETT anders sein ! !
die haben ja keinen gemeinsamen Cache die versuchen quasi beide das gleiche zu machen das da kein Performance zuwachs , zu mindest ins Spielen möglich ist , war mir auch schon klar.
Verdammt noch mal also auf den scheiß bench geb ich Nichs !

GloomY
2004-10-13, 18:49:58
@GloomY

Hätte man statt dessen eine Dual Opteron Testvariante mit jeweils separatem Speicher gewählt, hätte dieses Konstrukt statt dessen mitunter die doppelte Speicherbandbreite eines Toledo gehabt.Genau. Es geht eben nicht, dass man einen Dual-Core Prozessor mit zwei normalen Opterons simuliert. Irgendwo klappt's einfach nicht.
Da wirkt dann die Überschrift "Dual Core Athlon 64, Das kann die Hammer-Architektur" doch etwas lächerlich...
Ob Quake3A dann besser gelaufen wäre?Da bin ich mir ziemlich sicher. Auf jeden Fall wäre dann die Version mit zwei Opterons nicht langsamer gewesen als mit nur einem Opteron.
Ich denke ein so erheblicher Taktnachteil wie geplant, wird den Toledo ganz sicher in einem zwielichtigen Licht erscheinen lassen. Zumindest in der Käuferschicht der „enthusiastischen“(AMD) Homeanwender.Dual-Core ist für Server gedacht. Und da spielt Durchsatz eine weitaus wichtigere Rolle, zumal sehr viel mehr Anwendungen Multi-Threaded programmiert sind (eben u.a. weil schon früher SMP zur Leistungssteigerung eingesetzt wurde).

edit:mal 'ne blöde Frage:

Läuft der Opteron auch mit nur einem Riegel pro Kanal?? :|Imho ja.

zeckensack
2004-10-13, 19:24:21
Der Opteron läuft AFAIK auch nur mit einem einzigen Riegel (=> single channel) im gesamten System. Und damit meine ich unter anderem auch ausgewachsene Achtfach-Systeme.

CrazyIvan
2004-10-13, 19:51:16
Um SPs Gedanken weiterzuverfolgen...
Am ehesten wäre ein DualCore System wohl mit nem Dual Opteron System nachzubilden, bei dem beide CPUs auf eigenen Speicher im SingleChannel zugreifen. Sowohl Latenz als auch Bandbreite wären annähernd identisch. Weiß jemand, ob die DualCores eine Art LoadBalancing für den Speicherzugriff besitzen, oder einfach jeder fest 50% der zur Verfügung stehenden Bandbreite bekommt? Wie ist nun die Kommunikation unter einander geregelt? Gibt es da inzwischen genauere Informationen?

zeckensack
2004-10-13, 20:00:25
Um SPs Gedanken weiterzuverfolgen...
Am ehesten wäre ein DualCore System wohl mit nem Dual Opteron System nachzubilden, bei dem beide CPUs auf eigenen Speicher im SingleChannel zugreifen. Sowohl Latenz als auch Bandbreite wären annähernd identisch. Weiß jemand, ob die DualCores eine Art LoadBalancing für den Speicherzugriff besitzen, oder einfach jeder fest 50% der zur Verfügung stehenden Bandbreite bekommt? Wie ist nun die Kommunikation unter einander geregelt? Gibt es da inzwischen genauere Informationen?"System Request Queue". Schaust du hier (PDF) (http://www.amd.com/us-en/assets/content_type/DownloadableAssets/MPF_Hammer_Presentation.PDF).
Die SRQ ist das Einfallstor für alle Arten von Anfragen (sowohl von innen wie auch von per HT angebunden weiteren Cores). Der Speichercontroller ist auch von "innen" nur über die SRQ zu erreichen, und nicht direkt.

Starre Bandbreitenaufteilung wäre ein wenig ... blöd ... oder? ;)

CrazyIvan
2004-10-13, 20:41:12
"System Request Queue". Schaust du hier (PDF) (http://www.amd.com/us-en/assets/content_type/DownloadableAssets/MPF_Hammer_Presentation.PDF).
Die SRQ ist das Einfallstor für alle Arten von Anfragen (sowohl von innen wie auch von per HT angebunden weiteren Cores). Der Speichercontroller ist auch von "innen" nur über die SRQ zu erreichen, und nicht direkt.
Mag sein, dass ich in der PDF was übersehen habe, aber eine richtige Antwort auf meine Frage ist das nicht. Vielleicht habe ich auch ein grundsätzliches Verständnisproblem. Kommunizieren beide Cores - wie bei SMP üblich - nur über den Speicher, oder gibt es noch eine anderweitige Verbindung? Wenn ja, wie ist diese implementiert? Würde eine solche Anbindung überhaupt Sinn machen (Könnte mir durchaus Vorteile bei eventuellem Datenaustausch auf L1 Ebene vorstellen)?
Die SRQ dient ja im Grunde beiden Cores zur Kommunikation mit der "Umwelt", muss aber nicht zwangsläufig zur Kommunikation unter einander dienen.

Starre Bandbreitenaufteilung wäre ein wenig ... blöd ... oder? ;)
Sicherlich wäre das - gelinde gesagt - Tünneff. Allerdings gab und gibt es ja wohl weitaus absurdere Fußangeln in aktuellen Architekturen. Daher habe ich es aufgegeben, mich allein auf gesunden Menschenverstand zu verlassen ;)
Mit der SRQ hat man jedoch gute Vorraussetzungen.

Gast
2004-10-14, 07:30:12
Wo ist das Problem?

Sei doch froh, wenn deine CPU so lange wie möglich aktuell ist und die nicht viel Geld in eine neue investieren musst...


Es gibt halt Fortschrittsverweigerer, die bei schnelleren CPUs, groesseren Festplatten, schnelleren DSL Leitungen, kleineren hochaufgeloesteren PocketPCs Displays oder generell schnelleren PPCs, größere Ramriegel, schnellere und höher auflösende Digicams usw. immer schreien : WARUM WOFUER und ich kann das echt nicht mehr hoeren. Die naechste Stufe sind die Fortschrittsschmarozer, die meckern, aber selber die aktuelle Technik nutzen...

und ICH freue mich eben auf schnellere PCs :)

Ich WILL das Geld ausgeben, dafuer aber auch spuerbar perfomantere Systeme sehen. Das ist nicht nur "Techniklangweile" sondern eben die Faszination an der neuen Technik...

Avalox
2004-10-14, 12:47:08
Fortschrittsverweigerer. Das ist genau der Punkt.

Der Dualcore wird allen Anschein nach künstlich im Takt gebremst sein, um zu bestehenden Plattformen kompatibel zu sein.

Das ist allerdings genau der Punkt, welchen ich so Schade finde. Eine neue Plattform mit neuen angepassten Spezifikationen. Wenigstens als Option. Das würde mir gefallen.
Sockel A CPUs wurden trotz aller Limitierungen der Plattform entwickelt, so dass es einen schon schmerzte sich das überhaupt anzusehen.
Denn machen wir uns nichts vor. Die massiven Vorteile des K8 sind nicht allein auf einen genialen Prozessorentwurf zurückzuführen, als vielmehr durch eine sehr durchdachte Gesamtplattform.
Man hat annehmen müssen, dass AMD aus der alten Entwicklung viel gelernt hat.

Nun hoffe ich doch, dass die scheinbaren Eskapaden der DualCore Kompatibilität zu den bestehenden Plattformen nicht das ganz Bild prägen werden. Es ist ja nicht nur so, dass sich dieser Kompatibilitätsgedanke darin niederschlägt, dass sich die einzelnen Kerne des DualCores die Ressourcen teilen müssen, welche schließlich mal entwickelt wurden um einen einzelnen Kern zu bedienen. Es gibt auch noch den widrigen Nachteil der nicht handhabbaren Verlustleistung. Solche Entwicklungen führen nur zu Inkompatibilitäten und letztendlich enttäuschten Anwendern.

Ich hoffe stark im Sinne des Fortschritts, dass AMD die mit dem K8 angefangnen Linie von speziell abgestimmten Gesamtsystemen nicht aufgibt und wieder eine neue angepasste Plattform präsentiert um die DualCore CPUs auch würdig betreiben zu können.

zeckensack
2004-10-14, 13:34:17
Mag sein, dass ich in der PDF was übersehen habe, aber eine richtige Antwort auf meine Frage ist das nicht. Vielleicht habe ich auch ein grundsätzliches Verständnisproblem. Kommunizieren beide Cores - wie bei SMP üblich - nur über den Speicher, oder gibt es noch eine anderweitige Verbindung? Wenn ja, wie ist diese implementiert? Würde eine solche Anbindung überhaupt Sinn machen (Könnte mir durchaus Vorteile bei eventuellem Datenaustausch auf L1 Ebene vorstellen)?Nicht nur über den externen Speicher. Die Kerne können sich auch "fremde" Cache-Lines ausborgen.
Die SRQ dient ja im Grunde beiden Cores zur Kommunikation mit der "Umwelt", muss aber nicht zwangsläufig zur Kommunikation unter einander dienen.Ist so angelegt. Die SRQ synchronisiert und arbitriert jede dem Kern überhaupt mögliche Form von I/O (externer Speicherzugriff, Zugriff auf fremde Caches, snoop traffic, Peripherie).

Das ist bei Single-Cores, Dual-Cores und SMP prinzipiell immer gleich, mit den Ausnahmen dass offensichtlich
a)innerhalb eines Chips der Hypertransport ruht
b)bei nur einem Kern keinerlei externer Cache-Zugriff und snoop traffic auftreten kann

Ich sehe aber nochmal nach, ob ich nicht noch eine bessere Präsentation dazu finde :)
Sicherlich wäre das - gelinde gesagt - Tünneff. Allerdings gab und gibt es ja wohl weitaus absurdere Fußangeln in aktuellen Architekturen. Daher habe ich es aufgegeben, mich allein auf gesunden Menschenverstand zu verlassen ;):udevil:
Das würde dann so funktionieren, dass ein Kern, der (vorübergehend) überhaupt keine Speicherzugriffe macht, trotzdem den halben Speichercontroller ob seiner reinen Anwesenheit blockiert. Die naive Implementierung würde dann auch jedem Kern nur den Zugriff auf die Hälfte des Speichers gewähren :ugly:
Die fortgeschrittene Implemtierung hätte eine Crossbar, um wieder jedem Kern den gesamten Speicher zum Zugriff freizugeben. Und, letztendlich, die vernünftige Implementierung würde diese Crossbar dann auch voll ausnutzen. Nee nee nee ...

Speicherzugriff ist immer "on demand".

justanick
2004-10-14, 21:37:24
Fortschrittsverweigerer. Das ist genau der Punkt.

Der Dualcore wird allen Anschein nach künstlich im Takt gebremst sein, um zu bestehenden Plattformen kompatibel zu sein.

Das ist allerdings genau der Punkt, welchen ich so Schade finde. Eine neue Plattform mit neuen angepassten Spezifikationen. Wenigstens als Option. Das würde mir gefallen.
Sockel A CPUs wurden trotz aller Limitierungen der Plattform entwickelt, so dass es einen schon schmerzte sich das überhaupt anzusehen.
Denn machen wir uns nichts vor. Die massiven Vorteile des K8 sind nicht allein auf einen genialen Prozessorentwurf zurückzuführen, als vielmehr durch eine sehr durchdachte Gesamtplattform.
Man hat annehmen müssen, dass AMD aus der alten Entwicklung viel gelernt hat.

Nun hoffe ich doch, dass die scheinbaren Eskapaden der DualCore Kompatibilität zu den bestehenden Plattformen nicht das ganz Bild prägen werden. Es ist ja nicht nur so, dass sich dieser Kompatibilitätsgedanke darin niederschlägt, dass sich die einzelnen Kerne des DualCores die Ressourcen teilen müssen, welche schließlich mal entwickelt wurden um einen einzelnen Kern zu bedienen. Es gibt auch noch den widrigen Nachteil der nicht handhabbaren Verlustleistung. Solche Entwicklungen führen nur zu Inkompatibilitäten und letztendlich enttäuschten Anwendern.

Ich hoffe stark im Sinne des Fortschritts, dass AMD die mit dem K8 angefangnen Linie von speziell abgestimmten Gesamtsystemen nicht aufgibt und wieder eine neue angepasste Plattform präsentiert um die DualCore CPUs auch würdig betreiben zu können.Die Dual Core Planungen sind AFAIK weitaus älter als die Socklel 940 und 939. Vielleicht will AMD gar keine Ghz Boliden als Dual Core oder taktet sie nur Anfangs niedriger als die Single Core Versionen.

Mike
2004-10-15, 03:10:38
Fortschrittsverweigerer. Das ist genau der Punkt.

Der Dualcore wird allen Anschein nach künstlich im Takt gebremst sein, um zu bestehenden Plattformen kompatibel zu sein.

Das ist allerdings genau der Punkt, welchen ich so Schade finde. Eine neue Plattform mit neuen angepassten Spezifikationen. Wenigstens als Option. Das würde mir gefallen.
Sockel A CPUs wurden trotz aller Limitierungen der Plattform entwickelt, so dass es einen schon schmerzte sich das überhaupt anzusehen.
Denn machen wir uns nichts vor. Die massiven Vorteile des K8 sind nicht allein auf einen genialen Prozessorentwurf zurückzuführen, als vielmehr durch eine sehr durchdachte Gesamtplattform.
Man hat annehmen müssen, dass AMD aus der alten Entwicklung viel gelernt hat.

Nun hoffe ich doch, dass die scheinbaren Eskapaden der DualCore Kompatibilität zu den bestehenden Plattformen nicht das ganz Bild prägen werden. Es ist ja nicht nur so, dass sich dieser Kompatibilitätsgedanke darin niederschlägt, dass sich die einzelnen Kerne des DualCores die Ressourcen teilen müssen, welche schließlich mal entwickelt wurden um einen einzelnen Kern zu bedienen. Es gibt auch noch den widrigen Nachteil der nicht handhabbaren Verlustleistung. Solche Entwicklungen führen nur zu Inkompatibilitäten und letztendlich enttäuschten Anwendern.

Ich hoffe stark im Sinne des Fortschritts, dass AMD die mit dem K8 angefangnen Linie von speziell abgestimmten Gesamtsystemen nicht aufgibt und wieder eine neue angepasste Plattform präsentiert um die DualCore CPUs auch würdig betreiben zu können.
Sehe ich nicht unbedingt so, ich finde es im Gegensatz gut, das sich AMD weiterhin an die TDP Grenze hält - wie gesagt, wir brauchen keine Rechner die Kühltürme und AKWs benötigen, deswegen MUSS zwangsläufig irgendwann eine feste Grenze der Leistungsaufnahme gesetzt werden - besser 100W als 200W... Die, die mehr wollen, können übertakten...

Fortschritt muss nun in Zukunft darin bestehen, mehr Rechenleistung bei NICHT steigender Leistungsaufnahme zu bringen...

Avalox
2004-10-15, 10:27:25
@justanick

Na wenn man Kevin McGrath richtig verstanden hat, dann liegt der Takt des DualCore Prozessors bei 1,8GHz, weil dieser bei 1,8GHz grade noch mit Ach und Krach in der Verlustleistung zum TDP des Sockel 940 passt.

@Mike

Die Technik des Dual Core beruht nun mal auf dem aktuellen K8. Dieses halt im Energieumsatz(fast) mal 2. Wo soll denn da die grosse Ersparnis der Verlustleistung herkommen?

Man kann jetzt höchstens hoffen, dass das Mehr an Verlustleistung des 2. Kerns geringer ist, als die Verlustleistung welche eine Takterhöhung eines Kerns mitgebracht hätte um die CPU letztendlich auf ein identisches Leistungsniveau zu heben.

Sieht man sich die gemessenen Leistungsaufnahmen der heutigen K8 CPUs an, so merkt man dass die dazugehörigen Plattformen ausgezeichnet spezifiziert sind. Allerdings von einer Reserve um den Faktor 2 kann auch keine Rede sein.

Wass man sicher nicht machen kann, du aber möchtest, ist, dass man mit identischer Technik zwei Kerne zum Energie Umsatz nur eines Kerns bekommt.

Natürlich wäre es nett, wenn es so wäre. Nett fände ich es aber auch, wenn AMD die DualCore CPUs gleich zu niedrigst Preisen vertreiben würde.

Bei einer Spitzen CPU für Workstation und "Enthusiasten" Desktops muss die Leistung stimmen, danach kann man die Betriebsparameter vergleichen. mM

Zumal beim K8 ja sehr differenziert die Thematik betrachtet werden kann. Denn grade durch die sehr fortschrittlichen Energiesparkonzepte, benötigt die CPU tatsächlich nur so viel Energie, wie der Anwender Leistung benötigt.

Apple zeigt auch sehr schön, dass die Verlustleistung durch Einsatz innovativer Techniken sicherlich zum Wohle aller gut gelöst werden kann.
Da schafft es Apple beim neuen Power MAC G5 auf Anhieb, dass was zig Hersteller auf aller Welt für den PC seit Jahren nicht in den Griff bekommen. Nämlich eine professionelle Flüssigkeitskühlung zu präsentieren, welche mit irgend welchen Hinterhof CNC Bastellein nichts mehr gemein hat.

Ich hoffe stark, dass AMD nicht wieder in die alte Manie verfällt und doch den Mut zu ganzen Schritten hat. Weg mit Spezifikationen und Kompatibilität wo diese nur noch hinderlich ist.

Mike
2004-10-15, 11:27:09
Die Technik des Dual Core beruht nun mal auf dem aktuellen K8. Dieses halt im Energieumsatz(fast) mal 2. Wo soll denn da die grosse Ersparnis der Verlustleistung herkommen?

Man kann jetzt höchstens hoffen, dass das Mehr an Verlustleistung des 2. Kerns geringer ist, als die Verlustleistung welche eine Takterhöhung eines Kerns mitgebracht hätte um die CPU letztendlich auf ein identisches Leistungsniveau zu heben.

Genau, ein Dualcore mit 1.5 GHz sollte um einiges weniger Strom verbrauchen als ein Singlecore bei 3GHz, weswegen man bei gleichem Stromverbrauch mehr Leistung mit einem Dualcore hat.
Und genau das macht ja AMD, 2. Core rauf, Taktfrequenz(und hoffentlich damit auch Spannung) runter..
Das ist der Grund, warum man jetzt langsam Dualcores einführt, da reine Takterhöhung nicht mehr so schnell durchzuführen ist/zuviel Energie kostet...
Natürlich braucht man die Software dafür, deswegen werden Dualcores für reine Gamer etc anfangs wohl nicht geeignet sein, eher für Workstations und Server...

Das man nicht einen Dualcore bei gleicher Taktfrequenz und gleicher Leistungsaufnahme wie die Singlecores bauen kann, ist mir klar ;)

Avalox
2004-10-15, 13:36:23
Genau, ein Dualcore mit 1.5 GHz sollte um einiges weniger Strom verbrauchen als ein Singlecore bei 3GHz, weswegen man bei gleichem Stromverbrauch mehr Leistung mit einem Dualcore hat.


Die Rechnung stimmt halt so nicht, wann benötigt denn der Heimanwender eine hohe Performance?
Nämlich dann, wenn 1 Aufgabe, oder besser 1 Programm schnell rechnen soll.
Meistens sind das halt Spiele. Wie gut lässt sich nun ein Spielprozesse parallelisieren?
Die Frage ist berechtigt, da es noch keine gute Antwort drauf gibt.
Im Augenblick sind Spiele absolut SMP resistent, es passiert nichts, Vorteile laufen gegen Null. Da andererseits auch kein Anreiz für Entwickler da war, um Spiele entsprechend zu entwickeln, wird diese Frage nur durch die Zeit beantwortet werden können. Wenn du nun auf einen Dualcore Vorteil von 20% bis 40% kommst, dann ist das nach heutigen Maßstab schon verdammt viel. Mag aber in der Energiebilanz nicht unbedingt positiv ausgehen.

Sicherlich sind Multicore Systeme zukunftsträchtig. Trotzdem sind auch dafür möglichst schnelle Cores nötig. Ich bin jedenfalls sehr gespannt auf die weitere Entwicklung. Befürchte aber, dass es erst mal lange Gesichter geben wird. Die Erwartungen sind mitunter einfach überzogen. mM

CrazyIvan
2004-10-15, 14:56:20
@ Avalox
Sehe ich genau so. Die Erde wird die Sonne wohl noch das ein oder andere mal umkreisen, bis DualCores für den Heimanwender auch nur einen geringen Vorteil aufweisen werden.


Nicht nur über den externen Speicher. Die Kerne können sich auch "fremde" Cache-Lines ausborgen.
Du erwähnst weiter unten in Deinem Posting, dass auch dieses über die SRQ vonstatten geht. Wäre das nicht latenztechnisch ein Schuss in den Ofen? Bei Dual CPU Systemen geht das sicherlich nicht anders, aber wenn man eh schonmal alles auf einem Die hat, könnte man doch die Signallaufzeiten stark verkürzen.

Mike
2004-10-15, 20:35:52
@ Avalox, ich sagte ja, primär sind Dualcores anfangs wohl für Server und Workstations am interessantesten...
Wenn sich ein Heimanwender einen DualCore zulegt, und dann meint/erwartet, das alles doppelt so schnell läuft, der hat halt Pech - er hätte sich besser informieren/beraten lassen können...

Informieren sollte man sich immer, siehe die unterschiedliche pro-MHz Leistung der Prozessoren(AMD versucht zwar mit ihren Ratings die Kunden aufzuklären, aber..., desweiteren gibts das Problem ja auch beim Vergleich P4 - PM), 32Bit/64Bit, HT...

Ja, ich bin auch gespannt, wies weitergeht.. :)
Inwieweit sich zB. Spiele etc. parallelisieren lassen, werden wir wohl bald erfahren...

justanick
2004-10-16, 14:48:07
@justanick

Na wenn man Kevin McGrath richtig verstanden hat, dann liegt der Takt des DualCore Prozessors bei 1,8GHz, weil dieser bei 1,8GHz grade noch mit Ach und Krach in der Verlustleistung zum TDP des Sockel 940 passt.A64-M in 90nm soll bei 2,2Ghz 35Watt verbrachen. Daher sollte ein Dual Core bei 2,2Ghz bei 70Watt laufen, der Speicherkontroller wird ja nicht verdoppelt, allerdings der L2 Cache vervierfacht, also sicherheitshalber 75Watt. Selbst wenn er 80Watt verbrauchen sollte, wäre noch 2,4Ghz bei unter 89Watt Verlustleistung drinne. Wenn es Probleme geben sollte dann eher bei der Stromstärke, die bei gleicher Verlustleistung und gesenkter Spannung steigt.