PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : CPU-Cooling, wohin geht die Reise?


Die gelbe Eule
2005-10-01, 20:45:30
Gute Leistung braucht immer mehr Kupfer oder Kühler die eigentlich aussehen wie Silos. Denkt ihr das die Verlustleistung immer niedriger wird und damit auch die Kühler wieder kompakter oder muss irgendwann jeder einen kleine Kompressor fahren?

:rolleyes:

SKYNET
2005-10-01, 20:46:56
bei AMD musst du keine angst haben, das du nen kompressor oder ne turbine brauchst... das traue ich da schon eher dem blauen riesen zu. ;)

Die_Allianz
2005-10-01, 21:05:35
Intel hat sich doch eine technik patentieren lassen, die Peltier-Elemete direkt ins DIE zu integrieren!
Ich weiß auch nicht wohin die entwicklung geht, aber lange kann es so nicht mehr weitergehen

Altes-Kamel
2005-10-01, 21:56:07
naja das hat sich doch von athlon xp zu athlon64 verbessert oder irre ich mich da?
und ein pentium m begnuegt sich auch mit nem kleinen luefter...

huha
2005-10-01, 22:04:02
Intel hat sich doch eine technik patentieren lassen, die Peltier-Elemete direkt ins DIE zu integrieren!
...was das Problem nur verschlimmern würde.

Ich weiß auch nicht wohin die entwicklung geht, aber lange kann es so nicht mehr weitergehen

Klar geht's weiter, die Zyklen werden eben nur immer kürzer. Heutzutage wird ja nahezu jährlich irgendein neues Referenzkühlerdesign ausgespuckt. Außerdem geht es bei der Kühlung von CPUs nicht um niedrige Temperaturen. Die Übertakter mögen das zwar, es spricht aber grundsätzlich nichts dagegen, die CPU nur ausreichend zu kühlen.
Durch verbesserte Fertigungstechnologien kann oftmals auch die Abwärme reduziert werden oder man designt die CPU einfach anders. Man könnte sich z.B. vorstellen, den Cache außenrum zu bauen und die wirklich heißen Teile in die Mitte des Die zu verfrachten, so daß sich die Wärme besser ausbreiten kann.

Beim Kühlen geht noch eine ganze Menge, da sind wir noch lange nicht an der Grenze des Machbaren.

-huha

-error-
2005-10-02, 03:30:47
Denke die Zukunft gehört der Flüssigkeitsmetallkühlung (Gallium)

Völlig lautlos, da man ja keine Pumpe braucht. Man könnte bei Laptops z.B. das Gehäuse als Wärmetauscher benutzen, wenn es aus Aluminium wäre.

http://vnude.typepad.com/photos/uncategorized/sapphire_blizzard_radeon_x850_xt_2.jpg

http://www.netzwelt.de/images/articles/nano_1115973665.jpg

Effizient kühlen mit flüssigem Metall (http://www.netzwelt.de/news/71170-effizient-kuehlen-mit-fluessigem-metall.html)

- gute Kühleistung
- lautlos realisierbar
- wartungsfrei
- ausfallsicher
- modular erweiterbar

Die gelbe Eule
2005-10-02, 03:37:31
Und die beiden 65er da drauf machen keinen Krach?

So ein Kühler dürfte doch allein wegen dem Gallium sehr teuer herzustellen sein ...

Die_Allianz
2005-10-02, 15:05:47
Wenn ich bedenke, dass die erste meldung der metallkühlung vom mai ist, glaube ich das teil wurde eingestampft!

-error-
2005-10-02, 15:12:05
Und die beiden 65er da drauf machen keinen Krach?

So ein Kühler dürfte doch allein wegen dem Gallium sehr teuer herzustellen sein ...

Das kann man auch ohne Lüfter realisieren :rolleyes:

Die_Allianz
2005-10-02, 15:16:35
Das kann man auch ohne Lüfter realisieren :rolleyes:

NIEMALS! An der leistung, die die Karte abgibt ändert die Bauart des kühlers doch nichts! Die abwärme muss am ende irgendwie an die Luft abgegben werden und dazu brauchst du bei solch leistungsstarken karten eben viel luft, also nen lüfter!

huha
2005-10-02, 18:33:59
Also, kurzer Exkurs über Kühlung, da hier wohl einiges im Argen liegt.

Bei der Kühlung gibt's drei Effekte, die wichtig sind:

1) Die Wärmekapazität. Diese bestimmt, wieviel Wärmeenergie eine bestimmte Menge eines Stoffes aufnehmen kann. Wichtig für Kühlmittel (Luft, Wasser, ...)
Angegeben wird die Wärmekapazität in kj/kg*K (bzw. in J/g*K)

2) Die Wärmeleitfähigkeit. Diese bestimmt, wie schnell sich die Wärmeenergie in einem Stoff ausbreitet. Wichtig für Kühlkörper.
Wird angegeben in J /(m*sec*K) bzw. in W/(m*K) [1W = 1J/sec!]

3) Die Oberfläche. Je größer die Oberfläche, desto besser kann die Wärmeenergie an das Kühlmittel abgegeben werden.

Was macht nun eine gute Kühlung aus?
Der Kühlkörper soll die Wärme möglichst gut leiten, also eine hohe Wärmeleitfähigkeit haben. Außerdem sollte das Kühlmittel eine möglichst hohe Wärmekapazität haben.

Da man leider beim Kühlmittel letztendlich doch auf Luft zurückfällt (irgendwann muß die Luft die Wärme abtransportieren, es sei denn, man arbeitet mit einer Wasserkühlung, die das Kühlwasser in die Kanalisation einleitet und frisches Wasser zuleitet), die eine sehr schlechte Wärmekapazität hat, muß man zusehen, daß man irgendwie die Wärme gut an die Luft kriegt. "Gut" heißt hier übrigens nicht "möglichst effizient," sondern "möglichst viel." Wenn man die Wärmeenergie möglichst effizient an die Luft kriegen wollte, müßte man den Kühlkörper schon warm werden lassen, da die Energie umso besser übertragen wird, je höher der Temperaturunterschied ist (merke: Je geringer der Temperaturunterschied sein soll, desto mehr Aufwand muß betrieben werden). Die einzige Möglichkeit, das zu erreichen, ist die Erhöhung der Oberfläche des letztendlichen Kühlers (wir gehen mal von der aktiven Belüftung auf, beim passiven Betrieb muß die Oberfläche nochmal größer sein, da bewegte Luft den Widerstand beim Wärmeübergang vom Kühlkörper auf die Luft klein hält, aber das würde die Ausführung hier jetzt sprengen...).
Leider gibt es eben den Effekt der Wärmeleitung, der besagt, daß sich Wärme in einem Material nur mit einer bestimmten Geschwindigkeit fortbewegen kann. Je größer man die Kühlkörper nun zwecks Oberflächenerhöhung konstruiert, desto stärker ergibt sich das Problem, daß die Wärme einfach nicht schnell genug zu den äußeren Bereichen kommt und somit der innere Bereich eine höhere Temperatur als gewünscht erhält.

Um dieses Problem zu lösen (und zwar exklusiv zur Lösung dieses Problems!) gibt's die sogenannten "Wasserkühlungen" oder auch "Flüssigmetallkühlungen," wobei hier dennoch letzten Endes mit Luft gekühlt wird, das Wasser oder Flüssigmetall ist nur ein Transportmedium, weil man mit seinem Einsatz eine sehr hohe Wärmeleitfähigkeit erreichen kann. Genauso sieht's übrigens auch mit Heatpipes aus.
Man transportiert also z.B. per Wasser oder Flüssigmetall die Wärme von einem Bauteil ab und leitet sie zu einem Kühlkörper mit sehr großer Oberfläche. Dieser ist natürlich z.B. bei der Wasserkühlung woanders, was auch rein praktische Gründe hat, da oftmals nicht der Platz für Kühler mit viel Oberfläche zu Verfügung steht.

Und genau das ist auch das Problem bei der vorgestellten Flüssigmetallkühlung: Der Kühlkörper "an sich" ist nicht viel größer als ein normaler Kühlkörper, insofern bringt diese Art des Wärmetransports reichlich wenig. Flüssigmetall hat eben den Vorteil gegenüber Heatpipes oder Wasser, daß es nicht, wie Wasser, eine Frickelgeschichte ist oder, wie Heatpipes, nur in sehr begrenzten Temperaturregionen wirklich vernünftig arbeitet. Mehr als einen Gimmickeffekt sehe ich in der Flüssigmetallkühlung nicht, weshalb sie IMHO auch keine Serienreife erreichen wird, einfach auch deshalb, weil der Spaß nicht ganz billig ist.

-huha

up¦²
2005-10-02, 18:43:29
Was mich wundert ist, dass man nur von oben kühlt, und nicht von beiden Seiten des Cores.
Es gibt hervorragende keramische Wärmeleiter, die nicht leiten!

Andererseits, der Geforce61x00 in 90nm läst sich doch prima kühlen, passiv!

mofhou
2005-10-02, 18:53:29
[QUOTE=Desire

Völlig lautlos, da man ja keine Pumpe braucht. [/QUOTE]
Schau mal auf dein Bild ;)....

Ich sehe die Zukunft der Kühlung darin, das breits bekannte Kühlmethoden (Wakü/Heatpipe etc) auch im Mainstreamsektor Fuß fassen. Im Highendsektor wird es keine großen Sprünge mehr geben, da bereits am Limit gearbeitet wird und der limitierende Faktor nicht mehr der Kühler sondern der Wärmeübergang Die->Kühler ist.
Bei größeren Sprüngen sind die CPU-Hersteller gefragt, Ideen gibt es ja bereits (siehe Die_Allianz)....

-error-
2005-10-02, 22:42:45
NIEMALS! An der leistung, die die Karte abgibt ändert die Bauart des kühlers doch nichts! Die abwärme muss am ende irgendwie an die Luft abgegben werden und dazu brauchst du bei solch leistungsstarken karten eben viel luft, also nen lüfter!

Was schreibst du da? :|

Du weißt schon, dass man eine X850 XT-PE per Heatpipe kühlen kann, also ohne Lüfter?

Du weißt schon, dass man den Radiator einer sochen Kühlung wie den von einer Wasserkühlung handhaben kann?

@ huha

Und was willst du uns jetzt damit sagen? :rolleyes:

Meine Wasserkühlung ist passiv, es ist egal ob mit Lüfter oder ohne, solange die Wärme gut an die Luft weitergebenen wird.

Und nein, die Menge machts auch nicht immer, es kommt auf die Effektivität der einzelnen Komponenten an.

Meine Damen und Herren, es ist NICHTS unmöglich.

http://pics.computerbase.de/artikel/491/13.jpg

http://pics.computerbase.de/artikel/491/14.jpg

http://pics.computerbase.de/artikel/491/15.jpg

Alles nur eine Frage des Aufwands und des Geldes ;)

Bokill
2005-10-02, 23:04:09
Öhem ... Der Trend geht vor allem bei Prozessoren derzeit wieder runter in Sachen Wärmeentwicklung, jedenfalls sind alle Hersteller dabei diesen Trend seit den Athlons und den Pentium 4 herumzudrehen.

Sun wird demnächst seinen Niagara auf den Markt präsentieren. 8 CPU-Kerne, 4fach Multithreading, höhrere Taktraten wie die Einzelkerne der Vorgängereinzelkerne und dennoch verspricht Sun bei den Niagara reduzierte Wärmeabstrahlung, reduzierten Strombedarf!

MFG Bobo(2005)

huha
2005-10-02, 23:30:24
@ huha

Und was willst du uns jetzt damit sagen? :rolleyes:


Was ich damit sagen will? Ich will die Unkenntnis über die physikalischen Begrenzungen von Kühllösungen etwas aufklären, obwohl die Sache recht komplex ist. Man wird auch in Zukunft noch gut kühlen können, allerdings nicht mehr bei so niedrigen Temperaturen. Das ist aber für den Normalbenutzer ziemlich egal, nur die Übertakter dürften sich ärgern.




Meine Wasserkühlung ist passiv, es ist egal ob mit Lüfter oder ohne, solange die Wärme gut an die Luft weitergebenen wird.

Und nein, die Menge machts auch nicht immer, es kommt auf die Effektivität der einzelnen Komponenten an.

Jein. Die Menge ist quasi mit der Effektivität gleichzusetzen, solange nicht jemand totalen Murks gebaut hat. Je mehr Oberfläche, desto besser ist die Kühlleistung, zumindest, wenn die Oberfläche auch ausgenutzt wird. Gerade mit ultraschnellen Wärmeleitern wie Heatpipes oder Wasserkühlungen ist sowas sehr gut möglich.


Meine Damen und Herren, es ist NICHTS unmöglich.

Alles nur eine Frage des Aufwands und des Geldes ;)

Ich dachte eigentlich, daß wir hier nicht über passive Kühllösungen diskutieren, sondern über ganz normale Möglichkeiten, einen Chip zu kühlen ;)
Passive Kühlung ist, auch wenn man's kaum vermuten würde, ein vollkommen anderes Geschäft, bei dem man auch andere Gegebenheiten beachten muß.


-huha

GloomY
2005-10-03, 03:36:11
bei AMD musst du keine angst haben, das du nen kompressor oder ne turbine brauchst... das traue ich da schon eher dem blauen riesen zu. ;)Bei Intel brauchst du noch viel weniger Angst haben. Die kommende Prozessorgeneration, die auf dem P-M aufbaut, hat ein TDP von 65 Watt für den Desktop und 90 Watt für den Serverbereich. Das sind überaus erfreuliche Zahlen :)

Bei AMD weiss man ja nicht, wie das in Zukunft aussehen wird. Allerdings ist die nächste Prozessorgeneration dort ja auch noch ein ganzes Stück weiter weg, während die bei Intel ja schon quasie vor der Haustür steht.

BlackBirdSR
2005-10-03, 11:03:14
die auf dem P-M aufbaut,


Ach und das weisst du so genau? :tongue:
Ich halte dagegen ;)

@Topic:

Huha hat es doch schön verdeutlicht.
Es geht nicht nur darum, wie gut sich die Wärme innerhalb des Kühlers ableiten lässt, oder wie gut man die Wärme vom Kühler an das umgebende Medium abgeben kann.
Einer der wichtigsten Punkte ist der Wärmetransfer von der CPU zum Kühler.
Egal wie groß man seinen Kühler dimensioniert, die größe der CPU die bestimmt am Ende maßgeblich, wie schnell man die Wärme abgeben kann.

Der Trend geht zu immer kleineren die-flächen mit immer kompakteren Schaltungen. Die Energieproduktion wird lokal in die Höhe schießen.
Da sind die Hesteller von Kühlmechanismen nunmal hiflos.
Hier sind wirklich AMD und Intel gefragt.. und nur an ihnen liegt es momentan.

up¦²
2005-10-03, 11:32:58
Obwohl: GPU, NB und SB-Cores haben die selben Probleme :wink:
Wenn man so einen niedlichen 90nm Chip sieht, wie soll man da 2d-Transfer realisieren? Wenn die Cores z.B. 5mm hoch wären, quasi 'künstlich', hätte man ±100% mehr Wärmetransferfläche :rolleyes:

GloomY
2005-10-03, 18:45:43
Ach und das weisst du so genau? :tongue:
Ich halte dagegen ;)Das wurde auf dem IDF gesagt. Die genaue Quelle habe ich jetzt nicht. Wenn du willst, begebe ich mich mal auf die Suche, was aber dauern kann...

edit: Achso, meinst du jetzt die Leistungsaufnahme oder die Tatsache, dass die nächste Generation (wahrscheinlich) auf dem P-M aufbaut? Letzteres ist nur eine Vermutung...

Coda
2005-10-03, 20:02:31
Sun wird demnächst seinen Niagara auf den Markt präsentieren. 8 CPU-Kerne, 4fach Multithreading, höhrere Taktraten wie die Einzelkerne der Vorgängereinzelkerne und dennoch verspricht Sun bei den Niagara reduzierte Wärmeabstrahlung, reduzierten Strombedarf!Das funktioniert nur in Serveranwendungen. Normale Apps bekommst du normal nicht so massiv parallelisiert.

BlackBirdSR
2005-10-03, 20:14:57
D dass die nächste Generation (wahrscheinlich) auf dem P-M aufbaut? Letzteres ist nur eine Vermutung...

bei einer 4-wide issue CPU scheint mir ein "baut auf dem PM auf" einfach nicht richtig.

GloomY
2005-10-03, 22:20:31
bei einer 4-wide issue CPU scheint mir ein "baut auf dem PM auf" einfach nicht richtig.Ist das Fakt für die kommende(n ) CPU?

Wenn ja, dann wäre das ein ziemliches Indiz für den P-M, weil dieser nämlich genau "4-wide Issue" ist (Klick (http://arstechnica.com/articles/paedia/cpu/pentium-m.ars/2)). Über die vier Ports können eben maximal 4 Befehle pro Takt an die Ausführungseinheiten übergeben werden. Das ist ja gerade die Definition von "4-wide issue".

Es heisst ja nicht, dass nur 4 Ausführungseinheiten vorhanden seien.

BlackBirdSR
2005-10-03, 22:22:34
Ist das Fakt für die kommende(n ) CPU?

Wenn ja, dann wäre das ein ziemliches Indiz für den P-M, weil dieser nämlich genau "4-wide Issue" ist (Klick (http://arstechnica.com/articles/paedia/cpu/pentium-m.ars/2)). Über die vier Ports können eben maximal 4 Befehle pro Takt an die Ausführungseinheiten übergeben werden. Das ist ja gerade die Definition von "4-wide issue".

Es heisst ja nicht, dass nur 4 Ausführungseinheiten vorhanden seien.

Es ist Fakt, aber nachdem was ich gehört habe, geht es hierbei um die Anzahl an Befehle die den Decoder verlassen, und die retired werden können.
Der K7 wäre in deinem Fall dann ja ein 6 oder 9 issue. Habe gerade nichts zum Nachschlagen, aber ich glaube es waren 9..
Aber darum gings gar nicht.

K7, P3, PM und P4 sind nach der Auslegung wie ich sie verstanden haben 3-issue wide.
3 rein, 3 raus.


http://images.anandtech.com/reviews/tradeshows/IDF/2005/Fall/Day1/NewArch/IMG_2638.jpg

Cyphermaster
2005-10-03, 23:41:08
Ich sehe das so:

- Die physikalischen Möglichkeiten für praktikable Kühlungs-Lösungen sind bekannt: Direkt-Luftkühlung, thermisch induzierte Wärmetransport-Kreisläufe (Heatpipes, "Superconductoren", ...), extern angetriebene Wärmetransport-Kreisläufe (Flüssigkühlungen) und Kühlungen, die mit Phasenwechsel bzw. elektrischen Effekten arbeiten (Kompressor oder Peltier).
- Es gibt drei Limitationen, die die thermischen Lösungen für CPUs bedingen:
1.: Die Abwärmemenge. Sie bedingt im Groben, wieviel Luft und Oberfläche die Kühllösung aufbieten muss.
2.: Die Wärmedichte (Watt/cm²). Sie setzt die Ansprüche an die Wärmeverteilungsfähigkeit der Kühlung.
3.: Der Wärmeübergang zwischen CPU-Kern, eventuellem Heatspreader und der Kühlung. Dieser Übergang ist nur schwer zu beeinflussen.

Die Abwärmemenge der CPUs unter Vollast ist in letzter Zeit relativ stabil. Desktop-Prozessoren bewegen sich seit den seligen Zeiten der ersten Athlons und Pentium III irgendwo zwischen ~35 für langsame und ~100 Watt für Top-Modelle einer Reihe. Allerdings stieg in Folge die Wärmestromdichte trotz allem immer mehr an, da die kaum effizienteren, aber leistungsfähigeren Kerne dank besserer Fertigungstechnologie schrumpften - mit dem Ergebnis, daß man von Alu-Kühlern auf Alu-Kühler mit Kupfer-Inlays wechseln mußte, und daß die vom CPU-Kühler umgewälzte Luft bzw. die Gehäusebelüftung (man denke an Seitenwandtunnel!) zusehends ansteigen mußte, um die Chips noch auf den gewohnten Temperaturen zu halten.
Da davon auszugehen ist, daß die Hersteller sowohl die kostengünstige und durch ihre Einfachheit sehr Fehler-unanfällige, konventionelle Luftkühlung beibehalten wollen, werden sie kaum die 100W-Marke bezüglich der Gesamt-Abwärmemenge auf breiter Front überschreiten. Ebenso ist davon auszugehen, daß die bestehenden Fertigungstechnologien für Chips+Boards weiterverwendet werden, da alles Andere immense Neuinvestitionen und ein Erfahrungslevel von nahe Null bedeuten würde - ein imho deutlich zu hohes Risiko, als daß man es in der jetzigen Situation eingehen würde. Was an möglichen Optionen für die Chipfabrikanten bleibt, ist damit überschaubar:
- effizientere Fertigung (kleine Strukturbreiten, "low-k"?, Low Voltage)
- effizienteres Design (auf große Fläche verteilte Hotspots, modulare Multi-Core)
- Hochsetzen der Kühlungs-Anforderungen

Ich erwarte deswegen auch zukünftig wenig Revolutionäres für die CPU-Kühlung, solange zu den Fertigungstechnologien von heute keine wirklichen Alternativen für den Massenmarkt existieren. Standard wird die Luftkühlung bleiben, wahrscheinlich mit ein paar neuen, höheren Mindestanforderungen (neuer Gehäuse-/Boardstandard, stärkere Kühler, mehr Platz auf den Boards für Grafikkartenkühlung,...); nicht zuletzt aber wegen der zunehmenden Platz-, Lärm- und Kostenprobleme bei Luftkühlung wird sich Flüssigkühlung noch weiter verbreiten, als sie das jetzt schon tut. Alles Andere (= deutlich teurer) bleibt für finanzstarke Overclocker.

GloomY
2005-10-04, 05:35:11
Es ist Fakt, aber nachdem was ich gehört habe, geht es hierbei um die Anzahl an Befehle die den Decoder verlassen, und die retired werden können.Issue hatte nie etwas mit Decoding oder Retirement zu tun. Es geht letztendlich darum, den Befehl "anzustoßen", d.h. seine eigentliche Verarbeitung zu beginnen.
Der K7 wäre in deinem Fall dann ja ein 6 oder 9 issue. Habe gerade nichts zum Nachschlagen, aber ich glaube es waren 9.Ja, es wären wohl 9. Dass der Dekoder nicht so viel liefern kann, macht ja nichts, weil ja auch nicht jeden Takt ein Befehl in den 9 Pipelines fertig wird.

Aber darum gings gar nicht.

K7, P3, PM und P4 sind nach der Auslegung wie ich sie verstanden haben 3-issue wide.
3 rein, 3 raus.Das hieße ja, dass die kommende Intel-Generation breiter als z.B. der Athlon wäre. Das kann ich mir nicht umbedingt vorstellen. Aber warten wir's ab :)

-error-
2005-10-05, 22:05:14
Da soviel in der letzte Woche über Lastertechnologie geredet wurde, aufgrund der Vergabe des Nobelpreises, an den deutschen Physiker.

Es gibt eine Methode, mit der man per Laser kühlen kann, hört sich ziemlich interessant an.

Wisst ihr da mehr?

TeeKay
2005-10-07, 21:43:17
http://de.wikipedia.org/wiki/Laserk%C3%BChlung

Thanatos
2005-10-08, 14:56:14
Lol, wenn science fiction Autoren sich sowas ausdenken lacht immer alle welt darüber, aber soäter funktionierts dann doch X-D


ist schon lustig X-D

Marc-
2005-10-14, 12:51:28
bei AMD musst du keine angst haben, das du nen kompressor oder ne turbine brauchst... das traue ich da schon eher dem blauen riesen zu. ;)

Bzw du bedenkst einfach wie die entsprechenden amd chipsaetze (nf3/4) die energie verballern und kannst dir in zukunft dafür gedanken über entsprechende kühlung machen, während die intel eigenen chipsätze (zumindest in dem berreich) recht genügsam sind.
Und um dir mal nen richtigen gefallen zu tun mein liieber fanboy... du wirst kaum behaupten können das der pentium m ein heizkraftwerk wäre... soviel zu dem thema. Zum anderen... rechne mal die verlustleistung der a64 cpus auf die entsprechende reale taktfrequenz von intel um... na? klickt da was?

Cyphermaster
2005-10-14, 13:34:51
Bzw du bedenkst einfach wie die entsprechenden amd chipsaetze (nf3/4) die energie verballern und kannst dir in zukunft dafür gedanken über entsprechende kühlung machen, während die intel eigenen chipsätze (zumindest in dem berreich) recht genügsam sind.
Nun gut, da aber die Chipsätze eben NICHT von AMD sind, ist das kein "Verdienst" von AMD, sondern nVidia. Außerdem gibt's auch andere Hersteller dafür, wie VIA und SIS...
Zum anderen... rechne mal die verlustleistung der a64 cpus auf die entsprechende reale taktfrequenz von intel um... na? klickt da was?
Kann man machen - nur ist das ein wayne...
Die Rechenleistung einer CPU ist Arbeit pro Zeit, dafür ist es uninteressant, ob es in einem Zeitfenster 12 Basis-Operationen x 100 Takte oder 24 Operationen x 50 Takte sind, weil insgesamt in jedem Fall 1200 Operationen ausgeführt werden (von der unterschiedlichen pro-MHz-Leistung rühren ja auch alle Performance-Ratings her, weil man dem Kunden sonst keinen halbwegs eingängigen Vergleich zum Vorgänger- oder Konkurrenzmodell bieten kann). Wenn du Vergleiche bei der Effizienz haben willst, dann müßtest du schon über Leistungsaufnahme/Rechenleistung gehen.

andr_gin
2005-10-15, 23:04:51
Der Pentium M ist nicht die Wunder CPU, wie viele glauben. Dieser basiert auf einer veralteten Architektur und wurde deshalb entwickelt, weil die aktuellen Prescotts in Notebooks nicht wirklich einsatzfähig sind. Der Pentium ist mit dem Athlon64 bei der IPC im Durchschnitt maximal gleichauf wenn nicht sogar langsamer. Der Athlon64 ist jedoch mit 2,8GHz erhältlich und der Pentium M mit maximal 2,26GHz.

Man kann nicht das Spitzenmodell einer Serie gegen das Einsteigermodell einer anderen Serie antreten lassen. Entweder man vergleich den Pentium M 2,26GHz gegen den FX-57 oder den Pentium M 1,6GHz gegen den Athlon64 3200+. AMD könnte genauso Low Voltage CPUs liefern.

AMD könnte genauso die besseren CPUs (z.B. FX-57) herausnehmen und mit 2GHz bei 1,1V ausliefern oder die schlechteren (3000+ und 3200+) mit 1,6GHz bei der selben Spannung ausliefern.

Umgekehrt müsste Intel ihre Pentium Ms auch mit 1,5-1,6V grillen, um auf 2,6GHz zu kommen und dann verbraten die auch soviel wie die AMD CPUs. Ich weiß es gibt auch Pentium Ms, die mit Standard VCore sich gut übertakten lassen, aber es geht hier um normale DAU-Rechner, die auch noch min. 200MHz Spielraum nach oben haben müssen selbst wenn die CPU am Limit (bei AMD 70Grad) läuft.

-error-
2005-10-16, 13:32:54
Kann man machen - nur ist das ein wayne...
Die Rechenleistung einer CPU ist Arbeit pro Zeit, dafür ist es uninteressant, ob es in einem Zeitfenster 12 Basis-Operationen x 100 Takte oder 24 Operationen x 50 Takte sind, weil insgesamt in jedem Fall 1200 Operationen ausgeführt werden (von der unterschiedlichen pro-MHz-Leistung rühren ja auch alle Performance-Ratings her, weil man dem Kunden sonst keinen halbwegs eingängigen Vergleich zum Vorgänger- oder Konkurrenzmodell bieten kann). Wenn du Vergleiche bei der Effizienz haben willst, dann müßtest du schon über Leistungsaufnahme/Rechenleistung gehen.

Genau so ist es, es zählt was rauskommt :)

BlackBirdSR
2005-10-16, 13:45:04
Der Pentium M ist nicht die Wunder CPU, wie viele glauben. Dieser basiert auf einer veralteten Architektur

Nur so nebenbei:
Das mit der veralteten Architektur würde ich jetzt nicht so sehen.
Der P5 würde so etwa in diese Richtung gehen, bzw der 386 würde voll in diesen Bereich passen.
Aber der P-M nutzt die gleichen Architekturzüge, die auch dem K7,K8 oder P4 zugrunde liegen.
Dass diese an einigen Stellen mehr, schneller oder fehlerbereinigt sind, ist ja wohl klar.
Dafür hat der PM Funktionen die "mehr, schneller und bereinigter" sind als be K8 oder P4.
Also weniger veraltet, als "schwach auf der Brust"
Das wird aber durch gewitze Optimierungen schwer versteckt.

TeeKay
2005-10-16, 21:03:59
Der Pentium M ist nicht die Wunder CPU, wie viele glauben. Dieser basiert auf einer veralteten Architektur und wurde deshalb entwickelt, weil die aktuellen Prescotts in Notebooks nicht wirklich einsatzfähig sind.

Faszinierend, dass Intel bereits im September 2000 (Das Timna-Entwicklungsteam ist fuer den Banias verantwortlich. Und der Timna wurde im September 2000 eingestellt.) wusste, dass eine sich noch in der Entwicklung befindliche Prozesstechnologie vier Jahre spaeter in Verbindung mit Netburst mal zu Problemen fuehren wuerde. Faszinierend auch, dass sie dann 2002 ihre Northwoods innerhalb eines Jahres voellig ohne Not um 50% im Takt steigerten. Wenn ich weiss, dass ich keinen adaequaten Nachfolger habe, reize ich doch mein bestehendes Produkt nicht innerhalb eines Jahres aus. An amds schwacher Thoroughbred- und Bartonkonkurrenz lags sicher nicht.