PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD patentierte 'Peltier cooler on chip'?


up¦²
2004-10-21, 14:07:43
http://www.theinquirer.net/?article=19205

Wär ja genial :biggrin:

StefanV
2004-10-21, 14:21:45
Sorry, aber das ist schon aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaalt ;)

joe kongo
2004-10-21, 14:23:22
http://www.theinquirer.net/?article=19205

Wär ja genial :biggrin:

high speed, aber noch mehr high power.

Quasar
2004-10-21, 14:24:02
Ein Mini-Pelztier zwischen DIE und IHS wäre doch mal witzig.... und evtl. sogar brauchbar, um dem Effekt entgegenzuwirken, daß eine offenbar nicht geringer Menge an Wärmeenergie auf einer immer geringer werdenden Fläche freigesetzt wird.

Und halbwegs isoliert sollte der Zwischenraum ja auch schon sein.

RLZ
2004-10-21, 14:31:47
Das Gerücht gabs doch schon vor Jahren als die Leute über den K8 anfingen zu spekulieren. :|
Ich halts auch heute noch für unwahrscheinlich, dass die 100W durch ein Peltier pumpen wollen. Bei dem Wirkungsgrad der Peltiers ein Unding....

up¦²
2004-10-21, 15:15:32
United States Patent 6,800,933
Mathews , et al. October 5, 2004

Also so'n bart hat das nicht, SP, oder?

Cyphermaster
2004-10-21, 15:44:04
Das Ganze soll ja wohl eher eine Möglichkeit sein, wie Mini-Peltiers im Chip integriert werden. In Anbetracht der zusätzlichen MoBo-Belastung wäre das imho aber nur eine Umverteilung des Problems und ginge zu Lasten der Effizienz. Eine in harten °C verbesserte Kühlung ist laut dem Artikel doch gar nicht angedacht, sondern nur eine bessere Wärmeverteilung, um noch kleinere Fertigungsprozesse mit bestehender Luftkühlung überhaupt noch beherrschen zu können.

Fruchti
2004-10-22, 17:43:29
Das Pelztier gibt aber doch (IMHO) doppelt so viel Wärme ab wie es aufnimmt.
Da müsste man schon richtig Probleme mit Hotspots bekommen das sich sowas rechnet.

smoe82
2004-10-25, 12:36:01
Das Pelztier gibt aber doch (IMHO) doppelt so viel Wärme ab wie es aufnimmt.
Da müsste man schon richtig Probleme mit Hotspots bekommen das sich sowas rechnet.


Ja, aber man kann die Wärme auf eine größere Fläche verteilen. Außerdem ist sie erst mal "weg" vom Prozessor.

Die Effektivität eines Peltierelementes hängt schon noch davon ab, wieviel Wärme man wie schnell transportieren will. Klar, wenn ich ein 200 Watt Peltier auf eine 60Watt CPU pflanze und auf -20Grad kühle, dann ist die Effektivität sehr niedrig. Wenn man Alles ordentlich aufeinander abstimmt, kann man auf etwa 80-90 Prozent Ausbeute kommen.

Das läßt sich noch in Kauf nehmen, wenn man dafür die Kühlung grundlegend vereinfacht.

Desweiteren kann man auch bei versagender Kühlung den Takt schon drosseln, wenn der Widerstand im Peltier steigt und nicht erst, wenn die CPU bei 90Grad läuft. Das wäre sogar noch besser für die Lebensdauer der CPU.

Cyphermaster
2004-10-25, 12:59:19
Das Pelztier gibt aber doch (IMHO) doppelt so viel Wärme ab wie es aufnimmt.
Da müsste man schon richtig Probleme mit Hotspots bekommen das sich sowas rechnet.

Ja. Und? Genau so sieht das doch derzeit aus...

Darkstar
2004-10-25, 20:31:40
Sorry, aber das ist schon aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaalt ;)Ich kann es mir bildlich vorstellen, wie einige AMD-Techniker mit einem bei Motorola aus dem Museum geraubten Apple PowerMac (die hatten Mitte der 90er Peltier-Onboard) beim US-Patentamt vorstellig geworden sind.
;D ;D ;D

Cyphermaster
2004-10-26, 18:07:20
Mich wundert da eher, daß das AMD war, und nicht Intel...

Allgemein ist ja mittlerweile wirklich die Frage, ob ein PC unbedingt >300W verbrauchen MUSS, angebracht. Bislang haben sich immer weiter Hochleistungs-Superboliden von Rechnern entwickelt, die mittlerweile sowohl thermisch, wie lärmtechnisch nur unter Mühen beherrschbar bleiben. Unter effizientem Design verstehe ich etwas anderes, als etwas, das man nur über zig Umwege überhaupt noch nutzen kann. Irgendwann sind dann nur noch 50% überhaupt Brerechnungs-Schaltkreise auf der CPU, der Rest dient nur dazu, sie stabil zu bekommen... :mad:

Eines meiner liebsten Beispiele hierzu ist die Grafikkarten-Welt. Wenn man sich ansieht, daß es eine spottbillige Kyro2 (preislich um die billige GF2-MX gelegen seinerzeit) mit Taktfrequenzen von 175MHz, SD-RAM und um die 5 Watt schafft/schaffte, mittels intelligenter Technik und trotz fehlendem T&L-Chip in die Leistungs-Liga der GF2-Ti200 (bis zu 32 Watt!) zu kommen, dann sieht man doch, wo's verkehrt läuft.
Ebenfalls ziemlich untergegangen ist die Serie der "Wildcat" Grafikkarten mit ihren programmierbaren Untereinheiten. Es ist doch imho eine geniale Idee, den Chip genau so arbeiten zu lassen, wie man's grade braucht. Keine Shader notwendig? Ok, dann lassen wir die freiwerdende Leistung doch den Frameraten zugute kommen, oder schalten sie einfach zum Stromsparen ab...

BlackBirdSR
2004-10-26, 19:01:20
Irgendwann sind dann nur noch 50% überhaupt Brerechnungs-Schaltkreise auf der CPU, der Rest dient nur dazu, sie stabil zu bekommen... :mad:


Sind doch zumindest bei x86 und IA64 eh schon (teilweise viel) weniger als 50%. Der Rest ist Cache.
Allerdings wird die Verdrahtung und Fertigung immer extremer, nur um die CPUs noch bei so hohen Taktraten stabil zu halten.
Und das schönste ist sowieso immer das Layouten: Alles so im Chip anordnen, dass Hotspots erträglich bleiben und trotzdem noch alles funktioniert ;D


Eines meiner liebsten Beispiele hierzu ist die Grafikkarten-Welt. Wenn man sich ansieht, daß es eine spottbillige Kyro2 (preislich um die billige GF2-MX gelegen seinerzeit) mit Taktfrequenzen von 175MHz, SD-RAM und um die 5 Watt schafft/schaffte, mittels intelligenter Technik und trotz fehlendem T&L-Chip in die Leistungs-Liga der GF2-Ti200 (bis zu 32 Watt!) zu kommen, dann sieht man doch, wo's verkehrt läuft.
Ebenfalls ziemlich untergegangen ist die Serie der "Wildcat" Grafikkarten mit ihren programmierbaren Untereinheiten. Es ist doch imho eine geniale Idee, den Chip genau so arbeiten zu lassen, wie man's grade braucht. Keine Shader notwendig? Ok, dann lassen wir die freiwerdende Leistung doch den Frameraten zugute kommen, oder schalten sie einfach zum Stromsparen ab...

Kyro2 war schon nett. Allerdings ist es egal ob bei Prescott oder NV40 doch immer das Gleiche.
Um wenige neue Funktionen/Leistung hinzuzufügen braucht man unverhältnismäßig viele Transistoren/Abwärme.
Das läuft nicht unbedingt verkehrt... es läuft nur nicht gerade positiv für uns.

Es geht doch am Ende nur um die Leistung. Egal wie viele Leute leise Rechner haben wollen, oder sich über 104W+ aufregen, nur die Leistung verkauft leider das Produkt. Und dann haben auch Ideen wie Rendition Grafikkarten (RISC Chip) und die 3DLabs P10/11 mit den programmierbaren Prozessoren keine große Chance.

Ich will jetzt nicht sagen: Alles Scheisse :).. aber irgendwann rennen wir wohl einfach stupide gegen die große Mauer. Und dann bin ich gespannt wie sich die Mentalität ändern wird.

Lieben Gruß an den Stern.

Huhn
2004-10-26, 20:38:28
Mich wundert da eher, daß das AMD war, und nicht Intel...

Allgemein ist ja mittlerweile wirklich die Frage, ob ein PC unbedingt >300W verbrauchen MUSS, angebracht. Bislang haben sich immer weiter Hochleistungs-Superboliden von Rechnern entwickelt, die mittlerweile sowohl thermisch, wie lärmtechnisch nur unter Mühen beherrschbar bleiben. Unter effizientem Design verstehe ich etwas anderes, als etwas, das man nur über zig Umwege überhaupt noch nutzen kann. Irgendwann sind dann nur noch 50% überhaupt Brerechnungs-Schaltkreise auf der CPU, der Rest dient nur dazu, sie stabil zu bekommen... :mad:

Eines meiner liebsten Beispiele hierzu ist die Grafikkarten-Welt. Wenn man sich ansieht, daß es eine spottbillige Kyro2 (preislich um die billige GF2-MX gelegen seinerzeit) mit Taktfrequenzen von 175MHz, SD-RAM und um die 5 Watt schafft/schaffte, mittels intelligenter Technik und trotz fehlendem T&L-Chip in die Leistungs-Liga der GF2-Ti200 (bis zu 32 Watt!) zu kommen, dann sieht man doch, wo's verkehrt läuft.
Ebenfalls ziemlich untergegangen ist die Serie der "Wildcat" Grafikkarten mit ihren programmierbaren Untereinheiten. Es ist doch imho eine geniale Idee, den Chip genau so arbeiten zu lassen, wie man's grade braucht. Keine Shader notwendig? Ok, dann lassen wir die freiwerdende Leistung doch den Frameraten zugute kommen, oder schalten sie einfach zum Stromsparen ab...
wildcat? das ist doch die profi cad maya Karte. dachte die sei absolut ungeeignet für spiele etc...... ausserdem ist ja gerade die spezialisierung der grakas auf bestimmte sachen ihre stärke. zum vergleich nehme ich jetzt einfach mal die spieleconsolen. die spiele werden auf diese consolen optimiert und deshalb leben diese consolen auch 4-5 jahre und schaffen trotzdem noch die neuesten spiele. 2 beispiele wäre der leistungsvergleich in 3dmark05 zwischen den cpu tests und den game tests. die graka ist um ein vielfaches leistungsfähiger weil sie eben spezialisiert ist. ohne diese spezialisierung wären grakas um welten langsamer imho.
zudem son 100 watt pelztier wäre unsinn. vor allem für leute die übertakten wollen. was nützt mir ein peltier wenns ab einer bestimmten leistungsaufnahme der cpu den effekt umdreht und die cpu auch noch heizt? (schlecht ausgedrückt ich weiss aber diejenigen die etwas ahnnung von pelzis haben wissen was ich meine) ein peltier ist zudem für cpukühlung zur heutigen zeit völlig ungeeignet und total unwirscthaftlich. so braucht man um eine cpu unter 0 kühlen zu wollen heut schon 230 watt pelzis oder sogar noch stärkere. diese produzieren aber dann auch diese 230 watt an Hitze zusätzlich (korrigiert mich wenn ich da falsch liege ) welcher kühler soll denn 310 watt aufnehmen (cpu verlustleistung mal auf 80 watt angenommen) peltiers lohnen imho nur noch mit wakü und selbst da wirds eng. also da sind ja kompressorkühlung wirtschaflicher. die brauchen nämlich weniger leistung und sind deutlich leistungsfähiger. das einzige anwendungsgebiet für pelzis meiner meinung nach sind grakas und selbst da siehts für die zukunft düster aus. (ich sag nur 2 12v anschlüsse für die 68 ultra ;) ) als beispiel könnte man hier dne swiftech mcw50-t nehmen dessen 80 watt pelztier für viele graks nicht mehr reicht und der kühler somit schlechtere temps liefert als ohne peltier. häufig wird dann in diesen kühler ein 180 watt pelztier eingebaut. also wenn das mal nciht umwirtschaftlich ist dann weiss ich auch nicht mehr

Cyphermaster
2004-10-27, 09:05:59
Alle Grafikkarten sind prinzipiell auf bestimmte Arten von Berechnungen spezialisiert, wie sie bei Grafiken vorkommen, das ist nicht der Punkt. Und auch Spielkonsolen leben nicht davon, daß die Grafikkarten so super spezialisiert wären (erkundige dich mal, was für Chips da verbaut werden!), sondern daß die Programmierer einfach durch die vorherbestimmt langen Serienlaufzeiten gezwungen sind, mit den vorhandenen Effekten auszukommen, und die Features optimal zu nutzen. Man könnte heutzutage z.B. auch mit Environmental Bumpmapping mit etwas Programmier-Aufwand vieles in vergleichbarer Qualität darstellen, was derzeit über andere Funktionen erledigt wird - nur sind die neuen Funktionen der GPUs bezüglich Einfachheit der Programmierung und/oder Realismus der Darstellung überlegen, also passen sich die Programmierer eben an und machen sich nicht mehr Streß als nötig. Bei ner Konsole wird das Spiel der Hardware angepaßt, weil's sich sonst nicht verkauft - beim PC fordert man einfach neueste Hardware, damit man mit "überlegener Grafik" in Spielemagazinen protzen und den Verkauf ankurbeln kann...

Die Universalität der P9/10-Chips, die ich meine, liegt darin, daß im Chip praktisch gleiche Untereinheiten vorliegen, die je nach Anforderung alle möglichen Sachen machen können. Das heißt, während bei einem "konventionellen" Chip ein Teil je nach Fall unwiderruflich ungenutzt rumgammelt, kann ein P9/P10 den ungenutzten Teil jederzeit so umprogrammieren, daß er für die grade notwendigen Rechnungen genutzt werden kann. Theoretisch könnte man damit auch Grafikkarten bauen, die auf jeweils neueste Funktionen/Features geupdated werden können. Shader 1.1, 1.3, 2.0, 2.0+, 3.0, ...

Das heißt nun nicht zwingend, daß der Chip eine Spiele-Granate wäre (war die Kyro2 auch nicht; außerdem kann man die Roh-Rechenleistung ja nicht updaten); nichts desto trotz ist die Grundidee sehr effektiv, weil man mit wenig Strom/Silizium viel Leistung bekommt.

Bezüglich der Peltiers: Es geht nicht darum, den kompletten Chip mit einem Peltier zu überziehen; vielmehr sollen kleine "Mikro-Peltiers" im Chip Wärme besser verteilen, bzw. an den Kühlkörper weitergeben. Damit kann man nicht den ganzen Chip kühlen, höchstens relativ "tief" gelegene Hotspots im Silizium entlasten.

[P.S.: Im Übrigen: Es dreht sich hier um Technologie, nicht nur um die Nische der Spiel-Performance; wir könnten also auch drüber reden, wie gut die P9/P10s sich in CAD-Maschinen machen, oder wie die nächsten integrierten Office-Grafikchips aussehen...]

Gast
2004-10-27, 09:24:54
Ich kann mir nicht vorstellen, das man bei AMD normale Peltier-Elemente einsetzen will. Die haben ja nur eine Effizienz von 5-8%. Coolchips wären hier wohl besser geeignet, außer ich bin auf dem komplett falschen Dampfer :


http://www.coolchips.gi/

Cyphermaster
2004-10-27, 10:27:27
Cool Chips wären zwar besser als normale Peltiers - aber ich kann mir nur schwer vorstellen, wie AMD dann die nötigen Spalte in der CPU so zielgenau erzeugen könnte. Ich denke, bei solchen Details werden wir abwarten müssen, bis es jemand baut, kauft und wieder zerlegt + analysiert hat...

OBrian
2004-10-28, 01:19:00
Mich wundert da eher, daß das AMD war, und nicht Intel...
Ich hab mal vor einiger Zeit einen Vergleich gesehen, der besagte, daß die Transistoren bei AMD allgemein dichter gepackt sind, das mag ein Grund sein (falls das überhaupt noch zutrifft, dabei gings um AthlonXPs).

Außerdem benutzt AMD ja im Gegensatz zu Intel SOI, damit haben sie zwei weitere Phasengrenzen innerhalb des Chips, was den Wärmetransport nicht gerade fördern dürfte. Zwar gehen dadurch die Leckströme deutlich runter, was die gesamten Verbrauch senkt, aber die Hotspot-Probleme dürften damit eher etwas anwachsen.

An der Stelle könnte ich mir dieses neue Patent vorstellen: Ein paar Peltierelemente zwischen bestimmte Bereiche gesetzt, die z.B. die Hitze aus den FPU-Pipelines einen Mikrometer weitertragen (nicht unbedingt nach oben, sondern auch seitlich verteilen). Wenn dadurch der gesamte Verbrauch wieder 5W ansteigt, dürfte das verkraftbar sein.

²Thom
2004-11-02, 17:47:01
Die sollen sich lieber ein Verfahren auf Kohlenstoffbasis bzw. Diamant patentieren lassen. Irgendwas mit gehalt und Zukunft. :biggrin: