Archiv verlassen und diese Seite im Standarddesign anzeigen : Prescott: Fertigung mit Strained Silicon und Low-K
Quasar
2004-02-02, 22:42:27
Da haben wir's: Low-K ist doch böse, wie nVidia sagte. Selbst Prozess(or)-Gigant Intel scheint sich da (ok, man ist 1,5 Generationen weiter in der Prozesstechnik) ein klein wenig verschätzt zu haben - denn Prescott braucht wohl deutlich mehr Strom als ursprünglich vermutet. Die TDP liegt bei >100W für die derzeitigen Spitzenmodelle.
Interessante Parallele zum nV30 :)
Und Glückwunsch an ATi, deren RV360 offenbar keine Probleme mit Low-K hat! :up:
Endorphine
2004-02-02, 23:34:00
Sorry Quasar, aber ich bin dafür, dass der Thread in's Spekuforum umzieht.
Der Prescott ist keine GPU. Die Physik und das elektrische Verhalten des Kerns ist komplett anders. Der P1262 Prozess ist der erste 90 nm Prozess überhaupt (zu NV30-Zeiten gab es bereits 130 nm Fertigung rund um den Globus), der offiziell in die Massenfertigung übergegangen ist. Zudem hat sich die Auslieferung nicht um ein ganzes Jahr verspätet sondern lediglich um ein Quartal, wenn man den alten Roadmaps Glauben schenken darf. Die Parallelen gehen aus meiner Sicht gegen 0.
Das dort Zusammenhänge zur low-K Dielektrikumtechnik bestehen halte ich für eine sehr gewagte und weit hergeholte Spekulation. Übrigens ist gar nicht bekannt, wie Intel die Leistungsaufnahme bei der Entwicklung des Kerns einschätzte - oder weisst du da mehr als ich?
Passt der Thread wirklich hier her? :kratz2: Imho zu viel Spekulatius.
Quasar
2004-02-03, 02:30:43
Kein Grund sich zu entschuldigen - für seine Meinung!
Ich war mir auch nicht sicher, ob hier oder Speku, aber für eines musste ich mich entscheiden.
AFAIK hatte Intel geplant, daß die Top-Modelle (man wollte ja eigentlich gern mit 3.6GHz oder zumindest 3.4GHz als neues Top-Modell starten) ungefähr das an TDP haben, was aktuell die "Einstiegs"-Pressköpfe haben.
Klar, momentan dementiert Intel nach Kräften, von wegen ,09µ wäre nur aus Kostensenkungsgründen genommen worden, die Wärmeabgabe hängt hauptsächlich mit der Anzahl der Transistoren zusammen usw....
LOCHFRASS
2004-02-03, 02:47:01
Original geschrieben von Quasar
Interessante Parallele zum nV30 :)
Hmm, AFAIK zieht der NV30 etwa so viel wie ein NV25/28, offiziell sogar noch weniger, die großen Heizer sind eher R3x0 und NV35/38.
Quasar
2004-02-03, 03:16:43
Da bist du falsch informiert.
In 2D kann der nV30 zwar auf ähnliche Werte kommen, wie die GF4Ti (bei gleichem Chiptakt), aber das liegt auch bzw. eher daran, daß er nicht benötigte Teile abschalten kann, wie ein Mobilchip.
nV25/8 und R300 können das AFAIK nicht.
Endorphine
2004-02-03, 03:21:44
Original geschrieben von Quasar
Da bist du falsch informiert.
In 2D kann der nV30 zwar auf ähnliche Werte kommen, wie die GF4Ti (bei gleichem Chiptakt), aber das liegt auch bzw. eher daran, daß er nicht benötigte Teile abschalten kann, wie ein Mobilchip.
nV25/8 und R300 können das AFAIK nicht. Worauf stützen sich deine Aussagen? Beim NV30U stammen immerhin iirc schon rund 36 Watt der Kartenleistungsaufnahme allein vom DDR2-Speicher. Dann kommt noch die Verlustleistung der Spannungswandler, der Platine und etwas Kleinkram dazu. Sooo riesengross dürfte die Leistungsaufnahme der GPU selber nicht sein. Ich tippe mal auf 20 - 25 Watt...
Quasar
2004-02-03, 04:48:39
Original geschrieben von Endorphine
Worauf stützen sich deine Aussagen?
Auf Desktop-Idle Messungen, denn
Original geschrieben von Endorphine
Beim NV30U stammen immerhin iirc schon rund 36 Watt der Kartenleistungsaufnahme allein vom DDR2-Speicher. Dann kommt noch die Verlustleistung der Spannungswandler, der Platine und etwas Kleinkram dazu.
und trotzdem ist die Desktop-Idle Messung (die ja eine der reproduzierbarsten Szenarien überhaupt darstellt) bei GF4 Ti4600 und FX5800U bezogen auf das Gesamtsystem (welches in diesem Falle dank Idle ja keine große Rolle spielen dürfte) quasi identisch.
Original geschrieben von Endorphine
Sooo riesengross dürfte die Leistungsaufnahme der GPU selber nicht sein. Ich tippe mal auf 20 - 25 Watt...
In welchem Lastzustand?
HOT@Work
2004-02-03, 08:11:22
Original geschrieben von Endorphine
Worauf stützen sich deine Aussagen? Beim NV30U stammen immerhin iirc schon rund 36 Watt der Kartenleistungsaufnahme allein vom DDR2-Speicher. Dann kommt noch die Verlustleistung der Spannungswandler, der Platine und etwas Kleinkram dazu. Sooo riesengross dürfte die Leistungsaufnahme der GPU selber nicht sein. Ich tippe mal auf 20 - 25 Watt...
Klar. Deswegen braucht der ja auch nen Staubsauger als Kühlung :D
Der Speicher braucht nie im leben so viel...
StefanV
2004-02-03, 08:16:46
Original geschrieben von HOT@Work
Der Speicher braucht nie im leben so viel...
Doch, das tut er!!
Hatte selbst ja 'ne FX5800 und ich kann dir versichern, daß die vom Speicher aufgeheizt wurde...
Was Demi sagt (http://forum-3dcenter.de/vbulletin/showthread.php?s=&postid=1539069#post1539069)...
BlackBirdSR
2004-02-03, 08:55:37
Original geschrieben von Quasar
Da haben wir's: Low-K ist doch böse, wie nVidia sagte. Selbst Prozess(or)-Gigant Intel scheint sich da (ok, man ist 1,5 Generationen weiter in der Prozesstechnik) ein klein wenig verschätzt zu haben - denn Prescott braucht wohl deutlich mehr Strom als ursprünglich vermutet. Die TDP liegt bei >100W für die derzeitigen Spitzenmodelle.
Interessante Parallele zum nV30 :)
Und Glückwunsch an ATi, deren RV360 offenbar keine Probleme mit Low-K hat! :up:
AMD hatte auch Probleme mit der Integration von Low-K.
Aber am Ende scheint das ganz gut zu funktionieren.
Zumindest hört man bei AMD niemanden jammern.
Das ist schonmal ein gutes Zeichen *g*
Low-K ist nicht böse. Es ist genauso eine Herrausforderung wie SOI, Strained Silicon oder ein neues Material in eine bestehenden Prozess einzugliedern. Das geht zu Beginn selten gut.
Zudem musst du bedenken: Bisher sind wir uns nicht im klaren, wo ca 40Millionen Transistoren stecken. Man muss davon ausgehen, dass es sich hier um Logiktransistoren handeln könnte, die bereits schalten. (zumindest Teilweise)
Vielleicht liegt auch nur das Taktsignal an (produziert heutzutage eh bereits einen großen Teil der Verlustleistung). Das sind mal locker doppelt so viele Logikschalter wie beim NW. Kein Wunder, dass da die Kacke am Dampfen ist.
Und wenn man die Berichte so verfolgt, dampft es ordentlich unterm Kühler :)
aja, damit mir hier keiner was wegen Belegen und Quellen vordampft ;)
http://www.siliconinvestor.com/stocktalk/msg.gsp?msgid=19760652
Lustig sag ich nur... jetzt da ich meine Stromrechnung selbst zahlen muss, kauf ich mir wohl kein Intelsystem mehr *fg+
Endorphine
2004-02-03, 09:44:21
Original geschrieben von HOT@Work
Klar. Deswegen braucht der ja auch nen Staubsauger als Kühlung :D
Der Speicher braucht nie im leben so viel... Dann schau dir die Datenblätter an, wenn du es nicht glaubst.
Endorphine
2004-02-03, 09:46:27
Original geschrieben von Quasar
Auf Desktop-Idle Messungen, Ah, dein Leistungsaufnahmeartikel also. :) Original geschrieben von Quasar
In welchem Lastzustand? Volllast. Ist aber eh nur Spekulation von meiner Seite...
Quasar
2004-02-03, 10:49:20
@Endo:
Ist's nicht furchtbar seriös, sich selbst als Quelle herzunehmen? ;)
25W unter Voll(l)ast schätze ich aber beim nV30U als zu niedrig angesetzt. Gut, die echten GPU-Werte kann ich zwar nicht belegen, sondern nur laienhaft schätzen, bzw. versuchen zu deduzieren, aber es sind meiner Ansicht nach schon deutlich über 35W (die rechnerische Burst-Verlustleistung der RAM-Chips sollte schlimmstenfalls ebenso hoch liegen, IMO).
@SR-71:
Hm, ja. Erstens wußte ich nicht, daß AMD das schon erfolgreich verwendet (baue also meine Glückwünsche auf die zweite A-Company aus!) und zweitens, wenn du recht hast und die mysteriöse ~40M Transistoren wirklich überwiegend Logik sind, dann ist zwar die Leistungsaufnahme einigermaßen geklärt, aber dann muß sich Intel die Frage gefallen lassen: WTF ???!?!!einszweielfzwölf :)
BlackBirdSR
2004-02-03, 12:17:57
Original geschrieben von Quasar
und zweitens, wenn du recht hast und die mysteriöse ~40M Transistoren wirklich überwiegend Logik sind, dann ist zwar die Leistungsaufnahme einigermaßen geklärt, aber dann muß sich Intel die Frage gefallen lassen: WTF ???!?!!einszweielfzwölf :)
ich gehe einfach mal vom worst case aus.
Wer weiss, was Intel noch im Prescott hat.
Laut Ace's sagt Intel ja aus, dass eine Menge Transistoren auf Debugging etc verschwendet wurden.
Aber 40 Millionen? WTF ist da noch zu brav :)
Aqualon
2004-02-03, 14:16:03
Original geschrieben von BlackBirdSR
aja, damit mir hier keiner was wegen Belegen und Quellen vordampft ;)
http://www.siliconinvestor.com/stocktalk/msg.gsp?msgid=19760652
Extrem finde ich vorallem die Steigerung von Idle zu Vollast beim Prescott-System (Werte von ZDNet UK (http://reviews.zdnet.co.uk/hardware/processorsmemory/0,39024015,39145079-2,00.htm)).
Prescott 3.2GHz @Asus P4C800 w/ R9800Pro
165W -> 248W = 50,3%
Prescott 3.2GHz @Intel D875PBZ w/ R9800Pro
145W -> 242W = 66,9%
Auch das Northwood-System ist bei den Steigerungen gut dabei, aber vom absolutem Verbrauch um einiges geringer.
Northwood 3.2GHz @Asus P4C800 w/ R9800Pro
125W -> 179W = 43,2%
Northwood 3.2GHz @Intel D875PBZ w/ R9800Pro
113W -> 182W = 61,1%
Zum Vergleich der Athlon64 3200+
Athlon64 3200+ @Asus K8V Deluxe w/ R9800Pro
158W -> 168W = 6,3%
(120W bei C'n'Q)
Athlon64 3200+ @Fujitsu Siemens D1607 w/ R9800Pro
148W -> 156W = 5,4%
(110W bei C'n'Q)
Was hier stark auffällt ist, dass der A64 kaum mehr Leistung im Vollast-Modus im Vergleich zum Idle braucht, was nicht gerade für den Idle-Mode des Athlon spricht. Aber durch Cool'n'Quiet gleicht sich das wieder aus.
Zum zweiten sind auch die Unterschiede zwischen den einzelnen Boards nicht gerade wenig. Die 20W Idle-Mehrverbrauch des P4C800 im Vergleich D875PBZ sind nicht gerade wenig.
Und als letztes ist der Unterschied zwischen A64 und Prescott eklatant hoch. Zwischen 80-90W Unterschied zuungunsten des Prescott im Vollast-Modus bei ungefähr derselben Leistung ist meiner Meinung nach nicht vertretbar. Da hat AMD eindeutig den besseren Job gemacht.
Die Antwort auf die Frage, wieviel Watt zukünftige Prescott-Systeme mit bspw. einem 4GHz Prescott brauchen werden, will ich gar nicht wissen.
Aqua
Ergänzung: Es wäre wirklich mal interessant, wieviele Unterschiede im Verbrauch eines Systems vom Motherboard abhängen. Die gemessenen 10W-20W Differenz ergeben bei einem 24/7-System einen Mehrverbrauch von 1,7KWh bis 3,4KWh pro Woche! Gibt es überhaupt Motherboardtests, die auf den Verbrauch eingehen?
Quasar
2004-02-03, 14:54:24
Original geschrieben von Aqualon
Gibt es überhaupt Motherboardtests, die auf den Verbrauch eingehen?
Ja, jeder in der c't tut das (und zwar schon seit längerem).
Tigerchen
2004-02-03, 15:10:13
Ist es nicht erstaunlich daß die TDP des Prescott exakt so hoch ist wie die schon im Herbst bekannt gewordene. Kann es sein daß das Redesign (wurde in der CT' glaub ich bestätigt) entweder gar nicht stattgefunden hat oder in die Hose gegangen ist? Würde jedenfalls die befremdliche Tatsache erklären daß das neue Spitzenmodell kein Prescott ist.
Spinne ich den Faden weiter komme ich zu dem Schluß daß der wahre Prescott erst in ein paar Monaten zusammen mit dem neuen Sockel erscheint.
Aqualon
2004-02-03, 15:31:55
Original geschrieben von Quasar
Ja, jeder in der c't tut das (und zwar schon seit längerem).
Darauf habe ich ne Weile nicht geachtet, weil ich die Unterschiede als nicht sonderlich groß angesehen hab. Aber es scheint doch lohnenswerter zu sein darauf zu achten, als ich bisher gedacht habe.
Aqua
zeckensack
2004-02-03, 15:44:23
Quasar, Endo,
Wollemer jetzt ins Speku-Forum umziehen, oder nicht?
Ich denke, dagegen spricht, dass strained silicon und Low-K eben der von Intel angegebenen Fertigungstechnik entspricht. Wenn die hohe Leistungsaufnahme unter Last mit dem Prozess zusammenhängt (was sie ja eigentlich muss!?), dann spielen diese beiden Dinge da ganz sicher mit hinein.
Für Speku-Forum spricht, dass wir's eigentlich doch wieder nicht sooo genau wissen können. Schliesslich sind ja auch die mysteriösen Millionen von Transistoren hinzugekommen.
IMO kann es hier bleiben. Wäre der Threadtitel "Warum ist die Leistungsaufnahme des Prescott so hoch?" gewesen, wäre der Thread auch vom Titel her eindeutig hier richtig. Und man hätte die gleichen Punkte anbringen können.
Quasar
2004-02-03, 15:51:29
Tu' wie du willst (verschieben, umbenennen). Der Thread bleibt ja derselbe. :)
Mehrpack
2004-02-04, 02:09:19
Original geschrieben von Tigerchen
Ist es nicht erstaunlich daß die TDP des Prescott exakt so hoch ist wie die schon im Herbst bekannt gewordene. Kann es sein daß das Redesign (wurde in der CT' glaub ich bestätigt) entweder gar nicht stattgefunden hat oder in die Hose gegangen ist? Würde jedenfalls die befremdliche Tatsache erklären daß das neue Spitzenmodell kein Prescott ist.
Spinne ich den Faden weiter komme ich zu dem Schluß daß der wahre Prescott erst in ein paar Monaten zusammen mit dem neuen Sockel erscheint.
hi,
mhh vielleicht ist es nicht in die hose gegangen bzw hat nicht stattgefunden, sondern findet immer noch statt?
vielleicht müssen sie da mehr ändern als gedacht, aber um nicht noch mehr verzug reinzubekommen und um ihre patner zubeliefern, liefern sie das alte stepping aus, bis man mit dem neuen fertig ist.
weil imho würde es Intels ruf mehr schaden, wenn sie 3 oder 4 Monate verzug haben, als wenn sie nen Prozessor ausliefern 10 grad wärmer ist als der alte.
nur so ne idee.
Mehrpack
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.