PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 4.0 GHz Pentium 4 verschiebt sich


FeuerHoden
2004-07-31, 18:17:11
http://www.tomshardware.de/news/20040730_094957.html

Da hat sich wohl jemand zuviel vorgenommen ;)

LOCHFRASS
2004-07-31, 18:34:40
Erinnert irgendwie an den Krampf mit dem A64/Opteron :D

Duran05
2004-07-31, 18:44:26
Wo ist das Problem?

... Intel hat bis jetzt 200 MHz Schritte eingelegt.
Kein Wunder, das es mal harkt.

AMD geht es aber nichts anders. Die werden jetzt nicht weit davon ziehen. Da mach dir mal keine Hoffnungen :)

Stone2001
2004-07-31, 19:56:42
Original geschrieben von theSpy
Wo ist das Problem?

... Intel hat bis jetzt 200 MHz Schritte eingelegt.
Kein Wunder, das es mal harkt.

AMD geht es aber nichts anders. Die werden jetzt nicht weit davon ziehen. Da mach dir mal keine Hoffnungen :)
Das AMD davon ziehen wird, naja, das muß noch viel Wasser den Rhein hinab fliesen, damit sowas passiert. ;)
Aber anders als Intel, kann AMD alle veröffentlichten Prozessoren liefern! (Zumindest sind mir keine Lieferschwierigkeiten für den x50 oder FX-53 bekannt)

Bandit666
2004-07-31, 20:46:47
Flamewar ahoi!!!





Intel hat durch personelle Änderung in der mittleren Etage nun die Planung hinsichtlich der reinen (!!) Taktraten bissl umgeworfen!!

Huuuuiiiii.Wie Pöse von Intel!Zum Glück macht das AMD ja nie!

"AMD unser im Netz
geheiligt werden deine Prozzies
deine 128Bit komme,
dein Wille geschehe
wie beim Benchen so auch beim Rechnen,
unser täglich Adrenalin gib uns heute
und vergib uns unser schlechten Kühlung,
wie auch wir vergeben der noch schlechteren Kühlung,
den dein is die Kälte
und das CooNQuiet und die 64Bit
in ewigkeit
Amen"




:crazy:

Endorphine
2004-07-31, 20:59:05
Ist doch schon seit längerem bekannt, dass die Jagd nach höchsten Kerntaktraten vorerst nicht in gleichem Maße wie in den letzten Jahren fortgesetzt wird. Wo ist die Neuigkeit?

Ich bin gespannt, ob der Tejas noch kommt, oder ob es gleich eine Desktopvariante vom Dothan mit EM64T, SMT und execute disable geben wird. 2005 werden die Karten wieder neu gemischt.

BlackBirdSR
2004-07-31, 21:27:15
Original geschrieben von Bandit666

deine 128Bit komme,
:crazy:

das erleben wir beide nicht mehr :)

VooDoo7mx
2004-07-31, 22:29:37
Original geschrieben von Bandit666
Flamewar ahoi!!!





Intel hat durch personelle Änderung in der mittleren Etage nun die Planung hinsichtlich der reinen (!!) Taktraten bissl umgeworfen!!

Huuuuiiiii.Wie Pöse von Intel!Zum Glück macht das AMD ja nie!

"AMD unser im Netz
geheiligt werden deine Prozzies
deine 128Bit komme,
dein Wille geschehe
wie beim Benchen so auch beim Rechnen,
unser täglich Adrenalin gib uns heute
und vergib uns unser schlechten Kühlung,
wie auch wir vergeben der noch schlechteren Kühlung,
den dein is die Kälte
und das CooNQuiet und die 64Bit
in ewigkeit
Amen"




:crazy:

:unterschreib:

Allin schon dieses "hihihi" lässt meine Stirn gewaltig runzeln.

Original geschrieben von BlackBirdSR
das erleben wir beide nicht mehr :)

Willst du so jung sterben? ;)

@Stone

Wo ist dein problem? Die brandneuen LGA775 P4, vom P4 520-560 sind alle ohne Probleme in Deutschland zu bekommen.

Der Grund der Verschiebung ist übrigens, das Intel ähnlich wie bei der Alviso Platform, keinen Paperlaunch hinlegen möchte.
Ende diesen Jahres, wird es sicher schon einige 4,0GHz P4 580 geben, nur halt nicht genügend für den Markt. Da kommt der Prozessor eben etwas später und ist dabei aber sofort verfügbar.

Ich Frage mich übrigens gerade, wie weit Intel den Prescott übrigens treiben will? Bei 4,2 oder 4,4GHz sollte doch allerspätestens Schicht im Schacht sein?

Gast
2004-07-31, 22:31:34
Wofür 4 GHz?

1066er FSB, 2MB L2 Cache u. DDR2/667 reichen doch schon um im 4. Quartal wieder die Führung zu übernehmen.

Bandit666
2004-07-31, 22:32:41
Ich glaube irgendwo gelesen zu haben das der Presskopf mit nochmaliger leichter interner Veränderung bis 4,4GHz gehen soll/muss/wird/könnte.


mfg

DeadMeat
2004-07-31, 23:21:32
Original geschrieben von Gast
Wofür 4 GHz?

1066er FSB, 2MB L2 Cache u. DDR2/667 reichen doch schon um im 4. Quartal wieder die Führung zu übernehmen.

Angeblich sollen nur die EEs das bekommen... obs stimmt weiss ich nicht

Stone2001
2004-07-31, 23:28:46
Original geschrieben von VooDoo7mx
@Stone

Wo ist dein problem? Die brandneuen LGA775 P4, vom P4 520-560 sind alle ohne Probleme in Deutschland zu bekommen.

hmm, ich kenne deine Quellen nicht und bin auch kein wirklicher Experte was die Verfügbarkeit betrfft, aber Heise.de hat hier (http://www.heise.de/newsticker/meldung/49604) noch gemeldet, das Intel für den P4 560 Lieferschwierigkeiten hat!

HellHorse
2004-07-31, 23:30:54
Das geilste sind einfach immer wieder solche Marketingsprüche:
We felt by adjusting the schedule for the products, we could better meet our customers' volume requirements and their high expectations.
http://apnews.excite.com/article/20040730/D845ARAG0.html
Muss ich mir umbedingt merken.

Ikon
2004-07-31, 23:47:53
Original geschrieben von Endorphine
Ich bin gespannt, ob der Tejas noch kommt, oder ob es gleich eine Desktopvariante vom Dothan mit EM64T, SMT und execute disable geben wird. 2005 werden die Karten wieder neu gemischt.

SMT für den P-M scheint nicht wirklich ein Thema für Intel zu sein, Jon Stokes geht darauf auf der ersten Seite seines Prescott-Artikels (http://arstechnica.com/cpu/004/prescott-future/prescott-1.html) ein. Dazu gibt es auch die Aussage eines "Intel-Repräsentanten", aber lies selbst ...

Haarmann
2004-07-31, 23:56:03
Intel und AMD werden sich gegenseitig nicht töten - selbst wenn Intel könnte, werdens AMD nicht killen und umgekehrt. AMD könnte schon lange die Takte erhöhen, aber wozu? So kann man die Produkte teurer verkaufen im Schnitt...
Das Gleiche gilt doch auch für Intel - meint wirklich wer, dass die Celerons alle nen defekten Cache haben?

Endorphine
2004-08-01, 00:44:57
Original geschrieben von Ikon
SMT für den P-M scheint nicht wirklich ein Thema für Intel zu sein, Jon Stokes geht darauf auf der ersten Seite seines Prescott-Artikels (http://arstechnica.com/cpu/004/prescott-future/prescott-1.html) ein. Dazu gibt es auch die Aussage eines "Intel-Repräsentanten", aber lies selbst ... Erscheint logisch (die Aussage der Marketingleute von Intel), da auf P-M Basis ja ein CMP gebaut werden soll. Es ergibt natürlich wenig Sinn, beide Kerne jeweils noch mit SMT auszustatten. Dann passt natürlich SMT auch eher zu Netburst als zur P6/PM-Architektur, da Netburst wegen der langen Pipeline etc. schneller und öfter leer läuft als der Pentium-M.

Ich bin mir aber immer noch nicht so sicher, ob für den Massenmarkt tatsächlich das gleiche primitive Schema wie im Ultra-SPARC IV und HP PA-8800 verwendet wird: zwei konventionelle Kerne einfach nebeneinander auf einem Die positionieren und den I/O-Bereich zwischen beiden teilen.

Das bläst selbst in 90 oder 65 nm die Diegrößen extrem auf und treibt damit die Fertigungskosten überproportional in die Höhe. Ich könnte es mir vorstellen, dass SMT nur ein Steigbügelhalter zu CMP im Jonah/Merom ist und die Parallelisierung nur stark erhöht wird, so dass von einem CMP gesprochen wird, aber tatsächlich ein SMT zum Einsatz kommt und der Cache nicht starr zweigeteilt wird.

1,5 MiB Cache könnte ich mir für Jonah vorstellen, und stark erhöhte Anzahl parallel arbeitender Einheiten, die dann über SMT flexibel ausgelastet werden. CMP für's Marketing und SMT für Effizienz und niedrige Herstellungskosten (Die-Flächenverbrauch).

VooDoo7mx
2004-08-01, 01:16:49
Original geschrieben von Stone2001
hmm, ich kenne deine Quellen nicht und bin auch kein wirklicher Experte was die Verfügbarkeit betrfft, aber Heise.de hat hier (http://www.heise.de/newsticker/meldung/49604) noch gemeldet, das Intel für den P4 560 Lieferschwierigkeiten hat!

Also was Heise schreibt, stimmt wohl immer? Ist das der Quell des unerschöpflichen wissens? :eyes:

Guck mal bei geizhals.
Du kannst den 560 sowohl als boxed und auch als Tray bei genügens Shops erwerben.

Aber ja ich verstehe schon was du meinst.
Intel: kanz pöse

VooDoo7mx
2004-08-01, 01:16:49
Doppelpost, bitte löschen!

Haarmann
2004-08-01, 01:46:14
VooDoo7mx

Ich krieg weder bei Actebis, noch bei COS oder Wyscha einen. Distis sagen also Nein.
STEG soll haben, nennst aber keine Anzahl mehr und ist nicht zuverlässig. CCOMP listed den nedmals. Digitec hat keine und Brack listed die gar nicht.
Bei der Sachlage kann man echt von Lieferengpässen sprechen. Nur müssen wir uns ehrlich mal fragen, obs denn überhaupt nen Bedarf gibt - da sage ich schlicht nein. Denn wer diese CPU will, der will doch auch ne Hi-End PCIe Graka - die gibts aber gleich auch nicht ;).

GloomY
2004-08-01, 01:56:16
Original geschrieben von Endorphine
Erscheint logisch (die Aussage der Marketingleute von Intel), da auf P-M Basis ja ein CMP gebaut werden soll. Es ergibt natürlich wenig Sinn, beide Kerne jeweils noch mit SMT auszustatten. Dann passt natürlich SMT auch eher zu Netburst als zur P6/PM-Architektur, da Netburst wegen der langen Pipeline etc. schneller und öfter leer läuft als der Pentium-M.Das hat nichts mit der Pipelinelänge sondern mit der Taktfrequenz zu tun. Es ist viel eher eine Frage, wie viel ungenutzte CPU Takte man sparen kann, wenn ein Thread stallt, dafür aber nicht die gesamte CPU warten muss, weil eben noch ein weiterer Thread da ist, mit dem man sinnvolle Rechenarbeit machen kann.

Quote von hier (http://arstechnica.com/cpu/004/prescott-future/prescott-1.html):
In the Geek.com interview, the Intel representative offered that the Pentium M's shorter pipeline is supposedly "not suited" for hyperthreading. Since there was no elaboration on that point in the Geek.com article, I'll do that here.

IBM's POWER5 uses hyperthreading, and it certainly doesn't have the outrageous 31-stage pipeline length of Prescott. In fact, the POWER5's 16-stage pipeline isn't much longer than the Pentium M's speculated pipeline length of 12 to 14 stages. I say this only to illustrate the point that there's nothing in the lower number of pipeline stages that somehow magically makes the Pentium M a poor candidate for hyperthreading.
Original geschrieben von Endorphine
Ich bin mir aber immer noch nicht so sicher, ob für den Massenmarkt tatsächlich das gleiche primitive Schema wie im Ultra-SPARC IV und HP PA-8800 verwendet wird: zwei konventionelle Kerne einfach nebeneinander auf einem Die positionieren und den I/O-Bereich zwischen beiden teilen.

Das bläst selbst in 90 oder 65 nm die Diegrößen extrem auf und treibt damit die Fertigungskosten überproportional in die Höhe. Ich könnte es mir vorstellen, dass SMT nur ein Steigbügelhalter zu CMP im Jonah/Merom ist und die Parallelisierung nur stark erhöht wird, so dass von einem CMP gesprochen wird, aber tatsächlich ein SMT zum Einsatz kommt und der Cache nicht starr zweigeteilt wird.Früher oder später wird SMT wahrscheinlich auch bei anderen Architekturen Einzug erhalten. Es ist (wahrscheinlich) das Multithreading mit dem besten Zugewinn pro Aufwandt. Es ändert trotzdem nichts daran, dass man mit CMP eben deutlich mehr an Performance dazugewinnen kann.

btw: mit dem überproportionalen Anstieg der Kosten hast du schon Recht, aber das ist bei jedem Feature so. Wenn man die Die-Fläche um einen Faktor x vergrößert steigen die Kosten nicht linear, sondern exponentiell. Der Yield ist eben eine Funktion der Die-Größe (u.a.), aber das gilt eben auch für jegliches andere Feature, das man bei einer CPU verbaut.

BlackBirdSR
2004-08-01, 08:03:35
Original geschrieben von VooDoo7mx
Willst du so jung sterben? ;)



Nö, es will mir nur nicht in den Kopf, warum ich jeden Partikel im Universum adressieren muss ?-)

Edit: :P gegen ?-) getauscht.

Gast
2004-08-01, 09:15:54
@Endorphine: die Entwicklung am Tejas ist ja eingestellt worden, das stand doch sogar mal in den 3dc-News?

Von Heise 7.5.:


Intel hat inzwischen bestätigt, die Pläne für das nächste Jahr geändert und die Entwicklung des geplanten Nachfolgeprozessors des Pentium-4-Prescott mit Codenamen Tejas, wie berichtet, eingestellt zu haben.

(http://www.heise.de/newsticker/result.xhtml?url=/newsticker/meldung/47201&words=Tejas)

Wirklich schade, dass es mit den Taktraten so langsam weitergeht. Unglaublich, dass ein Athlon64 3200+ nur 2GHz Takt hat, nur 600 MHz mehr als meine fast 2 Jahre alten Pentium3-S.

Dabei könnt ich schon mehr Leistung brauchen, so etwa das 3-4 fache...

Mich würde interessieren, ob's nochmal eine Evolutionsstufe für den P4 geben wird, oder ob einfach der Pentium-M nächstes Jahr die Desktop-Linie übernimmt.

Eigentlich kann ich mir das gar nicht vorstellen, denn der P4 geht über 4GHz, der P4-EE wird ja auch noch aufgebohrt und da soll der Pentium-M (der genauso schlecht taktbar erscheint wie der Athlon64) die Leistungsspitze übernehmen? Eher unwahrscheinlich.

Liebe Grüsse, Hannes

Tigerchen
2004-08-01, 09:24:26
Original geschrieben von Gast

Wirklich schade, dass es mit den Taktraten so langsam weitergeht. Unglaublich, dass ein Athlon64 3200+ nur 2GHz Takt hat, nur 600 MHz mehr als meine fast 2 Jahre alten Pentium3-S.

Dabei könnt ich schon mehr Leistung brauchen, so etwa das 3-4 fache...

Mich würde interessieren, ob's nochmal eine Evolutionsstufe für den P4 geben wird, oder ob einfach der Pentium-M nächstes Jahr die Desktop-Linie übernimmt.

Eigentlich kann ich mir das gar nicht vorstellen, denn der P4 geht über 4GHz, der P4-EE wird ja auch noch aufgebohrt und da soll der Pentium-M (der genauso schlecht taktbar erscheint wie der Athlon64) die Leistungsspitze übernehmen? Eher unwahrscheinlich.

Liebe Grüsse, Hannes

Takt war gestern. Die Zukunft heißt Effizienz.

Coda
2004-08-01, 10:49:07
Eigentlich kann ich mir das gar nicht vorstellen, denn der P4 geht über 4GHz, der P4-EE wird ja auch noch aufgebohrt und da soll der Pentium-M (der genauso schlecht taktbar erscheint wie der Athlon64) die Leistungsspitze übernehmen? Eher unwahrscheinlich.
Und was genau hat der Takt mit der Leistung zu tun? (außer wenn man von der gleichen Architektur ausgeht natürlich)

StefanV
2004-08-01, 11:01:03
Original geschrieben von Gast
Wirklich schade, dass es mit den Taktraten so langsam weitergeht. Unglaublich, dass ein Athlon64 3200+ nur 2GHz Takt hat, nur 600 MHz mehr als meine fast 2 Jahre alten Pentium3-S.

Dabei könnt ich schon mehr Leistung brauchen, so etwa das 3-4 fache...

Und um wieviel Schneller ist der Athlon 3200+ mit 'nur' 2Ghz als dein fast 2 Jahre alter P3-S??

Und um wieviel schneller ist der Athlon 3200+ mit gleichem Takt als dein fast 2 Jahre alter P3-S?!

Und um wieviel LANGSAMER ist ein P4 mit 1,6GHz (512k L2 Cache) als dein fast 2 Jahre alter P3-S??

Endorphine
2004-08-01, 11:47:53
Original geschrieben von Gast
@Endorphine: die Entwicklung am Tejas ist ja eingestellt worden, das stand doch sogar mal in den 3dc-News?

Von Heise 7.5.:



(http://www.heise.de/newsticker/result.xhtml?url=/newsticker/meldung/47201&words=Tejas) Hmpf, ich bekomme es langsam wirklich zu spüren, dass ich kaum noch Zeit habe, mich mit Mikroprozessortechnik zu beschäftigen. Tejas ist wirklich Geschichte: http://endian.net/details.asp?ItemNo=3613

In den Roadmaps gibt's derzeit 'ne Lücke für 2005. Der Prescott war ja von Anfang an nur als 90 nm Netburst-Lückenfüller bis zum Tejas gedacht. Nun soll der Merom als Desktop P-M Abkömmling den Tejas ersetzen. Nur erscheint mir der Zeitplan mit Ende 2005 bis 2007 (!) doch noch recht weit entfernt. Irgend etwas muss ja dazwischen noch als Innovation folgen, und wenn's nur eine Menge von Prescott-Steppings sind.

Da Intel den Dothan bereits in 90 nm (kostengünstig) produziert und die Chipsätze ebenfalls bereitstehen (Alviso) liegt es imho nahe, den Dothan 2005 auch für Desktops zu bringen. Mit der Entscheidung, die Tejas-Entwicklung einzustellen entsteht ja zwangsweise eine Lücke in der Aktualität von Intels Mikroprozessorportfolio für Mitte 2005. Merom kommt frühestens 2005 (ich glaube eher an 2006) und bis dahin nur am Prescott herumzufeilen dürfte zu wenig sein, um AMD ernsthaft Paroli zu bieten. Wir werden sehen... Original geschrieben von Gast
Wirklich schade, dass es mit den Taktraten so langsam weitergeht. Unglaublich, dass ein Athlon64 3200+ nur 2GHz Takt hat, nur 600 MHz mehr als meine fast 2 Jahre alten Pentium3-S.

Dabei könnt ich schon mehr Leistung brauchen, so etwa das 3-4 fache... Die stark in die Kritik geratene Leistungsaufnahme des Prescott bremst momentan die Entwicklung. Ohne die geplanten 4,0+ GHz Prescotts hat AMD kaum Antrieb, höher getaktete K8 rauszubringen, wenn sich auch mit geringeren Taktraten gutes Geld verdienen lässt. Das ist der Nachteil des AMD-Intel Kartells: stockt die Entwicklung bei Intel hat AMD sofort Zeit, endlich etwas Geld zu verdienen und die Entwicklung nicht mehr zu forcieren. AMD hat sowieso noch genug aufzuholen: DDR-II SDRAM K8(/K9) müssen kommen, ebenso muss der Prozess auf 90 nm und 300 mm Wafer umgestellt werden. Original geschrieben von Gast
Mich würde interessieren, ob's nochmal eine Evolutionsstufe für den P4 geben wird, oder ob einfach der Pentium-M nächstes Jahr die Desktop-Linie übernimmt. Siehe oben. :) Ich glaube, dass der Dothan für Tejas einspringen wird/muss. Einen Innovationsstillstand im Desktopsegment für das gesamte Jahr 2005 kann sich Intel nicht erlauben. FSB1066 und ein paar neue Prescott-Steppings werden nicht ausreichen, um die gewohnten Erträge weiter zu halten oder gar zu steigern. An einen Dualcore-Prescott für den Desktop glaube ich nicht. Original geschrieben von Gast
Eigentlich kann ich mir das gar nicht vorstellen, denn der P4 geht über 4GHz, der P4-EE wird ja auch noch aufgebohrt und da soll der Pentium-M (der genauso schlecht taktbar erscheint wie der Athlon64) die Leistungsspitze übernehmen? Eher unwahrscheinlich.

Liebe Grüsse, Hannes Im Desktop müsste der Dothan ja nicht mehr weniger als 25 Watt in Wärme umsetzen. Dann sind auch höhere Taktraten möglich. 2,4+ GHz sind jetzt schon drin (http://www.x86-secret.com/articles/cpu/dothan/dothan-6.htm), da sollte eine Desktopvariante schon einiges ermöglichen. Wobei - wenn man bedenkt, dass schon 2,0 GHz teilweise einen K8 3700+ ebenbürtig sind sollte das Potenzial des Dothan imho für 2005 locker ausreichen, wenn Intel eine Desktopvariante bringt. Einziger Nachteil: keine EM64T-Fähigkeiten. J-Typen vom Dothan mit NX-Support sind afaik schon angekündigt.

Muh-sagt-die-Kuh
2004-08-01, 12:44:34
Original geschrieben von Endorphine
Da Intel den Dothan bereits in 90 nm (kostengünstig) produziert und die Chipsätze ebenfalls bereitstehen (Alviso) liegt es imho nahe, den Dothan 2005 auch für Desktops zu bringen.
Im Desktop müsste der Dothan ja nicht mehr weniger als 25 Watt in Wärme umsetzen. Dann sind auch höhere Taktraten möglich. 2,4+ GHz sind jetzt schon drin (http://www.x86-secret.com/articles/cpu/dothan/dothan-6.htm), da sollte eine Desktopvariante schon einiges ermöglichen. Wobei - wenn man bedenkt, dass schon 2,0 GHz teilweise einen K8 3700+ ebenbürtig sind sollte das Potenzial des Dothan imho für 2005 locker ausreichen, wenn Intel eine Desktopvariante bringt. Einziger Nachteil: keine EM64T-Fähigkeiten. J-Typen vom Dothan mit NX-Support sind afaik schon angekündigt.Im Prinzip braucht man für eine Desktopvariante keinen Alviso Chipsatz....dank gleichem Busprotokoll sollte der Chip (BIOS Update und passende Spannungswandler vorrausgsetzt) in einem So478 Gehäuse z.B. in i865/875 Mainboards einsetzbar sein.An einen Dualcore-Prescott für den Desktop glaube ich nicht.Ich auch nicht.....schon bei dem Gedanken an die doppelte Menge an hitzproduzierenden Logiktransistoren kommt mir das Grauen.

BigBoss
2004-08-01, 12:50:11
Also irgendwie wundert mich das nicht!

Endorphine
2004-08-01, 12:52:05
Original geschrieben von Muh-sagt-die-Kuh
Im Prinzip braucht man für eine Desktopvariante keinen Alviso Chipsatz....dank gleichem Busprotokoll sollte der Chip (BIOS Update und passende Spannungswandler vorrausgsetzt) in einem So478 Gehäuse z.B. in i865/875 Mainboards einsetzbar sein. Ja. Nur wollen die ganzen Powermanagementfeatures ja auch genutzt werden. Dafür brauchts afaik schon Chipsatzsupport. Der Alviso basiert ja auf Grantsdale/Alderwood. Wahrscheinlich baut Alviso wieder auf dem identischen Silizium auf.

Coda
2004-08-01, 12:57:13
Also wenn Dothan fürn Desktop kommt, dann zieh ich seit langem mal wieder nen Intel Prozessor in Betracht.

Endorphine
2004-08-01, 12:58:41
Original geschrieben von Coda
Also wenn Dothan fürn Desktop kommt, dann zieh ich seit langem mal wieder nen Intel Prozessor in Betracht. Seit langem? Der Nortwood ist dem K7 doch nun wirklich in jeder Hinsicht überlegen. So lange ist das gar nicht her.

Gast
2004-08-01, 13:54:43
Original geschrieben von Endorphine
Seit langem? Der Nortwood ist dem K7 doch nun wirklich in jeder Hinsicht überlegen. So lange ist das gar nicht her.


full ack!!!

der northwood war/ist was feines (vorallem in verbindung mit den genialen intel-chipsätzen *g*)

Ikon
2004-08-01, 13:57:12
Original geschrieben von Endorphine
Seit langem? Der Nortwood ist dem K7 doch nun wirklich in jeder Hinsicht überlegen.

Nicht im Preis :)

*Messer in den Rücken ramm*

Muh-sagt-die-Kuh
2004-08-01, 14:02:38
Original geschrieben von Endorphine
Ja. Nur wollen die ganzen Powermanagementfeatures ja auch genutzt werden. Dafür brauchts afaik schon Chipsatzsupport. Der Alviso basiert ja auf Grantsdale/Alderwood. Wahrscheinlich baut Alviso wieder auf dem identischen Silizium auf. Jep, gleiches Silizium ist zu erwarten.

Ein So478 Dothan mit ~2,4 Ghz wäre auch ohne Powermanagementfeatures eine nette Aufrüstoption für So478 Boards, ein normaler P4 Kühler sollte die weniger als 50 W unter Vollast auch mit niedriger Lüfterdrehzahl wegstecken können.

Gast
2004-08-01, 14:06:31
*sinnfrei*

Die Zukunft gehört der Effizienz? Dem Takt?

Ich habe schon vor gewisser Zeit damit aufgehört, Architekturen selbst nach ihrem Sinn zu beurteilen. Das liegt wohl daran, dass ich meine Kenntnisse von digitaler Schaltungstechnik und Mikropozessor-Logik für zu gering einschätze.

Beurteilen tu ich nur mehr die Leistung, die unterm Strich rauskommt und da steht der P4 dem K8 um 10-15% i.a. bei Spielen nach (nicht EE).

Wunder o Wunder, es gibt aber auch Anwenundungen, die hervorragend mit dem reinen Takt skalieren, zB Video-Encoder. Beim Spitzen-Encoder CCE (Cinemacraft) kommt der P4 hervorragend weg. Für den CCE ist der P4 einfach die CPU der Wahl.

Ich hab selber eine Dualmaschine hierstehen und kann aus eigener Erfahrung sagen, dass Multiprozessor-Lösungen für Video nicht richtig interessant sind. Warum? Weil die gängigen Frameserver singlethreaded sind, also gibts dadurch eine tolle Begrenzung. Besonders leicht zB avisynth auf multithreading umzustellen ist es auch nicht (Synchronisation!), abgesehen davon, dass überall grösserer Overhead entsteht (auch im Windows-SMP-Kernel) und damit Leistung verloren geht.

@Abwärme: die wird mehr gejammert als nachgedacht. Der K8 hat bis zu 89W thermal design power, der P4 etwa 110W. Die 20W schmerzen niemanden. Was aber jedem auffällt, sind die hohen Die-Temperaturen vom Prescott, die ja darauf zurückzuführen sind, dass das Die schlicht winzig ist (durch den 90nm Prozess)->also höhere Leistungsdichte.

Wenn das E0-stepping kommt (Ende August) und vernünftig funktioniert, ist der P4 vom Stromdurst/Temperatur her wieder auf einem normalen Niveau.

Der P4 ist sicher nicht der ausgewogenste Prozessor am Markt, aber es gibt Anwendungen für die er die beste Lösung ist.

Liebe Grüsse, Hannes

PS: nochmal @Pain: der P4 1.6 Willamette war etwa gleich schnell wie der P3 1.4 Tualatin, denn der 1.8er war schon meist etwas schneller (als der P3).

StefanV
2004-08-01, 14:15:23
Original geschrieben von Gast
@Abwärme: die wird mehr gejammert als nachgedacht. Der K8 hat bis zu 89W thermal design power, der P4 etwa 110W. Die 20W schmerzen niemanden. Was aber jedem auffällt, sind die hohen Die-Temperaturen vom Prescott, die ja darauf zurückzuführen sind, dass das Die schlicht winzig ist (durch den 90nm Prozess)->also höhere Leistungsdichte.


PS: nochmal @Payne: der P4 1.6 Willamette war etwa gleich schnell wie der P3 1.4 Tualatin, denn der 1.8er war schon meist etwas schneller (als der P3).

1. Es wäre schön, wenn du andere Forumsteilnehmer mit Respekt behandeln würdest und sie nicht beleidigen bzw persönlich angreifen würdest!!

2. falsch, denn der A64 schluckt bei gleichem Takt etwa 10W weniger als ein gleichgetakteter XP, die 89W maximal, sind ein Richtwert für die Kühler- und MoBo Hersteller, die ihre Produkte dafür auslegen müssen, daß sie maximal einen A64, welcher 89W verbrät, aufnehmen können und die Wärme abführen können.

3. Bist dir da wirklich ganz sicher?!
Zumindest bei Spielen bezweifle ich das mal ganz stark...

Gast
2004-08-01, 14:20:54
Original geschrieben von Gast

@Abwärme: die wird mehr gejammert als nachgedacht. Der K8 hat bis zu 89W thermal design power, der P4 etwa 110W. Die 20W schmerzen niemanden. Was aber jedem auffällt, sind die hohen Die-Temperaturen vom Prescott, die ja darauf zurückzuführen sind, dass das Die schlicht winzig ist (durch den 90nm Prozess)->also höhere Leistungsdichte.

Wenn das E0-stepping kommt (Ende August) und vernünftig funktioniert, ist der P4 vom Stromdurst/Temperatur her wieder auf einem normalen Niveau.


"nur" 20W... "nur" wieder "etwas" mehr... soso

aber ich hoffe auch, daß das neue stepping wirklich besser wird

Endorphine
2004-08-01, 14:25:55
Original geschrieben von Ikon
Nicht im Preis :)

*Messer in den Rücken ramm* Natürlich kostet ein P4 etwas mehr als ein K7. Wenn ein K7 die gleichen Qualitäten aufweisen könnte wie ein Northwood müsste AMD ihn nicht für weniger Geld verkaufen. Dem ist aber nicht so.

Deshalb kann AMD den K8 jetzt auch teurer verkaufen als Intel den Prescott: der K8 ist dem Prescott (momentan, E0-Step wird den Abstand verringern) in vielen Bereichen überlegen. Diese Qualitäten muss man als Kunde natürlich bezahlen. :)

Endorphine
2004-08-01, 14:28:05
Original geschrieben von Gast
"nur" 20W... "nur" wieder "etwas" mehr... soso

aber ich hoffe auch, daß das neue stepping wirklich besser wird Es wird den Prescott nicht zur low-power CPU verwandeln, aber im Leerlauf und Teillastbereich kann man durch DBS (Desktop-Speedstep) schon einiges erwarten. Dazu kommen noch noch NX/XD-Fähigkeit und EM64T, man kann schon fast von einer neuen Generation sprechen...

StefanV
2004-08-01, 14:29:28
Original geschrieben von Endorphine
Natürlich kostet ein P4 etwas mehr als ein K7. Wenn ein K7 die gleichen Qualitäten aufweisen könnte wie ein Northwood müsste AMD ihn nicht für weniger Geld verkaufen. Dem ist aber nicht so.

Deshalb kann AMD den K8 jetzt auch teurer verkaufen als Intel den Prescott: der K8 ist dem Prescott (momentan, E0-Step wird den Abstand verringern) in vielen Bereichen überlegen. Diese Qualitäten muss man als Kunde natürlich bezahlen. :)

*aua*

Das ist nicht dein Ernst, oder?!

Sorry, aber was du hier schreibst, mir fehlen die Worte...

StefanV
2004-08-01, 14:33:12
Original geschrieben von Endorphine
Es wird den Prescott nicht zur low-power CPU verwandeln, aber im Leerlauf und Teillastbereich kann man durch DBS (Desktop-Speedstep) schon einiges erwarten. Dazu kommen noch noch NX/XD-Fähigkeit und EM64T, man kann schon fast von einer neuen Generation sprechen...

Schön, nur dürfte der Presscott damit immer noch nicht in die Nähe eines Athlon64s kommen, welcher dank SOI recht genügsam ist...

Endorphine
2004-08-01, 14:42:12
Original geschrieben von Stefan Payne
Schön, nur dürfte der Presscott damit immer noch nicht in die Nähe eines Athlon64s kommen, welcher dank SOI recht genügsam ist... Die aktuellen K8 werden auch in einem Prozess mit 130 nm Strukturbreite gefertigt (zudem auf 200 mm Wafern ⇒ unwirtschaftlich³). Natürlich sind die Lecktströme da auch mit C'n'Q kleiner als beim 90 nm Prescott mit DBS. :eyes:

Auch mit SOI wird AMD in 90 nm die gleichen Probleme bekommen wie Intel. AMD hat das SOI-Pulver nur eben schon in 130 nm verschossen, Intel hat mit high-k Materialien und strained silicon ebenfalls schon Spezialitäten gegen die Probleme der winzigen Strukturgrößen in der Anwendung.

Hättest du einen Northwood mit High-k/metal gate, DBS und strained silicon würdest du dessen Leistungsaufnahme auch über alles loben.

Gast
2004-08-01, 14:47:03
@Mr. Payne: ich wollte dich damit nicht beleidigen, sondern nur, dass du aufhörst auf meine Beiträge zu antworten. Nenn es gegenseitiges Ignorieren, wenn das dir besser gefällt (wir kennen uns schon, klingelts beim Thema Matrox Parhelia + Signalqualität?)

Ich möchte nur noch 2 Sachen anbringen: dein 2. Punkt ist sinnfrei. Ich habe vorhin thermal design power geschrieben und weiss auch was der Term bedeutet, also war deine Erklärung unnötig. Einen Widerspruch zudem was ich geschrieben habe, kann ich leider nicht erkennen. Eine Aussage von dir auch nicht.

Deinen 3. Punkt ignoriere ich einfach.

@anderen Gast: "nur" 20W mehr? Bei einem normalen PC mit Netzteilwirkungsgrad <80%, einem miesen Spannungswandlerwirkungsgrad (hab grad die Zahlen für 3-phasige Wandler nicht im Kopf), einer Grafikkarte die heute mehr verheizen als ein Athlon64, sind doch 20W wirklich uninteressant.

Kaufst du wirklich deine CPUs nach dem Stromverbrauch? Dann bist du aber VIA Epia-Besitzer. Oder nicht?

Wenn du auch nur ein mässig überdimensioniertes Netzteil hast, verballerst du mehr sinnlose Leistung durch Ineffizienz als diese 20W.

Übrigens: die thermal design power wird neuerdings immer für eine ganze Klasse von CPUs angegeben, d.h. 110W stimmt immer nur für die leistungsstärkste CPU der Klasse, der Rest liegt darunter.

@Endorphine: jup, hast vollkommen recht.

Liebe Grüsse, Hannes

Haarmann
2004-08-01, 14:48:38
Endorphine

Böse Zungen würden sagen - gib mir das gewünschte Ergebnis bekannt und ich schreib Dir den passenden Bench dazu.

Gast Hannes

Steck Dir Deine Videoencoder mal in den Allerwertesten - gegenüber einem echten HW Chip pennen Dir egal ob P4 oder AMD die Füsse ein. Wer also sehr oft sowas macht, der tut gut daran sich gleich für ne HW Lösung zu begeistern.
Intel versucht nur zu gerne den Leuten einzureden, dass die CPU alles tun sollt. Ein ausgewogenes System mit spezialisierten Chips passt ihnen eben nicht in den Kram, denn sie verkaufen diese Chips ja selber nicht.

Muh-sagt-die-Kuh

Du überschätzt den Dothan gewaltig. Ihm fehlt jeweils das, was ihr dem K7 vorwerft, aber er hat viel Cache. Er verdeckts zum Teil gut genug, weil er diesen grossen Cache hat. Blas die Benches auf und dann ist wieder Ende Feuer. Auch ein P4 mit 2MB Cache ist weit schneller in diversen gängigen Benches, denn einer mit 512KB... Du kannst ideal NW vs EE vergleichen und dort wo der EE am Meisten rausholt, wird auch der Dothan gegenüber dem AMD oder Banias wirklich gut dastehen.

Gast
2004-08-01, 14:53:48
Ich kenn keine hardware-encoder, die so flexibel wie eine CPU sind. Aber wenn du einen Link zur Hand hast, schau ich mir das gerne mal an.

Liebe Grüsse, Hannes

Gast
2004-08-01, 15:01:46
Original geschrieben von Gast


@anderen Gast: "nur" 20W mehr? Bei einem normalen PC mit Netzteilwirkungsgrad <80%, einem miesen Spannungswandlerwirkungsgrad (hab grad die Zahlen für 3-phasige Wandler nicht im Kopf), einer Grafikkarte die heute mehr verheizen als ein Athlon64, sind doch 20W wirklich uninteressant.

Kaufst du wirklich deine CPUs nach dem Stromverbrauch? Dann bist du aber VIA Epia-Besitzer. Oder nicht?

Wenn du auch nur ein mässig überdimensioniertes Netzteil hast, verballerst du mehr sinnlose Leistung durch Ineffizienz als diese 20W.

Übrigens: die thermal design power wird neuerdings immer für eine ganze Klasse von CPUs angegeben, d.h. 110W stimmt immer nur für die leistungsstärkste CPU der Klasse, der Rest liegt darunter.



ich habe meine cpu schön undervoltet ;)

nö geht ums prinzip. du hast schon recht aber dann sagt man irgendwann wieder nur 20w... und dann sind es aufeinmal 140w usw...

weisst wohl was ich meine ;)

StefanV
2004-08-01, 15:14:30
Original geschrieben von Gast
@Mr. Payne: ich wollte dich damit nicht beleidigen, sondern nur, dass du aufhörst auf meine Beiträge zu antworten. Nenn es gegenseitiges Ignorieren, wenn das dir besser gefällt (wir kennen uns schon, klingelts beim Thema Matrox Parhelia + Signalqualität?)
1. Wir sind hier in einem Öffentlichen Diskussionsforum, jeder hat hier das Recht etwas zu sagen, eine Meinung zu haben und jemand zu quoten und das gepostete zu widerlegen!

Ich hab kein Problem damit, wenn jemand auf meine Postings antwortet, auch wenns etwas ist, was mir nicht passt und wenns jemand ist, der mir nicht passt, solange die Form stimmt, also der Poster nicht arrogant, abwertend oder beleidigend auf meine (und andere) Beiträge antwortet.

Außerdem kannst du niemanden verbieten, auf deine Beiträge zu antworten (das ist übrigens auch etwas, was ich niemals tun würde), schließlich hab ich ja das Recht eine Meinung zu haben und sie jedem mitzuteilen, sofern sie den Regeln des Forums entsprechen.

2. schön, für dich, wenn du mich nicht magst, schön für dich, ist dein gutes Recht, mich nicht zu mögen.

Nur sollte man schon irgendwie versuchen, alte Hunde zu begraben und nicht irgendwelche alten Leichen auszugraben und persönliche Streitigkeiten nicht im ganzen Forum austragen.


3. das Thema dieses Threads dreht sich um allerhand, nur nicht um die Matrox Parhelia, womit das völlig OT ist.
Original geschrieben von Gast
Ich möchte nur noch 2 Sachen anbringen: dein 2. Punkt ist sinnfrei. Ich habe vorhin thermal design power geschrieben und weiss auch was der Term bedeutet, also war deine Erklärung unnötig. Einen Widerspruch zudem was ich geschrieben habe, kann ich leider nicht erkennen. Eine Aussage von dir auch nicht.

Deinen 3. Punkt ignoriere ich einfach.

1. nö, ist er nicht, schließlich hab ich keine Unwahrheiten verbreitet und versucht etwas richtigzustellen, was du falsch rübergebracht hast.
Das AMD bei JEDER Desktop K8 CPU 89W angiebt, ist schon irgendwie auffällig, was den Schluss nahe liegt, daß das das Maximum, was für diesen Sockel vorgesehen ist und nicht der Wirklichkeit entsprechen muss...

2. womit du mir wohl mehr oder minder zustimmst *eg*
Achja, nochwas:

Ich meine hier auch keine 'Streaming Anwendungen' wei WinRAR oder Videobearbeitung, da hier kaum jemand im Forum den Rechner dafür hauptsächlich einsetzen wird...


Original geschrieben von Gast
@anderen Gast: "nur" 20W mehr? Bei einem normalen PC mit Netzteilwirkungsgrad <80%, einem miesen Spannungswandlerwirkungsgrad (hab grad die Zahlen für 3-phasige Wandler nicht im Kopf), einer Grafikkarte die heute mehr verheizen als ein Athlon64, sind doch 20W wirklich uninteressant.

Dir ist aber schon klar, daß 80W bei gleicher Rechenleistung schon eine Menge ist, oder?

Selbst durch die Effizenz anderer Bauteile wird die Abwärme des Presscotts nicht besser, eher schlechter.

PS: haben die Sockel LGA775 nicht sogar schon eine 4 Phasen Spannungsregelung...


Original geschrieben von Gast
Kaufst du wirklich deine CPUs nach dem Stromverbrauch? Dann bist du aber VIA Epia-Besitzer. Oder nicht?

Wenn du auch nur ein mässig überdimensioniertes Netzteil hast, verballerst du mehr sinnlose Leistung durch Ineffizienz als diese 20W.
1.Der EPIA ist in einer ganz anderen Leistungsklasse, was die Rechenleistung betrifft.

Sieh es auch mal andersrum:

Welches von 2 Autos würdest du nehmen, beide 150PS, beide sind so ziemlich gleich, das eine Auto braucht 8l/100km und das andere 10l/100km, Zylinderzahl bei beiden gleich.

2. Dann muss der Rechner aber schon ganz schön viel verbraten, um diese 20W wieder reinzuholen...

Und selbst das klingt eher nach einer Ausrede bzw. den Versuch den Prescott schön zu reden.

Original geschrieben von Gast
Liebe Grüsse, Hannes

Beste Grüße, Paynie *eg*

Gast
2004-08-01, 15:42:13
Nein unglaublich. Das hätte ich nicht gedacht. Ich hab noch nie einen so kritikresistenten Typen erlebt wie dich. Respekt, ehrlich!

Wir beide führen uns auf wie ein Ehepaar. Führen wir also eine gute Ehe und hören auf mit dem Theater. Wirst halt damit leben müssen, dass ich auf deine an mich gerichteten Holzhammer-postings nicht/nur teilweise antworte. Das ist sicher kein Problem für dich.

Ich habe dir nichts verbieten wollen, ich wollte dich nur darum *bitten*.

Klar ist der Epia eine andere Klasse, aber der Gast wollte ja niedrigen Stromverbrauch.

Jo es gibt 4-Phasen-Wandler, aber ob Intel die vorschreibt, weiss ich nicht.

Deine Autos verschrotte ich.

Schön reden tu ich nix.

Liebe Grüsse und auf ein harmonisches Zusammenleben, Hannes

Ikon
2004-08-01, 15:44:08
Original geschrieben von Endorphine
Ja. Nur wollen die ganzen Powermanagementfeatures ja auch genutzt werden. Dafür brauchts afaik schon Chipsatzsupport.

Nicht nur das, für Deep/Deeper Sleep ist ein extra Pin notwendig (DPSLP#), also müsste man wieder einen neuen Sockel aus dem Boden stampfen (oder besitzt S775 diesen Pin? *kein Datenblatt hab*)
-> deshalb müssten wir bei einer S478-Variante des Dothan natürlich darauf verzichten.

Ganz abgesehen davon hielten Energiesparmaßnahmen aus dem Mobilbereich schon immer nur sehr gemächlich Einzug ins Desktop-Segment.

Original geschrieben von Endorphine
Natürlich kostet ein P4 etwas mehr als ein K7. Wenn ein K7 die gleichen Qualitäten aufweisen könnte wie ein Northwood müsste AMD ihn nicht für weniger Geld verkaufen. Dem ist aber nicht so.

Ich weiß, ich weiß, ich wollte dich doch nur provozieren :)

Haarmann
2004-08-01, 15:45:54
Gast Hannes

Ich encode ehrlicherweise eigentlich gar nichts mehr. Ich kenne aber nur MPEG2 und MPEG4 Sachen, die sich wirklich durgesetzt haben - der Rest am Format ist doch mehr oder minder kosmetischer Natur. Im Prinzip müssten daher die Encoder nur die 2 unterstützen und die SW dann die HW Encoder.
Für MPEG2 wiederum gibts ja manche auch bekannte Lösung - hier ist bestimmt kein Engpass zu finden.

Endorphine
2004-08-01, 15:52:01
Original geschrieben von Ikon
Nicht nur das, für Deep/Deeper Sleep ist ein extra Pin notwendig (DPSLP#), also müsste man wieder einen neuen Sockel aus dem Boden stampfen (oder besitzt S775 diesen Pin? *kein Datenblatt hab*)
-> deshalb müssten wir bei einer S478-Variante des Dothan natürlich darauf verzichten. Ich glaube nicht, dass Desktop P-M Versionen im Sockel-478 kommen. LGA-775 ist angesagt. Die Beschaltung der Pins (oder "Lands" ;)) kann Intel ja nach belieben ändern. Da der LGA-775 Prescott von der Belegung allerdings schon DBS unterstützt wäre es zumindest theoretisch denkbar, dass ein Desktop P-M auf Boards laufen wird, auf denen auch ein P4 läuft (natürlich mit Alviso o. ä.). Wir werden sehen. Der Sockel-478 ist imho aber Geschichte. Original geschrieben von Ikon
Ich weiß, ich weiß, ich wollte dich doch nur provozieren :) Das hab ich bei deiner Formulierung schon gemerkt. Ich kann ja trotzdem ernsthaft kontern und das Messer argumentativ zurückrammen. :D

Ikon
2004-08-01, 15:56:26
@20W-Diskussion
Das Problem sind doch nicht 20W mehr TDP/Thermal Guideline/Maximum Power.

Das Problem des Prescott ist der durch die höheren Leckströme angestiegene Grundverbrauch, der sich im Leerlauf (Halt/StopGrant/Sleep, etc.) ganz bitter rächt.

Tigerchen
2004-08-01, 16:02:19
Original geschrieben von Gast
@Mr. Payne: ich wollte dich damit nicht beleidigen, sondern nur, dass du aufhörst auf meine Beiträge zu antworten. Nenn es gegenseitiges Ignorieren, wenn das dir besser gefällt (wir kennen uns schon, klingelts beim Thema Matrox Parhelia + Signalqualität?)

Ich möchte nur noch 2 Sachen anbringen: dein 2. Punkt ist sinnfrei. Ich habe vorhin thermal design power geschrieben und weiss auch was der Term bedeutet, also war deine Erklärung unnötig. Einen Widerspruch zudem was ich geschrieben habe, kann ich leider nicht erkennen. Eine Aussage von dir auch nicht.

Deinen 3. Punkt ignoriere ich einfach.

@anderen Gast: "nur" 20W mehr? Bei einem normalen PC mit Netzteilwirkungsgrad <80%, einem miesen Spannungswandlerwirkungsgrad (hab grad die Zahlen für 3-phasige Wandler nicht im Kopf), einer Grafikkarte die heute mehr verheizen als ein Athlon64, sind doch 20W wirklich uninteressant.

Kaufst du wirklich deine CPUs nach dem Stromverbrauch? Dann bist du aber VIA Epia-Besitzer. Oder nicht?

Wenn du auch nur ein mässig überdimensioniertes Netzteil hast, verballerst du mehr sinnlose Leistung durch Ineffizienz als diese 20W.

Übrigens: die thermal design power wird neuerdings immer für eine ganze Klasse von CPUs angegeben, d.h. 110W stimmt immer nur für die leistungsstärkste CPU der Klasse, der Rest liegt darunter.

@Endorphine: jup, hast vollkommen recht.

Liebe Grüsse, Hannes


Du kannst den Takt nur noch langsam erhöhen. Die Kernfrage lautet: "Wie kriegt man die Wärmeentwicklung in den Griff?"
Und darum ist Effizienz die Zukunft und nicht der Takt!

Muh-sagt-die-Kuh
2004-08-01, 16:44:43
Original geschrieben von Haarmann
Muh-sagt-die-Kuh

Du überschätzt den Dothan gewaltig. Ihm fehlt jeweils das, was ihr dem K7 vorwerft, aber er hat viel Cache. Er verdeckts zum Teil gut genug, weil er diesen grossen Cache hat. Blas die Benches auf und dann ist wieder Ende Feuer. Auch ein P4 mit 2MB Cache ist weit schneller in diversen gängigen Benches, denn einer mit 512KB... Du kannst ideal NW vs EE vergleichen und dort wo der EE am Meisten rausholt, wird auch der Dothan gegenüber dem AMD oder Banias wirklich gut dastehen. Ich kann mich nicht daran erinnern, dem K7 irgendwas vorgeworfen zu haben.

Mehr Cache hilft immer, da die durchschnittliche Speicherzugriffslatenz effektiv gesenkt wird....was daran falsch sein soll verstehe ich persönlich nicht ;)

Haarmann
2004-08-01, 17:01:41
Muh-sagt-die-Kuh

Ich habs wohl ned ganz richtig ausgedrückt ;).

Schreibe ich nen Bench, der genau 2MB benutzt, die gerade zufällig in die 2MB Cache passen, dann wird diese CPU natürlich besser dastehen, als eine "gleich" gute CPU mit 512 KB Cache. Würde ich nun aber nen Bench schreiben, der 80 MB brauchte, dann würde der Unterschied wohl nahezu verschwinden.

Ganz Lustig dazu wäre dann aber mal das ...

http://www.tomshardware.com/cpu/20030923/athlon_64-50.html

Obere Tafel ;).
Ich denke ein kurzes Schmunzeln wird auch Dir über die Lippen gekrochen sein - nehme ich mal an. Kannste das z.B. logisch erklären?
Untere Tafel... sind wir da wirklich ganz sicher, dass es irgendwas mitem Speicher zu tun hat? *eg*

Birdman
2004-08-01, 17:30:40
Original geschrieben von Stefan Payne
*aua*
Das ist nicht dein Ernst, oder?!
Sorry, aber was du hier schreibst, mir fehlen die Worte...
Ok, wenn Du mir eine besserer Erkläreung für die Preise von K7 und K8 liefern kannst als Endorphine, dann kann ich dein Posting überhaupt schonmal ernstnehmen - ansonsten ist es einfach nur Spam eines AMD Anhängers.

Gast
2004-08-01, 19:01:21
@Haarmann: ui,ui. Ganz schön dünne Antwort für deine grosse Ansage ("Steck dir.."). Die kranken Video-Fritzen sehen das ganz anders. Da will man teilweise sogar die MPEG2-Diskretisierungskoeffizienten ("matrix") anpassen für maximale Qualität.

Ich kenne nur diese MPEG2-Encoder für TV-Karten, die kennen noch nichtmal Multipass-Encoding. Abgesehen davon schaffen die gerade mal Echtzeit, während mit moderner Hardware ein Vielfaches machbar ist.

MPEG4-HW-Encoder kenn ich gar nicht, wofür sollte es denn sowas geben, MPEG4 wird doch nicht kommerziell verwendet.

Also alles heisse Luft.

Übrigens: weisst du was die Filmstudios für ihre DVDs so verwenden? Den CCE Pro (http://www.cinemacraft.com/eng/ccepro.html). Das Paket besteht aus einem proprietären Capture-Board mit einer speziellen Version des CCE-Encoders. Kostet über 7000Euro, den 2.4GHz P4 mit Ultra-SCSI Array gibts gratis dazu.

Übrigens2: wenn für jemanden Video ein Haupteinsatzgebiet ist, dann sag ihm biete nicht, er soll sichs sonstwohin stecken. Ich sag dir auch nicht, du kannst dir dein Gamen ebenfalls dorthin stecken. V.a. sag sowas nicht, wenn du dich nichtmal richtig bei Video auskennst (AutoGordianKnot wäre aber schon mal ein Anfang, falls du wiedermal was encodieren willst).

Liebe Grüsse, Hannes

Haarmann
2004-08-01, 19:15:11
Gast Hannes

eine einfache Anfrage bei google gab mir sogar nen Produkt, wo ich mehrere HW MPEG4 Encoder Karten nutzen kann in einem PC...
Offenbar scheints sowas zu geben.

http://www.optibase.com/html/products/lobby_product.html

Ich weiss allerdings wirklich nicht, was Du genau machen musst -> ich versuche gar nicht es per Kristallkugel zu lesen.

Birdman

Package und Die Grösse ;). Auch ein NW Celeron hat ja ein NW Die und ein NW Package...

Birdman
2004-08-01, 19:45:09
@Haari

Also die CPU Enduser-Preise richten sich nur sehr minimal - wenn überhaupt - nach Package und DIE Size.

Die Leute waren einfach nicht bereit für einen K7 mehr zu bezahlen als für einen P4, weil ersterer keinen wirklichen Vorteil zum P4 (NW) hatte - ich jedenfalls wüsste auch grad keinen.

Muh-sagt-die-Kuh
2004-08-01, 19:50:06
Original geschrieben von Haarmann
Muh-sagt-die-Kuh

Ich habs wohl ned ganz richtig ausgedrückt ;).

Schreibe ich nen Bench, der genau 2MB benutzt, die gerade zufällig in die 2MB Cache passen, dann wird diese CPU natürlich besser dastehen, als eine "gleich" gute CPU mit 512 KB Cache. Würde ich nun aber nen Bench schreiben, der 80 MB brauchte, dann würde der Unterschied wohl nahezu verschwinden.So oberflächlich würde ich das nicht sehen, da Spielen ein paar Faktoren mehr eine Rolle.

Sicher kann man Anwendungen finden, die fast völlig Speicherlimitiert (Bandbreite oder Latenz) sind....bei denen würde dann aber auch eine 10 Ghz CPU nichts bringen ;)

Ganz Lustig dazu wäre dann aber mal das ...

http://www.tomshardware.com/cpu/20030923/athlon_64-50.html

Obere Tafel ;).
Ich denke ein kurzes Schmunzeln wird auch Dir über die Lippen gekrochen sein - nehme ich mal an. Kannste das z.B. logisch erklären?
Untere Tafel... sind wir da wirklich ganz sicher, dass es irgendwas mitem Speicher zu tun hat? *eg* "Benchmarks" wie PCMark CPU sind extrem simpel gestrickt und passen wohl auch bei einem Northwood Celeron komplett in den Cache...das einzige was dabei dann zählt ist die Taktfrequenz. Als Benchmark absolut unbrauchbar.

Gleiches dürfte für den zweiten "Benchmark" zutreffen, der wahrscheinlich nichts anderes macht als verschieden große Blöcke aus dem Speicher zu laden und die Zeiten zu stoppen. Und wieder absolut unbrauchbar.

Haarmann
2004-08-01, 20:29:48
Birdman

Frag mal meine Goa produzierenden Kollegen, ob ein P4 zu was taugt... nachdem Du ne Stunde ausgelacht wurdest, wirste sicher einsehen, dass det Gelächter nen Grund hatte ;).
Das Schlimme ist, dass ich die Leute noch motiviert hab zum P4, weil auch ich dachte, das Teil tauge was für Sound.
Ich jedenfalls finde den K7 eine ehrliche CPU - siehe CT 6/2004.

Muh-sagt-die-Kuh

Mein eich ja... man kann meisst schon vorher abschätzen, wo eine CPU mies abschneiden wird, wegen ihrer Kenndaten. Drum halte ich vom P-M recht wenig.
Natürlich ists ne imho bessere CPU als der P4, das mag aber daran liegen, wie mies der P4 ist ;).

Ich will nicht behaupte, dass PC Mark oder Sandra zu irgendwas taugen ;). Das liegt mir wirklich fern, aber zu sehen, dass ein EE P4 hinter nem nicht EE P4 bei gleichem Takt liegt, ist imho immer lustig. Ich wollte damit mehr sagen, dass ned alles Gold ist, was glänzt. Jeder Level an Cache frisst auch Latenz. Und je nach Anwendung siehts jeweils anders aus.

Ich mag z.B. die kurze Cacheline des "alten" K7.
Ich hasse dafür solch dämliche Optionen im Compiler, welche gleich ganze Loops "ausrollen". Da krieg ich echt Schübe beim Gedanken an die sinnlose Speicherverschwendung durch so nen Unsinn.
Hierbei möchte ich Intel mal gratulieren zu ihrem Itanium - Problem erkannt (Sprünge)... zu dumm, dass sies nicht auf den X86 anwenden wollen. Ich hoffe das kommt noch. Hier sähe ich echt Potential.

StefanV
2004-08-01, 20:39:15
Original geschrieben von Birdman
Ok, wenn Du mir eine besserer Erkläreung für die Preise von K7 und K8 liefern kannst als Endorphine
(...)


Warum ist ein Mercedes teurer als ein Toyota, der auch noch meist zuverlässiger ist als der Mercedes??

Warum ist der 1er BMW teurer als der Golf?
Warum ist der Golf teurer als ein Corolla und Mazda3? :)

Lokadamus
2004-08-01, 21:03:27
Original geschrieben von Haarmann
http://www.tomshardware.com/cpu/20030923/athlon_64-50.html

Obere Tafel ;).
Ich denke ein kurzes Schmunzeln wird auch Dir über die Lippen gekrochen sein - nehme ich mal an. Kannste das z.B. logisch erklären?
Untere Tafel... sind wir da wirklich ganz sicher, dass es irgendwas mitem Speicher zu tun hat? *eg* mmm...

Ich hab schon lange nicht mehr soviel Blödsinn auf einen Haufen gelesen: The P4 3.2 wins the CPU benchmark while the Athlon 64 FX-51 runs away with the memory test with 11599 points - an all-time record!
Komisch nur, das Tomshardware den EE mit >14.000 Punkten dort angibt :balla: ...

Mehr Cache zieht immer, nimm 2 baugleiche CPUs mit unterschiedlichem Cache und lass ordentliche Programme drüberlaufen => die CPU mit mehr Cache läuft "smoother" ...
Original geschrieben von Haarmann
Frag mal meine Goa produzierenden Kollegen, ob ein P4 zu was taugt... nachdem Du ne Stunde ausgelacht wurdest, wirste sicher einsehen, dass det Gelächter nen Grund hatte ;).
Das Schlimme ist, dass ich die Leute noch motiviert hab zum P4, weil auch ich dachte, das Teil tauge was für Sound.
Ich jedenfalls finde den K7 eine ehrliche CPU - siehe CT 6/2004.Da würde ich eher mal nachhacken, welche Software sie einsetzen => wenn die Software unoptimiert ist, hat AMD Vorteile, mit Optimierter Software zieht P4 in den meisten Multimedia- Bereichen ab ... der A64 dürfte momentan die bessere Wahl sein, aber dann wäre die Rede vom K8 ...

CrazyIvan
2004-08-01, 22:32:56
Original geschrieben von Haarmann
Ich mag z.B. die kurze Cacheline des "alten" K7.
Ich hasse dafür solch dämliche Optionen im Compiler, welche gleich ganze Loops "ausrollen". Da krieg ich echt Schübe beim Gedanken an die sinnlose Speicherverschwendung durch so nen Unsinn.
Hierbei möchte ich Intel mal gratulieren zu ihrem Itanium - Problem erkannt (Sprünge)... zu dumm, dass sies nicht auf den X86 anwenden wollen. Ich hoffe das kommt noch. Hier sähe ich echt Potential.

Wieso kritisierst Du einerseits das "Ausrollen" von Schleifen und preisst auf der anderen Seite Predication beim Itanium als tolles Feature an? Hinsichtlich Speicherverschwendung gleichen die sich doch wie ein Ei dem anderen. Ob ich jetzt x-tausend Alternativen ausrolle oder ne Schleife spielt doch im Endeffekt keine Rolle. Schließlich kommen ja auch die 24MB L3-Cache beim kommenden Modell nicht von ungefähr. Oder hab ich da was verpasst?

CrazyIvan
2004-08-01, 22:52:11
Original geschrieben von Lokadamus
mmm...

Ich hab schon lange nicht mehr soviel Blödsinn auf einen Haufen gelesen: The P4 3.2 wins the CPU benchmark while the Athlon 64 FX-51 runs away with the memory test with 11599 points - an all-time record!
Komisch nur, das Tomshardware den EE mit >14.000 Punkten dort angibt :balla: ...

mmm...
das liegt wohl daran, dass der P4EE mit not available markiert ist und somit aus der Wertung genommen wurde. Wie Du schon richtig bemerkt hast, redet der liebe Herr Völkel ja auch vom P4 3,2 Ghz ohne EE.
Das ändert aber an der Absurdität der Tests von THG herzlich wenig :verd:

Haarmann
2004-08-01, 23:24:00
Lokadamus

Die Line Länge und Assoziativiät des Caches spielt leider auch ne recht zentrale Rolle ;). Wird nur gerne übersehen. Oder wieso meinst skaliert ein XP nach CT soviel besser als alle Anderen (Auch der K8)?

Die Leute arbeiten ziemlich seltsam mit ihren Geräten. 80 Spuren sind da "normal". Der P4 peakt aber dort irgendwie zu hoch, was ihn untauglich macht, welbst wenn er schneller "rendert". Es geht dabei einzig um die Peaks beim Probieren in Echtzeit.

CrazyIvan

Beim Itanium wurde etwas weggelassen, was nun Aufgabe des Compilers wurde. Ich glaube so falsch war dieser Ansatz nicht ;).

Gast
2004-08-02, 10:11:57
@Haarmann: Danke für den Link! Ist aber leider ungeeignet, da das Board nur simple profile & advanced simple profile kann und ich einfach mal davon ausgehe, dass sie nur die Minimalanforderungen dieser Profile erfüllen (gibt da viele Abstufungen etwa von 1-5).

Abgesehen davon - wenn ich das richtig sehe - encodiert das Board nur in Echtzeit, zwar mehrere Ströme gleichzeitig, aber die Option ist nur für Streaming interessant. Da ist sogar mein P3 schneller. Multipass unbekannt.

Trotzdem danke, ich wusste ja gar nicht, dass es für MPEG4 was gibt!

Liebe Grüsse, Hannes

Muh-sagt-die-Kuh
2004-08-02, 10:26:54
Original geschrieben von Haarmann
Die Line Länge und Assoziativiät des Caches spielt leider auch ne recht zentrale Rolle ;). Wird nur gerne übersehen. Oder wieso meinst skaliert ein XP nach CT soviel besser als alle Anderen (Auch der K8)?Dir ist klar, dass Cache-Line Länge und Assoziativität bei K7(XP) und K8 identisch sind?

Genau Quellangabe?

Endorphine
2004-08-02, 15:09:50
Intel hat mittlerweile noch ein paar für die meisten leichter verständliche Infos zu DBS veröffentlicht, nachzulesen in folgendem PDF (430 kiB): http://www.intel.com/products/services/intelsolutionservices/success/techdocs/wp/thermal.pdf

Dynamic Power Management

The latest Intel Xeon™ processor supports Demand Based
Switching (DBS), a capability that can automatically reduce
average system power consumption by up to 25 percent in
a typical datacenter environment.8 The principle is relatively
simple, and is based on Enhanced Intel® SpeedStep®
Technology, which Intel has used with great success to
enable improved battery life in laptops and handheld devices.
Traditionally, a microprocessor operates only at a single
frequency and voltage, regardless of its workload. It is
therefore always “on” and always consuming full power.
Processors with Enhanced Intel® SpeedStep Technology are
designed to run at multiple frequency/voltage settings (Figure 2).

In conjunction with an operating system (OS) and BIOS that
support DBS, the processor will automatically operate at the
lowest setting that is consistent with optimal application
performance.9 The OS monitors processor utilization multiple
times per second and downshifts to a lower frequency and
voltage as appropriate. Power usage is therefore automatically
tailored to match server workloads, which substantially
reduces waste with minimal impact on peak performance
capabilities.10
Actual power savings from DBS will depend on several factors,
including application workloads, the number and definition of
power states, and the policies that determine when and how
these power states are changed. DBS typically delivers minor
power savings during peak workloads, with substantial savings
during intermediate loads and halt states, which account for
the majority of server time in most environments. Power savings
of 25 percent, as cited above, is a reasonable expectation based
on typical datacenter conditions. As processor frequencies
increase in future releases, operating systems that support
DBS will automatically take advantage of additional power
states as they become available, to further optimize power
efficiency.

It must be emphasized that DBS, by itself, does not significantly
decrease peak power consumption, so it should not be used
in de-rating platforms to determine maximum rack densities.
However, it can significantly reduce utility costs (see the sidebar,
“How much can you save with DBS?”).
Enabling a processor to perform reliably in multiple power
states is not a trivial enhancement. It introduces major
design challenges that must be addressed in every aspect
of processor functioning, from the switching characteristics of
individual transistors to signal timing across the entire device.
Intel validation processes include extensive testing to ensure
reliable and optimized performance in each power state.
How Much Can You Save with DBS?

Less power consumption means lower utility bills for
power and cooling, but by how much? Many factors
influence potential savings, including the number of
servers that support DBS, as well as their configurations
and workloads. Systems operating 24x7 near peak
utilization will experience little benefit, but such systems
are rare. Typical servers with lower or more sporadic
utilization will see much greater savings.
In a collaborative study with a global financial institution,
Intel engineers estimated direct savings of $250K to
$300K annually for 876 servers in a single datacenter.a
These benefits were based on a detailed analysis of
existing workloads, and would require DBS-capable
processors and operating systems on all servers.
a Results are based on unpublished data. The study was performed
in 2004.

Das Dokument behandelt zwar den Serverbereich, je nach Auslastung kann man nun die individuelle Ersparnis abschätzen. :) Das folgende Bild visualisiert die Verhältnisse etwas. Bei typischen Situationen, in der die CPU 90+ % ihrer Rechenzeit nur idled kann die Leistungsaufnahme schon drastisch gesenkt werden. OS-Support ist natürlich in jedem Fall notwendig. Die OS, die Enhanced SpeedStep unterstützten sollten aber auch mit der Desktop/Servervariante klar kommen.

Haarmann
2004-08-02, 15:38:58
Gast Hannes

Ich bin mir fast sicher, dass man solche Chips auch anders proggen könnte und mehr Daten, denn Echtzeit durchjagen -> das wirds geben. Kann ja mal einen fragen, der beim TV arbeitet. Die haben sowas bestimmt.

Muh-sagt-die-Kuh

Nachdem ich vergeblich allerlei AMD Dokumentation durchwühlt hab, nahm ich einfach mal kurz meine CPU und CrystalCPUID zum auslesen der Eckdaten.

Intel hat doch 8QW und AMD 4QW L2 Linesize. Da ich allerdings mal wieder Word als 16Bit nahm, weil ich vom MC68K her komme, hab ich mich dementsprechend beim XP verrechnet.
Mein eigener Käfer zeigte dann eben 64 Byte und das waren dann doch 8QW ;). Kleiner Fehler und grosse Wirkung - daher hab ich mich da wohl verrechnet. Dann wiederum isses interessant, wieso der schlechter skaliert - vor allem bei der FPU. (CT 6/2004)

BlackBirdSR
2004-08-02, 16:00:02
Original geschrieben von Haarmann
Muh-sagt-die-Kuh

Mein eigener Käfer zeigte dann eben 64 Byte und das waren dann doch 8QW ;). Kleiner Fehler und grosse Wirkung - daher hab ich mich da wohl verrechnet. Dann wiederum isses interessant, wieso der schlechter skaliert - vor allem bei der FPU. (CT 6/2004)

Sprichst du dabei vom P4?

Schildere doch mal den Benchmark und die Werte, für Leute die solch eine C't nicht zur Hand haben.

Ausserdem solltest du nicht vergessen, dass Cache Line Sizes und Assoziativität nicht das einzige sind, in dem sich P4 und K7 unterscheiden. Von daher verstehe ich nicht, wie du überhaupt die Vermutung aufstellen kannst, es läge nur am Cache.

der P4 füllt den Cache übrigens mit ingesamt 128Byte, wenn ich mich nicht verkuckt habe.

Haarmann
2004-08-02, 16:36:37
BlackBirdSR

P4 Architektur... Xeons sind ja da nicht anders. L1 hat dort übrigens auch nur 64Byte Linesize.

Habs hier mal erwähnt gehabt.

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=156526&perpage=20&pagenumber=2

Es geht ja nur ums Skalieren an sich. Da kannst auch bei Spec nachsehen gehen und wirst feststellen, dass die anderen X86 wirklich alt aussehen gegen den XP. 90% Ausbeute bei 100% Taktzunahme und gleichem FSB etc find ich ein guter Wert.

Muh-sagt-die-Kuh

Bezog mich da auf die Berechnungen aus dem andern Thread resp aus der CT.

Muh-sagt-die-Kuh
2004-08-02, 18:37:42
Ich mach mir mal die Mühe und liste die c´t Ergebnisse einfach mal auf:

SPEC-Int:

Pentium-M, i855 GM, PC2700 DDR-SDRAM

1100 mhz: 805
1600 mhz: 1076

=> 91 % des theoretischen Maximums

Athlon XP (Barton), nForce2 Ultra 400, PC3200 DDR-SDRAM

1100 mhz: 543
2200 mhz: 1040

=> 95,7 % des theoretischen Maximums

Athlon 64 (ClawHammer), KT800, PC3200 DDR-SDRAM

800 mhz: 560
2000 mhz: 1257

=> 89,7 % des theoretischen Maximums


SPEC-Fp:

Pentium-M, i855 GM, PC2700 DDR-SDRAM

1100 mhz: 635
1600 mhz: 763

=> 82,6 % des theoretischen Maximums

Athlon XP (Barton), nForce2 Ultra 400, PC3200 DDR-SDRAM

1100 mhz: 481
2200 mhz: 909

=> 94,5 % des theoretischen Maximums

Athlon 64 (ClawHammer), KT800, PC3200 DDR-SDRAM

800 mhz: 585
2000 mhz: 1146

=> 78,5 % des theoretischen Maximums

So weit, so gut...jetzt kommt aber der Knackpunkt:

Wie gut eine CPU mit der Taktfrequenz skaliert hängt prinzipiell nicht von ihr selbst ab, sondern ausschliesslich vom Speichersubsystem ausserhalb der Einheit CPU / On-Die Cache.

Haarmann
2004-08-02, 20:59:11
Muh-sagt-die-Kuh

Danke erstmals fürs Eintippen der Daten.

Aber ist der Cache nicht Bestandteil einer CPU? Ich ätte gesagt er ist...

CrazyIvan
2004-08-02, 21:31:52
Original geschrieben von Haarmann
Muh-sagt-die-Kuh

Danke erstmals fürs Eintippen der Daten.

Aber ist der Cache nicht Bestandteil einer CPU? Ich ätte gesagt er ist...

Laut meinem Prof für Rechnerarchitektur ist er das nicht ;)

Muh-sagt-die-Kuh
2004-08-02, 21:44:49
Original geschrieben von Haarmann
Muh-sagt-die-Kuh

Danke erstmals fürs Eintippen der Daten.

Aber ist der Cache nicht Bestandteil einer CPU? Ich ätte gesagt er ist... Jein ;)

Bestandteil des CPU-Dies => (heute) ja
Bestandteil des CPU-Kerns => nein (obwohl zumindest der L1 Cache, räumlich betrachtet, tief im Kern verwurzelt ist)

Ikon
2004-08-02, 21:55:04
Wenn man bedenkt dass eine CPU ohne jegliche Caches ihren Dienst (wenn auch sehr langsam) ebenso verrichten könnte, dann kann man diese nicht als Bestandteil der CPU bezeichnen. Auf die Register, die ja auch Daten puffern, trifft das sehr wohl zu.

Auch wenn die Caches heute (!) physisch im Kern integriert sind, so gehören sie doch logisch zum Speichersubsystem.

Endorphine
2004-08-02, 21:56:21
Original geschrieben von Muh-sagt-die-Kuh
Wie gut eine CPU mit der Taktfrequenz skaliert hängt prinzipiell nicht von ihr selbst ab, sondern ausschliesslich vom Speichersubsystem ausserhalb der Einheit CPU / On-Die Cache. Naja, das "ausschliesslich" (sic!) kann ich nicht so stehen lassen. Es hängt neben der reinen theoretischen I/O-Leistung des Systemhauptspeichers natürlich auch von dessen Schnittstelle an die jeweilige CPU ab. Dann hängt es noch davon ab, ob es noch andere Master im System gibt, die Last auf dem Hauptspeichersystem erzeugen. Das können andere CPUs in SMP oder Master-Slave Multi-CPU Systemen sein, oder Mastercontroller irgendwelcher Art.

Ganz wesentlich für die Skalierung ist auch der Cache in seinem Latenz- und Durchsatzverhalten. Bestes Beispiel &rArr; Übergang vom Northwood zum Prescott. Je nach Latenz/Durchsatz skaliert der eine Kern besser als der andere, auf sonst identischen Plattformen.

Je nachdem, wo der konkrete Flaschenhals liegt hat man für praktisch jeden Benchmark ein anderes Skalierungsverhalten. Die Kerntaktskalierung ausschließlich am Systemhauptspeicher festmachen zu wollen ist imho nur ein kleiner Teil der Wahrheit, wenn auch ein bedeutsamer. Flaschenhälse können auch ganz wo anders liegen, je nach Anwendung. Ich denke da nur an Festplatten, Netzwerkschnittstellen, oder gar andere Rechner.

Es ist einfach praxisfern, die CPU in einem luftleeren Raum allein mit dem Hauptspeicher zu untersuchen und daraus verwertbare Erkenntnisse gewinnen zu wollen. Und wenn man für theoretische Erkenntnisfindung solche Untersuchungen betreibt sollte man imho nicht den Anspruch erheben, einen bestimmten gefundenen Flaschenhals als auschließliches Skalierungshemmnis zu bezeichnen...

Endorphine
2004-08-02, 22:03:33
Original geschrieben von Ikon
Wenn ich daran denke, dass eine CPU ohne jegliche Caches ihren Dienst (wenn auch sehr langsam) ebenso verrichten kann, dann darf man diese auch nicht als Bestandteil der CPU bezeichnen. Auf die Register, die ja auch Daten puffern, trifft das sehr wohl zu.

Auch wenn die Caches heute (!) physisch im Kern integriert sind, so gehören logisch doch zum Speichersubsystem. Dieser Denkansatz führt imho zu nichts. Integration ist unausweichlich, die CPU wird immer mehr Funktionen integrieren, die heute noch diskret gebaut werden, im Chipsatz sitzen etc.

Gehört eine FPU zur CPU? Oder ist eine FPU eine separate Einheit? In 10 oder 15 Jahren: gehört eine GPU zur CPU? Oder ist sie eine separate Einheit, die nur in der CPU integriert ist? Heute: gehört ein Speichercontroller zur CPU? Oder zum Speichersystem?

Diese Denkweise lässt sich beliebig übertragen und wird in unaufhörlicher Integration imho immer Grenzen finden. Ich denke, dass die realen Begebenheiten auch bestimmen sollten, welche Funktion wem zugeordnet wird.

mrdigital
2004-08-02, 23:36:18
Endo, woher kommt eigentlich deine Begeisterung für das P4 Design? Was findest du so überzeugend an dem Design (im Vergleich zum K7)?

Ikon
2004-08-02, 23:49:00
Original geschrieben von mrdigital
Endo, woher kommt eigentlich deine Begeisterung für das P4 Design? Was findest du so überzeugend an dem Design (im Vergleich zum K7)?

Du wirst noch bereuen diese Frage gestellt zu haben, lieber Moderator :)

Es braucht weit mehr als bloße Rechenleistung um Endorphine zu befriedigen ...

Endorphine
2004-08-03, 00:11:20
Original geschrieben von mrdigital
Endo, woher kommt eigentlich deine Begeisterung für das P4 Design? Was findest du so überzeugend an dem Design (im Vergleich zum K7)? Ist zwar hier reichlich OT, aber ich antworte trotzdem mal: mich überzeugt die CPU in der Gesamtheit mit der umgebenden Plattform. Rechenleistung allein reicht mir nicht, mir sind auch die weichen Faktoren wie Chipsätze, Cachegröße, Temperatur- und Powermanagement, Heatspreader, leistungsfähigerer FSB, Retention Module etc. wichtig. OC ist für mich nur für Experimente gut, deshalb stört es mich auch nicht, wenn die CPU nur über den FSB im Kerntakt veränderbar ist.

Mitte 2002 stellte sich für mich die Frage gar nicht, der P4-NW mit FSB533 im B0-Step samt i845E war AMD-K7 Plattformen mit vergleichbarer Rechenleistung für meine Anforderungen zu der Zeit haushoch überlegen.

SMT halte ich immer noch für die sinnvollste Erweiterung einer CPU seit in den 486er ein Cache und die FPU standardmäßig Einzug hielt. Alle anderen Erweiterungen von MMX über 3Dnow!, SSE und was es sonst noch gab haben nicht ansatzweise sofort einen derartigen Mehrwert erbracht. Das geniale an SMT ist ja, dass es nicht nur auf Threads, sondern auch zwischen Tasks wirkt. Und wer arbeitet heute noch nur mit einem einzigen aktiven Prozess in Zeiten von preemptive multitasking? Von SMT hat jeder einen Mehrwert, sofort und ohne Kompromisse. Nebenbei beseitigte es in perfekter Weise den ehemals größten performancebedingten Kritikpunkt von Netburst: niedrige Kernauslastung und daraus resultierend mäßige Leistung.

Von den 64-Bit Fähigkeiten des K8 hat man für die nächste Zeit als gewöhnlicher Anwender ohne 4,0+ GiB RAM erstmal gar nichts. Ähnlich verhielt es sich mit MMX &amp; Co.

512 kiB L2-Cache kamen im Sockel-A K7 auch erst wieder sehr spät. Auf meinem damaligen Pflichtenheft wollte ich vom PII keinen Abstieg mitmachen, mit dem K7 wäre ich auf 256 kiB abgestiegen. Über mechanische Vorteile von Retention Modul vs. Sockel-462 brauche ich sicher nichts zu schreiben, ebenso erübrigt sich die Diskussion um Temperatur- und Powermanagement, Heatspreader, ATX12V-Kernspannungsregler und Chipsätze denke ich. Die Liste lässt sich fortführen.

AMD hat mit dem K8 aufgeholt, früher waren die Verhältnisse aber eben einfach anders.

Muh-sagt-die-Kuh
2004-08-03, 00:44:55
Original geschrieben von Endorphine
Naja, das "ausschliesslich" (sic!) kann ich nicht so stehen lassen. Es hängt neben der reinen theoretischen I/O-Leistung des Systemhauptspeichers natürlich auch von dessen Schnittstelle an die jeweilige CPU ab. Dann hängt es noch davon ab, ob es noch andere Master im System gibt, die Last auf dem Hauptspeichersystem erzeugen. Das können andere CPUs in SMP oder Master-Slave Multi-CPU Systemen sein, oder Mastercontroller irgendwelcher Art.Ausgangspunkt ist ein single-CPU System. Von anderen Mastern erzeugte Last auf das Hauptspeichersystem kann vernachlässigt werden, da in einem fest definiertem Umfeld annährend konstant.Ganz wesentlich für die Skalierung ist auch der Cache in seinem Latenz- und Durchsatzverhalten. Bestes Beispiel &rArr; Übergang vom Northwood zum Prescott. Je nach Latenz/Durchsatz skaliert der eine Kern besser als der andere, auf sonst identischen Plattformen.Die unterschiedliche Skalierung sollte mit den Caches nichts zu tun haben. Diese haben eine spezifizierte Latenz (in Takten) und eine feste Busbreite. Auch die Leistung eines on-Die Cache sollte linear mit dem Takt skalieren.

Unterschiede in der Skalierung dürften auf unterschiedliche Hauptspeicher-Zugriffsmuster zurückzuführen sein.Je nachdem, wo der konkrete Flaschenhals liegt hat man für praktisch jeden Benchmark ein anderes Skalierungsverhalten. Die Kerntaktskalierung ausschließlich am Systemhauptspeicher festmachen zu wollen ist imho nur ein kleiner Teil der Wahrheit, wenn auch ein bedeutsamer. Flaschenhälse können auch ganz wo anders liegen, je nach Anwendung. Ich denke da nur an Festplatten, Netzwerkschnittstellen, oder gar andere Rechner.Ich muss zugeben, dass ich I/O-limitierte Prozesse in dieser Betrachtung irgendwie völlig vergessen habe....Es ist einfach praxisfern, die CPU in einem luftleeren Raum allein mit dem Hauptspeicher zu untersuchen und daraus verwertbare Erkenntnisse gewinnen zu wollen. Und wenn man für theoretische Erkenntnisfindung solche Untersuchungen betreibt sollte man imho nicht den Anspruch erheben, einen bestimmten gefundenen Flaschenhals als auschließliches Skalierungshemmnis zu bezeichnen... Allgemein trifft "ausschliesslich" nicht zu.....wieso neige ich manchmal nur zu solch übertriebenen Formulierungen :kratz2:

BlackBirdSR
2004-08-03, 12:26:05
[B]Die unterschiedliche Skalierung sollte mit den Caches nichts zu tun haben. Diese haben eine spezifizierte Latenz (in Takten) und eine feste Busbreite. Auch die Leistung eines on-Die Cache sollte linear mit dem Takt skalieren.

[/B[

Ich bin mir da nicht sicher. Innerhalb der Architektur natürlich schon.
Aber wenn der eine P4A 2 Takte L1 Latenz aufweist, der P4B jedoch 4 Takte, sollte sich bei weniger komplexen Aufgaben doch einiges zugunsten des P4A verschieben.

Natürlich spielt auch die Anzahl an Pipelinestufen ein Rolle, aber immer wenn schnelle unabhängige Zugriffe gefordert werden, sollte der P4B mit steigendem Takt ordentlich auf den P4A verlieren. (was natürlich bei 4+GHz nicht mehr auffällt gegen die vielleicht geplanten 3GHz des NW)

So gesehen ist Prescott noch mehr als NW auf "streaming" ausgelegt, und verliert besonders bei sprungintensivem Integer Code.
MMX, SSE, SSE2 weisen dagegen allesamt bessere Transferraten. Latenz ist hier weniger wichtig.

Duran05
2004-08-03, 13:00:32
Original geschrieben von BlackBirdSR
MMX, SSE, SSE2 weisen dagegen allesamt bessere Transferraten.

Was mich mal interessieren würde: Warum kommen immer neue Erweiterungen dazu?

Was können die mehr / besser, was andere nicht können?
Schon damals wusste man, das Multimedia (Encoding z.B.) die Zukunft ist und bedarf besteht.

Warum hat man das nicht gleich umgesetzt anstatt bei jeder Baureihe eine neue Erweiterung zu bringen? :)

Muh-sagt-die-Kuh
2004-08-03, 13:26:20
Original geschrieben von BlackBirdSR
Ich bin mir da nicht sicher. Innerhalb der Architektur natürlich schon.
Aber wenn der eine P4A 2 Takte L1 Latenz aufweist, der P4B jedoch 4 Takte, sollte sich bei weniger komplexen Aufgaben doch einiges zugunsten des P4A verschieben.Es geht auch nur um Skalierung innerhalb einer Architektur.

Verschiedene Architekturen erzeugen verschiedene Speicherzugriffsmuster, was zu einem anderen Skalierungsverhalten führt. In diesem Fall führt die kleinere L1 Latenz zu weniger Wartezyklen => die CPU kann mehr Arbeit verrichten. Das hat aber auch zur Folge, dass sie mehr Daten pro Zeiteinheit benötigt auf denen sie arbeiten kann....und diese kommen aus dem Hauptspeicher.

Je leistungsfähiger eine CPU von Grund auf ist, desto leistungsfähiger muss auch das Speichersubsystem sein, ansonsten ergibt sich zwangsläufig eine schlechte Skalierung mit der Taktfrequenz.Natürlich spielt auch die Anzahl an Pipelinestufen ein Rolle, aber immer wenn schnelle unabhängige Zugriffe gefordert werden, sollte der P4B mit steigendem Takt ordentlich auf den P4A verlieren. (was natürlich bei 4+GHz nicht mehr auffällt gegen die vielleicht geplanten 3GHz des NW)Nehmen wir mal an, die CPU führt sehr komplexe Berechnungen mit vielen Sprüngen auf Daten durch, die komplett im Cache liegen. Bei einer Taktsteigerung läuft alles im Kern schneller ab....beide CPUs skalieren 1:1 mit dem Takt.....wieso sollte sich der Abstand zwischen beiden also ändern?

BlackBirdSR
2004-08-03, 13:43:37
ich bezeichne NW und Prescott hier absichtlich als 2 CPUs mit verschiedener Architektur. Man kann jetzt streiten ob es 2 versch. Implementationen einer Microarchitektur sind oder was auch immer.
Sicher ist, dass im Detail viele Sachen anders ablaufen, und ich beide deshalb nicht in einen Topf stecken möchte.

Das jetzt alles im Core abläuft, wollte ich vermeiden. Dort hat sich zu viel Unbekanntes geändert, um das noch zu überblicken.
Ich bleib der Meinung, dass bei Sachen wie Schach, Ki etc der Prescott im Durschnitt zunehmend auf den NW verlieren müsste, je höher der Takt.
Aber das kann ich mangels CPUs wieder mal nicht beweisen.


@Edit: vergesst den Post
Der ganze Ansatz ist fürn Müll ;)

BlackBirdSR
2004-08-03, 13:47:12
Original geschrieben von theSpy
Was mich mal interessieren würde: Warum kommen immer neue Erweiterungen dazu?

Was können die mehr / besser, was andere nicht können?
Schon damals wusste man, das Multimedia (Encoding z.B.) die Zukunft ist und bedarf besteht.

Warum hat man das nicht gleich umgesetzt anstatt bei jeder Baureihe eine neue Erweiterung zu bringen? :)

Weil eine CPU von heute mit den Features von gestern langweilig ist, und nicht gekauft wird.

Und warum man sowas damals nicht schon hatte?
Entwicklung nennt sich sowas wohl.
Damals gabs auch keine runden Autos, und auf die Idee mit dem Rad musste man auch erstmal kommen.

Duran05
2004-08-03, 14:23:53
Original geschrieben von BlackBirdSR
Weil eine CPU von heute mit den Features von gestern langweilig ist, und nicht gekauft wird.

Und warum man sowas damals nicht schon hatte?
Entwicklung nennt sich sowas wohl.

Logisch, für`s Marketing ist das immer gut.

Dennoch musste man bisher kein Hellseher sein um wissen, welche Anwendungsbereiche "gefragt" sind oder besonders genutzt werden würden.
Ich kann mir durchaus vorstellen, das die schon wissen - was sie in ihrer nächsten Erweiterung verbessern.

Aber die könnte man dann ja rein theorietisch schon teilweise in den aktuellen Prozessoren einsetzen - oder spricht etwas dagegen (außer Marketinggeblubber)? :)

CrazyIvan
2004-08-03, 16:21:32
Original geschrieben von Ikon
Du wirst noch bereuen diese Frage gestellt zu haben, lieber Moderator :)

Es braucht weit mehr als bloße Rechenleistung um Endorphine zu befriedigen ... Original geschrieben von Endorphine
[...] Rechenleistung allein reicht mir nicht [...]


Hmmm....
ist das Zufall, Methodik, oder einfach nur Copy & Paste? :kratz2:

CrazyIvan
2004-08-03, 16:29:31
Original geschrieben von theSpy
Aber die könnte man dann ja rein theorietisch schon teilweise in den aktuellen Prozessoren einsetzen - oder spricht etwas dagegen (außer Marketinggeblubber)? :)

Ich bin mir ziemlich sicher, dass intel bei der Entwicklung von MMX noch nicht so recht wusste, wohin der Weg gehen würde. Auch bin ich mir sicher, dass man nicht irgendwo 500 Funktionen rumliegen hat, und diese dann eins nach dem andern in SSE1, SSE2,..., SSE X integriert hat, sondern diese wirklich neu entwickelt. Desweiteren wäre es bestimmt damals zu P5 MMX Zeiten nicht sinnvoll gewesen, verschiedene in SSE2 vorkommende Funktionen zu integrieren, weil es der Prozessor entweder gar nicht oder nicht in vernünftiger Geschwindigkeit hätte nutzen können. Ebenso wird es in Zukunft Prozessoren mit Funktionen geben, die bei heutigen Prozessoren nicht mit vernünftiger Performanz machbar wären.

Der Autovergleich funktioniert in dieser Hinsicht ziemlich gut. Was hätte man in nem Trabbi mit Klimaanlage und ESP gewollt, wenn man ihn auf Grund des hohen Stromverbrauchs nicht mehr als 2mal hintereinander hätte anlassen können?

Duran05
2004-08-03, 17:06:33
Original geschrieben von CrazyIvan
Ich bin mir ziemlich sicher, dass intel bei der Entwicklung von MMX noch nicht so recht wusste, wohin der Weg gehen würde. Auch bin ich mir sicher, dass man nicht irgendwo 500 Funktionen rumliegen hat, und diese dann eins nach dem andern in SSE1, SSE2,..., SSE X integriert hat, sondern diese wirklich neu entwickelt. Desweiteren wäre es bestimmt damals zu P5 MMX Zeiten nicht sinnvoll gewesen, verschiedene in SSE2 vorkommende Funktionen zu integrieren, weil es der Prozessor entweder gar nicht oder nicht in vernünftiger Geschwindigkeit hätte nutzen können.

So habe ich das auch gar nicht gemeint.

Zu MMX-Zeiten war das natürlich klar. Das darf man auch mit der heutigen Zeit nicht mehr vergleichen. Da war ein PC noch lange kein Standard :)

Aber ab SSE1 fängt es doch an: SSE1, SSE2... jeweils mit xx neuen Funktionen.
Ich kann mir nicht vorstellen, das Intel plötzlich dutzend gute Ideen hatte und diese einfach in eine neue Erweiterung umgesetzt hat.
Ein paar Ideen hatten sie wahrscheinlich schon vorher - sie haben sie aber nicht umgesetzt.

Warum?
Im moment sieht es ja eher so aus, das unter einer Bezeichnung (z.B. Northwood) die MHz-Zahl nach oben geschraut wird - unter einer anderen dann neue Features (z.B. Prescott) integriert werden. Vom HT mal abgesehen. :)

Rein aus Marketingründen?

BlackBirdSR
2004-08-03, 17:35:44
Original geschrieben von theSpy
So habe ich das auch gar nicht gemeint.Warum?
Im moment sieht es ja eher so aus, das unter einer Bezeichnung (z.B. Northwood) die MHz-Zahl nach oben geschraut wird - unter einer anderen dann neue Features (z.B. Prescott) integriert werden. Vom HT mal abgesehen. :)

Rein aus Marketingründen?

Du siehst das flasch glaube ich.
Um etwas hinzufügen zu können, muss man eine Basis haben, die man erweitern kann.
Bei MMX war es der Pentium, beim SSE war es MMX, bei SSE2 war es SSE etc etc.
Bei Prescott wars es eben Williamette.

Viele der Features und Technologien ergeben sich aus den Ergebnisen von bestehenden Designs und Technologien.
Man sieht dass 32Bit Genauigkeit bei SSE nicht für alle Bereiche reicht, man fügt mit SSE2 eben 64Bit Genauigkeit hinzu.
Das aber schon mit SSE zu machen, hätte Entwicklungskosten, Zeit und Risiko bedeutet, das nicht vertretbar war.
Warum sollte man SSE2 benötigen, wenn zu Zeiten des ersten P3 eh keiner wirklich wusste wie man SIMD nutzen soll. Klar hat jeder von 30-300% gesprochen, am Ende nutzt es doch eh keiner richtig für Spiele.

Warum hatte der 386 nicht gleich einen L1 Cache?
Man musste eben erst auf die Idee dazu kommen, man musste es Kostengünstig hinbekommen und die CPU musste auch schnell genug sein um daraus Nutzen zu ziehen.