PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : TDP Intel VS. TDP AMD


BLJ
2005-05-12, 08:50:34
Hallo zusammen,

dies geht v.A. an das Team von 3DCenter.de

in einigen von euren Artikeln schreibt ihr was über die TDP.
z.B. TDP (maximale Verlustleistung) beim Athlon 64 Stepping Artikel

oder maximale Leistungsaufnahme (TDP) im Artikel "Zum Intel Sockel 775".
Zu erwähnen wäre noch die seitens Intel mit den neuen Prescott-Prozessoren im D0-Stepping hochgesetzte maximale Leistungsaufnahme (TDP) von nunmehr 115 Watt

nun, dies ist nicht korrekt.
Die TDP @ AMD mag wohl die max. Verlustleistung (oder öfters sogar noch mehr sein), bei Intel ist das aber nicht so. Bei Intel kann man von etwa 75% der maximalen Verlustleistung ausgehen.

Das ist keine Behauptung, ich kann es auch beweisen (siehe folgender Teil). Ich bitte euch die entsprechenden Stellen in den Artikel zu korrigieren...
ich sehe nämlich, dass solche Fehler (die übrigens natürlich nicht nur euch, sondern vielen Seiten unterlaufen sind) breite Kreise ziehen & viele es auch noch glauben...

also zu den Beweisen... einiges kommt von Intel selbst, anderes sind Intel Zitate, die ich aber nicht zurück verfolgen konnte.

Therefore, a system designed to the thermal design point, which has been
set to approximately 75% of the maximum processor power would be unlikely to see the thermal control circuit
active and experience the associated performance reduction.

von INTEL höchstpersönlich

hier (http://developer.intel.com/design/pentium4/guides/24920301.pdf)


DIES (http://www.intel.com/design/pentium4/datashts/29864312.pdf) hier (von Intel) beweist, dass die TDP <> Max. Verlustleistung ist.
Intel recommends that complete thermal solution designs
target the Thermal Design Power (TDP) indicated in Table 5-1 instead of the maximum processor
power consumption. The Thermal Monitor feature is intended to help protect the processor in the
unlikely event that an application exceeds the TDP recommendation for a sustained period of time.

Dies (http://www.google.ch/search?hl=de&q=%22reflect+Intel%27s+recommended+design+point+and+are+not+indicative+%22&meta=) sagt es ganz konkret aus, dass TDP <> max. Wattage. Zu finden auf Namhaften Seiten wie Shuttlecomputer.de....

To quote their spec sheet "The [Thermal Design Power] numbers ... reflect Intel's recommended design point and are not indicative of the maximum power the processor can dissipate under worst case conditions."

Intel further states "Processor power dissipation simulations indicate a maximum application power in the range of 75% of the maximum power for a given frequency."

If we assume Intel is accurate, and I see no possible reason to think otherwise then maximum power dissipation can be roughly obtained by dividing the TDP by 75%.


DIES (http://www.computernerd.com/inteltdp-2.html) belegt meine Behauptung... praktische Tests...

thanks für euren Aufwand,

cya

andr_gin
2005-05-12, 09:23:11
Ich glaube du verwechselst hier irgendetwas. Bei Intel ist die TDP die Verlustleistung, die unter realen Umständen maximal erreicht wird. Bei AMD hingegen ist es eine Größe für die Hersteller von Boards, Kühlern etc.
Ein Winchester mit einer TDP von 67Watt braucht real ca. 40Watt unter Volllast und ein Newcastle mit 89Watt dürfte so im Bereich von 60-70Watt liegen (natürlich alles abhängig vom Takt). Bei Intel sind das jedoch realistische Werte. Man kann bei Intel ca. 70% dazuzählen um auf die TDP zu kommen, die eine AMD CPU mit gleicher Verlustleistung hätte.

P.S.: Was Intel sagt ist zwar schön und gut aber wirklich relevant ist es nicht und schon gar kein Beweis oder glaubst du auch, dass MHz die einzige Größe zum Messen der Leistung einer CPU ist: http://www.3dcenter.org/images/2002/intel_vs_amd_model_rating.pdf

BLJ
2005-05-12, 09:29:41
Ich glaube du verwechselst hier irgendetwas. Bei Intel ist die TDP die Verlustleistung, die unter realen Umständen maximal erreicht wird. Bei AMD hingegen ist es eine Größe für die Hersteller von Boards, Kühlern etc.
Ein Winchester mit einer TDP von 67Watt braucht real ca. 40Watt unter Volllast und ein Newcastle mit 89Watt dürfte so im Bereich von 60-70Watt liegen (natürlich alles abhängig vom Takt).


maximale Verlustleistung <-> maximale Verlustleistung unter realen Umständen.
Dann müsst es wenn schon heissen TDP = Verlustleistung unter normalen/realen umständen -> ist nicht so verwirrlich.

'reale Umstände' varieren desweiteren - wesshalb man so eine grösse absolut schon grad gar nich angeben kann.

P.S.: Was Intel sagt ist zwar schön und gut aber wirklich relevant ist es nicht und schon gar kein Beweis oder glaubst du auch, dass MHz die einzige Größe zum Messen der Leistung einer CPU ist: http://www.3dcenter.org/images/2002/intel_vs_amd_model_rating.pdf

Mit leistung meinte ich immer Verlust-Leistung, und nicht die performance, die ein CPU erbringt...
Intel hat ihre TDP definiert / erfunden /gemessen -> somit ist, was sie insofern sagen, schon massgebend.

& finally:

Bei Intel ist die TDP die Verlustleistung, die unter realen Umständen maximal erreicht wird.

hatte n link, der das mit praktischen Tests wiederlegte, der ist jetzt leider grad down...

ansonsten ist des hier auch noch sehr interessant:
http://users.erols.com/chare/elec.htm

cya

PS:

Bei Intel sind das jedoch realistische Werte. Man kann bei Intel ca. 70% dazuzählen um auf die TDP zu kommen, die eine AMD CPU mit gleicher Verlustleistung hätte.
Der satz ist völlig Konfus , abe rich versteh, was du damit meinst :wink:

superdash
2005-05-12, 10:03:30
Hi!

Also soweit ich weiß ist bei AMD mit TDP das maximal mögliche eines bestimmten Kerns gemeint. D.h. der "größte" Prozessor, der auf einem best. Kern basiert könnte diese Leistungsaufnahme haben.

Bei Intel ists für jede einzelne Taktfrequenz und cpu angegeben. Und das sind dann auch Werte die unter Vollast erreicht werden.

MfG

Superdash

StefanV
2005-05-12, 10:23:15
Bei Intel ist die TDP die Verlustleistung, die unter realen Umständen maximal erreicht wird.
Erinnerst du dich an den Anandtech Linux Test?
K/a, was die da genau getestet haben, auf jeden Fall wurd der p4 mit dem Boxed Kühler aber zu warm, so dass es eine Warnmeldung gab!!

BlackBirdSR
2005-05-12, 10:25:26
Hallo zusammen,

dies geht v.A. an das Team von 3DCenter.de

in einigen von euren Artikeln schreibt ihr was über die TDP.
z.B. TDP (maximale Verlustleistung) beim Athlon 64 Stepping Artikel

oder maximale Leistungsaufnahme (TDP) im Artikel "Zum Intel Sockel 775".




Das ist natürlich korrekt, dass hier die TDP Werte von Intel und AMD munter vermischt werden.
In der Tat geht AMD von maximalen Werten bei maximaler Stromaufnahme und erhöhter Temperatur aus (siehe Dokumente), während sich Intel auf ein Testverfahren für maximalen Durschschnittsverbrauch bei auslastenden Anwendungen bezieht.

Von daher ist es sicherlich nicht korrekt, beide Angaben gleichzusetzen.
Wir werden vor Allem in Zukunft veruchen hier besser zu differenzieren.
Im Zuge der Berichterstattung fällt sowas oftmals einfach nicht auf.

Dankeschön für den Hinweis.

Grüße
BBSR

BLJ
2005-05-12, 10:32:41
thx @BlackBirdSR.

maximalen Durschschnittsverbrauch

absolut korrekt.

Was mich an der TDP ärgert,ist, dass es einfach so ein biegsamer Bananen-Begriff ist, der jeder wieder anders interpretiert... (viele Leute lesen daraus dann wohl 'maximaler Verbrauch'... bzw. interpretieren es eben nicht 'korrekt')..


also nochmals danke =)

cya

PS: @superdash:

Und das sind dann auch Werte die unter Vollast erreicht werden.
Ja, erreicht werden sie zweifellos. Das is auch nich das Problem, sondern, dass sie potentiell eben nicht nur erreicht, sondern gar überstiegen werden... :smile:

superdash
2005-05-12, 10:56:51
Da hast wohl recht. Das ist der Kern des ganzen.. thx

crusader4
2005-05-12, 11:26:58
Was mich wundert ist folgendes: Das Intel dem Verbraucher die TDP so angibt, mag ja marketingtechnisch gut sein.
Dass allerdings auch die Hardwarehersteller sich nicht nach dem Worst-Case richten sollen, sondern nach diesem "maximalen Durchschnittsverbrauch", befremdet mich.

Sind die Spannungswandler auf Mainboards also so knapp dimensioniert, das wenn die Intel-TDP überschritten wird (was ja durchaus möglich scheint) diese überlastet werden?
Oder bezieht sich das nur auf Kühllösungen?

Ist nicht als Flame gedacht, aber da halte ich den AMD-Ansatz für sicherer.

Grüße, Crusader

DrumDub
2005-05-12, 11:52:59
hmmm... laut dem letzten test von ht4u sind die tdp werte von intel aber auch völlig safe: http://www.hardtecs4u.com/reviews/2005/leistungsmessung_intel/index7.php

Avalox
2005-05-12, 12:00:47
Der TDP ist kein Grösse, welche den MB Bauer gezielt interessiert.

Es ist eine einfache Grösse, welche es den Anwender erlaubt sich einen Überblick zu verschaffen, um seine Komponenten richtig auszuwählen.

Vielleicht hätte man besser den TDP nicht absolut in Watt angegeben, sondern einfach durchnummeriert. TDP 1,2,3,A,B,C.

Gast
2005-05-12, 13:26:19
Wie sieht es dann aus mit den Stromsparern?
Stichwort Pentium M:
http://www.hardwareluxx.de/cms/artikel.php?action=show&id=118
Dann müsste per Definition auch der Turion 25W weniger Strom verbraten als der Dothan, welcher mit 21W als auch mit 27W(neue Plattform) erhältlich ist.

Grüße,
Tom

BLJ
2005-05-12, 13:31:06
die TDP von Intel ist eben nicht immer 75%

jmnd. hat dazu auch n Test gemacht (site grad down).

Die liegt z.T. auch bei ~90% max. Stromverbrauch oder so.

Gut möglich,d ass das bei den Pentium M eher so ist. Wobei das ja noch nie jmnd. wirklich verglichen hat - also mit praktischen Werten - oder?
Das Problem ist aber auch wieder, dass praktische Werte nicht representativ sind.

cya

alpha-centauri
2005-05-12, 14:44:11
Ich glaube du verwechselst hier irgendetwas. Bei Intel ist die TDP die Verlustleistung, die unter realen Umständen maximal erreicht wird. Bei AMD hingegen ist es eine Größe für die Hersteller von Boards, Kühlern etc.
http://www.3dcenter.org/images/2002/intel_vs_amd_model_rating.pdf

also nach meiner uberzeugung ist es genau den anderen wert rum.

zumindest bei Intel, ist die TDP die maximale verlustleistung, die unter unguenstigen umstaenden erreicht wird. meistens 75% TDP unter normalen bedingen. und gilt fuer CPU gruppen und einzelne CPUs. z.B: nen 530J mit 84W TDP kann ja mit 1,2 bis 1,4 v laufen.

alpha-centauri
2005-05-12, 14:48:50
Was mich wundert ist folgendes: Das Intel dem Verbraucher die TDP so angibt, mag ja marketingtechnisch gut sein.
Dass allerdings auch die Hardwarehersteller sich nicht nach dem Worst-Case richten sollen, sondern nach diesem "maximalen Durchschnittsverbrauch", befremdet mich.

Sind die Spannungswandler auf Mainboards also so knapp dimensioniert, das wenn die Intel-TDP überschritten wird (was ja durchaus möglich scheint) diese überlastet werden?
Oder bezieht sich das nur auf Kühllösungen?

Grüße, Crusader

ne,d asi st diese VRM (Richtig?) spefikation. 10.x oder so. die gilt fuer spannungswandler z.B.

und du siehst z.B. dass bei namcnen boards nur CPUS bis 3,x ghz gehen. wenn dan keine 3,6 oder 3,8 gehen, ist das board halt zu knapp bemessen.

BLJ
2005-05-12, 16:46:06
also nach meiner uberzeugung ist es genau den anderen wert rum.

zumindest bei Intel, ist die TDP die maximale verlustleistung, die unter unguenstigen umstaenden erreicht wird. meistens 75% TDP unter normalen bedingen. und gilt fuer CPU gruppen und einzelne CPUs. z.B: nen 530J mit 84W TDP kann ja mit 1,2 bis 1,4 v laufen.


ne eben nicht. die TDP = 75% der maximalen Verlustleistung die unter ungüstigen Umständen erreicht wird.

TDP ist die obere Grenze der Verlustleistung unter normalen Umständen

(@Intel natürlich alles).

cya

StefanV
2005-05-12, 18:35:56
ne,d asi st diese VRM (Richtig?) spefikation. 10.x oder so. die gilt fuer spannungswandler z.B.

und du siehst z.B. dass bei namcnen boards nur CPUS bis 3,x ghz gehen. wenn dan keine 3,6 oder 3,8 gehen, ist das board halt zu knapp bemessen.
VRM 10.0 für S478, VRM10.1 für LGA775, siehe auch meinen PDF Thread (http://forum-3dcenter.de/vbulletin/showthread.php?t=174320)

alpha-centauri
2005-05-12, 19:47:30
VRM 10.0 für S478, VRM10.1 für LGA775, siehe auch meinen PDF Thread (http://forum-3dcenter.de/vbulletin/showthread.php?t=174320)

danke. hab halt leider nicht immer alles fachwissen zu hand, sondern speicher mit in meinem brain nur die artikelueberschriften und 5 stichworte dazu ;)

BLJ
2005-05-13, 08:32:59
ach ja hab hier noch ne schöne Grafik von Intel selbst, was die Max Power und was die TDP ist...

http://juchli.home.solnet.ch/IntelScreen.JPG

cya

EDIT:
für die eigentl. am Thema interessierten unter euch:

Auf der Grafik sieht man ja schön, was das Verhältniss der max. Power und der TDP in Abhängigkeit der Zeit ist.
Die CPU verbraucht ja nicht Sekunde für Sekunde gleich viel Strom - die TDP ist konstant, bei ~75% des maximalen Verbrauchs (=> der Spitze) angesiedelt.
Interessanter ist aber, dass der maximale Verbrauch so zwischen 90% und 100% schwankt, also der durchschnittliche maximale Verbrauch ist ~95%, und nicht etwa 75%...

Gast
2005-05-13, 08:44:25
Hi!

Also soweit ich weiß ist bei AMD mit TDP das maximal mögliche eines bestimmten Kerns gemeint. D.h. der "größte" Prozessor, der auf einem best. Kern basiert könnte diese Leistungsaufnahme haben.

Bei Intel ists für jede einzelne Taktfrequenz und cpu angegeben. Und das sind dann auch Werte die unter Vollast erreicht werden.

MfG

Superdash


nein es ist bei AMD die angabe, wieviel W das mainboard liefern können muss.

aber jedes mobo kann eh min. 50% mehr liefern als die mindest anforderungen.
OC bretter können meist sogar 250% über, den geforderten angaben liefern ohne einzubrechen.


die angaben beim A64 sind daher nur als wert für die mainboard zu betrachten.

ein winchester 3800+ verbraucht nur 35W unter vollast. :up:

Gast
2005-05-13, 09:36:15
ach ja hab hier noch ne schöne Grafik von Intel selbst, was die Max Power und was die TDP ist...

http://juchli.home.solnet.ch/IntelScreen.JPG

cya

EDIT:
für die eigentl. am Thema interessierten unter euch:

Auf der Grafik sieht man ja schön, was das Verhältniss der max. Power und der TDP in Abhängigkeit der Zeit ist.
Die CPU verbraucht ja nicht Sekunde für Sekunde gleich viel Strom - die TDP ist konstant, bei ~75% des maximalen Verbrauchs (=> der Spitze) angesiedelt.
Interessanter ist aber, dass der maximale Verbrauch so zwischen 90% und 100% schwankt, also der durchschnittliche maximale Verbrauch ist ~95%, und nicht etwa 75%...


die frage ist in welchem zeitraum das sampling zur leistungsmessung dauert, und intel schreibt hier dass dieser bei der max. leistungsaufnahme sehr sehr klein ist.

und mich interessiert eigentlich nicht wirklich wie hoch die leistungsaufnahme in einer hundertstel sekunde ist ;)

GloomY
2005-05-13, 12:56:10
Die TDP @ AMD mag wohl die max. Verlustleistung (oder öfters sogar noch mehr sein)Äh???

Die TDP Angabe von AMD wird NIE überschritten! Das ist ja gerade das Tolle daran, dass man eine obere Schranke bekommt, die der Eigenschaft der Definition einer "oberen Schranke" wirklich gerecht wird; d.h. wirklich unter keinen Umständen überschritten wird.

Anders herum ausgedrückt sehe ich als Kühlungshersteller eigentlich nur die Sinnlosigkeit der TDP Werte von Intel. Wenn ich verhindern will, dass gegebenenfalls das Throtteling des Prozessors einsetzen muss, weil ich nunmal gerade einen "ungünstigen" Fall erwischt habe, wo die Verlustleistung über der TDP liegt, so muss ich meinen Kühler sowieso von vorne herein größer als den TDP Wert dimensionieren. Wozu dann das ganze Theater mit dieser Angabe?
Wozu eine obere Schranke definieren, bei der dann doch die Wahrscheinlichkeit echt größer Null ist, dass diese überschritten wird? :conf2:


Ausserdem:
BLJ, du widersprichst dir doch selbst:ne eben nicht. die TDP = 75% der maximalen Verlustleistung die unter ungüstigen Umständen erreicht wird.Das steht im klaren Widerspruch zu Intels Aussage:The Intel TDP specification is a recommended design point and is not representative of the absolute maximum power the processor may dissipate under worst-case conditions.Quelle (http://download.intel.com/design/intarch/designgd/30599301.pdf)
Das heisst, dass im ungünstigsten Fall die Verlustleistung höher als der TDP Wert liegt. Intel behauptet weiterhin, dass mit "öffentlich verfügbarer Software" der TDP Wert nicht überschritten würde. Das ist etwas ganz anderes als die Aussage, dass der TDP Wert nie überschritten wird (so wie du es laut obiger Aussage tätigst).

Bezüglich der "öffentlich verfügbaren Software" und der Behauptung, dass mit dieser die TDP nicht überschritten würde, wäre ich zumindest mal vorsichtig. Man kann nicht alle Software der Welt testen und besonders nicht solche, die noch gar nicht geschrieben wurde.
TDP ist die obere Grenze der Verlustleistung unter normalen Umständen

(@Intel natürlich alles).

cyaJa, da sind wir wieder bei der Frage, was denn als "normal" angesehen werden kann. Normal im Sinne von "öffentlich verfügbarer Software"? Und was ist mit der nicht öffentlich verfügbaren Software? Software, die nur intern in Unternehmen usw. eingesetzt wird? Was ist mit Software, die noch gar nicht geschrieben wurde? Woher will ich wissen, dass nächste Woche nicht ein Softwarehersteller ein Programm herausbringt, welches eine Codesequenz enthält, die bei der Ausführung die TDP überschreitet?

Dieses Rumgeeiere um den tatsächlichen Maximalverbrauch und diese Floskeln wie "öffentlich verfügbare Software" stellt für mich keine überzeugende Lösung dar.
Ich fände es sehr viel besser, wenn Intel einfach sagen würde, dass die TDP nie überschritten würde (und gegebenenfalls die TDP enstprechend nach oben hin anpasst). Dann wäre die Sache klar und jeder wüsste bescheid.
So hat man die Aussage, dass "üblicherweise" die TDP nicht überschritten wird, und dann noch eine Aussage, dass sie dann doch überschritten werden kann. Ganz Toll... :|

Gast
2005-05-13, 13:17:27
Anders herum ausgedrückt sehe ich als Kühlungshersteller eigentlich nur die Sinnlosigkeit der TDP Werte von Intel. Wenn ich verhindern will, dass gegebenenfalls das Throtteling des Prozessors einsetzen muss, weil ich nunmal gerade einen "ungünstigen" Fall erwischt habe, wo die Verlustleistung über der TDP liegt, so muss ich meinen Kühler sowieso von vorne herein größer als den TDP Wert dimensionieren. Wozu dann das ganze Theater mit dieser Angabe?
Wozu eine obere Schranke definieren, bei der dann doch die Wahrscheinlichkeit echt größer Null ist, dass diese überschritten wird? :conf2:




dem kühler wird es ziemlich egal sein wenn dieser wert für sekundenbruchteile überschritten wird, nur die spannungsversorgung muss entsprechend ausgelegt sein um immer genug liefern zu können.


AMD kann genauso wenig jede mögliche software der welt testen und somit 100%ig garantieren dass der TDP-wert nicht vielleicht mal für 1ms doch überschritten wird.

für den user ist es noch uninteressanter, schließlich muss er den strom zahlen den der pc durchschnittlich verbraucht und nicht den der vielleicht irgendwann mal 0,005s auftritt.

BLJ
2005-05-13, 13:58:14
Äh???
Die TDP @ AMD mag wohl die max. Verlustleistung (oder öfters sogar noch mehr sein)

Joa, die schliessende Klammer ist am falschen Orte - sollte vor 'sein' sein.
Die Aussage oben ist keien absolute, --- mag sein-- ist eben 'gummig' ;-)
da wiederspreche ich mir auch nicht, das ist nur ne schöne Formulierung für irgendwelche festgefressenen Leute ^^... - was die AMD TDP ist, ist mir eigentl. klar -und für mich eher hintergründig. Es geht/ging immer v.A. darum klarzustellen, dass die Intel TDP nicht das ist, als was sie viele ausgeben.
[/Quote]


Anders herum ausgedrückt sehe ich als Kühlungshersteller eigentlich nur die Sinnlosigkeit der TDP Werte von Intel. Wenn ich verhindern will, dass gegebenenfalls das Throtteling des Prozessors einsetzen muss, weil ich nunmal gerade einen "ungünstigen" Fall erwischt habe, wo die Verlustleistung über der TDP liegt, so muss ich meinen Kühler sowieso von vorne herein größer als den TDP Wert dimensionieren. Wozu dann das ganze Theater mit dieser Angabe?


In nem PDF auf Intel hab ~ die aussage gefunden (is jetzt aus'm gedächtnis, in meinem 1. Post hats wahrscheinlich n link zu dem Dokument): Für den unwahrscheinlichen Fall, dass die TDP überschritten wird, gibt es das Thermal trotteling.
Sprich: Wenn Intel das Throtteling nicht eingeführt hätte, würden wohl dauernd CPUs abfackeln... die rechnen damit, dass es gebraucht wird!


Ausserdem:
BLJ, du widersprichst dir doch selbst:Das steht im klaren Widerspruch zu Intels Aussage:
die TDP = 75% der maximalen Verlustleistung die unter ungüstigen Umständen erreicht wird.
(...)
Das ist etwas ganz anderes als die Aussage, dass der TDP Wert nie überschritten wird (so wie du es laut obiger Aussage tätigst).


:confused: nein, lies den Satz nochmals genau!
TDP = 75% der maximalen Verlustleistung!, das bedeutet, dass die maximale Verlustleistung 133% der TDP ist! und natürlich wird die maximale Verlustleistung mal erreicht - sprich die TDP überschritten!

Bezüglich der "öffentlich verfügbaren Software" und der Behauptung, dass mit dieser die TDP nicht überschritten würde, wäre ich zumindest mal vorsichtig. Man kann nicht alle Software der Welt testen und besonders nicht solche, die noch gar nicht geschrieben wurde.

Das sehe ich 100% genau so 'normal', 'öffentlich verfügbare Software', 'üblich', 'unüblich' & 'real', das sind alles so biegbare, relative Gummibegriffe. Ich denke, dass Intel die verwendet, damit man denkt, es trete nie auf. Also quasi marketing - man schreibt zwar die Wahrheit, will aber, dass der Leser die beschönigte Variante davon interpretiert.

cya

Bokill
2005-05-13, 14:44:26
Das paradoxe dabei ist, das eigentlich beide Hersteller eine halbwegs begründete Meinung über ihr Rating haben.

AMD geht vom schlimmstmöglichen Fall aus. Damit können Notebooks ziemlich narrensicher ausgelegt werden. Notwendig ist lediglich ein Normheizelement um die simulierte Wärmeabstrahlung zu testen.

Intel geht von einem bestimmten Normnutzprofil aus. In der Masse werden eben nicht 1000 Tasks nebeneinander gefahren, zudem mit DVD Encoden und Spielen. Der Alltag ist nach wie vor schnöde Büroarbeit. Die kurzzeitigen Last/Wärmespitzen kann in der Regel durch die Trägheit der Wärmeleitung abgefangen werden

Derzeit sind die Angaben aber weniger technischer Natur, sondern Marketing, wie das Ratingsystem auch.

Anders gesagt, mit solchen Threads arbeiten wir den Marketingabteilungen zu. Es gibt nichts besseres als sich über Firmenwerbebegriffe sich in den Haaren zu liegen. Gut möglich dass AMD und Intel bei Google einen Counter installiert haben wie häufig ihre Werbephrasen gedroschen werden.

Viel notwendiger ist der Ruf nach einem Gesamtsystem mit einem bestimmten Verbrauchsmaxima. Darin sind dann alle notwendigen Komponenten enthalten. Meiner Meinung nach ist es völliger Overkill für einen Standard Office PC mehr als 100 W Strombedarf zu erwarten. Bei einem Daddel-PC darf es dann mehr sein ...

Mit den Embedded Dothan, Opteron, Athlon (GeodeNX) sind locker 10 W Maximum pro CPU machbar, wenn man noch die MIPS, ARM in die Rechnung nimmt, dann kommt man gar bei 1 W Pro CPU aus.

MFG Bokill

BLJ
2005-05-13, 15:39:23
Hi BoKill,

ich glaube nicht, dass es für Intel positives Marketing ist, wenn man aufdeckt, dass die Verlustleistung ihrer CPUs höher ist als allg. angenommen.

Für AMD mag es hier schon ein gutes Marketing sein - dagegen habe ich auch nix. Ein AMD <-> Intel ausgeglichener Markt würde den Wettbewerb schüren und uns allen in die Tasche spielen...

cya

Snoopy69
2005-05-13, 20:10:47
Hi BoKill,

ich glaube nicht, dass es für Intel positives Marketing ist, wenn man aufdeckt, dass die Verlustleistung ihrer CPUs höher ist als allg. angenommen.

Für AMD mag es hier schon ein gutes Marketing sein - dagegen habe ich auch nix. Ein AMD <-> Intel ausgeglichener Markt würde den Wettbewerb schüren und uns allen in die Tasche spielen...

cya
Ich halte von der TDP-Angabe nicht viel - von einem guten Leistungsmessgerät allerdings schon.

Mein P4 wird jedenfalls demnächst verkauft...

Sighfreak
2005-05-15, 03:11:32
...wobei wir dann ja wieder beim Thema wären.....es bringts eben nicht, mit TDP-Angaben um sich zu schmeissen, weil sowieso kein Schwein genau weiss, wie das Zeugs genau definiert ist. Zumal Intel und AMD sogar selber Unterschiede machen bei der Definition, und zumal wir uns offenbar auch hier nicht drüber einig werden, was das denn nun genau heisst, wenn im Datenblatt von Intel zum Beispiel ein TDP von 130Watt genannt ist.

Ist es nicht sogar so, dass locker mal eine moderne Prozzi mit TDP 100 sogar weniger warm werden kann, als eine ältere Prozzi welche mit TDP 100 zertifiziert war?

Schlussendlich zählt doch einfach, wie heiss die Prozzi wird oder nicht wird.
Alles andere ist hochtheoretisches Gehabe welches man imo den Profis von Intel, AMD und den Mobo - und Kühlerherstellern überlassen sollte...
...Sollen die sich drüber streiten, was man dieser Angabe überhaupt für Infos entnehmen kann, oder nicht?

Spasstiger
2005-05-15, 05:41:18
@GloomY: Du hast offenbar BLJ's Postings nicht richtig verstanden, er hat sich definitiv nicht widersprochen ;).

@Sighfreak: Die Temperatur ist sicherlich nicht das entscheidende Kriterium, sondern eben die maximale und die durchschnittliche Leistungsaufnahme.
Die Maximalwerte sind für die Mainboardhersteller relevant, um die Stromversorgung ausreichend zu dimensionieren.
Der Durchschnittswert dagegen ist wichtig für die Kühlerhersteller, die ja ihre Kühler für eine bestimmte Verlustleistung auslegen müssen.
Die Temperatur ist dagegen eine relativ nutzlose Angabe, solange die Diegröße nicht bei allen CPUs einheitlich ist. Ein Kühlerhersteller würde wohl fluchen, wenn er den Auftrag bekommt, einen Kühler zu entwickeln, der eine CPU unter 60°C hält (ohne weitere Angaben zur CPU).

r3ptil3
2005-05-15, 17:22:18
Intel Pentium 840 EE für 500.-Euro!! http://www.pcp.ch/Intel-Pentium-840-Extreme-Edition-BTX-1a12144155.htm

Freakazoid
2005-05-15, 17:53:21
Intel Pentium 840 EE für 500.-Euro!! http://www.pcp.ch/Intel-Pentium-840-Extreme-Edition-BTX-1a12144155.htm

:eek:

Spasstiger
2005-05-15, 17:56:13
Intel Pentium 840 EE für 500.-Euro!! http://www.pcp.ch/Intel-Pentium-840-Extreme-Edition-BTX-1a12144155.htm

Das muss ein Druckfehler sein. Anders kann ich mir das nicht erklären.

r3ptil3
2005-05-15, 18:14:13
Der einzige Unterschied zwischen Pentium D und EE ist ja nur Hyper Threading Technology darum ist wahrscheinlich billiger als z.B. P4 3.73ghz EE.

WOW Intel Pentium D 820 für 230.- EURO http://www.digitec.ch/index2.php?artikel=112566&referer=Toppreise

alpha-centauri
2005-05-15, 18:21:56
Das muss ein Druckfehler sein. Anders kann ich mir das nicht erklären.

selbst fuer 500 Euro ist der 3,2 ghz EE DC langsamer, als fuer den 500 Euro AMD mit 2,2 ghz. in eigentlich allem. nur in speziellen 4 thread benches zieht er noch etwas davon.

r3ptil3
2005-05-15, 18:24:49
selbst fuer 500 Euro ist der 3,2 ghz EE DC langsamer, als fuer den 500 Euro AMD mit 2,2 ghz. in eigentlich allem. nur in speziellen 4 thread benches zieht er noch etwas davon.

Ich hole mir aber trotzdem lieber einen 840 EE statt den X2 mit 2.2ghz.

Coda
2005-05-15, 19:14:00
Begründung? X-D

r3ptil3
2005-05-15, 19:17:23
Begründung? X-D

H.T.T., soll sich auch gut ocen lassen und einfach so lieber! 4600+ und 4800+ sollen noch teurer sein...

Coda
2005-05-15, 19:24:10
HTT ist doch dank Dual Core absolut obsolet geworden. Sieht man schon bei 2 Xeons, da bringt HTT auch fast nix mehr. Vor allem weil Dual Core bei Intel auch extrem schlecht skaliert ist der X2 deutlich im Vorteil.

Preis bei nem 840 EE ist nun wirklich kein Argument oder?

r3ptil3
2005-05-15, 19:27:09
HTT ist doch dank Dual Core absolut obsolet geworden. Sieht man schon bei 2 Xeons, da bringt HTT auch fast nix mehr.

Man braucht eigentlich nur 2 virtuelle Prozessoren weil der Windows XP Scheduler so beschissen ist.

Preis bei nem 840 EE ist nun wirklich kein Argument oder?

Die X2 sind noch nichtmal gelistet im Vergleich zu Intel und wenn zu lange kann ich auch nicht warten.

Coda
2005-05-15, 19:36:07
Macht immer noch keinen Sinn. Aber es gibt Leute die sind halt engstirnig :D

alpha-centauri
2005-05-15, 19:59:47
Ich hole mir aber trotzdem lieber einen 840 EE statt den X2 mit 2.2ghz.

der spruch koennte zwar von mir kommen, aber wieso ich fuer ne de facto scheiss CPU bezahlen soll, wenn es AMD deutlich besser machen kann, sehe ich sogar mit leichtigkeit ein.

alpha-centauri
2005-05-15, 20:02:14
HTT ist doch dank Dual Core absolut obsolet geworden. Sieht man schon bei 2 Xeons, da bringt HTT auch fast nix mehr. Vor allem weil Dual Core bei Intel auch extrem schlecht skaliert ist der X2 deutlich im Vorteil.

Preis bei nem 840 EE ist nun wirklich kein Argument oder?

HT ist nicht wirklch obsolet bei den prescotts. guck doch mal. je nach anwendung kansnt du mit HT nohmal 50% rausholen. egal ob single core.

es gibt ja auch entsprechende DC Benches (eigentlich kenen ich nur einen :smile: ), wo 4 logische CPUs mehr dampf machen, als 2 reale.

ICH war auf der cebit. ich sah den benchmark. ich sah es mit 2 realen cores und ich sah es mit 4 logischen CPUs.

fue rnen AMD64 ob single oder dualcore ist jedoch HT unnoetig, da es nicht dazu dient, die pipes cache und mikroops zu fuellen,w ie das beim prescott noetig ist.

dennoch. der intel D oder EE ist schwachsinn. dann lieber nen 660 kaufen. guenstiger, kuehler, besser. in singlethread schnell und kackt unter multithread auch nicht so extrem ein wie ein AMD

alpha-centauri
2005-05-15, 20:03:04
Macht immer noch keinen Sinn. Aber es gibt Leute die sind halt engstirnig :D

a) prescott als beschissen zu bezeichnen, deutet nur auf eigene dummheit hin

b) nen EE zu kaufen, deutet nicht nur auf eigene dummheit hin, sondern auch noch auf engstirnigkeit ignoranz und keinem urteilsvermoegen.

r3ptil3
2005-05-15, 20:14:55
a) prescott als beschissen zu bezeichnen, deutet nur auf eigene dummheit hin

b) nen EE zu kaufen, deutet nicht nur auf eigene dummheit hin, sondern auch noch auf engstirnigkeit ignoranz und keinem urteilsvermoegen.

Jetzt langsam frech hä?
Prescott sind einfach nicht wirklich gut. Ich habe das halt etwas vielleicht übertrieben mit beschissen, nur wiso greift Intel wieder zu der pentium 3 Technologie!? Weil ja der Prescott momentan zu gut ist für die Konkurrenz ne?
Ich persönlich finde den Prescott nur etwas schlecht weil er so heiss wird und in Games nicht soo gut ist, jedoch ist das übertakten geil und H.T.T. ist auch was gutes darum habe ich mir vor einem halben Jahr oder mehr einen P4 3.2ghz Prescott gekauft.
Und ich kaufe mir sicherlich nicht den 840 EE lieber weil er Extreme Edition heisst sondern weil das übertaktungspotenzial gut ist und H.T.T. hat der 4200+ ist der schwächste X2 und meiner Meinung nach zu teuer im gegensatz zum 840EE.

Coda
2005-05-15, 20:20:34
Das Übertaktungspotential der E4 Athlons ist aber auch hervorragend. Imho sogar besser, weil man deutlich weniger Kühlung braucht.

Ronny145
2005-05-15, 20:22:18
Das Übertaktungspotential der E4 Athlons ist aber auch hervorragend. Imho sogar besser, weil man deutlich weniger Kühlung braucht.


Und mit weniger Übertaktung noch mehr Leistung gut macht. Dazu noch 100 Watt weniger Verbrauch :biggrin:

reunion
2005-05-15, 20:29:55
Der einzige Unterschied zwischen Pentium D und EE ist ja nur Hyper Threading Technology darum ist wahrscheinlich billiger als z.B. P4 3.73ghz EE.

WOW Intel Pentium D 820 für 230.- EURO http://www.digitec.ch/index2.php?artikel=112566&referer=Toppreise


Wow, sieht so aus als hätte Intel den Preis weiter gesenkt.

reunion
2005-05-15, 20:35:44
Naja der Prescott ist halt beschissen. Aber trotzdem lieber 840 EE statt X2 4200+. * ab 4400+ würde ich dan schon AMD nehmen*


Ironie?

reunion
2005-05-15, 20:41:23
Und ich kaufe mir sicherlich nicht den 840 EE lieber weil er Extreme Edition heisst sondern weil das übertaktungspotenzial gut ist und H.T.T. hat der 4200+ ist der schwächste X2 und meiner Meinung nach zu teuer im gegensatz zum 840EE.

Ja, er ist der schwächst X2, und trozdem schneller als der stärkste Smithfield. :rolleyes:
Desweiteren sollte sich der 4200+ gerade deswegen hervorragen übertakten lassen.

r3ptil3
2005-05-15, 22:05:47
Ironie?

So in der Art...

HOT
2005-05-15, 22:26:33
Jetzt langsam frech hä?
Prescott sind einfach nicht wirklich gut. Ich habe das halt etwas vielleicht übertrieben mit beschissen, nur wiso greift Intel wieder zu der pentium 3 Technologie!? Weil ja der Prescott momentan zu gut ist für die Konkurrenz ne?
Ich persönlich finde den Prescott nur etwas schlecht weil er so heiss wird und in Games nicht soo gut ist, jedoch ist das übertakten geil und H.T.T. ist auch was gutes darum habe ich mir vor einem halben Jahr oder mehr einen P4 3.2ghz Prescott gekauft.
Und ich kaufe mir sicherlich nicht den 840 EE lieber weil er Extreme Edition heisst sondern weil das übertaktungspotenzial gut ist und H.T.T. hat der 4200+ ist der schwächste X2 und meiner Meinung nach zu teuer im gegensatz zum 840EE.

Du kaufst die CPU doch nur wegen den 4 logischen Cores. Warum? Übertaktungsfreudigkeit als Gund kann nicht dein ernst sein.

alpha-centauri
2005-05-15, 23:08:51
Jetzt langsam frech hä?


Ne, komm. Lass stecken. Mit 15 hatte ich auch noch solche argumentativen Engpaesse. Fuer dich ist mir meine Zeit zu Schade. Andere User wissen ja auch die Minderwertigkeit deiner Beitraege zu schaeten.

r3ptil3
2005-05-15, 23:09:39
Du kaufst die CPU doch nur wegen den 4 logischen Cores. Warum? Übertaktungsfreudigkeit als Gund kann nicht dein ernst sein.

Erstens hatte ich mit Intel bis jetzt nie Probleme seit 1999, (P2 333mhz / P3 1ghz / P4 2,6ghz / P4 3.2ghz) und auch heute funktinieren alle noch ohne Probleme.
Jetzt will ich bald Dual-Core und der 840 EE ist schon gelistet bei einem Preis von 500.- Euro , AMD X2 ist noch nirgends gelistet.
Nach ersten Angaben wird der AMD X2 4200+ ca. 500.- Euro kosten gleich wie der 840 EE und in Benchmarks war der 840 EE glaub ich meistens besser!?
Nach ersten übertaktungen erreichte der 840 EE die 4ghz ohne Abstürze.
Oder ein 830 für 300.-Euro wäre auch Ok für mich.

Coda
2005-05-15, 23:11:10
Erstens hatte ich mit Intel bis jetzt nie Probleme seit 1999, (P2 333mhz / P3 1ghz / P4 2,6ghz / P4 3.2ghz) und auch heute funktinieren alle noch ohne Probleme.Das ist so ziemlich das bescheuertste Argument was man bringen kann.

Aber bitte poste nicht mehr in solche Threads dann, weil du absolut keine kritische Meinung vertrittst. Hautpsache "Intel ist super!!!!1111" - das hilft keinem.

alpha-centauri
2005-05-15, 23:11:35
Wow, sieht so aus als hätte Intel den Preis weiter gesenkt.

naja. wenn ich wirklch extrem dual core fahren wuerd, waer der 2,8er fuer 230 Euro ja schon wirklich geschenkt. denn 2 x 2,8 kosten immer noch ca 2 x 140 Euro . + MP board, die wirklcih teuer sind. + hoehrer kuehlbedarf.

aber da meine arbeit nun mal nicht nur aus ausschliesslich multithread und auch nicht ausschliesslich singlethread besteht, ist fuer mich eine nierdrig getaktete dual cpu noch nen schlechteren fang, als nen AMD64 fuer 230 Euro

r3ptil3
2005-05-15, 23:17:35
Ne, komm. Lass stecken. Mit 15 hatte ich auch noch solche argumentativen Engpaesse. Fuer dich ist mir meine Zeit zu Schade. Andere User wissen ja auch die Minderwertigkeit deiner Beitraege zu schaeten.

Wenn dir deine Zeit für mich zu schade ist dann gut, keiner zwingt dich meine Beiträge zu lesen. Du nimmst dir das Recht bezeichnest mich als einen 15Jährigen, jetzt studier mal nach wiso? Weil ich gesagt habe das Prescott nicht gut ist (Was ich eher ironisch gemeint habe).
Was hat das jetzt mit anderen User zu tun?
Bis jetzt hat mir das niemand gesagt und falls ich hier unerwünscht bin dann sagt es einfach.

Wir hatten vorhin eine Meinungsverschiedenheit wegen Hardware aber du beleidigst mich und bezeichnest mich als 15 Jährigen.

r3ptil3
2005-05-15, 23:23:02
Das ist so ziemlich das bescheuertste Argument was man bringen kann.

Aber bitte poste nicht mehr in solche Threads dann, weil du absolut keine kritische Meinung vertrittst. Hautpsache "Intel ist super!!!!1111" - das hilft keinem.

Ich habe nicht gesagt Intel ist super, das trifft eher zu alpha-centauri zu. Nämlich er hat mich stark kritisiert weil ich mal geschriben habe das Prescott schlecht ist.

GloomY
2005-05-16, 00:10:04
@GloomY: Du hast offenbar BLJ's Postings nicht richtig verstanden, er hat sich definitiv nicht widersprochen ;).So wie es da stand, war es zumindest missverständlich. Ich hab's halt anders verstanden als er es gemeint hat (keine Absicht).
dem kühler wird es ziemlich egal sein wenn dieser wert für sekundenbruchteile überschritten wird, nur die spannungsversorgung muss entsprechend ausgelegt sein um immer genug liefern zu können.

[...]

für den user ist es noch uninteressanter, schließlich muss er den strom zahlen den der pc durchschnittlich verbraucht und nicht den der vielleicht irgendwann mal 0,005s auftritt.Moment mal. Intel sagt nirgendwo, dass der TDP-Wert nur für kurze Zeit überschritten werden kann. Das kann durchaus im Minutenbereich sein, wenn z.B. die entsprechende Software, welche mehr Verlustleistung als die TDP hat, in einer Schleife läuft.
Insofern ist es dann nicht mehr egal, ob mein Kühler nur für die TDP ausgelegt ist oder für mehr.

Das ist es ja gerade, was ich oben versucht habe anzusprechen: Als Hersteller von Kühlern kann ich nicht davon ausgehen, dass als Design-Ziel zur Wärmeabführung der TDP Wert ausreicht, weil die Möglichkeit besteht, dass dieser überschritten wird - auch mal für längere Zeit.

Wenn man Leistungsverlust durch Throtteling oder sogar Abstuürze vermeiden möchte, dann muss man also den Kühler für mehr als die TDP auslegen. Wozu soll dieser Wert denn dann noch gut sein? :conf2:
AMD kann genauso wenig jede mögliche software der welt testen und somit 100%ig garantieren dass der TDP-wert nicht vielleicht mal für 1ms doch überschritten wird.Das ist aber AMDs Problem. Wenn die sagen, dass der Prozessor nicht mehr als soundsoviel Watt verbraucht und er es doch tut und dabei abraucht, dann ist nicht der Kühlerhersteller oder der Mainboardhersteller (Spannungsversorgung) Schuld.
Insofern wird AMD alles daran setzen, die eigenen Spezifikationen einzuhalten, wenn sie nicht instabile Plattformen verkaufen wollen.

Das kurzzeitige Überschreiten kann man auch bei AMD nicht ausschliessen. Auch diese können nicht alle Software der Welt testen. Die Frage ist vor allem, ob AMD wirklich mit Software testet, um die TDP zu bestimmen. Man könnte ja auch mit entsprechender Analyse der Schaltungen und Größen, die durch den Fertigungsprozess bestimmt werden, die TDP ausrechnen statt zu messen.
Beim Schalten von einem Decoder wird soundsoviel Watt verbraucht, das macht bei drei Stück dann soundsoviel. Das FP-Registerfile hat 5 Read- und 5 Write-Ports, das macht dann soundsoviel Watt Wärme pro Takt usw.

Bei AMD weiss man es nicht. Intel misst einfach nur, was ich nicht sehr gut finde.

Der TDP Wert ist bei AMD ja sowieso auf die Baureihe und nicht auf einzelne Prozessoren bezogen. Es betrifft höchstens die Prozessoren, die bei dieser Baureihe am meisten Verlustleistung besitzen und relativ "nahe dran" an der TDP sind. Bei Intel kann selbst ein Low-End Celeron-D seine TDP überschreiten und wenn dieser einen nur für eben diesen Celeron-D dimensionierten Kühlkörper besitzt (OEM?) die CPU zum Throtteling zwingen.

Im Übrigen weiss ich nicht, ob der Einfluss der Software auf die Verlustleistung bei AMD genauso groß wie beim P4 ist. Aufgrund des immens großen Logik-Anteils der CPU an der Gesamt-Diefläche (Prescott) kann zumindest mal eher davon ausgehen, dass Intel Prozessoren im Extremfall prozentual gesehen mehr Wärme abgeben als AMD Prozessoren (beim Ausführen "ungünstiger" Software). Das ist aber nur eine Vermutung meinerseits.


btw: Alles, was nicht direkt mit TDP zu tun hat, hat hier in diesem Thread nichts verloren!

alpha-centauri
2005-05-16, 00:51:36
Ich habe nicht gesagt Intel ist super, das trifft eher zu alpha-centauri zu. Nämlich er hat mich stark kritisiert weil ich mal geschriben habe das Prescott schlecht ist.

" -Intel Pentium 4 @ 3.6ghz Prescott
-Sapphire Radeon X800 Pro @ 570/570mhz
-Abit IS7-E (865PE)
-2x 512Mb CL2.5 (Dual-Channel)
-Samsung 160gb 8Mb Cache
-Tagan 480-UO1"

aber ein Prescott ist scheisse.

Haben wir's jetzt, mein 15 Jaehriger?

alpha-centauri
2005-05-16, 00:55:14
Aber eigentlich zum Thema zu kommen:

Ich war bei Intels TDP von der maximalen Leistung unter unguenstigen Testsituationen ausgegangen. Leider ist dies, wie hier wiederlegt worden ist, nun nicht der fall.
Insofern find ich die Intel TDP fuern arsch.

Viel wichtiger, ist statt der TDP die Maximalleistung. Denn nach der Koennen a) CPU Kuehlerhersteller konfigurieren und b) Mainboardhersteller Freigaben ersteilen und c) de rUser weiss, wieviel Strom die CPU ungefaehr msist. Wenn auch die CPU vielleicht ne soviel fressen kann, da der User garnicht die Testprogramme dafuer hat.

Naehster Punkt: Was ich an Test las, war bei AMD der Stromverbrauch der CPUs meistens leicht unter der AMD Angabe. Bei Intel lagt es oftmals deutlic hdrunter.

Deswegen ist erst recht der TDP Wert irrefuehrend. Ich erinnere mich noch an Vor-TDP Zeiten, als wirklich XX Watt ne CPU unter Vollast aufnahm und man deswegen konfigurieren kann.

Irrefuehrend, wirklich.

r3ptil3
2005-05-16, 01:07:04
" -Intel Pentium 4 @ 3.6ghz Prescott
-Sapphire Radeon X800 Pro @ 570/570mhz
-Abit IS7-E (865PE)
-2x 512Mb CL2.5 (Dual-Channel)
-Samsung 160gb 8Mb Cache
-Tagan 480-UO1"

aber ein Prescott ist scheisse.

Haben wir's jetzt, mein 15 Jaehriger?

schwer von Begriff??
Ich sagte schon war eher zum Teil ironisch gemeint. Jedoch ist die Konkurrenz momentan besser dran.

StefanV
2005-05-16, 14:12:17
HTT ist doch dank Dual Core absolut obsolet geworden. Sieht man schon bei 2 Xeons, da bringt HTT auch fast nix mehr. Vor allem weil Dual Core bei Intel auch extrem schlecht skaliert ist der X2 deutlich im Vorteil.

Preis bei nem 840 EE ist nun wirklich kein Argument oder?
Richtig, was an der Veralteten Busarchitektur der Indell CPUs liegt...

Ein Shared FSB war vielleicht zu P1 Zeiten zu gebrauchen, als der Cache noch aufm Board lag, heutzutage ist sowas nur noch bescheuert/Rückständig, zumal das spoofing (dieses abgleichen der Cache Infos) bei Indell auch über den FSB geschoben wird, was die tatsächlich nutzbare Bandbreite von/zur CPU schon deutlich verringert.

Wohingegen AMD so gemein war, dafür eigene Leitungen vorzusehen (das geschiet also NICHT über die HT Links)...

PS: HTT beim P4 ist irgendwie recht sinnlos, da der P4 nur sehr wenig Ausführungseinheiten hat..

IVN
2005-05-16, 15:49:36
Richtig, was an der Veralteten Busarchitektur der Indell CPUs liegt...

Ein Shared FSB war vielleicht zu P1 Zeiten zu gebrauchen, als der Cache noch aufm Board lag, heutzutage ist sowas nur noch bescheuert/Rückständig, zumal das spoofing (dieses abgleichen der Cache Infos) bei Indell auch über den FSB geschoben wird, was die tatsächlich nutzbare Bandbreite von/zur CPU schon deutlich verringert.

Wohingegen AMD so gemein war, dafür eigene Leitungen vorzusehen (das geschiet also NICHT über die HT Links)...

PS: HTT beim P4 ist irgendwie recht sinnlos, da der P4 nur sehr wenig Ausführungseinheiten hat..

nein,genau umgekehrt.Wegen der langen pipeline kommt es zu einer grosen Pause wenn eine branch prediction in die Hose geht oder Daten aus dem Speicher benuetigt werden.Diese Zeit kann man sinvoll nutzen und einen anderen thread an die Ausfuerungseinheiten ran lassen.


p.s. sry 4 incorrect german spelling

StefanV
2005-05-16, 20:06:32
nein,genau umgekehrt.Wegen der langen pipeline kommt es zu einer grosen Pause wenn eine branch prediction in die Hose geht oder Daten aus dem Speicher benuetigt werden.Diese Zeit kann man sinvoll nutzen und einen anderen thread an die Ausfuerungseinheiten ran lassen.


p.s. sry 4 incorrect german spelling
Und wegen der brutalen anzahl an Ausführungseinheiten wäre der Hammer wieder im Vorteil, wenn die Stalls zu stark werden, dann hat offensichtlich Intel großen Bockmist gebaut, denn Sprünge waren bei der Entwicklung des P4s schon lange bekannt.

IVN
2005-05-16, 21:23:04
Und wegen der brutalen anzahl an Ausführungseinheiten wäre der Hammer wieder im Vorteil, wenn die Stalls zu stark werden, dann hat offensichtlich Intel großen Bockmist gebaut, denn Sprünge waren bei der Entwicklung des P4s schon lange bekannt.1
P4 ist schon ein guter prozessor.Nur ist der Athlon 64 besser. :)
Aber das was du da schreibst zeigt nur wie fanboyish du bist.
Ohne Argumente stelst du die netburst Architektur als das groeste shit der Welt.


1.dennkst du nicht das Intel es absichtlich so gemacht hat,und HTT von vorne geplant wurde???In multi-tasking ist er (p4) allen single core athlons ueberlegen.
P.S. presscot war ein groser Fehler.Meiner Meinung nach sollte er auch einen intergrierten Speicherkontroller haben und ncht mehr als 20 pipeline stages,aber a little bit weniger Takt :wink: und northwood's L1 catch (2 clock latency)

StefanV
2005-05-16, 21:33:14
P4 ist schon ein guter prozessor.

Nein, er ist Mist, siehe den Willamette zur Einführung...
Der damalige P3 war dem Willy in so ziemlich jedem Punkt überlegen...

Nur ist der Athlon 64 besser. :)

Siehs mal andersrum:
Der P4 ist weit schlechter, eben weil Intel Mist baute und etwas wollte, was nicht so recht praktikabel war (schmal und lang -> Leistung über Takt rausholen), was ja gründlich in die Hose ging, wie wir jetzt wissen (was aber einige Intel Fuzzies damals aber schon wussten!)

Aber das was du da schreibst zeigt nur wie fanboyish du bist.

Blabla...

Eine 'Hochtaktarchitektur' ist einfach nur dämlich, daran gibts nichts zu rütteln.

Wie gut der P3 eigentlich war, kannst ja am Pentium M sehen, daran kannst auch sehen, wie schwachsinnig der P4 eigentlich ist...

Aber klar, man ist gleich ein Fanboy, wenn man eher Effiziennte Designs bevorzugt und von solch einer Schnappsidee wie 'och, wir holen die Leistung einzig ausm Takt' wenig angetan ist...


Ohne Argumente stelst du die netburst Architektur als das groeste shit der Welt.
Such mal nach dem Zeckensack, der ist ähnlicher Meinung, einige andere Leute mit Plan übrigens auch.

Netbürst ist einfach nur eine bescheuerte Idee, korrektur:
Es ist von Anfang an eine ziemlich bescheuerte Idee gewesen...

Du solltest auch nicht vergessen, das der Athlon 64 immer schnell ist, der P4 aber mit Pauken und Trompeten untergeht, wenn man nicht auf ihn optimiert (sondern auf den alten P6 aka Pentium 3)...

1.dennkst du nicht das Intel es absichtlich so gemacht hat,und HTT von vorne geplant wurde???In multi-tasking ist er (p4) allen single core athlons ueberlegen.
Ich denke, das bei Netsucks die Marketingabteilung mehr zu sagen hatte als die die eigentlich wissen, was sie tun, auch Ingeneure und Chipdesigner genannt...

P.S. presscot war ein groser Fehler.Meiner Meinung nach sollte er auch einen intergrierten Speicherkontroller haben und ncht mehr als 20 pipeline stages,aber a little bit weniger Takt :wink: und northwood's L1 catch (2 clock latency)
1. nicht nur der Preshot war ein Fehler, auch der Timna ist ein Griff ins Klo gewesen, dank RDRAM...
2. Intel hätt mal lieber sich den P6 zur Brust nehmen sollen und was besseres als den P6 schaffen sollen und nichts, was a) Heizungen ersetzt und b) eher dazu gedacht war, dem DAU das Geld aus der Tasche zu ziehen...

BlackBirdSR
2005-05-16, 22:00:47
Eine 'Hochtaktarchitektur' ist einfach nur dämlich, daran gibts nichts zu rütteln.



Das ist ganz und gar nicht dämlich.
Man muss nur dafür sorgen, dass die Architektur nicht zu komplex wird.
Somit kann man unter Anderem die Wärmeentwicklung in Grenzen halten und mehr Kerne mit mehr Takt unterbringen.
Eben das, was IBM und SUN z.B. schon vorlegen können.
Am Ende ist es egal wie die Leistung erreicht wird.

Ob das am Ende der bessere Weg ist, kann natürlich nur die Zeit zeigen.

K4mPFwUr$t
2005-05-16, 22:07:27
IBM hat beim Cell CPU 3GHz, und 3.8GHz ist dr höhste offizele P4, schon ein kleiner unterschied @ blackbird

und am anfang sagte man noch mit dem P4 knackt man 10GHz :ulol:

Coda
2005-05-16, 22:11:57
Das hätte er auch ziemlich sicher, wenn das mit den Leckströmen nicht aufgetreten wäre.

Wohingegen AMD so gemein war, dafür eigene Leitungen vorzusehen (das geschiet also NICHT über die HT Links)...Bei den Opterons schon oder?
Beim DualCore gibt es ja ein extra Interface zwischen den Cores, das ist klar.

K4mPFwUr$t
2005-05-16, 22:16:04
Das hätte er auch ziemlich sicher, wenn das mit den Leckströmen nicht aufgetreten wäre.
damals kannten die sowas noch nicht in der größenordnung, aber PR macht ja bekanntlich viel aus :biggrin:

der tejas sollte bei 5GHz anfangen, der hätte die 10GHz geknackt, allerdings soll laut intel eine TDP von über 150W gewesen sein und es ist erdenklich was dann erst bei höhergetakteten modellen gewesen wäre ... zum glück stellte intel dieses projekt ein ... und damit nahm der GHz wahn langsam sein ende

Gast
2005-05-16, 22:23:33
na und?
selbst wenn er eine TDP von 150W gehabt hätte, was hätte AMD einem sagen wir mal 6 Ghz Tejas mit 2 bzw. 4 MB L2 Cache entgegenzusetzen?
genau: nichts...

K4mPFwUr$t
2005-05-16, 22:27:04
na und?
selbst wenn er eine TDP von 150W gehabt hätte, was hätte AMD einem sagen wir mal 6 Ghz Tejas mit 2 bzw. 4 MB L2 Cache entgegenzusetzen?
genau: nichts...

du vergist folgendes:
1. Netburst springt nur extrem schwach auf mehr takt und cache an
2. 4MB Cache, aua das wird teuer
3. bis der altagtauglich gewesen wäre, hätte AMD einen würdigen gegner oder leichtes spiel
4. 150W ist schon heftig, schnell mal kompressor kaufen gehen
5. und der hätte bestimmt noch eine miesere pro MHz leistung als ein P4

dagegen hätte ein AMD X2 lockere chancen ;D

StefanV
2005-05-16, 22:28:31
Bei den Opterons schon oder?
Beim DualCore gibt es ja ein extra Interface zwischen den Cores, das ist klar.
Öhm, ja, das da oben war auf Opteron vs Xeon bezogen...

Gast
2005-05-16, 22:33:34
du vergist folgendes:
1. Netburst springt nur extrem schwach auf mehr takt und cache an
2. 4MB Cache, aua das wird teuer
3. bis der altagtauglich gewesen wäre, hätte AMD einen würdigen gegner oder leichtes spiel
4. 150W ist schon heftig, schnell mal kompressor kaufen gehen
5. und der hätte bestimmt noch eine miesere pro MHz leistung als ein P4

dagegen hätte ein AMD X2 lockere chancen ;D

1. richtig
2. hm nicht unbedingt
3. woher soll der Gegner kommen? mehr wie 3,2 ghz werden mit dem K8 nicht gehen -> also keine Chance
4. hab eine vapochill ls also kein problem :D
5. wahrscheinlich ja

Der Tejas wäre aber nicht der direkte Gegner des X2...
Wäre so als ob man einen Athlon XP gegen die aktuellen 64er antreten lassen würde...

StefanV
2005-05-16, 22:35:23
Das ist ganz und gar nicht dämlich.
Man muss nur dafür sorgen, dass die Architektur nicht zu komplex wird.
Somit kann man unter Anderem die Wärmeentwicklung in Grenzen halten und mehr Kerne mit mehr Takt unterbringen.
Eben das, was IBM und SUN z.B. schon vorlegen können.
Am Ende ist es egal wie die Leistung erreicht wird.

Ob das am Ende der bessere Weg ist, kann natürlich nur die Zeit zeigen.
Richtig, nur ist der P4 recht komplex, womit wir wieder dabei wären, das es dämlich ist ;)

BTW: der P4 hat etwa so viele Transis (ok, eher mehr) als ein K7/K8, bringt aber pro Takt weit weniger Leistung, was den Schluss zu lässt das das Design nur halb gar war/ist, als Intel es auf den Markt gequetscht hat...

Coda
2005-05-16, 22:36:25
2. 4MB Cache, aua das wird teuerIn 65nm? Nö.
4. 150W ist schon heftig, schnell mal kompressor kaufen gehenWenn es wirklich einen 10Ghz Netburst gegeben hätte, dann wäre mir das sowas von egal gewesen.

Das Problem ist beim Prescott ja gerade dass die Verlustleistung unverhältnismäßig zur Leistung steht.

3. woher soll der Gegner kommen? mehr wie 3,2 ghz werden mit dem K8 nicht gehen -> also keine ChanceDa wäre ich sehr vorsichtig. In 65nm geht da sicher noch deutlich mehr.

StefanV
2005-05-16, 22:36:50
1. richtig
2. hm nicht unbedingt
3. woher soll der Gegner kommen? mehr wie 3,2 ghz werden mit dem K8 nicht gehen -> also keine Chance
4. hab eine vapochill ls also kein problem :D
5. wahrscheinlich ja

Der Tejas wäre aber nicht der direkte Gegner des X2...
Wäre so als ob man einen Athlon XP gegen die aktuellen 64er antreten lassen würde...
Jaja, der Prescott wird alles in Grudn und boden rulen, nicht wahr?!

Was daraus wurd, hast ja gesehen, viel heiße Luft, ganz viel heiße Luft...

StefanV
2005-05-16, 22:38:20
In 65nm? Nö.
Hm, wie viele Coppermines/Tualatins hätt man dadrin unterbringen können?
2-3 oder gar 4? :)

K4mPFwUr$t
2005-05-16, 22:39:36
1. ich sag nur K8+, K9 und der neue wundercore K10
2. A64 mit 3000MHz und DDR2-800 hätten schon sehr sehr gute chancen (M2,F)
3. okey Cache wird evtl. billiger wenn man ihn in rauen mängen herstellt. aber auch keine lösung, wenn man einen P4 mit 512KB L2 und einen A64 mit 512KB L2 vergleicht, gewinnt der A64 locker ...
4. nicht jeder hat das geld für einen phasenkühler und diese sind zumal noch laut
5. es ist fakt zur zeit mit DC hat auch AMD die nase vorn, halbe verlustleistung gegenüber Intel DC basierten systemen.

und wie gesagt nächstes jahr kommt FAB36 und die haben 65nm und 300mm wafer
da können auch 4GHz drine sein :D

Gast
2005-05-16, 22:41:44
Jaja, der Prescott wird alles in Grudn und boden rulen, nicht wahr?!

Was daraus wurd, hast ja gesehen, viel heiße Luft, ganz viel heiße Luft...

wo steht hier was von einem Prescott?

Was man aber bis jetzt so gehört hat scheint Intel den 65nm Prozess um einiges besser in den Griff zu bekommen als es bei 90nm der Fall war...

Coda
2005-05-16, 22:43:29
Hm, wie viele Coppermines/Tualatins hätt man dadrin unterbringen können? 2-3 oder gar 4? Und wieviele 486? 386? 8086? Die Überlegung zieht nicht. Es gelten andere Anforderungen ans Chipdesign heute. Der Athlon 64 ist auch nicht soo klein.

K4mPFwUr$t
2005-05-16, 22:46:05
Wenn es wirklich einen 10Ghz Netburst gegeben hätte, dann wäre mir das sowas von egal gewesen.

Das Problem ist beim Prescott ja gerade dass die Verlustleistung unverhältnismäßig zur Leistung steht.
sorry sowas höre ich täglich, pures pläm pläm bla bla
was du willst dein ganzes haus mit einem P5 tejas heizen :cool:

der tejas ist eine weiterführung gewesen, er hätte genau sollche hitzeprobs gehabt.
und wieso nicht 35W vs 80W und bei besseren leistung für den AMD 3500+ gegenüber den 3.6GHz intel?
es wäre nicht anders beim tejas

Gast
2005-05-16, 22:48:23
wer redet denn von weiterführung?
nicht umsonst heißt der Tejas ja inoffiziell "P5"
wartet mal den 65nm Produktion von Intel ab, da wird sich einiges tun

Coda
2005-05-16, 22:52:12
sorry sowas höre ich täglich, pures pläm pläm bla blaDu solltest wirklich lernen was ein Konjunktiv bedeutet.

K4mPFwUr$t
2005-05-16, 22:52:19
wer redet denn von weiterführung?
nicht umsonst heißt der Tejas ja inoffiziell "P5"
wartet mal den 65nm Produktion von Intel ab, da wird sich einiges tun

die funktionsweise ist das selbe
1. mehr MHz
2. schlechtere pro MHZ leistung
3. mehr cache
4. mehr FSB
5. ...

das kann man als inflation bei CPU nennen.
kurz gesagt am ende wären wir bei 10000GHz, 10GB L120, 230W TDP
verstehste was ich meine, die pure inflation wie 1917!!!
nur auf CPUs bezogen

@Coda & gast
ihr seit beiden den GHz wahn von intel verfallen, das merkt man

und warte ab bis 2006 die ersten A64 in 65nm kommen, ich sehs schon 20W ;)

StefanV
2005-05-16, 22:54:41
Und wieviele 486? 386? 8086? Die Überlegung zieht nicht. Es gelten andere Anforderungen ans Chipdesign heute. Der Athlon 64 ist auch nicht soo klein.
Richtig, der A64 hat aber eine brutale Pro Takt Leistung bei recht geringer Abwärme, der P4 nicht...

Gegen Netbürst hätt ich ja auch nicht soo viel, wenn der P4 nicht so ein Transistormonster ist (zum Vergleich: der Tualatin war etwa so schnell wie ein Athlon XP, hatte aber weit weniger Transistoren)...

€dit.
@Kampfwurst
Du hast nicht verstanden, was Coda sagen wollte, warum auch immer :|

IVN
2005-05-16, 22:55:07
ich will nur sagen das HTT beim p4 mehr Sinn macht als beim athlon64.
Und das heutige p4s besser in multi-tasking sind als athlons (single core) ist auch kein Geheimnis.

Gast
2005-05-16, 22:55:11
Jup versteh schon, finde ja auch nicht unbedingt so toll was Intel macht
aber sie können und wollen es sich anscheinend auch leisten.
Sie hätten ja die richtige CPU auf der Hand --> 90nm Dothan und es wird ja noch besser --> Dualcore Yonah 90nm aber eben leider nur für den Mobile Bereich :(

K4mPFwUr$t
2005-05-16, 22:58:09
vieleicht hat intel bessere karten, wenn die P-M/P3 orientierten CPUs rauskommen, aber bis dahin verfliegen noch jahre ins land ... und da übt sich AMD weiter, verbessert sie ständig. oder hat man beim P4 so viele neue cores in so kurzer zeit?

aber muss doch ein komisches gefühl sein wenn 5000+ (3GHz) vs 3GHz P4 aufeinander brallen :wink:

Coda
2005-05-16, 23:05:19
Richtig, der A64 hat aber eine brutale Pro Takt Leistung bei recht geringer Abwärme, der P4 nicht...Brutal? Für ein ausgewogenes Design ist das nix besonderes heute. Ich sehe es eher sorum, dass die vom P4 äußerst beschissen ist.

ihr seit beiden den GHz wahn von intel verfallen, das merkt manGenau, deshalb hatte ich auch noch nie ne Intel CPU X-D

Wie gesagt, du solltest wirklich lernen was ein Konjunktiv bedeutet ;)

K4mPFwUr$t
2005-05-16, 23:07:18
wieso sagste dann "mir ist es egal, ich nehme die 10GHz Tejas CPU" :confused:

lieber 3GHz und dafür die 3 fache pro MHz leistung

Coda
2005-05-16, 23:09:05
Weil AMD nichts in der Hand gehabt hätte, wenn Intels Plan wirklich aufgegangen wäre. 10Ghz in 2006 wäre vielleicht drin gewesen. Und da wären mir 150W dann für die Leistung relativ wurscht gewesen.

K4mPFwUr$t
2005-05-16, 23:15:50
10GHz im jahr 2006 nein
5GHz ja
10GHz wären wohl 2008 gewesen :biggrin:
man kann den zeitraum nehmen vom P4 2GHz zu P4 3.8GHz

cu

Coda
2005-05-16, 23:17:48
10Ghz waren auf der ursprünglichen Roadmap. Ohne Leckströme wäre das womöglich machbar gewesen.

Von 2 auf 3 Ghz ging es ja auch wirklich extrem schnell, danach ebte es rapide ab.

EcHo
2005-05-17, 01:44:02
wieso sagste dann "mir ist es egal, ich nehme die 10GHz Tejas CPU" :confused:

lieber 3GHz und dafür die 3 fache pro MHz leistung
10Ghz == 10.000 Mhz Leistung
3 GHz mit 3facher Leistung pro Mhz == 3* 3.000 MHz == 9.000 Mhz

;D

HOT
2005-05-17, 08:29:29
Das ist ganz und gar nicht dämlich.
Man muss nur dafür sorgen, dass die Architektur nicht zu komplex wird.
Somit kann man unter Anderem die Wärmeentwicklung in Grenzen halten und mehr Kerne mit mehr Takt unterbringen.
Eben das, was IBM und SUN z.B. schon vorlegen können.
Am Ende ist es egal wie die Leistung erreicht wird.

Ob das am Ende der bessere Weg ist, kann natürlich nur die Zeit zeigen.

Aus thermischen Überlegungen hinaus ist es eigentlich doch schwachsinnig, denn bisher wurden Hoch-Takt Designs nur dann gebaut, wenn die Lautstärke des Rechners keine Rolle spielte. Ich erinnere nur an DECs Alpha, der war auch sehr hoch getaktet und eine recht simple CPU, aber er wurde damals schon knüppelheiss ;)

Mir scheint es eher so zu sein, dass es ein Taktoptimiertes Design immer schwieriger hat als ein ausgewogenes Design.
Als Intel den ersten P4 vorstellte, haben sie den Faktor Fertigung anscheinend etwas unterschätzt und dafür die Quittung bekommen.

alpha-centauri
2005-05-17, 10:13:05
Du solltest auch nicht vergessen, das der Athlon 64 immer schnell ist, der P4 aber mit Pauken und Trompeten untergeht, wenn man nicht auf ihn optimiert (sondern auf den alten P6 aka Pentium 3)...


wenn du bekannte aktuelle benchmarks kensnt, wuerdset du eins sicher nic ht behaupte, und dass ist ,d dass der a64 IMMER schnell ist.

falls du es nicht glaubst, kannst du ja gerne mal die benchmarks wie bei anandtech durchgehen und schauen, wie toll dort das A64 noch bei guter auslastung reagiert.

das gleichpreisige AMDs den intels bei multithread und encoding unterlegen sind, siehst du in JEDEM benchmark.

mir ist noch kein AMD64 in benchmarks untergekommen, der bei multithread besser wegzieht, als ein P4. DAS ist fakt. genauso wie es fakt ist, dass ein guenstigererer AMD64 in spielen schneller ist, als ein P4.

aber: wer nen P4 kauft und meint, er haette ne schnellere performance in spielen, hat die zeit nicht mitbekommen. und hat keinen benchmark gelesen.

und ich behaupte glatt weg, dass die leute, die sich hier im forum nen aktuellen P4 gekauft haben, genau wissen, wieso diese CPU und nicht zu amd sind.

alpha-centauri
2005-05-17, 10:18:57
Das hätte er auch ziemlich sicher, wenn das mit den Leckströmen nicht aufgetreten wäre.

Bei den Opterons schon oder?
Beim DualCore gibt es ja ein extra Interface zwischen den Cores, das ist klar.

leckstroeme ist aber nichts, was vom himmel gefallen ist. das ist spaetestens ende der P3 und anfang der P4 zeit aufgefallen.

aktuellen BTX wind mitbekommen? 1 kilo kuehlmodul und 100mm luefter davor fuer 130 W abwaerme? intel haette es gerne gemacht, aber sicher nur die wenigsten user hier.

was wir hier anstellen, sind sowieso nur vermutungen.

sicher ist: viele leute koennen hier problemlos ihre intel CPU um mehrere hudner mhz sogar ohne vcore+ erhoehen. bei mir sogar 600 mhz, beim kumpel sogar 500 mhz.

ich bin mir sicher, dass die 4ghz leicht von intel prodziert werden koennen, nur mit einem erhoehten kuehlungsbedarf, der fuer mein verstaendnis die gebotene leistung nicht mehr rechtfertigt, denn:

AMD legt mit singlethread vorne, guenstigere cpus, weniger abwaerme.

zudem liegt AMD mti ihren dualcores vorne. mehr leistung, weniger abwaerme und guenstiger, als ein 3,8 oder 4 ghz P4.

alpha-centauri
2005-05-17, 10:22:21
du vergist folgendes:
1. Netburst springt nur extrem schwach auf mehr takt und cache an
2. 4MB Cache, aua das wird teuer
3. bis der altagtauglich gewesen wäre, hätte AMD einen würdigen gegner oder leichtes spiel
4. 150W ist schon heftig, schnell mal kompressor kaufen gehen
5. und der hätte bestimmt noch eine miesere pro MHz leistung als ein P4

dagegen hätte ein AMD X2 lockere chancen ;D

zu sagen, dass cache teuer ist, stimmt nicht. es kommt auf die anbindung des caches an, und auch die latenz.

gerade ist der cache z.B. ein teil des pentiu M, der ihn a) so performant aber auch b ) so teuer macht.

nur: wir haben ja beim P4 2M gesehen, dass 2MB cache auf 1 MB cache gerade mal 3 bis 5 % mehr speed brachten.

und das s z.B. die 600x serie zur 50xx ihren preis nicht rechtfertigt.

alpha-centauri
2005-05-17, 10:24:57
Richtig, nur ist der P4 recht komplex, womit wir wieder dabei wären, das es dämlich ist ;)

BTW: der P4 hat etwa so viele Transis (ok, eher mehr) als ein K7/K8, bringt aber pro Takt weit weniger Leistung, was den Schluss zu lässt das das Design nur halb gar war/ist, als Intel es auf den Markt gequetscht hat...

ich empfehle dir fuer deine skepsis die artikel von anandtech zum P4 zu lesen. insbesondere was die waermeabgabe angeht. dann bekommst du einen eindruck, was in dem P4 alles drin ist und wozu die ganzen transistoren gehoeren.

zudem scheint VT auch nen brocken an transistoren zu benoetigen.

HOT
2005-05-17, 10:33:12
wenn du bekannte aktuelle benchmarks kensnt, wuerdset du eins sicher nic ht behaupte, und dass ist ,d dass der a64 IMMER schnell ist.

falls du es nicht glaubst, kannst du ja gerne mal die benchmarks wie bei anandtech durchgehen und schauen, wie toll dort das A64 noch bei guter auslastung reagiert.

das gleichpreisige AMDs den intels bei multithread und encoding unterlegen sind, siehst du in JEDEM benchmark.

mir ist noch kein AMD64 in benchmarks untergekommen, der bei multithread besser wegzieht, als ein P4. DAS ist fakt. genauso wie es fakt ist, dass ein guenstigererer AMD64 in spielen schneller ist, als ein P4.

aber: wer nen P4 kauft und meint, er haette ne schnellere performance in spielen, hat die zeit nicht mitbekommen. und hat keinen benchmark gelesen.

und ich behaupte glatt weg, dass die leute, die sich hier im forum nen aktuellen P4 gekauft haben, genau wissen, wieso diese CPU und nicht zu amd sind.

Du hast da glaube ich einfach was falsch verstanden. Er wollte damit ausdrücken, dass der A64 weit weniger anfällig auf unoptimierten Code ist wie der P4, mehr nicht.

HOT
2005-05-17, 10:43:57
zu sagen, dass cache teuer ist, stimmt nicht. es kommt auf die anbindung des caches an, und auch die latenz.

gerade ist der cache z.B. ein teil des pentiu M, der ihn a) so performant aber auch b ) so teuer macht.

nur: wir haben ja beim P4 2M gesehen, dass 2MB cache auf 1 MB cache gerade mal 3 bis 5 % mehr speed brachten.

und das s z.B. die 600x serie zur 50xx ihren preis nicht rechtfertigt.
Muss ich grösstenteils zustimmen. Um einen ordentlichen Yield bei sehr niedriger Cache Latenz zu erhalten, kann man den Takt nicht beliebig erhöhen. Zudem bringt mehr Cache nicht zwingend mehr Leistung. 4MB im Vergleich zu 2MB würde rein garnichts mehr bringen bei normalen x86 Anwendungen IMO. Zudem benötigt mehr Cache auch immer höhere Latenzen und eine ordentliche Cache Hierarchie bringt wesentlich mehr als ein grosser Universalcache (siehe Gallatin vs. Prescott 2M) ist aber wohl auch problematischer in der Produktion.
AMD hat weit weniger Produktionskapazitäten als Intel und kann sich grösseren Cache nichtmal leisten. Es ist der Kompromiss, der entscheident ist.

StefanV
2005-05-17, 10:47:35
ich empfehle dir fuer deine skepsis die artikel von anandtech zum P4 zu lesen. insbesondere was die waermeabgabe angeht. dann bekommst du einen eindruck, was in dem P4 alles drin ist und wozu die ganzen transistoren gehoeren.

zudem scheint VT auch nen brocken an transistoren zu benoetigen.
Ich empfehle dir mal, dich über aktuelle (und weniger aktuelle) Prozessoren zu informieren, bevor du irgendeinen Bockmist in die Welt posaunst und nicht immer nur mit deinem 'intel ist aber sooo toll' geprahle ankommst.

Das ich mich auf den P6 bezog (wobei du sicher nicht weißt, was ich eigentlich meinte, aber hauptsache irgendwas dagegen gepostet), dann würdest auch kapiert haben, das der P6 weit weniger komplex als der P4 ist aber auch eine weit bessere Leistung als der P4 hat.

Aber nur mal für duch, Quelle: www.sandpile.org

28,1M zu 42M (256k L2)
bei
~105mm² (später 95mm²) zu 217mm²

44M zu 55M
80mm²zu 146mm² (später 131mm²)

Von der Abwärme von max 35W zu 115W sprechen wir mal lieber garnicht erst...

So und jetzt du.

Gast
2005-05-17, 10:56:22
yeah Stefan c000l

alpha-centauri
2005-05-17, 10:56:52
Du hast da glaube ich einfach was falsch verstanden. Er wollte damit ausdrücken, dass der A64 weit weniger anfällig auf unoptimierten Code ist wie der P4, mehr nicht.

Gut, da stimme ich dir voll zu. Das wurde ja auch in vielen Fachartikel beschrieben.

Intels puschte SOftwarehersteller dazu, ihren Code zu optimieren. Was natuerlich auch z.B: bei Profisoftware oder REnderingsoftware vorteile bot. im Algemeineinen war es aber ein Fehler, wie man dan an der durchwachsenen Leistung eines P4 sieht.

Ums mal zu ueberspitzen: Ein AMD64 ist ueberall schnell, so lang er nur eine Sache macht.

StefanV
2005-05-17, 10:59:30
Ums mal zu ueberspitzen: Ein AMD64 ist ueberall schnell, so lang er nur eine Sache macht.
:rofl:

Sowas kann nur von einem Intel Fan kommen...

Zumal du solch Dinge wie den Opteron (der den Xeon mehr als deutlich plättet, Gründe siehe oben) oder die Dual Cores mal 'einfach so' unter den Tisch kehrst, zumal der P4D gegen den A64 X2 kaum noch Land sieht...


This Posting is powered by an Intel Pentium 3 Prozessor
Der CPU, die dem P4 so ziemlich überlegen war...

alpha-centauri
2005-05-17, 11:00:12
Nen P6 ?

Maximum Power
200 MHz, 1 MB L2 Cache: 47.0 W

?

Und du koenntest mal deinen Tonfall anpassen. Mir ist es unverstaendlich, dass du mit deinen 35 000 Postings wirklich es noch nicht geschafft hast, dir ein ordentliches Schreibniveau in diesem Forum anzugeswoehnen.

Gast
2005-05-17, 11:03:04
Tja und warum sieht der Pentium D gegen den X2 kein Land?
genau, weil sie die Taktfrequenzen herunterschrauben mussten!
AMD hat sie beibehalten können..

StefanV
2005-05-17, 11:06:14
Tja und warum sieht der Pentium D gegen den X2 kein Land?
genau, weil sie die Taktfrequenzen herunterschrauben mussten!
AMD hat sie beibehalten können..
Siehe weiter oben, unter anderem weil der P4 beschissen Skaliert, im Gegensatz zum K8

Unter anderem hat AMD sich beim K8 Gedanken gemacht, wie man richtig gute SMP Systeme bastelt, entsprechend hat AMD auch fürs Spoofing eigene Leitungen vorgesehen, wie du weiter oben schon gelesen hast, zum anderen bringt der Interne Speichercontroller Gewaltige VOrteile im SMP Betrieb...

Kurz:
Der P4 verhält sich im Mehrprozessorbetrieb genauso wie ein P6, welcher sich genauso wie ein P54C/P55C verhält (wobei letztere nicht mit dem Spoofing zu kämpfen haben, da Cache extern)...

Der K8 verhält sich aber ganz anders als ein K7 (its not a Bus, ists a Port)im MP Betrieb, welcher sich anders als ein Intel im MP Betrieb verhält

alpha-centauri
2005-05-17, 11:47:44
:rofl:

Sowas kann nur von einem Intel Fan kommen...

Zumal du solch Dinge wie den Opteron (der den Xeon mehr als deutlich plättet, Gründe siehe oben) oder die Dual Cores mal 'einfach so' unter den Tisch kehrst, zumal der P4D gegen den A64 X2 kaum noch Land sieht...


This Posting is powered by an Intel Pentium 3 Prozessor
Der CPU, die dem P4 so ziemlich überlegen war...

sowas kann nur von einem amd fanboi kommen. selbst der ach so gelobte FX ist verglichen mit nem hochgetakteten 660 bei multithread staerker am einbrechen, als der P4 HT. dass du solche tatsachen und facts bewusst ignorierst ist schon erbaermlich.

und dass der P4D mit 3,2 ghz nicht mal ansatzweise gegen nen X2 ankommt, selbst der EE, hab ich i nem eigenen beitrag von mir selbst beschrieben.


und du meinst immer noch, ich waere ein intel fanboi?

Coda
2005-05-17, 12:31:19
Die CPUs ohne HTT brechen mal primär so stark ein, weil Windows so einen tollen Scheduler hat.

Dass das nichts an der Tatsache ändert ist mir auch bewusst. Aber bald ist das mit Dual Core eh Geschichte. Da ist HTT für diese Latenzbeseitigung eigentlich nicht mehr nötig und dient wirklich nur noch der Performance.

Und soweit ich weiß hat ein Dual Core A64 auch nicht mehr Logiktransistoren als ein Prescott.

Tigershark
2005-05-17, 12:46:34
Die CPUs ohne HTT brechen mal primär so stark ein, weil Windows so einen tollen Scheduler hat.

Dass das nichts an der Tatsache ändert ist mir auch bewusst. Aber bald ist das mit Dual Core eh Geschichte. Da ist HTT für diese Latenzbeseitigung eigentlich nicht mehr nötig und dient wirklich nur noch der Performance.

Und soweit ich weiß hat ein Dual Core A64 auch nicht mehr Logiktransistoren als ein Prescott.

H.T.T., soll sich auch gut ocen lassen und einfach so lieber! 4600+ und 4800+ sollen noch teurer sein...

Leute. HTT <> HT.:ulol5:

Kann mir mal einer erklären, wo in Hyperthreading sich das zweite "T" versteckt?

HT = Hyperthreading, INTEL
HTT = HyperTransport Technology, AMD

Iss ja wirklich nicht mehr zum Aushalten, und hieß das Thema nicht eigentlich TDP intel - amd? ;)

IMHO ist der AMD Ansatz wirklich der sicherere, oder zumindest der vorsichtigere und für DAUs als auch für Systembuilder leicht zu verstehen und dementsprechend zu beachten. Man hätte wohl auch kaum vermutet, dass die ohnehin schon hohen Angaben von intel dann auch noch "nur" etwa 75-80% des echten Maximalwerts darstellen, schließlich steht intel ja ohnehin schon "schlecht" genug da.

alpha-centauri
2005-05-17, 12:49:03
Die CPUs ohne HTT brechen mal primär so stark ein, weil Windows so einen tollen Scheduler hat.

Dass das nichts an der Tatsache ändert ist mir auch bewusst. Aber bald ist das mit Dual Core eh Geschichte. Da ist HTT für diese Latenzbeseitigung eigentlich nicht mehr nötig und dient wirklich nur noch der Performance.

Und soweit ich weiß hat ein Dual Core A64 auch nicht mehr Logiktransistoren als ein Prescott.

die tehoerie, dass der windows scheduler nicht der beste ist, hab ich ich scho ndes oefteren gehoert. bei win2k soll ht schlechter funktionieren, als bi win XP. jetzt ist halt nur die frage, ob das jemand dr linux gemeinde nachtesten kann.

ein ueblicher task wenn ich heimkommen, ist, wie ich ja mal schrieb folgendes:

5 neue rar dateien parallel entpacken, nen film oeffnen und reinschauen und nebnbei noch im web surfen.

die frage ist aber auch: wenn der scheduler nicht der beste wie win NT ist (gehen wir mal von 2000 + xp aus, 9x war ja eh nur schrott), wieso nutzen dann die leute serve r2003 ? ist serve 2003 bezueglich multithread und scheduler besser?

ich meine, privat wuerde mich es schon seit langem mal interessieren, auf meine kiste server2003 zu installieren.

HOT
2005-05-17, 12:55:20
Leute. HTT <> HT.:ulol5:

Kann mir mal einer erklären, wo in Hyperthreading sich das zweite "T" versteckt?

HT = Hyperthreading, INTEL
HTT = HyperTransport Technology, AMD

Iss ja wirklich nicht mehr zum Aushalten, und hieß das Thema nicht eigentlich TDP intel - amd? ;)

IMHO ist der AMD Ansatz wirklich der sicherere, oder zumindest der vorsichtigere und für DAUs als auch für Systembuilder leicht zu verstehen und dementsprechend zu beachten. Man hätte wohl auch kaum vermutet, dass die ohnehin schon hohen Angaben von intel dann auch noch "nur" etwa 75-80% des echten Maximalwerts darstellen, schließlich steht intel ja ohnehin schon "schlecht" genug da.


Kannste halten wien Dachdecker: HTT= Hyper Threading Technology und HT = HyperTransport. HTT wird auch für HyperTransport Takt verwendet. Alles Sache der Definition. Hier im Forum wird mehrheitlich HTT für Hyperthreading und HT für HyperTransport verwendet.

Coda
2005-05-17, 13:00:25
jetzt ist halt nur die frage, ob das jemand dr linux gemeinde nachtesten kann.Das hab ich schon öfters. Mehrere Programme parallel verhalten sich da auf meinem A64 sehr viel besser als unter Windows XP.

5 neue rar dateien parallel entpacken, nen film oeffnen und reinschauen und nebnbei noch im web surfen.Das Nutzungsverhalten ist aber auch nicht gerade effizient ;)

wieso nutzen dann die leute serve r2003 ? ist serve 2003 bezueglich multithread und scheduler besser?Nein, der Scheduler ist nicht besser. Aber kein ernsthafter Admin benützt Windowsserver ;)

HOT
2005-05-17, 13:02:32
die tehoerie, dass der windows scheduler nicht der beste ist, hab ich ich scho ndes oefteren gehoert. bei win2k soll ht schlechter funktionieren, als bi win XP. jetzt ist halt nur die frage, ob das jemand dr linux gemeinde nachtesten kann.

ein ueblicher task wenn ich heimkommen, ist, wie ich ja mal schrieb folgendes:

5 neue rar dateien parallel entpacken, nen film oeffnen und reinschauen und nebnbei noch im web surfen.

die frage ist aber auch: wenn der scheduler nicht der beste wie win NT ist (gehen wir mal von 2000 + xp aus, 9x war ja eh nur schrott), wieso nutzen dann die leute serve r2003 ? ist serve 2003 bezueglich multithread und scheduler besser?

ich meine, privat wuerde mich es schon seit langem mal interessieren, auf meine kiste server2003 zu installieren.


Ich frage mich ernsthaft, was das Herumreiten auf diesem Quatsch bringen soll. Wann entpackt man denn schonmal 5 Sache, die so gross sind, gleichzeitig? Übrigens hab ich neulich 2 Zip Dateien die ~500MB gross waren gleichzeitig entpackt, dabei Winamp laufen gehabt und konnte mit meinem A64 - oh Wunder - immernoch flüssig surfen. Auch die ganzen Multithreadingtests belegen eines: Wenn keine absoluten Extremsituationen auftreten, die den Scheduler total überfordern ist A64 bei Multithreading aufgrund des RAM Controllers gut am Ball.
Und Extremsituationen der Art hatte ich nun wirklich sehr sehr selten.
Es mag sein, dass die Zips auf nem P4 3 Sec schneller entpacken, aber mit Verlaub, das ist mir doch scheissegal. Das ist genauso blödsinnig wie auf den 5 FPS herumzureiten, denn Extremsituationen gibt es bei Spielen genauso wie bei HT. Im Endeffekt ist es wurscht was man für einen Prozessor hat. Was wirklich für mich zählt ist, dass der A64 kälter und damit leiser ist, auch unter Last und dieser in good old Germany produziert wird ;)

alpha-centauri
2005-05-17, 13:49:47
Das hab ich schon öfters. Mehrere Programme parallel verhalten sich da auf meinem A64 sehr viel besser als unter Windows XP.

Das Nutzungsverhalten ist aber auch nicht gerade effizient ;)

Nein, der Scheduler ist nicht besser. Aber kein ernsthafter Admin benützt Windowsserver ;)

gut, fuer die info danke ich dir erstmal!
aber das ist nun leider kein grund, dass ich auf linux umsteige.

aehm, und nur um das von hot mal kurz aufzugreifen:

besonders die leute, die von kuehler, leiser und besser reden, sind oftmals auch die leute, die dann im hintergrund c+q deaktivieren, nen 50 euro teuren zalman draufpappen und ocn was das zeug haelt.

und, dennoch: ich verweise auf meine signatur.

nun mag mein privates beispiel mit den 5 zips extremsituation sein. aber ich war froh, dass ich mir vor 3 monaten genug geld zusammengespart hatte, um mir ne cpu zu kaufen, die meinem anforderungsspektrum past.

als gegenbeispiel hab ich nen kumpel, der viele filme rippt. und mir ists unversatendlich, wieso der sich damals nen AMD 3500+ gekauft hat und nicht nen ensprechenden P4.

http://images.anandtech.com/graphs/intel%20dual%20core%20preview%20part%201_04040520457/6789.png
Test

StefanV
2005-05-17, 14:14:55
Leute. HTT <> HT.:ulol5:

Kann mir mal einer erklären, wo in Hyperthreading sich das zweite "T" versteckt?

HT = Hyperthreading, INTEL
HTT = HyperTransport Technology, AMD

Nein, andersrum wärs richtig!

HTT -> Hyper Threading Technology, siehe auch im BIOS.
HT -> Hyper Transport, ohne Technology

StefanV
2005-05-17, 14:19:37
Wann entpackt man denn schonmal 5 Sache, die so gross sind, gleichzeitig?
Das ist sowieso reichlich dämlich, in der Praxis, Sinnlos kannst auch sagen...

Oder hat hier jemand 5 schnelle Platten im System und lässt das ganze mit 5 verschiedenen Packprogrammen entpacken?!

Dann würds sinn machen, sonst nicht, da die Platte limitiert (ok, eine Cheetah 15k ev. nicht)...

BlackBirdSR
2005-05-17, 14:29:04
Kannste halten wien Dachdecker: HTT= Hyper Threading Technology und HT = HyperTransport. HTT wird auch für HyperTransport Takt verwendet. Alles Sache der Definition. Hier im Forum wird mehrheitlich HTT für Hyperthreading und HT für HyperTransport verwendet.

Wenn man sich nicht vom Marketing blenden lassen würde, und die Sachen so benennt wie sie heissen, wäre das kein problem.

Ergo -> Hyperthreading = SMT
Schon fällt das Problem mit HT,HTT raus

HOT
2005-05-17, 14:43:11
Wenn man sich nicht vom Marketing blenden lassen würde, und die Sachen so benennt wie sie heissen, wäre das kein problem.

Ergo -> Hyperthreading = SMT
Schon fällt das Problem mit HT,HTT raus

Stimmt. Eine gute Idee: also HyperThreading = SMT und HT(T) = HyperTransport.

HOT
2005-05-17, 14:53:18
gut, fuer die info danke ich dir erstmal!
aber das ist nun leider kein grund, dass ich auf linux umsteige.

aehm, und nur um das von hot mal kurz aufzugreifen:

besonders die leute, die von kuehler, leiser und besser reden, sind oftmals auch die leute, die dann im hintergrund c+q deaktivieren, nen 50 euro teuren zalman draufpappen und ocn was das zeug haelt.


Wenn du da mich ansprichst: Mein Zalman dreht auf minimaler bis maximal mittlerer Stufe, selbst wenn die übertaktete CPU auf Last läuft. Ist also nicht oder nur minimal lauter. Und "wie blöde Übertakten" ist nicht, nen Winni auf 2,2GHz ziehen. Das ist doch eher moderat.


und, dennoch: ich verweise auf meine signatur.

nun mag mein privates beispiel mit den 5 zips extremsituation sein. aber ich war froh, dass ich mir vor 3 monaten genug geld zusammengespart hatte, um mir ne cpu zu kaufen, die meinem anforderungsspektrum past.

als gegenbeispiel hab ich nen kumpel, der viele filme rippt. und mir ists unversatendlich, wieso der sich damals nen AMD 3500+ gekauft hat und nicht nen ensprechenden P4.
[...]

Bei 5 Zips limitieren ganz andere Dinge in deinem Rechner als der Prozessor. Evt. hast du dann sogar wieder Rechenzeit für andere Dinge, die die Festplatte nicht so belasten :D
Und zu deinem Kumpel: Es kommt darauf an, wie er seine Filme rippt. Wenn er das mit geringer Priorität im Hintergrund tut, sehe ich da kein Problem, sofern es ihm egal ist, wann der Rip fertig ist. Oder wenn er es über Nacht laufen lässt, gibts auch keine Probleme, diese Anwendung ist ja nicht zeitkritisch oder läuft gar in Echtzeit.
Der Nachteil kommt ja erst dann zum Tragen, wenn der Film schnell gerippt werden soll und dadurch den Rechner in dieser Zeit allerhöchstens zum surfen nutzen kann. Aber selbst hier ist SMT ja nicht viel schneller, nur flexibler.

IVN
2005-05-17, 16:52:28
Ich frage mich ernsthaft, was das Herumreiten auf diesem Quatsch bringen soll. Wann entpackt man denn schonmal 5 Sache, die so gross sind, gleichzeitig? Übrigens hab ich neulich 2 Zip Dateien die ~500MB gross waren gleichzeitig entpackt, dabei Winamp laufen gehabt und konnte mit meinem A64 - oh Wunder - immernoch flüssig surfen. Auch die ganzen Multithreadingtests belegen eines: Wenn keine absoluten Extremsituationen auftreten, die den Scheduler total überfordern ist A64 bei Multithreading aufgrund des RAM Controllers gut am Ball.Und Extremsituationen der Art hatte ich nun wirklich sehr sehr selten.
Es mag sein, dass die Zips auf nem P4 3 Sec schneller entpacken, aber mit Verlaub, das ist mir doch scheissegal. Das ist genauso blödsinnig wie auf den 5 FPS herumzureiten, denn Extremsituationen gibt es bei Spielen genauso wie bei HT. Im Endeffekt ist es wurscht was man für einen Prozessor hat. Was wirklich für mich zählt ist, dass der A64 kälter und damit leiser ist, auch unter Last und dieser in good old Germany produziert wird ;)

Dem kann ich aber nicht so zustimen.Ich spiele gerne CSS (16vs16,Runden dauern laenger),und wenn ich am Anfang sterbe,drucke ich die Windowstaste und surfe diese 1-2 minuten bis die Runde zuende ist.Back 2 windows dauert bei mir 1-3 sekunden (p4 2.8),bei meinem Freuend (athlon 64 3000+) schon zimlich lange.Im Hintergrund liefen in beiden Faehlen :windiows media player (leise),internet explorer,und ein fire wall.

roadrunner
2005-05-17, 23:02:29
Dem kann ich aber nicht so zustimen.Ich spiele gerne CSS (16vs16,Runden dauern laenger),und wenn ich am Anfang sterbe,drucke ich die Windowstaste und surfe diese 1-2 minuten bis die Runde zuende ist.Back 2 windows dauert bei mir 1-3 sekunden (p4 2.8),bei meinem Freuend (athlon 64 3000+) schon zimlich lange.Im Hintergrund liefen in beiden Faehlen :windiows media player (leise),internet explorer,und ein fire wall.
ich will auch mal meine meinung zum thema "software auf cpu optimieren" preisgeben.

habt ihr euch schon mal gefragt von welcher optimierung ihr da redet? die eine ist den assembler code so anzupassen, dass er besser in den branch prediction bzw. besser zu den cache strategien und der pipe passt. und das andere ist die erweiterung des urX86 Codes um MMX, SSE und den ganzen kram.

und genau darin liegt der hase im pfeffer - wenn wir zu den thema unoptimierten code kommen. nämlich zum compiler.

optimiert man nicht die software muss die hw optimiert werden und umgekehrt - nur was ist "billiger".


dass die meiste leistung nur dann erreicht wird, wenn die software zu der cpu architektur passt ist klar - nur so lange da intel und amd im weiter ihre eigenen süppchen kochen wird da immer diese schere bleiben.


vielleicht sind die "großen" auch endlich mal so intelligent und entfernen sich endlich von der CISC architektur hin zur RISC (was die prozessoren eigentlich ja schon in wirklichkeit sind, aber dank der micro op befehlen nicht als solche auftreten).

just my 2 cents

Coda
2005-05-17, 23:06:35
Das RISC automatisch schneller oder besser als CISC ist, ist ein Märchen.

Tigershark
2005-05-18, 00:30:00
Nein, andersrum wärs richtig!

HTT -> Hyper Threading Technology, siehe auch im BIOS.
HT -> Hyper Transport, ohne Technology


Schwätzor :D
siehe
http://www.intel.com/cd/products/services/emea/deu/102037.htm


Jetzt kann Ihr PC schneller und effizienter sein

Desktop-PCs, die mit dem Intel® Pentium® 4 Prozessor mit HT-Technologie¹ ausgestattet sind, bieten überlegene Leistung...

und
http://www.amd.com/de-de/Processors/ProductInformation/0,,30_118_4699_2353,00.html

In diesem Sinne,
Tiger.

roadrunner
2005-05-18, 00:32:42
um das gehts auch nicht, sondern darum ,das die intel und amd cpus im kern ja bereicht RISC sind, sie aber von außen mit CISC befeuert werden.

es wird also ein komplexer befehl in meherer einfachere zerlegt. ich unterstelle mal, dass mann damit zwar 90% aller fälle gut rennt, allerdings bei der suche nach weiteren verbesserungen auch hier ansetzen kann --> ergo: ist x86 CISC noch zeitgemäß?

warum ich diese 10% nicht unter den tisch fallen lasse?: genau diese 10% sind es die dann in angepasster software bzw. in benchmarks die eine oder andere cpu bevorzugen.

auch in sachen abwärme sollte man das konzept einmal überlegen. was ist besser, oft schalten, dafür einfache logik; oder weniger schalten, dafür komplexere logik? ich bezweifle allerdings, dass die komplexe logik funktionieren wird. immerhin rechnen sich jetzt schon superrechner zum krüppel wenn eine neue cpu simuliert wird und dann kommt es erst recht wieder zu unterschieden zwischen simulation und realität (ich weiß kann man nie ganz ausschließen aber trotzdem)

Coda
2005-05-18, 00:51:06
Die Unterschiede bzgl. Leistung zwischen Athlon und P4 resultieren eher daraus, dass der P4 sehr komisch Ausführungseinheiten hat.
Z.B. ist ein simpler Shift nicht mehr in einem Takt machbar, sondern muss durch die slow-ALU.

Das hat aber rein gar nichts mit CISC und RISC zu tun. Die ganz komplexen Befehle, von denen man weiß dass sie durch Microcode ausgeführt werden, werden von den Compilern ja bei beiden Architekturen vermieden.

Wie gesagt, CISC hat heute keinerlei Nachteile mehr gegenüber RISC. Früher war das noch eher ein Problem, weil man mit Logiktransistoren knausern musste. Heute wird halt geklotzt (siehe AMD's "massive parallel predecoder" im Athlon 64).

auch in sachen abwärme sollte man das konzept einmal überlegen. was ist besser, oft schalten, dafür einfache logik; oder weniger schalten, dafür komplexere logik? ich bezweifle allerdings, dass die komplexe logik funktionieren wird.Das hat auch nicht die Bohne mit RISC und CISC zu tun. Das CISC ist wenn es zu den Ausführungseinheiten kommt eh wieder RISC.

Auch RISC Prozessoren verwenden seit langem eine andere interne Darstellung als die Befehle die sie bekommen. Von daher ist nach dem Frontend eigentlich rein gar kein Unterschied mehr da.

Denniss
2005-05-18, 01:38:46
HT<>HTT

Man beachte bei AMD das TM nach HyperTransport (so wird's geschrieben) aber vor Technology
Bei Intel heisst es immer Hyper-Threading Technology, die Ablürzung HT gibt es nur in Verbindung mit Technology dahinter also HTT (außer bei den Logos denn Technology passt da nur quer rüber)

StefanV
2005-05-18, 08:48:54
Schwätzor :D
siehe
http://www.intel.com/cd/products/services/emea/deu/102037.htm



und
http://www.amd.com/de-de/Processors/ProductInformation/0,,30_118_4699_2353,00.html

In diesem Sinne,
Tiger.
Du sagst es ja selbst, das Intel von HT Technology spricht :rolleyes:

Tigershark
2005-05-18, 09:10:11
Du sagst es ja selbst, das Intel von HT Technology spricht :rolleyes:


Jo, ich denke hier kommen wir auf keinen grünen Zweig ;)
Wenn man per google nach "htt, amd" sucht bekommt man etwa genausoviele sinnvolle (!) Treffer, wie wenn man nach "htt, intel" sucht. In diesem Sinne... okay, 1:1 :cool:

Denniss
2005-05-19, 00:30:02
Jo, ich denke hier kommen wir auf keinen grünen Zweig ;)
Wenn man per google nach "htt, amd" sucht bekommt man etwa genausoviele sinnvolle (!) Treffer, wie wenn man nach "htt, intel" sucht. In diesem Sinne... okay, 1:1 :cool:

Was ist wichtiger ?
1) Was Google so alles findet
2) Was Intel in seinen Dokumentationen/Beschreibungen sagt

Mein Tip wäre 2

P.S.: Ist grün nicht die Farbe von AMD ?!?

Tigershark
2005-05-20, 11:18:29
Was ist wichtiger ?
1) Was Google so alles findet
2) Was Intel in seinen Dokumentationen/Beschreibungen sagt

Mein Tip wäre 2

P.S.: Ist grün nicht die Farbe von AMD ?!?


Grün ist AMD und grün ist auch NVIDIA.

Nebenbei sind Herstellerspezifikationen oftmals völlig anderslautend als die Meinung am Markt bzw. der "Nickname". HT, HTT...was auch immer... :)

E.T.
2006-06-02, 02:46:39
will mal wieder das eigentliche thema aufgreiffen, denn es wurde zwar ausführlich diskutiert, aber die argumente basierten hauptsächlich auf überlegungen und interpretation von formulierungen, nur einmal wurde ein funktionierender link mit messwerten eingefügt, diesem aber meiner meinung nach viel zu wenig beachtung geschenkt.

hardtecs4u haben ja deutlich weniger verlustleistung unter last gemessen, als das tdp vorgibt und dies sowohl auf seiten von amd wie auch von intel. wenn also ein gewichtiger messfehler vorliegen würde, wäre es sehr unwahrscheinlich, dass er ausschliesslich zu gunsten von intel ausfallen würde, es sei denn, die tester hätten bei der modifikation des intel-mainboards bockmist gebaut.

ich möchte dabei noch in erinnerung rufen, dass intel (gemäss geposteten zitaten) zwar zugibt, dass die maximale verlustleistung das tdp markant übersteigen kann, dies unter normalen bedingungen (software) allerdings nicht der fall sein sollte. irgendjemand hat dazu gemeint, dass intel gar nicht alle software getestet haben könne, und deshalb die aussage völlig sinnlos sei. das würde ich nicht so sehen, ich denke, es ist so gut wie unmöglich, dass eine normale software bewirken kann, dass alle bereiche einer cpu gleichzeitig voll beansprucht werden, intel diesen worst-case zu testzwecken aber sehr wohl simulieren kann. und selbst, wenn eine reguläre software auch den worst-case verursachen könnte, dann wäre es eben wahrscheinlich nur für einen sekundenbruchteil der fall.

ich beanspruche von meinen hypothesen nicht, dass sie absolut korrekt sind, aber irgendwie muss man ja die messungen erklären, denen ich durchaus glauben schenke. sicher gibt es unterschiede von cpu zu cpu desselben typs, da die ja teilweise unterschiedliche corespannungen benötigen. meine cpu beispielsweise soll ja auch ein tdp von 115W haben, wenn sie auch nur annähernd 115W verheizen würde, glaube ich kaum, dass die zwei kleinen, gedrosselten lüfter in meinem barebone diese ausreichend kühlen könnten.

dass gemäss anderen tests der boxed-kühler nicht immer ausreichend ist, um ein throtteln der cpu zu verhindern, halte ich für keinen beweis für oder gegen irgendwas ausser für die simple tatsache, dass der boxed kühler eben zu schwach ist um die verwendete cpu im verwendeten pc unter den damaligen umgebungstemperaturen ausreichend zu kühlen.
intel weiss ja, dass die cpu nicht kaputt geht, wenn sie zu heiss wird. wenn sie schon entwicklungsaufwand betrieben haben um das throttling zu implementieren, wieso soll es nicht gebraucht werden? ist zwar irgendwie eine verarsche für den kunden, aber es ist ja kein defekt der cpu, man kann einen besseren kühler verbauen oder die umgebungstemperatur senken, um eine taktdrosselung zu vermeiden.

wenn also noch jemand einen sinnvollen kommentar dazu abgeben möchte oder neue beweise/erkänntnisse beisteuern kann, wäre ich froh, denn ich finde, das thema hat durchaus zu viel brisanz um es einfach unter den teppich zu kehren.

Gast
2006-06-02, 07:47:19
BlackBirdSR[/POST]']Wenn man sich nicht vom Marketing blenden lassen würde, und die Sachen so benennt wie sie heissen, wäre das kein problem.

Ergo -> Hyperthreading = SMT
Schon fällt das Problem mit HT,HTT raus

Man sollte dabei allerdings auch keine Äpfel mit Birnen vergleichen.

Hyperthreading != SMT

Einfach mal mit einer "ordentliche" SMT Implementation vergleichen und es wird klar Hyperthreading ist kein vollwertiges SMT sondern beschleunigt lediglich Threadwechsel zwischen genau 2 Threads.

Bokill
2006-06-02, 09:42:51
Gast[/POST]']Man sollte dabei allerdings auch keine Äpfel mit Birnen vergleichen.

Hyperthreading != SMT

Einfach mal mit einer "ordentliche" SMT Implementation vergleichen und es wird klar Hyperthreading ist kein vollwertiges SMT sondern beschleunigt lediglich Threadwechsel zwischen genau 2 Threads. Darum nenne ich das auch Intels SMT, es gibt noch viele andere Implementationen von SMT, das ist keine alleineinige Intelspezialität.

GloomY
2006-06-02, 12:59:30
Gast[/POST]']Man sollte dabei allerdings auch keine Äpfel mit Birnen vergleichen.

Hyperthreading != SMT

Einfach mal mit einer "ordentliche" SMT Implementation vergleichen und es wird klar Hyperthreading ist kein vollwertiges SMT sondern beschleunigt lediglich Threadwechsel zwischen genau 2 Threads.Das stimmt nicht. Hyperthreading ist SMT. Wenn du's nicht glaubst, dann ließ die entsprechende Dokumentation (ftp://download.intel.com/technology/itj/2002/volume06issue01/art01_hyper/vol6iss1_art01.pdf) von Intel nach.

E.T.
2006-06-02, 16:29:27
mann ihr seid so lustig

dann geb ich mal meinen senf dazu:
intels hyper threading technology (HTT) ist ein feature, welches bei multi-tasking bzw. laufenden hintergrundprogrammen unter umständen einen spürbaren performacegewinn bringt.

amds single-core cpus mögen in vielen anwendungen schneller sein, aber eben bei multitasking brechen sie stärker ein.

meiner meinung nach war bei der namenswahl amds für den hypertransport (HT) die potentielle verwirrung beabsichtigt, um ahnungslosen kunden gleiche bzw. gleichwertige features vorzutäuschen.

Denniss[/POST]']HT<>HTT
Man beachte bei AMD das TM nach HyperTransport (so wird's geschrieben) aber vor Technology
Bei Intel heisst es immer Hyper-Threading Technology, die Ablürzung HT gibt es nur in Verbindung mit Technology dahinter also HTT (außer bei den Logos denn Technology passt da nur quer rüber)

genau

BlackBirdSR
2006-06-02, 16:48:09
E.T.[/POST]']mann ihr seid so lustig

dann geb ich mal meinen senf dazu:
intels hyper threading technology (HTT) ist ein feature, welches bei multi-tasking bzw. laufenden hintergrundprogrammen unter umständen einen spürbaren performacegewinn bringt.


Das stimmt aber so nicht ganz.

HyperThreading ist eine SMT-Implementation, die es der CPU erlaubt 2 Threads gleichzeitig zu decodieren und auszuführen.
Dazu zählen zum einen eine größere Auslastung pro Zeiteinheit, als auch (wichtig) eine geringere Leerlaufphase, da im Falle eines Stalls der 2. Thread eventuell weiter läuft.

Den Performancegewinn, denn du gerade beim Multitasking ansprichst, erhält man aus der gekonnten Umschiffung eines Windows-internen Problems.
Es ist nicht die Aufgabe von SMT für verzögerungsfreies Fensterschieben zu sorgen ;)

Gast
2006-06-02, 16:55:55
Kurze Frage zu TDP (ist ja eigentlich auch Thema das Threadsl)!

Aus anderem Thread:


CoreDuo:
Prefixes indicate a range of power, within which each particular processor's specific power level resides. Example: a 31W Intel® Core™ Duo processor uses a "T" prefix because 31W falls between 25W and 49W. Prefixes are not intended to indicate form-factor.
http://www.intel.com/products/processor_number/index.htm

soviel zu "sparsam"

E.T.
2006-06-02, 16:56:19
na, wenn das das einzige ist, was an meinem post nicht ganz stimmte, dann bin ich schon zufrieden, dann wäre diese sache somit geklärt und man könnte sich wieder der eigentlichen thematik, nämlich der tdp-angabe von intel zuwenden (siehe mein erster post).

E.T.
2006-06-02, 18:15:29
Gast[/POST]']Kurze Frage zu TDP (ist ja eigentlich auch Thema das Threadsl)!

Aus anderem Thread:
CoreDuo:
Prefixes indicate a range of power, within which each particular processor's specific power level resides. Example: a 31W Intel® Core™ Duo processor uses a "T" prefix because 31W falls between 25W and 49W. Prefixes are not intended to indicate form-factor.
http://www.intel.com/products/proce...umber/index.htm

soviel zu "sparsam"

wenn ich das richtig verstehe, steht das prefix "T" für eine leistungsaufnahme zwischen 25 und 49W, die im beispiel verwendete cpu hat eine tdp von 31W und kriegt deshalb dieses prefix, weil 31W zwischen 25 und 49W ist.

aber das tut ja eigentlich nichts zur sache?

gross2
2006-06-02, 19:55:08
[QUOTE='BlackBirdSR']Das stimmt aber so nicht ganz.

HyperThreading ist eine SMT-Implementation, die es der CPU erlaubt 2 Threads gleichzeitig zu decodieren und auszuführen.
Dazu zählen zum einen eine größere Auslastung pro Zeiteinheit, als auch (wichtig) eine geringere Leerlaufphase, da im Falle eines Stalls der 2. Thread eventuell weiter läuft.
[QUOTE]

Erstmal sorry für OT, aber ich melde mich nochmal dazu zu Wort. War heute morgen nicht eingelogt und hab die Diskussion über Hyperthreading wohl als Gast wieder in Gang gebracht.

Nope, darum gehts ja.
HyperTreading führt keinseswegs 2 Threads gleichzeitig aus. Es verhindet lediglich das im Falle eines Stalls eine Pause eingelegt wird während ein Register-Unload und Load der Werte für den anderen Thread durchgeführt wird. Da ein 2. Satz Register existiert auf den, und damit "deren Thread", umgeschaltet wird. Dadurch wird die bessere Auslastung pro Zeiteinheit erreicht.

"Richtiges" SMT lastet wie von dir beschrieben allerdings Recheneinheiten die von einem Thread nicht benutzt werden zur Arbeit an einem anderen Thread. Arbeitet also wie der Name schon sagt simultan an 2 oder mehr Threads. Hyperthreading macht/kann dies nicht.

Daher: Hyperthreading != SMT

BlackBirdSR
2006-06-06, 11:10:37
Erstmal sorry für OT, aber ich melde mich nochmal dazu zu Wort. War heute morgen nicht eingelogt und hab die Diskussion über Hyperthreading wohl als Gast wieder in Gang gebracht.

Nope, darum gehts ja.
HyperTreading führt keinseswegs 2 Threads gleichzeitig aus. Es verhindet lediglich das im Falle eines Stalls eine Pause eingelegt wird während ein Register-Unload und Load der Werte für den anderen Thread durchgeführt wird. Da ein 2. Satz Register existiert auf den, und damit "deren Thread", umgeschaltet wird. Dadurch wird die bessere Auslastung pro Zeiteinheit erreicht.

"Richtiges" SMT lastet wie von dir beschrieben allerdings Recheneinheiten die von einem Thread nicht benutzt werden zur Arbeit an einem anderen Thread. Arbeitet also wie der Name schon sagt simultan an 2 oder mehr Threads. Hyperthreading macht/kann dies nicht.

Daher: Hyperthreading != SMT

Und jetzt verlange ich von dir Beweise dafür.
Denn was du erzählst lässt sich sonst nicht halten.

Hyperthreading ist definitiv SMT und das können ich und Gloomy auch beweisen.!
Und hättest du das verlinkte Dokument von Gloomy gelesen, hätten wir diese Diskussion gar nicht.

Wer hat dir den sowas überhaupt erzählt?
Hoffe nicht die gamestar. Die behauptet das auch.

IVN
2006-06-06, 11:29:39
BlackBirdSR[/POST]']Und jetzt verlange ich von dir Beweise dafür.
Denn was du erzählst lässt sich sonst nicht halten.

Hyperthreading ist definitiv SMT und das können ich und Gloomy auch beweisen.!
Und hättest du das verlinkte Dokument von Gloomy gelesen, hätten wir diese Diskussion gar nicht.

Wer hat dir den sowas überhaupt erzählt?
Hoffe nicht die gamestar. Die behauptet das auch.
Der 1. (Thread) benutzt die FixPU, der 2. die FPU?

BlackBirdSR
2006-06-06, 11:44:47
IVN[/POST]']Der 1. (Thread) benutzt die FixPU, der 2. die FPU?

Darum geht es doch nicht wirklich.
Es befinden sich 2 vollständige Threads in der Pipeline, die gleichzeitig durchgereicht werden.
Sie werden nicht erst dann gewechselt, wenn einer stallt oder wegfällt.
Die Resourcen bedienen im ständigen Wechsel beide Threads.

IVN
2006-06-06, 11:51:18
BlackBirdSR[/POST]']Darum geht es doch nicht wirklich.
Es befinden sich 2 vollständige Threads in der Pipeline, die gleichzeitig durchgereicht werden.
Sie werden nicht erst dann gewechselt, wenn einer stallt oder wegfällt.
Die Resourcen bedienen im ständigen Wechsel beide Threads.
Naja, um das Kriterium des simultanen Ausfuehrens (beide Threads werden in der gleichen Zeiteinheit ausgefuehrt und berechnet) zu befriedigen, muss doch jeder Thread auf freie Ressourcen zugreifen. Wenn der 1. die FPU beansprucht, muss der 2. dann die andere freie Einheit nehemen. (also die ALU)

Edit:
Ich weiss was du meinst. Der 2. Thread wird nicht erst dann dekodiert, wenn der 1. stallt, sonder vorher. Er geht durch die Stufen der Pipe, und wartet bis die Einheit frei wird die er braucht.
Was passiert aber bei meinem Beispiel, wo einer die FPU, der andere die ALU braucht? (ohne Interdependenzen) Koennen beide simultan ausgefuehrt werden?

Bokill
2006-06-06, 15:24:02
BlackBirdSR[/POST]']Darum geht es doch nicht wirklich.
Es befinden sich 2 vollständige Threads in der Pipeline, die gleichzeitig durchgereicht werden.
Sie werden nicht erst dann gewechselt, wenn einer stallt oder wegfällt.
Die Resourcen bedienen im ständigen Wechsel beide Threads. Darum gehts, das ist Symmetrisches Multithreading. Das kann durchaus bedeuten, dass ein Thread nur marginal in der Pipeline ist (weil Abhängikeiten zu Thread 1 bestehen könnten). Nicht desto trotz sind zeitgleich parallel 2 Threads in der Pipeline.

Das beschreibt Sun, MIPS, IBM, etc. mit ihren eigenen speziellen SMT-CPUs nicht anders.

... Was passiert aber bei meinem Beispiel, wo einer die FPU, der andere die ALU braucht? (ohne Interdependenzen) Koennen beide simultan ausgefuehrt werden? ... Das wäre ein Idealfall, für SMT. Bei dieser Konstallation ist SMT eine unschlagbare Verbesserung zur Effizienzsteigerung einer CPU. Der FPU Thread wird tatsaechlich parallel zeitgleich durch die Pipeline durchgereicht, wie die Integerberechnung durch eine ALU.

Wie schnell dabei eine Berechnung in der FPU und ALU geschieht kann dabei natürlich unterschiedlich ausfallen. Das ändert nichts daran, dass anfangs zeitgleich parallel, die Anweisungen zur Berechnung geladen wurden.

MFG Bobo(2006)

IVN
2006-06-06, 19:59:23
Bokill[/POST]']Darum gehts, das ist Symmetrisches Multithreading. Das kann durchaus bedeuten, dass ein Thread nur marginal in der Pipeline ist (weil Abhängikeiten zu Thread 1 bestehen könnten). Nicht desto trotz sind zeitgleich parallel 2 Threads in der Pipeline.

Das beschreibt Sun, MIPS, IBM, etc. mit ihren eigenen speziellen SMT-CPUs nicht anders.

Das wäre ein Idealfall, für SMT. Bei dieser Konstallation ist SMT eine unschlagbare Verbesserung zur Effizienzsteigerung einer CPU. Der FPU Thread wird tatsaechlich parallel zeitgleich durch die Pipeline durchgereicht, wie die Integerberechnung durch eine ALU.

Wie schnell dabei eine Berechnung in der FPU und ALU geschieht kann dabei natürlich unterschiedlich ausfallen. Das ändert nichts daran, dass anfangs zeitgleich parallel, die Anweisungen zur Berechnung geladen wurden.

MFG Bobo(2006)
Ja, das ist theoretisch so. Gibt es aber restriktionen, die in der Praxis (beim Northwood oder Prescott) das Ausfuehren verhindern koennen? Sind die beiden Einheiten wirklich so unabhaengig?
Ein gutes PDF?