PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wie schaffen aktuelle Prozessoren derart hohe Taktraten?


Lawmachine79
2009-05-02, 21:34:31
In meinem Verständnis gibt es zwei Gründe, warum ein Prozessor den derartig anliegenden Takt "nicht schafft":
1) Er wird zu heiß
2) Er schafft in der absoluten Zeit, die ein Takt dauert den aktuellen Arbeitsschritt nicht.

Problem 1) wird mit geringeren Strukturbreiten entgegengewirkt oder mit Techniken wie SOI. Problem 2 wirkt man mit längeren Pipelines entgegen. Eine längere Pipeline verringert die Anzahl an Arbeitsschritten, die eine CPU pro Takt durchführen muss. Nun haben wir z.B. die Netburstarchitektur, die eine sehr lange Pipeline hat, und wir haben Architekturen wie z.B. der K10 oder I7 (mir fallen gerade die Nicknames nicht ein) mit einer wesentlich kürzeren Pipeline, der K10 baut ja z.T. noch auf den Athlon Classic (K7) auf, der I7 auf dem Pentium III. Wie schaffen es diese beiden Architekturen, deutlich höhere Takte als die Netburstarchitektur zu schaffen? Immerhin gab es P4 ja auch schon in 65nm, die angesprochenen CPUs sind zwar 45nm aber ein derart großer Unterschied kann ja nicht an einer Fertigungsstufe liegen. Außerdem erreichten bereits die 65nm Derivate der Architekturen höhere Takte.
Falls jemand Einspruch einlegt, daß es ja noch gar keine schnelleren K10/I7s gibt, die 3,8Ghz (war ja afaik der schnellste P4) haben, ich meine hier die Übertaktungserfolge, die ja die Übertaktungserfolge des P4 übertreffen.

Botcruscher
2009-05-02, 21:42:15
Mit der Strukturbreite gehen auch die Signallaufzeiten einher. Neben den Transistoren gibts ja noch Leitungen.

YfOrU
2009-05-02, 22:07:04
Der Fertigungsprozess wird bei jeder Strukturgröße permanent optimiert. Die alten Netburst Prozessoren sind also kaum das Aushängeschild der 65nm Fertigung.

Ein gutes Beispiel für das Potential wäre der 90nm Prozess von AMD. Erstaunlich was dort geleistet wurde.

Auf dem Papier kann eine Architektur sehr wohl für deutlich höhere Frequenzen geeignet sein. Bei der Umsetzung muss aber der anvisierte Fertigungsprozess dazu in der Lage sein. Im Falle von Netburst war die Auslegung zu optimistisch.

Gast
2009-05-02, 22:14:10
Wieviele Takte eine CPU für eine Operation braucht (das können auch mehrere sein) ist Architekturbedingt. Wie das ganze auf Silizium realisiert wird hat damit nichts zu tun, die Signallaufzeiten werden beim Design ja berücksichtigt

Spasstiger
2009-05-02, 23:52:06
Der Pentium 4 ließ sich doch höher takten als ein Core 2.
8 GHz wurden beim P4 erreicht, 5 GHz waren gegen Ende der Netburst-Ära mit Wasserkühlung nicht ungewöhnlich.
Beim Core 2 hat man afaik noch nichtmal die 7 GHz erreicht trotz deutlich fortschrittlicherer Fertigungstechnologie.

The_Invisible
2009-05-03, 10:29:14
interessant wäre ja irgendwie wieviel takt die p4 architektur mit der heuten technologie hätte. :biggrin:

wieviel schätzt ihr?

mfg

Hvoralek
2009-05-03, 11:41:21
Für das Taktpotenzial sind die Strukturgrößen gar nicht mal soo entscheidend. Da wirken sich oft auch neue Steppings oder kleinere Änderungen an den Fertigungsprozessen (auch auf gleicher Strukturgröße) deutlich aus. Man sollte schon die 65- nm- P4/Ds mit anderen 65- nm- Prozessoren derselben Zeit vergleichen. Was waren die Übertaktungsrekorde mit den ersten Conroeversionen? 4,5 GHz? 5 GHz?

Nicht zu vergessen auch, dass erhebliche Teile von Netburstchips noch einmal mit dem doppelten des Nominaltakts laufen. Bei 8 GHz Chiptakt laufen die dann sogar mit 16 GHz.

Wuge
2009-05-03, 12:00:38
Etwas ähnliches ist mir gestern durch den Kopf gegangen, als ich festgestellt habe, dass meine beiden CPUs für 4 Ghz jeweils ~1.225V benötigen. Der eine ist ein Netburst Pentium Extreme Edition 965, der andere der i7 Xeon.

Schon erstaunlich, was sich zwischen dem 65nm-Start und der aktuellen 45nm-Reife getan hat.

Avalox
2009-05-03, 12:52:53
interessant wäre ja irgendwie wieviel takt die p4 architektur mit der heuten technologie hätte. :biggrin:



20+ GHz hätten es sein sollen, wenn es nach den Intel Plänen (http://www.tomshardware.com/de/intel-2006-faellt-die-10-ghz-grenze,news-5332.html) gegangen wäre.

10GHz hätten serienmäßig im PC schon 2006 erreicht sein sollen.

Ja, die aktuellen (Multicore) CPUs sind schon ein ganz schön schlapper Ersatz für einen 25GHz Singlecore P4 (natürlich auch mit auf über 40GHz übertakteten CPUs). Was für ein technisches Dilemma, in dem wir uns heute befinden.

Gast
2009-05-03, 14:12:53
Nicht zu vergessen auch, dass erhebliche Teile von Netburstchips noch einmal mit dem doppelten des Nominaltakts laufen. Bei 8 GHz Chiptakt laufen die dann sogar mit 16 GHz.
Was wäre, wenn man diese Verdoppelung "ausbauen" würde?


....
ich meine hier die Übertaktungserfolge, die ja die Übertaktungserfolge des P4 übertreffen.
Hast du konkrete Zahlen zu den Takt Rekorden?

S940
2009-05-03, 14:49:08
Nicht zu vergessen auch, dass erhebliche Teile von Netburstchips noch einmal mit dem doppelten des Nominaltakts laufen. Bei 8 GHz Chiptakt laufen die dann sogar mit 16 GHz.
Ist lange her, aber waren das nicht 2 normalgetaktete ALUs, die mit 1/2 Takt Taktunterschied liefen und somit pro *einem* Takt 2 µOPs ablieferten / bearbeiteten ?

Lawmachine79
2009-05-03, 15:16:38
Hast du konkrete Zahlen zu den Takt Rekorden?
Kannste knicken...wußte nicht, daß ein P4 8Ghz geschafft hat, ich bin von 5-6Ghz ausgegangen.

_DrillSarge]I[
2009-05-03, 15:22:57
Ja, die aktuellen (Multicore) CPUs sind schon ein ganz schön schlapper Ersatz für einen 25GHz Singlecore P4 (natürlich auch mit auf über 40GHz übertakteten CPUs). Was für ein technisches Dilemma, in dem wir uns heute befinden.
;D

die cpus hätte ich sehen wollen ;D.
schon die letzten prescott-pentium4 standen in sachen leistungsaufnahme bspw. einem phenom 9950 nicht viel nach. und das ist auch noch singlecore vs. quad. man stelle sich einen 4ghz prescott-quadcore vor. :ulol:

Spasstiger
2009-05-03, 15:59:24
ich bin von 5-6Ghz ausgegangen.
Die 5 GHz hat man selbst hier im Forum desöfteren gesehen. Gab allerdings generell nicht viele, die sich zu der Zeit noch öffentlich zu ihrer Netburst-Gurke bekannt haben. ;)

Avalox
2009-05-03, 16:40:39
I[;7274412'] und das ist auch noch singlecore vs. quad. man stelle sich einen 4ghz prescott-quadcore vor.


Ja, mangelhafte Technik. Ist halt alles anders gekommen, wie zumindest Intel es sich gedacht hat.
Nun leidet der Kunde drunter und muss sich mit minderleistungsfähigen und noch nicht mal theoretisch ordentlich nutzbaren CPUs rumärgern und ist ja zumindest auf der Intel Seite auch wieder bei 150W TDP angekommen.

_DrillSarge]I[
2009-05-03, 17:05:50
Ja, mangelhafte Technik. Ist halt alles anders gekommen, wie zumindest Intel es sich gedacht hat.
Nun leidet der Kunde drunter und muss sich mit minderleistungsfähigen und noch nicht mal theoretisch ordentlich nutzbaren CPUs rumärgern und ist ja zumindest auf der Intel Seite auch wieder bei 150W TDP angekommen.
???
meinst du das ernst?
der kunde leidet doch nicht. die cpus sind leistungsfähiger, als sie es mit dem netburst-konzept je hätten sein können.
wieso sind aktuelle cpus selbst theoretisch nicht ordentlich nutzbar?
???

Avalox
2009-05-03, 17:26:28
I[;7274563']???
meinst du das ernst?
der kunde leidet doch nicht. die cpus sind leistungsfähiger, als sie es mit dem netburst-konzept je hätten sein können.


Nein, die heutigen CPUs kommen ja nicht im Ansatz an die Performance der geplanten und für unsere Zeit prognostizierten Netburst CPUs heran.


wieso sind aktuelle cpus selbst theoretisch nicht ordentlich nutzbar?

Na, weil sich sehr viele Problemstellungen nicht parallelisieren lassen.
Eine Singlecore CPU ist dort immer weitaus flexibler einsetzbar. Hinzu kommt, dass sich viele Anforderungen welche im Homebetrieb bestehen und sich prächtig parallelisieren lassen schon historisch auf der GPU gerechnet werden. Eine minderleistungsfähige, dafür multiple vorhandene CPU im einem PC ist eigentlich nicht sinnvoll. Der Grund weshalb es so ist, wie es ist, ist schlicht, dass es keiner besser hinbekommen hat.

Eine Mehrkern CPU im PC ist überhaupt nicht vorteilhaft, es ist ein einziger Nachteil.
Ein Nachteil, weil die Taktfrequenzen sich nicht mehr signifikant steigern ließen. Ein Nachteil, weil das Konzept von Mehrkern CPUs eh massiven Einschränkungen unterliegt und ein Nachteil, weil Mehrkern CPUs dann so unter Druck in den Markt eingeführt werden mussten, dass die Softwareumstellung in Jahren noch nicht abgeschlossen sein wird.

Nein der Kunde leidet tatsächlich heute immer noch an einem damaligen Fehlglauben der Industrie. Der angebotene Ersatz heute ist nicht im Ansatz so leistungsfähig für den Zweck, wie der eigentliche Plan A.

Beobachter aus einem Paralleluniversum, in welchen die Ingenieure nicht an Netburst gescheitert wären, würden ziemlich mitleidig auf unsere heutigen PC CPUs blicken.

Spasstiger
2009-05-03, 17:37:51
Nein, die heutigen CPUs kommen ja nicht im Ansatz an die Performance der geplanten und für unsere Zeit prognostizierten Netburst CPUs heran.
Ein Core i7 mit 3 GHz würde bei angepasster Software durchaus einen 25-GHz-P4 schlagen.

Avalox
2009-05-03, 17:45:30
Ein Core i7 mit 3 GHz würde bei angepasster Software durchaus einen 25-GHz-P4 schlagen.

Aber doch nicht einen P4 der sich auch in den Jahren weiter entwickelt hätte und über die selben Vorteile wie Interner Speichercontroller, schnellen Hauptspeicher, moderne SIMD Einheiten, viel Cache usw. verfügt.

Und selbst ein postulierter alter P4 mit 25GHz würde jegliche Software beschleunigen. Keine PC 4 oder gar 6 Kern CPU wird im üblichen Umfang mehr als 30% der theoretischen Leistungsfähigkeit umsetzen.

Spasstiger
2009-05-03, 17:49:09
Ein P4 mit 25 GHz wäre aber evtl. auch durch schlechte Speicherlatenzen limtiert.

Avalox
2009-05-03, 17:52:21
Ein P4 mit 25 GHz wäre aber evtl. auch durch schlechte Speicherlatenzen limtiert.

Die schlechten Speicherlatenzen heute entstammen ja den selben Debakel, welcher der Fehlkalkulation von Intels Netburst zugrunde liegt.

Eine 25GHz Netburst Architektur, hätte ja auch den passenden 25GHz Cache und pfeilschnellen Systemspeicher an der Seite.

BlackBirdSR
2009-05-03, 17:56:14
Ich denke gerade mit µOp-Fusion und MacroOp-Fusion hätte man noch etwas gewinnen können.

_DrillSarge]I[
2009-05-03, 17:58:38
Eine 25GHz Netburst Architektur, hätte ja auch den passenden 25GHz Cache und pfeilschnellen Systemspeicher an der Seite.
nur lässt sich sowas mit heutigen materialien niemals realisieren (von sehr einfachen schaltungen abgesehen). das wusste intel sicher "damals" schon.

SavageX
2009-05-03, 18:08:23
Err... die 25 GHz für den P4 waren doch von Anfang an eine Linie, die jemand mit dem Lineal gezogen und als Marschrichtung vorgegeben hat. Es hat doch niemand dieses "Produkt" aus Lust und Laune gestrichen, man ist doch schon meilenweit vorher gescheitert. Extrem hohe Taktfrequenzen haben nicht funktioniert, scheinen nach derzeitigem Kenntnisstand einfach nur Wunschträumerei gewesen zu sein (bzw. Marketing, um den "niedrigtaktenden" Athlon kümmerlich dastehen zu lassen).

Wenn man nicht mehr über den Takt gehen kann und man den instruction-level parallelism auch schon halbwegs gut nutzt bleiben halt nur noch thread-level parallelism und applikationsspezifische erweiterte Befehlssätze, um die Leistung zu erhöhen, und genau das bekommt doch der Kunde: Das technisch machbare.

Hamster
2009-05-03, 18:08:50
vor allem gäbe es wohl dann auch 25ghz dualcores + 1-2 logische cores je physischen core.

das wäre wow!

Avalox
2009-05-03, 18:25:02
scheinen nach derzeitigem Kenntnisstand einfach nur Wunschträumerei gewesen zu sein (bzw. Marketing, um den "niedrigtaktenden" Athlon kümmerlich dastehen zu lassen).



Das glaube ich nicht. Die Entscheider bei Intel haben mit einer absoluten Sicherheit an die Umsetzbarkeit von Netburst und höchsten Taktraten geglaubt. Sie haben schlicht an die Fortschritte Ihrer Fertigungstechnologie geglaubt.

Der gewaltige Einbruch an Marktanteilen, die Wechsel in den Führungsspitzen, das fieberhafte greifen nach jedem kleinen Strohalm, das Verlagern ganzer Entwicklungsbereiche mit den folgenden internen Abstrafaktionen ist viel zu Umfangreich für einen Bluff.

Intel ging es dort so schlecht wie nie zuvor. Nein Netburst war keine Ente, es ist schlicht eine maßlose Selbstüberschätzung gewesen.

Spasstiger
2009-05-03, 18:28:14
vor allem gäbe es wohl dann auch 25ghz dualcores + 1-2 logische cores je physischen core.

das wäre wow!
Die Dualcores waren doch schon die Notlösung, weil man mit den Taktraten nicht mehr voran kam. 25 GHz hat man nur für Singlecores angepeilt.

SavageX
2009-05-03, 18:50:30
Der gewaltige Einbruch an Marktanteilen, die Wechsel in den Führungsspitzen, das fieberhafte greifen nach jedem kleinen Strohalm, das Verlagern ganzer Entwicklungsbereiche mit den folgenden internen Abstrafaktionen ist viel zu Umfangreich für einen Bluff.

Klar ist Intel anfangs davon ausgegangen, mit Netburst weiter kommen zu können als sie es im Endeffekt geschafft haben. Nur warum genau macht es Sinn, dieser vergossenen Milch nachzutrauern?

Lawmachine79
2009-05-03, 18:50:55
Die Dualcores waren doch schon die Notlösung, weil man mit den Taktraten nicht mehr voran kam. 25 GHz hat man nur für Singlecores angepeilt.
Das war bei der konkurrenzlos schlechten IPC-Leistung auch zwingend notwendig.

Coda
2009-05-03, 18:57:06
Beobachter aus einem Paralleluniversum, in welchen die Ingenieure nicht an Netburst gescheitert wären, würden ziemlich mitleidig auf unsere heutigen PC CPUs blicken.
Ich halte eine ausgewogene Architektur auch dann noch für überlegen. Selbst wenn die Leckströme nicht gekommen wären, würde man mit einem herkömlichen Design und entsprechend niedrigeren Taktraten wohl höhere Performance erzielen können.

Vor allem verbrät Netburst durch Replay einfach unendlich sinnlos Energie.

BlackBirdSR
2009-05-03, 19:08:28
Vor allem verbrät Netburst durch Replay einfach unendlich sinnlos Energie.

Ich hab das nie ganz durchgeblickt. Warum nicht die Ausführung stoppen bis die Abhängigkeit/Daten verfügbar sind? Liegts am Trace-Cache-Segment, das die Befehle durchwinken muss, da der ganze Befehl sonst die kompletten 28/29 Stufen neu durchlaufen muss?

Lawmachine79
2009-05-03, 19:10:09
Ich hab das nie ganz durchgeblickt. Warum nicht die Ausführung stoppen bis die Abhängigkeit/Daten verfügbar sind? Liegts am Trace-Cache-Segment, das die Befehle durchwinken muss, da der ganze Befehl sonst die kompletten 28/29 Stufen neu durchlaufen muss?
Es sind sogar 31.

Hamster
2009-05-03, 19:28:21
Die Dualcores waren doch schon die Notlösung, weil man mit den Taktraten nicht mehr voran kam. 25 GHz hat man nur für Singlecores angepeilt.

das ist richtig. allerdings bleibt der fortschritt nicht stehen. vielleicht wäre ja bei 25ghz schluss gewesen, und man hätte dualcores eingeführt? genauso wie wir heute über 25ghz fantasieren, kann man auch auf 25ghz dc fantasieren ;)

BlackBirdSR
2009-05-03, 19:30:04
Es sind sogar 31.

ich wollte auch 28 (NW)/39 (Prescott) schreiben ;)

Intel gibt nur die Stufen nach dem Decoder ab Trace-Cache an.

roboto
2009-05-03, 21:10:35
Ja, mangelhafte Technik. Ist halt alles anders gekommen, wie zumindest Intel es sich gedacht hat.
Nun leidet der Kunde drunter und muss sich mit minderleistungsfähigen und noch nicht mal theoretisch ordentlich nutzbaren CPUs rumärgern und ist ja zumindest auf der Intel Seite auch wieder bei 150W TDP angekommen.

Ich trau gerade meinen Augen nicht. Netburst war ein Rohrkrepierer und wurde schon zu Lebzeiten verflucht. "Mangelhafte Technik" - so kann man es auch nennen, wenn es technisch schlicht weder realistisch, noch sinnvoll gewesen ist. Die Technik hat grundsätzlich schon enorme Taktraten erfordert, um überhaupt Leistung zu bringen, AMD zog zu dem Zeitpunkt mit weitaus niedrigeren Taktraten davon, letztlich zog auch Intels eigener Centrino dem P4 um Längen davon - und du nennst das ernsthaft fortschrittliches Design? Intel ist doch gerade gefeiert worden, dass sie von dem energiefressenden GHz-Wahn runtergekommen sind.

Mehrkernern sind natürlich Grenzen gesetzt, aber wie du sie gegenüber der P4-Fantasterei von dereinst darstellst, ist absurd. Der Mehrwert ist längst deutlich spürbar und braucht kaum Jahre - er ist schon da. Ich für meinen Teil sehe mitleidig in dein kurioses Parallel-Universum herüber. Wahrscheinlich haben die dort auch keine Verbrennungsmotoren erfunden, sondern nutzen Hochleistungs-Dampfmaschinen. Die schaffen es auf 100km/h möglicherweise schneller, allerdings mit ein paar "kleineren" Temperatur-Problemen und dem Umstand willkürlich explodierender Autos. Wie brilliant.

Avalox
2009-05-03, 21:39:41
Ich trau gerade meinen Augen nicht. Netburst war ein Rohrkrepierer und wurde schon zu Lebzeiten verflucht.



Ja, am Ende. Weil sie nicht wie gehofft funktionierte und dieses natürlich auch irgendwann so erkannt wurde.

Mangelhafte Technik" - so kann man es auch nennen, wenn es technisch schlicht weder realistisch, noch sinnvoll gewesen ist. Die Technik hat grundsätzlich schon enorme Taktraten erfordert, um überhaupt Leistung zu bringen,

Netburst war extrem realistisch. So realistisch, dass der grösste und fortschrittlichste Chipbauer massiv drauf gesetzt hat.


AMD zog zu dem Zeitpunkt mit weitaus niedrigeren Taktraten davon, letztlich zog auch Intels eigener Centrino dem P4 um Längen davon - und du nennst das ernsthaft fortschrittliches Design? Intel ist doch gerade gefeiert worden, dass sie von dem energiefressenden GHz-Wahn runtergekommen sind.


Ach AMD. Hat schlicht nicht das Geld und auch nicht die Fähigkeiten gehabt sich dort auf einen Wettbewerb einzulassen. Der Nutzen war erst da, als sich für Intel die Technologie als nicht beherrschbar darstellte.

Wir sind heute im selben GHz Wahn, nur sind die Schritte kleiner und es ist eine zweite Dimension dazugekommen. Eben die Anzahl der CPU Kerne.

Es passt völlig, wenn AMD nun 7GHz QuadCore Takt und native 6 Kern CPUs präsentiert.

Der Knacktus ist doch eher der, dass durch die sehr geringen Zuwächse an tatsächlich nutzbarer CPU Leistung eine sehr grosse Wettbewerbsverlagerung in den GPU Bereich statt gefunden hat und zudem die installierte CPU Basis irgendwo dahin dümpelt.

Das CPU Thema hat sich mächtig für den Konsumenten entschleunigt und somit ist auch die Bedeutung von schnelleren CPUs zur Zeit dem Kunden nur noch schwer vermittelbar. Die Multicore Revolution hat ihre eigenen Kinder gefressen.

Gast
2009-05-03, 21:51:46
Die p4 Northwoods waren garnicht so schlecht wie viele hier behaupten, die Misere ging erst mit dem Prescott los.
Das inzwischen 50€ cpus den gewöhnlichen heimbedarf ausgezeichnet abdecken ändert nichts daran das in comsumer pcs der 600€ Klasse bei den üblichen Verdächtigen quadcores und Office / Multimediagrakas verbaut werden (neben 4gb ram auf nem 32bit os) ... Verrückte Welt ich möcht den Kunden sehen der n Auto mit nem deaktiviertem Zylinder und Drossel kauft.

=Floi=
2009-05-03, 21:52:44
multicore ist auch für mehrere anwendungen nutzbar und hier liegt auch der große vorteil. DC war und ist wohl der größte segen der cpu-geschichte in den letzten jahren. Multicore bietet noch mehr leistung und noch viel mehr möglichkeiten für mehrere anwendungen gleichzeitig. Dadurch bekommt man eine bessere skalierung und spart auch mehrere rechner ein. Es bietet mehr bequemlichkeit und man hat mehr resourcen. Das billigste drecksprogramm konnte damals den "schnellen" singlecore ausbremsen und das ganze system kam ins stocken. Man dachte nicht einmal im traum daran programme offen zu lassen, oder sie nebenbei laufen zu lassen...

edit
ja, es gibt gedrosselte motoren und die verkaufen sich gut, weil sie günstiger angeboten werden und für leute sind die eben nicht das topprodukt möchten.
sehr krasses beispiel:
http://www.abt-sportsline.de/tuning/shop/Audi-A4-8K-Motortechnik_358_357_3/produkt/ABT-Leistungssteigerung-3025/

32bit hat eben bei alten und problematischen anwendungen noch immer einen vorteil. 64bit kostet die hersteller auch geld und das hineinwachsen dauert eben noch an.

_DrillSarge]I[
2009-05-03, 21:55:39
Ja, am Ende. Weil sie nicht wie gehofft funktionierte und dieses natürlich auch irgendwann so erkannt wurde.
nein, auch am anfang. wilamette war ein sagenhafter rohrkrepierer, der auch von seinem, niedriger getakteten, vorgänger geschlagen wurde.
das ding war nur in speziellen sse2-benches schneller als andere. das wars auch schon.

Netburst war extrem realistisch. So realistisch, dass der grösste und fortschrittlichste Chipbauer massiv drauf gesetzt hat.
nein. es war absolut unrealistisch. und intel wurde dafür auch bestraft. zu der zeit waren athlons (auch xp/64) praktisch im großteil der rechner zu finden. dieser rückstand konnte erst mit dem core (2) aufgeholt werden.

Ach AMD. Hat schlicht nicht das Geld und auch nicht die Fähigkeiten gehabt sich dort auf einen Wettbewerb einzulassen. Der Nutzen war erst da, als sich für Intel die Technologie als nicht beherrschbar darstellte.
amd hatte schlicht und ergreifen in der pentium4-ära die besseren prozessoren. takt hin oder her. das netburst-konzept wird bis heute nicht mehr genutzt.
(zudem war der pentium4-nachfolger eigentlich auch ein netburst-prozessor. man entschied sich aber letzendlich dagegen (mangelnde leistung) und ließ dem ehem. pentium-m design-team (afaik die in israel) den vorzug mit der core-architektur.)

€: gut, einzig northwood war "konkurrenzfähig", sah aber auch gegen den etwas später erschienenen a64 dann nicht wirklich land.

Avalox
2009-05-03, 21:57:05
Das billigste drecksprogramm konnte damals den "schnellen" singlecore ausbremsen und das ganze system kam ins stocken. Man dachte nicht einmal im traum daran programme offen zu lassen, oder sie nebenbei laufen zu lassen...

Das ist aber ein Problem des Betriebssystems. Ein Multicore hat keinen Vorteil vor einem Singlecore im Multitasking Betrieb.
Ganz im Gegenteil, ungenutzte Rechenleistung eines Kerns, kann schlicht nicht verteilt werden. Die bessere Multitasking CPU ist der Singlecore.

Avalox
2009-05-03, 22:09:25
I[;7275215']nein, auch am anfang. wilamette war ein sagenhafter rohrkrepierer, der auch von seinem, niedriger getakteten, vorgänger geschlagen wurde.
das ding war nur in speziellen sse2-benches schneller als andere. das wars auch schon.



Das ist aber ein ganz übliches Verhalten.
Die ersten 486er waren mitunter langsamer, als die aktuellen 386er.
Die ersten Pentiums waren langsamer, als die entsprechenden 486er.
Der Pentium Pro durchaus in Anwendungen langsamer als ein Pentium.

Dieses ist ein völlig normaler Umstand gewesen. Das hat nichts mit einem Rohrkrepierer zu tun.

Intel nutzte die Aufmerksamkeit um die Perspektive aufzuzeigen. Die dort hieß; 10GHz bis 2006. Weit jenseits, dessen was der Wettbewerb zu bieten hatte.
Die Architektur von Netburst wurde schon damals sehr detailliert beschrieben und alle waren sich vollkommen einig, dass wenn Intel die Taktversprechungen einhalten kann, diese auf dem richtigen Weg sind.


nein. es war absolut unrealistisch. und intel wurde dafür auch bestraft. zu der zeit waren athlon (auch xp/64) praktisch im großteil der rechner zu finden.

Der Athlon XP war nie ein wahrgenommener Wettbewerber. Während des Athlon XP sank der Marktanteil von AMD, es war die schlimmste Zeit für AMD. Erst, als der Athlon64 auf seiner zweiten Plattform neu vorgestellt wurde, wandelte sich das Blatt. Zu dieser Zeit war jedem längst klar, dass Intel die eigene Technik nicht beherrscht. Dann fing Intel an, AMD nachzubauen und die Zeiten wurden wieder schlimm.

Gast
2009-05-03, 22:11:35
ich wollte auch 28 (NW)/39 (Prescott) schreiben ;)

Ich hatte beim NW immer 20 im Kopf.

Wuge
2009-05-03, 22:12:15
Ich hab das nie ganz durchgeblickt. Warum nicht die Ausführung stoppen bis die Abhängigkeit/Daten verfügbar sind? Liegts am Trace-Cache-Segment, das die Befehle durchwinken muss, da der ganze Befehl sonst die kompletten 28/29 Stufen neu durchlaufen muss?

Zwischen dem Scheduler und den ALUs liegen noch 4 Pipelinestufen. D.h. man hätte selbst bei den simpelsten Instruktionen noch 4 zusätzliche Takte Latenz gehabt.

Also ging man den Weg einfach auf Datenverfügbarkeit zu setzen, ws ja auch fast immer hin haut, und hat den Scheduler besonders optimistisch gemacht ;)

Des Rätsels optimale Lösung währe ein predictor gewesen, der dem Scheduler die Verfügbarkeit der Operanden um 4 Takte vorhersagt. Quasi ein verzögerungsfreier L1-Check.

_DrillSarge]I[
2009-05-03, 22:17:55
Intel nutzte die Aufmerksamkeit um die Perspektive aufzuzeigen. Die dort hieß; 10GHz bis 2006. Weit jenseits, dessen was der Wettbewerb zu bieten hatte.
Die Architektur von Netburst wurde schon damals sehr detailliert beschrieben und alle waren sich vollkommen einig, dass wenn Intel die Taktversprechungen einhalten kann, diese auf dem richtigen Weg sind.
intel tat sich anfangs schon schwer mehr als 1.4ghz aus dem wilamette zu quetsche :ugly:

Der Athlon XP war nie ein wahrgenommener Wettbewerber. Erst, als der Athlon64 erst auf der zweiten Plattform neu vorgestellt wurde, wandelte sich das Blatt. Zu dieser Zeit war jeden längst klar, dass Intel die eigene Technik nicht beherrscht.
:|
der athlon xp konnte den pentium 4 lange in schach halten.
selbst ein thunderbird konnte mit den anfänglichen pentium4 mithalten.

Das ist aber ein ganz übliches Verhalten.
Die ersten 486er waren mitunter langsamer, als die aktuellen 386er.
Die ersten Pentiums waren langsamer, als die entsprechenden 486er.
Der Pentium Pro durchaus in Anwendungen langsamer als ein Pentium.

Dieses ist ein völlig normaler Umstand gewesen. Das hat nichts mit einem Rohrkrepierer zu tun.

das war garantiert kein normaler start. lieferschwierigkeiten, weil man den takt nicht liefern konnte und mittelmäßige verkaufszahlen und das fast 2 jahre (!) lang. erst mit northwood musste amd nochmal bei athlon xp den takt hochprügeln um die verspätung vom athlon64 "auszugleichen".

Spasstiger
2009-05-03, 22:28:44
Man kann auf jeden Fall festhalten, dass Netburst ein marktwirtschaftlicher Erfolg war und dass mit dem Netburst als Basis Technologien entwickelt wurden, von denen Intel heute noch profitiert, unter anderem Hyperthreading.

roboto
2009-05-03, 22:45:21
Ganz im Gegenteil, ungenutzte Rechenleistung eines Kerns, kann schlicht nicht verteilt werden. Die bessere Multitasking CPU ist der Singlecore.

Unsinn. Ungenutzte Rechnenleistung kann auch ein Singlecore nicht in irgendetwas anderes als eben "ungenutzte Rechenleistung" umsetzen. Oder idlen Singlecores etwa nicht? - Ich weiß schon, worauf du hinauswillst - auf explizite Singlethread-Szenarien - nur das ist eine längst bis zum Erbrechen durchgekaute Binsenweisheit. Tatsache ist, dass Mehrkerner vom OS und auch von Applikationen bereits ausreichend ausgelastet werden. Ein Singlecore mit vergleichbarer Leistung existiert dagegen nur als Hirngespinst.

Was immer sich Intel gedacht hat, hat sich als Luftschloss erwiesen und kann daher kaum mit "realistisch" tituliert werden, auch wenn die Ingenieure seinerzeit das glaubten. Netburst war die Ausgeburt des GHz-Wahns seinerzeit, CPUs wurden über die Taktfrequenz verkauft, es musste eine entsprechende Technologie her. Und diese hatte von Anfang an ein paar große Schwächen und scheiterte letztlich. Spekulieren kann man viel, auch über Multicore-CPUs mit 25GHz, die aus heutiger Sicht ebenso realistisch sind wie die angedachten Netburst-CPUs.

Daß Multicores auf längere Sicht auch nicht der Stein der Weisen sind, ist ebenfalls eine Binsenweisheit. Das trifft auch auf die Halbleiter-Technik als ganzes zu. Irgendwann ist Schluss und wir nähern uns dem kritischen Punkt in absehbarer Zeit.

BlackBirdSR
2009-05-03, 23:02:30
Ich hatte beim NW immer 20 im Kopf.

+Abstand Decoder zu Trace-Cache.

Wobei die Frage steht:
Zählt Intel beim Prescott plötzlich wieder richtig oder kamen da statt 3 wirklich 11 Stufen dazu.

huha
2009-05-03, 23:06:55
Das ist aber ein Problem des Betriebssystems. Ein Multicore hat keinen Vorteil vor einem Singlecore im Multitasking Betrieb.
Ganz im Gegenteil, ungenutzte Rechenleistung eines Kerns, kann schlicht nicht verteilt werden. Die bessere Multitasking CPU ist der Singlecore.

Sorry, aber das ist einfach ein Haufen Bullshit.
Wie definierst du Multitasking? Ein Programm aufmachen und wenn man fertig ist, das System neustarten und das nächste Programm aufmachen?

Multitasking profitiert stark von Multicore-CPUs; Multitasking ist das gleichzeitige Arbeiten mit vielen verschiedenen Programmen; im Gegensatz zu Uralt-Betriebssystemen halten moderne die Ausführung von Programmen, die nicht den Fokus haben, nicht an, sondern machen damit weiter--die verschlingen also auch noch CPU-Leistung; viele im Hintergrund laufende Dienste machen's nicht besser.
Ein Singlecore ist für Multitasker die HÖLLE. Ich fahre hier auf meinem Thinkpad mit Singlecore fast durchgehend mindestens 60-70% CPU-Auslastung bei ganz normalen Multitasking-Tätigkeiten (und ich meine richtiges Multitasking und nicht 1 Word-Dokument und 1 Browserfenster); wenn mal ein Programm mehr CPU-Leistung will, dann darf ich erstmal ne Runde warten.
Auf Systemen mit mehreren CPUs ist der Effekt nicht mehr ganz so schlimm.

Also bitte: Erst denken, dann posten. Multitasking ist eine wundervolle Möglichkeit, Multicore-CPUs zu nutzen. Die einzelnen Kerne sollten natürlich nicht zu lahm sein, sonst wird's wieder ätzend, aber einen Singlecore als die bessere Lösung hinzustellen, wenn ernsthaft Multitasking betrieben wird, halte ich für absolut dämlich.

-huha

Avalox
2009-05-03, 23:13:30
Unsinn. Ungenutzte Rechnenleistung kann auch ein Singlecore nicht in irgendetwas anderes als eben "ungenutzte Rechenleistung" umsetzen. Oder idlen Singlecores etwa nicht? - Ich weiß schon, worauf du hinauswillst - auf explizite Singlethread-Szenarien - nur das ist eine längst bis zum Erbrechen durchgekaute Binsenweisheit.


Das hat nichts mit Multithread oder einen Singlethread zu tun.

Eine Multicore CPU kann schlicht einen Thread, egal ob von einer Singlethread oder einer Multithread Anwendung nicht mehr Rechenleistung zuteilen, als von einem Kern bereitgestellt werden kann.


Tatsache ist, dass Mehrkerner vom OS und auch von Applikationen bereits ausreichend ausgelastet werden. Ein Singlecore mit vergleichbarer Leistung existiert dagegen nur als Hirngespinst.


Was ist ausreichend? Du meinst wahrscheinlich ausreichend nachweisbar?
Also den Fall, dass die zusätzlichen Kerne für den Kunden überhaupt einen Nutzen haben.
Dieses ist m.M. überhaupt nicht ausreichend und stark verbesserungsbedürftig. Vor allen ist es in der Hinsicht verbesserungsbedürftig, dass heutige Software auch auf zukünfitgen Manycores skaliert und nicht fix für eine definierte Anzahl von Kernen entwickelt wird.


Spekulieren kann man viel, auch über Multicore-CPUs mit 25GHz, die aus heutiger Sicht ebenso realistisch sind wie die angedachten Netburst-CPUs.


Spekulieren kann man immer viel. Interessant ist es aber, wenn tatsächlich Entwicklungen eintreten.

Ein sehr interessanter Aspekt ist z.B. der Turbomodus des Core i7, oder noch stärker beim Core i5. (Bei AMD Smartprofil genannt).

Es werden dort Kerne gezielt abgeschaltet, um den dort verbliebenen Kern höher takten zu können. Quasi die schnellste Singlecore CPU.
Beim Core i7 eine Taktstufe (mehr beim Core i5 und völlig frei bei AMD). Diese eine Taktstufe wird von Intel als so interessant angesehen, um 3/4 aller Kerne abzuschalten. Auch bei aktueller Software.
Ich finde, einen eindrücklicheren Hinweis auf die momentane Situation seitens der durchgängigen Multicore Softwareunterstützung gibt es nicht.

Diese Funktionalität wird beim Core i5 sogar noch weiter ausgebaut.

Ich finde Multicore CPUs interessant, kann diese nach meiner persönlichen dritten Generation auch einen echten Mehrwert zusprechen. Aber Schade finde ich die Notwendigkeit dieser technischen Not-Entwicklung trotzdem.

Avalox
2009-05-03, 23:25:42
Also bitte: Erst denken, dann posten. Multitasking ist eine wundervolle Möglichkeit, Multicore-CPUs zu nutzen. Die einzelnen Kerne sollten natürlich nicht zu lahm sein, sonst wird's wieder ätzend, aber einen Singlecore als die bessere Lösung hinzustellen, wenn ernsthaft Multitasking betrieben wird, halte ich für absolut dämlich.



Wie schon gesagt, gibt es keinen wirklichen technischen Grund für das von dir beschriebene Phänomen.
Alles handgemacht. Nicht zu vergessen, dass die Software so ist wie sie ist, weil die Systeme so sind wie sie sind.

Du kannst doch nicht ernsthaft es als Vorteil nennen, dass Anwendungen welche Rechenleistung brauchen diese Rechenleistung nicht bekommen und auf der anderen Seite Rechenleistung, welche nicht genutzt werden kann mit warten vertrödelt wird.
Das System ist schlicht ineffizient und es jetzt als Vorteil hinzustellen, dass solch ein ineffizientes System dann in Verbindung mit einer schlechten Software in der Lage ist eben beim Warten auf eine Benutzereingabe zu reagieren kann ich nicht nachvollziehen. Es geht mir hier nicht um einen praktischen Erfahrungswert und der Unzulänglichkeit heutiger Software.

Gast
2009-05-03, 23:31:14
I[;7275215']amd hatte schlicht und ergreifen in der pentium4-ära die besseren prozessoren. takt hin oder her. das netburst-konzept wird bis heute nicht mehr genutzt.
(zudem war der pentium4-nachfolger eigentlich auch ein netburst-prozessor. man entschied sich aber letzendlich dagegen (mangelnde leistung) und ließ dem ehem. pentium-m design-team (afaik die in israel) den vorzug mit der core-architektur.)

€: gut, einzig northwood war "konkurrenzfähig", sah aber auch gegen den etwas später erschienenen a64 dann nicht wirklich land.

Hallo,

also ich erriner mich noch gut an einen nötigen Umstieg (64-Bit für testsystem) von einem 2,4 GHz Northwood auf einen Athlon 64 3200+ (2 GHz). Von techn. Fortschritt war da nichts zu spüren.

Ich wäre beinahe Verückt geworden, wie oft diese Schei*ding einfach unter I/O-Last blockiert hat. Mal ganz abgesehen davon, das Intel von den Chipsätzen lebt, die nunmal um Meilen besser und kompatibler waren (sind) als die der anderen.

Daher erfolgt mit dem erscheinen von W2K3 X64 der Umstieg auf XEON DPs (Precott bzw. Nocona Core).

Anmerkung PCs werden im Büro/Arbeitsumfeld verkauft, der Retailmarkt ("Spiele") ist fast unbedeutend.

mfg

Spasstiger
2009-05-03, 23:35:04
Es werden dort Kerne gezielt abgeschaltet, um den dort verbliebenen Kern höher takten zu können. Quasi die schnellste Singlecore CPU.
Du verdrehst da was. Wenn nur ein Kern sinnvolle Befehle bekommt, dann wird die gesamte "Core"-Taktdomäne um zwei Stufen höher getaktet. Die nicht beschäftigten Kerne werden durch das Powergating so oder so von der Taktversorgung getrennt. Ob ein Kern beschäftigt wird oder nicht, entscheidet das Betriebssystem.

Avalox
2009-05-03, 23:38:53
Du verdrehst da was. Wenn nur ein Kern sinnvolle Befehle bekommt, dann wird die gesamte "Core"-Taktdomäne um zwei Stufen höher getaktet.

Stimmt. Bei pseudo Singlecore Betrieb waren es zwei Taktstufen (i7), eine Taktstufe im pseudo Dualcore Betrieb.

Spasstiger
2009-05-03, 23:41:06
Stimmt. Bei Pseudo Singlecore Betrieb waren es zwei Taktstufen (i7), eine Taktstufe im pseudo Dualcore Betrieb.
Das mit dem "Verdrehen" war eigentlich nicht darauf bezogen, sondern auf deine Darstellung, dass der Prozessor aktiv in den Singlecore-Betrieb geht. Das ist aber mitnichten der Fall. Der Prozzi holt nur das beste aus der Situation raus, wenn das Betriebssystem meint, nicht mehr als einen Kern gleichzeitig beschäftigen zu müssen.

Undertaker
2009-05-03, 23:41:47
Stimmt. Bei pseudo Singlecore Betrieb waren es zwei Taktstufen (i7), eine Taktstufe im pseudo Dualcore Betrieb.

War das so fix? Ich dachte immer, der Turbo richtet sich nur nach der TDP (und deren Ausreizung hängt ja nicht nur von der Anzahl genutzter Kerne ab, sondern auch von deren spezifischer Auslastung).

BAGZZlash
2009-05-03, 23:44:18
im Gegensatz zu Uralt-Betriebssystemen halten moderne die Ausführung von Programmen, die nicht den Fokus haben, nicht an, sondern machen damit weiter--die verschlingen also auch noch CPU-Leistung; viele im Hintergrund laufende Dienste machen's nicht besser.

Das ist falsch. Bei einem Taskswitch werden die Register der CPU gesichert, mit denen des anderen Task geladen und die CPU rechnet weiter. Das macht die CPU selbstständig und ohne Zutun der Betriebsystems.
Das Betriebsystem hält gar nichts an, das macht die CPU selbst, auch bei modernen Betriebsystemen und CPUs.
Allerdings können bei Multicore-CPUs mehrere (also bei Dualcore z.B. zwei) Tasks gleichzeitig aktiv sein, was natürlich ein geschmeidigeres Arbeitsgefühl mitbringt. Wie das genau ausgeführt wird bei Multicore, weiß ich allerdings nicht. Kann da jemand was zu schreiben?

roboto
2009-05-03, 23:51:33
Das hat nichts mit Multithread oder einen Singlethread zu tun.
Eine Multicore CPU kann schlicht einen Thread, bla bla

Exakt das, worauf ich mit "bis zum Erbrechen durchgekaut" anspielte :rolleyes: Und es HAT genau damit zu tun, du widersprichst dir selbst in zwei aufeinanderfolgenden Sätzen.

Also den Fall, dass die zusätzlichen Kerne für den Kunden überhaupt einen Nutzen haben.

Unötige Frage. Was sonst?
Irgendwie ist der Zug an dir vorbeigefahren, oder? Ich frage mich, wo du jetzt noch große Verbesserungen sehen willst. Selbst der Firefox nutzt alle Kerne spielend, wenn er sie braucht. Man kann sich zwar fragen, wieso er 2 Kerne anspricht, um weiches Scrollen zu ermöglichen, aber er tut es. Was soll hier noch verbessert werden? Daß bestimmte (alte) Applikationen in dieser Hinsicht noch hinterherhinken, ist klar, aber ich nutzte selbst keine davon. Selbst profane PC-Spiele setzen auf Mehrkernern und sind mit Singlecores nahezu unspielbar geworden.

Anders gefragt: welche Applikationen brauchen eigentlich massiv Leistung? Auffällig ist hier, dass diese in den meisten Fällen exzellent von Mehrkernern profitieren, sprich: ihre Aufgabe sich wunderbar auf mehrere Threads verteilen lässt. Multicore hat uns dorthin gebracht, wo Netburst Leistungsmässig hin wollte.

Spekulieren kann man immer viel. Interessant ist es aber, wenn tatsächlich Entwicklungen eintreten.

Was im Falle von Netburst, worüber ich mit dir diskutiere, nicht eingetreten ist. Aber ich klink mich nun aus, gute Nacht.

Hellstaff
2009-05-03, 23:51:34
Intel hat mit dem P4 Erfahrungen damit gemacht, eine CPU stabil bei einer hohen Taktfrequenz laufen zu lassen. Laut einem 3dC Artikel war der P4 ein unter stark thermischen Gesichtspunkten (mE. hotspots usw.) konstruierter Prozessor. Denkt ihr, dass sie diese gewonnenen Erfahrungen auch in die Core Duo Technologie einfließen haben lassen? Schließlich waren die ersten Core Duos auch sehr gut übertaktbar.

Wenn ja, dann hat der P4 auch zum Erfolg des Conroe beigetragen.

roboto
2009-05-03, 23:57:00
Erfahrungen wurden sicherlich gemacht, den P4 völlig zu verteufeln, ist auch nicht richtig, Intel dürfte hier schon manches mitgenommen haben. Allerdings steckte in ihm eben ein immanentes Dilemma, über das er als ganzes nicht hinweg kam. Er war für hohe Taktraten ausgelegt, aber er brauchte auch genau diese, um überhaupt wirklich schnell zu sein und über die Schwächen der Architektur hinwegzukommen. Er hat's nicht geschafft, that's it.

Avalox
2009-05-04, 00:03:12
Das mit dem "Verdrehen" war eigentlich nicht darauf bezogen, sondern auf deine Darstellung, dass der Prozessor aktiv in den Singlecore-Betrieb geht. Das ist aber mitnichten der Fall. Der Prozzi holt nur das beste aus der Situation raus, wenn das Betriebssystem meint, nicht mehr als einen Kern gleichzeitig beschäftigen zu müssen.

Das Betriebssystem ist ja dort nicht getrennt von der CPU zu sehen. Natürlich gibt es dort immer die optimale Strategie die vorhanden Ressourcen zu nutzen.

Der Prozessor holt dort das maximale aus der Situation heraus, wenn dieser zum Schluss kommt, dass eine Dualcore, bzw. gar Singlecore CPU mit etwas höheren Takt von Vorteil ist.

War das so fix? Ich dachte immer, der Turbo richtet sich nur nach der TDP (und deren Ausreizung hängt ja nicht nur von der Anzahl genutzter Kerne ab, sondern auch von deren spezifischer Auslastung).

Nein. Der Turbomodus schaltet Kerne ab (2 oder 3) um die(den) restlichen Kern eine bzw. zwei Taktstufen schneller betreiben zu können. Aus einem Quadcore wird dann ein temporärer Dualcore, bzw. Singlecore Prozessor.


Irgendwie ist der Zug an dir vorbeigefahren, oder? Ich frage mich, wo du jetzt noch große Verbesserungen sehen willst.

Da fällt mir aber eine Menge ein und sicherlich Dir auch.

Spasstiger
2009-05-04, 00:05:56
Der Prozessor holt dort das maximale aus der Situation heraus, wenn dieser zum Schluss kommt, dass eine Dualcore, bzw. gar Singlecore CPU mit etwas höheren Takt von Vorteil ist.
Ich kann diese These nicht widerlegen, habe aber große Zweifel daran. Imo liegt die Verteilung der Befehle auf die einzelnen Cores voll in der Hand des Betriebssystems. Ansonsten müsste sich der Prozessor ja gar nicht als Multicore-Prozessor ausweisen.

Nein. Der Turbomodus schaltet Kerne ab (2 oder 3) um die(den) restlichen Kern eine bzw. zwei Taktstufen schneller betreiben zu können.
Das Powergating arbeitet völlig unabhängig vom Turbomodus.

Avalox
2009-05-04, 00:13:26
Ich kann diese These nicht widerlegen, habe aber große Zweifel daran. Imo liegt die Verteilung der Befehle auf die einzelnen Cores voll in der Hand des Betriebssystems. Ansonsten müsste sich der Prozessor ja gar nicht als Multicore-Prozessor ausweisen.


Na er muss sich als Multicore Prozessor ausweisen um, dass das OS überhaupt den Multicore HAL nutzt.


Das Powergating arbeitet völlig unabhängig vom Turbomodus.

Aber der Turbomodus nicht vom abschalten der Kerne.

Spasstiger
2009-05-04, 00:15:05
Aber der Turbomodus nicht vom abschalten der Kerne.
Ja, dann schreib es auch so. Der Turbomodus schaltet überhaupt keine Kerne ab. Die Kerne werden aufgrund des permanent aktiven Powergating-Features abgeschalten.

huha
2009-05-04, 00:17:29
Das ist falsch. Bei einem Taskswitch werden die Register der CPU gesichert, mit denen des anderen Task geladen und die CPU rechnet weiter. Das macht die CPU selbstständig und ohne Zutun der Betriebsystems.

Ich gebe zu, es war unglücklich ausgedrückt. Moderne Betriebssysteme sorgen dafür, daß auch Anwendungen, die nicht den Fokus haben, noch weiterlaufen; bei früheren Betriebssystemen war das nicht unbedingt der Fall. Daß das auf CPU-Ebene anders abläuft, ist ja hinreichend bekannt.

-huha

BlackBirdSR
2009-05-04, 00:18:15
Nein. Der Turbomodus schaltet Kerne ab (2 oder 3) um die(den) restlichen Kern eine bzw. zwei Taktstufen schneller betreiben zu können. Aus einem Quadcore wird dann ein temporärer Dualcore, bzw. Singlecore Prozessor.



Sorry, aber das ist so nicht korrekt. Turboboost muss keine Kerne abschalten. Das tun die alle von selbst, alle paar µSekunden.
Turboboost überprüft nur, wie viele das gerade sind und welche Temperaturlimits vorliegen. Dann erhöht es die Taktrate der ganzen CPU dynamisch, solange Temperatur und Idle ausreichend sind.

Werden die anderen Kerne wieder vom OS aus ihren C-States geholt, denkt der Boost die Taktrate wieder.

Ich kann diese These nicht widerlegen, habe aber große Zweifel daran. Imo liegt die Verteilung der Befehle auf die einzelnen Cores voll in der Hand des Betriebssystems. Ansonsten müsste sich der Prozessor ja gar nicht als Multicore-Prozessor ausweisen.


Musst du auch nicht extra widerlegen. Die CPU hat natürlich keinen Einfluss darauf, solange keine interne Schaltung einzelne Kerne abmeldet. Aber ich denke nicht, dass Avalox überhaupt in diese Richtung wollte.

fdk
2009-05-04, 00:23:37
Das ist falsch. Bei einem Taskswitch werden die Register der CPU gesichert, mit denen des anderen Task geladen und die CPU rechnet weiter. Das macht die CPU selbstständig und ohne Zutun der Betriebsystems.
Das Betriebsystem hält gar nichts an, das macht die CPU selbst, auch bei modernen Betriebsystemen und CPUs.
Allerdings können bei Multicore-CPUs mehrere (also bei Dualcore z.B. zwei) Tasks gleichzeitig aktiv sein, was natürlich ein geschmeidigeres Arbeitsgefühl mitbringt. Wie das genau ausgeführt wird bei Multicore, weiß ich allerdings nicht. Kann da jemand was zu schreiben?

Das OS, oder genauer der scheduler dessen verteilt die anstehenden threads an die zur Verfügung stehenden CPUs. Dabei unterteilt er die zur Verfügung stehende Prozessorzeit in slices und verteilt diese entsprechend ausgewählter Kriterien(Priorität etc.) an die Prozesse. Beim Wechsel eines aktiven threads/Prozesses wird der Inhalt der Register in der CPU gesichert woraufhin diese zu einer Interruptroutine springt bei der das OS einen neuen thread auswählt und die cpu wiederum an den instruction pointer im codesegmnt des neuen threads schickt + den Inhalt der Register auf die gespeicherten Inhalte zurücksetzt.
Wenn der Scheduler das geschickt anstellt kann auch eine nicht-multithreaded geschriebene Anwendung von der Anwesenheit einer 2. cpu profitieren, da diese dann irqs und andere Prozesse die "im Hintergrund" laufen abarbeiten kann. Dieser Vorteil ist zwar nicht enorm bei der hohen Leistung heutiger CPUs, aber er ist vorhanden. Man sollte auch nicht Vergessen das jeder contextswitch den die CPU vornimmt Zeit kostet. Ich hab gerade keine belastbaren Zahlen hier aber hab im Hinterkopf was mit 10-20 µs schwirren (inklusive OS-scheduling / overhead).

Das die CPU die Taskswitches selbstständig regelt stimmt also nicht wirklich, das ganze geht immer vom OS bzw. hw-interrupts (Die ebenfalls vom OS "abgefangen" werden) aus.

Avalox
2009-05-04, 00:26:05
Sorry, aber das ist so nicht korrekt. Turboboost muss keine Kerne abschalten. Das tun die alle von selbst, alle paar µSekunden.
Turboboost überprüft nur, wie viele das gerade sind und welche Temperaturlimits vorliegen. Dann erhöht es die Taktrate der ganzen CPU dynamisch, solange Temperatur und Idle ausreichend sind.


Ah, jetzt verstehe ich den Hintergrund der Frage.

Lass es mich anders ausdrücken.

Wenn die CPU zum Schluss kommt, dass diese für die konkrete Anforderung eine schnellere höher getaktete Dualcore CPU oder Singlecore CPU als Quadcore CPU wäre, begibt diese sich in solch einen entsprechenden Betrieb.

BlackBirdSR
2009-05-04, 00:38:53
Lass es mich anders ausdrücken.

Wenn die CPU zum Schluss kommt, dass diese für die konkrete Anforderung eine schnellere höher getaktete Dualcore CPU oder Singlecore CPU als Quadcore CPU wäre, begibt diese sich in solch einen entsprechenden Betrieb.

Immernoch nicht ganz.
Die CPU überprüft Verbrauch, Temperatur und Aktivität der Kerne. Die CPU kommt dabei nur zu einem Schluss: Takt erhöhen oder nicht. Das hat mit Single oder Dual-Core nichts zu tun. Bei ausreichender Charaktersitik (verlustleistung und Stromfluss) wird für alle 4 Kerne bis zu 133MHz erhöht. Sollte die CPU feststellen, dass einige der Kerne gerade inaktiv sind, also vom Betriebsystem gerade nicht angesprochen werden und im idle laufen (unterhalb C1), dann sind auch 266MHz möglich.

Der erste Fall erhöht die Leistung auch für den Quad-Core.

=Floi=
2009-05-04, 00:47:14
was willst du jetzt mit dem ollen turbomodus? Wenn die cpu gleich alle 8 threads mit 2,933ghz betreibt habe ich 8X den bonus des turbomodus zu verfügung.
Es geht auch darum, dass ein stockendes system so eben noch läuft und wenn es darauf ankommt dann kann ich eben auch diese anwendung 1,2 oder n-mal laufen lassen und skaliere hier mit der anzahl der cores.
ebenso erhalte ich je mach software und problem noch immer eine gute leistungssteigerung bei 2-4 cores und habe trotzdem noch einen moderaten stromverbrauch. Mit einem 65watt Qxxxs erhalte ich eine rechenleistung die ich mit einem singlecore erst garnicht mehr umsetzen könnte und habe trotzdem noch einen geringen stromverbrauch. Wenn eine anwendung den prozessor wirklich ausnutzt, dann gerät auch das beste os ins stocken.

Avalox
2009-05-04, 00:49:02
Immernoch nicht ganz.
Die CPU überprüft Verbrauch, Temperatur und Aktivität der Kerne. Die CPU


Das klinkt jetzt aber etwas schlaff.
Die Temperatur wird sicherlich ständig überprüft, wie auch die elektrische Leistungsaufnahme.

Bleibt als primäres Kriterium allein die Aktivität der Kerne.


Sollte die CPU feststellen, dass einige der Kerne gerade inaktiv sind, also vom (unterhalb C1), dann sind auch 266MHz möglich.


Da bin ich mir aber ziemlich sicher, dass dieses nicht bei einigen, sondern nur mit genau einem Kern möglich ist.
Die höchste Taktrate geht einher mit einem praktischen Singlecore Betrieb, der eigentlichen Quadcore CPU welche dann 3/4 ihrer Kerne nicht nutzt.

Auch wenn es scheinbar nett umschmückt wird aus der Intel Beschreibung.

BlackBirdSR
2009-05-04, 01:09:30
Das klinkt jetzt aber etwas schlaff.
Die Temperatur wird sicherlich ständig überprüft, wie auch die elektrische Leistungsaufnahme.

Bleibt als primäres Kriterium allein die Aktivität der Kerne.


Soll heißen, die Schaltung überprüft alle 3 Kriterien.


Da bin ich mir aber ziemlich sicher, dass dieses nicht bei einigen, sondern nur mit genau einem Kern möglich ist.
Die höchste Taktrate geht einher mit einem praktischen Singlecore Betrieb, der eigentlichen Quadcore CPU welche dann 3/4 ihrer Kerne nicht nutzt.

Auch wenn es scheinbar nett umschmückt wird aus der Intel Beschreibung.

War auch so gemeint:
kein Kern in C3/C6 = bis 1 Taktstufe
3 kerne in C3/C6 = bis 2 Taktstufen.

Natürlich alles abhängig von den primären Faktoren Temperatur, Leistungsaufnahme.

roboto
2009-05-04, 07:37:17
Da fällt mir aber eine Menge ein und sicherlich Dir auch.

Bitte, du hast diese pauschale Behauptung in die Welt gesetzt, du bist in der Bringschuld.

DavChrFen
2009-05-05, 00:02:21
Also ich hab damals auch was gelesen, dass Intel irgendwelche P4-Nachfolger mit Netburst hat, die mit LuKü bis 6 GHz und mit WaKü bis 10 GHz gegangen sind. Deswegen waren auch die Mainboards der ersten Generation von dem Sockel 775 für ziemlich hohe Verlustleistungen ausgelegt, IMHO.

Intel ist, dachte ich, von dem Netbust-P4-Nachfolger abgerückt, weil den PC-Hersteller die hohe Verlustleistung im Vergleich zu den AMD-CPUs nicht recht war. Außerdem war damals auch der Hype um die 64-bit-Erweiterung. Schade, dass Intel keine Infos über das rausgibt, was mal dieser Pentium5 werden sollte. Und 64-bit wollte Intel auf X86-Basis eigentlich nicht einführen, sondern erst bei dem P5-Nachfolger dann mit IA64. Ist aber, wie man sieht, alles anders gekommen.

Gibt es irgendwo ein offizielles Logo für Netburst?

BlackBirdSR
2009-05-05, 00:11:17
Gibt es irgendwo ein offizielles Logo für Netburst?

Gibt es ein Logo für die anderen µArchs? Netburst ist doch auch nur ein Marketingname wie iSSE. Hauptsache das Wort "(Inter)Net" steckt drin ;)

Acrylsäure
2009-05-15, 11:33:29
In meinem Verständnis gibt es zwei Gründe, warum ein Prozessor den derartig anliegenden Takt "nicht schafft":
1) Er wird zu heiß
2) Er schafft in der absoluten Zeit, die ein Takt dauert den aktuellen Arbeitsschritt nicht.
Dass ist kein Grund warum eine CPU einen Takt nicht "schafft". Innerhalb eines Taktes werden auf jeden Fall die Transistoren geschaltet die schalten sollen.
Außer der Takt ist so schnell dass die Bauelemente einfach nicht "hinterherkommen". => kleinere Strukturen => kleinere Kapazitäten die umgeladen werden müssen => höherer Takt ist möglich

Was du meinst ist dass ein Arbeitsschritt verworfen werden muss aus irgendwelchen Pipelining-Gründen. Hazards z.B.
Das ganze hat aber nix mit der Höhe des Taktes zu tun!

Abwärme ist eines der größten Probleme und bremst die Erhöhung der Taktraten am meisten. Deswegen haben wir ja nun Multicore-CPUs. Hoch getaktete Singlecore-CPUs sind mit den heutigen Kühlverfahren einfach nicht möglich!

Odal
2009-05-15, 12:45:45
Intel ist, dachte ich, von dem Netbust-P4-Nachfolger abgerückt, weil den PC-Hersteller die hohe Verlustleistung im Vergleich zu den AMD-CPUs nicht recht war. Außerdem war damals auch der Hype um die 64-bit-Erweiterung. Schade, dass Intel keine Infos über das rausgibt, was mal dieser Pentium5 werden sollte. Und 64-bit wollte Intel auf X86-Basis eigentlich nicht einführen, sondern erst bei dem P5-Nachfolger dann mit IA64. Ist aber, wie man sieht, alles anders gekommen.

Gibt es irgendwo ein offizielles Logo für Netburst?

intel ist imho (notgedrungen) vom netburst abgegangen weil (wie du erwähntest) amd eine cpu mit einer "funktionierenden" 64Bit erweiterung aus dem hut gezaubert hat und die schritte von netburst nicht groß genug waren

da haben sie die notbremse gezogen um nicht CPUs zweiter klasse anbieten zu müssen (wie es AMD die letzten jahre musste)

jetzt haben wir eine (mehr oder minder) stagnation im CPU bereich und nur den "run" auf mehr cores...was ja doch einige käufer abgrasst

aber alles in allem sinde die effektiven leistungszugewinne in den letzten jahren lächerlich gering...

Gast
2009-05-15, 14:41:19
Dass ist kein Grund warum eine CPU einen Takt nicht "schafft". Innerhalb eines Taktes werden auf jeden Fall die Transistoren geschaltet die schalten sollen.
Außer der Takt ist so schnell dass die Bauelemente einfach nicht "hinterherkommen". => kleinere Strukturen => kleinere Kapazitäten die umgeladen werden müssen => höherer Takt ist möglich

Was du meinst ist dass ein Arbeitsschritt verworfen werden muss aus irgendwelchen Pipelining-Gründen. Hazards z.B.
Das ganze hat aber nix mit der Höhe des Taktes zu tun!

Nein, er meint schon das gleiche wie du, du kannst bei einer CPU den takt so lange erhöhen bis es eine pipelinestufe nicht mehr schafft rechtzeitig fertig zu werden.

Wenn du den takt weiter erhöhen willst musst du irgendwie dafür sorgen, dass die einzelnen transistoren schneller schalten (was sie ja mit einer reinen takterhöhung nicht machen, sie schalten dann öfter, aber nicht schneller). Die einfachste methode dafür ist mal die spannung zu erhöhen, was natürlich die wärmeabgabe entsprechend erhöht und dementsprechend bessere kühlungen braucht.

Andre
2009-05-15, 16:02:13
Was ist ausreichend? Du meinst wahrscheinlich ausreichend nachweisbar?
Also den Fall, dass die zusätzlichen Kerne für den Kunden überhaupt einen Nutzen haben.


Wenn ich mit meinem DAW ein Projekt öffne und rendern lasse und das bei einem Mehrkern ca. 40 % schneller geht, ist das kein Nutzen für mich?
In allen Bereichen, die ich nutze hat der Mehrkern einen Vorteil gebracht, insbesondere im Producing- und Masteringbereich.

Gast
2009-05-15, 16:41:03
[QUOTE=Odal;7301537]intel ist imho (notgedrungen) vom netburst abgegangen weil (wie du erwähntest) amd eine cpu mit einer "funktionierenden" 64Bit erweiterung aus dem hut gezaubert hat und die schritte von netburst nicht groß genug waren
[QUOTE]

Hallo,

also die AMD64 (oder Intel 64) gab es ab den Prescotts beim P4 (teilweise deaktiviert).

Ein interressanter Fakt, die Xeon Abwandlung (Nocona) war der erste vernünftig nutzbare CPU für W2K3 Server Sp1 x84 (das erste x64 Windows).

mfg

Acrylsäure
2009-05-15, 17:25:41
Nein, er meint schon das gleiche wie du, du kannst bei einer CPU den takt so lange erhöhen bis es eine pipelinestufe nicht mehr schafft rechtzeitig fertig zu werden.

Wenn du den takt weiter erhöhen willst musst du irgendwie dafür sorgen, dass die einzelnen transistoren schneller schalten (was sie ja mit einer reinen takterhöhung nicht machen, sie schalten dann öfter, aber nicht schneller). Die einfachste methode dafür ist mal die spannung zu erhöhen, was natürlich die wärmeabgabe entsprechend erhöht und dementsprechend bessere kühlungen braucht.
Ja das hab ich dann auch gemerkt... hab ihn einfach falsch verstanden ^^

Entweder Spannung erhöhen oder Struktur verkleinern. Struktur verkleinern bringt halt noch den Vorteil mehr Transistoren unterzubringen bei gleicher Leistungsdichte auf dem Die. Aber was will man bei Netburst mit noch mehr Transistoren? Noch längere Pipelines? Irgendwann wird der Verwaltungsaufwand zu riesig um Hazards zu vermeiden...
Also musste man zwangsläufig den Weg gehen den AMD gegangen ist...

Gast
2009-05-15, 17:32:40
Aber was will man bei Netburst mit noch mehr Transistoren? Noch längere Pipelines? Irgendwann wird der Verwaltungsaufwand zu riesig um Hazards zu vermeiden...

Nein, genau das umgekehrte, mit mehr transistoren könnte man eben mehr in die verwaltung investieren um die probleme der langen pipeline auszugleichen. Eine lange pipeline ist ja nicht zwangsweise langsam, nur die lange pipeline in netburst war eben langsam ;)

Acrylsäure
2009-05-15, 17:43:29
Nein, genau das umgekehrte, mit mehr transistoren könnte man eben mehr in die verwaltung investieren um die probleme der langen pipeline auszugleichen. Eine lange pipeline ist ja nicht zwangsweise langsam, nur die lange pipeline in netburst war eben langsam ;)
Na klar kann man das... aber die frage ist macht das Sinn? Weil der Verwaltungsaufwand steigt zu sehr im Vergleich zum Nutzen...
Ab einer bestimmten Länge macht das einfach keinen Sinn mehr!

Die Pipeline ist immer nur so schnell wie der angelegte Takt. Oder meinst du sie war einfach zu lang? Die Länge lässt sich damit erklären dass die Befehle in Mikrocode umgewandelt werden und der in der Pipeline abgearbeitet wird.

Gast
2009-05-15, 19:24:31
Die Pipeline ist immer nur so schnell wie der angelegte Takt. Oder meinst du sie war einfach zu lang? Die Länge lässt sich damit erklären dass die Befehle in Mikrocode umgewandelt werden und der in der Pipeline abgearbeitet wird.

Ich meinte eigentlich die leistung/takt, welche bei netburst ja relativ schlecht war (ganz im gegensatz zum takt).

Man könnte durchaus transistoren in maßnahmen investieren, die die leistung/takt nur mehr geringfügig schlechter als bei einer kurzen pipeline werden lassen und kann den hohen takt trotzdem mitnehmen.

Panasonic
2009-05-15, 21:20:38
Ich habe das Gefühl, die CPU-Leistungssteigerung stagniert seit Jahren. Ich nutze einen fast 4 Jahre alten Prozessor (Core 2 Duo) und habe mit keiner Anwendung ein Leistungsproblem. Meine Familie habe ich mit Multimedia-PCs ausgestattet, die arbeiten auf den Geräten, gucken Filme, verwalten Musiksammlungen, basteln sich Filme ihrer Musikauftritte zusammen, nutzen Internet und gelegentlich spielen meine Schwestern mal Sims 2. Und deren CPUs sind rund 8 Jahre alt (Athlon XP 2800+).

Gucke ich mir aber die Leistungssprünge von z. B. 1992 bis 2000 an... :ugly:

Lawmachine79
2009-05-15, 21:23:48
Ich habe das Gefühl, die CPU-Leistungssteigerung stagniert seit Jahren. Ich nutze einen fast 4 Jahre alten Prozessor (Core 2 Duo) und habe mit keiner Anwendung ein Leistungsproblem. Meine Familie habe ich mit Multimedia-PCs ausgestattet, die arbeiten auf den Geräten, gucken Filme, verwalten Musiksammlungen, basteln sich Filme ihrer Musikauftritte zusammen, nutzen Internet und gelegentlich spielen meine Schwestern mal Sims 2. Und deren CPUs sind rund 8 Jahre alt (Athlon XP 2800+).

Gucke ich mir aber die Leistungssprünge von z. B. 1992 bis 2000 an... :ugly:
Wow, kennst Du einen von Intel, der Dir einen C2D beschafft hat ;) ? Der kam erst im Juni/Juli 2006. Der ist also FAST 3.

ESAD
2009-05-15, 21:24:28
im desktop ists ja noch nicht so schlimm. beim mobilsektor ist das ganze nochmal verstärkt durch die anforderungen hinsichtlich stromverbrauch und wärmeabgabe (und scheint auch bei intels neuer mobilreihe nicht besser zu werden stat schnellerer dualcores gibts nen zwangsigp dazu *toll*)

Panasonic
2009-05-15, 21:26:19
Wow, kennst Du einen von Intel, der Dir einen C2D beschafft hat ;) ? Der kam erst im Juni/Juli 2006. Der ist also FAST 3.
Äh ja, dann halt 3 Jahre... was auch schon uralt ist.

Lawmachine79
2009-05-15, 21:31:19
Äh ja, dann halt 3 Jahre... was auch schon uralt ist.
Naja, spiel mal GTA4, da merkt man ihm das Alter an. Wobei es nicht architekturbedingt ist, wenn Du die gleiche CPU als Quad hättest, wäre das auch kein Thema.

Panasonic
2009-05-15, 21:35:54
Naja, spiel mal GTA4, da merkt man ihm das Alter an. Wobei es nicht architekturbedingt ist, wenn Du die gleiche CPU als Quad hättest, wäre das auch kein Thema.
Da sehe ich das Problem eher auf der Seite von GTA IV ;) Aber egal, natürlich hat ein Quad mehr Dampf, aber auch hier finde ich, dass das Verhältnis nicht stimmt.

Ich will mal wieder einen richtigen Leistungsschub!

Jake Dunn
2009-05-15, 21:39:59
Ich will mal wieder einen richtigen Leistungsschub!

Gibt es ja schon, wird dir im GPU-Limitierten Games aber nicht viel bringen ;)

Panasonic
2009-05-15, 21:41:23
Gibt es ja schon, wird dir im GPU-Limitierten Games aber nicht viel bringen ;)Wo denn :rolleyes: Ist doch alles pillepalle.

Lawmachine79
2009-05-15, 21:43:05
Ich will mal wieder einen richtigen Leistungsschub!
Naja, in den Spielen, wo Du einen Leistungsschub bekommen würdest, kritisiert Du die Programmierleistung ;).
Bei World in Conflict bekommt man bestimmt auch noch einen Leistungsschub mit dicker CPU, wenn man DX10+Trümmer aktiviert und sich dann in eine Atomexplosion stellt.

Jake Dunn
2009-05-15, 21:48:43
Wo denn :rolleyes: Ist doch alles pillepalle.

In gewissen Anwendungen ja, aber wie oben schon gesagt im GPU-Limit kaum/nicht ;) Wie auch?

Panasonic
2009-05-15, 21:49:14
Ich glaube, wir verstehen unter "Leistungsschub" einfach verschiedene Dinge. Ich meine nicht hier mal 10% und dort mal 25% mehr Leistung für dreifache Kosten. Ne, ich will, dass das verpennen der Vergangenheit mal eingeholt wird! Doppelte Leistung bei gleichem Preis. Mindestens. Allein schon die Tatsache, dass wir seit fast einem Jahrzehnt im 3 Ghz-Bereich krebsen, ekelt mich nur noch an. jaja, ich weiß, die Leistung pro Takt ist gestiegen usw., ich will aber mal wieder RICHTIG Power erfahren.

Jake Dunn
2009-05-15, 21:54:07
...ich will aber mal wieder RICHTIG Power erfahren.

Dann warte auf die Quantencomputer :biggrin:

Gast
2009-05-15, 23:35:59
Ja, die aktuellen (Multicore) CPUs sind schon ein ganz schön schlapper Ersatz für einen 25GHz Singlecore P4 (natürlich auch mit auf über 40GHz übertakteten CPUs). Was für ein technisches Dilemma, in dem wir uns heute befinden.

Aus dem Dilemma kommen wir bald heraus.

Es sind ja schon Pläne in Arbeit, bei der man CPUs anstatt aus Silizium aus Kohlenstoff bauen will, genaugenommen werden das CPUs aus Diamanten sein und die kann man dann ein paar hundert Gigaherz hoch takten, weil CPUs aus Diamanten auch noch bei 800 °C stabil laufen ohne das sich die CPU zersetzt.

ESAD
2009-05-16, 00:22:31
das bringt uns doch genauso wenig weiter. höhere temperaturbeständigkeit sind wünscheswert. beim heimgebrauch sind hier allerdings grenzen gesetzt. denn die von mir aus nur 200 grad heiße luft muss (schließlich und endlich) irgendwo hin.

Avalox
2009-05-16, 08:58:48
das bringt uns doch genauso wenig weiter. höhere temperaturbeständigkeit sind wünscheswert. beim heimgebrauch sind hier allerdings grenzen gesetzt. denn die von mir aus nur 200 grad heiße luft muss (schließlich und endlich) irgendwo hin.


Die Temperatur ist ja nebensächlich. Es kommt auf die umgesetzte Leistung an.
Hat das DIE eine kleinere Fläche kann die Temperatur ansteigen.
Grade solch ein Baustein mit höherer Temperatur ließe sich besser Zuhause kühlen.

Da ja Leckströme heute verantwortlich sind für ein Gutteil der Verlustleistung, würde natürlich eine Verringerung dieser Leckstöme z.B. durch ein anderes Material es erlauben die Spannung deutlich zu erhöhen, die Schaltgeschwindigkeit damit zu verbessern ohne, dass dabei die Verlustleistung explodiert.

Tigerchen
2009-05-16, 09:05:44
Der Pentium 4 ließ sich doch höher takten als ein Core 2.
8 GHz wurden beim P4 erreicht, 5 GHz waren gegen Ende der Netburst-Ära mit Wasserkühlung nicht ungewöhnlich.
Beim Core 2 hat man afaik noch nichtmal die 7 GHz erreicht trotz deutlich fortschrittlicherer Fertigungstechnologie.
Lassen wir mal angebliche und tatsächliche Overclockingwunder außen vor.

So viel ich weiß gab es nie einen P4 mit mehr als 3,8 Ghz zu kaufen. Zu Beginn der P4-Ära wurde aber glasklar gesagt daß Taktraten bis zu10 Ghz innerhalb weniger Jahre angestrebt wurden. Ohne Overclocking. Das wurde niemals auch nur ansatzweise erreicht.

Lokadamus
2009-05-16, 09:16:58
Ich habe das Gefühl, die CPU-Leistungssteigerung stagniert seit Jahren. Ich nutze einen fast 4 Jahre alten Prozessor (Core 2 Duo) und habe mit keiner Anwendung ein Leistungsproblem.mmm...

Der Hintergrund ist simpel:
Videowiedergabe entwickelt sich nur noch langsam weiter.
Die Probleme, die es damals mit Filmen gab (Bitrate) sind momentan unwichtig.
DVDs können seit ein paar Jahren flüssig wiedergegeben werden, Blu- Ray wäre da interessanter.

Welches OS wird eingesetzt? XP? Das wäre eine schlechte Grundlage als Argument, Vista wäre passender.

Andere Sachen wie Office brauchen wie früher verhältnismässig wenig Rechenleistung (wobei ich seit kurzem die ctfmon.exe im Taskmanager abschiesse, da sie mein System ausbremst).

Die einfachen Bedürfnisse sind relativ schnell befriedigt mit jedem aktuellen billig PC. Rechenintensive Sachen wie Videos in HD- Quali dürften auf 2 - 3 Jahren alten Systemen kein Problem darstellen. Mein System ist von Ende 2003, da ruckelt es teilweise. Da können wir von alt reden und die einfachen Sachen laufen trotzdem noch flüssig ;) ...

Wuge
2009-05-16, 10:44:12
Lassen wir mal angebliche und tatsächliche Overclockingwunder außen vor.

So viel ich weiß gab es nie einen P4 mit mehr als 3,8 Ghz zu kaufen. Zu Beginn der P4-Ära wurde aber glasklar gesagt daß Taktraten bis zu10 Ghz innerhalb weniger Jahre angestrebt wurden. Ohne Overclocking. Das wurde niemals auch nur ansatzweise erreicht.

Intel hatte mit 90nm bzw. Prescott Probleme mit der Verlustleistung, daher musste auf höhere Taktraten verzichtet werden.

Die 65nm Netburst-CPUs hätten schon über 4 GHz gekonnt, zu dem Zeitpunkt war Netburst aber schon End-of-Life und man wollte den Leistungssprung zum C2D nicht gefährden.

An den 10 GHz sind sie aber tatsächlich weiter vorbeigeschrammt ;) Das wäre vermutlich nicht mal mit dem aktuellen 45nm Prozess möglich gewesen.

ESAD
2009-05-16, 12:59:21
Die Temperatur ist ja nebensächlich. Es kommt auf die umgesetzte Leistung an.
Hat das DIE eine kleinere Fläche kann die Temperatur ansteigen.
Grade solch ein Baustein mit höherer Temperatur ließe sich besser Zuhause kühlen.

Da ja Leckströme heute verantwortlich sind für ein Gutteil der Verlustleistung, würde natürlich eine Verringerung dieser Leckstöme z.B. durch ein anderes Material es erlauben die Spannung deutlich zu erhöhen, die Schaltgeschwindigkeit damit zu verbessern ohne, dass dabei die Verlustleistung explodiert.

also ich finde die temperatur im heigebrauch nicht nebensächlich. oder möchtest du ein gerät neben dir stehen haben was >100° heiße abluft in wohnräumen produziert während man daran arbeitet?

Acrylsäure
2009-05-16, 13:02:04
Ich meinte eigentlich die leistung/takt, welche bei netburst ja relativ schlecht war (ganz im gegensatz zum takt).

Man könnte durchaus transistoren in maßnahmen investieren, die die leistung/takt nur mehr geringfügig schlechter als bei einer kurzen pipeline werden lassen und kann den hohen takt trotzdem mitnehmen.
Das hieße aber an den Stationen der Pipeline mehr Hardwareaufwand und dann kann man eben den hohen Takt nicht mehr mitnehmen.

Die Idee von Netburst ist doch an jeder Pipelinestation relativ wenig Transistoren. Dies ermöglicht ja erst den hohen Takt!

Avalox
2009-05-16, 13:07:50
also ich finde die temperatur im heigebrauch nicht nebensächlich. oder möchtest du ein gerät neben dir stehen haben was >100° heiße abluft in wohnräumen produziert während man daran arbeitet?

Wenn du eine Kerze im Zimmer anmachst, so erwärmt diese die Luft auf 1400°C.
Die Glühwendel deiner 30W Schreibtisch Halogenlampe wird gar 3000°C warm.

Und selbst beide zusammen, erhitzen trotzdem das Zimmer nicht so stark wie die deine heutige CPU.

Ganz im Gegenteil eine wärmeunempfindlichere CPU, welche deutlich über der Raumtemperatur liegt ist besser zu kühlen, als eine grössere CPU welche nicht so warm wird.


Die CPUs von heute werden ja wärmer als jeder Herdplatte. 100°C sind dort auch schon ein sehr gekühlter Zustand.

AnarchX
2009-05-16, 13:16:59
Die CPUs von heute werden ja wärmer als jeder Herdplatte. 100°C sind dort auch schon ein sehr gekühlter Zustand.
Selbst aktuelle Hitzköpfe wie eine Phenom II 955 oder ein Core i7 haben Last-Temperaturen um die 50°C, während Einsteigermodelle eher in die Richtung 40°C gehen. 100°C sind weit über jeder Spezifikation und der Bereich wo heute eine Notabschaltung vorgenommen wird.


An den 10 GHz sind sie aber tatsächlich weiter vorbeigeschrammt ;) Das wäre vermutlich nicht mal mit dem aktuellen 45nm Prozess möglich gewesen.
Es wäre durchaus interessant, was heute ein in 45nm gefertigter Netburst-basierender Single-Core mit vielleicht gar 50 Pipelinestufen, den man eine TDP von 150W eingeräumt hätte, immerhin sah es um 2003 ja danach aus, dass sich Intel sich auf 200W CPUs vorbereitet hat.

Undertaker
2009-05-16, 13:34:46
Selbst aktuelle Hitzköpfe wie eine Phenom II 955 oder ein Core i7 haben Last-Temperaturen um die 50°C, während Einsteigermodelle eher in die Richtung 40°C gehen. 100°C sind weit über jeder Spezifikation und der Bereich wo heute eine Notabschaltung vorgenommen wird.


Ein Phenom II darf nur 62°C erreichen soweit ich weiß...

Triskaine
2009-05-16, 14:09:35
Ein Phenom II darf nur 62°C erreichen soweit ich weiß...

Korrekt, TCaseMax (Temperatur in der Mitte des Heatspreaders) liegt bei 62°C während die eigentliche Kerntemperatur deutlich darüber liegen darf. Bei ca 100°C kommt dann die Notabschaltung. Wobei man immer bedenken muss das die ausgelesenen Temperaturen nur als grober Richtwert anzusehen sind, selbst wenn die Sensoren korrekt funktionieren. Die eigentliche Chiptemperatur kann je nach Position des Sensors um 20-30°C schwanken. Wer schon mal ein Wärmebild eines Prozessors unter Last gesehen hat weiß was ich meine.

ESAD
2009-05-16, 14:10:00
Wenn du eine Kerze im Zimmer anmachst, so erwärmt diese die Luft auf 1400°C.
Die Glühwendel deiner 30W Schreibtisch Halogenlampe wird gar 3000°C warm.


es kommt ja nicht nur auf die temperatur an einem punkt an sondern auch auf die gesamt abgegebe energiemenge. eine kerze hat vl 30 watt. eine cpu die mit hier geforderten spannungsehöhungen etc. gefahren wird und dann bei den heuigen high end kühlungen >100° erreicht hat dann wohl geschätzte >150 watt verlustleistung

wie hoch ist eigentlich der flammpunkt eines handelsüblichen mainboards?

Avalox
2009-05-16, 17:19:05
Selbst aktuelle Hitzköpfe wie eine Phenom II 955 oder ein Core i7 haben Last-Temperaturen um die 50°C, während Einsteigermodelle eher in die Richtung 40°C gehen. 100°C sind weit über jeder Spezifikation und der Bereich wo heute eine Notabschaltung vorgenommen wird.


Ich habe mich dort ungenau ausgedrückt.
Die Wärmeabgabe der CPU heute ist höher, als bei einer proportionalen Herdplatte.

Die Temperatur der CPU ist ja nur gekühlt so niedrig zu halten. Das ist ja der Sinn der CPU Kühlung.
Je näher die Betriebstemperatur dieser CPU an der Raumtemperatur liegt, stest aufwendiger ist die Kühllösung.

Würde man nun die Verlustleistung der heutigen CPU auf deren abstrahlende Fläche umrechnen, so sieht man, dass die heutigen CPUs sich auf eine sehr hohe Temperatur (weit über oben genanten 100°C) erwärmen würden. Wenn denn nur das Material es aushalten würde. Natürlich gehen heutige CPU schon vor erreichen der maximalen Temperatur kaputt. Aber dieses ist ein Nachteil des verwendeten Materials und keinerlei Vorteil.

BlackBirdSR
2009-05-18, 11:18:03
Würde man nun die Verlustleistung der heutigen CPU auf deren abstrahlende Fläche umrechnen, so sieht man, dass die heutigen CPUs sich auf eine sehr hohe Temperatur (weit über oben genanten 100°C) erwärmen würden. Wenn denn nur das Material es aushalten würde. Natürlich gehen heutige CPU schon vor erreichen der maximalen Temperatur kaputt. Aber dieses ist ein Nachteil des verwendeten Materials und keinerlei Vorteil.

Hmm, warum machst du das am Material fest? Oder verstehe ich den Post falsch?
Die CPUs steigen bei den festgelegten Taktraten ja leider aufgrund der elektrischen Charakteristik bei hohen Temperaturen aus. Für militärische Zwecke sind 140°C (bei gleichem Material) vorgesehen. Alles nur eine Frage der charakteristischen Kurven.

Ich sehe kein Materialproblem bei 100°C oder 140°C.

Odal
2009-05-18, 11:44:17
intel ist imho (notgedrungen) vom netburst abgegangen weil (wie du erwähntest) amd eine cpu mit einer "funktionierenden" 64Bit erweiterung aus dem hut gezaubert hat und die schritte von netburst nicht groß genug waren


Hallo,

also die AMD64 (oder Intel 64) gab es ab den Prescotts beim P4 (teilweise deaktiviert).

Ein interressanter Fakt, die Xeon Abwandlung (Nocona) war der erste vernünftig nutzbare CPU für W2K3 Server Sp1 x84 (das erste x64 Windows).

mfg

das ist mir soweit bekannt nichts destotrotz "fehlte" irgendetwas (zu faul nachzuschaun) an der ursprünglichen Intel 64Bit implementierung
weshalb es ein spezielles intel 64bit windows gab
da AMD einfach hier weiter war und das funktionierend in sämtlichen CPUs liefern konnte, lag intel hier im Nachteil....


Ich glaube, wir verstehen unter "Leistungsschub" einfach verschiedene Dinge. Ich meine nicht hier mal 10% und dort mal 25% mehr Leistung für dreifache Kosten. Ne, ich will, dass das verpennen der Vergangenheit mal eingeholt wird! Doppelte Leistung bei gleichem Preis. Mindestens. Allein schon die Tatsache, dass wir seit fast einem Jahrzehnt im 3 Ghz-Bereich krebsen, ekelt mich nur noch an. jaja, ich weiß, die Leistung pro Takt ist gestiegen usw., ich will aber mal wieder RICHTIG Power erfahren.

seh ich ähnlich...ich würd ja gern mal mein Sockel939 system upgraden (mittlerweile über 4 jahre alt) aber da ist nix was sich so richtig lohnt

das sieht man schon allein daran wenn man sich mal die preise vom mostbang4thebucks 45nm model von intel anguckt dem E5200

http://geizhals.at/deutschland/?phist=354990&age=365

der ist in fast einem jahr gerade mal 10-15€ gefallen...und es ist nicht wirklich was nachgerutscht....
die nächste serie liegt dann gleich wieder beim doppelten preis für kaum mehrleistung....

Gast
2009-05-18, 12:23:32
So viel ich weiß gab es nie einen P4 mit mehr als 3,8 Ghz zu kaufen. Zu Beginn der P4-Ära wurde aber glasklar gesagt daß Taktraten bis zu10 Ghz innerhalb weniger Jahre angestrebt wurden. Ohne Overclocking. Das wurde niemals auch nur ansatzweise erreicht.

weil intel zu dem zeitpunkt netburst bereits abgeschrieben hat und die weichen in richtung core-technologie gestellt hat ist man bewusst unter der psychologischen schranke von 4GHz geblieben, die man bei der core2-technologie ja erst mit 45nm erreichen hätte können.

Gast
2009-05-18, 12:30:48
Selbst aktuelle Hitzköpfe wie eine Phenom II 955 oder ein Core i7 haben Last-Temperaturen um die 50°C, während Einsteigermodelle eher in die Richtung 40°C gehen. 100°C sind weit über jeder Spezifikation und der Bereich wo heute eine Notabschaltung vorgenommen wird.


Es gibt durchaus einige cpus die für 100°C und mehr spezifiziert sind, beispielsweise so ziemlich alle notebook-cpus von intel, der core i7 ist glaub ich sogar für 125° spezifiziert. Bei grafikkarten sieht es ähnlich aus, 100°+ sind da keine seltenheit, notabschaltungen gibt es meistens erst bei 125°C.

Das problem ist ja auch nicht das material, man könnte ohne probleme siliziumchips bauen die auch 150 oder gar 200°C aushalten, nur sind dabei nicht mehr die gewünschten taktraten erreichbar.

Deswegen ist die zulässige temperatur ja auch gerade beim phenom vergleichsweise niedrig, da amd auch so schon probleme hat konkurrenzfähige taktraten anzubieten, würde man eine höhere temperatur zulassen wären diese noch niedriger.

Avalox/Gast
2009-05-18, 12:50:00
Hmm, warum machst du das am Material fest? Oder verstehe ich den Post falsch?

Das Post bezog sich auf Trägermaterialien, welche dort bis 800°C und mehr stabil bleiben und dabei entsprechend gute Eigenschaften behalten.


Ich denke es wäre eindrücklich mal aus der Energiedichte einer heutigen CPU eine theoretische DIE Temperatur zu errechnen. Eben die, wenn 1. das Material überhaupt in der Lage wäre die Temperaturen zu erreichen ohne zerstört zu werden und 2. die Halbleitereigenschaften konstant zum heutigen Sollbetrieb wären.

Also im Prinzip eine vergleichende Aussage. Dass heute eine x00°C CPU auf 50°C bei 25°C Raumtemperatur gekühlt wird. Ich denke dieser Vergleich wäre sehr eindrücklich.

Gast
2009-05-18, 14:28:47
1.) Grundsätzlich sind ja die erreichbaren Taktraten vom Material abhängig und von der zur Verfügung stehenden Kühlung abhängig. Orientiert man sich bei der Kühlung an dem was zu einem angemessenen Preis möglich ist, hat der Hersteller einer CPU nicht viele Möglichkeiten, auch wenn sich in diesem Sektor die letzten Jahre einiges getan hat. --> Ein realistisches Limit liegt bei sagen wir mal zwischen 60-70°C für TCasemax. Das Material (also der Chip als ganzes) würde vielleicht 120°C aushalten. Die heutige "normale" Kühlung schafft dies also im Moment ohne Probleme.

2.) Das Material und die Strukturen haben sich die letzten Jahre stark verändert. Die Strukturen wurden kleiner und neue Metallurgieprozesse ermöglichen schnellere Schaltzeiten. Vor allem aber war es durch das neuere High-k/Metal-Gate (65nm->45nm) möglich die Leckströme signifikant (Faktor 4 oder 5) zu senken. Diese Entwicklung war, meiner Meinung nach, die entscheidende Hürde die es für Taktraten jenseits der 4 GHz zu nehmen galt (für die verkleinerten Strukturen). Damit ist im Moment jede Technologie (Intel/AMD) in der Lage problemlos 4,5 - 5 GHz zu erreichen. Ich denke, dass Intel und AMD das kommende Jahr stramm auf die 4 GHz zugehen werden. Für mehr als 4 GHz müssen dann wohl andere Kühlmethoden her die dann auch entsprechend teurer sind. Was auch nicht vergessen werden darf jedes MHz lässt den Prozessor/das Material schneller "altern" (mehr Schaltvorgänge). Auch diese Problematik schlägt immer mehr durch je kleiner die Strukturen werden.

3. Die Rechenleistung ansich hat sich die letzten Jahre nicht grossartig verändert (ausgehend vom A64 DualCore). Der erste 3800+X2 für So939 ist für die alltäglichen Aufgaben noch immer mehr als ausreichend und sogar noch für die meisten Spiele geeignet. Was wohl der auch der Tatsache geschuldet ist, dass viele Spiele einfach nur Konsolenportierungen sind. Und hier manifestiert sich dann auch der Vorteil der Mehrkernprozessoren.

http://www.abload.de/img/zwischenablage-2oaue.png

Gut CoD4 ist jetzt nicht die Referenz in Nutzung von Multicoresystemen. Aber meinen 940BE lastet das Spiel schon gut aus.

Diese Entwicklung hat die Notwendigkeit höerer Taktraten sehr gut kompensiert. Dieser Vorteil wird aber spätestens mit der Einführung von 8-Core Prozessoren wieder verschwinden. Was dann kommt weiss wohl im Moment noch niemand so genau.

Gast
2009-05-18, 17:24:44
Vor allem aber war es durch das neuere High-k/Metal-Gate (65nm->45nm) möglich die Leckströme signifikant (Faktor 4 oder 5) zu senken. Diese Entwicklung war, meiner Meinung nach, die entscheidende Hürde die es für Taktraten jenseits der 4 GHz zu nehmen galt (für die verkleinerten Strukturen).

Gerade die leckströme sind doch weitgehend unabhängig von der taktrate, weshalb ein verringern der taktrate im idle ohne dazugehörige spannungsabsenkung auch kaum etwas bringt.

Gast
2009-05-18, 19:13:33
Oh doch. Denn Leckströme erzeugen Wärme und das nicht zu knapp.

Was genau ist der Leckstrom?
In Chips werden vor allem Transistoren verwendet. Diese Transistoren haben das so genannte Gate, das bestimmt, ob der Transistor ein- oder ausgeschaltet ist. Bestandteil des Gates ist das Gate-Dielektrikum. Üblicherweise verwendet man dafür das leicht und billig herstellbare Siliziumdioxid. Die Firma Intel hat bereits erfolgreich die Dicke des Siliziumdioxid auf 1,2 Nanometer (nm) verkleinert. Das entspricht in etwa 5 Atomlagen, also 5 Atome übereinander. Mit dieser dünnen Siliziumdioxid-Schicht nehmen die elektrischen Leckströme zu, die durch das Gate fließen. Als Folge entsteht mehr Abwärme und ein größerer Stromverbrauch. Bei vielen Millionen Transistoren in einem Chip ist das ein ernst zu nehmendes Problem.

http://www.elektronik-kompendium.de/sites/grd/1011011.htm

Gast
2009-05-18, 19:50:16
Oh doch. Denn Leckströme erzeugen Wärme und das nicht zu knapp.

Hat doch niemand was anderes behauptet. Doch diese wärme ist weitgehend unabhängig von der taktfrequenz.

Gast
2009-05-18, 19:58:28
Die Temperatur der CPU ist ja nur gekühlt so niedrig zu halten. Das ist ja der Sinn der CPU Kühlung.
Je näher die Betriebstemperatur dieser CPU an der Raumtemperatur liegt, stest aufwendiger ist die Kühllösung.

Würde man nun die Verlustleistung der heutigen CPU auf deren abstrahlende Fläche umrechnen, so sieht man, dass die heutigen CPUs sich auf eine sehr hohe Temperatur (weit über oben genanten 100°C) erwärmen würden. Wenn denn nur das Material es aushalten würde. Natürlich gehen heutige CPU schon vor erreichen der maximalen Temperatur kaputt. Aber dieses ist ein Nachteil des verwendeten Materials und keinerlei Vorteil.
Ja, die Formel inkl. Erläuterungen dafür müsste sogar noch irgendwo hier im Forum stehen - hab die vor Jahren im Ähnlichen Zusammenhang gepostet. Bin aber leider nicht mehr so fit in TVT und die Unterlagen schon wegsortiert, sonst würde ich das in guter Näherung unter Standardbedingungen eben nochmal durchrechnen.

Ansonsten mal den Member mit dem Graphen als Avatar fragen, der kannte sich afaik auch ganz gut aus.

Gast
2009-05-18, 20:04:12
erm ... eine cpu ist ein komplexes gebilde in dem sich verschiedene parameter gegenseitig beeinflussen. macht ein gate zu (weil zu warm) dann funktioniert die cpu ab einer gewissen taktrate nicht mehr. egal wie dann die wärme an den anderen, weniger beanspruchten, gates ist bzw. die wärme der cpu insgesamt ist.
hitze im allgemeinen bestimmt nun einmal die taktbarkeit einer cpu. gibt das material an einer bestimmten stelle nicht mehr her (weil zu hoher leckstrom oder irgendein anderer "flaschenhals"), kann die cpu bzw. das andere material noch so viel hitze aushalten. der takt geht einfach nicht höher.

Gast
2009-05-18, 20:08:51
erm ... eine cpu ist ein komplexes gebilde in dem sich verschiedene parameter gegenseitig beeinflussen. macht ein gate zu (weil zu warm) dann funktioniert die cpu ab einer gewissen taktrate nicht mehr. egal wie dann die wärme an den anderen, weniger beanspruchten, gates ist bzw. die wärme der cpu insgesamt ist.
hitze im allgemeinen bestimmt nun einmal die taktbarkeit einer cpu. gibt das material an einer bestimmten stelle nicht mehr her (weil zu hoher leckstrom oder irgendein anderer "flaschenhals"), kann die cpu bzw. das andere material noch so viel hitze aushalten. der takt geht einfach nicht höher.
Bezweifelt ja keiner, nur ist der Kühlaufwand am geringsten, je höher die Temperaturdifferenz zwischen den Medien (Luft/CPU) ist. Es wäre also am sinnvollsten, wenn die CPU möglichst hohe Temperaturen aushält.
Der abzuführende Wärmestrom bleibt ja gleich, ob die CPU nun 1000°C oder 30°C warm ist. Mehr wollte Avalox glaube ich nicht sagen. War ja die Antwort auf den "100°C-Fön".

Palpatin
2009-05-18, 23:34:39
, der I7 auf dem Pentium III
wenn dann schon konsequent, bis zum Pentium Pro zurück gehen :).

Gast
2009-05-20, 00:53:42
Die Glühwendel deiner 30W Schreibtisch Halogenlampe wird gar 3000°C warm.


Wieso greifst du nicht gleich die relevante Grösse auf, nämlich Watt?

Ein 800°C heisser Prozessor, der nur 10Watt zieht heizt die Wohnung auch nicht mehr auf als ein 20°C heisser Prozessor mit entsprechendem Abwärmetransport (aka Kühlung), der 10Watt zieht.

Es ergeben sich aus einem postulierten 800°C Prozessor andere Probleme. Z.b. wie will man so etwas auf eine Platine bringen, ohne das diese schmilzt bzw. in Mitleidenschaft gezogen wird? Der Prozessor müsste extrem gut isoliert sein und dürfte seine Wärme wohl nur nach oben abgeben.

Daneben kommt dann die indirekte Frage, was so ein 800°C Prozessor eigentlich an Leistung aufnehmen will. Geht man davon aus, dass man auch weiterhin mit Kühllösungen ähnlich viel Wärmeenergie abführen kann wie heute, so müsste dieser Prozessor drastisch mehr Leistung benötigen als heutige - ich denke so 300 - 600Watt sind da nicht unrealistisch. Das wiederum stellt ganz neue Anforderungen an die Stromversorgung.

Sorgen mach ich mir im Endeffekt nicht darum, ob eine solche CPU funktioniert oder mein Zimmer aufheizt, sondern eben darüber auf was für einer Plattform man sie betreiben könnte...

seltenerGast
2009-05-26, 23:43:07
uiuiui, was sich hier so abspielt...
...und die wenigen, meist richtigen Kommentare wurde von den Gästen hier abgegeben.

25Ghz entspricht einer Cycletime von 40ps
In der 45nm Technologie bekommst du da gerade mal 2 bis 6 Gatter zwischen die Latche. Damit kann man doch keine komplexen arithmetischen Logiken unterbringen. Außerdem wird die Anzahl Latche/Gatter so exorbitant hoch, dass das ganze Silizium nur für Latche draufgeht (und jetzt noch 'ne Scan-Chain fädeln ???). Wie man da noch einen gescheiten Taktbaum hinbekommen, so dass auch bei der Dichte an Latche alle wirklich gleichzeitig schalten, wenn die metal-wires einen immer höheren (RC)-Einfluss gegenüber den Gattern haben ?

Die Lehren die Intel aus dem Prescott (alias Dampfhammer) gezogen haben sind folgerichtig mit dem Core2 vermarktet worden.
Schau dir einfach mal an, was andere Chiphersteller im nicht Desktop Segment für ein Verfahren fahren.
http://www.computerbase.de/news/hardware/prozessoren/ibm/2008/maerz/ibm_prozessormonster_20_cores/
Single-Core ? Wohl eher was für's Museum.

danger!
2009-05-27, 15:29:38
Äh ja, dann halt 3 Jahre... was auch schon uralt ist.

Das stimmt leider. Selbst den allerersten Conroe konnte man ohne große Probleme mit etwas Glück oder Selektion auf 3,6GHz (tw. sogar mehr) prügeln und damit sind die Dinger immer noch sauschnell.
Man muß nur mal bedenken, dass man heute, knapp 3 Jahre später, nichtmal diese Leistung @default kaufen kann, bei 3,33GHz ist bei Dualcores auch schon Ende Gelände.

Gast
2009-05-27, 15:49:06
das ist mir soweit bekannt nichts destotrotz "fehlte" irgendetwas (zu faul nachzuschaun) an der ursprünglichen Intel 64Bit implementierung
weshalb es ein spezielles intel 64bit windows gab
da AMD einfach hier weiter war und das funktionierend in sämtlichen CPUs liefern konnte, lag intel hier im Nachteil....



Welches spezielle Windows? Auf diesen CPUs läuft das ganz "normale" 64 Bit Vista.

Die Spezialverison für den Itanium ist ein ganz anderer Schuh.

Damals konnte Intel, nur wollten die nicht richtig.

Mal davon abgesehen, dass AMD Heute noch kein vernünftiges 8 Wege System leifern kann. (Die verfügbaren sind durch die Speicherlatenz teilweise (deutlich) langsamer als 4 Wege Maschinen.)

Odal
2009-05-27, 16:21:59
Welches spezielle Windows? Auf diesen CPUs läuft das ganz "normale" 64 Bit Vista.

Die Spezialverison für den Itanium ist ein ganz anderer Schuh.

Damals konnte Intel, nur wollten die nicht richtig.

Mal davon abgesehen, dass AMD Heute noch kein vernünftiges 8 Wege System leifern kann. (Die verfügbaren sind durch die Speicherlatenz teilweise (deutlich) langsamer als 4 Wege Maschinen.)

itanium ist die "halbgare" 64bit version von intel und hp
für alles andere haben sie dann AMD 64bit variante lizensiert

und zu können aber es nur halbgar zu tun um sich dann "abhängig" vom konkurenten zu machen klingt ein wenig "blauäugig" und "unlogisch"

Gast
2009-05-27, 18:15:05
Man muß nur mal bedenken, dass man heute, knapp 3 Jahre später, nichtmal diese Leistung @default kaufen kann, bei 3,33GHz ist bei Dualcores auch schon Ende Gelände.

Was aber in erster linie an der mangelnden konkurrenz liegt. Nach den ursprünglichen plänen sollte der Core2 in 45nm eigentlich die 4GHz in serie überspringen, nur nachdem von AMD nichts kommt hat es eben auch intel sein lassen und stattdessen lieber die TDP nach unten korrigiert ;)

Gast
2009-05-27, 20:17:50
itanium ist die "halbgare" 64bit version von intel und hp
für alles andere haben sie dann AMD 64bit variante lizensiert

und zu können aber es nur halbgar zu tun um sich dann "abhängig" vom konkurenten zu machen klingt ein wenig "blauäugig" und "unlogisch"

Also der letzte Itanium den ich gesehen habe, war irgendwie nicht halbgar.

http://h20341.www2.hp.com/integrity/cache/342254-0-0-0-121.html

Sicherlich ist der Itanium (wie auch Sparc und Power) etwas für große Server.

Das die an den 8086 angeflanschte Lösung von AMD zwar billig, aber nicht das wahre ist, ist uns doch allen klar.

PS
Hat schon jemand einen ordentlich funktionierenden Server mit 8 Opterons gesehen?

BlackBirdSR
2009-05-27, 22:17:08
Das die an den 8086 angeflanschte Lösung von AMD zwar billig, aber nicht das wahre ist, ist uns doch allen klar.



Wenn du so mutig bist und so etwas postest, dann musst du das schon ordentlich begründen können.
Wo bitte unterscheidet sich denn dieses billige 64Bit von anderen Implementationen so, dass es nicht das Wahre ist?

Gast
2009-05-28, 07:49:31
Wenn du so mutig bist und so etwas postest, dann musst du das schon ordentlich begründen können.
Wo bitte unterscheidet sich denn dieses billige 64Bit von anderen Implementationen so, dass es nicht das Wahre ist?

Addressiere mal die dritten16 Bit des Registers direkt bzw. setzte diese Bits auf einen beliebigen wert, ohne die anderen zu beeinflussen. (Bit 32 bis 47)

Von Zeugs wie A20 Gate, Start der CPU im 16 Bit Mode, der stark begrenzte Registersatz und anderen Steinzeittechnologien mal gar nicht zu reden.

(Ich habe gestern wiedermal auf einem Athlon 64 X2 CPU Porgrammieren müssen, was wir da für Zeug anstellen mussten um ordentlich zu arbeiten -> Stacknutzung bis zum geht nicht mehr und dadurch langsam.)

Der eigentlich Unterschied ist, die "anderen" wirde direkt als 64 Bit ausgelegt und besitzen auf ein darauf angepassten Befehlssatz bzw. Befehlsformat.

Der 8086 war eine einfache, billige 16 Bit Architektur. Mit dem 386 wurde die 32 Bit Erweiterung drangeflanscht und später von AMD auf dem selben Weg, die 64 Bit. Das so die "heilige" kompatibilität gewart bliebt, ist natürlich eine gute Sache, dennoch vergeudet dieser Ansatz große Teile der CPU Leistung, da viele Befele zum umkopieren von Daten benötigt werden.

Deassembliere mal einfach ein Programm welches ein paar komplexere Berechnung ausführt und vergleiche das mit einer "echten" 64 Bit Architektur (z.B. MIPS, Power, SPARC ...).

BlackBirdSR
2009-05-28, 08:11:45
Der 8086 war eine einfache, billige 16 Bit Architektur. Mit dem 386 wurde die 32 Bit Erweiterung drangeflanscht und später von AMD auf dem selben Weg, die 64 Bit. Das so die "heilige" kompatibilität gewart bliebt, ist natürlich eine gute Sache, dennoch vergeudet dieser Ansatz große Teile der CPU Leistung, da viele Befele zum umkopieren von Daten benötigt werden.



Ist alles schön und gut. Von Optimal hat im Zusammenhang mit x86/x64 nie jemand gesprochen. Das passt auch nicht ganz zusammen.
Aber jetzt vergleiche mal eine bestehende 64-Bit Architektur mit x64: Am Ende liegt x64 in vielen Bereichen an der Performancesspitze - ob das nun Top500 ist oder Videobearbeitung, Workstation, Server. Sieht man einmal von Großrechnern mit extermer SKalierung ab (Power z.B.)

Ich würde sogar soweit gehen, dass x64 die am weitesten verbreitete, aktiv genutzte 64Bit Architektur auf dem Planeten ist (wenn man einmal ignoriert, dass es noch kaum Software gibt und der 64Bit-Markt für x64 faktisch noch gar nicht existiert).

Meine Kritik gilt also nur dem "nicht das Wahre". Denn IMO ist x64 sehr wohl das Wahre. Es ist nämlich die ISA, mit der die meisten Menschen auf diesem Planeten in Kontakt mommen werden. Schön gut und sauber ist natürlich anders, aber sowas will anscheinend keiner (DEC) oder man kann leider nicht mithalten (PowerPC).

Gast
2009-05-28, 10:15:45
Wenn du so mutig bist und so etwas postest, dann musst du das schon ordentlich begründen können.
Wo bitte unterscheidet sich denn dieses billige 64Bit von anderen Implementationen so, dass es nicht das Wahre ist?

Mach das hier mal mit x86-64:

The user-level instructions specific to the 64-bit PowerPC processors can be executed in both 32-bit and in 64-bit
computation mode. The user-level instructions implemented by the 32-bit PowerPC processor can also be executed in
either computation mode.
Quelle: Seite 3 -> http://www-01.ibm.com/chips/techlib/techlib.nsf/techdocs/AB70A3470F9CC0E287256ECC006D6A54/$file/970-software.pdf

oder man kann leider nicht mithalten (PowerPC).
Wieso das? Ist wohl bezogen auf den Desktop!
Da will man wohl nur nicht (mehr). Ansonsten könnten man wohl problemlos mithalten. Du glaubst doch nicht ernsthaft, dass wenn man ausgerechnet x86 weiterentwickeln kann, dass es mit dem modernem Power nicht geht? Und Dank Non-x86-Architektur meine ich mal gelesen zu haben, dass die Entwicklungskosten vergleichsweise gering sind im Vergleich zu dem, was Intel da rein pulvern muss.

Odal
2009-05-28, 14:20:38
Das die an den 8086 angeflanschte Lösung von AMD zwar billig, aber nicht das wahre ist, ist uns doch allen klar.


das ist doch aber komplett irrelevant ob die AMD 64bit erweiterung "das wahre ist" oder nicht

Fakt ist das Intel zum Erscheinen des A64 komplett "gesteamrolled" wurde und nur mit einem 64Bit only Architektur oder etwas "schnell zusammengestricktes" da stand, während der A64 in 64Bit Anwendungen gut performte sowie in 32Bit Anwendungen (mit Abstand die Masse für die nächsten Jahre) exzellent performte

Gast
2009-05-28, 15:46:04
das ist doch aber komplett irrelevant ob die AMD 64bit erweiterung "das wahre ist" oder nicht

Fakt ist das Intel zum Erscheinen des A64 komplett "gesteamrolled" wurde und nur mit einem 64Bit only Architektur oder etwas "schnell zusammengestricktes" da stand, während der A64 in 64Bit Anwendungen gut performte sowie in 32Bit Anwendungen (mit Abstand die Masse für die nächsten Jahre) exzellent performte

Nenne bitte eine, die sinnvoll(!) auf einem A64, vor dem erscheinen der Nehalems genutzt werden konnte.

PS Große DBs gehen heute noch nicht, aufgrund des 8 Sockelproblems.

PS2 Windows Server 2003 x64 (und XP x64) wurden primär auf XEONs entwickelt/getestet.

Coda
2009-05-28, 19:20:22
Mach das hier mal mit x86-64:

The user-level instructions specific to the 64-bit PowerPC processors can be executed in both 32-bit and in 64-bit
computation mode. The user-level instructions implemented by the 32-bit PowerPC processor can also be executed in
either computation mode.
Für was genau braucht man das unbedingt? Damit macht man 32-Bit-Software nur komplett inkompatibel zu 32-Bit-only-Prozessoren, die diese Instructions nicht auch implementieren. Was da beschrieben wird sind im wesentlichen Befehlssatzerweiterungen die auch für 32-Bit funktionieren. SSE4.1-Befehle funktionieren ja auch im 32-Bit-Modus.

Der zweite Punkt funktioniert auf AMD64 fast genauso, es sind nur einige wenige 32-Bit-Instructions im 64-Bit-Modus nicht erlaubt (für BCDs z.B.).

PS Große DBs gehen heute noch nicht, aufgrund des 8 Sockelproblems.
Was für ein "8 Sockelproblem"?

PS2 Windows Server 2003 x64 (und XP x64) wurden primär auf XEONs entwickelt/getestet.
Das stimmt nich.

Gast
2009-05-28, 20:49:01
Was für ein "8 Sockelproblem"?


Na ganz einfach, bei 8 Sockeln gibt es teilweise RAM Zugriffszeiten von "echten" 120 bis 150 ns, dadurch sind derartige Systeme in vielen Fällen langsamer als 4 Sockelmaschinen.

Bei 8 Sockelmaschinen müssen viele RamZugriffe über 3 CPUs und kostest außerdem sher viel Bandbreite auf allen beteiligten CPUs.

Ok, mit W2K8 geht es einigermaßen, aber dann darf man keine Apps verwenden die hohe rechenleistung und viel RAM brauchen, damit jedes Programm in den RAM einer CPU passt. Großen Datenbanken (SQL oder SAP Server) bricht man so aber dennoch das Genick .

BlackBirdSR
2009-05-28, 22:29:07
Wieso das? Ist wohl bezogen auf den Desktop!
Da will man wohl nur nicht (mehr). Ansonsten könnten man wohl problemlos mithalten. Du glaubst doch nicht ernsthaft, dass wenn man ausgerechnet x86 weiterentwickeln kann, dass es mit dem modernem Power nicht geht? Und Dank Non-x86-Architektur meine ich mal gelesen zu haben, dass die Entwicklungskosten vergleichsweise gering sind im Vergleich zu dem, was Intel da rein pulvern muss.

Darum sag ich doch leider. Also nicht so aufregen!

Coda
2009-05-28, 22:44:43
Na ganz einfach, bei 8 Sockeln gibt es teilweise RAM Zugriffszeiten von "echten" 120 bis 150 ns, dadurch sind derartige Systeme in vielen Fällen langsamer als 4 Sockelmaschinen.
Ein Zugriff über zwei Hopps über Hypertransport ist auch nicht langsamer als über den FSB und dann den Speichercontroller bei einem Xeon, deshalb bezweifel ich das mal.

Vor allem wenn die Software NUMA aware ist, was sie heute eigentlich bei Serverapplikationen sein sollte.

Gast
2009-05-28, 23:02:57
Ein Zugriff über zwei Hopps über Hypertransport ist auch nicht langsamer als über den FSB und dann den Speichercontroller bei einem Xeon, deshalb bezweifel ich das mal.

Vor allem wenn die Software NUMA aware ist, was sie heute eigentlich bei Serverapplikationen sein sollte.

Per FSB über Chipsatz auf den Speicher ist 1 Hop (1 Zwischenstation), über zwei dauert es länger. Leider hat AMD kein echtes NUMA sondern ccNUMA und das nützt dann nichts, wenn ein Prozess auf mehren CPUs läuft und große Mengen Speicher braucht (-> DB). Ganz davon abgesehen das X64 CPUs nur SMP sind und somit für NUMA nur bedingt geeignet sind.

Beispiel Server mit 8 Sockel (32 CPUs [QCs]) und 64 GB RAM, im RAM befindet sich eine DB mit 50 GB Größe (weiter 200 GB auf HDD/SAN). Diese DB führt viele Abfragen über große Teile der Datenbestände aus, wie soll NUMA das korrigieren?

Die aktuellen XEON kommen mit einem Hop aus, die neuen haben zumindest 4 volle Links, was deutlich flexiblere Struckturen möglich macht (sinnvolle 8 Sockel Maschinen).

Du kannst natürlich zweifeln, aber wieviele 8 Sockel Opterons hast du schon gesehen und musstest dich mit Kunden streiten, weil diese mit der Leistung nicht zufreiden waren?

Gast
2009-05-29, 00:08:36
Mal davon abgesehen, dass NUMA und ccNUMA als Synonyme(1) verstanden werden und mit NUMA i. d. R. ccNUMA gemeint ist.

(1) What is the difference between NUMA and ccNUMA?
The difference is almost nonexistent at this point. ccNUMA stands for Cache-Coherent NUMA, but NUMA and ccNUMA have really come to be synonymous. The applications for non-cache coherent NUMA machines are almost non-existent, and they are a real pain to program for, so unless specifically stated otherwise, NUMA actually means ccNUMA.

Das ist lediglich ein Zwischenbemerkung und sonst nichts. :)

Hier noch ein etwas Lesestoff:

http://kevinclosson.wordpress.com/kevin-closson-index/oracle-on-opteron-k8l-numa-etc/

Wobei anzumerken ist, dass die neuen Xeon z. B. der 5500 auf Nehalembasis wirklich um einiges schneller sind als die CPU's auf HT3.0 Basis. Hier ist von einem Faktor 1,4:1 die Rede.

Triskaine
2009-05-29, 09:26:55
Man sollte dabei nicht vergessen das aktuelle Opterons nur mit HT1.0 und 3 HT-Links laufen, obwohl HT 3.1 und 4 HT-Links möglich wären. Für HT 3.1 sind neue Chipsätze vonnöten und für 4 aktive HT-Links braucht es einen neuen Sockel. Das alles wird zusammen mit HT-Assist (der Snoopfilter) in den nächsten Quartalen erscheinen und die Leistungs- und Skalierfähigkeit von Opteron Mehrsockelsystem dramatisch verbessern. Das letzte Wort ist noch nicht gesprochen.

BlackBirdSR
2009-05-29, 11:04:30
Das letzte Wort ist noch nicht gesprochen.

Zumal das, genau so wenig wie die Schönheit von AMDs 64Bit Implementierung, dur Diskussion über Taktfreudigkeit beiträgt.

Odal
2009-05-29, 11:24:16
Nenne bitte eine, die sinnvoll(!) auf einem A64, vor dem erscheinen der Nehalems genutzt werden konnte.



Darum gehts doch garnicht

1. kommt "haben wir nicht weil ist nicht" nicht gut beim Kunden an -> 64bit war ein kauf checklistenfeature
2. ist es immer effizienter als Consumer Line und Serverline auf die gleiche Architektur zurückgreifen zu können
3. waren die teile schon gerüstet vom gesamtsystem über die 4gb (real weniger) speichergrenze hinauszugehen

Coda
2009-05-29, 15:11:08
Per FSB über Chipsatz auf den Speicher ist 1 Hop (1 Zwischenstation), über zwei dauert es länger.
Der FSB von Intel hat wesentlich höhere Latenzen als Hypertransport. Ich bezweifle dass das in der Praxis einen Unterschied macht.

ccNUMA bedeutet nur dass - zum Glück - die Cache-Kohärenz gewährleistet ist. Auch jede Intel-CPU muss dies in einem MP-System tun. Eine NUMA-Applikation ist damit aber auch nur betroffen wenn sie auf Daten anderer CPUs zugreift, was sie ja eben bestenfalls vermeiden sollte. Apache verteilt seine Threads z.B. auf die Prozessoren - da gibt es gar keine Abhängigkeiten.

Gast
2009-05-29, 15:46:44
Der FSB von Intel hat wesentlich höhere Latenzen als Hypertransport. Ich bezweifle dass das in der Praxis einen Unterschied macht.


Hallo,

nimm die man ein Blatt Papier und male 8 Sockel, an jeden Sockel eigenen RAM, jeder Sockel hat 3 HT Links, 1 Link wird für die Kommunikation mit dem Rest des Systems gebraucht. Ziehe Striche zwischen den CPUs für die Links. Ein symetrischer Aufbau ist natürlich nötig.

Zu den Hops

0 Hops = RAM dirket an der CPU - schneller als über Chipsatz per FSB
1 Hop = RAM an direkt verbundener CPU - in etwa so schnell wie per Chipsatz
2 Hops = RAM Zugriff muss über 3 CPUs - langsamer als über Chipsatz
3 Hops = RAM Zugriff muss über 4 CPUs - deutlich langsamer

Erschwerend kommt hinzu, die Zugriffszeiten sind nicht konstant und belaten weitere CPUs. Bei Intel gibt es übrigends mehrer getrennte FSBs, jeweils für die einzelnen CPUs.

Coda
2009-05-29, 17:59:51
Zwei Hops sind eben nicht langsamer als über den Chipsatz, da die Latenz von Hypertransport wesentlich geringer ist als die des FSB. Es werden auch nur an zwei CPUs bei einem K8-System I/O an HT angeschlossen, so dass man allermeistens nur 2 Hops braucht.

Zudem haben K10-Opterons 4 HT-Links.

Gast
2009-05-29, 18:39:48
Zwei Hops sind eben nicht langsamer als über den Chipsatz, da die Latenz von Hypertransport wesentlich geringer ist als die des FSB. Es werden auch nur an zwei CPUs bei einem K8-System I/O an HT angeschlossen, so dass man allermeistens nur 2 Hops braucht.

Zudem haben K10-Opterons 4 HT-Links.

Also laut AMD hat der 3 Links.

http://www.amd.com/de-de/Processors/ProductInformation/0,,30_118_8796_15223,00.html

Die Latenz des FSBs HTs ist unentscheiden, es geht um die Umsetzung innerhalb des nächsten Bausteines (Chipsatz oder CPU), da diese in der Regel auch noch was anderes zu tun haben (z.B. Speicheranforderungen der Hardware oder einer anderen (inkl. der eigenen) CPU.

Die Preisfrage bleibt aber, wieviel AMD System mit 8 Sockeln hats du schon gesehen?

Triskaine
2009-05-29, 19:02:57
Also laut AMD hat der 3 Links.

Offtopic hin oder her:

Liest eigentlich nie jemand was ich schreibe? Alle Opterons ab Barcelona besitzen 4 HT-Links auf dem Die, die mit einführung der C32/G34 Sockel im Q1 2010 auch aktiv sein werden, was sie aufgrund der Kompabilität vom Sockel F zu den K8 Operons jetzt noch nicht sein können. Über Lane Splitting wäre dann ein 8 Sockel System möglich, bei dem jeder Prozessor die anderen mit nur einem Hop erreichen kann.