PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel bestätigt Einstellung von Prescott-Nachfolger Tejas (war: P4 und Zukunft tot?)


Evil Ash
2004-05-07, 10:33:10
http://www.theinquirer.net/?article=15760



LOL? Wäre zu geil.

BlackBirdSR
2004-05-07, 11:08:45
4 Jahre sind ok für eine Architektur an sich..
aber komplett von der Bildfläche verschwinden und durch eine 10 Jahre alte Architektur ersetzt werden?
Das ist heftig.
Ich wette Intel hatte sich keine solch großen Prozessprobleme ausgemalt, als man den Pentium4 entwickelte.

Man hätte wohl den P7 nie zu Gunsten des Merced (IA64) verschrotten, und den P4 als 32Bit Nachfolger hernehmen dürfen. Wer weiss wo Intel und AMD dann stehen würden?

Edit: Satzkonstrukt verändert..

CrazyIvan
2004-05-07, 11:20:40
@ BlackBird
Ich dachte immer, der Merced wäre der P7 gewesen. Hab ich da was verpasst?

@ topic
Sehr lobenswerte Entscheidung. Damit dürfte wohl eindeutig das Ende einer Ära abzusehen sein - keiner der beiden Hersteller kann jetzt noch auf Taktfrequenz als primäres Leistungsmerkmal bauen.

INTRU
2004-05-07, 11:50:26
Massive Kritiken am großen Energieverbrauch der neuen Pentium-4-Generation (Prescott) haben Intel offenbar zu denken gegeben: Die Pentium-4-Linie wird vermutlich nicht weiter fortgesetzt. Nach Berichten im Inquirer und Wall Street Journal will Intel den Prescott-Nachfolger mit Codenamen Tejas nicht mehr weiterentwickeln, sondern auf die erheblich stromsparendere Prozessorfamilie "Pentium-M" umsteigen, die derzeit im Notebook-Segment erfolgreich vermarktet wird. Hier steht die Markteinführung des wie Prescott in 90-nm-Technologie gefertigten Dothan-Prozessors kurz bevor, der mit 2 GHz Takt in den meisten Belangen mit einem Pentium 4 mit 3 und mehr GHz gut mithalten kann -- bei einem Bruchteil seines Stromverbrauchs.

Die Pentium-4-NetBurst-Architektur (neues Cache Design, superlange Pipeline, Hochgeschwindigkeits-Recheneinheit und neuer "quad-pumped" Bus etc.) hatte Intel auf einen sehr hohen Takt ausgelegt, nicht zuletzt deshalb, weil sich hohe Zahlen, als "echte GHz" angepriesen, besser vermarkten lassen. Doch AMD hat das, ebenso wie die hausinterne Pentium-M-Konkurrenz, erfolgreich widerlegen können. Die Kundschaft lässt sich inzwischen allein durch GHz nicht mehr so beeindrucken.

Denn mit dem hohen Takt ist auch ein hoher Energieverbrauch verbunden -- und das scheint den Kunden heutzutage klar wichtiger zu sein als NetBurst, Hyper-Threading oder Rapid Execution Engine. Und so rudert Intel zurück. Der in Israel entwickelte Pentium-M beruht auf dem traditionellen, aber erheblich weiterentwickelten Pentium-III-Kern. Dieser soll in den nächsten ein bis zwei Jahren all die schönen "T"-Neuerungen der ursprünglich geplanten Pentium-4-Linie eingepflanzt bekommen:

-- Hyper-Threading:Kern schaltet zwischen mehreren Threads um und überlagert so Wartezeiten auf den Hauptspeicher

-- Clackamas-Technologie : AMD64-kompatible 64-Bit-Erweiterung

-- Lagrande-Technologie: Sicherheitserweiterung

-- Vanderpool-Technologie: Simuliert mehrere PCs

Unter dem Codenamen Merom wird schon eifrig dran gearbeitet. Vorher soll noch ein Prozessor mit zwei Dothan-Kernen (Jonas) auf einem Chip kommen.

Intel hat noch keinen Kommentar zu der unterstellten Einstellung der Pentium-4-Linie abgegeben. So ist auch noch unklar, ob nur die Desktop-Version oder auch die Workstation/Server-Linie betroffen ist. Gerüchten zufolge soll sich bereits die Arbeitsgruppe aufgelöst haben, die für die Multiprozessor-Version des Prescott (Codenamen Potomac) verantwortlich zeichnet. Und so sieht es für dessen geplanten Nachfolger Tulsa erst recht schlecht aus. Die Dual-Prozessor-Workstation-Version des Prescott namens Nocona mit der AMD64-Erweiterung soll jedoch noch in diesem Quartal vom Stapel laufen. (as/c't)

http://www.heise.de/newsticker/meldung/47181

BlackBirdSR
2004-05-07, 11:55:17
Original geschrieben von CrazyIvan
@ BlackBird
Ich dachte immer, der Merced wäre der P7 gewesen. Hab ich da was verpasst?

@ topic
Sehr lobenswerte Entscheidung. Damit dürfte wohl eindeutig das Ende einer Ära abzusehen sein - keiner der beiden Hersteller kann jetzt noch auf Taktfrequenz als primäres Leistungsmerkmal bauen.

Nach internen Gerüchte hatte Intel bereits begonnen an einem 64Bit P6 Nachfolger zu arbeiten -> P7.

Das Designteam musste dann jedoch zurückstecken, also Intel alle 64Bit Ambitionen in Richtung EPIC(IA64) verschoben hat.
Der P7 wurde gecancelt, und ein neuer 32Bit Nachfolger geplant. -> P4

CrazyIvan
2004-05-07, 12:01:06
Bist Du Dir da ganz sicher? AFAIR hat intel damals nur bekannt gegeben, dass man nach dem P6 zusammen mit HP an was ganz neuem arbeite -> dem Merced. Dass es davor, dazwischen oder danach noch ne andere Planung gab, hab ich noch nie gehört. Wird aber wohl eher schwer werden, das rauszufinden. Oder haste nen Tipp für mich, wo ich mal nachgucken könnte?

BTW
Gut zu dem Thema passt übrigens der gestrige "Quote of the day" von www.hardocp.com :


"The traditional scaling of semiconductor manufacturing processes died somewhere between the 130- and 90-nanometer nodes"
[...]
"This lithographic definition of process technology is absolutely meaningless," [...] "Somewhere between 130-nm and 90-nm the whole system fell apart. Things stopped working and nobody seemed to notice." [...]"Scaling is already dead but nobody noticed it had stopped breathing and its lips had turned blue."
Bernie Meyerson, IBM

BlackBirdSR
2004-05-07, 12:05:32
[SIZE=1]Original geschrieben von CrazyIvan
Dass es davor, dazwischen oder danach noch ne andere Planung gab, hab ich noch nie gehört. Wird aber wohl eher schwer werden, das rauszufinden. Oder haste nen Tipp für mich, wo ich mal nachgucken könnte?
SIZE]

Ja bin mir ganz sicher, da ich das unzählige male gehört habe.
Kann dir da aber keinen Tip geben. Gibt ja keine öffentlichen Dokumente dazu. Was bleibt sind Aussaegen von möglichen Insidern. Gerüchten eben´.

zeckensack
2004-05-07, 12:11:48
Original geschrieben von BlackBirdSR
Ja bin mir ganz sicher, da ich das unzählige male gehört habe.
Kann dir da aber keinen Tip geben. Gibt ja keine öffentlichen Dokumente dazu. Was bleibt sind Aussaegen von möglichen Insidern. Gerüchten eben´. Ich bin mir ziemlich sicher dass Merced der Codename für IA64 war, bzw der Codename des Itanium (1) ist.

Oder wie heisst der deiner Meinung nach?
Itanium 2 <=> McKinley
Itanium 1 <=> ?(

Marodeur
2004-05-07, 12:23:10
Das Ganze wird bestimmt noch interessant.

Das Intel irgendwie reagieren muss, vor allem nach dem recht großen Anklang den AMDs "Cool&Quiet" gefunden hat, hab ich ja schon geahnt. Aber das sie möglicherweise so weit gehen stand nicht in meiner Liste.

frager
2004-05-07, 12:27:38
http://www.golem.de/0405/31183.html

BlackBirdSR
2004-05-07, 12:27:42
Original geschrieben von zeckensack
Ich bin mir ziemlich sicher dass Merced der Codename für IA64 war, bzw der Codename des Itanium (1) ist.

Oder wie heisst der deiner Meinung nach?
Itanium 2 <=> McKinley
Itanium 1 <=> ?(

ich komme nicht ganz mit, worauf du hinauswillst?

P6 -> P7 -> eingestampft und Entwicklung gespalten
Merced (IA64) ItantiumI ersetzt den 64Bit Zweig
P4 Netbrust den 32 Bit Zweig.

Ich sagte ja, man hat den echten P7 angeblich zugunsten des Merced gestoppt.
Oder hab ich mich wieder so chaotisch ausgedrückt?

HOT
2004-05-07, 12:30:11
Die Entscheidung ist sicher schon vor längerer Zeit gefallen. Der PentiumM hat das leistungsfähigere Design. Es wäre ein grosser Fehler dieses zugunsten des unausgewogenen P4 nicht auf Desktops zu verwenden.

Marodeur
2004-05-07, 12:32:52
Stimmt, im Prinzip warten ja alle schon länger drauf die Dinger endlich auf richtigen Boards verbauen zu können...

Hamster
2004-05-07, 12:36:00
sollte sich das bewahrheiten, so ist das imo der richtige schritt.

allerdings wird intel beim normalen anweder in erklärungsnöten kommen, warum plötzlich ein 2.5er p-m besser und schneller sein soll als ein p4 mit 4ghz.

ich für meinen teil würde solch ein prozzi mit offenen armen entgegennehmen. nur das mit lagrande..... :|

deekey777
2004-05-07, 12:37:33
Dazu auch eine News (http://www.heise.de/newsticker/meldung/47181) bei heise online.

BlackBirdSR
2004-05-07, 12:38:57
Original geschrieben von Hamster
sollte sich das bewahrheiten, so ist das imo der richtige schritt.

allerdings wird intel beim normalen anweder in erklärungsnöten kommen, warum plötzlich ein 2.5er p-m besser und schneller sein soll als ein p4 mit 4ghz.

ich für meinen teil würde solch ein prozzi mit offenen armen entgegennehmen. nur das mit lagrande..... :|

dafür hat man doch jetzt die neuen Bezeichnungen. PentiumM 755 und so :)

Hamster
2004-05-07, 12:40:59
Original geschrieben von BlackBirdSR
dafür hat man doch jetzt die neuen Bezeichnungen. PentiumM 755 und so :)

ja stimmt schon. allerdings sind (imo) die ratings für den otto-normalverbraucher nicht nazuvollziehen. er ist taktgewöhnt. dann doch lieber ein rating ala amd (nicht opteron)

DrumDub
2004-05-07, 12:41:53
tja, das zeigt doch, dass marketing zum glück nicht alles ist, wenn die verbraucher anfangen mal selber zu denken. :)

wehrscheinlich hat der erfolg des a64 auch nicht unerheblichen anteil daran, dass es wohl zu diesem umdenken bei intel kommt.

den kommentar von bernie meyerson finde ich auch interessant. heißt das eventuell, dass wir gar keine grafikchips in 90nm sehen werden? ist die entwicklung ausgereizt?

zeckensack
2004-05-07, 12:42:18
Original geschrieben von BlackBirdSR
ich komme nicht ganz mit, worauf du hinauswillst?

P6 -> P7 -> eingestampft und Entwicklung gespalten
Merced (IA64) ItantiumI ersetzt den 64Bit Zweig
P4 Netbrust den 32 Bit Zweig.

Ich sagte ja, man hat den echten P7 angeblich zugunsten des Merced gestoppt.
Oder hab ich mich wieder so chaotisch ausgedrückt? Hatte deinen edit oben nicht gesehen. Jetzt ist mir auch klar, dass du das von Anfang an so sagen wolltest :)

Ich denke mich auch erinnern zu können, dass die Netburst-Entwicklung nicht in voller Einigkeit aller beteiligten Ingenieure verlief, und das einige Teile geopfert bzw verändert wurden.

Trotzdem kommt's mir komisch vor, dass Netburst und IA64 beide Ergebnisse eines aufgegebenen P7-Projekts sein sollen. IMO ist IA64 schon seit mindestens sieben Jahren in Entwicklung, und es war von Anfang an klar, dass eine andere ISA als x86 zur Anwendung kommen sollte. Klick. (http://www.heise.de/newsticker/result.xhtml?url=/newsticker/meldung/1443&words=Merced)

frager
2004-05-07, 12:44:47
http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=141429

Kakarot
2004-05-07, 12:50:40
Original geschrieben von Hamster
dann doch lieber ein rating ala amd (nicht opteron)
naja, wenn Intel nicht mehr auf "MHz-Power" setzt, hat AMD nix mehr zum raten. SCNR :D

Die Meldung ist echt mal was, gefällt mir das Intel jetzt auf den Pentium M baut, da viele sich einen P-M schon für den S478-Desktop-Bereich gewünscht hatten, inkl. mir, nur waren passende Boards halt Mangelware.
IPC Leistung sind bei P-M und Athlon64 fast gleich, da der P-M noch zusätzliche Features erhält (HTT etc.) könnte man von einer IPC Gleichheit sprechen, die Rückkehr zu MHz als Leistungsangabe ist dann auch nicht mehr weit, auf lange Sicht... mal guxx0rn.

HOT
2004-05-07, 12:57:40
Original geschrieben von DrumDub
tja, das zeigt doch, dass marketing zum glück nicht alles ist, wenn die verbraucher anfangen mal selber zu denken. :)

wehrscheinlich hat der erfolg des a64 auch nicht unerheblichen anteil daran, dass es wohl zu diesem umdenken bei intel kommt.

den kommentar von bernie meyerson finde ich auch interessant. heißt das eventuell, dass wir gar keine grafikchips in 90nm sehen werden? ist die entwicklung ausgereizt?

Na ja, weniger Verbraucher, viel mehr die OEMs ;)
Ich denke dass die reihenweise gedroht haben AMD zu verwenden, wenn Intel nichts an der Abwärme deichelt. Immerhin sind das Kosten für Gehäuse, Lüfter etc., die damit verbunden sind. Vor allem wenn man möglichst Leise Rechner vertreiben will.

BlackBirdSR
2004-05-07, 13:07:09
Original geschrieben von zeckensack
Hatte deinen edit oben nicht gesehen. Jetzt ist mir auch klar, dass du das von Anfang an so sagen wolltest :)

Ich denke mich auch erinnern zu können, dass die Netburst-Entwicklung nicht in voller Einigkeit aller beteiligten Ingenieure verlief, und das einige Teile geopfert bzw verändert wurden.

Trotzdem kommt's mir komisch vor, dass Netburst und IA64 beide Ergebnisse eines aufgegebenen P7-Projekts sein sollen. IMO ist IA64 schon seit mindestens sieben Jahren in Entwicklung, und es war von Anfang an klar, dass eine andere ISA als x86 zur Anwendung kommen sollte. Klick. (http://www.heise.de/newsticker/result.xhtml?url=/newsticker/meldung/1443&words=Merced)

Naja hab mich vielleicht immernoch blöd ausgedrückt:
IA64(EPIC) entstand ja nicht direkt aus dem mutmaßlichen original P7.
Vielmehr arbeiteten bei Intel ja bereits 2 unabhängige Design Teams. Das eine eben an IA64, das Andere an der x86 Schiene.
Dieses team musste dann auch gegenüber dem IA64 team zurückstecken, und ihre x86 64Bit Pläne über Board werfen.
So die Gerüchte.

Ob es stimmt? Es spricht nichts dagegen, und eine menge Leute wollen davon wissen,
Ist ja auch egal..

KaoS
2004-05-07, 13:18:01
Original geschrieben von Kakarot
naja, wenn Intel nicht mehr auf "MHz-Power" setzt, hat AMD nix mehr zum raten. SCNR :D



Das Rating hat ja auch nichts mit dem P4 zu tun, sondern soll ja die Geschwindigkeit eines alten Athlons beschreiben *g* - wers glaubt :).

Dothan
2004-05-07, 13:19:09
Ich war richtig enttäuscht, als Intel den PIII für den PIV geopfert hat. Die Architektur und die zum Prozessor dazugehörigen Chipsätze waren im Vergleich zu PII und 440BX einfach Müll.
Jetzt kann ich mich freuen: Die Stärken der alten Technologie werden um neue ergänzt, vielleicht könnte ich seit langem endlich wieder einen Intel kaufen =)

DrumDub
2004-05-07, 13:23:57
Original geschrieben von HOT
Na ja, weniger Verbraucher, viel mehr die OEMs ;)
Ich denke dass die reihenweise gedroht haben AMD zu verwenden, wenn Intel nichts an der Abwärme deichelt. Immerhin sind das Kosten für Gehäuse, Lüfter etc., die damit verbunden sind. Vor allem wenn man möglichst Leise Rechner vertreiben will.

hmm... das habe ich nicht bedacht. wenn dell umsteigen würde, dann hätte intel nen echtes problem. :D

thunderbirdcore
2004-05-07, 13:36:48
Original geschrieben von KaoS
Das Rating hat ja auch nichts mit dem P4 zu tun, sondern soll ja die Geschwindigkeit eines alten Athlons beschreiben *g* - wers glaubt :).
;(

auf das Wesentliche reduziert

edit: Rechtschreibung verbess0rt, thx @ thunderbirdcore für den Hinweis. :freak2:

Sunrise
2004-05-07, 14:03:42
Original geschrieben von Dothan
...Jetzt kann ich mich freuen: Die Stärken der alten Technologie werden um neue ergänzt, vielleicht könnte ich seit langem endlich wieder einen Intel kaufen =) ...
Das macht mich besonders traurig, wurde doch das Internet mit dem P4 deutlich schneller! -> j/k

PS: Sehr amüsant das Ganze, sollte hingegen bei AMD alles glatt laufen, dann freuen wir uns über Dual-Core AMD64er.

LordDeath
2004-05-07, 15:17:17
ich fänds auch cool, wenn man den pentium m für den desktopbetrieb weiterentwickelt. wegen der gerigen leistungsaufnahme könnte das teil im desktopbereich mit normaler kühlung und kernspannung locker die taktraten eines athlon 64 erreichen. ich frag mich nur, wie es mit dem preis sein wird. denn bald kommen ja modelle mit 2mb l2 cache raus...

2004-05-07, 15:28:39
Endlich! :jumping:

Wenn das stimmt und es diese neuen Desktop CPUs regnet, kann man intel nur beglückwünschen :bier:

Ich finde Prozessoren die intelligenter arbeiten sind der bessere Weg. Es wurde ja auch mal endlich Zeit das intel den - meiner Meinung nach - ineffizienten P4 einstampft.

Man könnte das lange Festhalten intels an dem P4 Design ja noch verstehen wenn sie nix besseres hätten, aber den P-M gibts ja auch schon lang genug.

Tja, wenn die das durchziehen wäre wohl nach langer Zeit (3 Jahre - seid der seligen Tualatinära) für mich intel wieder kaufenswert.

MfG


dildo4u
2004-05-07, 15:46:30
Original geschrieben von Kakarot
naja, wenn Intel nicht mehr auf "MHz-Power" setzt, hat AMD nix mehr zum raten. SCNR :D

Die Meldung ist echt mal was, gefällt mir das Intel jetzt auf den Pentium M baut, da viele sich einen P-M schon für den S478-Desktop-Bereich gewünscht hatten, inkl. mir, nur waren passende Boards halt Mangelware.
IPC Leistung sind bei P-M und Athlon64 fast gleich, da der P-M noch zusätzliche Features erhält (HTT etc.) könnte man von einer IPC Gleichheit sprechen, die Rückkehr zu MHz als Leistungsangabe ist dann auch nicht mehr weit, auf lange Sicht... mal guxx0rn. Pentium M wird whol kein HT haben sondern es werden gleich Dual core cpus sein!

HiddenGhost
2004-05-07, 16:36:09
Vor allem hat Intel mit dem Pentium M auch eine inteligente Stromspartechnik drin. Die Anwender sehen nämlich ein, dass BruteForce-Takte heute für OfficePCs keinen wirklichen Sinn mehr haben.
Mein AMD dümpelt schließlich auch die ganze Zeit bei 800MHz rum und ich merke keine Unterschiede zu 2GHz.

IMO hat AmD nur einige MOnate vorsprung, was Quiet'n'Cool marketing auf dem Desktop angeht, denn Intel wird sicher in die selbe Kerbe schlagen.
Das bessere Marketing wird dann wohl doch siegen....

Corny
2004-05-07, 16:41:57
Original geschrieben von M²

Tja, wenn die das durchziehen wäre wohl nach langer Zeit (3 Jahre - seid der seligen Tualatinära) für mich intel wieder kaufenswert.

MfG



Hoch lebe der tualatin!!!

endlich wird sowas ähnliches weiter geführt :)

wie lang wird man wohl noch ungefähr P4's zum kaufen bekommen? bzw ab wann gibts den desktop P-M ? weiß man nicht oder?

Doomtrain
2004-05-07, 17:08:56
Original geschrieben von Corny
Hoch lebe der tualatin!!!

endlich wird sowas ähnliches weiter geführt :)

wie lang wird man wohl noch ungefähr P4's zum kaufen bekommen? bzw ab wann gibts den desktop P-M ? weiß man nicht oder?

Den P4 wirst du noch lange bekommen. Warte erst mal ab wie sich die Sache entwickelt....

GloomY
2004-05-07, 17:42:11
Original geschrieben von Hamster
nur das mit lagrande..... :| La grande catastrophe... :| ;)

Ansonten: Taktbarkeit an sich ist ja eine gute Sache. In einem gewissen Maße hat das der P6 und der Athlon Core gegenüber ihren Vorgängern auch noch oben getrieben, nur war dies moderat und sinnvoll.

Aber Taktbarkeit nur um hohe Taktraten zu erreichen habe viele Leute schon bei der Einführung des P4s kritisiert. Intel hat beim P4 zu viel geopfert, als dass es sich gelohnt hätte. Irgendwann kommen eben auch mal die Nachteile ans Licht.

Imho war und ist das ein Weg in die Sackgasse. Nicht umbedingt leistungsmäßig aber eben auf Grund von anderen Nachteilen.

edit: Interessant ist der Vergleich mit dem PowerPC970 (bzw. eigentlich ja nur ein leicht veränderter Power4). Dessen Pipeline ist zwar auch relativ lang, aber es wurde ansonsten kaum Abstriche an anderen Stellen gemacht. Daher ist die Taktbarkeit trotz ähnlicher Pipelinelänge wie beim Northwood längst nicht so hoch wie beim P4. Beim PPC970 gibt es sicher noch ein paar Stellen, die (bei der Taktbarkeit) bremsen, die aber mit Absicht nicht um Teufel komm' raus schneller gemacht wurden, weil das sonst zu viel Performance kosten würde. Genau hier liegt der Unterschied zwischen P4 und PPC970.

Das sonstige RISC Design des PPC970 tut sein übriges, um die Komplexität und damit die Verlustleistung niedrig zu halten. :)

edit2: Ich hab' die beiden Threads mal zusammengemurschtelt. ;)

Mark3Dfx
2004-05-07, 19:12:59
http://www.heise.de/newsticker/meldung/47201

Intel bringt 2005 Dual-Prozessorkern für Desktops :o

"Intel hat inzwischen bestätigt, die Pläne für das nächste Jahr geändert und die Entwicklung des geplanten Nachfolgeprozessors des Pentium-4-Prescott mit Codenamen Tejas, wie berichtet, eingestellt zu haben. Dafür soll aber im gleichen Jahr ein Doppelprozessor für Desktops herauskommen -- so etwas war ursprünglich erst für weit später vorgesehen. Offiziell angekündigt war bislang nur ein Dual-Prozessor für die Workstation/Server-Linie im Jahre 2006."

Aqualon
2004-05-07, 19:38:39
Da Intel dies mittlerweile bestätigt hat, gehört der Thread ins Prozessorforum.

*move & titel change*

Aqua

Hamster
2004-05-07, 20:10:39
Original geschrieben von Mark3Dfx
http://www.heise.de/newsticker/meldung/47201

Intel bringt 2005 Dual-Prozessorkern für Desktops :o

"Intel hat inzwischen bestätigt, die Pläne für das nächste Jahr geändert und die Entwicklung des geplanten Nachfolgeprozessors des Pentium-4-Prescott mit Codenamen Tejas, wie berichtet, eingestellt zu haben. Dafür soll aber im gleichen Jahr ein Doppelprozessor für Desktops herauskommen -- so etwas war ursprünglich erst für weit später vorgesehen. Offiziell angekündigt war bislang nur ein Dual-Prozessor für die Workstation/Server-Linie im Jahre 2006."


yeah! auf sowas warte ich. bis dahin muss mein p4 halten.


nachricht des tages! ;)

[LOG]Skar
2004-05-07, 21:20:48
Aloa, mag den P4 dann gar keiner mehr??
Dass der Prozessor eine Sackgasse ist konnte keiner Wissen
und es liegt letzten Endes auch nur an der Fertigung.
Als richtiger Rechenknecht war er und ist er der Beste.

Ich frage mich gerade was die ganzen Entwickler jetzt denken?
Da hamse jetzt ewig hin und heroptimiert und nu zurück zum PIII.

Ich bin auf jeden Fall mal auf die ersten echten Dualcores
gespannt.

Evil_Ash
2004-05-07, 21:23:05
P4 und optimiert? Hm.
Und abzusehen wars ja schon lange, dass das netburst zeugs nicht funktionieren würde...

Hamster
2004-05-07, 21:41:29
Original geschrieben von [LOG]Skar
Aloa, mag den P4 dann gar keiner mehr??
Dass der Prozessor eine Sackgasse ist konnte keiner Wissen
und es liegt letzten Endes auch nur an der Fertigung.
Als richtiger Rechenknecht war er und ist er der Beste.

Ich frage mich gerade was die ganzen Entwickler jetzt denken?
Da hamse jetzt ewig hin und heroptimiert und nu zurück zum PIII.

Ich bin auf jeden Fall mal auf die ersten echten Dualcores
gespannt.


doch, der prozzi war von anfang an verspottet. erst seit intel nen 800er "fsb" und ht eingeführt hat, ist diese plattform interessant geworden.

ich für meinen teil habe lieber eine hohe pro-mhz leistung, als ein ineffizientes design, welche alleine aus hohem takt und hohem verbrauch einigermassen leistung erzielen kann.

Stone2001
2004-05-07, 21:46:23
:up: @ Intel! Es ist ein Schritt in die richtige Richtung!

Aber die wesentlich interessantere Frage ist, ob AMD jetzt auch den DualCore für die FX- bzw. XP-Serie ankündigt. :grübel:

Denn Intel bringt diese CPU für den Desktopmarkt heraus. AMDs DualCore-Lösung soll nur der Opteron-Serie vorbehalten bleiben.
Und das der Pentium M recht performant ist, ist hinlänglich bekannt. Im Doppelpack wird er vorallem in denen Disziplinen hervorstechen, die bereits durch Hyper Threading profitieren. (Ich gehe mal davon aus, das sich die beiden Cores jeweils als ein logischer Prozessor beim Betriebssystem anmelden (sowie es beim DualCore Opteron auch sein soll)). Wird von einem Benchmark nur ein Prozessor unterstützt, wird er es aber wahrscheinlich schwer gegen einen Athlon XP haben.

Interessant wird dann auch die Frage, nach dem Stromverbrauch und den Stromsparmodi. Der Dothan soll ja max. 35W verbrauchen, das ist ca. 1/3 von dem, was sich ein Prescott genehmigt. Mit Deep Sleep und Deeper Sleep dürfte sich aber der Stromverbrauch weit unter das senken lassen, was AMD mit Cool'n'Quiet hinbekommt!

[LOG]Skar
2004-05-07, 21:53:49
Es erstaunt mich aber schon ein wenig.

Naja ich bin schon seit langem ein AMD Hase. Und der A64 hat
mich mal voll erwischt C&Q und 64-Bit und schnell :)
Jetzt muss nur noch der Sockel 939 kommen...

Banias
2004-05-07, 23:40:15
Als Notebookbesitzer komm ich schon jetzt in den Genuss eines Pentium-M ;)
Einfach Klasse die geringe Leistungsaufnahme, Abwärme und damit Geräuschentwicklung des gesamten Systems bei sehr guter Rechenleistung :)

MfG Saj

dildo4u
2004-05-08, 00:39:59
http://www.hardtecs4u.de/?id=1083967297,3540,ht4u.php

hmm so wies ausshiet muss intel noch bis 2006mit dem prescott durchhalten

Turandot
2004-05-08, 00:55:48
Original geschrieben von dildo4u
http://www.hardtecs4u.de/?id=1083967297,3540,ht4u.php

hmm so wies ausshiet muss intel noch bis 2006mit dem prescott durchhalten

Nana, Intel hat schon vor einiger Zeit erkannt das sich die P4 Architektur in der Zukunft nur bedingt weiter verwenden lässt und bereits im Mobile Segment entsprechend entgegengerudert, ein eigenes Designteams aus dem Boden gestampft und eine neue Architektur (Banias)! Was glaubst wie lange es für eine Firma wie Intel dauern wird dieses Design ein wenig anzupassen (geringere Strukturbreite-bzw. intelligenterer Herstellungsprozess (so sie diesen in den Griff kriegen), höhere pro-mhz leistung durch amd-ähnliche Maßnahmen wie einen integrierten Speichercontroller oder z.B. durch einen höheren Cache) zumahl sie bereits ein größeres Designteam auf die Entwicklung/Fortführung dieser Architektur angesetzt und auch andere Designteams in diese Richtung ausgerichtet haben: Wie bei den Xbitlabs (http://www.xbitlabs.com/news/cpu/display/20040507000306.html) zu lesen werden wir 2005 die entsprechenden Ergebnisse zu sehen bekommen. Bis dahin wird Intel durch die Einführung seines Modelratings auch Joe Sixpack auf die neue Vermarktung eingestimmt, den neuen Sockel erfolgreich eingeführt und eine solide Grundlage für die Architektur/CPU geschaffen zu haben:

Gandharva
2004-05-08, 10:48:33
Original geschrieben von GloomY
La grande catastrophe... :| ;)

[snip]

http://www.cs.uni-magdeburg.de/~aseitz/it-sec/lagrande.htm

frankkl
2004-05-08, 11:56:10
die werden bei der geringen Wärmeendwirklung wohl nicht mehr gebraucht oder ?

;D

frankkl

Windi
2004-05-08, 12:15:32
Bei Giga hatten sie einen Anruf von Intel.
http://www.giga.de/index.php?storyid=83485
Demach sollen 2005 in allen Bereichen DualProzessoren kommen:
- Itanium Prozessoren
- power-optimierte mobile Prozessoren
- Desktop Prozessoren

Ich gehe allerdings davon aus, das 2005 nur die ExtremEdition-Modelle DualProzessoren haben werden. Einfach wegen der Transistorzahl. Von AMD erwarte ich aber auch das gleiche, Dual werden wohl nur die AthlonFX Prozessoren.

HiddenGhost
2004-05-08, 13:32:08
Für die Consumerklasse, die sich diese Boliden kaufen werden, steht jedoch die Leistung im Vordergrund, die diese in Games bringen können.
Wie gut lassen sich KI, Sound und Grafik parallelisieren, damit sich DualCore überhaupt entscheident positiv auf die Leistung auswirkt?

Bis dato dachte ich eigentlich, dass dies nur für fixe Rechenmuster (photoshop, Datenbanken) von relevanz sei?
Oder ließe sich sowas in der Richtung eines Cellchips nutzen, d.h. logischer Prozessor 1 übernimmt KI und Sound, Logikcore 2 die Physik und Grafik?

Stone2001
2004-05-08, 13:56:37
Original geschrieben von Windi
Ich gehe allerdings davon aus, das 2005 nur die ExtremEdition-Modelle DualProzessoren haben werden. Einfach wegen der Transistorzahl. Von AMD erwarte ich aber auch das gleiche, Dual werden wohl nur die AthlonFX Prozessoren.
Die Anzahl der Transistoren ist wohl kaum der limitierende Faktor! Ein Pentium 4 Northwood hat 55 Mio. Transistoren, ein Prescott mehr als 100 Mio. Transistoren. Von daher wäre es ohne weiteres Möglich zwei Northwoods auf einem Die zu vereinen.
Auch ermöglichen die neueren Fertigungsverfahren, höhere Packungsdichten. Nächstes Jahr soll ja schon der 65 nm Prozess auf den Markt kommen, spätestens dann sind 100 Mio. pro Die kein Thema mehr und somit stellt die Transistorzahl auch keine Hürde mehr da.

Bei AMD hat das vielleicht andere Gründe, warum sie die DualCores nur für den Opteron herausbringen wollen. Ich tippe zur Zeit auf die Speicherbandbreite. Die Opterons haben ein Dual-Interface. Die Athlons XP nur ein Single-Interface. Aufgrund der Architektur müssen die beiden Cores auf dem Die eine Speicheranbindung teilen. Bei Opteron dürfte durch das Dual-Interface nur wenig Leistung verloren gehen, beim XP allerdings dürfte recht viel Leistung verloren gehen, weil einem Prozessor nur 1/4 der Bandbreite zu Verfügung stehen, die ein Opteron normalerweise hat.

Aqualon
2004-05-08, 13:59:59
Möglicherweise wird der Prozessor nach aussen gar kein Dualcore sein, sondern sich als 1 logischer Prozessor beim Betriebssystem melden. Der Prozessor müsste die ankommenden Rechenbefehle intern auf die beiden Cores verteilen.

Dann hätte man die Probleme, dass bei den meisten Programmen nur die Hälfte des Prozessors ausgenutzt wird gar nicht.

@Stone: Wenn AMD endlich den Sockel 939 mit Dual Channel auch für die normalen A64 bringt, wäre das kein Problem mehr.

Aqua

Stone2001
2004-05-08, 14:13:11
Original geschrieben von Aqualon
Möglicherweise wird der Prozessor nach aussen gar kein Dualcore sein, sondern sich als 1 logischer Prozessor beim Betriebssystem melden. Der Prozessor müsste die ankommenden Rechenbefehle intern auf die beiden Cores verteilen.

Dann hätte man die Probleme, dass bei den meisten Programmen nur die Hälfte des Prozessors ausgenutzt wird gar nicht.

Diese Idee habe ich irgendwo schonmal gehört! ;) Gerade, weil den Softwareentwicklern recht viel Arbeit erspart.

Ich persönlich glaube aber kaum, das es so gemacht wird. Denn bei diesem Verfahren müsste man zwei verschiedene Pipelines koordinieren (und das ist schon bei einer langen Pipeline keine leichte Aufgabe) und ausserdem würde ich auch mal tippen, das die Auslastung nicht gerade hoch wäre. Da ist es viel einfacher zwei unterschiedliche Threads laufen zu lassen (und eventuell gemeinsam genutzter Speicher zu koordinieren).
Original geschrieben von Aqualon
@Stone: Wenn AMD endlich den Sockel 939 mit Dual Channel auch für die normalen A64 bringt, wäre das kein Problem mehr.

Stimmt, da hast du recht. Dann bleibt eigentlich nur die Marketing-Leute als Begründung übrig. Oder hat sonst jemand noch eine Idee, warum AMD den DualCore nicht für den Desktop-Markt bringen will? (Naja, vielleicht zieht AMD jetzt ja nach!)

nordic_pegasus
2004-05-08, 15:04:45
Original geschrieben von Aqualon
Möglicherweise wird der Prozessor nach aussen gar kein Dualcore sein, sondern sich als 1 logischer Prozessor beim Betriebssystem melden. Der Prozessor müsste die ankommenden Rechenbefehle intern auf die beiden Cores verteilen....


Benötigt man dann ein Betriebssytem, das Dual-Prozessoren ansprechen kann (Win2k) oder ist das ähnlich wie HyperThreading und man bräuchte WinXP oder ähnliches ?

Aqualon
2004-05-08, 15:06:37
Und wenn man es bei einer Pipeline belässt, aber die Recheneinheiten verdoppelt? Wäre auch ne Art "Dualcore" und bei Intels Hyperthreading könnte die Idee auch ganz gut funktionieren.

Dass AMD den Dualcore nur für den Opteron angekündigt hat, war eigentlich klar. Sie können mit dem A64 sehr gut mit dem P4 mithalten und so ist keine Notwendigkeit dagewesen, diesen im Desktop anzubieten (vorallem weil die Kosten doch um einiges höher sein dürften, was im Server-Bereich das kleinere Problem ist).

Nach der Ankündigung Intels könnte sich das natürlich ändern und sie werden gezwungen den Dualcore auch im Desktop-Markt zu bringen.

Aqua

Aqualon
2004-05-08, 15:09:06
Original geschrieben von Sleipnir
Benötigt man dann ein Betriebssytem, das Dual-Prozessoren ansprechen kann (Win2k) oder ist das ähnlich wie HyperThreading und man bräuchte WinXP oder ähnliches ?
Da das OS nur einen Prozessor sehen würde, müsste es keine Dual-Prozessoren-Unterstützung anbieten. Allerdings hätte man in diesem Fall das Problem, dass man die Vorteile eines Dual-Systems nicht hätte.

Ob das ganze überhaupt Hardwaremäßig möglich wäre oder zuviele Probleme nach sich zieht, wie Stone2001 gemeint hat, weiß ich allerdings auch nicht.

Aqua

Stone2001
2004-05-08, 16:56:22
Original geschrieben von Aqualon
Und wenn man es bei einer Pipeline belässt, aber die Recheneinheiten verdoppelt? Wäre auch ne Art "Dualcore" und bei Intels Hyperthreading könnte die Idee auch ganz gut funktionieren.

Zwei Cores, eine Pipeline, hmmmmm, dann bekommst du einen Mischung aus einem DualCore und einer superskalaren CPU mit Hyperthreading.

Bei Hyperthreading hat jeder logische Prozessor seine eigenen Register, Instruction Pointer, ... . Caches, Dekodierlogik, Pipeline, etc. werden aber zusammen verwendet. Bei einem DualCore teilen sich die logischen Prozessoren nur die Speicheranbindung (ggf. auch Dinge, die mir gerade nicht einfallen ;) ).

Es ist ein interessanter Ansatz: zwei Dekodiereinheiten füttern eine (!) Pipeline mit recht vielen Ausführungseinheiten. Man müßte jetzt mal ein paar Versuche anstellen, um zu sehen ob sich die Mischung lohnt (von der Performance her und von der wirtschaftlichen Seite).

Was ich mir allerdings recht schwer vorstellen kann ist, das sich der Prozessor nur als ein logischer Prozessor anmeldet. Das Betriebssystem sieht dann nur, das ein Prozessor vorhanden ist und wird dementsprechend auch nur einen Thread laufen lassen. Der Core hätte dann zwar recht viel Leistung, die aber kaum ausgenutzt werden kann. (heutige superskalare CPUs lasten ihre Ausführungseinheiten auch nicht wirklich vollständig aus)

Magnum
2004-05-08, 18:47:13
Original geschrieben von Aqualon
Und wenn man es bei einer Pipeline belässt, aber die Recheneinheiten verdoppelt? Wäre auch ne Art "Dualcore" und bei Intels Hyperthreading könnte die Idee auch ganz gut funktionieren.

Ich glaube, dass wäre einfach nur Overkill und hat nix mit "Dualcore", wie es eigentlich gedacht ist, nichts zu tun! Das große Problem wird dann nämlich sein, dass ohne weitere Änderungen nur noch mehr Ausführungseinheiten nichts zu tun haben!

Meine Lösung wäre folgende:
Zwei Befehlsdekodierer füttern zwei Pipeline, die dann jeweils ihre Ausführungseinheiten besitzen.
Und zwar liegt der Trick jetzt daran, dass jede Dekodiereinheit Befehl in jede Pipeline legen kann! (auch in beide gleichzeitig!) Die Befehl müssten nur mit der Prozess(or)-ID getaggt werden, um sie danach wieder in die richitge Reihenfolge setzen zu können!
Jetzt hat man zwei Prozessoren und wenn eine Idle wird kann sie ihre Rechenleistung der anderen zur Verfügung stellen!

kA ob dies überhaupt realisierbar ist, aber die Idee gefällt mir! ;D

BlackBirdSR
2004-05-08, 19:20:48
Recht abenteuerliche Ideen habt iht hier.

Recheneinheiten verdoppeln, 2 BackEnds für ein Frontend, 2 Decodergruppen etc etc.
Ich sags euch gleich, dass klapt nicht.
Schon gar nicht wenn man nicht mal schnell Zeit hat eine neue CPU zu Designen, sondern "nur" eine DualCore CPU auf den Markt bringen will.
Alles ausser dem L2 Cache zu teilen ist ein extremer Aufwand.

Thowe
2004-05-08, 22:19:45
Glückwunsch an Intel für die einzig richtige Entscheidung.

Seien wir doch mal ehrlich, der P4 war von eh her ein Prozessor der sich billig vermarkten lies. Gut? Wie will man das beurteilen, vieles steht und fällt mir der Optimierung der Software auf einem Typ.

Ich für meinen Teil hatte nie Intels "Idee" auf dem Takt und nicht auf die Leistung zu optimieren verstanden. Letztendlich ist der Takt nur eine Zahl, auch wenn man gerne mit Zahlen spielt, so hätte man sich vor langem schon auf einen Leistungsindex für CPUs einigen können. Diesen könnte man sogar auf Spezial-Anwendungen portieren und den Hersteller der Applikation eine Bewertung übernehmen lassen.

Der Prescott ist ein sehr schlecht Witz, die Verzögerungen und die spärliche Verfügbarkeit lassen nichts gutes, zumindestens was die Ausbeute angeht vermuten. Ich bin schon seit einiger Zeit der festen Vermutung (was auch der nette IBM Mitarbeiter sagte) das die Verkleinerung der Strukturgrößen eben nicht so problemlos ist wie gerne angenommen. Welche Parasitäre Effekte dort letztendlich wirken ist mir auch nicht klar, jedoch hatte TSMC/NV genau wie auch AMD mit dem A64 so einige sehr teure Kämpfe auszutragen. In einer Zeit wo die Marge sinkt und die Ausgaben steigen, ist das langfristig eine gute Möglichkeit ein Unternehmen zu kippen.

Würde es nicht immer mehr TFTs geben die eingesetzt werden, dann hätten gerade die Kraftwerke in einigen Gebieten der USA schon lange ein Problem noch die nötige Energie zu liefern. Hier sollte man auch den wichtigsten Aspekt von PCs sehen, ich glaube auch nicht das Energie in Zukunft billiger wird. Die Preise werden steigen und somit die Nachfrage nach "klugen" Lösungen.

Dual Core CPUs gibts ja z.B. schon von HP den Mako (PA 8800 = 2x PA 8700) -> http://www.lostcircuits.com/cpu/hp_pa8800/

Tigerchen
2004-05-09, 06:05:50
Original geschrieben von Thowe
Glückwunsch an Intel für die einzig richtige Entscheidung.

Seien wir doch mal ehrlich, der P4 war von eh her ein Prozessor der sich billig vermarkten lies. Gut? Wie will man das beurteilen, vieles steht und fällt mir der Optimierung der Software auf einem Typ.

Ich für meinen Teil hatte nie Intels "Idee" auf dem Takt und nicht auf die Leistung zu optimieren verstanden. Letztendlich ist der Takt nur eine Zahl, auch wenn man gerne mit Zahlen spielt, so hätte man sich vor langem schon auf einen Leistungsindex für CPUs einigen können. Diesen könnte man sogar auf Spezial-Anwendungen portieren und den Hersteller der Applikation eine Bewertung übernehmen lassen.

Der Prescott ist ein sehr schlecht Witz, die Verzögerungen und die spärliche Verfügbarkeit lassen nichts gutes, zumindestens was die Ausbeute angeht vermuten. Ich bin schon seit einiger Zeit der festen Vermutung (was auch der nette IBM Mitarbeiter sagte) das die Verkleinerung der Strukturgrößen eben nicht so problemlos ist wie gerne angenommen. Welche Parasitäre Effekte dort letztendlich wirken ist mir auch nicht klar, jedoch hatte TSMC/NV genau wie auch AMD mit dem A64 so einige sehr teure Kämpfe auszutragen. In einer Zeit wo die Marge sinkt und die Ausgaben steigen, ist das langfristig eine gute Möglichkeit ein Unternehmen zu kippen.

Würde es nicht immer mehr TFTs geben die eingesetzt werden, dann hätten gerade die Kraftwerke in einigen Gebieten der USA schon lange ein Problem noch die nötige Energie zu liefern. Hier sollte man auch den wichtigsten Aspekt von PCs sehen, ich glaube auch nicht das Energie in Zukunft billiger wird. Die Preise werden steigen und somit die Nachfrage nach "klugen" Lösungen.

Dual Core CPUs gibts ja z.B. schon von HP den Mako (PA 8800 = 2x PA 8700) -> http://www.lostcircuits.com/cpu/hp_pa8800/

Dem kann man nur uneingeschränkt zustimmen. Nur Endorphine dürften solche Statements nicht glücklich machen.Was würde er wohl sagen? Vielleicht sowas:
"Der Prescott liefert konkurrenzfähige Leistung zu angemessenen Anschaffungs und Betriebskosten."
:biggrin:

Muh-sagt-die-Kuh
2004-05-09, 12:08:24
Original geschrieben von Thowe
Glückwunsch an Intel für die einzig richtige Entscheidung.

Seien wir doch mal ehrlich, der P4 war von eh her ein Prozessor der sich billig vermarkten lies. Gut? Wie will man das beurteilen, vieles steht und fällt mir der Optimierung der Software auf einem Typ.

Ich für meinen Teil hatte nie Intels "Idee" auf dem Takt und nicht auf die Leistung zu optimieren verstanden. Letztendlich ist der Takt nur eine Zahl, auch wenn man gerne mit Zahlen spielt, so hätte man sich vor langem schon auf einen Leistungsindex für CPUs einigen können. Diesen könnte man sogar auf Spezial-Anwendungen portieren und den Hersteller der Applikation eine Bewertung übernehmen lassen.Das P4 Design ist leistungsfähig, es erreicht diese Leistung nur auf einem anderen Weg, über die Taktfrequenz.Der Prescott ist ein sehr schlecht Witz, die Verzögerungen und die spärliche Verfügbarkeit lassen nichts gutes, zumindestens was die Ausbeute angeht vermuten. Ich bin schon seit einiger Zeit der festen Vermutung (was auch der nette IBM Mitarbeiter sagte) das die Verkleinerung der Strukturgrößen eben nicht so problemlos ist wie gerne angenommen. Welche Parasitäre Effekte dort letztendlich wirken ist mir auch nicht klar, jedoch hatte TSMC/NV genau wie auch AMD mit dem A64 so einige sehr teure Kämpfe auszutragen. In einer Zeit wo die Marge sinkt und die Ausgaben steigen, ist das langfristig eine gute Möglichkeit ein Unternehmen zu kippen.Die Prescott CPU selbst ist ziemlich beeindruckend. Eine 50% längere Core-Pipeline als ein Northwood und trotzdem Pi mal Daumen so schnell wie dieser. Ohne die Probleme mit dem Herstellungsprozess (die am Anfang der Entwicklung wohl nicht abzusehen waren) wäre die CPU für intel eine gute Sache: kleinerer Die in Kombination mit hohen Taktfrequenzen.

Magnum
2004-05-09, 12:30:19
Original geschrieben von Muh-sagt-die-Kuh
Die Prescott CPU selbst ist ziemlich beeindruckend. Eine 50% längere Core-Pipeline als ein Northwood und trotzdem Pi mal Daumen so schnell wie dieser.
Naja,Intel hat sich ja auch mächtig ins Zeug legen müssen, um das zu erreichen! Mehr L1 Cache, mehr L2 Cache, verbessertes Hyperthreading, neue Instruktionen und anderes, was mir gerade nicht einfällt!

Thowe
2004-05-09, 13:16:20
Original geschrieben von Muh-sagt-die-Kuh
Das P4 Design ist leistungsfähig, es erreicht diese Leistung nur auf einem anderen Weg, über die Taktfrequenz.

Sorry, aber eine Brute Force Lösung wie den P4 kann ich beim besten Willen nicht als leistungsfähig ansehen. Er hat seine Aufgabe mehr oder minder gut erfüllt, doch intelligentes Design war das meiner Meinung nach eher nicht. Nichts gegen INTEL aber der P4 war der typische ich verkaufe mich von selbst über Media Markt Prozessor. Wo er unterm Strich 95% der Kunden als Office Rechner mit eingebauter Energieverschwendung diente. Gleiches mag auch für die tollen ALDI PCs gelten. Ich für meinen Teil mags wenn das Design ein Maximum an Effizienz bietet und das nicht nur bei Prozessoren.

Die Prescott CPU selbst ist ziemlich beeindruckend. Eine 50% längere Core-Pipeline als ein Northwood und trotzdem Pi mal Daumen so schnell wie dieser. Ohne die Probleme mit dem Herstellungsprozess (die am Anfang der Entwicklung wohl nicht abzusehen waren) wäre die CPU für intel eine gute Sache: kleinerer Die in Kombination mit hohen Taktfrequenzen.

Aha, scheinbar ist ja selbst INTEL nicht (mehr) der Ansicht. Es wäre sicher gut gewesen den bestehenden P4 ausserhalb des Taktes aufzumotzen und dann Anhand eines Ratings die CPU zu verkaufen. Aber was bitte soll das sein was INTEL vom Prescott gemacht hat? Ein Keramikofen mit exzellenter Energieabgabe pro mm²? Die Theorie das < DIE = höherer Takt mit < Verbrauch darstellt ist ja wohl nicht erst jetzt gestorben.

Muh-sagt-die-Kuh
2004-05-09, 14:25:54
Original geschrieben von Magnum
Naja,Intel hat sich ja auch mächtig ins Zeug legen müssen, um das zu erreichen! Mehr L1 Cache, mehr L2 Cache, verbessertes Hyperthreading, neue Instruktionen und anderes, was mir gerade nicht einfällt! Die neuen Instruktionen haben damit erstmal nichts zu tun.

Cachevergrößerungen sind trivial, aber immer ein gutes Mittel zu Leistungssteigerung....so lange die Chipfläche trotz solcher Massnahmen immer noch kleiner ist als die des Vorgängers: Wieso nicht?

Dinge wie z.B. die verbesserte Branch Prediction und co sind, meiner Meinung nach, die interessanten Punkte.

Muh-sagt-die-Kuh
2004-05-09, 14:34:30
Original geschrieben von Thowe
Sorry, aber eine Brute Force Lösung wie den P4 kann ich beim besten Willen nicht als leistungsfähig ansehen. Er hat seine Aufgabe mehr oder minder gut erfüllt, doch intelligentes Design war das meiner Meinung nach eher nicht. Nichts gegen INTEL aber der P4 war der typische ich verkaufe mich von selbst über Media Markt Prozessor. Wo er unterm Strich 95% der Kunden als Office Rechner mit eingebauter Energieverschwendung diente. Gleiches mag auch für die tollen ALDI PCs gelten. Ich für meinen Teil mags wenn das Design ein Maximum an Effizienz bietet und das nicht nur bei Prozessoren.Definiere doch mal, was du in diesem Kontext unter "Effizienz" verstehst.

Zum "intelligenten Design": Was ist mit Dingen wie SMT, Trace Cache,...

Aha, scheinbar ist ja selbst INTEL nicht (mehr) der Ansicht. Es wäre sicher gut gewesen den bestehenden P4 ausserhalb des Taktes aufzumotzen und dann Anhand eines Ratings die CPU zu verkaufen. Aber was bitte soll das sein was INTEL vom Prescott gemacht hat? Ein Keramikofen mit exzellenter Energieabgabe pro mm²? Die Theorie das < DIE = höherer Takt mit < Verbrauch darstellt ist ja wohl nicht erst jetzt gestorben. Der Prozess hat ihnen einen dicken Strich durch die Rechnung gemacht, wäre das nicht so, würde man die P4 Linie wohl nicht einstellen.

p5
2004-05-09, 14:34:51
Original geschrieben von Muh-sagt-die-Kuh
Die Prescott CPU selbst ist ziemlich beeindruckend. Eine 50% längere Core-Pipeline als ein Northwood und trotzdem Pi mal Daumen so schnell wie dieser.

Warum versuchst du nicht, Intel davon zu überzeugen? :bonk:
Ehrlich, hunderte von schlauen Köpfen bei Intel stampfen den P4 ein, und hier wird er von manchen in den Himmel gelobt. Diese Diskrepanz kann nur auf Fanboy-Gehabe beruhen.

Magnum
2004-05-09, 14:35:26
Original geschrieben von Muh-sagt-die-Kuh
Cachevergrößerungen sind trivial, aber immer ein gutes Mittel zu Leistungssteigerung....so lange die Chipfläche trotz solcher Massnahmen immer noch kleiner ist als die des Vorgängers: Wieso nicht?

Natürlich sind die meisten Verbesserungen trivial! Aber dass sie der Precott überhaupt braucht sagt doch schon alles!

Muh-sagt-die-Kuh
2004-05-09, 14:36:39
Original geschrieben von p5
Warum versuchst du nicht, Intel davon zu überzeugen? :bonk:
Ehrlich, hunderte von schlauen Köpfen bei Intel stampfen den P4 ein, und hier wird er von manchen in den Himmel gelobt. Diese Diskrepanz kann nur auf Fanboy-Gehabe beruhen.Eine ziemlich billige Unterstellung.

Manche Leute sollten lernen, Probleme mit dem Herstellungsprozess vom Design des Kerns unterscheiden zu können...

Muh-sagt-die-Kuh
2004-05-09, 14:40:15
Original geschrieben von Magnum
Natürlich sind die meisten Verbesserungen trivial! Aber dass sie der Precott überhaupt braucht sagt doch schon alles! Wieso?

Der Kern selbst ist eine konsequente Weiterführung des P4 Designs: Leistung durch Taktfrequenz.

Die längere Pipe dient zum Erreichen dieses Ziels, die anderen Verbesserungen zum beseitigen der Nachteile dieser längeren Pipe.

Der Fehler war schlicht und einfach die Annahme, dass die Herstellungsprozesse mitskalieren würden.

Sunrise
2004-05-09, 14:54:31
[B]Original geschrieben von Muh-sagt-die-Kuh ..Die Prescott CPU selbst ist ziemlich beeindruckend. Eine 50% längere Core-Pipeline als ein Northwood und trotzdem Pi mal Daumen so schnell wie dieser. Ohne die Probleme mit dem Herstellungsprozess (die am Anfang der Entwicklung wohl nicht abzusehen waren) wäre die CPU für intel eine gute Sache: kleinerer Die in Kombination mit hohen Taktfrequenzen.
Stelle dir einmal einen Tualatin auf dieser Basis vor, ich gehe mit dir jede Wette ein, dass du damit jeden P4 wirklich alt aussehen lässt (der Takt mag kleiner sein, der DIE aber auch). Der P4 war von Anfang an nicht dass, was er hätte werden sollen. Das hat Intel zwar nachgeholt, lief aber in eine Sackgasse, von welcher Intel bereits seit einiger Zeit Kenntnis hat. Ich habe persönlich nichts von einer CPU, welche mir zeigt wie "ineffizient" gleichwertig sie zum Vorgänger ist, und das bei deutlich erhöhter Wärmeabgabe.

Beeindruckend sind Intel CPUs seit dem Pentium 2(3) sicher nichtmehr, das Wort beeindruckend erschließt sich mir nicht wirklich in diesem Zusammenhang.

Beeindruckend hieße für mich:

+deutlich schneller auch ohne spezielle Optimierungen
+mehr Speed durch zusätzlich spezielle Instruction-Register
+hinsichtlich Größe (physikalisch) kontrollierte Wärmeabgabe

p5
2004-05-09, 14:56:47
Original geschrieben von Muh-sagt-die-Kuh
Eine ziemlich billige Unterstellung.

Manche Leute sollten lernen, Probleme mit dem Herstellungsprozess vom Design des Kerns unterscheiden zu können...

Lächerlich - der Herstellungsprozess ist gleichwertig.
Auf dem Reißbrett ist die Eierlegendewollmilchsau schnell gezeichnet - sie in die Wirklichkeit umzesetzten dagegen nicht. ;)

Magnum
2004-05-09, 15:06:05
Original geschrieben von Muh-sagt-die-Kuh
Wieso?
Ganz einfach, weil der Prescott diese Verbesserungen braucht, damit er überhaupt so schnell wie ein (alter) Northwood ist!
Stell dir doch mal die Marketing-Abteilung vor, die die Ingenieure des Prescotts zusammenscheisst, weil Prescott-MHz nicht so gut sind wie Northwood-MHz!! Deswegen ja die Verbesserungen! Intel hätte durch ihre MHz = Leistung Philosophie sonst ihren Prescott nicht vertreten können!

HOT
2004-05-09, 15:22:42
Meiner Meinung nach ist das Prescott Desaster nicht auf den Fertigungsprozess allein zu schieben, sondern es zeigt eine Grenze im Design des Pentium4 auf, die erreicht wurde, weit bevor der Prozessor sie eigentlich erreichen sollte.
Intel hat ein halbes Jahr gebraucht um das Design zu optimieren und den Fertigungsprozess anzupassen und es kam trotzdem ein untragbares Ergebnis dabei heraus.
Ich denke, dass der P4 von Anfang an einen Sackgasse war, da er sich weg von den Optimum des Prozessordesigns bewegte, und ich denke, dass AMD hier ziemlich nah dran ist (deshalb keine Grundlegenden Änderungen der Anordnung und Funktionsweise am K8 im Vergleich zum K7), und auch der PPro-PM ziemlich nah dran war, ist unzweifelhaft (auch hier wurden nur realtiv wenige Änderungen an der Anordnung+Funktion der Recheneinheiten vorgenommen). Der P4 ist nicht aus einer "Evolution" hervorgegangen sondern ist viel eher eine "Mutation" gewesen, um Takt zu schinden, das rächt sich jetzt natürlich und war meiner Meinung nach von Anfang an zu vermuten (hab ich auch immer fleissig gepredigt und bin oft zurechtgewiesen worden :D).
Das eigentliche Problem nämlich ist, dass der Fertigungsprozess der "Evolution" unterliegt und sich nicht "erzwingen" lässt.


OT: Auch Sun ist einen ähnlichen Weg wie HP gegangen und hat den UltraSPARCV ja zugunsten eines Doppelkern USPARCIV gecancelt ;) (Sun hat auch keine Kohle mehr für derartige Experimente ;))

BlackBirdSR
2004-05-09, 16:38:17
Original geschrieben von p5
Lächerlich - der Herstellungsprozess ist gleichwertig.
Auf dem Reißbrett ist die Eierlegendewollmilchsau schnell gezeichnet - sie in die Wirklichkeit umzesetzten dagegen nicht. ;)

Dein Post ist lächerlich.
Schnell gezeichnet ist heutzutage gar nichts mehr, und auch damals schon nicht.
Das Design ist ein gigantischer Prozess, der Monate und Jahre in Anspruch nehmen kann.
Die Fertigung ist dann der letzte Schritt.. ein wichtiger, aber eben nur einer von vielen Schritten.

BlackBirdSR
2004-05-09, 16:50:10
Original geschrieben von HOT
Meiner Meinung nach ist das Prescott Desaster nicht auf den Fertigungsprozess allein zu schieben, sondern es zeigt eine Grenze im Design des Pentium4 auf, die erreicht wurde, weit bevor der Prozessor sie eigentlich erreichen sollte.
Intel hat ein halbes Jahr gebraucht um das Design zu optimieren und den Fertigungsprozess anzupassen und es kam trotzdem ein untragbares Ergebnis dabei heraus.
Ich denke, dass der P4 von Anfang an einen Sackgasse war, da er sich weg von den Optimum des Prozessordesigns bewegte

DIe Entwicklungsgeschichte von x86 ist voll dieser Irrtümer und gewagten Versuche.
Schau dir doch mal den Pentium an. Am Anfang erging es ihm fast schlimmer als den Pentium4.
Der PentiumPro überbot das nochmal um einiges. Trotzdem waren sie es, die uns dort hin brachten wo wir jetzt sind.

Der Pentium4 war eben wieder so ein Versuch, der anscheinend am Ende nicht so geklappt hat wie die Anderen.
Ich denke man sollte den P4 deswegen nicht so nieder machen. AMD und Intel haben eine Menge dadurch gelernt, man hat eine Menge neuer Ideen erschaffen und verwirklicht.
Jetzt macht man halt auf anderem Wege weiter. Ist ja deswegen keiner zu Schaden gekommen.

Locutus2002
2004-05-09, 18:22:50
Ich denke, dass es Intel schon länger klar war, dass man mit der Netburst-Architektur früher oder später in eine Sackgasse läuft. Warum sonst hat man den Pentium-M "erschaffen" (ich weiß, falscher Ausdruck, da er ja im Grunde nur eine Weiterentwicklung des PentiumIII ist, der selbst nur eine Weiterentwicklung war usw.)? Natürlich zunächst für den Notebook-Markt, für den ein Heizkraftwerk vom Schlage eines P4 (incl. Mobile-Variante) nahezu unbrauchbar ist. Aber das zeigt schon, dass man sich des Energie-Verbrauchspotenzials der Netburst-Architektur bewusst war. Und wenn ich nicht auf einen Irrtum reingefallen bin, dann sollte doch der Pentium-M den P4 später in abgewandelter Form (Nehalem-Core) sowieso ablösen, nur war das noch nicht SO früh geplant.

BlackBirdSR
2004-05-09, 18:46:55
Original geschrieben von Locutus2002
Und wenn ich nicht auf einen Irrtum reingefallen bin, dann sollte doch der Pentium-M den P4 später in abgewandelter Form (Nehalem-Core) sowieso ablösen, nur war das noch nicht SO früh geplant.

bis vor Kurzem wurde Nehalem noch als 8x86, also neue Architektur gehandelt.

Legolas
2004-05-09, 19:39:23
Original geschrieben von BlackBirdSR
DIe Entwicklungsgeschichte von x86 ist voll dieser Irrtümer und gewagten Versuche.
Schau dir doch mal den Pentium an. Am Anfang erging es ihm fast schlimmer als den Pentium4.
Der PentiumPro überbot das nochmal um einiges. Trotzdem waren sie es, die uns dort hin brachten wo wir jetzt sind.

Der Pentium4 war eben wieder so ein Versuch, der anscheinend am Ende nicht so geklappt hat wie die Anderen.
Ich denke man sollte den P4 deswegen nicht so nieder machen. AMD und Intel haben eine Menge dadurch gelernt, man hat eine Menge neuer Ideen erschaffen und verwirklicht.
Jetzt macht man halt auf anderem Wege weiter. Ist ja deswegen keiner zu Schaden gekommen.

Der Vergleich zumindest des PPro mit dem P4 hinkt aber. Schliesslich basierten die PII und PIII stark auf dem Pentium Pro. Beim P4 scheint es aber so zu kommen, daß er durch eine weiterentwickelte Version seines Vorgängers abgelöst wird, das ist imho ein gewaltiger Unterschied. Auch wenn ich einige Teile der PIV Architektur durchaus für interessant halte (Trace-Cache z.B.), so zeigt doch der Wechsel zum Prescott die Grenzen der Entwicklung. Schliesslich werden neue Fertigungsprozesse immer schwieriger zu beherrschen, weil man den physikalischen Grenzen immer näher kommt. Das ist jetzt zwar nicht Architekturabhängig, aber ein PIV like Design ist halt deutlich mehr auf kontinuierlich steigende Taktfrequenzen und damit immer kleinere Fertigungsprozesse angewiesen, wie ein pro Mhz leistungsstärkeres.

p5
2004-05-09, 21:46:17
Original geschrieben von BlackBirdSR
Dein Post ist lächerlich.
Schnell gezeichnet ist heutzutage gar nichts mehr, und auch damals schon nicht.
Das Design ist ein gigantischer Prozess, der Monate und Jahre in Anspruch nehmen kann.
Die Fertigung ist dann der letzte Schritt.. ein wichtiger, aber eben nur einer von vielen Schritten.

Muss ich das Wort METAPHER in grossen Buchstaben schreiben, damit sie auch als solche gesehen wird? Dachte, der Smiley würde genügen.
Sei es drum, der Herstellungsprozess ist entscheidend, denn wenn der Chip am Ende nicht gebacken werden kann, dann waren alle die Anstrengungen und Arbeit fast sinnlos. Wenn kein Produkt da oder mit solchen Mängel wie der Prescott - dann wird es nicht gekauft.
Ich frage mich, haltet ihr die Mitarbeiter von Intel für Idioten?

nordic_pegasus
2004-05-09, 22:05:25
Original geschrieben von p5
Ich frage mich, haltet ihr die Mitarbeiter von Intel für Idioten?

nicht für Idioten...
zum einen wollte Intel dem Marketing wegen auf "richtige MHz" setzen statt auf andere Konzepte.
Zum anderen ging man sicherlich davon aus, das man die Taktsteigerungen des Northwood mit den Prescott fortsetzen könne dank neuer Fertigungsweise und co.

Nur anscheinend musste Intel feststellen, dass dies so nicht klappt.

Ferner ist auch bei vielen Usern endlich Trend zu sehen, das leise und stromsparende PCs auch strebendswert sind. AMDs Cool'n'Quiet hat das Potential, ein wichtiges Kaufargument zu werden. Und da Intel mit dem Banias/Dothan was noch besseres zur Hand hat, finde ich den Schritt richtig und lobenswert. Ich hät lieber einen DualCore Pentium-M mit vielleicht insgesamt 80Watt und 2GHz als einen Prescott samt HTT mit 5GHz und 1xxWatt ;)

svenw
2004-05-10, 12:17:29
Ich frag mich nur wie ich mich fühlen würde wenn ich einen Pentium extreme gekauft hätte? Ich hätte einen Haufen Geld für ein teures (und angeblich gutes)System ausgegeben und jetzt sagt Intel mir, das ich einen "feuerspeienden Dinosaurier" gekauft habe respektive eine der teuersten E-Heizungen überhaupt.

Ich würde mir reichlich veralbert vorkommen.

Thowe
2004-05-10, 12:31:43
Derart überbewerten würde ich das nicht, bis zum Northwood war ja alles Ok.

HOT
2004-05-10, 15:06:29
Original geschrieben von Thowe
Derart überbewerten würde ich das nicht, bis zum Northwood war ja alles Ok.

Jep, das Northwood Leistung/Abwärme Verhätnis ist etwa das der Konkurrenz ;) Und Cache allein erzeugt so gut wie keine Wärme.

Gast
2004-05-10, 18:48:19
Die Mega abwärme des P4 Desiens hat leider zwei gute gründe.
1.Jedes Mhz erzeugt wärme
2.Desien

Hätte Intel das Desien des P4 stärker auf geringen Stromverbrauch ausgelegt,hätten sie wohl nicht dieses
wärme Problem.

Möglichkeiten wären gewesen
1.Von Kupfer auf Gold Leiter wechseln (Wiederstand)
2.Durch mehr CPU Layer Evizienz der Leiterbahnen steigern
3.Pro MHZ verhältnis anpassen (Northwood)war gut
4.Die CPU Fläche nicht zu klein werden lassen

Sicher währe so eine CPU teuer in der Herstellung aber INTEL ,kann auch mahl auf etwas Gewinn verzichten.

CrazyIvan
2004-05-10, 19:21:10
Original geschrieben von Gast
Die Mega abwärme des P4 Desiens hat leider zwei gute gründe.
1.Jedes Mhz erzeugt wärme
2.Desien

Hätte Intel das Desien des P4 stärker auf geringen Stromverbrauch ausgelegt,hätten sie wohl nicht dieses
wärme Problem.

Möglichkeiten wären gewesen
1.Von Kupfer auf Gold Leiter wechseln (Wiederstand)
2.Durch mehr CPU Layer Evizienz der Leiterbahnen steigern
3.Pro MHZ verhältnis anpassen (Northwood)war gut
4.Die CPU Fläche nicht zu klein werden lassen

Sicher währe so eine CPU teuer in der Herstellung aber INTEL ,kann auch mahl auf etwas Gewinn verzichten.

Desien = Design?

Hätte, wäre wenn.
1. Gold wäre wohl auch "geringfügig" teurer und ob es wirklich was bringen würde, wage ich auch nicht zu behaupten.
2. Bitte um Erklärung? Wieso wird die Effizienz der Leiterbahnen durch mehr Layer gesteigert.
3. IPC war ja absichtlich so schlecht, damit man höhere Taktraten erreichen konnte. Leider hatts halt doch net bis rauf zu 10 Ghz gereicht.
4. Was willst Du bitteschön dagegen tun? Entweder man verkleinert die Strukturgröße, oder man lässt es bleiben. Des weiteren würde das wohl nix an der Wärmeabstrahlung/cm² ändern, sondern nur zu mehr cm² mit noch mehr. Wärmeabstrahlung führen.

mrdigital
2004-05-10, 20:06:38
Original geschrieben von Gast
Die Mega abwärme des P4 Desiens hat leider zwei gute gründe.
1.Jedes Mhz erzeugt wärme
2.Desien

Hätte Intel das Desien des P4 stärker auf geringen Stromverbrauch ausgelegt,hätten sie wohl nicht dieses
wärme Problem.

Möglichkeiten wären gewesen
1.Von Kupfer auf Gold Leiter wechseln (Wiederstand)
2.Durch mehr CPU Layer Evizienz der Leiterbahnen steigern
3.Pro MHZ verhältnis anpassen (Northwood)war gut
4.Die CPU Fläche nicht zu klein werden lassen

Sicher währe so eine CPU teuer in der Herstellung aber INTEL ,kann auch mahl auf etwas Gewinn verzichten.

ui ein CPU Design-Experte lässt mal was vom Stapel, schön!

zu 1: Kupfer wird nicht in erster Line wegen des geringeren Widerstandes eingesetzt sondern wegen der geringeren Einflüsse durch Elektronenmigration. Zusätzlich kann man mit Kupfer kleinere Leiterbahnen bei gleichem Widerstand (wie bei Al) bauen, was eine zwingende Vorraussetzung für die Strukturverkleinerung unter 0,25µm war.

zu 2: wie meinen?

zu 3: was ist ein gutes, was ein schlechtes Pro MHz Verhältnis? Du meinst IPC? Da war der NW auch nicht der Hit (ausser bei SSE(2) Befehlen), was aber kein "Problem" darstellt, der P4 ist halt ein hochtouriger Motor, kein Drehmoment Wunder, um die allseits beliebten Autoverleiche zu bemühen.

zu 4: wo ist der Zusammenhang zwischen Die Fläche und Stromverbrauch? Oder meinst du, dass die Energiedichte bei einer grösseren Die niedriger ist und der Chip dan leichter zu kühlen wäre? (Wobei auch dass nur bedingt stimmt, denn mit einem Kupferkern Kühler kann man die Wärme eigentlich schnell genug wegschaffen.)

dildo4u
2004-05-10, 22:20:58
http://www.computerbase.de/news/hardware/prozessoren/intel/2004/mai/pentium_4_366_ghz_fsb1066/

3.66GHZ cpu kommt mit fsb 1066 na toll jetzt braucht man wieder neuen ram *ARG*

Liszca
2004-05-10, 22:40:08
Original geschrieben von Hamster
ja stimmt schon. allerdings sind (imo) die ratings für den otto-normalverbraucher nicht nazuvollziehen. er ist taktgewöhnt. dann doch lieber ein rating ala amd (nicht opteron)

und ein rating an einem rating messen?

das führt das ganze ade absurdum, (oder so' scheiss).

dass wäre wie wenn ich aus meilen nach belieben die geschwindigkeit in km/h angeben würde!

in diesem fall ist es halt andersrum, da kann intel seiner cpu ein rating von 9000 geben weil es in programm ... habe keine lust mehr das weiter auszuführen, ihr wisst worauf ich raus will.

einzigste einigermassen sinvolle leistungsangebe finde ich sind mflops oder dyrstones, aber für den normalen gebrauch zu unhandlich. also war die mhz zahl schon immer das eigentliche rating. <-- verrückt dass es so iss gelle!!!

Liszca
2004-05-10, 22:46:38
Original geschrieben von CrazyIvan
Desien = Design?

Hätte, wäre wenn.
1. Gold wäre wohl auch "geringfügig" teurer und ob es wirklich was bringen würde, wage ich auch nicht zu behaupten.
2. Bitte um Erklärung? Wieso wird die Effizienz der Leiterbahnen durch mehr Layer gesteigert.
3. IPC war ja absichtlich so schlecht, damit man höhere Taktraten erreichen konnte. Leider hatts halt doch net bis rauf zu 10 Ghz gereicht.
4. Was willst Du bitteschön dagegen tun? Entweder man verkleinert die Strukturgröße, oder man lässt es bleiben. Des weiteren würde das wohl nix an der Wärmeabstrahlung/cm² ändern, sondern nur zu mehr cm² mit noch mehr. Wärmeabstrahlung führen.

wer design so falsch schreibt den kann man bei solch einer diskussion nicht ernst nehemen?

Liszca
2004-05-10, 22:49:56
Original geschrieben von mrdigital
zu 4: wo ist der Zusammenhang zwischen Die Fläche und Stromverbrauch? Oder meinst du, dass die Energiedichte bei einer grösseren Die niedriger ist und der Chip dan leichter zu kühlen wäre? (Wobei auch dass nur bedingt stimmt, denn mit einem Kupferkern Kühler kann man die Wärme eigentlich schnell genug wegschaffen.)

er meint damit die (rechen)leistung pro watt, etwas anderes daraus zu schliessen ist unfug, auch wenn er doch was anderes meint.

Gast
2004-05-10, 23:54:07
Sory!
Rechtschreibe Fehler behalte ich mir vor.

In bezug auf die Elektroimigration von Gold im verhältnis
zu Kupfer gebe ich mrdigital recht.Geringere abwärme verringert aber auch diesen.

Durch eine Schicht mehr könnte man vieleicht die länge der
Leiterbahnen Intern verkürzen.(unterdurch stadt drum herum)
Kürzere Bahnen bessere Schaltzeiten.

Die Struckturgröße muß natürlich verkleinert werden kürzere
leiterbahnen,kleinere Einheiten Intern (weniger Strom)

Mein Desingn Schnitzer, hoffe niemand sonst macht Fehler.
Habe mit meinem Beitrag nur Möglichkeiten aufzeigen wollen
wenn alles so einfach währe hätten die von Intel bestimt nicht so zu kämpfen (mit der Verlustleistung)

mrdigital
2004-05-11, 11:05:56
Original geschrieben von Gast
Sory!
Rechtschreibe Fehler behalte ich mir vor.

In bezug auf die Elektroimigration von Gold im verhältnis
zu Kupfer gebe ich mrdigital recht.Geringere abwärme verringert aber auch diesen.

Durch eine Schicht mehr könnte man vieleicht die länge der
Leiterbahnen Intern verkürzen.(unterdurch stadt drum herum)
Kürzere Bahnen bessere Schaltzeiten.

Die Struckturgröße muß natürlich verkleinert werden kürzere
leiterbahnen,kleinere Einheiten Intern (weniger Strom)

Mein Desingn Schnitzer, hoffe niemand sonst macht Fehler.
Habe mit meinem Beitrag nur Möglichkeiten aufzeigen wollen
wenn alles so einfach währe hätten die von Intel bestimt nicht so zu kämpfen (mit der Verlustleistung)
Deine Rechtschreibung kann man mit recht als "kreativ" bezeichnen ;)

Wie dem auch sei...deine "Tipps an Intel" sind ein wenig naiv, meinste nicht? Oder bist du der Ansicht, dass Intel nicht auf die Idee kommen könnte, wenn es denn Sinn macht, einen weiteren Layer in die CPU einzubauen? Nur weil es einmal bei AMD etwas gebracht hat, heisst es nicht, dass dieses ein Allheilmittel wäre, das ist nunmal von der CPU Konstruktion abhängig.
Nun schreibst du dass die Strukturgrösse natürlich verkleinert werden müsse, im vorigen Posting meintest du, das dass Die nicht zu klein werden darf, was ist denn nu Sache?
Damit kleinere Ströme in der CPU (während der Schaltvorgänge, Leckströme mal aussen vor gelassen), muss man die Gatekapazitäten verringern und das geht vor allem durch die Verwendung anderer Dielektrika (Low K ist hier das Stichwort).

Crushinator
2004-05-11, 11:19:18
Original geschrieben von mrdigital
(...) Damit kleinere Ströme in der CPU (während der Schaltvorgänge, Leckströme mal aussen vor gelassen), muss man die Gatekapazitäten verringern und das geht vor allem durch die Verwendung anderer Dielektrika (Low K ist hier das Stichwort). Nicht daß ich hier den Oberschlaumeyer machen möchte, aber meinst Du nicht, daß auch Dein Tipp ungefähr genau so naiv sei? ;) Worauf ich hinaus möchte: Wenn's so einfach wäre, sprich Low K bei Intel massssssenfertigungstauglich wäre, hätte es Intel mit Sicherheit in Erwägung gezogen.

BTW: Ab mit Dir ins IRC, ich hab' noch was. :D

mrdigital
2004-05-11, 11:30:33
Original geschrieben von crushinator
Nicht daß ich hier den Oberschlaumeyer machen möchte, aber meinst Du nicht, daß auch Dein Tipp ungefähr genau so naiv sei? ;) Worauf ich hinaus möchte: Wenn's so einfach wäre, sprich Low K bei Intel massssssenfertigungstauglich wäre, hätte es Intel mit Sicherheit in Erwägung gezogen.

BTW: Ab mit Dir ins IRC, ich hab' noch was. :D

Ich vergebe keine Tipps an Intel, die können das schon selbst herausfinden ;) Ich hab auch nie gesagt, hey easy ab ins Lager, wo das gute Low-K Zeug rumsteht, das rühren wir dann mal schnell in unsere CPUs und fertig sind die 9GHz bei 17,5W. Intel wird schon wissen, wieso sie ihre CPUs so bauen, wie sie sie nunmal bauen. (Zumal Intels Dielektrika quasi Low-K sind...). Low-K ist ein Ansatz, die Gatekapazitäten zu verringern, ob das ne Wunderwaffe ist, hängt sicher von den restlichen Umständen ab.

GloomY
2004-05-11, 12:59:33
Äh...?! :???:

Korrigiere mich bitte, wenn ich falsch liegen sollte, aber soweit ich das verstanden habe, ist es eigentlich genau anders herum: Low-K Dielektrika werden zwischen den Leiterbahnen verwendet, um dort die Kapazität zu senken. Das führt zu schnelleren Wechseln zwischen den beiden Spannungspegeln.

Innerhalb des Transistors sieht es aber genau anders herum aus. Dort möchte man ja beim möglichst schnell möglichst viele Elektronen in den Kanal reinpumpen, damit der Transistor möglichste schnell schaltet. Dazu ist eine hohe Kapazität also wünschenswert, ergo auch ein hoher Dielektrizitätswert.

edit: http://www.heise.de/newsticker/meldung/41715

mrdigital
2004-05-11, 14:49:21
Original geschrieben von GloomY
Äh...?! :???:

Korrigiere mich bitte, wenn ich falsch liegen sollte, aber soweit ich das verstanden habe, ist es eigentlich genau anders herum: Low-K Dielektrika werden zwischen den Leiterbahnen verwendet, um dort die Kapazität zu senken. Das führt zu schnelleren Wechseln zwischen den beiden Spannungspegeln.

Innerhalb des Transistors sieht es aber genau anders herum aus. Dort möchte man ja beim möglichst schnell möglichst viele Elektronen in den Kanal reinpumpen, damit der Transistor möglichste schnell schaltet. Dazu ist eine hohe Kapazität also wünschenswert, ergo auch ein hoher Dielektrizitätswert.

edit: http://www.heise.de/newsticker/meldung/41715

wie immer ein beherztes jein ;)

Aus meinen Vorlesungen hab ich mitgenommen, dass die Gatekapazität eigentlich störend ist, idealerweise hätte ein Gate keine Kapazität, allerdings muss man eine gewisse Feldstärke erreichen, um den Kanal leitfähig zu machen (oder zu sperren, je nach Transitortyp) (man will übrigens keine Elektronen über das Gate in den Kanal "hineinpumpen", Gate und Kanal müssen elektrisch voneinander isoliert sein). Nun stellt sich aber das Problem ein, dass man bei einer Strukturverkleinerung auch die Gateoxidschicht dünner werden lässt, was die Durschlagspannung auch senkt, und wenn es einmal einen Durschlag gegeben hat, ist der Transitor zerstört. Das kann man nur mit Materialien verhindern die eine höhere Durchschlagspannung haben und/oder einer "Verdickung" der Gate-Kanal Isolierschicht (klassischerweise SiO2). Wenn man nun also "High-K" verwenden will, nimmt man es nicht um die Kapazität zu vergrössern (was ein unerwünschter Nebeneffekt ist), sondern um die Durschlagsapnnung nicht noch weiter sinken zu lassen. In sofern ist das sozusagen kein High-K (um die Kapazität zu steigern) sondern ein konstruktiver Zwang um den Transistor überhaupt noch funktionsfähig zu halten.
Ich bin mir nicht ganz sicher, aber ich behaupte einfach mal, dass ein Material, dass eine hohe Durschlagspannung hat auch eine hohe Dielektrizität aufweist ( Vdurch ~ Er )

dildo4u
2004-05-11, 17:44:23
http://www.x86-secret.com/articles/cpu/dothan/dothan-7.htm

Der Dothan is ne hammer cpu mit 2.4GHZ zieht er locker am A64 3400+ vorbei ohne jetzt auch nur ansatzweise für den desktop optemiert zu sein

Gast
2004-05-11, 17:58:18
Original geschrieben von dildo4u

Der Dothan is ne hammer cpu mit 2.4GHZ zieht er locker am A64 3400+ vorbei ohne jetzt auch nur ansatzweise für den desktop optemiert zu sein

Was optimiert man denn für Desktop: Takt? :freak: , Cache? :bonk:
Wie auch immer, ich freu mich riesig auf den Pentium III+ ;D
Ne, schade, der wird ja 555 oder so heißen :(
Ich hoffe, Intel baut die 64 Bit Erweiterung von Amd ein, auch wenn das bis zum Schluß nicht zugegeben wird.

dildo4u
2004-05-11, 18:02:36
Original geschrieben von Gast
Was optimiert man denn für Desktop: Takt? :freak: , Cache? :bonk:
Wie auch immer, ich freu mich riesig auf den Pentium III+ ;D
Ne, schade, der wird ja 555 oder so heißen :(
Ich hoffe, Intel baut die 64 Bit Erweiterung von Amd ein, auch wenn das bis zum Schluß nicht zugegeben wird. Vieleicht höhere takt weil die verlustleistung nich so wichtig wie beim notebook is?Unterstützung für hohen FSB?

Birdman
2004-05-11, 18:13:07
Original geschrieben von Gast
Was optimiert man denn für Desktop: Takt? :freak: , Cache? :bonk:
Wie auch immer, ich freu mich riesig auf den Pentium III+ ;D
Ne, schade, der wird ja 555 oder so heißen :(
Ich hoffe, Intel baut die 64 Bit Erweiterung von Amd ein, auch wenn das bis zum Schluß nicht zugegeben wird.
(einige) Stromsparmodi deaktivieren - denn das Umschalten zwischen verschiedenen Modi ist immer mit einigen Cycles verbunden und bei den stärkeren Modi sind es dann sogar mehr als nur "einige". Summa summarum bringt das vielleicht nur 1-3 Prozente, aber bei der Balkengeilheit heutzutage sollte man sowas nicht verachten.

Auch kann ich mir gut vorstellen, dass man im Desktop Bereich auf einen FSB800 setzt, was ein solches System nochmals beschleinigen würde.

BlackBirdSR
2004-05-11, 19:19:55
Dothan verliert nur ordentlich in Sachen FPU und SSE/2
Ein Xeon auf PM Basis wäre zwar als Server relativ gut geeignet, als Workstation jedoch nicht vergleichen mit einem K8.

Besonders interessant ist das SSE2 Dilemma. Bei gleichem Takt ist der K8 hier anscheinend um einiges schneller als Dothan. Der Schuss könnte dann für viele SSE2 optimierte Anwendungen (Lightwave, 3DSMAX, Encoding etc) nach hinten los gehen.

Tigerchen
2004-05-11, 19:54:25
Original geschrieben von BlackBirdSR
Dothan verliert nur ordentlich in Sachen FPU und SSE/2
Ein Xeon auf PM Basis wäre zwar als Server relativ gut geeignet, als Workstation jedoch nicht vergleichen mit einem K8.

Besonders interessant ist das SSE2 Dilemma. Bei gleichem Takt ist der K8 hier anscheinend um einiges schneller als Dothan. Der Schuss könnte dann für viele SSE2 optimierte Anwendungen (Lightwave, 3DSMAX, Encoding etc) nach hinten los gehen.

Mit anderen Worten, Intel steht am Abgrund. Na ja, wenn alle Stricke reißen können sie ja immer noch über den Namen verkaufen. Die treuen OEM's werden es schon richten.

BlackBirdSR
2004-05-11, 19:58:58
Original geschrieben von Tigerchen

Mit anderen Worten, Intel steht am Abgrund. Na ja, wenn alle Stricke reißen können sie ja immer noch über den Namen verkaufen. Die treuen OEM's werden es schon richten.


das habe ich nicht gesagt.

Gast
2004-05-11, 20:18:43
Solange Intel soviel Gewinn macht wie AMD an Umsatz, werden sie ganz sicher nicht am Abgrund stehen.

reunion
2004-05-11, 21:15:46
Original geschrieben von dildo4u
http://www.x86-secret.com/articles/cpu/dothan/dothan-7.htm

Der Dothan is ne hammer cpu mit 2.4GHZ zieht er locker am A64 3400+ vorbei ohne jetzt auch nur ansatzweise für den desktop optemiert zu sein

Ja, bei theorietests und Videodecodierungen, bei Spielen aber nicht...

Kakarot
2004-05-11, 22:33:52
Original geschrieben von reunion
[...] bei Spielen aber nicht...
links oder sonstiges, was die Aussage bestätigt?

Birdman
2004-05-12, 00:23:34
Original geschrieben von dildo4u
Der Dothan is ne hammer cpu mit 2.4GHZ zieht er locker am A64 3400+ vorbei ohne jetzt auch nur ansatzweise für den desktop optemiert zu sein
Wenn man nun aber bedenkt dass der 3400+ auch nur mit 2.2Ghz läuft, ist der Dothan doch noch nicht so der überflieger...evtl. können hier ein höherer FSB noch was reissen, doch bei eh schon 2Mb Cache wird dies nicht allzu viel bringen.

GloomY
2004-05-12, 01:58:49
Original geschrieben von Kakarot
links oder sonstiges, was die Aussage bestätigt? Es ist schon recht wahrscheinlich, wenn man sich die Architektur des Pentium-Ms anschaut (siehe dazu auch hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1598629#post1598629)).

Bei gleicher Taktfrequenz ist es recht schwierig bezüglich roher Rechenleistung gegen die ziemlich breite Architektur des Athlons anzukommen (3 ALUs, 3 FPUs, 3 AGUs, alle gepipelined, insgesamt unabhängige 9 Issue Ports). Sicherlich gibt es mehr Faktoren, die bei der Leistungsfähigkeit eine Rolle spielen, aber man kann schon mal einen ungefähren Trend ablesen.

Trotzdem bin ich sehr gespannt auf Benchs, denn der Pentium-M gefällt mir eigentlich ganz gut :)

pippo
2004-05-12, 10:51:38
Original geschrieben von dildo4u
http://www.x86-secret.com/articles/cpu/dothan/dothan-7.htm

Der Dothan is ne hammer cpu mit 2.4GHZ zieht er locker am A64 3400+ vorbei ohne jetzt auch nur ansatzweise für den desktop optemiert zu sein

Wie konnten die den Dothan denn überhaupt übertakten? Dachte es gibt noch kein Laptop mit Übertaktungsfunktion? Ausserdem ist das auch der erste 3400+ den ich sehe, der ganze 40sec für SuperPI benötigt. Wenn da mal nicht die Benches etwas schön gemacht wurden.

DiGiTaL
2004-05-14, 16:28:38
Etwas darf man nicht vergessen:

P-M 90nm = übertaktet 2.4 GHz
K8 130nm = nicht übertaktet 2.4 GHz

:bäh:

LordDeath
2004-05-14, 16:33:49
Original geschrieben von DiGiTaL
Etwas darf man nicht vergessen:

P-M 90nm = übertaktet 2.4 GHz
K8 130nm = nicht übertaktet 2.4 GHz

:bäh:

das ziel des P-M war bisher nie hohe taktfrequenzen zu erreichen. wenn intel will, würden die locker hochgetaktete versionen rausbringen statt low voltage versionen auf den markt zu schmeißen. und warum liegt dir soviel dran, andere mit deinem smilie zu provozieren? wieder so ein fanboy?

seahawk
2004-05-14, 16:56:13
Mehr bin auf die Auswirkungen auf die neune Chipsätze gespannt. Alderwood - wird es sich lohnen ??

mrdigital
2004-05-14, 18:41:35
Original geschrieben von DiGiTaL
Etwas darf man nicht vergessen:

P-M 90nm = übertaktet 2.4 GHz
K8 130nm = nicht übertaktet 2.4 GHz

:bäh:
und was ist die Aussage?

CrazyIvan
2004-05-14, 19:55:27
Original geschrieben von DiGiTaL
Etwas darf man nicht vergessen:

P-M 90nm = übertaktet 2.4 GHz
K8 130nm = nicht übertaktet 2.4 GHz

:bäh:

Etwas darf man nicht vergessen:

P-M ca. 35 Watt = übertaktet 2.4 GHz
K8 ca. 85 Watt = nicht übertaktet 2.4 GHz

:bäh:


So What?

Stone2001
2004-05-14, 22:09:09
Original geschrieben von Birdman
Wenn man nun aber bedenkt dass der 3400+ auch nur mit 2.2Ghz läuft, ist der Dothan doch noch nicht so der überflieger...evtl. können hier ein höherer FSB noch was reissen, doch bei eh schon 2Mb Cache wird dies nicht allzu viel bringen.
Da irrst du dich!
Ich würde mal spontan behaupten, das eine Verdopplung des FSB wesentlich mehr bringt, als eine Verdopplung des L2-Caches!

Gandharva
2004-05-15, 11:23:15
Original geschrieben von Birdman
Auch kann ich mir gut vorstellen, dass man im Desktop Bereich auf einen FSB800 setzt, was ein solches System nochmals beschleinigen würde.

wenn diese architektur in den desktop bereich einzug hält, denke ich das schon eher 1066mhz fsb angesagt sein werden. desweiteren ht oder sogar schon dual core UND Clackamas.

was höhere taktfrequenzen angeht, werden die, nach implementierung obiger features, eher schwer mit heutigen herstellungsprozessen erreichbar sein, da die chiparchitektur ja durch die implementierung dieser features komplexer wird.

Original geschrieben von LordDeath
das ziel des P-M war bisher nie hohe taktfrequenzen zu erreichen. wenn intel will, würden die locker hochgetaktete versionen rausbringen statt low voltage versionen auf den markt zu schmeißen. und warum liegt dir soviel dran, andere mit deinem smilie zu provozieren? wieder so ein fanboy?

so einfach wird das meiner meinung nach nicht, da der p-m vom design her nicht so sehr auf hohe taktfrequenzen ausgelegt ist. ganz im gegensatz zum p4.
wohl schon eher auf stromsparen - was mir persönlich sehr gut gefällt.

Original geschrieben von Tigerchen

Mit anderen Worten, Intel steht am Abgrund. Na ja, wenn alle Stricke reißen können sie ja immer noch über den Namen verkaufen. Die treuen OEM's werden es schon richten.


da müsste weitaus schlimmeres kommen. einen "kleinen" rückschlag kann intel finanziell locker kompensieren.

dildo4u
2004-05-15, 17:59:24
pentium4 ab den 1 august mit 64 bit


http://www.computerbase.de/news/hardware/prozessoren/intel/2004/mai/pentium_4_1_august_64_bit/

HOT
2004-05-15, 18:03:10
Original geschrieben von dildo4u
pentium4 ab den 1 august mit 64 bit


http://www.computerbase.de/news/hardware/prozessoren/intel/2004/mai/pentium_4_1_august_64_bit/


old news...

dildo4u
2004-05-15, 18:04:57
Original geschrieben von HOT
old news... wo? hab noch nix vom 1 august als start termin gehört

HOT
2004-05-15, 20:26:48
Ach mist, man sollte die news auch lesen :D sorry

GloomY
2004-05-16, 19:13:58
Original geschrieben von Kakarot
links oder sonstiges, was die Aussage bestätigt? Nachtrag: In der aktuellen C't wird für einen 2 GHz Dothan ein SPEC FP Base_2000 Ergebnis von 903 Punkten angegeben.

Man darf dabei auch nicht vergessen, dass die FP Werte im Gegensatz zu den Int Werten doch recht stark speicherlastig sind, und sich ein großer Cache dort immer gut auswirkt.

dildo4u
2004-05-19, 15:01:09
http://www.computerbase.de/news/hardware/mainboards/intel_systeme/2004/mai/pentiummmainboard_heimgebrauch/


"scheinen zumindest in Japan erhört worden sein. Dort präsentiert die Firma PFU ein Mainboard mit dem Sockel 479M und einem i855GME-Chipsatz im microATX-Formfaktor. Des Weiteren unterstützt die Platine den 400 MHz Frontside-Bus des Banias und des Dothans, so dass alle aktuell erhältlichen Pentium-M-Prozessoren auf dieser Platine ihren Dienst reibungslos verrichten sollten."

GloomY
2004-05-26, 23:47:37
In der comp.arch (http://groups.google.com/groups?hl=en&lr=&ie=UTF-8&oe=UTF-8&selm=fHcnc.46320%24dJ3.10372%40newssvr29.news.prodigy.com)-Newsgroup hat sich einer der P6 Entwickler über die Gründe des Tejas-Scheiterns ausgelassen. Seiner Meinung nach war der Wurm schon seit einiger Zeit drinnen, u.a. auch deswegen, weil der Tejas nicht so entwickelt wurde, dass er nativ x86 Code "verstand" und die Intanium VLIW Befehle emulieren konnte. (Wie der Tejas nun konkret wirklich entwickelt wurde, sagt er nicht, aber es klingt so, als ob es das Gegenteil gewesen sei, also intern EPIC und x86 nur noch als Emulation).

Es ist ja kein Geheimnis, dass Intel x86 loswerden will. Die ersten Versuche machte man ja mit dem i960, einem RISC Prozessor, der aber floppte. Danach entwickelte man mit HP zusammen EPIC. Der Tejas sollte anscheinend hierzu einen Übergang darstellen, indem er mit beiden ISAs einigermaßen gut rechen konnte.

Allerdings gab es natürlich auch noch andere Gründe, so auch das "Erscheinen" der Alpha Entwicklergruppe im Intel Konzern. Es war klar, dass diese die zukünftigen Entwicklung bedeutend bestimmen würden (es tut gut, dass die beste Prozessorschmiede der Welt nach ihrem Auf-/Verkauf den bisherigen Entwicklungslabors der anderen Angst und Schrecken einjagt ;) :D ).

Den Folgerungen, dass Netburst nicht tot sei, will ich mich aber auch anschliessen. Technologisch betrachtet hat der P4 einige innovative Dinge mitgebracht, so z.B. eben auch den Trace Cache. Diese Dinge werden in anderen Architekturen weiterleben, teilweise vielleicht sogar bei der Konkurrenz. ;)

edit: Die Meldung dazu auch von Xbit-Labs (http://www.xbitlabs.com/news/cpu/display/20040512052741.html).

ga.rp
2004-05-28, 00:10:36
schließt sich jemand meiner meinung an, daß intel einfach nicht absehen konnte, daß die netburst-architektur an "ungeplanten umständen" (leckströmen z.b.) scheitern würde?
ich glaube, wenn jetzt nicht die fertigungsprobleme gekommen wären, dann wäre netburst auf lange sicht amds strategie überlegen gewesen. - und genau aus diesem grund haben sies ja so gemacht, wie sies gemacht haben ;)

amd steht im moment sehr gut da, aber auch bei amd gibts offensichtlich auch probleme mit der 90 nm-technologie und offensichtlich tut sich auch amd schwer, weiter an der taktschraube zu drehen...
im endeffekt wird intel genug zeit (geld sowieso) haben, entsprechend zu reagieren. sie wären nicht der marktführer, wenn sie das nicht könnten. oder anders gesagt, die entscheidung zugunsten der p3-architektur IST bereits die reaktion.

bei intel gabs ende der 90er wohl ein paar verplante strategen... - wer jetzt den p3 gen himmel lobt, der hat vielleicht vergessen, daß da mit dem 1133er prozessoren wieder vom markt genommen werden mußten, daß die c't nen 866er es bekommen hat, daß sie doch bitte auf 1gig übertakten und gegen nen 1gig athlon testen sollten, daß da die geschichte mit rambus war... usw.
die weichen wurden in dem moment falsch gestellt, als der willamette und der i855 (wars doch?) als die performance-plattform eingeführt werden sollte und der p3 damit vernachlässigt wurde...

andererseits - man bedenke, wie gut die entwicklung von netburst "anfänglich" (bis hin zum northwood mit ht) funktioniert hat!
und mal ehrlich, im vergleich zum athlon xp ist intels "abwärmekonzept" inkl. heatspreader, automatischem runtertakten bei überhitzung, funktionierendem idle-mode und bestimmt "etwas" weniger zerstörten dies haushoch überlegen ;)

ilPatrino
2004-05-28, 00:41:51
verstehe ich das richtig...der tejas-entwicklungsabteilung sind wichtige designer davongelaufen, weil sich die marketingabteilung rausgenommen hat, das design sowie die marschrichtung zu diktieren?! und es wurden keine konsequenzen gezogen? intel ist weiter am kommunismus dran, als die ddr es jemals war:O

ansonsten hoffe ich, daß die alpha-ings dem itanicum auf die sprünge helfen - dumme frage von nem völlig unbeleckten...wären bandbreitensparende maßnahmen - code compression? - machbar und sinnvoll? hyper-transport links wie bei amd dürften die skalierung in multi-prozzessorsystemen doch verbessern, oder? hat intel die rechte übernommen, oder hat die amd damals gekauft?

CrazyIvan
2004-05-28, 06:47:58
Original geschrieben von ilPatrino
verstehe ich das richtig...der tejas-entwicklungsabteilung sind wichtige designer davongelaufen, weil sich die marketingabteilung rausgenommen hat, das design sowie die marschrichtung zu diktieren?! und es wurden keine konsequenzen gezogen? intel ist weiter am kommunismus dran, als die ddr es jemals war:O

Nunja, genau genommen ist intel weiter vom Kommunismus entfernt, als dies die DDR jemals war. Schließlich war diese nie ein großer Fan von Werbung.
Slogan der damaligen DDR "Telekom": "Fasse Dich kurz" ;)


hyper-transport links wie bei amd dürften die skalierung in multi-prozzessorsystemen doch verbessern, oder? hat intel die rechte übernommen, oder hat die amd damals gekauft?

AMD hat HT entwickelt, diesen aber allen interessierten Unternehmen als offenen Standard zur Verfügung gestellt. intel wird wohl eher den Teufel tun, HT zu implementieren. Man tat sich mit CT (iAMD64) schon schwer genug, eine Technologie des kleinen Konkurrenten zu übernhemen.

@ GloomY
Danke für die Infos. Witzig, dass davon bis jetzt noch keiner was wusste bzw. nirgends drüber geschrieben wurde.
Frage mich nur, wie performant EPIC mit den eher winzigen Caches des Tejas gewesen wäre.

@ ga.rp
Full ACK.
Trotzdem frage ich mich immer noch, ob die Probleme wirklich so unvorhersehbar waren. Seit 130nm hat man doch nun schon mit Leckströmen zu kämpfen. Kann mir keiner erzählen, dass das bei ersten Feldversuchen mit 90nm niemandem aufgefallen sein will. Und wie wirds erst bei 65nm....

(Es war der i850, der i855 ist Bestandteil von Centrino)

BlackBirdSR
2004-05-28, 07:15:01
Original geschrieben von CrazyIvan
zu übernhemen.

@ GloomY
Danke für die Infos. Witzig, dass davon bis jetzt noch keiner was wusste bzw. nirgends drüber geschrieben wurde.
Frage mich nur, wie performant EPIC mit den eher winzigen Caches des Tejas gewesen wäre.

@

Gerüchte darüber gabs ja z.B schon vor 2 Jahren.

Little is known about Tejas, which is the next incarnation of the Pentium 4 line. Tejas seems to be scheduled to launch in the first half of 2004. At that time, the majority of workstation users will probably need more than 4 GB, so Intel needs to do something to break the 4 GB barrier. Relying on Deerfield alone seems very risky. At first I could not believe my eyes when some of our sources indicated IA-64 support within Tejas!

But then I read the CV of Andy Glew, the Intel Engineer, a bit further:


"Tejas - evaluated support for IA64 within a mainstream IA32 processor."
Tejas is too far off to speculate whether or not Intel would integrate IA-64 in a 32-bit x86 CPU, let alone how. But it is clear that Intel is very serious about migrating to IA-64. Furthermore, Tejas is rumored to feature a faster FSB (1200 MHz?). However, considering all the differences between x86 and IA-64, the chances of a true hybrid processor seem remote at best.



http://www.aceshardware.com/read.jsp?id=50000243

ilPatrino
2004-05-28, 11:06:42
Original geschrieben von CrazyIvan
...
AMD hat HT entwickelt, diesen aber allen interessierten Unternehmen als offenen Standard zur Verfügung gestellt.

ups, dann hatte ich da was falsch im hinterkopf. irgendwie dachte ich, daß alpha da ihre finger mit im spiel gehabt hätten

...
Frage mich nur, wie performant EPIC mit den eher winzigen Caches des Tejas gewesen wäre.



als proof-of-concept hätte es erstmal funktioniert, mehr glaube ich nicht...obwohl der tejas mit höherer bandbreite angetreten wäre - vielleicht hätte man noch 3rd lvl cache langsamer (1/2 cpu-takt?), aber billiger auf der cpu oder nahe dran platziert, um kosten und abwärme gering zu halten...und der software emulation layer der itanics ist doch schon mal ein guter hinweis auf möglichen speed

Bokill
2004-05-28, 11:44:58
@ilPatrino

Spätestens seit dem Aufkauf des Geode-Wissens könnte AMD entsprechnde CPU-Nahe Lösungen schaffen.

In dieser Hinsicht war IBM schon sehr früh mit Marktlösungen am Markt.

Siehe auch dort. Steigt AMD in Vermarktung von Thin Clients und Set-Top-Boxen ein? Antwort? (http://www.planet3dnow.de/vbulletin/showthread.php3?s=&postid=1111174#post1111174)

MFG Bokill

Tigerchen
2004-05-28, 15:35:22
Original geschrieben von ilPatrino
verstehe ich das richtig...der tejas-entwicklungsabteilung sind wichtige designer davongelaufen, weil sich die marketingabteilung rausgenommen hat, das design sowie die marschrichtung zu diktieren?! und es wurden keine konsequenzen gezogen? intel ist weiter am kommunismus dran, als die ddr es jemals war:O

ansonsten hoffe ich, daß die alpha-ings dem itanicum auf die sprünge helfen - dumme frage von nem völlig unbeleckten...wären bandbreitensparende maßnahmen - code compression? - machbar und sinnvoll? hyper-transport links wie bei amd dürften die skalierung in multi-prozzessorsystemen doch verbessern, oder? hat intel die rechte übernommen, oder hat die amd damals gekauft?


Das die Maketingstrategen und BWL-Fuzzis in den Betrieben die Macht übernommen haben ist ein ganz großes Problem. Es sollten eigentlich Praktiker das Sagen haben die wissen was machbar ist.

Tigerchen
2004-05-28, 15:41:00
Original geschrieben von BlackBirdSR
Gerüchte darüber gabs ja z.B schon vor 2 Jahren.

Little is known about Tejas, which is the next incarnation of the Pentium 4 line. Tejas seems to be scheduled to launch in the first half of 2004. At that time, the majority of workstation users will probably need more than 4 GB, so Intel needs to do something to break the 4 GB barrier. Relying on Deerfield alone seems very risky. At first I could not believe my eyes when some of our sources indicated IA-64 support within Tejas!

But then I read the CV of Andy Glew, the Intel Engineer, a bit further:


"Tejas - evaluated support for IA64 within a mainstream IA32 processor."
Tejas is too far off to speculate whether or not Intel would integrate IA-64 in a 32-bit x86 CPU, let alone how. But it is clear that Intel is very serious about migrating to IA-64. Furthermore, Tejas is rumored to feature a faster FSB (1200 MHz?). However, considering all the differences between x86 and IA-64, the chances of a true hybrid processor seem remote at best.



http://www.aceshardware.com/read.jsp?id=50000243


Interessant. Sind also all die Anti 64Bit Aussagen die Endorphine hier abgelassen hat nur Nebelbomben gewesen. Die wollten IA64 tatsächlich auf den Dektop bringen. Das wäre wohl das Ende der Konkurrenz gewesen. AMD hätte ja ganz von vorne beginnen müßen. Oder seh ich das falsch?

ilPatrino
2004-05-28, 16:17:23
Original geschrieben von Tigerchen

Interessant. Sind also all die Anti 64Bit Aussagen die Endorphine hier abgelassen hat nur Nebelbomben gewesen. Die wollten IA64 tatsächlich auf den Dektop bringen. Das wäre wohl das Ende der Konkurrenz gewesen. AMD hätte ja ganz von vorne beginnen müßen. Oder seh ich das falsch?


insofern war es für amd anscheinend lebensnotwendig, ein eigenes, zu 32bit kompatibles 64bit-system zu etablieren. und das so schnell wie möglich, um eine entscheidung zu erzwingen, solange die konkurrenz noch nicht in die puschen gekommen ist. für amd wäre es mit sicherheit eine mittlere katastrophe gewesen, wenn sich ia64 durchgesetzt hätte.

ich glaube langsam, daß intel sämtliche konzepte über bord geworfen hat, als amd mit der ankündigung für amd64 rauskam. seitdem wird nur noch operativ reagiert, konzeptlos und von technischen restriktionen eingeengt. meine definition von panik...

dazu paßt auch, daß die entwickler kaum mehr einfluß auf die entwicklung haben, sondern nur noch bauen dürfen. mal sehen, wann sie sich wieder fangen...

dildo4u
2004-06-05, 19:16:53
Intel gibt Sockel775 für 115watt frei!

http://www.computerbase.de/news/hardware/prozessoren/intel/2004/juni/heisser_115_watt_36_ghz/

Unglaublich wollte intel nicht die verlustleistung reduzieren? :@#$!%:

Thowe
2004-06-05, 20:09:23
Original geschrieben von dildo4u
Intel gibt Sockel775 für 115watt frei!

http://www.computerbase.de/news/hardware/prozessoren/intel/2004/juni/heisser_115_watt_36_ghz/

Unglaublich wollte intel nicht die verlustleistung reduzieren? :@#$!%:

Sie werden auch nicht anderes machen können als sie so gering wie möglich zu halten, allerdings müssen sie auch bedenken, das bei gesteigertem Takt auch die Verlustleistung höher wird. Sollte AMD recht starke CPUs in nächster Zeit bringen, dann ist Intel förmlich gezwungen schnell eigene nachzuliefern. Gut wenn die TDP dann recht hoch angesetzt war.

dildo4u
2004-06-05, 20:12:42
Original geschrieben von Thowe
Sie werden auch nicht anderes machen können als sie so gering wie möglich zu halten, allerdings müssen sie auch bedenken, das bei gesteigertem Takt auch die Verlustleistung höher wird. Sollte AMD recht starke CPUs in nächster Zeit bringen, dann ist Intel förmlich gezwungen schnell eigene nachzuliefern. Gut wenn die TDP dann recht hoch angesetzt war. jo aber schon der 3.6Ghz also so zu sagen das 1 modell für den neuen sockel wird 115TDP haben

Thowe
2004-06-05, 20:17:57
Original geschrieben von dildo4u
jo aber schon der 3.6Ghz also so zu sagen das 1 modell für den neuen sockel wird 115TDP haben

Bleibt nicht aus, er wird wegen dem "Zeitdruck" sicherlich recht wenig optimiert sein. Es wird sich zeigen ob es da in naher Zukunft was besseres gibt. Irgendwie bin ich allerdings etwas skeptisch was dies anbelangt, für Intel würde es reichen, wenn sie die 4Ghz mit 115W hinbekommen, das halte ich für machbar.

dildo4u
2004-06-05, 20:21:37
unmöglich sag ich mal wir reden von 125Mio transitoren bei 4GHZ selbst das neue presoctt stepping mit 0.90NM fertigung
hat ca 20watt höheres TDP als der alte Northwood da müssten schon wunder passiern wenn intel unter 150watt bleibt bei 4ghz

http://www.theinquirer.net/images/articles/stink2.jpg

Sowas wird ja zur zeit nicht aus spass an der freude entwickelt

http://www.theinquirer.net/?article=16247
prescoot kühler von asustek

Thowe
2004-06-05, 20:27:46
Original geschrieben von dildo4u
... wenn intel unter 150watt bleibt bei 4ghz

Der 4 Ghz würde z.Z. ~ 140W brauchen, nicht geschätzt, die Information habe ich von jemanden der es sicher weiss. Halte ich mit einigen Optimierungen durchaus für möglich das wieder deutlich nach unten zu schrauben. Die 115W sollten also drin sein.

BlackBirdSR
2004-06-06, 17:46:56
Original geschrieben von Thowe
Der 4 Ghz würde z.Z. ~ 140W brauchen, nicht geschätzt, die Information habe ich von jemanden der es sicher weiss. Halte ich mit einigen Optimierungen durchaus für möglich das wieder deutlich nach unten zu schrauben. Die 115W sollten also drin sein.

ja 140 und 115 TDP..
aber was ist mit den peakwerten?

Das ist sowas von lächerlich... zumal Intel die TDPs ja wegen thermal throttling auch noch passend korrigieren kann.

Gast
2004-06-06, 20:34:24
Der 4 GHz P4 läuft ca. 2/3 seiner Zeit mit "echten" 4 GHz ;D

LOCHFRASS
2004-06-07, 01:47:12
Ist zwar etwas OT, aber kennt hier jemand einen Händler außer Systerra (die wollen knapp 400€ mit Versand haben), der das RadiSys LS855 führt?