PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Athlon 64 doch erst 2004?


Godlike
2003-03-18, 18:54:31
http://www.gamestar.de/news/hardware/11980/

AMD hatte erst kürzlich den neuen Prozessor von März auf September verschoben. Laut Presseprecher Jan Gütter gibt es die CPU am September dann aber tatsächlich zu kaufen. Doch im Gespräch mit GameStar verrieten zwei taiwanesiche Grafikkarten- und Mainboard-Hersteller, dass AMDs neues Flaggschiff Athlon 64 nicht im September, sondern erst Anfang 2004 in breiter Masse erhältlich sein wird. Angeblich gäbe es Probleme mit der sogenannten SOI-Technologie, die bis zu 30 Prozent höhere Taktraten als das herkömmliche Fertigungsverfahren ermöglichen soll.

Gamestar is sicha net de verlässlichste Quelle, aber wenns stimmt, dann hat der Prescott beim Barton verblasen viel Spaß.

Tiamat
2003-03-18, 19:00:57
Habs auch grad gelesen.
Vor ein paar Tagen hab ich ein Interview von Giga mit Jan Gütter gesehen,bei dem er gesagt hat Ende 2003.
Könnte also durchaus realistisch sein.
Gruß
Tiamat

Spake
2003-03-18, 19:03:51
AMD und vaporware
nicht grad gute werbung für AMD
eigentlich schade
bei einer guten performance und anderen interessanten lösungen hätte mich dass zu AMD bekehren können(nicht ernst gemeint ;) )

Godlike
2003-03-18, 19:04:19
Originally posted by Tiamat
Habs auch grad gelesen.
Vor ein paar Tagen hab ich ein Interview von Giga mit Jan Gütter gesehen,bei dem er gesagt hat Ende 2003.
Könnte also durchaus realistisch sein.
Gruß
Tiamat

Hm, i versuchs wirklich mal neutral (wahrscheinlich gelingts ma e net):

Der Barton mag ja schnell sein, bis 3,4GHz laufen, und mit einem Northwood mit FSB533 und RDRam mithalten können.
Aber i kann ma beim besten willen net vorstellen, dass er gegen an 3,4GHz Prescott mit FSB800 1MB L2Cache auf einem Canterwood Motherboard mithalten kann.

Ausserdem will Intel 2004 auf 0,09 umstellen, und bis dahin hats AMD gerade mal auf 0,13 gschafft?

Net grad rosige Aussichten, die CPU Preise werden sicha steigen, wenns so kommen sollte.

Birdman
2003-03-18, 20:17:05
war der Athlon64 nicht (ganz) ursprünglich für Anfang 2002 vorgesehen?
Das Ding hat ja jetzt schon die GeforceFX übertrumpft was die Verspätung anbelangt...und noch ist die CPU nicht in Sicht.

Godlike
2003-03-18, 20:20:23
Originally posted by Birdman
war der Athlon64 nicht (ganz) ursprünglich für Anfang 2002 vorgesehen?
Das Ding hat ja jetzt schon die GeforceFX übertrumpft was die Verspätung anbelangt...und noch ist die CPU nicht in Sicht.

2002 hätt er e ziemlich alles verblasen, aber 2004.... naja
Wenn er auch noch teuer wird (irgendwie müssn ja die entwicklungskosten wieder rein) dann gute nacht.

Unregistered
2003-03-18, 21:01:14
Wird wohl dann ein ruhiges Prozessor Jahr werden!

Intel hat kein Interesse, die Taktraten hoch zu treiben. AMD kann nicht. Da wird sich "wenig" bewegen im Jahr 2003....

Godlike
2003-03-18, 21:21:08
Originally posted by Unregistered
Wird wohl dann ein ruhiges Prozessor Jahr werden!

Intel hat kein Interesse, die Taktraten hoch zu treiben. AMD kann nicht. Da wird sich "wenig" bewegen im Jahr 2003....

Leider, dafür gehts bei den Grafikkarten rund...

HOT
2003-03-18, 22:57:55
Es ist eigentlich nur wichtig, dass der Hammer spätestens eitgleich mit dem Prescott erscheint. Ich hoffe doch mal stark, dass sie das schaffen. Ich bin da Optimist :)

Unreal Soldier
2003-03-19, 01:46:20
Also was die LAmestar da über Athlon64-baby labbert ist schwasin. Wenn AMD den Athlon64 erst für 2004 plant denk ich net dass sie noch dieses Jahr mit ihrem Barton über die Runden kommmen. ICh bin mir sicher der Athlon64 kommt am September sonst sehen wir noch eine grosse Pleite in der IT-Branche die die von 3dfx ähnelt.

Legolas
2003-03-19, 01:53:23
Originally posted by Unreal Soldier
Also was die LAmestar da über Athlon64-baby labbert ist schwasin. Wenn AMD den Athlon64 erst für 2004 plant denk ich net dass sie noch dieses Jahr mit ihrem Barton über die Runden kommmen. ICh bin mir sicher der Athlon64 kommt am September sonst sehen wir noch eine grosse Pleite in der IT-Branche die die von 3dfx ähnelt.

Naja, Intel wird wohl alles daran setzen, daß AMD nicht pleite geht. :D

YfOrU
2003-03-19, 08:26:49
Jup ist so, denn wenn AMD pleite gehen würde
hätten sie ein monopol. Und dann kommt das
Kartelamt und fängt wieder an zu stochern.
Das dass teuer wird sieht man an MS.
Denn bis jetzt sind die Untersuchungen
der Kartelämter gegen intel immer daran
gescheiter, das Intel durch AMD nachweisen
konnte, dass sie kein monopol haben.

Der Athlon 64 ist nicht so wichtig für AMD
wie der Opteron und der ist ab ca April/Juni
erhältlich. Mit dem Opteron lässt sich momentan
mehr Geld verdienen, da die Gewinnspanne einfach
viel grösser ist bei Server cpus.
Der Barton hält auch noch locker durch bis der
Prescott erscheint weil der Northwood core
langsam am Ende ist. (zu hohe Leistungsaufnahme)
Und wann der Prescott in massen verfügbar ist,
ist eine andere frage. Das hängt von der Kapazität
und Ausbeute der 0.09µ Fertigung ab. Da bin ich mir
relativ sicher, dass es vor Anfang 2004 keine
grossen stückzahlen gibt.

Pussycat
2003-03-19, 10:27:09
Wo ist's für Microsoft teuer geworden?

Endorphine
2003-03-19, 10:40:37
Ein Monopol ist nichts rechtswidriges. Die Marktgewalt zum unlauteren Wettbewerb auszunutzen schon eher. Das hat Intel bis jetzt noch nicht getan.

Der Vergleich mit Microsoft ist geradezu absurd. MS verwendet Windows als Hebel, um das Monopol auf andere Märkte auszuweiten. Intel war bis jetzt noch nie in Verdacht geraten, ähnliches zu unternehmen.

Leider finde ich das Zitat nicht mehr, wo Intel sich um 1980 herum über die Methoden Microsoft lustig machte.

SShock3
2003-03-19, 10:43:17
Kann mir mal jemand verraten warum diese News ausgerechnet als erstes bei Gamestar erscheint.Woanderst hab ich bisher noch nix davon gelesen.

Endorphine
2003-03-19, 11:23:41
CeBit rumors... :bäh:

Unregistered
2003-03-19, 11:25:57
Originally posted by Endorphine
Ein Monopol ist nichts rechtswidriges. Die Marktgewalt zum unlauteren Wettbewerb auszunutzen schon eher. Das hat Intel bis jetzt noch nicht getan.

Der Vergleich mit Microsoft ist geradezu absurd. MS verwendet Windows als Hebel, um das Monopol auf andere Märkte auszuweiten. Intel war bis jetzt noch nie in Verdacht geraten, ähnliches zu unternehmen.

Leider finde ich das Zitat nicht mehr, wo Intel sich um 1980 herum über die Methoden Microsoft lustig machte.
ausser die liebe sockel 7 und super sockel 7 zeit

Unregistered
2003-03-19, 11:29:22
Und Tschüss, AMD. Tut mir zwar leid, aber jetzt habe ich die Hoffnung ganz aufgegeben.

zeckensack
2003-03-19, 12:22:42
Danke Gamestar :eyes:

Eusti
2003-03-19, 12:51:40
Originally posted by Endorphine
Ein Monopol ist nichts rechtswidriges. Die Marktgewalt zum unlauteren Wettbewerb auszunutzen schon eher. Das hat Intel bis jetzt noch nicht getan.

Der Vergleich mit Microsoft ist geradezu absurd. MS verwendet Windows als Hebel, um das Monopol auf andere Märkte auszuweiten. Intel war bis jetzt noch nie in Verdacht geraten, ähnliches zu unternehmen.

Leider finde ich das Zitat nicht mehr, wo Intel sich um 1980 herum über die Methoden Microsoft lustig machte. Ist im Prinzip korrekt. Intel versucht AMD einfach durch Leistung zu besiegen und nutzt die Prozessormacht nicht so augenscheinlich wie Microsoft.

Was Intel jedoch an so einem Monopol stören könnte, wäre die Tatsache, das man es Firmen wie NVidia und Via dann wahrscheinlich erlauben muss, ohne Lizenzgebühren Chipsätze zu produzieren. Es wird sicherlich schwierig zu erklären, warum Fremdfirmen keine Prozessor-kompatibelen Chipsätze bauen dürfen. Die reine Argumentation mit dem Busprotokoll dürfte da auf wackeligen Füssen stehen.

Wenn man NVidia mit seinen ganzen Chipfabriken (TSMC und UMC sollten da schon über ein dutzend haben) aber erst mal erlauben muss, das diese Umfangreiche Erfahrungen mit PC-Chipsätzen sammeln und diese auch Pentium-kompatiebel bauen dürfen, dann könnte das böse Folgen für Intel haben.

Man stlle sich nur mal folgendes vor: NVidia übernimmt mit seinen Chipsätzen die totale Kontrolle über den Chipsatzmarkt (gibt ja nur noch Intel als Hersteller und NVidia baut bessere Grafiklösungen). Dann designt NVidia einen Prozessor, welcher 100% auf den eigenen Chipsatz abgestimmt ist. Die Treiber der Chipsätze werden nur noch auf den NVidia Prozessor optimiert. Gleichzeitig überschwemmen TSMC und UMC den Markt aus Ihren Fabriken mit Prozessoren.

Ich denke, da ist Intel mit AMD und seinen beiden Fabriken echt besser aufgehoben, weil das Risiko kalkulierbar ist (AMD hat gar nicht die Kapazität genügend zu produzieren) und man bisher sehr gute Erfahrungen mit AMD hatte (bislang war AMD noch niemals über einen längeren Zeitraum im High-End konkurenzfähig).

robbitop
2003-03-21, 09:40:16
hat Intel nicht viel mehr Fabriken???

AMD hat nur eine die wirklich noch aktuelle CPUs produziert.

SOI wollen sie mithilfe von IBM serienreifbekommen.

bisher plagten den K8 viele kleine Bugs, SOI und sie durften ab und zu thermisch redesignen.
Hört sich nach einem sehr gut bekannten und erprobten und relativ bugfreiem System an. Denn Protoypen gibt es schon seit laaaangem.

Aber unter dem SOI Problem leidet die 0,09µ entwicklung nicht.
Diese ist nach Roadmap Anfang 2004 und praktisch dann sicher auch bald danach von AMD im Griff.

Sie müssen halt mit ProMhz LEistung dagegen halten.
Das Problem bei AMD ist nicht, dass die CPUs nicht schnell genug sind, sondern dass sie nicht im stande sind, den Bedarf mit schnellen CPUs im Markt zu decken. Denen wird jede CPU aus den händen gerissen, sie kommen mit den HighEnd CPUs einfach nicht nach...und die CPUs von AMD waren bisher viel zu billig (bis auf die jetzigen Spitzenmodelle)...


oder wie seht ihr das?

BlackBirdSR
2003-03-21, 10:25:04
Ich denke, dass AMD entweder Layout oder Prozesstechnische Probleme mit dem K8 hat/hatte.

Beim Layout ist soetwas natürlich besonders übel.
Den Gerüchten zufolge, ist AMD nicht in der Lage die CPUs hoch genug zu takten, was eigentlich perfekt zu einem SOI basierten Problem passt.

Was mich sehr! gewundert hat:
angeblich nutzt der Athlon64 1MBL2 aka Clawhammer, den exakt gleichen Core wie die Opterons aka Sledgehammer.
Nur die HT Links sind deaktiviert und der 2te Speichercontroller (je nachdem ob Clawhammer nun dualchannel bekommt).

Da diese CPUs mit 160-180mm^2 Die Fläche nicht gerade klein sind, AMD nur 200mm Wafer nutzt, und SOI noch dazu die Ausbäute verschlechtert wunder mich das doch sehr.
Allerdings hätte AMD so die Möglichkeit, die niederen Clawhammer als vollwertige Opterons zu verkaufen.

Hui!
2003-03-21, 10:34:56
Originally posted by BlackBirdSR
Allerdings hätte AMD so die Möglichkeit, die niederen Clawhammer als vollwertige Opterons zu verkaufen.
Da hätten wir ja auch unseren Grund für die Verzögerung des Athlon64.
Mein Tip: Kein 1MB L2 Cache Clawhammer in 0,13, dafür Ende des Jahres relativ günstige 141er und 142er Opterons und dazugehörige Consumer Boards.

robbitop
2003-03-21, 21:10:14
warum nehmen die keine 300mm Wafer?

naja spätestens der 0,09µ Prozess dürfte auch die ökonomischen Probs beseitigen...und die takttechnischen...

Eusti
2003-03-21, 21:30:50
Originally posted by robbitop

warum nehmen die keine 300mm Wafer?Weil AMD nur zwei Fabriken (eine alte und eine ganz alte) hat und momentan echt kein Geld da ist, eine dieser beiden Fabriken zu modernisieren. Intel baut jedes Jahr 3-5 Fabriken komplett neu auf, bzw. um. TSMC und UMC übrigens auch, aber die haben ja auch noch Geld.

Ist irgendwie sowiso ein Teufelskreis. AMD hat keine guten Produkte, deshalb hat man kein Geld, sich gute Fabriken zu bauen, deswegen werden die Produkte in Zukunft noch schlechter (im Vergleich) und man hat noch weniger Geld, womit man ... (ein Teufelskreis ebend)

Unregistered
2003-03-22, 11:22:24
Originally posted by Eusti
Weil AMD nur zwei Fabriken (eine alte und eine ganz alte) hat und momentan echt kein Geld da ist, eine dieser beiden Fabriken zu modernisieren. Intel baut jedes Jahr 3-5 Fabriken komplett neu auf, bzw. um. TSMC und UMC übrigens auch, aber die haben ja auch noch Geld.

Ist irgendwie sowiso ein Teufelskreis. AMD hat keine guten Produkte, deshalb hat man kein Geld, sich gute Fabriken zu bauen, deswegen werden die Produkte in Zukunft noch schlechter (im Vergleich) und man hat noch weniger Geld, womit man ... (ein Teufelskreis ebend) Ja Ne so kann man das auch nicht sehen, die erste GHz cpu kam nicht von INTEL obwohl sie de besseren Produktion Möglichkeiten hatten!
Ich weis das AMD vor INTEL Kupfer benutzte, das zeigt aber auch das die Optimierung eines Prozesses sehr viel bringen kann!

Endorphine
2003-03-22, 11:27:50
Originally posted by Eusti
Weil AMD nur zwei Fabriken (eine alte und eine ganz alte) hat und momentan echt kein Geld da ist, eine dieser beiden Fabriken zu modernisieren. Intel baut jedes Jahr 3-5 Fabriken komplett neu auf, bzw. um. TSMC und UMC übrigens auch, aber die haben ja auch noch Geld. AMD hat nur eine Fabrik, die derzeit konkurrenzfähige CPUs fertigen kann: die in Dresden mit nem 130 nm Cu-Prozess und 200 mm Wafern.
In Austin werden IIRC nur noch Flashspeicher hergestellt.

Spake
2003-03-22, 13:26:18
und sie haben noch ihren partner UMC für die zukünftigen k7 low-cost chips
dumm nur wenn ihr partner keinen sonders tollen o.13um prozess hat
intel hat dagegen so irgendwas mit 10 fabriken

Eusti
2003-03-22, 14:12:32
Originally posted by Unregistered

Ja nee so kann man das auch nicht sehen... Doch!

Hätten see Geld, würden see auch gescheite Maschinen kaufen. Hätten see gescheite Maschinen, hätten see auch die Möglichkeit gescheite Produkte zu bauen. Wätten see gescheite Produkte, dann hätten see auch...

BlackBirdSR
2003-03-22, 14:37:18
Originally posted by Eusti
Doch!

Hätten see Geld, würden see auch gescheite Maschinen kaufen. Hätten see gescheite Maschinen, hätten see auch die Möglichkeit gescheite Produkte zu bauen. Wätten see gescheite Produkte, dann hätten see auch...

geh nochmal in die Schule,
und lerne ein bischen was, bevor du anfängst kausalitätsschleifen anzufertigen.

Du stellst AMD ja, als ne Hinterhof Bude mit Sperrmülltools da.

ActionNews
2003-03-22, 19:01:47
Originally posted by BlackBirdSR


geh nochmal in die Schule,
und lerne ein bischen was, bevor du anfängst kausalitätsschleifen anzufertigen.

Du stellst AMD ja, als ne Hinterhof Bude mit Sperrmülltools da.

Stimmt! Außerdem ist die FAB30 in Dresden sehr modern! Wer fertigt denn schon in SOI-Verfahren außer IBM und AMD? Wohl nur sehr wenige! Intel nicht! Auch will AFAIK AMD bald auf 300mm Wafer in der FAB 30 umsteigen.

Und ganz mal davon ab: Warum baut AMD angeblich schlechte CPUs? Finde ich eigentlich nicht, wenn man sieht welche gute Pro/MHz Leistung die AMD-Prozessoren haben und welche Taktraten AMD aus dem alten Athlon-Design quetscht. Ich hab auch noch nicht gehört, dass AMD Prozessoren Fehler hätten oder inkompatibel wären. Also warum sollten die AMD-CPUs schlecht sein?

CU ActionNews

Eusti
2003-03-22, 19:38:54
@BlackBirdSR: Ich gehe jetzt noch zur Schule und lerne ständig was. Trotzdem denke ich, das ich mit meiner Meinung zu AMD recht habe.

@BlackBirdSR ActionNews: Die Fab 30 ist keineswegs sehr modern. Eine Moderne Fab, arbeitet an 0,09 und setzt 300mm Wafer ein. 300mm Wafer sind immerhin mehr als doppelt so gross wie die 200mm, da gewinnen die modernen Fabriken deutlich. 0,13 & 200mm ist in der Prozessorenherstellung maximal unterer Standard. Lediglich die Notwendogkeit, die Ausgabe von Geld sehr gründlich zu überdenken, hält AD vom Kauf erster Maschinen in 0,09 ab. Bei AMD kann man nicht mal ebend eine Fabrik für 2 Milliarden Dollar umrüsten. Soviel Geld haben die gar nicht.

SOI ist kein technischer Fortschritt, sondern eine Überlegung, die Taktraten zu steigern. Ob SOI wirklich funktioniert, muss erst noch bewiesen werden. Ich glaube Intel hat mal gesagt, Sie hätten das getestet, aber es wäre für Prozessoren der falsche Weg, da es andere bessere Ansätze gibt. Ob SOI funktioniert und als modern betrachtet werden kann, muss somit erst noch bewiesen werden!

@ActionNews: AMD baut natürlich keine defekten CPU´s. Mein schlecht war auf die Leistung der Prozessoren bezogen. Eine durchschnittliche Intel CPU läuft mit ca 2600MHZ. Eine durchschnittliche AMD-CPU allerdings nur mit 2200XP-Punkten (die langsamere echte Taktrate ist hier egal).

zeckensack
2003-03-22, 20:19:30
Originally posted by Eusti
@ActionNews: AMD baut natürlich keine defekten CPU´s. Mein schlecht war auf die Leistung der Prozessoren bezogen. Eine durchschnittliche Intel CPU läuft mit ca 2600MHZ. Eine durchschnittliche AMD-CPU allerdings nur mit 2200XP-Punkten (die langsamere echte Taktrate ist hier egal). Behauptung:
Die durchschnittliche Intel-CPU ist nach den Standards der US- und europäischen Märkte unverkäuflicher Schrott, und wird daher zum Celeron umgelabelt und/oder in Indien und asiatischen Ländern zu Dumpingpreisen an die dort ansässigen OEMs verschachert. Das hat mehrere angenehme Nebeneffekte:
1)die dortigen Marktchancen des Mitbewerbs werden zerstört
2)knauserige Retailkunden geraten nicht in 'Versuchung' ein Produkt zu kaufen, das den ASP senken könnte. Siehe AMD's TBreb-B 1700+.
3)im 'Westen' entsteht kein Schmuddel-Image durch 'zu billige' Produkte - Asien ist ggü solchen Dingen relativ gleichgültig
4)weniger Ausschuß
5)weniger Lagerhaltung für 'alten Schrott'

Auch plausibel, gell? *eg*

Unregistered
2003-03-22, 21:20:10
Originally posted by zeckensack
Behauptung:
Die durchschnittliche Intel-CPU ist nach den Standards der US- und europäischen Märkte unverkäuflicher Schrott, und wird daher zum Celeron umgelabelt und/oder in Indien und asiatischen Ländern zu Dumpingpreisen an die dort ansässigen OEMs verschachert. Das hat mehrere angenehme Nebeneffekte:
1)die dortigen Marktchancen des Mitbewerbs werden zerstört
2)knauserige Retailkunden geraten nicht in 'Versuchung' ein Produkt zu kaufen, das den ASP senken könnte. Siehe AMD's TBreb-B 1700+.
3)im 'Westen' entsteht kein Schmuddel-Image durch 'zu billige' Produkte - Asien ist ggü solchen Dingen relativ gleichgültig
4)weniger Ausschuß
5)weniger Lagerhaltung für 'alten Schrott'

Auch plausibel, gell? *eg*

OT:
Ist es eigentlich gesichert, dass Celerons umgelabelte Pentiums sind? Also mit defekten Cache? Diese Behauptung gab es ja schon beim p3-Core, doch als in den X-Box dann nur Celeron verbaut wurden, stellte sich für micht die Frage, ob das wirklich stimmt. Denn eigentlich würd es sich ja nicht mehr lohen dafür extra den Cache zu deaktivieren, der trotzdem noch DIE-Fläche und damit Geld kostet.
Oder hat Intel extra für dei X-Box eine Produktionsreihe aufgemacht, denn sonst werde ja keine p3s mehr benötigt. Oder sind das gar Lagerbestände, die in die X-Box wandern.

Crazytype
2003-03-22, 21:25:25
Eusti man labbert du Scheiße.

Die Fab30 ist 1000mal moderner als Intel Fabriken auch in Punkto Wirtschaftlichkeit. Die IBM Prozessoren laufen schon mit SOI, und das erfolgreich. 33% weniger Leistungsaufnahme bei gleichem Takt, ist also nicht nur gut für Taktsteigerungen sondern wehsentlich flexibler zum Bespiel Notebookbereich. Keiner stellt jetzt schon 90nm Prozessoren her. Wenn die DIE kleiner ist als die Konkurenz brauch man keine 300mm Wafer. "Intel sagt", wenn ich das schon höre...
Intel hat auch gesagt, dass mann keine Kupfer Interconnecs brauch(Die AMD schon mit dem Thunderbird C benutzte) erst 2010 weil Aluminum gut genug ist und fün Northwood benutzen sie doch Kupfer Innterconnecs.
Intel hat auch mal nen 1133 MHz P3 rausgebracht der vom Markt genommen werden musste(Instabil) oder der "Willi" der war mega scheiße. der K7 ist immernoch wettbewerbsfähig. (Intel will auch erst 2007/8 64 bit CPUs rausbringen, und Entwickler meckern jetzt schon).

Achja AMD will in den nächsten 2 Jahren ne neue Herstellungsfabrik bauen, sagte ein Amd-Techniker auf der Cebit.

edit2: Ja wenn der level2 cache eines p4/p3 teilweise kaputt ist wird dieser teil deaktiviert und er wird als Celeron verkauft(sonst müsste man ihn ja wegwerfen oder extra ne Fabrik für Celerons haben)

Der Duron hatte in Texas ne eigene FAbrik die jetzt aber auf Flashspeicher umgestellt wurde.

Bei Grafikkarten macht man das ja auchso radeon 9500/pro sind 9700/pro wo teile der Pipeline kaputt sind und deaktiviert wurden. Ist halt besser als wegwerfen, bringt Geld und man brauch nicht parallel entwickeln bei immer teureren Entwicklungskosten.

zeckensack
2003-03-22, 21:29:44
Originally posted by Unregistered


OT:
Ist es eigentlich gesichert, dass Celerons umgelabelte Pentiums sind? Also mit defekten Cache? Diese Behauptung gab es ja schon beim p3-Core, doch als in den X-Box dann nur Celeron verbaut wurden, stellte sich für micht die Frage, ob das wirklich stimmt. Denn eigentlich würd es sich ja nicht mehr lohen dafür extra den Cache zu deaktivieren, der trotzdem noch DIE-Fläche und damit Geld kostet.
Oder hat Intel extra für dei X-Box eine Produktionsreihe aufgemacht, denn sonst werde ja keine p3s mehr benötigt. Oder sind das gar Lagerbestände, die in die X-Box wandern. Ziemlich sicher. Alle bekannten Quellen (zB diese hier (http://www.sandpile.org/impl/p4.htm)) setzen für Pentium und Celeron sowohl Transistorcount als auch Die-Größe exakt gleich an.

Der Willamette-P4 ('unverkäuflicher Schrott') wurde mittlerweile komplett zum Celeron gewandelt - Northwood war zu früh, dies war zum Schutz vor weiterem Imageverlust unvermeidlich.

Was die X-Box genau enthält kann ich auch nicht sagen. Aber theoretisch kann Intel jeden P3-Kern (CuMine, Tualatin), der mindestens 700MHz schafft in den XBox-Kanal abstoßen. Das XBox-Board kann angeblich auch 1,5 Volt liefern.

Crazytype
2003-03-22, 21:36:23
ist nen coppermine mit 128 lv 2 cache.

Eusti
2003-03-23, 02:05:37
Originally posted by Crazytype

... wenn die DIE kleiner ist als die Konkurenz brauch man keine 300mm Wafer...Ich möchte zum Rest des Postings keine Stellung nehmen, weil das nur Streit geben würde. Aber ein rein sachliches Kommentar zum 300mm Wafer sei mir bitte erlaubt. "Es ist egal, wie groß der Die ist. Auf einem 300mm Wafer bekommst du immer mindestens doppelt soviele Prozessoren unter. Auch wenn der Die nur 10mm² betragen würde, wäre der 300mm Wafer doppelt so gut."

Ist eine rein sachliche Betrachtung und hat nix mit Intel/AMD zu tun.

Richthofen
2003-03-23, 03:08:15
"
Auch wenn der Die nur 10mm² betragen würde, wäre der 300mm Wafer doppelt so gut."
"

Die Waferscheibe Silizium selber ist aber gar nicht so teuer.
AMD braucht momentan keine 300mm Wafer.
Die FAB30 kann pro Jahr 50 Mio CPUs liefern ohne den noch anstehenden Ausbau.
AMD verkauft pro Quartal zwischen 7 bis 8 Mio.
Macht im günstigsten Fall 32 Mio CPUs.
Sie haben Kapazität ohne Ende. DAs einzige was immer bisschen hinderlich ist, ist die Umrüsterei weil sie eben nur eine FAB haben für CPUs und natürlich nicht das Geld um sofort das Neueste zu kaufen an FAB Technik.

300mm Wafer sind immer gut allerdings muss man hier eine Anfangsinvestition tätigen und die ist bei AMDs CPU Absätzen momentan nicht gerechtfertigt. Der DIE ist kleiner als der Northwood und Kapazitäten haben sie genug.

Bevor sie da in Probleme kommen, müsste sich ihr Marktanteil von aktuell ca 16 bis 18% fast verdoppeln. Das ist noch ne Weile hin.

Unregistered
2003-03-23, 12:34:09
Originally posted by Endorphine
AMD hat nur eine Fabrik, die derzeit konkurrenzfähige CPUs fertigen kann: die in Dresden mit nem 130 nm Cu-Prozess und 200 mm Wafern.
In Austin werden IIRC nur noch Flashspeicher hergestellt.
Nebenbei sollte dir mein Post sagen das es nicht auf die Maschinen ankommt sondern auch auf das Design wie gut die Maschinen eingearbeitet sind ob die Lithografie perfekt ist usw.

Damit wurde INTEL(glaube ,018) amd mit schlechtere Fertigungstechnik (glaube 0,20 oder 0,25) schon einmal geschlagen Gen taktrate also hat das nichts mit der modernsten fab zu tun!

ganz davon ab muß amd erst eine Fabrik zum umrüsten habe geht aber nicht da dann in Dresden nicht gefertigt werden kann (maschienenaustausch Einstellung dauert halt)aber infenion und nv haben ja vor mit amd in Deutschland Ne Gemeinschafts Fabrik zu eröffnen dann mal schauen was passiert


@ EUSTI Unteres quelle tecchannel

Die Ankündigung von AMD, ab der zweiten Jahreshälfte 2002 die 64-Bit-Hammer-Prozessoren mit einer SOI-Technologie in Serie zu fertigen, stellt ein wichtiges Signal für die Prozesstechnologien dar. Auch Intel hat Ende November 2001 letztendlich signalisiert, dass mittelfristig kein Weg an SOI vorbei führe. Andere Hersteller wie IBM, HP und Motorola setzen bereits seit einiger Zeit statt auf herkömmliche Bulk-Technologie auf SOI. Ihre leistungsfähigen Prozessoren erreichen so bei unveränderter Architektur bis zu 30 Prozent Mehrleistung.

BlackBirdSR
2003-03-23, 14:36:36
Originally posted by Unregistered

@ EUSTI Unteres quelle tecchannel

Die Ankündigung von AMD, ab der zweiten Jahreshälfte 2002 die 64-Bit-Hammer-Prozessoren mit einer SOI-Technologie in Serie zu fertigen, stellt ein wichtiges Signal für die Prozesstechnologien dar. Auch Intel hat Ende November 2001 letztendlich signalisiert, dass mittelfristig kein Weg an SOI vorbei führe. Andere Hersteller wie IBM, HP und Motorola setzen bereits seit einiger Zeit statt auf herkömmliche Bulk-Technologie auf SOI. Ihre leistungsfähigen Prozessoren erreichen so bei unveränderter Architektur bis zu 30 Prozent Mehrleistung.

Also, Intel kommt sicherlich auch nicht an Maßnahmen vorbei, sowohl den Stromverbrauch als auch Leckströme zu senken.
Irgendwann muss also auch Intel auf SOI oder Ähnliches setzen.
Es wird nach Angaben, nicht das gleiche SOI sein wie AMD (partial depleted vs fully depleted), aber die grundsätzlichen Probleme bei SOI bleiben erhalten.

Dabei kann man keineswegs pauschal sagen, SOI bringt 30% mehr Leistung.
Was SOI bringt, sind geringere Leckströme und Verringerung von anderen unerwünscht parasitären Effekten.
Das kann in einigen wenigen Fällen bis zu 30% sein.
Im Gegenzug könnte man auch die CPU 30% höher Takten und die thermische Verlustleistung ca gleich halten.
Die CPU wird deuch SOI aber nicht schneller.
Der Durschschnitt dürfte auch nicht bei 30% liegen sondern vielleicht bei 15%, geradezu Beginn der Fertigung und Entwicklung.

Die Architektur muss dabei vielleicht nicht verändert werden, aber sehr wohl das Design der Schaltungen.
Einige Schaltungen funktionieren gar nicht mehr oder nur sehr schlecht mit SOI.
Andere funktionieren zwar, ziehen aber ohne Anpassung kaum Nutzen aus SOI.

Ausserdem sind SOI Wafer teurer, und Berichten zu folge ist auch die Ausbäute geringer.

SOI mag also in der Presse toll erscheinen, aber die Firmen ackern ganz schön daran, ihre CPUs damit zum Laufen zu bekommen.

Muh-sagt-die-Kuh
2003-03-23, 16:41:44
Originally posted by zeckensack
Was die X-Box genau enthält kann ich auch nicht sagen. Aber theoretisch kann Intel jeden P3-Kern (CuMine, Tualatin), der mindestens 700MHz schafft in den XBox-Kanal abstoßen. Das XBox-Board kann angeblich auch 1,5 Volt liefern. Wie war das nochmal mit dem XBox Chip? 128 kb L2 Cache aber die volle Assoziativität eines normalen Cu-Mine. Wenn ich mich recht entsinne reduziert sich beim Abschalten der Hälfte des Cu-Mine L2 Caches (um einen Cu-Mine 128 Celeron zu erzeugen) auch der Assoziativitätsgrad um die Hälfte (von 8-way auf 4-way), mit entsprechenden Auswirkungen auf die Hit-Rate. Ein normaler Cu-Mine sollte deshalb eigentlich nicht in die XBox gewandert sein.

Der Tualatin Kern hat diese Limitation nicht mehr, bei ihm bleibt die Assoziativität auch bei einer Reduktion der Cachegröße von 512 kb auf 256 kb erhalten, wenn das auch beim Schritt auf 128 kb so bleibt könnten Tualatin Cores durchaus in der XBox eingesetzt werden, anderfall ist eher von einer eigenständigen Produktionslinie auszugehen...so könnte man immerhin die alten 0,18µ Linien beschäftigen.

Demirug
2003-03-23, 16:54:32
Die XBox CPUs müssen eigentlich eine eigene Klasse darstellen denn laut meinen Informationen gibt es in dem Chip einen Satz neue Befehle gibt die sonst kein Intel-Chip bisher hat.

Muh-sagt-die-Kuh
2003-03-24, 01:24:59
Originally posted by Demirug
...laut meinen Informationen gibt es in dem Chip einen Satz neue Befehle gibt die sonst kein Intel-Chip bisher hat. Quelle?

BlackBirdSR
2003-03-24, 07:24:02
Originally posted by Muh-sagt-die-Kuh
Quelle?

stand irgendwann einmal in einer C't glaube ich.

Demirug
2003-03-24, 07:50:09
Originally posted by Muh-sagt-die-Kuh
Quelle?

Habe ich keine deswegen schrieb ich ja auch "laut meinen Informationen" und nicht "laut dieser Seite". Ich will aber nicht ausschliessen das derjenige von dem ich diese Information bekommen habe was falsch verstanden hat.

robbitop
2003-03-24, 10:26:46
würde Intel denn soweit gehen und für MS ne neue Produktion beginnen?
bzw noch ein kleines Redesign machen?

Unregistered
2003-03-24, 11:26:13
Originally posted by BlackBirdSR


Also, Intel kommt sicherlich auch nicht an Maßnahmen vorbei, sowohl den Stromverbrauch als auch Leckströme zu senken.
Irgendwann muss also auch Intel auf SOI oder Ähnliches setzen.
Es wird nach Angaben, nicht das gleiche SOI sein wie AMD (partial depleted vs fully depleted), aber die grundsätzlichen Probleme bei SOI bleiben erhalten.

Dabei kann man keineswegs pauschal sagen, SOI bringt 30% mehr Leistung.
Was SOI bringt, sind geringere Leckströme und Verringerung von anderen unerwünscht parasitären Effekten.
Das kann in einigen wenigen Fällen bis zu 30% sein.
Im Gegenzug könnte man auch die CPU 30% höher Takten und die thermische Verlustleistung ca gleich halten.
Die CPU wird deuch SOI aber nicht schneller.
Der Durschschnitt dürfte auch nicht bei 30% liegen sondern vielleicht bei 15%, geradezu Beginn der Fertigung und Entwicklung.

Die Architektur muss dabei vielleicht nicht verändert werden, aber sehr wohl das Design der Schaltungen.
Einige Schaltungen funktionieren gar nicht mehr oder nur sehr schlecht mit SOI.
Andere funktionieren zwar, ziehen aber ohne Anpassung kaum Nutzen aus SOI.

Ausserdem sind SOI Wafer teurer, und Berichten zu folge ist auch die Ausbäute geringer.

SOI mag also in der Presse toll erscheinen, aber die Firmen ackern ganz schön daran, ihre CPUs damit zum Laufen zu bekommen.
da steht doch bis zu 30% also kann es auch 1% sein aber diese 30% ergeben sich aus der Erfahrung von bereits produzierenden firmen,
und der Beginn der Produktion solcher Produkte liegt im letzten Jahrtausend

Muh-sagt-die-Kuh
2003-03-24, 13:07:15
Originally posted by BlackBirdSR


stand irgendwann einmal in einer C't glaube ich. Stimmt, ich habs gefunden....Ausgabe 22/01 Seite 16: "Im Inneren der Xbox rechnet ein modifizierter Pentium 3 mit 733 MHz und vermindertem Stromverbrauch. Ferner hat Intel den ISSE-Befehlssatz eigens für die Xbox geändert."

Also eine eigene Produktionslinie.

Desti
2003-03-24, 16:32:08
Originally posted by Muh-sagt-die-Kuh
[...]
Also eine eigene Produktionslinie.

Kann genausogut in allen neuen P3s drin sein und nur deaktiviert.

Spake
2003-03-24, 22:01:21
intel benutzt halt lieber andere techniken als SOI welches doch sehr risikoreich ist
- sieht man ja n AMD und deren hammer verzögerung welche wohl nciht ganz unbeteiligt daran ist

werden SOI wohl als erstes beim Pentium-M benutzen

turboschlumpf
2003-03-25, 00:05:33
hat intel nicht gesagt sie werden wegen dessen nachteile kein soi verwenden und wird bei prescott deshalb nicht 'strained silicon' eingesetzt?

robbitop
2003-03-25, 07:26:05
laut meinem Wörterbuch kommt dort "belastetes Silikon" raus...?
das ergibt für mich keinen Sinn. Hilft mir jemand?

aber irgendsowas hab ich auch gelesen, bilde mir aber ein, dass es gestreckte Transistoren waren...tja schon zu lange her...

was bringt dieses Verfahren und was ist es überhaupt?

BlackBirdSR
2003-03-25, 08:48:16
Originally posted by robbitop
laut meinem Wörterbuch kommt dort "belastetes Silikon" raus...?
das ergibt für mich keinen Sinn. Hilft mir jemand?

aber irgendsowas hab ich auch gelesen, bilde mir aber ein, dass es gestreckte Transistoren waren...tja schon zu lange her...

was bringt dieses Verfahren und was ist es überhaupt?

gestrecktes Silicon.
Soweit ich das verstanden habe:
Dabei wird auf das Silizium Kristallgitter eine Germaniumgitterschicht gelegt.
Diese ist weniger kompakt, und streckt dabei das Siliziumgitter.

Am Schluss erreicht man damit im Transistorkanal mehr Elektronenfluss.

robbitop
2003-03-25, 13:55:16
wie schwierig ist dieses Verfahren im vergleich zu SOI und welchen Wirkungsgrad hat es?

lassen sich beide Verfahren kombinieren?

BlackBirdSR
2003-03-25, 14:03:08
Originally posted by robbitop
wie schwierig ist dieses Verfahren im vergleich zu SOI und welchen Wirkungsgrad hat es?

lassen sich beide Verfahren kombinieren?

wie schwierig? weiss ich nicht, aber anscheinend gut genug für Intel, und Intel ist da meist ziemlich konservativ.

Wirkungsgrad? keine Ahnung ohne Testsamples oder Erfahrungen, aber nach Intel Aussagen, die inzwischen üblichen 15-30% mehr Takt.

ist sicherlich mit SOI kombinierbar, da Intel ja beides einsetzen will, und SOI auch nicht direkt am Transistorkanal beteiligt ist.

turboschlumpf
2003-03-25, 14:03:30
hier mal ein kurzer artikel über "strained silicon" von tecchannel
klick (http://www.tecchannel.de/news/20020813/thema20020813-8387.html)

zeckensack
2003-03-25, 14:07:58
SOI ist gut, weil es parasitäre Kapazitäten senkt (=> weniger Energieverlust). Viel mehr gibt's da eigentlich auch nicht zu sagen :)

Strained Silicon kann das auch, allerdings nicht so gut. Der eigentliche Haupteffekt von SOI ist das künstliche Verlängern der Abstände im Kristallgitter, wodurch man salopp gesagt eine halbe Litographiegeneration einspart.

Die Strukturen sind mit den gleichen Litho-Tools natürlich immer noch gleich groß, dadurch daß das Kristallgitter gestreckt wurde bestehen sie aber aus weniger Atomen. Der Effekt sind 'gefühlt' schmalere und kürzere Leitungen.

Durch die Streckung sinkt auch die Dielektrizitätskonstante des Materials, wodurch die oben erwähnte Verringerung der parazitären Kapazitäten eintritt.