PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : K8L im Q3 2007 -> Altair - erste Spezifikationen


Seiten : [1] 2 3

AnarchX
2006-10-03, 10:05:27
Zusammenfassung der bisherigen Infos zum K8L/K10:
Update 4.5.07:
http://img294.imageshack.us/img294/7707/4622largestarslistmj6.png (http://www.dailytech.com/Final+AMD+Stars+Models+Unveiled+/article7157.htm)


AMD Quad-Core Altair upcoming in 2007 Q3@HKEPC (http://www.hkepc.com/bbs/itnews.php?tid=678736)

K8L bereits 2007 mit Sockel AM2+ und Level3-Cache @ht4u (http://www.hardtecs4u.com/?id=1159892407,7440,ht4u.php)

AMD to enter K8L era in 2H 2007@HKEPC (http://www.hkepc.com/bbs/itnews.php?tid=679375)

Dynamic I/O bus introduced in K8L architecture@HKEPC (http://www.hkepc.com/bbs/itnews.php?tid=679532)

AMD Demonstrates World's First Native Quad-Core x86 Server Processor@P3DNow (http://www.planet3dnow.de/vbulletin/showthread.php?t=290990)

AMD’s next-generation Star supports DDR2-1066 & SSE4A@HKEPC (http://www.hkepc.com/bbs/itnews.php?tid=718770&starttime=0&endtime=0)

@vr-zone (http://www.vr-zone.com/index.php?i=4442)

[ATi RD790 Boards For AMD Stars Cores]@vr-zone (http://vr-zone.com/index.php?i=4462)

[AMD To Remain Low Until K8L In Q3]@vr-zone (http://vr-zone.com/index.php?i=4534)

More AMD Next Generation Desktop Details Leaked@DailyTech (http://www.dailytech.com/article.aspx?newsid=5874)

[AMD Quad Core Barcelona Re-Appears]@vr-zone (http://vr-zone.com/index.php?i=4553)

Neue Codenamen von AMD-Prozessoren?@P3DNow (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1170158975)


[B]Roadmap Desktop K8Ls:
http://img413.imageshack.us/img413/1320/amdroadmap0708zx4le0.jpg (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1170158975)

Barcelona und Clovertown
http://img413.imageshack.us/img413/5096/barcelonagc4jj0.jpg (http://http://vr-zone.com/index.php?i=4553)

Gast
2006-10-03, 11:08:48
Intel macht mit dem Prozess aber mächtig Druck grad :|

aylano
2006-10-03, 11:08:50
Hier gehts um den K8L mit HT 3.0.

Der K8L mit HT2.0 könnte früher kommen. Schließlich wurden in den letzten AMD-Veröffentlichungen der K8L immer ohne HT3.0 gezeigt.

AnarchX
2006-10-03, 11:18:04
Hier gehts um den K8L mit HT 3.0.
AFAIK unterstützt K8L HT1.0 und HT3.0(AM2+), deshalb gibt man in dieser Tabelle auch den höchst unterstützten I/O-Bus an.;)
Hierbei handelt es sich ja auch um die Consumer-K8Ls, natürlich ist anzunehmen das die Servervariante schon eher kommt, was die meisten hier aber nicht interessieren wird.

Winter[Raven]
2006-10-03, 11:20:42
TDP 125W?

Gehts noch? Intel peilt ja 80W an.

r00t
2006-10-03, 11:23:47
ich kann da jetzt nicht viel rauslesen...aber ich hab so dsa gefühl das der K8L wieder keine chance gegen intel hat oder?

AnarchX
2006-10-03, 11:25:04
']TDP 125W?

Gehts noch? Intel peilt ja 80W an.

Wird wohl eine pessimistische Schätzung anhand des aktuellen Standes des 65nm Prozesses sein, die vielleicht noch nach unten korrigiert wird.
Aber wenn man sich die normalen K8 X2 in 65nm mit TDP 65W anschaut, vielleicht durchaus realistisch, K8L wird ja wohl auch etwas komplexer werden.

Botcruscher
2006-10-03, 11:25:42
']TDP 125W?

Gehts noch? Intel peilt ja 80W an.


Maximal mögliche Verlustleistung(einer ganzen Generation) =! Verlustleistung die bei starker Belastung auftrit und auch mal höher liegen kann.

][immy
2006-10-03, 11:44:13
']TDP 125W?

Gehts noch? Intel peilt ja 80W an.

nunja, für 4 prozessoren finde ich das noch in ordnung. wenn man bedenkt das einige pentium 4 modelle mit nur einem core schon über 125W gekommen sind ^^

naja, das intel die 80Watt bei der 4-core variante wirklich schafft wage ich aber zu bezweifeln.

dargo
2006-10-03, 12:52:53
ich kann da jetzt nicht viel rauslesen...aber ich hab so dsa gefühl das der K8L wieder keine chance gegen intel hat oder?
Wenn AMD beim K8L die ProMhz-Leistung nicht deutlich steigert leider nein.

[immy']
naja, das intel die 80Watt bei der 4-core variante wirklich schafft wage ich aber zu bezweifeln.
Die 80W TDP finde ich sogar realistisch. Ein Kentsfield hat AFAIK 125W TDP im 65nm Fertigungsprozess.

AnarchX
2006-10-03, 12:58:42
Wenn AMD beim K8L die ProMhz-Leistung nicht deutlich steigert leider nein.


Selbst wenn die Pro-MHz-Leistung gesteigert wird und vielleicht sogar besser als beim Core2 ist, besteht immernoch das Problem für AMD das Intel schon bei 45nm ist und mit entsprechenden Taktraten kontern kann.
Die erholsamen Jahre für AMD mit Netburst als "Konkurrenz" scheinen vorbei zu sein...

dargo
2006-10-03, 13:02:22
Selbst wenn die Pro-MHz-Leistung gesteigert wird und vielleicht sogar besser als beim Core2 ist, besteht immernoch das Problem für AMD das Intel schon bei 45nm ist und mit entsprechenden Taktraten kontern kann.

AFAIK ist die maximale Taktrate beim Kentsfield 4x 2,66Ghz. Mit 45nm glaube ich nicht, dass Intel die 4x 3Ghz deutlich übersteigt.

AnarchX
2006-10-03, 13:05:49
AFAIK ist die maximale Taktrate beim Kentsfield 4x 2,66Ghz. Mit 45nm glaube ich nicht, dass Intel die 4x 3Ghz deutlich übersteigt.

Auf der IDF lief Alan Wake auf einem Kentsfield mit 3.73GHz.;)
Wenn es notwendig ist, denke ich durchaus, dass Intel noch an der Taktschraube drehen kann.

Die 80W TDP finde ich sogar realistisch. Ein Kentsfield hat AFAIK 125W TDP im 65nm Fertigungsprozess.


Die 80W wurden im Zusammenhang mit Clovertown(aka Kentsfield im Consumermarkt) genannt, wobei sich die 80W wohl eher auf ein Modell um die 2GHz und niedriger Spannung beziehen.

stav0815
2006-10-03, 13:20:22
Selbst wenn die Pro-MHz-Leistung gesteigert wird und vielleicht sogar besser als beim Core2 ist, besteht immernoch das Problem für AMD das Intel schon bei 45nm ist und mit entsprechenden Taktraten kontern kann.
Die erholsamen Jahre für AMD mit Netburst als "Konkurrenz" scheinen vorbei zu sein...
Meinst du, AMD hat Däumchen gedreht?

r00t
2006-10-03, 13:24:35
Meinst du, AMD hat Däumchen gedreht?

naja ich finde im moment siehts er so aus als hätte amd keine chance..auch mit dem K8L nicht *spekulier*^^

wenn amd mit 65nm cpus kommt...hat intel wahrscheinlich schon 45nm cpus im peto^^

SavageX
2006-10-03, 13:27:11
45 nm bringen nicht zwangsläufig sehr viel bessere Taktraten. Schliesslich muss Intel irgendwie die Leckströme in den Griff kriegen und kann deshalb nicht nach Belieben "Turbo"-Transistoren verbauen.

Edit: Und natürlich kann man das K8 Design in ähnlicher Weise aufbretzeln wie Intel es mit dem Pentium Pro Kern seit Jahren tut.

AnarchX
2006-10-03, 13:29:54
Meinst du, AMD hat Däumchen gedreht?
Natürlich nicht, obwohl man bis auf Preissenkungen und dem Wechsel auf 65nm, was wiederrum niedrigere Preise bedeutet, dem Core2 nichts wirklich entgegenbringen konnte.

Nachdem nun Intel von Netburst abgerückt ist, eine Fehlentscheidung, die für AMD günstige Bedingungen in den letzten Jahren ermöglichte, wird nun der Konkurrenzkampf deutlich härter werden, wie man auch Intels Planung sieht neue CPU-Designs in kürzeren Abständen zu präsentieren.

Die Frage ist wie gut hier AMD mithalten kann und ob sie das Wachstum der Vergangenheit fortsetzen können.
Da kann man nur hoffen das K8L ein großer Erfolg wird, was ich ab angesichts der starken Konkurrenz(45nm Yorkfield) nicht so glauben kann.

Aber wir werden sehen, 2007 wird sicherlich spannend...;)

dargo
2006-10-03, 13:30:36
Auf der IDF lief Alan Wake auf einem Kentsfield mit 3.73GHz.;)
Wenn es notwendig ist, denke ich durchaus, dass Intel noch an der Taktschraube drehen kann.

Was hat eine Übertaktung mit dem Verkaufsprodukt zu tun? :|
Oder kannst du einen Allendale oder Conroe mit standard 3,2 bis 3,6Ghz kaufen? :wink:

AnarchX
2006-10-03, 13:34:06
Was hat eine Übertaktung mit dem Verkaufsprodukt zu tun? :|

War nur so als Bsp. am Rande, da deine Aussage so klang als wäre nicht mehr möglich.;)

Oder kannst du einen Allendale oder Conroe mit standard 3,2 bis 3,6Ghz kaufen? :wink:
Wenn die Notwendigkeit bestände wäre ich mir da mal gar nicht so unsicher, das die möglich ist.

Gast
2006-10-03, 13:34:28
ich finde die TDP von 125Watt jetzt auch nihct sonderlich hoch für die ersten Revisionen. Die Taktraten gehen ja anscheinend bis fast 3Ghz. Vergleicht man das mit einem fx-62 mit einer TDP von ebenfalls 125 Watt konnte AMD die Verlustleistung ja halbieren, obwohl der K8L wesentlich komülexer sien wird, als der K8. In späteren Revisionen kann AMD bestimmet die TDP weiter senken, und man kommt vielleicht auf 110 Watt für Modelle bis 3Ghz. Ich denke, da wird Intel mit ihrem jetztigen Herstelleungverfahren nicht besser ausschauen.

MfG

dargo
2006-10-03, 13:34:39
Die 80W wurden im Zusammenhang mit Clovertown(aka Kentsfield im Consumermarkt) genannt, wobei sich die 80W wohl eher auf ein Modell um die 2GHz und niedriger Spannung beziehen.
Wurde die 80W jetzt bei praxisnahen Anwendungen gemessen oder ist es eine TDP Angabe?

45 nm bringen nicht zwangsläufig sehr viel bessere Taktraten. Schliesslich muss Intel irgendwie die Leckströme in den Griff kriegen und kann deshalb nicht nach Belieben "Turbo"-Transistoren verbauen.

Viel höhere Taktraten erwarte ich auch nicht. Wir reden hier von 4 Cores! Also Verlustleistung *4.
Aber vielleicht kann Intel die ProMhz-Leistung beim Yorkfield nochmal steigern?

AnarchX
2006-10-03, 13:36:06
Wurde die 80W jetzt bei praxisnahen Anwendungen gemessen oder ist es eine TDP Angabe?

TDP:
http://www.computerbase.de/news/hardware/prozessoren/intel/2006/mai/intel_80_watt_tdp_quad-core_clovertown/


Aber vielleicht kann Intel die ProMhz-Leistung beim Yorkfield nochmal steigern?
Da Yorkfield für alle 4 Cores einen shared L2 hat und nicht aus 2 DCs auf einem Package besteht, würde ich doch mal behaupten, dass die Pro-MHz-Leistung besser ist, zudem hat er ja auch noch einen FSB1333, was wohl auch ein paar Prozente bringt.

BlackBirdSR
2006-10-03, 13:37:47
AMDs Problem sind nicht die 45nm mit denen Intel aufwarten kann.
Das Problem sind Nehalem und Co.

Während AMD den K8L als Antwort auf C2D bringt, hat Intel schon wieder einen Nachfolger in den Startlöchern. Und das geht noch 3x so weiter.
Es muss sich also die Frage stellen, ob AMD neben dem K8L auch noch eine andere Architektur fertig bekommt in dieser Zeit.

Und K9/10 sollen ja nichts geworden sein.

Swp2000
2006-10-03, 13:39:41
AFAIK unterstützt K8L HT1.0 und HT3.0(AM2+), deshalb gibt man in dieser Tabelle auch den höchst unterstützten I/O-Bus an.;)
Hierbei handelt es sich ja auch um die Consumer-K8Ls, natürlich ist anzunehmen das die Servervariante schon eher kommt, was die meisten hier aber nicht interessieren wird.D.h. aber nicht das AMD wieder nen neuen Sockel bringt oder? Frage wegen AM2+.

dargo
2006-10-03, 13:41:28
TDP:
http://www.computerbase.de/news/hardware/prozessoren/intel/2006/mai/intel_80_watt_tdp_quad-core_clovertown/

Also doch TDP, danke. :)


Da Yorkfield für alle 4 Cores einen shared L2 hat und nicht aus 2 DCs auf einem Package besteht, würde ich doch mal behaupten, dass die Pro-MHz-Leistung besser ist, zudem hat er ja auch noch einen FSB1333, was wohl auch ein paar Prozente bringt.
Ja also, da haben wir es. Ich sehe in nächster Zeit schwarz für AMD. ;(

Mastermind
2006-10-03, 13:44:20
Hoffentlich geht AMD nicht pleite und wir haben ein Intel-Monopol. :(

aylano
2006-10-03, 13:44:47
']TDP 125W?

Gehts noch? Intel peilt ja 80W an.
Man muss aber sagen, dass die Angegebenen TDP 125Watt von 2,7 bis 2,9 Ghz. Angegeben sind.
Und diese Ghz Raten sind nicht wenig, wenn man sie mit jetzt vergleicht.
Mich wundert es, dass es keine langsameren und stromsparenden geben wird.

Gehts noch? Intel peilt ja 80W an.
Wichtig ist nicht, was am Zettel steht, sondern was real ist.
Bleibt abzuwarten, am Anfang die 45nm auch wirklich bringt.
Neu wird ja High-K sein und sicher nicht uninteressant.

Auf der IDF lief Alan Wake auf einem Kentsfield mit 3.73GHz.
Mich würde interessieren, wieviel Strom der Verbraucht hat.

Selbst wenn die Pro-MHz-Leistung gesteigert wird und vielleicht sogar besser als beim Core2 ist, besteht immernoch das Problem für AMD das Intel schon bei 45nm ist und mit entsprechenden Taktraten kontern kann.
Ich glaub für AMD wird es für die Zukunft wichtiger, wie gut man den K8L in höheren Ghz-Bereichen hochtreiben kann ähnlich dem Core2.

Die erholsamen Jahre für AMD mit Netburst als "Konkurrenz" scheinen vorbei zu sein...
Ich würde eher sagen, dass ohne Netburst AMD gestorben wäre.
Schließlich hatte Intel mit dem Pentium 3 immer eine Top CPU in der Schublade.
Für mich war der Pentium 3 besser als der Athlon damals, da er halb so viel Stromverbrauchte und das nur bei etwas geringeren Performence-verlust.
Somit konnte AMD nur durch eine bessere Architektur bzw. besseren Optimierungen (und natürlich die Strukturverbreiterungen) mehr Performence raushohlen.

Intel hatte beim Pentium wegen dem geringen Stromverbrauch noch viel Perfomance-Potential. Nur hätte er dementsprechend auch umgeplant werden müssen.

Die 80W wurden im Zusammenhang mit Clovertown(aka Kentsfield im Consumermarkt) genannt, wobei sich die 80W wohl eher auf ein Modell um die 2GHz und niedriger Spannung beziehen.
Nur 2 Ghz.
Das schafft AMD locker. Na ja, zumindestens was sie angekündigt haben.

stav0815
2006-10-03, 13:50:00
AMDs Problem sind nicht die 45nm mit denen Intel aufwarten kann.
Das Problem sind Nehalem und Co.

Während AMD den K8L als Antwort auf C2D bringt, hat Intel schon wieder einen Nachfolger in den Startlöchern. Und das geht noch 3x so weiter.
Es muss sich also die Frage stellen, ob AMD neben dem K8L auch noch eine andere Architektur fertig bekommt in dieser Zeit.

Und K9/10 sollen ja nichts geworden sein.

Wobei man zu Intels gunsten ja sagen muss, dass sie die letzten Jahr zweigleisig gefahren sind, d.h. mit verschiedenen Architekturen:
Desktop mit Netburst
Notebook mit Pentium M.

Also doppelter Aufwand.

ceed
2006-10-03, 14:05:44
AMDs Problem sind nicht die 45nm mit denen Intel aufwarten kann.
Das Problem sind Nehalem und Co.

Während AMD den K8L als Antwort auf C2D bringt, hat Intel schon wieder einen Nachfolger in den Startlöchern. Und das geht noch 3x so weiter.
Es muss sich also die Frage stellen, ob AMD neben dem K8L auch noch eine andere Architektur fertig bekommt in dieser Zeit.

Und K9/10 sollen ja nichts geworden sein.


Ja sieht ziemlich mies aus für AMD wenn der K8L nicht deutlich mehr Perfomance liefert als der K8, früher hatten sie noch die Speichersparte die sie mal über schlechte Zeiten geholfen hat jetzt müssten das die Grafikchips rausreißen...
Sie hatten bis jetzt auch viel Glück das sie von Intel unterschätzt wurden und das Quasimonopol zu ner langsameren Entwicklung geführt hat aber was Intel jetzt fürn Tempo vorlegt.. naja
Selbst den Rückstand zum Core2Duo auf zu holen halte ich für schwierig da er meiner Ansicht nach noch ne Menge Reserven aufbietet, man siehts ja an den Overclockingergebnissen...

dargo
2006-10-03, 14:21:34
Selbst den Rückstand zum Core2Duo auf zu holen halte ich für schwierig da er meiner Ansicht nach noch ne Menge Reserven aufbietet, man siehts ja an den Overclockingergebnissen...
Nochmal, die Übertaktungsergebnisse haben nichts mit dem Verkaufsprodukt zu tun. Mag sein, dass ein Conroe 3,6Ghz oder mehr schafft. Aber:
1. Ist es keine standard Vcore mehr.
2. Als Kühllösung wird meistens Wakü oder sogar Kokü verwendet.

AnarchX
2006-10-03, 14:25:11
Nochmal, die Übertaktungsergebnisse habe nichts mit dem Verkaufsprodukt zu tun. Mag sein, dass ein Conroe 3,6Ghz oder mehr schafft. Aber:
1. Ist es keine standard Vcore mehr.
2. Als Kühllösung wird meistens Wakü oder sogar Kokü verwendet.
Na man muss ja nicht gleich an C2Ds jenseits der 3GHz denken, es wäre imo durchaus möglich für Intel gewesen, den X6800 mit 3.3GHz zu bringen und das Portfolio nach unten so fortzusetzen, also der E6300 mit 2.13GHz.
Somit wäre jeder C2D nochmal gut ~10% schneller, als die Modelle die wir nun haben.

dargo
2006-10-03, 14:27:01
Na man muss ja nicht gleich an C2Ds jenseits der 3GHz denken, es wäre imo durchaus möglich für Intel gewesen, den X6800 mit 3.3GHz zu bringen ...
Ok, 3,2 bis 3,3Ghz halte ich noch für realistisch bei gut selektierten Conroes. Dann ist aber auch schon das Ende erreicht.

AnarchX
2006-10-03, 14:29:19
Ok, 3,2 bis 3,3Ghz halte ich noch für realistisch bei gut selektierten Conroes.

Zudem hat ja Intel auch noch soetwas:
http://www.computerbase.de/news/hardware/prozessoren/intel/2006/maerz/idf_intel_wasserkuehler_gaming-pcs/
;)

dargo
2006-10-03, 14:35:36
Zudem hat ja Intel auch noch soetwas:
http://www.computerbase.de/news/hardware/prozessoren/intel/2006/maerz/idf_intel_wasserkuehler_gaming-pcs/
;)
Naja, ok. Aber nicht jeder will sich eine Wakü verbauen und ob diese Lösung dann auch wirklich besser kühlt als eine High-End Lukü bezweifle ich auch mal. Der Preis so einer boxed CPU dürfte dann auch um einiges höher liegen.

malle
2006-10-03, 14:42:02
Schon erstaunlich, was hier einige für AMD bescheinigen. Der L3 Cache wird nicht beachtet, dafür aber die 125W Angabe. PS: Bei intel ist gar keine Angabe.

Gast
2006-10-03, 15:06:07
Der Kentsfield wird bei 100W und niedriger bleiben, das ist jetzt schon *sicher*!

Hardtecs4U haben ja mal den Core 2 X6800 gemessen. Mit 2x2,93 GHz verbrauchte der gerade mal um die 50W unter Volllast. Da der Kentsfield mit 4x2,66 GHz startet, wird er also weniger als die hälfte brauchen und somit im Bereich um die 80-95W liegen.

Man muss auch bedenken: Niedriger Takt bedeutet für Intel auch, das sie die VCore absenken können. Ne CPU die für z.B. 3,2 GHz schon 1,35V braucht, könnte das bei 2,66 Ghz noch mit 1,2V schaffen und das macht bei 4 Kernen nen riesen Unterschied.
Bei den Xtremesystems hatte auch jemand nen Vorserien Kentsfield der auf 3,2 GHz ging ohne VCore Erhöhung.

Ich habe keine Zweifel daran, das mit 45nm 4x3,6 GHz möglich wären...

dargo
2006-10-03, 15:13:38
Der Kentsfield wird bei 100W und niedriger bleiben, das ist jetzt schon *sicher*!

Hardtecs4U haben ja mal den Core 2 X6800 gemessen. Mit 2x2,93 GHz verbrauchte der gerade mal um die 50W unter Volllast. Da der Kentsfield mit 4x2,66 GHz startet, wird er also weniger als die hälfte brauchen und somit im Bereich um die 80-95W liegen.

Das ist natürlich richtig. Wir haben aber die TDP verglichen. Sonst musst du bei den anderen CPUs auch die gemessene Verlustleistung verwenden.

Und ~90-100W sind für mich mit Lukü indiskutabel. Ich bin jetzt schon bei 2x 3,2Ghz mit Lukü bei ~60°C, bei Volllast der beiden Cores mit 1,248V (Verlustleistung ca. 45-50W). Die CPU fängt bei ca. 77°C zu trotteln. Wie soll dann das mit 100W Verlustleistung funktionieren?

Gast
2006-10-03, 15:18:36
Das ist natürlich richtig. Wir haben aber die TDP verglichen. Sonst musst du bei den anderen CPUs auch die gemessene Verlustleistung verwenden.

Geht nicht, denn zeig mir mal den angesprochenen K8L, sonst kann ich ihn nicht messen. :-)

Und ~90-100W sind für mich mit Lukü indiskutabel.

Dann bleibste halt weiterhin beim normalen Core 2, fertig.
Gemessen an der Performance ist das ziemlich wenig und Intel wird ja lange Zeit zweigleisig fahren.

Ich bin jetzt schon bei 2x 3,2Ghz mit Lukü bei ~60°C, bei Volllast der beiden Cores mit 1,248V (Verlustleistung ca. 45-50W). Die CPU fängt bei ca. 77°C zu trotteln. Wie soll dann das mit 100W Verlustleistung funktionieren?

Ist eigentlich kein Problem, musste nur mal den Kühler austauschen oder du hattest Pech und ein ganzes schlechtes Exemplar (HS) erwischt.

dargo
2006-10-03, 16:05:02
Geht nicht, denn zeig mir mal den angesprochenen K8L, sonst kann ich ihn nicht messen. :-)

Deswegen vergleichen wir auch die TDP. :)


Gemessen an der Performance ist das ziemlich wenig und Intel wird ja lange Zeit zweigleisig fahren.

Was meinst du mit zweigleisig? Höre ich da etwa einen Dual Core in 45nm? :naughty:


Ist eigentlich kein Problem, musste nur mal den Kühler austauschen oder du hattest Pech und ein ganzes schlechtes Exemplar (HS) erwischt.
Also, ich würde nicht behaupten, dass ein Sonic Tower zu schlechten Kühlern gehört. :cool:
Angesichts dessen, dass mein E6400@3,2Ghz 45-50W verbrät finde ich die Temp. schon etwas zu hoch. Und das mit dem schlecht sitzendem IHS ist nur ein Märchen, dass oft hier verbreitet wird. Mag sein, dass es einen Unterschied gibt, aber höchstens 1-2°C.

Edit:
Noch was zu den 90-100W des Kentsfield. Ich glaube, die Verlustleistung wird für die meisten Anwender eh kein großes Problem darstellen. Ich meine, wann werden schon alle 4 Cores beim Otto-Normal User zu 100% belastet, außer man ist mit 3DRendering oder ähnlichem beschäftigt.

Und sollte eigendlich eine größere Die-Fläche sich nicht positiver auf die Kühlung auswirken?

AnarchX
2006-10-03, 16:08:23
Angesichts dessen, dass mein E6400@3,2Ghz 45-50W verbrät finde ich die Temp. schon etwas zu hoch.
Ein Boxed @3000-4000UPM könnte Abhilfe schaffen.:biggrin:

dargo
2006-10-03, 16:14:04
Ein Boxed @3000-4000UPM könnte Abhilfe schaffen.:biggrin:
Ja, ich könnte einen stärkeren 120mm verbauen oder gar 2 davon. Es sollte aber leise bleiben.
Ich denke da immer noch an meinen alten Winni@2,5Ghz und 1,41V. Der hatte auch ca. 40-45W Verlustleistung. Trotzdem war die CPU Temperatur irgendwie tiefer als jetzt mit dem C2D. Auch wenns nicht viel war. Ich glaube ca. 10°C weniger.

Yups
2006-10-03, 16:16:55
Was meint ihr, kommt der Quad Core von AMD auch noch als Modell für den Sockel 939? Wäre eigentlich schade wenn nicht, weil der 939er afaik nicht schneller als ein AM2 ist (bis auf den RAM halt, aber der macht ja eh nicht viel her..)

AnarchX
2006-10-03, 16:18:24
Was meint ihr, kommt der Quad Core von AMD auch noch als Modell für den Sockel 939? Wäre eigentlich schade wenn nicht, weil der 939er afaik nicht schneller als ein AM2 ist (bis auf den RAM halt, aber der macht ja eh nicht viel her..)

Du solltest du mittlerweile mitbekommen haben, das S.939 ein toter Sockel ist.:rolleyes:
Für 939 wird es keine neuen CPUs mehr geben.

Raff
2006-10-03, 17:12:03
Was meinst du mit zweigleisig? Höre ich da etwa einen Dual Core in 45nm? :naughty:

Na dass sowas kommt, ist doch klar. Lowcost im Quad-Zeitalter.

MfG,
Raff

dargo
2006-10-03, 17:13:45
Na dass sowas kommt, ist doch klar. Lowcost im Quad-Zeitalter.

MfG,
Raff
Jetzt sag mir bitte, dass der auch mit meinem P965 Chipsatz läuft. :massa: :uhippie:

Gast
2006-10-03, 18:10:27
Ja, ich könnte einen stärkeren 120mm verbauen oder gar 2 davon. Es sollte aber leise bleiben.

Wenn du 2 davon verbaust, sollte es im Endeffekt sogar leiser sein, weil die langsamer drehen müssen. ;)

Ich denke da immer noch an meinen alten Winni@2,5Ghz und 1,41V. Der hatte auch ca. 40-45W Verlustleistung. Trotzdem war die CPU Temperatur irgendwie tiefer als jetzt mit dem C2D. Auch wenns nicht viel war. Ich glaube ca. 10°C weniger.

Also der Vergleich ist mal wirklich sinnlos.

Man sollte die Temperatur nicht in Relation zur Verlustleistung setzen.

Viel sinniger ist da schon der Vergleich zwischen Leistung (bei einer gewissen Temperatur) gemessen an der Verlustleistung.

Dein angesprochener Winni hat ein "paar" Millionen Transistoren weniger und ist ein Single Core. Mit nem Core 2 kommst du auf fast die selbe Verlustleistung, hast aber grob überschlagen 2,5fache Leistung! Und wenn du die jetzt in Relation setzt: 50W/2,5 = 20W, dann ist der sogar noch viel effizienter als dein Winni, weil er wesentlich mehr Dinge in der selben Zeit erledigen kann!
Ich würde daher den Winchester als verschwenderisch ansehen!

PS: Außerdem was spielt die Temperatur für ne Rolle? Mir wärs scheiß egal ob das Ding nun 50 oder 120 Grad hat, so lange es damit problemlos läuft...

dargo
2006-10-03, 18:25:13
Wenn du 2 davon verbaust, sollte es im Endeffekt sogar leiser sein, weil die langsamer drehen müssen. ;)

Das ist wahr. :D


Also der Vergleich ist mal wirklich sinnlos.

Man sollte die Temperatur nicht in Relation zur Verlustleistung setzen.

Viel sinniger ist da schon der Vergleich zwischen Leistung (bei einer gewissen Temperatur) gemessen an der Verlustleistung.

Dein angesprochener Winni hat ein "paar" Millionen Transistoren weniger und ist ein Single Core. Mit nem Core 2 kommst du auf fast die selbe Verlustleistung, hast aber grob überschlagen 2,5fache Leistung! Und wenn du die jetzt in Relation setzt: 50W/2,5 = 20W, dann ist der sogar noch viel effizienter als dein Winni, weil er wesentlich mehr Dinge in der selben Zeit erledigen kann!
Ich würde daher den Winchester als verschwenderisch ansehen!

Dein Vergleich passt aber auch nicht. Der Winni ist ein 90nm Prozessor mit 1,41V, der C2D 65nm Prozessor mit 1,248V (bei mir). ;)
Und mir gings nicht um die Effizienz/Performance sondern um die entstehende Verlustleistung.

ceed
2006-10-03, 18:34:27
Schon erstaunlich, was hier einige für AMD bescheinigen. Der L3 Cache wird nicht beachtet, dafür aber die 125W Angabe. PS: Bei intel ist gar keine Angabe.

Wenn ich mich recht entsinne hat doch auch mal ein gewisser konkurent von AMD L3 Cache verbaut...
Soooo viel hat das damals nicht gebracht das sie es für nötig hielten im Mainstreame beizubehalten-außerdem sehe ich keinen grund warum Intel das nicht wieder ausgraben könnte um noch mal was drauf zu setzen
Außerdem sind 2 megabyte kein papenstil das dürfte die Yield-Rate und die Gewinnmargen noch n ganzes Stück nach unten treiben :(

Mailwurm
2006-10-03, 18:41:41
In Deutsch + Infos zu AM3/AM2-Kompatibilität:

http://www.hardtecs4u.com/?id=1159892407,7440,ht4u.php

Gast
2006-10-03, 19:21:15
Der Winni ist ein 90nm Prozessor mit 1,41V, der C2D 65nm Prozessor mit 1,248V (bei mir). ;)

Was hat das eine mit dem anderen zu tun?
Unterschiede Architekturen haben nunmal unterschiedliche Vorraussetzungen, da ist ein Vergleich der Fertigungstechnik *nicht* sinnvoll.

Wenn ich danach ginge: Ein Pentium M braucht trotz 1,3V weniger als dein Winni und ist trotzdem schneller... also das ist nun wirklich Banane.

Und mir gings nicht um die Effizienz/Performance sondern um die entstehende Verlustleistung.

Darum gehts doch. Die Verlustleistung ist beim Conroe geringer, weil er 2,5x so viel Sachen in der gleichen Zeit erledigen kann.
Und wenn die ersten Single Cores raus sind, dann werden die wie gesagt, die Leistung bei nur noch etwa 20W erreichen, die dein Winni brachte...

Nur: Wer will jetzt noch nen Singlecore bei den momentanen Preisen?

SavageX
2006-10-03, 19:23:06
außerdem sehe ich keinen grund warum Intel das nicht wieder ausgraben könnte um noch mal was drauf zu setzen

Sowas pappt man nicht so einfach an eine CPU. Das braucht einen neuen Cachecontroller. Von dem Moment, bis das auf einer Roadmap auftaucht, bis zu dem Moment an dem das vorgestellt wird, kann das schonmal ein Jährchen oder mehr dauern.

Entwicklung und Verifizierung braucht Zeit.


Außerdem sind 2 megabyte kein papenstil das dürfte die Yield-Rate und die Gewinnmargen noch n ganzes Stück nach unten treiben :(

Sei ganz beruhigt, die Semprons und kleine Athlons werden sicherlich auch weiterhin konstengünstig vom Band laufen.

dargo
2006-10-03, 21:03:30
Darum gehts doch. Die Verlustleistung ist beim Conroe geringer, weil er 2,5x so viel Sachen in der gleichen Zeit erledigen kann.

Natürlich ist sie geringer wenn man die Performance betrachtet. Man muss aber auch die "reale" Verlustleistung im Auge behalten. Sonst könnte Intel auch gleich einen Kentsfield mit 4x 5Ghz und ~200W Verlustleistung rausbringen. Nur, wie soll man das ohne Kokü kühlen?

Super Grobi
2006-10-03, 21:11:16
Komisch das solche Threads immer auf AMD vs. Intel rauslaufen.

SG

Gast
2006-10-03, 21:17:28
Natürlich ist sie geringer wenn man die Performance betrachtet. Man muss aber auch die "reale" Verlustleistung im Auge behalten. Sonst könnte Intel auch gleich einen Kentsfield mit 4x 5Ghz und ~200W Verlustleistung rausbringen. Nur, wie soll man das ohne Kokü kühlen?

Keine Ahnung, noch haben sie es ja nicht probiert. Vielleicht gings sogar mit Luft. ;-)

Aber mit 130W wäre ich einverstanden, so lange das alles wie bisher mit normalen Mitteln kühlbar bleibt.

Ich weiß gar nicht, warum die Leute da so nen Aufstand darum machen. Die Pentium 4s habens damals ständig in diese Gefilden geschafft und die sind schätzungsweise 5x mal weniger leistungsfähig, als der bald anstehende Kentsfield, der zudem noch weniger verbraucht. ;)

Wer maximale Leistung will, muss nunmal Einschränkungen in Kauf nehmen, sowohl beim Preis als auch bei der Verlustleistung. Anders geht nicht. Zaubern kann von in der Halbleiterbranche niemand!

dargo
2006-10-03, 21:22:31
Keine Ahnung, noch haben sie es ja nicht probiert. Vielleicht gings sogar mit Luft. ;-)

Jo, bei 5000RPM eines 120mm Lüfters. :ugly:


Ich weiß gar nicht, warum die Leute da so nen Aufstand darum machen. Die Pentium 4s habens damals ständig in diese Gefilden geschafft und die sind schätzungsweise 5x mal weniger leistungsfähig, als der bald anstehende Kentsfield, der zudem noch weniger verbraucht. ;)

Siehst du, deswegen hatte ich vorher immer eine AMD CPU. :wink:


Wer maximale Leistung will, muss nunmal Einschränkungen in Kauf nehmen, sowohl beim Preis als auch bei der Verlustleistung. Anders geht nicht. Zaubern kann von in der Halbleiterbranche niemand!
Doch, man muss nur Geduld aufweisen. Stichwort --> Yorkfield. :)

SavageX
2006-10-03, 21:32:08
Doch, man muss nur Geduld aufweisen. Stichwort --> Yorkfield. :)

Auch der wird mehr Leistung aufweisen, wenn man bereit ist, die höhere Verlustleistung in Kauf zu nehmen.

turboschlumpf
2006-10-03, 22:20:56
Schon erstaunlich, was hier einige für AMD bescheinigen. Der L3 Cache wird nicht beachtet, dafür aber die 125W Angabe. PS: Bei intel ist gar keine Angabe.

L3-Cache hört sich zwar im ersten Moment ganz nett an, bringt aber auch nicht allzu viel, wenn Yorkfield dann schon 8+ MiB Shared L2-Cache hat.

Android
2006-10-03, 22:46:33
L3-Cache hört sich zwar im ersten Moment ganz nett an, bringt aber auch nicht allzu viel, wenn Yorkfield dann schon 8+ MiB Shared L2-Cache hat.

Du vergisst da was ganz entscheidendes: Intel hat keinen integrierten Speichercontroller, daher haben sie aus den Fehlern der früheren Prozessoren gelernt und haben keinen L3-Cache mehr. AMD hingegen kann aufgrund des integrierten Speichercontrollers den L3-Cache viel effektiver einsetzen.

ABER: Ich empfehle AMD die Serverprozessoren mit einem deutlich grösserem L3-Cache auszustatten. Und da AMD in letzter Zeit keine grossen Unterschiede bei den Opterons und A64ern gemacht hat ist die Sorge wohl berechtigt. Also 6MB shared L3-Cache sollten es da schon sein. Aber natürlich wäre das Optimum ein grösserer L2-Cache oder zumindest ein shared L2-Cache und 6MB shared L3-Cache.

Mfg
Android

WEGA
2006-10-03, 22:48:05
L3-Cache hört sich zwar im ersten Moment ganz nett an, bringt aber auch nicht allzu viel, wenn Yorkfield dann schon 8+ MiB Shared L2-Cache hat.
der hat doch nur seine 4mb pro dual core wie schon immer. der AMD hat auch seine 512kb L2 pro core wie schon immer + zusätzlich L3 für alle.

AnarchX
2006-10-03, 22:52:19
AMD hingegen kann aufgrund des integrierten Speichercontrollers den L3-Cache viel effektiver einsetzen.


Warum sollte man L3-Cache effektiver einsetzen können, wenn ein größerer L2-Cache schon auf Grund des integrierten Speichercontrollers nicht viel gebracht hatte.:|

der hat doch nur seine 4mb pro dual core wie schon immer. der AMD hat auch seine 512kb L2 pro core wie schon immer + zusätzlich L3 für alle.

Was du meinst ist Kentsfield/Clovertown, aber Yorkfield ist ein nativer Quadcore, bei dem alle vier Cores einen gemeinsamen L2-Cache haben:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4817657&postcount=38

WEGA
2006-10-03, 22:58:22
Warum sollte man L3-Cache effektiver einsetzen können, wenn ein größerer L2-Cache schon auf Grund des integrierten Speichercontrollers nicht viel gebracht hatte.:|

ich glaube er meint speziell im einsatz von servern.
intel xeon gibts als dualcore auch mit 8 und 16mb L2 wenn ich mich nicht irre.

SavageX
2006-10-03, 23:26:26
AMD wird sich das mit dem L3 Cache schon ganz gut aussimuliert haben. Wäre das nicht lohnenswert, so würde es auch nicht implementiert.

Mit L2 Cache pro Kern und einem L3 Cache für den ganzen Verbund kann man hübsche Cachingstrategien fahren. Die Kerne brauchen sich nicht um einen grossen Cache balgen (weniger Trashing) - und wenn ein Thread/Prozess mal den Kern wechselt, so findet der andere Kern mit guter Wahrscheinlichkeit alles hübsch vorgeladen im L3 Cache.

S940
2006-10-03, 23:39:58
Mit L2 Cache pro Kern und einem L3 Cache für den ganzen Verbund kann man hübsche Cachingstrategien fahren. Die Kerne brauchen sich nicht um einen grossen Cache balgen (weniger Trashing) - und wenn ein Thread/Prozess mal den Kern wechselt, so findet der andere Kern mit guter Wahrscheinlichkeit alles hübsch vorgeladen im L3 Cache. Endlich mal ein gutes Posting ;D

Ich schließe mich Deiner Meinung 100% an, den Intel QuadCore stelle ich mir regelrecht "gefährlich" vor. 4 Kerne die sich um *einen* L2 Cache streiten, ob das mal gut geht ...

Da finde ich die AMD Lösung viel eleganter. Für die Unken, denen der AMD L3 zu klein ist, sei wieder mal auf ZRAM verwiesen. Das "sollte" so 2008-2009 einsatzbereit sein. Die AMD Meldungen waren dazu bisher zwar nur verhalten optimistisch, aber zumindest gab es keine negativen Äußerungen.

Falls das dann eingesetzt wird, kann man die Cachegröße bei gleicher Chipfläche max. verfünfachen. Rechner wir mal sicherheitshalber mit x4, dann kommen wir auf 8 MB L3 Cache. Das sollte erst mal reichen :)

ciao

Alex

Gast
2006-10-04, 00:05:02
Ich schließe mich Deiner Meinung 100% an, den Intel QuadCore stelle ich mir regelrecht "gefährlich" vor. 4 Kerne die sich um *einen* L2 Cache streiten, ob das mal gut geht ...

Da finde ich die AMD Lösung viel eleganter.

Keine Ahnung haben, aber groß mitreden, hmm?

Zum einen wird der erste Kentsfield 2x 4 MB haben und später, wenn er nativ erscheinen sollte, sicherlich mehr als nur 1x4 MB.

Außerdem hat ein shared Cache auch riesige Vorteile: Er kann nach Bedarf eingeteilt werden. Das ist bei getrennten Caches nicht möglich.

Ein shared Cache ist wesentlich effizienter, da keine Daten doppelt gelagert werden müssen, somit bleibt auch immer mehr Platz übrig im vergleich zu getrennten Caches. Wenn Intel 1x8MB verbaut und AMD 4x2 MB, so würde ich ganz klar Intels Variante favorisieren.

Und irgendwo habe ich zuletzt mal was von 12MB Caches in Consumer Prozessoren gesehen, also Intel hat da auch schon viel in Planung...

BlackBirdSR
2006-10-04, 00:15:56
Keine Ahnung haben, aber groß mitreden, hmm?



Erstmal werter Gast, solltest du deinen Ton etwas anpassen!!!

Zum einen wird der erste Kentsfield 2x 4 MB haben und später, wenn er nativ erscheinen sollte, sicherlich mehr als nur 1x4 MB.

Außerdem hat ein shared Cache auch riesige Vorteile: Er kann nach Bedarf eingeteilt werden. Das ist bei getrennten Caches nicht möglich.



Ausserdem scheinst du seinen Post nicht ganz so verstanden zu haben wie er gemeint war. Es ging darum, dass sich gleichzeitig 4 Kerne um einen L2-Cache formieren. Das resultiert in einem etwas höheren Aufwand. Darum ging es.

Bokill
2006-10-04, 03:38:48
... und wenn ein Thread/Prozess mal den Kern wechselt, so findet der andere Kern mit guter Wahrscheinlichkeit alles hübsch vorgeladen im L3 Cache. Bei angedachten DDR3 RAM (ab ca. 2008) wird das vermutlich auch notwendig ... ;)

Nur der Speicherbus wird schneller, nicht die Speicherzellen der Speicherchips selber, wenn man lediglich den JEDEC Weg sieht.

MFG Bobo(2006)

Gast
2006-10-04, 03:53:27
ich glaube er meint speziell im einsatz von servern.
intel xeon gibts als dualcore auch mit 8 und 16mb L2 wenn ich mich nicht irre.L3, nicht L2. Aber Tulsa mit den 16 MiB L3 besteht noch aus zwei Netburst Kernen, die zusammen über 160W schlucken. Das ist nun wirklich nichts gescheites...
Außerdem hat ein shared Cache auch riesige Vorteile: Er kann nach Bedarf eingeteilt werden. Das ist bei getrennten Caches nicht möglich.Ja. Aber man muss auch verhindern, dass ein Core sich den kompletten Cache schnappt. Das ist auch nicht so einfach zu verhindern.
Ein shared Cache ist wesentlich effizienter, da keine Daten doppelt gelagert werden müssen, somit bleibt auch immer mehr Platz übrig im vergleich zu getrennten Caches. Wenn Intel 1x8MB verbaut und AMD 4x2 MB, so würde ich ganz klar Intels Variante favorisieren.Das kommt auf das Working Set an. Pauschal kann man nicht sagen, dass das eine oder andere besser ist.

Wenn du auf einem Core einen Prozess mit einem Working-Set von 100 MB laufen lässt, dann wird der wohl oder übel den L2 vollständig füllen und eine ganze Reihe von Cachelines des anderen Cores aus dem L2 schmeissen.

Android
2006-10-04, 09:55:26
Warum sollte man L3-Cache effektiver einsetzen können, wenn ein größerer L2-Cache schon auf Grund des integrierten Speichercontrollers nicht viel gebracht hatte.:|

WEGA hat es richtig gedeutet. Bei Spielen bringt der L2-Cache/L3-Cache ab 1MB nicht mehr allzuviel. Der L2-Cache/L3-Cache kann hingegen ne ganze Menge bringen, wenn man die richtigen Applikationen nutzt. Dazu gehören zum Beispiel Bildbearbeitungsprogramme, Videobearbeitungsprogramme, Audiobearbeitungsprogramme, Server-Anwendungen usw..
Es gibt halt noch mehr Dinge als nur Spiele. ;)

Mfg
Android

Gast
2006-10-04, 11:42:06
Du vergisst da was ganz entscheidendes: Intel hat keinen integrierten Speichercontroller, daher haben sie aus den Fehlern der früheren Prozessoren gelernt und haben keinen L3-Cache mehr. AMD hingegen kann aufgrund des integrierten Speichercontrollers den L3-Cache viel effektiver einsetzen.

ABER: Ich empfehle AMD die Serverprozessoren mit einem deutlich grösserem L3-Cache auszustatten. Und da AMD in letzter Zeit keine grossen Unterschiede bei den Opterons und A64ern gemacht hat ist die Sorge wohl berechtigt. Also 6MB shared L3-Cache sollten es da schon sein. Aber natürlich wäre das Optimum ein grösserer L2-Cache oder zumindest ein shared L2-Cache und 6MB shared L3-Cache.

Mfg
Android

Bin mir nicht ganz sicher, aber viele Techmags berichteten mal, das Intel in der nächsten CPU-Generation auf den integrierten Speichercontroller setzen.

Ob dies schon Yorkfield sein wird oder dessen Nachfolger weiß ich nicht. Bin mir aber sicher, dass bereits die Quadcores (wenn sie denn mal richtig Last erzeugen) eine Menge vom Speicherbus abverlangen. Diesen Flaschenhals wird man früher oder später bereinigen, in dem man den selben Weg wie AMD sprich int. Speichercontroller geht.

HOT
2006-10-04, 14:55:02
']TDP 125W?

Gehts noch? Intel peilt ja 80W an.

Intel peilt bei Quadcores ebenfalls 125 W an.

S940
2006-10-04, 17:53:11
Wenn du auf einem Core einen Prozess mit einem Working-Set von 100 MB laufen lässt, dann wird der wohl oder übel den L2 vollständig füllen und eine ganze Reihe von Cachelines des anderen Cores aus dem L2 schmeissen. Was mir gerade noch beim Thema shared L2 eingefallen ist, wie schaut es eigentlich zugriffstechnisch aus ? Ich mein, wenn Core0 Daten schreibt, wird Core1-Core3 wohl kaum auch schreiben dürfen, oder ?

Lesen ... naja wenns nicht gerade der betreffende L2 Block ist, in den Core1 gerade schreibt, wird es wohl (hoffentlich) gehen.

Hab jetzt noch nichts über den internen Aufbau bei Intel gehört, aber auf den ersten Blick gefällt mir dadurch AMDs Lösung noch besser...

Wie schaut es da eigentlich bei Core2 aus ? Wie verwalten die den gemeinsamen L2 Zugriff ? Gibts da irgendwas im Netz ?

ciao

Alex

P.S: @BlackBirdSR: Danke fürs Antworten auf den "werten Gast" ;-)

Gmax
2006-10-04, 18:25:26
Der nächste Rechner von Cray soll auf den K8L setzen.

> klick < (http://badhardware.blogspot.com/2006/10/amds-k8l-revealed-in-cray-rainier.html)

aylano
2006-10-04, 19:29:26
Welcher Chipsatz wird eigentlich für den Yorkfield verwendet???
Soviel ich weiß, gibts auch einen neuen Chipsatz, der DDR3 verwendet. Aber kann man den Yorkfield auch in ein 975-, 965 bzw. sonstiger DDR2 Chipsatz stecken, um ihn mit DDR2 zu betreiben???

StefanV
2006-10-04, 19:49:34
Mit Sicherheit NICHT...

aylano
2006-10-04, 20:11:48
Der Yorkfield kommt nur mit DDR3???

Dann müsste er ja langsamer laufen als mit DDR2 und das mit viel höheren Preisen??? alias DDR1-->DDR2-Umstieg

Mitte 2008 sollten die DDR3-Preise halbwegs billig sein, was wahrscheinlich der Grund der Verschiebung von AM3 ins Jahr 2008 sein dürfte.

AnarchX
2006-10-04, 21:03:46
Der Yorkfield kommt nur mit DDR3???

Nein, man kann ihn auch mit DDR2-800 betreiben.

Gast
2006-10-04, 21:30:54
[QUOTE=S940

Ich schließe mich Deiner Meinung 100% an, den Intel QuadCore stelle ich mir regelrecht "gefährlich" vor. 4 Kerne die sich um *einen* L2 Cache streiten, ob das mal gut geht ...
[/QUOTE]

was soll daran gefährlich sein?

oder ist es auch "gefährlich" wenn sich 4 kerne um XGB hauptspeicher streiten?

der L2-cache ist schließlich "nur" eine weitere ebene in der speicherhierarchie, einem einzelnen core ist es völlig egal wo ein datum im L2-cache liegt.

das bringt praktisch nur vorteile:

man muss sich beispielsweise kaum gedanken mehr um inkonsistenten im L2-cache machen, wenn 1 core ein datum im L2-cache ändert und der 2. core dieses geänderte datum später lesen will, bekommt er schon das richtige aus dem cache geliefert.
bei getrennten caches muss man sicherstellen, dass der 2. core auch wirklich das geänderte datum bekommt und nicht etwa nach das alte, nicht geänderte datum aus dem hauptspeicher liest, da sich das datum in "seinem" L2-cache noch garnicht befindet.

wenn wir von einer multi-threaded-applikation ausgehen ist es, im gegensatz zu multitasking, doch recht wahrscheinlich dass 2 threads die auf 2 verschiedenen cores laufen teilweise die gleichen daten brauchen.
in diesem fall bekommt der zweite zugriff bereits seine daten aus dem cache und muss nicht auf den hauptspeicher warten, auch wenn dieser aus dem anderen core kommt.

wenn es zu einem taskswitch kommt und ein thread blöderweise auf dem anderen core ausgeführt wird liegen im L2-cache höchstwahrscheinlich noch jede menge daten bereit, während es bei getrennten caches erstmals jede menge misses hat bis dieser wieder ordentlich gefüllt ist.

der gemeinsame cache hat praktisch nur vorteile

im prinzip geht ja auch AMD in zukunft einen ähnlichen weg, nur dass der gemeinsame cache erst in der L3-ebene ist und es direkt im core 2 ebenen gibt.


welches nun das erfolgreichere konzept ist wird sich erst zeigen, sollte der L3-cache von amd aber wesentlich langsamer als intels großer L2 sein, glaube ich nicht dass AMD hier schneller sein kann.

AnarchX
2006-10-04, 21:51:38
AMD to enter K8L era in 2H 2007
http://www.hkepc.com/bbs/attachments_dir/ext_jpg/k8l_Ov6TCMCQGeqf.jpg
http://www.hkepc.com/bbs/itnews.php?tid=679375


http://www.hkepc.com/bbs/attachments_dir/ext_jpg/amdiobus_BddDplSHFMvF.jpg
http://www.hkepc.com/bbs/news.php?tid=679438

KorrupterZeiger
2006-10-04, 22:02:32
[QUOTE=AnarchX]AMD to enter K8L era in 2H 2007Das ist nicht korrekt.
Der erste K8L (Barcelona) ist für das zweite Quartal 2007 angekündigt.

StefanV
2006-10-04, 22:03:03
Interessant, CPU Takt = HT Takt :|

PS: da fehlt 'ne 5 in der Tabelle, aber das kommt davon, wenn man so doof ist und nur 1 Stelle hinterm Komma vorsieht ;)

AnarchX
2006-10-04, 22:05:28
AMD to enter K8L era in 2H 2007Das ist nicht korrekt.
Der erste K8L (Barcelona) ist für das zweite Quartal 2007 angekündigt.
Links? Beweise? Eine aktuellere Quelle als die meine?

aylano
2006-10-04, 22:19:21
Der erste K8L (Barcelona) ist für das zweite Quartal 2007 angekündigt.
Der K8L-Opteron ist fürs 2. Quartal angekündigt und er rest mit Mitte+ 2007

Wie hoch ist eigentlich der North-bridge-Speed vom K8???
Ist der Konstant oder auch unterschiedlich je nach CPU-Takt???

Gast
2006-10-04, 22:44:12
iXBT und andere haben berichtet dass im 2. Quartal 2007 Athlon 64 FX und Opteron CPUs für AM2 auf Basis des Barcelona (Rev.H/K8L) angeboten werden.

http://www.translate.ru/url/tran_url.asp?lang=ru&url=http%3A%2F%2Fwww.ixbt.com%2Feditorial%2Famd-guiseppe-amato-conf-part1.shtml&direction=re&template=General&cp1=NO&cp2=NO&autotranslate=on&psubmit2.x=14&psubmit2.y=12

Gast
2006-10-04, 22:46:39
was soll daran gefährlich sein?

oder ist es auch "gefährlich" wenn sich 4 kerne um XGB hauptspeicher streiten?

der L2-cache ist schließlich "nur" eine weitere ebene in der speicherhierarchie, einem einzelnen core ist es völlig egal wo ein datum im L2-cache liegt.

das bringt praktisch nur vorteile:[...]Ein Nachteil ist, dass sich nun vier Cores um einen Cache-Port streiten, was nicht nur die für jeden Core zur Verfügung stehende Bandbreite reduziert, sondern auch die durchschnittliche Zugriffszeit erhöht, wenn viele Cores den L2 bemühen.
man muss sich beispielsweise kaum gedanken mehr um inkonsistenten im L2-cache machen, wenn 1 core ein datum im L2-cache ändert und der 2. core dieses geänderte datum später lesen will, bekommt er schon das richtige aus dem cache geliefert.Zustimmung. Das ist definitiv ein Vorteil.
bei getrennten caches muss man sicherstellen, dass der 2. core auch wirklich das geänderte datum bekommt und nicht etwa nach das alte, nicht geänderte datum aus dem hauptspeicher liest, da sich das datum in "seinem" L2-cache noch garnicht befindet.Das ist wohl nicht so ein großes Problem. Da alle modernen Prozessoren mehrere Cores in mehr als nur einem Sockel unterstützen, haben diese eh dublizierte Tags zum Snoopen für den Multiprozessorsupport über den FSB bzw. Hypertransport. Bloss geht das bei einem Dual/MultiCore Prozessor eben schneller als über Hypertransport(was schon recht flink ist), weil es eben on-die und mit vollem Prozessortakt abläuft.

Also: Die Hardware ist für das Prüfen eh vorhanden, sogar beim Core2 mit seinem gesharten L2.
wenn wir von einer multi-threaded-applikation ausgehen ist es, im gegensatz zu multitasking, doch recht wahrscheinlich dass 2 threads die auf 2 verschiedenen cores laufen teilweise die gleichen daten brauchen.
in diesem fall bekommt der zweite zugriff bereits seine daten aus dem cache und muss nicht auf den hauptspeicher warten, auch wenn dieser aus dem anderen core kommt.Ich glaube nicht, dass der K8 in diesem Fall auf den Hauptspeicher warten muss. Das Cache-Kohärenz-Protokoll sieht eh vor, dass der Core/Prozessor, der einen Zugriff auf den Hauptspeicher verursacht eine Broadcast-Meldung an alle anderen Cores im System verschicken muss, ob diese eine geänderte Cacheline dieser Addresse besitzen.
Ich kann mir nicht vorstellen, dass beim Vorhandensein dieser Cacheline in unmodifizierten Zustand im anderen Core eines Dual/Multicore-Prozessors der erste Core den Inhalt aus dem Hauptspeicher ließt sondern über den Crossbar in den L2 des anfordernden Cores überträgt. Wenn die Cacheline modifziert ist, muss das eh geschehen, weil AMD ja nicht MESI sondern MOESI verwendet. Damit muss zum Austausch von modifizierten Cachelines kein Hauptspeicherzugriff stattfinden.

Die These, dass der Austausch on-die über den Crossbar geht, deckt sich auch mit den vor einiger Zeit auf Anandtech getätigten Cache-Ping-Pong Benchmarks.
wenn es zu einem taskswitch kommt und ein thread blöderweise auf dem anderen core ausgeführt wird liegen im L2-cache höchstwahrscheinlich noch jede menge daten bereit, während es bei getrennten caches erstmals jede menge misses hat bis dieser wieder ordentlich gefüllt ist.Wobei diese Misses jedoch recht schnell gehen, wie oben gezeigt.

Android
2006-10-04, 23:27:18
Bin mir nicht ganz sicher, aber viele Techmags berichteten mal, das Intel in der nächsten CPU-Generation auf den integrierten Speichercontroller setzen.

Ob dies schon Yorkfield sein wird oder dessen Nachfolger weiß ich nicht. Bin mir aber sicher, dass bereits die Quadcores (wenn sie denn mal richtig Last erzeugen) eine Menge vom Speicherbus abverlangen. Diesen Flaschenhals wird man früher oder später bereinigen, in dem man den selben Weg wie AMD sprich int. Speichercontroller geht.

Dein Wort in Intels Ohren lieber Gast. :massa: Wir warten schon sehr lange auf diesen Schritt seitens Intel und fragen uns schon seit dem CoreDuo, warum Intel da nicht gleichgezogen hat. :confused:
Aber vielleicht werden wir wirklich noch fürs Warten belohnt. ;)

Gast
2006-10-04, 23:42:29
Was mir gerade noch beim Thema shared L2 eingefallen ist, wie schaut es eigentlich zugriffstechnisch aus ? Ich mein, wenn Core0 Daten schreibt, wird Core1-Core3 wohl kaum auch schreiben dürfen, oder ?

Lesen ... naja wenns nicht gerade der betreffende L2 Block ist, in den Core1 gerade schreibt, wird es wohl (hoffentlich) gehen.
Wenn der L2 wie beim Core2Duo nur einen Port hat, dann wird es wohl nicht gleichzeitig gehen. Bei einem Dual/Quad-ported Cache ist das aber möglich. Dann können eben zwei bzw. vier Anfragen gleichzeitig bearbeitet werden, egal von welchen Cores (vorausgesetzt es liegen keine Bank-Konflikte vor, weil so ziemlich alle Multi-Ported Caches als Multi-Bank Caches implementiert sind).
Wie schaut es da eigentlich bei Core2 aus ? Wie verwalten die den gemeinsamen L2 Zugriff ? Gibts da irgendwas im Netz ?Jep. Ein Port beim L2, d.h. beide Cores nie gleichzeitig sondern schön brav nacheinander.

Gast
2006-10-05, 00:28:38
Wir warten schon sehr lange auf diesen Schritt seitens Intel und fragen uns schon seit dem CoreDuo, warum Intel da nicht gleichgezogen hat. :confused:

Das hatten wir alles schonmal besprochen. Weils momentan noch unnötig ist, zu teuer wäre und den Prozessordie weiter vergrößern würde. Momentan scheint Intel damit richtig zu liegen, der große Cache und die ganzen Features drum herum sind so gut, das er teilweise mit dem A64 das Wasser reichen kann.

Intel wird definitv einen IMC einbauen, das sagten sie selbst mal in einem Interview, allerdings erst mit den neuen Architekturen.

Gast
2006-10-05, 00:31:29
Außerdem wollte ich nochmal erwähnen, das DDR3 in der jetzigen Form total nutzlos ist.

Man siehe beispielweise hier:
http://www.xbitlabs.com/images/memory/corsair-dominator/charts/corsair.png

Das ist noch ein DDR2-Modul, welches zu kaufen sein soll.

Dagegen sieht man hier ein DDR3-Modul in Aktion:
http://www.computerbase.de/news/hardware/arbeitsspeicher/2006/september/idf_ddr3_aktion_roadmap/

Auf dem Entwicklerforum demonstrierte unter anderem Micron den kommenden DDR3-1066-Speicher mit den Timings 7-7-7-20 in Aktion.

Momentan ist der deutlich langsamer und DDR3-1333 sollte auch noch mit DDR2 machbar sein.
Ich sehe nach wie vor keinen Sinn darin. Nicht vor 2008 oder 2009.

aylano
2006-10-05, 01:40:24
Das dürfte wahrscheinlich der Hauptgrund sein, warum AMD den AM3 zurückversetzt hatte. Schließlich jammerten viele, dass AM2 keine Performancesteigerung brachte.
Dazu soll DDR3 Mitte 2008 ähnlich teuer wie DDR2 sein.

Vorallem kann man gespannt sein, wie gut der K8L die Bandbreite nutzen kann. Natürlich nicht zu vergessen das HT3.0, welches wahrscheinlich auch zu Performancesteigerungen (wie auch immer) führt.

StefanV
2006-10-05, 03:16:11
Das Problem an der Sache ist, das bei CPUs die Bandbreite nicht soo wirklich wichtig ist, Latenz macht da doch mehr aus, nur daran haperts irgendwie...

Da ist auch keine Besserung in Sicht, irgendwie...

BlackBirdSR
2006-10-05, 07:40:39
Das Problem an der Sache ist, das bei CPUs die Bandbreite nicht soo wirklich wichtig ist, Latenz macht da doch mehr aus, nur daran haperts irgendwie...

Da ist auch keine Besserung in Sicht, irgendwie...

Wenn du dir den K8 anschaust: Wieviel besser wills du noch werden?
Oder Core2: Wie viel besser muss man noch "prefetchen"?

Größere Caches und mehr Stufen bei AMD und Intel werden das Problem angreifen (müssen)

Dresdener
2006-10-05, 12:24:22
Das dürfte wahrscheinlich der Hauptgrund sein, warum AMD den AM3 zurückversetzt hatte. Schließlich jammerten viele, dass AM2 keine Performancesteigerung brachte.Wenn ich sowas lese bekomme ich immer wieder einen Lachkrampf.

Glaubst du ernsthaft, Halbleiterfirmen wie AMD wüsste nicht ganz genau im Vorraus welches Leistungspotential durch eine Technologie erreicht wird, und müssen sich dies erst durch irgendwelche ahnungslosen Endverbraucher in basislosen Forendiskussionen sagen lassen?

Nur mal ein Tip - alle Entwürfe für komplexe Halbleiterbauteile (Grafikkerne, CPUs usw.) werden bereits viele Monate (oft über ein Jahr) selbst vor der Entwicklung der Lithographiemasken komplett simuliert. Damit wird auch sehr genau das praktische Leistungspotential berechnet. Herstellungsprozessspezifische Potentialfluktuationen sind da zu vernachlässigen, da fast immer innerhalb der Planung entsprechende Anpassungen vorgenommen werden können.


Und wie bereits gesagt wurde, sind die ersten Rev.H/Barcelona Kerne (Athlon und Opteron) für das zweite Quartal 2007 angekündigt und nicht wie dass hier falsch dargestellt wird.

Bokill
2006-10-05, 14:09:39
... Natürlich nicht zu vergessen das HT3.0, welches wahrscheinlich auch zu Performancesteigerungen (wie auch immer) führt. HyperTransport 3.0 (http://www.orthy.de/index.php?option=com_glossary&Itemid=55&func=view&id=269) bringt für Einsockelsysteme so viel Leistungssteigerung, wie 3.0 Hoden für Männer einen realen praktischen Mehrwert haben.

Prima zum Vorzeigen, aber hat kaum praktischen Nutzen bei einem einzigen Sockel.

MFG Bobo(2006)

aylano
2006-10-06, 04:33:56
Glaubst du ernsthaft, Halbleiterfirmen wie AMD wüsste nicht ganz genau im Vorraus welches Leistungspotential durch eine Technologie erreicht wird, ...
Ja glaub ich schon.
Du schreibst ja, als ob es nie Verschiebungen von Produkten gab und das der Pentium 4 kein Misserfolg war, sondern so geplant war.
Abgesehen davon schrieb ich nicht nur von der Leistung, sondern auch vom Zeitpunkt der Einführung, welches auch den Preis bestimmt.

Klar war der AM2 gleich schnell wie der 939, aber dafür musste man die teurern DDR2-800 CL4 Riegeln kaufen, was AFAIK viele negativ sahen.

... und müssen sich dies erst durch irgendwelche ahnungslosen Endverbraucher in basislosen Forendiskussionen sagen lassen?
Sagen wo?
Ich hab was vermutet.

Und falls es dich interessiert. In einem anderen Forum (anderer Technik-Bereich) in dem ich auch schreib liest sogar der Konzern-Chef mit. Und Angestellte nutzten unerlaubt Material davon, was dann zu Gerichts-Streitigkeiten führten.
Aber man muss wissen, dass der Konzern bis vor kurzem nicht in die selbe Richtung arbeite, wie die Wissenschaft seit langem forschte.
Na ja, solche ineffizienten Konzerne überleben halt, wenn sie vom Staat ordentlich subventioniert werden und die Politiker im Konzern dauernt herumpfuschen.

Aber in der Halbleiterindustrie geht die Forschung mit der Firma hand in Hand und somit überhaupt nicht vergleichbar.

HyperTransport 3.0 bringt für Einsockelsysteme so viel Leistungssteigerung, wie 3.0 Hoden für Männer einen realen praktischen Mehrwert haben.
Danke für die Info. Ich dachte, dass eine Möglichkeit besteht, dass AMD vielleicht doch auch HT3.0 a la Torrenza in Performance-Einsockelsysteme einbaut.

Kladderadatsch
2006-10-06, 08:16:27
wird es für ht3.0 auch einen vom user festsetzbaren teiler geben, oder ist beim overclocking bald bei 3,5 ghz (http://www.computerbase.de/news/hardware/prozessoren/amd/2006/oktober/k8l_codenamen_i_o-bus/) schluss?

Gast
2006-10-06, 09:37:13
Was das bringen soll ist mir eh schleierhaft. Die Hypertransport-Geschwindigkeit hatte noch nie großartig messbare Auswirkungen auf die Performance.

Dresdener
2006-10-06, 11:35:11
Ja glaub ich schon.
Du schreibst ja, als ob es nie Verschiebungen von Produkten gab und das der Pentium 4 kein Misserfolg war, sondern so geplant war.Ob Produkte mal nicht termingerecht ausgeliefert wurden, oder eine Produktlinie langfristig ein "Misserfolg" waren, hat nichts mit der Frage des langfristigen Wissens über deren Leistung zu tun.

Abgesehen davon schrieb ich nicht nur von der Leistung, sondern auch vom Zeitpunkt der Einführung, welches auch den Preis bestimmt.
Klar war der AM2 gleich schnell wie der 939, aber dafür musste man die teurern DDR2-800 CL4 Riegeln kaufen, was AFAIK viele negativ sahen.Und? Wie kommst du darauf dass dies z.B. AMD nicht schon lange bewusst gewesen sein soll?

Und falls es dich interessiert. In einem anderen Forum (anderer Technik-Bereich) in dem ich auch schreib liest sogar der Konzern-Chef mit. Und Angestellte nutzten unerlaubt Material davon, was dann zu Gerichts-Streitigkeiten führten.Sag mal hast du überhaupt Ahnung von Berufsleben?
Das Konzern-Chefs (ich hoffe du weißt was ein Konzern überhaupt ist) angeblich irgendwelche Frickel-Hardware-Foren von Endverbrauchern nach Resonanz zu ihren Produkten durchstöbern, ist nicht weiter als lächerlich!

Aber man muss wissen, dass der Konzern bis vor kurzem nicht in die selbe Richtung arbeite, wie die Wissenschaft seit langem forschte.
Na ja, solche ineffizienten Konzerne überleben halt, wenn sie vom Staat ordentlich subventioniert werden und die Politiker im Konzern dauernt herumpfuschen.

Aber in der Halbleiterindustrie geht die Forschung mit der Firma hand in Hand und somit überhaupt nicht vergleichbar.Darf ich mal fragen was du berufsmäßig tust?
Wenn ich schon alleine deine Kommentare über Subventionen und „Politiker im Konzern“ lese, kommt es einem so vor als wenn du ein Schüler bist, der erst einmal anfangen muss Erfahrung zu sammeln.

Es ist nämlich so: irgendwelche ahnungslosen Leute, die nicht mal ansatzweise eine Ahnung über die zugrunde liegenden Arbeitsleistungen und Strukturen haben, glauben sie könnten den Produzenten mit ihrer herbeigedachten Marktübersicht Ratschläge erteilen.
Arroganz des Ahnungslosen.

Auch wenn du es offensichtlich nicht wahrhaben willst: es zerbrechen sich tausende von Leute mit enormer Berufserfahrung und Intelligenz den ganzen Tag und über Jahre hinweg den Kopf über Dinge, wo du meinst als komplett Außenstehender denen wertvolle Ratschläge erteilen zu können, nur weil du Kenndaten über ein Produkt gelesen hast, welches seit Monaten/Jahren in extrem durchdachter Entwicklung ist.

Dresdener
2006-10-06, 11:57:58
Sagen wo?
Ich hab was vermutet.Du "vermutest" AMD währe sich des Leistungsvermögens der AM2 Systemarchitektur unbewusst gewesen und dass AMD erst aufgrund der Beurteilung von Endverbrauchen dies verstanden hätte und darauffolgend die Positionierung entsprechender Nachfolgeprodukte angepasst hätte.

Das ist einfach naiv.

Botcruscher
2006-10-06, 12:06:33
Sag mal hast du überhaupt Ahnung von Berufsleben?
Das Konzern-Chefs (ich hoffe du weißt was ein Konzern überhaupt ist) angeblich irgendwelche Frickel-Hardware-Foren von Endverbrauchern nach Resonanz zu ihren Produkten durchstöbern, ist nicht weiter als lächerlich!


Angesichts von genau plazierter Werbung, Exklusivtests und bezahlten "Usern" welche die Meinung etwas "verbessern", ist der Gedanke naiv.
Die Werbeabteilung der Konzerne macht genau das.

Dresdener
2006-10-06, 12:14:25
Angesichts von genau plazierter Werbung, Exklusivtests und bezahlten "Usern" welche die Meinung etwas "verbessern", ist der Gedanke naiv.
Die Werbeabteilung der Konzerne macht genau das.Du meist also AMD bezahle Leute um in einem Forum wertvolle Ratschläge entgegenzunehmen?
Das glaubst du ernsthaft?!

Erst solls der "Konzernchef" machen, jetzt die "Werbeabteilung".
Einfach lächerlich.

Blutmaul
2006-10-06, 12:40:29
Du meist also AMD bezahle Leute um in einem Forum wertvolle Ratschläge entgegenzunehmen?
Das glaubst du ernsthaft?!

Erst solls der "Konzernchef" machen, jetzt die "Werbeabteilung".
Einfach lächerlich.

Es ist schon so, das selbst die Intelligentesten sich irren können, was Marktakzeptanz angeht.
Vielleicht floppt ein Produkt nur, weil der erwartete Leistungsgewinn nicht eintritt, wobei ich das jetzt allgemein halte.
Grade "Intelligente" ticken ganz anders, als der Normalverbraucher, Sie haben andere Prioritäten und setzen Dinge voraus, die man nicht erwarten kann.

Und das Problem von Führungskräften ist doch, das die nur vielfach gefilterte Infos erhalten, die häufig eine Message transportieren sollen - deswegen würde ich es gut finden, wenn viel mehr "Konzernchefs" dem Volk auf Maul schauen würden, das brächte etwas!

Gast
2006-10-06, 13:15:52
Es ist schon so, das selbst die Intelligentesten sich irren können, was Marktakzeptanz angeht.
Vielleicht floppt ein Produkt nur, weil der erwartete Leistungsgewinn nicht eintritt, wobei ich das jetzt allgemein halte.
Grade "Intelligente" ticken ganz anders, als der Normalverbraucher, Sie haben andere Prioritäten und setzen Dinge voraus, die man nicht erwarten kann.

Und das Problem von Führungskräften ist doch, das die nur vielfach gefilterte Infos erhalten, die häufig eine Message transportieren sollen - deswegen würde ich es gut finden, wenn viel mehr "Konzernchefs" dem Volk auf Maul schauen würden, das brächte etwas!Worüber redest du?
Hier geht es darum, dass AMD angeblich erst erzählt bekommen musste, dass die AM2-Platform keine nennenswerten leistungssteigerungen bei der Einführung erziehlte, und sie infolge dessen ihre Pläne für kommendes Jahr angepasst hätten.
Das ist totaler Schwachsinn, da sie wie bereits erläutert schon lange beim Entwurf die Leistungsdaten genau ermittelt haben und sich entsprechende Gedanken machten.

Eine Firma richtet sich im Nachhinein niemals nach den neunmalklugen Ratschlägen von irgendwelchen Endverbrauchern zur Produktstrategie, sondern einzigst nach dem konkreten Markterfolg.
Was ihr glaubt zu wissen, wissen die schon lange.

Blutmaul
2006-10-06, 13:27:49
Worüber redest du?
Hier geht es darum, dass AMD angeblich erst erzählt bekommen musste, dass die AM2-Platform keine nennenswerten leistungssteigerungen bei der Einführung erziehlte, und sie infolge dessen ihre Pläne für kommendes Jahr angepasst hätten.
Das ist totaler Schwachsinn, da sie wie bereits erläutert schon lange beim Entwurf die Leistungsdaten genau ermittelt haben und sich entsprechende Gedanken machten.

Eine Firma richtet sich im Nachhinein niemals nach den neunmalklugen Ratschlägen von irgendwelchen Endverbrauchern zur Produktstrategie, sondern einzigst nach dem konkreten Markterfolg.
Was ihr glaubt zu wissen, wissen die schon lange.

Eine Firma richtet sich nach ihren Kunden, oder wird hingerichtet!

aylano
2006-10-06, 13:27:49
Ob Produkte mal nicht termingerecht ausgeliefert wurden, oder eine Produktlinie langfristig ein "Misserfolg" waren, hat nichts mit der Frage des langfristigen Wissens über deren Leistung zu tun.
Schön.
Aber wenn du mal richtig auf meine Aussagen eingehen würdest, dann kappierst wahrscheinlich, dass es um immer noch um den Zeitpunkt der Einführung.
Lies mal richtig.

Und? Wie kommst du darauf dass dies z.B. AMD nicht schon lange bewusst gewesen sein soll?
Mit "viele" meinte ich die Menschen, die das Produkt kaufen und nicht die Menschen, die es bei AMD entwickelt haben.

Sag mal hast du überhaupt Ahnung von Berufsleben?
Schon.
Wenn du meine Text gscheit lesen würdest, dann würde man lesen, dass ohne Staatliche Subventionen diese Firma schon längst in Konkurs wäre.
Wie soll eine Firma überleben, wenn sie seit Jahrzehnte Mega-Verluste macht??? Erklär mir das du Profi.

Wenn ich schon alleine deine Kommentare über Subventionen und „Politiker im Konzern“ lese, kommt es einem so vor als wenn du ein Schüler bist, der erst einmal anfangen muss Erfahrung zu sammeln.
Lebst du hinter Mond.
Hast du noch nie was von Staatsbetrieben gehört.

Auch wenn du es offensichtlich nicht wahrhaben willst: es zerbrechen sich tausende von Leute mit enormer Berufserfahrung und Intelligenz den ganzen Tag und über Jahre hinweg den Kopf über Dinge, wo du meinst als komplett Außenstehender denen wertvolle Ratschläge erteilen zu können, nur weil du Kenndaten über ein Produkt gelesen hast, welches seit Monaten/Jahren in extrem durchdachter Entwicklung ist.
So wie beim Transrapid, was quasi als sicherste Bahn gilt. 3 Jahrzehnte Forschung fürm Arsch, weil man, so wie ich es in den Medien gehört habe, vergessen hat im Sonderfahrzeug auch die Sicherheitstechnologie des Transrapids einzubauen. Eigentlich logsich in jedem Fährzeug die selbe Sicherheitstechnik einzubauen und da braucht man nicht so gscheit sein, um das auszudenken.
Tja, und dieser Fehler war tödlich. Nicht nur für ca. 20 Menschen sondern auch für das 25-30 Jahre alte Forschungsprojekt.

Es ist nämlich so: irgendwelche ahnungslosen Leute, die nicht mal ansatzweise eine Ahnung über die zugrunde liegenden Arbeitsleistungen und Strukturen haben, glauben sie könnten den Produzenten mit ihrer herbeigedachten Marktübersicht Ratschläge erteilen.
Arroganz des Ahnungslosen.
Wie kannst du z.B. Google erklären.
Müssten ja eigentlich Garagen-Spinner sein.

Auch wenn du es offensichtlich nicht wahrhaben willst: es zerbrechen sich tausende von Leute mit enormer Berufserfahrung und Intelligenz den ganzen Tag und über Jahre hinweg den Kopf über Dinge, wo du meinst als komplett Außenstehender denen wertvolle Ratschläge erteilen zu können, nur weil du Kenndaten über ein Produkt gelesen hast, welches seit Monaten/Jahren in extrem durchdachter Entwicklung ist.
Da liegst du wieder falsch.
Ich schrieb, dass es das sehrwohl gibt.
Damit meine ich, dass es nicht um die Halbleiterindustrie geht, da dies sehr gut entwickelt ist und man eigentlich nur mit viel Geld was erforschen kann.

Aber abgesehen davon, schrieb ich das um zu sehen, ob ich mit meiner Vermutung richtig liege. (Das erkennt man nähmlich, an die folgenden Antworten;) )
Manchmal ist es garnicht so einfach auf die schnelle die richtigen Infos zu bekommen.

Du "vermutest" AMD währe sich des Leistungsvermögens der AM2 Systemarchitektur unbewusst gewesen und dass AMD erst aufgrund der Beurteilung von Endverbrauchen dies verstanden hätte und darauffolgend die Positionierung entsprechender Nachfolgeprodukte angepasst hätte.

Das ist einfach naiv.
Falsch. AMD hat die Leistung (ich gehe davon aus) sehrwohl gewusst, aber es hat, so wie ich es mitbekommen hat, viele Negative Aussagen über die AM2-Einführung gegeben.
Und vielleicht will AMD nächstes Mal weniger negative Aussagen haben und will den Zeitpunkt für die Einführung perfekter machen.
Schließlich versucht ja AMD es mit den mainborads so kundenfreudlich wie möglich zu machen.

Du "vermutest" AMD währe sich des Leistungsvermögens der AM2 Systemarchitektur unbewusst gewesen und dass AMD erst aufgrund der Beurteilung von Endverbrauchen dies verstanden hätte und darauffolgend die Positionierung entsprechender Nachfolgeprodukte angepasst hätte.

Das ist einfach naiv.
Das ist sogar Realität bei anderen Firmen.
Das wird dort z.B. Kundenforum genannt, wo Kunden ihr Feed-back über die Produkte preisgeben. Und das machen sie sogar ehrenamtlich.
Bei diesem Konzern ist der Umsatz ca. halb so groß, wie die der von AMD-ATI.

Und die perfekte Einführung bzw. die Kundenwünsche sind sehr wichtig.
a la Betamax, Video2000, MiniDisk, ...

Gast
2006-10-06, 13:43:17
Eine Firma richtet sich nach ihren Kunden, oder wird hingerichtet!Hat hier jemand was anderes behauptet?
Firmen lassen sich zu ihrer Produktstrategie aber nicht von neunmalklugen Endkunden zurechtweisen.

Blutmaul
2006-10-06, 14:05:37
Hat hier jemand was anderes behauptet?
Firmen lassen sich zu ihrer Produktstrategie aber nicht von neunmalklugen Endkunden zurechtweisen.

Nicht von einem Einzigen, aber von Vielen durchaus...

Dresdener
2006-10-06, 14:36:24
Schön.
Aber wenn du mal richtig auf meine Aussagen eingehen würdest, dann kappierst wahrscheinlich, dass es um immer noch um den Zeitpunkt der Einführung.
Lies mal richtig."Das dürfte wahrscheinlich der Hauptgrund sein, warum AMD den AM3 zurückversetzt hatte. Schließlich jammerten viele, dass AM2 keine Performancesteigerung brachte."

Was soll ich da bitte rauslesen?

Mit "viele" meinte ich die Menschen, die das Produkt kaufen und nicht die Menschen, die es bei AMD entwickelt haben.Dennoch geht es um deine Aussage, AMD hätte sein Produktstrategie geändert, weil sich ein paar arme Seelen die phänomenale Entdeckung gemacht haben dass es keinen nennenswerten Leistungsanstieg bei der Einführung von AM2 gab.

Schon.
Wenn du meine Text gscheit lesen würdest, dann würde man lesen, dass ohne Staatliche Subventionen diese Firma schon längst in Konkurs wäre.
Wie soll eine Firma überleben, wenn sie seit Jahrzehnte Mega-Verluste macht??? Erklär mir das du Profi.Bevor man den Mund aufmacht, sollte man schon einmal zumindest ansatzweise eine Ahnung haben wovon man redet.
AMD hat bereits seit Jahren eine positive Jahresbilanz.
Dass AMD ohne Subventionen „schon längst in Konkurs wäre“ ist nicht als totaler Schwachsinn.
Was AMD alleine in machen Quartalen an Gewinn erwirtschaftet, übertrifft ganze Subventionsprogramme.

Lebst du hinter Mond.
Hast du noch nie was von Staatsbetrieben gehört.Willst du etwa behaupten AMD währe ein Staatsbetrieb?
Meine Güte!

So wie beim Transrapid, was quasi als sicherste Bahn gilt. 3 Jahrzehnte Forschung fürm Arsch, weil man, so wie ich es in den Medien gehört habe, vergessen hat im Sonderfahrzeug auch die Sicherheitstechnologie des Transrapids einzubauen. Eigentlich logsich in jedem Fährzeug die selbe Sicherheitstechnik einzubauen und da braucht man nicht so gscheit sein, um das auszudenken.
Tja, und dieser Fehler war tödlich. Nicht nur für ca. 20 Menschen sondern auch für das 25-30 Jahre alte Forschungsprojekt.Was hat das mit der Diskussion zu tun?
Da aber auch dazu deine Ausführungen Schwachsinnig sind, kann ich nicht widerstehen…

Das Transrapid-Projekt soll also Tod sein, weil Angestellte in der Leitstelle einen eklatanten Fehler gemacht haben, der mit keinem existierenden Bahnsystem der Welt verhindert werden kann?!
Du bist echt lustig.

Wie kannst du z.B. Google erklären.
Müssten ja eigentlich Garagen-Spinner sein.Willst du damit sagen dass du beim Aufbau einer Mikroelektronikfirma vom Kaliber AMD bist und du dadurch qualifiziert bist AMD Ratschläge zu geben?

Da liegst du wieder falsch.
Ich schrieb, dass es das sehrwohl gibt.Was gibt?

Damit meine ich, dass es nicht um die Halbleiterindustrie geht, da dies sehr gut entwickelt ist und man eigentlich nur mit viel Geld was erforschen kann.Tja, hier geht’s aber um diese.

Aber abgesehen davon, schrieb ich das um zu sehen, ob ich mit meiner Vermutung richtig liege. (Das erkennt man nähmlich, an die folgenden Antworten;) )
Manchmal ist es garnicht so einfach auf die schnelle die richtigen Infos zu bekommen.Was denn für „Infos“?

Falsch. AMD hat die Leistung (ich gehe davon aus) sehrwohl gewusst, aber es hat, so wie ich es mitbekommen hat, viele Negative Aussagen über die AM2-Einführung gegeben.
Und vielleicht will AMD nächstes Mal weniger negative Aussagen haben und will den Zeitpunkt für die Einführung perfekter machen.
Schließlich versucht ja AMD es mit den mainborads so kundenfreudlich wie möglich zu machen.Es ist AMD vollkommen wurscht, ob ein paar Frickler in Foren „negative Aussagen“ zur AM2-Einführung verfassen, weil sie unbegründet von einer Leistungssteigerung ausgegangen sind.

Das ist sogar Realität bei anderen Firmen.
Das wird dort z.B. Kundenforum genannt, wo Kunden ihr Feed-back über die Produkte preisgeben. Und das machen sie sogar ehrenamtlich.
Bei diesem Konzern ist der Umsatz ca. halb so groß, wie die der von AMD-ATI.Klar. Pfannie möchte gerne wissen wie ihre Suppen schmecken.
Dummerweise hat das nichts mit der Diskussion zu tun.

Und die perfekte Einführung bzw. die Kundenwünsche sind sehr wichtig.
a la Betamax, Video2000, MiniDisk, ...Na klaaar! Die haben die “perfekte Einführung” hinbekommen, weil sie Foren gelesen haben die zeigen wie es geht! LOL

Nerothos
2006-10-06, 14:38:40
Könnt' ihr mal bitte wieder zurück zum Topic kommen? ;(

Gast
2006-10-06, 14:44:47
Nicht von einem Einzigen, aber von Vielen durchaus...Tja, DEINE Meinung dass sich Marktforscher von AMD, Intel und Co., Foren durchlesen um zu erfahren wie sie ihre Prozessoren zu gestalten haben.

"Konzernchef" (LOL) zum Ingenieurleiter: „Du, ich habe im 3DCenter Forum und anderen gelesen, dass es bei der AM2-Einführung keine Leistungssteigerung gab und es ihnen stinkt.“
Ingenieurleiter zum "Konzernchef": „OK, lass uns AM3 verschieben!“

!!! ROFL !!! Man ist das lächerlich!

Sk_Antilles
2006-10-06, 14:50:41
Eine Firma richtet sich nach ihren Kunden, oder wird hingerichtet!

Siehe Microsoft *fg*
*scnr

StefanV
2006-10-06, 14:58:33
Wenn du dir den K8 anschaust: Wieviel besser wills du noch werden?
Oder Core2: Wie viel besser muss man noch "prefetchen"?

Größere Caches und mehr Stufen bei AMD und Intel werden das Problem angreifen (müssen)
Tjo, das ist (wie immer) das Problem, das der Speicher nicht in der Lage ist, mit der Performance der CPUs mitzuhalten...

Wenns wenigstens etwas schneller werden würde, von den Latenzen, aber das sehe ich irgendwie nicht...

Blutmaul
2006-10-06, 15:24:07
Eine erfolgreiche Firma hat ihren Finger am Puls der Zeit und ihr Ohr dem Kunden geliehen und zwar ausgehend von höchster Stelle, das ist meine Kernaussage und sonst nichts!

Ich finde die kommenden AMD-CPUs sehr atraktiv, wenn die erwartete Leistungsteigerung annähernd eintritt.

Ich glaube, für den Heimanwender ist HT3.0 nicht wichtig, sondern die Möglichkeit, ein bestehendes AM2-System einfach CPU-Upzugraden.
Es kündigt sich aber wohlmöglich schon wieder eine Sockelinflation an.

Als Eigner eines schönen S939-Systems bin ich zum Beispiel nicht bereit, Geld für AM2 aus dem Fenster zu werfen.
Das bedeutet, ich gebe AMD kein Geld, ausser für eine bessere S939-CPU, oder wenn in ferner Zukunft DDR-3 Standard ist und ich die gesamte Infrastruktur sowieso tausche.

Ich bin jedenfalls gespannt, ob die neuen CPUs wirklich AM2-Kompatibel werden...

Sehr gut ist, das der Stromverbrauch immer mehr Beachtung findet, ich finde es hochinteressant, wenn ein Mehrkernprozessor im Leerlauf praktisch im Standbybetrieb läuft, für Internetsurfen, oder als Schreibmaschine reicht das aus, während bei fordernder Software/Spielen alle Kerne auf Volldampf gehn.
Das dürfte die Stromversorgung (bauteilbezogen) fordern?

Leider drehn die GPU-Hersteller in der Beziehung völlig durch, ich gebe das bei der CPU eingesparte bei der Grafikkarte doppelt und reifach wieder aus (SLI-System + Physik-GPU = 1xxx Watt Netzteil?).

Ich hoffe schon aus Wettbewerbsgründen das AMD Erfolg hat!

Blutmaul
2006-10-06, 15:29:10
Siehe Microsoft *fg*
*scnr

Microsoft hat keinen Konkurrenten, denn ich brauche Windows zwingend um bestimmte Software/Spiele laufen zu lassen.

Sk_Antilles
2006-10-06, 16:05:06
Microsoft hat keinen Konkurrenten, denn ich brauche Windows zwingend um bestimmte Software/Spiele laufen zu lassen.

Darum ging es in deiner ursprünglichen Aussage aber nicht.

Blutmaul
2006-10-06, 16:38:26
Ich bitte darum, zu verstehn, das ich OT in diesem Thread nicht weiter fördere. :wink:

Sk_Antilles
2006-10-11, 13:44:01
Es gibt Neuigkeiten zun den Quad-Core Cpus von AMD:

http://www.heise.de/newsticker/meldung/79279

hört sich ja alles sehr spektakulär an. ;)

Sephiroth
2006-11-30, 22:03:39
AMD Demonstrates World's First Native Quad-Core x86 Server Processor (http://www.planet3dnow.de/vbulletin/showthread.php?t=290990)

http://www.amd.com/quadcoredemo

Ein Bios-Update reicht aus.

AnarchX
2006-11-30, 22:11:59
Ein Bios-Update reicht aus.

Der problemlose Einsatz von K8L un erhältliche DDR2-Boards ist natürlich schon sehr nett, aber etwas anderes könnte man sich auch eher nicht erlauben.

AMD expects to begin shipping native Quad-Core AMD Opteron processors that incorporate four processor cores on a single die of silicon to customers in mid-2007.
Da war auch schon mal die Rede, dass K8L für Server eher kommen sollte.
Naja....:|

Godmode
2006-11-30, 22:19:26
Weiß man eigentlich schon irgendwas zu der Performance von K8L, oder ist da noch nichts nach außen gekommen? Für AMD wäre es sicherlich sinnvoll wenn der Kunde jetzt schon wüßte, dass der K8L schneller als ein C2D ist!

aylano
2006-11-30, 22:19:45
Da war auch schon mal die Rede, dass K8L für Server eher kommen sollte.
Ja.
Das steht auch im Text.

"With the introduction of native quad-core x86 processors in the second quarter of 2007 ..."

Für AMD wäre es sicherlich sinnvoll wenn der Kunde jetzt schon wüßte, dass der K8L schneller als ein C2D ist!
Momentan hat der Kunde Retail bei AMD nicht die erste Priorität, sonst hätte AMD noch 939-65nm-CPUs gemacht.
Vielleicht durfte der Kunde Dell, HP, usw. schon mal einen Blick drauf werfen.

w0mbat
2006-11-30, 22:22:54
In den ersten Benches ist er immerhin schneller als ein Xeon 5355 (Kentsfield@2,66GHz).

Gmax
2006-11-30, 22:27:40
In den ersten Benches ist er immerhin schneller als ein Xeon 5355 (Kentsfield@2,66GHz).

Ist das ein Quad Core?

Yups
2006-11-30, 22:30:33
Ist das ein Quad Core?

Jap, gib einfach mal Xeon 5355 bei google ein, das erste Ergebnis war bei mir ein Ergebnis auf der Intel HP ;)
Und die QC heissen mein ich auch Kentsfield, von daher^^

Gmax
2006-11-30, 22:32:58
Sehr schön, dann holt sich AMD die Performancekrone wieder :smile:

AnarchX
2006-11-30, 22:40:36
In den ersten Benches ist er immerhin schneller als ein Xeon 5355 (Kentsfield@2,66GHz).

Was für Benches? Quelle?

Godmode
2006-11-30, 22:45:05
Was für Benches? Quelle?

Auf der AMD Seite [1] gibt es diese, in dem Video mit Randy Allen. Also das hört sich wirklich gut an, bin schon gespannt!

[1]http://virtualexperience.amd.com/index.html?cid=quadcore&co=quadcore

Tybalt
2006-11-30, 23:40:23
Naja mal eben 70% und 40% in den Raum zu werfen ist leider kein verlässlicher Maßstab. Auf was ist das jetzt bezogen? Auf AMD X2, Intels Conroe derivate oder vielleicht sogar noch auf den Thunderbird der ja noch immer der Indikator für das Rating ist.
Und dann ist noch die frage ob damit denn auch die pro mhz Leistung gemeint ist. Es wäre nämlich kein wunder, wenn der "X4" einem X2 in optimierter Software 70% nimmt.

Gast
2006-12-01, 06:15:44
Naja mal eben 70% und 40% in den Raum zu werfen ist leider kein verlässlicher Maßstab. Auf was ist das jetzt bezogen? Auf AMD X2, Intels Conroe derivate oder vielleicht sogar noch auf den Thunderbird der ja noch immer der Indikator für das Rating ist.
Und dann ist noch die frage ob damit denn auch die pro mhz Leistung gemeint ist. Es wäre nämlich kein wunder, wenn der "X4" einem X2 in optimierter Software 70% nimmt.

Ich denke mal, es sind die gleichen Prozente wie die, die Intel Anfang des Jahres hat verlauten lassen - nur waren es da 20 an der Zahl - bezogen war es auf einen Xeon 5355 also keinen Thunderbird.

Achja - es wurden Spec-Werte offenbart.

Und das Zauberwort bei der AMD Gaudi heisst "Performance per Watt"

Das einzige was AMD nicht genannt hat, war der Takt.

turboschlumpf
2006-12-01, 23:00:56
Ich würde sagen wir unterhalten uns nochmal über das Thema, wenn es die Prozessoren dann auch wirklich zu kaufen gibt. Dann gibt es bei Intel ja bald schon den 45-nm-Shrink.

WEGA
2006-12-01, 23:52:48
Ein Bios-Update reicht aus.
das ist der unterschied zu intel :) bei intel muss man wegen jedem dreck ein neues teures board kaufen.

http://www.hardwareluxx.de/story.php?id=4946
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1164919612

Godmode
2006-12-02, 00:23:03
Naja mal eben 70% und 40% in den Raum zu werfen ist leider kein verlässlicher Maßstab. Auf was ist das jetzt bezogen? Auf AMD X2, Intels Conroe derivate oder vielleicht sogar noch auf den Thunderbird der ja noch immer der Indikator für das Rating ist.
Und dann ist noch die frage ob damit denn auch die pro mhz Leistung gemeint ist. Es wäre nämlich kein wunder, wenn der "X4" einem X2 in optimierter Software 70% nimmt.

Laut AMD Grafik überholt deren nativer Quadcore den aktuellen Intel Quadcore. Ob man diesen Grafiken Glauben schenken kann ist eine anderde Geschichte.

edit: Wenn diese CPU jetzt lieferbar wäre, dann würde das auch passen, aber bis der K8L am Markt ist, holt Intel wahrscheinlich schon das nächste heiße Eisen aus dem Ofen.

T86
2006-12-02, 02:02:35
Laut AMD Grafik überholt deren nativer Quadcore den aktuellen Intel Quadcore. Ob man diesen Grafiken Glauben schenken kann ist eine anderde Geschichte.

edit: Wenn diese CPU jetzt lieferbar wäre, dann würde das auch passen, aber bis der K8L am Markt ist, holt Intel wahrscheinlich schon das nächste heiße Eisen aus dem Ofen.

ja intels quadcore auf sockel 775 basis hat auch einen ganz großen nachteil
bei intel is der speicher immernoch über die northbridge angebunden
dh es teilen sich 4 kerne die arg begrenzte bandbreite des fsb :rolleyes:

amd hatt es da etwas einfacher - wird warscheinlich wie beim x2 auch schon sein
das sich alle 4 kerne den einen speicherkontroller teilen und zusammen die 128bit speicherbandbreite nutzen

Gast
2006-12-02, 11:35:06
ja intels quadcore auf sockel 775 basis hat auch einen ganz großen nachteil
bei intel is der speicher immernoch über die northbridge angebunden
dh es teilen sich 4 kerne die arg begrenzte bandbreite des fsb :rolleyes:


das ist bei 2x4MB cache und dem intelligenten speicherzugriff beim core2 aber nicht sehr schlimm.

Gast
2006-12-02, 11:39:45
das ist bei 2x4MB cache und dem intelligenten speicherzugriff beim core2 aber nicht sehr schlimm.Naja, das kann man so schlecht sagen. Wer weiß wie schnell der Core 2 ohne den Flaschenhals FSB wäre.

Aber du hast insofern Recht, dass der Core 2 trotz FSB schneller ist als ein vergleichbarer K8.

WEGA
2006-12-02, 11:54:15
Naja, das kann man so schlecht sagen. Wer weiß wie schnell der Core 2 ohne den Flaschenhals FSB wäre.

Aber du hast insofern Recht, dass der Core 2 trotz FSB schneller ist als ein vergleichbarer K8.
intel will es ja wie AMD machen und den controller integrieren.

Gast
2006-12-02, 12:22:24
Was den Cache betrifft: Durch die ständige Erhöhung der Größe sollte sich das immer weiter reduzieren.

Die Nächste Version soll ja schon 6 MB shared Cache haben :eek:
Bzw. 2x6 MB, womit jedem Prozessor bis zu 6 MB allein zur Verfügung stehen. Da passt schon einiges rein.

Momentan sehe ich da keinen großen performanceverlust, langsam wirds nur, wenn der cache nicht ausreicht und speicherzugriffe erfolgen müssen. Da ließen sich sicherlich einige ns holen!

Was mich jedoch mal interessieren würde: Braucht eine schnellere CPU einen größen Cache, als eine langsamere, weil sie mehr Daten abarbeiten kann?

Wenn ja: Wie wird das in Zukunft aussehen? Die Latenzen des Caches gehen normalerweise weiter runter, wenn sie immer 1:1 betrieben werden, oder?

Iwan
2006-12-02, 12:22:51
Naja, das kann man so schlecht sagen. Wer weiß wie schnell der Core 2 ohne den Flaschenhals FSB wäre.

Aber du hast insofern Recht, dass der Core 2 trotz FSB schneller ist als ein vergleichbarer K8.

iirc gibt es doch von Intel solche Tools die zeigen, wie hoch der FSB ausgelastet ist. Beim C2D ist der FSB nie oder nur sehr selten voll ausgelastet.

Gast
2006-12-02, 13:07:54
Naja, das kann man so schlecht sagen. Wer weiß wie schnell der Core 2 ohne den Flaschenhals FSB wäre.


man kann ein wenig mit den speichertakten spielen und single- und dualchannel vergleichen um rückschlüsse zu ziehen wie sehr der core2 von seiner infrastruktur abhängt.

dabei zeigen selbst große unterschiede in der verfügbaren bandbreite nur geringe unterschiede in der performance.

Gast
2006-12-02, 17:36:31
In den gezeigten Benchmarks ist der Barcelona erheblich schneller, als der Kentsfield. Insbesondere im FPU Bereich sind das 30%. Selbst im Intel starken Integer Bereich muß der Kentsfield federn lassen. Auerdem kommt er schon im 2. Quartal, ich denke eher im April zum Jahrestag des Opterons.

AnarchX
2006-12-05, 19:55:28
Barcelona im Q2 2007 - Specs
http://img240.imageshack.us/img240/6527/amdopteronquadcorebx1.jpg
http://www.hkepc.com/bbs/news.php?tid=708150&starttime=0&endtime=0

malle
2006-12-07, 00:15:00
Also der Opteron HE für Sockel F kommt dann Dez. 07?
Und mit dem dann 68Watt unter Last? Also den im 4x4 und du hast 136Watt?
Nun, ich sag ja, der 4x4 wird sich durchsetzen. ;-)

AnarchX
2006-12-28, 23:29:53
AMD’s next-generation Star supports DDR2-1066 & SSE4A
http://www.hkepc.com/bbs/itnews.php?tid=718770&starttime=0&endtime=0

Nightspider
2006-12-29, 00:58:00
Naja, bin ja echt mal gespannt, wie schnell der K8L sein wird. Ich freu mich schon. Auf meiner Kaufliste für 2007 steht er ja schon, jetzt darf die Performance nicht fehlen, dann habe auch ich 2007 4 Kerne. :)

Gabbabytes
2006-12-29, 10:32:43
... dass leute nie zufrieden mit den aktuell erhältlichen systemen sind, sondern immer von der zukunft sprechen....

Gast
2006-12-29, 14:39:36
..sorgt für die stetige weiterentwicklung der technologie. :)

Ich bin erleichtert zu lesen dass AMD von nem deutlichen Vorsprung spricht.
Nach bazug des propagandabonus dürfte so immer noch einleichter vorteil oder wenigstesns gleichstand in der effizienz erreicht worden sein. Womit der große abstand erstmal weg ist bis zum erscheinen Intels neuer Architektur(falls die die effizienz steigert)

Gast
2006-12-29, 19:53:30
Witzig. Wofür wird der K8L nicht reichen? Ich unterstelle, dass jeder PC oberhalb AthlonXP oder P3 für den durchschnittlichen User vollkommen ausreicht. Der kauft auch unter anderen Kriterien wie die hier in breiter Masse vertretenen Performance- Enthusiasten (die wahrscheinlich weniger als 5% des gesamten Marktes besetzen).

Darüber hinaus denke ich auch, dass man erst mal abwarten sollte und die ersten Benches in Augenschein nehmen sollte.

"Zu geringfügige Änderungen" "zu spät"... woher willst Du das denn bitte wissen, Gast? Hast die CPU entworfen oder mit entwickelt? Wenn nein, dann lieber ruhig sein. Und wenn ja, dann raus mit detaillierten Infos, was denn zu geringfügig ist (zu geringfügig um was zu erreichen?).

"Zu spät" ... naja. Muss man eben wissen dass der K9 (und iirc K10 ebenso) komplett eingestampft wurden. Das war wohl ein internes AMD Desaster, von dem keiner was mitbekommt, der nicht "direkt mit dabei" ist. Trotzdem ists wohl schwierig zu beurteilen, ab welchem Zeitpunkt ne CPU zu spät ist (-> wieder meine Frage: zu spät für was genau???). AMD gehts aktuell nicht schlecht und ich sehe keinen Grund, warum es AMD inmittelfristiger Zukunft schlecht gehen sollte. Ebenso den "gigantischen" "uneinholbaren" Vorsprung von INTEL seh ich nicht. Klar kann der Vorsprung wieder eingeholt werden.

Abwarten und Tee trinken. Ich werde upgraden, wenn der K8L raus ist und dessen Potential bekannt ist. Wenn er dann echt sooooooo schlecht ist, hol ich mir nen Intel (das mach ich aber zugegebenermassen sehr ungern).

Nightspider
2006-12-29, 21:30:56
Witzig. Wofür wird der K8L nicht reichen? Ich unterstelle, dass jeder PC oberhalb AthlonXP oder P3 für den durchschnittlichen User vollkommen ausreicht. Der kauft auch unter anderen Kriterien wie die hier in breiter Masse vertretenen Performance- Enthusiasten (die wahrscheinlich weniger als 5% des gesamten Marktes besetzen).

Darüber hinaus denke ich auch, dass man erst mal abwarten sollte und die ersten Benches in Augenschein nehmen sollte.

"Zu geringfügige Änderungen" "zu spät"... woher willst Du das denn bitte wissen, Gast? Hast die CPU entworfen oder mit entwickelt? Wenn nein, dann lieber ruhig sein. Und wenn ja, dann raus mit detaillierten Infos, was denn zu geringfügig ist (zu geringfügig um was zu erreichen?).

"Zu spät" ... naja. Muss man eben wissen dass der K9 (und iirc K10 ebenso) komplett eingestampft wurden. Das war wohl ein internes AMD Desaster, von dem keiner was mitbekommt, der nicht "direkt mit dabei" ist. Trotzdem ists wohl schwierig zu beurteilen, ab welchem Zeitpunkt ne CPU zu spät ist (-> wieder meine Frage: zu spät für was genau???). AMD gehts aktuell nicht schlecht und ich sehe keinen Grund, warum es AMD inmittelfristiger Zukunft schlecht gehen sollte. Ebenso den "gigantischen" "uneinholbaren" Vorsprung von INTEL seh ich nicht. Klar kann der Vorsprung wieder eingeholt werden.

Abwarten und Tee trinken. Ich werde upgraden, wenn der K8L raus ist und dessen Potential bekannt ist. Wenn er dann echt sooooooo schlecht ist, hol ich mir nen Intel (das mach ich aber zugegebenermassen sehr ungern).

/sign

Da hast du 100% Recht. Ich denke ja, dass der K8 zu gut war und der K9 nicht viel schneller war, da ja Architekturen parallel entwickelt werden und sie stattdessen den K8 verbessert bzw. total umgekrempelt haben. Daher kommt der K8L und in paar Jahren der K10.

Winter[Raven]
2006-12-30, 11:22:03
AMD’s next-generation Star supports DDR2-1066 & SSE4A

Wieviel musste wohl AMD an Intel abdrücken für SSE4A?

Gast
2006-12-30, 11:27:29
']Wieviel musste wohl AMD an Intel abdrücken für SSE4A?

nix, die haben doch ein abkommen dass der eine die technologie des anderen einsetzen darf, wie man ja schon bei den bisherigen SSE-erweiterungen oder mal umgekehrt bei AMD64/EMT64 gesehen hat.

Gast
2006-12-30, 11:36:17
Ich bin erleichtert zu lesen dass AMD von nem deutlichen Vorsprung spricht.
Nach bazug des propagandabonus dürfte so immer noch einleichter vorteil oder wenigstesns gleichstand in der effizienz erreicht worden sein. Womit der große abstand erstmal weg ist bis zum erscheinen Intels neuer Architektur(falls die die effizienz steigert)

selbst wenn der rückstand in der leistung/takt aufgeholt werden kann sehe ich zumindest für die performancespitze eher schwarz, laut roadmaps will ja AMD noch immer bei ~3GHz bleiben, während intel zu diesem zeitpunkt schon auf 3,5GHz und gegen ende des nächsten jahres auf 4GHz gehen will.

aber die hoffnung stirbt ja bekanntlich zuletzt ;) ne intel-dominanz wäre genauso schlecht wie die amd-dominanz der letzten jahre.

Botcruscher
2006-12-30, 11:49:49
Kann sich mal ein Mod bitte den geistigen Abgründen hier annehmen? Danke.

Zum Thema:
Wann dürften den die ersten Tests auftauchen? CBit? Die Glaskugeln einiger Gäste hier scheinen ja doch etwas wirr kalibriert zu sein.

LairD@W
2006-12-30, 11:50:33
Was ist denn das schon wieder für ein abartiges Geflame hier?

Solangsam gehen selbst mir, als Gast, die Gäste tierisch auf die Nüsse.

Versucht doch wenigstens mal sachlich zu bleiben!

Mal guggn ob en Mod-Online ist, der hier mal ausmistet!

Gast
2006-12-30, 12:02:17
Musst es ja nicht lesen. Und Zensur weckt bei einigen Ossis wohl nostalgische Gefühle, wie?

Leider erfährt man erst beim lesen, dass der Postende Mist formuliert und leider kann man keine einzelnen Gäste ignorieren.

Aber es hindert dich doch keiner deine Posts mal mit Argumenten zu unterlegen, warum du das so siehst.
Leider kam da nicht viel, ausser en bissi rumgeprole!

Gast
2006-12-30, 12:10:33
Nö, sieht man sich die Vergangenheit an, hatten die Gäste meist Recht mit ihrer Skepsis bezüglich AMD (AM2, 4x4, 65nm).

Oh Mann!
AMD hat im Moment sicherlich Probleme verschiedenster Art, aber so wie du das hier formulierst, hört sich das an, als ob es den K8 nie gegeben hätte.
Und ohne den, davon bin ich fest überzeugt, hätten wir keinen Conroe, sondern einen viell. halb so guten Tejas.

Und die Gäste hatten nicht Recht mit ihrer Skepsis, es gab einfach nur zuviele die von AM2, 4*4 etc, viel zu viel erwartet haben.
Jeder der sich eingehend mit diesen Dingen beschäftigt hat (auch User dieses Forums), waren weder positiv noch negativ überrascht.


Bleibt doch mal sachlich.
Es gibt nicht nur schwarz und weiss, dazwischen existieren noch andere Farben.

Botcruscher
2006-12-30, 12:17:38
Nö, sieht man sich die Vergangenheit an, hatten die Gäste meist Recht mit ihrer Skepsis bezüglich AMD (AM2, 4x4, 65nm).

Skepsis ist bei jedem neuen Produkt immer angebracht. Wenn man das ganze noch mit Argumenten untermauern kann und in einen gehaltvollen, sinnigen Satz pack wirds sogar noch besser. Aber nicht irgendwelches inhaltsloses Rumgeflame.
Einem normalen Menschen dürfte M$ als Monopolist vollkommen ausreichen. Auf solche tollen marktwirtschaftlichen Entwicklungen kann ich gerne verzichten. Ohne Konkurenz giebts dann nur noch Weiterentwicklung auf Sparflamme und Einsteiger CPUs ab 300€ aufwärts.
Die Chancen das Intel (zwangs)zerschlagen wird stehen dann auch nicht schlecht.

Gast
2006-12-30, 12:19:28
Welche Argumente braucht es denn noch? AMDs brennen durch, werden gefälscht, (beides unmöglich bei Intel), AMDs haben einen technologischen Rückstand von ca. einem Jahr, der sich ständig vergrössert, da Intel immer neue CPUs ankündigt und auch auf den Markt wirft, und zwar in Massen, während es bei AMD mittlerweile mehr Vaporware als sonstwas gibt. Intelfans hatten es auch nie nötig, mit dem Spruch hausieren zu gehen: "DOitsche kauft dOitsch!"

Nein, mit einem AMD würde ich mich unwohl fühlen in der Gesellschaft, in die ich dann geriete! ;)

Na dafür das der AMD-Prozzi drei Jahre älter ist, finde ich ein Jahr technischen Rückstand sehr gut. ;)

Mal davon abgesehen, das ich AMD technisch vorne sehe ( interner Speichercontroler, X-Bar etc), aber Intel momentan, vor allem durch den Vorsprung im Herrstellungsprozess, einen Performance-Vorteil ausspielen kann.

Und wenn du schon sowas wie "dOItsche kauft dOItsch", dann doch bitte richtig. :D

Botcruscher
2006-12-30, 12:32:30
:rolleyes: Hat sich zurück gelehnt...


Ach lieber Gast erklähre mir warum Intel solange gebraucht hat um auf den A64 zu reagieren...
Es hat so lange gedauert weil man eine CPU mal nicht in 3 Tagen entwickelt. Von der Grundsteinlegung bis zum fertigen Silizium dauert es mal locker 3 bis 4 Jahre.

Botcruscher
2006-12-30, 12:38:27
Intel hat den großen Vorteil das man es sich leisten kann mehrere Entwicklungsteams parallel arbeiten zu lassen. Size matters.

PS: Der Rückstand war zu P43200 Zeiten genau so groß. Fakt ist aber auch das brachiale CPU-Leistung für die meisten Nutzer im absoluten Überfluß vorhanden ist. Ja die Entwickler können es sich sogar leisten 50% der CPU ungenutzt zu lassen. Preis, Stromverbrauch, Laufruhe und Zuverlässigkeit zählen in den wirklichen Absatzmärkten.
Die Realität um AMD sieht nehmlich ganz anders aus als es einige Gäste hier an die Wand malen. Die OEMs kaufen den gesamten Markt lehr.

Blutmaul
2006-12-30, 12:45:59
Du kennst den Spruch: "Er sprang als Tiger und landete als Bettvorleger" ???

Ich glaub im Moment nicht daran, das Intel den Leistungssprung des C2D einfach mal so wiederholt, die IPC werden eher stagnieren, behaupte ich so aus dem Stegreif.
Mag sein, das die Takte steigen, kommen wir dann jedoch zurück zum Punkt, das Luftkühlung eben endlich ist?
Wie hoch kann man die neuen CPUs takten, solange Luftkühlung Standard ist?
Was bedeuten die schrumpfenden Kerngrössen für die Kühlung?
In Wirklichkeit stagnieren die Taktzahlen seit Jahren und deswegen glaub ich nicht an Riesensprünge, was für beide Hersteller gilt.

AMD muss ja in den kommenden Monaten die Hosen runterlassen, dann wird sich das erstmal aufklären...

Gast
2006-12-30, 12:50:14
Weil der Rückstand nie so gross war?Doch, der Rückstand war mal umgekehrt genauso groß. 3,2 GHz Smithfield vs. 2,6 GHz Toledo.

Gast
2006-12-30, 13:04:17
Der war aber nicht so viel langsamer wie die heutigen AMDs im Vergleich zu den heutigen Intels.Doch. Die Smithfield-Extreme-Edition wurde in Spielen regelmäßig vom kleinen 3800+ X2 abgezogen. Auch sonst hatten die Smithfields keine Chance gegen die X2s. Erst mit dem 965er Presler konnte Intel wieder ein wenig aufschließen um AMD dann mit dem Conroe zu überholen.
Und der Northwood war den Athlon XPs sogar überlegen.Ja, richtig.

Gast
2006-12-31, 15:00:23
Der "Doitsche kauft Doitsch"- Gast hat doch einen an der Waffel (Bestimmt son FC-Bayern/Schumi/VW-Golf/Bierbauch/Bildleser). Gottseidank gibts noch andere hier, die alles etwas differnzierter/ ojektiver sehen.

Nightspider
2006-12-31, 17:24:05
Solche Gäste, die Ossi-Sprüche ablassen und im selben Zusammenhang über Fanboys reden sollte man grundsätzlich ignorieren.

Demjenigen Gast einen Grund zu nennen,warum ich ausgerechnet zu dieser Zeit AMD gekauft habe und auf den K8L warte ist unter meinem Niveau. Zumindest in diesem Zusammenhang.

Das "Gast-Problem" stört wirklich immer mehr, allerdings bekommt man leider noch oft qualifizierte Antworten von Gästen, deswegen wäre es unangemessen, diese von Disskussionen auszuschließen, da diese oft bei Problemen helfen.

Nur eins noch: Es gibt Leute die zu bestimmten Zeiten ihr System aufrüsten wollen und nehmen dann die schnellste Architektur, das hat nichts mit Fanboy zu tun.

Gast
2006-12-31, 18:08:50
Es gibt auch Leute die kostengünstig aufrüsten wollen :) (oder sich Intel momentan net leisten können/wollen)

Ich hab von nem XP2600+ auf nen AMD 3800+ AM² aufgerüstet .... uns im fast 200 € gegenüber dem kleinsten Core Duo Gespann gespart :)

D.h. nicht das ich Intel nicht respektiere, ich kanns mir bloss net leisten :(

dildo4u
2006-12-31, 18:11:38
Laut der neusten PCGH 2/2007 kommt der K8l als erstes als Server CPU Mitte 2007 mit einem TDP von 120 Watt und 2.1 bis 2.5Ghz.SSE 4 bleibt laut PCGH definitiv den neuen Intels vorbehalten der Barcelona bietet "nur" SSE 3.

w0mbat
2006-12-31, 18:19:52
@dildo4u: Aber PCGH schreibt dummes Zeugs. Der K8L wird am Anfang mit 1,9-2,5GHz takten und ein TDP von 68W-120W aufweisen. Nicht alle haben ein 120W TDP. Außerdem wird der K8L SSE4A bekommen.

dildo4u
2006-12-31, 18:25:33
@dildo4u: Aber PCGH schreibt dummes Zeugs. Der K8L wird am Anfang mit 1,9-2,5GHz takten und ein TDP von 68W-120W aufweisen. Nicht alle haben ein 120W TDP. Außerdem wird der K8L SSE4A bekommen.Das war noch nie so das AMD zur selben Zeit das gleiche SSE Set wie Intel hat und das wird auch nästes Jahr so sein und alle AMD Quad Server CPUs haben ein TDP von 120W.Ich habe ja auch nur von der Server Version gesprochen alles andere läßt eh noch länger auf sich warten.Ich vertraue der PCGH mher als irgendwelchen Asiatischen Webseiten.

AnarchX
2006-12-31, 18:37:46
Das war noch nie so das AMD zur selben Zeit das gleiche SSE Set wie Intel hat und das wird auch nästes Jahr so sein und alle AMD Quad Server CPUs haben ein TDP von 120W.Ich habe ja auch nur von der Server Version gesprochen alles andere läßt eh noch länger auf sich warten.Ich vertraue der PCGH mher als irgendwelchen Asiatischen Webseiten.

Nunja, HKEPC schrieb ja auch, dass SSE4A erst mit den Star-Cores kommt (http://www.hkepc.com/bbs/itnews.php?tid=718770&starttime=0&endtime=0).
Barcelona ist keiner von diesen...

Wird halt wie beim K8 sein, wo man später eben höhere SSE Versionen mit neuen Revisionen hinzufügt.

dildo4u
2006-12-31, 18:41:18
Axo ich dachte in diesem Thread gehts um die ersten nativen Quad Core CPUs von AMD kann ja keiner ahnen das man hier im Thread schon bei der übernästen Generation ist weil im Thread Titel steht ja was von 2007.

AnarchX
2006-12-31, 18:43:41
Axo ich dachte in diesem Thread gehts um die ersten nativen Quad Core CPUs von AMD kann ja keiner ahnen das man hier im Thread schon bei der übernästen Genration ist weil im Thread Titel steht ja was von 2007.

"Q3 2007"...;)

Aber mal sehen, ich werde mal alle Infos im ersten Post zusammenfassen und dann mal einen Moderator den Threadtitel ändern lassen.
Der Thread ist ja geeignet für generelle Diskussionen über K8L.

w0mbat
2007-01-01, 13:43:41
Axo ich dachte in diesem Thread gehts um die ersten nativen Quad Core CPUs von AMD kann ja keiner ahnen das man hier im Thread schon bei der übernästen Generation ist weil im Thread Titel steht ja was von 2007.

Die "Star" CPUs sind die nächste Gen.

dildo4u
2007-01-01, 14:38:23
Die "Star" CPUs sind die nächste Gen.Hmm also gibts keine Barcelona ähnlichen CPUs QuadCore mit SSE3 für den Desktop Markt?

http://img240.imageshack.us/img240/6527/amdopteronquadcorebx1.jpg

Den Opteron 1000 könnte ich mir gut als Desktop CPU vorstellen der nutzt auch den AM2 Sockel.

Gast
2007-01-01, 14:48:24
AMD hat im Moment sicherlich Probleme verschiedenster Art, aber so wie du das hier formulierst, hört sich das an, als ob es den K8 nie gegeben hätte.
Und ohne den, davon bin ich fest überzeugt, hätten wir keinen Conroe, sondern einen viell. halb so guten Tejas.
Ohne den K8 hätten wir jetzt wahrscheinlich von Intel eine IA64 CPU für den Desktop bekommen. Also immer schön dran denken, dass AMD uns vor sowas verschont hat.

AnarchX
2007-01-01, 14:51:18
Den Opteron 1000 könnte ich mir gut als Desktop CPU vorstellen der nutzt auch den AM2 Sockel.

Aber auch nicht unbedingt an den Consumer-Markt gerichtet, mit Barcelona versucht man eben auf eine sehr wichtigen Sektor nicht zu viel an Intel zu verlieren.

Headman
2007-01-01, 14:58:54
Warum sollte der Barcelona kein SSE4A haben?
Ich hatte bis jetzt den Eindruck das der einzige relevate Unterschied ist das die Stars (Desktop) schon HT3 haben während der Barcelona (Server) ohne auskommen muss.
Zumal zwischen dem Release wahrscheinlich nur ein paar Wochen liegen was eigentlich zu kurz für eine neue Rev. ist.

AnarchX
2007-01-01, 15:03:18
Warum sollte der Barcelona kein SSE4A haben?
Weil es so berichtet wurde und "Barcelona" halt kein Stars-Core ist, welcher Familie eben SSE4A nachgesagt wird.
Zumal zwischen dem Release wahrscheinlich nur ein paar Wochen liegen was eigentlich zu kurz für eine neue Rev. ist.
Nun zwischen einem Termin im Q2 und einem im Q3 können bis zu 6 Monate liegen, Venice folgte ja auch sehr schnell auf Winchester.

dildo4u
2007-01-01, 15:28:16
Warum sollte der Barcelona kein SSE4A haben?
Weil die Zeit drängt oder meinst du AMD bleit gerne noch bis Q3 meiner Meinung nach eher Q4 2007(Star Cores) also noch ca 8Monate ohne konkurrenzfähige Chips?Bis dahin gibts bei Intel schon lange die einsteiger Modelle Q 6400 und Q6600 als Consumer Quad Core cpus.

reunion
2007-01-01, 15:52:14
Aber auch nicht unbedingt an den Consumer-Markt gerichtet, mit Barcelona versucht man eben auf eine sehr wichtigen Sektor nicht zu viel an Intel zu verlieren.

Ach, im Servermarkt ist der Opteron nach wie vor sehr konkurrenzfähig:
http://www.anandtech.com/IT/showdoc.aspx?i=2892

Der Flaschenhals des FSB, sowie die stromfressenden FB-DIMMs lassen den Woodcrest wenig Chance was Performance/Watt betrifft. Barcelona wird hier für klare Verhältnisse sorgen.

Das Fazit von AnandTech bringt die Sache auf den Punkt:

Seeing as we believe that most servers do not operate at CPU utilizations levels which approach saturation, Socket-F has done very well. It is able to keep up to Woodcrest for the first 3/5 of the Load Points and with less power. Many companies will add more servers/CPUs/etc. once they are running at over 60% CPU utilization, so we do feel that the first three Load Points are the most meaningful. Yes, Woodcrest is faster, but the FB-DIMMs do serve to hinder performance and performance/Watt in our testing.

AnarchX
2007-01-01, 17:13:16
Ach, im Servermarkt ist der Opteron nach wie vor sehr konkurrenzfähig:
http://www.anandtech.com/IT/showdoc.aspx?i=2892


Nur fehlen halt Quadcores.;)
Von der Infrastruktur ist natürlich AMD im Serversegment noch ganz vorn dabei, aber die reinen CPUs schwächeln halt etwas, was eben auch nicht ganz unwichtig ist von der Prestige.

Gast
2007-01-02, 03:29:50
Also die News auf der Hauptseite finde ich ja ein Witz.

Um jene Pro/MHz-Leistung noch weiter anzuheben, will AMD die K8L-Familie zudem offenbar gleich mit DDR2/1066-Speicher ins Gefecht schicken - wofür allerdings eine nachträgliche Spezifizierung seitens der JEDEC notwendig wird, denn regulär war diese Taktfrequenz (auch wenn sie von vielen Overclocker-Speichern auf DDR2 schon erreicht wird) eigentlich erst für DDR3 geplant.

"Leistung weiter anzuheben"... das klingt fast so, als ob Intel das nicht könnte. Können sie aber. Wenn AMD den RAM nutzt, kann Intel ihn auch nutzen, ob offiziell oder inoffiziell... möglich ist es ja jetzt schon.

Dann stelle ich mir die Frage: Sind die eigentlich doof? Natürlich kann ich die Leistung erhöhen, aber den RAM bezahle immer noch ich als Käufer... wenn es sein muss, könnt ich auch jetzt schon DDR2/1200 nehmen, wenn AMD ihn mir bezahlt, gerne!

StefanV
2007-01-02, 03:48:44
Intel kanns nicht...
Denn Intel braucht ersteinmal einen höheren FSB, dafür dann u.U. entsprechende Chipsätze usw.
Den Speicher mit was anderem als 1:1 zu betreiben, macht nicht wirklich sSinn, Performancesteigerungen sind quasi nicht vorhanden und wenn dann eher wg. der geringeren Latenz.
Das Routing (=Leitungsführung aufm Board) lassen wir jetzt mal außer Acht...

Denn wenn mans genau nimmt, bringts bei Intel nicht wirklich was, besseren RAM als PC2-4200 zu verwenden, außer man übertaktet...

Gast
2007-01-02, 03:55:12
Denn Intel braucht ersteinmal einen höheren FSB, dafür dann u.U. entsprechende Chipsätze usw.

Nö.
Intel profitiert immer in Form der besseren Latenzen des RAMs.

Zudem bietet der i975X schon ewig DDR2-1066 Support. Ich sehe da nun wirklich kein Probleme.

Den Speicher mit was anderem als 1:1 zu betreiben

Mythos.

StefanV
2007-01-02, 04:00:46
4 (QDR)x 266MHz x 64bit = 2 (DDR)x 266 MHz x128bit (Dual Chan).
Ansonsten siehe mein Posting, da steht alles drin :rolleyes:

Ansonsten sehe ich hier (http://www.3dcenter.org/artikel/2006/12-31_d.php) nicht wirklich einen Unterschied...

Gast
2007-01-02, 04:27:23
4 (QDR)x 266MHz x 64bit = 2 (DDR)x 266 MHz x128bit (Dual Chan).

Und?
Abzüglich der praktischen Bandbreite. Weder FSB noch RAM erreichen 100 % Effizienz.

Ansonsten sehe ich hier (http://www.3dcenter.org/artikel/2006/12-31_d.php) nicht wirklich einen Unterschied...

Tjo, ist auch kein Wunder, der Test hat was ganz anderes als Thema.
Ich sehe da nur einen Bench zwischen ddr-533 und 667. Von 800er, 1000 und 1066er RAM sehe ich nichts.

Es wurden nur Latenzen getetestet, wobei 3-3,5 % pro Timingstufe (CL3, CL4, CL5) gar nicht schlecht sind.

S940
2007-01-02, 07:17:43
Und?
Abzüglich der praktischen Bandbreite. Weder FSB noch RAM erreichen 100 % Effizienz.Kannst Du rechnen ? Die Formel besagt, dass ein FSB1066 bereits mit Dual Channel DDR2-553 saturiert ist. Maximal gibts jetzt FSB1333, das taugt immerhin für DC DDR2-667. Dual Channel DDR2-1066 bringt Dir bei Intel aber max. nur 0,000001 Mehrleistung (und das ist der Meßfehler ;-) )

Zur SSE4A Diskussion:
Bin auch der Meinung, dass der Unterschied Barcelona <-> StarCore nur HT3 ist, wobei es da ja auch noch Shanghai gab (Barcelona mit HT3), aber egal ...

SSE4A ist nur der Marketingbegriff für AMDs Befehlssatzerweiterung, die schon seit der ersten K8L Präsentation bekannt ist. Dummerweise ist das Ganze inkompatibel zu Intels SSE4.
Steht ja so auch bei hkepc: Regarding with the 48 SSE4 to be added into Intel’s next-generation 45nm products, AMD has announced last week that Star will have SSE4A, a derivative edition of SSE4 in which those Intel 64 instructions are not available. Instructions include graphic, video encoding, 3D calculation, multimedia related are all compatible in Star.

ciao

Alex

BlackBirdSR
2007-01-02, 08:45:44
Also die News auf der Hauptseite finde ich ja ein Witz.



"Leistung weiter anzuheben"... das klingt fast so, als ob Intel das nicht könnte. Können sie aber. Wenn AMD den RAM nutzt, kann Intel ihn auch nutzen, ob offiziell oder inoffiziell... möglich ist es ja jetzt schon.

Dann stelle ich mir die Frage: Sind die eigentlich doof? Natürlich kann ich die Leistung erhöhen, aber den RAM bezahle immer noch ich als Käufer... wenn es sein muss, könnt ich auch jetzt schon DDR2/1200 nehmen, wenn AMD ihn mir bezahlt, gerne!

Klingt für mich nicht so.
AMD will mit dem K8L die Leistung steigern, so viel ist klar.
Ein weiterer Schritt dazu könnte die Steigerung des Ramtakts sein.
Ergo ein weiterer Schritt um die Leistung anzuheben.

Was das mit Intel zu tun hat?:confused:

Gast
2007-01-02, 08:51:31
Kannst Du rechnen ?

Du nicht?

Die Formel besagt, dass ein FSB1066 bereits mit Dual Channel DDR2-553 saturiert ist. Maximal gibts jetzt FSB1333, das taugt immerhin für DC DDR2-667.

*gähn*. Steht schon längst da, ist in der Form aber nicht korrekt.

Dual Channel DDR2-1066 bringt Dir bei Intel aber max. nur 0,000001 Mehrleistung (und das ist der Meßfehler ;-) )

Falsch. Das kommt davon, wenn man anderen nur nachplappert ohne sich selbst damit befasst zu haben.

Für alle lernwilligen:
http://www.xbitlabs.com/articles/memory/display/core2duo-memory-guide.html

http://www.xbitlabs.com/images/memory/core2duo-memory-guide/266mhz/farcry.png
(sogar mit der 4 MB Version)

Guter RAM ist nie sinnlos, zumindest nicht bei den aktuellen Architekturen beider Hersteller!

Gast
2007-01-02, 08:57:16
Ein weiterer Schritt dazu könnte die Steigerung des Ramtakts sein.
Ergo ein weiterer Schritt um die Leistung anzuheben.

So wie es auf der 3DCenter Seite geschrieben ist, wird überhaupt nicht auf die Vor und Nachteile eingegangen.

Kurzum, ich lese dort: AMD will eventuell mit schnellerem RAM die Leistung steigern. Punkt.

Es steht aber nicht da, das der RAM teurer ist und selbst bezahlt werden muss. Es steht nicht da, das auch Intel die Möglichkeit hat und es steht nicht da, das es auch schon jetzt möglich wäre. Ob offiziell, inoffiziell ist sowieso mumpitz. Welch Standardkäufer kennt die JEDEC?

Daher ist es für mich schlecht geschrieben und ein schlechter Witz.

Wenn es um die Leistungssteigerung geht, so kann ich auch jetzt schon Unsummen an Geld raushauen um mehr Kerne, mehr und besserem RAM und eine bessere Grafikkarte für eine "Leistungsteigerung" einzusetzen. Toll.

Das kann aber nicht der Sinn der Sache sein. Das die zusätzliche Leistung immer teurer erkauft werden muss. Dann interessiert sie mich nämlich nicht.

Was das mit Intel zu tun hat?:confused:

Wer sagt, das diese Anmerkung was mit Intel zu tun hat?

reunion
2007-01-02, 10:35:40
Guter RAM ist nie sinnlos, zumindest nicht bei den aktuellen Architekturen beider Hersteller!

Nur profitiert AMD nicht nur von der niedrigeren Latenz, sondern auch von der höheren Bandbreite, ergo verhältnismäßig mehr als ein C2D.

StefanV
2007-01-02, 11:05:22
@Gast
Du widerholst nur das, was ich weiter oben geschrieben hab :rolleyes:
Nämlich das der RAM Takt bei Intel nicht wirklich was bringt, da tuts eher die Latenz.

Wenn du meinem Link gefolgt wärst und eine Seite zurückgeblättert (http://www.3dcenter.org/artikel/2006/12-31_c.php) hättest, hättest auch gesehen, das der C2D quasi garnicht vom besseren RAM profitiert, im Vergleich mit dem K8.

Wenn ich jetzt ganz gemein bin, grab ich alte Benches von Apollo Pro 266 und ähnlichem aus.
Oder nForce2 Benches, da sieht mans am deutlichsten, das FSB >> RAM nix bringt.

FSB << RAM bringt da mehr...

€dit:
Ach, übrigens:
Der 'alte' S939 K8 beherrscht auch Speicherteiler für Speichertakte über 200MHz, findet man z.B. bei manch einem DFI und Sapphire Brett.
Das funktioniert auch und sollt sogar was bringen ;)

SavageX
2007-01-02, 11:06:46
Kurzum, ich lese dort: AMD will eventuell mit schnellerem RAM die Leistung steigern. Punkt.


Vollkommen richtig, schliesslich muss AMD den Speicherkontroller dafür ja auch validieren.


Es steht aber nicht da, das der RAM teurer ist und selbst bezahlt werden muss.


Du wirst lachen, den K8L muss der Käufer auch bezahlen. Dein Punkt wäre also...?

AMD sieht einfach die Möglichkeit vor, mit schnellem Speicher noch ein paar Prozentpunkte herauszuquetschen und arbeitet an einer Spezifikation, die die Zuverlässigkeit des Zusammenspiels zwischen dem K8L und dem schnellen Speicher erhöhen soll.

Du darfst natürlich weiterhin langsameren Speicher einsetzen...


Es steht nicht da, das auch Intel die Möglichkeit hat und es steht nicht da, das es auch schon jetzt möglich wäre. Ob offiziell, inoffiziell ist sowieso mumpitz.


Warum muss man immer gleich "aber Intel kann das auch!" hinterherschreien? Hier geht es um ein AMD Produkt. Das Thema lautet "K8L" - und nicht "K8L - und die Antwort Intels" (dieses Thema kommt noch früh genug auf den Tisch).


Welch Standardkäufer kennt die JEDEC?


Welcher normale Klobenutzer kennt die "Vereinigung zur Sicherstellung der Qualität der Installationen im Gas-Wasser-Scheisse-Gewerbe"?

Nicht der Käufer soll die JEDEC kennen, sondern bitteschön die Hersteller von Speicherlösungen!

Gast
2007-01-02, 12:00:05
Nur profitiert AMD nicht nur von der niedrigeren Latenz, sondern auch von der höheren Bandbreite, ergo verhältnismäßig mehr als ein C2D.

Genau. Aber das bleibt ja nicht so. ;)

Intel wird noch FSB1333 nachschieben zu dieser Zeit und ich denke nicht, das es AMD wirklich was bringt, wenn sie DDR2-1066 einsetzen... dann kriegen sie halt, sagen wir mal 5 % Bonus oben drauf... und Intel "nur" 3 %. Ob das den Mehrpreis rechtfertigt, steht auf einem anderen Blatt...

Wenn ich jetzt ganz gemein bin, grab ich alte Benches von Apollo Pro 266 und ähnlichem aus.

Die interessierten niemanden. Andere Architektur, andere Ergebnisse.

Du wirst lachen, den K8L muss der Käufer auch bezahlen. Dein Punkt wäre also...?

;D Du hast mein Argument nicht im geringsten verstanden.

AMD erkauft sich diesen "Vorteil" der höheren Leistung durch einen höheren Gesamtpreis zur Konkurrenz, was den Leistungsvorteil vollkommen abwertet.

Wenn ich für mehr Leistung deutlich mehr Geld bezahlen muss, dann könnte ich mir auch jetzt statt einem Dual Core, einen Quad Core gönnen oder statt 2 GB, 4 GB... wird dann auch schneller, ist aber jeweils teurer.

SavageX
2007-01-02, 12:17:35
;D Du hast mein Argument nicht im geringsten verstanden.

AMD erkauft sich diesen "Vorteil" der höheren Leistung durch einen höheren Gesamtpreis zur Konkurrenz, was den Leistungsvorteil vollkommen abwertet.


Der Käufer entscheidet, ob er diesen Aufpreis bezahlen will oder nicht. Daran, dass der Speichercontroller für höhere Geschwindigkeiten spezifiert wird, kann ich nichts Schlimmes erkennen - es werten den Chip auf. Wer lieber DDR2-800 einsetzen will, der bekommt trotzdem noch die internen Verbesserungen des Cores zu spüren.

Niemand nörgelt rum, wenn ein Chipsatzhersteller schnellere Schnittstellen verbaut (ATA-33 zu 66 etc. etc.). Ja, das braucht auch schnellere Geräte auf der anderen Seite, um durchzuschlagen, und ist mitunter mit Mehrkosten verbunden.

Gast
2007-01-02, 12:25:02
Der Käufer entscheidet, ob er diesen Aufpreis bezahlen will oder nicht.

Deswegen wird es ein Flop. ;)
Zwischen DDR2/800 für 187€ und DDR2/1066 für 323€+ liegen so große Unterschiede, das selbst ich nicht bereit bin, diesen Preis zu zahlen.

AMD macht es wohl aus anderen Gründen: Damit in den Testsystemen (Benchmarks) immer DDR2/1066 zum Einsatz kommt, die CPUs besser dastehen und sich die Käufer nachher wundern, das ihre CPU gar nicht so schnell ist, weil sie nicht den teuersten RAM verwenden ... so sehe ich das. Ist geschickt gemacht, bringt für Kunden jedoch nur Nachteile mit sich.

Daran, dass der Speichercontroller für höhere Geschwindigkeiten spezifiert wird, kann ich nichts Schlimmes erkennen - es werten den Chip auf.

Öhm, nö. Die Möglichkeit ist schon gegeben. Wer will, kann das bereits seit gestern tun. ;)

w0mbat
2007-01-02, 12:46:55
@Gast: Kauf dir einen Keks und beiß die Ecken ab...

@Topic: Wieso wird der Server-K8L Barcelona noch kein HT3.0 bekommen?

BlackBirdSR
2007-01-02, 12:53:21
@Gast: Kauf dir einen Keks und beiß die Ecken ab...

@Topic: Wieso wird der Server-K8L Barcelona noch kein HT3.0 bekommen?


Der Gast hat einen gerechtfertigten Einwand und du solltest die in Zukunft nicht mehr mit solchen Kommentaren erwischen lassen. Das ist untere Schublade
Danke


@Gast:
Das AMD damit erreichen will, dass die Testsysteme noch einmal 5% mehr Performance bekommen, ist wohl eindeutig ;)
Das ist doch bei vielen Produkten von AMD/Intel/Nvidia und ATI so.
Insbesondere FX und Extreme Edition Produkte sind primär Prestige und für Benchmarks.
Das hast du schon recht.

Gast
2007-01-02, 12:54:31
@w0mbat
Sind dir die Argumente ausgegangen?


Den Rückstand aufzuholen wird schon schwer genug. Erstmal müssten sie ordentlich zulegen, wenn wir bei heutigen Maßstaben bleiben, teilweise 30 % und dann wären sie immer noch nicht vorbei, sondern gleichauf. Da wäre dann die frage, wie es Taktmäßig aussieht. Ob nochmal so ein Leistungsprung wie beim Core 2 möglich sein wird, ich bezweifle es... zumal sie bereits einen IMC nutzen und Erfahrung damit gesammelt haben.

SavageX
2007-01-02, 12:55:30
Deswegen wird es ein Flop. ;)
Zwischen DDR2/800 für 187€ und DDR2/1066 für 323€+ liegen so große Unterschiede, das selbst ich nicht bereit bin, diesen Preis zu zahlen.


Schon möglich, ja. Zumindest bis sich DDR2/1066 als Standardspeicher etabliert.


AMD macht es wohl aus anderen Gründen: Damit in den Testsystemen (Benchmarks) immer DDR2/1066 zum Einsatz kommt, die CPUs besser dastehen und sich die Käufer nachher wundern, das ihre CPU gar nicht so schnell ist, weil sie nicht den teuersten RAM verwenden ... so sehe ich das. Ist geschickt gemacht, bringt für Kunden jedoch nur Nachteile mit sich.


Ich denke, dass viele Reviews den C2D auch mit gleich schnellem RAM mitlaufen lassen werden, um das Testfeld eben zu halten. Alternativ natürlich den K8L (auch) mit DDR2/800.

AMD wäre jedenfalls ziemlich dämlich, den Chip nicht für DDR2/1066 freizugeben, wenn er das doch anscheinend mühelos schafft. Intel versieht die Testsysteme auch nur mit dem Besten, was sie gerade antreiben können. Wenn Intel bis dahin nicht nachzieht, dann ist das ganz allein deren Problem. Intel will übrigens im gleichen Zeitrahmen FSB-1333 einführen. Die neuen Boardrevisionen bezahlt auch nicht Intel.


Öhm, nö. Die Möglichkeit ist schon gegeben. Wer will, kann das bereits seit gestern tun. ;)

Eben. Also warum Zurückhaltung üben?

Mailwurm
2007-01-02, 12:56:14
@Topic: Wieso wird der Server-K8L Barcelona noch kein HT3.0 bekommen?

Weil dazu der Sockel F+ von nöten ist. Da Serverkomponenten eine deutlich aufwändigere Validierung benötigen, wird es HT3.0-K8L-Opterons erst einige Monate nach den HT3.0-K8L-Desktop-CPUs geben.

Gast
2007-01-02, 13:09:50
Schon möglich, ja. Zumindest bis sich DDR2/1066 als Standardspeicher etabliert.

Standardspeicher, ein schönes Wort. Was ist Standard? ;)

Genau da sehe ich die Probleme. So lange der K8L für den Desktop nicht raus ist, wird das nichts... zu wenig Verbreitung, zu wenig Bedarf.
Wenn Intel nicht mitzieht, wird es noch schwieriger, diese Systeme machen einen nicht unerheblichen Anteil am Gesamtmarkt aus...

Selbst wenn die CPUs noch dieses Jahr in großen Stückzahlen zu haben sein sollten, von heute auf morgen passen sich die Preise nicht an. Da kann man gut und gerne noch ein halbes Jahr draufrechnen bis sich das stark auf die Preise ausgewirkt hat und dann sind wir im Jahre 2008 und DDR3 steht an. Sieht mir zur kurzfristig aus.

Eben. Also warum Zurückhaltung üben?

Könnte man immer Fragen?
Warum ist DDR2/1200 nicht schon spezifiziert? Warum ist nicht einfach jeder RAM auf basis von DDR1 und DDR2, der innerhalb eines gewissen Spannungs und Timingsbereich liegt, bereits offiziell zugelassen?

w0mbat
2007-01-02, 13:31:48
@BlackBirdSR: Wenn man mal einen zynischen Kommentar abgibt, wird man gleich verwarnt. Aber wenn diverse Gäste im K8L-Thread immer und immer wieder sagen "ja, aber Intel ist doch mit dem dann viel bessser" usw. wird nichts gemacht. Es geht hier doch um den K8L und nicht darum was Intel dann hat um viel besser als AMD zu sein oder welche Pläne Intel hat.



@w0mbat
Sind dir die Argumente ausgegangen?


Dir etwa?

SavageX
2007-01-02, 13:51:28
Standardspeicher, ein schönes Wort. Was ist Standard? ;)


Standardspeicher ist Speicher, der standardisiert wurde, zu vernünftigen Preisen erhältlich ist und somit zur zu bevorzugenden Austattung für eine Plattform gehört.

Wie etwa DDR/400 für den Athlon 64 lange Zeit ein Standardspeicher war - zum Anfang hin auch recht teuer.



Warum ist DDR2/1200 nicht schon spezifiziert? Warum ist nicht einfach jeder RAM auf basis von DDR1 und DDR2, der innerhalb eines gewissen Spannungs und Timingsbereich liegt, bereits offiziell zugelassen?

Technologien brauchen Zeit, um zu reifen.

Die Hersteller schaffen inzwischen zuverlässig 1066 und entsprechende Riegel sind im Umlauf - dann ist es nur im Interesse des Kunden, dass hier endlich ein verbindlicher Standard Einzug hält.

S940
2007-01-02, 14:10:08
Warum ist DDR2/1200 nicht schon spezifiziert? Warum ist nicht einfach jeder RAM auf basis von DDR1 und DDR2, der innerhalb eines gewissen Spannungs und Timingsbereich liegt, bereits offiziell zugelassen? Schon mal drangedacht, dass so ein Speichermodulchen von "etwas" komplizierter Parametern ausser Spassung und Timing abhängt, bzw. die Timings auf die ns / ps genau sein müssen ? Mit einem "Bereich" ala Pi*Daumen gewinnst Du bei Speichermodulen nicht mal nen Blumentopf sondern nur ne Menge Bluescreens.

Standardspeicher ist Speicher, der standardisiert wurde, zu vernünftigen Preisen erhältlich ist und somit zur zu bevorzugenden Austattung für eine Plattform gehört.Naja ... ich würde sagen, Standard ist alles für das es Jedec Papers gibt ;-)

@topic "DDR2-1066 bringt auch was für Intel":
Wurde ja eigentlich schon diskutiert, dass das "nur" aufgrund der Latenzen ist. Wenn also ein Hersteller ein, sagen wir DDR-533 CL2 (gibts laut Jedec optional, auch bei DDR2) Modul rausbringen würde, wäre der bei der Zugriffszeit her genausoschnell wie ein DDR2-1066 mit CL4. Nur verkauft sowas keiner, da sich DDR2-1066 CL4 Module einfach besser vermarkten lassen ...
Wenn man jetzt die beiden Riegel in einem Intelsystem testen könnte, dann hat man im Dualchannelbetrieb die 0,000..1% Mehrleistung.

@topic"K8L & DDR2-1066":
Ich erwarte ehrlich gesagt ziemlich "große" Zuwächse, um die 10% je nach Applikation.

Erstens hat erst der K8L die Möglichkeit Dual-DDR2 richtig auszunützen. Der K8 Kern ist intern immer noch nur für DDR1 ausgelegt, deswegen ist der Leistungszuwachs gegenüber S939 auch so mau, die Xbar ist ein Flaschenhals. Zweitens sind an der (verbesserten) Xbar beim K8L gleich bis zu 4 Kerne angeschlossen. Da wirkt sich ein schnellerer Speicher viel mehr aus, als bei den aktuellen AM2 Athlons.

ciao

Alex

reunion
2007-01-02, 15:09:17
Weil es so berichtet wurde und "Barcelona" halt kein Stars-Core ist, welcher Familie eben SSE4A nachgesagt wird.


Was ist dann mit Shanghai?

http://pics.computerbase.de/1/6/5/6/1/1.png

http://www.computerbase.de/bild/news/15555/1/

Die offizielle AMD-Roadmap, welche erst vor kurzem vorgestellt wurde, zeigt nach Barcelona Shanghai, welcher bis ist Jahr 2009 aktuell bleiben soll und laut frühere Gerüchte unter anderen auch über shared L2-Cache verfügen soll.

Zudem gab es da ja auch mal Zamora, Cadiz, Greyhood und Deerhound, davon hört man aktuell gar nichts mehr.

SSE4A ist nur der Marketingbegriff für AMDs Befehlssatzerweiterung, die schon seit der ersten K8L Präsentation bekannt ist. Dummerweise ist das Ganze inkompatibel zu Intels SSE4.
Steht ja so auch bei hkepc:

ciao

Alex

Also bringt AMD eine selbst eintwickelten Befhelssatz? Interessant, davon wusste ich bis dato noch nichts. Hoffentlich floppt dieser nicht genauso wie 3dnow!.

Gast
2007-01-02, 15:27:26
Was ist dann mit Shanghai?
und laut frühere Gerüchte unter anderen auch über shared L2-Cache


ich denke nicht, dass wir je einen K8 Substitut mit einem shared L2 Cache sehen werden. Eher wird der es einen shared L3 Cache geben.



Also bringt AMD eine selbst eintwickelten Befhelssatz? Interessant, davon wusste ich bis dato noch nichts. Hoffentlich floppt dieser nicht genauso wie 3dnow!.

SSE128

Die Star Cores fehlen ja komplett auf der Roadmap (Opteron).

AnarchX
2007-01-02, 17:38:42
Was ist dann mit Shanghai?


Ein alter Codename, der demnächst ersetzt wird?
Immerhin sind ja die "Stars Cores" auch bis jetzt Gerüchte aus Asien, zu denen bei AMD noch nichts offiziel gehört hat.

S940
2007-01-02, 19:31:04
Was ist dann mit Shanghai?Hab ich mich auf der letzten Seite auch schon gefragt ...
Den einzigen Reim, den ich mich seitdem machen kann, ist, dass die StarCores bisher nur AM2+ sind. Barcelona / Shanghai sind aber die dicken Opteron 2000/8000 Server CPU Codenames für Socket F(+).

AMD verwendet ja bei jeder Linie nen andren Namen, wobei das kompletter Blödsinn ist, das DIE ist das gleiche, egal ob SocketF / AM2 oder sonstwas (bei gleichem Cache ;-)). Für jede Linie da einen extra Codenamen angeben finde ich bescheiden.

Ich bevorzuge seit geraumer Zeit immer die Notation Revision Nummern + Cachegröße. Mit z.B. Rev. H1, 4x512kB+2 MB Cache weiss jeder was gemeint ist, und man verläuft sich nicht in irgendwelchen Stadt-oder Sternenkarten ;-)

Aja Shanghai soll ja auch schon 4 Hypertransport Ports unterstützen, bin mal gespannt ob da Socket F wirklich reicht ;-)

ciao

Alex

Gast
2007-01-03, 10:39:44
AMD verwendet ja bei jeder Linie nen andren Namen, wobei das kompletter Blödsinn ist, das DIE ist das gleiche, egal ob SocketF / AM2 oder sonstwas (bei gleichem Cache ;-)). Für jede Linie da einen extra Codenamen angeben finde ich bescheiden.
Sicher? Die AM2-K8 haben doch bspw. überhaupt keinen kohärenten Hypertransport-Link.

reunion
2007-01-03, 11:53:17
AMD verwendet ja bei jeder Linie nen andren Namen, wobei das kompletter Blödsinn ist, das DIE ist das gleiche, egal ob SocketF / AM2 oder sonstwas (bei gleichem Cache ;-)). Für jede Linie da einen extra Codenamen angeben finde ich bescheiden.


Ist doch bei Intel genau das gleiche. :|
Merom - Woodcrest - Conroe

S940
2007-01-03, 12:16:21
Ist doch bei Intel genau das gleiche. :|
Merom - Woodcrest - ConroeÄh ja klar, hab ich andres behauptet :biggrin: ? Intel interessiert mich nur nicht so stark. Ich treib mich auch sonst nur in AMD Foren rum, und kann es deswegen (v.a. bei AMD) nicht mehr hören, wenn alle Leute mit den Codenamen durcheinanderkommen, onlineshops mal wieder 90nm "Brisbanes" verkaufen etc. pp ...

@Gast:
Glaubst Du wirklich, AMD fertigt 2 unterschiedliche DIEs, eines mit 3 HTr und eines mit 1 HTr ? Das sind (bei gleichem Cache) die gleichen DIEs, nur werden die 2 zusätzlichen HTr Anschlüsse bei AM2 nicht angeschlossen.

Coherent ist sowieso egal, das ist nur ein Flag im Statusregister, das AMD bei der Fertigung setzt. Die Opteron 1000/2000/8000 sind bis auf das flag natürlich auch identisch. Interessant ist bei der Sache auch, dass das Flag nur die max. Anzahl der coherenten Links angibt. Kann bei nem Opteron 2000 also jeder der 3 Links sein, da gibt es keinen "festen" coherent Link.

ciao

Alex

Dimon
2007-01-03, 14:24:32
hehe jetzt nennt auch AMD seine CPUS nach Städten :biggrin:

Finde die Idee eig. ganz nett, aber ziemlich einfallslos.... :rolleyes:

mfg

S940
2007-01-03, 14:31:22
hehe jetzt nennt auch AMD seine CPUS nach Städten :biggrin:

Finde die Idee eig. ganz nett, aber ziemlich einfallslos.... :rolleyes:

mfgNe die Städtenamen sind out, die gabs schon seit ~3 Jahren. Jetzt sind Sternennamen angesagt.

ciao

Alex

WEGA
2007-01-03, 14:44:07
Ne die Städtenamen sind out, die gabs schon seit ~3 Jahren. Jetzt sind Sternennamen angesagt.

ciao

Alex
sternen-konstelationen, dual cores bekommen namen von zwei sternen und quad cores mit vier sternen :)

S940
2007-01-03, 19:00:37
@WEGA: Danke fürs Verbessern, wieder was gelernt, aber ich bleib bei Revname + Cachegröße ;-)

ciao

Alex


Referenz auf Gast-Spam entfernt, und Antwort darauf entfernt

S940
2007-01-03, 19:08:50
Offene Karten ... *lach* das war beim Conroestart das erste Mal, dass Intel das überhaupt gemacht hat. Sie wollten einfach die Leute bei der Stange halten und zum Warten überreden, bevor jeder ins AMD Lager gewechselt hätte.

Wie dem auch sei, das einzige was leistungstechnisch bisher bekannt ist sind ca. 40% Mehrleistung gegenüber nem K8, keine Ahnung bei welcher Applikation, ich nehme aber an, dass es was FPU lastiges sein muss.

ciao

Alex


spezieller Gast Posting entfernt

StefanV
2007-01-03, 19:55:06
hehe jetzt nennt auch AMD seine CPUS nach Städten :biggrin:
Wie San Diego, Venice, Newcastle, Winchester? :|

Gast
2007-01-03, 19:59:44
Offene Karten ... *lach* das war beim Conroestart das erste Mal, dass Intel das überhaupt gemacht hat. Sie wollten einfach die Leute bei der Stange halten und zum Warten überreden, bevor jeder ins AMD Lager gewechselt hätte.

Wie dem auch sei, das einzige was leistungstechnisch bisher bekannt ist sind ca. 40% Mehrleistung gegenüber nem K8, keine Ahnung bei welcher Applikation, ich nehme aber an, dass es was FPU lastiges sein muss.

ciao

Alex


spezieller Gast Posting entfernt


Auch wenn Stellungnahmen zum Modtext in diesem Forum nicht erlaubt sind, so erscheint es mir doch richtiger, mal in diesem Thread (der als abschreckendes Bsp. gelten sollte) was zu sagen.

Super das die Gastpostings entfernt wurden, allerding dauert das immernoch viiieeeeeeeeeeeeeell zu lange.

Habe vor ein paar Tagen hier schon reingeschrieben, dass ein Mod sich mal den Gastpostings annehmen sollte, allerdings hat sich da verdammt lange nichts bewegt.
Da muss einfach mehr von den Mods kommen und diese Dinger müssen schneller entfernt werden, oder man muss das Schreibrecht der Gäste einfach abschaffen( ich weiss das Leo das nicht will ).

Aufjedenfall ist der momentane Zustand weder für Gäste mit Anstand, noch für User dieses Forums tragbar, da der Gastspam bzw. Gastflame (vorallem von frustrierten Usern bzw. Ex-Usern) extrem überhand gewinnt.

Da diese Situation die reg. User extrem benachteiligt, müssen die Mods entweder mehr arbeiten, oder es muss was anderes geändert werden, so geht es aufjedenfall nicht weiter.

Grüsse
reg. LairD

falls mich jemand für die Stellungnahme abstrafen will, kann ich mich heute abend auch nochmal anmelden

Dimon
2007-01-04, 01:03:29
Wie San Diego, Venice, Newcastle, Winchester? :|

ja klaro :smile:

die vergangenen wie z.b San Diego gehört ja dazu, ist ne Stadt......

Winchester kann man zweiteilig verstehn is ne Schrottflinte, aber auch eine Stadt.... versteh einer ;D

naja und newcastle ist wieder ne Stadt...... man das nervt :biggrin:


naja was dachstest du wohl ;)

mfg Dimon

AnarchX
2007-01-05, 11:03:23
[Better Power & Thermal Management For AM2+ Stars CPUs]
AMD plans to implement better power and thermal management with Cities and Stars processors to improve energy efficiency especially when the new Energy Star 4.0 Specification takes effect on July 20, 2007. AMD will enhance C’n’Q with C1E by allowing the CPU to tri-state its IO during system idle and this allows power savings up to 18.3% during idle mode. [...]
http://www.vr-zone.com/index.php?i=4442

Nightspider
2007-01-06, 13:54:48
Hi mal eine Frage, ist scho bekannt, welche Kühler auf den Sockel F passen ?
Alle S939 oder/und AM2 Kühler ? Oder werden spezielle Sockel F Kühler (was ich bezweifle) benötigt ?

StefanV
2007-01-06, 16:08:29
Sockel F Kühler = 939/940 Kühler.

AnarchX
2007-01-09, 18:22:17
[ATi RD790 Boards For AMD Stars Cores]
Our friends over at Chilehardware have gotten some juicy details on the ATi RD790 reference boards for AMD Stars core based off Socket AM2+ and Socket 1207+. The RD790 reference board for Socket AM2+ (or known as AMD2G2 or AMDR2) Agena, Kuma, Runa and Spica Stars processors is codenamed "Mako" but it is also backward compatible with AM2 processors. [...]
http://vr-zone.com/index.php?i=4462

12W TDP, wiedermal ein sparsamer Chipset von ATi.

Gast
2007-01-10, 10:12:24
12W TDP, wiedermal ein sparsamer Chipset von ATi.Ja, für AMD ist es bestimmt nicht schlecht, wenn sie jetzt eigene Chipsätze anbieten können. Mittlerweile sind die ATI-Dinger ja ganz brauchbar, wenn man mal mit dem früheren Crap vergleicht.

robbitop
2007-01-10, 10:15:34
12 W findet ihr sparsam? Für einen lächerlichen Chipsatz, der nichtmal den Speichercontroller beinhalten soll.
Wären die ULi Chipsätze auf der 90nm Fertigungstechnologie anstatt von 180nm wie die von AMD/ATI wäre das ja um Klassen ein Unterschied.
Ich frage mich, wie die das machen und mit etwas so simplem soviel Leistungsaufnahme rauszupullen.

Nightspider
2007-01-18, 20:22:18
Soll er nicht schon 1. Quartal für Sockel F erscheinen ?

Gibts da 'nen ordentliches Sockel F Board für normalen DDR2 Speicher, womit man sich schon vor nen Normalos nen K8L besorgen könnte ?

reunion
2007-01-18, 20:59:04
12 W findet ihr sparsam? Für einen lächerlichen Chipsatz, der nichtmal den Speichercontroller beinhalten soll.
Wären die ULi Chipsätze auf der 90nm Fertigungstechnologie anstatt von 180nm wie die von AMD/ATI wäre das ja um Klassen ein Unterschied.
Ich frage mich, wie die das machen und mit etwas so simplem soviel Leistungsaufnahme rauszupullen.

In punkto Features ist ULi längst nicht mehr auf der Höhe der Zeit, von daher hinkt der Vergleich etwas. Und wenn schon, sollte man sich fragen, wie es nV hier schafft mindestens das dreifache zu verbauchen. Die ATi-Chipsätze sind aktuell das stromsparendste, was der Markt zu bieten hat. Außerdem hat das Teil AFAIK einen D3D10-Core integriert, oder war das ein anderer RD7xx?

Gast
2007-01-19, 15:28:02
Außerdem hat das Teil AFAIK einen D3D10-Core integriert, oder war das ein anderer RD7xx?Nein, die kommende IGP von ATI basiert auf der Technologie von vorgestern, ist eine abgespeckte x700.

reunion
2007-01-19, 15:34:22
Nein, die kommende IGP von ATI basiert auf der Technologie von vorgestern, ist eine abgespeckte x700.

Ja, der kommende RS690. Hier geht aber um RD790, welcher erst gegen Ende der Jahres mit einem D3D10-Core kommen soll - und dafür sind die 12W TDP wahrlich nicht übertreiben IMO.

AnarchX
2007-01-19, 15:36:40
RD790 != 790G, würde ich doch meinen oder ist im Xpress3200 auch ein inaktiver IGP vorhanden?
Selbst wenn ist er inaktiv und wirkt sich eher kaum auf den Verbrauch aus.

Gmax
2007-01-24, 11:46:55
http://www.golem.de/0701/50131.html

Erste Kampfansage gegen Intel:

Doch nicht nur bei technisch-wissenschaftlichen Berechnungen will AMD mit dem Barcelona-Kern punkten: "Bei einer breit gefächerten Anzahl von Anwendungen erwarten wir, dass Barcelona den Cloverton um 40 Prozent abhängt", sagte Randy Allen gegenüber CNET. Damit würde sich der Spieß wieder umdrehen: Intel hatte mit dem Wechsel von der Netburst- zur Core-Architektur ebenfalls 40 Prozent Mehrleistung versprochen.

malle
2007-01-24, 11:49:00
Bleiben 20% real und es langt immer noch...

reunion
2007-01-24, 11:59:18
Wie der AMD-Manager gegenüber der US-Site angab, soll vor allem die neue Einheit für Gleitkomma-Berechnungen wesentlich schneller arbeiten als die FPU in den Xeons der 5300er-Serie. Bei gleichem Takt will AMD gegenüber dem Intel-Produkt 3,6-mal schneller rechnen - dabei dürfte es sich aber nur um sehr spezielle Routinen handeln. Wie bereits berichtet, hat AMD die Zahl der FPU-Einheiten in Barcelona verdoppelt, sie sind zudem komplett auf die Verarbeitung von 128 Bit breiten Daten und Instruktionen ausgelegt.


Auch nicht gerade unbedeutend.

Intel hatte mit dem Wechsel von der Netburst- zur Core-Architektur ebenfalls 40 Prozent Mehrleistung versprochen.

Ja, das war aber bei der Netburst-Architektur auch keine große Kunst, AMD will allerdings Clovertown um 40% schlagen. Interresant wird sein, was davon im Destopmarkt übrig bleibt.

Gast
2007-01-24, 12:28:43
Wir haben fast Ende Januar und die Angaben des Managers wirken bewußt überzogen, um Kunden bei der Stange zu halten. Da fragt man sich zwangsläufig, warum Sun sich nun auch Intel zuwendet. SUN's Argument war doch die gegenwärtige und zukünftige Performance der Intel-CPUs, obwohl AMD eine solches AS im Ärmel hat!? Ob AMD SUN nicht von den Vorzügen des neuen Quadcore überzeugen konnte? Diese Vorstellung sollte weniger durch Markting, sondern eher durch harte Fakten geprägt gewesen sein.

Jedenfalls sollten AMD besser bald Silizium in überzeugend rechnender Geschwindigkeit präsentieren, so wie es Intel zu Jahresbeginn 2006 mit dem Core2 tat. Der Launch-Termin im Sommer kommte immer näher ...

reunion
2007-01-24, 12:38:27
Das hat man damals, als die Gerüchte aufkamen, wonach Dell jetzt AMD verbaut auch so vorgebracht. Und trotzdem war Conroe verdammt schnell. Es lohnt sich für einen großen Hersteller wie SUN oder Dell einfach nicht, eingleisig zu fahren, deswegen auf zukünftige Produkte zu schließen, halte ich für sehr gewagt.

SavageX
2007-01-24, 12:49:38
Zumal es bei Sun ja auch einen Regimewechsel gab.

Gast
2007-01-24, 13:02:46
Das hat man damals, als die Gerüchte aufkamen, wonach Dell jetzt AMD verbaut auch so vorgebracht. Und trotzdem war Conroe verdammt schnell. Es lohnt sich für einen großen Hersteller wie SUN oder Dell einfach nicht, eingleisig zu fahren, deswegen auf zukünftige Produkte zu schließen, halte ich für sehr gewagt.
SUN ist nicht irgendein großer Hersteller, sondern Intel und SUN sind Intimfeinde, und es muß schon einen guten Grund geben, warum sich beide nun annähern. Sind es nur die ausgetauschten Top-Manager, die dies ermöglichen, oder steckt da mehr dahinter?

AMD ist nun in einer ähnlichen Situation wie Intel vor einem Jahr. Der Kunde realisieren langsam, daß der K8 in vielen Belangen nicht mehr mit dem Core2 konkurrieren kann. AMD täte gut daran, sofern sie mehr als nur Alpha-Silizium haben, erste Leistungswerte des Barcelona K8L zu veröffentlichen. Gerne auch mit Benchmarks, die die Vorzüge des K8L darlegen. Normalerweise läßt doch AMD eine solche werbewirksamme Gelegenheit nicht aus! Deshalb liegt die Vermutung nahe, daß es AMD im Moment noch nicht kann. Der K8L ist sicher ein deutlicher Sprung in Sachen Performance, nur das wir noch nicht eine reale Demonstration der Leistungsfähigkeit zu sehen bekamen und das bei einem angepeilten Start im Sommer! Bleibt nur zu hoffen, daß sie Intel mit dieser Strategie, wenn denn eine dahinter steckt, auf dem linken Fuß erwischen wollen ...

SavageX
2007-01-24, 13:15:17
SUN ist nicht irgendein großer Hersteller, sondern Intel und SUN sind Intimfeinde, und es muß schon einen guten Grund geben, warum sich beide nun annähern. Sind es nur die ausgetauschten Top-Manager, die dies ermöglichen, oder steckt da mehr dahinter?


Bevor Sun sich auf Opteron-Kisten konzentriert hat haben die auch Intel-Prozessoren verbaut. Soooo intim ist die Feindschaft dann doch nicht - zumal man sich Intimfeinde nur dann leistet, wenn es nicht ins Geld geht. Sun macht gegen Geld ja sogar mit Microsoft (*das* waren Intimfeinde) eitel Sonnenschein.

Es gibt Kunden, die wollen Sun-Server mit Intel-Prozessoren. Es wäre dumm, dieser Nachfrage nicht nachzukommen, ganz gleich was AMD und Intel später noch liefern.

malle
2007-01-24, 13:56:14
Zumal es bei Sun ja auch einen Regimewechsel gab.
A: so etwas nennt man Führungswechsel oder Vorstandswechsel
B: "Regime" ist wohl das neue modewort, trifft aber weder hier noch woanders zu.

Ansonsten, gebe ich dir schon recht. ;)

Gast
2007-01-24, 14:02:44
Es gibt Kunden, die wollen Sun-Server mit Intel-Prozessoren. Es wäre dumm, dieser Nachfrage nicht nachzukommen, ganz gleich was AMD und Intel später noch liefern.
Und warum hat SUN die letzten drei Jahre nur AMD verbaut und schwenkt genau jetzt wieder auf Intel in einem Maße um, die die ehemalige Zusammenarbeit (älter als drei Jahre) weit in den Schatten stellt. Damals baute SUN Xeon Server mehr aus Verlegenheit, wegen der wegbrechenden Gewinnen in SPARC-Umfeld.

Gast
2007-01-24, 14:08:13
A: so etwas nennt man Führungswechsel oder Vorstandswechsel
B: "Regime" ist wohl das neue modewort, trifft aber weder hier noch woanders zu.
Ansonsten, gebe ich dir schon recht. ;)
Die Wirtschaftsaristokratie der heutigen Zeit läßt den Begriff 'Regime' schon durchaus korrekt erscheinen. Viele Großunternehmen werden heutzutage durchaus absolutistisch 'regiert', vergleichbar mit den Bananenrepubliken des vergangen Jahrhunderts. Vorstand und Aufsichtsrat haben häufig die Bodenhaftung verloren, wenn man sich die selbstgenehmigten Gehälter anssieht. Ist aber jetzt ein wenig OT.

SavageX
2007-01-24, 14:10:57
Und warum hat SUN die letzten drei Jahre nur AMD verbaut und schwenkt genau jetzt wieder auf Intel in einem Maße um, die die ehemalige Zusammenarbeit (älter als drei Jahre) weit in den Schatten stellt. Damals baute SUN Xeon Server mehr aus Verlegenheit, wegen der wegbrechenden Gewinnen in SPARC-Umfeld.

Weil die Intel Server-Produkte jetzt wieder was taugen? Und wie stellt die Intel-Zusammenarbeit das in den Schatten, was Sun die letzten drei Jahre zusammen mit AMD gemacht hat? Sun und Intel haben keineswegs ein exklusives Abkommen geschlossen...

Bokill
2007-01-24, 14:29:01
Und warum hat SUN die letzten drei Jahre nur AMD verbaut und schwenkt genau jetzt wieder auf Intel in einem Maße um, die die ehemalige Zusammenarbeit (älter als drei Jahre) weit in den Schatten stellt. Damals baute SUN Xeon Server mehr aus Verlegenheit, wegen der wegbrechenden Gewinnen in SPARC-Umfeld. Kannst du bitte genauer erklären warum die bisherige Sun-AMD Kooperation völlig in den Schatten gestellt wird?

So weit ich die Seiten von Sun gelesen habe wird ab nun Beides genommen, sowohl AMD, als auch Intel.

Mit der Vorstellung der Vz40 Server fing Sun an exklusiv für die x86 Welt Java, Solaris auf AMD64 zu entwickeln. Mit diesem Moment hatte Sun 2004, 2005, 2006 (Vorstellung der x86-64 Galaxy Reihe (http://www.orthy.de/modules.php?name=News&file=article&sid=1423)) im x86 Sektor nur noch AMD promotet.

Unter PR-Gesichtspunkten hat Intel nun eine weitere Perle gelandet, neben Apple. Allgemein betrachtet könnte man das auch als "Normalisierung" der Zulieferverhältnisse begreifen ...

Ist ja nicht das erste Mal bei Sun ... es gab Zeiten, da wurde Microsoft nur im Zusammenhang von Witzen und Klagen bei Sun erwähnt. Seit geraumer Zeit arbeiten Sun und Microsoft zur Harmonisierung der Software-Schnittstellen zusammen.

Man darf nicht vergessen, dass die Grabenkämpfe seit der Ankündigung von EPIC mit der Prozessorlinie Itanium echte Sorgenfalten bei Sun produzierte. Nur Sun war vergleichsweise zurückhaltend im klassischen RISC Lager (HP wollte die HP RISC damit ersetzen, IBM neben dem PowerPC auch Itanium verkaufen, DEC mit den Alphas befanden sich bald in Auflösung).
Von da an wuchs und wuchs die Diskrepanz von Sun zu Intel ... und Sun merkte auf der anderen Seite, dass zusätzlich von "unten" immer mehr x86 CPUs verlangt wurden ... und der Xeon musste es dann bei Suns x86-Welt richten.

Heute berichtet Sun von Gewinnen (http://www.heise.de/newsticker/meldung/84160), na raten wir mal mit was? Naa? Genau, es sind die x86-64 von AMD UND die aktuellen Niagara (http://www.orthy.de/index.php?option=com_content&task=view&id=4472&Itemid=86)s ... während die klassischen UltraSPARCs ein dezentes Refugium in der Verlustzone von Sun gefunden haben.

Der Schritt von Sun war von daher zwar nicht so zu erwarten, aber Ideologie und Grabenkämpfe scheinen bei der Gewinngenerierung zu stören.
Der Schritt war in so fern Logisch und Konsequent bei Sun. Mit dem Core 2 bietet Intel das an, was Sun will ... Sparsam und Stark ... und kommt manchen Kundenwünschen nach "Original Intel", aber mit 64 Bit x86 bitte, auch nach.

Und wer bei Sun "Cool Threads" haben will, der nimmt den Niagara, bald den Niagara 2 und später den Rock.

MFG Bobo(2007)

Gast
2007-01-24, 15:57:07
Kannst du bitte genauer erklären warum die bisherige Sun-AMD Kooperation völlig in den Schatten gestellt wird?
Habe ich das wirklich geschrieben?! Lies bitte die kleine Textpassage nochmals aufmerksam durch.
Kurz: Ich habe SUN/Intel vor drei Jahren mit SUN/Intel heute verglichen.

So weit ich die Seiten von Sun gelesen habe wird ab nun Beides genommen, sowohl AMD, als auch Intel.
Mit der Vorstellung der Vz40 Server fing Sun an exklusiv für die x86 Welt Java, Solaris auf AMD64 zu entwickeln. Mit diesem Moment hatte Sun 2004, 2005, 2006 (Vorstellung der x86-64 Galaxy Reihe (http://www.orthy.de/modules.php?name=News&file=article&sid=1423)) im x86 Sektor nur noch AMD promotet.

Korrekt!

Unter PR-Gesichtspunkten hat Intel nun eine weitere Perle gelandet, neben Apple. Allgemein betrachtet könnte man das auch als "Normalisierung" der Zulieferverhältnisse begreifen ...
SUN hebt in der Pressemeldung die Leistungsfähigkeit der Intel CPUs sowie eine glaubwürdige Roadmap hervor. Was auch immer das genau heißen mag.

Ist ja nicht das erste Mal bei Sun ... es gab Zeiten, da wurde Microsoft nur im Zusammenhang von Witzen und Klagen bei Sun erwähnt. Seit geraumer Zeit arbeiten Sun und Microsoft zur Harmonisierung der Software-Schnittstellen zusammen.
Notgedrungen! Wir wollen hier lieber nicht von gegenseitigem Respekt oder gar Zuneigung reden.

Man darf nicht vergessen, dass die Grabenkämpfe seit der Ankündigung von EPIC mit der Prozessorlinie Itanium echte Sorgenfalten bei Sun produzierte. Nur Sun war vergleichsweise zurückhaltend im klassischen RISC Lager (HP wollte die HP RISC damit ersetzen, IBM neben dem PowerPC auch Itanium verkaufen, DEC mit den Alphas befanden sich bald in Auflösung).
Von da an wuchs und wuchs die Diskrepanz von Sun zu Intel ... und Sun merkte auf der anderen Seite, dass zusätzlich von "unten" immer mehr x86 CPUs verlangt wurden ... und der Xeon musste es dann bei Suns x86-Welt richten.
Heute berichtet Sun von Gewinnen (http://www.heise.de/newsticker/meldung/84160), na raten wir mal mit was? Naa? Genau, es sind die x86-64 von AMD UND die aktuellen Niagara (http://www.orthy.de/index.php?option=com_content&task=view&id=4472&Itemid=86)s ... während der klassische UltraSPARCs ein dezentes Refugium in der Verlustzone von Sun gefunden hat.
Der Schritt von Sun war von daher zwar nicht so zu erwarten, aber Ideologie und Grabenkäpfe scheinen bei der Gewinngenerierung zu stören.
Der Schritt war in so fern Logisch und Konsequent bei Sun. Mit dem Core 2 bietet Intel das an, was Sun will ... Sparsam und Stark ... und kommt manchen Kundenwünschen nach "Original Intel", aber mit 64 Bit x86 bitte, auch nach.

Und wer bei Sun "Cool Threads" haben will, der nimmt den Niagara, bald den Niagara 2 und später den Rock.

MFG Bobo(2007)
Ich stimme dem Rest deiner Darstellung voll zu. Ich sehe die Dinge auch nicht anders.

Du hast aber den Punkt verpaßt, um den es hier eigentlich ging. Das CNET Interview von AMD Manager Randy Allen, welches zuvor von reunion als Beleg für die große Leistungsfähigkeit des K8L angeführt worden ist. Ich halte die Äußerungen für (Marketing-)überzogen und hätte doch gerne, wenn der K8L schon demnächst in Massenproduktion gehen soll, Benchmark 'Beweise' und nicht nur Text über Geschwindigkeits-Faktoren(FPU) und pauschalen Äußerungen zu den Verbesserung gelesen. Ich bin in Zweifel, daß AMD wirklich schon so weit ist, wie sie glauben machen wollen. Ich lasse mich aber gerne überraschen, hätte dann aber die Strategie nicht wirklich verstanden. Jeder große CPU-Hersteller veröffentlich deutlich vor dem Launch SPEC-Werte, wenn sie denn gut sind. Warum nicht auch AMD, wo sie es doch gegenwärtig absolut nötig haben?

Ein Benchmark-Bild sagt mehr als 1000 Worte technisches Geschwafel!

Nightspider
2007-01-24, 16:11:17
Lieber Gast, willst du dich denn nichtmal unter deinem Account anmelden ?

Natürlich ist es nur eine Behauptung von Allan aber wieso sollte er lügen ?
AMD hat einen Rug zu verlieren, also werden die es sicherlich nicht wagen die Kunden zu verarschen.

Vielleicht stimmen die Ergebniss am Schluss auch nicht ganz überein.

ABER: In jeder Behauptung steckt auch ein stückchen Wahrheit ;)

ALSO: Abwarten.


Und lasst mal Sun weg, die Diskussion ist ja völlig überflüssig. Sun kann machen was sie wollen und da hier keine bei Sun arbeitet solltet ihr lieber aufhören, ihr spamt den Thread nur zu ;)

AnarchX
2007-01-25, 15:32:07
[AMD To Remain Low Until K8L In Q3]
Motherboard makers in Taiwan say AMD may not regain its competitive edge until the launch of the Socket AM2+ platform and K8L architecture based CPUs in the third quarter 2007. [...]
http://vr-zone.com/index.php?i=4534

reunion
2007-01-26, 16:25:38
More AMD Next Generation Desktop Details Leaked (http://www.dailytech.com/article.aspx?newsid=5874)

Sieht also so aus, als ob die City-Cores (Barcelona, Shanghai) für den Servermarkt gedacht sind, und die Star-Cores für den Desktopmarkt, und das es sich hierbei faktisch um dieselben CPUs handelt.

AnarchX
2007-01-26, 16:33:30
Auch passend...:biggrin:

What does Barcelona mean for AMD?
Such a beautiful instant prize quiz
http://www.theinquirer.net/default.aspx?article=37234

AMD Barcelona is thus named because…
One of you knew it
http://www.theinquirer.net/default.aspx?article=37236

w0mbat
2007-01-26, 17:05:03
K8L für Desktop schon vor Barcelona?

http://uk.theinquirer.net/?article=37212

AnarchX
2007-01-26, 17:06:58
K8L für Desktop schon vor Barcelona?


Und wo soll das im Text von INQ stehen? :|

Vor Q3 2007 wird man ganz sicherlich keinen K8L im Desktop sehen(AM2+ Opterons ausgenommen).

Gast
2007-01-26, 18:06:39
Und wo soll das im Text von INQ stehen? :|

Vor Q3 2007 wird man ganz sicherlich keinen K8L im Desktop sehen(AM2+ Opterons ausgenommen).
w0mbat dachte, der '65-nm Prozess-Test' aus der nachfolgenden Textpassage ...

Auszug aus INQ-Meldung:
Barcelona will be AMD's first 65nm server chip. As the boys suggested this morning, the firm likes to try out its process shifts on consumer desktop chips before sticking the really important stuff on there. And since things are going nicely at the Dresden fab, according to AMD Barcelona is looking good to go in "mid 2007".

... bezieht sich auf K8L-CPUs. Aber nicht diese sollen getestet werden, sondern der 65nm Prozess. Dies ist ja schon mit den Rev F K8-CPUs geschehen.