PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Sorge um AMD


Gast
2007-05-18, 19:32:09
In Kürze gibts nen C2D mit 1333er FSB und 3 Ghz für 250€ (so wird wohl der Straßenpreis ungefähr sein), alternativ nen QUadcore mit 2,4 Ghz fürs gleiche Geld!!

Ich mach mir echt Sorgen um AMD, der Barcelona wurde verschoben und mit den popeligen und teuren X2s haben die da doch 0 entgegenzusetzen??

Gast
2007-05-18, 19:48:57
Ja, Intel hat mit dem C2D den Würgegriff angesetzt und fest zugedrückt. Und Intel scheint den Griff auch nicht lockern zu wollen. Nur wenn Barcelona durchschlagenden Erfolg im Workstation-/Server-Bereich hat und nicht später als Q3 2007 kommt, geht es mit AMD weiter, ansonsten wird es sehr eng mit den Finanzen. Das Desktop-Segment (DualCore) sehe ich schon verloren. Penryn wird mit >3GHz zu schnell für Kuma sein.

Brotzeit
2007-05-18, 20:01:08
Was fürn Bullshit....

Gerade im OEM Geschäft Punktet AMD mit den stromsparenden Dualcores....

Wer kauft schon Retail Prozessoren? ;)


Ne ganz im ernst, AMD steht nicht so schlecht da, dass sie innerhalb eines Jahres Pleite gehen...

Gast
2007-05-18, 20:09:22
Was fürn Bullshit....

Gerade im OEM Geschäft Punktet AMD mit den stromsparenden Dualcores....

Wer kauft schon Retail Prozessoren? ;)


Ne ganz im ernst, AMD steht nicht so schlecht da, dass sie innerhalb eines Jahres Pleite gehen...
Das nächste Quartal geht mit dem Juni zu Ende. Wenn die Verluste nicht wenigsten auf die Hälfte reduziert werden konnten, dann wird es eng! An Gewinne mag hier doch wohl niemand ernsthaft glauben. Und die nächste Preisrunde von Intel am 22. Juli drückt selbst die schnellsten K8-X2 and die 100 Euro Marke. Mit dem K8 läßt sich kein Geld mehr verdienen. Einziger Hoffnungsschimmer für Bargeld ist die Wandelanleihe. Auch im OEM-Markt macht AMD keinen Gewinn mehr. Wie auch?! - Retail oder OEM, der Prozessorpreis des K8 ist am Ar***

Gast
2007-05-18, 20:34:48
Was fürn Bullshit....

Gerade im OEM Geschäft Punktet AMD mit den stromsparenden Dualcores....

Wer kauft schon Retail Prozessoren? ;)


Ne ganz im ernst, AMD steht nicht so schlecht da, dass sie innerhalb eines Jahres Pleite gehen...

Welcher AMD-Dualcore ist bitte stromsparend?
Die neuen Steppings, welche erstmals im E4xxx zu finden sind, ziehn auch im Idle mit AMd gleich. Unter Load ist man welten besser!

StefanV
2007-05-18, 20:36:21
Nö, ist man nicht.

Außerdem vergisst der Herr Gast den Chipsatz, der bei Intel bauartbedingt wärmer werden muss.

Modulor
2007-05-18, 21:11:21
Ich mache mir keine Sorgen solange die noch das Geld haben um ihr Logo auf die Ferraris zu kleben... :D
AMD hat in den letzten Jahrzehnten schon mehr als einmal deutliche Verluste über lange Zeiträume gemacht,die wissen wie man sich "ganz unten" über Wasser hält. Und notfalls schrumpft man sich wieder gesund und gibt sich wieder mit Markanteilen von 1-10% an X86 CPUs zufrieden.So what...

drum02
2007-05-18, 21:11:35
Fakt ist: INTEL hat die Nase vorn. und meine nächste CPU ist ein INTEL.
AMD ist selbst schuld, nämlich durch den Sockelwechsel von 939 auf AM.

Markus89
2007-05-18, 21:16:12
Fakt ist: INTEL hat die Nase vorn. und meine nächste CPU ist ein INTEL.
AMD ist selbst schuld, nämlich durch den Sockelwechsel von 939 auf AM.

Als könnte man alle neuen Intel CPUs auf alten Mainboards betreiben.

AnarchX
2007-05-18, 21:16:24
AMD ist selbst schuld, nämlich durch den Sockelwechsel von 939 auf AM.

Ohne diesen, würde es AMD noch viel schlechter gehen, da für die OEMs eben DDR2 eine wichtige Anforderung ist.

Zudem, wie oft muss man den bei Intel das Board wechseln? ;) Der K10 wird übrigens auf dem "bösen" AM2 Sockel auch noch laufen.

Naja, Intel setzt nun alles daran AMD, welche in den letzten Jahren immer gefährlicher geworden sind, finanziell zu Grunde zu richten, durch die Kampfpreise.

Nicht einfach die Situation - umso wichtiger ist es, dass der K10 ein Erfolg wird und AMD ihre Alleinstellungsmerkmale ausnutzt, solange sie noch solche sind.

WEGA
2007-05-18, 21:40:33
AMD ist selbst schuld, nämlich durch den Sockelwechsel von 939 auf AM.
was für ein bullshit

Als könnte man alle neuen Intel CPUs auf alten Mainboards betreiben.

na eben, da kann man 3x den selben sockel (775) haben und muss trotzdem für jede CPU ein neues mainboard kaufen.

Schrotti
2007-05-18, 22:25:42
Nö, ist man nicht.

Außerdem vergisst der Herr Gast den Chipsatz, der bei Intel bauartbedingt wärmer werden muss.

Ist das so?

Du kannst das sicher belegen oder? (komm jetzt aber nicht mit dem Stromfressenden nforce)

Gast
2007-05-18, 22:29:29
Ich hab ein Gigabyte S3 (85 Euro) mit Intel P965
FSB ist auf 400 eingestelt. Chipsatz wird zwischen 30 und 39 grad warm...und??

eXodia
2007-05-18, 22:32:01
Ist das so?

Du kannst das sicher belegen oder? (komm jetzt aber nicht mit dem Stromfressenden nforce)

Stefan spielt bestimmt auf den im Chipsatz angesiedelten FSB an, der ja bei AMD in der CPU sitzt.

Regards

aylano
2007-05-18, 22:37:21
Welcher AMD-Dualcore ist bitte stromsparend?
Die neuen Steppings, welche erstmals im E4xxx zu finden sind, ziehn auch im Idle mit AMd gleich. Unter Load ist man welten besser!
Schau dir mal diesen Test an.

Leider gibts recht wenige AMD-CPUs Test, die keinen nvide-590-SLI-Heizstrahler dranhängen haben.

www.bjorn3d.com/read.php?cID=1097&pageID=3392
Dieser Link wurde in den 3Dcenter-News am 16.Mai.2007 reingestellt. Ich hoffe das 3dcenter-Team stellt nur seriöse Links rein.

Laut diesem Test verbraucht der 5200+ unter Last und unter Idle gleich viel Strom wie der 6300 von Intel.
Dabei ist der 5200+ AFAIK um 5-10% schneller und das bei Gleichen Stromverbrauch.
Und der 5200+ ist ja doch noch in 90nm gefertig. Wie würde das unter 65nm aussehen???!!!

Keine Ahnung ob der RX740 und RD790 auch so gut und sparsam werden.
Wenn doch, dann dürften sich viele sehr stark wundern, wie sparsam der K8 doch war und ist..
Und das würde meine Vermutung "bestätigen", dass AMD gerade im 1 und 2Quartal unter einer fehlenden gscheiten AMD-Plattform leidet.
Wenn das nicht sogar der Hauptgrund ist.

@Thema
So wie ich es mitbekommen hab, hat sich bei AMD im 1sten Quartal ein kleiner CPU-Haufen angelegt. Vorallem deshalb, weil Intel seinen Haufen verramscht hat.
Na ja, wenn das Stimmt und AMD seinen Haufen durch die zusätzliche Preissenkung verkaufen kann, dann sieht das Defizit vielleicht doch nicht so schlimm aus, wie letztes Quartal.

Daumen Mal Pi würde ich ein Defizit von 300-600 Mio. Euro im 2ten Quartal schätzen.
600Mio. Euro, wenn der CPU-Haufen nicht ganz verkauft werden kann und wenn der R600-Verkauf auch ned so gut läuft.
300 Mio. Euro, wenn der CPU-Haufen verkauft wird und die R6?0-Grafik-Generation gut verkauft und produziert werden kann.
Beides halte ich für möglich.

Na ja, wenn AMD wieder 600 Mio. Euro macht, dann würde ich mir schon ein bischen sorgen machen, da ich mir dann nicht mehr zu 100% sicher wäre. Bei 300Mio. Euro Defizit würde da anderst aussehen.

Nebenbei ist ja die neue Notebook-Plattform eingeführt worden. Und man weiß ja auch nicht, wie viel Stück dort produziert werden, was zu ordentlichen Einnahmen führen könnte.
Und mit Notebook-CPUs verdiehnt man sehr gut (siehe Intel)

Ohne diesen, würde es AMD noch viel schlechter gehen, da für die OEMs eben DDR2 eine wichtige Anforderung ist.
Natürlich, aber AMD hätte noch viele 939-65nm-CPUs verkaufen können. Und für diese Leistung hätte AMD auch etwas mehr verlangen können.

reunion
2007-05-18, 22:44:48
Ist das so?

Du kannst das sicher belegen oder? (komm jetzt aber nicht mit dem Stromfressenden nforce)

Genau wegen des stromfressenden Nforce-Chipsatzes, der fast bei allen Vergleichstests bei AMD-CPUs herhalten muss, steht AMD hier immer so schlecht da. In Wahrheit sind selbst die 90nm CPU bei weitem keine Stormfresser:

http://www.hothardware.com/articleimages/Item929/power.png

Hier mal eben 40W Unterschied durch den Wechsel des Boards. Das sind fast 20% des Gesamtverbauches des Rechners. Mit dem RD580 lanciert selbst der FX62 fast zum Stromsparwunder.

malle
2007-05-18, 22:50:04
Sobald AMD seine eigene AMD Plattform hat wird es stark Aufwärts gehen.
Eigene Boards, eigene Chipsätze, eigene CPU und dazu eigenen HighEnd Grafik. Ab dem Weihnachstgeschäft 2007 wird AMD zulegen können und wieder Gewinn machen.

dargo
2007-05-18, 22:50:43
Schau dir mal diesen Test an.

Leider gibts recht wenige AMD-CPUs Test, die keinen nvide-590-SLI-Heizstrahler dranhängen haben.

www.bjorn3d.com/read.php?cID=1097&pageID=3392
Dieser Link wurde in den 3Dcenter-News am 16.Mai.2007 reingestellt. Ich hoffe das 3dcenter-Team stellt nur seriöse Links rein.

Laut diesem Test verbraucht der 5200+ unter Last und unter Idle gleich viel Strom wie der 6300 von Intel.
Dabei ist der 5200+ AFAIK um 5-10% schneller und das bei Gleichen Stromverbrauch.
Und der 5200+ ist ja doch noch in 90nm gefertig. Wie würde das unter 65nm aussehen???!!!

Dann schau mal hier: ;)
http://www.hardtecs4u.com/reviews/2007/intel_e6420_e4300/index6.php

StefanV
2007-05-18, 22:59:23
Ist das so?

Du kannst das sicher belegen oder? (komm jetzt aber nicht mit dem Stromfressenden nforce)
Schau dir doch mal die TDP des P965s an, was der an Energie verbrät ist schon nicht schön.

Auch ist der RD600 etwas wärmer als der RD480 oder gar RD580, vermutlich wegen des Speichercontrollers, der immer noch in der NB steckt, was bei AMD ja bekanntlich nicht mehr der Fall ist.

Von daher sind die Vergleiche CPU AMD - CPU Intel voll fürn Arsch.

Denn man vergleicht ja eben nicht nur die CPU sondern eine CPU mit Nordbrücke gegen eine CPU ohne alles.

lilgefo~
2007-05-18, 23:04:56
Die Lowend RadeonHd Karten sollen ja auch ganz beliebt sein bei den Oem Herstellern. (und das ist ja immer ein gutes Geschäft) steht zumindest p3d (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1179166654) bzw digitimes

Schrotti
2007-05-18, 23:05:03
Stefan spielt bestimmt auf den im Chipsatz angesiedelten FSB an, der ja bei AMD in der CPU sitzt.

Regards

Danke, das denke ich auch.

Genau wegen des stromfressenden Nforce-Chipsatzes, der fast bei allen Vergleichstests bei AMD-CPUs herhalten muss, steht AMD hier immer so schlecht da. In Wahrheit sind selbst die 90nm CPU bei weitem keine Stormfresser:

http://www.hothardware.com/articleimages/Item929/power.png

Hier mal eben 40W Unterschied durch den Wechsel des Boards. Das sind fast 20% des Gesamtverbauches des Rechners. Mit dem RD580 lanciert selbst der FX62 fast zum Stromsparwunder.

40W Unterschied nur durch den Wechsel des Boards (anderer Chipsatz) ist ok aber warum im load noch soviel höher?

reunion
2007-05-18, 23:06:53
40W Unterschied nur durch den Wechsel des Boards (anderer Chipsatz) ist ok aber warum im load noch soviel höher?

Weil der FX62 ein bis zum Ende ausgelutschte CPU ist, die noch immer in 90nm gefertigt wird?

sun-man
2007-05-18, 23:07:13
Sobald AMD seine eigene AMD Plattform hat wird es stark Aufwärts gehen.
Eigene Boards, eigene Chipsätze, eigene CPU und dazu eigenen HighEnd Grafik. Ab dem Weihnachstgeschäft 2007 wird AMD zulegen können und wieder Gewinn machen.
Richtig...weil die halbwe Welt wieder neue Mainbords kauft um nen neuen Prozessor einsetzen zu können. Keine ahnung wo das Fiskaljahr bei AMD endet, aber vor 2008 wird da keine Auswirkung zu spüren sein. Woher soll es denn kommen? Wir verkaufen zwar auch AMD's Prozessoren, bei Serverpreisen von über 30tsd Euro, aber wieviel davon bekommt wohl AMD?
Grafikkarten: Woher soll es kommen? Der R600 ist NOCH ein ziemlicher Reinfall - würde es da stromspartechnisch und Leistungsmäßig noch viel zu holen geben würde AMD sicher ne Meldung dazu rausgeben (auch wenn die sonst ein scheiß Markting haben). Wenn die Nachfolger kommen ist Nvidia auch schon längts dabei.

Gewinnen wird die Firma die zuerst kapiert das Grafikkarten keine 500Watt (übertrieben) benötigen müssen um www.google.de dazustellen.

Geschäfstentscheidungen muß niemand verstehen. Wir haben auch lange Verluste gemacht und trotzdem wurde für 4 Milliarden noch eine Firma zugekauft....ebenso wird sich AMD sicher Gedanken gemacht haben wo ATI reinpasst.

AMD sollte eher aufpassen das die nicht von Shareholdern oder was weiß ich zu Grunde gerichtet werden. Das die nun an zwei Fronten mit relativ schlechten (im Highend Bereich) produkten zu fighten haben ist hausgemachte Dummheit.....und vermutlich auch die übertreibungen seitens der ATI Manager - was hätte der R600 nicht alles werden sollen. Die Kohkle wird im OEM Markt gemacht....hier sollte AMD sicher zulegen, steht aber bestimmt nicht so übel da.


MFG

Gast
2007-05-18, 23:17:26
AMD ist selbst schuld, nämlich durch den Sockelwechsel von 939 auf AM.

Ohne den Sockelwechsel müsste man die Prozessoren noch mit DDR1 betreiben, so würde AMD noch schlechter darstehen.

dargo
2007-05-18, 23:19:28
Schau dir doch mal die TDP des P965s an, was der an Energie verbrät ist schon nicht schön.

Link?
Ich kenne nur 10W Idle und 19W Last bei der NB. :)

aylano
2007-05-18, 23:42:57
Dann schau mal hier: ;)
http://www.hardtecs4u.com/reviews/2007/intel_e6420_e4300/index6.php
Und, was soll ich schauen? Gibts nichts zu sagen?

Reale Werte ohne Memory-Controller. Und wie sehen die Werte in der Praxis aus?

Eine 6420 verbraucht um 20 Watt weniger Strom als eine 6400.
Wahrscheinlich auch beim 6320. Optimal um diesen gegen einen 65nm-X2 zu vergleichen.

Ich will ja nur sagen, dass die K8 trotz veraltene Architektur recht konkurrenzfähig ist. Aber das AMD-Image wiederspiegelt das nicht, was wahrscheinlich auch zu diesen Gewinn-Einbrüchen geführt hat.
Und dass diese alte Architektur dann nicht mehr so gut übertaktbar ist, sollte doch auch klar sein, aber wie viele machen das?

malle
2007-05-18, 23:55:50
Jo, wenn wir den X2 6000+ K8 hernehmen, sehen wir doch, dass er garnicht soweit weg ist von den 3GHz C2D.

aylano
2007-05-19, 00:14:24
Jo, wenn wir den X2 6000+ K8 hernehmen, sehen wir doch, dass er garnicht soweit weg ist von den 3GHz C2D.
Welch Überraschung, dass der veraltete K8 im oberen Ghz-Bereich nicht mehr sooo gut gegen einen besseren Übertaktbaren C2D mithalten kann.
Vorallem, wenn der noch in 90nm-Produziert wird.

Und wieviel kostet die 3Ghz-CPU von AMD und Intel?!

dildo4u
2007-05-19, 00:19:54
Jo, wenn wir den X2 6000+ K8 hernehmen, sehen wir doch, dass er garnicht soweit weg ist von den 3GHz C2D.
Hä? Der X2 6000 kommt mit 600mhz mher nich mal an einem E6600(2.4Ghz) vorbei.Also brauch ich auch kein 3Ghz C2D um ihn zu schlagen und der E6600 ist billiger als der AMD und frisst weniger Strom.

http://images.anandtech.com/graphs/intel%20core%202%20extreme%20qx6800_040907100447/14406.png

http://images.anandtech.com/graphs/intel%20core%202%20extreme%20qx6800_040907100447/14407.png

sun-man
2007-05-19, 00:34:38
Ist das jetzt Absicht das Du den Oblivionscreen raus gelassen hast?
http://images.anandtech.com/graphs/intel%20core%202%20extreme%20qx6800_040907100447/14405.png

Deutlich ist zwar was anderes, aber er kommt vorbei ;)

dildo4u
2007-05-19, 00:39:30
Nein ich hab mit Absicht die CPU limitierten Spiele genommen Oblivion ist zu Grafikkartenlastig in 1600*1200.Und ja manchmal ist der AMD gleichauf mit dem Intel ist aber auch teurer und durch die 90nm Fertigung wesentlich Stromhunriger.

sun-man
2007-05-19, 00:47:40
Naja, wie auch immer. Ich bin seit Jahren auf Intel und nun sind halt die AMD's mal hinten drann....ich erinnere mich noch gut an die Schmährufe die der P4 ertragen musste mit seinen vielen GHZ ;)

Ich halte den Panoramafactorytest seitens Anand für ganz cool. Als ich den P4 mit HT hatte konnte ich trotz stichender Fotos (20x6MP) noch arbeiten, mit den Pentium mobile 1.5@2.5 ging aufrund des Singelcores so gut wie nix mehr....mit dem C2D ist es völlig in Ordnung. Das software greift sich zwar viel Speicher, aber man merkt es nicht und es ist enorm schnell.

Gast
2007-05-19, 00:51:18
Ist das jetzt Absicht das Du den Oblivionscreen raus gelassen hast?
http://images.anandtech.com/graphs/intel%20core%202%20extreme%20qx6800_040907100447/14405.png

Deutlich ist zwar was anderes, aber er kommt vorbei ;)Schon gegen eine 2,66GHz C2D mit 1333 FSB für $183 wird ihm am 22. Juli die Luft ausgehen. Ob AMD noch einen 3,2GHz K8 nachlegen kann? Die Produktionsausbeute zumindest dürfte sehr schlecht aussehen, denn der K8 ist am Ende und wir auch nicht mehr als Desktop-CPU beschleunigt.

sun-man
2007-05-19, 01:11:34
...und selbst wenn. Für AMD ist der endlundenmarkt sicherlich wichtiger als für Intel aber das Geld wird AFAIK mit den OEMs/Systemhäusern und Co gemacht. Für Firmen die mal eben 20, 50 oder 100 Rechner austauschen müssen wird es interessanter was die Rechner verbrauchen wenn die eben NICHt gebarcht werden. Genau das passiert nämllich mit den meisten. Bleiben wir mal bei Anandt und dann sieht man das der 6000 zwar 600MhZ mehr hat, aber im IDLE (mir schon klar) weniger verbraucht:
http://anandtech.com/cpuchipsets/showdoc.aspx?i=2933&p=9

Man sollte sich über Firmen-Mitteklasse-OEM-Joghurtbecher auch nicht zu viel vormachen. Dualcore braucht da kein Schwein, ebensowenig wie die Kisten Megalasten wegschleppen müssen.

Bei Servern ist es wieder ein wenig anders. Man sollte sich auch hier nicht wundern wie wenig eigentlich auf Vollast laufen - zumindest in geplanten Umgebungen. wir haben beispielweise ne 32Prozessordomain die in Stoßzeiten auf max 60% Last geht, mehr wäre ein Grund die Domain noch mit 4 oder 8 Prozessoren zu versehen. Warum: Ganz einfach. Wenn das abschmiert oder Sachen aufgearbeitet werden müssen und die Maschine läuft eh schon bei 90% ist eben nicht der geringste Platz mehr für Extraarbeiten die man einfach mit einplanen muß. Selbst komplexe wettervorhersagen laufen in den Tagen der Berechnung nicht auf Volllast.
Heisst das bis auf einige Ausnahmen aug hier Stromsparmechanismen wichtiger den je sind. Strom und Klimakosten erreichen je nach Standort schnell 5 stellige Beträge pro Monat. Bei uns steigt man immer mehr auf Wassergekühlte Racks um.

Paar nette Beispiele: Unsere T2000 dürfte nach unseren Erfahrungen beim Kunden das Center, P3D, Motor-Talk und Luxx problemlos bewältigen. Als Input sind 400W (1500BTU/hr) angegeben. Die Sf25K mit 18Bord (18x4Procs)muß hat ne Anforderung von 26KW (90tsd BTU/hr).
Das kam so von strato zur T2000: http://de.sun.com/company/events/2005/sparc-server/pdf/P7_Strato.pdf

MFG

Gast
2007-05-19, 01:56:13
Na ja, wenn das Stimmt und AMD seinen Haufen durch die zusätzliche Preissenkung verkaufen kann, dann sieht das Defizit vielleicht doch nicht so schlimm aus, wie letztes Quartal.

AMD hat seinen CPU Haufen schon verkaufen können:


Was für AMD (NYSE: AMD - Nachrichten) gut ist, muss nicht automatisch negativ für Intel (NASDAQ: INTC - Nachrichten) sein. Dieser Meinung sind Analysten von AmTech Research.
Sie haben gestern erst die Aktien von AMD aufgestuft, was fallende Kurse bei Intel zur Folge hatte. Ein Grund für die Aufstufung der AMD-Aktie war, dass sich dessen Situation bei den Lagerbeständen verbessert habe.
Das wurde von Anlegern dazu genutzt, die Intel-Aktie
Anzeige
zu verkaufen, was jedoch in den Augen der Analysten nicht schlüssig sei. Grund: Die zurückgegangenen Lagerbestände bei AMD würden darauf hindeuten, dass die zugrunde liegende PC-Nachfrage auf einem hohen Niveau liege, was auch für Intel positiv zu werten sei. Außerdem müsse AMD nun keinen Preiskrieg mehr in der Intensität wie in den vergangenen Monaten führen. Außerdem gewinne AMD im Low-End-Notebook-Bereich Marktanteile; aus diesem Geschäftsbereich ziehe sich Intel gerade zurück.

Quelle:
http://de.biz.yahoo.com/15052007/389/amd-vs-intel-leid-freud.html


Übrigens danke für das Diagramm zum Stromverbrauch von AMD vs. Intel mit nicht NForce Mainboards auf AMD Seite.


Was aber auch noch interessant wäre, wäre mal ein Stromverbrauchsvergleich, bei dem auf beiden Seiten nur Mainboardchipsätze von NVidia verwendet werden.
Dann dürfte man unter wirklich fairen Bedinungen feststellen können, welches Gesamtsystem weniger Strom verbraucht.

Gast
2007-05-19, 02:17:51
Dann schau mal hier: ;)
http://www.hardtecs4u.com/reviews/2007/intel_e6420_e4300/index6.php

LOL, was für ein Dummer Test, die messen den Stromverbrauch ja direkt an der CPU.

Da wird der Verbrauch des Speichercontrollers ja gar nicht mitberücksichtigt.

Merke:

Wenn man den Stromverbrauch von einer Intel vs. AMD Lösung vergleichen will, dann MUSS man immer das Mainboard mit in den Stromverbrauch einbeziehen.

Grund:
Auf den AMD CPUs ist der Speichercontroller auf den CPUs, bei Intel CPUs fehlt der und sitzt auf dem Mainboard.

Gast
2007-05-19, 02:20:29
Weil der FX62 ein bis zum Ende ausgelutschte CPU ist, die noch immer in 90nm gefertigt wird?

Dumm wenn man keine Benchmarkwerte ablegen kann.

Der 40 W Unterschied ist nämlich bei einer FX62 CPU gegen eine FX62 CPU zu sehen.
Also genau die ein und selbe CPU.

Gast
2007-05-19, 04:44:18
Da wird der Verbrauch des Speichercontrollers ja gar nicht mitberücksichtigt.

Ist ja auch richtig, wenn man den Stromverbrauch der CPU misst. Klarer Vorteil ist: Die dort ermittelten Werte sind alles was man mit dem CPU Kühler abführen muss.

Der Speichercontroller gehört zum Mainboard und der hat seine eigene Kühlung. Natürlich verbraucht der auch wieder Strom, aber es ist nicht so viel wie einige denken und stark lastabhängig. Rechne 10-15W drauf, dann haste deinen Wert.

Wenn man den Stromverbrauch von einer Intel vs. AMD Lösung vergleichen will, dann MUSS man immer das Mainboard mit in den Stromverbrauch einbeziehen.

Nun, selbst bei der Messung des Gesamtsystem hat AMD so seine Probleme:
http://www.hothardware.com/articleimages/Item929/power.png

Der dort nicht gelistete E6600 würde noch etwas darunter liegen und erst der ist in der Leistung vergleichbar... da hilft auch der sparsamere RD580 nix!

Gast
2007-05-19, 06:24:56
Ist ja auch richtig, wenn man den Stromverbrauch der CPU misst. Klarer Vorteil ist: Die dort ermittelten Werte sind alles was man mit dem CPU Kühler abführen muss.

Um zu wissen, was für ein Kühler mindestens drauf mußt gibt es bei CPUs die TDP Angaben, die reichen.
Ein guter Kühler paßt sich sowieso an die aktuelle Temperatur an.


Der Speichercontroller gehört zum Mainboard und der hat seine eigene Kühlung. Natürlich verbraucht der auch wieder Strom, aber es ist nicht so viel wie einige denken und stark lastabhängig. Rechne 10-15W drauf, dann haste deinen Wert.

Es geht darum, daß es den Eindruck erweckt, daß Intel CPUs sparsamer seien, was aber ganz klar nicht der Fall ist,
wenn man den Stromverbrauch für den Memorycontroller mitdazurechnet.

Und seit dem X2 gehört der Speichercontroller übrigens auf die CPU und nicht mehr aufs Mainboard. ;)





Nun, selbst bei der Messung des Gesamtsystem hat AMD so seine Probleme:
http://www.hothardware.com/articleimages/Item929/power.png

Der dort nicht gelistete E6600 würde noch etwas darunter liegen und erst der ist in der Leistung vergleichbar... da hilft auch der sparsamere RD580 nix!
[/QUOTE]

Schau dir diese Grafik an:
http://www.bjorn3d.com/Material/revimages/motherboards/ecs690/power.png

Der E6300 liegt mit dem AMD X2 5200+ beim Stromverbrauch gleichauf, aber der X2 5200+ ist in den relevanten 3d Spielen im Durchschnitt schneller.
Der E6300 liegt eher im Leistungsbereich des X2 4600+ oder 5000+.


D.h. bei AMD kriegst du mehr Leistung/Watt.

So Scherze wie Overclocking mal ausgenommen.

aylano
2007-05-19, 08:47:48
Ein Grund für die Aufstufung der AMD-Aktie war, dass sich dessen Situation bei den Lagerbeständen verbessert habe.
Na ja, das gibt Hoffnung für ein besseres Defizit im 2ten Quartal.

Außerdem müsse AMD nun keinen Preiskrieg mehr in der Intensität wie in den vergangenen Monaten führen.
Verstehe ich jetzt nicht ganz aber, na gut.
Vielleicht war es im 1sten Quartal nur ein Einmaleffekt, dass Intel ihre alten CPUs bis zu 25-Euro verramscht hatten. Bei so niedrigen Preisen sind gute Plattformen nicht unwichtig. Und jetzt hat AMD mit ihren RS690-Chips ja ein gutes Gegenstück.

Außerdem gewinne AMD im Low-End-Notebook-Bereich Marktanteile; aus diesem Geschäftsbereich ziehe sich Intel gerade zurück.
Dass AMD in den Low-End-Notebook-Bereich sehr gut vertreten ist, hat man ja ein bischen in den Prospekten mitbekommen.
Aber warum Intel aus diesem Geschäft (kampflos) aussteigt, verstehe ich auch nicht ganz.
Na ja, bekräftig immerhin meiner Vermutung, dass AMD mit ihrem RS690-Chip und K8 eher auf Low-End und (Gamer)-mainstream-Notebooks setzt, während intel eher auf (Performance)-mainstream- und Buisness-Notebooks setzt.

reunion
2007-05-19, 09:39:09
Der 40 W Unterschied ist nämlich bei einer FX62 CPU gegen eine FX62 CPU zu sehen.
Also genau die ein und selbe CPU.

Das sehe ich selbst auch. :|

TRF414
2007-05-19, 12:33:41
also ich kaufe schon aus prinzipien kein Intel auch wenn sie vlt. schneller sind. Ich unterstütze halt lieber die kleineren Unternehmen (wobei ja AMD sicher auch keines ist)

MikeB
2007-05-19, 12:47:21
...
Ich mach mir echt Sorgen um AMD, der Barcelona wurde verschoben und mit den popeligen und teuren X2s haben die da doch 0 entgegenzusetzen??

Ich verstehe diese Einstellung nicht ganz, Intel hat doch den P4 auch überlebt?
Ich habe mir erst kürzlich einen A64 X2 EE 4800+ für unter 100€ gekauft, was ist daran popelig und teuer?

Michael

AnarchX
2007-05-19, 12:50:13
Ich verstehe diese Einstellung nicht ganz, Intel hat doch den P4 auch überlebt?


AMD ist aber noch lange nicht Intel. ;)

sun-man
2007-05-19, 12:54:44
Ich verstehe diese Einstellung nicht ganz, Intel hat doch den P4 auch überlebt?
Naja, das was Intel pro Jahr in Entwicklung steckt hat AMD an Umsatz ;)

MikeB
2007-05-19, 13:01:13
Naja, das was Intel pro Jahr in Entwicklung steckt hat AMD an Umsatz ;)

Hmm, klingt ganz logisch, aber warum kam dann der C2D erst so lange nach P4?

AnarchX
2007-05-19, 13:09:28
Hmm, klingt ganz logisch, aber warum kam dann der C2D erst so lange nach P4?

Weil Intel an langfristigen Roadmaps festhält und es auch muss um ihre Partner nicht zu verärgern.

sun-man
2007-05-19, 13:10:26
Hmm, klingt ganz logisch, aber warum kam dann der C2D erst so lange nach P4?
Warum kann AMD nicht einfach umstellen und nen neuen Prozessor bringen? weil es eben nicht ganz so einfach ist alles von jetzt auf gleich umzustellen. Außerdem macht man das eben nicht, der P4 lief ja auch recht gut.
Außerdem hat Intel ein paar Geschäftsfelder mehr als AMD die sich ja eigentlich nur um die eigenen Prozessoren und Flashspeicher drehen. Intel hat auch nicht nur Desktopprozis, da sind noch div. Laptopvarianten, Serverprozessores usw usw usw. Selbet wenn der einser BMW scheiße aussieht wird den BMW nicht in 3 Monaten neu entwickeln können und austauschen - mal abgesehen davon das die das sicher nicht wollen.

MFG

MikeB
2007-05-19, 13:16:45
Weil Intel an langfristigen Roadmaps festhält und es auch muss um ihre Partner nicht zu verärgern.

Gilt das Gleiche dann nicht auch für AMD?

dargo
2007-05-19, 13:28:16
LOL, was für ein Dummer Test, die messen den Stromverbrauch ja direkt an der CPU.

Da wird der Verbrauch des Speichercontrollers ja gar nicht mitberücksichtigt.

Afaik liegt dieser bei ~3W.


D.h. bei AMD kriegst du mehr Leistung/Watt.

Wo lebst du denn? Spätestens mit dem L2 Stepping ist der C2D sparsamer (und ja, da hilft dir auch nicht der intergrierte Memory-Controller der kaum Leistung benötigt). Und das M0 Stepping macht AMD das Leben noch schwieriger.

DjNorad
2007-05-20, 02:45:33
Also zum Thema Energieefiizienz verweise ich gerne mal auf folgenden Artikel mit dem Titel:

"Stromspar-Duell: Intel auf verlorenem Posten" (http://hardware.thgweb.de/2007/05/03/intel-l2-stepping/)

=Floi=
2007-05-20, 03:40:06
nur schlägt hier der kleine intel prozessor alle aneren dual core unter last und idle ist eh zweitnangig
und die tabelle in der der preis miteingerechnet wird ist theoretisch ne tolle idee aber in der praxis einfach mist

dual core mit single core zu vergleiche ist auch nicht richtig zumal ich hier dem celeron auch zutraue zu punkten...
http://images.thgweb.de/2007/04/27/intel-l2-stepping/chart_stromkosten_jahr_leerlauf.png
http://images.thgweb.de/2007/04/27/intel-l2-stepping/chart_stromkosten_jahr_100_last.png
man beachte mal den quad core... ca 8X mehr leistung als der olle sempron
aber nur doppelte stomkosten!

Gast
2007-05-20, 10:40:29
Eigentlich ist gesrade der idle und teillastverbrauch interessant...

Das Auge
2007-05-20, 10:41:29
nur schlägt hier der kleine intel prozessor alle aneren dual core unter last und idle ist eh zweitnangig

Blödsinn, gerade der idle-Verbrauch ist wichtig, denn das tut die CPU typischerweise am meisten: idlen!

sun-man
2007-05-20, 10:42:41
Richtig, aber wie sollen Hersteller bzw Kunden das mitbekommen? Marketing und Werbung sind bei AMD nicht wirklich vorhanden. Wenn Kunden bei der Bestellung von 100 Rechner wüssten das man mit den AMD's evtl sparen könnte würden die ja mal nachfragen, so bekommen sie einfach Intels hingestellt und fertig ist die Laube. 3 Grüne Schafe fressen ein halbes Feld leer und sind danach fett und rund....3 blaue Schafe fressen zwei Felder um genauso fett und rund zu sein.....das einen Monat im TV und viele verinnerlichen es. aber wie gesagt, AMD hat scheinbar nichtmal ne werbeabteilung oder das macht der Hausmeister mit (scheint so).

MFG

=Floi=
2007-05-20, 11:11:28
nur zählen auch so sachen wie die restliche pherepherie zB der router oder das dsl modem, die boxen, der monitor, die graka, die glühbirne etc. und da spielen die paar watt im idle nicht wirklich eine rolle und wenn man einen multimedia pc richtig nützt dann idlet er relativ wenig

aylano
2007-05-20, 13:27:55
Natürlich, aber nicht umsonst bring Intel den L0, L2 und jetzt noch den M0-Stepping raus.
Ich schätze, dass Intel damit auf den niedrigen Stromverbrauch reagiert. Nicht umsonst wird die Santa-Rosa-Plattform auch für den Destop-Einsatz im niedrigen Stromverbrauch eingesetzt.

Und wie gesagt. Bisher hat es kaum anstrengungen gebeben, Technik-Produkte stromsparend zu machen.

Jetzt wird von Seiten AMD und Intel versucht stromsparende Plattformen zu bauen. Und somit steigt der Stromspardruck auch auf andere Herrsteller.

Und sobald der Druck dar ist, werden die Stromverbräuche diverser Geräte auch sinken. Potential ist sicher da.

Gast
2007-05-21, 07:32:13
Off Topic:


Geschäfstentscheidungen muß niemand verstehen. Wir haben auch lange Verluste gemacht und trotzdem wurde für 4 Milliarden noch eine Firma zugekauft....ebenso wird sich AMD sicher Gedanken gemacht haben wo ATI reinpasst.

Ihr/SUN wollte(t) offenbar in der Vergangenheit schon mehr als einmal Apple kaufen oder mit denen zusammen gehen. http://www.golem.de/0601/42689.html

Wäre interessant gewesen, was dann rausgekommen wäre. Ob man dann OSX und Solaris verschmolzen hätte? Aber auch so erhält OS 10.5 einges von eueren Technologien, wie ZFS und DTrace.

Gast
2007-05-23, 05:35:13
nur zählen auch so sachen wie die restliche pherepherie zB der router oder das dsl modem, die boxen, der monitor, die graka, die glühbirne etc. und da spielen die paar watt im idle nicht wirklich eine rolle und wenn man einen multimedia pc richtig nützt dann idlet er relativ wenig

Man muß schon ständig Bildbearbeitung betreiben und Spielen zocken, damit der Rechner mal nicht idled.


Aber selbst da, zumindest beim Bilder bearbeiten gibt es sehr viele IDLE Zeiten.
Der wichtigste Betrieb ist daher immer noch der IDLE Betrieb, es sei denn du hast nen Rechner der nur dazu da ist, für die nächsten 2 Jahre ein Klimamodell zu berechnen.

=Floi=
2007-05-23, 07:15:29
zB lastet ein tv- tuner auch den prozessor ganz gut aus
und da gibt es sicherlich noch ein paar sachen die die prozessorlast anheben
wer nur mit 1 fenster im IE surft für den mag das sicherlich nicht zutreffen...

ich wollte eben nur verdeutlichen dass es genug andere verbraucher gibt die wesentlich mehr verbrauchen als der olle prozessor im idle und nebenbei ist der @last verbrauch wesentlich wichtiger denn hier wird der lüfter laut und die cpu frisst hier richtig strom (X2 6000+ faktor 10!!!)

Silverbuster
2007-05-23, 07:22:42
Mal vergleichen wann der PC Idle und wann unter Last ist.

Idle:
Internet, Office, Tabellenkalkulation, DVD schauen (kein HDMI), Musik hören u.s.w.!

Last:
Spielen, Zeitweise bei der Bildbearbeitung (Filter oder dergleichen, macht man ja nicht alle 2 Sekunden), HDMI.

Grundsätzlich gilt, das im Schnitt ein PC 80% der Zeit im IDle Modus läuft. Außer man ist Hardcore Gamer der seinen Rechner nur anmacht um zu zocken. Aber das ist eine winzige Minderheit insgesamt gesehen.
Wer "normal" am Rechner arbeitet und Surft, ist immer noch besser mit einem X2 EE bedient.

Allerdings muss ich jetzt auch nochwas zum Stromverbrauch los werden. Es wird ja immer gerne angegeben das eine CPU 20W weniger als die andere verbraucht. Dabei wird gerne vergessen das der Chipsatz eines Mobos ebenfalls ein Stromfreser ist. Ein nVidia 680i verbraucht z.B. fast 50W mehr als ein Intel 965 (ca. 20W gegen 70W) unter Last. Aber das interessiert keinen. Da kann ich immer nur wieder lachen wie manche meinen sie haben Stromspar Rechner und dann nVidia Chipsätze drinnen, welche alle mehr als das Doppelte verbraten als alle anderen Chipsätze von anderen Herstellern. Sis und Via sind hier extrem Stromsparend, danach folgen die ATI/AMD Chipsätze, dann Intel.... und mit extrem hohem Verbrauch die nVidia.

Auch denke ich nicht das sich AMD wirklich groß Sorgen machen muss. Es ist auch keine kleine Firma und hat mittlerweile den Einstieg in andere Bereiche geschafft. Wen man sich die Vergangenheit ansieht, hatte AMD immer Höhen und Tiefen. Und über die letzen 10 Jahre gesehen, ist AMD immer mehr gewachsen, langsam, aber stetig. Ich denke mit dem K10, Dem kommenden R650 und den neuen Chipsätzen (die günstig und gut sind) wird man wieder den Kundenstamm stabilisieren können. Grade mit dem Pluspunkt das der K10 auf den bisherigen AM2 Boards lauffähig sein soll.

Ich mag AMD. Die haben sich gemausert und schaffen es immer mal wieder den Großen (Intel) unter druck zu setzen. Das klappt zwar nur Zeitweise, aber immerhin. Andere sind da fast schon weg. IBM mit ihrem Cyrix, Via kann im Desktop Segment auch nur noch mit Stromspar CPUs mithalten. Von daher, Respekt AMD!

=Floi=
2007-05-23, 07:29:27
70 watt verbraucht er niemals.... ;D

und idle ist nicht office oder deine anderen beispiele sondern wenn man NICHTS macht
der pc geht so schnell in den last modus und wieder zurück dass es dir garnicht auffällt
schon wenn du ein fenster verschiebst geht er in den last modus!

Silverbuster
2007-05-23, 07:38:50
70 watt verbraucht er niemals.... ;D

und idle ist nicht office oder deine anderen beispiele sondern wenn man NICHTS macht
der pc geht so schnell in den last modus und wieder zurück dass es dir garnicht auffällt
schon wenn du ein fenster verschiebst geht er in den last modus!

Geh mal Googeln.. 680i hat eine Verbrauch von 70W! ODer warum glaubst du brauch grade der nForce eine so aufwendige Kühlung? Schau dir mal Uli Chipsätze an, oder den 945. Die brauchen ne kleine Passiv Kühlung. Das kommt nicht von ungefähr.
UNd das man für idle NICHTS machen muss, stimmt rein gar nicht. Erst wen die CPU im idle Modus über eine bestimmte Last hinaus geht, was dier z.B. niemals passiert wen du einen neuen Tab öffnest, oder eine Internetseite startest, oder deine Maus schnell bewegst, dich durch Tabellen wühlst, da steigt die Taktrate der CPU nicht.

EDIT: Mal etwas das ich auf die schnelle gefunden habe. Hier ist der 2alte" 590 im Verbrauch um 20W höher als der ATI Xpress3200 http://www.computerbase.de/news/hardware/mainboards/amd-systeme/2006/mai/stromverbrauch_ati_rd580_nforce_590_sli/

EDIT Teil 2:
Oder schau dir hier mal die Unterschiede der Chipsätze auf den Boards an: http://hardware.thgweb.de/2007/04/15/nvidia_nforce_650i_sli_motherboard/page13.html

=Floi=
2007-05-23, 07:46:31
http://www.computerbase.de/artikel/hardware/mainboards/2006/test_nforce_680i_sli_intel_p965/11/#abschnitt_stromaufnahme
16watt mehr unter last (mein gott, wir müssen alle sterben ;D )
dafür bietet das board auch wesentlich mehr lanes, kanäle (PCIe Lanes/Kanäle
46/9) und slots etc. (zB 2X FW 2X Gbit )


und eigentlich müsstest du die chipsätze mit einem vergleichbarem produkt vergleichen und nicht low end mit highend =)
edit
die kühlung auf dem refenzboard ist nicht groß
die chipsätze sollten auch mit dem doppelten fsb laufen und da werden sie nunmal heißer und nebenbei müßen eben die 16-20 watt mehrverbrauch abgeführt werden aber keine 70watt (schau dir mal einen prozessorkühler an der 70watt verlustleistung abführen muß)

Silverbuster
2007-05-23, 07:55:03
Es gibt noch bessere Artikel, finde sie nur auf die schnelle nicht. Chipsatzverbrauch wird selten gemessen, schade eigentlich. Würde eine CPU 16W mehr verbrauchen, würden einige im Dreieck springen. Aber darauf will ich ja hinaus. Das man sich viel zu viel Gedanken um den Stromverbrauch am Rechner macht. Tauscht einfach 2 60W Glühbirnen gegen Stromsparlampen aus, und ihr habt den Mehrverbrauch im Jahr wieder drinnen.
Grade diejenigen die sich am meisten über den Stromverbrauch aufregen, die haben dann den Deckenfluter im Wohnzimmer an, dazu noch ne Tischlampe die sie nicht brauchen und im Klo brennt wahrscheinlich auch noch das Licht weils beim letzten Schiss nicht ausgemacht wurde. Lächerlich.
Gut, das eine CPU kühler ist, klar. Aber da es unter Idle völlig egal ist wie Warm die CPU wird und unter Dauerlast alle CPUs ähnlich heiss werden (Der Unterschied zwischen meinem X2 3800 @2,5Ghz und einem X2 4200EE waren bei gleichem Kühler lächerliche 2° weniger für den EE nach 30 Minuten Prime auf beiden Kernen)! Also auch wieder kein echtes Argument.

Finde einfach das man hier viel zu Penibel geworden ist. Wichtiger wäre ein geringerer Verbrauch bei den Grafikkarten, weniger bei den CPUs!

MikeB
2007-05-23, 09:37:32
...
und idle ist nicht office oder deine anderen beispiele sondern wenn man NICHTS macht
der pc geht so schnell in den last modus und wieder zurück dass es dir garnicht auffällt
schon wenn du ein fenster verschiebst geht er in den last modus!

:confused:

Was hast du für einen Rechner? Last modus beim Fenster verschieben?
Mein Rechner bleibt komplett im C&Q selbst wenn ich in TV-auflösung XVID gucke.
Tu dir mal selbst einen Gefallen und schau in den Taskmanager bei Leerlaufprozess wieviel Rechenzeit da gelandet ist. (CPU-Zeit)

Michael

Gast
2007-05-23, 10:37:20
zB lastet ein tv- tuner auch den prozessor ganz gut aus
und da gibt es sicherlich noch ein paar sachen die die prozessorlast anheben
wer nur mit 1 fenster im IE surft für den mag das sicherlich nicht zutreffen...

ich wollte eben nur verdeutlichen dass es genug andere verbraucher gibt die wesentlich mehr verbrauchen als der olle prozessor im idle und nebenbei ist der @last verbrauch wesentlich wichtiger denn hier wird der lüfter laut und die cpu frisst hier richtig strom (X2 6000+ faktor 10!!!)

man, du irrst dich einfach nur
>90% der rechner drehen zu >90% daumen im idle


und idle ist nicht office oder deine anderen beispiele sondern wenn man NICHTS macht

und wieder unsinn, dein (eigener!) idle-prozess im taskmanager wird dir 100%ig was anderes aufzeigen

der pc geht so schnell in den last modus und wieder zurück dass es dir garnicht auffällt
schon wenn du ein fenster verschiebst geht er in den last modus!

...was pi-mal-daumen ein hunderstel ausmachen dürfe

informier dich einfach mal über prozesse/threads ;)

Hauwech
2007-05-23, 10:56:26
Es gibt noch bessere Artikel, finde sie nur auf die schnelle nicht. Chipsatzverbrauch wird selten gemessen, schade eigentlich. Würde eine CPU 16W mehr verbrauchen, würden einige im Dreieck springen. Aber darauf will ich ja hinaus. Das man sich viel zu viel Gedanken um den Stromverbrauch am Rechner macht. Tauscht einfach 2 60W Glühbirnen gegen Stromsparlampen aus, und ihr habt den Mehrverbrauch im Jahr wieder drinnen.
Grade diejenigen die sich am meisten über den Stromverbrauch aufregen, die haben dann den Deckenfluter im Wohnzimmer an, dazu noch ne Tischlampe die sie nicht brauchen und im Klo brennt wahrscheinlich auch noch das Licht weils beim letzten Schiss nicht ausgemacht wurde. Lächerlich.
Gut, das eine CPU kühler ist, klar. Aber da es unter Idle völlig egal ist wie Warm die CPU wird und unter Dauerlast alle CPUs ähnlich heiss werden (Der Unterschied zwischen meinem X2 3800 @2,5Ghz und einem X2 4200EE waren bei gleichem Kühler lächerliche 2° weniger für den EE nach 30 Minuten Prime auf beiden Kernen)! Also auch wieder kein echtes Argument.

Finde einfach das man hier viel zu Penibel geworden ist. Wichtiger wäre ein geringerer Verbrauch bei den Grafikkarten, weniger bei den CPUs!

Bei einem PC kann man noch viel mehr Strom sparen als nur beim Chipsatz. Dabei können aber teilweise nicht gerade kleine Kosten entstehen und ob sich das am Ende rentiert, muss jeder für sich selber wissen.